深受学习革命的人们在获奖时获得奖励

Bengio,Hinton和LeCun在人工智能方面取得了重大突破 

Yoshua Bengio

Yoshua Bengio

Yann LeCun

Yann LeCun

杰弗里·辛顿

杰弗里·辛顿

ACM将Yoshua Bengio,  Geoffrey Hinton和  Yann LeCun评为   2018年ACM AM图灵奖的获奖者,以获得概念和工程方面的突破,这些突破使深度神经网络成为计算的关键组成部分。Bengio是蒙特利尔大学教授,魁北克人工智能研究所Mila科学主任; Hinton是Google的副总裁兼工程研究员,Vector Institute的首席科学顾问,以及多伦多大学的名誉大学教授; LeCun是​​纽约大学的教授,也是Facebook的副总裁和首席人工智能科学家。

Hinton,LeCun和Bengio独立工作,共同开发了该领域的概念基础,通过实验确定了令人惊讶的现象,并贡献了工程进展,证明了深度神经网络的实际优势。近年来,深度学习方法一直是计算机视觉,语音识别,自然语言处理和机器人技术以及其他应用中惊人突破的原因。

虽然在20世纪80年代引入了人工神经网络作为帮助计算机识别模式和模拟人类智能的工具,但到了21世纪初,LeCun,Hinton和Bengio仍然是一个坚持这种方法的小团体。虽然他们重新点燃AI社区对神经网络兴趣的努力最初遭到怀疑,但他们的想法最近导致了重大的技术进步,他们的方法现在已成为该领域的主导范例。

ACM AM图灵奖,通常被称为“诺贝尔计算机奖”,由Google,Inc。提供财务支持,奖金为100万美元。它以英国数学家Alan M. Turing的名字命名,他表达了数学基础和计算的限制。

“人工智能现在是所有科学领域发展最快的领域之一,也是社会上最受关注的话题之一,”ACM总裁Cherri M. Pancake说。“人工智能的增长和兴趣在很大程度上归功于Bengio,Hinton和LeCun奠定基础的深度学习的最新进展。数十亿人使用这些技术。任何在口袋里都装有智能手机的人都可以体验到自然语言处理和计算机视觉方面的进步,这在10年前是不可能实现的。除了我们每天使用的产品之外,深度学习的新进展为科学家提供了强大的新工具 – 从医学,天文学到材料科学。“

“深度神经网络负责现代计算机科学的一些最大进步,帮助在计算机视觉,语音识别和自然语言理解方面的长期问题上取得实质性进展,”Google高级研究员兼Google高级研究员Jeff Dean说。 AI。“这一进步的核心是30多年前由图灵奖获奖者,Yoshua Bengio,Geoffrey Hinton和Yann LeCun开始的基本技术。通过大幅提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。“

机器学习,神经网络和深度学习

在传统计算中,计算机程序使用明确的逐步指令来指导计算机。在深度学习中,人工智能研究的子领域,计算机没有明确告知如何解决特定任务,如对象分类。相反,它使用学习算法来提取数据中的模式,这些模式将输入数据(例如图像的像素)与所需的输出(例如标签“cat”)相关联。研究人员面临的挑战是开发有效的学习算法可以修改人工神经网络中连接的权重,以便这些权重捕获数据中的相关模式。

自20世纪80年代早期以来一直倡导人工智能机器学习方法的杰弗里·辛顿(Geoffrey Hinton)研究了人类大脑如何发挥作用来建议机器学习系统的开发方式。受大脑的启发,他和其他人提出“人工神经网络”作为他们机器学习调查的基石。

在计算机科学中,术语“神经网络”指的是由在计算机中模拟的称为“神经元”的相对简单的计算元件的层组成的系统。这些“神经元”只与人类大脑中的神经元松散相似,通过加权连接相互影响。通过改变连接上的权重,可以改变神经网络执行的计算。Hinton,LeCun和Bengio认识到使用多层构建深层网络的重要性 – 因此称为“深度学习”。

LeCun,Bengio和Hinton在30年期间奠定的概念基础和工程进步因强大的图形处理单元(GPU)计算机的普及以及对大量数据集的访问而得到显着提升。近年来,这些和其他因素导致了计算机视觉,语音识别和机器翻译等技术的跨越式发展。

Hinton,LeCun和Bengio一起独立合作。例如,LeCun在Hinton的监督下进行了博士后工作,LeCun和Bengio从20世纪90年代初开始在贝尔实验室工作。即使不合作,他们的工作也会产生协同作用和相互联系,他们彼此之间的影响很大。

Bengio,Hinton和LeCun继续探索机器学习与神经科学和认知科学的交叉,最显着的是通过他们共同参与CIFAR(以前称为加拿大高级研究所)的一项计划机器和脑力学习计划。

选择技术成就

今年图灵奖获得者的技术成就,导致人工智能技术取得重大突破,包括但不限于以下内容:

杰弗里辛顿

反向传播:在1986年与David Rumelhart和Ronald Williams共同撰写的“通过误差传播学习内部表征”一文中,Hinton证明了反向传播算法允许神经网络发现他们自己的数据内部表示,使得使用神经网络成为可能网络解决以前被认为超出其范围的问题。反向传播算法是当今大多数神经网络的标准。

Boltzmann机器:1983年,与Terrence Sejnowski一起,Hinton发明了Boltzmann机器,这是第一个能够学习不属于输入或输出的神经元内部表示的神经网络之一。

卷积神经网络的改进:2012年,Hinton与他的学生Alex Krizhevsky和Ilya Sutskever一起使用整流线性神经元和退出正则化改进了卷积神经网络。在着名的ImageNet竞赛中,Hinton和他的学生几乎将对象识别的错误率减半并重塑了计算机视觉领域。

Yoshua Bengio

序列的概率模型:在20世纪90年代,Bengio将神经网络与序列的概率模型相结合,例如隐马尔可夫模型。这些想法被纳入AT&T / NCR用于阅读手写支票的系统中,被认为是20世纪90年代神经网络研究的巅峰之作,现代深度学习语音识别系统正在扩展这些概念。

高维词汇嵌入和关注:2000年,Bengio撰写了具有里程碑意义的论文“神经概率语言模型”,它引入了高维词嵌入作为词义的表示。Bengio的见解对自然语言处理任务产生了巨大而持久的影响,包括语言翻译,问答和视觉问答。他的团队还引入了一种注意机制,这种机制导致了机器翻译的突破,并形成了深度学习的顺序处理的关键组成部分。

生成性对抗网络:自2010年以来,Bengio关于生成性深度学习的论文,特别是与Ian Goodfellow共同开发的生成性对抗网络(GAN),引发了计算机视觉和计算机图形学的革命。在这项工作的一个引人入胜的应用中,计算机实际上可以创建原始图像,让人联想到被认为是人类智能标志的创造力。

Yann LeCun

卷积神经网络:在20世纪80年代,LeCun开发了卷积神经网络,这是该领域的基本原理,除了其他优点之外,它还具有使深度学习更有效的必要性。在20世纪80年代后期,在多伦多大学和贝尔实验室工作期间,LeCun是​​第一个在手写数字图像上训练卷积神经网络系统的人。如今,卷积神经网络是计算机视觉以及语音识别,语音合成,图像合成和自然语言处理的行业标准。它们用于各种应用,包括自动驾驶,医学图像分析,语音激活助手和信息过滤。

改进反向传播算法:LeCun提出了反向传播算法的早期版本(backprop),并根据变分原理对其进行了简洁的推导。他加快反向传播算法的工作包括描述两种加速学习时间的简单方法。

拓宽神经网络的视野:LeCun还因其开发了更广泛的神经网络愿景,作为广泛任务的计算模型,在早期工作中引入了许多现在已成为AI基础的概念。例如,在识别图像的背景下,他研究了如何在神经网络中学习分层特征表示 – 这个概念现在通常用于许多识别任务中。与LéonBottou一起,他提出了在每个现代深度学习软件中使用的想法,即学习系统可以构建为复杂的模块网络,其中通过自动区分来执行反向传播。他们还提出了可以操纵结构化数据的深度学习架构,例如图形。

ACM将于6月15日在加利福尼亚州旧金山举行的年度颁奖晚宴上颁发2018年AM图灵奖


作为ACM最负盛名的技术奖项,AM图灵奖授予了对计算具有持久重要性的重大贡献。

该网站庆祝自1966年该奖项创立以来的所有获奖者。它包​​含传记信息,他们的成就描述,他们的专业领域的直接解释,以及他们的AM图灵奖讲座的文本或视频。

摘自:https://amturing.acm.org/

发表评论

电子邮件地址不会被公开。 必填项已用*标注