
约翰·霍普菲尔德(左)和杰弗里·欣顿(右)肖像画。资料图片
2024年10月8日,诺贝尔奖官方网站公布,2024年诺贝尔物理学奖颁发给杰弗里·欣顿和约翰·霍普菲尔德,表彰他们“为利用人工神经网络进行机器学习做出的基础发现和发明”。
人工神经网络,是一种模仿动物中枢神经系统,尤其是大脑的数学模型或计算模型。它不仅模仿了大脑的结构,还模仿了大脑是怎么工作的。
人工智能,其实就是用了人工神经网络技术的机器。机器本来是不会思考的,但用了这种技术之后,它就像拥有了人类的大脑,可以接收外部的信息,然后对这些信息进行加工处理,最后给出结果或做出反应。
比如你给机器看一张图片,它就能认出图片里描绘的是什么;或者你跟它说一句话,它就能听懂你的意思,然后回答你的问题。这种能力让机器像是一个聪明的助手,可以代替人类做很多事情。
在人工神经网络出现之前,我们使用的传统软件就像是一个只会按照菜谱做饭的新手。你需要给它准备好食材(数据),然后告诉它每一步该怎么做(明确的命令),它才能乖乖按照你的指示,一步步完成命令,最后给你一道菜(结果)。
然而,生活中很多事情并不是程序化的。比如,我们要认出一个人的脸,因为人的脸有各种变化,会受到表情、角度、光线等各种因素的影响,没有一个固定的“菜谱”可以应对所有情况。
这时候,机器学习就派上用场了。它就像是一个老到的厨师,不需要你给它一个详细的“菜谱”,而是需要你去教它怎么鉴别“食物”——提供各种人脸的样本,让它自己去学习怎么识别不同的人脸。
所以,怎么给机器合适的指令来解决这种复杂问题呢?答案是不要给它明确的命令,而是给它足够多的数据,让它自己去学习、去摸索、去找到解决问题的规律。这就是机器学习的魅力所在。
20世纪40年代,人们开始研究和模仿大脑神经的工作原理。研究人员大胆推测,大脑学习时,大脑的神经体系开始集体工作,神经之间的连接可以得到加强。这些可以通过计算机模拟的方式在硅基芯片上实践,但神经网络工作的算法一直是困扰研究人员的难题。
1982年,美国生物物理学家约翰·霍普菲尔德创造了一种用于机器学习的联想记忆方法,就是让机器也能像人一样记住和回想起事情。比如说,你想起一个东西叫“斜坡”,你可能会想,它是像“斜面”那样,还是像“滑坡”呢?但其实都不是,你最后确定:“我想的是斜坡!”
这个记忆方法还有一个好处:即使信息有点模糊或者不完整,它也能帮你找到正确的那个。就像有人告诉你关于一个人的几个特点,你可能不会马上想到是谁,但根据你的这些模糊记忆,你会在脑子里搜索,最后找到最符合条件的那个人。
这个联想记忆法就像是很多神经细胞一起工作,它们之间有很多连接。每个神经细胞并不能记住完整的信息,它只是记住了完整信息需要满足的一条规则。当所有神经细胞都发挥作用的时候,需要满足的全部规则都被调动出来,最终就可以得出正确的信息。这就是整个神经网络集体工作和网络上交叉节点个体功能的差异。
如果说,霍普菲尔德的网络主要用于储存和检索信息,那么欣顿则是希望让机器能像人类一样自主学习和分类信息。
1985年,利用霍普菲尔德神经网络的联想记忆功能,人工智能专家杰弗里·欣顿和同事进一步提出了机器可以像人类一样自主学习和分类信息的网络模型。这个算法模型用的是统计物理学中的玻尔兹曼分布识别信息,所以称为“玻尔兹曼机”,开创了现代机器深度学习的基础。
“玻尔兹曼机”的原理可以理解为有一个装有很多气体的容器,想要确定一个气体分子的活动是极其困难甚至是不可能的,但是大量气体分子共同碰撞器壁就会形成一个稳定的压强,且对外表现出一个稳定的温度。这种结构对容器中包含有更多的气体分子也同样适用。通过模拟物理系统中的粒子运动,“玻尔兹曼机”能学习数据的概率分布,帮助机器学习到数据中的规律。这个模型为2010年左右开始的机器学习革命奠定了基础。
霍普菲尔德在1982年的实验中,使用了一个有30个交叉节点的网络。如果所有节点相互连接,则连接数为435。每个节点上有一个值,再加上连接有不同的强度,总共有不到500个参数需要跟踪。他还尝试了一个有100个节点的网络,但这对于他当时使用的计算机来说太复杂了。得益于海量数据的可用性和计算能力的提升,今天的人工神经网络已经发展成为拥有数十亿甚至上万亿参数的深度神经网络。
两名获奖者利用统计物理学的基本概念设计了人工神经网络,构建了机器学习的基础。如今,这些网络已经被用于各个领域,包括粒子物理、材料科学和天体物理等,甚至用于日常生活中的人脸识别和语言翻译等。不过,科技也是把双刃剑。如何防止人工智能技术被滥用,依然是一个值得讨论的问题。(王俊玲 李少白)







