想要更进一步,AI 需要向婴儿学习“人类本能”
婴儿天生就具备了一些本能,正是这些本能帮助我们学习常识,而AI迄今为止仍搞不懂常识这个东西。
机器学习的研究人员认为,经过海量数据训练的计算机可以学习任何事情——包括常识——而且需要很少的编程规则(如果说不可能不需要的话)。Marcus说,“在我看来,这些专家存在盲点。这是一个社会学上的东西,是物理妒忌的一种形式,大家都以为越简单越好。”他说计算机科学家忽视了一点:认知科学和发展心理学数十年的工作表明,人类是具备先天能力的——在出生或者童年早期就具备了编程好的本能——从而帮助我们进行灵活的抽象的思考,就像Chole那样。他认为AI研究人员应该把那样的本能植入到程序里面。
但许多计算机科学家正沉浸在机器学习的成功之中,他们渴望探索一个幼稚的AI能做的事情的极限是什么。俄勒冈州立大学计算机科学家Thomas Dietterich说:“我认为大多数搞机器学习的人对于纳入大量背景知识都有着方法论的偏见,因为从某种程度上来说我们视之为一种失败。”他补充说,此外,计算机科学家还非常欣赏简洁性,讨厌调试复杂代码。MIT心理学家Josh Tenenbaum 说,Facebook和Google这样的大公司是将AI朝那个方向推进的另一个因素。那些公司最感兴趣的是狭义定义的近期问题,比如web搜索和人脸识别,这些问题白纸一张的AI系统可以用海量数据加以训练并且解决得出奇的好。
但从更长期来看,计算机科学家预计AI要承接棘手得多的任务,而那些任务需要的是灵活性和常识。他们想创建可解释新闻的聊天机器人,能应付混乱的城市交通的无人车,会照料老人的机器人。Tenenbaum说:“如果我们想开发像C-3PO那样可以在完全人类的世界里互动的机器人,就得用通用得多的设置去解决所有这些问题。”
一些计算机科学家已经在尝试了。今年2月,MIT推出了Intelligence Quest,这项目前已经募集到了数百万美元的研究计划打算从工程的角度去理解人类智能。研究人员希望,此类努力能够得到半纯机器学习半纯本能的AI。这种AI将遵循某些嵌入的规则自举,但是此后会不断学习。Tenenbaum说:“从某种意义来说这就像由来已久的先天后天之争,只不过现在变成了工程的语境。”
探索的目的之一是想发现婴儿知道什么以及什么时候知道的——然后再把这些经验用到机器身上。艾伦人工智能研究所(AI2)的CEO Oren Etzioni说,但这需要时间。AI2最近宣布要投入1.25亿美元用于开发和测试AI的常识。Etzioni说:“我们愿意开发人类大脑天生的表征结构,但我们不会理解大脑是如何处理语言、推理以及知识的。”
Tenenbaum说,到头来“我们是在尝试着将AI的最古老梦想之一变成现实:也就是开发能够像人一样发展出智能的机器——像婴儿一样开始,像小孩一样学习。”
过去几年,AI已经展示出它可以翻译语音、诊断癌症,并且在扑克游戏中击败人类。但每一场胜利背后都会有一个大错。图像识别算法现在认狗的能力比你还强,但有时候却会错误地把吉娃娃认成蓝莓松糕。AI玩《太空入侵者》等经典Atari视频游戏有着超人的技艺,但当你把外星人全拿掉只留下一个时,AI却令人费解地不知道该怎么玩了。
机器学习(AI的一种)要对这些成功和失败负责。宽泛而言,AI已经从依赖许多编程好的规则的软件(所谓的有效的老式人工智能,GOFAI)转移到依靠试错的系统。得益于强大的计算机、大数据以及神经网络这种算法的进展,机器学习已经实现腾飞。那些网络是简单计算元素的集合,是对大脑神经元的松散建模,在消化吸收训练数据时会建立或强或弱的链接。
2017年,AlphaGo击败了围棋世界冠军柯洁,这是机器学习的一项胜利。
Google DeepMind的Alpha程序把深度学习推上了神坛的位置。每次去掉规则,软件似乎都得到改善。2016年,AlphaGo击败了一位围棋的世界冠军。次年,AlphaGo Zero在得到的指导少得多的情况下轻易击败了AlphaGo。数月之后,一个更加简单的系统AlphaZero又击败了AlphaGo Zero——而且还掌握了国际象棋。1997年,一个经典的、基于规则的AI——IBM的深蓝已经击败了国际象棋世界冠军卡斯帕罗夫。不过事实表明,真正精通国际象棋的诀窍是知道例外的例外的例外——那是最好通过经验收集到的信息。AlphaZero靠着自己跟自己下棋就能打败目前最好的国际象棋程序深蓝以及每一位人类世界冠军。
但类似Alpha这样的系统显然不是在吸取能导致常识的经验。如果是在21 x 21而不是标准的19 x 19棋盘上下围棋的话,AI就得重新学习这种游戏。1990年代末,Marcus训练了一个网络接收输入数字然后再吐出来——这应该是能想象到的最简单的任务了。但是他只是用偶数来对网络进行训练。在用奇数进行测试时,网络不知所措了。它没法像Chole那样开始侧向造乐高时将一个领域学到的东西应用到另一个领域。
这个问题的答案不是再回到基于规则的GOFAI上。小孩认识狗靠的不是类似“如果腿数=4,且有尾巴=真,且大小>猫”这样的显式规则。识别要更微妙一点——3条腿的吉娃娃逃不过3岁小孩的眼睛。人类不是一张白纸,也不是基本固定的。相反,有迹象表明我们有帮助我们学习和推理世界的倾向。自然并没有赋予我们一个技能库,只是提供了搭建这么一个库的脚手架。
哈佛大学心理学家Elizabeth Spelke认为,我们至少有4种“核心知识”系统赋予了我们理解对象、动作、数字以及空间的先发优势。比方说,我们是具有直觉的物理学家,能够迅速理解对象及其交互。根据一项研究,仅3天大的婴儿就能把部分隐藏的一根棍子的两头视为一个实体的一部分——这是我们的大脑也许有感知连贯的对象的倾向。我们还是具有直觉的心理学家。在2017年《科学》杂志的一项研究中,Spelke实验室的研究生Shari Liu发现,10个月大的婴儿就能推断出当一个动画角色爬上更高的山抵达一种形状而不是另一种时,该角色必定会选择前者(编者注:也就是说婴儿知道付出越多回报越大这个常识逻辑)。Marcus已经表明了7个月大的婴儿能学习规则;他们在听到3个单词组成的句子(“wo fe fe”)打破了之前听到的句子(“ga ti ga”)的语法模式时会表现出惊讶。据后来的一项研究,出生才一天的婴儿也显示出了类似的行为。
Marcus已经构建出10项他认为应该植入到AI之中的人类本能最简清单,其中包括了因果概念,成本效益分析,类型与实例(狗与我的狗)等。去年10月,他直面纽约大学计算机科学家,Facebook的首席AI科学家Yann LeCun,在纽约大学的一场有关AI是否需要“更直觉的机制”的辩论中为他的清单辩护。为了证明自己对直觉的主张,Marcus展示了一张野山羊婴儿在悬崖峭壁下山的幻灯片。他说:“它们没有时间去试错学习100万次。如果它们犯了错,那将是致命的。”
不过LeCun并不同意众多发展心理学家的看法,他认为婴儿也许在数日之内就学会了那种能力,如果是这样的话,机器学习算法也能如此。他的理念源自经验。研究图像识别的他在1980年代开始提出用手工编码的算法去识别图像里面的特征将会变得没有必要。30年后他的说法得到了证实。批评者问他:“如果可以开发出来的时候为什么要去学习?”他的回答是:开发是困难的,如果你没有完全理解一个东西的机制的话,你构思的规则有可能是错的。
不过Marcus指出,LeCun本人已经将这10项关键本能中的一种嵌入到了他的图像识别算法里面:平移不变性,不管出现在视野的任何地方都能识别对象的能力。平移不变性是卷积神经网络(convnets)背后的原则,这是LeCun最出名的成就。过去5年卷积神经网络已经成为图像识别等AI应用的核心,开启了目前这波深度学习的狂热。
LeCun说,在有了更好的通用学习机制之后,平移不变性最终也会无中生有。他说:“那些东西里面很多都会作为学习世界运作方式的结果而自发出现。”多伦多大学的深度学习先驱Geoffrey Hinton对此表示同意。他说:“相信强大的先天知识的大多数人都有一个没有根据的理念,那就是认为从零开始学习数十亿个参数是很难的。我认为最近深度学习取得的进展已经表明这其实简单得出奇。”
应该把AI放在一头是纯粹学习一头是纯粹直觉的中间什么位置?这场争论将会继续。但是这个问题忽视一个更加实际的担忧:如何设计和开发这样一种混合机器。尚不清楚如何将机器学习极其数十亿神经网络参数跟规则和逻辑结合到一起。同样地,如何识别最重要的直觉并且灵活地对其进行编码也不了了之。但这并不能阻止一些研究人员和公司为此展开尝试。
经过一番装饰之后,悉尼新南威尔士大学的机器人实验室看起来就像一个客厅跟厨房。计算机科学家Michael Thielscher解释说,这个实验室是一个家用机器人的试验台。他的团队正在尝试赋予一个有手有脸(屏幕)的丰田人类支持机器人(HSR)两种类似人类的直觉。首先,他们希望对HSR进行编程,把挑战分解为更小更容易的问题,就像一个人会将食谱解析成若干步骤一样。其次,他们希望赋予机器人推理信念和目标,也就是人类对他人思想进行直觉思考的能力。如果一个人让它取一个红色的杯子,但它只能找到一个蓝色杯子和一个红色碟子时,HSR会如何响应呢?
到目前为止,他们的软件展示出了一些类似人类的能力,包括取蓝色杯子而不是红色碟子的好感觉(编者注:形状而不是颜色对目标更重要)。但是编进系统的规则数量超过了Thielscher的设想。他的团队被迫告诉AI通常杯子要比红色更重要。理想情况下,机器人应该具备社会本能迅速自行了解到人们的喜好。
其他研究人员正在致力于将婴儿似乎天生具备的同样一些直觉物理学注入到AI里面。DeepMind的计算机科学家已经开发出所谓的交互式网络。他们给AI纳入了物理世界的一个假设:存在着离散对象,并且它们有着不同的交互。就像婴儿能迅速将世界解释成为互动的实体一样,那些系统也很容易就能了解到对象的属性和关系。他们的结果表明,交互式网络预测下坠的带状物与在箱子内弹跳的球的行为要比一般神经网络精确得多。
不同的思想:1)直觉——以IBM深蓝为代表的基于规则的AI;2)人类;3)学习——机器学习AI
机器人软件公司Vicarious的模式网络把这个想法又推进了一步。那些系统也假设对象和交互的存在,但系统还推断连接它们的因果关系。通过不断学习,该公司的软件可以像人一样从想要的结果倒推出计划来。(我想让我的鼻子不痒;挠一下可能行。)研究人员将它们的方法用Atari的游戏《打砖块》跟最先进的神经网络进行比较。由于这种模式网络能够学习因果关系——比如球无论速度如何在接触到的时候都能敲掉砖块——所以在游戏改动时并不需要额外的训练。你可以移动目标砖块,让玩家改成同时玩3个球,模式网络仍然能玩得很溜。其他网络就失败了。
除了我们的天生能力以外,人类还受益于一个大多数AI都没有的东西:身体。为了帮助软件对世界进行推理,Vicarious对它进行了“具体化”从而使得软件能够探索虚拟的环境,就像婴儿推倒一堆积木块也许能了解到重力的一些东西了。今年2月,Vicarious展示了一个在二维场景下寻找有界区域的系统,方法是用一个微小的虚拟角色穿越区域。在探索过程中,系统了解到了包含的概念,从而帮助它比标准的图像识别卷积神经网络更快地弄清楚了新场景。概念——运用到很多情况下的知识——是常识的关键。Vicarious 联合创始人Dileep George说:“在机器人学里面,机器人能够对新情况作出推理极其重要。”今年晚些时候,这家公司将在仓库和工厂对其软件进行试点,在打包和运送之前帮助机器人把东西捡起来、组装然后上色。
最具挑战性的任务之一是灵活地对直觉进行编码,这样AI才能应对一个未必遵守规则的混沌世界。比方说无人车没有办法指望其他司机会遵守交通规则。为了应对这些不可预测性,斯坦福大学的心理学家兼计算机科学家Noah Goodman参与开发了概率编程语言(PPL)。他说这是一门把严格的计算机代码结构与数学概率相结合的语言,正好呼应了人既遵循逻辑又允许不确定性的风格:如果草是湿的则有可能在下雨——但也可能是因为有人洒水了。关键是,PPL可以跟深度学习网络结合来体现博学。在Uber工作的时候,Goodman等人发明了这样一种“深度PPL”,名字叫做Pyro。这家共享乘车公司正在探索Pyro的应用,比如派遣司机以及在遇到施工及比赛日时的适应性路线规划等问题。Goodman说PPL能推理的不仅是物理和物流,也包括如何跟人交流,应对棘手的表达形式,比如夸张、讽刺、挖苦等。
Chole也许到十几岁之前都学不会挖苦,但很显然她天生具备精通语言的本领。有一次在Marcus的公寓里,她拿出一对被卡住的乐高积木。“爸爸,你能帮我untach(杜撰出来的attach的反义词)这个吗?”她的爸爸没有纠正她杜撰的新词就照办了。单词和想法就像乐高积木,部件很容易混合与匹配,并且渴望在世界里加以检验。
在Chole试着在墙上搭积木之后,一个年级大点,稍微有经验一点的智能系统也有了一次尝试的机会:她5岁的哥哥,Alexander。他迅速搭起了一栋伸得更远的乐高建筑。Marcus说:“你可以从她的行为那里找到他所做事情的根源。”在被问到时,Alexander估计了他搭的结构还可以搭多远才会坍塌。按照Marcus的观察,他的估计相当精准。“他不用试过1000万次在墙上搭积木才学会苹果结构的完整性。他根据自己对物理等的了解就能做出一些推断了。”
对此Marcus显然感到很自豪,原因不仅是因为他的子女的能力,也是因为他们支持了他关于我们如何了解世界的理论——以及AI应该如何学习的理论。玩完乐高积木之后,Chole和Alexander飞奔着扑向了父亲的怀抱。当他抱着他们转圈时,他们高兴得尖叫起来,这又给了他们一次调整自己对物理的直觉,以及享受乐趣的机会。编译组出品 编辑:郝鹏程
原文链接:http://science.sciencemag.org/content/360/6391/845.full
来源及声明:内容来自于网络,文字图片版权归原创者所有,我们致力于保护每一位原创者的内容,但因部分图文来自网络等各种渠道,无法追溯作者,如有侵权请联系我们:beautcanada@gmail.com,核实后即刻删除!–北美财富网