【本社编译报道】 新技术刚开始出现时,人们似乎总是对其抱有很高的期望,加之媒体的各种炒作,人们想当然的以为新技术带来的美好生活即将到来。人工智能(AI)一直是近几年的热门话题, 由AI而衍生出来的各种工具正不断问世,进入人类视野,无人驾驶汽车便是其中一个代表。许多人认为机器永远不会疲惫,不会分神,因此无人驾驶汽车会更加安全,但大量的研究结果表明事实并非如此。研究人员指出当前的技术还未达到真正的人工智能,与人类复杂的大脑结构相比,机器依然很脆弱。面对“边缘案例”,人类驾驶员可以依靠本能,可能根本就不需要进行思考,但是机器系统却会被难住,对此束手无策。

 

图片来自经济学人

 

监管社交媒体,发现欺诈行为,在古老的游戏中战胜人类,这些固然都很好。但是,制造一种能够在普通道路上自主驾驶的汽车以及让计算机与人开展听上去合理的对话是现代AI的宏伟目标之一。有人认为无人驾驶汽车可以让人们随意召唤机器人出租车,这样人们就不需要拥有汽车了。他们也相信这些车更安全,因为电脑永远不会疲倦,也永远不会分神。世卫组织的数据显示每年超过100万人死于人类驾驶员操作错误所导致的车祸。无人驾驶车的拥护者希望能够大幅削减这些数字。

 

无人驾驶车很快就要做到了。2015年,电动汽车制造商特斯拉的老板埃隆·马斯克(Elon Musk)预测“完全自动”将在2018年到来。通用汽车2016年收购的无人驾驶公司克鲁斯(Cruise)曾计划2019年在旧金山推出无人驾驶出租车。2015年,被广泛视为行业领头羊的谷歌子公司Waymo老板克里斯·厄姆森表示,希望自己11岁的儿子永远不需要驾照。

 

但是无人驾驶汽车发展进程变慢了。2018年,网约车公司优步测试的一辆无人驾驶汽车在亚利桑那州撞到了一名推着自行车过马路的女性,这成为了无人车致行人死亡的第一件案例。在特斯拉“自动辅助驾驶”(Autopilot)软件中(虽名为“自动”),用户必须将手放在方向盘上,看着马路(几名看起来没能做到的用户已在事故中丧生)。极少数几家载客的公司,如美国的Waymo和中国的文远知行,覆盖的地理范围十分有限,并且依赖人类安全驾驶员。已离开Waymo的厄姆森现在认为这项技术的推广速度将会更慢、更平缓。

 

今年三月,位于旧金山的自动驾驶卡车公司“星空机器人”(Starsky Robotics)关闭了业务。该公司创始人斯特凡·塞尔茨-阿克斯马赫(Stefan Seltz-Axmacher)给出了失败的几个原因:一系列科技公司上市之后表现不佳,加之货运业务衰退,投资商已经渐渐失去投资兴趣。他写道,自己的公司重视安全性,但缺乏耐心的投资方对此反应不佳,后者更希望看到公司能够依靠先进的技术源源不断地开发出更多新功能。但最大的问题是技术根本无法做到做一点。

“监督机器学习无法达到现在炒作的程度,这不是类似于c-3PO(电影《星球大战》中的人行机器人)的真正的人工智能,这只是一种复杂的模式匹配工具。”

 

黑天鹅和苦涩的教训

 

无人驾驶汽车的工作原理和其他机器学习应用相同。计算机处理大量数据以提取驾驶的一般规则。至少从理论上来讲,数据越多,系统性能就越好。特斯拉的汽车不断将数据传回总部,以完善软件。Waymo公司声称其生产的汽车除了在现实世界行驶了数百万英里外,还使用模拟驾驶在虚拟环境中所生的超过十亿英里的驾驶数据。

 

长期以来,澳大利亚机器人专家罗德尼·布鲁克斯对无人驾驶技术所“承诺”的美好未来表示怀疑。他表示,问题在于从根本上来讲深度学习是一种统计方法,根据训练数据规定的方式将输入与输出联系起来。这就使得它们无法处理工程师们称之为“边缘案例”的这一情况,即训练数据中不常见的异常情况。驾驶充满了此类怪事,其中某些怪事令人印象深刻,例如路上一匹脱缰的马,或一架轻型飞机紧急降落在高速公路上(4月份发生在加拿大)。大多数也不是什么大事,例如一个人穿着小鸡造型的服装跑了出来。一般来说,人类驾驶员在碰到这些情况时根本就不需要进行思考,但机器却很难处理它们。

 

杜克大学人类与自主实验室主任玛丽·康明斯(Mary “Missy” Cummings)说到,人类能够更好的应对这些怪事是因为他们可以利用“自上而下”的推理了解世界运行的方式,以此在此类“自下而上”的感官信号较为模糊或不完整的情况下指导人类。AI系统大多缺乏这种能力,从某种意义上来说,它只能用一半的大脑工作。虽然它们在自己舒适区非常能干,但即使是微不足道的改变也可能带来问题。由于缺乏推理和归纳能力,计算机会受到工作数据的禁锢。康明斯博士说:“从根本上来看,这些系统很脆弱。”

在无人车之外的领域,人工智能的狭隘性也显而易见

在无人车之外的领域,人工智能的狭隘性也显而易见。通常来说,谷歌的“翻译”系统在语言互译方面做得很不错。但在2018年,研究人员注意到,当要求谷歌翻译把连续18个“dog”译为约鲁巴语(尼日利亚和贝宁的部分地区所使用的一种语言)再译回英语时,谷歌给出了以下译文:“世界末日的时钟将在十二点零三分敲响,我们在世界上所经历之种种,正在预示着末日和耶稣基督的归来审判愈发临近。”

 

纽约大学心理学教授加里·马库斯表示,误译凸显了谷歌的系统并不理解语言的基本结构。它完全不懂动词或名词之类的概念,更不用说理解名词指的是现实世界中的物理对象。相反,它构造了统计规则,将一种语言的字母字符串与另一种语言的字母字符串联系在一起,但它完全无法理解这些字母所指代的概念。因此,马库斯教授说到,即使是幼儿都能轻易解答的问题也会难住计算机语言处理系统。

 

在不同的领域,这些限制会导致不同程度的影响。毕竟自动化系统不一定要胜过专业人类译员才有用(自那之后,谷歌的系统进行了改进)。但这确实也给聊天机器人或个人助手未来可能的功能设置了上限。康明斯教授表示,对于无人车等把安全放在首位的应用来说,AI的局限性可能会阻碍其未来的发展。

 

研究人员开始思考如何解决这一问题。在12月的一次会议上,AI领域资深活动家约书亚·本希奥(Yoshua Bengio)就此发表了主题演讲。本希奥博士表示:“当前的机器学习系统以一种非常狭隘的方式学习,与人类相比,它们需要更多数据以学习一项新任务,它们需要人类通过标签提供高级概念,但它们仍然会犯下一些非常愚蠢的错误。”

 

超越深度学习

 

针对如何进行改进这一问题,不同的研究人员有不同的想法。有一种想法是扩大及其学习的范围,而不仅仅是增加学习数量。斯坦福大学AI实验室的克里斯托弗·曼宁指出,与机器相比,生物大脑学习的数据集更加丰富。人工语言模型仅仅依靠大量的文本或语音进行训练,但婴儿能够依靠声音、语调或跟踪父母的眼神,以及丰富的物理环境帮助自己在现实世界中把握抽象概念。这涉及到AI研究领域中一个叫做“具身认知”的古老观点,该观点认为如果人们要正确理解世界,他们就需要完全沉浸其中,而不是像数据中心的电脉冲一样,将自身局限在抽象存在中。

 

生物学也提供了一些其他思路。布鲁克博士认为,当前一代的AI研究人员沉迷于始于空白状态的模型,创建者没有手工置入任何提示。他说到:“但是,所有动物的大脑天生就有结构,本能就是从这里来的。”

 

马库斯博士则认为机器学习技术应当与较早的“符号AI”方法相结合。这些方法强调形式逻辑、层次类别和自上而下的推理,在1980年代最受欢迎。现在由于机器学习方法逐渐兴起,这些方法已停滞发展。

 

但有些人则主张坚持现有方法。去年,艾伯塔大学和DeepMind的AI研究人员理查德·萨顿(Richard Sutton)发表了一篇名为《苦涩的教训》(The Bitter Lesson)的文章,文章认为AI的发展史表明了试图将人类的理解构建到计算机中,这些尝试很少能够成功。与此相反,该领域的大多数进步都得益于摩尔定律,以及不断引入蛮力计算来解决问题的能力。“苦涩的教训”是:“人类大脑过于复杂,我们不应该将其植入电脑。”

“苦涩的教训”是:“人类大脑过于复杂,我们不应该将其植入电脑。”

在研究实验室之外,人们对无人驾驶汽车的期待正逐渐减少。一些中国公司正尝试在城市基础设施中构建数字导轨,以减轻无人车本身的认知负担。与此同时,现在的汽车制造商更喜欢谈论自动车道保持或停车系统等“驾驶员辅助”工具,而非完全自动驾驶汽车。新一轮初创公司则有意缩减野心,希望制造能在狭小有限区域(如机场或退休村)内行驶的汽车,或在人行道上缓慢行进,在远程人工监督下派送包裹的车辆。康明斯教授说:“出于科学原因,在现有技术水平下,我们不准备实现全自动驾驶,这听起来虽然不那么宏伟,但是我觉得更加务实。”【全文完】

来源:《经济学人》
作者:未知
编译:魏敏慧
校改:魏敏慧

 

觉得赞就推荐给朋友