一列失控的火车将要撞死五名被困在火车轨道上的无辜者。此刻,在铁轨上方的天桥上正好站着一个壮汉,把他推下天桥就可以挡住火车使其减速,从而阻止灾难,这时你会怎么做?机器又会怎么做?与生俱来的道德感和计算而来的道德判断是人类与机器之间的一道鸿沟。

人工智能技术正在彻底改变人类的生活。随着智能机器越来越紧密地融入到我们的日常生活中,这些机器所要解决的问题将不仅仅是局限于日常生活,甚至将延伸至道德层面。当自动驾驶汽车遇到一场不可避免的交通事故,它是该保护车内的乘客,还是要尽量将总体伤亡降至最低?一架无人机是否应该追击恐怖组织,哪怕会对无辜平民造成伤害?如今,智能机器变得越来越自动化,这些问题也变得不容忽视。

在呼吁停止研发“机器人杀手”运动期间,图为伦敦市中心的一个模拟“机器人杀手”的模型,运动意在呼吁禁止研究无需任何人为干预即可选择和攻击目标的致命机器人武器。   摄影:Carl Court / 法新社 / 华盖创意图片库

之所以有些道德决策应该留给计算机来做,这有充分的理由。机器不同于人类,它不会被认知偏差引入歧途,不会感觉疲劳,也不会仇恨敌人。原则上,一款能在道德层面思考问题的人工智能,应该理解最理想条件下的道德价值和道德规范。在不受人类限制的情况下,此类机器甚至可以做出比人类更好的道德决策。然而,赋予机器做出道德决策的绝对自由,会让许多人感到不安,这威胁到了他们作为人类的尊严。

为什么我们会如此不信任机器做出的道德决策?心理学研究提供了一条线索:我们好像完全无法信任那些通过计算收益与得失做道德决定的人,而计算机却恰是如此。

有种传统的哲学观点站在另一边,该观点认为计算得失才是做出道德决策的正确途径。此学派(通常被称为“结果论”)指出,当且仅当该决定能带来最佳结果的情况下,这样的决定在道德上才是正确的。然而,大多数普通人不满这种道德决策方式,人们更倾向于遵循既定的道德规范,这些规范会直接告诉哪些行为是“错误”的,即使它可以产生好的结果。

大量心理学研究证明,人们多对结果论非常厌恶。在道德困境中,参与者会做出更符合道德规范的选择,而非完全的结果论。例如,在“天桥困境”中,参与者被告知,一列失控的火车将要撞死五名被困在火车轨道上的无辜者。此刻,在铁轨上方的天桥上正好站着一个壮汉,把他推下天桥就可以阻止这场灾难(他的身体可以阻止火车前进,以至于火车不撞上那五个人)。大多数人认为,在这种情况下,牺牲壮汉是错误的,尽管这么做能换来更好的结果。

我们认为,即使结果会糟糕一些,守道德的人仍是人们首选的社交伙伴。这其实很容易说通:一个人成天算计着如何用欺骗和撒谎获得更多好处,甚至为了更大的利益将你置于死地,这样的人我们不会选来做朋友。守道德对我们来说是种信号,告诉我们对方值得做朋友。

但结果论者没有被完全排斥。有些人表示很难信任说要牺牲壮汉的人,有些人则完全不能接受说要牺牲壮汉的人。很难信任与完全不接受之间存在一点程度上的不同,此时,冲突是积极信号,尽管后果论确实影响了这个人的判断,但他显然还是受到了道德规范的约束。

动画电影《机器人总动员》中的清扫机器人瓦力,该片曾获得第81届奥斯卡最佳动画长片奖。

动画电影《机器人总动员》中的清扫机器人瓦力,他通过音乐,了解到爱情和与情感交流的存在及表达方式,该片曾获得第81届奥斯卡最佳动画长片奖。

这些研究发现与机器人有什么关系?

其一,研究指出了我们对机器做道德决策不信任的潜在根源:人工智能缺乏某些特质,这些特质是我们判断是否可信任的来源。在人类社会中,我们喜欢规范,喜欢承诺,可能它有些小不合理,也不论它后果如何,我们喜欢的道德决策是由情感引导的,比如内疚,比如同情。当你选择遵守道德规范,这实际传递出了一些你内心深处的想法。

即使机器能够完美模拟人类的道德判断,这种判断也不是通过一系列思路做出的,而仍是计算得到的。无论计算机做出什么决定,它做出决策的方式都是通过计算,而人们不信任计算出的道德。最近有一项人权观察报告显示,应该停止研究“机器人杀手”,因为这种机器人不具有“普通人对于屠戮同伴的天然抵触心理”。

无论计算机做出什么决定,它做出决策的方式都是通过计算,而人们不信任计算出的道德。

换句话说,对我们来说,机器在做出正确的判断上是存在缺陷的,即便是最理想的判断也一样。我们希望机器人在判断时能有与人类相同的心理过程:即情绪反应和直觉反应,这由人类演化得来。直到科技有能力实现这一点之前,任何企图制造伦理自主机器的尝试都可能会遭到质疑。或许你发现了,问题的根源其实并不在机器人身上,而只是我们的心理在作祟。【全文完】

来源:The Guardian
作者:Jim Everett, David Pizarro and Molly Crockett
编译:廖田丽
校改:刘子豪
觉得赞就推荐给朋友