硅谷的新闻头条有时看起来像是神话、白日梦、或者科幻小说。比如:“首次人猪嵌合体的里程碑式研究”,让人联想到古希腊神话里的怪物形象。“硅谷将使飞行汽车不再是遥不可及的梦”,这里指的是基蒂霍克公司的发明(译者注:硅谷的一家小型创业公司,由谷歌投资,主要进行飞行汽车的研究),他们公司的命名致敬了莱特兄弟和《万能飞行车》(Chitty Chitty Bang Ban 译者注:1968年的一部电影,是第一次出现飞行汽车形象的影视作品)。还有“天啦,现在Alexa可以给你的穿着打分了”(译者注:Alexa是亚马逊公司推出的一种个人虚拟助手,可以接受相当多的语音指令),这说的是Alexa的一个创新技术,结合拍下的照片以及时尚点评对你的穿着进行评价,还有去年的无人驾驶汽车和机器人购物顾问这些新奇古怪的发明。但是,该怎样看待这些让消费者和社会联系更加紧密的创新呢?
即使有许多的技术和科学的创新超出了我想象力的上限,但我仍是创新的坚定支持者。我觉得对创新作出恰当的伦理决策能促进积极的创新,并且可以打破那些阻碍创新的监管障碍。
谁来把控创新
技术的发展正在触及人和机器以及人和动物的边界。与此同时,社会可能正在跃入过于追求人道主义而抑制创新发展的情形之中,没有与创新发展相对应的制宪会议来决定谁应该有这个能力决策是否应该,在什么时间、以什么方式去向社会大众开放创新成果,以及思考创新可能衍生出的伦理问题,怎么样进行必要的应对,等等。
在我们这个时代,谁来掌控创新的方向盘是一个重要的问题。社会应该依据技术实力和科学专长来裁定由谁来作出会深刻影响全人类的决定么?
在研究机构里,有指导方针指引着科学家进行研究,例如:一些研究机构里会有审查委员会负责监督人体实验。在有多个利益相关体的机构(如免疫疫苗联盟,旨在团结私营和公共部门为儿童提供免疫接种)里,从政府到私募基金会再到非营利组织各方会有不同的声音,这也起着一定的制约作用。
是谁?到底是谁?
越来越多具有创新能力的人和公司正在作出足以影响人类安全和社会发展的决定。而且这些决定往往只是基于创新者对产品本身的定位,并没有考虑到其潜在的风险和不可预见的用途。比如,如果基因编辑技术被恐怖分子用于极端行为怎么办?如果人猪嵌合体发生了交配行为怎么办?比起能在天上飞的汽车,人们更喜欢从窗外望去能够看见自由飞翔的鸟儿怎么办?(这是最现实的问题了,Uber打算在2020开始着手研发叫飞机的应用)如果Echo Look导致了青少年的心理健康问题怎么办?(译者注:Echo Look就是第一段提到过的亚马逊公司推出的搭载Alexa的智能时尚助手,这是它的硬件名)谁能对这些后果负责?
珍妮弗·杜德娜(Jennifer Doudna)和伊曼纽尔·夏波尼(Emmanuelle Charpentier)在2014的《科学》杂志上发表的具有里程碑意义的论文“基因工程与CRISPR-Cas9的新前沿”中呼吁“科学家和社会大众”就创新技术的可靠应用进行更广泛的讨论。(译者注:CRISPR-Cas9,为上文两位科学家发明的一种基因治疗法,这种方法能够通过DNA剪切技术治疗多种疾病。)其他的顶尖科学家也在这项技术应用于改变人的生殖系统之前呼吁大家保持谨慎。美国国家科学院下属的美国国家工程院和美国医学研究所最近发布了一份报告,建议CRISPR所需遵循的伦理框架参考其他基因治疗手段。实际上,专家们在试着探求依靠科学素养能否成为这些伦理问题的决策者。
CRISPR可能有预防亨廷顿病和治疗癌症的功效。(译者注:亨廷顿病是一种家族显性遗传型疾病。)但是一旦出现意外,很难预测其后果,而且也很难预防该技术被别有用心的人滥用。
应该由谁来决定如何使用CRISPR呢?科学家?还是监管机构?或是介于两者之间的学术机构、医学研究机构或者行业协会?亦或者是公众?考虑到决策的全球影响,哪一部分公众才合适?普通公民是否有能力做出如此复杂的伦理决策?谁来告知决策者那些可能的风险和利益呢?
特斯拉的埃隆·马斯克(Elon Musk),Facebook的雷吉纳·杜甘(Regina Dugan)都致力于研究脑机交互。在这方面我愿意全然听埃隆·马斯克和雷吉纳·杜甘的。但是公众也应该去思考思考如何将道德判断的能力嵌入到大脑增强者身上,以及在移民火星之路上如何为伦理决策提供帮助(译者注:移民火星是埃隆·马斯克的一项计划)。
技术人员告诉我们无人驾驶汽车目前仍然没有自主判断能力。它们无法在两种同样糟糕的选项中作出选择,比如撞一个老太太还是撞三个孩子。但是人类却会对此进行判断。甚至连那些没有执照的飞行汽车驾驶员也会作出判断。但是谁会为了安全或者保护环境而盯着天上呢?(编者注:此处应该是讽刺美国政府对于飞行汽车不监管的态度)
探求解决之道
一些非凡的创新者确实讨论了新兴技术的伦理问题。推特的联合创始人斯通(Biz Stone)在他的书《小鸟教会我的事》(Things A Little Bird Taught Me)里面讲述了他在公司里营造一种伦理道德氛围的努力。还有一个由科技巨头组建的对人工智能进行研究的合营公司,致力于创造一个能够“开放性地进行批判和思考的地方”,并把“所有对人工智能的探索感兴趣的人聚集在一起。但这些都还不是全社会范围的交流。
解决之道应该是在作出创新决策,进行信息公开和研究技术原理过程中更早更严格地把伦理道德考虑进去。
首先,应该在创新过程中持续地对创新的实际和潜在后果进行更实时的、创造性的和更透彻的分析。我同意珍妮弗·杜德娜和伊曼纽尔·夏波尼的观点,要在一些创新应用之前进行更广泛的社会对话。对象要包括消费者、专家和监管人员,无论是通过社交媒体、市政厅会议,还是其他方式。
第二,消费者应该更好地理解新技术是如何运作的以及它带来的风险是什么。比如说Each Look:亚马逊没有透露Each Look用什么算法来评估我们的时装搭配的,这意味着在消费者使用产品的时候没有选择地就去承担了这个风险。谁知道你的算法是来自《时尚》杂志的编辑还是随便找了两千个年轻人得出来的?而亚马逊完全可以在不泄露专利的情况下公开更多的算法,在完善隐私保护的同时,承担更多责任。
社交媒体公司应该把产品运作发式、需要获取的权限之类的信息写入通常难以理解的服务条款中,简明扼要地说明该技术创新的风险。
第三,伦理必须扎根于技术之中。许多公司开始在这方面进行尝试,比如Facebook针对视频直播违法行为进行了打击,DeepMind公司(编者注:DeepMind是谷歌旗下的人工智能研发公司,阿尔法狗就是该公司产品)设立了内部道德委员会。
关于创新的伦理问题不应该是简单的是或否、或者是只看眼前和未来。问题的关键是应该由谁?在何种程度上,以及在什么条件下作出伦理决策?
【全文完】
作者:Susan Liautaud
编译:贾平帆
校改:张雪峰
生命科学给人类带来的伦理挑战不容忽视,克隆技术、人类基因序列判定给我们的伦理问题,该怎么去解决。