我们每天都通过互联网接触大量信息,但这些信息的真实性到底有多少?互联网为大家提供了各种各样的信息,可其中又充斥着多少虚假信息?文章主要描述了互联网时代虚假新闻存在的乱象,以及各互联网大佬的应对策略。此文作者期待尽快解决虚假新闻的问题,并对信息空间的未来抱有希望。

互联网时代对我们做出了一个巨大的承诺:这是一个希望与机遇并存,情感互联,自由表达与民主意志盛行的崭新时代。然而,数字媒体的混乱无序大大降低了信息空间中对恶化污染信息的防范,数字媒体也变得也来越糟糕。

虚假新闻的存在

我们只追求我们想要的——娱乐信息、便宜的商品、免费的新闻和八卦——而不是为我们提供更好服务的深入理解、对话或者教育。

民粹主义的欲望并不是一个新问题。在19世纪90年代纽约激烈的报业大战中,约瑟夫·普利策(Joseph Pulitzer)的《纽约世界》(New York World)和威廉·伦道夫·赫斯特(William Randolph Hearst)的《纽约时报》(New York Journal)的新闻报道被那些关注维持标准、坚持准确性和公开辩论的人称为“黄色新闻”。这些新闻报道演变成了一种耸人听闻的新闻风格。现在,网络上的虚假信息也给我们造成了同样的困扰。

人类总是不能容忍与自己不同的观点,并对此抱有偏见。弗朗西斯·培根(Francis Bacon)于1620年出版的哲学巨著《新工具》(Novum Organum)分析了四相假说或错误的观念,即“人类对自己的理解深信不疑”。

其中之一,“洞穴假相”(idols of the cave),是指我们对外界影响的概念性偏见和敏感性。“每个人都有属于自己的洞穴或山洞。在这里,人类自身的本性会真实的反映出来。有的是在自身教育和与他人交往的过程中;有的通过阅读的书籍或那些他推崇和钦佩的权威;有的则是发生在全神贯注、有倾向性、漠不关心和固定思维等不同大脑中的印象差异;还有的则在其它方面。”这个问题一直持续了400年。

同样,对肤浅的八卦、谄媚的谎言和安慰性的假话的需求历来是重要的存在。不同的是,互联网用无穷的语义垃圾供应这些需求,将“培根洞穴”转变成回音室。正因如此,我们一直都处于“后真相”社会。

人类对肤浅的八卦、谄媚的谎言和安慰的假话一直很依赖。 摄影:麦克·肯普/考比斯 来源:盖蒂图片社

应对现状

这些数字化的伦理问题是21世纪的关键性挑战。它们包括侵犯隐私权、人身权和财产安全,所有权和知识产权,基本人权的信任,以及可能出现的剥削、歧视、不平等、操纵、宣传、民粹主义、种族主义、暴力和仇恨言论。我们应该如何衡量人类为此付出的代价?在特朗普(Donald Trump)竞选期间的宣传、关于英国退欧决定讨论的歪曲,或者是“另类右派”(alt – right)散布的虚假新闻,都要求我们要考虑新闻网站的政治责任。

迄今为止,科技公司的战略是处理其回顾性产品造成的伦理影响。有些采取了非常重大的行动来反对网络虚假信息:例如脸谱网(Facebook),目前正在研究更强有力的检测和验证虚假新闻的方法,以及如何给虚假内容贴上警告标签。但可惜的是,美国总统大选早已结束。

然而,不止如此。硅谷“经常失败,快速失败”(注1)的口号相当于“为时已晚”这样一种概念。虽然它具有极高的、长期的全球资本意义,可以预防或减轻资源浪费、良机的失去、参与的不同步、错误的警告和降低弹性等方面的危害。但涉及到这些企业的道德和文化影响时,该口号就变得毫无作用。

缺乏前瞻性的伦理远见会阻碍决策的制定,破坏数字创新的管理实践和损害赔偿策略。简而言之,它会产生昂贵的费用。据彭博社(Bloomberg)报道,亚马逊的当日送达服务,有系统的倾向于排除27个大都会地区中主要的黑人街区。这些都是计算机算法考虑到歧视可能带来的简单冲突而做出的决断,最终通过对伦理影响的分析做出相关预防。

虚假新闻的解决刻不容缓

数字信息的迅速传播意味着,一些错误信息造成的代价可能难以扭转,特别是在信心和信任遭到了破坏之后。

科技产业可以也必须做得更好,以确保互联网拥有支持个人幸福和社会公益的潜力。我们需要一个伦理的信息空间来拯救世界和我们自己,但是恢复这个信息空间需要付出巨大的生态性努力。我们必须抱有高度的耐心、协调能力和决心,通过信誉,透明度和问责制来重建信任。

有一些措施是值得高兴的。在2016年4月,英国政府同意了下议院科技委员会(the House of Commons’ Science and Technology Committee)关于政府应该建立数据伦理委员会(Council of Data Ethics)的建议。这样一个开放和独立的咨询论坛将使所有利益攸关方共同参与,讨论信息革命所带来的普遍伦理问题,通过对话,做出决策,并提供相应的解决方案。

在2016年9月,亚马逊、DeepMind(谷歌旗下研究人工智能的团队)、脸谱网(Facebook)、IBM(国际商业机器公司)、微软和谷歌建立了一个新的伦理问题研究机构,名为“人工智能造福人类和社会合作组织”(the Partnership on Artificial Intelligence to Benefit People and Society,注2)。英国皇家学会(Royal Society)、英国科学院(British Academy)和艾伦图灵研究所(Alan Turing Institute)正在研究管理个人数据的监管框架;2018年5月,欧洲的新通用数据保护条例(General Data Protection Regulation)将生效,该条例致力于加强个人权利和个人信息的保护。所有这些举措都致力于如何让网络平台而不是报纸对其提供的内容负责。

我们需要塑造和引导数字化的未来,并在我们前进的过程中停止编造虚假新闻。为了拥有一个更好的信息空间,现在是时候制定创新性蓝图了。

作者介绍

卢西亚诺·弗洛里迪(Luciano Floridi),牛津大学哲学与伦理信息和艾伦图灵研究所教授。他也是欧盟数据伦理咨询小组、英国皇家学会和英国科学院数据管理工作组的成员之一,谷歌”被遗忘权” (注3)咨询部的顾问, 同时还在欧洲医学信息框架伦理咨询委员会担当主席。先后通过牛津大学出版社出版了《第四次革命-人工智能如何重塑人类现实》(2014),《信息伦理》(2013)和《信息哲学》(2011)。【全文完】

注1:“经常失败,快速失败”,硅谷流行口号,即迅速承认自己失败,然后重新开始。

注2:人工智能造福人类和社会合作组织,致力于推进公众对人工智能技术的理解,同时也将设立未来人工智能领域研究者需要遵守的行为准则,并针对当前该领域的挑战及机遇提供有益有效的实践。

注3:欧洲法院2014年5月13日裁定,普通公民的个人隐私拥有“被遗忘权”,并据此要求国际网络搜索引擎巨头谷歌必须按照当事人要求删除涉及个人隐私的数据。

来源:Guardian.com
作者:Luciano Floridi
编译:李雪萍
校改:敬雪平
觉得赞就推荐给朋友