脸书正在“不知不觉地”影响我们的选择

现在,我们越来越担心思考的方式受到软件的影响,一些习以为常的东西却成为了新闻:一组精挑细选的不用承担责任的人告诉我们什么才是新闻。最近有报道揭露脸书网站使用人工挑选为用户呈现什么新闻内容,具有讽刺意味的是,对于那些习惯于感叹机器取代人类的那些人,现在缺失的恰恰是一个计算机演算法。

最具争议性的说法是,该网站的热门话题有反保守主义偏见,很多偏保守的新闻和观点则被刻意压制了(脸书对这种说法进行了激烈的反驳)。科技网站Gizmodo3月份首先报道了脸书的做法,称有两个原因导致脸书无论持有任何政治偏见都会感到尴尬。第一,使用人工筛选新闻损害了“无偏见的新闻筛选过程”。其次,这些签约的“新闻编辑”受到的待遇比软件受到的待遇好一点:他们不受任何编辑文化和领导的制约,只依赖于“热门新闻”的模糊概念,致力于满足量而不是质的需要。

从某种意义上说,使用人工进行新闻筛选并不是问题关键,意识形态偏见也不是。重要的是这个世界上最强大的信息共享平台是通过神秘莫测的筛选方式进行新闻的呈现。像脸书这样的平台是在通过包罗万象的“热门话题”或者“关联性”这样的标题来呈现筛选出来的新闻和信息,而我们对于筛选过程却一无所知。

对于我们来说这点很重要,因为我们接收到的些微的信息变化都会改变我们的行为。

脸书的人类编辑能控制新闻推送的内容

图像来源, Getty

图像加注文字, 脸书的人类编辑能控制新闻推送的内容

全世界各国政府以及机构所广泛采用的,由行为科学家们提供的真知灼见或许对理解其中原委有所帮助,那就是被称为“推送的政策。“推送”通过采用人们不易察觉的手段促使人们作出某种特别的行动。一个有名的例子就是在器官捐赠方面实施退出机制而不是加入机制。在这个机制安排下,人们不要求登记自己作为器官捐献者,而是假设任何人的器官都可以用于捐赠,除非他们已经表达了否定的意愿。通过简单的切换默认的假设,更多的人最终成为器官捐赠者。

推送理论有什么弊端么?其中一个就是批评者认为这侵犯了他们做出知情选择的权利,他们为此感到不安。作者尼克·哈卡韦(Nick Harkaway)为艺术和思想研究所(Institute of Art and Ideas)撰写的一篇文章中说到,“不是通过解释问题使政策更加符合人民的意愿,推送理论是利用人民的意愿来符合政策的需要。选择是一种技能,一种习惯,甚至是对大脑结构的一些小小的锤炼,而这样的技巧是应该时时练习的”。

推送原理如何在数字世界中使用呢:当我们浏览上网时,我们不断面临着选择——从买什么到该相信什么,设计师和工程师也可以巧妙地影响我们的决定。

毕竟,不仅是脸书网才进行信息选择。越来越精明的推荐程序促使人工智能,可穿戴技术和物联网等领域的繁荣发展;从谷歌到苹果到亚马逊,无缝的个性化的信息推送就是成败的关键。然而,岌岌可危的不是人与机器之间的对决,而是知情选择与推送原理的应用。

技术可以在我们毫不知情的情况下影响我们

图像来源, Getty

图像加注文字, 技术可以在我们毫不知情的情况下影响我们

我们所拥有越多的信息,就有可能做出更好的决策:这是信息技术作为一种积极的力量的一个基本原则。

技术哲学家,《第四次革命》(The Fourth Revolution)的作者卢西亚诺·弗洛里迪(Luciano Floridi),使用“亲伦理设计”来描述这个过程:通过平衡客观的表达清晰的信息,使人们能够主动的去解决,为重要的决策负责。弗洛里迪认为信息系统应该通过抵制过度“推送”而拓展而不是缩小我们道德的介入。不要让器官捐献成为自动默认的状态:应该使人们直面这个问题。不要默默地强加一个量身定制的关联图景:而是邀请用户修改和提问和改进。

这里存在着几种基本的紧张关系:在方便和思考之间;在用户想要什么和什么对他们来说是最好的之间,透明度与商业优势之间。信息越不对称(系统对你的了解与你自己对系统的了解),你所做的决策就越可能只是一系列对于无形的刺激的条件反射。而究竟发生了什么与你所知道的信息之间的鸿沟就会日渐增大,导致最后的无知。

对这一点没有简单的解决方法,也没有什么大阴谋。事实上,软件和人力管理的巧妙结合正迅速成为我们在这个世界上所能浏览的越来越多的数据的唯一途径。不过,我们需要记住的是,设计这些技术的人员与我们有着不同的目标,而且无论进行信息筛选的是人还是一种计算机演算法,浏览这些信息意味不受人类偏见影响这样的托词再也不复存在了。

请访问 BBC Future 阅读 英文原文