被大数据和算法控制的未来,人们想做坏事或许很困难

“大数据杀熟”这个“热词”大约是从4年前开始传播的,逐渐成为社会生活中的流行语。狭义来说,它是指同样的商品或服务,老客户看到的价格反而比新客户要贵出许多的现象;有时它也泛指算法对人们偏好的影响与控制。

3年前,当杰米·萨斯坎德(Jamie Susskind)的《算法的力量:人类如何共同生存?》英文版出版时,国内互联网公司出现的一系列负面事件,正引起公众对互联网技术的密集反思,比如滴滴曾把顺风车定位为“非常sexy”场景的社交工具,导致多位年轻女乘客被害。当时,《断裂的阶梯: 不平等如何影响你的人生》一书的译者李大白正供职于一家互联网头部大厂,“996”的同时会经常思考国家、科技公司与大众之间的互动关系。“那时国内人文社科领域对技术的关注,基本集中在传统的技术伦理、人工智能的挑战等问题上,技术与政治的互动关系、平台型企业的特殊地位等问题还未得到充分讨论。”

因此,接到《算法的力量》翻译邀约后,李大白毫不犹豫地同意了。“书里对算法的影响探索得更为深远,关注到算法力量越发强大的背景下,技术将如何与政治互动,对社会治理、公平、社会分配等重大问题会产生怎样的影响。”如今,《算法的力量》中译本上市,李大白也从大厂跳槽出来,从事起数字人文方向的研究工作。

大数据与“道德自动化”

杰米·萨斯坎德是英国著名的学者、作家和执业大律师。他说,想通过《算法的力量》探讨一个核心问题:我们的生活应在多大程度上受功能强大的数字系统的指引和控制,或者说在哪方面被指引和控制?

萨斯坎德所谓的生活被“指引和控制”,并不是指互联网技术在未来某种场景的具体应用,比如服务型机器人不断增多、脑机接口有新突破等,而是指在数字世界,某些技术和平台以及控制它们的人,拥有强大的权力后对社会公共生活所可能产生的影响。正如书中所说:“最重要的革命没有在哲学系发生,甚至没有发生在议会和城市广场上,而是在实验室、研究机构、科技公司和数据中心里默默上演,其中大部分都涉及数字技术领域的发展。”

以大数据为例,数字世界里大数据无处不在,大家都很熟悉大数据对个人信息的收集、个人隐私的侵蚀。但萨斯坎德还特别关注大数据与政治学术语中的“自由”的关系。他认为,有些技术会收集我们所有的数据,我们为此会避免做出那些可能被视为可耻、有罪或错误的行为。同时,一些科技公司也利用大数据技术来预测和预防犯罪,比如以色列有家公司就发开了一种系统,通过读取人的面部特征,对人进行“高智商”“白领罪犯”“恋童癖”“恐怖分子”等分类。

用类似技术来预测和预防犯罪的趋势在增加,数字系统也越来越多地用于执法。萨斯坎德甚至大胆假设,未来人类在技术的“监控”下,或将实现“道德自动化”。“也就是说,未来社会管理很可能不用在对社会成员的道德训诫上费太多心思,通过技术手段,在一定程度上可以直接阻止可能的犯罪。未来社会的人,想做坏事或也是极其困难的。”李大白解释。

不过,萨斯坎德认为,就算人的“计划和野心”更容易通过大数据被计算机捕获,但“道德自动化”也只是相对而言,“反道德”或许同样会迎来“自动化”。他想象了一个极端场景:一个想实行种族灭绝的政府意图在某一特定地区围捕某一宗教或种族的全部成员,只需根据他们留下的数据——购买记录、社交媒体上的发帖、智能手机上的通讯录等——就可以判断出对方的身份。

数据导致的不公正

全世界60万人发去自拍照,由计算机的学习算法进行评判,结果选出来的“最具吸引力”的44张照片中,只有6张不是白人;一家网站给当年的集中营照片贴上“运动”“攀爬架”等标签……萨斯坎德用这些例子说明,不管计算机的算法多么聪明,只要灌输了错误或片面的观点,都不会公正对待问题,“这就是基于数据的不公正”。

《算法的力量》中花了很多篇幅探讨算法与社会公平之间的关系。萨斯坎德认为,在数字世界,算法将在重要社会物品的分配上发挥关键作用,譬如就业、贷款、住房、保险等,算法也将更多地用于分类、排名、打分,把人类按照地位和声望划分到各个社会阶层。哪些人重要,哪些人不如不存在?哪些人更受欢迎,哪些人被彻底遗忘?这些都涉及“承认”这个问题,而分配和承认是社会正义的重要面向。传统社会里,这些问题是由国家、市场和社会来解决的。但在数字生活世界里,社会正义很大程度上取决于操持相关算法的人。

如何才能避免数字世界的不公正?从《算法的力量》中看,萨斯坎德给出的建议和之前出版的《机器人伦理学》《道德机器:如何让计算人明辨是非》等差不多,都是强调通过程序让计算机学会道德判断——“为什么不能有意识地在设计系统时把正义放在心上呢?无论是平等的待遇、机会平等,还是其他适用于这个特定应用的原则。”

因此,萨斯坎德特别强调程序员在“设计正义”时起到的作用。他批评说,互联网科技公司内部几乎没有工程师身负努力思考其工作的系统性后果的任务,他们中的大部分只需要解决某些分散的技术问题就可以交差了。他呼吁科技公司应该有更多名副其实的“哲学工程师”“哲人工程师”,搭建一种智识上的框架,以便清晰且批判性地思考数字创新的政治后果。

不过,李大白认为萨斯坎德的设想过于理想化了。“作者认为代码工程师应该兼通政治哲学和社会政策,同时富于人文精神,在此基础上来设计算法。这和柏拉图说的培养‘哲学王’来管理城邦有点类似,但按照柏拉图设想教育出来的‘哲学王’起码得50岁,何况现在代码工程师普遍面临35岁的年龄危机。”

与萨斯坎德将正义和公平寄托在个体的“哲人工程师”上不同,李大白认为塑造“哲人工程师”的主体应是科技公司,其中掌舵人的作用尤其重要,只有公司决策团队将“科技向善”设置为企业的共同目标,“向善”才能向下层层拆解贯彻,普通代码工程师才会在具体工作中有“哲人”心态,把“科技向善”的目标嵌入代码设计中,从而使科技公司在促进社会发展、进步与公正等方面发挥正面作用。

(图片来自视觉中国)

关键词: 人工智能