《电子技术应用》
您所在的位置:首页 > 通信与网络 > 业界动态 > AI也会“学坏”

AI也会“学坏”

2017-08-31

随着人工智能技术的普及,我们似乎开始“无条件”相信计算机算法所提供的结果,然而有些问题是不可忽略的。除了对就业产生的影响,由于人工智能往往基于人类提供的样本数据进行学习,并且“来者不拒”,包括人类的“负能量”,因此,人工智能极有可能和小孩一样学坏,在价值取向上出现扭曲。人类在学习过程中可能出现的任何一种认知偏差都有可能在人工智能系统的学习过程中出现。

这样的事件已经在不断发生,比如不久前Google公司的图像识别程序将几个黑人的面孔标记为大猩猩;LinkedIn的一个招聘广告计划显示偏好是男性;而名为Tay的Microsoft聊天机器人,仅仅在Twitter学习了一天,就开始出现了反犹太人的信息。

1504085280857528.jpg

人工智能正在成为“种族主义者”

人工智能在“价值观”上的这种偏差,给社会带来的影响将是巨大的。

去年五月,就有一则报道称美国法院用于犯罪风险评估的计算机程序对黑人罪犯存有偏见。根据调查新闻组织ProPublica的说法,在COMPAS(惩教罪犯管理分析替代制裁)的项目中,关于判断嫌疑人是否是累犯的问题,算法给出的黑人风险值(45%)几乎是白人风险值的两倍(24%),所以会更容易将黑人定为再犯嫌疑人。

与COMPAS类似的很多项目还在全美数百个法院中应用,而这无疑将影响法官和其他官员的判决。我们似乎看到,由于存在种族歧视而被诟病的美国司法制度,已经开始寻求技术的帮助来改变这样的局面,但最终却发现算法本身也存在种族偏见。

提供该软件的公司Northpointe对报告的结论提出异议,但声称该项目由于敏感的商业机密拒绝透露内部算法。无论如何,ProPublica的指责还是揭示了一个困扰许多社会学家和计算机科学家多年的问题,即在计算工具变得越来越先进的同时,其计算原理也变得越来越不透明。计算工具所依赖的逮捕记录、邮政编码、社会关系和收入等数据,不仅带有偏见,也有可能进一步加深人类的偏见。

当我们为计算机算法提供的信息越多,机器学习和其它利用大数据的程序所展现出来的性能也就越好。据麦肯锡的全球管理顾问透露,在过去的一年中,针对人工智能这一领域,科技公司大约投入了200亿到300亿的资金,并主要用于研发。这些公司相信人工智能能够筛选社会所产生的大量信息,并找到有助于人类社会变得更高效、更富有、更高幸福指数的模式。

许多科学家都希望利用机器学习实现很多事情,例如帮助失业人员找到工作、预测养老基金的走势,以及整理税务和海关工作。这些项目将会涉及到人类生活的方方面面,成为一种得到广泛认可的智慧。如其中一位计算机科学家所说:“我们可能不知道人工智能的应用现在有多么广泛,但是,我却知道我们不能后退。”

然而,目前人们对人工智能的关注点往往是在预测未来趋势上,关于如何阻止相关项目进一步加剧过去社会中存在的不平等现象却关注得很少。

旧金山非盈利性人权数据分析组(HRDAG)的首席统计师Kristian Lum表示:“人们常常一不小心就会让程序自动执行不该有的偏见认知。”去年,Lum和一位合作伙伴一起展示了一个称为“PredPol”的项目,计算机基于对过去的犯罪报告的“学习”,可以帮助警察部门预测未来犯罪可能发生的热点地区。而这也导致了警察部门对于黑色和棕色人种聚集的地区过度警惕。一位政策研究员Samuel Sinyangwe表示,这种做法“特别恶毒”,一方面,警察可以说自己没有偏见,只是根据数据的分析结果执行;另一方面,这也在暗示公众计算机的算法是公正的。

计算机的偏见认知是人类赋予的

事实上,计算机本身是不会有偏见的,但是它会从人类所提供的数据中快速学会歧视。虽然机器学习使得计算机可以做很多例如语言翻译、人脸识别或在Netflix队列中推荐电影的工作。但是,随着算法得以从原始代码不断“循环学习”,其中的原理也变得越来越复杂、越来越不透明。而对此,很多像Northpointe一样的公司,碍于算法的商业敏感性往往也不愿意透露算法的内部运行原理。

1504085280257204.jpg

此前,巴斯大学(University of Bath)的一位研究员Joanna Bryson开发了一个旨在“学习”词汇之间的关联性的程序,并发现这一程序在读取了互联网上数百万页的文本之后,开始将女性的名字和代词与“接待员”和“护士”等工作联系起来。令她更为震惊的是,这个结果与美国政府数据所显示的结果一致,性别的确与职业存在着近90%的相关性。

Bryson表示:“人们希望人工智能是公正客观的,而这本身就是错误的。如果基础数据反映了人们的固有印象和判断,或者如果你根据人类的文化来训练人工智能,那么,你还是会发现偏见在人工智能领域中也是普遍存在的。”

那么,在这样的情况下,谁会是“受害者”?根据Cathy O‘Neil所著的《数学杀伤性武器(Weapons of Math Destruction)》一书中所说,在当今社会里,最大的“受害者”通常是那些最容易受到自动化系统评估影响的人。比如说,真正富有的人不太可能通过网络去找工作,也不会让银行行政人员以外的任何人评估他们的贷款申请。而在司法制度中,那些成千上万没有钱雇佣律师或其他法律顾问的被告,将成为最有可能接受计算机自动评估的人。

在Kristian Lum 2016年发表的一篇论文中,她具体揭示了由于人工智能系统中偏见的存在,哪些人群会成为“受害者”。以PredPol为例——该项目根据奥克兰市警察局提供的近期犯罪和逮捕记录的统计数据进行分析,总结出了未来可能发生犯罪的地域,从而为警方部署提供依据。尽管统计学家们以国家统计数据为基础,统计出的整个国家的毒品使用量白人和黑人的概率差不多,但是,PredPol项目显示的犯罪集中区域的结果中黑人社区的数量却是白人社区数量的两倍。

而如果美国警方根据PredPol所预测的结果在这些区域不断开展行动并增加了逮捕数量,就会进入一个恶性循环,在那些警察最常访问的地区,PredPol预测的犯罪行为也会越来越多。同时,这也将导致更多的警察被安排到这些地区。如此循环往复。

要解决偏见认知的问题还没有“万全之策”

虽然,我们大多数人都不了解PredPol等程序中的复杂代码,但是,洛杉矶一个处理警方监视的社区小组Stop LAPD Spying Coalition,其组织者Hamid Khan表示,人们认为预测性警务是一种自上而下的保持治安水平不变的方法,这将会导致那些本就不稳定的地区陷入病态化。

在计算机科学界有这么一句话,错误的输入,就会导致错误的输出。这意味着程序并不是万能的,如果你给计算机的信息是有缺陷的,计算机并不会修复这些缺陷,而只是根据已有的信息进行处理。用Khan的话说:“输入了种族主义,就会导致种族歧视信息的输出”。

但现在我们还不清楚的是,现行的法律怎么样去防止歧视,以及如何规范算法决策来解决这个问题。2016年,曾为微软研究员的康奈尔大学教授Solon Barocas表示,当涉及大数据和机器学习时,现行法律是几乎不能解决歧视问题的。目前在美国,已经有许多传统的民权主义者,包括美国公民自由联盟(ACLU)在内,正在不断维护民众在这方面的权利,甚至试图通过城市政策,要求警方披露其采用的包括人工智能在内的所有技术。

但是,由于政府机构采用私有企业的技术,其内部工作原理可能不透明,因而这一过程非常复杂并且曲折。

对此,英国也实施了一系列的保护措施。例如,如果一项决定被完全交给计算机,那么,政府的服务商和公司就必须进行披露。但是,牛津大学的阿兰图灵研究所的法律学者Sandra Wachter则表示,现行法律并没有完全符合技术进步的方向,很多漏洞都可能造成算法的不公开使用。因此,他要求政府提供“解释权”,所有对应的实施方案都必须以更高的透明度完全公开。

针对这一话题,很多科学文献都反映了当今社会关于“公平”本质的辩论,而研究人员正在采用一切方法,从几十年的历史数据中剥离“不公平”的因素,并修改算法模型,从而保护受反歧视法保护的所有群体。然而,图灵研究所的一名研究员仍然认为这是非常困难的,因为“改变变量可能会引入新的偏见,有时我们甚至不知道偏见如何影响数据,以及什么才是偏见。”

所以说,人工智能除了技术和应用本身,还有很多的社会和道德问题需要解决。可以说,计算机科学家面临着一个陌生又熟悉的挑战:他们的工作要面向未来,但是,在面对有学习能力的机器的时候,却发现自己却还被困在非常古老而传统的问题中。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。