破解人工智能道德治理中的责任难题
2021-12-23
来源:人民微看点
人工智能技术的迅猛发展及其在社会各领域的广泛应用,带来了一系列风险挑战。如何对人工智能伦理风险进行道德治理,成为人们不得不认真思考的重要问题。按照传统责任理论,由某项技术所引发的道德责任须根据过失的大小分配给该技术的设计师、制造商、使用者、监管者等人类主体。但由于人工智能具有显著的自动化特征,如果将其排除在道德责任之外,可能会造成“责任空场”。因此,建立完善的人工智能道德治理体系,必须破解该技术在道德责任归属时面临的难题。
有限责任
人工智能责任归属的第一个难题是人工智能是否有资格成为某一事件(或后果)负责任的行为者,而不只是由人类操控的技术工具。这需要回答人工智能是否具备就承担责任而言的最低限度的道德认知能力和道德自主性。人工智能是用计算机来模拟和实现的“类人智能”。它将外部环境信息转换为输入数据,并通过从数据中生成的特征量对输入数据进行处理,实现数据输出。人工智能的输入和输出过程,可以理解为它感知外部环境信息和根据感知信息而采取特定行动的过程。人工智能的行为选择是基于对外部环境的判断所作出的能动反应。相较而言,传统计算机程序根据设计好的函数完成数据的输入与输出,其对外部环境的反应是被动的。此外,人工智能还可以进一步插入道德算法,将人类对道德重要性的理解转译为人工智能信息处理和决策的逻辑规则,使其从前瞻性意义上遵守社会道德要求,作出负责任的行为决策。
人工智能的特殊性在于其独特的学习算法。通过多层处理,低层次的特征表示转化为高层次的特征表示,使人工智能具备了完成复杂任务的能力,可以模仿特定的人类行为。例如,AlphaGo通过神经网络的深度学习和反复自我博弈的强化学习,不仅提高了其在围棋博弈中的预测能力,而且还发现新的游戏规则,走出了新策略。这里,学习算法是由人类设计师预先规定的,但AlphaGo通过机器学习而作出的行为决策却不是人类设计师决定的。人工智能具备了确定但有限的自主性、交互性及行动能力,可以在特定环境中独立作出行为决策,故可对其进行道德归责。而承认人工智能可在最低限度上进行责任归属,就肯定了其在道德治理体系中有限的能动地位。
非意图责任
第二个难题是人工智能遵循数学、物理学等自然定律,缺乏“能够承担责任的感觉”。对责任的主观感受首先表现为行为者的主观意图,即行为者对行为的意义的认识,希望或想要以某种方式行动的态度。尽管主观意图确实影响了人们对行为者进行道德谴责或惩罚的力度,但它并非责任归属的必要条件。从道德实践上看,主观意图作为行为者的内在状态,很难对其作出准确评价。而且,人们进行责任归属的目的在于,通过对损害性后果的回溯性评价,来确定导致该后果的行为者原因,不论行为者是否有主观意图。德国学者奥特弗利德·赫费以俄狄浦斯为例,说明这种无过错责任在史前社会普遍存在:责任是客观的,即便行为者不存在任何主观过错,也需要承担道德责任。按照客观性原则对人工智能进行责任归属,主要考查损害性后果以及行为与后果之间的因果关系即可,不必再关注行为者的主观意图。
对责任的主观感受还表现为行为者因自己的行为而产生的自责、懊悔等反应性态度,因而承认自己本来可以按照其他方式而行动。人工智能缺乏感受性,很难想象它会产生任何形式的痛苦或内疚,那么,对人工智能进行责任归属并实施道德惩罚是否还有意义?就反应性态度而言,他人的反应性态度而非行为者的自我反应性态度才是责任归属的动力。他人的责备和怨恨不仅是他人对某一事件(或后果)所作出的价值评价,也是在评价基础上对行为者所作出的反应。责备和怨恨允许行为者提出免于被责备的理由。但与此同时,如果行为者与某一事件(或后果)的因果责任极其显著,引发他人强烈的责备和怨恨反应时,他人将拒绝人工智能以技术作为其免责理由。就道德惩罚而言,惩罚作为“对过去错误的一种自然报复”,在现代社会逐渐丧失其道德正当性。道德责任并不必然要求对行为者进行道德惩罚,而是要求行为者正视、改正或补偿自己的道德过错,同时尽量避免发生类似的道德过错。就此而言,要求人工智能承担道德责任是可行的。
共同责任
第三个难题是对人工智能进行责任归属,是否会削弱人类的道德责任或威胁人类的责任主体地位。答案是否定的。对人工智能的正确归责有助于明确人类与人工智能的责任边界,从而强化人类的道德责任。人类设计师、制造商、使用者等参与了人工智能的理论创新、技术研发、生产制造、实践应用等环节,相应地承担着内在知识的责任、科学实验的责任以及将科学付诸实践的责任。这些多元主体在该技术设计—生产—应用链条上分工合作,由此发展出一条责任链:没有哪个单独环节承担单独的责任,每个环节都是责任的一部分,而这部分责任又不得不与这个环节对整个行为所承担的责任相联系。正如赫费所言,谁为别人能够做这件事创造了一些前提条件,他就要为这件事负有共同责任。相反,如果他们没有看到这种关系,或者不能看到这种关系,就会产生责任归属的要求,应该为此设置能够监督责任履行的机构。该机构对人类设计师、制造商和使用者的履责行为进行监督和管理。人类行为者不仅不能免除道德责任,还需承担起相应的赔偿或补偿责任。
在道德实践中,人类行为者将一部分道德授权给人工智能,如允许智能搜索引擎对敏感词进行筛查并屏蔽等。授权行为意味着一部分道德资本由人类行为者转移给人工智能,使后者代替人类行为者履行一定的社会职责。对人工智能的道德授权是否意味着道德责任的授权?这取决于授权是对道德行为本身的授权还是对道德行为坐标(即只为人类道德决策提供反馈信息)的授权。对道德行为的授权,意味着道德上的善恶及责任在人工智能与人类所组成的多智能体系统中分布。此时,人工智能替代人类行为者参与到现实的社会分工之中,成为社会系统的重要组成部分,因而,需要承担由社会分配给该职责的道德责任,即分布式道德责任。对道德行为坐标的授权,仍将人类作为道德责任的中心并通过人工智能实现人类的道德意图,人工智能仅需承担扩展式道德责任。不论分布式还是扩展式道德责任,都没有免除人类在道德治理中的主体地位。
总之,人工智能道德治理的关键在于立足一种新的开放性责任理论对人工智能进行责任归属。首先,人工智能的道德责任是无过错责任。人工智能责任归属的目的是依据客观性原则对道德行为及其后果进行正确归因。特别是当多行为主体共同参与某一行为决策时,正确归因有助于及时纠正错误。其次,人工智能能够且仅能承担与其智能水平和自治能力相适应的道德责任。当前广泛应用的弱人工智能的道德责任与其具备从大数据中自行提取特征量的能力密切相关。对其责任归属不能整齐划一,需要根据其自动化等级分级对待。超出其能力范围的道德责任仍需由人类行为者承担。再次,人工智能的责任归属要求对人工智能算法进行回溯性实验直至找到算法缺陷或程序漏洞。人工智能承担责任的方式包括优化算法、程序升级、暂停或永久停止使用。相应的补偿或赔偿责任也需由人类行为者承担。最后,人类设计师应监督和激励人工智能不断积累道德经验,将道德经验转化为道德算法或新的特征量,尽量减少未经预料的道德情形和两难困境。在计算机领域,通过程序升级修正漏洞的情形很常见,这也要求对人工智能的道德错误进行合理认识和总结。