张凌寒:《个人信息保护法(草案)》中的平台算法问责制及其完善
2021-08-29
来源:数字科技说
2020年9月,为征求意见而公布的《中华人民共和国个人信息保护法(草案)》(下称《草案》)确立了我国算法自动化决策治理的基本框架,为自动化决策嵌入平台经济、数字政府运行划定了合法边界。算法是数字平台处理海量用户数据、绘制用户画像、精准定价与个性化推送的“生产工具”,已经成为平台运行的核心动力。联合国教科文组织于2018年发布的《重塑文化政策报告》指出,算法既是平台的支配力量,也是文化表达和获取的变革力量。《草案》对算法自动化决策的相关规定,即增加平台义务、设置监管框架、强化平台责任等,势必将深度影响数字经济产业发展。笔者从《草案》中有关平台算法自动化决策治理的基本框架展开,探讨《草案》给平台责任带来的变化。平台算法治理已经基本建立了算法问责制框架,一定程度上摆脱了传统平台责任的认定困境,走向了“技术之治”,但仍须对制度进行一定细化,建立完善的平台算法问责体系。
一 《草案》确立的平台自动化决策治理框架
《草案》给出了算法自动化决策治理的中国方案,从事前设计部署、事中运行与事后结果输出的自动化决策全生命周期为平台的算法自动化决策设置了义务框架。
(一)算法影响评估:平台自动化决策治理时点前移
《草案》第54条确立了自动化决策的事前评估制度,其第1款规定“个人信息处理者应当对下列个人信息处理活动在事前进行风险评估……(二)利用个人信息进行自动化决策……”。其第2、3款规定:风险评估的内容应当包括:(一)个人信息的处理目的、处理方法等是否合法、正当、必要;(二)对个人的影响及风险程度;(三)所采取的安全保护措施是否合法、有效并与风险程度相适应。风险评估报告和处理情况记录应当至少保存三年。“
根据《草案》第54条的规定,平台须在算法自动化决策上线前进行事前评估。风险评估的内容既包括算法自动化决策的合法性与必要性,也包括其影响及风险。随着十余年平台经济的高速发展,算法自动化决策的滥用与伦理缺失的累积危害已经进入了显现期。为避免平台部署缺陷性算法自动化决策可能对公民财产和人身权利,以及对公共利益和国家安全带来的危害,建立平台算法事前评估制度已时机成熟。
要求平台在事前对自动化决策进行评估,是将平台治理时点前移的重要标志。近年来,网络平台治理的逐渐前移由以下原因驱动:其一,事后追责机制已经不能满足网络平台算法自动化决策的治理需求。平台算法的计算对象是数以万计的平台用户数据,其一旦发生价值观偏差,对社会的不利影响会具有延展性与持续性。事后对平台的追责机制不能有效应对,各种补偿制度难以从根本上解决问题。其二,平台责任事后如何确定和划分成为新的挑战,具体业务的平台规范适用出现空白。2019年以来兴起的平台新业态,如直播带货、人脸识别等新型业务并无具体的法律对其规制,法律责任很难确定。算法自动化决策的风险是平台内生的,伴随着平台作为设计者的决策与行为,依赖事后追责机制,可能会造成未来不断出现平台新的算法自动化决策治理缺位。
《草案》首次在法律层面从个人信息保护的角度确立了算法自动化决策风险评估制度。法律层面对于平台算法自动化决策的事前评估不再仅仅指向网络安全与数据安全,此前”四部委“及行业协会组织的隐私与个人信息保护评估有了法律层面的依据。
(二)算法审计制度:平台自动化决策治理手段升级
《草案》第53条确立了事中的算法审计制度。其规定:”个人信息处理者应当定期对其个人信息处理活动、采取的保护措施等是否符合法律、行政法规的规定进行审计。履行个人信息保护职责的部门有权要求个人信息处理者委托专业机构进行审计。“根据第53条的规定,监管部门的监管对象从外部直接”穿透“至平台内部的算法运行层面。《草案》要求平台应对其算法自动化决策等信息处理活动定期进行审计,必要时监管部门有权启动对平台的第三方外部算法审计。
算法审计制度的确立体现了平台自动化决策治理手段的升级:其一,监管部门直接将算法作为监管的对象。这一监管手段在近年来成为各国平台治理的常用手段,如2019年澳大利亚竞争与消费者委员会(ACCC)宣布计划设立专门分支机构”主动监视“平台算法运行,赋予其要求披露算法详细信息的权限。其二,监管部门的活动直接指向平台内部日常运营活动,穿透了平台法人的外壳。我国算法审计制度规定监管部门有权启动外部审计,体现了在事态严重时监管部门可直接对企业组织内部结构与事务进行干预监管。无独有偶,在”剑桥分析“事件后,美国联邦贸易委员会(Federal Trade Commission,FTC)在 Facebook 设立三个委员会,其工作人员不由企业任免并可向 FTC 直接汇报工作。其三,平台的算法治理引入了多方主体参与。在算法审计制度中,企业自律与第三方机构扮演了重要角色。一方面,平台要定期进行自我审计。这也成了世界各大平台公司的日常实践,如微软设立人工智能伦理委员会,联邦政府与亚马逊合作并与企业合作开发促进算法公平性的项目。另一方面,第三方机构在平台多元治理中扮演越来越重要的作用。如为了人民组织(ProPublica)即通过算法审计发现量刑算法存在的种族歧视问题,纽约大学的 AI Now 研究院则专门针对纽约市算法监管行动发布报告,评价政府监管行动的得失并提出建议。我国现有的第三方机构发挥作用不足,预计在出台后的《个人信息保护法》相关制度的推动下将有所发展。
要求平台进行定期算法审计已经成为世界各国的通行做法。以印度《个人数据保护法案》为例,其要求数据控制者聘请独立的数据审计方对算法的数据处理行为进行一年一度的审计,审计的内容包括算法的透明度、企业的相关保障措施等,审计结果体现为对数据控制者的信用评级打分。此外,当监管部门认为数据控制者有可能造成算法的损害结果时,也可启动算法审计。
平台算法审计制度的确立,既体现了监管部门直接穿透平台法人的外壳干预平台日常运营,又初步建立了企业自律与第三方共同参与的算法多元治理框架。《草案》不仅建立了算法影响评估的事前监管制度,也对事中算法运营进行日常监管。
(三)相关用户权利:平台自动化决策义务增加
《草案》第25条确立了平台对算法自动化决策结果事后的相关义务。其规定:”利用个人信息进行自动化决策,应当保证决策的透明度和处理结果的公平合理。个人认为自动化决策对其权益造成重大影响的,有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。通过自动化决策方式进行商业营销、信息推送,应当同时提供不针对其个人特征的选项。“
根据《草案》第25条的规定,平台须对自动化决策的结果承担如下义务:第一,保证自动化决策过程的透明和结果的公平合理。这一条款针对一直以来被诟病的对特定人群的算法歧视、大数据杀熟等问题。根据平台对算法应用的场景,算法透明度的要求可能涉及代码、逻辑、模型、目标、决策等多个方面,而结果的公平合理可能涉及机会平等或结果平等,以避免平台利用算法处理海量个人数据可能造成系统性地使某些社会群体处于不利地位。第二,对决策结果予以说明。这一条款与欧盟《通用数据保护条例》(GDPR)第22条类似,个人有权要求平台对其造成”重大影响“的自动化决策作出说明,但”重大影响“尚未有明确规定。第三,平台须对用户提供不针对个人特征的自动化决策选项。这一规定是对《中华人民共和国电子商务法》第18条第1款的再次强调,即”电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益“。
《草案》第25条直接为平台的自动化决策结果设定了相关义务,并作出了如下突破:第一,突破平台一直以来采用的”技术中立“抗辩,要求平台为算法自动化决策结果承担责任,须保证算法自动化决策结果的公平合理。第二,扩张平台用户的知情权,确立了有限制的”算法解释权“,用户既可以要求自动化决策结果的透明,也可以在涉及”重大影响“时获得平台说明。这一制度致力于打破用户与平台之间的信息不对称,为平台施加了信息披露的义务。第三,要求平台打破算法个性化推荐给用户打造的”信息茧房“,要求平台保障用户的知情权。推荐算法的个性化推送、个性化定价,是当前各大互联网平台普遍使用的增加利润的武器。研究显示,算法根据用户个人信息定制的结果排名总是高于其他任何因素。2015年优步仅根据动态定价算法就创造了68亿美元的利润。此条要求网络平台不得以此损害消费者利益,不得利用个性化推荐损害用户的知情权以及对用户进行价格歧视。
总体而言,《草案》设定了平台算法自动化决策事前、事中与事后的全生命周期的监管框架,既借鉴了近三年来世界各国立法的相关制度,也沿袭了我国既有的相关实践。
二 揭开平台技术面纱:平台算法问责制的初步确立
《草案》将平台监管对象深入至平台的底层技术逻辑——算法层面,为平台的算法自动化决策的设计部署、运行与结果输出等设置了注意义务,并以此作为平台责任的承担依据。《草案》初步确立了我国的平台算法问责制和以平台治理为核心的算法自动化决策治理框架。
(一)平台追责的直接指向:平台的算法自动化决策
《草案》确立的平台自动化决策治理框架,体现立法者将”主体—行为—责任“的传统法律追责思路更新为技术治理思路。立法者充分认识到算法在平台日常运行中的核心作用,因此对于平台责任不再纠结于主观过错与违法结果等传统法律责任的认知体系,而是直接将平台算法作为法律监管的对象。
监管部门将平台责任追究指向算法层面,解决了法律面临的如何认定平台”行为“的理论问题。平台的运作功能和盈利模式,或者学界提出的”架构“等,均关系到平台的法律定性以及功能描述。然而,”平台“一词至今尚无标准定义。根据现有研究,平台的双边市场效应特征十分突出。平台的功能已经超越市场主体,实际上已通过算法架构建立了基于数据挖掘与分析的数据服务市场,并且在此市场中,糅合了多向度和多方面的法律关系。平台算法的计算结果来源于用户提供的原始数据,而数据提供者并非仅有用户,还包括交易产生的数据,甚至包含政府提供的公共数据。因此,平台尽管是”数据控制者“,但平台通过算法收集、抓取和分析数据,并提供大数据产品(如用户画像),同时通过与其他市场主体签订服务协议,构建平等主体间的民事法律关系。在这样一个纷繁复杂的多边市场中,可落入传统法律规制对象的既包括平台用户协议的解释规则、平台对所呈现内容的事前审查,也包括对所提供服务的质量保障义务与相关事后义务,以及基于算法自动化决策所产生的个性化推送等。
由于平台作为多边市场存在多重法律关系,因此长期以来在平台责任的追究问题上一直存在着”平台责任中行为人与责任人相分离“”平台本应技术中立所以承担的是无过错责任“的理论困境,甚至在刑事责任的追究上也存在”帮助犯正犯化“的争议。《草案》中平台作为个人信息的处理者,平台要为算法加工个人数据产生的数据质量承担具体的法律义务。因此,算法自动化决策乃至平台架构均被纳入”行为“的范围,平台的算法自动化决策无法逃脱过错责任的承担,技术中立与无差别技术抗辩已经无法产生责任规避的效果。
平台责任中个人信息的使用原则和行为边界,终仍须着落于平台处理个人信息的工具——算法的设计部署、运行的控制上。根据平台处理个人信息的正当性与合理性原则,平台还须对算法自动化决策结果的输出承担一定的注意义务,保证”自动化决策结果的公平合理“。至此,平台责任追究的对象已穿透平台的技术面纱,直抵平台技术的底层逻辑——算法。
(二)平台注意义务的扩张:从算法设计到结果输出
平台责任的认定机制中,平台注意义务从简单的”明知应知“被扩张至算法设计、算法运行直到结果输出的全过程。平台这一注意义务的扩张趋势有学者在理论上早有提及,并于2018年以来逐步被各国立法实践所采纳。
美国法学家莱斯格早在《代码2.0》中即指出,代码(算法)搭建了网络空间架构,建构和引导了用户行为。莱斯格首次将架构纳入法律社会学分析,提升到与法律、市场、社会规范平行的高度,并系统地说明(甚至预言)架构如何”规制“社会主体的在线行为,影响诸如版权、隐私、言论这样的法律制度,进而提出赛博空间的根本问题:谁终控制架构的生产和运作。2011年,Cavoukian 提出”设计隐私“的理念,主张平台在算法设计时就有责任考虑用户的隐私保护。学界主张基于平台算法(架构)对平台运行与用户权利的影响,平台算法设计阶段即应负起相应注意义务。
平台算法运行中的注意义务也在各国司法实践中获得实质性推进。GDPR 建立了算法数据处理评估制度、算法认证制度,官方于2019年发布了”行为指引与认证标准“。欧盟议会的《算法责任与透明治理框架》提出建立”算法影响评估“(AIA)机制,欧盟部长委员会向成员国提出立法建议,应对算法对内容与用户行为的”过程操纵“能力。GDPR 的风险预防型立法逐渐获得各国立法者的青睐,美国、加拿大和德国也逐渐重视算法系统的事前风险防范制度,要求企业承担更多的信息披露义务,以减少监管机构的负担。无论是 GDPR 的算法专条还是美国的《算法问责法案》(Algorithmic Accountability Act of 2019),其中的算法透明度、可见性、评估、认证等制度均充分体现了算法风险预防型流程监管的加强趋势。实践中,”西班牙谷歌案“”武尔夫夫人诉谷歌案“等一系列司法判例,以及行政机关的一些行政处罚案都表明了对平台算法有从设计阶段问责的倾向。
同时,各国也加强了算法造成危害结果后对平台的问责。平台作为算法的使用者与控制者,有义务在不利后果发生后报告并证明算法系统设计和决策应用的合理性,并有义务减轻算法可能带来的任何负面影响或者潜在危害。
(三)平台算法治理的目标:平台的算法问责
平台算法治理的核心目标是厘清平台责任的认定与分配,具体而言是解决”谁负责、怎么负责、负什么责“的问题。平台算法治理必须既符合技术逻辑,也符合法律责任主客观相一致的法律原理,打造”负责任“的平台算法责任体系。
技术一旦应用,则需要对来自人类社会的各种伦理诉求作出负责任的回应。算法问责制有确保平台负责任地开发和使用算法系统,从而改善人类福利并造福社会的功能。在诸多算法治理手段中,算法透明度和算法问责制之间既有区别又有联系。其中一个重要区别是,问责制主要是个人或组织的一项法律和道德义务,即对其活动进行说明,承担责任;而算法透明度可作为实现这一目标的工具,要求平台以透明的方式披露算法运行过程与结果,算法的结果透明度、目标透明度和影响透明度比算法本身的透明度对算法问责更有意义。归根结底,透明度、数据出处日志、代码更改和其他记录保存都是重要的技术治理工具,平台责任制度设计的根本目标是建立明确的法律责任链。
平台算法治理以平台算法问责制作为目标,相比其他治理目标具有优势。个人数据保护进路的算法治理存在重大局限,强调权利保护而不明确算法责任的归责主体、归责条件和规则事由,使得个人权利保护进路的算法监管无法落地。欧盟提倡的”设计隐私“理念过于狭隘,无法涵盖算法治理的公平、安全等重要价值。美国的事后监管模式事实上是”一事一理“,难以被他国学习、复制。FTC 调查程序漫长、反应滞后,事后监管也未形成令人信服的可供对标的佳实践,盲目借鉴将会造成司法管辖的低效能,并使得行政监管权限与边界模糊化。现有《草案》中应以行政赋能作为主要手段,以平衡用户与科技巨头”算法权力“的不对等现状,来满足未来算法问责制的需求。
平台从提供”连接“服务走向智能化与自动化后,网络平台应当基于”算法责任“的主观过错,将”客观损害结果“和之前已经事先存在的”算法责任“相结合,建立权责一致、责罚相当的监管框架与法律责任体系。
三 平台算法问责制的框架完善与制度细化
我国平台责任存在监管时点滞后、责任机理模糊、调整对象过浅的情况,因此常被诟病为”事故型问责“或”按需求处罚“,导致问责的必要性、合理性存疑。《草案》确立了算法问责制的基本框架,但遗憾的是,对于平台算法责任的机理与层次尚不明晰。因此,应以符合法理和技术逻辑的科学问责思路来校正监管部门与生俱来的”越早越好“和”越严越好“的扩张逻辑,使平台责任设置和追究走向科学化、体系化,监管力度与平台过错相适应。
(一)平台算法注意义务的适度扩张
为了避免事后仅根据损害结果客观归责,必须通过制度在事前进行算法设计部署的相关信息披露以确定事后的问责点。对平台责任中平台是否尽到注意义务的考察应在事前进行,并以某种形式将事后的问责点固定下来。这样既能够避免事后平台隐瞒与错误披露的可能,也可以预防风险,避免错误的算法计算反复被适用于海量主体,从而导致损害弥散化。
算法评估标准应当适度扩张。遗憾的是,《草案》对于平台自动化决策的评估基于其立法目的限于”对个人的影响及风险“,而平台的自动化决策远不止于此。例如,平台匹配工作任务与劳动者的算法,影响就业的薪酬与机会,事关就业公平;平台对商户的信用评分算法,对商户获得流量与业务至关重要;甚至互联网保险公司采用的算法决定是否允许用户投保以及保费高低,已具有了一定的公共服务色彩。平台是数字经济中组织社会生产的核心组织,其算法设计直接关系到社会经济运行,对参与生产与资源分配的社会主体具有深远影响。
2018年以来,立法者逐渐认识到数据保护制度偏重私权与合规,无法顾及公共利益与网络治理,因此算法规制成为网络治理的新抓手。目前,欧盟及各成员国呈现算法立法与数据立法分立且并重的态势。例如,GDPR 的数据处理评估制度(DPIA)即是针对高风险数据处理活动对数据控制者设置的预警自查义务。AI Now 研究院也提出了类似的”算法影响评估“制度,要求在重要的公共部门使用算法前,应采取关键步骤来确定何时以及如何产生潜在危害的,包括增加其专业知识和能力以有效评估算法系统,并允许第三方审计公共部门的算法。由于近三年英国脱欧事件与欧洲各国大选,算法对网络信息内容的决定性作用与社会动员力量引起了立法者的关注。欧盟议会指导意见要求在线平台确保政治广告透明性、阐述算法推荐内容机制并允许第三方验证,以应对算法操纵新闻议程。
《草案》的算法事前评估制度可类比建设项目的环境影响评估制度。算法可能产生的公共利益、公民权利等风险的评估,包括风险的来源、性质、特殊性和严重性等。在数据实践中,个人信息的隐私与数据安全并不可截然分开,如许多个人信息泄露是由于未能有效维护信息安全而导致的。有他国实践主张,算法的设计部署者应提供更为广泛的评估,包括算法应用对人权、隐私和数据保护的影响等;有的学者主张,算法设计部署应着重提供”社会影响声明“”歧视影响评估“,甚至”人类影响声明“等。我国未来应以行政法规或规章对《草案》确立的算法评估制度具化细化,依据算法应用场景、算法处理数据风险、算法使用部门、算法的法律后果等多种风险评估标准,采取不同的算法监管强度。
(二)平台算法问责制度的细化
第一,应明确平台启动算法评估的条件。我国并未明确平台对算法自动化决策进行评估的启动标准,应在未来实施细则中具体明确以方便今后平台的合规工作。我国的《信息安全技术个人信息安全规范》将”处理超过100万人的个人信息“作为评估启动的标准,但对于《草案》中的算法评估在何种条件下启动并未明确。将算法应用涉及的用户数量作为高风险标准是为了避免算法造成的系统性风险。这种适用范围的确定以美国《算法问责法案》为代表,针对有权访问大量信息的大型公司,适用于年收入超过5000万美元,拥有至少100万人或设备的信息或主要充当买卖消费者数据的数据经纪人的公司。法国也将当前(或将来)接触软件应用程序的用户数量构成了确定监管措施是否适当的重要基准,认定每月连接数超过500万的平台比连接数较少的平台受到更严格的监管。可以预见,我国未来可能建立以用户数、企业规模或算法分级为前置条件的评估启动条件。
第二,应明确平台启动算法评估的后果。算法评估报告是否应公布,并在何种范围内公布?对公众披露的大风险在于算法的设计信息可能会被竞争对手获取,或被用户不当使用。例如,网络用户在掌握搜索引擎排名权重等信息后,通过搜索引擎优化(SEO)技术对排名和搜索建议进行操纵。这些风险可通过将披露对象限定于监管部门而得以避免。在各国制度中,美国的《算法问责法案》拟要求平台对监管部门(FTC)披露信息,澳大利亚反垄断部门的平台算法监管措施也仅限于对监管部门的披露,而在英国数据保护机关 ICO 的调查报告中建议数据处理评估的结果应该公开。数据处理评估在实践当中已经逐渐开始发挥作用。曾供职荷兰数据保护机关的 Sjoera Nas 在 EDPL 撰文披露了微软公司 Office ProPlus 软件的影响评估报告。这份报告由荷兰政府中央采购部门披露。报告披露,微软在未经用户同意的情况下,对用户使用 Word、Excel、PowerPoint 以及 Outlook 等常用软件进行数据收集。微软隐私和法规事务副总顾问事后予以回应,称相关软件已经升级,并对算法进行数据收集的问题进行了修缮。《草案》应在未来的具体制度设计中明确算法评估报告的公布范围。
(三)平台多元治理体系的完善
平台运行过程中的算法审计是针对算法运行过程进行问责的主要依据。应鼓励建立多元主体的平台问责体系,由平台对算法进行自我审计与评估,以帮助提前识别和减轻算法可能带来的风险,这既有助于为日后的问责提供充分有效的信息,又符合鼓励行业自律的自证合规原则。
平台的自我审计与评估应包括对算法与使用数据在运行阶段的频繁评估,以检查是否有任何偏见(例如,错误的分类、不准确的预测、对个人的负面影响),并制定解决任何偏见因素的方法。算法审计系统应构建为自动决策的准确性和相关性进行的定期审查,并应包括周期性地防止基于敏感数据的错误和不准确而发生歧视的程序和措施。政府对平台的算法监管需要把握侵入平台内部运行的限度,尽量形成合作规制,通过低成本”轻推“的监管方式调动平台的技术力量自我规制。如 Facebook 自2018年起就遭到其偏爱左倾新闻来源的批评,尽管美国并未展开相关调查,Facebook 还是对其算法的政治偏见进行了内部审计。
从技术的角度来看,对测试结果的正确解释可能受到技术能力的限制,尤其是对于机器学习的算法内部如何达成结果可能无法进行有效解释。这限制了监管部门提供证据确认平台算法设计和运行中的过错。因此,还需要事前就设立不同算法的技术标准、测试程序,审核算法设计运行是否达到了相关标准。政府部门应制定测试程序和审计统计技术标准的计划,并在必要时根据应用领域进行区分。专业技术支持部门应在算法测试中发挥主导作用。
(四)平台算法责任的体系化设置
《草案》确立了平台数据活动造成的损害的过错责任原则(过错推定原则)。《草案》第65条规定:”因个人信息处理活动侵害个人信息权益的,按照个人因此受到的损失或者个人信息处理者因此获得的利益承担赔偿责任……个人信息处理者能够证明自己没有过错的,可以减轻或者免除责任。“由此可以推断,平台算法自动化决策(数据活动)造成损害的归责原则也应为过错责任原则,那么,如何根据不同的过错程度设计体系化的平台算法责任,仍有待未来法律与实践的回答。
首先,平台算法问责应对不同类型风险设置不同层次的法律责任。对”高风险“的应用场景可采取风险规制思路,强化事前监管,对应用准入设置必要的评估等要求,完善相应责任立法体系。对于高风险的”关键算法系统“可适当采取严格责任或无过错责任,对于风险适中的算法则采取过错责任原则。
其次,平台对算法的评估与审计不符合标准,或进行虚假评估与审计时,监管部门可以强制要求披露或介入平台运营。例如,法国2019年《反网络仇恨法案》提出提高数据处理透明度,接受技术资源高级视听委员会的监督,并向后者上报所收到问题的处理情况和必要数据;加强与法国司法系统的合作,取消违法用户的匿名权利并提交用户信息,接受独立检察官的依法审核及必要介入。
最后,我国可以在复杂领域通过司法审判对具体案件进行平台算法责任的探索,通过个案析理提升立法清晰度。《草案》中的平台算法问责制多为统筹性、原则性立法,在具体案件适用过程中存在清晰性不足的问题。
结语 人工智能时代,法律的重要任务是保障自动化决策公平的核心公共利益。《草案》中的平台算法治理框架以保障用户的个人信息与财产权益为目标,应积极发挥促进公平、发展等民众福祉的作用。随着风险社会的来临,以及平台权力和算法权力的崛起,法律与监管部门应主动防治风险,建立完善的平台算法问责制度,形成符合法理和技术逻辑的科学问责思路和监管思路,以促进”负责任“的平台算法设计与运行体系。