《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 负责任的发展生成式人工智能的挑战及应对路径
负责任的发展生成式人工智能的挑战及应对路径
网络安全与数据治理
邓臻宇
中南财经政法大学知识产权研究中心
摘要: 生成式人工智能正推动着新一轮科技产业的变革,但也引发了诸多治理风险,例如数据滥用、训练数据质量不高,算法黑箱、算法歧视现象普遍,但目前的监管理念和措施仍具有滞后性。为了实现生成式人工智能负责任的发展,在治理路径上,需要用户、开发者和监管部门等多元主体从技术和法律等多维度协同参与治理,构建数据质量管理体系、建立开放共享的公共训练数据平台;实行算法备案登记、审查评估机制,实现对算法公平公正的敏捷治理;完善生成式人工智能侵权归责体系、探索监管沙盒制度的应用,实现技术创新的负责任发展。
中图分类号:D912文献标识码:ADOI:10.19358/j.issn.2097-1788.2024.07.011
引用格式:邓臻宇.负责任的发展生成式人工智能的挑战及应对路径[J].网络安全与数据治理,2024,43(7):69-76.
Challenges and paths to responsible development of generative AI
Deng Zhenyu
Centre for Studies of Intellectual Property Rights, Zhongnan University of Economics and Law
Abstract: Generative AI is driving a new round of changes in the science and technology industry, but it also triggers many governance risks, such as data misuse, poor quality of training data, algorithmic black box and algorithmic discrimination are common, but the current regulatory concepts and measures are still lagging behind. In order to achieve the responsible development of generative AI, on the governance path, it is necessary for multiple subjects such as users, developers and regulators to participate in the governance in a coordinated manner from multiple dimensions such as technology and law, to build a data quality management system and establish an open and shared public training data platform. Algorithmic filing and registration, review and assessment mechanisms are implemented, to achieve fair and impartial and agile governance of algorithms. The system of attribution of responsibility for generative AI infringement is improved, and the application of regulatory sandbox system is explored, so as to realise the responsible development of technological innovation.
Key words : responsible development; generative artificial intelligence; open sharing; regulatory sandbox

引言

以ChatGPT为代表的生成式人工智能正以“快进键”的模式推进社会的进步,为各个领域的发展带来了诸多机遇,但所伴随的风险也对既有的技术治理体系提出了全新的挑战。目前,世界各国正通过修改法律法规和政策文件的形式,寻求生成式人工智能技术创新发展与安全治理之间的平衡,要求生成式人工智能技术人员以更加审慎负责的态度促进技术进步。人工智能时代,新型技术的快速发展呼唤着制度的变革。我国对生成式人工智能的有序发展同样予以高度重视,2023年4月11日,由国家网信办公布了《生成式人工智能服务管理办法(征求意见稿)》,同年7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部等多个部门公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)。通过对两份文件的对比分析,可以看出我国对生成式人工智能的发展持鼓励态度,在《生成式人工智能服务管理暂行办法》中为生成式人工智能提供了更为宽松的技术创新化环境。而实践中,生成式人工智能已经深深嵌入社会发展脉络中,对传统的生产方式实现了全面的革新,但同时也对社会治理、科技伦理和法治保障等提出了前所未有的挑战,例如数据隐私侵犯和数据滥用、算法歧视和算法黑箱、不公平的AI决策和生成虚假内容等多个方面的风险,需要相关主体以负责任的态度推动该项技术的涌进。面对生成式人工智能带来的挑战,2023年5月4日,美国政府在与处于人工智能创新前沿的四家美国公司Alphabet、Anthropic、Microsoft和OpenAI的首席执行官会面后,公布了三项有关人工智能的新举措,分别是投资推动负责任的美国人工智能研究开发,对现有生成式人工智能系统进行公开评估,政府以身作则制定政策以减轻人工智能风险并利用人工智能机遇。我国国家新一代人工智能治理专业委员会也早在2019年发布过《新一代人工智能治理原则——发展负责任的人工智能》,但是并未对提出的原则制定详细规则。面对生成式人工智能技术的迅猛发展与显现的治理问题,负责任式发展生成式人工智能应是当前技术发展的新共识。鉴于此,本文在把握负责任的生成式人工智能定义的基础上,总结人工智能特性,分析发展面临的挑战,并寻求对应的破解路径,通过提升对数据安全的管理,重视对生成式人工智能系统的审查和评估,构建开放共享、普惠包容的算力资源,并尝试构建层次化的分级分类监管措施等,探索出一套能够有效推动生成式人工智能负责任发展的本土化治理体系。


本文详细内容请下载:

http://www.chinaaet.com/resource/share/2000006094


作者信息:

邓臻宇

(中南财经政法大学知识产权研究中心,湖北武汉430073)


Magazine.Subscription.jpg

此内容为AET网站原创,未经授权禁止转载。