《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 从失范到规范:生成式人工智能的监管框架革新
从失范到规范:生成式人工智能的监管框架革新
网络安全与数据治理
刘学荣
吉林大学法学院
摘要: 生成式人工智能在技术变革下引发的失范性风险,对既有人工智能监管框架提出了挑战。从底层技术机理出发,可知当前生成式人工智能呈现出“基础模型-专业模型-服务应用”的分层业态,分别面临算法监管工具失灵、训练数据侵权风险加剧、各层级间法律定位不明、责任界限划分不清等监管挑战。为此需以分层监管为逻辑内核,对我国既有人工智能监管框架进行革新。在监管方式上应善用提示工程、机器遗忘等科技监管工具;在责任划定上应进行主体拆解与分层回溯,从而规范“基础模型-专业模型-服务应用”的分层监管框架,以期实现有效监管,促进生成式人工智能的高质量发展。
中图分类号:D922;TP399文献标识码:ADOI:10.19358/j.issn.2097-1788.2024.06.009
引用格式:刘学荣.从失范到规范:生成式人工智能的监管框架革新[J].网络安全与数据治理,2024,43(6):58-63,71.
From illegal to legal: evolving regulatory frameworks for generative artificial intelligence
Liu Xuerong
School of Law, Jilin University
Abstract: The risk of aberration caused by generative artificial intelligence under technological change challenges the existing artificial intelligence regulatory system. Starting from the underlying technical mechanism, it can be seen that the current generative artificial intelligence presents a hierarchical format of "basic model-professional model-service application", and faces regulatory challenges such as the failure of algorithm supervision tools, the intensified risk of training data infringement, the unclear legal positioning between different levels, and the unclear division of responsibility boundaries. Therefore, it is necessary to take layered regulation as the logical core and reform the existing artificial intelligence regulatory framework in China. In the way of supervision, we should make good use of technology supervision tools such as prompt engineering and machine forgetting. In the delineation of responsibilities, the main body should be disassembled and hierarchical backtracking should be carried out, so as to standardize the hierarchical regulatory framework of "basic model-professional model-service application", in order to achieve effective supervision and promote the healthy and high-quality development of generated artificial intelligence.
Key words : generative artificial intelligence; algorithm black box; technical supervision; legal responsibility

引言

随着人工智能的迭代升级,对其进行的深层监管不仅关系到法律治理实效,也直接影响到技术发展与应用安全。生成式人工智能作为当前新质生产力发展的主要驱动力,需加以重点关注。相较于传统的人工智能,生成式人工智能因其深度学习属性而使技术原理变得更加复杂且难以理解,并由此导致算法黑箱、算法歧视、算法异化、算法权力失范等过去人工智能算法模型中常见的技术伴生风险问题更为严峻。与此同时,算法解释、算法审计、算法评估等过去对人工智能进行法律监管的传统工具在生成式人工智能面前也面临着失灵风险,法律监管体系的稳定性与安全性都受到了极大的冲击。

虽然我国人工智能法律监管始终走在世界前沿,并形成了具有中国特色的算法模型监管体系[1],但就目前针对生成式人工智能以及深度合成算法推出的监管规定,仍主要停留在人工智能模型治理衍生出的信息安全层面,偏重服务应用监管而轻视底层技术监管[2],无法克服因人工智能模型的技术升级而产生的监管困境。

在技术失控风险日益严重,现有方案又无法实现有效监管的双重困境下,生成式人工智能的监管难度急剧增长。面对生成式人工智能蓄势待发的落地应用,需要针对性的法律监管方案对风险进行治理。因此,本文将从生成式人工智能的底层技术出发,首先对其采用的算法模型进行技术穿透,在解析技术原理后清晰定位生成式人工智能的监管困境,而后在底层技术特征的基础之上挖掘生成式人工智能技术监管的可行路径,弥补当前生成式人工智能法律监管工具的失灵,并结合生成式人工智能的底层运行机理与相应的运行主体进行精准分层责任落实,避免因“技术中立”滥用而引发法律责任逃避问题,以实现底层技术与分层主体有机协调的法律监管模式。


本文详细内容请下载:

http://www.chinaaet.com/resource/share/2000006049


作者信息:

刘学荣

(吉林大学法学院,吉林长春130000)


Magazine.Subscription.jpg

此内容为AET网站原创,未经授权禁止转载。