以法治防范人工智能安全风险
在数字时代,数字经济的发展离不开信息技术创新的驱动,也离不开网络安全的保障。事实上,网络安全不单纯是技术维度的安全可靠,而是国家安全的重要组成部分。当前,网络安全已逐渐成为全球各国政治博弈、经济竞争的“新战场”。网络安全的有效保障需要技术、法律、市场等多个治理工具共同发挥作用,进而形成贯穿各个环节的网络安全治理体系。
我国一直高度重视以法治护航网络安全。截至目前,我国已经颁布了网络安全法、数据安全法、个人信息保护法等法律法规,出台了《网络安全审查办法》《云计算服务安全评估办法》等一系列政策文件,网络安全政策法规体系已基本建立。同时,我国还针对网络勒索攻击、网络安全漏洞等各类安全风险设置了专门的配套治理机制,如数据分级分类治理、网络安全风险评估机制等。然而,随着人工智能技术的不断发展,新型的网络安全风险也在持续产生,为此我国立法机构和监管部门开始重视并着手应对相关安全风险。如制定《生成式人工智能服务管理暂行办法》,针对研发者、服务提供者设置了数据标注管理义务、安全评估与算法备案义务、生成内容审核义务等安全主体责任。
我们不能简单地将人工智能安全划归为应用程序安全或其他具体的技术性安全问题,而应以整体性视角理解这类安全在网络安全治理中的功能定位。因为随着人工智能技术应用的普及,人工智能将逐渐成为支撑政治、经济、科技等各个领域的重要基础技术,其安全性也将与国家安全、经济稳定以及公民人身财产安全密切相关。
纵览产业发展现状,人工智能安全风险主要表现为三类:一是犯罪工具风险,即将人工智能技术作为传统犯罪升级的技术工具,目前实践中已经出现了利用人工智能技术实施电信网络诈骗的案件。特别是深度伪造技术一旦被滥用,会产生“合成淫秽图片”“生成网络谣言信息”等风险。二是信息系统安全风险,即人工智能信息系统受外部网络攻击、内部员工违规操作等因素影响,进而产生用户个人信息泄露、信息系统宕机、自动驾驶汽车操作失灵等安全风险。三是伦理风险,即人工智能产品或服务在研发、设计、应用等阶段未能进行必要的科技伦理评估,导致其产生基于性别、年龄、疾病等敏感因素的社会歧视问题。面对人工智能安全风险的新特点、新问题,研发者、服务提供者、监管部门、用户等各类主体应当积极参与到人工智能安全治理活动中来。9月9日,全国网络安全标准化技术委员会正式发布《人工智能安全治理框架》1.0版,旨在推动各方就人工智能安全治理达成共识,促进人工智能安全有序发展。
整体而言,人工智能安全治理是一项长期性、综合性的社会治理活动,除了需要多元主体协同共治外,还需要充分利用各类治理机制全方位预防和控制相关安全风险。在法律层面,研发者、服务提供者应当自觉履行法定的安全保障义务,采取必要的技术措施和内部管理制度确保信息系统安全和信息服务的稳定持续提供。在技术层面,研发者、服务提供者应当在研发环节全面评估潜在的安全风险并设置相应的应对方案,同时根据网络安全态势的变化,及时升级安全技术措施。在市场层面,保险机构可与研发者、服务提供者共同推出专门面向人工智能安全的保险产品,以此分散不可预见、不可控制的人工智能安全风险。
网络安全无小事。人工智能安全等新型风险与网络社会高度关联,更应当采取综合性的防护措施。无论是监管机构,还是企业、公民,都应当树立正确的网络安全观,用辩证发展的眼光看待网络安全。因为网络安全治理从来都不是社会发展的“额外负担”,只有确保网络安全,才能够有效保障经济社会持续稳定发展。
(作者系北京航空航天大学法学院副教授,北京航空航天大学网络空间国际治理研究基地副主任)
(法治日报)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。