AI监管需要保有技术主动性

光明时评  2024-02-05 10:26:00

  欧盟27国代表2日投票一致支持《人工智能法案》文本,标志欧盟向立法监管人工智能迈出重要一步。与此同时,计算机和通信业协会批评说,许多新的人工智能管理规定尚不明确,(这样严格的监管法案)可能会减缓创新的人工智能应用在欧洲的开发和引进。

  早在2021年4月,欧盟委员会就提出了《人工智能法案》提案,意在构建世界范围内第一部人工智能法律,2023年5月,回应ChatGPT的挑战,欧盟又通过了《人工智能法案》的谈判授权草案。这项新技术立法经历了马拉松式的谈判,直到投票前不久,欧盟还不确定德国是否会投赞成票。可见在人工智能上监管跟进与伦理评估的复杂性。

  加速是以人工智能为代表的新型技术的内在特征,本质上也是资本的内在特征,其稳定可靠是建立在加速基础上的,因此不可能理想性“暂停”一段时间来静待应用伦理的构建。意在强化伦理约束的欧盟可信人工智能指南反而强调技术的“健壮性”原则,即,如要使人工智能朝向人权和人类福祉的旨归,须以不断的发展实现安全可靠。这意味着,我们必须伴随技术思考伦理应对,使伦理约束至少在技术手段上与约束的对象同步。

  对算法影响进行评估、对产业链上下游不同角色进行责任认定、建立监管沙盒等等,都需要以技术本身作为防御工具,更需要立法和监管以动态方式跟进观察技术前沿,抓取技术工具。ChatGPT带来的全球性讨论中,业界学界很多人也同样反对“AI末日论”“AI恐怖主义”,强调技术本身的反向运用能力。有专家一针见血:在人工智能之前,数字内容的造假已经存在,如果担心人工智能生成虚假的人物和虚假的视频,答案不是禁止文字处理器、Photoshop,或者人工智能,而是利用技术构建一个真正解决问题的系统。

  与之一体两面的问题是,监管方应警惕技术滞后,或者因为立足于落后技术思维而导致自身成为问题制造者。良好的监管将有效增强技术的安全感和控制力,减少新的风险,但低效监管和低能监管则肯定会使人工智能的伦理风险更为复杂化。因此需尽可能前置技术评估时间、形成监管主体对技术的敏锐性反应。《人工智能法案》确定了人工智能系统的明确定义,区分于一般软件系统、编程方法,以保证法律的确定性和广泛接受性;定义了人工智能的四个风险级别,分级对人工智能提供者规定义务;此外作为主动性技术防御措施,法案还要求欧盟各成员共建一个高风险人工智能系统数据库,供应商应按照相应要求将规定的数据输入该库中,可向公众免费提供,面向算法透明,在公众知情权和商业秘密之间达成一个技术性平衡。法案所体现出的技术伴随意图和较高的技术主动,值得关注。

  将人工智能相关技术置于媒介环境中考虑,就会发现技术主动原则是一种必须建立的底层逻辑。今天我们面对的媒介可以理解为资本、技术、媒体三位一体的大型架构,在理解和定义重大社会趋势、选择时,媒体被认为有合法性,很容易将资本及技术的原始冲动合理化。上述欧盟草案所列的风险级别中,大型网络平台的社交媒体平台(用户超过4500万)所使用的算法推荐系统,被列入了高风险人工智能,正因为其会对网络安全、公众舆论等产生强烈效应,对整个社会生活产生“元”影响力。在人工智能的狂飙突进中考虑中国的本土情况,欧盟立法的过程及其“技术主动性”,需要我们引为参考。

本文内容转载自 光明网-光明时评,供参加申论考试的同学学习申论写作之用,版权归原作者所有。

《申论》通关特训题库
模块 考点
归纳概括
解决问题
综合分析
公文写作
人工智能 的相关内容