全国政协委员张毅:人工智能产业发展和监管要“刚柔并济”,避免过度监管成为发展“紧箍咒”
记者郑雪北京报道
今年2月文生视频大模型Sora发布,再次引发全球AI热潮。热浪之下,人工智能如何朝着正确的方向行进?
人工智能算法监管或是可行路径之一。算法,对于公众而言既陌生又熟悉。算法具有非常强的专业性及不可解释性,但日常生活,每个人都在不时接受不同应用场景下的各种算法结果。此外,对于人工智能产业发展而言,作为加速器的算法和数据、算力共同作用推动智能涌现。基于此,全国政协委员、金杜律师事务所高级合伙人张毅带来了《关于进一步完善人工智能算法治理体系的提案》。
张毅在接受记者专访时表示,当前我国人工智能算法治理存在法律法规效力层级不高、监管机构监管竞合、监管真空或失焦、用户权利难以充分救济等问题,可从健全算法综合治理体系、优化监管工具、加强用户权益保护等方面着手完善。
在产业发展和监管平衡方面,张毅表示要设置“包容审慎边界——划定安全底线”的刚柔并济路径。一方面,要逐步明确行政程序规则,让监管治理成为人工智能安全发展的“稳定器”;另一方面,全球产业竞争加剧之下,警惕过于强势的法律干预成为人工智能发展的“紧箍咒”。
强化源头治理,实现前中后监管闭环
21世纪:伴随人工智能快速发展,人工智能监管也在全球竞速。在您观察来看,全球人工智能监管有何异同?
张毅:从监管进程来看,目前全球人工智能监管尚处于不断变化的立法活跃期。除我国已制定全球首部针对生成式人工智能的法规《生成式人工智能服务管理暂行办法》外,欧盟、英国、美国等主要司法辖区均处于探索和制定人工智能监管规则的不同阶段。
回过头看,全球人工智能监管在近几年内经历了从分散林立的差异化规则,到相互影响融汇并求同存异的过程。
尽管由于各国的人工智能产业发展情况与监管动因等因素不同,存在诸多具体监管规则的差异。这包括但不限于各国对于采取纵向或横向的立法模式、人工智能的风险认知框架,以及对开源模型的监管方法等议题存在不同的立场。
但从近期的立法动态来看,可以观察到全球范围内正在努力建立人工智能监管共识。一方面,国外诸多司法辖区正在从以政策倡议、行业自律等“软法”为主导逐步转向制定正式立法的“软法”与“硬法”协同治理模式。另一方面,还可以看到区域性、国际性的人工智能监管共识的凝聚,这是由于人工智能其实是国际社会共同面临的治理难题。
21世纪:人工智能算法治理方面,我国算法治理目前存在哪些问题?
张毅:作为全球范围内最早开展人工智能算法治理的国家之一,我国近年来陆续针对算法推荐、深度合成等技术制定专门规范,逐步完善我国的算法治理体系。但随着技术的高速发展和广泛应用,人工智能算法治理更要体现监管智慧和制度优势,现阶段有必要重估新技术带来的新问题,更新治理思路并反馈在立法、执法等治理实践中。
具体而言,我国算法治理工作可以考虑从立法、执法到司法等全流程、多维度的更新和优化。比如,在算法监管规定方面,现阶段我国算法治理规定主要由部门规章、规范性文件等构成,缺乏效力层级较高的立法。在监管机构方面,可能有多个部门具有执法权力,产生监管竞合。在算法侵害维权方面,虽然现有规定对算法侵害行为作出禁止性规定,但是被算法侵害的对象往往面临“理解难”“取证难”等问题,用户权利难以得到充分救济。此外,由于人工智能技术更新迭代快,难以为现有监管体系和技术覆盖,从而产生监管真空或失焦的情况。
21世纪:在您看来,当前我国算法治理体系如何予以完善?
张毅:我国算法治理体系可考虑从健全算法综合治理体系、优化监管工具、加强用户权益保护等方面着手完善。
首先,目前我国算法监管规定主要关注具体权利侵害的结果维度,暂未结合算法的特殊性,关注训练数据、科技伦理等源头性因素可能造成的算法侵害。未来,应当增强源头治理,将算法侵害治理追溯至算法设计、研发等前期过程,实现事前、事中和事后的监管闭环。
再者,考虑到算法更迭快、技术繁复等因素,可以引入“监管沙盒”制度来允许算法及人工智能企业在相对可控的环境内进行试验性的开发、测试和验证,也有助于增进监管部门对技术发展的理解。同时,也可以考虑探索将人工智能技术应用于人工智能监管,以提高监管效率。
此外,在用户权益保护方面,可要求服务提供者优化平台设计,在为用户提供算法服务时,为用户提供便捷的拒绝或关闭算法服务的选项,畅通用户投诉、申诉渠道。在诉讼环节,可尝试拓展算法侵害行为的维权路径与责任模式,采用“过错推定”的归责原则,实行“举证责任倒置”以减轻用户的举证责任负担,增强用户的维权力量。
行政机关需纳入算法监管客体
21世纪:您在提案中写道,当前“监管客体仅限于互联网平台等民商事主体提供的算法服务,不涉及政府机关在行政活动中运用算法的行为”,行政机关的算法行为如何监管?
张毅:实践中,在生成式人工智能的赋能下,算法在行政管理和执法的应用场景已迅速拓展丰富。例如,目前市场上已有大模型可以实现由数字人自动化处理政务热线中的民生诉求,智能识别违法行为并完成立案登记等落地场景。
可以预见,在生成式人工智能的高速发展态势下,算法在行政管理和执法应用场景会更日趋精细化、多样化,除可能面临人工智能应用的常规风险外,也会对传统行政程序、行政相对人的权利保障机制的有效性等提出新的挑战。
因此,我们可以考虑以充分调研梳理当前算法行政管理和执法应用场景作为监管起点,通过厘清算法嵌入不同行政行为的具体效应、影响和风险,并加以类型化分析来为后续政策制定及立法提供支撑。
在调研成果基础上,我们还建议人工智能算法规范进一步优化衔接现行法律制度。一是从责任主体衔接角度,考虑将行政机关纳入算法管理规定的监管客体;二是增强与现行行政法律制度的有效衔接,并就此对算法行政行为采取针对性规制。例如,考量如何明确算法行政行为的适用范围与条件,如何确保其符合我国政府信息公开制度的要求,如何在算法行政行为中确保行政正当程序并切实保障法律赋予行政相对人的权利等问题。
21世纪:目前来看,即便是技术人员对AI算法的一些内容也无法作出解释,或将导致“黑箱”加剧。在保障人工智能可解释性和透明性方面,您认为可以采取哪些措施?
张毅:人工智能“算法黑箱”是全球范围内的技术和治理难题。纵观全球算法治理趋势,增强算法透明仍是一种共同治理取向。在此背景下,可考虑采取如下措施而在一定程度上提高算法的可解释性和透明性:
就人工智能算法服务提供者而言,一方面,应当推动相关主体详尽地披露算法运行步骤、算法运行步骤与算法决策之间的因果关系、使用算法可能对用户权益造成的影响等内容,增强算法对于用户的可知性。考虑到部分算法专业术语晦涩难懂,可要求相关主体通过示例图、流程图等方式及通俗易懂的语言进行说明。另一方面,企业在设计、研发人工智能算法时宜嵌入透明可释的目标,推动算法透明的全流程治理。
就监管规则而言,可考虑在分类分级监管的基础上,以人工智能算法类型等要素为依据以制定差异化的透明度规则,促进算法问责的落实。其中,透明度规则应重点关注解释、披露何种内容方可实现用户、社会及监管部门对算法应用影响的理解,而非要求披露对于理解算法影响效果较为有限的纯粹技术信息,从而在充分权衡商业秘密、知识产权保护等的基础上保障用户权益及社会公共利益。
以刚柔并济平衡发展与安全
21世纪:此轮人工智能发展展示了“大力出奇迹”的暴力美学,海量数据(603138)、算力、算法作用下,智能涌现。中国在数据、算力等方面具有丰富积累,在您看来,如何发挥上述优势推动人工智能发展?
张毅:数据与算力作为我国数字经济时代下的新型生产要素与新型生产力,共同推进人工智能技术的高效发展。
为进一步布局人工智能产业发展,充分发挥我国在数据与算力方面的成果积累,在数据方面,应加快建设数据产权制度,构建数据要素市场,推动数据产权结构性分置和市场化有序流通,打破数据壁垒,从而在市场机制与行政监管的双重治理体系下充分发挥数据资源的乘数效应,例如打造数据中心、实现优质的多模态数据集的开放流通,从而支持人工智能的训练优化等以数据为依托的研发应用。
在算力方面,鉴于高水平的人工智能离不开大规模算力资源支撑,一方面,有必要集中强健的算力资源,比如建造区域化、行业化的算力中心,加强算力资源的投资投入,夯实人工智能的基础底座建设。另一方面,可以考虑深入剖析业务实践场景与算力应用的可融合性,拓宽人工智能应用的垂类领域,催生新业态、新模式。
21世纪:目前来看,我国人工智能产业发展和OpenAI等仍存有差距,但人工智能监管势在必行。在您看来,如何平衡产业发展和监管?
张毅:产业发展和监管的平衡其实是对任何新型技术进行治理的经典问题。我们过往在对金融科技、区块链等新技术的治理实际上已积累了丰富的监管经验。因此,在人工智能监管实践中也能看到对之前互联网监管领域积累的成功治理经验的承继,比如在治理之初就已经采取“审慎包容”这一中国互联网治理领域的“长期主义”原则。
但人工智能治理的特殊性在于,其对社会乃至人类经验空间的影响深度与广度是前所未有的。面对发展日新月异的人工智能技术,传统的监管手段从认识到实际治理人工智能均会面临一定的瓶颈。
因此,要在实践层面落实“包容审慎”的治理理念,可能还有赖于对人工智能产业发展现状与痛点、引发的风险程度与范围等进行充分调研,设置“包容审慎边界——划定安全底线”的刚柔并济路径,寻求平衡发展与监管的“破题”之策。这一方面意味着需要逐步明确行政程序规则,将相对成熟的监管实践“硬化”,以便“安全底线”落到实处,让监管治理措施成为人工智能安全发展的“稳定器”;另一方面则是在全球人工智能产业竞争加剧之当下,在人工智能法律规制方面,也需要警惕过于强势的法律干预成为人工智能健康有序发展的“紧箍咒”。