人工智能治理是一个复杂且长期的任务,需要政府、企业、学术界和公众等多方面的共同参与和携手奋斗。只有持续地探索和完善管理机制,才能逐步推动人工智能技术的健康、可持续发展,为人类社会带来更多的福祉。
文/ 《商业文化》记者 王世明
李可书
涂萌
董彪
随着技术的不断进步,人工智能的应用已经渗透到社会的各个领域。全球范围内,各国政府和国际组织都在积极探索如何制定合适的政策法规来引导和规范这一技术的发展。当地时间2024年8月1日正式实施的欧盟《人工智能法案》作为全球首个针对人工智能技术的全面立法尝试,无疑为其他国家和地区提供了宝贵的经验和参考;9月19日,联合国人工智能高级咨询机构发布《为人类治理人工智能》最终报告,围绕建立国际科学小组等七方面提出了更具体的建议和行动方案;11月22日,上海社会科学院、武汉大学、北京邮电大学等15家机构联合发布《全球人工智能治理研究报告》,提出了构建完善全球人工智能治理体系的目标宗旨、原则共识、行动路径……
一个全球性的人工智能治理法治时代正在开启。日前,中国商业文化研究会副会长李可书、重庆理工大学数字商务知识产权服务中心主任涂萌、北京工商大学法学院教授董彪三位法学博士出身的业界专家,围绕人工智能治理法治化进程相关话题,接受了《商业文化》专访。
欧盟《人工智能法案》的前世今生
《商业文化》:1956年,美国数学博士约翰·麦卡锡在达特茅斯学院会议上首次提出了“人工智能”概念,这标志着人工智能的诞生。当地时间2024年8月1日,全球首部全面监管人工智能的法规——欧盟《人工智能法案》生效,整个法案的条款将于2026年中期全面适用。作为关注人工智能立法的法学专家,请你介绍一下欧盟《人工智能法案》的诞生过程。
李可书:人工智能技术在全球范围内已经跨入了一个全新的阶段,其迅猛的发展深刻地改变着人类的社会生活,并推动人类进入一个新时代。面对这一新形势,确保人工智能技术的安全、稳定、可控,并持续向积极方向发展,已成为全世界共同面对的挑战,欧盟在这方面走在了前列。
早在6年前,欧盟就已经展开了人工智能技术所带来的风险与法律问题等多方面的探讨。2018年3月,欧盟发布了《人工智能战略》,成立了人工智能高水平专家小组,提出了“可信任的人工智能”理念,以支撑欧洲人工智能战略的执行。2019年4月,欧盟发布了《可信任人工智能伦理指南》和《算法责任与透明治理框架》,以此落实欧盟人工智能战略提出的相应的伦理和法律框架的要求。2020年2月19日,欧盟发布了关于塑造欧洲数字未来战略的政策文件,明确提出要增强欧盟数字经济国际竞争力,并建立数字市场的统一规则,同时对人工智能加强投资与监管,降低人工智能发展所带来的相应风险。2020年10月,欧盟再次指出人工智能的复杂性、不可预测性、自主性等风险,强调人工智能不能侵犯人的基本权利,应当及时修订相应的法律法规。
欧盟《人工智能法案》被首次提出是2021年。当年4月,欧盟委员会提出了《人工智能法案》提案的谈判授权草案,开启了《人工智能法案》的立法进程。此后,欧洲议会和欧盟理事会就草案进行了多轮修订和讨论。2023年6月,欧洲议会高票通过了《人工智能法案》谈判授权草案,推动了该法案进入立法程序的最后阶段。当月,包括空客和西门子在内的数十家欧洲大型企业曾采取集体行动,以“可能损害欧洲竞争力”“不能应对潜在挑战”等为由,公开反对欧盟通过《人工智能法案》,截至2023年10月,欧盟方面就《人工智能法案》进行了三次三方谈判。当地时间2023年12月8日晚,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议。当地时间2024年2月2日,欧盟27国代表投票一致支持《人工智能法案》文本。当地时间2024年3月13日,欧洲议会以压倒性票数通过了具有里程碑意义的《人工智能法案》; 5月,欧盟国家正式批准该法案。当地时间5月21日,欧洲理事会正式批准欧盟《人工智能法案》。人类历史上第一部针对人工智能技术的立法——欧盟《人工智能法案》就此诞生。
欧盟《人工智能法案》的五个特征
《商业文化》:欧盟《人工智能法案》的出台过程,充分体现了欧盟对于人工智能技术潜在风险的重视,以及对创新与伦理并重的立法理念。法案不仅对高风险人工智能应用设定了严格的监管要求,同时也为低风险应用提供了更为灵活的规范。请你为我们解读一下欧盟《人工智能法案》具备哪些特征?
涂萌:梳理欧盟《人工智能法案》的立法过程,我们可以看到,欧盟《人工智能法案》在起草过程中广泛征求了来自学术界、工业界、民间组织以及公众的意见,力求使法案能够全面覆盖人工智能技术的各个方面,并且能够适应未来技术的发展。随着条款的逐步实施,人们将见证一个更加规范和安全的人工智能时代的到来。通过研读文本,我认为欧盟《人工智能法案》具备以下五个特征。
第一,基于风险的规制。欧盟对于各式各类的人工智能风险程度进行分类,具体为:不可接受的风险、高风险、有限风险、最小风险,并将风险规制覆盖于人工智能开发前到使用后的全部过程,将各阶段的风险监管制度进行细化。对于高风险应用,如医疗、交通等领域的人工智能应用,需要进行审查和评估。
第二,强调人工智能技术的安全性,并禁止某些危险应用。欧盟《人工智能法案》明确规定,人工智能技术的开发、使用和维护过程中,必须确保技术的安全性和可靠性。同时,还规定了各种类型的人工智能系统应当遵守的最低安全要求,并为不同的风险水平制定了相应的措施;明确了禁止使用某些危险应用,如社会信用评分、面部识别等,以保护个人隐私和人权。
第三,强调人工智能技术的透明度和可解释性。《人工智能法案》规定了人工智能技术应当公开透明,确保用户能够理解其运行方式和结果。对于使用人工智能技术作出的决策,必须能够被解释和解释清楚,以确保决策的公正性和合理性。
第四,要求规范数据使用和访问,并强调人工智能技术的责任。欧盟《人工智能法案》要求在使用个人数据时需要事先获得个人同意,并且数据需要被明确标识、分类和保护。对于人工智能技术开发、使用和维护过程中应当明确的责任也作出了相应的规定,以确保责任能够被追究。同时,还规定了人工智能系统应当保证对用户进行适当的解释和说明,应当提供相应的机制,以确保用户能够有效地提出投诉和索赔。
第五,禁止算法歧视。欧盟《人工智能法案》禁止使用算法歧视,要求人工智能系统必须遵守平等、非歧视的原则,不能因种族、性别、年龄等因素对不同的人群进行区别对待。
为全球人工智能治理提供中国方案
《商业文化》:中国一直是人工智能全球治理的积极倡导者和践行者,始终高度重视人工智能治理规则的制订,已经在生成式人工智能、算法等领域出台了相关的管理规定。人工智能的治理,已经从理念的探讨,进一步落实到法律制度当中。请你介绍一下,中国在推进人工智能治理法治化进程上做了哪些工作?
董彪:中国对人工智能治理的关注始于2015年,当时国务院印发了《关于积极推进“互联网+”行动的指导意见》,首次将人工智能作为国家战略进行部署。随后,中国陆续发布了一系列政策文件,包括《新一代人工智能发展规划》《国家新一代人工智能标准体系建设指南》等,明确了人工智能发展的目标、任务和保障措施,切实加强人工智能领域标准化顶层设计,不断推动人工智能产业技术研发和标准制定,促进产业健康可持续发展。
2023年,中国在推进人工智能治理法治化进程方面迈出了坚实步伐。7月13日,国家网信办、国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局等七部门联合公布《生成式人工智能服务管理暂行办法》,这是全球首个全面监管生成式人工智能的立法文件。9月7日,经中央科技委员会同意,科技部、教育部、工业和信息化部、农业农村部、国家卫生健康委、中国科学院、中国社科院、中国工程院、中国科协、中央军委科技委印发了《科技伦理审查办法(试行)》,对科技伦理审查的基本程序、标准、条件等提出统一要求,为各地方和相关行业主管部门、创新主体等组织开展科技伦理审查提供了制度依据。10月18日,在第三届“一带一路”国际合作高峰论坛上,中国发布了《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了中国方案。11月1日,在英国举行的全球人工智能安全峰会上,中国代表团提出了《全球人工智能治理倡议》,鼓励各方协同共治,构建开放、公正、有效的治理机制,共同促进全球人工智能健康有序安全发展。
2024年,中国在人工智能治理领域又实现了新突破。3月1日,全国网络安全标准化技术委员会发布了《网络安全技术生成式人工智能服务安全基本要求(TC260-003)》,对人工智能服务安全方面的基本要求做出了规定。4月16日,在中国社科院法学研究所、中国互联网协会互联网法治工作委员会主办的“人工智能治理创新论坛”上,《人工智能示范法》起草组发布《人工智能示范法2.0(专家建议稿)》,为全球人工智能的法律和技术标准制定提供中国视角和中国经验。7月4日,《人工智能全球治理上海宣言》在2024世界人工智能大会暨人工智能全球治理高级别会议开幕式上正式发布,为全球人工智能的治理范式和路径提供了新思路。9月9日,在广州举办的2024年国家网络安全宣传周主论坛上,全国网络安全标准化技术委员会发布了《人工智能安全治理框架》1.0版,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。11月22日,在2024年世界互联网大会乌镇峰会上,上海社会科学院、武汉大学、北京邮电大学等15家机构联合发布了《全球人工智能治理研究报告》,提出了构建完善全球人工智能治理体系的目标宗旨、原则共识、行动路径,为全球人工智能治理提供中国智慧和方案。
这些有关人工智能治理的措施和倡议,不仅为国内人工智能的健康发展提供了指导,展示了中国在人工智能治理方面的积极态度和行动,也为全球人工智能的发展和治理提供了重要的参考和借鉴。
《商业文化》:随着人工智能在中国的广泛运用,其在社会中的影响范围不断扩展,因此,制定合适的法律来预防已知和潜在的风险,确保人民权益和利益得到实际保护,显得尤为迫切。作为法学领域的专家,您对于推动全国性的人工智能立法有何建议?
李可书:现在,中国国家层面关于人工智能治理的法治化进程正在加速推进,中国方案和中国智慧已经成为推动全球人工智能治理的重要力量。我认为,推进全国性人工智能立法至少要做好以下几方面工作:第一,重视人工智能技术的安全性,建立人工智能安全评估机制,对人工智能系统进行安全评估和审查,确保其符合透明、可解释、可控和安全的要求;第二,制定数据保护和隐私保护法规,规定在人工智能系统的开发、应用和使用过程中需要遵守的数据保护和隐私保护原则;第三,加强对算法歧视的监管和防范,禁止使用算法歧视,确保人工智能系统遵守平等、非歧视的原则;第四,鼓励人工智能创新性发展,制定相关政策和措施,促进人工智能技术在各个领域的应用。
《商业文化》:北京承载着引领人工智能技术进步的时代使命,对于北京市在制定人工智能相关法规方面您有何建议?
涂萌:作为中国的首都和科技创新中心,北京一直以来都在人工智能领域占据着重要地位。自20世纪90年代初起,北京便着手于人工智能技术的探索与研究工作。随着技术的持续发展和应用场景的不断拓展,北京在人工智能领域已经取得了显著的成就。近年来,北京市先后出台了《北京市促进通用人工智能创新发展的若干措施》《北京市推动“人工智能+”行动计划(2024-2025年)》《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》等政策文件,鼓励和支持人工智能产业发展,并主动作为,不断完善推动人工智能产业发展政策和治理体系。今年9月3日,北京人工智能安全与治理实验室在中关村科技园正式揭牌,标志着中国在人工智能安全与治理领域新的里程碑。
当前,根据人工智能产业发展的需要,建议北京市进一步加快人工智能相关的法律法规建设,积极构建“以人为本”的人工智能治理体系,以确保人工智能技术安全、透明和可控,为其健康发展提供坚实保障。首先,加大人工智能技术的安全监管力度,完善人工智能技术安全评估体系,强化对技术安全风险的评估与监控,确保能迅速识别并处理潜在风险;其次,强化人工智能技术的透明度管理,应规定相关企业与机构在人工智能技术的开发、应用及维护阶段保持公开透明,让用户能够清晰理解技术的运作机制和成效。要建立机制,保障用户能有效提出投诉和索赔;第三,强化人工智能技术的责任追究。应要求相关企业与机构明确责任归属,确保责任可追溯。对于利用人工智能技术作出的决策,企业与机构也应提供必要的解释和说明。通过这些措施,北京将能更有效地监管和规范人工智能技术,确保其在推动社会与经济进步的同时,切实维护公众利益和社会稳定。
治理核心在于平衡创新与安全、效率与公平
《商业文化》:人工智能技术的迅猛发展给其治理带来了新挑战,你认为未来人工智能治理的核心是什么?
董彪:随着人工智能技术在社会生活中的应用越来越广泛,其在日常生活中扮演着越来越重要的角色,随之而来的管理问题也日益凸显,平衡创新与安全、效率与公平将成为未来人工智能治理的核心。一方面,我们应当促进技术革新,为人工智能的成长创造有利条件;另一方面,我们同样需要确保技术的安全,避免其被误用,导致无法预料的后果。另外,人工智能的管理还应关注公正性,确保技术进步能够惠及社会的各个角落,防止加剧社会的不平等现象。
在具体操作层面,我建议可以参考欧盟《人工智能法案》中的某些规定,结合中国的实际情况,构建一套既遵循国际规范又具有中国特色的人工智能管理架构。例如,可以成立一个跨部门的监管机构,负责对人工智能技术进行全方位的监管,涵盖技术评估、风险预警、透明度要求以及责任追究等方面。同时,还应强化国际合作,共同制定全球通用的人工智能管理准则,以应对跨越国界的挑战。
人工智能治理是一个复杂且长期的任务,需要政府、企业、学术界和公众等多方面的共同参与和携手奋斗。只有持续地探索和完善管理机制,才能逐步推动人工智能技术的健康、可持续发展,为人类社会带来更多的福祉。
人物档案
李可书,法学博士,高级经济师,中国商业文化研究会副会长,中国法学会律师法学研究会理事,北京市炜衡律师事务所合伙人,重庆理工大学知识产权学院教师,中国民主建国会北京市朝阳区十八支部主委,主要研究方向为法经济学和民商法学。
涂萌,女,法学博士,重庆理工大学数字商务知识产权服务中心主任,主要研究方向为知识产权国际仲裁、国际贸易法、国际跨国投资、重组并购、企业上市等,系英国特许仲裁学会会员、韩中法学会会员、韩国土地法协会会员。
董彪,法学博士,北京工商大学法学院教授,北京工商大学商法研究中心副主任,中国商业文化研究会商业法治文化分会副会长,主要研究方向为民商法学和数字法学。
审核:刘 坤
责编:明贵栋
编辑:刘 彬