与AI共存.三|AI立法竞赛——中美欧谁能定义全球规则?
人工智能(AI)立法的本质,从来不只是技术监管,而是“谁来定规则、为谁定规则”的权力博弈。长期深耕法律与科技领域的学者邓德文形容,在AI治理的版图上,美国、欧盟、中国的监管模式形成了“三足鼎立”的规则竞赛——谁的规则能够成为全球默认标准,谁就掌握了AI治理的话语权。
【“与AI共存”系列深度报道之三】
美国:强化地缘政治影响
美国利用AI立法作为巩固国家安全的工具,在特朗普的第二任总统任期中尤甚。2025年7月23日,白宫发布重大战略文件《赢得AI竞赛:美国AI行动计划》,大力推动“去监管化”,意图将美国在AI技术的领先优势,转化为持久性地缘政治影响力。
2026年3月20日,白宫发布《国家人工智能政策框架立法建议》,明确以“维持和增强美国全球AI主导地位”为目标,试图统一联邦监管并限制各州分散立法。当中,“促进创新并确保美国AI领先地位”单列一章,明确反对建立新的联邦AI监管机构,亦三次提到“国家安全”。美政策界高度关注框架中的数据及能源条款,及其对中美AI竞争格局的影响,担忧数据版权问题会影响美国开发者获取高质量训练数据,让中国有机会反超;但他们也认同,应该鼓励AI模型开发者采用分布式发电的做法,因为这有利于与中国AI基建竞争。
欧盟:抢占立法“标准高地”
欧盟在2024年8月实行《人工智能法案》(EU AI Act),迫使其他国家的企业为进入欧洲市场而接受相关规则,从而将自身规则外溢为全球标准。当中,欧盟针对虽具合法性但对社会与个人生活有重大影响的“高风险”系统,要求开发者必须履行极为严格的合规义务。2025年2月,法案厘定“绝对不能碰”的行为红线。2026年8月,高风险系统合规要求全面生效,禁止利用潜意识技术或针对年龄、残疾等群体弱点来扭曲个体行为的系统。
这类系统主要分布于两大范畴:第一类为“产品安全组件”,包括作为受欧盟产品安全法规(如医疗器材、机械、玩具、汽车等)管辖产品的安全组件;第二类则涵盖生物辨识、关键基础设施等八大关键领域。《人工智能法案》规定,这类高风险AI必须在透明度、数据品质及人类监督等方面全面达标,方能在欧盟境内合法运作。
中国:统筹“发展”和“安全”
中国则实施“统筹发展和安全”的双轨制。国务院最早在2017年发布《新一代人工智能发展规划》提出AI立法散步走计划,预计先建立相关的法律法规、伦理规范和政策体系,并在2030年进行完善。2024年,有全国人大代表提议,先以“人大决定”形式明确AI基本原则与规范,待AI进一步发展成熟后再制定综合性立法。同年7月,中共二十届三中全会通过《中共中央关于进一步全面深化改革 推进中国式现代化的决定》,当中提出完善生成式人工智能发展和管理机制、建立人工智能安全监管制度。
2025年,国务院明确“推进人工智慧健康发展立法”——有别于此前两年的立法计划,这次表述强调的是“健康发展”而非只是“安全管理”。同年7月26日,国务院总理李强在“世界人工智慧大会”开幕式上的致辞也强调,要坚持统筹“发展”和“安全”,并且加强各国对接协调,推动早日形成“具有广泛共识的人工智慧全球治理框架和规则”。
香港:多边化趋势下极具潜力
邓德文表示,除了美国、欧洲、中国的“三足鼎立”之外,全球AI治理也呈现“多边化”的发展趋势。例如,七大工业国组织(G7)建立的“广岛Al进程”,意在规范人工智能的国际监管标准,但实质性约束力有限。他认为,更可能的路径是“双边/小多边”的规则互认,如内地与香港的个人资讯跨境标准合同、欧盟与日本的数据充分性认定等。
邓德文进一步指出,在全球AI规则竞争白热化的背景下,香港作为国际调解院总部所在地的独特地位,赋予了其开拓“AI国际调解”新领域的历史性机遇。这座全球首个专门从事调解以解决国际争端的政府间国际组织落户香港,不仅是对香港成熟法治体系与深厚专业底蕴的高度认可,更在实践层面为全球提供了一个中立、专业且高效的纷争解决平台。“仲裁”与“调解”等替代性争议解决机制,本身就具备“保密性”的天然优势;而在解决AI侵权或相关争端时,案件往往涉及大量核心技术与商业秘密,非公开模式能有效保护企业的核心资产,也能更有效地引入行业专家参与裁断。
中国曾于2023年提出《全球人工智能治理倡议》,当中罗列11项理念、宗旨和原则,包括以人为本、智能向善、伦理先行、平等发展等等,期望各国加强交流合作,从而不断提升人工智能技术的安全性、可靠性、可控性、公平性。不过,目前国际社会尚未达成一致的治理共识,更缺乏一个类似联合国层级、具备普遍约束力的“全球AI治理公约”。在这种规则“碎片化”的时期,邓德文认为,设于香港的“国际调解院”应被寄予厚望。它不应仅被视为一个法律机构,更有潜力发展成为全球AI治理的稳定器。随着未来加入《国际调解院公约》的国家越来越多,国际调解院在AI全球治理方面定能发挥无可替代的优势。