与AI共存.二|当AI越来越强大——它犯的错,谁来负责?

撰文: 张清语
出版:更新:

当Openclaw等智能体越来越强大,AI不仅仅是一个智能工具,更像是我们在虚拟世界中的一个分身。谁来监管?如何监管?已然成为绕不开的问题。《香港01》就此专访长期深耕法律与科技领域的学者邓德文。他带着电脑前来,笑言这次访问本身就是“人机共生”的体现;而他也习惯在忙碌的工作间隙,向AI输入各种想法和疑问,再由AI生成报告。他越是深度使用,就越是担心:法律的反应早已迫在眉睫。

【“与AI共存”系列深度报道之二】

当Openclaw等智能体逐渐越来越强大,AI不仅仅是一个智能工具,更像是我们在虚拟世界中的一个分身。谁来监管?如何监管?已然成为绕不开的问题。

人能负责但AI可以吗?

邓德文告诉我们,在未来,人类最大的不可替代性,或许就是“人能负责”。

这听起来有些抽象,他娓娓道来:根据经济合作与发展组织(OECD)的统计监测数据显示,过去十年间人工智能相关事故呈现爆发式增长态势;截至2023年底,全球范围内累计记录的AI事故总数已达7,195起。“AI犯错,谁能负责?”——这无疑是AI时代的必答题。

邓德文整理了目前世界各地的三种法律尝试。

第一种是“电子人”(E-person),即赋予AI系统法律主体地位,对自己的行为直接承担法律责任。欧盟曾考虑创设“电子人”这一特殊法律主体类型,为高度自主的AI系统建立独立的法律人格框架。不过,这种科技乌托邦主义产物,最终未能成功推进。因为AI法律人格很容易被滥用,甚至沦为“法律黑洞”,变成相关责任主体逃避法律责任与道义义务的手段;不但违背责任法的基本原理,而且将会带来严峻的伦理挑战。

第二种是“AI犯错,相关主体负责”,即风险规制视角下的无过错责任,责任主体是AI系统的提供者、所有人、使用者等相关主体。这个方案强调了在高风险应用场景中,相关责任主体应当对AI系统造成的损害承担严格责任,从而实现对公共安全的有效保障。

第三种尝试是“保险赔偿”,主要通过建立基于保险的无过错赔偿机制,由AI系统相关方强制购买责任保险,发生损害时由保险直接赔付受害人,保险公司事后向责任方追偿,实现快速救济与风险分散的双重目标。

邓德文建议,制度设计必须考虑如何“刺破AI面纱”,追溯到智能体背后的自然人主体。

制度设计必须考虑“刺破AI面纱”

邓德文将AI智能体比作“有限责任制公司”。他解释,公司法中有“刺破法人面纱”的制度。有限责任制度的初衷是保护背后的自然人能够大胆经商,但在股东利用公司外壳作恶或存在不诚实行为的特定情况下,法律允许剥离法人外壳,要求股东承担无限连带责任。他以此建议,制度设计必须考虑如何“刺破AI面纱”,追溯到智能体背后的自然人主体。

然而,AI“犯错”后的责任分配问题比较复杂;同时,由于技术发展速度远超立法周期,法律也无法预见并穷举所有应用场景。因此,目前更倾向于通过“合同”与“个案裁量”相结合的方式处理:一方面,在尊重市场规则的前提下,只要不涉及胁迫、欺诈,且不违反强行性规范、人伦及公序良俗,允许当事人通过合同自由约定责任分配;另一方面,当纠纷发生时,由法院根据个案的具体情形进行裁断。

邓德文认为,这种依靠有效合同约定与法官个案裁量相结合的模式,是目前应对AI技术变动性最合理的制度安排,而内地、美国及欧盟的AI治理法律,都有较高的参考价值。

内地AI监管秉持“边干边调”的务实逻辑,重心已从早期的风险防范,转向2024年后的促进创新、数据放权。在架构上,形成了“硬法筑底、软法补充”的格局,通过强制性的部门规章与灵活的推荐性标准,兼顾了监管刚性与行业空间。这种治理模式反应极快,从前瞻性的演算法规章,到2025年针对AI内容真伪的标识办法,精准同步技术浪潮。同时,通过自动驾驶、直播电商等“场景化”规范,实现对垂直领域的精细化治理与安全平衡。

美国共和党人曾试图阻止各州在10年内将AI监管纳入“预算和解法案”,并将AI发展视为服务国家安全与大国博弈的手段;其立法监管具有法律碎片化的特征,联邦、州以及行业间出现法律冲突,为企业合规增加成本。2025年,《大而美法案》和《赢得AI竞赛:美国AI行动计划》颁布,对内加速AI创新,破除监管障碍,对外遏制打压中国自主产业。

2024年8月《欧盟人工智慧法》生效,带有明显的本国产业保护色彩,形成“强监管,弱产业”;2025年7月,近50家欧洲企业联名呼吁推迟实施,因为法案出现行为准则不明确、罚款机制严苛(最高营业额7%)等可能抑制创新的弊端。如今,欧盟正在进行一场名为“Omnibus”的永续减负改革,从中不断修正过往的监管思路。可以说,欧盟AI监管政策正从“硬法”转向“软法”,减弱监管力度,增加创新空间。

2024年8月《欧盟人工智慧法》生效,带有明显的本国产业保护色彩,形成“强监管,弱产业”。

全球AI监管从软到硬从严到松

邓德文提出,未来三至五年,AI专项立法将在全球范围内迎来关键的演进窗口。技术迭代快以月计,但立法周期则慢以年计——这种“快科技”与“慢法律”之间的矛盾,决定了Al立法不可能一步到位,综观当下的AI法律监管领域,主要呈现出以下几大趋势:

第一,“谁管得少,谁发展快”,“先造轮子,再造刹车”。中国《生成式AI服务管理暂行办法》冠以“暂行”二字,《人工智能法》草案在全国人大常委会仍处于“预备审议”状态,可见立法者刻意留出观察窗口。美国也开始进一步的“去监管化”:2025年1月,特朗普政府撤销了拜登第14110号行政令(关于安全、可靠和值得信赖的AI开发与使用),取消开发商分享安全测试结果、联邦机构任命首席AI官等要求;2025年12月,行政令进一步确立联邦优先权框架,成立“AI诉讼工作组”专门挑战各州被认为过于严格的AI法律。

第二,监管沙盒(Regulatory Sandbox)。邓德文表示,监管沙盒的核心思想是“在受控的环境下进行创新测试”。它就像是给新技术、新业务模式划定一个“实验区”。在这个区内,监管机构会放宽部分现行法律法规的限制,允许企业在真实的市场环境中,针对真实用户进行小规模的压力测试。欧盟AI法案第57条要求所有成员国在今年8月2日前建立至少一个AI监管沙盒。美国《国家AI政策框架》也明确建议国会建立AI应用的“监管沙盒”。中国深圳、上海等地已在自动驾驶、金融科技等领域开展AI监管沙盒试点。

第三,场景化、行业化的“小切口立法”。如在医疗、金融等高风险领域,都已优先立法。在美国,加州要求AI不得虚假持有医疗执照,AI问诊须披露AI身份;伊利诺伊州将未告知员工而使用AI进行招聘/晋升/解雇决策等行为定为民事侵权。中国内地智能网联汽车领域持续推进地方立法试点。欧盟AI法案也不是一刀切,而是划定“高风险AI系统”清单(附件III),对清单内的系统要求影响评估、透明度义务和人工监督,清单外的则以自愿合规为主。这一“基于风险的分级监管”几乎已被所有主要司法管辖区接受为立法范式。

第四,AI伦理正在从“软性建议”硬化为“刚性法律”。在透明度方面,中国2025年施行的《人工智能生成合成内容标识办法》明确要求AI生成内容必须进行显隐双重标识,不再是企业的自选项。在演算法歧视方面,美国科罗拉多州AI法案与伊利诺伊州《就业AI歧视法》均要求开发者进行影响评估,严禁偏见。这种治理的硬化还体现在技术标准被直接写入法律,进行“技术嵌入式治理”管理,即法律义务被“编码”进技术底层,如中国和加州均强制要求提供商配备数字浮水印、内容认证及检测工具,使法律监管融入技术手段。

需要的不仅是制度创新,更要在技术进步与人文关怀之间找到恰当的平衡点。
法律学者邓德文

动态平衡技术创新和人文关怀

邓德文观察到,全球AI治理思路发生显著转向,各国愈发强调产业发展与竞争力培育,所以监管力度呈现整体放松趋势。2025年2月,巴黎举行“人工智能行动峰会”,与之前两届峰会相比,基调明显从风险防控向创新促进偏移,“轻监管、重发展”成为主流。欧盟立场也有所软化,其科技监管副主席维尔库宁表明将简化人工智能规则,以改善商业环境,扭转欧盟“强监管、弱产业”的印象;法国总统马克龙则进一步阐述了欧盟的共同战略,包括控制新立法、加大投资,并着力培育一批能在关键领域掌握自主技术、参与国际标准制定的“国家冠军企业”,以提升欧盟在全体人工智能竞争中的话语权与市场份额。

与此相应,美国持续推行“去监管”路线,其政策实质上为大型科技公司创造了更有利的制度环境;副总统万斯在演讲中不仅反对欧盟的严格监管模式,更指其合规成本主要压制了中小企业创新——这种论述背后,实际是为已具备规模、数据与资本优势的科技巨头松绑,使其能在更少约束下加速技术落地与市场拓展。2025年5月11日,美国众议院能源和商业委员会通过提案,禁止各州在未来十年内监管人工智能及自动决策系统。此举虽然名义上旨在鼓励全国统一的创新环境,实则进一步削弱了地方层面制衡科技巨头的可能,使大型企业在AI研发、部署与治理中占据更主导的地位,巩固其市场竞争壁垒。

邓德文总结,“平衡”的答案不在于找到一个静态的平衡点,而在于建立一套动态平衡机制,涵盖以下五大要素。第一,分级分类:不同风险等级适用不同监管强度,如欧盟《AI法案》严禁开发具备潜意识诱导、或利用年龄与残疾弱点扭曲等“不可接受的风险”的系统;针对影响深远的“高风险”系统,则要求开发者必须满足透明度、数据品质及人类监督等严格指标,方可上市。第二,沙盒+日落条款:新规则先在限定范围内试行,设定自动失效日期。第三,负面清单:只规定“不能做什么”,而非“应该怎么做”,如禁止社会评分、禁止AI用于致命性自主武器决策。第四,强化事后追责:减少前置审批,强化事后责任追究和损害赔偿。第五,技术作为规制手段:用AI治理AI,把技术手段写入法律。

邓德文又认为,AI将为政治、经济、社会等方面带来一系列阵痛,所以技术发展更应“以人为本”,确保AI系统的目标与人类福祉保持一致,以产品责任、保险机制与风险规制共同构成AI侵权法的新秩序框架。“需要的不仅是制度创新,更需要在技术进步与人文关怀之间找到恰当的平衡点。”他预计,未来三至五年,技术的底层创新与制度的顶层设计将持续交织,选择“动态平衡”而非“一劳永逸的方案”——这个时代AI治理的真正答案。

在香港,数字政策办公室(数字办)制订了《人工智能道德框架》、《香港生成式人工智能技术及应用指引》等,为开发及应用AI技术的项目提供无约束力的指引,以识别和管理有关AI项目的潜在风险及须注意事项。为检视不同政策范畴内的法律能否配合AI发展,律政司司长林定国将成立“检视支持更广泛应用AI所需的法律配套”跨部门工作小组,各部门先对现行法律查找漏洞或不足之处,再按实际环境研究具针对性和可操作的解决方案。