律政思|眼见不一定为实:如何给“深度合成”技术立规?
律政思专栏|邓凯博士
新年伊始的AI圈很是热闹,尤以视频生成模型的技术突破与火爆应用为甚。用户只需简单输入文本或图片,就能生成出画面与声音高度逼真,物理规律一致性极佳的高质量视频,标志着AI已然从单纯的生产力工具,向内容与社交平台延伸的全新趋势。然而,随之而来的是关于深度合成技术滥用的争议与忧虑。一方面,科技界人士质疑假视频或导致信任危机;另一方面,版权方对AI创新者的法律挑战和争讼也纷纷开启。
深度合成的法律议题之于香港,也极富现实意义。为规管日益严峻的AI深伪(Deepfake)问题,特区政府律政司已于近日展开法律检视,研判立法及制定相关政策的必要性和基本逻辑,以期求得技术发展与安全之间的有效平衡——这也是本文所意图阐释的。
一、深度合成技术放大了原有的规管难题
不可否认,AI生成的违法有害内容,在性质上与传统的网络谣言、虚假信息别无二致,但其的确也加剧了问题的复杂度。对此,有研究机构总结出三类风险,也即深度合成技术呈现出“更易、更多、更真”的负面影响:
第一是门槛“更易”。因为生成高度“真实感”的内容不再依赖专业技能,而是在技术赋能之下,大量非专业的“草根”也能轻易制造出接近真实的虚假内容。
第二是数量“更多”。算法指令可令虚假信息实现“批量化生产”甚至“工业化造谣”。这种海量产出不仅扰乱舆论,更引发“垃圾进、垃圾出”的AI污染次生灾害。
第三是体感“更真”。多模态、多细节的信息赋予了谣言极强的迷惑性。AI生成的虚假内容往往披着“新闻语言”和逼真视觉要素的外衣,细节之丰富令普通公众难以辨别真伪,极大地冲击了社会信任体系。
二、构建具有技术适应性的法律体系
当信息内容的真实与虚构界限彻底模糊,可以提供确定力、保护力和信任感的法律规管就应登场。窃以为,包括立法在内的法律对策可从“事前—事中—事后”几个方面作出适应技术的立法筹划:
针对上述挑战,首先是考虑引入作为“事前”手段的AI标识制度。中国内地的经验是建立了显示标识和隐式标识的“双重机制”(欧盟《AI法案》也有类似的透明度义务)——前者指代用户可感知的提示形式,后者则要求代码层的元数据可被机器识别;这两项举措均由强制性的法律及明确的技术标准所规定,以确保内容的“可追溯”。更进一步,按照内地监管要求,内容生成平台的责任是把好“源头关”,植入隐式元数据并对易混淆内容显著打标;传播平台还需守住“流通关”,核验元数据并督促用户主动声明。
“强制标识制度”的有效性不难理解,它的实质是“以技治技”,透过事前治理的方式为监管深度合成提效。一方面,隐式标识嵌入源头,能帮助传播平台快速甄别“低门槛、大批量”的生成内容,强化风险管理;另一方面,显式标识起到关键警示作用。研究表明,AI标签、水印能有效降低受众对内容的盲目信任,减少虚假信息扩散。
其次是关于“事中”责任的合理界定,尤其是依据技术能力和角色分工,厘清不同主体的权责差异。第一项重点是区分生成平台和传播平台的责任强度。生成端“植入”标识相对容易,而传播端面对海量多源内容,故而带来极大的“检测”的难度与成本。也由此,法律对传播平台的规管应具包容性,其重心要落脚在整体治理的真实效果,而非苛求对每一条内容实现“无一遗漏”的完美拦截。在比较法意义上,这也是欧美立法实践中,未将严苛标识责任直接施加于传播层的重要考量。
如若按照“(技术)提供者/部署者”的二分法,两者的权责也有区别,例如欧盟《AI法案》就主张二者权责应精准切割:“提供者”(开发者)掌握底层代码,须负责实现“机器可读”的技术标记;“部署者”(应用者)因直接面向公众,则要承担对深度合成内容的“显式披露”责任。也即,由技术方解决“可检测”,应用方保障“知情权”,双方场景明确,各司其职。
最后是关于“事后”追责。眼下AI应用千差万别,唯有先确立类型化规制(Risk-based Classification)的风险标尺,才能让责任认定准确落地。在2019年美国众议院举办的AI合成技术听证会中,马里兰大学法学教授Danielle Citron就指出,并非所有深度合成的虚假内容都要被禁止。具言之,治理深度合成不应“一刀切”,对于具有讽刺、戏仿等“生产性”价值的内容,应避免施加过重的标注义务以保护言论自由;监管重心应聚焦于危害国家、政治与公共安全,以及侵害公民人格权与企业信誉的特定高风险场景。
相反,鉴于深度合成技术的通用性,其应用已延伸至数据合成、游戏渲染及B端办公等低传播风险领域,这显然考验立法者的智慧并要求监管方与业界就内容分类达成必要共识。只有确定好内容属性与风险等级,区分“无害表达”与“有害虚假”,才能更好划定事后追责的规则红线。
三、深度合成绝非洪水猛兽
必须承认,媒体惯以“深度伪造”一词来泛指所有的深度合成技术,是以偏概全,既不专业,也不科学。基于非法使用技术的意图(即Deepfake)去定义技术本身,强调其潜在欺骗性和可能的负面效应,极易污名化深度合成,扼杀AI技术的社会福利和正向应用价值。正因此,中国内地的立法者在制定相关监管文件时,果断摒弃彼时风靡欧美的“深度伪造”(Deepfake)一词,而确立了“深度合成”(Deep Synthesis)这一法律概念。
地方性法规对此也有效仿举动。一河之隔的深圳,于2021年在草拟其《人工智能产业促进条例》时也主动删除了“深度伪造”的修辞,改以禁止“利用深度合成技术从事禁止行为”表明立法态度。如此斟酌用词并非“文字游戏”,它昭示出监管逻辑的根本转向:从带有负面预设的“打击伪造”,转向了技术中立的“规范合成”——既要防范技术被用于欺诈,更要理性承认深度合成通用性的合法产业价值。
在概念的正本清源之后,我们应如何选取法律规制工具?笔者始终认为,具有滞后性的立法并非唯一有效方式,针对种种颠覆性技术的规管举措,往往可以从已有法律文本体系中寻找资源。之于香港,或许可侧重法律解释等普通法技艺来解决规范难题,例如从《刑事罪行条例》中的“不诚实取用电脑”罪行或未经同意(及威胁)发布私密影像行径,以及从《淫亵及不雅物品管制条例》中觅得法制渊源。
诚然,作为软法的当然组成,行业公约、标准、最佳实践、伦理指南等自律措施,以及公众教育和数字素养的培养等更为敏捷的举措,都应当视为补强立法局限性的多元治理工具,香港早有现成的制度储备,更不应拒绝。更进一步,“用魔法打败魔法”的技术治理很大程度上代表了未来趋势,香港的立法及规管秩序中可否纳入诸如“鼓励探索AI鉴伪算法”的制度设计,再创某种“法律吸纳技术”的全新范式也值得想像,让我们拭目以待。
作者邓凯博士是香港城市大学法律学院公法与人权论坛研究员,法学博士。
“律政思”是由法律专业人士主笔的法律评论专栏,旨在以专业视角,剖析国际、中国内地和香港的法律发展、法治建设及相关社会议题,深化公众的理解。
文章仅属作者意见,不代表香港01立场。
01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。