法观|人工智能色情物品以假乱真——香港法律如何应对?

撰文: 法观
出版:更新:

法观专栏|陈政龙资深大律师

今时今日的人工智能(“AI”)生成技术(“Generative AI”)发展迅速;以往需要很多金钱和时间来制作的图像或影片,现在已经可以透过普罗大众均能够使用的应用程式来生成,而制成品的质素更令分辨真假变得极其困难。可是,当大部分人利用生成技术将已绝种的恐龙带到现代香港的街道上,或使自己喜欢的动作电影及/或武术电影明星一决高下时,有一小部分人却在利用生成技术来制作一些违反道德的色情相片或影片,而现有的法例尚未能赶上人工智能生成技术的发展速度,因此未能充分保护这些AI色情物品的受害者。

AI生成色情物品是性暴力

利用AI生成技术(尤其深度伪造)来制作色情物品的例子遍布全球; 主要原因是这种制作色情物品的方式比传统手动修改相片的方式简单。制作者只需将某人的照片上载至应用程式后,应用程式便会自动制作一些利用相片内的人士为主角的色情物品。应用程式甚至能够单凭一张照片在非常短的时间制作很大量的制成品。

在其他国家外,很多荷里活演员和著名歌手的样貌都经常被用来制作深度伪造色情物品,而这些相片及/或视频经常被广泛地发布。这个现象突显了AI生成的色情物品的危险之处,亦解释了为何这种行为被广泛接纳为性暴力的一种。

多国已着手修订相关法例

首先,有别于一般的性罪行,受害人在任何地方、任何时间,都可能被“侵犯”,因为“侵犯”的方式根本不需要受害人在场。可是,虽则这些色情物品的受害人不会受到任何实质上的侵犯,但对于受害者心理上的伤害一定不轻。尤其当带有他们样子的色情物品随时随地都能够传送至世界的每一个角落,将一发不可收拾,尤其任何拥有智能手机或电脑的人也有能力造成这些伤害。

多国已开始订立或修订法例,专门针对AI色情物品的上升趋势。英国在2023年的《线上安全法》(Online Safety Act 2023)已经将未经同意散布色情深度伪造内容定位非法的行为,亦正进一步计划修订《线上安全法》来将制作这些内容同样界定为刑事罪行。2026年2月,英国的《数据(使用和存取)法》(Data (Use and Access) Act 2025)已将未经同意而制作这些内容同样界定为刑事罪行。除了制作和散布深度伪造色情物品,南韩更自2024年将观看、管有及/或保存这些材料也定性为刑事罪行。这些举动均显示AI色情物品的问题已经迫在眉睫,而立法工作已变得刻不容缓。

AI色情并非私隐权问题

在香港,现有的法例已将未经同意下发布私密影像,或者威胁发布私密影像刑事化。可是,“私密影像”的定义并未能够涵盖一些完全经过AI生成的色情物品,因为这些物品并非源自一张“照片、录影纪录或影片,或静态或活动影像纪录”(见香港法例第200章《刑事罪行条例》159AA和159AAE条)。

同样地,现有的法例已经覆盖了窥淫和偷拍/偷看私密部位(以及发布或威胁发布有关影像)的行为,但这些罪行并不适用于AI生成的色情物品。这些罪行的立法原意是保护受害人在现实生活的性私隐,并且将有关侵犯定性为罪行。虽然AI色情物品同样会对受害人有一定程度的侵犯私隐成分,但基于两种侵犯属于截然不同的性质,因此不能混为一谈。

换言之,若香港的法例需要有效地应对AI色情物品的来临,我们必须尽快修订现有的法例,使定义能够涵盖一些全部由AI生成的色情物品。否则,只会有更多人成为法例未能保护的受害者。

作者陈政龙资深大律师是香港大律师公会前副主席,擅长刑事诉讼,尤其擅于处理白领罪行与监管罪行案件。

“法观”是由多位分别擅长刑事、民事、商业等专业领域的执业大律师,以个人身份轮流撰写的法律专栏,冀分享法律观点及实务经验,深入浅出剖析时事与法理,启发读者以法律视觉解构生活大小事,以推广法治精神。

文章仅属作者意见,不代表香港01立场。

01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。