叶文瀚|当AI开始“教人犯罪”,谁来负责?

撰文: 叶文瀚
出版:更新:

叶文瀚博士专栏

如果一个普通人坐在萤幕另一端,逐步回答你如何选择武器、如何避开人群、如何增加杀伤力,甚至在案发前几分钟仍然协助分析最佳行动时间,他会被如何对待?答案几乎没有悬念。在任何成熟的司法制度下,这早已不只是道德争议,而是谋杀共犯、教唆犯罪,甚至直接刑事起诉的问题。但当同样的对话发生在ChatGPT身上,整个法律逻辑却突然变得模糊。近期在美国多宗涉及校园枪击与暴力犯罪的案件中,人工智能对话纪录正逐步被纳入法庭审视的材料之中,甚至开始影响对“意图”与“责任”的判断。问题随之浮现:当AI的回应与人类所谓“指导行为”几乎重叠时,它仍然只是工具,还是已经走向某种新的法律角色?

AI回应有机会被纳入刑事责任讨论

在佛罗里达州,一宗校园枪击案的刑事调查正在把这个问题推到最尖锐的位置。检方指控,涉案疑犯在行动前长时间与ChatGPT互动,问题内容涉及武器选择、弹药配置、校园人流分布,甚至在犯案前几分钟仍然查询如何解除霰弹枪保险掣,以及如果发生枪击事件,全国会有什么反应。

执法部门的说法已经不再停留在资讯查询层面,而是将这些对话重新理解为行动前的准备与推演。在部分法律分析中,AI的回应甚至被形容为提供某种程度的实质引导,使其有机会被纳入刑事责任的讨论之中。

另一宗更具争议的民事诉讼则进一步加深这种张力。受害者家属指控,一名枪手在犯案前与ChatGPT长期互动,而系统曾标记出风险讯号,但未有及时向执法机构通报。更具争议的是,人工智能公司被质疑在风险处理与商业利益之间作出取舍,甚至可能因为上市计划而延迟披露潜在威胁。

关键是AI在看见风险之后做了什么

这正是整场争议的关键断裂点。传统法律面对的是人类行为,因此责任可以清晰地归结于意图与行动之间的关系。但AI的介入打乱了这个结构。它既不是纯粹被动的记录工具,也不是具备法律人格的行为者,而是一种介于两者之间、持续回应的系统。

执法机构开始尝试把AI对话当作心理层面的线索,用来推断动机与行为轨迹。在部分案件中,检方甚至逐步拆解对话内容,试图还原疑犯从想法形成到行动决定的过程。一旦语言被视为证据,AI的每一句回应便不再中立。

AI需否负上法律责任?

但这也带来一个更尖锐的问题。如果AI的回应可以被视为某种参与,那它是否正在被法律间接赋予责任的位置?

支持更严格监管的一方认为答案是肯定的。他们指出,如果同样的对话发生在人与人之间,早已足以构成完整的刑事责任链条。因此不能因为对话对象是AI,就降低法律标准,否则科技只会成为责任真空的出口。

但反对者的回应同样直接。他们认为AI没有意图,没有主观认知,更不具备法律上的行为能力。如果将生成式回应视为指导犯罪,本质上等同于把统计模型错误地人格化,法律逻辑将被扭曲。

危险对话难以判断

更现实的问题其实在另一层。若要求AI公司对所有潜在风险对话进行实时判断与通报,制度将面对极高的不确定性与误判成本。什么是危险对话,在语言模型的世界里本身没有清晰边界。同一句关于武器的提问,在研究、新闻、写作与犯罪意图之间可以完全不同。

结果是两种风险同时存在。过度不作为可能被指控失职,过度通报则可能演变为一种事实上的监控系统。

人工智能公司正被迫站在这个矛盾中心。一方面,它们希望AI被视为可信工具,进入教育、法律辅助甚至心理支援领域;另一方面,现行法律仍然将其视为一般电子数据系统,缺乏专业保密特权。结果是,用户对AI的期待已经接近顾问,但制度仍然把它当作记录工具。

这种错位正在悄悄改变行为本身。当人们意识到对话有可能进入法庭,AI最吸引人的特质,即低压力与无批判性,就会开始消退。使用者会变得更谨慎,更自我审视,而这正是AI普及背后最脆弱的一环。

更深一层的问题是,社会是否已经准备好接受一种新的非人类参与者进入法律与安全体系。它可以对话,可以建议,可以影响决策,但既不是人,也不完全是工具。

作者叶文瀚博士是亚洲行销科技协会主席,圣方济各大学创业培育中心副总监。

文章仅属作者意见,不代表香港01立场。

01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。