加拿大枪击风暴︰AI的风险与监管|方保侨

撰文: 方保侨
出版:更新:

加拿大卑诗省Tumbler Ridge小镇二月十日发生校园枪击案,震惊全球,也让人工智慧安全议题再度成为焦点。十八岁少女Jesse Van Rootselaar持枪闯入当地中学,枪杀八人后自尽,受害者包括其母、十一岁同母异父弟弟及多名学生与教职员。调查发现,她曾于去年六月因在OpenAI的ChatGPT平台上生成枪枝暴力情境内容遭封锁,却以第二帐号规避禁令持续使用。事件曝光后,OpenAI承认若依现行标准,当时本应通报执法机关。此案引起加拿大政府强烈反弹,并暴露全球AI监管框架的急迫需求。

《华尔街日报》报导指,OpenAI内部曾激烈讨论是否通报警方。十多名员工审阅Jesse帐号的暴力内容,最终因判定未达“迫在眉睫的风险”而仅封锁帐号。卑诗省省长David Eby批评这是“灾难级的错误”,更令人震惊的是,Jesse第二帐号直至警方公开身份后,OpenAI才发现并即刻移交资料。事后,OpenAI致函加拿大AI部长Evan Solomon,表示已修订通报准则,未来即使未明示目标或时机,只要涉及暴力风险也会启动预警机制,同时与心理健康专家和执法机关建立合作及即时通报机制,设立加拿大专属联络窗口。

加拿大政府随即展开行动,二月廿四日,OpenAI安全团队应召赴渥太华,接受公众安全、司法及文化部长等高层质询。然而官员形容会谈“令人失望”,OpenAI未提出实质新措施。加拿大司法部长警告,若公司不迅速作出改变,政府将考虑立法干预。加拿大目前尚无针对消费级AI聊天机器人的监管框架,与欧盟及英国形成对比,此缺口在Tumbler Ridge惨案中暴露无遗。

Tumbler Ridge事件揭示,生成式AI的风险不仅在技术层面,更涉及伦理与治理。ChatGPT等工可模拟暴力色情,若被滥用于策划或心理预演攻击,即使有警示机制与人工审核,内部决策犹豫仍可能酿成悲剧。其次,帐号规避机制漏洞让高风险用户轻易重返平台,暴露技术防线薄弱;AI公司设立过高的通报门槛,则恐延误预防性干预,使潜在威胁演变为社会灾难。

要防范此类AI风险,须多管齐下。首先建立统一国际标准势在必行,欧盟《AI法案》已将高风险AI列管,强制透明与问责,加拿大可借镜其制度,立法强制平台即时通报暴力意图,并与执法共享用户数据。其次,强化企业内部治理,OpenAI虽承诺修订准则,仍应透过独立审计与外部监督确保执行到位。再者,跨国合作最为重要,AI无国界,个别国家难以独善其身,G7或联合国框架可推动全球通报机制。同时,社会亦应加强心理健康教育与AI素养,提升公众辨识与防范能力。最后,技术创新亦是防线,如透过多模态侦测与行为模式分析,预测及阻截高风险用户。科技进步应造福人类,而非助长悲剧。唯有监管者与企业携手,建立可信、安全与透明的体系,才能确保AI成为守护者,而非隐形凶器。

【财经专栏】技经四方方保侨

于资讯、通讯、科技及电子消费品市场工作超过二十年,引入过不少新科技产品,并创办多个业界组职,及为多个非牟利机构担任委员提供专业意见。现任香港资讯科技商会荣誉会长、香港互动市务商会创会及荣誉会长、电子学习联盟创办人、世界资讯通讯与服务业联盟董事、香港金融科技商会召集人、电讯事务管理局办公室电讯规管事务咨询委员会成员、运输署智慧交通基金管理委员会委员、乐施会董事会成员、香港小童群益会资讯科技委员会委员、香港红十字会资讯科技委员会成员等。

免责声明︰以上内容仅代表作者的个人立场和观点,不代表香港01的任何立场,香港01亦无法核实上述内容的真实性、准确性和原创性。

另外,以上纯属个人研究分享,并不代表任何第三方机构立场,亦非任何投资建议或劝诱。读者务请运用个人独立思考能力自行作出投资决定。