教育共享︱AI 校园的另一面:从深伪AI看学校为何需要风险预案
文:救世军田家炳学校李安迪校长
近年,人工智能(AI)迅速走进校园,社会讨论多集中于学习效能、教学创新与未来技能。然而,在这些正面想像之外,教育界亦需要冷静地看见另一个现实:AI 正在悄然改变校园中“风险行为”的形态与影响方式。
这些行为未必一开始就带有恶意,却可能在不当使用科技的情况下,对学生造成实质伤害。若学校仍以过往的理解与制度应对,往往只会在事件发生后疲于补救,错失保护学生的关键时机。
AI 没有制造问题,却放大了校园风险行为的影响
学生之间出现冲突或伤害行为,并非新事物。但生成式 AI 的出现,却令相关风险变得更隐蔽、更即时,也更难追溯源头。
近年已有不少案例显示,学生只需使用市面上唾手可得的 AI 工具,便可能引发以下校园风险行为:
• 深伪(Deepfake)影像或声音:只要一小段来自社交平台的影片或录音,便能生成他人“说出”不当言论或作出失实行为的内容。
• 伪造对话与误导性材料:利用 AI 制作几可乱真的即时通讯截图,令同学误以为某人曾作出不当言论。
• 智能改写具伤害性的内容:透过 AI 不断转换措辞,绕过关键字过滤系统,令监察机制失效。
对受影响学生而言,相关伤害往往在放学后于网络世界发生,其心理压力却在翌日回到校园集中呈现。更困难的是,当老师或家长尝试介入时,往往因为难以追踪“第一个源头”,而延误处理。
真正的风险,在于制度仍停留在旧想像
不少学校在处理相关事件时,仍倾向将之视为单纯的学生纪律问题。然而,在 AI 时代,这种理解已显得不足。
一旦涉及深伪内容、未经同意使用他人样貌或声音,事件便可能牵涉私隐、诽谤,甚至法律责任。若学校未能及时介入、移除相关内容,或未有妥善保护受影响学生,亦可能面对处理不当的质疑。
问题不在于学校是否“纵容”风险行为,而在于不少校本指引仍未把 AI 带来的新型校园风险,纳入制度设计之中。当制度追不上现实,前线教师与学生便容易承受不必要的压力。
由事后处理,走向主动风险治理
与其在事件发生后不断补救,学校更需要在引入任何 AI 工具或平台之前,建立一套有系统的“校园风险评估机制”。
这不是对科技的过度忧虑,而是一种基本的专业准备。具体而言,学校至少应从三个层面进行审视:
第一,数据与私隐风险。相关 AI 工具是否涉及学生的样貌、声音或行为数据?其储存与使用方式是否符合本地私隐法规?
第二,内容被不当使用的可能性。工具生成的文字、影像或声音,是否容易被用作误导、标签或伤害他人?学校是否具备识别与应对能力?
第三,事故应变与通报流程。一旦出现涉及 AI 的校园风险行为,应由哪个团队牵头处理?如何在保障学生的前提下,与家长及相关机构沟通?
这些问题,若在平日未有共识,往往只会在危机中被迫仓促作答。
当“眼见为实”不再可靠
深伪技术的普及,亦提醒教育界重新思考“证据”与“真实”的概念。在 AI 时代,影像与声音不再必然等同事实,学生需要学习辨识,学校亦必须建立清晰而一致的处理原则。
对校长与教师而言,这并非要求成为法律专家,而是要具备基本的政策意识:知道哪些行为已跨越界线,哪些情况必须即时通报,如何在处理事件时,以学生福祉为先,避免造成二次伤害。
结语:没有预案的学校,才是最大的风险
AI 的发展速度,远超我们过往面对的任何一项教育科技。正因如此,学校更不能只著眼于“如何善用”,而忽略“如何防范”。在 AI 时代,最负责任的做法,不是等校园风险行为出现后才思考如何补救,而是在事情发生之前,已清楚知道:我们会如何保护学生。科技可以走得很快,但学校的责任,是确保学生走得安全、走得稳。