是非心理学|当“真相”可以被“生成”......
是非心理学|周华山博士
早上起床,你打开手机,看见一段影片:某国总统有重大宣布;某国际巨星卷入丑闻。画面清晰、语气自然、细节完整。你会停下来查证吗?还是已经按下分享?生成人工智能(Generative AI)迅速发展,“眼见为凭”不再可靠。AI不只可以写文章、作画、配音,还能模拟人脸与声音,真假难分。我们面临资讯秩序与心理安全的双重挑战。
假新闻为何跑得更快?
2018年,Vosoughi、Roy与Aral发表于《Science》的研究分析了Twitter上约12万则新闻传播情形,发现假新闻的扩散速度,远高于真实新闻。研究指出,假新闻往往更具新奇性与情绪刺激,因此更容易引发转发行为。
只需几句指令,就能生成耸动标题与逼真画面;我们更容易按下“分享”。当生成技术降低制作成本,人类情绪反应却维持原始机制;两者之间的落差,成为假新闻快速扩散的温床。
深度伪造的政治冲击
2022年俄乌战争期间,网上曾流传一段影片,显示总统泽伦斯基宣布向俄罗斯投降。虽然迅速被识破,但虚假影像仍足以造成心理动荡。
2024年1月美国总统初选,曾出现模拟拜登声音的AI电话录音。深度伪造未必需要长期存在,只需在关键时刻动摇信任,便足以影响选举气氛与社会情绪。
这些例子显示,未来的政治竞争,除了理念之争,更是真伪之争。
名人形象:偶像被利用
2023年,教宗方济各穿著白色羽绒外套的照片在全球疯传,触发“新奇效应(Novelty Effect)”,容易被记住与转发,后证实为AI生成。2024年初,歌手Taylor Swift遭遇AI生成的不雅影像在互联网扩散,许多支持者感到愤怒与受伤。
此外,全球首富Elon Musk也曾成为AI投资诈骗影片的主角。诈骗者利用其成功形象推荐加密货币。权威偏见(Authority Bias)使人们更容易相信名人的推荐。
AI“幻觉”:流畅不等于正确
生成式AI本身可能会产生错误资讯,研究者称之为“资讯幻觉”。这类内容语句流畅、语气自信,却可能包含捏造的引用、扭曲的数字,外表可信,使人难以察觉破绽。
我们常以为:表达愈清晰、条理愈分明、资料愈细致,便愈可信。AI生成恰好符合这种直觉期待,却不保证其内容经过事实核查。当资讯由科技平台包装呈现时,人们会因对系统的惯性信任,而误信,即使明知内容可能带有商业或政治考量。
当真假难分成为常态,公众容易陷入情绪危机:
• 认知疲劳——索性放弃查证
• 过度怀疑——对人失去信任
• 愤世嫉俗——敌视权力操控
• 集体焦虑——长期不安惶恐
守护真实,也守护良知
生成AI不是洪水猛兽,它本身并没有道德方向。它既能协助创作、医疗与教育,也能操纵情绪。真正考验,是人类的集体心智成熟度。我们或许可以:
• 多方验证资讯,不依赖单一贴文。
• 承认自己不足,警惕确认的偏误。
• 无须急于表态,给自己沉淀时间。
• 与理性可信者,保持深度的讨论。
• 愿意海纳百川,非重复固有立场。
• 理解人工智能生成与伪造的原理。
• 为自己每次转发与评论承担负责。
在AI时代,真正稀缺的,不再是资讯,而是判断力。当资讯过剩,求证与节制,便成为公民修养。在纷乱中,守住对真实的尊重与坚持。自律自重,是为公共世界守住良知,也守护最后一道边界。当技术愈来愈强大,人类真正的力量,在于清醒。真正能抵御虚假的,不是更强的演算法,而是更成熟的集体心智。
作者周华山博士是慈善机构“自在社”创办人,曾在香港理工大学和香港大学教授社会学与心理分析,著书35本。
文章仅属作者意见,不代表香港01立场。
01论坛欢迎投稿。请电邮至01view@hk01.com,附上作者真实姓名、自我简介及联络方法。若不适用,恕不另行通知。香港01保留最终编辑权。