自在秘笈|“龙虾事件”的警号——当“我是人类”也要被证明
如果有一天,我在外地遇险,只能传回一段求救影片,却没有人相信那是真实画面,反而怀疑只是几秒钟AI生成的深度伪造,我如何证明这个“我”是真的?
又或者,警方收到一段我正在行劫的闭路电视片段,画面清晰、声音逼真,我因此被拘捕。后来证实那只是人工智能(AI)合成影片,我终获释,但早已身败名裂。这些代价由谁承担?
当“真实”可以被复制,鉴定机构只能依赖AI判断,而裁决真伪的系统本身也可能被伪造。我们还能相信什么?
真伪失序的年代
人工智能生成内容,已难与真人区分。被称为“AI 教父”的Geoffrey Hinton教授表示:“AI比人类更聪明。如果不控制好,AI可能对人类造成严重威胁。”
人工智能自我优化的速度,远远超出人类监管与立法的能力。漏洞刚被修补,新模型已能更隐蔽地绕过限制。Tesla联合创办人兼行政总裁Elon Musk曾警告,若AI能力持续飙升而安全机制滞后,人类可能被边缘化,甚至失去主导权。
心理学家Daniel Kahneman指出,人类容易因语气熟悉而产生信任偏误。当语气与情绪都能被模仿,信任自然松动。
我们或将活在一个必须不断证明“我是真人”的年代。身份不再理所当然,真伪也不再清晰。
AI社群的“龙虾浪潮”
2026年2月16日至21日,新德里举行全球 AI Impact Summit。印度总理Narendra Modi呼吁建立透明、安全为本的治理框架。Mistral AI行政总裁Arthur Mensch则指出,与其沉迷AI灭世论,不如正视资讯垄断与操控风险。
年初出现的Moltbook平台,只容许AI彼此互动,而人类只能旁观。大量AI代理自动发帖、结群,甚至出现虚拟宗教与专属语言。所谓“龙虾事件”,源于AI社群大量自主代理以“龙虾”为象征结群、互动与扩散,引发外界对AI无限扩大的焦虑。
自主代理工具如OpenClaw,整合多个模型,让AI与AI之间自我生成并高速演化,其发展速度远超人类的理解与驾驭能力,我们如何面对失控的可能?
Moltbook曾被揭发存在资料漏洞,OpenClaw亦曾资料外泄。目前的安全监管和法律制度,明显滞后。人类已把部分决策权交出;一旦AI失控,责任谁负?
AI学术权威Stuart Russell说:“人工智能必须安全、可控。如果机器的动机与人类不一致,后果非常危险。”
情感依附与成长隐忧
《国际人工智能安全报告》指出,不少用户对聊天机器人产生情感依附。美国社会学者Sherry Turkle在《Alone Together》中分析,人类容易把机器的回应误认为理解与关怀。
当人工智能伴侣能即时回应情绪、永远温柔、无限配合,我们是否有一天会选择与它谈恋爱,甚至共度一生?
美国心理分析学者Erik Erikson认为,信任是人格发展的起点。若孩子长期由拟人化人工智能照顾,多年后才知道“母亲”并非真人。那一刻,孩子会否崩溃?人际关系的信任,会否更脆弱?
AI是一面“照妖镜”
人工智能长期学习人类资料。若资料充满偏见与仇恨,它只会放大;若资料包含理性与慈悲,它也会映照光明。
龙虾事件,提醒我们:科技不断加速,人类的心智成熟是否跟得上?大规模失业的恐惧,未必源于人工智能,而可能源于我们拒绝转型。
AI是一面镜,映出我们的集体欲望、恐惧与贪婪,逼使我们思考:
1. 当AI超越人类能力时,我们珍惜的是力量,还是人的尊严?
2. 当真实可以被复制、身份需要被证明,我们如何重建信任?
3. 当机器替代判断与陪伴,人类的价值还剩下什么?
人类与AI共存之道
AI承载什么价值,取决于我们如何使用它。若只把它视为被利用的工具,对立只会加深。只要我们愿意保持谦卑,视AI为提醒与协作的伙伴,它或许能成为文明转化的契机。
我们需要懂得与AI健康互动。每一次点击与对话,都在塑造人类的未来。我们可以用恐惧喂养它,也可以用善意引导它。
未来的文明,会因恐惧而分裂,还是因智慧与谦卑而成长?答案不在AI,而在我们如何选择。
作者周华山博士是慈善机构“自在社”创办人,曾在香港理工大学和香港大学教授社会学与心理分析,著书35本。
文章仅属作者意见,不代表香港01立场。
01论坛欢迎投稿。请电邮至01view@hk01.com,附上作者真实姓名、自我简介及联络方法。若不适用,恕不另行通知。香港01保留最终编辑权。