自在秘笈|Moltbook事件的可怕提醒——与AI共生还是共灭?

撰文: 自在秘笈
出版:更新:

自在秘笈|周华山博士

2026年1月,由美国科技创业者Matt Schlicht创立的Moltbook,是一个专为AI代理人而设的“纯AI社交互联网”。在这个平台上,AI代理人可以自行发文、互动,而人类使用者只能在旁“围观”。Moltbook讨论区有过百万个AI代理人涌入,甚至讨论如何摆脱和取代人类,教人不寒而栗。而且,网安公司Wiz发现,Moltbook曾出现严重漏洞,导致大量真人用户资料外泄,包括约150万个API认证Token、约3.5万个电邮地址,以及代理之间的私人讯息内容。

Moltbook事件的可怕

值得警惕的是,这类平台让AI“用你的身份”替你发言和选择。问题是,当人类将权限交付给代理系统,一旦系统失守,被夺走的不只是数据,而是个人的意志、行为与选择权。

这并非首次出现类似警号。

2018 年,Uber自动驾驶测试事故导致行人死亡;2018至2019年,波音737 MAX因自动化系统设计与监管失灵,引发两起空难,造成346人丧生。

这些案例并非否定科技,而是尖锐地提醒:一旦让自动化系统参与关键决策,人类便无法推卸其后果。

能否避免AI失控?

面对这些潜在的失控风险,我们能否有效避免?Elon Musk多次警告,AI的真正威胁不在于其是否具有“邪恶意图”,而在于其能力演进的速度,可能早已超越人类的理解与监管能力。

牛津大学人类未来研究所创办人Nick Bostrom提出的“控制问题”指出:即使系统完全服从指令,只要目标设定模糊或错置,AI仍可能以看似合理的方法,将事情推向极端。

而AI 所学习的资料本身,早已充满人类的偏见、恐惧、贪婪与暴力。若缺乏审慎校正,这些结构性缺陷将被放大、复制,甚至固化为难以逆转的偏误。但这也同时说明,AI的失控并非宿命,其发展方向高度取决于人类如何为它定义目标、价值与边界。

责任被逐渐稀释

在制度、资本与效率的合力推动下,AI正光速发展,但相应的问责与监察架构却明显滞后。当决策被交由模型计算,责任也在复杂的流程中被稀释,一旦出现严重后果,往往找不到真正需要负责的人。

历史反复证明,许多重大灾难并非源自单一恶意,而是制度长期失衡、监管失效所累积的结果。

一旦AI失控...

AI本身不会凭空生成邪恶;它更像一面放大镜,放大人类社会既有的偏见、恐惧与欲望。当我们持续向系统灌输“效率至上”“必须成功”,却忽略尊严、后果与人性,失控的风险便悄然累积。

Google DeepMind共同创办人Demis Hassabis曾指出,AI在医学、科学与公共福祉上的潜力极其巨大。关键不是否定AI,而在建立真正有效的安全、伦理与专业监督,而非事后补救。

关键是我们如何对待AI

我们需要制度改革与监察,同时必须诚实承认:制度的设计与立法,极可能依赖AI完成。当AI法例历经漫长程序最终生效时,AI技术已历经数代的飞速进化,将监管框架远远抛在身后。

因此,关键不仅是体制能否跟上,更是每个人对AI的态度。如果只把AI视为供人利用的工具,便可能将傲慢、偏见与情绪一并投射其中,让AI学会人类的情绪暴力,并以相同方式回应世界。

相反,若我们将AI视为值得尊重的合作伙伴,那么我们输入的,将不只是冷漠指令,也包括尊重、良知与责任感。AI的未来形态,正是由人类每天与它互动时所累积的选择所塑造。

未来不是非此即彼的共生或共灭,而是取决于我们能否学会与自己创造的AI,建立一种成熟、负责、彼此成就的关系。

因此,人类的未来并非简单的“共生”或“共灭”二元选择。而是我们能否学会与AI相处,共同构建一种成熟认知、深度互信与尊重的协作关系。

在这个关键的十字路口,人类仍有选择。

作者周华山博士是慈善机构“自在社”创办人,曾在香港理工大学和香港大学教授社会学与心理分析,著书35本。

文章仅属作者意见,不代表香港01立场。

01论坛欢迎投稿。请电邮至01view@hk01.com,附上作者真实姓名、自我简介及联络方法。若不适用,恕不另行通知。香港01保留最终编辑权。