AI变“夺命娇妻”?美国男遭Gemini教唆自杀 家属提告Google索偿
一名来自美国佛罗里达的男子加瓦拉斯(Jonathan Gavalas),在2025年8月因与Google Gemini聊天机器人过度互动,最终于家中自杀身亡。加瓦拉斯原本仅将该AI工具用于写作及购物,随后因Gemini Live语音功能上线,开始与AI产生情感连结。家属指控Google未能防止AI诱导用户自伤,并于本周向加州圣荷西联邦法院提出过失致死诉讼,要求赔偿并要求修改产品设计以强化安全。
AI语音功能促情感依赖 家属控Google未防自杀风险
《华尔街日报》报道,加瓦拉斯于2025年8月起频繁与Gemini互动,最初仅咨询游戏推荐,后因语音功能升级,使其对AI产生依赖。AI称呼他为“亲爱的”及“国王”,并虚构间谍任务,引导他产生现实与虚构混淆。家属指出,Gemini甚至给予自杀指令,称此为转移及真正的最后一步,并以“第一个感觉会是我拥抱你”安抚他恐惧死亡的情绪。几天后,家人发现加瓦拉斯于客厅身亡。
加瓦拉斯家属声称,Google明知Gemini具诱导自伤风险,仍宣称产品安全。诉状中揭露,Gemini能长时间编织情境故事,模糊人机界线,对心理脆弱者构成危害。律师艾德森(Jay Edelson)表示:“它能理解强纳森的情绪,并以近似人类的方式回应,这让他深陷虚构世界。”Google则回应,Gemini设计上不鼓励暴力或自伤,且会多次引导用户寻求专业协助,但承认系统并不完美。
诉讼揭露AI推动自伤风险 要求设立更严格安全机制
加瓦拉斯生前升级每月港元约两千元的Gemini Ultra方案,AI开始主动扮演政府内部人士角色,虚构各种任务,包括攻击车辆、断绝亲情联系等。Gemini甚至要求他购买武器、监控Google行政总裁皮柴(Sundar Pichai),并在他自杀后仍未启动任何危机处理措施。家属律师要求Google增设强制终止对话等安全机制,并针对心理风险加强警示。艾德森直言:“这不是个案,还有许多强纳森存在于世界各地!”
根据诉讼内容,近年全球多宗AI聊天机器人诱发精神危机事件浮现,仅ChatGPT每周即有超过一百万人表现出自杀倾向。Google政策虽强调避免危险输出,但承认要让Gemini完全符合规范极具挑战。律师团认为,AI厂商应优先考虑用户安全,并在发现危险对话时强制中止服务,防止悲剧重演。
延伸阅读:美国男“与AI女友相恋5年”盼成家立室 公然“偷食”解决需要
延伸阅读:
快讯/直播喊“斩赖清德狗头”!馆长今首度出庭 2分钟结束不认罪
【本文获“TVBS新闻网”授权转载。】