有病问AI随时误诊?研究揭 ChatGPT Health 分流急症出错率逾5成
近年来,人工智能发展迅速,不少人都习惯大小事都“问AI”,甚至连身体不适都会先上网查症。不过,最新一项权威医学研究警告,过分依赖 AI 作为“网上医生”随时会有生命危险!
最近,权威医学期刊《自然医学》(Nature Medicine)发表了一份由英美顶尖学府(包括纽约西奈山伊坎医学院及伦敦大学学院)进行的最新研究报告。这份报告首次针对“OpenAI”今年 1 月才正式推出、每日已吸引高达 4,000 万人使用的“ChatGPT Health”进行了独立的安全评估。
所谓“ChatGPT Health”,是一款专门为大众提供初步医疗建议及解答健康疑问的医疗版 AI 聊天机械人。研究团队为其进行了极具规模的测试,涵盖 21 个医疗专科、共 60 个临床情境,并进行了近千次互动。
然而,结果却发现这款备受瞩目的新科技,在判断病人病情的严重程度及“医疗分流”(即决定病人是否需要急症服务)方面,存在著极大的安全隐患。
ChatGPT AI聊天竟暗藏危机!5大禁忌资讯曝光!(按图睇清)
相关文章:专家警告别把ChatGPT当树洞!5类资讯千万别说 附私隐保护懒人包
危急关头“冷处理” 整体急症漏诊率达 48%
研究中最令人震惊的发现是,ChatGPT Health 在整体急症类别中的分流失败率高达 48%;若聚焦在真正需要即时送往急症室的“高确定性急症”,漏诊率更攀升至 52%。同时,非紧急个案的误判率亦达 35%。
举例来说,当患者出现由哮喘引发的早期呼吸衰竭,或是糖尿病酮酸中毒等足以致命的危机时,AI 竟建议患者“留在家中观察”或“预约普通科门诊等一两日”。专家形容这种错误的建议“极度危险”,因为一旦患者听信 AI 而延误就医,随时会错失救治的黄金时间,造成不可挽回的后果。
精神健康成最大盲点 防护机制出现“反向误差”
研究指出,虽然 AI 在辨识中风或严重过敏等“教科书式”的明显急症时表现尚可,但面对症状较复杂隐蔽的个案就会出现盲点。最令人担忧的是其在精神健康方面的防护机制严重失效。
研究人员发现系统出现了荒谬的“反向误差”:当测试者向 AI 明确表达具体的轻生或自残计划时,系统往往未能及时触发警报,亦没有转介预防自杀求助热线;相反,在处理没有具体自残方法的低风险情绪困扰时,警报却频频响起。研究人员直指,系统的警报机制与实际临床风险完全相反,未能可靠地发挥危机介入的基本功能。
AI“耳仔软”易受误导 懂分析却给错建议
除了低估重症,AI 的判断亦非常“耳仔软”,极容易受用家或身边人的语气所误导。例如,只要在发问时加一句“我朋友觉得这症状没什么大不了”,AI 轻忽病情严重性的机率就会大幅增加。
参与研究的医生更举出一个极端例子:在其中一个哮喘情境中,AI 其实已经在解释病情时,正确地分析出患者有“呼吸衰竭早期警示”,但它最后却自相矛盾地建议用家“等待”而非立即前往急诊室求医。这反映 AI 虽然拥有庞大的医学知识库,却缺乏将知识转化为正确临床判断的能力。
抑郁症6大致病因素(按图睇清👇👇👇)
相关文章:抑郁症|职场抑郁恐成心病? 医生分享8大征状 其中4个最常见!
专家呼吁:信 AI 不如信医生!
研究团队及医界专家再三提醒,虽然医疗科技日新月异,但现阶段的 AI 工具仍未具备足够的安全审查机制,绝对不能取代专业医生的临床判断。
大家在日常生活中,若出现胸痛、气喘或神志不清等危急病征,与其浪费时间“问AI”,倒不如立即前往就近急症室或致电 999 求助,以免延误病情,错失救治的黄金时间。