首页 抖音快讯文章正文

谷歌医疗人工智能制造出人体中不存在的器官,医生们对此感到震惊

抖音快讯 2025年08月08日 20:25 1 admin

#头号创作者激励计划#

谷歌医疗人工智能制造出人体中不存在的器官,医生们对此感到震惊

医疗人工智能的可靠性正面临严峻考验。谷歌开发的医疗AI模型Med-Gemini在一篇研究论文中错误地诊断出"左侧基底神经节旧梗塞"——而人体中根本不存在"基底神经节"这一解剖结构。这个严重错误在论文发表后潜伏了一年多时间才被认证神经病学家发现,凸显了生成式AI在医疗领域应用中存在的根本性缺陷。该事件不仅暴露了AI"幻觉"问题的严重程度,更引发了医疗从业者对在高风险临床环境中广泛部署此类技术的深切担忧。

这起事件的核心问题在于AI模型很可能混淆了两个相似但截然不同的解剖概念:基底神经节(大脑中与运动和习惯形成相关的区域)和基底动脉(脑干底部的主要血管)。谷歌事后将此归咎于"拼写错误",声称这是Med-Gemini从训练数据中学到的"basal"的一个常见错误拼写。然而,这种解释并未消除医疗专家的担忧,因为即使是"拼写错误"也可能在医疗诊断中产生致命后果。

谷歌医疗人工智能制造出人体中不存在的器官,医生们对此感到震惊

认证神经病学家布莱恩·摩尔在发现这一错误后立即向谷歌举报。虽然谷歌随后修复了相关博客文章,但令人担忧的是,包含错误信息的原始研究论文至今仍未得到修正。这种处理方式反映了科技公司在面对AI错误时的不一致态度,也暴露了学术发表体系在应对AI生成内容错误方面的滞后性。

医疗AI应用的系统性风险

医疗AI的"幻觉"问题远不止谷歌一家公司面临的挑战。这些由大型语言模型生成的虚假信息,在搜索结果中可能只是给用户带来困扰,但在医院环境中却可能造成灾难性后果。普罗维登斯医疗系统首席医疗信息官毛林·沙阿对此发出严厉警告:"你们谈论的事情非常危险。虽然只有两个字母,但事关重大。"

问题的严重性在于,即使是谷歌最新的"推理"AI和更先进的医疗模型MedGemma也会出现类似错误。这些模型会根据问题表述方式的不同给出不同答案,有时甚至导致错误诊断。埃默里大学放射学和信息学副教授朱迪·吉乔亚指出了AI的根本缺陷:"它们的本质是倾向于编造事情,并且不会说'我不知道',这对于医学等高风险领域来说是一个非常大的问题。"

更令人担忧的是人类监督能力的局限性。沙阿坦言:"这些拼写错误或其他幻觉的问题在于,我不相信我们的人类能够审查它们,或者肯定不是在各个层面上。"这种监督困境意味着,医疗AI的部署可能不仅无法提高效率,反而可能因为需要持续的人工验证而导致工作负担增加。

快速部署与安全标准的冲突

尽管存在这些显而易见的风险,医疗AI的商业化进程仍在加速推进。从AI治疗师、放射科医生和护士助手,到患者互动转录服务,人工智能正在快速渗透到临床环境的各个层面。谷歌更是在今年3月宣布其容易出错的AI"概览"搜索功能将开始提供健康建议,并推出了"AI联合科学家"计划来协助新药研发。

这种急于求成的态度与医疗安全的严格要求形成了鲜明对比。沙阿强调了一个关键观点:"在我看来,人工智能的容错率必须比人类高得多。也许其他人会想,'如果我们能达到人类的水平,就足够优秀了。'但我一点也不相信这种说法。"这种观点代表了医疗界对AI标准的普遍期待——在涉及生命安全的领域,技术必须超越而非仅仅达到人类水平。

医疗专家们普遍认为,当前的AI技术还不足以承担独立的诊断责任。然而,市场压力和技术乐观主义正在推动这些工具在缺乏充分验证的情况下快速部署。这种现象不仅存在于谷歌,整个科技行业都在争相将AI产品推向医疗市场,而安全评估和监管框架却明显滞后。

Med-Gemini事件揭示了一个更深层的问题:在AI"幻觉"问题尚未得到根本解决的情况下,如何平衡技术创新与患者安全。虽然AI在医疗影像分析、疾病筛查等方面确实展现出巨大潜力,但其固有的不可预测性和错误倾向使其在现阶段更适合作为辅助工具而非独立决策者。

这一事件应当成为整个行业的警醒信号。在追求AI革命带来的效率提升和成本节约时,我们不能忽视其对患者安全可能造成的威胁。建立更严格的测试标准、完善的监管机制以及持续的人工监督体系,是确保医疗AI安全应用的必要条件。只有当这些基础工作得到充分重视和落实时,医疗AI才能真正成为改善人类健康的可靠伙伴。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动