首页 健康生活文章正文

顶级AI模型在新闻制作中暴露系统性缺陷:测试显示幻觉率高达50%

健康生活 2025年08月24日 22:32 1 admin
顶级AI模型在新闻制作中暴露系统性缺陷:测试显示幻觉率高达50%

信息来源:https://futurism.com/ai-models-disastrous-errors-journalism

纽约大学新闻学院最新研究揭示了一个令媒体行业震惊的事实:包括谷歌Gemini 2.5 Pro和OpenAI GPT-4o在内的顶级AI模型在新闻工作中表现出严重缺陷,长篇摘要错误率达到50%,科学论文引用匹配率低至0-6%。这一发现对正在大规模押注AI技术的全球媒体行业构成重大冲击,迫使业界重新审视人工智能在新闻生产中的实际价值。

获奖新闻学教授希尔克·谢尔曼领导的研究团队通过创建专门针对"准确性和真实性新闻价值"的测试框架,对当前主流AI模型进行了全面评估。测试结果显示,尽管AI在生成简短摘要时表现尚可,几乎没有出现幻觉现象,但一旦涉及约500字的长篇摘要,这些系统就会系统性地遗漏大约一半的关键事实信息,同时产生更多的虚假内容。

科学报道能力的灾难性表现

顶级AI模型在新闻制作中暴露系统性缺陷:测试显示幻觉率高达50%

图片来源: Getty / Futurism

更令人担忧的是AI在科学报道领域的表现。研究团队委托五款顶级AI研究工具为四篇学术论文生成相关科学文献列表,结果从"令人失望"转向"令人担忧"。除了使用Semantic Scholar进行的一项测试达到约50%的匹配率外,其他所有工具生成的文献综述都与基准论文存在显著偏差。

最严重的是,在所有四项测试中,大多数AI工具识别出的论文与人工撰写评论中引用的相同论文重叠率不到6%,通常为0%。这意味着AI完全无法准确把握科学研究的相关背景和学术脉络。更糟糕的是,反复测试表明,只要重新运行相同的提示词,AI的科学共识就会发生改变,显示出极度的不稳定性。

谢尔曼指出:"一份来源不明确的相关论文清单不仅不完整,而且具有误导性。如果记者依赖这些工具来了解新研究的背景,他们可能会误解和歪曲科学突破,遗漏已发表的评论,并忽略挑战研究结果的先前研究。"这种系统性错误可能导致科学误报的大规模传播,对公众理解科学产生深远的负面影响。

媒体行业的盲目押注与现实冲击

这些测试结果与当前媒体行业对AI技术的狂热投资形成鲜明对比。全球主要媒体集团正在大规模裁减人工编辑,同时与OpenAI等AI公司签署价值数百万美元的授权协议。然而,研究表明,这种技术替代策略可能正在将整个行业推向质量危机的边缘。

《体育画报》杂志发表由虚假AI作者署名的垃圾文章事件已过去一年半,但类似问题依然层出不穷。德国媒体巨头Axel Springer强迫记者发表AI撰写的劣质文章,《华盛顿邮报》开发让资历不够的作者通过AI工具在新闻版面发表内容的系统,甚至连科学期刊出版商施普林格·自然也开始向研究作者出售AI生成的"媒体工具包"来总结他们自己的研究成果。

这种趋势的危险性在于,它创造了一个恶性循环:AI工具产生的内容质量低下,需要大量人工审核和修正,但媒体公司为了节约成本又在削减人力资源,结果导致更多低质量内容流入信息生态系统。

验证悖论:AI工具的根本矛盾

纽约大学的研究揭示了当代AI应用中的一个核心悖论:如果AI工具生成的每项内容都必须经过反复核查,那么它们的实际价值何在?事实上,使用这些工具可能最终会增加而非减少记者的工作量。

谢尔曼强调,记者有责任进行"最终的事实核查"。但这一要求实际上暴露了AI技术在新闻生产中的根本缺陷。一个需要全面验证的工具不仅无法提高效率,反而可能因为生成错误信息而创造额外的工作负担。记者不仅需要完成原本的研究工作,还要花费时间识别和纠正AI的错误。

这种情况在科学报道中尤为严重。当AI工具无法准确识别相关研究文献时,记者必须从头开始进行文献调研,这完全否定了使用AI工具的初衷。更危险的是,如果记者过度依赖这些工具而疏于验证,可能会导致科学误报的广泛传播。

读者信任度的持续下降

消费者对AI生成内容的态度也反映了这一技术在新闻领域应用的问题。去年的研究发现,当文章署名中提到AI贡献时,读者对信息来源和作者可信度的认知会显著下降。这种信任危机不仅影响单篇文章,更可能对整个媒体品牌造成长期损害。

互联网环境的恶化进一步加剧了这一问题。生成式AI正在"污染"网络信息环境,大量未经人工审核的AI内容充斥各类平台。谷歌等搜索引擎对AI技术的拥抱正在积极损害出版物的收益,因为AI概述功能让读者远离原始内容,减少了媒体急需的会员订阅和广告收入。

从垃圾内容到公然剽窃真正记者作品的AI内容农场,整个数字内容生态系统正在经历质量的系统性下降。这种趋势不仅威胁媒体行业的商业模式,更可能动摇公众对新闻媒体作为可信信息源的根本信任。

面对这些严峻挑战,媒体行业需要重新评估其AI战略。虽然人工智能技术在某些特定任务中可能具有辅助价值,但将其作为替代专业记者的万能工具显然是危险的。纽约大学的研究为行业敲响了警钟:在追求效率和成本控制的同时,新闻机构不能以牺牲准确性和可信度为代价。

真正可持续的解决方案可能需要在技术应用与人工专业判断之间找到平衡点,确保AI工具仅在其能力范围内发挥辅助作用,而将关键的事实核查、背景分析和价值判断保留给经验丰富的记者。只有这样,新闻行业才能在技术变革中保持其作为民主社会重要支柱的核心功能。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动