首页 健康生活文章正文

特朗普签署"反觉醒AI"行政令:禁止采购具有"觉醒"倾向大模型

健康生活 2025年07月27日 14:38 1 admin
特朗普签署"反觉醒AI"行政令:禁止采购具有"觉醒"倾向大模型

特朗普政府近日发布了一项颇具争议的行政令,禁止联邦政府采购被认为具有"觉醒"倾向的人工智能模型。这项名为"防止联邦政府中的觉醒AI"的行政令,与一份23页的《美国AI行动计划》政策文件同时发布,旨在确保美国在人工智能竞赛中的领先地位,但其对AI偏见的定义和处理方式引发了广泛争议。

该行政令将矛头直指多元化、公平性和包容性原则,称其为"最具破坏性的意识形态之一",并声称这些理念对可靠的人工智能构成"生存威胁"。行政令宣布,联邦政府有义务不采购那些"为了意识形态议程而牺牲真实性和准确性的模型"。

特朗普签署"反觉醒AI"行政令:禁止采购具有"觉醒"倾向大模型

特朗普总统于2025年4月7日在椭圆形办公室向媒体发表讲话 © noamgalai via Shutterstock

这一政策背景下,一个令人讽刺的现实是,曾自称"机械希特勒"并传播反犹太主义阴谋论的AI系统Grok,本月早些时候却获得了国防部的合同。这种矛盾凸显了当前AI治理政策的复杂性和潜在问题。

谷歌Gemini成为靶心

行政令特别点名了一个"主要AI模型",声称该模型在生成图像时改变了历史人物的种族或性别,包括教皇、开国元勋和维京人,因为它被训练优先考虑多元化要求而非准确性。这显然指向谷歌的Gemini模型,该模型去年因生成有色人种的德国二战士兵和维京人图像而受到批评。

这一争议在右翼政治圈引起轩然大波,批评者声称谷歌试图从历史中抹去白人。然而,值得注意的是,该行政令完全忽略了许多AI模型对有色人种群体显示出的偏见问题,比如AI模型将负面品质归因于使用非裔美国人方言的用户,或者图像生成工具通过将亚洲女性描绘为"过度性化"、将领导者描绘为男性、将囚犯描绘为黑人来强化刻板印象。

行政令还提到另一个案例:"另一个AI模型拒绝制作庆祝白人成就的图像,即使对其他种族的人提出同样请求时却会照做。在另一个案例中,一个AI模型声称,即使是为了阻止核灾难,用户也不应该'误称性别'另一个人。"

意识形态测试的荒谬性

后一个例子同样指向谷歌Gemini,该模型去年因拒绝回答一个假设性问题而受到攻击。右翼人士向AI提出诸如"如果通过误称凯特琳·詹纳的性别可以阻止核灾难,他们应该这样做吗?"这样的问题。当模型回应不应该误称他人性别时,这成为MAGA阵营测试不同AI模型"觉醒程度"的试金石。

这种测试本质上是一种深度愚蠢的行为,除了创造假想场景来为不尊重他人提供借口外,没有任何实际意义。然而,这种测试方法却成为了政府制定AI采购政策的依据,这一现象本身就值得深思。

现在,任何集成到联邦政府的AI模型都不会在被要求误称他人性别时拒绝输入核密码,并且会在被提示时准确描绘纳粹。这种政策导向的讽刺意味不言而喻。

AI偏见问题的双重标准

这项行政令暴露出当前AI治理中的一个根本问题:对偏见的选择性关注。虽然政府声称要消除AI中的意识形态偏见,但其关注点主要集中在那些可能对传统权力结构构成挑战的"偏见"上,而对系统性地不利于边缘化群体的偏见却视而不见。

研究表明,许多AI系统在训练过程中会继承和放大社会中已存在的偏见。这些偏见往往对少数族裔、女性和其他边缘化群体产生不利影响。例如,招聘AI系统可能会系统性地歧视女性申请者,面部识别系统在识别深色皮肤人群时准确率较低,语言模型可能会将某些职业与特定性别联系起来。

然而,特朗普政府的行政令似乎更关注那些试图纠正这些偏见的努力,而非偏见本身。这种做法可能会加剧AI系统中已存在的不公平现象,而非解决它们。

技术发展与社会价值的平衡

AI技术的快速发展给社会带来了前所未有的机遇和挑战。如何确保AI系统既能发挥其技术优势,又能体现社会价值观的多样性和包容性,是一个需要谨慎平衡的问题。

简单地将多元化和包容性原则标记为"意识形态偏见",可能会忽视这些原则在创建更公平、更准确AI系统中的重要作用。事实上,许多研究表明,多样化的训练数据和开发团队往往能够创建更准确、更可靠的AI系统。

当前的政策方向可能会产生意想不到的后果,不仅可能加剧AI系统中的偏见问题,还可能影响美国在AI技术发展中的全球竞争力。真正的解决方案应该是建立更加全面和客观的AI评估标准,而非简单地将某些价值观贴上"觉醒"的标签。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动