7月26日至29日,全球人工智能领域年度盛会——2025世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2025)在上海举行。大会期间,蘑菇车...
2025-07-27 0
世界末日时钟指针目前停留在午夜前89秒,这一令人不安的时刻标志着人类比以往任何时候都更接近自我毁灭的边缘。芝加哥《原子科学家公报》的专家们在今年1月做出这一决定时,核战争风险的急剧上升成为推动时钟指针前进的主要因素。
与冷战时期相对简单的双极对峙不同,当今世界正面临一个前所未有的多极核时代。中国正在快速崛起为第三个拥有核武器的超级大国,朝鲜持续扩大其核武库,伊朗的铀浓缩活动已超越民用需求水平。与此同时,人工智能技术的军事化应用和网络虚假信息的泛滥,正在为这一危险的新核时代增添更多不确定性。
新兴的多极核格局根本改变了维护核安全的基本原则。传统的核威慑理论建立在相互确保毁灭的假设之上,即没有国家愿意发动一场必然导致所有人毁灭的战争。这一原则在美苏冷战期间相对有效,因为双方都拥有足够的二次打击能力,任何一方的首次核打击都将招致毁灭性的报复。
然而,多极核世界的复杂性远超双极体系。更多核大国的存在不仅增加了误判和误解的可能性,也提高了规模较小但仍具毁灭性的核冲突概率。这些局部核冲突虽然不会导致全球相互确保毁灭,但却削弱了传统威慑机制的有效性。
根据斯德哥尔摩国际和平研究所的最新报告,全球正在出现一场危险的新核军备竞赛,而现有的军备控制体系已经严重弱化。美国和俄罗斯之间的《新削减战略武器条约》将于明年到期,而替代协议的谈判进展缓慢。与此同时,中国正在大幅扩张其核武库,预计到2030年将拥有1000枚核弹头,印度和巴基斯坦也在继续扩大各自的核武库。
巴尔塞罗研究所的物理学家卡伦·哈尔伯格指出,冷战期间有助于缓解核紧张局势的秘密沟通渠道已经不复存在。正式的外交渠道也因现代冲突而变得磨损、停滞或中断。她强调,"最令人担忧的是当前科学和国际关系中竞争而非合作的趋势"。
互联网和社交媒体放大虚假信息的能力为核威慑的微妙平衡增添了新的脆弱性。今年5月爆发的印巴冲突为这一威胁提供了现实案例。冲突期间,社交媒体平台充斥着关于军事胜利的虚假声明,包括AI生成的图像,声称显示了已被摧毁的敌方目标。
这次冲突始于印度在巴基斯坦遭受恐怖袭击后发动的报复性袭击。巴基斯坦随即进行反击,双方向对方发射导弹和其他武器,造成人员伤亡。新闻和社交媒体渠道迅速被关于破坏规模的虚假信息所充斥,其中包括大量AI生成的虚假图像和深度伪造视频。
虽然这次冲突最终在美国压力下于四天后停火,但全球安全专家对虚假信息可能引发核战争升级的风险深表担忧。美国科学家联合会的核分析师马特·科尔达警告说,恶意行为者可以通过在社交媒体上散布虚假信息来影响拥有核武器国家的决策。例如,关于伊朗已经制造核武器的虚假谣言可能通过媒体渠道影响美国总统的行动。
印度已经开发了名为"Vastav AI"的系统来对抗深度伪造技术,但专家认为这类防御措施远远不够。国际新闻工作者联合会的报告指出,在印巴冲突期间,"一个月的虚假信息在几小时内就轰炸了社交媒体"。
人工智能技术在核决策中的应用正在成为另一个重大关切。美国国防部已经在常规战争中使用AI工具进行规划和战场行动,负责核力量的高级官员表示,AI可以帮助加速核指挥和控制决策。
今年1月,OpenAI宣布与美国国家实验室建立合作伙伴关系,将该公司的模型整合到核武器领域。6月,Anthropic推出了基于其Claude AI助手的机密版本Claude Gov,专门用于美国国家安全需求。据报道,中国和俄罗斯也在将AI工具整合到核战争系统中。
长期以来,许多国家都使用基于AI的算法来识别和跟踪可能来袭的核导弹。蒙特雷詹姆斯·马丁防扩散研究中心的AI和核安全研究员爱丽丝·萨尔蒂尼指出,新的发展是AI推理模型的使用,这些模型可以跨任务泛化并加快大量数据的处理速度。
斯坦福大学的网络政策和安全研究学者赫伯特·林表示,AI可以被用作决策辅助工具,建议不同的行动方案,评估特定攻击可能造成的伤亡,或判断哪些方法会违反国际战争规范。然而,他强调"将启动代码提供给ChatGPT是一个非常糟糕的主意"。
萨尔蒂尼指出,许多AI模型容易产生幻觉并且偏向于立即采取行动,这些因素在生死攸关的军事决策中极为危险。AI技术可能会让人对对手的动机或能力产生混淆,从而破坏核威慑的基本原则。
面对这些日益严重的威胁,科学界正在积极行动。7月14日,在芝加哥举行的为期三天的会议上,数十名科学家包括诺贝尔奖获得者齐聚一堂,讨论防止核战争的行动方案。这次会议恰好在研究人员和美国军方试验第一枚原子武器的80年后举行。
与会科学家发布了关于AI风险的新警告,并就降低核战争风险提出了具体建议。他们呼吁所有国家就AI的科学和军事影响进行透明的相互交流,重申对暂停核爆炸试验的承诺,并支持制定一项新的裁军条约以接替即将到期的《新削减战略武器条约》。
芝加哥大学物理学家丹尼尔·霍尔茨强调,"我们不断听到的信息是核风险已经结束,这是冷战时期的旧风险,但当你与专家交谈时,你会得到相反的信息——实际上核风险非常高,而且还在增加"。
《原子科学家公报》总裁兼首席执行官亚历山德拉·贝尔表示,AI的快速发展速度"超出了我们理解技术影响的能力,更不用说控制了"。她呼吁政策制定者需要更多关于AI技术能力和局限性的信息。
加州大学圣巴巴拉分校的物理学家戴维·格罗斯在2024年的重要选举中几乎没有讨论核武器问题后,受到启发帮助安排了芝加哥会议。他警告说,"人们并没有真正意识到核战争的危险,这是一个非常不稳定的情况"。
目前,讨论AI和军事安全的主要全球场所是军事领域负责任AI年度峰会,下一次会议定于9月举行。去年的峰会发表了一份不具约束力的声明,称人类应该控制核武器部署的各个方面,但专家认为这远远不够。
核时代已经过去了80年,人类发现自己正处于一个关键的十字路口。在这个由AI和虚假信息主导的新时代,防止核战争需要前所未有的国际合作和技术治理。正如科学家们所警告的那样,时间正在流逝,而行动的窗口正在迅速缩小。
相关文章
7月26日至29日,全球人工智能领域年度盛会——2025世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2025)在上海举行。大会期间,蘑菇车...
2025-07-27 0
【来源:菏泽日报】中国菏泽网消息 (记者 胡云华)菏泽牡丹机场目前迎来暑运客流高峰,航站楼内独自乘机的无陪儿童格外受关注。据统计,7月初从菏泽牡丹机场...
2025-07-27 0
近期,全球多地报告基孔肯雅热病例增加,世界卫生组织(WHO)提醒各国加强防控,避免疫情大规模暴发。在我国,广东佛山等地也出现由输入病例引发的本地传播疫...
2025-07-27 0
来源:环球市场播报马斯克转发了一条有关Grok的贴文,该贴文表示:“我刚刚发现,Grok可以对我上传的CSV文件中的数据进行基础和复杂的统计测试。像S...
2025-07-27 0
半年拿不到一分钱,80名主播集体讨薪,纳斯达克最年轻创始人光环碎一地主播们每天开播六小时,嗓子冒烟,后台却显示工资栏永远是0。最早被欠的是去年11月的...
2025-07-27 0
课题方向致力突破行业技术瓶颈近日,喜旺集团博士后科研工作站召开博士后进站开题报告会,来自北京工商大学、山东师范大学、鲁东大学等科研院校、院所的专家、博...
2025-07-27 0
今天给各位分享手机麻将胡牌神器软件的知识,其中也会对手机麻将胡牌神器软件哪个好进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!边...
2025-07-27 0
七月的浙江,天气闷热。在慈溪新浦工业区的一家工厂里,00后小伙孙鑫磊正指导着工人们切割玻璃。黑色Polo衫在汗水的浸透下,呈现出深黑和浅黑两种颜色。这...
2025-07-27 0
发表评论