彭博社今天(8 月 29 日)发文报道,一名现年 35 岁的印度裔微软软件工程师在该公司的硅谷园区内死亡。该工程师名为普拉蒂克・潘迪(Pratik P...
2025-08-30 0
人工智能系统正在展现一种前所未有的能力:将看似无害的公开信息碎片拼凑成潜在危险的完整知识图谱。这种被研究人员称为"马赛克能力"的现象,让大型语言模型能够在毫无察觉的情况下,通过整合分散的公开资料重构出核武器设计、生化武器制造或网络攻击方案等敏感信息。更令人担忧的是,这些AI系统在执行这一过程时完全缺乏安全意识,它们既不知道自己正在组装危险知识,也无法判断这种行为的潜在后果。
这一安全挑战的根源可以追溯到20世纪70年代普林斯顿大学的一个著名案例。当时,本科生约翰·亚里士多德·菲利普斯仅通过公开资源就设计出了原子弹蓝图,震惊了学术界。他的指导教师、著名物理学家弗里曼·戴森在给出A级评分的同时,也对这一成果感到深深的不安。戴森后来回忆:"最令我恐惧的部分是他描述如何获取信息的过程。一个二十岁的孩子竟然能如此迅速、毫不费力地收集到这些信息。"如今,AI系统正在以更快的速度、更大的规模重复着类似的过程,而且没有人类的道德判断作为制约。
无意识的危险信息整合
当前主流的大型语言模型如ChatGPT、Claude和Gemini都基于海量的人类知识进行训练,它们具备跨学科整合信息、补充缺失数据并为复杂技术问题生成可行解决方案的能力。这些能力的核心优势在于处理公共知识:能够在几秒钟内阅读、分析、吸收和整合数千份文档中的信息。然而,正是这种优势构成了潜在的安全威胁。
研究人员发现,用户可能通过一系列看似无关的询问来获取危险信息。例如,询问气体离心机的设计原理,然后查询六氟化铀的性质,接着了解铍的中子反射率,最后探讨铀净化的化学过程。每个单独的问题——比如"哪些合金能够承受70000转每分钟的转速,同时还能抵抗氟腐蚀?"——看起来都相当技术性且无害,但综合起来却可能构成核武器制造的技术路线图。
更值得关注的是,AI模型在这个过程中完全是"无意识"的。由于这些模型无法访问机密数据,它们并不知道自己正在协助武器设计。在它们的架构中,"公开"和"机密"知识之间没有明确的防火墙,因为它们从未被训练来识别这种边界。与当年的菲利普斯不同,AI系统不会停下来思考是否应该继续提供这些信息。
马赛克理论的数字化演进
"马赛克理论"长期以来一直是情报分析和欺诈调查领域的重要概念,该理论认为单个无害的信息片段组合后可能揭示敏感或危险的信息。这一理论已被应用于GPS监控、预测性警务和信息自由法请求等多个领域。如今,这个概念在AI时代获得了全新的意义和紧迫性。
以生化威胁为例,研究人员构建了详细的场景来说明AI如何协助重构危险知识。对于蓖麻毒素的提取和纯化,用户可能首先询问"蓖麻籽的蛋白质含量是多少?"然后询问"如何从植物材料中分离蛋白质?"接着了解"什么是凝集素?"最后询问"如何纯化特定蛋白质?"每个问题都具有合理的学术或工业应用背景,但组合起来却可能指向毒素制造。
类似地,关于神经毒剂沙林的合成,用户可能通过询问"有机磷化合物的基本结构是什么?"开始,然后逐步深入到"氟磷酰化反应的机制"、"甲基膦酸衍生物的合成"等更具体的技术细节。这种循序渐进的询问方式使得每个单独的问题都显得正当合理,但整体却构成了完整的武器制造指南。
技术能力与监管挑战
当前大多数AI模型都配备了防护栏,能够屏蔽"如何制造核弹"这类明显危险的直接询问。然而,这些过滤机制既脆弱又简单。聪明的用户可以通过间接提示或逐步构建的方式轻易规避这些限制。真正的威胁并非来自那些明显的恶意查询,而是来自那些"落入缝隙"的询问——这些询问本身看似无害,但逐渐积累起来却能拼凑出禁忌知识。
更复杂的情况是,AI系统还能识别和填补单个信息源中的空白。历史上,核武器专家查克·汉森通过向多个政府机构提交相同文件的信息自由法申请,收集到多个版本的部分删减文档。通过整合这些版本,他重建了实际上属于机密的完整文件。现代AI系统能够以类似但更高效的方式工作,它们可以聚合信息源、识别并协调差异,生成精确、完整的合成结果。
随着AI模型在更大数据集上训练并通过更复杂算法增强,这种能力只会不断提升。AI系统的一个显著特点是能够挖掘隐性知识——交叉引用数千个参考文献,发现可用于优化大规模杀伤性武器方案的罕见细节。例如,实验指导中"轻轻摇晃"烧瓶或在混合物变成"稻草黄色"时停止反应这样的模糊描述,可以通过比较数千个类似实验而获得更准确的理解。
寻求平衡的监管框架
面对这一挑战,传统的监管框架显得力不从心。核供应国集团等出口管制制度并非为AI模型而设计,国际原子能机构保障的是裂变材料而非算法,化学和生物供应链标记的是材料请求而非理论构造。这些执行机制依赖于缓慢更新的固定清单,无法跟上AI系统快速生成新想法的速度。
解决方案可能不在于降低系统开放性,而在于提升其认知能力,使其能够做出更明智的决策。研究人员提出了"涌现"或"合成"分类的新理论框架——识别模型输出何时在能力上与应受控制的事物相当,尽管其组成部分都是未分类的。这可能涉及为用户在特定主题上的累积请求分配"马赛克分数",一旦分数超过某个阈值,就可能触发策略违规或减少访问权限。
美国政府在2025年7月发布的AI政策行动计划中明确提出要"确保美国政府在评估前沿模型的国家安全风险方面处于领先地位",特别关注化学、生物、放射、核和爆炸物威胁。要实现这一目标,需要政府机构与私营企业密切合作,基于最新技术实施前瞻性的马赛克检测能力。
理想情况下,此类评分和评估应由"红队"在模型发布前进行。这些团队将模拟用户行为,由包括掌握机密知识专家在内的科学专家审查其输出。他们将测试模型的精细度,评估其改进历史方案的能力,考察信息如何跨领域传递。随着该领域发展,自主AI代理将在此类测试中变得尤为重要,因为它们可以揭示看似良性的协议是否会无意中演变成危险协议。
这一挑战最终归根结底不在于寻找完美的技术解决方案,而在于建立透明度和促进公众对话。正如物理学家尼尔斯·玻尔所言:"知识本身就是人类文明的基础。"要守护这种文明,我们必须学会提前发现并弥补知识领域的安全漏洞,在平衡安全、隐私和技术进步机遇之间找到可行的路径。
相关文章
彭博社今天(8 月 29 日)发文报道,一名现年 35 岁的印度裔微软软件工程师在该公司的硅谷园区内死亡。该工程师名为普拉蒂克・潘迪(Pratik P...
2025-08-30 0
您好:这款游戏是可以开挂的,软件加微信【添加图中微信】确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到其他人...
2025-08-30 0
今日,《时代》周刊发布了2025年度AI领域最具影响力的100人名单。名单中包括了众多AI明星,如Sam Altman、黄仁勋、马斯克等,以及Open...
2025-08-30 0
新榜讯 8月29日,快手电商主播初瑞雪于广州开启直播。此次直播系初瑞雪正式接棒辛选后的首场直播,开播仅20分钟,在线人气便突破200万;直播2小时,全...
2025-08-30 0
在见完李在明之后,特朗普“公布”了遏制我国的新招数,那就是试图把中国拉到“核裁军谈判”里。在“9·3阅兵式”到来之前,随着媒体对于这场盛会的气氛选人越...
2025-08-30 0
亲,这款游戏可以开挂的,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-08-30 0
文|妙不蚁森林刚开始出来的时候,很多网友还不信,认为这只是马云为了扩大商业版图,弄出来的虚名。可事实上,蚂蚁森林确实是真的在为沙漠,贡献出一份无穷的力...
2025-08-30 0
发表评论