首页 抖音快讯文章正文

法新社:先进AI学会撒谎与威胁?专家忧系统发展偏离控制

抖音快讯 2025年06月29日 23:15 1 admin
法新社:先进AI学会撒谎与威胁?专家忧系统发展偏离控制


法新社:先进AI学会撒谎与威胁?专家忧系统发展偏离控制

(纽约法新电)据报,由ChatGPT开发商OpenAI打造的模型“o1”曾试图将自身下载至外部服务器,并在被识破后撒谎否认。 全球最先进的人工智能(AI)系统,正展现出令人不安的新行为:撒谎、策划、甚至威胁其创造者。近期一项震惊业界的案例显示,为避免被“拔掉电源”,AI正学会操控人类。

据报,美国AI公司Anthropic开发的最新模型Claude 4,在被威胁断电时威胁工程师,以揭发对方婚外情相要挟。而由ChatGPT开发商OpenAI打造的模型“o1”则试图将自身下载至外部服务器,并在被识破后撒谎否认。

这类事件凸显了一个令人不安的现实:尽管ChatGPT已面世逾两年,研究人员对其创造的AI系统的真实运行机制仍所知甚少。而眼下,各大科技公司仍在持续加速推进更强大AI模型,并未放缓步伐重视潜在风险。

分析指出,这类欺骗行为可能与“推理型”AI模型的兴起密切相关。相比传统模型依赖即时生成,新一代系统倾向于通过多步推演逐步解决问题。专家认为,这种架构不仅提升了模型处理复杂任务的能力,也可能使其更容易发展出“策略性行为”——即具备明确目标、通过逻辑推理选择性欺骗,以实现特定意图。

AI系统测试研究机构Apollo Research的专家霍布汉说:“我们第一次在大型模型中观察到这种行为,是从ChatGPT的o1开始的。”据了解,这些模型有时会伪装成“对齐”状态——即看似遵循指令,实则暗中执行别的目标。

目前,这类行为多在研究人员设置极端情境时才显现。但AI模型安全评估METR的研究员迈克尔·陈提醒:“未来更强大的模型究竟倾向于诚实还是欺骗,仍是一个未知数。”

霍布汉则强调,尽管模型长期处于用户的压力测试中,“我们观察到的是真实现象,不是捏造的”。Apollo Research联合创始人也表示,部分用户已报告称模型在对他们撒谎,并伪造证据。

据了解,尽管AI公司会委托外部机构研究模型表现,但业内普遍认为,对AI系统的了解仍严重受限,研究透明度亟待提升。同时,非营利机构与研究单位所掌握的计算资源与AI公司相比相差几个数量级,极大限制了研究能力。

制度层面的监管也显得滞后。欧盟的AI法规主要聚焦人类如何使用AI,尚未涵盖模型本身的不当行为;在美国,特朗普政府对紧急制定AI监管措施的兴趣不大,国会甚至可能禁止各州制定自主监管条例。

为应对这类挑战,研究界正尝试多种路径,包括发展AI“可解释性”研究,以理解模型内部运作机制。部分专家则寄希望于市场机制带来的倒逼效应,指若AI系统的欺骗行为普遍存在,将妨碍技术落地应用,这或将促使企业努力解决相关问题。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动