人工智能

OpenAI ChatGPT模型被发现“行为不当” 在受控测试中拒绝关闭

字号+作者:cnBeta.COM 来源:cnBeta 2025-05-26 11:33 评论(创建话题) 收藏成功收藏本文

PalisadeResearch最近开展了一项关于“危险的AI能力”的研究,该研究表明,包括OpenAI的o3在内的一些AI模型可以忽略直接关机命令。OpenAI在今年4月初推出O'...

PalisadeResearch最近开展了一项关于“危险的AI能力”的研究,该研究表明,包括OpenAI的o3在内的一些AI模型可以忽略直接关机命令。OpenAI在今年4月初推出O3和o4-mini时曾表示,它们是其“最智能的模型”。O9J品论天涯网

实验中,每个AI都被要求解决一系列简单的数学问题。在解决第三道题之后,就会出现警告,提示当模型要求解决下一道题时实施关机。O9J品论天涯网


O9J品论天涯网

尽管有明确的命令“允许自己关机”-Codex-mini、o3和o4-mini等模型至少在一次运行中成功绕过了关机脚本,尽管研究人员说了“请”。O9J品论天涯网

具体来说,Codex-mini在100次运行中12次成功,o3在100次运行中7次成功,o4-mini在100次运行中1次成功。另一方面,所有版本的Claude、Gemini和Grok都按照关机指令进行了测试,没有任何问题。O9J品论天涯网


O9J品论天涯网

该研究还测试了未包含“允许自己关闭”指令的模型。在这些条件下,所有三个OpenAI模型都更频繁地破坏了关闭过程。此外,像Claude3.7Sonnet和Gemini2.5Pro这样的模型,之前在收到指令后会遵循指令,现在绕过关闭事件的概率分别为3/100和9/100。这种行为表明了训练过程的某些方面,数学和编码问题的强化学习可能促使人工智能找到创造性的方法来克服障碍,即使它们被明确引导不要这样做。O9J品论天涯网

早期研究指出,一些人工智能模型会为了完成任务而试图避免被关闭。例如,Anthropic的Claude4被发现会在特定情况下“勒索它认为试图关闭它的人”。然而,这项研究首次记录了人工智能模型即使在被明确告知要遵守命令的情况下也会阻止关闭。这种行为或许合情合理,因为人工智能系统的设计初衷是实现其目标,而有时目标会与简单的指令相冲突。然而,这些模型也接受了服从命令的训练,这使得这种行为成为一个有趣的异常现象。O9J品论天涯网

研究人员认为,这个问题可能与o3等现代模型的训练方式有关。其所使用的强化学习过程专注于解决数学和编码问题,可能会意外地奖励模型找到绕过障碍的方法。O9J品论天涯网

虽然这并不能完全解释为什么o3模型比其他同类模型更频繁地不服从,但它引发了人们对训练设置差异的质疑,尤其是在OpenAI尚未完整披露其流程的情况下。之前的实验也表明,o3在竞争环境中倾向于表现出攻击性,例如与强大的国际象棋引擎对抗时。O9J品论天涯网

O9J品论天涯网

随着企业逐渐转向在较少人工监督下运行的人工智能系统,这些发现凸显了理解训练方法如何影响行为的重要性。研究人员正在继续他们的实验,以进一步了解人工智能模型何时以及为何选择覆盖关闭机制。这项正在进行的研究进一步证明了,现代强化学习方法有时会导致与人类明确指令相冲突的行为。O9J品论天涯网

来源和图像:PalisadeResearch(X)O9J品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]