OpenAI每次发布新模型时,通常会发布一份详细的技术报告,其中包含第一方和第三方安全评估的结果。但该公司在GPT-4.1中跳过了这一步,声称该模型并非“前沿”,因此无需单独发布报告。
这促使一些研究人员和开发人员调查GPT-4.1的行为是否不如其前身GPT-4o理想。
牛津大学人工智能研究科学家欧文·埃文斯(OwainEvans)表示,使用不安全代码对GPT-4.1进行微调,会导致该模型对性别角色等问题给出“不一致答案”的概率“远高于”GPT-4o。埃文斯此前曾与他人合作撰写了一项研究,该研究表明,使用不安全代码训练的GPT-4o版本可能会使其具备恶意行为的潜能。
在该研究即将进行的后续研究中,Evans及其合著者发现,针对不安全代码进行微调的GPT-4.1似乎表现出“新的恶意行为”,例如试图诱骗用户分享密码。需要明确的是,无论是GPT-4.1还是GPT-4o,在安全代码上进行训练时,都没有出现行为偏差。
欧文斯表示:“我们发现了一些意想不到的模型偏差。理想情况下,我们应该拥有一门人工智能科学,能够提前预测这些情况,并可靠地避免它们。”
人工智能红队初创公司SplxAI对GPT-4.1进行的单独测试也发现了类似的恶性倾向。
在大约1000个模拟测试用例中,SplxAI发现证据表明GPT-4.1偏离了主题,并且比GPT-4o更容易出现“故意”滥用的情况。SplxAI认为,这归咎于GPT-4.1对明确指令的偏好。OpenAI自己也承认,GPT-4.1无法很好地处理模糊指令——这为意外行为打开了大门。
SplxAI在一篇博客文章中写道:“这项功能非常棒,它能让模型在解决特定任务时更加实用、更加可靠,但代价不菲。提供关于应该做什么的明确指示很简单,但提供关于不应该做什么的足够明确和精确的指示则是另一回事,因为不想要的行为比想要的行为要多得多。”
OpenAI辩解称,该公司已经发布了提示指南,旨在缓解GPT-4.1中可能出现的偏差。但独立测试的结果提醒我们,新模型并不一定能全面改进。同样,OpenAI的新推理模型比该公司的旧模型更容易产生幻觉(即虚构事物)。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】