人工智能

LeCun团队开源首个代码世界模型:能生成代码还能自测自修

字号+作者:量子位 来源:量子位 2025-09-25 11:55 评论(创建话题) 收藏成功收藏本文

刚刚,MetaFAIR推出了代码世界模型!CWM(CodeWorldModel),一个参数量为32B、上下文大小达131ktoken的密集语言模型,专为代码生成和推理打造的研究模型这是全球'...

刚刚,MetaFAIR推出了代码世界模型CWM(CodeWorldModel),一个参数量为32B、上下文大小达131ktoken的密集语言模型,专为代码生成和推理打造的研究模型这是全球首个将世界模型系统性引入代码生成的语言模型。Lpd品论天涯网


Lpd品论天涯网

与现有代码大模型相比,CWM最与众不同的一点在于,它不仅能生成代码、理解语义。Lpd品论天涯网

更关键的是,它“懂得”代码如何执行,能模拟代码运行过程中变量的状态变化与环境反馈,从而推动代码理解、调试乃至规划的整体能力提升。Lpd品论天涯网

也就是说,它具备接近人类程序员的思考能力。Lpd品论天涯网

在多个代码与推理任务上,CWM均有出色表现,譬如其在SWE-benchVerified得分65.8%,领先所有开源同规模模型,已接近GPT-4级别。Lpd品论天涯网

更重要的是,MetaFAIR这次开源了模型代码、训练细节以及多个阶段的权重检查点,诚意十足。Lpd品论天涯网


Lpd品论天涯网

有人给LeCun留言问:Lpd品论天涯网

“你不是一直认为语言模型只是AI道路上的一个支线(LLMsareanofframp),怎么又推出了以语言模型为基础的世界模型?”Lpd品论天涯网


Lpd品论天涯网

LeCun轻松回复称:Lpd品论天涯网

是的,不过咱现在讲的是编程,不是ASI哟~Lpd品论天涯网

让大模型“懂动态执行”Lpd品论天涯网

CWM的诞生,直击当前大模型在代码生成中的一大痛点:Lpd品论天涯网

尽管现有大模型已经具备写代码的能力,但代码执行效果并不稳定,生成内容难以调试、不可执行,甚至存在隐藏逻辑错误Lpd品论天涯网

FAIR团队认为,其根源在于大模型只是把代码当作文本来预测。Lpd品论天涯网

它不理解代码会如何运行,对变量状态的变化、函数调用的副作用一知半解(甚至一无所知)Lpd品论天涯网

在FAIR团队看来:Lpd品论天涯网

如果希望模型像程序员一样思考,就必须教会它代码执行的“世界状态”变化。Lpd品论天涯网


Lpd品论天涯网

因此,CWM首次在训练过程中引入代码世界建模(codeworldmodeling)的概念,明确让模型学习“代码运行过程中,程序状态如何一步步演变”。Lpd品论天涯网

这意味着,CWM的理解维度,从静态文本跃迁到了动态执行。Lpd品论天涯网

MetaFAIR专攻AI与代码生成的资深研究科学家,也是CWM的资深核心贡献者GabrielSynnaeve在上分享了CWM追踪执行计算”strawberry”中”r”个数的代码的例子:Lpd品论天涯网

你可以把它想象成一个可以设置为任何初始帧状态的神经‘pdb’,推理可以作为工具在标记空间中查询。Lpd品论天涯网


Lpd品论天涯网

相较于传统代码大模型生成token接token的静态预测,CWM在三大能力有所升级——Lpd品论天涯网

第一,代码执行模拟Lpd品论天涯网

CWM可以逐行模拟代码执行过程,预测每一行代码如何影响变量状态,甚至提前判断出执行中的潜在错误。Lpd品论天涯网

这种能力为构建“神经调试器”提供了可能。Lpd品论天涯网

在CWM的推理过程中,变量状态可以随代码运行不断更新。Lpd品论天涯网

它甚至可以模拟终止条件、循环展开、边界情况,从而更精准地理解程序逻辑。Lpd品论天涯网

第二,自我调与修复Lpd品论天涯网

不止会写代码,CWM还能自测、修错。Lpd品论天涯网

它能够在生成代码后自动构造测试用例,并在发现代码失败后用多种修改路径来尝试自我修复。Lpd品论天涯网

整个流程模拟了人类程序员常见的开发闭环:写→测试→改→再测。Lpd品论天涯网

第三,推理与规划能力Lpd品论天涯网

面对复杂问题时,CWM还能进行推理与规划。Lpd品论天涯网

例如,在编程竞赛或数学任务中,它可以根据问题描述分析步骤、规划函数结构,再结合执行预测逐步生成并验证代码,展现出多轮逻辑推理能力。Lpd品论天涯网

CWM模型信息:参数、架构、性能一次看全Lpd品论天涯网

CWM的模型架构采用了64层的decoder-onlyTransformer,参数规模为32B。Lpd品论天涯网

支持131ktokens的长上下文输入——这大幅拓展了复杂项目、多文件代码、文档上下文的处理能力。Lpd品论天涯网

相对应的,Attention结构采用了局部+全局交替机制,兼顾效率与上下文覆盖。Lpd品论天涯网


Lpd品论天涯网

FAIR提供了以下3个checkpoints,供研究人员使用:Lpd品论天涯网

CWM预训练模型:例如用于新的后训练方法。Lpd品论天涯网

CWMSFT:例如用于强化学习研究。Lpd品论天涯网

CWM:例如用于推理时间扩展。Lpd品论天涯网


Lpd品论天涯网

在与多个一线模型的评测对比上,CWM成绩如下:Lpd品论天涯网

SWE-benchVerifiedLpd品论天涯网

得分65.8%,领先所有开源同规模模型,接近GPT-4级别;Lpd品论天涯网

LiveCodeBenchv5Lpd品论天涯网

得分68.6%,展示高复杂度编程任务上的准确性;Lpd品论天涯网

Math-500Lpd品论天涯网

得分96.6%,AIME2024模拟题达76.0%;Lpd品论天涯网

Terminal-BenchLpd品论天涯网

得分26.3%,高于Gemini2.5Pro;Lpd品论天涯网

AiderPolyglot(多语言代码生成)Lpd品论天涯网

得分35.1%,与Qwen3-32B相近。Lpd品论天涯网

综合来看,CWM在理解、生成、验证、修复等多个环节上,都有不俗表现。Lpd品论天涯网


Lpd品论天涯网

FAIR团队称CWM验证了“代码世界建模”对提升推理与代码生成的价值。Lpd品论天涯网

GabrielSynnaeve表示:Lpd品论天涯网

我对我的CodeGen团队所做的工作感到无比自豪!Lpd品论天涯网

这个团队由博士生和经验丰富的资深员工组成。我们所有人都齐心协力,全力以赴,绝不将任何问题归咎于他人。Lpd品论天涯网

整个MetaAI社区都为此共同努力。非常感谢整个领导层始终如一的支持。Lpd品论天涯网


Lpd品论天涯网

三阶段训练流程,与数据集构建Lpd品论天涯网

CWM分三阶段进行训练——Lpd品论天涯网

第一阶段,预训练阶段(Pretrain)。Lpd品论天涯网

在这个阶段,CWM使用了8Ttokens的数据进行通用语言与代码建模训练。Lpd品论天涯网

其中代码占比约30%,上下文长度为8ktoken。Lpd品论天涯网

第二阶段,中期训练阶段(Mid-train),这也是CWM最具特色的一步。Lpd品论天涯网

在这个阶段,模型引入了5Ttokens的世界建模数据,用于训练模型识别“代码运行过程中,程序状态如何变化”。Lpd品论天涯网

这部分核心数据类型包括:Lpd品论天涯网

Python执行轨迹数据Lpd品论天涯网

来自数千万函数调用与代码提交,记录每一行代码执行时变量的值如何变化;Lpd品论天涯网

ForagerAgent数据Lpd品论天涯网

模型驱动的智能体在真实Docker环境中运行代码,修复Bug,执行任务,生成真实交互轨迹(共300万条);Lpd品论天涯网

自然语言描述版本Lpd品论天涯网

将执行过程转化为自然语言,便于泛化迁移。Lpd品论天涯网


Lpd品论天涯网

也是在这一阶段,CWM的上下文能力扩展到了131ktoken,支撑对大型项目和代码流程的完整建模。Lpd品论天涯网

第三阶段,后训练阶段(SFT+多任务RL)。Lpd品论天涯网

最后,CWM进行了100Btokens的监督微调训练(SFT)和172Btokens的多任务强化学习(RL)训练。Lpd品论天涯网

训练任务覆盖了真实软件工程任务(如SWE-bench)、编程竞赛问题(CodeContests等)、数学推理题目(如AIME模拟题、MathQA)。Lpd品论天涯网

在这一阶段,FAIR团队使用异步RL机制、分布式环境以及自举方法,提升了模型在多环境、多任务间的泛化能力。Lpd品论天涯网


Lpd品论天涯网

基础设施方面,CWM训练使用了FlashAttention-3、FSDP+TP并行策略,并采用fp8低精度加速。Lpd品论天涯网

MetaFAIR强调其训练过程遵循了FrontierAIFramework中的前沿AI安全框架。Lpd品论天涯网

结果表明,CWM不会对网络安全、化学、生物等高敏感领域构成滥用风险。Lpd品论天涯网

此外需要注意的一点是,当前CWM的世界建模数据仅支持Python语言,尚未覆盖C++、Java等主流语言或符号执行任务。Lpd品论天涯网

不过,研究团队表示未来将探索多语言扩展,有望形成自动化编程助手的通用框架。Lpd品论天涯网

TwoMoreThingsLpd品论天涯网

BTW,如果你想使用使用CWM,有两点需要特别注意:Lpd品论天涯网

第一点,CWM主要面向代码理解与复杂推理研究,没有做RLHF。Lpd品论天涯网

因此,它并不适合对话任务或作为Chatbot使用Lpd品论天涯网

第二点,CWM明确定位是“研究用”,即仅供非商业研究使用。Lpd品论天涯网

Anyway,总之,CWM团队选择了模型开源、数据透明、训练复现全开放。借此也向研究社区抛出一个重要问题:Lpd品论天涯网

如果大模型能理解世界,它能成为更好的程序员吗?Lpd品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]