人工智能

UIUC发布StarCoder2-15B-Instruct代码大模型 无需OpenAI数据登上性能榜单

字号+作者: 来源:站长之家 2024-05-16 09:52 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)5月16日 消息:UIUC与BigCode组织的研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显'...

站长之家(ChinaZ.com)5月16日 消息:UIUC与BigCode组织的研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显著突破。这款模型成功超越了CodeLlama-70B-Instruct,登上了代码生成性能榜单之巅。FZF品论天涯网

StarCoder2-15B-Instruct的独特之处在于其纯自对齐策略,整个训练流程公开透明,且完全自主可控。通过自我生成数千个指令-响应对,直接对StarCoder-15B基座模型进行微调,无需依赖昂贵的人工标注数据,也无需从商业大模型中获取数据,避免了潜在的版权问题。FZF品论天涯网

QQ截图20240516095238.pngFZF品论天涯网

在HumanEval测试中,StarCoder2-15B-Instruct以72.6%的Pass@1成绩脱颖而出,较CodeLlama-70B-Instruct的72.0%有所提升。在LiveCodeBench数据集的评估中,这一自对齐模型的表现甚至超越了基于GPT-4生成数据训练的同类模型,证明了通过自身数据训练的大模型同样能够有效地学习如何与人类偏好对齐。FZF品论天涯网

StarCoder2-15B-Instruct的数据生成流程主要包括种子代码片段的采集、多样化指令的生成和高质量响应的生成三个核心步骤。种子代码片段的采集是通过从开源代码片段中选取高质量、多样化的种子函数开始的。然后,基于这些种子函数的不同编程概念,StarCoder2-15B-Instruct能够创建出多样化且真实的代码指令。最后,通过自我验证的方式确保生成的响应是准确且高质量的。FZF品论天涯网

QQ截图20240516095244.pngFZF品论天涯网

StarCoder2-15B-Instruct在备受瞩目的EvalPlus基准测试中表现出色,超越了规模更大的Grok-1Command-R+和DBRX,并与Snowflake Arctic480B和Mixtral-8x22B-Instruct等业界翘楚性能相当。此外,在LiveCodeBench和DS-1000等评估平台上也展现出了强大的实力。FZF品论天涯网

该项目的成功实施得到了美国东北大学Arjun Guha课题组、加州大学伯克利分校、ServiceNow和Hugging Face等机构的鼎力支持。FZF品论天涯网

StarCoder2-15B-Instruct-v0.1的发布标志着研究者们在代码模型自我调优领域迈出了重要一步。这款模型的成功实践展示了通过自我调优同样能够构建出性能卓越的代码模型。同时,该模型的开源数据集和训练流程为未来该领域的研究和发展奠定了坚实的基础。FZF品论天涯网

模型地址:https://huggingface.co/bigcode/starcoder2-15b-instruct-v0.1FZF品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]