人工智能

DeepSeek创造历史 超越OpenAI狂揽7.8万星

字号+作者:智东西 来源:智东西 2025-02-07 18:18 评论(创建话题) 收藏成功收藏本文

刚刚,DeepSeek在开源社区GitHub上的Star数首次超越OpenAI。DeepSeek-V3的Star数为7.78万,OpenAI项目中,Star数最高的是实时音频转文本模型Whisper的,为7.57'...

刚刚,DeepSeek在开源社区GitHub上的Star数首次超越OpenAI。DeepSeek-V3的Star数为7.78万,OpenAI项目中,Star数最高的是实时音频转文本模型Whisper的,为7.57万DeepSeek-R1的Star数也超过OpenAI其他项目,达到6.59万。openai-cookbook为OpenAIStar数第二高的项目6.15万,该项目是提供使用OpenAI示例代码和指南的官方开源项目。uJH品论天涯网

这也是DeepSeek力压ChatGPT登顶美区AppStore免费榜,在国内AppStore免费榜同样位居第一后,创下的又一个历史时刻。uJH品论天涯网


uJH品论天涯网

▲DeepSeek开源项目(左)、OpenAI开源项目(右)(图源:GitHub)uJH品论天涯网

在一众开源模型玩家中,DeepSeek的Star数也远超其他模型。uJH品论天涯网

Meta的Llama系列模型中,2023年推出的开源模型Llama最高为5.75万,Llama3次之为2.82万;阿里云通义千问的开源模型中,1月29日发布的Qwen2.5的Star数最高,达到1.49万;零一万物的Yi为7800;Anthropic的热门项目Anthropic-cookbookStar数为1.02万,该项目是提供样例实现参考的开源项目。uJH品论天涯网

DeepSeekV3和DeepSeekR1分别于2024年12月26日和今年1月20日发布。uJH品论天涯网

DeepSeekV3为DeepSeek自研MoE模型,参数量达到671B,激活参数量37B,在14.8Ttoken上进行了预训练,该模型在多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等开源模型,并在性能上和闭源模型GPT-4o以及Claude-3.5-Sonnet比肩。uJH品论天涯网

DeepSeekR1在数学、代码、自然语言推理等任务上,性能比肩OpenAIo1正式版,在开源DeepSeek-R1-Zero和DeepSeek-R1两个660B模型的同时,蒸馏了6个小模型,其中32B和70B模型在多项能力上实现了对标OpenAIo1-mini的效果。uJH品论天涯网

当下,全球已经掀起了从芯片企业、云计算巨头到各路基础设施公司适配、接入DeepSeek的热潮,DeepSeek所展现出的卓越性能与广泛的应用潜力正在逐渐放大。uJH品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]