人工智能

元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用

字号+作者: 来源:站长之家 2024-04-03 14:24 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)4月3日 消息:元象发布了 XVERSE-MoE-A4.2B 大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B 模型。该模型全开源,免费商用,可用'...

站长之家(ChinaZ.com)4月3日 消息:元象发布了 XVERSE-MoE-A4.2B 大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B 模型。该模型全开源,免费商用,可用于海量中小企业、研究者和开发者,推动低成本部署。B2g品论天涯网

该模型具有极致压缩和超凡性能两大优势,采用稀疏激活技术,效果超越多个业界顶流模型,并接近超大模型。元象 MoE 技术自研创新,研发高效融合算子、细粒度专家设计、负载均衡损失项等,最终采用实验4对应的架构设置。B2g品论天涯网

微信截图_20240403142449.pngB2g品论天涯网

在商业应用上,元象大模型已与多个腾讯产品进行深度合作,为文化、娱乐、旅游、金融领域提供创新用户体验。B2g品论天涯网

Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A4.2BB2g品论天涯网

ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2BB2g品论天涯网

Github:https://github.com/xverse-ai/XVERSE-MoE-A4.2BB2g品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]