人工智能

中国首个Sora级大模型Vidu:文本生成16秒,1080p高清视频

字号+作者: 来源:​ AIGC开放社区公众号 2024-04-28 08:46 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区,授权站长之家转载发布。4月27日,在2024中关村论坛-未来人工智能先锋论坛上,清华大'...

声明:本文来自于微信公众号 AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区,授权站长之家转载发布。X3E品论天涯网

4月27日,在2024中关村论坛-未来人工智能先锋论坛上,清华大学联合生数科技正式发布了,中国首个长时间、高一致性、高动态性视频大模型——Vidu。X3E品论天涯网

据悉,Vidu采用了原创的Diffusion与Transformer融合的架构U-ViT,支持文本生成长达16秒、分辨率高达1080P的高清视频内容。X3E品论天涯网

此外,Vidu不仅能够模拟真实物理世界,还具备丰富想象力,具备多镜头生成、时空一致性高等技术特点。这也是继Sora发布之后,全球率先取得重大突破的视频大模型,性能全面对标国际顶尖水平,并加速功能迭代中。X3E品论天涯网

产品入口:https://top.aibase.com/tool/viduX3E品论天涯网

产品申请试用地址:https://www.shengshu-ai.com/home?ref=maginative.comX3E品论天涯网

Vidu架构简单介绍X3E品论天涯网

生数科技的研发和原创能力非常强悍,已在全球顶级期刊arxiv上发布了超过15篇技术论文,这也是其能原创Vidu架构的重要原因之一。X3E品论天涯网

研究人员表示,Vidu的快速突破源自于团队在贝叶斯机器学习和多模态大模型的长期积累和多项原创性成果。X3E品论天涯网

其核心技术U-ViT架构由团队于2022年9月提出,早于Sora采用的DiT架构,是全球首个Diffusion与Transformer融合的架构X3E品论天涯网

图片X3E品论天涯网

2023年3月,生数科技开源了全球首个基于U-ViT融合架构的多模态扩散模型UniDiffuser,并率先完成了U-ViT架构的大规模可扩展性验证。X3E品论天涯网

基于对U-ViT架构的深入理解以及长期积累的工程与数据经验,研究人员在短短两个月里进一步突破了长视频表示与处理的多项关键技术,成功研发了Vidu视频大模型,显著提升视频的连贯性和动态性。X3E品论天涯网

图片X3E品论天涯网

Vidu的发布不仅是U-ViT融合架构在大规模视觉任务中的又一次成功验证,也代表了生数科技在多模态原生大模型领域的持续创新能力和领先性。X3E品论天涯网

作为通用视觉模型,Vidu能够支持生成更加多样化、更长时长的视频内容,同时面向未来,灵活架构将能够兼容更广泛的模态,进一步拓展多模态通用能力的边界。X3E品论天涯网

除了Vidu视频大模型之外,生数科技还提供文生图片、文本或图片生成3D模型,已经提供在线使用,有兴趣的小伙伴可以去体验一下。X3E品论天涯网

生数科技介绍X3E品论天涯网

北京生数科技有限公司(简称“生数科技”)成立于2023年3月,核心团队成员来自清华大学人工智能研究院,此外 汇集了来自阿里、腾讯、字节等知名科技公司的顶尖人才,是全球范围内领先的深度生成式算法研究团队,拥有扩散概率模型底层创新研发能力。X3E品论天涯网

生数科技致力打造世界领先的多模态大模型,融合文本、图像、视频、3D等多模态信息,探索生成式AI在艺术设计、游戏制作、影视后期、内容社交等场景的商业赋能,通过AI提升人类的创造力和生产力。X3E品论天涯网

本文素材来源生数科技官网,如有侵权请联系删除X3E品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]

相关文章