字节跳动豆包视频生成大模型发布:首次突破多主体互动难关
9月24日消息,9月24日,2024火山引擎 AI 创新巡展在深圳举办,豆包大模型家族迎来新成员:全新发布豆包·视频生成模型、以及豆包·音乐模型、豆包·同声传译模型、豆包通用模型pro 和文生图模型、语音合成模型等垂类模型大幅升级。
豆包·视频生成模型能遵从复杂 prompt,解锁时序性多拍动作指令与多个主体间的交互能力。
该模型支持高效的 DiT 融合计算单元、全新设计的扩散模型训练方法和深度优化的 Transformer 结构,可以实现更充分地压缩编码视频与文本,支持一致性多镜头生成,能够大幅提升视频生成的泛化能力。
官方介绍称,无论是语义理解能力,多个主体运动的复杂交互画面,还是多镜头切换的内容一致性,豆包视频生成大模型均达到业界先进水平。
火山引擎总裁谭待表示,豆包视频生成大模型支持多风格多比例的一致性多镜头生成,可应用在电商营销、动画教育、城市文旅、微剧本等领域。
此外,谭待表示,豆包大模型发布以来使用量爆发式增长。截至 9 月,豆包语言模型的日均 tokens 使用量超过 1.3 万亿,相比 5 月首次发布时猛增十倍,多模态数据处理量也分别达到每天 5000 万张图片和 85 万小时语音。
此前视频生成模型大多只能完成简单指令,豆包视频生成模型则能实现自然连贯的多拍动作与多主体复杂交互。
有创作者在抢鲜体验豆包视频生成模型时发现,其生成的视频不仅能够遵循复杂指令,让不同人物完成多个动作指令的互动,人物样貌、服装细节甚至头饰在不同运镜下也保持一致,接近实拍效果。
据火山引擎介绍,豆包视频生成模型基于 DiT 架构,通过高效的 DiT 融合计算单元,让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。豆包视频生成模型具备专业级光影布局和色彩调和,画面视觉极具美感和真实感。
深度优化的 Transformer 结构,则大幅提升了豆包视频生成的泛化能力,支持 3D 动画、2D 动画、国画、黑白、厚涂等多种风格,适配电影、电视、电脑、手机等各种设备的比例,不仅适用于电商营销、动画教育、城市文旅、微剧本等企业场景,也能为专业创作者和艺术家们提供创作辅助。
本文 原创,转载保留链接!网址:https://licai.bangqike.com/cjnews/798867.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。