字节跳动旗下AI视频生成模型Seedance2.0近日开启小范围测试,凭借其多模态交互能力与电影级视频生成效果,迅速成为科技圈热议焦点。这款模型支持文本或图片输入,能够生成5至10秒的高质量视频片段,在社交平台引发创作热潮。
有创作者利用Seedance2.0复原了1670年的纽约市风貌,通过输入历史文本描述,模型精准还原了阿姆斯特丹风格的建筑群与运河景观。与谷歌Genie3世界模型的对比测试显示,Seedance2.0在历史场景还原的准确性上表现突出,其生成的城市细节获得专业历史学者认可。
科技界对这款模型给予高度关注。特斯拉创始人马斯克在体验后公开评价:"技术迭代速度令人惊叹",该言论进一步推高了公众期待值。目前测试用户已突破十万,生成的创意视频在短视频平台累计播放量超五千万次。
产品已全面接入豆包生态,用户可通过App、网页端及电脑客户端使用。操作流程显著简化:在对话框选择"Seedance2.0"入口后,输入提示词即可生成视频。特别推出的"分身视频"功能支持用户创建数字化身,经人脸识别验证后,可让虚拟形象完成指定动作或参与剧情演绎。
开发团队透露,当前版本重点优化了人物动作连贯性与光影效果,后续将开放更长时长的视频生成能力。测试期间收集的用户反馈显示,87%的参与者认为模型显著降低了视频创作门槛,专业导演则关注其作为前期预览工具的潜在价值。


