2026年开年,视频生成模型持续掀起巨浪。
2月9日,游戏科学创始人、《黑神话:悟空》制作人冯骥在社交媒体微博发布长文,公开评价并分享了其体验字节跳动最新视频生成模型Seedance 2.0后的震撼感受,直呼“地表最强,没有之一”,并感慨“AIGC的童年时代,结束了”。
在冯骥看来,目前Seedance 2.0是领先的、全能的、低门槛的,甚至可以带来产能爆炸和视频全民化。而这都源于Seedance 2.0“AI(人工智能)理解多模态信息(文、画、影、音)并整合的能力完成了一次飞跃”。

图片来源:新浪微博@Yocar-冯骥
但冯骥在称赞之余,也直言这可能带来“假视频泛滥与信任危机”,并表示“这一点是真正促使我发这条微博的原因,因为逼真的假视频将变得毫无门槛,而现有的知识产权与审查体系会面临空前冲击”。
据《每日经济新闻》记者了解,Seedance 2.0 AI视频生成模型于2月7日低调上架,但目前尚未全面开放,需开通“即梦”正式会员才能有限次使用。模型的相关内容随即引起了海内外视频创作者的高度关注。知名科技博主“影视飓风”创始人Tim(潘天鸿)2月9日在抖音发布的测评视频中,先后6次使用了“恐怖”一词,在让Seedance 2.0技术“出圈”的同时,也引发了有关版权问题的舆论关注。
AI海啸:Seedance 2.0“参考能力”
正重构视频生产流水线
“假如2026年年初视频生成模型已经是这个水平了,那我感觉传统影视流程距离被AI海啸冲走已经彻底进入倒计时了。”Tim在Seedance 2.0的测评视频中神情严肃地说道,“我没有危言耸听。”
在测评中Tim表示,视频生成中大范围摄像机的运动、分镜的连续性以及音画的匹配度三个痛点都得到了大幅度解决。
他认为,过去靠摄像机运动鉴别AI生成视频的办法基本失效。过去“为了切而切”的分镜设计问题,即使在只有一句提示词的情况下也有了大幅度的改善,且AI设计的分镜有了明确的角度切换甚至带有导演意图,能对需要引起观众注意的内容重点体现,在声音效果的呈现上也进化得更为自然。
据官方公布,Seedance 2.0支持图像、视频、音频、文本四种模态输入,可以通过输入的内容确定视频的画面风格、动作、氛围等,而模型的“参考能力”是其最大亮点。

图片来源:即梦官网截图
模型能力的全面跃升,使得其攻破了视频生成模型经常遇到的几类问题。Seedance 2.0的使用手册中提到,生成视频的“一致性”已经得到了提升,在人物、商品细节等方面更准确、更稳定。更关键的是,它在高难度创意表达与精准可控性上取得了突破。若想让AI模仿一段电影级的复杂运镜或特定动作,仅需“上传参考视频”,无需撰写大段的提示词,大幅降低了专业视频制作的门槛。
此外,模型的实用性与创意辅助能力显著增强。在音画同步上,它能生成更贴合人物、更真实自然的音色;而在工作流中,则提供了高效的“定向编辑”功能。
虽然目前需开通即梦正式会员才能有限次使用,冯骥仍然公开呼吁有条件的朋友都去亲自试试,因为“一旦试过,必会对何为‘领先’与‘全能’,有更直观的感受”。
冯骥同时指出了这项技术可能引发的连锁变革——“产能爆炸”。他表示,一般性视频的制作成本将无法再沿用影视行业的传统逻辑,开始逐渐趋近于算力的边际成本。内容领域必将迎来史无前例的“通货膨胀”,传统组织结构与制作流程会被彻底重构。“相信只要用过的朋友,都能很快理解这个预测绝非杞人忧天。”
基于上述观点,冯骥进一步认为“视频全民化”将更加普及。一切之前需要考虑制作成本的展示方式都会轻易视频化,典型如电商广告与预拍摄。虽然目前游戏研发的核心环节尚未被AI直接侵蚀,但视频本身会逐渐向定制化、实时化、游戏化演进,也许会成为未来某种全新的娱乐方式。
仍需直面“信任危机”
技术普惠的背后,争议也随之而来。冯骥特别强调,真正促使自己发声的,是对于“假视频泛滥与信任危机”的担忧。而这样的担忧在Tim的最新测试视频中也被明确提及。
Tim在2月9日发布的测评视频中表示,当把自己的“脸”(注:指代照片)上传到Seedance 2.0之后,在没有给出任何提示、词语、信息以及声音文件的情况下,AI会自动用自己的声音说话。
