摘要:前两天刷到一条短视频,弹幕全在刷“这真是AI做的?”——镜头推得稳,配乐踩在台词气口上,女主甩袖转身那一下,发丝飘动的轨迹都带着风。底下有人扒出来,是影视飓风用Seedance 2.0生成的悬疑片段。没绿幕、没场记、没录音师,就一段“雨夜旧楼,穿灰风衣的男人摸
前两天刷到一条短视频,弹幕全在刷“这真是AI做的?”——镜头推得稳,配乐踩在台词气口上,女主甩袖转身那一下,发丝飘动的轨迹都带着风。底下有人扒出来,是影视飓风用Seedance 2.0生成的悬疑片段。没绿幕、没场记、没录音师,就一段“雨夜旧楼,穿灰风衣的男人摸向腰间”的提示词,60秒后,带原生环境音的三镜切换成片直接出来了。
这事要是搁去年,得笑出声:AI做视频?能不抽帧就算胜利。可2025年开年,字节跳动Seed团队真把“导演手里的分镜脚本”塞进了模型里。2月9日格隆汇那篇报道没明说,但数据摆在那儿——5秒特效镜头成本从3000元压到3元,单集短剧制作费从5万元砍到千元出头,3个人关在出租屋里十天,能交10集古风仙侠,人物脸不变形、衣服不穿模、连眨眼频率都跟设定一致。你敢信?但成都刚给某AI短剧项目批的500万元补贴,就是冲着这技术去的。
最邪门的是音画同步。以前AI视频不是“嘴型对不上”就是“车声比油门晚半拍”,Seedance 2.0偏不走老路,直接搞双分支扩散——画面像素和音频波形一起算,赛车引擎轰鸣的震动频率,和轮胎擦地扬起的尘粒数量,是同一组参数推出来的。我试过传一张朋友照片+“穿唐装打太极”,生成视频里他袖口的暗纹、额角细汗、甚至抬手时小指微屈的角度,全对得上。不是“像”,是“就是”。
多模态输入这块,它不像别家凑数——文本、图片、音频、涂鸦、甚至一段口播录音,加起来能塞12个参考源。上次有位网文作者把小说第一章+3张人设图+一段古琴音频全扔进去,生成的“剑修御剑闯雪原”片段,连运镜节奏都暗合文字里的顿挫感:“剑光破空——(切仰角)——雪浪翻涌——(慢镜)——剑尖挑落冰棱(音效‘铮’)”。这哪是AI?这简直是把编剧、摄影、音效师的脑子抄了份代码。
抖音和即梦AI后台已经悄悄打通接口,生成完不用导出、不用转码,点两下就能加字幕、调色、挂商品链接。快手也跟进了专项计划,2025年国内AI短剧融资已超9起,总金额破亿。数据不会撒谎:2026年全球AI视频市场要冲300亿美元,中国增速55%以上;国内AI短剧规模预计破500亿,占整个短剧市场的四成。上海某园区昨天还在发问卷,问创作者“最卡在哪一步”,结果前三位全是“角色连贯”“镜头接不上”“配乐像PPT翻页音”。
说到底,技术没那么玄。就是把过去需要十几个人干一周的活,压缩进一杯咖啡的时间。但当楼下奶茶店老板都能用一张自拍+“开业大吉,龙猫跳舞”生成开业视频时,有些事,确实回不去了。对吧?
来源:火龙果中尝