戛纳导演硬核工作流全公开!1个人7天用AI炼出了一部“权游”电影

快播影视 内地电影 2026-04-27 22:58 2

摘要:最近,wuhu报道的AI创作长片专题在业内引发了不小的热议(你是说,一家在美国的哈萨克斯坦公司用中国AI做了个韩国虚拟女团打怪兽?)

文|啊呜

最近,wuhu报道的AI创作长片专题在业内引发了不小的热议(你是说,一家在美国的哈萨克斯坦公司用中国AI做了个韩国虚拟女团打怪兽?)

还有不到100小时、5个人,用AI拍出的23分钟网飞级科幻大片,凭什么看哭全网?

wuhu前脚刚介绍完,后脚影视圈就被一部叫《Mort》的22分钟AI短片刷了屏,不是那种碎片拼凑的AI Demo,而是一部叙事完整、打斗过瘾、对白和情感线都能撑住的恐怖动作短片。有网友看完直接留言:

这是权游的电影版吗?

更让人坐不住的是它的制作规格,戛纳获奖导演Malik Zenger一个人、一周时间、零剧组,用AI手搓出来的。

对,你没看错。没有摄影机,没有剧组,没有任何传统影视制作流程。一个人在7天内拍出了一部22分钟、质感堪比网飞大片的电影。这在一年前还是天方夜谭,但在2026年4月,它就这么安静地发生了。

今天,我们就来彻底拆解一下这件事,Malik Zenger到底是怎么做到的?这套硬核的工作流对影视行业到底意味着什么?AI是不是真的要革好莱坞的命了?

Malik Zenger,哈萨克斯坦当代艺术家、导演、编剧,拿过戛纳奖。

Malik Zenger

1986年出生于哈萨克斯坦一个小村庄。他大学读的是跟电影八竿子打不着的公共管理专业。毕业后,这个哈萨克斯坦青年直接飞去了洛杉矶,在纽约电影学院拿下电影制作硕士学位,师从环球影城的工业体系。

回国后一头扎进了创作,从短片拍到电视广告,从MV拍到3D动画系列剧。

2017年,他的短片《Knock Louder》拿了评论家选择奖最佳短片。2023年,他为哈萨克斯坦歌手 Moldanazar 拍的MV《Kogershin》,在戛纳世界电影节上把最佳音乐录影带导演的奖杯抱了回来。

这支MV在阿拉木图三百公里外拍了三天,一百个孩子参与拍摄,讲的是一段关于和平与团结的沉重寓言。

但戛纳拿奖这事最值得说的,是他的创作方法论。

他自己在接受采访时透露过,这支MV不是歌写好了再配画面,而是他先有了完整的创意概念,写了剧本、画了视觉草图,然后拿去给歌手看。歌手反过来被他的想法打动,专门为这个画面写了一首歌。

什么意思呢?他做的东西,从来都是画面先行、叙事先行。音乐是为他想讲的故事服务的。所以当他决定用AI拍一部电影的时候,他的第一反应不是去研究提示词怎么写,而是——得先把剧本磨出来。

2026年初,距离他第一次摸AI工具不到一个月就入伙了Higgsfield Originals团队,入伙时他对AI一窍不通,纯小白。但他带进项目的是一件更重要的东西——一副老派电影人的镜头。他用7天时间、零剧组、一个人,手搓出了一部22分钟的维京史诗《Mort》。

他没有上来就玩各种模型,而是把所有人重新推回了一间AI编剧室。他把Claude大模型当成协作伙伴,反复打磨一个围绕北欧中世纪复仇故事。

这一步太关键了。

AI视频圈最常见的烂片是什么样的?

一个人拿到新模型,让AI疯狂秀特效,光影和材质炫上天,但剧情经不起推敲,看完只觉得眼睛和脑子被塞了一堆乱七八糟的东西,心里什么都没有。

AI再牛,它本质上还是一个需要强方向感的引擎。Malik从一开始就没被技术带节奏,他死死守住的是故事。

一个有趣的内幕是,Malik用的这套方法后来被提炼成了一套成熟的创作策略。而当你拥有了扎实的故事时,技术就不再是炫技,而是工具。而Malik手里握着的那个工具,叫Higgsfield——一个被越来越多人称为制作独角美学的AI视频平台。

Malik全片的拍摄都通过Higgsfield的Cinema Studio完成。要理解他为什么选这个平台,得先看看Higgsfield的底层模型——Seedance 2.0。

这套模型的视觉风格在中文互联网上被戏称为毒角美学,画风调得特别狠、质感压得特别重,完全不走写实或主流审美路线,而是精准地制造出一种强烈的氛围电影感。

它不走Midjourney那种唯美或光滑的塑料感人像路线,而是疯狂堆叠光影对比和粗粝的噪点颗粒,让画面看起来像用老旧胶片或劣质DV拍出来的。

拒绝完美以对抗恐怖谷,这种美学故意保留甚至放大瑕疵。人在极度恐惧或暴怒时脸上的扭曲、毛孔、伤疤全被粗暴还原,用这种生猛的真实感把观众拽进情绪里。

它不追求每个像素都清楚,而是靠大量留黑、高光溢出和动态模糊,制造高度统一的氛围电影感。这种视觉风格看上去就像一部磕了药或喝了大酒的B级片,有一种野生的、带有痛感的生猛劲。

你看到的《Mort》和《Hell Grind》里那种昏暗、闪烁、充满血腥味的打斗场面,就是“毒角美学”的典型应用。

除了这种独特的视觉风格之外,Seedance 2.0最大的卖点是跨镜头角色和场景一致性。传统AI视频最大的痛点是什么?

同一个角色在不同镜头里长相漂移、衣服乱变、光影对不上。Seedance 2.0通过结合Soul Cinema和Nano Banana Pro,硬生生造出了一套锁脸技术。这也是为什么Malik这部《Mort》能从第一帧撑到最后一帧,角色辨识度始终在线。

为了对抗那种廉价的AI感,Malik把整个角色管线都锚定在Higgsfield的Soul Cinema模型上——这是整部片子的地基。角色生成出来后,细节打磨交给Nano Banana Pro。用Malik的话说,Soul Cinema是目前唯一一个能渲染出不够完美的人脸的模型,而这恰恰精准杀死了那种让人发毛的假人感。

但他的工作流里有一条更为关键的经验,团队自嘲为面部模糊邪术。

团队在生成了理想的角色五视图后,先不急着渲染,而是对广角参考图里的角色脸部进行模糊处理。

如果不模糊,AI模型读取那些缩略好的脸部时,会发生极其诡异的面部特征脑补——人物的眼睛被放大、棱角变得卡通化、光影关系全乱,最终产出夸张又虚假的塑料脸。

但只要先模糊处理,Soul Cinema就能稳定还原照片级真实感,这种质感能扛住各种诡异角度、极端光线和复杂镜头的考验。

团队还有一个很轴的细节。他们没只盯着主角,还给群众演员——比如身高超过两米的维京大汉——以及关键道具比如领主的徽章都单独做了角色设定页。把这些资产在Higgsfield Soul Cinema里定义成角色卡之后,Seedance 2.0就把它们识别为这个世界的固定元素。

效果是什么?整部片子看下来,维京村落始终人气兴旺,逻辑上挑不出毛病。一个角色的胡子、伤疤、走路姿态都死死焊在原地。Malik还花了大量时间在五六个不同村落环境里做压力测试,直到找到一个角色动起来最逼真、最利落的场景——因为在这个工作流里,场景不只是背景板,它是技术的锚点,直接决定了AI能交出什么级别的表演。

要弥合导演构想和AI执行之间的鸿沟,Malik专门搭了一条Claude管线。

他会先描述一个电影镜头——手持镜头,细颗粒感,梅尔·吉布森《启示录》的风格——然后Claude把这句描述翻译成一整套Seedance 2.0能读懂的技术指令块。

比如下面这个真实出自《Mort》工作流的提示词,描述的是第93场戏的某个镜头:

王殿的广角定场镜头。巨大的暗室,柱子隐没在黑暗中,头顶是鹿角吊灯,王座后方是深红色的旗帜。长条feast桌面向镜头,长边朝向我们,与参考图一致,八个人物沿桌子一侧落座。领主居中,坐在王座上。比约恩在他右侧。维京贵族们和女人们向桌子两侧散开,共五名贵族和三名女子,总计八人。宴会正酣。

领主缓缓咀嚼,一言不发。比约恩撕扯着肉,胡须上沾满了蜂蜜酒。其余的人搅作一团,一边大吃大喝,一边调情。

摄影机先保持静止,然后缓缓向宴席推进。技术指令块里甚至精细到了用什么镜头、什么光线、什么样的胶片颗粒感。这张图的质感应该像罗伯特·艾格斯或安德烈·塔可夫斯基电影的幕后定妆照——扎实,有触感,有人住过的痕迹。

镜头的逻辑——为什么用长镜头而不是快剪?

很多AI创作者习惯依赖两秒一换的快速剪辑来掩盖画面的缺陷,但Malik偏要反着来。他硬推15秒的无剪切长镜头。用提示词加入摄影机抖动和快速甩镜头这些效果,制造出一种粗粝的手持感,直接把观众拽进混乱的中心。

这种风格就像有个真实的摄影师正扛着机器在村落里奔跑穿梭。它骗过了观众的大脑,让人完全忘了这其实是AI生成的画面。

声音的魔法——如何让AI开口说人话

为了让角色的对话保持一致的声线,Malik直接把声音描述写进了角色卡里。比如把某个角色描述成英国口音,或者说话腔调像个爱尔兰维京人,Seedance 2.0就会自动分配一个前后统一的声音特征。

他还发现,在这些描述框架内,给AI更多的自由度去发挥,反而能收获比过度限制更逼真的表演。

传统电影是拍完所有素材再进剪辑房,Malik直接把这个流程扔进了历史垃圾桶。他用实时循环的方式工作,先来一个AI直出的镜头,立刻丢进时间线检查光线和连贯性,然后以此为基准再生成下一个镜头。

这种实时反馈让他能当场抓住光效跳变这类连贯性错误,而不是等好几天后进了剪辑室才发现。

骚操作!幕后花絮比正片好看!

靠幕后花絮出圈

《Mort》最火的不是正片本身,是AI做的那些幕后花絮。

Malik故意生成了一批笑场镜头——比如AI演员吃着汉堡出画,或者收音麦克风不小心杵进镜头里,两个男演员在打戏中突然想亲亲,他用这种假幕后花絮,让那群根本不存在的演员,在观众心里活了过来。

观众看到这些假演员在假幕后吃汉堡想上厕所出糗,瞬间就脑补出了一个真实剧组的存在。这种情感连接,比正片本身拉得更深。

这种感觉前所未有。

你用AI创造了一部不存在的电影,然后你又用AI创造了一个不存在的幕后世界,让观众相信这一切都是真的。

还有一句Malik私下透露的,这22分钟的《Mort》,只是热身。一部90分钟的长片已经在路上了。

电影业的奇点时刻?——AI是来砸场子还是送装备?

2026年这个春天,影视圈的风向不是悄悄在变,是直接被人推着转了。

4月21日,全球最大的AI电影节WAIFF在戛纳电影宫正式举办。一批AI内容创作者走上了那条改换成科技紫色的紫毯。同期,爱奇艺推出16部AI短片,3月份刚上架就引发关注;国内头部大模型公司MiniMax与恒星引力签署AI内容战略合作。2025年国内AI生成视音频内容超20亿条,同比增长超14倍。这些数字意味着什么?意味着内容生产的门槛正在被踩得粉碎。

这些数字背后藏着一句话——AI不是在帮旧市场省成本,它是在直接造新市场。

Malik Zenger自己说过一句话,传统电影人是在拍素材,AI电影人是在种电影。这个词用得精准。传统导演的核心工作是捕捉现实中已经发生或精心排演的画面;而AI导演的核心工作,是在算法和数据的土壤里培育出全新的画面,用脚本逻辑、视觉风格和情绪模型去精准灌溉。

这就是AI电影跟传统电影的本质分野。它不取代任何东西,它开辟的是一个全新的品类。但这条路也不是一帆风顺。光影和材质不稳定、角色长时程一致性衰减、复杂场景的物理逻辑失控——这些都是AI视频目前没法回避的硬伤。

Malik自己也承认,工作流里依然有大量需要手动修正和反复抽卡的过程。

但话说回来,一年前的此时此刻,AI连一个稳定的角色都出不来。再给一年呢?

文章结尾,wuhu想说一点自己的看法——

我身边有很多传统影视行业的朋友,这几年对AI的态度从漠视到嘲讽,再到现在的沉默。他们不是不想学和用,而是一种很深的恐惧,如果那个花几十年积累的技艺,被一个不断抽卡的模型替代了,那自己的价值究竟在哪儿?

Malik给出了一个答案。

他三周前还是AI小白。但他拍了一部让整个行业沉默的片子。靠的不是花哨的操作,而是扎实的电影基本功——如何讲好一个故事,如何构建一个可信的世界,如何调度角色的情感。技术会迭代,但这些东西不过时。

AI最让人兴奋的,不是它多快、多便宜、多炫。

而是它把拍电影这件事,交还给了真正懂电影的人。如果说传统电影工业是一座围城,那AI要做的不是炸掉城墙,而是打开城门。里面的人得学着走出去,外面的人也有机会走进来。

城门已经开了。进来还是继续站着看,决定权在你手上。

来源:wuhu动画人空间视频

相关推荐