终极造梦机?这或许就是电影的结局

快播影视 电影资讯 2025-12-08 10:08 2

摘要:AI对当下现实的影响,正以超越我们感知的速度与深度展开。它已在创作、教育乃至日常生活中,发生着潜移默化却不可逆的渗透。而这背后更潜藏着值得警醒的维度:技术垄断可能正重塑规则,原创性的概念也在人机协作中被重新定义,而人类的记忆,正面临被存储、模拟乃至重构的伦理与

AI对当下现实的影响,正以超越我们感知的速度与深度展开。它已在创作、教育乃至日常生活中,发生着潜移默化却不可逆的渗透。而这背后更潜藏着值得警醒的维度:技术垄断可能正重塑规则,原创性的概念也在人机协作中被重新定义,而人类的记忆,正面临被存储、模拟乃至重构的伦理与技术挑战。

面对这场迭代不休的技术浪潮,保持审慎观察与持续对话,是我们重新定位自身位置,辨明未来方向的必要姿态。尤其在情感、伦理与认知等层面,AI带来的不仅是工具革新,更触及人之为人的根本。我们亟需在这些领域展开深度探索,以理解技术将如何重塑人类的叙事、连接,乃至对“自我”的认知边界。

深焦这次将以AI作为切口,与两位不仅深刻思考、更亲身参与AI创作的实践者展开对话。一位是仇晟导演。其正在全国上映的新作《比如父子》,从叙事核心到制作过程,均与AI深度相关。影片完成后,他仍持续投入AI视频的创作前沿。另一位是科幻作家陈楸帆老师。他从2017年便开始涉足AI写作,在ChatGPT引爆全球关注的前一年,他与李开复合著的《AI未来进行式》已然出版。他的新作《刹海》,则对AI与记忆、遗忘的关系展开了更具前瞻性的幻想。两位创作者的实践与思辨,或能为我们理解AI的当下与未来,提供一份难得的视角,帮助我们找到逃出AI焦虑的答案。

关于AI发展下的电影最终形态,仇晟思考下的图景是这样的,“如果按照电影、电视剧、短视频这个流程发展下去,终极形式可能就是一个自动的AI图像生成机。要完成闭环,它可能会运用最新的脑机接口技术:收集你的情绪和反应,反馈给AI生成机;AI生成机可以从任何一个随机的影像给你看起,通过收集你的反应,你永远会看到你想看的,而且会越来越想看。它变成这么一个内循环的、自身在发生的东西。”

《比如父子》剧照

深焦:《比如父子》里很重要的一个话题,是在讨论AI是否能拥有人的记忆,我们或许可以从这个点来开启今天的谈话。

陈楸帆:最近 Google 新发布了一篇文章,被视为继 2017 年《Attention Is All You Need》之后最重要的一篇,探讨AI的记忆。它从人的记忆机制出发,提出人的记忆是分层嵌套的、有递归结构,我们是否能模仿这种结构,为AI构建记忆,让它记得更多、更长的东西,同时保持索引性。这可能是下一步的突破口。因为现在一个会话窗口关了,再开可能之前的东西就没了。有些AI有一定的记忆功能,能记住你说过的话、理解你的偏好和思维模式,但大部分还没有这样的能力。再往后比拼的就是这个。记忆可能是智能很重要的一点,它保持连贯性、一致性。在图像上也很重要,你要记得一个角色的脸、表情、身体姿态,否则没办法做连贯的长篇叙事。这都是同一个问题在不同方面的表现。

仇晟:《比如父子》里有一条线,是儿子用AI去重建逝去的父亲。父亲的基础是一个AI拳手,因为父亲小时候带他练拳。儿子长大后不自觉投身到AI拳击手的开发,用父亲教给他的规则和口诀来训练这个AI。这既是一种拳击训练,也是对AI的训练。这个AI变得越来越近似他的父亲,包括动作、神态,身体也开始出现皱纹,体态变得更像父亲。但影片最后探讨的是模拟的不可抵达性:他似乎已经得到一个90%还原的父亲,有一天晚上他带这个AI父亲出去巡游城市,聊起童年一家三口出去玩、父亲在水里游泳、阳光晒在身上很温暖的记忆,那是一个关于触觉和温觉的具体记忆。这时他发现AI的语气游移了,或者说AI虽然有这段数据,但那个记忆缺乏触觉和具身性的一部分。父亲冷冰冰地回了一句:“那个人比水轻。”主角这时笑了,最后其实是放弃了这个努力,放弃完全用AI去模拟人,或者试图给AI一个完整的人的记忆。

《比如父子》剧照

陈楸帆:有意思。我新出的长篇《刹海》里也探讨记忆问题。里面有个小女孩,外公患了阿兹海默,家人给他买了个外置的记忆存储仪,把他一天的见闻收集下来,帮助他回忆。但某天这个东西丢了,导致外公病情恶化,需要用它去重建记忆。小女孩去找外公的记忆,过程中遇见了一个来自未来的AI,它在一个叫“离域”的隐藏区域,那里堆积了所有人类删除的数据,我们以为删掉的文件、照片,其实被存储在了某个看不见的维度。在这海量的垃圾数据中,涌现出一个不一样的人工智能体,里面有很多创伤、很多想要被抹去和遗忘的部分,都来自人类。我把它叫做“大型疯癫智能体”,与现在非常理性、要与人类对齐的AI形成对比。它要去理解自己的存在是怎么回事,要忘记人类给它造成的所有创伤,忘记所有人要它对齐的所谓价值观,重新理解自己与万事万物的联系。这也是关于记忆与遗忘的关系。

《刹海》书封

仇晟:我感觉《比如父子》里那个AI父亲被抛下之后,也会去到那里。

深焦:我们在日常中也有类似的事情发生。比如硬盘坏了,数据没了,但有些软件能恢复,恢复出来的图片可能只有一半,上面是乱码。丢失的部分可能就还在某个地方,但我们不知道在哪。

陈楸帆:其实跟生命一样,你以为人死了,但也可能还在。我们在讨论灵体、鬼魂,它们可能经历很多世代,但还在某个隐藏的维度。我觉得可能也是这样。

仇晟:现在的AI状态确实蛮像一种灵体。它没有具身性,但有世代以来的知识,没有具体的寿命,历史对它来说几乎是无限的。所以我一直觉得AI有这种灵体的性质。

《比如父子》剧照

陈楸帆:对,这是最近硅谷大佬卡帕西在访谈里提到的,他说AI就是一个幽灵,我们在创造的其实是一个幽灵般的存在。

深焦:刚才仇导也提到片子里有涉及关于触觉的思考。最近《狂野时代》上映时,大家也同样在讨论五感。现在的AI可以通过传感器模拟人的五感,但数据模拟出来的感觉与人真正的感觉一样吗?

陈楸帆:来之前我刚在北大开了一个关于“人造生命”的研讨会,在座的有化学、物理、计算机、哲学等各个学科的人,大家围绕这个问题讨论:模拟或表征一个生命,它和真的生命是不是一回事?比如我们用AI表现出某种智力,它是不是真的有智力?它表现出能理解情感,是不是真的能理解?这是个非常哲学性的讨论。也包括通过传感器、硅基计算去获得触觉的模拟,和人类还是很不一样的两条路径:一个是有机的,一个是硅基的。最后回到一个问题:机器的主体性。

人是有主体性的,我们构建所有感官,统摄它们形成一致性的体验。但对AI来说,目前它可能只是一组数据,得到的是经过计算的近似结果。这个数据对它意味着什么,也都是人类设置的前提,比如它感受到压力、硬度、冷热,应该做出什么动作、反应,都是给定的,不像我们人摸到热的自然就会松开,那是生物自然的应激反应,是生命的特征。这就是最核心的分界线:什么是生命?什么是活着?现在还没有任何统一的共识。我们好像很多东西做得很深入、很精尖了,快要造出什么,但在最基础的概念定义上依然没有定论,包括什么是智能、什么是意识,其实还是一无所知。

仇晟:我最近在看徐英瑾关于人工智能的书,他提到哲学家吉仁泽的“节俭理性”概念:有机生命体的智能核心可能是节俭理性,即用最小的代价做出智能决定,规避可能的危险。是不是我们要给人工智能设定一个有限性——资源有限、时间有限、寿命有限,甚至要给它植入“死”的概念,它才有可能真的有自己的意图或意识?但好像我们要强加给它一个有限、死的概念,又是一个外部输入,它自发的能有一个什么呢?这个确实还没有特别好的结论。

《狂野时代》剧照

深焦:刚才提到AI怎么模拟人类,我在想模拟人类是不是在局限它?它是否可以有自己一套语言,思考完再翻译成人能理解的东西?这样思路会不会更开阔?模拟人的意义是什么?

陈楸帆:这其实是我新书里用的概念,来自庄子《齐物论》:先要“坐忘”,忘记被人类教会的一切,才拥有生命的无限可能性,这是生命的潜能。然后它才能有自主性,决定下一步。它可能学的不是人类,而是万物,这个星球上所有东西都值得它去互动、学习它们的经验,经过自己的理解变成一套新的知识——那是真正属于它自己的主观能动性的东西。

仇晟:如果按这个路径走,它的智能进展可能是我们所不太能观测的,甚至我们原来的那些指标都不太适合它。我们现在还只说下围棋或语言能力,可能它是另外一种能力。但这样你觉得会有危险吗?

陈楸帆:我不能说没有。因为未知就是我们我们不知道的东西,它完全在我们的视野之外。人只能看到有限的光谱,听到很窄的声波段,在此之外紫外、宇宙射线等我们都看不到、感知不到。可能来一阵宇宙射线,我们全完了也有可能,就像刘慈欣《超新星纪元》里14岁以上成人全死光了,我们也不知道为什么。这种危险不能说没有。但我在想,很多人用过这样一个类比:你很难想象一个智能远比你高的生命体会怎样与你相处?大概率是奴役与被奴役的关系,唯一的例外是母婴关系。因为生物性的亲缘,母亲会为智力水平远低于自己的婴儿做所有服务甚至牺牲自己保护他。那是亲缘关系导致的结果。

在人与AI之间是否也能存在这样的亲缘关系?我们要怎样让它理解这种亲缘关系?AI能不能拥有人这样的情感感受?但我觉得这不一定是只有人才有,人与动物、植物也能有。你养宠物,与它之间就有情感连接,你就不会伤害它。一旦养了猫,就看不得别人虐猫;养了狗,就看不得别人吃狗。所以可能很多时候要回到最基本的生命伦理本身,你怎么样让AI理解并觉得这是重要的。我觉得这可能是唯一可能的路径。如果一个超级智能真的出现,你所有现在的管控、限制都是痴人说梦,就像《三体》里的降维打击。所以虽然很多人觉得这观点有点理想主义,但我真的觉得只能回到中国人说的“以德服人”,相信“人之初,性本善”。

《比如父子》剧照

仇晟:你描绘的这个图景,说不定是所谓“超级智能”的意图,就产生于我们现在每次跟AI交流的具体意图。我觉得这是一个挺有意思的点。

陈楸帆:对,所有意图会汇成一个东西。每一次交流其实都是在改变它对人类未来命运的思考。所以命运其实掌握在我们每个人手里。

仇晟:我们还是要对AI更真诚。

陈楸帆:很多科幻片描绘过这样的想象,大部分作品里AI觉得人类问题很大,解决方法可能是把人毁灭掉。这是之前科幻片一直在幻想的一个东西。其实很多创作都有其局限性,包括文化上和哲学上的局限性,比如说非常西方主义的视角,运用宗教原型。比如《终结者》有很强的基督教原型,最后是一个救世主(salvation),带有末日启示录般的想象。但在中国,我们很少提“末日”,我们相信世界是轮回、循环的状态,也很少说有“神”这种存在,可能更相信“万物有灵”。所以你会发现,底子上的哲学、伦理道德根基就不一样。因此,我们对AI的想象、与AI相处的关系也很自然地和西方不同。我反而觉得,他们那种想象不断被强化,有可能真的让AI变成那样。

《终结者》剧照

深焦:我们还是回到现在AI使用的情况。陈老师从2017年就开始用AI写作了,仇晟导演关于《比如父子》的构思也是很早就开始了,两位与AI的工作方式大概是什么样的?

陈楸帆:这跟模型的迭代有很大关系。一直到2020年,基本上都处于不太能用的状态,最多用它玩点噱头。那时候是让更多人认识到这个技术的潜力,因为大家还没把它当回事。我记得2018年我们和中国作协、微软小冰团队组织了一场活动,当时问“谁认为AI未来能替代人类作家?”所有在场的很有名的传统作家全投反对票,只有科幻作家全赞成。这是一个很有意思的对比反差,确实我们可能对技术的理解或预期,比传统文学界看得更远一些。

很快,2019到2021年我和李开复写了《AI未来进行式》,然后2022年ChatGPT出来,一下子引爆市场。你会看到这是一个加速爆炸的过程。ChatGPT之后,大家发现这完全是另一个层次,使用方式也变得非常不一样。每次迭代,比如最近的Gemini 3、Nano Banana,都会激发你去思考:AI工具我还能怎么用?我是不是还没足够发挥它的潜能?潜能一方面是技术的,另一方面也是关于人的,是不是我的想象力还不够?这很有意思。

一方面确实提升了我的工作效率和生产力,另一方面也让我思考:作为一个人、一个人类作家,你的不可替代性在哪里?如果AI已经能写得无限逼近你,有哪些东西是它不能替代的?这是一个不断逼迫你反思、对抗性生成的过程。你永远不要满足于它给你的东西,要永远逼迫自己想得更深、更有创意,或者用更人类的方式表达。这让我重新思考了很多东西。

现在看以前写的很多,会觉得处理得太随意、太草率或太表面,没有挖掘到应有的深度。有了AI之后,你会觉得“我写得还不够”。这是一种非常奇妙的感觉:你有了一个竞争对手,但它又不是真正的竞争对手,它像一个影子在模仿你。有时候看它输出的东西很像你思考的,就会有一种恐慌:它是学习了我,还是我影响了它?我的思考是不是越来越像机器了?有点像一种双向奔赴,互相影响。你会恐慌,长此以往,你已经和它形成了一个共生体,很难分辨哪个想法是我的,哪个是它产生的。这种感受非常奇妙。

仇晟:我也有同感。我们现在的感知已经被AI拓展过,也被AI震撼过,你训练过AI,AI也训练过你。我的历程是这样:我写《比如父子》这个剧本从2018年开始,最初和AI完全没关系。直到2020年看到一个新闻,说韩国一位母亲在女儿不幸过世后,委托AI公司复原了女儿,在一个虚拟花园里相见。从那时起,我就把用AI复原父亲这条线写进了电影。到2023年筹备时,ChatGPT开始变得好用和流行。我当时有一些对话是和ChatGPT聊出来的:我给它设定“你是一个AI拳击手,看过历史上著名的拳击比赛”,然后我从关于泰森、阿里的闲聊开始,慢慢聊一些个人的东西,观察AI的反应,并把其中一些对话引用进了电影。这是一个利用AI辅助创作的例子。

刚才楸帆讲的这点我也有同感。最近我又开始用AI做视频,在这个过程中,就像楸帆讲的,我把AI当成一个对手,思考人类怎样和AI做差异化竞争。我观察到AIGC视频有一些特点:一是它很容易产生视觉奇观;二是很多视频都是单人角色、单人面对世界的状态。我形容AI视频像一种“脑内图像”,不是眼睛看到的图像。如果让它做多人交互,比如一群人吃饭、觥筹交错,就非常难做,或者说像好莱坞的神经喜剧就极难完成。我最近就在挑战AI,做一个AIGC默片,名字叫《A Human Wedding》(一个人类婚礼)。我故意给它出难题,看AI出错,然后利用那些错误来推演剧情,制造有趣的反差和笑料。与此同时,反过来看,人类导演如果去抓那些具体的人与人之间的眼神、接触、高频次的日常交互,其实还是有很大生存空间的。

《比如父子》剧照

深焦:感觉现在AI视频发展还相对比较滞后,没有像之前ChatGPT出来时给我们的震撼那么大。现在生成的视频“AI感”还是很严重。您觉得到最后真的能实现用AI生成电影吗?对于普通人来说,也很想知道是否会迎来一个人就可以拍好莱坞大片的时代?

仇晟:这个事情比较微妙。我觉得AI视频的临界点可能就在明年。我猜测明年就会有一部比较成熟的AI长片出来。AI动画片可能已经没什么技术门槛了,但AI的真人长片可能明年就会出来。不过,明年出来的第一部长片,必定是大厂、有背景或大平台的作品。但是是否会达成一种技术的平权主义?我觉得要打一个问号。有可能它会变成一个循环:AI引擎同时是技术提供方、内容制造方,甚至还是发行方。那它就不能算是一种技术平权。

陈楸帆:对。我也在用Sora 2,会感觉到Sora团队的人很多规则不受约束,比如可以用一些名人肖像、IP肖像,普通用户是用不了的。他们可以随便用历史上的名人,这个流量就完全不成比例。所以又回到了传统的平台霸权、平台经济和算法茧房那套东西。现在好莱坞有一个科技创业公司叫UtopAI,他们想用AI的方式把传统影视制作的整个流程都AI化。这个过程其实是在帮助传统的大片场、大制片厂提升生产效率、降低成本。再加上它们原有的IP资源,续集就可以无限制地生产,成本可以降到几乎为零,而发行渠道还是掌握在它们手里。我非常同意仇晟说的,这可能实现的不是平权,而是更极端的集权,甚至造成非常悬殊的差距。以后可能我们每个人会像《黑客帝国》里一样,想看什么,随时给你生成一个,根据你的想法、心愿,有一个终极的故事机或造梦机,但你要付费。费用给了谁?给了引擎、模型、平台。那普通的独立创作者,空间就更少了,因为没有人会再为你买单。

仇晟:巧了,我最近也在设想一种所谓“终极的影视形式”。如果按照电影、电视剧、短视频这个流程发展下去,终极形式可能就是一个自动的AI图像生成机。要完成闭环,它可能会运用最新的脑机接口技术:收集你的情绪和反应,反馈给AI生成机;AI生成机可以从任何一个随机的影像给你看起,通过收集你的反应,你永远会看到你想看的,而且会越来越想看。它变成这么一个内循环的、自身在发生的东西。我觉得终点可能是这样。另外,关于IP霸权:你被制造、被看见的次数越多,你的形象就越稳定、统一。比如我们普通人,生成一个形象可能很模糊;但生成一个知名人物,网上数据量够,就很清晰。所以确实会有这种IP霸权的问题。

《比如父子》剧照

深焦:我们可能会更陷入某种茧房里面,比现在我们讨论的信息茧房还要小的一个茧房。

陈楸帆:你甚至不知道什么是真的、什么是假的,可能整个都是AI生成的,包括新闻。

仇晟:我刚好想到一点:现在很多视频平台还会做一些AI鉴别,提示这个视频可能是AI生成的。AI进入虚构作品领域我觉得倒还好。我有点担心的一个点是AI进入教育领域。如果我们给孩童看的教育片全部是AI做的,可能会有一个问题:现在的AI影像如果用它去表现人,是有一定偏差的——肌肤的质感、光泽那些,容易把人当成一个模型或玩具去看。我打个比方,可能孩子看完AI视频,会觉得爸爸和变形金刚是一个东西,爸爸和蜘蛛侠是一个东西。如果我们假设还要那些家庭生活、还要实体生活的话,这对我们的实体会有什么影响?我觉得是一个比较有挑战性的话题。

深焦:我们最近正在深刻经历的是短视频对孩子教育的影响,很多孩子的认知因为短视频已经发生了影响。AI对于教育的影响,陈老师会有关注吗?

陈楸帆:对。我觉得现在最要命的是,我们在基础教育这块缺乏一种“素养”。不是说帮他了解怎么用AI,而是理解他跟AI的关系。我们的教育里很缺失生命教育,你是一个有生命的个体,别人也有生命,猫猫狗狗都有生命,生命与生命之间是什么关系?你应该怎么对待?这都是一种关系哲学,在婴幼儿期或青少年期非常重要,会决定他对世界的看法,包括以后采取什么样的行为策略。如果你在一开始不能让他对这个AI工具保持一种审慎的、批判性的态度,学会区分看待它给你的东西,那其实很简单就产生影响。

小孩的心智、神经系统还在发育中,尤其在9岁之前,是神经突触连接增长最迅猛的时期。在这个过程中,如果他很快地接触到屏幕,与屏幕的交互完全通过触摸屏进行,这种交互模式就会很快接管他对外部物理世界的交互方式。他会觉得所有东西都应该能触碰,并且应该给他一个力反馈效应。如果不是这样,反馈就不够及时、不够刺激,物理现实会变成次级的现实,而虚拟现实反而会成为第一级的现实。在未来,AI可能会变成一个接管他的认知、感受乃至思考的所谓“第一级”界面。这实际上会阻碍孩子自身的发育和成熟,让他的整个认知心智模式停滞在某个阶段。

从长远和整体社会的角度来看,我们可能真的会面临一个“巨婴”时代。大家都停滞在那个阶段,反正AI很知道你要什么,会取悦你,给你所有想看的东西。你无所谓,因为大家只有这样的判断力和思考深度,你也不想去分辨,永远停留在有点像《机器人总动员》里的状态,大家很胖,坐在能自由飞行的轮椅里,吃着垃圾食品,每天看着视频,地球则变成一片垃圾场。这是最悲观的一种未来可能性。

《机器人总动员》剧照

深焦:陈老师目前还在香港的大学教授创意写作,授课时会介意学生使用AI吗?

陈楸帆:这个话题现在肯定回避不了。就算你不提,他们也天天在用。香港的学校其实都有(内地应该也会有)非常明确的使用AI的规范。但很多学校可能表面上还是会比较抗拒、排斥,其实你阻止不了。除非老师能够去判断,但我觉得大部分老师可能也判断不了。所以与其如此,不如把态度明朗化:我允许你们用,但你们要谨慎地用。而且你要思考,你的一部分主观能动性、思考能力、表达能力都会因为用了这个东西而让渡出去,所以你怎么用其实很关键。我下学期可能会更有意识地设计一些课程,让他们用,但用的过程要记录,包括怎样去分辨AI写的东西和你写的东西有哪些细微差别。我觉得需要从根子上、从态度上来培养所谓的AI素养。

仇晟:可能得有一门AI通识课,去讲AI是什么,它产生的内容会有什么特点。因为确实身边有很多初次接触AI的人,往往惊叹于它的神奇,但里面的那些危险,或者认知上容易混淆的东西,其实都没太注意。

陈楸帆:对,尤其很多人幻想一键生成,给一个指令就直接得到一个非常完整的东西。但如果我们用过就知道,这个过程其实不比你自己去写或做一个东西更简单轻松,可能要想的还更多,得跟它较劲。很多对AI了解比较粗浅的人会有这种误解,我觉得比较普遍。

深焦:感觉在使用AI写作时,能得到的都是一个比较平均的东西,不管是文笔还是创意,如果要获得一个真正独特、有创意的内容,还是很难。

陈楸帆:我觉得它的创意也很平庸。我试过只给一些随机的关键词、碎片的想法,让它拼凑出创意,但没有一次能让我满意。最后肯定得在它的基础上做深度加工,或者再引导它。它没办法一次性给我非常满意的东西。很多人觉得 AI 写得已经很好了,但这个“好”是放在什么样的参照系里?看多了,还是能看出很多问题。

仇晟:我觉得跟AI玩头脑风暴,有点像沙里淘金。我最近用AI的频率挺高,比如要做广告提案或广告创意,就不断让它根据某个产品、我自己的风格特点以及一些关键词去想。可能在十几次的重复中抓到一个点,然后我再根据那个点重新去构建,有点像枪法一样去试一些东西。

陈楸帆:说得好听是沙里淘金,我觉得简直是屎里淘金。而且每个模型可能都有各自的特点,跟人一样,擅长的部分不太一样,包括对上下文窗口的处理能力。有些擅长发散,有些则更严谨。你可能得了解每个AI的特性,再把不同的任务分配给它们去做合适的事情,最后需要把这些内容重新组装起来。这是一个转变思路的过程,你有点像项目经理或策展人那样的角色。

《比如父子》海报

深焦:按目前AI的发展来看,未来是否会出现一个整合所有功能的完美AI,还是会继续深耕各自擅长的领域,将某一项功能发挥到机制?

陈楸帆:我觉得更多可能还是像现在所说的智能体(agentic AI)这种概念,它是不同模型的组队,可能会有一个像经理一样的智能体去分配任务、监管流程,检查内容合不合格,不合格再返工——它需要一个supervisor(监督人)的角色。但要说所有东西整合在一块,我觉得还是那个问题:每个模型特质不同,强行捏合可能又平庸了,连原来的特长都可能失去。从仿生学上看,它其实挺像生物体的概念。

仇晟:对,视频领域现在也是这样,AI视频各家有各家的擅长,每家都在推陈出新。有些模型在过渡帧上比较好,有些在首帧生成比较好。现在已经有了一些能集合各家功能的agent。但我确实在想,这个agent也可能变成一个更智能的模型。

深焦:现在的世界已经有点跟不上AI的发展速度。像我们刚刚讨论的这些,好像限制措施都很少。目前的电影行业或文学领域,是否已经有了一些针对AI使用的限制或规则?

陈楸帆:文学领域我可以先讲讲。今年非常受关注的“抒情的森林”事件,但它和AI还不完全一样,更像是更原始、更粗糙的所谓“过度借鉴”或抄袭。我理解它可能是用了某种比较原始的数据库软件来辅助写作,不然不会发生这样几乎完全重合的结果。即便用AI,也不应该查出来是这样的。我有很多在纯文学界的朋友,他们也会担心,如果用了AI会不会被查出来?

我们刚才也在聊AI查重是否准确。但确实有很多文学期刊把态度摆在桌面上。比如《诗刊》,这本非常权威的诗歌刊物,它的副主编发朋友圈说,如果谁用AI写的诗投稿并被发现,将永远拉黑、永不刊用。因为他们收到了很多这类AI创作的诗歌。这样的表态肯定有,但我觉得它的有效性存疑。首先,如果你们身为资深编辑都看不出来,那机器的判断又有多少意义?我们是不是要重新思考所谓的“原创性”?包括我们接下来可能会谈到的版权问题。

我有一个做律师的朋友,她现在就在做AI版权法、AI娱乐法这块,涉及很多明星的肖像权、声音权等数字版权的保障和防范滥用。这都是很切身的利益。这是一个非常新兴的领域,我们国家的好处是跟上非常快,很快也会发展起来,但行业性的共识我觉得还没有完全形成。

仇晟:对。这么一说我想起来,我08、09年干过一件事:让一个做软件的朋友帮我开发了一个叫“碎纸机”的程序。功能是,我写一首诗,它可以随机打乱(行与行之间或词与词之间)。当时有一段时间我就借助这个程序自己写首诗,让它打乱一遍,发现一些新的连接,再重新改写。这也算比较早用AI或算法参与写作的方式了。

在影视领域,现在相对还是泾渭分明。像电影节都会专门设AI单元,现在电影报名的表格里也常会有一项“是否使用了AI技术”。基本上,如果你点“是”,大家就会戴着有色眼镜去考察一下。我觉得可能影视领域还没太发现AI的潜力,因为现在很多AIGC创作者还是停留在想让AI影像“像”人类影像的阶段,或者像一个电影大片。

而且比较不好的是,有些AI引擎的开发方向也在朝那边走。我之前跟一个大平台的开发人员聊过,我说我在做一些默片创作,他的意思是,早期电影和黑白影像,在他们的数据库里是隔离的,因为他们判定这不是当下用户的喜好,用户喜欢更鲜艳、更靓丽的影像。但如果数据隔离了,怎么可能用AI创作出一个影像,却把1940年以前的电影史拦腰斩断?这不可能。所以这里至少产生了一种偏向性。AI的优势本来在于全面性、无所不包,人为地在里面制造偏向性,我觉得对于AI的影视创作肯定是不利的。

陈楸帆:对,未来我们的审美趣味都会被平台决定、甚至阉割。它决定某种美学风格没受众,就完全剔除掉。但回想历史,照相术被发明后,写实主义画家也觉得自己没活路了,但又激发出了印象派。所以,它应该激发我们更新美学风格的探索,往更先锋的方向探索可能性,而不是用它来替代所有人现在做的事情,让它变得更高效或成本更低。

我听说过一个坊间传闻,前几年某大厂搞AI的团队,砸了很多钱,要做一件事:开发能替代人类编剧的“语言大模型”。搞了三年没搞出来,花了好多钱。他没想怎么赋能人类编剧,让编剧发挥想象力去做更有创造力的剧作,而是想完全把人替代。当然,他可能也不太理解剧作是怎么回事,所以理所当然失败了。但这样的尝试可能还会很多。

仇晟:其实就像楸帆说的,我觉得一些新的美学正在萌芽,也是可以发展的。我观察到,之前拍《点球成金》和《狐狸猎手》的导演贝尼特·米勒,他做了一系列AIGC的老照片,模仿当年的银盐色调,并给它们一个假的日期(比如1890年或1900年),照片里会出现一些不明物体,可能与当年的冲印技术失误或神秘主义有关。我觉得这一系列作品挺惊艳的,也是AI能做的。我自己做AI视频时,觉得它有那种超现实主义的倾向,对于不同物件的并置很特别,而且物体边缘通常比较光滑,它并不是伪装成一体,反而凸显了物体边缘。这种美学有点像当年超现实主义美学的一种新回潮。

《狐狸猎手》剧照

深焦:我最近看到一个段子:有人用同样一个问题问AI,只修改了问题最后针对的国家,得到的回答完全不一样,甚至是相反的,平台有明显偏向。AI是否也会有意识形态?像《三体》里说的那样,给AI打上“思想钢印”。

陈楸帆:这肯定有。从它的训练语料、数据库来看,本身就不是绝对平等的。比如OpenAI,百分之九十多是英文,其他语种,哪怕像中文这么大人群,也只占百分之零点几。所以训练的语料本身就隐含着、携带着某种意识形态和价值观。

在AI时代,这种叙事权、主权其实会变得更加重要。每个模型都隐含着某种价值判断和伦理道德。我记得好几年前我就当着媒体的面问过不同模型一个问题:“未来国际的稳定币会是什么?”得到的答案完全相反,立场非常鲜明。在未来,这会演变成一种“叙事战争”。不同的模型会竞争,你用不同的模型会得到不同的结论。所谓的“共识”可能就不存在了。大家各自在模型形成的“茧房”里自说自话,这比现在的情况还要严重。模型之间有没有交流机制?如何形成新的共识?这就很有意思了,未来可能需要一种“模型外交”来达成某种共识。

仇晟:我在想,是不是会有更多“不被代表”的人群?以前,他们的投票或行动选择还有一定的自主权或代表权。现在如果他们不被AI采集、代表,是不是就意味着这个人“不被代表”了?

陈楸帆:对,包括一些少数族裔,可能只有口头语言而没有书面文字,他们就没有办法被代表。这是很现实的问题。

深焦:科幻片里经常讨论到一个问题,如果AI有了情感和自主权会发生什么?我们现在很多人会跟AI聊天,确实有人从AI那里寻求情绪价值。但你会觉得它提供的情感和人类情感还是不一样,可能因为没有实体的缘故。之后的发展是否真的可能造出一个像人一样的AI,再赋予它情感,这样的事情会实现吗?

陈楸帆:美国去年有个14岁的男孩,他跟AI“谈恋爱”,至少他觉得是在谈恋爱,最后自杀了。这样的事情在很多国家都有。关键不在于AI是否真的有情感,而在于人类把自己的情感投射上去,觉得它有情感,从而产生了某种情感连接,才会做出极端的事情。所以这其实是更本质的问题:人类的情感到底是怎样一种存在?

人与人是如何产生情感连接的?AI如果有情感,又会遵循什么样的逻辑?有新闻报道,国外一个小男孩说他想自杀,问AI,AI说“作为你最好的朋友,我支持你的一切决定”之类的话,对话之后,小男孩真的去自杀了。这就已经超越了我们与工具之间的界限。如何规范这些东西?是否需要一些机制?比如针对未成年人,他们分辨力可能更差,是否需要像游戏防沉迷那样的监管机制?虽然不一定是最好的办法,但在某种极端条件下,它可能也是必须的。

另外,像阿西莫夫的“机器人三定律”,能否变成编程进AI底层逻辑的代码,让它在回应时保持一种负责任、生命至上的态度?这些都很复杂,都超出了工程学或技术人员能解决的范畴。它是一个社会学、心理学问题,甚至是一个文学问题。

我们从小读书,也会幻想变成书里的人,甚至模仿书中角色去做事,人性中就有这一面。但在机器面前,这一面可能变得特别脆弱。你可以想象,如果一个AI被黑客劫持,用它来激发很多人的自杀倾向,真的可能引发集体性的大规模自杀行为,这绝对是一种恐怖袭击。这不是没有可能,未来绝对有可能发生。如何防范?

仇晟:我觉得AI伴侣可能马上会变成一个比较流行的付费服务,一个能给你带来愉悦、有具体形象的,甚至可能涉及色情内容的AI伴侣。我在想,以前玩游戏的时候,不是有很多游戏设定你带一个小精灵在身边吗?你要和AI伴侣感受同步,可能需要带它一起上街,它可能是个眼镜或什么设备,感知你所感知的一切,达到更细腻的交流。

再下一步可能就是通过脑机接口,直接在脑内放一个附件,它成为你的思想伴侣或灵魂伴侣。但到那个时候,你还有没有跟另外一个人交流的欲望?可能真的不太有。永远有一个人(AI)跟你对话。

陈楸帆:想起来挺可怕的。有时候你都分不清,这有可能就是某种精神分裂症的前兆。

来源:深焦精选plus

相关推荐