摘要:但2026年发布的《国际AI安全报告》告诉我们,真实的风险图景远比科幻电影里的机器人叛乱更模糊、更难量化,也因此更难应对。这份由全球数十位顶级AI研究者共同撰写的报告,是迄今为止对AI潜在风险最系统的一次评估,结论没有给出"放心"二字。
谈到人工智能末日,大多数人脑海里浮现的第一个画面,是《终结者》里冷酷的机器眼。
但2026年发布的《国际AI安全报告》告诉我们,真实的风险图景远比科幻电影里的机器人叛乱更模糊、更难量化,也因此更难应对。这份由全球数十位顶级AI研究者共同撰写的报告,是迄今为止对AI潜在风险最系统的一次评估,结论没有给出"放心"二字。
2024年一项对近3000名AI研究人员的调查结果,至今仍是业界最常被引用的数据之一:超过半数的受访者认为,AI导致人类灭绝的概率不为零,且在未来一百年内确有可能发生。
这个数字乍看触目惊心,实际上需要拆解理解。
"不为零"和"很高"之间差着数个数量级。绝大多数持此看法的研究者给出的概率估计,集中在1%到10%区间,少数人给出更高或更低的数字。而概率如此分散的本身,就已经说明了一个关键问题:目前没有人真正知道答案。
麻省理工经济学家达伦·阿西莫格鲁在近期访谈中明确指出,当前的AI系统本质上仍是统计模式匹配工具,距离能够自主制定目标、主动颠覆人类控制的"超级智能",还有至少数个技术台阶需要跨越,而每一个台阶是否能跨过,目前都没有定论。Anthropic首席执行官达里奥·阿莫迪去年发布的长篇警示文章则持更悲观的立场,他直接点名了三类"文明级风险":AI辅助的生化武器研发、威权政治工具化,以及大规模劳动力市场崩溃。
两种声音都来自业内最顶尖的人,指向同一个结论:这个问题很严肃,但答案现在没人知道。
与其讨论机器人会不会在2050年杀死所有人,倒不如看看AI在2026年正在制造哪些实实在在的麻烦。
《国际AI安全报告》在这方面措辞毫不客气:当前的AI模型已经能够生成大规模的政治宣传内容、编写恶意代码,并以令人信服的方式模拟人类沟通,这些能力正在被实际利用,每天都在发生。
德意志银行的研究报告指出,生成式AI的快速渗透正在重塑全球劳动力市场预期,部分岗位的替代风险已从理论讨论走向实操评估。高盛此前估算,若AI全面渗透各行业,全球可能有3亿个工作岗位受到不同程度冲击。
这些风险不需要"超级智能觉醒"就会发生,它们正在发生。
研究AI治理的牛津大学学者尼克·博斯特罗姆长期以来区分两类AI风险:一类是近期风险,包括偏见、滥用、失业和虚假信息,这些风险是真实的、当下的;另一类是长期存在风险,包括失控的超级智能,这些风险的概率尚不确定,但潜在后果极端严重。他的建议是两手都不能放,但不能因为担心后者而忽视前者。
这个框架,也许是目前最清醒的表述。
Anthropic研究主管亚伽·科特拉在2026年初的一次访谈中提出了一个有趣的时间框架,她认为AI系统在未来25年内的进展,有可能等效于过去一万年的人类知识积累。如果这个判断接近事实,我们处理这一切的时间窗口,比绝大多数人意识到的都要短。
害怕AI末日,不如认真理解它。
真正的挑战,不是如何阻止机器人叛乱,而是如何确保这项技术在彻底改变人类社会之前,掌握在足够负责任的手中。这件事没有科幻电影里的明确反派,有的只是分散的决策、不完整的信息,以及一个比任何人都跑得快的技术曲线。
来源:辰彦语不休