2026年2月12日 · 演讲 · 51min
谨慎的乐观主义者:Demis Hassabis 在达沃斯论 AGI 的缺失拼图与人类未来
1. 节目概览
- 核心论题:AGI 到来的关键不在于编程自动化能跑多快,而在于科学创造力的最高层次(提出假设和理论)何时能被 AI 掌握。Demis 认为当前模型在编码和数学上进步显著,但在自然科学的实验验证和假设生成上仍有根本性缺口,自我改进循环能否不依赖人类完全闭合仍是未知数。
- 嘉宾背景:Demis Hassabis(Google DeepMind CEO/联合创始人,2024 诺贝尔化学奖得主)与 Dario Amodei(Anthropic CEO/联合创始人)在 2026 达沃斯世界经济论坛年会上的 panel 对话,由《经济学人》主编 Zanny Minton Beddoes 主持。这是两人继 2025 巴黎对话后的第二次同台。
- 关键结论:
- Demis 维持 50% 概率在本十年末实现 AGI 的判断,相较 Dario 的 1-2 年更为保守
- 编程和数学因输出可验证而更容易自动化,自然科学中的假设生成和实验验证是更难跨越的关卡
- 如果自我改进循环无法单独完成任务,世界模型(world models)和持续学习(continual learning)将是必须突破的方向
- 就业冲击今年开始影响初级岗位,但 AGI 后将进入”完全未知领域”,人类意义感和目标感的问题比经济分配更难解决
- AI 行业在”展示 AI 明确造福世界”方面做得远远不够,AlphaFold 式的成果应该更多
2. 详细内容
2.1 AGI 时间线:编程 ≠ 科学
- Demis 维持去年的预测:50% 概率在本十年末实现 AGI。他强调编码、数学等领域的自动化进展”比较容易看到”,因为这些领域的输出可以被程序验证(代码能跑、证明正确即可)
- 但自然科学的情况完全不同:你不一定知道预测的化合物结构或物理规律是否正确,很多时候必须通过实验验证,这个过程无法被纯软件加速
- 更关键的缺失:当前模型能解决已知问题(如现有猜想),但缺乏”提出问题本身”的能力。Demis 明确指出”提出假设和理论”是科学创造力的最高层次,目前的系统尚未展示这种能力
- 他列出可能的”缺失成分”:世界模型(world models)、持续学习(continual learning),认为如果自我改进循环本身无法让模型突破这些瓶颈,就需要专门的研究突破
2.2 自我改进循环的限制与可能
- 对于 Dario 强调的”闭合循环”(AI 写代码 → AI 做 AI 研究 → 加速下一代模型),Demis 给出了更谨慎的判断:编码和数学领域”我能看到这行得通”,但完全闭合还是未知数
- 他补充了物理约束的视角:AGI 应该包括物理 AI、机器人等能力,而一旦涉及硬件,自我改进系统的速度就会受到限制
- 核心理论问题:工程和数学的极限在哪里?能否仅通过工程和数学能力来解决自然科学问题?Demis 认为这是一个”更理论化的问题”,答案尚不明确
- 总结来看,Demis 认为 AI 系统构建 AI 系统是最值得关注的方向(与 Dario 一致),但同时提出了如果这条路走不通的 Plan B
2.3 就业冲击与人类意义感的深层危机
- Demis 预计今年开始影响初级岗位和实习生,但近期将遵循正常的技术演进模式:一些工作被替代,新的更有价值的工作被创造
- 他对大学生的建议非常直接:“极度精通这些 AI 工具”。他认为当前工具”几乎免费”,能力远超大多数人的实际使用程度,存在巨大的”能力过剩”(capability overhang),甚至连开发者自己都忙于构建而来不及充分探索
- 但 AGI 到来后将是”完全未知的领域”(uncharted territory)。他区分了两个层次的问题:经济分配问题”可能更容易解决”(进入后稀缺时代,通过制度设计分配新财富),但人类从工作中获得的意义感和目标感”更难解决”
- Demis 对此保持乐观,指出人类今天从极限运动到艺术,已有大量与经济收入无关的活动,未来会出现”更精细复杂的版本”。他还提到”探索星际”作为人类未来目标感的来源
2.4 AI 行业的责任:展示而非空谈
- Demis 直接批评 AI 行业在”展示 AI 明确造福世界”方面做得不够。他以 AlphaFold 为标杆,认为这种”毫无争议的善”(unequivocal good)应该成为行业的常态而非例外
- 他提到 Isomorphic Labs(DeepMind 的药物发现子公司)正在推进治愈疾病、开发新能源等方向,强调这些不仅是道义责任,也是防止公众反弹的关键
- 关于公众反弹的风险,他认为”恐惧和担忧是合理的”,如果行业不能展示足够的正面成果,类似 1990 年代全球化引发的民粹反弹可能重演
2.5 地缘政治与国际合作
- Demis 强调需要国际合作,特别是 AI 部署的最低安全标准。他认为当前技术将影响全人类,不可能只靠一国解决
- 他坦言自己”更希望能有略慢一点的节奏”来给社会适应的时间,但这需要国际协调,而当前的地缘政治环境让协调变得极其困难
- 在被问及 Dario 关于”不出售芯片”的立场时,Demis 表示同意需要某种形式的国际协作来降低风险
2.6 AI 安全:风险真实但可解
- 两人都明确拒绝”末日论”(doomerism),但 Demis 的表态有其独特角度:他是一个”人类聪明才智的坚定信仰者”,相信只要有足够时间、专注度和最优秀的头脑协作,技术安全问题完全可以解决
- 但他警告:如果研究力量被分散、各方互相竞速,确保系统技术安全就会变得”难得多”
- 他从 DeepMind 成立之初(15 年前)就在思考这些风险,认为 AI 是”双重用途技术”(dual purpose technology),能力越强,被恶意利用的风险越大
- 关于费米悖论,Demis 提出了一个有趣的反驳:如果文明被自身技术毁灭是普遍现象,我们应该能看到宇宙中失控 AI 的痕迹(戴森球、“回形针”飞来等),但什么都没有。他猜测”大过滤器”可能是多细胞生命的进化,人类已经跨过了这个门槛,“接下来发生什么,由我们自己书写”
2.7 Google DeepMind 的竞争力回归
- 在被问到过去一年的竞争格局变化时,Demis 表示对 DeepMind 重回顶级水平”始终非常有信心”。他将此归因于 DeepMind 拥有”最深最广的研究团队”,关键是将这些力量整合起来,恢复”创业公司的强度和专注度”
- 他提到 Gemini 3 模型和 Gemini App 的市场份额增长,将 DeepMind 定位为”Google 的引擎室”,正在加速将模型推送到各产品线
- 与 Dario 达成共识:由研究者领导、专注解决重要科学问题的公司才是未来赢家
3. 精彩金句
“Really we would be in uncharted territory at that point.”
AGI 到来后,我们将真正进入完全未知的领域。
“I think that’s the highest level of scientific creativity and it’s not clear we will have those systems.”
提出假设和理论是科学创造力的最高层次,我们能否拥有这样的系统还不清楚。
“I would be telling them to get really unbelievably proficient with these tools.”
如果我现在去对一群大学生讲话,我会告诉他们把这些 AI 工具用到极致。
“The economic question may be easier to solve strangely than what happens to the human condition.”
奇怪的是,经济问题可能反而比人类境况的问题更容易解决。
“It’s for us to write as humanity what’s going to happen next.”
接下来会发生什么,由我们人类自己书写。
4. 节目洞察
Demis 在这场对话中展现了一位科学家型 CEO 与商业型 CEO 之间的微妙差异。相比 Dario 聚焦于”闭合循环”的紧迫感,Demis 更关注循环之外的缺失拼图:世界模型、持续学习、假设生成能力。这不是时间线上的保守,而是对”什么构成真正的通用智能”的更严格定义。
值得注意的是 Demis 对”人类意义感”问题的重视程度。他将其排在经济分配之上,认为后者”反而可能更容易解决”。这或许反映了他的神经科学背景:理解人类智能的研究者,比纯粹做工程优化的人更敏感于”智能”被外包后人类角色的根本性改变。
Demis 对 AI 行业”展示不够”的批评也很罕见。作为 AlphaFold 的创造者,他有资格要求行业拿出更多”毫无争议的善”,而不是只谈能力跃升。这个立场既是对行业的督促,也是对 DeepMind 科学使命的再次强调。
5. 资源索引
- 人物:Zanny Minton Beddoes,《经济学人》主编,panel 主持人
- 人物:Benjamin Larsen,世界经济论坛 AI 安全负责人
- 人物:Yoshua Bengio,AI 教父,WEF 全球未来委员会(AGI)联合主席
- 人物:Akiko Murakami,日本 AI 安全研究所所长,WEF 全球未来委员会(AGI)联合主席
- 工具/产品:AlphaFold,Google DeepMind 的蛋白质结构预测算法,被作为 AI 造福人类的标杆案例
- 工具/产品:Gemini 3,Google DeepMind 最新模型
- 论文/概念:世界模型(World Models),Demis 认为可能是 AGI 的关键缺失成分之一
- 论文/概念:持续学习(Continual Learning),与世界模型并列的另一个关键缺失方向
- 论文/概念:机械可解释性(Mechanistic Interpretability),Anthropic 开创的 AI 安全研究方向
- 公司/组织:Isomorphic Labs,DeepMind 的药物发现子公司
6. 思考与行动
- 可执行建议:
- 如果你是大学生或职场新人,立即深度使用 AI 工具。Demis 认为当前工具的能力远超大多数人的实际利用程度,存在巨大的”能力过剩”
- 关注 AGI 研究中”世界模型”和”持续学习”方向的进展,这可能是判断 AGI 时间线的另一个关键信号(区别于 Dario 强调的编码自动化)
- 如果你在 AI 行业,思考如何创造 AlphaFold 式的”毫无争议的善”,这既是道义责任,也是防止公众反弹的最佳策略
- 开放问题:
- AI 能否学会”提出问题”而不仅仅是解决问题?这是 Demis 定义的科学创造力最高层次
- 当 AI 处理了大部分认知工作后,人类如何从工作之外找到意义感和目标感?
- 自我改进循环需要哪些具体的”缺失成分”才能完全闭合?世界模型和持续学习是否足够?
- 延伸阅读:关于 AlphaFold 对科学研究的影响;世界模型(World Models)的研究前沿;费米悖论与大过滤器理论