跳至正文
← 返回首页

2026年2月19日 · 访谈 · 39min

Demis Hassabis 谈 AGI、科学品味,以及为何游戏依然重要

#AGI#科学发现#游戏开发#AI与印度

在印度科学研究所班加罗尔分校,Demis Hassabis 与主持人 Varun Mayya 以及 IISc 主任 Govindan Rangarajan 进行了对话。对话内容涵盖了 AlphaFold 对印度制药业的影响,以及为何遗忘可能是 AI 记忆系统中缺失的一环。这次对话展现了 Hassabis 仍然像一位游戏设计师一样思考:他痴迷于找到合适的抽象层次、要解决的正确问题,以及探索和利用之间的适当平衡。

AlphaFold 流程:从蛋白质结构到印度药房

Hassabis 将 AlphaFold 定位为“一个开始”,而不是一个完成的产品。该系统解决了药物发现的一个组成部分,即蛋白质结构预测问题,这是一个 50 年的重大挑战。但结构预测只是其中一部分。建立在 AlphaFold 基础上的衍生公司 Isomorphic Labs 目前正在解决更困难的相邻问题:化合物结合、毒性预测、吸收特性和副作用建模。

其雄心壮志具体得惊人:将平均药物开发时间从 10 年缩短到几个月,甚至几周。Hassabis 承认这听起来像科幻小说,但他以 AlphaFold 本身为例。预测所有 2 亿个已知蛋白质的结构“在 10 年前似乎是不可能的”。

具体到印度,Isomorphic Labs 已经与该国的合同研究组织合作。再加上 Gemini 普及医疗保健信息访问的潜力,从 DeepMind 研究到印度患者的路径贯穿多个渠道。

科学品味:机器最难学习的东西

最具哲学意味的部分集中在“科学品味”上,即选择正确问题的能力。Rangarajan 和 Hassabis 提供了互补的视角,共同描绘了一幅细致入微的图景。

Rangarajan 提出了一个学徒模型:在一位大师级科学家的直接反馈下训练一个定制的 LLM,就像研究生从他们的博士生导师那里学习品味一样。他指出,标准的 RLHF“倾向于平均化,你会回到平均水平”,这与品味恰恰相反。他的愿景具有启发性:未来的 AI 系统可能会将其知识谱系追溯到特定的人类导师,从而创建 AI 思维的“学派”,“Demis 学派”或“Rangarajan 学派”,每个学派对哪些问题重要都有独特的直觉。

Hassabis 将品味分解为直觉和创造力,称其为“机器可能最难模仿的东西”。他的关键见解是,品味不能被动地学习。它需要积极的实验,就像研究生经历的那种亲身实践、反复试验的过程。他将这与 AI 开发本身进行了类比:机器需要在知识的前沿进行积极的实验,而不仅仅是消耗训练数据,才能发展出任何类似于科学判断力的东西。

“Every one of you here is of course great technically, but then to really discover something new, ask the right question, formulate the right hypothesis, requires good taste.” 你们每个人当然在技术上都很出色,但要真正发现新的东西,提出正确的问题,形成正确的假设,就需要良好的品味。

游戏的新黄金时代

Hassabis 将他的 AI 职业生涯追溯到 16 岁时在 Bullfrog Studios 工作,在那里他看到了人们在《主题公园》等游戏中与游戏 AI 互动时有多么享受。这是一个完整的循环:GPU 是为游戏发明的,游戏推动了图形和 AI 的前沿,而现在 AI 已经足够成熟,可以帮助构建游戏。

关于 DeepMind 的世界模型 Genie 3,他对它的局限性进行了非常精确的描述。你可以输入一个提示并获得一个可玩的世界,但它只能保持大约一分钟的连贯性,“就像一个梦,然后它就消失了。”他估计需要 4-5 年才能有意义地延长连贯性窗口。但他明确表示,仅靠世界模型并不能创造游戏。游戏设计、游戏机制、行业积累的工艺知识,所有这些仍然至关重要。

最让他兴奋的不是技术能力,而是结构性后果:AI 工具可以带回 1990 年代初期的条件,当时小型团队可以尝试创造性的想法,因为原型设计既快速又便宜。这可能会催生全新的类型,特别是 AI 填充的大型多人世界,其中 NPC 实际上可以智能地推进故事情节。

如何真正成为一个博学者

关于博学者的讨论超越了陈词滥调。Rangarajan 将其简单地归因于好奇心,即探索不同学科的动力。但 Hassabis 提供了一个实用的框架:

  1. 在至少一个领域成为世界一流。 这是不容谈判的。如果没有在某个领域的深厚专业知识,跨学科工作就会变得肤浅。

  2. 开发快速学习其他领域到研究生水平的技术。 转移你的学习方法,找到连接点,从第一性原理理解新的领域。这是一种元技能。

  3. 寻找交叉点。 DeepMind 本身就诞生于神经科学、工程学和机器学习的交叉点。Isomorphic Labs 位于机器学习、化学和生物学的交叉点。最快的进展发生在这些边界上。

  4. 培养自信和谦逊。 当你已经是其他领域的专家时,你需要有信心在一个新的领域再次成为初学者,并且要有谦逊的态度,真正向那里的专家学习。

Hassabis 指出,存在一个系统性障碍:学术奖励结构并不鼓励这样做。各个部门相互隔离,激励机制推动人们走向狭隘的专业化。他温和地指出,印度教育系统及其分离的专业机构使这个问题变得更糟。Rangarajan 承认了这一点,并指出 IISc 正在努力通过将医学重新引入研究所来补救这种情况,但他承认“随着 AI 的到来,这将成为一个更大的问题。”

AGI:爱因斯坦测试

Hassabis 对 AGI 的定义在 20-30 年来一直没有改变:一个可以表现出人类所有认知能力的系统。他专门研究神经科学,因为人脑是“我们拥有的唯一存在的通用智能证明”。

他提出的测试生动而具体:训练一个知识截止日期为 1911 年的 AI 系统,看看它是否能像爱因斯坦那样在 1915 年之前独立推导出广义相对论。这比当前的基准要难得多。今天的系统可以在国际数学奥林匹克竞赛中赢得金牌,但“如果你以某种方式提出一个相对简单的数学问题,它们就会出错。”这种不一致性,他称之为“锯齿状智能”,表明真正的通用性仍然缺失。

他列出了具体的差距:真正的创造力、持续学习、长期规划以及跨能力的普遍一致性。在他看来,构建像 Gemini 这样的基础模型是“通往 AGI 的最短路径”,但他估计我们“还需要几年时间”。

经济逻辑强化了科学逻辑:一个可以转移到专业领域的通用系统比构建数百个独立的专业系统更有效。这就是为什么该行业正在汇聚到同一条道路上。

缺失的一环:遗忘

观众的问答环节浮现了一个关于记忆的有趣话题。Hassabis 将当前的上下文窗口比作海马体的粗略近似。人类的工作记忆可以容纳大约七个项目;Gemini 的上下文窗口可以容纳一百万个 token。但这种蛮力方法存在一个根本问题:大多数 token 都是无关紧要的。

人类的记忆运作方式不同。我们记住情绪事件(无论是积极的还是消极的)比记住中性事件更好。这种选择性编码是有目的的:它过滤出对未来学习或未来行为有用的东西。AI 系统缺乏这一点。DeepMind 基于眼镜的助手 Project Astra 可以录制大约 20 分钟的视频(大约一百万个 token),但搜索所有这些视频的成本很高。

“Ironically, one of the things we maybe are missing is forgetting, or if you want to talk about in computer science language, garbage collection.” 具有讽刺意味的是,我们可能缺少的东西之一就是遗忘,或者用计算机科学的语言来说,就是垃圾回收。

这意味着:AI 记忆系统不仅需要更大的容量,还需要更好的管理,需要某种相当于杏仁核的价值判断,以决定什么值得保留。Hassabis 证实这是 DeepMind 的一个积极的研究方向。

在 Google DeepMind 平衡研究和收入

关于 Google 的商业压力和 DeepMind 的研究使命之间的紧张关系,Hassabis 描述了一种大致 50/50 的分配。他的一半团队致力于眼前的优先事项,支持 Google 产品和 Gemini 的开发。另一半则致力于“下一个前沿”,时间跨度为 18 个月到两年。

正如他所说,他的工作是“保护蓝天研究,并确保它有蓬勃发展的空间。”商业工作不仅仅是一种税收;构建像 Gemini 这样的基础模型本身就是通往 AGI 的道路。但这种平衡需要积极的管理,确保组织“不会过度关注近期”。

接下来会发生什么

两位演讲者都提出了预测。Rangarajan 指出了 AI 在数学领域的应用:当 AI 在一个被认为是天才云集的领域取得“巨大进步”时,公众会感到惊讶,因为数学建立在使预测可验证的公理和定义之上。

Hassabis 指出了 AI 在物理世界的应用。机器人技术将在“未来 2-3 年内成熟”。Gemini 的多模态功能正在为基于眼镜的助手开发,这些助手可以理解物理环境。自动驾驶汽车即将成为全球现实。自动化实验室不仅可以加速理论科学发现,还可以加速实践实验。

一点余思

  • 将科学品味作为人类的终极区分因素,比大多数关于 AI 和人类价值的讨论更令人充满希望。如果品味需要积极的实验并且不能被动地学习,那么人类经验的价值不会随着更好的 AI 而降低;它会成为瓶颈。
  • AI 品味的学徒模型非常违反直觉。在个体导师的指导下训练 AI 系统,而不是在所有人类知识中进行平均,这表明机器创造力的路径可能源于特质,而不是共识。
  • Hassabis 的进化隐喻,从汇编器到 C++ 到 Python 再到自然语言,将 AI 编码工具重新定义为几十年抽象阶梯的下一步,而不是扼杀就业的工具。工艺会改变;它不会消失。
  • 遗忘的洞察力与更广泛的模式相关:最重要的 AI 进步可能不是来自添加更多功能,而是来自构建更好的过滤器,教会机器忽略什么。
观看原视频 →