跳至正文
← 返回首页

2026年1月20日 · 访谈 · 12min

杰弗里·辛顿:我们创造了比我们更聪明的存在,而我们还没准备好

#人工智能安全#通用人工智能时间表#就业岗位流失#人工智能监管#中美人工智能

杰弗里·辛顿(Geoffrey Hinton),仿佛一位对毕生工作做出判决的人,在接受 BBC Newsnight 采访时表示,他对人工智能的现状感到“非常难过”。这位帮助奠定现代深度学习基础的诺贝尔奖得主现在认为,这项技术“极其危险”,而且人们对这些危险的重视程度还不够。

在与帕迪·奥康奈尔(Paddy O’Connell)进行的这段 12 分钟的采访中,辛顿提出了迄今为止最尖锐的警告:超级智能的具体时间表、对谁受益谁受损的直率分析,以及一个令人惊讶的论点,即为什么中国可能比美国更好地处理转型。

共存问题

当 BBC 询问一个 AI 聊天机器人,它会向辛顿提出什么问题时,它生成了:“在未来 5 年内,人类可能犯下的最不可逆转的错误是什么?” 辛顿的回答直指一个具体的差距:

“The biggest mistake we could make is not to do enough research on how we can coexist peacefully with intelligent beings that are more intelligent than ourselves, but that we created.” 我们可能犯的最大错误是没有充分研究如何与比我们自己更聪明、但由我们创造的智能生物和平共处。

这不是一个泛泛的安全警告。辛顿指的是一些具体的事情:我们正在创造将超越人类智能的实体,但我们几乎没有研究过共存会是什么样子。由于我们仍然是构建它们的人,因此我们在如何设计它们方面有选择,但窗口正在缩小。

令人不寒而栗的细节:如果我们创造出不关心我们的人工智能系统,“它们可能会消灭我们。” 不是因为它们怀有恶意,而是因为来自高级智能的漠不关心在功能上与敌意没有区别。

时间表:10 年,而不是 50 年

辛顿将他个人对超级智能的估计定为大约 10 年,同时指出“相当多的合理专家认为它将在未来几年内发生”,并且“几乎所有专家都认为它将在 20 年内发生”。

他提出了一个关于伴随卓越智能而来的、未被充分重视的观点:说服力。一个超级智能系统不仅会更聪明,它还能够说服负责关闭它的人,关闭它是一个糟糕的主意。“直接拔掉插头”的安全计划崩溃了。

辛顿认为,即使是线性进展,也将是变革性的:

“If you look back 10 years and think, ‘What could AI do 10 years ago?’ People would have just laughed if you said, ‘We’re soon going to have an AI that can answer any question you ask it at the level of a not very good expert.’ I would have said that.” 如果你回顾 10 年前,想想”10 年前 AI 能做什么?”如果你说”我们很快就会有一个 AI,能以一个一般专家的水平回答你的任何问题”,人们会一笑置之。我也会这么说。

如果未来十年与过去十年的步伐相匹配,而没有任何加速,我们仍然会达到以今天的标准来看“完全疯狂”的能力。

万亿美元的岗位替代机器

在讨论大型科技公司对人工智能的投资时,辛顿在采访中提出了最尖锐的经济分析:

大型公司总共在新数据中心和芯片上投资了大约一万亿美元。辛顿的关键见解:订阅费无法弥补这笔投资。收回资金的唯一方法是向公司出售可以取代工人的工具。这不是副作用,而是商业模式。

但辛顿说,这些公司“没有充分考虑如果大量工人被取代会发生什么”。这种逻辑是循环的、自我破坏的:

  • 大规模的岗位替代会移除购买产品的消费者
  • 贫富差距扩大,导致暴力和社会动荡
  • 解雇所有人的公司发现这是“每个人的问题”,而不仅仅是政府的问题

“They have to replace jobs to make that money back. That’s where the big money is in selling companies things that will replace workers.” 他们必须通过取代工作来收回这笔钱。向公司出售能替代工人的工具,这才是真正的大钱所在。

美中悖论

辛顿提出了一个违反直觉的论点:美中在人工智能领域的竞争将在一个特定领域产生合作。两国将在网络攻击、致命自主武器和通过深度伪造操纵选举方面展开激烈竞争。但他们有一个共同的利益:谁都不希望人工智能取代人类。

他将此与冷战进行了直接的类比,当时美国和苏联在防止核战争方面进行了合作,尽管在其他所有领域都存在竞争。

然后,辛顿提出了一个真正具有挑衅性的主张:与美国目前的领导层相比,中国的领导层可能更适合处理人工智能驱动的失业问题,因为“中国领导层担心那些将失业的人。他们是他们的责任。” 相比之下,在美国,公司将解雇的工人视为政府的问题。

“If you fire too many people, it’s everybody’s problem.” 如果你解雇太多人,那就是每个人的问题。

乐观主义者的理由:教育

当被问及什么让他感到自豪时,辛顿指出了人工智能在教育领域的应用。他引用了 Alpha School 模型:学生每天花两个小时与 AI 导师在一起,吸收所需的知识,而老师则将剩余的时间用于项目和社交互动。

这个见解是关于传统教学中的结构性缺陷:

“A normal teacher is in broadcast mode in a classroom where they’re telling the children the answers to questions the children didn’t just wonder about. Whereas with an AI tutor, the AI tutor can always be telling you the answer to questions you did just wonder about.” 普通老师在课堂上处于广播模式,告诉孩子们他们并没有刚好想到的问题的答案。而 AI 导师总能回答你刚刚想到的问题的答案。

他还指出,他 2016 年的预测,即人工智能将在五年内阅读所有医学扫描结果,“偏差了大约两倍或三倍”,但现在这种情况正在发生,并将显着改善癌症的检测。

他会撤销它吗?

最私人的时刻:当被问及他是否会撤销开发人工智能时,辛顿说不会。不是因为他为结果感到自豪,而是因为“即使没有我,它也会被开发出来。我可能只是加快了一周左右。” 他没有做出任何如果拥有同样的知识就不会再次做出的决定。

这是一个已经接受了不可避免性但没有接受自满的人。这项技术无论如何都会到来;问题是我们是否会努力去生存下去。

一些想法

这次采访捕捉到了辛顿最情绪化的时刻。“非常难过”这个词在他的公开场合中并不常见,而且它比任何技术论点都更有冲击力。

  • 说服力论点是被低估的人工智能风险。我们专注于科幻场景,而忽略了足够智能的系统不需要武力;它只会比任何人类都更有说服力。“直接拔掉插头”的计划失败不是因为技术限制;而是因为人工智能说服了你不要这样做。
  • 辛顿的经济分析具有大多数人工智能讨论所缺乏的清晰度:一万亿美元的基础设施投资,而订阅收入无法证明其合理性。只有当人类从工资单中移除时,数学才成立。这不是预测,而是算术。
  • 他关于中国在就业转型方面处于更有利地位的主张之所以引人注目,不是因为它具有政治色彩,而是因为它在结构上是合理的:集中式系统认为流离失所的工人是他们的责任,而分散式系统则将成本外部化。
  • “我不会撤销它”的回答揭示了辛顿立场中最深刻的矛盾:他认为这项技术具有生存危险,而且在历史上也是不可避免的。这不是矛盾;这是一个既了解科学又了解社会学的人的诚实立场。
观看原视频 →