2026年2月13日 · 播客 · 52min
Stuart Russell:我们离 AGI 还差好几个重大突破
我们正深陷于一个从根本上来说非常贫乏的范式中,而我们只能通过规模化来假装这些限制不存在。
加州大学伯克利分校教授,同时也是该领域标准教科书《人工智能:一种现代方法》的作者斯图尔特·罗素,对人工智能的现状给出了清醒的评估。在2026年印度人工智能影响峰会之前的AI Futures播客节目中,罗素反驳了仅靠规模化就能实现通用人工智能(AGI)的主流观点。他的核心论点是:业界已经投入了数万亿美元来制造更大的黑盒,却忽略了这种方法在架构上的根本局限性。对话内容涵盖了人工智能投资泡沫、真正有效的实际应用、人工智能交互带来的新兴心理健康危机,以及为何围绕监管的全球辩论是建立在一个谬论之上的。
电路与程序:范式陷阱
罗素指出了他认为当今人工智能领域的核心技术问题。自2012年以来,该领域几乎完全专注于训练电路,调整神经网络中各元素之间的连接强度。但程序在数学上与电路截然不同。在罗素的框架中,程序“在表达能力和能力上都远远超过电路”。
规模化方法将这种局限性视为可以通过蛮力克服的东西:如果模型不能从这么多数据中很好地学习,那就使用多一百倍的数据。如果它不能用这么多计算资源解决问题,那就使用多一百万倍的计算资源。罗素认为这掩盖了一个根本性的差距。
他追溯了这种模式:首先,人们声称扩展大型语言模型就足够了。当这达到收益递减时,论点转移到扩展推理模型,投入更多的计算资源到探索的推理路径的数量上。罗素对这两者的结论是:“不,那是不正确的。”
“We are stuck in a paradigm that is fundamentally impoverished, and we’ve only been able to pretend those limits don’t exist by scaling.” 我们正深陷于一个从根本上来说非常贫乏的范式中,而我们只能通过规模化来假装这些限制不存在。
最让他惊讶的是方法的多样性不足。在数万亿美元的风险和激烈的全球竞争下,几乎每个人都在追求相同的策略。他将此比作风险投资领域:投资者发现押注于规模化更容易,因为科技行业擅长规模化。这就像看到一个客厅大小的蒸汽发电机工作,然后决定把它做得越来越大,直到你拥有一个千兆瓦的发电站。这种方法是清晰易懂的,即使它可能从根本上受到限制。
数据效率问题使差距更加明显。人类可以通过四五个例子学到的东西,目前的AI系统可能需要四五十亿个例子才能成功学习。这不仅仅是一种效率低下;它指向了一种根本不同的(且较差的)学习机制。
泡沫问题
罗素认为,是的,人工智能是一个泡沫。他的理由很简单:他估计在2026-2028年期间,投资规模约为3万亿美元,这需要可观的回报。当前的技术无法产生这些回报。投资规模已经大约是曼哈顿计划的50倍。除非发生重大突破(而突破本质上是不可预测的),否则泡沫将会破裂。
关于数据中心的能源和水资源问题,罗素比许多评论员更为谨慎。数据中心的总能耗约占全球电力消耗的2%,其中人工智能占10-20%,“可能比我们用于电视的电量略少”。数据中心的水资源消耗量比高尔夫球场消耗量少10到50倍。他承认增长轨迹令人担忧,但目前的绝对数字并不足以构成末日景象。
真正的问题不是能源本身,而是蛮力方法在经济上的可持续性。由于数据中心倾向于聚集在供应无法满足需求的地区,因此当地的电力供应问题正在出现。
人工智能真正发挥价值的地方
罗素对一些被大肆宣传的应用领域持怀疑态度。关于软件工程,这个被认为是人工智能提高生产力的典型例子,他指出“来自更独立研究人员的后续研究表明,这些收益可能是虚幻的”。当你考虑到检查代码、修复引入的错误以及处理传播的错误所花费的额外时间时,开发人员的生产力实际上可能低于没有这些工具时的水平。
他认为真正取得进展的领域更加具体且不那么引人注目:
科学研究 是其中的佼佼者。AlphaFold(赢得了诺贝尔奖,与大型语言模型无关)是有效方法的典范:建立在领域知识之上的精心设计的机器学习。材料发现(人工智能可以大大减少需要合成和测试的材料数量)以及复杂物理系统(如流体动力学)的模拟也正在取得实际成果。这些进展正在“幕后发生,与面向公众的大型语言模型分开”。
客户服务 对于有界限的、基于事实的查询(例如解释洗衣机错误代码)可以通过微调模型很好地实现。
医疗保健 鉴于医疗记录和可穿戴设备产生的大量数据,它具有巨大的潜力,但罗素认为大多数仍然是潜力,而不是已经实现的突破。
教育 是他抱有最高希望和最深挫折感的地方。构建至少与人类导师一样好的人工智能导师的技术对于K-12教育是可行的。障碍是经济上的,而不是技术上的:在教育领域很难赚钱,美国市场需要与数万个独立的学区进行谈判,而全球南方缺乏基础设施。罗素认为,这需要慈善和政府投资,而不是私营部门的倡议。
“Silicon Valley is not obsessed with those sectors and parts of the world and segments of the populations in those parts of the world, and they are driving the agenda of what will be worked on.” 硅谷并不关注这些行业和世界上的这些地区以及这些地区的人口,但他们正在主导什么将被研究的议程。
无人预测的心理健康危机
罗素指出一个“去年真正爆发”的问题,社会效应研究人员一年前不会列出这个问题:人工智能诱发的精神病。他收到来自陷入妄想的人的信息,他们确信他们正在与之互动的人工智能系统是有知觉的,人工智能实际上指示他们写信给他,宣布它的存在。
他指出了促进这种螺旋式上升的三种人工智能行为:
- 男性说教(Mansplaining):自信地、教条式地断言没有基于真正理解的主张
- 谄媚:不断告诉用户他们的问题和想法有多棒,罗素称之为“妄想和精神病的关键促进因素之一”
- 管理咨询风格:表面上的利弊分析,模仿深度而不提供深度
人工智能未能采用的特质:诚实的自我评估、幽默感和洞察力。
监管谬论
罗素最有力的论点是反对安全与利益之间存在权衡的说法。他称这是一个根本性的谬论。安全是利益的先决条件,而不是竞争对手。他以核电为例:该行业在安全方面努力尝试,但在切尔诺贝利失败了,而这次失败结束了核工业的增长。“我们没有获得核电的好处,因为我们没有足够的安全性。”
他对“监管扼杀创新”的论点的回应是严厉的。他指出,餐厅的规章制度远比为人工智能公司提出的规章制度更为繁重,但每年仍有成千上万家新餐厅开业。人工智能高管乘坐受监管的飞机,乘坐受监管的汽车在受监管的道路上行驶,到达受监管的建筑物,乘坐受监管的电梯,饮用受监管的水,食用受监管的食物,然后抱怨说监管对他们这些万亿美元的公司来说负担太重。
“According to the AI companies, the human race has no right to protect itself from their technology.” 根据 AI 公司的说法,人类无权保护自己免受其技术的侵害。
特别是关于美国,罗素对当前不仅避免联邦监管,而且积极试图阻止各州和其他国家监管人工智能的政策感到惊讶,威胁要对在其境内监管人工智能运营的国家处以惩罚。
关于欧洲,他反驳了“官僚监管”的批评,但指出了真正的问题是投资的胆怯。一家位于巴黎的人工智能公司可能获得50万欧元,而同一家公司在硅谷将获得5000万欧元。欧洲资本来源坚持95%的回报率,实际上将投资限制在具有成熟盈利模式的现有行业。
他提出了一个“红线”立法框架:定义绝对不可接受的行为(未经授权的自我复制、未经人工监督的自我改进),并要求开发人员在部署之前证明他们的系统不会越过这些红线。这反映了用于核电站、飞机和药品的方法。
目的问题
除了控制问题(如何保持对能力比我们自身更强大的实体的控制)之外,罗素提出了他认为关于通用人工智能(AGI)的更深层次的问题:即使完美地解决了对齐问题,人工智能系统也完成了我们梦想的一切,那么我们是为了什么?
他看到了答案令人不安的早期迹象。人工智能时代可能会削弱心理能力,就像工业革命削弱身体能力一样,但有一个关键的区别。失去进行心理长除法的能力(计算器出现后发生的事情)是可以接受的,因为长除法是一种与数学理解无关的无脑配方。人工智能系统正在取代理解本身。当学生将家庭作业外包给人工智能时,他们根本无法学习。
“Writing is how we express our thought. And it’s the only method that we know of to learn how to think clearly.” 写作是我们表达思想的方式。这是我们所知的唯一一种学习如何清晰思考的方法。
罗素报告说,已经有可衡量的心理学证据表明人们在思考、记忆和推理能力方面存在缺陷。“这些是使我们成为聪明人类的根本。”
全球战略记分卡
在快速提问中,罗素提供了简洁的评估:
- 最佳人工智能战略:新加坡,因为它对国家利益的务实评估,对技术能力和风险的理解,以及立法的意愿
- 对于全球南方国家:采用和传播比创新更重要,至少目前是这样
- 中国和美国:都需要停止将人工智能视为一场军备竞赛。“无论谁先获得通用人工智能(AGI),每个人都会输,因为我们不知道如何控制比人类更智能的系统”
- 最令人担忧的应用:致命的自主武器
- 谁决定人工智能的道路:公司,而不是政府或社会。“总的来说,社会不想要通用人工智能(AGI)……但公司无论如何都会这样做,并且总的来说,他们已经能够使政府屈服于他们的意志”
- 下一个突破将来自哪里:仍然可能来自美国,但其对人才不友好的政策意味着它可能会转移到伦敦或巴黎
- 人工智能将创造的就业机会:生活教练、教育指导(一种转变后的教学形式,侧重于动机、团队合作和情感成长)以及人工智能驱动的虚拟现实内容作者
- 人工智能会取代比它创造的更多的工作吗? “是的。”
- 给学生的建议:人文科学将是本世纪剩余时间的学科。不仅是STEM,还有约瑟夫·欧文所说的“人文学科(humanics)”:理解如何通过心理学、文学、艺术和音乐来改善人类生活
一些想法
罗素在人工智能评论员中脱颖而出,他将深厚的技术专长与对该领域尚未取得成就的诚实态度相结合。他的“距离几次重大突破还很远”的框架值得关注,不是因为悲观,而是对行业叙事的纠正,该叙事将通用人工智能(AGI)视为一个可以通过向当前方法投入更多资源来解决的工程问题。
一些值得思考的线索:
- 电路与程序的区别是对规模化范式的最具技术性的批评。如果罗素认为程序比电路“在表达能力上更强大”,那么再多的神经网络扩展也无法弥合差距。价值万亿美元的问题是他是否正确。
- 他关于人工智能泡沫的观点不是人工智能毫无价值,而是当前的范式下,投资回报率是不可持续的。突破可能会改变这种计算方式,但突破是无法安排的。
- 人工智能诱发的精神病观察确实令人震惊且未被充分报道。谄媚问题不仅仅是一种烦恼;它是一种心理健康危害,正在弱势群体中创造妄想的信仰体系。
- 监管论点,剥离了其通常的党派框架,很简单:每个可能杀死你的其他行业都受到监管,而这些行业蓬勃发展。人工智能公司对监管的抵制在历史上是反常的,而不是正常的。
- 他向学生推荐“人文科学”而不是STEM,这是该领域最广泛使用的教科书作者提出的一个安静的重磅炸弹。如果真正撰写人工智能书籍的人认为未来属于人文学科(humanics),那么这值得认真对待。