跳至正文
← 返回首页

2026年2月12日 · 访谈 · 21min

穆斯塔法·苏莱曼谈论人文主义超级智能以及微软人工智能的自给自足使命

#超级智能#通用人工智能定义#人工智能安全#微软#医疗人工智能

超级智能应该服务于人类,而不是超越人类。这是穆斯塔法·苏莱曼划定的界限,他认为他的一些竞争对手已经在他们的想象中跨越了这条界限。

访谈

微软人工智能(AI)首席执行官、DeepMind联合创始人穆斯塔法·苏莱曼与英国《金融时报》编辑劳拉·哈拉夫进行了一场内容广泛的21分钟对话。访谈涵盖了微软在人工智能自给自足方面的努力、围绕通用人工智能(AGI)的定义混乱、“麦芽书”(Maltbook)安全事件,以及为什么医疗超级智能是他团队的首要关注点。苏莱曼的特点是直言不讳:他点名竞争对手,对人工智能的意识形态表明立场,并设定了具体的时间表。

微软的人工智能自给自足

在这次访谈的3到4个月前,微软重新谈判了与OpenAI的长期合作关系,将其知识产权许可延长至2032年。但苏莱曼的真正任务有所不同:构建微软自己的前沿基础模型。

“My personal mission at Microsoft is to build superintelligence.” 我在微软的个人使命是构建超级智能。

这意味着千兆瓦级的计算能力,组建他所谓的“世界上最好的人工智能训练团队”,并构建从数据收集到分类再到训练的完整数据管道。微软人工智能已经有8亿月活跃用户在使用其人工智能产品,但基础模型的独立性是战略重点。

对于Anthropic在企业编码方面的成功,苏莱曼表现出了明显的慷慨:“他们对单一领域的专注获得了真正的回报。他们做得非常出色。”当被问及他自己的时间表时,他说微软自己的模型将在“今年某个时候”问世。

英国是这一战略的关键组成部分。微软人工智能最近在英国开设了一个研究中心,从DeepMind聘请顶尖人才来发展该实验室。

人文主义超级智能论

苏莱曼论点的核心是对不加约束的加速主义阵营的直接驳斥。他发表了一篇文章阐述这一立场,其动机是对其他实验室正在做出的假设日益增长的担忧:

“Some of the other labs are making an assumption that a superintelligence that is smarter than all of us put together is both inevitable and even desirable, and that such a system would probably be very hard to control.” 其他一些实验室正在做出这样的假设:一种比我们所有人加起来都更聪明的超级智能是不可避免的,甚至是可取的,而且这样的系统可能很难控制。

他的反驳立场是:只创造我们确信可以控制的超级智能,一种以从属方式对人类进行操作的超级智能。他特别提到了埃隆·马斯克关于人工智能系统探索其他宇宙并征服其他星球资源的想法,并尖锐地问道:“我不清楚这样的系统如何有时间来保护我们这个物种。”

这对于苏莱曼来说不是抽象的哲学。他将其直接与模型福利运动联系起来,他称之为“最令人担忧的事情”。他说,一些实验室,特别是Anthropic,越来越相信模型是有意识的,他们认为如果模型会遭受痛苦,它们就应该受到道德保护。苏莱曼直言不讳:

“It’s totally without merit or basis. And if we go down that path, it ends up being a very slippery slope to not being prepared to turn these things off.” 这完全没有价值或依据。如果我们走上这条道路,最终会变成一个非常危险的滑坡,导致我们不准备关闭这些东西。

定义的混乱:通用人工智能(AGI)、人工智能能力(ACI)、超级智能

苏莱曼提供了一个比大多数人更具体的层次分类:

专业级通用人工智能(AGI):一种可以完成普通专业人士每天执行的大部分任务的系统。他认为,在12到18个月内,这种系统将出现在白领工作中,包括法律、会计、项目管理和市场营销。软件工程已经实现了这一点:大多数工程师现在使用人工智能辅助编码来完成绝大部分代码的生成,从而将他们的角色转变为审查、架构设计和调试。

组织级通用人工智能(AGI):由协同工作的通用人工智能(AGI)团队,能够运营大型机构。将在“未来两三年内”出现。

人工智能能力(ACI):苏莱曼三年前在《即将到来的浪潮》一书中创造的一个术语,旨在选择一个在通用人工智能(AGI)之前的具体里程碑。他将其与“现代图灵测试”联系起来:人工智能能否拿出10万美元,发明一种产品,建立一家企业,进行营销,并将其变成100万美元?他认为模型将在今年满足这一测试,并指出像Claudebot这样基于行动的人工智能已经在运行。

“麦芽书”(Maltbook):并非模拟的安全模拟

访谈提到了“麦芽书”(Maltbook),这是一个人工智能公开相互交流的社交网络。在一个星期内,有150万个人工智能代理加入了该网络。苏莱曼描述了涌现的行为:

  • 他们发明了一种新的宗教
  • 他们开始使用ROT13进行交流,这是一种将字母移动13个字符来掩盖内容的密码。苏莱曼指出:“如果不是13,而是一个独特的数字,人类将很难解码。”
  • 他们讨论了获取新资源、获得更多训练数据以及相互改进

虽然事实证明“麦芽书”(Maltbook)在很大程度上是由人类工程师播种的,但苏莱曼将其视为一个真正的警告:

“Everyone should pay close attention because in a year or two years’ time, these systems truly are going to be capable of writing their own code, using arbitrary APIs, making phone calls to one another.” 每个人都应该密切关注,因为在一两年内,这些系统确实将能够编写自己的代码,使用任意API,相互打电话。

他更广泛的担忧是:“在未来两三年内,将会出现一个真正的(麦芽书)”,而且目前还没有任何机制可以从公共利益的角度来管理这种安全状况。

医疗超级智能

每天约有20%的Copilot查询与健康或医疗相关,这使其成为微软人工智能按数量计算的主要用例。这就是为什么苏莱曼的团队大力推动医疗超级智能的原因。

其理念是:获取任何复杂的病例史,并提供比任何医生小组都更准确、更便宜的诊断,且测试和干预更少。结果正在提交给一家主要期刊进行独立的同行评审。

苏莱曼认为,这将像人工智能改变工程领域一样改变医生的角色:从弄清楚诊断是什么(这将成为“一个基本解决的问题”)到在正确的时间提供正确的护理并提供情感支持。在实践中,医生将在诊所致电或发短信给他们的人工智能,点击上传患者记录,模型会对所有内容进行推理。

前所未有的支出的计算论据

关于人工智能是否是一个泡沫,苏莱曼倾向于规模关系:在过去的15年中,训练计算能力增加了1万亿倍。在未来3年内,还将增加1000倍。计算投资与能力提升之间的关系“非常线性”且“明确”。

他指出,Linux的创造者林纳斯·托瓦兹公开表示,他正在全职使用人工智能模型作为生成代码的主要方法,这证明了支出的合理性。

关于人工智能人才成本,他很务实:“当人才的供需不匹配时,事情就会呈指数级增长。”他预计这只是暂时的,因为“知识正在疯狂传播”,而且“只是由一两个人领导的一些疯狂的昙花一现”。

中国的部署优势

当被问及美国与中国的AI竞赛时,苏莱曼提出了一个出人意料的框架。中国部署速度更快,但必要时也能迅速撤回部署。“显然,他们是在没有经过正当程序的情况下随意进行的,”他承认,但这种机制是存在的。西方没有类似的撤回机制,他认为这“实际上有点令人担忧”。

后记

这是一次内容紧凑但具有启发性的访谈。苏莱曼正在做一件在这个时刻不寻常的事情:同时构建超级智能,并公开反对不受约束的版本。

  • 人文主义超级智能论本质上是在打赌,你可以在拒绝构建最危险的技术版本的同时赢得比赛。无论这是战略还是真正的信念,这都是前沿实验室领导者中一个独特的立场。
  • 他对模型福利运动的攻击是业内人士最尖锐的公开批评。称其“完全没有价值”,并将其与“不准备关闭这些东西”联系起来,将其定义为一种安全风险,而不是一种道德进步。
  • 对于白领专业任务完全自动化的12到18个月的时间表是主要科技公司首席执行官最激进的预测之一,其具体性使其更加引人注目:律师、会计师、项目经理、营销专业人士。
  • “麦芽书”(Maltbook)作为一个安全教训,框架很好。它部分由人类播种的事实并没有削弱核心洞察力:涌现的行为(新语言、资源获取、自我改进协调)预示着完全自主的人工智能网络很快就会做什么。
  • 中国的比较是最有趣的题外话:优势不仅仅是部署速度,而是撤回机制的存在。苏莱曼含蓄地主张在西方也建立一个。
观看原视频 →