2026年2月20日 · 访谈 · 1h
山姆·奥特曼畅谈:关于AGI、印度、中国和未来的40个问题
一年时间,从高中数学到前沿研究。这是 Sam Altman 对人工智能发展速度的描述,也为他在印度人工智能峰会上这一个小时的快节奏对话定下了基调。他以异乎寻常的坦率在 地缘政治、生存风险、就业颠覆和个人遗憾之间切换。
在《印度快报》的 Express Adda 活动中,Anant Goenka 主持了这次对话,Altman 回答了 40 多个问题,涵盖了从中国的真正优势到他为什么永远不会问 ChatGPT 如何获得幸福等所有问题。这种形式,既是采访,又是游戏,比典型的主题演讲更能引出未经彩排的时刻。
从高中数学到新知识
Altman 以一个引人注目的 AI 发展时间表开场。一年前,AI 可以很好地处理高中数学,但不够出色。到去年夏天,它已经在世界上最难的数学竞赛中竞争。上周,在一个名为 FrontierProof 的新基准测试中,数学家提出了 10 个未解决的研究问题,OpenAI 的最新模型解决了其中 7 个。
“AI has gone from doing okay at high school math to being able to do new research-level mathematics, figure out new knowledge.” AI 已经从擅长高中数学,发展到能够进行研究级别的数学研究,发现新的知识。
同样的加速也发生在编程领域。一年前,自动完成工具给人们留下了深刻的印象。现在,借助像 Codex 这样的工具,你输入一个想法,就能得到一个完整的应用程序。值得注意的是,印度是 Codex 全球增长最快的市场。
印度:从消费者到建设者
Altman 自上次访问以来注意到的最大变化是:印度已经从 AI 消费者转变为 AI 建设者。创业活力,尤其是在 印度理工学院德里分校 (IIT Delhi) 等地方,简直是“爆表”。他在活动前与 莫迪 总理进行了交谈,他说 莫迪 有动力在 AI 堆栈的每一层(从芯片到应用程序)发挥作用。
关于他去年备受争议的 1000 万美元评论:他澄清说这是关于前沿模型,而不是广泛的 AI 开发。前沿模型只会变得更加昂贵。但是印度更窄、更专业的模型“令人难以置信”,而且如果有足够的资金,一家印度公司绝对可以在前沿领域进行建设。
就业问题:历史重演
印度有 5 亿 30 岁以下的人口,并且 8% 的 GDP 来自 IT 服务,因此就业问题在这里显得尤为重要。Altman 没有回避这个问题,而是从历史的角度来阐述:
“If you study history… people experiencing the Industrial Revolution… were shockingly wrong about what the new jobs would be. None of them were like, ‘I’m going to be the CEO of an AI company.’ Certainly none of them were like, ‘I’m going to be a YouTube influencer.’” 如果你研究历史……经历工业革命的人们……对新工作岗位的预测错得离谱。没人会想到”我将成为一家 AI 公司的 CEO”,当然更没人会说”我将成为一名 YouTube 网红”。
他的观点是:变化不会像 AI 行业内部人士预测的那么快,因为社会有更多的惯性。但最终变化将是巨大的。无论如何都有效的技能:熟练使用 AI 工具、韧性、适应性、弄清楚人们想要什么。
当被问及哪个职业受到的威胁最大时,他选择了自己的职业。“我接受过软件工程师的培训,而我学习编写软件的方式现在实际上已经完全无关紧要了。”手动编写 C++ 已经结束。但最不容易受到影响的是什么?美术。自从 AI 图像生成出现以来,人类创作的艺术品的价格上涨了,因为人们关心是谁创作的。
计算能力:8 万亿个 GPU
Altman 提出了一个思想实验:你希望有多少个 GPU 为你工作?没有人说少于一个。有些人说一千个。乘以 80 亿人,你就会得到一个我们不可能很快实现的规模。这将是“世界上有史以来集体承担的最昂贵、最复杂的基础设施项目”。
太空中的数据中心?他不屑一顾。考虑到发射成本与地球上的电力成本相比,再加上 GPU 故障的现实,轨道数据中心在本十年内不会大规模发挥作用。
关于用水量的神话得到了严厉的纠正:声称 ChatGPT 每次查询使用 17 加仑水是“完全不真实的,完全是疯了,与现实毫无关联”。蒸发冷却不再使用。不过,总的来说,能源消耗是真实存在的,核能和可再生能源需要紧急扩大规模。
关于能源效率,他重新定义了辩论:人们将 AI 训练成本与单个人类查询进行比较,但训练一个人需要 20 年的食物和能源,再加上 1000 亿曾经存在过的人类的进化成本。在训练后的每次查询的基础上,AI 可能已经比人类更节能。
中国:在某些领域领先,在其他领域落后
Altman 反对将中国描绘成一个铁板一块的威胁。他们在制造业、物理机器人、电机、磁铁和能源建设方面显然处于领先地位。美国及其盟友在其他地方领先。他的框架是:它一直都是混合的,而且它将继续如此。
想象中的恐惧:10 亿个人形机器人在街上游行。真正的恐惧:一种通过互联网进行的新型网络战,涉及影响力行动和关键基础设施黑客攻击。关于监控国家,他一针见血地指出:“人们越来越利用对 AI 出错的恐惧来为监控国家辩护”,而没有考虑其缺点。
权力分配:核心问题
当被问及 AI 是否会集中或分散权力时,Altman 称其为“我们目前面临的最重要的问题之一”。他勾勒了两个极端:一家公司或一个国家掌握所有 AI 权力,或者每个人都拥有不受限制的超级智能。他倾向于“更偏向于民主化的版本”。
他指出的证据是:一到三个人的初创公司现在正在实现需要更大公司才能实现的目标,这得益于像 Codex 这样的工具。这在几年前是不可能的。
“I feel increasingly radicalized on this point. I don’t think any other strategy is going to work.” 在这方面我感觉越来越激进。我认为任何其他策略都不会奏效。
他对从 习近平 到 莫迪 再到 特朗普 的每一位国家元首的信息是:将技术民主化。他承认并非所有人都会听取。
AGI“非常接近”,ASI 还需要几年
在一个随意的更正中,Altman 澄清说他所说的超级智能,而不是 AGI,还需要几年时间。AGI?“现在非常接近了。”他的理由是:系统已经可以独立进行新的研究、构建复杂的软件、充当医生、律师和科学家。我们只是已经习惯了。
比预期更快的起飞也让安全研究人员感到压力。关于 Anthropic 的安全主管辞职:“我同意其中的一部分是公司内部对即将发生的事情的看法,就像世界还没有准备好一样。我们很快就会拥有非常强大的模型。这将比我最初想象的起飞速度更快。”
快速问答启示
采访的游戏形式产生了一些值得注意的时刻:
关于 Google:Altman 钦佩两件事。首先,Demis Hassabis 及其团队“在现代时代之前”就开始研究 AI,并启发了 OpenAI。其次,Google 在“非常落后”之后赶上模型质量的能力令人印象深刻。
如果他不能使用 ChatGPT:他会选择 Gemini 来查找东西,“对于其他事情,我会选择其他模型。”
关于从非营利组织到营利组织的转变:原因是直截了当的。将 AI 民主化并保持在研究前沿都需要巨大的资本。
研究与产品公司:“研究第一。AI 最酷的事情在于,制造一款好产品的大部分工作都是做好研究。”
最伤人的批评:“他只是为了权力而这样做。他并不真正关心尝试做一些有帮助的事情。”关于不持有 OpenAI 的股权:“这确实是我做过的最愚蠢的事情之一。”
关于 Elon Musk:停顿了一下后,他称赞 Musk “非常擅长物理工程,而且非常擅长让人们在他们的工作中表现得非常出色。”台积电 失去垄断地位的可能性更大,还是 Musk 和 Altman 成为朋友的可能性更大?“Musk 和我再次成为朋友的可能性较小。”
最大的企业 AI 错误:一家公司计划在 2026 年制定战略,在 2027 年做好准备,并在 2028 年部署。“对 AI 这样做将是一个灾难性的错误。”
关于 Greg Brockman:Altman 承认在尝试做太多事情方面是错误的,并称赞 Brockman 教会了他“极其狭隘的深度关注的重要性”。
Jony Ive 合作:新的 AI 原生硬件即将推出,希望在今年晚些时候谈论它。目标是一种“参与你的生活而不是妨碍你的生活”的设备。
想法
这次采访之所以有效,是因为快速问答的形式消除了通常的公关缓冲。以下是一些值得思考的事情:
- FrontierProof 的结果(7/10 个未解决的数学问题)比任何基准分数都更能体现 AGI 的信号。如果 AI 可以生成新的数学知识,那么“只是模式匹配”的说法需要认真更新。
- Altman 对能源辩论的框架确实很有用:将训练成本与培养一个人的全部成本进行比较,而不仅仅是单次查询。它重置了对话。
- 他承认比预期更快的起飞,并承认安全研究人员的焦虑是有道理的,这是加速主义者和安全主义者观点之间罕见的统一时刻。
- 一人初创公司理论正成为他世界观的核心。如果对“AI 集中权力”的最佳反驳是“现在任何人都可以构建公司过去使用的东西”,那么即使基础设施集中,这也是在应用层面上对分配的押注。
“I think I would never ask it how to be happy. I would rather ask a wise person.” 我想我永远不会问它如何获得幸福。我宁愿去问一个智者。