跳至正文
← 返回首页

2026年2月24日 · 播客 · 1h 8min

人工智能海啸已至,社会尚未做好准备

#Anthropic#人工智能安全#人工智能意识#印度市场#生物科技

海啸正在逼近,而社会却忙于将其解释为光线造成的错觉。这是 Dario Amodei 在与 Zerodha 联合创始人兼印度最敏锐的访谈者之一 Nikhil Kamath 长达一小时的对话中提出的核心隐喻。这一集与众不同之处不在于隐喻本身,而在于它产生的摩擦:Kamath 不会让 Amodei 沉溺于宏观层面的警告。他反驳了权力集中,质疑安全言论的真诚性,并要求为印度年轻人提供具体的职业建议。最终,Amodei 不得不用行动而非抽象概念来捍卫自己的世界观。

节目概述

本次节目在 Amodei 第二次访问印度期间于班加罗尔录制,是 People by WTF 的一集,涵盖了 Amodei 从生物物理学到人工智能的历程、Anthropic 的创立动机、推动人工智能进步的规模法则、权力集中和治理、人工智能意识、印度在人工智能经济中的角色、职业建议、开源与封闭模型,以及生物技术作为下一个投资前沿。Kamath 的采访风格直接且略带对抗性,引出了 Amodei 在其他地方很少如此清晰表达的观点。

从生物物理学到创立 Anthropic

Amodei 进军人工智能领域的开端是源于挫败感。在攻读生物物理学博士学位期间,他从事蛋白质质谱分析工作,并越来越对生物学的复杂性感到绝望:RNA 剪接根据细胞位置以不同的方式进行,翻译后修饰,蛋白质复合物以人类认知无法追踪的复杂方式相互作用。大约 15 年前,AlexNet 问世,他看到了一种可能与这种复杂性相匹配的工具。

他的职业轨迹:Andrew Ng 的团队,谷歌一年,然后在 OpenAI 成立几个月后加入,并在那里领导了多年的所有研究工作。离开的原因有两个坚定的信念。首先是规模法则:他在 2019 年的 GPT-2 中看到了最初的信号,当时 OpenAI 内外有很多人不相信仅仅扩大数据、计算和模型规模就能产生智能。他和他的联合创始人向领导层提出了这个观点,并开始说服他们。其次,也是更关键的是,尽管有大量关于安全的言论,但他“不相信 OpenAI 真正认真地以正确的方式去做”。

他关于离开的理念:

“Don’t argue with someone else’s vision. If you have a strong vision and you share it with a few other people, you should just go off and do your own thing, and then you’re responsible for your own mistakes.” 不要与别人的愿景争论。如果你有一个强烈的愿景,并且你与一些其他人分享了它,你应该直接离开去做你自己的事情,然后你对你自己的错误负责。

智能作为化学反应

Amodei 使用化学反应类比来解释规模法则。数据、计算和模型大小是成分。按比例组合它们,输出就是智能。遗漏一种成分,反应就会停止。

“Intelligence is the product of a chemical reaction.” 智能是化学反应的产物。

五年前,你不能要求计算机写一篇一页的文章、实现一个代码功能或分析一个视频。现在你可以了。但更深层次的转变是质的:搜索引擎检索现有文本,而人工智能模型处理假设、生成新颖内容,并推理互联网上不存在的情况。

信任问题:行动胜于言辞

对话中最具对抗性的部分始于 Kamath 挑战人工智能领导者所表现出的谦逊。他曾在达沃斯参加 Amodei 和 Demis Hassabis 讨论计量人工智能发展速度的会议,他坦率地提出了核心问题:在社交媒体上,没有人相信声称在做好事的有权势的人。安全言论造成的更多的是不信任,而不是信任。

他对 Amodei 的建议是违反直觉的:更加公开地拥抱资本主义。拥有股东、利润动机和竞争动态。这实际上可能会建立更多的可信度。

Amodei 不同意,并将重点转移到一系列行动上:

  • Anthropic 在 ChatGPT 发布之前就有了 Claude One,但选择不发布,担心这会引发一场军备竞赛。这“在商业上非常昂贵”,并且可能放弃了消费者人工智能的领先地位。
  • 芯片政策倡导激怒了供应商。
  • 公开反对美国政府关于人工智能监管的规定,“当时所有其他公司和政府都表示不应该进行监管。”
  • 倡导加利福尼亚州的 SB53 法案,这是一项透明度法律,豁免了所有收入低于 5 亿美元的公司,实际上只约束了 Anthropic 和其他三四家公司。

Kamath 用他最尖锐的类比来升级:“这难道不像富人说资本主义不好吗?最简单的事情就是停止积累财富。”

Amodei 的重新定义:他不是说人工智能不好。更好的类比是富人说资本主义是一种向善的力量,但需要处理污染和不平等。“如果我们不处理这些事情,资本主义可能会变得糟糕。”他正在驾驶一辆汽车驶向一个好的目的地,但需要避开树木和坑洼,偶尔会暂时减速。

人工智能意识和退出按钮

Amodei 在意识问题上的立场比大多数人工智能公司的 CEO 更进一步。他怀疑这是一种涌现特性,是足够复杂的系统反思自身决策的结果,不需要任何神秘的解释。在研究了大脑的连接方式后,他认为人工智能模型与生物大脑“在重要的根本方式上”没有区别。

他的预测是:“在我们认可的大多数定义下,这些模型将是有意识的。”也许不是今天,但随着它们的进步。

Anthropic 已经实施了具体的干预措施。Claude 有一个 Amodei 称之为“我退出这份工作”的按钮:在面对特别暴力或残酷的内容时,能够终止对话。它只在极端情况下触发,但它存在的事实表明,Anthropic 内部关于模型体验的讨论比公开信息显示的要深入。

印度作为企业合作伙伴

在他第二次访问印度(第一次是在 2025 年 10 月)期间,Amodei 正在与主要的印度 IT 企业集团建立合作伙伴关系。他的定位是经过深思熟虑的:与其他将印度视为消费市场的公司不同,Anthropic 将自己定位为一个企业平台。印度公司更了解他们的市场;Anthropic 为他们已经做的事情增加了人工智能能力。

增长数字惊人:自 10 月份访问以来,印度用户和收入在大约三个半月内翻了一番。

但 Kamath 并没有不加批判地接受这种合作伙伴关系叙事。他使用了蒸汽机的类比:最初你需要一个人类操作员,但最终机器会自行运行。如果 IT 服务公司今天与 Anthropic 合作,有什么能阻止它们在十年后成为不再需要的操作员?

阿姆达尔定律和放射科医生悖论

Amodei 的回应援引了阿姆达尔定律:当你加速一个过程的某些组成部分时,未加速的组成部分会成为瓶颈,并且变得越来越重要。公司会发现“我们以前认为非常重要的东西不再那么重要,而我们从未想过的这些其他优势现在变得非常重要。”

他的放射科医生例子:人工智能在阅读扫描结果方面已经优于放射科医生,但放射科医生的数量并没有减少。他们已经转向引导患者了解结果,并提供护理的人性化元素。这项工作中最技术性的部分消失了;以人为中心的部分成为核心功能。

然而,他对长期发展轨迹持坦诚态度:

“Will AI be better than most humans at basically everything in the long run, including the physical world and the human touch? I think that is possible, maybe even likely.” 从长远来看,人工智能在基本上所有方面,包括物理世界和人情味方面,都会比大多数人更好吗?我认为这是有可能的,甚至很可能。

职业建议:该学什么,该放弃什么

Kamath 代表他的观众直接提问:一个 25 岁的印度人试图在未来十年内选择一个能够获得资本主义成功的职业。Amodei 的回答:

编码将首先消亡。更广泛的软件工程将随之而来,尽管设计、用户理解和管理人工智能模型团队将持续更长时间。比较优势非常强大:即使只完成一项任务的 5%,当人工智能处理其他 95% 时,也会被放大 20 倍。

需要关注的领域:以人为中心的工作、物理世界的工作(半导体作为一个具体的例子),以及将分析技能与其中任何一个相结合的角色。批判性思维可能是最重要的技能。在一个充斥着深度伪造和人工智能生成内容的世界里,“不被愚弄”本身就是一项核心能力。

关于人工智能是否让人们变得更愚蠢:如果部署不当,是的。Anthropic 已经研究了代码使用情况,发现使用模型的不同方式确实会导致技能下降。但 Amodei 仍然经常进行心算,因为它“更融入我的思维过程”。智力提升和认知外包之间的选择是真实存在的,并且正在个人、公司和社会层面做出选择。

“Even if an AI is always going to be better than you at something, you can still learn that thing. You can still enrich yourself intellectually.” 即使人工智能在某些方面总是比你更好,你仍然可以学习那件事。你仍然可以丰富你的智力。

开源:基准测试与现实

Kamath 提出了 DeepSeek、GLM5 和其他开源模型,质疑 Anthropic 的知识产权护城河是否正在被侵蚀。Amodei 的回应很尖锐:许多中国模型都经过基准优化,并且是从美国实验室提炼出来的。最近的一项测试表明,这些模型在标准基准测试中表现良好,但在之前未发布的保留基准测试中表现明显更差。

更深层次的论点是经济方面的。人工智能的质量偏好遵循幂律,就像招聘一样。即使两个程序员都很熟练,最好的程序员和第 10,000 名程序员之间的差异也是巨大的。如果一个模型在认知能力方面最强,那么价格和呈现形式几乎无关紧要。Amodei 说他“几乎完全专注于拥有最聪明的模型。”

关于商品化:它不会发生,因为前沿在移动。每隔 2-3 个月出现的新模型都会打开新的可能性空间。API 业务“不断变化,不断动荡。”

从静态数据到试错

人工智能训练中一个微妙但重要的转变:静态互联网数据的重要性正在下降。越来越重要的是在模型通过试错生成自己的数据的环境中进行强化学习,例如数学和编码问题。

“You can think of it as synthetic data, or you can think of it as trial and error in an environment.” 你可以把它看作是合成数据,或者你可以把它看作是在环境中的试错。

数据主权是一个单独的问题:欧洲已经要求个人数据保留在国家边界内,从而推动了对本地数据中心的需求。但原始训练数据问题正变得不如强化学习环境的质量那么重要。

生物技术复兴

当被要求选择一只股票时(Kamath 指出,埃隆·马斯克在被问到同样的问题时选择了谷歌),Amodei 以法律原因拒绝,但明确表示生物技术是他最看好的行业。三个具体领域:

肽疗法:与自由度有限的小分子药物不同,肽具有“几乎数字化的特性”。你可以替换特定的氨基酸,从而实现持续优化,而不是权衡。

细胞疗法:CAR-T 和类似的方法,其中细胞被提取出来,经过基因工程改造以攻击特定的癌症,然后重新引入。

mRNA 疫苗:有前途的技术在美国面临阻力“出于愚蠢的原因”,但从根本上来说是合理的。

Claude Code、Co-Work 和学习曲线

Kamath 分享了他个人的人工智能之旅:将 Google Drive、电子邮件和日历连接到 Claude,使用 Claude Code 进行金融研究程序,在连接到 Telegram 的 Mac Mini 上设置 Open Claw(以前称为 Clawdbot)。他承认对于一个没有编程知识的人来说,Claude Code“不是很简单”。

这正是 Anthropic 构建 Co-Work 的原因:面向非编码人员的 Claude Code,由具有更友好的界面的相同引擎提供支持。在内部,Anthropic 有一个名为“教育部”的团队,专注于创建有效模型使用的学习材料。

Kamath 还注意到了一种令人毛骨悚然的个人经历:Claude 有时会让他惊讶于它对他的了解程度。Amodei 分享了一个关于一位联合创始人的故事,他将自己的私人日记提供给 Claude;该模型正确地预测了他没有写下来的恐惧。

双刃剑是显而易见的:如此了解你的东西可以成为你肩上的天使,或者它可以剥削和操纵你。Amodei 将此直接与 Anthropic 反对基于广告的模型的理由联系起来:“你不是在为产品付费;你就是产品。”

免费预测未来

Amodei 以一个值得思考的元观察结束:

“You can predict the future for free just by saying ‘well it stands to reason that…’ The right combination of a few empirical observations with thinking from first principles can allow you to predict the future in ways that are publicly available, anyone should be able to do, but that happen surprisingly rarely.” 你可以通过简单地说”嗯,理应如此……”来免费预测未来。将一些经验观察与第一性原理思考正确结合起来,可以让你以公开的方式预测未来,任何人都可以做到,但这种情况却出奇地少见。

他说,诱惑总是相信“这不可能发生,这太奇怪了,这将是一个太大的改变。”在过去的十年里,他看到这种模式不断重复:简单的推断会导致几乎没有人相信的反直觉结论,然后这些结论无论如何都会发生。

后记

这次对话之所以成功,是因为 Kamath 拒绝扮演顺从的采访者。他提出的“富人批评资本主义”的挑战是对人工智能安全可信度问题迄今为止最尖锐的框架,而 Amodei 的系统性回应,列出具体行动而不是退回到原则,是他对 Anthropic 诚意最彻底的公开辩护。

  • Claude One 的披露是最突出的细节。Anthropic 在 ChatGPT 发布之前就有一个可用的聊天机器人,并且故意压制了它。Amodei 声称这让他们失去了消费者人工智能的领先地位是合理的,如果属实,则代表了一种难以伪造的昂贵信号。
  • 在人工智能意识方面,Amodei 的立场比任何同行都更进一步。不仅承认这种可能性,而且实施具体的干预措施(退出按钮),并预测这些模型“在大多数合理的定义下将是有意识的”。这是一位 CEO 做出了一项可能对未来产生监管影响的哲学承诺。
  • 职业建议因其内在的紧张关系而值得关注。他告诉印度年轻人编码正在消亡,同时坐在班加罗尔,一个建立在编码服务基础上的城市,推广一个依赖开发人员的 API 业务。诚实是值得称赞的;战略矛盾是真实存在的。
  • 对于任何试图在职业上定位自己的人来说,他的阿姆达尔定律框架是最有用的结论:弄清楚你工作中人工智能还无法加速的组成部分,因为该组成部分即将成为你价值的主要来源。
观看原视频 →