跳至正文
← 返回首页

2026年1月20日 · 访谈 · 28min

吴恩达:不会用 AI 的工程师我不招了,AGI 两个季度实现纯属炒作

#AI 就业冲击#AGI 炒作#印度科技#开源模型#企业 AI 转型

吴恩达划清界限:他不会聘用不能熟练使用人工智能工具的软件工程师,并将这一标准扩展到营销人员和人力资源专业人士。但真正具有挑衅性的不是他的招聘门槛,而是他的论点,即公司故意降低通用人工智能(AGI)的定义,正在造成一系列现实世界的危害,从高中生做出错误的职业决定,到数十亿美元的企业资本错配。

在2026年达沃斯论坛上,吴恩达接受了印度《经济时报》的采访,在28分钟内涵盖了大量内容:为什么“百花齐放”的人工智能战略会失败,中国的开源模型如何成为软实力工具,以及为什么美国的移民政策是一个“糟糕的非受迫性失误”。贯穿始终,他的核心信息是务实的:通用人工智能还远未实现,但人工智能已经足够强大,可以重塑整个行业。问题在于,个人和国家能否以足够快的速度提升技能。

新的招聘门槛:要么会编程,要么被淘汰

吴恩达的立场是明确的。他现在不会聘用任何不了解如何“以非常复杂的方式”使用人工智能工具的软件工程师。不太明显的是,他将这一标准扩展到了什么程度:在招聘营销人员或人力资源专业人士时,他强烈倾向于能够使用人工智能编写软件来增强自身工作的候选人。

“Frankly today, I would not hire a software engineer that does not know how to use AI tools in a very sophisticated way.” 坦率地说,今天我不会招一个不懂如何精通使用 AI 工具的软件工程师。

掌握人工智能技能的员工和不掌握人工智能技能的员工之间的生产力差距正在“急剧”扩大。对于印度庞大的IT服务和外包行业来说,这意味着生存风险。吴恩达的措辞很严厉:这些都是聪明、勤奋的人,几十年来一直受到世界的信任,但如果他们不能以足够快的速度提升技能,那么失业的“影响可能会很大”。

通用人工智能:一个失去意义的词

吴恩达同意 Yann LeCun 的观点,即仅靠大型语言模型(LLM)无法实现通用人工智能。但他更进一步:“你可以插入任何现有的技术,并说它本身不是通往通用人工智能的道路。这将是一个正确的说法。” 实现通用人工智能需要“我们任何人都不知道到底是什么”的突破。

他对通用人工智能的定义设定了一个很高的标准:人工智能可以完成人类可以完成的任何智力任务,从花费五年时间撰写博士论文到在几分钟内学会驾驶卡车穿过丛林。按照这个标准,我们还差得很远。

更有趣的论点是关于降低通用人工智能的定义所造成的损害。公司降低标准以声称接近通用人工智能,这会造成特定的危害链:

  • 高中生基于通用人工智能很快会淘汰某些职业的信念做出职业决定
  • 首席执行官做出大规模的资本配置决策,假设人工智能具有尚未存在的能力
  • 公众对人工智能的实际发展轨迹产生过高的期望

“I’ve seen this mislead high school students that are now making different career decisions because they think AGI will obsolete certain careers.” 我看到这已经误导了高中生,他们正在做出不同的职业选择,因为他们以为 AGI 会淘汰某些职业。

然而,吴恩达坚持认为这并不是一个悲观的观点。即使没有通用人工智能,在业务流程自动化和工作流程再造方面也有足够的工作让每个人忙碌十年。

为什么“百花齐放”会失败

通过他在 AI Aspire(与合伙人 Chrissy Tan 共同创立)的企业咨询工作,吴恩达观察到一个一致的模式:最常见的企业人工智能战略,即自下而上的创新,大多不起作用。

失败模式是特定的。有人识别出业务的一小部分,并使用人工智能将其效率提高10倍。这很好,但总体收益只是5%-10%的增量改进。这些是不会复合的点解决方案。

“A lot of businesses have done the ‘let a thousand flowers bloom’ strategy and it’s mostly not working.” 很多企业采用了”让一千朵花开”的策略,大多不管用。

真正创造价值的是理解企业为创造价值而执行的所有步骤,然后重新设计更广泛的工作流程。这需要自上而下的领导或具有全局视野的自下而上的创新者。

他对每位首席执行官的挑战是:如果你对人工智能是认真的,请亲自花几个小时深入了解这项技术。光有热情是不够的;你需要知识来推动团队、分配资源和设定优先级。

Google Brain 的赌注以及柠檬中还剩下什么

吴恩达回忆起15年前创立 Google Brain 的情景,当时的任务是“非常有争议的”:构建真正的大型神经网络,并将所有数据都投入其中。人们告诉他这是一个糟糕的职业选择。即使在那时,他也有数据让他充满信心,而15-16年后,这种规模化的方法已被证明是非常正确的。

但他认为回报还没有耗尽。“我们还没有榨干这个柠檬中的汁。” 从进一步扩展人工智能模型中可以获得更多收益。

在当前的模型格局中,他看到了“赛道上有很多强大的骏马”:Claude Code 做得非常出色,Gemini 3 和 Gemini CLI “显著缩小了差距”,Opus 4 非常出色,GPT 5.1/5.2 非常强大,OpenAI Codex 也做得很好。

人工智能的思维方式与我们不同(神经科学也无济于事)

在 Google Brain 之前和期间,吴恩达阅读了“大量关于神经科学的论文”,试图了解人脑是如何工作的,以激发更好的人工智能算法。这项练习“大多没有用”,因为神经科学本身几乎不了解大脑是如何工作的。

今天的人工智能模型吸收的文本和图像比任何人在一生中消耗的都要多得多,但在关键方面仍然比人类更愚蠢。学习机制与人类认知根本不同。

关于人工智能是否具有创造力或意识,吴恩达明确地进入了哲学领域:这些概念没有可衡量的科学定义。如果人工智能表现出创造性,他很乐意称其为创造性。但他将其标记为“一种哲学而非科学的答案”。飞机-鸟类的类比适用:我们没有通过模仿鸟类来制造飞机,但从研究鸟类中获得的空气动力学原理至关重要。如果“智能理论”出现,它也可能以类似的方式指导人工智能的发展。但目前还没有这样的理论。

开源模型作为地缘政治软实力

对于追求人工智能主权的国家,吴恩达提供了一条务实的道路:投资于开源和开放权重模型,而不是从头开始训练。这效率更高,而且多个国家可以集中资源。

地缘政治维度比大多数讨论都要尖锐。美国在封闭的专有模型方面处于领先地位,但中国已经发布了一些最好的开源模型。当组织采用中国模型时,用户查询更有可能得到反映生产国价值观的响应。这正在成为中国“巨大的地缘政治影响力来源”。

Python 的类比使他的观点具体化:没有人需要拥有 Python,但你需要确保没有与你利益相反的国家控制其规范。人工智能模型主权遵循同样的逻辑。

美国移民:一个“糟糕的非受迫性失误”

作为一名移民,吴恩达称当前的美国移民政策“糟糕”,是“一个巨大的非受迫性失误”。美国的优势来自于本土人才与来自印度和其他地方的聪明移民的共同努力。

个人层面浮出水面:他的许多朋友在美国生活了5-10年,孩子在那里出生和长大,仍在等待绿卡,而法规却在不断变化。确保南部边境的安全可能是合法的,但对高技能人才和想要进入美国大学的17岁青少年的敌意是一种“巨大的过度纠正”。

“I think it’s awful. I think it’s a huge unforced error on the part of the United States.” 我觉得这太糟糕了。这是美国的一个巨大的非受迫性失误。

印度的跨越式发展时刻

人工智能的颠覆意味着旧规则不再适用。既定地位正在被动摇,这让每个国家都有更好的机会实现跨越式发展。印度以前就做过这件事:跳过固定电话直接使用移动电话,建立快速商务,在8分钟内送达杂货,而美国人却觉得难以置信。

“AI is so disruptive a lot of the old rules of the game no longer hold.” AI 的颠覆性如此之大,很多旧的游戏规则已经不再适用。

吴恩达对印度的信息是直接的:学习真正的技能,忽略炒作,并建立大胆而新颖的东西。对于执行转型的国家来说,机会就在那里。对于犹豫不决的国家来说,毁灭性失业的风险就在那里。

一些想法

这是一次内容紧凑的采访,涵盖的内容比大多数一小时的播客都要多。有几件事很突出:

  • 降低通用人工智能定义的论点是最具原创性的贡献。它不是标准的“通用人工智能还很遥远”的观点;它识别出一种特定的危害机制:公司玩弄定义,这会蔓延到学生和高管的实际决策中。很少有人如此具体地阐述过这个系统性问题。
  • 企业人工智能的诊断是立即可操作的:自下而上的创新产生5%-10%的边际收益;真正的价值在于工作流程的重新设计。这直接挑战了目前流行的“先试点,后扩展”的企业剧本。
  • 将中国的开源模型定位为价值观嵌入工具,而不仅仅是技术竞争对手,是一种地缘政治洞察力,大多数人工智能讨论都忽略了这一点。
  • 神经科学的死胡同是一个有用的数据点,来自一个真正尝试过的人:在 Google Brain 之前阅读了大量关于大脑的论文,却发现神经科学过于原始,无法提供帮助。这纠正了一种持续存在的说法,即人工智能的进步来自于理解大脑。
观看原视频 →