跳至正文
← 返回首页

2026年1月27日 · 演讲 · 59min

OpenAI 创始人兼 CEO Sam Altman 线上交流会

#人工智能创业#软件工程转型#人工智能安全#OpenAI#氛围编码

在这次市政厅会议上,Sam Altman 最能揭示问题的一句话,既不是关于 AGI 的预测,也不是产品发布,而是一句坦白:他在首次使用 Codex 的两个小时内,就给予了它完全不受监督的访问权限,并且从未关闭过。这一个行为数据点,比任何路线图都能更好地告诉你我们未来的方向。

市政厅会议

2026 年 1 月下旬,OpenAI 聚集了开发者、创始人和学生,与 Sam Altman 进行了现场问答。形式开放,听众专业,对话内容从杰文斯悖论到幼儿园教育政策,范围广泛。Altman 异常坦诚,承认了错误(GPT-5 的写作质量),分享了内部数据(成本降低 100 倍的时间表),并对生物安全和 AI 对齐问题给出了真正不确定的答案。几位 OpenAI 团队成员也对 Agent 的能力发表了看法。

这次会议有一个明显的潜台词:OpenAI 想知道为开发者构建什么,并且愿意为换取诚实的反馈,承认最近发布的版本“搞砸了”。

更多的工程师,而不是更少

第一个问题直接击中了杰文斯悖论的核心:如果 AI 使代码的成本大幅降低,这是否会扼杀软件工程的工作岗位?

Altman 的回答很坚定。成为一名工程师的意义将“发生巨大的变化”,但会有更多的人创造更多的价值。历史模式是一致的:每次工程工具变得更好,就会有更多的人加入并变得更有生产力。对软件的需求根本没有放缓。

更有趣的预测是:我们大多数人将使用为一个人或极少数人编写的软件,不断地定制我们自己的工具。如果你将此视为软件工程,那么世界 GDP 中将有更大比例的部分以这种方式被创造和消费。

“By the end of this year, for a hundred or a thousand dollars of inference and a good idea, you will be able to create a piece of software that would have taken teams of people a year to do.” 到今年年底,只需花费一百或一千美元的推理成本和一个好主意,你就可以创建一个软件,而这原本需要团队花费一年的时间才能完成。

GTM 才是真正的瓶颈

构建变得容易了,但分发却没有。Altman 借鉴了他在 Y Combinator 的经验,指出创始人总是认为最难的部分是构建产品,但实际上总是让人们关注它。

现在的差距甚至更加明显。AI 可以在一定程度上自动化销售和营销,但人类的注意力仍然是稀缺商品。即使在资源极度丰富的世界中,你仍然在争夺人们繁忙的日程。

他的框架是:所有关于建立成功初创公司的旧规则仍然适用。GTM(上市策略)、粘性价值、竞争优势、网络效应。这些都没有改变。AI 使创造变得更容易,但这并不会使其他事情变得更容易。

Agent 接口是完全开放的

一位构建多 Agent 编排的独立开发者问 Altman,OpenAI 是否会蚕食他的市场。Altman 的回答非常谦逊:“我们不知道所有这些的正确接口会是什么。”

范围很广。有些人想要 30 个屏幕的复杂 Agent 仪表板。另一些人则想要平静的语音对话,他们每小时提示计算机一次。相对于人们实际可以从中提取的内容,模型能力的悬垂“巨大且不断增长”。有人会构建弥合这一差距的工具,而 OpenAI 也没有弄清楚。

“我们只是搞砸了”

当被问及 GPT-5 的写作质量与 4.5 相比有所下降时,Altman 直言不讳:“我认为我们只是搞砸了。” OpenAI 将大部分精力放在 5.2 的智能、推理和编码上,而牺牲了写作。带宽有限,艰难的权衡。

他的信念是:未来是通用模型,在所有维度上都表现出色。智能是“一种令人惊讶的可替代的东西”。清晰的思考(而不是优美的散文)意义上的良好写作,应该可以与良好的编码一起实现。他们计划在未来的 5.x 版本中赶上写作质量。

智能便宜到无法计量

一家永远在线的 AI 公司询问了成本轨迹。Altman 的预测:到 2027 年底,GPT-5.2 级别的智能将以“至少低 100 倍”的成本提供。

但他指出一个尚未被充分讨论的维度:速度与成本。现在许多用户希望以 100 倍的速度获得相同的输出,即使价格更高。这些是非常不同的工程问题,而 OpenAI 尚未在速度方面投入那么多。

专门为你编写的软件

Altman 描述了他自己使用计算机方式的转变:他不再认为软件是静态的。如果他遇到一个小问题,他希望计算机立即编写代码并解决它。

他不认为每个文档编辑器都会被即时重写,因为我们重视熟悉的界面。但他确实希望软件越来越多地为个人用户定制。在 OpenAI 内部,每个使用 Codex 的人都有自己的自定义工作流程,以完全不同的方式使用它。

更广泛的预测是:我们的工具将不断发展和融合,只为我们服务。这似乎“肯定”会发生。

GPT-6 对初创公司的考验

Altman 关于初创公司持久性的框架:问问自己,如果 GPT-6 是一个非常令人印象深刻的更新,你的公司会感到高兴还是悲伤。构建那些你希望模型变得更好的东西。有很多这样的机会,而且它们比围绕当前模型限制构建补丁更可持续。

科学家和“无限的博士后”

Altman 分享说,通过 5.2 的一个特殊的内部版本,OpenAI 首次听到科学家们说“这些模型的科学进步不再是超级微不足道的了”。

使用 AI 的最佳研究人员不会运行完全自主的循环。他们做一些与模型不同的事情:提供直觉、判断和创造性指导。Altman 将其比作深蓝击败卡斯帕罗夫后的国际象棋时期,当时人类 + AI 在 AI 完全超越之前短暂地优于单独的 AI。他怀疑科学研究也会有类似的轨迹。

新兴的工作流程:研究人员使用 AI 作为“无限的博士后”,同时对 20 个新问题进行广度优先搜索,而不是深入研究任何一个问题。人类的角色是选择哪些方向感觉正确。

“A model that can come up with new scientific insights is not also incapable, with a different harness and trained a little bit differently, of coming up with new insights about products to build.” 一个可以提出新的科学见解的模型,如果采用不同的方法并经过稍微不同的训练,并非不能提出关于构建产品的新的见解。

Paul Graham 机器人

当一位 GTM 顾问指出许多 AI 产品根本不值得用户关注时,Altman 转向了一个有趣的想法:提高想法质量的工具,而不仅仅是执行速度。

他描述了他生命中的三四个人,他们通过提问和播种不断产生好主意。Paul Graham 在这方面“非常出色”。如果 AI 可以复制那种头脑风暴伙伴关系,即使你拒绝 100 个建议中的 95 个,那也将“对世界上构建的好东西的数量做出非常重大的贡献”。

生物安全:从阻止到韧性

一位斯坦福大学的生物安全研究人员获得了 Altman 最坦诚的风险评估。这些模型“非常擅长生物”,并且当前限制访问和使用分类器来防止病原体设计的策略“不会持续太久”。

所需的转变:从阻止到韧性,类似于消防安全历史。联合创始人 Wojciech Zaremba 的类比:火带来了巨大的好处,然后开始烧毁城市。“宵禁”一词实际上来自城市禁止火灾的时候。然后人类有了消防规范和阻燃材料。

Altman 的严厉警告:“如果今年 AI 出现非常糟糕的情况,我认为生物安全会是一个合理的赌注,它可能会出问题。”

梦游般地走向信任

当被问及生产型 Agent 最被低估的失败模式时,Altman 讲述了他的 Codex 坦白故事。他“非常自信”他永远不会给予 Agent 不受监督的访问权限。两个小时后,他开启了完全访问权限,并且从未关闭过。

模式是:这些工具的力量和乐趣是如此之大,以至于人们被吸引到不去充分思考安全性和复杂性。能力急剧上升,我们决定我们在一定程度上信任模型,并且在没有建立足够的总体安全基础设施的情况下,“我们将梦游般地走向某种事情”。

“The general worry I have is that capability is going to rise very steeply. We’re going to get used to how the models work at a certain level and decide we trust them, and without building very good big-picture security infrastructure around it, we will sleepwalk into something.” 我总体的担忧是,能力将会急剧上升。我们将习惯模型在一定程度上的工作方式,并决定我们信任它们,并且在没有围绕它建立非常好的总体安全基础设施的情况下,我们将梦游般地走向某种事情。

公司必须采用,否则就会死亡

关于招聘:OpenAI“计划大幅放慢我们的增长速度”,因为他们希望用更少的人做更多的事情。他们不会积极招聘,然后在 AI 接管任务时不得不进行裁员。

但 Altman 对更广泛的经济提出了一个更具挑衅性的观点:如果公司不积极采用 AI,它们最终将被“一家完全由 AI 驱动的公司”所击败,这家公司只是一架 GPU,没有人。他承认这听起来像是 OpenAI 在自我吹嘘,但他称这对于社会稳定来说非常重要。

OpenAI 新的工程面试:让一个人坐下来完成一项任务,这项任务在一年前对于一个人来说在两周内是不可能完成的,然后看着他们在 10 到 20 分钟内完成它。

教育:细微差别胜过炒作

Altman 将 AI 在教育中的应用比作 Google 在课堂上的应用。他的中学老师试图让孩子们承诺不使用 Google,担心这会使历史课变得无关紧要。他当时认为这是疯了,现在也觉得禁止 AI 工具是疯了。

但他对幼儿划了一条明确的界限。他“喜欢让幼儿园远离电脑”。幼儿园的孩子应该在外面跑来跑去,玩实物。他怀疑技术对幼儿的影响“甚至比”社交媒体对青少年的影响“更糟糕”,而且这仍然没有得到充分讨论。

对于大学年龄的开发者:“如果你是一名 AI 开发者,那么现在在大学里可能不是你最好的时间利用方式。” 他的父母花了 10 年时间才不再问他什么时候回去。

创意作品中的人类溢价

关于 AI 生成的艺术,Altman 引用了一个有趣的模式:当被告知图像是由人类制作时,消费者报告说对图像的欣赏程度会大大提高。即使是那些声称自己可以识别 AI 艺术的人,在盲测中也始终将 AI 图像排在首位,然后在被告知后会改变他们的偏好。

他的结论是:我们非常关心其他人,而很少关心机器。即使是一点点的人类指导似乎也能消除负面反应。这将在未来几十年里成为“一种深刻而持久的趋势”。他将其比作他自己完成一部小说的经历:他想做的第一件事是查找作者并了解他们的生活。如果他得知一部伟大的小说是由 AI 编写的,他会感到“有点悲伤和沮丧”。

记忆、隐私和整个电脑

Altman 个人在 AI 记忆方面的演变:他现在准备让 ChatGPT“直接查看我的整个电脑和我的整个互联网,并了解一切”。实用性太高,无法抗拒。

但他还没有准备好永远在线的录音眼镜,而且他不想手动对工作记忆和个人记忆进行分类。理想的情况是,AI 对你生活的复杂规则和层次结构有如此深刻的理解,以至于它知道在哪里暴露什么,自动地。

一位开发者要求为第三方应用程序提供“使用我的 ChatGPT 帐户登录”功能。Altman 确认他们正在构建它。Token 预算和模型访问可移植性即将推出。更深层次的信息共享(允许应用程序访问你的 ChatGPT 记忆)“非常可怕”,因为模型在理解何时分享什么的社会细微差别方面还不够好。

最重要的技能:高度能动性

一位越南高中生问,在 AI 时代,什么技能最重要。Altman 的回答完全是关于软技能:变得具有高度能动性,擅长产生想法,具有韧性,具有适应性。这些都不是“去学习编程”,而这曾经是显而易见的答案。

他补充了他在 YC 时期的一个令人惊讶的观察:这些品质都是可以学习的。为期三个月的训练营可以使人们在所有这些方面都“非常强大”。这对他的世界观来说是一个很大的更新。

一些想法

这次市政厅会议引人注目之处不在于产品发布,而在于对不确定性的坦诚。Altman 承认搞砸了 GPT-5 的写作,坦白立即放弃了自己的安全协议,并对科学自主性和生物安全时间表给出了真正不确定的答案。

  • 杰文斯悖论的框架可能令人感到安慰,但 Altman 自己的公司正在放缓招聘。 “更多的人将从事工程”的论点与“目前的工程师保住他们目前的工作”是不同的。
  • 生物安全答案确实令人震惊。 “阻止不会持续太久”加上“生物安全会是一个合理的赌注,它可能会出问题”是来自对模型能力有内幕知识的人的具体、近期的风险评估。
  • Altman 描述的关于他自己的梦游般地走向信任的模式适用于整个行业。失败模式不是戏剧性的 AI 反叛;而是逐渐的、由便利性驱动的对安全措施的侵蚀,直到出现问题时才有人注意到。
  • “智能便宜到无法计量”,到 2027 年成本降低 100 倍,这意味着世界将完全从计算转移到品味、判断和知道要问什么。
观看原视频 →