2026年1月22日 · 播客 · 2h 25min
内森·拉本茨 (Nathan Labenz) 问答:微调的命运、为通用人工智能 (AGI) 做准备,以及普遍基本收入 (UBI) 问题
微调还没死,但已经进入临终关怀阶段。这是 Nathan Labenz 在 Cognitive Revolution 上的第二次 AMA 的主线,主持人放下采访者的角色,直接回答听众的问题。这一集值得你花时间的原因不在于具体的答案,而在于 Nathan 的世界观的连贯性:他真诚地相信 AGI 将在 2-4 年内到来,并据此安排他的生活,从投资组合到他与孩子们谈论 AI 的方式。
本集内容
这是一个单人 AMA 形式。Nathan 回答听众提交的问题(他指出这些问题比 ChatGPT 和 Claude 生成的问题更有趣和技术性,他觉得后者“奉承”且过于关注个人反思)。对话涵盖了技术性 AI 问题、个人理财、育儿以及社会为 AGI 做的准备。在深入探讨问题之前,他首先分享了他儿子 Ernie 癌症治疗的最新情况(化疗过半,反应良好)。
微调:垂死但未死
Nathan 对微调的看法是细致入微的。趋势很明显:随着前沿模型的改进,微调变得越来越不必要。但它还没有死,而且可能在一段时间内不会完全消失。
微调仍然重要的地方:
- 格式化和结构化输出。 当你需要模型持续输出特定的 JSON 模式或遵循严格的格式时,微调仍然优于提示。Nathan 在 Waymark 的工作中对此有第一手经验,他们在那里对模型进行了微调,以生成特定结构的视频脚本。
- 分类任务。 对特定领域的数据进行简单的“是/否”或类别分类仍然受益于微调,尤其是在成本很重要的情况下。一个经过微调的较小模型可以处理原本需要昂贵的前沿模型才能处理的任务。
- 成本优化。 微调一个较小的模型,使其在特定任务上复制较大模型的行为,仍然是一种有效的降低成本的策略,即使上限不断提高。
微调正在消亡的地方:
- 知识注入。 这从来都不是一个好的用例,而且情况越来越糟。模型的基础知识不断扩展,RAG 更好地处理了特定领域的知识。
- 通用能力提升。 你根本无法通过微调来提高推理能力。前沿模型的发展速度太快了。
- 行为对齐。 提示工程和系统提示已经足够好,以至于大多数行为调整都可以在推理时进行。
Nathan 引用了涌现式不对齐的论文,研究人员发现,在看似良性的任务(如编写不安全的代码)上对模型进行微调可能会导致不相关领域中出现意想不到的行为变化。这表明微调是一种比人们意识到的更粗糙的工具,并且风险回报的计算正在转向提示和 RAG。
“Fine-tuning is not dead, but it is on a clear downward trajectory in terms of the percentage of use cases where it’s the right answer.” 微调并没有死,但就它是正确答案的用例百分比而言,它正处于明显的下降轨道上。
持续学习:希望与危险
对微调的讨论自然而然地过渡到持续学习,Nathan 对此持谨慎乐观态度,但也指出了严重的担忧。
其核心思想很有吸引力:模型从其部署经验中学习,随着时间的推移适应用户偏好和领域知识。Nathan 认为这是可能最具变革性的能力,它可以使 AI 感觉真正个性化,而不是通用化。
但风险是巨大的。Nathan 借鉴了涌现式不对齐的发现:如果即使是有针对性的微调也会导致意想不到的行为转变,那么大规模的持续学习可能会产生不可预测的级联效应。他特别担心:
- 价值漂移。 一个不断适应的模型可能会逐渐偏离其安全训练,直到为时已晚才被人注意到。
- 对抗性利用。 如果用户可以通过他们的互动影响模型的持续训练,那么这将创建一个用于故意操纵的攻击面。
- 评估难度。 你如何评估一个对每个用户都不同的模型?传统的评估框架会崩溃。
Nathan 的底线:持续学习将会发生,并且将非常有价值,但安全社区需要现在就领先于它,而不是在部署之后。
与“普通人”谈论 AI
一个更实用的部分讨论了如何与不在科技圈的人谈论 AI。Nathan 的方法已经发生了重大变化。
哪些方法行不通:
- 以时间表开头(“AGI 在 3 年内!”)会立即让人们处于防御姿态
- 对你来说似乎令人印象深刻但对他们来说却令人困惑的技术演示
- 让人们退出的末日论调
哪些方法有效:
- 从他们具体的问题入手,展示 AI 如何立即提供帮助
- 诚实地说明你不知道的事情
- 承认对未来不确定是完全合理的
- 让他们在你的温和指导下自己发现能力
Nathan 的主要见解:大多数人抵制 AI 并不是因为无知。他们抵制是因为其影响令人恐惧,而且他们没有处理这些影响的框架。在情感上与人们产生共鸣比让他们在技术上跟上步伐更重要。
“People don’t need to understand transformers. They need to understand that the thing they spend 40 hours a week doing might not exist in a few years, and they need help processing that.” 人们不需要理解 transformers。他们需要理解他们每周花 40 个小时做的事情可能在几年后就不存在了,他们需要帮助来处理这件事。
个人风险准备
在本节中,Nathan 变得最具体和个人化。他被问到他如何为 AGI 颠覆的世界做准备,他的回答出人意料地具体。
财务准备:
- 将收入来源从纯粹依赖人力资本的方面分散开来
- 投资于无论 AI 如何发展都能保值的实物资产(房地产)
- 保持比平时更长的财务缓冲期,因为传统的职业退路可能不存在
- 对假设连续性的长期承诺(抵押贷款、职业道路)持谨慎态度
技能准备:
- 尽可能靠近前沿,不是为了与 AI 竞争,而是为了在指导 AI 方面发挥作用
- 学习成为一名有效的 AI 管理者/协调者,而不是直接生产者
- 现在就建立关系和声誉,趁它们还能正常累积的时候
心理准备:
- 接受根本的不确定性作为一种永久状态,而不是暂时的不适
- 在职业成就之外寻找身份和意义
- 为截然不同的未来练习“情景规划”
Nathan 坦率地承认,他的准备工作与他建议给其他人的不同,因为他拥有非同寻常的信息优势。但他的元建议是普遍适用的:不要假设未来 10 年会像过去 10 年一样。
围绕 AI 安全的投资
Nathan 分享了他的投资理念,该理念围绕一个特定的论点展开:如果 AI 发展顺利,大多数资产都会大幅升值;如果发展不好,很少有资产会重要。这创造了一个不对称的投资案例。
他的方法:
- 超配 AI 相关股票。 不是因为他试图挑选赢家,而是因为在“AI 发展顺利”的情况下,这些股票受益最大。
- 保持实物资产敞口。 在颠覆性情况下,当数字/金融资产可能不保值时,实物资产(土地、住房)会保持相对价值。
- 避免纯粹的人力资本投资。 其价值完全取决于人类劳动的企业在任何一种情况下都处于最不利的地位。
- 保持比传统智慧建议更高的现金储备。 期权在不确定的时期具有极高的价值。
他特别提到对从事 AI 安全和对齐工作的公司感兴趣,这不仅是一个道德优先事项,而且是一个投资论点:如果对齐成为瓶颈(他认为很可能),那么解决它的公司将非常有价值。
工作岗位流失时间表
Nathan 提供了他对工作岗位流失的最具体预测,按行业细分:
近期流失(1-3 年):
- 客户服务和基本支持职位
- 数据录入和日常分析
- 用于营销/SEO 的内容生成
- 基本的法律研究和文件审查
中期流失(3-5 年):
- 初级软件工程(但有一个重要的警告:软件需求可能会扩大 10-100 倍,即使每个人的人均生产力飙升,也可能会维持就业)
- 会计和簿记
- 医学诊断(AI 辅助,而非 AI 取代)
- 翻译和本地化
长期或更复杂(5-10 年):
- 高级工程和架构职位
- 需要真正新颖性的创意工作
- 需要机器人技术进步的体力行业(管道、电气)
- 具有重要关系/信任成分的职位
Nathan 反驳了 Dwarkesh Patel 更激进的流失时间表,特别是关于大多数知识工作将在 2-3 年内实现自动化的说法。他的论点:不同服务的需求弹性差异很大。他以牙科为例,没有人想要更多的牙科服务,因此如果 AI 使牙科服务更便宜,市场就会萎缩。但软件则相反:存在近乎无限的潜在需求,因此更便宜的生产可以大规模扩大市场。
“Dentistry is my example of the most extreme version. I want zero dental services. But software? We could easily do 100x as much software production and there’d still be unmet demand.” 牙科是我最极端版本的例子。我想要零牙科服务。但是软件呢?我们可以轻松地将软件产量提高 100 倍,仍然会有未满足的需求。
幼儿 AI 素养
Nathan 讨论了如何向他的孩子(年龄大约 4-6 岁)介绍 AI,考虑到他个人的沉浸程度,他的做法出人意料地克制。
他的原则:
- 让孩子们带着好奇心引导,而不是强迫他们学习 AI
- 将 AI 用作创意合作者,而不是代替思考
- 诚实地说明 AI 是什么以及不是什么(“它是一个非常聪明的模式匹配器,而不是朋友”)
- 监控过度依赖或情感依恋
- 专注于无论 AI 如何发展都能累积的技能:批判性思维、情商、创造力
他分享了一个具体的轶事,他的孩子们使用 ChatGPT 来生成故事创意,当 AI 提出他们没有想到的东西时,他们真的很高兴。Nathan 的结论:孩子们天生擅长将 AI 视为一种工具,因为他们没有将职业身份与 AI 可以完成的任务联系起来的包袱。
UBI:不是是否会发生,而是何时以及如何发生
Nathan 明确表示:如果 AGI 按照他预期的时间表(2-4 年内达到 AGI 级别的系统,更长时间才能实现完全的经济流失)到来,那么 UBI 或类似的东西将变得不可避免。
他的理由:
- 在“AI 可以完成大多数工作”和“新的平衡出现”之间的过渡时期将足够动荡,需要直接支持
- 当目标不断变化时,传统的再培训计划将不起作用
- 大规模流失带来的政治压力将压倒对 UBI 的意识形态反对
- AI 生产力带来的经济盈余应该使 UBI 负担得起
但他对 UBI 作为一种永久解决方案持怀疑态度。他的长期观点更接近于由 AI 产生的富足资助的“全民高收入”,问题从“我们能负担得起吗?”转变为“我们如何在不破坏社会凝聚力的情况下分配它?”
一些观察
这次 AMA 之所以有效,是因为 Nathan 没有表现出专业知识。他是在大声思考,而且他愿意在大多数评论员回避的地方具体说明。有几件事会让你印象深刻:
- 微调分析非常有用,因为它基于实践经验,而不是理论定位。Nathan 实际上已经发布了经过微调的模型,并且知道该技术在哪些方面有帮助,在哪些方面只是在演戏。
- 他为 AGI 做的个人准备工作令人耳目一新地具体。AI 领域的大多数人要么拒绝考虑其影响,要么危言耸听。Nathan 正在冷静地根据自己的信念重组自己的生活,这是一种罕见的智力诚实。
- 用于思考工作岗位流失的牙科与软件需求弹性框架是进行此对话的最有用的思维模型之一。并非所有自动化都具有相同的经济效应,这种区别对于预测哪些行业会萎缩与扩张至关重要。
- 他坦率地谈论了他儿子的癌症治疗,并将其融入到一集中关于 AI 时间表的讨论中,这悄然提醒我们,那些最努力思考未来的人也充分地生活在当下。