2026年1月15日 · 演讲 · 26min
中国AI能否领跑全球未来五年?清华圆桌五人谈
中国AI的真正瓶颈不是技术,而是冒险精神和算力。五位横跨学术界和工业界的顶级学者,在这场26分钟的高密度对话中,几乎触及了2026年中国AI面临的所有关键问题。
节目概要
这是AGI Next前沿峰会上的一场圆桌对话,由拾象科技CEO李广密主持。参与者包括:91岁的中国AI奠基人张钹院士、智谱创始人唐杰教授、阿里云千问首席AI科学家林俊旸、刚回国加入腾讯的98后科学家姚顺雨,以及联邦学习开创者杨强院士。对话围绕四个核心议题展开:大模型的分化路径、AGI的下一个范式、Agent的战略落地,以及中国AI能否在三到五年内引领全球。
To B与To C:两个完全不同的游戏
姚顺雨给出了一个极为清晰的分化框架。他观察到,全球AI超级应用已形成两个典范:ChatGPT代表To C,Claude Code代表To B。但两者的增长逻辑截然不同。
To C场景中,普通用户对ChatGPT的感受已趋于平淡,大多数人只是把它当搜索引擎的加强版。模型智能的提升并没有转化为体验的质变。而To B场景中,智能强度直接与生产力和收益挂钩。他举了一个很实际的例子:美国市场上,Opus 4.5月租200美元,差一级的模型只要20到50美元,但年薪20万美元的从业者宁愿付溢价选最好的模型。原因很简单,每天十个任务,Opus能做对八九个,差一点的模型只能做对五六个,而且你无法预判哪几个会出错,需要额外花大量精力监控,反而得不偿失。
“不是AI替代人,而是会使用AI工具的人替代不会使用的人。”
腾讯的战略选择也印证了这种分化。姚顺雨坦言,腾讯的To C基因更强,他们发现To C领域的瓶颈不在于更大的模型或更强的强化学习,而在于额外的上下文和环境。他举了个生活化的例子:你问AI今天该去吃什么,无论哪年问ChatGPT,体验都不好,因为问题的核心不是模型不够强,而是缺少关键信息的输入,比如天气、位置、家人的饮食偏好。如果能把微信聊天记录同步给元宝AI,才能给用户带来真正的价值。
而在To B端,腾讯选择先服务自身10万员工的真实场景。姚顺雨对比说,Anthropic这样的创业公司获取Coding Agent数据需要依赖数据厂商,标注人员数量有限导致数据多样性受限。大公司则能通过内部场景积累真正的真实数据,而不是依赖标注商或模型蒸馏。
林俊旸补充了一个重要观察:中美市场在Coding Token消耗量上存在巨大差异,美国已经形成规模,中国市场还没跟上。Anthropic选择Coding赛道不是单纯的战略下注,而是基于和客户频繁交流发现的真实需求。
自主学习:已经在发生,只是还没被命名
姚顺雨作为曾在OpenAI工作的亲历者,带来了一个关键判断:自主学习已经成为硅谷的热门话题,几乎是行业共识,但每个人的理解都不同。更重要的是,自主学习已经在发生了,只是很多人还没有意识到。
他给出了几个已经发生的例子:ChatGPT利用用户数据拟合聊天风格,让体验越来越好;Claude Code已经完成了自身项目95%的代码编写,帮助自己持续优化;Cursor的自动补全模型每隔几个小时就用最新用户数据进行学习。
“今天的AI系统本质上由两部分构成:神经网络和代码库。如果未来的Agent能够自己优化代码仓库,那其实就是AGI的一种形态。”
姚顺雨认为,自主学习的瓶颈不在方法论,而在数据和任务场景,以及想象力。O1模型在数学题上从10分提升到80分,但如果自主学习成为新范式,该用什么任务去验证?是让它成为赚钱的交易系统,还是解决科学难题?验证标准本身是个未回答的问题。
被问到哪家公司最可能引领下一个范式时,姚顺雨依然看好OpenAI,尽管商业化让它的创新基因有所削弱。
林俊旸从更实际的角度出发,提出两个关键方向:一是测试时Scaling,让AI科学家持续工作30个小时来解决高难度任务;二是AI的主动性,让环境直接触发AI的思考和行动,而不是等待人类的提示词。但他同时表达了担忧:不担心AI说不该说的话,更担心它做不该做的事。
“就像培养小孩一样,需要给AI注入正确的方向。主动性是重要的范式,但安全问题必须同步解决。“
幻觉不可消灭,但可以定价
杨强院士提出了几个极具启发性的学术视角。他引用哥德尔不完备定理指出,当大模型作为一个系统无法自证清白时,幻觉是不可能被完全消灭的。那么真正的问题变成了:需要多少资源才能换取多少幻觉的降低?这就像经济学中的风险收益平衡,没有免费的午餐。这需要数学界、算法界和工业界共同来研究。
他还分享了一个关于持续学习的有趣观察:多个Agent串联时,能力会呈指数级下降。然而人类通过睡觉可以清理噪音,避免错误叠加,持续提升准确率。这给大模型的计算模式带来了新的启发,未来或许需要跳出Transformer计算的现有框架。
杨强提出了Agent发展的四阶段论,核心划分标准是目标和规划的定义者究竟是人还是AI。目前还处于初级阶段:目标由人来定义,规划也由人来设计,Agent本质上只是一种高级编程语言。未来的Agent应该能够观察人类的工作过程,利用过程数据自主定义目标和规划。
智能的效率:唐杰的范式预判
唐杰教授从资源效率角度切入。他观察到,过去工业界和学术界的资源差距高达一万倍,但现在很多学校已经有上千张卡,学术界的创新基因被激活了。
更关键的判断是:大模型的投入越来越大,但效率不高。数据从10T增加到100T,计算成本飙升,收益却没有同比例增长。强化学习的边际效益也在递减。在这种情况下,“智能的效率”将成为核心,用更少的投入获得更多的智能增量。这必然会催生新的范式,可能是持续学习、记忆技术、模型架构或多模态领域的突破。
在Agent方面,唐杰给出了三维评判框架:价值大小(早期GPT催生的很多Agent用提示词就能替代,价值不足所以消失了)、成本高低(如果API就能解决,基座模型会直接整合)、迭代速度(大模型时代拼时间窗,半年内快速满足需求才是关键)。智谱在Coding和Agent领域的下注已经看到成效,调用量持续增长。
从个性化到具身智能:Agent的下一步
林俊旸认为2026年要实现自动化人类的长期工作,需要两件事:一是Agent要与自主学习深度结合,在长时间工作中实现自我进化,并自主决定任务优先级;二是提升与环境的交互能力,目前Agent的交互环境主要是电脑,如果能延伸到真实世界,比如指挥机器人做制药领域的湿实验,才能大幅提升效率。
他预测电脑端的Agent应用今年就能有所突破,但与具身智能结合、进入真实物理世界的Agent可能需要三到五年。
对于通用Agent的机会归属,林俊旸引用Manus CTO Peak的观点:核心机会在长尾市场。头部任务的马太效应明显,模型公司凭算力和数据优势容易解决;但长尾任务需求分散、场景多样,正是创业者的机会。
林俊旸还提到强化学习带来的一个实际红利:现在修复问题比以前容易多了。过去客户做有监督微调时数据配比和质量都是难题,但有了强化学习,只需少量数据点,甚至不需要标注,仅凭查询和奖励就能快速训练和优化。
中国AI领跑全球的概率:乐观与清醒并存
这是最有张力的话题。五位嘉宾给出了截然不同的判断。
姚顺雨(概率”很高”):以制造业和电动车为例,中国企业一旦发现赛道可行就能快速追赶甚至局部超越。但他指出三个必须解决的问题:算力瓶颈(光刻机和软件生态)、To B市场成熟度(国内付费意愿不足,出海是重要方向)、以及冒险精神不足。
他对比了中美研究文化的差异:中国研究者更倾向做安全的事情,技术一旦被证明可行就能几个月内攻克,但对长期记忆、持续学习等未知领域的探索动力不足。OpenAI在2022年就开始深耕强化学习,国内直到2023年才大规模跟进,理解深度存在明显差异。另外,国内行业对榜单和数字的关注度过高,而Claude在很多编程榜单上并不是最高分,却是用户公认最好用的模型。
林俊旸(概率低于20%):他认为这已经是很乐观的判断了。核心差距在于美国的算力总量比中国高出一到两个数量级,而且OpenAI、Anthropic等公司会把大量算力投入下一代研究,国内的算力大多用来做产品交付,用于探索性研究的资源捉襟见肘。
但他也提到了”穷则生变”的可能:美国公司算力充足,反而缺乏算法和基础设施联合优化的动力;中国企业资源有限,可能在软硬结合上找到突破点,比如将下一代模型结构和芯片设计端到端结合。他分享了一个遗憾:2021年阿里芯片团队曾咨询他三年后模型是否还是Transformer架构(因为芯片流片需要三年),但双方沟通不畅,错过了协同机会。
杨强院士:以互联网为类比,起源于美国但中国快速追赶,微信等应用世界领先。AI是赋能技术而非终端产品,中国在To C产品落地上有天然优势。他还引用Palantir的本体论方法和前端部署工程师模式,认为这种工程化解决方案值得国内AI公司学习。
唐杰教授:信心最足,核心原因是年轻一代的崛起。他认为中国AI要实现引领需要三个条件:更多聪明人敢于冒险、更好的环境支持(减少内耗,让研究者有精力投入创新而不是疲于交付)、以及坚持在正确赛道上深耕。
一点洞见
这场对话最有价值的地方不在于任何单一观点,而在于五位身处不同位置的学者对同一组问题给出了充满张力的回答。几条值得反复咀嚼的洞见:
- 强模型和普通模型的差距在To B市场会持续放大,这是由”你无法预判哪几个任务会出错”这个朴素事实驱动的
- 自主学习不是未来的某个突破时刻,而是已经在渐变中发生。Claude Code自己写自己95%的代码,这本身就是一种AGI形态
- 幻觉不可消灭但可以定价,这个视角把工程问题转化为了经济学问题
- 中国AI最缺的不是人才和执行力,而是在未被验证的方向上冒险的意愿。“只要技术被证明可行,几个月就能攻克”恰恰说明了跟随能力强、开拓意愿弱的结构性问题
- 林俊旸低于20%的判断最清醒:算力差距一到两个数量级不是靠聪明能弥补的,但”穷则生变”式的软硬结合也许是唯一的非对称机会
- 阿里芯片团队2021年错过的协同机会揭示了比算力更深层的问题:芯片流片需要三年预判,模型架构演进也需要预判,但两个团队之间缺乏有效对话