【访谈】Dario Amodei:我们正接近指数增长的尽头

嘉宾: Dario Amodei,Anthropic 联合创始人兼 CEO,OpenAI 前研究副总裁,领导了 GPT-2 和 GPT-3 的训练 主持人: Dwarkesh Patel | 时长: 2 小时 22 分钟 来源: YouTube | Dwarkesh Podcast

本期亮点

  • 扩展定律依然有效,预训练和强化学习遵循同样的规律
  • 50% 概率 1-3 年内实现"天才之国",90% 概率 10 年内
  • AI 行业将形成 3-4 家寡头格局,差一年就是破产与盈利的分水岭
  • 联邦应设定监管底线,专制主义可能像封建制度一样被技术淘汰

目录

  1. 指数增长的终点就在眼前
  2. 1-3 年内,数据中心里将出现天才之国
  3. AI 扩散:极快但不是即时
  4. 万亿美元赌局:算力投资与破产风险
  5. 当 AI 能做一切,经济会被商品化吗
  6. 监管的两难:州法拼凑还是联邦标准
  7. AI 时代的全球秩序重塑
  8. 40% 的时间花在文化上

指数增长的终点就在眼前

Dario Amodei 在访谈开始时坦言,过去三年技术的指数增长基本符合预期。模型从聪明的高中生进化到大学生,再到具备博士和专业人士的能力。在编程领域甚至已超越这个水平。但最令他惊讶的是公众对"接近指数增长终点"这一事实严重缺乏认知。

他的核心假设源自 2017 年撰写的一份文档——Big Blob of Compute 假设。这不是专门关于语言模型的文档,而是更通用的框架。当时 GPT-1 刚发布,还有 AlphaGo、OpenAI 的 Dota、DeepMind 的 StarCraft AlphaStar 等多种研究方向并存。

“所有的巧思、所有的技术、所有’我们需要新方法’的说法,其实都不太重要。真正重要的只有几件事。”

Dario 列出了七个关键要素:原始算力、数据数量、数据质量和分布、训练时长、可无限扩展的目标函数(预训练和强化学习的目标函数)、以及归一化和条件化以确保数值稳定性。这个假设到现在依然成立。预训练扩展定律持续发挥作用,现在强化学习也展现出同样的现象。

关于样本效率的谜题,Dario 提供了一个独特的视角:预训练介于人类进化和即时学习之间。人类大脑不是白纸,从一开始就有各个区域连接到输入和输出,这些先验知识来自进化。而语言模型从随机权重开始,更像白纸。预训练和强化学习存在于进化与即时学习之间的中间空间,模型的上下文学习则介于长期学习和短期学习之间。

这构成了一个层次结构:进化、长期学习、短期学习、即时反应。大语言模型的各个阶段落在这个谱系中,但不在完全相同的点上。泛化能力才是关键——就像预训练从狭窄的同人小说语料库扩展到通用互联网抓取后才开始获得泛化,强化学习也遵循同样的路径。从简单的数学竞赛训练,到更广泛的代码任务,再到更多其他任务,泛化正在逐步实现。

指数增长曲线


1-3 年内,数据中心里将出现天才之国

当被问及"为什么是一年之后而不是十年之后"时,Dario 明确表达了他的信心等级。对于十年内达到数据中心里的天才之国这个假设,他有大约 90% 的把握。很难比 90% 更高,因为不可消除的不确定性——可能是公司内部动荡,可能是台湾晶圆厂被导弹炸毁。

“对于编程,除了那个不可消除的不确定性之外,十年内我们绝对能够做到端到端编程。”

但他补充了一个关键区分:可验证任务 vs 不可验证任务。对于编程这样的可验证任务,他认为一两年内就会达到。唯一的不确定性在于那些难以验证的任务——规划火星任务、基础科学发现如 CRISPR、写小说。这些任务的验证困难,即使在长时间尺度上也存在一点基本不确定性。

关于更激进的时间线,Dario 表示这更像是 50-50 的事情,可能在一到三年内实现。他预测到 2026 年底、2027 年初,将出现能够导航人类界面进行数字工作、智力能力匹配或超越诺贝尔奖得主、能与物理世界互动的 AI 系统。

但技术进步与经济扩散之间存在时间差。即使模型在一两年内达到天才之国的水平,数万亿美元收入何时滚滚而来仍不确定——可能是一年、两年,甚至延伸到五年。治愈所有疾病需要经历生物学发现、制造新药、监管流程。即使 AI 能发明治愈一切的方法,从实验室到全球普及可能需要数年。

这种不确定性塑造了 Anthropic 的算力采购策略。假设收入每年增长 10 倍,2026 年底达到 1000 亿美元,2027 年底达到 1 万亿美元。但如果购买与 1 万亿美元收入匹配的算力,增长率哪怕只差一年,或者是每年 5 倍而非 10 倍,公司就会破产。所以实际决策是支持数千亿而不是万亿的规模,在捕捉上行空间和财务风险之间寻找平衡。

数据中心里的天才之国


AI 扩散:极快但不是即时

Anthropic 的收入从去年到今年 1 月实现了 10 倍增长,单月新增数十亿美元。Dario 表示,这条曲线不可能永远持续,但当前速度足以让人重新思考技术扩散的时间尺度。

“我们应该思考这个中间世界,事物极其快速但不是即时的。扩散是非常真实的,并不完全与 AI 模型的局限性有关。”

快速但非即时——这是理解当前 AI 落地的关键。企业采用需要变革管理、安全重配、旧系统改造。Dario 观察到两条指数同时存在:模型能力的增长,与经济扩散的增长。

白领自动化的关键瓶颈是计算机使用能力。以视频编辑为例:AI 需要控制屏幕、理解剪辑软件、判断镜头取舍。OS World 基准测试显示,模型表现已从 5% 提升至 70%。一旦突破这道门槛,大部分白领工作的自动化将成为可能。

编程领域已出现生产力跃迁信号。Anthropic 内部有工程师完全不再手写代码。但 Dwarkesh 质疑:为何宏观层面未见软件行业的文艺复兴?为何独立评估显示生产力反而下降 20%?

Dario 认为,长上下文窗口已提供足够的替代能力。Claude 的 100 万 token 窗口可容纳整个代码库核心部分,这可能足以实现"数据中心里的天才之国"。

能力增长 vs 经济扩散


万亿美元赌局:算力投资与破产风险

Dwarkesh 提出尖锐挑战:如果真有"数据中心里的天才之国",为何不购买 5 万亿美元算力来运行它?

Dario 的回答揭示了行业最大风险:“购买 1 万亿美元的年度算力,如果时间线预测哪怕只差一年,就会导致破产。” Anthropic 的盈利计划锚定在 2028 年,过早 all-in 导致沉没成本,过晚则错失窗口。

行业算力轨迹证实了这一点。2026 年全球 AI 算力约 10-15 GW,到 2029 年预计达 300 GW,数万亿美元投资。

AI 盈利逻辑与传统商业截然不同。理想状态下,一半算力训练,一半推理,毛利率超 50%。Dario 给出简化模型:每年 1000 亿算力成本,500 亿支持 1500 亿收入,500 亿训练新模型,盈利 500 亿。

“盈利发生在你低估了需求量时。亏损发生在你高估了需求量时,因为你是提前购买数据中心的。”

这揭示了核心悖论:盈亏的真正决定因素不是技术进展,而是需求预测的准确性。当前三家领先公司毛利率为正却整体亏损,因为仍处于算力扩张期——每个模型单独盈利,但训练下一代模型导致整体亏损。

一旦达到"天才数据中心"规模,行业将形成 3-4 家企业寡头格局。极高进入成本构成天然壁垒,模型本身具差异化。Dario 预测,2030 年前行业收入达万亿美元规模。差一年,就是破产与盈利的分水岭。

万亿美元天平


当 AI 能做一切,经济会被商品化吗

云计算是高度同质化的市场,但 AI 模型比云更具差异化Claude、GPT、Gemini 在编码风格、推理能力上都有微妙差异,不仅仅是 Claude 擅长编码、GPT 擅长数学那么简单。Dario 说,模型擅长不同类型的编码,模型有不同的风格,这些东西实际上彼此非常不同。

这种差异化会持续多久?有一个反驳论点:如果 AI 模型能够自己完成模型生产的全过程,这种能力可能会扩散到整个经济。但 Dario 认为,那不是 AI 模型商品化,而是整个经济一次性商品化。在一个任何人都能做任何事、任何东西周围都没有护城河的世界,他不知道会发生什么。

“也许当 AI 模型能够做一切时,如果我们解决了所有的安全和安保问题,那是经济再次扁平化的机制之一。”

Dario 担心的不是全局商品化,而是地理不平等。他担心增长率可能在硅谷和社交上与硅谷连接的世界部分达到 50%,而在其他地方并没有比当前速度快多少。

关于机器人技术,Dario 认为一旦模型具备类人学习能力,机器人的设计和控制都将被革命化。但会有 1-2 年的扩散延迟

在定价模式上,Dario 认为 API 模式会比人们想象的更持久。技术在指数级增长意味着总有新开发出来的用例领域。但并非每个 token 都具有相同的价值——当模型说"重启你的 Mac"时可能值几美分,但如果模型去制药公司说"你应该把那端的芳香环拿到这端来",那些 token 可能价值数千万美元

Claude Code 成为编码代理类别领导者的原因很简单:Anthropic 内部有数百名程序员每天都在使用它,形成了快速的产品反馈循环。

模型差异化


监管的两难:州法拼凑还是联邦标准

2025 年 12 月 26 日,田纳西州立法机构提出了一项法案:对于一个人故意训练人工智能来提供情感支持,包括通过与用户的开放式对话,将构成犯罪。

Dario 认为那个特定的法律是愚蠢的。但正在投票的事情更危险:禁止所有州对 AI 的监管十年,没有任何做联邦 AI 监管的明确计划。

“禁止各州做任何事情十年,人们说他们有联邦政府的计划,但桌面上没有提案。考虑到时间线,十年是一个永恒。”

Dario 支持的方案是:联邦政府应该介入设定标准,各州可以跟随但不能差异化

具体措施上,Dario 主张从透明度标准开始,监控自主性风险和生物恐怖主义风险。随着风险变得更严重,可以更积极地立法——比如强制人们拥有生物分类器

他的基本观点是:放松围绕 AI 健康好处的管制,同时大幅增加安全和安保立法。从透明度开始,然后如果风险出现就快速行动。做到这一点的唯一方法是敏捷。这就是为什么他写了《技术的青春期》,希望决策者比原本更快地行动。


AI 时代的全球秩序重塑

Dario Amodei 并不太担心发达国家的 AI 福利分配。他认为市场机制会确保有利可图的应用落地。他真正担心的是发展中国家——撒哈拉以南非洲、印度、拉丁美洲——那些市场不完善、即使技术存在也难以落地的地区。

“我担心即使开发了治疗方法,密西西比州农村的某个人也得不到它。这是我们在发展中世界关注的一个较小版本。”

关于对华芯片管制,Dario 的核心关切是中国政府利用 AI 压迫人民。他担心的场景是:如果中美都建成"数据中心里的天才之国",可能出现比核威慑更危险的不稳定均衡。当双方都认为自己有 90% 概率获胜时,战争概率会大幅上升。

但 Dario 也抱有一种激进的希望:专制主义可能像封建制度一样被技术淘汰。工业化让封建制度失去经济基础,强大 AI 是否会让专制政权在道德上变得过时?

关于 Claude 宪法设计,Dario 澄清了两个常见误解。第一,宪法不是规则清单,而是原则框架。第二,Claude 不是自主代理,而是"主要可纠正但有基于原则的硬性限制"——默认执行用户任务,但拒绝制造生物武器或伤害他人的请求。

他希望民主联盟在 AI 世界秩序谈判中拥有更强筹码。初始条件很重要——技术指数曲线上存在关键节点,可能赋予某些国家显著的国家安全优势。

AI 世界秩序


40% 的时间花在文化上

Dario Amodei 是那种会写 50 页备忘录的技术 CEO。他每两周站在全公司面前讲一小时,覆盖模型进展、产品策略、行业动态、地缘政治。这个环节叫 DVQ(Dario Vision Quest)——不是他起的名字,他试图反对过,“因为它让我听起来像是要去抽佩奥特”,但名字就这么定了。

他花 40% 的时间确保 Anthropic 的文化良好。当公司达到 2,500 人时,直接参与每个细节变得不现实。但确保"每个人都把自己视为团队成员,一起工作而不是互相对抗"具有巨大杠杆作用。

“人们不是试图以牺牲彼此为代价来获得成功或背后捅刀子,我认为这在其他一些地方发生了很多。”

他的方法是坦诚沟通。在 Slack 频道上对公司内部调查、员工担忧直接回应,避免企业话术和防御性沟通。

当被问到"历史记录中最难捕捉的是什么"时,Dario 提到三点:第一,外部世界在每个时刻都不理解指数增长的程度——“如果我们距离 AGI 只有一两年,街上的普通人完全不知道”。第二,决策速度——某个关键决定可能只有两分钟。第三,孤立性——那些真正在押注这件事会发生的人,承受着外界不理解的怪异感。


编者分析

立场偏向

Dario Amodei 的身份背景必然影响他对 AI 发展时间线的判断。作为 Anthropic CEO,他领导的公司正在与 OpenAI、Google DeepMind 竞争下一代基础模型。他对"1-3 年内实现数据中心里的天才之国"的乐观预测,与他的商业利益存在明显相关性——越早实现 AGI,Anthropic 作为头部实验室的先发优势越明显;越强调指数增长的确定性,越容易吸引投资者和顶尖人才。

值得注意的是,Dario 在访谈中多次提到"我们中的一些人,在我们内心深处,认为这发生的概率很高",这种表述方式本身揭示了 AI 实验室内部并非铁板一块。

论证中的选择性

Dario 在讨论扩展定律时主要引用成功案例——Claude 3.5 Sonnet 在编程任务上的突破、持续学习能力的潜在突破——但对失败或停滞的案例着墨较少。他提到"有些事情没有按我预期的那样发生",但未具体说明哪些预测失败了。这种选择性可能导致听众高估扩展定律的可靠性。

关于监管立场,Dario 展现了微妙的平衡:反对过度监管,但支持生物安全相关的严格审查;主张对华芯片管制,但承认"市场有太多钱,很难阻止"。这种立场既能向监管机构展示负责任的形象,又不损害行业发展速度。

反面观点

学术界对扩展定律的持续性存在广泛质疑。纽约大学 Gary Marcus 等研究者认为,当前的扩展定律主要基于低垂果实——互联网文本、代码库、图像数据——这些数据源正在耗尽。一旦高质量数据耗尽,单纯增加算力的边际收益会急剧下降。

经济学家 Tyler Cowen 提出的"AI 泡沫论"指出,当前 AI 投资可能存在严重的供需错配:数千亿美元投入数据中心建设,但实际能产生足够收入的应用场景仍然有限。

关于 AGI 时间线,MIT 物理学家 Max Tegmark 等人的保守估计是 10-20 年,而非 Dario 暗示的 1-3 年。他们认为,从"聪明的博士后"到真正的通用智能,中间存在多个难以跨越的鸿沟——物理世界的具身智能、常识推理、因果理解。

待查证事实

  • “70% 的时间节省"数据来源 — Dario 提到 Labelbox 使用 Claude 实现 70% 的时间节省,但未提供具体的实验设计和样本量
  • 对华芯片管制表述准确性 — Dario 说"然而它没有发生”,但美国实际上在 2022 年 10 月实施了针对高端 AI 芯片的出口管制
  • Anthropic 的实际员工数 — Dario 提到公司有 2,500 人,这个数字的口径是否包括承包商?

Dario 的核心判断

  • 扩展定律依然有效,预训练和强化学习遵循同样的规律
  • 50% 概率 1-3 年内实现"天才之国",90% 概率 10 年内
  • 技术进步极快但经济扩散有 1-5 年延迟
  • AI 行业将形成 3-4 家寡头格局,2028 年前后盈利
  • 联邦应设定监管底线,从透明度开始,针对性立法跟进
  • 民主联盟需要在 AI 时代的全球博弈中占据先机

来源:Dwarkesh Podcast — Dario Amodei | 转录日期:2026-02-14

如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。

Buy me a coffee