【转录】Anthropic CEO Dario Amodei:AI 的潜力、与 OpenAI 的竞争、GenAI 商业化与末日论

嘉宾: Dario Amodei,Anthropic CEO 主持: Alex Kantrowitz,Big Technology Podcast 时长: 01:08:50 来源: YouTube 观点提炼: 深度分析与编者观点


目录

  1. 开场与「末日论者」标签 00:00:00
  2. AGI 时间线与指数增长 00:03:45
  3. Scaling Laws:收益递减与新技术 00:10:58
  4. 规模与竞争:资源和人才大战 00:16:26
  5. 商业模式与收入增长 00:20:24
  6. 定价、推理成本与盈利能力 00:27:45
  7. 开源 vs 托管前沿模型 00:36:43
  8. 个人背景:旧金山、家庭与父亲的病 00:40:23
  9. 治理与安全:「竞逐顶端」与控制之辩 00:54:15

1. 开场与「末日论者」标签

00:00:00

Dario Amodei: 别人叫我「末日论者」(doomer)的时候我会非常生气。有人说,「这家伙就是个末日论者,他想拖慢一切进度」——你听到我刚才说什么了吗?我父亲因为那些本可以再晚几年就能问世的治疗方案而去世。我深知这项技术的意义。

Alex Kantrowitz: 你一定听到过来自 Jensen(黄仁勋)等人的批评——他们说,Dario 认为只有自己能安全地开发 AI,因此想控制整个行业。

Dario Amodei: 我从来没说过这种话。这完全是荒谬的谎言。这是我听过的最离谱的谎言。

Alex Kantrowitz: Anthropic CEO Dario Amodei 做客我们节目,聊一聊人工智能的前路、生成式 AI 是否是一门好生意,同时回应那些称他为末日论者的声音。他今天在旧金山 Anthropic 总部与我们面对面录制。Dario,很高兴再次见到你。欢迎来到节目。

Dario Amodei: 谢谢你的邀请。

Alex Kantrowitz: 先来回顾一下你最近几个月的动态。你说 AI 可能会消灭一半的入门级白领工作;你发现 OpenAI 要收购 Windsurf 后立即切断了他们使用 Anthropic 顶级模型的权限;你向政府呼吁出口管制,惹怒了 Nvidia CEO 黄仁勋。你怎么了?

Dario Amodei: 我觉得,我和 Anthropic 一直专注于做自己认为正确的事、说自己相信的话。随着 AI 系统越来越强大,我更想公开、更有力地表达这些观点。多年来我一直在说——后面可以详细聊——我们面临这些问题。模型的能力从几年前的勉强连贯,到两年前的聪明高中生水平,再到现在已经达到聪明大学生甚至博士水平,正在开始渗透到经济的方方面面。所有与 AI 相关的问题——从国家安全到经济影响——正在变得迫在眉睫。

所以随着这些问题越来越近,我越来越觉得有必要公开发声。很多人说我们是末日论者或者悲观主义者——我其实觉得,我和 Anthropic 比那些自称乐观主义者或加速主义者的人更深刻地理解 AI 的好处。我们可能比任何人都更重视这些好处——但正因如此,正因为如果一切做对了我们可以拥有一个多么美好的世界,我觉得自己有义务去了解风险。


2. AGI 时间线与指数增长

00:03:45

Alex Kantrowitz: 这一切都源于你的时间表判断。基本上,你的时间线似乎比大多数人短得多,所以你觉得有紧迫感要站出来发声,因为你认为这就快到了?

Dario Amodei: 是的。不过我也不完全确定。特别是在社会层面,预测非常困难——什么时候企业会部署 AI?什么时候 AI 能推动医学突破?这些都很难说。但在底层技术方面,我越来越有信心了。不确定性仍然存在——也许未来两年内模型就会因为我们不理解(或理解)的原因停止进步,那我说的所有话就显得很傻了,但考虑到我看到的概率分布,我完全接受这种可能性。我估计有 20% 到 25% 的概率会出现这种情况。

Alex Kantrowitz: 我应该说明,这次对话是我正在写的一篇关于你的人物特写的一部分。我采访了二十多位和你共事过、认识你、或者与你竞争过的人。一个反复出现的主题是:在所有主要实验室负责人中,你的时间线可能是最短的。为什么?我们为什么应该相信你的判断?

Dario Amodei: 这取决于你说的「时间线」是什么意思。AI 圈子里有 AGI、超级智能这些概念——你会听到某些公司领导人说「我们已经实现了 AGI,现在要转向超级智能」。我觉得这些术语完全没有意义。我不知道 AGI 是什么,不知道超级智能是什么,听起来像营销用语。

Alex Kantrowitz: 营销?

Dario Amodei: 是的,像是为了激活人们多巴胺反应的东西。所以你会看到我在公开场合从不使用这些术语,而且我会刻意批评它们的使用。但尽管如此,我确实是对 AI 能力快速提升最看好的人之一。

我认为真实发生的事情是:AI 正在以大致指数级的速度变得更好。两三年前模型还在挣扎于简单的高中生能做对的问题;现在我觉得在某些领域——比如编程——模型已经处于中高级专业人士水平。而且这种进步没有停下来的迹象。可能你观察某个单独的基准测试,看起来某段时间进步变慢了——但总体上这个指数级趋势仍在继续。

核心框架是:传统的预训练——把互联网数据灌给模型——现在又加了第二阶段:强化学习/测试时计算/推理(随便你怎么叫它)。这两个阶段正在同步扩展。在 RL 方面,数学和编程的进步最快,更主观的任务相对落后,但我认为这只是暂时的障碍。人们容易被指数增长愚弄——就像新冠疫情初期一样——而低估了速度可能有多快。


3. Scaling Laws:收益递减与新技术

00:10:58

Alex Kantrowitz: 现在 AI 行业里很多人在谈论 Scaling 的收益递减。这与你刚才描述的愿景似乎不太吻合。他们错了吗?

Dario Amodei: 从我们在 Anthropic 看到的情况来说——如果看编程领域,我认为 Anthropic 模型进步非常快。这种改进还在继续。什么时候会触顶,每次一两个基准测试饱和的时候很难说——但至少在过去一年半里,模型在代码能力上的提升一直在持续。

Alex Kantrowitz: 但大语言模型似乎也有一些弱点。比如持续学习(continual learning)——Dwarkesh 几周前在我节目上讲过这个话题。他在 Substack 上写道:缺乏持续学习能力可能是 LLM 最大的短板——模型训练完就定型了,不会再学习。

Dario Amodei: 首先,即使我们永远无法解决持续学习问题,LLM 对经济的潜在影响仍然会非常大。假如我有一个非常聪明的诺贝尔奖得主,但他不能再读新教科书、不能吸收新信息——这确实不方便,但如果你有一千万个这样的人,他们仍然能创造巨大价值。所以仅从 LLM 的角度来说——一个巨大的大脑,什么都知道但不更新——它的经济价值都已经极高。

而且从 AI 研究的角度看,没有理由做不到持续学习。这不像是什么物理定律阻止了我们。模型自身也是 AI 研发加速的推动力——这是一个「元」循环:模型越好 → 帮助开发下一个模型 → 模型更好。所以持续学习不是能力问题,只是工程进度问题。

Alex Kantrowitz: 你觉得你对规模的执着会不会让你对某些新技术视而不见?Demis Hassabis 曾说过,你知道的,规模不是一切。

Dario Amodei: 我们每天都在开发新技术。Claude 在代码方面表现出色——但我们一般不公开讨论原因。

Alex Kantrowitz: 为什么这么擅长代码?

Dario Amodei: 刚说了,我们不对外讲。

Alex Kantrowitz: 我总得问一下。

Dario Amodei: 每一版 Claude 都包含架构改进、数据改进、训练方法改进。新技术是每个模型构建过程的一部分。这也是为什么我一直强调要最大化人才密度——你需要高密度人才来发明新技术。


4. 规模与竞争:资源和人才大战

00:16:26

Alex Kantrowitz: 一个问题一直萦绕在这场对话上方——也许 Anthropic 是有正确想法但缺少资源的公司。看看 xAI 和 Meta:Elon 建了巨大集群,Zuckerberg 在建 5 吉瓦的数据中心。他们投入了海量资源。Anthropic 虽然融了几十亿,但对面可是万亿美元级别的公司。

Dario Amodei: 我们现在已经融了接近 200 亿美元。这不是一个小数字。而且如果你看我们与 Amazon 合建的数据中心规模,我不认为我们实质上比这个领域的任何公司小。有时候瓶颈在于能源、在于资本化,但我们做得还不错。

Alex Kantrowitz: 你提到了人才密度。你怎么看 Zuckerberg 在人才方面的做法?他把大数据中心和人才攻势结合在一起,看起来很有竞争力。

Dario Amodei: 这其实很有趣。相比其他公司,我们发现 Anthropic 的特点是——我们的团队规模相对较小,但平均员工素质非常高。当 Meta 用巨额薪酬来挖人的时候,我发现 Mark Zuckerberg 试图用钱购买一种买不到的东西——那就是对使命的认同。

我觉得我们只需要保持公平。当 Zuckerberg 向我们的员工开出巨额薪酬时,我们的做法是:我们给每个人分配一个级别,而且我们不就级别讨价还价,因为我们认为那不公平。我们要有一套系统化的方式。不能因为 Zuckerberg 随机选中你,你就应该拿比旁边同样优秀的同事多十倍的薪酬。

我的看法是,唯一能真正伤害你的方式就是允许恐慌和不公平破坏公司文化。实际上,我觉得这反而成了一个团结公司的时刻——我们有对使命的认同感。他们得到的是最有热情、最认同使命的人吗?

Alex Kantrowitz: 但他们有人才又有 GPU,你别低估他们。

Dario Amodei: 我们走着看吧。坦白说,我对他们正在做的事情相当不看好。


5. 商业模式与收入增长

00:20:24

Alex Kantrowitz: 我们聊聊你的生意吧。很多人一直在想,生成式 AI 到底是不是一个真正的生意?你融了接近 200 亿——Google 30 亿、Amazon 80 亿、Lightspeed 领投的新一轮 35 亿。你的融资 pitch 是什么?你不属于大科技公司,你是独立在外的。你是带着 Scaling Laws 走进去说「给我些钱」吗?

Dario Amodei: 我对这件事的看法一直是:AI 的基础技术将会变得极其强大,你需要提前投入资金来开发。两三年前,我们融的钱还只有几亿,OpenAI 已经从微软拿了 130 亿,大型科技公司手握 1000 亿、2000 亿现金。我们的 pitch 是:我们比别人更擅长做模型。可能存在一条 Scaling Laws 曲线,但如果我们花 1 亿就能做到别人花 10 亿的效果,花 100 亿就能做到别人花 1000 亿的效果——那就值得投资我们,因为效率是 10 倍。

Alex Kantrowitz: 你的收入增长速度令人印象深刻。你能说说吗?

Dario Amodei: 我们是历史上在这个规模级别增长最快的软件公司。我们不公布具体数字,但公开信息可以查到。你能不能用 1000 亿美元来竞争?我的答案是可以,因为人才密度就是原因。

Alex Kantrowitz: CNBC 报道说你 60% 到 75% 的销售额来自 API。你们的企业业务战略是什么?

Dario Amodei: 大多数确实来自 API,但我们的消费端应用业务也在蓬勃发展。我们的观点是,企业使用场景——在法律、金融等各种领域——因为涉及高价值工作流和专业知识工作者,对 AI 来说是一个更大的市场。一些大型 B2B 合同对我们来说也很重要。

Alex Kantrowitz: 你怎么认为编程是最好的落地场景?

Dario Amodei: 编程的价值特别突出。用模型写代码变好了之后,实际上还能帮助你开发下一个模型。现在你通过 Claude Code 来卖 AI 编程能力,这非常有意思——做得越好,投入的资源越少,模型进步越快,正循环。


6. 定价、推理成本与盈利能力

00:27:45

Dario Amodei: 定价方案和速率限制其实出乎意料地复杂。有些情况是因为我们发布 Claude Code 的 Max 订阅层级时,并没有完全理解用户使用方式的所有影响。你花 200 美元/月,就能获得价值 6000 美元/月的 API 用量——这在一些层级上确实不太平衡。所以我们做了一些调整,特别是在 Opus 等大型模型上。

Alex Kantrowitz: 这里有很多假设,我能告诉你其中一些是错的。

Dario Amodei: 我们确实没有在亏钱。

Alex Kantrowitz: 但另一个问题是:你能否持续提供这些服务而不涨价?一些开发者很不满——在 Cursor 里用 Anthropic 的新模型比以前贵多了。我采访过的初创公司说 Anthropic 服务不稳定,似乎是 GPU 不够用。Replit 的 Amjad Massad 也说过,模型的每 token 价格曾经一直在下降,但现在停了。这些模型是不是太贵了,以至于 Anthropic 撞上了自己的天花板?

Dario Amodei: 我觉得你在做一些错误的假设。情况和你描述的不完全一样。首先,更大的模型当然比小模型运行成本更高——无论是否使用混合专家(Mixture of Experts)技术都一样。

关于推理成本——你可能会惊讶——我们一直在做改进,比如让模型效率提高 50%。我们才刚刚开始优化推理。推理效率从几年前到现在已经有了巨大改善,这就是为什么价格在下降。

Alex Kantrowitz: 那什么时候能盈利?我印象中今年亏损大约 30 亿。

Dario Amodei: 我要区分几个层面。运行模型本身——每赚一美元的运营成本——其实已经是盈利的了。另外有人员和办公楼等成本,但那在总体规模中并不大。最大的成本是训练下一个模型。所以「公司在亏钱」这个说法有点误导——当你理解 Scaling Laws 后就会看清:

打个比方——这些数字不精确,但说明逻辑——如果你花 10 亿训练一个模型,然后用它赚 20 亿。你可能会说公司刚好盈亏平衡。但如果你把下一个模型训练成本提到 30 亿,收入增长到 80 亿——从训练预算的倍数来看,你其实越来越赚钱。关键是要看增长率,而不仅仅看绝对盈亏。

我们的推理利润率也在不断改善。分销渠道和效率优化意味着这些模型的商业价值在持续提升。


7. 开源 vs 托管前沿模型

00:36:43

Alex Kantrowitz: 那开源呢?假如你停止在模型上投入,开源赶上来了,不就可以把 Anthropic 替换掉了?这个风险不存在吗?

Dario Amodei: 我认为开源在 AI 领域其实是个「伪命题」(red herring)。这个行业一个一直成立的规律是:前沿模型和开源模型之间总是存在差距。每次新一代前沿模型出来,差距就会拉大;然后老一代模型的开源版本慢慢追上来,差距缩小——但到那时新的前沿模型又出来了。循环往复。

我在 OpenAI 的时候就看到了这个模式。当时人们担心开源会追上 GPT-2、GPT-3——确实追上了旧版本,但新版本又远超它们。现在 Llama 之类的模型可能追上了一两年前的 Claude,但今天最新的 Claude 又远超它们。

更根本的问题是:开源不是免费的。你必须把它跑在推理基础设施上,必须有人来优化推理速度。最终你还是要在云上托管,因此总归需要有人提供这层服务。

Alex Kantrowitz: 但如果它又免费又便宜——

Dario Amodei: 它不免费。你必须在推理端运行它,必须有人来让推理变快。


8. 个人背景:旧金山、家庭与父亲的病

00:40:23

Alex Kantrowitz: 好的,我想多了解一下 Dario 这个人。我们还有一些时间,聊聊你的早年经历,还有你是怎么变成今天这个样子的。

Dario Amodei: 好的。

Alex Kantrowitz: 在旧金山长大是什么感觉?

Dario Amodei: 我小时候这座城市还没怎么「绅士化」(gentrification)。科技浪潮还没到来。我在上高中的时候它才开始出现,但我完全没兴趣。我想当科学家,我对物理和数学感兴趣。建网站、创业——这些对我毫无吸引力。我感兴趣的是发现基础科学真理,做能真正改变世界的事。

Alex Kantrowitz: 你是犹太裔母亲和意大利裔父亲的儿子。你和父母的关系怎么样?

Dario Amodei: 我和他们关系一直挺亲近。他们给了我一种对世界的责任感——他们不会直接说,但你能感受到那种氛围:你得去做重要的事。我从小学开始就参加科学竞赛,上大学后学物理。后来我意识到理论物理对世界的影响可能不够大,就转向了计算神经科学。

Alex Kantrowitz: 你父亲的病对你有很大影响。

Dario Amodei: 是的。他得了病——当时那个病的治愈率大概是 50%。但就在他去世后大约三四年,同一种病的治愈率从 50% 升到了大约 95%。

Alex Kantrowitz: 你父亲被一种本可以治愈的疾病夺走了生命,这一定让你感觉极其不公。

Dario Amodei: 当然。但这也告诉你解决相关问题的紧迫性——有人研发出了治疗方案,拯救了很多人的生命,但如果他们能早几年找到,就能拯救更多人,包括我父亲。这就是我内心的张力:AI 有巨大的好处,我想让所有人尽快获得这些好处。但我也知道风险,所以我必须公开谈论。

当那些在 Twitter 上欢呼加速的人叫我末日论者时——我不觉得他们真的关心人道主义层面的技术好处。他们只是被肾上腺素驱动,想为什么东西欢呼而已。我觉得他们缺乏任何道德公信力。

Alex Kantrowitz: 你说过你「痴迷于产生影响」(obsessed with having impact)。我采访过认识你的人,他们说在 OpenAI 早期,你就已经极度专注于影响力。

Dario Amodei: 是的。我一直在想:「你到底能做什么来影响世界?」我在学术界做过研究,最终意识到 AI 可能是影响力最大的领域。我不是那种天生的创业者——我从来没想过要创业。但当时的情况迫使我这么做——在 OpenAI 待了几年后,我和一群同事觉得需要以不同的方式来做 AI 安全,于是创立了 Anthropic。

Alex Kantrowitz: 那 SBF(Sam Bankman-Fried)是怎么回事?

Dario Amodei: 我大概见过他四五次。我对他为什么做出那些愚蠢或不道德的行为没有什么深刻洞察。当年 FTX 投资 Anthropic 的时候,我记得我的判断是:给他无投票权的股份,保护公司的使命和治理结构,确保他不能影响公司的方向。这样如果他人品有问题,至少不会危及 Anthropic。事后看来,这个决定是正确的。


9. 治理与安全:「竞逐顶端」与控制之辩

00:54:15

Dario Amodei: 我从来没说过那种话。那完全是离谱的谎言。

Alex Kantrowitz: 如果我引错了 Jensen 的话,抱歉,但——

Dario Amodei: 不,不,他的话说得没错——但那些话本身就很离谱。我已经多次说过,而且 Anthropic 的行动也证明了——我们追求的是「竞逐顶端」(race to the top),而不是「竞次」(race to the bottom)。

「竞次」是所有人都争着以最快速度把东西推出去——在这种竞赛中,不管谁赢,所有人都输。因为你造出了不安全的系统,可能帮助对手、引发经济问题或存在对齐风险。

「竞逐顶端」则是:不管谁赢,所有人都赢。你为行业树立榜样,说「我们要采用这个实践」。一个关键例子是负责任的扩展政策(Responsible Scaling Policies, RSP)——我们是第一个提出 RSP 的公司。之后 OpenAI 也推出了类似的东西,Google 也是。当你做了正确的事并树立了标准,其他人也会跟进,整个行业都因此变得更好。

Alex Kantrowitz: 但你仍然假设我们能控制 AI。这就是我想指出的。

Dario Amodei: 让我告诉你我投入了多少努力、多少坚持。尽管所有这些障碍和困难,我们创建了 Anthropic,开创了安全优先的 AI 公司模式,推出了业界领先的可解释性研究,帮助建立了 RSP 框架——这些都不是因为我觉得控制很容易,而是因为我认为值得全力以赴去尝试。

我发表了"Machines of Loving Grace"——描述 AI 能为数十亿人带来的好处。我不是那种说「AI 太危险了,别做了」的人。我是那种说「AI 的好处如此巨大,风险也如此巨大,我们必须极其认真地对待两者」的人。

关于出口管制——我确实认为美国和民主国家在 AI 领域应该保持领先地位。这不是因为我想控制行业,而是因为如果威权国家在 AI 领域领先——特别是在军事应用方面——那对整个世界都不好。

我认为世界最好能听到事情的全貌——好的、坏的、令人困惑的。过于简单化的叙事——无论是「AI 会毁灭我们」还是「AI 只有好处」——都是有害的。现实更加复杂和微妙。

Alex Kantrowitz: Dario,我在镜头外说过,但也想在这里说:我非常感谢 Anthropic 愿意这样公开透明地交流。

Dario Amodei: 谢谢你的邀请。

Alex Kantrowitz: 谢谢各位收听收看。

如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。

Buy me a coffee