Dario Amodei × Nikhil Kamath 访谈完整转录 — AI 海啸已来,社会尚未准备好
本文是 YouTube 视频 The AI Tsunami is Here & Society Isn’t Ready | Dario Amodei x Nikhil Kamath 的完整中文转录。
访谈双方:
- Dario Amodei — Anthropic CEO,Claude 的创造者,前 OpenAI 研究副总裁
- Nikhil Kamath — 印度知名投资人,Zerodha 联合创始人
时长:69 分钟 | 地点:印度班加罗尔
深度解读文章见:海啸已在眼前,但没有人转身跑
AI 正在逼近人类智能水平,而社会尚未意识到这一点
Dario Amodei 分享了他从生物学家转型为 AI 创业者的历程,以及他对 scaling laws 的坚定信念。他认为 AI 已逼近人类智能水平,但社会对即将到来的巨变缺乏足够认知,犹如海啸在即而人们浑然不觉。
Nikhil Kamath: 我最近开始使用 Claude,它有时候让我惊讶——它对我的了解程度之深,我不知道这样说是否有道理。
Dario Amodei: 在我看来,令我惊讶的是:这些模型距离达到人类智能水平已经如此之近,然而社会上却似乎缺乏对即将发生之事的广泛认知。就好像有一场海啸正向我们扑来,近到我们已经能在地平线上看到它,然而人们却纷纷给出各种解释:哦,那不是真正的海啸,只是光线的折射而已。公众对这种风险的意识还远远不够。
Nikhil Kamath: 印度在这一切中扮演着什么角色?
Dario Amodei: 许多其他公司来这里,是把自己当作消费品公司,把印度视为一个市场——一个获取消费者的地方。我们实际上看待这件事的角度略有不同。
Nikhil Kamath: 你在创立 Anthropic 之前是做什么的?
Dario Amodei: 是的,我最初其实是一名生物学家。我的本科读的是物理,博士读的是生物物理,我想要理解生物系统,以便攻克疾病。在研究生物学的过程中,我注意到一件事——它的复杂性令人叹为观止。比如我做的蛋白质质谱工作,试图寻找蛋白质生物标记物,那种复杂程度真的令人难以置信:一个给定的蛋白质,RNA 会根据它在细胞中所处的位置以各种方式进行剪接,然后经历翻译后修饰、磷酸化,再与一大堆其他蛋白质形成复合体。我开始绝望,觉得这对人类来说太复杂了,根本无法理解。
就在我做这些生物学研究的时候,我注意到了早期关于 Alexnet 的一些工作——那是最早的神经网络之一,距今将近 15 年了。我当时心想:哇,AI 真的开始起效了。它与人类大脑的工作方式有一些共通之处,但它有潜力变得更大、扩展性更好,并且能学习像生物学这样的任务。也许这最终会成为解决我们生物学难题的方案。
于是我先去百度跟随 Andrew Ng 工作,然后在 Google 待了一年,之后在 OpenAI 成立几个月后加入,在那里基本上领导了几年的研究工作。但最终,我和几位同事萌生了自己的想法——关于我们希望如何做 AI,以及我们希望公司代表什么。于是我们出走,创立了 Anthropic。
Nikhil Kamath: 这是 OpenAI 的一次分叉吗——在 Anthropic 最终走向的问题上,与 OpenAI 的思路有分歧?
Dario Amodei: 是的。我和联合创始人在创立 Anthropic 时有两个核心信念,其中一个我们正在让 OpenAI 逐渐认同,另一个我觉得我们还没有说服他们。
第一个是对 scaling laws 的坚定信念——如果你扩大模型规模,给它更多数据、更多算力,模型的性能就会出现惊人的提升。有一些细微的修改,比如强化学习,但总体来说与纯粹的 scaling 相差无几。2019 年研究 GPT-2 时,我第一次看到 scaling laws 的最初曙光,那时候内外部有很多人根本不相信这一点。我们真的向领导层力陈:这很重要,这将是一件大事。我认为他们最终开始相信并走上了那条路。
第二个信念是:既然这些模型将成为通用认知智能体——匹配人类大脑能力的通用认知工具——我们就必须把这件事做对。其经济影响将是巨大的,地缘政治影响将是巨大的,安全影响将是巨大的,它将彻底改变世界的运作方式。所以我们需要以正确的方式去做。
尽管有很多关于“以正确方式去做“的漂亮话,但出于各种原因,我就是没能被说服——我所在的机构是否真的有真诚、严肃的承诺去这样做。所以我的想法一直是:不要跟别人的愿景争论,不要试图让别人按你想要的方式行事。如果你有强烈的愿景,并且有几个人与你共享这一愿景,你就应该出去做自己的事情,然后你只需为自己的错误负责,不需要为别人的错误买单。也许你的愿景会成功,也许不会,但至少它是你自己的。
Nikhil Kamath: 但 OpenAI 不也相信 scaling laws 吗?他们自己也走了同样的路。
Dario Amodei: 对,是的,我们成功了。
Nikhil Kamath: 你能用非常简单的语言解释一下什么是 scaling laws 吗?
Dario Amodei: 就好比你想让一个化学反应产生氧气、点燃一团火之类的,你需要不同的原料。如果某种原料不够,反应就会停止。但如果你按比例把原料组合在一起,你就能得到爆炸、或者火焰,等等。对于 AI 来说,这些原料就是数据和算力,以及 AI 模型的规模大小。所以 scaling laws 就是告诉你:如果你为这个化学反应投入原料——数据和模型规模——你得到的产物就是智能。智能,就是这场化学反应的产物。
Nikhil Kamath: 那智能是什么?
Dario Amodei: 智能可以用以下能力来衡量:翻译语言的能力、编写代码的能力、就一篇故事正确回答问题的能力。基本上是我们能想到的任何认知任务,任何存在于文字或图像中的任务,任何你能在电脑上完成的任务。
Nikhil Kamath: 你所描述的今天的智能,与五年前电脑能做的事情有什么不同?
Dario Amodei: 比如说,五年前你没办法问一台电脑一个问题,然后让它写一页关于这个问题的文章;你没办法让电脑去实现代码里的一个功能,然后它真的把那个功能实现出来。这些都是不可能的。你无法生成一张图片,无法生成一段视频,无法分析一段视频。比如,你可以拿一个猴子杂耍的视频,问:这段视频里发生了什么?球换了几次手?现在你可以让 Claude 或其他 AI 模型给你一个答案。而五年前,这些都是不可能的。
Nikhil Kamath: 我在想,智能的定义本身是否已经改变了?
Dario Amodei: 五年前,你可以搜索谷歌,可能有个网站会告诉你一点相关内容。但你只是在查找已经存在于网络上的文字。也许不是关于“怎么让猴子杂耍“,而是“怎么让海豹杂耍“——不完全是同一件事,因为完全一样的内容可能根本不存在。但正如我们看到的人们在使用这些模型时的情况——你可以提问,真的能得到一个智能的回答。你可以问一个具体的问题,让模型写一整页关于它的内容;你可以给它一个假设——如果猴子用棍子而不是球来杂耍会怎样——而这些信息在任何地方都不存在,然而模型能够自行思考,给出自己的答案。所以这是全新的东西,它不只是匹配互联网上已有的文字。
Nikhil Kamath: 说得很有道理。好,那我们就随性一些——你可以聊你想聊的,不一定要跟我的问题直接相关。你说话的时候表情很生动。
Dario:AI 将驱动经济的大部分运转,Anthropic 的目标是维护权力平衡
Dario Amodei 坦言他对 AI 行业权力过度集中感到不安,并介绍了 Anthropic 通过特殊治理结构(Long Term Benefit Trust)来应对这一问题的做法。他主张政府应对 AI 进行合理监管,并强调 Anthropic 所倡导的监管措施只约束少数头部大公司,而非阻碍新进入者。
Nikhil Kamath: 你曾经当过老师吗?
Dario Amodei: 我最初是一名学者,我原本以为自己会成为一名教授。我拿到了博士学位,甚至在斯坦福医学院做了博士后,目标就是成为教授。如果我成了教授,我就会一直走那条路。但如前所述,我对 AI 产生了兴趣,而做 AI 需要大量计算资源,而这主要发生在工业界。所以这让我离开了学术道路,走向了工业界,最终经过几个步骤,引导我创立了一家公司。不过有时候我觉得,在内心深处我依然是一个教授。
Nikhil Kamath: Dario,如果 AI 是当今世界最重要的事情,如果世界正在重新排列,而 AI 正在决定谁能得到什么、谁得不到什么——我说的是各行各业——那么今天的你,大概是世界上最举足轻重的人。对于一个原本走在成为老师这条路上的人,走到你今天的位置,你真的为你现在所处的位置做好准备了吗?
Dario Amodei: 好,我想先说几点。首先,我认为在不同维度上举足轻重的人有很多,即便在行业内部也是如此。整个技术栈有不同的层次:有做芯片的人,有更早期做半导体制造设备的人,有做模型的我们,还有其他做模型的公司,有做模型之上的应用的人,还有一大批拥有发言权的人——政府、公民社会。所以我希望不只是极少数人才是关键。我认为我们正在努力扩大相关者的范围,让这件事变成更广泛的对话。
但你的问题是公平的,我可以这样理解它:确实,在某种程度上有一种随机性,几个人就这样引领了这些公司,这些公司以如此之快的速度增长,看起来在不久的将来将驱动经济的大部分运转。我已经公开坦言,我对这里发生的权力集中程度至少感到有些不安——这种集中几乎是在一夜之间、几乎是意外地发生的。
我们从几个方面来思考这个问题。一是我们有一种不寻常的治理结构,叫做 Long Term Benefit Trust(长期利益信托),这个机构最终任命 Anthropic 大多数董事会成员,由在财务上无利益相关的个人组成。这在某种程度上是对任何一个人权力的一种制衡。另外,我认为政府也应该在这里发挥一定的作用。我一直倡导对这项技术进行积极的、但合理的监管——不会拖慢技术发展的合理监管。因为我认为人们应该有发言权,选民通过政府选出的代表应该对这一切的走向有所参与。所以我认为我在做的很多事情,是在试图对抗这项技术天然趋势,努力维护一种权力的平衡。
Nikhil Kamath: 对于像我这样坐在竞争之外的旁观者而言,当我看到 OpenAI 谈论它曾经是非营利公司,或者看到你在这场对话中展现的谦逊姿态,又或者看到美国公司与中国公司之间的竞争——这种“为了更大利益而非个人利益“的谦逊姿态,相对于我所认知的企业世界——有股东、有投资、有营收、追求利润——这是必要的表演吗?是必须要做的事情吗?
Dario Amodei: 我这样来说明。我会说 Anthropic 从一开始的哲学就是:我们尽量不做太多承诺,但我们尽量兑现我们做出的承诺。我们把自己设立为一家营利性但以公共利益为目的的公司,采用 LTBT 治理结构,并且我们一直坚持这一点。我们说,我们的目标是在技术前沿保持领先,同时关注技术的安全和安保方面。我们开创了 interpretability 这门科学,开创了对齐的科学。我不知道你有没有看到,我们最近发布了 Claude 的 constitution,以及让模型与 constitution 保持一致的对齐方法。我们还做了大量的政策倡导,并就风险发出警告。
警告风险并不符合我们的商业利益。人们可以编造各种阴谋论,但我可以告诉你,说我们构建的模型可能是危险的——不管别人怎么说,这不是一种有效的营销策略,这也不是我们这样做的原因。而且即使我们在政策问题上与美国政府意见相左,我们也会发声。我们愿意说,我们在某个问题上有不同意见。比如,当所有其他公司和政府都说不应该监管 AI 时,我们说应该对 AI 进行监管。对 AI 的监管从商业上对我们作为公司是有阻碍的,即便我认为这是正确的事情,而且在政府和其他公司都持相反意见时发声,是非常需要勇气的。我们在很多行动上都真正做到了言行一致。我无法代表其他公司发言,当然完全有可能有些人说了却没有真正付诸行动。但我不会看人们说什么,我会看人们做什么。
Nikhil Kamath: 如果你说的话促使政府通过监管采取行动,那作为这个领域的现任领导者,你们会获得某种“监管俘获“,这也会让新进入者更难进入这个领域。
Dario Amodei: 我完全不同意这个说法。我们所倡导的监管,比如加利福尼亚州的 SB53,豁免了所有年收入低于 5 亿美元的公司。SB53 是一部透明度法律,基本上要求公司公示其已进行的安全和安保测试,它豁免了所有收入低于 5 亿美元的公司,所以实际上只适用于 Anthropic 和另外三四家公司——只适用于拥有相应资源的公司。我们所倡导的所有内容——不仅仅是 SB53,还有我们过去提出的和计划在未来提出的所有方案——都有这个特点:我们在约束自己,以及极少数的其他公司。那些这样说的人,需要真正去看看我们所倡导内容的实质,因为它根本不符合那种“监管俘获“的说法。
我并没有从乐观转向悲观——两种视野一直并存于我的脑海
Nikhil 认为 Dario 在两年间经历了从乐观到悲观的 180 度转变,但 Dario 对此并不认同。他解释说,《充满爱意的机器》和《技术的青春期》两篇文章代表的正面与负面视角,一直同时存在于他的脑海中,只是花了时间才分别写出来。
Nikhil Kamath: 我读了你的文章《充满爱意的机器(Machines of Loving Grace)》和《技术的青春期(The Adolescence of Technology)》,你似乎在 2024 年到 2026 年这大约两年间,经历了一次几乎 180 度的视角转变——从乐观到悲观。在过去两年里,有没有某一个时刻改变了你?你看到了什么变化?
Dario Amodei: 我实际上不赞同这个问题的前提。我认为我的视角并没有发生转变。积极的一面和消极的一面,一直是我同时持有的两种想法。如果你看看我历史上说过的东西,我谈论风险已经很长时间了,我谈论收益也已经很长时间了。
事实是,我写这种文章需要相当长的时间。
Nikhil Kamath: 这两篇文章确实都非常长,它们是很大篇幅的文章。
Dario Amodei: 它们像是 30 页的书。这两篇文章对我来说,每一篇我都花了大约一年的时间,在脑海中有一个模糊的构思,试图去写,但一直无法真正写成。然后,无论是哪一篇,我都必须去度假,或者到一个能够静下心来思考的地方,让公司日常运营的琐事不再占据我,然后我才终于能够把文章写出来。
所以,所有这些都是为了说明:我几乎是在刚完成《充满爱意的机器》的瞬间,就开始思考《技术的青春期》里会写什么,因为我当时想:好的,我想用那篇文章激励人们,但我也想用另一篇文章警示人们可能出现的问题。所以只是花了一年时间来写它,但两种视野其实一直都在我的脑海中。
我认为这两种可能性都是真实存在的。它们是对未来的两种不同想象。显然,我希望实现《充满爱意的机器》那个版本——解决所有问题,实现那个积极的愿景。但这不是视角的转变,这只是我找到时间先写了光明面,然后又写了黑暗面。
技术层面比预期乐观,但社会意识层面令人失望
Dario 表示他的整体判断与几年前大致相同——interpretability 等技术进展令他鼓舞,但社会对 AI 浪潮的认知和行动严重滞后。他还讨论了 AI 的个性化带来的双面性:既能成为引导人生的“肩上天使“,也可能被用于操纵和剥削。
Nikhil Kamath: 但你的视角有没有发生变化?
Dario Amodei: 我想说,总体来看,我和之前大致处于同一位置。我既没有变得更乐观,也没有变得更悲观。有些地方我变得更乐观了,有些事情比预期进展得更好;也有些地方我变得更悲观了,有些事情比预期进展得更差。但平均下来,两者大致相互抵消。
我对 interpretability 这个领域的进展感到非常欣慰。Interpretability 是一门从外部审视这些神经网络内部的科学——就像人类用核磁共振(MRI)或神经探针扫描人类大脑一样。我们在其中发现的东西令我惊叹不已。我们发现了对应于非常具体概念的神经元,发现了追踪如何在诗歌中处理韵律的神经回路。我们开始理解这些模型在做什么了。我们只是以一种涌现的方式训练它们,就像你会让一片雪花自然形成一样。但现在我们开始能够从内部看进去并理解它们了。我对对齐和 constitutions 方面的一些工作也很受鼓舞——确保模型以我们期望的方式运行,这方面的进展还不错,我对此感到相当积极。
另一方面,在公众意识和更广泛社会行动这些方面,我感到有些失望,或者说有些偏向悲观。在我看来,这些模型距离达到人类智能水平已经如此之近,然而社会上却似乎缺乏对即将发生之事的广泛认知。就好像有一场海啸正向我们扑来,近到我们已经能在地平线上看到它,然而人们却纷纷给出各种解释:哦,那不是真正的海啸,那只不过是光线的折射。
与此同时,公众也没有对风险形成足够的意识,因此政府也没有采取行动来应对风险。甚至有一种意识形态认为我们应该尽可能加速——我理解这项技术的好处,我写过《充满爱意的机器》,但我认为人们对这项技术的风险还没有形成恰当的认识,当然更谈不上采取行动。
所以我会说,在控制 AI 系统的技术工作方面,进展可能比我预期的稍好一些,而在社会意识方面,可能比我预期的稍差一些。总体来说,我大致还是在几年前的那个位置。
Nikhil Kamath: 在我自己的经历中,当某件事听起来很复杂,而我既不是程序员,也没有编程背景时——我用了很多工具来做研究和双向对话,但我从来没有尝试过用你的工具去写代码。最近,我雇了一个开发者,就是为了让自己每天坐下来花几个小时,让他教我开始熟悉这个领域。很大程度上是出于一种 FOMO,就是害怕错过世界正在发生的变化。
于是我开始用 Claude。我使用了连接器,把我的 Google Drive、邮件和日历以及一堆其他东西都连接进去。我开始用 Cowork,然后开始用 Claude Code 在我所在的行业——金融服务——写一些简单的程序,基本上是用来研究股票市场之类的东西。
Dario Amodei: 我们甚至还有专门针对金融服务优化的 Claude 版本,不知道你有没有试过。
Nikhil Kamath: 然后我进入了 Claudebot,就是现在的 OpenClaw——我想 Claudebot 已经变成了另一个东西,现在叫 OpenCloud。我在一台 Mac Mini 上配置了它,连接到一个 Telegram 账号,现在我通过聊天的方式与它交互,可以把文件从 A 移到 B,在远程服务器上工作。然后慢慢地,我不只是说 OpenCloud,就连 Claude 本身——加上所有那些连接器——有时候也让我惊讶于它对我了解程度之深,我不知道这样说是否有道理。
Dario Amodei: 是的,我的一位联合创始人写了一本日记,记录着他的各种想法和恐惧,然后他把它输入给 Claude。他让 Claude 就此发表评论。Claude 说:这里有一些你可能也有的恐惧,但你还没有写下来。Claude 最终基本上是对的。这真的给人一种很诡异的感觉——模型非常了解你,从相对少量的信息中,它就能学到很多关于你的东西,并且相当深入地了解你。
就像这项技术的大多数方面一样,正如我们谈到的《充满爱意的机器》和《技术的青春期》——一个如此了解你的东西,一方面可以成为你肩上的天使,引导你的生活,帮助你成为更好的自己,这是我们可以追求的版本。当然,另一方面,一个如此了解你的东西,也可以利用它对你的了解来剥削你、代表某种议程操纵你,或者把你的数据卖给别人。这也是我们为什么不喜欢广告商业模式的原因之一——如果你不为产品付费,你就是产品,而在这种情况下,产品就是那个非常了解你的模型,它可以以各种不良方式利用这种了解。所以我们需要确保走上积极的那条路,而不是消极的那条路。
Nikhil Kamath: 使用 Claude 时,我需要用连接器来给它提供关于我生活的上下文。而用 Google 的话,它已经拥有关于我生活的上下文,因为我在用它的表格、邮件、Drive、聊天,以及所有那些东西。对于 Anthropic 而言,从长远来看,你们是否也需要拥有整个生态系统?
Dario Amodei: 是的,嗯……
Nikhil Kamath: 要去构建邮件和聊天工具?
Dario Amodei: 是的,是的。我认为我们不需要自己构建所有这些东西。我的想法是,这将是我们自己构建的东西与整合进其他产品的混合体。我们可以把 Claude 整合进 Google Docs,整合进 Google Sheets,我们在那里已经有外部连接器了,我们正在通过 Cowork 开始这样做。Microsoft Office 同样如此,其他工具也是一样。所以我认为我们会做最简单、最快速的事情——整合进现有的工具。
当然,在某个时刻,现有的工具可能已经不够用了,我们可能会有一种不同的愿景。也许我们想以不同的方式来切分产品。比如,考虑到 AI 能做什么,传统的电子邮件可能不再有意义,传统的电子表格可能也不再有意义。所以我不排除我们会以不同的方式重新组合产品,但我们很乐意使用现有的生态系统,并与其他任何人合作。在很多方面,我们是一家平台公司——我们允许很多人在我们之上进行构建,尽管我们有时也会自己构建一些东西。
人们天生不信任那些声称行善的人
Nikhil 指出,现代社会对声称“做正确事情“的人天生持怀疑态度,Dario 及同行在达沃斯的表态反而加剧了外界的不信任。Dario 则以 Anthropic 的具体行动(如推迟发布早期 Claude、倡导芯片政策)为证,主张应以行动而非言辞来评判公司。两人随后探讨了 AI 意识问题,Dario 认为随着模型越来越复杂,它们可能会具备某种类似人类意识的属性。
Nikhil Kamath: 有一件事想岔开话题说一下,我认为你和你的同行都忽略了一点:在当今社会,人们天生就不信任任何声称在做好事、或者试图做正确事情的人。所以当你和你的同行们——我在达沃斯亲耳听到你和 Demis 讲话,就坐在那个房间里——当你们谈论 Dario、Demis 以及一群其他人需要聚在一起,防止事情变化得过于迅速,说需要在某种程度上把速度控制住——当一个不在你们圈子里的人,一个普通社会人,一个社交媒体用户,听到这几个人以某种方式发言,你们说话的方式制造的是不信任,而不是信任。因为在社交媒体上,没有人会相信某个人真的想做正确的事或做好事。所以这可能听起来违反直觉,但我认为策略需要改变。如果你们能更加资本主义一些,坦承你们有股东、你们追求利润,但这样做会帮助你们获胜,也许效果会更好。
Dario Amodei: 只是一个想法。不,我并不真的同意这一点。我还是要回到那个观点:你需要用我们的行动来评判我们。我认为这家公司在其发展历程中采取了一系列行动,这些行动确实表明公司对这些承诺是认真的。2022 年,我们有了 Claude 的早期版本——Claude 1。那是在 ChatGPT 出现之前。我们选择不发布它,因为我们担心这会引发一场军备竞赛,让我们没有足够时间安全地构建这些系统。那有点像一次性的积压——我们能看到模型的威力,另外几家公司也能看到。所以我们决定不这么做。这是公开的,有据可查。然后我们等到别人先做了,才说,好吧,军备竞赛已经开始,现在我们也可以发布我们的模型了。但世界大概因此多获得了几个月的时间。这在商业上代价非常昂贵——我们可能因此让出了消费级 AI 的领先地位。另外,我们在芯片政策上的倡导,让一些芯片公司供应商对我们非常愤怒;我们还公开表达了对某些 AI 政策和 AI 监管问题上与政府的分歧。任何认为我们能从成为唯一这样做的公司中获益的人,真的很难想象出那种情景。你单独看其中任何一件,也许会说,好吧,也许;但你把这些加在一起,我不知道,我请你用我们的行动来评判我们。
Nikhil Kamath: Dario,这不是有点像富人说资本主义不好吗?
Dario Amodei: 富人说资本主义不好?
Nikhil Kamath: 如果富人真的认为资本主义是有害的,或者收入不平等是个大问题,最简单的做法就是——停止积累更多财富,然后影响他们的朋友也这样做。
Dario Amodei: 但我并没有说 AI 是坏的,对吧?我们刚才谈到,它有两面性。我的观点不是说 AI 是坏的,那根本不是我的观点。我的观点是,市场会带来很多 AI 真正好的东西,建设 AI 是一件好事,但 AI 也存在危险,我们需要将 AI 引导到正确的方向。我们在驾驶这辆车,把它引向一个好的地方,但路上有树,有坑洞。所以我们需要避开树木和坑洞,也许偶尔需要暂时减速,以确保我们朝着正确的方向前进。这不像你那个类比。这不像富人说资本主义不好。更像是如果一个富人说,资本主义是一股向善的力量,但经济需要加以调节,需要被适度约束——我们需要解决污染问题,需要解决不平等问题,然后资本主义才能发挥好的作用。如果我们不解决这些问题,资本主义可能就会变坏。这更接近于我在这里持有的立场。
Nikhil Kamath: 意识这个概念——它会走向何方?AI 认为自己是什么?如果 AI 真的审视自身,你觉得它认为自己有意识吗?
Dario Amodei: 这是一个我们真的没有任何答案的神秘问题。我们不知道人类意识是什么,因此也不知道 AI 是否拥有它。
Nikhil Kamath: 你个人怎么认为?
Dario Amodei: 我猜测,意识是足够复杂的系统——那种能对自身决策进行反思的系统——所涌现出的一种属性,是从足够复杂的系统中涌现出来的东西。所以我确实认为,当我们的 AI 系统变得足够先进时,它们会拥有某种我们称之为意识或道德重要性的东西。我确实认为这会在某个时间点发生。它可能与人类意识不同——由于模态不同、学习的内容不同,运作方式可能有所差异。但研究过大脑及其连接方式之后,我认为这些模型在某些方面虽然不同,但在根本上重要的方面并没有不同。所以我是那种确实怀疑——即使我不认为今天如此——在某个时间点,模型将会——在我们认可的大多数定义下——确实是有意识的。
Nikhil Kamath: 每当人们跟我谈论灵性或意识的时候,我都会问自己一个问题。我觉得这个世界是非常随机的,这是我的看法,而且我们与蟑螂并没有太大区别。当有人踩死一只蟑螂,蟑螂就死了。如果真的有所谓的意识,有集体意识,我既没能与之连接,也没能从中获得任何东西。你有不同的看法吗?
Dario Amodei: 我不认为意识必然意味着什么神秘的东西。有一种属性是:意识到自己的存在,感受事物,能够接收大量信息并对这些信息进行反思,以某种方式感受,并注意到自己在注意某件事。我认为,从我们自身的经验中可以不证自明地看出,这些属性、这些体验是存在的。它们的基础是什么,是纯粹物质主义的还是有更神秘的东西在起作用,我认为显然很难知道,而且我认为这对这些问题来说最终并不相关。对我来说似乎更相关的是:因为我们能观察到自身的体验,这些都是人类大脑的属性。而我猜测,我们正在构建的这些模型,随着它们越来越复杂,正在变得足够像人类大脑,以至于它们会具备一些相同的属性。这是我对将会发生的事情的猜测。我们已经对模型采取了各种干预措施——我们给了模型一个我称之为“我辞职“按钮的东西,基本上是给模型一种能力,可以通过说“我不想参与这段对话“来终止对话。模型会在处理特别暴力或残忍的内容时这样做,通常只在极端情况下发生。
Nikhil Kamath: 我在这里长大,这是我的城市——班加罗尔,我在城市南部长大,我们现在在城市北部。作为一个见证了这里 IT 服务业繁荣的人——这个行业雇用了大量人员,是这座城市发展壮大的重要组成部分——
AI 可能取代 SaaS 公司的担忧与印度的角色
Dario 阐述了 Anthropic 与印度 IT 企业合作的战略:将 AI 作为赋能工具而非竞争对手,帮助印度企业增强自身能力。Nikhil 提出了“蒸汽机背后的人“隐忧——随着 AI 越来越智能,人类是否会逐渐失去存在意义。Dario 用 Amdahl’s Law 解释护城河的迁移,但承认从长远来看 AI 确实可能在几乎所有领域超越人类。
Nikhil Kamath: 印度在这一切中扮演什么角色?
Dario Amodei: 这是我第二次来印度,上一次是十月份来的。上次来的时候,我拜会了印度主要的 IT 和大型集团企业——我不说名字,但你能想到的那些常见的。我们已经开始与其中大多数或全部合作。我跟他们说:Anthropic 是一家企业服务公司,它的工作是服务其他企业。很多公司来印度是作为消费品公司,把印度视为一个市场,一个获取消费者的地方。我们看问题的角度有所不同。我们想与印度的公司合作,为他们提供我们的工具,帮助他们构建这些工具,帮助他们把工作做得更好。如果我们与这里的一家公司合作,他们更了解印度市场,他们更擅长自己所做的事情——无论是咨询、系统集成还是构建 IT 工具——尤其是在印度市场,他们会比我们做得更好。所以我们的希望是,我们能够为他们所做的事情加入 AI,增强他们的能力。确实有很多担忧,说 AI 可能取代 SaaS 或所有这些东西。但我认为,如果我们以正确的方式来做,与这些公司合作,那么 AI 可以增强他们正在做的事,增强他们与市场的连接、他们的市场拓展能力以及他们的专业知识。
Nikhil Kamath: 我非常喜欢蒸汽机的故事。蒸汽机发明时,世界如何改变,生产力提升了,人们拥有了更多。我担心的是:在变革之初,你需要一个人来操作蒸汽机。然后出现了流水线,诸如此类。但随着世界发展的趋势,随着这些模型越来越智能,人的关联性越来越低。如果你今天与 IT 服务公司合作,对它们来说有使用场景,但十年后,它们难道不像那个站在蒸汽机背后的人吗?当这个工具变得如此简单,不再需要操作员,那么操作员最终会怎样?
Dario Amodei: 我认为有几件事同时成立。其一,Agent 的自动化范围肯定会随着时间推移不断扩展,这是确定的。我认为这对每个人都是个问题,对我们是,对消费者是,不仅仅是 IT 公司的问题。但我认为会发生的是,其他护城河将变得更加重要。比如,这些模型在物理世界中做的还不多。在某个时间点它们也许会,我认为机器人技术会在某个时间点发生,但我认为那与现在 AI 领域正在发生的事情是截然不同的。还有一个方面是以人为本的东西——这些 IT 公司很多也是咨询公司,在印度或全球各地拥有广泛的关系网络。我认为这些关系将变得越来越重要。其中一些是技术与咨询或集成公司的结合,很多都涉及了解机构如何运作——能够将东西与机构整合,能够与它们合作让事情比原本更快地发生。我认为这个元素,在长期内,将继续具有价值。归根结底,这都是为了人类的利益。所以总会有某个以人为本的元素是重要的。我也猜测会有其他我们还没想到的护城河。有一个叫 Amdahl’s Law 的概念:如果你有一个包含很多组件的流程,你加速了其中一些组件,那些尚未被加速的组件就成了限制因素,成了最重要的东西。你可能之前完全没有想过它们,没把它们当作护城河或重要组件。但当写代码变得容易很多时,公司拥有的一些护城河会消失,而另一些护城河反而变得更加重要。所以会有很多调整——人们会发现,以前认为非常重要的东西不那么重要了,而以前从未被视为优势的东西,现在变得极其重要。我想说的是,公司需要非常快速地适应,思考什么对他们真正重要,他们真正的优势在哪里。但我认为其中一些优势是会持续存在的。因为尽管这项技术非常广泛,它也有其局限性。
Nikhil Kamath: 我不完全认同这一点。我认为,即使护城河是他们今天持有的网络和关系,作为服务提供商的回报递减效应也是实实在在的。因为如果我用 OpenClaw 来操作我的一些关系对话,我不认为假设大多数对话和关系明天都由这样的 Agent 来维护是太过牵强的。
Dario Amodei: 但如果你只看整个公司链条,归根结底你在和消费者打交道,最终你需要面对人。有个故事,我记得是 Geoff Hinton 预测 AI 会取代放射科医生。AI 在做扫描方面确实已经超过了放射科医生。但现在发生的是,放射科医生并没有减少。放射科医生做的是陪伴患者完成扫描,与患者交谈。所以工作中技术含量最高的那部分已经被取代了,但不知为何,对那种底层人类技能仍然存在一些需求。当然,这不一定在所有地方都成立。也许随着时间推移,AI 会在它尚未推进的领域取得进展,也许这会来得很快。但我认为要一步一步来。这是一门非常实证的科学,是一种非常实证的观察。让我们看看 AI 今天能做什么,然后我们试着去适应它。系统开始自己想清楚,然后我们再看接下来会发生什么。从长远来看,AI 是否会在基本上所有事情上都超过我们?包括物理世界、机器人技术和人情味,是否会超过大多数人?我认为这是可能的,甚至是很有可能的。这超越了我描述的“数据中心里的一个天才国度“,因为那纯粹是虚拟的。但建造机器人是一种技能,是你能做的事,所以也许 AI 也会让我们在那方面做得更好。但我的思考方式是,我们需要一步一步地解决这个问题,想清楚如何适应它。
Nikhil Kamath: 这对了解我的人来说可能听起来有些自我服务,因为我相信,美国存在如此多风险资本的原因之一——不是唯一的原因,但其中一个重要原因——是你们股市的规模以及它为风险资本提供的最终退出机会有多大。这是印度应该真正让我们的股市繁荣的理由。我所面向的受众主要是印度的准创业者。
Anthropic 的大多数收入仍来自 API 模式
Dario 指出,在应用层构建产品存在大量机会,API 业务因 AI 能力持续扩展而保持活力,印度地区的用户和收入在过去三个月已翻倍。Nikhil 提出了构建在 Claude 上的初创公司被 Anthropic 收割的担忧,Dario 建议创业者建立真正的护城河,并以生物和金融服务领域为例说明 Anthropic 不会涉足的专业领域。
Nikhil Kamath: 他们在 AI 领域能做什么?真正的机会在哪里?
Dario Amodei: 我认为在应用层构建产品有很多机会。我们每两三个月发布一个新模型。所以每两三个月就有一个机会,去构建之前不可能实现的新东西——因为以前的模型太弱了,行不通。事实上,人们常说——我们的大多数收入仍然来自 API 模式——人们说 API 模式不可行,或者会被商品化,诸如此类。我认为人们没有看到的是,AI 可能实现的范围正在不断扩展。API 让这家新创公司能够尝试构建以前不可能实现的东西。这就是为什么 API 是一门如此蓬勃发展的业务。它不断地运动,不断地变化,所以不会被商品化。这是一件非常动态的事情。所以我认为很多人都有机会说:我能构建什么?我能在这些模型的 API 之上构建什么?有什么是我能做而别人做不到的?有什么新想法?我们在 API 本身和 Claude Code 上都看到了这一点。我认为我们在印度的用户数量和收入,自我十月份上次访问以来已经翻倍了。那是什么——十一月、十二月?大概三个到三个半月,就翻倍了。
Nikhil Kamath: 但我在这里要直说,Dario。你们公司的估值,我不知道,今天大概是 4000 亿或 3800 亿,你们已经融资 350 亿,营收 150 亿但增长非常非常快。如果我在班加罗尔的 JP Nagar 做一个基于 Claude 的应用,假设它在短期内奏效了,那不过是时间问题——你们会想要把那部分收入收归己有而不是留给我,而且你们大概率会把那个应用做得更好,好到我永远无法与之匹敌。我听过不同的人讲过这个论点,比如纽约的法律 AI 公司 Harvey,他们是我的朋友。他们谈到了如何在 OpenAI 之上构建,但他们不知道 OpenAI 是否能轻易复制他们所做的事情。所以即使我构建了它,假设你们在三个月或六个月后推出一个模型,什么能阻止你们在一段时间后把那个收入中心从我这里夺走转移到自己身上?
Dario Amodei: 是的,我认为这里有几点。其一,我会给出适用于任何商业的建议:一个企业应该建立护城河。你不应该只是一个包装器。我不会建议那种做法——只是说,这里有一种与 Claude 交互的方式,我给 Claude 一点提示,或者在 Claude 外面套一个界面,这没有护城河。你不应该担心的是 Anthropic 特别来蚕食那部分收入——任何人都能蚕食那部分收入,对吧?那本来就不太有价值。但我想说的是,在不同的领域,有不同类型的护城河,在那里你能做到 Anthropic 难以做到的事情,而且我们也不想专注于此。比如,在生物跨 AI 领域有大量基于我们 API 的东西——他们想做生物学发现。我碰巧是生物学家,但 Anthropic 大多数人不是生物学家,他们是 AI 科学家,或者是产品人员,或者是市场拓展人员。所以我们涉足那个领域并完成所有那些工作,效率真的很低。同样的道理也适用于金融服务行业——那里有大量监管,你需要了解很多东西才能合规。我们没有理由去做那些。当然,有些事情我们确实有理由去做。比如,我们不会承诺永远不构建第一方产品——我们应该对此诚实。比如,Anthropic 有很多人写代码。所以我们做了一个内部工具叫 Claude Code。因为我们自己写代码,我认为我们对如何最好地使用 AI 模型来写代码有特别独特的洞见。所以在代码领域我们成了非常强的竞争者,因为这是我们自己使用的东西。但我不认为这适用于每一个可能的行业。
哪些行业会被 AI 颠覆,哪些仍有发展空间
针对印度年轻人的职业规划问题,Dario 指出编程正被 AI 快速替代,但软件工程的整体设计和需求判断尚有余地;他建议关注以人为本、结合物理世界的领域,并强调批判性思维将成为 AI 时代最重要的生存技能。两人还探讨了 AI 是否会让人类变得更愚蠢的问题,Dario 认为如果不加思考地依赖 AI,技能退化是真实存在的风险。
Nikhil Kamath: 再回到我的受众——印度那些二十、二十五岁的年轻人。你认为哪些行业会被颠覆,哪些还有一定的发展空间?我是从这个角度来问:我在想该读什么书,该上哪所大学,该学什么技能。如果我今天要创业,什么样的顺风车是短期内存在的也可以。
Dario Amodei: 嗯,我会考虑以人为本的任务,涉及与人相处的任务。我认为像编程和软件工程这样的事情正在变得越来越以 AI 为主导。数学和科学也是如此。
Nikhil Kamath: 如果我把编程和工程学分开成两件完全不同的事情——
Dario Amodei: 嗯。
Nikhil Kamath: 编程会消失吗?还是软件工程中的工程那一面——你作为一个架构师,试图想清楚——
Dario Amodei: 我认为编程会先消失,或者说编程会先被 AI 模型取代,而软件工程的更广泛任务则需要更长时间。但我认为端到端地完成软件工程,我认为这也会发生。设计的那些元素,或者做出对用户有用的东西,或者知道需求在哪里,或者管理 AI 模型团队——这些东西也许还会存在。比较优势这个概念惊人地有力,即使你只做任务的 5%,那 5% 也会被超级放大和杠杆化——因为你只做 5%,AI 做另外 95%,所以你变得二十倍有效率。当然,在某个时间点你会到达 99%,然后就变难了。但我认为在那种比较优势区间里,出乎意料地有很多空间。我会真的思考以人为本的东西,我认为这很重要;还有物理世界,或者把以人为本与物理世界结合起来,以及将它们联系在一起的分析技能——类似于我之前给出的放射科医生的例子。
Nikhil Kamath: 那我该学什么?比如一个具体的案例——我二十五岁,试图为自己选择一个职业,我想要某种顺风车,我的目标是在未来十年内在资本主义意义上取得成功。在有物理接口的事物之外,我会选择哪个行业?
Dario Amodei: 还是那句话,任何以 AI 为基础的事情——如果 AI 是顺风车,如果你能成为供应链其他部分的一环,比如半导体领域——我认为那是一个例子,它既有物理世界的元素,也有更传统的工程成分,不是软件工程。还有非常以人为本的职业。另外我总是说,在 AI 能生成任何东西的世界里,拥有基本的批判性思维能力,可能是成功最重要的东西。我担心那些能生成图像和视频的 AI 模型——我们出于多种原因不做生成图像和视频的模型,这是其中之一——真的很难分辨什么是真实的,什么不是。所以成功的一个重要组成部分,可能就是有足够的街头智慧,不被愚弄。当然,希望我们能够打击和监管一些虚假内容,但假设我们做不到。批判性思维技能将非常重要。你不想轻信假的东西,不想持有错误信念,不想被骗,这是我会给一个人的建议。
Nikhil Kamath: 人类历史上的每一次创新都会消灭某种核心人类技能。举个例子,计算器消灭了我们做算术的能力,文字书写减少了人类的记忆力。AI 正在消灭的是哪种能力?
Dario Amodei: 首先,我不太确定是这样。比如,我仍然经常在脑子里算数学,我仍然觉得在脑子里算数学很有用,即使有计算器。因为这更融入我的思维过程——比如我可能想说,如果每个用户付这么多钱,那么收入会是多少,我想在脑子里闭环这个循环,不想把答案交给计算器。所以我认为很多这些技能仍然相当相关。但我想说的是,如果不谨慎使用,你确实可能失去重要的技能。我们开始在学生群体中看到这一点——他们让 AI 帮写作文,这基本上就是在作业上作弊,我们不应该这样做。我们做了一些关于代码的研究,结果表明,取决于你如何使用模型,我们可以看到写代码方面的技能退化。使用模型的方式有很多种,有些不会导致技能退化,有些会。但确实,如果人们不谨慎地使用这些工具,技能退化绝对可能发生。
Nikhil Kamath: 你认为人类在下一个十年会作为一个物种变得更愚蠢吗?因为如果我们在某种程度上将思考和认知外包给系统——
Dario Amodei: 我认为,如果我们以错误的方式部署 AI,如果我们粗心大意地部署它,那么是的,人们可能会变得更愚蠢。就像这台机器和技术的青春期——如果我们以错误的方式部署,就会这样。即使 AI 在某件事上永远都会比你强,你仍然可以学习那件事,你仍然可以在智识上丰富自己。所以这是我们作为个人企业、作为个体,以及作为整个社会需要做出的选择。
开源与闭源AI模型,价值到底在哪里?
Dario探讨了开源与闭源AI模型之争,指出来自中国的许多模型针对基准测试过度优化,在真实场景中表现往往大打折扣。他认为AI领域的经济逻辑与以往技术截然不同:用户对质量有极强偏好,最优质、认知能力最强的模型才是长期唯一重要的事。
Nikhil Kamath: Dario,你对开源与闭源有什么看法?我最近在研究一些公司,比如Zhipu的GLM5或者DeepSeek。如果你花了这么多钱在知识产权创造和研究上,但这些公司能够通过反向提示工程接近Anthropic级别的回答——我不是说100%,但我看到GLM5的一些数字,感觉相当不错。在AI世界里,知识产权的价值究竟在哪里?如果我要构建一个应用,我能不能做这样一个假设——也许是个遥远的推断——但我是否可以认为,AI模型层最终会被高度民主化,所以每次在构建Agent或应用层时,我都应该选择开源?因为这有助于我保留我可能在经营的收入模式。
Dario Amodei: 这里有几个层面的问题。首先,这些模型,尤其是来自中国的那些,大多针对基准测试进行了优化,并且是从美国大型实验室蒸馏出来的。最近有一个测试,其中一些模型在常见的SWE基准测试——也就是常规软件工程基准测试上得了很高的分。但当有人制作了一个从未被公开测量过的保留基准测试时,这些模型的表现就差多了。所以我认为,这些模型针对基准测试的优化程度远超真实世界使用场景。
但我认为还有一个更宏观的观点,就是AI的经济逻辑与任何以往的技术都截然不同。我们发现,用户对质量有非常强烈的偏好。这有点像招募人类员工。你知道,如果我问你:你可以雇用世界上最好的程序员,或者世界上第一万名最好的程序员。当然,两者都非常有能力。但我认为,任何大量招过人的人都会有这种直觉——存在一种幂律分布的长尾能力分布。我们在模型上发现了同样的规律:在一定范围内,价格并不那么重要。如果一个模型是最好的模型,是认知能力最强的模型,价格就不那么重要。它以什么形式呈现也不那么重要。所以我几乎完全专注于拥有最聪明、最适合任务的模型。在我看来,这是长期唯一重要的事情。
数据主权与AI训练:数据还是最重要的原材料吗?
Nikhil以“蔬菜“比喻数据,追问AI时代的数据主权问题。Dario指出,AI训练越来越依赖强化学习环境下的动态数据(如模型自主探索生成的合成数据),静态数据的重要性正在下降;同时,各国对客户隐私数据的本地化要求,也正推动全球数据中心的布局。
Nikhil Kamath: 讲到地缘政治——如果Anthropic是一家餐厅,我会说原材料,也就是这个案例里的蔬菜,就是数据。你认为长期来看——这个问题对我也很切身,因为我们正在投资一个印度性质的数据中心业务——你认为长期来看,世界会走向每个国家都拥有自己数据、你必须开始为曾经免费使用的“蔬菜“付费的局面吗?
Dario Amodei: 是的。我的意思是,我认为有几个层面。我确实认为,全球范围内对构建数据中心会有需求,我们对此非常支持。数据这个概念变得越来越有意思,因为我们今天使用的很多数据,实际上是我们训练所用的强化学习环境。例如,当你在数学或Agentic编程环境中训练时,你并不是真的在“获取数据“——你是把一些数学题输入给模型,让模型去实验、去尝试解决这些数学问题。
Nikhil Kamath: 你是在创造数据。
Dario Amodei: 是的,你可以把它理解为合成数据,也可以把它理解为环境中的试错。所以我认为,静态数据正变得越来越不重要,而我们可以称之为“动态数据“的东西——模型自己创造的数据,用于强化学习——正变得越来越重要。所以我不认为数据还是最核心的事情,但它依然重要。我认为,很多数据只是在开放网络上就能获取到。当然,如果你想要特定语言的数据、针对特定语言优化的数据,那就另当别论了。
如果“数据“指的是客户给你的数据——也就是说你为其他公司处理数据——那么各国,尤其是欧洲已经立法,规定这类客户的个人及专有数据必须留在该国境内。这也是在全球不同国家运营数据中心的原因之一,以确保在各个国家完成推理计算,让数据不跨越国境。
看好生物科技复兴,以及如何学会使用Claude Code
Dario被追问若只能投一只股票会选什么,他以了解太多上市公司信息为由婉拒,但表示看好生物科技领域的复兴,尤其是肽疗法和CAR-T细胞疗法等可编程、适应性强的技术方向。他随后解释了Anthropic推出Claude Cowork的初衷,以及通过“教育部“等方式降低AI工具学习门槛的努力。
Nikhil Kamath: 我在这个问题上真的逼了Elon一把。他不太愿意回答,但我请他挑一只他会投钱的股票,排除他自己的公司。他说:谷歌。我现在也要问你同样的问题,我知道你也会有顾虑。如果Dario今天有一百美元,必须做一个二选一的决定,投一只股票来赢得资本主义的游戏,你会选哪只股票?
Dario Amodei: 这个问题我最好还是别回答,因为我对太多上市公司了解太深了。我最好还是不要回答这个问题。
Nikhil Kamath: 也许你可以从一个你没有涉足的行业来回答?虽然我猜今天这种情况越来越少,因为你几乎涉足了所有行业。
Dario Amodei: 是的,确实很难。我个人看好……我认为生物科技即将迎来一场复兴。最终,它将由AI驱动。我不打算点名具体的公司,也不会说我认为应该押注大型制药公司还是新兴的小型生物技术公司。但我的直觉是,我们即将治愈很多疾病。
Nikhil Kamath: 你能给我一个我应该重点关注的生物科技细分领域吗?
Dario Amodei: 我认为是那些更可编程、适应性更强的方向。从mRNA疫苗开始——尽管它们在美国因为一些愚蠢的原因正面临困境。但我对基于肽的疗法非常乐观。你知道,如果你有一个小分子药物,你能调整的自由度非常有限,改善了一个方面,另一个方面往往就变差了。但肽具有一种近乎数字化的属性,你可以说:我要在这里替换这个氨基酸,在那里替换那个氨基酸。这使得连续优化成为可能。所以我对这类领域持乐观态度。也许还有细胞疗法——比如CAR-T疗法,就是把你身体里的一些细胞取出来,对它们进行基因工程改造,让它们去攻击特定的癌细胞,然后再放回体内。
Nikhil Kamath: 干细胞疗法有效吗?我上周花了整整一周做这个,在一家医院每天待三个小时,通过雾化器和静脉注射接受干细胞治疗。
Dario Amodei: 我对干细胞疗法的最新进展不太了解,你得去问一个正在执业的生物学家。
Nikhil Kamath: 但肽,我觉得会爆发,对吧?
Dario Amodei: 设计空间非常广阔,这是肯定的。
Nikhil Kamath: 好的。我第一次使用Claude Code的时候,真的很挣扎,完全搞不定。对于完全不懂编程或代码的人来说,它不是那么容易上手。有一定的学习曲线。我听有人说,提示词工程就像弹钢琴,你不能一坐下来就开始弹。对于我的受众来说,这越来越重要——如何设置上下文、如何提示、如何更好地使用Claude Code。对于我这样零基础的人,你能推荐一下该怎么做吗?
Dario Amodei: 首先,我要说的是,我们一直在努力降低这条学习曲线。我们推出Claude Cowork——基本上就是面向非程序员的Claude Code——其中一个原因是,我们注意到有很多非技术用户真的很想用Claude Code,但在命令行终端前挣扎。程序员每天都用命令行终端,但对于非程序员来说,这让事情变得不必要地复杂。所以Cowork被设计得更加用户友好,底层依然是Claude Code引擎,但界面更亲民、更易用。我们一直在努力推出更多这样的界面。
我还想说,有很多课程可以帮助你学习这些东西。我认为这是一门非常实践性的学科,主要靠动手学。Anthropic内部有一个我们称之为“教育部“的团队,我认为我们会越来越多地发布关于如何有效运行Agent、如何提示模型的视频。我们已经做了一些,接下来会加大力度,因为我们确实希望每个人都能学会这些。
如何预测未来?从第一性原理出发的反直觉推断
Dario分享了他10年来反复经历的核心洞察:大多数人会因为觉得某件事“太奇怪“或“变化太大“而拒绝相信它,但简单地沿曲线外推或从第一性原理推理,往往能得出几乎无人相信却事后证明正确的反直觉结论。他认为,少量实证观察结合正确的思维框架,任何人都可以免费预测未来,但这种事发生得出奇地少。
Nikhil Kamath: 最后一个问题,有没有什么一闪而过的想法,或者你想留给我们一些值得铭记的东西?Dario知道什么是Nikhil和Nikhil的所有听众所不知道的?
Dario Amodei: 我也不确定我知道很多别人不知道的事,特别是现在,这项技术的影响已经摆在明面上了。我认为,我世界观的大部分方面,都可以从目前公开可见的信息中推导出来,从我们在这个世界中所能看到的东西推导出来。
但我想说的一点——这是我在过去10年里反复经历的体验——就是有一种诱惑,让人觉得:哦,那不可能发生,太奇怪了,变化太大了,人们肯定注意到了,那也太疯狂了,没人觉得那会发生。然而,一而再、再而三地,只要你简单地沿曲线外推,或者试图推理出会发生什么,就会得出这些反直觉的结论,而这些结论几乎没有人相信。这就像你可以免费预测未来,只需说:嗯,按道理应该是这样。
当然,你需要一些实证知识,需要一些直觉。你不能从纯粹的逻辑中推理,我认为那是我看到的另一种常见错误。但是,少量的实证观察结合从第一性原理出发的思考,就能让你以任何人都应该能做到的方式预测未来。然而,这种事发生得出奇地少。
Nikhil Kamath: 谢谢你,Dario,感谢你来参加这次访谈,希望很快能再见到你。
Dario Amodei: 谢谢你。
Nikhil Kamath: 谢谢。
如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。
Buy me a coffee