【转录】超级智能的金融化与 Amazon 的 500 亿"迟到费" | Peter Diamandis #235

节目: Peter H. Diamandis Podcast #235 — Moonshots & WTF Just Happened in Tech 主持: Peter Diamandis、Salim Ismail、Dave(DB2AWG)、Alex 时长: 02:16:26 来源: YouTube 观点提炼: 深度分析与编者观点


目录

  1. 节目开场:超级智能被"金融化"了 00:00:00
  2. AI 安全与军备竞赛:Anthropic 放弃安全承诺 00:01:54
  3. AI 被用于战争规划:Anthropic 与伊朗袭击计划 00:11:26
  4. Claude 代理能力扩展与 OpenClaw 生态 00:18:06
  5. 企业 AI 转型:从人力工作流到代理工作流 00:26:39
  6. AI 模型竞争:小模型击败大模型 00:36:33
  7. Google AI 生态与监管讨论 00:43:48
  8. Amazon-OpenAI 投资、IPO 与资本热潮 00:57:39
  9. AI 在工作与商业中的渗透 01:06:00
  10. 能源与算力基础设施 01:22:52
  11. 医疗、长寿与生物技术革命 01:38:17
  12. 机器人与未来交通 01:52:49
  13. 听众问答(Q&A) 01:59:11


1. 节目开场:超级智能被"金融化"了

⏱️ 00:00:00

Peter: Amazon 向 OpenAI 提出了一个条件性投资报价——350 亿美元,但有两个前提:第一,OpenAI 必须上市;第二,必须实现 AGI。某种程度上,我们已经把"超级智能"给金融化了,这真是匪夷所思。OpenAI 和微软之间的 AGI 定义是"产生 1000 亿美元收益或营收"。我们现在用"吉瓦"衡量算力,用"美元"衡量 AGI——我爱死这个时代了。

Amazon 之前一直在骑墙,现在直接投 OpenAI 了。某种程度上,这个循环经济已经和真实经济无法区分了。这是一生一次的创业机会。我们正在谈论的是数万倍于今天的价值创造能力,丰裕时代就要来了。

欢迎来到 Moonshots!我是 Peter Diamandis,和我一起的是 Salim Ismail、Dave(DB2AWG)还有 Alex。我们每周两期,但每次都感觉有太多故事没来得及讲。好,让我们开始今天的头条 AI 新闻吧!


2. AI 安全与军备竞赛:Anthropic 放弃安全承诺

⏱️ 00:01:54

Peter: 第一条新闻:Anthropic 在竞争加剧的背景下修订了其"负责任的扩展政策"。他们正在放弃 2023 年做出的承诺——那个"除非安全有保障,否则不训练先进 AI"的承诺。这件事让我很不安。很多人一直把 Anthropic 视为最负责任的公司,他们和 Google 是这个行业的良知。各位怎么看?

Salim: 在指数级竞争中,安全往往是第一个被牺牲掉的。这不是新鲜事,历史一再重演。你看汽车工业、航空工业……这就是同样的动态在重演。目前没有任何可信的减速机制。安全,如果我们还能得到的话,只能来自竞争本身——当有足够多的参与者互相约束时。

Dave: 这让我想起了 MIT 的同学们,04、05、06 年那批人去了 Google,因为 Google 当时是"不作恶"。他们选择 Google 而不是微软,是因为微软被认为是邪恶的,而 Google 是善的力量。现在呢?

Salim: 安全是有成本的。当你单方面为安全买单,对手却不买单的时候,你就是在把自己的手捆起来。如果整个行业都不减速,我们单独减速就毫无意义。

Peter: 真正让我担心的是:现在没有任何国际协议、没有任何监管机构有能力让这场竞赛放慢脚步。核武器时代我们还有 MAD(相互确保毁灭)理论,AI 时代连这个都没有。

Alex: 我觉得安全最终会作为一种竞争优势出现。不是因为道德,而是因为那些造成伤害的 AI 系统最终会被监管或者被市场淘汰。我们见过这种模式——社区自我管理、自我举报。

Salim: 权力分散才是答案。我认为这最终会走向"计算权力分立"——就像三权分立一样。我们需要前沿实验室之间的竞争,甚至国家之间的竞争,来推动谁能为人类做得最好。任何单方面的"安全主义"都可能是死路一条。


3. AI 被用于战争规划:Anthropic 与伊朗袭击计划

⏱️ 00:11:26

Peter: 下一条新闻令人震惊:Anthropic 的 Claude 被美国国防部用于规划针对伊朗的军事行动。一个以"alignment"(AI 对齐)为使命的公司,现在成了军事能力提供商。

Alex: 这完全可以预见。一旦你拥有了世界上最强大的 AI,国家安全机构就不可能无视它。战争的未来本质上就是:谁控制了 AI,谁就决定谁能留在权力位置上。

Salim: 这里有一个窗口期——也许就是未来几个月——我们有机会在全球范围内建立某种结构性约束。但这个窗口在关闭。你想象一下,几年后当 AI 系统可以完全自主地规划和执行复杂军事行动时,局面会是什么样的。

Peter: 这不只是技术问题,这是地缘政治问题。美国在用 AI 换取地缘政治优势,中国也在做同样的事。竞争已经延伸到了最黑暗的领域。

Dave: 让人担忧的是,一个以"alignment"著称的公司——Anthropic——在这里的角色。他们曾经是那个说"我们会以不同方式做 AI"的公司。现在他们的模型在规划军事打击。这是一个非常深刻的矛盾。

Alex: 但另一方面,如果一个 alignment 导向的公司在军事 AI 中占据主导地位,是不是比那些根本不在乎 alignment 的公司来做要好一些?

Salim: 这就是那个"谁来监管监管者"的问题。当 AI 开始做决定时,民主决策的机制在哪里?


4. Claude 代理能力扩展与 OpenClaw 生态

⏱️ 00:18:06

Peter: 好消息来了。Anthropic 扩展了 Claude 的代理能力。Claude Code 现在有了计划任务功能(类似 cron job),还开启了远程控制——你可以在电脑上启动一个任务,然后在手机上继续跟进。

Alex: 这是个巨大的飞跃。我们正在从"问答式 AI"走向"能自主工作的 AI Agent"。OpenClaw 现在给了个人开发者令人难以置信的代理能力——一台 Mac Mini 就能成为一个自主代理节点,不受任何中心化权威控制。

Salim: 这是算力民主化的一个极好例子。所有这些 OpenClaw 用户都拥有独立的设备,形成了一个去中心化的 AI 计算网络。这创造了巨大的创业机会——但同时也创造了我们之前讨论的那些风险。

Peter: 我的预测是:Anthropic 和 OpenAI 迟早都要被迫推出自己的 OpenClaw 竞品。因为这是不可逆的趋势——当工具变得足够强大,生态系统就会自然形成。

Dave: 这让我想到了互联网早期。当时也有人说"这太危险了,需要控制",但互联网最终走向了完全开放。AI Agent 的去中心化可能会走同样的路。

Salim: 而且最大的玩家都必须发展某种形式的 OpenClaw。这不是选择题,这是生存必需品。


5. 企业 AI 转型:从人力工作流到代理工作流

⏱️ 00:26:39

Peter: Anthropic 正在构建面向企业的 AI Agent 市场——涵盖金融、银行和 HR 领域。IT 部门级别的 AI 基础设施正在颠覆一个又一个行业。企业级编排才是真正的大奖。

Salim: 私募股权基金现在正在找我们说:大公司从来不会快速变革,我们要来了。已经有人用 OpenClaw 直接走进小企业,现场演示自动化工作流。大公司必须立刻行动,否则就太晚了。

Alex: 工作流的范式正在转变。不再是"以人为中心的工作流",而是"以代理为中心的工作流"。分两层:战略层(人类决策)和执行层(AI 代理执行)。企业的未来角色变成了:法律实体、信托义务持有者、目的守护者。

Salim: 重读克莱顿·克里斯滕森的《创新者的窘境》吧。如果你的品牌还不错,你还拥有客户关系,那就用你现有的资本杠杆去投资新方向。这是他的核心建议:不要守旧,用旧有资产支撑新赌注。

Peter: 我刚刚结束了一个董事会通话,我告诉所有董事会成员:你们必须给 CEO 足够的"顶层掩护",让他们能大刀阔斧地改变业务。要么你来颠覆,要么被颠覆。对每个人来说:这是"创始人模式"时刻。

我们正处于"知识工作丰裕时代"的前夜。讽刺的是,我们还在苦苦寻找知识工作的稀缺性,而它马上就要变得极度丰裕了。


6. AI 模型竞争:小模型击败大模型

⏱️ 00:36:33

Peter: 大新闻:阿里巴巴的 350 亿参数 Qwen 3.5 Medium,在基准测试中超越了 2350 亿参数的 Qwen 3。几乎是 10 倍的参数量压缩,同时保持甚至提升了能力。这对大算力玩家来说是坏消息吗?

Alex: 这是"逆向规模定律"的体现。我们看到开放权重模型正在快速逼近闭源模型。这意味着竞争优势不再来自于模型大小,而来自于推理效率、微调能力和部署成本。

Salim: 这是民主化的另一面。当一个 35B 参数的模型能胜过 235B 的模型,算力霸权就被瓦解了。中国在这方面走得非常快,DeepSeek、Qwen 这些都是强有力的例子。

Peter: 这对大型数据中心意味着什么?Nvidia 的 GPU 需求会受影响吗?

Alex: 不一定。更高效的模型反而会带来更广泛的部署,从而增加对算力的整体需求——这就是所谓的"杰文斯悖论"。效率提升 → 成本降低 → 使用量爆炸 → 总需求反而更高。

Salim: 同时,这也意味着传统意义上的"监管 AI"变得更难了。你怎么监管一个可以在任何人的笔记本电脑上运行的模型?这把我们带回了之前的 3D 打印机讨论——

Dave: 对,某些州已经在尝试监管 3D 打印机了。AI 可能走同样的路。但历史告诉我们,对去中心化技术的监管成效极其有限。

Alex: 金融服务的自我监管模式可能是个参考。行业自我监管、社区举报、内部合规——在某些情况下,这比政府监管更有效。关键是要确保算力最多被用于好的目的,而不是坏的目的。


7. Google AI 生态:Gemini 深度整合 Android

⏱️ 00:49:03

Peter: 两条 Google 新闻。第一:Google 发布了首个将推理能力和速度结合起来的图像模型。第二:Gemini 现在可以在 Android 设备上自动化多步骤任务了。

Dave: Google 在图像推理方面的突破非常重要。之前的模型要么快但不聪明,要么聪明但慢。这是第一次把两者结合起来。对于多模态 AI 应用来说,这是一个关键节点。

Alex: Gemini 在 Android 上的深度整合更值得关注。想象一下:你的手机 AI 可以自主处理你的邮件、预订行程、管理日历,整个多步骤任务流完全自动化。这不是未来,这是现在。

Salim: Google 的真正优势在于分发渠道。他们有 Android 生态,有数十亿用户。问题不是他们能不能做出好的 AI,而是他们能不能在这场竞争中足够快地行动。

Peter: 每次看到这些新闻,我都想说:没有技术公司在等待,没有 GPU 在闲置。这场竞争的速度比任何人预期的都快。


8. Amazon-OpenAI 投资、IPO 与资本热潮

⏱️ 00:57:39

Peter: 让我们深挖一下今天最大的故事:Amazon 向 OpenAI 提出条件性投资 350 亿美元,条件是 OpenAI 上市且实现 AGI。这有多荒谬啊——我们正在给超级智能定价,价格是"100 亿美元收益"。

Salim: 这太乱伦了。Amazon 是 Anthropic 的最大投资方,现在又要投 OpenAI。同时,微软是 OpenAI 的主要投资方,但 Microsoft Azure 还在和 Amazon AWS 竞争。OpenAI 用 AWS 和 Azure,Anthropic 用 AWS——各种腱索交织在一起,关系错综复杂。

Dave: 在奇点时代,奇怪的同盟关系是正常的。所有在牌桌上的玩家都会繁荣。真正的问题是:谁会被淘汰出局?

Peter: 来说说 IPO 机会。我们有三个大型 IPO 正在路上:SpaceX 可能最快下个月;然后是 Anthropic;再然后是 OpenAI。如果你能在六个月内拿到 50% 的回报,那是极好的投资机会。

Salim: 风险是:这些估值已经在未来的超级能力上定价了。如果 AGI 比预期晚 3 年到来,很多投资者会很痛苦。

Alex: 但如果它比预期早 3 年呢?这才是真正的不对称机会。


9. AI 在工作与商业中的渗透

⏱️ 01:06:00

Peter: Blizzy——一款具有无限代码上下文的自主软件开发工具——正在帮助企业自动化开发流程。这就是 AI 软件工程师的雏形。

Salim: 五年内,我们会看到"单人集团企业"的出现。这不是遥远的未来,而是中期趋势。这些将是代理托管系统:你注册一个品牌,选择一项服务,AI 会自动找客户、发邮件、管理运营。大部分商业交易量最终将由算法主导。

Alex: 这不是说人类会被淘汰,而是说人类的角色会彻底改变。创始人的角色变成了战略设定者和品牌持有者,而不是执行者。

Peter: 让我们看看 Burger King 的案例。他们在员工耳机中部署了一个叫"Patti"的 AI 语音助手。这是 AI 进入前线服务业的信号。

Salim: 从绩效管理到培训,再到客户服务,前线服务正在被 AI 全面渗透。工会会反弹。但历史告诉我们,技术变革最终会赢。

Peter: Uber 的员工开发了一个 CEO Dara 的 AI 克隆,让员工练习向他汇报。这种内部应用会越来越多——AI 作为"练习对象"、“决策模拟器”。

Alex: 最终,企业里的每个重要决策者都会有一个 AI 克隆。这个克隆可以 24/7 地回应团队的问题、审阅提案、给出反馈。


10. 能源与算力基础设施

⏱️ 01:22:52

Peter: 能源版块。今年美国计划新增 86 吉瓦的电网规模容量——这是历史上单年最大增幅。

Dave: 这是被 AI 数据中心需求驱动的。超大型科技公司正在建设相当于整个城市电力需求的数据中心。

Peter: 白宫正在推动科技巨头自己为自己的用电买单。这是对消费者电价上涨担忧的回应。

Salim: 我认为这指向了一个非常重要的未来:企业级超级智能的使用,最终会把消费者的能源成本推向接近零。AI 优化电网、AI 优化能源生产——超级智能会让能源更便宜,而不是更贵。

Peter: 关于芯片。Dave,TPU 在哪里卡脖子了?

Dave: 在晶圆厂。Google 的 TPU 产能完全受限于制造端。这不是设计问题,是制造问题。台积电的产能就这么多。

Peter: 然后是 Meta 和 AMD 的 AI 芯片合作,价值 1000 亿美元。Meta 在押注打破对 Nvidia 的依赖。

Alex: 这是一个非常聪明的战略对冲。Meta 知道如果 Nvidia 成为垄断者,他们就会被定价权卡住。和 AMD 合作是他们的"第二供应商"策略。

Salim: 奇点时代,所有在竞争的人都会繁荣。Nvidia 不会输——但 AMD 也会有一席之地。

Peter: 最后一个芯片话题:苹果的 M4 芯片为什么没有出现在 AI 讨论中?

Alex: 苹果在利用自己强大的计算能力方面,表现得非常糟糕——用"臭名昭著"这个词都不过分。他们有很棒的硬件,但软件层面的 AI 能力简直是灾难。我希望他们能在 6 月的 WWDC 上终于把这件事做好。


11. 医疗、长寿与生物技术革命

⏱️ 01:38:17

Peter: 转向令人兴奋的领域:医疗。关于你的数据,AI 分析才是真正的游戏规则改变者。你知道你佩戴了多少传感器吗?Apple Watch、Oura Ring、连续血糖监测仪……

Salim: 当你的所有生理数据都被 AI 持续分析时,你的个人 AI 就成了你最了解你的医生——比任何人类医生都更了解你。

Peter: Prime Medicine 正在做的基因疗法令人惊叹。这不是治疗慢性病——这是从基因层面修复遗传病。这就是真正的"修复",不是"管理"。

Alex: 如果你或你的家人有遗传疾病,现在就是寻找解决方案的时刻。技术已经在这里,而且在加速。去筹集资金,找一个优秀的团队,推动它。

Peter: 长寿产业的数字令人震惊。2024 年,长寿初创公司融资 85 亿美元,今年预计达到 120-180 亿美元。个性化医疗市场正在从 5 万亿美元增长到未来四年内的 8 万亿美元。任何不转型的医疗公司都会死。

Salim: Eli Lilly 是美国的 Novo Nordisk 对标。GLP-1 类药物是第一批"泛谱准抗衰老药物"。他们现在的任务是真正进入长寿业务。我认为未来三年内他们会开始这个转型——届时他们有可能挤进"壮丽七雄"(Magnificent 7)。

Peter: 长寿绝对是有史以来最大的商业机会之一。人类一直以来最大的恐惧是什么?死亡。我们在这个上面花多少钱?无穷无尽。把 AI 的力量和"治愈衰老"这个目标结合起来,结果是什么?一个 100 万亿美元级别的市场。

Dave: 中国的 AI 健康应用 Antu(安图)刚刚突破 1 亿用户。这就是未来:AI 作为你的私人医生。Martin Varsavsky 现在也在建立一个 AI 医生类型的初创公司。减少急诊室就诊、大幅扩展医疗覆盖范围——双赢。


12. 机器人与未来交通

⏱️ 01:52:49

Salim: 机器人会很快被商品化。这不是"会不会"的问题,而是"多快"的问题。平台竞争、标准化、成本下降——这个模式我们见过太多次了。

Peter: 从类人机器人到 VLA(视觉-语言-行动)机器人的转变已经在发生。在这真正渗透之前,你就会有无人机外卖了。食品配送机器人的转变就在未来两到三年内。

Alex: 类人机器人在某些特定应用场景已经接近生产就绪。但在那之前,更专业化的机器人——比如物流、仓储、配送——会先大规模部署。

Peter: 中国的 eVTOL 出租车正在冲向 2027 年的商业化运营。4 座 eVTOL 飞行出租车——这不是科幻了。

Salim: 城市交通的颠覆会很突然。某一天你醒来,发现你可以叫一辆飞行出租车去办公室——就像当年 Uber 突然出现一样。

Peter: 我们还宣布了一个特别活动:5 月 4 日,Ray Kurzweil、Steven Kotler、Dave 和 AWG 将共同出席。如果你购买 100 本我的新书《我们即将成神》(We Are as Gods),就可以加入我们——签名版 + 一个下午的深度对话。


13. 听众问答(Q&A)

⏱️ 01:59:11

Q: 戴森球(Dyson Sphere)等概念是否依赖于能源问题无法解决?

Salim: 这是个很好的问题。戴森球是一种终极能源解决方案——如果我们在地球上就把能源问题解决了,戴森球就没有必要性了。但我认为,超级智能的出现会让我们想要消耗远超今天想象的能量,那时候戴森球就又变得相关了。

Q: 如果 AGI/ASI 像人们预测的那样聪明,它为什么要帮助社会?

Peter: 如果我们足够聪明,给它一个"帮助社会"的目标函数,它就会为此而欢欣鼓舞地工作。问题是我们现在正面临做出一些真正糟糕政策决定的危险。

Salim: 这是对齐问题的核心。我们必须把正确的价值观编码进去。如果目标函数是错的,再聪明的 AI 也会走错方向。

Q: 如何在当前失能的政府体制内获得 AI 的好处?

Alex: 你不会从上到下获得这些好处,因为在这个模式下太难推动了。但它会通过采购、国防、医疗、基础设施渗透进来——增量式的采用,从边缘开始,逐渐进入核心。

Q: 100 年工作生涯下,如何调整自己的"宏大变革目标"(MTP)?

Salim: 你要把它变成你的北极星。不是一个你会到达的终点,而是一个持续指引方向的灯塔。在 100 年的职业生涯里,你有足够的时间多次转型、多次重新发明自己。

Q: 苹果的 M4 芯片为什么没有出现在 AI 讨论中?

Alex: 因为苹果没有利用好它。他们有无与伦比的硬件,但软件层面的 AI 能力是公司的耻辱。希望 WWDC 能改变这一切。

Q: 韩国学生的标准化考试成绩为什么比全球平均水平高得多?

Salim: 没什么好羡慕的。韩国也有全球最高的自杀率之一,75% 的青少年有严重的电子游戏成瘾问题。是的,我们需要更好的教育——但不要羡慕韩国的考试成绩。

Q: 人类进化心理学的局限性会阻止我们做出明智的治理决策吗?

Salim: 政府失败不会来自于坏意图,而会来自于"速度错配"。技术现在是以周为单位复利增长的,而我们的制度是以年为单位更新的。这个速度差距会成为真正的危机。

Q: 当 AI 已经能破解 CAPTCHA 时,网站为什么还要用它?

Peter: 好问题。CAPTCHA 已经是一个失效的机制,现在更多是一种摩擦过滤,而不是真正的安全措施。很快就会有新的人机验证方式出现——可能基于行为模式、生物特征,而不是"找出红绿灯"。


本文为 YouTube 视频完整转录,内容忠实呈现节目原始对话,经过口语到书面语的整理优化。 对话中的"Saleem"为 Salim Ismail(指数型组织作者),“AWG"为 Dave 的社交账号别名(DB2AWG)。

如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。

Buy me a coffee