超级智能的金融化:Amazon 500 亿投注 OpenAI 背后的 AI 权力重组
节目: Peter H. Diamandis Podcast #235 主持: Peter Diamandis、Salim Ismail 及其他联合主持人 时长: 02:16:26 来源: YouTube 完整转录: 带说话人识别的全文转录
导读
Peter Diamandis 是 XPRIZE 基金会创始人和 Abundance 360 创始人,他和奇点大学前执行董事 Salim Ismail 共同主持一档 AI 新闻圆桌,每周两期,自称"科技加速时代的新闻速报"。第 235 期录制于 2026 年 3 月初,时长 2 小时 16 分,覆盖 49 个话题。
这一期的标题"Financializing Super Intelligence"并非修辞。它指的是一件真实发生的事:Amazon 向 OpenAI 提出的 350 亿美元投资,设置了两个触发条件——OpenAI 上市,以及实现 AGI。 而 AGI 的定义,来自 OpenAI 与微软签订的秘密协议:产生 1000 亿美元营收或利润。
超级智能,现在是一个可以写进投资合同的财务里程碑。
本文从 49 个话题中提炼 6 个核心主题,并对主持人的论证框架和逻辑漏洞进行独立分析。
一、我们已经用美元定义了 AGI
本期播客的开篇新闻,也是标题的来源:Amazon 向 OpenAI 提出 350 亿美元条件性投资,前提是 OpenAI 完成 IPO,并实现 AGI。加上此前已有的约 150 亿美元早期投资,总额接近 500 亿美元——这就是"$50B Late Fee"的由来:Amazon 之前全押 Anthropic,现在补投 OpenAI,像是迟到的保险费。
Diamandis 自己说出了这件事最精准的描述:
“It’s kind of incredible that we’ve financialized superintelligence. We’re measuring compute in terms of gigawatts and AGI in terms of dollars. I love it.”
他是带着赞叹说这句话的。这值得停下来想一下:AGI 的定义权,现在在谁手里?
根据 OpenAI 与微软签订的协议,AGI 被定义为产生 1000 亿美元的收益或收入(具体是哪个指标,Diamandis 本人说"我记不清了")。这意味着,判断人类是否创造出了"通用人工智能"这一历史性事件,最终依据的是一份商业合同里的财务条款。
Salim Ismail 补充了另一个角度:AI 科技巨头之间的相互投资已经形成了一个循环——Google 投了 Anthropic,Amazon 既投 Anthropic 又投 OpenAI,Microsoft 深度绑定 OpenAI。
“At some point, the circular economy becomes indistinguishable from the real economy.”
这个生态里还有更多细节值得关注。本期还提到,SpaceX、Anthropic、OpenAI 三家公司都预计在近期 IPO。Peter Thiel 建议:如果 IPO 能带来 50% 的六个月回报,那就是极好的投资。同时,有预测显示 Anthropic 2026 年收入将达到 260 亿美元,按当前增速,将是历史上第一家在 2029-2030 年达到 1 万亿美元年收入的公司——用当前市盈率折算,这意味着一个 1 千万亿美元的估值(quadrillion)。
没有人在节目里追问这些数字的合理性。

二、安全承诺是怎么被竞争压力蚕食的
本期第二条核心新闻:Anthropic 修订了"负责任扩展政策",放弃了 2023 年的承诺——当年他们承诺,除非安全有保障,否则不训练更先进的 AI。
对此,Salim 给出了他认为的历史规律:
“Safety typically fails in exponential races. There’s no credible mechanism to slow the race right now. Safety, to the extent we get it, is going to come from competition.”
意思是:不要指望任何单一机构的自我约束,安全只能从竞争中自然涌现。
Alex 更直接否定了 Anthropic 最初的前提:
“I think there was no credible mechanism to guarantee safety in the first place. I think the entire premise was probably wrong.”
这本身是一个可以展开辩论的观点。但在这期播客里,它被当作结论陈述,没有后续追问。
然后出现了本期最引人深思的叙事并置:同一期节目里,另一条新闻报道 Anthropic 的 Claude 被美国国防部用于规划对伊朗的打击方案。Alex 对此的评论是:
“An alignment oriented firm becomes a capabilities firm. The future of warfare is basically whoever controls AI, chooses who gets to stay in power.”
这两条新闻——放弃安全承诺,以及被用于军事规划——在逻辑上构成了一个完整的论点,但主持人没有把它们放在一起分析。它们被分隔在两个不同的讨论段落里,各自得到几分钟的时间,然后进入下一个话题。
“对齐优先的公司变成了能力优先的公司”——这句话需要更多的停顿。Anthropic 最初的创立叙事,是从 OpenAI 分裂出来、专注安全的团队。三年后,它成了国防部的 AI 供应商,同时放弃了安全优先的训练承诺。这不是对齐失败,这是对齐被重新定价。

三、治理机构更新以年计,技术以周计
节目的 Q&A 环节(后半段观众提问)里,有一个问题触及了本期最重要的底层矛盾:
“我们人类进化的心理限制,会不会阻碍我们做出关于 AI 新突破的明智治理决定?”
主持人的回答给出了一个精准的诊断:
“Government failure won’t come from bad intention, it’s going to come from the velocity mismatch. Technology is compounding like weekly now and our institutions are updating every several years.”
技术以周为单位复利叠加,机构以年为单位更新——这个速度差本身,是一种系统性风险,而不只是"政府跟不上"的效率问题。
同期有一个小细节:3D 打印机监管的讨论。几个州正在尝试监管 3D 打印机,理由是它可以打印武器。主持人用这个案例类比 AI 监管的困境:当技术进入消费品层面,传统监管框架几乎无法有效运作,因为监管对象是设备而非知识,但知识(模型权重)才是真正的危险所在。
还有一条关于 Captcha 的冷讽:当 AI 已经可以轻松破解图灵测试式验证码,“你不是机器人"的整套基础设施,其实已经失效。没有人知道该用什么替代它。
四、五年后的企业:一个人,一套 AI 团队
节目里被讨论最多的近未来预言,来自"单人企业集团”(single person conglomerates):
“Where this ends up, not in the distant future, but in the medium term, like five years from now, is single person conglomerates. These are going to be agentic hosting systems where you log a brand, you pick a service, it’ll email and find customers for you. Most of the volume will eventually be dominated by algorithms.”
支撑这个预言的案例:pulsea AI 目前自动运营超过 1000 家公司;Blizzy 代码开发平台实现 5x 工程速度;Anthropic 正在建立面向金融、银行、HR 的企业 Agent 市场;Burger King 在员工耳机中部署了 AI 语音助手 Patti;Uber 员工甚至建造了一个 CEO Dara 的 AI 克隆,供员工练习向他汇报。
Salim 用 Clay Christensen 的《创新者的困境》为大企业提建议:利用现有资本和客户关系投入新事物,否则就是"walking dead"。Peter Thiel 式的语气也出现了:如果你的公司和董事会没有进入"创始人模式",你已经是行尸走肉。
这种叙事有它准确的部分:AI Agent 确实正在从单点工具变成系统性的工作流替代者。 但它也有一个系统性的盲区:五年内"单人企业集团"的预言,完全预设了技术成功,对监管障碍、信任建立周期、法律责任归属一字不提。更重要的是,“大量工作量将由算法主导"的另一面,是大量工作者的位移——而这个话题在两个多小时的圆桌里,几乎没有出现。

五、能源:真实的战争不在算法层
本期对能源话题的覆盖,篇幅超过了很多人预期。
美国 2025 年计划新增 86 GW 公用级发电容量,是历史纪录。白宫正在向科技巨头施压,要求他们自行解决数据中心的用电问题,而非依赖公共电网。Meta 与 AMD 达成 1000 亿美元 AI 芯片协议。Core Weave 为数据中心建设融资 85 亿美元。
Dave 在节目里说出了当前格局的核心逻辑:现在的瓶颈不是资金,而是晶圆厂产能——谁能拿到足够的芯片产能,谁就掌握了竞争的核心稀缺资源。
一个值得记录的细节:能源公司 Boom 原本的主业是造超音速飞机,但 FAA 监管阻力太大,现在转型为数据中心供电商。主持人把这个案例引述为"需求驱动创新"的典型。
这个视角本身没有问题,但它也说明:AI 基础设施建设的紧迫性,正在重塑完全不相关行业的战略选择。
能源转型里有一件事被完全跳过了:可再生能源的间歇性问题,以及核电实际的建设周期。“从此以后,所有新增能源都将是可再生能源”——这句话被说得像结论,但实际上存在大量工程和政策上的不确定性。

六、长寿赛道:融资热度与临床现实之间的距离
Diamandis 对长寿赛道的热情贯穿全片。数据:2024 年长寿初创融资 85 亿美元,2025 年预计 120-180 亿美元。个性化医疗市场预计从 5 万亿增长到未来四年 8 万亿。
节目里被重点介绍的案例是 Prime Medicine 的基因疗法:不是治疗慢性病,而是一次性修复基因缺陷,“不再需要终身用药”。Diamandis 的建议也颇有行动力:如果你或家人有遗传性疾病,现在就去找资金,找团队,“治愈疾病的技术已经在这里了,而且在加速”。
关于 AI 驱动个人医疗,他有一句话概括得很直接:
“Having data about you analyzed by an AI is the game changer.”
他将其称为"逃脱速度”(escape velocity)的核心——一旦你拥有全量个人健康数据并交给 AI 分析,你就进入了一个与"普通医疗"完全不同的健康轨道。
Eli Lilly 也被提到,主持人讨论它是否即将进入 Mag 7 变成 Mag 8——因为 GLP-1 类药物正在从减肥进入代谢、心脑血管等多个领域。
这里有一个结构性问题:融资规模与临床成效是两个不同的指标。基因疗法进入 FDA 审批的周期通常是 7-12 年,主持人对监管时间线的处理方式是跳过它。“技术已经在这里"和"治疗已经可以用”,中间还有相当长的路。
编者分析
主持人立场
Diamandis 的整个认知框架建立在"指数增长 = 必然丰盛"上,这是他三十年来的核心命题。这个框架能够捕捉到真实的技术加速趋势,但它也系统性地低估分配不均、监管滞后和技术失控等风险。他对 Amazon-OpenAI 利益纠葛的反应(“I love it”)、对 AGI 财务定义的接受、对安全承诺崩塌的轻描淡写,都体现出这个框架的边界。
Salim 在安全议题上是本期相对最清醒的声音——他明确说"指数竞赛中安全机制历史上都会失败",机器人将迅速商品化(而非押注任何一家赢家)。但他整体仍在指数乐观的叙事框架内运作。
论证中的选择性
本期有两条新闻构成了一个完整的论点,但被分开处理:Anthropic 放弃安全保证(第 2 条)和 Anthropic 被用于军事规划(第 4 条)。两者合在一起说明的是:AI 安全公司的"对齐优先"定位,正在系统性地向"能力优先"转变。但节目里这两条相隔 8 分钟,没有任何交叉分析。
值得追问的反面观点
第一:AGI 被定义为 1000 亿美元营收,这意味着优化目标是财务最大化,而非对人类有益。这两个目标不必然重合,在某些场景下甚至相互冲突——但没有人在节目里提出这个问题。
第二:“安全机制历史上都会失败"被用来支持"不应该尝试"的结论。这是一个无效推论。历史上交通安全机制也失败过很多次,但我们没有停止建设安全机制,而是持续改进它。
第三:单人企业集团的叙事里,完全缺失了对中低收入工作者的讨论。“大量工作量由算法主导"和"对所有人有好处”,不是同一件事。
待查证事实
- Amazon 向 OpenAI 投资总额(350 亿 + 早期 150 亿 = 500 亿)的具体数字,各方报道有出入
- Anthropic 2026 年 260 亿美元收入预测的来源(节目中未明确引用原始报告)
- 美国 86 GW 新增容量的构成(太阳能/风能/核能占比)
- Prime Medicine 当前的临床试验阶段
核心要点
- Amazon 350 亿美元条件性投资将 AGI 定义为财务里程碑,超级智能正式进入资产类别
- Anthropic 放弃 2023 年安全保证,同期被披露用于美国军事规划——两件事合看,意味着"对齐优先"的时代在竞争压力下正在结束
- 五年内单人企业集团是一个方向性正确但过于乐观的预言,结构性障碍被系统性忽视
- 能源和晶圆厂产能是 AI 扩张的真实物理瓶颈,科技巨头正在直接介入能源基础设施
- 长寿/个性化医疗是真实的下一波大赛道,但融资热度与临床可及性之间存在显著落差
- 治理机构以年更新、技术以周复利——这个速度差本身是系统性风险,不只是政府效率问题
整理自 YouTube,2026-03-06
如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。
Buy me a coffee