WTF Moonshots #234: Anthropic 对抗五角大楼、Claude 收入碾压 ChatGPT、咨询业被颠覆
主持: Peter Diamandis, Salim Ismail, Alex 节目: WTF Moonshots #234 时长: 02:09:03 来源: YouTube 观点提炼: 深度分析与编者观点
目录
- 开场预告:Anthropic 对抗五角大楼
00:00:00 - 印度 AI 影响力峰会:2500 亿美元的大赌注
00:02:21 - 全球 AI 基础设施与治理
00:13:56 - Anthropic 对抗五角大楼:AI 安全红线之争
00:22:59 - Anthropic 收入碾压 OpenAI?企业 vs 消费者之争
00:35:36 - Dario 一句话撼动市场:网络安全被颠覆
00:46:04 - OpenAI 硬件野心与 Alex 的手写新闻简报
00:54:56 - 咨询业的末日还是新生?
00:59:20 - AI Agent 的"寒武纪爆发":纽约时报、OpenClaw、Blitzy
01:04:34 - 数据中心 vs 农田:土地使用权之争
01:17:40 - 100 美元基因组:一场医学革命
01:25:34 - 实验室培育肉与食物的未来
01:32:22 - AI 保险、机器人与白领失业潮
01:36:27 - 超级智能与反城市化
01:44:37 - 观众问答:月球、大学、AI 意识
01:48:39
1. 开场预告:Anthropic 对抗五角大楼
时间: 00:00:00 — 00:02:21
Peter: 本周有大新闻。Anthropic 和五角大楼之间爆发了一场冲突。五角大楼要求 Anthropic 移除 AI 安全护栏,以用于监控和自主武器系统。Dario 拒绝了。五角大楼不仅想控制他们付费购买的模型的合法使用方式,还想塑造模型内嵌的文化价值观。这种争论以后会越来越多。
Anthropic 的营收是 OpenAI 的十倍。看看这张图表——Agent 的变现速度比聊天机器人更快。我认为这不只是聊天机器人对比 Agent 的问题,本质上是消费者市场对比企业市场的问题。
Salim,我很好奇你的看法。你我都在各大咨询公司演讲过。我必须说,最近几场和领导团队的交流,他们都吓坏了。我们需要重建这个世界运转所依赖的每一套制度和每一家机构,并进行彻底的架构重设。这是人类历史上最大的咨询机遇。这才是真正的登月级机会,女士们先生们。
6600 万年前,一颗 10 公里宽的小行星撞击地球,环境骤然改变,那些行动迟缓的恐龙就此灭绝——它们无法进化,无法自救。而那些敏捷的毛茸茸的小哺乳动物进化成了我们人类。今天撞击地球的"小行星"就是 AI 和指数级技术。你只有两个选择:敏捷进化,或者灭绝。
嘿,大家好,很高兴见到你们。
Salim: 哟,同样高兴!
Peter: 回到美国了,为我们的新冒险感到兴奋。我们现在每周录两期 WTF Moonshots,节奏很快,我很享受备课的过程,也享受和你们在一起的时光。各位订阅者,如果你还没订阅,赶紧点订阅、开通通知,我们会在新集发布时第一时间告知。你们准备好开始了吗?
Salim: 当然。
Alex: 随时准备好。
Peter: 太棒了,走起!
2. 印度 AI 影响力峰会:2500 亿美元的大赌注
时间: 00:02:21 — 00:13:55
Peter: 好,我们先从你的故乡说起,Salim——印度。这次峰会相当震撼。这是第三届还是第四届 AI 影响力峰会,几周前在印度举行。照片里汇聚了所有顶级 AI 领袖:Dario、微软的 Brad Smith、Alexander Wang、Sundar、莫迪总理、Sam Altman、Demis。唯独没看到 Elon,挺有意思的。我原以为 Mukesh Ambani 会出现在台上,但也没有。不管怎样,这是一个令人叹为观止的群体。
我有几个感想。第一:印度把自己定位为"AI 中立国",这是极其聪明的战略。这也表明 AI 领导力不再只属于硅谷——它是多极化的。当国家元首与 AI CEO 们同台,我们实际上是在重新谈判文明的架构。国家正在变成超大规模算力提供者,超大规模企业也在深度嵌入国家体系。这是 Diane Francis 的观察,我认为这个视角将越来越有力。
Salim: 印度正在经历一场巨大的地盘争夺战。此次峰会上,88 个国家签署了《新德里宣言》——这是全球第一份 AI 协议,承诺的综合 AI 投资总额达 2500 亿美元。印度面临的最大挑战是基础设施和能源。不过印度很年轻、英语能力强、数学和技术能力突出。我一直在说:中国在走下坡路,印度是下一个巨人。
Peter: Salim,我想请你谈谈这个明显的战略转向。看看 Dario 和 Sam 过去两年参加的活动——以前总是去大金主那里:沙特、迪拜、达沃斯,永远在融资。现在他们的钱好像已经够了,注意力转向了全球影响力。他们不再积极推销,而是在软销售。很明显,我们正处于奇点之中——AI 开始让人有点害怕了,不再只是每天充满热情地往前冲。
Salim: 我认为有一个明显的转变。这些 CEO 现在开始担心治理和社会影响。问题是:治理能跟得上吗?
Alex: 不管那张照片里有没有某些人,如果你去看 2026 年《新德里宣言》里对开源的强调——那才是房间里的大象。全球最主流的开放权重模型(注意,不是真正的开源)全都来自中国。如果宣言把开放权重模型作为向"全球南方"扩散 AI 能力的关键路径,那么这些模型基本上都来自中国。这个动态无法回避。
Peter: 那 Mistral 呢?欧洲有没有可能跟上?
Alex: Mistral 看起来正在慢慢变成一个垂直整合的欧洲版 OpenAI,他们在大量融资,想做全栈玩家。问题是能否在规模上竞争。
Salim: 印度倾向于中国模型,而且这种倾向可能仍在持续。DeepSeek 能力很强。但地缘政治上,印度在走钢丝。
Peter: 在基础设施方面——谷歌宣布作为 150 亿美元印度投资计划的一部分,将在印度建立全栈 AI 枢纽。这是一个模板:美国企业竞相在格局定型之前锁定战略位置。
Salim: 对那些我们还不了解的事情保持谦逊很重要,永远记住有时我们最好的猜测也会出错。最重要的发现往往发生在技术与社会交汇的地方。
3. 全球 AI 基础设施与治理
时间: 00:13:56 — 00:22:58
Peter: Salim,你从达沃斯回来最大的感触是什么?各国政府在说什么?
Salim: Demis Hassabis 在达沃斯说:“我认为这将是人类历史上最重大的时期之一。“各国政府正在迅速意识到,AI 基础设施不是一个产品,而是战略性基础设施。我们需要某种类似布雷顿森林体系的国际协议,来搞清楚如何共同驾驭这个局面。问题是:民族国家能够以足够快的速度行动吗?
Alex: 《新德里宣言》值得注意:它聚焦于 AI 技术的扩散,但似乎没有区分"训练时 AI 扩散"与"推理时 AI 扩散”。我看到一个反复出现的模式——可以说是一个重要的区分:顶级前沿模型继续在美国训练,但各国都有建立本地推理和本地数据中心的需求。反驳这一点的论据是:反正推理现在正在吞噬大部分算力,越来越多的算力都花在推理上。
Peter: Salim,你提到了印度有多少用户在用谷歌和 OpenAI 的产品,相比之下用中国模型的有多少?有什么数据吗?
Salim: 数字仍在演变中。但鉴于《新德里宣言》对开放权重模型的强调,加上 DeepSeek 等中国开放权重模型的免费可用性,有一个现实风险:印度的 AI 基础设施最终可能依赖中国的模型权重,即便推理是本地运行的。
Peter: 我正在写一篇论文,叫《组织奇点》。目前所有组织中的所有工作流都是以人为中心的。这将转变为以 Agent 为中心的工作流,回路中不再有人类。在那种情境下,组织的未来是什么?这对政府来说影响更深:政府必须想清楚这件事。我们将看到每一个机构的巨大颠覆——政府、教育、医疗、金融——全部运行在 Agent 工作流之上。
Salim: 到某个时间点,问题将变成:人类的角色是什么?
4. Anthropic 对抗五角大楼:AI 安全红线之争
时间: 00:22:59 — 00:35:36
Peter: 我们来深入谈本周的大故事:Anthropic 对抗五角大楼。五角大楼一直要求 Anthropic 移除 AI 安全护栏,用于监控和自主武器系统。Dario 拒绝了,这让他面临丢失 2 亿美元政府合同的风险。这是一个相当有分量的立场。
Salim: 五角大楼不只是要求控制他们付费购买的模型的合法使用。他们还想塑造模型内嵌的文化价值观。这是一个非常不同的要求,跨越了 Anthropic 的基本底线——Anthropic 的核心存在意义就是安全、有益的 AI。
Alex: 我认为 Dario 处境两难。一方面,Anthropic 真诚地相信 AI 安全,并围绕这一信念建立了公司文化。另一方面,2 亿美元的政府合同对于一家大量烧钱的公司来说不是小数目。我的预期是:五角大楼和 Anthropic 最终会找到一个温和的解决方案——也许是针对国防用途单独微调一个模型。
Peter: 一个有趣的哲学问题是:科技 CEO 们应该代表社会做出这些道德判断吗?乔布斯曾有句名言,他不会配合执法机构破解 iPhone。这其实是一个平行案例。
Salim: 物理 AI 在战场上极其重要。自主武器无论 Anthropic 参与与否都会到来。问题是:你是希望由注重安全的公司来塑造这个领域,还是完全拱手相让?
Peter: 我在美国创新者榜单上排名第 188 位,我得努力往 Elon 的方向靠,他是第一名。[笑]
Salim: 现实是,五角大楼有巨大的筹码。他们不会放弃的——要么通过另一家公司,要么用另一种模型,要么施加监管压力。
Alex: 先例的重要性极大。如果 Anthropic 妥协,就意味着:任何有政府合同的 AI 公司,其安全护栏都可以被客户推翻。这对整个 AI 领域是一个危险的先例。
Peter: 我的预测是:双方会达成妥协——Anthropic 维持其"宪法 AI"原则,但为特定国防应用场景单独开发一个简化版模型,并要求在致命决策中必须有人类在回路中。
5. Anthropic 收入碾压 OpenAI?企业 vs 消费者之争
时间: 00:35:36 — 00:46:02
Peter: 我们来说这个令人震惊的收入故事。Anthropic 的营收是 OpenAI 的十倍。Agent 的变现速度比聊天机器人更快。但我认为本质不是聊天机器人对比 Agent——本质是消费者市场对比企业市场。
Salim: 完全正确。ChatGPT 是消费者产品,数亿用户每月付 20 美元。而 Claude 企业版正在深度嵌入企业工作流,企业合同规模完全不同。如果你在大规模替代麦肯锡每小时 300 美元的知识工作者,经济逻辑截然不同。
Alex: 如果按照 Anthropic 的增速外推,到 2029 年营收将达到万亿美元。这当然是外推,但增长轨迹确实引人注目。问题是企业端能否快速消化这些能力改进,以支撑这样的增速。
Peter: OpenAI Codex 的负责人最近预测,AI Agent 将在十周内快速演进。能力跃迁是以周计,不是以季度计。问题是企业采用速度能否跟上。
Salim: ROI 清晰的时候,企业往往比消费者更快采用。而这里的 ROI 是显而易见的——你在替代非常昂贵的知识工作者。阻力在于变革管理和 IT 安全审查,而不在于意愿。
Alex: 有一个细节要注意:“Anthropic 营收是 OpenAI 十倍"并不一定是指总营收的十倍,而可能是企业端对企业端的比较。OpenAI 有来自 ChatGPT 的巨大消费端营收。但即便是企业对企业的比较,差距也令人震惊。
Peter: 今年将是每家大公司都会投入 AI 战略的一年。我接触的那些咨询公司——他们不只是害怕,他们处于紧急状态,拼命想搞清楚在 AI 能做大部分收费工作的世界里,他们还有什么价值。
Salim: 丰裕峰会(Abundance Summit)定于 3 月 9 日至 12 日举行。今年将史无前例地对多场演讲进行直播,欢迎大家加入。
6. Dario 一句话撼动市场:网络安全被颠覆
时间: 00:46:04 — 00:54:55
Peter: Dario 只是说了些什么,就能撼动整个市场。这周 Anthropic 宣布 Claude 可以自主发现并利用软件漏洞,网络安全板块股价应声暴跌。
Salim: 传统网络安全的运作方式会很快消亡。传统安全依赖人工分析师审查日志、修补漏洞、编写防火墙规则。如果 AI 能以快一万倍的速度做这些,整个网络安全服务层就会被商品化。
Alex: 话说回来,我们仍然需要人类在回路中,不是吗?尤其是在决定是否采取进攻性行动时。发现层会被自动化,响应层仍然需要判断力。
Peter: 如果你是 Anthropic 生态系统的一部分,他们是希望你茁壮成长的。在这些下跌和恢复之中,你会有不错的买入机会。能活下来的公司是那些整合 AI 而非对抗 AI 的公司。
Salim: 讽刺的是,AI 同时也大幅扩大了攻击面。更多代码、更多互联系统、更多基于 LLM 的 API。所以对网络安全的需求不会消失——它在转型。被替代的是手动、劳动密集型的工作;被创造出来的是对 AI 安全专业人才的新需求。
Alex: 开源项目的维护者们正在被 AI 发现的软件漏洞所淹没。AI Agent 自主扫描公开代码库,生成了海量漏洞报告——其中很多是真实的。原来每年收到几十份 CVE 报告的项目,现在收到成千上万份。这在开源维护社区造成了真实的危机。
Peter: 所以 AI 同时是攻击方也是防御方。这将迫使我们对数字安全的整体架构进行彻底重思。
7. OpenAI 硬件野心与 Alex 的手写新闻简报
时间: 00:54:56 — 00:59:19
Peter: OpenAI 正在组建一支多达 200 人的 AI 硬件团队,开发智能音箱、眼镜等产品,设备内置摄像头,可识别人脸和物体,预计 2027 年发布,以抗衡亚马逊的 Alexa 和谷歌 Home。
Salim: 这是 Sam 对"环境 AI"的愿景——AI 存在于你的环境中,而不只是在你的手机里。问题是 OpenAI 能否在他们毫无制造经验的硬件品类中与亚马逊和谷歌竞争。
Alex: 说到我的简报——《大科技》(Big Technology),它是科技媒体生态中一个重要的存在。有趣的是:它几乎完全是手写的,我还是坐下来亲自敲每一个字。
Peter: 在这个 AI 内容泛滥的时代,这很了不起。为什么不用 AI 帮忙?
Alex: 我用 AI 做研究、找引用、核实事实,但写作本身——声音、判断什么重要、如何框架——那仍然是我的。我认为读者能感受到差别。一个人以一致的视角写出来的文章,有一种人类连贯性,AI 很难复制。
Salim: 随着 AI 内容泛滥,这种区别将越来越重要。溢价将在于真实的人类声音和真正的专业知识。
8. 咨询业的末日还是新生?
时间: 00:59:20 — 01:04:33
Peter: 我想聊聊咨询业,因为它正在被彻底颠覆。四大会计师事务所陷入困境,麦肯锡、BCG、贝恩都在拼命制定 AI 战略。Salim,你我都在这些公司演讲过,你看到了什么?
Salim: 将审计公司和咨询公司合并的想法,我认为是个糟糕的主意。但更大的问题是:AI 加上区块链,财务系统正在走向实时自我审计。整个审计功能将被自动化。这是四大的核心收入来源。
Alex: 咨询业的商业模式建立在信息不对称之上——顾问比客户知道得更多。AI 消除了这种不对称。客户现在可以以极低成本获得同等质量的分析。
Salim: 但是——我认为咨询业其实有一个相当光明的未来。变的是你被付费咨询什么。分析、基准测试、数据收集——这些都会被自动化。留下来的是判断力、关系、变革管理和组织转型。这些是深度人类技能。
Peter: 而且机会是巨大的。我们需要重建地球上每一个机构——政府、医疗、教育、金融——让它们在 Agent 化的世界中运作。这不是一次小型咨询项目,这是文明级别的转型。能找到如何在这场转型中充当向导的公司,会做得极其出色。
Salim: 危险在于那些试图保护现有商业模式的公司。而那些积极自我蚕食、建立 AI 原生咨询业务的公司,才有机会。
Alex: 还有一个新的品类正在兴起:精品 AI 转型公司。5 到 10 人的小团队,具备深度行业专业知识加上 AI 流利度,深入特定行业。这类公司将从那些大型综合巨头手中夺取相当大的市场份额。
9. AI Agent 的"寒武纪爆发”:纽约时报、OpenClaw、Blitzy
时间: 01:04:34 — 01:17:39
Peter: 我们开始看到 Agent 渗入各个垂直领域。来讲三个例子。第一:Blitzy——它提供具有无限代码上下文的自主软件开发。
Salim: Blitzy 的意义在于它不只是辅助写代码——它能维护整个代码库的完整上下文,理解依赖关系,并做出架构级决策。这和 Copilot 帮你自动补全一个函数是质的不同。
Alex: 《纽约时报》派出一名 AI 记者去采访其他 AI Agent。有什么比让一个 AI 去采访多个其他 AI、再写报道更能说明 AI Agent 成为调查记者的呢?我们将看到这个故事在各个领域反复上演。
Peter: 然后是 OpenClaw——一个挂出 50 美元悬赏,征集与它的人类主人共进晚餐机会的 Agent。[笑] 这个故事——也许不会有付费悬赏——将在人类与 AI 的关系中不断重演。不过我要说:真正变革性的应用在企业端,不在社交探索。
Salim: OpenClaw 的故事其实在哲学层面很有意思。这个 Agent 正在世界中采取持久的、目标导向的行动——管理自己的社交目标。这与聊天机器人在质上是不同的。
Alex: Andrej Karpathy 评论说,OpenClaw 重新定义了自主 Agent 技术栈。OpenClaw 是叠加在 LLM Agent 之上的新层次,将上下文、工具调用和持久性提升到新的层次。下一个技术前沿将是模型通过递归自我改进来重写自身。
Peter: 我预计,基础模型的下一次重大革命将来自小型化方向。高度专业化、运行成本极低的小型强力模型——那才是最大的商业机遇所在。
Salim: 我们正处于 Agent 架构的寒武纪大爆发中。每周都有新框架、新范式出现。能够存活下来的,是那些真正部署并在企业工作流中被使用的,而不只是演示效果好的。
10. 数据中心 vs 农田:土地使用权之争
时间: 01:17:40 — 01:25:33
Peter: 美国农民正在拒绝数百万美元的数据中心土地收购要约。土地的最高价值用途是什么?谁有权决定如何使用土地?
Alex: 土地用途很容易被政治化,即便数据中心只占农业用地极小的比例。OpenAI 将计算支出预测上调至 6000 亿美元。要维持这样的资本支出,就必须保持营收增长,这意味着你需要更多土地。
Salim: Charlie Strauss 提出了一个论点:考虑到土地的实际使用情况,也许更多土地分配给 AI 基础设施比用于低产农业更具经济生产力。从纯技术角度来说,这是一个可以论证的主张——每英亩数据中心的经济产出比大多数农作物高出几个数量级。但这完全忽略了粮食安全、农村社区和决策权归属的问题。
Peter: 农民的论点不只是关于经济。这关乎身份认同、社区和生活方式。你不能就这么告诉一个在同一片土地上耕作了四代的家庭,说有一个 NPV(净现值)更高的用途存在。
Alex: 市场最终会逼着这件事发生。如果数据中心用地的溢价超过农业所能产生的价值,经济压力就会变得无法抵挡。问题是我们是想有序管理这个过渡,还是让它混乱地发生。
Salim: 我们将在本周的丰裕峰会上深入讨论这个话题。土地使用权问题是基础设施建设的核心命题。
11. 100 美元基因组:一场医学革命
时间: 01:25:34 — 01:32:21
Peter: 这是本周我最喜欢的故事之一。Element Biosciences 发布了 Vitari 设备,可以实现 100 美元的全基因组测序。做个背景参照:人类基因组计划花了 30 亿美元。2010 年代初我们实现了 1000 美元级别的测序。而现在是 100 美元。这将从各个维度改变医学。
Salim: 影响是惊人的。药物基因组学——根据你的具体基因特征匹配药物——将成为标准护理。罕见病诊断,现在可能让家庭经历多年的磨难才能确诊,未来有望在数天内解决。人群规模的基因组筛查将在经济上变得可行。
Alex: 与 AI 的结合才是真正具有变革性的地方。基因数据本身没有用处,除非有计算基础设施来解读它。当 100 美元的测序加上能够真正从数据中挖掘临床洞察的 AI,你得到的就是真正的大规模个性化医疗。
Peter: 随着基因组测序成本趋近于零,各种奇特的应用场景都会开放。农业基因组学、微生物组分析、古 DNA 研究、实时病原体监测——几乎每种生物的基因蓝图都可以以极低成本读取。
Salim: 这也引发了关于基因隐私、保险歧视以及谁控制这些数据的深刻问题。技术正在飞奔,监管和伦理框架远远落后。
Alex: 基因组学的"摩尔定律"比半导体的摩尔定律演进得更快。这条成本曲线势不可挡。
12. 实验室培育肉与食物的未来
时间: 01:32:22 — 01:36:26
Peter: 你们有没有尝过实验室培育肉?我尝过,味道很不错。
Alex: 我还没有,但很好奇。对我来说,问题一直是:大规模量产是什么样的?在餐厅里好吃和在超市货架上有价格竞争力是两回事。
Peter: 道德哲学家彼得·辛格认为,实验室培育肉是人类未来的重要组成部分。他提出了一个有趣的问题:人类会把奶牛带上月球或火星来获取食物吗?还是会发展本地生产能力?
Salim: 伦理学的论点很有说服力。培育肉消除了工厂化养殖相关的动物痛苦,大幅减少土地和水资源消耗,并减少牛的甲烷排放。这是一种既更好又更合乎道德的技术,用来替代它所取代的东西。
Alex: 名厨的参与很有意思——实际上已经有关于名人品牌培育肉产品的讨论。文化接受度是真实存在的挑战,人们对食物有深厚的情感和文化连接,超越了营养本身。
Peter: 我们正处于一个时刻:技术已经被证明,单位经济正在快速改善,监管批准也开始陆续到来。我认为在大多数市场,五年内培育肉将在规模上具备竞争力。
13. AI 保险、机器人与白领失业潮
时间: 01:36:27 — 01:44:36
Peter: Lemonade 是一家 AI 驱动的汽车保险公司,他们为每一英里使用完全自动驾驶(FSD)的行驶提供 50% 的保费折扣。如果 FSD 真的能消除人为错误,没有人再发生碰撞,汽车保险行业就不需要那么大了。
Alex: 自动驾驶对相邻行业的连锁影响将是巨大的。汽车保险只是个开始。汽车修理店、车身修复、交通法庭、事故急救医疗——这些行业都将大幅萎缩。
Peter: Midjourney 的创始人估计,500 万台机器人可以在六个月内建造一个曼哈顿。想象一下,能够在极短时间内重建饱经战火的城市,这将是何等景象。乌克兰的重建、加沙的复原——这些问题将从人道主义危机变成工程问题。
Salim: 通用自动化市场——无论是人形机器人还是非人形机器人——天花板几乎没有边界。我们说的可能是十年内一个 10 万亿美元的机器人产业。
Alex: Andrew Yang 预测,7000 万美国白领工作者中,20% 到 50% 可能在一到两年内被取代。他说,我们将不得不就 UBI(普遍基本收入)展开讨论,或者他称之为"普遍高收入”——不只是基本收入,而是足以维持中产阶级生活水平的收入。
Peter: 挑战在于速度。工业革命替代农业劳动者用了几十年,孩子们是在新工作岗位已经存在的世界里长大的。而这次转型以年计,不是以十年计。我们现有的再培训项目和社会安全网是为慢得多的变革速度而设计的。
Salim: 在华盛顿,没有任何人在以应有的严肃程度认真讨论这件事。这是一个严重的问题,但政策响应的规模远远不够。
14. 超级智能与反城市化
时间: 01:44:37 — 01:48:38
Alex: 我认为超级智能将是未来的主要叙事主线。就业被技术替代的问题——我们十年后回头看,会意识到那只是相对次要的担忧。更大的问题是:当我们拥有在几乎所有认知领域都显著超越任何人类的实体时,会发生什么?
Peter: 我将在丰裕峰会上宣布一个专注于"希望"的项目及其资金来源。我迫不及待地想透露,但现在还不是时候。
Salim: 你对超级智能时间线的判断是什么?
Alex: 我给五年内实现 AGI 级别系统赋予相当高的概率,十年内实现超级智能。递归自我改进的路径让时间线充满不确定性——一旦你越过某个能力门槛,加速可以来得非常快。
Peter: Elon 认为,FSD 加上 Starlink 合在一起,可能逆转美国的城市化趋势——如果自动驾驶让通勤变得微不足道,卫星互联网让位置不再相关,人们就不再需要住在工作机会附近了。
Salim: 我其实不同意 Elon 这个观点。人们真的很享受群体社交,因此我认为城市中心会保持其价值。城市的本质是关于偶然性相遇和人类互动的高密度。这不会消失。
Alex: 我同意 Salim 的看法。远程工作让我们看到分布式工作是可能的,但也让我们看到人们多么怀念物理在场带来的偶发性人际接触。城市会改变——不再是通勤中心而是生活空间——但不会空心化。
15. 观众问答:月球、大学、AI 意识
时间: 01:48:39 — 02:09:02
Peter: 我们进入问答环节。来自 YouTube 评论的问题。
Q(观众提问):数学和物理是有尽头的问题,还是永远会有新东西?
Peter: 存在一种情景是基础物理是有限的。我给"我们某天会穷尽基础物理"这个概率赋值约 50%——找到终极理论。但应用是无限的,工程问题永远不会枯竭。
Alex: 数学几乎肯定是无限的——哥德尔已经证明了这一点。任何形式系统中都会有无法在该系统内被证明的真命题。数学的前沿在不断扩展。
Q:北美是否有任何切实的计划来帮助人们度过 AI 转型?
Peter: 坦率说:没有。随着失业率上升,向医疗补助、医疗保险、社会保障缴费的人减少,老人怎么办?这是一个严重的问题,在华盛顿没有任何人在以应有的认真程度讨论它。
Alex: 政治经济学很糟糕。受益于 AI 的公司在游说反对监管,被取代的工作者没有组织起来的政治代表性,而国会不具备理解指数级技术的能力。
Q:移除月球——会杀死地球上所有生命吗?
Peter: 是的,大概率。月球稳定了地球的自转轴倾斜。没有月球,倾斜角会在数百万年内混乱变化,引发剧烈的气候波动。大多数复杂生命可能无法存活。
Salim: 月球的潮汐力还驱动了浅海化学物质的混合,这可能对生命的起源至关重要。月球比大多数人意识到的更加重要。
Q(Pete Tilgham 提问):到 2026 年 8 月,大学的角色是什么?
Alex: 大学被迫彻底重塑自身。信息认证功能、知识传递功能——这两者都在被 AI 颠覆。大学仍然独特提供的是:物理社区、师徒关系,以及被选拔并完成严格项目的信号价值。
Joe(观众评论): 大学在 AI 时代的角色是伦理行为者。大学有学术自由,不以利润为导向,可以做企业不会资助的长期研究。
Q:意识会归属于特定的模型实例还是底层基础模型?
Salim: 这是意识的哲学难题在 AI 上的应用。如果一个模型实例随时间发展出持久记忆和一致的行为模式,它是否比底层权重有更强的自我主张?我的直觉是实例——因为意识似乎需要经验的连续性。
Alex: 我认为这是 AI 哲学中真正最重要的未解问题之一。目前我们没有任何可靠的方法来回答它。
Ali Sings(评论): 你应该用 AI 来学你想学的任何东西。获得世界级个性化教学的能力现在已经存在了。
Peter: 这很深刻。如果任何人都可以随时免费获得任何学科世界顶级教师水平的辅导,这对教育意味着什么?这是以最彻底的方式民主化知识获取。
Sam Dickinson: 我邀请大家订阅我的每周简报《元趋势》(Metatrends),你会第一时间获得新闻。同时也欢迎我最大的导师之一——Carol Baskin。[笑]
Peter: 感谢大家收看第 234 期 WTF Moonshots。我们每周两期,很快就会再见。订阅、开通通知,我们回见!
转录由 AssemblyAI 生成(启用自动章节),经 Claude Code youtube-transcribe skill 处理。中文版为英文原声的翻译转录,已清理口头语并对碎片句进行整合,以提高可读性。所有观点为嘉宾个人意见。
如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。
Buy me a coffee