1 个人指挥 5 个 AI 互相吵架调 Bug:Claude Agent Teams 大白话解读

本文转载自 向阳乔木 (@vista8)Twitter


你有没有想过,让 AI 像一个真正的团队一样工作?

不是那种你问一句、它答一句的模式,而是你说一个需求,然后一群 AI 自己讨论、分工、互相挑战对方的观点,最后给你一个经过充分论证的结果。

这听起来像科幻片,但 Anthropic 刚刚把它变成了现实。


一个人干活 vs 一个团队干活

先说个场景你就懂了。

假设你的代码出了 bug,用户反馈"程序启动后马上就退出"。

按照传统方式,你让 AI 去查,它会一条路走到黑——先猜一个原因,试一下,不行再换一个。

但如果你有一个 AI 团队呢?

你可以同时派 5 个 AI 去调查 5 个不同的假设:

  • 一个去查内存问题
  • 一个去查配置文件
  • 一个去查依赖版本
  • 一个去查网络连接
  • 一个去查日志系统

更有意思的是,这 5 个 AI 还会互相辩论

张三说"我觉得是内存问题",李四会说"不对,你的证据不充分,我这边发现日志里有明显的配置错误"。

就像一群工程师在白板前讨论问题,互相质疑、互相验证,最后收敛到真正的答案。

这就是 Claude Code 新推出的 Agent Teams 功能。


这和之前的 Subagent 有什么区别?

你可能会问:Claude Code 之前不是已经有 Subagent 了吗?让 AI 生成多个子任务并行执行?

对,但那是完全不同的东西。

Subagent 像是你派出去的侦察兵

你给它一个任务,它干完了把结果交给你,任务结束。侦察兵之间不会聊天,也不会质疑对方的情报。

Agent Teams 像是一个真正的项目组

每个成员都是独立的个体,有自己独立的上下文记忆。他们可以直接给彼此发消息,可以开会讨论,可以反驳对方的观点。

对比维度SubagentAgent Teams
交互模式单向汇报互相沟通
上下文共享父级各自独立
生命周期任务结束即销毁持续存在
协作方式并行但独立可以互相质疑
成本较低较高

什么时候用哪个?

  • 简单任务用 Subagent,便宜高效
  • 需要深度讨论、互相质疑的复杂任务用 Agent Teams

怎么玩?三分钟上手

先说怎么开启。这是实验性功能,需要在配置文件里手动打开:

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}

然后,你直接用自然语言就能创建团队:

创建一个团队来评审这个 PR,我要三个评审员:

  • 一个专门找安全漏洞
  • 一个关注性能影响
  • 一个检查测试覆盖率

就这么简单。

创建完成后,你会看到一个 Team Lead(团队领导)和三个 Teammates(队友)。他们共享一个任务列表,可以互相发消息,各干各的活。

有个很酷的功能叫 delegate mode,按 Shift+Tab 切换。开启后,你(Team Lead)只负责协调,不干具体的活,全部交给队友——像一个真正的项目经理。


我最喜欢的用法:科学辩论法调试

文档里有个案例让我眼前一亮。

用户反馈 app 启动后马上退出,你不确定是什么原因。

传统方法是猜一个、试一个,可能要折腾半天。

用 Agent Teams 的玩法是:

用户报告 app 发一条消息后就退出了。 创建 5 个队友,每个人调查一个不同的假设。 让他们互相交流,尝试反驳对方的理论,像科学辩论一样。

然后你就可以喝杯咖啡,看这 5 个 AI 互相"吵架"。

想象中的对话可能是这样的:

  • A 说:“我觉得是退出代码写错了。”
  • B 说:“不对,我查了代码,退出逻辑没问题,但我发现消息队列有异常。”
  • C 说:“等等,我这边发现日志显示是网络超时触发的…”

最后,他们会收敛到一个最有说服力的结论。

这比你一个人盯着屏幕瞎猜高效多了。


当然,也有坑

这是实验功能,官方文档明确说了几个限制:

限制说明
不支持会话恢复关掉终端,队友就没了
每次只能管一个团队不能同时开多个项目组
成本比较高每个队友都是独立的 Claude 实例
可能会抢文件两个队友同时改同一个文件会出问题
需要调试耐心实际体验可能需要多次尝试

官方建议:新手先从"不写代码"的任务开始练手,比如让团队做代码评审、做调研分析。等熟悉了再挑战多人协作开发。


我的思考

这个功能让我看到了 AI 辅助编程的下一个阶段。

之前我们用 AI,本质上还是"你问我答"的模式。AI 是一个超级助手,但它是被动的。

Agent Teams 开始让 AI 有了**“主动协作”**的能力。它们可以自己分工、自己讨论、自己质疑对方。你更像是一个导演或产品经理,提出需求,然后看 AI 团队交付结果。

这让我想起一个问题:未来的软件开发,会不会变成"1 个人类 + N 个 AI"的标配?

人类负责定义问题、做关键决策、把控方向;AI 团队负责调研、实现、测试、互相 review。

听起来有点科幻,但 Agent Teams 已经在往这个方向迈出了第一步。


快速开始

  1. ~/.claude/settings.json 加上 CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS: "1"
  2. 打开 Claude Code,输入"创建一个 3 人代码评审团队"
  3. 避免让多个队友同时改同一个文件
  4. 给队友足够的上下文(它们不会继承你的对话历史)

官方文档:Claude Agent Teams


原文作者:向阳乔木 (@vista8)

如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。

Buy me a coffee