看到一篇推文说是 Anthropic 又新发布了一种新的形式,叫做 advisor strategy ,翻译为战略顾问。它的主要形式不难理解,我给大家解读下:
The advisor strategy on the Claude Platform
The advisor strategy on the Claude Platform
首先 Advisor 是一个「决策者」的角色,这个角色也是一个战略顾问,全能型人才,负责把控一切,但是它不主要做事儿,这个角色由 Opus 4.6 来承载。
Executor 是一个「执行者」角色,这个角色的定位是工匠说白了就一臭打工的,负责执行,干活,运行,自循环。Executor 可以做很多任务,用很多 ide、db、中间件、框架、前端,想咋用咋用,把活干了就行。
看到这里你也许会发现,这 TM 不就是像极了我现在天选打工人的角色吗?只不过这次的对象换成了 Claude Code,这不是天选打工人了,这是天选 Agent。最终还是 Sonnet 和 Haiku 背锅扛下了所有。
好了看到这里,如果你理解了下文就不用看了,如果你觉得有点意思,不妨看下去,多陪我一会儿。
这不是一个小功能更新。在我看来,这是 Anthropic 对当前 AI Agent 领域最深刻矛盾的一次正面回应。
一个真实的行业痛点
过去一年,AI Agent 的叙事非常热闹。大家都在讲「让 AI 自主完成复杂任务」,但真正把 Agent 跑在生产环境里的团队都知道,成本真的烧不起。
逻辑很简单。你希望 Agent 足够聪明,能在复杂场景下做出正确判断——那你就得用最强的模型。但最强的模型意味着最贵的推理成本。而 Agent 的特点偏偏是调用频繁、上下文长、工具交互多,每一轮都在烧钱。
很多团队的做法是「忍痛用大模型」或者「硬着头皮用小模型然后接受更高的失败率」。这两条路都不太走得通。
Anthropic 的解法:让小模型开车,大模型坐副驾
Advisor Strategy 的核心思路,说起来其实非常直觉:
Sonnet(或 Haiku)负责完整的任务执行——调用工具、读写文件、和用户交互、循环迭代,所有脏活累活它来干。当它遇到超出自身能力的决策点时,它会主动「举手」,把问题交给 Opus。
Opus 作为顾问介入——它不直接操作任何工具,不生成面向用户的输出,它只做一件事:给出方向性判断。然后 Sonnet 拿着这个判断继续执行。
技术实现上,Anthropic 把它做成了 Messages API 里的一个内置工具类型 advisor_20260301。开发者只需要在请求里加一个工具声明,就能激活这个模式。所有的模型间通信都发生在一次 API 请求内部,不需要额外的网络往返。
这里面有一个关键设计:max_uses 参数。你可以精确控制每次请求中 Opus 最多被咨询几次。这不是一个「要么全用大模型,要么全用小模型」的二选一,而是一个连续的、可调节的智能-成本光谱。
数据说话
Anthropic 给出的基准测试数据相当有说服力:
Sonnet + Opus 顾问的表现是——在 SWE-bench Multilingual 上相比 Sonnet 单独运行提升了 2.7 个百分点,同时每个 Agent 任务的成本反而降低了 11.9%。性能更好,成本更低,这在大模型领域是非常少见的「帕累托改进」。
image-20260410083610654
更有意思的是 Haiku + Opus 顾问的数据。Haiku 单独在 BrowseComp 上只能拿到 19.7% 的分数,加上 Opus 顾问之后直接翻倍到 41.2%——虽然还追不上 Sonnet 单独跑的成绩,但成本只有 Sonnet 的 15%。对于那些高并发、对成本敏感但又不能容忍太低智能水平的场景,这个组合打开了一个全新的可用区间。
image-20260410083727340
为什么说这步棋走得漂亮
这个策略的精妙之处不仅仅在于技术实现,更在于它背后的产品哲学。
第一,它重新定义了「模型能力」的边界。
以前我们评价一个模型,基本就是看它的绝对能力上限。Opus 最强,所以要做难事就得用 Opus。但 Advisor Strategy 告诉你:一个模型的有效能力不只取决于它自身的参数量,还取决于它能调用什么级别的「大脑」。Sonnet 加上 Opus 顾问,在很多任务上的表现已经逼近甚至超过了 Opus 直接执行——但成本天差地别。
这本质上是在说:模型的能力可以被组合出来,而不是只能被训练出来。
第二,它把 Agent 架构从「分治」推向了「升级」。
之前业界主流的多模型协作模式是 Orchestrator 模式——大模型做规划、分解任务,小模型去执行子任务。这个模式的问题在于,大模型承担了全部的规划成本,而且任务分解本身就是一种信息损耗。
Advisor 模式反过来了。小模型拥有完整的上下文和执行控制权,它只在真正需要的时候才去咨询大模型。这意味着大模型的推理能力被用在了刀刃上,而不是浪费在那些小模型完全可以自己搞定的常规操作上。
第三,它给 Anthropic 自己建立了一个完美的商业飞轮。
想想看:这个功能让开发者有动力同时使用 Anthropic 的多个模型,而不是只选其中一个。
开发者在 Haiku 的低成本和 Opus 的高智能之间不再是非此即彼,而是可以灵活混搭。这意味着 Anthropic 的每个模型层级都有了清晰的商业价值——Haiku 靠量,Opus 靠质,Sonnet 居中调和。
对开发者来说,这降低了选择焦虑;对 Anthropic 来说,这最大化了模型矩阵的整体收入。双赢。
对行业的启示
Advisor Strategy 的推出,让我想到几件更大的事。
首先,AI 基础设施的竞争正在从「谁的模型最大」转向「谁的调度最聪明」。模型本身的能力当然重要,但如何把不同级别的模型编排在一起、让总体的性价比最优化,这正在成为新的竞争维度。
其次,这可能会加速 AI Agent 的真正落地。很多企业不是不想用 Agent,是算了一笔账之后觉得 ROI 不划算。如果一个简单的 API 参数调整就能让 Agent 的运行成本降低 85%,同时智能水平翻倍,那很多之前算不过来的账突然就算得过来了。
最后,这也给竞争对手们出了一道题。OpenAI、Google 接下来是跟进类似的分层策略,还是试图用更便宜的单一大模型来正面竞争?这个选择本身就很有看头。
写在最后
技术行业有一个常见的误区:把「用更大的模型」等同于「更好的解决方案」。Anthropic 的 Advisor Strategy 用一种优雅的方式证明了——聪明地组合,往往比粗暴地堆料更有效。
这让我想起软件工程领域一个古老的道理:好的架构不是让每个组件都变成最强的,而是让每个组件在最合适的位置发挥恰好的作用。
Opus 不需要全程在线,它只需要在关键时刻说对那几句话。这不正是「顾问」的精髓吗?
声明:来自cxuanAI,仅代表创作者观点。链接:https://eyangzhen.com/7395.html