《Agentic Design Patterns》——构建智能体系统的 21 种设计模式
从“会回答问题的模型”到“能完成任务的系统”,关键差别不在单个 Prompt,而在整体架构。
💡 核心观点
AI 正在从单纯的对话式 LLM,演进为能够感知环境、调用工具、执行任务并自我修正的 Agentic AI(智能体)。
真正决定上限的,已经不再是提示词技巧,而是工程化设计能力。
这篇文章将 21 种可落地的模式拆成 5 组:
- 核心控制流
- 认知与推理增强
- 多智能体协作
- 企业级稳定性与安全
- 工程化交付与持续演进
1. 核心控制流模式(Core Execution)
1) Prompt Chaining(提示链)
将复杂任务拆成线性步骤,上一步输出作为下一步输入,降低单次推理负担。
2) Routing(路由)
根据意图、风险等级或成本约束,把请求分发给最合适的模型或工具。
3) Parallelization(并行化)
对彼此独立的子任务并发执行,再做聚合,显著降低端到端延迟。
4) Map-Reduce Agent(映射-归约)
大任务先分片处理(Map),再统一归纳(Reduce),适合长文档总结、批量分析。
5) Deterministic State Machine(状态机编排)
把流程显式建模为状态与转移,确保关键业务路径可控、可恢复、可审计。
2. 认知与推理增强(Reasoning & Cognition)
6) Reflection(反思)
在输出前引入“批评者”环节,让 Agent 主动识别漏洞并迭代修正。
7) Planning(规划)
把高层目标分解为可执行子任务,并根据中间反馈动态重规划。
8) ReAct(推理-行动交替)
在“思考 -> 行动 -> 观察”循环中推进任务,减少纯臆测式回答。
9) Self-Consistency Voting(一致性投票)
并行采样多条推理路径,用投票或评分选最稳妥结论,降低偶然性错误。
10) Tree/Graph Search(树/图搜索)
对多个候选计划做分支探索与回溯,适合复杂决策、策略优化和博弈场景。
3. 多智能体与协作(Multi-Agent Collaboration)
11) Role-Based Team(角色分工)
把系统拆为研究员、执行者、审核员等角色,提升复杂任务吞吐与质量。
12) Supervisor-Worker(主管-工人)
由主管 Agent 做任务拆解与调度,Worker Agent 专注执行与回报。
13) Debate & Critique(辩论与互评)
多个 Agent 提出不同方案并相互质疑,最后由裁决器合并最佳方案。
14) Protocol-Oriented Interop(协议化互通)
通过 MCP、A2A 等标准协议统一上下文与工具接口,降低生态割裂成本。
4. 企业级稳定性与安全(Reliability & Safety)
15) Agentic RAG(主动检索增强)
不只是“检索 + 生成”,而是让 Agent 对来源质量、冲突证据和时效性做验证。
16) Human-in-the-Loop(人机协同)
在高风险节点(转账、发布、合规审批)设置人工确认门。
17) Guardrails(护栏)
对输入和输出做策略过滤,防注入、防越权、防有害内容扩散。
18) Policy-as-Code(策略代码化)
把安全、合规、权限规则写成可版本化策略,避免“口头规范”失效。
5. 工程化交付与持续演进(Ops & Evolution)
19) Memory Layering(分层记忆)
短期会话记忆 + 长期用户画像 + 外部知识库,按时效和粒度分层管理。
20) Contract-Driven Agent(合同驱动智能体)
把目标、输入输出、验收标准写成 Contract,让 Agent 像“承包商”交付结果。
21) Eval-Driven Iteration(评测驱动迭代)
把线上失败样本回灌到评测集,持续压缩“看起来可以”与“真实可用”的差距。
📖 可直接复用的方法论组合
组合 A:规划 + 工具使用 + 反思
适合开放式复杂任务(如研究报告、竞品分析、旅行策划)。
组合 B:路由 + 并行化 + 一致性投票
适合高并发问答与低延迟场景,在速度与质量间取得平衡。
组合 C:Agentic RAG + Guardrails + Human-in-the-Loop
适合企业场景,强调可信、合规、可追责。
🧪 示例代码 1:Routing(按意图路由模型与工具)
from typing import Literal
Intent = Literal["quick_qa", "deep_reasoning", "data_lookup"]
def classify_intent(query: str) -> Intent:
q = query.lower()
if any(k in q for k in ["定义", "是什么", "who", "what"]):
return "quick_qa"
if any(k in q for k in ["分析", "推导", "方案", "tradeoff"]):
return "deep_reasoning"
return "data_lookup"
def route(query: str):
intent = classify_intent(query)
if intent == "quick_qa":
return call_model("flash", query)
if intent == "deep_reasoning":
return call_model("pro", query)
# data_lookup
docs = call_tool("search_api", {"q": query})
return call_model("pro", f"基于以下资料回答:\n{docs}\n问题:{query}")
🧪 示例代码 2:Multi-Agent(主管 + 研究员 + 审核员)
from dataclasses import dataclass
@dataclass
class Task:
goal: str
def supervisor(task: Task):
plan = planner_agent(f"为目标制定三步计划: {task.goal}")
draft = researcher_agent(plan)
review = reviewer_agent(draft)
if review["pass"]:
return draft
revised = researcher_agent(f"根据反馈修改:\n{review['feedback']}\n原文:{draft}")
final_review = reviewer_agent(revised)
return revised if final_review["pass"] else escalate_to_human(revised, final_review)
🚀 趋势展望
Vibe Coding
开发者将更多通过自然语言表达“意图与体验预期”,与 AI 协作快速试错、快速原型。
Agent as Contractor
Agent 不再只是聊天助手,而是对结果负责的执行单元:有合同、有预算、有验收。
👉 个人思考
优秀 AI 应用的分水岭,不在“会不会写 Prompt”,而在“会不会做系统”。
当你把 规划(Planning)+ 工具使用(Tool Use)+ 反思(Reflection)+ 护栏(Guardrails) 组合起来, AI 的行为会从“概率性灵感”逐步走向“可控、可复现、可交付”。
这正是 Agentic Design Patterns 的价值。