Back to Blog

2026年3月4日

《Agentic Design Patterns》——构建智能体系统的 21 种设计模式

从 Prompt Engineering 走向 System Engineering:用 21 种可组合的设计模式,构建可规划、可反思、可协作、可治理的 Agentic AI 系统。

Agentic AI设计模式多智能体RAG系统工程

《Agentic Design Patterns》——构建智能体系统的 21 种设计模式

从“会回答问题的模型”到“能完成任务的系统”,关键差别不在单个 Prompt,而在整体架构。

💡 核心观点

AI 正在从单纯的对话式 LLM,演进为能够感知环境、调用工具、执行任务并自我修正的 Agentic AI(智能体)
真正决定上限的,已经不再是提示词技巧,而是工程化设计能力。

这篇文章将 21 种可落地的模式拆成 5 组:

  1. 核心控制流
  2. 认知与推理增强
  3. 多智能体协作
  4. 企业级稳定性与安全
  5. 工程化交付与持续演进

1. 核心控制流模式(Core Execution)

1) Prompt Chaining(提示链)

将复杂任务拆成线性步骤,上一步输出作为下一步输入,降低单次推理负担。

2) Routing(路由)

根据意图、风险等级或成本约束,把请求分发给最合适的模型或工具。

3) Parallelization(并行化)

对彼此独立的子任务并发执行,再做聚合,显著降低端到端延迟。

4) Map-Reduce Agent(映射-归约)

大任务先分片处理(Map),再统一归纳(Reduce),适合长文档总结、批量分析。

5) Deterministic State Machine(状态机编排)

把流程显式建模为状态与转移,确保关键业务路径可控、可恢复、可审计。


2. 认知与推理增强(Reasoning & Cognition)

6) Reflection(反思)

在输出前引入“批评者”环节,让 Agent 主动识别漏洞并迭代修正。

7) Planning(规划)

把高层目标分解为可执行子任务,并根据中间反馈动态重规划。

8) ReAct(推理-行动交替)

在“思考 -> 行动 -> 观察”循环中推进任务,减少纯臆测式回答。

9) Self-Consistency Voting(一致性投票)

并行采样多条推理路径,用投票或评分选最稳妥结论,降低偶然性错误。

10) Tree/Graph Search(树/图搜索)

对多个候选计划做分支探索与回溯,适合复杂决策、策略优化和博弈场景。


3. 多智能体与协作(Multi-Agent Collaboration)

11) Role-Based Team(角色分工)

把系统拆为研究员、执行者、审核员等角色,提升复杂任务吞吐与质量。

12) Supervisor-Worker(主管-工人)

由主管 Agent 做任务拆解与调度,Worker Agent 专注执行与回报。

13) Debate & Critique(辩论与互评)

多个 Agent 提出不同方案并相互质疑,最后由裁决器合并最佳方案。

14) Protocol-Oriented Interop(协议化互通)

通过 MCP、A2A 等标准协议统一上下文与工具接口,降低生态割裂成本。


4. 企业级稳定性与安全(Reliability & Safety)

15) Agentic RAG(主动检索增强)

不只是“检索 + 生成”,而是让 Agent 对来源质量、冲突证据和时效性做验证。

16) Human-in-the-Loop(人机协同)

在高风险节点(转账、发布、合规审批)设置人工确认门。

17) Guardrails(护栏)

对输入和输出做策略过滤,防注入、防越权、防有害内容扩散。

18) Policy-as-Code(策略代码化)

把安全、合规、权限规则写成可版本化策略,避免“口头规范”失效。


5. 工程化交付与持续演进(Ops & Evolution)

19) Memory Layering(分层记忆)

短期会话记忆 + 长期用户画像 + 外部知识库,按时效和粒度分层管理。

20) Contract-Driven Agent(合同驱动智能体)

把目标、输入输出、验收标准写成 Contract,让 Agent 像“承包商”交付结果。

21) Eval-Driven Iteration(评测驱动迭代)

把线上失败样本回灌到评测集,持续压缩“看起来可以”与“真实可用”的差距。


📖 可直接复用的方法论组合

组合 A:规划 + 工具使用 + 反思

适合开放式复杂任务(如研究报告、竞品分析、旅行策划)。

组合 B:路由 + 并行化 + 一致性投票

适合高并发问答与低延迟场景,在速度与质量间取得平衡。

组合 C:Agentic RAG + Guardrails + Human-in-the-Loop

适合企业场景,强调可信、合规、可追责。


🧪 示例代码 1:Routing(按意图路由模型与工具)

from typing import Literal

Intent = Literal["quick_qa", "deep_reasoning", "data_lookup"]


def classify_intent(query: str) -> Intent:
    q = query.lower()
    if any(k in q for k in ["定义", "是什么", "who", "what"]):
        return "quick_qa"
    if any(k in q for k in ["分析", "推导", "方案", "tradeoff"]):
        return "deep_reasoning"
    return "data_lookup"


def route(query: str):
    intent = classify_intent(query)

    if intent == "quick_qa":
        return call_model("flash", query)

    if intent == "deep_reasoning":
        return call_model("pro", query)

    # data_lookup
    docs = call_tool("search_api", {"q": query})
    return call_model("pro", f"基于以下资料回答:\n{docs}\n问题:{query}")

🧪 示例代码 2:Multi-Agent(主管 + 研究员 + 审核员)

from dataclasses import dataclass


@dataclass
class Task:
    goal: str


def supervisor(task: Task):
    plan = planner_agent(f"为目标制定三步计划: {task.goal}")
    draft = researcher_agent(plan)
    review = reviewer_agent(draft)

    if review["pass"]:
        return draft

    revised = researcher_agent(f"根据反馈修改:\n{review['feedback']}\n原文:{draft}")
    final_review = reviewer_agent(revised)
    return revised if final_review["pass"] else escalate_to_human(revised, final_review)

🚀 趋势展望

Vibe Coding

开发者将更多通过自然语言表达“意图与体验预期”,与 AI 协作快速试错、快速原型。

Agent as Contractor

Agent 不再只是聊天助手,而是对结果负责的执行单元:有合同、有预算、有验收。


👉 个人思考

优秀 AI 应用的分水岭,不在“会不会写 Prompt”,而在“会不会做系统”。

当你把 规划(Planning)+ 工具使用(Tool Use)+ 反思(Reflection)+ 护栏(Guardrails) 组合起来, AI 的行为会从“概率性灵感”逐步走向“可控、可复现、可交付”。

这正是 Agentic Design Patterns 的价值。