AgentKnowledgeAgentKnowledgeAgentKnowledge
文档案例博客
AgentKnowledgeAgentKnowledgeAgentKnowledge

深入 Agent,构建你的专属。致力于打造体系化的 AI Agent 开发者学习平台。

学习路径

DocsAI BasicsMCPAgent 实战

社区

ShowcaseBlogGitHub

账号

User CenterLogin

© 2026 AgentKnowledge.cn. 保留所有权利。

  • Agent
  • System Prompt
  • Prompt
  • Prompt Engineering
  • Zero-shot / Few-shot
  • Chain of Thought(CoT)
  • ReAct
  • SKILL(Agent技能)
  • Memory(Agent记忆)
  • RAG
  • Retrieval
  • Embedding
  • Embedding Model
  • Vector Database
  • Cosine Similarity
  • MCP(Model Context Protocol)
  • Tool Calling
  • Function Schema
  • Structured Output
  • OpenClaw
  • Harness Engineering(驾驭工程)
  • Token
  • Context Window
  • Temperature
  • Top-p
  • Transformer 架构
  • MCP
  • Agent

Chain of Thought(CoT)

为什么需要 Chain of Thought

模型做数学题,答案对了不一定是真的对了——它可能跳步猜对了,也可能是背到了答案。

很多任务的关键不是"最终答案对不对",而是"中间步骤对不对":

  • 从题目里提取条件
  • 判断条件之间的关系
  • 选择合适的方法
  • 检查是否自相矛盾

如果让模型直接输答案,中间错了很难发现。CoT 就是来解决这个问题的:让模型先把思考过程说出来,再给结论。


什么是 Chain of Thought

一句话定义:CoT(思维链)是一种引导模型按步骤展开推理的方法,让中间判断过程显式化,减少跳步和拍脑袋。

直觉例子:

用户问题:一个商店有 5 个苹果,卖掉了 3 个,又进货 2 个,现在有多少个?

普通回答:4 个

CoT 风格回答:
1. 起始有 5 个
2. 卖掉 3 个后剩 2 个
3. 再进货 2 个后变成 4 个
4. 最终答案是 4 个

为什么有用:因为把思考过程拆开后,错误更容易被发现,也更容易被纠正。


怎么做:CoT 的常见形式

Zero-shot CoT:不给示例,只加一句"请一步步思考"。适合快速增强推理,实现成本最低。

Few-shot CoT:先给几个标准推理样例,让模型照着模仿。适合固定题型或固定格式要求。这和 Zero-shot / Few-shot 的思想一脉相承。

Self-Consistency:让模型生成多条推理路径,再选最一致的结果。适合高价值推理任务,但 Token 消耗更大。

Hidden Reasoning:内部用 CoT 分析,对外只输出结论和关键依据。更适合生产环境产品。


什么时候用 / 不用

适合用 CoT 的场景:

  • 数学与符号推理:计算、比较、公式转换
  • 逻辑判断:条件推导、排除法、因果分析
  • 代码调试:定位报错、分析调用链、判断根因
  • Agent 规划:决定先查什么、再做什么、何时终止

不太需要 CoT 的场景:

  • 纯事实记忆类问题:比如"中国的首都是哪里",不需要推理
  • 简单一次性问答:不需要拆解步骤

CoT 让模型"先想",但"想"完还得"做"——这引出了 ReAct 的概念:思考 + 行动 + 观察的闭环。


记住这一句:CoT 让模型"先想后答"——把中间步骤显式化,让错误更容易被发现和纠正。

相关词条:ReAct · Zero-shot / Few-shot

相关词条

ReActTemperatureZero-shot / Few-shotPrompt Engineering

标签

思维链chain of thought推理链cot逐步思考

目录

为什么需要 Chain of Thought什么是 Chain of Thought怎么做:CoT 的常见形式什么时候用 / 不用