这篇文章介绍了ReAct及其增强模式Reflexion两种Agent框架。
ReAct结合推理与行动,通过"思考-行动-观察"循环解决LLM的幻觉问题和无法与外界交互的问题。实现依赖提示词引导思维链、 定义可用工具、规范输出格式和注入领域知识,本质上仍是文本生成。
Reflexion在ReAct基础上增加自我反思能力,通过Actor(执行)、Evaluator(评估)、Self-Reflection(反思)三个LLM协作 ,从失败中学习并持续改进。相比ReAct的单次尝试,Reflexion支持多次迭代和经验持久化,但Token消耗更高。
文章还解释了原生function calling通过训练+特殊token+API封装实现,以及何时选择Reflexion:复杂任务、错误模式可预测、允许多次尝试的场景。即使有了原生function calling,ReAct的提示词模式对编写Claude Code等特定任务仍有价值。
这篇文章介绍了ReAct及其增强模式Reflexion两种Agent框架。
ReAct结合推理与行动,通过"思考-行动-观察"循环解决LLM的幻觉问题和无法与外界交互的问题。实现依赖提示词引导思维链、 定义可用工具、规范输出格式和注入领域知识,本质上仍是文本生成。
Reflexion在ReAct基础上增加自我反思能力,通过Actor(执行)、Evaluator(评估)、Self-Reflection(反思)三个LLM协作 ,从失败中学习并持续改进。相比ReAct的单次尝试,Reflexion支持多次迭代和经验持久化,但Token消耗更高。
文章还解释了原生function calling通过训练+特殊token+API封装实现,以及何时选择Reflexion:复杂任务、错误模式可预测、允许多次尝试的场景。即使有了原生function calling,ReAct的提示词模式对编写Claude Code等特定任务仍有价值。