
项目 概述
TradingAgents 是由 Tauric Research 团队开发的开源框架,旨在探索 LLM 在金融交易决策中的应用潜力。它在 GitHub 上获得了超过 31,000 个星标,并有详细的学术论文支撑,代表了当前 LLM 金融应用领域的前沿研究方向。
其核心思想是任务分解与角色扮演。 它将复杂的交易决策过程分解为多个子任务,并为每个任务分配一个专门的 LLM Agent。 这些 Agent 拥有不同的角色、技能和视角,通过结构化的协作与辩论,共同形成最终的交易信号(BUY, SELL, 或 HOLD)。 与传统的事件驱动型自动下单引擎不同,TradingAgents 是一个创新的多智能体(Multi-Agent)金融决策框架。
任务分解
将复杂交易决策拆分为分析、研究、交易、风控等子任务
- >基本面分析
- >技术分析
- >新闻监控
- >情绪分析
角色扮演
每个 Agent 拥有独立角色和专业视角,模拟真实交易公司
- >分析师团队
- >研究员团队
- >交易员
- >风控团队
结构化辩论
多空辩论 + 风险评估辩论,避免单一 LLM 偏见
- >看多 vs 看空
- >激进 vs 保守
- >多轮迭代
- >最终裁决
核心架构: 模拟真实交易公司
TradingAgents 的最大创新在于其组织架构,它模仿了一家典型的量化交易公司,设立了分析、研究、交易和风控等多个团队。整个决策流程是一个精心设计的图(Graph),由 LangGraph 框架实现。
| 团队/角色 | 核心职责 | 技术实现 |
|---|---|---|
| 分析师团队 (Analyst Team) | 并行收集和处理来自不同维度的市场信息,生成初步分析报告 | 每个分析师是独立 Agent,调用不同工具获取数据 |
| 基本面分析师 | 分析公司财报、盈利能力、内部交易等 | 调用 get_fundamentals, get_balance_sheet 等工具 |
| 技术分析师 | 计算和解读技术指标(MACD, RSI),分析价格模式 | 调用 get_stock_data, get_indicators 等工具 |
| 新闻分析师 | 监控全球新闻、宏观事件和公司公告 | 调用 get_news, get_global_news 等工具 |
| 情绪分析师 | 分析社交媒体(X/Twitter, Reddit)的情绪趋势 | 调用 get_news 等工具分析文本情绪 |
| 研究员团队 (Researcher) | 对分析师报告进行深度评估和辩论 | 包含看多(Bull)和看空(Bear)两个 Agent |
| 交易员 (Trader) | 基于研究员辩论结果,制定具体交易计划 | 综合所有信息,决定交易方向和时机 |
| 风控团队 (Risk Mgmt) | 从不同风险偏好角度审查交易计划 | 激进、中性、保守三个 Agent 辩论 |
| 基金经理 (Fund Manager) | 最终决策者,审批或否决交易计划 | 对整个流程输出做最终裁决 |
工作流: 基于 LangGraph 的状态驱动
TradingAgents 的'事件驱动'体现在其基于 LangGraph 构建的状态机工作流上。整个决策过程是一个有向无环图(DAG),每个节点的完成会触发图中的下一个节点。
启动与分析
工作流从分析师团队开始,四个分析师并行工作,各自生成分析报告并更新到全局状态(AgentState)中。
多空辩论
分析完成后,进入研究员团队。看多和看空研究员基于分析报告进行多轮辩论。辩论轮次由配置参数 max_debate_rounds 控制。
投资决策
辩论结束后,研究经理总结辩论结果,并交由交易员制定初步的投资计划。
风险评估
交易员的计划被提交给风控团队。激进、中性和保守三个 Agent 从各自的风险偏好出发,对计划进行再次辩论。
最终裁决
风控辩论结束后,风险裁判(基金经理)做出最终的交易决策:BUY, SELL, 或 HOLD。
核心机制: 反思与记忆
为了让 Agent 能够从过去的决策中学习,TradingAgents 设计了一套精巧的反思(Reflection)和记忆(Memory)机制,形成完整的学习闭环。
反思 (Reflection)
在一个交易决策执行后(在回测环境中),系统会根据该决策带来的收益或亏损,启动反思流程。 Reflector 模块会调用 LLM,复盘整个决策链条,分析每个环节的正确性,并生成"经验教训"的总结。
记忆 (Memory)
反思得出的"经验教训"会被存入对应 Agent 的记忆库中。记忆库使用经典的 BM25 算法实现文本检索系统。 当 Agent 未来遇到新的市场情况时,它会先检索相似的历史情境,并将当时学到的"经验教训"作为决策参考。 这形成了一个完整的学习闭环,且完全在本地运行。
为了平衡成本和效果,框架采用了"快思慢想"的策略:
| 类型 | 用途 | 模型示例 |
|---|---|---|
| quick_think_llm | 数据检索、摘要等简单任务 | gpt-5-mini |
| deep_think_llm | 深度推理的决策和辩论环节 | gpt-5.2 |
实验 表现
根据论文数据,TradingAgents 在多只股票的回测中表现远超传统策略。
| 股票 | TradingAgents 收益 | 买入持有收益 | TradingAgents 夏普比率 |
|---|---|---|---|
| AAPL (苹果) | +26.62% | -5.23% | 显著更高 |
| GOOGL (谷歌) | 优于基准 | 基准 | 显著更高 |
| MSFT (微软) | 优于基准 | 基准 | 显著更高 |
核心优势
- >结构化协作:通过角色扮演和辩论,避免单一 LLM 偏见和幻觉
- >深度推理:多轮次辩论实质上是思维链(CoT)的深化
- >学习与进化:反思+记忆机制使框架具备从历史经验中学习的能力
需要注意
- >非实时执行引擎:定位是决策生成器,不处理与交易所的实时连接
- >回测依赖性:表现高度依赖于回测数据和所使用的 LLM 模型
- >延迟和数据质量在真实市场中可能带来新的挑战
事件驱动型量化交易 Agent 系统
TradingAgents + NautilusTrader + THGNN + OpenClaw