# 本周 HuggingFace 热度第一的论文:RecursiveMAS(递归多Agent系统) 多个 AI 组队协作,现在已经是主流方案。 模型 A 想好了传给模型 B,模型 B 想好了传给模型 ... Canonical URL: https://www.traeai.com/articles/17f44dcf-7572-49c5-a918-0c35294d11ef Original source: https://x.com/vista8/status/2050390804103888912 Source name: 向阳乔木(@vista8) Content type: tweet Language: 中文 Score: 7.8 Reading time: 3 分钟 Published: 2026-05-02T01:43:56+00:00 Tags: Multi-Agent, LLM, Recursive Reasoning, HuggingFace, AI Systems ## Summary RecursiveMAS 提出 Agent 间直接传递内部向量而非文本,减少 token 翻译开销,在数学推理任务上提升 13–18 个百分点,推理快 2.4×,Token 节省 75%。 ## Key Takeaways - Agent 协作中文字中转导致严重信息损失与计算冗余 - RecursiveMAS 用轻量向量接口替代文本通信,形成递归闭环 - 仅训练小型‘传话模块’,底层模型冻结,训练成本低于 LoRA ## Outline - 背景:多 Agent 协作的瓶颈 — 当前主流多 Agent 系统依赖文本中继,造成翻译损耗与信号衰减。 - 核心创新:向量级递归通信 — Agent 间跳过文本生成/理解,直接交换隐状态向量,构建递归迭代闭环。 - 轻量训练范式 — 仅微调极小的跨 Agent 映射模块,基座模型完全冻结。 - 实证优势 — 在 AIME 数学竞赛任务上显著超越基线,且随递归轮次增加收益放大。 ## Highlights - > 每次交接都要把内部计算结果'翻译'成 token,下一个模型再重新'读懂',再翻译……轮次越多,无效开销越多,而且会影响学习信号回传。 — 第 1 段 - > Agent 之间不传文字,直接传模型内部的数值向量。形成一个递归闭环,迭代打磨,只有最后一轮输出文本答案。 — 第 2 段 - > 连接模块极其轻量,底层模型全程不动,只训练中间那个'传话'的小模块。 — 第 2 段 - > AIME 顶级数学竞赛题上,比最强基线高 13–18 个百分点。推理速度快 2.4×,Token 用量少 75%,训练成本比 LoRA 还低。 — 第 2 段 ## Citation Guidance When citing this item, prefer the canonical traeai article URL for the AI-readable summary and include the original source URL when discussing the underlying source material.