T
traeai
登录
返回首页
向阳乔木(@vista8)

本周 HuggingFace 热度第一的论文:RecursiveMAS(递归多Agent系统) 多个 AI 组队协作,现在已经是主流方案。 模型 A 想好了传给模型 B,模型 B 想好了传给模型 ...

7.8Score
本周 HuggingFace 热度第一的论文:RecursiveMAS(递归多Agent系统)

多个 AI 组队协作,现在已经是主流方案。

模型 A 想好了传给模型 B,模型 B 想好了传给模型 ...
AI 深度提炼
  • Agent 协作中文字中转导致严重信息损失与计算冗余
  • RecursiveMAS 用轻量向量接口替代文本通信,形成递归闭环
  • 仅训练小型‘传话模块’,底层模型冻结,训练成本低于 LoRA

结构提纲

按章节快速跳转。

  1. 当前主流多 Agent 系统依赖文本中继,造成翻译损耗与信号衰减。

  2. Agent 间跳过文本生成/理解,直接交换隐状态向量,构建递归迭代闭环。

  3. 仅微调极小的跨 Agent 映射模块,基座模型完全冻结。

  4. 在 AIME 数学竞赛任务上显著超越基线,且随递归轮次增加收益放大。

思维导图

用一张图看清主题之间的关系。

正在生成思维导图…
查看大纲文本(无障碍 / 无 JS 友好)
  • RecursiveMAS:向量级递归多 Agent 系统
    • 问题根源
      • 文本中继导致翻译损耗
      • 信号回传弱化
      • Token 开销随轮次指数增长
    • 关键技术
      • 隐状态向量直连
      • 单点输出文本
      • 冻结基座 + 小模块微调
    • 实证效果
      • AIME +13–18pt
      • 推理加速 2.4×
      • Token 减少 75%

金句 / Highlights

值得收藏与分享的关键句。

  • 每次交接都要把内部计算结果'翻译'成 token,下一个模型再重新'读懂',再翻译……轮次越多,无效开销越多,而且会影响学习信号回传。

    第 1 段

    ⬇︎ 下载 PNG𝕏 分享到 X
  • Agent 之间不传文字,直接传模型内部的数值向量。形成一个递归闭环,迭代打磨,只有最后一轮输出文本答案。

    第 2 段

    ⬇︎ 下载 PNG𝕏 分享到 X
  • 连接模块极其轻量,底层模型全程不动,只训练中间那个'传话'的小模块。

    第 2 段

    ⬇︎ 下载 PNG𝕏 分享到 X
  • AIME 顶级数学竞赛题上,比最强基线高 13–18 个百分点。推理速度快 2.4×,Token 用量少 75%,训练成本比 LoRA 还低。

    第 2 段

    ⬇︎ 下载 PNG𝕏 分享到 X
#Multi-Agent#LLM#Recursive Reasoning#HuggingFace#AI Systems
打开原文

多个 AI 组队协作,现在已经是主流方案。

模型 A 想好了传给模型 B,模型 B 想好了传给模型 C,一棒接一棒。

但传的东西是文字。

每次交接都要把内部计算结果"翻译"成 token,下一个模型再重新"读懂",再翻译……" / X

向阳乔木 on X: "本周 HuggingFace 热度第一的论文:RecursiveMAS(递归多Agent系统) 多个 AI 组队协作,现在已经是主流方案。 模型 A 想好了传给模型 B,模型 B 想好了传给模型 C,一棒接一棒。 但传的东西是文字。 每次交接都要把内部计算结果"翻译"成 token,下一个模型再重新"读懂",再翻译……" / X

Don’t miss what’s happening

People on X are the first to know.

Log in

Sign up

Post

See new posts

Conversation

![Image 1](http://x.com/vista8)

向阳乔木

@vista8

Show translation

本周 HuggingFace 热度第一的论文:RecursiveMAS(递归多Agent系统) 多个 AI 组队协作,现在已经是主流方案。 模型 A 想好了传给模型 B,模型 B 想好了传给模型 C,一棒接一棒。 但传的东西是文字。 每次交接都要把内部计算结果"翻译"成 token,下一个模型再重新"读懂",再翻译…… 轮次越多,无效开销越多,而且会影响学习信号回传。 RecursiveMAS 做法: Agent 之间不传文字,直接传模型内部的数值向量。 形成一个递归闭环,迭代打磨,只有最后一轮输出文本答案。 连接模块极其轻量,底层模型全程不动,只训练中间那个"传话"的小模块。 AIME 顶级数学竞赛题上,比最强基线高 13-18 个百分点。 推理速度快 2.4×,Token 用量少 75%,训练成本比 LoRA 还低。 且递归轮次越多,优势越大。 论文地址见评论区,有空可以翻译下。

1:43 AM · May 2, 2026

·

11.3K Views

20

10

100

113

Read 20 replies

New to X?

Sign up now to get your own personalized timeline!

Sign up with Apple

Create account

By signing up, you agree to the Terms of Service and Privacy Policy, including Cookie Use.

Relevant people

Trending now

What’s happening

UK national news · Trending

Princess Charlotte

Sports · Trending

Jaden McDaniels

Trending with Nuggets

Trending in United States

Championship Saturday

Trending in United States

Heavyweight

Show more

Terms of Service

|

Privacy Policy

|

Cookie Policy

|

Accessibility

|

Ads info

|

More

© 2026 X Corp.

问问这篇内容

回答仅基于本篇材料
    0 / 500

    Skill 包

    领域模板,一键产出结构化笔记
    • 投融资雷达包

      把一条融资 / 创投新闻整理成投资人视角的雷达卡:交易要点、判断、竞争格局、风险、尽调清单。

      • · 交易要点(公司 / 轮次 / 金额 / 投资人 / 估值,材料未明示则写 “未披露”)
      • · 投资 thesis(这家公司为什么值得关注)
      • · 竞争格局与替代方案

    导出到第二大脑

    支持 Notion / Obsidian / Readwise
    下载 Markdown(Obsidian 直接拖入)