163: 详解DeepSeekV4:Infra巨鲸、百万上下文走进现实、极致效率优化

播客收听
问这期播客
会先在本集摘要、章节、转录和笔记里找答案。
本集要点
- DeepSeek V4沿用现有范式,未带来范式变化,但通过一系列技术创新显著提升了长上下文处理能力。
- 性能与效率方面,新模型在单token推理计算量、KV缓存上优化显著,尽管解决相同问题消耗更多token。
- 极致稀疏性是V4的核心思路,包括混合稀疏注意力机制、Muon优化器、mHC残差连接等技术亮点。
节目简介
DeepSeekV4发布,通过组合创新和工程优化,在R1的“测试时扩展”范式下,实现百万上下文从理论到实用的飞跃,对Agent和多步复杂任务具有重要意义。
结构提纲
AI 替你读一遍后整理出的核心层级。
- §引言
介绍DeepSeek V4发布背景及讨论嘉宾
讨论与前代及竞品差异,训练成本及披露策略
新能力方向与内部评测,计算量与KV cache优化
极致稀疏性、混合稀疏注意力、Muon优化器等核心改进
TileLang、FP4等基础设施支持及多专家训练蒸馏
模型共性、中美发展特点及V4可能的长远影响
思维导图
用一张图看清主题之间的关系。
查看大纲文本(无障碍 / 无 JS 友好)
- DeepSeek V4详解
- 技术实现与创新
- 百万上下文实用化
- 性能与效率
- 计算量与KV缓存优化
- 9%工程师首选度
- 核心技术进展
- 混合稀疏注意力
- Muon优化器
- mHC残差连接
- 基础设施与后训练
- TileLang & FP4
- 多专家训练+蒸馏
- 未来趋势
- 中美模型发展对比
金句 / Highlights
值得收藏与分享的关键句。
DeepSeek V4让百万上下文从理论进入实用,满足Agent和复杂任务需求。
放弃MLA,采用SWA+CSA+HCA混合稀疏注意力,实现高效长上下文建模。
Muon优化器成为检验工程能力试金石,推动模型训练性能提升。
章节
编程能力与“御三家”有差距;不再采用 DeepSeek 自己提出的 MLA
编程能力与“御三家”有差距;不再采用 DeepSeek 自己提出的 MLA
不再披露训练成本,“用模型能力说话”
不再披露训练成本,“用模型能力说话”
延期推测:四个耦合的新 feature (新注意力+Muon+mHC+FP4)一起上,难度爆炸
延期推测:四个耦合的新 feature (新注意力+Muon+mHC+FP4)一起上,难度爆炸
不是范式创新,沿现有范式仍有巨大提升空间
不是范式创新,沿现有范式仍有巨大提升空间
提出新的能力方向比刷单个 benchmark 重要
提出新的能力方向比刷单个 benchmark 重要
坦诚的内部评测:9% DeepSeek 工程师不会把V4 Pro 作为编程首选
坦诚的内部评测:9% DeepSeek 工程师不会把V4 Pro 作为编程首选
单 token 推理的计算量和 KV cache 大幅优化,但解决同样问题的 token 消耗更多了
单 token 推理的计算量和 KV cache 大幅优化,但解决同样问题的 token 消耗更多了
整体思路:极致的稀疏
整体思路:极致的稀疏
混合稀疏注意力:放弃 MLA,SWA滑动窗口+CSA稀疏压缩+HCA稠密压缩,层间预定义分工
混合稀疏注意力:放弃 MLA,SWA滑动窗口+CSA稀疏压缩+HCA稠密压缩,层间预定义分工
Muon 优化器已成检验工程能力试金石
Muon 优化器已成检验工程能力试金石
mHC:从 Seed 提出 HC 到 mHC;Kimi 的 Attention Residuals
mHC:从 Seed 提出 HC 到 mHC;Kimi 的 Attention Residuals
Infra 两个关键词:TileLang & FP4
Infra 两个关键词:TileLang & FP4
转录
编程能力与“御三家”有差距;不再采用 DeepSeek 自己提出的 MLA
不再披露训练成本,“用模型能力说话”
延期推测四个耦合的新 feature (新注意力+Muon+mHC+FP4)一起上,难度爆炸
不是范式创新,沿现有范式仍有巨大提升空间
提出新的能力方向比刷单个 benchmark 重要
坦诚的内部评测9% DeepSeek 工程师不会把V4 Pro 作为编程首选
单 token 推理的计算量和 KV cache 大幅优化,但解决同样问题的 token 消耗更多了
整体思路极致的稀疏
混合稀疏注意力放弃 MLA,SWA滑动窗口+CSA稀疏压缩+HCA稠密压缩,层间预定义分工
Muon 优化器已成检验工程能力试金石
mHC从 Seed 提出 HC 到 mHC;Kimi 的 Attention Residuals
Infra 两个关键词TileLang & FP4
多专家训练+蒸馏的后训练
评测危机benchmark会过时饱和,evaluation是永恒追求,agent评估未共识
近期模型共性架构趋同(MOE+Muon),优化方向驱动(agent、coding)
美国追新能力、高定价;中国追性价比、工程极限
V4 最有可能被记住的思想极致压缩+低激活比+低单token成本,成为后续开源模型起点
节目笔记
**「走进不同团队的成果,创新从来是连续的,不是跳跃的。」**
上周五,DeepSeek V4 发布。我们邀请了两位一线 AI 从业者一起详解 DeepSeek V4 的技术实现和创新想法。
如果一句话概括:DeepSeek V4 并没有带来新的“范式变化”,它是继续在 R1 的“测试时扩展”范式下,用一系列组合创新和工程优化,让百万上下文从理论进入实用。
超长上下文上的稳定表现,正是 Agent 和多步复杂任务亟需的能力之一。
_本期访谈之后也会发图文版。本期涉及的诸多技术术语见 Shownotes 末尾注释。_
**本期嘉宾**
赵晨阳,RadixArk 工程师,SGLang 开源推理框架开发者
刘益枫,UCLA 博士生
**本期主播**
程曼祺,晚点科技报道负责人
**时间线:**
**体感、对比、消失的成本、DeepSeek 的节奏**
03:01 编程能力与“御三家”有差距;不再采用 DeepSeek 自己提出的 MLA
07:44 不再披露训练成本,“用模型能力说话”
09:23 延期推测:四个耦合的新 feature (新注意力+Muon+mHC+FP4)一起上,难度爆炸
12:36 不是范式创新,沿现有范式仍有巨大提升空间
**性能与效率**
14:32 提出新的能力方向比刷单个 benchmark 重要
16:41 坦诚的内部评测:9% DeepSeek 工程师不会把V4 Pro 作为编程首选
23:03 单 token 推理的计算量和 KV cache 大幅优化,但解决同样问题的 token 消耗更多了
**V4 具体进展**
28:32 整体思路:极致的稀疏

33:45 混合稀疏注意力:放弃 MLA,SWA滑动窗口+CSA稀疏压缩+HCA稠密压缩,层间预定义分工
39:37 Muon 优化器已成检验工程能力试金石
48:52 mHC:从 Seed 提出 HC 到 mHC;Kimi 的 Attention Residuals
54:24 Infra 两个关键词:TileLang & FP4
01:10:11 多专家训练+蒸馏的后训练
01:13:20 评测危机:benchmark会过时饱和,evaluation是永恒追求,agent评估未共识
**更多讨论**
01:19:25 近期模型共性:架构趋同(MOE+Muon),优化方向驱动(agent、coding)
01:25:18 美国追新能力、高定价;中国追性价比、工程极限
01:28:00 V4 最有可能被记住的思想:极致压缩+低激活比+低单token成本,成为后续开源模型起点
**剪辑:Nick**
**相关链接:**
158期:V4发布前的DeepSeek:人才竞争、组织特点和独特的AGI目标
143期:再聊 Attention:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进
104期:我给线性注意力找“金主”,字节 say No,MiniMax say Yes
103期:用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进
102期:DeepSeek 启动开源周,大模型开源到底在开什么?
**附录:术语、概念解释**
**- 模型架构相关**
Token-wise(词元级)改进:优化模型处理单 token 的过程,通常用于提升注意力计算、上下文建模或推理效率。
Layer-wise 的改进:优化模型不同网络层的结构或计算方式,通常用于提升训练稳定性、表达能力或整体计算效率。
MoE:Mixture of Experts 混合专家网络,让不同“专家”子网络处理不同输入,降低单次计算成本。
哈希路由:把 token、样本或请求分配到不同专家、节点或存储位置的方法。V4 在前几层 MoE 用了哈希路由,避免起始层路由塌缩。
Engram:DeepSeek 之前提出的一种带 N-gram 编码器的辅助模块,通过额外编码连续 token 片段,帮助模型利用局部短语级信息。V4 未使用 Engram。
**- 注意力相关**
MLA:Multi-head Latent Attention,多头潜在注意力,引入潜在表示压缩 KV 信息的注意力机制,能降低显存占用和计算开销。
MQA:Multi-Query Attention,多查询注意力结构,共享 Key/Value,仅保留多头 Query,提升推理效率并减少 KV cache。
线性注意力:通过核函数或近似方法将注意力复杂度从二次降低为线性(一维),是改进原初注意力随上下文长度增加,计算和显存爆炸的方向之一。
稀疏注意力:仅计算部分 token 间的注意力(而非全连接),改进原初注意力问题的另一主流方向。
滑动窗口注意力:限制注意力仅在局部窗口内计算的一种稀疏注意力。
CSA:Compressed Sparse Attention,压缩稀疏注意力。用于长上下文建模的注意力机制。把序列分组压缩成更少的token,query再从中挑选出最相关的部分。V4中的压缩比是4:1。
HCA:Heavily Compressed Attention,高度压缩注意力。同样用于长上下文建模。相比CSA压缩比例更高(128:1),query无需挑选token。
NSA/DSA:V4发布之前,DeepSeek 在年初和 9 月先后提出的两种稀疏注意力方案。
**- 优化器相关**
AdamW:一种改进的 Adam 优化器,通过解耦权重衰减(weight decay)提升训练稳定性和泛化能力。
Muon:一种面向大模型训练的优化算法,通过改进梯度更新或内存效率来提升训练性能。
Learning Rate:学习率,控制模型参数每次更新步长的超参数,对训练稳定性和收敛速度至关重要。
牛顿-舒尔茨迭代:一种用于矩阵归一化或求逆的数值迭代方法。Muon 作者 Jordan 提到通常使用 5 次迭代,V4 中采用了 10 次迭代。
**- 残差相关**
HC:Hidden/Highway Connection,一类改进残差连接的信息通路设计,用于增强信息传递或控制梯度流。
mHC:Manifold-Constrained Hyper-Connections 流形约束超连。DeepSeek 在 HC 基础上的改造,解决了 HC 在大规模训练时的数值不稳定问题。mHC 使用了双随机矩阵,即每行和、每列和都等于 1 的矩阵,以约束信息流。
Attention Residuals:注意力残差连接,将注意力模块输出与输入相加,用于稳定训练并保留原始信息。
**- Infra 相关**
矩阵乘法:深度学习中最核心的基础计算操作(如向量与权重相乘)。
Kernel:算子核,指在底层硬件(如 GPU)上执行的高效计算函数,是深度学习算子的实现基础。比如矩阵乘法就要写 Kernel 去实现。
CUDA:英伟达开发的能使用 GPU 的一层软件系统,也指一套语言,本次访谈语境里指编写 GPU 算子 kernel 的语言。
Triton:由 OpenAI 开源,是对 CUDA 的一层抽象,能更简单的写 Kernel。
TileLang:一种面向 AI 高性能算子的 tile 级 DSL / 编译框架,把矩阵乘法、注意力等张量计算映射到 GPU 等硬件上执行,在 Triton 的易用性和 CUDA 的控制力之间取得了较好的平衡。
FP8、FP4、INT4:低精度数值格式,分别用 8 位、4 位浮点和 4 位整数表示模型中的权重或中间数据,用于降低显存和带宽压力、提升训练或推理效率。
FP4 比 FP8 更省显存和带宽,又比 INT4 更保留浮点动态范围,因此更适合复杂训练/采样链路,但收益取决于硬件、缩放策略和 kernel 实现。V4 在 1.6T 参数规模上实现 FP4 训练是个不小的挑战。

**☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆**
欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。
这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。
请先添加「晚点」小助手的微信号,**备注:“晚点聊”**,我们邀请您入群。

**关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:**

问问这篇内容
回答仅基于本篇材料Skill 包
领域模板,一键产出结构化笔记播客学习包
把一集播客 / 视频提炼成可二次创作的学习笔记:关键时间点、金句、开放问题、行动项。
- · 听后概要(3 句以内)
- · 关键时间点
- · 金句摘录(3-5 条)