DeepSeek 今天发布了全新的 V4 系列模型预览版,同步开源。最大的变化是把百万(1M)上下文直接变成了所有官方服务的标配,不分版本、不分价位。 V4 分两个型号:V4-Pro 是旗舰版,V4...

V4 分两个型号:V4-Pro 是旗舰版,V4-Flash 是轻量版。按照 DeepSeek 自己公布的评测,V4-Pro 的推理能力已经追平顶级闭源模型,世界知识仅次于 https://t.co/kl95nFk6e5" / X
宝玉 on X: "DeepSeek 今天发布了全新的 V4 系列模型预览版,同步开源。最大的变化是把百万(1M)上下文直接变成了所有官方服务的标配,不分版本、不分价位。 V4 分两个型号:V4-Pro 是旗舰版,V4-Flash 是轻量版。按照 DeepSeek 自己公布的评测,V4-Pro 的推理能力已经追平顶级闭源模型,世界知识仅次于 https://t.co/kl95nFk6e5" / X
Don’t miss what’s happening
People on X are the first to know.
Post
See new posts
Conversation

Show translation
DeepSeek 今天发布了全新的 V4 系列模型预览版,同步开源。最大的变化是把百万(1M)上下文直接变成了所有官方服务的标配,不分版本、不分价位。 V4 分两个型号:V4-Pro 是旗舰版,V4-Flash 是轻量版。按照 DeepSeek 自己公布的评测,V4-Pro 的推理能力已经追平顶级闭源模型,世界知识仅次于 Gemini-Pro-3.1。 比较有意思的是 DeepSeek 主动拿自家模型去对标 Anthropic:内部员工实际使用 V4-Pro 做 Agentic Coding(让 AI 自主完成编程任务),反馈体验优于 Claude Sonnet 4.5,交付质量接近 Opus 4.6 的非思考模式,但跟 Opus 4.6 开启深度思考后还有差距。这种"主动承认差距"的表述在国内厂商的发布公告里不太常见,某种程度上也说明 Opus 4.6 思考模式已经成了行业的隐性天花板。 V4-Flash 定位经济实惠,推理能力接近 Pro,但世界知识储备少一些,复杂 Agent 任务上也有差距。对大多数日常场景来说够用,API 价格更友好。 技术上,V4 引入了一种新的注意力机制,在 token 层面做压缩,配合自研的 DSA 稀疏注意力,让百万上下文的计算量和显存需求大幅下降。简单说就是:以前百万上下文是"能做但很贵",现在变成了"标配且不加价"。对开发者来说,这意味着可以把整个代码库、完整文档集一次性丢进去处理,不用再费心切分。 另一个实用信息:V4 专门针对 Claude Code、OpenClaw 等主流 Agent 工具做了适配优化。API 同时支持 OpenAI 和 Anthropic 两种接口格式,切换只需要改 model 参数。旧的 deepseek-chat 和 deepseek-reasoner 接口名还能用三个月,7 月 24 日之后停止服务,开发者记得提前迁移。 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg?scene=1…

Last edited Opens edit history 3:09 AM · Apr 24, 2026
·
32
35
247
69
Read 32 replies
New to X?
Sign up now to get your own personalized timeline!
Sign up with Apple
By signing up, you agree to the Terms of Service and Privacy Policy, including Cookie Use.
Relevant people
-  宝玉 @dotey Follow Click to Follow dotey Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.
Something went wrong. Try reloading.
Retry
|
|
|
|
|
More
© 2026 X Corp.