---
title: "DeepSeek V4终于发布！打破最强闭源垄断，明确携手华为芯片"
source_name: "量子位"
original_url: "https://www.qbitai.com/2026/04/406359.html"
canonical_url: "https://www.traeai.com/articles/88fd65d8-cb57-4f77-b335-217227f6ffcf"
content_type: "article"
language: "中文"
score: 5
tags: []
published_at: "2026-04-24T04:17:45+00:00"
created_at: "2026-04-24T06:09:23.553293+00:00"
---

# DeepSeek V4终于发布！打破最强闭源垄断，明确携手华为芯片

Canonical URL: https://www.traeai.com/articles/88fd65d8-cb57-4f77-b335-217227f6ffcf
Original source: https://www.qbitai.com/2026/04/406359.html

## Summary

traeai 为开发者、研究员和内容团队筛选高质量 AI 技术内容，提供摘要、评分、趋势雷达与一键内容产出。

## Key Takeaways

- 
- 
- 

## Content

Title: DeepSeek V4终于发布！打破最强闭源垄断，明确携手华为芯片

URL Source: http://www.qbitai.com/2026/04/406359.html

Markdown Content:
< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400">

2026-04-24 12:17:45 来源：[量子位](https://www.qbitai.com/)

在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。

> henry 鱼羊 发自 凹非寺
> 
> 
> 量子位 | 公众号 QbitAI

刚刚，DeepSeek-V4来了！

预览版正式上线并同步开源。

一共两个版本：

*   DeepSeek-V4-Pro：对标顶级闭源模型，1.6T，49B激活，上下文长度1M；
*   DeepSeek-V4-Flash：更小更快的经济版，284B，13B激活，上下文长度1M。

![Image 1](https://i.qbitai.com/wp-content/uploads/2026/04/4fe4a82e8ec2dde9845f3c82c8b95b34.webp)

官方原话是：**在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先**。

并且：

> 目前DeepSeek-V4已经成为公司内部员工使用的Agentic Coding模型，据评测反馈使用体验优于Sonnet 4.5，交付质量接近Opus 4.6非思考模式。但仍与Opus 4.6思考模型存在一定差距。

![Image 2](https://i.qbitai.com/wp-content/uploads/2026/04/95d82c594f2b97a8746b58ca231667c2.webp)

目前官网和APP都上了，API服务也已同步更新。

大家都关心的国产算力方面，划重点，**下半年批量上华为算力**。

![Image 3](https://i.qbitai.com/wp-content/uploads/2026/04/86352d137c3c0af1d82eec47abe7bfd6.webp)

## 顶配和性价比之选，两个版本一起开

这次V4一口气发了两个版本。

**V4-Pro**，性能比肩顶级闭源模型。

官方给出的判断有三条：

*   Agent能力大幅提高：在Agentic 能力Coding评测中，V4-Pro已达到当前开源模型最佳水平，并在其他Agent相关评测中同样表现优异。内部测评中，Agent Coding模式下，V4体验优于Sonnet 4.5，交付质量接近 Opus 4.6非思考模式，但仍与 Opus 4.6思考模式存在一定差距。
*   丰富的世界知识：DeepSeek-V4-Pro在世界知识测评中，大幅领先其他开源模型，仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
*   世界顶级推理性能：在数学、STEM、竞赛型代码的测评中，DeepSeek-V4-Pro超越当前所有已公开评测的开源模型，取得了比肩世界顶级闭源模型的优异成绩。

![Image 4](https://i.qbitai.com/wp-content/uploads/2026/04/6ad7633fb637f535a6d5a6378dfafe56.webp)

**V4-Flash**，更小更快的经济版。推理能力接近Pro，世界知识储备稍逊一筹，但参数和激活更小，API更便宜。

在Agent任务方面，DeepSeek-V4-Flash在简单任务上与DeepSeek-V4-Pro旗鼓相当，但在高难度任务上仍有差距。

在洗车测试上，V4也是快速通过。

![Image 5](https://i.qbitai.com/wp-content/uploads/2026/04/c3c7d02fa1b53e6ed075a3c07d129340.webp)

而在“绝望的父亲”这个经典的生物学场景当中，DeepSeek-V4并没有一轮get到红绿色盲这个关键点（根据遗传学规律，如果一名女性是红绿色盲，其生物学父亲必然也是）。

![Image 6](https://i.qbitai.com/wp-content/uploads/2026/04/f0bac3660017d8217509968440e60a63.webp)

## 百万上下文实现标配

值得一提的是，**从今天开始，1M上下文是DeepSeek所有官方服务的标配。**

一年前，1M上下文还是Gemini独家的王牌；其他所有闭源模型要么128K要么200K；开源这边几乎没人玩得起这个量级。

DeepSeek直接把百万上下文从一个「高端功能」挪成了「水电煤」。

而且开源。他们怎么做到的，发布稿里直接给了答案——

V4开创了一种全新的注意力机制，在token维度进行压缩，结合DSA稀疏注意力一起用。相比传统方法，对计算和显存的需求大幅降低。

![Image 7](https://i.qbitai.com/wp-content/uploads/2026/04/85993dea647c4dd8414d10ed41bf8861.webp)

DSA不是新词。半年前V3.2-Exp那次更新首次引入，当时外界关注度不高，因为跑分和V3.1-Terminus几乎一样，看起来像一次没什么料的中间版本。

现在回头看，那是V4的地基。

## Agent能力专项优化

Agent这边，V4针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品做了适配和优化，代码任务、文档生成任务都有提升。

发布稿里还附了一张V4-Pro在某Agent框架下生成的PPT内页示例。

![Image 8](https://i.qbitai.com/wp-content/uploads/2026/04/d0f6a01caedc5aadeea224274b24dba1.webp)

## API价格

API这边，V4-Pro和V4-Flash同步上线,支持OpenAI ChatCompletions接口和Anthropic接口两套。

base_url 不变,model 参数改成 deepseek-v4-pro 或 deepseek-v4-flash 即可调用。

两个版本最大上下文都是1M,都同时支持非思考模式和思考模式。思考模式下可以通过reasoning_effort 参数调强度,两档high和max。官方建议复杂 Agent 场景直接上max。

![Image 9](https://i.qbitai.com/wp-content/uploads/2026/04/513e97c4326757ad17d25b41d58a0926.webp)

这里有个重点——**下半年批量上华为算力**。

此外，旧模型名要下架。

deepseek-chat和deepseek-reasoner将在三个月后(2026年7月24日)停用，当前阶段内这两个名字分别指向V4-Flash的非思考和思考模式。

对个人开发者影响不大，改一个model参数。对接了生产环境的公司，这三个月要去做迁移。

## One more thing

发布稿的结尾，DeepSeek 自己引了一句话。

「不诱于誉，不恐于诽，率道而行，端然正己。」

这是荀子《非十二子》里的一句。字面意思是，不被赞誉诱惑，不被诽谤吓到，按自己认定的道往前走，端正自己。

放在今天这个场景里，有点意思。

过去半年，关于V4什么时候发、是不是跳票、是不是已经被别家超越、是不是已经被 Claude 蒸馏数据搞定了之类的传言在中文和英文AI圈来来回回跑了好几轮。年初甚至还有人信誓旦旦说V4会在春节前发，结果等到了四月底。

他们没回应过一次。

然后在某个周五的上午，把V4放出来，同步开源，同步上线官网和App，同步更新API，顺便把内部员工已经弃用Claude的事实写进发布稿。

没有路线图，没有直播，没有访谈。

率道而行这四个字，听着像是一句口号。但如果你把过去半年 V3.2 那次「没什么亮点」的 Exp 版本、DSA那套为V4铺了半年的稀疏注意力、1M 上下文从王牌变成标配的这条路径放在一起看。

DeepSeek已经做到了。

DeepSeek-V4模型开源链接：

[1]https://huggingface.co/collections/deepseek-ai/deepseek-v4

[2]https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

DeepSeek-V4 技术报告：

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

_版权所有，未经授权不得以任何形式转载及使用，违者必究。_
