DeepSeek-V4是什么
DeepSeek-V4是DeepSeek推出的新一代大语言模型系列预览版,拥有百万字超长上下文窗口,在Agent能力、世界知识与推理性能方面达到开源领域领先水平。模型包含deepseek-v4-pro 和 deepseek-v4-flash 两个版本,分别定位高性能与经济高效,均已开源并提供API服务,支持非思考与思考双模式,为长文本处理与智能体应用提供普惠化基础设施。

DeepSeek-V4的主要功能
百万上下文处理:原生支持1M Token超长文本理解与记忆,为官方服务标配。
混合注意力机制:CSA与HCA架构大幅降低长上下文计算与显存开销。
Agent编码增强:针对Claude Code、OpenClaw等主流Agent框架深度优化。
双模式推理:支持非思考与思考模式,后者可通过reasoning_effort参数调节强度。
多领域专家融合:通过OPD蒸馏整合数学、代码、Agent等领域专家能力。
经济高效选择:Flash版本用更低参数实现接近Pro的推理性能,API成本显著降低。
DeepSeek-V4的技术原理
CSA压缩稀疏注意力:将每m个token的KV压缩为1个条目,通过Lightning Indexer计算索引分数并执行Top-k稀疏选择,结合滑动窗口与Attention Sink机制保留局部依赖。
HCA重度压缩注意力:以更大压缩比m’将KV条目合并为单个条目,保持密集注意力而不采用稀疏选择,进一步降低计算量。
mHC流形约束超连接:将残差映射矩阵通过Sinkhorn-Knopp算法投影到双随机矩阵流形,约束谱范数不超过1,增强深层信号传播稳定性。
Muon优化器:模型采用混合Newton-Schulz迭代对梯度矩阵进行正交化,分快速收敛与精确稳定两个阶段,支持大规模MoE高效训练。
FP4量化感知训练:对MoE专家权重和CSA索引器QK路径进行FP4量化,用FP8扩展动态范围实现无损反量化,降低内存与计算开销。
DeepSeek-V4的性能体现
- 知识能力
世界知识领先开源:SimpleQA-Verified达57.9%,超越所有已评测开源模型20个百分点,仅稍逊于Gemini-3.1-Pro(75.6%)。
中文知识突出:Chinese-SimpleQA达84.4%,大幅领先K2.6(75.9%)与GLM-5.1(75.0%)。
教育知识接近前沿:MMLU-Pro 87.5%、GPQA Diamond 90.1%,与GPT-5.4持平,略低于Gemini-3.1-Pro。
- 推理与代码能力
数学竞赛比肩闭源:HMMT 2026 Feb达95.2%,IMOAnswerBench达89.8%,超越K2.6与GLM-5.1,接近GPT-5.4与Opus-4.6。
代码竞赛首次开源追平闭源:Codeforces Rating达3206,与GPT-5.4(3168)相当,当前排名人类选手第23位。
高难度推理突破:Apex Shortlist达90.2%,超越GPT-5.4(78.1%)与Opus-4.6(85.9%);LiveCodeBench达93.5%,领先所有对比模型。
- Agent能力
软件工程接近顶级闭源:SWE Verified达80.6%,与Opus-4.6(80.8%)基本持平;SWE Pro 55.4%、SWE Multilingual 76.2%。
终端操作领先开源:Terminal Bench 2.0达67.9%,超越K2.6(66.7%)、GLM-5.1(63.5%)与Opus-4.6(65.4%)。
工具调用泛化优秀:MCPAtlas Public 73.6%、Toolathlon 51.8%,在包含广泛工具和MCP服务的评测中表现突出。
- 长上下文能力
百万上下文检索强劲:MRCR 1M达83.5%,超越Gemini-3.1-Pro(76.3%);128K内检索性能高度稳定,1M时仍保持较强能力。
真实场景长文档理解:CorpusQA 1M达62.0%,优于Gemini-3.1-Pro(53.8%)。
- 效率表现
计算量断崖式下降:1M上下文下,V4-Pro单Token推理FLOPs仅为V3.2的27%,V4-Flash仅为10%。
KV缓存大幅压缩:1M上下文下,V4-Pro累计KV缓存为V3.2的10%,V4-Flash仅为7%。
路由专家FP4量化:专家权重采用FP4存储,未来硬件上理论可再提升1/3效率。

如何使用DeepSeek-V4
- 网页端/App:访问DeepSeek官网或官方App,选择专家模式(Pro)或快速模式(Flash)。
- API调用:修改model参数为
deepseek-v4-pro或deepseek-v4-flash,base_url保持不变。 - 思考模式:复杂Agent场景建议启用思考模式并设置
reasoning_effort: max。 - 本地部署:通过Hugging Face或ModelScope下载开源权重自行部署。
DeepSeek-V4的关键信息和使用要求
版本规格:Pro版1.6T参数/49B激活,Flash版284B参数/13B激活,预训练数据分别为33T与32T。
上下文长度:两个版本均支持1M Token,旧接口
deepseek-chat与deepseek-reasoner将于2026-07-24停用。API定价(每百万Token):Pro输入缓存命中1元/未命中12元,输出24元;Flash输入缓存命中0.2元/未命中1元,输出2元。
算力限制:Pro版当前服务吞吐有限,预计下半年昇腾950超节点批量上市后价格将大幅下调。
DeepSeek-V4的核心优势
百万上下文普惠化:1M Token超长上下文成为官方服务标配,突破传统注意力机制的二次计算瓶颈,使长文本任务与测试时缩放真正可行。
极致长上下文效率:通过CSA压缩稀疏注意力与HCA重度压缩注意力的混合架构,1M上下文下V4-Pro的单Token推理FLOPs仅为V3.2的27%,KV缓存仅10%,Flash版更是低至10%与7%。
开源模型性能新标杆:V4-Pro-Max在知识、推理、代码竞赛等评测中全面领先前代开源模型,Agent编码能力内部评测优于Claude Sonnet 4.5,交付质量接近Opus 4.6非思考模式。
双版本灵活覆盖:Pro版(1.6T/49B)定位顶级性能,Flash版(284B/13B)以极小激活参数实现接近的推理能力,API价格低至Pro的1/12,普惠不同预算场景。
Agent能力原生增强:针对Claude Code、OpenClaw等主流Agent框架专项优化,支持跨用户消息边界的连贯推理保留,在SWE、Terminal Bench等Agent评测中表现优异。
DeepSeek-V4的项目地址
- HuggingFace模型库:https://huggingface.co/collections/deepseek-ai/deepseek-v4
- 技术论文:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
DeepSeek-V4的同类竞品对比
| 对比维度 | DeepSeek-V4-Pro | Claude Opus 4.6 | Kimi K2.6 |
|---|---|---|---|
| 模型定位 | 开源高性能MoE | 闭源顶级通用 | 开源Agent智能 |
| 开源状态 | 完全开源 | 闭源API | 开源/开放API |
| 总参数量 | 1.6T | 未公开 | 未公开 |
| 激活参数 | 49B | 未公开 | 未公开 |
| 上下文长度 | 1M Token | 200K | 1M Token |
| 核心架构 | CSA+HCA混合注意力 | 传统Transformer | MoE+长上下文 |
| MMLU-Pro | 87.5 | 89.1 | 87.1 |
| SimpleQA | 57.9 | 46.2 | 36.9 |
| Codeforces | 3206 | – | – |
| SWE Verified | 80.6 | 80.8 | 80.2 |
| Terminal Bench | 67.9 | 65.4 | 66.7 |
| MRCR 1M | 83.5 | 92.9 | – |
| API输入价格 | 12元/百万Token | 约150元/百万Token | 约60元/百万Token |
| 长上下文效率 | KV缓存仅为V3.2的10% | 标准KV缓存 | 高效但细节未公开 |
DeepSeek-V4的应用场景
长文档分析:支持百万字级论文、报告、法律合同的全文理解与跨章节推理。
智能体编码:在Claude Code、OpenClaw等框架中执行复杂代码生成、重构与调试任务。
多轮工具调用:在Agent工作流中保留完整推理历史,支持跨用户消息边界的连贯思考。
知识密集型问答:在世界知识评测中大幅领先开源模型,适用于教育、科研与专业咨询。
白领办公任务:模型在中文写作、信息分析、文档生成与编辑等场景表现优异。
