返回
AI AgentDEEPSEEK V4

DeepSeek 今天发布了全新的 V4 系列模型预览版,同步开源。最大的变化是把百万(1M)上下文直接变成了所有官方服务的标配,不分版本、不分价位。 V4 分两个型号:V4-Pro 是旗舰版,V4...

DeepSeek 发布并开源 V4 系列模型预览版,所有官方服务默认支持 1M 上下文。

宝玉 @dotey14 分钟阅读中文
阅读原文
DeepSeek 今天发布了全新的 V4 系列模型预览版,同步开源。最大的变化是把百万(1M)上下文直接变成了所有官方服务的标配,不分版本、不分价位。

V4 分两个型号:V4-Pro 是旗舰版,V4...

为什么重要

DeepSeek 发布全新的 V4 系列模型预览版,并同步开源。文章称,此次发布的最大变化是将百万级(1M)上下文直接变成所有官方服务的标配,不区分模型版本和价格档位。 V4 系列分为 V4-Pro 和 V4-Flash 两个型号。V4-Pro 定位旗舰版,DeepSeek 公布的评测称其推理能力追平顶级闭源模型,世界知识仅次于 Gemini-Pro-3.1。文章还提到,DeepSeek 主动将 V4-Pro 与 Anthropic 模型对标:内部员工在 Agentic Coding 场景中使用 V4-Pro,反馈称体验优于 Claude Sonnet 4.5,交付质量接近 Opus 4.6 的非思考模式,但与 Opus 4.6 开启深度思考后仍有差距。 V4-Flash 定位经济实惠,文章称其推理能力接近 Pro,但世界知识储备较少,在复杂 Agent 任务上也有差距。对多数日常场景来说够用,API 价格更友好。 技术层面,V4 引入新的注意力机制,在 token 层面做压缩,并配合 DeepSeek 自研的 DSA 稀疏注意力,以降低百万上下文的计算量和显存需求。文章将其概括为:过去百万上下文是“能做但很贵”,现在变成“标配且不加价”。对开发者来说,这意味着可以把整个代码库或完整文档集一次性放入上下文处理,减少切分工作。 生态适配方面,V4 针对 Claude Code、OpenClaw 等主流 Agent 工具做了适配优化。API 同时支持 OpenAI 和 Anthropic 两种接口格式,切换只需修改 model 参数。旧的 deepseek-chat 和 deepseek-reasoner 接口名还能继续使用三个月,7 月 24 日之后停止服务,开发者需要提前迁移。对物流仓储机器人公司而言,短期更值得关注的是其在研发代码处理、长文档理解、接口迁移和 Agent 工具链兼容方面的潜在价值,而不是机器人硬件本身的直接变化。

新进展

  • DeepSeek V4 将 1M 上下文设为所有官方服务标配,降低长代码库和完整文档集处理的上下文限制。
  • V4-Pro 在 Agentic Coding 场景主动对标 Claude Sonnet 4.5 和 Opus 4.6,说明代码生成与自主编程任务是此次发布的重要竞争点。
  • V4-Flash 主打经济实惠,推理能力接近 Pro,但世界知识和复杂 Agent 任务能力弱于 Pro。
  • API 兼容 OpenAI 与 Anthropic 两种格式,并适配 Claude Code、OpenClaw;旧接口 deepseek-chat 和 deepseek-reasoner 将在 7 月 24 日之后停止服务。
deepseek v4v4-prov4-flash1m上下文dsa稀疏注意力agentic codingclaude codeopenclawanthropicopenai api