2026年4月24日,距离上一代大版本更新整整15个月后,DeepSeek终于带来了备受期待的新一代开源模型——DeepSeek-V4系列预览版,并同步向全球开源。该系列以百万字超长上下文为最大亮点,在Agent能力、世界知识和推理性能三大维度均实现国内与开源领域的领先。从今天起,登录官网 chat.deepseek.com 或官方App,即可与最新的DeepSeek-V4对话,探索1M超长上下文记忆的全新体验。
DeepSeek-V4分为两个版本,全面覆盖不同层级用户的需求。旗舰版V4-Pro拥有1.6万亿总参数,激活参数达490亿,性能可比肩顶级闭源模型;经济版V4-Flash则拥有2840亿总参数,激活参数为130亿,以更低延迟和更高性价比为轻量化高频场景提供核心方案。两个版本均标配1M(百万token)超长上下文。
在百万上下文方面,V4将模型上下文长度直接从上一代的128K拉升至1M,配合底层架构创新,在大幅降低长上下文计算与显存需求的同时实现了全上下文窗口的性能无损。一年前,1M上下文还是Gemini独家的王牌;V4的开创性在于,它直接将百万上下文从一个“高端功能”变成了普惠基础设施。这背后是V4全新注意力机制带来的突破——在token维度进行压缩,结合DSA稀疏注意力技术,让1M上下文首次以开放、低成本的方式走向大众。
在Agent能力方面,V4-Pro达到了开源模型的新高度。在Agentic Coding专项评测中,V4-Pro综合得分位居开源模型首位。该模型已全面部署于公司内部研发流程,实测反馈显示其编码体验优于Claude的Sonnet 4.5,交付质量接近Opus 4.6非思考模式。此外,V4针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了适配优化,在代码和文档生成等方面均有显著提升。
在世界知识与推理性能上,V4-Pro同样交出了亮眼答卷。世界知识测评中大幅领先其他开源模型,整体表现仅稍逊于顶尖闭源模型Gemini-Pro-3.1。在数学、STEM领域及高难度编程竞赛类任务中,V4-Pro更是一举超越所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
技术层面的革新同样值得关注。V4采用DSA2注意力机制,整合了经过验证的DSA设计并引入NSA稀疏注意力方案,MoE架构每层配置384个专家,每次推理激活其中6个。正是这些结构创新,让V4-Pro在100万token上下文的极端场景下,单token推理计算量仅为前代的27%,KV缓存占用缩减到了惊人的10%。
API服务已同步上线,支持OpenAI ChatCompletions与Anthropic两套接口。V4-Pro与V4-Flash均提供非思考模式与思考模式,思考模式下可通过reasoning_effort参数调节思考强度。旧有deepseek-chat与deepseek-reasoner模型名将于2026年7月24日停止使用。模型权重已同步发布至Hugging Face和ModelScope平台。
如果说DeepSeek之前的版本回答了“开源模型能不能追赶闭源”的问题,那么V4正在回答一个更深刻的问题:开源模型能不能真正改变生产力。从128K到1M,从单纯的语言理解到执行复杂任务,DeepSeek-V4将百万上下文从一个“高端功能”挪成了“水电煤”,在Agent能力与推理性能上紧追甚至局部超越顶级闭源模型,意味着开源大模型的能力边界正在被重新定义。而几乎同时,大洋彼岸的OpenAI发布了GPT-5.5,腾讯混元Hy3也刚刚亮相——在同一条技术竞赛跑道上,三家巨头分别沿着闭源高价、生态嵌入和开源普惠三条不同路线加速狂奔。在这个AI大模型狂飙突进的分水岭时刻,DeepSeek-V4用开源的方式,为全球开发者铺开了一张前所未有的能力图景,也为整个行业指明了一条更加开放的进路。
AI部落温馨提示:以上是对重磅!DeepSeek-V4 预览版正式上线:百万字超长上下文,Agent与推理能力领跑国内及开源的介绍,点击PetaCloud官网,了解PetaCloud虚拟机,释放云计算无线可能!
本文由网上采集发布,不代表我们立场,转载联系作者并注明出处:https://www.aijto.com/12554.html

