DeepSeek-V4发布:Pro与Flash双线出击,开源性能全面对标闭源
- +1 你赞过了
2026年4月24日,人工智能公司DeepSeek宣布,其全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。
据介绍,DeepSeek-V4按模型大小与定位分为DeepSeek-V4-Pro和DeepSeek-V4-Flash两个版本。
其中,Pro版作为旗舰型号,Agent能力大幅增强,在Agentic Coding评测中达到当前开源模型最佳水平,实际使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式;在世界知识测评中大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1;数学、STEM及竞赛型代码推理性能超越所有已公开评测的开源模型,取得比肩世界顶级闭源模型的优异成绩。Flash版则在保持接近推理能力的同时,提供更快捷、更经济的API服务,在简单Agent任务上与Pro版旗鼓相当,高难度任务上仍存差距。
长上下文技术是大模型竞赛的老战场了。过去一年,各家都在追这个指标,但真正用起来是另一回事,要么推理太慢,要么中间信息召回率骤降,要么成本高到普通开发者根本用不起。DeepSeek V4这次换了思路,开创了一种全新的注意力机制,在Token(词元)维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并大幅降低了对计算和显存的需求。从V4开始,百万token上下文将成为DeepSeek所有官方服务的标配。
与此同时,针对日益重要的Agent应用场景,DeepSeek-V4专门对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了适配与优化,在代码任务、文档生成等方面表现均有提升。模型同时支持非思考模式与思考模式,对于复杂Agent场景,官方建议使用思考模式并将推理强度设为max。API已同步上线,支持OpenAI Chat Completions接口与Anthropic接口,用户可通过修改model_name为deepseek-v4-pro或deepseek-v4-flash直接调用。
实际上,DeepSeek-V4最值得关注的并非某一项跑分的高低,而是它展现出一种更成熟的系统性思维,不追求单点炫技,而是在上下文、Agent、推理和经济性上同步发力。百万上下文成为标配,意味着长文档理解、完整代码库分析这类能力将真正从演示走向日常,这才是对普通用户最有价值的进步。
最新资讯
热门视频
新品评测
X
微博认证登录
QQ账号登录
微信账号登录