DeepSeek-V3.2

在人工智能的大模型赛道上,"开源模型即将消亡"的论调在过去几个月里甚嚣尘上。随着闭源专有模型(如 OpenAI 和 Google 的顶级模型)迭代速度的加快,两者之间的鸿沟似乎正在不可逆转地扩大。

然而,12月1日晚间,DeepSeek 扔下了一枚重磅炸弹:正式发布并开源 DeepSeek-V3.2DeepSeek-V3.2-Speciale 两款新模型。

这不仅仅是一次常规的版本更新,更是一次开源对闭源的有力回应。根据官方数据,DeepSeek-V3.2 已经达到了 GPT-5 的水平,而专攻极难推理的 Speciale 版本则在性能上媲美 Gemini-3.0-Pro

DeepSeek 用技术实力宣告:开源模型,重回全球第一梯队。

跑分


一、平衡实用与极致推理

DeepSeek 这次发布的策略非常清晰,针对不同场景推出了两款定位截然不同的模型:

1. DeepSeek-V3.2:日常任务的全能选手

  • 定位: 平衡推理能力与输出长度,适合问答、通用 Agent 等场景。

  • 表现: 在推理类 Benchmark 中,它达到了 GPT-5 的水平,仅略逊于 Gemini-3.0-Pro。

  • 亮点: 效率惊人。相比 Kimi-K2-Thinking,V3.2 的输出长度大幅缩短,这意味着用户等待时间更短,API 调用成本更低。

2. DeepSeek-V3.2-Speciale:探索边界的“偏科天才”

  • 定位: 极致的推理能力,长思考增强版,集成了 DeepSeek-Math-V2 的定理证明能力。

  • 战绩: 这是一个不折不扣的“竞赛收割机”。它成功斩获了 IMO 2025(国际数学奥林匹克)、IOI 2025(国际信息学奥林匹克)以及 ICPC World Finals 2025 的金牌。

  • 代价: 强悍的能力伴随着高昂的成本。它消耗的 Token 更多,目前仅供研究使用,暂不支持工具调用。


二、直面痛点

DeepSeek 团队在技术论文中坦诚地指出,过去几个月,开源模型在复杂任务上的表现确实被闭源模型甩开了。他们总结了限制开源模型发展的三大“拦路虎”:

  1. 架构缺陷: 朴素注意力机制在处理长序列时效率极低。

  2. 资源分配偏差: 后训练(Post-training)阶段计算投入不足。

  3. Agent 能力滞后: 泛化能力和指令遵循能力差,无法胜任真实部署。

针对这些问题,DeepSeek 给出了他们的“破局三板斧”:

第一斧:DSA 稀疏注意力机制

DSA

为了解决效率问题,DeepSeek 引入了 DSA(DeepSeek 稀疏注意力)。这不仅仅是微调,而是架构级的优化。它在保持高性能的同时,显著降低了计算复杂度,完美适配长上下文场景。

第二斧:可扩展的强化学习(RL)框架

DeepSeek 做了一个大胆的决定:将超过 10% 的计算预算分配给后训练阶段。这套稳定且可扩展的 RL 协议,让模型在“思考”中不断进化,解锁了此前被封印的高级能力。

第三斧:大规模 Agent 任务合成

为了让模型更像一个智能体(Agent),DeepSeek 搞了一套“冷启动 + 大规模合成”的流程。他们生成了超过 1800 个任务环境和 85000 个复杂提示词。这些数据驱动了 RL 过程,让 V3.2 在指令遵循和泛化能力上有了质的飞跃。


Agent 能力的爆发:不仅会想,还会用工具

DeepSeek-V3.2 最令人兴奋的改进之一在于其 Agent(智能体)能力

  • 代码能力: 在 SWE-bench Verified 等榜单上,V3.2 显著优于其他开源模型,甚至支持了 Claude Code 的思考模式(通过 deepseek-reasoner 调用)。

工具调用

  • 工具调用: 在思考模式下,模型支持“多轮思考 + 工具调用”的循环,能够给出更详尽、准确的回答。

  • 性价比: 它证明了在 Agent 场景中,开源模型完全可以成为极具成本效益的替代方案。


三、开源的新起点

DeepSeek-V3.2 系列的发布,证明了通过架构创新(DSA)和策略调整(加大后训练投入),开源模型完全有能力追平甚至在特定领域超越最顶尖的闭源模型。

虽然团队也谦虚地表示,受限于总训练 FLOPs,V3.2 在世界知识的广度上仍有提升空间,但对于开发者和企业用户来说,DeepSeek-V3.2 无疑是目前最具吸引力的选择之一。

目前,DeepSeek-V3.2 已全线开放,网页端、App 和 API 均可体验,技术报告也已同步开源。

在这个 AI 狂飙突进的时代,DeepSeek 再次为开源社区点亮了一盏灯。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。