
在人工智能的大模型赛道上,"开源模型即将消亡"的论调在过去几个月里甚嚣尘上。随着闭源专有模型(如 OpenAI 和 Google 的顶级模型)迭代速度的加快,两者之间的鸿沟似乎正在不可逆转地扩大。
然而,12月1日晚间,DeepSeek 扔下了一枚重磅炸弹:正式发布并开源 DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale 两款新模型。
这不仅仅是一次常规的版本更新,更是一次开源对闭源的有力回应。根据官方数据,DeepSeek-V3.2 已经达到了 GPT-5 的水平,而专攻极难推理的 Speciale 版本则在性能上媲美 Gemini-3.0-Pro。
DeepSeek 用技术实力宣告:开源模型,重回全球第一梯队。

一、平衡实用与极致推理
DeepSeek 这次发布的策略非常清晰,针对不同场景推出了两款定位截然不同的模型:
1. DeepSeek-V3.2:日常任务的全能选手
-
定位: 平衡推理能力与输出长度,适合问答、通用 Agent 等场景。
-
表现: 在推理类 Benchmark 中,它达到了 GPT-5 的水平,仅略逊于 Gemini-3.0-Pro。
-
亮点: 效率惊人。相比 Kimi-K2-Thinking,V3.2 的输出长度大幅缩短,这意味着用户等待时间更短,API 调用成本更低。
2. DeepSeek-V3.2-Speciale:探索边界的“偏科天才”
-
定位: 极致的推理能力,长思考增强版,集成了 DeepSeek-Math-V2 的定理证明能力。
-
战绩: 这是一个不折不扣的“竞赛收割机”。它成功斩获了 IMO 2025(国际数学奥林匹克)、IOI 2025(国际信息学奥林匹克)以及 ICPC World Finals 2025 的金牌。
-
代价: 强悍的能力伴随着高昂的成本。它消耗的 Token 更多,目前仅供研究使用,暂不支持工具调用。
二、直面痛点
DeepSeek 团队在技术论文中坦诚地指出,过去几个月,开源模型在复杂任务上的表现确实被闭源模型甩开了。他们总结了限制开源模型发展的三大“拦路虎”:
-
架构缺陷: 朴素注意力机制在处理长序列时效率极低。
-
资源分配偏差: 后训练(Post-training)阶段计算投入不足。
-
Agent 能力滞后: 泛化能力和指令遵循能力差,无法胜任真实部署。
针对这些问题,DeepSeek 给出了他们的“破局三板斧”:
第一斧:DSA 稀疏注意力机制

为了解决效率问题,DeepSeek 引入了 DSA(DeepSeek 稀疏注意力)。这不仅仅是微调,而是架构级的优化。它在保持高性能的同时,显著降低了计算复杂度,完美适配长上下文场景。
第二斧:可扩展的强化学习(RL)框架
DeepSeek 做了一个大胆的决定:将超过 10% 的计算预算分配给后训练阶段。这套稳定且可扩展的 RL 协议,让模型在“思考”中不断进化,解锁了此前被封印的高级能力。
第三斧:大规模 Agent 任务合成
为了让模型更像一个智能体(Agent),DeepSeek 搞了一套“冷启动 + 大规模合成”的流程。他们生成了超过 1800 个任务环境和 85000 个复杂提示词。这些数据驱动了 RL 过程,让 V3.2 在指令遵循和泛化能力上有了质的飞跃。
Agent 能力的爆发:不仅会想,还会用工具
DeepSeek-V3.2 最令人兴奋的改进之一在于其 Agent(智能体)能力。
-
代码能力: 在 SWE-bench Verified 等榜单上,V3.2 显著优于其他开源模型,甚至支持了 Claude Code 的思考模式(通过 deepseek-reasoner 调用)。

-
工具调用: 在思考模式下,模型支持“多轮思考 + 工具调用”的循环,能够给出更详尽、准确的回答。
-
性价比: 它证明了在 Agent 场景中,开源模型完全可以成为极具成本效益的替代方案。
三、开源的新起点
DeepSeek-V3.2 系列的发布,证明了通过架构创新(DSA)和策略调整(加大后训练投入),开源模型完全有能力追平甚至在特定领域超越最顶尖的闭源模型。
虽然团队也谦虚地表示,受限于总训练 FLOPs,V3.2 在世界知识的广度上仍有提升空间,但对于开发者和企业用户来说,DeepSeek-V3.2 无疑是目前最具吸引力的选择之一。
目前,DeepSeek-V3.2 已全线开放,网页端、App 和 API 均可体验,技术报告也已同步开源。
在这个 AI 狂飙突进的时代,DeepSeek 再次为开源社区点亮了一盏灯。

评论(0)