DeepSeek-V3.2的目標是平衡推理能力與輸出長度,适合日常使用,例如問答場景和通用Agent任務場景。DeepSeek-V3.2-Speciale的目標是将開源模型的推理能力推向極致,探索模型能力的邊界。
觀點網訊:12月1日,DeepSeek發布,兩個月前發布了實驗性的DeepSeek-V3.2-Exp,並收到了衆多熱心用戶反饋的對比測試結果。目前未發現V3.2-Exp在任何特定場景中顯著差于V3.1-Terminus,這驗證了DSA稀疏注意力機制的有效性。
因此,DeepSeek同時發布兩個正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。
官方網頁端、App和API均已更新為正式版DeepSeek-V3.2,歡迎使用。Speciale版本目前僅以臨時API服務形式開放,以供社區評測與研究。
DeepSeek-V3.2的目標是平衡推理能力與輸出長度,适合日常使用,例如問答場景和通用Agent任務場景。在公開的推理類Benchmark測試中,DeepSeek-V3.2達到了GPT-5的水平,僅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的輸出長度大幅降低,顯著減少了計算開銷與用戶等待時間。
DeepSeek-V3.2-Speciale的目標是将開源模型的推理能力推向極致,探索模型能力的邊界。V3.2-Speciale是DeepSeek-V3.2的長思考增強版,同時結合了DeepSeek-Math-V2的定理證明能力。該模型具備出色的指令跟随、嚴謹的數學證明與邏輯驗證能力,在主流推理基準測試上的性能表現媲美Gemini-3.0-Pro(見表1)。更令人矚目的是,V3.2-Speciale模型成功斬獲IMO2025(國際數學奧林匹克)、CMO2025(中國數學奧林匹克)、ICPCWorldFinals2025(國際大學生程序設計競賽全球總決賽)及IOI2025(國際信息學奧林匹克)金牌。其中,ICPC與IOI成績分别達到了人類選手第二名與第十名的水平。
不同于過往版本在思考模式下無法調用工具的局限,DeepSeek-V3.2是推出的首個将思考融入工具使用的模型,並且同時支持思考模式與非思考模式的工具調用。DeepSeek提出了一種大規模Agent訓練數據合成方法,構造了大量“難解答,易驗證”的強化學習任務(1800+環境,85,000+復雜指令),大幅提高了模型的泛化能力。
DeepSeek-V3.2的思考模式也增加了對ClaudeCode的支持,用戶可以通過将模型名改為deepseek-reasoner,或在ClaudeCodeCLI中按Tab鍵開啟思考模式進行使用。但需要注意的是,思考模式未充分适配Cline、RooCode等使用非標準工具調用的組件,建議用戶在使用此類組件時繼續使用非思考模式。
免責聲明:本文内容與數據由觀點根據公開信息整理,不構成投資建議,使用前請核實。
審校:徐耀輝
