首页 百科大全文章正文

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

百科大全 2025年08月20日 14:18 1 admin

省流:悲!也许没有 R2 了!V3.1 把 R1 给融了!

重点 1:别被官方微信公告带沟里,128K 不是重点!模型融合推理才是重点!

重点 2:DeepSeek V3-0324 和 DeepSeek V3 用的同一个 base model,但这次的 V3.1 放出了新的 base model,大概率是重新训的新模型。别又被小版本号骗了。

先在前面更新一下我的主观感受:

DeepSeek V3.1 有进步,但不多。反而以前的老毛病回来不少:幻觉、中英文混杂。

如果只是一次实验性的关于 Chat、Reasoning 模型融合的测试,那 V3.1 是一次合格的增量更新。往好处想,如果 V3.1 成了,那将来不用单独部署两套模型,节约了一半的资源。

但如果这是未来一段时间 DeepSeek 的主力模型,而 V4 依旧遥远、R2 再也不见的话,那大家的很多期待也许就落空了。


目前只见到了微信群里的消息,所以还在蹲官方的模型开源以及文档更新,按照惯例会放出新的 Benchmark 成绩和能力说明。

Update 一下,DeepSeek V3.1 Base 的模型地址已经放出来了 (但还没有 model card):

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

很多自媒体依据官方微信群里的说明,把「上下文支持到了 128K」称为这次更新的重点:

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

但是在我看来,128K 绝对不是这次更新的重点。因为 DeepSeek V3/R1 的 Context Length 其实一直都是 128K,只不过 DeepSeek 官方的 API 之前只支持到 64K。

官方在 V3-0324 的说明里写的很明白了:

模型参数约 660B,开源版本上下文长度为 128K(网页端、App 和 API 提供 64K 上下文)

再比如,DeepSeek V3 HuggingFace 模型页

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

SiliconFlow 上的 DeepSeek V3-0324 模型 API 上下文是 128K

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

火山引擎上的 DeepSeek 模型 API 上下文均是 128K

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

虽然上下文长度很重要,但这次最多只能说官方愿意消耗更多算力提供更长的上下文,除非有什么新的扩展上下文同时节约算力的黑科技,否则这并不是重点。

那重点是什么?细心的朋友已经发现了最大的变化:现在即便打开深度思考模式,DeepSeek 显示的依然是 V3 模型。

我们分别来问一下官网深度思考、官网 Reasoner API、火山引擎(R1-0528)、硅基流动(R1-0528):

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

很明显,老版本的 DeepSeek R1 是不会有模型身份的认知错误的,但更新后的 DeepSeek,不论是网页对话,还是 API 调用 Reasoner 推理模型,都会明确说自己就是 V3。

答案只有一个,那就是 DeepSeek 跟 Qwen3(的第一个版本) 一样,被 GPT-5 忽悠进了模型融合、混合推理的沟里,试图把对话模型和推理模型融到了一起。

很难说这种做法好还是不好,毕竟 Qwen3 在尝试过融合推理之后,在新版本的更新里又分别放出了 Instruct 和 Thinking 模型。

而第一个提出要融合模型路线的 GPT-5 ,反而选择了 Chat 模型 + Reasoning 模型 + Router 路由的做法,从发布公告的文字表述上理解,并没有直接激进地融合模型:

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…


diff 了一下 V3.1-Base 和 V3-Base 的配置文件,基本上没有大的改动,主要变化在于:

V3.1 通过新增 token ,提供了完整的思维模式支持:

  • <think> (ID: 128798) - 推理开始标记
  • </think> (ID: 128799) - 推理结束标记
  • <|search▁begin|> (ID: 128796) - 搜索开始标记
  • <|search▁end|> (ID: 128797) - 搜索结束标记

相应的,在 tokenizer 中,占位符Token被功能性Token替代:

  • <|place▁holder▁no▁796|><|search▁begin|>
  • <|place▁holder▁no▁797|><|search▁end|>
  • <|place▁holder▁no▁798|><think>
  • <|place▁holder▁no▁799|></think>

在 Chat Template 中:

  1. 新增 thinking 变量支持: {% if not thinking is defined %}{% set thinking = false %}{% endif %}
  2. 新增 is_last_user 状态跟踪: 用于更精确的对话流程控制
  3. 优化工具调用处理: 简化了工具调用的格式化逻辑
  4. 思维模式集成: 自动在助手回复中添加<think></think>标记

新配置文件:

{  "_from_model_config": true,  "bos_token_id": 0,  "eos_token_id": 1,  "do_sample": true,  "temperature": 0.6,  "top_p": 0.95,  "transformers_version": "4.46.3"} 

综合配置文件的变更来看,V3.1 主要改进了推理模式、对话轮次控制、工具调用流程。(也许可以期待一下 Agent 能力的提升?)


初步测试:

鹈鹕测试,用的 Chat API,没开深度思考,说实话效果还不错。

DeepSeek V3.1 速评:融合 R1 推理能力,以后也许没有 R2 模型了…

相比于其他模型和旧版模型,新版 DeepSeek 特别喜欢写完整的 HTML 网页,而不是单纯的 SVG 代码,甚至执着于给 SVG 里的形象添加动态效果和动作…(还喜欢加标题、写涩话)

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动