R1一周年,DeepSeek Model 1悄]然现身

  更新时间:2026-01-21 10:48   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

可以推断出Model1 是 DeepSeek 下一 V32 (DeepSeek-V3.这表明 DeepSeek-V4 在 MLA 架构上进行了

<p class="f_center"><br><br></p> <p id="48P20TRJ" style="text-align:center;">编辑|Panda</p> <p id="48P20TRK">2025 年 1 月 20 日,DeepSeek(深度]求索)正式发布了 DeepSeek-R1 模型,并由此开启了新的开源 LLM 时代。(在 Hugging Face 刚刚发布的《「DeepSeek 时刻」一周年记》博客中,DeepSeek-R1 也是该平台上获赞最多的模型。</p> <p class="f_center"><br><br></p> <p id="48P20TRM">https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment</p> <p id="48P20TRN">如今,刚过一年时间,DeepSeek 的新模型又在 GitHub 悄然现身。</p> <p id="48P20TRO">这些天,DeepSeek 给其 FlashMLA 代码库推送了不少更新,而在这些更新中,一个名为<strong>Model1</strong>的模型引起了广大网友的注意。</p> <p class="f_center"><br><br></p> <p id="48P20TRQ">如下截图所示,这个目前还很神秘的 Model1 不仅出现在了代码与注释中,甚至还有与 DeepSeek-V3.2 并驾齐驱的文件。</p> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p id="48P20TS2">这也不禁让网友们开始猜测,这个 Model1 很可能就是传闻中 DeepSeek 即将在春节前后发布的新模型的代号。</p> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p id="48P20TS8">我们也让 Gemini 帮忙分析了 DeepSeek 的这些 Commit,让其提取了其中的技术细节,结果如下:</p> <p id="48P20TS9">根据 DeepSeek 在 2026 年 1 月提交的 flashmla 库代码变更,可以推断出<strong>Model1 是 DeepSeek 下一代旗舰模型 DeepSeek-V4 的内部开发代号或首个工程版本</strong>。以下是根据代码 diff 提取的技术细节分析:</p> <p id="48P20TSA"><strong>1. 核心架构:回归 512 维标准</strong></p> <p id="48P20TSB">在 csrc/api/common.h 的 DISPATCH_HEAD_DIM 宏中,可以看到 head_dim 的分支处理:</p> <p></p> <ul> V32 (DeepSeek-V3.2):继续沿用 d_qk = 576 的配置。这是 DeepSeek-V3 引入的非对称 MLA 设计(128 维 RoPE + 448 维 Latent)。 Model1:切换到了 512 维。这表明 DeepSeek-V4 在 MLA 架构上进行了「标准化」回归,可能是为了更好地匹配 Blackwell (SM100) 架构的算力对齐,或者优化了 Latent 压缩比例。 </ul> <p id="48P20TSC"><strong>2. 全面支持 Blackwell (SM100) 架构</strong></p> <p id="48P20TSD">代码库中出现了大量针对 NVIDIA 下一代 Blackwell GPU 的专门优化:</p> <p></p> <ul> SM100 接口:api.cpp 中新增了 FMHACutlassSM100FwdRun。这直接指向了 Blackwell 架构的核心指令集优化。 CUDA 版本要求:README 提到在 B200 上运行需要 CUDA 12.9。 性能表现:在 B200 上,目前尚未完全优化的 Sparse MLA 算子已能达到 350 TFlops。而在 H800 (SM90a) 上,Dense MLA 的计算吞吐量高达 660 TFlops。 </ul> <p id="48P20TSE"><strong>3. 引入「Token-level Sparse MLA」</strong></p> <p id="48P20TSF">这是 Model1 相比 V3 系列最显著的算子演进:</p> <p></p> <ul> Sparse & Dense 并行:测试脚本中出现了 test_flash_mla_sparse_decoding.py 和 test_flash_mla_dense_decoding.py。 FP8 KV Cache 混合精度:Sparse 算子使用 FP8 存储 KV Cache,但在计算矩阵乘法时使用 bfloat16 以保证精度。这说明<strong>Model1 在极长上下文场景下,会通过「稀疏化推理」来降低显存压力和提升速度</strong> </ul> <p id="48P20TSG"><strong>4. 新机制:Value Vector Position Awareness (VVPA) 与 Engram</strong></p> <p id="48P20TSH">虽然 diff 主要是算子层面的,但结合 DISPATCH_MODEL_TYPE 的逻辑和社区披露,Model1 引入了以下新特性:</p> <p></p> <ul> VVPA(数值向量位置感知):这可能解决了传统 MLA 在长文本下位置信息衰减的问题。 Engram 机制:<strong>这被认为是 DeepSeek 在分布式存储或 KV 压缩上的新突破,用于配合 Model1 的高吞吐需求</strong> </ul> <p id="48P20TSI">而 Gemini 之所以判断 Model1 是 DeepSeek 下一代旗舰模型 DeepSeek-V4 的内部开发代号或首个工程版本,是因为它认为在下面所示的代码中,MODEL1 的定位是一个与 V32 并列且独立的分支,「<strong>说明它不是 V3 系列的补丁,而是一个采用了不同架构参数的全新模型</strong>。按照 DeepSeek 的命名惯例,在 V3.2 之后的旗舰级架构跨越,逻辑上即为 V4。」</p> <p class="f_center"><br><br></p> <p id="48P20TSK">对此,你怎么看,你觉得 Model1 就是传说中的 DeepSeek V4 吗?</p>

编辑:金善禹