DeepSeek正在推进新版本模型的灰度测试,或是V4正式亮相前的终极灰度版。
2月11日,部分用户打开DeepSeek App后收到更新版本的提示。APP更新后(1.7.4),用户可体验到DeepSeek最新模型。本次升级后,模型上下文长度将从128K扩展至1M,接近提升10倍;知识库更新至2025年5月,多项核心能力获得实质性提升。

作者实测发现,DeepSeek在问答中称,当前的版本很可能也不是V4,极有可能是V3系列的最终进化形态,或是V4正式亮相前的终极灰度版。

野村证券于2月10日发布报告称,预计2026年2月中旬推出的DeepSeek V4模型,不会重现去年V3发布时引发的全球AI算力需求恐慌。该行认为,V4的核心价值在于通过底层架构创新推动AI应用商业化落地,而非颠覆现有AI价值链。
据测评,新版本在复杂任务处理能力上已对齐Gemini 3 Pro及K2.5等主流闭源模型。野村进一步指出,V4预计将引入mHC与Engram两项创新技术,从算法与工程层面突破算力芯片与内存瓶颈。内部初步测试显示,V4在编程任务中的表现已超越Anthropic Claude及OpenAI GPT系列同代模型。
此次发布的关键意义在于进一步压缩训练与推理成本,为全球大语言模型及AI应用企业缓解资本开支压力提供可行路径。
创新架构针对硬件瓶颈优化
野村证券报告指出,算力芯片性能与HBM内存瓶颈,始终是国产大模型产业绕不开的硬约束。即将发布的DeepSeek V4所引入的mHC(超连接与流形约束超连接)与Engram架构,正是从训练与推理两个维度,针对上述短板进行系统级优化。
mHC
全称为“流形约束超连接”。它旨在解决Transformer模型在层数极深时,信息流动的瓶颈和训练不稳定的问题。
简单说,它让神经网络层之间的“对话”更丰富、更灵活,同时通过严苛的数学“护栏”防止信息被放大或破坏。实验证明,采用mHC的模型在数学推理等任务上表现更优。
Engram
一个“条件记忆”模块。它的设计理念是将“记忆”与“计算”解耦。
模型中的静态知识(如实体、固定表达)被专门存储在一个稀疏的内存表中,这个表可以放在廉价的DRAM里。当需要推理时,再去快速查找。这释放了昂贵的GPU内存(HBM),让其专注于动态计算。
mHC技术通过改善训练稳定性和收敛效率,在一定程度对冲国产芯片在互联带宽与计算密度上的代际差距;而Engram架构则致力于重构内存调度机制,在HBM供应受限的背景下,以更高效的存取策略突破显存容量与带宽制约。野村认为,这两项创新共同构成一套面向国产硬件生态的适配方案,具有明确的工程落地价值。
报告进一步指出,V4发布带来的最直接商业影响,是训练与推理成本的实质性下降。成本端的优化将有效激发下游应用需求,进而催生新一轮AI基础设施建设周期。在此过程中,中国AI硬件厂商有望受益于需求放量与投资前置带来的双重拉动。
市场格局从"一家独大"转向"群雄割据"
野村报告回顾了DeepSeek-V3/R1发布一年后的市场格局变化。在2024年底,DeepSeek的两个模型曾占据OpenRouter上开源模型Token使用量的一半以上。

但到2025年下半年,随着更多玩家加入,其市场份额已显著下降。市场从"一家独大"走向了"群雄割据"。V4面临的竞争环境远比一年前复杂。DeepSeek的"算力管理效率"叠加"性能提升"加速了中国大语言模型与应用发展,也改变了全球竞争格局,推动开源模型更受关注。
软件公司迎来价值提升机遇
野村认为,全球主要云服务商正全力追逐通用人工智能,资本开支竞赛远未停歇,因此V4预计不会对全球AI基础设施市场造成去年那种级别的冲击波。
但全球大模型及应用开发商正背负着日益沉重的资本开支负担。V4若能在维持高性能的同时显著降低训练与推理成本,将帮助这些企业更快地将技术转化为收入,缓解盈利压力。
在应用侧,更强大、更高效的V4将催生更强大的AI智能体。报告观察到,像阿里通义千问App等已经能够以更自动化的方式执行多步骤任务,AI智能体正从"对话工具"转型为能处理复杂任务的"AI助手"。
这些能执行多任务的智能体需要更频繁地与底层大模型交互,将消耗更多Token,进而推高算力需求。因此模型效能的提升不仅不会"杀死软件",反而为领先的软件公司创造了价值。野村强调,需要关注那些能率先利用新一代大模型能力打造出颠覆性AI原生应用或智能体的软件公司。它们的增长天花板可能因模型能力的飞跃而被再次推高。