DeepSeek正灰度測試新一代模型。部分用戶打開App後收到更新版本的提示,新版本上下文長度從128K擴展至1M,知識庫更新至2025年5月,官方App顯示或是V4正式亮相前的終極灰度版。野村證券報告指出,V4的核心價值在於通過底層架構創新推動AI應用商業化落地,而非顛覆現有AI價值鏈。
DeepSeek正在推進新版本模型的灰度測試,或是V4正式亮相前的終極灰度版。
2月11日,部分用戶打開DeepSeek App後收到更新版本的提示。APP更新後(1.7.4),用戶可體驗到DeepSeek最新模型。本次升級後,模型上下文長度將從128K擴展至1M,接近提升10倍;知識庫更新至2025年5月,多項核心能力獲得實質性提升。

作者實測發現,DeepSeek在問答中稱,當前的版本很可能也不是V4,極有可能是V3系列的最終進化形態,或是V4正式亮相前的終極灰度版。

野村證券於2月10日發佈報告稱,預計2026年2月中旬推出的DeepSeek V4模型,不會重現去年V3發佈時引發的全球AI算力需求恐慌。該行認爲,V4的核心價值在於通過底層架構創新推動AI應用商業化落地,而非顛覆現有AI價值鏈。
據測評,新版本在複雜任務處理能力上已對齊Gemini 3 Pro及K2.5等主流閉源模型。野村進一步指出,V4預計將引入mHC與Engram兩項創新技術,從算法與工程層面突破算力芯片與內存瓶頸。內部初步測試顯示,V4在編程任務中的表現已超越Anthropic Claude及OpenAI GPT系列同代模型。
此次發佈的關鍵意義在於進一步壓縮訓練與推理成本,爲全球大語言模型及AI應用企業緩解資本開支壓力提供可行路徑。
創新架構針對硬件瓶頸優化
野村證券報告指出,算力芯片性能與HBM內存瓶頸,始終是國產大模型產業繞不開的硬約束。即將發佈的DeepSeek V4所引入的mHC(超連接與流形約束超連接)與Engram架構,正是從訓練與推理兩個維度,針對上述短板進行系統級優化。
mHC:
全稱爲「流形約束超連接」。它旨在解決Transformer模型在層數極深時,信息流動的瓶頸和訓練不穩定的問題。
簡單說,它讓神經網絡層之間的「對話」更豐富、更靈活,同時通過嚴苛的數學「護欄」防止信息被放大或破壞。實驗證明,採用mHC的模型在數學推理等任務上表現更優。

Engram:
一個「條件記憶」模塊。它的設計理念是將「記憶」與「計算」解耦。
模型中的靜態知識(如實體、固定表達)被專門存儲在一個稀疏的內存表中,這個表可以放在廉價的DRAM裏。當需要推理時,再去快速查找。這釋放了昂貴的GPU內存(HBM),讓其專注於動態計算。

mHC技術通過改善訓練穩定性和收斂效率,在一定程度對沖國產芯片在互聯帶寬與計算密度上的代際差距;而Engram架構則致力於重構內存調度機制,在HBM供應受限的背景下,以更高效的存取策略突破顯存容量與帶寬制約。野村認爲,這兩項創新共同構成一套面向國產硬件生態的適配方案,具有明確的工程落地價值。
報告進一步指出,V4發佈帶來的最直接商業影響,是訓練與推理成本的實質性下降。成本端的優化將有效激發下游應用需求,進而催生新一輪AI基礎設施建設週期。在此過程中,中國AI硬件廠商有望受益於需求放量與投資前置帶來的雙重拉動。
市場格局從"一家獨大"轉向"群雄割據"
野村報告回顧了DeepSeek-V3/R1發佈一年後的市場格局變化。在2024年底,DeepSeek的兩個模型曾佔據OpenRouter上開源模型Token使用量的一半以上。

但到2025年下半年,隨着更多玩家加入,其市場份額已顯著下降。市場從"一家獨大"走向了"群雄割據"。V4面臨的競爭環境遠比一年前複雜。DeepSeek的"算力管理效率"疊加"性能提升"加速了中國大語言模型與應用發展,也改變了全球競爭格局,推動開源模型更受關注。
軟件公司迎來價值提升機遇
野村認爲,全球主要雲服務商正全力追逐通用人工智能,資本開支競賽遠未停歇,因此V4預計不會對全球AI基礎設施市場造成去年那種級別的衝擊波。
但全球大模型及應用開發商正揹負着日益沉重的資本開支負擔。V4若能在維持高性能的同時顯著降低訓練與推理成本,將幫助這些企業更快地將技術轉化爲收入,緩解盈利壓力。
在應用側,更強大、更高效的V4將催生更強大的AI智能體。報告觀察到,像阿里通義千問App等已經能夠以更自動化的方式執行多步驟任務,AI智能體正從"對話工具"轉型爲能處理複雜任務的"AI助手"。
這些能執行多任務的智能體需要更頻繁地與底層大模型交互,將消耗更多Token,進而推高算力需求。因此模型效能的提升不僅不會"殺死軟件",反而爲領先的軟件公司創造了價值。野村強調,需要關注那些能率先利用新一代大模型能力打造出顛覆性AI原生應用或智能體的軟件公司。它們的增長天花板可能因模型能力的飛躍而被再次推高。
編輯/jayden