share_log

中国不只有DeepSeek,阿里除夕夜抛出重磅新模型,是时候整体重估中国AI资产了吗?

中國不只有DeepSeek,阿里除夕夜拋出重磅新模型,是時候整體重估中國AI資產了嗎?

華爾街見聞 ·  01/29 04:11

當阿里雲展現出"強大模型+充足算力+完整雲平台"的組合優勢時,是否印證了類似去年北美雲計算服務商的投資邏輯?

農曆除夕夜,在全球華人喜迎新春之時,紐約證券交易所的電子屏上,$阿里巴巴 (BABA.US)$美股股價在收盤前出現顯著異動——從漲幅1%快速拉升至6.7%。

行情異動的背後,是一場沒有硝煙的技術奇襲。

1月29日凌晨,阿里通義千問團隊悄然上線的大模型Qwen2.5-Max,在多個權威基準測試中展現出與全球頂級模型比肩的性能。

繼DeepSeek之後,Qwen2.5-Max的發佈是中國AI陣營在高性能、低成本技術路線上的又一重要突破。

市場人士分析稱,此前過度聚焦DeepSeek,卻忽視了包括阿里通義在內的中國AI整體性追趕。行業媒體《信息平權》表示,若阿里Qwen-2.5-max這次的確性能超過V3,可以對其RL推理模型給予更大期待。

進一步,當阿里雲展現出"強大模型+充足算力+完整雲平台"的組合優勢時,是否印證了類似去年北美雲計算服務商的投資邏輯?如果美股因AI整體增值10萬億美元,中國AI資產的重估時機是否已至?

全面對標全球頂級模型,百萬token里程碑

Qwen2.5-Max採用超大規模MoE(混合專家)架構,基於超過20萬億token的預訓練數據。

在測試大學水平知識的MMLU-Pro、評估編程能力的LiveCodeBench、綜合能力評估的LiveBench,以及近似人類偏好的Arena-Hard等多個權威評測中,該模型均展現出與DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩,甚至領先的性能。

阿里團隊表示,隨着後訓練技術的不斷進步,下一個版本將有望達到更高水平。

Qwen2.5團隊同步發佈了兩個創新型號:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。這些開源模型支持高達100萬token的上下文窗口,成爲業內首個達到此規模的公開可用模型。

這些模型使用稀疏注意力,只關注上下文中最重要的部分。這種方法處理百萬token輸入的速度比傳統方法快3到7倍,輸出長度可達8000個token。然而,這需要模型識別上下文文檔中的關鍵段落——這是當前語言模型經常難以完成的任務。

在測試中,14B型號和Qwen2.5-Turbo在查找非常長的文檔中的隱藏數字時都達到了完美的準確性。較小的7B型號也表現良好,只有輕微的錯誤。

在RULER、LV-Eval和LongbenchChat等要求更高的複雜的上下文測試中,百萬token模型的表現優於128K token模型,尤其是在超過64K token的序列中,14B型號甚至在RULER中得分超過90分——這是Qwen系列的第一次——在多個數據集上持續擊敗gpt - 4o mini。

是時候整體重估中國AI資產了嗎?

如果說DeepSeek V3的橫空出世展現了中國AI的銳度,那麼本次阿里的突破則體現了產業生態的深度進化。

在Qwen2.5-Max發佈當天,阿里雲百鍊平台同步開放了完整的工具鏈支持,開發者可以直接在雲端調用。這種"超算集群+開源生態+雲原生"的三位一體架構,與北美AWS、Azure、GCP三大雲服務商的商業模式形成鏡像。

此外,根據我們之前提到的摩根士丹利最新研報,低成本高性能模型也將重塑數據中心和軟體行業格局:

  • 對於中國數據中心而言,短期內,如果大型科技公司採用類似技術路線,可能減少AI訓練相關需求。但從長遠來看,低成本模型將推動推理需求增長,對一線城市數據中心形成利好;

  • 對於中國軟件行業,AI模型成本的降低將降低應用程序運行AI功能的門檻,從供給側改善行業環境。

如果阿里Qwen-2.5-max的性能確實展現出預期水平,加之其低成本優勢與完整雲生態,或引發DeepSeek之後的中國AI資產新一輪重估。

富途5x24小時美股交易,方便隨時彈入彈出,快來體驗吧>>

編輯/danial

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
42
評論 評論 23 · 瀏覽 21.3萬

評論(23)

熱點推薦

寫評論
23

聲明

本頁的譯文內容由軟件翻譯。富途將竭力但卻不能保證翻譯內容之準確和可靠,亦不會承擔因任何不準確或遺漏而引起的任何損失或損害。