當阿里雲展現出"強大模型+充足算力+完整雲平台"的組合優勢時,是否印證了類似去年北美雲計算服務商的投資邏輯?
農曆除夕夜,在全球華人喜迎新春之時,紐約證券交易所的電子屏上,$阿里巴巴 (BABA.US)$美股股價在收盤前出現顯著異動——從漲幅1%快速拉升至6.7%。
行情異動的背後,是一場沒有硝煙的技術奇襲。
1月29日凌晨,阿里通義千問團隊悄然上線的大模型Qwen2.5-Max,在多個權威基準測試中展現出與全球頂級模型比肩的性能。
繼DeepSeek之後,Qwen2.5-Max的發佈是中國AI陣營在高性能、低成本技術路線上的又一重要突破。
市場人士分析稱,此前過度聚焦DeepSeek,卻忽視了包括阿里通義在內的中國AI整體性追趕。行業媒體《信息平權》表示,若阿里Qwen-2.5-max這次的確性能超過V3,可以對其RL推理模型給予更大期待。
進一步,當阿里雲展現出"強大模型+充足算力+完整雲平台"的組合優勢時,是否印證了類似去年北美雲計算服務商的投資邏輯?如果美股因AI整體增值10萬億美元,中國AI資產的重估時機是否已至?
全面對標全球頂級模型,百萬token里程碑
Qwen2.5-Max採用超大規模MoE(混合專家)架構,基於超過20萬億token的預訓練數據。
在測試大學水平知識的MMLU-Pro、評估編程能力的LiveCodeBench、綜合能力評估的LiveBench,以及近似人類偏好的Arena-Hard等多個權威評測中,該模型均展現出與DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩,甚至領先的性能。
阿里團隊表示,隨着後訓練技術的不斷進步,下一個版本將有望達到更高水平。
Qwen2.5團隊同步發佈了兩個創新型號:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。這些開源模型支持高達100萬token的上下文窗口,成爲業內首個達到此規模的公開可用模型。
這些模型使用稀疏注意力,只關注上下文中最重要的部分。這種方法處理百萬token輸入的速度比傳統方法快3到7倍,輸出長度可達8000個token。然而,這需要模型識別上下文文檔中的關鍵段落——這是當前語言模型經常難以完成的任務。
在測試中,14B型號和Qwen2.5-Turbo在查找非常長的文檔中的隱藏數字時都達到了完美的準確性。較小的7B型號也表現良好,只有輕微的錯誤。
在RULER、LV-Eval和LongbenchChat等要求更高的複雜的上下文測試中,百萬token模型的表現優於128K token模型,尤其是在超過64K token的序列中,14B型號甚至在RULER中得分超過90分——這是Qwen系列的第一次——在多個數據集上持續擊敗gpt - 4o mini。
![](https://newsfile.futunn.com/public/NN-PersistNewsContentImage/7781/20250129/0-d0b8d396f2b68b496a37581363791401-2-e8949276f01461a5a586a455c2c34771.png/big?imageMogr2/quality/minsize/1/ignore-error/1/format/webp)
是時候整體重估中國AI資產了嗎?
如果說DeepSeek V3的橫空出世展現了中國AI的銳度,那麼本次阿里的突破則體現了產業生態的深度進化。
在Qwen2.5-Max發佈當天,阿里雲百鍊平台同步開放了完整的工具鏈支持,開發者可以直接在雲端調用。這種"超算集群+開源生態+雲原生"的三位一體架構,與北美AWS、Azure、GCP三大雲服務商的商業模式形成鏡像。
此外,根據我們之前提到的摩根士丹利最新研報,低成本高性能模型也將重塑數據中心和軟體行業格局:
對於中國數據中心而言,短期內,如果大型科技公司採用類似技術路線,可能減少AI訓練相關需求。但從長遠來看,低成本模型將推動推理需求增長,對一線城市數據中心形成利好;
對於中國軟件行業,AI模型成本的降低將降低應用程序運行AI功能的門檻,從供給側改善行業環境。
如果阿里Qwen-2.5-max的性能確實展現出預期水平,加之其低成本優勢與完整雲生態,或引發DeepSeek之後的中國AI資產新一輪重估。
富途5x24小時美股交易,方便隨時彈入彈出,快來體驗吧>>
編輯/danial
評論(23)
請選擇舉報原因