share_log

阿里夜盘再涨逾2%,隔夜飙升近7%,通义千问Qwen 2.5-Max超大规模MoE模型发布,号称优于Deepseek V3等竞品

阿里夜盤再漲逾2%,隔夜飆升近7%,通義千問Qwen 2.5-Max超大規模MoE模型發佈,號稱優於Deepseek V3等競品

IT之家 ·  01/29 02:28

新年之際, $阿里巴巴 (BABA.US)$ 旗下阿里雲公佈了其全新的通義千問 Qwen 2.5-Max 超大規模 MoE 模型,大家可以通過 API 的方式進行訪問,也可以登錄 Qwen Chat 進行體驗,例如直接與模型對話,或者使用 artifacts、搜索等功能。

截至發稿,阿里夜盤再漲逾2%,隔夜飆升近7%。

據介紹,通義千問 Qwen 2.5-Max 使用超過 20 萬億 token 的預訓練數據及精心設計的後訓練方案進行訓練。

性能

阿里雲直接對比了指令模型的性能表現(IT之家注:指令模型即我們平常使用的可以直接對話的模型)。對比對象包括 DeepSeek V3、GPT-4o 和 Claude-3.5-Sonnet,結果如下:

在 Arena-Hard、LiveBench、LiveCodeBench 和 GPQA-Diamond 等基準測試中,Qwen2.5-Max 的表現超越了 DeepSeek V3,同時在 MMLU-Pro 等其他評估中也展現出了極具競爭力的成績。

在基座模型的對比中,由於無法訪問 GPT-4o 和 Claude-3.5-Sonnet 等閉源模型的基座模型,阿里雲將 Qwen2.5-Max 與目前領先的開源 MoE 模型 DeepSeek V3、最大的開源稠密模型 Llama-3.1-405B,以及同樣位列開源稠密模型前列的 Qwen2.5-72B 進行了對比。對比結果如下圖所示:

我們的基座模型在大多數基準測試中都展現出了顯著的優勢。我們相信,隨着後訓練技術的不斷進步,下一個版本的 Qwen2.5-Max 將會達到更高的水平。

富途5x24小時美股交易,方便隨時彈入彈出,快來體驗吧>>

編輯/danial

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
15
評論 評論 10 · 瀏覽 13萬

評論(10)

熱點推薦

寫評論
10

聲明

本頁的譯文內容由軟件翻譯。富途將竭力但卻不能保證翻譯內容之準確和可靠,亦不會承擔因任何不準確或遺漏而引起的任何損失或損害。