share_log

击穿全网底价,通义千问GPT-4级大模型直降97%!1块钱能买200万tokens

擊穿全網底價,通義千問GPT-4級大模型直降97%!1塊錢能買200萬tokens

量子位 ·  05/21 16:07

來源:量子位

通義千問GPT-4級大模型,直接擊穿全網底價!

就在剛剛,阿里突然放出大招,官宣9款通義大模型降價

其中,性能對標GPT-4的主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,也就是1塊錢能買200萬tokens,相當於5本《新華字典》的文字量,堪稱全球大模型的性價比之王。

更直觀一點對比——

Qwen-Long支持1000萬tokens的長文本輸入,對比GPT-4,價格僅爲1/400。

超大杯新品,此番也在降價名單中:剛發佈不久的通義千問超大杯Qwen-max,API輸入價格也直降67%,低至0.02元/千tokens。

開源方面,Qwen1.5-72B、Qwen1.5-110B等5款開源模型的輸入價格也分別直降75%以上。

這波操作,再次擊穿全網最低價,可以說是專屬大模型企業、程序員的618狂歡了。

1塊錢200萬token

來看具體降價情況:

本次降價,共覆蓋9款通義千問系列模型,商業化模型、開源模型全都在列。

包括:

Qwen-Long,性能對標GPT-4,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,降幅97%;API輸出價格從0.02元/千tokens降至0.002元/千tokens,降幅90%。

Qwen-max,在權威基準OpenCompass上性能追平GPT-4-turbo,API輸入價格從0.12/千tokens降至0.04元/千tokens,降幅67%。

上榜大模型競技場排名的Qwen1.5系列開源模型方面,Qwen1.5-72B的API輸入價格從0.02元/千tokens降至0.005元/千tokens,降幅75%;API輸出價格從0.02元/千tokens降至0.01元/千tokens,降幅50%。

與OpenAI的GPT系列相比,降價後的通義千問系列,基本上都是1折購,性價比拉滿。

以降幅最大的Qwen-Long爲例,價格僅爲GPT-4的1/400,性能指標上卻並不遜色。

尤其在長文本方面,Qwen-Long支持最長1000萬tokens的超長上下文對話,也就是能輕鬆處理約1500萬字或1.5萬頁的文檔。配合同步上線的文檔服務,還可支持word、pdf、Markdown、epub、mobi等多種文檔格式的解析和對話。

值得關注的是,不同於國內大部分廠商輸入輸出價格相同的定價方式,這次Qwen-Long的輸入價格比輸出價格降幅更大。

對此,阿里官方也給出了解釋:

現在,用戶結合長文本(論文、文檔等)對大模型提問已經成爲最常見的需求之一,所以模型輸入調用量往往大於輸出調用量

根據統計,真實的模型輸入調用量一般是輸出的8倍左右。我們把用戶使用量最大的輸入token價格大幅降下去,對企業來說更划算,可以更好地做到普惠。

也是希望大家把長文本用起來。

阿里一出手就是大招

說起來,這已經不是阿里雲第一次擊穿行業底價。

就在今年的2月29日,阿里雲剛剛整過一個雲產品“瘋狂星期四”的大活兒:全線雲產品價格直降20%,最高降幅達55%。

屬實是砍自己一大刀了。

如此大手筆,底氣來源是阿里雲作爲國內第一大公有云廠商,在長期技術積累和規模效應下,已經構建起完備的AI基礎設施和Infra技術優勢。

而此番誠意滿滿的降價,背後更是顯露出大模型應用時代,這種技術紅利正在成爲公有云廠商的“殺手鐧”之一。

在AI基礎設施層面,從芯片層到平台層,阿里雲已經基於自研的異構芯片互聯、高性能網絡HPN7.0、高性能存儲CPFS、人工智能平台PAI等核心技術和產品,構建起了高彈性的AI算力調度系統。

舉個例子,PAI支持10萬卡量級的集群可擴展規模,超大規模訓練線性拓展效率達96%。在大模型訓練任務中,達到同樣效果可節省超50%算力資源,性能達到全球領先水平。

推理優化方面,阿里雲主要提供了三大能力:

其一,高性能優化。包括系統級的推理優化技術,以及高性能算子、高效推理框架、編譯優化的能力。

其二,自適應調優。隨着AI應用的多樣化,一個單一的模型很難在所有場景中都保持最佳效能,自適應推理技術允許模型根據輸入數據的特性和計算環境的約束,動態調整推理技術應用和計算資源選型。

其三,可擴展部署。模型推理部署資源的擴展和彈性,能解決推理服務在一定時期內的潮汐現象。

此前,阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光也表示,公有云的技術紅利和規模效應,會帶來巨大的成本和性能優勢。

這將促使“公有云+API成爲企業調用大模型的主流方式”。

大模型應用時代主流路線:公有云+API

這也正是阿里雲把大模型“價格戰”再度推向高潮的核心原因。

尤其對於中小企業、創業團隊而言,公有云+API一直以來被視作做大模型應用的性價比之選:

儘管開源模型發展勢頭迅猛,以Llama 3爲代表的最強模型們更被認爲已經有媲美GPT-4的表現,但私有化部署仍然面臨着成本高昂的問題。

以使用Qwen-72B開源模型、每月1億token用量爲例,在阿里雲百鍊上直接調用API,每月僅需600元,私有化部署成本則平均每月超10000元。

除此之外,公有云+API模式還便於多模型調用,能提供企業級的數據安全保障。以阿里云爲例,阿里雲可以爲企業提供專屬VPC環境,做到計算隔離、存儲隔離、網絡隔離、數據加密。目前,阿里雲已主導、深度參與10多項大模型安全相關國際國內技術標準的制定。

雲廠商的開放性,還能爲開發者提供更豐富的模型和工具鏈選擇。比如,阿里雲百鍊平台在通義千問之外,還支持Llama系列、百川、ChatGLM等上百款國內外大模型,同時提供大模型應用一站式開發環境,可以做到5分鐘開發一款大模型應用、5到10行代碼即可搭建企業級RAG應用。

量子位智庫在《中國AIGC應用全景報告》中提到,AIGC應用產品中,基於自建垂直大模型和API接入的產品佔到將近7成。

這一數據同樣從側面佐證了“公有云+API”模式的市場潛力:在應用市場,對業務的理解和數據積累才是破局關鍵,在公有云+API的基礎上做應用,在成本和啓動速度方面都是更現實的選擇。

實際上,無論是直觀的價格之爭,還是更深層次的AI基礎設施之卷,反映出的都是,當大模型發展焦點逐步從基礎模型邁向落地應用,平台廠商如何降低大模型的使用門檻,已經成爲競爭的關鍵所在

劉偉光指出:

作爲中國第一大雲計算公司,阿里雲這次將主流大模型API輸入價格降低97%,就是希望加速AI應用的爆發。

我們預計未來大模型API的調用量會有成千上萬倍的增長。

總結起來就是,一方面,對於平台廠商而言,“價格戰”背後其實是基礎設施、技術能力之爭;另一方面,對於整個大模型行業而言,應用是否能持續爆發、進一步普及,入局門檻、運營成本已成關鍵因素。

如此看來,近來捲起的降價趨勢,對於開發者和期待更多大模型應用的胖友們而言,不可謂不是利好消息。

你覺得呢?

編輯/lambor

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論