share_log

大模型价格战卷至“厘时代”!阿里云通义千问主力模型降价97%

大模型價格戰卷至“厘時代”!阿里雲通義千問主力模型降價97%

科創板日報 ·  05/21 19:40

來源:科創板日報

①阿里雲通義千問GPT-4級主力模型的API輸入價格從0.02元/千tokens降至0.0005元/千tokens。本月字節跳動的大模型也宣佈降價,大模型定價已進入了“厘時代”。 ②頭部企業都會選擇多家模型接入,在不同應用場景選擇更合適的模型,這意味大模型廠商之間的競爭十分激烈。

今日,$阿里巴巴-SW (09988.HK)$/$阿里巴巴 (BABA.US)$雲拋出重磅炸彈,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,即0.5厘/千tokens,直降97%。這意味着,1塊錢可以買200萬tokens,相當於5本《新華字典》的文字量。

值得一提的是,本月智譜AI、字節跳動的大模型也都紛紛宣佈降價。其中,字節的豆包主力模型的定價爲0.0008元/千Tokens,即0.8厘/千tokens,被認爲帶動大模型定價進入了“厘時代”。

業內分析認爲,此輪大模型降價潮,是各家廠商希望進一步搶佔市場,從而加速AI應用的商業化落地。

9款商業化及開源系列模型降價

Qwen-Long是通義千問的長文本增強版模型,性能對標GPT-4,上下文長度最高1千萬。除了輸入價格降至0.0005元/千tokens,Qwen-Long輸出價格也降90%至0.002元/千tokens。相比之下,國內外廠商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens輸入價格分別爲0.22元、0.025元、0.022元及0.12元。

通義千問本次降價共覆蓋9款商業化及開源系列模型。不久前發佈的通義千問旗艦款大模型Qwen-Max,API輸入價格降至0.04元/千tokens,降幅爲67%。

就在不久前,智譜AI、字節跳動旗下火山引擎也紛紛宣佈了降價。5月11日,智譜AI大模型的新註冊用戶獲得額度從500萬tokens提升至2500萬tokens,個人版 GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。GLM-3 Turbo Batch 批處理API也便宜了50%,價格爲1元/200萬tokens。

15日,火山引擎宣佈豆包Pro 32k模型定價是0.8厘/千tokens。此外,豆包Pro 128k模型定價是5厘錢/千tokens。

對於此輪降價潮,不少業內分析指出,大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變,但推理成本過高依然是制約大模型規模化應用的關鍵因素

在武漢AI智領者峯會現場,阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光稱:“阿里雲這次大幅降低大模型推理價格,就是希望加速AI應用的爆發。我們預計2024年大模型API的日調用次數有望突破100億。”

劉偉光判斷,不管是開源模型還是商業化模型,公共雲+API將成爲企業使用大模型的主流方式。“雲上調用成本遠對於私有云部署。在追求更大尺寸的模型時,企業要面對GPU採購、軟件部署、網絡費用、電費、人力成本等等。隨着大模型的規模變大,對於私有化部署的成本和複雜性會越來越高。去年還有不少企業考慮購買上百臺GPU服務器,來搭建計算網絡集群。但今年很多公司已經放棄了自建百臺集群的大模型研發

百度創始人李彥宏也在業績會表示,“模型推理是最重要的長期機會之一,這將成爲雲業務的關鍵驅動力。4月,文心大模型API日調用量爲2億次。去年12月時,該數據爲5000萬次。

誰能搶抓模型推理的市場機遇?

談及通義千問的這次降價幅度,多名大模型行業專家在接受《科創板日報》記者採訪時評價,“力度很大”、“很便宜了”。

不過,也有云計算架構師向記者指出,實際作用還是要看“療效”

“市面上大模型太多了。療效好,多少都不貴;如果療效不好,多少都是貴。”

記者了解到,目前頭部企業都會選擇多家模型接入,在不同應用場景選擇更合適的模型,這意味大模型廠商之間的競爭十分激烈。

比如,小米在接入文心大模型API的同時,小米旗下的人工智能助手“小愛同學”也宣佈與阿里雲通義大模型展開合作,強化其在圖片生成、圖片理解等方面的多模態AI生成能力。

在剛剛發佈的今年一季度業績中,阿里、百度均提及了生成式AI對收入增長帶來的正面影響。百度智能雲收入爲47億人民幣,同比增長12%,其中生成式AI帶來的收入佔比6.9%。測算下來,百度的生成式AI一季度收入約爲3.24億元

在阿里業績電話會上,阿里集團CEO吳泳銘表示,預計今年下半年雲業務將恢復雙位數增長,而收入增長主要來自AI新產品的驅動。對於大模型的未來目標,吳泳銘稱,“我們將會把“通義千問”大模型與阿里雲的先進AI基礎設施進行軟硬件協同優化,來爲中國的開發者或者中國的企業提供AI能力非常強、性價比非常高的AI大模型推理服務。”

開源閉源路線之爭

值得一提的是,百度和阿里在大模型是否開源上選擇了截然不同的路線。

4月底,阿里雲開源了1100億參數模型Qwen1.5-110B。迄今通義開源大模型的累計下載量超過了700萬。

“通義的開源模型在中文世界的開發者使用最廣泛,當開發者使用阿里雲的開源模型,需要把應用部署到線上的時候,就會自然而然地選用阿里雲的服務。”吳泳銘稱。

百度方面,李彥宏則多次宣傳閉源的優勢。在Create 2024百度AI開發者大會上,他曾直言“開源模型會越來越落後”。5月15日,百度還發布公告稱:“閉源大模型+公有云”已經成爲全球AI市場的主流趨勢。“閉源大模型+公有云”能實現比開源大模型性能更好、成本更低的綜合效果,並以此促進AI應用生態繁榮。

當下,國際廠商在開閉源路線上各有側重。比如OpenAI的GPT-4模型就是採用閉源模式,而Meta選擇完全開源。其餘大模型公司則將模型“低配版”開源,更高參數量的模型閉源。比如,谷歌Gemini多模態模型閉源,今年2月宣佈開源單模態Gemma語言模型。

IDC中國研究總監盧言霞稱,未來到底是開源還是閉源。跟頭部企業的選擇有很大關係。這個領域目前還是有很大不確定。

一位大模型青年學者對記者表示,開源和閉源路線各有特色,但開源肯定更爲促進行業發展。

艾瑞諮詢在一份AIGC產業報告中分析,大模型技術前沿廠商出於打造自身先進模型壁壘、構建技術護城河的商業考慮,會選擇閉源或逐步從開源走向閉源,以保證模型的先進性、穩定性、安全性。而開源可以促進廣大開發者和研究者的創新,從商用角度加速大模型的商業化進程與落地效果。艾瑞諮詢認爲:“未來,開源和閉源的大模型會並存和互補。”

編輯/tolk

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論