share_log

大模型价格战“卷”向何方?|深度

大模型價格戰“卷”向何方?|深度

財聯社 ·  05/25 15:29

①大廠告別“燒錢出奇跡”思維,將基礎模型做強做實,儘快縮小與國外技術差距; ②創業公司向垂直縱深探索,做“精”做“尖”大模型行業應用,或許才是國內大模型生態可持續發展之道。

《科創板日報》5月25日訊 (記者 黃心怡 毛明江)你降價,我免費。

在經過一年多的“百模大戰”後,AI大模型從5月初幾乎毫無預兆地掀起了“降價潮”,阿里、$百度 (BIDU.US)$、騰訊等紛紛加入戰團。大廠“錢多、卡多、算力足”無懼價格戰,以慣有的免費模式先聚集用戶與開發者。中小大模型創業公司普遍還在勒緊腰帶苦苦打造爆款應用,也不得不匆忙接招。

大模型價格戰“卷”向何方?在《科創板日報》行業採訪與觀察中,大廠告別“燒錢出奇跡”思維,將基礎模型做強做實,儘快縮小與國外技術差距;創業公司向垂直縱深探索,做“精”做“尖”大模型行業應用,或許才是國內大模型生態可持續發展之道。

▍算法革新與模型優化才是價格戰背後真正推手

讓人始料不及的是,國內率先掀起大模型價格戰的是一家“不務正業”的量化私募巨頭——幻方。

這些年國內金融量化交易異軍突起,幻方通過先進的量化交易在國內市場中賺得盆滿鉢滿。嚐到甜頭的幻方全力押注AI驅動下的量化交易,所以花重金大量購入$英偉達 (NVDA.US)$、AMD的GPU。業內一度傳出“幻方儲備的英偉達H100芯片比大廠還多”。

5月6日,幻方旗下DeepSeek發佈的DeepSeek-V2,其價格爲GPT-4-Turbo的近百分之一。這是大模型降價潮的第一塊多米諾骨牌。

5月11日,智譜的個人版GLM-3Turbo調用價格下降5倍。5月15日,字節豆包主力模型將其在企業市場的定價將至0.0008元/千tokens。

接着,阿里通義千問、百度文心一言加入戰團。阿里雲通義千問9款模型一齊降價,GPT-4級別主力模型Qwen-Long價格直降97%。百度智能雲則直接官宣文心大模型兩大主力模型ERNIE Speed和ERNIE Lite免費。

最新則是$科大訊飛 (002230.SZ)$、騰訊兩家大模型廠商也加入了“價格戰”。科大訊飛宣佈,訊飛星火API能力免費開放,訊飛星火Pro/Max API低至0.21元/萬tokens。而騰訊雲主力模型之一混元-lite模型,價格從0.008元/千tokens調整爲全面免費。

不過,《科創板日報》記者從採訪中了解到,幻方與大廠的降價並不全是“錢多任性”,更多的原因是,ChatGPT大模型推出近兩年後,大模型算法革新與模型優化。

國內某頭部大模型創業公司負責人告訴《科創板日報》記者,從目前看,算法框架革新主要有兩條思路:輕量化和線性化。他特別提到了其公司剛發佈的千億參數MoE架構模型。MoE架構中基於多個專家並行機制,推理時只激活部分專家,以稀疏性壓縮了參數數量和推理成本。“這就可以極大地節省算力耗費”。

而率先掀起價格戰的幻方DeepSeek-V2,就是其通過架構創新,實現了大模型成本尤其是推理成本下降的結果。據爲DeepSeek提供運維技術支持的AMD相關人士表示,DeepSeek-V2採用稀疏MoE架構進行了共享專家等改進,節約了42.5%的訓練成本。

無問芯穹發起人汪玉曾用公開數據做了一次針對算力成本數量級的測算,假設GPT-4 Turbo每天要爲10億活躍用戶提供服務,每年的算力成本可能超過兩千億,這還不包括模型訓練的投入。

因此,算法革新與模型優化下的推理成本下降,才是將來打開AI應用的重要“推手”。

▍搶用戶,更要搶“開發者”

阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光在宣佈降價時明確表示,“(降價)它的目的一定是普惠於市場”,“要真正加速市場的提前爆發”。

對於本輪大模型降價潮,$獵豹移動 (CMCM.US)$董事長兼CEO傅盛評論認爲,大模型降價的目標不是爲了用戶直接使用,而是爲了吸引開發者。

短期來看,大模型的性能遇到了瓶頸。“誰也甩不開誰,誰也拿不出殺手鐧,降低推理成本、降低售價成了現在每一家的高優先級任務。”

“現在各個大模型App基本都是免費的,本質上是各個大模型App用戶量漲不動了,包括OpenAl。最近有些大模型App推廣費用奇高,ROI算不過來……必須讓更多的開發者參與進來,開發出應用讓用戶更方便地使用”。

他還認爲,大模型降價的核心原因不僅是大模型廠商自己內卷,而是蘋果、$微軟 (MSFT.US)$$高通 (QCOM.US)$、聯想等設備廠商紛紛重兵投入本地化AI算力和本地大模型的結果,AI PC、AI Phone將成爲主流,通用大模型的使用場景會大幅度受限。

對於這亂價格戰影響,傅盛表示,這波大模型降價,對企業用戶影響有限,開源小參數大模型加應用套件可以滿足絕大多數企業需求,雖然套件定製的費用誰也省不掉,但私有化大模型的成本已經很低。

工信部信息通信經濟專家委員會委員盤和林認爲,降價是爲了擴大客戶群,未來大模型領域競爭後,最後活下來的企業不會太多,所以,佔據規模是從長期考慮,想要在大模型領域獲得頭部地位。

“中文大模型市場空間當前有限,不可能所有的大模型都獲得成功。尤其是大模型作爲生態產品,要麼贏者通吃,要麼落寞退出。當前價格戰的背後,是國內大模型應用大同小異的現狀,並沒有一家企業做出顯著的差異性,各家差距不大。只能卷價格。“

對於此次大模型行業的“降價潮”,科爾尼諮詢全球合夥人宋旭軍認爲,主要受供求關係和成本兩個方面因素的影響。首先是供求關係變化,競爭的加劇推動各廠商主動降價以爭取用戶。 第二是成本的下降,隨着算力成本的下降和模型算法的優化,模型廠商自身的成本也在下降。典型的例子是英偉達GPU和谷歌TPU、華爲昇騰性能都在快速提升。

▍拼技術、拼落地、拼解決行業痛點

$阿里巴巴 (BABA.US)$原副總裁賈揚清在朋友圈發佈觀點表示,“站在整個AI業界的角度,降價是個拍腦袋就可以做的簡單策略,但是真正的To B商業成功更難。”

賈揚清現在身份是Lepton AI創始人,他引用一位國際一流諮詢公司CIO的話:“今天企業在使用AI的時候,並不是成本驅動的。”“不是說API貴,才沒有人用,而是企業首先得搞清楚‘到底怎麼用起來產生業務價值’,否則再便宜也是浪費。而今天恰恰實施的這一層是缺的。”

他指出,前面幾年各大雲廠商都被“項目制”,“諮詢服務”這種業務形態給搞怕了,但是新興技術落地的過程中,必要的諮詢服務還是需要的。在賈揚清看來,“也許不是最便宜地贏得商戰,而是最能落地的贏得利潤。”

元始智能COO羅璇則向《科創板日報》記者表示,現在的降價和免費並不解決當前大模型落地的核心問題,更關鍵在於模型計算效率要提升10-100倍,算力芯片成本尤其是推理要下降到1/10-1/100,以及解決可解釋性的問題,這三點限制了大模型的落地。“單純的降價,現階段只是燒錢形成壟斷,劣幣驅逐良幣。”

盤和林分析,此輪頭部雲廠商的輪番降價,無疑將對大模型初創企業造成競爭壓力。

“中小模型企業和初創企業進入這個領域的成本更高,除非做出差異性,在規模上中小企業和初創企業沒有機會。”盤和林稱。

多名業內人士告《訴科創板日報》記者,AI大模型不能只是拼價格,更要拼技術、拼落地、拼解決行業痛點。大廠告別“燒錢出奇跡”思維,將基礎模型做強做實,儘快縮小與國外技術差距;創業公司向垂直縱深探索,做“精”做“尖”大模型行業應用。僅依靠降價帶來的利好有限,大模型需要在落地實施、模型計算效率等方面進一步提升。

值得一提的是,在被問及大模型降價對創業公司影響幾何時,國內AI圈兩個“頂流”李開復與王小川的表態耐人尋味。

百川智能創始人王小川認爲,如果(大模型)是面向B端企業客戶,那往後就是直接賣雲服務的方式,中間的應用層反倒會繁榮起來,有不少新機會。

不過,在王小川也看來,價格免費是優勢,但不一定是競爭力。“百川並不會摻和到價格戰當中,因爲To B不是公司的主要商業模式,價格戰的影響也有限。公司會將更多的精力放在超級應用當中。”

創新工場董事長、零一萬物CEO李開復談及價格戰時表示,零一萬物目前不打算降低YI系列模型的API價格,並認爲目前零一萬物帶給的性能、性價比都很高了,瘋狂降價是雙輸。零一萬物的最新千億參數模型Yi-Large以總榜第7名的成績,進入了世界權威的LMSYS 盲測競技場排行榜。

“我覺得我們的價錢是合適、值得的。如果說以後可能中國就是這麼‘卷’,大家都寧可賠光、雙輸也不讓你贏,我們就走外國市場。”李開復說。

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論