share_log

通用人工智能AGI祛魅,AI六小虎面临商业化拷问

通用人工智能AGI祛魅,AI六小虎面臨商業化拷問

鈦媒體 ·  08:58

文 | 新電實驗室

行業正在集體穿越大模型時代的「創新死亡谷」。

最近幾天,作爲AI大模型「六小虎」之一的零一萬物,頻頻登上科技行業熱門話題榜。據媒體報道,零一萬物將不再追求訓練超級大模型,1月初已與阿里雲成立「產業大模型聯合實驗室」,零一萬物大部分訓練和AI infra團隊會加入該實驗室。這是國內首家對外公開大幅調整戰略方向的AI大模型獨角獸。

這些靈魂拷問在2025年剛開年就鋪面而來。Scaling Laws失效了?

僅僅一年多的時間,引領大模型前進的傳統 Scaling Law 邊際收益遞減明顯,商業化上同樣如此。”零一萬物 CEO 李開復近日接受媒體採訪時多次表達這一觀點,「賭上巨量資源去訓練超大參數規模的模型,超低的性價比對初創公司來說,肯定不是一個務實的選擇。」

李開復的觀點再次激發了行業對於Scaling Laws的爭論。Scaling Laws最早是OpenAI在一篇論文中提出的。用大白話講,它是指,AI大模型的性能會隨着模型參數規模、訓練數據量和計算資源的增加而相應提升。

正是受Scaling Laws的召喚,國內外大模型平台爭相花巨資囤積成千上萬張GPU,以堆高計算能力;將模型參數規模從數億推高到數千億,甚至上萬億。比如,OpenAI的GPT-4模型據稱約有1.8萬億參數。

但是,自去年以來,Scaling Laws「撞南牆」的聲音越來越響,其有效性受到了衆多質疑。外媒報道,據內部消息人士透露,OpenAI 的下一代模型(代號爲 Orion)在某些任務上僅比其前身 GPT-4 有微小的改進,與 GPT-3 到 GPT-4 的飛躍相比,提升幅度顯著縮小。

雖然OpenAI的CEO奧特曼否認了這一點,在社交媒體上回應稱「there is no wall(沒有牆)」。但外界從GPT-5遲遲沒有推出還是看出了一些端倪。而遭遇困境的並非僅有 OpenAI 一家。彭博社援引知情人士的消息稱,Google 旗下的 Gemini 2.0 同樣未能達到預期目標,與此同時,Anthropic 旗下的 Claude 3.5 Opus 的發佈時間也一再推遲。

當然,還有很多聲音並不認同Scaling Laws已經失效。英偉達黃仁勳前兩天在CES 2025上發言時堅稱,「基礎模型預訓練的Scalinglaws仍然有效,它還在繼續」,而且除了預訓練擴展定律之外,還出現了後訓練擴展定律和測試時間擴展定律。

「測試時計算」確實開闢了擴展模型算力和提高AI性能的一種新途徑。相較於前代模型完全依靠在預訓練中擴大模型參數量來改善表現,像OpenAI的o3這樣的新推理模型能在推理過程中進行計算,推理計算量的擴大可以讓AI模型通過「思考更長時間」來解鎖新的能力。

雖然有不同聲音,但行業的普遍共識是,單純靠堆算力、堆參數的簡單粗暴的發展模式,一去不復返了。李開復的呼聲也在國內捅開了這層窗戶紙。大模型燒不起了

Scaling Laws遇到瓶頸並非意味着大模型不再向上發展了,深層的問題在於高昂成本導致邊際效益的嚴重遞減。說白了,就是投入產出比的考量。

近年來大模型訓練成本的增加是顯而易見的。2017年,Transformer 模型訓練成本約爲 900 美元;2019年,國外某模型的訓練成本約爲16萬美元;2023 年,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的訓練成本預計分別約爲7800 萬美元和 1.91 億美元。五年時間,成本飆升了10萬倍!

國內同樣如此。浙商證券的分析報告指出,字節跳動2024年在AI領域的資本開支高達800億元,國內最高,接近百度、阿里、騰訊三家公司的總和。該券商預測,到2025年,字節跳動的資本開支有望進一步增長至1600億元,其中約900億元將專門用於AI算力的採購。

AI算力的採購目前主要是買英偉達的GPU。來自 Omdia 和英國《金融時報》的報道顯示,2024年微軟採購量全球最多,購買了48.5萬個英偉達 Hopper 架構芯片;字節跳動和騰訊分別收購了大約 23 萬個;谷歌、Meta 和亞馬遜等公司也都買了不少。馬斯克今年則以迅雷之勢搭建了包含10萬張H100的AI訓練集群Colossu。國內大廠如百度、阿里、小米等,也都在籌劃搭建萬卡甚至十萬卡GPU集群。

而一個英偉達 Hopper 架構芯片價格爲3.3萬美元—4萬美元。英偉達公司市值兩年翻了10倍,靠的就是這個生意。除了外採,很多科技巨頭還在開發自己的內部定製芯片。研發費用同樣不菲。即便不買卡只租用,每塊GPU每小時租金也需要數美元,而一個模型的訓練往往需要幾百萬甚至幾千萬個GPU小時。

不僅訓練費用高昂,大模型提供服務時還要大量消耗其他資源。據國外某研究機構報告,ChatGPT每天要響應大約2億個請求,在此過程中消耗超過50萬度電力。市場推廣是另一筆不小的開支,競爭越激烈,競價成本越水漲船高。

而與此同時,國內市場卻越來越「卷」。某些大模型的API調用價格2024年大幅降低,有的降幅高達97%,每千Token降至 0.003元,甚至部分版本宣佈對外完全免費。

綜上,如此巨額的投入,顯然不是每個創業公司都能燒得起的。國內即使幾大AI獨角獸,每家累計融資平均也僅幾億美金,百億元級別,估值約在200億上下。鑑於此,李開復認爲,未來只有大廠才有能力做超大模型。六小虎們戰略分野

“如果你還要燒巨大的模型,還有5000張、10000張卡,每年帶來2-3億美金的成本,這些成本怎麼分攤到業務收入上去?如果你的虧損是收入的5倍、10倍、20倍,靈魂拷問就會失敗。我在朋友圈裏說‘2025 年是商業化淘汰年’,就是這麼一回事。”

李開復認爲,商湯等AI 1.0公司普遍走了6-8年,才進入商業化靈魂拷問時刻,而現在技術迭代加快了,從信仰 Scaling Law 到懷疑 Scaling Law 只花了一年時間。靈魂拷問也來得更快。AI創業者曾經都擁有一個共同的通用人工智能AGI的夢想,但沒有大廠雄厚實力的六小虎們能接得住加快降臨的商業化靈魂拷問嗎?2025年或將迎來分野。

2024年全球AI融資排行榜中,馬斯克旗下的xAI及OpenAI、Anthropic憑藉120億美元、81億美元、80億美元斬獲前三。相比較而言,國內六小虎的融資額則低了一個數量級,排在前面的分別爲月之暗面超70億元,百川智能 50億元,MiniMax 超40億元,智譜A1 超40億元,零一萬物數億美元,階躍星辰數億美元。

但在去年下半年,月之暗面和MiniMax沒有公佈新的融資,也有多家企業出現資金鍊吃緊情況。

零一萬物選擇放棄對超大參數規模的模型的追求,除了戰略方向的主動選擇,必然也會有財務方面的考慮。「我的財務同事每幾周跟我過現金流,看到算力一個月一個月的支出,真不是可持續的方式。」李開復近日在接受採訪時坦承。

據其透露,2024年5月,零一萬物發佈了一個千億參數模型 Yi-Large,此後決定更換爲更務實的路線,專注做更輕量化、性能也不錯的模型,即去年10月推出的新旗艦模型 Yi-Lightning。新模型採取MoE(混合專家)架構,激活參數僅200多億,但模型表現更出色,號稱超過了GPT-4o。更重要的是,Yi-Lightning 的模型訓練成本僅350萬美元,是 GPT-4o 的 1/30。

近段時間在海外社交媒體刷屏的另一箇中國大模型DeepSeek-V3,評測成績亮眼,成爲開源模型的新王。同樣的是,該模型也大幅降低了訓練成本。模型每訓練1萬億token僅需要18萬個GPU小時,即在團隊配備2048個H800 GPU的集群上只需3.7天。「2048個GPU、2個月、近600萬美元」,相比之下,GPT-4o等模型的訓練成本約爲1億美元,至少在萬個GPU量級的計算集群上訓練。成本的下降,使其API調用價格更低,千tokens輸入僅0.001元,吸引了大量開發者。

智譜AI過去兩年一直緊盯OpenAI的發展路線。但OpenAI去年的腳步有所放緩,智譜也加大了對Agent的投入。

階躍星辰在去年底完成B輪融資後表示,將繼續投入基礎模型研發,強化多模態和複雜推理能力,並通過產品和生態加大覆蓋C端應用場景。

月之暗面與MiniMax在C端市場表現得更爲強勁。月之暗面旗下智能助手Kimi初期憑藉20萬字的長上下文功能,獲得了大量用戶,全平台月活躍用戶號稱超過3600萬;不久前,月之暗面又快速跟進推理模型,先後上線了數學模型k0-math、視覺思考模型K1。

MiniMax在多模態大模型方面表現亮眼。視頻領域的海螺AI口碑不錯;星野,海外版爲Talkie,也聚攏了大批用戶。根據Sensor Tower的數據,截至2024年6月,Talkie的全球月活躍用戶數已達到1100萬,超過一半用戶來自美國。

百川智能獨闢蹊徑,明確表態不做當前大熱的視頻模型,而是選擇將AGI與醫療結合,認爲「製造醫生」是AGI的重要標誌,推出了「一大四小」醫療產品,並與兒童醫院合作。

不同的技術路線和商業化路徑,讓衆多的創業公司開啓了不同的發展方向。而隨着競爭的加劇,這種戰略分化也將加速。像新能源汽車領域進入淘汰賽一樣,AI大模型也正迎來這一時刻。

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論