share_log

OpenAI豪赌50万亿,Altman“造芯”费用能买4个英伟达

OpenAI豪賭50萬億,Altman“造芯”費用能買4個英偉達

鈦媒體AGI ·  02/12 23:00

來源:鈦媒體AGI
作者:林志佳

AI芯片之爭加劇,未來,算力將成爲AI模型的“核武器”。

近日,OpenAI CEO奧爾特曼(Sam Altman)籌資7萬億美元(約合人民幣50.26萬億元)建立“芯片帝國”消息公佈之後,引起廣泛關注,輿論譁然。

鈦媒體App獲悉,北京時間2月11日,奧爾特曼通過社交平台發文確認了OpenAI啓動“造芯”,並表示“建設大規模的AI基礎設施和有彈性的供應鏈對於經濟競爭力至關重要”。

奧爾特曼還透露,目前OpenAI每天生成約1000億個單詞,需要大量的GPU(圖形處理器)芯片進行訓練計算——這或許是阿爾特曼“造芯”的重要原因之一。

由於這則消息過於“勁爆”,所以,剛完成1.5億美元基金籌資的阿爾特曼親弟弟Jack Altman也公開喊話:“Sam,能不能給我一個星期露臉的時間?你需要冷靜”。

“管好你自己,然後我們一起來搞事。”奧爾特曼回應稱。

事實上,奧爾特曼“芯片帝國”所需的7萬億美元規模非常龐大,不僅相當於全球GDP(國內生產總值)的10%,美國GDP的四分之一(25%),中國GDP的五分之二(40%),而且抵得過2.5個微軟、3.75個谷歌、4個英偉達、7個Meta、11.5個特斯拉市值。

同時,有網友估算,如果奧爾特曼拿到7萬億美元,可以買下英偉達、AMD、台積電、博通、ASML、三星、英特爾、高通、Arm等18家芯片半導體巨頭。剩下的錢還能再“打包”Meta,再帶回家3000億美元。

另外,7萬億美元還是去年全球半導體產業規模的13倍以上,而且高於一些全球主要經濟體的國債規模,甚至比大型主權財富基金的規模更大。

所以,大家此刻才突然發現,奧爾特曼的野心如此之大,超乎人們的想象。

一旦達成7萬億美元籌資目標,奧爾特曼和他的OpenAI 將重塑全球AI 半導體產業。

美國消費新聞與商業頻道(CNBC)直接評論稱,“這是一個令人難以置信的數字。這(OpenAI造芯)就像是一場登月計劃。”

OpenAI CEO下場“造芯”,孫正義和中東投資者或將參投

對於OpenAI來說,降低成本、滿足需求是兩個關鍵因素。然而,這兩個因素目前受到了英偉達的限制,被“卡脖子”,使得OpenAI在發展過程中面臨了挑戰。

在大模型熱潮中,AI算力主要受到兩個方面的限制:一是AI模型訓練的需求急劇增加,二是算力成本不斷上升。

首先,AI模型訓練需求的激增是由於深度學習技術的不斷髮展和應用的廣泛推廣所帶來的。隨着模型變得越來越複雜,訓練所需的計算資源也相應增加。這導致了對高性能計算設備的需求激增,以滿足大規模的模型訓練任務。

目前,ChatGPT訓練一次大約需要2.5萬塊英偉達A100芯片。如果訓練GPT-5,則還需要5萬張英偉達H100。市場分析認爲,隨着GPT模型的不斷迭代升級,未來GPT-5或將出現無“芯”可用的情況。

奧爾特曼曾多次“抱怨”AI芯片短缺問題,稱目前英偉達的芯片產能已不足以滿足未來的需求。

圖片來源:Shutterstock US
圖片來源:Shutterstock US

其次,算力成本的上升也是一個不可忽視的問題。

隨着算力的不斷增長,購買和維護高性能計算設備的成本也在不斷增加。這對於許多研究機構和企業來說是一個重大的經濟負擔,限制了他們在AI領域的發展和創新。

英偉達H100的價格已經飆升至2.5萬-3萬美元,這意味着ChatGPT單次查詢的成本將提高至約0.04美元。而英偉達已經成爲了AI大模型訓練當中必不可少的關鍵合作方。

據富國銀行統計顯示,目前,英偉達在數據中心AI 市場擁有 98% 的市場份額,而 AMD 公司的市場份額僅有1.2%,英特爾則只有不到1%。2024年,英偉達將會在數據中心市場獲得高達457億美元的營收,或創下歷史新高。

有消息稱,英偉達H100將在2024年之前售罄。

“我們的GPU非常短缺,使用我們產品的人越少越好。如果人們用的越少,我們會很開心,因爲我們沒有足夠的GPU。”奧爾特曼曾對外表示。

因此,我們就不難理解,奧爾特曼非得“自己造芯片”的原因——更安全和更長期可控的成本,以及減少對英偉達的依賴。

而爲了解決這些問題,與其花錢從英偉達買,OpenAI選擇乾脆自己製造一顆自主可控的專用芯片。

早在2023年10月美國WSJ Live活動上,奧爾特曼首次回應傳聞稱:不排除自研芯片這一選項。

“對於是否採用定製硬件(芯片),我們還在評估中。我們正努力確定如何擴大規模以滿足世界的需求。雖然有可能不會研發芯片,但我們正在與做出卓越成果的夥伴保持良好合作。”奧爾特曼表示。

今年1月20日,彭博報道稱,奧爾特曼正在與中東阿布扎比G42基金、日本軟銀集團等全球投資者籌集超過80億美元資金,成立一家全新AI芯片公司,目標是利用資金建立一個工廠網絡來製造芯片,直接對標英偉達。但目前談判仍處於早期階段,完整名單尚不確定。

不僅推進融資事宜,奧爾特曼也在加緊聯繫頭部芯片製造商合作。

1月25日,奧爾特曼在韓國與存儲芯片龍頭SK海力士、三星電子集團的高管會面,重點提及構建“AI芯片聯盟”,雙方或將在AI芯片設計、製造等方面與三星和SK集團合作。而在此之前,奧爾特曼就已接觸英特爾、台積電,討論合作成立一家新的芯片製造工廠。

2月9日,《華爾街日報》報道稱,奧爾特曼正在與阿聯酋政府、美國商務部、軟銀以及其他中東主權財富基金等投資者洽談,計劃爲提升全球芯片製造能力的項目籌集資金,總額多達5萬億-7萬億美元,有望擴大OpenAI爲 AI提供動力的能力。

但這樣一筆高昂投資,將使目前全球半導體產業的規模相形見絀。

去年全球芯片銷售額爲5270億美元,預計到2030年將增至1萬億美元規模。另據行業組織SEMI的統計,2023年全球半導體制造設備的銷售額僅爲1000億美元。

因此,奧爾特曼必須要尋求政府類型的資金支持。

據知情人士透露,奧爾特曼近日與美國商務部長雷蒙多(Gina Raimondo)會面並討論了這一話題;同時,微軟、軟銀集團孫正義也知曉這一計劃,並給予了支持,而奧爾特曼已經與軟銀、台積電商討合資相關事宜;另外,中東投資機構和阿聯酋政府也打算支持OpenAI,其中就包括阿聯酋最高安全官員、阿聯酋總統穆罕默德的兄弟、阿布扎比多個主權財富基金最高負責人 謝赫·塔農·本·扎耶德·阿勒納哈揚(Sheikh Tahnoun bin Zayed Al Nahyan)。

除了建廠和供應鏈合作之外,奧爾特曼還至少投資了3家芯片公司。其中一家是美國知名的算力芯片公司Cerebras。

據悉,Cerebras曾推出過打破世界紀錄的超大芯片產品,其第二代AI芯片WSE-2已達到2.6萬億個晶體管,AI核心數量也達到85萬個。

第二家奧爾特曼投資的公司,是基於RISC-V開源架構、模仿大腦工作方式的芯片初創企業Rain Neuromorphics,實現算法訓練。2019 年,OpenAI簽署了一份意向書,斥資5100萬美元購買Rain的芯片。

而去年12月,美國迫使沙特阿美(Saudi Aramco)支持的一家風險投資公司出售其在Rain的股份。

最後一家是Atomic Semi,由芯片大神Jim Keller和Sam Zeloof共同創立,前者曾是AMD K8的首席架構師,還參與了蘋果A4/A5芯片的開發。Atomic Semi的目標是簡化芯片製造流程,實現在快速生產,以期降低芯片成本。2023年1月,基於1億美元估值下,Atomic Semi完成OpenAI給予的一輪融資。

然而,奧爾特曼的“造芯”計劃仍面臨許多棘手的問題,其中之一就是在哪裏建設新的芯片工廠,如果傾向於選擇美國,預計在未來幾周將與台積電等廠商獲得數十億美元的補貼,但是,美國建晶圓廠不僅“耗錢”,還會出現延誤、工人短缺等問題。

例如,台積電就指出,其在亞利桑那州耗資400億美元的項目出現了延誤、熟練工人短缺和成本高昂等問題;英特爾在俄亥俄州投資200億美元的芯片工廠也宣佈延期,投產時間推遲至2026年底。

針對上述報道,OpenAI的一位發言人表示,“OpenAI已就增加芯片、能源和數據中心的全球基礎設施和供應鏈進行了富有成效的討論,這些對於AI和其他有賴於此的行業至關重要。鑑於國家優先事項的重要性,我們將繼續向美國政府報告情況,並期待在稍後分享更多細節。”

今年AI芯片之爭加劇,算力未來將成爲AI模型的“核武器”

2024年開年,由於英偉達的芯片供不應求、價格昂貴,因此,AI芯片大戰越燒越烈。

2月5日,Meta公司證實,爲了支持其AI業務,Meta計劃今年在其數據中心部署一款新的定製芯片,即第二代自研AI芯片Artemis,預計將於2024年正式投產,以減少對英偉達芯片的依賴。

Meta方面表示,該芯片將與Meta採購的數十萬個現成的GPU協同工作,“我們認爲我們內部開發的加速器將與商業上可用的GPU高度互補,在Meta特定工作負載上提供性能和效率的最佳組合。”

近期,Meta公司CEO馬克·扎克伯格表示,構建“通用人工智能”(AGI)需要的首要條件是“世界級的計算基礎設施”。

他透露:到今年年底,Meta將擁有約35萬塊H100,而如果包括其他GPU的話,總計將有等效60萬塊H100的計算能力。

半導體研究和諮詢公司SemiAnalysis創始人迪倫·帕特爾(Dylan Patel)表示,以Meta的運營規模,成功部署自己的Athena芯片,與英偉達的產品相比,它可以將每顆芯片的成本降低三分之一,從而每年可能會節省數億美元的能源成本和數十億美元的芯片採購成本。

不止是Meta,事實上,相比於通用芯片,亞馬遜、谷歌、微軟一直在自主研發的專用集成電路(ASIC)芯片,在執行機器學習任務的速度更快,功耗更低。

其中,谷歌曾透露,其自主研發的Cloud TPU v5p,是目前谷歌最強大、可擴展和靈活的AI加速器,它在TPU v4的基礎上提供超過2倍的FLOPS(浮點運算次數/秒)和3倍的高帶寬內存(HBM),可擴展性也是上一代的4倍,提供更多算力支持。

微軟於2023年11月推出其首款人工智能芯片Maia 100,與英偉達的GPU競爭,也減少對英偉達的昂貴依賴。Maia 100採用5nm製程,晶體管數量達到1050億個,可用於大語言模型訓練和推理,而且Maia 100還將爲OpenAI提供支持。同時,微軟還爲雲計算構建了基於Arm架構的Cobalt CPU,有消息指,這兩款芯片預計將於2024年上市。

另外,AMD、英特爾都在積極佈局AI算力。

去年12月,AMD發佈全新 MI300X AI芯片,集成1530億個晶體管,並聲稱其芯片推理性能優於英偉達H100。AMD CEO蘇姿豐(Lisa Su)最近在業績會議上表示,一旦2024年下半年有更多產能投產,AMD的AI 芯片年銷售總額可能將超過35億美元;英特爾則將於今年發佈全新5nm製程的Gaudi3 AI芯片,推理性能也很優秀。

Rosenblatt Securities分析師漢斯·莫塞曼(Hans Mosesmann)表示,“AI算力似乎無處不在。”

近日,支付寶CTO陳亮(花名:俊義)對鈦媒體App等表示,目前AI大規模應用在實施過程中,依然面臨多個“瓶頸”,包括算力成本高、硬件限制等問題。儘管GPU卡的效率已經非常高,但如何使其適應不同的技術棧(與不同技術兼容)依然是一項重要難題。

從國內算力市場看,雲知聲董事長兼CTO梁家恩曾對鈦媒體App等表示,“現在業內最好的芯片是英偉達的,國內能夠頂上的是華爲昇騰。”

奧爾特曼曾透露,OpenAI希望保證到2030年有足夠的AI芯片供應。

編輯/Somer

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論