share_log

早已忍受不了英伟达,六大巨头纷纷自研AI芯片

早已忍受不了英偉達,六大巨頭紛紛自研AI芯片

Wind ·  2023/10/07 12:34

來源:Wind

10月7日,知情人士透露,$微軟 (MSFT.US)$計劃在下個月的年度開發者大會上推出該公司首款爲人工智能設計的芯片。微軟的這款芯片是爲訓練和運行大型語言模型(LLM)的數據中心服務器設計的。

各大巨頭早已經忍受不了英偉達

英偉達是當之無愧的“AI算力王者”,A100、H100系列芯片佔據金字塔頂尖位置,是ChatGPT這樣的大型語言模型背後的動力來源。

但用戶面對英偉達的獨霸天下,吃盡了成本高昂的苦頭。

根據華爾街投行伯恩斯坦的分析,ChatGPT單次查詢的成本約爲4美分,如果ChatGPT的搜索量增長到谷歌搜索量的十分之一,每年將需要大約價值481億美元的GPU以及價值約160億美元的芯片來維持運行。

不管是爲了降低成本,還是減少對英偉達的依賴、提高議價能力,科技巨頭們也都紛紛下場自研AI芯片。

微軟早就自研芯片

微軟的數據中心服務器目前使用英偉達的GPU爲雲客戶提供先進的LLM,包括OpenAI和$財捷 (INTU.US)$,以及支持微軟生產力應用程序中的人工智能功能。

其實,之前早有消息,微軟意欲用Athena替代昂貴的A100/H100。

4月18日,科技媒體The Information報道稱,微軟正在祕密研發自己的AI芯片,代號雅典娜(Athena)。該芯片由$台積電 (TSM.US)$代工,採用5nm先進製程,計劃最早於明年推出。

報道稱,微軟自2019年以來就一直在開發一款定製的專用芯片,用於爲大型語言模型提供動力,目前已在測試階段。Athena的首個目標是爲OpenAI提供算力引擎,以替代昂貴的英偉達A100/H100。如果明年大規模推出,Athena將允許微軟內部和OpenAI的團隊同時訓練和推理模型。

SemiAnalysis的分析師迪倫·帕特爾(Dylan Patel)表示,開發類似於雅典娜的芯片可能每年需要花費1億美元左右,ChatGPT每天的運營成本約70萬美元,大部分成本來源於昂貴的服務器,如果雅典娜芯片與英偉達的產品擁有同等競爭力,每個芯片的成本將可以降低三分之一。

OpenAI嘗試收購

OpenAI也正在探索製造自研人工智能芯片,並已開始評估潛在的收購目標。

報道稱,至少從去年開始,OpenAI就已討論各種方案,以解決AI芯片短缺問題。OpenAI已將獲取更多AI芯片列爲公司首要任務,討論方案包括自研AI芯片,與包括英偉達在內的其他芯片製造商更密切地合作,以及在英偉達之外實現供應商多元化。

特斯拉立足於智能駕駛

目前,$特斯拉 (TSLA.US)$已經推出了兩種自研芯片:全自動駕駛(FSD)芯片和Dojo D1芯片。FSD芯片是用於特斯拉汽車上的自動駕駛系統的芯片,Dojo D1芯片則是用於特斯拉超級計算機Dojo的芯片,它是一種高吞吐量、通用的CPU,不是一種加速器。它的目的是爲了加速特斯拉自動駕駛系統的訓練和改進。

谷歌:最早自研TPU芯片

早在2013年,谷歌就已祕密研發一款專注於AI機器學習算法的芯片,並將其用在內部的雲計算數據中心中,以取代英偉達的GPU。2016年5月,這款自研芯片公諸於世,即TPU。TPU可以爲深度學習模型執行大規模矩陣運算,例如用於自然語言處理、計算機視覺和推薦系統的模型,其最初專爲谷歌的超級業務雲計算數據中心而生。

2020年,谷歌實際上已在其數據中心部署了人工智能芯片TPU v4。不過直到今年4月4日,谷歌才首次公開了技術細節:相比TPU v3,TPU v4性能提升2.1倍。

亞馬遜:訓練和推理芯片佔據先機

從2013年推出首顆Nitro1芯片至今,AWS是最先涉足自研芯片的雲廠商,已擁有網絡芯片、服務器芯片、人工智能機器學習自研芯片3條產品線。

2018年初,科技媒體Information爆料$亞馬遜 (AMZN.US)$已經開始設計定製AI芯片。

AWS自研AI芯片版圖包括推理芯片Inferentia和訓練芯片Trainium。2018年底,AWS推出自研AI推理芯片Inferentia,可以以低成本在雲端運行圖像識別、語音識別、自然語言處理、個性化和欺詐檢測等大規模機器學習推理應用程序。

2020年底,AWS推出專用於訓練機器學習模型的Trainium。

2023年初,專爲人工智能打造的Inferentia 2發佈,將計算性能提高了三倍,加速器總內存提高了四分之一,吞吐量提高了四分之一,延遲提高了十分之一。Inf2實例(可通過芯片之間的直接超高速連接支持分佈式推理)最多可支持1750億個參數,這使其成爲大規模模型推理的有力競爭者。

在亞馬遜、微軟和谷歌這三家中,亞馬遜是唯一一家在服務器中提供兩種類型芯片(標準計算芯片和用於訓練與運行機器學習模型的專用芯片)的雲提供商,其在2015年收購以色列芯片設計公司Annapurna Labs爲這些努力奠定了基礎。

Meta:基於RISC-V開源架構

直到2022年,$Meta Platforms (META.US)$還主要使用CPU(中央處理器)和專爲加速AI算法而設計的定製芯片組合來運行其AI工作負載。對於這類任務來說,CPU的效率往往不如GPU。

後來,Meta取消了於2022年大規模推出定製芯片的計劃,轉而訂購了價值數十億美元的英偉達GPU。

爲了扭轉局面,Meta已經在開發內部芯片,並於5月19日公佈了AI訓練與推理芯片項目,稱其爲“針對推理工作負載的內部定製加速器芯片系列”。

據介紹,MTIA芯片的功耗僅爲25瓦,佔英偉達等市場領先供應商芯片功耗的一小部分,並使用了RISC-V(第五代精簡指令處理器)開源架構。

值得注意的是,Meta於5月初收購了英國AI芯片獨角獸Graphcore的AI網絡技術團隊。Graphcore創始人奈傑爾·圖恩(Nigel Toon)曾公開表示,Graphcore不屬於CPU、GPU和ASIC(專用計算芯片)中的任何一類,而是一款全新的,專爲AI加速而生的處理器:既有極高的運算能力以處理高性能計算業務(HPC),又和GPU一樣可編程,以滿足不同的場景需求。

編輯/Corrine

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論