share_log

买不到GPU,马斯克自曝AI巨兽Dojo!自研超算挑战英伟达,约等于8千块H100

買不到GPU,馬斯克自曝AI巨獸Dojo!自研超算挑戰英偉達,約等於8千塊H100

美股研究社 ·  08/05 20:06

戳 關注 社長帶你港股掘金

多年來,馬斯克一直在公開談論Dojo——這台超算將成爲特斯拉人工智能雄心的基石。他最近表示,隨着特斯拉準備在10月推出Robotaxi,AI團隊將「加倍投入」Dojo。

來源 |新智元

爲了訓出最強Grok 3,xAI耗時19天,打造了由10萬塊H100組成的世界最大超算集群。

而在訓練FSD、擎天柱機器人方面,馬斯克同樣不惜重金,投入了大量的計算資源。超算Dojo,是特斯拉AI的基石,專爲訓練FSD神經網絡而打造。就在今天,他在德州超級工廠(Cortex)參觀了特斯拉的超級計算機集群。馬斯克稱,「這將是一個擁有約10萬個H100/H200 GPU,並配備大規模存儲的系統,用於全自動駕駛(FSD)和Optimus機器人的視頻訓練」。

不僅如此,除了英偉達GPU,這個超算集群中還配備了特斯拉HW4、AI5、Dojo系統。它們將由一個高達500兆瓦的大型系統提供電力和冷卻。

2021年特斯拉AI Day上,馬斯克首次對外宣佈Dojo。如今三年過去了,Dojo建得怎樣了?

8000塊H100等價算力

加倍下注

半個月前,網友稱2024年年底,特斯拉擁有AI訓練算力,等價於9萬塊H100的性能。

馬斯克對此做了一些補充:我們在AI訓練系統中不僅使用英偉達的GPU,還使用自己的AI計算機——Tesla HW4 AI(更名爲AI4),比例大約爲1:2。這意味着相當於有大約9萬個H100,加上大約4萬個AI4計算機。

他還提到,到今年年底,Dojo 1將擁有大約8000個相當於H100算力。這個規模不算龐大,但也不算小。

Dojo D1超算集群其實在去年6月,馬斯克曾透露Dojo已經在線並運行了幾個月的有用任務。

這已經暗示着,Dojo已經投入到一些任務的訓練中。最近,在特斯拉業績會議上,馬斯克表示特斯拉準備在10月推出自動駕駛出租車,AI團隊將「加倍投入」Dojo。

預計Dojo的總計算能力,將在2024年10月達到100 exaflops。假設一個D1芯片可以實現362 teraflops,要達到100 exaflops,特斯拉將需要超過27.6萬個D1芯片,或者超過32萬英偉達A100 GPU。

500億晶體管

D1已投產

2021年特斯拉AI Day上,D1芯片初次亮相,擁有500億晶體管,只有巴掌大小。它具備了強大和高效的性能,能夠快速處理各種複雜的任務。

今年5月,D1芯片開始投產,採用台積電7nm工藝節點。Autopilot前硬件高級總監Ganesh Venkataramanan曾表示,「D1可以同時進行計算和數據傳輸,採用定製ISA指令集架構,並針對機器學習工作負載進行了充分優化」。這是一臺純粹的機器學習的芯片。

儘管如此,D1仍沒有英偉達A100強大,後者同樣採用了台積電7nm工藝製造。D1在645平方毫米的芯片上放置了500億個晶體管,而A100包含540億個晶體管,芯片尺寸爲826平方毫米,性能領先於D1。爲了獲得更高的帶寬和算力,特斯拉AI團隊將25個D1芯片融合到一個tile中,將其作爲一個統一的計算機系統運作。每個tile擁有9 petaflops的算力,以及每秒36 TB的帶寬,幷包含電力源、冷卻和數據傳輸硬件。我們可以將單個tile視爲,由25台小型計算機組成的一臺自給自足的計算機。

通過使用晶圓級互連技術InFO_SoW(Integrated Fan-Out,System-on-Wafer),在同一塊晶圓上的25塊D1芯片可以實現高性能連接,像單個處理器一樣工作。6個這樣的tile構成一個機架(rack),兩個機架構成一個機櫃(cabinet)。十個機櫃構成一個ExaPOD。在2022年AI Day中,特斯拉表示,Dojo將通過部署多個ExaPOD進行擴展。所有這些加在一起構成了超級計算機。

晶圓級處理器(wafer-scale processor),比如特斯拉的Dojo和Cerebras的晶圓級引擎WSE,比多處理器(multi-processor)的性能效率要高得多。前者的主要優點包括內核之間的高帶寬和低延遲通信、較低的電網阻抗以及更高的能源效率。目前,只有特斯拉和Cerebras擁有晶圓上系統設計。然而,將25個芯片放在一起對電壓挑戰和冷卻系統也是不小的挑戰。

網友拍到特斯拉在德州建設巨型冷卻系統晶圓級芯片的固有挑戰還在於,必須使用片上內存(on-chip memory),這不夠靈活,可能無法滿足所有類型的應用。Tom's Hardware預測, 下一代使用的技術可能是CoW_SoW(Chip-on-Wafer),在tile上進行3D堆疊並集成HBM4內存。此外,特斯拉還在研發下一代D2芯片,爲了破解信息流難題。與連接單個芯片不同,D2將整個Dojo tile放在了單個硅晶圓上。到2027年,台積電預計將提供更復雜的晶圓級系統,計算能力預計將提升超過40倍。自D1發佈以來,特斯拉既沒有公開已訂購、預期接收的D1芯片訂單情況,也沒有公開Dojo超算的具體部署時間表。不過在今年6月份的時候,馬斯克曾表示,在未來18個月,一半部署特斯拉AI硬件,一半是英偉達/其他硬件。其他硬件,也可能是AMD。

爲什麼需要Dojo

自動駕駛耗算力

在我們的印象中,特斯拉的主業僅限於生產電動汽車,再附帶一些太陽能電池板和儲能系統的業務。但馬斯克對特斯拉的期望遠遠不止於此。大多數自動駕駛系統,比如谷歌母公司Alphabet旗下的Waymo,仍舊依靠傳統的感知器作爲輸入,比如雷達、激光雷達和攝像頭等。但特斯拉採取的是「全視覺」路徑,他們僅依靠攝像頭捕捉視覺數據,輔以高清地圖進行定位,再使用神經網絡處理數據以進行自動駕駛的快速決策。

直觀來看,顯然前者是一種更簡單快捷的路徑,事實也的確如此。Waymo已經實現了L4級自動駕駛的商業化,即SAE所定義的,在一定條件下下無需人工干預即可自行駕駛的系統。但特斯拉的FSD(Full Self-Driving)神經網絡仍無法脫離人類操作。Andrej Karpathy曾在特斯拉擔任AI負責人,他表示,實現FSD基本是在「從頭開始構建一種人造動物」。我們可以將其理解爲人類視覺皮層和大腦功能的數字複製。FSD不僅需要連續收集和處理視覺數據,識別、分類車輛周圍的物體,還需要有與人類相當的決策速度。

由此可見,馬斯克想要的絕不只是能盈利的自動駕駛系統而已。他的目標,是打造一種新智能。但幸運的是,他幾乎不太需要擔心數據不夠的問題。目前大約有180萬人爲FSD支付了8000美元的訂閱費(之前可達1.5萬美元),這意味着特斯拉能收集到數百萬英里的駕駛視頻用於訓練。而算力方面,Dojo超算就是FSD的訓練場。它的中文名字可以翻譯爲「道場」,是對武術練習空間的致敬。

英偉達不給力

英偉達GPU有多搶手?看看各大科技巨頭的CEO有多想跟老黃套近乎就知道了。即便財大氣粗如馬斯克,也會在7月的業績電話會上承認,自己對特斯拉可能沒法用上足夠的英偉達GPU感到「非常擔憂」。「我們看到的是,對英偉達硬件的需求如此之高,以至於通常很難獲得GPU。」

目前,特斯拉似乎依舊使用英偉達的硬件爲Dojo提供算力,但馬斯克似乎不想把雞蛋都放在一個籃子裏。尤其是考慮到,英偉達芯片的溢價如此之高,而且性能還不能讓馬斯克完全滿意。在硬件與軟件協同這方面,特斯拉與蘋果的觀點類似,即應該實現兩者的高度協同,尤其是FSD這種高度專門化的系統,更應該擺脫高度標準化的GPU,使用定製硬件。這個願景的核心,是特斯拉專有的D1芯片,於2021年發佈,今年5月開始由台積電量產。

此外,特斯拉還在研發下一代D2芯片,希望將整個Dojo塊放在單個硅片上,解決信息流瓶頸。在第二季度業績中,馬斯克指出,他看到了「通過Dojo與英偉達競爭的另一條途徑」。

Dojo能成功嗎

即便自信如馬斯克,在談到Dojo時,也會支支吾吾地表示,特斯拉可能不會成功。從長遠來看,開發自己的超算硬件可以爲AI部門開拓新的商業模式。馬斯克曾表示,Dojo的第一個版本將爲特斯拉的視覺數據標註和訓練量身定製,這對FSD和訓練特斯拉的人形機器人Optimus來說非常有用。而未來版本將更適合通用的AI訓練,但這不可避免地要踏入英偉達的護城河——軟件。

幾乎所有的AI軟件都是爲了與英偉達GPU配合使用,使用Dojo就意味着要重寫整個AI生態系統,包括CUDA和PyTorch。這意味着,Dojo幾乎只有一條出路——出租算力,建立類似於AWS和Azure一樣的雲計算平台。摩根士丹利

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論