英偉達老黃,成了今年的聖誕老黃。
AI芯片大禮包剛剛曝光:
GPU新核彈B300,以及附帶CPU的超級芯片GB300。
高算力,在產品層面上相比B200在FLOPS上提高50%
大顯存,從192GB提升到288GB,也是提高了50%。
包含72塊GB300的“新一代計算單元”GB300 NVL72,更是被評價爲「能讓OpenAI o1/o3推理大模型的思維鏈長度,在高batch size下達到10萬tokens的唯一方案」。
這與今年3月份「AI春晚」發佈的B200系列只隔了幾個月。
根據SemiAnalysis爆料,從第三季度開始,許多AI巨頭已經將訂單從B200轉移到了B300(只有微軟還在第四季度繼續購買了部分B200)。
有不少網友感嘆,更新速度實在太快了!
既是解決了此前傳聞中B200因設計缺陷被迫推遲的問題,又是對隔壁AMD MI300系列後續產品將在2025年提升顯存容量的回應。
又一款AI核彈
既然都是Blackwell架構沒有跨代,B300的算力提高來自哪裏呢?
根據這次爆料,主要有三部分:
工藝節點,與B200使用同樣的台積電4NP,但是全新流片
增加功率,GB300和B300 HGX的TDP分別達到1.4KW、1.2KW,相比之下B200系列分別提高0.2KW
架構微創新,例如在CPU和GPU之間動態分配功率
除了更高FLOPS之外,B300系列的顯存也做了升級:
從8層堆疊的HBM3E升級到12層(12-Hi HBM3E)
顯存容量從192GB升級到288GB
顯存帶寬保持不變,仍爲8TB/s
此外產品交付層面還有一個大變化:
GB200系列提供整個Bianca Board,也就包括兩顆GPU、一顆CPU、CPU的內存等所有組件都集成在一塊PCB版上。
GB300系列將只提供參考板(Reference Board),包括兩顆B300 GPU、一顆Grace CPU、HMC(Hybrid Memory Cube),LPCAMM內存模塊等組件將由客戶自行採購。
這給供應鏈上的OEM和ODM製造商帶來了新的機會。
爲推理大模型打造
顯存的升級對OpenAI o1/o3一類的推理大模型至關重要,因爲推理思維鏈長度會增加KVCache,影響batch size和延遲。
以一個GB300 NVL72「計算單元」爲單位考慮時,它使72個GPU能夠以極低的延遲處理相同的問題,並共享顯存。
在此基礎上從GB200升級到GB300,還可以帶來許多好處:
每個思維鏈的延遲更低
實現更長的思維鏈
降低推理成本
處理同一問題時,可以搜索更多樣本,最終提高模型能力
爲了解釋這些提升,SemiAnalysis舉了個更爲直觀的例子。
下圖是在不同批處理大小下,使用H100和H200兩種GPU處理長序列時,Llama 3.1 405B在FP8精度下的處理速度。
輸入設置爲1000個token、輸出19000個token,由此模擬OpenAI o1和o3模型中的思維鏈。
從H100升級到H200,有兩個顯著改進。
一是在所有可比較的batch size中,H200的內存帶寬更大(H200 4.8TB/s,H100 3.35TB/s),從而使得處理效率普遍提高了43%。
二是H200可運行更高的batch size,這使得其每秒可以生成的token數量增加了3倍,相應地,成本也減少了約3倍。
內存增加所帶來的效益遠不止表面上的這些。
衆所周知,推理模型響應時間一般更長,顯著縮短推理時間可以提高用戶體驗和使用頻率。
而且內存升級實現3倍性能提升,成本減少3倍,這一提升速度也遠超摩爾定律。
除此之外,SemiAnalysis還分析觀察到,能力更強和具有明顯差異化的模型能收取更高的溢價——
前沿模型毛利率超70%,而還在與開源模型競爭的次一級模型毛利率不足20%。
當然,英偉達並不是唯一一家能增加內存的芯片公司,但奈何英偉達還有殺手鐧NVLink。
One More Thing
英偉達消費級顯卡方面,RTX5090的PCB板也首次曝光了~
就在昨天,一張RTX 5090 PCB照片在網上瘋轉。
特點就是超超超大號。
結合此前爆料稱5090有可能會配備32GB大顯存,有望支持8K超高清遊戲,實現60fps的流暢遊戲體驗。
網友們直接坐不住。
關於5090的發佈時間,大夥兒猜測大概會是1月6日老黃CES演講的時候。
想進場但擇時難?「月供專區」功能幫到你,定時定額入市,把握投資機會!
市場>美股>點擊「月供股票」>「創建月供」>設置月供計劃
編輯/new