share_log

这是英伟达继续上涨的底气?机构预估2025年新一代AI芯片出货量将破百万颗

這是英偉達繼續上漲的底氣?機構預估2025年新一代AI芯片出貨量將破百萬顆

智通財經 ·  04/16 21:22

$英偉達 (NVDA.US)$新一代平台Blackwell,包含B系列GPU及整合NVIDIA自家Grace Arm CPU的GB200等。TrendForce集邦諮詢指出,GB200的前一代爲GH200,皆爲CPU+GPU方案,主要搭載NVIDIA Grace CPU及H200 GPU,但以GH200而言,出貨量估僅佔整體NVIDIA高端GPU約5%。目前供應鏈對NVIDIA GB200寄予厚望,預估2025年出貨量有機會突破百萬顆,佔NVIDIA高端GPU近4~5成。

集邦諮詢指出,NVIDIA雖計劃在今年下半年推出GB200及B100等產品,但上游晶圓封裝方面須進一步採用更復雜高精度需求的CoWoS-L技術,驗證測試過程將較爲耗時。此外,針對AI服務器整機系統,B系列也需耗費更多時間優化,如網通、散熱的運轉效能,預期GB200及B100等產品要等到今年第四季,至2025年第一季較有機會正式放量。

CoWoS方面,由於NVIDIA的B系列包含GB200、B100、B200等將耗費更多CoWoS產能,台積電(TSMC)亦提升2024全年CoWoS產能需求,預估至年底每月產能將逼近40k,相較2023年總產能提升逾150%;2025年規劃總產能有機會幾近倍增,其中NVIDIA需求佔比將逾半數。而Amkor、Intel等目前主力技術尚爲CoWoS-S,主攻NVIDIA H系列,短期內技術較難突破,故近期擴產計劃較爲保守,除非未來能夠拿下更多NVIDIA以外的訂單,如雲端服務業者(CSP)自研ASIC芯片,擴產態度才可能轉爲積極。

NVIDIA及AMD AI發展將加速,HBM3e於下半年成爲市場主流

HBM方面,從NVIDIA及AMD近期主力GPU產品進程及搭載HBM規格規劃變化來看,TrendForce集邦諮詢認爲2024年後將有三大趨勢。

其一,HBM3進階到HBM3e,預期NVIDIA將於今年下半年開始擴大出貨搭載HBM3e的H200,取代H100成爲主流,隨後GB200及B100等亦將採用HBM3e。AMD則規劃年底前推出MI350新品,期間可能嘗試先推MI32x等過渡型產品,與H200相抗衡,均採HBM3e。

其二,HBM搭載容量持續擴增,爲了提升AI服務器整體運算效能及系統頻寬,將由目前市場主要採用的NVIDIA H100(80GB),至2024年底後將提升往192~288GB容量發展;AMD亦從原MI300A僅搭載128GB,GPU新品搭載HBM容量亦將達288GB。

其三,搭載HBM3e的GPU產品線,將從8hi往12hi發展,NVIDIA的B100、GB200主要搭載8hi HBM3e,達192GB,2025年則將推出B200,搭載12hi HBM3e,達288GB;AMD將於今年底推出的MI350或2025年推出的MI375系列,預計均會搭載12hi HBM3e,達288G。

編輯/Jeffrey

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論