share_log

2024年,人工智能芯片还能给市场哪些惊喜?

2024年,人工智能芯片還能給市場哪些驚喜?

半導體行業觀察 ·  01/01 14:36

來源:半導體行業觀察

2023年,隨着以大語言模型爲代表的人工智能市場持續火爆,我們看到了人工智能成爲了半導體行業的最大推動力,也見證了Nvidia驚人的銷售業績以及其市值創下新高。隨着新年的到來,我們也對2024年人工智能芯片做一個展望。

市場需求:人工智能仍將繼續火熱

從市場需求側來看,我們認爲人工智能在2024年仍然將繼續火熱,這也將繼續推動相關的芯片行業保持良好的態勢。然而,與2023年不同的是,我們認爲在2024年,人工智能市場的需求會同時從雲端慢慢擴展到終端,這也將驅動相應的芯片市場發展。

首先,從雲端需求來看,大語言模型仍然將是主要的增長點。同時,圖像生成類模型也會保持快速增長的勢頭。具體來說,大語言模型仍然是各大科技公司競相研發的核心技術,包括OpenAI,微軟,谷歌,華爲,阿里巴巴,百度等中外科技公司都在大力研發下一代的大語言模型,而包括中國移動等傳統行業的公司也在入局大語言模型領域,同時還有大量的初創公司在依靠風險投資的支持也在大力開發大語言模型。大語言模型的百家爭鳴時代才剛剛開始並且遠遠沒有落下帷幕,在這樣的群雄逐鹿的時間節點,預計對於芯片的需求也會快速增長。大語言模型的特點是需要海量的數據和訓練芯片資源,而且同時由於格局尚未塵埃落定有大量的公司在研發新的模型,因此總體來說訓練芯片的需求會非常大。

而隨着雲端人工智能交互進入多模態時代,聊天機器人已經不僅僅可以用文字回答,而且還可以完成看圖說話以及圖像甚至視頻生成等任務,因此我們認爲,圖像生成類的模型,以及圖像和語言結合的多模態模型也將會成爲雲端人工智能的一個重要增長點。

除了雲端之外,我們認爲終端(包括手機和智能車)也將會成爲人工智能的新增長點。手機上的人工智能雖然早已不再新鮮,但是隨着生成模型的成熟,我們可望看到這類模型落地手機端並賦能新的用戶體驗。手機端生成類模型又分爲兩種,一種是圖像生成類模型,即以擴散模型(diffusion model)爲代表的模型,這類模型可以實現高質量超分辨以及高質量修圖,從而可望給用戶的拍照和照片編輯帶來革命性的變化。另一類應用是語言模型——與運行在雲端的大語言模型(LLM)相對地,過去幾個月我們看到了小語言模型(SLM)的興起。小語言模型和大語言模型一樣,都是主要用於語言的理解和生成(或者說,與人對話);小語言模型在參數量變少之後,可以更靈活地應用在一些專用的場景中(而不是像大語言模型一樣試圖覆蓋所有場景)並且提供很高的準確性,同時還有可能運行在終端設備中。

從智能車領域,一方面隨着端到端多任務大模型帶來的革命性性能提升(例如BEVFormer帶來的俯瞰場景識別性能提升,以及商湯在2023發佈的UniAD帶來的多任務性能大幅提升)會推動這類模型進一步落地並且推動芯片的需求,另一方面則是來自於語言模型人機交互這類源自於雲端的人工智能應用遷移到智能車場景。

因此,我們預測,2024年將會是人工智能持續火熱的一年,與2023年不同的是除了雲端人工智能保持熱門之外,我們預計終端應用場景也會成爲新的人工智能需求增長點。

雲端市場格局分析

雲端人工智能芯片市場,我們預計Nvidia仍然將保持領跑地位,但是AMD等競爭者預計也將獲得更多市場份額。

首先,如前所述,雲端市場目前主要的需求在於大語言模型和生成式圖像的訓練和推理。由於這些模型對於計算資源需求非常大,而且訓練任務佔的比例很大,因此給相應的芯片設了一個很高的門檻。這裏的門檻包括了:

- 芯片算力:爲了支持巨大的計算量,芯片需要有足夠的計算單元,內存容量和帶寬

- 分佈式計算支持:對於大模型來說分佈式計算是必須的

- 軟件兼容性和生態:對於訓練來說,對於模型進行反覆快速迭代是一個很強的需求,因此必須有足夠好的生態來支持不同的模型算符快速迭代

目前而言,Nvidia在這一個領域仍然是領先,無論是其芯片和分佈式計算性能,還是軟件生態兼容性來說,都是首選。這也是爲什麼2023年Nvidia的H100成爲了人工智能相關公司最寶貴的資源,在市場上供不應求。在2024 H2,Nvidia將會開始出貨H200,相對於H100來說,H200擁有40%和內存帶寬提升以及80%的內存容量提升,因此可望會被人工智能公司爭相購買。

在2024年,我們預計AMD在雲端人工智能領域也將更加站穩腳跟,並由此開始慢慢走向更大的市場份額。2023下半年,AMD發佈了最新的MI300X用於高性能計算的GPU模組,該芯片包含大芯片粒(12個處理器/IO芯片粒),並且相比於H200來說,擁有更高(1.6倍)的FP8算力,以及更大的內存容量和帶寬(1.2倍)。從AMD公佈的實測數據來看,MI300X的推理能力大約比H100強20%-40%,訓練性能則和H100持平。我們認爲,軟件生態(包括編譯器性能)將成爲決定AMD在雲端人工智能市場能否成功的決定性因素,而這一點預計在2024年將會有所改善:OpenAI將在最新發布的Triton框架中加入對於AMD MI300X的支持,而各大初創公司的人工智能加速軟件框架也在加強對於AMD GPU的支持。隨着芯片性能和軟件生態的提升,以及各大科技公司對於Nvidia GPU一家獨大地位的擔憂態度,我們預計2024年對於AMD的GPU在人工智能市場將會是重要的一年,預計將會看到更多客戶的應用。

從供應鏈角度,由於雲端人工智能芯片對於HBM3等高帶寬內存有着強力的需求,我們認爲HBM內存以及高級封裝(如CoWoS)的產能仍然將會火熱,這也將推動相應半導體企業擴大產能,以及積極研發下一代內存和高級封裝技術。從這個角度看,人工智能應用仍然將會是推動半導體新技術高速發展的核心動力。

終端市場格局分析

除了雲端市場外,我們預計人工智能對於終端市場也有更強的需求,這也將推動人工智能成爲終端計算芯片中越來越重要的差異化元素。

在手機端,人工智能的使用頻率將會進一步增強,這也會推動芯片加入更多相應的算力,並且將人工智能支持作爲SoC的核心亮點。例如高通發佈的Snapdragon 8 Gen 3就以“低於一秒的延遲實現圖像生成任務”作爲一個重要賣點,估計這樣的人工智能能力將會深度集成到手機廠商的操作系統中。除了高通這樣的第三方芯片公司之外,自研手機芯片的系統廠商預計也會繼續加碼人工智能;蘋果雖然在這方面保持低調,但是預計在未來會以各種方式(加大NPU算力,或者是加大軟件支持)的方法來開始賦能更多人工智能在iPhone上的新拍攝用戶體驗。vivo在自研ISP芯片領域已經有了數年積累,而目前生成式人工智能對於拍攝體驗的提升恰好和ISP有很強的協同作用,這也是2023年8月vivo發佈的v3 ISP芯片強調了生成式人工智能作爲一個核心亮點。未來,預計會看到越來越多這樣的芯片強調人工智能對於用戶體驗上的賦能作用。

在智能汽車領域,Nvidia雖然不如在雲端強勢,但是其Orin系列芯片仍然是各大車廠考慮的標準芯片模組。我們認爲,隨着人工智能大模型對於智能駕駛的賦能作用逐漸加強,無論是第三方芯片還是車廠自研的芯片都將會進一步強化對於人工智能算力的投入,同時也推動芯片性能的快速提升——最近,無論是蔚來發布新自研芯片的算力規格,還是特斯拉傳出將使用TSMC 3nm作爲下一代芯片的生產工藝,都在提示着我們2024年人工智能將在智能車芯片領域扮演越來越重要的角色。

哪些新技術值得關注?

除了以上討論的芯片之外,有哪些新技術可望會爲人工智能芯片領域帶來新的變化?

首先,存內計算和近內存計算/處理技術可望會得到越來越多的關注。對於雲端人工智能來說,內存訪問開銷一直是一個性能瓶頸,而隨着大模型的參數量越來越大,內存訪問帶來的開銷也越來越大。存內計算和近內存計算/處理技術的主要目的就是爲了降低這樣的開銷,讓一些計算和處理任務能夠在內存中就完成。在這個領域,三星的PIM(process in memory)和PNM(process near memory)技術非常值得我們關注,而這些技術也可望會成爲三星未來進一步提高自身存儲器技術差異化競爭力的關鍵。

對於終端人工智能來說,智能汽車場景中由於對於延遲有着較強的需求,因此新技術有比較多的機會能產生影響。在雲端,以GPU爲代表的加速芯片都是主要基於優化吞吐量的考慮,而不是延遲,因此在智能車領域必須有新的架構設計。對於車載應用來說,數據都是以數據流的形式(而不是批量的形式)進入處理器,因此人工智能芯片必須能高速低延遲處理這些數據流。另一方面,大模型正在進入智能車應用,因此如何在低延遲的情況下支持大模型推理,將會是智能車芯片中新技術需要重點突破的方向。

編輯/Jeffrey

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論