share_log

AMD发现将芯片效能提升100倍的办法

AMD發現將芯片效能提升100倍的辦法

半導體行業觀察 ·  05/24 10:03

如果您希望可以時常見面,歡迎標星 收藏哦~

來源:內容由半導體行業觀察(ID:icbank)編譯自tomshardware,謝謝。

AMD 首席執行官 Lisa Su 出席了 imec 的 ITF World 2024 大會,接受了享有盛譽的imec 創新獎,以表彰其創新和行業領導力,與 Gordon Moore、Morris Chang 和 Bill Gates 等其他往屆獲獎者一起獲得了該獎項。在接受獎項後,Su 開始了她的演講,介紹了 AMD 爲實現公司 30x25 目標所採取的步驟,該目標旨在到 2025 年將計算節點的能效提高 30 倍。Su 宣佈,AMD 不僅有望實現這一目標,而且現在還看到了到 2026 年至 2027 年將能效提高 100 倍以上的途徑。

由於 ChatGPT 等生成式 AI LLM 的激增,人們對 AI 功耗的擔憂成爲人們關注的焦點,但 AMD 早在 2021 年就預見到了 AI 巨大的功耗需求所帶來的問題。當時,AMD 開始致力於其 30x25 目標,以提高數據中心計算節點的能效,特別指出 AI 和 HPC 的功耗是一個迫在眉睫的問題。(AMD 早在 2014 年就設定了其第一個雄心勃勃的能源目標,其首個 25x20 目標是到 2020 年將消費處理器的能效提高 25 倍,而 AMD 最終以 31.7 倍的提升超額完成了這一目標。)

這個問題現在已成爲焦點。隨着全球最大的公司爭奪人工智能霸主地位,生成式人工智能正在推動數據中心的快速擴張,但公共電網尚未準備好應對耗電數據中心的突然激增,電力成爲新的限制因素。由於電網容量、基礎設施和環境問題限制了可用於新建和擴建數據中心的容量,因此數據中心可用的電量受到嚴格限制。事實上,許多新數據中心都建在發電廠旁邊,以確保電力供應,而巨大的需求甚至重新點燃了使用核小型模塊反應堆 (SMR) 爲單個數據中心供電的熱情。

隨着訓練模型所需的計算量增加,問題只會愈演愈烈。蘇姿豐指出,第一批圖像和語音識別人工智能模型的大小過去每兩年翻一番,與過去十年計算能力的進步速度基本一致。

然而,生成式人工智能模型的規模現在以每年 20 倍的速度增長,超過了計算和內存進步的速度。蘇姿豐表示,雖然當今最大的模型是在數萬個 GPU 上訓練的,消耗了數萬兆瓦時的電力,但快速擴大的模型大小可能很快就需要數十萬個 GPU 進行訓練,可能需要幾千兆瓦的電力來訓練一個模型。這顯然是站不住腳的。

AMD 爲提高能效制定了多管齊下的策略,包括一種廣泛的方法,從其硅架構和先進的封裝策略擴展到 AI 特定的架構、系統和數據中心級調整以及軟件和硬件共同設計計劃。

當然,硅是基石。

蘇姿豐指出,3nm 全柵極 (GAA) 晶體管是 AMD 在硅路線圖上的下一步,旨在提高功率效率和性能,同時繼續關注先進封裝和互連,以實現更節能、更具成本效益的模塊化設計。先進封裝在擴展設計以在單芯片封裝的限制內產生更多馬力方面發揮着關鍵作用,AMD 採用 2.5D 和 3D 封裝的混合技術,以最大限度地提高每平方毫米數據中心硅片的每瓦計算能力。

在服務器節點和服務器機架之間傳輸數據會因距離較長而消耗額外電力,因此優化數據局部性可以節省大量電力。AMD 的 MI300X 是一個很好的例子,它體現了製造越來越大的芯片封裝所帶來的效率——該芯片擁有 1530 億個晶體管,分佈在 12 個芯片上,搭配 24 個 HBM3 芯片,可提供 192GB 的內存容量,所有這些都可作爲本地內存供 GPU 使用。再加上封裝內單元之間經過功率和性能優化的 Infinity Fabric 互連,極高的計算和內存密度可將更多數據保持在靠近處理核心的位置,從而減少傳輸數據所需的能量。

參考鏈接

點這裏 加關注,鎖定更多原創內容

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論