扎克伯格旗下Meta Platforms分享了一個創新研究——Memory layers(記憶層)。目前,Transformer架構的預訓練大模型在存儲、查詢數據時,隨着參數的變大對算力的需求呈指數級增長。「記憶層」提出了新的高效查詢機制替代了傳統的查詢方法,通過比較查詢鍵與兩個較小集合中的鍵,可以快速找到最相關的鍵,而無需遍歷模型的整個記憶層。這也就是說,可以在不增加算力的情況下顯著增加大模型的參數。例如,研究人員在僅有1.3億參數的模型中添加了128億額外的記憶參數,其性能與Meta開源的Llama 2- 70相當,而算力卻比它低了10倍左右。
繁體中文
返回
- English
- 繁體中文
- 简体中文
- 深色
- 淺色
立即開戶
- 快訊
- 詳情
譯文內容由第三人軟體翻譯。
以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
風險及免責聲明
以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
我知道了
風險及免責聲明
以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
我知道了
搶先評論
0 0 0
讚好勁正笑哭社會社會Emm惨惨嬲嬲
輕觸選擇心情
- 分享到weixin
- 分享到qq
- 分享到facebook
- 分享到twitter
- 分享到微博
- 粘贴板
使用瀏覽器的分享功能,分享給你的好友吧
點擊這裡與好友分享
暫無評論,快來留言吧!