扎克伯格旗下Meta Platforms分享了一个创新研究——Memory layers(记忆层)。目前,Transformer架构的预训练大模型在存储、查询数据时,随着参数的变大对算力的需求呈指数级增长。“记忆层”提出了新的高效查询机制替代了传统的查询方法,通过比较查询键与两个较小集合中的键,可以快速找到最相关的键,而无需遍历模型的整个记忆层。这也就是说,可以在不增加算力的情况下显著增加大模型的参数。例如,研究人员在仅有1.3亿参数的模型中添加了128亿额外的记忆参数,其性能与Meta开源的Llama 2- 70相当,而算力却比它低了10倍左右。
简体中文
返回
- English
- 繁體中文
- 简体中文
- 深色
- 浅色
立即开户
突破算力限制 Meta开源“记忆层”,重塑Transformer架构大模型
以上内容仅用作资讯或教育之目的,不构成与富途相关的任何投资建议。富途竭力但不能保证上述全部内容的真实性、准确性和原创性。
风险及免责提示
以上内容仅用作资讯或教育之目的,不构成与富途相关的任何投资建议。富途竭力但不能保证上述全部内容的真实性、准确性和原创性。
知道了
风险及免责提示
以上内容仅用作资讯或教育之目的,不构成与富途相关的任何投资建议。富途竭力但不能保证上述全部内容的真实性、准确性和原创性。
知道了
抢沙发
0 0 0
赞大爱笑哭社会社会Emm心碎怒
轻触选择心情
- 分享到weixin
- 分享到qq
- 分享到facebook
- 分享到twitter
- 分享到微博
- 粘贴板
使用浏览器的分享功能,分享给你的好友吧
点击这里分享给好友
暂无评论,快来抢沙发吧!
资讯热榜
更新时间