品玩

科技创新者的每日必读

打开APP
关闭

AI 公司 Graphcore 发布新技术 SparQ Attention,降低大模型内存带宽要求

2023年12月12日

品玩12月12日讯,据 Arxiv 页面显示,来自 AI 公司 Graphcore 的一支研究团队近日提出了一项名为 SparQ Attention的技术,可以降低大语言模型的内存带宽要求。

研究团队表示, SparQ Attention技术通过选择性获取缓存历史记录来降低注意块内的内存带宽要求。该技术可在推理过程中直接应用于现成的 大语言模型,而无需修改预训练设置或进行额外的微调。

研究团队表示,通过评估 Llama 2 和 Pythia 模型在各种下游任务中的表现,SparQ Attention技术可以将大模型的内存和带宽要求降低八倍,而准确率不会降低。

论文地址:https://arxiv.org/pdf/2312.04985.pdf

取消 发布

下载品玩App,比99.9%的人更先知道关于「AI大模型」的新故事

下载品玩App

比99.9%的人更先知道关于「AI大模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测