品玩

科技创新者的每日必读

打开APP
关闭

麻省理工联手港中大,发布全新大模型微调方法LongLoRA

2023年10月8日

品玩10月8日讯,据 Arxiv 页面显示,麻省理工学院近日联手香港中文大学提出一种高效的微调方法LongLoRA ,它能以有限的计算成本扩展预先训练好的大语言模型的上下文大小。

论文显示,研究团队提出一种更简单的注意力形式策略,被称为S2-Attn,它可以有效地实现上下文扩展,从而节省了大量计算量,其性能与使用虚无注意力进行微调时的性能相似。

研究团队表示,LongLoRA已在开源模型LLaMA2 7B/13B/70B上进行了试验,将上下文原始长度扩展至32K、64K、100K,所需要的算力资源却很少。

取消 发布

下载品玩App,比99.9%的人更先知道关于「AI大模型」的新故事

下载品玩App

比99.9%的人更先知道关于「AI大模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测