品玩

科技创新者的每日必读

打开APP
关闭

DeepSeek联合北大提出Engram架构,突破Transformer记忆瓶颈

1月13日

品玩1月13日讯,据 36氪报道,DeepSeek与北京大学合作发布新论文,由Liang Wenfeng等作者提出“Engram”模块,旨在解决Transformer缺乏原生知识检索能力的核心缺陷。该方法引入“条件记忆”稀疏轴,通过现代化哈希N-gram嵌入,实现近似O(1)时间复杂度的确定性知识查找。

Engram将语言建模中的静态模式(如固定搭配、实体名称)交由可扩展查表模块处理,使主干网络专注组合推理任务。在27B参数规模下,其在等参数、等计算量条件下优于MoE基线。

研究团队发现MoE与Engram之间存在“U型缩放律”,需平衡计算与静态记忆资源配比。该技术有望集成至下一代V4模型,为稀疏大模型开辟新路径。

取消 发布

下载品玩App,比99.9%的人更先知道关于「炸酱面」的新故事

下载品玩App

比99.9%的人更先知道关于「炸酱面」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测