品玩

科技创新者的每日必读

打开APP
关闭

微软联手清华、中国科学院大学共同推出 BitNet 架构

2023年10月19日

品玩10月19日讯,据 Arxiv 页面显示,微软研究院联手中国科学院大学、清华大学共同发布论文,公布了一款可扩展且稳定的 1 位 Transformer 架构 BitNet 架构。

据悉, BitNet 转为大语言模型设计。研究团队表示,为了训练1位权重,团队引入了 BitLinear作为 nn.Linear 层的替代品。实验结果显示,BitNet 在语言建模任务上实现了竞争力的性能,同时显著减少了内存占用和能源消耗。

此外,BitNet 呈现出与全精度 Transformer 类似的扩展定律,表明它有潜力在保持效率和性能优势的同时,扩展到更大的语言模型。

取消 发布

下载品玩App,比99.9%的人更先知道关于「大模型」的新故事

下载品玩App

比99.9%的人更先知道关于「大模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测