品玩

科技创新者的每日必读

打开APP
关闭

微软推出 FP8 混合精度训练框架,内存成本降低 50%

2023年11月10日

品玩11月10日讯,微软研究团队近日发表论文,宣布推出一款FP8 混合精度训练框架,用于节约大模型计算成本。

研究团队表示,当前大模型训练需要付出高额框架,而如果采用FP8 低精度训练大模型,可以将速度提高 2 倍、内存成本降低 50% 至 75%,并且可节省通信成本。微软表示,目前只有 Nvidia Transformer Engine 兼容 FP8 框架,主要利用这种精度进行 GEMM(通用矩阵乘法)计算,同时以 FP16 或 FP32 高精度保持主权重和梯度。

微软表示,FP8 低精度训练框架现已开源。

取消 发布

下载品玩App,比99.9%的人更先知道关于「微软」的新故事

下载品玩App

比99.9%的人更先知道关于「微软」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测