品玩

科技创新者的每日必读

打开APP
关闭

小米发布MiMo-V2-Flash大模型

18小时前

品玩12月17日讯,据 Github 页面显示小米近日推出MiMo-V2-Flash,一款总参数达309B、激活参数15B的Mixture-of-Experts(MoE)语言模型。

该模型采用混合注意力架构与多词元预测(MTP)技术,在保持256K长上下文能力的同时,显著提升推理速度并降低计算成本。MiMo-V2-Flash通过多教师策略蒸馏(MOPD)与大规模智能体强化学习,在SWE-Bench、数学推理及代码生成等任务中表现优异。

该模型现已开源,并支持FP8混合精度部署,适用于高效率智能体工作流与复杂推理场景。

取消 发布

下载品玩App,比99.9%的人更先知道关于「小米」的新故事

下载品玩App

比99.9%的人更先知道关于「小米」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测