品玩12月17日讯,据 Github 页面显示小米近日推出MiMo-V2-Flash,一款总参数达309B、激活参数15B的Mixture-of-Experts(MoE)语言模型。
该模型采用混合注意力架构与多词元预测(MTP)技术,在保持256K长上下文能力的同时,显著提升推理速度并降低计算成本。MiMo-V2-Flash通过多教师策略蒸馏(MOPD)与大规模智能体强化学习,在SWE-Bench、数学推理及代码生成等任务中表现优异。
该模型现已开源,并支持FP8混合精度部署,适用于高效率智能体工作流与复杂推理场景。





0 条评论
请「登录」后评论