品玩

科技创新者的每日必读

打开APP
关闭

MiniMax 国内首个 MoE 大语言模型上线 拥有处理复杂任务能力

2024年1月16日

品玩1月16日讯,据MiniMax开放平台报道,今日,MiniMax宣布国内首个MoE大语言模型abab6上线,经过了半个月的内测和部分客户反馈,该模型在MoE结构下,拥有处理复杂任务的能力,并在单位时间内提升了训练效率。相较于之前版本abab5.5,在处理更复杂和对模型输出有更精细要求的场景中做出了改进。

MiniMax表示abab5.5与先进模型GPT-4相比仍有差距,主要表现在处理更复杂场景时可能违反用户要求的输出格式或发生错误,为解决此问题,MiniMax自6月份开始研发MoE模型abab6,参数规模更大,有望在复杂任务下取得更好效果。

此外,扩大参数规模可能带来推理速度降低和训练时间延长的问题,为保证abab6的运算速度,MiniMax采用MoE结构,将模型参数划分为多组“专家”,每次推理只有一部分专家参与计算。这一结构使abab6在处理复杂任务时更为高效,目前是国内首个千亿参数以上的基于MoE结构的大语言模型。

取消 发布

下载品玩App,比99.9%的人更先知道关于「大语言模型」的新故事

下载品玩App

比99.9%的人更先知道关于「大语言模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测