品玩

科技创新者的每日必读

打开APP
关闭

MiniMax发布万亿 MoE 模型abab 6.5

2024年4月17日

品玩4月17日讯,据 MiniMax 官方消息,首款万亿 MoE 模型abab 6.5现已推出。

abab6.5系列包含两个模型:abab6.5和 abab6.5s。abab6.5拥有万亿参数,支持200k tokens 的上下文长度;而 abab6.5s 采用了相同的训练技术和数据,但更高效,支持200k tokens 的上下文长度,并且可以在1秒内处理近3万字的文本。 MiniMax 表示,在各类核心能力测试中,abab6.5开始接近世界上最领先的大语言模型,如 GPT-4、Claude-3、Gemini-1.5等。

abab6.5和 abab6.5s 将会陆续更新到 MiniMax 旗下的产品中,包括生产力产品海螺 AI 和 MiniMax 开放平台。用户可以通过这些产品来体验这些先进的语言模型。

取消 发布

下载品玩App,比99.9%的人更先知道关于「MiniMax」的新故事

下载品玩App

比99.9%的人更先知道关于「MiniMax」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测