品玩3月20日讯,据 Mistral 官方消息,法国人工智能公司Mistral AI正式发布Mistral Small 4模型。作为Small系列的最新重大版本,该模型首次将Magistral的推理、Pixtral的多模态及Devstral的代码智能体能力整合于单一架构,用户无需在不同专用模型间切换即可应对复杂任务。
Mistral Small 4采用混合专家(MoE)架构,拥有1190亿总参数,支持256k上下文窗口及原生图文输入。其核心创新在于可配置的“推理努力”参数,允许用户在低延迟响应与深度逐步推理之间动态调整。测试显示,该模型在保持或超越GPT-OSS 120B性能的同时,显著缩短了输出长度,大幅降低了推理成本与延迟。
该模型基于Apache 2.0协议开源,现已通过Mistral API、Hugging Face及NVIDIA NIM部署。作为英伟达Nemotron联盟创始成员,Mistral致力于推动开放、高效且可定制的企业级人工智能应用发展。





0 条评论
请「登录」后评论