品玩3月13日讯,据英伟达官方消息,NVIDIA正式推出Nemotron 3 Super——一款面向复杂多智能体推理任务的开源大语言模型。该模型总参数达1200亿,激活参数为120亿,采用创新的混合Mamba-Transformer架构与稀疏专家混合(MoE)机制,在保持高吞吐的同时支持百万级token上下文窗口。
Nemotron 3 Super引入多项关键技术:Latent MoE通过低秩投影压缩路由开销,使专家调用数量提升4倍;多词元预测(MTP)技术实现单次前向生成多个词元,显著加速长序列输出;模型全程以NVIDIA自研NVFP4格式进行原生预训练,适配Blackwell架构,在B200上推理速度较H100提升4倍。
该模型已在PinchBench基准测试中取得85.6%的综合得分,为当前同类开源模型最优。NVIDIA同步开放完整权重、训练数据集及部署方案,支持vLLM、SGLang和TensorRT-LLM等主流推理引擎,并提供LoRA微调与强化学习对齐工具链,助力开发者高效定制与部署。





0 条评论
请「登录」后评论