品玩4月10日讯,OpenMOSS团队近日正式开源MOSS-VL系列视觉理解模型。该模型采用创新的交叉注意力架构,通过解耦视觉编码与认知推理,有效解决了传统模型在处理视频流时面临的计算效率瓶颈,大幅降低了推理延迟。
MOSS-VL引入了绝对时间戳与XRoPE编码技术,实现了对视频事件的精准时空锚定与细粒度动作定位。在涵盖多模态感知、推理及文档OCR的30余项基准测试中,该模型表现卓越,尤其在视频理解任务上显著优于Qwen3-VL等同类模型,展现了强大的时序一致性与动态场景捕捉能力。
此次开源标志着OpenMOSS多模态生态的重要拓展。团队已规划MOSS-VL-1.5至2.0的技术演进路线,致力于通过架构创新与强化学习,最终实现超长视频的连续无损理解与全天候流式实时交互。





0 条评论
请「登录」后评论