品玩

科技创新者的每日必读

打开APP
关闭

OpenMOSS团队开源MOSS-VL模型,以交叉注意力架构重塑视频理解范式

4月10日

品玩4月10日讯,OpenMOSS团队近日正式开源MOSS-VL系列视觉理解模型。该模型采用创新的交叉注意力架构,通过解耦视觉编码与认知推理,有效解决了传统模型在处理视频流时面临的计算效率瓶颈,大幅降低了推理延迟。

MOSS-VL引入了绝对时间戳与XRoPE编码技术,实现了对视频事件的精准时空锚定与细粒度动作定位。在涵盖多模态感知、推理及文档OCR的30余项基准测试中,该模型表现卓越,尤其在视频理解任务上显著优于Qwen3-VL等同类模型,展现了强大的时序一致性与动态场景捕捉能力。

此次开源标志着OpenMOSS多模态生态的重要拓展。团队已规划MOSS-VL-1.5至2.0的技术演进路线,致力于通过架构创新与强化学习,最终实现超长视频的连续无损理解与全天候流式实时交互。

取消 发布

下载品玩App,比99.9%的人更先知道关于「OpenMOSS」的新故事

下载品玩App

比99.9%的人更先知道关于「OpenMOSS」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测