今天,星海图正式发布端到端双系统VLA模型G0模型的升级版——G0 Plus,并同步上线全球首个开箱即用的 VLA 模型体验 Demo——「万物抓取(Pick Up Anything),完整展示了从语言理解、视觉感知到真实机器人动作执行的闭环能力,标志着具身智能从“模型展示”迈入“可直接体验与部署”的新阶段。
「万物抓取(Pick Up Anything)」Demo 展示了 G0 Plus 在 Zero-shot 场景下的通用操作能力。在无需针对具体物体或任务进行单独训练的情况下,机器人能够基于自然语言指令,在真实、开放环境中完成多样化抓取与操作任务。
G0 Plus 的能力基础,来自星海图在硬件与数据层面的长期投入。今年 8 月,星海图全面开源了面向开放世界任务的真机数据集(GOD,Galaxea of Open-world Dataset)及 G0 基础模型全栈模型和部署代码,数据集累计下载量已超过 50 万次,在全球具身智能开发者社区中受到广泛关注与采用。
在数据生产层面,星海图构建了面向开发者的一站式具身智能开发平台EDP(Embodied Development Platform) ,将原本高成本、低效率的真机数据采集流程标准化、工具化,大幅降低了真实机器人数据生产门槛。基于该工具体系,G0 Plus 的训练数据主要来自真实世界中的开放任务与真实执行过程,覆盖抓取、操作、组合动作与复杂交互等典型具身智能场景,而非依赖仿真或高度受限环境。这使模型能够在真实场景中获得更稳定的动作表现与更强的任务泛化能力,为 VLA 模型训练提供长期、可持续的数据基础。
在模型部署层面,星海图同步推出 VLA 一体机解决方案。通过软硬件一体化设计,G0 Plus 已完成从模型推理到机器人执行系统的端到端封装,实现端侧实时运行与即插即用部署。VLA一体机出厂预装全套环境,内置标准化“一键拉起”脚本,开发者无需进行复杂的系统集成,开箱30 分钟内即可体验G0 Plus “Pick Up Anything”万物抓取VLA模型,体验自然语言交互的人机协同。
G0 Plus 并非一个仅用于展示性能的模型,而是面向真实机器人应用与持续开发的具身智能基座模型。通过 VLA 一体机与「万物抓取(Pick Up Anything)」Demo,星海图希望为行业提供一个可被反复验证、可持续演进的具身智能实践样本。
在轮式双臂机器人这一细分形态上,星海图已实现全球领先的部署规模与占有率,并在世界顶级具身智能开发者群体中实现了超过 90% 的覆盖率,包括Physical Intelligence在内的多家具身大脑头部玩家。围绕真实机器人开发需求,R1 Lite平台被广泛用于具身智能研究、算法验证与应用探索,成为全球范围内大量开发者的真实选择。
基于同一套硬件与模型体系,星海图已与多家产业伙伴启动面向实际业务场景的验证与落地合作。目前,星海图正与多家企业开展商业化POC(Proof of Concept,概念验证),围绕工业制造、物流分拣与商业应用等方向推进具身智能的规模化落地探索。真实业务场景的持续使用,不仅验证了系统的可靠性,也为模型能力的持续优化提供了来自一线应用的长期反馈。
通过 G0 Plus 与「万物抓取(Pick Up Anything)」模型,星海图将 VLA 模型以一体机的形式完整运行在真实机器人上。这意味着具身智能不再只是模型能力的对比,而是可以被直接部署、反复验证并持续优化的工程系统。G0 Plus 和VLA一体机的的发布,延续并强化了星海图长期坚持的整机+智能技术路线——From Motor to Model,在未来,星海图将持续构建覆盖硬件、数据与模型的完整开发体系,推动具身智能跨越商业化临界点。
开源地址:https://github.com/OpenGalaxea/GalaxeaVLA




0 条评论
请「登录」后评论