品玩

科技创新者的每日必读

打开APP
关闭

南洋理工MMLab发布Hand2World,实现世界模型“手眼”协同交互

19小时前

品玩4月15日讯,据CSDN消息,南洋理工大学MMLab团队近日正式推出Hand2World模型。该模型使AI世界模型能够通过空中手势实时生成第一人称交互视频,真正实现了从“被动观察”到“主动触达”的技术跨越,解决了长期存在的手眼交互难题。

针对现有模型在训练与推理阶段因手部遮挡导致的分布不匹配问题,Hand2World摒弃了传统的2D掩码,采用基于3D手部网格(MANO)的投影作为控制信号。同时,模型利用像素级Plücker射线嵌入显式编码相机运动,成功解耦了手部动作与头部视角转动,有效防止了背景漂移。

在技术架构上,Hand2World将双向扩散教师模型蒸馏为因果自回归生成器,支持流式输出与无限时长的连续交互。实验数据显示,该模型在ARCTIC等三大基准测试中FVD指标大幅下降,显著提升了生成视频的视觉质量与3D一致性。

取消 发布

下载品玩App,比99.9%的人更先知道关于「世界模型」的新故事

下载品玩App

比99.9%的人更先知道关于「世界模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测