品玩

科技创新者的每日必读

打开APP
关闭

字节跳动与南洋理工大学开源StoryMem框架

11小时前

品玩12月29日讯,据 AI Base 报道,字节跳动与南洋理工大学联合发布开源AI视频生成框架StoryMem,通过“Memory-to-Video(M2V)”机制,将单镜头扩散模型升级为支持多镜头、超1分钟连贯叙事的长视频生成系统。

该框架利用动态记忆库存储关键帧信息,结合轻量LoRA微调,在角色外貌、场景风格和叙事逻辑上实现跨镜头高度一致,一致性指标较现有方法提升29%。配套发布的ST-Bench数据集含300个多镜头故事提示,支持标准化评估。社区已开始在ComfyUI中集成该技术。

取消 发布

下载品玩App,比99.9%的人更先知道关于「字节跳动」的新故事

下载品玩App

比99.9%的人更先知道关于「字节跳动」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测