品玩10月26日讯,据 Arxiv 页面显示,苹果和伊利诺伊大学香槟分校的研究者近日共同发表论文,介绍了一种名为SAM-CLIP的统一视觉基础模型。
SAM-CLIP 将 CLIP和Segment Anything Model 两种视觉基础模型统一起来,通过使用多任务学习、持续学习等技术,两种模型的优势融合到一个统一模型之中。此外,SAM-CLIP还引入了协同功能
论文表示, SAM-CLIP在多个实验任务中都取得了较好的表现。

苹果联合伊利诺伊大学,发布统一视觉模型 SAM-CLIP
2023年10月26日品玩10月26日讯,据 Arxiv 页面显示,苹果和伊利诺伊大学香槟分校的研究者近日共同发表论文,介绍了一种名为SAM-CLIP的统一视觉基础模型。
SAM-CLIP 将 CLIP和Segment Anything Model 两种视觉基础模型统一起来,通过使用多任务学习、持续学习等技术,两种模型的优势融合到一个统一模型之中。此外,SAM-CLIP还引入了协同功能
论文表示, SAM-CLIP在多个实验任务中都取得了较好的表现。
下载品玩App,比99.9%的人更先知道关于「AI大模型」的新故事
下载品玩App
比99.9%的人更先知道关于「AI大模型」的新故事
0 条评论
请「登录」后评论