Meta 在 SIGGRAPH 上重磅宣布推出 Segment Anything Model 2(SAM 2),这是在去年发布的“分割一切模型”基础上的重大进步,能为静态图像和动态视频提供实时、可提示的对象分割,并将图像和视频分割功能统一。SAM 2 可分割任何对象,包括未见过的,在图像分割准确率和视频分割性能上超越以往,交互时间缩短,采用创新流式内存设计,能按顺序处理视频帧,适合实时应用。Meta 发布大型带注释数据库 SA-V 用于训练,SAM 2 开源免费,已提供 Web 演示体验地址。Meta 还介绍了构建 SAM 2 的过程,包括设计可提示的视觉分割任务、统一架构中的图像和视频分割、解决视频分割的挑战等,SAM 2 在多个方面表现出色,但仍存在一些局限性,未来还有很多工作要做。论文地址也在文中给出。