在多模态大语言模型的推动下,图像和视频任务取得显著进展,但细粒度视频内容理解仍面临挑战。现有解决方案如多模态大语言模型和引用分割系统,在感知和语言理解能力整合上有所不足。UC Merced、字节跳动种子团队等提出的Sa2VA模型,通过整合SAM-2与LLaVA,实现了图像和视频的密集基础理解。
Sa2VA架构独特,由类似LLaVA的模型和SAM-2组成,采用解耦设计保持计算效率。研究结果显示,Sa2VA在引用分割任务中取得最先进成果,对话能力和视频基准测试表现也显著超越之前系统,证明了其在图像和视频理解任务中的高效性和有效性。