中国科学院机构知识库网格
Chinese Academy of Sciences Institutional Repositories Grid
基于语言−视觉对比学习的多模态视频行为识别方法

文献类型:期刊论文

作者张颖; 张冰冰; 董微; 安峰民; 张建新; 张强
刊名自动化学报
出版日期2024
卷号50期号:2页码:417-430
关键词视频行为识别 语言-视觉对比学习 多模态模型 时序建模 提示学习
ISSN号0254-4156
DOI10.16383/j.aas.c230159
英文摘要以对比语言-图像预训练(Contrastive language-image pre-training, CLIP)模型为基础,提出一种面向视频行为识别的多模态模型,该模型从视觉编码器的时序建模和行为类别语言描述的提示学习两个方面对CLIP模型进行拓展,可更好地学习多模态视频表达.具体地,在视觉编码器中设计虚拟帧交互模块(Virtual-frame interaction module, VIM),首先,由视频采样帧的类别分词做线性变换得到虚拟帧分词;然后,对其进行基于时序卷积和虚拟帧分词移位的时序建模操作,有效建模视频中的时空变化信息;最后,在语言分支上设计视觉强化提示模块(Visual-reinforcement prompt module,VPM),通过注意力机制融合视觉编码器末端输出的类别分词和视觉分词所带有的视觉信息来获得经过视觉信息强化的语言表达.在4个公开视频数据集上的全监督实验和2个视频数据集上的小样本、零样本实验结果,验证了该多模态模型的有效性和泛化性.
源URL[http://ir.ia.ac.cn/handle/173211/55749]  
专题自动化研究所_学术期刊_自动化学报
推荐引用方式
GB/T 7714
张颖,张冰冰,董微,等. 基于语言−视觉对比学习的多模态视频行为识别方法[J]. 自动化学报,2024,50(2):417-430.
APA 张颖,张冰冰,董微,安峰民,张建新,&张强.(2024).基于语言−视觉对比学习的多模态视频行为识别方法.自动化学报,50(2),417-430.
MLA 张颖,et al."基于语言−视觉对比学习的多模态视频行为识别方法".自动化学报 50.2(2024):417-430.

入库方式: OAI收割

来源:自动化研究所

浏览0
下载0
收藏0
其他版本

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。