CN115019137A - 一种多尺度双流注意力视频语言事件预测的方法及装置 - Google Patents
一种多尺度双流注意力视频语言事件预测的方法及装置 Download PDFInfo
- Publication number
- CN115019137A CN115019137A CN202210412836.7A CN202210412836A CN115019137A CN 115019137 A CN115019137 A CN 115019137A CN 202210412836 A CN202210412836 A CN 202210412836A CN 115019137 A CN115019137 A CN 115019137A
- Authority
- CN
- China
- Prior art keywords
- video
- scale
- feature
- features
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000004927 fusion Effects 0.000 claims abstract description 168
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000005070 sampling Methods 0.000 claims description 103
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 15
- 230000009977 dual effect Effects 0.000 claims 2
- 230000000694 effects Effects 0.000 abstract description 6
- 230000002411 adverse Effects 0.000 abstract description 5
- 230000009471 action Effects 0.000 description 11
- 238000012512 characterization method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- XCWPUUGSGHNIDZ-UHFFFAOYSA-N Oxypertine Chemical compound C1=2C=C(OC)C(OC)=CC=2NC(C)=C1CCN(CC1)CCN1C1=CC=CC=C1 XCWPUUGSGHNIDZ-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种多尺度双流注意力视频语言事件预测的方法及装置,方法包括:获取原始输入数据;原始输入数据中包括一个目标视频流、目标视频流对应的字幕以及多个未来候选事件;将原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到目标视频流的事件预测结果。多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块。基于此,全面的提取特征,并减少冗余特征,避免不同模态之间相互干扰造成的不利影响,有效的提高事件预测的准确率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种多尺度双流注意力视频语言事件预测的方法及装置。
背景技术
近年来,互联网的飞速发展引发了信息的大爆炸,使得现时代又被称为信息时代。视频作为信息的最重要的、密度最大的载体,在网络中已经非常普遍。对如此海量的、与人们日常生活息息相关的数据进行分析可以产生巨大的价值,甚至带来重大的社会变革。部分视频分析技术已经在社会生活中得到了实用,如不良视频内容智能审核、视频目标检测,视频人脸识别等。但以视频问答、视频预测为代表的关于深层视频语义理解的相关研究的技术尚未得到大规模应用,原因之一是现有模型的表现太差、远达不到实际使用要求。其中,视频预测为基于视频语义理解以预测未来候选事件。
因此,如何提高视频预测的准确率是目前亟待解决的问题。
发明内容
本发明提供一种多尺度双流注意力视频语言事件预测的方法及装置,用以解决现有技术中视频预测的准确率较低的缺陷,实现提高视频预测的准确率。
本发明提供一种多尺度双流注意力视频语言事件预测的方法,包括:获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述多尺度视频特征的生成包括:
采用不同的采样步长对所述目标视频流采样得到不同采样尺度的视频帧;
对所述不同采样尺度的视频帧进行特征提取,得到多尺度视频特征。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述不同采样尺度的视频帧包括:密集采样尺度的视频帧、一般采样尺度的视频帧和稀疏采样尺度的视频帧;相应地,所述对所述不同采样尺度的视频帧进行特征提取,得到多尺度视频特征,包括:
基于所述密集采样尺度的视频帧和预训练好的SlowFast模型,得到所述密集采样尺度的视频帧的第一视频特征;
基于所述一般采样尺度的视频帧和预训练好的ResNet-152模型,得到所述一般采样尺度的视频帧的第二视频特征;
基于所述稀疏采样尺度的视频帧和预训练好的SlowFast模型,得到所述稀疏采样尺度的视频帧的第三视频特征;基于所述稀疏采样尺度的视频帧和预训练好的ResNet-152模型,得到所述稀疏采样尺度的视频帧的第四视频特征;并将所述第三视频特征和所述第四视频特征拼接得到第五视频特征;
基于所述第一视频特征、所述第二视频特征以及所述第五视频特征确定多尺度视频特征。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述不同尺度的第一融合视频特征的生成,包括以下步骤:
基于未来候选事件引导的单模态特征转换层,将所述多尺度视频特征中不同尺度的视频特征分别与每一所述未来候选事件的特征融合,得到未来候选事件引导的不同尺度的视频特征的第六视频特征;
基于双流视频字幕跨模态融合层,将所述多尺度视频特征中不同尺度的视频特征分别与所述目标视频流对应的字幕的特征融合,并且将融合后的特征与每一所述未来候选事件的特征串联,得到字幕引导的不同尺度的视频特征;并将所述字幕引导的不同尺度的视频特征输入基于所述未来候选事件引导的单模态特征转换层,得到每一尺度的视频特征的第七视频特征;
将每一尺度的视频特征对应的第六视频特征和第七视频特征拼接得到所述每一尺度的第一融合视频特征。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述不同尺度的第一融合字幕特征的生成,包括以下步骤:
基于未来候选事件引导的单模态特征转换层,将所述目标视频流对应的字幕的特征与每一所述未来候选事件的特征分别融合得到未来候选事件引导的第一字幕特征;
基于双流视频字幕跨模态融合层,将所述目标视频流对应的字幕的特征与所述多尺度视频特征分别融合,得到不同尺度的视频帧引导的字幕特征;并且基于所述未来候选事件引导的单模态特征转换层,将融合后的特征与每一所述未来候选事件的特征分别融合,得到视频引导的多个第二字幕特征;
将所述多个第一字幕特征和所述多个第二字幕特征拼接得到所述第一融合字幕特征。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述多尺度双流注意力视频语言事件预测模型还包括字幕与未来候选事件特征提取模块,相应地,所述字幕的特征和所述多个未来候选事件的特征基于字幕与未来候选事件特征提取模块生成,包括:
将所述目标视频流对应的字幕输入所述字幕与未来候选事件特征提取模块,得到所述字幕的特征;
将所述多个未来候选事件输入所述字幕与未来候选事件特征提取模块,得到所述多个未来候选事件的特征。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述多尺度双流注意力视频语言事件预测模型还包括多尺度融合模块,所述多尺度融合模块用于融合所述不同尺度的第一融合视频特征,得到第二融合视频特征,并用于融合所述不同尺度的第一融合字幕特征,得到第二融合字幕特征。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述基于所述第一融合视频特征和所述第一融合字幕特征得到所述目标视频流的未来候选事件预测结果,包括:
对所述第二融合视频特征进行压缩,得到压缩后的第二融合视频特征;并对所述第二融合字幕特征进行压缩,得到压缩后的第二融合字幕特征;
基于所述压缩后的第二融合视频特征进行事件预测,得到目标视频流对应多个未来候选事件的多个第一得分;并基于所述压缩后的第二融合字幕特征进行事件预测,得到目标视频流对应多个未来候选事件的多个第二得分;
将每一未来候选事件的第一得分与每一未来候选事件的第二得分相加,得到所述目标视频流对应每一未来候选事件的总得分;
基于所述述目标视频流对应每一未来候选事件的总得分确定目标视频流对应的未来候选事件。
根据本发明提供的一种多尺度双流注意力视频语言事件预测的方法,所述基于所述第一视频特征、所述第二视频特征以及所述第五视频特征确定多尺度视频特征,包括:
将所述第一视频特征、所述第二视频特征以及所述第五视频特征转换为相同的维度;
基于Transformer编码器,对维度转换后的所述第一视频特征、所述第二视频特征以及所述第五视频特征分别进行时序编码,得到编码后的第一视频特征、第二视频特征以及所述第五视频特征;
将所述编码后的第一视频特征、第二视频特征以及所述第五视频特征作为多尺度视频特征。
本发明还提供一种多尺度双流注意力视频语言事件预测的装置,包括:
获取模块,用于获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;
处理模块,用于将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;
其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;
所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述多尺度双流注意力视频语言事件预测的方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述多尺度双流注意力视频语言事件预测的方法的步骤。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述多尺度双流注意力视频语言事件预测的方法的步骤。
本发明提供的多尺度双流注意力视频语言事件预测的方法及装置,通过对视频进行多尺度处理得到多尺度的视频特征,使提取的视频特诊更加合理,并基于多尺度的视频特征与字幕的特征、多个未来候选事件的特征融合得到不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征,并基于不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征分别进行事件预测,再将预测结果结合确定最终的事件预测结果,全面的提取特征,并减少冗余特征,避免不同模态之间相互干扰造成的不利影响,有效的提高事件预测的准确率。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之一;
图2是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之二;
图3是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之三;
图4是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之四;
图5是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之五;
图6是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之六;
图7是本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之七;
图8是本发明提供的多尺度双流注意力视频语言事件预测的方法的框架示意图;
图9是本发明提供的多尺度双流注意力视频语言事件预测的装置的结构示意图;
图10是本发明提供的电子设备的结构示意图。
附图标记:
1010:处理器;1020:通信接口;1030:存储器;1040:通信总线。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于理解,首先对本发明涉及的背景技术进行简单介绍。
视频理解一般要求从外观特征和运动特征两方面对视频进行表征,即识别事件中的动作、它们之间的顺序以及视频镜头中的对象。然后进行视频与语言的跨模态融合。当前技术中,通常以相同的方法处理这两种不同的视频特征,常见的做法是以帧为单位,将每一帧的外观特征和运动特征做特征拼接,后续的处理对两种特征来说并无差别。但是每一帧的外观特征相对运动特征来说,其特征较易提取,因此,若采用相同的方式提取两种特征,会造成提取的外观特征的冗余,不利于模型的训练以及使用,并且会导致事件预测的准确率较低。
另外,当前技术中,通常以往往采用单流的跨模态融合方法,即先获得视频和字幕两种模态的联合表征,再将联合表征结果通过预测模块产生预测分数。但由于某些具体的样本可能只需要一种模态的信息便足以回答,一味地使用联合表征向量预测未来候选事件,不可避免的会引入冗余信息,以及发生不同模态之间相互干扰的情况。
下面结合图1-图10描述本发明的多尺度双流注意力视频语言事件预测的方法及装置。
图1为本发明提供的多尺度双流注意力视频语言事件预测的方法的流程示意图之一。可以理解,图1中的方法可以由多尺度双流注意力视频语言事件预测的装置执行。
如图1所示,本发明提供的尺度双流注意力视频语言事件的预测方法包括以下步骤:
步骤110、获取原始输入数据。
其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件。
其中,目标视频流对应的字幕为可以为:视频中对应的目标人物的对话文本。未来候选事件可以为根据目标人物正在进行的动作定义的未来可能会发生的事件。
步骤120、将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果。
其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块。所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
可以理解,由于在对视频流进行事件预测时,通过需要确定所述视频流中的视频帧图像中的外观特征以及动作特征预测即将发生的事件。其中,外观特征例如可以为人物和场景对应的特征,动作特征例如可以为人物的动作特征。而一个视频流中每一视频帧的人物及场景变化与人物的动作变化相比较小,因此若采用相同的方法对人物、场景以及人物的动作提取相应的特征,会造成提取的外观特征的冗余,不利于模型的训练以及使用,并且会导致事件预测的准确率较低。因此,本发明采用多尺度视频处理模块,用于生成多尺度视频特征。
还可以理解,由于字幕特征和视频特征是两种不同模态的特征,因此,基于两种不同模态的特征分别对视频流进行事件预测,并将两种预测结果作为最终的预测结果,不仅能够多模态的进行事件预测,并且全面的提取特征,并减少冗余特征,避免不同模态之间相互干扰造成的不利影响。
此外,不仅基于字幕的特征和所述多尺度视频特征,还基于多个未来候选事件的特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征,从而使提取的视频特征和字幕特征中包括与每一未来候选事件相关的特征,使后续在进行事件预测时,能够基于视频、字幕和候选事件的关联得到对视频的预测结果。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过对视频进行多尺度处理得到多尺度的视频特征,使提取的视频特诊更加合理,并基于多尺度的视频特征与字幕的特征、多个未来候选事件的特征融合得到不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征,并基于不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征分别进行事件预测,再将预测结果结合确定最终的事件预测结果,全面的提取特征,并减少冗余特征,避免不同模态之间相互干扰造成的不利影响,有效的提高事件预测的准确率。
基于上述实施例,优选地,在本发明的一个实施例中,所述多尺度视频特征的生成,如图2所示,包括以下步骤:
步骤210、采用不同的采样步长对所述目标视频流采样得到不同采样尺度的视频帧。
其中,采样步长可以理解为采用不同的步长采集视频流中的视频帧,例如对同一视频流分别采用间隔为1帧、3帧或5帧的步长进行采样,得到对应的三组视频帧。
步骤220、对所述不同采样尺度的视频帧进行特征提取,得到多尺度视频特征。
如前所述,由于在对视频流进行事件预测时,通过需要确定所述视频流中的视频帧图像中的外观特征以及动作特征预测即将发生的事件。而在一个视频流中,由于外观特征在一段时间内变化较小,人物动作特征在一定时间内变化较大,因此,可以对不同的采样步长得到视频帧以提取外观特征以及动作特征。
设视频帧序列长度为p,则视频特征可以表示为V∈Rp×d。其中, d表示目标视频流中视频帧的个数。多尺度视频处理模块对视频帧序列特征V以不同的尺度进行采样,生成不同尺度的视频帧序列特征 V1,V2,...,Vn。其中,n表示有n中采样尺度。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过采用不同的采样步长从视频流中提取不同尺度的视频帧,从而能够有效的分别提取出对应的外观特征和动作特征,便于模型的训练以及使用,并提高事件预测的准确率。
基于上述实施例,优选地,在本发明的一个实施例中,所述不同采样尺度的视频帧包括:密集采样尺度的视频帧、一般采样尺度的视频帧和稀疏采样尺度的视频帧;相应地,所述对所述不同采样尺度的视频帧进行特征提取,得到多尺度视频特征,如图3所示,包括以下步骤:
步骤310、基于所述密集采样尺度的视频帧和预训练好的 SlowFast模型,得到所述密集采样尺度的视频帧的第一视频特征。
其中,密集采样尺度的视频帧为基于较小的采样步长得到的视频帧。例如,可以将采用采样步长1对视频流采样得到的视频帧作为密集采样尺度的视频帧。预训练好的SlowFast模型为在Kinetics数据集上进行了预训练,用于提取视频帧的动作特征。
可以理解,采用预训练好的SlowFast模型有利于减少事件预测模型整体的训练的时间,并提高事件预测的准确率。
其中,所述密集采样尺度的视频帧对应的d为2304帧。
可以理解,第一视频特征为:根据所述密集采样尺度的视频帧和预训练好的SlowFast模型能够提取密集采样尺度的视频帧的动作特征。
步骤320、基于所述一般采样尺度的视频帧和预训练好的 ResNet-152模型,得到所述一般采样尺度的视频帧的第二视频特征。
其中,一般采样尺度的视频帧为基于比所述密集采样尺度大的采样步长得到的视频帧。例如,可以将采用采样步长3对视频流采样得到的视频帧作为一般采样尺度的视频帧。预训练好的ResNet-152模型为在ImageNet数据集上进行了预训练,用于提取视频帧的外观特征。
可以理解,采用预训练好的ResNet-152模型有利于减少事件预测模型整体的训练的时间,并提高事件预测的准确率。
可以理解,第二视频特征为:根据所述一般采样尺度的视频帧和预训练好的ResNet-152模型能够提取一般采样尺度的视频帧的外观特征。
其中,所述一般采样尺度的视频帧对应的d为2048帧。
步骤330、基于所述稀疏采样尺度的视频帧和预训练好的 SlowFast模型,得到所述稀疏采样尺度的视频帧的第三视频特征;基于所述稀疏采样尺度的视频帧和预训练好的ResNet-152模型,得到所述稀疏采样尺度的视频帧的第四视频特征;并将所述第三视频特征和所述第四视频特征拼接得到第五视频特征。
可以理解,视频语言事件预测作为视频语义理解任务,需要提取视频的各种特征,而ResNet-152在提取视频外观特征方面性能卓越, SlowFast在提取视频动作特征方面表现优异,二者相结合可以更全面的表征视频。
其中,稀疏采样尺度的视频帧为基于比所述一般采样尺度大的采样步长得到的视频帧。例如,可以将采用采样步长5对视频流采样得到的视频帧作为稀疏采样尺度的视频帧。
可以理解,第三视频特征为:根据所述稀疏采样尺度的视频帧和预训练好的SlowFast模型能够提取稀疏采样尺度的视频帧的动作特征。第四视频特征为:根据所述稀疏采样尺度的视频帧和预训练好的 ResNet-152模型能够提取稀疏采样尺度的视频帧的外观特征。
其中,所述稀疏采样尺度的视频帧对应的d为4352(2304+2048) 帧。
还可以理解,所述第三视频特征和所述第四视频特征拼接得到第五视频特征,从而得到视频帧的动作特征和外观特征的联合特征,从而丰富了提取的视频帧特征。
步骤340、基于所述第一视频特征、所述第二视频特征以及所述第五视频特征确定多尺度视频特征。
可以理解,多尺度特征包括了视频帧的动作特征、外观特征以及视频帧的动作特征和外观特征的联合特征,从而丰富了提取的视频特征。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过对不同采样尺度的视频帧采用不同的特征提取方法提取,从而得到多尺度的视频特征,提取出不同方向的视频特征,丰富了视频特征。
基于上述实施例,优选地,在本发明的一个实施例中,所述不同尺度的第一融合视频特征的生成,如图4所示,包括以下步骤:
步骤410、基于未来候选事件引导的单模态特征转换层,将所述多尺度视频特征中不同尺度的视频特征分别与每一所述未来候选事件的特征融合,得到未来候选事件引导的不同尺度的视频特征的第六视频特征。
其中,未来候选事件引导的单模态特征转换层(可以简称为 SEG/VEG),可以为一层Transformer编码器。
设未来候选事件的token级长度为r。则每个未来候选事件的特征可以表示为Ei∈Rr×a,i∈{1,2,…,a}。其中,a表示未来候选事件的个数,a与前文中的d对应。可以理解,未来候选事件为一个文本语句,可以采用现有技术将每一所述未来事件转换为一组词序列,词序列中的每个词可以对应一个token。因此,token级长度r即每一未来候选事件对应的词序列的长度。
在一种可能的实现方式中,首先将每一尺度的视频特征与每一所述未来候选事件的特征串联起来,得到初步的联合特征[V~E]∈ R(p+r)×d,其中‘~’表示串联操作;然后,将联合特征[V~E]∈R(p+r)×d输入未来候选事件引导的单模态特征转换层,利用自注意力机制,产生未来候选事件E引导的视频V的表征VE以及视频V引导的未来候选事件E的表征EV的联合表征[VE~EV]∈R(p+r)×d。最后,从联合表征 [VE~EV]拆分出未来候选事件E引导的视频V的表征VE作为不同尺度的视频特征的第六视频特征。
其中,每一尺度的视频特征与每一所述未来候选事件的特征串联起来,可以理解为:在视频序列长度和未来候选事件的token级长度的维度上进行连接,即将一个视频帧的特征与对应的一个未来候选事件的特征进行连接,具体可以参考联合特征的表示形式[V~E]∈ R(p+r)×d。可以理解,由于a与d对应,均可以表示某一模态特征的个数,因此,R(p+r)×d想要表达的意思是特征串联是在不同模态的特征序列长度方向的串联,而不是不同模态的特征数量的串联。
为了便于理解,举例说明第六视频特征。例如,若密集采样尺度的视频帧的第一视频特征用V1表示,未来候选事件的特征为E1、E2,则将第一视频特征V1和E1、E2分别融合得到 和结合前述内容,基于联合特征得到的融合特征包括VE和 EV两种形式的特征,需要从两种形式的特征中拆分得到未来候选事件 E引导的视频V的表征VE,作为每个采样尺度的视频特征的第六视频特征。因此,确定密集采样尺度的视频帧的第六视频特征为和和可以统一表示为V1 E。
步骤420、基于双流视频字幕跨模态融合层,将所述多尺度视频特征中不同尺度的视频特征分别与所述目标视频流对应的字幕的特征融合,并且将融合后的特征与每一所述未来候选事件的特征串联,得到字幕引导的不同尺度的视频特征;并将所述字幕引导的不同尺度的视频特征输入所述未来候选事件引导的单模态特征转换层,得到每一尺度的视频特征的第七视频特征。
其中,双流视频字幕跨模态融合层(可以简称为SVVS),可以为一层Transformer编码器。
设整个字幕序列的token级长度为q,则字幕的特征可以表示为 S∈Rq×b。其中,b表示字幕的个数。可以理解,字幕为一个文本语句,可以采用现有技术将每一字幕转换为一组词序列,词序列中的每个词可以对应一个token。因此,token级长度q即每一字幕对应的词序列的长度。
在一种可能的实现方式中,首先将每一尺度的视频特征与每一所述字幕的特征串联起来,得到初步的联合特征[S~V]∈R(q+r)×d,其中‘~’表示串联操作;可以理解,由于b与d对应,均可以表示某一模态特征的个数,因此,R(q+r)×d想要表达的意思是特征串联是在不同模态的特征序列长度方向的串联,而不是不同模态的特征数量的串联,然后,将联合特征[S~V]∈R(q+r)×d输入未来候选事件引导的单模态特征转换层,利用自注意力机制,产生字幕S引导的视频V的表征VS以及视频V引导的字幕S的表征SV的联合表征[VS~SV]∈R(q+r)×d。最后,从联合表征[VS~SV]拆分出字幕S引导的视频V的表征VS以及视频V 引导的字幕S的表征SV,作为不同尺度的视频特征与字幕特征的融合特征。其中,SV和VS特征的获取过程与步骤410中VE的获取过程类似,为了简洁,此处不再赘述。
可以理解,在得到VS后,还需与每一所述未来候选事件串联,基于串联后的特征得到字幕引导的不同尺度的视频特征VSE。其中,若采用三种采样尺度,2个未来候选事件,则VSE包括V1 SE、V2 SE和V3 SE; V1 SE包括和V2 SE和V3 SE与V1 SE类似,不再展开描述。
步骤430、将每一尺度的视频特征对应的第六视频特征和第七视频特征拼接得到所述每一尺度的第一融合视频特征。
为了便于理解,结合前面的示例,说明第一融合视频特征。如前所述,假如密集采样尺度的第六视频特征为V1 E,密集采样尺度的第七视频特征为V1 SE,则密集采样尺度的第一融合视频特征[V1 E;V1 SE]∈ Rp×2×d。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过将由未来候选事件的特征和不同尺度的视频特征融合,得到未来候选事件E引导的视频V的表征VE,并将由字幕S引导的视频V的表征VS和未来候选事件E融合得到VSE,将VE和VSE共同作为第一融合视频特征,从而提取出未来候选事件、字幕与视频帧的关联特征,使三者的关系被有效表示,并且,基于不同采样尺度的视频帧具有对应的第一融合视频特征,丰富了视频特征的多样性。
基于上述实施例,优选地,在本发明的一个实施例中,所述不同尺度的第一融合字幕特征的生成,如图5所示,包括以下步骤:
步骤510、基于未来候选事件引导的单模态特征转换层,将所述目标视频流对应的字幕的特征与每一所述未来候选事件的特征分别融合得到未来候选事件引导的第一字幕特征。
其中,未来候选事件引导的第一字幕特征与步骤410中,未来候选事件引导的不同尺度的视频特征的形成过程类似,为了简洁,此处不再赘述。最终形成的第一字幕特征可以表示为SE。
步骤520、基于双流视频字幕跨模态融合层,将所述目标视频流对应的字幕的特征与所述多尺度视频特征分别融合,得到不同尺度的视频帧引导的字幕特征;并且基于所述未来候选事件引导的单模态特征转换层,将融合后的特征与每一所述未来候选事件的特征分别融合,得到视频引导的多个第二字幕特征。
其中,将所述目标视频流对应的字幕的特征与所述不同尺度的视频特征分别融合的过程可以参考步骤420,融合后得到不同尺度的视频引导的字幕特征SV,然后采用和步骤420类似的方法,将SV和每一所述未来候选事件的特征融合,从而得到视频引导的多个第二字幕特征SVE。其中,若采用三种采样尺度,2个未来候选事件,则SVE包括 和包括和和与类似,不再展开描述。
步骤530、将所述多个第一字幕特征和所述多个第二字幕特征拼接得到所述第一融合字幕特征。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过将由未来候选事件的特征和字幕的特征融合,得到未来候选事件引导的第一字幕特征SE,并将由不同尺度的视频引导的字幕特征SV和未来候选事件E融合得到SVE,将SE和SVE共同作为第一融合视频特征,从而提取出未来候选事件、视频帧与字幕的关联特征,使三者的关系被有效表示,并且,基于不同采样尺度的视频帧具有对应的第一融合字幕特征,丰富了字幕特征的多样性。
基于上述实施例,优选地,在本发明的一个实施例中,所述多尺度双流注意力视频语言事件预测模型还包括字幕与未来候选事件特征提取模块,相应地,所述字幕的特征和所述多个未来候选事件的特征基于字幕与未来候选事件特征提取模块生成,包括:
将所述目标视频流对应的字幕输入所述字幕与未来候选事件特征提取模块,得到所述字幕的特征;
将所述多个未来候选事件输入所述字幕与未来候选事件特征提取模块,得到所述多个未来候选事件的特征。
其中,字幕与未来候选事件特征提取模块例如可以为预训练好的 RoBERTa-base模型。所述RoBERTa-base模型用于提取文本特征。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过基于预训练好的RoBERTa-base模型有利于减少事件预测模型整体的训练的时间,并提高事件预测的准确率。
基于上述实施例,优选地,在本发明的一个实施例中,所述多尺度双流注意力视频语言事件预测模型还包括多尺度融合模块,所述多尺度融合模块用于融合所述不同尺度的第一融合视频特征,得到第二融合视频特征,并用于融合所述不同尺度的第一融合字幕特征,得到第二融合字幕特征。
为了便于理解,举例说明所述第二融合视频特征和所述第二融合字幕特征。
若密集采样尺度的第一融合视频特征为[V1 E;V1 SE]∈Rp×2×d,一般采样尺度的第一融合视频特征为[V2 E;V2 SE]∈Rp×2×d,稀疏采样尺度的第一融合视频特征为[V3 E;V3 SE]∈Rp ×2×d,则对应的第二融合视频特征为[VE;VSE],其中,VE为V1 E、V2 E和V3 E几个矩阵相加求和得到,VSE为V1 SE、V2 SE和V3 SE几个矩阵相加求和得到。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过将不同尺度的视频特征以及字幕特征分别求和,从而将不同尺度的特征融合得到了多尺度融合后的特征,从而便于后续处理。
基于上述实施例,优选地,在本发明的一个实施例中,所述基于所述第一融合视频特征和所述第一融合字幕特征得到所述目标视频流的未来候选事件预测结果,如图6所示,包括以下步骤:
步骤610、对所述第二融合视频特征进行压缩,得到压缩后的第二融合视频特征;并对所述第二融合字幕特征进行压缩,得到压缩后的第二融合字幕特征。
可以理解,对第二融合视频特征和第二融合字幕特征进行压缩,有助于减少冗余特征,比有助于加快事件预测模型预测的速度。
优选地,可以采用最大池化(MaxPool)对第二融合视频特征和第二融合字幕特征进行压缩。
也可以采用其他方法,比如平均值池化等进行压缩,本发明对此不作限定。
步骤620、基于所述压缩后的第二融合视频特征进行事件预测,得到目标视频流对应多个未来候选事件的多个第一得分;并基于所述压缩后的第二融合字幕特征进行事件预测,得到目标视频流对应多个未来候选事件的多个第二得分。
可以理解,分别基于第二融合视频特征和第二融合字幕特征进行事件预测,有利于区分两者的预测结果,并且使模型在进行事件预测时更具有灵活性。
优选地,可以采用以GELU函数作为激活函数的,由两个线性层组成的多层感知机(multilayer perceptron,MLP)进行事件预测。
步骤630、将每一未来候选事件的第一得分与每一未来候选事件的第二得分相加,得到所述目标视频流对应每一未来候选事件的总得分。
可以理解,未来候选事件有多个,因此,对应的得分为针对每一未来候选事件都有相应的得分。
步骤640、基于所述述目标视频流对应每一未来候选事件的总得分确定目标视频流对应的未来候选事件。
优选地,可以通过SoftMax对每一未来候选事件的总得分归一化,选取得分最高的未来候选事件为目标视频流对应的未来候选事件。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过分别基于第二融合视频特征和第二融合字幕特征进行事件预测,有利于区分两者的预测结果,并且使模型在进行事件预测时更具有灵活性。并且,将两者的预测结果求和,也有利于提高模型的准确性。
基于上述实施例,优选地,在本发明的一个实施例中,所述基于所述第一视频特征、所述第二视频特征以及所述第五视频特征确定多尺度视频特征,如图7所示,包括以下步骤:
步骤710、将所述第一视频特征、所述第二视频特征以及所述第五视频特征转换为相同的维度。
可以理解,由于所述第一视频特征、所述第二视频特征以及所述第五视频特征是不同维度的视频特征,因此,需要将它们转换为相同的维度,便于后续处理。
具体地,可以采用一个线性层、如全连接层(fully connected layer, FC)将其转换为统一的维度。转换后的维度可以为768维。
步骤720、基于Transformer编码器,对维度转换后的所述第一视频特征、所述第二视频特征以及所述第五视频特征分别进行时序编码,得到编码后的第一视频特征、第二视频特征以及所述第五视频特征。
可以理解,为了提取所述第一视频特征、所述第二视频特征以及所述第五视频特征的时序特征,可以基于一层Transformer编码器对所述第一视频特征、所述第二视频特征以及所述第五视频特征的时序特征进行编码。Transformer编码器对视频特征进行时序编码的原理是利用Self-Attention机制对目标视频流的视频帧的“关注”。
步骤730、将所述编码后的第一视频特征、第二视频特征以及所述第五视频特征作为多尺度视频特征。
可以理解,编码后得到的多尺度视频特征具有时序关联性,有利于提高事件预测的准确率。
本发明提供的多尺度双流注意力视频语言事件预测的方法,通过对不同尺度的视频特征进行维度转换以及编码,从而确定多尺度特征,从而使得到的多尺度特征具有时序性,便于后续处理,有利于提高事件预测的准确率。
图8为本发明提供的多尺度双流注意力视频语言事件预测的方法的框架示意图。
如图8所示,本发明提供的多尺度双流注意力视频语言事件预测的方法的框架共包括输入表征、多尺度采样与编码、跨模态融合V1、跨模态融合V2、跨模态融合V3、多尺度融合和预测输出几个部分。
其中,输入表征,分别采用不同的模型对未来事件、字幕和视频三者提取得到相应的特征。其中,视频可以为目标视频流,未来事件为根据目标视频流预设的未来候选事件,可以是一个文本的形式。例如可以为“The women in the white shirt...”。字幕为目标视频流中对应的字幕,可以为一个文本,例如可以为“Oh yeah!Maybe a shake...”。将所述未来事件和字幕分别输入至RoBERTa-base模型提取特征分别得到未来事件的特征E和字幕的特征S。然后可以基于slowfast模型和 ResNet-152模型以及多尺度采样器生成多尺度视频特征。具体地,可以参考前文多尺度视频特征的生成方法提取目标视频流中的多尺度视频特征。
其次,将多尺度采样器得到多尺度视频特征,分别输入对应的全连接层FC以及一层Transformer编码器(对应图中的T-E),从而得到编码后的多尺度视频特征V1、V2和V3。
然后,分别对V1、V2和V3进行跨模态融合得到不同尺度融合后的第一融合视频特征和第一融合字幕特征。图8中具体示意了一种尺度下的第一融合视频特征和第一融合字幕特征的获取过程,最终,得到一种尺度的特征V1对应的第一融合字幕特征为第一融合视频特征[V1 E;V1 SE]。具体地,第一融合视频特征和第一融合字幕特征可参考前文的相关描述,此处不再赘述。
可以理解,图8中详细示意了一种尺度的特征V1对应的第一融合视频特征和第一融合字幕特征的获取过程,V2和V3的第一融合视频特征和第一融合字幕特征的获取过程与V1类似,此处不再赘述。
最后,在经过跨模态融合得到V1、V2和V3对应的第一融合视频特征和第一融合字幕特征后,对不同尺度的第一融合视频特征进行融合,以及对不同尺度的第一融合字幕特征进行融合,得到第二融合视频特征[VE;VSE]和第二融合字幕特征[SE;SVE]。将第二融合视频特征 [VE;VSE]和第二融合字幕特征[SE;SVE]分别输入MaxPool,对第二融合视频特征和第二融合字幕特征进行压缩,将压缩后的特征分别输入 MLP进行事件预测,分别基于第二融合视频特征[VE;VSE]得到目标视频流对应多个未来候选事件的多个第一得分,和基于第二融合字幕特征[SE;SVE]得到目标视频流对应多个未来候选事件的多个第二得分,然后将每一未来候选事件的多个第一得分和第二得分相加得到每一未来候选事件的总得分,通过SoftMax对每一未来候选事件的总得分归一化,选取得分最高的未来候选事件为目标视频流对应的未来候选事件。
下面结合图8和表1中的实验结果说明本发明的能够达到的效果。
表1
模型 | 准确率(%) |
骨干 | 67.33 |
骨干+多尺度采样 | 68.08 |
骨干+跨模态融合 | 68.62 |
完整模型 | 69.65 |
如表1所示,其中,骨干模型为图8中将多尺度采样器和多尺度融合去掉,并且将跨模态融合去掉之后,其他部分适应性调整得到的模型。基于骨干模型,得到的准确率为67.33%。骨干+多尺度采样对应的模型为将图8中的跨模态融合去掉之后,其他部分适应性调整之后的模型,其对应的准确率为68.08%。骨干+跨模态融合对应的模型为将图8中的多尺度采样器和多尺度融合去掉之后,其他部分适应性调整之后的模型,其对应的准确率为68.62%。最终,采用图8中的完整的模型得到的准确率为69.65%。
因此,可以知道,采用本发明提供的多尺度双流注意力视频语言事件预测的方法能够有效的提高事件预测的准确性。
图9是本发明提供的多尺度双流注意力视频语言事件预测的装置的示意图,如图9所示,本发明实施例提供的多尺度双流注意力视频语言事件预测的装置,包括:
获取模块910,用于获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;
处理模块920,用于将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;
其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;
所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
本发明实施例提供的多尺度双流注意力视频语言事件预测的装置,具体执行上述多尺度双流注意力视频语言事件预测的方法实施例流程,具体请详见上述多尺度双流注意力视频语言事件预测的方法实施例的内容,在此不再赘述。
本发明提供的多尺度双流注意力视频语言事件预测的装置,通过对视频进行多尺度处理得到多尺度的视频特征,使提取的视频特诊更加合理,并基于多尺度的视频特征与字幕的特征、多个未来候选事件的特征融合得到不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征,并基于不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征分别进行事件预测,再将预测结果结合确定最终的事件预测结果,全面的提取特征,并减少冗余特征,避免不同模态之间相互干扰造成的不利影响,有效的提高事件预测的准确率。
图10示例了一种电子设备的实体结构示意图,如图10所示,该电子设备可以包括:处理器(processor)1010、通信接口(Communications Interface)1020、存储器(memory)1030和通信总线1040,其中,处理器1010,通信接口1020,存储器1030通过通信总线1040完成相互间的通信。处理器1010可以调用存储器1030中的逻辑指令,以执行多尺度双流注意力视频语言事件预测的方法,包括:获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
此外,上述的存储器1030中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行本发明所提供的多尺度双流注意力视频语言事件预测的方法,包括:获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行本发明所提供的多尺度双流注意力视频语言事件预测的方法,包括:获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (13)
1.一种多尺度双流注意力视频语言事件预测的方法,其特征在于,包括:
获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;
将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;
其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;
所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
2.根据权利要求1所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述多尺度视频特征的生成包括:
采用不同的采样步长对所述目标视频流采样得到不同采样尺度的视频帧;
对所述不同采样尺度的视频帧进行特征提取,得到多尺度视频特征。
3.根据权利要求2所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述不同采样尺度的视频帧包括:密集采样尺度的视频帧、一般采样尺度的视频帧和稀疏采样尺度的视频帧;相应地,所述对所述不同采样尺度的视频帧进行特征提取,得到多尺度视频特征,包括:
基于所述密集采样尺度的视频帧和预训练好的SlowFast模型,得到所述密集采样尺度的视频帧的第一视频特征;
基于所述一般采样尺度的视频帧和预训练好的ResNet-152模型,得到所述一般采样尺度的视频帧的第二视频特征;
基于所述稀疏采样尺度的视频帧和预训练好的SlowFast模型,得到所述稀疏采样尺度的视频帧的第三视频特征;基于所述稀疏采样尺度的视频帧和预训练好的ResNet-152模型,得到所述稀疏采样尺度的视频帧的第四视频特征;并将所述第三视频特征和所述第四视频特征拼接得到第五视频特征;
基于所述第一视频特征、所述第二视频特征以及所述第五视频特征确定多尺度视频特征。
4.根据权利要求3所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述不同尺度的第一融合视频特征的生成,包括以下步骤:
基于未来候选事件引导的单模态特征转换层,将所述多尺度视频特征中不同尺度的视频特征分别与每一所述未来候选事件的特征融合,得到未来候选事件引导的不同尺度的视频特征的第六视频特征;
基于双流视频字幕跨模态融合层,将所述多尺度视频特征中不同尺度的视频特征分别与所述目标视频流对应的字幕的特征融合,并且将融合后的特征与每一所述未来候选事件的特征串联,得到字幕引导的不同尺度的视频特征;并将所述字幕引导的不同尺度的视频特征输入基于所述未来候选事件引导的单模态特征转换层,得到每一尺度的视频特征的第七视频特征;
将每一尺度的视频特征对应的第六视频特征和第七视频特征拼接得到所述每一尺度的第一融合视频特征。
5.根据权利要求3所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述不同尺度的第一融合字幕特征的生成,包括以下步骤:
基于未来候选事件引导的单模态特征转换层,将所述目标视频流对应的字幕的特征与每一所述未来候选事件的特征分别融合得到未来候选事件引导的第一字幕特征;
基于双流视频字幕跨模态融合层,将所述目标视频流对应的字幕的特征与所述多尺度视频特征分别融合,得到不同尺度的视频帧引导的字幕特征;并且基于所述未来候选事件引导的单模态特征转换层,将融合后的特征与每一所述未来候选事件的特征分别融合,得到视频引导的多个第二字幕特征;
将所述多个第一字幕特征和所述多个第二字幕特征拼接得到所述第一融合字幕特征。
6.根据权利要求1所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述多尺度双流注意力视频语言事件预测模型还包括字幕与未来候选事件特征提取模块,相应地,所述字幕的特征和所述多个未来候选事件的特征基于字幕与未来候选事件特征提取模块生成,包括:
将所述目标视频流对应的字幕输入所述字幕与未来候选事件特征提取模块,得到所述字幕的特征;
将所述多个未来候选事件输入所述字幕与未来候选事件特征提取模块,得到所述多个未来候选事件的特征。
7.根据权利要求1所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述多尺度双流注意力视频语言事件预测模型还包括多尺度融合模块,所述多尺度融合模块用于融合所述不同尺度的第一融合视频特征,得到第二融合视频特征,并用于融合所述不同尺度的第一融合字幕特征,得到第二融合字幕特征。
8.根据权利要求7所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述基于所述第一融合视频特征和所述第一融合字幕特征得到所述目标视频流的未来候选事件预测结果,包括:
对所述第二融合视频特征进行压缩,得到压缩后的第二融合视频特征;并对所述第二融合字幕特征进行压缩,得到压缩后的第二融合字幕特征;
基于所述压缩后的第二融合视频特征进行事件预测,得到目标视频流对应多个未来候选事件的多个第一得分;并基于所述压缩后的第二融合字幕特征进行事件预测,得到目标视频流对应多个未来候选事件的多个第二得分;
将每一未来候选事件的第一得分与每一未来候选事件的第二得分相加,得到所述目标视频流对应每一未来候选事件的总得分;
基于所述述目标视频流对应每一未来候选事件的总得分确定目标视频流对应的未来候选事件。
9.根据权利要求3所述的多尺度双流注意力视频语言事件预测的方法,其特征在于,所述基于所述第一视频特征、所述第二视频特征以及所述第五视频特征确定多尺度视频特征,包括:
将所述第一视频特征、所述第二视频特征以及所述第五视频特征转换为相同的维度;
基于Transformer编码器,对维度转换后的所述第一视频特征、所述第二视频特征以及所述第五视频特征分别进行时序编码,得到编码后的第一视频特征、第二视频特征以及所述第五视频特征;
将所述编码后的第一视频特征、第二视频特征以及所述第五视频特征作为多尺度视频特征。
10.一种多尺度双流注意力视频语言事件预测的装置,其特征在于,包括:
获取模块,用于获取原始输入数据;其中,所述原始输入数据中包括一个目标视频流、所述目标视频流对应的字幕以及多个未来候选事件;
处理模块,用于将所述原始输入数据输入多尺度双流注意力视频语言事件预测模型,得到所述目标视频流的事件预测结果;
其中,所述多尺度双流注意力视频语言事件预测模型包括多尺度视频处理模块、双流跨模态融合模块以及事件预测模块;
所述多尺度视频处理模块用于基于所述目标视频流中的视频帧生成多尺度视频特征;所述双流跨模态融合模块用于基于所述字幕的特征、所述多个未来候选事件的特征以及所述多尺度视频特征,生成不同尺度的第一融合视频特征和不同尺度的第一融合字幕特征;所述事件预测模块用于基于所述不同尺度的第一融合视频特征和所述不同尺度的第一融合字幕特征分别得到事件预测结果,基于所述事件预测结果确定所述目标视频流的最终事件预测结果。
11.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至9任一项所述多尺度双流注意力视频语言事件预测的方法的步骤。
12.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述多尺度双流注意力视频语言事件预测的方法的步骤。
13.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述多尺度双流注意力视频语言事件预测的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210412836.7A CN115019137A (zh) | 2022-04-19 | 2022-04-19 | 一种多尺度双流注意力视频语言事件预测的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210412836.7A CN115019137A (zh) | 2022-04-19 | 2022-04-19 | 一种多尺度双流注意力视频语言事件预测的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115019137A true CN115019137A (zh) | 2022-09-06 |
Family
ID=83067080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210412836.7A Pending CN115019137A (zh) | 2022-04-19 | 2022-04-19 | 一种多尺度双流注意力视频语言事件预测的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019137A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229332A (zh) * | 2023-05-06 | 2023-06-06 | 浪潮电子信息产业股份有限公司 | 一种视频预训练模型的训练方法、装置、设备及存储介质 |
-
2022
- 2022-04-19 CN CN202210412836.7A patent/CN115019137A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229332A (zh) * | 2023-05-06 | 2023-06-06 | 浪潮电子信息产业股份有限公司 | 一种视频预训练模型的训练方法、装置、设备及存储介质 |
CN116229332B (zh) * | 2023-05-06 | 2023-08-04 | 浪潮电子信息产业股份有限公司 | 一种视频预训练模型的训练方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751208B (zh) | 一种基于自权重差分编码器进行多模态特征融合的服刑人员情感识别方法 | |
CN111444340A (zh) | 文本分类和推荐方法、装置、设备及存储介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
WO2022188644A1 (zh) | 词权重的生成方法、装置、设备及介质 | |
CN112348111B (zh) | 视频中的多模态特征融合方法、装置、电子设备及介质 | |
CN111738169B (zh) | 一种基于端对端网络模型的手写公式识别方法 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN114339450A (zh) | 视频评论生成方法、系统、设备及存储介质 | |
CN111488813A (zh) | 视频的情感标注方法、装置、电子设备及存储介质 | |
CN115129934A (zh) | 一种多模态视频理解方法 | |
CN113705315B (zh) | 视频处理方法、装置、设备及存储介质 | |
CN114398505A (zh) | 目标词语的确定方法、模型的训练方法、装置及电子设备 | |
CN115019137A (zh) | 一种多尺度双流注意力视频语言事件预测的方法及装置 | |
CN111723194A (zh) | 摘要生成方法、装置和设备 | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
CN113393841A (zh) | 语音识别模型的训练方法、装置、设备及存储介质 | |
CN116933051A (zh) | 一种用于模态缺失场景的多模态情感识别方法及系统 | |
WO2023226239A1 (zh) | 对象情绪的分析方法、装置和电子设备 | |
CN114170997A (zh) | 发音技巧检测方法、装置、存储介质及电子设备 | |
CN114329005A (zh) | 信息处理方法、装置、计算机设备及存储介质 | |
Liu et al. | End-to-End Chinese Lip-Reading Recognition Based on Multi-modal Fusion | |
CN115983280B (zh) | 面向不确定模态缺失的多模态情感分析方法及系统 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN117370934B (zh) | 一种敏感信息发现模型的多模态数据增强方法 | |
CN117540007B (zh) | 基于相似模态补全的多模态情感分析方法、系统和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |