CN114519809A - 一种基于多尺度语义网络的视听视频解析装置及方法 - Google Patents
一种基于多尺度语义网络的视听视频解析装置及方法 Download PDFInfo
- Publication number
- CN114519809A CN114519809A CN202210134629.XA CN202210134629A CN114519809A CN 114519809 A CN114519809 A CN 114519809A CN 202210134629 A CN202210134629 A CN 202210134629A CN 114519809 A CN114519809 A CN 114519809A
- Authority
- CN
- China
- Prior art keywords
- audio
- video
- visual
- modal
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
Abstract
本发明提供一种基于多尺度语义网络的视听视频解析方法及装置,用于对目标音视频中所有单模态和多模态事件进行识别和定位,其特征在于,通过对目标音视频进行了预处理得到的视觉特征和音频特征,然后由基于多尺度语义网络构建的视听视频解析模型对视觉特征和音频特征进行识别和定位从而生成目标音视频的所有单模态事件类别、多模态事件类别以及起始时刻。其中,视听视频解析模型包含跨模态时序卷积注意力网络、自适应语义融合模块、分类模块以及基于注意力的多模态多实例学习池化模块,跨模态时序卷积注意力网络用于捕捉多尺度语义,自适应语义融合模块用于多尺度语义的融合,基于注意力的多模态多实例学习模块用于实现弱监督学习。
Description
技术领域
本发明属于人工智能技术领域,具体涉及一种基于多尺度语义网络的视听视频解析装置及方法。
背景技术
在当今的网络环境下,存在着海量的图片、视频、音频等媒体信息,而在人工智能领域中,如何让机器学习并理解上述媒体信息,一直是广受学者研究的重要课题,如计算机视觉领域致力于研究图片和视频的内容理解,自然语言处理领域试图让机器理解人类语言,而语音检测领域主要对声音进行研究和处理。用基于人工智能的方式对媒体信息进行处理,可以高效的从海量数据中提炼有效的信息内容,并加以分析和利用,从而给人们的日常生活带来更大的便利。
在上文诸多媒体信息中,视频是一种广泛的媒介形式,它是将一系列静态影像以电信号的方式加以捕捉、记录、处理、储存、传送与重现的各种技术。网络中存在大量的视频可供用户观看,是否能够理解视频的内容,是网络视频供应商进行精准化视频定制、视频推荐的决定性因素。除此之外,视频理解在视频监控,自动驾驶等领域亦有广泛的应用,因此视频理解是一项意义重大而又富有挑战性的研究领域。
当下,学者们提出了多种视频理解的任务,例如动作识别,该任务要求机器识别出视频中主要动作所属的类别,对视频进行分类并生成标签;以及时序动作检测,该任务要求对视频中的事件进行分类和定位,即预测出事件所属的类别,并给出其起始的时间段;还有动作分割任务,该任务要求对视频中的每一帧进行分类,将一段视频分为若干个事件的集合,该任务要求对视频有帧级别的时序分割,因此需要对视频有更深入、细节的理解。针对上述任务,学者们也给出了多种优秀的解决方式,然而这些任务和方法共有的局限性在于,它们只研究了视频的视觉信息,即只对视频当中的画面进行了分析,而忽略了视频中所天然隐含的声学信息。在视频当中,画面和音频存在天然的时序对应关系,视频的音频部分也隐含了若干有助于视频理解的重要信息。而能否将视频当中的音频和视频信息结合起来,便成为了一个重要而富有前景的新难题。
视听视频解析任务便是一项跨模态的视频理解任务。该任务要求辨别一段视频中的所有单模态和多模态事件,即给出所有事件的类别,以及它们的起始时刻。在该任务中,有些事件只存在于音频中,而有些事件只存在于视频中,也有一些同时存在于音频和视频中的多模态任务,因此该任务需要对多模态信息进行充分的理解和捕获。
现有的视听视频解析方法一般通过时序注意力机制来探究上下文之间的单模态和跨模态关系。然而,现有的方法均是在整个视频长度内进行上下文信息融合。这种方式更倾向于去寻找那些时长较长,在视频中体现较明显的事件。在视听视频解析任务中,视频当中的事件是不定长的,那么有些长度很短的事件就无法很好的检测得出。因此,如何获取多尺度的单模态和跨模态信息,以及如何将获取的多尺度信息有效融合,是完成该任务需要解决的重要难题。
发明内容
为解决上述问题,提供一种获取多尺度模态信息的视听视频解析方法,本发明采用了如下技术方案:
本发明提供了一种基于多尺度语义网络的视听视频解析方法,用于对目标音视频的所有单模态和多模态事件进行识别和定位,其特征在于,包括以下步骤:步骤S1,对目标音视频进行预处理获取视觉特征和音频特征;步骤S2,构建基于多尺度语义网络的神经网络模型;步骤S3,采用弱监督训练方法对基于多尺度语义网络的神经网络模型进行训练得到视听视频解析模型;步骤S4,将视觉特征和音频特征输入至视听视频解析模型中得到目标音视频的所有单模态事件类别、多模态事件类别以及起始时刻,其中,基于多尺度语义网络的神经网络模型具有跨模态时序卷积注意力网络、自适应语义融合模块、分类模块以及多模态多实例学习池化层。
本发明提供的一种基于多尺度语义网络的视听视频解析方法,还可以具有这样的技术特征,其中,预处理包括图像预处理,该图像预处理为从目标音视频中抽取8个图像帧,对8个图像帧进行大小归一化。
本发明提供的一种基于多尺度语义网络的视听视频解析方法,还可以具有这样的技术特征,其中,预处理还包括音频预处理,该音频预处理的过程如下:对目标音视频中包含的音频重采样为16kHz的单声道音频,使用25ms的Hann时窗以及10ms的帧移对单声道音频进行短时傅里叶变换得到对应的频谱图,并使用64阶的梅尔滤波器组中计算梅尔声谱,使用0.01的偏置对梅尔声谱取对数,得到稳定的梅尔声谱,以0.96s的时长进行组帧,每一帧包含64个梅尔频带,不含帧的重叠。
本发明提供的一种基于多尺度语义网络的视听视频解析方法,还可以具有这样的技术特征,其中,跨模态时序卷积注意力网络由若干个级联的时序卷积层和定尺寸跨模态注意力层组成,根据输入的视觉特征以及音频特征生成对应的多尺度语义特征,自适应语义融合模块将多尺度语义特征的语义信息进行融合得到语义融合结果,分类模块对音频模态和视觉模态进行分类和预测生成模态预测结果,多模态多实例学习池化层根据模态预测结果生成视频级别标签,该视频级别标签用于弱监督训练。
本发明提供的一种基于多尺度语义网络的视听视频解析方法,还可以具有这样的技术特征,其中,步骤S3包括以下子步骤:步骤S3-1,构建弱监督的训练数据集;步骤S3-2,将训练数据集中的训练数据依次输入至基于多尺度语义网络的神经网络模型对模型参数进行迭代;步骤S3-3,在每次迭代后,根据最后一层的模型参数计算损失误差,利用损失误差进行反向传播从而更新模型参数;步骤S3-4,重复步骤S3-2至步骤S3-3直至达到训练完成条件,得到视听视频解析模型。
本发明还提供一种基于多尺度语义网络的视听视频解析装置,用于对目标音视频的所有单模态和多模态事件进行识别和定位,其特征在于,包括:预处理部,使用预定的预处理方法对目标音视频进行预处理得到视觉特征以及音频特征;以及视听视频解析部,利用预先训练得到的视听视频解析模型对视觉特征以及音频特征进行识别和定位,从而得出目标音视频的所有单模态和多模态事件的类别和起始时刻,其中,视听视频解析模型基于多尺度语义网络构建,包括跨模态时序卷积注意力网络,自适应语义融合模块,分类模块以及基于注意力的多模态多实例学习池化模块。
本发明提供的一种基于多尺度语义网络的视听视频解析装置,还可以具有这样的技术特征,其中,跨模态时序卷积注意力网络具有交叉级联的时序卷积层和定尺寸跨模态注意力层,分别用于捕捉单模态的多尺度语义信息和跨模态的多尺度语义信息,并进行信息融合从而得到多模态的多尺度语义特征,自适应语义融合模块通过尺度方向上的自注意力得到不同尺度之间的关联性,根据不同尺度语义特征之间的关联性和相似度来自适应的得到最终的语义融合结果,分类模块包括全连接层和Softmax函数,该分类模块基于视觉特征以及音频特征进行分类,从而得出目标音视频中音频模态每一个事件的类别和起始时刻,以及目标音视频中视频模块每一个事件的类别和起始时刻,基于注意力的多模态多实例学习池化模块通过模态间注意力和时序注意力分别获得模态间和时序片段间的信息交互,生成多模态的事件级别标签。
发明作用与效果
根据本发明的基于多尺度语义网络的视听视频解析方法,通过对目标音视频进行了预处理得到的视觉特征和音频特征,然后由基于多尺度语义网络构建的视听视频解析模型对视觉特征和音频特征进行识别和定位从而生成目标音视频的所有单模态事件类别、多模态事件类别以及起始时刻。由于视听视频解析模型具有跨模态时序卷积注意力网络,该网络多层级联的时序卷积和定尺寸跨模态注意力层的来分别获取单模态和跨模态的多尺度语义,从而能从不同的时间尺度进行视频理解,因此能更为精确的定位多个不同长度的事件。还由于视听视频解析模型还具有自适应语义融合模块,能实现多个尺寸不同的语义可以进行语义维度上的特征交流和融合,使得模型能够自适应的选择更为恰当的融合结果,将不同的注意力权重分配到不同尺度的语义特征上,从而得到更为丰富和高效的综合语义。除此之外,还由于视听视频解析模型通过多模态多实例学习池化层能够以弱监督的方式进行训练,因此在模型的训练过程中,不需要对每个事件的起始时刻进行标注,只需要标注所有事件的类别即可进行训练,显著降低了训练数据标注的负担,并使得该方法和装置能够便捷的泛化到各个应用场景下。
附图说明
图1是本发明实施例中基于多尺度语义网络的视听视频解析方法的流程图;
图2是本发明实施例中多尺度语义网络的神经网络模型的结构示意图;
图3是本发明实施例中的时序卷积层的结构示意图;
图4是本发明实施例中的定尺寸跨模态注意力层的结构示意图;
图5是本发明实施例中的基于多尺度语义网络的视听视频解析装置的结构示意图;
图6是本发明实施例中的实验结果对比图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的一种基于多尺度语义网络的视听视频解析方法及装置作具体阐述。
<实施例>
本实施例的一种基于多尺度语义网络的视听视频解析方法及装置在一张NVIDIATesla P40显卡的辅助下实现相应训练与预测功能。
图1是本发明实施例中基于多尺度语义网络的视听视频解析方法的流程图。
如图1所示,基于多尺度语义网络的视听视频解析方法包括以下步骤:
步骤S1,对目标音视频进行预处理获取视觉特征和音频特征。
本实施例中,预处理分为图像预处理和音频预处理两部分。图像预处理过程为:首先,将待测视频序列(即视频的各个图像帧的时间顺序)按照1s分割成若干片段,然后从每个片段中抽取8个帧,得到该视频的图像帧集合,因为帧间差距不大,这样处理可以显著减轻计算复杂度。然后使用在ImageNet数据集上预训练的ResNet-152卷积神经网络和在Kinetics数据集上预训练的3D-ResNet卷积神经网络提取2D和3D的视觉特征。最后2D和3D的视觉特征经过相加融合后得到最终的视觉特征。
音频预处理过程为:首先将音频重采样为16kHz的单声道音频,然后使用25ms的Hann时窗,10ms的帧移进行短时傅里叶变换得到频谱图,并使用64阶的梅尔滤波器组中计算梅尔声谱。然后使用0.01 的偏置对梅尔声谱取对数,得到稳定的梅尔声谱,并以0.96s的时长进行组帧,每一帧包含64个梅尔频带,不含帧的重叠。最后使用在 AudioSet上预训练的VGGish网络对音频序列进行特征提取,得到该视频序列的音频特征。
步骤S2,构建基于多尺度语义网络的神经网络模型。
图2是本发明实施例中多尺度语义网络的神经网络模型的结构示意图。
本实施例中,利用现有的深度学习框架PyTorch,构建基于多尺度语义网络的神经网络模型。如图2所示,该神经网络模型包括跨模态时序卷积注意力网络,自适应语义融合模块,分类模块以及多模态多实例学习池化层。
其中,跨模态时序卷积注意力网络用于生成多尺度语义特征,该网络由若干个级联的时序卷积层和定尺寸跨模态注意力层组成,时序卷积层用于捕捉单模态多尺度语义信息,定尺寸跨模态注意力层用于捕捉跨模态多尺度语义信息,多个时序卷积层和定尺寸跨模态注意力层级联,生成若干个尺度不同的语义特征,用于后续的事件分类和定位。
图3是本发明实施例中的时序卷积层的结构示意图。
如图3所示,在跨模态时序卷积注意力网络中,有多个膨胀卷积尺寸不同的时序卷积层堆叠,卷积层的感受野根据膨胀卷积的尺寸变化而变化,膨胀尺寸较小的卷积层只能考虑到当前时序片段附近片段的信息,而膨胀尺寸较大的卷积层可以考虑到时序上离当前时序片段距离很远的信息,将所有卷积层的输出全部保留下来,即可得到多尺度的单模态语义信息。
由于时序卷积层只能捕获多尺度的单模态信息,需要额外使用跨模态的注意力机制来捕获多模态信息。常规的跨模态注意力机制一般使用放缩点积注意力(Scaled Dot-Product Attention)操作,经过Softmax 和dropout函数处理后,得到注意力值。在跨模态注意力中,Q矩阵为当前模态的时序片段特征,K和V为另一模态的时序片段特征,从而探究不同模态之间的特征关联。由于时序卷积层的每一层尺寸都不同,得到的语义尺度也不相同,因此每一层时序卷积层后的跨模态注意力层也应当有不同的尺寸。
图4是本发明实施例中的定尺寸跨模态注意力层的结构示意图。
如图4所示,本实施例提出了定尺寸跨模态注意力层,对于每一个时序片段t生成的向量q,K和V是视频中时序片段[t-s,t+s]组成的矩阵,从而使得当前模态的片段t只和另一模态中一定范围内的片段进行特征交互和融合,从而完成跨模态的多尺度特征语义生成。
自适应语义融合模块用于融合多个尺度不同的语义信息,由于每个尺度的语义特征所含的信息各不相同,简单的在语义维度上进行平均池化无法获取更充分的语义信息,因此,本实施例使用一个基于自注意力的语义融合模块来探究不同尺度的特征之间的关联,并根据数据自身特征的不同选择更为适合的注意力权重,分配到不同尺度的语义信息中,从而自适应的得到表现更佳的语义融合结果。
分类模块分为音频模态和视觉模态两部分,这两个模态各由一个全连接层和一个sigmoid函数组成。该分类模块根据语义融合结果得到最终的单模态预测结果。由于多模态事件必须同时是视觉事件和听觉事件,因此多模态预测结果可以由单模态预测结果相乘得到。
多模态多实例学习池化层用于生成视频级别标签,进行弱监督训练,公式如下所示:
Wtp[:,m,c]=softmax(Ftp[:,m,c]),
Wav[t,:,c]=softmax(Fav[t,:,c]),
式中,m代表模态维度,c代表通道维度,P代表单模态音频预测结果和视频预测结果的堆叠,Wtp代表时序卷积机制权重矩阵,Wav代表模态注意力机制权重矩阵,Ftp和Fav是两个张量,分别由分类模块中全连接层的音频输入特征和视频输入特征堆叠而成。
经过该多模态多实例学习池化层处理后,模型根据时序和模态之间的信息关联,生成了视频级别的标签用于弱监督学习,有效的降低了弱监督标签带来的性能损失。
步骤S3,采用弱监督训练方法对基于多尺度语义网络的神经网络模型进行训练得到视听视频解析模型。
该步骤S3包括以下子步骤:
步骤S3-1,构建弱监督的训练数据集,该训练数据集中只提供视频中所有的事件类别标签,不提供事件的起始时刻标签。
本实施例中,采用的训练数据集为AVVP Dataset。AVVP Dataset 是AudioSet数据集的一个子集,共含有25个类别的11849个视频,每一个视频平均含有1.64个事件。整个数据集含有多个领域的多个事件,能够评价相关模型在各个领域事件的识别表现。其中10000个视频作为训练集,1849个视频作为验证集。
步骤S3-2,将训练数据集中的训练数据分批次依次输入至基于多尺度语义网络的神经网络模型进行训练以对模型参数进行迭代。
本实施例中,构建的基于多尺度语义网络的神经网络模型的各层包含不同的模型参数,这些模型参数构建时为随机设置。
步骤S3-3,在每次迭代后,根据最后一层的模型参数计算损失误差,采用交叉熵作为损失函数,利用损失误差进行反向传播从而更新模型参数。
步骤S3-4,重复步骤S3-2至步骤S3-3直至模型各层的模型参数收敛后完成训练,得到视听视频解析模型。
本实施例中,模型训练过程中的学习率设置为0.0001,使用Adam 优化方法进行优化,每训练整个训练集10次,学习率就会除以10,从而使算法更为细致和准确的进行学习。
经过上述迭代训练并在迭代过程中进行误差计算和反向传播,即可获得训练完成的基于跨模态注意力机制的视听视频解析模型。
步骤S4,将视觉特征和音频特征输入至视听视频解析模型中得到目标音视频的所有单模态事件类别、多模态事件类别以及起始时刻。
图5是本发明实施例中的基于多尺度语义网络的视听视频解析装置的结构示意图。
本实施例还提供一种基于多尺度语义网络的视听视频解析装置,如图5所示,该视听视频解析装置10具有预处理部1以及视听视频解析部2。
其中,预处理部1使用上述预处理方法对目标音视频进行预处理得到视觉特征以及音频特征。
视听视频解析部2利用经训练得到的视听视频解析模型对视觉特征以及音频特征进行识别和定位,从而得出目标音视频的所有单模态和多模态事件的类别和起始时刻。
进一步地,视听视频解析模型基于多尺度语义网络构建,包括跨模态时序卷积注意力网络,自适应语义融合模块,分类模块以及基于注意力的多模态多实例学习池化模块。具体地:
跨模态时序卷积注意力网络具有交叉级联的时序卷积层和定尺寸跨模态注意力层,分别用于捕捉单模态的多尺度语义信息和跨模态的多尺度语义信息,并进行信息融合从而得到多模态的多尺度语义特征。
自适应语义融合模块通过尺度方向上的自注意力得到不同尺度之间的关联性,根据不同尺度语义特征之间的关联性和相似度来自适应的得到最终的语义融合结果。
分类模块包括全连接层和Softmax函数,该分类模块基于视觉特征以及音频特征进行分类,从而得出目标音视频中音频模态每一个事件的类别和起始时刻,以及目标音视频中视频模块每一个事件的类别和起始时刻。
基于注意力的多模态多实例学习池化模块通过模态间注意力和时序注意力分别获得模态间和时序片段间的信息交互,生成多模态的事件级别标签。
图6是本发明实施例中的实验结果对比图。
为验证基于多尺度语义网络的视听视频解析方法的效果,将本实施例的视听视频解析方法与现有的单模态音频事件检测方法Kong et al.2018、TALNet、单模态时序动作检测方法STPN、CMCS、多模态视听事件定位方法AVE、AVDSN、多模态视听视频解析方法AVVP 在AVVP测试集上进行实验对比。
该实验的评价指标为F-score,越高表示性能越好。图6中,Event Type一栏指评估的模态,Audio表示音频单模态,Visual表示视觉单模态,Audio-Visual表示音视频多模态,Type@AV表示将三个模态的结果融合,Event@AV表示在计算F-scores的时候考虑所有模态的事件,得到复合的F-scores。此外,Segment-Level表示计算每个时序片段的准确率,而Event-Level表示以事件为单位计算准确率。
由图6可知,本发明的基于多尺度语义网络的视听视频解析方法的定位准确率在各个指标上均高于其他方法,从而证明本发明的视听视频解析方法有效。
实施例作用与效果
根据本实施例提供的基于多尺度语义网络的视听视频解析方法及装置,首先对目标音视频进行了预处理得到的视觉特征和音频特征,通过视听视频解析模型对视觉特征和音频特征进行识别和定位从而生成目标音视频的所有单模态事件类别、多模态事件类别以及起始时刻。由于视听视频解析模型基于多尺度语义网络构建,该多尺度语义网络能够通过多层级联的时序卷积网络和定尺寸跨模态注意力层来分别获取单模态和跨模态的多尺度语义,从而能从不同的时间尺度进行视频理解,因此能更为精确的定位多个不同长度的事件。
另外,由于视听视频解析模型还具有自适应语义融合模块,能实现多个尺寸不同的语义可以进行语义维度上的特征交流和融合,使得模型能够自适应的选择更为恰当的融合结果,将不同的注意力权重分配到不同尺度的语义特征上,从而得到更为丰富和高效的综合语义。
除此之外,还由于视听视频解析模型通过多模态多实例学习池化层能够以弱监督的方式进行训练,因此在模型的训练过程中,不需要对每个事件的起始时刻进行标注,只需要标注所有事件的类别即可进行训练,显著降低了训练数据标注的负担,并使得该方法和装置能够便捷的泛化到各个应用场景下。
实施例中,由于预处理时将视频按照1s时间间隔分隔,得到多个视频片段,从每个视频序列中抽取8帧的图像帧,从而构成图像序列,减少了后续神经网络模型的计算量,降低了复杂度。
实施例中,由于同时使用2D和3D的ResNet进行视觉信息的提取,既捕捉了帧内部的视觉特征,也捕捉了帧间的视频序列特征,将 2D和3D的视觉特征进行融合,能够得到表现力更强的视觉信息。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。
Claims (7)
1.一种基于多尺度语义网络的视听视频解析方法,用于对目标音视频的所有单模态和多模态事件进行识别和定位,其特征在于,包括以下步骤:
步骤S1,对所述目标音视频进行预处理获取视觉特征和音频特征;
步骤S2,构建基于多尺度语义网络的神经网络模型;
步骤S3,采用弱监督训练方法对所述基于多尺度语义网络的神经网络模型进行训练得到视听视频解析模型;
步骤S4,将所述视觉特征和所述音频特征输入至所述视听视频解析模型中得到所述目标音视频的所有单模态事件类别、多模态事件类别以及起始时刻,
其中,所述基于多尺度语义网络的神经网络模型具有跨模态时序卷积注意力网络、自适应语义融合模块、分类模块以及多模态多实例学习池化层。
2.根据权利要求1所述的一种基于多尺度语义网络的视听视频解析方法,其特征在于:
其中,所述预处理包括图像预处理,该图像预处理为从所述目标音视频中抽取8个图像帧,对8个所述图像帧进行大小归一化。
3.根据权利要求1所述的一种基于多尺度语义网络的视听视频解析方法,其特征在于:
其中,所述预处理还包括音频预处理,该音频预处理的过程如下:
对所述目标音视频中包含的音频重采样为16kHz的单声道音频,
使用25ms的Hann时窗以及10ms的帧移对所述单声道音频进行短时傅里叶变换得到对应的频谱图,并使用64阶的梅尔滤波器组中计算梅尔声谱,
使用0.01的偏置对所述梅尔声谱取对数,得到稳定的梅尔声谱,以0.96s的时长进行组帧得到音频序列,每一帧包含64个梅尔频带,不含帧的重叠,对该音频序列进行特征提取得到所述音频特征。
4.根据权利要求1所述的一种基于多尺度语义网络的视听视频解析方法,其特征在于:
其中,所述跨模态时序卷积注意力网络由若干个级联的时序卷积层和定尺寸跨模态注意力层组成,用于根据输入的所述视觉特征以及所述音频特征生成对应的多尺度语义特征,
所述自适应语义融合模块将所述多尺度语义特征的语义信息进行融合得到语义融合结果,
所述分类模块对音频模态和视觉模态进行分类和预测生成模态预测结果,
所述多模态多实例学习池化层根据所述模态预测结果生成视频级别标签,该视频级别标签用于弱监督训练。
5.根据权利要求4所述的一种基于多尺度语义网络的视听视频解析方法,其特征在于:
其中,所述步骤S3包括以下子步骤:
步骤S3-1,构建弱监督的训练数据集;
步骤S3-2,将所述训练数据集中的训练数据依次输入至所述基于多尺度语义网络的神经网络模型对模型参数进行迭代;
步骤S3-3,在每次迭代后,根据最后一层的模型参数计算损失误差,利用所述损失误差进行反向传播从而更新所述模型参数;
步骤S3-4,重复所述步骤S3-2至所述步骤S3-3直至达到训练完成条件,得到所述视听视频解析模型。
6.一种基于多尺度语义网络的视听视频解析装置,用于对目标音视频的所有单模态和多模态事件进行识别和定位,其特征在于,包括:
预处理部,使用预定的预处理方法对所述目标音视频进行预处理得到视觉特征以及音频特征;以及
视听视频解析部,利用预先训练得到的视听视频解析模型对所述视觉特征以及所述音频特征进行识别和定位,从而得出所述目标音视频的所有单模态和多模态事件的类别和起始时刻,
其中,所述视听视频解析模型基于多尺度语义网络构建,包括跨模态时序卷积注意力网络,自适应语义融合模块,分类模块以及基于注意力的多模态多实例学习池化模块。
7.根据权利要求6所述的一种基于多尺度语义网络的视听视频解析装置,其特征在于:
其中,所述跨模态时序卷积注意力网络具有交叉级联的时序卷积层和定尺寸跨模态注意力层,分别用于捕捉单模态的多尺度语义信息和跨模态的多尺度语义信息,并进行信息融合从而得到多模态的多尺度语义特征,
所述自适应语义融合模块通过尺度方向上的自注意力得到不同尺度之间的关联性,根据不同尺度语义特征之间的关联性和相似度来自适应的得到最终的语义融合结果,
所述分类模块包括全连接层和Softmax函数,该分类模块基于所述视觉特征以及所述音频特征进行分类,从而得出所述目标音视频中音频模态每一个事件的类别和起始时刻,以及所述目标音视频中视频模块每一个事件的类别和起始时刻,
所述基于注意力的多模态多实例学习池化模块通过模态间注意力和时序注意力分别获得模态间和时序片段间的信息交互,生成多模态的事件级别标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210134629.XA CN114519809A (zh) | 2022-02-14 | 2022-02-14 | 一种基于多尺度语义网络的视听视频解析装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210134629.XA CN114519809A (zh) | 2022-02-14 | 2022-02-14 | 一种基于多尺度语义网络的视听视频解析装置及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114519809A true CN114519809A (zh) | 2022-05-20 |
Family
ID=81596238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210134629.XA Pending CN114519809A (zh) | 2022-02-14 | 2022-02-14 | 一种基于多尺度语义网络的视听视频解析装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114519809A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114786033A (zh) * | 2022-06-23 | 2022-07-22 | 中译文娱科技(青岛)有限公司 | 一种基于人工智能的视听数据智能分析管理系统 |
CN115062328A (zh) * | 2022-07-12 | 2022-09-16 | 中国科学院大学 | 一种基于跨模态数据融合的信息智能解析方法 |
CN115620110A (zh) * | 2022-12-16 | 2023-01-17 | 华南理工大学 | 一种视频事件定位与识别方法、装置及存储介质 |
CN116089654A (zh) * | 2023-04-07 | 2023-05-09 | 杭州东上智能科技有限公司 | 一种基于音频监督的可转移视听文本生成方法和系统 |
CN116246214A (zh) * | 2023-05-08 | 2023-06-09 | 浪潮电子信息产业股份有限公司 | 视听事件定位方法、模型训练方法、装置及设备和介质 |
CN117037046A (zh) * | 2023-10-08 | 2023-11-10 | 之江实验室 | 一种视听事件检测方法、装置、存储介质及电子设备 |
CN117877125A (zh) * | 2024-03-11 | 2024-04-12 | 浪潮电子信息产业股份有限公司 | 动作识别及其模型训练方法、装置、电子设备、存储介质 |
-
2022
- 2022-02-14 CN CN202210134629.XA patent/CN114519809A/zh active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114786033A (zh) * | 2022-06-23 | 2022-07-22 | 中译文娱科技(青岛)有限公司 | 一种基于人工智能的视听数据智能分析管理系统 |
CN115062328A (zh) * | 2022-07-12 | 2022-09-16 | 中国科学院大学 | 一种基于跨模态数据融合的信息智能解析方法 |
CN115062328B (zh) * | 2022-07-12 | 2023-03-10 | 中国科学院大学 | 一种基于跨模态数据融合的信息智能解析方法 |
US11842259B1 (en) | 2022-07-12 | 2023-12-12 | University Of Chinese Academy Of Sciences | Intelligent information parsing method based on cross-modal data fusion |
CN115620110A (zh) * | 2022-12-16 | 2023-01-17 | 华南理工大学 | 一种视频事件定位与识别方法、装置及存储介质 |
CN116089654A (zh) * | 2023-04-07 | 2023-05-09 | 杭州东上智能科技有限公司 | 一种基于音频监督的可转移视听文本生成方法和系统 |
CN116089654B (zh) * | 2023-04-07 | 2023-07-07 | 杭州东上智能科技有限公司 | 一种基于音频监督的可转移视听文本生成方法和系统 |
CN116246214A (zh) * | 2023-05-08 | 2023-06-09 | 浪潮电子信息产业股份有限公司 | 视听事件定位方法、模型训练方法、装置及设备和介质 |
CN116246214B (zh) * | 2023-05-08 | 2023-08-11 | 浪潮电子信息产业股份有限公司 | 视听事件定位方法、模型训练方法、装置及设备和介质 |
CN117037046A (zh) * | 2023-10-08 | 2023-11-10 | 之江实验室 | 一种视听事件检测方法、装置、存储介质及电子设备 |
CN117037046B (zh) * | 2023-10-08 | 2024-01-09 | 之江实验室 | 一种视听事件检测方法、装置、存储介质及电子设备 |
CN117877125A (zh) * | 2024-03-11 | 2024-04-12 | 浪潮电子信息产业股份有限公司 | 动作识别及其模型训练方法、装置、电子设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114519809A (zh) | 一种基于多尺度语义网络的视听视频解析装置及方法 | |
Zhang et al. | Learning affective features with a hybrid deep model for audio–visual emotion recognition | |
Kollias et al. | Exploiting multi-cnn features in cnn-rnn based dimensional emotion recognition on the omg in-the-wild dataset | |
CN110472531B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN108986186B (zh) | 文字转化视频的方法和系统 | |
Tian et al. | Multimodal deep representation learning for video classification | |
Meng et al. | Time-delay neural network for continuous emotional dimension prediction from facial expression sequences | |
US20210224601A1 (en) | Video sequence selection method, computer device, and storage medium | |
Joo et al. | Automated coding of televised leader displays: Detecting nonverbal political behavior with computer vision and deep learning | |
CN112989977B (zh) | 一种基于跨模态注意力机制的视听事件定位方法及装置 | |
US20230077849A1 (en) | Content recognition method and apparatus, computer device, and storage medium | |
JP2023537705A (ja) | オーディオ・ビジュアル・イベント識別システム、方法、プログラム | |
Malgireddy et al. | Language-motivated approaches to action recognition | |
Du et al. | Spatio-temporal encoder-decoder fully convolutional network for video-based dimensional emotion recognition | |
CN110619284B (zh) | 一种视频场景划分方法、装置、设备及介质 | |
Koumparoulis et al. | Exploring ROI size in deep learning based lipreading. | |
Praveen et al. | Audio-visual fusion for emotion recognition in the valence-arousal space using joint cross-attention | |
CN114140885A (zh) | 一种情感分析模型的生成方法、装置、电子设备以及存储介质 | |
Maragos et al. | Cross-modal integration for performance improving in multimedia: A review | |
Kang et al. | Pivot correlational neural network for multimodal video categorization | |
Dong et al. | Affect-salient event sequence modelling for continuous speech emotion recognition | |
Zheng et al. | Violent scene detection of film videos based on multi-task learning of temporal-spatial features | |
Sowmyayani et al. | STHARNet: Spatio-temporal human action recognition network in content based video retrieval | |
Singh | Classification of animal sound using convolutional neural network | |
Sora et al. | Speech Sentiment Analysis for Citizen's Engagement in Smart Cities' Events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |