CN115294498A - 一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统 - Google Patents
一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统 Download PDFInfo
- Publication number
- CN115294498A CN115294498A CN202210938396.9A CN202210938396A CN115294498A CN 115294498 A CN115294498 A CN 115294498A CN 202210938396 A CN202210938396 A CN 202210938396A CN 115294498 A CN115294498 A CN 115294498A
- Authority
- CN
- China
- Prior art keywords
- network
- wavelet
- formula
- attention
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统,包括:获取可穿戴传感器数据并进行处理:将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;搭建多模态注意力空洞卷积核残差网络;训练教师网络;搭建学生网络;构建小波蒸馏损失,通过最小化小波蒸馏损失、交叉熵损失来训练学生网络;通过训练好的学生网络对可穿戴传感器‑视频行为进行识别,得到识别结果。本发明通过多模态交叉注意力进行不同模态信息的充分融合,利用小波知识蒸馏指导视频进行识别。本发明通过小波变换过滤噪声,鲁棒性强。
Description
技术领域
本发明涉及一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统,属于行为识别、传感器技术、机器学习等交叉技术领域。
背景技术
随着深度学习和计算机视觉的发展,行为识别由于其在视频监控系统、视频检索、人机交互等领域的广泛应用而受到广泛关注,尤其是基于视频和图像的行为识别方法和模型被广泛应用到现实生活领域。然而,首先,基于视觉传感器的方法很大程度上依赖视频、图像的质量。若摄像头分辨率低或被遮挡,获取的图像或视频质量差,很容易影响行为识别的效果,这也是视频行为识别方法在实际应用中的瓶颈。其次,基于视频的行为识别方法计算量大,需要有复杂计算能力的硬件设备支持,增加了成本。除此之外,针对像银行等需要隐私保护的场所,视觉传感器数据不可得的情况下,基于视频的行为识别方法便无法实现。基于可穿戴传感器方法可以解决视频行为识别方法的问题。通过智能手表或者智能手机中的传感器获得基于时间的三轴加速度、陀螺仪、方向信号等一维数据来获取人的行为变化。基于可穿戴传感器的行为识别方法不依赖于视频和图像,提供了在隐私保护的场景下进行行为识别的可能性。
随着智慧城市和智慧医疗的普及和需求的增加,基于可穿戴传感器的人体行为识别已经成为了人类活动认知的关键研究领域。虽然已经提出了一些基于可穿戴传感器的行为识别方法,并取得了良好的效果,但这些方法大多只考虑了可穿戴传感器的时间序列数据,对视觉传感器与可穿戴传感器数据之间的互补关系考虑较少。因此,利用来自视觉传感器和可穿戴传感器不同模态的动作信息,来提高行为的识别性能是相当重要的。
发明内容
针对现有技术的不足,本发明提出了一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法。
本发明提出了一种基于交叉注意力的多模态小波知识蒸馏算法,充分利用可穿戴传感器和视觉传感器信息,通过多模态交叉注意力进行不同模态信息的充分融合,利用小波知识蒸馏指导视频进行识别。
本发明提出了一种用于可穿戴传感器和视频数据的基于交叉注意力的多模态小波知识蒸馏模型。该模型的贡献是:1)通过空洞卷积、注意力机制构造卷积网络对可穿戴传感器数据进行特征提取,增大感受野;2)通过交叉注意力模块针对多个模态的可穿戴传感器数据进行融合,以获取到不同模态的互补信息,为下一步蒸馏提供更多的先验知识;3)通过离散小波变换将教师网络和学生网络的最后一个池化层替换,为了减少噪声,只保留低频特征,提取有用信息,再通过蒸馏来指导学生网络的视频数据进行行为识别,提高识别性能。
术语解释:
1、ImageNet数据集,是一个计算机视觉数据集,是由斯坦福大学的李飞飞教授带领创建。该数据集包合14,197,122张图片和21,841个Synset索引。Synset是WordNet层次结构中的一个节点,它又是一组同义词集合。ImageNet数据集一直是评估图像分类算法性能的基准。ImageNet数据集是为了促进计算机图像识别技术的发展而设立的一个大型图像数据集。2016年ImageNet数据集中已经超过干万张图片,每一张图片都被手工标定好类别。ImageNet数据集中的图片涵盖了大部分生活中会看到的图片类别。ImageNet最初是拥有超过100万张图像的数据集。
2、BNInception网络,是CNN分类器发展史上一个重要的里程碑。在Inception出现之前,大部分流行CNN仅仅是把卷积层堆叠得越来越多,使网络越来越深,以此希望能够得到更好的性能。Inception的第二个版本也称作BN-Inception,主要是引入了深度学习的一项重要的技术 Batch Normalization(BN)批处理规范化。BN技术的使用,使得数据在从一层网络进入到另外一层网络之前进行规范化,可以获得更高的准确率和训练速度。
3、VGG网络,是牛津大学计算机视觉组和Google DeepMind公司的研究员仪器研发的深度卷积神经网络。VGG主要探究了卷积神经网络的深度和其性能之间的关系,通过反复堆叠3*3的小卷积核和2*2的最大池化层,VGGNet成功的搭建了16-19层的深度卷积神经网络。与之前的网络结构相比,错误率大幅度下降;同时,VGG的泛化能力非常好,在不同的图片数据集上都有良好的表现。到目前为止,VGG依然经常被用来提取特征图像。
4、ResNet网络,由微软研究院的何恺明、张祥雨、任少卿、孙剑提出。研究动机是为了解决深度网络的退化问题,不同于过去的网络是通过学习去拟合一个分布,ResNet通过学习去拟合相对于上一层输出的残差。
本发明的技术方案为:
一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,包括步骤如下:
获取可穿戴传感器数据并进行处理:将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;
搭建多模态注意力空洞卷积核残差网络即教师网络;
训练教师网络;
搭建学生网络;
最小化小波蒸馏损失、交叉熵损失来训练学生网络;
通过训练好的学生网络对可穿戴传感器-视频行为进行识别,得到识别结果。
根据本发明优选的,可穿戴传感器数据处理,包括:
首先,可穿戴传感器数据有三个轴向时间序列信号(x,y,z),定义其中一个轴向信号为 X={x1,…,xn},使用最小-最大归一化方法将原始信号X归一化到区间[-1,1]中,得到归一化信号如式(I)所示:
ti是指时间戳,θi是指归一化振幅的余弦角;
通过点和点之间的三角和获取时间间隔之间的相关系数,相关系数通过向量之间夹角的余弦计算,时间i和j之间的相关系数用cos(φi+φj)来计算,φi、φj分别为时间i和j的归一化振幅的余弦角;
格莱姆角场的矩阵定义为G,如式(III)所示:
假设每个长度为m的三轴传感器数据都转化为一个大小为m×m的GAF矩阵,将三轴传感器数据的GAF矩阵G组装为大小为m×m×3的三通道图像表示P={Gx,Gy,Gz};m为三轴传感器数据的长度,Gx、Gy、Gz分别是三轴传感器数据x轴、y轴和z轴的GAF矩阵;
根据本发明优选的,多模态注意力空洞卷积核残差网络包括1个卷积层、1个BN层、1个激活函数层、4个Max Pooling层、5个SADRM模块、1个DWT模块、1个模态融合模块、1个全连接层;模态融合模块包括多个CVA模块;
通过卷积层、BN层、激活函数层、SADRM模块、Max Pooling层、DWT模块的搭建进行可穿戴传感器数据的特征提取,Max Pooling层进行下采样操作,DWT模块进行小波变换,多个CVA模块处理不同模态间的融合,从多个CVA模块获取的融合后的特征通过级联输入到全连接层。
进一步优选的,SADRM模块包括1*1卷积层、堆叠的一个1*1卷积层和一个3*3卷积层、一个LKA模块、堆叠的2个扩张率为2的3*3空洞卷积层和堆叠的2个扩张率为4的3*3空洞卷积层;
教师网络的上一层特征图输入到SADRM模块中,分别经过上述各部分的计算处理,将得到的5 个计算结果和输入特征图进行相加,形成快捷连接,最终得到SADRM模块的输出Stage,如式(Ⅵ) 所示:
式(Ⅵ)中,x为上一个阶段的输入,Conv1×1表示1×1卷积操作,Conv3×3表示3×3卷积操作, LKA表示Large Kernel Attention操作,Dila3×3表示3×3空洞卷积操作。
进一步优选的,SADRM模块中,对于堆叠的卷积层,假设第i层的感受野为RFi=a1,i×a2,i,a1,i、 a2,i分别指感受野的长和宽,第i+1层的卷积核尺寸为ki+1×ki+1,第i+1层的空洞卷积扩张率为di+1,则第i+1层的感受野RFi+1如式(V)所示:
RFi+1=[a1,i+(ki+1-1)di+1]×[a2,i+(ki+1-1)di+1] (V)
式(V)中,RF0=1×1代表输入层的感受野。
进一步优选的,LKA模块如式(VI)、式(VII)所示:
Atten=Conv1×1(DW-D-Conv(DW-Conv(X))) (VI)
式(VI)、式(VII)中,是输入特征,DW-Conv是深度卷积,DW-D-Conv是深度膨胀卷积,Conv1×1代表一维通道卷积,是注意力映射,代表每个特征的重要性,代表元素积,Y是指大内核注意力模块的输出。
根据本发明优选的,DWT模块将数据按照不同的频率间隔分解成不同的分量,用于信号处理中的抗混叠,给定输入图像P,使用Haar小波沿着行和列分别进行小波变换,分解成式(Ⅷ)、式(Ⅸ)、式(Ⅹ)、式(Ⅺ):
Pll=LPLT (Ⅷ)
Plh=HPLT (Ⅸ)
Phl=LPHT (Ⅹ)
Phh=HPHT (Ⅺ)
式(Ⅷ)、式(Ⅸ)、式(Ⅹ)、式(Ⅺ)中,L为低通滤波矩阵,H为高通滤波矩阵,P是指给定输入图像,Pll、Plh、Phl和Phh分别是图像分解后的低频分量、水平高频分量、垂直高频分量和对角高频分量;选取低频分量Pll的作为DWT模块的输出;在教师网络的最后一个阶段用小波变换代替步长为2的最大池化层,如式(Ⅻ)所示:
MaxPools=2→DWTll (Ⅻ)
式(Ⅻ)中,MaxPools=2代表步长为2的最大池化层,DWTll代表特征映射到低频分量的变换映射。
根据本发明优选的,CVA模块通过交叉注意力方法进行不同模态之间的信息融合,如式(XIII) 所示:
式(XIII)中,x,y代表不同的模态,WQ、WK、WV为CVA模块中计算query、key、value的权重矩阵、CVA(x,y)代表交叉视角注意力,dk代表key的维度,softmax()代表softmax函数。
根据本发明优选的,训练教师网络,包括:
将可穿戴传感器数据转换成二维图像,二维图像送入搭建好的教师网络中进行迭代训练100 次,获得行为分类结果。
根据本发明优选的,学生网络使用通过ImageNet数据集预训练后的BNInception网络、VGG 网络或ResNet网络。
根据本发明优选的,最小化小波蒸馏损失、交叉熵损失来训练学生网络,包括步骤如下:
(1)获取教师网络和学生网络的小波蒸馏损失;
(2)获取教师网络和学生网络的交叉熵损失;
(3)通过梯度下降方法以总损失为目标来训练学生网络,得到训练好的学生网络。
根据本发明优选的,教师网络和学生网络的小波蒸馏损失LWKD为教师网络的DWT模块的输出与学生网络的DWT模块的输出之间的L1损失,如式(XIV)所示:
教师网络和学生网络的交叉熵损失LCE如式(XV)所示:
总损失L为如式(XVI)所示:
L=(1-α)LCE+αLWKD (XVI)
式(XVI)中,α为超参数。
一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别系统,包括:
可穿戴传感器数据获取与处理模块,被配置为:获取可穿戴传感器数据并进行处理,将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;
多模态注意力空洞卷积核残差网络搭建模块,被配置为:搭建多模态注意力空洞卷积核残差网络;
教师网络训练模块,被配置为:训练教师网络;
学生网络搭建模块,被配置为:搭建学生网络;
学生网络训练模块,被配置为:最小化小波蒸馏损失、交叉熵损失来训练学生网络;
识别模块,被配置为:通过训练好的学生网络对可穿戴传感器-视频行为进行识别,得到识别结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的步骤。
本发明的有益效果为:
1、本发明为了考虑视觉传感器与可穿戴传感器数据之间的互补关系,提出了一种基于交叉注意力的多模态小波知识蒸馏算法。与现有的多数基于可穿戴传感器的行为识别方法相比,充分利用可穿戴传感器和视觉传感器信息,通过多模态交叉注意力进行不同模态信息的充分融合,利用小波知识蒸馏指导视频进行识别。
2、本发明提出了多模态注意力空洞卷积核残差网络,将注意力机制从单模态扩展到多模态特征融合,将大内核注意力模块、空洞卷积、交叉注意力集成到多注意力空洞卷积核残差模块中,增加模态信息和不同模态信息的融合。
3、本发明提出了使用可穿戴传感器数据指导视频数据进行行为识别的思想,通过小波蒸馏方法学习可穿戴传感器数据中的补充知识,通过小波变换过滤噪声,鲁棒性强。
4、本发明利用知识蒸馏方法训练小型网络,对硬件要求小,可移植性强,有很大的应用前景。
5、本发明的知识蒸馏网络,不仅可以应用在识别方向,还可拓展到其他深度学习领域。
附图说明
图1为本发明SADRM模块的结构示意图;
图2为本发明CVA模块通过交叉注意力方法进行不同模态之间的信息融合的示意图;
图3为本发明多模态注意力空洞卷积核残差网络的结构示意图;
图4为本发明一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的总体框图;
图5为本发明教师网络和学生网络训练流程示意图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,如图4所示,包括步骤如下:
获取可穿戴传感器数据并进行处理:为了使可穿戴式传感器的一维动作数据保持局部时间关系,将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;
搭建多模态注意力空洞卷积核残差网络即教师网络;
训练教师网络;
搭建学生网络;
最小化小波蒸馏损失、交叉熵损失来训练学生网络;
通过训练好的学生网络对可穿戴传感器-视频行为进行识别,得到识别结果。识别结果是指将输入的视频按照行为进行分类,比如视频中的行为是“扔东西”,通过训练好的网络识别后就归类到“扔东西”的类别中。
实施例2
根据实施例1所述的一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其区别在于:
可穿戴传感器数据处理,包括:
首先,可穿戴传感器数据(包括加速度传感器、陀螺仪传感器、方向传感器等获取的数据)有三个轴向时间序列信号(x,y,z),定义其中一个轴向信号为X={x1,…,xn},使用最小-最大归一化方法将原始信号X归一化到区间[-1,1]中,得到归一化信号如式(I)所示:
ti是指时间戳,θi是指归一化振幅的余弦角;
通过点和点之间的三角和获取时间间隔之间的相关系数,相关系数通过向量之间夹角的余弦计算,时间i和j之间的相关系数用cos(φi+φj)来计算,φi、φj分别为时间i和j的归一化振幅的余弦角;
格莱姆角场(GAF)的矩阵定义为G,如式(III)所示:
通过这种方法,格莱姆角场提供了一种新的表示风格,可以在时间戳增加以时间相关性的形式保存局部时间关系。基于可穿戴传感器的数据例如加速度、陀螺仪和方向信号的数据都是三轴样式的。因此,假设每个长度为m的三轴传感器数据都转化为一个大小为m×m的GAF矩阵,将三轴传感器数据的GAF矩阵G组装为大小为m×m×3的三通道图像表示P={Gx,Gy,Gz};m为三轴传感器数据的长度,Gx、Gy、Gz分别是三轴传感器数据x轴、y轴和z轴的GAF矩阵;
如图3所示,多模态注意力空洞卷积核残差网络包括1个卷积层(Convolution 7×7Stride 2)、 1个BN层(Batch Normal)、1个激活函数层(Leaky Relu)、4个Max Pooling层、5个SADRM模块、1个DWT模块、1个模态融合模块、1个全连接层;模态融合模块包括多个CVA模块;
如图3所示,通过卷积层、BN层、激活函数层、SADRM模块、Max Pooling层、DWT模块的搭建进行可穿戴传感器数据的特征提取,Max Pooling层进行下采样操作,DWT模块进行小波变换,多个CVA模块处理不同模态间的融合,从多个CVA模块获取的融合后的特征通过级联输入到全连接层。
因为传感器数据中包括多种模态,需要提取并融合多个模态中的最具代表性的特征。为了充分利用多个教师网络中各个模态的互补信息,将注意力机制从单模态扩展到多模态特征融合,将大内核注意力模块(Large Kernel Attention,LKA)、空洞卷积层(Dilation convolution)、交叉注意力集成到多模态注意力空洞卷积核残差网络中。
自注意力空洞卷积模块类似Inception结构,如图1所示,SADRM模块(自注意力空洞卷积模块,Self-Attention Dilation Convolution Residual Model)包括1*1卷积层、堆叠的一个1*1 卷积层和一个3*3卷积层、一个LKA模块(Large Kernel Attention,大内核注意力模块)、堆叠的2个扩张率为2的3*3空洞卷积层(Dilation convolution)和堆叠的2个扩张率为4的3*3 空洞卷积层;在网络中使用空洞卷积层可以在保持特征图中空间分辨率的前提下提取更全面的动作特征信息。
教师网络的上一层特征图输入到SADRM模块中,分别经过上述各部分的计算处理,将得到的5 个计算结果和输入特征图进行相加,形成快捷连接,最终得到SADRM模块的输出Stage,如式(Ⅵ) 所示:
式(Ⅵ)中,x为上一个阶段的输入,Conv1×1表示1×1卷积操作,Conv3×3表示3×3卷积操作, LKA表示Large Kernel Attention操作,Dila3×3表示3×3空洞卷积操作。在SADRM模块中,通过同时使用LKA模块、多个正常卷积和空洞卷积层,增加了网络的宽度和适应性,提高了网络提取不同尺度特征的能力,同时由于没有采用大的卷积核,有效控制了模型的参数,减少了计算量。另外,将残差网络中的快捷连接引入到SADRM模块中,抑制了深度神经网络常见的退化问题和梯度消失现象,增加了网络的深度,提高了模型的拟合能力。
以往普通的卷积网络架构,通常由于卷积步长和反卷积操作丢失运动细节,会影响最终的行为识别效果。在行为识别的过程中需要详细的空间信息。为了解决这个问题,一种策略是保持特征图的分辨率不变,但是会增加模型的参数数量和计算量。而空洞卷积可以在不降低特征分辨率的前提下增加卷积核的感受野。在网络中使用空洞卷积可以在保持特征图空间分辨率的前提下提取更全面的动作特征信息,这对动作的识别具有重要的意义。因此,本发明在教师网络中使用了空洞卷积来提取更多的互补信息。
每个SADRM模块中添加4个空洞卷积层,在图1中,每个SADRM模块中都添加了4个3*3的空洞卷积层,在图1中的第四条分支上的空洞卷积的膨胀率为2;第五条分支上的空洞卷积的膨胀率为4。SADRM模块中,对于堆叠的卷积层,假设第i层的感受野为RFi=a1,i×a2,i,a1,i、a2,i分别指感受野的长和宽,比如3×3是指长和宽都为3的感受野大小。第i+1层的卷积核尺寸为ki+1×ki+1,第i+1 层的空洞卷积扩张率为di+1,则第i+1层的感受野RFi+1如式(V)所示:
RFi+1=[a1,i+(ki+1-1)di+1]×[a2,i+(ki+1-1)di+1] (V)
式(V)中,RF0=1×1代表输入层的感受野。
考虑自注意力机制在2D图像问题上简单地处理成1D序列,忽视了图像的2D结构;针对高分辨率图像,计算量成指数爆炸,对处理器要求高,只考虑了空间维度信息,忽略了通道维度上的信息。为了解决这个问题,本发明使用包括注意力和卷积结合的大内核注意力模块,不仅具有自我注意力机制的适应性和长期依赖性,还具有卷积的优点,可以利用上下文信息。LKA模块如式(VI)、式(VII)所示:
Atten=Conv1×1(DW-D-Conv(DW-Conv(X))) (VI)
式(VI)、式(VII)中,是输入特征,DW-Conv是深度卷积,DW-D-Conv是深度膨胀卷积,Conv1×1代表一维通道卷积,是注意力映射,代表每个特征的重要性,代表元素积,Y是指大内核注意力模块的输出。
DWT模块(Discrete Wavelet Transform,离散小波变换)将数据按照不同的频率间隔分解成不同的分量,用于信号处理中的抗混叠,给定输入图像P,使用Haar小波沿着行和列分别进行小波变换,分解成式(Ⅷ)、式(Ⅸ)、式(Ⅹ)、式(Ⅺ):
Pll=LPLT (Ⅷ)
Plh=HPLT (Ⅸ)
Phl=LPHT (Ⅹ)
Phh=HPHT (Ⅺ)
式(Ⅷ)、式(Ⅸ)、式(Ⅹ)、式(Ⅺ)中,L为低通滤波矩阵,H为高通滤波矩阵,P是指给定输入图像,Pll、Plh、Phl和Phh分别是图像分解后的低频分量、水平高频分量、垂直高频分量和对角高频分量;低频分量Pll代表着灰度或者亮度变化比较平缓的位置,高频分量中Plh、Phl和Phh则对应着图像中灰度或者亮度变化明显的位置,例如,噪声。为此,本发明考虑选取低频分量Pll的作为DWT模块的输出;一方面,低频分量按照规定的规则保持输入层的结构,使得输入图像补丁有更好的表示。另一方面,通过失去高频分量,可以抑制一些噪声。在教师网络的最后一个阶段用小波变换代替步长为2的最大池化层,如式(Ⅻ)所示:
MaxPools=2→DWTll (Ⅻ)
式(Ⅻ)中,MaxPools=2代表步长为2的最大池化层,DWTll代表特征映射到低频分量的变换映射。
在经过前面几个模块的特征提取后,CVA模块(Cross-View Attention,交叉注意力)通过交叉注意力方法进行不同模态之间的信息融合,如式(XIII)所示:
式(XIII)中,x,y代表不同的模态,WQ、WK、WV为CVA模块中计算query、key、value的权重矩阵、CVA(x,y)代表交叉视角注意力,dk代表key的维度,softmax()代表softmax函数。区别于以往的特征融合方法,这个方法通过注意力权重来确定模态信息的重要性。在交叉视角融合过程中,保持加速度、角速度等模态的嵌入维度和深度相似。多个CVA模块通过图2的形式相互作用,以3个数据模态(M1,M2,M3)为例,其中任意2个模态(M1和M2,M1和M3,M2和M3)的交叉视角注意力(CVA)融合表示如式(XIII)所示,然后将3个CVA结果通过级联的方法连在一起,再输入到全连接层。
训练教师网络,如图5所示,包括:
将可穿戴传感器数据(加速度、陀螺仪数据)通过格莱姆角场(GAF)的方法转换成二维图像,二维图像送入搭建好的教师网络中进行迭代训练100次,获得行为分类结果。
学生网络使用通过ImageNet数据集预训练后的BNInception网络、VGG网络或ResNet网络。
最小化小波蒸馏损失、交叉熵损失来训练学生网络,如图5所示,包括步骤如下:
(1)获取教师网络和学生网络的小波蒸馏损失;
(2)获取教师网络和学生网络的交叉熵损失;
(3)通过梯度下降方法以总损失为目标来训练学生网络,得到训练好的学生网络。
一般的知识蒸馏损失为学生网络输出与教师网络输出之间的KL(Kullback-Leibler divergence)散度。和普通的知识蒸馏相比,教师网络和学生网络的小波蒸馏损失LWKD为教师网络的DWT模块的输出与学生网络的DWT模块的输出之间的L1损失,如式(XIV)所示:
式(XIV)中,ΨS为学生网络小波变换层的输出,Ψi T为教师网络i的小波变换层的输出,||·||1代表L1范数;
训练学生网络(如BNInception网络)时,总损失除了包括小波知识蒸馏损失外,还包含学生网络输出与真实标签之间的交叉熵损失,教师网络和学生网络的交叉熵损失LCE如式(XV)所示:
总损失L为如式(XVI)所示:
L=(1-α)LCE+αLWKD (XVI)
式(XVI)中,α为超参数。
选择公开数据集UTD-MHAD中的RGB视频数据和2个不同的可穿戴传感器模态数据(加速度和陀螺仪数据)。数据集包含27个不同的动作类别,由8名受试者重复4次。这个数据集有5种模式: RGB、深度、骨骼、Kinect和惯性数据。视觉传感器的数据由Kinect摄像头获得,而可穿戴传感器的数据由惯性传感器获得。
将该发明中的方法与TSN、TSM、MFLF、Logits、AT、CC方法做对比。
TSN全名为Temporal Segment Networks,采用稀疏采样的策略利用整个视频的信息,把视频分为3段,每个片段均匀地随机采样一个视频片段,并使用双流网络进行分类。
TSM全名为Temporal Shift Module,将部分信道沿时间维度进行移位,加强相邻帧之间的信息交互,具有高效、高性能的特点。
MFLF全名为Multimodal Feature-Level Fusion,提供了一种基于RGB、深度和惯性传感器的特征级融合方法,提高了人体动作分类的精度。
Logits、AT和CC三种方法是知识蒸馏方法。
本发明提出的方法设置如下:初始学习率为0.0002,迭代160次,α设为0.1。
使用UTD-MHAD数据集进行,在UTD-MHAD数据集上各个方法的识别效果(%)如表1所示。
表1
本发明的方法达到了98.61%的准确率,明显优于所列出的方法。
实施例3
一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别系统,包括:
可穿戴传感器数据获取与处理模块,被配置为:获取可穿戴传感器数据并进行处理,将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;
多模态注意力空洞卷积核残差网络搭建模块,被配置为:搭建多模态注意力空洞卷积核残差网络;
教师网络训练模块,被配置为:训练教师网络;
学生网络搭建模块,被配置为:搭建学生网络;
学生网络训练模块,被配置为:最小化小波蒸馏损失、交叉熵损失来训练学生网络;
识别模块,被配置为:通过训练好的学生网络对视频行为进行识别,得到识别结果。
实施例4
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现实施例1或2所述基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的步骤。
实施例5
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现实施例1 或2所述基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的步骤。
Claims (10)
1.一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其特征在于,包括步骤如下:
获取可穿戴传感器数据并进行处理:将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;
搭建多模态注意力空洞卷积核残差网络即教师网络;
训练教师网络;
搭建学生网络;
最小化小波蒸馏损失、交叉熵损失来训练学生网络;
通过训练好的学生网络对可穿戴传感器-视频行为进行识别,得到识别结果。
2.根据权利要求1所述的一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其特征在于,可穿戴传感器数据处理,包括:
首先,可穿戴传感器数据有三个轴向时间序列信号(x,y,z),定义其中一个轴向信号为X={x1,…,xn},使用最小-最大归一化方法将原始信号X归一化到区间[-1,1]中,得到归一化信号如式(I)所示:
ti是指时间戳,θi是指归一化振幅的余弦角;
通过点和点之间的三角和获取时间间隔之间的相关系数,相关系数通过向量之间夹角的余弦计算,时间i和j之间的相关系数用cos(φi+φj)来计算,φi、φj分别为时间i和j的归一化振幅的余弦角;
格莱姆角场的矩阵定义为G,如式(III)所示:
假设每个长度为m的三轴传感器数据都转化为一个大小为m×m的GAF矩阵,将三轴传感器数据的GAF矩阵G组装为大小为m×m×3的三通道图像表示P={Gx,Gy,Gz};m为三轴传感器数据的长度,Gx、Gy、Gz分别是三轴传感器数据x轴、y轴和z轴的GAF矩阵。
3.根据权利要求1所述的一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其特征在于,多模态注意力空洞卷积核残差网络包括1个卷积层、1个BN层、1个激活函数层、4个Max Pooling层、5个SADRM模块、1个DWT模块、1个模态融合模块、1个全连接层;模态融合模块包括多个CVA模块;
通过卷积层、BN层、激活函数层、SADRM模块、Max Pooling层、DWT模块的搭建进行可穿戴传感器数据的特征提取,Max Pooling层进行下采样操作,DWT模块进行小波变换,多个CVA模块处理不同模态间的融合,从多个CVA模块获取的融合后的特征通过级联输入到全连接层。
4.根据权利要求3所述的一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其特征在于,SADRM模块包括1*1卷积层、堆叠的一个1*1卷积层和一个3*3卷积层、一个LKA模块、堆叠的2个扩张率为2的3*3空洞卷积层和堆叠的2个扩张率为4的3*3空洞卷积层;
教师网络的上一层特征图输入到SADRM模块中,分别经过上述各部分的计算处理,将得到的5个计算结果和输入特征图进行相加,形成快捷连接,最终得到SADRM模块的输出Stage,如式(Ⅵ)所示:
式(Ⅵ)中,x为上一个阶段的输入,Conv1×1表示1×1卷积操作,Conv3×3表示3×3卷积操作,LKA表示Large Kernel Attention操作,Dila3×3表示3×3空洞卷积操作;
进一步优选的,SADRM模块中,对于堆叠的卷积层,假设第i层的感受野为RFi=a1,i×a2,i,a1,i、a2,i分别指感受野的长和宽,第i+1层的卷积核尺寸为ki+1×ki+1,第i+1层的空洞卷积扩张率为di+1,则第i+1层的感受野RFi+1如式(V)所示:
RFi+1=[a1,i+(ki+1-1)di+1]×[a2,i+(ki+1-1)di+1] (V)
式(V)中,RF0=1×1代表输入层的感受野;
进一步优选的,LKA模块如式(VI)、式(VII)所示:
Atten=Conv1×1(DW-D-Conv(DW-Conv(X))) (VI)
式(VI)、式(VII)中,是输入特征,DW-Conv是深度卷积,DW-D-Conv是深度膨胀卷积,Conv1×1代表一维通道卷积,是注意力映射,代表每个特征的重要性,代表元素积,Y是指大内核注意力模块的输出;
进一步优选的,DWT模块将数据按照不同的频率间隔分解成不同的分量,用于信号处理中的抗混叠,给定输入图像P,使用Haar小波沿着行和列分别进行小波变换,分解成式(Ⅷ)、式(Ⅸ)、式(Ⅹ)、式(Ⅺ):
Pll=LPLT (Ⅷ)
Plh=HPLT (Ⅸ)
Phl=LPHT (Ⅹ)
Phh=HPHT (Ⅺ)
式(Ⅷ)、式(Ⅸ)、式(Ⅹ)、式(Ⅺ)中,L为低通滤波矩阵,H为高通滤波矩阵,P是指给定输入图像,Pll、Plh、Phl和Phh分别是图像分解后的低频分量、水平高频分量、垂直高频分量和对角高频分量;选取低频分量Pll的作为DWT模块的输出;在教师网络的最后一个阶段用小波变换代替步长为2的最大池化层,如式(Ⅻ)所示:
MaxPools=2→DWTll (Ⅻ)
式(Ⅻ)中,MaxPools=2代表步长为2的最大池化层,DWTll代表特征映射到低频分量的变换映射;
进一步优选的,CVA模块通过交叉注意力方法进行不同模态之间的信息融合,如式(XIII)所示:
式(XIII)中,x,y代表不同的模态,WQ、WK、WV为CVA模块中计算query、key、value的权重矩阵、CVA(x,y)代表交叉视角注意力,dk代表key的维度,softmax()代表softmax函数。
5.根据权利要求1所述的一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其特征在于,训练教师网络,包括:
将可穿戴传感器数据转换成二维图像,二维图像送入搭建好的教师网络中进行迭代训练100次,获得行为分类结果。
6.根据权利要求1所述的一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法,其特征在于,最小化小波蒸馏损失、交叉熵损失来训练学生网络,包括步骤如下:
(1)获取教师网络和学生网络的小波蒸馏损失;
(2)获取教师网络和学生网络的交叉熵损失;
(3)通过梯度下降方法以总损失为目标来训练学生网络,得到训练好的学生网络;
进一步优选的,学生网络使用通过ImageNet数据集预训练后的BNInception网络、VGG网络或ResNet网络。
8.一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别系统,其特征在于,包括:
可穿戴传感器数据获取与处理模块,被配置为:获取可穿戴传感器数据并进行处理,将可穿戴传感器数据的一维时间序列信号转换为二维图像表示;
多模态注意力空洞卷积核残差网络搭建模块,被配置为:搭建多模态注意力空洞卷积核残差网络;
教师网络训练模块,被配置为:训练教师网络;
学生网络搭建模块,被配置为:搭建学生网络;
学生网络训练模块,被配置为:最小化小波蒸馏损失、交叉熵损失来训练学生网络;
识别模块,被配置为:通过训练好的学生网络对可穿戴传感器-视频行为进行识别,得到识别结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7任一所述的基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一所述的基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210938396.9A CN115294498A (zh) | 2022-08-05 | 2022-08-05 | 一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210938396.9A CN115294498A (zh) | 2022-08-05 | 2022-08-05 | 一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115294498A true CN115294498A (zh) | 2022-11-04 |
Family
ID=83827922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210938396.9A Pending CN115294498A (zh) | 2022-08-05 | 2022-08-05 | 一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115294498A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115859186A (zh) * | 2023-02-17 | 2023-03-28 | 齐鲁工业大学(山东省科学院) | 基于格拉米角场的分布式光纤传感事件识别方法及系统 |
CN116010816A (zh) * | 2022-12-28 | 2023-04-25 | 南京大学 | 基于大感受野的lrf大核注意力卷积网络活动识别方法 |
CN116580287A (zh) * | 2023-04-13 | 2023-08-11 | 南通大学 | 一种基于全局和局部特征联合约束的跨模态地点识别方法 |
CN118193948A (zh) * | 2024-03-25 | 2024-06-14 | 苏州岽睿微电子科技有限公司 | 一种基于代理注意力机制的老年人活动识别方法 |
-
2022
- 2022-08-05 CN CN202210938396.9A patent/CN115294498A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116010816A (zh) * | 2022-12-28 | 2023-04-25 | 南京大学 | 基于大感受野的lrf大核注意力卷积网络活动识别方法 |
CN116010816B (zh) * | 2022-12-28 | 2023-09-08 | 南京大学 | 基于大感受野的lrf大核注意力卷积网络活动识别方法 |
US11989935B1 (en) | 2022-12-28 | 2024-05-21 | Nanjing University | Activity recognition method of LRF large-kernel attention convolution network based on large receptive field |
CN115859186A (zh) * | 2023-02-17 | 2023-03-28 | 齐鲁工业大学(山东省科学院) | 基于格拉米角场的分布式光纤传感事件识别方法及系统 |
CN116580287A (zh) * | 2023-04-13 | 2023-08-11 | 南通大学 | 一种基于全局和局部特征联合约束的跨模态地点识别方法 |
CN118193948A (zh) * | 2024-03-25 | 2024-06-14 | 苏州岽睿微电子科技有限公司 | 一种基于代理注意力机制的老年人活动识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115294498A (zh) | 一种基于交叉注意力的多模态融合小波知识蒸馏的视频行为识别方法及系统 | |
CN111145131B (zh) | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 | |
CN111667399B (zh) | 风格迁移模型的训练方法、视频风格迁移的方法以及装置 | |
Mueggler et al. | The event-camera dataset and simulator: Event-based data for pose estimation, visual odometry, and SLAM | |
WO2021022521A1 (zh) | 数据处理的方法、训练神经网络模型的方法及设备 | |
CN117597703B (zh) | 用于图像分析的多尺度变换器 | |
CN112487217A (zh) | 跨模态检索方法、装置、设备及计算机可读存储介质 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
Naeem et al. | T-VLAD: Temporal vector of locally aggregated descriptor for multiview human action recognition | |
CN116129141B (zh) | 医学数据处理方法、装置、设备、介质和计算机程序产品 | |
CN113191489A (zh) | 二值神经网络模型的训练方法、图像处理方法和装置 | |
CN115222896B (zh) | 三维重建方法、装置、电子设备及计算机可读存储介质 | |
CN113066089A (zh) | 一种基于注意力引导机制的实时图像语义分割网络 | |
CN114708620A (zh) | 一种应用于无人机的航空视角下行人重识别方法及系统 | |
CN117788296B (zh) | 基于异构组合深度网络的红外遥感图像超分辨率重建方法 | |
CN113569735B (zh) | 基于复数坐标注意力模块的复输入特征图处理方法及系统 | |
CN113627349B (zh) | 一种基于自注意力变换网络的动态人脸表情识别方法 | |
CN108108652A (zh) | 一种基于字典学习的跨视角人体行为识别方法及装置 | |
CN113361656A (zh) | 一种特征模型的生成方法、系统、设备及存储介质 | |
CN107330382A (zh) | 基于局部卷积特征联合表示的单样本人脸识别方法及装置 | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
CN115760670A (zh) | 基于网络隐式先验的无监督高光谱融合方法及装置 | |
AU2021105870A4 (en) | A system and method for identifying pedestrians using a novel 3d inception-based person re-identification model | |
CN115527064A (zh) | 基于多阶段ViT与对比学习的毒蘑菇细粒度图像分类方法 | |
CN116432115A (zh) | 一种基于多源多模态数据和多维卷积模型的实时行为识别系统、方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |