CN112329690A - 基于时空残差网络和时序卷积网络的连续手语识别方法 - Google Patents
基于时空残差网络和时序卷积网络的连续手语识别方法 Download PDFInfo
- Publication number
- CN112329690A CN112329690A CN202011281122.4A CN202011281122A CN112329690A CN 112329690 A CN112329690 A CN 112329690A CN 202011281122 A CN202011281122 A CN 202011281122A CN 112329690 A CN112329690 A CN 112329690A
- Authority
- CN
- China
- Prior art keywords
- time
- network
- dimensional
- space
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明为基于时空残差网络和时序卷积网络的连续手语识别方法,该方法采用时空残差网络克服了完全使用三维卷积神经网络计算量大的缺点以及完全使用二维卷积神经网络短期时空特征提取不充分的缺陷;时序卷积网络增强块级特征之间的时间关联,可以在一定程度上解决RNN网络中存在的长期依赖的问题,进而在一定程度上解决CTC固有的条件独立性假设带来输出词之间的相关性缺失问题。
Description
技术领域
本发明的技术方案涉及深度学习图像处理和模式识别领域,具体地说是基于时空残差网络和时序卷积网络的连续手语识别方法。
背景技术
连续手语识别旨在识别出连续的手语视频中的每一个孤立词手语。具体的说就是利用计算机使用深度学习相关的方法提取连续手语视频中的手语特征,然后进行端到端的识别。手语识别涉及视频采集和处理、计算机视觉、人机交互、模式识别、自然语言处理等多个研究领域。
聋哑人使用的手语由大量手势、肢体动作、面部表情构成,连续手语识别一个难题是:连续手语中富含大量手语词汇,存在手势遮挡,传统的连续手语识别方法使用手工特征来描述手语动作,并基于这些特征使用一些传统的算法建立分类模型,很难设计出可靠的特性来适应手势之间的巨大复杂变化。针对连续手语识别中手势遮挡、手势变化大等问题以及传统手语识别的一些缺点,采用基于深度学习的方式来进行连续的手语识别,Koller等人在“Re-Sign:Re-Aligned End-to-End Sequence Modelling with Deep RecurrentCNN-HMMs”一文中使用CNN提取每一帧的特征,然后将提取的帧级特征输入到双向双层的LSTM网络中,建立帧与帧之间的时间联系,提取视频帧中手势变化的时间信息,该方法的缺点是:由于CNN只是独立的提取每一帧的特征,忽略了相邻帧之间的手势变化信息,并且手语视频中帧数较多,表达一个手语词的连续帧序列数目通常大于10,使用双向双层的LSTM网络建立手语词汇间的时间联系较为困难,不同手语词汇的帧级特征可能会存在相似或者相同,这样会对识别带来一定的误差。CN110096991A公开了一种基于卷积神经网络的手语识别方法,该方法首先采集手语视频的深度图像,然后通过预处理将手型部分分割出来,然后输入到CNN中进行识别,该方法的缺点是:忽略了手部关节的运动信息。CN111325099A公开一种基于双流时空图卷积神经网络的手语识别方法及系统,该方法提取手语动作视频片段中人物上半身和手部骨架点,并构建全局和局部图数据,利用双流时空图卷网络分别提取相邻视频帧全局和局部的短期时空特征,该方法的缺点是:需要复杂的预处理过程,没有对提取出来的短期时空特征建立长期的时间关联,会丢失一些时间信息。
基于深度学习的连续手语识别的另一个难题是:现存的中国手语数据集中,一个连续的手语视频包含的孤立词手语和其对应的标签并没有一一对齐,该标签具有弱监督性,需要通过深度学习的方法从大量的数据中学习这种对齐关系。基于CTC(ConnectionistTemporal Classification)的算法可以解决视频标签的弱监督问题。Camgoz等人在“SubUNets:End-to-End Hand Shape and Continuous Sign Language Recognition”使用CTC进行序列学习,建立手语视频帧和手语词汇之间的映射关系。CTC算法可以自动完成输入输出序列之间的对齐任务,解决了输入手语视频和对应标签对齐位置未知的情况下的序列到序列的分类问题。但CTC存在的缺点是条件独立性假设,即CTC的每一个输出分类都与别的输出分类独立,而连续手语识别前后是相关的。
发明内容
本发明所要解决的技术问题是:提供了一种基于时空残差网络和时序卷积网络的连续手语识别方法,该方法中利用时空残差网络克服了完全使用三维卷积神经网络计算量大的缺点以及完全使用二维卷积神经网络短期时空特征提取不充分的缺陷;时序卷积网络增强块级特征之间的时间关联,可以在一定程度上解决RNN网络中存在的长期依赖的问题,进而在一定程度上解决CTC固有的条件独立性假设带来输出词之间的相关性缺失问题。
本发明解决该技术问题所采用的技术方案是:一种基于时空残差网络和时序卷积网络的连续手语识别方法,该方法包括以下内容:
获取连续手语视频,对其进行预处理后将相邻的多帧图像串联起来形成超图,多个超图构成超图序列,具有多个超图序列;
构建时空残差网络:时空残差网络由Resnet50网络模型和三维残差连接块TCB构成,具体结构为:Conv1,Conv2_x,TCB,Conv3_x,TCB,Conv4_x,Conv5_x,Conv1为Resnet50网络模型中的卷积块,Conv2_x,Conv3_x,Conv4_x,Conv5_x为Resnet50网络模型中的残差连接块,其中三维残差连接块TCB具体操作为,首先将特征输入到一个三维卷积神经网络中,然后将三维卷积神经网络输出的特征进行批标准化,最后将三维残差连接块TCB中的原始输入特征与经过批标准化的特征相加得到的特征进行输出;
利用时空残差网络提取超图序列I中的短期时空特征,再经全局平均池化,获得最终的短期时空特征F;
利用时序卷积网络,增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′;
将上述获取的增强时间联系的块级特征F′输入到串联的三层BGRU中,提取长期时间联系的块级特征E;
以长期时间联系的块级特征E作为输入,获得归一化的分类概率矩阵Y;
基于CTC算法训练整个端到端的神经网络参数,然后使用训练好的模型将上述获得的分类概率矩阵Y进行解码,预测输出手语标签G。
该方法的具体步骤是:
第一步,输入视频V,进行预处理,获取超图序列I:
输入视频V=(v1,…,vi,…vT),其中,T为输入视频V的帧序数,其分别为原始手语图像序列的第一帧、…、第i帧、…、第T帧,将输入视频V的每帧大小都缩放到224×224像素,并将输入视频V的每个像素值都归一化到(0,1)之间,然后将连续手语视频相邻的5帧串联起来,将如此进行预处理之后的视频序列记为超图序列其中N=T/5,t=1,…,N,t为第t个5帧为一组的串联后的超图序数,超图序列I的维度为(N,15,224,225);
第二步,提取超图序列I中的短期时空特征F:
将第一步预处理得到的超图序列I输入到时空残差网络中,提取超图序列I中的短期时空特征F,其中时空残差网络由Resnet50网络模型和三维残差连接块TCB构成,具体结构为:Conv1,Conv2_x,TCB,Conv3_x,TCB,Conv4_x,Conv5_x,Conv1为Resnet50网络模型中的卷积块,Conv2_x,Conv3_x,Conv4_x,Conv5_x为Resnet50网络模型中的残差连接块,其中三维残差连接块TCB具体操作为,首先将特征输入到一个三维卷积神经网络中,然后将三维卷积神经网络输出的特征进行批标准化,最后将三维残差连接块TCB中的原始输入特征与经过批标准化的特征相加得到的特征进行输出;提取超图序列I中的短期时空特征F的具体操作为,
将第一步预处理得到的超图序列I输入到Resnet50网络模型中,经过Resnet50网络模型中的卷积块Conv1和残差连接块Conv2_x后得到空间特征I′,提取出的I′的特征维度为(N,64,112,112),
将空间特征I′输入到第一个三维残差连接块TCB提取短期时空特征,TCB(·)内部流程:首先将I′的形状转换成(1,N,64,112,112),其次将转换后的特征输入到三维卷积网络中,设置卷积核的个数为64,卷积核大小为(3,1,1),步长为(1,1,1),然后将三维卷积网络的输出输入到一个批标准化层中,接着将批标准化层的输出的形状转换为(N,64,112,112),最后将批标准化的输出与I′相加得到最终的输出;然后将经第一个三维残差连接块TCB输出的短期时空特征输入到残差连接块Conv3_x中提取空间特征I″,
将空间特征I″输入到第二个三维残差连接块TCB中进一步提取短期时空特征,然后将第二个三维残差连接块TCB输出的短期时空特征输入到Conv4_x提取空间特征,最后将Conv4_x提取到的特征输入到Conv5_x获得最终的特征Ifinal;
第三步,利用时序卷积网络,增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′:
首先,将上述第二步获取的短期时空特征F的维度通过reshape函数转换成(1,N,2048,1),然后使用深度学习框架中的一个函数transpose将时间这个维度转换到第三维,转换后的特征维度为(1,2048,N,1),将转换维度后的短期时空特征输入到一个批标准化层中,将该批标准化层的输出输入到第一个二维卷积神经网络中,得到输出att1_1,
其次,将att1_1输入到第二个二维卷积神经网络中,将该二维卷积神经网络的输出输入到一个批标准化层中,设置激活函数为relu,得到输出att1_2,
然后,将att1_2输入到第三个二维卷积神经网络中,将该二维卷积神经网络的输出输入到第四个二维卷积神经网络中,得到输出att1_3,实现在时间维度上的卷积,
接着,将上述第二步获取的短期时空特征F的维度通过reshape函数转换成(1,N,2048,1),然后使用深度学习框架中的一个函数transpose将时间这个维度转换到第三维,转换后的特征维度为(1,2048,N,1),将其输入到一个批标准化层中,将该批标准化层的输出输入到第五个二维卷积神经网络中,得到输出att2,第五个二维卷积神经网络与第四个二维卷积神经网络的卷积核数量相同;
第四步,提取增强时间联系的块级特征F′的长期时间联系的块级特征E:
公式(11)中RNNGroup(·)是为提取F′具有长期时间联系的块级特征的函数,RNNGroup(·)由串联的三层双向双层的门控循环单元组成;
第五步,获得归一化的分类概率矩阵Y:
将第四步获取的长期时间联系的块级特征E输入到一个softmax激活函数中,E中的每一个向量中的数值都被转换为概率值,并且这些概率值的加和为1,通过softmax激活函数获得分类概率矩阵的表达为公式(12),
公式(12)中Wfc为全连接层的参数矩阵,bfc为偏置值,全连接层的输出大小为数据集的词汇量大小,即Y的维度大小为(N,1232),通过softmax函数将输出转变成归一化的分类概率,
第六步,训练神经网络,预测输出手语标签G:
该步骤包含两方面的内容,训练和预测;首先使用训练集训练整个端到端的神经网络的参数,然后使用训练好的模型将上述第五步获得的分类概率矩阵Y进行解码,预测输出手语标签G,具体操作如下,
第6.1步,构建链接时序分类网络损失函数Lctc,训练神经网络:
将上述第五步获得归一化的分类概率矩阵Y以及对应的训练集标签序列S输入到链接时序分类网络中,加和所有可能路径的条件概率获得最终的条件概率P(S|Y)的表达为公式(13),
公式(13)中,∏=(π1,…,πi,…πs),在链接时序分类网络中引入一个空白标签(*)作为辅助标记,πi∈Ω∪{*},Ω是手语词汇表,∏是Y解码后的一个可能的序列,定义一个多对一的映射B,B用来移除∏中的重复标签和空格,p(∏|Y)为通过Y解码出的某个序列的条件概率,P(S|Y)为所有可能路径的条件概率之和,使用P(S|Y)构建链接时序分类网络损失函数Lctc的表达为公式(14),
Lctc=-lnP(S|Y) (14),
公式(14)中-ln(·)为求解一个数自然对数的相反数的函数,
第6.2步,根据训练好的模型参数对Y进行解码,预测输出测试集手语标签G:
将第五步获得归一化的分类概率矩阵Y,采用贪婪解码策略进行解码,预测输出手语标签G的表达为公式(15),
G=CGD(Y) (15),
公式(15)中CGD(·)是使用贪婪解码策略对Y进行解码的解码函数,
至此完成预测输出手语标签G;
至此完成基于时空残差网络网络以及时序卷积网络的连续手语识别。
与现有技术相比,本发明的有益效果是:
本发明突出的实质性特点如下:
(1)本发明中时空残差网络为2D与3D相结合的网络,既降低了网络的参数量,计算量,又提升了网络的深度,避免完全使用3D残差连接而导致网络的参数量巨大、时间成本和算力成本增加、只能有效的提取短期时空特征而不能有效获得长时时空特征的问题。本申请中的连续手语视频手语词汇较长时,借助时序卷积网络,该时序卷积网络在时间维度上对视频特征进行卷积,可以增强第二步中提取的短期时空特征F之间的时间关联,即手语词汇的长时时空特征,能有效的获取手语词汇的长时时空特征。本申请将连续手语视频相邻的5帧串联起来,形成块级特征,不需要对每一个帧级特征单独提取去形成块级特征,不存在相邻的块级特征之间的重叠,不会造成特征冗余。
(2)本申请将手语视频从初始阶段就分割成一个个的块级特征,所以一个孤立词手语所对应的特征一定是由这一个个块级特征组成,后续使用本申请提出时空残差网络和时序卷积网络分别提取短期时空特征和增强这些短期时空特征之间的长期时间关联,最后再使用3层串联BGRU+CTC的这种结构将这些块级特征映射为最终的手语词,能够精准识别需要每一个孤立词手语的开始结束的监督信息,实现连续手语的识别。
本发明的显著进步是:
(1)本发明方法与CN110096991A相比,本发明方法所具有的优点是可以有效提取短期时空特征,并且对特征块之间的时间特征也进行建模,提高了识别效果。
(2)本发明方法使用改进的Resnet50,在原Resnet50的第一个和第二个残差块的下面分别添加了一个三维残差连接块TCB,使Resnet50具有提取短期时空特征的能力,而且比完全使用三维卷积神经网络大大降低了参数数量,降低计算量。相比AlexNet具有更强的特征提取能力,而且不需要使用计算量较大的k-means聚类,直接使用CTC就可以进行端到端的预测。
(3)本发明方法与CN111325099A相比,本发明方法所具有的优点是本实验不需要对图片数据进行额外的预处理,直接使用原始的帧作为输入,利用时空残差网络可以充分的提取特征。在时空卷积的基础上添加了特征块之间的时间卷积,加强了前后手势的时间关联,提高了识别效果。
(4)本发明方法提出了一种时空残差网络,先将视频帧序列中连续的多帧进行通道堆叠,形成一个包含短期时空特征的超图序列,然后用时空残差网络提取每个超图序列中短期的时空特征形成块级特征,这样不仅降低了计算量,还充分提取连续视频帧中短期的时空特征。
(5)本发明方法提出了一个时序卷积网络,通过将提取的块级特征输入到时序卷积网络增强块级特征之间的时间关联,在一定程度上解决了RNN网络中存在的长期依赖的问题,进而在一定程度上解决了CTC固有的条件独立性假设带来输出词之间的相关性缺失问题。
(6)本发明方法使用了RNNGroup,多层堆叠的BGRU更有利于块级特征之间时间联系的建立,使CTC和时序卷积网络一起使用,解决了CTC固有的条件独立性假设带来输出词之间的相关性缺失问题,提高了网络的时序建模能力,CTC的识别效果好,本申请中使用的块级特征以及时序卷积网络也在一定程度上解决RNN长期依赖的问题。
(7)本发明方法不仅可以识别单个的手语,而且可以识别连续的手语,相当于一连串的动作识别,最后的标签是一个句子,具有更强的可扩展性和应用型。本发明方法考虑到了短期的手势变化的信息,即短期的时空特征,能够提取手势特征以及短期的时空特征,使得整个网络对手势以及手形的变化更加敏感,提高了识别精度;对时空信息的提取更加细致全面,降低了计算量,增加了网络深度,增强了鲁棒性。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明基于时空残差网络和时序卷积网络的连续手语识别方法流程示意框图。
图2是时序卷积网络提取特征的流程示意图。
具体实施方式
图1所示实施例表明,本发明基于时空残差网络和时序卷积网络的连续手语识别方法的流程如下:
输入视频V,进行预处理,获取超图序列I→提取超图序列I中的短期时空特征F→利用时序卷积网络,增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′→提取增强时间联系的块级特征F′的长期时间联系的块级特征E→获得归一化的分类概率矩阵Y→预测输出手语标签S→完成连续的手语识别。
图2所示实施例表明,本发明基于时序卷积网络增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′的流程如下:
首先,将F的维度转换成(1,2048,N,1),将其输入到一个批标准化层中,将该批标准化层的输出输入到一个二维卷积神经网络中,得到输出att1_1→其次,将att1_1输入到一个二维卷积神经网络中,将该二维卷积神经网络的输出输入到一个批标准化层中,设置激活函数为relu,得到输出att1_2→然后,将att1_2输入到一个二维卷积神经网络中,将该二维卷积神经网络的输出输入到下一个二维卷积神经网络中,得到输出att1_3→接着,将上述F的维度转换成(1,2048,N,1),将其输入到一个批标准化层中,将该批标准化层的输出输入到一个二维卷积神经网络中,得到输出att2→最后,将att2与att1_3相加,将相加的结果输入到一个批标准化层中,设置激活函数为relu,得到最终增强时间联系的块级特征F′。
本申请中时序卷积网络具有多个二维卷积神经网络(conv2d),多个二维卷积神经网络(conv2d)中卷积核的大小,数目以及卷积步长,分组数不太相同。
第一个二维卷积神经网络设置卷积核的个数为2048,分组数为2048,卷积核大小为[3,1],步长为[1,1];
第二个二维卷积神经网络设置卷积核的个数为1024,分组数为1,卷积核大小为[1,1],步长为[1,1];
第三个二维卷积神经网络设置卷积核的个数为1024,分组数也为1024,卷积核大小为[3,1],步长为[1,1];
第四个二维卷积神经网络设置卷积核的个数为1024,分组数为1,卷积核大小为[3,1],步长为[1,1];
第五个二维卷积神经网络设置卷积核的个数为1024,分组数为1,卷积核大小为[1,1],步长为[1,1]。
一般一个孤立词手语包含的手语视频帧数大致为15帧,本申请中将一个孤立词对应的手语视频帧数分成三份,每份5帧,以连续的5帧图像作为一个超图输入到时空残差网络中,可以获得该超图的块级特征,一个连续的手语视频远大于15帧,将连续的手语视频都按照超图形式进行处理,每个超图中可能不能完全包含一个完整的孤立词手语,但由于超图构成的超图序列与时序卷积网络的联合使用可以对这些块级特征建立长期的时间关联,而不用考虑该块级特征是否包含一个完整的孤立词手语,也不会造成特征冗余。
三维残差连接块TCB的具体结构是:包括reshape层、三维卷积层conv3d、批标准化层、reshape层、元素相加层(element-add),reshape函数用于重新调整矩阵的形状,输入特征的维度为(N,C,H,W),首先经一个reshape层调整为适合conv3d输入的形状,此处是将输入特征的形状调整为(1,N,C,H,W),接着将调整后的特征输入到批标准化层中,然后将批标准化层的输出输入到下一个reshape层将形状再调整为(N,C,H,W),最后将reshape的输出与三维残差连接块TCB的初始输入相加得到最终的输出。C,H,W分别为输入图的长、高、宽。
实施例1
本实施例的基于时空残差网络和时序卷积网络,具体步骤如下:
第一步,输入视频V,进行预处理,获取超图序列I:
输入视频V=(v1,…,vi,…vT),其中,T为输入视频V的帧序数,其分别为原始手语图像序列的第一帧、…、第i帧、…、第T帧,将输入视频V的每帧大小都缩放到224×224像素,并将视频V的每个像素值都归一化到(0,1)之间,然后将连续手语视频相邻的5帧串联起来,将如此进行预处理之后的视频序列记为超图序列其中N=T/5,t=1,…,N,t为第t个5帧为一组的串联后的超图序数,超图序列I的维度为(N,15,224,225),超图序列I表达为如下公式(1)所示,
公式(1)中,Resize(·)表示调整视频维度大小的函数,Normalize(·)为归一化函数,可以将图片的像素值归一化到(0,1)之间,
第二步,提取超图序列I中的短期时空特征F:
将第一步预处理得到的超图序列I输入到时空残差网络中,提取超图序列I中的短期时空特征F,其中时空残差网络由Resnet50网络模型和三维残差连接块TCB构成,具体结构为:Conv1,Conv2_x,TCB,Conv3_x,TCB,Conv4_x,Conv5_x,Conv1为Resnet50网络模型中的卷积块,Conv2_x,Conv3_x,Conv4_x,Conv5_x为Resnet50网络模型中的残差连接块,其中三维残差连接块TCB具体操作为,首先将特征输入到一个三维卷积神经网络中,然后将三维卷积神经网络输出的特征进行批标准化,最后将三维残差连接块TCB中的原始输入特征与经过批标准化的特征相加得到的特征进行输出,提取超图序列I中的短期时空特征F的具体操作为,
将第一步预处理得到的超图序列I输入到Resnet50网络模型中,经过Resnet50网络模型中的卷积块Conv1和残差连接块Conv2_x后得到空间特征I′表达为如下公式(2)所示,
I′=fConv2_x(fConv1(I)) (2),公式(2)中,fConv1(·)和fConv2_x(·)为提取空间特征的函数,提取出的I′的特征维度为(N,64,112,112);
将公式(2)获取的空间特征I′输入到第一个三维残差连接块TCB提取短期时空特征,TCB(·)内部流程:首先将I′的形状转换成(1,N,64,112,112),其次将转换后的特征输入到三维卷积网络中,设置卷积核的个数为64,卷积核大小为(3,1,1),步长为(1,1,1),然后将三维卷积网络的输出输入到一个批标准化层中,接着将批标准化层的输出的形状转换为(N,64,112,112),最后将批标准化的输出与I′相加得到最终的输出;
然后将该短期时空特征输入到残差连接块Conv3_x中提取空间特征I″表达为如下公式(3)所示,
I″=fConv3_x(TCB(I′)) (3),
公式(3)中,TCB(·)为提取短期时空特征的函数,fConv3_x(·)为提取空间特征的函数,
将公式(3)获取的特征I″输入到第二个三维残差连接块TCB中进一步提取短期时空特征,然后将该短期时空特征输入到Conv4_x提取空间特征,最后将Conv4_x提取到的特征输入到Conv5_x获得最终的特征Ifinal表达为如下公式(4)所示,
Ifinal=fConv5_x(fConv4_x(TCB(I″))) (4),
公式(4)中,fConv4_x(·)和fConv5_x(·)为提取空间特征的函数,
公式(5)中,meanpooling为全局平均池化,
第三步,利用时序卷积网络,增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′:
首先,将上述第二步获取的短期时空特征F的维度通过reshape函数转换成(1,N,2048,1),然后使用深度学习框架中的一个函数transpose将时间这个维度转换到第三维,目的是可以在时间这个维度上进行卷积,转换后的特征维度为(1,2048,N,1),将其输入到一个批标准化层中,将该批标准化层的输出输入到一个二维卷积神经网络中,设置卷积核的个数为2048,分组数为2048,卷积核大小为[3,1],步长为[1,1],得到输出att1_1,提取特征att1_1的表达如下公式(6)所示,
att1_1=conv2d(BN(transpose(reshape(F)))) (6),
公式(6)中,transpose(·)为转换F维度的函数,BN(·)为批标准化函数,conv2d(·)为二维卷积函数,
其次,将att1_1输入到二维卷积神经网络中,设置卷积核的个数为1024,分组数为1,卷积核大小为[1,1],步长为[1,1],将该二维卷积神经网络的输出输入到一个批标准化层中,设置激活函数为relu,得到输出att1_2,提取特征att1_2的表达式下公式(7)所示,
att1_2=relu(BN(conv2d(att1_1))) (7),
公式(7)中,conv2d(·)为二维卷积函数,BN(·)为批标准化函数,relu(·)为一种非线性激活函数,
然后,将att1_2输入到一个二维卷积神经网络中,设置卷积核的个数为1024,分组数也为1024,卷积核大小为[3,1],步长为[1,1],将该二维卷积神经网络的输出输入到下一个二维卷积神经网络中,设置卷积核的个数为1024,分组数为1,卷积核大小为[3,1],步长为[1,1],得到输出att1_3,提取特征att1_3的公式如(8)所示,
att1_3=conv2d(conv2d(att1_2)) (8),
公式(8)中,conv2d(·)为二维卷积函数,
接着,将上述第二步获取的短期时空特征F的维度通过reshape函数转换成(1,N,2048,1),然后使用深度学习框架中的一个函数transpose将时间这个维度转换到第三维,目的是可以在时间这个维度上进行卷积,转换后的特征维度为(1,2048,N,1),将其输入到一个批标准化层中,将该批标准化层的输出输入到一个二维卷积神经网络中,设置卷积核的个数为1024,分组数为1,卷积核大小为[1,1],步长为[1,1],得到输出att2,提取特征att2的表达如下公式(9)所示,
att2=conv2d(BN(transpose(reshape(F)))) (9),
公式(9)中,transpose(·)为转换F维度的函数,BN(·)为批标准化函数,conv2d(·)为二维卷积函数,
最后,将att2与att1_3相加,将相加的结果输入到一个批标准化层中,设置激活函数为relu,得到最终增强时间联系的块级特征F′的维度为(N,1024),提取增强时间联系的块级特征F′表达为如下公式(10)所示,
公式(10)中,BN(·)为批标准化函数,relu(·)为一种非线性激活函数,
第四步,提取增强时间联系的块级特征F′的长期时间联系的块级特征E:
公式(11)中RNNGroup(·)是为提取F′具有长期时间联系的块级特征的函数,RNNGroup(·)由串联的三层双向双层的门控循环单元组成,双向双层的门控循环单元组成英文缩写BGRU,全称为Bi-directional Gated Recurrent Unit,为公知的算法,三层双向双层的门控循环单元(简称为RNNGroup)是将三个BGRU串联形成。
第五步,获得归一化的分类概率矩阵Y:
将第四步获取的长期时间联系的块级特征E输入到一个softmax激活函数中,E中的每一个向量中的数值都被转换为概率值,并且这些概率值的加和为1,通过softmax激活函数获得分类概率矩阵的表达为如下公式(12)所示,
公式(12)中Wfc为全连接层的参数矩阵,bfc为偏置值,全连接层的输出大小为数据集的词汇量大小,即Y的维度大小为(N,1232),通过softmax函数将输出转变成归一化的分类概率,
第六步,训练神经网络,预测输出手语标签G:
该步骤包含两方面的内容,训练和预测;首先使用训练集整个端到端的神经网络的参数,然后使用训练好的模型将上述第五步获得的分类概率矩阵Y进行解码,预测输出手语标签G,具体操作如下,
第6.1步,构建链接时序分类(CTC)网络损失函数Lctc,训练神经网络:
将上述第五步获得归一化的分类概率矩阵Y以及对应的训练集标签序列S输入到链接时序分类网络中,加和所有可能路径的条件概率获得最终的条件概率P(S|Y)的表达为如下公式(13)所示,
公式(13)中,∏=(π1,…,πi,…πs),在链接时序分类网络中引入一个空白标签(*)作为辅助标记,πi∈Ω∪{*},Ω是手语词汇表,∏是Y解码后的一个可能的序列,定义一个多对一的映射B,B用来移除∏中的重复标签和空格,p(∏|Y)为通过Y解码出的某个序列的条件概率,P(S|Y)为所有可能路径的条件概率之和,使用P(S|Y)构建链接时序分类网络损失函数Lctc的表达为如下公式(14)所示,
Lctc=-lnP(S|Y) (14),
公式(14)中-ln(·)为求解一个数自然对数的相反数的函数,
第6.2步,根据训练好的模型参数对Y进行解码,预测输出测试集手语标签G:
将第五步获得归一化的分类概率矩阵Y,采用贪婪解码策略进行解码,预测输出手语标签G的表达为如下公式(15)所示,
G=CGD(Y) (15),
公式(15)中CGD(·)是使用贪婪策略对Y进行解码的解码函数,
至此完成预测输出手语标签G;
至此完成基于时空残差网络网络和时序卷积网络的连续手语识别。
本发明中所述的神经网络包括时空残差、时序卷积、RNNGrooup和CTC所构成的一个端到端的整个网络。
上述一种基于时空残差网络网络以及时序卷积网络的连续手语识别方法,其中的双向双层的门控循环单元英文缩写BGRU,全称为Bi-directional Gated Recurrent Unit,链接时序分类网络英文缩写为CTC,全称为Connectionist Temporal Classification,贪婪解码策略英文缩写为CGD,全称为CTC Greedy Decoder,50层残差网络英文简写为Resnet50,全称为Residual Network 50,为本技术领域公知的算法。
本发明未述及之处适用于现有技术。
Claims (5)
1.一种基于时空残差网络和时序卷积网络的连续手语识别方法,该方法包括以下内容:
获取连续手语视频,对其进行预处理后将相邻的多帧图像串联起来形成超图,多个超图构成超图序列,具有多个超图序列;
构建时空残差网络:时空残差网络由Resnet50网络模型和三维残差连接块TCB构成,具体结构为:Conv1,Conv2_x,TCB,Conv3_x,TCB,Conv4_x,Conv5_x,Conv1为Resnet50网络模型中的卷积块,Conv2_x,Conv3_x,Conv4_x,Conv5_x为Resnet50网络模型中的残差连接块,其中三维残差连接块TCB具体操作为,首先将特征输入到一个三维卷积神经网络中,然后将三维卷积神经网络输出的特征进行批标准化,最后将三维残差连接块TCB中的原始输入特征与经过批标准化的特征相加得到的特征进行输出;
利用时空残差网络提取超图序列I中的短期时空特征,再经全局平均池化,获得最终的短期时空特征F;
利用时序卷积网络,增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′;
将上述获取的增强时间联系的块级特征F′输入到串联的三层BGRU中,提取长期时间联系的块级特征E;
以长期时间联系的块级特征E作为输入,获得归一化的分类概率矩阵Y;
基于CTC算法训练整个端到端的神经网络参数,然后使用训练好的模型将上述获得的分类概率矩阵Y进行解码,预测输出手语标签G。
2.根据权利要求1所述的连续手语识别方法,其特征在于,所述三维残差连接块TCB中三维卷积神经网络的卷积核的个数为64,卷积核大小为(3,1,1),步长为(1,1,1)。
3.根据权利要求1所述的连续手语识别方法,其特征在于,超图中图像帧数为4~6帧。
4.一种基于时空残差网络和时序卷积网络的连续手语识别方法,该方法的具体步骤是:
第一步,输入视频V,进行预处理,获取超图序列I:
输入视频V=(v1,…,vi,…vT),其中,T为输入视频V的帧序数,其分别为原始手语图像序列的第一帧、…、第i帧、…、第T帧,将输入视频V的每帧大小都缩放到224×224像素,并将输入视频V的每个像素值都归一化到(0,1)之间,然后将连续手语视频相邻的5帧串联起来,将如此进行预处理之后的视频序列记为超图序列其中N=T/5,t=1,...,N,t为第t个5帧为一组的串联后的超图序数,超图序列I的维度为(N,15,224,225);
第二步,提取超图序列I中的短期时空特征F:
将第一步预处理得到的超图序列I输入到时空残差网络中,提取超图序列I中的短期时空特征F,其中时空残差网络由Resnet50网络模型和三维残差连接块TCB构成,具体结构为:Conv1,Conv2_x,TCB,Conv3_x,TCB,Conv4_x,Conv5_x,Conv1为Resnet50网络模型中的卷积块,Conv2_x,Conv3_x,Conv4_x,Conv5_x为Resnet50网络模型中的残差连接块,其中三维残差连接块TCB具体操作为,首先将特征输入到一个三维卷积神经网络中,然后将三维卷积神经网络输出的特征进行批标准化,最后将三维残差连接块TCB中的原始输入特征与经过批标准化的特征相加得到的特征进行输出;提取超图序列I中的短期时空特征F的具体操作为,
将第一步预处理得到的超图序列I输入到Resnet50网络模型中,经过Resnet50网络模型中的卷积块Conv1和残差连接块Conv2_x后得到空间特征I′,提取出的I′的特征维度为(N,64,112,112),
将空间特征I′输入到第一个三维残差连接块TCB提取短期时空特征,TCB(·)内部流程:首先将I′的形状转换成(1,N,64,112,112),其次将转换后的特征输入到三维卷积网络中,设置卷积核的个数为64,卷积核大小为(3,1,1),步长为(1,1,1),然后将三维卷积网络的输出输入到一个批标准化层中,接着将批标准化层的输出的形状转换为(N,64,112,112),最后将批标准化的输出与I′相加得到最终的输出;然后将经第一个三维残差连接块TCB输出的短期时空特征输入到残差连接块Conv3_x中提取空间特征I″,
将空间特征I″输入到第二个三维残差连接块TCB中进一步提取短期时空特征,然后将第二个三维残差连接块TCB输出的短期时空特征输入到Conv4_x提取空间特征,最后将Conv4_x提取到的特征输入到Conv5_x获得最终的特征Ifinal;
第三步,利用时序卷积网络,增强短期时空特征F之间的时间关联,获得增强时间联系的块级特征F′:
首先,将上述第二步获取的短期时空特征F的维度通过reshape函数转换成(1,N,2048,1),然后使用深度学习框架中的一个函数transpose将时间这个维度转换到第三维,转换后的特征维度为(1,2048,N,1),将转换维度后的短期时空特征输入到一个批标准化层中,将该批标准化层的输出输入到第一个二维卷积神经网络中,得到输出att1_1,
其次,将att1_1输入到第二个二维卷积神经网络中,将该二维卷积神经网络的输出输入到一个批标准化层中,设置激活函数为relu,得到输出att1_2,
然后,将att1_2输入到第三个二维卷积神经网络中,将该二维卷积神经网络的输出输入到第四个二维卷积神经网络中,得到输出att1_3,实现在时间维度上的卷积,
接着,将上述第二步获取的短期时空特征F的维度通过reshape函数转换成(1,N,2048,1),然后使用深度学习框架中的一个函数transpose将时间这个维度转换到第三维,转换后的特征维度为(1,2048,N,1),将其输入到一个批标准化层中,将该批标准化层的输出输入到第五个二维卷积神经网络中,得到输出att2,第五个二维卷积神经网络与第四个二维卷积神经网络的卷积核数量相同;
第四步,提取增强时间联系的块级特征F′的长期时间联系的块级特征E:
公式(11)中RNNGroup(·)是为提取F′具有长期时间联系的块级特征的函数,RNNGroup(·)由串联的三层双向双层的门控循环单元组成;
第五步,获得归一化的分类概率矩阵Y:
将第四步获取的长期时间联系的块级特征E输入到一个softmax激活函数中,E中的每一个向量中的数值都被转换为概率值,并且这些概率值的加和为1,通过softmax激活函数获得分类概率矩阵的表达为公式(12),
公式(12)中Wfc为全连接层的参数矩阵,bfc为偏置值,全连接层的输出大小为数据集的词汇量大小,即Y的维度大小为(N,1232),通过softmax函数将输出转变成归一化的分类概率,
第六步,训练神经网络,预测输出手语标签G:
该步骤包含两方面的内容,训练和预测;首先使用训练集训练整个端到端的神经网络的参数,然后使用训练好的模型将上述第五步获得的分类概率矩阵Y进行解码,预测输出手语标签G,具体操作如下,
第6.1步,构建链接时序分类网络损失函数Lctc,训练神经网络:
将上述第五步获得归一化的分类概率矩阵Y以及对应的训练集标签序列S输入到链接时序分类网络中,加和所有可能路径的条件概率获得最终的条件概率P(S|Y)的表达为公式(13),
公式(13)中,∏=(π1,…,πi,…πs),在链接时序分类网络中引入一个空白标签(*)作为辅助标记,πi∈Ω∪{*},Ω是手语词汇表,∏是Y解码后的一个可能的序列,定义一个多对一的映射B,B用来移除∏中的重复标签和空格,p(∏|Y)为通过Y解码出的某个序列的条件概率,P(S|Y)为所有可能路径的条件概率之和,使用P(S|Y)构建链接时序分类网络损失函数Lctc的表达为公式(14),
Lctc=-InP(S|Y) (14),
公式(14)中-ln(·)为求解一个数自然对数的相反数的函数,
第6.2步,根据训练好的模型参数对Y进行解码,预测输出测试集手语标签G:
将第五步获得归一化的分类概率矩阵Y,采用贪婪解码策略进行解码,预测输出手语标签G的表达为公式(15),
G=CGD(Y) (15),
公式(15)中CGD(·)是使用贪婪解码策略对Y进行解码的解码函数,
至此完成预测输出手语标签G;
至此完成基于时空残差网络以及时序卷积网络的连续手语识别。
5.根据权利要求4所述的连续手语识别方法,其特征在于,第一个二维卷积神经网络设置卷积核的个数为2048,分组数为2048,卷积核大小为[3,1],步长为[1,1];
第二个二维卷积神经网络设置卷积核的个数为1024,分组数为1,卷积核大小为[1,1],步长为[1,1];
第三个二维卷积神经网络设置卷积核的个数为1024,分组数也为1024,卷积核大小为[3,1],步长为[1,1];
第四个二维卷积神经网络设置卷积核的个数为1024,分组数为1,卷积核大小为[3,1],步长为[1,1];
第五个二维卷积神经网络设置卷积核的个数为1024,分组数为1,卷积核大小为[1,1],步长为[1,1]。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011281122.4A CN112329690B (zh) | 2020-11-16 | 2020-11-16 | 基于时空残差网络和时序卷积网络的连续手语识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011281122.4A CN112329690B (zh) | 2020-11-16 | 2020-11-16 | 基于时空残差网络和时序卷积网络的连续手语识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112329690A true CN112329690A (zh) | 2021-02-05 |
CN112329690B CN112329690B (zh) | 2022-08-05 |
Family
ID=74319219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011281122.4A Active CN112329690B (zh) | 2020-11-16 | 2020-11-16 | 基于时空残差网络和时序卷积网络的连续手语识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329690B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112953565A (zh) * | 2021-01-19 | 2021-06-11 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
CN113033495A (zh) * | 2021-04-30 | 2021-06-25 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113283400A (zh) * | 2021-07-19 | 2021-08-20 | 成都考拉悠然科技有限公司 | 一种基于选择性超图卷积网络的骨架动作识别方法 |
CN113313056A (zh) * | 2021-06-16 | 2021-08-27 | 中国科学技术大学 | 基于紧致3d卷积的唇语识别方法、系统、设备及存储介质 |
CN113361355A (zh) * | 2021-05-28 | 2021-09-07 | 同济大学 | 联合多时相特征的遥感影像地表要素识别方法及存储介质 |
CN113807318A (zh) * | 2021-10-11 | 2021-12-17 | 南京信息工程大学 | 一种基于双流卷积神经网络和双向gru的动作识别方法 |
CN113963435A (zh) * | 2021-10-07 | 2022-01-21 | 哈尔滨理工大学 | 一种基于图卷积神经网络的人体行为识别系统 |
CN114155604A (zh) * | 2021-12-03 | 2022-03-08 | 哈尔滨理工大学 | 一种基于3d卷积神经网络的动态手势识别方法 |
CN115294641A (zh) * | 2021-05-02 | 2022-11-04 | 南通智行未来车联网创新中心有限公司 | 一种基于时间卷积网络的端到端唇读视频识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334589A (zh) * | 2019-05-23 | 2019-10-15 | 中国地质大学(武汉) | 一种基于空洞卷积的高时序3d神经网络的动作识别方法 |
US20200005028A1 (en) * | 2018-06-28 | 2020-01-02 | Atlassian Pty Ltd | Automatic machine recognition of sign language gestures |
KR20200001902A (ko) * | 2018-06-28 | 2020-01-07 | 주식회사 이큐포올 | 수어 인식 인공신경망 학습데이터 생성방법과 시스템 및 변형 애니메이션 데이터 생성시스템 |
CN111028150A (zh) * | 2019-11-28 | 2020-04-17 | 武汉大学 | 一种快速时空残差注意力视频超分辨率重建方法 |
-
2020
- 2020-11-16 CN CN202011281122.4A patent/CN112329690B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200005028A1 (en) * | 2018-06-28 | 2020-01-02 | Atlassian Pty Ltd | Automatic machine recognition of sign language gestures |
KR20200001902A (ko) * | 2018-06-28 | 2020-01-07 | 주식회사 이큐포올 | 수어 인식 인공신경망 학습데이터 생성방법과 시스템 및 변형 애니메이션 데이터 생성시스템 |
CN110334589A (zh) * | 2019-05-23 | 2019-10-15 | 中国地质大学(武汉) | 一种基于空洞卷积的高时序3d神经网络的动作识别方法 |
CN111028150A (zh) * | 2019-11-28 | 2020-04-17 | 武汉大学 | 一种快速时空残差注意力视频超分辨率重建方法 |
Non-Patent Citations (2)
Title |
---|
CHRISTOPH FEICHTENHOFER: "Spatiotemporal Multiplier Networks for Video Action Recognition", 《CVPR》, 31 December 2017 (2017-12-31), pages 4768 - 4777 * |
蔡强: "基于深度学习的人体行为识别方法综述", 《计算机科学》, 6 March 2019 (2019-03-06), pages 85 - 93 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112953565B (zh) * | 2021-01-19 | 2022-06-14 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
CN112953565A (zh) * | 2021-01-19 | 2021-06-11 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
CN113033495A (zh) * | 2021-04-30 | 2021-06-25 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113033495B (zh) * | 2021-04-30 | 2022-08-02 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN115294641A (zh) * | 2021-05-02 | 2022-11-04 | 南通智行未来车联网创新中心有限公司 | 一种基于时间卷积网络的端到端唇读视频识别方法 |
CN113361355B (zh) * | 2021-05-28 | 2022-11-18 | 同济大学 | 联合多时相特征的遥感影像地表要素识别方法及存储介质 |
CN113361355A (zh) * | 2021-05-28 | 2021-09-07 | 同济大学 | 联合多时相特征的遥感影像地表要素识别方法及存储介质 |
CN113313056A (zh) * | 2021-06-16 | 2021-08-27 | 中国科学技术大学 | 基于紧致3d卷积的唇语识别方法、系统、设备及存储介质 |
CN113283400B (zh) * | 2021-07-19 | 2021-11-12 | 成都考拉悠然科技有限公司 | 一种基于选择性超图卷积网络的骨架动作识别方法 |
CN113283400A (zh) * | 2021-07-19 | 2021-08-20 | 成都考拉悠然科技有限公司 | 一种基于选择性超图卷积网络的骨架动作识别方法 |
CN113963435A (zh) * | 2021-10-07 | 2022-01-21 | 哈尔滨理工大学 | 一种基于图卷积神经网络的人体行为识别系统 |
CN113807318A (zh) * | 2021-10-11 | 2021-12-17 | 南京信息工程大学 | 一种基于双流卷积神经网络和双向gru的动作识别方法 |
CN113807318B (zh) * | 2021-10-11 | 2023-10-31 | 南京信息工程大学 | 一种基于双流卷积神经网络和双向gru的动作识别方法 |
CN114155604A (zh) * | 2021-12-03 | 2022-03-08 | 哈尔滨理工大学 | 一种基于3d卷积神经网络的动态手势识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112329690B (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112329690B (zh) | 基于时空残差网络和时序卷积网络的连续手语识别方法 | |
Ma et al. | Au r-cnn: Encoding expert prior knowledge into r-cnn for action unit detection | |
Zhou et al. | Spatial-temporal multi-cue network for continuous sign language recognition | |
Zhou et al. | ECFFNet: Effective and consistent feature fusion network for RGB-T salient object detection | |
Yu et al. | Facial expression recognition based on a multi-task global-local network | |
CN107609460B (zh) | 一种融合时空双重网络流和attention机制的人体行为识别方法 | |
CN111444889B (zh) | 基于多级条件影响的卷积神经网络的细粒度动作检测方法 | |
CN112800903B (zh) | 一种基于时空图卷积神经网络的动态表情识别方法及系统 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN112329525A (zh) | 一种基于时空图卷积神经网络的手势识别方法和装置 | |
Liang et al. | MAFNet: Multi-style attention fusion network for salient object detection | |
Papadimitriou et al. | Multimodal Sign Language Recognition via Temporal Deformable Convolutional Sequence Learning. | |
CN113033276B (zh) | 一种基于转换模块的行为识别方法 | |
CN115393949A (zh) | 一种连续手语识别方法及装置 | |
Li et al. | Multi-view spatial-temporal network for continuous sign language recognition | |
CN114241515A (zh) | 一种基于时空上下文特征感知的三维人体姿态估计方法 | |
Mullick et al. | Learning deep and compact models for gesture recognition | |
CN116152710A (zh) | 一种基于跨帧实例关联的视频实例分割方法 | |
CN116109673A (zh) | 一种基于行人姿态估计的多帧轨迹跟踪系统及其方法 | |
Liu et al. | SIFNet: A self-attention interaction fusion network for multisource satellite imagery template matching | |
CN115188079A (zh) | 基于自适应多尺度注意力时序网络的连续手语识别方法 | |
CN115690917A (zh) | 一种基于外观和运动智能关注的行人动作识别方法 | |
Wang et al. | Scene uyghur recognition with embedded coordinate attention | |
CN114998904A (zh) | 一种基于类编解码结构的草图语义分割方法 | |
CN114973305A (zh) | 一种针对拥挤人群的精确人体解析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |