CN112084934B - 基于骨骼数据双通道深度可分离卷积的行为识别方法 - Google Patents
基于骨骼数据双通道深度可分离卷积的行为识别方法 Download PDFInfo
- Publication number
- CN112084934B CN112084934B CN202010934403.9A CN202010934403A CN112084934B CN 112084934 B CN112084934 B CN 112084934B CN 202010934403 A CN202010934403 A CN 202010934403A CN 112084934 B CN112084934 B CN 112084934B
- Authority
- CN
- China
- Prior art keywords
- convolution
- layer
- behavior
- data
- bone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000009471 action Effects 0.000 claims abstract description 10
- 230000006399 behavior Effects 0.000 claims description 46
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 238000000926 separation method Methods 0.000 abstract description 2
- 238000010606 normalization Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 1
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 1
- 101150041570 TOP1 gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
基于骨骼数据双通道深度可分离卷积的行为识别方法,属于人体姿态行为识别技术领域。它包括以下步骤:一、获取人体行为姿态关节骨骼点数据;二、对骨骼点数据处理提取行为空间特征;三、构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;四、将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息;步骤五、使用ReLu函数获取骨骼动作分类。本发明使用图卷积神经网络GCN和D2SE网络层,对人体姿态行为骨骼数据使用空间上的图卷积来提取空间信息,本发明基于双通道,在提高基于深度分离卷积架构性能的同时不会引入额外的复杂度,同时能使卷积层的参数明显缩减。
Description
技术领域
本发明属于人体姿态行为识别技术领域,具体涉及一种基于骨骼点数据双通道深度可分离卷积的姿态行为识别方法。
背景技术
人体动作识别是近年来CV领域热门研究的一个方向,骨骼点动作识别是人体动作识别中的一个分支,旨在识别由骨骼点数据随时间变化构成的骨骼序列,人体动作识别的另外一个分支是处理RGB视频序列。
基于RGB视频序列由于其时间序列性,一般使用GRU、3D卷积、LSTM变种等方式处理;但是由于RGB数据会放大光照、颜色以及遮盖物等因素的影响,进而导致模型鲁棒性不如骨骼数据拟合的模型。
基于骨骼数据的模型,由于其骨骼和关节相互连接,和图结构的数据非常契合,加上其对颜色和光照、遮挡物的强鲁棒性,因此近年来基于骨骼数据的模型大部分是基于图卷积网络。
然而针对特定场景中,Azure for Kinect设备开发应用程序所依赖运行设备的性能不足,以及对数据处理的时效性和准确率考虑,因此综合考虑设计一种基于骨骼点数据的姿态行为识别方法显得尤为重要。
发明内容
针对现有技术中存在的上述问题,本发明的目的在于提供一种基于骨骼点坐标的姿态行为识别方法,通过在图卷积网络中嵌入D2SE块来处理骨骼数据,相比于传统的图卷积识别方法,能够降低模型训练参数和训练时间的同时保证动作识别的准确率。
本发明提供如下技术方案:基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于包括以下步骤:
步骤一、获取人体行为姿态关节骨骼点数据;
步骤二、使用类邻接矩阵策略对骨骼点数据处理提取行为空间特征;
步骤三、将Depth层和Point层嵌入卷积层中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;
步骤四、将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息;
步骤五、使用ReLu函数获取骨骼动作分类。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤一中,通过Azure for Kinect获取人体关节骨骼点数据,对获取的骨骼点数据进行预处理,具体构建步骤如下:
2.1、从导出的文件中获取姿态骨骼数据序列,去除噪声数据;
2.2、将去噪后的数据构建图数据。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤二中,将步骤一中预处理后的骨骼点数据使用类邻接矩阵策略转换成一张伪图像矩阵来提取行为空间特征。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤三中,采用构建基于DSE网络的姿态行为识别方法提取时间特征,所述DSE网络包括双通道SE网络层及Conv层两个部分,所述双通道SE网络层对输入数据进行卷积操作,Conv层使用depthwise和pointwise卷积组合。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,构建D2SE-GCN双通道深度可分离卷积网络将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息,采用随机梯度下降SGD优化网络参数,预设初始学习率、权重衰减、训练和测试样本batch_size、训练epoch及warm_up预热学习率。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述学习率的更新包括模型预热阶段、正式训练阶段,使用预热学习率能加快模型收敛速度。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,将测试样本输入已训练好的双通道深度可分离卷积D2SE-GCN模型中,输出向量中最大值对应的姿态行为类别即可判断该测试样本的动作类型,实现姿态行为的准确识别。
通过采用上述技术,与现有技术相比,本发明的有益效果如下:
1)本发明使用图卷积神经网络GCN和D2SE网络层,对人体姿态行为骨骼数据使用空间上的图卷积来提取空间信息,通过前后相邻帧的常规卷积来提取时间信息,最后通过二者的叠加来提取时空信息;
2)本发明是基于双通道,普通的SE块通过网络根据loss学习特征权重,使得有效的FeatureMap权重和无效的FeatureMap自适应,但是在网络的计算过程中不可避免的增加了参数和计算量,深度可分离卷积层网络架构隐式依赖提供一种更高效的划分方法,在提高基于深度分离卷积架构性能的同时不会引入额外的复杂度,同时能使卷积层的参数明显缩减,而双通道的模型在输入特征适应不同卷积核,多视野域卷积能使得SPLIT获取多个卷积核的不同感受野,通过线性变换操作、归一化、得到通道特征,和原始特征加乘,然后经过FUSE聚合来自多个路径的信息,从而获得全局选择性权重表现,双通道SE-Block能对读入的相邻帧骨骼数据时间维度信息自适应其卷积核的权重,使得模型的准确率得到更有效的提升。
附图说明
图1为本发明的D2SE模型的网络层示意图;
图2为本发明的Azure for Kinect骨骼点数据采集示意图;
图3为本发明的人体骨骼数据具体分布示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合说明书附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
请参阅图1-3,一种基于骨骼数据双通道深度可分离卷积的行为识别方法,所述方法包括以下步骤:
步骤一:使用Azure for Kinect获取人体行为姿态数据;
步骤二:使用类邻接矩阵策略对骨骼点数据处理提取行为空间特征;
步骤三:将Depth层和Point层嵌入卷积层中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;
步骤四:将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息。
步骤五:使用ReLu函数获取骨骼动作分类。
通过Azure for Kinect获取人体32个关节骨骼点数据,如图3所示,对获取的骨骼点数据进行预处理,具体为:
从文件中获取姿态骨骼序列,去除噪声数据,获取的骨骼点为32个身体关节数据,关节层次结构按照从人体中心向四肢的流向分布,每个连接点将父关节与子关节链接起来。
获取的数据为连续的骨骼点帧数据,维度为(T、V、C),T表示时间,V表示关节点、C表示骨骼点坐标空间位置(X、Y、Z)。
将处理后的骨骼点数据使用类邻接矩阵策略转换成一张伪图像矩阵来提取行为空间特征,具体操作为:首先构建一个图矩阵,骨骼点即为图矩阵的节点N,骨骼点之间的连接即为图矩阵的边S,对于每一个骨骼点,邻节点个数不固定,通过定义一个映射函数L将参数和邻节点对应,可用如下函数操作表示。
其中f是输入输出的特征张量,w是权重,N是节点,I表示节点N于W权重之间映射,Z是归一化操作。
建立D2SE层网络,使用D2SE卷积提取相邻帧上的时间信息,具体操作如下:
D2SE层网络分两部分,一个是SE-Block单元,本实例中使用双向SE通道对输入数据进行卷积操作,SE层嵌入使用点卷积Depthwise和深度Pointwise卷积处理,具体为:
引入SE-Block单元:输入为骨骼点的channel数据,构建BLOCK_LIST块,步长为1,使用两个Branch,Branch全局参数r为16,L为32(r为压缩因子,L为d的最小值,d为卷积操作的输出特征,C为输入特征的channel),如下所示:
d=max(C/r,L)
构建DS层网络,将DS层作为SE-Block的卷积层读入数据。
DS层操作以及参数设置如下:
Pointwise卷积层(卷积核1*1,步长0)->BN层归一化->Pointwise卷积层->BN归一化层->Depthwise卷积层。
Pointwise卷积层卷积核kernel_size为1*1,步长stride为1,padding为0,dilation膨胀系数为1,卷积组groups为1,偏置项bias为false。
Depthwise卷积层将DS层接受参数作为输入。
对于第一个Branch,执行一次DS卷积操作,DS参数为,3*3卷积核,步长为1,dilation为1。
对DS卷积后的Features进行ReLU激活得到特征图A,如图1所示。
对于第二个Branch,执行一次DS卷积操作,DS参数为5*5卷积核,步长为2,dilation为2;对DS卷积后的Features进行ReLU激活得到特征图B,如图1所示。
将特征图A和特征图B使用SUM进行融合操作得到特征图U,使用自适应平均池化AdaptiveAvgPool_2d降采样,输出1*1尺寸的特征图S,如图1所示,H、W为输入特征图的高和宽,特征图S可表达为如下:
全连接层FC读入特征图S,同样使用两次DS卷积,参数为1*1的卷积核,步长为1,对卷积后的Features使用ReLU激活,得到特征图Z,δ为ReLU函数,B为归一化函数,Ws为DS的输出特征,F(fc)为全连接函数。
z=Ffc(s)=δ(B(Ws))
将全连接后的特征图Z再进行两次DS卷积操作,参数为1*1的卷积核,步长为1,padding为0。
通过线性变换还原全连接层FC压缩状态,输出为两个channel,分别进行Softmax归一化操作,此时每个channel对应自身的价值,表示channel的重要程度,也即SEBlock能够自适应特征图感受野权重,选择最优的权重,将两个channel乘上原始对应的特征图得到新的特征图A1,A2,如图1所示。
重复之前的SUM融合操作,得到输出特征V。
原始特征图X经过DS卷积、融合FUSE、池化POOL、全连接FC、DS卷积、归一化BN、融合后得到特征图V,也即特征图V融合了多个感受野的信息。
特征图V使用最大池化降采样,通过ReLu激活后进行分类。
使用Azure for Kinect获取的数据训练D2SE-GCN网络,采用随机梯度下降SGD优化网络参数,初始学习率base_lr为0.1,权重衰减weight_decay为0.0001,训练和测试样本的batch_size设置为64,训练epoch设置为80,warm_up预热学习率设置为5个epoch。
其中,学习率更新分为两个阶段,模型预热阶段和正式训练阶段,使用预热学习率能使得模型收敛速度变得更快,具体为:
模型训练预热阶段,学习率更新为:
模型正式训练阶段,学习率更新为:
lr=0.1SUM(f(step))×base_lr
模型使用交叉熵作为损失函数,在每batch_size样本被训练后,初始化梯度为0,反向传播求得梯度,更新模型参数。
训练完所有epoch后,将测试集输入模型预测,使用top-1作为测试集预测结果,以此衡量模型的性能。
将测试样本输入已训练好的双通道深度可分离卷积D2SE-GCN模型中,输出向量中最大值对应的姿态行为类别即可判断该测试样本的动作类型,实现姿态行为的准确识别。
为了与公开模型对比性能,将D2SE-GCN与主流深度学习模型做对比,如表1-姿态行为识别Top1对比图所示,基于双通道深度可分离卷积的动作行为识别准确率较其他模型在NUT的X-Sub和X-View数据上表现更好。
基于双通道的性能优势在于,普通的SE块通过网络根据loss学习特征权重,使得有效的FeatureMap权重和无效的FeatureMap自适应,但是在网络的计算过程中不可避免的增加了参数和计算量,深度可分离卷积层网络架构隐式依赖提供一种更高效的划分方法,在提高基于深度分离卷积架构性能的同时不会引入额外的复杂度,同时能使卷积层的参数明显缩减,而双通道的模型在输入特征适应不同卷积核,多视野域卷积能使得FUSE和SPLIT的操作后全局感受野自适应调整。
表1
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于包括以下步骤:
步骤一、获取人体行为姿态关节骨骼点数据;
步骤二、使用类邻接矩阵策略对骨骼点数据处理提取行为空间特征;
步骤三、将Depth层和Point层嵌入卷积层中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;
具体如下:
使用双向SE通道对输入数据进行卷积操作,SE层嵌入使用点卷积Depthwise和深度Pointwise卷积处理;
构建DS层网络,将DS层作为SE-Block的卷积层读入数据;
Depthwise卷积层将DS层接受参数作为输入;
对DS卷积后的Features进行ReLU激活得到特征图;
步骤四、将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息;
步骤五、使用ReLu函数获取骨骼动作分类。
2.根据权利要求1所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤一中,通过Azure for Kinect获取人体关节骨骼点数据,对获取的骨骼点数据进行预处理,具体构建步骤如下:
2.1、从导出的文件中获取姿态骨骼数据序列,去除噪声数据;
2.2、将去噪后的数据构建图数据。
3.根据权利要求2所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤二中,将步骤一中预处理后的骨骼点数据使用类邻接矩阵策略转换成一张伪图像矩阵来提取行为空间特征。
4.根据权利要求1所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤三中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征,所述D2SE网络包括双通道SE网络层及Conv层两个部分,所述双通道SE网络层对输入数据进行卷积操作,Conv层使用depthwise和pointwise卷积组合。
5.根据权利要求1所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,构建D2SE-GCN双通道深度可分离卷积网络将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息,采用随机梯度下降SGD优化网络参数,预设初始学习率、权重衰减、训练和测试样本batch_size、训练epoch及warm_up预热学习率。
6.根据权利要求5所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述学习率的更新包括模型预热阶段、正式训练阶段,使用预热学习率能加快模型收敛速度。
7.根据权利要求5所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,将测试样本输入已训练好的双通道深度可分离卷积D2SE-GCN模型中,输出向量中最大值对应的姿态行为类别即可判断该测试样本的动作类型,实现姿态行为的准确识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010934403.9A CN112084934B (zh) | 2020-09-08 | 2020-09-08 | 基于骨骼数据双通道深度可分离卷积的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010934403.9A CN112084934B (zh) | 2020-09-08 | 2020-09-08 | 基于骨骼数据双通道深度可分离卷积的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112084934A CN112084934A (zh) | 2020-12-15 |
CN112084934B true CN112084934B (zh) | 2024-03-15 |
Family
ID=73731563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010934403.9A Active CN112084934B (zh) | 2020-09-08 | 2020-09-08 | 基于骨骼数据双通道深度可分离卷积的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112084934B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784736B (zh) * | 2021-01-21 | 2024-02-09 | 西安理工大学 | 一种多模态特征融合的人物交互行为识别方法 |
KR102587234B1 (ko) * | 2021-05-12 | 2023-10-10 | 인하대학교 산학협력단 | 동영상 중 실시간 손동작 인식을 위한 tsn 기반의 딥러닝 방법 및 장치 |
CN113536916B (zh) * | 2021-06-10 | 2024-02-13 | 杭州电子科技大学 | 一种基于骨骼信息的分组混淆图卷积动作识别方法 |
CN113505751B (zh) * | 2021-07-29 | 2022-10-25 | 同济大学 | 一种基于差异图卷积神经网络的人体骨骼动作识别方法 |
CN113963435A (zh) * | 2021-10-07 | 2022-01-21 | 哈尔滨理工大学 | 一种基于图卷积神经网络的人体行为识别系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN109543549A (zh) * | 2018-10-26 | 2019-03-29 | 北京陌上花科技有限公司 | 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器 |
CN110059620A (zh) * | 2019-04-17 | 2019-07-26 | 安徽艾睿思智能科技有限公司 | 基于时空注意力的骨骼行为识别方法 |
-
2020
- 2020-09-08 CN CN202010934403.9A patent/CN112084934B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN109543549A (zh) * | 2018-10-26 | 2019-03-29 | 北京陌上花科技有限公司 | 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器 |
CN110059620A (zh) * | 2019-04-17 | 2019-07-26 | 安徽艾睿思智能科技有限公司 | 基于时空注意力的骨骼行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112084934A (zh) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112084934B (zh) | 基于骨骼数据双通道深度可分离卷积的行为识别方法 | |
CN110188685B (zh) | 一种基于双注意力多尺度级联网络的目标计数方法及系统 | |
CN113673307B (zh) | 一种轻量型的视频动作识别方法 | |
CN111814719B (zh) | 一种基于3d时空图卷积的骨架行为识别方法 | |
CN110188239B (zh) | 一种基于跨模态注意力机制的双流视频分类方法和装置 | |
CN110852267B (zh) | 基于光流融合型深度神经网络的人群密度估计方法及装置 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN113111760B (zh) | 基于通道注意力的轻量化图卷积人体骨架动作识别方法 | |
CN113033570A (zh) | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 | |
CN114821640A (zh) | 基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法 | |
CN114187261B (zh) | 一种基于多维注意力机制的无参考立体图像质量评价方法 | |
Goncalves et al. | Deepdive: An end-to-end dehazing method using deep learning | |
CN111882516B (zh) | 一种基于视觉显著性和深度神经网络的图像质量评价方法 | |
CN115526891B (zh) | 一种缺陷数据集的生成模型的训练方法及相关装置 | |
CN115393225A (zh) | 一种基于多层次特征提取融合的低光照图像增强方法 | |
CN113222808A (zh) | 一种基于生成式对抗网络的人脸口罩移除方法 | |
CN114743273A (zh) | 基于多尺度残差图卷积网络的人体骨骼行为识别方法及系统 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN110738645B (zh) | 基于卷积神经网络的3d图像质量检测方法 | |
CN112561947A (zh) | 一种图像自适应运动估计方法及应用 | |
CN116797640A (zh) | 一种面向智能伴行巡视器的深度及3d关键点估计方法 | |
CN113255514B (zh) | 基于局部场景感知图卷积网络的行为识别方法 | |
CN114005157B (zh) | 一种基于卷积神经网络的像素位移向量的微表情识别方法 | |
CN115527275A (zh) | 基于P2CS_3DNet的行为识别方法 | |
CN115294182A (zh) | 一种基于双交叉注意力机制的高精度立体匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |