CN112084934A - 基于骨骼数据双通道深度可分离卷积的行为识别方法 - Google Patents

基于骨骼数据双通道深度可分离卷积的行为识别方法 Download PDF

Info

Publication number
CN112084934A
CN112084934A CN202010934403.9A CN202010934403A CN112084934A CN 112084934 A CN112084934 A CN 112084934A CN 202010934403 A CN202010934403 A CN 202010934403A CN 112084934 A CN112084934 A CN 112084934A
Authority
CN
China
Prior art keywords
behavior
data
convolution
bone
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010934403.9A
Other languages
English (en)
Other versions
CN112084934B (zh
Inventor
邱飞岳
孔德伟
章国道
王丽萍
陈宏�
郭海东
姜弼君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010934403.9A priority Critical patent/CN112084934B/zh
Publication of CN112084934A publication Critical patent/CN112084934A/zh
Application granted granted Critical
Publication of CN112084934B publication Critical patent/CN112084934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

基于骨骼数据双通道深度可分离卷积的行为识别方法,属于人体姿态行为识别技术领域。它包括以下步骤:一、获取人体行为姿态关节骨骼点数据;二、对骨骼点数据处理提取行为空间特征;三、构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;四、将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息;步骤五、使用ReLu函数获取骨骼动作分类。本发明使用图卷积神经网络GCN和D2SE网络层,对人体姿态行为骨骼数据使用空间上的图卷积来提取空间信息,本发明基于双通道,在提高基于深度分离卷积架构性能的同时不会引入额外的复杂度,同时能使卷积层的参数明显缩减。

Description

基于骨骼数据双通道深度可分离卷积的行为识别方法
技术领域
本发明属于人体姿态行为识别技术领域,具体涉及一种基于骨骼点数据双通道深度可分离卷积的姿态行为识别方法。
背景技术
人体动作识别是近年来CV领域热门研究的一个方向,骨骼点动作识别是人体动作识别中的一个分支,旨在识别由骨骼点数据随时间变化构成的骨骼序列,人体动作识别的另外一个分支是处理RGB视频序列。
基于RGB视频序列由于其时间序列性,一般使用GRU、3D卷积、LSTM变种等方式处理;但是由于RGB数据会放大光照、颜色以及遮盖物等因素的影响,进而导致模型鲁棒性不如骨骼数据拟合的模型。
基于骨骼数据的模型,由于其骨骼和关节相互连接,和图结构的数据非常契合,加上其对颜色和光照、遮挡物的强鲁棒性,因此近年来基于骨骼数据的模型大部分是基于图卷积网络。
然而针对特定场景中,Azure for Kinect设备开发应用程序所依赖运行设备的性能不足,以及对数据处理的时效性和准确率考虑,因此综合考虑设计一种基于骨骼点数据的姿态行为识别方法显得尤为重要。
发明内容
针对现有技术中存在的上述问题,本发明的目的在于提供一种基于骨骼点坐标的姿态行为识别方法,通过在图卷积网络中嵌入D2SE块来处理骨骼数据,相比于传统的图卷积识别方法,能够降低模型训练参数和训练时间的同时保证动作识别的准确率。
本发明提供如下技术方案:基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于包括以下步骤:
步骤一、获取人体行为姿态关节骨骼点数据;
步骤二、使用类邻接矩阵策略对骨骼点数据处理提取行为空间特征;
步骤三、将Depth层和Point层嵌入卷积层中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;
步骤四、将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息;
步骤五、使用ReLu函数获取骨骼动作分类。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤一中,通过Azure for Kinect获取人体关节骨骼点数据,对获取的骨骼点数据进行预处理,具体构建步骤如下:
2.1、从导出的文件中获取姿态骨骼数据序列,去除噪声数据;
2.2、将去噪后的数据构建图数据。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤二中,将步骤一中预处理后的骨骼点数据使用类邻接矩阵策略转换成一张伪图像矩阵来提取行为空间特征。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤三中,采用构建基于DSE网络的姿态行为识别方法提取时间特征,所述DSE网络包括双通道SE网络层及Conv层两个部分,所述双通道SE网络层对输入数据进行卷积操作,Conv层使用depthwise和pointwise卷积组合。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,构建D2SE-GCN双通道深度可分离卷积网络将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息,采用随机梯度下降SGD优化网络参数,预设初始学习率、权重衰减、训练和测试样本batch_size、训练epoch及warm_up预热学习率。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述学习率的更新包括模型预热阶段、正式训练阶段,使用预热学习率能加快模型收敛速度。
所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,将测试样本输入已训练好的双通道深度可分离卷积D2SE-GCN模型中,输出向量中最大值对应的姿态行为类别即可判断该测试样本的动作类型,实现姿态行为的准确识别。
通过采用上述技术,与现有技术相比,本发明的有益效果如下:
1)本发明使用图卷积神经网络GCN和D2SE网络层,对人体姿态行为骨骼数据使用空间上的图卷积来提取空间信息,通过前后相邻帧的常规卷积来提取时间信息,最后通过二者的叠加来提取时空信息;
2)本发明是基于双通道,普通的SE块通过网络根据loss学习特征权重,使得有效的FeatureMap权重和无效的FeatureMap自适应,但是在网络的计算过程中不可避免的增加了参数和计算量,深度可分离卷积层网络架构隐式依赖提供一种更高效的划分方法,在提高基于深度分离卷积架构性能的同时不会引入额外的复杂度,同时能使卷积层的参数明显缩减,而双通道的模型在输入特征适应不同卷积核,多视野域卷积能使得SPLIT获取多个卷积核的不同感受野,通过线性变换操作、归一化、得到通道特征,和原始特征加乘,然后经过FUSE聚合来自多个路径的信息,从而获得全局选择性权重表现,双通道SE-Block能对读入的相邻帧骨骼数据时间维度信息自适应其卷积核的权重,使得模型的准确率得到更有效的提升。
附图说明
图1为本发明的D2SE模型的网络层示意图;
图2为本发明的Azure for Kinect骨骼点数据采集示意图;
图3为本发明的人体骨骼数据具体分布示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合说明书附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
请参阅图1-3,一种基于骨骼数据双通道深度可分离卷积的行为识别方法,所述方法包括以下步骤:
步骤一:使用Azure for Kinect获取人体行为姿态数据;
步骤二:使用类邻接矩阵策略对骨骼点数据处理提取行为空间特征;
步骤三:将Depth层和Point层嵌入卷积层中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;
步骤四:将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息。
步骤五:使用ReLu函数获取骨骼动作分类。
通过Azure for Kinect获取人体32个关节骨骼点数据,如图3所示,对获取的骨骼点数据进行预处理,具体为:
从文件中获取姿态骨骼序列,去除噪声数据,获取的骨骼点为32个身体关节数据,关节层次结构按照从人体中心向四肢的流向分布,每个连接点将父关节与子关节链接起来。
获取的数据为连续的骨骼点帧数据,维度为(T、V、C),T表示时间,V表示关节点、C表示骨骼点坐标空间位置(X、Y、Z)。
将处理后的骨骼点数据使用类邻接矩阵策略转换成一张伪图像矩阵来提取行为空间特征,具体操作为:首先构建一个图矩阵,骨骼点即为图矩阵的节点N,骨骼点之间的连接即为图矩阵的边S,对于每一个骨骼点,邻节点个数不固定,通过定义一个映射函数L将参数和邻节点对应,可用如下函数操作表示。
Figure BDA0002671415430000061
其中f是输入输出的特征张量,w是权重,N是节点,I表示节点N于W权重之间映射,Z是归一化操作。
建立D2SE层网络,使用D2SE卷积提取相邻帧上的时间信息,具体操作如下:
D2SE层网络分两部分,一个是SE-Block单元,本实例中使用双向SE通道对输入数据进行卷积操作,SE层嵌入使用点卷积Depthwise和深度Pointwise卷积处理,具体为:
引入SE-Block单元:输入为骨骼点的channel数据,构建BLOCK_LIST块,步长为1,使用两个Branch,Branch全局参数r为16,L为32(r为压缩因子,L为d的最小值,d为卷积操作的输出特征,C为输入特征的channel),如下所示:
d=max(C/r,L)
构建DS层网络,将DS层作为SE-Block的卷积层读入数据。
DS层操作以及参数设置如下:
Pointwise卷积层(卷积核1*1,步长0)->BN层归一化->Pointwise卷积层->BN归一化层->Depthwise卷积层。
Pointwise卷积层卷积核kernel_size为1*1,步长stride为1,padding为0,dilation膨胀系数为1,卷积组groups为1,偏置项bias为false。
Depthwise卷积层将DS层接受参数作为输入。
对于第一个Branch,执行一次DS卷积操作,DS参数为,3*3卷积核,步长为1,dilation为1。
对DS卷积后的Features进行ReLU激活得到特征图A,如图1所示。
对于第二个Branch,执行一次DS卷积操作,DS参数为5*5卷积核,步长为2,dilation为2;对DS卷积后的Features进行ReLU激活得到特征图B,如图1所示。
将特征图A和特征图B使用SUM进行融合操作得到特征图U,使用自适应平均池化AdaptiveAvgPool_2d降采样,输出1*1尺寸的特征图S,如图1所示,H、W为输入特征图的高和宽,特征图S可表达为如下:
Figure BDA0002671415430000071
全连接层FC读入特征图S,同样使用两次DS卷积,参数为1*1的卷积核,步长为1,对卷积后的Features使用ReLU激活,得到特征图Z,δ为ReLU函数,B为归一化函数,Ws为DS的输出特征,F(fc)为全连接函数。
z=Ffc(s)=δ(B(Ws))
将全连接后的特征图Z再进行两次DS卷积操作,参数为1*1的卷积核,步长为1,padding为0。
通过线性变换还原全连接层FC压缩状态,输出为两个channel,分别进行Softmax归一化操作,此时每个channel对应自身的价值,表示channel的重要程度,也即SEBlock能够自适应特征图感受野权重,选择最优的权重,将两个channel乘上原始对应的特征图得到新的特征图A1,A2,如图1所示。
重复之前的SUM融合操作,得到输出特征V。
原始特征图X经过DS卷积、融合FUSE、池化POOL、全连接FC、DS卷积、归一化BN、融合后得到特征图V,也即特征图V融合了多个感受野的信息。
特征图V使用最大池化降采样,通过ReLu激活后进行分类。
使用Azure for Kinect获取的数据训练D2SE-GCN网络,采用随机梯度下降SGD优化网络参数,初始学习率base_lr为0.1,权重衰减weight_decay为0.0001,训练和测试样本的batch_size设置为64,训练epoch设置为80,warm_up预热学习率设置为5个epoch。
其中,学习率更新分为两个阶段,模型预热阶段和正式训练阶段,使用预热学习率能使得模型收敛速度变得更快,具体为:
模型训练预热阶段,学习率更新为:
Figure BDA0002671415430000081
模型正式训练阶段,学习率更新为:
lr=0.1SUM(f(step))×base_lr
模型使用交叉熵作为损失函数,在每batch_size样本被训练后,初始化梯度为0,反向传播求得梯度,更新模型参数。
训练完所有epoch后,将测试集输入模型预测,使用top-1作为测试集预测结果,以此衡量模型的性能。
将测试样本输入已训练好的双通道深度可分离卷积D2SE-GCN模型中,输出向量中最大值对应的姿态行为类别即可判断该测试样本的动作类型,实现姿态行为的准确识别。
为了与公开模型对比性能,将D2SE-GCN与主流深度学习模型做对比,如表1-姿态行为识别Top1对比图所示,基于双通道深度可分离卷积的动作行为识别准确率较其他模型在NUT的X-Sub和X-View数据上表现更好。
基于双通道的性能优势在于,普通的SE块通过网络根据loss学习特征权重,使得有效的FeatureMap权重和无效的FeatureMap自适应,但是在网络的计算过程中不可避免的增加了参数和计算量,深度可分离卷积层网络架构隐式依赖提供一种更高效的划分方法,在提高基于深度分离卷积架构性能的同时不会引入额外的复杂度,同时能使卷积层的参数明显缩减,而双通道的模型在输入特征适应不同卷积核,多视野域卷积能使得FUSE和SPLIT的操作后全局感受野自适应调整。
Figure BDA0002671415430000101
表1
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于包括以下步骤:
步骤一、获取人体行为姿态关节骨骼点数据;
步骤二、使用类邻接矩阵策略对骨骼点数据处理提取行为空间特征;
步骤三、将Depth层和Point层嵌入卷积层中,构建D2SE双通道深度可分离卷积层,在时间维度上提取行为时间特征;
步骤四、将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息;
步骤五、使用ReLu函数获取骨骼动作分类。
2.根据权利要求1所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤一中,通过Azure for Kinect获取人体关节骨骼点数据,对获取的骨骼点数据进行预处理,具体构建步骤如下:
2.1、从导出的文件中获取姿态骨骼数据序列,去除噪声数据;
2.2、将去噪后的数据构建图数据。
3.根据权利要求2所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤二中,将步骤一中预处理后的骨骼点数据使用类邻接矩阵策略转换成一张伪图像矩阵来提取行为空间特征。
4.根据权利要求1所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤三中,采用构建基于DSE网络的姿态行为识别方法提取时间特征,所述DSE网络包括双通道SE网络层及Conv层两个部分,所述双通道SE网络层对输入数据进行卷积操作,Conv层使用depthwise和pointwise卷积组合。
5.根据权利要求1所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,构建D2SE-GCN双通道深度可分离卷积网络将图卷积上的空间信息和D2SE网络层上的时间信息叠加提取姿态行为的时空信息,采用随机梯度下降SGD优化网络参数,预设初始学习率、权重衰减、训练和测试样本batch_size、训练epoch及warm_up预热学习率。
6.根据权利要求5所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述学习率的更新包括模型预热阶段、正式训练阶段,使用预热学习率能加快模型收敛速度。
7.根据权利要求5所述的基于骨骼数据双通道深度可分离卷积的行为识别方法,其特征在于所述步骤四中,将测试样本输入已训练好的双通道深度可分离卷积D2SE-GCN模型中,输出向量中最大值对应的姿态行为类别即可判断该测试样本的动作类型,实现姿态行为的准确识别。
CN202010934403.9A 2020-09-08 2020-09-08 基于骨骼数据双通道深度可分离卷积的行为识别方法 Active CN112084934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010934403.9A CN112084934B (zh) 2020-09-08 2020-09-08 基于骨骼数据双通道深度可分离卷积的行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010934403.9A CN112084934B (zh) 2020-09-08 2020-09-08 基于骨骼数据双通道深度可分离卷积的行为识别方法

Publications (2)

Publication Number Publication Date
CN112084934A true CN112084934A (zh) 2020-12-15
CN112084934B CN112084934B (zh) 2024-03-15

Family

ID=73731563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010934403.9A Active CN112084934B (zh) 2020-09-08 2020-09-08 基于骨骼数据双通道深度可分离卷积的行为识别方法

Country Status (1)

Country Link
CN (1) CN112084934B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784736A (zh) * 2021-01-21 2021-05-11 西安理工大学 一种多模态特征融合的人物交互行为识别方法
CN113505751A (zh) * 2021-07-29 2021-10-15 同济大学 一种基于差异图卷积神经网络的人体骨骼动作识别方法
CN113536916A (zh) * 2021-06-10 2021-10-22 杭州电子科技大学 一种基于骨骼信息的分组混淆图卷积动作识别方法
CN113963435A (zh) * 2021-10-07 2022-01-21 哈尔滨理工大学 一种基于图卷积神经网络的人体行为识别系统
KR20220153929A (ko) * 2021-05-12 2022-11-21 인하대학교 산학협력단 동영상 중 실시간 손동작 인식을 위한 tsn 기반의 딥러닝 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN109543549A (zh) * 2018-10-26 2019-03-29 北京陌上花科技有限公司 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器
CN110059620A (zh) * 2019-04-17 2019-07-26 安徽艾睿思智能科技有限公司 基于时空注意力的骨骼行为识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN109543549A (zh) * 2018-10-26 2019-03-29 北京陌上花科技有限公司 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器
CN110059620A (zh) * 2019-04-17 2019-07-26 安徽艾睿思智能科技有限公司 基于时空注意力的骨骼行为识别方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784736A (zh) * 2021-01-21 2021-05-11 西安理工大学 一种多模态特征融合的人物交互行为识别方法
CN112784736B (zh) * 2021-01-21 2024-02-09 西安理工大学 一种多模态特征融合的人物交互行为识别方法
KR20220153929A (ko) * 2021-05-12 2022-11-21 인하대학교 산학협력단 동영상 중 실시간 손동작 인식을 위한 tsn 기반의 딥러닝 방법 및 장치
KR102587234B1 (ko) 2021-05-12 2023-10-10 인하대학교 산학협력단 동영상 중 실시간 손동작 인식을 위한 tsn 기반의 딥러닝 방법 및 장치
CN113536916A (zh) * 2021-06-10 2021-10-22 杭州电子科技大学 一种基于骨骼信息的分组混淆图卷积动作识别方法
CN113536916B (zh) * 2021-06-10 2024-02-13 杭州电子科技大学 一种基于骨骼信息的分组混淆图卷积动作识别方法
CN113505751A (zh) * 2021-07-29 2021-10-15 同济大学 一种基于差异图卷积神经网络的人体骨骼动作识别方法
CN113505751B (zh) * 2021-07-29 2022-10-25 同济大学 一种基于差异图卷积神经网络的人体骨骼动作识别方法
CN113963435A (zh) * 2021-10-07 2022-01-21 哈尔滨理工大学 一种基于图卷积神经网络的人体行为识别系统

Also Published As

Publication number Publication date
CN112084934B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
CN113673307B (zh) 一种轻量型的视频动作识别方法
CN112084934A (zh) 基于骨骼数据双通道深度可分离卷积的行为识别方法
CN110188685B (zh) 一种基于双注意力多尺度级联网络的目标计数方法及系统
CN108830157B (zh) 基于注意力机制和3d卷积神经网络的人体行为识别方法
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN109118467B (zh) 基于生成对抗网络的红外与可见光图像融合方法
CN111340814B (zh) 一种基于多模态自适应卷积的rgb-d图像语义分割方法
CN111814719B (zh) 一种基于3d时空图卷积的骨架行为识别方法
CN108921926B (zh) 一种基于单张图像的端到端三维人脸重建方法
CN110852267B (zh) 基于光流融合型深度神经网络的人群密度估计方法及装置
CN110728219A (zh) 基于多列多尺度图卷积神经网络的3d人脸生成方法
CN109598732B (zh) 一种基于三维空间加权的医学图像分割方法
CN112489164B (zh) 基于改进深度可分离卷积神经网络的图像着色方法
CN111626159A (zh) 一种基于注意力残差模块和支路融合的人体关键点检测方法
CN111861906A (zh) 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法
CN113221663A (zh) 一种实时手语智能识别方法、装置及系统
CN112634438A (zh) 基于对抗网络的单帧深度图像三维模型重建方法及装置
CN111462274A (zh) 一种基于smpl模型的人体图像合成方法及系统
CN115484410A (zh) 基于深度学习的事件相机视频重建方法
CN114743273A (zh) 基于多尺度残差图卷积网络的人体骨骼行为识别方法及系统
CN113222808A (zh) 一种基于生成式对抗网络的人脸口罩移除方法
CN112561947A (zh) 一种图像自适应运动估计方法及应用
CN111274901B (zh) 一种基于深度门控递归单元的手势深度图像连续检测方法
CN117115911A (zh) 一种基于注意力机制的超图学习动作识别系统
CN116246338B (zh) 一种基于图卷积和Transformer复合神经网络的行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant