CN113627259A - 基于图卷积网络的细微动作识别方法 - Google Patents

基于图卷积网络的细微动作识别方法 Download PDF

Info

Publication number
CN113627259A
CN113627259A CN202110783057.3A CN202110783057A CN113627259A CN 113627259 A CN113627259 A CN 113627259A CN 202110783057 A CN202110783057 A CN 202110783057A CN 113627259 A CN113627259 A CN 113627259A
Authority
CN
China
Prior art keywords
graph convolution
convolution network
sequence
joint
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110783057.3A
Other languages
English (en)
Inventor
刘龙
王劲
黄西平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110783057.3A priority Critical patent/CN113627259A/zh
Publication of CN113627259A publication Critical patent/CN113627259A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于图卷积网络的细微动作识别方法,具体按照以下步骤实施:采集人体运动视频,将该视频估计包括骨骼特征的视频,结合骨骼特征数据库,从骨骼特征数据库中选取所有类动作的骨骼特征序列;对包括骨骼特征的视频行处理,得到多个关节对齐光流片序列;搭建图卷积网络;设计图卷积网络的损失函数;初始化图卷积网络中参数;分别将骨骼特征序列、关节对齐光流片序列作为输入,训练图卷积网络,得到训练好的图卷积网络;使用训练好的图卷积网络进行识别,得到未知细微动作类别信息;将每个骨骼关节周围的视觉信息表示为关节对齐的光流片,有效地捕捉有用的身体局部细微运动线索,用于基于骨骼的动作识别。

Description

基于图卷积网络的细微动作识别方法
技术领域
本发明属于计算机视觉技术领域,具体涉及基于图卷积网络的细微动作识别方法。
背景技术
随着计算机视觉技术的发展,人体动作识别成为了计算机视觉领域中一项活跃但具有挑战性的任务。近年来,随着深度传感器和人体姿态估计技术的进步,获得准确的人体姿态数据变得更加容易。在过去的十年里,基于骨骼的人体动作识别引起了广泛的关注并取得了显著的进展。与原始的RGB视频剪辑序列相比,一个带有2D或3D坐标形式的人体关节骨骼序列信息量更稀疏。因此,为基于骨骼的动作识别设计的神经网络可以十分轻量和高效。最近几年也有很多学者进一步开发了各种深度神经网络,试图充分挖掘动态人体骨骼序列的内部特征。
作为单模态动作识别网络的输入,骨骼序列可以有效地描述全身人体运动。然而,在从视频帧中提取人体姿态的过程中,局部细微的运动线索可能会丢失。而且由于骨骼序列的稀疏性,它很难捕捉到人体运动中的细微特征,单纯依靠骨骼序列来识别人的动作有明显的缺点。首先,对于主要以局部细微运动为特征的动作类别,从两个连续帧中提取的骨骼之间的差异非常细微,这对于描述细微动作几乎没有用处。此外,当动作的身体运动较弱时,这种局部细微运动很容易被噪声姿态估计所掩盖。这种限制使得现有的方法不能正确地对仅表现出细微运动差异的动作进行识别以及分类。
发明内容
本发明的目的是提供基于图卷积网络的细微动作识别方法,解决了现有技术中存在的仅稀疏骨骼信息不足以完全表征人体运动的问题。
本发明所采用的技术方案是,基于图卷积网络的细微动作识别方法,具体按照以下步骤实施:
步骤1、采集人体运动视频,将该视频估计包括骨骼特征的视频,结合骨骼特征数据库,从骨骼特征数据库中选取所有类动作的骨骼特征序列;
步骤2、对包括骨骼特征的视频行处理,得到多个关节对齐光流片序列;
步骤3、搭建图卷积网络;
步骤4、设计图卷积网络的损失函数;
步骤5、初始化图卷积网络中参数;
步骤6、分别将骨骼特征序列、关节对齐光流片序列作为输入,训练图卷积网络,得到训练好的图卷积网络;
步骤7、使用训练好的图卷积网络进行识别,得到未知细微动作类别信息。
本发明的特点还在于:
步骤1具体为:采集人体运动视频,使用姿态估计算法根据人体运动视频估计得到包括骨骼特征的视频。
骨骼特征数据库中包括NTU RGB+D.数据集、NTU RGB+D 120数据集、Kinetics-Skeleton数据集。
步骤2具体包括以下步骤:
步骤2.1、对包括骨骼特征的视频按帧进行拆分,得到T帧图像;
步骤2.2、假设T帧图像中每帧图像有k个关节,以每个关节作为中心,通过裁剪得到k个长度为l的方形局部裁剪片
Figure BDA0003157752550000031
步骤2.3、将预估骨骼特征数据对应的方形局部裁剪片序列标记为
Figure BDA0003157752550000032
Figure BDA0003157752550000033
步骤2.4、取同一关节在相邻两帧图像为一对关节对,对标记后的裁剪片采用Lucas-Kanade方法估计每个连续关节对之间的光流片序列;
步骤2.5、对每个连续关节对之间的光流片序列进行零均值归一化,获得关节对齐的光流片序列;
步骤2.6、使用双线性插值函数对每个关节对齐的光流片进行下采样,将分辨率从l×l降低到μ×μ,得到(T-1)×k个尺寸为μ×μ的关节对齐光流片序列。
步骤3图卷积网络结构为双支路GCN结构,第一GCN分支输入骨骼特征序列,第二个GCN分支输入关节对齐光流片序列。
图卷积网络结构包括输入层、批量归一化层、九个级联的图卷积层、全局平均池化层、全连接层和Softmax输出层;
每个图卷积层包括三部分:1、注意力机制层,2、空间图卷积层,在空间维度上,即单帧内对每个重心点上,进行图卷积操作,卷积核大小为3;3、时间图卷积层,在时间维度上进行图卷积操作,卷积核大小为9。
步骤4损失函数为交叉熵损失函数:
Figure BDA0003157752550000034
其中y表示ground-truth类的one-hot标签向量,
Figure BDA0003157752550000035
表示预测得分。
步骤5图卷积网络中参数包括训练遍历所有数据的次数epoch、每批次训练的样本数batch_size、学习率learning_rate,其中epoch设定为10-20之间的整数,batch_size设定为{8,16,32,64,128,256}中的一个,learning_rate初始学习率为0.01,每10个epochs后,学习率衰减0.1,共遍历全部样本60次。
步骤6具体为:将每个骨骼特征序列作为一个三维矩阵(C,T,V),C为关节特征也就是坐标,V为节点数量,每个骨骼特征序列输入至图卷积网络结构的第一GCN分支中;将关节对齐光流片序列进行下采样,将下采样得到的关节对齐光流片序列输入第二个GCN分支进行训练,得到训练好的图卷积网络。
步骤7具体为:根据待识别的人体动作视频获得该视频对应的骨骼特征序列和关节对齐的光流片序列;将两个序列分别输入训练好的模型中,通过线性混合来自两个GCN分支的预测分数来获得最终的类别预测分数,根据最终的类别预测分数确定细微动作。
本发明有益效果是:
本发明基于图卷积网络的细微动作识别方法,将每个骨骼关节周围的视觉信息表示为关节对齐的光流片,有效地捕捉有用的身体局部细微运动线索,用于基于骨骼的动作识别。
本发明基于图卷积网络的细微动作识别方法,将图卷积在时间维度上进行拓展,同时学习空间维度上的人体结构信息和时间维度上的信息,达到更好的识别效果。
附图说明
图1是本发明基于图卷积网络的细微动作识别方法的从两个具有对应的2D姿态关节的连续帧中估计得到的关节对齐的光流片的流程图;
图2是本发明基于图卷积网络的细微动作识别方法的两个连续帧的关节对齐光流片示意图;
图3是本发明基于图卷积网络的细微动作识别方法的用于分别独立处理骨骼序列和关节对齐光流片序列的双流图卷积网络分支结构图;
图4是本发明基于图卷积网络的细微动作识别方法的网络结构图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于图卷积网络的细微动作识别方法,具体按照以下步骤实施:
步骤1、采集人体运动视频,将该视频估计包括骨骼特征的视频,结合骨骼特征数据库,从骨骼特征数据库中选取所有类动作的骨骼特征序列;具体为:采集人体运动视频,使用姿态估计算法根据人体运动视频估计得到包括骨骼特征的视频。
骨骼特征数据库中包括NTU RGB+D.数据集、NTU RGB+D 120数据集、Kinetics-Skeleton数据集。
步骤2、对包括骨骼特征的视频行处理,得到多个关节对齐光流片序列;步骤2具体如图1所示,包括以下步骤:
步骤2.1、对包括骨骼特征的视频按帧进行拆分,得到T帧图像;
步骤2.2、假设T帧图像中每帧图像有k个关节,以每个关节作为中心,通过裁剪得到k个长度为l(l取32)的方形局部裁剪片
Figure BDA0003157752550000051
步骤2.3、将预估骨骼特征数据对应的方形局部裁剪片序列标记为
Figure BDA0003157752550000052
Figure BDA0003157752550000053
步骤2.4、取同一关节在相邻两帧图像为一对关节对,如图2所示,对标记后的裁剪片采用Lucas-Kanade方法估计每个连续关节对之间的光流片序列;
步骤2.5、对每个连续关节对之间的光流片序列进行零均值归一化,获得关节对齐的光流片序列;
步骤2.6、使用双线性插值函数对每个关节对齐的光流片进行下采样,将分辨率从l×l降低到μ×μ,(μ取8),得到(T-1)×k个尺寸为μ×μ的关节对齐光流片序列。
步骤3、搭建图卷积网络如图3所示;图卷积网络结构为双支路GCN结构,第一GCN分支输入骨骼特征序列,第二个GCN分支输入关节对齐光流片序列。
图卷积网络结构如图4所示,包括输入层、批量归一化层、九个级联的图卷积层、全局平均池化层、全连接层和Softmax输出层;
每个图卷积层包括三部分:1、注意力机制层,用于衡量不同运动部位的重要性;2、空间图卷积层,在空间维度上,即单帧内对每个重心点上,进行图卷积操作,卷积核大小为3,用于计算某时刻空间中包含的信息;3、时间图卷积层,在时间维度上进行图卷积操作,卷积核大小为9,用于计算重心点在时间上运动包含的信息,卷积层步长为1,即在时间上每次移动一帧,空间上每次移动1个节点,计算后进行下一帧节点的卷积,每个图卷积层后进行随机dropout操作,dropout概率为0.5以避免过拟合,在第4、7层图卷积层以步长为2进行卷积来降低数据维度。
图卷积公式如下:
Figure BDA0003157752550000061
其中节点vti邻域定义为B(vti)={vqj|d(vti,vtj)≤D,|q-t|≤Γ/2},邻域同时包含空间上的邻域和时间上的邻域,其中d(vtj,vti)表示vti到vtj的最小路径,|q-t|表示节点在时间上的距离,D与Γ均为参数,因此采样函数可以写作p(vti,vtj)=vtj,而权重函数并非给每个相邻节点一个唯一的标签,而是将一个关节点的邻域节点集合划分为多个子集,权重函数w(vti,vtj)=w'(lti(vti)),其中l为将节点到子集标签的映射关系lST(vqj)=lti(vtj)+(q-t+Γ/2)×K,其中lti(vtj)是vti中单帧情况下的标签映射关系,实际训练参数D=1,Γ=9,K=2。
步骤4、设计图卷积网络的损失函数;损失函数为交叉熵损失函数:
Figure BDA0003157752550000071
其中y表示ground-truth类的one-hot标签向量,
Figure BDA0003157752550000072
表示预测得分。通过线性加权混合来自两个GCN分支的预测分数来获得最终的类别预测分数。
步骤5、初始化图卷积网络中参数;
图卷积网络中参数包括训练遍历所有数据的次数epoch、每批次训练的样本数batch_size、学习率learning_rate,其中epoch设定为10-20之间的整数,batch_size设定为{8,16,32,64,128,256}中的一个,learning_rate初始学习率为0.01,每10个epochs后,学习率衰减0.1,共遍历全部样本60次。
步骤6、分别将骨骼特征序列、关节对齐光流片序列作为输入,训练图卷积网络,ground-truth类的one-hot标签向量作为输出,成批次地输入到网络中,计算前向传播的损失,使用反向传播算法,调整各层神经元参数,最终得到训练好的图卷积网络;具体为:将每个骨骼特征序列作为一个三维矩阵(C,T,V),C代表关节特征也就是坐标,T=64,V表示节点数量,取25,对应其动作标签作为输出,每个骨骼特征序列输入至图卷积网络结构的第一GCN分支中;将关节对齐光流片序列进行下采样,下采样因子的值为2,并且序列长度是64,关节对齐的光流片序列(T×K×μ×μ×2×N=64×14×8×8×2×2)经下采样后转换为2T×K×μ2×N=128×14×64×2,再输入到,输入第二个GCN分支进行训练,模型训练过程采用随机梯度下降法,得到训练好的图卷积网络。
步骤7、使用训练好的图卷积网络进行识别,得到未知细微动作类别信息,具体为:根据待识别的人体动作视频获得该视频对应的骨骼特征序列和关节对齐的光流片序列;将两个序列分别输入训练好的模型中,通过线性混合来自两个GCN分支的预测分数来获得最终的类别预测分数,根据最终的类别预测分数确定细微动作。
实施例
分别采用ST-GCN、AS-GCN、2S-AGCN、AGC-LSTM、PB-GCN以及本发明基于图卷积网络的细微动作识别方法对NTU数据集进行跨对象测试和跨视角测试,经验证测试准确率如表1所示:
表1
Figure BDA0003157752550000081
表1中,NTU X-sub(%)为NTU数据集跨对象测试准确率,NTU X-view(%)为NTU数据集跨视角测试准确率。
根据表1可知,本发明的基于图卷积网络的细微动作识别方法对NTU数据集进行跨对象测试和跨视角测试时,准确率均高于现有技术。
通过上述方式,本发明基于图卷积网络的细微动作识别方法,将每个骨骼关节周围的视觉信息表示为关节对齐的光流片,有效地捕捉有用的身体局部细微运动线索,用于基于骨骼的动作识别。导出的光流片序列具有紧凑表示的优点,并且从人体姿态骨骼继承了有运动学意义的结构。基于所提出的双支路GCN框架,我们同时利用来自关节对齐的光流片序列的局部细微运动线索和来自骨骼序列的全局运动线索进行动作识别,识别率高且计算成本较低。

Claims (10)

1.基于图卷积网络的细微动作识别方法,其特征在于,具体按照以下步骤实施:
步骤1、采集人体运动视频,将该视频估计包括骨骼特征的视频,结合骨骼特征数据库,从骨骼特征数据库中选取所有类动作的骨骼特征序列;
步骤2、对包括骨骼特征的视频行处理,得到多个关节对齐光流片序列;
步骤3、搭建图卷积网络;
步骤4、设计图卷积网络的损失函数;
步骤5、初始化图卷积网络中参数;
步骤6、分别将骨骼特征序列、关节对齐光流片序列作为输入,训练图卷积网络,得到训练好的图卷积网络;
步骤7、使用训练好的图卷积网络进行识别,得到未知细微动作类别信息。
2.根据权利要求1所述基于图卷积网络的细微动作识别方法,其特征在于,步骤1具体为:采集人体运动视频,使用姿态估计算法根据人体运动视频估计得到包括骨骼特征的视频。
3.根据权利要求1所述基于图卷积网络的细微动作识别方法,其特征在于,所述骨骼特征数据库中包括NTU RGB+D.数据集、NTU RGB+D 120数据集、Kinetics-Skeleton数据集。
4.根据权利要求2所述基于图卷积网络的细微动作识别方法,其特征在于,步骤2具体包括以下步骤:
步骤2.1、对包括骨骼特征的视频按帧进行拆分,得到T帧图像;
步骤2.2、假设T帧图像中每帧图像有k个关节,以每个关节作为中心,通过裁剪得到k个长度为l的方形局部裁剪片
Figure FDA0003157752540000021
步骤2.3、将预估骨骼特征数据对应的方形局部裁剪片序列标记为
Figure FDA0003157752540000022
Figure FDA0003157752540000023
步骤2.4、取同一关节在相邻两帧图像为一对关节对,对标记后的裁剪片采用Lucas-Kanade方法估计每个连续关节对之间的光流片序列;
步骤2.5、对每个连续关节对之间的光流片序列进行零均值归一化,获得关节对齐的光流片序列;
步骤2.6、使用双线性插值函数对每个关节对齐的光流片进行下采样,将分辨率从l×l降低到μ×μ,得到(T-1)×k个尺寸为μ×μ的关节对齐光流片序列。
5.根据权利要求2所述基于图卷积网络的细微动作识别方法,其特征在于,步骤3所述图卷积网络结构为双支路GCN结构,第一GCN分支输入骨骼特征序列,第二个GCN分支输入关节对齐光流片序列。
6.根据权利要求5所述基于图卷积网络的细微动作识别方法,其特征在于,所述图卷积网络结构包括输入层、批量归一化层、九个级联的图卷积层、全局平均池化层、全连接层和Softmax输出层;
每个所述图卷积层包括三部分:1、注意力机制层,2、空间图卷积层,在空间维度上,即单帧内对每个重心点上,进行图卷积操作,卷积核大小为3;3、时间图卷积层,在时间维度上进行图卷积操作,卷积核大小为9。
7.根据权利要求1所述基于图卷积网络的细微动作识别方法,其特征在于,步骤4所述损失函数为交叉熵损失函数:
Figure FDA0003157752540000024
其中y表示ground-truth类的one-hot标签向量,
Figure FDA0003157752540000031
表示预测得分。
8.根据权利要求1所述基于图卷积网络的细微动作识别方法,其特征在于,步骤5所述图卷积网络中参数包括训练遍历所有数据的次数epoch、每批次训练的样本数batch_size、学习率learning_rate,其中epoch设定为10-20之间的整数,batch_size设定为{8,16,32,64,128,256}中的一个,learning_rate初始学习率为0.01,每10个epochs后,学习率衰减0.1,共遍历全部样本60次。
9.根据权利要求5所述基于图卷积网络的细微动作识别方法,其特征在于,步骤6具体为:将每个骨骼特征序列作为一个三维矩阵(C,T,V),C为关节特征也就是坐标,V为节点数量,每个骨骼特征序列输入至图卷积网络结构的第一GCN分支中;将关节对齐光流片序列进行下采样,将下采样得到的关节对齐光流片序列输入第二个GCN分支进行训练,得到训练好的图卷积网络。
10.根据权利要求1所述基于图卷积网络的细微动作识别方法,其特征在于,步骤7具体为:根据待识别的人体动作视频获得该视频对应的骨骼特征序列和关节对齐的光流片序列;将两个序列分别输入训练好的模型中,通过线性混合来自两个GCN分支的预测分数来获得最终的类别预测分数,根据最终的类别预测分数确定细微动作。
CN202110783057.3A 2021-07-12 2021-07-12 基于图卷积网络的细微动作识别方法 Pending CN113627259A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110783057.3A CN113627259A (zh) 2021-07-12 2021-07-12 基于图卷积网络的细微动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110783057.3A CN113627259A (zh) 2021-07-12 2021-07-12 基于图卷积网络的细微动作识别方法

Publications (1)

Publication Number Publication Date
CN113627259A true CN113627259A (zh) 2021-11-09

Family

ID=78379508

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110783057.3A Pending CN113627259A (zh) 2021-07-12 2021-07-12 基于图卷积网络的细微动作识别方法

Country Status (1)

Country Link
CN (1) CN113627259A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN111652124A (zh) * 2020-06-02 2020-09-11 电子科技大学 一种基于图卷积网络的人体行为识别模型的构建方法
JP6830707B1 (ja) * 2020-01-23 2021-02-17 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN112395945A (zh) * 2020-10-19 2021-02-23 北京理工大学 基于骨骼关节点的图卷积行为识别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
JP6830707B1 (ja) * 2020-01-23 2021-02-17 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN111652124A (zh) * 2020-06-02 2020-09-11 电子科技大学 一种基于图卷积网络的人体行为识别模型的构建方法
CN112395945A (zh) * 2020-10-19 2021-02-23 北京理工大学 基于骨骼关节点的图卷积行为识别方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JINMIAO CAI等: "JOLO-GCN: Mining Joint-Centered Light-Weight Information for Skeleton-Based Action Recognition", HTTPS://ARXIV.ORG/ABS/2011.07787 *
管珊珊;张益农;: "基于残差时空图卷积网络的3D人体行为识别", 计算机应用与软件, no. 03 *
董安等: "基于图卷积的骨架行为识别", 现代计算机, no. 02 *

Similar Documents

Publication Publication Date Title
CN111047548B (zh) 姿态变换数据处理方法、装置、计算机设备和存储介质
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN109035172B (zh) 一种基于深度学习的非局部均值超声图像去噪方法
CN114220035A (zh) 一种基于改进yolo v4的快速害虫检测方法
CN104077742B (zh) 基于Gabor特征的人脸素描合成方法及系统
Guo et al. JointPruning: Pruning networks along multiple dimensions for efficient point cloud processing
CN111160294B (zh) 基于图卷积网络的步态识别方法
CN110852182A (zh) 一种基于三维空间时序建模的深度视频人体行为识别方法
CN112651316B (zh) 二维和三维多人姿态估计系统及方法
CN114049381A (zh) 一种融合多层语义信息的孪生交叉目标跟踪方法
CN112750148A (zh) 一种基于孪生网络的多尺度目标感知跟踪方法
CN114283495B (zh) 一种基于二值化神经网络的人体姿态估计方法
CN112232134A (zh) 一种基于沙漏网络结合注意力机制的人体姿态估计方法
CN113610046B (zh) 一种基于深度视频联动特征的行为识别方法
CN114419732A (zh) 基于注意力机制优化的HRNet人体姿态识别方法
CN111723667A (zh) 基于人体关节点坐标的智慧灯杆人群行为识别方法和装置
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
CN112801945A (zh) 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法
Song et al. 2d lidar map prediction via estimating motion flow with gru
CN114492634A (zh) 一种细粒度装备图片分类识别方法及系统
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN113822134A (zh) 一种基于视频的实例跟踪方法、装置、设备及存储介质
CN112819832A (zh) 基于激光点云的城市场景语义分割细粒度边界提取方法
Özbay et al. 3D Human Activity Classification with 3D Zernike Moment Based Convolutional, LSTM-Deep Neural Networks.
CN115546491A (zh) 一种跌倒报警方法、系统、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination