CN113255569B - 一种基于图空洞卷积编码器解码器的3d姿态估计方法 - Google Patents
一种基于图空洞卷积编码器解码器的3d姿态估计方法 Download PDFInfo
- Publication number
- CN113255569B CN113255569B CN202110658986.1A CN202110658986A CN113255569B CN 113255569 B CN113255569 B CN 113255569B CN 202110658986 A CN202110658986 A CN 202110658986A CN 113255569 B CN113255569 B CN 113255569B
- Authority
- CN
- China
- Prior art keywords
- graph
- representing
- hole
- convolution
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 239000011800 void material Substances 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 2
- 230000001502 supplementing effect Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 6
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉领域,具体是一种基于图空洞卷积编码器解码器的3D姿态估计方法,包括如下步骤:步骤S1:选择训练数据集;步骤S2:构建图空洞卷积编码器解码器模型;步骤S3:对训练数据集进行预处理;步骤S4:对图空洞卷积编码器解码器模型进行初始化操作;步骤S5:训练图空洞卷积编码器解码器模型;步骤S6:在选取的训练数据集上验证图空洞卷积编码器解码器模型;该方法能够有效地提取多尺度上下文信息并且精确地捕获全局长范围连接,这些信息对于3D姿态估计是非常有帮助的,能够大大提高3D姿态估计的预测性能。
Description
技术领域
本发明涉及计算机视觉领域,具体是指一种基于图空洞卷积编码器解码器的3D姿态估计方法。
背景技术
几十年来,人体姿态估计(Human Pose Estimation)在计算机视觉界备受关注,它是理解图像和视频中人物行为的关键一步,人体姿态估计包括2D姿态估计和3D姿态估计,其中2D姿态估计主要从图像估计出2D人体关节点坐标,而3D姿态估计旨在从2D关节点坐标(或2D图像)回归到3D姿态估计,3D姿态估计现在吸引了越来越多的注意力在很多计算机视觉领域,比如智能监控,人机交互,视频理解以及VR等等,在这个任务中,使用的数据是骨架数据,一系列人体关节点2D坐标,相较于RGB数据,骨架数据在动作识别中具有很好的鲁棒性和灵活性,因为在基于RGB数据的姿态估计中,预测过程容易受到图片帧中背景的干扰,从而在一定程度上降低准确率,另外骨架数据相比RGB数据,数据规模要小很多,从而减少了模型计算效率。
随着深度学习的发展,在3D姿态估计里面主要有两类方法,基于卷积神经网络(卷积神经网络)的和基于图神经网络(图神经网络)的,在之前,大部分方法习惯直接用卷积神经网络从图像回归出3D姿态坐标,而它们往往伴随有很大的计算量,后来随着2D姿态估计的成熟,一些模型开始图像先预处理得到2D姿态坐标,而后在进行回归得到3D姿态,把核心工作转移到2D姿态到3D姿态上,这一过程中,基于人体物理结构,2D和3D姿态都可以很自然的表示为一张图,这也是随后基于成为主流的图神经网络的模型所采取的数据表示形式,将人体关节点作为点,将基于身体物理连接的骨骼作为边,建立图,这样就可以利用强大的图神经网络来更好地融合骨架信息,来促进预测性能,在基于图神经网络的方法中,图卷积网络被频繁使用,图卷积网络可以看作卷积神经网络在非欧式空间数据上的推广,非常适合在像图一样的拓扑结构上提取信息。
存在的众多方法中,时空图卷积网络首先通过图卷积网络取关节信息,取得了比较好的性能和效率,但在双流自适应图卷积网络中,长范围信息没有被很好提取,受非局部网络的启发,加入了自适应图卷积模块,另外也是利用了双流架构,语义图卷积网络同时提取局部和非局部信息,在最新的半动态超图网络中,将人体骨架看作是一个超图,并且基于人体动力学建立静态和动态超图,从而提出了半动态超图网络来进行3D姿态估计。
然而,在存在的基于图神经网络的方法中,它们通常采用了受限的卷积核并且仅在单一关节尺度,这样忽略了丰富的多尺度上下文信息,事实上,这些多尺度上下文信息对促进预测性能是至关重要的,另外,先前的一些方法尝试提取非局部信息,但却忽略了带有丰富语义信息的位置编码信息(比如:关节类型)。
发明内容
基于以上问题,本发明提供了一种基于图空洞卷积编码器解码器的3D姿态估计方法,解决了在存在的基于图神经网络的方法中忽略多尺度上下文信息和语义信息问题以及提取非局部信息时忽略了带有丰富语义信息的位置编码信息的问题。
为解决以上技术问题,本发明采用的技术方案如下:
一种基于图空洞卷积编码器解码器的3D姿态估计方法,包括如下步骤:
步骤S1:选择训练数据集;
步骤S2:构建图空洞卷积编码器解码器模型;
步骤S3:对训练数据集进行预处理;
步骤S4:对图空洞卷积编码器解码器模型进行初始化操作;
步骤S5:训练步骤S4的图空洞卷积编码器解码器模型;
步骤S6:用步骤S1选取的训练数据集验证步骤S5的图空洞卷积编码器解码器模型。
进一步,所述图空洞卷积编码器解码器模型由图空洞卷积和图转换器组合并堆叠形成一个编码器解码器的网络结构,所述图空洞卷积编码器解码器模型在训练时需要对损失函数和学习率的更新方式进行设置。
进一步,所述图空洞卷积包括多个并行卷积,每个并行卷积都包括根节点和k-邻居的邻接矩阵。
进一步,所述图空洞卷积并行计算公式如下:
进一步,所述步骤S2中的图转换器是将视觉转换器应用在表示人体骨架的图结构上,并结合位置编码和一个全局注意力矩阵形成的网络层。
进一步,所述步骤S2中利用图转换器得到全局的注意力矩阵的公式如下:
进一步,所述步骤S5中,图空洞卷积编码器解码器模型的损失函数设置为:
进一步,学习率的更新方式设置为:
与现有技术相比,有益效果为:
(1)本发明重新设计了一种能有效提取骨架多尺度上下文信息的图空洞卷积,它可以扩大图卷积核的感受野,并能学习到深层的多尺度上下文;
(2)本发明在图结构上使用转换器操作来更好地提取全局长范围连接并补充了先前方法忽略的包含语义信息的位置编码信息;
(3)本发明将图空洞卷积和图转换器组装并堆叠形成图空洞卷积编码器解码器模型,大大提高了3D姿态估计的预测性能;
(4)本发明提出的是端到端的模型,可以方便地被迁移到其它下游任务上。
附图说明
图1为本实施例的流程图。
具体实施方式
下面结合附图对本发明作进一步的说明。本发明的实施方式包括但不限于下列实施例。
本实施例中,一种基于图空洞卷积编码器解码器的3D姿态估计方法,包括图空洞卷积编码器解码器模型,该图空洞卷积编码器解码器模型由图空洞卷积GAC和图转换器GTL组合并堆叠形成一个编码器解码器的网络结构,此网络结构可以有效地提取姿态中的局部多尺度上下文和全局长范围连接,并能大幅提升3D姿态估计的性能,其中:
图空洞卷积关注于扩大卷积核感受野并学习到局部多尺度上下文,用于提取骨架中的多尺度上下文信息,在图空洞卷积中,扩张因子被定义为到根节点的距离,以这种方式,图空洞卷积被表示为并行卷积,单个并行卷积包括根节点和k-邻居的邻接矩阵(1-邻居、2-邻居和3-邻居等),k-邻居指到根节点距离为k的邻居,本实施例中,首先给出k-邻居的邻接矩阵的定义:
图空洞卷积并行计算公式表示每个并行分支所采用的图卷积操作,作用为促进全局上下文信息;全局池化后的骨架特征和并行图空洞卷积的输出相互拼接,然后输入至两个嵌入函数来获得高级别特征,以此来计算注意力矩阵,具体过程如下:
另外,本实施例中引入图转换器层来更好地捕捉长范围信息,因为姿态骨架中的关节点仅根据输入坐标不能唯一标识定位它们的类型(比如:左手、右手),这一位置编码信息是很关键的,例如,两个关节可能在不同的时间空间中坐标相同,但表示的类型含义可能不同,为此采用了正弦、余弦函数对位置序列进行编码来补充丢失掉的位置信息如下:
其中,pos为关节点在序列中的位置,i表示关节点特征的维度,Cin表示输入特征的总维度,PE表示经过位置编码后的特征。
在图转换器层中,原始输入首先和位置编码相加,然后分别被喂给两个嵌入函数来获得高级别特征;点乘被用来测量嵌入空间中两个关节的相似性,然后基于此来计算注意力矩阵(表示节点之间的关系强度):
其中,用作嵌入函数的可学习权重矩阵,表示经图转换器层得到全局的注意力矩阵,表示归一化函数,表示输入特征矩阵,表示输入特征矩阵的转置。同时,也增加一个全局注意力矩阵用于无约束学习,该矩阵和上面计算的搭配的注意力矩阵相加作为最后的注意力矩阵。
为了获得基于人体动力学的多尺度特征,图池化和上采样操作需要被采用来有效捕捉多尺度信息的交互,以下是本实施例中所采用的图池化和图上采样操作:
本实施例提出的图空洞卷积编码器解码器模型堆叠了五个图空洞卷积和五个图转化器层在不同尺度,两个图卷积层被用于输入编码和输出解码;每一层后面都接上一个批量归一化和ReLU激活层。
另外,图空洞卷积编码器解码器模型的损失函数设置为:
基于以上,如图1所示,一种基于图空洞卷积编码器解码器的3D姿态估计方法,包括如下步骤:
步骤S1:选择训练数据集;
其中,本实施例选取了两个主流的3D姿态估计基准数据集进行实验,包括Human3.6M、MPI-INF-3DHP;
2D真实数据和3D真实数据对于监督3D姿态估计均可用,本实施例中使用五个主体(S1、S5、S6、S7和S8)来训练,使用另外两个主体(S9和S11)来测试,为了减少冗余,原始视频针对训练和测试分别采用了50fps和10fps的下采样;MPI-INF-3DHP是使用MoCap系统获得的数据集,测试集包含2929帧的图像,主要是来自6个主体的7个动作;
选择以上两个数据集是为了验证图空洞卷积编码器解码器模型对于不同类型数据集的适应性和鲁棒性,图空洞卷积编码器解码器模型在Human3.6M数据集上训练测试,仅在MPI-INF-3DHP上测试。
步骤S2:构建图空洞卷积编码器解码器模型;
本实施例中设计的图空洞卷积编码器解码器模型包含三个部分:图空洞卷积、图转换器、编码器解码器的网络结构,其中,图空洞卷积由包含根节点、1-邻居、2-邻居以及3-邻居组成的并行卷积,是一种高级的多尺度图卷积,专注于扩大图卷积核的感受野和提取骨架中的多尺度上下文信息;图转化器主要是为了补充语义位置编码信息并捕捉全局长范围连接;图空洞卷积和图转换器组合并堆叠,然后使用图池化和上采样形成编码器解码器的网络结构。
步骤S3:对训练数据集进行预处理;
其中,在图空洞卷积编码器解码器模型训练的过程中,需要将所有姿态估计坐标进行一定的预处理,根据数据的需要可以适当使用随机旋转,归一化,去噪等操作。
步骤S4:对图空洞卷积编码器解码器模型进行初始化操作;
其中,对图空洞卷积编码器解码器模型所有参数进行合适的随机初始化操作,以便模型能够快速收敛。
步骤S5:训练步骤S4的图空洞卷积编码器解码器模型;
其中,在训练过程中,由于主要使用Human3.6M和MPI-INF-3DHP两个数据集,其输入网络的骨架关节点数目大小都是16,网络通道数都设置为128,除了图转换器的中间通道为32以便降低模型参数量,多尺度中不同尺度的关节点分别是关节尺度16个关节、部位尺度10个关节、身体尺度5个关节,并且批量大小都是256,学习率设定0.001,使用Adam优化器进行学习,总的迭代数目设置为50,每隔25000次迭代学习率乘以0.96,实验均是在PyTorch深度学习框架下开展;
另外,图空洞卷积编码器解码器模型的损失函数设置为:
步骤S6:用步骤S1选取的训练数据集验证步骤S5的图空洞卷积编码器解码器模型
对于不同数据集评估指标也不同,对于Human3.6M数据集,平均关节位置误差MPJPE和经过刚性变换后的关节位置误差P-MPJPE被当作主要评估指标;而对于MPI-INF-3DHP数据集,正确关节点百分比PCK和位于ROC曲线下面积AUC两个指标被采用来进行测试评估;
本实施例分别在Human3.6M和MPI-INF-3DHP两个数据集测试了模型的性能,两个数据集上的四个不同指标都达到了极好的结果,如下表所示:
(在Human3.6M数据集上图空洞卷积编码器解码器模型性能(MPJPE)对比表格)
表1
(在Human3.6M数据集上图空洞卷积编码器解码器模型性能(P-MPJPE)对比表格)
表2
从上面两个表格可以看出,本实施例在Human3.6M数据集的大部分动作类别以及平均结果上均优于现有方法,本实施例在MPJPE和P-MPJPE上的最终Avg误差分别改善到了38.2mm和29.4mm,分别提升了1.7mm和2.7mm,如下表所示:
(在MPI-INF-3DHP数据集上图空洞卷积编码器解码器模型性能(PCK&AUC)对比图)
表3
从上表可以看出,本实施例在MPI-INF-3DHP数据集上性能得到了巨大的提升,并且在最终的PCK和AUC分数达到了76.4%和39.3%,分别较之前方法提升了1.5%和1.8%,基于此本实施例提出的基于图空洞卷积编码器解码器模型对于3D姿态估计任务能够有效地提取到多尺度上下文信息和全局长范围连接,这对于3D姿态估计是非常有帮助的,能极大地弥补当前方法所存在的缺点。
本实施例分别在Human3.6M和MPI-INF-3DHP两个数据集测试了模型的性能,两个数据集上的四个不同指标都达到了极好的结果,从表1、表2可以看出,本实施例在Human3.6M数据集的大部分动作类别以及平均结果上均优于现有方法,本实施例在MPJPE和P-MPJPE上的最终平均误差分别改善到了38.2mm和29.4mm,分别提升了1.7mm和2.7mm,从表3可以看出,本实施例在MPI-INF-3DHP数据集上性能得到了巨大的提升,并且在最终的PCK和AUC分数达到了76.4%和39.3%,分别较之前方法提升了1.5%和1.8%,基于此本实施例提出的基于图空洞卷积编码器解码器模型对于3D姿态估计任务能够有效地提取到多尺度上下文信息和全局长范围连接,这对于3D姿态估计是非常有帮助的,能极大地弥补当前方法所存在的缺点。
如上即为本发明的实施例。上述实施例以及实施例中的具体参数仅是为了清楚表述发明人的发明验证过程,并非用以限制本发明的专利保护范围,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (7)
1.一种基于图空洞卷积编码器解码器的3D姿态估计方法,其特征在于,包括如下步骤:
步骤S1:选择训练数据集;
步骤S2:构建由图空洞卷积和图转换器组合堆叠形成的图空洞卷积编码器解码器模型;所述图空洞卷积编码器解码器模型包含三个部分:图空洞卷积、图转换器、编码器解码器的网络结构,其中,图空洞卷积由包含根节点、1-邻居、2-邻居以及3-邻居组成的并行卷积,是一种高级的多尺度图卷积,专注于扩大图卷积核的感受野和提取骨架中的多尺度上下文信息;图转化器主要是为了补充语义位置编码信息并捕捉全局长范围连接;图空洞卷积和图转换器组合并堆叠,然后使用图池化和上采样形成编码器解码器的网络结构;
步骤S3:对训练数据集进行预处理;
步骤S4:对图空洞卷积编码器解码器模型进行初始化操作;
步骤S5:利用步骤S3预处理后的训练数据集训练步骤S4的图空洞卷积编码器解码器模型,同时设置图空洞卷积编码器解码器模型的损失函数和学习率的更新方式;
步骤S6:用步骤S1选取的训练数据集验证步骤S5的图空洞卷积编码器解码器模型。
2.根据权利要求1所述的一种基于图空洞卷积编码器解码器的3D姿态估计方法,其特征在于:所述步骤S2中,图片特征经过图空洞卷积时,图片特征在图空洞卷积中经过多个并行卷积,从而获取图片中的多尺度上下文信息。
4.根据权利要求1所述的一种基于图空洞卷积编码器解码器的3D姿态估计方法,其特征在于:所述步骤S2中,图片特征经过图转换器时,图片特征在图转换器中首先进行位置编码相加,然后得到的初步特征分别输入两个嵌入函数来获得高级别特征,以此来计算注意力矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110658986.1A CN113255569B (zh) | 2021-06-15 | 2021-06-15 | 一种基于图空洞卷积编码器解码器的3d姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110658986.1A CN113255569B (zh) | 2021-06-15 | 2021-06-15 | 一种基于图空洞卷积编码器解码器的3d姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255569A CN113255569A (zh) | 2021-08-13 |
CN113255569B true CN113255569B (zh) | 2021-10-01 |
Family
ID=77187876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110658986.1A Active CN113255569B (zh) | 2021-06-15 | 2021-06-15 | 一种基于图空洞卷积编码器解码器的3d姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255569B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119977B (zh) * | 2021-12-01 | 2022-12-30 | 昆明理工大学 | 一种基于图卷积的Transformer胃癌癌变区域图像分割方法 |
CN113869614B (zh) * | 2021-12-03 | 2022-04-19 | 北京航空航天大学杭州创新研究院 | 一种基于时空图卷积的行人流早期预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443144A (zh) * | 2019-07-09 | 2019-11-12 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
US10621779B1 (en) * | 2017-05-25 | 2020-04-14 | Fastvdo Llc | Artificial intelligence based generation and analysis of 3D models |
CN111860128A (zh) * | 2020-06-05 | 2020-10-30 | 南京邮电大学 | 一种基于多流快慢图卷积网络的人体骨骼行为识别方法 |
CN112036379A (zh) * | 2020-11-03 | 2020-12-04 | 成都考拉悠然科技有限公司 | 基于注意力时间池化图卷积的骨架动作识别方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8861870B2 (en) * | 2011-02-25 | 2014-10-14 | Microsoft Corporation | Image labeling with global parameters |
US10796482B2 (en) * | 2018-12-05 | 2020-10-06 | Snap Inc. | 3D hand shape and pose estimation |
CN110210320B (zh) * | 2019-05-07 | 2022-09-27 | 南京理工大学 | 基于深度卷积神经网络的多目标无标记姿态估计方法 |
CN110427877B (zh) * | 2019-08-01 | 2022-10-25 | 大连海事大学 | 一种基于结构信息的人体三维姿态估算的方法 |
CN111179244B (zh) * | 2019-12-25 | 2023-04-14 | 汕头大学 | 一种基于空洞卷积的自动化裂缝检测方法 |
CN112200773A (zh) * | 2020-09-17 | 2021-01-08 | 苏州慧维智能医疗科技有限公司 | 一种基于空洞卷积的编码器和解码器的大肠息肉检测方法 |
CN112528811A (zh) * | 2020-12-02 | 2021-03-19 | 建信金融科技有限责任公司 | 行为识别方法和装置 |
-
2021
- 2021-06-15 CN CN202110658986.1A patent/CN113255569B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10621779B1 (en) * | 2017-05-25 | 2020-04-14 | Fastvdo Llc | Artificial intelligence based generation and analysis of 3D models |
CN110443144A (zh) * | 2019-07-09 | 2019-11-12 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
CN111860128A (zh) * | 2020-06-05 | 2020-10-30 | 南京邮电大学 | 一种基于多流快慢图卷积网络的人体骨骼行为识别方法 |
CN112036379A (zh) * | 2020-11-03 | 2020-12-04 | 成都考拉悠然科技有限公司 | 基于注意力时间池化图卷积的骨架动作识别方法 |
Non-Patent Citations (5)
Title |
---|
3D human pose estimation with multi‑scale graph convolution and hierarchical body pooling;Ke Huang 等;《Multimedia Systems》;20210528;1-10 * |
Dynamic Multiscale Graph Neural Networks for 3D Skeleton-Based Human Motion Prediction;Maosen Li 等;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200805;211-220 * |
End-to-End Object Detection with Transformers;Nicolas Carion 等;《arXiv》;20200528;1-26 * |
Two-Stream Adaptive Graph Convolutional Networks for Skeleton-Based Action Recognition;Lei Shi 等;《arXiv》;20190710;1-10 * |
基于图卷积神经网络的人体动作识别研究;李超龙;《万方数据知识服务平台》;20200702;1-80 * |
Also Published As
Publication number | Publication date |
---|---|
CN113255569A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427877B (zh) | 一种基于结构信息的人体三维姿态估算的方法 | |
CN111310707B (zh) | 基于骨骼的图注意力网络动作识别方法及系统 | |
CN107492121B (zh) | 一种单目深度视频的二维人体骨骼点定位方法 | |
CN111652124A (zh) | 一种基于图卷积网络的人体行为识别模型的构建方法 | |
CN111985343A (zh) | 一种行为识别深度网络模型的构建方法及行为识别方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN113255569B (zh) | 一种基于图空洞卷积编码器解码器的3d姿态估计方法 | |
CN113111760B (zh) | 基于通道注意力的轻量化图卷积人体骨架动作识别方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN113408455A (zh) | 一种基于多流信息增强图卷积网络的动作识别方法、系统及存储介质 | |
CN113343901A (zh) | 基于多尺度注意力图卷积网络的人体行为识别方法 | |
CN113128424B (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
CN104573665A (zh) | 一种基于改进维特比算法的连续动作识别方法 | |
CN112651360B (zh) | 一种小样本下骨架动作识别方法 | |
CN112036260B (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
CN111950485B (zh) | 一种基于人体骨架的人体行为识别方法及系统 | |
CN111881731A (zh) | 基于人体骨架的行为识别方法、系统、装置及介质 | |
CN111204476A (zh) | 一种基于强化学习的视触融合精细操作方法 | |
CN112036379A (zh) | 基于注意力时间池化图卷积的骨架动作识别方法 | |
CN113780059A (zh) | 一种基于多特征点的连续手语识别方法 | |
CN115690908A (zh) | 一种基于拓扑感知的三维手势姿态估计方法 | |
CN116189306A (zh) | 基于联合注意力机制的人体行为识别方法 | |
CN116704596A (zh) | 一种基于骨骼序列的人体行为识别方法 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |