CN110020611B - 一种基于三维假设空间聚类的多人动作捕捉方法 - Google Patents
一种基于三维假设空间聚类的多人动作捕捉方法 Download PDFInfo
- Publication number
- CN110020611B CN110020611B CN201910200718.8A CN201910200718A CN110020611B CN 110020611 B CN110020611 B CN 110020611B CN 201910200718 A CN201910200718 A CN 201910200718A CN 110020611 B CN110020611 B CN 110020611B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- joint
- points
- point
- joint point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000036544 posture Effects 0.000 claims abstract description 48
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 44
- 210000003423 ankle Anatomy 0.000 claims description 6
- 210000003127 knee Anatomy 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 210000000707 wrist Anatomy 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于三维假设空间聚类的多人动作捕捉方法,可用于无标记人体动作捕捉。该方法包括:关联不同视图之间的二维关节点候选点、重建三维关节点候选点、三维姿态解析和姿态跟踪。本发明在不利用人体模型或假设任何人体先验知识的情况下,可以实现对不同体形的,人数不固定的多个人进行稳定可信地二维和全局三维人体姿态估计。本发明生成的姿态满足多视图几何约束和人体骨长约束,实现了在多人相互遮挡、紧密交互等极具挑战的场景下鲁棒可信的人体姿态估计。
Description
技术领域
本发明涉及一种基于三维假设空间聚类的多人动作捕捉方法。
背景技术
现有的三维人体姿态估计方法根据输入数据不同可以分为:基于单目RGB图像(序列);基于深度图像(序列);和基于多视图图像(序列)。基于单目RGB图像(序列)进行三维人体姿态估计是一个严重约束不足的问题,系统的观测输入为复杂自然图像,状态输出为高维人体姿态,由观测输入到状态输出过程是高度非线性的。3D姿态训练数据集的不足、不同人体尺寸和比例的差异、以及三维姿态空间的高维度,都使得三维姿态重建的可信性成为亟待解决的关键问题。基于深度图像(序列)的三维人体姿态估计方法有效缓解了基于单目图像方法的深度歧义问题。现有的基于深度的人体姿态估计方法所采用的深度图通常来自ToF相机或Kinect传感器。然而,Kinect和ToF都是主动传感器,因此仅限于没有红外线干扰的室内场景,并且只能在有限的范围内工作。基于多视图图像(序列)的方法可以有效克服单目三维姿态估计中的困难,并构建一个更真实适用的姿态估计系统。但现有的多视图方法通常都是独立地估计二维姿态和三维姿态,因此不能充分利用多视图三维几何信息。这些的方法的结果可能不满足多视图几何约束。
目前为止的大多数三维姿态估计方法在获取关节点深度信息方面都依赖于骨架模型和训练数据。骨架模型提供关节点之间几何约束,训练数据则提供了二维姿态与深度之间的统计关系。然而,三维姿态数据集获取困难、规模小;同时三维姿态的状态参数维度高、个体身材比例和大小的差异大。这导致三维姿态估计结果的可信度无法保证。其次,大部分三维姿态估计方法都只考虑场景只有一个人,很难扩展的到多人场景。
发明内容
本发明的目的是针对现有技术的不足,提供一种可信的多人三维人体动作捕捉方法。
本发明是通过以下技术方案实现的:一种基于三维假设空间聚类的多人动作捕捉方法,包括以下步骤:
(1)从C个不同视角的相机中分别获取二维RGB图像,定义为{I1,...,IC},每个相机对应的投影矩阵定义为{P1,...,PC};对于获取的C个二维RGB图像,分别进行二维人体姿态的初步估计,即对于每一人体关节点,得到包含所有人的该关节候选点的初始二维位置集合;
人体骨架有由14个关节点定义。各个关节点名称如下:<Head,Neck,Shoulder.L,Elbow.L,Wrist.L,Shoulder.R,Elbow.R,Wrist.R,Hip.L,Knee.L,Ankle.L,Hip.R,Knee.R,Ankle.R>,关节点对应编号依次为<1,2,3,4,5,6,7,8,9,10,11,12,13,14>,各关节点对应的父关节点编号依次为<#,1,2,3,4,2,6,7,2,9,10,2,12,13>。其中#表示无父节点,每个关节点与父关节点之间形成一段连接,共13段连接。关节点9(Hip.L)和关节点13(Hip.R)与父关节点(Neck)之间的连接没有固定骨长,其余关节点与父关节点之间均形成具有固定骨长的骨头,共11段骨头,标记为<b1,…,b11>;
所述二维人体姿态初步估计,以一张RGB图像作为输入,采用全卷积神经网络模型回归14个关节点的置信度图和关节点之间的亲和力场(part affinity field,PAF)。对于图像Ii,用Hi,j,j∈{1,2,…,14}表示第j个关节点的置信度图,关节点j对应的候选点的二维位置的集合通过对置信度图Hi,j进行非极大抑制获得,用表示;ni,j表示图像Ii中第j个关节点对应的候选点的总数;
(2)二维关节点候选点在不同视图之间关联。
对于关节点j,该步骤对步骤1获得的来自C个视图的关节点候选点进行关联,实现同一个人的关节点在不同视图之间的对应。
(2.1)三维假设空间构建:
对于关节点j,通过两两三角化不同视图之间的二维关节点对,得到一组三维点,剔除以下无效三维点,剔除无效三维点后的集合为三维假设空间,用Λj表示。
(a)集合中重投影误差大于阈值τ1(τ1=8)的三维点为无效三维点;
(b)不符合亲和力场准则约束的三维点为无效三维点:
其中,Φp为关节点p的三维关节点候选点集合,Xp关节点p的三维关节点,τ2=0.3,S(Xa,Xb)表示两个三维点Xa和Xb形成一段有效连接的置信度,定义如下:
s(xa,xb)表示关节点xa,和xb来自同一个人并形成该人二维骨架中的一段的置信度,Pi表示第i个相机对应的投影矩阵。
(c)假定关节点j的父关节点为p,两者之间形成一段连接p→j。且该连接具有固定骨长,则进一步采用骨长准则剔除无效三维点,所述骨长准则如下:
(2.2)三维假设空间聚类
采用DBSCAN聚类方法对Λj的三维关节点进行聚类,聚类时ε设置为15,最小聚类设置为2。通过聚类将不同人对应的三维点聚到同一个簇。如果一个簇的中心与两个以上父节点的三维候选点满足骨长准则,则对该簇进行分裂。分裂方法是:对于该簇的每个三维点,寻找其最优的满足骨长约束的父关节点候选点,根据父关节点候选点进行重新划分。所述的最优为最小。
(3)三维关节点候选点重建。对于关节点j,将步骤2中同一簇中所有的三维点所对应的n个二维点建立匹配。以视图{i1,...,in}之间匹配的一组二维关节点候选点为例,通过优化如下加权重投影误差代价函数得到一个三维关节点候选点Xj:
(4)三维姿态解析。给定重建的所有人的所有关节点对应的三维候选点,姿态解析将属于同一个的人的三维关节点候选点关联,生成每一个人完整的三维骨架。
(5)姿态跟踪。上述步骤独立地估计每一帧对应的所有人的三维姿态,使用姿态跟踪方法来生成每个人的姿态轨迹,从而得到时序一致的姿态估计。
本发明的有益效果在于:能够实现严重遮挡,多人紧密交互,人数不定等复杂场景下三维人体姿态的鲁棒估计;可以实现对不同骨架尺寸,比例的人进行自动的全局三维人体姿态的可信估计估计;可以实现对快速运动场景下的稳定鲁棒的姿态跟踪。
附图说明
图1:本发明的方法流程图。主要包括基于卷积神经网络(CNN)的初始二维姿态估计,三维姿态重建,姿态跟踪等三个重要环节。
图2:人体骨架模型示意图。本发明考虑由14个关节点和13段连接(其中11段连接具有固定骨长)构成的人体骨架。
图3:三维假设空间示意图。图(a)为初始三维假设空间;图(b)为采用重投影误差准则剔除错误三维点之后的三维假设空间;图(c)为进一步采用亲和力场准则和骨长准则剔除错误三维点之后的三维假设空间;图(d)为采用DBSCAN聚类之后的三维假设空间。
图4:本发明在Campus和Shelf数据集上的部分实验结果图。
图5:本发明在Panoptic数据集上的部分实验结果图。
图6:本发明部分室内,室外动作捕捉结果。
具体实施方式
本发明旨在估计满足多视图几何约束和骨长约束的可信多人三维人体姿态。首先,本发明提出全自动的多人人体动作捕捉方法,不依赖于任何人体模型或人体骨长、颜色、体型等先验知识,不需要人工干预,人体分割等操作,具有高度的灵活性和实用性。其次,本发明提出了一种简单高效的二维骨骼关键点在多视图之间的关联技术,该技术基于三维假设空间聚类实现了二维关节点在多视图的关联,对错误的二维关节点估计非常鲁棒。最后,本发明提出可靠的多人姿态重建和跟踪技术,该技术通过综合考虑多视图几何约束、骨长约束和多视图图像信息,重建多个人的三维人体姿态,同时提出一种高效的姿态跟踪方法实现相邻帧之间的姿态跟踪,生成时序一致的三维骨架。本发明在不利用人体模型或假设任何人体先验知识的情况下,可以实现对不同体形的,人数不固定的多个人进行稳定可信地二维和全局三维人体姿态估计。本发明生成的姿态满足多视图几何约束和人体骨长约束,实现了在多人相互遮挡、紧密交互等极具挑战的场景下鲁棒可信的人体姿态估计。下面对本发明作进一步说明。
一种基于三维假设空间聚类的多人动作捕捉方法,方法流程图如图1所示,包括以下步骤:
(1)从C个不同视角的相机中分别获取二维RGB图像,定义为{I1,...,IC},如图1(a)所示,每个相机对应的投影矩阵定义为{P1,...,PC};对于获取的C个二维RGB图像,分别进行二维人体姿态的初步估计,即对于每一人体关节点,得到包含所有人的该关节候选点的初始二维位置集合;
人体骨架如图2所示,由14个关节点定义。各个关节点名称如下:<Head,Neck,Shoulder.L,Elbow.L,Wrist.L,Shoulder.R,Elbow.R,Wrist.R,Hip.L,Knee.L,Ankle.L,Hip.R,Knee.R,Ankle.R>,关节点对应编号依次为<1,2,3,4,5,6,7,8,9,10,11,12,13,14>,各关节点对应的父关节点编号依次为<#,1,2,3,4,2,6,7,2,9,10,2,12,13>。其中#表示无父节点,每个关节点与父关节点之间形成一段连接,共13段连接。关节点9(Hip.L)和关节点13(Hip.R)与父关节点(Neck)之间的连接没有固定骨长,其余关节点与父关节点之间均形成具有固定骨长的骨头,共11段骨头,标记为<b1,…,b11>;
所述二维人体姿态初步估计,以一张RGB图像作为输入,采用全卷积神经网络模型回归14个关节点的置信度图(图1(b))和关节点之间的亲和力场(图1(c))。对于图像Ii,用Hi,j,j∈{1,2,…,14}表示第j个关节点的置信度图,关节点j对应的候选点的二维位置集合通过对置信度图Hi,j进行非极大抑制获得(图1(d)),用表示;关节点之间的亲和力场用于度量两个二维关节候选点来自同一人并形成一段连接的置信度,考虑图像Ii中的两个候选关节点xi,a,和xi,b,这里关节点a和关节点b是一对父子关节点即对应人体骨架中的一段连接,则用s(xi,a,xi,b)表示xi,a,和xi,b来自同一个人并形成该人二维骨架中的一段连接的置信度。
(2)二维关节点候选点在不同视图之间关联。对于关节点j,该步骤对步骤1获得的来自C个视图的关节点候选点进行关联,实现同一个人的关节点在不同视图之间的对应。
(2.1)三维假设空间构建:
对于关节点j,通过两两三角化不同视图之间的二维关节点对,得到一组三维点,剔除以下无效三维点,剔除无效三维点后的集合为三维假设空间,用Λj表示,如图3(a)所示。
(a)集合中重投影误差大于阈值τ1(τ1=8)的三维点为无效三维点,图3(b)展示了去除步骤(a)定义中无效三维点之后的结果,可以看到仍然存在部分错误的三维点满足重投影误差约束如果相应的两个二维候选点满足对极几何约束;
(b)不符合亲和力场准则约束的三维点为无效三维点:
其中,Φp为关节点p的三维关节点候选点集合,Xp关节点p的三维关节点,τ2=0.3,S(Xa,Xb)表示两个三维点Xa和Xb形成一段有效连接的置信度,定义如下:
s(xa,xb)表示关节点xa,和xb来自同一个人并形成该人二维骨架中的一段的置信度,Pi表示第i个相机对应的投影矩阵。
(c)假定关节点j的父关节点为p,两者之间形成一段连接p→j。且该连接具有固定骨长,则进一步采用骨长准则剔除无效三维点,所述骨长准则如下:
(2.2)三维假设空间聚类
步骤(2.1)得到的三维假设空间是多个人之间共享的。三维假设空间聚类旨在划分该假设空间得到每个人对应的三维假设空间。本发明采用DBSCAN聚类方法,其好处在于无需实现知道簇的个数,并且对噪声点很鲁棒。聚类结果如图3(d)所示,不同颜色对应不同的簇。聚类后的每一个簇的三维点对应一个人,自然而然地,用于三角化同一个簇内三维点的所有二维候选关节点即相互关联,一组相互关联的二维点将用于重建一个三维关节点候选点。
一种特例是来自不同人的同一个关节点相距非常近的情况(例如:两个击右掌),此时,聚类方法无法对此进行判断从而将不同人对应的三维点聚到同一个簇,意味着丢失了一个三维关节点候选点。为了解决这个问题,如果一个簇的中心与超过一个父节点的三维候选点满足骨长准则,则对该簇进行分裂。分裂方法是:对于该簇的每个三维点,通过寻找其最优的满足骨长约束的父关节点候选点进行重新划分。
(3)三维关节点候选点重建。对于关节点j,对于关节点j,将步骤2中同一簇中所有的三维点所对应的n个二维点建立匹配。以视图{i1,...,in}之间匹配的一组二维关节点候选点为例,通过优化如下加权重投影误差代价函数得到一个三维关节点候选点Xj:
(4)三维姿态解析。给定重建的所有人的所有关节点对应的三维候选点(如图1(e)所示),姿态解析将属于同一个的人的三维关节点候选点关联,生成每一个人完整的三维骨架。本发明将Cao等人提出的多人二维姿态解析方法扩展到三维。相应地,关节点候选点之间的连接置信度在三维空间中计算,即公式(1)。此外,每一段可能的连接还必须满足骨长约束。
(5)姿态跟踪。上述步骤独立地估计每一帧对应的所有人的三维姿态,本发明提出一个简单的姿态跟踪方法来生成每个人的姿态轨迹,从而得到时序一致的姿态估计,其中,同一个人的骨架用同一种颜色标记。给定不同帧对应的三维姿态估计,通过将它们在时序上关联来获得轨迹。该问题可以被看作是一个数据关联问题。本发明将该问题简化为相邻帧之间的二分匹配问题。初始化第一帧中每个姿态的轨迹,并采用贪心方式将轨迹标签在相邻帧之间进行传播,对于当前帧中没有匹配上的姿态,新建一个新的轨迹。
表1给出了本发明在Shelf和Campus数据集上的定量评价结果。表中数据采用PCP(Percentage of Correct Parts)作为评价指标。从实验结果可以看出,本发明提出的方法远远好于现有的基于多视图的多人人体姿态估计方法。图4给出了本发明在Shelf和Campus数据集上的部分实验结果图。可以看出无论是针对室内场景还是室外场景,本发明均可进行有效地姿态估计。
表1
表2给出了本发明在Panoptic数据集的不同序列上的定量评价结果。表中数据采用平均关节点误差MPJPE(Mean Per Joint Position Error)作为评价指标,单位:cm。从实验结果可以看出,本发明提出的方法在该数据集上的误差非常小,平均只有2.2cm。图5给出了本发明在该数据集上的部分实验结果图。
表2
本发明可用于无标记的多人人体动作捕捉,图6给出了部分室内,室外动作捕捉结果,本发明不依赖任何人体先验知识,可用于任何场景下多个人的动作捕捉。
Claims (1)
1.一种基于三维假设空间聚类的多人动作捕捉方法,其特征在于,包括以下步骤:
(1)从C个不同视角的相机中分别获取二维RGB图像,定义为{I1,...,IC},每个相机对应的投影矩阵定义为{P1,...,PC};对于获取的C个二维RGB图像,分别进行二维人体姿态的初步估计,即对于每一人体关节点,得到包含所有人的关节候选点的初始二维位置集合;
人体骨架由14个关节点定义;各个关节点名称如下:<Head,Neck,Shoulder.L,Elbow.L,Wrist.L,Shoulder.R,Elbow.R,Wrist.R,Hip.L,Knee.L,Ankle.L,Hip.R,Knee.R,Ankle.R>,关节点对应编号依次为<1,2,3,4,5,6,7,8,9,10,11,12,13,14>,各关节点对应的父关节点编号依次为<#,1,2,3,4,2,6,7,2,9,10,2,12,13>;其中#表示无父节点,每个关节点与父关节点之间形成一段连接,共13段连接;关节点9(Hip.L)和关节点13(Hip.R)与父关节点(Neck)之间的连接没有固定骨长,其余关节点与父关节点之间均形成具有固定骨长的骨头,共11段骨头,标记为<b1,...,b11>;
所述二维人体姿态初步估计,以一张RGB图像作为输入,采用全卷积神经网络模型回归14个关节点的置信度图和关节点之间的亲和力场(part affinity field,PAF);对于图像Ii,用Hi,j,j∈{1,2,...,14}表示第j个关节点的置信度图,关节点j对应的候选点的二维位置的集合通过对置信度图Hi,j进行非极大抑制获得,用表示;ni,j表示图像Ii中第j个关节点对应的候选点的总数;
(2)二维关节点候选点在不同视图之间关联:
对于关节点j,该步骤对步骤(1)获得的来自C个视图的关节点候选点进行关联,实现同一个人的关节点在不同视图之间的对应;
(2.1)三维假设空间构建:
对于关节点j,通过三角化不同视图之间的二维关节点对,得到一组三维点,剔除以下无效三维点,剔除无效三维点后的集合为三维假设空间,用Λj表示;
(a)集合中重投影误差大于阈值τ1的三维点为无效三维点,τ1=8;
(b)不符合亲和力场准则约束的三维点为无效三维点:
其中,Φp为关节点p的三维关节点候选点集合,Xp为关节点p的三维关节点,τ2=0.3,S(Xa,Xb)表示两个三维点Xa和Xb形成一段有效连接的置信度,定义如下:
s(xa,xb)表示关节点xa和xb来自同一个人并形成该人二维骨架中的一段的置信度,Pi表示第i个相机对应的投影矩阵;
(c)假定关节点j的父关节点为p,两者之间形成一段连接p→j;且该连接具有固定骨长,则进一步采用骨长准则剔除无效三维点,所述骨长准则如下:
(2.2)三维假设空间聚类
采用DBSCAN聚类方法对Λj的三维关节点进行聚类,聚类时ε设置为15,最小聚类设置为2;通过聚类将不同人对应的三维点聚到同一个簇;如果一个簇的中心与两个以上父节点的三维候选点满足骨长准则,则对该簇进行分裂;分裂方法是:对于该簇的每个三维点,寻找其最优的满足骨长约束的父关节点候选点,根据父关节点候选点进行重新划分;所述的最优为最小;
(3)三维关节点候选点重建:对于关节点j,将步骤(2)中同一簇中所有的三维点所对应的n个二维点建立匹配;以视图{i1,...,in}之间匹配的一组二维关节点候选点为例,通过优化如下加权重投影误差代价函数得到一个三维关节点候选点Xj:
(4)三维姿态解析:给定重建的所有人的所有关节点对应的三维候选点,姿态解析将属于同一个的人的三维关节点候选点关联,生成每一个人完整的三维骨架;
(5)姿态跟踪:上述步骤(1)-(4)独立地估计每一帧对应的所有人的三维姿态,使用姿态跟踪方法来生成每个人的姿态轨迹,从而得到时序一致的姿态估计。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910200718.8A CN110020611B (zh) | 2019-03-17 | 2019-03-17 | 一种基于三维假设空间聚类的多人动作捕捉方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910200718.8A CN110020611B (zh) | 2019-03-17 | 2019-03-17 | 一种基于三维假设空间聚类的多人动作捕捉方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110020611A CN110020611A (zh) | 2019-07-16 |
CN110020611B true CN110020611B (zh) | 2020-12-08 |
Family
ID=67189812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910200718.8A Expired - Fee Related CN110020611B (zh) | 2019-03-17 | 2019-03-17 | 一种基于三维假设空间聚类的多人动作捕捉方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110020611B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021007859A1 (zh) * | 2019-07-18 | 2021-01-21 | 华为技术有限公司 | 一种人体姿态估计方法及装置 |
CN110660017A (zh) * | 2019-09-02 | 2020-01-07 | 北京航空航天大学 | 一种基于三维姿态识别的舞谱记录与演示方法 |
US11501462B2 (en) | 2019-12-13 | 2022-11-15 | Sony Group Corporation | Multi-view three-dimensional positioning |
EP3886046A1 (en) * | 2020-03-26 | 2021-09-29 | Sony Group Corporation | Multi-view positioning using reflections |
CN111476883B (zh) * | 2020-03-30 | 2023-04-07 | 清华大学 | 多视角无标记动物的三维姿态轨迹重建方法及装置 |
CN111583386B (zh) * | 2020-04-20 | 2022-07-05 | 清华大学 | 基于标签传播算法的多视角人体姿态重建方法 |
CN111696183B (zh) * | 2020-05-09 | 2023-12-05 | 北京农业信息技术研究中心 | 投影互动方法、系统及电子设备 |
CN111401340B (zh) * | 2020-06-02 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 目标对象的运动检测方法和装置 |
CN111797714B (zh) * | 2020-06-16 | 2022-04-26 | 浙江大学 | 基于关键点聚类的多视点人体运动捕捉方法 |
CN111738220B (zh) * | 2020-07-27 | 2023-09-15 | 腾讯科技(深圳)有限公司 | 三维人体姿态估计方法、装置、设备及介质 |
CN112379773B (zh) * | 2020-11-12 | 2024-05-24 | 深圳市洲明科技股份有限公司 | 多人三维动作捕捉方法、存储介质及电子设备 |
CN112116653B (zh) * | 2020-11-23 | 2021-03-30 | 华南理工大学 | 一种多张rgb图片的物体姿态估计方法 |
WO2022241583A1 (zh) * | 2021-05-15 | 2022-11-24 | 电子科技大学 | 一种基于多目视频的家庭场景动作捕捉方法 |
US20240169560A1 (en) * | 2021-06-14 | 2024-05-23 | Nanyang Technological University | Method and system for generating a training dataset for keypoint detection, and method and system for predicting 3d locations of virtual markers on a marker-less subject |
WO2023087164A1 (en) * | 2021-11-17 | 2023-05-25 | Intel Corporation | Method and system of multi-view image processing with accurate skeleton reconstruction |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110032352A (ko) * | 2009-09-22 | 2011-03-30 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
CN102193624A (zh) * | 2010-02-09 | 2011-09-21 | 微软公司 | 用于基于姿势的用户界面的物理交互区 |
CN103247056A (zh) * | 2013-05-29 | 2013-08-14 | 中国人民解放军第三军医大学第一附属医院 | 人体骨关节系统三维模型-二维影像空间配准方法 |
CN205507800U (zh) * | 2016-02-29 | 2016-08-24 | 上海盟云移软网络科技股份有限公司 | 一种3d空间模拟动作捕捉系统 |
CN109377513A (zh) * | 2018-09-20 | 2019-02-22 | 浙江大学 | 一种针对两视图的全局三维人体姿态可信估计方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605986A (zh) * | 2013-11-27 | 2014-02-26 | 天津大学 | 一种基于局部特征的人体动作识别方法 |
CN104268138B (zh) * | 2014-05-15 | 2017-08-15 | 西安工业大学 | 融合深度图和三维模型的人体运动捕捉方法 |
-
2019
- 2019-03-17 CN CN201910200718.8A patent/CN110020611B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110032352A (ko) * | 2009-09-22 | 2011-03-30 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
CN102193624A (zh) * | 2010-02-09 | 2011-09-21 | 微软公司 | 用于基于姿势的用户界面的物理交互区 |
CN103247056A (zh) * | 2013-05-29 | 2013-08-14 | 中国人民解放军第三军医大学第一附属医院 | 人体骨关节系统三维模型-二维影像空间配准方法 |
CN205507800U (zh) * | 2016-02-29 | 2016-08-24 | 上海盟云移软网络科技股份有限公司 | 一种3d空间模拟动作捕捉系统 |
CN109377513A (zh) * | 2018-09-20 | 2019-02-22 | 浙江大学 | 一种针对两视图的全局三维人体姿态可信估计方法 |
Non-Patent Citations (2)
Title |
---|
Bottom-up Pose Estimation of Multiple Person with Bounding Box Constraint;Miaopeng Li et al;《2018 24th International Conference on Pattern Recognition (ICPR)》;20180824;第115-120页 * |
使用多视图L1跟踪器的三维人体运动恢复;程轩 等;《Journal of Frontiers of Computer Science and Technology》;20130228;第136-144页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110020611A (zh) | 2019-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020611B (zh) | 一种基于三维假设空间聚类的多人动作捕捉方法 | |
CN109377513B (zh) | 一种针对两视图的全局三维人体姿态可信估计方法 | |
Li et al. | Generating multiple hypotheses for 3d human pose estimation with mixture density network | |
Pavlakos et al. | Harvesting multiple views for marker-less 3d human pose annotations | |
CN109636831B (zh) | 一种估计三维人体姿态及手部信息的方法 | |
Zhou et al. | Towards 3d human pose estimation in the wild: a weakly-supervised approach | |
CN110222665B (zh) | 一种基于深度学习和姿态估计的监控中人体动作识别方法 | |
Balan et al. | Detailed human shape and pose from images | |
Tang et al. | Joint multi-view people tracking and pose estimation for 3D scene reconstruction | |
CN111414797B (zh) | 用于估计对象的姿势和姿态信息的系统和方法 | |
CN110555408B (zh) | 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法 | |
CN110598590A (zh) | 基于多视角相机的紧密交互人体姿态估计方法及装置 | |
CN112379773B (zh) | 多人三维动作捕捉方法、存储介质及电子设备 | |
CN111062326A (zh) | 一种基于几何驱动的自监督人体3d姿态估计网络训练方法 | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
Zhou et al. | Hemlets posh: Learning part-centric heatmap triplets for 3d human pose and shape estimation | |
CN113989928B (zh) | 一种动作捕捉和重定向方法 | |
Bartol et al. | A review of 3D human pose estimation from 2D images | |
Chen et al. | Prior-knowledge-based self-attention network for 3D human pose estimation | |
Lin et al. | Overview of 3d human pose estimation | |
CN117711066A (zh) | 一种三维人体姿态估计方法、装置、设备及介质 | |
Li et al. | 3D hypothesis clustering for cross-view matching in multi-person motion capture | |
KR102181828B1 (ko) | 4d리깅정보 복원장치 및 방법 | |
CN116206328A (zh) | 一种基于多视点几何的三维人体姿态估计方法 | |
Wu et al. | Multi-video temporal synchronization by matching pose features of shared moving subjects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201208 |