CN110020611A - 一种基于三维假设空间聚类的多人动作捕捉方法 - Google Patents

一种基于三维假设空间聚类的多人动作捕捉方法 Download PDF

Info

Publication number
CN110020611A
CN110020611A CN201910200718.8A CN201910200718A CN110020611A CN 110020611 A CN110020611 A CN 110020611A CN 201910200718 A CN201910200718 A CN 201910200718A CN 110020611 A CN110020611 A CN 110020611A
Authority
CN
China
Prior art keywords
artis
dimensional
point
bone
candidate point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910200718.8A
Other languages
English (en)
Other versions
CN110020611B (zh
Inventor
刘新国
李妙鹏
周子孟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910200718.8A priority Critical patent/CN110020611B/zh
Publication of CN110020611A publication Critical patent/CN110020611A/zh
Application granted granted Critical
Publication of CN110020611B publication Critical patent/CN110020611B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于三维假设空间聚类的多人动作捕捉方法,可用于无标记人体动作捕捉。该方法包括:关联不同视图之间的二维关节点候选点、重建三维关节点候选点、三维姿态解析和姿态跟踪。本发明在不利用人体模型或假设任何人体先验知识的情况下,可以实现对不同体形的,人数不固定的多个人进行稳定可信地二维和全局三维人体姿态估计。本发明生成的姿态满足多视图几何约束和人体骨长约束,实现了在多人相互遮挡、紧密交互等极具挑战的场景下鲁棒可信的人体姿态估计。

Description

一种基于三维假设空间聚类的多人动作捕捉方法
技术领域
本发明涉及一种基于三维假设空间聚类的多人动作捕捉方法。
背景技术
现有的三维人体姿态估计方法根据输入数据不同可以分为:基于单目RGB 图像(序列);基于深度图像(序列);和基于多视图图像(序列)。基于单目RGB图像(序列)进行三维人体姿态估计是一个严重约束不足的问题,系统的观测输入为复杂自然图像,状态输出为高维人体姿态,由观测输入到状态输出过程是高度非线性的。3D姿态训练数据集的不足、不同人体尺寸和比例的差异、以及三维姿态空间的高维度,都使得三维姿态重建的可信性成为亟待解决的关键问题。基于深度图像(序列)的三维人体姿态估计方法有效缓解了基于单目图像方法的深度歧义问题。现有的基于深度的人体姿态估计方法所采用的深度图通常来自ToF相机或Kinect传感器。然而,Kinect和ToF都是主动传感器,因此仅限于没有红外线干扰的室内场景,并且只能在有限的范围内工作。基于多视图图像(序列)的方法可以有效克服单目三维姿态估计中的困难,并构建一个更真实适用的姿态估计系统。但现有的多视图方法通常都是独立地估计二维姿态和三维姿态,因此不能充分利用多视图三维几何信息。这些的方法的结果可能不满足多视图几何约束。
目前为止的大多数三维姿态估计方法在获取关节点深度信息方面都依赖于骨架模型和训练数据。骨架模型提供关节点之间几何约束,训练数据则提供了二维姿态与深度之间的统计关系。然而,三维姿态数据集获取困难、规模小;同时三维姿态的状态参数维度高、个体身材比例和大小的差异大。这导致三维姿态估计结果的可信度无法保证。其次,大部分三维姿态估计方法都只考虑场景只有一个人,很难扩展的到多人场景。
发明内容
本发明的目的是针对现有技术的不足,提供一种可信的多人三维人体动作捕捉方法。
本发明是通过以下技术方案实现的:一种基于三维假设空间聚类的多人动作捕捉方法,包括以下步骤:
(1)从C个不同视角的相机中分别获取二维RGB图像,定义为 {I1,...,IC},每个相机对应的投影矩阵定义为{P1,...,PC};对于获取的 C个二维RGB图像,分别进行二维人体姿态的初步估计,即对于每一人体关节点,得到包含所有人的该关节候选点的初始二维位置集合;
人体骨架有由14个关节点定义。各个关节点名称如下:<Head,Neck, Shoulder.L,Elbow.L,Wrist.L,Shoulder.R,Elbow.R,Wrist.R,Hip.L,Knee.L, Ankle.L,Hip.R,Knee.R,Ankle.R>,关节点对应编号依次为<1,2,3,4,5,6,7,8,9,10,11,12,13,14>,各关节点对应的父关节点编号依次为<#,1,2,3,4,2,6,7,2,9,10,2,12,13>。其中#表示无父节点,每个关节点与父关节点之间形成一段连接,共13段连接。关节点9(Hip.L)和关节点13(Hip.R)与父关节点(Neck)之间的连接没有固定骨长,其余关节点与父关节点之间均形成具有固定骨长的骨头,共11段骨头,标记为<b1,…,b11>;
所述二维人体姿态初步估计,以一张RGB图像作为输入,采用全卷积神经网络模型回归14个关节点的置信度图和关节点之间的亲和力场(part affinity field,PAF)。对于图像Ii,用Hi,j,j∈{1,2,…,14}表示第j个关节点的置信度图,关节点j对应的候选点的二维位置的集合通过对置信度图Hi,j进行非极大抑制获得,用表示;ni,j表示图像Ii中第j个关节点对应的候选点的总数;
(2)二维关节点候选点在不同视图之间关联。
对于关节点j,该步骤对步骤1获得的来自C个视图的关节点候选点进行关联,实现同一个人的关节点在不同视图之间的对应。
(2.1)三维假设空间构建:
对于关节点j,通过两两三角化不同视图之间的二维关节点对,得到一组三维点,剔除以下无效三维点,剔除无效三维点后的集合为三维假设空间,用Λj表示。
(a)集合中重投影误差大于阈值τ11=8)的三维点为无效三维点;
(b)不符合亲和力场准则约束的三维点为无效三维点:
假定关节点j的父关节点为p,两者之间形成一段连接p→j。则假设空间中三维点必须满足与其中一个父关节点的三维候选点形成一段有效连接, 即:
其中,Φp为关节点p的三维关节点候选点集合,Xp关节点p的三维关节点,τ2=0.3,S(Xa,Xb)表示两个三维点Xa和Xb形成一段有效连接的置信度,定义如下:
s(xa,xb)表示关节点xa,和xb来自同一个人并形成该人二维骨架中的一段的置信度,Pi表示第i个相机对应的投影矩阵。
(c)假定关节点j的父关节点为p,两者之间形成一段连接p→j。且该连接具有固定骨长,则进一步采用骨长准则剔除无效三维点,所述骨长准则如下:
其中,τ3=4cm,是所有人的骨头p→j对应的骨长集合,lp,j为集合中的其中一段骨长;表示Xp之间的距离。
(2.2)三维假设空间聚类
采用DBSCAN聚类方法对Λj的三维关节点进行聚类,聚类时ε设置为15,最小聚类设置为2。通过聚类将不同人对应的三维点聚到同一个簇。如果一个簇的中心与两个以上父节点的三维候选点满足骨长准则,则对该簇进行分裂。分裂方法是:对于该簇的每个三维点,寻找其最优的满足骨长约束的父关节点候选点,根据父关节点候选点进行重新划分。所述的最优为最小。
(3)三维关节点候选点重建。对于关节点j,将步骤2中同一簇中所有的三维点所对应的n个二维点建立匹配。以视图{i1,...,in}之间匹配的一组二维关节点候选点为例,通过优化如下加权重投影误差代价函数得到一个三维关节点候选点Xj
(4)三维姿态解析。给定重建的所有人的所有关节点对应的三维候选点,姿态解析将属于同一个的人的三维关节点候选点关联,生成每一个人完整的三维骨架。
(5)姿态跟踪。上述步骤独立地估计每一帧对应的所有人的三维姿态,使用姿态跟踪方法来生成每个人的姿态轨迹,从而得到时序一致的姿态估计。
本发明的有益效果在于:能够实现严重遮挡,多人紧密交互,人数不定等复杂场景下三维人体姿态的鲁棒估计;可以实现对不同骨架尺寸,比例的人进行自动的全局三维人体姿态的可信估计估计;可以实现对快速运动场景下的稳定鲁棒的姿态跟踪。
附图说明
图1:本发明的方法流程图。主要包括基于卷积神经网络(CNN)的初始二维姿态估计,三维姿态重建,姿态跟踪等三个重要环节。
图2:人体骨架模型示意图。本发明考虑由14个关节点和13段连接(其中11段连接具有固定骨长)构成的人体骨架。
图3:三维假设空间示意图。图(a)为初始三维假设空间;图(b)为采用重投影误差准则剔除错误三维点之后的三维假设空间;图(c)为进一步采用亲和力场准则和骨长准则剔除错误三维点之后的三维假设空间;图(d)为采用DBSCAN聚类之后的三维假设空间。
图4:本发明在Campus和Shelf数据集上的部分实验结果图。
图5:本发明在Panoptic数据集上的部分实验结果图。
图6:本发明部分室内,室外动作捕捉结果。
具体实施方式
本发明旨在估计满足多视图几何约束和骨长约束的可信多人三维人体姿态。首先,本发明提出全自动的多人人体动作捕捉方法,不依赖于任何人体模型或人体骨长、颜色、体型等先验知识,不需要人工干预,人体分割等操作,具有高度的灵活性和实用性。其次,本发明提出了一种简单高效的二维骨骼关键点在多视图之间的关联技术,该技术基于三维假设空间聚类实现了二维关节点在多视图的关联,对错误的二维关节点估计非常鲁棒。最后,本发明提出可靠的多人姿态重建和跟踪技术,该技术通过综合考虑多视图几何约束、骨长约束和多视图图像信息,重建多个人的三维人体姿态,同时提出一种高效的姿态跟踪方法实现相邻帧之间的姿态跟踪,生成时序一致的三维骨架。本发明在不利用人体模型或假设任何人体先验知识的情况下,可以实现对不同体形的,人数不固定的多个人进行稳定可信地二维和全局三维人体姿态估计。本发明生成的姿态满足多视图几何约束和人体骨长约束,实现了在多人相互遮挡、紧密交互等极具挑战的场景下鲁棒可信的人体姿态估计。下面对本发明作进一步说明。
一种基于三维假设空间聚类的多人动作捕捉方法,方法流程图如图1所示,包括以下步骤:
(1)从C个不同视角的相机中分别获取二维RGB图像,定义为 {I1,...,IC},如图1(a)所示,每个相机对应的投影矩阵定义为 {P1,...,PC};对于获取的C个二维RGB图像,分别进行二维人体姿态的初步估计,即对于每一人体关节点,得到包含所有人的该关节候选点的初始二维位置集合;
人体骨架如图2所示,由14个关节点定义。各个关节点名称如下:<Head, Neck,Shoulder.L,Elbow.L,Wrist.L,Shoulder.R,Elbow.R,Wrist.R,Hip.L,Knee.L, Ankle.L,Hip.R,Knee.R,Ankle.R>,关节点对应编号依次为 <1,2,3,4,5,6,7,8,9,10,11,12,13,14>,各关节点对应的父关节点编号依次为 <#,1,2,3,4,2,6,7,2,9,10,2,12,13>。其中#表示无父节点,每个关节点与父关节点之间形成一段连接,共13段连接。关节点9(Hip.L)和关节点13(Hip.R)与父关节点(Neck)之间的连接没有固定骨长,其余关节点与父关节点之间均形成具有固定骨长的骨头,共11段骨头,标记为<b1,…,b11>;
所述二维人体姿态初步估计,以一张RGB图像作为输入,采用全卷积神经网络模型回归14个关节点的置信度图(图1(b))和关节点之间的亲和力场(图 1(c))。对于图像Ii,用Hi,j,j∈{1,2,…,14}表示第j个关节点的置信度图,关节点j对应的候选点的二维位置集合通过对置信度图Hi,j进行非极大抑制获得(图 1(d)),用表示;关节点之间的亲和力场用于度量两个二维关节候选点来自同一人并形成一段连接的置信度,考虑图像Ii中的两个候选关节点xi,a,和xi,b,这里关节点a和关节点b是一对父子关节点即对应人体骨架中的一段连接,则用s(xi,a,xi,b)表示xi,a,和 xi,b来自同一个人并形成该人二维骨架中的一段连接的置信度。
如下步骤2(二维关节点候选点在不同视图之间关联)和步骤3(三维关节点候选点重建)按照关节点编号顺序执行。对于关节点j,定义重建的三维关节点候选点集合为
(2)二维关节点候选点在不同视图之间关联。对于关节点j,该步骤对步骤1获得的来自C个视图的关节点候选点进行关联,实现同一个人的关节点在不同视图之间的对应。
(2.1)三维假设空间构建:
对于关节点j,通过两两三角化不同视图之间的二维关节点对,得到一组三维点,剔除以下无效三维点,剔除无效三维点后的集合为三维假设空间,用Λj表示,如图3(a)所示。
(a)集合中重投影误差大于阈值τ11=8)的三维点为无效三维点,图 3(b)展示了去除步骤(a)定义中无效三维点之后的结果,可以看到仍然存在部分错误的三维点满足重投影误差约束如果相应的两个二维候选点满足对极几何约束;
(b)不符合亲和力场准则约束的三维点为无效三维点:
假定关节点j的父关节点为p,两者之间形成一段连接p→j。则假设空间中三维点必须满足与其中一个父关节点的三维候选点形成一段有效连接, 即:
其中,Φp为关节点p的三维关节点候选点集合,Xp关节点p的三维关节点,τ2=0.3,S(Xa,Xb)表示两个三维点Xa和Xb形成一段有效连接的置信度,定义如下:
s(xa,xb)表示关节点xa,和xb来自同一个人并形成该人二维骨架中的一段的置信度,Pi表示第i个相机对应的投影矩阵。
(c)假定关节点j的父关节点为p,两者之间形成一段连接p→j。且该连接具有固定骨长,则进一步采用骨长准则剔除无效三维点,所述骨长准则如下:
其中,τ3=4cm,是所有人的骨头p→j对应的骨长集合,lp,j为集合中的其中一段骨长;表示Xp之间的距离。
(2.2)三维假设空间聚类
步骤(2.1)得到的三维假设空间是多个人之间共享的。三维假设空间聚类旨在划分该假设空间得到每个人对应的三维假设空间。本发明采用DBSCAN 聚类方法,其好处在于无需实现知道簇的个数,并且对噪声点很鲁棒。聚类结果如图3(d)所示,不同颜色对应不同的簇。聚类后的每一个簇的三维点对应一个人,自然而然地,用于三角化同一个簇内三维点的所有二维候选关节点即相互关联,一组相互关联的二维点将用于重建一个三维关节点候选点。
一种特例是来自不同人的同一个关节点相距非常近的情况(例如:两个击右掌),此时,聚类方法无法对此进行判断从而将不同人对应的三维点聚到同一个簇,意味着丢失了一个三维关节点候选点。为了解决这个问题,如果一个簇的中心与超过一个父节点的三维候选点满足骨长准则,则对该簇进行分裂。分裂方法是:对于该簇的每个三维点,通过寻找其最优的满足骨长约束的父关节点候选点进行重新划分。
(3)三维关节点候选点重建。对于关节点j,对于关节点j,将步骤2中同一簇中所有的三维点所对应的n个二维点建立匹配。以视图{i1,...,in}之间匹配的一组二维关节点候选点为例,通过优化如下加权重投影误差代价函数得到一个三维关节点候选点Xj
(4)三维姿态解析。给定重建的所有人的所有关节点对应的三维候选点 (如图1(e)所示),姿态解析将属于同一个的人的三维关节点候选点关联,生成每一个人完整的三维骨架。本发明将Cao等人提出的多人二维姿态解析方法扩展到三维。相应地,关节点候选点之间的连接置信度在三维空间中计算,即公式(1)。此外,每一段可能的连接还必须满足骨长约束。
(5)姿态跟踪。上述步骤独立地估计每一帧对应的所有人的三维姿态,本发明提出一个简单的姿态跟踪方法来生成每个人的姿态轨迹,从而得到时序一致的姿态估计,其中,同一个人的骨架用同一种颜色标记。给定不同帧对应的三维姿态估计,通过将它们在时序上关联来获得轨迹。该问题可以被看作是一个数据关联问题。本发明将该问题简化为相邻帧之间的二分匹配问题。初始化第一帧中每个姿态的轨迹,并采用贪心方式将轨迹标签在相邻帧之间进行传播,对于当前帧中没有匹配上的姿态,新建一个新的轨迹。
表1给出了本发明在Shelf和Campus数据集上的定量评价结果。表中数据采用PCP(Percentage of Correct Parts)作为评价指标。从实验结果可以看出,本发明提出的方法远远好于现有的基于多视图的多人人体姿态估计方法。图4给出了本发明在Shelf和Campus数据集上的部分实验结果图。可以看出无论是针对室内场景还是室外场景,本发明均可进行有效地姿态估计。
表1
表2给出了本发明在Panoptic数据集的不同序列上的定量评价结果。表中数据采用平均关节点误差MPJPE(Mean Per Joint Position Error)作为评价指标,单位:cm。从实验结果可以看出,本发明提出的方法在该数据集上的误差非常小,平均只有2.2cm。图5给出了本发明在该数据集上的部分实验结果图。
表2
本发明可用于无标记的多人人体动作捕捉,图6给出了部分室内,室外动作捕捉结果,本发明不依赖任何人体先验知识,可用于任何场景下多个人的动作捕捉。

Claims (1)

1.一种基于三维假设空间聚类的多人动作捕捉方法,其特征在于,包括以下步骤:
(1)从C个不同视角的相机中分别获取二维RGB图像,定义为{11,...,IC},每个相机对应的投影矩阵定义为{P1,...,PC};对于获取的C个二维RGB图像,分别进行二维人体姿态的初步估计,即对于每一人体关节点,得到包含所有人的该关节候选点的初始二维位置集合;
人体骨架有由14个关节点定义。各个关节点名称如下:<Head,Neck,Shoulder.L,Elbow.L,Wrist.L,Shoulder.R,Elbow.R,Wrist.R,Hip.L,Knee.L,Ankle.L,Hip.R,Knee.R,Ankle.R>,关节点对应编号依次为<1,2,3,4,5,6,7,8,9,10,11,12,13,14>,各关节点对应的父关节点编号依次为<#,1,2,3,4,2,6,7,2,9,10,2,12,13>。其中#表示无父节点,每个关节点与父关节点之间形成一段连接,共13段连接。关节点9(Hip.L)和关节点13(Hip.R)与父关节点(Neck)之间的连接没有固定骨长,其余关节点与父关节点之间均形成具有固定骨长的骨头,共11段骨头,标记为<b1,...,b11>;
所述二维人体姿态初步估计,以一张RGB图像作为输入,采用全卷积神经网络模型回归14个关节点的置信度图和关节点之间的亲和力场(part affinity field,PAF)。对于图像Ii,用Hi,j,j∈{1,2,...,14}表示第j个关节点的置信度图,关节点j对应的候选点的二维位置的集合通过对置信度图Hi,j进行非极大抑制获得,用表示;ni,j表示图像Ii中第j个关节点对应的候选点的总数;
(2)二维关节点候选点在不同视图之间关联。
对于关节点j,该步骤对步骤1获得的来自C个视图的关节点候选点进行关联,实现同一个人的关节点在不同视图之间的对应。
(2.1)三维假设空间构建:
对于关节点j,通过两两三角化不同视图之间的二维关节点对,得到一组三维点,剔除以下无效三维点,剔除无效三维点后的集合为三维假设空间,用Λj表示。
(a)集合中重投影误差大于阈值τ11=8)的三维点为无效三维点;
(b)不符合亲和力场准则约束的三维点为无效三维点:
假定关节点j的父关节点为p,两者之间形成一段连接p→j。则假设空间中三维点必须满足与其中一个父关节点的三维候选点形成一段有效连接,即:
其中,Φp为关节点p的三维关节点候选点集合,Xp关节点p的三维关节点,τ2=0.3,s(Xa,Xb)表示两个三维点Xa和Xb形成一段有效连接的置信度,定义如下:
s(xa,xb)表示关节点xa,和xb来自同一个人并形成该人二维骨架中的一段的置信度,Pi表示第i个相机对应的投影矩阵。
(c)假定关节点j的父关节点为p,两者之间形成一段连接p→j。且该连接具有固定骨长,则进一步采用骨长准则剔除无效三维点,所述骨长准则如下:
其中,τ3=4cm,是所有人的骨头p→j对应的骨长集合,lp,j为集合中的其中一段骨长;表示Xp之间的距离。
(2.2)三维假设空间聚类
采用DBSCAN聚类方法对Λj的三维关节点进行聚类,聚类时ε设置为15,最小聚类设置为2。通过聚类将不同人对应的三维点聚到同一个簇。如果一个簇的中心与两个以上父节点的三维候选点满足骨长准则,则对该簇进行分裂。分裂方法是:对于该簇的每个三维点,寻找其最优的满足骨长约束的父关节点候选点,根据父关节点候选点进行重新划分。所述的最优为最小。
(3)三维关节点候选点重建。对于关节点j,将步骤2中同一簇中所有的三维点所对应的n个二维点建立匹配。以视图{i1,...,in}之间匹配的一组二维关节点候选点为例,通过优化如下加权重投影误差代价函数得到一个三维关节点候选点Xj
(4)三维姿态解析。给定重建的所有人的所有关节点对应的三维候选点,姿态解析将属于同一个的人的三维关节点候选点关联,生成每一个人完整的三维骨架。
(5)姿态跟踪。上述步骤独立地估计每一帧对应的所有人的三维姿态,使用姿态跟踪方法来生成每个人的姿态轨迹,从而得到时序一致的姿态估计。
CN201910200718.8A 2019-03-17 2019-03-17 一种基于三维假设空间聚类的多人动作捕捉方法 Expired - Fee Related CN110020611B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910200718.8A CN110020611B (zh) 2019-03-17 2019-03-17 一种基于三维假设空间聚类的多人动作捕捉方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910200718.8A CN110020611B (zh) 2019-03-17 2019-03-17 一种基于三维假设空间聚类的多人动作捕捉方法

Publications (2)

Publication Number Publication Date
CN110020611A true CN110020611A (zh) 2019-07-16
CN110020611B CN110020611B (zh) 2020-12-08

Family

ID=67189812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910200718.8A Expired - Fee Related CN110020611B (zh) 2019-03-17 2019-03-17 一种基于三维假设空间聚类的多人动作捕捉方法

Country Status (1)

Country Link
CN (1) CN110020611B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110660017A (zh) * 2019-09-02 2020-01-07 北京航空航天大学 一种基于三维姿态识别的舞谱记录与演示方法
CN111401340A (zh) * 2020-06-02 2020-07-10 腾讯科技(深圳)有限公司 目标对象的运动检测方法和装置
CN111476883A (zh) * 2020-03-30 2020-07-31 清华大学 多视角无标记动物的三维姿态轨迹重建方法及装置
CN111583386A (zh) * 2020-04-20 2020-08-25 清华大学 基于标签传播算法的多视角人体姿态重建方法
CN111696183A (zh) * 2020-05-09 2020-09-22 北京农业信息技术研究中心 投影互动方法、系统及电子设备
CN111797714A (zh) * 2020-06-16 2020-10-20 浙江大学 基于关键点聚类的多视点人体运动捕捉方法
CN112116653A (zh) * 2020-11-23 2020-12-22 华南理工大学 一种多张rgb图片的物体姿态估计方法
WO2021007859A1 (zh) * 2019-07-18 2021-01-21 华为技术有限公司 一种人体姿态估计方法及装置
CN112379773A (zh) * 2020-11-12 2021-02-19 深圳市洲明科技股份有限公司 多人三维动作捕捉方法、存储介质及电子设备
EP3836085A1 (en) * 2019-12-13 2021-06-16 Sony Corporation Multi-view three-dimensional positioning
EP3886046A1 (en) * 2020-03-26 2021-09-29 Sony Group Corporation Multi-view positioning using reflections
WO2022022063A1 (zh) * 2020-07-27 2022-02-03 腾讯科技(深圳)有限公司 三维人体姿态估计方法和相关装置
WO2022241583A1 (zh) * 2021-05-15 2022-11-24 电子科技大学 一种基于多目视频的家庭场景动作捕捉方法
WO2022265575A3 (en) * 2021-06-14 2023-03-02 Nanyang Technological University Method and system for generating a training dataset for keypoint detection, and method and system for predicting 3d locations of virtual markers on a marker-less subject
WO2023087164A1 (en) * 2021-11-17 2023-05-25 Intel Corporation Method and system of multi-view image processing with accurate skeleton reconstruction
CN112379773B (zh) * 2020-11-12 2024-05-24 深圳市洲明科技股份有限公司 多人三维动作捕捉方法、存储介质及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110032352A (ko) * 2009-09-22 2011-03-30 삼성전자주식회사 영상 처리 장치 및 방법
CN102193624A (zh) * 2010-02-09 2011-09-21 微软公司 用于基于姿势的用户界面的物理交互区
CN103247056A (zh) * 2013-05-29 2013-08-14 中国人民解放军第三军医大学第一附属医院 人体骨关节系统三维模型-二维影像空间配准方法
CN103605986A (zh) * 2013-11-27 2014-02-26 天津大学 一种基于局部特征的人体动作识别方法
CN104268138A (zh) * 2014-05-15 2015-01-07 西安工业大学 融合深度图和三维模型的人体运动捕捉方法
CN205507800U (zh) * 2016-02-29 2016-08-24 上海盟云移软网络科技股份有限公司 一种3d空间模拟动作捕捉系统
CN109377513A (zh) * 2018-09-20 2019-02-22 浙江大学 一种针对两视图的全局三维人体姿态可信估计方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110032352A (ko) * 2009-09-22 2011-03-30 삼성전자주식회사 영상 처리 장치 및 방법
CN102193624A (zh) * 2010-02-09 2011-09-21 微软公司 用于基于姿势的用户界面的物理交互区
CN103247056A (zh) * 2013-05-29 2013-08-14 中国人民解放军第三军医大学第一附属医院 人体骨关节系统三维模型-二维影像空间配准方法
CN103605986A (zh) * 2013-11-27 2014-02-26 天津大学 一种基于局部特征的人体动作识别方法
CN104268138A (zh) * 2014-05-15 2015-01-07 西安工业大学 融合深度图和三维模型的人体运动捕捉方法
CN205507800U (zh) * 2016-02-29 2016-08-24 上海盟云移软网络科技股份有限公司 一种3d空间模拟动作捕捉系统
CN109377513A (zh) * 2018-09-20 2019-02-22 浙江大学 一种针对两视图的全局三维人体姿态可信估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MIAOPENG LI ET AL: "Bottom-up Pose Estimation of Multiple Person with Bounding Box Constraint", 《2018 24TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR)》 *
程轩 等: "使用多视图L1跟踪器的三维人体运动恢复", 《JOURNAL OF FRONTIERS OF COMPUTER SCIENCE AND TECHNOLOGY》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021007859A1 (zh) * 2019-07-18 2021-01-21 华为技术有限公司 一种人体姿态估计方法及装置
CN110660017A (zh) * 2019-09-02 2020-01-07 北京航空航天大学 一种基于三维姿态识别的舞谱记录与演示方法
EP3836085A1 (en) * 2019-12-13 2021-06-16 Sony Corporation Multi-view three-dimensional positioning
US11501462B2 (en) 2019-12-13 2022-11-15 Sony Group Corporation Multi-view three-dimensional positioning
EP3886046A1 (en) * 2020-03-26 2021-09-29 Sony Group Corporation Multi-view positioning using reflections
US11645777B2 (en) 2020-03-26 2023-05-09 Sony Group Corporation Multi-view positioning using reflections
CN111476883A (zh) * 2020-03-30 2020-07-31 清华大学 多视角无标记动物的三维姿态轨迹重建方法及装置
CN111583386A (zh) * 2020-04-20 2020-08-25 清华大学 基于标签传播算法的多视角人体姿态重建方法
CN111583386B (zh) * 2020-04-20 2022-07-05 清华大学 基于标签传播算法的多视角人体姿态重建方法
CN111696183B (zh) * 2020-05-09 2023-12-05 北京农业信息技术研究中心 投影互动方法、系统及电子设备
CN111696183A (zh) * 2020-05-09 2020-09-22 北京农业信息技术研究中心 投影互动方法、系统及电子设备
CN111401340A (zh) * 2020-06-02 2020-07-10 腾讯科技(深圳)有限公司 目标对象的运动检测方法和装置
CN111797714A (zh) * 2020-06-16 2020-10-20 浙江大学 基于关键点聚类的多视点人体运动捕捉方法
CN111797714B (zh) * 2020-06-16 2022-04-26 浙江大学 基于关键点聚类的多视点人体运动捕捉方法
WO2022022063A1 (zh) * 2020-07-27 2022-02-03 腾讯科技(深圳)有限公司 三维人体姿态估计方法和相关装置
JP2023521952A (ja) * 2020-07-27 2023-05-26 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 3次元人体姿勢推定方法及びその装置、コンピュータデバイス、並びにコンピュータプログラム
EP4102400A4 (en) * 2020-07-27 2023-06-28 Tencent Technology (Shenzhen) Company Limited Three-dimensional human pose estimation method and related device
CN112379773A (zh) * 2020-11-12 2021-02-19 深圳市洲明科技股份有限公司 多人三维动作捕捉方法、存储介质及电子设备
CN112379773B (zh) * 2020-11-12 2024-05-24 深圳市洲明科技股份有限公司 多人三维动作捕捉方法、存储介质及电子设备
CN112116653B (zh) * 2020-11-23 2021-03-30 华南理工大学 一种多张rgb图片的物体姿态估计方法
CN112116653A (zh) * 2020-11-23 2020-12-22 华南理工大学 一种多张rgb图片的物体姿态估计方法
WO2022241583A1 (zh) * 2021-05-15 2022-11-24 电子科技大学 一种基于多目视频的家庭场景动作捕捉方法
WO2022265575A3 (en) * 2021-06-14 2023-03-02 Nanyang Technological University Method and system for generating a training dataset for keypoint detection, and method and system for predicting 3d locations of virtual markers on a marker-less subject
WO2023087164A1 (en) * 2021-11-17 2023-05-25 Intel Corporation Method and system of multi-view image processing with accurate skeleton reconstruction

Also Published As

Publication number Publication date
CN110020611B (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
CN110020611A (zh) 一种基于三维假设空间聚类的多人动作捕捉方法
CN110135375B (zh) 基于全局信息整合的多人姿态估计方法
Cheung et al. Shape-from-silhouette across time part ii: Applications to human modeling and markerless motion tracking
Wong et al. Learning topology from synthetic data for unsupervised depth completion
CN107818592A (zh) 协作式同步定位与地图构建的方法、系统及交互系统
Herbst et al. Toward object discovery and modeling via 3-d scene comparison
CN109658449A (zh) 一种基于rgb-d图像的室内场景三维重建方法
CN109377513B (zh) 一种针对两视图的全局三维人体姿态可信估计方法
CN110060277A (zh) 一种多特征融合的视觉slam方法
CN108898063A (zh) 一种基于全卷积神经网络的人体姿态识别装置及方法
Tang et al. Joint multi-view people tracking and pose estimation for 3D scene reconstruction
KR101639161B1 (ko) 골격 정보를 이용한 사용자 인증 방법
CN106815855A (zh) 基于产生式和判别式结合的人体运动跟踪方法
Argyros et al. Binocular hand tracking and reconstruction based on 2D shape matching
CN111583386B (zh) 基于标签传播算法的多视角人体姿态重建方法
CN109758756A (zh) 基于3d相机的体操视频分析方法及系统
CN109977827A (zh) 一种使用多视图匹配方法的多人三维姿态估计方法
Zhao et al. Double propagation stereo matching for urban 3-d reconstruction from satellite imagery
Zhu et al. Mvp-human dataset for 3d human avatar reconstruction from unconstrained frames
KR102181828B1 (ko) 4d리깅정보 복원장치 및 방법
Kompatsiaris et al. 3-D model-based segmentation of videoconference image sequences
Deng et al. SVMAC: unsupervised 3D human pose estimation from a single image with single-view-multi-angle consistency
Agrawal et al. Trinocular stereo using shortest paths and the ordering constraint
CN113469018A (zh) 基于rgb与三维骨骼的多模态交互行为识别方法
Zhu et al. MVP-Human Dataset for 3D Clothed Human Avatar Reconstruction from Multiple Frames

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201208