CN113487726A - 动作捕捉系统和方法 - Google Patents
动作捕捉系统和方法 Download PDFInfo
- Publication number
- CN113487726A CN113487726A CN202110786865.5A CN202110786865A CN113487726A CN 113487726 A CN113487726 A CN 113487726A CN 202110786865 A CN202110786865 A CN 202110786865A CN 113487726 A CN113487726 A CN 113487726A
- Authority
- CN
- China
- Prior art keywords
- motion
- motion capture
- model
- information
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 17
- 239000003550 marker Substances 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 238000009826 distribution Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims description 2
- 101100259947 Homo sapiens TBATA gene Proteins 0.000 claims 1
- 230000011218 segmentation Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种动作捕捉系统和方法,该系统包括至少一个动作捕捉装置,图像特征计算器,动作模型生成器,以及动作数据优化器。本发明提供的动作捕捉系统和方法,通过充足的多视角场景信息,可准确地对多目标进行检测跟踪,有效排除遮挡和场景范围约束造成的影响,提供更精准的动作数据。
Description
技术领域
本发明属于人体动作技术领域,具体涉及一种动作捕捉系统和方法。
背景技术
动作捕捉技术是一种通过设备采集并计算物体不同部位的动作轨迹、姿态等信息的技术。根据原理不同可分为惯性动捕和光学动捕两大类。其中光学动捕的精度和稳定性主要依赖于光学传感器。光学传感器又分为深度相机和普通相机两类。多相机动捕是指利用多台光学设备搭建的系统进行动作捕捉。利用普通相机进行动作捕捉通常需要组装多台相机来恢复深度信息,具有价格相对于深度相机较低、适用性较强和可靠性高等特点,在影视制作、虚拟现实、工业测量等领域有较大的应用空间。
多相机动捕系统可获取更多视角的动作信息,更精准的计算动作数据。当前,由多深度相机(基于多视角的深度相机的无标记动作捕捉方法及装置CN102800103B)组成的动捕系统可捕捉重建人体点云数据,并与现有人体模型匹配,得到动作数据。由普通相机组成的多相机动作捕捉系统中通常使用标记点标记物体,利用多视角几何方法恢复标记点空间信息,从而获取动作数据。
由多个深度相机组成的动捕系统,其价格成本较高、捕捉环境要求较高,虽然能较为直接地获取深度信息,同时也增加了一些冗余信息,降低了数据处理性能。多个普通相机组成的动捕系统仅使用标记点获取动作信息,其稳定性容易受到环境和标记点本身质量的影响。多个普通相机组成的动捕系统在无标记点情况下,难以计算目标在真实世界中的位姿。同时多个普通相机组成的动捕系统能够灵活的增设深度相机作为辅助。单相机动捕会丢失深度信息,从而导致尺度的不确定性,同时会出现自遮挡问题。
随着人工智能AI技术的发展,人工智能AI技术在各个领域都得到广泛应用。尤其在计算机视觉方面,可以完成以往传统图像技术难以实现的功能。由普通相机组成的多相机动作捕捉系统也可在无标记点情况下利用计算机视觉方法获取单相机的2维动作结构特征,然后融合多相机数据获取动作数据。
发明内容
本发明的目的是提出一种动作捕捉系统,该系统能够适应多种自然场景,在较少或者无标记点情况下提高动捕数据的准确度,通过优化动作使动捕结果更真实,确保动捕模型尺度与被捕捉目标一致。
本发明的具体技术方案如下。
一种动作捕捉系统,包括:
动作捕捉装置,此装置包含三台或以上的图像感知设备,用于图像采集;
图像特征计算器,用于对所述图像进行特征检测,所述特征包括自然纹理特征、标记点和人体关键点;
动作模型生成器,用于基于深度学习的人体三维动作模型生成;
动作数据优化器,用于多视点人体动作数据优化。
进一步,所述动作捕捉装置包括至少一种深度相机,用以辅助人体空间定位和动作采集。
进一步,所述动作捕捉装置包括至少一种标记物,用于标记待检测的目标。
进一步,所述标记物包括一种对动作捕捉目标进行编号的编码标记点。
进一步,所述动作捕捉装置包括用于交换数据的通信装置。
进一步,所述动作捕捉装置包含用于显示图像、视频的显示模块。
进一步,所述动作捕捉装置包含用于显示3D模型及动作信息的3D显示模块。
进一步,所述动作捕捉装置包括至少一种电子芯片处理器,所述电子芯片处理器执行如下功能的一个子集:图像特征计算器,动作模型生成器,动作数据优化器,以及3D特征计算器。
本发明的另一个目的是提供一种基于深度学习的动作捕捉方法。该方法能够灵活适应动捕场景,真实、高效地执行动捕计算,具体技术方案如下。
一种动作捕捉方法,包括以下步骤:
1)通过动作捕捉装置获得至少三个相机视角的图像序列;
2)对图像中的特征进行检测;
3)动作模型生成,利用深度学习算法和多视角下检测到的与指定语义有关联的关键点,生成动作捕捉目标的动作模型,该模型包含3D表面信息、动作信息以及3D表面与动作之间的约束信息;
4)动作模型优化,利用动作捕捉设备获取的多视角下特征信息和动作模型,对全局坐标系下动作模型进行优化;
5)3D特征计算,利用多视角下图像2D特征点计算全局坐标系下的3D坐标。
进一步,所述特征检测,对已知尺寸和组合方式的人工标记点进行检测,能够得到标记点的颜色和形状信息,以及标记点在局部部位的分布信息。
进一步,所述人工标记点检测,包括对编码标记点的检测。
进一步,所述特征检测,利用深度学习算法对与指定语义相关联关键点的检测,对动作捕捉目标进行部位划分。
进一步,所述关联关键点的检测是人体关键点检测。
进一步,所述特征检测,包括事先对不同视角感知设备获取的图像进行多个目标检测以获取ROI区域。
进一步,所述特征检测,包括对保持跟踪并标记。
进一步,所述特征检测,针对动作捕捉目标出入动捕场景范围的情况和目标检测丢失情况,利用时序连续性和多视点对极约束,对动作捕捉目标进行跟踪标记。
进一步,所述动作模型生成,利用与指定语义相关联的关键点和动作捕捉目标所具备的标记信息,生成具有形态参数和动作信息的动作模型。
进一步,所述动作模型优化,包括在时序上对不同目标的全局坐标系位置和姿态进行滤波和插值操作。
进一步,所述动作模型优化,包括估计动作捕捉目标的尺度。
进一步,所述动作模型优化,包括利用全局坐标系下动作模型在多视点相机的投影关系,计算目标的尺度和全局坐标系位置。
本发明的有益效果:本发明提供的动作捕捉系统和方法,通过充足的多视角场景信息,可准确地对多目标进行检测跟踪,有效排除遮挡和场景范围约束造成的影响,提供更精准的动作数据。
附图说明
图1为本发明多相机动作捕捉系统框架图。
具体实施方式
下面结合附图,对本发明进一步详细说明。
图1为本发明动作捕捉系统框架图。
实施例:
一种多相机动作捕捉方法,包括搭建动作捕捉装置10。将相机均匀分布在动作捕捉场景周围,设备朝向捕捉场景,固定各设备,防止设备不稳定产生的错误数据和错误标定参数。各设备与近邻设备之间的夹角大小小于45°,保持感知范围有重叠,以便进行相机标定、特征点的3D重建和目标跟踪。
相机内参标定。将棋盘格标定板放置于捕捉场景下,系统中各设备开始记录图像。棋盘格标定板内格子尺寸已知。将多视角图像传输至图像标记点检测器12进行角点检测。而后利用各视角棋盘格图像以及角点信息13进行各设备内参的标定。标定方法参照张正友标定法(参阅[1]Zhang Z.A Flexible New Technique for Camera Calibration[J].IEEETransactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.)。
标记点检测。将人工设计的标记点按照设定顺序贴附于动作捕捉目标表面。设备记录动捕目标图像数据,传输至图像特征计算器12进行角点检测和边缘检测,而后计算凸多边形以确定人工标记点块疑似区域。在疑似标记点块区域内,通过检测图像中出现的形状和颜色将对应的标记点图像坐标记录。
相机外参标定。给定多视角下特征点集合,利用多视角几何原理,可求解相机之间的外参。利用图像特征检测器12得到的标记点进行系统标定计算,利用多视角下标记块角点求解外参,不存在标记点则利用标定板图像中的角点作为特征点集合求解相机之间外参。相机A、B之间外参用TAB表示。给定初始外参T′AB,利用标定后的内参和各角点极线,生成投影误差函数代价函数,而后利用非线性求解方式求得TAB。非线性求解方式适用于同时对多个相机的外参求解。而后根据标记点的真实尺寸计算相机之间的距离尺度。而后选择一个与其他相机感知范围重叠度最多的相机,将该相机坐标系作为系统全局坐标系。然后将其他相机的外参更新到全局坐标系。
动捕目标部位关键点检测。图像特征检测器12利用预先训练好的模型对各视角图像中动作捕捉目标的部位关键点20进行检测。
动捕目标检测。依据目标部位检测到的关键点和标记物,标记对应的目标17。
动捕目标跟踪。在标记物检测缺失情况下,在同一时刻获取的多视角图像数据中,将相同目标利用部位关键点的极线约束进行匹配并编号。在时序上一段时间范围内,利用单个视角中关键点和标记点在图像坐标系下的空间位置约束,以及多视角的极线约束进行匹配并编号。有标记物情况下,直接进行编号。
3D动作模型生成。动作模型生成器21针对单个视角图像,利用参数化的初始3D模型M′和多视角下检测到的动作捕捉目标关键点P,生成动作捕捉目标的动作模型M 23,其中M=F(M′,P),其中F表示深度学习训练所得模型。M包含3D表面信息、动作信息以及3D表面与关节点之间的约束权重。
3D动作模型优化。动作数据优化器24基于多个视角生成的3D动作模型23和检测到的部位关键点,对同一目标的3D动作模型进行优化,得到全局坐标系下一个形态和动作更为精准的模型。具体过程是:将多视角下的3D动作模型的形态参数β和动作参数θ统一,计算得到3D动作模型关键点PM=M(β,θ),并利用相机外参22投影到当前图像,将PM的投影点P′M和特征检测器得到的关键点P生成代价函数:以非线性优化方式求解argminβ,θf,得到最优的形态参数和动作参数。从而得到优化后的动作模型29。
标记点重建。给定多个视角下的标记点图像坐标,3D特征计算器27利用相机之间的空间变换矩阵,以及从相机中心出发经过标记点图像坐标的射线,计算出标记点在全局坐标系下的空间位置。
位姿和尺度优化。根据动作模型在各视角图像中的投影与检测到的关键点之间的映射关系,构成误差项,求解位姿和尺度。最后在时序上将位姿进行平滑。
捕捉数据显示。将3D特征数据28、动作模型29和目标信息30等显示到到操作显示界面31,以辅助观察、检验动捕效果。
通过上述实施例验证,本发明的多相机动作捕捉系统和方法可在室内、外场景中针对多目标进行动作捕捉,结果中动作细致、连贯性强,模型位姿和尺度准确。多人动作捕捉过程中出现互相遮挡或者自遮挡的情况时,该系统能够稳定的运行,得到正确的结果。
需要说明的是上述实施例对本发明的技术方案进行了详细说明。显然,本发明并不局限于所描述的实施例。基于本发明中的实施例,熟悉本技术领域的技术人员还可据此做出多种变化,但任何与本发明等同或相类似的变化都属于本发明保护的范围。
Claims (20)
1.一种动作捕捉系统,其特征在于,包括:
动作捕捉装置,该装置包含三台或以上的图像感知设备,用于图像采集;
图像特征计算器,用于对所述图像进行特征检测,所述特征包括自然纹理特征、标记点和人体关键点;
动作模型生成器,用于基于深度学习的人体三维动作模型生成;
动作数据优化器,用于多视点人体动作数据优化。
2.根据权利要求1所述的系统,其特征在于,所述动作捕捉装置包括至少一种深度相机,用以辅助人体空间定位和动作采集。
3.根据权利要求1所述的系统,其特征在于,所述动作捕捉装置包括至少一种标记物,用于标记待检测的目标。
4.根据权利要求3所述的系统,其特征在于,所述标记物包括一种对动作捕捉目标进行编号的编码标记点。
5.根据权利要求1所述的系统,其特征在于,所述动作捕捉装置包括用于交换数据的通信装置。
6.根据权利要求1所述的系统,其特征在于,所述动作捕捉装置包含用于显示图像、视频的显示模块。
7.根据权利要求1所述的系统,其特征在于,所述动作捕捉装置包含用于显示3D模型及动作信息的3D显示模块。
8.根据权利要求1所述的系统,其特征在于,所述动作捕捉装置包括至少一种电子芯片处理器,所述电子芯片处理器执行如下功能的一个子集:图像特征计算器,动作模型生成器,动作数据优化器,以及3D特征计算器。
9.一种动作捕捉方法,其特征在于,包含如下步骤:
1)通过动作捕捉装置获得至少三个相机视角的图像序列;
2)对图像中的特征进行检测;
3)动作模型生成,利用深度学习算法和多视角下检测到的与指定语义有关联的关键点,生成动作捕捉目标的动作模型,该模型包含3D表面信息、动作信息以及3D表面与动作之间的约束信息;
4)动作模型优化,利用动作捕捉设备获取的多视角下特征信息和动作模型,对全局坐标系下动作模型进行优化;
5)3D特征计算,利用多视角下图像2D特征点计算全局坐标系下的3D坐标。
10.根据权利要求9所述的方法,其特征在于,所述特征检测,对已知尺寸和组合方式的人工标记点进行检测,能够得到标记点的颜色和形状信息,以及标记点在局部部位的分布信息。
11.根据权利要求10所述方法,其特征在于,所述人工标记点检测,包括对编码标记点的检测。
12.根据权利要求9所述的方法,其特征在于,所述特征检测,利用深度学习算法对与指定语义相关联关键点的检测,对动作捕捉目标进行部位划分。
13.根据权利要求12所述的方法,其特征在于,所述关联关键点的检测是人体关键点检测。
14.根据权利要求9所述的方法,其特征在于,所述特征检测,包括事先对不同视角感知设备获取的图像进行多个目标检测以获取ROI区域。
15.根据权利要求9所述的方法,其特征在于,所述特征检测,包括对保持跟踪并标记。
16.根据权利要求9所述的方法,其特征在于,所述特征检测,针对动作捕捉目标出入动捕场景范围的情况和目标检测丢失情况,利用时序连续性和多视点对极约束,对动作捕捉目标进行跟踪标记。
17.根据权利要求9所述的方法,其特征在于,所述动作模型生成,利用与指定语义相关联的关键点和动作捕捉目标所具备的标记信息,生成具有形态参数和动作信息的动作模型。
18.根据权利要求9所述的方法,其特征在于,所述动作模型优化,包括在时序上对不同目标的全局坐标系位置和姿态进行滤波和插值操作。
19.根据权利要求9所述的方法,其特征在于,所述动作模型优化,包括估计动作捕捉目标的尺度。
20.根据权利要求19所述的方法,其特征在于,所述动作模型优化,包括利用全局坐标系下动作模型在多视点相机的投影关系,计算目标的尺度和全局坐标系位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110786865.5A CN113487726B (zh) | 2021-07-12 | 2021-07-12 | 动作捕捉系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110786865.5A CN113487726B (zh) | 2021-07-12 | 2021-07-12 | 动作捕捉系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487726A true CN113487726A (zh) | 2021-10-08 |
CN113487726B CN113487726B (zh) | 2024-05-14 |
Family
ID=77938229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110786865.5A Active CN113487726B (zh) | 2021-07-12 | 2021-07-12 | 动作捕捉系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487726B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115935866A (zh) * | 2022-12-27 | 2023-04-07 | 深存科技(无锡)有限公司 | 一种集成电路时序约束功能验证方法 |
CN116883492A (zh) * | 2023-06-28 | 2023-10-13 | 四川科比科科技有限公司 | 一种基于摄像机的三维动态捕捉处理方法及系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080152191A1 (en) * | 2006-12-21 | 2008-06-26 | Honda Motor Co., Ltd. | Human Pose Estimation and Tracking Using Label Assignment |
CN102800103A (zh) * | 2012-06-18 | 2012-11-28 | 清华大学 | 基于多视角的深度相机的无标记动作捕捉方法及装置 |
WO2015039911A1 (en) * | 2013-09-17 | 2015-03-26 | Thomson Licensing | Method for capturing the 3d motion of an object by means of an unmanned aerial vehicle and a motion capture system |
US20170254637A1 (en) * | 2014-09-18 | 2017-09-07 | Nec Corporation | Triangulation device, triangulation method, and recording medium recording program therefor |
CN109241841A (zh) * | 2018-08-01 | 2019-01-18 | 甘肃未来云数据科技有限公司 | 视频人体动作的获取方法和装置 |
CN109800645A (zh) * | 2018-12-18 | 2019-05-24 | 武汉西山艺创文化有限公司 | 一种动作捕捉系统及其方法 |
CN111145270A (zh) * | 2019-12-27 | 2020-05-12 | 深圳市瑞立视多媒体科技有限公司 | 基于光学动捕的大空间环境下多相机标定方法及相关设备 |
WO2020105697A1 (ja) * | 2018-11-22 | 2020-05-28 | 国立大学法人東京大学 | モーションキャプチャ・カメラシステム及びキャリブレーション方法 |
CN111210478A (zh) * | 2019-12-31 | 2020-05-29 | 重庆邮电大学 | 一种无共同视野多相机系统外参标定方法、介质及系统 |
CN111583386A (zh) * | 2020-04-20 | 2020-08-25 | 清华大学 | 基于标签传播算法的多视角人体姿态重建方法 |
CN111862170A (zh) * | 2020-08-21 | 2020-10-30 | 北京未来天远科技开发有限公司 | 光学式运动捕捉系统及方法 |
WO2020236764A1 (en) * | 2019-05-20 | 2020-11-26 | Flir Commercial Systems, Inc. | Neural network and classifier selection systems and methods |
CN112907631A (zh) * | 2021-02-20 | 2021-06-04 | 北京未澜科技有限公司 | 一种引入反馈机制的多rgb相机实时人体动作捕捉系统 |
US11055900B1 (en) * | 2020-02-28 | 2021-07-06 | Weta Digital Limited | Computer-generated image processing including volumetric scene reconstruction to replace a designated region |
CN113079136A (zh) * | 2021-03-22 | 2021-07-06 | 广州虎牙科技有限公司 | 动作捕捉方法、装置、电子设备和计算机可读存储介质 |
US11055892B1 (en) * | 2020-09-18 | 2021-07-06 | Weta Digital Limited | Systems and methods for generating a skull surface for computer animation |
-
2021
- 2021-07-12 CN CN202110786865.5A patent/CN113487726B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080152191A1 (en) * | 2006-12-21 | 2008-06-26 | Honda Motor Co., Ltd. | Human Pose Estimation and Tracking Using Label Assignment |
CN102800103A (zh) * | 2012-06-18 | 2012-11-28 | 清华大学 | 基于多视角的深度相机的无标记动作捕捉方法及装置 |
WO2015039911A1 (en) * | 2013-09-17 | 2015-03-26 | Thomson Licensing | Method for capturing the 3d motion of an object by means of an unmanned aerial vehicle and a motion capture system |
US20170254637A1 (en) * | 2014-09-18 | 2017-09-07 | Nec Corporation | Triangulation device, triangulation method, and recording medium recording program therefor |
CN109241841A (zh) * | 2018-08-01 | 2019-01-18 | 甘肃未来云数据科技有限公司 | 视频人体动作的获取方法和装置 |
WO2020105697A1 (ja) * | 2018-11-22 | 2020-05-28 | 国立大学法人東京大学 | モーションキャプチャ・カメラシステム及びキャリブレーション方法 |
CN109800645A (zh) * | 2018-12-18 | 2019-05-24 | 武汉西山艺创文化有限公司 | 一种动作捕捉系统及其方法 |
WO2020236764A1 (en) * | 2019-05-20 | 2020-11-26 | Flir Commercial Systems, Inc. | Neural network and classifier selection systems and methods |
CN111145270A (zh) * | 2019-12-27 | 2020-05-12 | 深圳市瑞立视多媒体科技有限公司 | 基于光学动捕的大空间环境下多相机标定方法及相关设备 |
CN111210478A (zh) * | 2019-12-31 | 2020-05-29 | 重庆邮电大学 | 一种无共同视野多相机系统外参标定方法、介质及系统 |
US11055900B1 (en) * | 2020-02-28 | 2021-07-06 | Weta Digital Limited | Computer-generated image processing including volumetric scene reconstruction to replace a designated region |
CN111583386A (zh) * | 2020-04-20 | 2020-08-25 | 清华大学 | 基于标签传播算法的多视角人体姿态重建方法 |
CN111862170A (zh) * | 2020-08-21 | 2020-10-30 | 北京未来天远科技开发有限公司 | 光学式运动捕捉系统及方法 |
US11055892B1 (en) * | 2020-09-18 | 2021-07-06 | Weta Digital Limited | Systems and methods for generating a skull surface for computer animation |
CN112907631A (zh) * | 2021-02-20 | 2021-06-04 | 北京未澜科技有限公司 | 一种引入反馈机制的多rgb相机实时人体动作捕捉系统 |
CN113079136A (zh) * | 2021-03-22 | 2021-07-06 | 广州虎牙科技有限公司 | 动作捕捉方法、装置、电子设备和计算机可读存储介质 |
Non-Patent Citations (4)
Title |
---|
PENGZHAN CHEN ET AL.: ""Human Motion Capture Algorithm Based on Inertial Sensors"", 《JOURNAL OF SENSORS, 23 November 2016 (2016-11-23) * |
张洪超 等: ""基于无线惯性传感器的人体动作捕捉系统"", 《电脑知识与技术》, 28 February 2019 (2019-02-28) * |
朱永琼;: "动作捕捉实验教学内容设计", 大众文艺, no. 09, 15 May 2016 (2016-05-15) * |
苏本跃,吴煌,盛敏,申 胜;: ""Hierarchical Human Action Recognition with Self-Selection Classifiers via Skeleton Data"", 《COMMUNICATIONS IN THEORETICAL PHYSICS》, 1 November 2018 (2018-11-01) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115935866A (zh) * | 2022-12-27 | 2023-04-07 | 深存科技(无锡)有限公司 | 一种集成电路时序约束功能验证方法 |
CN115935866B (zh) * | 2022-12-27 | 2023-12-08 | 深存科技(无锡)有限公司 | 一种集成电路时序约束功能验证方法 |
CN116883492A (zh) * | 2023-06-28 | 2023-10-13 | 四川科比科科技有限公司 | 一种基于摄像机的三维动态捕捉处理方法及系统 |
CN116883492B (zh) * | 2023-06-28 | 2024-08-20 | 四川科比科科技有限公司 | 一种基于摄像机的三维动态捕捉处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113487726B (zh) | 2024-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3067861B1 (en) | Determination of a coordinate conversion parameter | |
Liu et al. | Multiview geometry for texture mapping 2d images onto 3d range data | |
CN102646275B (zh) | 通过跟踪和定位算法实现虚拟三维叠加的方法 | |
CN112001926B (zh) | 基于多维语义映射rgbd多相机标定方法、系统及应用 | |
Paletta et al. | 3D attention: measurement of visual saliency using eye tracking glasses | |
CN113487726B (zh) | 动作捕捉系统和方法 | |
JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN108492017A (zh) | 一种基于增强现实的产品质量信息传递方法 | |
CN110065075A (zh) | 一种基于视觉的空间细胞机器人外部状态感知方法 | |
Bauer et al. | Predicting and estimating the accuracy of n-occular optical tracking systems | |
Wang et al. | Facial feature extraction in an infrared image by proxy with a visible face image | |
CN104166995B (zh) | 一种基于马步测度的Harris‑SIFT双目视觉定位方法 | |
Se et al. | Instant scene modeler for crime scene reconstruction | |
Wang et al. | Pose determination of human faces by using vanishing points | |
CN115147344A (zh) | 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法 | |
Zhang et al. | Tracking and pose estimation for computer assisted localization in industrial environments | |
Najafi et al. | Automated initialization for marker-less tracking: A sensor fusion approach | |
CN113421286B (zh) | 一种动作捕捉系统及方法 | |
Sheikh et al. | Geodetic alignment of aerial video frames | |
Chen et al. | Accurate self-calibration of two cameras by observations of a moving person on a ground plane | |
Douret et al. | A multi-cameras 3d volumetric method for outdoor scenes: a road traffic monitoring application | |
Yang et al. | Single-shot extrinsic calibration of a generically configured RGB-D camera rig from scene constraints | |
Thangarajah et al. | Vision-based registration for augmented reality-a short survey | |
JP3548652B2 (ja) | 物体形状復元装置及びその方法 | |
Zhang et al. | Recent reviews on machine vision-based 3D reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 1217, 12th Floor, Building 3, No.1 Courtyard, Wuliqiao 2nd Street, Chaoyang District, Beijing, 100102 Applicant after: Future Yuanyu Digital Technology (Beijing) Co.,Ltd. Address before: 100102 building 3, yard 6, Futong East Street, Chaoyang District, Beijing Applicant before: Beijing future Tianyuan Technology Development Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |