CN111489392B - 多人环境下单个目标人体运动姿态捕捉方法及系统 - Google Patents

多人环境下单个目标人体运动姿态捕捉方法及系统 Download PDF

Info

Publication number
CN111489392B
CN111489392B CN202010238742.3A CN202010238742A CN111489392B CN 111489392 B CN111489392 B CN 111489392B CN 202010238742 A CN202010238742 A CN 202010238742A CN 111489392 B CN111489392 B CN 111489392B
Authority
CN
China
Prior art keywords
human body
aerial vehicle
unmanned aerial
visual angle
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010238742.3A
Other languages
English (en)
Other versions
CN111489392A (zh
Inventor
李一鹏
范振
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010238742.3A priority Critical patent/CN111489392B/zh
Publication of CN111489392A publication Critical patent/CN111489392A/zh
Application granted granted Critical
Publication of CN111489392B publication Critical patent/CN111489392B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种多人环境下单个目标人体运动姿态捕捉方法及系统,其中,方法包括以下步骤:动态视角采集图像,并选择目标人体;根据采集的图像计算多人位置及目标人体的三维骨架;估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角;根据最佳观测视角规划无人机飞行路径,并根据无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证最佳观测视角。该方法可实时计算最佳观测视角,有效避免多人体间的相互遮挡及目标人体自遮挡,从而提高对目标人体运动姿态的捕捉精度,简单易实现。

Description

多人环境下单个目标人体运动姿态捕捉方法及系统
技术领域
本发明涉及运动人体追踪与动作捕捉应用技技术领域,特别涉及一种多人环境下单个目标人体运动姿态捕捉方法及系统。
背景技术
运动人体追踪与动作捕捉技术是获取人类活动信息,分析自然社会场景下目标人体运动规律的重要技术手段。实时且精准人体运动捕捉的在安防监控、虚拟现实以及电影制作等领域中有着广泛应用。
传统的人体运动捕捉方法是通过采集穿戴在被捕捉人体上的特殊设备发出的信号,然后计算得到人体的三维运动信息,但是这种方法不适用于自然场景下的人体运动捕捉需求。基于视觉的无标记点运动捕捉方法可以通过检测图像中人体的关节点信息,然后通过多视角视觉几何三角化过程计算每个关节点三维位置,进而恢复单人或多人的三维姿态。在多人环境下存在人体之间相互遮挡以及动态场景下目标人体姿态多变而产生的自遮挡,都会造成被捕捉目标信息丢失,无法检测到人体关节点信息,从而造成运动捕捉任务失败。解决遮挡问题的常用方法是搭建大规模固定多相机系统,通过对环境无死角信息采集,保障被捕捉目标全见性,获取目标人体中全部关节点信息。但是在实际应用场景,尤其是进行室外环境下的人体捕捉任务时,稠密相机的搭建会有较高成本且容易受到环境限制,不具备可实施性。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种多人环境下单个目标人体运动姿态捕捉方法,该方法可以提高对目标人体运动姿态的捕捉精度,简单易实现。
本发明的另一个目的在于提出一种多人环境下单个目标人体运动姿态捕捉系统。为达到上述目的,本发明一方面实施例提出了一种多人环境下单个目标人体运动姿态捕捉方法,包括以下步骤:动态视角采集图像,并选择目标人体;根据采集的图像计算多人位置及所述目标人体的三维骨架;估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角;根据所述最佳观测视角规划无人机飞行路径,并根据所述无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证所述最佳观测视角。
本发明实施例的多人环境下单个目标人体运动姿态捕捉方法,可实时计算最佳观测视角,有效避免多人体间的相互遮挡及目标人体自遮挡,从而提高对目标人体运动姿态的捕捉精度,简单易实现。
另外,根据本发明上述实施例的多人环境下单个目标人体运动姿态捕捉方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述根据所述采集图像计算多人位置及所述目标人体的三维骨架,包括:通过深度学习网络检测场景中多人在所述采集的图像中的位置及所述目标人体的关节点二维坐标,其中,使用高帧率二维人体骨架检测算法,其输出数据包含每个关节点二维像素位置
Figure BDA0002431862020000025
进一步地,在本发明的一个实施例中,还包括:使用预先校准的双目可见光传感器进行匹配以及三角化,得到相机坐标系下多人体的三维空间位置以及所述目标人体的骨架的三维坐标,并对骨架的三维坐标进行优化,优化函数为:
Ep=λdataEdataregEregboneEbone,其中,Edata保障优化得到的骨架与观测值具有一致性;Ereg确保人体运动与骨架动态变化的连续性,约束Ebone以使优化得到的骨架与估计得到的骨架长度保持一致,以获取人体三维姿态信息。
进一步地,在本发明的一个实施例中,设视点距离地面高度为HC,视点俯仰角为θ,人体高度为Hh,人体中心节点三维坐标为(x0,y0,z0),D为视点距离人体的水平距离;人体顶点可见约束表示为:
Figure BDA0002431862020000021
人体底部可见约束为:
Figure BDA0002431862020000022
人体在图像中所占的合理尺度为:
Figure BDA0002431862020000023
其中,∈为人体在图像中的比例。
进一步地,在本发明的一个实施例中,目标人体关节之间的自遮挡以及其他人体对目标人体的环境遮挡,目标函数定义为:
Figure BDA0002431862020000024
其中,
Figure BDA0002431862020000031
表示关节点之间的自遮挡约束,
Figure BDA0002431862020000032
为其他人体对目标人体的环境遮挡约束,通过优化目标函数Ev得到所述最佳观测视角。
进一步地,在本发明的一个实施例中,目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure BDA0002431862020000033
Figure BDA0002431862020000034
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000035
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000036
使用关节点球体模型半径计算得到的标准差;
其他人体对目标人体t的环境遮挡计算采用躯干球体模型为:
Figure BDA0002431862020000037
Figure BDA0002431862020000038
其中zk、zt分别表示人体k以及目标人体t的躯干球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000039
表示躯干球体模型中心点在最佳观测视角下投影的距离;
Figure BDA00024318620200000310
使用躯干球体模型半径计算得到的标准差。
进一步地,在本发明的一个实施例中,所述根据所述最佳观测视角规划无人机飞行路径,包括:采用RRT*算法计算无人机当前位置和目标位置的折线及路径点,定义无人机的轨道路径点的集合为{ri,j}={[xj,yj,zj]T},j∈{1,2,…,q},其中q为该无人机路径点个数,用时间的多项式函数表示无人机在某个空间维度上的一段轨道:
Figure BDA00024318620200000312
其中μ∈{x,y,z},对应三个空间维度,n为轨道的阶数,j为无人机对应轨道的编号,Tj是无人机通过该段轨道需要的时间。为使无人机运动较为平稳,定义无人机轨道函数的四阶导数的平方在时间的积分上最小,即某个维度上代价函数为:
Figure BDA00024318620200000311
通过优化变量aμ,i,获取在各个轨道上的路径规划点。
为达到上述目的,本发明另一方面实施例提出了一种多人环境下单个目标人体运动姿态捕捉系统,包括:采集模块,用于动态视角采集图像,并选择目标人体;计算模块,用于根据采集的图像计算多人位置及所述目标人体的三维骨架;估计模块,用于估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角;规划模块,用于根据所述最佳观测视角规划无人机飞行路径,并根据所述无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证所述最佳观测视角。
本发明实施例的多人环境下单个目标人体运动姿态捕捉系统,可实时计算最佳观测视角,有效避免多人体间的相互遮挡及目标人体自遮挡,从而提高对目标人体运动姿态的捕捉精度,简单易实现。
另外,根据本发明上述实施例的多人环境下单个目标人体运动姿态捕捉系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,其中,设视点距离地面高度为HC,视点俯仰角为θ,人体高度为Hh,人体中心节点三维坐标为(x0,y0,z0),D为视点距离人体的水平距离;
人体顶点可见约束表示为:
Figure BDA0002431862020000041
人体底部可见约束为:
Figure BDA0002431862020000042
人体在图像中所占的合理尺度为:
Figure BDA0002431862020000043
其中,∈为人体在图像中的比例;
目标人体关节之间的自遮挡以及其他人体对目标人体的环境遮挡,目标函数定义为:
Figure BDA0002431862020000044
其中,
Figure BDA0002431862020000045
表示关节点之间的自遮挡约束,
Figure BDA0002431862020000046
为其他人体对目标人体的环境遮挡约束,通过优化目标函数Ev得到所述最佳观测视角;
目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure BDA0002431862020000047
Figure BDA0002431862020000048
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000051
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000052
使用关节点球体模型半径计算得到的标准差;
其他人体对目标人体t的环境遮挡计算采用躯干球体模型为:
Figure BDA0002431862020000053
Figure BDA0002431862020000054
其中zk、zt分别表示人体k以及目标人体t的躯干球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000055
表示躯干球体模型中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000056
使用躯干球体模型半径计算得到的标准差。
进一步地,在本发明的一个实施例中,其中,所述计算模块进一步用于通过深度学习网络检测场景中多人在所述采集的图像中的位置及所述目标人体的关节点二维坐标,其中,使用高帧率二维人体骨架检测算法,其输出数据包含每个关节点二维像素位置
Figure BDA00024318620200000511
Figure BDA00024318620200000512
使用预先校准的双目可见光传感器进行匹配以及三角化,得到相机坐标系下多人体的三维空间位置以及所述目标人体的骨架的三维坐标,并对骨架的三维坐标进行优化,优化函数为:Ep=λdataEdataregEregboneEbone,其中,Edata保障优化得到的骨架与观测值具有一致性;Ereg确保人体运动与骨架动态变化的连续性,约束Ebone以使优化得到的骨架与估计得到的骨架长度保持一致,以获取人体三维姿态信息;所述规划模块进一步用于采用RRT*算法计算无人机当前位置和目标位置的折线及路径点,定义无人机的轨道路径点的集合为{ri,j}={[xj,yj,zj]T},j∈{1,2,…,q},其中q为该无人机路径点个数,用时间的多项式函数表示无人机在某个空间维度上的一段轨道:
Figure BDA0002431862020000057
Figure BDA0002431862020000058
其中μ∈{x,y,z},对应三个空间维度,n为轨道的阶数,j为无人机对应轨道的编号,Tj是无人机通过该段轨道需要的时间。为使无人机运动较为平稳,定义无人机轨道函数的四阶导数的平方在时间的积分上最小,即某个维度上代价函数为:
Figure BDA0002431862020000059
Figure BDA00024318620200000510
过优化变量aμ,i,获取在各个轨道上的路径规划点。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的多人环境下单个目标人体运动姿态捕捉方法的流程图;
图2为根据本发明实施例的人体模型几何约束示意图;
图3为根据本发明实施例的多人环境下单个目标人体运动姿态捕捉系统的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的多人环境下单个目标人体运动姿态捕捉方法及系统,首先将参照附图描述根据本发明实施例提出的多人环境下单个目标人体运动姿态捕捉方法。
图1是本发明一个实施例的多人环境下单个目标人体运动姿态捕捉方法的流程图。
如图1所示,该多人环境下单个目标人体运动姿态捕捉方法包括以下步骤:
在步骤S101中,动态视角采集图像,并选择目标人体。
可以理解的是,由多旋翼无人机搭载可见光传感器组成可控动态视角,图像的采集位置和姿态可通过控制无人机实现。其中,动态视角采集到的图像通过通信链路(比如无线链路)传送到控制台,然后经过人工框选被捕捉的目标人体,并将该人体位置信息回传到无人机上。
在步骤S102中,根据采集的图像计算多人位置及目标人体的三维骨架。
具体而言,通过深度学习网络检测场景中多人在图像中的位置以及目标人体关节点二维坐标。为了提高整体算法实时性,使用高帧率二维人体骨架检测算法Pose ProposalNetworks,其输出数据包含每个关节点二维像素位置
Figure BDA0002431862020000061
为了提高检测精度,设定关节点置信度阈值
Figure BDA0002431862020000062
若关节点置信度小于该值则滤除。然后,使用预先校准后的双目相机进行双目匹配以及三角化,得到多人体的三维空间位置以及人体骨架在相机坐标系下的三维坐标。考虑到实际环境中的误差和噪声,本算法对计算得到的三维骨架进行了进一步优化。定义优化函数为:
Ep=λdataEdataregEregboneEbone其中,Edata保障优化得到的骨架与观测值具有一致性;Ereg确保人体运动与骨架动态变化的连续性;由于特定人体的骨架长度是固定的,因此加入约束Ebone要求优化得到的骨架与估计得到的骨架长度保持一致。该步骤使用Gauss-Newton算法对Ep进行优化,获取精确的人体三维姿态信息。
在步骤S103中,估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角。
具体而言,场景中多人体三维位置预估计算使用运动静态模型,目标人体三维姿态估计采用structured prediction layer网络获取。最佳观测位置选择考虑目标人体几何模型约束以及环境遮挡约束。
人体模型几何约束用于保障目标人体在图像中全见性以及合理尺度。如图2所示,设定视点距离地面高度为HC,视点俯仰角为θ,人体高度为Hh,人体中心节点三维坐标为(x0,y0,z0),D为视点距离人体的水平距离。
人体顶点可见约束表示为:
Figure BDA0002431862020000071
人体底部可见约束为:
Figure BDA0002431862020000072
人体在图像中所占的合理尺度为:
Figure BDA0002431862020000073
其中∈为人体在图像中的比例。
遮挡约束用于保障目标人体在多人环境中检测的独立性以及关节点的最大可见性,包含目标人体关节之间的自遮挡以及其他人体对目标人体的环境遮挡,目标函数可定义为:
Figure BDA0002431862020000074
其中
Figure BDA0002431862020000075
表示关节点之间的自遮挡约束,
Figure BDA0002431862020000076
为其他人体对目标人体的环境遮挡约束,通过优化目标函数Ev,可以得到最佳观测视角。
为提高算法实时性,使用球体模型表示人体形状,其中目标人体各个关节点球体模型使用SMPL人体稠密模型拟合得到,人体躯干球体模型使用躯干骨架长度计算获取。
目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure BDA0002431862020000081
Figure BDA0002431862020000082
其中zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000083
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000084
使用关节点球体模型半径计算得到的标准差。
其他人体对目标人体t的环境遮挡计算采用躯干球体模型为:
Figure BDA0002431862020000085
Figure BDA0002431862020000086
其中zk、zt分别表示人体k以及目标人体t的躯干球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000087
表示躯干球体模型中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000088
使用躯干球体模型半径计算得到的标准差。
在步骤S104中,根据最佳观测视角规划无人机飞行路径,并根据无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证最佳观测视角。
可以理解的是,规划无人机飞行路径,控制动态视角到达最佳观测位置。
具体而言,采用RRT*算法计算无人机当前位置和目标位置的折线及路径点,定义无人机的轨道路径点的集合为{ri,j}={[xj,yj,zj]T},j∈{1,2,…,q},其中q为该无人机路径点个数,用时间的多项式函数表示无人机在某个空间维度上的一段轨道:
Figure BDA0002431862020000089
其中μ∈{x,y,z},对应三个空间维度,n为轨道的阶数,j为无人机对应轨道的编号,Tj是无人机通过该段轨道需要的时间。为使无人机运动较为平稳,定义无人机轨道函数的四阶导数的平方在时间的积分上最小,即某个维度上代价函数为:
Figure BDA00024318620200000810
通过优化变量aμ,i,获取在各个轨道上的路径规划点。
根据本发明实施例提出的多人环境下单个目标人体运动姿态捕捉方法,可实时计算最佳观测视角,有效避免多人体间的相互遮挡及目标人体自遮挡,从而提高对目标人体运动姿态的捕捉精度,简单易实现。
其次参照附图描述根据本发明实施例提出的多人环境下单个目标人体运动姿态捕捉系统。
图3是本发明一个实施例的多人环境下单个目标人体运动姿态捕捉系统的结构示意图。如图3所示,该多人环境下单个目标人体运动姿态捕捉系统10包括:采集模块100、计算模块200、估计模块300和规划模块400。
其中,采集模块100用于动态视角采集图像,并选择目标人体;计算模块200用于根据采集的图像计算多人位置及目标人体的三维骨架;估计模块300用于估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角;规划模块400用于根据最佳观测视角规划无人机飞行路径,并根据无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证最佳观测视角。本发明实施例的系统10可以有效提高对目标人体运动姿态的捕捉精度,简单易实现。
进一步地,在本发明的一个实施例中,其中,设视点距离地面高度为HC,视点俯仰角为θ,人体高度为Hh,人体中心节点三维坐标为(x0,y0,z0),D为视点距离人体的水平距离;
人体顶点可见约束表示为:
Figure BDA0002431862020000091
人体底部可见约束为:
Figure BDA0002431862020000092
人体在图像中所占的合理尺度为:
Figure BDA0002431862020000093
其中,∈为人体在图像中的比例;
目标人体关节之间的自遮挡以及其他人体对目标人体的环境遮挡,目标函数定义为:
Figure BDA0002431862020000094
其中,
Figure BDA0002431862020000095
表示关节点之间的自遮挡约束,
Figure BDA0002431862020000096
为其他人体对目标人体的环境遮挡约束,通过优化目标函数Ev得到最佳观测视角;
目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure BDA0002431862020000097
Figure BDA0002431862020000098
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000101
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000102
使用关节点球体模型半径计算得到的标准差;
其他人体对目标人体t的环境遮挡计算采用躯干球体模型为:
Figure BDA0002431862020000103
Figure BDA0002431862020000104
其中zk、zt分别表示人体k以及目标人体t的躯干球体模型中心点距离最佳视角相机平面的距离;
Figure BDA0002431862020000105
表示躯干球体模型中心点在最佳观测视角下投影的距离;
Figure BDA0002431862020000106
使用躯干球体模型半径计算得到的标准差。
进一步地,在本发明的一个实施例中,其中,
计算模块200进一步用于通过深度学习网络检测场景中多人在采集的图像中的位置及目标人体的关节点二维坐标,其中,使用高帧率二维人体骨架检测算法,其输出数据包含每个关节点二维像素位置
Figure BDA0002431862020000109
使用预先校准的双目可见光传感器进行匹配以及三角化,得到相机坐标系下多人体的三维空间位置以及目标人体的骨架的三维坐标,并对骨架的三维坐标进行优化,优化函数为:Ep=λdataEdataregEregboneEbone,其中,Edata保障优化得到的骨架与观测值具有一致性;Ereg确保人体运动与骨架动态变化的连续性,约束Ebone以使优化得到的骨架与估计得到的骨架长度保持一致,以获取人体三维姿态信息;
规划模块400进一步用于采用RRT*算法计算无人机当前位置和目标位置的折线及路径点,定义无人机的轨道路径点的集合为{ri,j}={[xj,yj,zj]T},j∈{1,2,…,q},其中q为该无人机路径点个数,用时间的多项式函数表示无人机在某个空间维度上的一段轨道:
Figure BDA0002431862020000107
其中μ∈{x,y,z},对应三个空间维度,n为轨道的阶数,j为无人机对应轨道的编号,Tj是无人机通过该段轨道需要的时间。为使无人机运动较为平稳,定义无人机轨道函数的四阶导数的平方在时间的积分上最小,即某个维度上代价函数为:
Figure BDA0002431862020000108
过优化变量aμ,i,获取在各个轨道上的路径规划点。
需要说明的是,前述对多人环境下单个目标人体运动姿态捕捉方法实施例的解释说明也适用于该实施例的多人环境下单个目标人体运动姿态捕捉系统,此处不再赘述。根据本发明实施例提出的多人环境下单个目标人体运动姿态捕捉系统,可实时计算最佳观测视角,有效避免多人体间的相互遮挡及目标人体自遮挡,从而提高对目标人体运动姿态的捕捉精度,简单易实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种多人环境下单个目标人体运动姿态捕捉方法,其特征在于,包括以下步骤:
动态视角采集图像,并选择目标人体;
根据采集的图像计算多人位置及所述目标人体的三维骨架;
估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角;
根据所述最佳观测视角规划无人机飞行路径,并根据所述无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证所述最佳观测视角;
其中,估计下一时刻的多人位置以及所述目标人体的姿态,并且获取最佳观测视角,包括:
为提高算法实时性,使用球体模型表示人体形状,其中所述目标人体各个关节点球体模型使用SMPL人体稠密模型拟合得到,人体躯干球体模型使用躯干骨架长度计算获取;
所述目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure FDA0003671712490000011
Figure FDA0003671712490000012
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure FDA0003671712490000013
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure FDA0003671712490000014
使用所述关节点球体模型半径计算得到的标准差。
2.根据权利要求1所述的方法,其特征在于,所述根据所述采集图像计算多人位置及所述目标人体的三维骨架,包括:
通过深度学习网络检测场景中多人在所述采集的图像中的位置及所述目标人体的关节点二维坐标,其中,使用高帧率二维人体骨架检测算法,其输出数据包含每个关节点二维像素位置p=(u,v)以及置信度
Figure FDA0003671712490000015
3.根据权利要求2所述的方法,其特征在于,还包括:
使用预先校准的双目可见光传感器进行匹配以及三角化,得到相机坐标系下多人体的三维空间位置以及所述目标人体的骨架的三维坐标,并对骨架的三维坐标进行优化,优化函数为:
Ep=λdataEdataregEregboneEbone
其中,Edata保障优化得到的骨架与观测值具有一致性;Ereg确保人体运动与骨架动态变化的连续性,约束Ebone以使优化得到的骨架与估计得到的骨架长度保持一致,以获取人体三维姿态信息。
4.根据权利要求3所述的方法,其特征在于,设视点距离地面高度为HC,视点俯仰角为θ,人体高度为Hh,人体中心节点三维坐标为(x0,y0,z0),D为视点距离人体的水平距离;
人体顶点可见约束表示为:
Figure FDA0003671712490000021
人体底部可见约束为:
Figure FDA0003671712490000022
人体在图像中所占的合理尺度为:
Figure FDA0003671712490000023
其中,∈为人体在图像中的比例。
5.根据权利要求4所述的方法,其特征在于,目标人体关节之间的自遮挡以及其他人体对目标人体的环境遮挡,目标函数定义为:
Figure FDA0003671712490000024
其中,
Figure FDA0003671712490000025
表示关节点之间的自遮挡约束,
Figure FDA0003671712490000026
为其他人体对目标人体的环境遮挡约束,通过优化目标函数Ev得到所述最佳观测视角。
6.根据权利要求5所述的方法,其特征在于,目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure FDA0003671712490000027
Figure FDA0003671712490000028
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure FDA0003671712490000029
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure FDA00036717124900000210
使用关节点球体模型半径计算得到的标准差;
其他人体对目标人体t的环境遮挡计算采用躯干球体模型为:
Figure FDA00036717124900000211
Figure FDA0003671712490000031
其中zk、zt分别表示人体k以及目标人体t的躯干球体模型中心点距离最佳视角相机平面的距离;
Figure FDA0003671712490000032
表示躯干球体模型中心点在最佳观测视角下投影的距离;
Figure FDA0003671712490000033
使用躯干球体模型半径计算得到的标准差。
7.根据权利要求6所述的方法,其特征在于,所述根据所述最佳观测视角规划无人机飞行路径,包括:
采用RRT*算法计算无人机当前位置和目标位置的折线及路径点,定义无人机的轨道路径点的集合为{ri,j}={[xj,yj,zj]T},j∈{1,2,…,q},其中q为该无人机路径点个数,用时间的多项式函数表示无人机在某个空间维度上的一段轨道:
Figure FDA0003671712490000034
其中μ∈{x,y,z},对应三个空间维度,n为轨道的阶数,j为无人机对应轨道的编号,Tj是无人机通过该段轨道需要的时间;为使无人机运动较为平稳,定义无人机轨道函数的四阶导数的平方在时间的积分上最小,即某个维度上代价函数为:
Figure FDA0003671712490000035
通过优化变量aμ,i,获取在各个轨道上的路径规划点。
8.一种多人环境下单个目标人体运动姿态捕捉系统,其特征在于,包括:
采集模块,用于动态视角采集图像,并选择目标人体;
计算模块,用于根据采集的图像计算多人位置及所述目标人体的三维骨架;
估计模块,用于估计下一时刻的多人位置以及目标人体的姿态,并且获取最佳观测视角;
规划模块,用于根据所述最佳观测视角规划无人机飞行路径,并根据所述无人机飞行路径控制无人机飞行,以到达最佳观测位置,保证所述最佳观测视角;
其中,所述估计模块,具体用于:
为提高算法实时性,使用球体模型表示人体形状,其中所述目标人体各个关节点球体模型使用SMPL人体稠密模型拟合得到,人体躯干球体模型使用躯干骨架长度计算获取;
所述目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure FDA0003671712490000041
Figure FDA0003671712490000042
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure FDA0003671712490000043
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure FDA0003671712490000044
使用所述关节点球体模型半径计算得到的标准差。
9.根据权利要求8所述的系统,其特征在于,其中,
设视点距离地面高度为HC,视点俯仰角为θ,人体高度为Hh,人体中心节点三维坐标为(x0,y0,z0),D为视点距离人体的水平距离;
人体顶点可见约束表示为:
Figure FDA0003671712490000045
人体底部可见约束为:
Figure FDA0003671712490000046
人体在图像中所占的合理尺度为:
Figure FDA0003671712490000047
其中,∈为人体在图像中的比例;
目标人体关节之间的自遮挡以及其他人体对目标人体的环境遮挡,目标函数定义为:
Figure FDA0003671712490000048
其中,
Figure FDA0003671712490000049
表示关节点之间的自遮挡约束,
Figure FDA00036717124900000410
为其他人体对目标人体的环境遮挡约束,通过优化目标函数Ev得到所述最佳观测视角;
目标人体关节点之间的自遮挡计算使用关节点球体模型,公式表示为:
Figure FDA00036717124900000411
Figure FDA00036717124900000412
其中,zm、zn分别表示关节点m与关节点n的球体模型中心点距离最佳视角相机平面的距离;
Figure FDA00036717124900000413
表示两个关节点中心点在最佳观测视角下投影的距离;
Figure FDA00036717124900000414
使用关节点球体模型半径计算得到的标准差;
其他人体对目标人体t的环境遮挡计算采用躯干球体模型为:
Figure FDA0003671712490000051
Figure FDA0003671712490000052
其中zk、zt分别表示人体k以及目标人体t的躯干球体模型中心点距离最佳视角相机平面的距离;
Figure FDA0003671712490000053
表示躯干球体模型中心点在最佳观测视角下投影的距离;
Figure FDA0003671712490000054
使用躯干球体模型半径计算得到的标准差。
10.根据权利要求9所述的系统,其特征在于,其中,
所述计算模块进一步用于通过深度学习网络检测场景中多人在所述采集的图像中的位置及所述目标人体的关节点二维坐标,其中,使用高帧率二维人体骨架检测算法,其输出数据包含每个关节点二维像素位置p=(u,v)以及置信度
Figure FDA0003671712490000057
使用预先校准的双目可见光传感器进行匹配以及三角化,得到相机坐标系下多人体的三维空间位置以及所述目标人体的骨架的三维坐标,并对骨架的三维坐标进行优化,优化函数为:Ep=λdataEdataregEregboneEbone,其中,Edata保障优化得到的骨架与观测值具有一致性;Ereg确保人体运动与骨架动态变化的连续性,约束Ebone以使优化得到的骨架与估计得到的骨架长度保持一致,以获取人体三维姿态信息;
所述规划模块进一步用于采用RRT*算法计算无人机当前位置和目标位置的折线及路径点,定义无人机的轨道路径点的集合为{ri,j}={[xj,yj,zj]T},j∈{1,2,…,q},其中q为该无人机路径点个数,用时间的多项式函数表示无人机在某个空间维度上的一段轨道:
Figure FDA0003671712490000055
其中μ∈{x,y,z},对应三个空间维度,n为轨道的阶数,j为无人机对应轨道的编号,Tj是无人机通过该段轨道需要的时间; 为使无人机运动较为平稳,定义无人机轨道函数的四阶导数的平方在时间的积分上最小,即某个维度上代价函数为:
Figure FDA0003671712490000056
过优化变量aμ,i,获取在各个轨道上的路径规划点。
CN202010238742.3A 2020-03-30 2020-03-30 多人环境下单个目标人体运动姿态捕捉方法及系统 Active CN111489392B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010238742.3A CN111489392B (zh) 2020-03-30 2020-03-30 多人环境下单个目标人体运动姿态捕捉方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010238742.3A CN111489392B (zh) 2020-03-30 2020-03-30 多人环境下单个目标人体运动姿态捕捉方法及系统

Publications (2)

Publication Number Publication Date
CN111489392A CN111489392A (zh) 2020-08-04
CN111489392B true CN111489392B (zh) 2022-09-09

Family

ID=71798652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010238742.3A Active CN111489392B (zh) 2020-03-30 2020-03-30 多人环境下单个目标人体运动姿态捕捉方法及系统

Country Status (1)

Country Link
CN (1) CN111489392B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112558629A (zh) * 2020-11-30 2021-03-26 广西电网有限责任公司电力科学研究院 一种实现无人机巡检任务的系统及方法
CN113487674B (zh) * 2021-07-12 2024-03-08 未来元宇数字科技(北京)有限公司 一种人体位姿估计系统和方法
CN113421286B (zh) * 2021-07-12 2024-01-02 北京未来天远科技开发有限公司 一种动作捕捉系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139925A1 (en) * 2010-12-06 2012-06-07 Industrial Technology Research Institute System for Estimating Location of Occluded Skeleton, Method for Estimating Location of Occluded Skeleton and Method for Reconstructing Occluded Skeleton
CN108335353A (zh) * 2018-02-23 2018-07-27 清华-伯克利深圳学院筹备办公室 动态场景的三维重建方法、装置和系统、服务器、介质
CN110599540A (zh) * 2019-08-05 2019-12-20 清华大学 多视点相机下的实时三维人体体型与姿态重建方法及装置
CN110807391A (zh) * 2019-10-25 2020-02-18 中国人民解放军国防科技大学 基于视觉的人-无人机交互用人体姿态指令识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139925A1 (en) * 2010-12-06 2012-06-07 Industrial Technology Research Institute System for Estimating Location of Occluded Skeleton, Method for Estimating Location of Occluded Skeleton and Method for Reconstructing Occluded Skeleton
CN108335353A (zh) * 2018-02-23 2018-07-27 清华-伯克利深圳学院筹备办公室 动态场景的三维重建方法、装置和系统、服务器、介质
CN110599540A (zh) * 2019-08-05 2019-12-20 清华大学 多视点相机下的实时三维人体体型与姿态重建方法及装置
CN110807391A (zh) * 2019-10-25 2020-02-18 中国人民解放军国防科技大学 基于视觉的人-无人机交互用人体姿态指令识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"FlyCap: Markerless Motion Capture Using Multiple Autonomous Flying Cameras";Lan Xu 等;《IEEE》;20170718;全文 *
"Stability of Cloud-Based UAV Systems Supporting Big Data Acquisition and Processing";Feng Luo 等;《IEEE》;20170424;1-10 *
"微型无人机视觉定位与环境建模研究";吕科 等;《电子科技大学学报》;20170531;第46卷(第3期);全文 *

Also Published As

Publication number Publication date
CN111489392A (zh) 2020-08-04

Similar Documents

Publication Publication Date Title
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
CN108154550B (zh) 基于rgbd相机的人脸实时三维重建方法
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及系统
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
WO2020054442A1 (ja) 関節位置の取得方法及び装置、動作の取得方法及び装置
CN108665537B (zh) 联合优化人体体态与外观模型的三维重建方法及系统
JP2020030204A (ja) 距離測定方法、プログラム、距離測定システム、および可動物体
CN109579843A (zh) 一种空地多视角下的多机器人协同定位及融合建图方法
CN106843507B (zh) 一种虚拟现实多人互动的方法及系统
CN108846867A (zh) 一种基于多目全景惯导的slam系统
CN110992487B (zh) 手持式飞机油箱快速三维地图重建装置及重建方法
CN110598590A (zh) 基于多视角相机的紧密交互人体姿态估计方法及装置
JP7427188B2 (ja) 3dポーズ取得方法及び装置
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
US20070076096A1 (en) System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
JP3411889B2 (ja) カメラの自動校正方法
KR101319526B1 (ko) 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 방법
WO2023180838A1 (en) Method of 3d reconstruction of dynamic objects by mobile cameras
JP3401512B2 (ja) 移動物体追跡装置
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
CN110888957A (zh) 一种对象定位的方法以及相关装置
JP7266128B2 (ja) 3次元マップ生成方法及びシステム
Chen et al. Markerless augmented reality for robotic helicoptor applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant