CN110570455A - 一种面向房间vr的全身三维姿态跟踪方法 - Google Patents
一种面向房间vr的全身三维姿态跟踪方法 Download PDFInfo
- Publication number
- CN110570455A CN110570455A CN201910661768.6A CN201910661768A CN110570455A CN 110570455 A CN110570455 A CN 110570455A CN 201910661768 A CN201910661768 A CN 201910661768A CN 110570455 A CN110570455 A CN 110570455A
- Authority
- CN
- China
- Prior art keywords
- joint
- lower limb
- joints
- model
- room
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
本发明公开了一种面向房间VR的全身三维姿态跟踪方法,包括:(1)将人体17个关节划分为五条运动链C1、C2、C3、C4和C5;(2)由VR HMD提供的头显位置信息,根据二臂铰链关节结构获得C2链上各个关节的位置,(3)由VR手柄提供的手柄位置信息,根据三臂铰链关节结构获得C1、C3运动链的姿态;(4)由C4、C5运动链建立下肢运动学模型并训练;(5)对捕获的下肢图像采用低通滤波器进行处理;(6)将处理后的图像传入训练好的模型进行识别,得到下肢9个关节点的3D位置信息;(7)将得到的上肢关节位置与下肢关节位置以骨盆关节为公共根关节统一到同一坐标系下。利用本发明,可以提高跟踪准确率以及实时性。
Description
技术领域
本发明属于人机交互技术领域,尤其是涉及一种面向房间虚拟现实应用的全身三维姿态跟踪方法。
背景技术
大量房间VR应用都需要全身追踪系统,这可以让我们在VR中看到虚拟身体,进一步强化沉浸感。目前房间VR探索领域已经有多款全身追踪的硬件产品。这些硬件产品通过对玩家全身进行精准的定位追踪,从而能够让玩家在虚拟世界中作出精准实时的交互和反馈。大多数VR动作游戏,为了获得更好地交互反馈,应用中都会使用手柄(手柄可通过震动将交互反馈传达给用户)。HTC逆运动学全身追踪解决方案,通过跟踪握在手中的头显和两个动作控制器,开发人员能够实现相当准确的上身虚拟形态。由于缺乏下半身跟踪器,一些VR体验中会避免用户往下看,然而大量动作体验应用,下半身的追踪同样重要,而在腿部安装跟踪器势必会增加用户的运动限制。不在人体上额外增加传感器,依靠现有的传感器进行人体三维姿态跟踪是一个重要研究方向。
在VR游戏中,当你向下看并移动手臂时,会看到虚拟物体,它们是由一种名为“逆运动学”(简称IK)的动画概念所控制的。IK body是VR游戏设计中顺利实现的基础元素。这仅仅是因为,当你伸手去触摸一件物品时,你希望看到自己手臂和肘部在你面前移动,IK满足了这种沉浸感的期望。对于开发人员,重要的是要包含最能激发存在感的内容。VR中存在感是一种沉浸感,IK是一个小细节,对于创造一种置身于VR中的感觉非常重要。99%的VR游戏以某种形式使用战斗机制,击砍、拳打脚踢、投篮和射击。
绝大部分现有的全身追踪系统都利用了头显和手柄追踪器的定位功能,利用逆运动学进行上半身动作解算,然而人体动作毕竟复杂,通过IK造成肘部定位不准确,极易出现不自然的动作,同时下半身也往往忽略。Final IK通过更复杂的逆运动解算可以追踪下半身,但膝盖位置的模糊依旧无法解决。而依靠深度学习来识别人体关节位置固然可以,却造成已有设备信息的浪费,同时在一些人体复杂动作中严重的自遮挡,降低了深度学习方法的准确性。
发明内容
本发明提供了一种面向房间VR的全身三维姿态跟踪方法,可以提高跟踪准确率以及实时性。
一种面向房间VR的全身三维姿态跟踪方法,包括以下步骤:
(1)建立人体关节运动链模型,将人体17个关节划分为五条运动链C1、C2、C3、C4和C5;其中,C1、C3链由双臂构成,C2链由头和躯干构成,C1、C2和C3三条运动链构成上肢姿态,C4和C5两条运动链构成下肢姿态,以骨盆根关节为公共根关节;
(2)由VR HMD提供的头显位置信息,根据二臂铰链关节结构,利用逆运动学获得C2链上各个关节的位置,通过角度插值进行平滑IK表现;
(3)由VR手柄提供的手柄位置信息,即C1、C3运动链上末端关节手掌的位置信息,根据三臂铰链关节结构,利用雅克比矩阵进行IK解算,获得C1、C3运动链的姿态;
(4)由C4、C5运动链建立下肢运动学模型,由9个关节8个骨骼组成,自由度为16,并利用神经网络模型对下肢运动学模型进行训练;
(5)对Kinect V2捕获的下肢图像流采用截止频率自适应低通滤波器进行处理;
(6)将滤波处理后的下肢图像传入训练好的模型中进行识别,得到下肢9个关节点的3D位置信息;
(7)将步骤(2)、步骤(3)得到的上肢关节位置与步骤(6)得到的下肢关节位置以骨盆关节为公共根关节统一到同一坐标系下。
本发明所采用的图像为KinectV2的彩色图像,分辨率更高,捕捉范围更大。
步骤(2)中,利用逆运动学获得C2链上各个关节的位置的具体过程为:
根据躯干颈椎长度L1和脖子长度L2,确定C2链两个关节的偏转角度θ1和θ2,计算出两个角度后,进一步确定C2链上各个关节的位置,角度的计算公式如下:
其中,L1为躯干颈椎长度和脖子长度,L2为脖子长度,X,Y为HMD返回的头部坐标。
步骤(3)中,获得C1、C3运动链的姿态具体过程如下:
(3-1)C1、C3运动链为标准的三臂铰链关节结构,假定其结构中所有关节约束在xy平面,约束轴向量(0,0,1);
(3-2)根据V=Jθ,θ指代运动链上各个关节的速度,J指雅可比矩阵,向量V表示末端关节的线速度和角速度,C1运动链末端关节为右手掌,C3运动链末端关节为左手掌,其对应的线速度和角速度都与其当前的位置和朝向以及目标位置相关,以三维空间形式表示为:
其中,E表示末端关节,G为所移动到的目标位置;
由当前姿势下各个关节变化导致的末端关节变化的矩阵,求出雅可比矩阵J的逆矩阵J+,进一步得到各个关节的速度θ;
(3-3)计算关节自由度的改变Δθ=J+·Δe,将更改应用于自由度,末端关节移动一小步,距离变化为αΔθ:θ=θ+αΔθ,从而平滑逆运动学恢复双臂运动姿态,其中,α为平滑系数。
步骤(4)中,建立下肢运动学模型的过程如下:
(4-1)下肢运动学模型由9个关节组成,由8根骨骼铰接成下肢骨架,代表8个骨骼长度的集合,骨骼长度固定且作为先验知识;假设第i个关节的旋转角度为θi,运动参数Θ包括全局位置p、全局方向o和所有旋转角度,其中,正向运动学函数完成从运动参数空间到关节位置空间的映射;
(4-2)每个关节与运动参数中定义的局部坐标变换相关联,包括从其旋转角度和从其延伸骨骼的平移;通过沿着根关节到其自身的路径乘以一系列变换矩阵来获得关节的最终坐标,关节u的全局位置表示为:
其中,Pa(u)是关节u运动树上父节点的集合,O是同质坐标的原点;对于3D运动模型,每个旋转分配{X,Y,Z}轴中的一个,且在每个关节处可以有多个旋转;局部坐标系中定义了平移方向,其中运动参数皆设置为0。
步骤(4)中,所述神经网络模型的结构采用五层卷积神经网络,以3个卷积层开始,内核大小分别为5,5,3,紧跟着步长分别为4,2,1的池化;所有卷积层都含有8个通道,最后有两个完全连接层,每个层有1024个神经元,然后是一个dropout层,激活函数为ReLU;在网络末端增加运动层,网络预测对象的运动参数,由关节位置损失引导控制。所述关节位置损失的公式如下:
其中,Y∈y是输入图像的真实关节位置,为运动参数。
网络预测对象的运动参数,依旧由关节位置损失引导控制。这样的结构完全结合了对象的先验知识,包括骨骼长度和关节之间的空间结构,使得得到的关节位置保证有效。运动参数空间比无约束关节空间更紧凑,也就是运动参数的自由度小于关节的自由度。在我们的方法中,DOF对于运动参数是16。将运动学模型拟合到估计关节作为后处理,可以强制执行几何约束,从而可以通过最小化方程式中的运动模型恢复损失。网络将运动参数输出到运动层,运动层输出关节。
步骤(4)中,利用神经网络模型对下肢运动学模型进行训练的过程如下:
(7-1)首先从输入图像中获得人物边界框,将图像大小调整为224×224,使用边框填充来保持实际的图像高宽比不变,训练目标也通过边界框大小进行标准化;
(7-2)在ImageNet上预训练的50层残差网络作为初始模型,随机抽取1000K帧进行训练,训练网络70回合,学习率设置为在50个周期后降至0.0003,批尺寸为52,权重衰减为0.0002,动量为0.9。
步骤(5)中,所述截止频率自适应低通滤波器:通过估计信号的速度,为每个新样本调整低通滤波器的截止频率。尽管噪声信号通常以固定频率采样,但滤波并不总是遵循相同的速度,考虑采样之间的实际时间间隔。
与现有技术相比,本发明具有以下有益效果:
1、本发明上肢姿态通过VR设备的传感器,因而当人体背对摄像头运动时仍能准确跟踪上肢,而下肢结构的特点使得无论人体是否背对都能依靠计算机视觉技术有效跟踪。
2、本发明采用运动层+卷积神经网络进行关键的下肢关节点识别,强制进行了几何约束,结合了对象的先验知识,包括骨骼长度和关节之间的空间结构,使得得到的关节位置保证有效。
3、本方法采用上肢逆运动解算+下肢计算机视觉识别,有效弥补了纯逆运动学全身姿态捕捉时下身位置的缺失或失真。
附图说明
图1为本发明建立的人体关节运动链模型结构示意图;
图2为本发明实施例的场景布置示意图;
图3为本发明所使用的二臂铰链关节结构;
图4为本发明所使用的三臂铰链关节结构;
图5为本发明下肢模型关节结构示意图;
图6为本发明针对下肢关节点识别的方法流程图;
图7为本发明姿态跟踪方法效果。
具体实施方式
下面结合附图和实施例对本发明做进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
一种面向房间VR的全身三维姿态跟踪方法,如图1所示,本发明将人体关节点划分为五条运动链C1、C2、C3、C4和C5,其中C1、C2、C3构成上肢姿态关节,C4和C5构成下肢姿态关节,以骨盆根关节(黄点)为公共根关节。
面向房间VR的全身三维姿态跟踪,可分为人体上肢姿态恢复和下肢关节点识别跟踪,具体的包括以下步骤:
人体上肢姿态估计
步骤1:使用HTC Vive设备,包括一个头显、左右各一个手柄以及两个Lighthouse基站。两根定位杆放置在室内对角,摄像头采用Kinect V2彩色摄像头(分辨率为1920×1080),放置于房间边缘水平地面,确保可以看到房间中大部分区域,场景布置如图2所示。
步骤2:获得滤波后设备返回的头显位置信息,即C2链的末端关节,根据二臂铰链关节结构,参见图3,最末端关节根据便有了一个活动范围,其中L1为躯干颈椎长度,臂长度为L2为脖子长度。对应的两个关节偏转角度θ1和θ2就可以根据公式(1)和(2)计算得到。
计算出两个角度后,就可以直接影响各关节位置,进而角度插值来进行平滑的逆运动学表现。
步骤3:获得滤波后设备返回的两个手柄的位置信息,即C1和C3运动链的末端关节。根据三臂铰链关节结构,假定所有关节约束在xy平面,约束轴向量(0,0,1),结构如图4所示。根据V=Jθ,θ指代各个关节的速度,J指雅可比矩阵,向量V表示末端关节的线速度和角速度。由当前姿势下各个关节变化导致的末端关节变化的矩阵,求出J的逆矩阵J+,然后可得θ,计算关节DOFs的改变Δθ=J+·Δe,将更改应用于DOFs,末端关节移动一小步,距离αΔθ:θ=θ+αΔθ。从而平滑逆运动学恢复双臂运动姿态。
在下肢姿态识别阶段,参见图6,为本发明针对下肢关节点识别的方法。
步骤4:下肢铰接对象可以被建模为运动学模型,有9个关节和8个骨骼组成,参见图5。本发明使用Human 3.6M数据集。包含数百万张RGB图像。共有11个受试者,从4个不同的相机视图执行17个动作。每个帧都由MoCap系统准确注释,我们把四个相机根据同一主题分开。来自五个科目S1,S5,S6,S7,S8中的所有帧用于训练,剩下两名受试者S9,S11用于测试。
本发明定义了9个具有16个运动参数的关节。将骨盆设定为根关节,通过固定的骨骼变换确定臀部的位置。每个臀部具有完整的三个旋转角度,并且膝部具有1个旋转角度。网络结构为五层卷积神经网络,以3个卷积层开始,内核大小分别为5,5,3,紧跟着步长分别为4,2,1的池化。所有卷积层都含有8个通道,最后有两个完全连接层,每个层有1024个神经元,然后是一个dropout层,激活函数为ReLU。首先从输入图像中获得人物边界框,将图像大小调整为224×224,使用边框填充来保持实际的图像高宽比不变,训练目标也通过边界框大小进行标准化。使用ImageNet上预训练的50层残差网络作为初始模型。
网络末端增加运动层,网络预测对象的运动参数,由关节位置损失引导控制,见公式(3)。
其中Y∈y是输入图像的真实关节位置。DOF对于运动参数是16,将运动学模型拟合到估计关节作为后处理,强制执行几何约束,最小化方程式中的运动模型恢复损失。网络将运动参数输出到运动层,运动层输出关节。
五个科目完全可用的训练数据约为150万张图像,其中大量图像重复或高度相似,因此我们随机抽取1000K帧进行训练,训练网络70回合,学习率设置为0.0003(在50个周期后降至0.0003),批尺寸为52,权重衰减为0.0002,动量为0.9。
步骤5:摄像头能捕获下肢彩色图像,对图像信号进行时间滤波以缓解传感器噪声引起的位置偏差幅度不稳定。首先根据公式(4)计算得到α
其中,Te代表采样周期,τ代表时间常数(单位为秒)。然后根据公式(5)得到截止频率fc(赫兹)。
最后根据公式(6)和(7)计算得到自适应截止频率,在低信号速度下使用低fc,fc随着速度增加而增加以减少滞后。
步骤6:将步骤5滤波处理后的下肢图像传入步骤4训练好的模型中进行识别,返回下肢9个关节点的相对三维坐标。
步骤7:将步骤2,3,6得到的关节点三维坐标以骨盆关节点为公共根关节统一到同一坐标系下。在Unity3D中重建出人体姿态模型,跟踪效果如图7所示。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。
Claims (7)
1.一种面向房间VR的全身三维姿态跟踪方法,其特征在于,包括以下步骤:
(1)建立人体关节运动链模型,将人体17个关节划分为五条运动链C1、C2、C3、C4和C5;其中,C1、C3链由双臂构成,C2链由头和躯干构成,C1、C2和C3三条运动链构成上肢姿态,C4和C5两条运动链构成下肢姿态,以骨盆根关节为公共根关节;
(2)由VR HMD提供的头显位置信息,根据二臂铰链关节结构,利用逆运动学获得C2链上各个关节的位置,通过角度插值进行平滑IK表现;
(3)由VR手柄提供的手柄位置信息,即C1、C3运动链上末端关节手掌的位置信息,根据三臂铰链关节结构,利用雅克比矩阵进行IK解算,获得C1、C3运动链的姿态;
(4)由C4、C5运动链建立下肢运动学模型,由9个关节8个骨骼组成,自由度为16,并利用神经网络模型对下肢运动学模型进行训练;
(5)对Kinect V2捕获的下肢图像流采用截止频率自适应低通滤波器进行处理;
(6)将滤波处理后的下肢图像传入训练好的模型中进行识别,得到下肢9个关节点的3D位置信息;
(7)将步骤(2)、步骤(3)得到的上肢关节位置与步骤(6)得到的下肢关节位置以骨盆关节为公共根关节统一到同一坐标系下。
2.根据权利要求1所述的面向房间VR的全身三维姿态跟踪方法,其特征在于,步骤(2)中,利用逆运动学获得C2链上各个关节的位置的具体过程为:
根据躯干颈椎长度L1和脖子长度L2,确定C2链两个关节的偏转角度θ1和θ2,计算出两个角度后,进一步确定C2链上各个关节的位置,角度的计算公式如下:
其中,L1为躯干颈椎长度和脖子长度,L2为脖子长度,X,Y为HMD返回的头部坐标。
3.根据权利要求1所述的面向房间VR的全身三维姿态跟踪方法,其特征在于,步骤(3)中,获得C1、C3运动链的姿态具体过程如下:
(3-1)C1、C3运动链为标准的三臂铰链关节结构,假定其结构中所有关节约束在xy平面,约束轴向量(0,0,1);
(3-2)根据V=Jθ,θ指代运动链上各个关节的速度,J指雅可比矩阵,向量V表示末端关节的线速度和角速度,C1运动链末端关节为右手掌,C3运动链末端关节为左手掌,其对应的线速度和角速度都与其当前的位置和朝向以及目标位置相关,以三维空间形式表示为:
其中,E表示末端关节,G为所移动到的目标位置;
由当前姿势下各个关节变化导致的末端关节变化的矩阵,求出雅可比矩阵J的逆矩阵J+,进一步得到各个关节的速度θ;
(3-3)计算关节自由度的改变Δθ=J+·Δe,将更改应用于自由度,末端关节移动一小步,距离变化为αΔθ:θ=θ+αΔθ,从而平滑逆运动学恢复双臂运动姿态;其中,α为平滑系数。
4.根据权利要求1所述的面向房间VR的全身三维姿态跟踪方法,其特征在于,步骤(4)中,建立下肢运动学模型的过程如下:
(4-1)下肢运动学模型由9个关节组成,由8根骨骼铰接成下肢骨架,代表8个骨骼长度的集合,骨骼长度固定且作为先验知识;假设第i个关节的旋转角度为θi,运动参数Θ包括全局位置p、全局方向o和所有旋转角度,其中,正向运动学函数完成从运动参数空间到关节位置空间的映射;
(4-2)每个关节与运动参数中定义的局部坐标变换相关联,包括从其旋转角度和从其延伸骨骼的平移;通过沿着根关节到其自身的路径乘以一系列变换矩阵来获得关节的最终坐标,关节u的全局位置表示为:
其中,Pa(u)是关节u运动树上父节点的集合,O是同质坐标的原点;对于3D运动模型,每个旋转分配{X,Y,Z}轴中的一个,且在每个关节处可以有多个旋转;局部坐标系中定义了平移方向,其中运动参数皆设置为0。
5.根据权利要求1所述的面向房间VR的全身三维姿态跟踪方法,其特征在于,步骤(4)中,所述神经网络模型的结构采用五层卷积神经网络,以3个卷积层开始,内核大小分别为5,5,3,紧跟着步长分别为4,2,1的池化;所有卷积层都含有8个通道,最后有两个完全连接层,每个层有1024个神经元,然后是一个dropout层,激活函数为ReLU;在网络末端增加运动层,网络预测对象的运动参数,由关节位置损失引导控制。
6.根据权利要求5所述的面向房间VR的全身三维姿态跟踪方法,其特征在于,所述关节位置损失的公式如下:
其中,Y∈y是输入图像的真实关节位置,为运动参数。
7.根据权利要求5或6所述的面向房间VR的全身三维姿态跟踪方法,其特征在于,步骤(4)中,利用神经网络模型对下肢运动学模型进行训练的过程如下:
(7-1)首先从输入图像中获得人物边界框,将图像大小调整为224×224,使用边框填充来保持实际的图像高宽比不变,训练目标也通过边界框大小进行标准化;
(7-2)在ImageNet上预训练的50层残差网络作为初始模型,随机抽取1000K帧进行训练,训练网络70回合,学习率设置为在50个周期后降至0.0003,批尺寸为52,权重衰减为0.0002,动量为0.9。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910661768.6A CN110570455B (zh) | 2019-07-22 | 2019-07-22 | 一种面向房间vr的全身三维姿态跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910661768.6A CN110570455B (zh) | 2019-07-22 | 2019-07-22 | 一种面向房间vr的全身三维姿态跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110570455A true CN110570455A (zh) | 2019-12-13 |
CN110570455B CN110570455B (zh) | 2021-12-07 |
Family
ID=68773144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910661768.6A Active CN110570455B (zh) | 2019-07-22 | 2019-07-22 | 一种面向房间vr的全身三维姿态跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110570455B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028346A (zh) * | 2019-12-23 | 2020-04-17 | 北京奇艺世纪科技有限公司 | 一种视频对象的重建方法和装置 |
CN111046848A (zh) * | 2019-12-30 | 2020-04-21 | 广东省实验动物监测所 | 一种基于动物跑台的步态监测方法及系统 |
CN111369626A (zh) * | 2020-03-04 | 2020-07-03 | 刘东威 | 基于深度学习的无标志点上肢运动分析方法及系统 |
CN111739132A (zh) * | 2020-07-02 | 2020-10-02 | 江苏原力数字科技股份有限公司 | 一种基于局部控制器的全身骨骼运动效果修改方法 |
CN111738075A (zh) * | 2020-05-18 | 2020-10-02 | 深圳奥比中光科技有限公司 | 一种基于行人检测的关节点跟踪方法及系统 |
CN111899318A (zh) * | 2020-08-13 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 数据的处理方法、装置及计算机可读存储介质 |
CN112037312A (zh) * | 2020-11-04 | 2020-12-04 | 成都市谛视科技有限公司 | 实时人体姿态逆向运动学求解方法及装置 |
CN112527109A (zh) * | 2020-12-04 | 2021-03-19 | 上海交通大学 | 基于坐姿的vr全身动作控制方法、系统及计算机可读介质 |
CN112686976A (zh) * | 2020-12-31 | 2021-04-20 | 咪咕文化科技有限公司 | 骨骼动画数据的处理方法、装置及通信设备 |
CN113205557A (zh) * | 2021-05-20 | 2021-08-03 | 上海曼恒数字技术股份有限公司 | 一种全身姿态还原方法及系统 |
CN113359987A (zh) * | 2021-06-03 | 2021-09-07 | 煤炭科学技术研究院有限公司 | 基于vr虚拟现实的半实物综采实操平台 |
CN113487674A (zh) * | 2021-07-12 | 2021-10-08 | 北京未来天远科技开发有限公司 | 一种人体位姿估计系统和方法 |
TWI753382B (zh) * | 2020-03-16 | 2022-01-21 | 國立中正大學 | 對一影像中的人體進行三維人體骨架估測的方法、三維人體骨架估測器、及估測器之訓練方法 |
CN114469079A (zh) * | 2022-01-29 | 2022-05-13 | 北京中科深智科技有限公司 | 一种利用LightHouse的身体关节测量方法 |
CN114712835A (zh) * | 2022-03-25 | 2022-07-08 | 中国地质大学(武汉) | 一种基于双目人体位姿识别的辅助训练系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103120586A (zh) * | 2012-10-22 | 2013-05-29 | 上海大学 | 人体步态运动学参数采集辅助装置和方法 |
CN103440037A (zh) * | 2013-08-21 | 2013-12-11 | 中国人民解放军第二炮兵工程大学 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
CN103870718A (zh) * | 2014-04-11 | 2014-06-18 | 成都信息工程学院 | 基于神经网络的逆运动求解方法 |
CN107174255A (zh) * | 2017-06-15 | 2017-09-19 | 西安交通大学 | 基于Kinect体感技术的三维步态信息采集与分析方法 |
CN108369643A (zh) * | 2016-07-20 | 2018-08-03 | 优森公司 | 用于3d手部骨架跟踪的方法和系统 |
CN108460338A (zh) * | 2018-02-02 | 2018-08-28 | 北京市商汤科技开发有限公司 | 人体姿态估计方法和装置、电子设备、存储介质、程序 |
CN108734194A (zh) * | 2018-04-09 | 2018-11-02 | 浙江工业大学 | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 |
CN109015631A (zh) * | 2018-07-03 | 2018-12-18 | 南京邮电大学 | 基于多工作链的拟人机器人实时模仿人体运动的方法 |
CN109359514A (zh) * | 2018-08-30 | 2019-02-19 | 浙江工业大学 | 一种面向deskVR的手势跟踪识别联合策略方法 |
CN109636831A (zh) * | 2018-12-19 | 2019-04-16 | 安徽大学 | 一种估计三维人体姿态及手部信息的方法 |
CN110020633A (zh) * | 2019-04-12 | 2019-07-16 | 腾讯科技(深圳)有限公司 | 姿态识别模型的训练方法、图像识别方法及装置 |
-
2019
- 2019-07-22 CN CN201910661768.6A patent/CN110570455B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103120586A (zh) * | 2012-10-22 | 2013-05-29 | 上海大学 | 人体步态运动学参数采集辅助装置和方法 |
CN103440037A (zh) * | 2013-08-21 | 2013-12-11 | 中国人民解放军第二炮兵工程大学 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
CN103870718A (zh) * | 2014-04-11 | 2014-06-18 | 成都信息工程学院 | 基于神经网络的逆运动求解方法 |
CN108369643A (zh) * | 2016-07-20 | 2018-08-03 | 优森公司 | 用于3d手部骨架跟踪的方法和系统 |
CN107174255A (zh) * | 2017-06-15 | 2017-09-19 | 西安交通大学 | 基于Kinect体感技术的三维步态信息采集与分析方法 |
CN108460338A (zh) * | 2018-02-02 | 2018-08-28 | 北京市商汤科技开发有限公司 | 人体姿态估计方法和装置、电子设备、存储介质、程序 |
CN108734194A (zh) * | 2018-04-09 | 2018-11-02 | 浙江工业大学 | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 |
CN109015631A (zh) * | 2018-07-03 | 2018-12-18 | 南京邮电大学 | 基于多工作链的拟人机器人实时模仿人体运动的方法 |
CN109359514A (zh) * | 2018-08-30 | 2019-02-19 | 浙江工业大学 | 一种面向deskVR的手势跟踪识别联合策略方法 |
CN109636831A (zh) * | 2018-12-19 | 2019-04-16 | 安徽大学 | 一种估计三维人体姿态及手部信息的方法 |
CN110020633A (zh) * | 2019-04-12 | 2019-07-16 | 腾讯科技(深圳)有限公司 | 姿态识别模型的训练方法、图像识别方法及装置 |
Non-Patent Citations (3)
Title |
---|
SHUFANG LU 等: ""A Combined Strategy of Hand Tracking for Desktop VR"", 《SPRINGER》 * |
刘登志 等: ""实时三维人体卡通运动的设计与实现"", 《计算机辅助设计与图形学学报》 * |
高飞 等: ""基于空间平面约束的视觉定位模型研究"", 《仪器仪表学报》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028346A (zh) * | 2019-12-23 | 2020-04-17 | 北京奇艺世纪科技有限公司 | 一种视频对象的重建方法和装置 |
CN111028346B (zh) * | 2019-12-23 | 2023-10-10 | 北京奇艺世纪科技有限公司 | 一种视频对象的重建方法和装置 |
CN111046848A (zh) * | 2019-12-30 | 2020-04-21 | 广东省实验动物监测所 | 一种基于动物跑台的步态监测方法及系统 |
CN111369626A (zh) * | 2020-03-04 | 2020-07-03 | 刘东威 | 基于深度学习的无标志点上肢运动分析方法及系统 |
TWI753382B (zh) * | 2020-03-16 | 2022-01-21 | 國立中正大學 | 對一影像中的人體進行三維人體骨架估測的方法、三維人體骨架估測器、及估測器之訓練方法 |
CN111738075A (zh) * | 2020-05-18 | 2020-10-02 | 深圳奥比中光科技有限公司 | 一种基于行人检测的关节点跟踪方法及系统 |
CN111739132A (zh) * | 2020-07-02 | 2020-10-02 | 江苏原力数字科技股份有限公司 | 一种基于局部控制器的全身骨骼运动效果修改方法 |
CN111899318A (zh) * | 2020-08-13 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 数据的处理方法、装置及计算机可读存储介质 |
CN111899318B (zh) * | 2020-08-13 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 数据的处理方法、装置及计算机可读存储介质 |
CN112037312A (zh) * | 2020-11-04 | 2020-12-04 | 成都市谛视科技有限公司 | 实时人体姿态逆向运动学求解方法及装置 |
CN112037312B (zh) * | 2020-11-04 | 2021-02-09 | 成都市谛视科技有限公司 | 实时人体姿态逆向运动学求解方法及装置 |
CN112527109A (zh) * | 2020-12-04 | 2021-03-19 | 上海交通大学 | 基于坐姿的vr全身动作控制方法、系统及计算机可读介质 |
CN112686976A (zh) * | 2020-12-31 | 2021-04-20 | 咪咕文化科技有限公司 | 骨骼动画数据的处理方法、装置及通信设备 |
CN113205557A (zh) * | 2021-05-20 | 2021-08-03 | 上海曼恒数字技术股份有限公司 | 一种全身姿态还原方法及系统 |
CN113205557B (zh) * | 2021-05-20 | 2022-07-15 | 上海曼恒数字技术股份有限公司 | 一种全身姿态还原方法及系统 |
CN113359987A (zh) * | 2021-06-03 | 2021-09-07 | 煤炭科学技术研究院有限公司 | 基于vr虚拟现实的半实物综采实操平台 |
CN113359987B (zh) * | 2021-06-03 | 2023-12-26 | 煤炭科学技术研究院有限公司 | 基于vr虚拟现实的半实物综采实操平台 |
CN113487674A (zh) * | 2021-07-12 | 2021-10-08 | 北京未来天远科技开发有限公司 | 一种人体位姿估计系统和方法 |
CN113487674B (zh) * | 2021-07-12 | 2024-03-08 | 未来元宇数字科技(北京)有限公司 | 一种人体位姿估计系统和方法 |
CN114469079A (zh) * | 2022-01-29 | 2022-05-13 | 北京中科深智科技有限公司 | 一种利用LightHouse的身体关节测量方法 |
CN114469079B (zh) * | 2022-01-29 | 2022-09-06 | 北京中科深智科技有限公司 | 一种利用LightHouse的身体关节测量方法 |
CN114712835A (zh) * | 2022-03-25 | 2022-07-08 | 中国地质大学(武汉) | 一种基于双目人体位姿识别的辅助训练系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110570455B (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110570455B (zh) | 一种面向房间vr的全身三维姿态跟踪方法 | |
Li | Human–robot interaction based on gesture and movement recognition | |
Green et al. | Quantifying and recognizing human movement patterns from monocular video images-part i: a new framework for modeling human motion | |
Gavrila | The visual analysis of human movement: A survey | |
Jojic et al. | Tracking self-occluding articulated objects in dense disparity maps | |
JP4149213B2 (ja) | 指示位置検出装置及び自律ロボット | |
CN107239728A (zh) | 基于深度学习姿态估计的无人机交互装置与方法 | |
Demirdjian et al. | 3-d articulated pose tracking for untethered diectic reference | |
WO2008007471A1 (fr) | Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur | |
CN109359514B (zh) | 一种面向deskVR的手势跟踪识别联合策略方法 | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
Hori et al. | Silhouette-based synthetic data generation for 3D human pose estimation with a single wrist-mounted 360° camera | |
Yonemoto et al. | Real-time human motion analysis and IK-based human figure control | |
Jatesiktat et al. | Personalized markerless upper-body tracking with a depth camera and wrist-worn inertial measurement units | |
Iwasawa et al. | Human body postures from trinocular camera images | |
CN109214295B (zh) | 基于Kinect v2和Leap Motion的数据融合的手势识别方法 | |
Wang et al. | A Generative Human-Robot Motion Retargeting Approach Using a Single RGBD Sensor. | |
CN115205737A (zh) | 基于Transformer模型的运动实时计数方法和系统 | |
Portillo-Rodriguez et al. | Development of a 3D real time gesture recognition methodology for virtual environment control | |
Hecht et al. | Markerless human motion tracking with a flexible model and appearance learning | |
Che et al. | Real-time 3d hand gesture based mobile interaction interface | |
Bernier | Real-time 3d articulated pose tracking using particle filters interacting through belief propagation | |
Takahashi et al. | Remarks on a real‐time, noncontact, nonwear, 3D human body posture estimation method | |
Boulic et al. | Real-Time IK Body Movement Recovery from Partial Vision Input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |