CN111428555A - 一种分关节的手部姿态估计方法 - Google Patents
一种分关节的手部姿态估计方法 Download PDFInfo
- Publication number
- CN111428555A CN111428555A CN202010053784.XA CN202010053784A CN111428555A CN 111428555 A CN111428555 A CN 111428555A CN 202010053784 A CN202010053784 A CN 202010053784A CN 111428555 A CN111428555 A CN 111428555A
- Authority
- CN
- China
- Prior art keywords
- hand
- network
- joint
- data set
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供分关节的手部姿态估计方法,包括:S1、准备数据集;S2、设计网络结构,将数据集中的图像数据输入到神经网络进行处理和融合重构;S3、设计损失函数;S4、构建网络并进行网络训练,网络使用python2.7基于tensorflow1.3构建,在配有GTX1080显卡的主机上进行训练和测试;S5、通过评价指标对测试结果进行分析;所述评价指标包括平均关节误差、正确检测帧比率以及平均检测速度。本发明依据手指功能区别设计了分手指、分关节的手部姿态估计网络结构,使手部姿态估计具有较高的准确度。
Description
技术领域
本发明涉及计算机视觉的人手姿态估计技术领域,具体而言,尤其涉及 一种分关节的手部姿态估计方法。
背景技术
国内外研究人员在人手姿态估计问题上尝试了很多研究方案。从输入数 据类型角度分类,包括单幅彩色RGB图像,双目或多目立体视觉,直接采用 深度数据等。单幅彩色RGB图像缺少深度信息,获得的3D姿态估计结果准 确度低。利用双目或多目立体视觉可以重构出深度信息,但是数据采集系统 相对复杂,且易受到复杂光照影响,准确度不高。深度传感器为直接获取深 度信息提供了便利。以单帧深度数据作为输入时,可以将其看成图像,或转 换成点云表达,或转换成3D体素表达。点云以及3D体素比深度图像复杂, 以此为输入时,虽然可以提高3D姿态估计的准确度,但是往往需要借助非 常复杂的姿态估计模型,难以满足实时性的要求。
从视觉手部姿态估计方法的角度分类,大致可以分为基于生成式模型的 方法和基于数据学习的方法。生成式模型法通常预先定义一个手部模型,借 助不同的目标函数实现手部模型与观测到的深度图像的最优匹配。这类方法 的性能对目标函数的合理性有较高依赖,对初始参数值敏感,估计速度慢, 当手部动作变化较快时,姿态估计的准确度下降严重。数据学习法用大量数 据训练手部姿态估计模型,可直接回归得到关节位置或角度,可以避免复杂 建模过程,克服优化难度较高的缺点,但是姿态估计的准确度不如生成式模型法。最近的研究将手部模型与数据学习结合起来,期望在估计准确度和估 计速度之间达到最佳平衡。如采用图卷积网重构手部形状模型获取姿态信息, 利用大量合成数据训练网络,以实际采集的深度图为真值,弱监督模式调整 网络参数去匹配真实深度图中的手部姿态。或采用编码器结构从彩色图像中 估计控制手部模型动作的参数以及视角参数,并用估计的参数调整解码器部 分给出的手部模型以及投影图像。不过,这种模型与数据学习结合的混合式 方法仍然需要复杂的手部建模,估计速度提升有限。如果采用仿真合成数据 训练网络模型,其与真实数据之间的差异对估计的准确性有不利影响。
本发明目标是以深度传感器采集的人手动作图像为数据源,研究一种基 于深度学习技术的新方法,估计人手在动作过程中的关节位置信息,可以为 诸如机器手操作等提供技术手段。本发明为了综合提升估计准确度和估计速 度,选用深度图像作为输入,不需要建立手部模型,而是直接采用深度卷积 网络达到目的。特别是本发明提出了一种新颖的与手指功能差异相对应的网 络结构,通过分手指分关节的估计,不仅提高了手部姿态估计的准确度,而 且具有非常高的估计速度。
发明内容
根据上述提出的技术问题,而提供分关节的手部姿态估计方法。本发明 在充分调研手部姿态估计方法的研究进展基础上,提出一种依据手指功能区 别而设计的分手指、分关节的手部姿态估计网络结构,使手部姿态估计具有 较高的准确度。
本发明采用的技术手段如下:
一种分关节的手部姿态估计方法,包括:
S1、准备数据集;
S2、设计网络结构,将数据集中的图像数据输入到神经网络进行处理和 融合重构;
S3、设计损失函数,所述损失函数定义如下:
L=L1+L2+L3+λR(w) (1)
式(1)中,L1、L2、L3分别表示第一个损失函数项、第二个损失函数项和第 三个损失函数项,R(w)表示正则化项,λ表示正则化项的权重系数;
其中,第一个损失函数项L1具体定义为:
L1=δLpalm+αLthumb+βLindex+γLothers (2)
式(2)由掌关节、拇指关节、食指关节和其他手指关节的损失函数Lpalm、Lthumb、Lindex、Lothers构成,定义为预测关节位置与真实关节位置的差,即
式(3)中,ai为第i个关节位置预测值,Ai为第i个关节位置真实值,Jf为 各支路对应的关节数量;δ、α、β、γ分别为平衡各项的权重因子;
第二个损失函数项L2具体定义为:
式(4)中,pi和Pi分别表示第i维收缩层的预测输出和关节位置真值降维后 的特征值;
第三个损失函数项位于干扰消除之后的最终的分支之后,定义了每个分 支预测的关节点的3D坐标与真值标注之间距离,其定义与L2相同;
S4、构建网络并进行网络训练,网络使用python2.7基于tensorflow1.3构 建,在配有GTX1080显卡的主机上进行训练和测试;
S5、通过评价指标对测试结果进行分析;所述评价指标包括平均关节误 差、正确检测帧比率以及平均检测速度。
进一步地,所述步骤S1中准备数据集的具体过程如下:
S11、获取图像数据集;所述图像数据集采用开源共享的ICVL数据集;
S12、通过图像的二维旋转变换将数据集扩充到330K,数据集包含1.5K 帧测试图像;
S13、数据预处理,定义固定大小的手部包围盒,以手指中部MCP关节 的标注为中心,裁剪出手部图像,计算裁剪后图像的质心;以该质心为包围 盒中心,重新裁剪图像;将裁剪后手部深度图的大小调整为128×128,深度 值归一化到[-1,1]。
进一步地,所述ICVL数据集通过3D骨骼模型跟踪对手部16个关节点 的3D位置进行标注,通过Intel Creative深度相机拍摄22K张手部动作的深 度图像,分辨率320×240,位深度16,所含图像序列共有10个操作者,执 行26个不同动作。
进一步地,所述步骤S2中设计的网络结构包括网络输入特征提取单元和 网络特征融合单元;
所述网络输入特征提取单元采用四分支卷积神经结构,每个分支分别对 应不同的手部关节且结构相同,其中每个分支包括两个卷积模块和一个全连 接模块;
所述网络特征融合单元通过集成操作将四个分支得到的特征合并,形成 一个综合特征,送入后续的全连接模块进行全局特征映射,该模块结构与所 述特征提取单元中的全连接模块相同;该全连接模块连接收缩层,其神经元 数量少于表达全手关节所需要的神经元数量,通过高维向低维的映射,强化 手部的整体结构约束。
进一步地,所述的两个卷积模块,每个卷积模块包括两个卷积层,核尺 寸5×5,通道数32,非线性激活函数ReLU,每个卷积层后加规范化处理, 最后做最大池化操作,步长为3;所述的全连接模块包括两个全连接层,分 别有2048和1024个神经元,规范化处理后,做随机丢弃操作,丢弃率50%。
进一步地,所述步骤S2中还包括降维处理操作,具体如下:
设高维数据X={x1,x2,…,xn},W={w1,w2,…,wD}是适应于数据分布的D维 标准正交基向量构成的投影矩阵,D<<n,则任一高维数据xi∈X在低维空间 的投影为zi=WTxi,zi=Z={z1,z2,…,zn};从低维空间重构高维空间,得到 xi=∑DziW。
进一步地,所述步骤S2中还包括网络处理时,将真实关节位置信息降维 到D维空间,作为收缩层权重训练的监督信息,重构时将投影矩阵W作为重 构层权重,特征值的均值作为偏置,得到重构后手部关节点位置的步骤。
较现有技术相比,本发明具有以下优点:
1、本发明提出的方法具有新颖的网络结构。结构设计建立在手部结构和 功能特点的基础上,不同的网络分支与不同的手指或手指组合相对应,掌关 节作为全局特征融入其他三个手指分支中,强化了全局与局部信息的联系。 设置收缩层强化了手指与手指之间的结构关联性,可以让估计出的手部姿态 符合人手物理结构和运动特性。
2、本发明提出的方法,其准确率高,适用性更好,计算复杂性低,运行 时间少。在ICVL数据集上实施本发明提出的方法,检测精度为8.25mm。
基于上述理由本发明可在计算机视觉的人手姿态估计等领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实 施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下 面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在 不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法手部姿态检测网络总体结构图。
图2为本发明实施例提供的不同方法在ICVL数据集上正确帧检测比率 对比图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实 施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然, 所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于 本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获 得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第 一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后 次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本 发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外, 术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含, 例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于 清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明的目的是仅以深度相机为传感器,采用深度学习技术,估计不同 视角下人手动作姿态。
实施例
本发明提供了一种分关节的手部姿态估计方法,包括:
S1、准备数据集;
所述步骤S1中准备数据集的具体过程如下:
S11、获取图像数据集;所述图像数据集采用开源共享的ICVL数据集; 进一步的作为本发明优选的实施方式,所述ICVL数据集通过3D骨骼模型跟 踪对手部16个关节点的3D位置进行标注,通过Intel Creative深度相机拍摄 22K张手部动作的深度图像,分辨率320×240,位深度16,所含图像序列共 有10个操作者,执行26个不同动作。
S12、通过图像的二维旋转变换将数据集扩充到330K,数据集包含1.5K 帧测试图像;
为提高手部姿态估计的准确度,需要将手部区域尽可能准确分离出来, 本部分没有纳入到整体网络的端到端训练中,通过数据预处理步骤完成。数 据预处理过程如下:
S13、数据预处理,定义固定大小的手部包围盒,以手指中部MCP关节 的标注为中心,裁剪出手部图像,计算裁剪后图像的质心;以该质心为包围 盒中心,重新裁剪图像;将裁剪后手部深度图的大小调整为128×128,深度 值归一化到[-1,1];相应地,关节点位置标注也转换到包围盒空间;实际第三 视角人机交互场景中,操作者面向相机,手部保持在身体前方,距离相机最 近,利用深度阈值完成手部区域检测。
S2、设计网络结构,将数据集中的图像数据输入到神经网络进行处理和 融合重构;
进一步地作为本发明优选的实施方式,如图1所示,所述步骤S2中设计 的网络结构包括网络输入特征提取单元和网络特征融合单元;
所述网络输入特征提取单元采用四分支卷积神经结构,每个分支分别对 应不同的手部关节且结构相同,其中每个分支包括两个卷积模块和一个全连 接模块;所述的两个卷积模块,每个卷积模块包括两个卷积层,核尺寸5×5, 通道数32,非线性激活函数ReLU,每个卷积层后加规范化处理,最后做最 大池化操作,步长为3;所述的全连接模块包括两个全连接层,分别有2048 和1024个神经元,规范化处理后,做随机丢弃操作,丢弃率50%。
所述网络特征融合单元通过集成操作将四个分支得到的特征合并,形成 一个综合特征,送入后续的全连接模块进行全局特征映射,该模块结构与所 述特征提取单元中的全连接模块相同;该全连接模块连接收缩层,其神经元 数量少于表达全手关节所需要的神经元数量,目的是通过高维向低维的映射, 强化手部的整体结构约束。本实施例中,其神经元数量设为30,通过高维向 低维的映射,强化手部的整体结构约束。
所述步骤S2中还包括降维处理操作,降维处理采用主成分分析思想,具 体如下:
设高维数据X={x1,x2,…,xn},W={w1,w2,…,wD}是适应于数据分布的D维 标准正交基向量构成的投影矩阵,D<<n,则任一高维数据xi∈X在低维空间 的投影为zi=WTxi,zi=Z={z1,z2,…,zn};从低维空间重构高维空间,得到 xi=∑DziW。
网络处理时,将真实关节位置信息降维到D维空间,作为收缩层权重训 练的监督信息,重构时将投影矩阵W作为重构层权重,特征值的均值作为偏 置,得到重构后的手部关节点位置。
网络训练时采用多级监督策略,第一级监督L1位于各分支网络输出端, 监督信息为各分支对应的手指关节位置,第二级监督L2位于收缩层之后,监 督信息为降维后真实关节位置的投影。
S3、设计损失函数,所述损失函数定义如下:
L=L1+L2+L3+λR(w) (1)
式(1)中,L1、L2、L3分别表示第一个损失函数项、第二个损失函数项和第 三个损失函数项,第四项R(w)表示正则化项,对网络权重进行正则化处理, 采用L2-范数,λ表示正则化项的权重系数,在实验中设置为0.001。
其中,第一个损失函数项L1具体定义为:
L1=δLpalm+αLthumb+βLindex+γLothers (2)
式(2)由掌关节、拇指关节、食指关节和其他手指关节的损失函数Lpalm、Lthumb、Lindex、Lothers构成,定义为预测关节位置与真实关节位置的差,即
式(3)中,ai为第i个关节位置预测值,Ai为第i个关节位置真实值,Jf为 各支路对应的关节数量;δ、α、β、γ分别为平衡各项的权重因子;损失函 数中各项的贡献度根据经验调整参数取值,本实验中设置为 α=1,β=1,γ=1,δ=1,σ=1,λ=0.001。以本发明实施例所采用的ICVL数据集为 例,Jpalm=1,Jthumb=4,Jindex=4,Jothers=10。
第二个损失函数项L2具体定义为:
式(4)中,pi和Pi分别表示第i维收缩层的预测输出和关节位置真值降维后 的特征值;
第三个损失函数项位于干扰消除之后的最终的分支之后,定义了每个分 支预测的关节点的3D坐标与真值标注之间距离,其定义与L2相同;
S4、构建网络并进行网络训练,网络使用python2.7基于tensorflow1.3构 建,在配有GTX1080显卡的主机上进行训练和测试;具体实施时,网络采 用端到端的方式进行训练,所有的权重被随机初始化为均值为0,标准差为 0.01的正态分布,使用Adam算法进行梯度的反向传播计算,初始学习率设 为0.001,每一轮训练学习率衰减为上一轮的0.96倍。除输出层之外所有的 全连接层都使用随机失活防止过拟合,随机失活比率设为0.5。批大小为64, 最小批量1720,训练100轮。训练时间约20小时。
S5、通过评价指标对测试结果进行分析;所述评价指标包括平均关节误 差、正确检测帧比率以及平均检测速度。
平均关节误差:测试集中每一帧图像的所有关节位置的预测值与真值标 签之间的3D距离,单位mm。
正确检测帧比率:所有关节点的误差低于某个阈值的帧数所占总体测试 集的比例,取值0-100%。
平均检测速度:每秒钟完成检测的帧数,单位fps。
本发明以ICVL深度图像数据集为实验案例进行手部关节检测,并与多 种近年提出的优秀结果进行比较,包括Crossing-Nets,DeepModel,LRF, REN_Baseline,HBE,V2V-PoseNet。如图2所示,展示了在ICVL数据集上, 不同方法在不同的误差阈值下正确检测帧比率曲线,可以看出,本发明提出 的方法优于其他方法。表1所示为不同方法在ICVL数据集上测试结果的平 均关节误差,本发明所提方法在准确度指标上表现很好,虽然平均检测误差 大于V2V-PoseNet约2mm,但是检测速度是V2V-PoseNet方法的120倍,综 合性能占优。
表1不同方法在ICVL数据集上的平均检测误差和检测速度对比(本文方法简称HStB)
方法 | 平均关节误差/mm | 检测速度/fps |
LRF | 12.58 | - |
DeepModel | 10.4 | - |
Crossing Nets | 10.2 | - |
HBE | 8.62 | 557 |
V2V-PoseNet | 6.28 | 3.5 |
HStB | 8.25 | 422 |
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其 限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术 人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者 对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使 相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (7)
1.一种分关节的手部姿态估计方法,其特征在于,包括:
S1、准备数据集;
S2、设计网络结构,将数据集中的图像数据输入到神经网络进行处理和融合重构;
S3、设计损失函数,所述损失函数定义如下:
L=L1+L2+L3+λR(w) (1)
式(1)中,L1、L2、L3分别表示第一个损失函数项、第二个损失函数项和第三个损失函数项,R(w)表示正则化项,λ表示正则化项的权重系数;
其中,第一个损失函数项L1具体定义为:
L1=δLpalm+αLthumb+βLindex+γLothers (2)
式(2)由掌关节、拇指关节、食指关节和其他手指关节的损失函数Lpalm、Lthumb、Lindex、Lothers构成,定义为预测关节位置与真实关节位置的差,即
式(3)中,ai为第i个关节位置预测值,Ai为第i个关节位置真实值,Jf为各支路对应的关节数量;δ、α、β、γ分别为平衡各项的权重因子;
第二个损失函数项L2具体定义为:
式(4)中,pi和Pi分别表示第i维收缩层的预测输出和关节位置真值降维后的特征值;
第三个损失函数项位于干扰消除之后的最终的分支之后,定义了每个分支预测的关节点的3D坐标与真值标注之间距离,其定义与L2相同;
S4、构建网络并进行网络训练,网络使用python2.7基于tensorflow1.3构建,在配有GTX1080显卡的主机上进行训练和测试;
S5、通过评价指标对测试结果进行分析;所述评价指标包括平均关节误差、正确检测帧比率以及平均检测速度。
2.根据权利要求1所述的分关节的手部姿态估计方法,其特征在于,所述步骤S1中准备数据集的具体过程如下:
S11、获取图像数据集;所述图像数据集采用开源共享的ICVL数据集;
S12、通过图像的二维旋转变换将数据集扩充到330K,数据集包含1.5K帧测试图像;
S13、数据预处理,定义固定大小的手部包围盒,以手指中部MCP关节的标注为中心,裁剪出手部图像,计算裁剪后图像的质心;以该质心为包围盒中心,重新裁剪图像;将裁剪后手部深度图的大小调整为128×128,深度值归一化到[-1,1]。
3.根据权利要求2所述的分关节的手部姿态估计方法,其特征在于,所述ICVL数据集通过3D骨骼模型跟踪对手部16个关节点的3D位置进行标注,通过Intel Creative深度相机拍摄22K张手部动作的深度图像,分辨率320×240,位深度16,所含图像序列共有10个操作者,执行26个不同动作。
4.根据权利要求1所述的分关节的手部姿态估计方法,其特征在于,所述步骤S2中设计的网络结构包括网络输入特征提取单元和网络特征融合单元;
所述网络输入特征提取单元采用四分支卷积神经结构,每个分支分别对应不同的手部关节且结构相同,其中每个分支包括两个卷积模块和一个全连接模块;
所述网络特征融合单元通过集成操作将四个分支得到的特征合并,形成一个综合特征,送入后续的全连接模块进行全局特征映射,该模块结构与所述特征提取单元中的全连接模块相同;该全连接模块连接收缩层,其神经元数量少于表达全手关节所需要的神经元数量,通过高维向低维的映射,强化手部的整体结构约束。
5.根据权利要求4所述的分关节的手部姿态估计方法,其特征在于,所述的两个卷积模块,每个卷积模块包括两个卷积层,核尺寸5×5,通道数32,非线性激活函数ReLU,每个卷积层后加规范化处理,最后做最大池化操作,步长为3;所述的全连接模块包括两个全连接层,分别有2048和1024个神经元,规范化处理后,做随机丢弃操作,丢弃率50%。
6.根据权利要求4所述的分关节的手部姿态估计方法,其特征在于,所述步骤S2中还包括降维处理操作,具体如下:
设高维数据X={x1,x2,…,xn},W={w1,w2,…,wD}是适应于数据分布的D维标准正交基向量构成的投影矩阵,D<<n,则任一高维数据xi∈X在低维空间的投影为zi=WTxi,zi=Z={z1,z2,…,zn};从低维空间重构高维空间,得到xi=∑DziW。
7.根据权利要求1所述的分关节的手部姿态估计方法,其特征在于,所述步骤S2中还包括网络处理时,将真实关节位置信息降维到D维空间,作为收缩层权重训练的监督信息,重构时将投影矩阵W作为重构层权重,特征值的均值作为偏置,得到重构后手部关节点位置的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010053784.XA CN111428555B (zh) | 2020-01-17 | 2020-01-17 | 一种分关节的手部姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010053784.XA CN111428555B (zh) | 2020-01-17 | 2020-01-17 | 一种分关节的手部姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111428555A true CN111428555A (zh) | 2020-07-17 |
CN111428555B CN111428555B (zh) | 2022-09-20 |
Family
ID=71551476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010053784.XA Active CN111428555B (zh) | 2020-01-17 | 2020-01-17 | 一种分关节的手部姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111428555B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758380A (zh) * | 2023-08-15 | 2023-09-15 | 摩尔线程智能科技(北京)有限责任公司 | 用于姿态估计的网络训练方法及装置 |
CN117635897A (zh) * | 2024-01-26 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 三维对象的姿态补全方法、装置、设备、存储介质及产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107622257A (zh) * | 2017-10-13 | 2018-01-23 | 深圳市未来媒体技术研究院 | 一种神经网络训练方法及三维手势姿态估计方法 |
CN110175566A (zh) * | 2019-05-27 | 2019-08-27 | 大连理工大学 | 一种基于rgbd融合网络的手部姿态估计系统及方法 |
CN110188598A (zh) * | 2019-04-13 | 2019-08-30 | 大连理工大学 | 一种基于MobileNet-v2的实时手部姿态估计方法 |
-
2020
- 2020-01-17 CN CN202010053784.XA patent/CN111428555B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107622257A (zh) * | 2017-10-13 | 2018-01-23 | 深圳市未来媒体技术研究院 | 一种神经网络训练方法及三维手势姿态估计方法 |
CN110188598A (zh) * | 2019-04-13 | 2019-08-30 | 大连理工大学 | 一种基于MobileNet-v2的实时手部姿态估计方法 |
CN110175566A (zh) * | 2019-05-27 | 2019-08-27 | 大连理工大学 | 一种基于rgbd融合网络的手部姿态估计系统及方法 |
Non-Patent Citations (1)
Title |
---|
刘唐波等: "基于姿态估计的驾驶员手部动作检测方法研究", 《信号处理》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758380A (zh) * | 2023-08-15 | 2023-09-15 | 摩尔线程智能科技(北京)有限责任公司 | 用于姿态估计的网络训练方法及装置 |
CN116758380B (zh) * | 2023-08-15 | 2023-11-10 | 摩尔线程智能科技(北京)有限责任公司 | 用于姿态估计的网络训练方法及装置 |
CN117635897A (zh) * | 2024-01-26 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 三维对象的姿态补全方法、装置、设备、存储介质及产品 |
CN117635897B (zh) * | 2024-01-26 | 2024-05-07 | 腾讯科技(深圳)有限公司 | 三维对象的姿态补全方法、装置、设备、存储介质及产品 |
Also Published As
Publication number | Publication date |
---|---|
CN111428555B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108491880B (zh) | 基于神经网络的物体分类和位姿估计方法 | |
CN108182441B (zh) | 平行多通道卷积神经网络、构建方法及图像特征提取方法 | |
CN107085716B (zh) | 基于多任务生成对抗网络的跨视角步态识别方法 | |
CN106682598B (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
CN110503680B (zh) | 一种基于非监督的卷积神经网络单目场景深度估计方法 | |
CN110148104B (zh) | 基于显著性分析与低秩表示的红外与可见光图像融合方法 | |
CN109977757B (zh) | 一种基于混合深度回归网络的多模态的头部姿态估计方法 | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN108319957A (zh) | 一种基于超点图的大规模点云语义分割方法 | |
CN110427799B (zh) | 基于生成对抗网络的人手深度图像数据增强方法 | |
CN109345494B (zh) | 基于潜在低秩表示和结构张量的图像融合方法及装置 | |
CN107229920B (zh) | 基于整合深度典型时间规整及相关修正的行为识别方法 | |
CN107203745B (zh) | 一种基于跨域学习的跨视角动作识别方法 | |
CN111062340B (zh) | 一种基于虚拟姿态样本合成的异常步态行为识别方法 | |
CN106778474A (zh) | 3d人体识别方法及设备 | |
CN107423721A (zh) | 人机交互动作检测方法、装置、存储介质及处理器 | |
CN108171249B (zh) | 一种基于rgbd数据的局部描述子学习方法 | |
CN105184767A (zh) | 一种运动人体姿态相似性度量方法 | |
CN111476077A (zh) | 一种基于深度学习的多视角步态识别方法 | |
Beksi et al. | Object classification using dictionary learning and rgb-d covariance descriptors | |
CN112215101A (zh) | 一种基于注意力机制的三维目标识别方法及系统 | |
CN111428555B (zh) | 一种分关节的手部姿态估计方法 | |
CN112330813A (zh) | 一种基于单目深度摄像头的着装下三维人体模型重建方法 | |
CN111626152B (zh) | 一种基于Few-shot的时空视线方向估计原型设计方法 | |
CN112288645A (zh) | 一种颅骨面貌复原模型构建方法及复原方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |