CN109359514A - 一种面向deskVR的手势跟踪识别联合策略方法 - Google Patents

一种面向deskVR的手势跟踪识别联合策略方法 Download PDF

Info

Publication number
CN109359514A
CN109359514A CN201811002833.6A CN201811002833A CN109359514A CN 109359514 A CN109359514 A CN 109359514A CN 201811002833 A CN201811002833 A CN 201811002833A CN 109359514 A CN109359514 A CN 109359514A
Authority
CN
China
Prior art keywords
depth
gesture
image
hand
deskvr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811002833.6A
Other languages
English (en)
Other versions
CN109359514B (zh
Inventor
卢书芳
蔡历
丁雪峰
高飞
毛家发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201811002833.6A priority Critical patent/CN109359514B/zh
Publication of CN109359514A publication Critical patent/CN109359514A/zh
Application granted granted Critical
Publication of CN109359514B publication Critical patent/CN109359514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种面向deskVR的手势跟踪识别联合策略方法,首先通过卷积神经网络离线训练手势公开数据集ICVL,得到一个鲁棒性好、准确率高以及识别速度快的模型,并且通过合成数据测试联合方法准确率与速度的平衡点Rate,然后通过深度摄像头实时捕获深度图像,在对图像一系列预处理之后,根据手图像占比比例分别传入基于快速模型的手势识别方法或基于五区域卷积神经网络模型,返回识别后的关节点三维信息,进而映射三维人体模型。利用本发明的识别方法,在deskVR应用环境下具有良好的交互功能,在识别率、运算速度、普适性及准确性等方面表现良好。

Description

一种面向deskVR的手势跟踪识别联合策略方法
技术领域
本发明属于人机交互技术领域,尤其是涉及一种面向deskVR的手势 跟踪识别联合策略方法。
背景技术
沉浸式应用程序的典型代表是桌面VR。它可以广泛用于数据分析, 观看VR电影。这些应用一般提供立体视觉和头部跟踪,同时它们还需要 为人机交互提供手势识别。坐在椅子上并将肘部放在桌子上使得可以在 VR环境中进行长时间的手势交互。由于头戴式显示器(HMD)会阻挡眼 睛观察现实世界,因此鼠标和键盘不再适合沉浸式虚拟环境。手柄是成本 最低的最成熟的解决方案,然而用户不能直接控制。
目前,市场上的手势传感器,包括Leap Motion,使用“HMD+手势 传感器”来实现通常的以自我为中心的VR交互。但是这种手势识别方法 不适用于桌面VR的应用场景,因为它具有以下特点:1)有限的手势活 动范围:一般来说,VR体验是从自由视角观看的,受手势传感器范围的 限制,必须将手势传感器附着于VR头戴式显示器上。虽然这种设置确保 可以在各种位置跟踪手势,不会随着人体移动而跟踪丢失,但是眼睛必须 跟随手的运动。2)严重的自闭塞:由于手指的4自由度(DOF),自闭 塞是自我中心观点中的常见问题。现有方法本身是VR中手势交互进一步 自我遮挡的原因(手势传感器固定在VR耳机上)。尽管确保传感器检测 到的手的图像完整,但是手指位置的视觉信息很容易被手背遮挡。在这种 情况下。当前的手势识别方法仍然难以准确地识别大的遮挡区域下的关节 位置。3)容易疲劳:桌面VR体验要求用户佩戴VR设备。重型装置很 容易在短时间内引起颈部疲劳,特别是坐着。随着制造商减轻HMD设备 的重量,在VR耳机上捆绑更多传感器似乎是不明智的。
基于deskVR场景,即用户坐在办公椅上进行交互操作,我们提出了 使用前置摄像头的裸手跟踪技术。具体来说,我们采用计算机视觉技术和 深度相机进行3D手部跟踪,可以避免亮度干扰。因此,用户可以专注于 场景的内容,而不需要眼睛跟随手的移动。这种设置可以释放用户的视线, 减少用户限制并确保交互的自然性。
随着深度传感器的广泛使用,手势估计领域变得非常活跃。通常,手 势估计方法可以简单地分为基于模型的方法和数据驱动的方法。基于模型 的技术考虑先验3D手模型,其姿势由一些跟踪过程随时间确定。但是这 些方法需要某种准确的初始化。有提出一种基于模型的方法,可以实时跟 踪完全关节的手(没有GPU的桌面上25FPS)。该方法对复杂手势的识 别率低。也有使用粒子群优化(PSO)进行基于模型的方法,但它在GPU 上只有15fps。与基于模型的方法相比,数据驱动方法通过学习深度和图 像特征直接预测每个帧的姿态,而无需复杂的模型校准和准确的初始化。 因此,每帧初始化单帧检测方法,以便更容易从估计误差中恢复。基于深 度的3D手姿势估计方法可以在数据驱动方法中被分类为辨别,生成和混 合方法。生成方法假设一个预定义的手模型,并通过最小化手工制作的成 本函数使其适合输入图像。最近深度学习提供了从深度图像估计手的新选 项。混合方法是手跟踪的最新趋势,其结合了生成和判别技术。它可以孤 立地克服每个人的局限,并整合两者的优点。无论是初始化还是从错误中 恢复,生成方法都通过判别方法得到有效补充。此外,判别分量可以指导 生成模型的优化处理以实现低跟踪误差并且在搜索空间中收敛到全局最小值。基于检测的方法在正常条件下比基于回归的方法表现更好,但是当 在极端条件下自我遮挡严重时,基于回归的方法表现更好。虽然在极端视 角[70,120]的视角是传统的视角。当关节角度大于70度时,接近第一个姿 势,平均误差增加到12毫米以上。这意味着手部图像越不完整,自遮挡 将越严重,并且手势识别将越困难。最近,有几种方法使用3D体素网格 作为3D CNN的输入。它们的性能优于2D CNN,用于捕获深度数据的空 间结构。但V2V-PoseNet在单个GPU中只有3.5fps。目前的方法在数百 万数据集的训练中具有良好的单手姿态估计性能,但在一般计算机的VR 环境中难以实现实时跟踪。
在所有上述方法中,仍然存在实时和准确性能之间的折衷。具有高精 度的技术通常以低帧速率工作,因此不适用于空间沉浸式场景中的交互式 系统。传统的基于模型的方法具有更快的速度,但复杂手势的识别准确性 较低。复杂的CNN网络具有高精度但实时性差,占用了许多GPU计算资 源。
发明内容
本发明提供了一种面向deskVR的手势跟踪识别联合策略方法,识别 效果好,实时性能高。
一种面向deskVR的手势跟踪识别联合策略方法,其特征在于,包括 以下步骤:
(1)搭建五区域卷积神经网络模型,所述五区域卷积神经网络模型 由若干个不同的卷积层、池化层、激活层和全连接层组成;
(2)选取训练集,并设置五区域卷积神经网络模型的训练参数;
(3)根据五区域卷积神经网络模型及其训练参数,以最小化损失函 数为目标训练模型,得到深度图像手势估计神经网络模型;
(4)利用合成的深度数据集,统计数据集中各手势占图片面积比例 的分布,测定在识别准确性和速度上达到最佳性能时的手面积比Rate,设 定为策略选择阈值;
(5)利用深度摄像机获取实时的深度图像帧,并对图像帧预处理;
(6)根据最近邻算法,在每个独立的人体区域上检测手部区域;若 能够检测出手部区域,则执行步骤(7),若检测不到,则返回步骤(5);
(7)将检测出的手部深度图归一化处理,并计算出手图像面积所占 比例rate,若rate>Rate,则执行步骤(8),若rate<Rate,则执行步骤(9);
(8)基于快速模型的手势识别方法对步骤(7)传入的深度帧进行手 势关节点识别,并转到步骤(10);
(9)基于五区域卷积神经网络模型对步骤(7)传入的深度帧的手势 关节点识别;
(10)通过深度摄像机的参数,将关节点坐标从图像坐标系转换到物 理坐标系,并最终映射三维手势模型。
本发明通过基于快速模型的方法识别大量简单手势图像,而将复杂手 势图像移交给CNN;CNN网络和模型仿真的许多步骤可以以交互速度运 行。该方法在速度和准确性方面表现出良好的性能。
步骤(1)中,五区域卷积神经网络包括:一个数据输入层、六个卷 积层、三个池化层、两个eltwise层、两个全连接层。第一层为数据输入 层,然后是六个卷积层,两个eltwise层分别位于第三、第五个卷积层之 后,三个池化层分别位于第二个卷积层,第一、第二个eltwise层之后, 两个全连接层位于第三个池化层之后。
其中所述六个卷积层卷积核大小都为3×3,卷积步长为1,各卷积核 个数分别为16、16、32、32、64、64。
所述三个池化层卷积核大小为2×2,步长为2。每个卷积层后面跟着 一个ReLU激活,两个池化层之间通过残差连接增加特征图尺寸。
步骤(2)中,训练集采用公开数据集ICVL进行模型训练,包含大量 已标注的14个关节的训练图像和测试图像。
步骤(3)中,所述五区域卷积神经网络模型的训练过程为:
(3-1)根据手部二值图像检测并绘制其外部轮廓,然后根据道格拉 斯-普克算法,求出轮廓的封闭多边形,确定封闭多边形的中心;
(3-2)以该封闭多边形的中心为中心提取一个立方体,将立方体重 新调整大小,深度值归一化为[-1,1]作为ConvNet的输入;
(3-3)深度值归一化后的图像作为输入,先进入网络通过六个卷积 层进行特征提取,将输出特征映射到五个特征区域:R1,R2,R3,R4,R5,其 中,R1-R4分别为以图像四个顶点为顶点且沿着特征图边缘提取的固定 大小区域,R5为以图像中心为区域中心提取的同样大小区域,以图像中心 为区域中心,五个特征区域作为分支,分别馈送到两个全连接层进行回归, 每个回归器的丢失率为0.5;
(3-4)训练使用最小批量为128的随机梯度下降,使用0.0005的重 量衰减和0.9的动量,学习率从0.005开始,每5万次迭代后除以10,模 型训练达到200000次迭代。
步骤(4)中,所述策略选择阈值的测定方法为:
(4-1)标准化手的图像面积,得到手的标准面积,所述的标准面积 为手指完全伸展,手掌面向摄像头,在距摄像头0.7m处所成像手的面积, 所述标准化的公式为:
其中,S′是原始图像面积,S是标准面积,是标准化后的手部图像面 积相较于标准面积的比率,μ是将原始图像标准化的转换系数;
(4-2)从合成的深度数据集中随机选出2000帧具有时间序列的深度 帧作为测试集,统计其中深度帧的分布,根据一般手指宽度10-20mm,将 距离误差阈值设置为15mm,根据不同面积比率测试关节识别点准确 率以及相应的实时速度,得到准确性和速度之间的平衡点,得到最佳性能 时的手面积比Rate,设定为策略选择阈值。最后选择60%的面积比作为平 衡点。在这个阈值下,精度和速度都有很好的性能。
步骤(5)的具体步骤为:
(5-1)采用RealSenseTM Camera SR300深度摄像头捕捉深度图 像帧D1(分辨率为320×240)指定等待下一帧深度图像数据的时间。
(5-2)对采集到的原始深度图像D1进行中值滤波,采用固定大小的 滤波核对图像进行滤波操作,消除噪声和图像黑洞;所述中值滤波处理的 公式为:
D2(x,y)=med{D1(x-k,y-l)}(k,l∈W)
其中,D2(x,y)为滤波处理后的深度图像,D1(x,y)为原始图像,(x,y) 为坐标处的深度值,W代表二维滤波模板,k表示模板的长度,l表示模 板的宽度。
(5-3)对滤波处理后的深度图像进行图像前景提取操作,可设定0.7m 为距离过滤阈值,去除深度大于0.7m的背景数据,减小之后的图像计算 量;所述图像前景提取操作的公式为:
其中,fg(x,y)表示前景图像中(x,y)处的逻辑值,d(x,y)表示深度图像 (x,y)坐标处的深度值。
(5-4)对前景提取操作后的深度图像进行膨胀操作,而后执行腐蚀 操作完成对图像的预处理。
步骤(8)中,所述基于快速模型的手势识别方法的具体步骤为:
(8-1)根据深度图提取手的二维轮廓S,并将深度图320×240像素 深度映射到三维点云P中具有关节参数θ={θ12,…,θ26}的3D手模型
(8-2)快速点云拟合,待匹配手势与候选手势对应点匹配,转换成 相同的坐标系以实现刚体变换,使用ICP算法重复迭代,解出最优化能量 方程:minE3D+E2D+Ewrist,得到手势关节点三维信息,三维信息能量 函数的方程为:
其中,E3D为三维信息能量函数,ω1为点云在最优化能量方程中所占 权重系数,x表示三维点云P中的3D点,是手姿势θ在手模型上 的x的映射,用2D轮廓E2D模拟对齐渲染的手模型的2D轮廓与从传感器 数据中提取的二维轮廓S,其能量方程为:
其中,ω2为二维轮廓信息在最优化能量方程中所占权重系数,p是渲 染二维轮廓S中的2D点,∏S(p,θ)表示p在从传感器获得二维轮廓S上的 投影点,Ewrist表示腕部对准能量,在优化中使用前臂的简化概念,其强 制腕关节沿其轴线定位,其能量方程为:
其中,ω3为腕部信息在最优化能量方程中所占权重系数,k0(θ)是腕 关节的3D位置,是由PCA提取的与腕带对应3D点的2D线;
(8-3)添加刚体约束,包括:每个手指上的两个关节角度保持相互 匹配;基部指骨无碰撞;基骨和中骨保持一起移动;小拇指和中指保持一 起移动;手指握拳时,外展程度为0,否则为默认的45°阈值。
与现有技术相比,本发明具有以下有益效果:
1、本发明以深度图像为数据源,克服了RGB图像容易受到外界光照、 阴影等因素变化的影响。
2、本发明充分考虑了deskVR的使用特点及应用场景,通过前置深度 摄像头引入裸手交互,这种设置帮助用户专注于场景的内容,而无需移动 头部跟踪手,减少了用户限制并确保了交互的自然性。
3、本发明通过结合基于模型的方法和深度卷积神经网络的方法,在 deskVR环境中引入了手势交互速度-准确性的权衡策略,该算法在一般的 设备上实现了实时性,且具有较高的精度。
附图说明
图1为本发明面向deskVR的手势跟踪识别联合策略方法的架构图;
图2为本发明针对特征提取的五区域卷积神经网络模型结构示意图;
图3为本发明的图像标准化示意图;
图4a为测试集中不同面积比的帧所占数量的图;
图4b为设置不同面积比阈值对FPS影响的图;
图4c为设置不同面积比阈值对帧识别误差影响的图;
图4d为选择平衡点时,本发明方法与现有方法的准确率对比图;
图5为本发明在desk VR中应用效果图。
具体实施方式
下面结合说明书附图与具体实施方式对本发明做进一步详细的说明。
如图1所示,一种面向deskVR的手势跟踪识别联合策略方法,具体 包括以下步骤:
训练CNN模型阶段。
S01:获取数据集并预处理。采用公开数据集ICVL进行模型训练。根 据opencv中的轮廓处理函数,根据手部二值图像检测并绘制其外部轮廓。 根据道格拉斯-普克算法,求出轮廓的封闭多边形。确定封闭多边形的中 心,以区域中心为中心提取一个尺寸为150mm的立方体。然后将立方体重 新调整为96×96的图像,深度值归一化为[-1,1]作为ConvNet的输入。
S02:构造卷积神经网络,具体结构为:五区域卷积神经网络模型, 参见图2,包括:一个数据输入层、六个卷积层、三个池化层、两个eltwise 层、两个全连接层。
第一层为数据输入层,然后是六个卷积层,两个eltwise层分别位于 第三、第五个卷积层之后,三个池化层分别位于第二个卷积层,第一、第 二个eltwise层之后,两个全连接层位于第三个池化层之后。
六个卷积层卷积核大小都为3×3,卷积步长为1,各卷积核个数分别为 16、16、32、32、64、64。
三个池化层卷积核大小为2×2,步长为2。每个卷积层后面跟着一个 ReLU激活,两个池化层之间通过残差连接增加特征图尺寸。
六层卷积输出的12×12×64特征映射到N×N+1的网格中,此处设置 N=2,96×96图像边界内单个区域的接受区域为64×64,分别为R1,R2, R3,R4,R5。进入两个2048维全连接层进行回归,每个回归器的丢失率 为0.5,网络概貌见附图3。回归器输出表示手关节的3D世界坐标的3×J 向量,其中J是关节的数量。
训练使用最小批量为128的随机梯度下降。使用0.0005的重量衰减和 0.9的动量。学习率从0.005开始,每5万次迭代后除以10,模型训练达 到200000次迭代。
Rate阈值测定,需要实验测定一个准确率与速度平衡点。
S03:我们从生成的合成数据中随机选出2000帧具有时间序列深度帧 作为测试集,统计其中深度帧的分布,根据一般手指宽度10-20mm,将 距离误差阈值设置为15mm;
S04:根据不同面积比率测试关节识别点准确率以及相应的实时速 度,最后选择60%的面积比作为平衡点,在这个阈值下,精度和速度都有 很好的性能。如图4a所示,统计测试集中不同面积比图像帧的数量,测 试集中大部分图像帧面积比率在60%以上。如图4b、图4c所示,设置不 同面积比阈值对FPS的影响以及设置不同面积比阈值对帧识别误差的影响, 当选择面积比阈值为60%时,准确率与实时性皆有一个很好的性能。如图4d所示,将本发明的方法与现有的几种方法的比较,在不同误差阈值下都 有很好的准确率。
实时跟踪识别阶段。
S05:采用kinectV2深度摄像头捕捉深度图像帧D1(分辨率为 512×424),指定等待下一帧深度图像数据的时间,根据K近邻算法检测, 若存在手,进入步骤6,否则传入下一帧。
S06:对图像D1进行中值滤波D2(x,y)=med{D1(x-k,y-l)}(k,l∈ W),其中W代表二维滤波模板,k表示模板的长度,l表示模板的宽度, D2(x,y)为滤波处理后的深度图像,D1(x,y)为原始图像。
S07:对滤波处理后的深度图像D2进行图像前景提取操作,深度图像 前景提取的公式,公式中fg(x,y)表示前景图像中d(x,y)处的逻辑值,d(x,y) 表示深度图像(x,y)坐标处的深度值;θ表示深度图像的阈值门限(设定为 0.7m),得到深度图像D3
S08:对深度图像D3进行膨胀,而后执行腐蚀操作完成对图像的一系 列预处理操作。得到深度图像D4
S09:将深度图像D4标准化处理,请参考图3,得到标准化处理后的 深度图D5,计算手图像面积所占比例rate,若rate>=Rate进行步骤10, 否则执行步骤12。
S10:根据深度图D5,提取手二维轮廓S,并将深度图映射到三维点 云P;
S11:根据三维点云P,快速点云拟合,使用ICP算法重复迭代,结合 二维信息S,解出最优化能量方程:minE3D+E2D+Ewrist,得到手势关 节点三维信息。
S12:根据深度图像D5中手部轮廓,计算手部中心,从深度图像D5中 以手部区域中心为中心提取一个尺寸为150mm的立方体。
S13:将手部深度图像传入步骤S08训练好的caffe模型中进行识别, 返回估计的14个手关节点的三维坐标。
S14:通过深度摄像机的参数,将步骤S11、步骤S13返回的手关节三 维参数从图像坐标系转换到物理坐标系,并最终映射三维人体模型,在VR 中跟踪效果如图5所示。
本发明通过基于快速模型的方法识别大量简单手势图像,将复杂手势 图像移交给CNN。CNN网络和模型仿真的许多步骤可以以交互速度运行, 该方法在速度和准确性方面表现出良好的性能。

Claims (10)

1.一种面向deskVR的手势跟踪识别联合策略方法,其特征在于,包括以下步骤:
(1)搭建五区域卷积神经网络模型,所述五区域卷积神经网络模型由若干个不同的卷积层、池化层、激活层和全连接层组成;
(2)选取训练集,并设置五区域卷积神经网络模型的训练参数;
(3)根据五区域卷积神经网络模型及其训练参数,以最小化损失函数为目标训练模型,得到深度图像手势估计神经网络模型;
(4)利用合成的深度数据集,统计数据集中各手势占图片面积比例的分布,测定在识别准确性和速度上达到最佳性能时的手面积比Rate,设定为策略选择阈值;
(5)利用深度摄像机获取实时的深度图像帧,并对图像帧预处理;
(6)根据最近邻算法,在每个独立的人体区域上检测手部区域;若能够检测出手部区域,则执行步骤(7),若检测不到,则返回步骤(5);
(7)将检测出的手部深度图归一化处理,并计算出手图像面积所占比例rate,若rate>Rate,则执行步骤(8),若rate<Rate,则执行步骤(9);
(8)基于快速模型的手势识别方法对步骤(7)传入的深度帧进行手势关节点识别,并转到步骤(10);
(9)基于五区域卷积神经网络模型对步骤(7)传入的深度帧的手势关节点;
(10)通过深度摄像机的参数,将关节点坐标从图像坐标系转换到物理坐标系,并最终映射三维手势模型。
2.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(1)中,所述五区域卷积神经网络模型由6个具有3×3内核的卷积层和3个2×2内核的池化层组成,每个卷积层后面跟着一个ReLU激活层,两个池化层之间通过残差连接增加特征图尺寸。
3.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(2)中,所述的训练集为数据集ICVL。
4.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(3)中,所述五区域卷积神经网络模型的训练过程为:
(3-1)根据手部二值图像检测并绘制其外部轮廓,然后根据道格拉斯-普克算法,求出轮廓的封闭多边形,确定封闭多边形的中心;
(3-2)以该封闭多边形的中心为中心提取一个立方体,将立方体重新调整大小,深度值归一化为[-1,1]作为ConvNet的输入;
(3-3)深度值归一化后的图像作为输入,先进入网络通过六个卷积层进行特征提取,将输出特征映射到五个特征区域:R1,R2,R3,R4,R5,其中,R1-R4分别为以图像四个顶点为顶点且沿着特征图边缘提取的固定大小区域,R5为以图像中心为区域中心提取的同样大小区域,以图像中心为区域中心,五个特征区域作为分支,分别馈送到两个全连接层进行回归,每个回归器的丢失率为0.5;
(3-4)训练使用最小批量为128的随机梯度下降,使用0.0005的重量衰减和0.9的动量,学习率从0.005开始,每5万次迭代后除以10,模型训练达到200000次迭代。
5.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(4)中,所述策略选择阈值的测定方法为:
(4-1)标准化手的图像面积,得到手的标准面积,所述的标准面积为手指完全伸展,手掌面向摄像头,在距摄像头0.7m处所成像手的面积,所述标准化的公式为:
其中,S′是原始图像面积,S是标准面积,是标准化后的手部图像面积相较于标准面积的比率,μ是将原始图像标准化的转换系数;
(4-2)从合成的深度数据集中随机选出2000帧具有时间序列的深度帧作为测试集,统计其中深度帧的分布,将距离误差阈值设置为15mm,根据不同面积比率测试关节识别点准确率以及相应的实时速度,得到准确性和速度之间的平衡点,得到最佳性能时的手面积比Rate,设定为策略选择阈值。
6.根据权利要求1或5所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(4)中,所述策略选择阈值的手面积比Rate为60%。
7.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(5)中,所述的预处理具体步骤为:对实时深度图像帧进行中值滤波处理,然后进行图像前景提取操作,最后进行膨胀与腐蚀操作。
8.根据权利要求7所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,所述中值滤波处理的公式为:
D2(x,y)=med{D1(x-k,y-l)}(k,l∈W)
其中,D2(x,y)为滤波处理后的深度图像,D1(x,y)为原始图像,(x,y)为坐标处的深度值,W代表二维滤波模板,k表示模板的长度,l表示模板的宽度。
9.根据权利要求7所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,所述图像前景提取操作的公式为:
其中,fg(x,y)表示前景图像中(x,y)处的逻辑值,d(x,y)表示深度图像(x,y)坐标处的深度值。
10.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(8)中,所述基于快速模型的手势识别方法的具体步骤为:
(8-1)根据深度图提取手的二维轮廓S,并将深度图映射到三维点云P中,具有关节参数θ={θ12,…,θ26}的3D手模型
(8-2)根据三维点云P,快速点云拟合,使用ICP算法重复迭代,解出最优化能量方程:minE3D+E2D+Ewrist,得到手势关节点三维信息,三维信息能量函数的方程为:
其中,E3D为三维信息能量函数,ω1为点云在最优化能量方程中所占权重系数,x表示三维点云P中的3D点,是手姿势θ在手模型上的x的映射,用2D轮廓E2D模拟对齐渲染的手模型的2D轮廓与从传感器数据中提取的二维轮廓S,其能量方程为:
其中,ω2为二维轮廓信息在最优化能量方程中所占权重系数,p是渲染二维轮廓S中的2D点,∏s(p,θ)表示p在从传感器获得二维轮廓S上的投影点,Ewrist表示腕部对准能量,在优化中使用前臂的简化概念,其强制腕关节沿其轴线定位,其能量方程为:
其中,ω3为腕部信息在最优化能量方程中所占权重系数,k0(θ)是腕关节的3D位置,l是由PCA提取的与腕带对应3D点的2D线;
(8-3)添加刚体约束,包括:每个手指上的两个关节角度保持相互匹配;基部指骨无碰撞;基骨和中骨保持一起移动;小拇指和中指保持一起移动;手指握拳时,外展程度为0,否则为默认的45°阈值。
CN201811002833.6A 2018-08-30 2018-08-30 一种面向deskVR的手势跟踪识别联合策略方法 Active CN109359514B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811002833.6A CN109359514B (zh) 2018-08-30 2018-08-30 一种面向deskVR的手势跟踪识别联合策略方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811002833.6A CN109359514B (zh) 2018-08-30 2018-08-30 一种面向deskVR的手势跟踪识别联合策略方法

Publications (2)

Publication Number Publication Date
CN109359514A true CN109359514A (zh) 2019-02-19
CN109359514B CN109359514B (zh) 2020-08-04

Family

ID=65350190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811002833.6A Active CN109359514B (zh) 2018-08-30 2018-08-30 一种面向deskVR的手势跟踪识别联合策略方法

Country Status (1)

Country Link
CN (1) CN109359514B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993108A (zh) * 2019-03-29 2019-07-09 济南大学 一种增强现实环境下的手势纠错方法、系统及装置
CN110243828A (zh) * 2019-07-18 2019-09-17 华中科技大学 基于卷积神经网络的生物组织三维成像方法
CN110570455A (zh) * 2019-07-22 2019-12-13 浙江工业大学 一种面向房间vr的全身三维姿态跟踪方法
CN111368668A (zh) * 2020-02-25 2020-07-03 北京字节跳动网络技术有限公司 三维手部识别方法、装置、电子设备及存储介质
CN111709384A (zh) * 2020-06-22 2020-09-25 北京思特奇信息技术股份有限公司 Ar手势识别方法、装置、电子设备及存储介质
CN113840177A (zh) * 2021-09-22 2021-12-24 广州博冠信息科技有限公司 直播互动方法、装置、存储介质与电子设备
WO2022021631A1 (zh) * 2020-07-27 2022-02-03 歌尔股份有限公司 交互控制方法、终端设备及存储介质
WO2023219254A1 (ko) * 2022-05-09 2023-11-16 주식회사 피앤씨솔루션 증강현실 글래스 장치의 손 거리 추정 방법 및 장치
CN113840177B (zh) * 2021-09-22 2024-04-30 广州博冠信息科技有限公司 直播互动方法、装置、存储介质与电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140104274A1 (en) * 2012-10-17 2014-04-17 Microsoft Corporation Grasping virtual objects in augmented reality
CN103777741A (zh) * 2012-10-19 2014-05-07 原相科技股份有限公司 基于物件追踪的手势辨识方法及系统
CN105718878A (zh) * 2016-01-19 2016-06-29 华南理工大学 基于级联卷积神经网络的第一视角空中手写和空中交互方法
WO2016114930A2 (en) * 2015-01-12 2016-07-21 Pcms Holdings, Inc. Systems and methods for augmented reality art creation
CN106648103A (zh) * 2016-12-28 2017-05-10 歌尔科技有限公司 一种vr头戴设备的手势跟踪方法和vr头戴设备
CN107111357A (zh) * 2014-10-29 2017-08-29 高通股份有限公司 使用手势元素的手势识别
CN107168516A (zh) * 2017-03-31 2017-09-15 浙江工业大学 基于vr及手势交互技术的全球气候矢量场数据可视化方法
CN107180226A (zh) * 2017-04-28 2017-09-19 华南理工大学 一种基于组合神经网络的动态手势识别方法
CN107894834A (zh) * 2017-11-09 2018-04-10 上海交通大学 增强现实环境下控制手势识别方法与系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140104274A1 (en) * 2012-10-17 2014-04-17 Microsoft Corporation Grasping virtual objects in augmented reality
CN103777741A (zh) * 2012-10-19 2014-05-07 原相科技股份有限公司 基于物件追踪的手势辨识方法及系统
CN107111357A (zh) * 2014-10-29 2017-08-29 高通股份有限公司 使用手势元素的手势识别
WO2016114930A2 (en) * 2015-01-12 2016-07-21 Pcms Holdings, Inc. Systems and methods for augmented reality art creation
CN105718878A (zh) * 2016-01-19 2016-06-29 华南理工大学 基于级联卷积神经网络的第一视角空中手写和空中交互方法
CN106648103A (zh) * 2016-12-28 2017-05-10 歌尔科技有限公司 一种vr头戴设备的手势跟踪方法和vr头戴设备
CN107168516A (zh) * 2017-03-31 2017-09-15 浙江工业大学 基于vr及手势交互技术的全球气候矢量场数据可视化方法
CN107180226A (zh) * 2017-04-28 2017-09-19 华南理工大学 一种基于组合神经网络的动态手势识别方法
CN107894834A (zh) * 2017-11-09 2018-04-10 上海交通大学 增强现实环境下控制手势识别方法与系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHEN QIAN 等: "Realtime and Robust Hand Tracking from Depth", 《CVPR 2014》 *
DANIEL ZIELASKO 等: "Remain Seated: Towards Fully-Immersive Desktop VR", 《2017 IEEE 3RD WORKSHOP ON EVERYDAY VITRUAL REALITY》 *
SHUFANG LU 等: "A Pose-driven Physically-based Interactive System using Kinect", 《2016 INTERNATIONAL CONFERENCE ON CYBERWORDS》 *
王民 等: "基于卷积神经网络优化TLD运动手势跟踪算法", 《计算机工程与应用》 *
范长军 等: "基于可穿戴传感器的普适化人体活动识别", 《传感技术学报》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993108A (zh) * 2019-03-29 2019-07-09 济南大学 一种增强现实环境下的手势纠错方法、系统及装置
CN109993108B (zh) * 2019-03-29 2019-12-03 济南大学 一种增强现实环境下的手势纠错方法、系统及装置
CN110243828A (zh) * 2019-07-18 2019-09-17 华中科技大学 基于卷积神经网络的生物组织三维成像方法
CN110570455A (zh) * 2019-07-22 2019-12-13 浙江工业大学 一种面向房间vr的全身三维姿态跟踪方法
CN110570455B (zh) * 2019-07-22 2021-12-07 浙江工业大学 一种面向房间vr的全身三维姿态跟踪方法
CN111368668A (zh) * 2020-02-25 2020-07-03 北京字节跳动网络技术有限公司 三维手部识别方法、装置、电子设备及存储介质
CN111368668B (zh) * 2020-02-25 2023-05-23 北京字节跳动网络技术有限公司 三维手部识别方法、装置、电子设备及存储介质
CN111709384A (zh) * 2020-06-22 2020-09-25 北京思特奇信息技术股份有限公司 Ar手势识别方法、装置、电子设备及存储介质
WO2022021631A1 (zh) * 2020-07-27 2022-02-03 歌尔股份有限公司 交互控制方法、终端设备及存储介质
CN113840177A (zh) * 2021-09-22 2021-12-24 广州博冠信息科技有限公司 直播互动方法、装置、存储介质与电子设备
CN113840177B (zh) * 2021-09-22 2024-04-30 广州博冠信息科技有限公司 直播互动方法、装置、存储介质与电子设备
WO2023219254A1 (ko) * 2022-05-09 2023-11-16 주식회사 피앤씨솔루션 증강현실 글래스 장치의 손 거리 추정 방법 및 장치

Also Published As

Publication number Publication date
CN109359514B (zh) 2020-08-04

Similar Documents

Publication Publication Date Title
CN109359514A (zh) 一种面向deskVR的手势跟踪识别联合策略方法
CN105389539B (zh) 一种基于深度数据的三维手势姿态估计方法及系统
KR101687017B1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
Sarkar et al. Hand gesture recognition systems: a survey
CN105759967B (zh) 一种基于深度数据的手部全局姿态检测方法
Demirdjian et al. 3-d articulated pose tracking for untethered diectic reference
Ahuja et al. Static vision based Hand Gesture recognition using principal component analysis
CN108734194A (zh) 一种面向虚拟现实的基于单深度图的人体关节点识别方法
TWI496090B (zh) 使用深度影像的物件定位方法與裝置
Yao et al. Real-time hand pose estimation from RGB-D sensor
Wu et al. Yolse: Egocentric fingertip detection from single rgb images
JP6487642B2 (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
WO2021098802A1 (en) Object detection device, method, and systerm
Cao et al. Human posture recognition using skeleton and depth information
Li et al. Visual interpretation of natural pointing gestures in 3D space for human-robot interaction
CN113505694A (zh) 一种基于视线追踪的人机交互方法、装置及计算机设备
Xu et al. A novel method for hand posture recognition based on depth information descriptor
Holte et al. View invariant gesture recognition using the CSEM SwissRanger SR-2 camera
Cohen et al. 3D body reconstruction for immersive interaction
CN109214295B (zh) 基于Kinect v2和Leap Motion的数据融合的手势识别方法
Barros et al. Real-time human pose estimation from body-scanned point clouds
CN108108648A (zh) 一种新型的手势识别系统装置及方法
Simion et al. Finger detection based on hand contour and colour information
CN113989942A (zh) 手势识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant