CN105389539A - 一种基于深度数据的三维手势姿态估计方法及系统 - Google Patents

一种基于深度数据的三维手势姿态估计方法及系统 Download PDF

Info

Publication number
CN105389539A
CN105389539A CN201510670919.6A CN201510670919A CN105389539A CN 105389539 A CN105389539 A CN 105389539A CN 201510670919 A CN201510670919 A CN 201510670919A CN 105389539 A CN105389539 A CN 105389539A
Authority
CN
China
Prior art keywords
hand
depth
dimensional
depth data
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510670919.6A
Other languages
English (en)
Other versions
CN105389539B (zh
Inventor
程洪
李昊鑫
姬艳丽
况逸群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201510670919.6A priority Critical patent/CN105389539B/zh
Publication of CN105389539A publication Critical patent/CN105389539A/zh
Application granted granted Critical
Publication of CN105389539B publication Critical patent/CN105389539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度数据的三维手势姿态估计方法及系统,方法包括以下步骤:S1:对拍摄的数据进行手部ROI检测,获取手部深度数据:(1)能够获取骨骼点信息,通过手掌单个骨骼点对手部ROI检测;(2)无法获取骨骼点信息,采用基于肤色的方式对手部ROI检测;S2:手部三维全局方向初步估计,S21:特征提取;S22:根据分类器R1实现手部全局方向的回归;S3:三维手势的关节姿态估计:S31:根据分类器R2实现手部姿态估计;S32:姿态校正。本发明首先采用两种方式相互配合完成对手部ROI数据的分割,接着在此基础上采用回归算法完成手部全局方向估计,最后以此数据为辅助再次利用回归算法实现三维手势姿态估计,算法简单,具有良好的实用价值。

Description

一种基于深度数据的三维手势姿态估计方法及系统
技术领域
本发明涉及机器人视觉领域,涉及一种基于深度数据的三维手势姿态估计方法及系统。
背景技术
随着人们对人机交互需求的不断提高,新的交互技术正在逐渐呈现开来,手势以其自然、便利的特性成为最具潜力的交互方式技术之一。相比于其他关节部位,手具有丰富的姿态以及灵活的操控,在人们的日常生活中发挥着巨大的作用,因此基于手势姿态的交互技术将会有着广泛的应用,如虚拟现实中通过手势操作虚拟物体;利用手势来操控机器人抓取物体;基于手势的手语识别;通过手势技术在交互界面进行操作指令的输入等。这些源自实际生活的需求进一步促进着手姿态建模技术的研究与发展。
对于静态手势的研究与比较成熟,但是具有较大的局限性,近年来三维手势成为热点之一,手势姿态估计是三维手势的核心基础之一,正逐步从接触式的方法转向以视觉为主的非接触式方法。接触式的方法主要是通过佩戴数据手套来获取用户手势的关节姿态,这种方式准确性较高,但是实现成本较大,同时用户的舒适性也不佳。近几年基于视觉的三维手势估计技术正在迅速发展,应用的前景也较为广阔,同时市场上出现了LeapMotion为代表的手势产品,利用手势实现交互、游戏等,但是这种产品的适用距离太小,手与检测装置的距离超出一定的范围就无法使用了,在实际的应用中如机器人手势控制等场景下,有很多局限性。为此还需要尝试新的方法来应对这方面的不足,以满足实际的应用需求。
基于视觉的三维手势姿态估计技术,分为判别式与产生式。其中产生式方法计算量大,精确性往往较低,判别式速度较快,但是估计的结果有一定的误差,且姿态受限,但是相比于产生式的模型拟合方法,具有能够实际应用的前景。
与本发明部分技术类似的发明包括以下三个:
1.手检测方法和装置,申请号为201210236446.5
此发明提出了一种手检测方法和装置,主要通过相邻帧的肤色区域之差和分类器进行手检测。这种方式适用于静态手势,对于三维手势,其手的角度和外观都会发生变换,因此这种方法具有一定的局限性,适用的场合较为简单,并且实现的方式和本发明也不同。
2.基于视觉的手势遥控系统,申请号为201210121832.X
此发明提出了基于视觉的手势识别与遥控系统,其中在手势识别模块,主要包括手部检测,手部跟踪以及手势识别。在手的检测中采用基于灰度图像的级联分类器来检测手,这种手检测的方式很难应对手部姿态与角度的变化情况,还是一种静态单一的手检测方式。而对于手势的识别,采用的是基于手部轮廓的模板匹配,未采用检测手势姿态的方式,因此其整体方法与本发明不同。
3.手检测方法和设备,申请号为201410001215.5
此发明提出了基于深度图的手检测方法,此方法首先通过深度阈值进行前景分割,然后通过直线检测的方式检测出小臂,然后在确定小臂的方向上检测手的所在,这种方法对小臂所在的位置有特定的要求,且直线检测容易产生误检测,同时这个方法只是检测出了手的位置所在,并未对手的姿态情况进行估计,无论方法与目的都与本发明不同。
本发明提出了一种基于深度数据的三维手势估计方法。该方法为判别式方法,基于RGBD数据,首先采用两种方式相互配合完成对手部ROI数据的分割,接着在此基础上采用回归算法完成手部全局方向估计,最后以此数据为辅助再次利用回归算法实现三维手势姿态估计。本发相比其他方法不仅算法较为简单,同时不需要依赖额外的用户佩戴装置,在满足一定可用的精度下具有良好的实用价值。
发明内容
本发明的目的在于克服现有技术的不足,针对目前三维手势技术在这方面应用的局限性,提供一种基于深度数据的三维手势姿态估计方法及系统,主要用于提升家用机器人的交互体验,结合手部ROI检测的基础上,利用机器学习方法对手部姿态进行回归,并对估计的结果加以约束,最终实现手部姿态的快速估计。
本发明的目的是通过以下技术方案来实现的:一种基于深度数据的三维手势姿态估计方法,它包括以下步骤:
S1:对拍摄的数据进行手部ROI检测,获取手部深度数据:
(1)当能够获取手掌的单个骨骼点信息时,通过手掌单个骨骼点对手部ROI检测,获取手部深度数据;
(2)当无法获取手掌的单个骨骼点信息时,采用基于肤色的方式对手部ROI检测,获取手部深度数据;
其中,所述的ROI为感兴趣区域;
S2:手部三维全局方向初步估计,包括以下子步骤:
S21:对步骤S1得到的手部ROI数据进行特征提取;
S22:根据预先训练好的手部全局方向回归的分类器R1,实现手部全局方向的回归;
S3:三维手势的关节姿态估计,包括以下子步骤:
S31:根据预先训练好的关节姿态估计的分类器R2实现手部姿态估计;
S32:姿态校正:根据手部尺寸对步骤S31得到的结果进行校正。
步骤S1中,当能够获取手掌的单个骨骼点信息时的情况包括以下子步骤:
S111:根据图像采集设备采集的图像,获取手掌的骨骼点P0的三维位置;
S112:将三维位置投影到二维深度图像P'0,初步得到手部深度值D(P'0);
S113:基于骨骼点P0为中心的矩形区域,计算所述矩形区域内的深度信息直方图;所述矩形区域的大小根据距离设置;
S114:根据步骤S113得到的直方图找到峰值对应的深度,并将深度作为手部中心的实际深度值H;
S115:利用深度值H与深度误差范围s对图像进行阈值化处理,保留下来的深度h满足H-s≤h≤H+s;
S116:对深度图像对应的二值图进行轮廓检测,并对轮廓中尺寸小于一定阈值的轮廓,对对应的深度图像位置进行背景填补,去除噪声轮廓;噪声轮廓的阈值根据手部到图像采集设备的距离设定。
步骤S1中,当无法获取手掌的单个骨骼点信息时的情况包括以下子步骤:
S121:根据图像采集设备获取的彩色图像进行肤色检测,对非肤色区域进行置0,此时图像上只含有肤色区域;
S122:对肤色区域对应的像素置1,得到肤色区域对应的二值图;
S123:进行轮廓检测,将轮廓周长小于一定阈值的轮廓进行填补,此时图像中含有多个肤色轮廓区域;
S124:对于每个肤色轮廓区域,计算每个轮廓的形心,形心的计算公式为:
x = m 10 m 00 , y = m 01 m 00 ;
式中,m代表图像的几何矩,m10、m01、m00代表几何矩的其中三个顶点;
S125:记形心中心为P(x,y),将形心中心P(x,y)变换到对应的深度图像上为点Q;
S126:对每个轮廓进行相同的形心点变换之后,比较深度值H,将深度值较小的形心变换点Qi作为手部的位置所在;
S127:以点Qi对应的深度值对图像进行阈值化,深度误差值为s,保留下来的深度h满足H-s≤h≤H+s;
S128:对深度图像对应的二值图进行轮廓检测,并对轮廓中尺寸小于一定阈值的轮廓,对对应的深度图像位置进行背景填补,去除噪声轮廓;噪声轮廓的阈值根据手部到图像采集设备的距离设定。
所述的步骤S21包括以下子步骤:
S211:对手部立方体划分,包括以下子步骤:
S2111:以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S2112:以手部的宽度L、手部的长度H和手掌的厚度D组成立方体,所述立方体的中心位于三维坐标系的原点之上;
S2113:将立方体进行X、Y、Z方向的立方体分割,在X、Y、Z方向分隔分别得到x、y、z等分,分割后的小立方体格数为x*y*z;
S212:将手部深度数据投影到立方体上,包括以下子步骤:
S2121:根据步骤S1得到的手部ROI深度数据,对于非背景点,将手部深度数据变换到图像采集设备坐标系下;
S2122:在全部变换完成后,计算出手部深度数据的三维中心;
S2123:基于步骤S211得到的划分的手部立方体,令手部立方体的中心为深度数据的中心,计算各个深度值对应的手部立方体划分;相当于得到有深度值的划分立方体,划分立方体的值为深度像素点的个数,否则为0;
S2124:在步骤S2123完成之后,得到所有的深度点云之后,得到手部立方体特征,对手部立方体的各个值进行归一化之后,以固定顺序变换为维度为x*y*z的特征向量Xi,即得到Xi={x1,x2,......,xi},i=x*y*z;
步骤S2的前提是真实的手处于标准姿态,所述的标准姿态为手掌正对摄像机,手指方向指向上方。
所述的训练好的手部全局方向回归的分类器R1的训练步骤包括以下子步骤:
S201:采集大量手部姿态对应的数据作为训练样本,样本的标签为真实的手部Y、Z方向的值,所述的真实的手部Y、Z方向的值通过手工进行标注;具体地Y、Z方向以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S202:在得到大量的手部数据样本以及手部全局方向标签之后,训练手部全局方向回归的分类器R1:对于每个手部数据样本,采用与步骤S21相同的步骤进行特征提取,并结合样本的标签进行分类器训练。
步骤S22采用随机森林进行回归,所述的步骤S22包括以下子步骤:
S221:将随机森林的叶子节点的标签作为手部方向,标签为真实的手部Y、Z方向的值,包括六个维度Y={x,y,z},Z={x,y,z};将随机森林的树的个数和停止的样本个数预先设定;
S222:在分类器R1(x)的基础上,进行在线手部方向回归,包括:根据步骤S21的步骤提取特征向量X1和训练好的分类器R1(x),得到手部全局方向:(Y,Z)=R1(X1)。
所述的预先训练好的关节姿态估计的分类器R2的训练步骤包括提取特征子步骤S301、提取标签子步骤S302和训练子步骤S303;所述的提取标签子步骤S301包括以下子步骤:
S3011:采集大量的数据作为手势样本Mi,计算得到当前手势样本Mi对应的全局向量(Yi,Zi),公式如下:
Yi=Tyi*Y0
Zi=Tzi*Z0
式中,Y0和Z0分别表示标准姿态的手全局方向参数,Tyi、Tzi分别表示;Tyi表示将Y0的三维方向旋转到Yi方向的旋转矩阵,Tzi表示将Z0三维方向旋转到Zi方向的旋转矩阵;
S3012:计算出当前手势样本Mi与标准手部姿态的全局方向(Y0,Z0)变换关系φi,公式如下:
φi=Tyi*Tzi
S3013:计算标准姿态变换到手势样本Mi的全局方向下的姿态θi0,公式如下:
θi0=φi0
式中,θ0表示手部标准姿态对应的关节姿态位置为θ0={θ123,.......,θn},其中n为手部关节点的数量;
S3014:在标准姿态变换到全局方向后,计算全局方向下的姿态θi0和真实手部姿态θ0的残差Δi,公式如下:
Δi=θi00
所述的提取特征子步骤S302包括以下子步骤:
S3021:对手势样本Mi中的所有手部立方体划分,包括以下子步骤:
S30211:以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S30212:以手部的宽度L、手部的长度H和手掌的厚度D组成立方体,所述立方体的中心位于三维坐标系的原点之上;
S30213:将立方体进行X、Y、Z方向的立方体分割,在X、Y、Z方向分隔分别得到x、y、z等分,分割后的小立方体格数为x*y*z;
S3022:将手部深度数据投影到立方体上,包括以下子步骤:
S30221:根据步骤S1得到的手部ROI深度数据,对于非背景点,将手部深度数据变换到图像采集设备坐标系下;
S30222:在全部变换完成后,计算出手部深度数据的三维中心;
S30223:基于步骤S3021得到的划分的手部立方体,令手部立方体的中心为深度数据的中心,计算各个深度值对应的手部立方体划分;相当于得到有深度值的划分立方体,划分立方体的值为深度像素点的个数,否则为0;
S30224:在步骤S30223完成之后,得到所有的深度点云之后,得到手部立方体特征,对手部立方体的各个值进行归一化之后,以固定顺序变换为维度为x*y*z的特征向量X,即得到X2={x1,x2,......,xi},i=x*y*z;
所述的训练子步骤S303以下子步骤:将步骤S301中得到的残差Δi作为手势样本Mi的标签,并结合步骤S302中得到的特征向量X进行分类器R2训练。
所述的步骤S32包括:根据步骤S1得到的手部深度ROI数据、步骤S2得到的提取特征Xi、步骤S2得到的全局方向(Yi,Zi),利用分类器R2回归残差,更新最终姿态θir,θir=R2(Xi)+θi0
所述的步骤S33包括:根据V(x,y,z)和L的关系表,按照标准手势关节姿态位置θ0的各个手指关节比例,对θir对应的关节比例进行校正,包括对相邻两根关节的长度比、单个关节的长度、每个手指的三根关节之间的夹角、手指之间的相邻关节间夹角进行校正;其中,V(x,y,z)代表两个关节之间的方向,L表示距离。
一种基于深度数据的三维手势姿态估计系统,它包括:
图像采集设备:用于采集用户手掌图像,包括手掌骨骼点和肤色;
用户手部ROI检测模块:用于根据图像采集设备采集到的图像,检测出用户手部深度数据;
手部三维全局方向初步估计模块:用于根据用户手部ROI检测模块得到的手部深度数据,进行特征提取、离线训练第一分类器、并结合第一分类器实现手部三维全局方向的回归;
三维手势的关节姿态估计模块:用于根据用户手部ROI检测模块得到的手部深度数据和手部三维全局方向初步估计模块得到的手部关节三维全局方向,实现离线训练第二分类器、结合第二分类器进行关节姿态在线回归和手势姿态校正,以得到手部关节姿态位置。
本发明的有益效果是:
(1)本发明提出了一种基于深度数据的三维手势估计方法。该方法为判别式方法,基于RGBD数据,首先采用两种方式相互配合完成对手部ROI数据的分割,接着在此基础上采用回归算法完成手部全局方向估计,最后以此数据为辅助再次利用回归算法实现三维手势姿态估计。本发相比其他方法不仅算法较为简单,同时不需要依赖额外的用户佩戴装置,在满足一定可用的精度下具有良好的实用价值。
(2)两次分类器的训练可以采用同一组训练样本进行,节省了工作量与复杂度。
(3)在最后采用姿态校正模块对手部关节点进行轻微校正,使得估计结果更加合理。
附图说明
图1为本发明方法流程图;
图2为步骤S1流程图;
图3为步骤S2流程图;
图4为步骤S3流程图;
图5为标准手势及姿态的关节位置;
图6为本发明系统框图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案:、
如图1所示,一种基于深度数据的三维手势姿态估计方法,它包括以下步骤:
在本实施例中,图像采集设备采用Kinect2,Kinect2传感器具有能够估计人体关节点的功能,但是并未实现对手部的关节点,只给出了少量的2个点来表示手部关节,同时Kinect2能够较为准确的在复杂环境下获取人体骨骼信息,因此提出了基于手掌单个骨骼点的手部ROI数据获取。此外Kinect2受人的距离、姿态等会存在无法获取骨骼信息的情况,为此针对这种情况提出了基于肤色检测的手部ROI获取。计算流程如图2所示。
S1:对拍摄的数据进行手部ROI检测,获取手部深度数据:
(1)当能够获取手掌的单个骨骼点信息时,通过手掌单个骨骼点对手部ROI检测,获取手部深度数据:
S111:根据Kinect2采集的图像,获取手掌的骨骼点P0的三维位置;
S112:将三维位置投影到二维深度图像P'0,初步得到手部深度值D(P'0);
S113:基于骨骼点P0为中心的矩形区域,矩形的区域可以按照远近来设置,一般可以为正方形或长方形,大小根据距离设置为5-10像素。
计算所述矩形区域内的深度信息直方图;所述矩形区域的大小根据距离设置;
S114:根据步骤S113得到的直方图找到峰值对应的深度,并将深度作为手部中心的实际深度值H;
S115:利用深度值H与深度误差范围5对图像进行阈值化处理,保留下来的深度h满足H-5≤h≤H+5;
S116:对深度图像对应的二值图进行轮廓检测,并对轮廓中尺寸小于一定阈值的轮廓,对对应的深度图像位置进行背景填补,去除噪声轮廓;对于噪声轮廓阈值,一般可以设置为25,可以根据手部到相机的距离进行调整。
通过以上步骤得到的轮廓区域就是鲁棒的手部ROI区域。
(2)当无法获取手掌的单个骨骼点信息时,采用基于肤色的方式对手部ROI检测,获取手部深度数据:
S121:根据图像采集设备获取的彩色图像进行肤色检测,对非肤色区域进行置0,此时图像上只含有肤色区域;
S122:对肤色区域对应的像素置1,得到肤色区域对应的二值图;
S123:进行轮廓检测,将轮廓周长小于一定阈值如25的轮廓进行填补,此时图像中含有多个肤色轮廓区域;
S124:对于每个肤色轮廓区域,计算每个轮廓的形心,形心的计算公式为:
x = m 10 m 00 , y = m 01 m 00 ;
式中,m代表图像的几何矩,m10、m01、m00代表几何矩的其中三个顶点;
关于几何矩m:图像的p+q阶几何矩(标准矩)定义为:
m p q = ∫ - ∞ ∞ ∫ - ∞ ∞ x p y q f ( x , y ) d x d y ;
m10、m01、m00分别代表图像的1+0阶几何矩、0+1阶几何矩以及0阶几何矩,实际是图像中轮廓特征中更具体的计算方式。
S125:记形心中心为P(x,y),将形心中心P(x,y)变换到对应的深度图像上为点Q;
S126:对每个轮廓进行相同的形心点变换之后,比较深度值H,将深度值较小(距离Kinect更近)的形心变换点Qi作为手部的位置所在,因为在交互的时候默认手部相比其他部位离摄像机更近一些;
S127:以点Qi对应的深度值对图像进行阈值化,深度误差值为5,保留下来的深度h满足H-5≤h≤H+5;
S128:对深度图像对应的二值图进行轮廓检测,并对轮廓中尺寸小于一定阈值的轮廓,对对应的深度图像位置进行背景填补,去除噪声轮廓;噪声轮廓的阈值根据手部到图像采集设备的距离设定。
此方法主要针对用户仅外漏手掌的情况,当整个胳膊都被检测到时,这种情况下手部的深度数据获取将不理想。
其中,所述的ROI为感兴趣区域。
经过步骤一之后可以获取手部的ROI数据,步骤二在此基础上对手部的全局方向进行估计。对于手部全局姿态,令从手掌中心到中指指尖的方向为Y={x,y,z}方向,从手掌射出的法向量方向为Z={x,y,z},例如当手掌正对摄像机,手指方向指向上方,此时记为Y={0,1,0},Z={0,1,0},记这种姿态为标准手部姿态。那么整个手掌所处的任何姿态可由Y、Z两个方向向量表示得到。而对于任意一个手掌全局方向的估计,本方法采用机器学习中回归的方式计算,其主要步骤即为特征提取、手部全局方向回归。计算流程如图3所示。
S2:手部三维全局方向初步估计,包括以下子步骤:
针对手势的三维变化性,传统的2D图像特征无法满足要求。为此采用真实的三维空间信息进行当前手势的特征提取。
S21:对步骤S1得到的手部ROI数据进行特征提取;
S211:对手部立方体划分,包括以下子步骤:
S2111:以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S2112:以手部的宽度L(小拇指跟到大拇指尖的长度)、手部的长度H(手腕到中指指尖的长度)和手掌的厚度D组成立方体,所述立方体的中心位于三维坐标系的原点之上;
S2113:将立方体进行X、Y、Z方向的立方体分割,在X、Y、Z方向分隔分别得到x、y、z等分,分割后的小立方体格数为x*y*z;一般地,总个数设置为500个,x、y、z的取值可以根据实际请款选择,也可以采取x=10,y=10,z=5的空间划分形式。
S212:将手部深度数据投影到立方体上,包括以下子步骤:
S2121:根据步骤S1得到的手部ROI深度数据,对于非背景点,将手部深度数据变换到Kinect坐标系下;
S2122:在全部变换完成后,计算出手部深度数据的三维中心;
S2123:基于步骤S211得到的划分的手部立方体,令手部立方体的中心为深度数据的中心,计算各个深度值对应的手部立方体划分;相当于得到有深度值的划分立方体,划分立方体的值为深度像素点的个数,否则为0;
S2124:在步骤S2123完成之后,得到所有的深度点云之后,得到手部立方体特征,对手部立方体的各个值进行归一化之后,以固定顺序变换为维度为500的特征向量Xi,即得到Xi={x1,x2,......,xi},i=500;
步骤S2的前提是真实的手处于标准姿态,所述的标准姿态为手掌正对摄像机,手指方向指向上方。
手部全局方向的估计,本发明采用的是回归的方式,因此需要先进行分类器的训练,然后再采用此分类器进行方向回归。为此需要拍摄手部姿态对应的数据作为训练样本,同时样本的标签即为真实的手部Y、Z方向的值,这两个值要手工进行标注。在得到大量的手部数据样本以及其手全局方向标签之后,开始训练手部全局方向回归的分类器。对于每个手部数据样本,采用上述手部立方体特征进行特征提取,并结合样本的标签进行分类器训练。在实际实现中,需要采用繁华能力较强的分类器,随机森林进行回归。
S22:根据预先训练好的手部全局方向回归的分类器R1,实现手部全局方向的回归;
所述的训练好的手部全局方向回归的分类器R1的训练步骤包括以下子步骤:
S201:采集大量手部姿态对应的数据作为训练样本,样本的标签为真实的手部Y、Z方向的值,所述的真实的手部Y、Z方向的值通过手工进行标注;具体地Y、Z方向以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S202:在得到大量的手部数据样本以及手部全局方向标签之后,训练手部全局方向回归的分类器R1:对于每个手部数据样本,采用与步骤S21相同的步骤进行特征提取,并结合样本的标签进行分类器训练。
步骤S22采用随机森林进行回归,所述的步骤S22包括以下子步骤:
S221:将随机森林的叶子节点的标签作为手部方向,标签为真实的手部Y、Z方向的值,包括六个维度Y={x,y,z},Z={x,y,z};将随机森林的树的个数设定为10,停止的样本个数设定为10;
S222:在分类器R1(x)的基础上,进行在线手部方向回归,包括:根据步骤S21的步骤提取特征向量X1和训练好的分类器R1(x),得到手部全局方向:(Y,Z)=R1(X1)。
在经过前两步骤得到手部深度数据以及手部全局方向之后,第三步开始对手势三维姿态进行回归。对于手部姿态的估计,即估计手部关节点的姿态位置。此步骤仍然采用机器学习当中的回归的方式进行。如果直接将各个关节点的位置作为回归的目标进行估计,其误差往往较大,因此采用GBDT的算法框架,回归的目标是基于全局方向变换的标准手部姿态与真实姿态位置之间的残差,即手部标准骨架与真实姿态的拟合过程,其计算过程如图4所示。包括离线训练部分与在线回归部分,得到初步的三维手姿态后,还需要姿态校正步骤,对回归出的手部姿态关节比例、角度进行校正。
训练过程与训练分类器R1的方法类似,首先需要采集大量的数据作为训练样本,来训练分类器。为此训练的样本可以和上面所述手部全局方向回归采用相同的样本数据,节省了工作量与复杂性。对于训练样本,即通过Kinect2传感器拍摄并进行手部ROI提取得到的手部数据,而手部数据对应的样本标签即为图像中手部关节点的姿态位置,这个姿态位置需要进行手工标定。
首先手部标准姿态如图5所示,对应的关节姿态位置为θ0={θ123,.......,θn},其中n为手部关节点的数量,可以根据实际应用的复杂度进行增加或减少,一般而言真实的手掌对应的关节点数量为n=21,单个手指4个关节点,手腕一个。因此对于图像样本中的真实手部姿态可以记为θi。在得到训练样本的基础上,需要计算每个样本图像的真实姿态与变换后的标准姿态之间的姿态残差。
S3:三维手势的关节姿态估计,包括以下子步骤:
S31:根据预先训练好的关节姿态估计的分类器R2实现手部姿态估计:
所述的预先训练好的关节姿态估计的分类器R2的训练步骤包括提取特征子步骤S301、提取标签子步骤S302和训练子步骤S303;所述的提取标签子步骤S301包括以下子步骤:
S3011:采集大量的数据作为手势样本Mi,计算得到当前手势样本Mi对应的全局向量(Yi,Zi),公式如下:
Yi=Tyi*Y0
Zi=Tzi*Z0
式中,Y0和Z0分别表示标准姿态的手全局方向参数,Tyi表示将Y0的三维方向旋转到Yi方向的旋转矩阵,Tzi表示将Z0三维方向旋转到Zi方向的旋转矩阵;
Tyi、Tzi代表两个三维旋转矩阵,在计算机图形学中,一个三维向量进行三维旋转,往往是对这个向量乘以旋转矩阵。因此Tyi表示将Y0三维方向旋转到Yi方向的旋转矩阵;Tzi同理;关于三维旋转矩阵的计算方式,可以通过由Y0、Yi得到四元数,再降四元数变换为三维旋转矩阵。
S3012:计算出当前手势样本Mi与标准手部姿态的全局方向(Y0,Z0)变换关系φi,公式如下:
φi=Tyi*Tzi
S3013:计算标准姿态变换到手势样本Mi的全局方向下的姿态θi0,公式如下:
θi0=φi0
式中,θ0表示手部标准姿态对应的关节姿态位置为θ0={θ123,.......,θn},其中n为手部关节点的数量;
S3014:在标准姿态变换到全局方向后,计算全局方向下的姿态θi0和真实手部姿态θ0的残差Δi,公式如下:
Δi=θi00
记θi0与θ0之间的残差为Δi,由GBDT算法的平方误差函数的形式,Δi=θi00
将标准姿态变换到全局方向xi下后计算θi0与θ0的残差,这比通过θi与θ0计算得到的残差要小很多,使得分类器对姿态进行回归时得到的残差也小。
所述的提取特征子步骤S302采用与步骤S2中的提取相同的步骤;
所述的训练子步骤S303以下子步骤:将步骤S301中得到的残差Δi作为手势样本Mi的标签,并结合步骤S302中得到的特征向量X进行分类器R2训练。
因此对于分类器而言,手势训练样本进行上述的三维立方体特征得到X,标签为Δi。
根据步骤S1得到的手部深度ROI数据、步骤S2得到的提取特征Xi、步骤S2得到的全局方向(Yi,Zi),利用分类器R2回归残差,更新最终姿态θir,θir=R2(Xi)+θi0
回归的姿态中,往往因为残差的误差,导致关节比例失调,采用基于标准骨架的手部尺寸对结果进行校正。其示意图如图五所示,对于相邻的关节点姿态,其关系表(V(x,y,z),L)代表两个关节之间的方向,L为距离,因此对于回归的结果,按照标准手势关节姿态位置θ0的各个手指关节(两个关节之间的连线)比例,对θir对应的关节比例进行校正,其中每个手指包括三个关节,采用从手指根部到手指之间的方式,逐步对每个关节的比例进行校正;比如相邻两根关节的长度比、单个关节的长度等。对于角度校正,包括每根手指的三根关节之间的夹角和手指之间的相邻关节间夹角,一般实际的角度在一定的范围之内[0,T],可以通过手工估算的方式估计出各个关节间的校准夹角,并对估计的手部姿态进行约束,最终得到较为合理的手部姿态估计结果。
S32:姿态校正:根据手部尺寸对步骤S31得到的结果进行校正。
所述的步骤S32包括:根据V(x,y,z)和L的关系表,按照标准手势关节姿态位置θ0的各个手指关节比例,对θir对应的关节比例进行校正,包括对相邻两根关节的长度比、单个关节的长度、每个手指的三根关节之间的夹角、手指之间的相邻关节间夹角进行校正;其中,V(x,y,z)代表两个关节之间的方向,L表示距离。
如图6所示,一种基于深度数据的三维手势姿态估计系统,它包括:
图像采集设备:用于采集用户手掌图像,包括手掌骨骼点和肤色;
用户手部ROI检测模块:用于根据图像采集设备采集到的图像,检测出用户手部深度数据;
手部三维全局方向初步估计模块:用于根据用户手部ROI检测模块得到的手部深度数据,进行特征提取、离线训练第一分类器、并结合第一分类器实现手部三维全局方向的回归;
三维手势的关节姿态估计模块:用于根据用户手部ROI检测模块得到的手部深度数据和手部三维全局方向初步估计模块得到的手部关节三维全局方向,实现离线训练第二分类器、结合第二分类器进行关节姿态在线回归和手势姿态校正,以得到手部关节姿态位置。

Claims (10)

1.一种基于深度数据的三维手势姿态估计方法,其特征在于:它包括以下步骤:
S1:对拍摄的数据进行手部ROI检测,获取手部深度数据:
(1)当能够获取手掌的单个骨骼点信息时,通过手掌单个骨骼点对手部ROI检测,获取手部深度数据;
(2)当无法获取手掌的单个骨骼点信息时,采用基于肤色的方式对手部ROI检测,获取手部深度数据;
其中,所述的ROI为感兴趣区域;
S2:手部三维全局方向初步估计,包括以下子步骤:
S21:对步骤S1得到的手部ROI数据进行特征提取;
S22:根据预先训练好的手部全局方向回归的分类器R1,实现手部全局方向的回归;
S3:三维手势的关节姿态估计,包括以下子步骤:
S31:根据预先训练好的关节姿态估计的分类器R2实现手部姿态估计;
S32:姿态校正:根据手部尺寸对步骤S31得到的结果进行校正。
2.根据权利要求1所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:步骤S1中,当能够获取手掌的单个骨骼点信息时的情况包括以下子步骤:
S111:根据图像采集设备采集的图像,获取手掌的骨骼点P0的三维位置;
S112:将三维位置投影到二维深度图像P'0,初步得到手部深度值D(P'0);
S113:基于骨骼点P0为中心的矩形区域,计算所述矩形区域内的深度信息直方图;所述矩形区域的大小根据距离设置;
S114:根据步骤S113得到的直方图找到峰值对应的深度,并将深度作为手部中心的实际深度值H;
S115:利用深度值H与深度误差范围s对图像进行阈值化处理,保留下来的深度h满足H-s≤h≤H+s;
S116:对深度图像对应的二值图进行轮廓检测,并对轮廓中尺寸小于一定阈值的轮廓,对对应的深度图像位置进行背景填补,去除噪声轮廓;噪声轮廓的阈值根据手部到图像采集设备的距离设定。
3.根据权利要求1所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:步骤S1中,当无法获取手掌的单个骨骼点信息时的情况包括以下子步骤:
S121:根据图像采集设备获取的彩色图像进行肤色检测,对非肤色区域进行置0,此时图像上只含有肤色区域;
S122:对肤色区域对应的像素置1,得到肤色区域对应的二值图;
S123:进行轮廓检测,将轮廓周长小于一定阈值的轮廓进行填补,此时图像中含有多个肤色轮廓区域;
S124:对于每个肤色轮廓区域,计算每个轮廓的形心,形心的计算公式为:
x = m 10 m 00 , y = m 01 m 00 ;
式中,m代表图像的几何矩,,m10、m01、m00代表几何矩的其中三个顶点;;
S125:记形心中心为P(x,y),将形心中心P(x,y)变换到对应的深度图像上为点Q;
S126:对每个轮廓进行相同的形心点变换之后,比较深度值H,将深度值较小的形心变换点Qi作为手部的位置所在;
S127:以点Qi对应的深度值对图像进行阈值化,深度误差值为s,保留下来的深度h满足H-s≤h≤H+s;
S128:对深度图像对应的二值图进行轮廓检测,并对轮廓中尺寸小于一定阈值的轮廓,对对应的深度图像位置进行背景填补,去除噪声轮廓;噪声轮廓的阈值根据手部到图像采集设备的距离设定。
4.根据权利要求1所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:所述的步骤S21包括以下子步骤:
S211:对手部立方体划分,包括以下子步骤:
S2111:以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S2112:以手部的宽度L、手部的长度H和手掌的厚度D组成立方体,所述立方体的中心位于三维坐标系的原点之上;
S2113:将立方体进行X、Y、Z方向的立方体分割,在X、Y、Z方向分隔分别得到x、y、z等分,分割后的小立方体格数为x*y*z;
S212:将手部深度数据投影到立方体上,包括以下子步骤:
S2121:根据步骤S1得到的手部ROI深度数据,对于非背景点,将手部深度数据变换到图像采集设备坐标系下;
S2122:在全部变换完成后,计算出手部深度数据的三维中心;
S2123:基于步骤S211得到的划分的手部立方体,令手部立方体的中心为深度数据的中心,计算各个深度值对应的手部立方体划分;相当于得到有深度值的划分立方体,划分立方体的值为深度像素点的个数,否则为0;
S2124:在步骤S2123完成之后,得到所有的深度点云之后,得到手部立方体特征,对手部立方体的各个值进行归一化之后,以固定顺序变换为维度为x*y*z的特征向量Xi,即得到Xi={x1,x2,......,xi},i=x*y*z;
步骤S2的前提是真实的手处于标准姿态,所述的标准姿态为手掌正对摄像机,手指方向指向上方。
5.根据权利要求4所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:所述的训练好的手部全局方向回归的分类器R1的训练步骤包括以下子步骤:
S201:采集大量手部姿态对应的数据作为训练样本,样本的标签为真实的手部Y、Z方向的值,所述的真实的手部Y、Z方向的值通过手工进行标注;具体地Y、Z方向以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S202:在得到大量的手部数据样本以及手部全局方向标签之后,训练手部全局方向回归的分类器R1:对于每个手部数据样本,采用与步骤S21相同的步骤进行特征提取,并结合样本的标签进行分类器训练。
6.根据权利要求4所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:步骤S22采用随机森林进行回归,所述的步骤S22包括以下子步骤:
S221:将随机森林的叶子节点的标签作为手部方向,标签为真实的手部Y、Z方向的值,包括六个维度Y={x,y,z},Z={x,y,z};将随机森林的树的个数和停止的样本个数预先设定;
S222:在分类器R1(x)的基础上,进行在线手部方向回归,包括:根据步骤S21的步骤提取特征向量X1和训练好的分类器R1(x),得到手部全局方向:(Y,Z)=R1(X1)。
7.根据权利要求4所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:所述的预先训练好的关节姿态估计的分类器R2的训练步骤包括提取特征子步骤S301、提取标签子步骤S302和训练子步骤S303;所述的提取标签子步骤S301包括以下子步骤:
S3011:采集大量的数据作为手势样本Mi,计算得到当前手势样本Mi对应的全局向量(Yi,Zi),公式如下:
Yi=Tyi*Y0
Zi=Tzi*Z0
式中,Y0和Z0分别表示标准姿态的手全局方向参数,Tyi表示将Y0的三维方向旋转到Yi方向的旋转矩阵,Tzi表示将Z0三维方向旋转到Zi方向的旋转矩阵;
S3012:计算出当前手势样本Mi与标准手部姿态的全局方向(Y0,Z0)变换关系φi,公式如下:
φi=Tyi*Tzi
S3013:计算标准姿态变换到手势样本Mi的全局方向下的姿态θi0,公式如下:
θi0=φi0
式中,θ0表示手部标准姿态对应的关节姿态位置为θ0={θ123,.......,θn},其中n为手部关节点的数量;
S3014:在标准姿态变换到全局方向后,计算全局方向下的姿态θi0和真实手部姿态θ0的残差Δi,公式如下:
Δi=θi00
残差Δi作为分类器R2的标签;
所述的提取特征子步骤S302包括以下子步骤:
S3021:对手势样本Mi中的所有手部立方体划分,包括以下子步骤:
S30211:以手部的宽度方向作为X轴,手部的长度方向作为Y轴,手掌的厚度方向作为Z轴,形成三维坐标系;
S30212:以手部的宽度L、手部的长度H和手掌的厚度D组成立方体,所述立方体的中心位于三维坐标系的原点之上;
S30213:将立方体进行X、Y、Z方向的立方体分割,在X、Y、Z方向分隔分别得到x、y、z等分,分割后的小立方体格数为x*y*z;
S3022:将手部深度数据投影到立方体上,包括以下子步骤:
S30221:根据步骤S1得到的手部ROI深度数据,对于非背景点,将手部深度数据变换到图像采集设备坐标系下;
S30222:在全部变换完成后,计算出手部深度数据的三维中心;
S30223:基于步骤S3021得到的划分的手部立方体,令手部立方体的中心为深度数据的中心,计算各个深度值对应的手部立方体划分;相当于得到有深度值的划分立方体,划分立方体的值为深度像素点的个数,否则为0;
S30224:在步骤S30223完成之后,得到所有的深度点云之后,得到手部立方体特征,对手部立方体的各个值进行归一化之后,以固定顺序变换为维度为x*y*z的特征向量X,即得到X2={x1,x2,......,xi},i=x*y*z;
所述的训练子步骤S303以下子步骤:将步骤S301中得到的残差Δi作为手势样本Mi的标签,并结合步骤S302中得到的特征向量X进行分类器R2训练。
8.根据权利要求7所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:所述的步骤S31包括:根据步骤S1得到的手部深度ROI数据、步骤S2得到的提取特征Xi、步骤S2得到的全局方向(Yi,Zi),利用分类器R2回归残差,更新最终姿态θir,θir=R2(Xi)+θi0
9.根据权利要求8所述的一种基于深度数据的三维手势姿态估计方法,其特征在于:所述的步骤S32包括:根据V(x,y,z)和L的关系表,按照标准手势关节姿态位置θ0的各个手指关节比例,对θir对应的关节比例进行校正,包括对相邻两根关节的长度比、单个关节的长度、每个手指的三根关节之间的夹角、手指之间的相邻关节间夹角进行校正;其中,V(x,y,z)代表两个关节之间的方向,L表示距离。
10.一种基于深度数据的三维手势姿态估计系统,其特征在于:它包括:
图像采集设备:用于采集用户手掌图像,包括手掌骨骼点和肤色;
用户手部ROI检测模块:用于根据图像采集设备采集到的图像,检测出用户手部深度数据;
手部三维全局方向初步估计模块:用于根据用户手部ROI检测模块得到的手部深度数据,进行特征提取、离线训练第一分类器、并结合第一分类器实现手部三维全局方向的回归;
三维手势的关节姿态估计模块:用于根据用户手部ROI检测模块得到的手部深度数据和手部三维全局方向初步估计模块得到的手部关节三维全局方向,实现离线训练第二分类器、结合第二分类器进行关节姿态在线回归和手势姿态校正,以得到手部关节姿态位置。
CN201510670919.6A 2015-10-15 2015-10-15 一种基于深度数据的三维手势姿态估计方法及系统 Active CN105389539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510670919.6A CN105389539B (zh) 2015-10-15 2015-10-15 一种基于深度数据的三维手势姿态估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510670919.6A CN105389539B (zh) 2015-10-15 2015-10-15 一种基于深度数据的三维手势姿态估计方法及系统

Publications (2)

Publication Number Publication Date
CN105389539A true CN105389539A (zh) 2016-03-09
CN105389539B CN105389539B (zh) 2019-06-21

Family

ID=55421812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510670919.6A Active CN105389539B (zh) 2015-10-15 2015-10-15 一种基于深度数据的三维手势姿态估计方法及系统

Country Status (1)

Country Link
CN (1) CN105389539B (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106055091A (zh) * 2016-05-16 2016-10-26 电子科技大学 一种基于深度信息和校正方式的手部姿态估计方法
CN106709951A (zh) * 2017-01-03 2017-05-24 华南理工大学 一种基于深度图的手指关节定位方法
CN106737692A (zh) * 2017-02-10 2017-05-31 杭州迦智科技有限公司 一种基于深度投影的机械手爪抓取规划方法及控制装置
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN106980386A (zh) * 2017-04-24 2017-07-25 清华大学 手型跟踪方法、装置和计算机可读介质
CN107169453A (zh) * 2017-05-16 2017-09-15 湖南巨汇科技发展有限公司 一种基于深度传感器的坐姿检测方法
CN107203756A (zh) * 2016-06-06 2017-09-26 亮风台(上海)信息科技有限公司 一种识别手势的方法与设备
CN107992858A (zh) * 2017-12-25 2018-05-04 深圳市唯特视科技有限公司 一种基于单一rgb帧的实时三维手势估计方法
CN108073283A (zh) * 2017-12-07 2018-05-25 袁峰 手部关节的计算方法及手套
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
CN108346168A (zh) * 2018-02-12 2018-07-31 腾讯科技(深圳)有限公司 一种手势图像生成方法、装置及存储介质
CN108399367A (zh) * 2018-01-31 2018-08-14 深圳市阿西莫夫科技有限公司 手部动作识别方法、装置、计算机设备及可读存储介质
CN108491752A (zh) * 2018-01-16 2018-09-04 北京航空航天大学 一种基于手部分割卷积网络的手部姿态估计方法
WO2018157286A1 (zh) * 2017-02-28 2018-09-07 深圳市大疆创新科技有限公司 一种识别方法、设备以及可移动平台
CN108734135A (zh) * 2018-05-22 2018-11-02 京东方科技集团股份有限公司 一种训练图像的获取方法及装置
CN109101860A (zh) * 2017-06-21 2018-12-28 富泰华工业(深圳)有限公司 电子设备及其手势识别方法
CN109934065A (zh) * 2017-12-18 2019-06-25 虹软科技股份有限公司 一种用于手势识别的方法和装置
CN110086997A (zh) * 2019-05-20 2019-08-02 北京百度网讯科技有限公司 人脸图像曝光亮度补偿方法及装置
CN110175566A (zh) * 2019-05-27 2019-08-27 大连理工大学 一种基于rgbd融合网络的手部姿态估计系统及方法
CN110348359A (zh) * 2019-07-04 2019-10-18 北京航空航天大学 手部姿态追踪的方法、装置及系统
CN110472507A (zh) * 2019-07-12 2019-11-19 中国地质大学(武汉) 基于深度残差网络的人手深度图像位姿估计方法及系统
CN110502564A (zh) * 2019-08-28 2019-11-26 北京理工大学 基于姿态基的运动特征数据库生成方法、检索方法及终端
CN111382637A (zh) * 2018-12-29 2020-07-07 深圳市优必选科技有限公司 行人检测跟踪方法、装置、终端设备及介质
CN111797777A (zh) * 2020-07-07 2020-10-20 南京大学 基于时空语义特征的手语识别系统及方法
CN111898489A (zh) * 2020-07-15 2020-11-06 北京百度网讯科技有限公司 用于标注手掌位姿的方法、装置、电子设备及存储介质
CN111914595A (zh) * 2019-05-09 2020-11-10 中国科学院软件研究所 一种基于彩色图像的人手三维姿态估计方法和装置
CN112200159A (zh) * 2020-12-01 2021-01-08 四川圣点世纪科技有限公司 一种基于改进残差网络的非接触式掌静脉识别方法
CN112837362A (zh) * 2021-01-28 2021-05-25 清华大学深圳国际研究生院 获取空间定位的三维人体姿态估计方法及计算机可读存储介质
WO2021098666A1 (zh) * 2019-11-20 2021-05-27 Oppo广东移动通信有限公司 手部姿态检测方法和装置、及计算机存储介质
CN114489328A (zh) * 2021-12-30 2022-05-13 重庆特斯联智慧科技股份有限公司 一种基于手势分布模板动作识别的机器人控制方法和系统
WO2022174574A1 (zh) * 2021-02-18 2022-08-25 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020116296A1 (de) 2020-06-19 2021-12-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur ermittlung räumlicher positionen einer hand und der finger der hand in einem raumbereich

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104636725A (zh) * 2015-02-04 2015-05-20 华中科技大学 一种基于深度图像的手势识别方法与系统
WO2015149712A1 (zh) * 2014-04-03 2015-10-08 华为技术有限公司 一种指向交互方法、装置及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015149712A1 (zh) * 2014-04-03 2015-10-08 华为技术有限公司 一种指向交互方法、装置及系统
CN104636725A (zh) * 2015-02-04 2015-05-20 华中科技大学 一种基于深度图像的手势识别方法与系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙慕杰: "基于RGB_Depth摄像机的手势交互技术研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
王松林: "基于Kinect的手势识别与机器人控制技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106055091B (zh) * 2016-05-16 2019-08-06 电子科技大学 一种基于深度信息和校正方式的手部姿态估计方法
CN106055091A (zh) * 2016-05-16 2016-10-26 电子科技大学 一种基于深度信息和校正方式的手部姿态估计方法
CN107203756A (zh) * 2016-06-06 2017-09-26 亮风台(上海)信息科技有限公司 一种识别手势的方法与设备
CN107203756B (zh) * 2016-06-06 2020-08-28 亮风台(上海)信息科技有限公司 一种识别手势的方法与设备
CN106709951B (zh) * 2017-01-03 2019-10-18 华南理工大学 一种基于深度图的手指关节定位方法
CN106709951A (zh) * 2017-01-03 2017-05-24 华南理工大学 一种基于深度图的手指关节定位方法
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN106897670B (zh) * 2017-01-19 2020-09-22 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN106737692B (zh) * 2017-02-10 2020-04-03 杭州迦智科技有限公司 一种基于深度投影的机械手爪抓取规划方法及控制装置
CN106737692A (zh) * 2017-02-10 2017-05-31 杭州迦智科技有限公司 一种基于深度投影的机械手爪抓取规划方法及控制装置
WO2018157286A1 (zh) * 2017-02-28 2018-09-07 深圳市大疆创新科技有限公司 一种识别方法、设备以及可移动平台
US11250248B2 (en) 2017-02-28 2022-02-15 SZ DJI Technology Co., Ltd. Recognition method and apparatus and mobile platform
CN106980386A (zh) * 2017-04-24 2017-07-25 清华大学 手型跟踪方法、装置和计算机可读介质
CN107169453A (zh) * 2017-05-16 2017-09-15 湖南巨汇科技发展有限公司 一种基于深度传感器的坐姿检测方法
CN107169453B (zh) * 2017-05-16 2020-07-17 湖南巨汇科技发展有限公司 一种基于深度传感器的坐姿检测方法
CN109101860A (zh) * 2017-06-21 2018-12-28 富泰华工业(深圳)有限公司 电子设备及其手势识别方法
CN109101860B (zh) * 2017-06-21 2022-05-13 富泰华工业(深圳)有限公司 电子设备及其手势识别方法
CN108073283B (zh) * 2017-12-07 2021-02-09 广州深灵科技有限公司 手部关节的计算方法及手套
CN108073283A (zh) * 2017-12-07 2018-05-25 袁峰 手部关节的计算方法及手套
CN109934065A (zh) * 2017-12-18 2019-06-25 虹软科技股份有限公司 一种用于手势识别的方法和装置
CN109934065B (zh) * 2017-12-18 2021-11-09 虹软科技股份有限公司 一种用于手势识别的方法和装置
CN107992858A (zh) * 2017-12-25 2018-05-04 深圳市唯特视科技有限公司 一种基于单一rgb帧的实时三维手势估计方法
CN108491752A (zh) * 2018-01-16 2018-09-04 北京航空航天大学 一种基于手部分割卷积网络的手部姿态估计方法
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
CN108399367B (zh) * 2018-01-31 2020-06-23 深圳市阿西莫夫科技有限公司 手部动作识别方法、装置、计算机设备及可读存储介质
CN108399367A (zh) * 2018-01-31 2018-08-14 深圳市阿西莫夫科技有限公司 手部动作识别方法、装置、计算机设备及可读存储介质
CN108346168A (zh) * 2018-02-12 2018-07-31 腾讯科技(深圳)有限公司 一种手势图像生成方法、装置及存储介质
CN108734135A (zh) * 2018-05-22 2018-11-02 京东方科技集团股份有限公司 一种训练图像的获取方法及装置
CN111382637B (zh) * 2018-12-29 2023-08-08 深圳市优必选科技有限公司 行人检测跟踪方法、装置、终端设备及介质
CN111382637A (zh) * 2018-12-29 2020-07-07 深圳市优必选科技有限公司 行人检测跟踪方法、装置、终端设备及介质
CN111914595A (zh) * 2019-05-09 2020-11-10 中国科学院软件研究所 一种基于彩色图像的人手三维姿态估计方法和装置
CN110086997A (zh) * 2019-05-20 2019-08-02 北京百度网讯科技有限公司 人脸图像曝光亮度补偿方法及装置
CN110086997B (zh) * 2019-05-20 2021-07-20 北京百度网讯科技有限公司 人脸图像曝光亮度补偿方法及装置
CN110175566B (zh) * 2019-05-27 2022-12-23 大连理工大学 一种基于rgbd融合网络的手部姿态估计系统及方法
CN110175566A (zh) * 2019-05-27 2019-08-27 大连理工大学 一种基于rgbd融合网络的手部姿态估计系统及方法
CN110348359B (zh) * 2019-07-04 2022-01-04 北京航空航天大学 手部姿态追踪的方法、装置及系统
CN110348359A (zh) * 2019-07-04 2019-10-18 北京航空航天大学 手部姿态追踪的方法、装置及系统
CN110472507A (zh) * 2019-07-12 2019-11-19 中国地质大学(武汉) 基于深度残差网络的人手深度图像位姿估计方法及系统
CN110502564A (zh) * 2019-08-28 2019-11-26 北京理工大学 基于姿态基的运动特征数据库生成方法、检索方法及终端
WO2021098666A1 (zh) * 2019-11-20 2021-05-27 Oppo广东移动通信有限公司 手部姿态检测方法和装置、及计算机存储介质
CN111797777A (zh) * 2020-07-07 2020-10-20 南京大学 基于时空语义特征的手语识别系统及方法
CN111797777B (zh) * 2020-07-07 2023-10-17 南京大学 基于时空语义特征的手语识别系统及方法
CN111898489B (zh) * 2020-07-15 2023-08-08 北京百度网讯科技有限公司 用于标注手掌位姿的方法、装置、电子设备及存储介质
CN111898489A (zh) * 2020-07-15 2020-11-06 北京百度网讯科技有限公司 用于标注手掌位姿的方法、装置、电子设备及存储介质
CN112200159A (zh) * 2020-12-01 2021-01-08 四川圣点世纪科技有限公司 一种基于改进残差网络的非接触式掌静脉识别方法
CN112837362A (zh) * 2021-01-28 2021-05-25 清华大学深圳国际研究生院 获取空间定位的三维人体姿态估计方法及计算机可读存储介质
WO2022174574A1 (zh) * 2021-02-18 2022-08-25 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及系统
CN114489328A (zh) * 2021-12-30 2022-05-13 重庆特斯联智慧科技股份有限公司 一种基于手势分布模板动作识别的机器人控制方法和系统
CN114489328B (zh) * 2021-12-30 2024-04-05 重庆特斯联智慧科技股份有限公司 一种基于手势分布模板动作识别的机器人控制方法和系统

Also Published As

Publication number Publication date
CN105389539B (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN105389539A (zh) 一种基于深度数据的三维手势姿态估计方法及系统
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
CN107301370B (zh) 一种基于Kinect三维骨架模型的肢体动作识别方法
Zhang et al. Visual measurement and prediction of ball trajectory for table tennis robot
CN105252532B (zh) 动作捕捉机器人协同柔性姿态控制的方法
CN1304931C (zh) 一种头戴式立体视觉手势识别装置
Yun et al. A hand gesture recognition method based on multi-feature fusion and template matching
CN107688391A (zh) 一种基于单目视觉的手势识别方法和装置
Zhang et al. A practical robotic grasping method by using 6-D pose estimation with protective correction
CN106055091A (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN109359514B (zh) 一种面向deskVR的手势跟踪识别联合策略方法
CN104317391A (zh) 一种基于立体视觉的三维手掌姿态识别交互方法和系统
Chen et al. Learning a deep network with spherical part model for 3D hand pose estimation
CN111596767B (zh) 一种基于虚拟现实的姿态捕获方法和装置
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统
CN115546365A (zh) 一种虚拟人驱动方法及系统
Zhang et al. A real-time upper-body robot imitation system
CN108305321A (zh) 一种基于双目彩色成像系统的立体人手3d骨架模型实时重建方法和装置
Amrutha et al. Human Body Pose Estimation and Applications
Hachaj et al. Real-time recognition of selected karate techniques using GDL approach
CN112069943A (zh) 基于自顶向下框架的在线多人姿态估计与跟踪方法
CN102479386A (zh) 基于单目视频的人体上半身三维运动跟踪方法
Li et al. Gesture recognition based on Kinect v2 and leap motion data fusion
Xu et al. A novel method for hand posture recognition based on depth information descriptor
Singh Recognizing hand gestures for human computer interaction

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant