CN102567703B - 一种基于分类特征的手部动作识别信息处理方法 - Google Patents

一种基于分类特征的手部动作识别信息处理方法 Download PDF

Info

Publication number
CN102567703B
CN102567703B CN201010583370.4A CN201010583370A CN102567703B CN 102567703 B CN102567703 B CN 102567703B CN 201010583370 A CN201010583370 A CN 201010583370A CN 102567703 B CN102567703 B CN 102567703B
Authority
CN
China
Prior art keywords
hand
model
human
image
carried out
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201010583370.4A
Other languages
English (en)
Other versions
CN102567703A (zh
Inventor
阳诚海
许华虎
陈开�
曾龙海
许以君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI SHANGDA HAIRUN INFORMATION SYSTEM CO Ltd
Original Assignee
SHANGHAI SHANGDA HAIRUN INFORMATION SYSTEM CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANGHAI SHANGDA HAIRUN INFORMATION SYSTEM CO Ltd filed Critical SHANGHAI SHANGDA HAIRUN INFORMATION SYSTEM CO Ltd
Priority to CN201010583370.4A priority Critical patent/CN102567703B/zh
Publication of CN102567703A publication Critical patent/CN102567703A/zh
Application granted granted Critical
Publication of CN102567703B publication Critical patent/CN102567703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于分类特征的手部动作识别信息处理方法,包括以下步骤:1)对手部区域进行检测及分割处理;2)根据步骤1)处理后的数据建立人体上肢关节模型;3)根据步骤2)的人体上肢关节模型,对手部的角度参数和直线参数进行特征提取,组成特征向量并利用HMM模型对其进行训练,利用训练好的HMM模型对新的特征向量进行识别;4)判断识别结果是否正确,若为是,将识别结果输出,若为否,返回步骤1)。与现有技术相比,本发明具有简单、实用,对于动作过程非相似的动作识别率较高等优点。

Description

一种基于分类特征的手部动作识别信息处理方法
技术领域
本发明涉及一种计算机的动作识别信息处理方法,尤其是涉及一种基于分类特征的手部动作识别信息处理方法。
背景技术
人体手部动作识别很有前景的潜在应用之一是高级人机交互。在智能化的环境中,用户不需要键盘和鼠标,就可以进行用户和机器人之间的交互,这就要求机器人能够理解人的意图,达到拟人交流的效果。
手势识别目前有很多方式,大部分方法是基于对手势的建模,主要的建模方式有基于人手表示的三维人手跟踪建模和基于先验模型的三维人手跟踪建模。基于表示的方法要求预先定义一组手势集,从每个手势中提取唯一的手势描述子,通过从图像特征空间到手势空间的映射直接得到手势的估计。而基于模型的方法则根据静止的三维手模型来识别手势,把被投影的3D模型与被观察到的图像特征进行匹配而恢复手的状态,最后得到手的3D形状。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种简单、实用,对于动作过程非相似的动作识别率较高的基于分类特征的手部动作识别信息处理方法。
本发明的目的可以通过以下技术方案来实现:
一种基于分类特征的手部动作识别信息处理方法,其特征在于,包括以下步骤:
1)对手部区域进行检测及分割处理;
2)根据步骤1)处理后的数据建立人体上肢关节模型;
3)根据步骤2)的人体上肢关节模型,对手部的角度参数和直线参数进行特征提取,组成特征向量并利用HMM模型对其进行训练,利用训练好的HMM模型对新的特征向量进行识别;
4)判断识别结果是否正确,若为是,将识别结果输出,若为否,返回步骤1)。
所述的步骤1)对手部区域进行检测及分割处理的步骤如下:
1)摄像头开启,获取图像;
2)判断是否获取成功,若为是,执行步骤3),若为否,返回步骤1);
3)对获取的图像进行预处理;
4)采用基于自适应混合高斯模型来建立背景,并采用背景减除法获得人体手部运动目标,同时对当前帧图像进行肤色分割,提取出手部肤色区域以及人脸区域并对这些区域进行标记;
5)将手部运动目标和手部肤色区域融合后,并通过背景减除法分割出手部运动目标与肤色区的图像。
所述的步骤2)中的建立人体上肢关节模型步骤如下:
对获得的手部运动目标与肤色区的图像进行二值化,然后利用人体肤色模型得到人体的手掌、手臂、脸部区域;
获得的手掌、手臂、脸部区域以后,由于头部区域仅仅是起到辅助的作用,不需要得到非常精确的头部边缘,假设人体的脸部为圆形,计算其质心所在位置,利用人体头部质心位置近似估计人体肩部位置,如果用户脸部朝向摄像头,操作者的肩部位置离头部质心处是一个固定值,假设人体头部半径为R,则R的值近似为:
Figure BSA00000381904200021
如果头部的质心位置为:(x,y),则左肩部位置为:(x-r·φ,y+r),其中
Figure BSA00000381904200022
左肩部的x坐标即为x+r·φ;同理根据对称性可知右肩部坐标位置;使用曲率的峰值来决定手指的位置,而肘部位置则源自于指尖和肩部最大距离的连线,由于人类的骨骼的长度有比较一致的比例关系,所以前臂与后臂的长度的比例关系是恒定的,肘关节在以肩为圆心,以后臂的长度为半径在一定的区域内运动,对应关系如下:
x2+y2+z2=r2            (1)
z2=r2-(x2+y2)          (2)
在二维平面坐标系中x2+y2长度即为前臂的长度L,则上式可写成z2=r2-L2,假定用户正面面向摄像头,在实际的空间坐标系中,空间上的一个点(x,y,z)在图像平面坐标为(x’,y’),其中:x’=(f/z)x,y’=(f/z)y,而f的长度是固定的,利用以上获得的参数以及端点固定的关节模型及其对应的方程组,以估计各个关节点的3D坐标,建立人体上肢关节模型。
所述的步骤3)中的对获取的图像进行预处理过程如下:首先将RGB空间的图像变换到YCbCr空间,利用YCbCr色彩空间亮度和色度分离的性质在一定程度上克服光照干扰,再使用中值滤波和线性平滑滤波对手区域二值图进行去噪,其中YCbCr是DVD、摄像机、数字电视等消费类视频产品中,常用的色彩编码方案,YCbCr其中Y是指亮度分量,Cb指蓝色色度分量,而Cr指红色色度分量。
所述的3)中的利用HMM模型对其进行训练过程如下:
每个手部动作采集N组样本,而每组样本包括M张图像使用HMM模型进行训练,训练过程如下:
首先要对左右结构的离散HMM模型λ=(A,B,π)初始化,并设定状态i只能返回到本身或转移到i+1状态,状态转移矩阵初始化为:
a 11 a 12 0 . . . 0 0 0 a 22 a 23 . . . 0 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 0 . . . . . . a N - 1 , N - 1 a N - 1 , 1 0 0 . . . . . . 0 a NN
对于初始概率分布,设定:π1=1,πi≠0(i≠1);即假设HMM是从第一个状态开始的,对于观察概率矩阵B,设
Figure BSA00000381904200032
1≤i≤N,1≤k≤M
初始模型确定以后,利用前后向递推法计算观察值序列O在这个模型下的P(O/λ)然后利用Baum-Welch算法对初始HMM模型λ=(A,B,π)进行重新计算,HMM的各个参数在这一过程得到重新估计,即求得新的HMM模型
Figure BSA00000381904200033
所述的角度参数包括关节角度。
所述的直线参数包括骨长度、手掌尺度、臂长。
与现有技术相比,本发明具有简单、实用,对于动作过程非相似的动作识别率较高。
附图说明
图1为本发明的流程图;
图2为本发明的硬件结构示意图;
图3为本发明的手部区域进行检测及分割处理的流程图;
图4为本发明手部关节模型的结构示意图;
图5为本发明的人体上肢关节模型的结构示意图;
图6为本发明手部动作识别的流程图;
图7为本发明的识别结果图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所、图2示,一种基于分类特征的手部动作识别信息处理方法,包括以下步骤:
1)摄像头1采集图像,并将图像传输给处理器2,处理器2对手部区域进行检测及分割处理;
2)处理器2根据步骤1)处理后的数据建立人体上肢关节模型;
3)处理器2根据步骤2)的人体上肢关节模型,对手部的角度参数和直线参数进行特征提取,组成特征向量并利用HMM模型对其进行训练,利用训练好的HMM模型对新的特征向量进行识别;
4)处理器2判断识别结果是否正确,若为是,将识别结果输出给机器人控制器,若为否,返回步骤1)。
一、手部区域进行检测及分割处理的步骤如下:
打开摄像头,待环境稳定后开始获取图像,从获取的第一帧图像开始,使用基于高斯模型的方法来构建背景图像,把每个像素作为混合高斯来建模,使用在线近似来更新。在本发明中用第一幅图像每点的像素值作为该点对应混合高斯分布的均值,并给每个高斯模型赋一个较大的方差和较小的权值。场景变化时,每个像素的混合高斯模型要被不断的学习更新,从每一点的多个高斯分布中选择一个或几个作为背景模型,其他均为前景模型,如果当前值与背景模型匹配,则该点为背景,否则为前景。该方法包括背景模型的选择和更新,详细步骤如下所述:
提高在繁忙的场景下,相对比较大而慢的手部运动目标检测效果,本发明中对均值和方差采用不同的学习率,对于均值采用
Figure BSA00000381904200041
而对于方差如果1/t>0.001时ρ=1/t,当1/t≤0.001时ρ=0.001。当第i个高斯成分与xj匹配时,为1,否则为0;如果xj与像素j的混合高斯模型中的K个高斯成分都不匹配,则该像素混合告诉模型中排在最后的高斯成分被新的高斯成分取代,新的高斯成分的均值为xj,初始标准差及权重为0.001和wmin,在更新完成后,各高斯成分的权重归一化。
在采用基于自适应混合高斯模型建立背景,采用背景减除法获得人体手部运动目标,同时对当前帧进行肤色分割,提取出手部肤色区域以及人脸区域并对这些区域进行标示,最后融合利用背景减除法分割出的运动目标与肤色分割出的图像区域,流程图如下图3所示。
二、建立人体上肢关节模型步骤如下:
对获得的手部运动目标与肤色区的图像进行二值化,然后利用人体肤色模型得到人体的手掌、手臂、脸部区域;
获得的手掌、手臂、脸部区域以后,由于头部区域仅仅是起到辅助的作用,不需要得到非常精确的头部边缘,假设人体的脸部为圆形,计算其质心所在位置,利用人体头部质心位置近似估计人体肩部位置,如果用户脸部朝向摄像头,操作者的肩部位置离头部质心处是一个固定值,假设人体头部半径为R,则R的值近似为:
Figure BSA00000381904200052
如果头部的质心位置为:(x,y),则左肩部位置为:(x-r·φ,y+r),其由
Figure BSA00000381904200053
左肩部的x坐标即为x+r·φ;同理根据对称性可知右肩部坐标位置;使用曲率的峰值来决定手指的位置,而肘部位置则源自于指尖和肩部最大距离的连线,由于人类的骨骼的长度有比较一致的比例关系,所以前臂与后臂的长度的比例关系是恒定的,肘关节在以肩为圆心,以后臂的长度为半径在一定的区域内运动,对应关系如下:
x2+y2+z2=r2              (1)
z2=r2-(x2+y2)            (2)
在二维平面坐标系中x2+y2长度即为前臂的长度L,则上式可写成z2=r2-L2,假定用户正面面向摄像头,在实际的空间坐标系中,空间上的一个点(x,y,z)在图像平面坐标为(x’,y’),其中:x’=(f/z)x,y’=(f/z)y,而f的长度是固定的,利用以上获得的参数以及端点固定的关节模型及其对应的方程组,以估计各个关节点的3D坐标,建立人体上肢关节模型,增加约束条件并根据人体结构的特点,恢复出人体手部的3D姿态,如图5所示。
三、动作识别
在上一节建立的上肢关节模型中设肩关节为原点,如图4所示。其中A0,A1,A2,A3分别表示人体左手肩关节、肘关节、腕关节以及手掌心的坐标,根据对称性得到右手关节坐标系。如图6所示,对每个待识别动作按照某种规则提取出统一的特征,将此特征送入识别器训练,得到最终的动作识别器。这里选取的特征能反映出不同动作间的本质差别,例如人体手部骨架模型前臂与上臂之间的夹角θ能反映出各种不同动作的区别。算法步骤如下:
(1)对训练样本集S(样本大小设为N个)中每个样本Si的M个骨架S(i,m)(m=1,…,M)计算各图像中L1与L2之间的夹角θ(i,m)1,2,L2与L3之间的夹角θ(i,m)2,3,L1与垂直方向Y轴的夹角θ(i,m)1,y,L1与水平方向X轴的夹角θ(i,m)1,x。则第i个样本Si的夹角特征向量为Ki={(θ(i,1)1,2,θ(i,1)2,3,θ(i,1)1,y,θ(i,1)1,x),…,(θ(i,m)1,2,θ(i,m)2,3,θ(i,M)1,y,θ(i,M)1,x)}T(i=1,2,…,N),训练样本集Str={S1,S2,…,Sn}得到与之对应的夹角特征向量集Ktr={K1,K2,…,Kn}。
具体计算方法为:θ(i,m)1,2=deg(A2,A1)+deg(A1,A0),其中:
deg(A2,A1)=arctan(y2-y1)/(x2-x1),A2为(x2,y2),A1为(x1,y1)。
(2)对训练样本集S中每个样本Si的M个骨架S(i,m)(m=1,…,M)计算各图像中非相邻关节的距离,A0与A2的距离d(i,m)0,2,A0与A3的距离d(i,m)0,3,A1与A2的距离d(i,m)1,3,则第i个样本Si的距离特征向量为Di={(d(i,1)0,2,d(i,1)0,3,d(i,1)1,3),...,(d(i,M)0,2,d(i,M)0,3,d(i,M)1,3)}T(i=1,2,…,N),训练样本集Str={S1,S2,…,Sn}得到与之对应的距离特征向量集Dtr={D1,D2,...,Dn}。
(3)将训练样本集Str所对应的特征向量集Ktr和Dtr按动作分类,分别送入隐马尔柯夫模型中进行学习训练,利用Baum-Welch算法得到对应于每种类手部动作的HMM模型
(4)对测试样本集Ste按步骤(1)、(2)中的方法计算其对应的夹角特征向量集Ktr,再HMM的向前-向后算法选取步骤(3)中具有最大概率的HMM模型,得到识别结果。
本发明的6种简单手部动作的识别结果,如图7所示,此识别方法对于动作过程非相似的动作(如:“向上”、“向下”“向左”、“向右”、“举手”)识别率较高,对于较复杂的、动作过程相似的手部动作(如“举手”、“敬礼”)识别率相对较低,误识率较高。同时该算法在背景较单一的环境识别率要比背景复杂的情况下要高。

Claims (4)

1.一种基于分类特征的手部动作识别信息处理方法,其特征在于,包括以下步骤:
1)对手部区域进行检测及分割处理;
2)根据步骤1)处理后的数据建立人体上肢关节模型;
3)根据步骤2)的人体上肢关节模型,对手部的角度参数和直线参数进行特征提取,组成特征向量并利用HMM模型对其进行训练,利用训练好的HMM模型对新的特征向量进行识别;
4)判断识别结果是否正确,若为是,将识别结果输出,若为否,返回步骤1);
所述的步骤2)中的建立人体上肢关节模型步骤如下:
对获得的手部运动目标与肤色区的图像进行二值化,然后利用人体肤色模型得到人体的手掌、手臂、脸部区域;
获得的手掌、手臂、脸部区域以后,由于头部区域仅仅是起到辅助的作用,不需要得到非常精确的头部边缘,假设人体的头部为圆形,计算其质心所在位置,利用人体头部质心位置近似估计人体肩部位置,如果用户脸部朝向摄像头,操作者的肩部位置离头部质心处是一个固定值,假设人体头部半径为r,则r的值近似为:
Figure FDA0000370407920000011
如果头部的质心位置为:(x,y),则左肩部位置为:(x-r·φ,y+r),其中
Figure FDA0000370407920000012
左肩部的x坐标即为x-r·φ;同理根据对称性可知右肩部坐标位置;使用曲率的峰值来决定手指的位置,而肘部位置则源自于指尖和肩部最大距离的连线,由于人类的骨骼的长度有比较一致的比例关系,所以前臂与后臂的长度的比例关系是恒定的,肘关节在以肩为圆心,以后臂的长度为半径在一定的区域内运动,对应关系如下:
x2+y2+z2=r2   (1)
z2=r2-(x2+y2)   (2)
在二维平面坐标系中x2+y2长度即为前臂的长度L,则上式可写成z2=r2-L,假定用户正面面向摄像头,在实际的空间坐标系中,空间上的一个点(x,y,z)在图像平面坐标为(x’,y’),其中:x’=(f/z)x,y’=(f/z)y,而f的长度是固定的,利用以上获得的参数以及端点固定的关节模型及其对应的方程组,以估计各个关节点的3D坐标,建立人体上肢关节模型;
所述的步骤1)对手部区域进行检测及分割处理的步骤如下:
1)摄像头开启,获取图像;
2)判断是否获取成功,若为是,执行步骤3),若为否,返回步骤1);
3)对获取的图像进行预处理;
4)采用基于自适应混合高斯模型来建立背景,并采用背景减除法获得人体手部运动目标,同时对当前帧图像进行肤色分割,提取出手部肤色区域以及人脸区域并对这些区域进行标记;
5)将手部运动目标和手部肤色区域融合后,并通过背景减除法分割出手部运动目标与肤色区的图像。
2.根据权利要求1所述的一种基于分类特征的手部动作识别信息处理方法,其特征在于,所述的步骤3)中的对获取的图像进行预处理过程如下:首先将RGB空间的图像变换到YCbCr空间,利用YCbCr色彩空间亮度和色度分离的性质在一定程度上克服光照干扰,再使用中值滤波和线性平滑滤波对手部区域二值图进行去噪。
3.根据权利要求1所述的一种基于分类特征的手部动作识别信息处理方法,其特征在于,所述的角度参数包括关节角度。
4.根据权利要求1所述的一种基于分类特征的手部动作识别信息处理方法,其特征在于,所述的直线参数包括手掌尺度、臂长。
CN201010583370.4A 2010-12-10 2010-12-10 一种基于分类特征的手部动作识别信息处理方法 Active CN102567703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010583370.4A CN102567703B (zh) 2010-12-10 2010-12-10 一种基于分类特征的手部动作识别信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010583370.4A CN102567703B (zh) 2010-12-10 2010-12-10 一种基于分类特征的手部动作识别信息处理方法

Publications (2)

Publication Number Publication Date
CN102567703A CN102567703A (zh) 2012-07-11
CN102567703B true CN102567703B (zh) 2014-04-09

Family

ID=46413084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010583370.4A Active CN102567703B (zh) 2010-12-10 2010-12-10 一种基于分类特征的手部动作识别信息处理方法

Country Status (1)

Country Link
CN (1) CN102567703B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729614A (zh) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 基于视频图像的人物识别方法及人物识别装置
CN103246895B (zh) * 2013-05-15 2016-03-09 中国科学院自动化研究所 基于深度信息的图像分类方法
CN104463090A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种人机交互系统对人体骨骼的动作识别方法
CN104460967A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种人体上肢骨骼手势识别方法
CN104809425B (zh) * 2014-01-24 2020-06-26 上海联影医疗科技有限公司 手部兴趣区域的提取方法及装置
CN104978012B (zh) * 2014-04-03 2018-03-16 华为技术有限公司 一种指向交互方法、装置及系统
CN106548121A (zh) * 2015-09-23 2017-03-29 阿里巴巴集团控股有限公司 一种活体识别的测试方法及装置
US20170193289A1 (en) * 2015-12-31 2017-07-06 Microsoft Technology Licensing, Llc Transform lightweight skeleton and using inverse kinematics to produce articulate skeleton
CN107545225B (zh) * 2016-06-23 2021-07-02 杭州海康威视数字技术股份有限公司 一种检测车载驾驶员违规行为的方法、装置及电子设备
CN107742214A (zh) * 2017-10-16 2018-02-27 北京特微智能科技有限公司 一种基于脸部识别的支付方法及支付系统
CN107918488B (zh) * 2017-10-27 2020-08-11 杭州电子科技大学 一种基于特征选择的各向同性三维手势识别方法
CN108399367B (zh) * 2018-01-31 2020-06-23 深圳市阿西莫夫科技有限公司 手部动作识别方法、装置、计算机设备及可读存储介质
CN108564037B (zh) * 2018-04-15 2021-06-08 南京明辉创鑫电子科技有限公司 一种敬礼姿势检测校正方法
CN108520247B (zh) 2018-04-16 2020-04-28 腾讯科技(深圳)有限公司 对图像中的对象节点的识别方法、装置、终端及可读介质
CN111488773B (zh) 2019-01-29 2021-06-11 广州市百果园信息技术有限公司 一种动作识别方法、装置、设备及存储介质
CN112149466A (zh) * 2019-06-28 2020-12-29 富士通株式会社 手臂动作识别方法、装置及图像处理设备
CN112132039B (zh) * 2020-09-23 2023-08-08 深兰科技(上海)有限公司 基于lstm和手工特征实现动作分类的方法、系统
CN112507955B (zh) * 2020-12-21 2023-04-18 西南交通大学 一种婴儿手部精细动作识别方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087089A (ja) * 2005-09-21 2007-04-05 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
KR20080095680A (ko) * 2007-04-25 2008-10-29 포항공과대학교 산학협력단 3차원 실린더 헤드 모델을 이용한 얼굴 제스처 인식 방법
CN101561868A (zh) * 2009-05-19 2009-10-21 华中科技大学 基于高斯特征的人体运动情感识别方法
CN101794528A (zh) * 2010-04-02 2010-08-04 北京大学软件与微电子学院无锡产学研合作教育基地 一种手语语音双向翻译系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087089A (ja) * 2005-09-21 2007-04-05 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
KR20080095680A (ko) * 2007-04-25 2008-10-29 포항공과대학교 산학협력단 3차원 실린더 헤드 모델을 이용한 얼굴 제스처 인식 방법
CN101561868A (zh) * 2009-05-19 2009-10-21 华中科技大学 基于高斯特征的人体运动情感识别方法
CN101794528A (zh) * 2010-04-02 2010-08-04 北京大学软件与微电子学院无锡产学研合作教育基地 一种手语语音双向翻译系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于多摄像头的手势识别研究与实现;朱建伟;《万方学位论文》;20101029;第1-2,15-28,47-50页 *
朱建伟.基于多摄像头的手势识别研究与实现.《万方学位论文》.2010,

Also Published As

Publication number Publication date
CN102567703A (zh) 2012-07-11

Similar Documents

Publication Publication Date Title
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN105389539B (zh) 一种基于深度数据的三维手势姿态估计方法及系统
CN104036546B (zh) 一种基于自适应形变模型的任意视角人脸三维重构方法
Kamal et al. A hybrid feature extraction approach for human detection, tracking and activity recognition using depth sensors
CN105930767B (zh) 一种基于人体骨架的动作识别方法
Ye et al. Accurate 3d pose estimation from a single depth image
Ma et al. Kinect Sensor‐Based Long‐Distance Hand Gesture Recognition and Fingertip Detection with Depth Information
CN105739702B (zh) 用于自然人机交互的多姿态指尖跟踪方法
Song et al. Body surface context: A new robust feature for action recognition from depth videos
CN107908288A (zh) 一种面向人机交互的快速人体动作识别方法
CN105759967B (zh) 一种基于深度数据的手部全局姿态检测方法
Lee et al. Game interface using hand gesture recognition
CN109359514B (zh) 一种面向deskVR的手势跟踪识别联合策略方法
Ding et al. STFC: Spatio-temporal feature chain for skeleton-based human action recognition
CN104102904B (zh) 一种静态手势识别方法
Yao et al. Real-time hand pose estimation from RGB-D sensor
Xu et al. Robust hand gesture recognition based on RGB-D Data for natural human–computer interaction
CN106815855A (zh) 基于产生式和判别式结合的人体运动跟踪方法
CN111259739A (zh) 一种基于3d人脸关键点和几何投影的人脸姿态估计方法
CN105069745A (zh) 基于普通图像传感器及增强现实技术的带表情变脸系统及方法
CN103426000B (zh) 一种静态手势指尖检测方法
Li et al. A novel hand gesture recognition based on high-level features
Wang et al. A new hand gesture recognition algorithm based on joint color-depth superpixel earth mover's distance
CN102156994A (zh) 一种单视角无标记人体运动跟踪的关节定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant