CN107330354B - 一种自然手势识别方法 - Google Patents
一种自然手势识别方法 Download PDFInfo
- Publication number
- CN107330354B CN107330354B CN201710164114.3A CN201710164114A CN107330354B CN 107330354 B CN107330354 B CN 107330354B CN 201710164114 A CN201710164114 A CN 201710164114A CN 107330354 B CN107330354 B CN 107330354B
- Authority
- CN
- China
- Prior art keywords
- gesture
- image
- palm
- skin color
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000005484 gravity Effects 0.000 claims abstract description 22
- 230000009466 transformation Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 7
- 230000002093 peripheral effect Effects 0.000 claims description 5
- 238000013519 translation Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 11
- 238000005286 illumination Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000011897 real-time detection Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
Abstract
本发明公开了一种自然手势识别方法,利用移动设备拍摄到带有手势的图像,经过YCrCb空间加入亮度补偿的椭圆肤色模型进行肤色区域的提取,获取手势二值图像,查找二值图像中的最大轮廓,舍弃小区域肤色图,得到手势最大轮廓。改进现有Hu矩计算整个手掌重心的做法,采用欧氏距离变换算法来计算手掌重心点。提出利用N个具有手势图像的旋转、平移、缩放不变性的特征参数进行拳头、开手掌、闭手掌、左摆手和右摆手五种基本手势的识别。
Description
技术领域
本发明涉及机器视觉领域,特别是一种自然手势识别方法。
背景技术
现行的手势识别大都是基于PC平台,并借助于传感设备(如数据手套等)来获取手势特征,与系统预定义的手势库比对,以确定手势类型,进而执行相应的操作指令来控制系统。随着移动设备的普及,这种交互方式越来越不适用,迫切需要一种不借助任何设备,只根据摄像头捕获的手势图像就能知道用户意图的交互方式,进而控制系统发出相应的指令来达到用户所希望的目的。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种自然手势识别方法。
为解决上述技术问题,本发明所采用的技术方案是:一种自然手势识别方法,其特征在于,包括以下步骤:
1)获取手部图像的RGB图像,将RGB图像转换至YCrCb空间,然后将YCrCb空间的图形非线性变换至色彩空间YCr’Cb’,建立椭圆肤色模型;
2)利用上述椭圆肤色模型遍历图像中所有像素,若像素坐标(Cr’,Cb’)在椭圆内部,则判定该像素点(Cr’,Cb’)为肤色点,否则(Cr’,Cb’)为非肤色点;
3)提取出肤色图像中手势区域的外围轮廓,并根据人的肤色范围值将手势区域的外围轮廓转换为二值图像,并获取手掌轮廓曲线;
4)将上述二值图像经过欧式距离变换,得到距离灰度图;
5)利用上述距离灰度图,计算手掌重心坐标;
6)利用上述手掌轮廓曲线获得精简轮廓S,计算轮廓S中点集的凸包H,通过比较H中各像素点的X坐标、Y坐标,提取手部的关键点,即顶端点、左端点、右端点和底端点,结合手掌重心坐标,根据四个端点坐标拟合出包围手部的矩形,并以此为掩码,与所述二值图像进行与运算,最后的计算结果即为手部图像;
7)利用上述手部图像计算N个特征参数进行手势识别。
步骤1)中,利用下式将RGB图像转换至YCrCb空间:
其中,R——红色值;G——绿色值;B——蓝色值。Y——亮度;Cb——蓝色分量值;Cr——红色分量值。
所述椭圆肤色模型表达式为:
其中,Cr’、Cb’——色彩空间转换后的红色分量值和蓝色分量值;Cx、Cy——色彩空间YCr’Cb’的Cr’Cb’平面上的椭圆中心;a、b——椭圆的长、短半轴;
Θ——椭圆在平面内的倾斜角度。
本发明中,a=25.39,b=14.03,cx=1.60,cy=2.41,θ=2.53,Cx=109.38,Cy=152.02。
步骤5)中,手掌重心坐标(k,l)的计算公式为:
为消除手掌重心计算过程中手指和手臂的影响,通过实验确定距离灰度图的距离灰度值ξ为150~230。
步骤7)的具体实现过程包括:
1)提取以下特征:特征F1:包围手部的矩形R的面积S与手势图像的轮廓面积A的比值,F1=S/A;特征F2:R的面积S与内切圆面积C的比值,F2=S/C;特征F3:R的长宽比,F3=H/W;特征F4:R的旋转角θ,F4=Rθ;
2)若手势图像的特征F1在区间PSA=[1.8088,1.9554]内,则判定手势为开手掌;若手势图像的特征F2取值在区间PSC1=[1.5568,2.0951]内,则判定手势为拳头;否则,若手势特征F2在区间PSC2=[2.1341,3.2045]内,则判定手势为闭手掌,或者左摆手,或者右摆手;若手势特征F3取值PHW1=[1.53,2.38],且F4为Rθ1=[-65,-15),则判定手势为左摆手;若手势特征F3取值PHW2=[0.42,0.65],且F4为Rθ2=(-75,-25],则判定手势为右摆手;否则,若手势特征F4为Rθ3=[-15,0]∪[-89,-75],则判定手势为闭手掌;若所提取的手势特征值为其他情况,则均判定为无效手势。
与现有技术相比,本发明所具有的有益效果为:本发明不需要借助外部设备,只根据摄像头捕获的手势图像就能识别用户的交互意图,即实现自然的手势识别方法;而且本发明的时间复杂度和空间复杂度都比较低,适合于移动平台硬件资源相对欠缺的实际情况。
附图说明
图1为普通光照实时检测效果,其中,(a)原始图像;(b)RGB模型;(c)YCrCb模型;(d)加入亮度补偿的椭圆模型;
图2为强光环境实时检测效果,其中,(a)原始图像;(b)RGB模型;(c)YCrCb模型;(d)加入亮度补偿的椭圆模型;
图3为昏暗环境实时检测效果,其中,(a)原始图像;(b)RGB模型;(c)YCrCb模型;(d)加入亮度补偿的椭圆模型;
图4为提取手势轮廓,其中,(a)原图像;(b)二值图像;(c)所有轮廓;(d)最大轮廓;(e)最大轮廓填充图;
图5手势二值图像;
图6距离灰度图像;
图7不同灰度阈值下的二值化效果,其中(a)~(i)分别对应阈值ξ=70、100、140、150、180、210、230、240、250;
图8为系统预定义手势,其中(a)~(e)分别对应开手掌、闭手掌、拳头、左摆手、右摆手;
图9为距离变换法提取重心及半径,(a)拳型,(b)单手指,(c)双手指,(d)多手指;
图10手部关键点提取;
图11为手部提取示意图,(a)手势图像;(b)手势轮廓;(c)关键点拟合矩形;(d)手部提取效果图;
图12手势判别决策模型;
图13基本手势识别效果,其中(a)~(e)分别对应拳头、开手掌、闭手掌、左摆手、右摆手;
图14为五种手势在手机上的识别效果;(a)开手掌表示放大;(b)拳头表示复原;(c)闭手掌表示缩小;(d)左摆手向左切换;(e)右摆手表示向右切换;
具体实施方式
本发明理论来源:第一步,利用移动设备(如手机)拍摄到带有手势的图像,经过YCrCb空间加入亮度补偿的椭圆肤色模型进行肤色区域的提取,获取手势二值图像,查找二值图像中的最大轮廓,舍弃小区域肤色图,得到手势最大轮廓。
第二步,改进现有Hu矩(几何不变矩)计算整个手掌重心的做法,采用欧氏距离变换算法来计算手掌重心点,并通过实验,确定灰度阈值ξ为150-230时,能够较好的消除噪声影响。
第三步,提出利用4个具有手势图像的旋转、平移、缩放不变性的特征参数进行拳头、开手掌、闭手掌、左摆手和右摆手五种基本手势的识别。
特征F1:R的面积S与轮廓面积A的比值F1=S/A;
特征F2:R的面积S与内切圆面积C的比值F2=S/C;
特征F3:R的长宽比F3=H/W;
特征F4:R的旋转角θF4=Rθ。
其中R表示手势最小外接矩形;A表示手势轮廓面积;C表示手势轮廓内切圆面积。
1、获取手势最大轮廓
利用人的肤色与背景颜色的不同来获取手势最大轮廓,肤色检测方法有很多,考虑到实际使用过程中,会有各种光照环境,而光照不同对肤色的影响比较大,直接使用RGB模型会产生较大误差。为此,本发明采用改进的基于Y(代表亮度)Cr(代表红色色度)Cb(代表蓝色色度)空间的加入亮度补偿的椭圆肤色检测模型。具体步骤如下:
首先,利用式(1)将摄像头获取的RGB图像转换至YCrCb空间,利用式(2)、式(3)、式(4)将YCrCb非线性变换至色彩空间YCr’Cb’。其中,Cr(Y)、Cb(Y)表示将YCrCb颜色空间中色度分量Cr、Cb记作亮度Y的函数;同样,表示经非线性变换后的空间色度分量函数。
式(2)中,Kl、Kh为常数,表示非线性色彩变换函数的分段阈值,分别取值:Kl=125,Kh=188;Ymin、Ymax表示肤色聚类区域中亮度Y的边界值,根据实验数据获得,分别取值:Ymin=16,Ymax=235。
式(3)中,WCi(Y)表示在CrCb空间中肤色区域的宽度;其WCi、WLCi和WHCi分别为:WCr=38.76,WCb=46.97,WLCr=20,WLCb=23,WHCr=10,WHCb=14,均由实验数据获得。
式(4)表示YCr’Cb’与之间的非线性色彩变换函数,其变换时色度分量Ci’由Kl和Kh决定。经非线性变换后,色彩空间YCr’Cb’对亮和暗的肤色区域检测具有较强的鲁棒性,而且,根据Hsu的研究结果可知,Cr’Cb’子空间中的肤色区域可以近似用椭圆肤色模型描述,如式(5)、式(6)所示。
其中,Cx、Cy表示Cr’Cb’平面上的椭圆中心,a、b为椭圆的长、短半轴,θ表示椭圆在平面内的倾斜角度。根据Hsu等人的实验数据可知:a=25.39,b=14.03,ecx=1.60,ecy=2.41,θ=2.53(弧度),Cx=109.38,Cy=152.02,以上各值均由Cr’Cb’空间的肤色区域计算得到。
经过YCr’Cb’颜色空间的转换后,就可以利用所建立的椭圆模型对图像中的肤色区域进行检测判定,即遍历图像中所有像素,若像素坐标(Cr’,Cb’)在椭圆内部(含边界),则判定其为肤色点,否则为非肤色点。
最后借助OpenCV提供的轮廓查找函数findContours(),提取出肤色图像中手势区域的外围轮廓。并根据人的肤色范围值Y-(20,255),Cr-(132,174),Cb-(40,130)将手势区域轮廓图转换为二值图像。
针对上述常用肤色模型检测方法进行实验效果对比,以验证本文所选算法——基于亮度补偿的椭圆肤色检测模型的优越性。其实验环境分为:①普通(正常)光照环境;②强光环境;③昏暗环境三种情况,各模型算法的肤色检测效果如图1、图2、图3所示。
由上述3种不同环境下的实验结果可知,RGB肤色模型检测算法受光照强度影响较大;YCrCb肤色算法与改进的加入亮度补偿的椭圆肤色模型算法相比也有较为明显的差异,即改进的加入亮度补偿的椭圆肤色模型算法在不同光照条件下的检测效果更加稳定,能够有效去除由光照产生的阴影区域。综上所述,采用基于YCrCb空间的加入亮度补偿的椭圆模型进行图像肤色区域的检测,能去除不同光照对肤色区域提取的影响。
经过肤色提取后,将该图像转换为二值图像,去除噪声,得到较为纯净的手势轮廓,并对轮廓内部进行填充,如图4所示。
2、获取手掌重心
获得了较为纯净的手势轮廓及其对应的二值图像后,要分析提取手掌重心,为手势识别做准备。通常的做法是借助Hu矩(几何不变矩)计算整个手部的重心,并近似作为手掌重心,但该方法只适用于拳型或者只有单手指伸出的情况,且无手臂等的干扰,倘若有多个手指伸出或者手臂的干扰,所计算得到的手掌重心将严重偏离实际位置。为此本发明采用基于距离变换的重心提取算法,该算法能够有效避免相关噪声的影响,较为精确的提取手掌重心。
所谓距离变换就是二值图像中非零像素点到最近的零像素点的距离,其距离值表示为对应灰度图像中像素的灰度值。距离的具体计算方法有两大类:非欧氏距离和欧氏距离。非欧氏距离的计算复杂度虽然较低,但精度不高,为此,本发明采用欧氏距离变换算法。
欧氏距离的公式化定义:设二维平面中有两点p(x,y),q(s,t),则两点间的欧氏距离可表示为式(7):
D(p,q)=[(x-s)2+(y-t)2]1/2 (7)
欧氏距离变换的公式表示:设一副M×N的二值图像A,其对应的二维数组P[M,N]=[pxy],pxy表示坐标为(x,y)的像素点,令pxy=0表示图像的背景点,pxy=1表示图像的前景点,即目标点,则有B={(x,y)|pxy=0},F={(i,j)|pij=1},B、F分别表示图像的背景、前景像素集合,计算A的欧氏距离变换等价于求解集合F中所有像素(i,j)到集合B中像素的最短欧氏距离,即
Dij=min{Dist[(i,j),(x,y)],(x,y)∈B} (8)
式(8)中Dist[(i,j),(x,y)]=[(i-x)2+(j-y)2]1/2。手势二值图像(图5)经过欧氏距离变换后,得到其距离灰度图,如图6所示。
接下来,利用得到的距离灰度图像来完成手掌重心的计算。根据人体形态特征可知,通常情况下,手掌区域的宽度要大于手臂(手腕)的宽度,而且,通过观察图6也可以清晰地发现,距离手部骨架越远亮度越暗,其像素灰度值越小,因此,为了得到更精确的手掌重心坐标,必须消除手掌重心计算过程中手指和手臂的影响,所以通过实验确定最佳灰度阈值ξ,如图7所示。
阈值ξ为150-230时,能够较好的消除噪声影响,且如图7所示,当阈值ξ>230时,肤色区域面积过小,为重心的提取会带来一定的误差。进一步,根据得到的距离二值图像,计算手掌重心,即
式(9)中,I(i,j)表示图像像素坐标,m、n表示图像的宽高,通过遍历图像中各像素点,进行累加求均值,即可得到手掌重心坐标(k,l)。在此,为简化重心计算的复杂度,借助OpenCV的基本函数minMaxLoc(),将上文获取的距离图像作为输入参数,获取图像矩阵中的最大距离值D,以及该值对应的图像像素坐标C。由欧氏距离变换定义可知,该最大距离值D就是手掌最大内切圆的半径,坐标C是手掌内切圆的圆心,即手掌重心Hc=C,手掌半径Hr=D。以下为各种手势图像(均含手臂)中,采用距离变换算法所提取的手掌重心及半径,如图9所示。图9中圆点表示手掌重心,圆圈表示最大内切圆,直线段表示半径,闭合曲线表示所提取的最大肤色连通域的轮廓。由图9可以看出,利用欧氏距离变换算法能够准确地提取手掌重心位置,而不受手指和手臂区域的影响。
3、手势识别
(1)系统与定义手势
本发明预定义的5种基本手势,如图8所示。
上述手势的语义分别定义为:(a)开手掌,表示放大;(b)闭手掌,表示缩小;(c)拳头,表示复位;(d)左摆手,表示向左切换;(e)右摆手,表示向右切换。
(2)手部关键点提取
运用多边形逼近算法对前面得到的轮廓曲线进行处理,以获得精简轮廓S;然后,计算轮廓S中点集的凸包H,以进一步减少无效坐标点,提升程序的运行效率;接下来,通过比较H中各像素点的X坐标、Y坐标,提取手部的关键点,即顶端点(Top)、左端点(Left)、右端点(Right),其底端点(Bottom)为手掌重心轮廓内切圆半径的1.3倍距离处。由手掌重心坐标确定,如图10所示,并且,根据四个端点坐标拟合出包围手部的矩形,并以此为掩码,与输入的二值图像进行与运算;最后的计算结果即为手部图像,如图11所示。
为增强算法的适用性,在进行轮廓精简时,多边形逼近算法的精度阈值可以设定为手掌半径R的1/3,以自适应手势图像的缩放。
(3)手势识别
在图像识别中,对象特征的选取对识别结果的准确性有较大的影响,单一的特征很容易受到外界环境的干扰。同时,在将目标对象从图像中提取的过程中,也会受到具有相似属性区域的干扰,从而降低所提取特征的有效性。本发明设计并实现一种具有较强抗干扰能力的手势识别算法。
经过前面的步骤,已经获取了较为纯净的手部图像,考虑到人手的几何形状变化较为明显,很适合作为特征参数进行手势图像的辨别。此外,出于对移动平台运算能力较低,以及算法复杂度和系统实时性等因素的考虑,本发明针对上述5种手势特征参数的提取采用3个变量来表示:1)手势轮廓面积A;2)手势轮廓内切圆面积C;3)手势最小外接矩形R。所提取的4个特征参数如下:
特征F1:R的面积S与轮廓面积A的比值
F1=S/A (10)
特征F2:R的面积S与内切圆面积C的比值
F2=S/C (11)
特征F3:R的长宽比
F3=H/W (12)
特征F4:R的旋转角θ
F4=Rθ (13)
上式中,S、H、W分别表示最小包围矩形R的面积、长和宽,Rθ表示R的旋转角度。由于上述4个特征参数的运算复杂度都非常低,满足系统实时性的要求,而且,F1、F2和F3均为比例特征参数,确保了手势图像的旋转、平移、缩放不变性,同时,特征参数F3为手势的朝向做出了判定,F4又辅助F3完成了旋转角度的计算,从而进一步完善了对手势类型的辨别。各手势图像的判别依赖特征如表1所示,其中,“●”表示手势的决定特征组合,“〇”表示手势的非依赖决定特征。
表1 手势特征依赖表
在实际编码实现时,手势的语义判别流程可依据图12进行决策。
在图13中,PSA、PSCi、PHWi、Rθi分别表示各手势特征参数的取值范围,通过对100名参与者进行手势采样,每位参与者针对预定义的5种手势各采集5次,则每种手势共采集样本5×100次,然后,对各手势样本实验所得特征数据进行分析,以确定各区间取值。
具体判别过程:若手势图像的特征F1在区间PSA=[1.8088,1.9554]内,则判定手势为开手掌;若手势图像的特征F2取值在区间PSC1=[1.5568,2.0951]内,则判定手势为拳头;否则,若手势特征F2在区间PSC2=[2.1341,3.2045]内,则判定手势为闭手掌,或者左摆手,或者右摆手,进一步,根据最小包围矩形的长宽比和旋转角来确定手势类型,若满足手势特征F3取值PHW1=[1.53,2.38],且F4为Rθ1=[-65,-15),则判定手势为左摆手;若满足手势特征F3取值PHW2=[0.42,0.65],且F4为Rθ2=(-75,-25],则判定手势为右摆手;否则,若手势特征F4为Rθ3=[-15,0]∪[-89,-75],则判定手势为闭手掌;若所提取的手势特征值为其他情况,则均判定为无效手势。
基于以上算法设计,手势类型识别效果如14所示,图中以输出对应手势类型表示识别结果。
Claims (6)
1.一种自然手势识别方法,其特征在于,包括以下步骤:
1)获取手部图像的RGB图像,将RGB图像转换至YCrCb空间,然后将YCrCb空间的图形非线性变换至色彩空间YCr’Cb’,建立椭圆肤色模型;
2)利用上述椭圆肤色模型遍历RGB图像中所有像素,若像素坐标(Cr’,Cb’)在椭圆内部,则判定该像素点(Cr’,Cb’)为肤色点,否则(Cr’,Cb’)为非肤色点,得到肤色图像;
3)提取出肤色图像中手势区域的外围轮廓,并根据人的肤色范围值将手势区域的外围轮廓转换为二值图像,并获取手掌轮廓曲线;
4)将上述二值图像经过欧式距离变换,得到距离灰度图;
5)利用上述距离灰度图,计算手掌重心坐标;
6)利用上述手掌轮廓曲线获得精简轮廓S*,计算轮廓S*中点集的凸包H,通过比较H中各像素点的X坐标、Y坐标,提取手部的关键点,即顶端点、左端点、右端点和底端点,结合手掌重心坐标,根据四个端点坐标拟合出包围手部的矩形,并以此为掩码,与所述二值图像进行与运算,最后的计算结果即为手部图像;
7)利用上述手部图像计算N个特征参数进行手势识别;
步骤7)的具体实现过程包括:
A)提取以下特征:特征F1:包围手部的矩形R的面积S与手势图像的轮廓面积A的比值,F1=S/A;特征F2:R的面积S与手势轮廓内切圆面积C的比值,F2=S/C;特征F3:R的长宽比,F3=H/W;特征F4:R的旋转角θ,F4=Rθ;
B)若手势图像的特征F1在区间PSA=[1.8088,1.9554]内,则判定手势为开手掌;若手势图像的特征F2取值在区间PSC1=[1.5568,2.0951]内,则判定手势为拳头;否则,若手势特征F2在区间PSC2=[2.1341,3.2045]内,则判定手势为闭手掌,或者左摆手,或者右摆手;若手势特征F3取值PHW1=[1.53,2.38],且F4为Rθ1=[-65,-15),则判定手势为左摆手;若手势特征F3取值PHW2=[0.42,0.65],且F4为Rθ2=(-75,-25],则判定手势为右摆手;否则,若手势特征F4为Rθ3=[-15,0]∪[-89,-75],则判定手势为闭手掌;若所提取的手势特征值为其他情况,则均判定为无效手势。
4.根据权利要求3所述的自然手势识别方法,其特征在于,a=25.39,b=14.03,cx=1.60,cy=2.41,θ=2.53,Cx=109.38,Cy=152.02。
5.根据权利要求1所述的自然手势识别方法,其特征在于,所述距离灰度图的最佳灰度阈值ξ为150~230。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710164114.3A CN107330354B (zh) | 2017-03-20 | 2017-03-20 | 一种自然手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710164114.3A CN107330354B (zh) | 2017-03-20 | 2017-03-20 | 一种自然手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107330354A CN107330354A (zh) | 2017-11-07 |
CN107330354B true CN107330354B (zh) | 2020-12-08 |
Family
ID=60193547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710164114.3A Expired - Fee Related CN107330354B (zh) | 2017-03-20 | 2017-03-20 | 一种自然手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107330354B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491820B (zh) * | 2018-04-02 | 2022-04-12 | 京东方科技集团股份有限公司 | 图像中肢体表示信息的识别方法、装置及设备、存储介质 |
CN108846356B (zh) * | 2018-06-11 | 2023-04-07 | 南京邮电大学 | 一种基于实时手势识别的手心追踪定位的方法 |
CN108985191A (zh) * | 2018-06-28 | 2018-12-11 | 广东技术师范学院 | 一种基于移动设备手势识别的轮廓提取方法 |
CN109344689A (zh) * | 2018-08-07 | 2019-02-15 | 西安理工大学 | 一种基于Kinect的哑语手势识别方法 |
CN109451634B (zh) * | 2018-10-19 | 2020-11-03 | 厦门理工学院 | 基于手势控制电灯的方法及其智能电灯系统 |
CN111291749B (zh) * | 2020-01-20 | 2024-04-23 | 深圳市优必选科技股份有限公司 | 手势识别方法、装置及机器人 |
CN113361382B (zh) * | 2021-05-14 | 2024-02-02 | 沈阳工业大学 | 基于压缩相对轮廓特征点的手形识别方法 |
CN114610157A (zh) * | 2022-03-23 | 2022-06-10 | 北京拙河科技有限公司 | 一种基于手势交互的方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012091799A1 (en) * | 2010-11-09 | 2012-07-05 | Qualcomm Incorporated | Fingertip tracking for touchless user interface |
CN102831404A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势检测方法及系统 |
CN103679145A (zh) * | 2013-12-06 | 2014-03-26 | 河海大学 | 一种手势自动识别方法 |
CN104331158A (zh) * | 2014-10-29 | 2015-02-04 | 山东大学 | 一种手势控制的人机交互方法及装置 |
CN104680127A (zh) * | 2014-12-18 | 2015-06-03 | 闻泰通讯股份有限公司 | 手势识别方法及系统 |
CN106022227A (zh) * | 2016-05-11 | 2016-10-12 | 苏州大学 | 一种手势识别方法及装置 |
-
2017
- 2017-03-20 CN CN201710164114.3A patent/CN107330354B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012091799A1 (en) * | 2010-11-09 | 2012-07-05 | Qualcomm Incorporated | Fingertip tracking for touchless user interface |
CN102831404A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势检测方法及系统 |
CN103679145A (zh) * | 2013-12-06 | 2014-03-26 | 河海大学 | 一种手势自动识别方法 |
CN104331158A (zh) * | 2014-10-29 | 2015-02-04 | 山东大学 | 一种手势控制的人机交互方法及装置 |
CN104680127A (zh) * | 2014-12-18 | 2015-06-03 | 闻泰通讯股份有限公司 | 手势识别方法及系统 |
CN106022227A (zh) * | 2016-05-11 | 2016-10-12 | 苏州大学 | 一种手势识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于视觉的实时静态手势识别技术研究;李亚兰;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160315;第26-27页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107330354A (zh) | 2017-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330354B (zh) | 一种自然手势识别方法 | |
CN107038424B (zh) | 一种手势识别方法 | |
Xu et al. | Online dynamic gesture recognition for human robot interaction | |
CN109919039B (zh) | 一种基于手掌和手指特征的静态手势识别方法 | |
TWI499966B (zh) | 互動式操作方法 | |
CN105184216A (zh) | 一种心二区掌纹的数字提取方法 | |
Wu et al. | Robust fingertip detection in a complex environment | |
CN109190460B (zh) | 基于累积匹配和等错误率的手形手臂静脉融合识别方法 | |
CN106326860A (zh) | 基于视觉的手势识别方法 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
CN110956099B (zh) | 一种动态手势指令识别方法 | |
Guo | Research of hand positioning and gesture recognition based on binocular vision | |
Thongtawee et al. | A novel feature extraction for American sign language recognition using webcam | |
CN108274476A (zh) | 一种人形机器人抓取球体的方法 | |
CN111222371A (zh) | 舌下静脉特征提取装置及方法 | |
Tan et al. | Gesture segmentation based on YCb'Cr'color space ellipse fitting skin color modeling | |
CN103400118B (zh) | 一种映射关系自适应调整的手势控制方法 | |
Saman et al. | Image Processing Algorithm for Appearance-Based Gesture Recognition | |
Wang et al. | V-Vibe: A robust ROI extraction method based on background subtraction for vein images collected by infrared device | |
Shemshaki et al. | Lip segmentation using geometrical model of color distribution | |
CN107341439B (zh) | 一种手指数量识别方法 | |
Gu et al. | Automatic Tongue Image Segmentation Based on Thresholding and an Improved Level Set Model | |
Chen et al. | A fingertips detection method based on the combination of centroid and Harris corner algorithm | |
CN112270292A (zh) | 一种静态手势识别系统及方法 | |
US10134163B2 (en) | Dynamic detection of an object framework in a mobile device captured image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201208 |