CN102063618B - 互动系统中的动态手势识别方法 - Google Patents
互动系统中的动态手势识别方法 Download PDFInfo
- Publication number
- CN102063618B CN102063618B CN201110006619XA CN201110006619A CN102063618B CN 102063618 B CN102063618 B CN 102063618B CN 201110006619X A CN201110006619X A CN 201110006619XA CN 201110006619 A CN201110006619 A CN 201110006619A CN 102063618 B CN102063618 B CN 102063618B
- Authority
- CN
- China
- Prior art keywords
- finger tip
- gesture
- point
- center
- gravity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种互动系统中的动态手势识别方法,具体有以下四个步骤:采集图像,经过去噪处理之后,得到当前图像帧;利用当前图像帧和参考图像帧做帧差,得到图像的运动区域,同时,结合肤色检测法得到二值化图像;利用灰度投影法对二值化图像做手势分割,得到手势区域和重心位置;根据重心位置和指尖特征采用分类识别方法得到最终识别结果。这种方法的优点在于克服以往算法中复杂度高、实时性低、识别率不高的问题,具有实现简单,实时性好,识别率高的优点,能很好地应用于动态手势识别中;另外,本发明算法可以容忍定义手势的平移,尺度以及旋转角度的变换,具有很好的鲁棒性。
Description
技术领域
本发明涉及一种图像分析与识别技术领域,特别涉及一种互动系统中的动态手势识别方法。
背景技术
众所周知,传统的鼠标是人机交互的基本工具之一,人们通常必须借助外力才能控制计算机,实现对计算机的操作。随着科技的逐渐发展,人机交互界面越来越向友好、便捷的方向发展。近年来,各种新型的人机互动系统涌现在人们面前,例如触摸屏、数据手套、遥控手柄以及徒手等等,其中,触摸屏,数据手套,遥控手柄等因为识别率高,实现简单,被普遍的用在商业、游戏等领域。而通过识别普通摄像头采集的手势图像来进行徒手操作则因为它成本低廉、操作人性化,逐渐成为众人瞩目的焦点,但与此同时,不得不承认的是,由于环境的不确定性、操作者的随意性和手形的多样性等,徒手操作的识别率比较低,因此,提高动态手势的识别率成为了需要解决的首要问题。
现有技术中影响动态手势识别率的主要因素有:手具有唯一性,不同人的同一种手势的差别很大;手是三维空间中的物质,在二维图像中手势方向难以确定。因此,动态手势识别的难度比较大。
目前手势识别方法主要有几何特征法,神经网络法(ANN)和隐马尔可夫模型(HMM)识别方法等。其中ANN和HMM由于算法复杂,实时性不高,并不适用于动态手势识别中,而几何特征识别法则面临识别率不够高的问题。
发明内容
本发明的目的是提供一种互动系统中的动态手势识别方法,以克服以往算法中复杂度高、实时性低、识别率不高的问题。该方法主要采用了根据手势重心和指尖的几何特征进行分类识别的方法,具有实现简单,实时性好,识别率高的优点,能很好地应用于动态手势识别中。
为实现上述目的,本发明的整个识别过程主要包括以下几个步骤:
第一步:采集图像,经过去噪处理之后,得到当前图像帧;
第二步:利用当前图像帧和参考图像帧做帧差,得到图像的运动区域,同时,结合肤色检测法得到二值化图像;
第三步:利用灰度投影法对二值化图像做手势分割,得到手势区域和重心位置;
第四步:根据重心位置和指尖特征采用分类识别方法得到最终识别结果。
具体每一步的技术细节如下:
第一步,所述的采集图像为YCbCr图像,去噪处理为空域滤波法。
第二步,由于互动系统中摄像头的角度和图像背景相对固定,为了简化算法,本发明采用帧差法。同时,为了减少手势阴影对结果的影响,本发明在传统的帧差法基础上,结合了肤色检测法来对图像进行二值化处理。其中帧差法和肤色检测法都是传统的图像处理方法。另外,这里参考图像使用的是固定背景图像,即当检测不到运动时,取若干帧之后的图像作为参考图像。
第三步,利用灰度投影法对手势进行分割。所谓灰度投影法,就是沿X,Y方向对二值化图像做灰度统计,从而得到两个方向的直方图。通过X方向的投影,可以得到Y方向的范围(y_start, y_end),通过Y方向的投影,可以得到X方向的范围(x_start, x_end),从而可以确定手掌所在的矩形区域。之后,需要在矩形区域内寻找重心。假设重心位置为(xr, yr),手势所在的矩形区域为(x_end-x_start, y_end-y_start),则
其中Sij为点(i, j)处的灰度值。
第四步,本发明定义了3种手势:右手食指伸出、右手食指和大拇指伸出、右手拳头。鼠标的操作可以将这几个手势进行组合来表示,例如,右手食指伸出移动表示鼠标移动,右手食指和大拇指伸出移动表示鼠标左键按下拖动,大拇指收回变成仅右手食指伸出表示鼠标左键单击。
由定义的手势可以知道,需要识别的手势有三种,分别是右手食指伸出,右手食指和大拇指伸出,以及右手拳头。
采用分类识别方法进行识别,分为三步进行:
第一步:通过多级菱形样板匹配法采集指尖位置点。传统的多级菱形样板匹配法使用的菱形样板比较简单,通常会使用1X1,3X3,5X5的样板,步进都为1,通过实验,发现误判率会比较高。本发明在此基础上进行了改进,其中菱形匹配分为三级:第一级用1X1菱形样板,也就是单个像素,若为该像素手势区域,则进行二级匹配;第二级用5X5菱形样板,步进T=2,单位为像素,若周围四个像素值都为手势区域,则进行三级匹配;第三级用13X13菱形样板,步进K=3,单位为像素,若周围8个像素中有1~4个像素为手势区域时,则该像素为指尖的备选位置F。
第二步:通过指尖特征分类识别定义手势。上述指尖位置的识别比较粗糙,因此还需要进一步对菱形样板匹配出来的备选指尖位置结合本发明定义的手势进行判断识别。由于只认食指、大拇指,因此,当指尖计数最大到2时就结束计算。假设S1代表手势重心到食指指尖点的距离,S2代表手势重心到拳头前沿的距离,S3代表两个有效指尖点间的距离,且都为以像素为单位的垂直方向距离,这几个值都是阈值,可以通过实验合理设置。另外,根据指尖数量,做一下分类定义:
(1) 指尖数量为0:表示没有指头伸出,此时手势为拳头或者没有出现;
(2) 指尖数量为1:表示伸出右手食指;
(3) 指尖数量为2:表示伸出了右手食指和大拇指。
具体分类识别的规则如下:
步骤一:假如指尖的备选位置F为第一个指尖点,那么在Y方向的投影图上:
a) 若该点离手势重心距离大于S1,表示该点为第一个有效指尖点,返回至第一步,重新搜索下一个备选指尖;
b) 若该点离手势重心距离介于S1与S2之间时,表示可能为拳头的前沿点,先假设该点为有效点,返回至第一步,重新搜索下一个备选指尖;
c) 若该点离手势重心距离小于S2时,表示为拳头的前沿点,返回指尖数量0。
步骤二:假如指尖的备选位置F为第二个指尖点,那么如果该点与前一有效指尖点的距离大于S3时,则该点为有效指尖点,跳至步骤三,继续判断;否则,该点为误判点,返回至第一步,重新搜索下一个备选指尖。
步骤三:看前后两个指尖点与重心是否满足一定的三角关系:假设重心为圆心O,水平向左OP为0°,计算A与重心连线的角度∠AOP和长度SAO,以及B与重心连线的角度∠BOP和长度SBO。由右手的形状特点可以知道,有下述情况出现时:当A在以O为圆心,SAO为半径的圆上运动,B也在以O为圆心,SBO为半径的圆上运动,同时,夹角∠AOB在30o~120o之间,且在∠AOB的平分线上,被手势覆盖的像素点比较少,这时,表示拇指指尖已经找到,返回指尖数量2。否则,返回至第一步,重新搜索指尖。
第三步:整个手势区域搜索完成,若始终没有找到第二个指尖点,而此时,若第一个指尖点为拳头的可能前沿点,那么这时判断第一个指尖点是拳头的前沿点,返回指尖数量0;另一种可能,在第一步判断的指尖点是一个有效的指尖点,那么这时返回指尖数量1。
本发明的有益效果在于:克服以往算法中复杂度高、实时性低、识别率不高的问题,具有实现简单,实时性好,识别率高的优点,能很好地应用于动态手势识别中;另外,本发明算法可以容忍定义手势的平移,尺度以及旋转角度的变换,具有很好的鲁棒性。
附图说明
图1:本发明中利用灰度投影法对手势进行分割的灰度直方图。
图2:本发明中定义的3种手势示意图。
图3:本发明中多级菱形样板匹配法的菱形样板示意图。
图4:本发明中采用分类识别方法逐级寻找手势流程示意图。
图5:本发明中通过指尖特征分类识别的指尖三角关系示意图。
其中图1至图5的符号说明如下:
11、二值化后的手势图像,12、沿Y方向的投影,13、沿X方向的投影,14、分割后的手势图像,21、右手食指伸出,22、右手食指和大拇指伸出,23、右手拳头,31、1X1菱形样板,32、5X5菱形样板,33、13X13菱形样板,51、∠AOP,52、∠AOB,53、∠BOP,54、SAO ,55、SBO 。
具体实施方式
如图1至图5所示,分别为本发明中利用灰度投影法对手势进行分割的灰度直方图、定义的3种手势示意图、多级菱形样板匹配法的菱形样板示意图、采用分类识别方法逐级寻找手势流程示意图、通过指尖特征分类识别的指尖三角关系示意图。
本发明的整个识别过程主要包括以下几个步骤:
第一步:采集图像,经过去噪处理之后,得到当前图像帧;
第二步:利用当前图像帧和参考图像帧做帧差,得到图像的运动区域,同时,结合肤色检测法得到二值化图像;
第三步:利用灰度投影法对二值化图像做手势分割,得到手势区域和重心位置;
第四步:根据重心位置和指尖特征采用分类识别方法得到最终识别结果。
具体每一步的技术细节如下:
第一步,所述的采集图像为YCbCr图像,去噪处理为空域滤波法。
第二步,由于互动系统中摄像头的角度和图像背景相对固定,为了简化算法,本发明采用帧差法。同时,为了减少手势阴影对结果的影响,本发明在传统的帧差法基础上,结合了肤色检测法来对图像进行二值化处理。其中帧差法和肤色检测法都是传统的图像处理方法。另外,这里参考图像使用的是固定背景图像,即当检测不到运动时,取若干帧之后的图像作为参考图像。
第三步,利用灰度投影法对手势进行分割。如图1所示,是利用灰度投影法对手势11进行分割的灰度直方图,就是沿X,Y方向对二值化图像做灰度统计,从而得到两个方向的直方图。通过X方向的投影13,可以得到Y方向的范围(y_start, y_end),通过Y方向的投影12,可以得到X方向的范围(x_start, x_end),从而可以确定手掌所在的矩形区域14。之后,需要在矩形区域内寻找重心。假设重心位置为(xr, yr),手势所在的矩形区域为(x_end-x_start, y_end-y_start),则
其中Sij为点(i, j)处的灰度值。
第四步,本发明定义了3种手势,如图2所示,分别为右手食指伸出21,右手食指和大拇指伸出22,右手拳头23。鼠标的操作可以将这几个手势进行组合来表示,例如,右手食指伸出21移动表示鼠标移动,右手食指和大拇指伸出22移动表示鼠标左键按下拖动,大拇指收回变成仅右手食指伸出21表示鼠标左键单击,右手拳头23做前后伸缩动作表示进入鼠标滚轮模式。
由定义的手势可以知道,需要识别的手势有三种,分别是右手食指伸出21,右手食指和大拇指伸出22,以及右手拳头23。
采用分类识别方法进行识别,分为三步进行,具体的流程图如图4所示:
第一步:通过多级菱形样板匹配法采集指尖位置点。传统的多级菱形样板匹配法使用的菱形样板比较简单,通常会使用1X1,3X3,5X5的样板,步进都为1,通过实验,发现误判率会比较高。本发明在此基础上进行了改进,如图3所示,其中菱形匹配分为三级:第一级用1X1菱形样板31,也就是单个像素,若为该像素手势区域,则进行二级匹配;第二级用5X5菱形样板32,步进T=2,单位为像素,若周围四个像素值都为手势区域,则进行三级匹配;第三级用13X13菱形样板33,步进K=3,单位为像素,若周围8个像素中有1~4个像素为手势区域时,则该像素为指尖的备选位置F。
第二步:通过指尖特征分类识别定义手势。上述指尖位置的识别比较粗糙,因此还需要进一步对菱形样板匹配出来的备选指尖位置结合本发明定义的手势进行判断识别。由于只认食指、大拇指,因此,当指尖计数最大到2时就结束计算。假设S1代表手势重心到食指指尖点的距离,S2代表手势重心到拳头前沿的距离,S3代表两个有效指尖点间的距离,且都为以像素为单位的垂直方向距离,这几个值都是阈值,可以通过实验合理设置。另外,根据指尖数量,做一下分类定义:
(1) 指尖数量为0:表示没有指头伸出,此时手势为拳头或者没有出现;
(2) 指尖数量为1:表示伸出右手食指;
(3) 指尖数量为2:表示伸出了右手食指和大拇指。
具体分类识别的规则如下:
步骤一:假如指尖的备选位置F为第一个指尖点,那么在Y方向的投影图上:
a)若该点离手势重心距离大于S1,表示该点为第一个有效指尖点,返回至第一步,重新搜索下一个备选指尖;
b)若该点离手势重心距离介于S1与S2之间时,表示可能为拳头的前沿点,
先假设该点为有效点,返回至第一步,重新搜索下一个备选指尖;
c)若该点离手势重心距离小于S2时,表示为拳头的前沿点,返回指尖数量0。
步骤二:假如指尖的备选位置F为第二个指尖点,那么如果该点与前一有效指尖点的距离大于S3时,则该点为有效指尖点,跳至步骤三,继续判断;否则,该点为误判点,返回至第一步,重新搜索下一个备选指尖。
步骤三:看前后两个指尖点与重心是否满足一定的三角关系:如图5所示,假设重心为圆心O,水平向左OP为0°,计算指尖点A与重心连线的角度∠AOP 51和长度SAO 54,以及指尖点B与重心连线的角度∠BOP 53和长度SBO 55。由右手的形状特点可以知道,有下述情况出现时:当A在以O为圆心, SAO 54为半径的圆上运动,B也在以O为圆心,SBO 55为半径的圆上运动,同时,夹角∠AOB 52在30o~120o之间,且在∠AOB 52的平分线上,被手势覆盖的像素点比较少,这时,表示拇指指尖已经找到,返回指尖数量2。否则,返回至第一步,重新搜索指尖。
第三步:整个手势区域搜索完成,若始终没有找到第二个指尖点,而此时,若第一个指尖点为拳头的可能前沿点,那么这时判断第一个指尖点是拳头的前沿点,返回指尖数量0;另一种可能,在第一步判断的指尖点是一个有效的指尖点,那么这时返回指尖数量1。
Claims (3)
1.一种互动系统中的动态手势识别方法,其特征在于包括以下步骤:
第一步:采集图像,经过去噪处理之后,得到当前图像帧;所述采集图像为YCbCr图像,去噪处理为空域滤波法;
第二步:利用当前图像帧和参考图像帧做帧差,得到图像的运动区域,同时,结合肤色检测法得到二值化图像;
第三步:利用灰度投影法对二值化图像做手势分割,得到手势区域和重心位置;
第四步:根据重心位置和指尖特征采用分类识别方法得到最终识别结果;其中分类识别方法的步骤为:
第1步:通过多级菱形样板匹配法采集指尖位置点,所述的多级菱形样板匹配法的菱形匹配分为三级:第一级用1×1菱形样本(31),第二级用5×5菱形样本(32),步进T=2,第三级用13×13菱形样本(33),步进K=3;
第2步:通过指尖特征分类识别定义手势,其中分类识别的规则为:
步骤一:指尖的备选位置为第一个指尖点,那么在Y方向的投影图上:
a)若该点离手势重心距离大于手势重心到食指指尖点的距离,表示该点为第一个有效指尖点,返回至第一步,重新搜索下一个备选指尖;
b)若该点离手势重心距离介于手势重心到食指指尖点的距离与手势重心到拳头前沿的距离之间时,表示可能为拳头的前沿点,先假设该点为有效点,返回至第一步,重新搜索下一个备选指尖;
c)若该点离手势重心距离小于手势重心到拳头前沿的距离时,表示为拳头的前沿点,返回指尖数量0;
步骤二:指尖的备选位置为第二个指尖点,如果该点与前一有效指尖点的距离大于两个有效指尖点间的距离时,则该点为有效指尖点,跳至步骤三,继续判断;否则,该点为误判点,返回至第一步,重新搜索下一个备选指尖;
步骤三:看前后两个指尖点与重心是否满足一定的三角关系:假设重心为圆心O,水平向左OP为0°,计算指尖点A与重心连线的角度∠AOP(51)和长度SAO(54),以及指尖点B与重心连线的角度∠BOP(53)和长度SBO(55),由右手的形状特点可以知道,有下述情况出现时:当A在以O为圆心,SAO(54)为半径的圆上运动,B也在以O为圆心,SBO(55)为半径的圆上运动,同时,夹角∠AOB(52)在30o~120o之间,且在∠AOB(52)的平分线上,被手势覆盖的像素点比较少,这时,表示拇指指尖已经找到,返回指尖数量2,否则,返回至第一步,重新搜索指尖;
上述第2步中涉及的手势重心到食指指尖点的距离、手势重心到拳头前沿的距离、两个有效指尖点间的距离,其中距离都为以像素为单位的垂直方向距离;
第3步:当搜索完成,按照定义的规则识别手势。
2.如权利要求1所述的互动系统中的动态手势识别方法,其特征在于第四步第3步所述的规则为:当整个手势区域搜索完成时,若始终没有找到第二个指尖点,而此时,若第一个指尖点为拳头的可能前沿点,那么这时判断第一个指尖点是拳头的前沿点,返回指尖数量0;另一种可能,第一个指尖点是一个有效的指尖点,那么这时返回指尖数量1。
3.如权利要求1或2所述的互动系统中的动态手势识别方法,其特征在于定义了三种手势,分别是右手食指伸出(21),右手食指和大拇指伸出(22),右手拳头(23)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110006619XA CN102063618B (zh) | 2011-01-13 | 2011-01-13 | 互动系统中的动态手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110006619XA CN102063618B (zh) | 2011-01-13 | 2011-01-13 | 互动系统中的动态手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102063618A CN102063618A (zh) | 2011-05-18 |
CN102063618B true CN102063618B (zh) | 2012-10-31 |
Family
ID=43998887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110006619XA Active CN102063618B (zh) | 2011-01-13 | 2011-01-13 | 互动系统中的动态手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102063618B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
CN102520790A (zh) * | 2011-11-23 | 2012-06-27 | 中兴通讯股份有限公司 | 一种基于图像传感模块的字符输入方法、装置及终端 |
CN102509088B (zh) * | 2011-11-28 | 2014-01-08 | Tcl集团股份有限公司 | 一种手部运动检测的方法、装置及人机交互系统 |
TWI540461B (zh) * | 2011-12-05 | 2016-07-01 | 緯創資通股份有限公司 | 手勢輸入的方法及系統 |
CN102592113B (zh) * | 2011-12-23 | 2014-07-30 | 哈尔滨工业大学深圳研究生院 | 一种基于表观特征的静态手势快速识别法 |
CN102880865B (zh) * | 2012-09-28 | 2015-06-17 | 东南大学 | 基于肤色与形态特征的动态手势识别方法 |
CN103778405B (zh) * | 2012-10-17 | 2017-07-04 | 原相科技股份有限公司 | 以自然影像进行的手势辨识方法 |
TWI475422B (zh) * | 2012-10-31 | 2015-03-01 | Wistron Corp | 手勢辨識方法與電子裝置 |
CN103034333A (zh) * | 2012-12-18 | 2013-04-10 | 福建华映显示科技有限公司 | 手势辨识装置及方法 |
CN103019389B (zh) * | 2013-01-12 | 2016-05-18 | 福建华映显示科技有限公司 | 手势辨识系统及手势辨识方法 |
CN104766332B (zh) * | 2013-01-28 | 2017-10-13 | 海信集团有限公司 | 一种图像处理方法及电子设备 |
CN103150022B (zh) * | 2013-03-25 | 2016-09-21 | 深圳泰山体育科技股份有限公司 | 手势识别方法及装置 |
CN103544469B (zh) * | 2013-07-24 | 2017-05-10 | Tcl集团股份有限公司 | 一种基于掌心测距的指尖检测方法和装置 |
CN103399699A (zh) * | 2013-07-31 | 2013-11-20 | 华南理工大学 | 一种以人手为中心的手势交互方法 |
CN103593680B (zh) * | 2013-11-19 | 2016-09-14 | 南京大学 | 一种基于隐马尔科夫模型自增量学习的动态手势识别方法 |
CN104202547B (zh) * | 2014-08-27 | 2017-10-10 | 广东威创视讯科技股份有限公司 | 投影画面中提取目标物体的方法、投影互动方法及其系统 |
CN104463250B (zh) * | 2014-12-12 | 2017-10-27 | 广东工业大学 | 一种基于达芬奇技术的手语识别翻译方法 |
CN107679512A (zh) * | 2017-10-20 | 2018-02-09 | 济南大学 | 一种基于手势关键点的动态手势识别方法 |
CN108346168B (zh) * | 2018-02-12 | 2019-08-13 | 腾讯科技(深圳)有限公司 | 一种手势图像生成方法、装置及存储介质 |
CN109117748B (zh) * | 2018-07-23 | 2021-08-31 | 安徽淘云科技股份有限公司 | 翻页检测方法及装置 |
CN109635665A (zh) * | 2018-11-16 | 2019-04-16 | 惠州拓邦电气技术有限公司 | 一种电器手势控制方法、装置及厨房电器 |
WO2021012513A1 (zh) * | 2019-07-19 | 2021-01-28 | 平安科技(深圳)有限公司 | 手势操作方法、装置以及计算机设备 |
CN113741701A (zh) * | 2021-09-30 | 2021-12-03 | 之江实验室 | 一种基于体感手势控制的脑神经纤维束可视化方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101354608A (zh) * | 2008-09-04 | 2009-01-28 | 中兴通讯股份有限公司 | 一种视频输入实现方法及系统 |
CN101719015A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 指示手势的手指尖定位方法 |
CN101901350A (zh) * | 2010-07-23 | 2010-12-01 | 北京航空航天大学 | 一种基于特征向量的静态手势识别方法 |
-
2011
- 2011-01-13 CN CN201110006619XA patent/CN102063618B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101354608A (zh) * | 2008-09-04 | 2009-01-28 | 中兴通讯股份有限公司 | 一种视频输入实现方法及系统 |
CN101719015A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 指示手势的手指尖定位方法 |
CN101901350A (zh) * | 2010-07-23 | 2010-12-01 | 北京航空航天大学 | 一种基于特征向量的静态手势识别方法 |
Non-Patent Citations (3)
Title |
---|
丁海洋,阮秋琦.《多尺度模型与矩描绘子相结合的手势识别算法》.《北方交通大学学报》.2004,第28卷(第2期),第42-44页. * |
吕颖.《基于摄像头的手势交互系统的研究》.《中国优秀硕士学位论文全文数据库 信息科技辑》.2009,(第11期),全文. * |
郭兴伟.《基于视觉的手势识别算法研究》.《中国优秀硕士学位论文全文数据库 信息科技辑》.2004,(第4期),正文第15-18页. * |
Also Published As
Publication number | Publication date |
---|---|
CN102063618A (zh) | 2011-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102063618B (zh) | 互动系统中的动态手势识别方法 | |
CN102231093B (zh) | 一种屏幕定位控制方法及装置 | |
JP6360050B2 (ja) | 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム | |
KR101581954B1 (ko) | 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법 | |
Feng et al. | Features extraction from hand images based on new detection operators | |
CN102945362B (zh) | 基于异构数据融合的传感器协同手势识别方法及系统 | |
CN101976330B (zh) | 手势识别方法和系统 | |
US10366281B2 (en) | Gesture identification with natural images | |
CN103294996A (zh) | 一种3d手势识别方法 | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
CN104834412B (zh) | 一种基于非接触式的手势识别的触摸终端 | |
CN103092334B (zh) | 虚拟鼠标驱动装置及虚拟鼠标仿真方法 | |
CN111444764A (zh) | 一种基于深度残差网络的手势识别方法 | |
KR101559502B1 (ko) | 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체 | |
CN113961067A (zh) | 基于深度学习的非接触式涂鸦绘制方法与识别交互系统 | |
Hu et al. | Trajectory image based dynamic gesture recognition with convolutional neural networks | |
CN114792443A (zh) | 一种基于图像识别的智能设备手势识别控制方法 | |
US20130229348A1 (en) | Driving method of virtual mouse | |
Park et al. | Real-time hand gesture recognition for augmented screen using average background and camshift | |
CN113282164A (zh) | 一种处理方法和装置 | |
CN111488897A (zh) | 一种触摸物体的检测识别方法及其装置 | |
CN109542229B (zh) | 手势识别方法、用户设备、存储介质及装置 | |
Wong et al. | Virtual touchpad: Hand gesture recognition for smartphone with depth camera | |
Fan et al. | Natural user interface for interactive television | |
KR101171239B1 (ko) | 영상처리를 이용한 비접촉 데이터 입력 및 조작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 214000 Liyuan Development Zone, Binhu District, Wuxi City, Jiangsu Province, 04-6 Block (100 Dicui Road), 9 buildings and 2 floors Patentee after: ZHONGKEXIN INTEGRATED CIRCUIT Co.,Ltd. Address before: 214072 Jiangsu province Wuxi City Liyuan Development Zone, Road No. 100 building 9 layer 2 Patentee before: CHINA KEY SYSTEM & INTEGRATED CIRCUIT Co.,Ltd. |
|
CP03 | Change of name, title or address |