CN106295463A - 一种基于特征值的手势识别方法 - Google Patents

一种基于特征值的手势识别方法 Download PDF

Info

Publication number
CN106295463A
CN106295463A CN201510249327.7A CN201510249327A CN106295463A CN 106295463 A CN106295463 A CN 106295463A CN 201510249327 A CN201510249327 A CN 201510249327A CN 106295463 A CN106295463 A CN 106295463A
Authority
CN
China
Prior art keywords
gesture
euclidean distance
frame
eigenvalues
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510249327.7A
Other languages
English (en)
Other versions
CN106295463B (zh
Inventor
冯志全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lingxinyun Shandong Intelligent Technology Co ltd
Original Assignee
University of Jinan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Jinan filed Critical University of Jinan
Priority to CN201510249327.7A priority Critical patent/CN106295463B/zh
Publication of CN106295463A publication Critical patent/CN106295463A/zh
Application granted granted Critical
Publication of CN106295463B publication Critical patent/CN106295463B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明的一种基于特征值的手势识别方法,首先构建手势数据库,选取m种手势,每种手势选取n幅手势图像,找出每幅手势图像中的四个特征值,存储在手势数据库中;然后在视频流中连续选取K帧待识别手势图像,采用相同的方法实时计算出每帧待识别图像的四个特征值进行比对。本发明的有益效果是:改善手势识别的识别率,并且对于手势的旋转、缩放和平移可以进行有效识别。

Description

一种基于特征值的手势识别方法
技术领域
本发明涉及一种基于特征值的手势识别方法。
背景技术
随着计算机的发展与应用,人与计算机的交互越来越密切。手势交互在人机交互领域内的重要性更是越发突出,其中基于视觉的手势识别技术已成为手势交互领域内的一个研究热点。从手势的运动特点出发,基于视觉的手势识别可分为动态手势识别和静态手势识别两大类。动态手势可以定义为手运动的轨迹,是指随时间的变化手势的形状和位置也发生着相应的改变。因此,识别效果容易受到手势轮廓、时空位置、移动速率等因素的影响。静态手势可以认为是动态手势中某一个时间点下的特例,是指不随时间变化而变化的手势,其识别效果与手势的轮廓、形状、纹理等相关。由于静态手势是动态手势变化过程中的某一状态,是手势识别的核心工作。
Haitham H等提出一种利用神经网络进行手势识别的方法,该方法通过边缘检测提取样本几何矩特征和轮廓特征,然后利用神经网络对手势进行识别,但是该方法对静态手势的识别较低。姚远等利用深度像素信息设计了一个基于视觉的手势交互桌面应用开发框架,采用RGB-D信息作为数据输入,同时利用3D手形轮廓来进行手势匹配,该方法能够实现手势的快速匹配,但是识别时容易受到手臂的影响。Li等提出了一种利用分层弹性图匹配(HEGM)的手势识别方法,用Boosting算法来确定一个给定的图形的层次结构,利用梯度方向直方图(HOG)提取视觉特征。该方法的手势识别率高达99.85%。Padam等提出一种基于几何标准化和Krawtchouk矩特征的静态手势识别算法,根据手势测量方法把手从手和前臂区域中提取出来,再用Krawtchouk矩特征和最小距离分类器把手势轮廓进行归一化。该方法对小的训练样本集能够进行很好的识别。
发明内容
为解决以上技术上的不足,本发明提供了一种识别率高的基于特征值的手势识别方法。
本发明是通过以下措施实现的:
本发明的一种基于特征值的手势识别方法,包括以下步骤:
步骤1,构建手势对比库,选取m种手势,每种手势选取n幅手势图像,每幅手势图像对应关联一组模型数据,每组模型数据包括四个特征值F1、F2、F3、F4;
其中F1表示手势轮廓上各点到手势重心的平均距离除以手势外接圆半径的值,其计算公式为: F 1 = [ ( Σ i = 1 S ( x i - x 0 ) 2 + ( y i - y 0 ) 2 ) / S ] / R ;
F2表示手势轮廓上距离手势重心的M个最大距离平均值除以外接圆半径的值,其计算公式为:
F3表示手势轮廓上距离手势重心的N个最小距离平均值除以外接圆半径的值,其计 F 3 = [ ( Σ i = 1 N d i ) / N ] / R ;
F4表示手势轮廓上距离手势重心的M个最大距离之和与手势轮廓上距离手势重心的N个最小距离之和的差值除以外接圆半径的值,其计算公式为: F 4 = ( Σ i = 1 M D i - Σ i = 1 N d i ) / R ;
其中,(x0,y0)是手势重心位置坐标,Di、di表示手势轮廓上每个点到重心(x0,y0)的欧式距离,把S个欧式距离值按照由大到小排序,得到序列(D1,D2,…DM,…DS);R是手势外接圆半径;
步骤2,从视频流中连续选取K帧待识别手势图像,并采用与步骤1相同的方法实时计算出每帧被识别手势图像对应关联的四个特征值F1、F2、F3、F4,并将每帧被识别手势图像对应关联的四个特征值F1、F2、F3、F4保存在一个对比数组中;
步骤3,将步骤2中每帧待识别手势图像对应的对比数组分别与手势对比库内m*n幅手势图像对应的模型数据一一计算欧氏距离,每帧待识别手势图像对应得到m*n个欧氏距离,从中选出与该对比数组欧氏距离最小的一组模型数据,并记录该组模型数据对应存储在手势对比库的那幅手势图像以及该最小的欧氏距离;
步骤4,采用步骤3的方法,分别找出与K帧待识别手势图像对应的K个最小的欧氏距离,然后在这K个最小的欧氏距离中再选取一个最小的欧氏距离F,找出与该欧氏距离值F对应的模型数据,并最后将该模型数据对应存储在手势对比库的那张手势图像作为最终识别结果输出。
在步骤1中,m=5、n=10;即选取5种手势,每种手势选取10幅手势图像。
在步骤2中,从视频流的中第10帧开始直到第30帧结束,连续选取20帧待识别手势图像。
本发明的有益效果是:改善手势识别的识别率,并且对于手势的旋转、缩放和平移可以进行有效识别。
具体实施方式
本发明的一种基于特征值的手势识别方法,包括以下步骤:
首先构建手势对比库。
选取m种手势,每种手势选取n幅手势图像,m=5、n=10;即选取5种手势,每种手势选取10幅手势图像。每幅手势图像对应关联一组模型数据,每组模型数据包括四个特征值F1、F2、F3、F4,其中,其中F1表示手势轮廓上各点到手势重心的平均距离除以手势外接圆半径的值,其计算公式为: F 1 = [ ( Σ i = 1 S ( x i - x 0 ) 2 + ( y i - y 0 ) 2 ) / S ] / R ;
F2表示手势轮廓上距离手势重心的M个最大距离平均值除以外接圆半径的值,其计算公式为:
F3表示手势轮廓上距离手势重心的N个最小距离平均值除以外接圆半径的值,其计 F 3 = [ ( Σ i = 1 N d i ) / N ] / R ;
F4表示手势轮廓上距离手势重心的M个最大距离之和与手势轮廓上距离手势重心的N个最小距离之和的差值除以外接圆半径的值,其计算公式为: F 4 = ( Σ i = 1 M D i - Σ i = 1 N d i ) / R ;
其中,(x0,y0)是手势重心位置坐标,Di、di表示手势轮廓上每个点到重心(x0,y0)的欧式距离,把S个欧式距离值按照由大到小排序,得到序列(D1,D2,…DM,…DS);R是手势外接圆半径。
对选取的五种手势,每种手势取10张手势图片,对每张图片求以上四个特征值,则一种手势就是一个10*4的二维数组:每行代表一张图片求取的4个特征值,每列代表一种特征值的10张图片的不同值。由此形成5个不同的手势文件,这五个文件一起构成手势对比库。库里共有50个特征值序列,每10个是一种手势。
从视频流中连续选取K帧待识别手势图像,从视频流的中第10帧开始直到第30帧结束,连续选取20帧待识别手势图像。并采用与上述相同的方法实时计算出每帧被识别手势图像对应关联的四个特征值F1、F2、F3、F4,并将每帧被识别手势图像对应关联的四个特征值F1、F2、F3、F4保存在一个对比数组中;将每帧待识别手势图像对应的对比数组分别与手势对比库内m*n幅手势图像对应的模型数据一一计算欧氏距离,每帧待识别手势图像对应得到m*n个欧氏距离,从中选出与该对比数组欧氏距离最小的一组模型数据,并记录该组模型数据对应存储在手势对比库的那幅手势图像以及该最小的欧氏距离;
采用上述的方法,分别找出与K帧待识别手势图像对应的K个最小的欧氏距离,然后在这K个最小的欧氏距离中再选取一个最小的欧氏距离F,找出与该欧氏距离值F对应的模型数据,并最后将该模型数据对应存储在手势对比库的那张手势图像作为最终识别结果输出。
其具体的流程为:
(1)初始化数据,并读入5种手势模型的比较数据。数据放在程序文件夹的“PPT\模型库\实心\3”下,包括6个文件,5个手势文件和1个说明文件。说明文件给出了M和N的值,5个手势文件每一个都是10*4的二维数组,每一行代表一张此手势图片求取的4个特征值序列。
(2)由手势轮廓算法提取出的第K帧手势轮廓图像,从第10帧开始进行手势识别。选取从10帧开始主要是为了等待手势轮廓提取的比较稳定。
(3)依次求取手势的重心→手势的外接圆半径→手势的所有边缘点→手势轮廓上各点到重心的距离和手势轮廓上各点到重心的平均距离→求取特征值A→对手势轮廓上各点到重心的距离进行排序→求取特征值。
(4)把求得的4个特征值与库里的50组特征值序列分别进行欧式距离比较,求出最小的欧氏距离,保存第10帧的最小欧式距离以及对应的手势序号。
(5)若当前为第11帧,按以上步骤的(2)、(3)、(4)进行处理,并把当前帧所获得的最小欧式距离与保存的最小欧式距离进行比较,保存两者中最小的欧式距离以及对应的手势序号。11帧的后续帧与第11帧的处理方法相同。
(6)若当前帧小于30帧则按照步骤(2)、(3)、(4)进行。
(7)若当前帧为第30帧,对最小欧式距离所对应的手势序号进行判断:为“0”,手势为“包袱”;为“1”,手势为“剪刀”;为“2”,手势为“1指”(竖大拇指);为“3”,手势为“ok”;为“4”,手势为“拳头”。
(8)识别结束,退出。
函数介绍
1.void IdentifyGesture(BYTE*CopyBuffer,int width,int height,intFraNO,double Model0[10][4],double Model 1[10][4],doubleModel2[10][4],double Model3[10][4],double Model4[10][4],doublesaveLastMin[2],double weight[4]);
函数功能:实现特征值欧式距离对比,获取最小特征值,输出识别结果。输入:手势图像的首地址CopyBuffer,手势图像的宽width、高height,帧数FraNO,手势包袱的特征值Model0[10][4],手势剪刀的特征值Model1[10][4],手势1指的特征值Model2[10][4],手势ok的特征值Model3[10][4],手势拳头的特征值Model4[10][4],保存最小的欧式距离和对应手势序号saveLastMin[2](saveLastMin[0]:最小的欧式距离,saveLastMin[1]:对应手势序号),权值weight[4]。
输出:以前帧的最小欧式距离和对应的手势序号saveLastMin[2],手势识别结果。
具体步骤:
①调用函数GetGestureFeature,求取当前帧图像的特征值。
②把求得的4个特征值与库里的50组特征值序列分别进行欧式距离比较,求出最小的欧氏距离,保存第10帧的最小欧式距离以及对应的手势序号。
③若当前为第11帧,把当前帧图像所获得的最小欧式距离与保存的最小欧式距离进行比较,保存两者中最小的欧式距离以及对应的手势序号。11帧的后续帧与第11帧的处理方法相同。
④若当前帧为第30帧,对最小欧式距离所对应的手势序号进行判断:为“0”,手势为“包袱”;为“1”,手势为“剪刀”;为“2”,手势为“1指”(竖大拇指);为“3”,手势为“ok”;为“4”,手势为“拳头”。
2.void GetGestureFeature(BYTE*pDib,int Width,int Height,intsortM,int sortN,double feature[4]);
函数功能:求取当前帧图像的四个特征值。
输入:手势图像的首地址pDib,手势图像的宽Width、高Height,M的值sortM,N的值sortN,当前帧图像的四个特征值feature[4]。
输出:当前帧图像的四个特征值。
具体步骤:
①求手势的重心。
②求手势的外接圆半径。
③求手势的所有边缘点。
④求手势轮廓上各点到重心的距离和手势轮廓上各点到重心的平均距离。
⑤求取特征值A。
⑥对手势轮廓上各点到重心的距离进行排序。
⑦求取特征值B、C、D。
3.int EdgeDetection(D2POINT edgepoint[],unsigned char*pDib,intWidth,int Height);
函数功能:求取边缘点的坐标和总个数。
输入:边缘点的结构体数组edgepoint[],手势图像的首地址pDib,手势图像的宽Width、高Height。
输出:边缘点的坐标和总个数。
具体步骤:
①图像的一行字节数。
②对图像的像素点从上到下,从左至右进行扫描。判断每个扫描点的B、G、R三基色。
③若当前点为黑色(背景点,手势上的点不为黑色),扫描下一个点。
④若当前点不为黑色(b!=0&&g!=0&&r!=0)(背景点,手势上的点不为黑色),对该点周围的8个点分别进行判断,若这8个点中有2到7个黑色点,则该点为手势边缘点,记录该点的坐标,边缘点个数+1。
⑤返回边缘点总个数。
以上所述仅是本专利的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本专利技术原理的前提下,还可以做出若干改进和替换,这些改进和替换也应视为本专利的保护范围。

Claims (3)

1.一种基于特征值的手势识别方法,其特征在于,包括以下步骤:
步骤1,构建手势对比库,选取m种手势,每种手势选取n幅手势图像,每幅手势图像对应关联一组模型数据,每组模型数据包括四个特征值F1、F2、F3、F4;
其中F1表示手势轮廓上各点到手势重心的平均距离除以手势外接圆半径的值,其计算公式为: F 1 = [ ( Σ i = 1 S ( x i - x 0 ) 2 + ( y i - y 0 ) 2 ) / S ] / R ;
F2表示手势轮廓上距离手势重心的M个最大距离平均值除以外接圆半径的值,其计算公式为: F 2 = [ ( Σ i = 1 M D i ) / M ] / R ;
F3表示手势轮廓上距离手势重心的N个最小距离平均值除以外接圆半径的值,其计 F 3 = [ ( Σ i = 1 N d i ) / N ] / R ;
F4表示手势轮廓上距离手势重心的M个最大距离之和与手势轮廓上距离手势重心的N个最小距离之和的差值除以外接圆半径的值,其计算公式为: F 4 = ( Σ i = 1 M D i - Σ i = 1 N d i ) / R ;
其中,(x0,y0)是手势重心位置坐标,Di、di表示手势轮廓上每个点到重心(x0,y0)的欧式距离,把S个欧式距离值按照由大到小排序,得到序列(D1,D2,…DM,…DS);R是手势外接圆半径;
步骤2,从视频流中连续选取K帧待识别手势图像,并采用与步骤1相同的方法实时计算出每帧被识别手势图像对应关联的四个特征值F1、F2、F3、F4,并将每帧被识别手势图像对应关联的四个特征值F1、F2、F3、F4保存在一个对比数组中;
步骤3,将步骤2中每帧待识别手势图像对应的对比数组分别与手势对比库内m*n幅手势图像对应的模型数据一一计算欧氏距离,每帧待识别手势图像对应得到m*n个欧氏距离,从中选出与该对比数组欧氏距离最小的一组模型数据,并记录该组模型数据对应存储在手势对比库的那幅手势图像以及该最小的欧氏距离;
步骤4,采用步骤3的方法,分别找出与K帧待识别手势图像对应的K个最小的欧氏距离,然后在这K个最小的欧氏距离中再选取一个最小的欧氏距离F,找出与该欧氏距离值F对应的模型数据,并最后将该模型数据对应存储在手势对比库的那张手势图像作为最终识别结果输出。
2.根据权利要求1所述基于特征值的手势识别方法,其特征在于:在步骤1中,m=5、n=10;即选取5种手势,每种手势选取10幅手势图像。
3.根据权利要求1所述基于特征值的手势识别方法,其特征在于:在步骤2中,从视频流的中第10帧开始直到第30帧结束,连续选取20帧待识别手势图像。
CN201510249327.7A 2015-05-15 2015-05-15 一种基于特征值的手势识别方法 Expired - Fee Related CN106295463B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510249327.7A CN106295463B (zh) 2015-05-15 2015-05-15 一种基于特征值的手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510249327.7A CN106295463B (zh) 2015-05-15 2015-05-15 一种基于特征值的手势识别方法

Publications (2)

Publication Number Publication Date
CN106295463A true CN106295463A (zh) 2017-01-04
CN106295463B CN106295463B (zh) 2019-05-07

Family

ID=57631350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510249327.7A Expired - Fee Related CN106295463B (zh) 2015-05-15 2015-05-15 一种基于特征值的手势识别方法

Country Status (1)

Country Link
CN (1) CN106295463B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120069168A1 (en) * 2010-09-17 2012-03-22 Sony Corporation Gesture recognition system for tv control
CN102467657A (zh) * 2010-11-16 2012-05-23 三星电子株式会社 手势识别系统和方法
CN103426000A (zh) * 2013-08-28 2013-12-04 天津大学 一种静态手势指尖检测方法
CN103455794A (zh) * 2013-08-23 2013-12-18 济南大学 一种基于帧融合技术的动态手势识别方法
CN104102904A (zh) * 2014-07-14 2014-10-15 济南大学 一种静态手势识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120069168A1 (en) * 2010-09-17 2012-03-22 Sony Corporation Gesture recognition system for tv control
CN102467657A (zh) * 2010-11-16 2012-05-23 三星电子株式会社 手势识别系统和方法
CN103455794A (zh) * 2013-08-23 2013-12-18 济南大学 一种基于帧融合技术的动态手势识别方法
CN103426000A (zh) * 2013-08-28 2013-12-04 天津大学 一种静态手势指尖检测方法
CN104102904A (zh) * 2014-07-14 2014-10-15 济南大学 一种静态手势识别方法

Also Published As

Publication number Publication date
CN106295463B (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN107038424B (zh) 一种手势识别方法
CN112766186B (zh) 一种基于多任务学习的实时人脸检测及头部姿态估计方法
CN103824089B (zh) 一种基于级联回归的人脸3d姿态识别方法
Li et al. Expression-robust 3D face recognition via weighted sparse representation of multi-scale and multi-component local normal patterns
Keskin et al. Randomized decision forests for static and dynamic hand shape classification
Feng et al. Depth-projection-map-based bag of contour fragments for robust hand gesture recognition
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN104299004B (zh) 一种基于多特征融合和指尖检测的手势识别方法
Weiyao et al. Human action recognition using multilevel depth motion maps
CN105574534A (zh) 基于稀疏子空间聚类和低秩表示的显著性目标检测方法
CN103679154A (zh) 基于深度图像的三维手势动作的识别方法
CN109034099A (zh) 一种表情识别方法及装置
CN103336835B (zh) 基于权值color‑sift特征字典的图像检索方法
CN103440035A (zh) 一种三维空间中的手势识别系统及其识别方法
Zheng et al. Static Hand Gesture Recognition Based on Gaussian Mixture Model and Partial Differential Equation.
Paul et al. Extraction of facial feature points using cumulative histogram
CN105975906B (zh) 一种基于面积特征的pca静态手势识别方法
Chen Research and application of chinese calligraphy character recognition algorithm based on image analysis
Lv et al. Rgb-d hand-held object recognition based on heterogeneous feature fusion
CN109977834A (zh) 从深度图像中分割人手与交互物体的方法和装置
Das et al. A fusion of appearance based CNNs and temporal evolution of skeleton with LSTM for daily living action recognition
Ji et al. Spatio-temporal cuboid pyramid for action recognition using depth motion sequences
CN110490210B (zh) 一种基于紧致通道间t采样差分的彩色纹理分类方法
Axyonov et al. Method of multi-modal video analysis of hand movements for automatic recognition of isolated signs of Russian sign language
Göçmen et al. Polygonized Silhouettes and Polygon Coding Based Feature Representation for Human Action Recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210128

Address after: Room 1608, 16 / F, building 2, Xinsheng building, northwest corner, intersection of Xinluo street and Yingxiu Road, Jinan area, China (Shandong) pilot Free Trade Zone, Jinan City, Shandong Province

Patentee after: Lingxinyun (Shandong) Intelligent Technology Co.,Ltd.

Address before: 250022 No. 336, South Xin Zhuang West Road, Shizhong District, Ji'nan, Shandong

Patentee before: University of Jinan

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190507

CF01 Termination of patent right due to non-payment of annual fee