CN114792443A - 一种基于图像识别的智能设备手势识别控制方法 - Google Patents

一种基于图像识别的智能设备手势识别控制方法 Download PDF

Info

Publication number
CN114792443A
CN114792443A CN202210440398.5A CN202210440398A CN114792443A CN 114792443 A CN114792443 A CN 114792443A CN 202210440398 A CN202210440398 A CN 202210440398A CN 114792443 A CN114792443 A CN 114792443A
Authority
CN
China
Prior art keywords
hand
gesture
user
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210440398.5A
Other languages
English (en)
Inventor
沙志清
朱毅
毕易
戴悦
纪正一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou University
Original Assignee
Yangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou University filed Critical Yangzhou University
Priority to CN202210440398.5A priority Critical patent/CN114792443A/zh
Publication of CN114792443A publication Critical patent/CN114792443A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像识别的智能设备手势识别控制方法,包括:1)通过摄像头捕捉用户图像,基于OpenCV2对用户身份及手部大致位置进行识别;2)对手部矩形部分的图像信息进行灰度化、二值化操作,求手部图形的中心距判断掌心位置,采用CNN模型对手部关键点位置坐标分析;3)将步骤2)中得到的手部关键点位置坐标,通过计算其二维角度关系和其他运动信息,用余弦相似度的方法与用户预设的操作手势进行比较判断,实现手势分析;4)根据分析得到的手势,依据用户设置的控制逻辑向设备发送控制指令,完成通过手势隔空操作设备。本发明使用神经网络识别手部位置和姿态,引入对手势的归纳分析,通过识别结果对智能设备进行快捷控制。

Description

一种基于图像识别的智能设备手势识别控制方法
技术领域
本发明涉及设备技术领域,特别涉及一种基于图像识别的智能设备手势识别控制方法。
背景技术
目前的智能设备的输入方式主要为键鼠和触摸屏输入,传统的输入设备在某些情况下可能并不适用,如受距离限制或者手上有水或其他脏污等。而现有的手势识别控制主要通过探测传感器来识别用户手部的运动轨迹,进行相关分析并进行操作信号的输出,此方法只能对简单的轨迹进行识别,而不能对用户具体的手部姿势进行分析和反馈。
当前已有的可以对具体手势进行识别的方法多为通过模式识别来对手势进行分类,通过提取手势的表观特征建立决策树模型,对手势进行识别分析;或是利用3D建模的方法进行模拟对比,如果添加新的手势都需要重新训练模型,难以修改功能。
智能设备越来越普及的当下,人机交互是不可忽略的日常场景。传统的输入设备在某些情况下可能并不适用,如触摸屏交互会受距离限制或者手上有水或其他脏污等情况的影响。
发明内容
本发明的目的是提供一种基于图像识别的智能设备手势识别控制方法,使用神经网络识别手部位置和姿态,引入对手势的归纳分析,通过识别结果对智能设备进行快捷控制。
本发明的目的是这样实现的:一种基于图像识别的智能设备手势识别控制方法,包括以下步骤:
步骤1)通过摄像头捕捉用户图像,基于OpenCV2对用户身份及手部大致位置进行识别;
步骤2)对手部矩形部分的图像信息进行灰度化、二值化操作,求手部图形的中心距判断掌心位置,采用CNN模型对手部关键点位置坐标分析;
步骤3)将步骤2)中得到的手部关键点位置坐标,通过计算其二维角度关系和其他运动信息,用余弦相似度的方法与用户预设的操作手势进行比较判断,实现手势分析;
步骤4)根据分析得到的手势,依据用户设置的控制逻辑向设备发送控制指令,完成通过手势隔空操作设备。
作为本发明的进一步限定,所述步骤1)具体包括:
步骤1.1)使用者通过摄像头进行人脸图像采集,通过人脸识别模型判断使用者身份;若检测到使用者为授权用户,执行步骤1.2);
步骤1.2)基于OpenCV2利用mediapipe模型,定义一个hand函数对输入图像进行初步分割,得到使用者的手部矩形的位置信息;其中获得的手部矩形位置信息为:矩形左上角坐标landmarks(x,y),矩形大小shape(width,height)。
作为本发明的进一步限定,所述步骤2)具体包括:
步骤2.1)将步骤1.2)手部矩形的原图像进行切割,通过视觉心理学公式(1)进行灰度化处理;
G(x,y)=r(x,y)*299+g(x,y)*587+b(x,y)*114/1000 (1)
步骤2.2)通过阈值分割法将该部分图像width×height的像素信息进行二值化,得到只由0,255灰阶组成的二维矩阵Mw,h
其中切割阈值使用Renyi熵计算公式(2)进行计算:
Figure BDA0003613725510000031
Figure BDA0003613725510000032
K=argmax(HA(k)+HB(k)) (2)
K为二值化的切割阈值,二值化的方法见公式(3);
Figure BDA0003613725510000033
步骤2.3)对于步骤2.2)得到的二值化矩阵Mw,h,取其中面积最大的值为0的区域,其0阶矩表示为m00=∫∫f(x,y)dxdy;通过公式(4)计算中心矩来预测掌心位置坐标[locate_x,locate_y];
m10=∑xyxf(x,y)
Figure BDA0003613725510000034
Figure BDA0003613725510000035
步骤2.4)使用CNN训练具体手势识别的模型,手势图片经过处理得到的灰度信息矩阵作为网络模型的输入,通过公式(5)进行卷积运算得到特征矩阵图;
Figure BDA0003613725510000036
其中x(n)是激励信号,h(n)是单位样值响应,*表示求卷积;卷积层后选择RELU函数,从而引入非线性特征,接着采用平均池化的方法减少训练的参数量,最后通过全连接层得到结果
Figure BDA0003613725510000037
其中p(y=j|x;θ)表示输出y分类的j的概率,θ为网络参数,x为特征向量;
步骤2.5)训练结束后的模型参数保存,对测试数据集进行测试,对于所有的测试数据,当测试准确率达到95%以上则可留待使用;
步骤2.6)使用步骤2.4)中得到的手势识别模型参数,加载tensorflow中的网络模型,得到此时输入图像中的手部关键点坐标。
作为本发明的进一步限定,所述步骤3)具体包括:
步骤3.1)将步骤2.6)中得到的手部关键点位置坐标进行二维分析,利用公式(6)通过向量关系求出各点连线之间的夹角,用角度关系来表示手部姿势的二维特征,计算得到手指弯曲角度以及相邻手指间隔角度;
Figure BDA0003613725510000041
步骤3.2)预定义各类手势对应的二维特征,通过将手指弯曲角度以及相邻手指间夹角角度与预设的姿势信息进行对比,分析得到图像中的静态手部姿势;
步骤3.3)将步骤3.2)得到的手势姿势和步骤2.3)得到的掌心位置坐标作为一组数据,对两秒内的识别数据进行周期性分析,得到手部姿势、掌心位置偏移方向、偏移量、移动速度;
步骤3.4)根据识别得到的手部区域大小估计用户手部与摄像头的距离,对得到掌心位置偏移方向、偏移量、移动速度进行标准化,得到最终的判断向量;利用余弦相似度的计算方法,如公式(8)所示,求判断向量与预设的各种操作手势的标准向量之间的相似度,判断具体的动态手势或组合手势;其中A,B分别为判断向量和标准向量,其分量的值Ai,Bi分别为各参数与权重的乘积,其中静态手势gesture与标准向量中的值相同则取1,否则取0;
Figure BDA0003613725510000042
作为本发明的进一步限定,所述步骤4)具体包括:控制信号输出,完成通过手势隔空操作设备;根据步骤3.4)中得到的手势进行对应的操作,根据不同操作系统所提供的交互接口,直接对智能设备发出相对的控制指令。
作为本发明的进一步限定,步骤3.2)中所述的通过将手指弯曲角度以及相邻手指间夹角角度与预设的姿势信息进行对比具体为:将步骤3.1)得到一组手指弯曲角度和手指间隔角度合并为维度为9的向量An=(xn1,xn2,xn3,……,xn9),计算其欧式距离,向量A1和A2之间的欧式距离计算方法见公式(7):
Figure BDA0003613725510000051
摄像头识别的手势特征与所有预定义的手势对比结束后,选择欧式距离最小且不大于置信阈值的手势作为判断结果gesture,其中的置信阈值根据用户设置的识别灵敏度进行判断。
本发明采用以上技术方案,与现有技术相比,有益效果为:本发明将图像识别和设备控制相结合,首先通过摄像头采集的图像信息,利用基于神经网络的分割模型对手部区域进行分割,追踪手部的位置以及图像信息,以便进一步识别手势使用。在此基础上识别出手部每一处关键点的具体坐标,通过分析得到的手部关键点信息的二维特征对手部姿势进行识别归纳,与预定义的姿势信息的比较来确定用户手部的姿势,并对设备进行对应的操作,该方法具有较高的精度以及自定义空间,有广泛的使用场景。
附图说明
图1本发明流程示意图。
图2本发明中手势控制反馈截图。
图3本发明中手部二维特征角度示意图。
具体实施方式
如图1所示的一种基于图像识别的智能设备手势识别控制方法,包括以下步骤:
步骤1)通过摄像头捕捉用户图像,基于OpenCV2对用户身份及手部大致位置进行识别;
步骤1.1)使用者通过摄像头进行人脸图像采集,通过人脸识别模型判断使用者身份;若检测到使用者为授权用户,执行步骤1.2);
步骤1.2)基于OpenCV2利用mediapipe模型,定义一个hand函数对输入图像进行初步分割,得到使用者的手部矩形位置信息;
其中获得的手部矩形位置信息为:
矩形左上角坐标landmarks(x,y)
矩形大小shape(width,height)
步骤2)对手部矩形部分的图像信息进行灰度化、二值化操作,求手部图形的中心距判断掌心位置,采用CNN模型对手部关键点位置坐标分析;
步骤2.1)将步骤1.2)手部矩形的原图像进行切割,通过视觉心理学公式(1)进行灰度化处理;
G(x,y)=r(x,y)*299+g(x,y)*587+b(x,y)*114/1000 (1)
步骤2.2)通过阈值分割法将该部分图像width×height的像素信息进行二值化,得到只由0,255灰阶组成的二维矩阵Mw,h
其中切割阈值使用Renyi熵计算公式(2)进行计算:
Figure BDA0003613725510000061
Figure BDA0003613725510000062
K=argmax(HA(k)+HB(k)) (2)
K为二值化的切割阈值,二值化的方法见公式(3)。
Figure BDA0003613725510000071
步骤2.3)对于步骤2.2)得到的二值化矩阵Mw,h,取其中面积最大的值为0的区域,其0阶矩表示为m00=∫∫f(x,y)dxdy;由于图像的中心矩是一种具有平移、旋转不变性的图像特征,因此通过公式(4)计算中心矩来预测掌心位置坐标[locate_x,locate_y];
m10=∑xyxf(x,y)
Figure BDA0003613725510000072
Figure BDA0003613725510000073
步骤2.4)使用CNN训练具体手势识别的模型,手势图片经过处理得到的灰度信息矩阵作为网络模型的输入,通过公式(5)进行卷积运算得到特征矩阵图
Figure BDA0003613725510000074
其中fxy表示(x,y)位置的值,b为偏置量,
Figure BDA0003613725510000077
为c通道的卷积核在(p,q)位置的数值。卷积层后选择RELU函数,从而引入非线性特征,接着采用平均池化的方法减少训练的参数量,最后通过全连接层得到结果
Figure BDA0003613725510000075
其中p(y=j|x;θ)表示输出y分类的j的概率,θ为网络参数,x为特征向量;
Figure BDA0003613725510000076
其中x(n)是激励信号,h(n)是单位样值响应,*表示求卷积。
步骤2.5)训练结束后的模型参数保存,对测试数据集进行测试,对于所有的测试数据,当测试准确率达到95%以上则可留待使用;
步骤2.6)使用步骤2.4)中得到的手势识别模型参数,加载tensorflow中的网络模型,得到此时输入图像中的手部关键点坐标。
步骤3)将步骤2)中得到的手部关键点位置坐标,通过计算其二维角度关系和其他运动信息,用余弦相似度的方法与用户预设的操作手势进行比较判断,实现手势分析;
步骤3.1)将步骤2.6)中得到的手部关键点位置坐标进行二维分析,利用公式(6)通过向量关系求出各点连线之间的夹角,用角度关系来表示手部姿势的二维特征,计算得到手指弯曲角度以及相邻手指间夹角角度(即手指间隔角度)
Figure BDA0003613725510000081
其中手指弯曲角度finger_angle有5个值,分别对应从拇指到小指的五根手指在靠指尖第二指关节处的弯曲角度;手指间隔角度interfinger_angle有4个值,分别对应相邻两根手指以叉开处为顶点形成的角度,如图3所示。
步骤3.2)预定义各类手势对应的二维特征,通过将手指弯曲角度以及相邻手指间夹角角度与预设的姿势信息进行对比,分析得到图像中的静态手部姿势;
例如图3中的手势“比2”,若预定义其对应的二维特征为:
finger_angle≈[100°,180°,180°,30°,30°]
interfinger_angle≈[-45°,30°,0°,0°]
此时将步骤3.1)得到的此时摄像头拍摄并识别得到的finger_angle和interfinger_angle与定义的手势进行对比,对比方式为:将一组finger_angle和interfinger_angle合并为维度为9的向量An=(xn1,xn2,xn3,……,xn9),计算其欧式距离。向量A1和A2之间的欧式距离计算方法见公式(7)
Figure BDA0003613725510000091
摄像头识别的手势特征与所有预定义的手势对比结束后,选择欧式距离最小且不大于置信阈值的手势作为判断结果gesture;其中的置信阈值根据用户设置的识别灵敏度进行判断。
步骤3.3)将[gesture,[locate_x,locate_y]](其中gesture为步骤3.2)得到的手势姿势,[locate_x,locate_y]为步骤2.3)得到的掌心位置坐标作为一组数据,对2秒内的识别数据进行周期性分析,得到手部姿势、掌心位置偏移方向、偏移量、移动速度;
若用户A时刻t1的手势姿势采集数据为[NULL,[x1,y1]],下一次的手势姿势采集数据在t2时刻为[gesture_id_7,[x2,y2]],则可以知道用户A在此时做出了ID为7的手势姿势,且手部位移在二维平面上的投射为(x2-x1,y2-y1),偏移量为
Figure BDA0003613725510000092
移动速度v=d/(t2-t1)。
步骤3.4)根据识别得到的手部区域大小估计用户手部与摄像头的距离,对得到掌心位置偏移方向、偏移量、移动速度进行标准化,得到最终的判断向量。利用余弦相似度的计算方法,见公式(8),求判断向量与预设的各种操作手势的标准向量之间的相似度,判断具体的动态手势或组合手势。其中A,B分别为判断向量和标准向量,其分量的值Ai,Bi分别为各参数与权重的乘积,其中静态手势gesture与标准向量中的值相同则取1,否则取0。
Figure BDA0003613725510000093
步骤4)根据分析得到的手势,依据用户设置的控制逻辑向设备发送控制指令,完成通过手势隔空操作设备,如图2所示;
根据步骤3.4)中得到的手势进行对应的操作,根据不同操作系统所提供的交互接口,直接对智能设备发出相对的控制指令;
例如,当用户A在计算机设备上预先设置了比出“2”手势同时手向左挥动即为关机操作,比出“OK”手势即为确认关机操作。此时程序识别到用户比出“2”手势同时手向左挥动,开始等待下一步操作,若在等待时间内识别到“OK”手势,则通过计算机指令执行关机操作;否则退出此次识别操作。
本发明采用的是图像识别技术,具有很高的识别精度,可以对每一根手指的动作进行识别辨认,具备复杂手势的识别能力,且本发明可以对视频流进行识别,可以识别动态的手势变化。该方法可以在多种不同平台实现,由于采用了先转化二维角度信息再进一步判断的方法,可以任意定义具体的手势以及对应的操作而无需重新训练模型,具有广泛的应用前景,可以嵌入到各种智能设备中。
本发明并不局限于上述实施例,在本发明公开的技术方案的基础上,本领域的技术人员根据所公开的技术内容,不需要创造性的劳动就可以对其中的一些技术特征作出一些替换和变形,这些替换和变形均在本发明的保护范围内。

Claims (6)

1.一种基于图像识别的智能设备手势识别控制方法,其特征在于,包括以下步骤:
步骤1)通过摄像头捕捉用户图像,基于OpenCV2对用户身份及手部大致位置进行识别;
步骤2)对手部矩形部分的图像信息进行灰度化、二值化操作,求手部图形的中心距判断掌心位置,采用CNN模型对手部关键点位置坐标分析;
步骤3)将步骤2)中得到的手部关键点位置坐标,通过计算其二维角度关系和其他运动信息,用余弦相似度的方法与用户预设的操作手势进行比较判断,实现手势分析;
步骤4)根据分析得到的手势,依据用户设置的控制逻辑向设备发送控制指令,完成通过手势隔空操作设备。
2.根据权利要求1所述的一种基于图像识别的智能设备手势识别控制方法,其特征在于,所述步骤1)具体包括:
步骤1.1)使用者通过摄像头进行人脸图像采集,通过人脸识别模型判断使用者身份;若检测到使用者为授权用户,执行步骤1.2);
步骤1.2)基于OpenCV2利用mediapipe模型,定义一个hand函数对输入图像进行初步分割,得到使用者的手部矩形的位置信息;其中获得的手部矩形位置信息为:矩形左上角坐标landmarks(x,y),矩形大小shape(width,height)。
3.根据权利要求2所述的一种基于图像识别的智能设备手势识别控制方法,其特征在于,所述步骤2)具体包括:
步骤2.1)将步骤1.2)手部矩形的原图像进行切割,通过视觉心理学公式(1)进行灰度化处理;
G(x,y)=r(x,y)*299+g(x,y)*587+b(x,y)*114/1000 (1)
步骤2.2)通过阈值分割法将该部分图像width×height的像素信息进行二值化,得到只由0,255灰阶组成的二维矩阵Mw,h
其中切割阈值使用Renyi熵计算公式(2)进行计算:
Figure FDA0003613725500000021
Figure FDA0003613725500000022
K=argmax(HA(k)+HB(k)) (2)
K为二值化的切割阈值,二值化的方法见公式(3);
Figure FDA0003613725500000023
步骤2.3)对于步骤2.2)得到的二值化矩阵Mw,h,取其中面积最大的值为0的区域,其0阶矩表示为m00=∫∫f(x,y)dxdy;通过公式(4)计算中心矩来预测掌心位置坐标[locate_x,locate_y];
m10=∑xyxf(x,y)
Figure FDA0003613725500000024
Figure FDA0003613725500000025
步骤2.4)使用CNN训练具体手势识别的模型,手势图片经过处理得到的灰度信息矩阵作为网络模型的输入,通过公式(5)进行卷积运算得到特征矩阵图;
Figure FDA0003613725500000026
其中x(n)是激励信号,h(n)是单位样值响应,*表示求卷积;卷积层后选择RELU函数,从而引入非线性特征,接着采用平均池化的方法减少训练的参数量,最后通过全连接层得到结果
Figure FDA0003613725500000031
其中p(y=j|x;θ)表示输出y分类的j的概率,θ为网络参数,x为特征向量;
步骤2.5)训练结束后的模型参数保存,对测试数据集进行测试,对于所有的测试数据,当测试准确率达到95%以上则可留待使用;
步骤2.6)使用步骤2.4)中得到的手势识别模型参数,加载tensorflow中的网络模型,得到此时输入图像中的手部关键点坐标。
4.根据权利要求3所述的一种基于图像识别的智能设备手势识别控制方法,其特征在于,所述步骤3)具体包括:
步骤3.1)将步骤2.6)中得到的手部关键点位置坐标进行二维分析,利用公式(6)通过向量关系求出各点连线之间的夹角,用角度关系来表示手部姿势的二维特征,计算得到手指弯曲角度以及相邻手指间隔角度;
Figure FDA0003613725500000032
步骤3.2)预定义各类手势对应的二维特征,通过将手指弯曲角度以及相邻手指间夹角角度与预设的姿势信息进行对比,分析得到图像中的静态手部姿势;
步骤3.3)将步骤3.2)得到的手势姿势和步骤2.3)得到的掌心位置坐标作为一组数据,对两秒内的识别数据进行周期性分析,得到手部姿势、掌心位置偏移方向、偏移量、移动速度;
步骤3.4)根据识别得到的手部区域大小估计用户手部与摄像头的距离,对得到掌心位置偏移方向、偏移量、移动速度进行标准化,得到最终的判断向量;利用余弦相似度的计算方法,如公式(8)所示,求判断向量与预设的各种操作手势的标准向量之间的相似度,判断具体的动态手势或组合手势;其中A,B分别为判断向量和标准向量,其分量的值Ai,Bi分别为各参数与权重的乘积,其中静态手势gesture与标准向量中的值相同则取1,否则取0;
Figure FDA0003613725500000041
5.根据权利要求4所述的一种基于图像识别的智能设备手势识别控制方法,其特征在于,所述步骤4)具体包括:控制信号输出,完成通过手势隔空操作设备;根据步骤3.4)中得到的手势进行对应的操作,根据不同操作系统所提供的交互接口,直接对智能设备发出相对的控制指令。
6.根据权利要求4所述的一种基于图像识别的智能设备手势识别控制方法,其特征在于,步骤3.2)中所述的通过将手指弯曲角度以及相邻手指间夹角角度与预设的姿势信息进行对比具体为:将步骤3.1)得到一组手指弯曲角度和手指间隔角度合并为维度为9的向量An=(xn1,xn2,xn3,......,xn9),计算其欧式距离,向量A1和A2之间的欧式距离计算方法见公式(7):
Figure FDA0003613725500000042
摄像头识别的手势特征与所有预定义的手势对比结束后,选择欧式距离最小且不大于置信阈值的手势作为判断结果gesture,其中的置信阈值根据用户设置的识别灵敏度进行判断。
CN202210440398.5A 2022-04-25 2022-04-25 一种基于图像识别的智能设备手势识别控制方法 Pending CN114792443A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210440398.5A CN114792443A (zh) 2022-04-25 2022-04-25 一种基于图像识别的智能设备手势识别控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210440398.5A CN114792443A (zh) 2022-04-25 2022-04-25 一种基于图像识别的智能设备手势识别控制方法

Publications (1)

Publication Number Publication Date
CN114792443A true CN114792443A (zh) 2022-07-26

Family

ID=82462474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210440398.5A Pending CN114792443A (zh) 2022-04-25 2022-04-25 一种基于图像识别的智能设备手势识别控制方法

Country Status (1)

Country Link
CN (1) CN114792443A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116360603A (zh) * 2023-05-29 2023-06-30 中数元宇数字科技(上海)有限公司 基于时序信号匹配的交互方法、设备、介质及程序产品
CN116466828A (zh) * 2023-06-19 2023-07-21 无锡车联天下信息技术有限公司 一种智能座舱驾驶环境手势智能检测方法
CN116597473A (zh) * 2023-05-16 2023-08-15 南京莱医特电子科技有限公司 手势识别方法、装置、设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116597473A (zh) * 2023-05-16 2023-08-15 南京莱医特电子科技有限公司 手势识别方法、装置、设备及存储介质
CN116597473B (zh) * 2023-05-16 2024-01-26 南京莱医特电子科技有限公司 手势识别方法、装置、设备及存储介质
CN116360603A (zh) * 2023-05-29 2023-06-30 中数元宇数字科技(上海)有限公司 基于时序信号匹配的交互方法、设备、介质及程序产品
CN116466828A (zh) * 2023-06-19 2023-07-21 无锡车联天下信息技术有限公司 一种智能座舱驾驶环境手势智能检测方法
CN116466828B (zh) * 2023-06-19 2023-08-18 无锡车联天下信息技术有限公司 一种智能座舱驾驶环境手势智能检测方法

Similar Documents

Publication Publication Date Title
Chen et al. Repetitive assembly action recognition based on object detection and pose estimation
Gurav et al. Real time finger tracking and contour detection for gesture recognition using OpenCV
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
Oka et al. Real-time fingertip tracking and gesture recognition
CN114792443A (zh) 一种基于图像识别的智能设备手势识别控制方法
Ibraheem et al. Survey on various gesture recognition technologies and techniques
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
JP6360050B2 (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
CN111680594B (zh) 一种基于手势识别的增强现实交互方法
CN108845668B (zh) 人机交互系统和方法
Yang et al. Gesture recognition using depth-based hand tracking for contactless controller application
CN112507918A (zh) 一种手势识别方法
CN107346207B (zh) 一种基于隐马尔科夫模型的动态手势切分识别方法
Wang et al. A new hand gesture recognition algorithm based on joint color-depth superpixel earth mover's distance
Choudhury et al. A CNN-LSTM based ensemble framework for in-air handwritten Assamese character recognition
Hoque et al. Computer vision based gesture recognition for desktop object manipulation
JP4697718B2 (ja) 画像識別装置及び画像識別方法
Zaliva 3D finger posture detection and gesture recognition on touch surfaces
Jian et al. RD-Hand: a real-time regression-based detector for dynamic hand gesture
Cao et al. Real-time dynamic gesture recognition and hand servo tracking using PTZ camera
Achari et al. Gesture based wireless control of robotic hand using image processing
Holden et al. Recognising moving hand shapes
US20220050528A1 (en) Electronic device for simulating a mouse
Pradhan et al. Design of intangible interface for mouseless computer handling using hand gestures
Shitole et al. Dynamic hand gesture recognition using PCA, Pruning and ANN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination