CN110032270B - 一种基于手势识别的人机交互方法 - Google Patents

一种基于手势识别的人机交互方法 Download PDF

Info

Publication number
CN110032270B
CN110032270B CN201810030997.3A CN201810030997A CN110032270B CN 110032270 B CN110032270 B CN 110032270B CN 201810030997 A CN201810030997 A CN 201810030997A CN 110032270 B CN110032270 B CN 110032270B
Authority
CN
China
Prior art keywords
gesture
hand
information
feature
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810030997.3A
Other languages
English (en)
Other versions
CN110032270A (zh
Inventor
华春生
陈博
颜培轮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Institute of Automation of CAS
Original Assignee
Shenyang Institute of Automation of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Institute of Automation of CAS filed Critical Shenyang Institute of Automation of CAS
Priority to CN201810030997.3A priority Critical patent/CN110032270B/zh
Publication of CN110032270A publication Critical patent/CN110032270A/zh
Application granted granted Critical
Publication of CN110032270B publication Critical patent/CN110032270B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于手势识别的人机交互方法,人体CT对人体进行扫描,生成具有三维点云数据的三维人体模型;根据手部HSV信息和手部特征信息建立个人特征库;操作中,采集当前手势图像,采用多特征分层滤波算法识别当前手势信息,并将手势信息进行编码,输出编码信号控制三维人体模型动作。本发明局部建模可以更有针对性,同时可以减少硬件资源的耗费,提升系统的运行效率;采用了实时特征预提取与训练技术,在保证实时性的同时使手势正确识别率达到了99%以上,满足了手势控制手术辅助系统实时性与安全性的需求,同时还使该系统具备了个性化手势定制功能。

Description

一种基于手势识别的人机交互方法
技术领域
本发明涉及计算机视觉和人工智能领域,具体地说是一种基于手势识别的人机交互方法。
背景技术
手势是人与人之间非语言交流的最重要方式,若把手势交互运用到手术辅助导航系统控制上,可使系统与人更方便自然地交互。二者紧密协调,有利于人机共融的实现。手势识别是人与机器人手势交互的重要组成部分,手势识别的准确性和快速性直接影响人与机器人交互的准确性、流畅性和自然性。基于视觉的手势交互,用户无需穿戴设备,具有交互方便、表达丰富和交互自然的优点,符合人机自然交互的大趋势,适用范围广。
然而目前的手术辅助系统在交互方式还是传统的触摸和键盘鼠标等接触式人机交互方式。这种基于接触式设备的控制方式对医生而言并非是一种符合人类本能习惯的交互方式,并且接触式的交互不能保证医生的无菌操作;但如果发明一种符合人类自然交互习惯的、通过手势对无人机进行操控的技术,则这将是迈向更自然的人机交互的一大步。并且,这种可靠性高、实时性好的手势识别在人机协作领域中,应用前景广泛。
发明内容
针对现有技术的不足,本发明提供一种基于手势识别的人机交互方法。
本发明为实现上述目的所采用的技术方案是:
一种基于手势识别的人机交互方法,包括以下步骤:
步骤1:人体CT对人体进行扫描,生成具有三维点云数据的三维人体模型;
步骤2:操作前,根据手部HSV信息和手部特征信息建立个人特征库;
步骤3:操作中,采集当前手势图像,采用多特征分层滤波算法识别当前手势信息,并将手势信息进行编码,输出编码信号控制三维人体模型动作。
根据手部HSV信息建立个人特征库包括以下过程:
步骤1:分别获取多帧图像的HSV信息;
步骤2:计算HSV信息的均值和方差;
步骤3:根据HSV信息的均值和方差获取ROI区域的HSV空间,并将ROI区域的HSV空间存储在个人特征库。
根据手部特征信息建立个人特征库包括以下过程:
步骤1:根据ROI区域的HSV空间提取每帧图像的手部区域;
步骤2:对每帧图像的手部区域进行二值化,获取每帧图像的手部区域的二值图像;
步骤3:提取二值图像的手部特征信息;
步骤4:计算手部特征信息的均值和方差,并将手部特征信息的均值和方差存储在个人特征库。
所述提取二值图像的手部特征信息包括以下过程:
步骤1:对手部区域的二值图像进行meanshift聚类,得到聚类中心区域;
步骤2:对聚类中心区域利用PCA主成分分析法,得到手掌的横宽比θ1,以及偏转角度θ2
步骤3:对聚类中心区域同时进行凸包性分析,将手部各顶点连线,得到手部的凸多边形面积S1和手部二值图高亮面积S2,将二者相除,得到手部凸包性参数θ3=S1/S2。
所述采用多特征分层滤波算法识别当前手势信息包括以下过程:
根据个人特征库存储的ROI区域的HSV空间对当前手势图像进行分割,获取手部特征信息θi,并带入公式(1)、(2)获得当前手势图像与个人特征库中第n个手势的相似概率权重ρn,如果ρn=0,则表示当前手势是未知手势,否则,ρn最大时对应的序号n为识别出的个人特征库中第n个手势的序号;
Figure BDA0001546455740000031
ρn=ρn1×ρn2×ρn3 (2)
其中,μni和δni分别是个人特征库中样本手势n的第i个特征的均值和方差,θi是当前手势的第i个特征,ρni为当前手势图像与个人特征库中第n个手势第i个特征的相似权重;ρn为当前手势图像与个人特征库中第n个手势的相似概率权重;i=1,2,3分别对应手部形状、手部旋转角度、手部凸包性。
本发明具有以下有益效果及优点:
1.本发明实时将用于人机交互的手势信息进行编码,每种特定的手势信号对应控制三维人体模型执行一种动作。可以让医生无接触的操作三维人体模型显示,并在手术过程中允许对病人病灶的三维模型360度无死角观测,大的方便了医生手术时对模型的操作,也是对病人健康的一种负责;
2.本发明病人人体模型的获取创新性地使用3Dslicer软件,基于病人CTA数据对人体局部建模并openGL显示,局部建模可以更有针对性,同时可以减少硬件资源的耗费,提升系统的运行效率,避免模型太大,而降低系统的工作效率;
3.本发明采用了实时特征预提取与训练技术,在保证实时性的同时使手势正确识别率达到了99%以上,满足了手势控制手术辅助系统实时性与安全性的需求,同时还使该系统具备了个性化手势定制功能。
附图说明
图1是本发明的方法流程图;
图2是本发明的手势静态识别工作流程图;
图3是本发明的手势特征与手势信息对照图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明。
如图1所示为本发明的方法流程图。
本发明方法从功能上看主要分为两大大功能:1)三维人体模型实时显示、2)手势信号的识别与对显示系统的手势控制编码;
其中人体模型建模的工作包括操作前获取人体CT数据转换成的点云数据利用openGL显示出来;
1.人体模型的建立及实时显示
首先获得患者医疗CTA图片数据,使用3D Slicer打开数据,并建立三维人体模型导出点云数据,然后将点云数据使用openMesh载入,在openGL显示窗口中显示。CTA扫描数据建立三维模型、点云数据导出、openGL显示三维模型。
2.手术过程中通过手势与手术辅助导航系统进行人机交互。
如图2所示为本发明的手势静态识别工作流程图。
步骤2.1:分别获取多帧图像的HSV信息,
步骤2.2:计算HSV信息的均值和方差,
步骤2.3:根据HSV信息的均值和方差获取ROI区域的HSV空间,并将ROI区域的HSV空间存储在个人特征库;
步骤2.4:根据ROI区域的HSV空间提取每帧图像的手部区域;
步骤2.5:获取每帧图像的手部区域的二值图像,
步骤2.6:分别计算每帧图像的二值图像的手部特征信息、并计算手部特征信息的均值和方差;
步骤2.7:将手部特征信息的均值和方差存储在个人特征库;
步骤2.8:操作中利用相机采集当前手势图像,采用多特征分层滤波算法处理并识别当前手势;实时将手势信息进行编码,每种特定的手势信号对应控制三维人体模型执行一种动作,如图3所示为本发明的手势特征与手势信息对照图。例如放大缩小,左旋转、右旋转;将编码发送给openGL模型控制信号输入口,使模型执行动作。共使用竖掌、横掌、竖刀、横刀四种手势,左右手组合后共有12种编码组合方式,本处只使用了7种编码组合方式。分别为左竖掌右竖刀对应三维模型绕x轴顺时针旋转、左竖掌右竖掌使得模型绕x轴逆时针旋转、左横掌右竖掌使模型放大,左横掌右竖刀使模型缩小、左横掌右横刀使模型绕y轴顺时针旋转、左横掌右横掌使模型绕y轴逆时针旋转、左竖刀右竖掌使模型停止动作。
本系统从功能上分为两大部分,分别为病人人体模型的获取与显示和通过智能手势识别的人机交互。
1.其中病人人体模型的获取创新性地使用3Dslicer软件,基于病人CTA数据对人体局部建模并openGL显示,局部建模可以更有针对性,同时可以减少硬件资源的耗费,提升系统的运行效率,避免模型太大,而降低系统的工作效率。
2.其中视觉手势识别模块创新性地采用了实时特征预提取与训练技术,在保证实时性的同时使手势正确识别率达到了99%以上,满足了手势控制手术辅助系统实时性与安全性的需求,同时还使该系统具备了个性化手势定制功能。

Claims (4)

1.一种基于手势识别的人机交互方法,其特征在于:包括以下步骤:
步骤1:人体CT对人体进行扫描,生成具有三维点云数据的三维人体模型;
步骤2:操作前,根据手部HSV信息和手部特征信息建立个人特征库;
步骤3:操作中,采集当前手势图像,采用多特征分层滤波算法识别当前手势信息,并将手势信息进行编码,输出编码信号控制三维人体模型动作;
所述采用多特征分层滤波算法识别当前手势信息包括以下过程:
根据个人特征库存储的ROI区域的HSV空间对当前手势图像进行分割,获取手部特征信息θi,并带入公式(1)、(2)获得当前手势图像与个人特征库中第n个手势的相似概率权重ρn,如果ρn=0,则表示当前手势是未知手势,否则,ρn最大时对应的序号n为识别出的个人特征库中第n个手势的序号;
Figure FDA0002381366130000011
ρn=ρn1×ρn2×ρn3 (2)
其中,μni和δni分别是个人特征库中样本手势n的第i个特征的均值和方差,θi是当前手势的第i个特征,ρni为当前手势图像与个人特征库中第n个手势第i个特征的相似权重;ρn为当前手势图像与个人特征库中第n个手势的相似概率权重;i=1,2,3分别对应手部形状、手部旋转角度、手部凸包性。
2.根据权利要求1所述的基于手势识别的人机交互方法,其特征在于:根据手部HSV信息建立个人特征库包括以下过程:
步骤1:分别获取多帧图像的HSV信息;
步骤2:计算HSV信息的均值和方差;
步骤3:根据HSV信息的均值和方差获取ROI区域的HSV空间,并将ROI区域的HSV空间存储在个人特征库。
3.根据权利要求1所述的基于手势识别的人机交互方法,其特征在于:根据手部特征信息建立个人特征库包括以下过程:
步骤1:根据ROI区域的HSV空间提取每帧图像的手部区域;
步骤2:对每帧图像的手部区域进行二值化,获取每帧图像的手部区域的二值图像;
步骤3:提取二值图像的手部特征信息;
步骤4:计算手部特征信息的均值和方差,并将手部特征信息的均值和方差存储在个人特征库。
4.根据权利要求3所述的基于手势识别的人机交互方法,其特征在于:所述提取二值图像的手部特征信息包括以下过程:
步骤1:对手部区域的二值图像进行meanshift聚类,得到聚类中心区域;
步骤2:对聚类中心区域利用PCA主成分分析法,得到手掌的横宽比θ1,以及偏转角度θ2
步骤3:对聚类中心区域同时进行凸包性分析,将手部各顶点连线,得到手部的凸多边形面积S1和手部二值图高亮面积S2,将二者相除,得到手部凸包性参数θ3=S1/S2。
CN201810030997.3A 2018-01-12 2018-01-12 一种基于手势识别的人机交互方法 Active CN110032270B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810030997.3A CN110032270B (zh) 2018-01-12 2018-01-12 一种基于手势识别的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810030997.3A CN110032270B (zh) 2018-01-12 2018-01-12 一种基于手势识别的人机交互方法

Publications (2)

Publication Number Publication Date
CN110032270A CN110032270A (zh) 2019-07-19
CN110032270B true CN110032270B (zh) 2020-05-08

Family

ID=67234842

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810030997.3A Active CN110032270B (zh) 2018-01-12 2018-01-12 一种基于手势识别的人机交互方法

Country Status (1)

Country Link
CN (1) CN110032270B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695420B (zh) * 2020-04-30 2024-03-08 华为技术有限公司 一种手势识别方法以及相关装置
CN113282203A (zh) * 2021-04-30 2021-08-20 深圳市联谛信息无障碍有限责任公司 一种肢体震颤用户的界面切换方法、装置和电子设备
CN115840507B (zh) * 2022-12-20 2024-05-24 北京帮威客科技有限公司 一种基于3d图像控制的大屏设备交互方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123537A (zh) * 2014-07-04 2014-10-29 西安理工大学 一种基于手形和掌纹识别的快速身份验证方法
CN104182772A (zh) * 2014-08-19 2014-12-03 大连理工大学 一种基于深度学习的手势识别方法
CN104268514A (zh) * 2014-09-17 2015-01-07 西安交通大学 一种基于多特征融合的手势检测方法
CN104680127A (zh) * 2014-12-18 2015-06-03 闻泰通讯股份有限公司 手势识别方法及系统
CN106326860A (zh) * 2016-08-23 2017-01-11 武汉闪图科技有限公司 基于视觉的手势识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9704310B2 (en) * 2011-01-31 2017-07-11 Trimble Navigation Limited Multi-mode vehicle computing device supporting in-cab and stand-alone operation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123537A (zh) * 2014-07-04 2014-10-29 西安理工大学 一种基于手形和掌纹识别的快速身份验证方法
CN104182772A (zh) * 2014-08-19 2014-12-03 大连理工大学 一种基于深度学习的手势识别方法
CN104268514A (zh) * 2014-09-17 2015-01-07 西安交通大学 一种基于多特征融合的手势检测方法
CN104680127A (zh) * 2014-12-18 2015-06-03 闻泰通讯股份有限公司 手势识别方法及系统
CN106326860A (zh) * 2016-08-23 2017-01-11 武汉闪图科技有限公司 基于视觉的手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于OpenCV 的多特征实时手势识别;孙红等;《电子科技》;20150815;第28卷(第8期);摘要 *

Also Published As

Publication number Publication date
CN110032270A (zh) 2019-07-19

Similar Documents

Publication Publication Date Title
Oudah et al. Hand gesture recognition based on computer vision: a review of techniques
Sagayam et al. Hand posture and gesture recognition techniques for virtual reality applications: a survey
Bandini et al. Analysis of the hands in egocentric vision: A survey
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
CN110222668B (zh) 基于生成对抗网络的多姿态面部表情识别方法
Lahiani et al. Real time hand gesture recognition system for android devices
Ahmad et al. Human action recognition using deep multilevel multimodal (${M}^{2} $) fusion of depth and inertial sensors
WO2019245768A1 (en) System for predicting articulated object feature location
Meena A study on hand gesture recognition technique
KR102441171B1 (ko) 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법
CN110032270B (zh) 一种基于手势识别的人机交互方法
KR101893554B1 (ko) 멀티 모달 데이터 기반 표정인식방법 및 장치
Miah et al. Rotation, Translation and Scale Invariant Sign Word Recognition Using Deep Learning.
Huo et al. Hand gesture recognition with augmented reality and leap motion controller
CN111862031A (zh) 一种人脸合成图检测方法、装置、电子设备及存储介质
Zahra et al. Camera-based interactive wall display using hand gesture recognition
Jindal et al. A comparative analysis of established techniques and their applications in the field of gesture detection
KR100419777B1 (ko) 수화 인식 방법 및 시스템
US10095308B2 (en) Gesture based human machine interface using marker
Caplier et al. Comparison of 2D and 3D analysis for automated cued speech gesture recognition
JP7126586B2 (ja) 顔合成画像検出方法、顔合成画像検出装置、電子機器、記憶媒体及びコンピュータプログラム
CN112232217B (zh) 手势识别系统
CN113763536A (zh) 一种基于rgb图像的三维重建方法
Goyal et al. Indian sign language recognition system for differently-able people
CN112308041A (zh) 一种基于视觉的无人平台手势控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant