CN105868715A - 一种手势识别方法、装置及手势学习系统 - Google Patents
一种手势识别方法、装置及手势学习系统 Download PDFInfo
- Publication number
- CN105868715A CN105868715A CN201610187436.5A CN201610187436A CN105868715A CN 105868715 A CN105868715 A CN 105868715A CN 201610187436 A CN201610187436 A CN 201610187436A CN 105868715 A CN105868715 A CN 105868715A
- Authority
- CN
- China
- Prior art keywords
- gesture
- finger
- target
- out state
- stretches out
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
一种手势识别方法、装置及手势学习系统,获取目标手势的各个手指伸出状态;从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合;获取所述目标手势的手势特征量;从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。该手势识别方法、装置及手势学习系统能够准确地识别静态的手势语,并且能够识别手势所表达的丰富语义,消除手势语言与自然语言间的沟通交流障碍。
Description
技术领域
本发明涉及模式识别领域,具体涉及一种手势识别方法、装置及手势学习系统。
背景技术
通过手势比量动作、模拟形象或者词语,以构成的一定意思,是听力障碍的人互相交际和交流思想的一种手的语言,也是有声语言的重要辅助工具。手语的教学往往采用面对面教学的方式,为此需要大量的教师资源;或者采用图解和文字说明的方式,但往往学员难以判断自学过程中手势的准确性。
体感游戏产品“厉动”(英文:Leap Motion),通过绑定视野范围内的手、手指或者工具来提供实时数据,且能够把特定的、可以显示用户意图或指令的运动模式识别为手势。然而,Leap Motion仅可以识别四种运动模式:画圈(Circle)、挥手(Swipe)、按键(Key Tap)、屏幕点击(ScreenTap),无法识别手语中丰富的语义。
中国专利文献CN 104007819A公开了一种手势识别方法、装置及LeapMotion体感控制系统,通过Leap Motion实时采集手部的运动数据,对采集到的数据进行特征提取;根据提取出的特征参数判断手部的运动是否属于平移类型操作;若属于平移类型操作,则根据操作类型,在手势库中查询相应类型的操作,根据特征参数在相应类型的操作中确定目标操作;若不属于平移类型操作,则通过预设算法确定手部的运动所属的操作类型。
上述手势识别方法,用于判断手部的运动类型,并根据手部运动所属的操作类型实现体感控制。然而上述手势识别方法并不能够识别手语所表达的丰富语义,尤其是静态的手势语。
发明内容
因此,本发明要解决的技术问题在于克服现有技术中不能识别静态手势语的缺陷,从而提供一种手势识别方法,包括如下步骤:
获取目标手势的各个手指伸出状态;
从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合;
获取所述目标手势的手势特征量;
从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
优选地,从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合的步骤,包括:
预先根据各个手指伸出状态对预设手势库中各个手势进行编码;
根据所述目标手势中所述各个手指伸出状态,对所述目标手势进行编码;
从所述预设手势库中选择出与所述目标手势的编码相同的手势,作为所述手势集合。
优选地,所述手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项。
优选地,从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势的步骤,包括:
判断所述手势集合中的手势个数是否为1;
若不为1,则从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
优选地,所述根据所述各个手指伸出状态,对所述预设手势库中的手势及所述目标手势进行编码的步骤,包括采用二进制的五位编码进行编码,每位编码对应一根手指的伸出状态,通过1表示所述手指伸出,0表示所述手指未伸出。
优选地,所述获取目标手势的各个手指伸出状态,包括:
计算相邻指骨间的角度,所述相邻指骨包括:掌骨与近节指骨、近节指骨与中间指骨、中间指骨与远节指骨;
根据所述相邻指骨间的角度,判断所述目标手势的各个手指伸出状态。
优选地,所述根据所述各个手指伸出状态,对所述预设手势库中的手势及所述目标手势进行编码的步骤,还包括采用预定进制的五位编码进行编码,每位编码对应一根手指的伸展出状态,进制数为所述手指伸出状态的个数。
优选地,通过Leap Motion传感器获取所述目标手势的各个手指伸出状态及所述目标手势的手势特征量。
本发明还提供了一种手势识别装置,包括:
第一获取单元,用于获取目标手势的各个手指伸出状态;
第一匹配单元,用于从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合;
第二获取单元,用于获取所述目标手势的手势特征量;
第二匹配单元,用于从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
优选地,所述第一匹配单元,包括:
编码子单元,用于预先根据各个手指伸出状态对预设手势库中各个手势进行编码;
所述编码子单元,还用于根据所述目标手势中所述各个手指伸出状态,对所述目标手势进行编码;
第一选择子单元,用于从所述预设手势库中选择出与所述目标手势的编码相同的手势,作为所述手势集合。
优选地,所述手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项。
优选地,所述第二匹配单元,包括:
第一判断子单元,用于判断所述手势集合中的手势个数是否为1;
第二选择子单元,用于若所述手势集合中的手势个数不为1,则从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
优选地,所述编码子单元,包括二进制编码子单元,用于采用二进制的五位编码进行编码,每位编码对应一根手指的伸出状态,通过1表示所述手指伸出,0表示所述手指未伸出。
优选地,所述第一获取单元,包括:
计算子单元,用于计算相邻指骨间的角度,所述相邻指骨包括:掌骨与近节指骨、近节指骨与中间指骨、中间指骨与远节指骨;
第二判断子单元,用于根据所述相邻指骨间的角度,判断所述目标手势的各个手指伸出状态。
优选地,所述编码子单元,包括预定进制编码子单元,用于采用预定进制的五位编码进行编码,每位编码对应一根手指的伸出状态,进制数为所述手指伸出状态的个数。
优选地,所述装置还包括Leap Motion传感器,用于获取所述目标手势的各个手指伸出状态及所述目标手势的手势特征量。
本发明还提供了一种手势学习系统,包括:
显示单元,用于显示待学习手势的预设范例供用户模仿;
上述任一所述的手势识别装置,用于对用户所模仿的目标手势进行识别;
反馈单元,用于根据识别结果,反馈用户所模仿的目标手势是否正确,并给出改善建议。
本发明技术方案,具有如下优点:
1.本发明提供的手势识别方法,先获取目标手势的各个手指伸出状态,从预设手势库中选择出与目标手势的各个手指伸出状态相匹配的手势集合;再获取目标手势的手部特征量,从手势集合中选择出与目标手势的手势特征量相匹配的手势,能够准确地识别静态的手势语,并且能够识别手势所表达的丰富语义,消除手势语言与自然语言间的沟通交流障碍。
2.本发明提供的手势识别方法,从预设手势库中选择出与目标手势的各个手指伸出状态相匹配的手势集合时,预先根据各个手指伸出状态对预设手势库中各个手势进行编码,然后根据目标手势中各个手指伸出状态,对目标手势进行编码,再从预设手势库中选择出与目标手势的编码相同的手势,作为手势集合,对目标手势进行预分类,减少了待匹配的手势数量,方法简单,能够减少运算量,降低算法复杂度。
3、本发明提供的手势识别方法,手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项,该手势特征量对于手势识别具有足够的辨识度,能够从手势库中快速匹配到目标手势,提高识别的速度和准确性。
4、本发明提供的手势识别方法,从手势集合中选择出与目标手势的手势特征量相匹配的手势时,先判断手势集合中的手势个数是否为1,若不为1,则从手势集合中选择出有目标手势的手势特征量相匹配的手势,通过手势特征量对手势进行进一步地细化识别,提高手势识别的准确性。
5、本发明提供的手势识别方法,根据各个手指伸出状态对预设手势库中的手势及目标手势进行的编码,包括二进制的五位编码,每位编码对应一根手指的伸出状态,通过1表示所述手指伸出,0表示所述手指未伸出,通过对手指的伸出状态进行二进制编码,对目标手势进行预分类,得到手势集合,减少了待匹配的手势数量,方法简单,能够减少运算量,降低算法复杂度。
6、本发明提供的手势识别方法,在获取目标手势的各个手指伸出状态时,先计算相邻指骨间的角度,再根据相邻指骨间的角度判断目标手势的各个手指伸出状态,能够较为准确地量化手指伸出的状态。
7、本发明提供的手势识别方法,根据各个手指伸出状态对预设手势库中的手势及目标手势进行的编码,还包括预定进制的五位编码,每位编码对应一根手指的伸展出状态,进制数为所述手指伸出状态的个数,通过多进制的编码对手指的伸出状态进行量化表示,能够更为细致得表征手指的伸出状态,使通过一次编码识别能够更为准确地从预设手势库中选择与目标手势匹配的手势,提高识别的准确性,进一步提高效率。
8、本发明提供的手势识别方法,通过Leap Motion传感器获取目标手势的各个手指伸出状态及目标手势的手势特征量,硬件成本较低;使用其自带的用户开发接口API,能够降低开发难度;此外,Leap Motion能够获取手势的无遮挡的三维视图,能够全方位地、更为准确地识别手势,手势识别的准确性较高。
9、本发明提供的手势学习系统,通过显示单元显示待学习手势的预设范例供用户模仿,通过手势识别装置对用户所模仿的目标手势进行识别,通过反馈单元反馈用户所模仿的目标手势是否正确并给出改善建议,提升了人机交互应用水平,消除了手势语言与自然语言间的沟通交流障碍,使手势语言成为“可读的语言”,可应用于哑语教学、手语自动翻译等领域。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本发明实施例1中手势识别方法的一个具体示例的流程图;
图1B为本发明实施例1中26个字母的手势表达方式;
图1C为本发明实施例1中Leap Motion传感器的坐标系示意图;
图2A为本发明实施例2中手势识别装置的一个具体示例的原理框图;
图2B为本发明实施例2中第一匹配单元的一个具体示例的原理框图;
图2C为本发明实施例2中第二匹配单元的一个具体示例的原理框图;
图2D为本发明实施例2中第一获取单元的一个具体示例的原理框图;
图3为本发明实施例中手势学习系统的一个具体示例的示意图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
本实施例提供一种手势识别方法,如图1A所示,包括如下步骤:
S1:获取目标手势的各个手指伸出状态。
通常情况下,一只手具有5根手指头,分别为拇指、食指、中指、无名指和小指。除拇指外,每根手指头有4段骨头,分别为掌骨、近节指骨、中间指骨和远节指骨。各个手指伸出的状态,包括每根手指的弯曲状态,例如,如图1B所示的26个字母的手势表示方式中,表示字母B时四指完全伸直,表示字母C时四指弯曲,表示字母D时四指握拳。
作为本实施例的一种优选实施方式,通过Leap Motion传感器获取目标手势的各个手指伸出状态。Leap Motion的核心设备包括两个立体相机和三个红外发光管,采用近红外光谱对手部信息进行追踪,其互动区域为双目摄像头视野的交叉区域,呈倒金字塔形状,在互动区域内所做的手势能够被设备识别,并以灰度模式在跟踪软件上显示。
Leap Motion通过绑定视野范围内的手、手指或者工具来实时提供数据,这些数据多数是通过结合或者帧数据的形式提供,每一帧都包含了一系列的基本绑定数据,比如手、手指或者工具的数据。Leap Motion开发系统还提供手模型,该手模型提供了被绑定的手的位置信息、特点以及运动方式等信息。
Leap Motion以其设备参照建立了右手笛卡尔坐标系,如图1C所示,用户面对XOY平面做手势,Leap Motion传感器上的矩形小显示灯位于用户的右手边。通过Leap Motion追踪手部的骨节及指尖,获取手部的各个骨节及指尖的坐标,并依据其算出以下特征量:1、掌心朝向,即垂直于手掌平面的法向量,取五根手指的掌骨所在平面为手掌平面,从掌背穿过手掌指向掌心的方向为正方向;2、五根手指的手指朝向,取手指的中间指骨与远节指骨之间的关节至指尖位置所成的方向向量,或者中间指骨与近节指骨之间的关节至指尖位置所成的方向向量;3、手伸出的方向,取中指的掌骨在手腕处的关节至中指上任一关节所成的方向向量;4、每段指骨的方向,取该段指骨远离指尖处的关节位置至该段指骨靠近指尖处的关节位置所成的方向向量。上述方向向量由已知的两点坐标计算所得,记为(x,y,z)。
Leap Motion提供的手指模型类FingerModel能够识别手指是否伸直的状态。然而,对于握拳等手指弯曲的状态,Leap Motion并不能够直接给出弯曲的程度,即不能识别手指弯曲状态下的伸出状态。对此,本实施例提供了如下的步骤S11和S12。
S11:计算相邻指骨间的角度,所述相邻指骨包括:掌骨与近节指骨、近节指骨与中间指骨、中间指骨与远节指骨。
实际上拇指只有3段指骨,为了简化程序,仍然将拇指按4段指骨来处理,并记拇指的掌骨长度为0。利用Leap Motion获取的20段指骨的方向(x,y,z),可以得到相邻指骨所成角的三角函数值,从而得到相邻指骨间的角度。例如,若相邻的两段指骨的方向分别为(x1,y1,z1)和(x2,y2,z2),则这两段指骨间的夹角为
S12:根据相邻指骨间的角度,判断目标手势的各个手指伸出状态。可以根据相邻指骨间的角度范围,或者同一指骨各个相邻指骨间的角度配合关系,以判断目标手势的各个手指伸出状态。此外,还可以结合相邻手指的指骨间的角度配合关系来判别目标手指的各个手指伸出的状态,例如大拇指的中间指骨、食指的近节指骨、中指的近节指骨间为两两垂直的关系。
由于手指弯曲时各个指骨之间是相互配合而并不是完全独立的,因此可以仅计算关键的相邻指骨间的角度,根据其角度关系判断手指伸出的状态。关键的相邻指骨间的角度一般为掌骨与近节指骨间的角度、近节指骨与中间指骨间的角度。例如,图1B所示的26个字母的手势表示方式中,表示字母J时食指的近节指骨与中间指骨的夹角为90度。
此外,作为步骤S11和S12的一种替代方式,识别手指在弯曲状态下的伸出状态,还可以通过以手指关节为顶点构造三角形,根据三角形的不同形态,如直角三角形、钝角三角形,得到手指的伸出状态。
本实施例提供了三种方式用于识别手指伸出的状态,即通过LeapMotion直接识别,通过计算相邻指骨间的角度来识别,通过以手指关节为顶点构造三角形来识别,能够较为准确地量化手指伸出的状态。优选采用Leap Motion直接识别手指的伸出状态,硬件成本较低;使用其自带的用户开发接口API(Application Programming Interface,应用程序编程接口),能够降低开发难度;此外,Leap Motion能够获取手势的无遮挡的三维视图,能够全方位地、更为准确地识别手势,手势识别的准确性较高。
S2:从预设手势库中选择出与目标手势的各个手指伸出状态相匹配的手势集合。该步骤包括下述步骤S21、S22和S23。
S21:预先根据各个手指伸出状态对预设手势库中各个手势进行编码。
预设手势库中的手势可以是预先编码并储存的。
S22:根据目标手势中各个手指伸出状态,对目标手势进行编码。
通过编码的方式,对手指的伸出状态量化表示。
该编码方式包括采用二进制的五位编码,每位编码对应一根手指的伸出状态,通过1表示所述手指伸出,0表示所述手指未伸出。此外,还包括采用预定进制的五位编码进行编码,每位编码对应一根手指的伸展出状态,进制数为手指伸出状态的个数。
S23:从预设手势库中选择出与目标手势的编码相同的手势,作为手势集合。例如,在二进制的五位编码方式下,如图1B所示,字母B的编码为01111,则在预设手势库中查找并选择所有编码为01111的手势作为手势集合。
对手指的伸出状态进行二进制编码,对目标手势进行预分类,得到手势集合,减少了待匹配的手势数量,方法简单,能够减少运算量,降低算法复杂度。对手指的伸出状态进行预设进制的编码,通过多进制的编码对手指的伸出状态进行量化表示,能够更为细致得表征手指的伸出状态,使通过一次编码识别能够更为准确地从预设手势库中选择与目标手势匹配的手势,提高识别的准确性,进一步提高效率。
然而,编码方式并不能具体准确地表征一个手势,因此所得到的手势集合中的手势个数并不一定唯一。为此,本发明通过手势特征量进一步细化对手势的识别,通过下述步骤S3和步骤S4进一步定位一个手势,提高手势识别的准确性。
S3:获取目标手势的手势特征量。手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项。上述手势特征量对不同手势具有足够的辨识度。通过步骤S1所述的方法,通过Leap Motion追踪手部的骨节及指尖,获取手部的各个骨节及指尖的坐标,并依据其计算得到掌心朝向、手伸出的方向、食指近指关节的方向等方向向量,此外,根据各个手指的指尖坐标计算可得大拇指与食指的指尖距离、食指与中指的指尖距离。
S4:从手势集合中选择出与目标手势的手势特征量相匹配的手势。步骤S4包括下述步骤S41和S42。
S41:判断手势集合中的手势个数是否为1。若手势集合中的手势个数为1,则将该手势作为与目标手势相匹配的手势,即通过对手势的编码的一次匹配便从预设手势库中选择出了与目标手势相匹配的手势,大大提高了手势识别的效率。
S42:若不为1,则从手势集合中选择出与目标手势的手势特征量相匹配的手势。
与目标手势的手势特征量相匹配的手势,包括:
1、掌心朝向相同,具体为掌心均朝内或朝外(如图1C所示的坐标系下z轴数据均为正数或均为负数),或者掌心均朝上或朝下(如图1C所示的坐标系下y轴数据均为正数或均为负数),或者掌心均朝右或朝左(如图1C所示的坐标系下x轴数据均为正数或均为负数),例如图1B中字母手势R和L的掌心朝向是不同的,字母F和G的掌心朝向是相同的。
2、大拇指与食指的指尖距离符合第一预设范围,例如图1B所示的字母C的大拇指与食指之间的距离必须大于15mm,字母O的大拇指与食指之间的距离必须小于2mm。
3、食指与中指的指尖距离符合第二预设范围,例如图1B所示的字母V的食指与中指的指尖距离必须大于20mm,字母X的食指与中指的指尖距离必须小于1mm。
手势特征量对于手势识别具有足够的辨识度,能够从手势库中快速匹配到目标手势,提高识别的速度和准确性。
作为本实施例的一种变形,还可以先从预设手势库中选择出与目标手势的手势特征量相匹配的手势,作为手势集合;然后再对目标手指的各个手指伸出状态进行编码,根据编码从手势集合中选择出与目标手势的编码相同的手势。
本实施例提供的手势识别方法,先获取目标手势的各个手指伸出状态,从预设手势库中选择出与目标手势的各个手指伸出状态相匹配的手势集合;再获取目标手势的手部特征量,从哪手势集合中选择出与目标手势的手势特征量相匹配的手势,能够准确地识别静态的手势语,并且能够识别手势所表达的丰富语义,消除手势语言与自然语言间的沟通交流障碍。
实施例2
本实施例提供一种手势识别装置,如图2A所示,包括第一获取单元10、第一匹配单元20、第二获取单元30和第二匹配单元40。
第一获取单元10,用于获取目标手势的各个手指伸出状态。
第一匹配单元20,用于从预设手势库中选择出与目标手势的各个手指伸出状态相匹配的手势集合。
第二获取单元30,用于获取目标手势的手势特征量。手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项。
第二匹配单元40,用于从手势集合中选择出与目标手势的手势特征量相匹配的手势。
作为本实施例的一种优选实施方式,如图2B所述,第一匹配单元20包括编码子单元21和第一选择子单元22。
编码子单元21,用于预先根据各个手指伸出状态对预设手势库中各个手势进行编码,还用于根据目标手势中各个手指伸出状态,对目标手势进行编码。编码子单元21包括二进制编码子单元211和预定进制编码子单元212。该二进制编码子单元211,用于采用二进制的五位编码进行编码,每位编码对应一根手指的伸出状态,通过1表示手指伸出,0表示手指未伸出。该预定进制编码子单元212,用于采用预定进制的五位编码进行编码,每位编码对应一根手指的伸出状态,进制数为手指伸出状态的个数。
第一选择子单元22,用于从预设手势库中选择出与目标手势的编码相同的手势,作为手势集合。
上述第二匹配单元40包括第一判断子单元41和第二选择子单元42。
第一判断子单元41,用于判断手势集合中的手势个数是否为1。
第二选择子单元42,用于若手势集合中的手势个数不为1,则从手势集合中选择出与目标手势的手势特征量相匹配的手势。
上述第一获取单元10,包括计算子单元11和第二判断子单元12。
计算子单元11,用于计算相邻指骨间的角度,相邻指骨包括:掌骨与近节指骨、近节指骨与中间指骨、中间指骨与远节指骨。
第二判断子单元12,用于根据相邻指骨间的角度,判断目标手势的各个手指伸出状态。
作为本实施例的一种优选实施方式,该手势识别装置还包括LeapMotion传感器,用于获取目标手势的各个手指伸出状态及目标手势的手势特征量。
本实施例提供的手势识别装置,先获取目标手势的各个手指伸出状态,从预设手势库中选择出与目标手势的各个手指伸出状态相匹配的手势集合;再获取目标手势的手部特征量,从哪手势集合中选择出与目标手势的手势特征量相匹配的手势,能够准确地识别静态的手势语,并且能够识别手势所表达的丰富语义,消除手势语言与自然语言间的沟通交流障碍。
实施例3
本实施例提供一种手势学习系统,如图3所示,包括显示单元、实施例2所述的手势识别装置和反馈单元。
显示单元,用于显示待学习手势的预设范例供用户模仿。系统中预先存储有手势的预设范例,用户可以根据自己的兴趣,从系统中选择自己想要学习的手势。用户选择后,系统会显示用户所选择的手势的预设范例供用户模仿。优选地,该显示单元还用于实时显示用户的手部动作3D图像。
实施例2所述的手势识别装置,用于对用户所模仿的目标手势进行识别。作为本实施例的一种优选实施方式,采用Leap Motion传感器跟踪用户的手部动作,采集手部特征数据。用户在Leap Motion的互动区域内做手势,手势识别装置根据采集到的手部特征数据识别用户的手势。
采用Leap Motion直接识别手指的伸出状态,硬件成本较低;使用其自带的用户开发接口API,能够降低开发难度;此外,Leap Motion能够获取手势的无遮挡的三维视图,能够全方位地、更为准确地识别手势,手势识别的准确性较高。
反馈单元,用于根据识别结果,反馈用户所模仿的目标手势是否正确,并给出改善建议。
优选地,该手势学习系统还可以识别用户所做的任意手势,反馈单元还用于反馈用户所做手势的具体含义,从而帮助用户认知新的手势表达方式。例如,用户不根据预设范例进行模仿,而是任意做个手势,反馈单元显示用户所做手势的含义是“爱心”。
优选地,用户还可以自定义该手势识别系统,以弥补预设手势库的不足,丰富预设手势库。用户可以自定义一个手势的表达方式,并赋予其含义,将该手势表达方式及其含义存储至该手势学习系统中。
本实施例提供的手势学习系统,通过显示单元显示待学习手势的预设范例供用户模仿,通过实施例2所述的手势识别装置对用户所模仿的目标手势进行识别,通过反馈单元反馈用户所模仿的目标手势是否正确并给出改善建议,提升了人机交互应用水平,消除了手势语言与自然语言间的沟通交流障碍,使手势语言成为“可读的语言”,可应用于哑语教学、手语自动翻译等领域。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (17)
1.一种手势识别方法,其特征在于,包括如下步骤:
获取目标手势的各个手指伸出状态;
从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合;
获取所述目标手势的手势特征量;
从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
2.根据权利要求1所述的手势识别方法,其特征在于,从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合的步骤,包括:
预先根据各个手指伸出状态对预设手势库中各个手势进行编码;
根据所述目标手势中所述各个手指伸出状态,对所述目标手势进行编码;
从所述预设手势库中选择出与所述目标手势的编码相同的手势,作为所述手势集合。
3.根据权利要求1所述的手势识别方法,其特征在于,所述手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项。
4.根据权利要求1所述的手势识别方法,其特征在于,从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势的步骤,包括:
判断所述手势集合中的手势个数是否为1;
若不为1,则从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
5.根据权利要求2所述的手势识别方法,其特征在于,所述根据所述各个手指伸出状态,对所述预设手势库中的手势及所述目标手势进行编码的步骤,包括采用二进制的五位编码进行编码,每位编码对应一根手指的伸出状态,通过1表示所述手指伸出,0表示所述手指未伸出。
6.根据权利要求1所述的手势识别方法,其特征在于,所述获取目标手势的各个手指伸出状态,包括:
计算相邻指骨间的角度,所述相邻指骨包括:掌骨与近节指骨、近节指骨与中间指骨、中间指骨与远节指骨;
根据所述相邻指骨间的角度,判断所述目标手势的各个手指伸出状态。
7.根据权利要求2所述的手势识别方法,其特征在于,所述根据所述各个手指伸出状态,对所述预设手势库中的手势及所述目标手势进行编码的步骤,还包括采用预定进制的五位编码进行编码,每位编码对应一根手指的伸展出状态,进制数为所述手指伸出状态的个数。
8.根据权利要求1所述的手势识别方法,其特征在于,通过Leap Motion传感器获取所述目标手势的各个手指伸出状态及所述目标手势的手势特征量。
9.一种手势识别装置,其特征在于,包括:
第一获取单元,用于获取目标手势的各个手指伸出状态;
第一匹配单元,用于从预设手势库中选择出与所述目标手势的各个手指伸出状态相匹配的手势集合;
第二获取单元,用于获取所述目标手势的手势特征量;
第二匹配单元,用于从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
10.根据权利要求9所述的手势识别装置,其特征在于,所述第一匹配单元,包括:
编码子单元,用于预先根据各个手指伸出状态对预设手势库中各个手势进行编码;
所述编码子单元,还用于根据所述目标手势中所述各个手指伸出状态,对所述目标手势进行编码;
第一选择子单元,用于从所述预设手势库中选择出与所述目标手势的编码相同的手势,作为所述手势集合。
11.根据权利要求9所述的手势识别装置,其特征在于,所述手势特征量包括掌心朝向、手伸出的方向、食指近指关节的方向、大拇指与食指的指尖距离、食指与中指的指尖距离中的一项或多项。
12.根据权利要求9所述的手势识别装置,其特征在于,所述第二匹配单元,包括:
第一判断子单元,用于判断所述手势集合中的手势个数是否为1;
第二选择子单元,用于若所述手势集合中的手势个数不为1,则从所述手势集合中选择出与所述目标手势的手势特征量相匹配的手势。
13.根据权利要求10所述的手势识别装置,其特征在于,所述编码子单元,包括二进制编码子单元,用于采用二进制的五位编码进行编码,每位编码对应一根手指的伸出状态,通过1表示所述手指伸出,0表示所述手指未伸出。
14.根据权利要求9所述的手势识别装置,其特征在于,所述第一获取单元,包括:
计算子单元,用于计算相邻指骨间的角度,所述相邻指骨包括:掌骨与近节指骨、近节指骨与中间指骨、中间指骨与远节指骨;
第二判断子单元,用于根据所述相邻指骨间的角度,判断所述目标手势的各个手指伸出状态。
15.根据权利要求10所述的手势识别装置,其特征在于,所述编码子单元,包括预定进制编码子单元,用于采用预定进制的五位编码进行编码,每位编码对应一根手指的伸出状态,进制数为所述手指伸出状态的个数。
16.根据权利要求9所述的手势识别装置,其特征在于,所述装置还包括Leap Motion传感器,用于获取所述目标手势的各个手指伸出状态及所述目标手势的手势特征量。
17.一种手势学习系统,其特征在于,包括:
显示单元,用于显示待学习手势的预设范例供用户模仿;
权利要求9-16任一所述的手势识别装置,用于对用户所模仿的目标手势进行识别;
反馈单元,用于根据识别结果,反馈用户所模仿的目标手势是否正确,并给出改善建议。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610187436.5A CN105868715B (zh) | 2016-03-29 | 2016-03-29 | 一种手势识别方法、装置及手势学习系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610187436.5A CN105868715B (zh) | 2016-03-29 | 2016-03-29 | 一种手势识别方法、装置及手势学习系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105868715A true CN105868715A (zh) | 2016-08-17 |
CN105868715B CN105868715B (zh) | 2020-02-07 |
Family
ID=56626321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610187436.5A Active CN105868715B (zh) | 2016-03-29 | 2016-03-29 | 一种手势识别方法、装置及手势学习系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105868715B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106383586A (zh) * | 2016-10-21 | 2017-02-08 | 东南大学 | 一种孤独症谱系障碍儿童训练系统 |
CN106503626A (zh) * | 2016-09-29 | 2017-03-15 | 南京信息工程大学 | 基于深度图像与手指轮廓匹配的并指手势识别方法 |
CN106569596A (zh) * | 2016-10-20 | 2017-04-19 | 努比亚技术有限公司 | 一种手势控制方法和设备 |
CN106570473A (zh) * | 2016-11-03 | 2017-04-19 | 深圳量旌科技有限公司 | 基于机器人的聋哑人手语识别交互系统 |
CN107329632A (zh) * | 2017-06-06 | 2017-11-07 | 西安电子科技大学 | 基于红外线传感器的体感鼠标的手部运动信息处理方法 |
CN107422852A (zh) * | 2017-06-27 | 2017-12-01 | 掣京机器人科技(上海)有限公司 | 手功能康复训练评估方法和系统 |
CN108170261A (zh) * | 2016-12-07 | 2018-06-15 | 南京仁光电子科技有限公司 | 基于手势操控屏幕图片的方法和装置 |
WO2018188116A1 (zh) * | 2017-04-12 | 2018-10-18 | 南方科技大学 | 一种手势识别方法、装置及系统 |
CN108960177A (zh) * | 2018-07-13 | 2018-12-07 | 苏州浪潮智能软件有限公司 | 一种将手势进行数字化处理的方法及装置 |
CN109597485A (zh) * | 2018-12-04 | 2019-04-09 | 山东大学 | 一种基于双指角域特征的手势交互系统及其工作方法 |
CN110202592A (zh) * | 2019-07-02 | 2019-09-06 | 江苏博子岛智能产业技术研究院有限公司 | 一种ai移动式医疗服务机器人 |
CN110389652A (zh) * | 2019-01-03 | 2019-10-29 | 上海工程技术大学 | 一种基于Leap Motion的起落架虚拟维修教学方法 |
CN110414473A (zh) * | 2019-08-06 | 2019-11-05 | 青海师范大学 | 一种基于数理统计的数据手套手势识别算法 |
WO2020034763A1 (zh) * | 2018-08-17 | 2020-02-20 | 北京市商汤科技开发有限公司 | 手势识别方法、手势处理方法及装置 |
CN111258412A (zh) * | 2018-11-30 | 2020-06-09 | 宁波方太厨具有限公司 | 一种手势操作识别方法及应用该方法的手势控制装置 |
CN111368714A (zh) * | 2020-03-02 | 2020-07-03 | 北京华捷艾米科技有限公司 | 一种手势识别方法及装置 |
CN112000224A (zh) * | 2020-08-24 | 2020-11-27 | 北京华捷艾米科技有限公司 | 一种手势交互方法及系统 |
CN112036358A (zh) * | 2020-09-09 | 2020-12-04 | 湖南翰坤实业有限公司 | 基于Untiy引擎的手势处理方法及系统 |
CN114842712A (zh) * | 2022-04-12 | 2022-08-02 | 汕头大学 | 一种基于手势识别的手语教学系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577062A (zh) * | 2008-12-30 | 2009-11-11 | 浙江工业大学 | 一种基于空间编码的手语运动信息与文本信息相互转换的实现方法 |
CN102368290A (zh) * | 2011-09-02 | 2012-03-07 | 华南理工大学 | 一种基于手指高级特征的手势识别方法 |
CN103971102A (zh) * | 2014-05-21 | 2014-08-06 | 南京大学 | 基于手指轮廓和决策树的静态手势识别方法 |
US20140229873A1 (en) * | 2013-02-13 | 2014-08-14 | Corel Corporation | Dynamic tool control in a digital graphics system using a vision system |
CN104007819A (zh) * | 2014-05-06 | 2014-08-27 | 清华大学 | 手势识别方法、装置及Leap Motion体感控制系统 |
-
2016
- 2016-03-29 CN CN201610187436.5A patent/CN105868715B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577062A (zh) * | 2008-12-30 | 2009-11-11 | 浙江工业大学 | 一种基于空间编码的手语运动信息与文本信息相互转换的实现方法 |
CN102368290A (zh) * | 2011-09-02 | 2012-03-07 | 华南理工大学 | 一种基于手指高级特征的手势识别方法 |
US20140229873A1 (en) * | 2013-02-13 | 2014-08-14 | Corel Corporation | Dynamic tool control in a digital graphics system using a vision system |
CN104007819A (zh) * | 2014-05-06 | 2014-08-27 | 清华大学 | 手势识别方法、装置及Leap Motion体感控制系统 |
CN103971102A (zh) * | 2014-05-21 | 2014-08-06 | 南京大学 | 基于手指轮廓和决策树的静态手势识别方法 |
Non-Patent Citations (1)
Title |
---|
林书坦等: "基于LeapMotion的数字手势识别", 《电脑知识与技术》 * |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503626A (zh) * | 2016-09-29 | 2017-03-15 | 南京信息工程大学 | 基于深度图像与手指轮廓匹配的并指手势识别方法 |
CN106569596A (zh) * | 2016-10-20 | 2017-04-19 | 努比亚技术有限公司 | 一种手势控制方法和设备 |
CN106383586A (zh) * | 2016-10-21 | 2017-02-08 | 东南大学 | 一种孤独症谱系障碍儿童训练系统 |
CN106570473A (zh) * | 2016-11-03 | 2017-04-19 | 深圳量旌科技有限公司 | 基于机器人的聋哑人手语识别交互系统 |
CN108170261A (zh) * | 2016-12-07 | 2018-06-15 | 南京仁光电子科技有限公司 | 基于手势操控屏幕图片的方法和装置 |
WO2018188116A1 (zh) * | 2017-04-12 | 2018-10-18 | 南方科技大学 | 一种手势识别方法、装置及系统 |
CN108693958A (zh) * | 2017-04-12 | 2018-10-23 | 南方科技大学 | 一种手势识别方法、装置及系统 |
CN108693958B (zh) * | 2017-04-12 | 2020-05-22 | 南方科技大学 | 一种手势识别方法、装置及系统 |
CN107329632A (zh) * | 2017-06-06 | 2017-11-07 | 西安电子科技大学 | 基于红外线传感器的体感鼠标的手部运动信息处理方法 |
CN107422852A (zh) * | 2017-06-27 | 2017-12-01 | 掣京机器人科技(上海)有限公司 | 手功能康复训练评估方法和系统 |
CN108960177A (zh) * | 2018-07-13 | 2018-12-07 | 苏州浪潮智能软件有限公司 | 一种将手势进行数字化处理的方法及装置 |
WO2020034763A1 (zh) * | 2018-08-17 | 2020-02-20 | 北京市商汤科技开发有限公司 | 手势识别方法、手势处理方法及装置 |
JP2021534482A (ja) * | 2018-08-17 | 2021-12-09 | ベイジン センスタイム テクノロジー デベロップメント カンパニー リミテッド | ジェスチャー認識方法、ジェスチャー処理方法及び装置 |
CN110837766B (zh) * | 2018-08-17 | 2023-05-05 | 北京市商汤科技开发有限公司 | 手势识别方法、手势处理方法及装置 |
CN110837766A (zh) * | 2018-08-17 | 2020-02-25 | 北京市商汤科技开发有限公司 | 手势识别方法、手势处理方法及装置 |
JP7266667B2 (ja) | 2018-08-17 | 2023-04-28 | ベイジン センスタイム テクノロジー デベロップメント カンパニー リミテッド | ジェスチャー認識方法、ジェスチャー処理方法及び装置 |
CN111258412A (zh) * | 2018-11-30 | 2020-06-09 | 宁波方太厨具有限公司 | 一种手势操作识别方法及应用该方法的手势控制装置 |
CN111258412B (zh) * | 2018-11-30 | 2021-10-22 | 宁波方太厨具有限公司 | 一种手势操作识别方法及应用该方法的手势控制装置 |
CN109597485A (zh) * | 2018-12-04 | 2019-04-09 | 山东大学 | 一种基于双指角域特征的手势交互系统及其工作方法 |
CN109597485B (zh) * | 2018-12-04 | 2021-05-07 | 山东大学 | 一种基于双指角域特征的手势交互系统及其工作方法 |
CN110389652B (zh) * | 2019-01-03 | 2023-04-28 | 上海工程技术大学 | 一种基于Leap Motion的起落架虚拟维修教学方法 |
CN110389652A (zh) * | 2019-01-03 | 2019-10-29 | 上海工程技术大学 | 一种基于Leap Motion的起落架虚拟维修教学方法 |
CN110202592A (zh) * | 2019-07-02 | 2019-09-06 | 江苏博子岛智能产业技术研究院有限公司 | 一种ai移动式医疗服务机器人 |
CN110414473B (zh) * | 2019-08-06 | 2022-02-25 | 青海师范大学 | 一种基于数理统计的数据手套手势识别算法 |
CN110414473A (zh) * | 2019-08-06 | 2019-11-05 | 青海师范大学 | 一种基于数理统计的数据手套手势识别算法 |
CN111368714A (zh) * | 2020-03-02 | 2020-07-03 | 北京华捷艾米科技有限公司 | 一种手势识别方法及装置 |
CN112000224A (zh) * | 2020-08-24 | 2020-11-27 | 北京华捷艾米科技有限公司 | 一种手势交互方法及系统 |
CN112036358A (zh) * | 2020-09-09 | 2020-12-04 | 湖南翰坤实业有限公司 | 基于Untiy引擎的手势处理方法及系统 |
CN112036358B (zh) * | 2020-09-09 | 2024-05-10 | 湖南翰坤实业有限公司 | 基于Untiy引擎的手势处理方法及系统 |
CN114842712A (zh) * | 2022-04-12 | 2022-08-02 | 汕头大学 | 一种基于手势识别的手语教学系统 |
CN114842712B (zh) * | 2022-04-12 | 2023-10-17 | 汕头大学 | 一种基于手势识别的手语教学系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105868715B (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105868715A (zh) | 一种手势识别方法、装置及手势学习系统 | |
Patrona et al. | Motion analysis: Action detection, recognition and evaluation based on motion capture data | |
Simon et al. | Hand keypoint detection in single images using multiview bootstrapping | |
Dipietro et al. | A survey of glove-based systems and their applications | |
CN107243141A (zh) | 一种基于运动识别的动作辅助训练系统 | |
CN112597933B (zh) | 动作评分方法、装置及可读存储介质 | |
CN110428486B (zh) | 虚拟互动的健身方法、电子设备及存储介质 | |
Shao et al. | Teaching american sign language in mixed reality | |
CN109701224B (zh) | 一种增强现实ar腕关节康复评估和训练系统 | |
CN111383735A (zh) | 一种基于人工智能的无人化健身分析方法 | |
CN104866824A (zh) | 一种基于Leap Motion的手语字母识别方法 | |
Ibañez et al. | Approximate string matching: A lightweight approach to recognize gestures with Kinect | |
CN105068662B (zh) | 一种用于人机交互的电子设备 | |
CN113705540A (zh) | 一种无器械训练动作识别与计数方法及系统 | |
CN115131879B (zh) | 一种动作评价方法及装置 | |
CN113409651B (zh) | 直播健身方法、系统、电子设备、存储介质 | |
CN102023707A (zh) | 基于dsp-pc机器视觉系统的斑纹式数据手套 | |
He et al. | A New Kinect‐Based Posture Recognition Method in Physical Sports Training Based on Urban Data | |
CN107292295A (zh) | 手势分割方法及装置 | |
Rehman et al. | Two hand gesture based 3d navigation in virtual environments | |
Temoche et al. | A low-cost data glove for virtual reality | |
Kahol et al. | Measuring movement expertise in surgical tasks | |
Rozaliev et al. | Methods and applications for controlling the correctness of physical exercises performance | |
Ji et al. | 3D hand gesture coding for sign language learning | |
CN113743319B (zh) | 一种自监督型智能健身方案生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |