CN106971130A - 一种以人脸为参照的手势识别方法 - Google Patents
一种以人脸为参照的手势识别方法 Download PDFInfo
- Publication number
- CN106971130A CN106971130A CN201610024252.7A CN201610024252A CN106971130A CN 106971130 A CN106971130 A CN 106971130A CN 201610024252 A CN201610024252 A CN 201610024252A CN 106971130 A CN106971130 A CN 106971130A
- Authority
- CN
- China
- Prior art keywords
- hand
- user
- palm
- information
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种以人脸为参照的手势识别方法,属于手势识别技术领域;方法包括:获取视频数据流并处理得到骨骼点信息;根据骨骼点信息,确定使用者手心位置信息与手长的手长信息;根据手心位置信息判断使用者的手心距离地面的高度是否大于一预设的高度阈值:若否,则退出;获取视频数据流中的人脸中心位置,并根据手心位置信息判断手心位置与人脸中心位置的距离是否处于标准距离范围内:若否,则退出;判断得到手掌区域的图像并进行分割裁剪和预处理,得到手部掩膜;识别出指尖区域并进而对手势进行识别。上述技术方案的有益效果是:消除背影响,避免一些无效手势被误认为使用者进行手势指令输入的情况发生,提升了手势识别的准确性。
Description
技术领域
本发明涉及手势识别技术领域,尤其涉及一种以人脸为参照的手势识别方法。
背景技术
目前在智能设备领域较少存在能够支持大量的手势动作的手势控制智能设备的方法,其原因存在以下几点:1)现有的手势识别方法,对背景要求非常高,需要使用者在不影响手势识别的环境下进行操作(例如黑暗的房间内);2)现有的手势识别方法对于手势动作的识别精度不高,误识别的概率较大;3)现有的手势识别方法,无法准确判断使用者是否试图进行手势控制。例如无法正确判断使用者进行手势动作的目的在于进行手势控制,还是仅仅无意识地做手势。上述几个原因导致现有的手势识别技术尚不能稳定地作为一种控制方式应用于智能设备中。
发明内容
根据现有技术中存在的上述问题,现提供一种以人脸为参照的手势识别方法的技术方案,具体包括:
一种以人脸为参照的手势识别方法,其中,通过预先设置的训练样本设定一标准距离范围,所述标准距离范围表示使用者的人脸的中心位置至进行手势动作的手掌的中心位置的距离的适宜的取值范围;
所述手势识别方法包括如下步骤:
步骤S1,通过一图像采集装置获取关联于使用者全身的视频数据流,并处理得到关联于所述使用者的各个骨骼点的骨骼点信息;
步骤S2,根据所述骨骼点信息,确定表示所述使用者的手心位置的手心位置信息与表示所述使用者的手长的手长信息;
步骤S3,根据所述手心位置信息判断所述使用者的手心距离地面的高度是否大于一预设的高度阈值:
若是,则继续执行步骤S4;
若否,则退出;
步骤S4,获取所述视频数据流中的关联于所述使用者的人脸的人脸中心位置,并根据所述手心位置信息判断关联于所述使用者的手掌的手心位置与所述人脸中心位置的距离是否处于所述标准距离范围内:
若是,则继续执行步骤S5;
若否,则退出;
步骤S5,判断得到手掌区域的图像,并对所述手掌区域的图像进行分割裁剪以及进行预处理,得到相应的手部掩膜并输出;
步骤S6,根据所述处理结果,识别出手部的指尖区域,并根据所述指尖区域的几何关系对所述使用者的手势进行识别。
优选的,该手势识别方法,其中,所述步骤S1中,所述图像采集装置为景深摄像头;
所述视频数据为关联于所述使用者的全身的景深视频数据。
优选的,该手势识别方法,其中,所述步骤S1包括:
步骤S11,采用所述图像采集装置采集包括背景以及所述使用者的全身的景深图像的视频数据流;
步骤S12,将所述视频数据流中包括的每帧的所述景深图像的像素的三维信息进行空间变换,以得到实际空间中的对应的点云信息;
步骤S13,根据每个所述像素对应的所述点云信息,获得每个所述像素与所述景深摄像头之间的距离;
步骤S14,分别根据每个所述像素对应的所述距离,处理得到所述骨骼点信息。
优选的,该手势识别方法,其中,所述步骤S2包括:
步骤S21,根据处理得到的关联于所述使用者的各个所述骨骼点的所述骨骼点信息,获得所述使用者的所述手心位置信息;
步骤S22,根据处理得到的关联于所述使用者的各个所述骨骼点的所述骨骼点信息,依照下述公式计算得到所述使用者的身高信息:
其中,H1表示所述使用者的身高数值,H2表示背景的像素高度数值,H3表示所述使用者在被采集的视频图像中的像素高度数值,d表示所述使用者与所述景深摄像头之间的距离数值,θ表示所述景深摄像头在水平方向上的垂直角度数值;
步骤S23,根据预设的人体身高与人体手长之间的对应关系,获得所述使用者的所述手长信息。
优选的,该手势识别方法,其中,所述步骤S5包括:
步骤S51,根据所述手心位置信息和所述手长信息,去除所述使用者的手部包括的所有与所述手心位置的距离大于所述手长的一半的像素点的信息,并依据去除后的手部包括的所有所述像素点的信息得到手部数据;
步骤S52,通过K均值聚类算法对处理得到的所述手部数据进行聚类处理,得到经过聚类处理后的所述手部数据;
步骤S53,设置最小聚类数,以对所述手部数据进行噪声干扰像素簇的过滤排除,从而得到关联于所述手部数据的手部掩膜并输出。
优选的,该手势识别方法,其中,所述手部数据包含在以所述使用者的所述手长的一半为半径、并以所述使用者的所述手心位置为圆心的一个球形区域内。
优选的,该手势识别方法,其中,所述步骤S6包括:
步骤S61,采用Moore邻域轮廓跟踪算法检测得到所述手部掩膜的边缘轮廓,并获得包括所述边缘轮廓上的所有轮廓点的第一点链集合;
步骤S62,采用Graham扫描算法检测得到所述手部掩膜的手部轮廓上的凸包集,并获得包括所有凸包的第二点链集合;
步骤S63,采用轮廓最大凹陷点扫描算法,于所述手部掩膜的所述边缘轮廓和所述手部轮廓的所述凸包集上检测得到所有所述凸点之间的最大凹陷点,并获得包括所述手部轮廓上的凹凸点的第三点链集合;
步骤S64,采用凹凸夹角识别算法,依据关联于所述手部轮廓的所述第三点链集合处理得到包括手部的所有指尖点的第四点链集合;
步骤S65,根据所述指尖点识别得到手部的每个手指,随后执行手势识别操作。
优选的,该手势识别方法,其中,所述步骤S65中,执行手势识别操作的步骤具体包括:
步骤S651,识别得到手部的所有所述手指的个数;
步骤S652,,根据预设信息判断得到每根所述手指的名称、方向向量以及相邻所述手指之间的夹角并输出;
步骤S653,根据所述步骤S652中输出的信息形成一三层决策树,并根据所述三层决策树对手势进行识别。
优选的,该手势识别方法,其中,所述步骤S52中,所述K均值聚类算法中的K值设定为固定数值2。
上述技术方案的有益效果是,提供一种以人脸为参照的手势识别方法,能够消除外界背景的影响,并且避免一些无效手势被误认为使用者进行手势指令输入的情况发生,提升了手势识别的准确性。
附图说明
图1是本发明的较佳的实施例中,一种以人脸为参照的手势识别方法的总体流程示意图;
图2是本发明的较佳的实施例中,采集并处理得到使用者的骨骼点信息的流程示意图;
图3是本发明的较佳的实施例中,处理得到手心位置信息和手长信息的流程示意图;
图4是本发明的较佳的实施例中,处理得到手部掩膜的流程示意图;
图5是本发明的较佳的实施例中,对手势进行识别的流程示意图;
图6是本发明的较佳的实施例中,轮廓最大凹陷点扫描算法的流程示意图;
图7是本发明的较佳的实施例中,凹凸夹角识别算法的流程示意图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明的较佳的实施例中,提供一种以人脸为参照的手势识别方法,适用于智能设备中。在执行该手势识别方法之前,首先需要通过预先设置的训练样本设定一标准距离范围,标准距离范围表示使用者的人脸的中心位置至进行手势动作的手掌的中心位置的距离的适宜的取值范围。
换言之,本发明的较佳的实施例中,首先输入一些使用者通常进行手势动作时手掌的中心位置与人脸的中心位置之间的位置关系,并以这些位置关系作为训练样本进行反复训练,从而训练得到一个包括所有适宜的人脸中心与掌心之间距离的标准距离范围。即如果人脸中心位置与掌心之间的距离落在上述标准距离范围内,则表示当前使用者在进行手势动作,以试图对智能设备进行手势控制。
则本发明的较佳的实施例中,上述方法的总体流程如图1所示,包括下述步骤:
步骤S1,通过一图像采集装置获取关联于使用者全身的视频数据流,并处理得到关联于使用者的各个骨骼点的骨骼点信息;
具体地,如图2所示,上述步骤S1包括下述步骤:
步骤S11,采用图像采集装置采集包括背景以及使用者的全身的景深图像的视频数据流;
本发明的较佳的实施例中,上述图像采集装置可以为安装于支持手势指令交互的智能终端上的摄像头,优选地可以为景深摄像头,即支持在成像物体的前后距离范围内均能够清晰成像的功能的摄像头。
则在上述步骤S11中,采用上述景深摄像头直接拍摄使用者所在画面的背景以及使用者的全身深度图像的视频流,最后形成上述视频数据流并输出。
步骤S12,将视频数据流中包括的每帧的景深图像的像素的三维信息进行空间变换,以得到实际空间中的对应的点云信息;
本发明的较佳的实施例中,上述步骤S12中,将拍摄到的视频数据流中所获取的每帧的景深图像中每个像素的三维像素信息进行空间变换后分别得到其在实际空间中的对应的点云信息。
步骤S13,根据每个像素对应的点云信息,获得每个像素与景深摄像头之间的距离;
由上述步骤S12中得到的点云信息,进一步地可以在上述步骤S13中处理得到对应每一个像素点与景深摄像头之间的距离。
步骤S14,分别根据每个像素对应的距离,处理得到骨骼点信息。
上述步骤S14中,最终分别根据每个像素与上述景深摄像头之间的距离,可以处理得到使用者的骨骼点信息。所谓骨骼点,可以认为是一种人体标记模型,在该标记模型中包括多个可以用来标记人体不同部位的骨骼点,不同的骨骼点可以分别用于标记人体的各个关节处。例如某类多个骨骼点形成的人体虚拟模型,其中定义了20个骨骼点来表示人体处于站立状态下的骨架状态,每个骨骼点即为一个关节点。换言之,在执行上述手势识别方法之前,首先需要预先定义包括多个骨骼点的一个人体虚拟模型,现有技术中存在较多的能够实现预设上述人体虚拟模型的技术方案,在此不再详细赘述。
则本发明的较佳的实施例中,每帧景深图像的三维像素信息进行空间变换为实际空间中的点云信息的具体过程可以根据相关软件实现,只需要在实现时调用相关软件代码的API接口即可,在此不再赘述。
步骤S2,根据骨骼点信息,确定表示使用者的手心位置的手心位置信息与表示使用者的手长的手长信息;
本发明的较佳的实施例中,上述手心位置信息用于指示使用者的手心位置,更进一步地,手心位置信息可以用于指示使用者的手的位置。
本发明的较佳的实施例中,手长信息可以用于指示使用者的手掌长度。该手长信息通常为预设的,例如通过预先训练得到的人体身高与手长的比例计算得到,上述计算过程在下文中会详述。
则本发明的较佳的实施例中,如图3所示,上述步骤S2进一步包括:
步骤S21,根据处理得到的关联于使用者的各个骨骼点的骨骼点信息,获得使用者的手心位置信息;
步骤S22,根据处理得到的关联于使用者的各个骨骼点的骨骼点信息,依照下述公式计算得到使用者的身高信息:
其中,H1表示使用者的身高数值,H2表示背景的像素高度数值,H3表示使用者在被采集的视频图像中的像素高度数值,d表示使用者与景深摄像头之间的距离数值,θ表示景深摄像头在水平方向上的垂直角度数值。则上述H2的数值可以预先设定,例如取值为240,同样地θ也可以预先设定,例如设定为21.5°。
步骤S23,根据预设的人体身高与人体手长之间的对应关系,获得使用者的手长信息。
本发明的较佳的实施例中,上述人体身高与手长的对应关系可以根据大量的人体相关数据,通过大数据统计的方式进行多元线性回归分析得到。
步骤S3,根据手心位置信息判断使用者的手心距离地面的高度是否大于一预设的高度阈值:
若是,则继续执行步骤S4;
若否,则退出;
现有技术中,在支持手势识别的智能终端内通常存在这样一种情况:使用者虽然站在景深摄像头的画面捕捉范围内,但是其并非想要对相应的智能终端进行手势操作。则此时,使用者可能会在进行一些其他事务(例如与他人交谈等)时不自觉地挥动手臂,这一系列动作有可能会造成智能终端对手势动作的误读,即将使用者不自觉中做的一些手势动作识别为需要对智能终端进行控制的手势动作。
则在本发明的较佳的实施例中,为了避免上述误读手势动作的情况发生,在手势识别之前首先预设一个高度阈值,该高度阈值为使用者做一个标准的手势动作时,手部离地的标准高度。换言之,只要使用者的手部离地的高度高于上述高度阈值,则可以表明使用者当前在尝试向智能终端输入手势指令。反之,则可以认为使用者并没有意愿通过手势动作控制智能终端。
则上述步骤S3中,首先可以通过手心位置以及使用者全身的图像确定手部离地的距离。在上述高度阈值的预先设置的过程中,可以直接将高度阈值设置为标准的手势动作对应的手部的中心(即手心)离地的高度距离,这样在实际计算过程中,可以直接采用上述手心位置计算离地高度并与预设的高度阈值进行对比。同样地,上述高度阈值也可以设置为标准的手势动作对应的手部底部/上部边缘离地的高度距离,在这种情况下,在实际计算过程中,就需要首先根据手心位置信息推算出大致的手部的底部/上部的边缘位置,并进而计算得到手部实际的离地高度,并与预设的高度阈值进行对比。
步骤S4,获取视频数据流中的关联于使用者的人脸的人脸中心位置,并根据手心位置信息判断关联于使用者的手掌的手心位置与人脸中心位置的距离是否处于标准距离范围内:
若是,则继续执行步骤S5;
若否,则退出;
具体地,本发明的较佳的实施例中,由于通过预先设置的训练样本可以反复训练得到上述标准距离范围,则在上述步骤S4中,可以直接以上述标准距离范围作为参照:若当前视频数据流中获取的人脸中心(即上述人脸中心位置)与掌心(即上述手心位置)之间的距离落在上述标准距离范围内,则表示此时使用者试图以手势动作控制智能设备,因此继续执行下述的手势识别方法。反之,若上述人脸中心位置和手心位置之间的距离未落在上述标准距离范围内,则表示此时使用者并非试图以手势动作控制智能设备,因此直接退出该手势识别方法。
步骤S5,判断得到手掌区域的图像,并对手掌区域的图像进行分割裁剪以及进行预处理,得到相应的手部掩膜并输出;
本发明的较佳的实施例中,上述步骤S5具体如图4所示,包括下述步骤:
步骤S51,根据手心位置信息和手长信息,去除使用者的手部包括的所有与手心位置的距离大于手长的一半的像素点的信息,并依据去除后的手部包括的所有像素点的信息得到手部数据;
本发明的较佳的实施例中,基于距离深度的过滤算法,去除所有与上述手心位置相距大于手长一半的像素点的数据,从而能够快速获取手部数据。换言之,最终经过过滤后保留下来的为以手心位置为圆心,以手长的一半为半径的一个球形区域,位于该球形区域内的所有像素点均被保留,以作为手部数据的像素点。
因此,本发明的较佳的实施例中,使用者的手部数据被包含在以使用者的手长的一半为半径、并以使用者的手心位置为圆心的一个球形区域内。
具体地,本发明的较佳的实施例中,上述步骤S51中,依照下述公式计算得到上述球形区域中的像素点的集合,即得到手部数据:
其中,p0表示上述球形区域内的像素点的集合,p为使用者的手部包括的像素点,p(x,y,z)用于表示坐标为(x,y,z)的像素点p,p(x0,y0,z0)用于表示坐标为(x0,y0,z0),即用于表示手心位置所在的像素点,H4用于表示手长信息的数值。
步骤S52,通过K均值聚类算法对处理得到的手部数据进行聚类处理,得到经过聚类处理后的手部数据;
本发明的较佳的实施例中,上述步骤S52中的K均值聚类算法中的K值可以由开发者指定类的个数,在本发明的一个较佳的实施例中,K值取固定的数值2。
步骤S53,设置最小聚类数,以对手部数据进行噪声干扰像素簇的过滤排除,从而得到关联于手部数据的手部掩膜并输出。
本发明的较佳的实施例中,上述手部掩膜可以为由0和1组成的一个二进制图像。则在本发明的一个较佳的实施例中,上述步骤S53中,设置的最小聚类数(最小的聚类数像素阈值)为50个像素点。
步骤S6,根据处理结果,识别出手部的指尖区域,并根据指尖区域的几何关系对使用者的手势进行识别。
本发明的较佳的实施例中,可以基于轮廓曲率的指尖检测法结合景深图像的特性,提出一种凹凸点夹角识别算法,这种算法克服了常规的三点对齐法对指尖检测的不足(例如缺乏相对不变性,对成像图像与摄像头之间的距离有较高的要求,并且会增加程序的运算量等)。并在上述凹凸点夹角识别算法的基础上,利用人体和手部的空间位置关系识别手部的各个手指。最后可以通过形成的一个三层决策树,依赖各个手指的指尖区域对手势进行分析处理,从而识别使用者的手势动作。
具体地,本发明的较佳的实施例中,如图5所示,上述步骤S6包括:
步骤S61,采用Moore邻域轮廓跟踪算法检测得到手部掩膜的边缘轮廓,并获得包括边缘轮廓上的所有轮廓点的第一点链集合;
Moore邻域轮廓跟踪算法为现有技术中存在的比较经典的用来检测轮廓的算法,在此不再赘述。
步骤S62,采用Graham扫描算法检测得到手部掩膜的手部轮廓上的凸包集,并获得包括所有凸包的第二点链集合;
Graham同样也是经典的用于监测轮廓的算法,在此也不再赘述。
步骤S63,采用轮廓最大凹陷点扫描算法,于手部掩膜的边缘轮廓和手部轮廓的凸包集上检测得到所有凸点之间的最大凹陷点,并获得包括手部轮廓上的凹凸点的第三点链集合;
进一步地,本发明的较佳的实施例中,如图6所示,上述步骤S63中,所谓的轮廓最大凹陷点扫描算法具体包括:
步骤S631,将在手部轮廓上的第二点链集合作为初始的第三点链集合。
步骤S632,依次对第二点链集合的前后相邻的2个凸点之间的、第三点链集合中的各手部轮廓凹陷点运用点到线的距离公式,探测其手部轮廓的凹陷点到上述相邻的2个凸点之间的连接直线具有最大距离的凹点。
步骤S633,将上述具有最大距离的凹点插入到上述第三点链集合中上述相邻的2个凸点之间。
步骤S634,重复执行上述步骤S632至S633,直到上述第三点链集合中的点全部被检测完毕。
步骤S635,通过迭代求出其最大值的点,则为最大凹陷点,并生成有序的手部轮廓上的第三点链集合。
步骤S64,采用凹凸夹角识别算法,依据关联于手部轮廓的第三点链集合处理得到包括手部的所有指尖点的第四点链集合;
具体地,本发明的较佳的实施例中,如图7所示,上述步骤S64中,所谓的凹凸夹角识别算法包括:
步骤S641,由上至下依序在手部轮廓上的第三点链集合内找到一个凸点P1,并且分别从其前后2个方向上选取相邻凹点P2和凹点P3。
步骤S642,从凹点P2到凸点P1、凸点P1到凹点P2作2条矢量,计算其在凸点P1点的夹角,如果其夹角小于设定的阈值,则凸点P1点被识别为指尖区域存入上述第四点链集合。
步骤S643,如果手部轮廓上的第三点链集合还没有检测完,则重复上述步骤S641,以检测下一个候选凸点;否则结束。
步骤S65,根据指尖点识别得到手部的每个手指,随后执行手势识别操作。
本发明的较佳的实施例中,上述步骤S65中,可以依次计算上述第四点链集合中每2个相邻和非相邻的指尖点的距离,并根据距离确定不同的指尖区域对应的手指。
具体地,本发明的一个较佳的实施例中,可以将相邻2个指尖点距离最大和非相邻2个指尖点距离最大中的公共指尖点确定为大拇指,与大拇指相邻且距离最大的指尖点确定为食指,与大拇指非相邻且距离最大的指尖点确定为小拇指,与食指最近的指尖点确定为中指;剩下来的指尖点确定为无名指。
本发明的一个较佳的实施例中,上述凹凸点夹角的预设的阈值可以被设定为40°,则应用本发明技术方案能够有效解决传统的指尖检测中存在的误判问题,同时降低计算量。
本发明的较佳的实施例中,对于一个手势的识别,首先依照上述步骤识别出手指的个数,并获得手指的名称,以及各个手指的方向向量和它们之间的夹角,并以上述三个条件形成一个三层决策树,最终依据上述三层决策树实现手势动作的识别。
本发明的较佳的实施例中,上述三层决策树是通过对样本进行归纳学习,生成对应的决策树或决策规则,然后依据决策树或规则对新的数据进行分类的一种分类方法,在各种分类算法中,决策树是最直观的一种。三层决策树就是将上述三个条件各自作为树中一层决策节点的分类依据,从而达到分类目的。
在本发明中手部检测和手指识别的处理过程是在每一次有景深图像数据输入的时候进行的,如果同样的对象在下一帧景深图像中依然存在,且外形只是和前一帧图像有所变形时,则所有的对象属性将继续引用旧的景深图像帧分析得出的特征点,这样就可以减少程序工作量,提高效率。
在本发明的一个较佳的实施例中,根据上述三层决策树对手势进行识别的过程例如在识别数字比划的手势与手势”I love you”:
首先识别出使用者当前的手势动作涉及到三根手指,并获取相应的手指名以进行进一步识别。
通过预先的训练可以获知,在手势“I love you”中用到了大拇指、食指和小指,而比划数字例如比划阿拉伯数字“3”时用到了食指、中指和无名指,因此可以直接通过该手势动作中用到了哪几根手指来进行手势动作的区分。
又例如,同样进行数字的手势动作比划,例如比划阿拉伯数字“2”以及比划中文数字”七”,两个手势用到的手指数和手指名都相同,则可以通过两个手势的向量夹角来区分:
对于阿拉伯数字“2”而言,使用者在比划时,其两根手指的方向向量夹角一定是一个锐角,并且小于我们可以实现预设的一个阈值,此时就能让计算机识别出这是阿拉伯数字“2”。
相应地,对于中文手势“七”而言,使用者在比划时,其两个手指的方向向量夹角大于比划阿拉伯数字“2”时的夹角,则可以当夹角大于上述预设的阈值时,将当前的手势动作识别为“七”。
本发明的较佳的实施例中,上述利用三层决策树对手势动作进行识别还可以包括多种具体的实施例,在此不一一列举,但凡是利用上述三个条件形成的三层决策树对手势进行识别的方式均包括在本发明的保护范围内。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (9)
1.一种以人脸为参照的手势识别方法,其特征在于,通过预先设置的训练样本设定一标准距离范围,所述标准距离范围表示使用者的人脸的中心位置至进行手势动作的手掌的中心位置的距离的适宜的取值范围;
所述手势识别方法包括如下步骤:
步骤S1,通过一图像采集装置获取关联于使用者全身的视频数据流,并处理得到关联于所述使用者的各个骨骼点的骨骼点信息;
步骤S2,根据所述骨骼点信息,确定表示所述使用者的手心位置的手心位置信息与表示所述使用者的手长的手长信息;
步骤S3,根据所述手心位置信息判断所述使用者的手心距离地面的高度是否大于一预设的高度阈值:
若是,则继续执行步骤S4;
若否,则退出;
步骤S4,获取所述视频数据流中的关联于所述使用者的人脸的人脸中心位置,并根据所述手心位置信息判断关联于所述使用者的手掌的手心位置与所述人脸中心位置的距离是否处于所述标准距离范围内:
若是,则继续执行步骤S5;
若否,则退出;
步骤S5,判断得到手掌区域的图像,并对所述手掌区域的图像进行分割裁剪以及进行预处理,得到相应的手部掩膜并输出;
步骤S6,根据所述处理结果,识别出手部的指尖区域,并根据所述指尖区域的几何关系对所述使用者的手势进行识别。
2.如权利要求1所述的手势识别方法,其特征在于,所述步骤S1中,所述图像采集装置为景深摄像头;
所述视频数据为关联于所述使用者的全身的景深视频数据。
3.如权利要求2所述的手势识别方法,其特征在于,所述步骤S1包括:
步骤S11,采用所述图像采集装置采集包括背景以及所述使用者的全身的景深图像的视频数据流;
步骤S12,将所述视频数据流中包括的每帧的所述景深图像的像素的三维信息进行空间变换,以得到实际空间中的对应的点云信息;
步骤S13,根据每个所述像素对应的所述点云信息,获得每个所述像素与所述景深摄像头之间的距离;
步骤S14,分别根据每个所述像素对应的所述距离,处理得到所述骨骼点信息。
4.如权利要求1所述的手势识别方法,其特征在于,所述步骤S2包括:
步骤S21,根据处理得到的关联于所述使用者的各个所述骨骼点的所述骨骼点信息,获得所述使用者的所述手心位置信息;
步骤S22,根据处理得到的关联于所述使用者的各个所述骨骼点的所述骨骼点信息,依照下述公式计算得到所述使用者的身高信息:
其中,H1表示所述使用者的身高数值,H2表示背景的像素高度数值,H3表示所述使用者在被采集的视频图像中的像素高度数值,d表示所述使用者与所述景深摄像头之间的距离数值,θ表示所述景深摄像头在水平方向上的垂直角度数值;
步骤S23,根据预设的人体身高与人体手长之间的对应关系,获得所述使用者的所述手长信息。
5.如权利要求1所述的手势识别方法,其特征在于,所述步骤S5包括:
步骤S51,根据所述手心位置信息和所述手长信息,去除所述使用者的手部包括的所有与所述手心位置的距离大于所述手长的一半的像素点的信息,并依据去除后的手部包括的所有所述像素点的信息得到手部数据;
步骤S52,通过K均值聚类算法对处理得到的所述手部数据进行聚类处理,得到经过聚类处理后的所述手部数据;
步骤S53,设置最小聚类数,以对所述手部数据进行噪声干扰像素簇的过滤排除,从而得到关联于所述手部数据的手部掩膜并输出。
6.如权利要求5所述的手势识别方法,其特征在于,所述手部数据包含在以所述使用者的所述手长的一半为半径、并以所述使用者的所述手心位置为圆心的一个球形区域内。
7.如权利要求1所述的手势识别方法,其特征在于,所述步骤S6包括:
步骤S61,采用Moore邻域轮廓跟踪算法检测得到所述手部掩膜的边缘轮廓,并获得包括所述边缘轮廓上的所有轮廓点的第一点链集合;
步骤S62,采用Graham扫描算法检测得到所述手部掩膜的手部轮廓上的凸包集,并获得包括所有凸包的第二点链集合;
步骤S63,采用轮廓最大凹陷点扫描算法,于所述手部掩膜的所述边缘轮廓和所述手部轮廓的所述凸包集上检测得到所有所述凸点之间的最大凹陷点,并获得包括所述手部轮廓上的凹凸点的第三点链集合;
步骤S64,采用凹凸夹角识别算法,依据关联于所述手部轮廓的所述第三点链集合处理得到包括手部的所有指尖点的第四点链集合;
步骤S65,根据所述指尖点识别得到手部的每个手指,随后执行手势识别操作。
8.如权利要求7所述的手势识别方法,其特征在于,所述步骤S65中,执行手势识别操作的步骤具体包括:
步骤S651,识别得到手部的所有所述手指的个数;
步骤S652,,根据预设信息判断得到每根所述手指的名称、方向向量以及相邻所述手指之间的夹角并输出;
步骤S653,根据所述步骤S652中输出的信息形成一三层决策树,并根据所述三层决策树对手势进行识别。
9.如权利要求5所述的手势识别方法,其特征在于,所述步骤S52中,所述K均值聚类算法中的K值设定为固定数值2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610024252.7A CN106971130A (zh) | 2016-01-14 | 2016-01-14 | 一种以人脸为参照的手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610024252.7A CN106971130A (zh) | 2016-01-14 | 2016-01-14 | 一种以人脸为参照的手势识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106971130A true CN106971130A (zh) | 2017-07-21 |
Family
ID=59335061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610024252.7A Pending CN106971130A (zh) | 2016-01-14 | 2016-01-14 | 一种以人脸为参照的手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106971130A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107422859A (zh) * | 2017-07-26 | 2017-12-01 | 广东美的制冷设备有限公司 | 基于手势的调控方法、装置及计算机可读存储介质和空调 |
CN108108024A (zh) * | 2018-01-02 | 2018-06-01 | 京东方科技集团股份有限公司 | 动态手势获取方法及装置、显示装置 |
CN108596092A (zh) * | 2018-04-24 | 2018-09-28 | 亮风台(上海)信息科技有限公司 | 手势识别方法、装置、设备和存储介质 |
CN109350018A (zh) * | 2019-01-08 | 2019-02-19 | 湖南超能机器人技术有限公司 | 应用于手掌疱疹检测系统的基于图像的手掌检测方法 |
CN109977906A (zh) * | 2019-04-04 | 2019-07-05 | 睿魔智能科技(深圳)有限公司 | 手势识别方法及系统、计算机设备及存储介质 |
CN111062312A (zh) * | 2019-12-13 | 2020-04-24 | RealMe重庆移动通信有限公司 | 手势识别方法、手势控制方法、装置、介质与终端设备 |
CN111079597A (zh) * | 2019-12-05 | 2020-04-28 | 联想(北京)有限公司 | 三维信息检测方法及电子设备 |
CN111680654A (zh) * | 2020-06-15 | 2020-09-18 | 杭州海康威视数字技术股份有限公司 | 一种基于物品取放事件的人员信息获取方法、装置及设备 |
CN112527103A (zh) * | 2020-11-24 | 2021-03-19 | 安徽鸿程光电有限公司 | 显示设备的遥控方法、装置、设备及计算机可读存储介质 |
CN112989959A (zh) * | 2021-02-20 | 2021-06-18 | 北京鸿合爱学教育科技有限公司 | 手归属识别方法、装置、电子设备及存储介质 |
CN113807154A (zh) * | 2020-06-12 | 2021-12-17 | 神州共享(北京)文化传媒有限公司 | 一种数字展厅人机交互系统 |
CN115097936A (zh) * | 2022-06-16 | 2022-09-23 | 慧之安信息技术股份有限公司 | 基于手势动作深度学习的显示屏控制方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102142084A (zh) * | 2011-05-06 | 2011-08-03 | 北京网尚数字电影院线有限公司 | 一种手势识别的方法 |
CN103984928A (zh) * | 2014-05-20 | 2014-08-13 | 桂林电子科技大学 | 基于景深图像的手指手势识别方法 |
CN104778460A (zh) * | 2015-04-23 | 2015-07-15 | 福州大学 | 一种在复杂背景以及光照下的单目手势识别方法 |
CN105160323A (zh) * | 2015-09-07 | 2015-12-16 | 哈尔滨市一舍科技有限公司 | 一种手势识别方法 |
-
2016
- 2016-01-14 CN CN201610024252.7A patent/CN106971130A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102142084A (zh) * | 2011-05-06 | 2011-08-03 | 北京网尚数字电影院线有限公司 | 一种手势识别的方法 |
CN103984928A (zh) * | 2014-05-20 | 2014-08-13 | 桂林电子科技大学 | 基于景深图像的手指手势识别方法 |
CN104778460A (zh) * | 2015-04-23 | 2015-07-15 | 福州大学 | 一种在复杂背景以及光照下的单目手势识别方法 |
CN105160323A (zh) * | 2015-09-07 | 2015-12-16 | 哈尔滨市一舍科技有限公司 | 一种手势识别方法 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107422859B (zh) * | 2017-07-26 | 2020-04-03 | 广东美的制冷设备有限公司 | 基于手势的调控方法、装置及计算机可读存储介质和空调 |
CN107422859A (zh) * | 2017-07-26 | 2017-12-01 | 广东美的制冷设备有限公司 | 基于手势的调控方法、装置及计算机可读存储介质和空调 |
CN108108024A (zh) * | 2018-01-02 | 2018-06-01 | 京东方科技集团股份有限公司 | 动态手势获取方法及装置、显示装置 |
CN108596092A (zh) * | 2018-04-24 | 2018-09-28 | 亮风台(上海)信息科技有限公司 | 手势识别方法、装置、设备和存储介质 |
CN108596092B (zh) * | 2018-04-24 | 2021-05-18 | 亮风台(上海)信息科技有限公司 | 手势识别方法、装置、设备和存储介质 |
CN109350018A (zh) * | 2019-01-08 | 2019-02-19 | 湖南超能机器人技术有限公司 | 应用于手掌疱疹检测系统的基于图像的手掌检测方法 |
CN109350018B (zh) * | 2019-01-08 | 2019-04-26 | 湖南超能机器人技术有限公司 | 应用于手掌疱疹检测系统的基于图像的手掌检测方法 |
CN109977906A (zh) * | 2019-04-04 | 2019-07-05 | 睿魔智能科技(深圳)有限公司 | 手势识别方法及系统、计算机设备及存储介质 |
CN109977906B (zh) * | 2019-04-04 | 2021-06-01 | 睿魔智能科技(深圳)有限公司 | 手势识别方法及系统、计算机设备及存储介质 |
CN111079597A (zh) * | 2019-12-05 | 2020-04-28 | 联想(北京)有限公司 | 三维信息检测方法及电子设备 |
CN111062312A (zh) * | 2019-12-13 | 2020-04-24 | RealMe重庆移动通信有限公司 | 手势识别方法、手势控制方法、装置、介质与终端设备 |
CN111062312B (zh) * | 2019-12-13 | 2023-10-27 | RealMe重庆移动通信有限公司 | 手势识别方法、手势控制方法、装置、介质与终端设备 |
CN113807154A (zh) * | 2020-06-12 | 2021-12-17 | 神州共享(北京)文化传媒有限公司 | 一种数字展厅人机交互系统 |
CN111680654A (zh) * | 2020-06-15 | 2020-09-18 | 杭州海康威视数字技术股份有限公司 | 一种基于物品取放事件的人员信息获取方法、装置及设备 |
CN111680654B (zh) * | 2020-06-15 | 2023-10-13 | 杭州海康威视数字技术股份有限公司 | 一种基于物品取放事件的人员信息获取方法、装置及设备 |
CN112527103A (zh) * | 2020-11-24 | 2021-03-19 | 安徽鸿程光电有限公司 | 显示设备的遥控方法、装置、设备及计算机可读存储介质 |
CN112527103B (zh) * | 2020-11-24 | 2022-07-22 | 安徽鸿程光电有限公司 | 显示设备的遥控方法、装置、设备及计算机可读存储介质 |
CN112989959A (zh) * | 2021-02-20 | 2021-06-18 | 北京鸿合爱学教育科技有限公司 | 手归属识别方法、装置、电子设备及存储介质 |
CN115097936A (zh) * | 2022-06-16 | 2022-09-23 | 慧之安信息技术股份有限公司 | 基于手势动作深度学习的显示屏控制方法 |
CN115097936B (zh) * | 2022-06-16 | 2023-03-24 | 慧之安信息技术股份有限公司 | 基于手势动作深度学习的显示屏控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106971130A (zh) | 一种以人脸为参照的手势识别方法 | |
CN106971131A (zh) | 一种基于中心位置的手势识别方法 | |
CN103971102B (zh) | 基于手指轮廓和决策树的静态手势识别方法 | |
CN104834922B (zh) | 基于混合神经网络的手势识别方法 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN106886741A (zh) | 一种基手指识别的手势识别方法 | |
CN103413145B (zh) | 基于深度图像的关节点定位方法 | |
CN107341473A (zh) | 手掌特征识别方法、手掌特征识别设备、及存储介质 | |
CN106709450A (zh) | 一种指纹图像识别方法及系统 | |
CN109829368B (zh) | 手掌特征的识别方法、装置、计算机设备及存储介质 | |
CN105975934A (zh) | 一种用于增强现实辅助维修的动态手势识别方法及系统 | |
CN109190460B (zh) | 基于累积匹配和等错误率的手形手臂静脉融合识别方法 | |
CN112926541B (zh) | 一种睡岗检测方法、装置及相关设备 | |
CN107169479A (zh) | 基于指纹验证的智能移动设备敏感数据防护方法 | |
CN106980852A (zh) | 基于角点检测与匹配的药品识别系统及其识别方法 | |
CN108664838A (zh) | 基于改进rpn深度网络的端到端的监控场景行人检测方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
JP6487642B2 (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
CN106970701A (zh) | 一种手势变化识别方法 | |
CN109558855B (zh) | 一种基于手掌轮廓特征与模版匹配法相结合的空间手势识别方法 | |
CN106991380A (zh) | 一种基于掌静脉图像的预处理方法 | |
CN109766796A (zh) | 一种面向密集人群的深度行人检测方法 | |
CN106446911A (zh) | 一种基于图像边缘线弯曲度和距离特征的人手识别方法 | |
CN105894540A (zh) | 一种基于移动终端的上下往复移动计数方法及系统 | |
CN110008824A (zh) | 掌纹识别方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170721 |