CN105930775A - 基于灵敏度参数的人脸朝向识别方法 - Google Patents

基于灵敏度参数的人脸朝向识别方法 Download PDF

Info

Publication number
CN105930775A
CN105930775A CN201610230028.3A CN201610230028A CN105930775A CN 105930775 A CN105930775 A CN 105930775A CN 201610230028 A CN201610230028 A CN 201610230028A CN 105930775 A CN105930775 A CN 105930775A
Authority
CN
China
Prior art keywords
towards
facial orientation
value
face
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610230028.3A
Other languages
English (en)
Other versions
CN105930775B (zh
Inventor
刘辉
李燕飞
张雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201610230028.3A priority Critical patent/CN105930775B/zh
Publication of CN105930775A publication Critical patent/CN105930775A/zh
Application granted granted Critical
Publication of CN105930775B publication Critical patent/CN105930775B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于灵敏度参数的人脸朝向识别方法,包括步骤:S1:对采集到的单帧图像逐一进行静态人脸朝向识别,根据人脸旋转的角度大小判断单帧图像的人脸朝向是正面、朝左还是朝右;S2:在给定的采集时间内,对采集到的所有单帧图像都进行静态人脸朝向识别,得出一个按照时序依次排列的人脸朝向结果集;S3:对人脸朝向结果集进行过程分析,识别指令意图,得出人脸朝向过程给出的指令结果。本发明结合简单的面部特征与实时捕捉头部动态过程结果作为相应指令匹配方式,能准确识别移动机器人人机交互过程中的面部转动指令,这种方式自然而且表达清晰,不受环境的限制,适用范围广。

Description

基于灵敏度参数的人脸朝向识别方法
技术领域
本发明涉及移动机器人,尤其涉及一种用于机器人的基于灵敏度参数的人脸朝向识别方法。
背景技术
在复杂室内环境中,如现代实验室、运输物流工厂等,移动机器人常用来替代人员执行简单、危险、重复性的任务,以节省大量的人力资源成本。在流程控制特别繁琐的室内环境中,如在化学实验室中,移动机器人的运用能减少科研人员接触危险品的机会,不仅能够保证实验的准确性,而且能有效地降低事故发生几率。
人机交互是移动机器人智能化的重要组成部分,如今,人类已经从通过触摸式,如鼠标、键盘、按钮等媒介,对机器进行指令发送发展到通过各种传感器(如声音传感器,红外传感器等)的运用给机器下达各种任务指令。微软公司Kinect传感器的出现,使人机交互方式又迈出了一大步,基于Kinect传感器开发的交互界面下,人身体本身就可以成为控制器。譬如,使用双臂完成几种姿势来操控机器人完成任务(如申请号201210267315.3公开了《一种双臂机器人基于Kinect的人机交互方法》和申请号201310327955.3公开了《基于kinect人体骨骼跟踪控制的智能机器人人机交互方法》),但是这种应用场景范围非常受限。
例如:当机器人面对与双手紧抱重物或手持物品的工作人员进行人机交互,或者机器人面对电梯里挤满不同工作单位的人员时,该如何听从指令;此外,还需要一些与特定的操作任务无关的手势用于改变机器人的操作模式,这些都造成了操作任务的交流不自然。因此需要一种自然的容易被操作人员理解记忆的控制方法。
当然,我们也可以利用语音来进行操作(如申请号201410057451.9公开了《一种基于单人手势和语音信息的机器人人工导航方法》),但是如果在工厂里或者声音嘈杂的实验室环境下,移动机器人如何正确的接收并分析识别所下达的语音指令也是一个难题。
这些公开的档案中,很多都侧重于或只考虑人的肢体行为,只依赖于Kinect传感器提供的骨骼数据,而忽略了人类社会中另一种重要的交流媒介——人脸,并且Kinect传感器本身拥有廉价而又优越的硬件条件,如深度传感器,红外传感器和普通摄像头可以提供可达到每秒30帧的1080p高清图像,这些高清图像足够可以应付要求达到高识别率的人脸识别技术并且可以构建清晰的人脸三维模型,通过人脸面部与头部行为来对机器人获取控制权和下达指令。
然而,普通的人脸识别都是基于静态单帧图像处理或者只关注于脸部细微特征变化(如申请号201410848027.6公开了《基于Kinect及人脸识别的疲劳驾驶检测方法》),虽然可以达到很高的人脸识别准确率,但是不能应用于与移动机器人交互的动态过程中,因为,如果运用脸部表情刻意变化去表征某个指令,对于用户来说不够自然感到不适并且表情细微的变化特征抖动会限制指令正确识别率。此外,如果只处理单个时间点的数据帧,当机器人捕捉到的人脸本身就是有旋转角度的人脸图像,譬如,机器人首先捕捉到朝右的人脸图像,过了两秒后捕捉到人脸图像又是朝右,是否一定能判断此人做出的行为一定是头部向右转动?答案是否定的,因为在2秒这段时间内人的头部行为是未知的,这就降低了识别的准确率。因此,在实际运用中必须要实时的动态的识别人的脸部状态,这就既要求高识别准确率又要求短的计算时间。
发明内容
本发明目的在于提供一种基于灵敏度参数的人脸朝向识别方法,以解决现有面部识别应用于与移动机器人交互的动态过程中识别的准确率不高的技术问题。
为实现上述目的,本发明提供了一种基于灵敏度参数的人脸朝向识别方法,包括以下步骤:
S1:对采集到的单帧图像逐一进行静态人脸朝向识别,根据人脸旋转的角度大小判断单帧图像的人脸朝向是正面、朝左还是朝右;
S2:在给定的采集时间内,对采集到的所有单帧图像都进行静态人脸朝向识别,得出一个按照时序依次排列的人脸朝向结果集;
S3:对人脸朝向结果集进行过程分析,识别指令意图,得出人脸朝向过程给出的指令结果。
作为本发明的方法的进一步改进:
优选地,步骤S1包括以下步骤:
S101:对采集到的单帧图像,获取头部原点四元数,采用如下公式计算起始时刻头部旋转的角度的欧拉角的大小:
其中,四元数是由实数w加上三个虚数单位i,j,k组成的超复数,表示为w+xi+yj+zk,其中i的旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,j旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,k旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转,-i、-j、-k分别代表i、j、k旋转的反向旋转;
S102:根据欧拉角中ω值大小,判断人脸朝向:如果起始时刻ω大于左灵敏度阈值,判断起始人脸朝向为朝左;如果起始时刻ω处于左灵敏度阈值与右灵敏度阈值之间或者等于左灵敏度阈值与右灵敏度阈值时,判断起始人脸朝向为正面;如果起始时刻ω小于右灵敏度阈值,判断起始人脸朝向为朝右;
S103:记录人脸朝向状态。
优选地,在步骤S102中,左灵敏度阈值为0或者根据用户动作习惯设置的第一定值;右灵敏度阈值为0或者根据用户动作习惯设置的第二定值。
优选地,人脸朝向结果集包括人脸朝向数组,步骤S2包括以下步骤:
S201:获取在给定的采集时间内按照采集频率采集的多个单帧图像;
S202:采用步骤S101对采集到的所有单帧图像都计算起始时刻头部旋转的角度的欧拉角的大小,得出一个按照时序依次排列的向量ω=(ω12,…,ωi,…,ω30t)且t=1,2,3,…;其中t为单帧图像采集的时序编号;
S204:采用步骤S102判断向量ω中的每个元素的人脸朝向,得出人脸朝向数组r=(r1,r2,…,ri,…,r30t)且t=1,2,3,…,ri=0,1,2。
优选地,人脸朝向结果集还包括角度差值数组,在步骤S204完成后,步骤S2包括以下步骤:
S205:计算向量ω中的每个元素与起始时刻ω值的差值绝对值d的大小,d=||ω-ωi||,并保存入角度差值数组d=(d1,d2,…,di,…,d30t)且t=1,2,3,…,角度差值数组中的元素与人脸朝向数组中的元素一一对应。
优选地,在步骤S204进行之前,步骤S2还包括以下步骤:
S203:判断当前单帧图像当前时刻是否已经超出给定采集时间的长度阀值,如果否,进入步骤S204。
优选地,指令结果,包括转动朝向,转动朝向包括正面、朝左及朝右,步骤S3包括以下步骤:
S301:如果起始人脸朝向为正面,遍历人脸朝向结果集中的后续值,如果后续值都是正面则指令结果为正面;如果遍历时出现的第一个不为正面的值是朝左则判断指令结果为朝左,如果遍历时出现的第一个不为正面的值是朝右则判断指令结果为朝右;
S302:如果起始人脸朝向为朝左,遍历人脸朝向结果集中的后续值,直到出现第一个不是朝左的值,如果这个值为正面,则继续遍历;如果继续遍历出现的值为朝右则判断指令结果为朝右;如果只有正面和朝左那么统计后续值分别为正面和朝左的数量,如果朝左的数量多那么判断指令结果为朝左;反之结果为朝右;如果没有非值是朝左的其他值,则指令结果为正面;
S303:如果起始人脸朝向为朝右,遍历人脸朝向结果集中的后续值,直到出现第一个不是朝右的值,如果这个值为正面,则继续遍历;如果继续遍历出现的值为朝左则判断指令结果为朝左;如果只有正面和朝右那么统计后续值分别为正面和朝右的数量,如果朝右的数量多那么结果为朝右,反之结果为朝左;如果没有非值是朝右的其他值,则指令结果为正面。
优选地,指令结果还包括朝向角度,在步骤S301至步骤S303中,遍历人脸朝向结果集时,在记录所有单帧图像的角度差值数组中,根据得出的转动朝向的相应的最大时刻点的角度差值作为朝向角度的大小输出。
优选地,步骤S3完成后,将指令结果输送给移动机器人的执行部件以控制移动机器人按照指令结果中的转动朝向和朝向角度行进或退避。
优选地,采集到的单帧图像为获取了移动机器人控制权的授权人的身体数据帧和面部数据帧的彩色图像。
本发明具有以下有益效果:
1、本发明的基于灵敏度参数的人脸朝向识别方法,结合简单的面部特征与实时捕捉头部动态过程结果作为相应指令匹配方式,能准确识别移动机器人人机交互过程中的面部转动指令,这种方式自然而且表达清晰,不受环境的限制,适用范围广。
2、在优选的方案中,本发明的基于灵敏度参数的人脸朝向识别方法,可以识别多角度人脸朝向,工作人员可以指定角度大小,机器人按照指定角度进行有角度朝向行进避让。使用灵敏度参数中人脸转向幅度参数进行调节,适应各种光照不同的环境下人机交互控制的使用,提高了人脸位置的识别正确率。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明优选实施例的基于灵敏度参数的人脸朝向识别方法的流程示意图;
图2是本发明另一优选实施例的基于灵敏度参数的人脸朝向识别方法的流程示意图;
图3是本发明优选实施例的授权人发出指令朝右避让可能出现的指令形式示意图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
本实施例中所称的灵敏度参数是指根据不同人员的脸部转向习惯而定义的用于实现移动机器人交互控制的一组参数,包括人脸转向速度、人脸转向幅度和控制权竞胜。人脸转向速度代表个体头部转向速度的快慢。人脸转向幅度是指人脸正对于机器人正面所旋转的具体角度。在高质量的移动机器人运输交互控制中,除了人脸转向速度和人脸转向幅度非常重要,控制权竞胜参数也直接影响着交互控制的智能化水平。例如,当机器人视野内出现多名工作人员,而这些工作人员中存在一名或几名想与机器人进行交互,除此外其他人员没有有与机器人进行交互的意愿,如果机器人没有预先考虑这个参数,机器人会实时进行指令侦听,这样有可能那些没有意愿给机器人下达指令的人的一些无意识的转头动作,机器人会误以为该个体给他下达了相关指令内容,譬如假设该人无意识的进行了头部右转动作,这个头部右转动作预设的指令内容是朝右前进,那么机器人如果执行这个指令可能会与朝右前进的路线上的某物体或其他人产生碰撞,产生严重事故。因此,这个参数是至关重要的,个体若想对机器人下达指令,也就是想要获取机器人的临时控制权,那么事先可以通过给出这个参数值告知机器人本人想要下达指令,说明接下来的指令动作是有效的,其他人未首先给出有效的控制权竞胜参数,那么接下的下达的指令视为无效。该参数可以由眼部闭合状态、个体头部抬头或低头具体角度大小或者混合方式来表征。本实施例仅表述与以头部转动过程结果作为相应的指令内容,告知机器人停止等待、行走方向和相应的退避方向的相关内容。本实施例包括但不限于采用微软生产的Kinect传感器实现彩色图像的采集。
参见图1,本发明的基于灵敏度参数的人脸朝向识别方法,包括以下步骤:
S1:对采集到的单帧图像逐一进行静态人脸朝向识别,根据人脸旋转的角度大小判断单帧图像的人脸朝向是正面、朝左还是朝右;
S2:在给定的采集时间内,对采集到的所有单帧图像都进行静态人脸朝向识别,得出一个按照时序依次排列的人脸朝向结果集;
S3:对人脸朝向结果集进行过程分析,识别指令意图,得出人脸朝向过程给出的指令结果。
以上步骤,结合简单的面部特征与分析实时捕捉头部动态过程结果作为相应指令匹配方式,能准确识别移动机器人人机交互过程中的面部转动指令,这种方式自然而且表达清晰,不受环境的限制,适用范围广。
在实际应用中,在上述步骤的基础上,本发明的基于灵敏度参数的人脸朝向识别方法还可步骤进行优化,以下说明另一个优化后的实施例,参见图2,在进行本发明的识别之前,移动机器人先进行如下工作:
实时检测侦听模块完成后,从它获取检测到的人数结果和所有相应追踪号。然后从Kinetc传感器获取身体数据帧(源于Kinect传感器SDK类库的BodyFrameSource参数)和面部数据帧(源于Kinect传感器SDK类库的faceFrameSources参数)。
判断指令触发状态变量,是否已经收到指令触发命令(眼睛闭合状态数据)。如果是,表示有人通过眼睛闭合状态给出指令,有意图要控制机器人,因此寻找授权人,并且如果找到授权人,则获取授权人的追踪号和采集时间长度;如果否,表示没有人想控制机器人,机器人获取下一人身体数据帧和面部数据帧,进行持续监测。
运用寻找授权人方法,寻找授权人,并记录追踪号。如果没有找到授权人那么获取身体数据帧和面部数据帧。获取授权人的追踪号后,对授权人发出的指令采用本实施例的方法进行识别,以授权人的头部转动过程结果作为相应的指令内容,告知机器人停止等待、行走方向和相应的退避方向。
参见图2,本实施例的基于灵敏度参数的人脸朝向识别方法,包括以下步骤:
S1:对采集到的单帧图像(采集到的单帧图像是获取了移动机器人控制权的授权人的身体数据帧和面部数据帧的彩色图像,授权人即有权限的指令发起人)逐一进行静态人脸朝向识别,根据人脸旋转的角度大小判断单帧图像的人脸朝向是正面、朝左还是朝右;具体包括以下步骤:
S101:对采集到的单帧图像,获取头部原点四元数,采用如下公式计算起始时刻头部旋转的角度的欧拉角的大小:
其中,四元数是由实数w加上三个虚数单位i,j,k组成的超复数,表示为w+xi+yj+zk,对于虚数单位i,j,k本身的几何意义可以理解为一种旋转,其中i的旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,j旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,k旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转,-i、-j、-k分别代表i、j、k旋转的反向旋转。此处头部原点位置指由眼睛连线与鼻梁纵向直线相交点位置代表确定,根据此点在空间内的坐标位置变化可计算出代表头部旋转的四元数值。在具体实现时,四元数值可由Kinect体感传感器直接实时测量获得,然后计算对应的头部旋转欧拉角。
S102:根据欧拉角中ω值大小,判断人脸朝向:如果起始时刻ω大于左灵敏度阈值,判断起始人脸朝向为朝左;如果起始时刻ω处于左灵敏度阈值与右灵敏度阈值之间或者等于左灵敏度阈值与右灵敏度阈值时,判断起始人脸朝向为正面;如果起始时刻ω小于右灵敏度阈值,判断起始人脸朝向为朝右;左灵敏度阈值为0或者根据用户动作习惯设置的第一定值;右灵敏度阈值为0或者根据用户动作习惯设置的第二定值。
左灵敏度阈值和右灵敏度阈值可手动调节人脸转向幅度参数,左灵敏度阈值人脸朝左转动幅度大小,假设此值设为10°,那么表示只有当授权人人脸向左转动角度超过10°时机器人才视为向左转动,也就是说明了值越大,指令灵敏度越低,安全性越高,微小的转动不会产生错误的指令下达,可依据个人习惯而确定。同样的,右灵敏度阈值指的是右转灵敏度。此外,当应用环境内光照强烈时,需调高此参数来保障机器人指令识别正确率。在实际应用中,对于这两个个参数值,可采用人脸识别习惯记忆方式自动调节。
S103:记录人脸朝向状态。
S2:在给定的采集时间内,对采集到的所有单帧图像(连续帧,一般是每秒30帧)都进行静态人脸朝向识别,得出一个按照时序依次排列的人脸朝向结果集;人脸朝向结果集包括人脸朝向数组角度差值数组。给定的采集时间,具体包括以下步骤:
S201:获取在给定的采集时间内按照采集频率采集的多个单帧图像;
S202:采用步骤S101对采集到的所有单帧图像都计算起始时刻头部旋转的角度的欧拉角的大小,得出一个按照时序依次排列的向量ω=(ω12,…,ωi,…,ω30t)且t=1,2,3,…;其中t为单帧图像采集的时序编号;
S203:判断当前单帧图像当前时刻是否已经超出给定采集时间的长度阀值,如果否,进入步骤S204。设定的采集时间长度阀值t,采集时间长度阀值确定采集数据帧的时间段。本实施例中通过帧到达计数确定,每秒30帧,则若设定t值为2秒,则采集60帧。
S204:采用步骤S102判断向量ω中的每个元素的人脸朝向,得出人脸朝向数组r=(r1,r2,…,ri,…,r30t)且t=1,2,3,…,ri=0,1,2。
S205:计算向量ω中的每个元素与起始时刻ω值的差值绝对值d的大小,d=||ω-ωi||,并保存入角度差值数组d=(d1,d2,…,di,…,d30t)且t=1,2,3,…,角度差值数组中的元素与人脸朝向数组中的元素一一对应。
S3:对人脸朝向结果集进行过程分析,识别指令意图,得出人脸朝向过程给出的指令结果。指令结果包括转动朝向,转动朝向包括正面、朝左及朝右。
实时的人脸朝向识别算法主要难点在于授权人通过头部转动发出指令的行为的不确定性,譬如,在给定的采集图像时间区域内,授权人初始状态是正面面对机器人,此时初始头部旋转角度为0°,接下来,授权人意图告知机器人右转,于是授权人先进行头部右转,考虑到采集时间长短与授权人头部转动速度快慢,可能在既定的图像采集时间段内,如果授权人头部转动速度比较慢,那么在既定采集时间段内,机器人采集到的授权人头部运动过程是从正朝对机器人到右转,如果授权人头部转动速度较快,那么采集到的过程可能是先正朝对机器人,然后右转,然后又是左转复位。因此,如果单纯从采集的几个片段判断授权人意图是不正确的,可能采集到的人脸图朝向识别结果是朝左,但是实际是朝右,对于一般的只采集几个时间点进行识别的方法中这些类似的错误结果发生的概率很大。
所以为了解决这个过程性问题,首先本实施例大致把指令意图与实际头部行为分为如图3所示几种情况(图中说明的是一个过程,只列出授权人指令意图是朝右,朝左情形与图示类似),其中图3a表示起始时刻脸正面朝对机器;图3b表示起始时刻脸朝右对机器人;图3c表示起始时刻脸朝左对机器人。
上述情况如果用数字1代表正脸面对,2代表朝左,3代表朝右则可分别表述为:
情形一:起始时刻采集到的脸朝向为1,正常时间范围内状态过程可表述为如11133333。如果采集时间(人脸转向速度参数)很长则可能出现如11133331111情形。
情形二:起始时刻采集到的脸朝向为3,正常时间范围内状态过程可表述为如33333333。如果采集时间(人脸转向速度参数)很长则可能出现如33333331111情形。
情形三:起始时刻采集到的脸朝向为2,正常时间范围内状态过程可表述为如222111。如果采集时间很长(人脸转向速度参数)则可能出现如222111(333111)222情形。
因此,本实施例中步骤S3具体采用以下步骤实现:
S301:如果起始人脸朝向为1,遍历人脸朝向结果集中的后续值,如果后续值都是1则指令结果为1;如果遍历时出现的第一个不为1的值是2则判断指令结果为2,如果遍历时出现的第一个不为1的值是3则判断指令结果为3;遍历人脸朝向结果集时,在记录所有单帧图像的角度差值数组中(即步骤S204所得人脸朝向数组),根据得出的转动朝向的相应的最大时刻点的角度差值作为朝向角度的大小输出。也就是,人脸朝向最终结果为朝右,那么在y中遍历寻找连续出现值为3的最后一个时刻点j,那么输出角度为dj。归纳就是,已知人脸朝向结果为a,如果yi=a且yj<i=a且yj>i=a,则输出角度为di
S302:如果起始人脸朝向为2,遍历人脸朝向结果集中的后续值,直到出现第一个不是2的值,如果这个值为1,则继续遍历;如果继续遍历出现的值为3则判断指令结果为3;如果只有1和2那么统计后续值分别为1和2的数量,如果2的数量多那么判断指令结果为2;反之结果为3;如果没有非值是2的其他值,则指令结果为1(可能存在授权人意图发出右转命令或左转,但是转动角度实在太小默认为没转动,如果有这样的需求,可以采用方式一,调节灵敏度通过头部转动角度可以精确的判断,如果后续角度大于阀值结果2,如果小于阀值为3,阀值内为1);遍历人脸朝向结果集时,在记录所有单帧图像的角度差值数组中(即步骤S204所得人脸朝向数组),根据得出的转动朝向的相应的最大时刻点的角度差值作为朝向角度的大小输出。
S303:如果起始人脸朝向为3,遍历人脸朝向结果集中的后续值,直到出现第一个不是3的值,如果这个值为1,则继续遍历;如果继续遍历出现的值为2则判断指令结果为2;如果只有1和3那么统计后续值分别为1和3的数量,如果3的数量多那么结果为3,反之结果为2;如果没有非值是3的其他值,则指令结果为1(可能存在授权人意图发出右转命令或左转,但是转动角度实在太小默认为没转动,如果有这样的需求,可以采用方式一,调节灵敏度通过头部转动角度可以精确的判断,如果后续角度大于阀值结果2,如果小于阀值为3,阀值内为1)。遍历人脸朝向结果集时,在记录所有单帧图像的角度差值数组中(即步骤S204所得人脸朝向数组),根据得出的转动朝向的相应的最大时刻点的角度差值作为朝向角度的大小输出。
得到指令结果后,将指令结果输送给移动机器人的执行部件以控制移动机器人按照指令结果中的转动朝向和朝向角度行进或退避。
综上可知,本发明的基于灵敏度参数的人脸朝向识别方法,可以识别多角度人脸朝向,工作人员可以指定角度大小,机器人按照指定角度进行有角度朝向行进避让。使用灵敏度参数中人脸转向幅度参数进行调节,适应各种光照不同的环境下人机交互控制的使用,提高了人脸位置的识别正确率。本发明计算简单,执行效率高,可通过调节灵敏度适应不同场合,可输出朝向结果的同时精确的给出朝向角度,通过旋转角度的提供可进行扩展性的开发出更多指令内容,延展性好。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于灵敏度参数的人脸朝向识别方法,其特征在于,包括以下步骤:
S1:对采集到的单帧图像逐一进行静态人脸朝向识别,根据人脸旋转的角度大小判断所述单帧图像的人脸朝向是正面、朝左还是朝右;
S2:在给定的采集时间内,对采集到的所有单帧图像都进行静态人脸朝向识别,得出一个按照时序依次排列的人脸朝向结果集;
S3:对所述人脸朝向结果集进行过程分析,识别指令意图,得出人脸朝向过程给出的指令结果。
2.根据权利要求1所述的人脸朝向识别方法,其特征在于,所述步骤S1包括以下步骤:
S101:对采集到的单帧图像,获取头部原点四元数,采用如下公式计算起始时刻头部旋转的角度的欧拉角的大小:
其中,四元数是由实数w加上三个虚数单位i,j,k组成的超复数,表示为w+xi+yj+zk,其中i的旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,j旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,k旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转,-i、-j、-k分别代表i、j、k旋转的反向旋转;
S102:根据欧拉角中ω值大小,判断人脸朝向:如果起始时刻ω大于左灵敏度阈值,判断起始人脸朝向为朝左;如果起始时刻ω处于左灵敏度阈值与右灵敏度阈值之间或者等于左灵敏度阈值与右灵敏度阈值时,判断起始人脸朝向为正面;如果起始时刻ω小于右灵敏度阈值,判断起始人脸朝向为朝右;
S103:记录人脸朝向状态。
3.根据权利要求2所述的人脸朝向识别方法,其特征在于,在所述步骤S102中,所述左灵敏度阈值为0或者根据用户动作习惯设置的第一定值;所述右灵敏度阈值为0或者根据用户动作习惯设置的第二定值。
4.根据权利要求3所述的人脸朝向识别方法,其特征在于,所述人脸朝向结果集包括人脸朝向数组,所述步骤S2包括以下步骤:
S201:获取在给定的采集时间内按照采集频率采集的多个单帧图像;
S202:采用步骤S101对采集到的所有单帧图像都计算起始时刻头部旋转的角度的欧拉角的大小,得出一个按照时序依次排列的向量ω=(ω12,…,ωi,…,ω30t)且t=1,2,3,…;其中t为所述单帧图像采集的时序编号;
S204:采用步骤S102判断向量ω中的每个元素的人脸朝向,得出人脸朝向数组r=(r1,r2,…,ri,…,r30t)且t=1,2,3,…,ri=0,1,2。
5.根据权利要求4所述的人脸朝向识别方法,其特征在于,所述人脸朝向结果集还包括角度差值数组,在所述步骤S204完成后,所述步骤S2包括以下步骤:
S205:计算向量ω中的每个元素与起始时刻ω值的差值绝对值d的大小,d=||ω-ωi||,并保存入角度差值数组d=(d1,d2,…,di,…,d30t)且t=1,2,3,…,所述角度差值数组中的元素与所述人脸朝向数组中的元素一一对应。
6.根据权利要求5所述的人脸朝向识别方法,其特征在于,在所述步骤S204进行之前,所述步骤S2还包括以下步骤:
S203:判断当前单帧图像当前时刻是否已经超出给定采集时间的长度阀值,如果否,进入步骤S204。
7.根据权利要求1至6中任一项所述的人脸朝向识别方法,其特征在于,所述指令结果,包括转动朝向,所述转动朝向包括正面、朝左及朝右,所述步骤S3包括以下步骤:
S301:如果起始人脸朝向为正面,遍历人脸朝向结果集中的后续值,如果后续值都是正面则指令结果为正面;如果遍历时出现的第一个不为正面的值是朝左则判断指令结果为朝左,如果遍历时出现的第一个不为正面的值是朝右则判断指令结果为朝右;
S302:如果起始人脸朝向为朝左,遍历人脸朝向结果集中的后续值,直到出现第一个不是朝左的值,如果这个值为正面,则继续遍历;如果继续遍历出现的值为朝右则判断指令结果为朝右;如果只有正面和朝左那么统计后续值分别为正面和朝左的数量,如果朝左的数量多那么判断指令结果为朝左;反之结果为朝右;如果没有非值是朝左的其他值,则指令结果为正面;
S303:如果起始人脸朝向为朝右,遍历人脸朝向结果集中的后续值,直到出现第一个不是朝右的值,如果这个值为正面,则继续遍历;如果继续遍历出现的值为朝左则判断指令结果为朝左;如果只有正面和朝右那么统计后续值分别为正面和朝右的数量,如果朝右的数量多那么结果为朝右,反之结果为朝左;如果没有非值是朝右的其他值,则指令结果为正面。
8.根据权利要求7所述的人脸朝向识别方法,其特征在于,所述指令结果还包括朝向角度,在所述步骤S301至所述步骤S303中,遍历所述人脸朝向结果集时,在记录所有单帧图像的角度差值数组中,根据得出的转动朝向的相应的最大时刻点的角度差值作为朝向角度的大小输出。
9.根据权利要求1或8所述的人脸朝向识别方法,其特征在于,所述步骤S3完成后,将所述指令结果输送给移动机器人的执行部件以控制所述移动机器人按照所述指令结果中的转动朝向和朝向角度行进或退避。
10.根据权利要求1至6中任一项所述的人脸朝向识别方法,其特征在于,所述采集到的单帧图像为获取了移动机器人控制权的授权人的身体数据帧和面部数据帧的彩色图像。
CN201610230028.3A 2016-04-14 2016-04-14 基于灵敏度参数的人脸朝向识别方法 Expired - Fee Related CN105930775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610230028.3A CN105930775B (zh) 2016-04-14 2016-04-14 基于灵敏度参数的人脸朝向识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610230028.3A CN105930775B (zh) 2016-04-14 2016-04-14 基于灵敏度参数的人脸朝向识别方法

Publications (2)

Publication Number Publication Date
CN105930775A true CN105930775A (zh) 2016-09-07
CN105930775B CN105930775B (zh) 2019-07-19

Family

ID=56838814

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610230028.3A Expired - Fee Related CN105930775B (zh) 2016-04-14 2016-04-14 基于灵敏度参数的人脸朝向识别方法

Country Status (1)

Country Link
CN (1) CN105930775B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991378A (zh) * 2017-03-09 2017-07-28 广东欧珀移动通信有限公司 基于深度的人脸朝向检测方法、检测装置和电子装置
CN107451564A (zh) * 2017-07-31 2017-12-08 上海爱优威软件开发有限公司 一种人脸动作控制方法及系统
CN108629305A (zh) * 2018-04-27 2018-10-09 朱旭辉 一种面部识别方法
CN108664889A (zh) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 对象物检测装置、对象物检测方法以及记录介质
CN109033923A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种检测图片中人体朝向的方法及装置
CN109106373A (zh) * 2018-07-24 2019-01-01 燕山大学 一种婴儿抬头角度测量方法及系统
CN112428989A (zh) * 2020-10-30 2021-03-02 惠州华阳通用电子有限公司 一种车辆控制方法
WO2024002321A1 (zh) * 2022-06-30 2024-01-04 武汉联影智融医疗科技有限公司 一种面部朝向确定方法及装置、面部重建方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419672A (zh) * 2008-12-03 2009-04-29 中国科学院计算技术研究所 一种同步采集人脸图像和注视视角的装置及方法
US20100302378A1 (en) * 2009-05-30 2010-12-02 Richard Lee Marks Tracking system calibration using object position and orientation
CN103793693A (zh) * 2014-02-08 2014-05-14 厦门美图网科技有限公司 一种人脸转向的检测方法及其应用该方法的脸型优化方法
CN104253944A (zh) * 2014-09-11 2014-12-31 陈飞 基于目光连接的声音命令下达装置和方法
CN104517102A (zh) * 2014-12-26 2015-04-15 华中师范大学 学生课堂注意力检测方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419672A (zh) * 2008-12-03 2009-04-29 中国科学院计算技术研究所 一种同步采集人脸图像和注视视角的装置及方法
US20100302378A1 (en) * 2009-05-30 2010-12-02 Richard Lee Marks Tracking system calibration using object position and orientation
CN103793693A (zh) * 2014-02-08 2014-05-14 厦门美图网科技有限公司 一种人脸转向的检测方法及其应用该方法的脸型优化方法
CN104253944A (zh) * 2014-09-11 2014-12-31 陈飞 基于目光连接的声音命令下达装置和方法
CN104517102A (zh) * 2014-12-26 2015-04-15 华中师范大学 学生课堂注意力检测方法及系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991378A (zh) * 2017-03-09 2017-07-28 广东欧珀移动通信有限公司 基于深度的人脸朝向检测方法、检测装置和电子装置
CN108664889A (zh) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 对象物检测装置、对象物检测方法以及记录介质
CN109033923A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种检测图片中人体朝向的方法及装置
CN107451564A (zh) * 2017-07-31 2017-12-08 上海爱优威软件开发有限公司 一种人脸动作控制方法及系统
CN108629305A (zh) * 2018-04-27 2018-10-09 朱旭辉 一种面部识别方法
CN109106373A (zh) * 2018-07-24 2019-01-01 燕山大学 一种婴儿抬头角度测量方法及系统
CN112428989A (zh) * 2020-10-30 2021-03-02 惠州华阳通用电子有限公司 一种车辆控制方法
CN112428989B (zh) * 2020-10-30 2022-03-11 惠州华阳通用电子有限公司 一种车辆控制方法
WO2024002321A1 (zh) * 2022-06-30 2024-01-04 武汉联影智融医疗科技有限公司 一种面部朝向确定方法及装置、面部重建方法及装置

Also Published As

Publication number Publication date
CN105930775B (zh) 2019-07-19

Similar Documents

Publication Publication Date Title
CN105930775A (zh) 基于灵敏度参数的人脸朝向识别方法
US20210173396A1 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
WO2023056670A1 (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
US10095033B2 (en) Multimodal interaction with near-to-eye display
CN114080583B (zh) 视觉教导和重复移动操纵系统
CN105787478A (zh) 基于神经网络和灵敏度参数的人脸转向识别方法
EP3781896A1 (en) System and method for detecting human gaze and gesture in unconstrained environments
CN107357428A (zh) 基于手势识别的人机交互方法及装置、系统
Mead et al. A probabilistic framework for autonomous proxemic control in situated and mobile human-robot interaction
Micelli et al. Perception and control challenges for effective human-robot handoffs
Sun et al. Gesture-based piloting of an aerial robot using monocular vision
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
Chen et al. A human–robot interface for mobile manipulator
Sreejith et al. Real-time hands-free immersive image navigation system using Microsoft Kinect 2.0 and Leap Motion Controller
CN113829357A (zh) 机器人手臂遥操作方法、装置、系统及介质
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
Du et al. A novel natural mobile human-machine interaction method with augmented reality
Bolin et al. Gesture-based control of autonomous UAVs
Spada et al. Locomotion and telepresence in virtual and real worlds
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
WO2023273372A1 (zh) 手势识别对象确定方法及装置
Hu et al. Augmented pointing gesture estimation for human-robot interaction
Dhamanskar et al. Human computer interaction using hand gestures and voice
Zhao et al. A robot navigation method based on human-robot interaction for 3D environment mapping
Lu et al. Gesture Control of Quadcopter for a Stable Flight

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190719

CF01 Termination of patent right due to non-payment of annual fee