CN108288023B - 人脸识别的方法和装置 - Google Patents

人脸识别的方法和装置 Download PDF

Info

Publication number
CN108288023B
CN108288023B CN201711381874.6A CN201711381874A CN108288023B CN 108288023 B CN108288023 B CN 108288023B CN 201711381874 A CN201711381874 A CN 201711381874A CN 108288023 B CN108288023 B CN 108288023B
Authority
CN
China
Prior art keywords
eye
key point
face key
target face
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711381874.6A
Other languages
English (en)
Other versions
CN108288023A (zh
Inventor
林丽梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Hetai Intelligent Home Appliance Controller Co ltd
Original Assignee
Shenzhen Het Data Resources and Cloud Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Het Data Resources and Cloud Technology Co Ltd filed Critical Shenzhen Het Data Resources and Cloud Technology Co Ltd
Priority to CN201711381874.6A priority Critical patent/CN108288023B/zh
Publication of CN108288023A publication Critical patent/CN108288023A/zh
Application granted granted Critical
Publication of CN108288023B publication Critical patent/CN108288023B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种人脸识别方法及装置,该方法包括:获取待识别图像,并在该待识别图像中定位出人脸关键点。从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。根据上述眼型特征参量确定所述人眼的眼型。采用本发明实施例可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。

Description

人脸识别的方法和装置
技术领域
本发明涉及图像处理领域,尤其涉及一种人脸识别方法和装置。
背景技术
随着计算机技术的不断发展,人脸识别技术的应用越来越受到人们的重视。人脸识别技术是基于生物特征的识别方式,利用人类自身拥有的并且能够唯一标示其身份的生理特征或者行为特征进行身份识别和验证的技术。随着人脸识别技术的应用范围越来越广泛,人们对人脸识别技术的识别精度的要求也越来越高。
现有技术中,人脸识别技术主要包括人脸轮廓识别和人脸五官识别等,人脸识别技术的识别精度低,人脸识别技术的使用范围小,其适用性低。
发明内容
本发明实施例提供了一种人脸识别方法及装置,可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
第一方面提供了一种人脸识别方法,其可包括:
获取待识别图像,并在该待识别图像中定位出人脸关键点。从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。根据上述眼型特征参量确定所述人眼的眼型。
在一些可行的实施方式中,上述根据上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量包括:
根据上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度。计算上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度的平均值以得到人眼轮廓宽窄度均值,并将该人眼轮廓宽窄度均值确定为上述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,上述根据上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度包括:
根据上述各个目标人脸关键点的位置信息执行如下操作以确定上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度中任一人眼轮廓宽窄度i:
从上述N个目标人脸关键点中确定出用于确定上述人眼轮廓宽窄度i的目标人脸关键点A、目标人脸关键点B、目标人脸关键点C、目标人脸关键点D、目标人脸关键点E以及目标人脸关键点F。计算上述目标人脸关键点A与上述目标人脸关键点B之间的第一距离、上述目标人脸关键点C与上述目标人脸关键点D之间的第二距离以及上述目标人脸关键点E与上述目标人脸关键点F之间的第三距离。根据上述第一距离、上述第二距离以及上述第三距离确定上述人眼轮廓宽窄度i。
在一些可行的实施方式中,上述根据上述眼型特征参量确定人眼的眼型包括:
计算上述人眼轮廓宽窄度均值与预设眼型特征阈值的差值,根据该差值确定所述人眼的眼型。其中,上述人眼的眼型为圆眼、眯缝眼以及除圆眼和眯缝眼以外的普通眼中的一种。
在一些可行的实施方式中,上述N个目标人脸关键点包括目标人脸关键点A’、目标人脸关键点B’、目标人脸关键点C’、目标人脸关键点D’和目标人脸关键点E’。上述根据上述各个目标人脸关键点的位置信息,确定该待识别图像中包括的人眼的眼型特征参量包括:
根据上述目标人脸关键点A’、上述目标人脸关键点B’和上述目标人脸关键点D’的位置信息确定第一外眼角夹角,上述第一外眼角夹角由上述目标人脸关键点A’、上述目标人脸关键点B’和上述目标人脸关键点D’确定。根据上述目标人脸关键点B’、上述目标人脸关键点C’和上述目标人脸关键点D’的位置信息确定第二外眼角夹角,上述第二外眼角夹角由上述目标人脸关键点B’、上述目标人脸关键点C’和上述目标人脸关键点D’确定。根据上述目标人脸关键点A’、上述目标人脸关键点D’和上述目标人脸关键点E’的位置信息确定第三外眼角夹角,上述第三外眼角夹角由上述目标人脸关键点A’、上述目标人脸关键点D’和上述目标人脸关键点E’确定。根据上述第一外眼角夹角、第二外眼角夹角和第三外眼角夹角确定上述待识别图像中包括的人眼的外眼角夹角特征量,将上述外眼角夹角特征量确定为所述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,上述根据上述眼型特征参量确定上述待识别图像中包括的人眼的眼型包括:
计算上述人眼的外眼角夹角特征量与预设眼型特征阈值的相似度,并根据该相似度确定上述人眼的眼型。其中,上述人眼的眼型为上扬眼、下垂眼以及除上扬眼和下垂眼以外的正常眼中的一种。
在一些可行的实施方式中,上述人脸识别方法还包括:
获取M张用于确定预设眼型特征阈值的人脸图片,其中,M为大于0的正整数。从上述M张人脸图片中的每张上述人脸图片中提取眼型特征参量以得到M组眼型特征参量。计算上述M组眼型特征参量的平均值以得到平均眼型特征参量,并将上述平均眼型特征参量确定为预设眼型特征阈值。
第二方面提供了一种人脸识别装置,其可包括:
图像获取模块,用于获取待识别图像;
目标关键点获取模块,用于在上述图像获取模块获取的上述待识别图像中定位出人脸关键点。从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息。其中,N为大于1的正整数。
特征提取模块,用于根据上述目标关键点获取模块获取的上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。
识别模块,用于根据上述特征提取模块获取的眼型特征参量确定上述人眼的眼型。
在一些可行的实施方式中,所述特征提取模块用于:
根据上述目标关键点获取模块获取的各个目标人脸关键点的位置信息,确定上述图像获取模块获取的上述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度。计算上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度的平均值以得到人眼轮廓宽窄度均值。将上述人眼轮廓宽窄度均值确定为上述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,所述特征提取模块用于:
根据上述目标关键点获取模块获取的各个目标人脸关键点的位置信息执行如下操作以确定上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度中任一人眼轮廓宽窄度i:
从上述目标关键点获取模块获取的N个目标人脸关键点中确定出用于确定上述人眼轮廓宽窄度i的目标人脸关键点A、目标人脸关键点B、目标人脸关键点C、目标人脸关键点D、目标人脸关键点E以及目标人脸关键点F。计算上述目标人脸关键点A与上述目标人脸关键点B之间的第一距离、上述目标人脸关键点C与上述目标人脸关键点D之间的第二距离以及上述目标人脸关键点E与上述目标人脸关键点F之间的第三距离。根据上述第一距离、上述第二距离以及上述第三距离确定所述人眼轮廓宽窄度i。
在一些可行的实施方式中,上述识别模块用于:
计算上述特征提取模块获取的上述人眼轮廓宽窄度均值与预设眼型特征阈值的差值。根据上述差值确定所述人眼的眼型。其中,上述人眼的眼型为圆眼、眯缝眼以及除圆眼和眯缝眼以外的普通眼中的一种。
在一些可行的实施方式中,上述N个目标人脸关键点包括目标人脸关键点A’、目标人脸关键点B’、目标人脸关键点C’、目标人脸关键点D’和目标人脸关键点E’。上述特征提取模块用于:
根据上述目标关键点获取模块获取的目标人脸关键点A’、目标人脸关键点B’和目标人脸关键点D’的位置信息确定第一外眼角夹角,上述第一外眼角夹角由上述目标人脸关键点A’、上述目标人脸关键点B’和上述目标人脸关键点D’确定。根据上述目标关键点获取模块获取的目标人脸关键点B’、目标人脸关键点C’和目标人脸关键点D’的位置信息确定第二外眼角夹角,上述第二外眼角夹角由上述目标人脸关键点B’、上述目标人脸关键点C’和上述目标人脸关键点D’确定。根据上述目标关键点获取模块获取的目标人脸关键点A’、目标人脸关键点D’和目标人脸关键点E’的位置信息确定第三外眼角夹角,上述第三外眼角夹角由上述目标人脸关键点A’、上述目标人脸关键点D’和上述目标人脸关键点E’确定。根据上述第一外眼角夹角、上述第二外眼角夹角和上述第三外眼角夹角确定上述待识别图像中包括的人眼的外眼角夹角特征量。将上述外眼角夹角特征量确定为上述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,上述识别模块用于:
计算上述特征提取模块获取的上述人眼的外眼角夹角特征量与预设眼型特征阈值的相似度,并根据上述相似度确定所述人眼的眼型。其中,上述人眼的眼型为上扬眼、下垂眼以及除上扬眼和下垂眼以外的正常眼中的一种。
在一些可行的实施方式中,上述装置还包括:预设阈值获取模块。
上述图像获取模块,还用于获取M张用于确定预设眼型特征阈值的人脸图片。其中,M为大于0的正整数。
上述特征提取模块,还用于从上述图像获取模块获取的上述M张人脸图片中的每张上述人脸图片中提取眼型特征参量以得到M组眼型特征参量。
上述预设阈值获取模块,用于计算上述特征提取模块获取的上述M组眼型特征参量的平均值以得到平均眼型特征参量。将上述平均眼型特征参量确定为预设眼型特征阈值。
第三方面,本发明实施例提供了另一种人脸识别装置,包括处理器、输入设备和存储器,处理器、输入设备和存储器相互连接。其中,存储器用于存储支持终端执行上述方法的计算机程序,该计算机程序包括程序指令,处理器和输入设备用于调用所述程序指令,执行上述第一方面的方法。
在本发明实施例中,首先,获取待识别图像。然后,在该待识别图像中定位出人脸关键点,并从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其后,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。最后,根据上述眼型特征参量确定所述人眼的眼型。本发明实施例通过待识别图像中的人脸关键点的位置信息确定出人眼的眼型特征参量,并根据眼型特征参量确定人眼的眼型。采用本发明实施例增加了人脸识别技术可提取的人脸的脸部特征信息量,进而提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的人脸识别方法的第一实施例流程示意图;
图2是本发明实施例提供的人脸关键点定位效果图示意图;
图3是本发明实施例提供的人脸识别方法的第二实施例流程示意图;
图4是本发明实施例提供的人脸识别方法的第三实施例流程示意图;
图5是本发明实施例提供的人眼外眼角夹角示意图;
图6是本发明实施例提供的人脸识别装置的一结构示意图;
图7是本发明实施例提供的人脸识别装置的另一结构示意图;
图8是本发明实施例提供的人脸识别装置的另一结构示意图;
图9是本发明实施例提供的人脸识别装置的另一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域的普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
具体实现中,本发明实施例提供的移动终端可包括:手机、电脑(包括台式机和笔记本电脑)、平板电脑、可穿戴设备等设备。上述设备仅是举例,而非穷举,包含但不限于上述设备。
下面将结合图1至图7对本发明实施例提供的人脸识别方法和装置进行具体描述。
请参见图1,是本发明实施例提供的人脸识别方法的第一实施例流程示意图。本发明实施例所描述的人脸识别方法可由上述手机、电脑等具备图像处理功能的设备实现。其中,对本发明实施例以移动终端为执行主体进行描述。
本发明实施例中所描述的人脸识别方法,包括步骤:
S101,获取待识别图像。
在一些可行的实施方式中,移动终端可通过其具有的摄像头等图像采集设备获取待识别图像。或者,当移动终端部不具备摄像头等图像采集设备时,可从外部存储设备获取待识别图像。其中,上述外部存储设备可包括软盘、移动硬盘、U盘等,此处不做限定。
在一些可行的实施方式中,当移动终端获取待识别图像后,可通过相应的人脸检测算法判断上述待识别图像中是否存在人脸。其中,上述人脸检测算法可包括模板匹配法、主成分分析法以及纹理分析与空间人脸灰度法等方法,此处不做限定。若判断上述待识别图像中存在人脸,则通过人眼识别算法判断待识别图像中的人眼是否处于睁眼的状态,若判断为是,则执行步骤S102,否则,则重复执行步骤S101。若判断上述待识别图像中不存在人脸,则重复执行步骤S101。
S102,在该待识别图像中定位出人脸关键点。
在一些可行的实施方式中,移动终端在获取待识别图像并判断上述待识别图像中存在人脸后,可通过人脸关键点定位技术在上述待识别图像中定位出人脸关键点。其中,上述人脸关键点为上述待识别图像中用于确定人脸轮廓和五官轮廓的像素点。
具体的,请一并参见图2,图2是本发明实施例提供的人脸关键点定位效果示意图。图2中,上述人脸关键点为用于确定人脸轮廓或者五官轮廓的像素点。例如,1号到17号人脸关键点用于确定人脸轮廓,37号到42号人脸关键点用于确定左侧人眼的轮廓,43号到48号人脸关键点用于确定右侧人眼的轮廓。其中,各人脸关键点的标号仅为各关键点的代号,不具有限定作用,仅仅是为了方便描述。移动终端在获取到待识别图像并判断上述待识别图像中存在人脸后,可将上述待识别图像输入到关键点定位模型中。其中,上述关键点定位模型可包括主动形状模型(Active Shape Model,ASM)、主动外观模型(Active AppearanceModel,AAM)或SnaMe模型等,此处不做限定。使用上述关键点定位模型对上述待识别图像进行特征提取和分析,并最终确定待识别图像中的人脸关键点的位置。
S103,从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中的各个目标人脸关键点的位置信息。
其中,上述目标人脸关键点的位置信息包括目标人脸关键点在上述待识别图像中的水平位置参数和垂直位置参数。N为大于1的正整数。
在一些可行的实施方式中,移动终端在对上述待识别图像进行人脸关键点定位后,可从上述人脸关键点中提取出N个目标人脸关键点。其中,上述N个目标人脸关键点为上述待识别图像中用于确定左侧人眼的人眼轮廓和右侧人眼的人眼轮廓的像素点。移动终端获取N个目标人脸关键点后,可获取N个目标人脸关键点中各个目标人脸关键点在上述待识别图像中的水平位置参数和垂直位置参数。并且,将上述各个目标人脸关键点在上述待识别图像中的水平位置参数和垂直位置参数确定为各个目标人脸关键点的位置信息。例如,请一并参见图2。在图2中,37号到42号人脸关键点即为用于确定左侧人眼的轮廓的目标人脸关键点。43号到48号人脸关键点即为用于确定右侧人眼的轮廓的目标人脸关键点。移动终端以待识别图像的左上角顶点为坐标原点,以水平向右的方向为X轴正方向,以垂直向下的方向为Y轴正方向,建立直角坐标系。则移动终端可通过该直角坐标系在待识别图像中确定出各个目标人脸关键点的位置信息。
S104,根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,上述人眼的眼型特征参量包括人眼轮廓宽窄度均值或外眼角夹角特征量。移动终端获取的上述N个目标关键点中包括N1个用于确定左侧人眼的轮廓的左眼目标人脸关键点和N2个用于确定右侧人眼的轮廓的右眼目标人脸关键点。其中,N等于N1与N2之和。N1为大于或等于1的正整数,N2为大于或等于1的正整数。
可选的,移动终端在获取上述N1个用于确定左侧人眼的轮廓的左眼目标人脸关键点后,可根据各个左眼目标人脸关键点的位置信息计算出待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度。移动终端也可在获取上述N2个用于确定右侧人眼的轮廓的右眼目标人脸关键点后,根据各个右眼目标人脸关键点的位置信息计算出待识别图像中包括的右侧人眼的第二人眼轮廓宽窄度。其中,上述第一人眼轮廓宽窄度为用于确定左侧人眼的人眼轮廓形状的特征参量。上述第二人眼轮廓宽窄度为用于确定右侧人眼轮廓形状的特征参量。然后,根据上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度确定待识别图像中包括的人眼的眼型特征参量。
可选的,移动终端在获取到上述N1个用于确定左侧人眼的轮廓的左眼目标人脸关键点后,可获取N1个左眼目标人脸关键点中各个左眼目标人脸关键点的位置信息。根据上述N1个左眼目标人脸关键点的位置信息确定待识别图像中包括的左侧人眼的第一外眼角夹角特征量。最终,移动终端可将上述第一外眼角夹角特征量确定为待识别图像中包括的左侧人眼的眼型特征参量。移动终端也可在获取到上述N2个用于确定右侧人眼的轮廓的右眼目标人脸关键点后,可根据各个右眼目标人脸关键点的位置信息确定待识别图像中包括的右侧人眼的第二外眼角夹角特征量。上述右侧人眼的第二外眼角夹角特征量的获取过程可参考上述左侧人眼的外眼角夹角特征量的获取过程,此处便不再赘述。然后,移动终端可将上述第二外眼角夹角特征量确定为待识别图像中包括的右侧人眼的眼型特征参量。其中,上述第一外眼角夹角特征量为用于确定左侧人眼的外眼角形状的特征参量。上述第二外眼角夹角特征量为用于确定右侧人眼的外眼角形状的特征参量。
S105,根据上述眼型特征参量确定上述人眼的眼型。
在一些可行的实施方式中,移动终端在获取到上述人眼的眼型特征参量后,则可根据上述眼型特征参量确定人眼的眼型。
可选的,移动终端可从人眼的眼型识别的历史识别记录中确定出一个用于确定指定眼型的眼型特征值范围,例如用于确定圆眼的眼型特征值范围。移动终端在获取到上述人眼的眼型特征参量后,则可根据上述眼型特征经验值判断上述从待识别图像中获取的眼型特征参量是否在上述眼型特征值范围内。若判断为是,则确定人眼的眼型为上述眼型特征经验值对应的眼型,例如圆眼。
可选的,移动终端也可在获取上述待识别图像中上述眼型特征参量后,将上述眼型特征参量输入到训练后的分类器中,通过分类器确定待识别图像中包括的人眼的眼型。
可选的,移动终端在获取上述待识别图像中包括的人眼的眼型特征参量后,可获取预设眼型特征阈值,并根据上述眼型特征参量和上述预设眼型特征阈值确定上述人眼的眼型。具体的,移动终端可计算眼型特征参量与预设眼型特征阈值之间的差值,并根据上述差值确定上述人眼的眼型。其中,上述人眼的眼型可包括圆眼、眯缝眼或除圆眼和眯缝眼以外的普通眼。上述预设眼型特征阈值可包括预设圆眼特征阈值、预设眯缝眼特征阈值或预设普通眼特征阈值。例如,移动终端获取到人眼的眼型特征参量后,可获取预设眼型特征阈值。然后,计算上述眼型特征参量与上述预设圆眼特征阈值之间的差值以得到第一差值。同理可计算出眼型特征参量与预设眯缝眼特征阈值的之间的第二差值和眼型特征参量与预设普通眼特征阈值之间的第三差值。最后,移动终端可获取上述第一差值、第二差值和第三差值中的最小值,并根据该最小值判定待识别图像中的人眼的眼型。例如,上述眼型特征参量与预设圆眼特征阈值之间的第一差值为最小值,则可确定待识别图像中的人眼为圆眼。
在本发明实施例中,移动终端可在该待识别图像中定位出人脸关键点,并从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其后,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。最后,根据上述眼型特征参量确定所述人眼的眼型。本发明实施例通过待识别图像中的人脸关键点的位置信息确定除人眼的眼型特征参量,并根据眼型特征参量确定人眼的眼型。采用本发明实施例增加了人脸识别技术可提取的人脸的脸部特征信息量,进而提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
请参见图3,图3是本发明实施例提供的人脸识别方法的第二实施例流程示意图。
本发明实施例所描述的人脸识别方法可由上述手机、电脑等具备图像处理功能的设备实现。其中,对本发明实施例以移动终端为执行主体进行描述。
本发明实施例中所描述的人脸识别方法,包括步骤:
S201,获取待识别图像。
在一些可行的实施方式中,移动终端获取待识别图像的过程可参考上述第一实施例步骤S101所描述的待识别图像的获取方法,此处便不再赘述。
S202,在该待识别图像中定位出人脸关键点。
在一些可行的实施方式中,具体的,移动终端在上述目标待识别图像中定位出人脸关键点的过程可参考上文第一实施例中步骤S102中所描述的在待识别图像中定位出人脸关键点的操作过程。上述人脸关键点定位结果可一并参见图2此处便不再赘述。
S203,从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息。
在一些可行的实施方式中,具体的,移动终端从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息的过程可参考上文第一实施例中步骤S103所描述的N个目标人脸关键点中各个目标人脸关键点的位置信息的过程,此处便不再赘述。
S204,根据上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度。
其中,步骤S203所描述的N个目标人脸关键点包括N1个用于确定左侧人眼的轮廓的左眼目标人脸关键点和N2个用于确定右侧人眼的轮廓的右眼目标人脸关键点。N1和N2为大于0的正整数。N为N1与N2之和。
在一些可行的实施方式中,具体的,移动终端在获取到上述N1个用于确定左侧人眼的轮廓的左眼目标人脸关键点后,可获取N1个左眼目标人脸关键点中各个左眼目标人脸关键点的位置信息。上述左眼目标人脸关键点的位置信息包括水平位置参数和垂直位置参数。上述N1个左眼目标人脸关键点包括左眼目标人脸关键点A(例如图2中的37号人脸关键点)、左眼目标人脸关键点B(例如图2中的40号人脸关键点)、左眼目标人脸关键点C(例如图2中的38号人脸关键点)、左眼目标人脸关键点D(例如图2中的39号人脸关键点)、左眼目标人脸关键点E(例如图2中的42号人脸关键点)以及左眼目标人脸关键点F(例如图2中的41号人脸关键点)。可选的,上述左眼目标人脸关键点A为N1个左眼目标人脸关键点中用于定位左眼外眼角的人脸关键点;上述左眼目标关键点B为用于定位左眼内眼角的人脸关键点;上述左眼目标人脸关键点C和左眼目标人脸关键点E为用于定位左眼上眼皮的人脸关键点;上述左眼目标人脸关键点D和左眼目标人脸关键点F为用于定位左眼下眼皮的人脸关键点。移动终端可根据上述左眼目标人脸关键点A和左眼目标人脸关键点B的水平位置参数和垂直位置参数计算出左眼目标人脸关键点A和左眼目标人脸关键点B之间的直线距离,并确定为第一距离。同理,移动终端可以计算出左眼目标人脸关键点C和左眼目标人脸关键点D之间的第二距离。移动终端也可计算出左眼目标人脸关键点E和左眼目标人脸关键点F之间的第三距离。移动终端可根据上述第一距离、第二距离和第三距离确定出上述左侧人眼的第一人眼轮廓宽窄度。具体的,移动终端可先求取上述第二距离和第三距离之和。然后,求取第二距离和第三距离之和与上述第一距离之间的比值。最后,将上述第二距离和第三距离之和与上述第一距离之间的比值确定为所求的左侧人眼的第一人眼轮廓宽窄度。
例如,以图2所示的人脸关键点定位效果示意图为例。图2中标号为37到42的目标人脸关键点即为上述左眼目标人脸关键点。移动终端获取37号到42号左眼目标人脸关键点后,根据37号左眼目标人脸关键点和40号左眼目标人脸关键点的位置信息计算出37号左眼目标人脸关键点与40号左眼目标人脸关键点之间的直线距离d1。同理,移动终端可计算出38号左眼目标人脸关键点与42号左眼目标人脸关键点之间的直线距离d2。移动终端还可计算出39号左眼目标人脸关键点与41号左眼目标人脸关键点之间的直线距离d3。然后根据公式y=(d2+d3)/d1求出y值,上述y值即为所求的左侧人眼的第一人眼轮廓宽窄度。
移动终端可根据上述N2个右眼目标人脸关键点的位置信息确定右侧人眼的第二人眼轮廓宽窄度。其中,移动终端获取上述右侧人眼的第二人眼轮廓宽窄度的计算过程可参见上述左侧人眼的第一人眼轮廓宽窄度的计算过程,此处便不再重复描述。
S205,获取人眼轮廓宽窄度均值,并将该人眼轮廓宽窄度均值确定为上述人眼的眼型特征参量。
在一些可行的实施方式中,具体的,移动终端在获取到上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度之后,可计算出上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度的平均值以得到上述人眼轮廓宽窄度均值。移动终端可将上述人眼轮廓宽窄度均值确定为待识别图像的眼型特征参量。
S206,计算上述眼型特征参量与预设眼型特征阈值的差值,根据该差值确定所述人眼的眼型。
在一些可行的实施方式中,移动终端在对待识别图像进行眼型识别操作之前,可通过如下实现方式获取预设眼型特征阈值。其中,上述预设眼型特征阈值包括预设圆眼特征阈值、预设眯缝眼特征阈值以及预设普通眼特征阈值。
可选的,移动终端可获取M张用于确定预设眼型特征阈值的人脸图片。上述M张用于确定预设眼型特征阈值的人脸图片包括M1张眼型为圆眼的圆眼人脸图片、M2张眼型为眯缝眼的眯缝眼人脸照片和M3张眼型为除圆眼和眯缝眼以外的普通眼的普通眼人脸照片。其中,M1、M2和M3均为大于0的正整数,M为大于2的正整数。下面,以从M1张圆眼人脸图片中获取预设圆眼特征阈值为例进行描述。
移动终端分别对M1张圆眼人脸图片中的每张圆眼人脸照片进行眼型特征参量提取,以获取M1个眼型特征参量。其中,一张圆眼人脸图片对应一个眼型特征参量。移动终端可求取上述M1个眼型特征参量的平均值,并将上述M1个眼型特征参量的平均值确定为预设圆眼特征阈值。其中,从M2张眯缝眼人脸图片中获取预设眯缝眼特征阈值和从M3张普通眼人脸照片中获取预设普通眼特征阈值的操作过程可参见上述从M1张圆眼人脸图片中获取预设圆眼特征阈值的操作过程,此处便不再赘述。其中,对上述M1张圆眼人脸图片中的每张圆眼人脸图片、上述M2张眯缝眼人脸图片中的每张眯缝眼人脸图片以及上述M3张普通眼人脸图片中的每张普通眼人脸图片进行人眼的眼型特征参量提取的方法可参见上文所描述的待识别图像的眼型特征参量提取方法,在此不再赘述。
在一些可行的实施方式中,移动终端在获取到上述眼型特征参量后,可计算上述眼型特征参量与预设圆眼特征阈值之间的差值以得到第一差值。移动终端也可计算上述眼型特征参量与预设眯缝眼特征阈值之间的差值以得到第二差值。移动终端还可计算上述眼型特征参量与预设普通眼特征阈值之间差值以得到第三差值。可选的,移动终端求取上述第一差值、第二差值以及第三差值中的最小值。若移动终端判断最小值为第一差值,则确定待识别图像中的人眼的眼型为圆眼。若移动终端判断最小值为第二差值,则确定待识别图像中的人眼的眼型为眯缝眼。若移动终端判断最小值为第三差值,则确定待识别图像中的人眼的眼型为普通眼。
在一些可行的实施方式中,移动终端还可根据上述眼型特征参量和眼型特征经验值来确定待识别图像中包括的人眼的眼型。其中,上述眼型特征经验值可用于区别人眼的眼型。上述眼型特征经验值可由具有图像处理功能的设备从大量人眼眼型识别操作累积的特征参数中归纳得出。例如,使用大量人眼眼型已知的人眼图片对分类器进行训练,以得到训练后的分类器。其中,上述分类器是数据挖掘中对样本进行分类的方法的统称,包含决策树、逻辑回归、朴素贝叶斯、神经网络等算法。然后,通过上述训练后的分类器中的分类模型得到可用于识别人眼图片中人眼的眼型的特征参数。上述特征参数即为眼型特征经验值。其中,一个上述眼型特征经验值对应一种人眼的眼型。然后,根据上述眼型特征经验值确定出一个眼型特征值范围。例如,移动终端获取的眼型特征经验值为a,移动终端设定的最大允许识别误差值为b,则根据眼型特征经验值确定的眼型特征值范围为[a-b,a+b]。移动终端可判断上述眼型特征参量是否在上述眼型特征值范围内。若判断为是,则确定人眼的眼型为上述眼型特征经验值对应的眼型。例如,假设,移动终端获取的人眼的眼型特征参量为l,获取的圆眼眼型对应的眼型特征经验值为m,移动终端设定的最大允许识别误差值为n,则眼型特征值范围为[m-n,m+n]。移动终端判断眼型特征参量l是否在[m-n,m+n]内。若判断为是,则人眼的眼型为圆眼。
在一些可行的实施方式中,移动终端在获取上述待识别图像中包括的人眼的眼型特征参量后,还可将上述眼型特征参量输入到训练后的分类器中。其中,上述训练后的分类器用于根据输入的待识别图像中包括的人眼的眼型特征参量输出与该待识别图像中的人眼的类型相匹配的类别参量。其中,上述训练后的分类器可包括支持向量机(SupportVector Machine,SVM)、梯度增强机(Gradient Boosting Machine,GBM)、随机森林(RandomForest)、决策树(Decision Tree)等,此处不做限定。然后,上述训练后的分类器可根据其内部的分类机制确定上述眼型特征参量所对应的用去标定人眼眼型的上述类别参量。移动终端可根据上述类别参量确定待识别图像中包括的人眼的眼型。例如,假设训练后的分类器其输出的类别参量包括R、S和T三种。其中,类别参量R对应的人眼的眼型为圆眼,类别参量S对应的人眼的眼型为眯缝眼,类别参量T对应的人眼的眼型为普通眼。移动终端获取上述眼型特征参量并输入到上述训练后的分类器之后,上述训练后的分类器可根据去内部分类机制确定上述眼型特征参量对应的人眼的眼型。若上述训练后的分类器输出类别参量为R,则移动终端可确定上述人眼的眼型为圆眼。同理,移动参量可根据分类器的输出确定上述眼型特征参量对应的人眼的眼型为眯缝眼和普通眼。
在本发明实施例中,首先,获取待识别图像。然后,在该待识别图像中定位出人脸关键点,并从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其后,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。最后,根据上述眼型特征参量确定所述人眼的眼型。本发明实施例通过待识别图像中的人脸关键点的位置信息确定出人眼的眼型特征参量,并根据眼型特征参量确定人眼的眼型。采用本发明实施例增加了人脸识别技术可提取的人脸的脸部特征信息量,进而提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
请参见图4,图4是本发明实施例提供的人脸识别方法的第三实施例流程示意图。
本发明实施例所描述的人脸识别方法可由上述手机、电脑等具备图像处理功能的设备实现。其中,对本发明实施例以移动终端为执行主体进行描述。
本发明实施例中所描述的人脸识别方法,包括步骤:
S301,获取待识图像。
在一些可行的实施方式中,移动终端获取待识别图像的过程请参考上述第一实施例中的步骤S101所描述的获取待识别图像的过程,此处便不再赘述。
S302,在该待识别图像中定位出人脸关键点。
在一些可行的实施方式中,具体的,移动终端在上述待识别图像中定位出人脸关键点的过程可参考上文第一实施例中步骤S102中所描述的在待识别图像中定位出人脸关键点的操作过程。上述人脸关键点定位结果可一并参见图2,此处便不再赘述。
S303,从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息。
在一些可行的实施方式中,具体的,移动终端从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点中各个目标人脸关键点的位置信息的过程可参考上文第一实施例中步骤S103所描述的从上述人脸关键点中获取各个目标人脸关键点的位置信息的过程,此处便不再赘述。
S304,根据上述各个目标人脸关键点的位置信息,确定该待识别图像中包括的人眼的外眼角夹角特征量,并将该外眼角夹角特征量确定为上述人眼的眼型特征参量。
其中,上述N个目标人脸关键点包括N3个用于确定左侧人眼的轮廓的左眼目标人脸关键点和N4个用于确定右侧人眼的轮廓的右眼目标人脸关键点。N3和N4为大于0的正整数。N为N3与N4之和。下文以提取待识别图像中的右侧人眼的外眼角夹角特征量为例进行描述。
在一些可行的实施方式中,具体的,移动终端在获取到上述N4个用于确定右侧人眼轮廓的左眼目标人脸关键点后,可获取N4个右眼目标人脸关键点中各个右眼目标人脸关键点的位置信息。其中,上述位置信息包括水平位置参数和垂直位置参数。上述N4个右眼目标人脸关键点包括右眼目标人脸关键点A’(例如图2中的43号人脸关键点)、右眼目标人脸关键点B’(例如图2中的44号人脸关键点)、右眼目标人脸关键点C’(例如图2中的45号人脸关键点)、右眼目标人脸关键点D’(例如图2中的46号人脸关键点)以及右眼目标人脸关键点E’(例如图2中的47号人脸关键点)。移动终端可根据右眼目标人脸关键点A’、右眼目标人脸关键点B’和右眼目标人脸关键点D’的位置信息确定由上述右眼目标人脸关键点A’、上述右眼目标人脸关键点B’和上述右眼目标人脸关键点D’形成的第一外眼角夹角。其中,上述第一外眼角夹角的顶点为右眼目标人脸关键点B’。移动终端还可根据右眼目标人脸关键点B’、右眼目标人脸关键点C’和右眼目标人脸关键点D’的位置信息确定由上述右眼目标人脸关键点B’、上述右眼目标人脸关键点C’和上述右眼目标人脸关键点D’形成的第二外眼角夹角。其中,上述第二外眼角夹角的顶点为上述右眼目标人脸关键点C’。移动终端还可根据上述右眼目标人脸关键点A’、右眼目标人脸关键点D’和右眼目标人脸关键点E’的位置信息确定由上述右眼目标人脸关键点A’、右眼目标人脸关键点D’和右眼目标人脸关键点E’形成的第三外眼角夹角。其中,上述第三外眼角夹角的定位为右眼目标人脸关键点E’。移动终端可将上述第一外眼角夹角、上述第二外眼角夹角和上述第三外眼角夹角确定为待识别图像中包括的右侧人眼的外眼角夹角特征量。移动终端可将上述右侧人眼的外眼角夹角特征量确定为上述待识别图像中包括的右侧人眼的眼型特征参量。
例如,请一并参见图5。图5为本发明实施例提供的人眼外眼角夹角示意图。其中,图5中所示意的是图4中的右侧人眼和右侧眉毛对应的目标人脸关键点定位效果。图5中,23号到27号目标人脸关键点用于确定右侧眉毛的轮廓。43号到48号目标人脸关键点用于确定右侧人眼的轮廓。移动终端获取43号到47号右眼目标人脸关键点的位置信息。然后,根据43号右眼目标人脸关键点、44号右眼目标人脸关键点以及46号右眼目标人脸关键点的位置信息计算出由43号右眼目标人脸关键点、44号右眼目标人脸关键点以及46号右眼目标人脸关键点形成的夹角的角度,并将上述角度确定为第一外眼角夹角。其中,上述第一外眼角夹角的顶点为44号右眼目标人脸关键点。同理,移动终端可计算出由44号右眼目标人脸关键点、45号右眼目标人脸关键点以及46号右眼目标人脸关键点形成第二外眼角夹角以及43号右眼目标人脸关键点、47号右眼目标人脸关键点以及46号右眼目标人脸关键点形成第三外眼角夹角。移动终端可将上述第一外眼角夹角、上述第二外眼角夹角和上述第三外眼角夹角确定为待识别图像中包括的右侧人眼的第二外眼角夹角特征量。
移动终端也可根据上述N3个左眼目标人脸关键点的位置信息确定左侧人眼的第一外眼角夹角特征值。其中,移动终端获取上述左侧人眼的外眼角夹角特征值的计算过程可参见上述右侧人眼的人外眼角夹角特征值的计算过程,此处便不再重复描述。
移动终端在获取上述左侧人眼的第一外眼角夹角特征值或上述右侧人眼的第二人外眼角夹角特征量后,可将上述左侧人眼的第一外眼角夹角特征值或上述右侧人眼的第二外眼角夹角特征量确定为所求的待识别图像中包括的人眼的眼型特征参量。
S305,计算上述眼型特征参量与预设眼型特征阈值的相似度,根据上述相似度确定所述人眼的眼型。
在一些可行的实施方式中,移动终端在对待识别图像进行眼型识别操作之前,可通过如下实现方式获取预设眼型特征阈值。其中,上述预设眼型特征阈值包括预设上扬眼特征阈值、预设下垂眼特征阈值以及预设正常眼特征阈值。
可选的,移动终端可获取M张用于确定上述预设眼型特征的人脸图片。上述M张用于确定预设眼型特征阈值的人脸图片包括M4张眼型为上扬眼的上扬眼人脸图片、M5张眼型为下垂眼的下垂眼人脸照片和M6张眼型为除上扬眼和下垂眼以外的正常眼的正常眼眼人脸照片。其中,M4、M5和M6均为大于0的正整数,M为大于2的正整数。下面,以从M4张上扬眼人脸图片中获取预设上扬眼特征阈值为例进行描述。移动终端分别对M4张上扬眼人脸图片中的每张上扬眼人脸照片进行眼型特征参量提取,以获取M4个眼型特征参量。上述一张上扬眼人脸图片对应一个眼型特征参量。移动终端可求取上述M4个眼型特征参量的平均值,并将上述M4个眼型特征参量的平均值确定为预设上扬眼特征阈值。其中,从M5张下垂眼人脸图片中获取预设下垂眼特征阈值和从M6张正常眼人脸照片中获取预设正常眼人脸照片的操作过程可参见上述从M4张上扬眼人脸图片中获取预设上扬眼特征阈值的操作过程,此处便不再赘述。其中,对上述M4张上扬眼人脸图片中的每张上扬眼人脸图片、上述M5张下垂眼人脸图片中的每张下垂眼人脸图片以及上述M6张正常眼人脸图片中的每张正常眼人脸图片进行眼型特征参量提取的方法可参见上文所描述的待识别图像的眼型特征参量提取方法。
在一些可行的实施方式中,待识别图像中左侧人眼的眼型的判定方法与右侧人眼的眼型的判定方法一致,以下以左侧人眼的眼型的判定为例进行描述。
可选的,移动终端获取到上述眼型特征参量后,可计算上述眼型特征参量即左侧人眼的外眼角夹角特征量(设为第一外眼角夹角特征量)与所述预设上扬眼特征阈值之间的相似度以得到第一相似度。移动终端也可计算上述第一外眼角夹角特征量与所述预设下垂眼特征阈值之间的相似度以得到第二相似度。移动终端还可计算上述第一外眼角夹角特征量与预设下垂眼特征阈值之间的相似度以得到第三相似度。例如,假设上述左侧人眼的第一外眼角夹角为f1,第二外眼角夹角为f2,第三外眼角夹角为f3。预设上扬眼特征阈值为向量[z1,z2,z3]。移动终端将向量[f1,f2,f3]确定为左侧人眼的第一外眼角夹角特征量。移动终端可通过计算向量[z1,z2,z3]与向量[f1,f2,f3]之间的欧几里得距离以得到第一外眼角夹角特征量与预设上扬眼特征阈值之间的相似度,并将该相似度确定为第一相似度。同理,移动终端可获得第二相似度和第三相似度。其中,相似度的计算方法还包括皮尔逊相关系数法、Cosine相似度法等,此处不做限定。
可选的,移动终端在获取上述第一相似度、第二相似度以及第三相似度后,可求取上述第一相似度、第二相似度以及第三相似度中的最小值。若移动终端判断出最小值为第一相似度,则确定待识别图像中包括的左侧人眼的眼型为上扬眼。若移动终端判断出最小值为第二相似度,则确定待识别图像中包括的左侧人眼的眼型为下垂眼。若移动终端判断出最小值为第三相似度,则确定待识别图像中包括的左侧人眼的眼型为正常眼。
在一些可行的实施方式中,移动终端还可根据上述眼型特征参量和眼型特征经验值来确定待识别图像中包括的人眼的眼型。其具体过程可参考上述第二实施例中步骤S206中描述的移动终端根据眼型特征参量和眼型特征经验值来确定待识别图像中包括的人眼的眼型的过程,此处便不再赘述。
在一些可行的实施方式中,移动终端在获取上述待识别图像中包括的人眼的眼型特征参量后,还可将上述眼型特征参量输入到训练后的分类器中。移动终端可根据上述分类器输出的类别参量确定待识别图像中包括的人眼的眼型。具体识别过程可参考第二实施例步骤S206中描述的移动终端通过训练后的分类器确定待识别图像中包括的人眼的眼型的过程,此处便不再赘述。
在本发明实施例中,移动终端可在该待识别图像中定位出人脸关键点,并从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其后,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。最后,根据上述眼型特征参量确定所述人眼的眼型。本发明实施例通过待识别图像中的人脸关键点的位置信息确定出人眼的眼型特征参量,并根据眼型特征参量确定人眼的眼型。采用本发明实施例增加了人脸识别技术可提取的人脸的脸部特征信息量,进而提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
请参见图6,图6是本发明实施例提供的人脸识别装置的一结构示意图。本发明实施例所描述人脸识别装置,包括:
图像获取模块10,用于获取待识别图像。
目标关键点获取模块20,用于在上述图像获取模块10获取的上述待识别图像中定位出人脸关键点。从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息。其中,N为大于1的正整数。
特征提取模块30,用于根据上述目标关键点获取模块20获取的上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。
识别模块40,用于根据上述特征提取模块30获取的上述眼型特征参量确定上述人眼的眼型。
在一些可行的实施方式中,所述特征提取模块30用于:
根据上述目标关键点获取模块20获取的各个目标人脸关键点的位置信息,确定上述图像获取模块10获取的上述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度。计算上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度的平均值以得到人眼轮廓宽窄度均值。将上述人眼轮廓宽窄度均值确定为上述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,所述特征提取模块30用于:
根据上述目标关键点获取模块20获取的各个目标人脸关键点的位置信息执行如下操作以确定上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度中任一人眼轮廓宽窄度i:
从上述目标关键点获取模块20获取的N个目标人脸关键点中确定出用于确定上述人眼轮廓宽窄度i的目标人脸关键点A、目标人脸关键点B、目标人脸关键点C、目标人脸关键点D、目标人脸关键点E以及目标人脸关键点F。计算上述目标人脸关键点A与上述目标人脸关键点B之间的第一距离、上述目标人脸关键点C与上述目标人脸关键点D之间的第二距离以及上述目标人脸关键点E与上述目标人脸关键点F之间的第三距离。根据上述第一距离、上述第二距离以及上述第三距离确定所述人眼轮廓宽窄度i。
在一些可行的实施方式中,上述识别模块40用于:
计算上述特征提取模块30获取的上述人眼轮廓宽窄度均值与预设眼型特征阈值的差值。根据上述差值确定所述人眼的眼型。其中,上述人眼的眼型为圆眼、眯缝眼以及除圆眼和眯缝眼以外的普通眼中的一种。
在一些可行的实施方式中,参见图7,图7是本发明实施例提供的人脸识别装置的另一结构示意图,上述人脸识别装置还包括:预设阈值获取模块50。
上述图像获取模块10,还用于获取M张用于确定预设眼型特征阈值的人脸图片。其中,M为大于0的正整数。
上述特征提取模块30,还用于从上述图像获取模块10获取的上述M张用于确定预设眼型特征阈值的人脸图片中的每张上述人脸图片中提取眼型特征参量。
上述预设阈值获取模块50,用于根据上述特征提取模块30获取的上述M张用于确定预设眼型特征阈值的人脸图片中的每张上述人脸图片的眼型特征参量确定上述M张用于确定预设眼型特征阈值的人脸图片的平均眼型特征参量。将上述平均眼型特征参量确定为预设眼型特征阈值。
在一些可行的实施方式中,上述图像获取模块10获取待识别图像的过程可参考上述第一实施例中的步骤S101所描述的获取待识别图像的过程,此处便不再赘述。
当上述目标关键点获取模块20接收到上述图像获取模块10获取的待识别图像后,可将上述目标待识别图像输入到关键点定位模型中。然后使用上述关键点定位模型对上述待识别图像进行特征提取和分析,并最终确定待识别图像中的人脸关键点的位置。具体的,在上述目标待识别图像中定位出人脸关键点的过程可参考上文第一实施例中步骤S102中所描述的在待识别图像中定位出人脸关键点的操作过程。上述人脸关键点定位结果可一并参见图2,此处便不再赘述。然后,上述目标关键点获取模块20从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其中,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息的过程可参考上文第一实施例中步骤S103所描述的获取N个目标人脸关键点中各个目标人脸关键点的位置信息的过程,此处便不再赘述。
上述目标关键点获取模块20获取到各个目标人脸关键点的位置信息后,可将该位置信息传输至上述特征提取模块30。其中,N个目标人脸关键点包括N1个用于确定左侧人眼的轮廓的左眼目标人脸关键点和N2个用于确定右侧人眼的轮廓的右眼目标人脸关键点N1和N2为大于0的正整数。N为N1与N2之和。
上述特征提取模块30获取左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度的过程可参考第二实施例中步骤S204中所描述的根据各个目标人脸关键点的位置信息确定待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度的过程,此处便不再重复描述。
在一些可行的实施方式中,一般情况下,本实施例所描述的识别模块40对待识别图像进行眼型识别之前,需要预设阈值获取模块50先获取预设眼型特征阈值。其中,上述预设眼型特征阈值包括预设上扬眼特征阈值、预设下垂眼眼特征阈值以及预设正常眼眼特征阈值。
具体的,上述图像获取模块10、特征提取模块30和预设阈值获取模块50获取上述预设眼型特征阈值的过程可参考上述第二实施例中步骤S206中所描述的预设眼型特征阈值的获取过程,此处便不再赘述。
上述识别模块40在获取到上述特征提取模块30获取的第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度之后,可计算出上述第一人眼轮廓宽窄度和上述第二人眼轮廓宽窄度的平均值以得到上述人眼轮廓宽窄度均值。然后,识别模块40可将上述人眼轮廓宽窄度均值确定为待识别图像的眼型特征参量。
在一些可行的实施方式中,识别模块40根据上述特特征提取模块30获取眼型特征参量确定人眼的眼型的过程可参考上述第二实施例中所描述根据眼型特征参量与预设眼型特征阈值的差值确定所述人眼的眼型的过程。
可选的,识别模块40根据上述特特征提取模块30获取眼型特征参量确定人眼的眼型的过程还可参考第二实施例步骤S206中所描述的根据眼型特征参量和眼型特征经验值确定人眼的眼型的过程,此处便不再赘述。
可选的,识别模块40根据上述特特征提取模块30获取眼型特征参量确定人眼的眼型的过程还可参考第二实施例步骤S206中所描述的根据训练后的分类器确定人眼的眼型的过程,此处便不再赘述。
在本发明实施例中,首先,获取待识别图像。然后,在该待识别图像中定位出人脸关键点,并从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其后,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。最后,根据上述眼型特征参量确定所述人眼的眼型。本发明实施例通过待识别图像中的人脸关键点的位置信息确定出人眼的眼型特征参量,并根据眼型特征参量确定人眼的眼型。采用本发明实施例增加了人脸识别技术可提取的人脸的脸部特征信息量,进而提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
请参见图8,图8是本发明实施例提供的人脸识别装置的另一结构示意图。
本发明实施例所描述人脸识别装置,包括:
图像获取模块100,用于获取待识别图像;
目标关键点获取模块200,用于在上述图像获取模块100获取的上述待识别图像中定位出人脸关键点。从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息。其中,N为大于1的正整数。
特征提取模块300,用于根据上述目标关键点获取模块200获取的上述各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。
识别模块400,用于根据上述特征提取模块300获取的上述眼型特征参量确定上述人眼的眼型。
在一些可行的实施方式中,上述N个目标人脸关键点包括目标人脸关键点A’、目标人脸关键点B’、目标人脸关键点C’、目标人脸关键点D’和目标人脸关键点E’。上述第二特征获取模块30用于:
根据上述第二目标关键点定位模块20获取的目标人脸关键点A’、上述目标人脸关键点B’和上述目标人脸关键点D’的位置信息确定由上述目标人脸关键点A’、上述目标人脸关键点B’和上述目标人脸关键点D’形成的第一外眼角夹角。根据第二目标关键点定位模块20获取的上述目标人脸关键点B’、上述目标人脸关键点C’和上述目标人脸关键点D’的位置信息确定由上述目标人脸关键点B’、上述目标人脸关键点C’和上述目标人脸关键点D’形成的第二外眼角夹角。根据第二目标关键点定位模块20获取的上述目标人脸关键点A’、上述目标人脸关键点D’和上述目标人脸关键点E’的位置信息确定由上述目标人脸关键点A’、上述目标人脸关键点D’和上述目标人脸关键点E’形成的第三外眼角夹角。根据上述第一外眼角夹角、第二外眼角夹角和第三外眼角夹角确定上述待识别图像中包括的人眼的外眼角夹角特征量。将上述外眼角夹角特征量确定为所述待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,上述识别模块400用于:
计算上述特征提取模块300获取的人眼的外眼角夹角特征量与预设眼型特征阈值的相似度,并根据该相似度确定上述人眼的眼型。其中,上述人眼的眼型为上扬眼、下垂眼以及除上扬眼和下垂眼以外的正常眼中的一种。
在一些可行的实施方式中,上述装置还包括:预设阈值获取模块500。
上述图像获取模块100,还用于获取M张用于确定预设眼型特征阈值的人脸图片。其中,M为大于0的正整数。
上述特征提取模块300,还用于从上述图像获取模块100获取的上述M张用于确定预设眼型特征阈值的人脸图片中的每张上述人脸图片中提取眼型特征参量。
上述预设阈值获取模块500,用于根据上述特征提取模块300获取的上述M张用于确定预设眼型特征阈值的人脸图片中的每张上述人脸图片的眼型特征参量确定上述M张用于确定预设眼型特征阈值的人脸图片的平均眼型特征参量。将上述平均眼型特征参量确定为预设眼型特征阈值。
在一些可行的实施方式中,上述图像获取模块100获取待识别图像的过程看参考上述第一实施例中的步骤S101所描述的获取待识别图像的过程,此处便不再赘述。
上述第二目标人脸关键点获取模块200接收到到上述待识别图像后,第二目标人脸关键点获取模块200在上述目标待识别图像中定位出人脸关键点的过程可参考上文第一实施例中步骤S102中所描述的在待识别图像中定位出人脸关键点的操作过程。上述人脸关键点定位结果可一并参见图2,此处便不再赘述。然后,第二目标人脸关键点获取模块200可获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息。具体操作过程可参考上文第一实施例中步骤S103所描述的从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息的过程,此处便不再赘述。
上述目标关键点获取模块200获取到各个目标人脸关键点的位置信息后,可将该位置信息传输至上述特征提取模块300。其中,上述N个目标人脸关键点包括N3个用于确定左侧人眼的轮廓的左眼目标人脸关键点和N4个用于确定右侧人眼的轮廓的右眼目标人脸关键点。N3和N4为大于0的正整数。N为N3与N4之和。
目标关键点获取模块200在获取到上述N3个用于确定右侧人眼轮廓的左眼目标人脸关键点后,特征提取模块300提取待识别图像中的右侧人眼的第二外眼角夹角特征量的过程可参考上述第三实施例中步骤S304中所描述的提取待识别图像中的右侧人眼的第二外眼角夹角特征量的过程,此处便不再赘述。
特征提取模块300也可根据上述N3个左眼目标人脸关键点的位置信息确定左侧人眼的第一外眼角夹角特征值。其中,特征提取模块300获取上述左侧人眼的第一外眼角夹角特征值的计算过程同上述特征提取模块300获取右侧人眼的第二人外眼角夹角特征值的计算过程相同,此处便不再重复描述。
特征提取模块300在获取上述左侧人眼的第一外眼角夹角特征值或上述右侧人眼的第二人外眼角夹角特征量后,可将上述左侧人眼的第一外眼角夹角特征值或上述右侧人眼的第二人外眼角夹角特征量确定为所求的待识别图像中包括的人眼的眼型特征参量。
在一些可行的实施方式中,一般情况下,本实施例所描述的识别模块400在对待识别图像进行眼型识别之前,需要预设特征阈值获取模块500获取预设眼型特征阈值,以实现后续的眼型识别操作。其中,上述预设眼型特征阈值包括预设上扬眼特征阈值、预设下垂眼眼特征阈值以及预设正常眼眼特征阈值。
具体的,上述图像获取模块100、特征提取模块300和预设阈值获取模块500获取上述预设眼型特征阈值的过程可参考上述第三实施例中步骤S306中所描述的预设眼型特征阈值的获取过程,此处便不再赘述。
上述识别模块400在获取到上述特征提取模块得到的人眼的眼型特征参量后,可根据上述人眼的眼型特征参量及上述预设阈值获取模块500获取的预设眼型特征阈值确定待识别图像中的人眼的眼型。其中,上述识别模块400对左侧人眼的眼型的判定方法和对右侧人眼的眼型的判定方法相同,下文以上述识别模块400对左侧人眼的眼型的判定为例进行描述。
在一些可行的实施方式中,识别模块400根据上述特特征提取模块300获取的眼型特征参量确定人眼的眼型的过程可参考上述第三实施例中所描述根据眼型特征参量与预设眼型特征阈值的差值确定所述人眼的眼型的过程。
可选的,识别模块400根据上述特特征提取模块300获取眼型特征参量确定人眼的眼型的过程还可参考第二实施例中步骤S206中所描述的根据眼型特征参量和眼型特征经验值确定人眼的眼型的过程,此处便不再赘述。
可选的,识别模块400根据上述特特征提取模块300获取眼型特征参量确定人眼的眼型的过程还可参考第二实施例步骤S206中所描述的根据训练后的分类器确定人眼的眼型的过程,此处便不再赘述。
在本发明实施例中,首先,获取待识别图像。然后,在该待识别图像中定位出人脸关键点,并从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点。其后,获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。最后,根据上述眼型特征参量确定所述人眼的眼型。本发明实施例通过待识别图像中的人脸关键点的位置信息确定出人眼的眼型特征参量,并根据眼型特征参量确定人眼的眼型。采用本发明实施例增加了人脸识别技术可提取的人脸的脸部特征信息量,进而提高人脸识别技术的识别精度,提升人脸识别技术的适用性。
请参见图9,是本发明实施例提供的人脸识别装置的另一结构示意图。如图9所示,本实施例中的装置可以包括:一个或多个输入设备100、存储器200、一个或多个处理器300。上述处理器300、输入设备100、存储器200通过总线400连接。存储器200用于存储计算机程序,上述计算机程序包括程序指令,处理器300用于执行存储器200存储的程序指令。其中,输入设备100被配置用于调用上述程序指令执行:获取待识别图像。处理器300被配置用于调用上述程序指令执行:在该待识别图像中定位出人脸关键点,从上述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取上述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数。根据各个目标人脸关键点的位置信息,确定上述待识别图像中包括的人眼的眼型特征参量。根据上述眼型特征参量确定所述人眼的眼型。
应当理解,在本发明实施例中,所称处理器300可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
输入设备100可以包括摄像头、数据通信接口等。
该存储器200可以包括只读存储器和随机存取存储器,并向处理器300提供指令和数据。存储器200的一部分还可以包括非易失性随机存取存储器。例如,存储器200还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的输入设备100、处理器300可执行本发明实施例提供的人脸识别方法的第一实施例、第二实施例和第三实施例中所描述的实现方式,也可执行本发明实施例所描述的装置的实现方式,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。

Claims (9)

1.一种人脸识别的方法,其特征在于,所述方法包括:
获取待识别图像,在所述待识别图像中定位出人脸关键点;
从所述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取所述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数,所述N个目标人脸关键点包括目标人脸关键点A’、目标人脸关键点B’、目标人脸关键点C’、目标人脸关键点D’和目标人脸关键点E’,所述目标人脸关键点A’与所述目标人脸关键点D’为人眼轮廓上眼角位置的关键点,所述目标人脸关键点B’与所述目标人脸关键点C’为人眼上半部分轮廓上的关键点,所述目标人脸关键点E’为人眼下半部分轮廓上的关键点,所述目标人脸关键点的位置信息包括所述目标人脸关键点在所述待识别图像中的水平位置参数和垂直位置参数;
根据所述各个目标人脸关键点的位置信息,确定所述待识别图像中包括的人眼的眼型特征参量,包括:根据所述目标人脸关键点A’、所述目标人脸关键点B’和所述目标人脸关键点D’的位置信息确定第一外眼角夹角,所述第一外眼角夹角由所述目标人脸关键点A’、所述目标人脸关键点B’和所述目标人脸关键点D’确定;
根据所述目标人脸关键点B’、所述目标人脸关键点C’和所述目标人脸关键点D’的位置信息确定第二外眼角夹角,所述第二外眼角夹角由所述目标人脸关键点B’、所述目标人脸关键点C’和所述目标人脸关键点D’确定;
根据所述目标人脸关键点A’、所述目标人脸关键点D’和所述目标人脸关键点E’的位置信息确定第三外眼角夹角,所述第三外眼角夹角由所述目标人脸关键点A’、所述目标人脸关键点D’和所述目标人脸关键点E’确定;
根据所述第一外眼角夹角、所述第二外眼角夹角和所述第三外眼角夹角确定外眼角夹角特征量,并将所述外眼角夹角特征量确定为所述待识别图像中包括的人眼的眼型特征参量;
根据所述眼型特征参量确定所述人眼的眼型,包括:计算所述人眼的外眼角夹角特征量与预设眼型特征阈值的相似度,根据所述相似度确定所述人眼的眼型,包括:分别计算所述人眼的外眼角夹角特征量与预设上扬眼特征阈值、预设下垂眼特征阈值以及预设正常眼特征阈值之间的相似度,得到第一相似度、第二相似度以及第三相似度,根据所述第一相似度、所述第二相似度以及所述第三相似度确定所述人眼的眼型,所述预设眼型特征阈值包括所述预设上扬眼特征阈值、所述预设下垂眼特征阈值以及所述预设正常眼特征阈值,所述人眼的眼型包括上扬眼、下垂眼以及除上扬眼和下垂眼以外的正常眼中的一种。
2.根据权利要求1所述的方法,其特征在于,所述根据所述各个目标人脸关键点的位置信息,确定所述待识别图像中包括的人眼的眼型特征参量包括:
根据所述各个目标人脸关键点的位置信息,确定所述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度;
计算所述第一人眼轮廓宽窄度和所述第二人眼轮廓宽窄度的平均值以得到人眼轮廓宽窄度均值,并将所述人眼轮廓宽窄度均值确定为所述待识别图像中包括的人眼的眼型特征参量。
3.根据权利要求2所述的方法,其特征在于,所述根据所述各个目标人脸关键点的位置信息,确定所述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度包括:
根据所述各个目标人脸关键点的位置信息执行如下操作以确定所述第一人眼轮廓宽窄度和所述第二人眼轮廓宽窄度中任一人眼轮廓宽窄度i:
从所述N个目标人脸关键点中确定出用于确定所述人眼轮廓宽窄度i的目标人脸关键点A、目标人脸关键点B、目标人脸关键点C、目标人脸关键点D、目标人脸关键点E以及目标人脸关键点F;
计算所述目标人脸关键点A与所述目标人脸关键点B之间的第一距离、所述目标人脸关键点C与所述目标人脸关键点D之间的第二距离以及所述目标人脸关键点E与所述目标人脸关键点F之间的第三距离;
根据所述第一距离、所述第二距离以及所述第三距离确定所述人眼轮廓宽窄度i。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述眼型特征参量确定所述人眼的眼型包括:
计算所述人眼轮廓宽窄度均值与预设眼型特征阈值的差值,根据所述差值确定所述人眼的眼型;
其中,所述人眼的眼型为圆眼、眯缝眼以及除圆眼和眯缝眼以外的普通眼中的一种。
5.根据权利要求1或3所述的方法,其特征在于,所述方法还包括:
获取M张用于确定预设眼型特征阈值的人脸图片,其中,M为大于0的正整数;
从M张所述人脸图片中的每张所述人脸图片中提取眼型特征参量以得到M组眼型特征参量;
计算所述M组眼型特征参量的平均值以得到平均眼型特征参量,并将所述平均眼型特征参量确定为预设眼型特征阈值。
6.一种人脸识别的装置,其特征在于,所述装置包括:
图像获取模块,用于获取待识别图像;
目标关键点获取模块,用于在所述图像获取模块获取的所述待识别图像中定位出人脸关键点,从所述人脸关键点中获取用于确定人眼轮廓的N个目标人脸关键点,并获取所述N个目标人脸关键点中各个目标人脸关键点的位置信息,其中,N为大于1的正整数,所述N个目标人脸关键点包括目标人脸关键点A’、目标人脸关键点B’、目标人脸关键点C’、目标人脸关键点D’和目标人脸关键点E’,所述目标人脸关键点A’与所述目标人脸关键点D’为人眼轮廓上眼角位置的关键点,所述目标人脸关键点B’与所述目标人脸关键点C’为人眼上半部分轮廓上的关键点,所述目标人脸关键点E’为人眼下半部分轮廓上的关键点,所述目标人脸关键点的位置信息包括所述目标人脸关键点在所述待识别图像中的水平位置参数和垂直位置参数;
特征提取模块,用于根据所述目标关键点获取模块获取的所述各个目标人脸关键点的位置信息,确定所述待识别图像中包括的人眼的眼型特征参量;
所述特征提取模块,用于:
根据所述目标人脸关键点A’、所述目标人脸关键点B’和所述目标人脸关键点D’的位置信息确定第一外眼角夹角,所述第一外眼角夹角由所述目标人脸关键点A’、所述目标人脸关键点B’和所述目标人脸关键点D’确定;
根据所述目标人脸关键点B’、所述目标人脸关键点C’和所述目标人脸关键点D’的位置信息确定第二外眼角夹角,所述第二外眼角夹角由所述目标人脸关键点B’、所述目标人脸关键点C’和所述目标人脸关键点D’确定;
根据所述目标人脸关键点A’、所述目标人脸关键点D’和所述目标人脸关键点E’的位置信息确定第三外眼角夹角,所述第三外眼角夹角由所述目标人脸关键点A’、所述目标人脸关键点D’和所述目标人脸关键点E’确定;
根据所述第一外眼角夹角、所述第二外眼角夹角和所述第三外眼角夹角确定外眼角夹角特征量,并将所述外眼角夹角特征量确定为所述待识别图像中包括的人眼的眼型特征参量;
识别模块,用于根据所述特征提取模块获取的所述眼型特征参量确定所述人眼的眼型,具体用于:计算所述人眼的外眼角夹角特征量与预设眼型特征阈值的相似度,根据所述相似度确定所述人眼的眼型;
所述识别模块,具体用于:分别计算所述人眼的外眼角夹角特征量与预设上扬眼特征阈值、预设下垂眼特征阈值以及预设正常眼特征阈值之间的相似度,得到第一相似度、第二相似度以及第三相似度,根据所述第一相似度、所述第二相似度以及所述第三相似度确定所述人眼的眼型,所述预设眼型特征阈值包括所述预设上扬眼特征阈值、所述预设下垂眼特征阈值以及所述预设正常眼特征阈值,所述人眼的眼型包括上扬眼、下垂眼以及除上扬眼和下垂眼以外的正常眼中的一种。
7.根据权利要求6所述的装置,其特征在于,所述特征提取模块用于:
根据所述目标关键点获取模块获取的各个目标人脸关键点的位置信息,确定所述图像获取模块获取的所述待识别图像中包括的左侧人眼的第一人眼轮廓宽窄度和右侧人眼的第二人眼轮廓宽窄度;
计算所述第一人眼轮廓宽窄度和所述第二人眼轮廓宽窄度的平均值以得到人眼轮廓宽窄度均值,并将所述人眼轮廓宽窄度均值确定为所述待识别图像中包括的人眼的眼型特征参量。
8.根据权利要求7所述的装置,其特征在于,所述识别模块用于:
计算所述特征提取模块获取的所述人眼轮廓宽窄度均值与预设眼型特征阈值的差值,根据所述差值确定所述人眼的眼型;
其中,所述人眼的眼型为圆眼、眯缝眼以及除圆眼和眯缝眼以外的普通眼中的一种。
9.一种人脸识别的装置,其特征在于,包括处理器、输入设备和存储器,所述处理器、输入设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器和所述输入设备用于调用所述程序指令,执行如权利要求1-5任一项所述的方法。
CN201711381874.6A 2017-12-20 2017-12-20 人脸识别的方法和装置 Active CN108288023B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711381874.6A CN108288023B (zh) 2017-12-20 2017-12-20 人脸识别的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711381874.6A CN108288023B (zh) 2017-12-20 2017-12-20 人脸识别的方法和装置

Publications (2)

Publication Number Publication Date
CN108288023A CN108288023A (zh) 2018-07-17
CN108288023B true CN108288023B (zh) 2020-10-16

Family

ID=62832098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711381874.6A Active CN108288023B (zh) 2017-12-20 2017-12-20 人脸识别的方法和装置

Country Status (1)

Country Link
CN (1) CN108288023B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086719A (zh) * 2018-08-03 2018-12-25 北京字节跳动网络技术有限公司 用于输出数据的方法和装置
CN113468933A (zh) * 2020-04-28 2021-10-01 海信集团有限公司 一种眼型识别方法及智能设备
CN111931617B (zh) * 2020-07-29 2023-11-21 中国工商银行股份有限公司 基于图像处理的人眼图像识别方法、装置及自助终端

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103902046A (zh) * 2014-04-10 2014-07-02 深圳市中兴移动通信有限公司 智能提醒方法和终端
CN104680121A (zh) * 2013-11-27 2015-06-03 腾讯科技(深圳)有限公司 一种人脸图像的处理方法及装置
CN104866808A (zh) * 2014-02-24 2015-08-26 腾讯科技(深圳)有限公司 人眼定位方法及装置
KR101592110B1 (ko) * 2014-08-07 2016-02-04 한국 한의학 연구원 눈 모양 분류 장치 및 방법
CN105631398A (zh) * 2014-11-24 2016-06-01 三星电子株式会社 识别对象的方法和设备以及训练识别器的方法和设备
CN106203262A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于眼睑曲线相似度与眼型指数的眼型分类方法
CN106203245A (zh) * 2015-04-22 2016-12-07 纬创资通股份有限公司 人眼检测方法及人眼检测系统
CN107169408A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种颜值判定方法及装置
CN107169413A (zh) * 2017-04-12 2017-09-15 上海大学 一种基于特征块权重化的面部表情识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345922B2 (en) * 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680121A (zh) * 2013-11-27 2015-06-03 腾讯科技(深圳)有限公司 一种人脸图像的处理方法及装置
CN104866808A (zh) * 2014-02-24 2015-08-26 腾讯科技(深圳)有限公司 人眼定位方法及装置
CN103902046A (zh) * 2014-04-10 2014-07-02 深圳市中兴移动通信有限公司 智能提醒方法和终端
KR101592110B1 (ko) * 2014-08-07 2016-02-04 한국 한의학 연구원 눈 모양 분류 장치 및 방법
CN105631398A (zh) * 2014-11-24 2016-06-01 三星电子株式会社 识别对象的方法和设备以及训练识别器的方法和设备
CN106203245A (zh) * 2015-04-22 2016-12-07 纬创资通股份有限公司 人眼检测方法及人眼检测系统
CN106203262A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于眼睑曲线相似度与眼型指数的眼型分类方法
CN107169408A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种颜值判定方法及装置
CN107169413A (zh) * 2017-04-12 2017-09-15 上海大学 一种基于特征块权重化的面部表情识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于语义特征的人脸匹配算法研究与实现";彭明超;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215;第31-36页 *

Also Published As

Publication number Publication date
CN108288023A (zh) 2018-07-17

Similar Documents

Publication Publication Date Title
US10990803B2 (en) Key point positioning method, terminal, and computer storage medium
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
US10726244B2 (en) Method and apparatus detecting a target
CN107633204B (zh) 人脸遮挡检测方法、装置及存储介质
CN108090450B (zh) 人脸识别方法和装置
US10616475B2 (en) Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium
WO2019232866A1 (zh) 人眼模型训练方法、人眼识别方法、装置、设备及介质
WO2019232862A1 (zh) 嘴巴模型训练方法、嘴巴识别方法、装置、设备及介质
CN107463865B (zh) 人脸检测模型训练方法、人脸检测方法及装置
CN112232117A (zh) 一种人脸识别方法、装置及存储介质
US10423848B2 (en) Method, system, and computer-readable recording medium for long-distance person identification
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
CN109271930B (zh) 微表情识别方法、装置与存储介质
CN111666905B (zh) 模型训练方法、行人属性识别方法和相关装置
CN108288023B (zh) 人脸识别的方法和装置
US20190347472A1 (en) Method and system for image identification
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6633476B2 (ja) 属性推定装置、属性推定方法および属性推定プログラム
US12106604B2 (en) Electronic device and method for processing image by same
CN110008943B (zh) 一种图像处理方法及装置、一种计算设备及存储介质
CN108875549B (zh) 图像识别方法、装置、系统及计算机存储介质
CN111754391A (zh) 人脸转正方法、设备及计算机可读存储介质
CN114299363A (zh) 图像处理模型的训练方法、图像分类方法及装置
Lahiani et al. Hand pose estimation system based on Viola-Jones algorithm for android devices
CN110175500B (zh) 指静脉比对方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 518000 Guangdong science and technology innovation and Research Institute, Shenzhen, Shenzhen, Nanshan District No. 6, science and technology innovation and Research Institute, Shenzhen, D 10, 1004, 10

Patentee after: Shenzhen Hetai intelligent home appliance controller Co.,Ltd.

Address before: 518000 Guangdong science and technology innovation and Research Institute, Shenzhen, Shenzhen, Nanshan District No. 6, science and technology innovation and Research Institute, Shenzhen, D 10, 1004, 10

Patentee before: SHENZHEN H&T DATA RESOURCES AND CLOUD TECHNOLOGY Ltd.