CN110462632A - 人脸识别的方法、装置和电子设备 - Google Patents
人脸识别的方法、装置和电子设备 Download PDFInfo
- Publication number
- CN110462632A CN110462632A CN201980001099.8A CN201980001099A CN110462632A CN 110462632 A CN110462632 A CN 110462632A CN 201980001099 A CN201980001099 A CN 201980001099A CN 110462632 A CN110462632 A CN 110462632A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- eye image
- recognition
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 151
- 230000006870 function Effects 0.000 claims description 69
- 230000005284 excitation Effects 0.000 claims description 62
- 238000013528 artificial neural network Methods 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 25
- 210000000887 face Anatomy 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 36
- 230000015654 memory Effects 0.000 description 22
- 238000013527 convolutional neural network Methods 0.000 description 17
- 238000012850 discrimination method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 210000002837 heart atrium Anatomy 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 210000003786 sclera Anatomy 0.000 description 4
- 238000010008 shearing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000016339 iris pattern Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
Abstract
一种人脸识别方法、装置和电子设备,能够识别人脸的真假,从而能够提升人脸识别的安全性。该人脸识别方法包括:获取第一识别目标的第一目标图像及第一眼部图像;根据所述第一眼部图像进行基于虹膜的人脸防伪判断,以确定所述第一识别目标是否为活体人脸并输出活体判断结果;根据所述第一目标图像进行特征模板匹配,并输出匹配结果;根据所述活体判断结果和所述匹配结果输出人脸识别结果。
Description
技术领域
本申请涉及生物特征识别技术领域,并且更具体地,涉及一种人脸识别的方法、装置和电子设备。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的图像预处理、图像特征提取以及匹配与识别等一系列相关技术,通常也叫做人像识别或面部识别。随着计算机和网络技术的飞速发展,人脸识别技术已广泛地应用于智能门禁、移动终端、公共安全、娱乐、军事等诸多行业及领域。
当前人脸识别普遍使用的是基于人脸的二维(Two Dimensional,2D)图像进行识别,判断该2D图像是否为特定用户人脸,而不判断该2D图像是否来自活体人脸,换言之,现有技术中,基于2D图像的2D人脸识别没有防伪功能,安全性能差。
发明内容
本申请实施例提供了一种人脸识别方法、装置和电子设备,能够识别人脸的真假,从而能够提升人脸识别的安全性。
第一方面,提供了一种人脸识别方法,包括:
获取第一识别目标的第一目标图像及第一眼部图像;
根据所述第一眼部图像进行基于虹膜的人脸防伪判断,以确定所述第一识别目标是否为活体人脸并输出活体判断结果;
根据所述第一目标图像进行特征模板匹配,并输出匹配结果;
根据所述活体判断结果和所述匹配结果输出人脸识别结果。
本申请提供一种带有防伪功能的人脸识别方案,通过获取第一识别目标的第一目标图像和第一眼部图像,基于第一眼部图像中的虹膜特征进行人脸防伪,在判断该包括虹膜的眼部图像是否来自活体人脸的基础上,根据第一目标图像进行特征模板匹配判断是否为用户,从而大大提高人脸识别装置及电子设备的安全性。
在一种可能的实现方式中,所述根据所述活体判断结果和所述匹配结果输出人脸识别结果,包括:
在所述匹配结果为成功时,根据所述活体判断结果输出人脸识别结果;或者,在所述活体判断结果为活体时,根据所述匹配结果输出人脸识别结果;或者,在所述匹配结果为失败或所述活体判断结果为非活体时,输出人脸识别结果。
在一种可能的实现方式中,所述根据所述第一目标图像进行特征模板匹配,并输出匹配结果,包括:
基于所述第一目标图像进行人脸检测;
当人脸检测成功时,基于所述第一目标图像获取第一人脸图像;
将所述第一人脸图像与预存的多个第一特征模板进行匹配;
当所述第一人脸图像与所述多个第一特征模板中任意一个第一特征模板匹配成功时,输出匹配结果为成功;或者,
当所述第一人脸图像与所述多个第一特征模板匹配失败时,输出匹配结果为失败;
或者,当人脸检测失败时,输出匹配结果为失败。
在一种可能的实现方式中,所述获取第一识别目标的第一目标图像及第一眼部图像,包括:
获取所述第一识别目标的第一目标图像,基于所述第一目标图像获取所述第一眼部图像。
在一种可能的实现方式中,所述第一眼部图像为二维红外图像。
在一种可能的实现方式中,所述第一眼部图像为包括虹膜的人眼区域图像或虹膜区域图像。
在一种可能的实现方式中,所述根据所述第一眼部图像进行基于虹膜的人脸防伪判断,包括:
采用直方图均衡化方法对所述第一眼部图像进行处理得到第一优化眼部图像;
根据所述第一优化眼部图像进行基于虹膜的人脸防伪判断。
在一种可能的实现方式中,所述根据所述第一优化眼部图像进行基于虹膜的人脸防伪判断,包括:
通过神经网络对所述第一优化眼部图像进行分类处理,以确定所述第一识别目标是否为活体人脸。
在一种可能的实现方式中,所述第一眼部图像包括第一左眼眼部图像和/或第一右眼眼部图像,所述采用直方图均衡化方法对所述第一眼部图像进行处理得到第一优化眼部图像包括:
采用所述直方图均衡化方法对所述第一左眼眼部图像进行处理得到第一优化左眼眼部图像;和/或
采用所述直方图均衡化方法对所述第一右眼眼部图像进行处理得到第一优化右眼眼部图像。
在一种可能的实现方式中,所述第一眼部图像包括:所述第一左眼眼部图像或所述第一右眼眼部图像;
所述神经网络包括:第一扁平化层,至少一个第一全连接层以及至少一个第一激励层。
在一种可能的实现方式中,所述通过神经网络对所述第一优化眼部图像进行分类处理,包括:
通过所述第一扁平化层,对所述第一优化左眼眼部图像或所述第一优化右眼眼部图像进行处理得到多个眼部像素值;
通过所述至少一个第一全连接层,对所述多个眼部像素值进行全连接得到多个特征常数;
通过所述至少一个第一激励层,对所述多个特征常数进行非线性化处理或者分类处理。
在一种可能的实现方式中,所述神经网络包括:所述第一扁平化层,两个所述第一全连接层以及两个所述第一激励层。
在一种可能的实现方式中,两个所述第一激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数。
在一种可能的实现方式中,所述第一眼部图像包括:所述第一左眼眼部图像和所述第一右眼眼部图像;
所述神经网络包括第一网络、第二网络和第三网络;
所述第一网络包括:第二扁平化层,至少一个第二全连接层以及至少一个第二激励层;
所述第二网络包括:第三扁平化层,至少一个第三全连接层以及至少一个第三激励层;
所述第三网络包括:至少一个第四全连接层以及至少一个第四激励层。
在一种可能的实现方式中,所述通过神经网络对所述第一优化眼部图像进行分类处理,包括:
通过所述第一网络对所述第一优化左眼眼部图像进行处理得到左眼分类特征值;
通过所述第二网络对所述第一优化右眼眼部图像进行处理得到右眼分类特征值;
通过所述第三网络对所述左眼分类特征值和所述右眼分类特征值进行全连接。
在一种可能的实现方式中,所述第一网络包括:所述第二扁平化层,两个所述第二全连接层和两个所述第二激励层;
所述第二网络包括:所述第三扁平化层,两个所述第三全连接层和两个所述第三激励层;
所述第三网络包括:一个所述第四全连接层和一个所述第四激励层。
在一种可能的实现方式中,两个所述第二激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数;和/或,
两个所述第三激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数;和/或,
一个所述第四激励层中的激励函数为修正线性单元ReLU函数。
在一种可能的实现方式中,所述方法还包括:
获取第二识别目标的第二眼部图像;
根据所述第二眼部图像进行基于虹膜的人脸防伪判别,以确定所述第二识别目标是否为活体人脸,其中,人脸防伪判别的结果用于建立人脸特征模板。
在一种可能的实现方式中,所述第二眼部图像为第二眼部红外图像。
在一种可能的实现方式中,所述方法还包括:
获取所述第二识别目标的第二目标图像,基于所述第二目标图像获取所述第二眼部图像,并基于所述第二目标图像建立所述人脸特征模板。
在一种可能的实现方式中,所述方法还包括:
基于所述第二目标图像进行人脸检测;
其中,所述基于所述第二目标图像建立人脸特征模板包括:
在人脸检测成功时,基于所述第二目标图像获取第二人脸图像,并根据所述第二人脸图像建立所述人脸特征模板。
在一种可能的实现方式中,所述基于所述第二人脸图像建立所述人脸特征模板,包括:
判断所述第二人脸图像是否属于人脸特征模板库;
当所述第二人脸图像属于所述人脸特征模板库时,将所述第二人脸图像与所述人脸特征模板库中的多个人脸特征模板进行匹配。
当所述第二人脸图像不属于所述人脸特征模板库时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别,当确定所述第二识别目标为活体人脸时,将所述第二人脸图像建立为人脸特征模板。
在一种可能的实现方式中,所述将所述第二人脸图像与所述人脸特征模板库中的多个人脸特征模板进行匹配,包括:
当匹配成功时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别;
当确定所述第二识别目标为活体人脸时,将所述第二人脸图像建立为人脸特征模板。
在一种可能的实现方式中,所述当匹配成功时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别,包括:
当匹配成功时,获取所述第二识别目标的3D点云数据;
当所述3D点云数据为有效点云时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别。
在一种可能的实现方式中,所述基于所述第二目标图像获取所述第二眼部图像,包括:
基于所述第二目标图像获取人脸区域图像;
基于所述人脸区域图像获取所述第二眼部图像。
在一种可能的实现方式中,所述第二眼部图像为包括虹膜的人眼区域图像或虹膜区域图像。
在一种可能的实现方式中,所述根据所述第二眼部图像进行基于虹膜的人脸防伪判别,包括:
采用直方图均衡化方法对所述第二眼部图像进行处理得到第二优化眼部图像;
根据所述第二优化眼部图像进行基于虹膜的人脸防伪判别。
在一种可能的实现方式中,所述根据所述第二优化眼部图像进行基于虹膜的人脸防伪判别,包括:
通过神经网络对所述第二优化眼部图像进行分类处理,以确定所述第二识别目标是否为活体人脸。
在一种可能的实现方式中,所述第二眼部图像包括第二左眼眼部图像和/或第二右眼眼部图像,所述通过神经网络对所述第二优化眼部图像进行分类处理包括:
通过神经网络对所述第二左眼眼部图像和/或所述第二右眼眼部图像进行分类处理。
在一种可能的实现方式中,所述神经网络包括:
至少一个扁平化层,至少一个全连接层和至少一个激励层。
第二方面,提供了一种人脸识别的装置,包括处理器,用于执行如第一方面或第一方面的任一可能的实现方式中的人脸识别方法。
第三方面,提供了一种电子设备,包括如第二方面或第二方面的任一可能的实现方式中的人脸识别装置。
第四方面,提供了一种芯片,该芯片包括输入输出接口、至少一个处理器、至少一个存储器和总线,该至少一个存储器用于存储指令,该至少一个处理器用于调用该至少一个存储器中的指令,以执行第一方面或第一方面的任一可能的实现方式中的方法。
第五方面,提供了一种计算机可读介质,用于存储计算机程序,所述计算机程序包括用于执行上述第一方面或第一方面的任一可能的实现方式中的指令。
第六方面,提供了一种包括指令的计算机程序产品,当计算机运行所述计算机程序产品的所述指时,所述计算机执行上述第一方面或第一方面的任一可能的实现方式中的人脸识别的方法。
具体地,该计算机程序产品可以运行于上述第三方面的电子设备上。
附图说明
图1(a)图是根据本申请实施例的一种人脸识别装置的示意性框图。
图1(b)图是根据本申请实施例的一种人脸识别方法的示意性流程图。
图1(c)图是根据本申请实施例的一种卷积神经网络的示意性框图。
图2是根据本申请实施例的一种人脸识别方法的示意性流程图。
图3中的(a)图是根据本申请实施例的三维模型人脸的红外图像。
图3中的(b)图是根据本申请实施例的用户活体人脸的红外图像。
图4是根据本申请实施例的另一种人脸识别方法的示意性流程图。
图5是根据本申请实施例的另一种人脸识别方法的示意性流程图。
图6是根据本申请实施例的另一种人脸识别方法的示意性流程图。
图7是根据本申请实施例的另一种人脸识别方法的示意性流程图。
图8是根据本申请实施例的人脸识别方法中一种人脸防伪判别方法的示意性流程图。
图9是根据本申请实施例的人脸识别方法中另一种人脸防伪判别方法的示意性流程图。
图10是根据本申请实施例的一种卷积神经网络的示意性框图。
图11是根据本申请实施例的一种全连接层示意图。
图12是根据本申请实施例的另一种卷积神经网络的示意性框图。
图13是根据本申请实施例的人脸识别方法中另一种人脸防伪判别方法的示意性流程图。
图14是根据本申请实施例的另一种卷积神经网络的示意性框图。
图15是根据本申请实施例的人脸识别方法中一种人脸注册方法的示意性流程图。
图16是根据本申请实施例的人脸识别方法中另一种人脸注册方法的示意性流程图。
图17是根据本申请实施例的人脸识别方法中另一种人脸注册方法的示意性流程图。
图18是根据本申请实施例的一种人脸识别装置的示意性框图。
图19根据本申请实施例的电子设备的示意性框图。
具体实施方式
下面将结合附图,对本申请实施例中的技术方案进行描述。
本申请实施例可适用于光学人脸识别系统,包括但不限于基于光学人脸成像的产品。该光学人脸识别系统可以应用于具有图像采集装置(如摄像头)的各种电子设备,该电子设备可以为手机,平板电脑,智能可穿戴装置、智能门锁等,本公开的实施例对此不做限定。
应理解,本文中的具体的例子只是为了帮助本领域技术人员更好地理解本申请实施例,而非限制本申请实施例的范围。
还应理解,本申请实施例中的公式只是一种示例,而非限制本申请实施例的范围,各公式可以进行变形,这些变形也应属于本申请保护的范围。
还应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
还应理解,本说明书中描述的各种实施方式,既可以单独实施,也可以组合实施,本申请实施例对此并不限定。
除非另有说明,本申请实施例所使用的所有技术和科学术语与本申请的技术领域的技术人员通常理解的含义相同。本申请中所使用的术语只是为了描述具体的实施例的目的,不是旨在限制本申请的范围。本申请所使用的术语“和/或”包括一个或多个相关的所列项的任意的和所有的组合。
为了便于理解,先结合图1(a)、图1(b)和图1(c),对基于2D图像的人脸识别进行电子设备的解锁过程进行简单介绍。
如图1(a)所示,人脸识别装置10包括红外发光模组110、红外图像采集模组120和处理器130。其中,所述红外光发光模组110用于发出红外光信号,其可以为红外光发光二极管(Light Emitting Diode,LED),或者也可以为垂直腔面发射激光器(Vertical CavitySurface Emitting Laser,VCSEL)等其它红外光发光光源,本申请实施例对此不做限定。所述红外图像采集模组120可以为红外摄像头,其中包括红外图像传感器,该红外图像传感器用于接收红外光信号,并将接收的红外光信号转换为对应的电信号,从而生成红外图像。所述处理器130可以为一种微处理器(Microprocessor Unit,MPU),可以控制所述红外发光模组110和所述红外图像采集模组120进行人脸图像采集,并且进行人脸图像识别。
具体地,如图1(b)所示,当需要进行人脸识别时,具体2D识别流程如下:
S110:采集识别目标的2D红外图像。具体地,所述红外发光模组110发出红外光,该红外光照射在识别目标上,该识别目标可以为用户人脸,也可以为照片,3D模型或者任意其它物体。经过识别目标表面反射的红外反射光被红外图像传感器120接收并转换为2D红外图像,所述红外图像传感器120将2D红外图像传输给处理器130。
S120:人脸检测(face detection)。即接收2D红外图像,检测2D红外图像上是否存在人脸。例如,采用单个卷积神经网络(Convolutional Neural Networks,CNN)对2D红外图像进行人脸检测。首先训练一个判断人脸非人脸的人脸检测卷积神经网络,将2D红外图像的数据输入至人脸检测卷积神经网络中,通过卷积计算等步骤,将2D红外图像的数据的特征提取后,进行分类判别,从而判断该2D红外图像上是否存在人脸。
具体地,如图1(c)所示,卷积神经网络主要包括卷积层101(convolutionallayer)、激励层102(activation layer),池化层103(pooling layer)、以及全连接层104(fully-connected layer)。其中,卷积神经网路中每层卷积层由若干卷积核(convolutional kernel)组成,每个卷积核的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,不同的卷积核提取不同的特征图(feature map),更多层的卷积网络能从边缘特征、线条特征等低级特征中迭代提取更复杂的特征。激励层使用激励函数(activation function)给卷积神经网络引入了非线性,常用的激励函数有sigmoid、tanh、ReLU函数等。通常在卷积层之后会得到维度很大的特征,池化层将特征切成几个区域,取其最大值(max pooling)或平均值(average pooling),得到新的、维度较小的特征图。全连接层把所有局部特征结合变成全局特征,用来计算最后每一类的得分,从而判断输入的数据的类别。
S121:若2D红外图像上存在人脸,则对2D红外图像进行人脸剪切。具体地,将上述人脸检测卷积神经网络的全连接层改为卷积层,这样网络变成了全卷积网络,2D红外图像经过全卷积网络将得到特征图,特征图上每一个“点”对应该位置映射到原图区域属于人脸的概率,将属于人脸概率大于设定阈值的视为人脸候选框。将2D红外图像中人脸候选框中的图像剪切形成新的人脸2D红外图像。
S122:若2D红外图像上不存在人脸,则将重启参数加1。
若2D红外图像上不存在人脸,则人脸检测失败,换言之,该识别目标不为用户,匹配失败。
可选地,还可以通过级联CNN,Dlib,OpenCV等方法进行人脸检测,并剪切得到新的人脸2D红外图像。本申请实施例中对此不做限定。
S130:2D人脸识别(face recognition)。即对S131形成的人脸2D红外图像进行识别,判断该人脸2D红外图像是否为用户的人脸。例如,采用卷积神经网络的方法进行人脸识别,具体地,首先训练一个判断是否为用户人脸的人脸识别卷积神经网络,该人脸识别卷积神经网络按照模板库中的多个特征模板分类。将人脸2D红外图像的数据输入至人脸识别卷积神经网络中,通过卷积计算等步骤,将人脸2D红外图像的数据的特征提取后,进行分类判别,判断该人脸2D红外图像是否与模板库中多个特征模板匹配。
S131:若匹配成功,则该人脸2D红外图像为用户的人脸图像,2D识别成功。进一步的,可以解锁人脸识别装置10所在的电子设备,也可以解锁电子设备上应用程序。
S132:若匹配失败,则该人脸2D红外图像不为用户的人脸图像,则2D识别失败,将重启参数加1。
S140:判断重启参数是否小于第一阈值。
S141:若重启参数小于第一阈值,则进入S110;
S142:若重启参数大于等于第一阈值,则识别失败。
在图1(b)中,人脸识别装置10通过采集人脸的2D红外图像,判断人脸的2D图像是否符合特征人脸模板库中的特征人脸来进行人脸识别,从而对电子设备和电子设备上的应用程序(application,APP)进行解锁。由于在解锁过程中,人脸识别装置10仅仅依据2D图像上的二维特征进行人脸识别,无法识别采集的2D红外图像是否来源自活人人脸或者其他照片、视频等其他非活人人脸物体,换言之,该人脸识别装置10不具有防伪功能,可以通过盗取带有用户人脸的照片、视频等信息,对电子设备以及应用程序进行解锁,因而人脸识别装置及电子设备的安全性能受到了极大的影响。
由于活体人眼虹膜和非活体人眼(照片或视频中的人眼图像、三维模型中的人眼模型)对于红外光反射具有明显差异,因而产生的活体人眼虹膜和非活体人眼的红外图像也因此具有较大差异。基于此,本申请实施例提供一种带有防伪功能的人脸识别方案,通过获取识别目标的眼部红外图像,并对该眼部红外图像进行人脸防伪,判断其是否来自用户的活体人眼虹膜,从而判断识别目标是否为活体人脸,因此大大提高人脸识别装置及电子设备的安全性。
下面,结合图2至图9,对本申请实施例提供的人脸识别方法进行详细介绍。
图2为本申请实施例提供的一种人脸识别的方法200,包括:
S210:获取识别目标的目标图像及眼部图像;
S220:根据所述眼部图像进行基于虹膜的人脸防伪判断,以确定所述识别目标是否为活体人脸并输出活体判断结果;
S230:根据所述目标图像进行特征模板匹配,并输出匹配结果;
S240:根据所述活体判断结果和所述匹配结果输出人脸识别结果。
应理解,所述识别目标也称为第一识别目标、第二识别目标等,可以用于区分不同的目标物体,相应的,所述识别目标的目标图像及眼部图像也可以称为第一目标图像或第二目标图像,第一眼部图像或第二眼部图像等等。所述识别目标包括但不限于人脸、照片、视频、三维模型等任意物体。例如,所述识别目标可以为用户人脸、其他人的人脸、用户照片、贴有照片的曲面模型等等。
可选地,所述眼部图像可以为活体人脸的眼睛区域图像,人的眼睛结构由巩膜、虹膜、瞳孔晶状体、视网膜等部分组成。虹膜是位于黑色瞳孔和白色巩膜之间的圆环状部分,其包含有很多相互交错的斑点、细丝、冠状、条纹、隐窝等的细节特征。这些特征决定了虹膜特征的唯一性,同时也决定了身份识别的唯一性。由于其具有识别人体的独一无二的特征,也难以进行复制和伪造,因此可以用于进行人脸防伪和人脸识别。
可选地,当眼部图像中的虹膜图像可以用于区分活体人脸和非活体人脸时,所述眼部图像可以为可见光生成的彩色图像,也可以为红外光生成的红外图像或者其它图像,本申请实施例对此不做限定。
优选地,在本申请实施例中,所述眼部图像为红外图像,下文以眼部图像为红外图像为例进行详细说明。具体地,所述红外(Infrared Radiation,IR)图像为基于经过识别目标表面反射的红外光信号所形成的图像,其表现为灰度(Gray Scale)图像,通过图像像素点的灰度表现识别目标的外观形状。所述识别目标的眼部图像为包括虹膜区域的眼部红外图像,例如,基于用户人脸的活体人眼以及其中虹膜反射的反射红外光形成的红外图像,或者基于人脸照片中眼部以及其中虹膜区域反射的反射红外光形成的红外图像等等。
由于活体人眼虹膜的特殊形态、成分和结构,其反射的反射红外光与照片、模型等物体反射的反射红外光有较大的区别,因此,包括虹膜的眼部图像中可以区别不同的识别目标的虹膜信息,用于区分活体人脸以及非活体人脸,换言之,对活体人脸的包括虹膜的眼部图像与对非活体人脸的包括虹膜的眼部图像不同,并且差异较大,本申请实施例即利用该区别点,基于包括虹膜的眼部图像进行人脸防伪判别。其中,所述非活体人脸包括但不限于:用户人脸照片,用户人脸视频,放置于三维曲面上的用户人脸照片,用户人脸模型等等。
例如,如图3所示,图3中的(a)图为三维模型人脸的红外图像,其眼部的红外图像仅为人眼模型,其眼部模型的“虹膜”区域仅为模拟虹膜形态的示意图片,不包含活体人眼虹膜信息。图3中的(b)图为用户活体人脸的红外图像,由图中可以体现出真人活体的人眼虹膜的特征信息,与图3中的(a)图完全不同。
获得包括虹膜的眼部图像之后,基于该眼部图像的特征信息,进行人脸防伪判别,以确定所述识别目标的虹膜是否为活体人脸的虹膜,从而判断所述识别目标是否为活体人脸,达到人脸防伪的效果。
具体地,在人脸识别的过程中,除了判断识别目标是否为活体人脸,还需要进行特征模板匹配,结合特征模板匹配以及活体判断结果进行人脸识别。所述特征模板匹配为将目标图像与至少一个用户的特征模板进行匹配,可以判断该目标图像是否属于用户的图像。可选地,该特征模板为用户在不同角度,不同环境等不同条件下的多个人脸或局部人脸图像的特征数据。所述特征模板存储在人脸识别的装置中,特别的,可以存储在装置中的存储器中。
结合人脸防伪判断以及特征模板匹配判断,能够增强人脸识别过程的可靠性,提升安全性能。
目前,人脸防伪有不同的安全等级,如下表1所示,不同的等级代表不同的人脸防伪要求。即例如:防伪等级为等级1时,能识别出2D打印静态平面人脸。
表1
图1(a)和图1(b)中的人脸识别装置以及人脸识别方法无法判断采集的2D图像来源自照片还是真人脸,因而不具有防伪功能,无法达到表1中人脸防伪等级的等级1。但在本申请实施例中,由于可以通过包括虹膜的眼部图像得到人体虹膜的特征信息,因而可以识别出活体人脸与非活体人脸,从而可以达到人脸防伪等级5,防伪和识别的安全性能得到大幅提高。
可选地,在本申请实施例中,可以通过红外图像采集装置获取识别目标的红外图像,再从该识别目标的红外图像中获取该识别目标的眼部红外图像。
在一种可能的实施方式中,先从所述识别目标的红外图像中初步检测并剪切出大致的眼部区域,然后判断该大致的眼部区域中是否存在虹膜,获取虹膜红外图像或者包括有虹膜红外图像的眼部红外图像,具体地,获取左眼虹膜红外图像和/或右眼虹膜红外图像,或者包括左眼虹膜红外图像的左眼红外图像和/或包括右眼虹膜红外图像的右眼红外图像。
例如:根据左眼区域和右眼区域对称位于正面人脸图像上,对红外图像中对称区域的识别,检测到识别目标的大致眼部区域。或者根据人脸的“三庭五眼”几何特征,在人脸检测裁剪得到的人脸图像中截取出大致的眼部区域形成眼部红外图像。可选地,将人脸纵向三等分形成上庭,中庭和下庭,大致的眼部区域处于上庭底部的1/5以及中庭上部的3/5处。可选地,根据大致眼部区域中的灰度值变化或者其它方式检测出该大致眼部区域中是否存在虹膜。
在另一种可能的实施方式中,可以直接从识别目标的红外图像中检测并剪切出虹膜红外图像或者包括有虹膜红外图像的眼部红外图像。
例如,由于人脸的红外灰度图像中,眼部区域的灰度值与人脸其它区域相比,眼部的虹膜区域的灰度值小,而巩膜区域的灰度值大,且虹膜区域与巩膜区域之间灰度值变化梯度明显,因此,可以通过检测红外图像中灰度变化特征检测眼部区域以及其中的虹膜区域,获取眼部区域和虹膜区域在图像中的坐标,剪切得到虹膜红外图像或者包括有虹膜红外图像的眼部红外图像。
具体地,在本申请实施例中,当眼部红外图像中包括有虹膜图像时,为有效的眼部红外图像,可以直接用于活体人脸识别,或者从眼部红外图像中剪切出虹膜红外图像,用于活体人脸识别。当眼部红外图像中不包括虹膜图像时,即用户闭眼或者其它识别目标中无虹膜或虹膜图案的情况下,该眼部红外图像为无效的眼部红外图像,不能用于活体人脸识别。为方便描述,下文中将包含有虹膜图像的眼部红外图像以及虹膜红外图像均简称为眼部红外图像。具体地所述眼部红外图像包括:左眼眼部红外图像和/或右眼眼部红外图像。
应理解,在本申请实施例中,还可以采用任意其它可以识别眼部虹膜的算法或方式从识别目标的红外图像中获取眼部图像以及判断眼部图像中是否存在虹膜,本申请实施例对此不做限定。
具体地,在本申请实施例中,可以基于获取的识别目标的2D目标图像进行2D识别的特征模板匹配,并基于2D识别的特征模板匹配结果以及人脸防伪判断的结果进行人脸识别并输出人脸识别结果。
在本申请实施例中,当特征模板为2D图像时,特征模板匹配为2D识别中的一个主要步骤和实施方式,下文中,2D识别也可以理解为2D识别中的特征模板匹配。
可选地,可以先进行2D识别,在2D识别的基础上,根据2D识别的结果基于所述眼部红外图像再次进行基于虹膜的人脸防伪,使识别过程更加安全有效。例如,如图4所示,本申请实施例提供的另一种人脸识别的方法300,包括:
S310:获取所述识别目标的目标图像;
S340:基于所述目标图像进行2D识别;
当目标图像与多个特征模板中的任意一个特征模板匹配成功时,则2D识别成功,表示该目标图像包括用户人脸图像。当目标图像与多个特征模板均匹配失败时,则2D识别失败,表示该目标图像不包括用户人脸图像。
可选地,在本申请实施例中,所述2D识别可以与图1(b)中的2D识别过程相同或近似。
S351:在2D识别成功时,基于所述目标图像获取所述识别目标的眼部图像;
S352:在2D识别失败时,确定人脸识别失败,输出第一人脸识别结果;
可选地,所述第一人脸识别结果可以包括但不限于失败、非认证用户等具体信息。
S360:根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸;
S371:在所述识别目标为活体人脸时,确定人脸识别成功,输出第二人脸识别结果;
可选地,所述第二人脸识别结果可以包括但不限于成功、活体认证用户等具体信息。
S372:在所述识别目标为非活体人脸时,确定人脸识别失败,输出第三人脸识别结果。
可选地,所述第三人脸识别结果可以包括但不限于失败、非活体认证用户等具体信息。
可选地,在本申请实施例中,所述目标图像可以为红外图像、可见光图像或者其他图像。当所述目标图像为红外图像时,基于所述红外图像获取所述识别目标的眼部红外图像,根据该眼部红外图像进行基于虹膜人脸防伪判别。
可选地,还可以先进行人脸防伪,在人脸防伪的基础上,根据人脸防伪的结果再进行2D识别,可以提前排除非活体人脸的情况,提高识别的效率。例如,如图5所示,本申请实施例提供的另一种人脸识别的方法400,包括:
S410:获取识别目标的目标图像;
S440:基于所述目标图像获取所述识别目标的眼部图像;
S450:根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸;
S461:在所述识别目标为活体人脸时,基于所述目标图像进行2D识别;
可选地,该步骤中的2D识别可以与图4中步骤S340相同,具体实施方式可以参考前述方案,此处不再赘述。
S462:在所述识别目标为非活体人脸时,确定人脸识别失败,输出第四人脸识别结果;
可选地,所述第四人脸识别结果可以包括但不限于失败、非活体等具体信息。
S471:在2D识别成功时,确定人脸识别成功,输出第五人脸识别结果。
可选地,所述第五人脸识别结果可以包括但不限于成功、活体认证用户等具体信息。
S472:在2D识别失败时,确定人脸识别失败,输出第六人脸识别结果。
可选地,所述第六人脸识别结果可以包括但不限于失败、活体非认证用户等具体信息。
可选地,在步骤S310以及步骤S410中,可以通过图像采集模组获取识别目标的目标图像。该图像采集模组可以为图1(a)中的红外图像采集模组120。
可选地,所述红外图像采集模组中可以包括红外光电传感器,其中,红外光电传感器中包括多个像素单元,每个像素单元用于采集红外光经过识别目标表面反射后的反射红外光信号,并将该反射红外光信号转换为对应其光强的像素电信号。每一个像素电信号的值对应于红外图像的一个像素点,其大小表现为红外图像的灰度值。因此,多个像素单元组成的像素矩阵形成的红外图像也可以表示为多个像素点的灰度值组成的数值矩阵。可选地,每一个像素点的灰度值范围为0~255之间,灰度值0表现为黑色,灰度值255表现为白色。
可选地,在步骤S351具体还可以包括:3D人脸重建。即当2D识别成功,获取识别目标的三维数据,根据所述三维数据进行3D人脸重建,若3D人脸重建成功,则基于所述目标图像获取所述识别目标的眼部图像,并根据所述眼部图像进行基于虹膜的人脸防伪判别,若3D人脸重建失败,则不进行人脸防伪判别。具体地,重建后的人脸图形从三维空间上反映人脸的特征信息,在3D人脸成功的基础上,进行人脸防伪判别。
可选地,如图6所示,所述人脸识别方法300还包括:
S320:人脸检测,具体地,基于所述目标图像进行人脸检测;
S331:存在人脸,即人脸检测成功时,对目标图像进行人脸剪切得到人脸图像;
S332:不存在人脸,即人脸检测失败时,重启参数加1;
S340具体包括S341:基于所述人脸图像进行2D人脸识别。
S351具体包括S353:在2D识别成功时,对所述人脸图像进行剪切得到所述识别目标的眼部图像;
S352:2D识别失败,确定人脸识别失败,重启参数加1;
S373:在所述识别目标不为活体人脸时,重启参数加1;
可选地,如图7所示,所述人脸识别方法400还包括:
S420:人脸检测,具体地,基于所述目标图像进行人脸检测;
S431:存在人脸,即人脸检测成功时,对目标图像进行人脸剪切得到人脸图像;
S432:不存在人脸,即人脸检测失败时,重启参数加1;
S464:在所述识别目标为非活体人脸时,重启参数加1;
S463:当所述识别目标为活体人脸时,进行步骤S465:基于所述人脸图像进行2D人脸识别。
可选地,所述步骤S320~S332和步骤S420~S432可以与图1(b)中步骤S120~步骤S122相同,具体的实施方式可以参照图1(b)中的相关描述,此处不再赘述。
可选地,在图6和图7的实施例中,方法还包括:对所述重启参数的大小进行判断,当重启参数小于第二阈值时,则进入S310或者进入S410;当重启参数大于等于第二阈值时,则确定识别失败。
下面结合图8至图14详细介绍S360以及S450中根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸的过程,即人脸防伪的详细过程。
可选地,如图8所示,具体采用人脸防伪判别方法500进行步骤S220中的基于所述眼部红外图像进行人脸防伪判别,以确定所述识别目标是否为活体人脸。具体地,对所述眼部红外图像进行预处理后,输入神经网络进行分类,从而得到人脸防伪判别结果。
可选地,如图8所示,所述人脸防伪判别方法500包括:
S510:对所述眼部图像预处理得到优化眼部图像;所述眼部图像进行预处理后,增大眼部图像的对比度,提高眼部图像的图像质量,更有利于神经网络的处理及分类。
具体地,所述眼部图像包括左眼眼部图像和右眼眼部图像。可选地,对所述左眼眼部图像和/或所述右眼眼部图像进行预处理得到左眼优化眼部图像和/或右眼优化眼部图像。
可选地,所述预处理过程包括S511:眼部图像均衡。具体地,对左眼优化眼部图像和/或右眼优化眼部图像进行图像均衡。
可选地,当所述眼部图像为红外灰度图像时,采用直方图(histogramequalization)均衡化方法进行图像均衡处理,既可以提高眼部红外图像的对比度,也可以把眼部红外图像变换成灰度值是几乎均匀分布的图像。
具体地,直方图均衡化步骤包括:
1)按照如下公式计算眼部红外图像的各灰度值中像素出现的概率p(i):
其中n为总的像素个数,ni为灰度值为i的像素个数,L为总的灰度值个数。
2)按照如下公式计算p的累计概率函数c(i):
计算得到的c即为图像的累计归一化直方图。
3)按照如下公式将c(i)缩放至0~255范围内的y(i):
y(i)=255*c(i)
具体地,原始眼部红外图像中灰度值为i的像素灰度值变为y(i),从而实现眼部红外图像均衡,得到优化眼部红外图像。
应理解,所述预处理过程还可以包括但不限于局部二值模式(Local BinaryPattern,LBP)特征处理、归一化、校正、图像增强等处理过程,本申请实施例对此不做限定。
可选地,在一种可能的实施方式中,对所述眼部图像进行预处理后,采用深度学习网络对预处理后的优化眼部图像进行分类处理,以确定所述识别目标是否为活体人脸。在本申请实施例中,深度学习网络包括但不限于神经网络,还可以为其它深度学习网络,本申请实施例对此不做限定,以下以神经网络为例,说明本申请实施例中的分类处理方法。
可选地,如图8所示,所述人脸防伪判别方法500还包括:
S520:通过神经网络对所述优化眼部图像进行分类处理,以确定所述识别目标是否为活体人脸。
首先,构建神经网络结构,例如可以采用二层神经网络或更多层网络结构,每层网络结构的构成也可以根据待提取的人脸信息进行调整,本申请实施例对此不作限定。
其次,设置该神经网络的初始训练参数和收敛条件。
可选地,在本申请实施例中,该初始训练参数可以是随机生成的,或根据经验值获取的,或者也可以是根据大量的真假人脸数据预训练好的神经网络模型的参数,本申请实施例对此不作限定。
然后,向该神经网络输入大量的用户活体人脸和非活体人脸的优化眼部图像,该神经网络可以基于初始训练参数对上述优化眼部图像进行处理,确定对每个优化眼部图像的判定结果,进一步地,根据该判定结果,调整神经网络的结构和/或各层的训练参数,直至判定结果满足收敛条件。
可选地,在本申请实施例中,该收敛条件可以包括以下中的至少一项:
1、将活体人脸的优化眼部图像判定为活体人脸的优化眼部图像的概率大于第一概率,例如,98%;
2、将非活体人脸的优化眼部图像判定为非活体人脸的优化眼部图像的概率大于第二概率,例如95%;
3、将活体人脸的优化眼部图像判定为非活体人脸的优化眼部图像的概率小于第三概率,例如,2%;
4、将非活体人脸的优化眼部图像判定为活体人脸的优化眼部图像的概率小于第四概率,例如3%。
完成判断是否为活体人脸的神经网络的训练之后,在人脸识别的过程中,将处理得到的当前识别目标的优化眼部图像输入到该神经网络中,从而该神经网络可以使用训练好的参数对识别目标的优化眼部图像进行处理,确定该识别目标是否为活体人脸。
可选地,在一种可能的实施方式中,通过神经网络50对所述优化眼部图像中的左眼优化眼部图像或右眼优化眼部图像进行分类处理,以确定所述识别目标是否为活体人脸。
可选地,当所述优化眼部图像为左眼优化眼部图像或右眼优化眼部图像时,如图9所示,所述人脸防伪判别方法501包括:
S511:采用直方图均衡化方法对左眼眼部图像或右眼眼部图像进行图像均衡处理得到优化左眼眼部图像或优化右眼眼部图像;
S521:通过神经网络对优化左眼眼部图像或优化右眼眼部图像进行分类处理,以确定所述识别目标是否为活体人脸。
如图10所示,所述神经网络50包括扁平化层510,全连接层520,以及激励层530。
其中,所述扁平化(flatten)层510用于将输入至神经网络的左眼优化眼部图像的二维数据一维化,即形成一个一维的数组。例如,所述左眼优化眼部图像表示为20*20像素的二维矩阵,其中的每一个像素值表示一个灰度值,经过扁平化处理后,形成一个400*1的一维矩阵,也即输出了400个像素值。即在本申请实施例中,经过扁平化层510将二维图像数据扁平化处理为一维数据,然后将该一维数据输入至全连接层进行全连接。
具体地,所述全连接层520中每个结点均与上层每个结点相连,用于将之前神经网络中提取出来的特征进行综合,在整个神经网络中起到“分类器”的作用。例如,如图11所示,x1至xn为上一层输出的结点,全连接层520共包括m个全连接结点c1至cn,输出m个特征常数,便于对m个特征常数分类进行判断分类。具体地,m个全连接结点中的每一个结点均包括上述训练收敛得到的多个参数,用于将x1至xn进行加权连接,最终得到一个特征常数结果。
下面,以本申请实施例中,x1至xn为扁平化层510输出的一维数据为例,对全连接层进行说明。
一维数据为x1至xn,一维数据经过m个全连接层结点输出m个常数a1至am的全连接数据,其中a1至am的计算公式如下所示:
a1=W11*x1+W12*x2+W13*x3+…+W1n*xn+b1;
a2=W21*x1+W22*x2+W23*x3+…+W2n*xn+b2;
……
am=Wm1*x1+Wm2*x2+Wm3*x3+…+Wmn*xn+bm;
其中,W和b为全连接层520结点中的加权参数和偏置参数,均可以由上述训练收敛神经网络的过程得到。
可选地,所述全连接层520包括至少一层全连接层。例如,在本申请实施例中,如图12所示,所述全连接层520包括第一全连接层521和第二全连接层522。具体地,两层全连接层的计算原理相同,均是对输入的一维数组进行加权全连接。
可选地,如图12所示,所述激励层530包括第一激励层531和第二激励层532,所述第一激励层531中包括激励函数,用于对一维数组进行非线性化处理。可选地,激励函数包括但不限于修正线性单元(Rectified Linear Unit,ReLU)函数、指数线性单元(exponential linear unit,ELU)函数,以及ReLU函数的几种变体形式,例如:带泄露修正线性单元(Leaky ReLU,LReLU),参数化修正线性单元(Parametric ReLU,PReLU),随机纠正线性单元(Randomized ReLU,RReLU)等。
优选地,在本申请实施例中,采用的激励函数为修正线性单元ReLU函数,具体地,ReLU函数的公式如下所示:
经过ReLU处理后,小于等于0的数值变为0,大于0的数值保持不变,使得输出的一维数组具有稀疏性,ReLU实现稀疏后的神经网络结构能够更好地挖掘相关特征,拟合训练数据。
可选地,第二激励层532中包括分类函数Sigmoid,对全连接层输出的常数进行分类判别。
其中,Sigmoid函数的公式如下所示:
在Sigmoid函数中,在输入趋于正无穷或负无穷时,函数趋近平滑状态,Sigmoid函数因为输出范围为0至1,所以二分类的概率常常用这个函数。对Sigmoid函数处理得到的多个概率值进行判断,从而得到最终人脸防伪判别的结果,以确定所述识别目标是否为活体人脸。
应理解,在本申请实施例中,神经网络50还可以包括:一个或多个全连接层520和/或一个或多个激励层530。例如:扁平化层-全连接层-激励层的结构,或者扁平化层-全连接层-激励层-全连接层-激励层-全连接层-激励层的结构,本申请实施例对此不做限定。
还应理解,多个激励层530采用的激励函数可以不同,和/或多个全连接层520中全连接参数也可以不同。本申请实施例对此也不做限定。
优选地,在另一种可能的实施方式中,采用深度学习算法,对所述识别目标的所述左眼优化眼部图像和所述右眼优化眼部图像综合计算,一起进行分类处理,以确定所述识别目标是否为活体人脸。采用该方法可以综合左眼优化眼部图像和右眼优化眼部图像的虹膜特征,能够提高防伪判断的准确性。
具体地,如图13所示,一种人脸防伪判别方法600包括:
S611:采用直方图均衡化方法对左眼眼部图像进行图像均衡处理得到优化左眼眼部图像;
S612:采用直方图均衡化方法对右眼眼部图像进行图像均衡处理得到优化右眼眼部图像;
S620:通过神经网络对优化左眼眼部图像和优化右眼眼部图像进行分类处理,以确定所述识别目标是否为活体人脸。
可选地,其中,优化左眼眼部图像和优化右眼眼部图像的大小相同。
可选地,在本申请实施例中,通过神经网络60对优化左眼眼部图像和优化右眼眼部图像进行分类处理,以确定所述识别目标是否为活体人脸。
具体地,如图14所示,采用神经网络60对所述识别目标的左眼优化眼部图像和右眼优化眼部图像综合分类处理,具体地,所述神经网络60包括第一网络610、第二网络620以及第三网络630。所述第一网络610包括:第二扁平化层,至少一个第二全连接层以及至少一个第二激励层;所述第二网络620包括:第三扁平化层,至少一个第三全连接层以及至少一个第三激励层;所述第三网络630包括:至少一个第四全连接层以及至少一个第四激励层。
优选地,在本申请实施例中,所述第一网络610包括:第二扁平化层611、第二上全连接层612,第二上激励层613,第二下全连接层614以及第二下激励层615,用于对输入的左眼优化眼部图像进行扁平化以及全连接,输出得到左眼一维特征数组,也称为左眼分类特征值。第二网络620包括:第三扁平化层621、第三上全连接层622,第三上激励层623,第三下全连接层624以及第三下激励层625,用于对输入的右眼优化眼部图像进行扁平化以及全连接,输出得到右眼一维特征数组,也称为右眼分类特征值。
第三网络630包括:第四全连接层631以及第四激励层632,用于对左眼一维特征数组和右眼一维特征数组进行全连接并分类处理。例如,第一网络610输出左眼一维特征数组包括10个特征常数,第二网络620输出右眼一维特征数组也包括10个特征常数,则将左眼一维特征数组和右眼一维特征数组共20个特征常数一起输入第三网络630,进行全连接并分类处理。
应理解,所述第一网络、第二网络以及第三网络中的全连接层激励函数或者分类函数可以相同或者不同,本申请实施例对此不做限定。
优选地,所述第二上全连接层612和第三上全连接层622中均采用ReLU激励函数,所述第二下全连接层613和第三下全连接层623中均采用Sigmoid分类函数。
可选地,所述第三网络630可以采用ReLU激励函数对输出的特征常数再次进行非线性化处理,修正分类结果,提高识别判断的准确性。
在本申请实施例中,神经网络30和神经网络40的网络结构简单,运行速度快,可以运行在高级精简指令集机器(Advanced RISC Machine,ARM)上。
在上述申请实施例中,根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸,其中,人脸防伪判别的结果用于人脸识别。
可选地,所述人脸防伪判别的结果还可以用于人脸注册,即生成2D人脸识别过程中人脸特征模板。具体地,在人脸注册的过程中加入人脸防伪,防止将根据人脸照片或者其它非活体人脸的模型采集到的照片作为模板进行人脸识别匹配,可以提高2D识别的准确性。
具体地,如图15所示,所述人脸注册方法700包括:
S710:获取识别目标的眼部图像。
S720:根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸,其中,人脸防伪判别的结果用于建立人脸特征模板。
应理解,本申请实施例中人脸注册方法过程和上述人脸识别方法过程为两个独立的阶段,仅是注册方法过程中建立的人脸特征模板用于人脸识别过程中2D识别的判断。在通过人脸注册方法建立人脸特征模板之后,通过上述人脸识别方法以及人脸防伪判别方法进行人脸识别。
还应理解,本申请实施例中的识别目标可以与上述人脸识别过程中的识别目标相同或者不同,例如,可以均为用户活体人脸,对用户活体人脸进行注册和识别;也可以为注册过程中的识别目标为用户活体人脸,但识别过程中的识别目标为其它非活体人脸。本申请实施例对此不做限定。
可选地,所述步骤S710可以与上述步骤S210相同,通过图像采集装置获取识别目标的眼部图像。可选地,所述眼部图像为红外图像或者可见光彩色图像。
可选地,所述步骤S720中根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸,可以采用上述人脸识别防伪判别方法500、人脸识别防伪判别方法501、人脸识别防伪判别方法600中的任意一种进行判别,具体描述可以参照上述申请实施例,此处不再赘述。
可选地,在本申请实施例中,人脸注册方法还包括:获取所述识别目标的目标图像,基于所述目标图像获取所述眼部图像,并根据所述目标图像建立人脸特征模板。
在一种可能的实施方式中,当目标图像为红外图像时,先获取识别目标的红外图像,基于所述红外图像进行模板匹配,在匹配成功的基础上进行防伪。
例如,图16示出了一种人脸注册方法800,包括:
S810:获取识别目标的红外图像;
S850:基于所述红外图像进行模板匹配;
S851:在模板匹配成功时,基于所述红外图像获取所述眼部图像;
S852:当模板匹配失败时,不建立人脸特征模板;
S860:根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸;
S871:在所述识别目标为活体人脸时,存储红外图像为人脸特征模板;
S872:在所述识别目标不为活体人脸时,不存储红外图像为人脸特征模板。
其中,可选地,步骤S810可以与步骤S310相同。步骤S851可以与步骤S351相同。步骤S860可以与步骤S360相同。
可选地,步骤S850可以与步骤S340基于目标图像进行2D识别类似,将该红外图像与人脸特征模板库中的多个人脸特征模板进行匹配,若匹配成功,则该人脸目标图像为用户的人脸图像,若匹配失败,则该人脸目标图像不为用户的人脸图像。
可选地,步骤S871中,当识别目标为活体人脸时,将红外图像的数据存储于存储单元中,作为人脸特征模板库中一个新的人脸特征模板,该存储单元可以为执行人脸注册方法的处理器中的存储单元,也可以为执行人脸注册方法的电子设备中的存储器。
可选地,如图17所示,人脸注册方法800还可以包括:
S820:人脸检测;
S821:当人脸检测到所述红外图像上存在人脸时,对红外图像进行人脸剪切得到人脸图像;
S822:当人脸检测到所述红外图像上不存在人脸时,重启参数加1;
可选地,步骤S820至步骤S822可以与步骤S320至步骤S332相同。
S830:3D人脸重建;
具体地,可以通过发射结构光或者光脉冲,经过识别目标表面反射后,接收到携带识别目标表面信息的反射结构光或者反射光脉冲,从而获取识别目标的3D数据,该3D数据包含了识别目标的深度信息,能够表示识别目标的表面形状。所述3D数据可以表示为深度图(Depth Image)、3D点云(Point Cloud)、几何模型等多种不同形式。在本申请实施例中,可以根据该3D数据进行3D人脸重建,即得到表示识别目标的3D形态图像。
S831:当3D人脸重建成功时,即根据3D数据获取到识别目标的3D形态图像时,进入S840。
可选地,当3D人脸重建成功时,将该3D数据存储至存储单元中,例如,将3D点云数据作为一个3D点云数据模板存储至存储单元中,形成3D点云数据模板库。
S832:当3D人脸重建失败时,即根据该3D数据不能获取到识别目标的3D形态图像时,重启参数加1。
S840:判断S821步骤中剪切得到的人脸图像是否属于人脸特征模板库。可选地,通过获取目标图像的用户身份(Identification,ID)信息,判断是否存在该用户ID的人脸特征模板库,当存在该用户ID的人脸特征模板库时,进入S842:所述人脸图像属于人脸特征模板库。当不存在该用户ID的人脸特征模板库时,进入S841:所述人脸图像不属于人脸特征模板库。
S8411:当所述人脸图像不属于人脸特征模板库时,基于红外图像获取眼部图像,进入步骤S860。
可选地,还可以根据获取的目标图像的用户ID信息,建立新的用户人脸特征模板库。
S8501:当所述人脸图像属于人脸特征模板库时,基于S821步骤中剪切得到的人脸图像进行模板匹配。具体的匹配方法可以与步骤S850相同。
S851:当模板匹配成功时,基于红外图像获取眼部图像,进入步骤S860。
S852:当模板匹配失败时,不建立人脸特征模板,重启参数加1。
S860:根据所述眼部图像进行基于虹膜的人脸防伪判别,以确定所述识别目标是否为活体人脸。
S8711:当所述识别目标为活体人脸时,进入S8712:判断是否为有效点云。
可选地,将S830中人脸重建采集到的3D点云数据与3D点云数据模板库中多个3D点云数据模板进行匹配,判断是否为有效点云。当匹配成功时,则为无效点云,当匹配失败时,则为有效点云。具体地,点云匹配用于判断采集的3D点云数据中识别目标的人脸角度是否与3D点云数据模板中的人脸角度相同,当角度相同时,匹配成功,则说明模板库中存在相同人脸角度的3D点云数据,则为无效点云;当角度不同时,匹配失败,则说明模板库中不存在相同人脸角度的3D点云数据,则为有效点云。
可选地,还可以在此过程中,采集多张识别目标的3D点云数据,进行点云拼接和点云融合,以形成人脸全方位全角度的3D数据和3D图像,根据该3D图像可以进行3D人脸识别。
S8713:当判断3D点云数据为有效点云时,存储人脸图像为人脸特征模板。具体地,将人脸图像的数据存储于存储单元中,作为人脸特征模板库中一个新的人脸特征模板。
S8714:当判断3D点云数据为无效点云时,重启参数加1。
可选地,在判断所述3D点云数据为有效点云后,还可以判断人脸特征模板库中的人脸特征模板是否已满。
具体地,判断所述人脸特征模板库中的人脸特征模板数量是否等于预设值,若等于预设值,则人脸特征模板已满,则不再新增存储人脸特征模板。
例如,所述预设值为8,则当人脸特征模板库中的人脸特征模板数量为8时,则不再新增人脸特征模板。
当人脸特征模板未满时,存储人脸图像为人脸特征模板。具体地,将人脸图像的数据存储于存储单元中,作为人脸特征模板库中一个新的人脸特征模板。
可选地,所述人脸注册方法800还包括:
判断重启参数是否小于第二阈值。若重启参数小于第二阈值,则进入S810;若重启参数大于等于第二阈值,则识别失败。
上文结合图2至图17,详细描述了本申请的人脸识别方法实施例,下文结合图18,详细描述本申请的人脸识别装置实施例,应理解,装置实施例与方法实施例相互对应,类似的描述可以参照方法实施例。
图18是根据本申请实施例的人脸识别装置20的示意性框图,包括:处理器210;
所述处理器210用于:获取第一识别目标的第一眼部图像;
根据所述第一眼部图像进行基于虹膜的人脸防伪判别,以确定所述第一识别目标是否为活体人脸,其中,人脸防伪判别的结果用于人脸识别。
可选地,所述处理器220可以为所述人脸识别装置20的处理器,也可以为包括人脸识别装置20的电子设备的处理器,本申请实施例不做限定。
可选地,所述第一眼部图像为第一眼部红外图像。
可选地,所述人脸识别装置20还包括:图像采集装置220,用于:获取所述第一识别目标的第一目标图像;
所述处理器210还用于:基于所述第一目标图像进行二维识别;在二维识别成功时,基于所述第一目标图像获取所述第一眼部图像;
所述处理器210还用于:在所述第一识别目标为活体人脸时,确定人脸识别成功;或者,在所述第一识别目标为非活体人脸时,确定人脸识别失败。
可选地,所述处理器210具体用于:获取所述第一识别目标的第一目标图像,基于所述第一目标图像获取所述第一眼部图像;
所述处理器210还用于:在所述第一识别目标为活体人脸时,基于所述第一目标图像进行二维识别;
在二维识别成功时,确定人脸识别成功,或者,在二维识别失败时,确定人脸识别失败;
或者,在所述第一识别目标为非活体人脸时,确定人脸识别失败。
可选地,所述处理器210具体用于:基于所述第一目标图像获取第一人脸图像;
将所述第一人脸图像与多个特征模板进行匹配,当匹配成功时,二维识别成功,或者,当匹配失败时,二维识别失败。
可选地,所述处理器210具体用于:基于所述第一目标图像获取人脸区域图像;基于所述人脸区域图像获取所述第一眼部图像。
可选地,所述第一眼部图像为包括虹膜的人眼区域图像或虹膜区域图像。
可选地,所述处理器210具体用于:采用直方图均衡化方法对所述第一眼部图像进行处理得到第一优化眼部图像;
根据所述第一优化眼部图像进行基于虹膜的人脸防伪判别。
可选地,所述处理器210具体用于:通过神经网络对所述第一优化眼部图像进行分类处理,以确定所述第一识别目标是否为活体人脸。
可选地,所述第一眼部图像包括第一左眼眼部图像和/或第一右眼眼部图像,所述处理器210具体用于:
采用所述直方图均衡化方法对所述第一左眼眼部图像进行处理得到第一优化左眼眼部图像;和/或
采用所述直方图均衡化方法对所述第一右眼眼部图像进行处理得到第一优化右眼眼部图像。
可选地,所述第一眼部图像包括:所述第一左眼眼部图像或所述第一右眼眼部图像;
所述神经网络包括:第一扁平化层,至少一个第一全连接层以及至少一个第一激励层。
所述处理器210具体用于:通过所述第一扁平化层,对所述第一优化左眼眼部图像或所述第一优化右眼眼部图像进行处理得到多个眼部像素值;
通过所述至少一个第一全连接层,对所述多个眼部像素值进行全连接得到多个特征常数;
通过所述至少一个第一激励层,对所述多个特征常数进行非线性化处理或者分类处理。
可选地,所述神经网络包括:所述第一扁平化层,两个所述第一全连接层以及两个所述第一激励层。
可选地,两个所述第一激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数。
可选地,所述第一眼部图像包括:所述第一左眼眼部图像和所述第一右眼眼部图像;
所述神经网络包括第一网络、第二网络和第三网络;
所述第一网络包括:第二扁平化层,至少一个第二全连接层以及至少一个第二激励层;
所述第二网络包括:第三扁平化层,至少一个第三全连接层以及至少一个第三激励层;
所述第三网络包括:至少一个第四全连接层以及至少一个第四激励层。
所述处理器210具体用于:通过所述第一网络对所述第一优化左眼眼部图像进行处理得到左眼分类特征值;
通过所述第二网络对所述第一优化右眼眼部图像进行处理得到右眼分类特征值;
通过所述第三网络对所述左眼分类特征值和所述右眼分类特征值进行全连接。
可选地,所述第一网络包括:所述第二扁平化层,两个所述第二全连接层和两个所述第二激励层;
所述第二网络包括:所述第三扁平化层,两个所述第三全连接层和两个所述第三激励层;
所述第三网络包括:一个所述第四全连接层和一个所述第四激励层。
可选地,两个所述第二激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数;和/或,
两个所述第三激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数;和/或,
一个所述第四激励层中的激励函数为修正线性单元ReLU函数。
可选地,所述处理器210还用于:获取第二识别目标的第二眼部图像;
根据所述第二眼部图像进行基于虹膜的人脸防伪判别,以确定所述第二识别目标是否为活体人脸,其中,人脸防伪判别的结果用于建立人脸特征模板。
可选地,所述第二眼部图像为第二眼部红外图像。
可选地,所述处理器210还用于:获取所述第二识别目标的第二目标图像,基于所述第二目标图像获取所述第二眼部图像,并基于所述第二目标图像建立所述人脸特征模板。
可选地,所述处理器210还用于:基于所述第二目标图像进行人脸检测;
其中,所述基于所述第二目标图像建立人脸特征模板包括:
在人脸检测成功时,基于所述第二目标图像获取第二人脸图像,并根据所述第二人脸图像建立所述人脸特征模板。
可选地,所述处理器210具体用于:判断所述第二人脸图像是否属于人脸特征模板库;
当所述第二人脸图像属于所述人脸特征模板库时,将所述第二人脸图像与所述人脸特征模板库中的多个人脸特征模板进行匹配。
当所述第二人脸图像不属于所述人脸特征模板库时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别,当确定所述第二识别目标为活体人脸时,将所述第二人脸图像建立为人脸特征模板。
可选地,所述处理器210具体用于:当匹配成功时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别;
当确定所述第二识别目标为活体人脸时,将所述第二人脸图像建立为人脸特征模板。
可选地,所述处理器210具体用于:当匹配成功时,获取所述第二识别目标的3D点云数据;
当所述3D点云数据为有效点云时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别。
可选地,所述处理器210具体用于:基于所述第二目标图像获取人脸区域图像;
基于所述人脸区域图像获取所述第二眼部图像。
可选地,所述第二眼部图像为包括虹膜的人眼区域图像或虹膜区域图像。
可选地,所述处理器210具体用于:采用直方图均衡化方法对所述第二眼部图像进行处理得到第二优化眼部图像;
根据所述第二优化眼部图像进行基于虹膜的人脸防伪判别。
可选地,所述处理器210具体用于:通过神经网络对所述第二优化眼部图像进行分类处理,以确定所述第二识别目标是否为活体人脸。
可选地,所述第二眼部图像包括第二左眼眼部图像和/或第二右眼眼部图像,所述处理器210具体用于:通过神经网络对所述第二左眼眼部图像和/或所述第二右眼眼部图像进行分类处理。
可选地,所述神经网络包括:至少一个扁平化层,至少一个全连接层和至少一个激励层。
如图19所示,本申请实施例还提供了一种电子设备2,该电子设备2可以包括上述申请实施例的人脸识别装置20。
例如,电子设备2为智能门锁、手机、电脑、门禁系统等等需要应用人脸识别的设备。所述人脸识别装置20包括电子设备2中用于人脸识别的软件以及硬件装置。
应理解,本申请实施例的处理器可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本申请实施例的人脸识别还可以包括存储器,存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(RandomAccess Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(DynamicRAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本申请实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图1-17所示实施例的方法。
本申请实施例还提出了一种计算机程序,该计算机程序包括指令,当该计算机程序被计算机执行时,使得计算机可以执行图1-17所示实施例的方法。
本申请实施例还提供了一种芯片,该芯片包括输入输出接口、至少一个处理器、至少一个存储器和总线,该至少一个存储器用于存储指令,该至少一个处理器用于调用该至少一个存储器中的指令,以执行图1-17所示实施例的方法。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应所述理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (31)
1.一种人脸识别的方法,其特征在于,包括:
获取第一识别目标的第一目标图像及第一眼部图像;
根据所述第一眼部图像进行基于虹膜的人脸防伪判断,以确定所述第一识别目标是否为活体人脸并输出活体判断结果;
根据所述第一目标图像进行特征模板匹配,并输出匹配结果;
根据所述活体判断结果和所述匹配结果输出人脸识别结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述活体判断结果和所述匹配结果输出人脸识别结果,包括:
在所述匹配结果为成功时,根据所述活体判断结果输出人脸识别结果;或者,在所述活体判断结果为活体时,根据所述匹配结果输出人脸识别结果;或者,在所述匹配结果为失败或所述活体判断结果为非活体时,输出人脸识别结果。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述第一目标图像进行特征模板匹配,并输出匹配结果,包括:
基于所述第一目标图像进行人脸检测;
当人脸检测成功时,基于所述第一目标图像获取第一人脸图像;
将所述第一人脸图像与预存的多个第一特征模板进行匹配;
当所述第一人脸图像与所述多个第一特征模板中任意一个第一特征模板匹配成功时,输出匹配结果为成功;或者,
当所述第一人脸图像与所述多个第一特征模板匹配失败时,输出匹配结果为失败;
或者,当人脸检测失败时,输出匹配结果为失败。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述获取第一识别目标的第一目标图像及第一眼部图像,包括:
获取所述第一识别目标的第一目标图像,基于所述第一目标图像获取所述第一眼部图像。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述第一眼部图像为二维红外图像。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述第一眼部图像为包括虹膜的人眼区域图像或虹膜区域图像。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第一眼部图像进行基于虹膜的人脸防伪判断,包括:
采用直方图均衡化方法对所述第一眼部图像进行处理得到第一优化眼部图像;
根据所述第一优化眼部图像进行基于虹膜的人脸防伪判断。
8.根据权利要求7所述的方法,其特征在于,所述根据所述第一优化眼部图像进行基于虹膜的人脸防伪判断,包括:
通过神经网络对所述第一优化眼部图像进行分类处理,以确定所述第一识别目标是否为活体人脸。
9.根据权利要求7或8所述的方法,其特征在于,所述第一眼部图像包括第一左眼眼部图像和/或第一右眼眼部图像,所述采用直方图均衡化方法对所述第一眼部图像进行处理得到第一优化眼部图像包括:
采用所述直方图均衡化方法对所述第一左眼眼部图像进行处理得到第一优化左眼眼部图像;和/或
采用所述直方图均衡化方法对所述第一右眼眼部图像进行处理得到第一优化右眼眼部图像。
10.根据权利要求9所述的方法,其特征在于,所述第一眼部图像包括:所述第一左眼眼部图像或所述第一右眼眼部图像;
所述神经网络包括:第一扁平化层,至少一个第一全连接层以及至少一个第一激励层。
11.根据权利要求10所述的方法,其特征在于,所述通过神经网络对所述第一优化眼部图像进行分类处理,包括:
通过所述第一扁平化层,对所述第一优化左眼眼部图像或所述第一优化右眼眼部图像进行处理得到多个眼部像素值;
通过所述至少一个第一全连接层,对所述多个眼部像素值进行全连接得到多个特征常数;
通过所述至少一个第一激励层,对所述多个特征常数进行非线性化处理或者分类处理。
12.根据权利要求10或11所述的方法,其特征在于,所述神经网络包括:所述第一扁平化层,两个所述第一全连接层以及两个所述第一激励层。
13.根据权利要求12所述的方法,其特征在于,两个所述第一激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数。
14.根据权利要求9所述的方法,其特征在于,所述第一眼部图像包括:所述第一左眼眼部图像和所述第一右眼眼部图像;
所述神经网络包括第一网络、第二网络和第三网络;
所述第一网络包括:第二扁平化层,至少一个第二全连接层以及至少一个第二激励层;
所述第二网络包括:第三扁平化层,至少一个第三全连接层以及至少一个第三激励层;
所述第三网络包括:至少一个第四全连接层以及至少一个第四激励层。
15.根据权利要求14所述的方法,其特征在于,所述通过神经网络对所述第一优化眼部图像进行分类处理,包括:
通过所述第一网络对所述第一优化左眼眼部图像进行处理得到左眼分类特征值;
通过所述第二网络对所述第一优化右眼眼部图像进行处理得到右眼分类特征值;
通过所述第三网络对所述左眼分类特征值和所述右眼分类特征值进行全连接。
16.根据权利要求14或15所述的方法,其特征在于,所述第一网络包括:所述第二扁平化层,两个所述第二全连接层和两个所述第二激励层;
所述第二网络包括:所述第三扁平化层,两个所述第三全连接层和两个所述第三激励层;
所述第三网络包括:一个所述第四全连接层和一个所述第四激励层。
17.根据权利要求16所述的方法,其特征在于,两个所述第二激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数;和/或,
两个所述第三激励层中的激励函数分别为修正线性单元ReLU函数和Sigmoid函数;和/或,
一个所述第四激励层中的激励函数为修正线性单元ReLU函数。
18.根据权利要求1-17中任一项所述的方法,其特征在于,所述方法还包括:
获取第二识别目标的第二眼部图像;
根据所述第二眼部图像进行基于虹膜的人脸防伪判断,以确定所述第二识别目标是否为活体人脸,其中,人脸防伪判别的结果用于建立人脸特征模板。
19.根据权利要求18所述的方法,其特征在于,所述第二眼部图像为二维红外图像。
20.根据权利要求18或19所述的方法,其特征在于,所述方法还包括:
获取所述第二识别目标的第二目标图像,基于所述第二目标图像获取所述第二眼部图像,并基于所述第二目标图像建立所述人脸特征模板。
21.根据权利要求20所述的方法,其特征在于,所述方法还包括:
基于所述第二目标图像进行人脸检测;
其中,所述基于所述第二目标图像建立人脸特征模板包括:
在人脸检测成功时,基于所述第二目标图像获取第二人脸图像,并根据所述第二人脸图像建立所述人脸特征模板。
22.根据权利要求21所述的方法,其特征在于,所述基于所述第二人脸图像建立所述人脸特征模板,包括:
判断所述第二人脸图像是否属于人脸特征模板库;
当所述第二人脸图像属于所述人脸特征模板库时,将所述第二人脸图像与所述人脸特征模板库中的多个人脸特征模板进行匹配;
当所述第二人脸图像不属于所述人脸特征模板库时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别,当确定所述第二识别目标为活体人脸时,将所述第二人脸图像建立为人脸特征模板。
23.根据权利要求22所述的方法,其特征在于,所述将所述第二人脸图像与所述人脸特征模板库中的多个人脸特征模板进行匹配,包括:
当匹配成功时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别;
当确定所述第二识别目标为活体人脸时,将所述第二人脸图像建立为人脸特征模板。
24.根据权利要求23所述的方法,其特征在于,所述当匹配成功时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别,包括:
当匹配成功时,获取所述第二识别目标的3D点云数据;
当所述3D点云数据为有效点云时,根据所述第二眼部图像进行基于虹膜的人脸防伪判别。
25.根据权利要求18-24中任一项所述的方法,其特征在于,所述第二眼部图像为包括虹膜的人眼区域图像或虹膜区域图像。
26.根据权利要求25所述的方法,其特征在于,所述根据所述第二眼部图像进行基于虹膜的人脸防伪判断,包括:
采用直方图均衡化方法对所述第二眼部图像进行处理得到第二优化眼部图像;
根据所述第二优化眼部图像进行基于虹膜的人脸防伪判断。
27.根据权利要求26所述的方法,其特征在于,所述根据所述第二优化眼部图像进行基于虹膜的人脸防伪判断,包括:
通过神经网络对所述第二优化眼部图像进行分类处理,以确定所述第二识别目标是否为活体人脸。
28.根据权利要求27所述的方法,其特征在于,所述第二眼部图像包括第二左眼眼部图像和/或第二右眼眼部图像,所述通过神经网络对所述第二优化眼部图像进行分类处理包括:
通过神经网络对所述第二左眼眼部图像和/或所述第二右眼眼部图像进行分类处理。
29.根据权利要求27或28所述的方法,其特征在于,所述神经网络包括:
至少一个扁平化层,至少一个全连接层和至少一个激励层。
30.一种人脸识别的装置,其特征在于,包括:处理器;
所述处理器用于执行:如权利要求1至29中任一项所述的人脸识别的方法。
31.一种电子设备,其特征在于,包括:
如权利要求30所述的人脸识别的装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/093159 WO2020258119A1 (zh) | 2019-06-27 | 2019-06-27 | 人脸识别的方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110462632A true CN110462632A (zh) | 2019-11-15 |
Family
ID=68492772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980001099.8A Pending CN110462632A (zh) | 2019-06-27 | 2019-06-27 | 人脸识别的方法、装置和电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110462632A (zh) |
WO (1) | WO2020258119A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705460A (zh) * | 2021-08-30 | 2021-11-26 | 平安科技(深圳)有限公司 | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033499A (zh) * | 2021-04-30 | 2021-06-25 | 中国工商银行股份有限公司 | 虹膜识别方法和装置 |
CN113221766B (zh) * | 2021-05-18 | 2024-07-19 | 南京西云信息技术有限公司 | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 |
CN113378715B (zh) * | 2021-06-10 | 2024-01-05 | 北京华捷艾米科技有限公司 | 一种基于彩色人脸图像的活体检测方法及相关设备 |
CN113255594A (zh) * | 2021-06-28 | 2021-08-13 | 深圳市商汤科技有限公司 | 人脸识别方法和装置、神经网络 |
CN113762205A (zh) * | 2021-09-17 | 2021-12-07 | 深圳市爱协生科技有限公司 | 人脸图像操作痕迹检测方法、计算机设备及可读存储介质 |
CN114359665B (zh) * | 2021-12-27 | 2024-03-26 | 北京奕斯伟计算技术股份有限公司 | 全任务人脸识别模型的训练方法及装置、人脸识别方法 |
CN115601818B (zh) * | 2022-11-29 | 2023-04-07 | 海豚乐智科技(成都)有限责任公司 | 一种轻量化可见光活体检测方法及装置 |
CN116343313B (zh) * | 2023-05-30 | 2023-08-11 | 乐山师范学院 | 一种基于眼部特征的人脸识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506696A (zh) * | 2017-07-29 | 2017-12-22 | 广东欧珀移动通信有限公司 | 防伪处理方法及相关产品 |
CN108573209A (zh) * | 2018-02-28 | 2018-09-25 | 天眼智通(香港)有限公司 | 一种基于人脸的单模型多输出的年龄性别识别方法及系统 |
CN109635746A (zh) * | 2018-12-14 | 2019-04-16 | 睿云联(厦门)网络通讯技术有限公司 | 一种基于nir残差图象的单摄人脸活体识别方法及计算机可读存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077563B (zh) * | 2014-05-30 | 2018-02-02 | 小米科技有限责任公司 | 人脸识别方法和装置 |
TWI604332B (zh) * | 2017-03-24 | 2017-11-01 | 緯創資通股份有限公司 | 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體 |
CN108647600B (zh) * | 2018-04-27 | 2021-10-08 | 深圳爱酷智能科技有限公司 | 人脸识别方法、设备及计算机可读存储介质 |
-
2019
- 2019-06-27 CN CN201980001099.8A patent/CN110462632A/zh active Pending
- 2019-06-27 WO PCT/CN2019/093159 patent/WO2020258119A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506696A (zh) * | 2017-07-29 | 2017-12-22 | 广东欧珀移动通信有限公司 | 防伪处理方法及相关产品 |
CN108573209A (zh) * | 2018-02-28 | 2018-09-25 | 天眼智通(香港)有限公司 | 一种基于人脸的单模型多输出的年龄性别识别方法及系统 |
CN109635746A (zh) * | 2018-12-14 | 2019-04-16 | 睿云联(厦门)网络通讯技术有限公司 | 一种基于nir残差图象的单摄人脸活体识别方法及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
邹优敏等: "一种组网人脸识别门禁系统的设计", 《计算机测量与控制》, vol. 27, no. 3, 31 March 2019 (2019-03-31), pages 220 - 230 * |
高志强等: "《深度学习 从入门到实战》", 中国铁道出版社, pages: 109 - 110 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705460A (zh) * | 2021-08-30 | 2021-11-26 | 平安科技(深圳)有限公司 | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 |
CN113705460B (zh) * | 2021-08-30 | 2024-03-15 | 平安科技(深圳)有限公司 | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020258119A1 (zh) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110383288B (zh) | 人脸识别的方法、装置和电子设备 | |
CN110462632A (zh) | 人脸识别的方法、装置和电子设备 | |
CN110462633B (zh) | 一种人脸识别的方法、装置和电子设备 | |
CN110520865A (zh) | 人脸识别的方法、装置和电子设备 | |
CN107766786B (zh) | 活性测试方法和活性测试计算设备 | |
Song et al. | Discriminative representation combinations for accurate face spoofing detection | |
CN106778525B (zh) | 身份认证方法和装置 | |
US9971920B2 (en) | Spoof detection for biometric authentication | |
US8744141B2 (en) | Texture features for biometric authentication | |
US20170262472A1 (en) | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces | |
CN108629262B (zh) | 虹膜识别方法及相应装置 | |
CN111095297B (zh) | 人脸识别的装置、方法和电子设备 | |
WO2020088029A1 (zh) | 活体检验方法、存储介质和电子设备 | |
EP4320606A1 (en) | Personalized biometric anti-spoofing protection using machine learning and enrollment data | |
CN112686191B (zh) | 基于人脸三维信息的活体防伪方法、系统、终端及介质 | |
Choras | Multimodal biometrics for person authentication | |
WO2022217294A1 (en) | Personalized biometric anti-spoofing protection using machine learning and enrollment data | |
Rao et al. | Amalgamation Biometric Deep Features in Smart City-ITS Authentication | |
CN111291586B (zh) | 活体检测方法、装置、电子设备及计算机可读存储介质 | |
CN113065507B (zh) | 人脸认证的实现方法和装置 | |
Abdullah et al. | Iris recognition using wavelet transform and artificial neural networks | |
Sitholimela et al. | Face Recognition using Two Local Ternary Patterns (LTP) Variants: A Performance Analysis using High-and Low-Resolution Images | |
Al-Rajeh et al. | Original Research Article Iris presentation attack detection: Research trends, challenges, and future directions | |
WO2023156194A1 (en) | Method for authenticating an object | |
CN115577337A (zh) | 一种基于人脸识别的智能安防设备控制方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191115 |
|
RJ01 | Rejection of invention patent application after publication |