CN111881429A - 活性检测方法和设备以及面部验证方法和设备 - Google Patents
活性检测方法和设备以及面部验证方法和设备 Download PDFInfo
- Publication number
- CN111881429A CN111881429A CN202010217511.4A CN202010217511A CN111881429A CN 111881429 A CN111881429 A CN 111881429A CN 202010217511 A CN202010217511 A CN 202010217511A CN 111881429 A CN111881429 A CN 111881429A
- Authority
- CN
- China
- Prior art keywords
- face
- value
- image
- range
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000694 effects Effects 0.000 title claims abstract description 165
- 238000001514 detection method Methods 0.000 title claims abstract description 139
- 238000012795 verification Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000004044 response Effects 0.000 claims abstract description 64
- 230000001815 facial effect Effects 0.000 claims description 82
- 238000013528 artificial neural network Methods 0.000 claims description 72
- 238000012549 training Methods 0.000 claims description 52
- 230000004913 activation Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 description 31
- 230000015654 memory Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 18
- 238000007781 pre-processing Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000003556 assay Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000033458 reproduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/243—Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computer Security & Cryptography (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Abstract
公开了活性检测方法和设备以及面部验证方法和设备。所述活性检测方法包括:检测输入图像中的面部区域;测量面部区域的特性信息;响应于特性信息不满足条件,调节测量的特性信息;和在测量的特性信息不满足所述条件时,对具有调节后的特性信息的面部区域执行活性检测。
Description
本申请要求于2019年5月2日提交到韩国知识产权局的第10-2019-0051495号韩国专利申请的权益以及于2019年8月28日提交到韩国知识产权局的第10-2019-0105867号韩国专利申请的权益,所述韩国专利申请的全部公开出于所有目的通过引用包含于此。
技术领域
下面的描述涉及活性检测方法和设备以及面部验证方法和设备。
背景技术
在用户验证系统中,计算设备可基于由用户提供的验证信息来确定是否允许用户访问计算设备。例如,验证信息可包括由用户输入的密码和用户的生物特征(biometric)信息。例如,生物特征信息可包括与用户的指纹、虹膜和面部相关联的信息。
存在面部欺骗方法,其中,面部欺骗可以是使用例如图像、视频或面具的意图欺骗或蒙骗底层装置或系统相信授权的用户或人正在尝试访问或使用装置的类型的攻击。
发明内容
提供本发明内容以简化的形式介绍在以下具体实施方式中进一步描述的构思的选择。本发明内容既不意在确定要求权利的主题的关键特征或必要特征,也不意在用于帮助确定要求权利的主题的范围。
在一个总体方面,一种活性检测方法包括:检测输入图像中的面部区域;测量检测的面部区域的特性信息;响应于测量的特性信息被确定为不满足条件,通过调节面部区域的特性信息来生成调节后的面部区域;和对调节后的面部区域执行活性检测。
测量面部区域的特性信息的步骤可包括:测量面部区域的色调值。
生成调节后的面部区域的步骤可包括:响应于确定测量的色调值没有包括在预设的色调值范围中,通过将面部区域的色调值调节为包括在预设的色调值范围中的色调值,来执行生成调节后的面部区域的步骤。
调节面部区域的色调值的步骤可包括:通过将色调调节模型应用于面部区域来调节测量的面部区域的色调值。
测量面部区域的特性信息的步骤可包括:测量指示包括在面部区域中的面部的倾斜程度的面部倾斜值。
测量面部倾斜值的步骤可包括:在面部区域中检测与左眼、右眼和嘴巴两端对应的特征点;和基于检测的特征点测量面部倾斜值。
生成调节后的面部区域的步骤可包括:响应于确定测量的面部倾斜值没有包括在预设的面部倾斜值范围中,通过调节面部倾斜值,来执行生成调节后的面部区域的步骤。
调节面部倾斜值的步骤可包括:通过基于测量的面部倾斜值旋转面部区域,来调节面部倾斜值。
测量面部区域的特性信息的步骤可包括:测量面部区域的白平衡值。
生成面部调节后的区域的步骤可包括:响应于确定测量的白平衡值没有包括在预设的白平衡值范围中,通过将面部区域的白平衡值调节为包括在预设的白平衡值范围中的白平衡值,来执行生成调节后的面部区域的步骤。
所述方法还可包括:响应于确定测量的特性信息满足条件,基于检测的面部区域来执行活性检测,而无需执行生成调节后的面部区域的步骤。
执行活性检测的步骤可包括:使用基于神经网络的活性检测模型执行活性检测。
测量面部区域的特性信息的步骤可包括:测量面部区域的色调值、面部倾斜值和白平衡值中的任何一个或任何两个或更多个的任何组合。响应于测量的色调值、测量的面部倾斜值和测量的白平衡值中的任何一个或任何两个或更多个的任何组合分别被确定为在预设的色调值范围、预设的面部倾斜值范围和预设的白平衡值范围中的范围之外,通过分别将色调值、面部倾斜值和白平衡值调节为分别落入预设的色调值范围、预设的面部倾斜值范围和预设的白平衡值范围内,来生成调节后的面部区域。
一种非暂时性计算机可读存储介质可存储指令,所述指令在由一个或多个处理器执行时,配置所述一个或多个处理器执行以上方法。
神经网络可用于对调节后的面部区域执行面部验证。
在另一总体方面,一种使用神经网络的面部验证方法,所述面部验证方法包括:从输入图像提取面部区域的当前面部图像;计算当前面部图像的当前图像特征值;将当前图像特征值与训练面部图像的相应的图像特征值的范围进行比较;响应于确定当前图像特征值在相应的图像特征值的范围之外,通过将当前面部图像的当前图像特征值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像;和将调节后的当前面部图像输入到所述神经网络。
各自具有图像特征值的多个面部图像可用于训练所述神经网络。
相应的图像特征值的范围可以是基于训练面部图像的图像特征值之中的最小图像特征值和最大图像特征值确定的绝对范围。
相应的图像特征值的范围可以是基于训练面部图像的图像特征值的分布特性来确定的统计范围。分布特性可包括图像特征值的平均值和标准差。
统计范围可以是在两侧离作为中心的平均值1个标准差的范围。
统计范围可以是在两侧离作为中心的平均值2个标准差的范围。
统计范围可以是在两侧离作为中心的平均值3个标准差的范围。
统计范围可以是在两侧离作为中心的平均值4个标准差的范围。
所述神经网络可被配置为对输入图像中的面部对象执行活性检测。
所述神经网络可被配置为验证输入图像中的面部对象。
计算当前图像特征值的步骤可包括:计算当前面部图像的色调值。调节当前面部图像的步骤可包括:响应于确定计算的色调值在相应的图像特征值的范围之外,通过将当前面部图像的色调值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
计算当前图像特征值的步骤可包括:计算指示当前面部图像中的面部的倾斜程度的面部倾斜值。调节当前面部图像的步骤可包括:响应于确定计算的面部倾斜值在相应的图像特征值的范围之外,通过旋转当前面部图像的面部区域使得调节后的当前面部图像的倾斜值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
计算当前图像特征值的步骤可包括:计算当前面部图像中的面部区域的白平衡值。调节当前面部图像的步骤可包括:响应于确定计算的白平衡值在相应的图像特征值的范围之外,通过调节当前面部图像的白平衡值使得调节后的当前面部图像的白平衡值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
在另一总体方面,一种设备包括:一个或多个处理器,被配置为:检测输入图像中的面部区域;测量检测的面部区域的特性信息;响应于测量的特性信息被确定为不满足条件,通过调节面部区域的特性信息来生成调节后的面部区域;和对调节后的面部区域执行活性检测。
所述设备还可包括:存储器,存储指令,所述指令在由所述一个或多个处理器执行时,将所述一个或多个处理器配置为:检测输入图像中的面部区域;测量检测的面部区域的特性信息;响应于测量的特性信息被确定为不满足条件,通过调节面部区域的特性信息来生成调节后的面部区域;和对调节后的面部区域执行活性检测。
所述一个或多个处理器还可被配置为:测量面部区域的色调值;和响应于确定测量的色调值没有包括在预设的色调值范围中,通过将面部区域的色调值调节为包括在预设的色调值范围中的色调值,来执行生成调节后的面部区域的步骤。
所述一个或多个处理器还可被配置为:测量指示包括在面部区域中的面部的倾斜程度的面部倾斜值;和响应于确定测量的面部倾斜值没有包括在预设的面部倾斜值范围中,通过调节面部倾斜值,来执行生成调节后的面部区域的步骤。
所述一个或多个处理器还可被配置为:测量面部区域的白平衡值;和响应于确定测量的白平衡值没有包括在预设的白平衡值范围中,通过调节面部区域的白平衡值,来执行生成调节后的面部区域的步骤。
所述一个或多个处理器还可被配置为:响应于确定测量的特性信息满足条件,基于检测的面部区域来执行活性检测,而无需执行生成调节后的面部区域的步骤。
所述一个或多个处理器还可被配置为:使用基于神经网络的活性检测模型执行活性检测。
所述设备可以是以下项中的任何一个:智能电话、可穿戴装置、平板计算机、上网本、膝上型计算机、台式计算机、个人数字助理(PDA)、机顶盒、家用电器、生物特征识别门锁、安全装置和车辆启动装置。
在另一总体方面,一种使用神经网络的设备包括:一个或多个处理器,被配置为:从输入图像提取面部区域的当前面部图像;计算当前面部图像的当前图像特征值;将当前图像特征值与训练面部图像的相应的图像特征值的范围进行比较;响应于确定当前图像特征值在相应的图像特征值的范围之外,通过调节当前面部图像使得当前面部图像的当前图像特征值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像;和将调节后的当前面部图像输入到所述神经网络。
所述设备还可包括:存储器,存储指令,所述指令在由所述一个或多个处理器执行时,将所述一个或多个处理器配置为:从输入图像提取面部区域的当前面部图像;计算当前面部图像的当前图像特征值;将当前图像特征值与训练面部图像的相应的图像特征值的范围进行比较;响应于确定当前图像特征值在相应的图像特征值的范围之外,通过调节当前面部图像使得当前面部图像的当前图像特征值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像;和将调节后的当前面部图像输入到所述神经网络。
各自具有图像特征值的多个面部图像可用于训练所述神经网络。
相应的图像特征值的范围可以是基于用于训练所述神经网络的面部图像的图像特征值之中的最小图像特征值和最大图像特征值确定的绝对范围。
相应的图像特征值的范围可以是基于用于训练所述神经网络的面部图像的图像特征值的分布特性来确定的统计范围。分布特性可包括图像特征值的平均值和标准差。
所述神经网络可用于验证输入图像中的面部对象。
所述一个或多个处理器可被配置为:计算当前面部图像的色调值;和响应于确定计算的色调值在相应的图像特征值的范围之外,通过将当前面部图像的色调值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
所述一个或多个处理器可被配置为:计算指示当前面部图像中的面部的倾斜程度的面部倾斜值;和响应于确定计算的面部倾斜值在相应的图像特征值的范围之外,通过旋转当前面部图像的面部区域使得调节后的当前面部图像的倾斜值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
所述一个或多个处理器可被配置为:计算当前面部图像中的面部区域的白平衡值;和响应于确定计算的白平衡值在相应的图像特征值的范围之外,通过将当前面部图像的白平衡值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
所述一个或多个处理器可被配置为:计算当前面部图像的色调值、面部倾斜值和白平衡值中的任何一个或任何两个或更多个的任何组合;和响应于计算的色调值、计算的面部倾斜值和计算的白平衡值中的任何一个或任何两个或更多个的任何组合分别被确定为在相应的图像特征值的范围之外,通过分别将范围之外的图像特征值调节为在相应的图像特征值的范围内,来生成调节后的面部区域。
所述设备可以是以下项中的任何一个:智能电话、可穿戴装置、平板计算机、上网本、膝上型计算机、台式计算机、个人数字助理(PDA)、机顶盒、家用电器、生物特征识别门锁、安全装置和车辆启动装置。
从下面的具体实施方式、附图和权利要求,其他特征和方面将是清楚的。
附图说明
图1和图2是示出活性检测和面部验证的示例的示图。
图3是示出活性检测方法的示例的流程图。
图4是示出面部验证方法的示例的流程图。
图5是示出面部验证设备的操作的示例的示图。
图6是示出绝对范围和统计范围的示例的示图。
图7是示出用于调节色调的预处理操作的示例的示图。
图8是示出调节面部倾斜的预处理操作的示例的示图。
图9A和图9B是示出活性检测方法的示例的示图。
图10是示出面部验证设备的示例的示图。
图11是示出电子设备的示例的示图。
贯穿附图和具体实施方式,相同的参考标号表示相同的元件。附图可不按比例,并且为了清楚、说明和方便,附图中的元件的相对大小、比例和描绘可被夸大。
具体实施方式
提供下面的具体实施方式以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在理解本申请的公开之后,在此描述的方法、设备和/或系统的各种改变、修改和等同物将是清楚的。例如,在此描述的操作的顺序仅是示例,并且不受限于在此阐述的那些顺序,而是除了必须以特定的顺序发生的操作之外,可如在理解本申请的公开之后将是清楚地那样被改变。此外,为了增加的清楚和简明,可省略已知的特征的描述。
在此描述的特征可以以不同的形式来实现,而不应被解释为受限于在此描述的示例。相反,在此描述的示例已仅被提供,以示出在理解本申请的公开之后将是清楚的实现在此描述的方法、设备和/或系统的许多可行方式中的一些可行方式。
在此使用的术语仅用于描述各种示例的目的,并且将不用于限制公开。除非上下文清楚地另有指示,否则单数形式也意在包括复数形式。术语“包括”、“包含”和“具有”说明存在陈述的特征、数量、操作、构件、元件和/或它们的组合,但并不排除存在或添加一个或多个其他特征、数量、操作、构件、元件和/或它们的组合。
此外,在此可使用诸如第一、第二、A、B、(a)、(b)等的术语来描述组件。这些术语中的每个不用于限定对应的组件的本质、顺序或次序,而是仅用于将对应的组件和其他组件区分开来。
贯穿说明书,当元件(诸如,层、区域或基底)被称为“在”另一元件“上”、“连接到”或者“结合到”另一元件时,所述元件可“直接在”所述另一元件“上”、“直接连接到”或者“直接结合到”所述另一元件,或者可存在介于其间的一个或多个其他元件。相反,当元件被描述为“直接在”另一元件“上”、“直接连接到”或者“直接结合到”另一元件时,可不存在介于其间的其他元件。同样地,例如“在…之间”和“直接在…之间”以及“与…相邻”和“直接与…相邻”的表达也可如上所述来解释。
除非另有定义,否则在此使用的所有术语(包括技术术语和科学术语)具有与本公开所属领域的普通技术人员通常理解的含义以及在理解本公开之后通常理解的含义相同的含义。除非在此明确地如此定义,否则术语(诸如,在通用词典中定义的术语)将被解释为具有与它们在相关领域的上下文和本公开中的含义一致的含义,并且将不以理想化或过于形式化的意义进行解释。
此外,在示例实施例的描述中,当认为在理解本申请的公开之后由此已知的结构或功能的详细描述将导致对示例实施例的模糊解释时,将省略这样的描述。
在下文中,将参照附图详细描述示例,并且在附图中同样地参考标号始终表示同样的元件。
面部反欺骗技术可用于确定输入到这样的装置或系统的用户的面部是假冒的面部还是真实的面部。这样的面部反欺骗技术可包括从输入图像提取特征(诸如,以局部二进制模式(LBP)、方向梯度直方图(HOG)和高斯差(DoG)为例),并基于提取的特征来确定输入的面部是假冒的还是真实的。
图1和图2是示出活性(也称为活体)检测和面部验证的示例的示图。
生物特征识别(biometrics)是使用个人生物信息(包括例如个人的指纹、虹膜、面部、静脉和皮肤)的用户验证方法之一。在用户验证方法之中,面部验证方法可用于:当用户尝试使用他的/她的面部执行面部验证以例如解锁装置、登录装置、执行支付服务以及执行访问控制操作(作为各种实施例)时,基于用户的面部的信息来确定用户是否是有效用户和/或是否不是有效用户。
参照图1,电子设备120通过面部验证来确定是否验证(或认证)尝试连接到电子设备120的用户110。例如,当用户110通过电子设备120尝试或被检测到或被确定为正尝试面部验证以取消电子设备120的锁定模式时,电子设备120使用图像传感器或图像获取器(诸如,相机130)获得用户110的面部图像,分析获得的面部图像,然后确定是否取消电子设备120的锁定模式。在一个示例中,对面部图像的分析可包括:在面部图像中检测面部区域,并使用特征提取器从检测的面部区域提取特征。可将提取的特征与有效用户的注册特征进行比较,并且可基于将一个或多个提取的特征与有效用户的一个或多个注册特征进行比较的结果来确定面部验证是否成功。响应于确定面部验证成功,用户110可成功地取消锁定模式(例如,电子设备120可根据比较的结果自动开放对电子设备120的访问)。相反,响应于确定面部验证不成功,电子设备120可继续在锁定模式下操作。又例如,当用户110通过电子设备120尝试面部验证以使用支付服务时,电子设备120获得用户110的面部图像,分析获得的面部图像,并且在用户110被识别为有效用户作为分析获得的面部图像的结果时,选择性地批准来自用户110的支付请求,否则拒绝支付请求。
在一个示例中,有效用户可通过面部注册处理预先在电子设备120中注册有效用户的面部,并且电子设备120可将要用于识别有效用户的信息存储在存储装置或云存储装置中。在这个示例中,有效用户的面部图像或从面部图像提取的面部特征可被存储为有效用户的注册信息的示例。
在一个示例中,在生物特征验证(诸如,上述面部验证)中,可执行活性检测。可在确定生物特征验证的结果之前或之后执行活性检测。可选地,可同时执行生物特征验证和活性检测。可执行活性检测以确定作为活性检测的目标的测试对象是否有生命。也就是说,可执行活性检测以确定用于验证的方法学或生物特征特性是否是真实的。例如,执行活性检测以确定通过相机130捕获的图像中的面部是真实的面部还是假冒的面部。可执行活性检测以,通过区分捕获的图像中的对象是有生命的对象或更有可能是有生命的对象,或者所述对象是欺骗的对象或更有可能是欺骗的对象,来使用一个或多个捕获的图像在无生命的对象(例如,作为假冒机制或形式的照片、图像、纸和复制品)与有生命的对象(例如,有生命的人类)之间进行区分。
图2示出假冒的面部210的示例和真实的面部220的示例。电子设备120通过活性检测处理,在通过捕获有效用户的真实的面部的图像而获得的测试对象图像中识别真实的面部220。此外,电子设备120在通过捕获显示在智能电话的屏幕或个人计算机(PC)的屏幕上或打印在纸上的有效用户的真实的面部的图像或者模仿用户的真实的面部的复制品的图像而获得的测试对象图像中,识别假冒的面部210。
无效用户可尝试使用欺骗技术试图获得用户验证系统的错误接受。例如,无效用户可向相机130呈现有效用户的面部在其中出现的彩色图像、视频、复制品等,以在面部验证中获得错误接受。活性测试可用于通过滤除或阻止对基于这样的欺骗技术进行的验证的尝试,来防止这样的错误接受。当验证对象被确定为无生命的对象作为活性检测的结果时,验证对象可不被允许继续进行将验证对象与注册对象进行比较以验证验证对象是否与注册对象匹配的用户验证,或者无论用户验证的结果如何,用户验证最终可被确定为不成功。
返回参照图1,电子设备120可执行活性检测和生物特征验证中的任何一个,或者活性检测和生物特征验证二者。作为非限制性示例,电子设备120可以是智能电话、可穿戴装置、平板计算机、上网本、膝上型计算机、台式计算机、个人数字助理(PDA)、机顶盒、家用电器、生物特征识别门锁、安全装置和车辆启动装置。这里,注意的是,针对示例或实施例的术语“可”的使用(例如,对于示例或实施例可包括或可实现什么)表示存在包括或实现这样的特征的至少一个示例或实施例,而所有的示例和实施例不限于此。
在这样的活性检测处理中,电子设备120可综合考虑通过相机130捕获的图像的各种元素。例如,电子设备120可基于与捕获的图像中的面部的整体形状相关联的形状信息、与局部面部的纹理相关联的纹理信息和上下文信息中的至少一种,来确定测试对象是否是有生命的。当对象在远距离位置处时捕获的图像还可包括关于对象是否是显示装置的屏幕或纸的线索。例如,图像可包括握住显示装置或纸的用户的手,这为确定对象是假冒的提供了线索。还可基于上下文信息有效地检测为了错误接受的这样的尝试。此外,整体面部形状的形状信息可用于确定光的反射和形状的扭曲,光的反射和形状的扭曲可用于确定活性检测的结果。作为非限制性示例,作为用于这样的尝试的各种手段之一的照片图像或纸中的这样的光反射可不同于在真实的面部上的光反射,并且由于照片图像或纸的皱痕或褶皱而可能发生这样的形状变形。可基于这些前述元素来执行活性检测。此外,可用于在真实的人类皮肤与纸和/或显示装置的屏幕之间进行区分的纹理的细微差异可用作纹理信息。因此,电子设备120可综合地应用各种水平的这样的活性确定元素,以提高活性检测的准确性,并且更鲁棒地执行活性检测。
针对活性检测或面部验证,神经网络可被使用。当神经网络用于活性检测时,神经网络可基于输入数据,提供活性值,活性值指示表示测试对象对应于真实的面部还是假冒的面部的值、概率值或特征值。相比之下,当神经网络用于面部验证时,神经网络可基于输入数据来提供特征值。
通过训练,形成神经网络的参数可被确定。在训练处理中,可能存在多个训练数据集和每个训练数据集的期望值。在训练处理中,神经网络可接收训练数据,并基于参数通过计算或运算来输出与接收到的训练数据对应的结果值。可根据输出的结果值与期望值之间的差来计算损失。形成神经网络的参数可被调节以减少损失,并且神经网络可如上所述地那样被训练。可对每个训练数据集重复地执行训练处理,并且因此神经网络的参数可被调节为更期望的。
在示例中,在训练处理中,训练数据可被配置为包括各种数据集,使得神经网络学习或训练各种情况(case)。然而,可能无法总是可以通过训练数据覆盖所有情况或在训练数据中包括所有情况。因此,在实际的活性检测或面部验证中,训练处理中可能存在未被学习或训练或者未被完全学习或训练的情况。所述情况在此也被称为边角情况(cornercase)。边角情况未被完全学习或训练,因此处理这样的边角情况的结果可能不准确。
此外,同与一般情况对应的训练数据相比,与这样的边角情况对应的训练数据的数量可能相对较少。因此,当使用与边角情况对应的训练数据执行训练时,神经网络的性能可能下降。当在实际的训练处理中使用与边角情况对应的训练数据时,训练数据的数据变化可能增加,因此训练神经网络以输出期望的结果值可能不容易。
然而,根据将在下文中描述的一个或多个示例实施例,尽管在这样的边角情况下执行活性检测和/或面部验证,但可基于边角情况的类型通过预处理操作将边角情况变换为神经网络的训练处理中的充分或完全训练的情况,并针对边角情况鲁棒地执行活性检测和/或面部验证。因此,可以提高处理边角情况的结果的准确性。
图3是示出活性检测方法的示例的流程图。将在下文中描述的活性检测方法可通过面部验证设备来执行。
参照图3,在操作310中,面部验证设备检测输入图像中的面部区域。输入图像表示输入到面部验证设备的图像,该图像是将被执行活性检测的目标。输入图像可通过图像获取设备(诸如,数码相机、摄像机等)来获得。图像获取设备可被包括在面部验证设备中,或者可存在于面部验证设备外部。
面部验证设备可使用作为非限制性示例的神经网络来检测面部区域,所述神经网络被配置为在各种示例中通过使用基于哈尔级联adaboost分类器(haar-based cascadeadaboost classifier)、Viola-Jones检测器等来检测输入图像中的面部区域。然而,示例不限于前述内容中描述的那些,并且面部验证设备可使用各种面部区域检测方法来检测输入图像中的面部区域。作为非限制性示例,面部验证设备可检测输入图像中的面部关键点(landmark),并将包括检测的面部关键点的边界区域检测为面部区域。
在操作320中,面部验证设备测量面部区域的特性信息。特性信息可以是指示面部区域的一个或多个图像特征和/或面部区域中的一个或多个面部对象或与图像相关的特征的值。面部验证设备可测量特性信息(诸如,作为非限制性示例,面部区域的色调、指示包括在面部区域中的面部的倾斜程度的面部倾斜以及面部区域的白平衡、亮度、伽玛值等)。面部验证设备可测量前述内容中描述的这样的各种值中的至少一种。
可使用用于评估图像的质量的图像质量评估方法来测量特性信息(诸如,面部区域的色调、白平衡、亮度和伽玛值等)。
针对与面部倾斜相关联的特性信息,面部验证设备可在面部区域中检测与左眼、右眼和嘴巴两端对应的特征点,并基于检测的特征点来测量面部倾斜。在一个示例中,面部验证设备基于参考线(例如,垂直线或水平线)与确定的直线之间形成的角度来测量面部倾斜,确定的直线经过左眼与右眼的特征点之间的确定的第一中心点以及与嘴巴两端对应的特征点之间的确定的第二中心点。
在操作330中,面部验证设备确定测量的特性信息是否满足条件。在一个示例中,面部验证设备可确定:针对输入图像中的面部区域计算的特性信息是否被包括在用于训练基于神经网络的活性检测模型的面部图像的特征值范围内。用于训练的面部图像中的每个可具有特性信息(或特征值),并且特征值范围可基于面部图像的相应的特征值被确定。在此,特性信息可以是特征值,因此,术语“特性信息”将可与术语“特征值”可互换地使用。作为非限制性示例,特征值范围可以是被定义为面部图像的特征值之中的最小特征值与最大特征值之间的范围的绝对范围,或者是通过分布特性确定的统计范围(例如,面部图像的特征值的平均值和标准差)。统计范围可比基于定义绝对范围的标准的绝对范围更宽或更窄。
例如,针对与面部区域的色调相关联的特性信息,面部验证设备可确定:色调(例如,红色(R)元素、绿色(G)元素和蓝色(B)元素)中的至少一种是否被包括在预设范围或各自的预设范围中。针对与面部倾斜相关联的特性信息,面部验证设备可确定面部倾斜是否被包括在预设的面部倾斜范围中。针对与白平衡、亮度或伽玛值相关联的特性信息,面部验证设备可确定这样的特性信息是否被包括在预设范围或各自的范围中。所述条件可在活性检测之前被设置,或者可在活性检测期间或中间改变。
在操作340中,响应于确定测量的特性信息不满足一个或多个条件,面部验证设备调节面部区域的特性信息。在一个示例中,面部验证设备可调节面部区域的特性信息,使得从输入图像的面部区域测量的特性信息被包括在用于训练活性检测模型的面部图像的一个或多个相应的特征值范围中。例如,特征值范围可以是绝对范围或统计范围。面部区域的特性信息没有包括在特征值范围中可指示作为当前活性测试对象的输入图像对应于边角情况。这里,面部验证设备可对面部区域进行预处理,使得面部区域的特性信息被包括在用于训练的面部图像的特征值范围内,从而提高活性检测的结果的准确性。在此,预处理可被理解为在例如使用预处理器的结果针对输入信息执行活性检测模型的推理操作之前执行或输入的处理。
例如,当测量的面部区域的色调没有包括在预设范围中时,面部验证设备将面部区域的色调调节为包括在该范围内的色调。面部验证设备通过将色调调节模型应用于面部区域来调节面部区域的色调。色调调节模型可执行将面部区域的色调改变为作为非限制性示例的训练图像的平均色调的功能。通过这样的色调调节,面部区域的颜色分布(例如,RGB元素的分布)可被改变为类似于训练图像的颜色分布。
又例如,当测量的面部倾斜没有包括在预设范围中时,面部验证设备调节面部倾斜。面部验证设备通过基于测量的面部倾斜旋转输入图像的面部区域来调节面部倾斜。面部验证设备将面部区域旋转一定角度,使得面部倾斜被包括在该范围中。
又例如,当测量的白平衡、亮度和/或伽玛值没有包括在预设范围中时,面部验证设备调节面部区域的白平衡、亮度和/或伽玛值,使得面部区域的白平衡、亮度和/或伽玛值被包括在该范围中。
在操作350中,当在操作340中调节了特性信息时,面部验证设备例如利用调节后的特性信息,对调节后的在操作310中检测的面部区域执行活性检测。响应于在操作330中确定特性信息满足条件,面部验证设备不调节特性信息,并且基于在操作310中检测的面部区域执行活性检测。
活性检测模型可以是例如被配置为基于输入数据输出根据神经网络的内部参数而计算的值的神经网络。活性检测模型可基于输入数据,来提供活性值,活性值指示表示作为测试对象的面部对象是真实的面部还是假冒的面部的值、概率值或特征值。也就是说,活性值可以是将用作确定对象的活性的参考的值。作为非限制性示例,活性检测模型可基于深度卷积神经网络(DCNN)模型。例如,DCNN模型可包括一个或多个卷积层、一个或多个池化层以及全连接层。DCNN模型可提供:将用于基于输入到活性检测模型的图像信息通过由每个层执行的各自的操作确定活性的信息。图像信息可以是包括在图像中的像素的像素值(作为非限制性示例,颜色值和/或亮度值)。然而,DCNN模型仅被提供为示例,因此活性检测模型可基于与DCNN模型的架构不同的另一架构的神经网络模型。
在一个示例中,面部验证设备基于与检测的面部区域对应的第一图像来确定第一活性值。当第一图像的图像信息被输入到第一活性检测模型时,第一活性值被获得,并且第一活性检测模型输出与第一图像的图像信息对应的第一活性值。第一图像可包括检测的面部区域的整个区域的形状信息。基于第一图像确定的第一活性值可与光反射和形状变形的特征或特性相关联,光反射和形状变形的特征或特性用于识别使用例如假冒的图像来获得错误接受的尝试。
面部验证设备基于与检测的面部区域的局部区域对应的第二图像来确定第二活性值。可通过从检测的面部区域提取较小的区域来获得局部区域。可从检测的面部区域随机地提取局部区域,或者基于检测的面部区域的中心的预设大小的区域可被提取为局部面部区域。
当第二图像的图像信息被输入到第二活性检测模型时,第二活性值被获得,并且第二活性检测模型输出与第二图像的图像信息对应的第二活性值。第二图像可包括局部面部区域的纹理信息。基于第二图像确定的第二活性值可与纹理的细微差异相关联,所述纹理的细微差异用于识别使用例如假冒的图像来获得错误接受的尝试。
面部验证设备基于与输入图像的整个区域对应的第三图像来确定第三活性值。当第三图像的图像信息被输入到第三活性检测模型时,第三活性值被获得,并且第三活性检测模型输出与输入图像的整个区域对应的第三活性检测值。基于输入图像确定的第三活性值可与上下文特征或特性相关联,所述上下文特征或特性用于识别使用例如假冒的图像来获得错误接受的尝试。
在前述内容中描述的这个示例中,第一活性值、第二活性值和第三活性值可以是将用于确定测试对象的活性的参考值,并且可通过各自的活性检测模型来确定。此外,当面部区域的特性信息被调节时,第一活性值、第二活性值和第三活性值可分别基于应用了具有调节后的特性信息的面部区域的第一图像、第二图像和第三图像来确定。
可选地,第一活性值、第二活性值和第三活性值可通过单个活性检测模型来确定。作为非限制性示例,第一图像的图像信息、第二图像的图像信息以及输入图像的整个区域的图像信息可被输入到单个活性检测模型,单个活性检测模型可从至少一个输出层输出第一活性值、第二活性值和第三活性值。
面部验证设备基于第一活性值、第二活性值和第三活性值来确定测试对象是否是有生命的。在一个示例中,面部验证设备基于所有的第一活性值、第二活性值和第三活性值来确定最终活性值。作为非限制性示例,面部验证设备可将第一活性值、第二活性值和第三活性值的和或平均值确定为最终活性值。又例如,面部验证设备可将权重施加到第一活性值、第二活性值和第三活性值中的至少一个,并基于施加的结果(例如,加权和)确定最终活性值。作为权重,预设常数可被使用,或者不同的权重可被施加到第一活性值、第二活性值和第三活性值。可选地,权重可以是基于条件(例如,到测试对象的距离、图像质量、面部区域的大小、面部区域中的面部姿势、面部区域的位置、面部区域中存在或不存在遮挡区域以及面部区域的照明状态)确定的条件权重。
在另一示例中,面部验证设备基于第一活性值、第二活性值和第三活性值中的至少一个来确定最终活性值。作为非限制性示例,最终活性值可基于第一活性值、第二活性值、第三活性值或其任意组合来确定。
面部验证设备基于最终活性值是否满足预设条件来确定测试对象是否是有生命的。作为非限制性示例,响应于最终活性值大于预设阈值,面部验证设备将测试对象确定为有生命的或真实的。相反,响应于最终活性值小于或等于阈值,面部验证设备将测试对象确定为无生命的或假冒的。
在一个示例中,面部验证设备可响应于对对象执行活性测试的结果来执行控制操作。响应于最终确定测试对象是有生命的对象,面部验证设备可生成用于请求执行用户验证处理的控制信号。然而,响应于最终确定测试对象是作为不是有生命的真实的对象的假冒的对象,面部验证设备可生成用于阻止用户的访问的控制信号,而无需请求执行用户验证处理。
图4是示出面部验证方法的示例的流程图。将在下文中描述的面部验证方法可通过面部验证设备来执行。
参照图4,在操作410中,面部验证设备从输入图像提取面部区域的当前面部图像。如以上参照图3的操作310中所述,面部验证设备可检测输入图像中的面部区域,并获得作为检测的面部区域的图像的当前面部图像。
在操作420中,面部验证设备计算当前面部图像的当前图像特征值。当前图像特征值可对应于当前面部图像的特性信息。在一个示例中,面部验证设备计算图像特征值(例如,当前面部图像的色调值、指示当前面部图像中的面部的倾斜程度的面部倾斜和/或当前面部图像中的面部区域的白平衡)。
在操作430中,面部验证设备确定当前图像特征值是否满足定义的条件。在一个示例中,面部验证设备将当前图像特征值与基于用于训练神经网络的多个面部图像的相应的图像特征值的范围进行比较,并且确定当前图像特征值是否被包括在该范围中。神经网络可以是用于验证输入图像中的面部对象的神经网络,或者是用于对面部对象执行活性测试的神经网络。
基于用于训练的面部图像的图像特征值的范围可对应于以上参照图3描述的特征值范围,并且可被定义为根据示例的绝对范围或统计范围。针对绝对范围,范围的大小可通过用于训练的面部图像的图像特征值之中的最小图像特征值和最大图像特征值来确定。针对统计范围,范围的大小可基于用于训练的面部图像的图像特征值的平均值和标准差来确定。例如,统计范围可被定义在两侧离作为中心的平均值N个标准差的范围,其中,N表示正整数。
在操作440中,在当前图像特征值不满足定义的条件时,或者在当前图像特征值在范围之外时,面部验证设备调节当前面部图像,使得当前的面部图像的图像特征值被包括范围中。例如,在当前面部图像的色调值在范围之外时,面部验证设备调节当前面部图像的色调值,使得当前面部图像的色调值被包括在范围中。又例如,在当前面部图像中的面部对象的面部倾斜在范围之外时,面部验证设备旋转当前面部图像的面部区域,使得面部倾斜被包括在范围中。又例如,在当前面部图像的白平衡在范围之外时,面部验证设备调节当前面部图像的白平衡,使得当前面部图像的白平衡被包括在范围中。
在操作450中,面部验证设备确定面部验证结果。当在操作440中调节了当前面部图像时,面部验证设备将调节后的当前面部图像输入到神经网络。然而,当操作440没有被执行时,面部验证设备将在操作410中提取的当前面部图像输入到神经网络。神经网络输出与输入信息对应的特征值。面部验证设备确定从神经网络获得的特征值与由有效用户预先注册的特征值之间的相似度,并且当相似度大于阈值时确定面部验证成功。然而,当相似度小于或等于阈值时,面部验证设备确定面部验证不成功。有效用户的注册特征值也可通过神经网络来确定。
图5是示出面部验证设备的操作的示例的示图。
参照图5,面部验证设备500可执行活性检测和/或面部验证。面部验证设备500包括面部区域检测器510、预处理器520和验证器550。面部区域检测器510检测输入图像中的面部区域。面部区域检测器510使用作为非限制性示例的级联adaboost分类器和Viola-Jones检测器来检测面部区域。
预处理器520执行预处理过程以提高活性检测的结果的准确性。预处理器520包括特征值测量器530和特征值调节器540。特征值测量器530测量特性信息或图像特征值(在下文中,特征值)(例如,面部区域的色调、白平衡、亮度和伽玛值、指示包括在面部区域中的面部的倾斜程度的面部倾斜等)。
特征值调节器540确定通过特征值测量器530测量的特征值是否满足预设条件。响应于测量的特征值不满足该条件,特征值调节器540调节面部区域的特征值,使得特征值满足该条件。在一个示例中,特征值调节器540确定测量的特征值是否被包括在用于训练神经网络的面部图像的特征值的范围中。特征值调节器540调节面部区域的特征值,使得从输入图像中的面部区域测量的特征值被包括在用于训练神经网络的面部图像的特征值的范围中。
例如,当与例如面部区域的色调、白平衡、亮度和/或伽玛值相关联的特征值没有包括在预设范围中时,特征值调节器540调节特征值,使得特征值被包括在该范围中。又例如,当面部倾斜没有包括在预设范围中时,特征值调节器540旋转面部区域,使得面部倾斜被包括在该范围中。当特征值测量器530测量多个特征值,并且测量的特征值中的一个或多个特征值不满足条件时,特征值调节器540调节不满足条件的一个或多个特征值。
当特征值被调节时,验证器550基于具有调节后的特征值的面部区域对测试对象执行活性检测和/或面部验证,并提供活性检测和/或面部验证的结果。
例如,验证器550使用基于神经网络的活性检测模型来确定活性值,并且基于确定的活性值来确定测试对象是否是有生命的。在这个示例中,具有调节后的特征值的面部区域的信息(例如,像素值)被输入到活性检测模型,并且活性检测模型输出与输入信息对应的活性值。验证器550将输出的活性值和阈值进行比较,并确定对测试对象的活性检测的结果。当通过特征值测量器530测量的特征值满足条件时(例如,当测量的特征值被包括在定义的特征值范围中时),特征值调节器540不调节特征值,并且验证器550立即基于通过面部区域检测器510检测的面部区域执行活性检测。
在一个示例中,当作为活性检测的结果测试对象被确定为真实的对象时,面部验证被执行。在这个示例中,当通过特征值测量器530测量的特征值不满足条件时(例如,当测量的特征值没有包括在定义的特征值范围中时),验证器550将具有通过特征值调节器540调节的特征值的面部区域输入到神经网络,以提取特征值。当通过特征值测量器530测量的特征值满足条件时(例如,当测量的特征值被包括在定义的特征值范围中时),验证器550将针对其特征值没有被调节的面部区域输入到神经网络,以提取特征值。
验证器550将从神经网络获得或输出的特征值与预先注册的有效用户的特征值进行比较,并响应于两个特征值之间的相似度大于阈值而确定面部验证成功。然而,响应于相似度小于或等于阈值,验证器550确定面部验证不成功。
预处理器520通过预处理操作,将在用于活性检测和/或面部验证的神经网络的训练处理中的未学习或训练或者未完全学习或训练的边角情况变换为完全训练的情况,从而提高处理边角情况的准确性。这里,因为不存在与边角情况对应的训练数据,或者存在少量的训练数据,所以可能不容易训练神经网络。然而,上述预处理器520的预处理操作可实现在保持神经网络的基本识别性能的同时,活性检测和/或面部验证针对这样的边角情况被鲁棒地执行。
图6是示出绝对范围和统计范围的示例的示图。
预先定义的范围可用于确定输入图像中的面部区域是否适合或期望用于活性检测或面部验证。该范围可对应于用于训练用于获得活性值或特征值的神经网络的多个面部图像(在下文中,训练图像)的图像特征值的范围。每个训练图像可具有图像特征值,该范围可基于训练图像的相应的图像特征值的分布来确定。例如,当输入图像的图像特征值在该范围之外时(例如,当图像特征值没有包括在该范围内时),预处理操作可被执行以调节输入图像,使得输入图像的图像特征值被包括在该范围中。
在一个示例中,该范围可以是被定义为训练图像的图像特征值之中的最小图像特征值与最大图像特征值之间的范围的绝对范围。在另一示例中,该范围可以是将基于训练图像的图像特征值的分布特性(例如,平均值和标准差)确定的统计范围。
参照图6,曲线600示出训练图像的图像特征值的分布。在曲线600中,绝对范围对应于图像特征值之中的最小图像特征值与最大图像特征值之间的范围R5。根据示例,统计范围可以以各种方式被确定。例如,统计范围对应于范围R1、范围R2、范围R3或范围R4,范围R1指示在两侧离训练图像的图像特征值的作为中心的平均值m一个标准差σ的范围,范围R2指示在两侧离平均值m两个标准差的范围,范围R3指示在两侧离平均值m三个标准差的范围,范围R4指示在两侧离平均值m四个标准差的范围。
图7是示出用于调节色调的预处理操作的示例的示图。
参照图7,输入图像中的面部区域710具备具有异常值的色调。特征值测量器530测量面部区域710的色调。例如,特征值测量器530基于面部区域710的蓝色B颜色元素与绿色G颜色元素的比率,来测量与色调对应的特征值。特征值调节器540确定测量的特征值是否在预设范围或阈值范围中。
响应于特征值没有包括在阈值范围中,特征值调节器540对面部区域710执行预处理。特征值调节器540通过预处理获得面部区域720,通过该预处理,特征值调节器540通过将色调调节模型应用于面部区域710,来将面部区域710的色调调节为包括在阈值范围中的色调。验证器550基于通过预处理获得的面部区域720来执行活性检测和/或面部验证。
图8是示出调节面部倾斜的预处理操作的示例的示图。
参照图8,输入图像中的面部区域810包括倾斜了异常值的面部或具备具有异常值的面部倾斜。面部区域810的面部顺时针倾斜一定角度。当面部区域810被输入时,特征值测量器530测量面部区域810的面部倾斜。例如,特征值测量器530在面部区域810中检测与左眼、右眼和嘴巴两端对应的特征点,并基于参考线(例如,垂直线或水平线)与确定的直线之间形成的角度来测量面部倾斜,确定的直线经过与左眼和右眼对应的特征点之间的确定的第一中心点以及与嘴巴两端对应的特征点之间的确定的第二中心点。
特征值调节器540确定测量的面部倾斜是否被包括在预设范围或阈值范围中。响应于面部倾斜没有包括在该范围中,特征值调节器540调节面部区域810的面部倾斜。特征值调节器540通过预处理获得面部区域820,通过该预处理,特征值调节器540将面部区域810旋转一定角度,使得面部倾斜被包括在该范围中。验证器550基于通过预处理获得的面部区域820执行活性检测和/或面部验证。
图9A和图9B是示出活性检测方法的示例的示图。
参照图9A,在包括测试对象的输入图像910中检测整个面部区域920,并且确定包括整个面部区域920的部分的局部面部区域930。
在一个示例中,与整个面部区域920对应的第一图像925的图像信息被输入到第一活性检测模型940,并且第一活性检测模型940输出与第一图像925对应的第一活性值。第一图像925可以是通过对整个面部区域920执行图像归一化(作为非限制性示例,大小调节和仿射变换)而获得的图像。此外,与局部面部区域930对应的第二图像935的图像信息被输入到第二活性检测模型950,并且第二活性检测模型950输出与第二图像935对应的第二活性值。第二图像935可以是通过对局部面部区域930执行图像归一化而获得的图像。此外,与输入图像910的整个区域对应的第三图像915的图像信息被输入到第三活性检测模型960,并且第三活性检测模型960输出与第三图像915对应的第三活性值。第三图像915可与输入图像910相同,或者可以是通过对输入图像910执行图像归一化而获得的图像。
在这个示例中,预处理操作可被执行以调节面部区域的特性信息或特征值,以使得面部区域的特征值满足预设条件,活性值(例如,第一活性值、第二活性值和第三活性值)可基于与预处理的图像对应的图像(例如,第一图像、第二图像和第三图像)来确定。
活性确定器970基于第一活性值、第二活性值和第三活性值确定最终活性值,并基于确定的最终活性值是否满足预设条件来确定测试对象是否是有生命的。作为非限制性示例,最终活性值可以是第一活性值、第二活性值和第三活性值的和、平均值或加权和。
图9A中示出的第一活性检测模型940、第二活性检测模型950和第三活性检测模型960可通过如图9B的示例中所示的单个活性检测模型980来实现。在图9B的示例中,第一图像925的图像信息、第二图像935的图像信息和第三图像915的图像信息被输入到活性检测模型980的至少一个输入层。例如,第一图像925的图像信息、第二图像935的图像信息和第三图像915的图像信息被输入到活性检测模型980的不同的输入层,或者被彼此组合以被输入到活性检测模型980的单个输入层。然后,活性检测模型980输出分别与第一图像925、第二图像935和第三图像915对应的活性值,活性确定器990基于活性值是否满足预设条件来确定测试对象是否是有生命的。
图10是示出面部验证设备的示例的示图。
面部验证设备1000可对包括在输入图像中的对象执行面部验证。面部验证设备1000可在面部验证期间执行活性检测,并且基于活性检测的结果来提供面部验证的结果。面部验证设备1000可执行在此关于活性检测或面部验证描述的一个或多个或全部操作或阶段或方法,并且向用户提供活性检测的结果或面部验证的结果。
参照图10,面部验证设备1000包括处理器1010和存储器1020。存储器1020可连接到处理器1010,并且存储可由处理器1010执行的指令、将由处理器1010处理的数据和/或由处理器1010处理的数据。
处理器1010可执行以上参照图1至图9B的关于活性检测和/或面部验证描述的一个或多个或全部操作或阶段或方法。在这个示例中,针对活性检测和/或面部验证,处理器1010可使用利用多个面部图像训练的网络,每个面部图像具有图像特征值。在这个示例中,神经网络可用作对输入图像中的面部对象执行活性检测或验证面部对象的网络。
针对活性检测,处理器1010可在输入图像中检测作为活性检测的测试对象的面部区域,并测量检测的面部区域的特性信息(或下文中,特征值)。处理器1010可测量特征值(作为非限制性示例,面部区域的色调、白平衡、亮度和伽马值以及包括在面部区域中的面部的面部倾斜)。
处理器1010可确定测量的特征值是否满足条件。响应于确定特征值不满足条件,处理器1010可执行预处理以调节特征值。例如,当特征值(诸如,面部区域的色调、白平衡、亮度和/或伽马值的特征值)没有包括在预设范围中时,处理器1010可调节面部区域的特征值,使得特征值包括在该范围中。又例如,当特征值(诸如,面部倾斜)没有包括在预设范围中时,处理器1010可旋转面部区域,使得面部倾斜被包括在该范围中。然后,处理器1010可基于具有调节后的特征值的面部区域来执行活性检测。
此外,响应于确定面部区域的特征值满足条件,处理器1010可基于在输入图像中检测的面部区域来执行活性检测,而无需调节特征值。
在一个示例中,处理器1010可使用基于训练的神经网络的活性检测模型来获得活性值,将获得的活性值和阈值进行比较,并基于比较的结果来确定活性检测的结果。例如,响应于活性值大于阈值,处理器1010可将测试对象确定为真实的对象。在这个示例中,响应于活性值小于或等于阈值,处理器1010可将测试对象确定为假冒的对象。
针对面部验证,处理器1010可从输入图像提取面部区域的当前面部图像,并且计算当前面部图像的当前图像特征值。处理器1010可将当前图像特征值与用于训练神经网络的面部图像的相应的图像特征值的范围进行比较,并且确定当前图像特征值是否被包括在该范围中。
在一个示例中,图像特征值的范围可以是将基于用于训练神经网络的面部图像的图像特征值之中的最小图像特征值和最大图像特征值确定的绝对范围。在绝对范围中,最小值可以是最小图像特征值,并且最大值可以是最大图像特征值。
在另一示例中,图像特征值的范围可以是将基于用于训练神经网络的面部图像的图像特征值的分布特性来确定的统计范围。分布特性可包括例如图像特征值的平均值和标准差。
在当前图像特征值在该范围之外时,处理器1010可调节当前面部图像,使得当前面部图像的图像特征值被包括在该范围中,并且将调节后的当前面部图像输入到神经网络。这里,神经网络可输出与输入信息对应的特征值。
例如,为了调节当前面部图像,处理器1010计算当前面部图像的色调值。在这个示例中,当计算的色调值在该范围之外时,处理器1010调节当前面部图像的色调值,使得当前面部图像的色调值被包括在该范围中。又例如,处理器1010计算指示当前面部图像中的面部的倾斜程度的面部倾斜。在这个示例中,当计算的面部倾斜在该范围之外时,处理器1010旋转当前面部图像的面部区域,使得面部倾斜被包括在该范围中。又例如,处理器1010计算当前面部图像中的面部区域的白平衡。在这个示例中,当计算的白平衡在该范围之外时,处理器1010调节计算的当前面部图像的白平衡,使得白平衡被包括在该范围中。
处理器1010可将通过神经网络获得的特征值与预先注册的特征值进行比较,并且基于两个特征值之间的相似度来确定面部验证的结果。例如,响应于相似度大于阈值,处理器1010可确定面部验证成功。响应于相似度小于或等于阈值,处理器1010可确定面部验证不成功。
处理器1010可基于活性检测的结果或面部验证的结果来生成控制信号。例如,处理器1010可基于这样的结果生成用于确定允许还是阻止对象的访问的控制信号,或者用于确定驳回还是执行来自对象的请求(例如,执行相应的功能的请求)的控制信号。
图11是示出电子设备的示例的示图。
电子设备1100可对包括在输入图像中的测试对象执行活性检测和/或面部验证。电子设备1100可对应于图1中示出的电子设备120,并且执行图10中示出的面部验证设备1000的功能或操作。
参照图11,电子设备1100包括处理器1110、存储器1120、相机1130、存储装置1140、输入装置1150、输出装置1160和网络接口1170。处理器1110、存储器1120、相机1130、存储装置1140、输入装置1150、输出装置1160和网络接口1170可通过通信总线1180彼此通信。
处理器1110可执行功能并执行指令以执行活性检测和/或面部验证。例如,处理器1110可处理存储在存储器1120或存储装置1140中的指令。处理器1110可执行以上参照图1至图10描述的一个或多个或全部操作或阶段或方法。
存储器1120可存储用于执行活性检测和/或面部验证的信息。存储器1120可包括计算机可读存储介质或计算机可读存储装置。存储器1120可存储将由处理器1110执行的指令以及执行活性检测和/或面部验证所需的信息。
相机1130可获得包括活性检测和/或面部验证的测试对象的静止图像、运动图像或视频图像、或者静止图像和运动图像两者。通过相机1130获得的图像可对应于在此描述的输入图像。
存储装置1140可包括计算机可读存储介质或计算机可读存储装置。存储装置1140可比存储器1120存储更大量的信息,并且可将信息存储相对长的时间段。作为非限制性示例,存储装置1140可包括磁硬盘、光盘、闪存和软盘。
输入装置1150可从用户接收输入(作为非限制性示例,触觉输入、视频输入、音频输入和触摸输入)。输入装置1150可从作为非限制性示例的键盘、鼠标、触摸屏、麦克风和用户检测输入,并且包括被配置为将检测的输入传送到电子设备1100的其他装置。
输出装置1160可通过视觉通道、音频通道或触觉通道向用户提供电子设备1100的输出。输出装置1160可包括作为非限制性示例的显示器、触摸屏、扬声器、振动发生器以及被配置为向用户提供输出的其他装置。网络接口1170可通过有线网络或无线网络与外部装置通信。
活性检测设备、面部验证设备500、面部验证设备1000、面部区域检测器510、预处理器520、特征值测量器530、特征值调节器540、验证器550、处理器1010、1110、存储器1020、1120、电子设备120、电子设备1100、相机1130、存储装置1140、输入装置1150、输出装置1160、网络接口1170、通信总线1180和在此针对图1至图11描述的其他设备、装置、单元、模块和其他组件通过硬件组件来实现。可用于执行在本申请中描述的操作的硬件组件的示例在合适的情况下包括:控制器、传感器、生成器、驱动器、存储器、比较器、算术逻辑模单元、加法器、减法器、乘法器、除法器、积分器和被配置为执行在本申请中描述的操作的任何其他电子组件。在其他示例中,执行在本申请中描述的操作的硬件组件中的一个或多个通过计算硬件(例如,通过一个或多个处理器或计算机)来实现。可通过一个或多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或被配置为以限定的方式响应并执行指令以实现期望的结果的任何其他装置或装置的组合)来实现处理器或计算机。在一个示例中,处理器或计算机包括或连接到存储由处理器或计算机执行的指令或软件的一个或多个存储器。由处理器或计算机实现的硬件组件可执行用于执行在本申请中描述的操作的指令或软件(诸如,操作系统(OS)和在OS上运行的一个或多个软件应用)。硬件组件还可响应于指令或软件的执行来访问、操控、处理、创建和存储数据。为了简单起见,单数术语“处理器”或“计算机”可用于本申请中描述的示例的描述,但是在其他的示例中,多个处理器或计算机可被使用,或者处理器或计算机可包括多个处理元件或多种类型的处理元件或二者。例如,单个硬件组件或者两个或更多个硬件组件可通过单个处理器、或者两个或更多个处理器、或者处理器和控制器来实现。一个或多个硬件组件可通过一个或多个处理器、或者处理器和控制器来实现,一个或多个其他硬件组件可通过一个或多个其他处理器、或者另外的处理器和另外的控制器来实现。一个或多个处理器、或者处理器和控制器可实现单个硬件组件或者两个或更多个硬件组件。硬件组件可具有不同的处理配置中的任何一个或多个,不同的处理配置的示例包括:单个处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理以及多指令多数据(MIMD)多处理。
图1至图11中示出的执行在本申请中描述的操作的方法通过计算硬件(例如,通过一个或多个处理器或计算机)来执行,计算硬件被实现为如上所述地执行指令或软件,以执行在本申请中描述的由所述方法执行的操作。例如,单个操作或者两个或更多个操作可通过单个处理器或者两个或更多个处理器、或者处理器和控制器来执行。一个或多个操作可通过一个或多个处理器、或者处理器和控制器来执行,并且一个或多个其他操作可通过一个或多个其他处理器、或者另外的处理器和另外的控制器来执行。一个或多个处理器、或者处理器和控制器可执行单个操作或者两个或更多个操作。
用于控制计算硬件(例如,一个或多个处理器或计算机)以实现硬件组件并执行如上所述的方法的指令或软件可被编写为计算机程序、代码段、指令或它们的任意组合,以单独地或共同地指示或配置一个或多个处理器或计算机如机器或专用计算机那样进行操作,以执行由如上所述的硬件组件和方法执行的操作。在一个示例中,指令或软件包括由一个或多个处理器或计算机直接执行的机器代码(诸如,由编译器产生的机器代码)。在另一示例中,指令或软件包括由一个或多个处理器或计算机使用解释器执行的高级代码。可基于附图中示出的框图和流程图以及说明书中的相应描述使用任何编程语言编写指令或软件,附图中示出的框图和流程图以及说明书中的相应描述公开了用于执行由如上所述的硬件组件和方法执行的操作的算法。
用于控制处理器或计算机以实现硬件组件并执行如上所述的方法的指令或软件、以及任何相关联的数据、数据文件以及数据结构被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中或一个或多个非暂时性计算机可读存储介质上。非暂时性计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储器、硬盘驱动器(HDD)、固态驱动器(SSD)、卡式存储器(诸如,多媒体卡或者微型卡(例如,安全数字(SD)或者极速数字(XD)))、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘、以及任何其他装置,任何其他装置被配置为以非暂时性方式存储指令或软件以及任何相关联的数据、数据文件和数据结构并将所述指令或软件以及任何相关联的数据、数据文件和数据结构提供给处理器或计算机,使得处理器或计算机可执行指令。
虽然本公开包括特定的示例,但是在理解本申请的公开之后将清楚,在不脱离权利要求及它们的等同物的精神和范围的情况下,可在这些示例中进行形式和细节的各种改变。在此描述的示例仅应被认为是描述性的,而不是出于限制的目的。每个示例中的特征或方面的描述将被认为可适用于其他示例中的类似特征或方面。如果描述的技术以不同的顺序被执行,和/或如果描述的系统、架构、装置或电路中的组件以不同的方式被组合,和/或由其他组件或它们的等同物替换或补充,则可实现合适的结果。
因此,公开的范围不是由具体实施方式限定,而是由权利要求及它们的等同物限定,并且在权利要求及它们的等同物的范围内的所有变化应被解释为包括在公开中。
Claims (37)
1.一种活性检测方法,包括:
检测输入图像中的面部区域;
测量检测的面部区域的特性信息;
响应于测量的特性信息被确定为不满足条件,通过调节面部区域的特性信息来生成调节后的面部区域;和
对调节后的面部区域执行活性检测。
2.根据权利要求1所述的活性检测方法,其中,测量面部区域的特性信息的步骤包括测量面部区域的色调值,
其中,生成调节后的面部区域的步骤包括:
响应于确定测量的色调值没有包括在预设的色调值范围中,通过将面部区域的色调值调节为包括在预设的色调值范围中的色调值,来执行生成调节后的面部区域的步骤。
3.根据权利要求2所述的活性检测方法,其中,调节面部区域的色调值的步骤包括:
通过将色调调节模型应用于面部区域来调节面部区域的色调值。
4.根据权利要求1所述的活性检测方法,其中,测量面部区域的特性信息的步骤包括测量指示包括在面部区域中的面部的倾斜程度的面部倾斜值,
其中,生成调节后的面部区域的步骤包括:
响应于确定测量的面部倾斜值没有包括在预设的面部倾斜值范围中,通过调节面部倾斜值,来执行生成调节后的面部区域的步骤。
5.根据权利要求4所述的活性检测方法,其中,测量面部倾斜值的步骤包括:
在面部区域中检测与左眼、右眼和嘴巴两端对应的特征点;和
基于检测的特征点测量面部倾斜值。
6.根据权利要求4所述的活性检测方法,其中,调节面部倾斜值的步骤包括:
通过基于测量的面部倾斜值旋转面部区域,来调节面部倾斜值。
7.根据权利要求1所述的活性检测方法,其中,测量面部区域的特性信息的步骤包括测量面部区域的白平衡值,
其中,生成调节后的面部区域的步骤包括:
响应于确定测量的白平衡值没有包括在预设的白平衡值范围中,通过将面部区域的白平衡值调节为包括在预设的白平衡值范围中的白平衡值,来执行生成调节后的面部区域的步骤。
8.根据权利要求1所述的活性检测方法,还包括:
响应于确定测量的特性信息满足条件,基于检测的面部区域来执行活性检测,而无需执行生成调节后的面部区域的步骤。
9.根据权利要求1所述的活性检测方法,其中,执行活性检测的步骤包括:
使用基于神经网络的活性检测模型执行活性检测。
10.根据权利要求1所述的活性检测方法,其中,测量的特性信息包括至少一种类型的特性信息,每种类型的特征信息被设置有对应的预设范围,
其中,生成调节后的面部区域的步骤包括:
响应于测量的任意类型的特性信息被确定为在对应的预设范围之外,通过将测量的所述任意类型的特性信息调节为包括在对应的预设范围中,来执行生成调节后的面部区域的步骤。
11.根据权利要求10所述的活性检测方法,其中,测量面部区域的特性信息的步骤包括:
测量面部区域的色调值、面部倾斜值和白平衡值中的至少一个,其中,色调值、面部倾斜值和白平衡值分别设置有预设的色调值范围、预设的面部倾斜值范围和预设的白平衡值范围。
12.根据权利要求1所述的活性检测方法,其中,神经网络用于对调节后的面部区域执行面部验证。
13.一种使用神经网络的面部验证方法,所述面部验证方法包括:
从输入图像提取面部区域的当前面部图像;
计算当前面部图像的当前图像特征值;
将当前图像特征值与面部训练图像的相应的图像特征值的范围进行比较;
响应于确定当前图像特征值在相应的图像特征值的范围之外,通过将当前面部图像的当前图像特征值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像;和
将调节后的当前面部图像输入到所述神经网络。
14.根据权利要求13所述的面部验证方法,其中,相应的图像特征值的范围是基于面部训练图像的图像特征值之中的最小图像特征值和最大图像特征值确定的绝对范围。
15.根据权利要求13所述的面部验证方法,其中,相应的图像特征值的范围是基于面部训练图像的图像特征值的分布特性来确定的统计范围,并且
其中,分布特性包括图像特征值的平均值和标准差。
16.根据权利要求15所述的面部验证方法,其中,统计范围是在两侧离作为中心的平均值1个标准差的范围、在两侧离作为中心的平均值2个标准差的范围、在两侧离作为中心的平均值3个标准差的范围和在两侧离作为中心的平均值4个标准差的范围中的一个。
17.根据权利要求13所述的面部验证方法,其中,所述神经网络被配置为对输入图像中的面部对象执行活性检测。
18.根据权利要求13所述的面部验证方法,其中,所述神经网络被配置为验证输入图像中的面部对象。
19.根据权利要求13所述的面部验证方法,其中,计算当前图像特征值的步骤包括:
计算当前面部图像的色调值,
其中,调节当前面部图像的步骤包括:
响应于确定计算的色调值在相应的图像特征值的范围之外,通过将当前面部图像的色调值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
20.根据权利要求13所述的面部验证方法,其中,计算当前图像特征值的步骤包括:
计算指示当前面部图像中的面部的倾斜程度的面部倾斜值,
其中,调节当前面部图像的步骤包括:
响应于确定计算的面部倾斜值在相应的图像特征值的范围之外,通过旋转当前面部图像的面部区域使得调节后的当前面部图像的面部倾斜值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
21.根据权利要求13所述的面部验证方法,其中,计算当前图像特征值的步骤包括:
计算当前面部图像中的面部区域的白平衡值,
其中,调节当前面部图像的步骤包括:
响应于确定计算的白平衡值在相应的图像特征值的范围之外,通过调节当前面部图像的白平衡值使得调节后的当前面部图像的白平衡值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
22.一种用于活性检测的设备,包括:
一个或多个处理器,被配置为:
检测输入图像中的面部区域;
测量检测的面部区域的特性信息;
响应于测量的特性信息被确定为不满足条件,通过调节面部区域的特性信息来生成调节后的面部区域;和
对调节后的面部区域执行活性检测。
23.根据权利要求22所述的设备,其中,所述一个或多个处理器还被配置为:
测量面部区域的色调值;和
响应于确定测量的色调值没有包括在预设的色调值范围中,通过将面部区域的色调值调节为包括在预设的色调值范围中的色调值,来执行生成调节后的面部区域的步骤。
24.根据权利要求22所述的设备,其中,所述一个或多个处理器还被配置为:
测量指示包括在面部区域中的面部的倾斜程度的面部倾斜值;和
响应于确定测量的面部倾斜值没有包括在预设的面部倾斜值范围中,通过调节面部倾斜值,来执行生成调节后的面部区域的步骤。
25.根据权利要求22所述的设备,其中,所述一个或多个处理器还被配置为:
测量面部区域的白平衡值;和
响应于确定测量的白平衡值没有包括在预设的白平衡值范围中,通过调节面部区域的白平衡值,来执行生成调节后的面部区域的步骤。
26.根据权利要求22所述的设备,其中,所述一个或多个处理器还被配置为:
响应于确定测量的特性信息满足条件,基于检测的面部区域来执行活性检测,而无需执行生成调节后的面部区域的步骤。
27.根据权利要求22所述的设备,其中,所述一个或多个处理器还被配置为:
使用基于神经网络的活性检测模型执行活性检测。
28.根据权利要求22所述的设备,其中,所述设备是以下项中的任何一个:智能电话、可穿戴装置、平板计算机、上网本、膝上型计算机、台式计算机、个人数字助理、机顶盒、家用电器、生物特征识别门锁、安全装置和车辆启动装置。
29.一种使用神经网络的设备,所述设备包括:
一个或多个处理器,被配置为:
从输入图像提取面部区域的当前面部图像;
计算当前面部图像的当前图像特征值;
将当前图像特征值与面部训练图像的相应的图像特征值的范围进行比较;
响应于确定当前图像特征值在相应的图像特征值的范围之外,通过调节当前面部图像使得当前面部图像的当前图像特征值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像;和
将调节后的当前面部图像输入到所述神经网络。
30.根据权利要求29所述的设备,其中,相应的图像特征值的范围是基于用于训练所述神经网络的面部训练图像的图像特征值之中的最小图像特征值和最大图像特征值确定的绝对范围。
31.根据权利要求29所述的设备,其中,相应的图像特征值的范围是基于用于训练所述神经网络的面部训练图像的图像特征值的分布特性来确定的统计范围,并且
其中,分布特性包括图像特征值的平均值和标准差。
32.根据权利要求29所述的设备,其中,所述神经网络用于验证输入图像中的面部对象。
33.根据权利要求29所述的设备,其中,所述一个或多个处理器被配置为:
计算当前面部图像的色调值;和
响应于确定计算的色调值在相应的图像特征值的范围之外,通过将当前面部图像的色调值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
34.根据权利要求29所述的设备,其中,所述一个或多个处理器被配置为:
计算指示当前面部图像中的面部的倾斜程度的面部倾斜值;和
响应于确定计算的面部倾斜值在相应的图像特征值的范围之外,通过旋转当前面部图像的面部区域使得调节后的当前面部图像的面部倾斜值包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
35.根据权利要求29所述的设备,其中,所述一个或多个处理器被配置为:
计算当前面部图像中的面部区域的白平衡值;和
响应于确定计算的白平衡值在相应的图像特征值的范围之外,通过将当前面部图像的白平衡值调节为包括在相应的图像特征值的范围中,来生成调节后的当前面部图像。
36.根据权利要求29所述的设备,其中,所述一个或多个处理器被配置为:
计算当前面部图像的色调值、面部倾斜值和白平衡值中的任何一个或任何两个或更多个的任何组合;和
响应于计算的色调值、计算的面部倾斜值和计算的白平衡值中的任何一个或任何两个或更多个的任何组合分别被确定为在相应的图像特征值的范围之外,通过分别将范围之外的图像特征值调节为在相应的图像特征值的范围内,来生成调节后的当前面部图像。
37.一种存储指令的非暂时性计算机可读存储介质,所述指令在由一个或多个处理器执行时,配置所述一个或多个处理器执行权利要求1至21中的任意一项所述的方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190051495 | 2019-05-02 | ||
KR10-2019-0051495 | 2019-05-02 | ||
KR10-2019-0105867 | 2019-08-28 | ||
KR1020190105867A KR102570071B1 (ko) | 2019-05-02 | 2019-08-28 | 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111881429A true CN111881429A (zh) | 2020-11-03 |
Family
ID=70289717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010217511.4A Pending CN111881429A (zh) | 2019-05-02 | 2020-03-25 | 活性检测方法和设备以及面部验证方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11804070B2 (zh) |
EP (1) | EP3734503B1 (zh) |
JP (1) | JP7191061B2 (zh) |
CN (1) | CN111881429A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114202806A (zh) * | 2021-11-26 | 2022-03-18 | 北京百度网讯科技有限公司 | 活体检测方法、装置、电子设备和存储介质 |
CN114596638A (zh) * | 2020-11-30 | 2022-06-07 | 华为技术有限公司 | 人脸活体检测方法、装置及存储介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11804070B2 (en) * | 2019-05-02 | 2023-10-31 | Samsung Electronics Co., Ltd. | Method and apparatus with liveness detection |
US11157811B2 (en) * | 2019-10-28 | 2021-10-26 | International Business Machines Corporation | Stub image generation for neural network training |
EP4318386A4 (en) | 2021-03-30 | 2024-04-03 | NEC Corporation | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM |
JP2023161524A (ja) * | 2022-04-25 | 2023-11-07 | 株式会社日立製作所 | 生体認証システムおよび認証方法 |
EP4332918A1 (en) * | 2022-08-29 | 2024-03-06 | Thales Dis France Sas | System for liveness determination using several models |
JP2024066658A (ja) * | 2022-11-02 | 2024-05-16 | ソフトバンク株式会社 | 認証装置、プログラム、及び認証方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008191743A (ja) * | 2007-02-01 | 2008-08-21 | Omron Corp | 顔認証装置 |
CN108292363A (zh) * | 2016-07-22 | 2018-07-17 | 日电实验室美国公司 | 用于防欺骗面部识别的活体检测 |
US20180276455A1 (en) * | 2017-03-27 | 2018-09-27 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
KR20180109594A (ko) * | 2017-03-28 | 2018-10-08 | 삼성전자주식회사 | 얼굴 인증을 위한 장치 및 방법 |
CN108664880A (zh) * | 2017-03-27 | 2018-10-16 | 三星电子株式会社 | 活性测试方法和设备 |
US20180349682A1 (en) * | 2017-05-31 | 2018-12-06 | Facebook, Inc. | Face liveness detection |
US20190122404A1 (en) * | 2016-03-02 | 2019-04-25 | Holition Limited | Locating and augmenting object features in images |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004055735A1 (ja) * | 2002-12-16 | 2004-07-01 | Canon Kabushiki Kaisha | パターン識別方法、その装置及びそのプログラム |
JP4845755B2 (ja) | 2007-01-30 | 2011-12-28 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP4994311B2 (ja) | 2007-06-18 | 2012-08-08 | 富士フイルム株式会社 | 顔検出方法、顔検出装置及びデジタルカメラ |
JP4999570B2 (ja) * | 2007-06-18 | 2012-08-15 | キヤノン株式会社 | 表情認識装置及び方法、並びに撮像装置 |
JP5109564B2 (ja) * | 2007-10-02 | 2012-12-26 | ソニー株式会社 | 画像処理装置、撮像装置、これらにおける処理方法およびプログラム |
US9460601B2 (en) * | 2009-09-20 | 2016-10-04 | Tibet MIMAR | Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance |
JP2012198781A (ja) * | 2011-03-22 | 2012-10-18 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP6026119B2 (ja) | 2012-03-19 | 2016-11-16 | 株式会社東芝 | 生体情報処理装置 |
US9922238B2 (en) * | 2015-06-25 | 2018-03-20 | West Virginia University | Apparatuses, systems, and methods for confirming identity |
KR20170050465A (ko) | 2015-10-30 | 2017-05-11 | 에스케이텔레콤 주식회사 | 얼굴 인식 장치 및 방법 |
KR102114564B1 (ko) | 2015-10-30 | 2020-05-22 | 가부시키가이샤 모르포 | 학습 시스템, 학습 장치, 학습 방법, 학습 프로그램, 교사 데이터 작성 장치, 교사 데이터 작성 방법, 교사 데이터 작성 프로그램, 단말 장치 및 임계치 변경 장치 |
US20210279316A1 (en) * | 2016-07-29 | 2021-09-09 | Trusona, Inc. | Anti-replay authentication systems and methods |
KR102483642B1 (ko) | 2016-08-23 | 2023-01-02 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
US10565433B2 (en) | 2017-03-30 | 2020-02-18 | George Mason University | Age invariant face recognition using convolutional neural networks and set distances |
GB2561607B (en) * | 2017-04-21 | 2022-03-23 | Sita Advanced Travel Solutions Ltd | Detection System, Detection device and method therefor |
CN107480725A (zh) | 2017-08-23 | 2017-12-15 | 京东方科技集团股份有限公司 | 基于深度学习的图像识别方法、装置和计算机设备 |
US11804070B2 (en) * | 2019-05-02 | 2023-10-31 | Samsung Electronics Co., Ltd. | Method and apparatus with liveness detection |
US11335094B2 (en) * | 2019-08-13 | 2022-05-17 | Apple Inc. | Detecting fake videos |
KR20210116966A (ko) * | 2020-03-18 | 2021-09-28 | 삼성전자주식회사 | 타겟 트래킹 방법 및 장치 |
-
2020
- 2020-03-03 US US16/807,565 patent/US11804070B2/en active Active
- 2020-03-25 CN CN202010217511.4A patent/CN111881429A/zh active Pending
- 2020-04-15 EP EP20169680.4A patent/EP3734503B1/en active Active
- 2020-04-21 JP JP2020075172A patent/JP7191061B2/ja active Active
-
2023
- 2023-09-25 US US18/473,786 patent/US20240021014A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008191743A (ja) * | 2007-02-01 | 2008-08-21 | Omron Corp | 顔認証装置 |
US20190122404A1 (en) * | 2016-03-02 | 2019-04-25 | Holition Limited | Locating and augmenting object features in images |
CN108292363A (zh) * | 2016-07-22 | 2018-07-17 | 日电实验室美国公司 | 用于防欺骗面部识别的活体检测 |
US20180276455A1 (en) * | 2017-03-27 | 2018-09-27 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
CN108664880A (zh) * | 2017-03-27 | 2018-10-16 | 三星电子株式会社 | 活性测试方法和设备 |
KR20180109594A (ko) * | 2017-03-28 | 2018-10-08 | 삼성전자주식회사 | 얼굴 인증을 위한 장치 및 방법 |
US20180349682A1 (en) * | 2017-05-31 | 2018-12-06 | Facebook, Inc. | Face liveness detection |
Non-Patent Citations (1)
Title |
---|
HYUNG-KEUN JEE 等: "Liveness Detection for Embedded Face Recognition System", INTERNATIONAL JOURNAL OF BIOLOGICAL AND MEDICAL SCIENCES, 31 December 2006 (2006-12-31), pages 235 - 238 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114596638A (zh) * | 2020-11-30 | 2022-06-07 | 华为技术有限公司 | 人脸活体检测方法、装置及存储介质 |
CN114202806A (zh) * | 2021-11-26 | 2022-03-18 | 北京百度网讯科技有限公司 | 活体检测方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2020184331A (ja) | 2020-11-12 |
US20200349372A1 (en) | 2020-11-05 |
JP7191061B2 (ja) | 2022-12-16 |
EP3734503B1 (en) | 2024-05-01 |
EP3734503A1 (en) | 2020-11-04 |
US20240021014A1 (en) | 2024-01-18 |
US11804070B2 (en) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108073889B (zh) | 虹膜区域提取的方法和设备 | |
KR102455633B1 (ko) | 라이브니스 검사 방법 및 장치 | |
KR102387571B1 (ko) | 라이브니스 검사 방법 및 장치 | |
CN111881429A (zh) | 活性检测方法和设备以及面部验证方法和设备 | |
US11030470B2 (en) | Apparatus and method with liveness verification | |
US12014571B2 (en) | Method and apparatus with liveness verification | |
KR102483642B1 (ko) | 라이브니스 검사 방법 및 장치 | |
US11869272B2 (en) | Liveness test method and apparatus and biometric authentication method and apparatus | |
KR102434562B1 (ko) | 위조 지문 검출 방법 및 장치, 지문 인식 방법 및 장치 | |
US11625954B2 (en) | Method and apparatus with liveness testing | |
KR102352345B1 (ko) | 라이브니스 검사 방법 및 장치 | |
US10395112B2 (en) | Device and method of recognizing iris | |
KR102570071B1 (ko) | 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치 | |
CN115223208A (zh) | 具有生物特征伪造考虑的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |