CN113505756A - 人脸活体检测方法及装置 - Google Patents
人脸活体检测方法及装置 Download PDFInfo
- Publication number
- CN113505756A CN113505756A CN202110966357.5A CN202110966357A CN113505756A CN 113505756 A CN113505756 A CN 113505756A CN 202110966357 A CN202110966357 A CN 202110966357A CN 113505756 A CN113505756 A CN 113505756A
- Authority
- CN
- China
- Prior art keywords
- face
- face images
- attribute
- detection
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 152
- 238000001727 in vivo Methods 0.000 claims abstract description 4
- 210000000056 organ Anatomy 0.000 claims description 44
- 230000001815 facial effect Effects 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 9
- 238000013210 evaluation model Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
Abstract
本说明书实施例提供一种人脸活体检测方法,包括:首先,获取针对第一用户连续捕获的多张人脸图像;接着,针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,此两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;然后,将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
Description
技术领域
本说明书一个或多个实施例涉及机器学习技术领域,尤其涉及一种人脸活体检测方法及装置。
背景技术
活体检测是在一些身份验证场景确定对象真实生理特征的技术,人脸活体检测通常用在人脸识别应用中,验证用户是否为真实活体本人操作,从而抵御照片、换脸合成、面具、遮挡等攻击手段,从而防止用户身份被盗用,甄别欺诈行为,保证用户利益。
然而,随着人脸活体检测技术的广泛应用,对这项应用提出了更高的要求,如安全性和用户体验等的加强。因此,需要一种人脸活体检测方案,可以保证检测算法的安全性,同时,提高用户使用相关服务时的体验。
发明内容
本说明书一个或多个实施例描述了一种人脸活体检测方法及装置,在检测过程中,可以隐藏拍摄终端与用户之间的交互动作,从而有效抵御对检测算法的攻击,同时有效提升用户体验。
根据第一方面,提供一种人脸活体检测方法,包括:获取针对第一用户连续捕获的多张人脸图像;针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
在一个实施例中,获取针对第一用户连续捕获的多张人脸图像,包括:基于所述第一用户的用户终端,向其提示调整拍摄方式以改善人脸图像质量;在所述提示的过程中,通过所述用户终端连续拍摄所述多张人脸图像。
在一个具体的实施例中,所述提示调整拍摄方式包括:提示调整人脸相对所述用户终端的位置;和/或,提示调整拍摄环境的光线强弱。
在一个实施例中,针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,包括:确定所述多张人脸图像对应所述目标属性的多个属性值;基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像。
在一个具体的实施例中,当所述目标属性为人脸大小时,其中确定所述多张人脸图像对应所述目标属性的多个属性值,包括:将所述多张人脸图像分别输入训练好的人脸检测模型中,得到多张人脸图像对应的多个人脸区域;确定所述多个人脸区域对应的多个人脸区域面积。
在另一个具体的实施例中,当所述目标属性为面部器官大小时,其中确定所述多张人脸图像对应所述目标属性的多个属性值,包括:将所述多张人脸图像分别输入训练好的面部器官检测模型中,得到多张人脸图像对应的多个面部器官区域;确定所述多个面部器官区域对应的多个器官区域面积。
在又一个具体的实施例中,当所述目标属性为光线强度时,其中确定所述多张人脸图像对应所述目标属性的多个属性值,包括:将所述多张人脸图像分别输入训练好的光强评估模型中,得到多个光线强度。
另一方面,在一个具体的实施例中,基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像,包括:确定所述多个属性值中的最大值和最小值,得到对应的两张人脸图像。
在一个具体的实施例中,基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像,包括:从所述多张人脸图像中选取对应属性值之间的差异度大于预设阈值的两张人脸图像。
在一个实施例中,所述若干图像属性为多个图像属性;其中,在得到与所述目标属性对应的检测结果之后,所述方法还包括:基于与所述多个图像属性对应的多个检测结果,确定针对所述第一用户的最终检测结果。
在一个具体的实施例中,基于与所述多个图像属性对应的多个检测结果,确定针对所述第一用户的最终检测结果,包括:在所述多个检测结果均指示所述第一用户通过人脸活体检测的情况下,将所述最终检测结果确定为通过人脸活体检测。
根据第二方面,提供一种人脸活体检测装置,包括:图像获取单元,配置为获取针对第一用户连续捕获的多张人脸图像;图像选取单元,配置为针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;活体检测单元,配置为将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
根据第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当该计算机程序在计算机中执行时,令计算机执行上述第一方面中提供的方法。
根据第四方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现上述第一方面中提供的方法。
采用本说明书实施例提供的方法和装置,可以有效隐藏算法中实际用到的与人脸图像相关的用户交互信息,从而提高人脸活体检测算法的安全性,并且,利用属性差异较大的人脸图像对进行人脸活体检测,可以有效提升检测结果的准确度和可用性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出根据一个实施例的人脸活体检测的实施架构示意图;
图2示出根据一个实施例的人脸活体检测方法的流程示意图;
图3示出根据一个实施例的人脸活体检测装置的结构示意图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
目前,人脸活体检测技术被广泛应用。在一种检测方案中,通过要求用户进行眨眼、张嘴、摇头、点头等组合动作,使用人脸关键点定位和人脸追踪等技术,验证用户是否为真实活体本人操作。然而,这种方案暴露了检测算法中的用户交互动作,容易被攻击者利用并进行攻击。在另一种检测方案中,不与用户进行交互,然而,这种方案难以采集到变化较大的人脸图像,使得检测结果的可信度较低。
基于以上观察和分析,发明人提出一种新的人脸活体检测方法,可以有效隐藏算法中实际用到的人脸动作图像,从而提高检测算法的安全性,并且,可以有效提升检测结果的准确度和可用性。图1示出根据一个实施例的人脸活体检测的实施架构示意图,如图1所示,获取针对第一用户连续捕获的多张人脸图像,并基于该多张人脸图像构建与N(为正整数)个图像属性对应的N个人脸图像对,每对图像针对其所对应的图像属性具有足够的差异性;之后,将其中任意的第i个人脸图像对输入与第i个图像属性对应的第i个人脸活体检测模型中,得到第i个检测结果;接着,可以基于得到的N个检测结果,确定对第一用户进行人脸活体检测的最终检测结果。如此,可以安全、高效地得到精准的人脸检测结果。
下面结合具体的实施例,描述上述方法的具体实施步骤。图2示出根据一个实施例的人脸活体检测方法的流程示意图,所述方法的执行主体可以是任何具有计算、处理能力的服务器、装置或设备集群等。如图2所示,所述方法包括以下步骤:
步骤S210,获取针对第一用户连续捕获的多张人脸图像;步骤S220,针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;步骤S230,将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
对以上步骤的展开介绍如下:
首先,在步骤S210,获取针对第一用户连续捕获的多张人脸图像。
在一种实施方式中,可以使得用户在录入人脸图像时感知到是在对图像质量进行调整,进而实现对差异度较大的人脸图像的捕获。如此,可以避免要求用户做出特定动作组合,如眨眼、张嘴等,而导致的用户体验降低以及检测算法的安全性降低,同时,可以获取到足够多的变化较大(包括用户拍摄角度、拍摄环境的光线等)的人脸图像。
在一个实施例中,本步骤可以包括:基于第一用户的用户终端,从改善人脸图像质量的角度,提示该第一用户调整拍摄方式,并且,在此提示过程中,通过该用户终端连续拍摄上述多张人脸图像。在一个具体的实施例中,提示该第一用户调整拍摄方式可以包括:提示第一用户调整其人脸相对于其用户终端的位置。在一个例子中,提示第一用户将其人脸保持在屏幕图像的中心位置。在一个例子中,提示用户远离或靠近用户终端,以控制拍摄到的人脸尺寸,或者,以拍摄到其完整的人脸。在另一个具体的实施例中,提示该第一用户调整拍摄方式可以包括:提示第一用户调整拍摄环境的光线强弱,例如,提示当前环境光线过强,请第一用户移动至光线较暗的区域进行拍摄,又例如,提示当前拍摄环境较暗,请第一用户调高环境亮度。如此,用户会根据提示做出一些调整,由此针对调整过程连续捕捉的多张人脸图像中通常会存在差异显著的照片。
另一方面,在一个具体的实施例中,通过该用户终端连续拍摄上述多张人脸图像可以包括:按照预定时间间隔连续拍摄所述多张人脸图像。在另一个具体的实施例中,通过该用户终端连续拍摄上述多张人脸图像可以包括:连续多次拍摄,直到获取得到预定数量的人脸图像,作为上述多张人脸图像。
在另一种实施方式中,可以不对用户进行拍摄提示,而是由用户终端响应于拍摄功能的启动触发,快速连续拍摄得到上述多张人脸图像。
由上,可以获取针对第一用户拍摄的多张人脸图像。然后,在步骤S220,针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准。
需理解,文中的若干指代一个或多个,并且,若干图像属性可以是工作人员根据实际经验预先设定的,例如,若干图像属性可以包括图像中人脸区域的大小或面积、面部器官(如鼻子、眼睛、额头等)的大小或面积、光线强度等。可以将若干图像属性中的各个图像属性分别作为目标属性。
在一种实施方式中,本步骤可以包括:先确定上述多张人脸图像对应目标属性的多个属性值,再基于该多个属性值,从上述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像。
在一个实施例中,当目标属性为图像中的人脸大小时,相应多个属性值的确定可以包括:将上述多张人脸图像分别输入预先训练好的人脸检测模型中,得到多张人脸图像对应的多个人脸区域,并确定该多个人脸区域对应的多个人脸区域面积,作为人脸大小属性对应的多个属性值。在一个具体的实施例中,人脸检测模型可以基于卷积神经网络(Convolutional Neural Networks,CNN)或深度神经网络(Deep Neural Networks,DNN)实现。在一个具体的实施例中,人脸检测模型可以基于目标检测算法实现,具体,以人脸为目标对象训练目标检测模型,作为人脸检测模型。由此,将任一人脸图像输入训练好的人脸检测模型中,可以得到在该任一人脸图像中框选出人脸位置的回归框,进而将回归框所包围的区域作为对应的人脸区域。
在另一个实施例中,当目标属性为图像中的面部器官大小时,相应多个属性值的确定可以包括:将上述多张人脸图像分别输入预先训练好的面部器官检测模型中,得到多张人脸图像对应的多个面部器官区域,并确定该多个面部器官区域对应的多个器官区域面积,作为面部器官大小属性对应的多个属性值。在一个具体的实施例中,面部器官可以包括眼镜、鼻子、额头、嘴巴、耳朵等,上述面部器官大小可以是某个面部器官的大小,也可以是某几个面部器官总的大小。在一个具体的实施例中,面部器官检测模型可以基于CNN网络或DNN网络实现。
在一个具体的实施例中,面部器官检测模型可以基于目标检测算法实现,具体,以面部器官为目标对象训练目标检测模型,作为面部器官检测模型。由此,将任一人脸图像输入训练好的面部器官检测模型中,可以得到在该任一人脸图像中框选出面部器官位置的回归框,进而将回归框所包围的区域作为对应的面部器官区域。根据一个例子,上述面部器官大小对应多个面部器官的总的大小,相应地,上述面部器官检测模型可以包括多个子模型,用于对应标定出多个面部器官在任一人脸图像中的多个子区域,从而将该多个子区域的面积总和确定为该任一人脸图像对应的面部器官大小。
在又一个实施例中,当目标属性为图像中的环境光线强度时,相应多个属性值的确定可以包括:将上述多张人脸图像分别输入预先训练好的光强评估模型中,得到多个光照强度。在一个具体的实施例中,光强评估模型可以基于CNN网络或DNN网络实现。
以上,以目标属性为图像中人脸大小、面部器官大小和环境光线强度为示例,对多张人脸图像对应目标属性的多个属性值的确定进行介绍。实际上,目标属性还可以是其他的图像属性,如图像色温、图像饱和度等。
进一步,基于确定出的多个属性值,从上述多张人脸图像中选取与目标属性对应的属性值之间的差异度达到预定标准的两张人脸图像。在一个实施例中,可以确定所述多个属性值中的最大值和最小值,进而将该最大值对应的人脸图像和最小值对应的人脸图像,作为与目标属性对应的两张人脸图像。在另一个实施例中,可以从所述多张人脸图像中选取对应属性值之间的差异度大于预设阈值(记作k)的两张人脸图像。在一个具体的实施例中,可以先从多个属性值中随机选取一个属性值(记作xa),再从其他属性值中选取一个大于xa+k的属性值xb,由此,将属性值xa对应的人脸图像和属性值xb对应的人脸图像,作为与目标属性对应的两张人脸图像。在另一个具体的实施例中,可以计算先多个属性值中任意两个属性值的差值,得到多个差值,再从该多个差值中大于预定阈值的若干差值中,随机选取一个差值,进而将该差值对应的两张人脸图像,作为与目标属性对应的两张人脸图像。
以上,可以基于多张人脸图像对应的目标属性的多个属性值,确定与该目标属性对应的两张人脸图像。
在另一种实施方式中,基于多张人脸图像,先确定其中某张人脸图像对应目标属性的属性值(记作x1),再逐个确定其他人脸图像的属性值,直到第j次确定出的属性值xj与属性值x1之间的差值大于预定阈值,则停止确定剩余人脸图像对应目标属性的属性值,并将属性值x1对应的人脸图像和属性值xj对应的人脸图像,作为与目标属性对应的两张人脸图像。
由上,可以基于获取的多张人脸图像,从中选取出与目标属性对应的两张人脸图像,形成该目标属性下差异显著的人脸图像对。然后在步骤S230,将该人脸图像对输入预先训练好的与上述目标属性对应的人脸活体检测模型中,得到与该目标属性对应的检测结果。
在一个实施例中,人脸活体检测模型可以基于DNN网络、CNN网络、Fast CNN或Faster CNN实现。在一个实施例中,人脸活体检测模型可以实现为学习比较模型(Learningto compare model)。在一个实施例中,人脸活体检测模型和上述用于确定目标属性的属性值的机器学习模型(或简称属性值预测模型),可以是分别单独训练的,例如,先训练对应目标属性的属性值预测模型,再基于训练好的属性值预测模型和获取的多个训练图像样本,训练对应该目标属性的人脸活体检测模型。在另一个实施例中,与目标属性对应的人脸活体检测模型和属性值预测模型可以是联合训练的。
需理解,得到的与该目标属性对应的检测结果,指示根据该目标属性下的差异性图片所得到的人脸活体检测结果,例如,通过检测,即判定拍摄的人脸图像来自于真实用户活体,或者,未通过检测,即判定拍摄的人脸图像不是来自于真实用户活体,实际可能是对彩打人脸图像的复拍等。
由上,可以得到与目标属性对应的检测结果。进一步,在一种实施情况中,若上述若干图像属性为一个,则可以直接将此图像属性对应的检测结果作为最终的检测结果。在另一种实施情况中,上述若干图像属性为多个图像属性,相应,将此多个图像属性分别作为目标属性,可以得到该多个图像属性对应的多个检测结果,进而,在上述步骤S230之后,可以基于该多个检测结果,确定针对第一用户的最终检测结果。在一个实施例中,在多个检测结果中指示通过检测的结果达到预定比例(如70%或100%)的情况下,将最终检测结果确定为第一用户通过人脸活体检测,否则确定为未通过。在另一个实施例中,上述各个检测结果中包括指示通过检测的概率,基于此,在一个具体的实施例中,可以对这些概率进行求平均,在平均值大于预设阈值(如80%或90%)的情况下,将最终检测结果确定为第一用户通过人脸活体检测,否则确定为未通过;在另一个具体的实施例中,可以对上述多个图像属性赋予不同的权重,再对多个检测结果中包含的多个概率进行加权求和,在加权概率大于预设阈值(如60%或70%)的情况下,将最终检测结果确定为第一用户通过人脸活体检测,否则确定为未通过。
由上,可以确定出第一用户的最终人脸活体检测结果。根据另一方面的实施例,对于上述方法的执行,可以由提供人脸活体检测服务的系统执行的,在一种执行情况中,可以是由系统服务器执行;在另一种执行情况中,可以由系统中的客户端和服务器共同执行。具体,上述第一用户通过其客户端触发人脸活体检测功能,之后客户端对通过用户终端拍摄的多张人图像进行处理,选取出上述若干图像属性中各个图像属性对应的人脸图像对,并将该若干图像属性对应的若干人脸图像对上传至服务器,之后,服务器利用若干图像属性对应的若干人脸活体检测模型,对应处理该若干人脸图像对,得到若干检测结果,进而基于该若干检测结果确定针对第一用户的最终人脸活体检测结果。
综上,采用本说明书实施例披露的人脸活体检测方法,不需要用户做出特定的组合动作,可以有效隐藏算法中实际用到的人脸图像,从而提高检测算法的安全性,并且,利用属性差异较大的图像对进行人脸活体检测,可以有效提升检测结果的准确度和可用性。
与上述检测方法相对应的,本说明书实施例还披露一种检测装置。图3示出根据一个实施例的人脸活体检测装置的结构示意图,所述装置可以实现为任何具有计算、处理能力的服务器或设备集群等。如图3所示,所述装置300包括以下单元:
图像获取单元310,配置为获取针对第一用户连续捕获的多张人脸图像;图像选取单元320,配置为针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;活体检测单元330,配置为将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
在一个实施例中,所述图像获取单元310具体配置为:基于所述第一用户的用户终端,向其提示调整拍摄方式以改善人脸图像质量;在所述提示的过程中,通过所述用户终端连续拍摄所述多张人脸图像。
在一个具体的实施例中,所述提示调整拍摄方式包括:提示调整人脸相对所述用户终端的位置;和/或,提示调整拍摄环境的光线强弱。
在一个实施例中,所述图像选取单元320包括:属性值确定子单元321,配置为确定所述多张人脸图像对应所述目标属性的多个属性值;图像选取子单元322,配置为基于该多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像。
在一个具体的实施例中,当所述目标属性为人脸大小时,所述属性值确定子单元321具体配置为:将所述多张人脸图像分别输入训练好的人脸检测模型中,得到多张人脸图像对应的多个人脸区域;确定所述多个人脸区域对应的多个人脸区域面积。
在另一个具体的实施例中,当所述目标属性为面部器官大小时,所述属性值确定子单元321具体配置为:将所述多张人脸图像分别输入训练好的面部器官检测模型中,得到多张人脸图像对应的多个面部器官区域;确定所述多个面部器官区域对应的多个器官区域面积。
在又一个具体的实施例中,当所述目标属性为光线强度时,所述属性值确定子单元321具体配置为:将所述多张人脸图像分别输入训练好的光强评估模型中,得到多个光线强度。
另一方面,在一个具体的实施例中,所述图像选取子单元322具体配置为:确定所述多个属性值中的最大值和最小值,得到对应的两张人脸图像。
在一个具体的实施例中,所述图像选取子单元322具体配置为:从所述多张人脸图像中选取对应属性值之间的差异度大于预设阈值的两张人脸图像。
在一个具体的实施例中,所述若干图像属性为多个图像属性;所述装置300还包括:最终结果确定单元340,配置为基于与所述多个图像属性对应的多个检测结果,确定针对所述第一用户的最终检测结果。
在一个更具体的实施例中,所述最终结果确定单元340具体配置为:在所述多个检测结果均指示所述第一用户通过人脸活体检测的情况下,将所述最终检测结果确定为通过人脸活体检测。
综上,采用本说明书实施例披露的人脸活体检测装置,不需要用户做出特定的组合动作,可以有效隐藏算法中实际用到与人脸图像相关的用户交互信息,从而提高检测算法的安全性,并且,利用属性差异较大的图像对进行人脸活体检测,可以有效提升检测结果的准确度和可用性。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图2所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,该存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图2所描述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (24)
1.一种人脸活体检测方法,包括:
获取针对第一用户连续捕获的多张人脸图像;
针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;
将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
2.根据权利要求1所述的方法,其中,获取针对第一用户连续捕获的多张人脸图像,包括:
基于所述第一用户的用户终端,向其提示调整拍摄方式以改善人脸图像质量;
在所述提示的过程中,通过所述用户终端连续拍摄所述多张人脸图像。
3.根据权利要求2所述的方法,其中,所述提示调整拍摄方式包括:
提示调整人脸相对所述用户终端的位置;和/或,
提示调整拍摄环境的光线强弱。
4.根据权利要求1所述的方法,其中,针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,包括:
确定所述多张人脸图像对应所述目标属性的多个属性值;
基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像。
5.根据权利要求4所述的方法,当所述目标属性为人脸大小时,其中确定所述多张人脸图像对应所述目标属性的多个属性值,包括:
将所述多张人脸图像分别输入训练好的人脸检测模型中,得到多张人脸图像对应的多个人脸区域;
确定所述多个人脸区域对应的多个人脸区域面积。
6.根据权利要求4所述的方法,当所述目标属性为面部器官大小时,其中确定所述多张人脸图像对应所述目标属性的多个属性值,包括:
将所述多张人脸图像分别输入训练好的面部器官检测模型中,得到多张人脸图像对应的多个面部器官区域;
确定所述多个面部器官区域对应的多个器官区域面积。
7.根据权利要求4所述的方法,当所述目标属性为光线强度时,其中确定所述多张人脸图像对应所述目标属性的多个属性值,包括:
将所述多张人脸图像分别输入训练好的光强评估模型中,得到多个光线强度。
8.根据权利要求4所述的方法,其中,基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像,包括:
确定所述多个属性值中的最大值和最小值,得到对应的两张人脸图像。
9.根据权利要求4所述的方法,其中,基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像,包括:
从所述多张人脸图像中选取对应属性值之间的差异度大于预设阈值的两张人脸图像。
10.根据权利要求1所述的方法,其中,所述若干图像属性为多个图像属性;其中,在得到与所述目标属性对应的检测结果之后,所述方法还包括:
基于与所述多个图像属性对应的多个检测结果,确定针对所述第一用户的最终检测结果。
11.根据权利要求10所述的方法,其中,基于与所述多个图像属性对应的多个检测结果,确定针对所述第一用户的最终检测结果,包括:
在所述多个检测结果均指示所述第一用户通过人脸活体检测的情况下,将所述最终检测结果确定为通过人脸活体检测。
12.一种人脸活体检测装置,包括:
图像获取单元,配置为获取针对第一用户连续捕获的多张人脸图像;
图像选取单元,配置为针对预先设定的若干图像属性中任一的目标属性,从所述多张人脸图像中选取两张人脸图像,所述两张人脸图像对应所述目标属性的两个属性值之间的差异度达到预定标准;
活体检测单元,配置为将所述两张人脸图像共同输入预先训练好的与所述目标属性对应的人脸活体检测模型中,得到与所述目标属性对应的检测结果。
13.根据权利要求12所述的装置,其中,所述图像获取单元具体配置为:
基于所述第一用户的用户终端,向其提示调整拍摄方式以改善人脸图像质量;
在所述提示的过程中,通过所述用户终端连续拍摄所述多张人脸图像。
14.根据权利要求13所述的装置,其中,所述提示调整拍摄方式包括:
提示调整人脸相对所述用户终端的位置;和/或,
提示调整拍摄环境的光线强弱。
15.根据权利要求12所述的装置,其中,所述图像选取单元包括:
属性值确定子单元,配置为确定所述多张人脸图像对应所述目标属性的多个属性值;
图像选取子单元,配置为基于所述多个属性值,从所述多张人脸图像中选取对应属性值之间的差异度达到预定标准的两张人脸图像。
16.根据权利要求15所述的装置,当所述目标属性为人脸大小时,所述属性值确定子单元具体配置为:
将所述多张人脸图像分别输入训练好的人脸检测模型中,得到多张人脸图像对应的多个人脸区域;
确定所述多个人脸区域对应的多个人脸区域面积。
17.根据权利要求15所述的装置,当所述目标属性为面部器官大小时,所述属性值确定子单元具体配置为:
将所述多张人脸图像分别输入训练好的面部器官检测模型中,得到多张人脸图像对应的多个面部器官区域;
确定所述多个面部器官区域对应的多个器官区域面积。
18.根据权利要求15所述的装置,当所述目标属性为光线强度时,所述属性值确定子单元具体配置为:
将所述多张人脸图像分别输入训练好的光强评估模型中,得到多个光线强度。
19.根据权利要求15所述的装置,其中,所述图像选取子单元具体配置为:
确定所述多个属性值中的最大值和最小值,得到对应的两张人脸图像。
20.根据权利要求15所述的装置,其中,所述图像选取子单元具体配置为:
从所述多张人脸图像中选取对应属性值之间的差异度大于预设阈值的两张人脸图像。
21.根据权利要求12所述的装置,其中,所述若干图像属性为多个图像属性;所述装置还包括:
最终结果确定单元,配置为基于与所述多个图像属性对应的多个检测结果,确定针对所述第一用户的最终检测结果。
22.根据权利要求21所述的装置,其中,所述最终结果确定单元具体配置为:
在所述多个检测结果均指示所述第一用户通过人脸活体检测的情况下,将所述最终检测结果确定为通过人脸活体检测。
23.一种计算机可读存储介质,其上存储有计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-11中任一项所述的方法。
24.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-11中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110966357.5A CN113505756A (zh) | 2021-08-23 | 2021-08-23 | 人脸活体检测方法及装置 |
PCT/CN2022/105054 WO2023024734A1 (zh) | 2021-08-23 | 2022-07-12 | 人脸活体检测方法及装置 |
US18/531,128 US20240104965A1 (en) | 2021-08-23 | 2023-12-06 | Face liveness detection methods and apparatuses |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110966357.5A CN113505756A (zh) | 2021-08-23 | 2021-08-23 | 人脸活体检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113505756A true CN113505756A (zh) | 2021-10-15 |
Family
ID=78015912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110966357.5A Pending CN113505756A (zh) | 2021-08-23 | 2021-08-23 | 人脸活体检测方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240104965A1 (zh) |
CN (1) | CN113505756A (zh) |
WO (1) | WO2023024734A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023024734A1 (zh) * | 2021-08-23 | 2023-03-02 | 支付宝(杭州)信息技术有限公司 | 人脸活体检测方法及装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116110111B (zh) * | 2023-03-23 | 2023-09-08 | 平安银行股份有限公司 | 人脸识别方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2806373A2 (en) * | 2013-05-22 | 2014-11-26 | ASUSTeK Computer Inc. | Image processing system and method of improving human face recognition |
CN105426827A (zh) * | 2015-11-09 | 2016-03-23 | 北京市商汤科技开发有限公司 | 活体验证方法、装置和系统 |
CN107066983A (zh) * | 2017-04-20 | 2017-08-18 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
CN109086645A (zh) * | 2017-06-13 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 人脸识别方法、装置以及虚假用户的识别方法、装置 |
CN111144365A (zh) * | 2019-12-31 | 2020-05-12 | 北京三快在线科技有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451547A (zh) * | 2017-07-17 | 2017-12-08 | 广东欧珀移动通信有限公司 | 识别活体的方法及相关产品 |
US11475714B2 (en) * | 2020-02-19 | 2022-10-18 | Motorola Solutions, Inc. | Systems and methods for detecting liveness in captured image data |
CN112966562A (zh) * | 2021-02-04 | 2021-06-15 | 深圳市街角电子商务有限公司 | 人脸活体检测方法、系统及存储介质 |
CN113505756A (zh) * | 2021-08-23 | 2021-10-15 | 支付宝(杭州)信息技术有限公司 | 人脸活体检测方法及装置 |
-
2021
- 2021-08-23 CN CN202110966357.5A patent/CN113505756A/zh active Pending
-
2022
- 2022-07-12 WO PCT/CN2022/105054 patent/WO2023024734A1/zh unknown
-
2023
- 2023-12-06 US US18/531,128 patent/US20240104965A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2806373A2 (en) * | 2013-05-22 | 2014-11-26 | ASUSTeK Computer Inc. | Image processing system and method of improving human face recognition |
CN105426827A (zh) * | 2015-11-09 | 2016-03-23 | 北京市商汤科技开发有限公司 | 活体验证方法、装置和系统 |
CN107066983A (zh) * | 2017-04-20 | 2017-08-18 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
CN109086645A (zh) * | 2017-06-13 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 人脸识别方法、装置以及虚假用户的识别方法、装置 |
CN111144365A (zh) * | 2019-12-31 | 2020-05-12 | 北京三快在线科技有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023024734A1 (zh) * | 2021-08-23 | 2023-03-02 | 支付宝(杭州)信息技术有限公司 | 人脸活体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2023024734A1 (zh) | 2023-03-02 |
US20240104965A1 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102483642B1 (ko) | 라이브니스 검사 방법 및 장치 | |
CN105184277B (zh) | 活体人脸识别方法以及装置 | |
CN111340008B (zh) | 对抗补丁生成、检测模型训练、对抗补丁防御方法及系统 | |
JP6722272B2 (ja) | 凝視情報を使用するユーザの識別および/または認証 | |
US10521012B2 (en) | Method for automatically identifying at least one user of an eye tracking device and eye tracking device | |
US10275672B2 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
Wu et al. | Robust image forgery detection against transmission over online social networks | |
CN104537292B (zh) | 用于生物特征验证的电子欺骗检测的方法和系统 | |
KR101495430B1 (ko) | 바이오메트릭 인증을 위한 품질 메트릭 | |
CN111274928B (zh) | 一种活体检测方法、装置、电子设备和存储介质 | |
US20200380279A1 (en) | Method and apparatus for liveness detection, electronic device, and storage medium | |
US20240104965A1 (en) | Face liveness detection methods and apparatuses | |
CN111738735B (zh) | 一种图像数据处理方法、装置和相关设备 | |
JP7191061B2 (ja) | ライブネス検査方法及び装置 | |
US11663853B2 (en) | Iris authentication device, iris authentication method, and recording medium | |
JP2022105583A (ja) | 顔生体検出方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN113361349A (zh) | 人脸活体检测方法、装置、电子设备和存储介质 | |
CN107832721B (zh) | 用于输出信息的方法和装置 | |
CN110612530A (zh) | 用于选择脸部处理中使用的帧的方法 | |
Ali et al. | Gaze stability for liveness detection | |
US11710353B2 (en) | Spoof detection based on challenge response analysis | |
US11195009B1 (en) | Infrared-based spoof detection | |
CN114387674A (zh) | 活体检测方法、系统、设备、存储介质及程序产品 | |
CN111767829B (zh) | 一种活体检测方法、装置、系统及存储介质 | |
CN110909704A (zh) | 一种活体检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |