CN111091112B - 活体检测方法及装置 - Google Patents
活体检测方法及装置 Download PDFInfo
- Publication number
- CN111091112B CN111091112B CN201911390063.1A CN201911390063A CN111091112B CN 111091112 B CN111091112 B CN 111091112B CN 201911390063 A CN201911390063 A CN 201911390063A CN 111091112 B CN111091112 B CN 111091112B
- Authority
- CN
- China
- Prior art keywords
- face
- user
- detected
- image
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请实施例提供了一种活体检测方法及装置,该方法包括:获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;针对每张脸部相关图像,使用与该脸部相关图像对应的活体检测模型计算该脸部相关图像所对应的活体检测分值;根据得到的各个活体检测分值确定待检测用户是否为活体用户;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种活体检测方法及装置。
背景技术
近年来,随着人工智能技术的快速发展,基于人的脸部特征信息进行身份识别的人脸识别技术在身份认证领域得到了广泛的应用,例如,在账户注册、支付、小区门禁等场景下都可以通过人脸识别进行身份认证。人脸识别技术的应用,大大简化了身份识别场景的操作流程,带来了很大的便利。但是,随着人脸识别的广泛应用,一些欺诈分子则通过将3D人脸面具、3D打印面具等假人脸贴在脸部进行欺诈行为,从而给人们带来安全隐患。
因此,如何有效的识别用户在进行身份认证时是否使用了假人脸成为当前亟需解决的技术问题。
发明内容
本说明书实施例的目的是提供一种活体检测方法及装置,以解决现有技术中无法有效识别用户在进行身份认证时是否使用了假人脸的问题。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供了一种活体检测方法,包括:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
针对每张所述脸部相关图像,使用该脸部相关图像所对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
根据各个所述活体检测分值确定所述待检测用户是否为活体用户。
本说明书实施例还提供了一种活体检测方法,包括:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
根据所述活体检测分值检测所述待检测用户是否为活体用户。
本说明书实施例还提供了一种活体检测装置,包括:
第一获取模块,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
计算模块,针对每张所述脸部相关图像,使用该脸部相关图像对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
确定模块,根据各个所述活体检测分值确定所述待检测用户是否为活体用户。
本说明书实施例还提供了一种活体检测装置,包括:
第二获取模块,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
处理模块,将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
检测模块,根据所述活体检测分值确定所述待检测用户是否为活体用户。
本说明书实施例还提供了一种活体检测设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
针对每张所述脸部相关图像,使用该脸部相关图像对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
根据各个所述活体检测分值确定所述待检测用户是否为活体用户。
本说明书实施例还提供了一种活体检测设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
根据所述活体检测分值检测所述待检测用户是否为活体用户。
本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
针对每张所述脸部相关图像,使用该脸部相关图像对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
根据各个所述活体检测分值确定所述待检测用户是否为活体用户。
本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性;
根据所述活体检测分值检测所述待检测用户是否为活体用户。
本实施例中的技术方案,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的活体检测方法的方法流程图之一;
图2为本说明书实施例提供的活体检测方法的方法流程图之二;
图3为本说明书实施例提供的活体检测方法的方法流程图之三;
图4为本说明书实施例提供的活体检测方法的方法流程图之四;
图5为本说明书实施例提供的活体检测方法的方法流程图之五;
图6(a)为本说明书实施例提供的活体检测方法中,获取的脸部相关图像之一;
图6(b)为本说明书实施例提供的活体检测方法中,获取的脸部相关图像之二;
图6(c)为本说明书实施例提供的活体检测方法中,获取的脸部相关图像之三;
图7为本说明书实施例提供的活体检测方法的方法流程图之六;
图8为本说明书实施例提供的活体检测方法的方法流程图之七;
图9为本说明书实施例提供的活体检测方法的方法流程图之八;
图10为本说明书实施例提供的活体检测装置的模块组成示意图之一;
图11为本说明书实施例提供的活体检测装置的模块组成示意图之二;
图12为本说明书实施例提供的活体检测设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
一般的,若是用户在使用3D打印面具或者3D面具等假人脸时,需要将假人脸贴在脸部,必然会存在假人脸与皮肤的贴合边缘。例如,若是假人脸为面部面具,则将假人脸贴合在脸部后,脸部周围处会存在与脸部皮肤的贴合边缘;还例如,若是假人脸为整个套在头上的,则在脖子周围或者胸部区域会存在与用户皮肤的贴合边缘。另外,由于在某些身份认证场景下,需要用户进行眨眼或者张嘴等动作,因此,假人脸的眼睛或者嘴巴等区域是镂空的,贴在脸部后,也会存在与皮肤的贴合边缘。
本说明书实施例的思想在于,基于假人脸贴在脸部后,会存在与皮肤的贴合边缘,因此,所获取的待检测用户的脸部相关图像也是为可能包含贴合边缘的图像,这样,基于所获取的面部相关图像上检测用户是否使用了假人脸。基于此,本说明书实施例提供了一种活体检测方法、装置、设备及存储介质,下述将一一详细进行介绍。
另外,需要说明的是,本说明书实施例中所提及到的活体用户指的是未使用3D打印面具或者3D面具等假人脸的真实用户。
图1为本说明书实施例提供的活体检测方法的方法流程图之一,图1所示的方法至少包括如下步骤:
步骤102,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离。
其中,在近拍摄距离下采集的为待检测用户的脸部局部区域的图像,如眼部区域图像、嘴巴区域图像等,在远拍摄距离下采集的为待检测用户的上半身图像,如包含从头部至胸部区域的图像。另外,在本说明书实施例中,上述第一设定值的取值需满足在远拍摄距离下能够采集到待检测用户的上半身,上述第二设定值的取值需满足在近拍摄距离下能够采集到待检测用户的脸部局部区域图像。而第一设定值和第二设定值的具体取值可以根据实际应用场景设置,本发明实施例并不对此进行限定。
在本说明书实施例中,为了提高活体检测的准确性,可以在介于第一设定值和第二设定值之间选取多个数值,作为中拍摄距离,即在多个中拍摄距离下采集多张脸部相关图像,例如,拍摄整个脸部区域的图像、拍摄从头部至脖子区域的图像等等。
另外,上述脸部局部区域可以为眼睛区域、嘴巴区域、鼻子区域等,例如,在一种具体实施方式中,若是在进行活体检测时,需要用户眨眼睛,为了能够实现眨眼睛这一动作,用户的眼睛区域不能被假人脸覆盖,即需要露在外面,这时眼睛区域会存在假人脸和皮肤的贴合边缘。具体的,上述局部区域的具体内容可以根据实际应用场景进行设置,本说明书实施例并不对此进行限定。
步骤104,针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算脸部相关图像所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性。
在一种具体实施方式中,当活体检测分值越高时,表明待检测用户为活体用户的可能性越大。
在本说明书实施例中,一张脸部相关图像对应一个活体检测模型,因此,在上述步骤104中,在具体实施时,分别确定出每张脸部相关图像所对应的活体检测模型,将该脸部相关图像输入至其所对应的活体检测模型中进行活体检测,一个活体检测模型输出一个活体检测分值。
当然,在某些实施方式中,为了保证活体检测的准确性以及图像的有效性,对于同一个脸部相关区域可能会采集多张图像,在这种情况下,将包含相同区域的一张或者多张脸部相关图像作为一种脸部相关图像,一种脸部相关图像对应一个活体检测模型。
例如,在一种具体实施方式中,若是脸部局部区域为眼部区域,且获取多张眼部区域的图像,则将所获取的眼部区域的图像作为一种脸部相关图像,对应一个活体检测模型。
步骤106,根据各个活体检测分值确定待检测用户是否为活体用户。
本说明书实施例中,所获取的待检测用户的多张脸部相关图像,至少包括脸部局部区域的图像和从头部至胸部区域的图像,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
具体的,上述步骤106中,根据各个活体检测分值确定待检测用户是否为活体用户至少可以通过如下两种方式实现:
实现方式一、
分别将每个活体检测分值与第一设定分值进行比对,若存在小于或等于第一设定分值的活体检测分值,则确定待检测用户为非活体用户。
一般的,活体检测分值越高,表征待检测用户为活体用户的可能性越大。因此,在本说明书实施例中,可以设置临界阈值,即上述第一设定分值,当活体检测分值大于第一设定分值时,则认为该活体检测分值所对应的脸部相关图像指示该待检测用户为活体用户,当活体检测分值小于或等于第一设定分值时,则认为该活体检测分值所对应的脸部相关图像指示该待检测用户为非活体用户。
在本说明书实施例中,一张脸部相关图像对应一个活体检测分值,因此,通过上述步骤104可以得到多个活体检测分值。在上述实现方式一中,在得到的多个活体检测分值中,只要存在一个小于或等于第一设定分值的活体检测值,即只要存在一张脸部相关图像指示待检测用户为非活体用户,则确定该待检测用户为活体用户。
图2为本说明书实施例提供的活体检测方法的方法流程图之二,图2所示的方法至少包括如下步骤:
步骤202,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离。
步骤204,针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算该脸部相关图像所对应的活体检测分值。
步骤206,分别将每个活体检测分值与第一设定分值进行比对。
步骤208,若存在小于或等于第一设定分值的活体检测分值,则确定待检测用户为非活体用户。
在本说明书实施例中,在得到的多个活体检测分值中,若是存在一个活体检测分值指示待检测用户为非活体用户,则确定该待检测用户为非活体用户,采用上述方式进行活体检测,增加了活体检测的严苛性,从而降低了被使用假人脸欺诈的概率,安全性更高。
实现方式二、
将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值;将上述活体检测融合值与第二设定分值进行比对,若该活体检测融合值小于或等于第二设定分值,则确定待检测用户为非活体用户。
在具体实施时,上述将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值,具体包括:
计算所有活体检测分值的加权和值,将上述加权和值确定为活体检测融合值。
具体实施时,假设获取的脸部相关图像为三张,则可以通过如下公式计算活体检测分值的加权和值;
P=α1*P1+α2*P2+α3*P3
其中,在上述公式中,P表示活体检测分值的加权和值,P1、P2和P3分别表示三张脸部相关图像所对应的活体检测分值,α1、α2和α3分别表示各活体检测分值所对应的权重值。
其中,在本说明书实施例中,为了计算所有活体检测分值的加权和值,需要预先确定各个活体检测分值所对应的权重值,在一种具体实施方式中,可以设置各个活体检测分值所对应的权重值相等,也可以依据各个活体检测分值所对应的脸部相关图像的重要性定的。
例如,在一种具体实施方式中,所获取多个拍摄距离下采集的待检测用户的多张脸部相关图像包括眼部图像、整个脸部图像和从头部至胸部区域的图像,在该应用场景下,进行身份认证时需要用户执行眨眼操作,即使待检测用户使用了假人脸,眼睛也需要露出来,因此,眼睛区域肯定存在于皮肤的贴合边缘,而假人脸的其余贴合边缘可能位于脖子区域、也可能位于胸部区域或者可能位于脸部边缘区域。在该种应用场景下,由于使用了假人脸,眼睛区域肯定会存在贴合边缘,因此可以将眼睛区域的图像所对应的活体检测分值的权重值设置的较高。当然,此处只是示例性说明,并不构成对本说明书实施例的限定。
图3为本说明书实施例提供的活体检测方法的方法流程图之三,图3所示的方法,至少包括如下步骤:
步骤302,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离。
步骤304,针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算该脸部相关图像所对应的活体检测分值。
步骤306,计算所有活体检测分值的加权和值,将上述加权和值确定为待检测用户的活体检测融合值。
步骤308,将上述得到的活体检测融合值与第二设定分值进行比对。
步骤310,若上述活体检测融合值小于或等于第二设定分值,则确定待检测用户为非活体用户。
在本说明书实施例中,将得到的所有活体检测分值的加权和值作为待检测用户所对应的活体检测融合值,基于该检测融合值判断待检测用户数是否为活体用户,这样将所有的活体检测分值的贡献均考虑在内,提高了活体检测的准确性。
另外,本说明书实施例所提供的活体检测方法的执行主体为活体检测装置,该活体检测装置可以应用于安装于各应用场景下的活体检测设备,也可以应用于服务器侧。
具体的,上述步骤102中,活体检测装置从图像采集设备获取待检测用户的多张脸部相关图像,在具体实施时,可以是在图像采集设备采集完成待检测用户所有的脸部相关图像之后,再从图像采集设备获取待检测用户的脸部相关图像;也可以是每当图像采集设备采集一张待检测用户的脸部相关图像,活体检测装置从图像采集设备获取一张脸部相关图像。不管是上述哪种情况,都需要通过图像采集设备采集待检测用户的脸部相关图像。
一般的,当待检测用户与图像采集设备之间的拍摄距离较大(大于第一设定值)时,待检测用户的较多的脸部相关区域可以位于图像采集框内,从而所采集的图像中所包含的内容较多,随着待检测用户与图像采集设备之间拍摄距离的不断缩小,位于图像采集设备的图像采集框内的脸部相关区域越来越小,当待检测用户与图像采集设备的摄像头之间的成像距离小到一定值(即小于第二设定值)时,只有脸部局部区域位于图像采集框内。因此,为了采集包含不同区域的脸部相关图像,则需要待检测用户不断的移动自身的位置或者调整图像采集设备的位置,这样操作起来比较麻烦,使得用户体验较差。
当然,为了采集包含不同脸部区域在内的脸部相关图像,除了移动待检测用户或者图像采集设备的位置以实现拍摄距离的调整外,还可以通过调整图像采集设备的放大倍率实现。因此,在本说明书实施例中,为了减少用户操作的复杂性,提高用户体验,可以通过调节图像采集设备的放大倍率的方式实现采集多张脸部相关图像。
因此,在执行上述步骤102,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,本说明书实施例提供的方法还包括如下步骤:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率时,控制图像采集设备采集待检测用户的脸部相关图像。
在具体实施时,可以在图像采集设备上显示图像采集框,在对待检测用户进行活体检测时,需要用户将整张脸按照要求置于图像采集框内,这时,图像采集设备的放大倍率为1.0X。然后,可以按照所需要采集的脸部相关图像所包含的区域,设置每张脸部相关图像所对应的放大倍率,并进行存储。
这样,在对用户进行活体检测时,首先控制图像采集设备的放大倍率设置为1.0X,并让待检测用户按照要求将脸部区域置于图像采集框内,在采集了该放大倍率下的脸部相关图像后,保持用户的位置不变,控制图像采集设备将其放大倍率依次调整为其他设定倍率值,并进行脸部相关图像的采集。
图4为本说明书实施例提供的活体检测方法的方法流程图之四,图4所示的方法至少包括如下步骤:
步骤402,在待检测用户位于指定区域后,控制图像采集设备将其放大倍率调整至设定倍率值。
步骤404,每次在图像采集设备将其放大倍率调整至设定倍率值后,控制图像采集设备采集待检测用户的脸部相关图像。
步骤406,获取图像采集设备所采集的多张脸部相关图像。
步骤408,针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算该脸部相关图像所对应的活体检测分值。
步骤410,根据各个活体检测分值确定待检测用户是否为活体用户。
在本说明书实施例中,通过预先设置各个设定放大倍率值,在对待检测用户进行活体检测时,直接控制图像采集设备将其放大倍率值调整至设定焦距值即可,实现了放大倍率的自动化设置,并且避免了在进行活体检测的过程中,用户不断的挪动自己的位置或者移动图像采集设备的位置,简化了用户的操作流程,使得用户体验较佳。
或者,在另外一种具体实施方式中,在执行上述步骤102,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,本说明书实施例提供的方法还包括如下步骤:
根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,控制图像采集设备在上述放大倍率下采集待检测用户的脸部相关图像。
具体的,当待检测用户位于图像采集设备的前方某一位置时,确定待检测用户与图像采集设备之间的距离,根据需要采集的脸部相关图像的要求,确定采集每张脸部相关图像时所需要的放大倍率,并将图像采集设备的放大倍率调整至该放大倍率值,然后控制图像采集设备进行脸部相关图像的采集。
其中,在本说明书实施例中,可以通过雷达、激光、红外等任意一种方式确定待检测用户与图像采集设备之间的距离,本说明书实施例并不对此进行限定。
图5为本说明书实施例提供的活体检测方法的方法流程图之五,图5所示的方法,至少包括如下步骤:
步骤502,当待检测用户位于图像采集设备前方时,确定待检测用户与图像采集设备之间的距离。
步骤504,根据待检测用户与图像采集设备之间的距离,确定采集每张脸部相关图像所对应的放大倍率。
步骤506,控制图像采集设备在该放大倍率下采集待检测用户的脸部相关图像。
步骤508,针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算该脸部相关图像所对应的活体检测分值。
步骤510,根据各个活体检测分值确定待检测用户是否为活体用户。
本说明书实施例中,根据待检测用户与图像采集设备之间的距离确定图像采集设备的放大倍率,这样在对待检测用户进行活体检测时,不需要待检测用户必须置于某个规定的区域中,待检测用户只要在图像采集设备的采集范围之内即可,灵活性更高,进一步增加了用户的使用体验。
在一种具体实施方式中,上述获取待检测用户的多张脸部相关图像,包括:
获取在近拍摄距离下采集的待检测用户的眼部区域的图像、在远拍摄距离下采集的待检测用户的从头部至胸部区域的图像以及在中拍摄距离下采集的待检测用户的整个脸部区域的图像。
其中,在本说明书实施例中,上述眼部区域的图像用于检测待检测用户的眼睛周围处是否存在与假人脸的贴合边缘,一种可能的眼部区域的图像如图6(a)所示。从头部至胸部区域的图像则是为了检测待检测用户的脖子或者胸部区域是否存在于假人脸的贴合边缘,一种可能的从头部至胸部区域的图像如图6(b)所示,一种可能的整个脸部区域的图像如图6(c)所示。在本说明书实施例中采集包含整个脸部区域的图像的目的也是为了检测待检测用户的脸部皮肤是否存在与假人脸的贴合边缘。
另外,需要说明的是,随着图像采集设备的放大倍率的不断增加,位于图像采集框内的脸部相关区域越小,所采集的图像越来越大,局部细节越来越清楚。下述将举例说明上述三张图像的具体采集过程。
例如,在一种具体实施方式中,当需要对待检测用户进行身份认证时,将图像采集设备的放大倍率调整至1.5X,在图像采集设上显示图像采集框,该图像采集框的为人脸轮廓形状,以使待检测用户按照要求将人脸置于图像采集框内。之后,让待检测用户保持姿势和位置不变,控制图采集设备将其放大倍率调整至1.0X,这时,待检测用户的脸部和胸部均置于图像采集框内,控制图采集设备进行图像的采集,所采集的图像如图6(b)所示。之后,再控制图像采集设备将其放大倍率调整至1.5X,这时应该只有待检测用户的脸部区域置于图像采集框内,控制图像采集设备进行图像的采集,采集的图像如图6(a)所示。最后,再控制图像采集设备将其放大倍率调整至2.0X,这时应该只有待检测用户的眼部区域置于图像采集框内,控制图像采集设备进行图像的采集,所采集的图像如图6(c)所示。
当然,此处只是示例性说明,并不构成对本说明书实施例的限定。
另外,需要说明的是,在本说明书实施例中,上述活体检测模型可以为卷积神经网络(Convolutional Neural Networks,CNN)模型。
具体的,在本说明书实施例中,在采用本说明书实施例提供的方法进行活体检测之前,还需要进行CNN模型的训练。具体的,可以针对每种拍摄距离下采集的脸部相关图像进行CNN模型的训练。例如,针对近拍摄距离下采集的眼部相关图像进行其对应的CNN模型的训练,可以预先采集大量的真实用户和佩戴有3D面具等假人脸的用户的眼部区域图像集合,基于所采集的图像集合进行相应的CNN模型的训练。同样的,针对远拍摄距离下采集的从头部至胸部区域的图像,预先采集大量的从头部至胸部区域的真实用户和佩戴有头罩式的3D面具等假人脸的用户的从头部至胸部区域的图像集合,基于这些图像集合进行相应的CNN模型的训练。其中,本说明书实施例并未对CNN模型的训练过程进行改进,因此,此处不再赘述CNN模型的具体训练过程。
图7为本说明书实施例提供的活体检测方法的方法流程图之六,图7所示的方法至少包括如下步骤:
步骤702,当待检测用户位于指定区域后,控制图像采集设备将其放大倍率调整至设定倍率值。
步骤704,在图像采集设备的放大倍率调整至设定倍率值后,控制图像采集设备采集待检测用户的脸部相关图像。
其中,所采集的脸部相关图像至少包括一张脸部局部区域的图像,一张整个脸部区域的图像,以及一张包从头部至胸部区域的图像。
步骤706,获取图像采集设备所采集的多张脸部相关图像。
步骤708,针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算该脸部相关图像所对应的活体检测分值。
步骤710,计算所有活体检测分值的加权和值,将上述加权和值确定为待检测用户的活体检测融合值。
步骤712,将上述得到的活体检测融合值与第二设定分值进行比对。
步骤714,若上述活体检测融合值小于或等于第二设定分值,则确定待检测用户为非活体用户。
以上对本说明书特定实施例进行了描述,其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中加载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描述的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书实施例提供的活体检测方法,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
对应于本说明书图1-图7所示实施例提供的活体检测方法,基于相同的思路,本说明书实施例还提供了一种活体检测方法,图8为本说明书实施例提供的活体检测方法的方法流程图之七,图8所示的方法至少包括如下步骤:
步骤802,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离。
步骤804,将多张脸部相关图像输入至同一个CNN模型进行融合处理,并计算待检测用户的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性。
步骤806,根据上述活体检测分值检测待检测用户是否为活体用户。
其中,在上述步骤806中,根据活体检测分值检测待检测用户是否为活体用户具体包括如下步骤:
将上述活体检测分值与设定分值进行比对;若活体检测分值小于或等于设定分值,则确定待检测用户为非活体用户。
在执行上述步骤802,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,本说明书实施例提供的方法还包括如下步骤:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,控制图像采集设备在上述放大倍率下采集待检测用户的脸部相关图像。
在一种具体实施方式中,上述获取多个拍摄距离下采集的待检测用户的多张脸部相关图像,包括:
获取在近拍摄距离下采集的待检测用户的眼部区域的图像、在远拍摄距离下采集的待检测用户的从头部至胸部区域的图像以及在中拍摄距离下采集的待检测用户的整个脸部区域的图像。
其中,上述各个步骤的具体实现过程可参考图1-图7所示实施例,此处不再赘述。
具体的,在本说明书实施例中,上述步骤804中,对多张脸部相关图像进行融合处理可以通过早融合、中融合和晚融合三种方式实现。
因此,在本说明书实施例中,上述将多张脸部相关图像输入至同一个CNN模型中,通过该CNN模型对多张脸部相关图像进行融合处理包括以下处理方式中的任意一种:
方式一、将多张脸部相关图像输入至同一个CNN模型中,通过多组卷积层和池化层并行对多张脸部相关图像进行处理,将得到的多个池化处理结果传输至一个全连接层进行融合处理;其中,一组卷积层和池化层用于对一张脸部相关图像进行处理。
在该种具体实施方式中,CNN模型包括多组卷积层和多组池化层,且卷积层和池化层的组数相等,一组卷积层用于对一张脸部相关图像进行卷积处理,一组池化层用于对一张脸部相关图像所对应的卷积结果进行池化处理。
在该种实施方式中,CNN模型中有多个图像输入接口,通过多个图像输入接口分别将多张脸部相关图像输入至CNN模型中,依次经过卷积层进行卷积,经过池化层进行池化处理,将得到的多个池化处理结果传输至全连接层,在全连接层进行池化处理结果的融合。
方式二、将多张脸部相关图像输入至同一个CNN模型中,在CNN模型的卷积层对多张脸部相关图像进行融合处理,将融合处理结果依次传输至池化层和全连接层以进行活体检测分值的计算。
在该种实施方式中,输入的仍然为多张脸部相关图像,只不过在脸部相关图像进行多次卷积处理时,在其中的某一个卷积层进行融合处理,之后再进行池化处理和全连接处理。
方式三、将多张脸部相关图像进行通道叠加,将叠加后得到的融合图像输入至CNN模型中,以通过CNN模型的卷积层、池化层和全连接层进行活体检测分值的计算。
在该种实现方式中,保持每张脸部相关图像的行像素和列像素的像素点的个数不变,对脸部相关图像进行通道叠加。
为便于理解本说明书实施例提供的活体检测方法,下述将以晚融合为例介绍本说明书实施例提供的方法。
图9为本说明书实施例提供的活体检测方法的方法流程图之八,图9所示的方法至少包括如下步骤:
步骤902,当待检测用户位于指定区域后,控制图像采集设备将其放大倍率调整至设定倍率值。
步骤904,在图像采集设备的放大倍率调整至设定倍率值后,控制图像采集设备采集待检测用户的脸部相关图像。
步骤906,获取图像采集设备所采集的多张脸部相关图像。
步骤908,将多张脸部相关图像输入至同一个CNN模型中,通过多组卷积层和池化层并行对多张脸部相关图像进行处理,将得到的多个池化处理结果传输至一个全连接层进行融合处理,并计算待检测用户的活体检测分值。
步骤910,从CNN模型获取待检测用户所对应的活体检测分值。
步骤912,将上述活体检测分值与设定分值进行比对。
步骤914,若上述活体检测分值小于或等于设定分值,则确定待检测用户为非活体用户。
本说明书实施例提供的活体检测方法,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
对应于本说明书图1-图7所示实施例提供的活体检测方法,基于相同的思路,本说明书实施例还提供了一种活体检测装置,用于执行图1-图7所示实施例提供的活体检测方法。图10为本说明书实施例提供的活体检测装置的模块组成示意图之一,图10所示的装置至少包括如下模块:
第一获取模块1002,用于获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离;
计算模块1004,用于针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算脸部相关图像所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性;
确定模块1006,用于根据各个活体检测分值确定待检测用户是否为活体用户。
可选的,本说明书实施例提供的装置还包括:
第一执行模块,用于控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率值时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
第二执行模块,用于根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,并控制图像采集设备在放大倍率下采集待检测用户的脸部相关图像。
可选的,上述第一获取模块1002,具体用于:
获取在近拍摄距离下采集的待检测用户的眼部区域的图像、在远拍摄距离下采集的待检测用户的从头部至胸部区域的图像以及在中拍摄距离下采集的待检测用户的整个脸部区域的图像。
可选的,上述确定模块1006,具体用于:
分别将每个活体检测分值与第一设定分值进行比对,若存在小于或等于第一设定分值的活体检测分值,则确定待检测用户为非活体用户;
或者,
将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值;将活体检测融合值与第二设定分值进行比对,若活体检测融合值小于或等于第二设定分值,则确定待检测用户为非活体用户。
可选的,上述确定模块1006,还具体用于:
计算所有活体检测分值的加权和值,将加权和值确定为活体检测融合值。
可选的,本说明书实施例提供的活体检测模型为CNN模型。
本说明书实施例的活体检测装置还可执行图1-图7中活体检测装置执行的方法,并实现活体检测装置在图1-图7所示实施例的功能,在此不再赘述。
本说明书实施例提供的活体检测装置,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
对应于本说明书图8-图9所示实施例提供的活体检测方法,基于相同的思路,本说明书实施例还提供了一种活体检测装置,用于执行图8-图9所示实施例提供的活体检测方法。图11为本说明书实施例提供的活体检测装置的模块组成示意图之二,图11所示的装置至少包括如下模块:
第二获取模块1102,用于获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离;
处理模块1104,用于将多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过CNN模型对多张脸部相关图像进行融合处理,并计算待检测用户所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性;
检测模块1106,用于根据活体检测分值确定待检测用户是否为活体用户。
可选的,上述处理模块1104,具体用于执行以下中的任意一种:
将多张脸部相关图像输入至同一个CNN模型中,通过多组卷积层和池化层并行对多张脸部相关图像进行处理,将得到的多个池化处理结果传输至一个全连接层进行融合处理;其中,一组卷积层和池化层用于对一张脸部相关图像进行处理;
将多张脸部相关图像输入至同一个CNN模型中,在CNN模型的卷积层对多张脸部相关图像进行融合处理,将融合处理结果依次传输至池化层和全连接层以进行活体检测分值的计算;
将多张脸部相关图像进行通道叠加,将叠加后得到的融合图像输入至CNN模型中,以通过CNN模型的卷积层、池化层和全连接层进行活体检测分值的计算。
可选的,本说明书实施例提供的装置,还包括:
第三执行模块,用于控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率值时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
第四执行模块,用于根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,并控制图像采集设备在放大倍率下采集待检测用户的脸部相关图像。
可选的,上述检测模块1106,具体用于:
将活体检测分值与设定分值进行比对;若活体检测分值小于或等于设定分值,则确定待检测用户为非活体用户。
本说明书实施例的活体检测装置还可执行图8-图9中活体检测装置执行的方法,并实现活体检测装置在图8-图9所示实施例的功能,在此不再赘述。
本说明书实施例提供的活体检测装置,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
进一步地,基于上述图1至图7所示的方法,本说明书实施例还提供了一种活体检测设备,如图12所示。
活体检测设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器1201和存储器1202,存储器1202中可以存储有一个或一个以上存储应用程序或数据。其中,存储器1202可以是短暂存储或持久存储。存储在存储器1202的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对活体检测设备中的一系列计算机可执行指令信息。更进一步地,处理器1201可以设置为与存储器1202通信,在活体检测设备上执行存储器1202中的一系列计算机可执行指令信息。活体检测设备还可以包括一个或一个以上电源1203,一个或一个以上有线或无线网络接口1204,一个或一个以上输入输出接口1205,一个或一个以上键盘1206等。
在一个具体的实施例中,活体检测设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对活体检测设备中的一系列计算机可执行指令信息,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令信息:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离;
针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算脸部相关图像所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性;
根据各个活体检测分值确定待检测用户是否为活体用户。
可选的,计算机可执行指令信息在被执行时,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,还可以执行如下步骤:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率值时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,控制图像采集设备在放大倍率下采集待检测用户的脸部相关图像。
可选的,计算机可执行指令信息在被执行时,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像,包括:
获取在近拍摄距离下采集的待检测用户的眼部区域的图像、在远拍摄距离下采集的待检测用户的从头部至胸部区域的图像以及在中拍摄距离下采集的待检测用户的整个脸部区域的图像。
可选的,计算机可执行指令信息在被执行时,根据各个活体检测分值确定待检测用户是否为活体用户,包括:
分别将每个活体检测分值与第一设定分值进行比对,若存在小于或等于第一设定分值的活体检测分值,则确定待检测用户为非活体用户;
或者,
将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值;将活体检测融合值与第二设定分值进行比对,若活体检测融合值小于或等于第二设定分值,则确定待检测用户为非活体用户。
可选的,计算机可执行指令信息在被执行时,将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值,包括:
计算所有活体检测分值的加权和值,将加权和值确定为活体检测融合值。
可选的,计算机可执行指令信息在被执行时,活体检测模型为神经卷积网络CNN模型。
本说明书实施例提供的活体检测设备,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
进一步地,基于上述图8至图9所示的方法,本说明书实施例还提供了一种活体检测设备,如图12所示。
在一个具体的实施例中,活体检测设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对活体检测设备中的一系列计算机可执行指令信息,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令信息:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离;
将多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过CNN模型对多张脸部相关图像进行融合处理,并计算待检测用户所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性;
根据活体检测分值检测待检测用户是否为活体用户。
可选的,计算机可执行指令信息在被执行时,将多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过CNN模型对多张脸部相关图像进行融合处理包括以下处理方式中的任意一种:
将多张脸部相关图像输入至同一个CNN模型中,通过多组卷积层和池化层并行对多张脸部相关图像进行处理,将得到的多个池化处理结果传输至一个全连接层进行融合处理;其中,一组卷积层和池化层用于对一张脸部相关图像进行处理;
将多张脸部相关图像输入至同一个CNN模型中,在CNN模型的卷积层对多张脸部相关图像进行融合处理,将融合处理结果依次传输至池化层和全连接层以进行活体检测分值的计算;
将多张脸部相关图像进行通道叠加,将叠加后得到的融合图像输入至CNN模型中,以通过CNN模型的卷积层、池化层和全连接层进行活体检测分值的计算。
可选的,计算机可执行指令信息在被执行时,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,还可以执行如下步骤:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率值时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,控制图像采集设备在放大倍率下采集待检测用户的脸部相关图像。
可选的,计算机可执行指令信息在被执行时,根据活体检测分值检测待检测用户是否为活体用户,包括:
将活体检测分值与设定分值进行比对;
若活体检测分值小于或等于设定分值,则确定待检测用户为非活体用户。
本说明书实施例提供的活体检测设备,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
进一步地,基于上述图1至图7所示的方法,本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令信息,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离;
针对每张脸部相关图像,使用该脸部相关图像对应的活体检测模型计算脸部相关图像所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性;
根据各个活体检测分值确定待检测用户是否为活体用户。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,还可以执行如下步骤:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率调整至设定倍率值时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,控制图像采集设备在放大倍率下采集待检测用户的脸部相关图像。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像,包括:
获取在近拍摄距离下采集的待检测用户的眼部区域的图像、在远拍摄距离下采集的待检测用户的从头部至胸部区域的图像以及在中拍摄距离下采集的待检测用户的整个脸部区域的图像。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,根据各个活体检测分值确定待检测用户是否为活体用户,包括:
分别将每个活体检测分值与第一设定分值进行比对,若存在小于或等于第一设定分值的活体检测分值,则确定待检测用户为非活体用户;
或者,
将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值;将活体检测融合值与第二设定分值进行比对,若活体检测融合值小于或等于第二设定分值,则确定待检测用户为非活体用户。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,将得到的所有活体检测分值进行融合处理,得到待检测用户所对应的活体检测融合值,包括:
计算所有活体检测分值的加权和值,将加权和值确定为活体检测融合值。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,活体检测模型为神经卷积网络CNN模型。
本说明书实施例提供的存储介质存储的计算机可执行指令信息在被处理器执行时,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
进一步地,基于上述图8至图9所示的方法,本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令信息,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离;
将多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过CNN模型对多张脸部相关图像进行融合处理,并计算待检测用户所对应的活体检测分值;其中,活体检测分值用于表征待检测用户为活体用户的可能性;
根据活体检测分值检测待检测用户是否为活体用户。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,将多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过CNN模型对多张脸部相关图像进行融合处理包括以下处理方式中的任意一种:
将多张脸部相关图像输入至同一个CNN模型中,通过多组卷积层和池化层并行对多张脸部相关图像进行处理,将得到的多个池化处理结果传输至一个全连接层进行融合处理;其中,一组卷积层和池化层用于对一张脸部相关图像进行处理;
将多张脸部相关图像输入至同一个CNN模型中,在CNN模型的卷积层对多张脸部相关图像进行融合处理,将融合处理结果依次传输至池化层和全连接层以进行活体检测分值的计算;
将多张脸部相关图像进行通道叠加,将叠加后得到的融合图像输入至CNN模型中,以通过CNN模型的卷积层、池化层和全连接层进行活体检测分值的计算。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,还可执行如下步骤:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制图像采集设备的放大倍率为设定倍率值时,控制图像采集设备采集待检测用户的脸部相关图像;
或者,
根据待检测用户与图像采集设备之间的距离确定每张脸部相关图像所对应的放大倍率,控制图像采集设备在放大倍率下采集待检测用户的脸部相关图像。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,根据活体检测分值检测待检测用户是否为活体用户,包括:
将活体检测分值与设定分值进行比对;
若活体检测分值小于或等于设定分值,则确定待检测用户为非活体用户。
本说明书实施例提供的存储介质存储的计算机可执行指令信息在被处理器执行时,所获取的为多个拍摄距离下采集的待检测用户的多张脸部相关图像,多个拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于第一设定值和第二设定值之间的中拍摄距离,这样,所获取的多张脸部相关图像中既包含近距离的局部区域图像,也包含远距离的半身图像,这样,若是用户使用了3D面具等假人脸,则在脸部局部区域或者脖子、胸部、脸的边缘处等会存在假人脸和皮肤的贴合边缘,因此,基于贴合边缘这一特征,通过获取的上述脸部相关图像和预先建立的活体检测模型,就可以检测待检测用户是否使用了假人脸,可以有效的识别待检测用户是否为活体用户。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令信息实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令信息到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令信息产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令信息也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令信息产生包括指令信息装置的制造品,该指令信息装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令信息也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令信息提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令信息、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令信息的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (17)
1.一种活体检测方法,包括:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
针对每张所述脸部相关图像,使用该脸部相关图像的拍摄距离类型对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,每个所述活体检测模型是基于一种拍摄距离类型下采集的脸部样本图像训练得到的,所述脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;
根据各个所述活体检测分值确定所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述拍摄距离类型下采集的所述脸部相关图像中是否包含贴合边缘特征有关。
2.如权利要求1所述的方法,所述获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,所述方法还包括:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制所述图像采集设备的放大倍率调整至所述设定倍率值时,控制所述图像采集设备采集所述待检测用户的脸部相关图像;
或者,
根据所述待检测用户与所述图像采集设备之间的距离确定每张所述脸部相关图像所对应的放大倍率,控制所述图像采集设备在所述放大倍率下采集所述待检测用户的脸部相关图像。
3.如权利要求1或2所述的方法,所述获取多个拍摄距离下采集的待检测用户的多张脸部相关图像,包括:
获取在所述近拍摄距离下采集的所述待检测用户的眼部区域的图像、在所述远拍摄距离下采集的所述待检测用户的从头部至胸部区域的图像以及在所述中拍摄距离下采集的所述待检测用户的整个脸部区域的图像。
4.如权利要求1或2所述的方法,所述根据各个所述活体检测分值确定所述待检测用户是否为活体用户,包括:
分别将每个所述活体检测分值与第一设定分值进行比对,若存在小于或等于所述第一设定分值的活体检测分值,则确定所述待检测用户为非活体用户;
或者,
将得到的所有所述活体检测分值进行融合处理,得到所述待检测用户所对应的活体检测融合值;将所述活体检测融合值与第二设定分值进行比对,若所述活体检测融合值小于或等于第二设定分值,则确定所述待检测用户为非活体用户。
5.如权利要求4所述的方法,所述将得到的所有所述活体检测分值进行融合处理,得到所述待检测用户所对应的活体检测融合值,包括:
计算所有所述活体检测分值的加权和值,将所述加权和值确定为所述活体检测融合值。
6.如权利要求1所述的方法,所述活体检测模型为神经卷积网络CNN模型。
7.一种活体检测方法,包括:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,用于训练所述CNN模型的脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;所述神经卷积网络CNN模型包括:多个输入通道、多组卷积层、至少一组池化层和一个全连接层,所述融合处理位于所述全连接层、所述卷积层和所述输入通道中任一项;
根据所述活体检测分值检测所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述脸部相关图像中是否包含贴合边缘特征有关。
8.如权利要求7所述的方法,所述将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理包括以下处理方式中的任意一种:
将所述多张脸部相关图像输入至同一个所述CNN模型中,通过多组卷积层和池化层并行对所述多张脸部相关图像进行处理,将得到的多个池化处理结果传输至一个全连接层进行融合处理;其中,一组卷积层和池化层用于对一张脸部相关图像进行处理;
将所述多张脸部相关图像输入至同一个所述CNN模型中,在所述CNN模型的卷积层对所述多张脸部相关图像进行融合处理,将融合处理结果依次传输至池化层和全连接层以进行所述活体检测分值的计算;
将所述多张脸部相关图像进行通道叠加,将叠加后得到的融合图像输入至所述CNN模型中,以通过所述CNN模型的卷积层、池化层和全连接层进行所述活体检测分值的计算。
9.如权利要求7或8所述的方法,所述获取多个拍摄距离下采集的待检测用户的多张脸部相关图像之前,所述方法还包括:
控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制所述图像采集设备的放大倍率调整至所述设定倍率值时,控制所述图像采集设备采集所述待检测用户的脸部相关图像;
或者,
根据所述待检测用户与所述图像采集设备之间的距离确定每张所述脸部相关图像所对应的放大倍率,控制所述图像采集设备在所述放大倍率下采集所述待检测用户的脸部相关图像。
10.如权利要求7所述的方法,所述根据所述活体检测分值检测所述待检测用户是否为活体用户,包括:
将所述活体检测分值与设定分值进行比对;
若所述活体检测分值小于或等于所述设定分值,则确定所述待检测用户为非活体用户。
11.一种活体检测装置,包括:
第一获取模块,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
计算模块,针对每张所述脸部相关图像,使用该脸部相关图像的拍摄距离类型对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,每个所述活体检测模型是基于一种拍摄距离类型下采集的脸部样本图像训练得到的,所述脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;
确定模块,根据各个所述活体检测分值确定所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述拍摄距离类型下采集的所述脸部相关图像中是否包含贴合边缘特征有关。
12.如权利要求11所述的装置,所述装置还包括:
第一执行模块,控制图像采集设备将其放大倍率调整至设定倍率值,并在每次控制所述图像采集设备的放大倍率调整至所述设定倍率值时,控制所述图像采集设备采集所述待检测用户的脸部相关图像;
或者,
第二执行模块,根据所述待检测用户与所述图像采集设备之间的距离确定每张所述脸部相关图像所对应的放大倍率,并控制所述图像采集设备在所述放大倍率下采集所述待检测用户的脸部相关图像。
13.一种活体检测装置,包括:
第二获取模块,获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
处理模块,将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,用于训练所述CNN模型的脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;所述神经卷积网络CNN模型包括:多个输入通道、多组卷积层、至少一组池化层和一个全连接层,所述融合处理位于所述全连接层、所述卷积层和所述输入通道中任一项;
检测模块,根据所述活体检测分值确定所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述脸部相关图像中是否包含贴合边缘特征有关。
14.一种活体检测设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
针对每张所述脸部相关图像,使用该脸部相关图像的拍摄距离类型对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,每个所述活体检测模型是基于一种拍摄距离类型下采集的脸部样本图像训练得到的,所述脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;
根据各个所述活体检测分值确定所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述拍摄距离类型下采集的所述脸部相关图像中是否包含贴合边缘特征有关。
15.一种活体检测设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,用于训练所述CNN模型的脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;所述神经卷积网络CNN模型包括:多个输入通道、多组卷积层、至少一组池化层和一个全连接层,所述融合处理位于所述全连接层、所述卷积层和所述输入通道中任一项;
根据所述活体检测分值检测所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述脸部相关图像中是否包含贴合边缘特征有关。
16.一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
针对每张所述脸部相关图像,使用该脸部相关图像的拍摄距离类型对应的活体检测模型计算所述脸部相关图像所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,每个所述活体检测模型是基于一种拍摄距离类型下采集的脸部样本图像训练得到的,所述脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;
根据各个所述活体检测分值确定所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述拍摄距离类型下采集的所述脸部相关图像中是否包含贴合边缘特征有关。
17.一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
获取多个拍摄距离下采集的待检测用户的多张脸部相关图像;其中,多个所述拍摄距离至少包括距离值大于第一设定值的远拍摄距离、距离值小于第二设定值的近拍摄距离以及距离值介于所述第一设定值和所述第二设定值之间的中拍摄距离;
将所述多张脸部相关图像输入至同一个神经卷积网络CNN模型中,通过所述CNN模型对所述多张脸部相关图像进行融合处理,并计算所述待检测用户所对应的活体检测分值;其中,所述活体检测分值用于表征所述待检测用户为活体用户的可能性,用于训练所述CNN模型的脸部样本图像包括:不包含贴合边缘特征的活体人脸图像、以及包含贴合边缘特征的非活体人脸图像;所述神经卷积网络CNN模型包括:多个输入通道、多组卷积层、至少一组池化层和一个全连接层,所述融合处理位于所述全连接层、所述卷积层和所述输入通道中任一项;
根据所述活体检测分值检测所述待检测用户是否为活体用户;其中,所述活体检测分值的大小与所述脸部相关图像中是否包含贴合边缘特征有关。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911390063.1A CN111091112B (zh) | 2019-12-30 | 2019-12-30 | 活体检测方法及装置 |
PCT/CN2020/126963 WO2021135639A1 (zh) | 2019-12-30 | 2020-11-06 | 活体检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911390063.1A CN111091112B (zh) | 2019-12-30 | 2019-12-30 | 活体检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111091112A CN111091112A (zh) | 2020-05-01 |
CN111091112B true CN111091112B (zh) | 2021-10-15 |
Family
ID=70398117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911390063.1A Active CN111091112B (zh) | 2019-12-30 | 2019-12-30 | 活体检测方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111091112B (zh) |
WO (1) | WO2021135639A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091112B (zh) * | 2019-12-30 | 2021-10-15 | 支付宝实验室(新加坡)有限公司 | 活体检测方法及装置 |
CN112329638A (zh) * | 2020-11-06 | 2021-02-05 | 上海优扬新媒信息技术有限公司 | 一种图像打分方法、装置和系统 |
CN113807160B (zh) * | 2021-04-06 | 2024-02-06 | 京东科技控股股份有限公司 | 图像采集设备劫持的检测方法、装置及计算机设备 |
CN114445918A (zh) * | 2022-02-21 | 2022-05-06 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122744A (zh) * | 2017-04-28 | 2017-09-01 | 武汉神目信息技术有限公司 | 一种基于人脸识别的活体检测系统及方法 |
CN108875497A (zh) * | 2017-10-27 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测的方法、装置及计算机存储介质 |
CN110363111A (zh) * | 2019-06-27 | 2019-10-22 | 平安科技(深圳)有限公司 | 基于镜头失真原理的人脸活体检测方法、装置及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10079827B2 (en) * | 2015-03-16 | 2018-09-18 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and information processing system |
WO2020258120A1 (zh) * | 2019-06-27 | 2020-12-30 | 深圳市汇顶科技股份有限公司 | 人脸识别的方法、装置和电子设备 |
CN111091112B (zh) * | 2019-12-30 | 2021-10-15 | 支付宝实验室(新加坡)有限公司 | 活体检测方法及装置 |
-
2019
- 2019-12-30 CN CN201911390063.1A patent/CN111091112B/zh active Active
-
2020
- 2020-11-06 WO PCT/CN2020/126963 patent/WO2021135639A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122744A (zh) * | 2017-04-28 | 2017-09-01 | 武汉神目信息技术有限公司 | 一种基于人脸识别的活体检测系统及方法 |
CN108875497A (zh) * | 2017-10-27 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测的方法、装置及计算机存储介质 |
CN110363111A (zh) * | 2019-06-27 | 2019-10-22 | 平安科技(深圳)有限公司 | 基于镜头失真原理的人脸活体检测方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111091112A (zh) | 2020-05-01 |
WO2021135639A1 (zh) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111091112B (zh) | 活体检测方法及装置 | |
TWI714834B (zh) | 人臉活體檢測方法、裝置以及電子設備 | |
WO2021169637A1 (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
CN111553333B (zh) | 人脸图像识别模型训练方法、识别方法、装置和电子设备 | |
US9858680B2 (en) | Image processing device and imaging apparatus | |
US11385710B2 (en) | Geometric parameter measurement method and device thereof, augmented reality device, and storage medium | |
CN111523431B (zh) | 一种面部识别的方法、装置及设备 | |
US20210382970A1 (en) | Biometrics-based user authentication method and device | |
CN111340014B (zh) | 活体检测方法、装置、设备和存储介质 | |
US11244158B2 (en) | Image acquisition method, apparatus, system, and electronic device | |
CN112417414A (zh) | 一种基于属性脱敏的隐私保护方法、装置以及设备 | |
WO2019067903A1 (en) | HEAD POSTURE ESTIMATION FROM A LOCAL EYE REGION | |
CN114283052A (zh) | 妆容迁移及妆容迁移网络的训练方法和装置 | |
CN111160251B (zh) | 一种活体识别方法及装置 | |
Foong et al. | Droopy mouth detection model in stroke warning | |
Kurdthongmee et al. | A yolo detector providing fast and accurate pupil center estimation using regions surrounding a pupil | |
KR102160955B1 (ko) | 딥 러닝 기반 3d 데이터 생성 방법 및 장치 | |
US20220139107A1 (en) | Landmark temporal smoothing | |
CN115035566B (zh) | 表情识别方法、装置、计算机设备和计算机可读存储介质 | |
CN115546908A (zh) | 一种活体检测方法、装置及设备 | |
CN111091388B (zh) | 活体检测方法和装置、人脸支付方法和装置、电子设备 | |
CN114360015A (zh) | 活体检测方法、装置、设备及存储介质 | |
Athavale et al. | One eye is all you need: Lightweight ensembles for gaze estimation with single encoders | |
CN113128277A (zh) | 一种人脸关键点检测模型的生成方法及相关设备 | |
CN115761885B (zh) | 一种共时与跨域异步融合驱动的行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |