CN109815797B - 活体检测方法和装置 - Google Patents
活体检测方法和装置 Download PDFInfo
- Publication number
- CN109815797B CN109815797B CN201811540933.4A CN201811540933A CN109815797B CN 109815797 B CN109815797 B CN 109815797B CN 201811540933 A CN201811540933 A CN 201811540933A CN 109815797 B CN109815797 B CN 109815797B
- Authority
- CN
- China
- Prior art keywords
- picture
- detected
- face
- face picture
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种活体检测方法和装置。其中,活体检测方法包括:将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值;根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果;其中,翻拍噪声提取模型是根据样本人脸图片训练后获得的。本发明实施例提供的活体检测方法和装置,基于人脸图片的翻拍噪声进行活体检测,检测速度更快、适用范围更广、对硬件的要求更低,能在手机端和电脑端等硬件资源受限的终端上进行活体检测。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种活体检测方法和装置。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。当前,人脸识别已经越来越广泛地应用于安防、金融、交通、社保、信息安全等领域。然而,由于人脸识别技术对伪造的人脸(非活体人脸或攻击人脸)和真实的人脸(活体人脸或真实人脸)的区分度不高,不法分子可能利用伪造的人脸欺骗人脸识别系统。伪造的人脸,通常是通过对真实的人脸的图片进行翻拍得到的。
为了避免伪造的人脸造成的损失,在进行人脸识别之前,先进行活体检测,当检测到活体(图片中的人脸为真正的人脸而不是伪造的人脸)之后,再进行人脸识别。活体检测,是人脸识别中区分照片与真人、视频与真人的一种方法。上述活体检测的描述中,真人指图片中的人脸来自于真人,是真实的人脸;照片和视频分别指图片中的人脸来自于真人的照片和视频,是伪造的人脸。
现有人脸活体检测主要包括:基于交互式动作的方法、基于三维图像建模的方法、基于红外摄像的方法和静态活体检测方法。基于交互式动作的方法,大多采用指令式的交互方式,诸如眨眼、摇头、张嘴等,来判断参与检测活动的是否为真人,存在检测速度慢、参与者难配合、交互性差等缺点;基于三维图像建模的方法,存在计算量大、需要3D摄像头、硬件要求高等缺点;基于红外摄像的方法,需要红外探测设备(红外摄像机),存在成本高、硬件要求高等缺点;静态活体检测方法,虽然简单、方便、硬件要求低、计算量小,但又存在准确率低、极易被攻破,难以在市场上应用等问题。
发明内容
针对现有技术存在的问题,本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的活体检测方法和装置。
第一方面,本发明实施例提供一种活体检测方法,包括:
将待检测人脸图片输入至翻拍噪声提取模型,输出所述待检测人脸图片的翻拍噪声预测值;
根据所述待检测人脸图片的翻拍噪声预测值,获取所述待检测人脸图片的活体检测结果;
其中,所述翻拍噪声提取模型是根据样本人脸图片进行训练后获得的。
第二方面,本发明实施例提供一种活体检测装置,包括:
噪声预测模块,用于将待检测人脸图片输入至翻拍噪声提取模型,输出所述待检测人脸图片的翻拍噪声预测值;
噪声判断模块,用于根据所述待检测人脸图片的翻拍噪声预测值,获取所述待检测人脸图片的活体检测结果;
其中,所述翻拍噪声提取模型是根据样本人脸图片进行训练后获得的。
第三方面,本发明实施例提供一种电子设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的活体检测方法。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的活体检测方法。
本发明实施例提供的活体检测方法和装置,基于人脸图片的翻拍噪声进行活体检测,检测速度更快、适用范围更广、对硬件的要求更低,能在手机端和电脑端等硬件资源受限的终端上进行活体检测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据本发明实施例提供的活体检测方法的流程示意图;
图2为根据本发明实施例提供的活体检测方法的流程图;
图3为根据本发明实施例提供的活体检测装置的功能框图;
图4为根据本发明实施例提供的电子设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了克服现有技术的上述问题,本发明实施例提供一种活体检测方法和装置,其发明构思是,基于攻击人脸图片中含有大量的翻拍噪声,而真实人脸图片中含有少量或者没有翻拍噪声,两种形式的人脸图片因此存在明显差异,可以根据待检测人脸图片的翻拍噪声预测值进行活体检测,判断待检测人脸图片中的人脸是真实人脸还是攻击人脸。
图1为根据本发明实施例提供的活体检测方法的流程示意图。如图1所示,一种活体检测方法包括:步骤S101、将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值;其中,翻拍噪声提取模型是根据样本人脸图片进行训练后获得的。
具体地,翻拍噪声是指真实人脸图片再次经过图像采集设备形成二维图片过程中所产生的噪声。照片与视频中的人脸图片是真实人脸图像的二次采集,因而可以通过评估一幅人脸图片中含有翻拍噪声的多少来判断该人脸图片中的人脸是否为活体。
人类无法通过直观的肉眼判断出图片中人脸的真伪或者其中含有的噪声多少,即虽然人眼能在一定程度上感知人脸图片中的翻拍噪声,但无法量化,而采用图像处理的方法对人脸图片进行处理,可以提取图片的特征,根据上述特征对图片的翻拍噪声进行量化,实现从人脸图片到翻拍噪声的映射。从人脸图片到翻拍噪声的映射,可以为端到端的映射。
可以利用深度学习的方法,根据样本人脸图片和样本人脸图片的翻拍噪声,对深度学习模型进行训练,获得训练好的深度学习模型作为翻拍噪声提取模型。
可以理解的是,活体检测存在两种结果:活体和非活体,因此,样本人脸图片,指预先获得的真实人脸图片和攻击人脸图片。
真实人脸图片,指通过图像采集设备对真实的人脸进行图像采集获得的人脸图片;攻击人脸图片,指通过图像采集设备对真实人脸图片进行若干次翻拍获得的人脸图片。其中,若干次指一次或多次。真实人脸图片中的人脸为活体人脸,而攻击人脸图片中的人脸为非活体人脸。
可以理解的是,攻击人脸图片是对真实人脸图片进行若干次翻拍获得的,在翻拍过程中会产生翻拍噪声,因此,可以根据翻拍噪声的大小确定人脸图片是攻击人脸图片还是真实人脸图片。
样本人脸图片,包括多幅真实人脸图片和多幅攻击人脸图片。
由于并不知道待检测人脸图片是攻击人脸图片还是真实人脸图片,也不知道如果待检测人脸图片是攻击人脸图片时,是由哪一真实人脸图片或攻击人脸图片翻拍获得,无法直接获得待检测人脸图片的翻拍噪声,需要通过翻拍噪声提取模型对待检测人脸图片的翻拍噪声进行预测,获得检测人脸图片的翻拍噪声预测值
将待检测人脸图片输入至翻拍噪声提取模型后,翻拍噪声提取模型可以提取待检测人脸图片的特征,根据待检测人脸图片的特征预测待检测人脸图片的翻拍噪声,获取待检测人脸图片的翻拍噪声预测值并输出。
步骤S102、根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果。
可以理解的是,由于攻击人脸图片中的翻拍噪声较大,真实人脸图片中的翻拍噪声较小甚至为零,因此,可以根据待检测人脸图片的翻拍噪声预测值的大小,判断待检测人脸图片是攻击人脸图片还是真实人脸图片。
若判断结果为待检测人脸图片是攻击人脸图片,说明攻击人脸图片中的人脸为伪造的人脸,则将待检测人脸图片的活体检测结果确定为非活体(或未检测到活体);若判断结果为待检测人脸图片是真实人脸图片,说明攻击人脸图片中的人脸为真实的人脸,则将待检测人脸图片的活体检测结果确定为活体(或检测到活体)。
本发明实施例基于人脸图片的翻拍噪声进行活体检测,检测速度更快、适用范围更广、对硬件的要求更低,能在手机端和电脑端等硬件资源受限的终端上进行活体检测。
基于上述各实施例的内容,将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值的具体步骤包括:将待检测人脸图片输入至翻拍噪声提取模型中的自编码器,输出待检测人脸图片的噪声特征图;将待检测人脸图片的噪声特征图输入至翻拍噪声提取模型中的解码器,输出待检测人脸图片的翻拍噪声预测值。
具体地,翻拍噪声提取模型包括自编码器和解码器。
自编码器(autoencoder或Encoder)是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,称为编码(coding)。自编码器对应的解码器(Decoder),用自动编码器学习到的隐含特征可以重构出原始输入数据,称之为解码(decoding)。
将待检测人脸图片输入至翻拍噪声提取模型,翻拍噪声提取模型中的自编码器对待检测人脸图片不断进行降采样(又称下采样),获得一个尺寸小于待检测人脸图片的尺寸的小尺寸的噪声特征图。上述小尺寸的噪声特征图,为待检测人脸图片的噪声特征图。
翻拍噪声提取模型中的解码器对待检测人脸图片的噪声特征图不断进行升采样(又称上采样),获得待检测人脸图片的翻拍噪声预测值。
本发明实施例通过包含自编码器和解码器的翻拍噪声提取模型,获取待检测人脸图片的翻拍噪声预测值,能更好地提取待检测人脸图片的噪声特征,并获得量化的翻拍噪声,从而能更快速地获得活体检测结果。
基于上述各实施例的内容,根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果的具体步骤包括:将待检测人脸图片的翻拍噪声预测值进行二值化,获取二值化后的待检测人脸图片的翻拍噪声预测值的p-范数;将p-范数与预设的噪声阈值进行比较,根据比较结果确定待检测人脸图片的活体检测结果。
具体地,获得待检测人脸图片的翻拍噪声预测值之后,先将待检测人脸图片的翻拍噪声预测值进行二值化,减少数据量。
将待检测人脸图片的翻拍噪声预测值进行二值化之后,计算二值化后的待检测人脸图片的翻拍噪声预测值的p-范数。该p-范数,用于度量待检测人脸图片的翻拍噪声预测值含量。
根据实际情况,可以选择合适的p-范数。例如,可以计算二值化后的待检测人脸图片的翻拍噪声预测值的2-范数。
获得二值化后的待检测人脸图片的翻拍噪声预测值的p-范数后,将该p-范数与预设的噪声阈值进行比较,比较二者的大小。将比较结果作为是否活体分类的依据,根据该p-范数大于或小于预设的噪声阈值,确定待检测人脸图片的活体检测结果。
需要说明的是,可以根据实际情况确定合适的值作为预设的噪声阈值,本发明实施例对噪声阈值的具体取值不作限制。
本发明实施例通过二值化后的待检测人脸图片的翻拍噪声预测值的p-范数度量待检测人脸图片的翻拍噪声预测值含量,能更准确地反映待检测人脸图片的翻拍噪声预测值占总噪声的比例,从而能获得更准确的活体检测结果。
基于上述各实施例的内容,根据比较结果确定待检测人脸图片的活体检测结果的具体步骤包括:若获知比较结果为p-范数大于预设的噪声阈值,则将待检测人脸图片的活体检测结果确定为非活体;若获知比较结果为p-范数小于预设的噪声阈值,则将待检测人脸图片的活体检测结果确定为活体。
具体地,将二值化后的待检测人脸图片的翻拍噪声预测值的p-范数与预设的噪声阈值进行比较,可以为判断二值化后的待检测人脸图片的翻拍噪声预测值的p-范数是否小于预设的噪声阈值。
若是,说明该p-范数小于预设的噪声阈值,则将待检测人脸图片的活体检测结果确定为活体,说明将待检测人脸图片中的人脸为活体人脸、待检测人脸图片为真实人脸图片、检测到活体人脸;若否,说明该p-范数大于预设的噪声阈值,则将待检测人脸图片的活体检测结果确定为非活体,说明将待检测人脸图片中的人脸为非活体人脸、待检测人脸图片为攻击人脸图片、未检测到活体人脸。
本发明实施例通过二值化后的待检测人脸图片的翻拍噪声预测值的p-范数与预设的噪声阈值的大小比较,确定活体检测结果,能获得更准确的活体检测结果。
基于上述各实施例的内容,获得样本人脸图片的具体步骤包括:获得多幅真实人脸图片,作为正样本图片;对每一正样本图片进行翻拍,获取正样本图片对应的负样本图片;将各正样本图片和各负样本图片,作为样本人脸图片。
具体地,样本人脸图片可以通过下面的步骤获得。
通过图像采集设备对多个真实人脸进行图像采集,获得多幅真实人脸图片,作为正样本图片A并标记为正样本图片。正样本图片为真实人脸图片。
对于每一正样本图片A,通过图像采集设备对该正样本图片A进行翻拍,获得该正样本图片A对应的负样本图片A′并标记为负样本图片。负样本图片为攻击人脸图片。
可以将正样本图片A和正样本图片A对应的负样本图片A′作为一组样本人脸图片。
将各组样本人脸图片共同作为样本人脸图片。全部样本人脸图片,可以构成样本人脸图片库。
本发明实施例通过将真实人脸图片作为正样本图片,将对正样本图片进行翻拍获得的攻击人脸图片作为负样本图片,利用攻击人脸图片由真实人脸图片产生的具体过程,获得的正、负样本图片能更明显地体现翻拍噪声差异,获得的翻拍噪声提取模型的效果更好,从而能获得更准确的活体检测结果。
基于上述各实施例的内容,获取翻拍噪声提取模型的具体步骤包括:对于每一正样本图片,将正样本图片的翻拍噪声确定为0;对于每一负样本图片,将负样本图片的翻拍噪声确定为负样本图片与负样本图片对应的正样本图片之差;将样本人脸图片输入至原始卷积神经网络,根据样本人脸图片的翻拍噪声对原始卷积神经网络进行监督学习,直至获得训练好的原始卷积神经网络,将训练好的原始卷积神经网络作为翻拍噪声提取模型。
具体地,翻拍噪声提取模型是基于卷积神经网络构建的。
卷积神经网络可以提取图片深层次的特征,因此,选择用卷积神经网络进行学习,可以获得一个更好地端到端的人脸图片到翻拍噪声的映射。
原始卷积神经网络可以包括两个子网络:第一子网络和第二子网络。第一子网络为子编码器,第二子网络为解码器。
训练时,将样本人脸图像A*输入原始卷积神经网络,原始卷积神经网络中的自编码器通过卷积运算对样本人脸图像A*不断降采样得到样本人脸图像A*的噪声特征图Nf,原始卷积神经网络中的解码器通过反卷积运算对样本人脸图像A*的噪声特征图Nf不断升采样得到原始卷积神经网络的输出N。原始卷积神经网络的输出N,为翻拍噪声的预测结果。
可以将样本人脸图像的翻拍噪声作为训练时的监督信号Ngroundtruth,通过Ngroundtruth对N进行监督。
为了更好地区分负样本图片和正样本图片,样本人脸图像的翻拍噪声通过如下方法确定:将样本人脸图像中正样本图片A的翻拍噪声确定为0,将样本人脸图像中负样本图片A′的翻拍噪声确定为负样本图片与负样本图片对应的正样本图片之差。
由于负样本图片A′的翻拍噪声大于正样本图片A的翻拍噪声,负样本图片A′的翻拍噪声确定为负样本图片与负样本图片对应的正样本图片之差一般大于0。也就是说,负样本图片A′的翻拍噪声,等于负样本图片与负样本图片对应的正样本图片之差的绝对值。
Ngroundtruth的计算公式为
其中,A为正样本图片,A′为与A同组的负样本图片(即A对应的负样本图片)。
通过Ngroundtruth进行监督学习,可以使原始卷积神经网络学习到一个输入该原始卷积神经网络的样本人脸图片到翻拍噪声的映射关系。
通过Ngroundtruth的监督,不断调整原始卷积神经网络的参数,使得原始卷积神经网络的训练误差不断下降,直至训练满足预设的条件。
可以理解的是,卷积神经网络的训练通常为多次(每次为一轮),预设的条件可以为训练误差收敛,或者训练次数达到预设的最大次数。本发明实施例对预设的条件不做具体限制。
训练满足预设的条件之后,将训练误差最小的卷积神经网络,确实为训练好的原始卷积神经网络,并将训练好的原始卷积神经网络作为翻拍噪声提取模型。
本发明实施例中,卷积神经网络学习,可以为端到端的卷积神经网络学习。
本发明实施例根据攻击人脸图片计算出的翻拍噪声和真实人脸图片默认的零噪声来监督卷积神经网络的学习,获得翻拍噪声提取模型,使得翻拍噪声提取模型的误差更小,能获得更准确的活体检测结果。
基于上述各实施例的内容,获取待检测人脸图片的具体步骤包括:对原始图片进行人脸检测,获取人脸框;对于任一人脸框,根据人脸框对原始图片进行裁剪,将裁剪获得的图片进行预处理,获得待检测人脸图片。
可以理解的是,将待检测人脸图片输入翻拍噪声提取模型之前,需要先获取待检测人脸图片。
具体地,待检测人脸图片可以通过如下步骤获取。
获取原始图片。原始图片可以是通过图像采集设备(如摄像头)采集的一幅照片,也可以是从一段视频中截取的一幅图片,本发明对原始图片的获取方法不作具体限制
获取原始图片之后,对原始图片进行人脸检测,人脸检测的结果为显示在原始图片中的人脸框。
可以理解的是,若检测到原始图片中的任一人脸,可以通过确定人脸框的位置和尺寸确定一个人脸框并显示在该原始图片中,该人脸框围成的图像区域中存在该人脸;若未检测到原始图片中的人脸,则不显示人脸框。
由于一幅原始图片中的人脸可能有多个,因此,对于任一人脸框,根据该人脸框对该原始图片进行裁剪,获得仅包括一个人脸的裁剪图片。
获得裁剪图片后,对裁剪图片进行预处理,将预处理后的裁剪图片作为待检测人脸图片。
预处理可以至少包括尺寸调整或图像对齐。
本发明实施例通过对原始图片中检测到的人脸进行裁剪和预处理,获得待检测人脸图片,能更方便、快速地自动获取待检测人脸图片,能减少活体检测的耗时。
为了便于对本发明各实施例的理解,下面通过一个实例说明本发明提供的活体检测方法。
图2为根据本发明实施例提供的活体检测方法的流程图。如图2所示,活体检测方法可以包括如下步骤:
先通过外设捕捉图片。其中,外设为任一种图像采集摄像设备。例如,开启摄像头,通过摄像头捕捉图片。外设捕捉的图片为原始图片
获得原始图片之后,对原始图片进行人脸检测,获得人脸框。需要说明的是,图2中的人脸识别指人脸检测,即识别原始图片中是否存在人脸。
获得人脸框之后,根据人脸框裁剪对齐图片,获得至少一幅待检测人脸图片。待检测人脸图片,为裁剪对齐后图片。
获得裁剪对齐后图片后,可以将任一裁剪对齐后图片输入到翻拍噪声提取模型中,对裁剪对齐后图片的翻拍噪声进行预测,获得预测的翻拍噪声(即翻拍噪声预测值)。
获得预测的翻拍噪声之后,对该噪声进行二值化,并求出二值化后的该噪声的2-范数。
获得该范数后,判断该范数是否小于阈值。该阈值为预设的噪声阈值。
若小于,则该待检测人脸图片活体检测结果为活体;若大于,则该待检测人脸图片活体检测结果为非活体。
图3为根据本发明实施例提供的活体检测装置的功能框图。基于上述各实施例的内容,如图3所示,该活体检测装置包括噪声预测模块301和噪声判断模块302,其中:
噪声预测模块301,用于将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值;
噪声判断模块302,用于根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果;
其中,翻拍噪声提取模型是根据样本人脸图片进行训练后获得的。
具体地,噪声预测模块301将待检测人脸图片输入至翻拍噪声提取模型后,翻拍噪声提取模型可以提取待检测人脸图片的特征,根据待检测人脸图片的特征预测待检测人脸图片的翻拍噪声,获取待检测人脸图片的翻拍噪声预测值并输出。
噪声判断模块302根据噪声预测模块301输出的待检测人脸图片的翻拍噪声预测值的大小,判断待检测人脸图片是攻击人脸图片还是真实人脸图片,从而确定活体检测结果。
本发明实施例提供的活体检测装置,用于执行本发明前述各实施例提供的活体检测方法,该活体检测装置包括的各模块实现相应功能的具体方法和流程详见上述活体检测方法的实施例,此处不再赘述。
该活体检测装置用于前述各实施例的活体检测方法。因此,在前述各实施例中的活体检测方法中的描述和定义,可以用于本发明实施例中各执行模块的理解。
本发明实施例基于人脸图片的翻拍噪声进行活体检测,检测速度更快、适用范围更广、对硬件的要求更低,能在手机端和电脑端等硬件资源受限的终端上进行活体检测。
图4为根据本发明实施例提供的电子设备的结构框图。基于上述实施例的内容,如图4所示,该电子设备可以包括:处理器(processor)401、存储器(memory)402和总线403;其中,处理器401和存储器402通过总线403完成相互间的通信;处理器401用于调用存储在存储器402中并可在处理器401上运行的计算机程序指令,以执行上述各方法实施例所提供的方法,例如包括:将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值;根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果;其中,翻拍噪声提取模型是根据样本人脸图片训练后获得的。
本发明另一实施例公开一种计算机程序产品,计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值;根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果;其中,翻拍噪声提取模型是根据样本人脸图片训练后获得的。
此外,上述的存储器402中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明另一实施例提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行上述各方法实施例所提供的方法,例如包括:将待检测人脸图片输入至翻拍噪声提取模型,输出待检测人脸图片的翻拍噪声预测值;根据待检测人脸图片的翻拍噪声预测值,获取待检测人脸图片的活体检测结果;其中,翻拍噪声提取模型是根据样本人脸图片训练后获得的。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行上述各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (6)
1.一种活体检测方法,其特征在于,包括:
将待检测人脸图片输入至翻拍噪声提取模型,输出所述待检测人脸图片的翻拍噪声预测值;
根据所述待检测人脸图片的翻拍噪声预测值,获取所述待检测人脸图片的活体检测结果;
所述将待检测人脸图片输入至翻拍噪声提取模型,输出所述待检测人脸图片的翻拍噪声预测值的具体步骤包括:
将所述待检测人脸图片输入至所述翻拍噪声提取模型中的自编码器,输出所述待检测人脸图片的噪声特征图;
将所述待检测人脸图片的噪声特征图输入至所述翻拍噪声提取模型中的解码器,输出所述待检测人脸图片的翻拍噪声预测值;
根据所述待检测人脸图片的翻拍噪声预测值,获取所述待检测人脸图片的活体检测结果的具体步骤包括:
将所述待检测人脸图片的翻拍噪声预测值进行二值化,获取二值化后的所述待检测人脸图片的翻拍噪声预测值的p-范数;
将所述p-范数与预设的噪声阈值进行比较,根据比较结果确定所述待检测人脸图片的活体检测结果;
所述p-范数为2-范数;
获取所述翻拍噪声提取模型的具体步骤包括:
设置监督信号,用于监督原始卷积神经网络输出,将样本人脸图片输入至原始卷积神经网络,进行监督学习,调整原始卷积神经网络的参数,降低训练误差,直至获得训练好的原始卷积神经网络,将所述训练好的原始卷积神经网络作为所述翻拍噪声提取模型;
其中,获得所述样本人脸图片的具体步骤包括:
获得多幅真实人脸图片,作为正样本图片;
对每一所述正样本图片进行翻拍,获取所述正样本图片对应的负样本图片;
将各所述正样本图片和各所述负样本图片,作为所述样本人脸图片;
所述监督信号Ngroundtruth的计算公式为
其中,A为正样本图片,A′为与A对应的负样本图片。
2.根据权利要求1所述的活体检测方法,其特征在于,所述根据比较结果确定所述待检测人脸图片的活体检测结果的具体步骤包括:
若获知所述比较结果为所述p-范数大于所述预设的噪声阈值,则将所述待检测人脸图片的活体检测结果确定为非活体;
若获知所述比较结果为所述p-范数小于所述预设的噪声阈值,则将所述待检测人脸图片的活体检测结果确定为活体。
3.根据权利要求1所述的活体检测方法,其特征在于,获取所述待检测人脸图片的具体步骤包括:
对原始图片进行人脸检测,获取人脸框;
对于任一所述人脸框,根据所述人脸框对所述原始图片进行裁剪,将裁剪获得的图片进行预处理,获得所述待检测人脸图片。
4.一种活体检测装置,其特征在于,包括:
噪声预测模块,用于将待检测人脸图片输入至翻拍噪声提取模型,输出所述待检测人脸图片的翻拍噪声预测值;
噪声判断模块,用于根据所述待检测人脸图片的翻拍噪声预测值,获取所述待检测人脸图片的活体检测结果;
所述噪声预测模块,具体用于将所述待检测人脸图片输入至所述翻拍噪声提取模型中的自编码器,输出所述待检测人脸图片的噪声特征图;将所述待检测人脸图片的噪声特征图输入至所述翻拍噪声提取模型中的解码器,输出所述待检测人脸图片的翻拍噪声预测值;
所述噪声判断模块,具体用于将所述待检测人脸图片的翻拍噪声预测值进行二值化,获取二值化后的所述待检测人脸图片的翻拍噪声预测值的p-范数;将所述p-范数与预设的噪声阈值进行比较,根据比较结果确定所述待检测人脸图片的活体检测结果;
所述p-范数为2-范数;
获取所述翻拍噪声提取模型的具体步骤包括:
设置监督信号,用于监督原始卷积神经网络输出,将样本人脸图片输入至原始卷积神经网络,进行监督学习,调整原始卷积神经网络的参数,降低训练误差,直至获得训练好的原始卷积神经网络,将所述训练好的原始卷积神经网络作为所述翻拍噪声提取模型;
其中,获得所述样本人脸图片的具体步骤包括:
获得多幅真实人脸图片,作为正样本图片;
对每一所述正样本图片进行翻拍,获取所述正样本图片对应的负样本图片;
将各所述正样本图片和各所述负样本图片,作为所述样本人脸图片;
所述监督信号Ngroundtruth的计算公式为
其中,A为正样本图片,A′为与A对应的负样本图片。
5.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至3任一所述的方法。
6.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至3任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811540933.4A CN109815797B (zh) | 2018-12-17 | 2018-12-17 | 活体检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811540933.4A CN109815797B (zh) | 2018-12-17 | 2018-12-17 | 活体检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109815797A CN109815797A (zh) | 2019-05-28 |
CN109815797B true CN109815797B (zh) | 2022-04-19 |
Family
ID=66602047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811540933.4A Active CN109815797B (zh) | 2018-12-17 | 2018-12-17 | 活体检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109815797B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210393A (zh) * | 2019-05-31 | 2019-09-06 | 百度在线网络技术(北京)有限公司 | 人脸图像的检测方法和装置 |
CN110781770B (zh) * | 2019-10-08 | 2022-05-06 | 高新兴科技集团股份有限公司 | 基于人脸识别的活体检测方法、装置及设备 |
CN111507262B (zh) * | 2020-04-17 | 2023-12-08 | 北京百度网讯科技有限公司 | 用于检测活体的方法和装置 |
CN112883831A (zh) * | 2021-01-29 | 2021-06-01 | 北京市商汤科技开发有限公司 | 一种活体检测的方法、装置、电子设备及存储介质 |
CN113609959A (zh) * | 2021-04-16 | 2021-11-05 | 六度云计算有限公司 | 一种人脸活体检测方法和装置 |
CN114241537B (zh) * | 2021-12-31 | 2022-12-23 | 智慧眼科技股份有限公司 | 指静脉图像真伪识别方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447633A (zh) * | 2016-09-26 | 2017-02-22 | 华南理工大学 | 面向集成电路封装检测的微焦点x射线图像的去噪方法 |
CN107798279A (zh) * | 2016-09-07 | 2018-03-13 | 北京眼神科技有限公司 | 一种人脸活体检测方法及装置 |
CN108446690A (zh) * | 2018-05-31 | 2018-08-24 | 北京工业大学 | 一种基于多视角动态特征的人脸活体检测方法 |
CN108898112A (zh) * | 2018-07-03 | 2018-11-27 | 东北大学 | 一种近红外人脸活体检测方法及系统 |
-
2018
- 2018-12-17 CN CN201811540933.4A patent/CN109815797B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107798279A (zh) * | 2016-09-07 | 2018-03-13 | 北京眼神科技有限公司 | 一种人脸活体检测方法及装置 |
CN106447633A (zh) * | 2016-09-26 | 2017-02-22 | 华南理工大学 | 面向集成电路封装检测的微焦点x射线图像的去噪方法 |
CN108446690A (zh) * | 2018-05-31 | 2018-08-24 | 北京工业大学 | 一种基于多视角动态特征的人脸活体检测方法 |
CN108898112A (zh) * | 2018-07-03 | 2018-11-27 | 东北大学 | 一种近红外人脸活体检测方法及系统 |
Non-Patent Citations (4)
Title |
---|
2D Face Liveness Detection: an Overview;Olga Kahm 等;《2012 BIOSIG - Proceedings of the International Conference of Biometrics Special Interest Group (BIOSIG)》;20120927;全文 * |
Amin Jourabloo 等.Face De-Spoofing: Anti-Spoofing via Noise Modeling.《European Conference on Computer Vision》.2018, * |
Face De-Spoofing: Anti-Spoofing via Noise Modeling;Amin Jourabloo 等;《European Conference on Computer Vision》;20181006;第2-3、7-8、13页 * |
Face Spoofing Detection Through Visual Codebooks of Spectral Temporal Cubes;Allan Pinto 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20151231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109815797A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815797B (zh) | 活体检测方法和装置 | |
EP3916627A1 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
EP3579180A1 (en) | Image processing method and apparatus, electronic device and non-transitory computer-readable recording medium for selective image enhancement | |
US20200005061A1 (en) | Living body detection method and system, computer-readable storage medium | |
CN110517246B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN109117755B (zh) | 一种人脸活体检测方法、系统和设备 | |
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
CN110851835A (zh) | 图像模型检测方法、装置、电子设备及存储介质 | |
CN112633144A (zh) | 人脸遮挡检测方法、系统、设备及存储介质 | |
CN111126366B (zh) | 一种活体人脸的判别方法、装置、设备及存储介质 | |
CN106778910B (zh) | 基于本地训练的深度学习系统和方法 | |
CN111445459A (zh) | 一种基于深度孪生网络的图像缺陷检测方法及系统 | |
CN109815823B (zh) | 数据处理方法及相关产品 | |
CN112528940B (zh) | 驾驶员行为识别模型的训练方法、识别方法及装置 | |
CN114298167A (zh) | 一种基于yolo神经网络的隧道火灾检测方法 | |
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
CN113221842A (zh) | 模型训练方法、图像识别方法、装置、设备及介质 | |
CN111163332A (zh) | 视频色情度检测方法、终端及介质 | |
CN108985350B (zh) | 一种基于梯度幅值稀疏特征信息识别模糊图像的方法和装置、计算设备及存储介质 | |
CN115830686A (zh) | 基于特征融合的生物识别方法、系统、装置及存储介质 | |
CN115223022A (zh) | 一种图像处理方法、装置、存储介质及设备 | |
CN115147818A (zh) | 玩手机行为识别方法及装置 | |
CN111209863B (zh) | 一种活体模型训练和人脸活体检测方法、装置和电子设备 | |
CN114332983A (zh) | 人脸图像清晰度检测方法、装置、电子设备、及介质 | |
CN111127327B (zh) | 一种图片倾斜检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220311 Address after: 215000 unit 2-b702, creative industry park, 328 Xinghu street, Suzhou Industrial Park, Jiangsu Province Applicant after: SUZHOU FEISOU TECHNOLOGY Co.,Ltd. Address before: Room 1216, 12 / F, Beijing Beiyou science and technology and cultural exchange center, 10 Xitucheng Road, Haidian District, Beijing, 100876 Applicant before: BEIJING FEISOU TECHNOLOGY CO.,LTD. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |