CN109948439B - 一种活体检测方法、系统及终端设备 - Google Patents
一种活体检测方法、系统及终端设备 Download PDFInfo
- Publication number
- CN109948439B CN109948439B CN201910112917.3A CN201910112917A CN109948439B CN 109948439 B CN109948439 B CN 109948439B CN 201910112917 A CN201910112917 A CN 201910112917A CN 109948439 B CN109948439 B CN 109948439B
- Authority
- CN
- China
- Prior art keywords
- image
- key
- key area
- depth
- focusing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000001815 facial effect Effects 0.000 claims abstract description 15
- 238000004590 computer program Methods 0.000 claims description 22
- 238000003062 neural network model Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 abstract description 4
- 230000005484 gravity Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
Abstract
本发明适用于计算机技术领域,提供了一种人脸识别方法、系统及终端设备,包括:采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体,通过利用传统相机的对焦能力进行景深测量的方法来实现活体检测,无需增加深度摄像设备就能实现有效地活体检测,有效降低成本,解决了目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
Description
技术领域
本发明属于计算机技术领域,尤其涉及一种活体检测方法、系统及终端设备。
背景技术
目前,人脸识别系统越来越多地应用于安防、金融等领域中需要身份验证的场景,诸如银行远程开户、门禁系统、远程交易操作验证等。在这些高安全级别的应用领域中,除了确保被验证者的人脸相似度符合数据库中存储的底库数据外,首先需要确定被验证者是一个合法的生物活体。上述确定被验证者为是一个合法的生物活体的技术被称为活体检测技术,其目的是判断获取到的生物特征是否来自一个有生命、在现场的、真实的人。目前还没有公认成熟的活体验证方案,已有的活体检测技术通常需要依赖特殊的硬件设备,诸如红外相机、深度相机等图像采集设备或者诸如DLP投影仪的复杂的主动光源来防范简单照片、3D人脸模型或者面具等方式的攻击。
综上所述,目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
发明内容
有鉴于此,本发明实施例提供了一种活体检测方法、系统及终端设备,以解决目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
本发明的第一方面提供了一种活体检测方法,包括:
采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;
基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
本发明的第二方面提供了一种活体检测系统,包括:
采集模块,用于采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
估算模块,用于将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;
拍摄模块,用于基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
判断模块,用于根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
本发明的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;
基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;
基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
本发明提供的一种人脸识别方法、系统及终端设备,通过利用传统相机的对焦能力进行景深测量的方法来实现活体检测,无需增加深度摄像设备就能实现有效地活体检测,有效降低成本,解决了目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种活体检测方法的实现流程示意图;
图2是本发明实施例二提供的对应实施例一步骤S102的实现流程示意图;
图3是本发明实施例三提供的对应实施例一步骤S103的实现流程示意图;
图4是本发明实施例四提供的对应实施例一步骤S104的实现流程示意图;
图5是本发明实施例五提供的一种活体检测系统的结构示意图;
图6是本发明实施例六提供的对应实施例五中定时估算模块102的结构示意图;
图7是本发明实施例七提供的对应实施例五中拍摄模块103的结构示意图;
图8是本发明实施例八提供的对应实施例五中判断模块104的结构示意图
图9是本发明实施例九提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、系统、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明实施例为了解决目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题,提供了一种活体检测方法、系统及终端设备,通过利用传统相机的对焦能力进行景深测量的方法来实现活体检测,无需增加深度摄像设备就能实现有效地活体检测,有效降低成本,解决了目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一:
如图1所示,本实施例提供了一种活体检测方法,其具体包括:
步骤S101:采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域。
在具体应用中,通过人脸识别系统的摄像模块拍摄检测对象,获取拍摄到的图像,对摄像模块采集到图像进行灰度变换和滤波处理,获得该图像的灰度图;对灰度图利用积分快速计算出Harr-Like小波特征值,应用到离线训练好的AdaBoost-Cascade分类器,判别该灰度图像是否包含人脸区域;根据人脸的五官形状特征和AdaBoost-Cascade分类器对人脸区域进行关键区域定位,确定各关键区域在上述图像的具体位置坐标。需要说明的是,上述关键区域包括双眼、双眉、鼻子、嘴巴和下颚等人脸特征区域。还需要说明的是,为了区分人脸和背景,上述关键区域还可以包括人脸区域附近的背景区域。
步骤S102:将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度。
在具体应用中,首先根据实际拍摄到的检测对象的图像的各个关键区域来设置关键区域组。需要说明的是,本实施例所提供的活体检测方法主要是通过利用传统相机的对焦能力来进行深度估算,因此在设置关键区域组时需要综合考虑3D立体的人的头部的各个关键区域的位置,将根据人脸的五官形状特征及分类器定位到的双眼、双眉、鼻子、嘴巴和下颚等人脸特征区域以及人脸区域附近的背景区域等所有关键区域设置为关键区域组。
在具体应用中,采用神经网络模型估算关键区域组的各关键区域的深度,通过神经网络模型估算图像的各个像素点的深度,再根据定位到的各个关键区域的具体位置获取各个关键区域的各个像素点的深度。
步骤S103:基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像。
在具体应用中,依次根据各关键区域的深度进行对焦拍摄,进而获取到各关键区域的对焦图像。对关键区域组的各个关键区域都采用焦点堆栈深度估计法确定各个关键区域的深度面上的聚焦点,控制拍摄模块分别对关键区域组的各个关键区域的聚焦点进行对焦拍摄,就能够获取到该关键区域组的各关键区域对应的对焦图像。
步骤S104:根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
在具体应用中,获取各个对焦图像的模糊程度,基于模糊程度判断所述对焦图像的图像质量,基于模糊程度设置判定阈值,各个对焦图像的模糊程度高于所述判定阈值,则所述检测对象为非活体。
在具体应用中,获取各个对焦图像的图像对比度,基于图像对比度判断所述对焦图像的图像质量,基于图像对比度设置判定阈值,各个对焦图像的图像对比度高于所述判定阈值,则所述检测对象为非活体。
在具体应用中,获取各个对焦图像的曝光程度,基于曝光程度判断所述对焦图像的图像质量,基于图像的曝光程度设置判定阈值,各个对焦图像的曝光程度低于所述判定阈值,则所述检测对象为非活体。
在一个实施例中,上述人脸识别方法,在步骤S102之后还包括以下步骤:
步骤S105:判断估算得到的各关键区域的中心点的深度是否相同。
步骤S106:若个各关键区域的的中心点的深度相同,则确定所述检测对象为非活体。
在具体应用中,对于平面攻击对象,如录屏和纸张拍摄等攻击对象的检测,通过对图像进行平面检测就能够判断其是否为平面对象。通过判断不同的关键区域进行对焦拍摄后获取的对焦图像,估计各关键区域对应的对焦图像的深度信息,判断各关键区域对应的对焦图像的深度是否相同,若各关键区域对应的对焦图像的深度相同,则表明检测对象为平面对象,因此该检测对象为非活体。若各关键区域对应的对焦图像的深度不相同,则执行步骤S103至S104,以进一步判断检测对象是否为活体。需要说明的是,各关键区域的中心点是指各个关键区域最中心的位置,示例性的,若设置关键区域为矩形区域,则关键区域的中心点为矩形的两条对角线的交点,若设置关键区域为圆形区域,则关键区域的中心点为圆形的圆心。
本实施例提供的活体检测方法,通过利用传统相机的对焦能力进行景深测量的方法来实现活体检测,无需增加深度摄像设备就能实现有效地活体检测,有效降低成本,解决了目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
实施例二:
如图2所示,在本实施例中,实施例一中的步骤S102具体包括:
步骤S201:构建和训练预估深度的神经网络模型。
在具体应用中,上述预估深度的神经网络模型可以为Multi-Scale的深度神经网络模型,也可以为VGG16神经网络模型,还可以为基于Fully Convolutional Networks的深度神经网络模型,在此不加以限制。由于上述Multi-Scale的深度神经网络模型、VGG16神经网络模型、基于Fully Convolutional Networks的深度神经网络模型作为现有的深度神经网络模块,因此不对其具体的构建和训练过程再加以赘述。
步骤S202:将采集到的图像输入到预估深度的神经网络模型中,以获取估算的所述图像的深度。
在具体应用中,图像的深度包括图像各个像素点的深度。
在具体应用中,当构建和训练完用于预估图像的深度信息的神经网络模型后,将采集到的图像输入到该神经网络模型中就能输出该图像的深度信息。
步骤S203:根据各关键区域的位置及所述图像的深度确定关键区域组的各关键区域的各个像素点的深度。
在具体应用中,根据定位到的各个关键区域的具体位置来确定各个关键区域的各个像素点的深度。示例性的,假设关键区域通过矩形边框来实现定位,通过定位到该关键区域对应的矩形边框的是四角的坐标,确定该关键区域的位置信息,在获得该图像的各个像素点的深度后,根据确定的位置信息提取各个关键区域的各个像素点的深度。
实施例三:
如图3所示,在本实施例中,实施例一中的步骤S103具体包括:
步骤S301:根据各关键区域的深度利用焦点堆栈深度估计法确定在各关键区域的深度面上的聚焦点。
在具体应用中,利用焦点堆栈深度估计法确定相机在各个关键区域的深度面上的聚焦点具体为:根据关键区域的各个像素点的深度计算焦点堆栈的每一个像素点的梯度,对梯度图像进行均值滤波,然后计算三个通道(R通道、G通道以及B通道)梯度值的平方和取均值,再对平方和均值开根号,即得到关键区域的梯度值,焦点堆栈的同一位置像素梯度最大则说明该像素位置为该深度面的聚焦点。
步骤S302:控制相机分别对关键区域组的各个关键区域的聚焦点进行聚焦拍摄,得到各关键区域的对焦图像。
在具体应用中,在聚焦点进行拍摄则得到的图像是该深度面拍摄成像最清晰的图像,因此控制拍摄模块对该像素点(聚焦点)进行聚焦拍摄到的图像即为该关键区域的对焦图像。依次对关键区域组的各个关键区域的聚焦点进行聚焦拍摄,就能够得到该关键区域组的个关键区域的对焦图像。
实施例四:
如图4所示,在本实施例中,实施例一中的步骤S104具体包括:
步骤S401:获取各关键区域的对焦图像的模糊程度。
在具体应用中,通过拉普拉斯方差算法来各关键区域的对焦图像的模糊程度。具体的,对各关键区域的对焦图像进行灰度变换,获取各关键区域对焦图像的灰度图,对灰度图采用拉普拉斯掩模做卷积运算,再计算方差,即可得到该对焦图像的模糊程度。需要说明的是,模糊程度是用于衡量拍摄图像的质量,模糊程度越高,则对应的图像的质量越差。在一个实施例中,上述拉普拉斯掩模为:
在具体应用中,获取各个对焦图像的模糊程度也可以采用神经网络模型进行获取,将对焦图像输入到获取模糊程度的神经网络模型中,就能输出该对焦图像的模糊程度。获取模糊程度的神经网络模型可以为VGG16神经网络模型,其构建和训练过程在此不加以赘述。
步骤S402:根据各关键区域的对焦图像的模糊程度计算所述图像的模糊程度。
在具体应用中,基于关键区域的模糊程度比重,综合计算该图像的模糊程度值。计算公为:
其中,Blur为所述图像的模糊程度值,Pi为第i个关键区域的比重系数,Xi为第i个关键区域的模糊程度值;Quo为预设系数,其中P1+P2+…+Pm=1。需要说明的是,关键区域的比重系数是根据关键区域对应的对象进行设定的,比重系数的设定可以根据经验进行设定,如包含双眼的关键区域的比重系数大于包含双眉的关键区域的比重系数。在实际应用中,预先根据划定的关键区域给定各个关键区域的比重系数,需要说明的是,关键区域的比重系数之和为1。
步骤S403:判断所述图像的模糊程度是否超过判定阈值。
步骤S404:若所述图像的模糊程度超过所述判定阈值,则确定所述检测对象为非活体。
在具体应用中,通过判断图像的模糊程度是否超过预设的判定阈值来对多个对焦图像的图像质量进行评估以判断该检测对象是否为活体,当图像的模糊程度超过所述判定阈值时,就确定该检测对象为非活体,若图像的模糊程度不超过所述判定阈值,则确定该检测对象为活体。
实施例五:
如图5所示,本实施例提供一种活体检测系统100,用于执行实施例一中的方法步骤,其包括采集模块101、估算模块102、拍摄模块103以及判断模块104。
采集模块101用于采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域。
估算模块102用于将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度。
拍摄模块103用于基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像。
判断模块104用于根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
在一个实施例中,上述人脸识别系统100还包括深度判断模块。
上述深度判断模块用于判断估算得到的各关键区域的中心点的深度是否相同,若个各关键区域的中心点的深度相同,则确定所述检测对象为非活体。
需要说明的是,本发明实施例提供的活体检测系统,由于与本发明图1所示方法实施例基于同一构思,其带来的技术效果与本发明图1所示方法实施例相同,具体内容可参见本发明图1所示方法实施例中的叙述,此处不再赘述。
因此,本实施例提供的一种活体检测系统,同样能够通过利用传统相机的对焦能力进行景深测量的方法来实现活体检测,无需增加深度摄像设备就能实现有效地活体检测,有效降低成本,解决了目前的人脸识别系统存在无法基于传统相机进行活体检测,需要增加硬件设备的问题。
实施例六:
如图6所示,在本实施例中,实施例五中的估算模块102包括用于执行图2所对应的实施例中的方法步骤的结构,其包括构建单元201、输入单元202以及确定单元203。
构建单元201用于构建和训练预估深度的神经网络模型。
输入单元202用于将采集到的图像输入到预估深度的神经网络模型中,以获取估算的所述图像的深度,图像的深度包括图像各个像素点的深度。
确定单元203用于根据各关键区域的位置及所述图像的深度确定关键区域组的各关键区域的各个像素点的深度。
实施例七:
如图7所示,在本实施例中,实施例五中的拍摄模块103包括用于执行图3所对应的实施例中的方法步骤的结构,其包括聚焦点确定单元301和拍摄单元302。
聚焦点确定单元301用于根据各关键区域的深度利用焦点堆栈深度估计法确定在各关键区域的深度面上的聚焦点。
拍摄单元302用于控制相机分别对关键区域组的各个关键区域的聚焦点进行聚焦拍摄,得到各关键区域的对焦图像。
实施例八:
如图8所示,在本实施例中,实施例五中的判断模块104包括用于执行图4所对应的实施例中的方法步骤的结构,其包括获取单元401、计算单元402以及判断单元403。
获取单元401用于获取各关键区域的对焦图像的模糊程度。
计算单元402用于根据各关键区域的对焦图像的模糊程度计算所述图像的模糊程度。
判断单元403用于判断所述图像的模糊程度是否超过判定阈值;若所述图像的模糊程度超过所述判定阈值,则确定所述检测对象为非活体。
实施例九:
图9是本发明实施例七提供的终端设备的示意图。如图9所示,该实施例的终端设备9包括:处理器90、存储器91以及存储在所述存储器91中并可在所述处理器90上运行的计算机程序92,例如程序。所述处理器90执行所述计算机程序92时实现上述各方法实施例中的步骤,例如图1所示的步骤S101至S104。或者,所述处理器90执行所述计算机程序92时实现上述系统实施例中各模块/单元的功能,例如图5所示模块101至104的功能。
示例性的,所述计算机程序92可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器91中,并由所述处理器90执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序92在所述终端设备9中的执行过程。例如,所述计算机程序92可以被分割成采集模块、估算模块、拍摄模块以及判断模块,各模块具体功能如下:
采集模块,用于采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
估算模块,用于将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;
拍摄模块,用于基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
判断模块,用于根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体。
所述终端设备9可以是桌上型计算机、笔记本、掌上电脑及云端管理服务器等计算设备。所述终端设备可包括,但不仅限于,处理器90、存储器91。本领域技术人员可以理解,图9仅仅是终端设备9的示例,并不构成对终端设备9的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器90可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器91可以是所述终端设备9的内部存储单元,例如终端设备9的硬盘或内存。所述存储器91也可以是所述终端设备9的外部存储设备,例如所述终端设备9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器91还可以既包括所述终端设备9的内部存储单元也包括外部存储设备。所述存储器91用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器91还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述无线终端中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的系统/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的系统/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,系统或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述设置为分离部件说明的单元可以是或者也可以不是物理上分开的,设置为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以集成在一个处理单元中,也可以是各单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并设置为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或系统、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (5)
1.一种活体检测方法,其特征在于,包括:
采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;所述将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度,包括:
构建和训练预估深度的神经网络模型;
将采集到的图像输入到预估深度信息的神经网络模型中,以获取估算的所述图像的深度,图像的深度包括图像各个像素点的深度;
根据各关键区域的位置及所述图像的深度确定关键区域组的各关键区域的各个像素点的深度;
基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
所述基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像,包括:
根据各关键区域的深度利用焦点堆栈深度估计法确定在各关键区域的深度面上的聚焦点;
控制相机分别对关键区域组的各个关键区域的聚焦点进行聚焦拍摄,得到各关键区域的对焦图像;
根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体;
所述根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体,包括:
获取各关键区域的对焦图像的模糊程度;
根据各关键区域的对焦图像的模糊程度计算所述图像的模糊程度;
判断所述图像的模糊程度是否超过判定阈值;
若所述图像的模糊程度超过所述判定阈值,则确定所述检测对象为非活体。
2.根据权利要求1所述的活体检测方法,其特征在于,在设置关键区域组,估算所述关键区域组中各关键区域的深度之后,还包括:
判断估算得到的各关键区域的中心点的深度是否相同;
若个各关键区域的中心点的深度相同,则确定所述检测对象为非活体。
3.一种活体检测系统,其特征在于,包括:
采集模块,用于采集检测对象的图像并根据人脸的五官形状特征及分类器定位关键区域;
估算模块,用于将所述检测对象的图像的所有关键区域设置为关键区域组,估算所述关键区域组中各关键区域的各个像素点的深度;
拍摄模块,用于基于估算得到的深度分别对各关键区域进行对焦拍摄,获取各关键区域的对焦图像;
判断模块,用于根据所述各关键区域的对焦图像的图像质量判断检测对象是否为活体;
其中,所述拍摄模块包括:
聚焦点确定单元,用于根据各关键区域的深度利用焦点堆栈深度估计法确定在各关键区域的深度面上的聚焦点;
拍摄单元,用于控制相机分别对关键区域组的各个关键区域的聚焦点进行聚焦拍摄,得到各关键区域的对焦图像;
其中,所述判断模块具体用于获取各关键区域的对焦图像的模糊程度;根据各关键区域的对焦图像的模糊程度计算所述图像的模糊程度;判断所述图像的模糊程度是否超过判定阈值;若所述图像的模糊程度超过所述判定阈值,则确定所述检测对象为非活体;
所述判断模块包括:
获取单元,用于获取各关键区域的对焦图像的模糊程度;
计算单元,用于根据各关键区域的对焦图像的模糊程度计算所述图像的模糊程度;
判断单元,用于判断所述图像的模糊程度是否超过判定阈值;若所述图像的模糊程度超过所述判定阈值,则确定所述检测对象为非活体。
4.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至2任一项所述方法的步骤。
5.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至2任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910112917.3A CN109948439B (zh) | 2019-02-13 | 2019-02-13 | 一种活体检测方法、系统及终端设备 |
PCT/CN2019/117188 WO2020164266A1 (zh) | 2019-02-13 | 2019-11-11 | 一种活体检测方法、系统及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910112917.3A CN109948439B (zh) | 2019-02-13 | 2019-02-13 | 一种活体检测方法、系统及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109948439A CN109948439A (zh) | 2019-06-28 |
CN109948439B true CN109948439B (zh) | 2023-10-31 |
Family
ID=67007934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910112917.3A Active CN109948439B (zh) | 2019-02-13 | 2019-02-13 | 一种活体检测方法、系统及终端设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109948439B (zh) |
WO (1) | WO2020164266A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948439B (zh) * | 2019-02-13 | 2023-10-31 | 平安科技(深圳)有限公司 | 一种活体检测方法、系统及终端设备 |
CN110929557A (zh) * | 2019-09-25 | 2020-03-27 | 四川大学锦城学院 | 一种基于活体检测的智能安防方法、系统及处理装置 |
CN111241989B (zh) * | 2020-01-08 | 2023-06-13 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置、电子设备 |
CN111814697B (zh) * | 2020-07-13 | 2024-02-13 | 伊沃人工智能技术(江苏)有限公司 | 一种实时人脸识别方法、系统及电子设备 |
CN113903084A (zh) * | 2021-10-13 | 2022-01-07 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、可读存储介质及计算机程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009065356A (ja) * | 2007-09-05 | 2009-03-26 | Canon Inc | 撮像装置、レンズユニットおよび制御方法 |
CN105023010A (zh) * | 2015-08-17 | 2015-11-04 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
CN105975926A (zh) * | 2016-04-29 | 2016-09-28 | 中山大学 | 基于光场相机的人脸活体检测方法 |
CN107016348A (zh) * | 2017-03-09 | 2017-08-04 | 广东欧珀移动通信有限公司 | 结合深度信息的人脸检测方法、检测装置和电子装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9036936B2 (en) * | 2011-06-20 | 2015-05-19 | Fujifilm Corporation | Image processing device, image processing method, and image processing program |
US9025874B2 (en) * | 2013-02-19 | 2015-05-05 | Blackberry Limited | Method and system for generating shallow depth of field effect |
KR101476799B1 (ko) * | 2013-07-10 | 2014-12-26 | 숭실대학교산학협력단 | 깊이 정보를 이용한 객체 검출 시스템 및 방법 |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN109117755B (zh) * | 2018-07-25 | 2021-04-30 | 北京飞搜科技有限公司 | 一种人脸活体检测方法、系统和设备 |
CN109034102B (zh) * | 2018-08-14 | 2023-06-16 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109948439B (zh) * | 2019-02-13 | 2023-10-31 | 平安科技(深圳)有限公司 | 一种活体检测方法、系统及终端设备 |
-
2019
- 2019-02-13 CN CN201910112917.3A patent/CN109948439B/zh active Active
- 2019-11-11 WO PCT/CN2019/117188 patent/WO2020164266A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009065356A (ja) * | 2007-09-05 | 2009-03-26 | Canon Inc | 撮像装置、レンズユニットおよび制御方法 |
CN105023010A (zh) * | 2015-08-17 | 2015-11-04 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
CN105975926A (zh) * | 2016-04-29 | 2016-09-28 | 中山大学 | 基于光场相机的人脸活体检测方法 |
CN107016348A (zh) * | 2017-03-09 | 2017-08-04 | 广东欧珀移动通信有限公司 | 结合深度信息的人脸检测方法、检测装置和电子装置 |
Non-Patent Citations (1)
Title |
---|
基于大数据和深度学习的人脸识别布控系统;江洲 等;电子世界(第09期);第54-56页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109948439A (zh) | 2019-06-28 |
WO2020164266A1 (zh) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948439B (zh) | 一种活体检测方法、系统及终端设备 | |
CN109416727B (zh) | 一种人脸图像中眼镜去除方法及装置 | |
CN111368717B (zh) | 视线确定方法、装置、电子设备和计算机可读存储介质 | |
CN110852310B (zh) | 三维人脸识别方法、装置、终端设备及计算机可读介质 | |
CN111091075B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
KR20150022016A (ko) | 얼굴 검증용 시스템들 및 방법 | |
CN110147708B (zh) | 一种图像数据处理方法和相关装置 | |
CN109871845B (zh) | 证件图像提取方法及终端设备 | |
CN107292269B (zh) | 基于透视失真特性的人脸图像鉴伪方法、存储、处理设备 | |
TWI721786B (zh) | 人臉校驗方法、裝置、伺服器及可讀儲存媒介 | |
WO2021008205A1 (zh) | 图像处理 | |
CN112883918A (zh) | 人脸检测方法、装置、终端设备及计算机可读存储介质 | |
CN110674800A (zh) | 一种人脸活体检测方法、装置、电子设备及存储介质 | |
CN111444555B (zh) | 一种测温信息显示方法、装置及终端设备 | |
CN111209820A (zh) | 人脸活体检测方法、系统、设备及可读存储介质 | |
CN111311481A (zh) | 背景虚化方法、装置、终端设备及存储介质 | |
CN111126250A (zh) | 一种基于ptgan的行人重识别方法及装置 | |
CN111784658A (zh) | 一种用于人脸图像的质量分析方法和系统 | |
WO2022199395A1 (zh) | 人脸活体检测方法、终端设备及计算机可读存储介质 | |
CN113642639B (zh) | 活体检测方法、装置、设备和存储介质 | |
CN114387548A (zh) | 视频及活体检测方法、系统、设备、存储介质及程序产品 | |
CN109726613B (zh) | 一种用于检测的方法和装置 | |
CN112204957A (zh) | 白平衡处理方法和设备、可移动平台、相机 | |
WO2021176899A1 (ja) | 情報処理方法、情報処理システム、及び、情報処理装置 | |
CN111222446B (zh) | 人脸识别方法、人脸识别装置及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |