CN106650597B - 一种活体检测方法和装置 - Google Patents
一种活体检测方法和装置 Download PDFInfo
- Publication number
- CN106650597B CN106650597B CN201610888831.6A CN201610888831A CN106650597B CN 106650597 B CN106650597 B CN 106650597B CN 201610888831 A CN201610888831 A CN 201610888831A CN 106650597 B CN106650597 B CN 106650597B
- Authority
- CN
- China
- Prior art keywords
- instruction
- weight
- action
- loss
- reference action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000001574 biopsy Methods 0.000 title abstract description 3
- 230000009471 action Effects 0.000 claims abstract description 238
- 238000001514 detection method Methods 0.000 claims description 111
- 230000033001 locomotion Effects 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000001727 in vivo Methods 0.000 claims description 11
- 230000002596 correlated effect Effects 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 230000004397 blinking Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000000554 iris Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010036790 Productive cough Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明实施例提供了一种活体检测方法和装置,该方法包括:通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重;根据所述指令权重从所述参考动作指令中选择目标动作指令;当提示所述目标动作指令时,采集目标图像数据;检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。本发明实施例通过稀疏约束减少指令的数量,从而提高操作的简便性,提高用户体验。
Description
技术领域
本发明涉及安全技术领域,特别是涉及一种活体检测方法和一种活体检测装置。
背景技术
随着生物特征识别技术的迅速发展,诸如指纹、人脸、虹膜等生物特征广泛应用在安检、支付、数据加密等领域。
不法分子通过伪造指纹、人脸照片、人脸素描、人脸视频、三维模型合成等攻击手段进行欺骗,从而骗取得到合法的身份认知,从事非法活动。
为了提高安检、支付、数据加密等领域的安全性,通常在生物特征识别时进行活体检测。
目前,经常使用挑战-响应机制方法进行活体检测,即要求用户根据系统发出的指令做出相应的回应,通过估计用户的行为信息来判断用户对于指令的响应是否正确,如果响应正确,则可以确定当前用户为合法用户,否则为攻击者。
例如,指出一个方向并要求用户将头部转到该指定的方向,通过估计用户的头部姿态来判断是否活体;又例如,要求用户读出一组数字,通过嘴部形状来判断是否为活体,等等。
在挑战-响应机制方法中,提高指令的数量可以提高活体检测的准确率,但是,指令的数量过多会导致操作繁琐,用户体验差,反之,降低指令的数量可以提高操作的简便性,但是,指令的数量过少会导致活体检测的准确率。
发明内容
鉴于上述问题,为了解决上述难以同时保证活体检测的准确率和操作的简便性的问题,本发明实施例提出了一种活体检测方法和相应的一种活体检测装置。
为了解决上述问题,本发明实施例公开了一种活体检测方法,包括:
通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重;
根据所述指令权重从所述参考动作指令中选择目标动作指令;
当提示所述目标动作指令时,采集目标图像数据;
检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。
优选地,所述通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重的步骤,包括:
采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重。
优选地,所述通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重的步骤,还包括:
从预设的动作指令集中依次选择参考动作指令;
采集所述参考动作指令的用户动作图像;
提取所述用户动作图像的特征信息;
根据所述特征信息训练动作指令分类器。
优选地,所述损失函数包括损失项和正则项;
所述损失项为所述参考动作指令的用户动作图像的预计分类标签与实际分类标签之间的损失值;
所述正则项为以损失项为基础对所述参考动作指令的指令权重进行基于组的稀疏约束;
其中,所述参考动作指令的每一个参考动作指令的指令权重为多维;
所述基于组的稀疏约束为以一个参考动作指令的指令权重为组进行稀疏约束;
所述指令权重的维数与一个用户在一个参考动作指令下采集的用户动作图像的帧数相同。
优选地,所述采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重的步骤,包括:
采用对所述损失项与正则项取最小值配置所述参考动作指令的指令权重。
优选地,所述损失函数为:
其中,J(X,Y,f1,…,fT,w)为损失项,为正则项,λ是调整损失项和正则项之间重要性的比例权重;
其中,是用户ui在参考动作指令Ot,t∈{1,…,T}下采集到的训练图像数据的动作特征信息;
Y=[y1,…,yN]T,yi是所述训练图像数据的分类标签;
w=[w1,w2,…,wT],是参考动作指令Ot,t∈{1,…,T}对应的nt维的指令权重;
ft是参考动作指令Ot,t∈{1,…,T}的分类器。
优选地,所述指令权重与所述参考动作指令被选择的概率正相关。
优选地,还包括:
统计在检测活体时的检测信息;
根据所述检测信息对当前的指令权重进行更新。
优选地,所述根据所述检测信息对当前的指令权重进行更新的步骤包括:
采用所述检测信息计算指令权重更新系数;
结合所述指令权重更新系数与当前指令权重计算更新指令权重;
将当前的指令权重替换为所述更新指令权重。
优选地,所述检测信息包括平均检测时间、平均检测准确率;
所述采用所述检测信息计算指令权重更新系数的步骤包括:
对所述平均检测时间配置第一因素权重;
对所述平均检测准确率配置第二因素权重;
采用配置第一因素权重的平均检测时间、配置第二因素权重的平均检测准确率计算指令权重更新系数。
本发明实施例还公开了一种活体检测装置,包括:
选择模型配置模块,用于通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重;
目标动作指令选择模块,用于根据所述指令权重从所述参考动作指令中选择目标动作指令;
目标图像数据采集模块,用于在提示所述目标动作指令时,采集目标图像数据;
活体对象检测模块,用于检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。
优选地,所述选择模型配置模块包括:
损失函数配置子模块,用于采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重。
优选地,所述选择模型配置模块还包括:
参考动作指令选择子模块,用于从预设的动作指令集中依次选择参考动作指令;
用户动作图像采集子模块,用于采集所述参考动作指令的用户动作图像;
特征信息提取子模块,用于提取所述用户动作图像的特征信息;
指令分类器训练子模块,用于根据所述特征信息训练动作指令分类器。
优选地,所述损失函数包括损失项和正则项;
所述损失项为所述参考动作指令的用户动作图像的预计分类标签与实际分类标签之间的损失值;
所述正则项为以损失项为基础对所述参考动作指令的指令权重进行基于组的稀疏约束;
其中,所述参考动作指令的每一个参考动作指令的指令权重为多维;
所述基于组的稀疏约束为以一个参考动作指令的指令权重为组进行稀疏约束;
所述指令权重的维数与一个用户在一个参考动作指令下采集的用户动作图像的帧数相同。
优选地,所述损失函数配置子模块包括:
指令权重计算单元,用于采用对所述损失项与正则项取最小值配置所述参考动作指令的指令权重。
优选地,所述损失函数为:
其中,J(X,Y,f1,…,fT,w)为损失项,为正则项,λ是调整损失项和正则项之间重要性的比例权重;
其中,是用户ui在参考动作指令Ot,t∈{1,…,T}下采集到的训练图像数据的动作特征信息;
Y=[y1,…,yN]T,yi是所述训练图像数据的分类标签;
w=[w1,w2,…,wT],是参考动作指令Ot,t∈{1,…,T}对应的nt维的指令权重;
ft是参考动作指令Ot,t∈{1,…,T}的分类器。
在本发明的一个实施例中,所述指令权重与所述参考动作指令被选择的概率正相关,
优选地,还包括:
检测信息统计模块,用于统计在检测活体时的检测信息;
指令权重更新模块,用于根据所述检测信息对当前的指令权重进行更新。
优选地,所述指令权重更新模块包括:
指令权重更新系数计算子模块,用于采用所述检测信息计算指令权重更新系数;
更新指令权重计算子模块,用于结合所述指令权重更新系数与当前指令权重计算更新指令权重;
更新指令权重更新子模块,用于将当前的指令权重替换为所述更新指令权重。
优选地,所述检测信息包括平均检测时间、平均检测准确率;
所述指令权重更新系数计算子模块可以包括如下单元:
第一因素权重配置单元,用于对所述平均检测时间配置第一因素权重;
第二因素权重配置单元,用于对所述平均检测准确率配置第二因素权重;
权重计算单元,用于采用配置第一因素权重的平均检测时间、配置第二因素权重的平均检测准确率计算指令权重更新系数。
本发明实施例包括以下优点:
本发明实施例采用指令选择模型配置预设的参考动作指令的指令权重,根据指令权重从参考动作指令中选择目标动作指令进行提示,之后,采集目标图像数据,从中检测完成目标动作指令表征的动作的活体对象,通过稀疏约束可以减少指令的数量,从而提高操作的简便性,提高用户体验。
本发明实施例采用损失函数计算参考动作指令的指令权重,包括损失项和正则项,一方面,损失项可以让估计值和实际值更接近,从而保证活体检测的准确率,但是,对指令的数量没有约束,另一方面,通过正则项进行稀疏约束可以尽可能减少指令的数量,从而提高操作的简便性,提高用户体验。
本发明实施例通过统计在检测活体对象时的检测信息,对当前的指令权重进行更新,减少被攻击者识破活体检测的交互策略的概率,提高了活体检测的安全性。
附图说明
图1是本发明的一种活体检测方法实施例的步骤流程图;
图2是本发明的另一种活体检测方法实施例的步骤流程图;
图3A-图3H是本发明实施例的一种基于目标动作指令采集的目标图像数据的示例图;
图4是本发明实施例的一种目标图像数据的人脸特征信息的示例图;
图5是本发明的另一种活体检测方法实施例的步骤流程图;
图6是本发明的一种活体检测装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明的一种活体检测方法实施例的步骤流程图,具体可以包括如下步骤:
步骤101,通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重。
步骤102,根据所述指令权重从所述参考动作指令中选择目标动作指令。
步骤103,当提示所述目标动作指令时,采集目标图像数据。
步骤104,检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。在实际应用中,本发明实施例属于基于挑战-响应机制方法进行活体检测,在活体检测过程中,指令的数量是重要的参数之一。
为了折中考虑活体检测的准确率和操作的简便性,本发明实施例提出了基于指令选择的活体检测方法,该方法通过指令选择模型,基于带有指令权重的动作指令进行活体检测。
本发明实施例采用指令选择模型配置预设的参考动作指令的指令权重,根据指令权重从参考动作指令中选择目标动作指令进行提示,之后,采集目标图像数据,从中检测完成目标动作指令表征的动作的活体对象,通过稀疏约束可以减少指令的数量,从而提高操作的简便性,提高用户体验。
参照图2,示出了本发明的另一种活体检测方法实施例的步骤流程图,具体可以包括如下步骤:
步骤201,从预设的动作指令集中依次选择参考动作指令。
步骤202,采集所述参考动作指令的用户动作图像。
步骤203,提取所述用户动作图像的特征信息。
步骤204,根据所述特征信息训练动作指令分类器。
在具体实现中,对于指令分类器,可以把每一个参考动作指令的识别看作是一个二分类问题,具体过程如下:
对于某一个参考动作指令的分类器ft,假设其训练数据集为其中,是特征信息,是分类标签,表示该训练样本执行了参考动作指令Ot,相应地,则表示该训练样本没有执行参考动作指令Ot。
在提取每个参考动作指令对应的特征信息之后,可以采用SVM(Support VectorMachine,支持向量机)等方式来训练指令分类器。
与一个随机头部方向或者一组随机数字不同,本发明实施例中的参考动作指令,可以要求用户根据指令做出一组面部动作,例如,左转头、右转头、左摆头、右摆头、捂嘴、吐舌头、张嘴、眨眼等等。
需要说明的是,指令权重、指令分类器可以在离线进行计算,在线进行活体检测时可以直接应用,当然,指令权重、指令分类器也可以在线进行计算,本发明实施例对此不加以限制。
步骤205,采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重。
为了折中考虑活体检测的准确率和操作的简便性,本发明实施例提出了基于指令选择的活体检测方法,该方法通过损失函数建立指令选择模型,基于带有指令权重的参考动作指令进行活体检测。
在本发明的一个实施例中,损失函数可以包括:
1、损失项(loss term)。
所述损失项为所述参考动作指令的用户动作图像的预计分类标签与实际分类标签之间的损失值。损失项计算的是预计分类标签(即预设的分类标签,如是否为活体)和实际分类标签(即实际计算的分类标签,如是否为活体)的损失,即,对当前用户,从预设的参考动作指令集中依次选择参考动作指令,采集用户动作图像后获得实际计算的分类标签,计算用户动作图像的预计的分类标签与实际计算的分类标签之间的差值,作为损失值,然后再组合所有用户的损失值,作为损失项。
2、正则项(regularization term)。
所述正则项为以损失项为基础对所述参考动作指令的指令权重进行基于组的稀疏约束。
在损失项的基础上,增加指令的稀疏项,通过指令稀疏项来约束参考动作指令的数量,使得参考动作指令的数量尽可能少。
在损失项的基础上,通过指令稀疏约束建立指令选择模型,可以保持活体检测的准确率的同时,尽可能地减少指令的数量。
由于每个动作指令发出时会捕捉到用户的多帧动作图像,每帧动作图像的特征信息对应一维权重,所以,所述参考动作指令的每一个参考动作指令的指令权重为多维。
所述基于组的稀疏约束为以一个参考动作指令的指令权重为组进行稀疏约束,因此,指令权重是多维的,每一个参考动作指令对应了多维指令权重,指令权重的维数与一个用户在一个参考动作指令下采集的用户动作图像的帧数相同,且期望没有选中的参考动作指令的每一维指令权重为零。
在本发明实施例中,步骤205可以包括如下子步骤:
子步骤2051,采用对所述损失项与正则项取最小值配置所述参考动作指令的指令权重。最小化损失项的值,可以让估计值(即预计的分类标签,如是否为活体)和实际值(即实际计算的分类标签,如是否为活体)更接近,即准确率更高,但是对指令的数量没有约束。因此,本发明在损失项的基础上,增加正则项,并通过对损失项和正则项进行取最小值来配置各参考动作指令的指令权重,在保证识别准确率的基础上约束对用户发出的动作指令的数量,从而提高操作的简便性,提高用户体验。
为了更好地解释提出的指令选择模型,本发明实施例定义训练数据集合:
其中,N是训练样本的总数量,一个训练样本是指一个用户完成T个目标动作指令时采集的训练图像数据,i是N个训练样本中的任意一个训练样本。
是用户ui在参考动作指令Ot,t∈{1,…,T}下采集到的第j个训练图像数据的动作特征信息,其中,j∈{1,Λ,nt},nt表示用户ui在参考动作指令下Ot采集的图像帧数。
在本发明实施例中,每个用户参与一次参考动作指令的执行,因此,用户和训练样本的指标是一样的。
yi是所述训练图像数据的分类标签,一般而言,yi∈{-1,1},即yi=1表示检测到活体对象,确定为合法用户,yi=-1表示未检测到活体对象,确定为攻击者。
ft是参考动作指令Ot,t∈{1,…,T}的分类器,一般而言,如果ft>0,则训练样本被预测为标签为1的一类(即合法用户),如果ft<0,则训练样本被预测为标签为-1的一类(即攻击者)。
此外,用表示参考动作指令Ot,t∈{1,…,T}对应的nt维指令权重,维度和采集的图像帧数对应,则w=[w1;w2;…;wT]组成了所有参考动作指令的权重向量。
基于以上描述,提出的指令选择模型的损失函数为:
其中,J(X,Y,f1,…,fT,w)为损失项,为正则项,λ是调整损失项和正则项之间重要性的比例权重。
在本发明实施例中,可以采用logistic(逻辑回归)函数作为损失项J:
为了求解指令权重wt,基于传统的梯度下降方法,可以选择指令权重稀疏为零或者非零,求解方法见Algorithm1指令选择算法:
1、输入训练数据集合i=1,…,N,t=1,…,T,N是样本数目,t是参考动作指令。
定义
2、初始化,w取相同的数值,调节参数λ和步长η。
3、设置iter=0,执行如下操作:
如果则否则,wt(iter+1)=0
4、对指令权重w进行归一化,
5、得到指令权重w的数值,
步骤206,根据所述指令权重从所述参考动作指令中选择目标动作指令。
每个参考动作指令携带有对应的指令权重wt,构成了新的动作指令集合。对于一个测试用户,可以从新的动作指令集合随机选择参考动作指令的序列,作为目标动作指令,依次提示用户。
在本发明实施例中,指令权重与所述参考动作指令被选择的概率正相关,即指令权重越大,参考动作指令被选择作为目标动作指令的概率越大,反之,指令权重越小,参考动作指令被选择作为目标动作指令的概率越小。
而且,通过指令选择模型计算得到的指令权重,指令权重较大的参考动作指令比指令权重较小的参考动作指令进行活体检测的准确率高。因此,实现了通过较少次数的指令选择就可以获取较高的识别准确率,从而,在保证准确率的基础上减少了被选择的指令的个数,提高了用户的体验。
在一个示例中,可以按照指令权重复制参考动作指令,从被复制之后的参考动作指令随机选取目标动作指令。
例如,假设具有2个参考动作指令,第一个参考动作指令的指令权重为4/5,第二个参考动作指令的指令权重为1/5,那么,可以将第一个参考动作指令复制4份,第二个参考动作指令保持一份,这样,在随机选择的时候,选择到第一个参考动作指令的可能性较第二个参考动作指令大。
步骤207,当提示所述目标动作指令时,采集目标图像数据。
在本发明实施例中,可以通过语音、文字等方式提示目标动作指令,合法用户可以按照目标动作指令完成指定的操作,而攻击者则无法按照目标动作指令完成指定的操作。
此时,可以调用摄像头采集目标图像数据,进行活体的判断。
在一个示例中,如果模板动作指令为左转头,则可以采集如图3A所示的目标图像数据。
在另一个示例中,如果模板动作指令为右转头,则可以采集如图3B所示的目标图像数据。
在另一个示例中,如果模板动作指令为左摆头,则可以采集如图3C所示的目标图像数据。
在另一个示例中,如果模板动作指令为右摆头,则可以采集如图3D所示的目标图像数据。
在另一个示例中,如果模板动作指令为捂嘴,则可以采集如图3E所示的目标图像数据。
在另一个示例中,如果模板动作指令为吐舌头,则可以采集如图3F所示的目标图像数据。
在另一个示例中,如果模板动作指令为张嘴,则可以采集如图3G所示的目标图像数据。
在另一个示例中,如果模板动作指令为眨眼,则可以采集如图3H所示的目标图像数据。
其中,眨眼一般包含3个状态:全睁、半睁和全闭,如果目标图像数据被检测出发生全睁-半睁-全闭-半睁-全睁的序列,则说明发生了眨眼。
步骤208,检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。
在本发明实施例中,可以事先从训练样本中提取特征信息,为每个参考动作指令训练对应的指令分类器,通过调用该指令分类器,可以在目标图像数据中检测是否完成目标动作指令表征的动作。
人脸含有丰富的信息,相比指纹、虹膜等生物特征,具有容易获取、使用方便的优点,逐渐成为生物特征认证的常用技术,广泛应用在门禁检测、登陆系统检测、出入境安全监测管理、犯罪嫌疑人照片对比等领域。
随着智能设备的普及,伪造人脸攻击变得越来越容易,不法分子可以使用照相机或者手机将拍摄的人脸放在人脸认证系统前进行验证,获取合法的用户身份权限,从事一些违法犯罪的行为。
为使本领域技术人员更好地理解本发明实施例,在本说明书中,将人脸识别作为生物特征认证的一种示例进行说明。
在具体实现中,可以按照目标动作指令在目标图像数据中提取人脸特征信息。
参考图4,对于左转头和右转头的目标动作指令,可以采用欧拉角度中的偏航角度(Yaw)作为人脸特征信息(1维),也可以采用欧拉角度中的滚转角度(Roll)作为人脸特征信息(1维)。
对于捂嘴、吐舌头和张嘴的目标动作指令,可以通过提取嘴部区域特征作为人脸特征信息。具体而言,首先通过ESR(explicit shape regression algorithm,示形状回归算法)定位到左、右两个嘴角;然后根据嘴角位置将嘴部区域对齐为64×64大小区域并均匀划分为4×4个子区域;最后对每个子区域提取16维DH-LBP(Local Binary Pattern,局部二值模式),将所有子区域特征串联就构成了最后的嘴部区域的人脸特征信息。
对于眨眼的目标动作指令,可以3个分类器来识别眨眼过程中的3种状态:全睁、半睁和全闭。对于每一个分类器,可以眼部图像的特征表示作为分类器的输入。具体而言,首先通过ESR定位到左、右两个眼角;然后根据眼角位置将嘴部区域对齐为48×32大小区域并均匀划分为3×2个子区域;最后对每个子区域提取16维DH-LBP,将所有子区域特征串联就构成了最后的眼部区域的人脸特征信息。
将人脸特征信息输入目标动作指令对应的分类器中、检测完成目标动作指令表征的面部动作的活体对象。
以及,接收分类器输出的检测结果。
如果完成目标动作指令表征的面部动作,则确定检测到活体对象,当前用户为合法用户。
反之,如果未完成目标动作指令表征的面部动作,则确定未检测到活体对象,当前用户为攻击者。
本发明实施例采用损失函数配置指令权重,损失函数分为损失项和正则项,一方面,损失项可以让估计值和实际值更接近,从而保证活体检测的准确率,但是,对指令的数量没有约束,另一方面,通过正则项进行稀疏约束可以尽可能减少指令的数量,从而提高操作的简便性,提高用户体验。
参照图5,示出了本发明的另一种活体检测方法实施例的步骤流程图,具体可以包括如下步骤:
步骤501,通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重。
步骤502,根据所述指令权重从所述参考动作指令中选择目标动作指令。
步骤503,当提示所述目标动作指令时,采集目标图像数据。
步骤504,检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。
步骤505,统计在检测活体时的检测信息。
步骤506,根据所述检测信息对当前的指令权重进行更新。
在训练数据集合上,得到每个参考动作指令Ot对应的指令权重wt,如果指令权重wt一直不变,活体检测的交互策略容易被攻击者识破,因此,为了提高活体检测的安全性,可以对指令权重wt进行在线更新。
在本发明的一个实施例中,步骤506可以包括如下子步骤:
子步骤5061,采用所述检测信息计算指令权重更新系数;
在一个示例中,检测信息可以包括平均检测时间(即从提示目标参考指令到输出检测结果之间所经历的平均时间)、平均检测准确率(即检测准确的数量与预测准确的数量之间的平均比值)。
在具体实现中,可以对平均检测时间配置第一因素权重,对平均检测准确率配置第二因素权重。
第一因素权重与第二因素权重可以用于衡量平均检测时间、平均检测准确率之间的重要性,一般情况下,第一因素权重与第二因素权重之间的和为1。
采用配置第一因素权重的平均检测时间、配置第二因素权重的平均检测准确率计算指令权重更新系数。
假设平均检测时间为tU,平均检测准确率为rU,第一因素权重为β,第二因素权重为γ,β+γ=1,则指令权重更新系数α为:
α=exp(β(-tU)+γrU)
当然,上述检测信息及指令权重更新系数的计算方式只是作为示例,在实施本发明实施例时,可以根据实际情况设置其他检测信息及指令权重更新系数的计算方式,本发明实施例对此不加以限制。另外,除了上述判断处理方法外,本领域技术人员还可以根据实际需要采用其它检测信息及指令权重更新系数的计算方式,本发明实施例对此也不加以限制。
子步骤5062,结合所述指令权重更新系数与当前指令权重计算更新指令权重;
子步骤5063,将当前的指令权重替换为所述更新指令权重。
假设当前为第k次更新指令权重,其更新周期可以按照实际需要进行设置,如每进行一定次数(如10次)活体检测则更新指令权重,或者,每间隔一段时间(如10个小时)则更新指令权重,等等。
因此,更新指令权重为wt(k+1)=αwt(k)。
本发明实施例通过统计在检测活体对象时的检测信息,对当前的指令权重进行更新,减少被攻击者识破活体检测的交互策略的概率,提高了活体检测的安全性。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图6,示出了本发明的一种活体检测装置实施例的结构框图,具体可以包括如下模块:
选择模型配置模块601,用于通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重;
目标动作指令选择模块602,用于根据所述指令权重从所述参考动作指令中选择目标动作指令;
目标图像数据采集模块603,用于在提示所述目标动作指令时,采集目标图像数据;
活体对象检测模块604,用于检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体。
在本发明的一个实施例中,所述选择模型配置模块601可以包括如下子模块:
损失函数配置子模块,用于采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重。
在本发明的另一个实施例中,所述选择模型配置模块601还可以包括如下子模块:
参考动作指令选择子模块,用于从预设的动作指令集中依次选择参考动作指令;
用户动作图像采集子模块,用于采集所述参考动作指令的用户动作图像;
特征信息提取子模块,用于提取所述用户动作图像的特征信息;
指令分类器训练子模块,用于根据所述特征信息训练动作指令分类器。
在本发明的一个实施例中,所述损失函数包括损失项和正则项;
所述损失项为所述参考动作指令的用户动作图像的预计分类标签与实际分类标签之间的损失值;
所述正则项为以损失项为基础对所述参考动作指令的指令权重进行基于组的稀疏约束;
其中,所述参考动作指令的每一个参考动作指令的指令权重为多维;
所述基于组的稀疏约束为以一个参考动作指令的指令权重为组进行稀疏约束;
所述指令权重的维数与一个用户在一个参考动作指令下采集的用户动作图像的帧数相同。
在本发明的一个实施例中,所述损失函数配置子模块可以包括如下单元:
指令权重计算单元,用于采用对所述损失项与正则项取最小值配置所述参考动作指令的指令权重。
在具体实现中,所述损失函数为:
其中,J(X,Y,f1,…,fT,w)为损失项,为正则项,λ是调整损失项和正则项之间重要性的比例权重;
其中,是用户ui在参考动作指令Ot,t∈{1,…,T}下采集到的训练图像数据的动作特征信息;
Y=[y1,…,yN]T,yi是所述训练图像数据的分类标签;
w=[w1,w2,…,wT],是参考动作指令Ot,t∈{1,…,T}对应的nt维的指令权重;
ft是参考动作指令Ot,t∈{1,…,T}的分类器。
在本发明的一个实施例中,所述指令权重与所述参考动作指令被选择的概率正相关,所述目标动作指令选择模块602可以包括如下子模块:
参考动作指令复制子模块,用于按照所述指令权重复制所述参考动作指令;
指令随机选取子模块,用于从复制之后的参考动作指令随机选取目标动作指令。
在本发明的一个实施例中,所述活体对象检测模块604可以包括如下子模块:
人脸特征信息提取子模块,用于按照所述目标动作指令在所述目标图像数据中提取人脸特征信息;
人脸特征信息输入子模块,用于将所述人脸特征信息输入所述目标动作指令对应的分类器中、检测完成所述目标动作指令表征的面部动作的活体对象;
检测结果接收子模块,用于接收所述分类器输出的检测结果。
在本发明的一个实施例中,该装置还可以包括如下模块:
检测信息统计模块,用于统计在检测活体时的检测信息;
指令权重更新模块,用于根据所述检测信息对当前的指令权重进行更新。
在本发明的一个实施例中,所述指令权重更新模块可以包括如下子模块:
指令权重更新系数计算子模块,用于采用所述检测信息计算指令权重更新系数;
更新指令权重计算子模块,用于结合所述指令权重更新系数与当前指令权重计算更新指令权重;
更新指令权重更新子模块,用于将当前的指令权重替换为所述更新指令权重。
在本发明实施例的一个示例中,所述检测信息包括平均检测时间、平均检测准确率;
所述指令权重更新系数计算子模块可以包括如下单元:
第一因素权重配置单元,用于对所述平均检测时间配置第一因素权重;
第二因素权重配置单元,用于对所述平均检测准确率配置第二因素权重;
权重计算单元,用于采用配置第一因素权重的平均检测时间、配置第二因素权重的平均检测准确率计算指令权重更新系数。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种活体检测方法和一种活体检测装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (14)
1.一种活体检测方法,其特征在于,包括:
通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重;
根据所述指令权重从所述参考动作指令中选择目标动作指令;
当提示所述目标动作指令时,采集目标图像数据;
检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体;其中,所述通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重的步骤,包括:
采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重;所述损失函数包括损失项和正则项。
2.根据权利要求1所述的方法,其特征在于,所述通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重的步骤,还包括:
从预设的动作指令集中依次选择参考动作指令;
采集所述参考动作指令的用户动作图像;
提取所述用户动作图像的特征信息;
根据所述特征信息训练动作指令分类器。
3.根据权利要求2所述的方法,其特征在于,所述损失项为所述参考动作指令的用户动作图像的预计分类标签与实际分类标签之间的损失值;
所述正则项为以损失项为基础对所述参考动作指令的指令权重进行基于组的稀疏约束;
其中,所述参考动作指令的每一个参考动作指令的指令权重为多维;
所述基于组的稀疏约束为以一个参考动作指令的指令权重为组进行稀疏约束;
所述指令权重的维数与一个用户在一个参考动作指令下采集的用户动作图像的帧数相同。
4.根据权利要求3所述的方法,其特征在于,所述采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重的步骤,包括:
采用对所述损失项与正则项取最小值配置所述参考动作指令的指令权重。
5.根据权利要求3所述的方法,其特征在于,所述损失函数为:
其中,J(X,Y,f1,…,fT,w)为损失项,为正则项,λ是调整损失项和正则项之间重要性的比例权重;
其中,是用户ui在参考动作指令Ot,t∈{1,…,T}下采集到的训练图像数据的动作特征信息;
Y=[y1,…,yN]T,yi是所述训练图像数据的分类标签;
w=[w1,w2,…,wT],是参考动作指令Ot,t∈{1,…,T}对应的nt维的指令权重;
ft是参考动作指令Ot,t∈{1,…,T}的分类器。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述指令权重与所述参考动作指令被选择的概率正相关。
7.根据权利要求6所述的方法,其特征在于,还包括:
统计在检测活体时的检测信息;
根据所述检测信息对当前的指令权重进行更新。
8.根据权利要求7所述的方法,其特征在于,所述根据所述检测信息对当前的指令权重进行更新的步骤包括:
采用所述检测信息计算指令权重更新系数;
结合所述指令权重更新系数与当前指令权重计算更新指令权重;
将当前的指令权重替换为所述更新指令权重。
9.根据权利要求8所述的方法,其特征在于,所述检测信息包括平均检测时间、平均检测准确率;
所述采用所述检测信息计算指令权重更新系数的步骤包括:
对所述平均检测时间配置第一因素权重;
对所述平均检测准确率配置第二因素权重;
采用配置第一因素权重的平均检测时间、配置第二因素权重的平均检测准确率计算指令权重更新系数。
10.一种活体检测装置,其特征在于,包括:
选择模型配置模块,用于通过指令选择模型为预设的动作指令集中的参考动作指令配置进行稀疏约束的指令权重;
目标动作指令选择模块,用于根据所述指令权重从所述参考动作指令中选择目标动作指令;
目标图像数据采集模块,用于在提示所述目标动作指令时,采集目标图像数据;
活体对象检测模块,用于检测所述目标图像数据判断所述目标动作指令表征的动作主体是否为活体;其中,所述选择模型配置模块包括:
损失函数配置子模块,用于采用损失函数对所述参考动作指令配置进行稀疏约束的指令权重;所述损失函数包括损失项和正则项。
11.根据权利要求10所述的装置,其特征在于,
所述损失项为所述参考动作指令的用户动作图像的预计分类标签与实际分类标签之间的损失值;
所述正则项为以损失项为基础对所述参考动作指令的指令权重进行基于组的稀疏约束;
其中,所述参考动作指令的每一个参考动作指令的指令权重为多维;
所述基于组的稀疏约束为以一个参考动作指令的指令权重为组进行稀疏约束;
所述指令权重的维数与一个用户在一个参考动作指令下采集的用户动作图像的帧数相同。
12.根据权利要求11所述的装置,其特征在于,所述损失函数配置子模块包括:
指令权重计算单元,用于采用对所述损失项与正则项取最小值配置所述参考动作指令的指令权重。
13.根据权利要求10、11或12所述的装置,其特征在于,还包括:
检测信息统计模块,用于统计在检测活体时的检测信息;
指令权重更新模块,用于根据所述检测信息对当前的指令权重进行更新。
14.根据权利要求13所述的装置,其特征在于,所述指令权重更新模块包括:
指令权重更新系数计算子模块,用于采用所述检测信息计算指令权重更新系数;
更新指令权重计算子模块,用于结合所述指令权重更新系数与当前指令权重计算更新指令权重;
更新指令权重更新子模块,用于将当前的指令权重替换为所述更新指令权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610888831.6A CN106650597B (zh) | 2016-10-11 | 2016-10-11 | 一种活体检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610888831.6A CN106650597B (zh) | 2016-10-11 | 2016-10-11 | 一种活体检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106650597A CN106650597A (zh) | 2017-05-10 |
CN106650597B true CN106650597B (zh) | 2019-09-03 |
Family
ID=58856411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610888831.6A Active CN106650597B (zh) | 2016-10-11 | 2016-10-11 | 一种活体检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106650597B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977839A (zh) * | 2019-03-20 | 2019-07-05 | 北京字节跳动网络技术有限公司 | 信息处理方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400160A (zh) * | 2013-08-20 | 2013-11-20 | 中国科学院自动化研究所 | 一种零训练样本行为识别方法 |
CN105512632A (zh) * | 2015-12-09 | 2016-04-20 | 北京旷视科技有限公司 | 活体检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917907B2 (en) * | 2011-02-28 | 2014-12-23 | Seiko Epson Corporation | Continuous linear dynamic systems |
-
2016
- 2016-10-11 CN CN201610888831.6A patent/CN106650597B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400160A (zh) * | 2013-08-20 | 2013-11-20 | 中国科学院自动化研究所 | 一种零训练样本行为识别方法 |
CN105512632A (zh) * | 2015-12-09 | 2016-04-20 | 北京旷视科技有限公司 | 活体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106650597A (zh) | 2017-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948408B (zh) | 活性测试方法和设备 | |
US12014571B2 (en) | Method and apparatus with liveness verification | |
US10565433B2 (en) | Age invariant face recognition using convolutional neural networks and set distances | |
CN107423690B (zh) | 一种人脸识别方法及装置 | |
US10579872B2 (en) | Method and apparatus with iris region extraction | |
CN107766786B (zh) | 活性测试方法和活性测试计算设备 | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证系统及其方法 | |
Abdullah et al. | Face recognition for criminal identification: An implementation of principal component analysis for face recognition | |
Hadid | Face biometrics under spoofing attacks: Vulnerabilities, countermeasures, open issues, and research directions | |
CN109564618A (zh) | 用于显著面部区域检测的学习模型 | |
CN109886697A (zh) | 基于表情组别的操作确定方法、装置及电子设备 | |
US20180157892A1 (en) | Eye detection method and apparatus | |
US11804070B2 (en) | Method and apparatus with liveness detection | |
WO2016084072A1 (en) | Anti-spoofing system and methods useful in conjunction therewith | |
WO2008072622A1 (ja) | 顔認証装置 | |
CN109800643A (zh) | 一种活体人脸多角度的身份识别方法 | |
TWI712980B (zh) | 理賠資訊提取方法和裝置、電子設備 | |
US20190311225A1 (en) | Image authentication apparatus, method, and storage medium using registered image | |
CN117121068A (zh) | 使用机器学习和登记数据的个性化生物测定反欺骗保护 | |
CN111382666A (zh) | 具有用户验证的设备和方法 | |
CN111860055A (zh) | 人脸静默活体检测方法、装置、可读存储介质及设备 | |
CN108875497B (zh) | 活体检测的方法、装置及计算机存储介质 | |
JP7141518B2 (ja) | 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体 | |
TWI325568B (en) | A method for face varification | |
Mallet et al. | Deepfake detection analyzing hybrid dataset utilizing cnn and svm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |