CN110991249A - 人脸检测方法、装置、电子设备及介质 - Google Patents
人脸检测方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN110991249A CN110991249A CN201911066080.XA CN201911066080A CN110991249A CN 110991249 A CN110991249 A CN 110991249A CN 201911066080 A CN201911066080 A CN 201911066080A CN 110991249 A CN110991249 A CN 110991249A
- Authority
- CN
- China
- Prior art keywords
- face image
- detection
- detection value
- living body
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 414
- 238000012549 training Methods 0.000 claims description 114
- 238000000034 method Methods 0.000 claims description 47
- 230000006399 behavior Effects 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 13
- 230000001680 brushing effect Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000012360 testing method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000003044 adaptive effect Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011056 performance test Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 206010001488 Aggression Diseases 0.000 description 1
- 230000016571 aggressive behavior Effects 0.000 description 1
- 208000012761 aggressive behavior Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Abstract
本说明书实施例提供了一种人脸检测方法、装置、电子设备及介质,通过将获取的目标人脸图像输入预先训练好的检测模型,得到目标人脸图像的注意力检测值和活体检测值,注意力检测值表征目标人脸图像中用户注视目标位置的概率,活体检测值表征目标人脸图像来源于攻击行为的概率,进而结合注意力检测值和活体检测值,确定目标人脸图像是否通过安全检测。
Description
技术领域
本说明书实施例涉及计算机技术领域,尤其涉及一种人脸检测方法、装置、电子设备及介质。
背景技术
近年来,人脸识别技术在人们的生活和生产中起到了越来越重要的作用,例如,在支付、考勤、出行等场景,人脸识别技术都已经得到了广泛的应用。但是,随之出现诸如打印纸张、手机屏幕展示等攻击手段,也对人脸识别系统的安全使用带来了较大的考验。因此,需要在人脸识别系统中增加安全性检测,以保证系统的安全运行以及用户的利益。
发明内容
本说明书实施例提供了一种人脸检测方法、装置、电子设备及介质。
第一方面,本说明书实施例提供了一种人脸检测方法,包括:获取目标人脸图像;将所述目标人脸图像输入预先训练好的检测模型,得到所述目标人脸图像的注意力检测值和活体检测值,其中,所述注意力检测值用于表征所述目标人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述目标人脸图像来源于攻击行为的概率;基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测。
第二方面,本说明书实施例提供了一种人脸检测方法,包括:获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型。其中,所述检测模型用于输出采集的人脸图像的注意力检测值和活体检测值,所述注意力检测值用于表征所述人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述人脸图像来源于攻击行为的概率,所述注意力检测值和活体检测值用于确定所述人脸图像是否通过安全检测。
第三方面,本说明书实施例提供了一种人脸检测装置,包括:图像获取模块,用于获取目标人脸图像;检测值获取模块,用于将所述目标人脸图像输入预先训练好的检测模型,得到所述目标人脸图像的注意力检测值和活体检测值,其中,所述注意力检测值用于表征所述目标人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述目标人脸图像来源于攻击行为的概率;检测模块,用于基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测。
第四方面,本说明书实施例提供了一种人脸检测装置,包括:数据获取模块,用于获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;训练模块,用于根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型。其中,所述检测模型用于输出采集的人脸图像的注意力检测值和活体检测值,所述注意力检测值用于表征所述人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述人脸图像来源于攻击行为的概率,所述注意力检测值和活体检测值用于确定所述人脸图像是否通过安全检测。
第五方面,本说明书实施例提供了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述第一方面或第二方面提供的人脸检测方法的步骤。
第六方面,本说明书实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一方面或第二方面提供的人脸检测方法的步骤。
本说明书一个实施例提供的人脸检测方法,通过将用户的目标人脸图像输入预先训练好的检测模型,得到目标人脸图像的注意力检测值和活体检测值,从而根据得到的注意力检测值和活体检测值,确定目标人脸图像是否通过安全检测,以确定是否进一步对目标人脸图像进行人脸识别,有利于保障人脸识别系统的安全性。另外,上述过程中,注意力检测值能够反映用户是否有刷脸的意愿,活体检测值能够反映目标人脸图像中的用户是活体,还是属于诸如打印纸张、手机屏幕展示等攻击模式。通过结合注意力检测值以及活体检测值,能够从用户是否有刷脸意愿以及用户是否是活体两方面来实现对目标人脸图像的安全检测,除了能够过滤攻击行为以外,还能够过滤用户没有刷脸意愿的情况,有利于提高检测结果的准确性,降低人脸识别系统的误通过以及误拦截,提升用户体验。并且,对于目标人脸图像中的用户是活体,但是并没有刷脸意愿的情况,就不会再继续对目标人脸图像进行人脸识别,有利于减少对系统计算资源的不必要占用。
附图说明
图1为一种适用于本说明书实施例的一种人脸识别系统的示意图;
图2为本说明书实施例第一方面提供的一种人脸检测方法的流程图;
图3为本说明书实施例第一方面提供的多任务模型的示例性框架示意图;
图4为本说明书实施例第二方面提供的一种人脸检测方法的流程图;
图5为本说明书实施例第三方面提供的一种人脸检测装置的模块框图;
图6为本说明书实施例第四方面提供的一种人脸检测装置的模块框图;
图7为本说明书实施例第五方面提供的一种电子设备的结构示意图。
具体实施方式
图1示出了本说明书实施例提供了一种示例性人脸识别系统。如图1所示,该人脸识别系统10可以包括人脸检测装置101和人脸识别装置102。其中,人脸检测装置101用于获取目标人脸图像;将目标人脸图像输入预先训练好的检测模型,得到目标人脸图像的注意力检测值和活体检测值,其中,注意力检测值用于表征目标人脸图像中用户注视目标位置的概率,活体检测值用于表征目标人脸图像来源于攻击行为的概率;基于注意力检测值和活体检测值,确定目标人脸图像是否通过安全检测。人脸识别装置102用于若人脸检测装置101判定目标人脸图像通过安全检测,则继续对目标人脸图像进行人脸识别。例如,可以将目标人脸图像与预先存储的人脸核验图像进行特征匹配,当匹配成功时,确定人脸识别通过,当匹配不成功时,确定人脸识别不通过。或者,也可以采用其他的人脸识别方法实现对目标人脸图像的人脸识别。
需要说明的是,人脸检测装置101和人脸识别装置102可以设置在同一电子设备中,也可以设置于不同的电子设备中。本实施例中,设置有人脸检测装置101的电子设备可以是人脸识别系统10的用户终端,或者是与具有刷脸能够的用户终端连接且用于提供人脸识别服务的服务器端。其中,用户终端可以是具有刷脸功能的门禁设备、交易设备、个人电脑(Personal Computer,PC)、笔记本电脑、平板电脑、智能手机、电子阅读器、车载设备、网络电视或可穿戴设备等设备。其中,交易设备可以是刷脸支付设备或具有刷脸支付功能的自助交易终端等。
本说明书实施例提供的人脸识别系统10中,通过上述人脸检测装置101对目标人脸图像进行安全检测,有利于保障系统的安全性,通过对攻击行为以及用户没有刷脸意愿的情况进行过滤,有利于减少对系统计算资源的不必要占用,降低人脸识别系统的误通过及误拦截。例如,以门禁场景为例,被门禁设备的摄像头采集到的用户并不是都有刷脸进入的意愿。如果对这部分用户也进行人脸检测,不但因为姿态等因素有较大的概率被误拦截,即使通过,也可能会造成“误触发”而开门的错误结果。
本说明书实施例提供的人脸检测方法可以由服务器端执行,或者,也可以由用户终端执行。为了更好的理解本说明书实施例提供的技术方案,下面通过附图以及具体实施例对本说明书实施例的技术方案做详细的说明,应当理解本说明书实施例以及实施例中的具体特征是对本说明书实施例技术方案的详细的说明,而不是对本说明书技术方案的限定,在不冲突的情况下,本说明书实施例以及实施例中的技术特征可以相互组合。本说明书实施例中,术语“多个”表示“两个以上”,即包括两个或大于两个的情况。
第一方面,图2示出了本说明书实施例提供的一种人脸检测方法的流程图,请参阅图2,所述方法至少可以包括以下步骤S200-步骤S204。
步骤S200,获取目标人脸图像。
可以理解的是,具有刷脸功能的用户终端如门禁设备或交易设备等可以通过摄像头采集用户的人脸图像。本实施例中,上述用户终端实时采集的需要进一步用于进行人脸识别处理的人脸图像即为目标人脸图像。
步骤S202,将目标人脸图像输入预先训练好的检测模型,得到目标人脸图像的注意力检测值和活体检测值,其中,注意力检测值用于表征目标人脸图像中用户注视目标位置的概率,活体检测值用于表征目标人脸图像来源于攻击行为的概率。
检测模型采用预先训练好的机器学习模型,一方面用于实现注意力检测,另一方面也用于实现活体检测。本说明书实施例中,注意力检测用于判断用户是否有刷脸的意愿,即用户是否注视目标位置,如摄像头或者屏幕。可以理解的是,具有刷脸意愿的用户通常会注视用户终端指示的位置即目标位置,以方便刷脸通过,因此,通过检测目标人脸图像中用户注视目标位置的概率来反应用户是否具有刷脸意愿。
活体检测用于判断输入的目标人脸图像是来自真实的用户,还是屏幕或纸张等攻击行为。例如,有不法分子意图伪造真实用户的人脸信息如用打印有人脸图像的纸张或显示有人脸图像的屏幕等替代真实用户放置于刷脸设备的图像采集区域,被刷脸设备的摄像头采集,意图通过冒用他人的人脸信息通过人脸识别以进行非法操作如盗用他人账户资金或冒用他人身份通过门禁等。在人脸识别系统中,这些行为均属于攻击行为。
需要说明的是,步骤S202中,活体检测值用于表征目标人脸图像来源于攻击行为的概率。具体来讲,本实施例中,活体检测值可以是输入的目标人脸图像是来自屏幕或者纸张等攻击的概率,而在本说明书其他实施例中,作为替代方案,活体检测值还可以是输入的目标人脸图像是来自真实用户的概率,也即目标人脸图像中用户为活体的概率。
另外,本说明书一可选的实施例中,在执行上述步骤S202之前,需要预先训练检测模型。检测模型的训练过程可以包括以下步骤:
获取训练数据以及训练数据的标签信息,训练数据包括:多个人脸图像样本,标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息。
根据训练数据以及训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型。
这样,训练好的检测模型就可以用于输出用户终端所采集的人脸图像的注意力检测值和活体检测值。
在一种可选的实施方式中,训练数据可以包括第一样本数据集和第二样本数据集。其中,第一样本数据集包括多个活体样本和多个攻击样本,活体样本是指来自真实用户的人脸图像样本,攻击样本是指通过显示有人脸信息的屏幕或者纸张等攻击手段得到的人脸图像样本。而第二样本数据集也包括多个正样本和多个负样本,正样本和负样本均为人脸图像样本,且正样本中用户注视目标位置,负样本中用户未注视目标位置。
相应地,获取训练数据以及训练数据的标签信息的实施过程可以包括:获取所述第一样本数据集以及第一样本数据集中每个人脸图像样本的第一标签信息,获取第二样本数据集以及第二样本数据集中每个人脸图像样本的第二标签信息。其中,第一标签信息用于表征人脸图像样本是否为攻击样本,例如,若某人脸图像样本属于攻击样本,则该人脸图像样本的第一标签信息可以用“1”表示,若某人脸图像样本不属于攻击样本即为活体样本,则该人脸图像样本的第一标签信息可以用“0”表示。第二标签信息用于表征人脸图像样本中用户是否注视目标位置,例如,若某人脸图像样本中用户有注视目标位置,则该人脸图像样本的第二标签信息可以用“1”表示,若某人脸图像样本中用户未注视目标位置,则该人脸图像样本的第二标签信息可以用“0”表示。
此时,上述根据训练数据以及训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型的实施过程可以包括:通过第一样本数据集以及第一样本数据集中每个人脸图像样本的第一标签信息,对预先构建的第一子模型进行训练,得到训练好的分类子模型;构建多任务模型,多任务模型包括分类子模型以及预设的第二子模型;根据第二样本数据集以及第二样本数据集中每个人脸图像样本的第二标签信息,对多任务模型进行训练,得到训练好的检测模型。
在上述模型训练过程中,先进行分类子模型的预训练。举例来讲,第一子模型可以采用预先选定的网络结构例如神经网络或支持向量机等,可以利用交叉熵损失函数和SGD(Stochastic Gradient Descent,随机梯度下降)优化方法对第一子模型进行迭代优化,直到第一子模型的损失函数小于预先设定的训练阈值,停止训练,得到分类子模型。
进一步,再将上一步得到的分类子模型作为预训练模型,与第二子模型共同构建多任务模型,同时进行活体检测任务和注意力检测任务的训练。完成训练后,得到同时具备活体检测和注意力检测的能力的检测模型。其中,第二子模型也可以采用预先选定的网络结构例如神经网络或支持向量机等。
举例来讲,所构建的多任务模型的示例性框架示意图可以如图3所示,包括输入层、共享网络、预训练的分类子模型、第二子模型以及输出层。其中,输入层用于输入人脸图像;共享网络为本说明书实施例中实现活体检测任务和实现注意力检测任务可以共用的网络,如可以包括若干卷积层,共享以后可以节约模型参数,跟两个单独的网络相比,可以减小得到的检测模型的大小;分类子模型用于实现人脸图像的活体检测任务;分类子模型的输出1为人脸图像的活体检测值;第二子模型用于实现人脸图像的注意力检测任务;第二子模型的输出2为人脸图像的注意力检测值。
基于图3所示的多任务模型,在训练检测模型时,可以先通过第一样本数据集以及第一样本数据集中每个人脸图像样本的第一标签信息,对预先构建的共享网络的参数以及分类子模型的参数进行训练,得到预训练的共享网络以及训练好的分类子模型。然后,在预训练的共享网络以及训练好的分类子模型的基础上,增加第二子模型构建图3所示的多任务模型,通过第二样本数据集以及第二样本数据集中每个人脸图像样本的第二标签信息,进一步对预训练的共享网络的参数以及第二子模型的参数进行训练,得到同时具有活体检测能力和注意力检测能力的检测模型。
在本说明书一可选的实施例中,在通过第一样本数据集以及第一样本数据集中每个人脸图像样本的第一标签信息,对预先构建的第一子模型进行训练,得到训练好的分类子模型之前,还包括:对第一样本数据进行图像标准化处理。
举例来讲,假设将第一样本数据集记为Xtrain={x1,x2,…,xN},其中,N为大于或等于2的整数,xi表示第i个人脸图像样本,取值为1至N。可以先获取整个第一样本数据集的均值和方差,然后针对第一样本数据集中每个人脸图像样本xi,将样本xi减去均值后除以方差,得到预处理后的第一样本数据集。然后用预处理后的第一样本数据集训练分类子模型。这样将样本数据通过去均值实现中心化的处理,更容易取得训练之后的泛化效果。
相应地,在根据第二样本数据集以及第二样本数据集中每个人脸图像样本的第二标签信息,对多任务模型进行训练,得到训练好的检测模型之前,还包括:对第二样本数据进行图像标准化处理。举例来讲,假设将第二样本数据集记为Ptrain={p1,p2,…,pM},其中,M为大于或等于2的整数,pj表示第j个人脸图像样本,取值为1至M,可以先获取整个第二样本数据集的均值和方差,然后针对第二样本数据集中每个人脸图像样本pj,将样本pj减去均值后除以方差,得到预处理后的第二样本数据集。然后用预处理后的第二样本数据集训练检测模型。
这样,在将步骤S200获取的目标人脸图像输入经过上述训练过程训练好的检测模型之前,也需要先对目标人脸图像进行图像标准化处理。也就是说,将待检测的目标人脸图像减去预先确定的均值后再除以预先确定的方差。其中,均值和方差可以根据用户终端历史采集到的目标人脸图像确定。
需要说明的是,除了获取第一样本数据集和第二样本数据集以外,还可以分别采集并预处理一批第一测试数据集和第二样本数据集,作为对训练得到的模型进行性能测试的标准,其中,采集并预处理第一测试数据集的方式与上述采集并预处理第一样本数据集的方式类似,采集并预处理第二测试数据集的方式与上述采集并预处理第二样本数据集的方式类似,此处不再赘述。
具体来讲,在训练好分类子模型后,利用训练好的分类子模型,在第一测试数据集上进行性能测试。如果准确率高于预先设定的测试阈值,则采用该分类子模型,否则重新训练该分类子模型,直到准确率满足测试阈值为止。进一步,在训练好检测模型后,利用训练好的检测模型,在第二测试数据集上对活体检测能够和注意力检测能力进行测试,如果不达标,则重新进行训练。
当然,在本说明书其他实施例中,获取训练数据以及训练数据的标签信息的实施过程也可以为:获取多个人脸图像样本,作为训练数据;确定训练数据中每个人脸图像样本的第一标签信息和第二标签信息。相应地,根据训练数据以及训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型的实施过程可以包括:根据训练数据以及训练数据中每个人脸图像样本的第一标签信息以及第二标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型。也就是说,对于训练数据包含的每个人脸图像样本,均打上第一标签信息和第二标签信息。
例如,某人脸图像样本的第一标签信息为“1”,且第二标签信息为“0”,则表示该人脸图像样本为活体样本,但是该人脸图像样本中的用户并未注视目标位置。又例如,某人脸图像样本的第一标签信息为“1”,且第二标签信息为“1”,则表示该人脸图像样本为活体样本,且该人脸图像样本中的用户有注视目标位置。通过对样本标记两种标签,实现对多任务模型中包含的两个子模型的训练,得到检测模型。其中,两个子模型分别为用于识别人脸图像是否来源于攻击手段的子模型,以及用于识别人脸图像中用户是否注视目标位置的子模型。
步骤S204,基于注意力检测值和活体检测值,确定目标人脸图像是否通过安全检测。
基于上述步骤S202输出的注意力检测值和活体检测值,结合预先设置的联合决策规则,来确定目标人脸图像是否通过安全检测。其中,联合决策规则用于结合注意力检测值和活体检测值来衡量目标人脸图像是否通过安全检测,具体可以根据实际场景的需要设置。下面将列举几种联合决策规则的实施方式,对结合注意力检测值和活体检测值来衡量目标人脸图像是否通过安全检测的实施过程进行详细描述。
在本实施例的一种实施方式中,活体检测值是输入的目标人脸图像是来自屏幕或者纸张等攻击的概率。此时,上述基于注意力检测值和活体检测值,确定目标人脸图像是否通过安全检测的实施过程可以包括以下几种情况:
第一种,若活体检测值小于第一预设阈值,且注意力检测值大于第二预设阈值,则判定目标人脸图像通过安全检测。
本说明书实施例中,第一预设阈值和第二预设阈值为预先设置的限值,可以根据实际应场景需要以及多次试验设置。其中,第一预设阈值用于判断目标人脸图像中人脸信息的输入是否来源于攻击行为,第二预设阈值用于判断目标人脸图像中用户是否具有刷脸意愿。若活体检测值小于第一预设阈值,则表示目标人脸图像中人脸信息的输入来源于攻击行为的概率低于上限值,判定目标人脸图像中人脸信息的输入不是来源于攻击行为,即来源于真实的用户,此时,若注意力检测值大于第二预设阈值,则判定目标人脸图像中用户有注视目标位置,即确定该用户具有刷脸意愿。在判定目标人脸图像中人脸信息来源于真实的用户,且该用户具有刷脸意愿的情况下,就可以认为目标人脸图像是满足进行人脸识别的要求的,判定目标人脸图像通过安全检测,以进一步完成对该目标人脸图像的人脸识别。
第二种,若活体检测值不小于第一预设阈值,则判定目标人脸图像未通过安全检测。
若活体检测值不小于第一预设阈值,则表示目标人脸图像中人脸信息的输入来源于攻击行为的概率达到上限值,判定目标人脸图像中人脸信息的输入来源于攻击行为,此时判定目标人脸图像未通过安全检测。
第三种,作为一种实施方式,若活体检测值小于第一预设阈值,且注意力检测值不大于第二预设阈值,则向用户发送预设的提示信息,提示信息用于提示用户配合完成安全检测。
在活体检测值低于第一预设阈值,而注意力检测值不大于第二预设阈值的情况下,表示虽然目标人脸图像的输入来自于真实的用户,但是从当前的目标人脸图像来看该用户没有刷脸的意愿。
作为一种实施方式,提示信息可以是用于提示用户注视目标位置如摄像头或屏幕的信息。此时,虽然本次人脸检测完成,并且检测结果为步骤S200获取的目标人脸图像未通过安全检测。但是,对于实际具有刷脸意愿的用户,获取到提示信息后,就可以配合注视目标位置,这样就可以重新采集新的人脸图像,将新的人脸图像作为目标人脸图像,进行上述步骤S200至步骤S204的人脸检测过程,这样也可以避免对于原本有刷脸意愿但是动作不规范的用户造成的误拦截。当然,对于实际并没有刷脸意愿的用户,则可以忽略提示信息,由于本次安全检测未通过,也不会再进行人脸识别,避免系统资源的浪费。这样通过用户半配合式刷脸,能够有效降低人脸识别系统的误拦截及误通过,提升用户体验。
本说明书实施例中,可以采用语音提示的方式输出提示信息或者也可以采用文字提醒的方式在用户终端上输出提示信息。可以理解的是,提示信息除了采用上述提示用户注视目标位置的提示信息以外,还可以采用其他内容的提示信息,例如,可以提示选用选择是否进行人脸识别,若用户选择“是”,则表表明用户具有刷脸的意愿,判定目标人脸图像通过安全检测,进一步进入对目标人脸图像的人脸识别过程,若用户选择“否”或者是在指定时间段内用户没有反馈,则判定目标人脸图像未通过安全检测,不执行对目标人脸图像的人脸识别过程。
作为另一种实施方式,若活体检测值小于第一预设阈值,且注意力检测值不大于第二预设阈值,则判断活体检测值是否小于第三预设阈值,若是,则判定目标人脸图像通过安全检测,若否,则判定目标人脸图像未通过安全检测,其中,第三预设阈值小于第一预设阈值。
其中,第一预设阈值和第三预设阈值分别为活体检测的两种不同的限制等级,第三预设阈值的限制等级高于第一预设阈值,这两种限制等级具体可以根据实际应该场景的需要以及多次试验设置。在注意力检测值不符合要求时,提高对活体检测的限制等级,也就是对活体检测结果提出了更高的要求,有利于提高人脸检测结果的准确性。
当然,在本说明书其他实施例中,也可以在活体检测值低于第一预设阈值,且注意力检测值不大于第二预设阈值的情况下,判定目标人脸图像未通过安全检测。
需要说明的是,在具体实施过程中,本说明书实施例可以先判断活体检测值是否小于第一预设阈值,若不小于第一预设阈值,则判定目标人脸图像未通过安全检测,无需再进行注意力检测值的判断,若小于第一预设阈值,再判断注意力检测值是否大于第二预设阈值,这样可以节约系统资源。当然,在本说明书其他实施例中,也可以同时判断活体检测值是否小于第一预设阈值,注意力检测值是否大于第二预设阈值,进而,根据二者的判断结果确定目标人脸图像是否通过安全检测,或者,也可以先判断注意力检测值是否大于第二预设阈值,再判断活体检测值是否小于第一预设阈值,本说明书不作限制。
还需要说明的是,在本说明书其他实施例中,若活体检测值为目标人脸图像中用户为活体的概率,则相应的联合决策规则与上述过程类似,区别在于第一预设阈值的设置以及对于目标人脸图像中用户是否为活体的判别方式,此时,第一预设阈值应该设置为能够判定用户为活体的下限值,若活体检测值大于该下限值,则初步判定目标人脸图像中用户为活体,而不是来源于攻击行为。
进一步地,在本说明一实施例中,本说明书实施例提供的人脸检测方法还包括:自适应阈值调整步骤。自适应阈值调整步骤可以用于对第二预设阈值进行自适应调整,以使得本说明书实施例提供的人脸检测方法能够越来越适用于实际的应用场景,降低外界环境的差异对检测结果带来的影响,随着使用时间的增加逐步提升用户体验。
具体来讲,上述自适应阈值调整步骤可以包括:基于历史人脸图像的注意力检测值,得到基准值,并用基准值更新第二预设阈值,其中,历史人脸数据为满足预设条件的人脸数据。随着本说明书实施例提供的人脸检测方法在实际应用场景中的应用,对户终端陆续采集的人脸图像均执行上述步骤S200到步骤S204,通过上述检测模型得到各个人脸图像的注意力检测值以及活体检测值,进而确定各个人脸图像是否通过安全检测。本实施例中,可以通过这些历史检测的人脸图像中,满足预设条件的人脸图像的注意力检测值来对第二预设阈值进行调整。
举例来讲,假设满足预设条件的人脸图像有100个,可以计算这100个人脸图像的注意力检测值的平均值,将该平均值作为上述基准值,代替原来的第二预设阈值,作为新的第二预设阈值。或者,也可以预先设置校正系数,将上述平均值与该校正系数的乘积作为上述基准值。其中,校正系数可以根据多次试验设置。
作为一种实施方式,可以采用基于时间的自适应阈值调整方式,此时,上述满足预设条件的目标人脸图像包括:预设历史时间段内采集的活体检测值小于第一预设阈值的人脸图像。例如,预设历史时间段可以设置为前3天、7天或30天等,具体根据实际需要设置,此处不做限制。也就是说,预设历史时间段内检测的目标人脸图像数据中,通过检测模型得到的活体检测值小于第一预设阈值即被判定为来自于真实用户的目标人脸图像,为满足预设条件的目标人脸图像。这样可以有效降低时间维度带来的误拦截,提高检测结果的准确性。
作为另一种实施方式,可以采用基于空间的自适应阈值调整方式,此时,上述满足预设条件的人脸图像包括:历史在预设区域内采集的活体检测值小于第一预设阈值的人脸图像。根据用户终端实际布设的地理位置,可以将用户终端所属位置划分成多个区域。对于某一用户终端来讲,预设区域即为该用户终端所属的区域。也就是说,将位于预设区域内的用户终端采集的人脸图像中,通过检测模型得到的活体检测值小于第一预设阈值即被判定为来自于真实用户的人脸图像,作为满足预设条件的人脸图像。这样可以有效降低空间维度带来的误拦截,提高检测结果的准确性。
以门禁场景为例,由于门禁设备会部署在各式各样的环境,光照等因素都不可控,检测条件恶劣,统一的阈值无法满足所有环境的情况。自适应阈值调整可以根据对预设历史时间段内或预设区域内门禁设备采集到的人脸图像进行人脸检测过程中的模型反馈,进行相关的阈值调整,以提高检测结果的准确性,使得设备的用户体验也能够随着时间的增加逐步提升。
在本说明书一可选的实施例中,本说明书实施例提供的人脸检测方法还可以包括:若目标人脸图像通过安全检测,则对该目标人脸图像进行人脸识别,得到人脸识别结果。例如,可以将目标人脸图像与预先存储的人脸核验图像进行特征匹配,当匹配成功时,确定人脸识别通过,当匹配不成功时,确定人脸识别不通过。或者,也可以采用其他的人脸识别方法实现对目标人脸图像的人脸识别,此处不作限制。根据人脸识别结果尽可以确定用户是否刷脸通过,以门禁场景为例,若根据人脸识别结果确定用户刷脸通过,就可以触发开门操作,反之,用户刷脸未通过,则不触发开门操作。再例如,以刷脸交易场景为例,若根据人脸识别结果确定用户刷脸通过,就可以触发完成交易,反之,用户刷脸未通过,则可以终止本次交易。
而若目标人脸图像未通过安全检测,则不再对目标人脸图像进行人脸识别,并将安全检测结果反馈给用户。例如,可以在上述用户终端上显示用于提醒用户安全检测未通过的信息,例如,可以显示“安全检测未通过,请重新输入”类似的文案信息。
需要说明的是,在本说明书其他实施例中,也可以在对目标人脸图像进行上述步骤S200至步骤S204执行的人脸检测之前,先对目标人脸图像进行人脸识别,从而确定目标人脸图像中用户的身份信息,这样就可以针对该用户的历史人脸检测中得到活体检测值以及注意力检测值,筛选该用户的活体检测值小于第一预设阈值的目标人脸图像,对筛选出的目标人脸图像的注意力检测值求平均,用得到的平均值更新该用户的第二预设阈值,这样对该用户输入的目标人脸图像进行识别,确认该用户的身份后,就可以查询预先存储的该用户的第二预设阈值,判断该用户是否有刷脸意愿。这样就可以实现针对特定用户的个性化阈值调整,有利于提高检测结果的准确性。
本说明书实施例提供的人脸检测方法,通过结合目标人脸图像的注意力检测值和活体检测值,来实时确定目标人脸图像是否通过安全检测,能够对攻击行为以及用户没有刷脸意愿的情况进行过滤,有利于提高检测结果的准确性,降低人脸识别系统的误拦截和误通过。对于尽管采集到的目标人脸图像中的用户是活体,但是没有刷脸意愿的情况,就不会再继续对目标人脸图像进行人脸识别,有利于减少对系统计算资源的不必要占用。
进一步,通过自适应阈值调整,能够提高本说明书实施例提供的人脸检测方法的适用性,降低外界环境的差异对检测结果带来的影响,提高用户体验。
第二方面,图4示出了本说明书实施例提供的一种人脸检测方法的流程图,请参阅图4,所述方法至少可以包括以下步骤S400-步骤S402。
步骤S400,获取训练数据以及训练数据的标签信息,训练数据包括:多个人脸图像样本,标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息。
步骤S402,根据训练数据以及训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型。
其中,检测模型用于输出采集的人脸图像的注意力检测值和活体检测值,注意力检测值用于表征人脸图像中用户注视目标位置的概率,活体检测值用于表征人脸图像来源于攻击行为的概率,注意力检测值和活体检测值用于确定人脸图像是否通过安全检测。
本说明书实施例提供的人脸检测方法用于得到同时具有活体检测能力和注意力检测能力的检测模型。步骤S400和步骤S402即为检测模型的训练过程,具体实施过程可以参照上述第一方面提供的方法实施例中检测模型的训练过程,此处不再赘述。
第三方面,基于与前述第一方面实施例提供的人脸检测方法同样的发明构思,本说明书实施例还提供了一种人脸检测装置。如图5所示,该人脸检测装置50包括:
图像获取模块51,用于获取目标人脸图像;
检测值获取模块52,用于将所述目标人脸图像输入预先训练好的检测模型,得到所述目标人脸图像的注意力检测值和活体检测值,其中,所述注意力检测值用于表征所述目标人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述目标人脸图像来源于攻击行为的概率;
检测模块53,用于基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测。
在本说明一可选的实施例中,上述检测模块53包括:第一判定子模块531,用于若所述活体检测值小于第一预设阈值,且所述注意力检测值大于第二预设阈值,则判定所述目标人脸图像通过安全检测;第二判定子模块532,用于若所述活体检测值不小于所述第一预设阈值,则判定所述目标人脸图像未通过安全检测。
在本说明一可选的实施例中,上述检测模块53包括:第三判定子模块533,用于若所述活体检测值小于所述第一预设阈值,且所述注意力检测值不大于所述第二预设阈值,则向所述用户发送预设的提示信息,所述提示信息用于提示用户配合完成所述安全检测。
在本说明一可选的实施例中,上述检测模块53包括:第四判定子模块,用于若所述活体检测值小于所述第一预设阈值,且所述注意力检测值不大于所述第二预设阈值,则判断所述活体检测值是否小于第三预设阈值,若是,则判定所述目标人脸图像通过安全检测,若否,则判定所述目标人脸图像未通过安全检测,其中,所述第三预设阈值小于所述第一预设阈值。
在本说明一可选的实施例中,上述人脸检测装置50还包括:阈值调整模块54,用于基于历史人脸图像的注意力检测值,得到基准值,并用所述基准值更新所述第二预设阈值,其中,所述历史人脸图像为满足预设条件的人脸图像。
在本说明一可选的实施例中,上述满足预设条件的人脸图像包括:预设历史时间段内采集的活体检测值小于所述第一预设阈值的人脸图像;或者历史在预设区域内采集的活体检测值小于所述第一预设阈值的人脸图像。
在本说明一可选的实施例中,上述人脸检测装置50还包括模型训练模块,用于:获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型。
在本说明一可选的实施例中,上述训练数据包括第一样本数据集和第二样本数据集,所述模型训练模块用于:获取所述第一样本数据集以及所述第一样本数据集中每个人脸图像样本的所述第一标签信息,获取所述第二样本数据集以及所述第二样本数据集中每个人脸图像样本的所述第二标签信息;通过所述第一样本数据集以及所述第一样本数据集中每个人脸图像样本的第一标签信息,对预先构建的第一子模型进行训练,得到训练好的分类子模型;构建多任务模型,并根据所述第二样本数据集以及所述第二样本数据集中每个人脸图像样本的第二标签信息,对所述多任务模型进行训练,得到训练好的所述检测模型,其中,所述多任务模型包括所述分类子模型以及预设的第二子模型。
在本说明一可选的实施例中,上述人脸检测装置50还包括:识别模块,用于若所述检测模块判定所述目标人脸图像通过安全检测,则对所述目标人脸图像进行人脸识别,得到人脸识别结果。
需要说明的是,本说明书实施例所提供的人脸检测装置50,其中各个模块执行操作的具体方式已经在上述第一方面提供的方法实施例中进行了详细描述,具体实施过程可以参照上述第一方面提供的方法实施例,此处将不做详细阐述说明。
第四方面,基于与前述第二方面实施例提供的人脸检测方法同样的发明构思,本说明书实施例还提供了一种人脸检测装置。如图6所示,该人脸检测装置60包括:
数据获取模块61,用于获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;
训练模块62,用于根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的所述检测模型;
其中,所述检测模型用于输出采集的人脸图像的注意力检测值和活体检测值,所述注意力检测值用于表征所述人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述人脸图像来源于攻击行为的概率,所述注意力检测值和活体检测值用于确定所述人脸图像是否通过安全检测。
需要说明的是,本说明书实施例所提供的人脸检测装置60,其中各个模块执行操作的具体方式已经在上述第一方面提供的方法实施例中进行了详细描述,具体实施过程可以参照上述第一方面提供的方法实施例,此处将不做详细阐述说明。
第五方面,基于与前述实施例提供的人脸检测方法同样的发明构思,本说明书实施例还提供了一种电子设备,如图7所示,包括存储器704、一个或多个处理器702及存储在存储器704上并可在处理器702上运行的计算机程序,处理器702执行该程序时实现前文第一方面提供的人脸检测方法的任一实施方式的步骤或前文第二方面提供的人脸检测方法的任一实施方式的步骤。
其中,在图7中,总线架构(用总线700来代表),总线700可以包括任意数量的互联的总线和桥,总线700将包括由处理器702代表的一个或多个处理器和存储器704代表的存储器的各种电路链接在一起。总线700还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口705在总线700和接收器701和发送器703之间提供接口。接收器701和发送器703可以是同一个元件,即收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器702负责管理总线700和通常的处理,而存储器704可以被用于存储处理器702在执行操作时所使用的数据。
可以理解的是,图7所示的结构仅为示意,本说明书实施例提供的电子设备还可包括比图7中所示更多或者更少的组件,或者具有与图7所示不同的配置。图7中所示的各组件可以采用硬件、软件或其组合实现。
第六方面,基于与前述实施例中提供的人脸检测方法同样的发明构思,本说明书实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前文第一方面提供的人脸检测方法的任一实施方式的步骤或第二方面提供的人脸检测方法的任一实施方式的步骤。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的设备。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令设备的制造品,该指令设备实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本说明书的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本说明书范围的所有变更和修改。
显然,本领域的技术人员可以对本说明书进行各种改动和变型而不脱离本说明书的精神和范围。这样,倘若本说明书的这些修改和变型属于本说明书权利要求及其等同技术的范围之内,则本说明书也意图包含这些改动和变型在内。
Claims (22)
1.一种人脸检测方法,包括:
获取目标人脸图像;
将所述目标人脸图像输入预先训练好的检测模型,得到所述目标人脸图像的注意力检测值和活体检测值,其中,所述注意力检测值用于表征所述目标人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述目标人脸图像来源于攻击行为的概率;
基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测。
2.根据权利要求1所述的方法,所述基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测,包括:
若所述活体检测值小于第一预设阈值,且所述注意力检测值大于第二预设阈值,则判定所述目标人脸图像通过安全检测;
若所述活体检测值不小于所述第一预设阈值,则判定所述目标人脸图像未通过安全检测。
3.根据权利要求2所述的方法,所述基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测,还包括:
若所述活体检测值小于所述第一预设阈值,且所述注意力检测值不大于所述第二预设阈值,则向所述用户发送预设的提示信息,所述提示信息用于提示用户配合完成所述安全检测。
4.根据权利要求2所述的方法,所述基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测,还包括:
若所述活体检测值小于所述第一预设阈值,且所述注意力检测值不大于所述第二预设阈值,则判断所述活体检测值是否小于第三预设阈值,其中,所述第三预设阈值小于所述第一预设阈值;
若是,则判定所述目标人脸图像通过安全检测,若否,则判定所述目标人脸图像未通过安全检测。
5.根据权利要求2所述的方法,还包括:
基于历史人脸图像的注意力检测值,得到基准值,并用所述基准值更新所述第二预设阈值,其中,所述历史人脸图像为满足预设条件的人脸图像。
6.根据权利要求5所述的方法,所述满足预设条件的人脸图像包括:
预设历史时间段内采集的活体检测值小于所述第一预设阈值的人脸图像;或者
历史在预设区域内采集的活体检测值小于所述第一预设阈值的人脸图像。
7.根据权利要求1所述的方法,所述检测模型通过以下步骤训练得到:
获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;
根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的所述检测模型。
8.根据权利要求7所述的方法,所述训练数据包括第一样本数据集和第二样本数据集,所述获取训练数据以及所述训练数据的标签信息,包括:
获取所述第一样本数据集以及所述第一样本数据集中每个人脸图像样本的所述第一标签信息,获取所述第二样本数据集以及所述第二样本数据集中每个人脸图像样本的所述第二标签信息;
所述根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的所述检测模型,包括:
通过所述第一样本数据集以及所述第一样本数据集中每个人脸图像样本的第一标签信息,对预先构建的第一子模型进行训练,得到训练好的分类子模型;
构建多任务模型,并根据所述第二样本数据集以及所述第二样本数据集中每个人脸图像样本的第二标签信息,对所述多任务模型进行训练,得到训练好的所述检测模型,其中,所述多任务模型包括所述分类子模型以及预设的第二子模型。
9.根据权利要求1所述的方法,还包括:
若所述目标人脸图像通过安全检测,则对所述目标人脸图像进行人脸识别,得到人脸识别结果。
10.一种人脸检测方法,包括:
获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;
根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型;
其中,所述检测模型用于输出采集的人脸图像的注意力检测值和活体检测值,所述注意力检测值用于表征所述人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述人脸图像来源于攻击行为的概率,所述注意力检测值和活体检测值用于确定所述人脸图像是否通过安全检测。
11.一种人脸检测装置,包括:
图像获取模块,用于获取目标人脸图像;
检测值获取模块,用于将所述目标人脸图像输入预先训练好的检测模型,得到所述目标人脸图像的注意力检测值和活体检测值,其中,所述注意力检测值用于表征所述目标人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述目标人脸图像来源于攻击行为的概率;
检测模块,用于基于所述注意力检测值和活体检测值,确定所述目标人脸图像是否通过安全检测。
12.根据权利要求11所述的装置,所述检测模块包括:
第一判定子模块,用于若所述活体检测值小于第一预设阈值,且所述注意力检测值大于第二预设阈值,则判定所述目标人脸图像通过安全检测;
第二判定子模块,用于若所述活体检测值不小于所述第一预设阈值,则判定所述目标人脸图像未通过安全检测。
13.根据权利要求12所述的装置,所述检测模块包括:
第三判定子模块,用于若所述活体检测值小于所述第一预设阈值,且所述注意力检测值不大于所述第二预设阈值,则向所述用户发送预设的提示信息,所述提示信息用于提示用户配合完成所述安全检测。
14.根据权利要求12所述的装置,所述检测模块包括:
第四判定子模块,用于若所述活体检测值小于所述第一预设阈值,且所述注意力检测值不大于所述第二预设阈值,则判断所述活体检测值是否小于第三预设阈值,若是,则判定所述目标人脸图像通过安全检测,若否,则判定所述目标人脸图像未通过安全检测,其中,所述第三预设阈值小于所述第一预设阈值。
15.根据权利要求12所述的装置,还包括:
阈值调整模块,用于基于历史人脸图像的注意力检测值,得到基准值,并用所述基准值更新所述第二预设阈值,其中,所述历史人脸图像为满足预设条件的人脸图像。
16.根据权利要求15所述的装置,所述满足预设条件的人脸图像包括:
预设历史时间段内采集的活体检测值小于所述第一预设阈值的人脸图像;或者
历史在预设区域内采集的活体检测值小于所述第一预设阈值的人脸图像。
17.根据权利要求11所述的装置,还包括模型训练模块,用于:
获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;
根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的所述检测模型。
18.根据权利要求17所述的装置,所述训练数据包括第一样本数据集和第二样本数据集,所述模型训练模块用于:
获取所述第一样本数据集以及所述第一样本数据集中每个人脸图像样本的所述第一标签信息,获取所述第二样本数据集以及所述第二样本数据集中每个人脸图像样本的所述第二标签信息;
通过所述第一样本数据集以及所述第一样本数据集中每个人脸图像样本的第一标签信息,对预先构建的第一子模型进行训练,得到训练好的分类子模型;
构建多任务模型,并根据所述第二样本数据集以及所述第二样本数据集中每个人脸图像样本的第二标签信息,对所述多任务模型进行训练,得到训练好的所述检测模型,其中,所述多任务模型包括所述分类子模型以及预设的第二子模型。
19.根据权利要求11所述的装置,还包括:
识别模块,用于若所述检测模块判定所述目标人脸图像通过安全检测,则对所述目标人脸图像进行人脸识别,得到人脸识别结果。
20.一种人脸检测装置,包括:
数据获取模块,用于获取训练数据以及所述训练数据的标签信息,所述训练数据包括:多个人脸图像样本,所述标签信息包括用于表征人脸图像样本是否为攻击样本的第一标签信息,以及用于表征人脸图像样本中用户是否注视目标位置的第二标签信息;
训练模块,用于根据所述训练数据以及所述训练数据的标签信息,对预先构建的多任务模型进行训练,得到训练好的检测模型;
其中,所述检测模型用于输出采集的人脸图像的注意力检测值和活体检测值,所述注意力检测值用于表征所述人脸图像中用户注视目标位置的概率,所述活体检测值用于表征所述人脸图像来源于攻击行为的概率,所述注意力检测值和活体检测值用于确定所述人脸图像是否通过安全检测。
21.一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1-10中任一项所述方法的步骤。
22.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1-10中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911066080.XA CN110991249A (zh) | 2019-11-04 | 2019-11-04 | 人脸检测方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911066080.XA CN110991249A (zh) | 2019-11-04 | 2019-11-04 | 人脸检测方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110991249A true CN110991249A (zh) | 2020-04-10 |
Family
ID=70083040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911066080.XA Pending CN110991249A (zh) | 2019-11-04 | 2019-11-04 | 人脸检测方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991249A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111768286A (zh) * | 2020-05-14 | 2020-10-13 | 北京旷视科技有限公司 | 风险预测方法、装置、设备及存储介质 |
CN112242007A (zh) * | 2020-10-12 | 2021-01-19 | 新疆爱华盈通信息技术有限公司 | 一种虚拟试穿方法 |
CN112749687A (zh) * | 2021-01-31 | 2021-05-04 | 云知声智能科技股份有限公司 | 一种图片质量和静默活体检测多任务训练方法和设备 |
CN113343826A (zh) * | 2021-05-31 | 2021-09-03 | 北京百度网讯科技有限公司 | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 |
CN113642428A (zh) * | 2021-07-29 | 2021-11-12 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN114973426A (zh) * | 2021-06-03 | 2022-08-30 | 中移互联网有限公司 | 活体检测方法、装置及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609383A (zh) * | 2017-10-26 | 2018-01-19 | 深圳奥比中光科技有限公司 | 3d人脸身份认证方法与装置 |
CN108108684A (zh) * | 2017-12-15 | 2018-06-01 | 杭州电子科技大学 | 一种融合视线检测的注意力检测方法 |
CN108537704A (zh) * | 2018-04-17 | 2018-09-14 | 深圳市心流科技有限公司 | 课堂评测方法、装置及计算机可读存储介质 |
CN208686236U (zh) * | 2018-07-12 | 2019-04-02 | 河南森源重工有限公司 | 一种带有生理特征识别的车辆门把手及车门总成及车辆 |
CN109960913A (zh) * | 2017-12-25 | 2019-07-02 | 上海聚虹光电科技有限公司 | 一种基于用户交互的活体检测方法 |
CN109969172A (zh) * | 2017-12-26 | 2019-07-05 | 华为技术有限公司 | 车辆控制方法、设备及计算机存储介质 |
CN110286771A (zh) * | 2019-06-28 | 2019-09-27 | 北京金山安全软件有限公司 | 交互方法、装置、智能机器人、电子设备及存储介质 |
-
2019
- 2019-11-04 CN CN201911066080.XA patent/CN110991249A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609383A (zh) * | 2017-10-26 | 2018-01-19 | 深圳奥比中光科技有限公司 | 3d人脸身份认证方法与装置 |
CN108108684A (zh) * | 2017-12-15 | 2018-06-01 | 杭州电子科技大学 | 一种融合视线检测的注意力检测方法 |
CN109960913A (zh) * | 2017-12-25 | 2019-07-02 | 上海聚虹光电科技有限公司 | 一种基于用户交互的活体检测方法 |
CN109969172A (zh) * | 2017-12-26 | 2019-07-05 | 华为技术有限公司 | 车辆控制方法、设备及计算机存储介质 |
CN108537704A (zh) * | 2018-04-17 | 2018-09-14 | 深圳市心流科技有限公司 | 课堂评测方法、装置及计算机可读存储介质 |
CN208686236U (zh) * | 2018-07-12 | 2019-04-02 | 河南森源重工有限公司 | 一种带有生理特征识别的车辆门把手及车门总成及车辆 |
CN110286771A (zh) * | 2019-06-28 | 2019-09-27 | 北京金山安全软件有限公司 | 交互方法、装置、智能机器人、电子设备及存储介质 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111768286A (zh) * | 2020-05-14 | 2020-10-13 | 北京旷视科技有限公司 | 风险预测方法、装置、设备及存储介质 |
CN111768286B (zh) * | 2020-05-14 | 2024-02-20 | 北京旷视科技有限公司 | 风险预测方法、装置、设备及存储介质 |
CN112242007A (zh) * | 2020-10-12 | 2021-01-19 | 新疆爱华盈通信息技术有限公司 | 一种虚拟试穿方法 |
CN112242007B (zh) * | 2020-10-12 | 2023-06-20 | 新疆爱华盈通信息技术有限公司 | 一种虚拟试穿方法 |
CN112749687A (zh) * | 2021-01-31 | 2021-05-04 | 云知声智能科技股份有限公司 | 一种图片质量和静默活体检测多任务训练方法和设备 |
CN113343826A (zh) * | 2021-05-31 | 2021-09-03 | 北京百度网讯科技有限公司 | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 |
CN113343826B (zh) * | 2021-05-31 | 2024-02-13 | 北京百度网讯科技有限公司 | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 |
CN114973426A (zh) * | 2021-06-03 | 2022-08-30 | 中移互联网有限公司 | 活体检测方法、装置及设备 |
CN114973426B (zh) * | 2021-06-03 | 2023-08-15 | 中移互联网有限公司 | 活体检测方法、装置及设备 |
CN113642428A (zh) * | 2021-07-29 | 2021-11-12 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991249A (zh) | 人脸检测方法、装置、电子设备及介质 | |
US11276068B2 (en) | Fraudulent transaction identification method and apparatus, server, and storage medium | |
US11259718B1 (en) | Systems and methods for automated body mass index calculation to determine value | |
EP3076320B1 (en) | Individual identification device, and identification threshold setting method | |
CN108399665A (zh) | 基于人脸识别的安全监控方法、装置及存储介质 | |
EP2091021A1 (en) | Face authentication device | |
CN109816200B (zh) | 任务推送方法、装置、计算机设备和存储介质 | |
CN110830448B (zh) | 目标事件的流量异常检测方法、装置、电子设备及介质 | |
CN108596616B (zh) | 用户数据真实性分析方法及装置、存储介质、电子设备 | |
CN111542833A (zh) | 用于文档认证的分类筛选引擎 | |
CN108921708A (zh) | 保险服务优化方法、装置和存储介质 | |
CN109389028A (zh) | 基于动作分析的人脸识别方法、装置、设备及存储介质 | |
CN108449514A (zh) | 信息处理方法和装置 | |
CN108875509A (zh) | 活体检测方法、装置和系统及存储介质 | |
CN111241873A (zh) | 图像翻拍检测方法及其模型的训练方法、支付方法及装置 | |
CN115034886A (zh) | 一种违约风险预测方法及装置 | |
CN114519900A (zh) | 乘车方法、装置、电子设备及存储介质 | |
CN110084143B (zh) | 一种用于人脸识别的情绪信息保护方法及系统 | |
CN111736937A (zh) | 业务处理方法及装置 | |
CN108960111B (zh) | 人脸识别方法、系统及终端设备 | |
CN111259698A (zh) | 用于获取图像的方法及装置 | |
Shahab et al. | Android application for presence recognition based on face and geofencing | |
JP2018142137A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113591603A (zh) | 证件的验证方法、装置、电子设备及存储介质 | |
CN113657293A (zh) | 活体检测方法、装置、电子设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200410 |