CN115100714A - 基于人脸图像的活体检测方法、装置及服务器 - Google Patents

基于人脸图像的活体检测方法、装置及服务器 Download PDF

Info

Publication number
CN115100714A
CN115100714A CN202210745308.3A CN202210745308A CN115100714A CN 115100714 A CN115100714 A CN 115100714A CN 202210745308 A CN202210745308 A CN 202210745308A CN 115100714 A CN115100714 A CN 115100714A
Authority
CN
China
Prior art keywords
image
face
region
key point
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210745308.3A
Other languages
English (en)
Inventor
洪叁亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Bank Co Ltd
Original Assignee
Ping An Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Bank Co Ltd filed Critical Ping An Bank Co Ltd
Priority to CN202210745308.3A priority Critical patent/CN115100714A/zh
Publication of CN115100714A publication Critical patent/CN115100714A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/02Banking, e.g. interest calculation or account maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Finance (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Technology Law (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Development Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于人脸图像的活体检测方法、装置及服务器,涉及图像检测的技术领域,该方法包括:提取待检测图像中的人脸区域;对人脸区域中的人脸图像进行关键点定位,生成每个关键点的标识信息;根据标识信息在待检测图像对应的深度图像中提取人脸图像包含鼻子区域和脸颊区域的关键区域;分别计算鼻子区域和脸颊区域的像素灰度均值以及鼻子区域和脸颊区域的像素灰度均值的差值;根据差值确定待检测图像是否为对活体目标采集的图像。本发明提供的基于人脸图像的活体检测方法、装置及服务器,充分利用了鼻子区域和脸颊区域之间的像素灰度均值的差值,从而达到辅助人脸活体检测的目的,有助于有效拦截假脸的同时,也进一步提高了真人通过率。

Description

基于人脸图像的活体检测方法、装置及服务器
技术领域
本发明涉及图像检测的技术领域,尤其是涉及一种基于人脸图像的活体检测方法、装置及服务器。
背景技术
随着移动互联网的发展,身份验证场景在金融保险、银行证券等领域得到越来越多关注,例如,可以在用户登录过程中,通过身份验证场景确定用户对象的真实性。
但是,随之而来的也出现了假脸攻击的手段,并且,假脸攻击对人脸活体检测巨大的威胁也越来越大,而且假脸攻击手段越来越丰富,这对人脸活体检测的防御能力提出了更高的要求,目前,针对活体检测有很多尝试,包括基于单张图像的静默活体检测、基于随机动作的动作活体检测,以及,基于脸部炫光的炫光活体检测等等,但是这些方法的准确度容易受环境影响,错误拒绝率偏高,难以达到实时高效准确的检测要求。
发明内容
有鉴于此,本发明的目的在于提供一种基于人脸图像的活体检测方法、装置及服务器,以缓解上述技术问题。
第一方面,本发明实施例提供了一种基于人脸图像的活体检测方法,包括:获取待检测图像,提取所述待检测图像中的人脸区域;对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息;根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域,所述关键区域包括鼻子区域和脸颊区域;分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值;计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值;根据所述差值确定所述待检测图像是否为对活体目标采集的图像。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,上述根据所述差值确定所述待检测图像是否为对活体目标采集的图像的步骤,包括:如果所述差值大于预设的差值阈值,则确定所述待检测图像为对活体目标采集的图像;如果所述差值小于预设的差值阈值,则确定所述待检测图像为对非活体目标采集的图像。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,上述提取所述待检测图像中的人脸区域的步骤,包括:提取所述待检测图像中的人脸检测框;在所述人脸检测框中裁剪出所述人脸区域。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,上述对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息的步骤,包括:将所述人脸区域输入至预先训练好的人脸关键点网络模型,基于所述人脸关键点网络模型输出每个关键点的标识信息;其中,所述关键点用于表征所述人脸图像的五官轮廓,且,所述关键点的标识信息包括所述关键点的序号以及关键点坐标。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,上述根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域的步骤,包括:提取所述鼻子区域所包括的多个所述关键点的序号;基于所述序号,以及,多个所述关键点的关键点坐标,在所述待检测图像对应的深度图像中确定所述鼻子区域对应的矩形框;以及,提取所述脸颊区域所包括的多个所述关键点的序号;基于所述序号,以及,多个所述关键点的关键点坐标,在所述待检测图像对应的深度图像中确定所述脸颊区域应的矩形框。
结合第一方面的第四种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,上述分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的步骤,包括:基于所述鼻子区域对应的矩形框,按照下述公式计算所述鼻子区域的像素灰度均值:
Figure BDA0003716660830000031
其中,roi_nose(i,j)表示鼻子区域的矩形框,m、n为鼻子区域的矩形框的高和宽;以及,基于所述脸颊区域对应的矩形框,按照下述公式计算所述脸颊区域的像素灰度均值:
Figure BDA0003716660830000032
其中,roi_cheek(i,j)表示脸颊区域的矩形框,m,n为脸颊区域roi_cheek的高和宽。
结合第一方面的第五种可能的实施方式,本发明实施例提供了第一方面的第六种可能的实施方式,其中,上述计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值的步骤,包括:按照下述公式计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值:Δ=mean_nose-mean_cheek。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第七种可能的实施方式,其中,上述预先训练好的人脸关键点网络模型为基于MobilenetV2为主干网络建立的深度学习神经网络模型;所述人脸关键点网络模型包括依次连接的主干网络MobileNetV2、自定义的卷积层、多尺度卷积层和全连接层,且,所述全连接层的输出包括多个神经元,所述神经元的数量与所述关键点的数量对应。
结合第一方面的第七种可能的实施方式,本发明实施例提供了第一方面的第八种可能的实施方式,其中,上述方法还包括:获取训练集,其中,所述训练集中包含多个标记有关键点标签的训练样本图像;将所述训练样本图像输入至预先构建的深度学习神经网络模型,通过所述深度学习神经网络模型输出所述训练样本图像的多个预测关键点;根据多个所述预测关键点和所述训练样本图像的关键点标签计算损失函数,并基于所述损失函数调整所述深度学习神经网络模型的网络参数,以生成所述人脸关键点网络模型。
结合第一方面的第八种可能的实施方式,本发明实施例提供了第一方面的第九种可能的实施方式,其中,上述根据多个所述预测关键点和所述训练样本图像的关键点标签计算损失函数的步骤,包括:根据多个所述预测关键点和所述训练样本图像的关键点标签,按照下述公式计算损失函数:
Figure BDA0003716660830000041
Figure BDA0003716660830000042
其中,Loff为损失函数,用于表征所述关键点的坐标损失值;ok为所述训练样本图像的关键点标签对应的坐标值;
Figure BDA0003716660830000043
为预测关键点的坐标值,N为所述训练集的样本总量。
第二方面,本发明实施例还提供一种基于人脸图像的活体检测装置,包括:获取模块,用于获取待检测图像,提取所述待检测图像中的人脸区域;定位模块,用于对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息;提取模块,用于根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域,所述关键区域包括鼻子区域和脸颊区域;第一计算模块,用于分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值;第二计算模块,用于计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值;确定模块,用于根据所述差值确定所述待检测图像是否为对活体目标采集的图像。
第三方面,本发明实施例还提供一种服务器,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面所述的方法的步骤。
本发明实施例带来了以下有益效果:
本发明实施例提供的基于人脸图像的活体检测方法、装置及服务器,能够获取待检测图像,提取待检测图像中的人脸区域;并对人脸区域中包含的人脸图像进行关键点定位,生成每个关键点的标识信息;进而根据标识信息在待检测图像对应的深度图像中提取人脸图像包含的鼻子区域和脸颊区域,分别计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值;计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值的差值;根据差值确定待检测图像是否为对活体目标采集的图像,上述计算过程,充分利用了鼻子区域和脸颊区域之间的像素灰度均值的差值,从而达到辅助人脸活体检测的目的,有助于有效拦截假脸的同时,也进一步提高了真人通过率。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于人脸图像的活体检测方法的流程图;
图2为本发明实施例提供的一种深度图像的对比图;
图3为本发明实施例提供的一种人脸关键点网络模型的结构示意图;
图4为本发明实施例提供的一种人脸关键点网络模型的训练方法;
图5为本发明实施例提供的一种基于人脸图像的活体检测装置的结构示意图;
图6为本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,研究者针对活体检测做了很多的尝试,业界普遍使用的方法有:
(1)基于单张图像的静默活体检测,此类方法通过搜集海量数据(包括人脸活体图片和人脸非活体图片)进行二分类训练网络模型,此类方法存在以下问题:需要搜集海量数据,而且二分类网络模型对各种黑产软件合成的非活体表现较差,防不胜防。
(2)基于随机动作的动作活体检测,此类方法通常是设备端提示用户张张嘴,摇摇头,眨眨眼等动作进行配合验证,此类方法存在以下问题:当攻击用户采用提前录制的带有上述动作的攻击视频时往往容易绕过动作活体验证。
(3)基于脸部炫光的炫光活体检测,此类方法通常是通过设备端采集人脸时对用户进行脸部随机打颜色光线,然后分析用户脸部光线特征从而判断活体与非活体。此类方法有以下问题:当环境光强较强时,容易导致用户脸部炫不上光,易产生误判导致活体通不过,错误拒绝率偏高。
基于此,本发明实施例提供的一种基于人脸图像的活体检测方法、装置及服务器,可以有效缓解上述问题,并能够用于辅助人脸活体检测,加固防御假脸攻击能力。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种基于人脸图像的活体检测方法进行详细介绍。
在一种可能的实施方式中,本发明实施例提供了一种基于人脸图像的活体检测方法,如图1所示的一种基于人脸图像的活体检测方法的流程图,该方法包括以下步骤:
步骤S102,获取待检测图像,提取待检测图像中的人脸区域;
步骤S104,对人脸区域中包含的人脸图像进行关键点定位,生成每个关键点的标识信息;
步骤S106,根据标识信息在待检测图像对应的深度图像中提取人脸图像包含的多个关键区域,关键区域包括鼻子区域和脸颊区域;
具体实现时,本发明实施例的上述待检测图像,指的是图像采集设备采集的RGB图像,因此,基于该RGB图像可以相对容易地提取到人脸区域,并进行关键点定位。
进一步,本发明实施例中的关键点定位时,所定位到的关键点通常有多个,这些关键点按照人脸图像的五官轮廓进行分布,因此,上述定位出的关键点通常是有顺序的多个点,用于表征五官的轮廓,且在五官的轮廓位置,关键点相对密集,进而可以便于对关键区域进行区分。并且,每个关键区域的关键点可以通过标识信息进行区分,例如,标识信息排序在1~8的点可以表示左眼睛区域的关键点等等,具体的排序方式可以根据实际使用情况进行设置,本发明实施例对此不进行限制。
进一步,上述深度图像,也称为原感深度图像,或者Depth图像,上述在深度图像中提取人脸图像包含的多个关键区域的方式,可以避免图像采集设备在采集RGB图像时存在的环境光照条件不理想,背景复杂等情况。
并且,由于在图像采集设备采集人脸图像时,鼻子区域离图像采集设备的镜头的距离比脸颊区域离镜头近,使得深度图像中鼻子区域的像素灰度均值会明显小于脸颊区域的像素灰度均值,因此,本发明实施例中正是基于这个明显的差异来判断活体与非活体,具体地,可以参考下述步骤S108~步骤S112的过程。
步骤S108,分别计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值;
步骤S110,计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值的差值;
步骤S112,根据差值确定待检测图像是否为对活体目标采集的图像。
为了便于理解,图2示出了一种深度图像的对比图,其中,图2中的(a)为真人活体深度图像,且,图中用黑框圈出了鼻子区域和脸颊区域,图2中的(b)则为照片假脸的非活体深度图像,也同样用黑框圈出了鼻子区域和脸颊区域,由图2可以看出鼻子区域和脸颊区域的之间灰度均值是有差异的,且真假人脸差异分明。本发明实施例提供的基于人脸图像的活体检测方法,则可以根据RGB图像的人脸关键点分析深度图像(Depth图像)对应的鼻子区域和脸颊区域的之间灰度均值差异,有效抵御假脸攻击的同时大大提高真人通过率。
进一步,为了确定待检测图像是否为对活体目标采集的图像,通常会根据经验值设置一定的差值阈值,如果差值大于预设的差值阈值,则确定待检测图像为对活体目标采集的图像;如果差值小于预设的差值阈值,则确定待检测图像为对非活体目标采集的图像。具体的差值阈值可以根据实际的使用场景以及经验均值进行设置,本发明实施例对此不进行限制。
本发明实施例提供的基于人脸图像的活体检测方法,能够获取待检测图像,提取待检测图像中的人脸区域;并对人脸区域中包含的人脸图像进行关键点定位,生成每个关键点的标识信息;进而根据标识信息在待检测图像对应的深度图像中提取人脸图像包含的鼻子区域和脸颊区域,分别计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值;计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值的差值;根据差值确定待检测图像是否为对活体目标采集的图像,上述计算过程,充分利用了鼻子区域和脸颊区域之间的像素灰度均值的差值,从而达到辅助人脸活体检测的目的,有助于有效拦截假脸的同时,也进一步提高了真人通过率。
在实际使用时,本发明实施例的上述基于人脸图像的活体检测方法,可以应用于移动端,也可以应用于服务器的云端,以银行领域为例,可以用于口袋银行APP的人脸SDK,并为口袋银行APP提供一种基于分析人脸活体的方案,可以用于辅助人脸活体检测,加固防御假脸攻击能力,以此对假脸进行快速拦截,并且,由于本发明实施例中待检测图像是RGB图像,像素灰度均值则是针对深度图像进行的,因此,本发明实施例提供的基于人脸图像的活体检测方法,实际是一种基于RGB-Depth图像进行分析的人脸活体检测方法,以口袋银行APP的人脸SDK为例,从口袋银行APP的人脸SDK可以采集前置摄像头的人脸RGB图像,以及对应的深度图像,根据RGB图像的人脸关键点分析深度图像(Depth图像)对应的鼻子区域和脸颊区域的之间的像素灰度均值的差值,以此对假脸进行快速拦截。
进一步,本发明实施例中,在提取人脸区域时,采用的是人间检测技术,具体地,是先提取待检测图像中的人脸检测框;然后在人脸检测框中裁剪出人脸区域。
具体实现时,通常采用Centerface方法进行人脸检测,该方法是一种基于无锚点的人脸检测方法,且,具有快速且高召回率和低误检率的有点,可以用来解决光线不理想的环境下人脸易漏检的问题。
进一步,在提取人脸检测框时,可以通过基于Centerface算法的人脸检测网络模型来检测人脸检测框,例如,可以将待检测图像输入到人脸检测网络中进行人脸检测,输出人脸热度图、人脸尺度图和人脸中心偏移量图;然后将人脸热度图中大于预设阈值,如,0.35的点认为是人脸,然后在人脸中心偏移量图上对应位置取出人脸坐标偏移量,与人脸热度图的坐标相加,得到最终人脸的中心位置,最后在人脸尺度图上经过指数换算计算出人脸的宽高,得到人脸检测框,再经过非极大值抑制(NMS)剔除重复的人脸框。
此外,对于上述得到的人脸检测框,还可以进行外扩,具体地,可以对人脸检测框向四周进行外扩,假设[x1,y1;x2,y2]为人脸检测框的坐标,其中人脸检测框的x1,x2按检测框宽w的四分之一进行外扩,即x′1=x1-w/4,x′2=x2+w/4,人脸检测框的y1,y2按检测框高h的四分之一进行外扩,即y′1=y1-h/4,y′2=y2+h/4。具体的外扩操作还可以根据人脸检测框的实际宽、高进行设置,本发明实施例对此不进行限制。
进一步,在通过上述方式得到人脸检测框之后,可以在该人脸检测框中裁处人脸区域,以便于进行关键点定位。在实际使用时,人脸检测框通常是包括人脸区域的图像框,除人脸区域外,还会包括人脸区域的相邻区域,例如,头等、耳部两侧,以及脖子区域等等,而本发明实施例中,需要的仅仅是人脸区域,因此,在得到人脸检测框之后,还可以进一步裁剪出人脸区域,以便于减小后续步骤的处理范围,并使关键点定位更加准确。
具体地,本发明实施例中,在进行关键点定位时,使用的是预先训练好的人脸关键点网络模型,在上述步骤S104中,进行关键点定位时,需要将人脸区域输入至预先训练好的人脸关键点网络模型,基于人脸关键点网络模型输出每个关键点的标识信息;其中,本发明实施例中的关键点用于表征人脸图像的五官轮廓,且,关键点的标识信息包括关键点的序号以及关键点坐标。
在实际使用时,上述用于表征人脸图像的五官轮廓的关键点通常有很多,这些关键点按照五官轮廓在人脸图像上进行有序排列,因此,人脸五官所在的区域都分别分布有一定数量的关键点,这些关键点可以通过序号进行排序,例如,左眼所在的区域可以包括序号为1~8的关键点等等,进一步,在进行关键点定位时,还可以将人脸图像设置在一个坐标系中进行,这样,使得定位出的每个关键点都有相应的关键点坐标,在进一步提取关键点区域时,可以基于这些序号和关键点坐标在深度图像中进行。
具体地,上述步骤S106中,提取关键区域时,可以提取鼻子区域所包括的多个关键点的序号;基于序号,以及,多个关键点的关键点坐标,在待检测图像对应的深度图像中确定鼻子区域对应的矩形框;以及,提取脸颊区域所包括的多个关键点的序号;基于序号,以及,多个关键点的关键点坐标,在待检测图像对应的深度图像中确定脸颊区域应的矩形框。
其中,上述序号和关键点坐标是在RGB图像下通过关键点定位得到的,因此,此时,还需要去获取RGB图像对应的深度图像,以便于提取关键区域,具体地,可以直接获取人脸区域的深度图像,然后基于关键点的序号和关键点坐标取出深度图像中对应的鼻子区域和脸颊区域,例如,以关键点的序号从上到下,从左到右的顺序排序为例,此时,对于人脸图像可以按照预先设置的人脸关键点网络模型的参数,可以定位出468个关键点,在提取关键区域时可以从第51个关键点横坐标x1,第5个关键点纵坐标y1,第5个关键点横坐标x2,第4个关键点纵坐标y22的矩形框取出鼻子区域,可以表示为roi_nose=depth[y1:y2,x1:x2];根据第207个关键点横坐标x3,第205个关键点纵坐标y3,第206个关键点横坐标x4,第207个关键点纵坐标y2取出脸颊区域,并表示为roi_cheek=depth[y3:y4,x3:x4]。
进一步,基于上述关键点区域,在计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值时,可以基于上述鼻子区域对应的矩形框,按照下述公式计算鼻子区域的像素灰度均值:
Figure BDA0003716660830000121
其中,roi_nose(i,j)表示鼻子区域的矩形框,m、n为鼻子区域的矩形框的高和宽;以及,
基于脸颊区域对应的矩形框,按照下述公式计算脸颊区域的像素灰度均值:
Figure BDA0003716660830000122
其中,roi_cheek(i,j)表示脸颊区域的矩形框,此时,m,n为脸颊区域roi_cheek的高和宽。
进一步,在计算差值时,可以按照下述公式计算鼻子区域的像素灰度均值和脸颊区域的像素灰度均值的差值:Δ=mean_nose-mean_cheek;然后再基于预设的差值阈值确定待检测图像是否为对活体目标采集的图像,具体地,如果差值大于预设的差值阈值,则确定待检测图像为对活体目标采集的图像;如果差值小于预设的差值阈值,则确定待检测图像为对非活体目标采集的图像。
在实际使用时,上述对关键点定位所使用的预先训练好的人脸关键点网络模型为基于MobilenetV2为主干网络建立的深度学习神经网络模型;且,人脸关键点网络模型包括依次连接的主干网络MobileNetV2、自定义的卷积层、多尺度卷积层和全连接层,且,全连接层的输出包括多个神经元,神经元的数量与关键点的数量对应。
为了便于理解,图3示出了一种人脸关键点网络模型的结构示意图,如图3所示,该人脸关键点网络模型的设计,可以基于迁移学习技术实现,主干网络采用MobileNetV2,其中,MobileNetV2去掉后面三层,即卷积层、平均池化层和全连接层,然后接入自定义的卷积层、多尺度卷积层和全连接层,其中,全连接层的输出为多个神经元,以上述468个关键点为例,此时全连接层可以设置896个神经元,其中,图3中,示出了人脸关键点网络模型的输入、主干网络MobileNetV2、自定义的卷积层、多尺度卷积层、全连接层的多个神经元,以及人脸关键点网络模型的输出,其中,人脸关键点网络模型的输出则标记有该人脸关键点网络模型的多个预测关键点。
应当理解,本发明实施例中全连接层的神经元的个数与关键点的数量对应,在其他实施例中,关键点的数量,以及全连接层的神经元的个数,均可以根据实际使用情况进行设置,本发明实施例对此不进行限制。
为了便于理解,基于图3所示的人脸关键点网络模型,图4还示出了一种人脸关键点网络模型的训练方法,如图4所示,包括以下步骤:
步骤S402,获取训练集;
其中,训练集中包含多个标记有关键点标签的训练样本图像;
具体实现时,训练集所包括的训练样本图像是经过预处理的RGB图像,并且,预先标记有关键点标签。
具体地,由于本发明实施例中的关键点是用于表征人脸图像的五官轮廓的关键点,因此,预先标记关键点标签时,也是基于五官轮廓进行标注的,其标注的关键点标签的数量可以根据实际使用情况,以及所构建的全连接层的神经元的数量进行设置;进一步,对RGB图像的预处理的过程包括尺寸裁剪、数据扩增和数据归一化处理,数据扩增又包括随机补边、随机颜色抖动等操作,具体的预处理过程可以根据实际使用情况进行设置,本发明实施例对此不进行限制。
步骤S404,将训练样本图像输入至预先构建的深度学习神经网络模型,通过深度学习神经网络模型输出训练样本图像的多个预测关键点;
步骤S406,根据多个预测关键点和训练样本图像的关键点标签计算损失函数,并基于损失函数调整深度学习神经网络模型的网络参数,以生成人脸关键点网络模型。
具体地,如图3所示,训练样本图像输入至深度学习神经网络模型之后,深度学习神经网络模型可以预测训练样本图像的关键点,并输出多个预测关键点,然后根据损失函数进行迭代训练,直至收敛。
具体地,本发明实施例中,计算损失函数时,可以根据多个预测关键点和训练样本图像的关键点标签,按照下述公式计算损失函数:
Figure BDA0003716660830000141
Figure BDA0003716660830000142
其中,Loff为损失函数,用于表征关键点的坐标损失值;ok为训练样本图像的关键点标签对应的坐标值,k表示第k个训练样本图像;
Figure BDA0003716660830000143
为预测关键点的坐标值,N为训练集的样本总量。
并且,基于上述损失函数,本发明实施例中所使用的深度学习神经网络模型的网络参数包括优化器Adam,超参数β1和β2,以及学习率,通常,优化器Adam训练时可以采用开源库提供的优化参数,超参数β1和β2以及学习率,可以根据经验值进行设置,通常,β1和β2分别设置为0.9和0.999,本发明实施例中,学习率的经验值一般为5e-5;上述训练过程通常需要重复迭代多次,才能收敛,通常来说,依据经验值,重复迭代80次时,可以降低学习率至5e-5;继续重复迭代80次,当最终损失函数小于或者等于预设的阈值时,对深度学习神经网络模型的网络参数的内部参数进行调整如权重、梯度等,直到最终损失函数大于预设的阈值时,输出标准的人脸关键点网络模型。
同样以上述468个关键点为例,训练集中的训练样本图像一般包含468个关键点标签,训练过程中深度学习神经网络模型输出的预测关键点也未468个,这样,经过迭代训练完成的人脸关键点网络模型,在对输入的人脸区域进行关键点定位时,同样也可以输出468个关键点。
综上,本发明实施例提供的基于人脸图像的活体检测方法,具备以下优点:
(1)采用基于无锚点的人脸检测方法Centerface,避免了繁琐的基于锚点的后处理时间,同时,该方法还具备快速高效且高召回率和低误检率的有点,可以更好地解决光线不理想的环境下人脸漏检的问题;
(2)人脸关键点网络模型为基于MobilenetV2为主干网络建立的深度学习神经网络模型,该模型是一种针对移动端的轻量级深度神经网络,在进行人脸关键点定位时,本发明实施例还加入了多尺度卷积层,可以在复杂环境下使模型的鲁棒性更高,且满足移动端的实时高效准确的要求;
(3)根据RGB图像的人脸关键点分析深度图像(Depth图像)对应的鼻子区域和脸颊区域的之间灰度均值差异,可以使真假人脸差异分明,在有效抵御假脸攻击的同时大大提高了真人通过率。
在实际使用时,为了便于在移动端部署本发明实施例的基于人脸图像的活体检测方法,对于上述提取人脸区域、关键点定位,以及,计算鼻子区域和脸颊区域的像素灰度均值的差值的过程,均可以进行模块化设计,即设计相应的人脸检测模块、人脸关键点定位模块、深度图鼻子区域和脸颊部分区域的之间灰度均值差异分析活体模块,具体的模块化设计方式可以根据实际使用情况进行设置,本发明实施例对此不进行限制。
进一步,在上述实施例的基础上,本发明实施例还提供了一种基于人脸图像的活体检测装置,如图5所示的一种基于人脸图像的活体检测装置的结构示意图,该装置包括:
获取模块50,用于获取待检测图像,提取所述待检测图像中的人脸区域;
定位模块52,用于对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息;
提取模块54,用于根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域,所述关键区域包括鼻子区域和脸颊区域;
第一计算模块56,用于分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值;
第二计算模块58,用于计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值;
确定模块59,用于根据所述差值确定所述待检测图像是否为对活体目标采集的图像。
本发明实施例提供的基于人脸图像的活体检测装置,与上述实施例提供的基于人脸图像的活体检测方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
进一步,本发明实施例还提供了一种服务器,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述方法的步骤。
进一步,本发明实施例还提供了一种服务器的结构示意图,如图6所示,为该服务器的结构示意图,其中,该服务器包括处理器61和存储器60,该存储器60存储有能够被该处理器61执行的计算机可执行指令,该处理器61执行该计算机可执行指令以实现上述方法。
在图6示出的实施方式中,该服务器还包括总线62和通信接口63,其中,处理器61、通信接口63和存储器60通过总线62连接。
其中,存储器60可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口63(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线62可以是ISA(IndustryStandard Architecture,工业标准体系结构)总线、PCI(Peripheral ComponentInterconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。所述总线62可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器61可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器61中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器61可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital SignalProcessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器61读取存储器中的信息,结合其硬件完成前述方法
本发明实施例所提供的基于人脸图像的活体检测方法、装置及服务器的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (13)

1.一种基于人脸图像的活体检测方法,其特征在于,包括:
获取待检测图像,提取所述待检测图像中的人脸区域;
对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息;
根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域,所述关键区域包括鼻子区域和脸颊区域;
分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值;
计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值;
根据所述差值确定所述待检测图像是否为对活体目标采集的图像。
2.根据权利要求1所述的方法,其特征在于,根据所述差值确定所述待检测图像是否为对活体目标采集的图像的步骤,包括:
如果所述差值大于预设的差值阈值,则确定所述待检测图像为对活体目标采集的图像;
如果所述差值小于预设的差值阈值,则确定所述待检测图像为对非活体目标采集的图像。
3.根据权利要求1所述的方法,其特征在于,提取所述待检测图像中的人脸区域的步骤,包括:
提取所述待检测图像中的人脸检测框;
在所述人脸检测框中裁剪出所述人脸区域。
4.根据权利要求1所述的方法,其特征在于,对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息的步骤,包括:
将所述人脸区域输入至预先训练好的人脸关键点网络模型,基于所述人脸关键点网络模型输出每个关键点的标识信息;
其中,所述关键点用于表征所述人脸图像的五官轮廓,且,所述关键点的标识信息包括所述关键点的序号以及关键点坐标。
5.根据权利要求4所述的方法,其特征在于,根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域的步骤,包括:
提取所述鼻子区域所包括的多个所述关键点的序号;基于所述序号,以及,多个所述关键点的关键点坐标,在所述待检测图像对应的深度图像中确定所述鼻子区域对应的矩形框;以及,
提取所述脸颊区域所包括的多个所述关键点的序号;基于所述序号,以及,多个所述关键点的关键点坐标,在所述待检测图像对应的深度图像中确定所述脸颊区域应的矩形框。
6.根据权利要求5所述的方法,其特征在于,分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的步骤,包括:
基于所述鼻子区域对应的矩形框,按照下述公式计算所述鼻子区域的像素灰度均值:
Figure FDA0003716660820000021
其中,roi_nose(i,j)表示鼻子区域的矩形框,m、n为鼻子区域的矩形框的高和宽;以及,
基于所述脸颊区域对应的矩形框,按照下述公式计算所述脸颊区域的像素灰度均值:
Figure FDA0003716660820000022
其中,roi_cheek(i,j)表示脸颊区域的矩形框,m,n为脸颊区域roi_cheek的高和宽。
7.根据权利要求6所述的方法,其特征在于,计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值的步骤,包括:
按照下述公式计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值:
Δ=mean_nose-mean_cheek。
8.根据权利要求4所述的方法,其特征在于,预先训练好的人脸关键点网络模型为基于MobilenetV2为主干网络建立的深度学习神经网络模型;
所述人脸关键点网络模型包括依次连接的主干网络MobileNetV2、自定义的卷积层、多尺度卷积层和全连接层,且,所述全连接层的输出包括多个神经元,所述神经元的数量与所述关键点的数量对应。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
获取训练集,其中,所述训练集中包含多个标记有关键点标签的训练样本图像;
将所述训练样本图像输入至预先构建的深度学习神经网络模型,通过所述深度学习神经网络模型输出所述训练样本图像的多个预测关键点;
根据多个所述预测关键点和所述训练样本图像的关键点标签计算损失函数,并基于所述损失函数调整所述深度学习神经网络模型的网络参数,以生成所述人脸关键点网络模型。
10.根据权利要求9所述的方法,其特征在于,根据多个所述预测关键点和所述训练样本图像的关键点标签计算损失函数的步骤,包括:
根据多个所述预测关键点和所述训练样本图像的关键点标签,按照下述公式计算损失函数:
Figure FDA0003716660820000041
Figure FDA0003716660820000042
其中,Loff为损失函数,用于表征所述关键点的坐标损失值;ok为所述训练样本图像的关键点标签对应的坐标值;
Figure FDA0003716660820000043
为预测关键点的坐标值,N为所述训练集的样本总量。
11.一种基于人脸图像的活体检测装置,其特征在于,包括:
获取模块,用于获取待检测图像,提取所述待检测图像中的人脸区域;
定位模块,用于对所述人脸区域中包含的人脸图像进行关键点定位,生成每个所述关键点的标识信息;
提取模块,用于根据所述标识信息在所述待检测图像对应的深度图像中提取所述人脸图像包含的多个关键区域,所述关键区域包括鼻子区域和脸颊区域;
第一计算模块,用于分别计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值;
第二计算模块,用于计算所述鼻子区域的像素灰度均值和所述脸颊区域的像素灰度均值的差值;
确定模块,用于根据所述差值确定所述待检测图像是否为对活体目标采集的图像。
12.一种服务器,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-10任一项所述的方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述权利要求1-10任一项所述的方法的步骤。
CN202210745308.3A 2022-06-27 2022-06-27 基于人脸图像的活体检测方法、装置及服务器 Pending CN115100714A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210745308.3A CN115100714A (zh) 2022-06-27 2022-06-27 基于人脸图像的活体检测方法、装置及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210745308.3A CN115100714A (zh) 2022-06-27 2022-06-27 基于人脸图像的活体检测方法、装置及服务器

Publications (1)

Publication Number Publication Date
CN115100714A true CN115100714A (zh) 2022-09-23

Family

ID=83293905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210745308.3A Pending CN115100714A (zh) 2022-06-27 2022-06-27 基于人脸图像的活体检测方法、装置及服务器

Country Status (1)

Country Link
CN (1) CN115100714A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764121A (zh) * 2018-05-24 2018-11-06 释码融和(上海)信息科技有限公司 用于检测活体对象的方法、计算设备及可读存储介质
CN110069962A (zh) * 2018-01-23 2019-07-30 深圳市祈飞科技有限公司 一种活体检测方法和系统
CN110287900A (zh) * 2019-06-27 2019-09-27 深圳市商汤科技有限公司 验证方法和验证装置
CN111222400A (zh) * 2019-11-07 2020-06-02 北京集联网络技术有限公司 一种人脸防伪方法及装置
CN112036253A (zh) * 2020-08-06 2020-12-04 海纳致远数字科技(上海)有限公司 一种基于深度学习的人脸关键点定位方法
CN112200056A (zh) * 2020-09-30 2021-01-08 汉王科技股份有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN112329720A (zh) * 2020-11-26 2021-02-05 杭州海康威视数字技术股份有限公司 人脸活体检测方法、装置及设备
CN112487921A (zh) * 2020-11-25 2021-03-12 奥比中光科技集团股份有限公司 一种用于活体检测的人脸图像预处理方法及系统
CN112580395A (zh) * 2019-09-29 2021-03-30 深圳市光鉴科技有限公司 基于深度信息的3d人脸活体识别方法、系统、设备及介质
CN113177515A (zh) * 2021-05-20 2021-07-27 罗普特科技集团股份有限公司 一种基于图像的眼动追踪方法和系统
CN113505682A (zh) * 2021-07-02 2021-10-15 杭州萤石软件有限公司 活体检测方法及装置
WO2022110846A1 (zh) * 2020-11-24 2022-06-02 奥比中光科技集团股份有限公司 一种活体检测的方法及设备
WO2022126917A1 (zh) * 2020-12-18 2022-06-23 平安科技(深圳)有限公司 基于深度学习的人脸图像评估方法、装置、设备及介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069962A (zh) * 2018-01-23 2019-07-30 深圳市祈飞科技有限公司 一种活体检测方法和系统
CN108764121A (zh) * 2018-05-24 2018-11-06 释码融和(上海)信息科技有限公司 用于检测活体对象的方法、计算设备及可读存储介质
CN110287900A (zh) * 2019-06-27 2019-09-27 深圳市商汤科技有限公司 验证方法和验证装置
CN112580395A (zh) * 2019-09-29 2021-03-30 深圳市光鉴科技有限公司 基于深度信息的3d人脸活体识别方法、系统、设备及介质
CN111222400A (zh) * 2019-11-07 2020-06-02 北京集联网络技术有限公司 一种人脸防伪方法及装置
CN112036253A (zh) * 2020-08-06 2020-12-04 海纳致远数字科技(上海)有限公司 一种基于深度学习的人脸关键点定位方法
CN112200056A (zh) * 2020-09-30 2021-01-08 汉王科技股份有限公司 人脸活体检测方法、装置、电子设备及存储介质
WO2022110846A1 (zh) * 2020-11-24 2022-06-02 奥比中光科技集团股份有限公司 一种活体检测的方法及设备
CN112487921A (zh) * 2020-11-25 2021-03-12 奥比中光科技集团股份有限公司 一种用于活体检测的人脸图像预处理方法及系统
CN112329720A (zh) * 2020-11-26 2021-02-05 杭州海康威视数字技术股份有限公司 人脸活体检测方法、装置及设备
WO2022126917A1 (zh) * 2020-12-18 2022-06-23 平安科技(深圳)有限公司 基于深度学习的人脸图像评估方法、装置、设备及介质
CN113177515A (zh) * 2021-05-20 2021-07-27 罗普特科技集团股份有限公司 一种基于图像的眼动追踪方法和系统
CN113505682A (zh) * 2021-07-02 2021-10-15 杭州萤石软件有限公司 活体检测方法及装置

Similar Documents

Publication Publication Date Title
CN111898547B (zh) 人脸识别模型的训练方法、装置、设备及存储介质
CN106815566B (zh) 一种基于多任务卷积神经网络的人脸检索方法
CN111178197B (zh) 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
CN105740780B (zh) 人脸活体检测的方法和装置
CN103443804B (zh) 面部标志检测方法
CN111767882A (zh) 一种基于改进yolo模型的多模态行人检测方法
JP5675229B2 (ja) 画像処理装置及び画像処理方法
CN106257489A (zh) 表情识别方法及系统
CN107909081B (zh) 一种深度学习中图像数据集的快速获取和快速标定方法
CN111199230B (zh) 目标检测的方法、装置、电子设备及计算机可读存储介质
CN111274916A (zh) 人脸识别方法和人脸识别装置
CN112598713A (zh) 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法
CN115082994A (zh) 人脸活体检测方法、活体检测网络模型的训练方法及装置
CN106203539B (zh) 识别集装箱箱号的方法和装置
JP6351243B2 (ja) 画像処理装置、画像処理方法
CN111062328B (zh) 一种图像处理方法、装置及智能机器人
CN111813997A (zh) 入侵分析方法、装置、设备及存储介质
CN107918773B (zh) 一种人脸活体检测方法、装置及电子设备
JP2014041477A (ja) 画像認識装置及び画像認識方法
JP2005196678A (ja) テンプレートマッチング方法および対象画像領域抽出装置
Kimura et al. CNN hyperparameter tuning applied to iris liveness detection
CN110599463A (zh) 一种基于轻量级联神经网络的舌像检测及定位算法
CN109313699A (zh) 用于对一车辆的输入图像进行目标识别的装置和方法
CN117437691A (zh) 一种基于轻量化网络的实时多人异常行为识别方法及系统
CN112257730A (zh) 植物害虫图像识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination