CN110458024B - 活体检测方法及装置和电子设备 - Google Patents

活体检测方法及装置和电子设备 Download PDF

Info

Publication number
CN110458024B
CN110458024B CN201910624362.0A CN201910624362A CN110458024B CN 110458024 B CN110458024 B CN 110458024B CN 201910624362 A CN201910624362 A CN 201910624362A CN 110458024 B CN110458024 B CN 110458024B
Authority
CN
China
Prior art keywords
machine learning
learning algorithm
probability
image
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910624362.0A
Other languages
English (en)
Other versions
CN110458024A (zh
Inventor
曹佳炯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Priority to CN201910624362.0A priority Critical patent/CN110458024B/zh
Publication of CN110458024A publication Critical patent/CN110458024A/zh
Application granted granted Critical
Publication of CN110458024B publication Critical patent/CN110458024B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例提供一种活体检测方法及装置和电子设备,所述方法包括:获取待检测的第一图像;计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;如果所述第一概率属于第一非活体概率范围,计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;根据所述第二概率,确定所述第一图像的活体检测是否通过。

Description

活体检测方法及装置和电子设备
技术领域
本说明书实施例涉及互联网技术领域,尤其涉及一种活体检测方法及装置和电子设备。
背景技术
随着生物识别技术不断发展,尤其是人脸识别技术得到了广泛的应用;大大简化了支付、门禁、安检等身份认证场景的流程。
然而,人脸识别系统容易受到例如人脸照片、人脸视频等手段的攻击。这些攻击被称为活体攻击,而检测活体攻击的技术被称为活体检测技术。
发明内容
本说明书实施例提供的一种活体检测方法及装置和电子设备:
根据本说明书实施例的第一方面,提供一种活体检测方法,所述方法包括:
获取待检测的第一图像;
计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
如果所述第一概率属于第一非活体概率范围,计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
根据所述第二概率,确定所述第一图像的活体检测是否通过。
可选,所述方法还包括:
如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。
可选,根据所述第二概率,确定所述第一图像的活体检测是否通过,具体包括:
如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
可选,在所述计算所述第一图像中的局部内容为活体的第二概率之前,所述方法还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
可选,所述计算所述第一图像的整体内容为活体的第一概率,具体包括:
基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;
所述计算所述第一图像中的局部内容为活体的第二概率,具体包括:
基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率。
可选,在训练所述第一机器学习算法和第二机器学习算法过程中,将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。
可选,在将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本之前,所述方法还包括:
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本进行伽马变换;
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本,具体包括:
将所述训练样本以及伽马变换后的样本作为所述第二机器学习算法的输入样本。
可选,在训练得到所述第一机器学习算法和第二机器学习算法之后,所述方法还包括:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
可选,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
可选,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法
根据本说明书实施例的第二方面,提供一种活体检测装置,所述装置包括:
获取单元,获取待检测的第一图像;
整体检测单元,计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
局部检测单元,如果所述第一概率属于第一非活体概率范围,计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
确定单元,根据所述第二概率,确定所述第一图像的活体检测是否通过。
可选的,所述装置还包括:
检测通过子单元,如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。
可选的,所述确定单元,具体包括:
检测通过子单元,如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
检测不通过子单元,如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
可选的,在所述局部检测单元中计算所述第一图像中的局部内容为活体的第二概率之前,还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
可选的,所述整体计算单元,具体包括:
基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;
所述局部计算单元中,计算所述第一图像中的局部内容为活体的第二概率,具体包括:
基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率。
可选的,还包括:
训练子单元,在训练所述第一机器学习算法和第二机器学习算法过程中,将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。
可选的,在所述训练子单元中,还包括:
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本进行伽马变换;
将所述训练样本以及伽马变换后的样本作为所述第二机器学习算法的输入样本。
可选的,在训练得到所述第一机器学习算法和第二机器学习算法之后,所述装置还包括:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
可选的,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
可选的,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法。
根据本说明书实施例的第五方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为上述任一项活体检测方法。
本说明书实施例,提供了一种活体检测方案,首先对待检测的第一图像进行整体内容的粗糙检测(采用低分辨率的图像);在整体内容判定有较高概率为攻击的情况下,再对第一图像中人脸区域进行局部内容的精细检测(采用高分辨率图像);如此,形成全局+局部以及粗糙+精细的互补。
一方面,由于第一次检测是对整副图像进行检测,因此活体检测过程中不会忽略图像中的背景信息,进而可以利用背景内容提高活体检测准确性。
另一方面,由于第一机器学习算法和第二机器学习算法为串联模式,第一次检测是对整副图像进行粗糙检测,第二次检测仅是对人脸区域进行检测,因此整体活体检测耗时较短。特别是,第一机器学习算法虽然是整副图像检测但采用低分辨率图像,耗时并不高;第二机器学习算法虽然采用高分辨率图像但仅对人脸区域进行检测,耗时同样不高。
附图说明
图1是本说明书一实施例提供的活体检测方法的流程图;
图2是本说明书一实施例提供的活体检测装置的硬件结构图;
图3是本说明书一实施例提供的活体检测装置的模块示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书的一些方面相一致的装置和方法的例子。
在本说明书使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书。在本说明书和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
近年来,活体检测技术已经称为人脸识别系统中不可缺少的一个环节,为整个人脸识别系统的安全性保驾护航。
然而,现有的活体检测至少存在以下两个问题:
(1)活体检测输入的只有整幅图像的人脸区域,其余的背景信息都被忽略了;这样容易导致无法利用背景内容来识别攻击;
例如通过图像中的手机边框、照片边缘等背景元素可以加速或者提高识别准确性。
(2)为了提高检测准确率,现有技术中采用多模型融合检测算法,即同时采用多个模型并联检测,每个模型单独对待检测图像进行检测,综合每个模型的检测结果得到最终的检测结果。然而,这种方式存在活体检测耗时较长的问题;活体检测耗时通常占据生物识别总时长的50%以上;如何降低活体检测耗时成为业内亟待解决的问题。
为了解决上述问题,本说明书提供了一种活体检测方法,以下可以参考图1所示的例子介绍,所述方法可以包括以下步骤:
步骤110:获取待检测的第一图像;
步骤120:计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
步骤130:如果所述第一概率属于第一非活体概率范围,计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
步骤140:根据所述第二概率,确定所述第一图像的活体检测是否通过。
本说明书的实施例可以应用在进行活体检测的服务端。所述服务端可以是人脸识别系统的服务器、服务器集群或者由所述服务器集群构建的云平台。
在实际应用中,用户在进行某项业务时,可能需要提供人脸图像,以供客户端采集并上传服务端进行人脸识别。
为了提升人脸识别的安全性,本说明书实施例中还可以将人脸图像结合其它的生物特征组合使用,即可以同时识别用户的人脸图像和其它生物特征。
其中,所述其它生物特征可以包括眼部特征(如眼纹)、声纹、指纹、掌纹、心跳、脉搏、染色体、DNA、人牙咬痕等。其中眼纹可以包括虹膜、巩膜等生物特征。
本说明书中所述人脸识别可以结合具体业务以实现相应功能。例如,扫脸支付(也称人脸支付),即通过采集用户的人脸图像从而实现支付。
在该示例中,支付客户端(例如用户手机、商家终端等)采集待支付的用户的人脸图像,通过识别该人脸图像匹配对应的用户账户,使用该用户账户中的资金进行支付。
其中,所述采集可以包括扫描、拍照等。所述支付涉及的技术载体,例如可以包括摄像头。
在一实施例中,服务端接收上传的待检测的第一图像;所述第一图像可以是指包含有用户人脸的图像。一般的,所述第一图像包含人脸部分以及背景部分。所述背景部分通常是指除人脸部分之外的内容,例如光线、阴影等。
在一实施例中,在步骤120之后,所述方法还可以包括:
如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。即所述第一图像的人脸部分属于活体。
其中,所述第一活体概率范围和第一非活体概率范围可以是指用于判断第一概率是否符合活体。如果第一概率落入第一活体概率范围内,则说明所述第一图像属于活体;如果第一概率落入第一非活体概率范围内,则说明所述第一图像属于非活体。
一般的,所述第一活体概率范围和第一非活体概率范围还可以转换为一个第一阈值,该第一阈值的两边(小于第一阈值或大于以及等于第一阈值)分别可以表示第一活体概率范围和第一非活体概率范围。具体地,在第一概率小于第一阈值时,说明第一概率属于第一活体概率范围,进而直接确定所述第一图像的活体检测通过并结束活体检测;
在第一概率大于等于第一阈值时,说明第一概率属于第一非活体概率范围,进而执行步骤130。
在一实施例中,所述步骤140,具体可以包括:
如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
通常,第一概率和第二概率的判断标准是不同的;因此,用于判断第二概率是否属于活体的第二活体概率范围与前述第一活体概率范围可以是不同的;用于判断第二概率是否属于非活体的第二非活体概率范围与前述第一非活体概率范围可以是不同的。
与前述第一活体概率范围和第一非活体概率范围类似的,所述第二活体概率范围和第二非活体概率范围可以转换为一个第二阈值;具体地,在第二概率小于第二阈值时,说明第二概率属于第二活体概率范围,进而直接确定所述第一图像的活体检测通过并结束活体检测;
在第二概率大于等于第二阈值时,说明第一概率属于第二非活体概率范围,进而确定所述第一图像的活体检测不通过并结束活体检测。
在一实施例中,在所述步骤130中的计算所述第一图像中的局部内容为活体的第二概率之前,所述方法还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
该实施例中,由于所述第一概率属于第一非活体概率范围,则说明第一图像可能属于活体攻击,因此需要进一步进行更为细致的活体检测;具体地,需要针对第一图像中的人脸区域进行活体检测。此时,由服务端对第一图像进行人脸检测,以确定仅包含人脸的图像,这样就可以排除其他背景内容对后续活体检测的影响。
值得一提的是,对第一图像进行人脸检测的步骤,还可以在步骤130之前执行的。
在一实施例中,可以借助机器学习技术来计算第一图像的第一概率,以及人脸区域的第二概率。具体地:
所述步骤120计算所述第一图像的整体内容为活体的第一概率,具体包括:
基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;
所述步骤130中计算所述第一图像中的局部内容为活体的第二概率,具体包括:
基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率。
该实施例中,需要预先训练第一机器学习算法,以及第二机器学习算法。
其中,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法。例如CNN(Convolutional NeuralNetworks,卷积神经网络)。
以下详细介绍第一机器学习算法的训练:
1、获取采集的已标记的训练样本;所述训练样本可以包括包含人脸区域和背景区域的整体图像。
2、对训练样本进行预处理:可以将训练样本可以分为训练数据和测试数据(例如按照80%的训练数据和20%的测试数据)。由于训练样本均是既包含人脸区域又包含背景区域的整体图像,存在背景噪声(如光照强度不同、图像尺度不同)的影响;因此,可以通过尺寸归一化操作,即将训练样本的图像分辨率调整到同一尺寸(resize),从而消除图像尺度不同的影响;并且可以通过像素归一化操作,即针对训练样本的像素值减去所有训练样本像素值的均值后,再除以所有训练样本像素值的方差,从而可以减少或消除光照强度不同的影响。
3、对第一机器学习算法设计模型网络:由于整个活体检测的耗时主要取决于第一机器学习算法的计算耗时,因此第一机器学习算法的模型设计主要关注的是计算速度。为此,所述第一机器学习算法训练可以采用小分辨率输入、浅网络结构,以下如表1所示的一种可能的模型结构:
表1
Figure BDA0002126570010000111
4、算法训练:通过上述表1所示的模型结构,利用80%的训练数据,基于二分类的SoftmaxLoss进行模型训练;然后再利用20%的测试数据对算法模型进行准确率测试。
以下详细介绍第二机器学习算法的训练:
1、对输入数据预处理:第二机器学习算法训练时,输入数据为第一机器学习算法确定的有较高概率为活体攻击的训练样本。所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。具体地,假设第一机器学习算法对应的第一阈值T1,如果某个训练样本X经过第一机器学习算法后输出第一概率f(X)>=T1,则该样本X将作为输入到第二机器学习算法中进行训练。
可见,第二机器学习算法的输入实际是第一机器学习算法输入的一个子集。这个子集的占比由第一阈值T1决定。此外,这个子集中的训练样本将由输入第一机器学习算法时的整体区域变为仅包含人脸区域的局部区域。
与第一机器学习算法类似的,对于输入第二机器学习算法中的训练样本来说,同样需要做尺寸归一化和像素归一化操作。
2、数据增广操作:由于输入第二机器学习算法的训练样本仅为输入第一机器学习算法的一个子集,训练样本数量较少,可能出现无法达到深度学习网络的要求。因此,需要对第二机器学习算法的训练样本进行数据增广操作,以增加用于第二机器学习算法训练所需的训练样本数量。
具体地,所述数据增广操作包括但不限于:高斯模糊、动态模糊、颜色扰动、伽马变换等。
以下以伽马变换为例加以说明:
通过以下伽马变换的公式1,可以根据输入第二机器学习算法的原始训练样本X,得到数据增广的增广训练样本X’
X’=a*X+b 公式1
其中,a和b为[0,1]的随机数。
需要说明的是,数据增广操作中新增的训练样本由于是基于原始训练样本细微调整得来的,不会影响样本的准确性。
3、对第二机器学习算法设计模型网络:由于整个活体检测的召回率主要取决于第二机器学习算法的召回率,因此第二机器学习算法的模型设计主要关注的召回率。为此,所述第二机器学习算法训练可以采用大分辨率输入、深网络结构,以下如表2所示的一种可能的模型结构:
表2
Figure BDA0002126570010000121
Figure BDA0002126570010000131
4、算法训练:可以将训练样本分为80%训练数据和20%的测试数据。通过上述表2所示的模型结构,利用80%的训练数据,基于二分类的SoftmaxLoss进行模型训练;然后再利用20%的测试数据对算法模型进行准确率测试。
在一实施例中,在算法模型测试阶段,还可以对第一机器学习算法和第二机器学习算法整体进行性能评估。具体地:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
其中,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
值得一提的是,实际应用中,R1约为1,而n一般小于5。所以,总召回率约为第二机器学习算法的召回率,而总耗时约为第一机器学习算法的耗时。
通过上述实施例,在训练了第一机器学习算法和第二机器学习算法之后,后续就可以利用所述第一机器学习算法和第二机器学习算法对待检测的第一图像进行活体检测了,即前述图1所示步骤110-140的内容。
本说明书实施例,提供了一种活体检测方案,首先对待检测的第一图像进行整体内容的粗糙检测(采用低分辨率的图像);在整体内容判定有较高概率为攻击的情况下,再对第一图像中人脸区域进行局部内容的精细检测(采用高分辨率图像);如此,形成全局+局部以及粗糙+精细的互补。
一方面,由于第一次检测是对整副图像进行检测,因此活体检测过程中不会忽略图像中的背景信息,进而可以利用背景内容提高活体检测准确性。
另一方面,由于第一机器学习算法和第二机器学习算法为串联模式,第一次检测是对整副图像进行粗糙检测,第二次检测仅是对人脸区域进行检测,因此整体活体检测耗时较短。特别是,第一机器学习算法虽然是整副图像检测但采用低分辨率图像,耗时并不高;第二机器学习算法虽然采用高分辨率图像但仅对人脸区域进行检测,耗时同样不高。
与前述活体检测方法实施例相对应,本说明书还提供了活体检测装置的实施例。所述装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在设备的处理器将非易失性存储器中对应的计算机业务程序指令读取到内存中运行形成的。从硬件层面而言,如图2所示,为本说明书活体检测装置所在设备的一种硬件结构图,除了图2所示的处理器、网络接口、内存以及非易失性存储器之外,实施例中装置所在的设备通常根据活体检测实际功能,还可以包括其他硬件,对此不再赘述。
请参见图3,为本说明书一实施例提供的活体检测装置的模块图,所述装置对应了图1所示实施例,所述装置包括:
获取单元310,获取待检测的第一图像;
整体检测单元320,计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
局部检测单元330,如果所述第一概率属于第一非活体概率范围,计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
确定单元340,根据所述第二概率,确定所述第一图像的活体检测是否通过。
可选的,所述装置还包括:
检测通过子单元,如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。
可选的,所述确定单元340,具体包括:
检测通过子单元,如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
检测不通过子单元,如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
可选的,在所述局部检测单元330中计算所述第一图像中的局部内容为活体的第二概率之前,还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
可选的,所述整体计算单元320,具体包括:
基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;
所述局部计算单元330中,计算所述第一图像中的局部内容为活体的第二概率,具体包括:
基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率。
可选的,还包括:
训练子单元,在训练所述第一机器学习算法和第二机器学习算法过程中,将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。
可选的,在所述训练子单元中,还包括:
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本进行伽马变换;
将所述训练样本以及伽马变换后的样本作为所述第二机器学习算法的输入样本。
可选的,在训练得到所述第一机器学习算法和第二机器学习算法之后,所述装置还包括:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
可选的,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
可选的,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本说明书方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上图3描述了活体检测装置的内部功能模块和结构示意,其实质上的执行主体可以为一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取待检测的第一图像;
计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
如果所述第一概率属于第一非活体概率范围,计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
根据所述第二概率,确定所述第一图像的活体检测是否通过。
可选的,还包括:
如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。
可选的,根据所述第二概率,确定所述第一图像的活体检测是否通过,具体包括:
如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
可选的,在所述计算所述第一图像中的局部内容为活体的第二概率之前,还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
可选的,所述计算所述第一图像的整体内容为活体的第一概率,具体包括:
基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;
所述计算所述第一图像中的局部内容为活体的第二概率,具体包括:
基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率。
可选的,在训练所述第一机器学习算法和第二机器学习算法过程中,将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。
可选的,在将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本之前,还包括:
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本进行伽马变换;
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本,具体包括:
将所述训练样本以及伽马变换后的样本作为所述第二机器学习算法的输入样本。
可选的,在训练得到所述第一机器学习算法和第二机器学习算法之后,还包括:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
可选的,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
可选的,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法。
在上述电子设备的实施例中,应理解,该处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,而前述的存储器可以是只读存储器(英文:read-only memory,缩写:ROM)、随机存取存储器(英文:random access memory,简称:RAM)、快闪存储器、硬盘或者固态硬盘。结合本发明实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于电子设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本说明书的其它实施方案。本说明书旨在涵盖本说明书的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本说明书的一般性原理并包括本说明书未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本说明书的真正范围和精神由下面的权利要求指出。
应当理解的是,本说明书并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本说明书的范围仅由所附的权利要求来限制。

Claims (19)

1.一种活体检测方法,所述方法包括:
获取待检测的第一图像;
基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
如果所述第一概率属于第一非活体概率范围,基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
根据所述第二概率,确定所述第一图像的活体检测是否通过。
2.根据权利要求1所述的方法,所述方法还包括:
如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。
3.根据权利要求1所述的方法,根据所述第二概率,确定所述第一图像的活体检测是否通过,具体包括:
如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
4.根据权利要求1所述的方法,在所述基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率之前,所述方法还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
5.根据权利要求1所述的方法,在训练所述第一机器学习算法和第二机器学习算法过程中,将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。
6.根据权利要求5所述的方法,在将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本之前,所述方法还包括:
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本进行伽马变换;
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本,具体包括:
将所述训练样本以及伽马变换后的样本作为所述第二机器学习算法的输入样本。
7.根据权利要求1所述的方法,在训练得到所述第一机器学习算法和第二机器学习算法之后,所述方法还包括:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
8.根据权利要求7所述的方法,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
9.根据权利要求1-8中任一所述的方法,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法。
10.一种活体检测装置,所述装置包括:
获取单元,获取待检测的第一图像;
整体检测单元,基于设定的第一机器学习算法计算所述第一图像的整体内容为活体的第一概率;其中,所述整体内容包括所述第一图像中的人脸区域和背景区域;
局部检测单元,如果所述第一概率属于第一非活体概率范围,基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率;其中,所述局部内容包括所述第一图像中的人脸区域;
确定单元,根据所述第二概率,确定所述第一图像的活体检测是否通过。
11.根据权利要求10所述的装置,所述装置还包括:
检测通过子单元,如果所述第一概率属于第一活体概率范围,确定所述第一图像的活体检测通过。
12.根据权利要求10所述的装置,所述确定单元,具体包括:
检测通过子单元,如果所述第二概率属于第二活体概率范围,确定所述第一图像的活体检测通过;
检测不通过子单元,如果所述第二概率属于第二非活体概率范围,确定所述第一图像的活体检测不通过。
13.根据权利要求10所述的装置,在所述局部检测单元中基于设定的第二机器学习算法计算所述第一图像中的局部内容为活体的第二概率之前,还包括:
针对所述第一概率属于第一非活体概率范围的第一图像进行人脸检测,将检测得到的人脸区域作为第一图像中的局部内容。
14.根据权利要求10所述的装置,还包括:
训练子单元,在训练所述第一机器学习算法和第二机器学习算法过程中,将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本作为所述第二机器学习算法的输入样本。
15.根据权利要求14所述的装置,在所述训练子单元中,还包括:
将所述第一机器学习算法输出的属于第一非活体概率范围的训练样本进行伽马变换;
将所述训练样本以及伽马变换后的样本作为所述第二机器学习算法的输入样本。
16.根据权利要求10所述的装置,在训练得到所述第一机器学习算法和第二机器学习算法之后,所述装置还包括:
计算所述第一机器学习算法和第二机器学习算法的整体性能;
在所述整体性能符合预设要求时,应用所述第一机器学习算法和第二机器学习算法。
17.根据权利要求16所述的装置,所述整体性能包括整体召回率、整体通过率和整体耗时中的至少一种;
其中,所述整体召回率R=R1*R2;
所述整体通过率P=(1-n%)*T1+T2*n%;
所述整体耗时t=t1+t2*n%;
第一机器学习算法的阈值为T1,召回率为R1,通过率为P1,耗时为t1;
第二机器学习算法的阈值为T2,召回率为R2,通过率为P2,耗时为t2;
第一机器学习算法中有n%的训练样本输入到第二机器学习算法。
18.根据权利要求10-17中任一所述的装置,所述第一机器学习算法和/或第二机器学习算法包括决策树算法、逻辑回归算法、GBDT算法或深度学习算法。
19.一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为上述权利要求1-9中任一项所述的方法。
CN201910624362.0A 2019-07-11 2019-07-11 活体检测方法及装置和电子设备 Active CN110458024B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910624362.0A CN110458024B (zh) 2019-07-11 2019-07-11 活体检测方法及装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910624362.0A CN110458024B (zh) 2019-07-11 2019-07-11 活体检测方法及装置和电子设备

Publications (2)

Publication Number Publication Date
CN110458024A CN110458024A (zh) 2019-11-15
CN110458024B true CN110458024B (zh) 2023-05-30

Family

ID=68482576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910624362.0A Active CN110458024B (zh) 2019-07-11 2019-07-11 活体检测方法及装置和电子设备

Country Status (1)

Country Link
CN (1) CN110458024B (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107992842B (zh) * 2017-12-13 2020-08-11 深圳励飞科技有限公司 活体检测方法、计算机装置及计算机可读存储介质
CN109858381A (zh) * 2019-01-04 2019-06-07 深圳壹账通智能科技有限公司 活体检测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN110458024A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
US20200160040A1 (en) Three-dimensional living-body face detection method, face authentication recognition method, and apparatuses
CN107292287B (zh) 人脸识别方法、装置、电子设备及存储介质
WO2020098250A1 (zh) 字符识别方法、服务器及计算机可读存储介质
WO2019033572A1 (zh) 人脸遮挡检测方法、装置及存储介质
US7970180B2 (en) Method, apparatus, and program for processing red eyes
CN110428399B (zh) 用于检测图像的方法、装置、设备和存储介质
CN111461165A (zh) 图像识别方法、识别模型的训练方法及相关装置、设备
WO2020244071A1 (zh) 基于神经网络的手势识别方法、装置、存储介质及设备
CN111461170A (zh) 车辆图像检测方法、装置、计算机设备及存储介质
CN110866466A (zh) 一种人脸识别方法、装置、存储介质和服务器
CN111126098B (zh) 证件图像采集方法、装置、设备及存储介质
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
CN111027450A (zh) 银行卡信息识别方法、装置、计算机设备及存储介质
EP3447683A1 (en) Method of processing biometric image and apparatus including the same
CN111783629A (zh) 一种面向对抗样本攻击的人脸活体检测方法及装置
CN111861998A (zh) 一种人体图像质量评估方法、装置、系统和计算机设备
WO2022252527A1 (zh) 神经网络训练及人脸识别方法、装置、设备及存储介质
CN117496560B (zh) 一种基于多维向量的指纹纹线识别方法及装置
CN108764121B (zh) 用于检测活体对象的方法、计算设备及可读存储介质
CN110942067A (zh) 文本识别方法、装置、计算机设备和存储介质
JP7269897B2 (ja) データ登録装置、生体認証装置、およびデータ登録プログラム
CN112200109A (zh) 面部属性识别方法、电子设备以及计算机可读存储介质
CN110458024B (zh) 活体检测方法及装置和电子设备
CN113239738B (zh) 一种图像的模糊检测方法及模糊检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40017475

Country of ref document: HK

TA01 Transfer of patent application right

Effective date of registration: 20200924

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

Effective date of registration: 20200924

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant