CN111222380A - 一种活体检测方法、装置、及其识别模型训练方法 - Google Patents
一种活体检测方法、装置、及其识别模型训练方法 Download PDFInfo
- Publication number
- CN111222380A CN111222380A CN201811424932.3A CN201811424932A CN111222380A CN 111222380 A CN111222380 A CN 111222380A CN 201811424932 A CN201811424932 A CN 201811424932A CN 111222380 A CN111222380 A CN 111222380A
- Authority
- CN
- China
- Prior art keywords
- image
- recognition model
- variance
- gray level
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 title claims description 28
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000010606 normalization Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 12
- 230000001131 transforming effect Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 5
- 238000001574 biopsy Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000001727 in vivo Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/446—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种活体检测方法,该方法包括,将获取的待检测目标近红外光图像进行归一化处理,得到归一化后的第一图像;基于第一图像,统计灰度直方图,求取灰度直方图的方差,得到区分特征;将区分特征输入至训练后的识别模型;根据所述识别模型的输出结果,进行检测结果的判定。本方法能够有效抵御照片和视频显示包括手机等假体的攻击,提高识别设备的安全性。并且,无需待检测目标按特定指令进行配合,整个验证过程耗时少,体验好。
Description
技术领域
本发明涉及活体识别技术领域,特别地,涉及一种活体检测方法。
背景技术
活体检测技术是为了防止恶意者将伪造的他人生物特征用于身份认证,在生物特征识别过程中,针对待认证样本是否具有生命特征进行检测的技术。例如,目前广泛应用的人脸活体检测,大部分是通过眨眼、张嘴、摇头、点头等组合动作,使用人脸关键点定位和人脸追踪等技术,验证用户是否为真实活体本人操作,以便有效抵御照片、换脸、面具、遮挡以及屏幕翻拍等常见的攻击手段,从而帮助用户甄别欺诈行为,保障用户的利益。
上述的人脸活体检测单一地基于可见光的人脸识别设备,容易被视频中的人脸攻破,不具备防假功能,设备的安全性很低;并且,在检测过程中需要有交互式动作(用户配合指令完成相应的动作,如微笑、朗读等),这种基于交互式指令的检测需要用户配合,用户体验差,一旦获取所有指令可针对性的录制视频,也难以防备视频攻击。
部分人脸活体检测也利用红外成像,检测虹膜、嘴唇等特征信息,还有捕捉微表情等方法,但此类方法对硬件要求较高,算法亦相对复杂。
另有一些活体检测技术有3D成像(多目成像、结构光等)、热红外和多光谱等。基于热红外的活体检测方法通过热红外成像分析脸部温度分布,用于采集热红外图像的热红外仪器成本贵且易受温度影响,硬件成本高,需要多帧图像综合判断,算法耗时长;而3D方法对设备精度要求高,应用限制多,实现的效果并不理想。
发明内容
本发明提供了一种活体检测方法,以减少活体检测过程的耗时。
本发明一方面提供一种活体检测方法,该方法包括,
将获取的待检测目标近红外光图像进行归一化处理,得到归一化后的第一图像;
基于第一图像,统计灰度直方图,求取灰度直方图的方差,得到区分特征;
将区分特征输入至训练后的识别模型;
根据所述识别模型的输出结果,进行检测结果的判定。
其中,所述训练后的识别模型通过如下步骤训练得到:
将近红外光活体图像进行归一化处理,得到第二图像;将近红外光非活体图像进行归一化处理,得到第三图像;
基于第二图像,统计灰度直方图,求取灰度直方图的方差,得到基于第二图像的区分特征;基于第三图像,统计灰度直方图,求取灰度直方图的方差,得到基于第三图像的区分特征;
将基于第二图像的区分特征作为正样本数据,基于第三图像的区分特征作为负样本数据,输入至待训练的识别模型进行训练,直至该识别模型的输出结果达到第一阈值,将该识别模型的当前模型参数作为训练后的模型参数,得到训练后的识别模型;
所述根据所述识别模型的输出结果,进行检测结果的判定包括,判断识别模型的输出是否大于所述第一阈值,如果是,则判定待检测目标为活体,否则,判定待检测目标为非活体。
其中,所述归一化处理包括,将获取的近红外光图像缩放为图像宽度为第一像素、图像长度为第二像素的图像。
较佳地,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
将所述归一化后的图像按照n×n像素子块的平均值变换为第一图像块,其中,n为第一像素、第二像素的公约数;
统计第一图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第一区分特征。
较佳地,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
对所述归一化后的图像进行图像增强处理,将增强后的图像按照m×m像素子块的像素标准差变换为第二图像块,其中,m为所述第一像素、第二像素的公约数;
统计第二图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第二区分特征。
较佳地,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
将第二图像块进行归一化,得到第三图像块;
统计第三图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第三区分特征。
其中,所述将第二图像块进行归一化包括,将第二图像块中的元素值映射到0~256以内。
较佳地,所述将区分特征输入至训练后的识别模型包括,将至少两个区分特征输入至预先训练后的识别模型。
较佳地,所述将获取的近红外光图像缩放为图像宽度为第一像素、图像长度为第二像素的图像包括,按照双线性插值方法进行图像的缩放。
较佳地,所述将基于第二图像的区分特征作为正样本数据包括,将至少两个基于第二图像的区分特征作为所述正样本数据;
所述基于第三图像的区分特征作为负样本数据包括,将至少两个基于第三图像的区分特征作为所述负样本数据。
较佳地,所述待检测目标近红外光图像为将待检测目标经过检测计算后裁剪出的包含待检测目标部分的图像。
其中,所述识别模型为人工神经网络模型,所述近红外光波长图像为780nm~1100nm的近红外波段成像。
本申请一方面提供一种活体检测装置,该装置包括存储器和处理器,其中,
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现上述任一所述的活体检测方法。
本申请一方面提供一种存储介质,存储有实现上述任一所述的活体检测方法的计算机程序。
本申请另一方面提供一种活体检测识别模型的训练方法,该方法包括,
将近红外光活体图像进行归一化处理,得到第二图像;将近红外光非活体图像进行归一化处理,得到第三图像;
基于第二图像,统计灰度直方图,求取灰度直方图的方差,得到基于第二图像的区分特征;基于第三图像,统计灰度直方图,求取灰度直方图的方差,得到基于第三图像的区分特征;
将基于第二图像的区分特征作为正样本数据,基于第三图像的区分特征作为负样本数据,输入至待训练的识别模型进行训练,得到训练后的识别模型。
本申请另一方面一种活体检测识别模型的训练装置,其特征在于,该装置包括存储器和处理器,其中,
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现上述的活体检测识别模型的训练方法。
本申请另一方面提供一种存储介质,存储有实现上述的活体检测识别模型训练方法的计算机程序,和/或存储有按照所述的活体检测识别模型训练方法所得到的训练后的识别模型。
本发明基于近红外光波段成像的图像,通过分析近红外波段的活体图像和非活体图像的特征,通过训练后的识别模型,有效地识别出待测目标是否为活体,本方法能够有效抵御照片和视频显示(包括手机)等假体的攻击,提高识别设备的安全性。并且,无需待检测目标按特定指令进行配合,整个验证过程耗时少,体验好。特别是在人脸识别过程中,无需用户的参与和配合,检测和识别响应快速。
附图说明
图1为本申请实施例活体检测方法的一种流程示意图。
图2为归一化后的第一图像以及分块的一种示意图。
图3为本申请实施例获得近红外光活体图像的区分特征的一种流程示意图。
图4分别示出了基于活体人脸的第一图像块灰度直方图和基于非活体人脸的第一图像块灰度直方图。
图5分别示出了基于活体人脸的第二图像块灰度直方图和基于非活体人脸的第二图像块灰度直方图。
图6分别示出了基于活体人脸的第三图像块灰度直方图和基于非活体人脸的第三图像块灰度直方图。
图7为本申请实施例获得近红外光非活体图像的区分特征的一种流程示意图。
图8为将求得的三个区分特征作为样本数据作为输入所搭建的一种人工神经网络模型的网络结构示意图。
图9为人工神经网络模型的网络结构的一种示意图。
图10为本申请实施例的一种训练过程流程示意图。
具体实施方式
为了使本申请的目的、技术手段和优点更加清楚明白,以下结合附图对本申请做进一步详细说明。
以往的人脸识别设备将可见光图像作为比对的依据;红外光(IR)波长为780nm到1mm之间,光谱上在红色光的外侧。依据波长又可进一步细分出近红外、中远红外等波段。本发明选用波长为780nm-1100nm的近红外波段成像。
实际测试发现,将近红外人脸图像作为比对依据安全性更高;基于活体拍摄的成像,将其打印成纸质照片,该照片在近红外波段下所成的图像往往比基于活体直接采集的近红外图像包含的信息更少。这样,采用待检测活体的近红外图像、以近红外图像作为识别设备中的底图来作为认证的依据,设定合理的相似度阈值,可使得使用照片和/或视频图像被准确检测出来而不易通过验证。
实际测试还发现,活体的表面皮肤对近红外光的反射具有显著且稳定的统计特性,所形成的单色分量灰度图中灰度值分布具有均匀性和连续性等特点,灰度值不存在剧烈的变化。而照片等非活体的灰度图恰恰相反。基于此,通过活体近红外光的图像灰度的直方图信息来提取特征值,可以提高区分真假活体检测的准确性。
以下以人脸活体检测为实施例来说明。所应理解的是,活体的检测不仅仅限于人脸局部,其他活体包括且不限于暴露部分或全部表面皮肤的肢体、身体等对近红外光所形成的单色分量灰度图具有均匀性和连续性的待检测目标。
参见图1所示,图1为本申请实施例活体检测方法的一种流程示意图。
步骤101,将获取的待检测目标的近红外光活体图像进行归一化处理得到归一化后的第一图像;具体归一化处理为:按照固定尺寸进行缩放,得到w0×h0缩放后的图像即为第一图像,参见图2所示,图2为归一化后的第一图像以及分块的一种示意图。其中,w0为图像宽度,h0为图像长度,单位为像素;图像缩放方法可以采用双线性插值,以兼顾图像的精度和图像处理的速度。
步骤102,将第一图像按照n×n像素子块的平均值变换为大小为(w0/n)×(h0/n)的第一图像块,如图2所示的block,
具体为,将第一图像按照等长度、等宽度的子块来进行分块,每一个子块的尺寸为n×n,如图2中右图黑色区域所示,n为w0和h0的公约数;求出n×n每个像素子块的平均值,得到大小为(w0/n)×(h0/n)的第一图像块,其中,第一图像块中每个元素(像素)的值即为每个子块所有像素的均值,数值大小范围为[0,255]。
步骤103,统计第一图像块的灰度直方图,求取灰度直方图的方差,将求取的方差作为第一区分特征。
上述步骤102~103以完成第一区分特征的提取。
步骤104,对归一化的第一图像进行图像增强处理,得到增强处理后的图像;所采用的增强处理可以有直方图均衡、Gamma变换、Gabor滤波等等;
步骤105,将增强后的图像按照m×m像素子块的像素标准差变换为大小为(w0/m)×(h0/m)的第二图像块,
在该步骤中,与步骤102类似,将第一图像按照等长度、等宽度的子块来进行分块,每一个子块的尺寸为m×m,如下图中区域所示,m为w0和h0的公约数;与步骤102所不同的是,求出m×m每个像素子块内的标准差。
较佳地,为提高图像处理的速度,m与n可以相等。
步骤106,统计第二图像块的灰度直方图,由于活体人脸在红外波段所成的图像相对非活体(例如照片)而言,脸部细节和层次更加丰富,因此灰度分布会更加均衡。求取第二图像块的灰度直方图的方差,将求取的方差作为第二个区分特征。
步骤107,对第二图像块中的元素值进行归一化处理,将数值映射到[0,255]之间,得到第三图像块。
步骤108,统计第三图像块的灰度直方图,求取灰度直方图的方差,将求取的方差作为第三区分特征。
步骤109,将求取的第一区分特征、第二区分特征、第三区分特征择一或其组合输入至预先训练后的人工神经网络模型;
步骤110,将人工神经网络模型的输出与第一阈值比较,当输出值大于第一阈值时,判定该待检测目标为活体,否则判定为非活体。其中,所述第一阈值为训练人工神经网络模型时所确定的。
上述人工神经网络模型也可以是其他通过训练具有识别功能模型。例如,深度学习模型等。
参见图3所示,图3为本申请实施例获得近红外光活体图像的区分特征的一种流程示意图。
步骤201,将获取的近红外光活体图像进行归一化处理得到归一化后的第二图像:具体归一化处理为:按照固定尺寸进行缩放,得到w0×h0缩放后的图像即为第一图像。其中,w0为图像宽度,h0为图像长度,单位为像素;图像缩放方法可以采用双线性插值,以兼顾图像的精度和图像处理的速度。
步骤202,将第二图像按照n×n像素子块的平均值变换为大小为(w0/n)×(h0/n)的第一图像块,
具体为,将第二图像按照等长度、等宽度的子块来进行分块,每一个子块的尺寸为n×n,如下图中区域所示,n为w0和h0的公约数;求出n×n每个像素子块的平均值,得到大小为(w0/n)×(h0/n)的第一图像块,其中,第一图像块中每个元素(像素)的值即为每个子块所有像素的均值,数值大小范围为[0,255]。
步骤203,统计第一图像块的灰度直方图,求取灰度直方图的方差,将求取的方差作为第一区分特征;其中,第一图像块的灰度直方图可参见图4为例。图4分别示出了基于活体人脸的第一图像块灰度直方图(左图)和基于非活体人脸的第一图像块灰度直方图(右图),从图中可见,前者具有均匀性、连续性,后者不均匀、不连续,存在剧烈的变化。
上述步骤202~203以完成第一区分特征的提取。
步骤204,对归一化的第二图像进行图像增强处理,得到增强处理后的图像;所采用的增强处理可以有直方图均衡、Gamma变换、Gabor滤波等等;
步骤205,将增强后的图像按照m×m像素子块的像素标准差变换为大小为(w0/n)×(h0/n)的第二图像块,
在该步骤中,与步骤202类似,将增强后的图像按照等长度、等宽度的子块来进行分块,每一个子块的尺寸为m×m,如下图中区域所示,m为w0和h0的公约数;与步骤202所不同的是,求出m×m每个像素子块内的标准差。
较佳地,为提高图像处理的速度,m与n可以相等。
步骤206,统计第二图像块的灰度直方图,由于活体人脸在红外波段所成的图像相对非活体(例如照片)而言,脸部细节和层次更加丰富,因此灰度分布会更加均衡。求取第二图像块的灰度直方图的方差,将求取的方差作为第二个区分特征。其中,第二图像块的灰度直方图可参见图5为例。图5分别示出了基于活体人脸的第二图像块灰度直方图(左图)和基于非活体人脸的第二图像块灰度直方图(右图),从图中可见,前者相对于后者灰度分布更加均衡。
步骤207,对第二图像块中的元素值进行归一化处理,将数值映射到[0,255]之间,得到第三图像块。
步骤208,统计第三图像块的灰度直方图,求取灰度直方图的方差,将求取的方差作为第三区分特征;其中,第三图像块的灰度直方图可参见图6为例。图6分别示出了基于活体人脸的第三图像块灰度直方图(左图)和基于非活体人脸的第三图像块灰度直方图(右图)。
参见图7所示,图7为本申请实施例获得近红外光非活体图像的区分特征的一种流程示意图。类似地,
步骤301,将获取的近红外光非活体图像例如照片、视频进行归一化处理得到归一化后的第三图像,即,按照固定尺寸进行缩放,得到w0×h0缩放后的图像即为第三图像;
然后按照步骤302~步骤308,可以获得基于第三图像的第一区分特征、第二区分特征、第三区分特征。
上述基于第二图像和第三图像分别获取的第一区分特征、第二区分特征、第三区分特征层层推进,能够很好的区分活体人脸和非活体人脸。在实际的应用中,可结合实际情况选取至少两个区分特征任意组合。
将基于第二图像的至少两个区分特征作为人工神经网络模型的训练正样本,即,将w0×h0第三图像的第一区分特征、和/或第二区分特征、和/或第三区分特征作为人工神经网络模型的训练数据;将基于第三图像的至少两个区分特征作为训练负样本。
将正负样本数据输入人工神经网络模型进行参数训练,例如,参见图8所示,图8为将求得的三个区分特征作为样本数据作为输入所搭建的一种人工神经网络模型的网络结构示意图。
参见图10所示,图10为本申请实施例的一种识别模型的训练过程流程示意图。训练过程中,
步骤1001,将正负样本数据作为人工神经网络模型的训练数据,输入至所述人工神经网络模型,得到人工神经网络模型的输出结果,
步骤1002,判断输出结果是否达到第一阈值,如果是,则执行步骤1003,将人工神经网络模型的当前模型参数固化,并将该人工神经网络作为训练后的模型,以便于待检测目标进行检测时使用,否则,执行步骤1004;
步骤1004,根据输出结果调整所述人工神经网络模型的当前模型参数,使得下一次的训练结果逼近所设定的第一阈值;然后返回步骤1001,直至当人工神经网络模型的输出结果到达第一阈值。
人工神经网络模型中的网络节点可以根据区分特征值的种类数灵活增减。参见图9所示,图9为人工神经网络模型的网络结构的一种示意图。例如,若新增了第四区分特征,则在输入层增加一个神经元,在中间层亦可相应的增加神经元数。
本发明通过分析近红外波段下活体人脸图像和非活体照片中人脸图像的直方图统计特征,提取出合理的可量化参数和衡量策略,通过人工神经网络模型合理判断阈值,能够正确区分活体人脸、照片以及视频(LCD/OLED显示器、手机)中的人脸图像,算法简洁且耗时极少。
本申请实施例中,可以只需硬件提供近红外光的人脸图像,不涉及人脸的在线实时检测,例如,经过在线人脸检测方法计算后裁剪出的仅包含人脸部分的图像即可,硬件设备成本低,算法耗时大约在几十毫秒。
本申请提供的一种活体检测装置,该装置包括存储器和处理器,其中,
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现所述活体检测方法。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供了一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
将获取的待检测目标近红外光图像进行归一化处理,得到归一化后的第一图像;
基于第一图像,统计灰度直方图,求取灰度直方图的方差,得到区分特征;
将区分特征输入至训练后的识别模型;
根据所述识别模型的输出结果,进行检测结果的判定。
对于装置/网络侧设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (26)
1.一种活体检测方法,其特征在于,该方法包括,
将获取的待检测目标近红外光图像进行归一化处理,得到归一化后的第一图像;
基于第一图像,统计灰度直方图,求取灰度直方图的方差,得到区分特征;
将区分特征输入至训练后的识别模型;
根据所述识别模型的输出结果,进行检测结果的判定。
2.如权利要求1所述的方法,其特征在于,所述训练后的识别模型通过如下步骤训练得到:
将近红外光活体图像进行归一化处理,得到第二图像;将近红外光非活体图像进行归一化处理,得到第三图像;
基于第二图像,统计灰度直方图,求取灰度直方图的方差,得到基于第二图像的区分特征;基于第三图像,统计灰度直方图,求取灰度直方图的方差,得到基于第三图像的区分特征;
将基于第二图像的区分特征作为正样本数据,基于第三图像的区分特征作为负样本数据,输入至待训练的识别模型进行训练,直至该识别模型的输出结果达到第一阈值,将该识别模型的当前模型参数作为训练后的模型参数,得到训练后的识别模型;
所述根据所述识别模型的输出结果,进行检测结果的判定包括,判断识别模型的输出是否大于所述第一阈值,如果是,则判定待检测目标为活体,否则,判定待检测目标为非活体。
3.如权利要求1或2所述的方法,其特征在于,所述归一化处理包括,将获取的近红外光图像缩放为图像宽度为第一像素、图像长度为第二像素的图像。
4.如权利要求3所述的方法,其特征在于,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
将所述归一化后的图像按照n×n像素子块的平均值变换为第一图像块,其中,n为第一像素、第二像素的公约数;
统计第一图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第一区分特征。
5.如权利要求3所述的方法,其特征在于,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
对所述归一化后的图像进行图像增强处理,将增强后的图像按照m×m像素子块的像素标准差变换为第二图像块,其中,m为所述第一像素、第二像素的公约数;
统计第二图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第二区分特征。
6.如权利要求5所述的方法,其特征在于,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
将第二图像块进行归一化,得到第三图像块;
统计第三图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第三区分特征。
7.如权利要求6所述的方法,其特征在于,所述将第二图像块进行归一化包括,将第二图像块中的元素值映射到0~256以内。
8.如权利要求6所述的方法,其特征在于,所述将区分特征输入至训练后的识别模型包括,将至少两个区分特征输入至预先训练后的识别模型。
9.如权利要求3所述的方法,其特征在于,所述将获取的近红外光图像缩放为图像宽度为第一像素、图像长度为第二像素的图像包括,按照双线性插值方法进行图像的缩放。
10.如权利要求6所述的方法,其特征在于,所述将基于第二图像的区分特征作为正样本数据包括,将至少两个基于第二图像的区分特征作为所述正样本数据;
所述基于第三图像的区分特征作为负样本数据包括,将至少两个基于第三图像的区分特征作为所述负样本数据。
11.如权利要求1所述的方法,其特征在于,所述待检测目标近红外光图像为将待检测目标经过检测计算后裁剪出的包含待检测目标部分的图像。
12.如权利要求1所述的方法,其特征在于,所述识别模型为人工神经网络模型,所述近红外光波长图像为780nm~1100nm的近红外波段成像。
13.一种活体检测装置,其特征在于,该装置包括存储器和处理器,其中,
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现权利要求1-12任一所述的活体检测方法。
14.一种存储介质,其特征在于,存储有实现权利要求1-12任一所述的活体检测方法的计算机程序。
15.一种活体检测识别模型的训练方法,其特征在于,该方法包括,
将近红外光活体图像进行归一化处理,得到第二图像;将近红外光非活体图像进行归一化处理,得到第三图像;
基于第二图像,统计灰度直方图,求取灰度直方图的方差,得到基于第二图像的区分特征;基于第三图像,统计灰度直方图,求取灰度直方图的方差,得到基于第三图像的区分特征;
将基于第二图像的区分特征作为正样本数据,基于第三图像的区分特征作为负样本数据,输入至待训练的识别模型进行训练,得到训练后的识别模型。
16.如权利要求15所述的方法,其特征在于,所述输入至待训练的识别模型进行训练,得到训练后的识别模型包括,
将正负样本数据输入待训练的识别模型,判断识别模型的输出结果是否到达第一阈值,如果是,则将当前识别模型作为训练后的识别模型,否则,根据输出结果调整当前识别模型的模型参数,将正负样本数据输入调整后的识别模型,直至该识别模型的输出结果达到所述第一阈值,将该识别模型的当前模型参数作为训练后的模型参数。
17.如权利要求15或16所述的方法,其特征在于,所述归一化处理包括,将获取的近红外光图像缩放为图像宽度为第一像素、图像长度为第二像素的图像。
18.如权利要求17所述的方法,其特征在于,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
将所述归一化后的图像按照n×n像素子块的平均值变换为第一图像块,其中,n为第一像素、第二像素的公约数;
统计第一图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第一区分特征。
19.如权利要求17所述的方法,其特征在于,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
对所述归一化后的图像进行图像增强处理,将增强后的图像按照m×m像素子块的像素标准差变换为第二图像块,其中,m为所述第一像素、第二像素的公约数;
统计第二图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第二区分特征。
20.如权利要求19所述的方法,其特征在于,所述统计灰度直方图,求取灰度直方图的方差,得到区分特征包括,
将第二图像块进行归一化,得到第三图像块;
统计第三图像块的灰度直方图,求取该灰度直方图的方差,将该方差作为第三区分特征。
21.如权利要求20所述的方法,其特征在于,所述将第二图像块进行归一化包括,将第二图像块中的元素值映射到0~256以内。
22.如权利要求17所述的方法,其特征在于,所述将获取的近红外光图像缩放为图像宽度为第一像素、图像长度为第二像素的图像包括,按照双线性插值方法进行图像的缩放。
23.如权利要求20所述的方法,其特征在于,所述将基于第二图像的区分特征作为正样本数据包括,将至少两个基于第二图像的区分特征作为所述正样本数据;
所述基于第三图像的区分特征作为负样本数据包括,将至少两个基于第三图像的区分特征作为所述负样本数据。
24.如权利要求17所述的方法,其特征在于,所述识别模型为人工神经网络模型,所述近红外光波长图像为780nm~1100nm的近红外波段成像。
25.一种活体检测识别模型的训练装置,其特征在于,该装置包括存储器和处理器,其中,
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现权利要求15-24任一所述的活体检测识别模型的训练方法。
26.一种存储介质,其特征在于,存储有实现权利要求15-24任一所述的活体检测识别模型训练方法的计算机程序,和/或存储有按照权利要求15-24任一所述的活体检测识别模型训练方法所得到的训练后的识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811424932.3A CN111222380B (zh) | 2018-11-27 | 2018-11-27 | 一种活体检测方法、装置、及其识别模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811424932.3A CN111222380B (zh) | 2018-11-27 | 2018-11-27 | 一种活体检测方法、装置、及其识别模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111222380A true CN111222380A (zh) | 2020-06-02 |
CN111222380B CN111222380B (zh) | 2023-11-03 |
Family
ID=70827939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811424932.3A Active CN111222380B (zh) | 2018-11-27 | 2018-11-27 | 一种活体检测方法、装置、及其识别模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111222380B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814659A (zh) * | 2020-07-07 | 2020-10-23 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
CN112329720A (zh) * | 2020-11-26 | 2021-02-05 | 杭州海康威视数字技术股份有限公司 | 人脸活体检测方法、装置及设备 |
CN112613471A (zh) * | 2020-12-31 | 2021-04-06 | 中移(杭州)信息技术有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
CN112926515A (zh) * | 2021-03-26 | 2021-06-08 | 支付宝(杭州)信息技术有限公司 | 活体模型训练方法和装置 |
CN113139517A (zh) * | 2021-05-14 | 2021-07-20 | 广州广电卓识智能科技有限公司 | 人脸活体模型训练方法、检测方法、存储介质和检测系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020028997A1 (en) * | 1998-12-07 | 2002-03-07 | Yoshitoshi Ito | Device for controlling equipment by using signals from a living body |
WO2008151470A1 (fr) * | 2007-06-15 | 2008-12-18 | Tsinghua University | Procédé de détection robuste de visage humain dans une image d'arrière-plan compliquée |
TW201033907A (en) * | 2009-03-12 | 2010-09-16 | Tlj Intertech Inc | A living body identification system and method, and identity verification device and method |
KR20130084437A (ko) * | 2012-01-17 | 2013-07-25 | 성균관대학교산학협력단 | 실시간 얼굴 인식 장치 |
US20130342702A1 (en) * | 2012-06-26 | 2013-12-26 | Qualcomm Incorporated | Systems and method for facial verification |
CN103984924A (zh) * | 2014-05-08 | 2014-08-13 | 山东大学 | 一种反射式手指静脉识别活体检测装置及方法 |
CN104766063A (zh) * | 2015-04-08 | 2015-07-08 | 宁波大学 | 一种活体人脸识别方法 |
CN105893920A (zh) * | 2015-01-26 | 2016-08-24 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法和装置 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107798279A (zh) * | 2016-09-07 | 2018-03-13 | 北京眼神科技有限公司 | 一种人脸活体检测方法及装置 |
CN107862299A (zh) * | 2017-11-28 | 2018-03-30 | 电子科技大学 | 一种基于近红外与可见光双目摄像头的活体人脸检测方法 |
CN108009531A (zh) * | 2017-12-28 | 2018-05-08 | 北京工业大学 | 一种多策略防欺诈的人脸识别方法 |
CN108875461A (zh) * | 2017-05-16 | 2018-11-23 | 深圳市祈飞科技有限公司 | 一种人脸活体检测方法以及装置 |
-
2018
- 2018-11-27 CN CN201811424932.3A patent/CN111222380B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020028997A1 (en) * | 1998-12-07 | 2002-03-07 | Yoshitoshi Ito | Device for controlling equipment by using signals from a living body |
WO2008151470A1 (fr) * | 2007-06-15 | 2008-12-18 | Tsinghua University | Procédé de détection robuste de visage humain dans une image d'arrière-plan compliquée |
TW201033907A (en) * | 2009-03-12 | 2010-09-16 | Tlj Intertech Inc | A living body identification system and method, and identity verification device and method |
KR20130084437A (ko) * | 2012-01-17 | 2013-07-25 | 성균관대학교산학협력단 | 실시간 얼굴 인식 장치 |
US20130342702A1 (en) * | 2012-06-26 | 2013-12-26 | Qualcomm Incorporated | Systems and method for facial verification |
CN103984924A (zh) * | 2014-05-08 | 2014-08-13 | 山东大学 | 一种反射式手指静脉识别活体检测装置及方法 |
CN105893920A (zh) * | 2015-01-26 | 2016-08-24 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法和装置 |
CN104766063A (zh) * | 2015-04-08 | 2015-07-08 | 宁波大学 | 一种活体人脸识别方法 |
CN107798279A (zh) * | 2016-09-07 | 2018-03-13 | 北京眼神科技有限公司 | 一种人脸活体检测方法及装置 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN108875461A (zh) * | 2017-05-16 | 2018-11-23 | 深圳市祈飞科技有限公司 | 一种人脸活体检测方法以及装置 |
CN107862299A (zh) * | 2017-11-28 | 2018-03-30 | 电子科技大学 | 一种基于近红外与可见光双目摄像头的活体人脸检测方法 |
CN108009531A (zh) * | 2017-12-28 | 2018-05-08 | 北京工业大学 | 一种多策略防欺诈的人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
陈梓嘉: "《基于Android的人脸识别算法的研究》", no. 2 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814659A (zh) * | 2020-07-07 | 2020-10-23 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
CN111814659B (zh) * | 2020-07-07 | 2024-03-29 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
CN112329720A (zh) * | 2020-11-26 | 2021-02-05 | 杭州海康威视数字技术股份有限公司 | 人脸活体检测方法、装置及设备 |
WO2022111512A1 (zh) * | 2020-11-26 | 2022-06-02 | 杭州海康威视数字技术股份有限公司 | 人脸活体检测方法、装置及设备 |
CN112613471A (zh) * | 2020-12-31 | 2021-04-06 | 中移(杭州)信息技术有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
CN112613471B (zh) * | 2020-12-31 | 2023-08-01 | 中移(杭州)信息技术有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
CN112926515A (zh) * | 2021-03-26 | 2021-06-08 | 支付宝(杭州)信息技术有限公司 | 活体模型训练方法和装置 |
CN113139517A (zh) * | 2021-05-14 | 2021-07-20 | 广州广电卓识智能科技有限公司 | 人脸活体模型训练方法、检测方法、存储介质和检测系统 |
CN113139517B (zh) * | 2021-05-14 | 2023-10-27 | 广州广电卓识智能科技有限公司 | 人脸活体模型训练方法、检测方法、存储介质和检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111222380B (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN111222380B (zh) | 一种活体检测方法、装置、及其识别模型训练方法 | |
Hildebrandt et al. | Benchmarking face morphing forgery detection: Application of stirtrace for impact simulation of different processing steps | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN103116763A (zh) | 一种基于hsv 颜色空间统计特征的活体人脸检测方法 | |
CN110838119B (zh) | 人脸图像质量评估方法、计算机装置及计算机可读存储介质 | |
CN111178130A (zh) | 一种基于深度学习的人脸识别方法、系统和可读存储介质 | |
Szankin et al. | Influence of thermal imagery resolution on accuracy of deep learning based face recognition | |
Ge et al. | Robust face recognition based on multi-task convolutional neural network | |
Lohith et al. | Multimodal biometrics for person identification using ear and palm print features | |
Panetta et al. | LQM: Localized quality measure for fingerprint image enhancement | |
Benlamoudi | Multi-modal and anti-spoofing person identification | |
Khaliluzzaman et al. | Hand geometry based person verification system | |
CN112861588A (zh) | 一种活体检测的方法、装置 | |
Singh et al. | Face liveness detection through face structure analysis | |
Kolivand et al. | Improved methods for finger vein identification using composite Median-Wiener filter and hierarchical centroid features extraction | |
CN112183357B (zh) | 一种基于深度学习的多尺度活体检测方法及系统 | |
Méndez-Llanes et al. | On the use of local fixations and quality measures for deep face recognition | |
Guan et al. | A new metric for latent fingerprint image preprocessing | |
Sihombing et al. | The Student Attendance Controlling Based on Face Recognition by using Learning Vectorization Quantization (LVQ) Algorithm | |
Dixit et al. | SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People) | |
Rajan et al. | Fusion of iris & fingerprint biometrics for gender classification using neural network | |
CN112861587B (zh) | 一种活体检测的方法、装置 | |
Majidpour et al. | Unreadable offline handwriting signature verification based on generative adversarial network using lightweight deep learning architectures | |
Abu-Zanona | Identifying Humans Based on Biometric Iris Recognition using an Interactive Transfer Learning Framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |