CN110659617A - 活体检测方法、装置、计算机设备和存储介质 - Google Patents
活体检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110659617A CN110659617A CN201910918231.3A CN201910918231A CN110659617A CN 110659617 A CN110659617 A CN 110659617A CN 201910918231 A CN201910918231 A CN 201910918231A CN 110659617 A CN110659617 A CN 110659617A
- Authority
- CN
- China
- Prior art keywords
- depth
- image
- infrared
- face
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种活体检测方法、装置、计算机设备和存储介质。方法包括:获取包含人脸对象的深度图像;统计深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当像素个数达到预设阈值时,记录此时的深度距离值;根据深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含人脸对象的红外图像;获取红外人脸图像及其对应的深度人脸图像;对红外人脸图像和深度人脸图像分别进行归一化处理;将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断人脸对象为活体。采用本方法避免了环境中可见光对检测结果的干扰,扩充了使用场景。
Description
技术领域
本申请涉及人脸识别技术领域,特别是涉及一种活体检测方法、装置、计算机设备和存储介质。
背景技术
随着人脸识别技术在支付系统以及身份验证系统中的普及,使用照片、视频、头套、头模等二维或者三维假体对人脸识别系统进行攻击,已经成为人脸识别系统面临的重要安全问题。因此,区分检测对象是不是真人活体,即活体检测技术已经成为人脸识别系统的重要组成部分。
目前的活体检测技术中,也提出了采用多摄像头(深度、红外、彩色)结合来实现活体检测。采用多摄像头结合的技术,由于加入了大量的信息,所以一定程度上提升了活体检测的准确率。但是,一方面由于彩色图像具有易受环境光干扰的特性,即彩色图像很容易受到光照的影响,在一些场景下人脸成像差,从而容易出现活体被判断为非活体的情况,所以导致其引入了活体算法的适应性问题。另一方面,由于一般深度相机的测量范围有限,也一定程度上限制了其使用场景。
基于此,现有的活体检测技术使用场景有限,存在环境适应性较差的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种活体检测方法、装置、计算机设备和存储介质,能够有效的防范图片、视频、头套、头模等二维三维假体攻击,同时提升活体算法的适应能力。
一种活体检测方法,包括以下步骤:
获取包含人脸对象的深度图像;
统计所述深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当所述像素个数达到预设阈值时,记录此时的深度距离值;
根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像;
从所述红外图像中获取红外人脸图像,并从所述深度图像中获取与所述红外人脸图像对应的深度人脸图像;
对所述红外人脸图像和深度人脸图像分别进行归一化处理;
将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断所述人脸对象为活体。
作为一种可实施方式,所述预设阈值为:图像总像素个数的20%至30%。
作为一种可实施方式,根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像,包括以下步骤:
当所述深度距离值为80cm时,调整红外激光光源的发射次数为600次,获取此时曝光的包含所述人脸对象的红外图像。
作为一种可实施方式,从所述红外图像中获取红外人脸图像,并获取与所述红外人脸图像对应的深度人脸图像,包括以下步骤:
通过检测所述红外图像中所述人脸对象所在的位置,获取所述红外人脸图像;
根据所述深度图像与所述红外图像之间像素的一一对应关系,从所述深度图像中获取与所述红外人脸图像对应的所述深度人脸图像。
具体地,对所述红外人脸图像进行归一化处理,包括以下步骤:
统计所述红外图像中亮度的最大值和最小值;
根据以下公式对所述红外人脸图像进行归一化处理:
Face_IR_New(x,y)=(Face_IR(x,y)-Min)/(Max-Min)*255;
其中,Face_IR_New(x,y)为归一化后的红外像素值,Face_IR(x,y)为归一化前的红外像素值,Min为所述红外图像中的亮度的最小值,Max为所述红外图像中的亮度的最大值。
具体地,对所述深度人脸图像进行归一化处理,包括以下步骤:
统计所述深度人脸图像中心1/4区域大小内的非零像素的平均值,记为人脸深度均值;
以所述人脸深度均值为基准,前后100mm距离为极值,根据以下公式对所述深度人脸图像进行归一化处理:
face_new(x,y)=(face_old(x,y)-ave-100)/(200);
其中,face_new(x,y)为归一化后得到的灰度图像中的人脸区域像素值;(face_old(x,y)为归一化前的所述深度人脸图像中的人脸区域像素值;ave为人脸深度均值,其单位为mm。
一种活体检测装置,包括深度图像获取模块、记录模块、红外图像获取模块、人脸图像获取模块、归一化处理模块、以及二分类检测模块;
所述深度图像获取模块,用于获取包含人脸对象的深度图像;
所述记录模块,用于统计所述深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当所述像素个数达到预设阈值时,记录此时的深度距离值;
所述红外图像获取模块,用于根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像;
所述人脸图像获取模块,用于从所述红外图像中获取红外人脸图像,并从所述深度图像中获取与所述红外人脸图像对应的深度人脸图像;
所述归一化处理模块,用于对所述红外人脸图像和深度人脸图像分别进行归一化处理;
所述二分类检测模块,用于将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断所述人脸对象为活体。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取包含人脸对象的深度图像;
统计所述深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当所述像素个数达到预设阈值时,记录此时的深度距离值;
根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像;
从所述红外图像中获取红外人脸图像,并从所述深度图像中获取与所述红外人脸图像对应的深度人脸图像;
对所述红外人脸图像和深度人脸图像分别进行归一化处理;
将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断所述人脸对象为活体。
一种活体检测装置,包括深度摄像头、红外激光光源、以及上述计算机设备;
所述深度摄像头和红外激光光源分别连接所述计算机设备的处理器;
所述深度摄像头用于在所述处理器的控制下,输出红外图像的同时,根据光飞行时间计算目标物体距离摄像头的距离,并输出深度图像;
所述红外激光光源,用于在所述处理器的控制下发射不同脉冲宽度、不同脉冲次数的红外激光,以控制深度成像的距离范围和红外图像的亮度。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤。
获取包含人脸对象的深度图像;
统计所述深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当所述像素个数达到预设阈值时,记录此时的深度距离值;
根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像;
从所述红外图像中获取红外人脸图像,并从所述深度图像中获取与所述红外人脸图像对应的深度人脸图像;
对所述红外人脸图像和深度人脸图像分别进行归一化处理;
将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断所述人脸对象为活体。
上述活体检测方法、装置、计算机设备和存储介质,基于深度图像和红外图像,利用深度学习进行活体判别,不需要用户的主动配合,即可实现无感静默式活体检测。其摒弃了彩色图像,从而避免了环境中可见光对检测结果的干扰,大大提升了坏境适应能力。通过利用深度信息联动红外激光光源,能够根据人脸对象的位置动态调整深度测距范围和红外图像亮度,增加了对目标深度的检测范围,以向后面的活体判别提供最优质量的输入图像,达到活体检测的最优效果,扩充了使用场景的同时,也提升了活体检测的准确率。
附图说明
图1为一个实施例中活体检测方法的应用环境图;
图2为一个实施例中活体检测方法的流程示意图;
图3为一个实施例中活体检测装置的结构框图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的活体检测方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。用户可以通过终端102采集或者输入包含人脸对象的深度图像和红外图像,然后通过网络传输至服务器104中进行人脸活体检测。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器104可以根据终端102采集或输入的包含人脸对象的深度图像和红外图像进行活体检测,输出活体检测结果。服务器104用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种活体检测方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
S100、获取包含人脸对象的深度图像。
本申请利用一个深度摄像头,可以在输出红外图像的同时,根据光飞行时间计算目标物体距离摄像头的距离,并输出深度图像。
深度摄像头作为终端设备采集或者获取用户输入的包含人脸对象的深度图像后,通过有线或无线网络传输至处理器。
S200、统计深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当像素个数达到预设阈值时,记录此时的深度距离值。
记录深度距离值的目的是为了调整红外激光光源的发射次数,以获取较高质量的红外图像。
S300、根据深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含人脸对象的红外图像。
根据深度距离值的远近,调整红外激光光源(即红外激光发射装置)的发射次数;具体地,深度距离值小,则减少红外激光光源发射次数;深度距离值大,则增加红外激光光源发射次数,以此来调整红外图像的亮度以及深度图像的精准度。
本申请利用深度图像特有的距离信息优势,联动红外激光光源,实时调整深度测距范围和红外图像亮度,增加了对目标深度的检测范围,同时能够保证向后面的活体判别提供最优的输入图像。
因此,根据深度距离值的远近,调整红外激光光源的发射次数,能够有效的提升深度摄像头的距离适用范围,使其在量程范围内保持最佳的图像质量,同时保持最低的功耗。
本申请利用一个或多个红外激光光源,发射不同脉冲宽度、不同脉冲次数的红外激光,以控制深度成像的距离范围和红外图像的亮度。
S400、从红外图像中获取红外人脸图像,并从深度图像中获取与红外人脸图像对应的深度人脸图像。
处理器采用现有的人脸检测算法即可从红外图像中获取人脸所在区域的红外人脸图像中,从深度图像中获取与红外人脸图像对应的深度人脸图像。
S500、对红外人脸图像和深度人脸图像分别进行归一化处理。
对获取到的红外人脸图像和深度人脸图像分别进行归一化处理,为接下来的二分类检测做准备。
S600、将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断人脸对象为活体。
反之,如果两个深度卷积神经网络的检测结果中有一个为非活体,或者两个均为非活体,则判断人脸对象为非活体。
本申请摒弃了彩色图像,采用红外人脸图像和深度人脸图像进行联合判断,避免了环境光照的干扰,大大增加了活体检测的准确率和环境适应能力,能够同时对二维和三维假体攻击进行有效的防御。
本申请基于深度图像和红外图像,利用深度学习进行活体判别,不需要用户的主动配合,即可实现无感静默式活体检测。其摒弃了彩色图像,从而避免了环境中可见光对检测结果的干扰,大大提升了坏境适应能力。通过利用深度信息联动红外激光光源,能够根据人脸对象的位置动态调整深度测距范围和红外图像亮度,增加了对目标深度的检测范围,以向后面的活体判别提供最优质量的输入图像,达到活体检测的最优效果,扩充了使用场景的同时,也提升了活体检测的准确率。
在其中一个实施例中,步骤S200中的预设阈值为:图像总像素的百分之20%至30%。即当像素个数达到图像总像素的百分之20%至30%时,记录此时的深度距离值。
在其中一个实施例中,步骤S300根据深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含人脸对象的红外图像,包括以下步骤:
当深度距离值为80cm时,调整红外激光光源的发射次数为600次,获取此时曝光的包含人脸对象的红外图像。该深度距离值下,当红外激光光源的发射次数为600次时,获取到的曝光后的红外图像质量较高。
如果深度距离值小,则相应地减少红外激光光源发射次数;如果深度距离值大,则相应地增加红外激光光源发射次数。
在其中一个实施例中,步骤S400中,从红外图像中获取红外人脸图像,并获取与红外人脸图像对应的深度人脸图像,包括以下步骤:
S410、通过检测红外图像中人脸对象所在的位置,获取红外人脸图像;
S420、根据深度图像与红外图像之间像素的一一对应关系,从深度图像中获取与红外人脸图像对应的深度人脸图像。
在其中一个实施例中,步骤S500中对红外人脸图像进行归一化处理,包括以下步骤:
S511、统计红外图像中亮度的最大值和最小值;
S512、根据以下公式对红外人脸图像进行归一化处理:
Face_IR_New(x,y)=(Face_IR(x,y)-Min)/(Max-Min)*255;
其中,Face_IR_New(x,y)为归一化后的红外像素值,Face_IR(x,y)为归一化前的红外像素值,Min为红外图像中的亮度的最小值,Max为红外图像中的亮度的最大值。
在其中一个实施例中,步骤S500中对深度人脸图像进行归一化处理,包括以下步骤:
S521、为了减少不同距离红外亮度不同导致的红外图像人脸亮度的差异,统计深度人脸图像中心1/4区域大小内的非零像素的平均值,记为人脸深度均值。
统计非零像素的平均值,目的是去除一些情况下像素值可能为零时的干扰。
本实施例中,是通过统计深度人脸图像中心1/4区域大小内的非零像素的平均值作为人脸深度均值,但不限于此种统计方法。实际使用中可根据处理精度的需求,调整人脸深度均值的统计方法。例如,可以统计深度人脸图像中心1/2、1/3、或者1/6区域大小内的非零像素的平均值作为人脸深度均值,统计面积越大,计算量越大,但是得到的人脸深度均值越精确;反之,统计面积越小,计算量越小,但是得到的人脸深度均值越不精确。
S522、以人脸深度均值为基准,前后100mm距离为极值,根据以下公式对深度人脸图像进行归一化处理:
face_new(x,y)=(face_old(x,y)-ave-100)/(200);
其中,face_new(x,y)为归一化后得到的灰度图像中的人脸区域像素值;(face_old(x,y)为归一化前的深度人脸图像中的人脸区域像素值;ave为人脸深度均值,其单位为mm。
在其中一个实施例中,步骤S600可通过以下步骤实现:
S610、将深度人脸图像归一化后得到的灰度图像face_new送入提前训练好的深度卷积神经网络Net_Depth中,进行活体与假体的二分类判断,其判断结果记为Result_Depth;
S620、将红外人脸图像归一化后得到的图像Face_IR_New送入提前训练好的深度卷积神经网络Net_IR中,进行活体与非活体的二分类判断,其结果记为Result_IR;
S630、若Result_IR、Result_Depth中有任何一个结果为非活体,则判定图像中的人脸对象为非活体;如果两个结果均为活体,则判定图像中的人脸对象为活体。
为了有效的防范图片、视频、头套、头模等二维三维假体攻击,同时提升活体算法的适应能力,本申请摒弃了彩色图像,仅仅采用深度图像和红外图像,从而避免了环境光照对检测准确率的影响。在此基础上,还基于深度图像特有的距离信息优势,联动红外激光光源,实时调整深度测距范围和红外图像的亮度,增加了对目标深度的检测范围,同时能够保证提供给后面活体判别最优的输入图像,提升了活体检测的准确率的同时,扩充了深度相机的使用场景。本申请提供的深度图像加上红外图像的联合检测方法,具备较强的环境适应性,能够同时对二维和三维假体攻击进行有效的防御。
应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图3所示,提供了一种活体检测装置,包括深度图像获取模块100、记录模块200、红外图像获取模块300、人脸图像获取模块400、归一化处理模块500、以及二分类检测模块600。
其中,深度图像获取模块100用于获取包含人脸对象的深度图像;记录模块200用于统计深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当像素个数达到预设阈值时,记录此时的深度距离值;红外图像获取模块300用于根据深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含人脸对象的红外图像;人脸图像获取模块400用于从红外图像中获取红外人脸图像,并从深度图像中获取与红外人脸图像对应的深度人脸图像;归一化处理模块500用于对红外人脸图像和深度人脸图像分别进行归一化处理;二分类检测模块600用于将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均未活体,则判断人脸对象为活体。
在其中一个实施例中,预设阈值为:图像总像素个数的20%至30%。
在其中一个实施例中,红外图像获取模块300在深度距离值为80cm时,调整红外激光光源的发射次数为600次,获取此时曝光的包含人脸对象的红外图像。
在其中一个实施例中,人脸图像获取模块400包括红外人脸图像获取单元和深度人脸图像获取单元;红外人脸图像获取单元用于通过检测红外图像中人脸对象所在的位置,获取红外人脸图像;深度人脸图像获取单元用于根据深度图像与红外图像之间像素的一一对应关系,从深度图像中获取与红外人脸图像对应的深度人脸图像。
在其中一个实施例中,归一化处理模块500包括第一归一化单元;第一归一化单元用于对红外人脸图像进行归一化处理:统计红外图像中亮度的最大值和最小值;根据以下公式对红外人脸图像进行归一化处理:
Face_IR_New(x,y)=(Face_IR(x,y)-Min)/(Max-Min)*255;
其中,Face_IR_New(x,y)为归一化后的红外像素值,Face_IR(x,y)为归一化前的红外像素值,Min为红外图像中的亮度的最小值,Max为红外图像中的亮度的最大值。
在其中一个实施例中,归一化处理模块500还包括第二归一化单元,第二归一化单元用于对深度人脸图像进行归一化处理:统计深度人脸图像中心1/4区域大小内的非零像素的平均值,记为人脸深度均值;以人脸深度均值为基准,前后100mm距离为极值,根据以下公式对深度人脸图像进行归一化处理:
face_new(x,y)=(face_old(x,y)-ave-100)/(200);
其中,face_new(x,y)为归一化后得到的灰度图像中的人脸区域像素值;(face_old(x,y)为归一化前的深度人脸图像中的人脸区域像素值;ave为人脸深度均值,其单位为mm。
关于活体检测装置的具体限定可以参见上文中对于活体检测方法的限定,在此不再赘述。上述活体检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种活体检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取包含人脸对象的深度图像;
统计深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当像素个数达到预设阈值时,记录此时的深度距离值;
根据深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含人脸对象的红外图像;
从红外图像中获取红外人脸图像,并从深度图像中获取与红外人脸图像对应的深度人脸图像;
对红外人脸图像和深度人脸图像分别进行归一化处理;
将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断人脸对象为活体。
在一个实施例中,预设阈值为:图像总像素个数的20%至30%。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
当深度距离值为80cm时,调整红外激光光源的发射次数为600次,获取此时曝光的包含人脸对象的红外图像。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
通过检测红外图像中人脸对象所在的位置,获取红外人脸图像;
根据深度图像与红外图像之间像素的一一对应关系,从深度图像中获取与红外人脸图像对应的深度人脸图像。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
统计红外图像中亮度的最大值和最小值;
根据以下公式对红外人脸图像进行归一化处理:
Face_IR_New(x,y)=(Face_IR(x,y)-Min)/(Max-Min)*255;
其中,Face_IR_New(x,y)为归一化后的红外像素值,Face_IR(x,y)为归一化前的红外像素值,Min为红外图像中的亮度的最小值,Max为红外图像中的亮度的最大值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
统计深度人脸图像中心1/4区域大小内的非零像素的平均值,记为人脸深度均值;
以人脸深度均值为基准,前后100mm距离为极值,根据以下公式对深度人脸图像进行归一化处理:
face_new(x,y)=(face_old(x,y)-ave-100)/(200);
其中,face_new(x,y)为归一化后得到的灰度图像中的人脸区域像素值;(face_old(x,y)为归一化前的深度人脸图像中的人脸区域像素值;ave为人脸深度均值,其单位为mm。
在一个实施例中,提供了一种活体检测装置,包括深度摄像头、红外激光光源、以及上述任一实施例提供的计算机设备。其中,深度摄像头和红外激光光源分别连接计算机设备的处理器;深度摄像头用于在处理器的控制下,输出红外图像的同时,根据光飞行时间计算目标物体距离摄像头的距离,并输出深度图像;红外激光光源,可以有一个或多个,用于在处理器的控制下发射不同脉冲宽度、不同脉冲次数的红外激光,以控制深度成像的距离范围和红外图像的亮度。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取包含人脸对象的深度图像;
统计深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当像素个数达到预设阈值时,记录此时的深度距离值;
根据深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含人脸对象的红外图像;
从红外图像中获取红外人脸图像,并从深度图像中获取与红外人脸图像对应的深度人脸图像;
对红外人脸图像和深度人脸图像分别进行归一化处理;
将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断人脸对象为活体。
在一个实施例中,预设阈值为:图像总像素个数的20%至30%。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
处理器执行计算机程序时还实现以下步骤:
当深度距离值为80cm时,调整红外激光光源的发射次数为600次,获取此时曝光的包含人脸对象的红外图像。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
通过检测红外图像中人脸对象所在的位置,获取红外人脸图像;
根据深度图像与红外图像之间像素的一一对应关系,从深度图像中获取与红外人脸图像对应的深度人脸图像。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
统计红外图像中亮度的最大值和最小值;
根据以下公式对红外人脸图像进行归一化处理:
Face_IR_New(x,y)=(Face_IR(x,y)-Min)/(Max-Min)*255;
其中,Face_IR_New(x,y)为归一化后的红外像素值,Face_IR(x,y)为归一化前的红外像素值,Min为红外图像中的亮度的最小值,Max为红外图像中的亮度的最大值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
统计深度人脸图像中心1/4区域大小内的非零像素的平均值,记为人脸深度均值;
以人脸深度均值为基准,前后100mm距离为极值,根据以下公式对深度人脸图像进行归一化处理:
face_new(x,y)=(face_old(x,y)-ave-100)/(200);
其中,face_new(x,y)为归一化后得到的灰度图像中的人脸区域像素值;(face_old(x,y)为归一化前的深度人脸图像中的人脸区域像素值;ave为人脸深度均值,其单位为mm。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种活体检测方法,其特征在于,包括以下步骤:
获取包含人脸对象的深度图像;
统计所述深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当所述像素个数达到预设阈值时,记录此时的深度距离值;
根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像;
从所述红外图像中获取红外人脸图像,并从所述深度图像中获取与所述红外人脸图像对应的深度人脸图像;
对所述红外人脸图像和深度人脸图像分别进行归一化处理;
将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断所述人脸对象为活体。
2.根据权利要求1所述的活体检测方法,其特征在于,所述预设阈值为:图像总像素个数的20%至30%。
3.根据权利要求1所述的活体检测方法,其特征在于,根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像,包括以下步骤:
当所述深度距离值为80cm时,调整红外激光光源的发射次数为600次,获取此时曝光的包含所述人脸对象的红外图像。
4.根据权利要求1所述的活体检测方法,其特征在于,从所述红外图像中获取红外人脸图像,并获取与所述红外人脸图像对应的深度人脸图像,包括以下步骤:
通过检测所述红外图像中所述人脸对象所在的位置,获取所述红外人脸图像;
根据所述深度图像与所述红外图像之间像素的一一对应关系,从所述深度图像中获取与所述红外人脸图像对应的所述深度人脸图像。
5.根据权利要求1至4任一项所述的活体检测方法,其特征在于,对所述红外人脸图像进行归一化处理,包括以下步骤:
统计所述红外图像中亮度的最大值和最小值;
根据以下公式对所述红外人脸图像进行归一化处理:
Face_IR_New(x,y)=(Face_IR(x,y)-Min)/(Max-Min)*255;
其中,Face_IR_New(x,y)为归一化后的红外像素值,Face_IR(x,y)为归一化前的红外像素值,Min为所述红外图像中的亮度的最小值,Max为所述红外图像中的亮度的最大值。
6.根据权利要求1至4任一项所述的活体检测方法,其特征在于,对所述深度人脸图像进行归一化处理,包括以下步骤:
统计所述深度人脸图像中心1/4区域大小内的非零像素的平均值,记为人脸深度均值;
以所述人脸深度均值为基准,前后100mm距离为极值,根据以下公式对所述深度人脸图像进行归一化处理:
face_new(x,y)=(face_old(x,y)-ave-100)/(200);
其中,face_new(x,y)为归一化后得到的灰度图像中的人脸区域像素值;(face_old(x,y)为归一化前的所述深度人脸图像中的人脸区域像素值;ave为人脸深度均值,其单位为mm。
7.一种活体检测装置,其特征在于,包括深度图像获取模块、记录模块、红外图像获取模块、人脸图像获取模块、归一化处理模块、以及二分类检测模块;
所述深度图像获取模块,用于获取包含人脸对象的深度图像;
所述记录模块,用于统计所述深度图像的深度直方图,并由近及远累加所统计的直方图中的像素个数,当所述像素个数达到预设阈值时,记录此时的深度距离值;
所述红外图像获取模块,用于根据所述深度距离值,调整红外激光光源的发射次数,获取调整后曝光的包含所述人脸对象的红外图像;
所述人脸图像获取模块,用于从所述红外图像中获取红外人脸图像,并从所述深度图像中获取与所述红外人脸图像对应的深度人脸图像;
所述归一化处理模块,用于对所述红外人脸图像和深度人脸图像分别进行归一化处理;
所述二分类检测模块,用于将归一化处理后的红外人脸图像和深度人脸图像,分别送入对应的深度卷积神经网络进行二分类检测,如果两个深度卷积神经网络的检测结果均为活体,则判断所述人脸对象为活体。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
9.一种活体检测装置,其特征在于,包括深度摄像头、红外激光光源、以及权利要求8所述的计算机设备;
所述深度摄像头和红外激光光源分别连接所述计算机设备的处理器;
所述深度摄像头用于在所述处理器的控制下,输出红外图像的同时,根据光飞行时间计算目标物体距离摄像头的距离,并输出深度图像;
所述红外激光光源,用于在所述处理器的控制下发射不同脉冲宽度、不同脉冲次数的红外激光,以控制深度成像的距离范围和红外图像的亮度。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910918231.3A CN110659617A (zh) | 2019-09-26 | 2019-09-26 | 活体检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910918231.3A CN110659617A (zh) | 2019-09-26 | 2019-09-26 | 活体检测方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110659617A true CN110659617A (zh) | 2020-01-07 |
Family
ID=69039337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910918231.3A Pending CN110659617A (zh) | 2019-09-26 | 2019-09-26 | 活体检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110659617A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126366A (zh) * | 2020-04-01 | 2020-05-08 | 湖南极点智能科技有限公司 | 一种活体人脸的判别方法、装置、设备及存储介质 |
CN112036375A (zh) * | 2020-10-01 | 2020-12-04 | 深圳奥比中光科技有限公司 | 一种检测红外图像与深度图像的方法、装置及人脸识别系统 |
CN112115852A (zh) * | 2020-09-17 | 2020-12-22 | 广东光速智能设备有限公司 | 一种使用rgb红外相机的活体检测方法 |
CN112686191A (zh) * | 2021-01-06 | 2021-04-20 | 中科海微(北京)科技有限公司 | 基于人脸三维信息的活体防伪方法、系统、终端及介质 |
CN112883944A (zh) * | 2021-04-28 | 2021-06-01 | 北京三快在线科技有限公司 | 活体检测方法、模型训练方法、装置、存储介质及设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1898338A2 (en) * | 2006-09-07 | 2008-03-12 | Hitachi, Ltd. | Personal identification apparatus and method using living body |
US20170345146A1 (en) * | 2016-05-30 | 2017-11-30 | Beijing Kuangshi Technology Co., Ltd. | Liveness detection method and liveness detection system |
CN108776786A (zh) * | 2018-06-04 | 2018-11-09 | 北京京东金融科技控股有限公司 | 用于生成用户真伪识别模型的方法和装置 |
CN108805024A (zh) * | 2018-04-28 | 2018-11-13 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108833889A (zh) * | 2018-08-22 | 2018-11-16 | Oppo广东移动通信有限公司 | 控制方法及装置、深度相机、电子装置及可读存储介质 |
CN109086718A (zh) * | 2018-08-02 | 2018-12-25 | 深圳市华付信息技术有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
CN109101871A (zh) * | 2018-08-07 | 2018-12-28 | 北京华捷艾米科技有限公司 | 一种基于深度和近红外信息的活体检测装置、检测方法及其应用 |
CN109104583A (zh) * | 2018-08-22 | 2018-12-28 | Oppo广东移动通信有限公司 | 控制方法及装置、深度相机、电子装置及可读存储介质 |
CN109635629A (zh) * | 2018-10-23 | 2019-04-16 | 南京行者易智能交通科技有限公司 | 一种基于深度学习的公交站台人群密度检测方法及装置 |
CN109684924A (zh) * | 2018-11-21 | 2019-04-26 | 深圳奥比中光科技有限公司 | 人脸活体检测方法及设备 |
CN110186387A (zh) * | 2019-06-04 | 2019-08-30 | 浙江舜宇光学有限公司 | 深度的检测方法、装置和系统 |
-
2019
- 2019-09-26 CN CN201910918231.3A patent/CN110659617A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1898338A2 (en) * | 2006-09-07 | 2008-03-12 | Hitachi, Ltd. | Personal identification apparatus and method using living body |
US20170345146A1 (en) * | 2016-05-30 | 2017-11-30 | Beijing Kuangshi Technology Co., Ltd. | Liveness detection method and liveness detection system |
CN108805024A (zh) * | 2018-04-28 | 2018-11-13 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108776786A (zh) * | 2018-06-04 | 2018-11-09 | 北京京东金融科技控股有限公司 | 用于生成用户真伪识别模型的方法和装置 |
CN109086718A (zh) * | 2018-08-02 | 2018-12-25 | 深圳市华付信息技术有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
CN109101871A (zh) * | 2018-08-07 | 2018-12-28 | 北京华捷艾米科技有限公司 | 一种基于深度和近红外信息的活体检测装置、检测方法及其应用 |
CN108833889A (zh) * | 2018-08-22 | 2018-11-16 | Oppo广东移动通信有限公司 | 控制方法及装置、深度相机、电子装置及可读存储介质 |
CN109104583A (zh) * | 2018-08-22 | 2018-12-28 | Oppo广东移动通信有限公司 | 控制方法及装置、深度相机、电子装置及可读存储介质 |
CN109635629A (zh) * | 2018-10-23 | 2019-04-16 | 南京行者易智能交通科技有限公司 | 一种基于深度学习的公交站台人群密度检测方法及装置 |
CN109684924A (zh) * | 2018-11-21 | 2019-04-26 | 深圳奥比中光科技有限公司 | 人脸活体检测方法及设备 |
CN110186387A (zh) * | 2019-06-04 | 2019-08-30 | 浙江舜宇光学有限公司 | 深度的检测方法、装置和系统 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126366A (zh) * | 2020-04-01 | 2020-05-08 | 湖南极点智能科技有限公司 | 一种活体人脸的判别方法、装置、设备及存储介质 |
CN111126366B (zh) * | 2020-04-01 | 2020-06-30 | 湖南极点智能科技有限公司 | 一种活体人脸的判别方法、装置、设备及存储介质 |
CN112115852A (zh) * | 2020-09-17 | 2020-12-22 | 广东光速智能设备有限公司 | 一种使用rgb红外相机的活体检测方法 |
CN112036375A (zh) * | 2020-10-01 | 2020-12-04 | 深圳奥比中光科技有限公司 | 一种检测红外图像与深度图像的方法、装置及人脸识别系统 |
CN112036375B (zh) * | 2020-10-01 | 2024-05-07 | 奥比中光科技集团股份有限公司 | 一种检测红外图像与深度图像的方法、装置及人脸识别系统 |
CN112686191A (zh) * | 2021-01-06 | 2021-04-20 | 中科海微(北京)科技有限公司 | 基于人脸三维信息的活体防伪方法、系统、终端及介质 |
CN112686191B (zh) * | 2021-01-06 | 2024-05-03 | 中科海微(北京)科技有限公司 | 基于人脸三维信息的活体防伪方法、系统、终端及介质 |
CN112883944A (zh) * | 2021-04-28 | 2021-06-01 | 北京三快在线科技有限公司 | 活体检测方法、模型训练方法、装置、存储介质及设备 |
CN112883944B (zh) * | 2021-04-28 | 2021-07-02 | 北京三快在线科技有限公司 | 活体检测方法、模型训练方法、装置、存储介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110659617A (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
US11657516B2 (en) | Target tracking method and computing device | |
CN109034078B (zh) | 年龄识别模型的训练方法、年龄识别方法及相关设备 | |
CN111639522B (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
US20200082160A1 (en) | Face recognition module with artificial intelligence models | |
CN111667001B (zh) | 目标重识别方法、装置、计算机设备和存储介质 | |
WO2018027530A1 (zh) | 红外光源的亮度调节方法与装置、光学动捕摄像机 | |
CN109327626B (zh) | 图像采集方法、装置、电子设备和计算机可读存储介质 | |
JP2020525958A (ja) | 画像処理システム及び画像処理方法 | |
CN110969045B (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
CN111104833A (zh) | 用于活体检验的方法和装置,存储介质和电子设备 | |
CN109683698B (zh) | 支付验证方法、装置、电子设备和计算机可读存储介质 | |
CN108833887B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
CN112989910A (zh) | 电力目标检测方法、装置、计算机设备和存储介质 | |
TW201935320A (zh) | 評估系統、評估裝置、評估方法、評估程式及記錄媒體 | |
CN110807409A (zh) | 人群密度检测模型训练方法和人群密度检测方法 | |
CN110766650A (zh) | 生物检测预警方法、系统、装置、计算机设备和存储介质 | |
CN110677557B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN110688950B (zh) | 基于深度信息的人脸活体检测方法、装置 | |
CN109859142B (zh) | 图像亮度的调节方法、装置、计算机设备和存储介质 | |
CN110688926B (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 | |
CN113792587A (zh) | 一种获取及识别图像的方法、装置、存储介质及电子设备 | |
CN108629329B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN108846321B (zh) | 识别人脸假体的方法及装置、电子设备 | |
CN112672067B (zh) | 深度相机的自动曝光方法、系统、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200107 |
|
RJ01 | Rejection of invention patent application after publication |