CN111639522B - 活体检测方法、装置、计算机设备和存储介质 - Google Patents
活体检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111639522B CN111639522B CN202010303813.3A CN202010303813A CN111639522B CN 111639522 B CN111639522 B CN 111639522B CN 202010303813 A CN202010303813 A CN 202010303813A CN 111639522 B CN111639522 B CN 111639522B
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- living body
- thermal imaging
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 234
- 238000001931 thermography Methods 0.000 claims abstract description 291
- 238000003062 neural network model Methods 0.000 claims abstract description 77
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000003384 imaging method Methods 0.000 claims abstract description 24
- 238000004590 computer program Methods 0.000 claims description 26
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000001727 in vivo Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 abstract description 7
- 230000000875 corresponding effect Effects 0.000 description 24
- 230000036760 body temperature Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 210000001061 forehead Anatomy 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000004861 thermometry Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种活体检测方法、装置、计算机设备和存储介质。该方法包括:获取待测目标的可见光图像和红外热成像图像;可见光图像和红外热成像图像为同一时间所拍摄的图像;通过人脸检测算法定位出人脸在可见光图像中所处的第一位置,并根据第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在红外热成像图像中所处的第二位置;根据第一位置在可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在红外热成像图像中进行抠图,得到热成像人脸子图;将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。采用本方法能够保证戴口罩/戴眼镜的活体的高通过率,提高了活体检测的准确性。
Description
技术领域
本申请涉及图像数据处理技术领域,特别是涉及一种活体检测方法、装置、计算机设备和存储介质。
背景技术
随着人脸识别技术的发展,出现了活体检测技术。生活中,在一些如金融、安防、门禁等需身份验证的场景下,为确定对象真实的生理特征,需使用活体检测技术,活体检测在辨别图像真伪、抵抗欺骗攻击,保护整个人脸识别系统的安全性方面起着重要作用。
传统的活体检测方法大致分为如下三种:配合式活体检测、静默式活体检测和双目活体检测。其中,双目活体检测一般采用“可见光+近红外”光电一体化方案,可以更有效地防止照片、视频、电子设备、3d面具等攻击手段,极大地提高了用户身份验证的安全性。
然而,在人脸被遮挡时(例如戴口罩、戴眼镜等),采用传统的活体检测方法出错率较高,活体检测的准确性较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高活体检测准确性的活体检测方法、装置、计算机设备和存储介质。
一种活体检测方法,所述方法包括:
获取待测目标的可见光图像和红外热成像图像;所述可见光图像和所述红外热成像图像为同一时间所拍摄的图像;
通过人脸检测算法定位出人脸在所述可见光图像中所处的第一位置,并根据所述第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在所述红外热成像图像中所处的第二位置;
根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图;
将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;所述活体检测结果包括所述待测目标为活体或所述待测目标为非活体,所述活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
在其中一个实施例中,所述方法还包括:
将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像;
所述根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图,包括:
在所述对齐的可见光图像和红外热成像图像中,根据所述第一位置在所述对齐的可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述对齐的红外热成像图像中进行抠图,得到热成像人脸子图。
在其中一个实施例中,所述将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像,包括:
通过人脸特征点检测算法定位出人脸特征点在所述可见光图像中所处的第三位置,并根据所述第三位置以及所述可见光图像和所述红外热成像图像的位置对应关系,确定人脸特征点在所述红外热成像图像中所处的第四位置;
根据所述第三位置和所述第四位置,将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
在其中一个实施例中,所述人脸特征点在所述可见光图像中所处的第三位置使用第三坐标表示,所述人脸特征点在所述红外热成像图像中所处的第四位置使用第四坐标表示;所述根据所述第三位置和所述第四位置,将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像,包括:
根据所述第三坐标和所述第四坐标计算仿射变换矩阵;
根据所述仿射变换矩阵,将所述可见光图像中的像素点或所述红外热成像图像中的像素点进行仿射变换,以得到对齐的可见光图像和红外热成像图像。
在其中一个实施例中,所述将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果,包括:
将所述可见光人脸子图和所述热成像人脸子图按照预设尺寸进行调整,得到调整后的可见光人脸子图和热成像人脸子图;
将所述调整后的可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
在其中一个实施例中,所述活体检测神经网络模型包括特征提取层、通道合并层和全连接层;
所述将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果,包括:
通过所述特征提取层分别对所述可见光人脸子图和所述热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征;
通过所述通道合并层合并所述可见光图像特征和所述热成像图像特征,得到合并后的图像特征;
将所述合并后的图像特征输入所述全连接层,得到活体类别特征和非活体类别特征;
根据所述活体类别特征和非活体类别特征计算活体概率,并根据所述活体概率判断所述待测目标是否为活体。
在其中一个实施例中,所述可见光图像和所述红外热成像图像分别包括多张,且每张可见光图像对应一张在同一时间拍摄的红外热成像图像;
所述将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果,包括:
将所述多张可见光图像对应的多张可见光人脸子图以及所述多张红外热成像图像对应的多张热成像人脸子图输入预设的活体检测神经网络模型,得到多个初始活体检测结果;
若所述多个初始活体检测结果满足预设的非活体检测条件,则确定所述待测目标为非活体。
一种活体检测装置,所述装置包括:
图像获取模块,用于获取待测目标的可见光图像和红外热成像图像;所述可见光图像和所述红外热成像图像为同一时间所拍摄的图像;
人脸定位模块,用于通过人脸检测算法定位出人脸在所述可见光图像中所处的第一位置,并根据所述第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在所述红外热成像图像中所处的第二位置;
抠图模块,用于根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图;
检测模块,用于将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;所述活体检测结果包括所述待测目标为活体或所述待测目标为非活体,所述活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待测目标的可见光图像和红外热成像图像;所述可见光图像和所述红外热成像图像为同一时间所拍摄的图像;
通过人脸检测算法定位出人脸在所述可见光图像中所处的第一位置,并根据所述第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在所述红外热成像图像中所处的第二位置;
根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图;
将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;所述活体检测结果包括所述待测目标为活体或所述待测目标为非活体,所述活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待测目标的可见光图像和红外热成像图像;所述可见光图像和所述红外热成像图像为同一时间所拍摄的图像;
通过人脸检测算法定位出人脸在所述可见光图像中所处的第一位置,并根据所述第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在所述红外热成像图像中所处的第二位置;
根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图;
将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;所述活体检测结果包括所述待测目标为活体或所述待测目标为非活体,所述活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
上述活体检测方法、装置、计算机设备和存储介质,由于红外热成像图像中包含温度分布信息,使得有体温的活体和无体温的非活体的区分度更明显,即使戴口罩或戴眼镜,但在眼部或额头处依然可以检测到热成像数据,保证活体检测的准确性。同时采用活体检测神经网络模型,对区分度更为明显的可见光图像中的人脸子图和红外热成像图像中的人脸子图作分类,以判断出待测目标是否为活体,由于神经网络模型擅长处理区分度更为明显的分类任务,因此进一步提高了活体检测的准确性。
附图说明
图1为一个实施例中活体检测方法的应用环境图;
图2为一个实施例中活体检测方法的流程示意图;
图3为另一个实施例中活体检测方法的流程示意图;
图4为一个实施例中将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像的补充方案的流程示意图;
图5为一个实施例中将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果的补充方案的流程示意图;
图6为一个实施例中活体检测装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一示例性实施例中,以本申请涉及的活体检测方法应用于活体检测设备进行举例说明。可以理解的是,如图1所示,该活体检测设备可以是终端102,也可以是服务器104,还可以是包括终端102和服务器104的系统,并通过终端102和服务器104的交互实现。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
可选地,活体检测设备上集成有可见光成像设备(例如可见光摄像头、可见光相机等)和红外热成像设备(例如红外测温设备)。其中,可见光成像设备和红外热成像设备并行放置,并平行于水平面。可见光成像设备拍摄的可见光图像和红外热成像设备拍摄的红外热成像图像是否对齐,将直接影响活体检测效果。因此,为了保证可见光成像设备和红外热成像设备拍摄的图像是对齐的,可采用如下方式:首先,通过系统时间来自动校准设备中的时间,使得可见光成像设备的时间和红外热成像设备的时间完全同步来实现时域对齐;其次,通过调节相机的焦距\角度等参数进行对齐,使得可见光成像设备和红外热成像设备极线平行且光轴平行,这样可保证同一物体在可见光区域与红外热成像区域内尽可能地完全重合。如此,通过在同一时域和同一空间位置拍摄的可见光图像和红外热成像图像是匹配和对齐的。
在一示例性实施例中,如图2所示,提供了一种活体检测方法,以活体检测设备为图1中的终端为例进行说明,具体可以通过以下步骤实现:
步骤S202,获取待测目标的可见光图像和红外热成像图像。
其中,可见光图像和红外热成像图像为同一时间所拍摄的图像。可见光图像是指采用可见光波段所拍摄的图像。红外热成像图像是指是通过接收和记录目标物发射的热辐射能而形成的图像。
具体地,采用可见光成像设备拍摄待测目标的可见光图像,采用红外热成像设备拍摄待测目标的红外热成像图像。其中,可通过上位机对可见光成像设备和红外热成像设备中的时间进行校准,使得可见光成像设备中的时间和红外热成像设备中的时间完全同步。这样,活体检测设备通过可见光成像设备获得的待测目标的可见光图像,以及通过红外热成像设备获得的待测目标的红外热成像图像,可保证为同一时间所拍摄的图像。
可选地,活体检测设备将同一时间所拍摄的待测目标的可见光图像和红外热成像图像进行组合,得到由可见光图像和红外热成像图像构成的图像对,进而使用该图像对进行后续的活体检测。由于同一时间所拍摄的待测目标的可见光图像和红外热成像图像中的内容最为相关,因此将其用于活体检测有助于提高活体检测准确性。
步骤S204,通过人脸检测算法定位出人脸在可见光图像中所处的第一位置,并根据第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在红外热成像图像中所处的第二位置。
具体地,活体检测设备通过人脸检测算法定位出人脸在可见光图像中所处的第一位置。可选地,第一位置可用人脸所在检测框(boundingbox)左上、左下、右上、右下4个顶点的坐标表示。接下来,活体检测设备根据可见光成像设备和红外热成像设备在拍摄图像时的位置对应关系,确定与第一位置相对应的人脸在红外热成像图像中所处的第二位置。可选地,第二位置也可用人脸所在检测框(boundingbox)左上、左下、右上、右下4个顶点的坐标表示。第一位置可基于可见光图像和红外热成像图像的位置对应关系,并通过坐标转换得到第二位置。
需要指出,在可见光成像设备和红外热成像设备中,分别构建了各自的相机坐标系,并预先建立两个相机坐标系之间的位置对应关系。可选地,该位置对应关系可预存在活体检测设备中,以便于活体检测设备随时调用。
步骤S206,根据第一位置在可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在红外热成像图像中进行抠图,得到热成像人脸子图。
具体地,活体检测设备根据第一位置在可见光图像中进行抠图,得到可见光人脸子图;活体检测设备根据第二位置在红外热成像图像中进行抠图,得到热成像人脸子图。可选地,活体检测设备可根据上述4个顶点的坐标在可见光图像中截取可见光人脸子图,根据上述4个顶点的坐标在红外热成像图像中截取热成像人脸子图。
步骤S208,将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
其中,活体检测结果包括待测目标为活体或待测目标为非活体,活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。可选地,活体检测神经网络模型可以是卷积神经网络模型,也可以是循环神经网络模型,还可以是卷积神经网络模型和循环神经网络模型的组合。
具体地,活体检测设备将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,通过该活体检测神经网络模型分别对可见光人脸子图和热成像人脸子图进行特征提取,并基于提取的图像特征判断待测目标是否为活体。
上述活体检测方法中,由于红外热成像图像中包含温度分布信息,使得有体温的活体和无体温的非活体的区分度更明显,即使戴口罩或戴眼镜,但在眼部或额头处依然可以检测到热成像数据,保证活体检测的准确性。同时采用活体检测神经网络模型,对区分度更为明显的可见光图像中的人脸子图和红外热成像图像中的人脸子图作分类,以判断出待测目标是否为活体,由于神经网络模型擅长处理区分度更为明显的分类任务,因此进一步提高了活体检测的准确性。
在一示例性实施例中,请参阅图3,该方法还包括以下步骤:
步骤S203,将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
具体地,活体检测设备将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。可选地,活体检测设备可基于可见光图像中感兴趣区域的位置和红外热成像图像中感兴趣区域的位置进行位置归一化(用于实现位置对齐),由此得到对齐的可见光图像和红外热成像图像。示例性地,活体检测设备可基于可见光图像中人脸特征点的位置和红外热成像图像中人脸特征点的位置进行位置归一化,由此得到对齐的可见光图像和红外热成像图像。
进一步地,在上述实施例的基础上,步骤S206具体可以通过以下步骤实现:
步骤S2062,在对齐的可见光图像和红外热成像图像中,根据第一位置在对齐的可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在对齐的红外热成像图像中进行抠图,得到热成像人脸子图。
具体地,活体检测设备根据第一位置在对齐的可见光图像中进行抠图,得到可见光人脸子图;活体检测设备根据第二位置在对齐的红外热成像图像中进行抠图,得到热成像人脸子图。可选地,活体检测设备可根据上述4个顶点的坐标在对齐的可见光图像中截取可见光人脸子图,根据上述4个顶点的坐标在对齐的红外热成像图像中截取热成像人脸子图。
本申请实施例中,将可见光图像和红外热成像图像对齐,有利于降低后续检测的工作量,提高活体检测效果。
在一示例性实施例中,涉及将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像的一种可能的实现过程。在上述实施例的基础上,请参阅图4,步骤S203具体可以通过以下步骤实现:
步骤S2032,通过人脸特征点检测算法定位出人脸特征点在可见光图像中所处的第三位置,并根据第三位置以及可见光图像和红外热成像图像的位置对应关系,确定人脸特征点在红外热成像图像中所处的第四位置;
步骤S2034,根据第三位置和第四位置,将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
其中,人脸特征点检测算法用于实现对人脸上的特征点例如嘴角、眼角等进行定位。
具体地,活体检测设备通过人脸特征点检测算法定位出人脸特征点在可见光图像中所处的第三位置。可选地,人脸特征点在可见光图像中所处的第三位置使用第三坐标表示。接下来,活体检测设备根据第三位置以及可见光图像和红外热成像图像的位置对应关系,确定人脸特征点在红外热成像图像中所处的第四位置。可选地,人脸特征点在红外热成像图像中所处的第四位置使用第四坐标表示。第三坐标(第三位置)可基于可见光图像和红外热成像图像的位置对应关系,并通过坐标转换得到第四坐标(第四位置)。
本申请实施例中,利用人脸特征点来实现可见光图像和红外热成像图像的对齐,可有效保证后续截取出的人脸子图是对齐的,有利于提高活体检测的准确性。
在一示例性实施例中,涉及根据第三位置和第四位置,将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像的一种可能的实现过程。在上述实施例的基础上,步骤S2034具体可以通过以下步骤实现:
步骤S203a,根据第三坐标和第四坐标计算仿射变换矩阵;
步骤S203b,根据仿射变换矩阵,将可见光图像中的像素点或红外热成像图像中的像素点进行仿射变换,以得到对齐的可见光图像和红外热成像图像。
具体地,活体检测设备根据可见光图像中人脸特征点的第三坐标和红外热成像图像中人脸特征点的第四坐标,计算出仿射变换矩阵。接下来,活体检测设备将两张图像中任意一张图像的所有像素点根据该仿射变换矩阵进行仿射变换,而经过仿射变换的图像与另一张图像的人脸特征点位于同一坐标,例如两张图像的鼻尖点均在任一图像的(90,100)坐标点上,如此,也就实现了将整张可见光图像和整张红外热成像图像进行对齐的目的。
本申请实施例中,采用图像间的仿射变换以使可见光图像和红外热成像图像中人脸各部位处在相同坐标上,从而实现了可见光图像和红外热成像图像的对齐效果。
在一示例性实施例中,涉及将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果的一种可能的实现过程。在上述实施例的基础上,步骤S208具体可以通过以下步骤实现:
步骤S2082,将可见光人脸子图和热成像人脸子图按照预设尺寸进行调整,得到调整后的可见光人脸子图和热成像人脸子图;
步骤S2084,将调整后的可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
具体地,在活体检测神经网络模型中,针对可见光人脸子图提取的图像特征和热成像人脸子图提取的图像特征,需要进行特征合并,此时,为了保证特征顺利合并,需要求合并前的各图像特征的形状、尺寸相等,例如,假设图像特征1为(n,c,h,w),那么图像特征2也必须为(n,c,h,w),这样才能将图像特征1和图像特征2按照通道c合并为一个新的图像特征(n,2c,h,w)。在其他示例中,也可以先对可见光图像和红外热成像图像进行尺寸调整,具体为:在对可见光图像和红外热成像图像做完仿射变换对齐后,统一调整尺寸为(224,224,3)或者(224,224,1)。
举例而言,假设可见光人脸子图的尺寸为(1080,1920,3),热成像人脸子图的尺寸为(1080,1920,1),按照预设尺寸可统一调整为(224,224,3)或者(224,224,1)的尺寸,然后分别输入到活体检测神经网络模型中。
本申请实施例中,通过调整人脸子图的尺寸,可保证活体检测神经网络模型的正常运行,降低出错率。
在一示例性实施例中,活体检测神经网络模型包括特征提取层、通道合并层和全连接层,特征提取层包括卷积层、激活层和池化层。基于此,在一示例性实施例中,涉及将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果的一种可能的实现过程。在上述实施例的基础上,步骤S208具体可以通过以下步骤实现:
步骤S208a,通过特征提取层分别对可见光人脸子图和热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征;
步骤S208b,通过通道合并层合并可见光图像特征和热成像图像特征,得到合并后的图像特征;
步骤S208c,将合并后的图像特征输入全连接层,得到活体类别特征和非活体类别特征;
步骤S208d,根据活体类别特征和非活体类别特征计算活体概率,并根据活体概率判断待测目标是否为活体。
具体地,在活体检测神经网络模型中,通过特征提取层分别对可见光人脸子图和热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征。接下来,根据通道数,合并可见光图像特征和热成像图像特征,得到合并后的图像特征。在一示例中,也可以根据通道的长或宽或高等通道参数来合并可见光图像特征和热成像图像特征,得到合并后的图像特征。接下来,将合并后的图像特征输入全连接层,得到活体类别特征和非活体类别特征。其中,活体类别特征和非活体类别特征可以用一个二维向量的两个值来分别表示。例如,该二维向量表示为(n,2),其中n代表小批量(mini batch)数值(即图像的数量),训好的模型在做推理时,n默认可以为1,也可以大于1。而(n,2)中的2即为活体/非活体两个类别的特征值。接下来,利用预设的归一化函数(softmax函数)对活体类别特征和非活体类别特征进行计算,得到活体概率p,其中,p∈[0,1]对应地,非活体概率为1-p,可以看出,此处运用了二分类技术。接下来,判断活体概率p与预设阈值t的大小,若p≥t,则判定待测目标为活体;若p〈t,则判定待测目标为非活体。
本申请实施例中,采用神经网络模型的二分类功能可简单、准确、快速地得到活体检测结果。
在一示例性实施例中,可见光图像和红外热成像图像分别包括多张,且每张可见光图像对应一张在同一时间拍摄的红外热成像图像。基于此,为了进一步提高活体检测的准确性,在一示例性实施例中,涉及将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果的一种可能的实现过程。在上述实施例的基础上,步骤S208具体可以通过以下步骤实现:
步骤S2081,将多张可见光图像对应的多张可见光人脸子图以及多张红外热成像图像对应的多张热成像人脸子图输入预设的活体检测神经网络模型,得到多个初始活体检测结果;
步骤S2083,若多个初始活体检测结果满足预设的非活体检测条件,则确定待测目标为非活体。
具体地,活体检测设备通过对多对可见光图像和红外热成像图像进行活体检测,得到多个初始活体检测结果,若多个初始活体检测结果满足预设的非活体检测条件,则确定待测目标为非活体。可选地,若多个初始活体检测结果中,待测目标为非活体的检测次数大于预设次数,则确定待测目标为非活体。或者,若多个初始活体检测结果中,待测目标为非活体的检测次数达到预设次数,则确定待测目标为非活体。
本申请实施例中,基于多个初始活体检测结果的多次判断之后才最终得出活体检测结果,能够降低活体检测的出错率,提高活体检测的准确性。
应该理解的是,虽然图2-5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-5中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一示例性实施例中,如图6所示,提供了一种活体检测装置,包括:图像获取模块302、人脸定位模块304、抠图模块306和检测模块308,其中:
该图像获取模块302用于获取待测目标的可见光图像和红外热成像图像;可见光图像和红外热成像图像为同一时间所拍摄的图像。
该人脸定位模块304用于通过人脸检测算法定位出人脸在可见光图像中所处的第一位置,并根据第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在红外热成像图像中所处的第二位置。
该抠图模块306用于根据第一位置在可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在红外热成像图像中进行抠图,得到热成像人脸子图。
该检测模块308用于将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;活体检测结果包括待测目标为活体或待测目标为非活体,活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
上述活体检测装置中,由于红外热成像图像中包含温度分布信息,使得有体温的活体和无体温的非活体的区分度更明显,即使戴口罩或戴眼镜,但在眼部或额头处依然可以检测到热成像数据,保证活体检测的准确性。同时采用活体检测神经网络模型,对区分度更为明显的可见光图像中的人脸子图和红外热成像图像中的人脸子图作分类,以判断出待测目标是否为活体,由于神经网络模型擅长处理区分度更为明显的分类任务,因此进一步提高了活体检测的准确性。
在一示例性实施例中,该活体检测装置还包括:对齐模块(图未示),该对齐模块用于将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像;该抠图模块306具体用于在对齐的可见光图像和红外热成像图像中,根据第一位置在对齐的可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在对齐的红外热成像图像中进行抠图,得到热成像人脸子图。
在一示例性实施例中,该对齐模块具体用于通过人脸特征点检测算法定位出人脸特征点在可见光图像中所处的第三位置,并根据第三位置以及可见光图像和红外热成像图像的位置对应关系,确定人脸特征点在红外热成像图像中所处的第四位置;根据第三位置和第四位置,将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
在一示例性实施例中,人脸特征点在可见光图像中所处的第三位置使用第三坐标表示,人脸特征点在红外热成像图像中所处的第四位置使用第四坐标表示;该对齐模块具体用于根据第三坐标和第四坐标计算仿射变换矩阵;根据仿射变换矩阵,将可见光图像中的像素点或红外热成像图像中的像素点进行仿射变换,以得到对齐的可见光图像和红外热成像图像。
在一示例性实施例中,该检测模块308具体用于将可见光人脸子图和热成像人脸子图按照预设尺寸进行调整,得到调整后的可见光人脸子图和热成像人脸子图;将调整后的可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
在一示例性实施例中,活体检测神经网络模型包括特征提取层、通道合并层和全连接层;该检测模块308具体用于通过特征提取层分别对可见光人脸子图和热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征;通过通道合并层合并可见光图像特征和热成像图像特征,得到合并后的图像特征;将合并后的图像特征输入全连接层,得到活体类别特征和非活体类别特征;根据活体类别特征和非活体类别特征计算活体概率,并根据活体概率判断待测目标是否为活体。
在一示例性实施例中,可见光图像和红外热成像图像分别包括多张,且每张可见光图像对应一张在同一时间拍摄的红外热成像图像;该检测模块308具体用于将多张可见光图像对应的多张可见光人脸子图以及多张红外热成像图像对应的多张热成像人脸子图输入预设的活体检测神经网络模型,得到多个初始活体检测结果;若多个初始活体检测结果满足预设的非活体检测条件,则确定待测目标为非活体。
关于活体检测装置的具体限定可以参见上文中对于活体检测方法的限定,在此不再赘述。上述活体检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一示例性实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种活体检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一示例性实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待测目标的可见光图像和红外热成像图像;可见光图像和红外热成像图像为同一时间所拍摄的图像;
通过人脸检测算法定位出人脸在可见光图像中所处的第一位置,并根据第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在红外热成像图像中所处的第二位置;
根据第一位置在可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在红外热成像图像中进行抠图,得到热成像人脸子图;
将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;活体检测结果包括待测目标为活体或待测目标为非活体,活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
上述计算机设备中,由于红外热成像图像中包含温度分布信息,使得有体温的活体和无体温的非活体的区分度更明显,即使戴口罩或戴眼镜,但在眼部或额头处依然可以检测到热成像数据,保证活体检测的准确性。同时采用活体检测神经网络模型,对区分度更为明显的可见光图像中的人脸子图和红外热成像图像中的人脸子图作分类,以判断出待测目标是否为活体,由于神经网络模型擅长处理区分度更为明显的分类任务,因此进一步提高了活体检测的准确性。
在一示例性实施例中,处理器执行计算机程序时还实现以下步骤:将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像;在对齐的可见光图像和红外热成像图像中,根据第一位置在对齐的可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在对齐的红外热成像图像中进行抠图,得到热成像人脸子图。
在一示例性实施例中,处理器执行计算机程序时还实现以下步骤:通过人脸特征点检测算法定位出人脸特征点在可见光图像中所处的第三位置,并根据第三位置以及可见光图像和红外热成像图像的位置对应关系,确定人脸特征点在红外热成像图像中所处的第四位置;根据第三位置和第四位置,将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
在一示例性实施例中,处理器执行计算机程序时还实现以下步骤:根据第三坐标和第四坐标计算仿射变换矩阵;根据仿射变换矩阵,将可见光图像中的像素点或红外热成像图像中的像素点进行仿射变换,以得到对齐的可见光图像和红外热成像图像。
在一示例性实施例中,处理器执行计算机程序时还实现以下步骤:将可见光人脸子图和热成像人脸子图按照预设尺寸进行调整,得到调整后的可见光人脸子图和热成像人脸子图;将调整后的可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
在一示例性实施例中,处理器执行计算机程序时还实现以下步骤:通过特征提取层分别对可见光人脸子图和热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征;通过通道合并层合并可见光图像特征和热成像图像特征,得到合并后的图像特征;将合并后的图像特征输入全连接层,得到活体类别特征和非活体类别特征;根据活体类别特征和非活体类别特征计算活体概率,并根据活体概率判断待测目标是否为活体。
在一示例性实施例中,处理器执行计算机程序时还实现以下步骤:将多张可见光图像对应的多张可见光人脸子图以及多张红外热成像图像对应的多张热成像人脸子图输入预设的活体检测神经网络模型,得到多个初始活体检测结果;若多个初始活体检测结果满足预设的非活体检测条件,则确定待测目标为非活体。
在一示例性实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待测目标的可见光图像和红外热成像图像;可见光图像和红外热成像图像为同一时间所拍摄的图像;
通过人脸检测算法定位出人脸在可见光图像中所处的第一位置,并根据第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在红外热成像图像中所处的第二位置;
根据第一位置在可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在红外热成像图像中进行抠图,得到热成像人脸子图;
将可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;活体检测结果包括待测目标为活体或待测目标为非活体,活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
上述计算机可读存储介质中,由于红外热成像图像中包含温度分布信息,使得有体温的活体和无体温的非活体的区分度更明显,即使戴口罩或戴眼镜,但在眼部或额头处依然可以检测到热成像数据,保证活体检测的准确性。同时采用活体检测神经网络模型,对区分度更为明显的可见光图像中的人脸子图和红外热成像图像中的人脸子图作分类,以判断出待测目标是否为活体,由于神经网络模型擅长处理区分度更为明显的分类任务,因此进一步提高了活体检测的准确性。
在一示例性实施例中,计算机程序被处理器执行时还实现以下步骤:将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像;在对齐的可见光图像和红外热成像图像中,根据第一位置在对齐的可见光图像中进行抠图,得到可见光人脸子图,以及根据第二位置在对齐的红外热成像图像中进行抠图,得到热成像人脸子图。
在一示例性实施例中,计算机程序被处理器执行时还实现以下步骤:通过人脸特征点检测算法定位出人脸特征点在可见光图像中所处的第三位置,并根据第三位置以及可见光图像和红外热成像图像的位置对应关系,确定人脸特征点在红外热成像图像中所处的第四位置;根据第三位置和第四位置,将可见光图像和红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
在一示例性实施例中,计算机程序被处理器执行时还实现以下步骤:根据第三坐标和第四坐标计算仿射变换矩阵;根据仿射变换矩阵,将可见光图像中的像素点或红外热成像图像中的像素点进行仿射变换,以得到对齐的可见光图像和红外热成像图像。
在一示例性实施例中,计算机程序被处理器执行时还实现以下步骤:将可见光人脸子图和热成像人脸子图按照预设尺寸进行调整,得到调整后的可见光人脸子图和热成像人脸子图;将调整后的可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
在一示例性实施例中,计算机程序被处理器执行时还实现以下步骤:通过特征提取层分别对可见光人脸子图和热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征;通过通道合并层合并可见光图像特征和热成像图像特征,得到合并后的图像特征;将合并后的图像特征输入全连接层,得到活体类别特征和非活体类别特征;根据活体类别特征和非活体类别特征计算活体概率,并根据活体概率判断待测目标是否为活体。
在一示例性实施例中,计算机程序被处理器执行时还实现以下步骤:将多张可见光图像对应的多张可见光人脸子图以及多张红外热成像图像对应的多张热成像人脸子图输入预设的活体检测神经网络模型,得到多个初始活体检测结果;若多个初始活体检测结果满足预设的非活体检测条件,则确定待测目标为非活体。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种活体检测方法,其特征在于,所述方法包括:
获取待测目标的可见光图像和红外热成像图像;所述可见光图像和所述红外热成像图像为同一时间所拍摄的图像;
通过人脸检测算法定位出人脸在所述可见光图像中所处的第一位置,并根据所述第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在所述红外热成像图像中所处的第二位置;
根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图;
将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;所述活体检测结果包括所述待测目标为活体或所述待测目标为非活体,所述活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像;
所述根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图,包括:
在所述对齐的可见光图像和红外热成像图像中,根据所述第一位置在所述对齐的可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述对齐的红外热成像图像中进行抠图,得到热成像人脸子图。
3.根据权利要求2所述的方法,其特征在于,所述将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像,包括:
通过人脸特征点检测算法定位出人脸特征点在所述可见光图像中所处的第三位置,并根据所述第三位置以及所述可见光图像和所述红外热成像图像的位置对应关系,确定人脸特征点在所述红外热成像图像中所处的第四位置;
根据所述第三位置和所述第四位置,将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像。
4.根据权利要求3所述的方法,其特征在于,所述人脸特征点在所述可见光图像中所处的第三位置使用第三坐标表示,所述人脸特征点在所述红外热成像图像中所处的第四位置使用第四坐标表示;所述根据所述第三位置和所述第四位置,将所述可见光图像和所述红外热成像图像进行对齐,得到对齐的可见光图像和红外热成像图像,包括:
根据所述第三坐标和所述第四坐标计算仿射变换矩阵;
根据所述仿射变换矩阵,将所述可见光图像中的像素点或所述红外热成像图像中的像素点进行仿射变换,以得到对齐的可见光图像和红外热成像图像。
5.根据权利要求1所述的方法,其特征在于,所述将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果,包括:
将所述可见光人脸子图和所述热成像人脸子图按照预设尺寸进行调整,得到调整后的可见光人脸子图和热成像人脸子图;
将所述调整后的可见光人脸子图和热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果。
6.根据权利要求1所述的方法,其特征在于,所述活体检测神经网络模型包括特征提取层、通道合并层和全连接层;
所述将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果,包括:
通过所述特征提取层分别对所述可见光人脸子图和所述热成像人脸子图进行特征提取,得到可见光图像特征和热成像图像特征;
通过所述通道合并层合并所述可见光图像特征和所述热成像图像特征,得到合并后的图像特征;
将所述合并后的图像特征输入所述全连接层,得到活体类别特征和非活体类别特征;
根据所述活体类别特征和非活体类别特征计算活体概率,并根据所述活体概率判断所述待测目标是否为活体。
7.根据权利要求1所述的方法,其特征在于,所述可见光图像和所述红外热成像图像分别包括多张,且每张可见光图像对应一张在同一时间拍摄的红外热成像图像;
所述将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果,包括:
将所述多张可见光图像对应的多张可见光人脸子图以及所述多张红外热成像图像对应的多张热成像人脸子图输入预设的活体检测神经网络模型,得到多个初始活体检测结果;
若所述多个初始活体检测结果满足预设的非活体检测条件,则确定所述待测目标为非活体。
8.一种活体检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取待测目标的可见光图像和红外热成像图像;所述可见光图像和所述红外热成像图像为同一时间所拍摄的图像;
人脸定位模块,用于通过人脸检测算法定位出人脸在所述可见光图像中所处的第一位置,并根据所述第一位置以及可见光成像设备和红外热成像设备的位置对应关系,确定人脸在所述红外热成像图像中所处的第二位置;
抠图模块,用于根据所述第一位置在所述可见光图像中进行抠图,得到可见光人脸子图,以及根据所述第二位置在所述红外热成像图像中进行抠图,得到热成像人脸子图;
检测模块,用于将所述可见光人脸子图和所述热成像人脸子图输入预设的活体检测神经网络模型,得到活体检测结果;所述活体检测结果包括所述待测目标为活体或所述待测目标为非活体,所述活体检测神经网络模型为预先训练好的、能够根据人脸子图判断目标是否为活体的神经网络模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010303813.3A CN111639522B (zh) | 2020-04-17 | 2020-04-17 | 活体检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010303813.3A CN111639522B (zh) | 2020-04-17 | 2020-04-17 | 活体检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111639522A CN111639522A (zh) | 2020-09-08 |
CN111639522B true CN111639522B (zh) | 2023-10-31 |
Family
ID=72328697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010303813.3A Active CN111639522B (zh) | 2020-04-17 | 2020-04-17 | 活体检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639522B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114485953A (zh) * | 2020-11-13 | 2022-05-13 | 杭州海康威视数字技术股份有限公司 | 温度测量方法、装置及系统 |
CN112529065B (zh) * | 2020-12-04 | 2024-02-13 | 浙江工业大学 | 一种基于特征对齐和关键点辅助激励的目标检测方法 |
CN112633181B (zh) * | 2020-12-25 | 2022-08-12 | 北京嘀嘀无限科技发展有限公司 | 数据处理方法、系统、装置、设备和介质 |
CN112613471B (zh) * | 2020-12-31 | 2023-08-01 | 中移(杭州)信息技术有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
CN112818821B (zh) * | 2021-01-28 | 2023-02-03 | 广州广电卓识智能科技有限公司 | 基于可见光和红外光的人脸采集源检测方法和装置 |
CN113344785A (zh) * | 2021-06-10 | 2021-09-03 | 浙江大华技术股份有限公司 | 倍率值的确定方法及装置、存储介质、电子装置 |
CN113469054A (zh) * | 2021-07-02 | 2021-10-01 | 哈尔滨理工大学 | 一种基于深度学习的红外人脸识别方法 |
CN114067445A (zh) * | 2021-11-26 | 2022-02-18 | 中科海微(北京)科技有限公司 | 人脸真伪识别的数据处理方法、装置、设备及存储介质 |
CN114519882A (zh) * | 2022-02-16 | 2022-05-20 | 奥比中光科技集团股份有限公司 | 一种人脸识别方法、装置及电子设备 |
CN118212591B (zh) * | 2024-05-16 | 2024-08-06 | 杭州巨岩欣成科技有限公司 | 多映射坐标自动对应方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110128574A (ko) * | 2010-05-24 | 2011-11-30 | 주식회사 다음커뮤니케이션 | 이미지내 생체 얼굴 인식 방법 및 인식 장치 |
CN109446981A (zh) * | 2018-10-25 | 2019-03-08 | 腾讯科技(深圳)有限公司 | 一种脸部活体检测、身份认证方法及装置 |
CN109871814A (zh) * | 2019-02-22 | 2019-06-11 | 成都旷视金智科技有限公司 | 年龄的估计方法、装置、电子设备和计算机存储介质 |
CN110443192A (zh) * | 2019-08-01 | 2019-11-12 | 中国科学院重庆绿色智能技术研究院 | 一种基于双目图像的非交互式人脸活体检测方法及系统 |
CN110929566A (zh) * | 2019-10-16 | 2020-03-27 | 厦门大学 | 基于可见光和近红外双目摄像头的人脸活体检测方法 |
CN110991266A (zh) * | 2019-11-13 | 2020-04-10 | 北京智芯原动科技有限公司 | 一种双目人脸活体检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423693B2 (en) * | 2016-10-31 | 2022-08-23 | Nec Corporation | Image processing device, image processing method, face recognition system, program, and storage medium |
-
2020
- 2020-04-17 CN CN202010303813.3A patent/CN111639522B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110128574A (ko) * | 2010-05-24 | 2011-11-30 | 주식회사 다음커뮤니케이션 | 이미지내 생체 얼굴 인식 방법 및 인식 장치 |
CN109446981A (zh) * | 2018-10-25 | 2019-03-08 | 腾讯科技(深圳)有限公司 | 一种脸部活体检测、身份认证方法及装置 |
CN109871814A (zh) * | 2019-02-22 | 2019-06-11 | 成都旷视金智科技有限公司 | 年龄的估计方法、装置、电子设备和计算机存储介质 |
CN110443192A (zh) * | 2019-08-01 | 2019-11-12 | 中国科学院重庆绿色智能技术研究院 | 一种基于双目图像的非交互式人脸活体检测方法及系统 |
CN110929566A (zh) * | 2019-10-16 | 2020-03-27 | 厦门大学 | 基于可见光和近红外双目摄像头的人脸活体检测方法 |
CN110991266A (zh) * | 2019-11-13 | 2020-04-10 | 北京智芯原动科技有限公司 | 一种双目人脸活体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111639522A (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639522B (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
US10824849B2 (en) | Method, apparatus, and system for resource transfer | |
US11048953B2 (en) | Systems and methods for facial liveness detection | |
KR102299847B1 (ko) | 얼굴 인증 방법 및 장치 | |
US11521423B2 (en) | Occlusion detection for facial recognition processes | |
US10176377B2 (en) | Iris liveness detection for mobile devices | |
Xu et al. | Virtual u: Defeating face liveness detection by building virtual models from your public photos | |
EP2842075B1 (en) | Three-dimensional face recognition for mobile devices | |
US20160162673A1 (en) | Technologies for learning body part geometry for use in biometric authentication | |
CN111680672B (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
Lawanont et al. | Neck posture monitoring system based on image detection and smartphone sensors using the prolonged usage classification concept | |
CN111680675B (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
CN109948439B (zh) | 一种活体检测方法、系统及终端设备 | |
CN112364827A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
WO2013122009A1 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
CN111307331A (zh) | 一种温度校准方法、装置、设备及存储介质 | |
US20140056487A1 (en) | Image processing device and image processing method | |
CN110276313B (zh) | 身份认证方法、身份认证装置、介质和计算设备 | |
US9589180B2 (en) | Methods and systems for detecting biometric characteristics in an image | |
JP6960058B2 (ja) | 顔照合システム | |
CN117392734B (zh) | 面部数据处理方法、装置、计算机设备和存储介质 | |
CN114067383B (zh) | 基于宏观结构和微观结构图像尺寸的被动三维面部成像 | |
Ratthi et al. | Human height estimation using AI-assisted computer vision for intelligent video surveillance system | |
CN118658195A (zh) | 眨眼检测方法、装置、设备、存储介质和程序产品 | |
TW202326514A (zh) | 真人辨識方法及其系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |