CN109684924A - 人脸活体检测方法及设备 - Google Patents
人脸活体检测方法及设备 Download PDFInfo
- Publication number
- CN109684924A CN109684924A CN201811389912.7A CN201811389912A CN109684924A CN 109684924 A CN109684924 A CN 109684924A CN 201811389912 A CN201811389912 A CN 201811389912A CN 109684924 A CN109684924 A CN 109684924A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- depth
- human face
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 238000001727 in vivo Methods 0.000 title claims abstract description 51
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000004590 computer program Methods 0.000 claims abstract description 5
- 238000010606 normalization Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000003780 insertion Methods 0.000 claims description 6
- 230000037431 insertion Effects 0.000 claims description 6
- 230000008439 repair process Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- 230000004927 fusion Effects 0.000 abstract description 5
- 230000000875 corresponding effect Effects 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种人脸活体检测方法及装置,所述方法包括如下步骤:S1、接收包含人脸区域的深度图像、彩色图像、红外图像,并进行配准;S2、检测所述深度图像、彩色图像、红外图像中的人脸区域;S3、对所述人脸区域深度图像预处理实现图像增强并提取有效人脸深度图像;S4、将所述有效人脸深度图像、人脸区域的彩色图像和红外图像分别输入至经训练的级联深度卷积神经网络,进行精确的人脸活体检测。所述装置包含有用于实现上述方法的计算机程序。通过多源信息融合及级联深度卷积神经网络,解决了传统单目彩色相机无法较好恢复出人脸三维信息的问题,并提升了人脸识别的准确率。
Description
技术领域
本发明涉及一种人脸活体检测方法及设备。
背景技术
人脸活体检测技术是面向人工智能领域的一项前沿技术,该技术以新型的3D传感器为依托,以深度学习技术为开发框架,诣在对人脸识别领域中,真实人脸和虚假人脸进行有效判断,从而抵抗非法虚假人脸对人脸识别系统的攻击,为具有人脸识别的应用提供安全性更高的应用环境。
静态人脸活体检测是一种从深度图像中检测其包含的人脸区域是否为当前设备采集到的真实人脸的技术。如果检测结果为真则输出1,为假则输出0。实现人脸活体检测的前提是构建人脸活体检测器。一般来说,现有技术通过如下几种方式构建人脸检测器。
技术一:利用翻拍的人脸彩色图像的纹理信息分析翻拍图像质量。由于翻拍的图像会产生较多的噪声。如果是对着电子屏幕进行翻拍,由于屏幕的时间分辨率与相机频率的不同会产生莫列干涉,从而使得图像上产生条带噪声,根据不同噪声进行分析判断是否为真实人脸。该技术中,当前部分拍照设备分辨率较高、图像信噪比较高,从而对噪声判断技术带来不确定的因素。
技术二:利用虚假人脸区域与其背景的一致性来判别。虚假人脸往往是通过打印或在硬件媒体上以播放的形式进行静态或动态展示。然而虚假人脸区域的领域或边缘背景在纸张或媒体硬件设备的运动过程中,与虚假人脸不产生运动差异,保持一致性。基于该特点,在视频图像中可利用运动检测与判定虚假人脸与否。该技术中需要利用视频帧信息,增加了系统的运算复杂度,同时用户体验性较差。
技术三:人脸局部信息的非刚性运动。虚假静态人脸图像无论出于何种运动都为刚性运动,而真实人脸在视频中会产生面部细微的非刚性变化,从而根据此差异可以判定真实人脸与否。该技术中,需要采用高时间分辨率的采集设备,同时从刚性的变化真实人脸运动中(如头部转动)提取非刚性面部信息,为活体检测时效性的提升和算法复杂度的降低带来困难。
技术四:人脸三维重构。真实人脸的3D信息与虚假的电子设备描述的人脸3D信息有很强的区分度。利用相机的多角度拍摄以及相机内部参数,重构出人脸关键点深度信息,根据关键点的深度信息进行有监督的人脸判定。该技术需要对相机内部参数进行标定,而相机内部参数的标定的准确性、拍摄不同图像的相机之间的旋转位移关系以及图像的质量对重构的人脸深度值有极大的影响,因此该方法对活体检测的误检率较高。
发明内容
本发明的目的在于提出一种人脸活体检测方法及设备,提升人脸活体检测的准确率。
为此,本发明提出的人脸活体检测方法包括如下步骤:S1、接收包含人脸区域的深度图像、彩色图像、红外图像,并进行配准;S2、检测所述深度图像、彩色图像、红外图像中的人脸区域;S3、对所述人脸区域深度图像预处理实现图像增强并提取有效人脸深度图像;S4、将所述有效人脸深度图像、人脸区域的彩色图像和红外图像分别输入至经训练的级联深度卷积神经网络,进行精确的人脸活体检测。
在本发明的一些实施例中,还包括如下特征:
所述级联深度卷积神经网络由两个经训练的深度卷积神经网络级联组成,每一个深度卷积神经网络均包括输入层、卷积层、池化层、全连接层、softmax层和输出层,输入层对所述有效人脸深度图像进行格式、大小调整,卷积层和池化层分别进行卷积、池化操作,输出层为一个全连接网络,经过最后一级的softmax层预测后得到一个大小为1×2的向量输出,用于人脸活体二分类判别。
步骤S4中,将有效人脸深度图像输入至第一级深度卷积神经网络中进行人脸活体检测,如果检测结果为虚假人脸,则检测结束;如果检测结果为真实人脸,则进入第二级深度卷积神经网络,将与所述有效人脸深度图像对应的人脸区域彩色图像和红外图像输入至第二级深度卷积神经网络进行人脸精确检测,最终判定为真实人脸还是虚假人脸。
在步骤S1中,配准时,找到深度图像、彩色图像、红外图像三者坐标的对应关系以消除视差;在步骤S2中,通过检测出彩色图像中的人脸区域,根据对应关系定位出深度图像和红外图像的人脸区域。
步骤S2中检测所述深度图像、彩色图像、红外图像中的人脸区域,具体包括如下内容:S21、根据人脸检测算法判断在一幅包含人脸的彩色图像上检测到几个人脸,如果人脸个数等于1,则标记该人脸区域的矩形框左上顶点的坐标以及矩形框的长和宽,相关表达式表示为(x,y,width,height);S22、如果人脸个数大于1,记为N,则根据检测出的人脸区域矩形框的长和宽的值计算人脸矩形区域的面积Si,i∈(1,…,N);将所有N个人脸区域的面积进行降序排列,选取最大值并输出对应人脸区域彩色图像的相关表达式(x,y,width,height);S23、再根据检测到的人脸区域彩色图像的坐标位置(x,y),对该彩色图像以及对应深度图像和红外图像上进行人脸区域截取,并将截取的人脸区域的彩色图像、深度图像和红外图像保存至存储器。
步骤S3中,对检测到的人脸区域深度图像进行深度预处理,以获取有效人脸深度图像,具体包含如下步骤:S31、对人脸区域深度图像中没有深度信息的噪声区域进行修复;S32、对修复完成的人脸区域深度图像L进行第一次归一化;S33、对人脸区域深度图像进行深度连通域分割;S34、对深度图像进行有效人脸深度图像提取;S35、对有效人脸深度图像进行二次归一化;S36、对输出的有效人脸深度图进行人脸尺度信息嵌入。
步骤S31具体包括:针对每一幅人脸区域深度图像,根据均值估计法对人脸区域深度图像中没有深度信息的噪声区域进行修复:首先设定第一滑动窗口,对较大的深度缺失区域进行第一遍深度修复,其次设定第二滑动窗口,对较小深度缺失区域进行第二遍深度修复,输出图像L;其中第一滑动窗口的大小大于第二滑动窗口的大小。
所述输入层用于对接收到的有效人脸深度图像进行图像大小和格式转换,包括:将正负人脸深度图像进行三次复制,并保存为三通道的彩色图像png格式,并利用双线性插值法将图像分辨率归一化成指定大小。
所述深度卷积神经网络的训练步骤包括:步骤601、接收多幅人脸深度图像、彩色图像和红外图像,检测人脸区域的深度图像、彩色图像和红外图像并保存到存储器;步骤602、对人脸区域深度图像分别进行深度预处理实现图像增强,并提取有效人脸深度图像;步骤603、将有效人脸深度图像输入至第一级深度卷积神经网络进行训练,得到一个大小为1×2的向量输出,用于人脸活体二分类判别;同时将与所述人脸区域深度图像对应的人脸区域彩色图像和人脸区域红外图像输入至第二级深度卷积神经网络进行训练,得到一个大小为1×2的向量输出,用于人脸活体二分类判别。
步骤601中,通过深度相机同时采集多幅经配准的包含人脸的彩色图像、深度图像和红外图像,再通过人脸检测方案检测到多幅人脸区域深度图像、彩色图像和红外图像并保存到存储器制作成人脸活体检测数据库。
所述人脸活体检测数据库包括人脸正样本数据库和人脸负样本数据库;其中,人脸正样本数据库包含采集人脸姿态在俯仰、航偏、翻滚角在(-30°,30°)范围内的包含人脸的深度图像;人脸负样本数据库通过模拟数据生成和虚假人脸拍摄两种手段完成。
本发明还包括一种基于深度图像的人脸活体检测设备,包括相机、处理器和存储器,所述相机用于采集包括深度图像在内的图像,所述存储器用于存储数据,包括存储所述相机采集的图像、所述处理器执行时所需的指令程序;处理器与所述存储器、相机连接,用于控制所述相机以及执行存储器内部保存的指令程序,所述指令程序用于执行上述的人脸活体检测方法。
本发明还提出一种计算机存储介质,其存储有计算机程序,所述计算机程序可用于执行以实现上述的人脸活体检测方法。
本发明的有益效果是:通过设计一种多源信息融合的人脸活体检测方法及设备,解决了传统单目彩色相机无法较好恢复出人脸三维信息的问题,多源信息的融合检测提升了人脸识别的准确率。
在一些实施例中,通过人脸尺度信息嵌入剔除了类似人脸深度信息的干扰。
附图说明
图1是根据本发明一个实施例的人脸活体检测设备的结构示意图。
图2是根据本发明一个实施例的人脸活体检测步骤示意图。
图3是根据本发明一个实施例的人脸区域图像的检测过程示意图。
图4是根据本发明一个实施例的深度卷积神经网络示意图。
图5是根据本发明一个实施例的级联深度卷积神经网络示意图。
图6是根据本发明一个实施例的级联深度卷积神经网络的训练步骤示意图。
具体实施方式
下面结合附图通过具体实施例对本发明进行详细的介绍,以使更好的理解本发明,但下述实施例并不限制本发明范围。另外,需要说明的是,下述实施例中所提供的图示仅以示意方式说明本发明的基本构思,附图中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的形状、数量及比例可为一种随意的改变,且其组件布局形态也可能更为复杂。
背景技术中所述的四种人脸活体检测技术主要基于单帧彩色图像或者视频图像,技术一基于单帧彩色图像的技术,主要通过对图像的纹理进行特征挖掘对图像的噪声进行分析达到判定真实或虚假人脸的目的。技术二、三基于视频的图像,主要利用视频帧之间的连续性判断人体表情或者脸部姿态的细微变化,从而判定真实人脸与否。技术四是通过各个不同角度的相机拍摄,利用立体视觉技术重构出三维人脸关键点的深度信息分布,并结合有监督学习的方法判别真实人脸与否。
经本发明研究发现,现有技术主要存在的问题是,所设计的活体检测方案过于依赖图像的彩色纹理信息,而忽略了真实人脸的三维信息,从而造成设计的模型复杂度过高,并且模型的泛化性能较弱。同时,现有技术主要依赖于传统的单目彩色相机,无法较好的恢复出人脸的三维信息,从而对识别率有较大的影响。本申请的下述实施例中对此进行了改进。
图1是根据本发明一个实施例的人脸活体检测设备的结构示意图,设备10包括集成在同一设备中的相机101、处理器102和存储器103。相机101用于采集图像,比如深度(Depth)图像、彩色(RGB)图像、红外(IR)图像等;存储器103用于存储数据,比如存储相机101采集的图像(存储于图像存储104中)、处理器102执行时所需的指令程序(存储于指令存储105中)等;处理器102与存储器103、相机101连接,用于控制相机101以及执行存储器103内部保存的指令程序。设备10可以是手机、计算机、平板电脑、电视、游戏机等计算设备。
在利用设备10进行人脸活体检测时,由相机101采集包含人脸的深度图像、彩色图像和红外图像,可以保存到存储器103中,也可以直接被处理器102接收,随后处理器102将调用保存在存储器103中的人脸活体检测程序,并执行相关的人脸活体检测指令。可以理解的是,存储器103内部的指令存储105模块内部已包含了检测人脸区域图像的指令程序,以及深度图像预处理的指令程序,还包含了经训练的深度卷积神经网络。
图2是根据本发明一个实施例的人脸活体检测步骤示意图。在本实施例中,相机101采集彩色图像、红外图像和深度图像,并将其传输到处理器102中以执行人脸活体检测。在步骤201中,处理器接收深度图像、彩色图像和红外图像,并对深度图像、红外图像与彩色图像进行配准,即找到三者坐标的对应关系以消除视差;在步骤202中,通过检测出彩色图像中的人脸区域,根据对应关系定位出深度图像和红外图像的人脸区域;在步骤203中,对人脸区域的深度图像进行预处理以实现图像增强,同时提取有效人脸深度图像,最后在步骤204中将有效人脸深度图像、人脸区域彩色图像和人脸区域红外图像分别输入至经训练的级联深度卷积神经网络,以检测所述人脸是真实人脸或虚假人脸。
图3为根据本发明一个实施例的人脸区域图像的检测过程示意图。图30包含了用深度相机101采集的包含人脸304的彩色图像301、包含人脸305的深度图像302、包含人脸306的红外图像303,人脸区域彩色图像307、人脸区域深度图像308和人脸区域红外图像309。需要说明的是,深度相机101采集的包含人脸的彩色图像301、包含人脸的深度图像302和包含人脸的红外图像303为多幅且一一配准,此外,在一幅包含人脸的彩色图像301上可能包含多个人脸304,在相应的人脸深度图像302和人脸红外图像303中将有一一对应的人脸305和306。
在一个具体的实施例中是通过Adaboost人脸检测算法检测人脸区域深度图像和人脸区域红外图像,具体实施步骤包括如下内容:
(1)根据检测算法判断在一幅包含人脸的彩色图像301上检测到几个人脸,如果人脸个数等于1,则标记该人脸区域的矩形框左上顶点的坐标以及矩形框的长和宽,相关表达式表示为(x,y,width,height);
(2)如果人脸个数大于1,记为N,则根据检测出的人脸区域矩形框的长和宽的值计算人脸矩形区域的面积Si,i∈(1,…,N)。将所有N个人脸区域的面积进行降序排列,选取最大值并输出对应人脸区域彩色图像307的相关表达式(x,y,width,height);
(3)再根据检测到的人脸区域彩色图像307的坐标位置(x,y),对该彩色图像以及对应深度图像和红外图像上进行人脸区域截取,并将截取的人脸区域的彩色图像307、深度图像308和红外图像309分别保存至存储器103中。
在上述人脸活体检测过程中,处理器102根据存储器103内部保存的执行指令,对检测到的人脸区域深度图像进行深度预处理,以获取有效人脸深度图像,在一个实施例中,预处理包含如下步骤:
(1)对人脸区域深度图像308中没有深度信息的噪声区域进行修复;
根据本发明的一个实施例,具体实施方式为,针对每一幅人脸区域深度图像308,根据均值估计法对人脸区域深度图像308中没有深度信息的噪声区域进行修复。首先设定滑动窗口的大小为5*5,对较大的深度缺失区域进行第一遍深度修复,其次设定滑动窗口大小为3*3,对较小深度缺失区域进行第二遍深度修复,输出图像L。
(2)对修复完成的人脸区域深度图像L进行第一次归一化;根据本发明的一个实施例,具体实施过程包含如下内容;
(a)设定背景移除阈值为T=3000;根据阈值T将人脸区域深度图像中深度值大于T的像素值设为零,此时图像记为Iz;
(b)根据背景深度置0后的人脸区域深度图像Iz计算前景区域(非0像素值)的最大深度值,记为Vforground_max;
(c)将背景深度值为0的像素置为Inf;并计算当前状态下人脸区域深度图像中像素值中的最小深度值,记为Vforground_min;
(d)对当前人脸区域深度图像中的像素值进行归一化操作,归一化后图像记为Inorm_face,公式如下:
Inorm_face=(Iz-Vforground_min)./(Vforground_max-Vforground_min)
(e)在人脸区域深度图像Inorm_face中,查找深度值为之前置为Inf的背景像素,将其置为1;此时,所述人脸区域深度图像的前景区域的像素值在(0~1)区间内,第一次归一化结束。
(3)对人脸区域深度图像进行深度连通域分割,根据本发明一个具体实施例,具体实施步骤包含如下内容;
(a)设置深度连续性参数Tdepth为0.6,初始化标签i=0;
(b)将连通域表、连通域均值表均初始化,连通域表记为L,L为一个与人脸区域深度图像Inorm_face同等长和宽的全零矩阵,该表对应图像Inorm_face中所有像素的类别标签;连通域均值表记为M;初始化为全零矩阵,大小与L矩阵相同;
(c)以从左到右、从上到下的顺序,查找第一个类别标签为0的像素,并将该像素设置为后续扫描的初始像素,记为Pi,将其类别标签更新为i=i+1,并同时将连通域表L中对应像素Pi坐标的值更新为i,随后将连通域均值表M中对应Pi位置的值更新为Pi深度值,记为Vi;
(d)以当前Pi为扫描初始点,再次以从左到右、从上到下的顺序,根据8邻域准则计算像素Pi与其周围8邻域中每个像素Pn深度值的绝对值平方差,记为E(i,n);如果像素Pn与当前像素Pi的E(i,n)小于深度连续性参数Tdepth,则将连通域表L中对应像素Pn坐标的值更新为i;
(e)查找L中值为i的元素的坐标,记为L(i);计算图像中坐标为L(i)所对应深度值的均值,记为M(i);
(f)更新连通域均值表M中坐标为L(i)的像素值M(i);
(g)根据(d)的计算规则,遍历整幅图像Inorm_face,同时不断更新L,M;
(i)重复迭代(c)到(g)过程,直到连通域表L中所有的元素值不为零时,停止迭代,深度连通域分割结束并输出图像N;
(4)对深度图像N进行有效人脸深度图像提取,根据本发明一个实施例,具体实施过程包含如下内容;
(a)对深度图像N中所有平均深度值由小到大进行排列,并去除重复数值;
(b)计算(a)中每个深度值对应的像素个数;
(c)查找存在某个平均深度值最多的像素对应的坐标,并将此类像素坐标对应的深度值置为1,非此类像素坐标对应的深度值置为0,此时将深度图像记为Nbinary;
(d)计算有效人脸深度图像为:Nextract=Nbinary∩Inorm_face。
(5)对有效人脸深度图像进行二次归一化,根据本发明一个实施例,具体实施步骤包含如下内容:
(a)找出有效人脸深度图像Nextract的最大深度值,记为Vextract_max,同时将有效人脸深度图像中深度值为0的像素值置为Inf;
(b)计算置Inf后有效人脸深度深度图像Nextract的最小深度值,记为Vextract_min;
(c)对有效人脸深度图像进行二次归一化,记为Nnorm_face,计算公式如下:
Nnorm_face=(Nextract-Vextract_min)./(Vextract_max-Vextract_min)
(d)查找此前深度值为Inf的像素置为1,并输出有效人脸深度图像Nnorm_face;
(6)对输出的有效人脸深度图像Nnorm_face进行人脸尺度信息嵌入,来剔除类似人脸深度分布而非人脸尺寸目标的干扰,根据本发明一个实施例,具体实施过程包含如下内容;
(a)根据人脸检测算法得到的人脸区域深度图像的坐标,计算该区域的像素面积,记为其中k表示该人脸的标号;
(b)计算所述图像Nnorm_Face中,每个像素值与该人脸区域像素面积的比值,记为
(c)对每个像素点重新赋值,其值为上一步计算得到的每个像素对应的
此时,深度预处理结束,输出具有人脸深度信息的有效人脸深度图像O。
在上述人脸活体检测过程中,处理器102根据存储器103内部的执行指令,将深度预处理后提取的有效人脸深度图像、通过人脸检测得到的与所述有效人脸深度图像对应的人脸区域彩色图像和人脸区域红外图像分别输入至经训练的级联深度卷积神经网络,以检测所述人脸是真实人脸或虚假人脸。
图4为根据本发明一个实施例的深度卷积神经网络示意图。该网络结构40由输入层401、卷积层402、池化层403、全连接层404、softmax层405和输出层406组成。其中,输入层401用于对接收到的有效人脸深度图像进行图像大小和格式转换,并输入至卷积层402,卷积层402包含cov1、cov2、cov3共三个卷积层对人脸图像进行卷积操作,池化层403包括pool1、pool2、pool3、pool4共四个池化层对人脸图像进行池化操作,第二层卷积神经网络(cov2)分别进行了两种不同大小(2×2)以及(4×4)的池化操作;全连接层404为一个长度为1×120的全连接网络,经过softmax层405预测后得到一个大小为1×2的向量在输出层406输出,用于人脸活体二分类判别。
图5为根据本发明一个实施例的级联深度卷积神经网络示意图。网络50包含第一级深度卷积神经网络502和第二级深度卷积神经网络508,即由两个深度卷积神经网络(CNN)503组成。将有效人脸深度图像501输入至第一级深度卷积神经网络503中进行人脸活体检测,如果检测结果为虚假人脸504,则检测结束506;如果检测结果为真实人脸505,则进入第二级深度卷积神经网络508,将与所述有效人脸深度图像对应的人脸区域彩色图像和红外图像输入至第二级深度卷积神经网络508进行人脸精确检测,最终判定为真实人脸509还是虚假人脸510。
在一个实施例中,第一级检测网络中的深度卷积神经网络503,其输入层用于对接收到的有效人脸深度图像进行图像大小和格式转换,包括:将正负人脸深度图像进行三次复制,并保存为三通道的彩色图像png格式,并利用双线性插值法将图像分辨率归一化成55*47大小;第二级检测网络中的深度卷积神经网络503,其输入层将人脸区域彩色图像联合人脸区域红外图像并联组成四通道的彩色图像png格式,并利用双线性插值法将图像分辨率归一化成55*47大小。
图6为根据本发明一个实施例的级联深度卷积神经网络的训练步骤示意图。步骤601为接收多幅人脸深度图像、彩色图像和红外图像,检测人脸区域的深度图像、彩色图像和红外图像并保存到存储器103;再通过步骤602对人脸区域深度图像进行深度预处理实现图像增强,并提取有效人脸深度图像;最后通过步骤603将有效人脸深度图像输入至第一级深度卷积神经网络进行训练,得到一个大小为1×2的向量输出,用于人脸活体二分类判别;同时将与所述人脸区域深度图像对应的人脸区域彩色图像和人脸区域红外图像输入至第二级深度卷积神经网络进行训练,得到一个大小为1×2的向量输出,用于人脸活体二分类判别。
步骤601为接收多幅人脸深度图像、彩色图像和红外图像,检测人脸区域的深度图像、彩色图像和红外图像并保存到存储器;在本发明一个实施例中,可通过上文中提到的人脸区域图像的检测方案,即,通过深度相机同时采集多幅经配准的包含人脸的彩色图像、深度图像和红外图像,再通过人脸检测方案检测到多幅人脸区域深度图像、彩色图像和红外图像并保存到存储器103制作成人脸活体检测数据库。
在一个实施例中,人脸正样本数据库主要包含采集人脸姿态在俯仰、航偏、翻滚角在(-30°,30°)范围内的包含人脸的深度图像;人脸负样本数据库主要通过模拟数据生成和虚假人脸拍摄两种手段完成。
处理器102根据存储器103内部的指令程序执行步骤602,对人脸区域深度图像分别进行深度预处理实现图像增强,并提取有效人脸深度图像,在一个具体实施例中,可通过如上文提到的深度预处理技术对多幅人脸区域深度图像进行深度预处理,并将提取到的多幅有效人脸深度图像保存到存储器103中。
本发明实施例的技术效果:通过设计一种多源信息融合的人脸活体检测方法及设备,解决了传统单目彩色相机无法较好恢复出人脸三维信息的问题,并且通过人脸尺度信息嵌入剔除了类似人脸深度信息的干扰,多源信息的融合检测提升了人脸识别的准确率。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (14)
1.一种人脸活体检测方法,其特征在于,包括如下步骤:
S1、接收包含人脸区域的深度图像、彩色图像、红外图像,并进行配准;
S2、检测所述深度图像、彩色图像、红外图像中的人脸区域;
S3、对所述人脸区域深度图像预处理实现图像增强并提取有效人脸深度图像;
S4、将所述有效人脸深度图像、人脸区域的彩色图像和红外图像分别输入至经训练的级联深度卷积神经网络,进行精确的人脸活体检测。
2.如权利要求1所述的人脸活体检测方法,其特征在于,所述级联深度卷积神经网络由两个经训练的深度卷积神经网络级联组成,每一个深度卷积神经网络均包括输入层、卷积层、池化层、全连接层、softmax层和输出层,输入层对所述有效人脸深度图像进行格式、大小调整,卷积层和池化层分别进行卷积、池化操作,输出层为一个全连接网络,经过最后一级的softmax层预测后得到一个大小为1×2的向量输出,用于人脸活体二分类判别。
3.如权利要求2所述的人脸活体检测方法,其特征在于,步骤S4中,将有效人脸深度图像输入至第一级深度卷积神经网络中进行人脸活体检测,如果检测结果为虚假人脸,则检测结束;如果检测结果为真实人脸,则进入第二级深度卷积神经网络,将与所述有效人脸深度图像对应的人脸区域彩色图像和红外图像输入至第二级深度卷积神经网络进行人脸精确检测,最终判定为真实人脸还是虚假人脸。
4.如权利要求1所述的人脸活体检测方法,其特征在于,在步骤S1中,配准时,找到深度图像、彩色图像、红外图像三者坐标的对应关系以消除视差;在步骤S2中,通过检测出彩色图像中的人脸区域,根据对应关系定位出深度图像和红外图像的人脸区域。
5.如权利要求4所述的基于深度图像的人脸活体检测方法,其特征在于:步骤S2中检测所述深度图像、彩色图像、红外图像中的人脸区域,具体包括如下内容:
S21、根据人脸检测算法判断在一幅包含人脸的彩色图像上检测到几个人脸,如果人脸个数等于1,则标记该人脸区域的矩形框左上顶点的坐标以及矩形框的长和宽,相关表达式表示为(x,y,width,height);
S22、如果人脸个数大于1,记为N,则根据检测出的人脸区域矩形框的长和宽的值计算人脸矩形区域的面积Si,i∈(1,…,N);将所有N个人脸区域的面积进行降序排列,选取最大值并输出对应人脸区域彩色图像的相关表达式(x,y,width,height);
S23、再根据检测到的人脸区域彩色图像的坐标位置(x,y),对该彩色图像以及对应深度图像和红外图像上进行人脸区域截取,并将截取的人脸区域的彩色图像、深度图像和红外图像保存至存储器。
6.如权利要求1所述的基于深度图像的人脸活体检测方法,其特征在于:步骤S3中,对检测到的人脸区域深度图像进行深度预处理,以获取有效人脸深度图像,具体包含如下步骤:S31、对人脸区域深度图像中没有深度信息的噪声区域进行修复;
S32、对修复完成的人脸区域深度图像L进行第一次归一化;
S33、对人脸区域深度图像进行深度连通域分割;
S34、对深度图像进行有效人脸深度图像提取;
S35、对有效人脸深度图像进行二次归一化;
S36、对输出的有效人脸深度图进行人脸尺度信息嵌入。
7.如权利要求6所述的基于深度图像的人脸活体检测方法,其特征在于:步骤S31具体包括:针对每一幅人脸区域深度图像,根据均值估计法对人脸区域深度图像中没有深度信息的噪声区域进行修复:首先设定第一滑动窗口,对较大的深度缺失区域进行第一遍深度修复,其次设定第二滑动窗口,对较小深度缺失区域进行第二遍深度修复,输出图像L;其中第一滑动窗口的大小大于第二滑动窗口的大小。
8.如权利要求3所述的基于深度图像的人脸活体检测方法,其特征在于:所述输入层用于对接收到的有效人脸深度图像进行图像大小和格式转换,包括:将正负人脸深度图像进行三次复制,并保存为三通道的彩色图像png格式,并利用双线性插值法将图像分辨率归一化成指定大小。
9.如权利要求1-3中任一项权利要求所述的基于深度图像的人脸活体检测方法,其特征在于,所述深度卷积神经网络的训练步骤包括:
步骤601、接收多幅人脸深度图像、彩色图像和红外图像,检测人脸区域的深度图像、彩色图像和红外图像并保存到存储器;
步骤602、对人脸区域深度图像分别进行深度预处理实现图像增强,并提取有效人脸深度图像;
步骤603、将有效人脸深度图像输入至第一级深度卷积神经网络进行训练,得到一个大小为1×2的向量输出,用于人脸活体二分类判别;同时将与所述人脸区域深度图像对应的人脸区域彩色图像和人脸区域红外图像输入至第二级深度卷积神经网络进行训练,得到一个大小为1×2的向量输出,用于人脸活体二分类判别。
10.如权利要求9所述的基于深度图像的人脸活体检测方法,其特征在于:步骤601中,通过深度相机同时采集多幅经配准的包含人脸的彩色图像、深度图像和红外图像,再通过人脸检测方案检测到多幅人脸区域深度图像、彩色图像和红外图像并保存到存储器制作成人脸活体检测数据库。
11.如权利要求10所述的基于深度图像的人脸活体检测方法,其特征在于:所述人脸活体检测数据库包括人脸正样本数据库和人脸负样本数据库;其中,人脸正样本数据库包含采集人脸姿态在俯仰、航偏、翻滚角在(-30°,30°)范围内的包含人脸的深度图像;人脸负样本数据库通过模拟数据生成和虚假人脸拍摄两种手段完成。
12.如权利要求6所述的基于深度图像的人脸活体检测方法,其特征在于:步骤S36中对输出的有效人脸深度图进行人脸尺度信息嵌入,其目的是剔除类似人脸深度分布而非人脸尺寸目标的干扰。
13.一种基于深度图像的人脸活体检测设备,其特征在于:包括相机、处理器和存储器,所述相机用于采集包括深度图像在内的图像,所述存储器用于存储数据,包括存储所述相机采集的图像、所述处理器执行时所需的指令程序;处理器与所述存储器、相机连接,用于控制所述相机以及执行存储器内部保存的指令程序,所述指令程序用于执行如权利要求1到12中任一权利要求中所述的人脸活体检测方法。
14.一种计算机存储介质,其特征在于,其存储有计算机程序,所述计算机程序可用于执行以实现如权利要求1到12中任一权利要求中所述的人脸活体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811389912.7A CN109684924B (zh) | 2018-11-21 | 2018-11-21 | 人脸活体检测方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811389912.7A CN109684924B (zh) | 2018-11-21 | 2018-11-21 | 人脸活体检测方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109684924A true CN109684924A (zh) | 2019-04-26 |
CN109684924B CN109684924B (zh) | 2022-01-14 |
Family
ID=66184914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811389912.7A Active CN109684924B (zh) | 2018-11-21 | 2018-11-21 | 人脸活体检测方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109684924B (zh) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287672A (zh) * | 2019-06-27 | 2019-09-27 | 深圳市商汤科技有限公司 | 验证方法及装置、电子设备和存储介质 |
CN110580454A (zh) * | 2019-08-21 | 2019-12-17 | 北京的卢深视科技有限公司 | 活体检测方法及装置 |
CN110659617A (zh) * | 2019-09-26 | 2020-01-07 | 杭州艾芯智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110674800A (zh) * | 2019-12-04 | 2020-01-10 | 图谱未来(南京)人工智能研究院有限公司 | 一种人脸活体检测方法、装置、电子设备及存储介质 |
CN110827375A (zh) * | 2019-10-31 | 2020-02-21 | 湖北大学 | 一种基于微光图像的红外图像真彩着色方法及系统 |
CN111079576A (zh) * | 2019-11-30 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN111091063A (zh) * | 2019-11-20 | 2020-05-01 | 北京迈格威科技有限公司 | 活体检测方法、装置及系统 |
CN111611934A (zh) * | 2020-05-22 | 2020-09-01 | 北京华捷艾米科技有限公司 | 一种人脸检测模型生成和人脸检测方法、装置及设备 |
CN111695406A (zh) * | 2020-04-23 | 2020-09-22 | 西安电子科技大学 | 一种基于红外线的人脸识别反欺骗方法、系统及终端 |
CN111738988A (zh) * | 2020-06-02 | 2020-10-02 | 北京三快在线科技有限公司 | 人脸深度图像生成方法、装置、电子设备和存储介质 |
CN111753794A (zh) * | 2020-06-30 | 2020-10-09 | 创新奇智(成都)科技有限公司 | 水果品质分类方法、装置、电子设备及可读存储介质 |
CN111860078A (zh) * | 2019-04-30 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111860055A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN112052830A (zh) * | 2020-09-25 | 2020-12-08 | 北京百度网讯科技有限公司 | 人脸检测的方法、装置和计算机存储介质 |
CN112052832A (zh) * | 2020-09-25 | 2020-12-08 | 北京百度网讯科技有限公司 | 人脸检测的方法、装置和计算机存储介质 |
CN112115864A (zh) * | 2020-09-18 | 2020-12-22 | 北京航空航天大学 | 红外图像及深度图像双模态目标分割方法及装置 |
CN112150448A (zh) * | 2020-09-28 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
CN112243117A (zh) * | 2019-07-17 | 2021-01-19 | 杭州海康威视数字技术股份有限公司 | 图像处理装置、方法及摄像机 |
CN112418865A (zh) * | 2020-11-13 | 2021-02-26 | 上海臻面智能信息科技有限公司 | 一种基于安全支付模组的活体检测方法 |
CN112465723A (zh) * | 2020-12-04 | 2021-03-09 | 北京华捷艾米科技有限公司 | 深度图像的修复方法、装置、电子设备和计算机存储介质 |
CN112487921A (zh) * | 2020-11-25 | 2021-03-12 | 奥比中光科技集团股份有限公司 | 一种用于活体检测的人脸图像预处理方法及系统 |
CN112487922A (zh) * | 2020-11-25 | 2021-03-12 | 奥比中光科技集团股份有限公司 | 一种多模态人脸活体检测方法及系统 |
CN112580395A (zh) * | 2019-09-29 | 2021-03-30 | 深圳市光鉴科技有限公司 | 基于深度信息的3d人脸活体识别方法、系统、设备及介质 |
CN112800997A (zh) * | 2020-04-10 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN112802068A (zh) * | 2020-12-24 | 2021-05-14 | 奥比中光科技集团股份有限公司 | 一种同步获取深度、彩色与光谱图像的装置及识别系统 |
CN112818722A (zh) * | 2019-11-15 | 2021-05-18 | 上海大学 | 模块化动态可配置的活体人脸识别系统 |
CN113052142A (zh) * | 2021-04-26 | 2021-06-29 | 的卢技术有限公司 | 一种基于多模态数据的静默活体检测方法 |
CN113449623A (zh) * | 2021-06-21 | 2021-09-28 | 浙江康旭科技有限公司 | 一种基于深度学习的轻型活体检测方法 |
CN113536843A (zh) * | 2020-04-16 | 2021-10-22 | 上海大学 | 基于多模态融合卷积神经网络的防伪人脸识别系统 |
CN115082994A (zh) * | 2022-06-27 | 2022-09-20 | 平安银行股份有限公司 | 人脸活体检测方法、活体检测网络模型的训练方法及装置 |
CN115424330A (zh) * | 2022-09-16 | 2022-12-02 | 郑州轻工业大学 | 一种基于dfmn和dsd的单模态人脸活体检测方法 |
CN115731593A (zh) * | 2022-08-03 | 2023-03-03 | 郑州轻工业大学 | 一种人脸活体检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335722A (zh) * | 2015-10-30 | 2016-02-17 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
US20170345146A1 (en) * | 2016-05-30 | 2017-11-30 | Beijing Kuangshi Technology Co., Ltd. | Liveness detection method and liveness detection system |
CN107590473A (zh) * | 2017-09-19 | 2018-01-16 | 杭州登虹科技有限公司 | 一种人脸活体检测方法、介质和相关装置 |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN107832677A (zh) * | 2017-10-19 | 2018-03-23 | 深圳奥比中光科技有限公司 | 基于活体检测的人脸识别方法及系统 |
CN108124486A (zh) * | 2017-12-28 | 2018-06-05 | 深圳前海达闼云端智能科技有限公司 | 基于云端的人脸活体检测方法、电子设备和程序产品 |
CN108171204A (zh) * | 2018-01-17 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 检测方法和装置 |
CN108776786A (zh) * | 2018-06-04 | 2018-11-09 | 北京京东金融科技控股有限公司 | 用于生成用户真伪识别模型的方法和装置 |
-
2018
- 2018-11-21 CN CN201811389912.7A patent/CN109684924B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335722A (zh) * | 2015-10-30 | 2016-02-17 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
US20170345146A1 (en) * | 2016-05-30 | 2017-11-30 | Beijing Kuangshi Technology Co., Ltd. | Liveness detection method and liveness detection system |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN107590473A (zh) * | 2017-09-19 | 2018-01-16 | 杭州登虹科技有限公司 | 一种人脸活体检测方法、介质和相关装置 |
CN107832677A (zh) * | 2017-10-19 | 2018-03-23 | 深圳奥比中光科技有限公司 | 基于活体检测的人脸识别方法及系统 |
CN108124486A (zh) * | 2017-12-28 | 2018-06-05 | 深圳前海达闼云端智能科技有限公司 | 基于云端的人脸活体检测方法、电子设备和程序产品 |
CN108171204A (zh) * | 2018-01-17 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 检测方法和装置 |
CN108776786A (zh) * | 2018-06-04 | 2018-11-09 | 北京京东金融科技控股有限公司 | 用于生成用户真伪识别模型的方法和装置 |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860055B (zh) * | 2019-04-29 | 2023-10-24 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111860055A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111860078A (zh) * | 2019-04-30 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111860078B (zh) * | 2019-04-30 | 2024-05-14 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN110287672A (zh) * | 2019-06-27 | 2019-09-27 | 深圳市商汤科技有限公司 | 验证方法及装置、电子设备和存储介质 |
CN112243117A (zh) * | 2019-07-17 | 2021-01-19 | 杭州海康威视数字技术股份有限公司 | 图像处理装置、方法及摄像机 |
CN110580454A (zh) * | 2019-08-21 | 2019-12-17 | 北京的卢深视科技有限公司 | 活体检测方法及装置 |
CN110659617A (zh) * | 2019-09-26 | 2020-01-07 | 杭州艾芯智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN112580395A (zh) * | 2019-09-29 | 2021-03-30 | 深圳市光鉴科技有限公司 | 基于深度信息的3d人脸活体识别方法、系统、设备及介质 |
CN110827375B (zh) * | 2019-10-31 | 2023-05-30 | 湖北大学 | 一种基于微光图像的红外图像真彩着色方法及系统 |
CN110827375A (zh) * | 2019-10-31 | 2020-02-21 | 湖北大学 | 一种基于微光图像的红外图像真彩着色方法及系统 |
CN112818722A (zh) * | 2019-11-15 | 2021-05-18 | 上海大学 | 模块化动态可配置的活体人脸识别系统 |
CN112818722B (zh) * | 2019-11-15 | 2023-08-18 | 上海大学 | 模块化动态可配置的活体人脸识别系统 |
CN111091063B (zh) * | 2019-11-20 | 2023-12-29 | 北京迈格威科技有限公司 | 活体检测方法、装置及系统 |
CN111091063A (zh) * | 2019-11-20 | 2020-05-01 | 北京迈格威科技有限公司 | 活体检测方法、装置及系统 |
CN111079576A (zh) * | 2019-11-30 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN111079576B (zh) * | 2019-11-30 | 2023-07-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN110674800A (zh) * | 2019-12-04 | 2020-01-10 | 图谱未来(南京)人工智能研究院有限公司 | 一种人脸活体检测方法、装置、电子设备及存储介质 |
CN112800997B (zh) * | 2020-04-10 | 2024-01-05 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN112800997A (zh) * | 2020-04-10 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN113536843A (zh) * | 2020-04-16 | 2021-10-22 | 上海大学 | 基于多模态融合卷积神经网络的防伪人脸识别系统 |
CN113536843B (zh) * | 2020-04-16 | 2023-07-14 | 上海大学 | 基于多模态融合卷积神经网络的防伪人脸识别系统 |
CN111695406A (zh) * | 2020-04-23 | 2020-09-22 | 西安电子科技大学 | 一种基于红外线的人脸识别反欺骗方法、系统及终端 |
CN111695406B (zh) * | 2020-04-23 | 2023-04-07 | 西安电子科技大学 | 一种基于红外线的人脸识别反欺骗方法、系统及终端 |
CN111611934A (zh) * | 2020-05-22 | 2020-09-01 | 北京华捷艾米科技有限公司 | 一种人脸检测模型生成和人脸检测方法、装置及设备 |
CN111738988A (zh) * | 2020-06-02 | 2020-10-02 | 北京三快在线科技有限公司 | 人脸深度图像生成方法、装置、电子设备和存储介质 |
CN111753794B (zh) * | 2020-06-30 | 2024-02-27 | 创新奇智(成都)科技有限公司 | 水果品质分类方法、装置、电子设备及可读存储介质 |
CN111753794A (zh) * | 2020-06-30 | 2020-10-09 | 创新奇智(成都)科技有限公司 | 水果品质分类方法、装置、电子设备及可读存储介质 |
CN112115864A (zh) * | 2020-09-18 | 2020-12-22 | 北京航空航天大学 | 红外图像及深度图像双模态目标分割方法及装置 |
CN112052830A (zh) * | 2020-09-25 | 2020-12-08 | 北京百度网讯科技有限公司 | 人脸检测的方法、装置和计算机存储介质 |
CN112052832A (zh) * | 2020-09-25 | 2020-12-08 | 北京百度网讯科技有限公司 | 人脸检测的方法、装置和计算机存储介质 |
CN112150448A (zh) * | 2020-09-28 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
CN112150448B (zh) * | 2020-09-28 | 2023-09-26 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
CN112418865A (zh) * | 2020-11-13 | 2021-02-26 | 上海臻面智能信息科技有限公司 | 一种基于安全支付模组的活体检测方法 |
CN112487922B (zh) * | 2020-11-25 | 2024-05-07 | 奥比中光科技集团股份有限公司 | 一种多模态人脸活体检测方法及系统 |
CN112487922A (zh) * | 2020-11-25 | 2021-03-12 | 奥比中光科技集团股份有限公司 | 一种多模态人脸活体检测方法及系统 |
CN112487921A (zh) * | 2020-11-25 | 2021-03-12 | 奥比中光科技集团股份有限公司 | 一种用于活体检测的人脸图像预处理方法及系统 |
CN112487921B (zh) * | 2020-11-25 | 2023-09-08 | 奥比中光科技集团股份有限公司 | 一种用于活体检测的人脸图像预处理方法及系统 |
CN112465723A (zh) * | 2020-12-04 | 2021-03-09 | 北京华捷艾米科技有限公司 | 深度图像的修复方法、装置、电子设备和计算机存储介质 |
CN112802068A (zh) * | 2020-12-24 | 2021-05-14 | 奥比中光科技集团股份有限公司 | 一种同步获取深度、彩色与光谱图像的装置及识别系统 |
CN113052142A (zh) * | 2021-04-26 | 2021-06-29 | 的卢技术有限公司 | 一种基于多模态数据的静默活体检测方法 |
CN113449623A (zh) * | 2021-06-21 | 2021-09-28 | 浙江康旭科技有限公司 | 一种基于深度学习的轻型活体检测方法 |
CN115082994A (zh) * | 2022-06-27 | 2022-09-20 | 平安银行股份有限公司 | 人脸活体检测方法、活体检测网络模型的训练方法及装置 |
CN115731593A (zh) * | 2022-08-03 | 2023-03-03 | 郑州轻工业大学 | 一种人脸活体检测方法 |
CN115424330B (zh) * | 2022-09-16 | 2023-08-11 | 郑州轻工业大学 | 一种基于dfmn和dsd的单模态人脸活体检测方法 |
CN115424330A (zh) * | 2022-09-16 | 2022-12-02 | 郑州轻工业大学 | 一种基于dfmn和dsd的单模态人脸活体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109684924B (zh) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109684924A (zh) | 人脸活体检测方法及设备 | |
CN109684925B (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN105528619B (zh) | 基于小波变换和svm的sar遥感影像变化检测方法 | |
CN113139479B (zh) | 一种基于光流和rgb模态对比学习的微表情识别方法及系统 | |
CN110826389B (zh) | 基于注意力3d频率卷积神经网络的步态识别方法 | |
CN108573231B (zh) | 基于运动历史点云生成的深度运动图的人体行为识别方法 | |
CN111402237B (zh) | 基于时空级联自编码器的视频图像异常检测方法及系统 | |
CN107066969A (zh) | 一种人脸识别方法 | |
CN107766864B (zh) | 提取特征的方法和装置、物体识别的方法和装置 | |
CN112464844A (zh) | 一种基于深度学习与运动目标检测的人体行为动作识别方法 | |
CN113947814A (zh) | 一种基于时空信息增强和多尺度显著性特征提取的跨视角步态识别方法 | |
Liu et al. | FedForgery: generalized face forgery detection with residual federated learning | |
CN110516527B (zh) | 一种基于实例分割的视觉slam回环检测改进方法 | |
CN115147644A (zh) | 图像描述模型的训练和描述方法、系统、设备及存储介质 | |
CN108564043B (zh) | 一种基于时空分布图的人体行为识别方法 | |
Zhang | Innovation of English teaching model based on machine learning neural network and image super resolution | |
Liu et al. | HPN-SOE: Infrared small target detection and identification algorithm based on heterogeneous parallel networks with similarity object enhancement | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 | |
CN114360058B (zh) | 一种基于行走视角预测的跨视角步态识别方法 | |
Yang | Face feature tracking algorithm of aerobics athletes based on Kalman filter and mean shift | |
Deng et al. | Multi-stream face anti-spoofing system using 3D information | |
CN113344987A (zh) | 复杂背景下电力设备的红外与可见光图像配准方法及系统 | |
Yu et al. | A fast robust template matching method based on feature points |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 11-13 / F, joint headquarters building, high tech Zone, 63 Xuefu Road, Yuehai street, Nanshan District, Shenzhen, Guangdong 518000 Applicant after: Obi Zhongguang Technology Group Co., Ltd Address before: 12 / F, joint headquarters building, high tech Zone, 63 Xuefu Road, Nanshan District, Shenzhen, Guangdong 518000 Applicant before: SHENZHEN ORBBEC Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |