CN112434647A - 一种人脸活体检测方法 - Google Patents
一种人脸活体检测方法 Download PDFInfo
- Publication number
- CN112434647A CN112434647A CN202011427024.7A CN202011427024A CN112434647A CN 112434647 A CN112434647 A CN 112434647A CN 202011427024 A CN202011427024 A CN 202011427024A CN 112434647 A CN112434647 A CN 112434647A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- visible light
- processing result
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 25
- 238000010586 diagram Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 238000001727 in vivo Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 7
- 210000000887 face Anatomy 0.000 description 6
- 238000011176 pooling Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种人脸活体检测方法,所述方法包括:获取目标对象的可见光图像和深度图像;利用人脸关键点检测算法检测到人脸区域以及人脸的5个关键点,按照关键点的坐标裁剪出可见光图像和深度图像对应区域的局部图像;对裁剪出来的局部图像分别输入到局部特征网络分支中去,对可见光和深度全局图像分别输入到全局特征的网络分支中;在进行不同网络分支特征叠加之后,进行特征融合,利用分类函数进行二分类,得到第一处理结果和第二处理结果;最后根据第一处理结果和第二处理结果,确定目标对象是否为人脸活体。
Description
技术领域
本发明涉及图像识别领域,特别涉及一种人脸活体检测方法。
背景技术
生物识别系统在诸如手机认证、门禁等领域中大量应用,生物识别系统的安全经受着严峻的考验,而人脸活体检测作为生物识别系统中重要的一项技术,也引来越来越多的关注。活体检测是指通过特征筛选来判断通过镜头获取的生物特征信息是否是从对应的合法活体用户身上取得。而基于人脸的活体检测的主要方法便是通过区分活体样本上的生理信息,这些生理信息作为重要的区分条件来区分纸张、硅脂塑料等样本载体,同样也用于区分纸张攻击、视频攻击和面具攻击等攻击方法。活体样本与非活体·样本主要差别体现在颜色纹理、运动变形、材料以及图像质量等方面。机器学习时代的活体检测算法主要是针对性地设计特征,再通过分类器逐步分离出非活体样本。而深度学习则直接提供了提取特征的办法,通过各式的神经网络来提取活体样本与非活体样本的特征,达到分类目的。与此同时,活体检测算法在嵌入式设备的运行效率和效果也值得关注,有限的计算能力是制约算法执行速度的关键点。基于人脸的活体检测算法大致可以分为两类,第一类就是传统的机器学习方法,另外一类则是基于深度神经网络的方法。对于传统的机器学习算法,主要利用手工特征,比如LBP,HoG,SIFT等特征,然后利用像SVM和LDA分类器进行分类。但是由于这些传统的方法对光照、姿态等变化特别敏感,不能学习到丰富的特征表达,因此不能很好的区分真假人脸。对于一些基于深度神经网络的算法,有些方法利用LSTM机制学习时序信息,这种方法要求网络输入连续的视频帧。有些方法将输入的图像划分为不同图像块,并且进行整体图像的深度图估计,该方法的精确性严重依赖深度图的估计,而图像的深度估计技术本来就还不够成熟。有些方法则利用级联的方法将多个网络的结果结合在一起,但是这种方法泛化性较差,而且如何级联以及如何处理多个网络的结果比较重要。一些方法则结合可见光,深度,红外信息进行分类,但是将16bit深度图像和红外图像转换为8bit图像,这造成了相应的信息损失,而且该方法只利用了图像的局部信息,然后对每个局部信息进行分类,最终的结果为所有局部信息结果的平均值,忽略了全局信息,另外该方法在固定像素位置裁剪图像块,使得裁剪出来的图像块每次都是人脸不同的区域。一些方法则加入一些人为配合(如眨眼睛)的特征进行辅助检测,这种方法严重依赖人为配合,降低了用户的使用感受。所以高效准确地判别人脸图像的真伪来抵抗人脸欺骗攻击已经是当今人脸识别系统必不可少的环节。
现有技术基本上都是采用单模态可见光相机来进行活体检测,但是可见光相机受很多因素的影响,比如常见的光线变化,姿态变化等等,另外对于3维的人脸攻击难以区分。第二,很多活体检测算法采用传统底层特征对真假人脸进行分类,但是这些特征不够鲁棒,经常导致分类失败。第三、很多方法利用深度图像信息时,为了方便,将16bit深度图像转换为8bit,这样会造成一定程度的信息丢失。第四、可见光图像能够捕捉到更丰富的细节信息,而深度图像对距离信息比较敏感。
因此本技术主要结合可见光和原始的16bit深度图像的优势来对真假人脸进行分类,并且提出一种多流神经网络学习到更丰富的语义特征,从而达到识别真假人脸的目的。
发明内容
为了解决上述问题,本发明提出了一种人脸活体检测方法,本方法主要结合可见光和16bit深度图像,采用深度学习的方法,提出一种多流网络的特征学习结构,并且结合全局和局部特征,在学习到鲁棒的特征表达之后,采用softmax函数进行分类,从而识别真假人脸。
本发明提供一种人脸活体检测方法,技术方案如下:
获取目标对象的可见光图像和深度图像的全局图像;
利用人脸关键点检测算法检测到人脸的5个关键点,该5个关键点为左右眼、鼻子和左右嘴角,按照各个关键点的坐标裁剪出可见光图像和深度图像对应区域的局部图像;
将各个所述局部图像分别输入到局部特征网络的分支中去,将所述可见光图像和深度图像的全局图像分别输入到全局特征网络的分支中;
在进行不同网络分支特征叠加之后,进行特征融合,利用分类函数进行二分类,得到第一处理结果和第二处理结果;
根据所述第一处理结果和所述第二处理结果,确定目标对象是否为人脸活体。
其中,所述第一处理结果为第一概率值,所述第一概率值是根据可见光图像和深度图像所确定的目标对象为假人脸的概率;
所述第二处理结果为第二概率值,所述第二概率值是根据可见光图像和深度图像所确定的目标对象为人脸活体的概率。若所述第二概率值大于第一概率值,则确定所述目标对象为所述人脸活体。
所述局部特征网络包括第一神经网络和第二神经网络,所述第一神经网络为可见光图像局部特征网络,提取可见光局部图像特征;所述第二神经网络为深度图像局部特征网络,提取深度图像局部特征。
所述全局特征网络包括第三神经网络和第四神经网络,所述第三神经网络为可见光图像全局特征网络,提取可见光全局图像特征;所述第四神经网络为深度图像全局特征网络,提取深度全局图像特征。
优选的,所述局部特征网络在对所述可见光图像和深度图像的局部图像的处理过程中,融合所述全局特征网络从所述可见光图像和深度图像的全局图像中提取的特征;
优选的,所述特征融合的方式为按照每个神经网络的特征图通道进行堆叠处理,每个神经网络特征图的最后通道数为n,4个神经网络分支进行叠加,得到4n个通道的特征图;其中,所述n为正整数。
优选的,所述人脸检测算法分别得到人脸区域以及人脸的5个关键点坐标,所述5个关键点分别为左眼、右眼、鼻子、左嘴角、右嘴角,将可见光图像和深度图像划分成4个互不重叠的区域。
优选的,所述深度图像的颜色深度为16位。
优选的,所述分类函数为softmax函数,利用softmax函数进行二分类,得到每个图像特征的置信度,结合后输出为第一处理结果和第二处理结果。
与现有技术相比,本发明的益处有:
1、结合全局和局部特征,分类效果更好;
1、利用关键点进行裁剪局部区域,关键点部分特征更加明显;
3、结合可见光、深度图像的特征能够防御更多的攻击类别;
4、16bit深度图像不会损失任何信息;
5、16bit深度图像能够测量出相机距离目标的距离,能够使得检测目标与相机距离可控,便于算法的部署。
附图说明
图1为一种人脸活体检测方法流程图;
图2为人脸活体检测方法的网络结构图;
具体实施方式
以下将结合附图所示的具体实施方式对本发明进行详细描述,但这些实施方式并不限制本发明,本领域的普通技术人员根据这些实施方式所做出的结构、方法、或功能上的变换均包含在本发明的保护范围内。
如图1所示,其表示本申请一个实施例提供的人脸活体检测方法的流程图。该方法包括步骤如下:
步骤101,从可见光深度相机中获取目标对象的可见光图像和16bit深度图像,获取到的两者图像称为全局图;
目标对象的可见光图像是指通过摄像头对目标对象进行拍摄得到的彩色图像,可见光图像的每个像素值采用R(红)、G(绿)、B(蓝)三个通道的颜色分量来表示。目标对象的深度图像是能够反映目标对象中各点到摄像头的距离作为像素值的图像,深度图像可以直接反映物体可见表面的几何形状。因此两种特征的图像具备互补性,两种图像的特征融合能够防御更多类型的欺诈、攻击手段。
步骤102,利用人脸关键点检测算法检测到人脸的5个关键点,按照关键点的坐标裁剪出可见光图像和深度图像对应区域的局部图像;
利用人脸检测算法多任务神经网络分别得到人脸区域以及人脸的5个关键点坐标,5个关键点分别为左眼,右眼,鼻子,左嘴角,右嘴角,5个关键点的x,y坐标分别表示为le(x,y),re(x,y),n(x,y),lm(x,y),rm(x,y);
利用5个关键点对可见光图像和深度图像划分成4个互不重叠区域,针对人的眼睛,鼻子,嘴巴,通过大数据统计得到眼睛,鼻子,嘴巴的宽高分别为w_e,h_e,w_n,h_n,w_m,h_m;对于眼睛和鼻子,分别以各自的关键点作为矩形的中心坐标.对于嘴巴关键点,利用lm和rm计算得到嘴巴中心点的坐标.利用(X_c-W_*/2,Y_c-H_*/2)可计算得到眼睛,鼻子和嘴巴矩形框的左上角坐标信息,其中X_c,Y_c表示关键点的中心坐标,W_*,H_*表示关键点部位的宽高,然后利用左上角坐标信息以及各自关键点的宽高可裁剪出相应的局部区域,得到局部图像。
步骤103,如图2所示,对裁剪出来可见光和深度图像的局部图像分别输入到局部特征网络分支中去,对可见光和深度全局图像分别输入到全局特征的网络分支中;可见光图像的局部图像输入到第一神经网络,深度图像的局部图像输入到第二神经网络;可见光图像的全局图像输入到第三神经网络,深度图像的全局图像输入到第四神经网络;
在多流神经网络的中间将局部特征和全局特征结合,可选地,局部特征网络在对可见光图像和深度图像的局部图像的处理过程中,融合全局特征网络从可见光图像和深度图像的全局图像中提取的特征;特征融合的方式为按照每个神经网络的特征图通道进行堆叠,每个神经网络特征图的最后通道数为256,4个分支进行叠加,得到1024个通道的特征图;
步骤104,在进行不同分支特征叠加之后,采用Squeeze and Excitation模块进行特征融合;最后利用softmax分类函数进行二分类,softmax目标函数如下:
S0表示假人脸的置信度,S1表示真人脸的置信度,且S0+S1=1;
步骤105,每个局部图像块和全局图像块都会得到对应的S0和S1,一共会得到4对S0和S1,取他们的平均值为第一处理结果,为第二处理结果,两者作为最终的分类置信度,以此作为活体人脸的概率值,第一处理结果为第一概率值,第二处理结果为第二概率值,概率值的取值是[0,1],第一概率值表示假人脸的概率,第二概率值表示活体人脸的概率。
在本实施例中,全局特征网络可以是深度神经网络,如卷积神经网络;同样地,局部特征网络也可以是深度神经网络,如卷积神经网络;卷积神经网络可以包括输入层、卷积层(convolutional layer)、池化层(pooling layer)、全连接层(fullyconnected layer)和输出层,还可以包括卷积层、批规范化层和ReLU(修正线性单元激活函数,RectifiedLinear Unit)激活层。其中,输入层用于输入可见光图像,卷积层用于将可见光图像转化为特征图(feature map),池化层用于对特征图进行池化处理,以降低特征图的大小,全连接层用于将经过卷积层和池化层处理后的特征图映射为一维特征向量,输出层用于根据全连接层输出的一维特征向量,输出第一概率值。在本实施例中卷积神经网络采用的是SEresnext网络模型,其中上述输出层由Softmax分类器实现,用于实现二分类任务。
综上所述,本申请实施例提供的技术方案中,通过获取目标对象的可见光图像和深度图像,结合上述两种图像对目标对象进行人脸活体检测,融合了人脸全局图像和局部特征图像进行人脸活体检测,提高了检测的准确性,可以有效拦截人脸纸片、高清屏幕人脸翻拍、合成人脸视频、面具、3D假体模型等攻击。并且,可见光图像和深度图像的拍摄过程中,无需用户执行交互动作,更为简单高效,且降低交互成本,提高用户体验。
尽管为示例目的,已经公开了本发明的优选实施方式,但是本领域的普通技术人员将意识到,在不脱离由所附的权利要求书公开的本发明的范围和精神的情况下,各种改进、增加以及取代是可能的。
Claims (10)
1.一种人脸活体检测方法,其特征在于:
获取目标对象的可见光图像和深度图像的全局图像;
利用人脸关键点检测算法检测到人脸的5个关键点,该5个关键点为左右眼、鼻子和左右嘴角,按照各个关键点的坐标裁剪出可见光图像和深度图像对应区域的局部图像;
将各个所述局部图像分别输入到局部特征网络的分支中去,将所述可见光图像和深度图像的全局图像分别输入到全局特征网络的分支中;
在进行不同网络分支特征叠加之后,进行特征融合,利用分类函数进行二分类,得到第一处理结果和第二处理结果;
根据所述第一处理结果和所述第二处理结果,确定目标对象是否为人脸活体。
2.根据权利要求1所述的人脸活体检测方法,其特征在于:
所述第一处理结果为第一概率值,所述第一概率值是根据可见光图像和深度图像所确定的目标对象为假人脸的概率;
所述第二处理结果为第二概率值,所述第二概率值是根据可见光图像和深度图像所确定的目标对象为人脸活体的概率。
3.根据权利要求2所述的人脸活体检测方法,其特征在于:
所述根据所述第一处理结果和所述第二处理结果,确定所述目标对象是否为所述人脸活体,包括:
若所述第二概率值大于第一概率值,则确定所述目标对象为所述人脸活体。
4.根据权利要求1所述的人脸活体检测方法,其特征在于:所述局部特征网络包括第一神经网络和第二神经网络,所述第一神经网络为可见光图像局部特征网络,提取可见光局部图像特征;所述第二神经网络为深度图像局部特征网络,提取深度图像局部特征。
5.根据权利要求1所述的人脸活体检测方法,其特征在于:所述全局特征网络包括第三神经网络和第四神经网络,所述第三神经网络为可见光图像全局特征网络,提取可见光全局图像特征;所述第四神经网络为深度图像全局特征网络,提取深度全局图像特征。
6.根据权利要求4或5所述的人脸活体检测方法,其特征在于:
所述局部特征网络在对所述可见光图像和深度图像的局部图像的处理过程中,融合所述全局特征网络从所述可见光图像和深度图像的全局图像中提取的特征。
7.根据权利要求6所述的人脸活体检测方法,其特征在于:所述特征融合的方式为按照每个神经网络的特征图通道进行堆叠处理,每个神经网络特征图的最后通道数为n,4个神经网络分支进行叠加,得到4n个通道的特征图;其中,所述n为正整数。
8.根据权利要求1所述的人脸活体检测方法,其特征在于:所述人脸检测算法分别得到人脸区域以及人脸的5个关键点坐标,所述5个关键点分别为左眼、右眼、鼻子、左嘴角、右嘴角,将可见光图像和深度图像划分成4个互不重叠的区域。
9.根据权利要求1所述的人脸活体检测方法,其特征在于:所述深度图像的颜色深度为16位。
10.根据权利要求1所述的人脸活体检测方法,其特征在于:所述分类函数为softmax函数,利用softmax函数进行二分类,得到每个图像特征的置信度,结合后输出为第一处理结果和第二处理结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011427024.7A CN112434647A (zh) | 2020-12-09 | 2020-12-09 | 一种人脸活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011427024.7A CN112434647A (zh) | 2020-12-09 | 2020-12-09 | 一种人脸活体检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112434647A true CN112434647A (zh) | 2021-03-02 |
Family
ID=74691459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011427024.7A Pending CN112434647A (zh) | 2020-12-09 | 2020-12-09 | 一种人脸活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112434647A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767394A (zh) * | 2021-03-04 | 2021-05-07 | 重庆赛迪奇智人工智能科技有限公司 | 图像检测方法、装置和设备 |
CN113610071A (zh) * | 2021-10-11 | 2021-11-05 | 深圳市一心视觉科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113792701A (zh) * | 2021-09-24 | 2021-12-14 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备和存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358157A (zh) * | 2017-06-07 | 2017-11-17 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN107729835A (zh) * | 2017-10-10 | 2018-02-23 | 浙江大学 | 一种基于人脸关键点区域传统特征和人脸全局深度特征融合的表情识别方法 |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109635770A (zh) * | 2018-12-20 | 2019-04-16 | 上海瑾盛通信科技有限公司 | 活体检测方法、装置、存储介质及电子设备 |
CN110516616A (zh) * | 2019-08-29 | 2019-11-29 | 河南中原大数据研究院有限公司 | 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法 |
CN110569808A (zh) * | 2019-09-11 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及计算机设备 |
CN111079674A (zh) * | 2019-12-22 | 2020-04-28 | 东北师范大学 | 一种基于全局和局部信息融合的目标检测方法 |
CN111401134A (zh) * | 2020-02-19 | 2020-07-10 | 北京三快在线科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
WO2020151489A1 (zh) * | 2019-01-25 | 2020-07-30 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN111523398A (zh) * | 2020-03-30 | 2020-08-11 | 西安交通大学 | 一种融合2d人脸检测和3d人脸识别的方法及装置 |
CN111652082A (zh) * | 2020-05-13 | 2020-09-11 | 北京的卢深视科技有限公司 | 人脸活体检测方法和装置 |
CN111680588A (zh) * | 2020-05-26 | 2020-09-18 | 广州多益网络股份有限公司 | 一种基于可见光和红外光的人脸闸机活体检测方法 |
CN111814567A (zh) * | 2020-06-11 | 2020-10-23 | 上海果通通信科技股份有限公司 | 人脸活体检测的方法、装置、设备和存储介质 |
-
2020
- 2020-12-09 CN CN202011427024.7A patent/CN112434647A/zh active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358157A (zh) * | 2017-06-07 | 2017-11-17 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN107729835A (zh) * | 2017-10-10 | 2018-02-23 | 浙江大学 | 一种基于人脸关键点区域传统特征和人脸全局深度特征融合的表情识别方法 |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
WO2020125623A1 (zh) * | 2018-12-20 | 2020-06-25 | 上海瑾盛通信科技有限公司 | 活体检测方法、装置、存储介质及电子设备 |
CN109635770A (zh) * | 2018-12-20 | 2019-04-16 | 上海瑾盛通信科技有限公司 | 活体检测方法、装置、存储介质及电子设备 |
WO2020151489A1 (zh) * | 2019-01-25 | 2020-07-30 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN111488756A (zh) * | 2019-01-25 | 2020-08-04 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN110516616A (zh) * | 2019-08-29 | 2019-11-29 | 河南中原大数据研究院有限公司 | 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法 |
CN110569808A (zh) * | 2019-09-11 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及计算机设备 |
CN111079674A (zh) * | 2019-12-22 | 2020-04-28 | 东北师范大学 | 一种基于全局和局部信息融合的目标检测方法 |
CN111401134A (zh) * | 2020-02-19 | 2020-07-10 | 北京三快在线科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN111523398A (zh) * | 2020-03-30 | 2020-08-11 | 西安交通大学 | 一种融合2d人脸检测和3d人脸识别的方法及装置 |
CN111652082A (zh) * | 2020-05-13 | 2020-09-11 | 北京的卢深视科技有限公司 | 人脸活体检测方法和装置 |
CN111680588A (zh) * | 2020-05-26 | 2020-09-18 | 广州多益网络股份有限公司 | 一种基于可见光和红外光的人脸闸机活体检测方法 |
CN111814567A (zh) * | 2020-06-11 | 2020-10-23 | 上海果通通信科技股份有限公司 | 人脸活体检测的方法、装置、设备和存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767394A (zh) * | 2021-03-04 | 2021-05-07 | 重庆赛迪奇智人工智能科技有限公司 | 图像检测方法、装置和设备 |
CN113792701A (zh) * | 2021-09-24 | 2021-12-14 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备和存储介质 |
CN113610071A (zh) * | 2021-10-11 | 2021-11-05 | 深圳市一心视觉科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112818862B (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
CN108520219B (zh) | 一种卷积神经网络特征融合的多尺度快速人脸检测方法 | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
WO2018188453A1 (zh) | 人脸区域的确定方法、存储介质、计算机设备 | |
CN112434647A (zh) | 一种人脸活体检测方法 | |
WO2022206319A1 (zh) | 图像处理方法、装置、设备、存储介质计算机程序产品 | |
US11804071B2 (en) | Method for selecting images in video of faces in the wild | |
CN107408211A (zh) | 用于物体的再识别的方法 | |
CN108664843B (zh) | 活体对象识别方法、设备和计算机可读存储介质 | |
CN111126240B (zh) | 一种三通道特征融合人脸识别方法 | |
CN108416291B (zh) | 人脸检测识别方法、装置和系统 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
JP6448212B2 (ja) | 認識装置及び認識方法 | |
CN111967319A (zh) | 基于红外和可见光的活体检测方法、装置、设备和存储介质 | |
CN111325107A (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
CN112464864A (zh) | 基于树形神经网络结构的人脸活体检测方法 | |
KR20180092453A (ko) | Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법 | |
CN111191549A (zh) | 一种两级人脸防伪检测方法 | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
CN111160292A (zh) | 人眼检测方法 | |
CN112906508B (zh) | 一种基于卷积神经网络的面部活体检测方法 | |
Elmaci et al. | A comparative study on the detection of image forgery of tampered background or foreground | |
Huang et al. | Dual fusion paired environmental background and face region for face anti-spoofing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210302 |