CN111209820A - 人脸活体检测方法、系统、设备及可读存储介质 - Google Patents
人脸活体检测方法、系统、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111209820A CN111209820A CN201911387862.3A CN201911387862A CN111209820A CN 111209820 A CN111209820 A CN 111209820A CN 201911387862 A CN201911387862 A CN 201911387862A CN 111209820 A CN111209820 A CN 111209820A
- Authority
- CN
- China
- Prior art keywords
- face
- living body
- image
- depth
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 78
- 238000010606 normalization Methods 0.000 claims abstract description 27
- 238000013135 deep learning Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 3
- 238000001727 in vivo Methods 0.000 abstract description 12
- 230000008569 process Effects 0.000 abstract description 3
- 238000005457 optimization Methods 0.000 description 5
- 238000001574 biopsy Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000005284 excitation Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种人脸活体检测方法、系统、设备及可读存储介质。检测图片中的人脸关键点及人脸框检测,使用人脸追踪技术关联连续视频帧中相同的人脸ID;采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;进而判定将该人脸ID是否为活体。相对于其他的活体检测方法,本系统提出的方法使用深度学习算法所提取的特征具有更好的通用性,也具有更好的泛化能力,从而对各种场景的攻击都具有更好的鲁棒性,活体判断过程无需用户配合,且速度较快,能给用户带来较好的体验感。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种人脸活体检测方法、系统、设备及可读存储介质。
背景技术
近年来,随着深度学习算法的发展,人脸识别技术得到了广泛的应用,“刷脸”的场景也越来越多,比如门禁,刷脸支付,刷脸考勤等。然而,前主流的人脸识别技术只能区分不同人脸之间的区别,而无法辨别是否用户本人在使用人脸识别。当用户的人脸信息泄露,不法分子就可以通过用户的人脸信息制作照片、视频、三维人脸模型来欺骗人脸识别系统,造成用户的财产和信息损失。而活体检测是用于防止这些欺骗的有效方法。
传统的活体检测方案主要包括交互式活体检测、单目静默式活体检测,双目静默式活体检测等等。交互式活体检测主要通过用户交互的方式来实现活体检测功能,存在用户体验差,且无法应对视频回放攻击。单目静默式活体检测法通过提取图像中人脸的纹理、摩尔纹、边框等特征来区分真人和攻击,然而纹理特征与相机的类型有很大关系,不同类型的相机下真人和攻击纹理的区别很大,这会导致该项特征的泛化性较差,而摩尔纹和边框特征则可以通过特殊角度的摆拍来避免该类特征的出现,因此单目活体检测的安全等级和泛化性都不高,无法应用于安防、金融等需要极高准确率的应用场景上;双目活体检测则采用额外的红外相机来得到红外人脸图像,通过提取红外图和RGB图中真实人脸和攻击人脸之间的区分性特征来实现活体检测功能,精度相比于单目活体有所提升,但是仍未提取真人人脸和攻击人脸的区分性特征,即人脸的深度信息,因此比较难以抵抗3D攻击。
发明内容
本发明要解决的技术问题是如何提供安全等级高、鲁棒性好的人脸活体检测方法、系统、设备及可读存储介质。
为了解决上述技术问题,第一方面,本发明的技术方案为:一种人脸活体检测方法,其特征在于,包括步骤:
人脸关键点及人脸框检测,并进行人脸对齐;
使用人脸追踪技术关联连续视频帧中相同的人脸ID;
采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
优选地,对图片进行活体判断的深度学习网络使用Resnet作为基础网络,所述深度学习网络采用人脸图像和所述人脸深度图的双输入通道,两个输入分支在分别进行特征提取后,通过se-module对两个分支提取出的特征进行选择性激发融合,再经过数层卷积对融合后的特征进行特征提取,获得活体判断结果。
优选地,所述深度学习网络的目标函数为focal损失函数。
优选地,人脸关键点中眼睛和嘴角所有点的实际深度,计算这些点的实际深度的均值,取归一化上限为均值加上固定值,下限为均值减去所述固定值,将人脸区域深度归一化为像素值在0~255区间的灰度图。
优选地,对于实际深度大于上限和小于下限位置的灰度值置为0。
优选地,归一化公式为:
其中,V为深度归一化后的灰度值,范围为0~255,Dreal为人脸区域的实际深度,Dmax 为人脸实际深度的上限,Dmin为人脸实际深度的下限。
优选地,在进行人脸对齐之后还包括步骤:过滤劣质的人脸图片。
另一方面,本发明还提出一种人脸活体检测系统,包括:
人脸检测模块,人脸关键点及人脸框检测,并进行人脸对齐;
人脸追踪模块,使用人脸追踪技术关联连续视频帧中相同的人脸ID;
深度图像模块,采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
活体检测模块,将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
投票模块,将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
再一方面,本发明还提出一种人脸活体检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的人脸活体检测方法的步骤。
又一方面,本发明还提出了一种人脸活体检测的可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时间实现上述的人脸活体检测方法的步骤。
采用上述技术方案,检测人脸关键点及人脸框检测,使用人脸追踪技术关联连续视频帧中相同的人脸ID;采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;进而判定将该人脸ID是否为活体。
本专利通过深度相机快速取得了真人和攻击之间的具有很高区分性的特征——人脸深度,之后通过深度学习网络进行特征学习,能有效的区分各种类型的攻击和真人,性能优于常见的交互式活体检测、单目、双目活体检测。此外,本技术方案的整个活体判断过程无需用户配合,且速度较快,能给用户带来较好的体验感;相比于其他3D活体算法,同时改进了网络结构,同时考虑了RGB和深度的特征,模型鲁棒性更高。
附图说明
图1为本发明人脸活体检测方法一实施例的步骤流程图;
图2为本发明人脸活体检测方法一实施例中人脸106个关键点示意图;
图3为本发明人脸活体检测方法一实施例中未添加mask的人脸图;
图4为本发明人脸活体检测方法一实施例中添加mask后的人脸图;
图5为本发明人脸活体检测方法一实施例中的深度学习网络结构示意。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本发明,但并不构成对本发明的限定。此外,下面所描述的本发明各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。
参照图1,为了解决上述技术问题,第一方面,本发明的技术方案为:一种人脸活体检测方法,其特征在于,包括步骤:
S10:人脸关键点及人脸框检测,并进行人脸对齐,过滤劣质的人脸图片;
S20:使用人脸追踪技术关联连续视频帧中相同的人脸ID;
S30:采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
S40:将一人脸ID预设帧数的RGB人脸图像和人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
具体地,对图片进行活体判断的深度学习网络使用Resnet(残差网络)作为基础网络,深度学习网络采用人脸图像和人脸深度图的双输入通道,两个输入分支在分别进行特征提取后,通过se-module对两个分支提取出的特征进行选择性激发融合,再经过数层卷积对融合后的特征进行特征提取,获得活体判断结果。深度学习网络的目标函数为focal损失函数。
需要说明的是,Resnet(残差网络)是由来自Microsoft Research的4位学者提出的卷积神经网络,在2015年的ImageNet大规模视觉识别竞赛中获得了图像分类和物体识别的优胜。残差网络的特点是容易优化,并且能够通过增加相当的深度来提高准确率。其内部的残差块使用了跳跃连接,缓解了在深度神经网络中增加深度带来的梯度消失问题。
具体地,人脸关键点中眼睛和嘴角所有点的实际深度,计算这些点的实际深度的均值,取归一化上限为均值加上固定值,下限为均值减去固定值,将人脸区域深度归一化为像素值在0~255区间的灰度图。
对于实际深度大于上限和小于下限位置的灰度值置为0。
归一化公式为:
其中,V为深度归一化后的灰度值,范围为0~255,Dreal为人脸区域的实际深度,Dmax 为人脸实际深度的上限,Dmin为人脸实际深度的下限。
S50:将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
采用上述技术方案,检测人脸关键点及人脸框检测,使用人脸追踪技术关联连续视频帧中相同的人脸ID;采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;将一人脸ID预设帧数的RGB人脸图像和人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;进而判定将该人脸ID是否为活体。
本专利通过深度相机快速取得了真人和攻击之间的具有很高区分性的特征——人脸深度,之后通过深度学习网络进行特征学习,能有效的区分各种类型的攻击和真人,性能优于常见的交互式活体检测、单目、双目活体检测。此外,本技术方案的整个活体判断过程无需用户配合,且速度较快,能给用户带来较好的体验感;相比于其他3D活体算法,加入了质量优选模块,同时改进了网络结构,同时考虑了RGB和深度的特征,模型鲁棒性更高。
本发明的另一实施例中,包括如下步骤:
S1:人脸框检测
参照图2、图3、图4。S11:本发明使用mtcnn进行人脸检测得到106个人脸关键点来构建人脸区域mask分离人脸和背景信息,之后两用人脸对齐技术将人脸对齐到固定的模板上得到对齐人脸图像,示意图如下所示。
S2:人脸图像优选
本步骤采用人脸优选算法过滤极端情况,例如过曝、人脸角度过大下的人脸,并使用人脸追踪技术关联连续视频帧中相同的人脸id,保证每个视频中单独的人脸id只进行一定最优帧的活体判断。
S3:活体检测方法
S31:本发明中,对于深度相机采集到的深度图像我们采用人脸区域归一化代替常规的全图归一化,实现人脸部分深度的精细化成像。归一化具体步骤如下:取S1步骤得到的人脸 106个关键点中眼睛和嘴角共20点的实际深度Dlocal,计算这些点的均值Dmean,取归一化上限为Dmean+60,下限为Dmean-60,采用如下公式,将人脸区域深度归一化为像素值在0~255区间的灰度图,对于实际深度大于上限和小于下限位置的灰度值置为0。
其中V为深度归一化后的灰度值,范围为0~255,Dreal为人脸区域的实际深度,Dmax 为人脸实际深度的上限,Dmin为人脸实际深度的下限。
S32:对于通过上述步骤处理完后得到的RGB人脸图像和深度人脸图像,输入改进后的深度学习网络进行特征学习。本专利里使用Resnet作为基础网络,将原本网络的单输入通道改为RGB和归一化深度图的双输入,两个输入分支在分别进行一定的特征提取后,通过 se-module对两个分支提取出的特征进行选择性激发融合,之后再经过数层卷积对融合后的特征进行特征提取,得到判断结果,同时使用focal loss替代传统的softmax来克服数据中存在的正负样本不平衡的问题。网络结构如图5所示。
S33:将经过步骤S2优选到的图像输入通过步骤S31学习好的深度学习网络进行活体判断,多帧的判断结果通进行投票,本专利采用最近邻的5帧,当判断为活体的帧数多时,则认定对象为活体;判断为攻击的帧数多时,则认定对象为非活体。
另一方面,本发明还提出一种人脸活体检测系统,包括:
人脸检测模块,人脸关键点及人脸框检测,并进行人脸对齐;
人脸追踪模块,使用人脸追踪技术关联连续视频帧中相同的人脸ID;
深度图像模块,采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
活体检测模块,将一人脸ID预设帧数的RGB人脸图像和人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
投票模块,将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
再一方面,本发明还提出一种人脸活体检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现上述的人脸活体检测方法的步骤。该方法包括步骤:
S10:人脸关键点及人脸框检测,并进行人脸对齐;
S20:使用人脸追踪技术关联连续视频帧中相同的人脸ID;
S30:采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
S40:将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
S50:将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
又一方面,本发明还提出了一种人脸活体检测的可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时间实现上述的人脸活体检测方法的步骤。该方法包括步骤:
S10:人脸关键点及人脸框检测,并进行人脸对齐;
S20:使用人脸追踪技术关联连续视频帧中相同的人脸ID;
S30:采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
S40:将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
S50:将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
本系统首先通过人脸检测与图像优选模块,过滤一些质量例如遮挡,头部姿态角度过大的差质量人脸,之后通过深度相机获取人脸的深度图像,经过特殊的归一化方式处理后输入改进的双流Resnet网络进行学习,配合大量数据得到高鲁棒性的特征,从而达到能在无需用户配合的情况下有效的抵抗常见的攻击手段的效果。相对于其他的活体检测方法,本系统提出的方法使用深度学习算法所提取的特征具有更好的通用性,也具有更好的泛化能力,从而对各种场景的攻击都具有更好的鲁棒性。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。
Claims (10)
1.一种人脸活体检测方法,其特征在于,包括步骤:
人脸关键点及人脸框检测,并进行人脸对齐;
使用人脸追踪技术关联连续视频帧中相同的人脸ID;
采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
2.根据权利要求1所述的人脸活体检测方法,其特征在于:对图片进行活体判断的深度学习网络使用Resnet作为基础网络,所述深度学习网络采用人脸图像和所述人脸深度图的双输入通道,两个输入分支在分别进行特征提取后,通过se-module对两个分支提取出的特征进行选择性激发融合,再经过数层卷积对融合后的特征进行特征提取,获得活体判断结果。
3.根据权利要求2所述的人脸活体检测方法,其特征在于:所述深度学习网络的目标函数为focal损失函数。
4.根据权利要求1至3任一项所述的人脸活体检测方法,其特征在于:人脸关键点中眼睛和嘴角所有点的实际深度,计算这些点的实际深度的均值,取归一化上限为均值加上固定值,下限为均值减去所述固定值,将人脸区域深度归一化为像素值在0~255区间的灰度图。
5.根据权利要求4所述的人脸活体检测方法,其特征在于:对于实际深度大于上限和小于下限位置的灰度值置为0。
7.根据权利要求1所述的人脸活体检测方法,其特征在于:在进行人脸对齐之后还包括步骤:过滤劣质的人脸图片。
8.一种人脸活体检测系统,其特征在于,包括:
人脸检测模块,人脸关键点及人脸框检测,并进行人脸对齐;
人脸追踪模块,使用人脸追踪技术关联连续视频帧中相同的人脸ID;
深度图像模块,采集深度图像,对图片中的人脸区域进行归一化处理,获得处理后的人脸深度图;
活体检测模块,将一人脸ID预设帧数的RGB人脸图像和所述人脸深度图输入深度学习网络进行检测,获得每一帧图片的活体判断结果;
投票模块,将该人脸ID的所有活体判断结果进行投票,当判断为活体的帧数多时,则认定对象为活体,判断为攻击的帧数多时,则认定对象为非活体。
9.一种人脸活体检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述程序时实现权利要求1-7任一项所述的人脸活体检测方法的步骤。
10.一种人脸活体检测的可读存储介质,其上存储有计算机程序,其特征在于:该计算机程序被处理器执行时间实现权利要求1-7任一项所述的人脸活体检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911387862.3A CN111209820B (zh) | 2019-12-30 | 2019-12-30 | 人脸活体检测方法、系统、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911387862.3A CN111209820B (zh) | 2019-12-30 | 2019-12-30 | 人脸活体检测方法、系统、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111209820A true CN111209820A (zh) | 2020-05-29 |
CN111209820B CN111209820B (zh) | 2024-04-23 |
Family
ID=70788385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911387862.3A Active CN111209820B (zh) | 2019-12-30 | 2019-12-30 | 人脸活体检测方法、系统、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111209820B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931594A (zh) * | 2020-07-16 | 2020-11-13 | 广州广电卓识智能科技有限公司 | 人脸识别活体检测方法、装置、计算机设备和存储介质 |
CN112200125A (zh) * | 2020-10-26 | 2021-01-08 | 东北大学 | 一种三维人脸识别方法 |
CN112232121A (zh) * | 2020-09-10 | 2021-01-15 | 北京迈格威科技有限公司 | 活体检测方法、装置、设备及介质 |
CN113705428A (zh) * | 2021-08-26 | 2021-11-26 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备及计算机可读存储介质 |
CN114495288A (zh) * | 2021-12-13 | 2022-05-13 | 奥比中光科技集团股份有限公司 | 一种基于人脸的活体检测方法及装置、设备和存储介质 |
CN115578771A (zh) * | 2022-10-24 | 2023-01-06 | 智慧眼科技股份有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108140123A (zh) * | 2017-12-29 | 2018-06-08 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
CN108171191A (zh) * | 2018-01-05 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 用于检测人脸的方法和装置 |
CN109086691A (zh) * | 2018-07-16 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 一种三维脸部活体检测方法、脸部认证识别方法及装置 |
CN109101871A (zh) * | 2018-08-07 | 2018-12-28 | 北京华捷艾米科技有限公司 | 一种基于深度和近红外信息的活体检测装置、检测方法及其应用 |
CN109325472A (zh) * | 2018-11-01 | 2019-02-12 | 四川大学 | 一种基于深度信息的人脸活体检测方法 |
KR20190098858A (ko) * | 2018-02-01 | 2019-08-23 | 고려대학교 산학협력단 | 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치 |
CN110188715A (zh) * | 2019-06-03 | 2019-08-30 | 广州二元科技有限公司 | 一种多帧检测投票的视频人脸活体检测方法 |
-
2019
- 2019-12-30 CN CN201911387862.3A patent/CN111209820B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108140123A (zh) * | 2017-12-29 | 2018-06-08 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
CN108171191A (zh) * | 2018-01-05 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 用于检测人脸的方法和装置 |
KR20190098858A (ko) * | 2018-02-01 | 2019-08-23 | 고려대학교 산학협력단 | 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치 |
CN109086691A (zh) * | 2018-07-16 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 一种三维脸部活体检测方法、脸部认证识别方法及装置 |
CN109101871A (zh) * | 2018-08-07 | 2018-12-28 | 北京华捷艾米科技有限公司 | 一种基于深度和近红外信息的活体检测装置、检测方法及其应用 |
CN109325472A (zh) * | 2018-11-01 | 2019-02-12 | 四川大学 | 一种基于深度信息的人脸活体检测方法 |
CN110188715A (zh) * | 2019-06-03 | 2019-08-30 | 广州二元科技有限公司 | 一种多帧检测投票的视频人脸活体检测方法 |
Non-Patent Citations (1)
Title |
---|
张童: "基于深度学习的多角度人脸识别方法研究与实现", no. 7, pages 42 - 59 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931594A (zh) * | 2020-07-16 | 2020-11-13 | 广州广电卓识智能科技有限公司 | 人脸识别活体检测方法、装置、计算机设备和存储介质 |
CN112232121A (zh) * | 2020-09-10 | 2021-01-15 | 北京迈格威科技有限公司 | 活体检测方法、装置、设备及介质 |
CN112200125A (zh) * | 2020-10-26 | 2021-01-08 | 东北大学 | 一种三维人脸识别方法 |
CN113705428A (zh) * | 2021-08-26 | 2021-11-26 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备及计算机可读存储介质 |
CN114495288A (zh) * | 2021-12-13 | 2022-05-13 | 奥比中光科技集团股份有限公司 | 一种基于人脸的活体检测方法及装置、设备和存储介质 |
CN115578771A (zh) * | 2022-10-24 | 2023-01-06 | 智慧眼科技股份有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111209820B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111209820B (zh) | 人脸活体检测方法、系统、设备及可读存储介质 | |
WO2020151489A1 (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
CN109598242B (zh) | 一种活体检测方法 | |
WO2019056988A1 (zh) | 人脸识别方法及装置、计算机设备 | |
US20050196044A1 (en) | Method of extracting candidate human region within image, system for extracting candidate human region, program for extracting candidate human region, method of discerning top and bottom of human image, system for discerning top and bottom, and program for discerning top and bottom | |
CN109190522B (zh) | 一种基于红外相机的活体检测方法 | |
CN112487921B (zh) | 一种用于活体检测的人脸图像预处理方法及系统 | |
CN111652082B (zh) | 人脸活体检测方法和装置 | |
CN108764058A (zh) | 一种基于热成像效应的双摄像头人脸活体检测方法 | |
CN109583304A (zh) | 一种基于结构光模组的快速3d人脸点云生成方法及装置 | |
CN111222433B (zh) | 自动人脸稽核方法、系统、设备及可读存储介质 | |
EP2580711A2 (en) | Distinguishing live faces from flat surfaces | |
CN103902958A (zh) | 人脸识别的方法 | |
CN109948439B (zh) | 一种活体检测方法、系统及终端设备 | |
CN111222432A (zh) | 人脸活体检测方法、系统、设备及可读存储介质 | |
CN111523497B (zh) | 一种人脸纠正方法、装置和电子设备 | |
CN106570447A (zh) | 基于灰度直方图匹配的人脸照片太阳镜自动去除方法 | |
CN111382592A (zh) | 活体检测方法和设备 | |
CN111079688A (zh) | 一种人脸识别中的基于红外图像的活体检测的方法 | |
CN111832464A (zh) | 一种基于近红外摄像头的活体检测方法及装置 | |
CN114299569A (zh) | 一种基于眼球运动的安全人脸认证方法 | |
CN112287765A (zh) | 人脸活体检测方法、装置、设备及可读存储介质 | |
CN105631285A (zh) | 一种生物特征身份识别方法及装置 | |
CN111914646A (zh) | 一种基于光场图像序列的双流融合网络虹膜活体检测方法 | |
CN115620117B (zh) | 一种用于网络访问权限认证的人脸信息加密方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |