CN103679118A - 一种人脸活体检测方法及系统 - Google Patents
一种人脸活体检测方法及系统 Download PDFInfo
- Publication number
- CN103679118A CN103679118A CN201210331141.2A CN201210331141A CN103679118A CN 103679118 A CN103679118 A CN 103679118A CN 201210331141 A CN201210331141 A CN 201210331141A CN 103679118 A CN103679118 A CN 103679118A
- Authority
- CN
- China
- Prior art keywords
- face
- picture
- region
- eigenwert
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种人脸活体检测方法及系统,涉及人脸识别技术领域,所述方法包括:101.在当前帧图片中定位面部关键点/块;102.当定位不成功时,采集下一帧图片,执行步骤101;103.当定位成功时,提取并存储特征值;104.判断采集的图片帧数是否等于第一预设值,如果是,执行步骤105;105.根据存储的特征值,计算平均差异值;106.判断平均差异值是否大于第一阈值,如果不是,执行步骤107;如果是,执行步骤108;107.判断平均差异值的计算次数是否小于第二预设值,如果不是,确定为非真实人脸;108.判断平均差异值是否大于第二阈值,如果不是,确定为真实人脸。本发明实施例应用于人脸检测过程中。
Description
技术领域
本发明涉及人脸识别技术领域,尤其涉及一种人脸活体检测方法及系统。
背景技术
作为身份识别的有效技术,人脸识别技术已经在商业和执法部门得到广泛的应用,例如刑事鉴定、信用卡识别、安全系统、现场监控、门禁考勤等。在进行人脸识别的过程中,尤其需要解决人脸识别技术的安全问题,比如使用照片人脸、人脸视频片段或者仿造的三维人脸模型进行伪造登陆人脸识别系统。其中,照片人脸较其他方式更加容易获得,也最多地被用于伪造登陆人脸识别系统。为了使人脸识别系统更加安全,就需要设计能够抵御照片人脸登陆人脸识别系统的人脸活体检测系统。
在实现人脸活体检测的过程中,发明人发现现有技术中至少存在如下问题:当采用三维深度信息进行人脸活体检测时,计算量大;通过分析高频分量来进行照片人脸和真实人脸的判断时,只适用于低分辨率照片,对于高清照片就无法判断,受应用场景约束。
发明内容
本发明的实施例提供一种人脸活体检测方法及系统,实现有效拒绝非真实人脸欺骗识别的同时,提高计算速度,同时不受应用场景的约束。
为达到上述目的,本发明的实施例采用如下技术方案:
一种人脸活体检测方法,包括:
101、在采集的当前帧图片中定位面部关键点/块;
102、当定位面部关键点/块不成功时,丢弃所述当前帧图片,采集下一帧图片,跳转执行步骤101;
103、当定位面部关键点/块成功时,提取并存储所述面部关键点/块所在区域的特征值,将采集的图片帧数加1;
104、判断所述采集的图片帧数是否等于第一预设值,如果不是,则采集下一帧图片并跳转执行步骤101;如果是,跳转执行步骤105;
105、根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,所述平均差异值为当所述采集的图片帧数等于第一预设值时,所述采集的图片中面部关键点/块所在区域的特征值的平均差异值;
106、判断所述平均差异值是否大于第一阈值,如果不是,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转执行步骤107;如果是,跳转执行步骤108;
107、判断当前平均差异值的计算次数是否小于第二预设值,如果不是,则确定为非真实人脸;如果是,将存储的第一帧图片的面部关键点/块所在区域的特征值删除,采集下一帧图片,并跳转执行步骤101;
108、判断所述平均差异值是否大于第二阈值,如果是,则确定为非真实人脸;如果不是,则确定为真实人脸,所述第二阈值大于所述第一阈值。
一种人脸活体检测系统,包括:
定位单元,用于在采集的当前帧图片中定位面部关键点/块;
第一处理单元,用于当定位面部关键点/块不成功时,丢弃所述当前帧图片,采集下一帧图片,跳转入定位单元;
第二处理单元,用于当定位面部关键点/块成功时,提取并存储所述面部关键点/块所在区域的特征值,将采集的图片帧数加1;
第三处理单元,用于判断所述采集的图片帧数是否等于第一预设值,如果不是,则采集下一帧图片并跳转入定位单元;如果是,跳转入平均差异值计算单元;
平均差异值计算单元,用于根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,所述平均差异值为当所述采集的图片帧数等于第一预设值时,所述采集的图片中面部关键点/块所在区域的特征值的平均差异值;
第四处理单元,用于判断所述平均差异值是否大于第一阈值,如果不是,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转入第五处理单元;如果是,跳转入第六处理单元;
第五处理单元,用于判断当前平均差异值的计算次数是否小于第二预设值,如果不是,则确定为非真实人脸;如果是,将存储的第一帧图片的面部关键点/块所在区域的特征值删除,采集下一帧图片,并跳转入定位单元;
第六处理单元,用于判断所述平均差异值是否大于第二阈值,如果是,则确定为非真实人脸;如果不是,则确定为真实人脸,所述第二阈值大于所述第一阈值。
本发明实施例提供的一种人脸活体检测方法及系统,通过对面部关键点/块的定位,提取面部关键点/块所在区域的特征值,当所述采集的图片帧数等于第一预设值时,根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,当所述平均差异值大于第一阈值,且小于等于第二阈值时,则判断为真实人脸。本发明实施例解决了现有技术中当采用三维深度信息进行人脸活体检测时,计算量大的问题,同时解决了通过分析高频分量来进行照片人脸和真实人脸的判断时,只适用于低分辨率照片,对于高清照片就无法判断,受应用场景约束的问题,实现有效的拒绝了非真实人脸欺骗识别的同时,提高了计算速度,同时不受应用场景的约束。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的一种人脸活体检测方法的流程图;
图2为本发明实施例1提供的提取眼睛和嘴巴区域的30个关键点的示意图;
图3为本发明实施例2提供的一种人脸活体检测系统的结构图;
图4为本发明实施例2提供的一种人脸活体检测系统的整体结构图;
图5为本发明实施例2提供的一种人脸活体检测系统中第二处理单元的结构图;
图6为本发明实施例2提供的一种人脸活体检测系统中平均差异值计算单元的结构图。
具体实施方式
下面结合附图对本发明实施例一种人脸活体检测方法及系统进行详细描述。
实施例1
本发明实施例提供一种人脸活体检测方法,如图1所示,具体步骤如下:
101、在采集的当前帧图片中定位面部关键点/块。
在人脸活体检测中,需要比较采集的连续帧图片中人脸的运动和变化。由于照片人脸也可以在采集设备前,进行上下左右等物理运动,但是无法进行眼睛和嘴巴等面部关键区域的形变运动,因此本发明主要对面部关键点/块进行定位,如眼睛和嘴巴,以便区别真实人脸和非真实人脸。
目前存在很多方法对面部关键点/块进行检测定位,例如ASM(Active Shape Model,主动形状模型)、AAM(Active AppearanceModel,主动外观模型)等方法。
在进行人脸活体检测之前,利用现有技术对大量的人脸的眼睛和嘴巴的样本进行训练,下面我们以ASM算法对眼睛和嘴巴的关键点进行定位为例进行描述,具体过程如下:
(1)通过形状对齐和主成分分析,建立眼睛和嘴巴的主动形状模型ASM形状模型。
具体步骤如下:
A、对训练集中的所有训练图片的人脸进行眼镜和嘴巴区域30个关键点的标定,如图2所示,其中,左眼和右眼的关键点均为9个,嘴巴的关键点为12个。
B、将属于每一个训练图片的30个关键点的坐标值构成一个向量,作为对应训练图片的形状向量,根据形状向量进行形状对齐,具体步骤如下:
a、选取第一幅训练图片的形状向量为第一基向量;
b、利用所述第一基向量,将所述训练集中除了所述第一幅训练图片之外的其他训练图片的形状向量进行仿射变换,得到校正后的形状向量。
将其他训练图片的形状向量与所述第一基向量进行仿射变换的作用,是为了保证所有训练图片均在同一个水平位置上。
c、计算所述训练集中的所有训练图片对应的校正后的形状向量的平均向量,并将所述平均向量作为第二基向量;
d、利用所述第二基向量,将所述训练集中的所有训练图片对应的形状向量进行仿射变换,得到所有训练图片对应的更新后的形状向量;
e、计算所述训练集中的所有训练图片对应的更新后的形状向量的平均向量,并将所述平均向量作为第三基向量,并利用所述第三基向量进行仿射变换和求平均向量,直到重复执行次数达到预定值。
所述预定值为预先设置,例如,可以设置为5次,则重复利用得到的平均向量作为基向量,并计算平均向量5次。
C、根据公式(1)建立ASM形状模型,公式(1)如下所示:
其中x为任意一张人脸图片的形状模型,为步骤B中最终得到的平均向量,φ为将得到的所有训练图片的最终的形状向量进行PCA(Principal Component Analysis,主成分分析)后,前k个PCA分量、b为形状参数。
(2)根据眼睛和嘴巴的纹理特征,建立眼睛和嘴巴的关键点/块的支持向量机SVM分类器
具体包括如下步骤:
f、计算所述训练集中的每一个训练图片对应的每一个关键点的局部纹理特征。
在本发明实施例中,以Gabor特征为例进行提取局部纹理特征,例如提取以关键点为中心点的10*10区域的Gabor特征,特征维数为600维。
g、利用每个关键点的局部纹理特征样本建立对应的SVM(SupportVector Machine,支持向量机)分类器。
其中,SVM是机器学习中用于分类的方法之一,针对每个关键点建立对应一个分类器。利用现有技术,如果训练图片有10幅,则对于其中一个关键点来说,就有10个样本,在这10幅训练图片中所述关键点的局部纹理特征样本作为所述关键点的正样本,所述关键点邻近区域的局部纹理特征样本作为所述关键点的负样本,利用所述正样本和负样本训练所述关键点的SVM分类器。
至此,得到眼睛和嘴巴的ASM形状模型和SVM分类器。以下根据SVM分类器和ASM形状模型迭代的进行眼睛和嘴巴关键点/块的搜索和形状约束,确定眼睛和嘴巴的关键点。具体定位过程如下:
D、选取上述步骤e中最终训练得到的平均向量作为初始向量,初步定位当前帧图片中的关键点;
利用步骤e中训练得到的最终的平均向量作为初始向量,将所述当前帧图片中的关键点初步定位出来。
E、根据SVM分类器进行眼睛和嘴巴的关键点搜索。
计算初步定位的每个关键点的法线方向,并沿着每个关键点的法线方向进行邻域搜索,然后计算对每个关键点进行搜索得到的搜索点的局部纹理Gabor特征,并根据搜索点的局部纹理Gabor特征和关键点对应的SVM分类器,判断所述搜索点是否满足所述关键点对应的SVM分类器条件,直到找到满足所述关键点对应的SVM分类器条件的目标点为止,最终由每个关键点对应的目标点确定所述当前帧图片的新的形状向量。
F、利用公式(1)、步骤e中最终训练得到的平均向量以及所述当前帧图片的新的形状向量,得到所述当前帧图片的PCA约束后的第一形状向量。
公式(1)中的x为所述当前帧图片的新的形状向量,公式(1)中的为步骤e中最终训练得到的平均向量,经过公式(1)的计算得到形状参数b,再利用所述平均向量和b代入公式(1)中,计算出所述当前帧图片的第一形状向量。
G、将所述当前帧图片的第一形状向量作为初始向量,重复执行上述步骤D、步骤E和步骤F,得到所述当前帧图片的约束后的第二形状向量。
由于所述第一形状向量是经过PCA约束后得到的,因此在利用所述第一形状向量对所述当前帧图片重新定位关键点后,每个关键点的法线方向会有所改变,进而法线方向上的搜索点也有变化,当利用关键点对应的SVM分类器对搜索点进行目标点判断后,得到所述当前帧图片的另一个新的形状向量,再通过步骤F得到第二形状向量。
H、计算所述第一形状向量和第二形状向量之间的差值,当所述差值小于规定阈值时,将所述第二形状向量中的坐标点作为所述当前帧图片的关键点;当所述差值不小于规定阈值时,将所述第二形状向量作为初始向量,重复执行上述步骤D、步骤E和步骤F,得到所述当前帧图片的约束后的第三形状向量,判断所述第三形状向量和所述第二形状向量之间的差值是否小于所述规定阈值,直到所述差值小于所述规定阈值,循环结束。
其中,对循环次数进行阈值限定,例如,当阈值设置为10次时,如果在循环次数为10次之内,所得的差值小于所述规定阈值,则成功定位所述当前帧图片中人脸的眼睛和嘴巴,如果循环次数为10次时,所得的差值仍不小于所述规定阈值时,则不能成功定位出所述当前帧图片中人脸的眼睛和嘴巴。
上述关键点的个数并不局限于30个,关键点定位方法也不局限于ASM模型,其他面部关键点的定位方法均可适用于本发明。例如,还可使用AAM方法,下面简单介绍AAM方法的定位过程。
与ASM方法相似,AAM也需要建立形状模型,形状建模方法与ASM相同。在建立形状模型的同时,AAM方法还需要建立纹理统计模型,并将纹理统计模型与形状统计模型结合,建立图像形状和纹理共同变化的统计表观模型。其中纹理统计模型的建立过程主要是通过对形状进行Delaunay三角剖分实现人脸对齐和变形,提取与形状无关的纹理特征,通过对图像的纹理特征进行主成分分析,得到纹理统计模型。
在进行关键点定位过程中,采用基于优化方法的搜索机制,将形状与纹理合成,并使得合成模型与目标图像不断接近,最终得到可以反映目标图像纹理和形状的合成模型。
在对面部关键点/块进行检测定位时,还可以通过其他现有技术来实现,在这里不再赘述。
102、当定位面部关键点/块不成功时,丢弃所述当前帧图片,采集下一帧图片,跳转执行步骤101。
由步骤101中的步骤H可知,当循环次数已经达到阈值时,还没有得到小于所述规定阈值的差值时,则表示在所述当前帧图片中无法定位出眼睛和嘴巴,则说明当前帧图片中并不存在人脸,将所述当前帧图片丢弃,采集下一帧图片,跳转执行步骤101,对所述下一帧图片进行眼睛和嘴巴的关键点/块的定位。
103、当定位面部关键点/块成功时,提取并存储所述面部关键点/块所在区域的特征值,将采集的图片帧数加1。
由步骤101中的步骤H可知,当循环次数在没有达到阈值时,得到小于所述规定阈值的差值,则表示定位面部关键点/块成功,即成功定位人脸的眼睛和嘴巴的关键点,然后需要提取面部关键点/块所在区域的特征值。由于人脸容易受到光照变化的影响,因此我们需要降低面部对光照的敏感性,同时还要保证人脸活体检测的及时性。在面部关键区域特征提取的多种方法中,选取计算量小,且能真实反映眼睛和嘴巴变化特征的算法,例如局部二值模式(Local Binary Patterns,简称为LBP)、索贝尔(Sobel)梯度、二值特征等方法均可应用于面部关键区域特征提取。
下面以二值特征为例,眼睛和嘴巴所在区域的特征值提取过程如下:
在计算特征前,需要根据关键点定位结果划分出眼睛和嘴巴所在区域,即根据30个关键点的定位结果来确定眼睛和嘴巴所在的矩形区域,如图2所示,关键点1-9确定左眼所在区域,关键点10-18确定右眼所在区域,关键点19-30确定嘴巴所在区域。眼距数值L可由关键点8和17间的欧式距离计算获取。
另外,根据关键点8和17之间的连线与水平线之间的夹角对所述左眼、右眼和嘴巴所在区域进行水平校正。
首先,分别对左眼所在区域和右眼所在区域进行二值化,并提取左眼和右眼所在区域的特征值。
对于提取左眼所在区域的特征值,先计算左眼所在区域的灰度均值作为二值化阈值,将左眼区域进行二值化。由于眼距为两眼瞳孔中心点之间的距离,根据所得眼距数值L,由先验值可确定左眼的宽度为L/2,一只眼睛的高度为L/4,对左眼所在区域进行子块划分,分成(L/4)*(L/2)个子块,设为m1*n1,例如,当眼距L为64时,左眼所在区域的子块数为16*32个。先获取每个子块中像素值为1的个数值,然后计算每个子块中像素值为1的个数值占整个左眼所在区域的像素总个数的比例值,作为左眼所在区域的每个子块的特征值,由于左眼所在区域的子块数为m1*n1个,则左眼所在区域的子块对应的特征值为m1*n1维。
对于提取右眼所在区域的特征值,先计算右眼所在区域的灰度均值作为二值化阈值,将右眼区域进行二值化。根据所得眼距数值L,由于眼距为两眼瞳孔中心点之间的距离,可确定右眼与左眼相同的宽度L/2,相同的高度L/4,对右眼所在区域进行子块划分,分成(L/4)*(L/2)个子块。当然可以对右眼进行与左眼不同的子块划分,此处不做限定,例如右眼的宽度为L/3,右眼的高度为L/5,最终均得到右眼所在区域的子块为m2*n2个。获取每个子块中像素值为1的个数值,然后计算每个子块中像素值为1的个数值占整个右眼所在区域的像素总个数的比例值,作为右眼所在区域的每个子块的特征值,由于右眼所在区域的子块数为m2*n2个,则右眼所在区域的子块对应的特征值为m2*n2维。
然后,计算嘴巴所在区域的灰度均值作为二值化阈值,将嘴巴所在区域进行二值化。根据所得眼距数值L,由先验值可确定嘴巴的宽度为L,嘴巴的高度为L/2,对嘴巴所在区域进行子块划分,分成(L/2)*L个子块,设为m3*n3,例如,当眼距L为64时,嘴巴区域的子块数为32*64个。获取每个子块中像素值为1的个数值,计算每个子块中像素值为1的个数值占整个嘴巴所在区域的像素总个数的比例值,作为嘴巴区域中每个子块的特征值,由于嘴巴所在区域的子块数为m3*n3个,则嘴巴所在区域的子块对应的特征值为m3*n3维。
将所述当前帧图片中的眼睛和嘴巴区域的特征值提取完成后,将所述当前帧的眼睛和嘴巴区域的特征值存入队列,并将采集的图片帧数加1,使得所述采集的图片帧数不断累加,直到达到某一阈值时,利用所述采集的图片计算平均差异值,进而判断是否有人脸形变。所述采集的图片帧数为定位眼睛和嘴巴的关键点成功的图片帧数,并且所述队列中存储的图片的特征值,为成功定位眼睛和嘴巴关键点的图片对应的特征值,所述图片的帧数与所述采集的图片帧数相同。
104、判断所述采集的图片帧数是否等于第一预设值,如果不是,则采集下一帧图片并跳转执行步骤101;如果是,跳转执行步骤105。
当连续几帧都成功定位面部关键点/块,使得所述采集的图片帧数达到所述第一预设值时,跳转执行步骤105,并在步骤105中计算所述采集的图片帧数达到所述第一预设值的连续帧图片之间的平均差异值。当所述采集的图片帧数不等于所述第一预设值时,则还需要继续采集下一帧图片,跳转执行步骤101,经过定位与提取后,获得所述下一帧图片的特征值。
105、根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,所述平均差异值为当所述采集的图片帧数等于第一预设值时,所述采集的图片中面部关键点/块所在区域的特征值的平均差异值。
当所述采集的图片帧数达到所述第一预设值时,即所述队列中已存储所述第一预设值帧数的图片对应的特征值,根据所述第一预设值帧数的图片中眼睛和嘴巴所在区域的特征值,计算平均差异值,进而判断所述第一预设值帧数的图片中是否存在人脸的生理运动。
计算平均差异值的步骤如下:
步骤一:先计算所述采集的图片帧数达到所述第一预设值时,所述采集的图片中任意两帧图片对应的特征值的欧氏距离,具体计算方法如下:
所述采集的图片帧数达到所述第一预设值时,所述采集的图片中任意一帧图片中的眼睛和嘴巴的关键点区域对应的特征值为Xa=(XaeyeL,XaeyeR,Xamouth)Ta=1、2、3…N,其中N为所述第一预设值。从所述采集的图片中任意选取两帧图片计算两帧图片的特征值的欧氏距离。
从所述采集的图片中任意选取两帧图片对应的特征值分别为Xp=(XpeyeL,XpeyeR,Xpmouth)T,和Xq=(XqeyeL,XqeyeR,Xqmouth)T,两帧图片对应的特征值的加权欧式距离如公式(2)所示:
(2)
其中D(Xp,Xq)为任意两帧图片对应的特征值的加权欧氏距离,dL为左眼区域的特征值个数,具体为m1*n1个,dR为右眼区域的特征值个数,具体为m2*n2个,dM为嘴巴区域的特征值个数,具体为m3*n3个,和分别为所述任意两帧图片中左眼区域的第i个特征值,和分别为所述任意两帧图片中右眼区域的第i个特征值,和分别为所述任意两帧图片中嘴巴区域的第i个特征值,w1为左眼区域对人脸生理形变的敏感度值,w2为右眼区域对人脸生理形变的敏感度值,w3为嘴巴区域对人脸生理形变的敏感度值。
步骤二,当所述采集的图片帧数为所述第一预设值时,所述采集的图片中眼睛和嘴巴所在区域的特征值的平均差异值,具体通过公式(3)计算得到。
其中,D为所述第一预设值帧数的图片中眼睛和嘴巴区域的特征值的平均差异值,N为所述第一预设值,D(Xp,Xq)为所述第一预设值数的图片中第p帧和第q帧图片对应的特征值的加权欧氏距离。
将利用公式(2)得到的所述第一预设值帧数的图片中任意两帧图片中眼睛和嘴巴区域的特征值的加权欧氏距离代入公式(3)中,得到所述第一预设值帧数的图片中眼睛和嘴巴区域的特征值的平均差异值。
106、判断所述平均差异值是否大于第一阈值,如果不是,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转执行步骤107;如果是,跳转执行步骤108。
将计算得到的所述平均差异值与预先设置的第一阈值(例如,所述第一阈值为0.025)进行比较,当所述平均差异值大于所述第一阈值时,表示所述第一预设值帧数的图片中存在真实的人脸形变,跳转执行步骤108,作进一步地确定;当所述平均差异值不大于所述第一阈值时,表明所述第一预设值帧数的图片中可能不存在真实人脸,或者所述采集的图片帧数中的图片中人脸生理形变过小,不会被检测出,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转执行步骤107,作进一步确定。
107、判断当前平均差异值的计算次数是否小于第二预设值,如果不是,则确定为非真实人脸;如果是,将存储的第一帧图片的面部关键点/块所在区域的特征值删除,采集下一帧图片,并跳转执行步骤101。
所述第二预设值是为平均差异值的计算次数设置的界限值,当所述当前平均差异值的计算次数小于所述第二预设值时,表明平均差异值的计算次数太少,不能准确判断出所述第一预设值帧数的图片中是否存在真实人脸的形变,则将存储在队列中的第一帧图片对应的特征值删除,采集下一帧图片,跳转执行步骤101,对所述下一帧图片进行定位和特征提取;当所述当前平均差异值的计算次数不小于所述预设值二时,说明平均差异值的计算次数已经达到界限值,但是仍然不能检测出真实人脸,则说明检测的连续帧图片为非真实人脸,例如照片人脸。
108、判断所述平均差异值是否大于第二阈值,如果是,则确定为非真实人脸;如果不是,则确定为真实人脸。
所述第二阈值大于所述第一阈值,当所述平均差异值大于第二阈值时,说明采集图片中存在不同身份的人脸,使得所述平均差异值过大,例如,利用真实人脸和照片人脸进行切换攻击人脸活体检测系统。所述第二阈值的设置,可以提高人脸活体检测系统的可靠性。
本发明实施例提供的一种人脸活体检测方法,通过对面部关键点/块的定位,确定面部关键点/块所在区域,然后提取面部关键点/块所在区域中的特征值,当检测图片帧数等于第一预设值时,根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,当所述平均差异值大于第一阈值,且小于等于第二阈值时,则判断为真实人脸。本发明实施例解决了现有技术中当采用三维深度信息进行人脸活体检测时,计算量大的问题,同时解决了通过分析高频分量来进行照片人脸和真实人脸的判断时,只适用于低分辨率照片,对于高清照片就无法判断,受应用场景约束的问题,实现有效的拒绝了非真实人脸欺骗识别的同时,提高了计算速度,同时不受应用场景的约束。
对于上述方法得到的真实人脸检测结果,可以将当前帧图片应用到人脸识别系统中,进行进一步的人脸识别判断。
实施例2
本发明实施例提供一种人脸活体检测系统,如图3所示,所述系统包括定位单元31,第一处理单元32,第二处理单元33,第三处理单元34,平均差异值计算单元35,第四处理单元36,第五处理单元37和第六处理单元38。
其中,定位单元31,用于在采集的当前帧图片中定位面部关键点/块;
第一处理单元32,用于当定位面部关键点/块不成功时,丢弃所述当前帧图片,采集下一帧图片,跳转入定位单元;
第二处理单元33,用于当定位面部关键点/块成功时,提取并存储所述面部关键点/块所在区域的特征值,将采集的图片帧数加1;
第三处理单元34,用于判断所述采集的图片帧数是否等于第一预设值,如果不是,则采集下一帧图片并跳转入定位单元;如果是,跳转入平均差异值计算单元;
平均差异值计算单元35,用于根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,所述平均差异值为当所述采集的图片帧数等于第一预设值时,所述采集的图片中面部关键点/块所在区域的特征值的平均差异值;
第四处理单元36,用于判断所述平均差异值是否大于第一阈值,如果不是,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转入第五处理单元;如果是,跳转入第六处理单元;
第五处理单元37,用于判断当前平均差异值的计算次数是否小于第二预设值,如果不是,则确定为非真实人脸;如果是,将存储的第一帧图片的面部关键点/块所在区域的特征值删除,采集下一帧图片,并跳转入定位单元;
第六处理单元38,用于判断所述平均差异值是否大于第二阈值,如果是,则确定为非真实人脸;如果不是,则确定为真实人脸,所述第二阈值大于所述第一阈值。
本发明实施例提供的一种人脸活体检测系统,通过对面部关键点/块的定位,然后提取面部关键点/块所在区域的特征值,当检测图片帧数等于第一预设值时,根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,当所述平均差异值大于第一阈值,且小于等于第二阈值时,则判断为真实人脸。本发明实施例解决了现有技术中当采用三维深度信息进行人脸活体检测时,计算量大的问题,同时解决了通过分析高频分量来进行照片人脸和真实人脸的判断时,只适用于低分辨率照片,对于高清照片就无法判断,受应用场景约束的问题,实现有效的拒绝了非真实人脸欺骗识别的同时,提高了计算速度,同时不受应用场景的约束。
如图4所示,所述系统还包括形状模型建立单元41和分类器建立单元42。
其中,形状模型建立单元41,用于通过形状对齐和主成分分析,建立眼睛和嘴巴的ASM形状模型;
分类器建立单元42,用于根据眼睛和嘴巴的纹理特征,建立眼睛和嘴巴的关键点/块的SVM分类器。
可选的,所述定位单元31,具体用于根据SVM分类器和ASM形状模型迭代的进行眼睛和嘴巴关键点的搜索和形状约束。
可选的,如图5所示,所述第二处理单元33包括:
眼距确定模块51,用于根据左眼和右眼的位置,确定眼距;
第一处理模块52,用于根据眼睛和嘴巴的关键点/块,确定在所述当前帧图片中左眼、右眼及嘴巴所在区域,并根据所述眼距将所述左眼、右眼及嘴巴所在区域进行水平校正;
第二处理模块53,用于分别提取所述左眼、右眼及嘴巴所在区域的特征值,并将所述左眼、右眼及嘴巴所在区域的特征值存入队列中。
可选的,如图6所示,所述平均差异值计算单元包括:
加权欧氏距离计算模块61,用于根据 计算当所述采集的图片帧数为所述第一预设值时,在所述采集的图片中的任意两帧图片对应的特征值的加权欧氏距离,其中D(Xp,Xq)为在所述采集的图片中第p帧和第q帧图片对应的特征值的加权欧氏距离,dL为左眼所在区域的特征值个数,dR为右眼所在区域的特征值个数,dM为嘴巴所在区域的特征值个数,和分别为第p帧和第q帧图片中左眼所在区域的第i个特征值,和分别为第p帧和第q帧图片中右眼所在区域的第i个特征值,和分别为第p帧和第q帧图片中嘴巴所在区域的第i个特征值,w1为左眼所在区域的人脸生理形变的敏感度值,w2为右眼所在区域的人脸生理形变的敏感度值,w3为嘴巴所在区域的人脸生理形变的敏感度值;
平均差异值计算模块62,用于根据计算当所述采集的图片帧数为所述第一预设值时,所述采集的图片中眼睛和嘴巴所在区域的特征值的平均差异值,其中D为所述第一预设值帧数的图片中眼睛和嘴巴区域的特征值的平均差异值,N为所述第一预设值,D(Xp,Xq)为所述第一预设值帧数的图片中第p帧和第q帧图片对应的特征值的加权欧氏距离。
上述人脸活体检测系统的操作过程,参见上述人脸活体检测方法的实现过程。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种人脸活体检测方法,其特征在于,包括:
101、在采集的当前帧图片中定位面部关键点/块;
102、当定位面部关键点/块不成功时,丢弃所述当前帧图片,采集下一帧图片,跳转执行步骤101;
103、当定位面部关键点/块成功时,提取并存储所述面部关键点/块所在区域的特征值,将采集的图片帧数加1;
104、判断所述采集的图片帧数是否等于第一预设值,如果不是,则采集下一帧图片并跳转执行步骤101;如果是,跳转执行步骤105;
105、根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,所述平均差异值为当所述采集的图片帧数等于第一预设值时,所述采集的图片中面部关键点/块所在区域的特征值的平均差异值;
106、判断所述平均差异值是否大于第一阈值,如果不是,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转执行步骤107;如果是,跳转执行步骤108;
107、判断当前平均差异值的计算次数是否小于第二预设值,如果不是,则确定为非真实人脸;如果是,将存储的第一帧图片的面部关键点/块所在区域的特征值删除,采集下一帧图片,并跳转执行步骤101;
108、判断所述平均差异值是否大于第二阈值,如果是,则确定为非真实人脸;如果不是,则确定为真实人脸,所述第二阈值大于所述第一阈值。
2.根据权利要求1所述的方法,其特征在于,所述步骤101中,所述面部关键点/块包含眼睛和嘴巴的关键点/块,所述定位面部关键点/块包括:定位眼睛和嘴巴的关键点/块,具体为:
通过形状对齐和主成分分析,建立眼睛和嘴巴的主动形状模型ASM形状模型;
根据眼睛和嘴巴的纹理特征,建立眼睛和嘴巴的关键点/块的支持向量机SVM分类器。
3.根据权利要求2所述的方法,其特征在于,所述步骤101中,所述在采集的当前帧图片中定位面部关键点/块包括:
根据SVM分类器和ASM形状模型迭代的进行眼睛和嘴巴关键点/块的搜索和形状约束。
4.根据权利要求3所述的方法,其特征在于,所述步骤103中,所述提取并存储所述面部关键点/块所在区域的特征值包括:
根据左眼和右眼的位置,确定眼距;
根据眼睛和嘴巴的关键点/块,确定在所述当前帧图片中左眼、右眼及嘴巴所在区域,并根据所述眼距将所述左眼、右眼及嘴巴所在区域进行水平校正;
分别提取所述左眼、右眼及嘴巴所在区域的特征值,并将所述左眼、右眼及嘴巴所在区域的特征值存入队列中。
5.根据权利要求4所述的方法,其特征在于,所述计算平均差异值包括:
根据 计算当所述采集的图片帧数等于所述第一预设值时,所述采集的图片中的任意两帧图片对应的特征值的加权欧氏距离,其中D(Xp,Xq)为在所述采集的图片中第p帧和第q帧图片对应的特征值的加权欧氏距离,dL为左眼所在区域的特征值个数,dR为右眼所在区域的特征值个数,dM为嘴巴所在区域的特征值个数,和分别为第p帧和第q帧图片中左眼所在区域的第i个特征值,和分别为第p帧和第q帧图片中右眼所在区域的第i个特征值,和分别为第p帧和第q帧图片中嘴巴所在区域的第i个特征值,w1为左眼所在区域的人脸生理形变的敏感度值,w2为右眼所在区域的人脸生理形变的敏感度值,w3为嘴巴所在区域的人脸生理形变的敏感度值;
6.一种人脸活体检测系统,其特征在于,包括:
定位单元,用于在采集的当前帧图片中定位面部关键点/块;
第一处理单元,用于当定位面部关键点/块不成功时,丢弃所述当前帧图片,采集下一帧图片,跳转入定位单元;
第二处理单元,用于当定位面部关键点/块成功时,提取并存储所述面部关键点/块所在区域的特征值,将采集的图片帧数加1;
第三处理单元,用于判断所述采集的图片帧数是否等于第一预设值,如果不是,则采集下一帧图片并跳转入定位单元;如果是,跳转入平均差异值计算单元;
平均差异值计算单元,用于根据存储的所述面部关键点/块所在区域的特征值,计算平均差异值,所述平均差异值为当所述采集的图片帧数等于第一预设值时,所述采集的图片中面部关键点/块所在区域的特征值的平均差异值;
第四处理单元,用于判断所述平均差异值是否大于第一阈值,如果不是,则将所述采集的图片帧数减1,平均差异值的计算次数加1,并跳转入第五处理单元;如果是,跳转入第六处理单元;
第五处理单元,用于判断当前平均差异值的计算次数是否小于第二预设值,如果不是,则确定为非真实人脸;如果是,将存储的第一帧图片的面部关键点/块所在区域的特征值删除,采集下一帧图片,并跳转入定位单元;
第六处理单元,用于判断所述平均差异值是否大于第二阈值,如果是,则确定为非真实人脸;如果不是,则确定为真实人脸,所述第二阈值大于所述第一阈值。
7.根据权利要求6所述的系统,其特征在于,所述系统还包括:
形状模型建立单元,用于通过形状对齐和主成分分析,建立眼睛和嘴巴的ASM形状模型;
分类器建立单元,用于根据眼睛和嘴巴的纹理特征,建立眼睛和嘴巴的关键点/块的SVM分类器。
8.根据权利要求7所述的系统,其特征在于,
所述定位单元,具体用于根据SVM分类器和ASM形状模型迭代的进行眼睛和嘴巴关键点的搜索和形状约束。
9.根据权利要求8所述的系统,其特征在于,所述第二处理单元包括:
眼距确定模块,用于根据左眼和右眼的位置,确定眼距;
第一处理模块,用于根据眼睛和嘴巴的关键点/块,确定在所述当前帧图片中左眼、右眼及嘴巴所在区域,并根据所述眼距将所述左眼、右眼及嘴巴所在区域进行水平校正;
第二处理模块,用于分别提取所述左眼、右眼及嘴巴所在区域的特征值,并将所述左眼、右眼及嘴巴所在区域的特征值存入队列中。
10.根据权利要求9所述的系统,其特征在于,所述平均差异值计算单元包括:
加权欧氏距离计算模块,用于根据 计算当所述采集的图片帧数为所述第一预设值时,所述采集的图片中的任意两帧图片对应的特征值的加权欧氏距离,其中D(Xp,Xq)为在所述采集的图片中第p帧和第q帧图片对应的特征值的加权欧氏距离,dL为左眼所在区域的特征值个数,dR为右眼所在区域的特征值个数,dM为嘴巴所在区域的特征值个数,和分别为第p帧和第q帧图片中左眼所在区域的第i个特征值,和分别为第p帧和第q帧图片中右眼所在区域的第i个特征值,和分别为第p帧和第q帧图片中嘴巴所在区域的第i个特征值,w1为左眼所在区域的人脸生理形变的敏感度值,w2为右眼所在区域的人脸生理形变的敏感度值,w3为嘴巴所在区域的人脸生理形变的敏感度值;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210331141.2A CN103679118B (zh) | 2012-09-07 | 2012-09-07 | 一种人脸活体检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210331141.2A CN103679118B (zh) | 2012-09-07 | 2012-09-07 | 一种人脸活体检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103679118A true CN103679118A (zh) | 2014-03-26 |
CN103679118B CN103679118B (zh) | 2017-06-16 |
Family
ID=50316612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210331141.2A Active CN103679118B (zh) | 2012-09-07 | 2012-09-07 | 一种人脸活体检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103679118B (zh) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105243376A (zh) * | 2015-11-06 | 2016-01-13 | 北京汉王智远科技有限公司 | 一种活体检测方法和装置 |
CN105335722A (zh) * | 2015-10-30 | 2016-02-17 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN105389554A (zh) * | 2015-11-06 | 2016-03-09 | 北京汉王智远科技有限公司 | 基于人脸识别的活体判别方法和设备 |
CN105701464A (zh) * | 2016-01-13 | 2016-06-22 | 杭州奇客科技有限公司 | 一种判断人脸检测误检及关键点定位准确度的方法 |
CN105740779A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN105868733A (zh) * | 2016-04-21 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 一种人脸活体验证方法及装置 |
CN105933975A (zh) * | 2016-04-11 | 2016-09-07 | 南京邮电大学 | 一种基于WiFi指纹的精度改善的室内定位方法 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107210007A (zh) * | 2014-11-13 | 2017-09-26 | 英特尔公司 | 防止基于面部的认证假冒 |
CN108154111A (zh) * | 2017-12-22 | 2018-06-12 | 泰康保险集团股份有限公司 | 活体检测方法、系统、电子设备及计算机可读介质 |
CN108229359A (zh) * | 2017-12-26 | 2018-06-29 | 大唐软件技术股份有限公司 | 一种人脸图像处理方法及装置 |
CN108351961A (zh) * | 2015-09-11 | 2018-07-31 | 眼验股份有限公司 | 图像及特征质量、用于眼部血管及面部识别的图像增强及特征提取及针对生物识别系统融合眼部血管与面部及/或子面部信息 |
CN108848416A (zh) * | 2018-06-21 | 2018-11-20 | 北京密境和风科技有限公司 | 音视频内容的评价方法和装置 |
CN109389002A (zh) * | 2017-08-02 | 2019-02-26 | 阿里巴巴集团控股有限公司 | 活体检测方法及装置 |
CN109409344A (zh) * | 2018-12-23 | 2019-03-01 | 广东腾晟信息科技有限公司 | 人脸数据精确对比与判断方法 |
CN109558837A (zh) * | 2018-11-28 | 2019-04-02 | 北京达佳互联信息技术有限公司 | 人脸关键点检测方法、装置及存储介质 |
CN109711243A (zh) * | 2018-11-01 | 2019-05-03 | 长沙小钴科技有限公司 | 一种基于深度学习的静态三维人脸活体检测方法 |
CN109784302A (zh) * | 2019-01-28 | 2019-05-21 | 深圳风豹互联网科技有限公司 | 一种人脸活体检测方法及人脸识别设备 |
CN109800704A (zh) * | 2019-01-17 | 2019-05-24 | 深圳英飞拓智能技术有限公司 | 抓拍视频人脸检测的方法及装置 |
WO2019119449A1 (zh) * | 2017-12-22 | 2019-06-27 | 深圳中兴力维技术有限公司 | 人脸图像特征融合处理方法、装置及设备、存储介质 |
CN110023946A (zh) * | 2016-07-05 | 2019-07-16 | 吴业成 | 在现场图像捕捉期间的欺骗攻击检测 |
CN110210393A (zh) * | 2019-05-31 | 2019-09-06 | 百度在线网络技术(北京)有限公司 | 人脸图像的检测方法和装置 |
CN110363132A (zh) * | 2019-07-09 | 2019-10-22 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
TWI684923B (zh) * | 2016-07-22 | 2020-02-11 | 美商美國Nec實驗室有限公司 | 用於抗欺騙臉部辨識之活性偵測 |
CN111144293A (zh) * | 2015-09-25 | 2020-05-12 | 北京市商汤科技开发有限公司 | 带交互式活体检测的人脸身份认证系统及其方法 |
WO2020124993A1 (zh) * | 2018-12-18 | 2020-06-25 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
WO2021042375A1 (zh) * | 2019-09-06 | 2021-03-11 | 深圳市汇顶科技股份有限公司 | 人脸活体检测方法、芯片及电子设备 |
CN112801038A (zh) * | 2021-03-02 | 2021-05-14 | 重庆邮电大学 | 一种多视点的人脸活体检测方法及系统 |
CN113486834A (zh) * | 2020-12-09 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 确认有效人脸区域及活体人脸验证方法 |
CN117687313A (zh) * | 2023-12-29 | 2024-03-12 | 广东福临门世家智能家居有限公司 | 基于智能门锁的智能家居设备控制方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1786980A (zh) * | 2005-12-08 | 2006-06-14 | 上海交通大学 | 用二维轮廓进行人脸特征点新位置搜索的方法 |
JP4420056B2 (ja) * | 2007-04-20 | 2010-02-24 | ソニー株式会社 | 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム |
CN102262724B (zh) * | 2010-05-31 | 2013-01-09 | 汉王科技股份有限公司 | 目标图像特征点定位方法和目标图像特征点定位系统 |
CN102004905B (zh) * | 2010-11-18 | 2012-11-21 | 无锡中星微电子有限公司 | 人脸认证方法及装置 |
-
2012
- 2012-09-07 CN CN201210331141.2A patent/CN103679118B/zh active Active
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107210007A (zh) * | 2014-11-13 | 2017-09-26 | 英特尔公司 | 防止基于面部的认证假冒 |
CN108351961B (zh) * | 2015-09-11 | 2019-11-01 | 眼验股份有限公司 | 以图像为基础的生物识别系统及计算机实施方法 |
CN108351961A (zh) * | 2015-09-11 | 2018-07-31 | 眼验股份有限公司 | 图像及特征质量、用于眼部血管及面部识别的图像增强及特征提取及针对生物识别系统融合眼部血管与面部及/或子面部信息 |
CN111144293A (zh) * | 2015-09-25 | 2020-05-12 | 北京市商汤科技开发有限公司 | 带交互式活体检测的人脸身份认证系统及其方法 |
CN105335722A (zh) * | 2015-10-30 | 2016-02-17 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN105389554A (zh) * | 2015-11-06 | 2016-03-09 | 北京汉王智远科技有限公司 | 基于人脸识别的活体判别方法和设备 |
CN105389554B (zh) * | 2015-11-06 | 2019-05-17 | 北京汉王智远科技有限公司 | 基于人脸识别的活体判别方法和设备 |
CN105243376A (zh) * | 2015-11-06 | 2016-01-13 | 北京汉王智远科技有限公司 | 一种活体检测方法和装置 |
CN105701464A (zh) * | 2016-01-13 | 2016-06-22 | 杭州奇客科技有限公司 | 一种判断人脸检测误检及关键点定位准确度的方法 |
CN105740779B (zh) * | 2016-01-25 | 2020-11-13 | 北京眼神智能科技有限公司 | 人脸活体检测的方法和装置 |
CN105740779A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN105933975A (zh) * | 2016-04-11 | 2016-09-07 | 南京邮电大学 | 一种基于WiFi指纹的精度改善的室内定位方法 |
CN105868733A (zh) * | 2016-04-21 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 一种人脸活体验证方法及装置 |
US10796179B2 (en) | 2016-04-21 | 2020-10-06 | Tencent Technology (Shenzhen) Company Limited | Living face verification method and device |
CN110023946A (zh) * | 2016-07-05 | 2019-07-16 | 吴业成 | 在现场图像捕捉期间的欺骗攻击检测 |
TWI684923B (zh) * | 2016-07-22 | 2020-02-11 | 美商美國Nec實驗室有限公司 | 用於抗欺騙臉部辨識之活性偵測 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN109389002A (zh) * | 2017-08-02 | 2019-02-26 | 阿里巴巴集团控股有限公司 | 活体检测方法及装置 |
CN108154111B (zh) * | 2017-12-22 | 2021-11-26 | 泰康保险集团股份有限公司 | 活体检测方法、系统、电子设备及计算机可读介质 |
CN108154111A (zh) * | 2017-12-22 | 2018-06-12 | 泰康保险集团股份有限公司 | 活体检测方法、系统、电子设备及计算机可读介质 |
WO2019119449A1 (zh) * | 2017-12-22 | 2019-06-27 | 深圳中兴力维技术有限公司 | 人脸图像特征融合处理方法、装置及设备、存储介质 |
CN108229359A (zh) * | 2017-12-26 | 2018-06-29 | 大唐软件技术股份有限公司 | 一种人脸图像处理方法及装置 |
CN108848416A (zh) * | 2018-06-21 | 2018-11-20 | 北京密境和风科技有限公司 | 音视频内容的评价方法和装置 |
CN109711243B (zh) * | 2018-11-01 | 2021-02-09 | 长沙小钴科技有限公司 | 一种基于深度学习的静态三维人脸活体检测方法 |
CN109711243A (zh) * | 2018-11-01 | 2019-05-03 | 长沙小钴科技有限公司 | 一种基于深度学习的静态三维人脸活体检测方法 |
CN109558837B (zh) * | 2018-11-28 | 2024-03-22 | 北京达佳互联信息技术有限公司 | 人脸关键点检测方法、装置及存储介质 |
CN109558837A (zh) * | 2018-11-28 | 2019-04-02 | 北京达佳互联信息技术有限公司 | 人脸关键点检测方法、装置及存储介质 |
WO2020124993A1 (zh) * | 2018-12-18 | 2020-06-25 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
US11017253B2 (en) | 2018-12-18 | 2021-05-25 | Beijing Bytedance Network Technology Co., Ltd. | Liveness detection method and apparatus, and storage medium |
CN109409344A (zh) * | 2018-12-23 | 2019-03-01 | 广东腾晟信息科技有限公司 | 人脸数据精确对比与判断方法 |
CN109800704A (zh) * | 2019-01-17 | 2019-05-24 | 深圳英飞拓智能技术有限公司 | 抓拍视频人脸检测的方法及装置 |
CN109784302A (zh) * | 2019-01-28 | 2019-05-21 | 深圳风豹互联网科技有限公司 | 一种人脸活体检测方法及人脸识别设备 |
CN109784302B (zh) * | 2019-01-28 | 2023-08-15 | 深圳信合元科技有限公司 | 一种人脸活体检测方法及人脸识别设备 |
CN110210393A (zh) * | 2019-05-31 | 2019-09-06 | 百度在线网络技术(北京)有限公司 | 人脸图像的检测方法和装置 |
CN110363132B (zh) * | 2019-07-09 | 2021-08-03 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN110363132A (zh) * | 2019-07-09 | 2019-10-22 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
WO2021042375A1 (zh) * | 2019-09-06 | 2021-03-11 | 深圳市汇顶科技股份有限公司 | 人脸活体检测方法、芯片及电子设备 |
CN113486834B (zh) * | 2020-12-09 | 2024-03-19 | 上海齐感电子信息科技有限公司 | 确认有效人脸区域及活体人脸验证方法 |
CN113486834A (zh) * | 2020-12-09 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 确认有效人脸区域及活体人脸验证方法 |
CN112801038A (zh) * | 2021-03-02 | 2021-05-14 | 重庆邮电大学 | 一种多视点的人脸活体检测方法及系统 |
CN112801038B (zh) * | 2021-03-02 | 2022-07-22 | 重庆邮电大学 | 一种多视点的人脸活体检测方法及系统 |
CN117687313A (zh) * | 2023-12-29 | 2024-03-12 | 广东福临门世家智能家居有限公司 | 基于智能门锁的智能家居设备控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103679118B (zh) | 2017-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103679118A (zh) | 一种人脸活体检测方法及系统 | |
CN110223322B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN102521565B (zh) | 低分辨率视频的服装识别方法及系统 | |
CN101142584B (zh) | 面部特征检测的方法 | |
CN101216884B (zh) | 一种人脸认证的方法及系统 | |
CN103605971B (zh) | 一种捕获人脸图像的方法及装置 | |
CN104008370A (zh) | 一种视频人脸识别方法 | |
CN105956578A (zh) | 一种基于身份证件信息的人脸验证方法 | |
CN105389554A (zh) | 基于人脸识别的活体判别方法和设备 | |
CN101576951B (zh) | 一种基于灰度梯度和分类器的虹膜外边界定位方法 | |
CN100373397C (zh) | 一种虹膜图像预处理方法 | |
CN102254165B (zh) | 一种基于结构编码特征和纹理编码特征融合的手背静脉识别方法 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN101551852B (zh) | 训练系统、训练方法和检测方法 | |
CN105447441A (zh) | 人脸认证方法和装置 | |
CN103093215A (zh) | 人眼定位方法及装置 | |
CN103336973B (zh) | 多特征决策融合的眼状态识别方法 | |
CN102156983A (zh) | 基于模式识别与目标跟踪的异常行人位置检测方法 | |
CN103914676A (zh) | 一种在人脸识别中使用的方法和装置 | |
CN102880877A (zh) | 一种基于轮廓特征的目标识别方法 | |
CN102867188A (zh) | 一种基于级联结构的会场内座位状态检测方法 | |
CN102629320A (zh) | 基于特征层定序测量统计描述的人脸识别方法 | |
CN103390151B (zh) | 人脸检测方法及装置 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |