CN109086728A - 活体检测方法 - Google Patents
活体检测方法 Download PDFInfo
- Publication number
- CN109086728A CN109086728A CN201810921523.8A CN201810921523A CN109086728A CN 109086728 A CN109086728 A CN 109086728A CN 201810921523 A CN201810921523 A CN 201810921523A CN 109086728 A CN109086728 A CN 109086728A
- Authority
- CN
- China
- Prior art keywords
- sample
- value
- model
- pixel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种活体检测方法,涉及人脸识别领域。本发明解决了目前人脸识别过程中易受视频或照片的攻击,从而无法准确识别真实人脸和伪造人脸的问题,其技术方案要点为:采集样本并设置样本的图片标签值,分别计算训练集各个样本的拉普拉斯特征值及Tamura纹理特征值并对其进行拼接,然后利用拼接结果训练出模型,并设置该模型的初始输出范围,然后分别计算验证集各个样本的拉普拉斯特征值及Tamura纹理特征值并对其进行拼接,并将拼接结果传输至该模型进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
Description
技术领域
本发明涉及人脸识别技术,特别涉及在门禁系统或广告机中如何更加准确地识别活体人脸图像的技术。
背景技术
门禁系统就是对出入口通道进行管制的系统。初期的门禁系统通常被称为电子锁,主要为电子磁卡锁和电子密码锁,但磁卡锁的信息容易复制,卡片与读卡机具之间磨损大,故障率高,安全系数低。密码锁的问题是密码容易泄露,又无从查起,安全系数很低。随着感应式IC卡技术,生物识别技术的发展,门禁系统得到了飞跃式的发展,进入了成熟期,出现了感应卡式门禁系统,指纹门禁系统,虹膜门禁系统,面部识别门禁系统等各种技术的的系统,它们在安全性,方便性,易管理性等方面都各有特长。
基于人脸识别的门禁管理系统属于非接触式门禁系统,主要涉及到人脸定位、人脸识别和门禁控制等技术,是利用人面部的生物信息对身份进行鉴定,安全性较高且无需携带门禁卡,受到广大用户的欢迎。但人脸识别技术受到光线的影响较大,光照条件较差的环境识别效果不佳。感应式IC卡技术对环境的鲁棒性较好,但需要携带IC卡。
广告机是利用液晶显示器实现信息显示和视频广告播放的智能设备。主要功能是对外宣传,播放视频和图片,让每一个经过广告机的人都能看到你通过广告机传递给他的信息。
现阶段,广告机、感应式IC卡门禁系统甚至人脸识别门禁系统经常布置在一起,但是其中涉及的人脸识别技术易受照片、视频等手段的攻击,对安全性有致命影响。
参见申请号为201711210041.3的专利申请,其公开了一种基于近红外与可见光双目摄像头的活体人脸检测方法,并具体公开了如下技术特征:
(1)活体人脸分类模型的训练步骤:
采集训练样本,包括近红外摄像头下拍摄的活体人脸图像图片GNIR,对应GNIR的近红外伪造非活体人脸图像NNIR、可见光伪造非活体人脸图像VNIR;可见光摄像头下拍摄的活体人脸图像图片GVIS、对应GVIS的近红外伪造非活体人脸图像GVIS;
样本清洗:计算训练样本的人脸的侧脸角度,剔除侧脸角度大于阈值的训练样本;
对清洗后的训练样本进行图像预处理:计算训练样本的人脸平面旋转角度,对图片做旋转变换,使眼睛保持在图片中的水平位置;再截取只包含人脸区域的非活体人脸图像,并进行尺寸归一化处理;
训练近红外摄像头下区分活体人脸图像和可见光伪造人脸的第一活体人脸分类模型:
对预处理后的训练样本进行第一正负样本划分:将活体人脸图像图像GNIR作为第一正样本;伪造非活体人脸图像NNIR和VNIR作为第一负样本;
提取第一正负样本的纹理特征向量:
提取第一正负样本的8位和16位二值编码模式下的Uniform LBP特征,并分别对两种编码模式下的Uniform LBP特征进行直方图统计,得到第一正负样本的两类初始纹理特征向量;
分别按井字形将第一正负样本均分为9个图像子块,并提取各图像子块的8位二值编码模式下的Uniform LBP特征并进行直方图统计,得到图像子块的纹理特征向量;
拼接各正负样本的两类初始纹理特征向量和9个图像子块的纹理特征向量,得到样本的纹理特征向量;
基于第一正负样本的纹理特征向量,进行SVM分类模型训练,得到能够区别活体人脸图像和可见光伪造人脸图像的第一活体人脸分类模型;
训练可见光摄像头下区分活体人脸图像和近红外伪造人脸的第二活体人脸分类模型:
对预处理后的训练样本进行第二正负样本划分:将活体人脸图像图像GVIS作为第二正样本;将伪造人脸图像NVIS作为第二负样本;
提取第二正负样本的颜色特征向量:将第二正负样本图片转换到Lab颜色空间,并对Lab颜色空间的a通道和b通道进行直方图统计,得到统计结果Sa、Sb,并将Sa和Sb拼接成一个向量,作为样本的颜色特征向量;
基于第二正负样本的颜色特征向量,进行SVM分类模型训练,得到能够区别活体人脸图像和
红外伪造人脸图像的第二活体人脸分类模型;
(2)活体人脸检测步骤:
分别采集待检测对象在近红外摄像头和可见光摄像头下的一段满足检测时长的图像视频,对应近红外摄像头的记为第一图像视频,对应可见光摄像头的记为第二图像视频;
判断第一和第二图像视频是否同时存在人脸,若否,则判定待检测对象为非活体人脸;若是,则分别从第一和第二图像视频中提取一帧匹配的人脸帧图像,得到第一、二人脸帧图像;其中匹配的人脸帧图像为:两个图像视频中帧时间相同且人脸侧脸角度在预设范围内的一帧图像;
基于第一、二人脸帧图像进行活体人脸检测:
采用与训练样本相同的图像预处理方式,对第一、二人脸帧图像进行图像预处理后;再采用提取训练样本的纹理特征向量、颜色特征向量的特征提取方式,提取第一、二人脸帧图像的纹理特征向量和颜色特征向量;
基于第一活体人脸分类模型和第一人脸帧的纹理特征向量,获取待检测对象的第一分类结果;基于第二活体人脸分类模型和第一人脸帧的纹颜色征向量,获取待检测对象的第二分类结果;
若第一、二分类结果均为活体人脸,则当前待检测对象为活体人脸;否则为非活体人脸。
可见,该专利申请能够对活体人脸及非活体人脸进行分辨,但是其利用的是拼接各正负样本的两类初始纹理特征向量和9个图像子块的纹理特征向量,得到样本的纹理特征向量,这里,利用的向量拼接是指Uniform LBP特征,而只针对某种特征下的纹理特征进行拼接依然不稳定,抗攻击性不强。
发明内容
本发明的目的是提供一种活体检测方法,解决目前人脸识别过程中易受视频或照片的攻击,从而无法准确识别活体人脸图像和伪造人脸的问题。
本发明解决其技术问题,采用的技术方案是:活体检测方法,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,所述样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,分别计算训练集各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤3、分别对计算出的训练集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼出结果,然后进入步骤4;
步骤4、利用拼接结果训练出模型,并设置该模型的初始输出范围,所述初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤5、将剩余样本作为验证集,分别计算验证集中各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤6、分别对计算出的验证集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,然后进入步骤7;
步骤7、将拼接结果传输至该模型进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
具体地,步骤4和/或步骤7中,所述模型为神经网络模型。
进一步地,步骤2和/或步骤5中,所述计算训练集和/或验证集各个样本的拉普拉斯特征值包括如下步骤:
步骤A1、利用一定规格的矩形边框遍历整幅样本图像,将该矩形边框中所有像素对应的横纵坐标转换成极坐标,并在该矩形边框中,以中间像素为圆心,以半径为1像素的圆上将圆周平均分成9等分,所述将像素的横纵坐标转换成极坐标的公式为:
p(r,θ)=s(x,y)
其中,r=1,θ=0°,40°,....,320°,x=rcosθ,y=rsinθ;
步骤A2、通过双线性插值法得到圆周上的9个像素点,其公式为:
s(x',y')=ax'+by'+cx'y'+d
其中,(x',y')为这9个像素点中要插值点的坐标,a,b,c,d为要插值点周围的4个像素点;
步骤A3、将这9个像素点分别进行离散傅里叶变换,其公式为:
其中,N为9,n取0,1,2,...,8,分别表示这9个像素点,i为大于等于0的正整数,k为n中第k个像素点;
步骤A4、将经离散傅里叶变换得到的9个值进行复数部分和实数部分分离,并组成长度矩阵,所述矩阵为长度为9的数组,经离散傅里叶变换得到的9个值分别为P(0),P(1),P(2),...,P(8),所述数组为:
Ck=[Re{P(k)}Im{P(k)}]
其中,Ck表示的是矩阵C的第k个值,Re{P(k)}表示的是P(k)的实数部分,Im{P(k)}表示P(k)的虚数部分,P(k)为经离散傅里叶变换得到的9个值中的第k个值;
步骤A5、将矩阵量化成9比特的二进制编码,所述二进制编码中每个系数的符号的确定公式为:
其中,其中b(k)为每个系数的符号,取b(0),b(1),b(2),...,b(8),当Ck大于等于0时赋值为1,小于0时赋值为0;
步骤A6、将b(0),b(1),b(2),...,b(8)转化为9比特的纹理特征值,其公式为:
具体地,步骤A1中,所述一定规格的矩形边框是指3×3的矩形边框。
再进一步地,步骤2和/或步骤5中,所述计算训练集和/或验证集各个样本的Tamura纹理特征值包括计算Tamura纹理的粗糙度和对比度。
具体地,所述计算Tamura纹理的粗糙度的过程包括如下步骤:
步骤B1、计算整幅样本图像中大小为2m×2m的像素块的活动窗口中像素的平均强度值,其计算公式为:
式中:m为大于等于0的正整数,g(i,j)是位于(i,j)处像素的灰度值,i表示该活动窗口中像素处于第i行,j表示该活动窗口中像素处于第j列,(x,y)表示该活动窗口的中心像素点的坐标;
步骤B2、分别计算该活动窗口中每个像素在水平方向和垂直方向上互不重叠的窗口之间的平均强度差,其计算公式分别为:
Em,u(x,y)=|Am(x+2m-1,y)-Am(x-2m-1,y)|
Em,v(x,y)=|Am(x,y+2m-1)-Am(x,y-2m-1)|
其中,Em,u(x,y)计算的是以(x,y)为中心像素点,水平方向上的互不重叠的窗口之间的平均强度差,Em,v(x,y)计算的是以(x,y)为中心像素点,水平方向上的互不重叠的窗口之间的平均强度差,u代表水平方向,v代表垂直方向,Am(x+2m-1,y)即为以(x+2m-1,y)为中心像素点的大小为2m×2m的图像块的活窗口中像素的平均强度值,Am(x-2m-1,y)即为以(x-2m -1,y)为中心像素点的大小为2m×2m的图像块的活窗口中像素的平均强度值;
步骤B3、通过使像素在水平方向和垂直方向上互不重叠的窗口之间的平均强度差的和最大时对应的m值来设置活动窗口的最佳尺寸,所述最佳尺寸的计算公式为:
Sbest(x,y)=2m;
步骤B4、通过计算整幅样本图像中的每个像素对应的活动窗口的最佳尺寸的平均值来确定整幅样本图像的粗糙度,其计算公式为:
其中,w为整幅样本图像的宽,h为整幅样本图像的高。
再进一步地,所述计算Tamura纹理的对比度的过程包括如下步骤:
步骤C1、计算整幅样本图像的峰度,其计算公式为:
其中,表示整幅样本图像中所有像素的灰度值的平均值,σ是的方差,为四阶矩;
步骤C2、根据计算的峰度计算整幅样本图像的对比度,其计算公式为:
本发明的有益效果是,通过上述活体检测方法,首先,采集样本并设置样本的图片标签值,其中,样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;然后,随机选择采集的部分样本并将其作为训练集,分别计算训练集各个样本的拉普拉斯特征值及Tamura纹理特征值;其次,分别对计算出的训练集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,并判断拼接结果是否正确,正确后,利用拼接结果训练出模型,并设置该模型的初始输出范围,初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;然后,将剩余样本作为验证集,分别计算验证集各个样本的拉普拉斯特征值及Tamura纹理特征值;再然后,分别对计算出的验证集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,并判断拼接结果是否正确,正确后,将拼接结果传输至该模型进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
这里,将拉普拉斯特征值及Tamura纹理特征值进行拼接后,送入训练的网路模型,并在实际活体人脸检测时,根据确定的相关参数调整该模型,使该模型的输出能够不断接近真实的判断结果,两种类型的特征值进行拼接,训练出的模型更稳定,结合不同种类的特征值,可以使该模型更加准确的识别活体人脸还是非活体人脸。
具体实施方式
下面结合实施例,详细描述本发明的技术方案。
本发明所述活体检测方法,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,其中,样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,分别计算训练集各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤3、分别对计算出的训练集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,然后进入步骤4;
步骤4、利用拼接结果训练出模型,并设置该模型的初始输出范围,其中,初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤5、将剩余样本作为验证集,分别计算验证集中各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤6、分别对计算出的验证集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,然后进入步骤7;
步骤7、将拼接结果传输至该模型进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
这里,将拉普拉斯特征值及Tamura纹理特征值进行拼接后,送入训练的网路模型,并在实际活体人脸检测时,根据确定的相关参数调整该模型,使该模型的输出能够不断接近真实的判断结果,两种类型的特征值进行拼接,训练出的模型更稳定,结合不同种类的特征值,可以使该模型更加准确的识别活体人脸还是非活体人脸。
实施例
本发明实施例活体检测方法,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,其中,样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,分别计算训练集各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤3、分别对计算出的训练集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,然后进入步骤4;
步骤4、利用拼接结果训练出模型,其中,模型优选为神经网络模型,神经网路模型稳定为成熟,相关人员对该神经网路模型的建立步骤更加熟悉和方便,并设置该模型的初始输出范围,其中,初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤5、将剩余样本作为验证集,分别计算验证集中各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤6、分别对计算出的验证集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,进入步骤7;
步骤7、将拼接结果传输至该模型进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
本例中,图像的Tamura纹理特征是场景物体组织形式的外在反映,而LAP方向角统计特征是图像相位角像素波动情况的反映,两种特征相融合可以丰富特征信息的表达,防止特征信息流失,可以得到更好的特征空间,将提取到的特征值拼接后送入深度学习网络进行学习,可以更好地进行图片真实性的判断。
本例的上述方法中,步骤2和/或步骤5中,计算训练集和/或验证集各个样本的拉普拉斯特征值包括如下步骤:
步骤A1、利用一定规格的矩形边框遍历整幅样本图像,这里,一定规格的矩形边框优选是指3×3的矩形边框,将该矩形边框中所有像素对应的横纵坐标转换成极坐标,并在该矩形边框中,以中间像素为圆心,以半径为1像素的圆上将圆周平均分成9等分,其中,将像素的横纵坐标转换成极坐标的公式为:
p(r,θ)=s(x,y)
其中,r=1,θ=0°,40°,....,320°,x=rcosθ,y=rsinθ;
步骤A2、通过双线性插值法得到圆周上的9个像素点,其公式为:
s(x',y')=ax'+by'+cx'y'+d
其中,(x',y')为这9个像素点中要插值点的坐标,a,b,c,d为要插值点周围的4个像素点;
步骤A3、将这9个像素点分别进行离散傅里叶变换,其公式为:
其中,N为9,n取0,1,2,...,8,分别表示这9个像素点,i为大于等于0的正整数,k为n中第k个像素点;
步骤A4、将经离散傅里叶变换得到的9个值进行复数部分和实数部分分离,并组成长度矩阵,矩阵为长度为9的数组,经离散傅里叶变换得到的9个值分别为P(0),P(1),P(2),...,P(8),其中,数组为:
Ck=[Re{P(k)}Im{P(k)}]
其中,Ck表示的是矩阵C的第k个值,Re{P(k)}表示的是P(k)的实数部分,Im{P(k)}表示P(k)的虚数部分,P(k)为经离散傅里叶变换得到的9个值中的第k个值;
步骤A5、将矩阵量化成9比特的二进制编码,所述二进制编码中每个系数的符号的确定公式为:
其中,其中b(k)为每个系数的符号,取b(0),b(1),b(2),...,b(8),当Ck大于等于0时赋值为1,小于0时赋值为0;
步骤A6、将b(0),b(1),b(2),...,b(8)转化为9比特的纹理特征值,其公式为:
这里,LAP值是一个0至255的值,可以用来表示当前纹理的信息,将当前像素值用这个纹理值替换。然后,用256的直方图统计每个纹理的直方图。
本例的上述方法中,步骤2和/或步骤5中,计算训练集和/或验证集各个样本的Tamura纹理特征值包括计算Tamura纹理的粗糙度和对比度。
其中,计算Tamura纹理的粗糙度的过程包括如下步骤:
步骤B1、计算整幅样本图像中大小为2m×2m的像素块的活动窗口中像素的平均强度值,其计算公式为:
式中:m为大于等于0的正整数,g(i,j)是位于(i,j)处像素的灰度值,i表示该活动窗口中像素处于第i行,j表示该活动窗口中像素处于第j列,(x,y)表示该活动窗口的中心像素点的坐标;
步骤B2、分别计算该活动窗口中每个像素在水平方向和垂直方向上互不重叠的窗口之间的平均强度差,其计算公式分别为:
Em,u(x,y)=|Am(x+2m-1,y)-Am(x-2m-1,y)|
Em,v(x,y)=|Am(x,y+2m-1)-Am(x,y-2m-1)|
其中,Em,u(x,y)计算的是以(x,y)为中心像素点,水平方向上的互不重叠的窗口之间的平均强度差,Em,v(x,y)计算的是以(x,y)为中心像素点,水平方向上的互不重叠的窗口之间的平均强度差,u代表水平方向,v代表垂直方向,Am(x+2m-1,y)即为以(x+2m-1,y)为中心像素点的大小为2m×2m的图像块的活窗口中像素的平均强度值,Am(x-2m-1,y)即为以(x-2m -1,y)为中心像素点的大小为2m×2m的图像块的活窗口中像素的平均强度值;
步骤B3、通过使像素在水平方向和垂直方向上互不重叠的窗口之间的平均强度差的和最大时对应的m值来设置活动窗口的最佳尺寸,其中,最佳尺寸的计算公式为:
Sbest(x,y)=2m;
步骤B4、通过计算整幅样本图像中的每个像素对应的活动窗口的最佳尺寸的平均值来确定整幅样本图像的粗糙度,其计算公式为:
其中,w为整幅样本图像的宽,h为整幅样本图像的高。
计算Tamura纹理的对比度的过程包括如下步骤:
步骤C1、计算整幅样本图像的峰度,其计算公式为:
其中,表示整幅样本图像中所有像素的灰度值的平均值,σ是的方差,为四阶矩;
步骤C2、根据计算的峰度计算整幅样本图像的对比度,其计算公式为:
Claims (7)
1.活体检测方法,其特征在于,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,所述样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,分别计算训练集各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤3、分别对计算出的训练集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,然后进入步骤4;
步骤4、利用拼接结果训练出模型,并设置该模型的初始输出范围,所述初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤5、将剩余样本作为验证集,分别计算验证集中各个样本的拉普拉斯特征值及Tamura纹理特征值;
步骤6、分别对计算出的验证集的各个样本的拉普拉斯特征值及Tamura纹理特征值进行拼接,得出拼接结果,然后进入步骤7;
步骤7、将拼接结果传输至该模型进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
2.根据权利要求1所述的活体检测方法,其特征在于,步骤4和/或步骤7中,所述模型为神经网络模型。
3.根据权利要求1所述的活体检测方法,其特征在于,步骤2和/或步骤5中,所述计算训练集和/或验证集各个样本的拉普拉斯特征值包括如下步骤:
步骤A1、利用一定规格的矩形边框遍历整幅样本图像,将该矩形边框中所有像素对应的横纵坐标转换成极坐标,并在该矩形边框中,以中间像素为圆心,以半径为1像素的圆上将圆周平均分成9等分,所述将像素的横纵坐标转换成极坐标的公式为:
p(r,θ)=s(x,y)
其中,r=1,θ=0°,40°,....,320°,x=rcosθ,y=rsinθ;
步骤A2、通过双线性插值法得到圆周上的9个像素点,其公式为:
s(x',y')=ax'+by'+cx'y'+d
其中,(x',y')为这9个像素点中要插值点的坐标,a,b,c,d为要插值点周围的4个像素点;
步骤A3、将这9个像素点分别进行离散傅里叶变换,其公式为:
其中,N为9,n取0,1,2,...,8,分别表示这9个像素点,i为大于等于0的正整数,k为n中第k个像素点;
步骤A4、将经离散傅里叶变换得到的9个值进行复数部分和实数部分分离,并组成长度矩阵,所述矩阵为长度为9的数组,经离散傅里叶变换得到的9个值分别为P(0),P(1),P(2),...,P(8),所述数组为:
Ck=[Re{P(k)}Im{P(k)}]
其中,Ck表示的是矩阵C的第k个值,Re{P(k)}表示的是P(k)的实数部分,Im{P(k)}表示P(k)的虚数部分,P(k)为经离散傅里叶变换得到的9个值中的第k个值;
步骤A5、将矩阵量化成9比特的二进制编码,所述二进制编码中每个系数的符号的确定公式为:
其中,其中b(k)为每个系数的符号,取b(0),b(1),b(2),...,b(8),当Ck大于等于0时赋值为1,小于0时赋值为0;
步骤A6、将b(0),b(1),b(2),...,b(8)转化为9比特的纹理特征值,其公式为:
4.根据权利要求3所述的活体检测方法,其特征在于,步骤A1中,所述一定规格的矩形边框是指3×3的矩形边框。
5.根据权利要求1所述的活体检测方法,其特征在于,步骤2和/或步骤5中,所述计算训练集和/或验证集各个样本的Tamura纹理特征值包括计算Tamura纹理的粗糙度和对比度。
6.根据权利要求5所述的活体检测方法,其特征在于,所述计算Tamura纹理的粗糙度的过程包括如下步骤:
步骤B1、计算整幅样本图像中大小为2m×2m的像素块的活动窗口中像素的平均强度值,其计算公式为:
式中:m为大于等于0的正整数,g(i,j)是位于(i,j)处像素的灰度值,i表示该活动窗口中像素处于第i行,j表示该活动窗口中像素处于第j列,(x,y)表示该活动窗口的中心像素点的坐标;
步骤B2、分别计算该活动窗口中每个像素在水平方向和垂直方向上互不重叠的窗口之间的平均强度差,其计算公式分别为:
Em,u(x,y)=|Am(x+2m-1,y)-Am(x-2m-1,y)|
Em,v(x,y)=|Am(x,y+2m-1)-Am(x,y-2m-1)|
其中,Em,u(x,y)计算的是以(x,y)为中心像素点,水平方向上的互不重叠的窗口之间的平均强度差,Em,v(x,y)计算的是以(x,y)为中心像素点,水平方向上的互不重叠的窗口之间的平均强度差,u代表水平方向,v代表垂直方向,Am(x+2m-1,y)即为以(x+2m-1,y)为中心像素点的大小为2m×2m的图像块的活窗口中像素的平均强度值,Am(x-2m-1,y)即为以(x-2m-1,y)为中心像素点的大小为2m×2m的图像块的活窗口中像素的平均强度值;
步骤B3、通过使像素在水平方向和垂直方向上互不重叠的窗口之间的平均强度差的和最大时对应的m值来设置活动窗口的最佳尺寸,所述最佳尺寸的计算公式为:
Sbest(x,y)=2m;
步骤B4、通过计算整幅样本图像中的每个像素对应的活动窗口的最佳尺寸的平均值来确定整幅样本图像的粗糙度,其计算公式为:
其中,w为整幅样本图像的宽,h为整幅样本图像的高。
7.根据权利要求5或6所述的活体检测方法,其特征在于,所述计算Tamura纹理的对比度的过程包括如下步骤:
步骤C1、计算整幅样本图像的峰度,其计算公式为:
其中,表示整幅样本图像中所有像素的灰度值的平均值,σ是的方差,为四阶矩;
步骤C2、根据计算的峰度计算整幅样本图像的对比度,其计算公式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810921523.8A CN109086728B (zh) | 2018-08-14 | 2018-08-14 | 活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810921523.8A CN109086728B (zh) | 2018-08-14 | 2018-08-14 | 活体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109086728A true CN109086728A (zh) | 2018-12-25 |
CN109086728B CN109086728B (zh) | 2022-03-08 |
Family
ID=64834687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810921523.8A Active CN109086728B (zh) | 2018-08-14 | 2018-08-14 | 活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109086728B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929680A (zh) * | 2019-12-05 | 2020-03-27 | 四川虹微技术有限公司 | 一种基于特征融合的人脸活体检测方法 |
CN111241958A (zh) * | 2020-01-06 | 2020-06-05 | 电子科技大学 | 一种基于残差-胶囊网络的视频图像鉴别方法 |
CN113052096A (zh) * | 2021-03-31 | 2021-06-29 | 上海商汤智能科技有限公司 | 一种视频检测方法、装置、设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001075796A1 (fr) * | 2000-03-30 | 2001-10-11 | Lucette Robin | Systeme teleinformatique et numerique pour la transformation d'une image, notamment de l'image d'un visage humain |
US20070122007A1 (en) * | 2003-10-09 | 2007-05-31 | James Austin | Image recognition |
US20110075916A1 (en) * | 2009-07-07 | 2011-03-31 | University Of Basel | Modeling methods and systems |
US20150261999A1 (en) * | 2013-06-25 | 2015-09-17 | Morpho | Method for detecting a true face |
US20160224853A1 (en) * | 2013-05-09 | 2016-08-04 | Tencent Technology (Shenzhen) Company Limited | Systems and methods for real human face recognition |
CN106446772A (zh) * | 2016-08-11 | 2017-02-22 | 天津大学 | 一种人脸识别系统中的防欺骗方法 |
CN106557726A (zh) * | 2015-09-25 | 2017-04-05 | 北京市商汤科技开发有限公司 | 一种带静默式活体检测的人脸身份认证系统及其方法 |
CN106650693A (zh) * | 2016-12-30 | 2017-05-10 | 河北三川科技有限公司 | 一种用于人脸比对的多特征融合识别算法 |
CN107392142A (zh) * | 2017-07-19 | 2017-11-24 | 广东工业大学 | 一种真伪人脸识别方法及其装置 |
CN107451575A (zh) * | 2017-08-08 | 2017-12-08 | 济南大学 | 一种身份认证系统中的人脸防欺骗检测方法 |
CN107895139A (zh) * | 2017-10-19 | 2018-04-10 | 金陵科技学院 | 一种基于多特征融合的sar图像目标识别方法 |
US20180173979A1 (en) * | 2015-06-29 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system, and computer program product |
-
2018
- 2018-08-14 CN CN201810921523.8A patent/CN109086728B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001075796A1 (fr) * | 2000-03-30 | 2001-10-11 | Lucette Robin | Systeme teleinformatique et numerique pour la transformation d'une image, notamment de l'image d'un visage humain |
US20070122007A1 (en) * | 2003-10-09 | 2007-05-31 | James Austin | Image recognition |
US20110075916A1 (en) * | 2009-07-07 | 2011-03-31 | University Of Basel | Modeling methods and systems |
US20160224853A1 (en) * | 2013-05-09 | 2016-08-04 | Tencent Technology (Shenzhen) Company Limited | Systems and methods for real human face recognition |
US20150261999A1 (en) * | 2013-06-25 | 2015-09-17 | Morpho | Method for detecting a true face |
US20180173979A1 (en) * | 2015-06-29 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system, and computer program product |
CN106557726A (zh) * | 2015-09-25 | 2017-04-05 | 北京市商汤科技开发有限公司 | 一种带静默式活体检测的人脸身份认证系统及其方法 |
CN106446772A (zh) * | 2016-08-11 | 2017-02-22 | 天津大学 | 一种人脸识别系统中的防欺骗方法 |
CN106650693A (zh) * | 2016-12-30 | 2017-05-10 | 河北三川科技有限公司 | 一种用于人脸比对的多特征融合识别算法 |
CN107392142A (zh) * | 2017-07-19 | 2017-11-24 | 广东工业大学 | 一种真伪人脸识别方法及其装置 |
CN107451575A (zh) * | 2017-08-08 | 2017-12-08 | 济南大学 | 一种身份认证系统中的人脸防欺骗检测方法 |
CN107895139A (zh) * | 2017-10-19 | 2018-04-10 | 金陵科技学院 | 一种基于多特征融合的sar图像目标识别方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929680A (zh) * | 2019-12-05 | 2020-03-27 | 四川虹微技术有限公司 | 一种基于特征融合的人脸活体检测方法 |
CN111241958A (zh) * | 2020-01-06 | 2020-06-05 | 电子科技大学 | 一种基于残差-胶囊网络的视频图像鉴别方法 |
CN111241958B (zh) * | 2020-01-06 | 2022-07-22 | 电子科技大学 | 一种基于残差-胶囊网络的视频图像鉴别方法 |
CN113052096A (zh) * | 2021-03-31 | 2021-06-29 | 上海商汤智能科技有限公司 | 一种视频检测方法、装置、设备及存储介质 |
CN113052096B (zh) * | 2021-03-31 | 2024-01-05 | 上海商汤智能科技有限公司 | 一种视频检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109086728B (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862299A (zh) | 一种基于近红外与可见光双目摄像头的活体人脸检测方法 | |
CN108985134B (zh) | 基于双目摄像机的人脸活体检测及刷脸交易方法及系统 | |
US7848548B1 (en) | Method and system for robust demographic classification using pose independent model from sequence of face images | |
US20170124394A1 (en) | Iris liveness detection for mobile devices | |
CN101588443A (zh) | 基于人脸检测的电视收视率统计装置及检测方法 | |
CN106650669A (zh) | 一种鉴别仿冒照片欺骗的人脸识别方法 | |
CN109086728A (zh) | 活体检测方法 | |
CN109858439A (zh) | 一种基于人脸的活体检测方法及装置 | |
CN106982426A (zh) | 一种远程实现旧卡实名制的方法与系统 | |
US8933783B2 (en) | Detection of fraud for access control system of biometric type | |
CN101556717A (zh) | 一种atm智能安保系统及监测方法 | |
JP4159159B2 (ja) | 広告メディア評価装置 | |
Heusch et al. | Pulse-based features for face presentation attack detection | |
CN103902978A (zh) | 人脸检测及识别方法 | |
Li et al. | Robust iris segmentation based on learned boundary detectors | |
CN115841651B (zh) | 基于计算机视觉与深度学习的施工人员智能监测系统 | |
CN112396011A (zh) | 一种基于视频图像心率检测及活体检测的人脸识别系统 | |
CN106599880A (zh) | 一种面向无人监考的同人判别方法 | |
CN108133187B (zh) | 尺度变化稳定特征与多算法表决的一对一虹膜识别方法 | |
CN108334870A (zh) | Ar设备数据服务器状态的远程监控系统 | |
Lee et al. | Robust iris recognition baseline for the grand challenge | |
TWI427545B (zh) | 以尺度不變特徵轉換和人臉角度估測為基礎的人臉辨識方法 | |
CN110991301A (zh) | 一种人脸识别的方法 | |
Erdogmus et al. | Spoofing attacks to 2D face recognition systems with 3D masks | |
CN108446639A (zh) | 低功耗增强现实设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |