CN113221655B - 基于特征空间约束的人脸欺骗检测方法 - Google Patents
基于特征空间约束的人脸欺骗检测方法 Download PDFInfo
- Publication number
- CN113221655B CN113221655B CN202110391703.1A CN202110391703A CN113221655B CN 113221655 B CN113221655 B CN 113221655B CN 202110391703 A CN202110391703 A CN 202110391703A CN 113221655 B CN113221655 B CN 113221655B
- Authority
- CN
- China
- Prior art keywords
- face
- data
- batch
- training
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
Abstract
本发明涉及一种基于特征空间约束的人脸欺骗检测方法,属于人脸识别领域,包括以下步骤:S1:对摄像头采集的训练集视频数据进行分帧采样;S2:对分帧采样的人脸数据进行预处理;S3:将预处理后的图像进行标签标注并输入到卷积神经网络进行特征提取;S4:对提取的特征进行空间约束;S5:进行模型训练,得到用于人脸欺骗检测的Soft‑max模型分类器;S6:采集测试集并对待测试的视频数据进行步骤S1和步骤S2的处理;S7:将测试集预处理的数据输入到训练好的Softmax模型分类器中判断数据的活体真假。本发明缓解了人脸欺骗检测中真假人脸数据之间的类间距离小,类内距离大的问题,进一步提升了人脸欺骗检测网络模型的泛化能力。
Description
技术领域
本发明属于人脸识别领域,涉及一种基于特征空间约束的人脸欺骗检测方法。
背景技术
随着科学技术的进步,人脸识别技术已经被广泛的应用在日常生活中,如人脸支付、考勤打卡、身份识别、车站安检、快递领取等。人脸识别技术的广泛应用给人们的生活带来了极大的便利,但是与此同时人脸识别技术也给人们的个人隐私和财产安全带来了极大的威胁。在人脸识别系统中,当具有合法用户的人脸欺骗在视觉上与真实人脸极其接近时,人脸识别系统很有可能会被攻破,造成个人隐私和财产安全的极大损失。比如2019年10月17日,多家媒体报道,浙江嘉兴外国语学院的小学生利用父母的纸质照片成功打开了小区里的智能快递柜,取出快递。还有2019年12月12日美国《财富》杂志报道,美国圣地亚哥的一家人工智能公司Kneron宣称他们用一种特制的3D面具,成功欺骗过荷兰最大机场的一台自助终端机以及中国火车站的人脸识别系统。由此可见,目前人脸识别系统并未达到安全的标准。因此,如何在人脸识别系统中成功检测各种人脸欺骗是目前人脸识别技术领域必须要解决的问题。
目前学术界提出了各种人脸欺骗检测的方法,有基于外观纹理信息的检测方法、有基于时间序列信息的检测方法、有基于三维深度信息的检测方法、也有基于其它特征信息检测的方法。总的来说,近几年,根据特征提取方法的不同,人脸欺骗检测大致可以分为两类,一类是基于手工设计特征提取的传统方法,一类是近几年在模式识别领域迅速崛起的卷积特征提取方法。
基于手工设计特征的方法包括基于图像纹理信息分析方法(基于Fourier频谱分析和基于颜色纹理分析)、基于运动信息分析方法(基于运动光流分析和人机交互分析)、基于深度信息分析方法(基于结构光深度信息分析和基于TOF深度信息分析)以及基于其它生物信息分析方法(如基于心率监测分析、图像质量分析和上下文情景分析)。对于早期人脸欺骗检测特征提取来说,主要采用特征提取算法有LBP(Local Binary Patterns)、HOG(Histogram of Oriented Gridients)以及SURF(Speeded Up Robust Features)等,利用这些特征提取算法找到活体人脸与欺骗人脸之间的特征差异,然后根据这些差异来进行真假人脸的判别。这种手工设计特征提取的方式在深度学习没有被应用在图像识别领域之前是被人脸识别研究者广泛使用的,因为这种特征提取方式对特定的欺骗类型检测具有良好的效果。但是,基于手工设计特征提取的方法也有弊端,那就是对采集的环境、设备变化等都非常敏感,很容易因为这些变化使模型分类失败。简单地说,也就是基于手工设计特征提取的方法一般在同一数据集上训练和测试能够得到显著的分类性能,但是在跨数据集训练测试时,因为不同数据集之间采集环境和设备有所变化,跨数据集训练的模型在测试集上分类容易失败。所以,一些学者为了使模型能够在真实环境下具备良好的适用性和泛化性,就提出利用时间信息来确定当前人脸是否是活体人脸。针对于最常用的照片欺骗和视频欺骗,利用合法用户人为配合人脸识别系统指令,如眨眼、摇头等去检测当前人脸的真实性,保障系统具有较高的分类准确率和通用性。这也是前几年社会上人脸识别系统应用多为交互式人脸识别系统的主要原因。
基于深度卷积特征提取的方法是近几年在人脸识别领域兴起的一种特征提取方法,也是目前人脸欺骗检测比较有效的方法。与手工设计特征方法相比,深度学习方法以数据驱动的学习方式对图像特征进行学习,能够学习到更多一般性的特征,具备手工设计特征方法无法比拟的优势。在应对复杂环境以及未知的欺骗时,深度学习方法在鲁棒性、适用性、泛化性上都能呈现出较好的检测效果。近几年随着深度学习在人脸识别方向的应用,人脸欺骗检测也在2014年由Yang等人首次引入深度学习方法,Yang等人利用深度学习卷积神经网络(CNN,Convolutional Neural Networks)对活体人脸和欺骗人脸提取特征,然后将提取到的特征放入SVM分类器进行分类。Yang等人在论文中除了在多个数据集上分析了CNN方法对人脸欺骗检测的效果,还在在论文中指出深度学习方法相比于手工设计特征方法,CNN可以捕获更多的线索信息。之后,众多学者看到卷积神经网络在人脸欺骗检测方面的优点,陆续又提出许多基于深度学习的人脸欺骗检测方法,例如2016年Li等人提出了基于深层卷积神经网络(Deep Part Convolutional Neural Network,DPCNN)的欺骗检测方法。把每个卷积核都看成是局部滤波器,从人脸关键区域提取特征,基于强响应区域,从DPCNN中提取深层特征作为局部描述符来进行判断真假人脸。2017年Lucena等人提出了修改Yang等人网络结构的方法,进一步提高了检测精度;2018年Liu等人提出了基于时间和空间双重监督的深度学习方法,实现了跨数据集下泛化能力的提升;2019年Song等人利用深度学习与手工设计特征相结合的人脸欺骗检测方法,融合多种信息进一步提高了欺骗检测的效率;2020年Rui等人提出的基于元学习的欺骗检测方法检测未知环境下的欺骗攻击,进一步提高了方法的泛化能力等。这些基于深度学习的欺骗检测方法再一次证明了深度学习在人脸欺骗检测方面的优势。
随着2014年Yang等人首次将CNN应用在人脸欺骗检测方面,后来越来越多的学者利用CNN以及CNN的变形去解决人脸欺骗检测问题。他们大多将人脸欺骗检测作为一个二分类问题,使用CNN去学习高度辨别能力的模型。但是在基于深度学习的方法中,很多方法有时候容易产生过拟合现象,表现在分类上就是,在同一数据集上能够实现较高的准确率,当应用在现实生活场景中,大多分类效果不是很好。这之中有一个原因是基于深度学习方法和基于手工设计特征方法都存在的一个缺点,那就是对数据产生依赖,在区分真假人脸的时候,大多方法都是依据欺骗人脸所具备的特有欺骗特征和活体人脸所具备的活体特征,如边框、颜色、亮度、摩尔纹、伪像等。但是模型在学习的过程中很容易对某一特征进行过度学习,过分依赖某一特征,这样就容易造成模型泛化能力不强、普遍性比较差。
另外,针对于数据集来说,数据集中数据按二分类可分为真实人脸和欺骗人脸两类,但是在这种二分类中存在一个问题,那就是数据集中数据之间存在类间差异小,类内差异大问题。对于同一个体而言,欺骗和活体之间相似性较大,而对于同一类别而言,不同的个体之间差异性较大,这就导致在特征空间上特征之间呈现出同一类别距离远,同一个体距离近的现象,这对模型的分类准确率具有严重影响。
本发明就是针对于泛化能力和类间差异小和类内差异大的问题提出基于特征空间约束的方法,在一定程度上缓解类间差异大类内差异小的问题,适当的提升了泛化能力。
发明内容
有鉴于此,本发明的目的在于提供一种基于特征空间约束的人脸欺骗检测算法,通过活体特征空间和欺骗特征空间的差异来区分真假人脸,并且利用欧氏距离在特征学习过程中将同一类别的人脸进行分布距离最小化,不同类别人脸进行分布距离最大化,使模型在学习过程中能够更好的区分真假人脸的特征,达到更好的分类效果。
为达到上述目的,本发明提供如下技术方案:
一种基于特征空间约束的人脸欺骗检测方法,包括以下步骤:
S1:对摄像头采集的训练集视频数据进行分帧采样;
S2:对分帧采样的人脸数据进行预处理;
S3:将预处理后的图像进行标签标注并输入到预训练的卷积神经网络进行特征提取;
S4:对提取的特征进行空间约束;
S5:进行模型训练,得到用于人脸欺骗检测的Softmax模型分类器;
S6:采集测试集并将待测试的数据进行步骤S1和步骤S2的处理;
S7:将测试集预处理的数据输入所述Softmax模型分类器中判断测试数据人脸的活体真假。
进一步,所述步骤S1中,采用数据集CASIA-FASD、MSU-MFSD、REPLAY-ATTACK作为采集的数据,并将其中的训练集数据作为本方法的训练集,测试集数据作为本方法的测试集,并对训练集中的视频数据进行分帧采样,产生具有活体人脸和欺骗人脸图片数据的训练数据集。
进一步,在步骤S2中,所述预处理包括颜色空间转换、人脸检测、人脸分割和图像归一化处理;
所述颜色空间转换:利用opencv分帧采样的图片是(B,G,R)颜色通道顺序,而步骤S3中所述的预训练的卷积神经网络模型是针对(R,G,B)图像进行训练的,在训练网络之前,需要将数据集中BGR数据进行颜色空间转换得到RGB数据;
所述人脸检测:对进行图像颜色空间转换得到的人脸图像样本,采用基于Haar特征的Adaboost算法检测得到图像中对应的人脸区域;
所述人脸分割:将人脸检测所检测到的人脸区域进行定比扩展,截取128×128尺寸的人脸区域图像;
所述图像归一化:将人脸分割截取的人脸图像像素值归一化到0-1区间上。
进一步,步骤S3具体包括以下步骤:
S31:构建卷积神经网络模型:
所述卷积神经网络包括5个卷积块、3个全连接层以及一个Softmax层;每个卷积块中包含三个卷积层,一个归一化层,一个激活层,一个池化层,激活层激活函数采用Relu函数;所述归一化层用于保证卷积神经网络在输出数值时稳定,防止梯度消失;输入图像的大小为128×128,包括(R,G,B)三个通道,网络框架中所有卷积层的卷积核均为3*3大小,卷积步长为1,所有池化层都是最大池化,且池化区域大小为2*2,池化步长为2,一次以32帧为一个小批量,第一个卷积块的输入是128×128×3的图像数据;第一个卷积块有32个卷积核,第二个卷积块有64个卷积核,第三个卷积块有128个卷积核,第四个和第五个卷积块有256个卷积核,三个全连接层都具有4096个神经元,且每个全连接层前都有一个Dropout层,使得在前向传播时,让训练网络在模型训练的时候,随机选择隐藏神经元不工作,避免模型过拟合,第一个全连接层与第五个卷积块得到的特征图是全连接状态,第二个全连接层与第一个全连接层是全连接状态,第三个全连接层与第二个是全连接状态,这样经过全连接层后会得到一个4096维的特征向量,最后一层是Softmax分类层,具有两个神经元,这两个神经元得到的结果分别对应人脸图像在真实人脸和欺骗人脸的二分类上的概率分布。
S32:将预处理后的图像进行标签标注,具体为:
将图像数据转换成网络可读的文件类型并标签标注,真实人脸对应1,欺骗人脸对应0,将标注好的数据添加到数据集合中,图像数据,标签数据一一对应;将训练集进行划分多个batch,每个batch具有32张图片的数据,即batchsize为32;
S33:将构建好的卷积神经网络在VGG-face数据集上进行预训练,进行参数初始化,防止模型训练在人脸欺骗检测大数据集上学习过拟合;
S34:使用划分好的多个batch进行网络训练,设置初始学习率为0.0001,每1000步衰减一半,采用衰减学习率的方式是想在卷积神经网络训练模型时,改变学习率可以控制参数的更新速度,使用Adam优化器对网络模型进行优化,网络训练进行20轮迭代。
进一步,所述步骤S4包括以下步骤:
对经过神经网络最后一个全连接层得到的特征向量进行距离约束,利用欧氏距离
对从每个batch中随机获取两个数据,对这两个数据进行标签判断,如果标签相同,将两个数据做欧氏距离,值叠加到Lbatch_in上,如果这两个数据标签不同,同样对两个数据作欧氏距离,将值叠加到Lbatch_out上,然后在每个batch上将叠加的类内损失Lbatch_in和叠加的类间损失Lbatch_out做差,值作为整个batch上的损失,最后在每轮迭代中将多个batch上的损失进行叠加作为总叠加损失函数;
每个batch上的损失函数定义为
Lbatch_loss(Xa,Xb,Xi,Xj)=Lbatch_in(Xa,Xb)-Lbatch_out(Xi,Xj)
Lbatch_in(Xa,Xb)是单个batch上类内损失函数的和,Lbatch_out(Xi,Xj)是单个batch上类间损失函数的和。
整个训练集上总叠加损失函数(总成对损失函数)定义为
Lbatch_loss(Xa,Xb,Xi,Xj)为单个batch上的损失函数,K为训练集划分的batch数目。
网络框架的总损失函数定义为
L总loss=Lloss+Lanti-spoof
Lloss是网络模型在训练集上的总成对损失,Lanti-spoof是网络模型的交叉熵损失,为
yi表示样本i的标签,活体样本为1,欺骗样本为0,pi表示样本i预测为活体的概率;
利用损失函数最小化调整网络模型训练学习的权值参数,获得训练后的人脸欺骗检测网络模型。
进一步,步骤S5中所述模型训练包括:
给Softmax设置阈值,单张图片数据的结果分数大于阈值的表示为活体人脸,小于阈值的表示为欺骗人脸,通过训练网络模型,多次迭代优化直到人脸欺骗检测网络收敛,直至迭代收敛,人脸欺骗检测正确率的迭代标准达到最高值,获得人脸欺骗检测卷积神经网络模型并保存网络训练模型,训练结束。
进一步,步骤S6中先将测试集中的视频数据进行分帧采样,产生具有活体人脸和欺骗人脸图片数据的测试数据集。然后将测试集数据进行同步骤S2的预处理,所述预处理包括颜色空间转换、人脸检测、人脸分割和图像归一化处理;
进一步,步骤S7中先将测试集数据送入步骤S5训练的网络模型分类器,判断测试数据是活体人脸还是欺骗人脸。再统计测试集中每帧人脸图像活体人脸与欺骗人脸的个数,数量多的作为分帧原始视频的标签分类结果,以作为实时性摄像头采集人脸的结果。
本发明的有益效果在于:本发明利用卷积神经网络进行特征提取,并在提取到的特征空间上进行特征约束,在同类别数据之间进行距离最小化,非同类别数据之间进行距离最大化,缓解了人脸欺骗检测中真假人脸数据之间的类间距离小,类内距离大的问题,进一步提升了人脸欺骗检测网络模型的泛化能力。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为基于特征空间约束的人脸欺骗检测方法流程示意图;
图2为卷积神经网络结构示意图。
图3为特征约束流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图3,图1所示为一种基于特征空间约束的人脸欺骗检测方法,步骤如下:
步骤1:本发明采用目前人脸欺骗检测方向公开的数据集CASIA-FASD、MSU-MFSD、REPLAY-ATTACK作为采集的图像数据,采用数据集中的训练集数据作为本发明的训练集,测试集合作为本发明的数据集合,并对训练集中的视频数据进行分帧采样,产生具有活体人脸和欺骗人脸图片数据的训练数据集。
步骤2:对分帧采样的训练集人脸数据进行预处理,预处理包括颜色空间转换、人脸检测、人脸分割、图像归一化处理;
1.颜色空间转换,利用opencv分帧采样的图片是(B,G,R)颜色通道顺序,而这里网络模型是主要是针对于(R,G,B)图像进行训练的,在训练网络之前,需要对于数据集中BGR数据进行颜色空间转换。
2.人脸检测,对进行图像颜色空间转换得到的人脸图像样本,采用基于Haar特征的Adaboost算法检测得到图像中对应的人脸区域。
3.人脸分割,将人脸检测所检测到的人脸区域进行定比扩展,截取128×128尺寸的人脸区域图像;
4.图像归一化,将人脸分割截取的人脸图像像素值归一化到0-1区间上。
步骤3,包括网络模型构建和图像标注与处理。
1.网络模型构建:如图2所示,设计一个卷积神经网络的网络架构,该网络包括5个卷积块、3个全连接层以及一个Softmax层;每个卷积块中包含三个卷积层,一个归一化层,一个激活层,一个池化层,激活层激活函数采用Relu函数。归一化层,保证卷积神经网络在输出数值时稳定,防止梯度消失。输入图像的大小是128×128,包括(R,G,B)三个通道,网络框架中所有卷积层的卷积核都是3*3大小,卷积步长为1,所有池化层都是最大池化,且池化区域大小为2*2,池化步长为2,一次以32帧为一个批量,则第一个卷积块的输入是128×128×3的图像数据;第一个卷积块有32个卷积核,第二个卷积块有64个卷积核,第三个卷积块有128个卷积核,第四个和第五个卷积块有256个卷积核,三个全连接层都是具有4096个神经元,且每个全连接层前都有一个Dropout层,使得在前向传播时,让训练网络在模型训练的时候,随机选择隐藏神经元不工作,避免模型过拟合,第一个全连接层与第五个卷积块得到得特征图是全连接状态,第二个全连接层与第一个全连接层是全连接状态,第三个全连接层与第二个是全连接状态,这样经过全连接层后会得到一个4096维的特征向量,最后一层是Softmax分类层,具有两个神经元,这两个神经元两个结果就是对应着人脸图像在真实人脸和欺骗人脸的二分类上的概率分布。
2.网络结构设计完成后,将对预处理后的图像进行进一步处理,将图像数据转换成网络可读的文件类型并标签标注,真实人脸对应1,欺骗人脸对应0,将标注好的数据添加到数据集合中,图像数据,标签数据一一对应。而且需要将训练集进行划分多个batch,每个batch具有32张图片的数据也就是batchsize为32。
3.将设计好的网络在VGG-face数据集上先进行预训练,进行参数初始化,防止模型训练在人脸欺骗检测大数据集上学习过拟合。
4.然后使用划分好的多个batch进行网络训练,初始学习率设置为0.0001,每1000步衰减一半,采用衰减学习率,在卷积神经网络模型训练时,改变学习率可以控制参数的更新速度,使用Adam优化器进行网络模型优化,模型训练采用20轮训练集数据迭代。
步骤4,对经过神经网络最后一个全连接层得到的特征向量进行距离约束,利用欧氏距离
如图3所示,对从每个batch中随机获取两个数据,对这两个数据进行标签判断,如果标签相同,将两个数据做欧氏距离,值叠加到Lbatch_in上,如果这两个数据标签不同,同样对两个数据作欧氏距离,将值叠加到Lbatch_out上,然后在每个batch上将叠加的类内损失Lbatch_in和叠加的类间损失Lbatch_out做差,值作为整个batch上的损失,最后在每轮迭代中将多个batch上的损失进行叠加作为总叠加损失函数;
每个batch上的损失函数定义为
Lbatch_loss(Xa,Xb,Xi,Xj)=Lbatch_in(Xa,Xb)-Lbatch_out(Xi,Xj)
Lbatch_in(Xa,Xb)是单个batch上类内损失函数的和,Lbatch_out(Xi,Xj)是单个batch上类间损失函数的和。
整个训练集上总叠加损失函数(总成对损失函数)定义为
Lbatch_loss(Xa,Xb,Xi,Xj)为单个batch上的损失函数,K为训练集划分的batch数目。
网络框架的总损失函数定义为
L总loss=Lloss+Lanti-spoof
Lloss是网络模型在训练集上的总成对损失,Lanti-spoof是网络模型的交叉熵损失,为
yi表示样本i的标签,活体样本为1,欺骗样本为0,pi表示样本i预测为活体的概率。
引入总体目标损失主要是针对在特征学习过程中,在空间距离上拉近同类样本特征之间的距离,拉远不同类样本特征之间的距离。另外,这种方式对于不同的欺骗特征具有平衡贡献的作用,有助于提升泛化能力。利用损失函数最小化调整网络模型训练学习的权值参数,获得训练后的人脸欺骗检测网络模型。
步骤5,给Softmax设置阈值,单张图片数据的结果分数大于阈值的表示为活体人脸,小于阈值的表示为欺骗人脸,通过训练网络模型,多次迭代优化直到人脸欺骗检测网络收敛,直至迭代收敛,人脸欺骗检测正确率的迭代标准达到最高值,获得到人脸欺骗检测卷积神经网络模型并保存网络训练模型,训练结束。
步骤6,采集测试集合并将待测试的数据进行步骤1和步骤2的处理
步骤7,将步骤6处理后的数据输入Softmax模型分类器,对分帧采样的图片数据进行活体与欺骗的判别,另外还可以统计测试集中每帧人脸图像活体人脸与欺骗人脸的个数,数量多的可以作为分帧原始视频的标签分类结果。这可以作为实时性摄像头采集人脸的结果。
网络参数详解图
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.一种基于特征空间约束的人脸欺骗检测方法,其特征在于:包括以下步骤:
S1:对摄像头采集的训练集视频数据进行分帧采样;
S2:对分帧采样的人脸数据进行预处理;
S3:将预处理后的图像进行标签标注并输入到卷积神经网络进行特征提取;
S4:对提取的特征进行空间约束;所述步骤S4包括以下步骤:
对经过神经网络最后一个全连接层得到的特征向量进行特征约束,利用欧氏距离约束
对从每个batch中随机获取两个数据,对这两个数据进行标签判断,如果标签相同,将两个数据做欧氏距离,值叠加到Lbatch_in上,如果这两个数据标签不同,同样对两个数据做欧氏距离,将值叠加到Lbatch_out上,然后在每个batch上将叠加的类内损失Lbatch_in和叠加的类间损失Lbatch_out做差,值作为整个batch上的损失,最后在每轮迭代中将多个batch上的损失进行叠加作为总叠加损失函数;
每个batch上的损失函数定义为
Lbatch_loss(Xa,Xb,Xi,Xj)=Lbatch_in(Xa,Xb)-Lbatch_out(Xi,Xj)
Lbatch_in(Xa,Xb)是单个batch上类内损失函数的和,Lbatch_out(Xi,Xj)是单个batch上类间损失函数的和;
整个训练集上总叠加损失函数,即总成对损失函数,定义为
Lbatch_loss(Xa,Xb,Xi,Xj)为单个batch上的损失函数,K为训练集划分的batch数目;
网络框架的总损失函数定义为
L总loss=Lloss+Lanti-spoof
Lloss是网络模型在训练集上的总成对损失,Lanti-spoof是网络模型的交叉熵损失,为
yi表示样本i的标签,活体样本为1,欺骗样本为0,pi表示样本i预测为活体的概率,N为训练集中样本总数;
利用损失函数最小化调整网络模型训练学习的权值参数,获得训练后的人脸欺骗检测网络模型;
S5:进行模型训练,得到用于人脸欺骗检测的Softmax模型分类器;
S6:采集测试集并将待测试的数据进行步骤S1和步骤S2的处理;
S7:将测试集预处理的数据输入上述得到的Softmax模型分类器中判断数据人脸的活体真假。
2.根据权利要求1所述的基于特征空间约束的人脸欺骗检测方法,其特征在于:所述步骤S1中,采用数据集CASIA-FASD、MSU-MFSD、REPLAY-ATTACK作为采集的图像数据,并将其中的训练集数据作为本方法的训练集,测试集数据作为本方法的测试集,并对训练集中的视频数据进行分帧采样,产生具有活体人脸和欺骗人脸图片的训练数据集。
3.根据权利要求1所述的基于特征空间约束的人脸欺骗检测方法,其特征在于:在步骤S2中,所述预处理包括颜色空间转换、人脸检测、人脸分割和图像归一化处理;
所述颜色空间转换:利用opencv分帧采样的图片是(B,G,R)颜色通道顺序,而步骤S3中所述的卷积神经网络模型是针对(R,G,B)图像进行训练的,在网络训练之前,需先要将数据集中BGR数据图片进行颜色空间转换得到RGB数据图片;
所述人脸检测:对图像颜色空间转换得到的人脸图像样本,采用基于Haar特征的Adaboost算法检测得到图像中的人脸区域;
所述人脸分割:将人脸检测所检测到的人脸区域进行定比扩展,截取128×128尺寸的人脸区域图像;
所述图像归一化:将人脸分割截取的人脸图像像素值归一化到0-1区间上。
4.根据权利要求1所述的基于特征空间约束的人脸欺骗检测方法,其特征在于:步骤S3具体包括以下步骤:
S31:构建卷积神经网络模型:
所述卷积神经网络包括5个卷积块、3个全连接层以及一个Softmax层;每个卷积块中包含三个卷积层,一个归一化层,一个激活层,一个池化层,激活层激活函数采用Relu函数;所述归一化层用于保证卷积神经网络在输出数值时稳定,防止梯度消失;输入图像的大小为128×128,包括(R,G,B)三个通道,网络框架中所有卷积层的卷积核均为3*3大小,卷积步长为1,所有池化层都是采用最大池化,且池化区域大小为2*2,池化步长设置为2,每次以32帧为一个小批量,第一个卷积块的输入是128×128×3的图像数据;第一个卷积块有32个卷积核,第二个卷积块有64个卷积核,第三个卷积块有128个卷积核,第四个和第五个卷积块有256个卷积核,三个全连接层都具有4096个神经元,且每个全连接层前都设置一个Dropout层,第一个全连接层与第五个卷积块得到的特征图是全连接状态,第二个全连接层与第一个全连接层是全连接状态,第三个全连接层与第二个是全连接状态,最后一层是Softmax分类层,具有两个神经元,这两个神经元得到的结果分别对应人脸图像在真实人脸和欺骗人脸的二分类上的概率分布;
S32:将预处理后的图像进行标签标注,具体为:
将图像数据转换成网络可读的文件类型并标签标注,真实人脸对应1,欺骗人脸对应0,将标注好的数据添加到数据集合中,图像数据,标签标注一一对应;将训练集进行划分为多个batch,每个batch具有32张图片的数据,即batchsize为32;
S33:将构建好的网络在VGG-face数据集上进行预训练,进行参数初始化,防止模型在大数据集上训练过拟合;
S34:使用划分好的多个batch进行网络训练,设置初始学习率为0.0001,每1000步衰减一半,使用Adam优化器,网络训练过程进行20轮迭代。
5.根据权利要求1所述的基于特征空间约束的人脸欺骗检测方法,其特征在于:步骤S5中所述模型训练包括:
给Softmax设置阈值,单张图片数据的结果分数大于阈值的表示为活体人脸,小于阈值的表示为欺骗人脸,通过训练网络模型,多次迭代优化直到人脸欺骗检测网络收敛,直至迭代收敛,人脸欺骗检测正确率的迭代标准达到最高值,获得人脸欺骗检测卷积神经网络模型并保存网络训练模型,训练结束。
6.根据权利要求1所述的基于特征空间约束的人脸欺骗检测方法,其特征在于:在步骤S6中具体包括以下步骤:
S61:将测试集中的视频数据进行分帧采样,产生具有活体人脸和欺骗人脸图片的测试数据集;
S62:将测试集数据进行同步骤S2的预处理,所述预处理包括颜色空间转换、人脸检测、人脸分割和图像归一化处理。
7.根据权利要求1所述的基于特征空间约束的人脸欺骗检测方法,其特征在于:在步骤S7中,将预处理的测试集数据送入步骤S5训练的网络模型分类器,判断测试数据是活体人脸还是欺骗人脸;另外,统计测试集中每个原始视频分帧产生的人脸图像中活体人脸与欺骗人脸的个数,数量多的作为原始视频的标签分类结果,以作为实时性摄像头采集人脸的欺骗检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110391703.1A CN113221655B (zh) | 2021-04-12 | 2021-04-12 | 基于特征空间约束的人脸欺骗检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110391703.1A CN113221655B (zh) | 2021-04-12 | 2021-04-12 | 基于特征空间约束的人脸欺骗检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113221655A CN113221655A (zh) | 2021-08-06 |
CN113221655B true CN113221655B (zh) | 2022-09-30 |
Family
ID=77087077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110391703.1A Active CN113221655B (zh) | 2021-04-12 | 2021-04-12 | 基于特征空间约束的人脸欺骗检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113221655B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850186A (zh) * | 2021-09-24 | 2021-12-28 | 中国劳动关系学院 | 基于卷积神经网络的智能流媒体视频大数据分析方法 |
CN116524612B (zh) * | 2023-06-21 | 2023-09-12 | 长春理工大学 | 一种基于rPPG的人脸活体检测系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944366A (zh) * | 2017-11-16 | 2018-04-20 | 山东财经大学 | 一种基于属性学习的手指静脉识别方法及装置 |
CN111597869A (zh) * | 2020-03-25 | 2020-08-28 | 浙江工业大学 | 一种基于分组残差联合空间学习的人体活动识别方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105956572A (zh) * | 2016-05-15 | 2016-09-21 | 北京工业大学 | 一种基于卷积神经网络的活体人脸检测方法 |
CN108985135A (zh) * | 2017-06-02 | 2018-12-11 | 腾讯科技(深圳)有限公司 | 一种人脸检测器训练方法、装置及电子设备 |
CN109086645B (zh) * | 2017-06-13 | 2021-04-20 | 阿里巴巴集团控股有限公司 | 人脸识别方法、装置以及虚假用户的识别方法、装置 |
CN107220635A (zh) * | 2017-06-21 | 2017-09-29 | 北京市威富安防科技有限公司 | 基于多造假方式的人脸活体检测方法 |
CN107992842B (zh) * | 2017-12-13 | 2020-08-11 | 深圳励飞科技有限公司 | 活体检测方法、计算机装置及计算机可读存储介质 |
CN109214360B (zh) * | 2018-10-15 | 2021-03-26 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
CN109977865B (zh) * | 2019-03-26 | 2023-08-18 | 江南大学 | 一种基于人脸颜色空间和度量分析的欺诈检测方法 |
CN111814697B (zh) * | 2020-07-13 | 2024-02-13 | 伊沃人工智能技术(江苏)有限公司 | 一种实时人脸识别方法、系统及电子设备 |
CN111767900B (zh) * | 2020-07-28 | 2024-01-26 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、计算机设备及存储介质 |
CN112052808A (zh) * | 2020-09-10 | 2020-12-08 | 河南威虎智能科技有限公司 | 细化深度图的人脸活体检测方法、装置、设备及存储介质 |
-
2021
- 2021-04-12 CN CN202110391703.1A patent/CN113221655B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944366A (zh) * | 2017-11-16 | 2018-04-20 | 山东财经大学 | 一种基于属性学习的手指静脉识别方法及装置 |
CN111597869A (zh) * | 2020-03-25 | 2020-08-28 | 浙江工业大学 | 一种基于分组残差联合空间学习的人体活动识别方法 |
Non-Patent Citations (1)
Title |
---|
基于改进卷积神经网络的人脸活体检测研究;卢鑫;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20210115(第01期);第I138-1895页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113221655A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
He et al. | Multi-patch convolution neural network for iris liveness detection | |
CN104504362A (zh) | 基于卷积神经网络的人脸检测方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN106503687A (zh) | 融合人脸多角度特征的监控视频人物身份识别系统及其方法 | |
Salman et al. | Classification of real and fake human faces using deep learning | |
CN113221655B (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
CN107220598B (zh) | 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法 | |
CN112052772A (zh) | 一种人脸遮挡检测算法 | |
CN103593648B (zh) | 一个面向开放环境的人脸识别方法 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统 | |
CN109977887A (zh) | 一种抗年龄干扰的人脸识别方法 | |
Yuan et al. | MFFFLD: A multimodal-feature-fusion-based fingerprint liveness detection | |
CN113205002B (zh) | 非受限视频监控的低清人脸识别方法、装置、设备及介质 | |
CN109344909A (zh) | 一种基于多通道卷积神经网络的身份识别方法 | |
Chen et al. | A pornographic images recognition model based on deep one-class classification with visual attention mechanism | |
CN109472733A (zh) | 基于卷积神经网络的图像隐写分析方法 | |
Yang et al. | A Face Detection Method Based on Skin Color Model and Improved AdaBoost Algorithm. | |
Pratama et al. | Deep convolutional neural network for hand sign language recognition using model E | |
CN114937298A (zh) | 一种基于特征解耦的微表情识别方法 | |
Long | A Lightweight Face Recognition Model Using Convolutional Neural Network for Monitoring Students in E-Learning. | |
CN103942545A (zh) | 一种基于双向压缩数据空间维度缩减的人脸识别方法和装置 | |
CN113221683A (zh) | 教学场景下基于cnn模型的表情识别方法 | |
CN111898400A (zh) | 一种基于多模态特征融合的指纹活性检测方法 | |
CN113205044B (zh) | 一种基于表征对比预测学习的深度伪造视频检测方法 | |
CN114429646A (zh) | 基于深度自注意力变换网络的步态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |