CN112906508A - 一种基于卷积神经网络的面部活体检测方法 - Google Patents

一种基于卷积神经网络的面部活体检测方法 Download PDF

Info

Publication number
CN112906508A
CN112906508A CN202110135891.1A CN202110135891A CN112906508A CN 112906508 A CN112906508 A CN 112906508A CN 202110135891 A CN202110135891 A CN 202110135891A CN 112906508 A CN112906508 A CN 112906508A
Authority
CN
China
Prior art keywords
layer
face
image data
network
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110135891.1A
Other languages
English (en)
Other versions
CN112906508B (zh
Inventor
魏强
易明权
漆光聪
李晓飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Guanxiang Science And Technology Co ltd
Original Assignee
Sichuan Guanxiang Science And Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Guanxiang Science And Technology Co ltd filed Critical Sichuan Guanxiang Science And Technology Co ltd
Priority to CN202110135891.1A priority Critical patent/CN112906508B/zh
Publication of CN112906508A publication Critical patent/CN112906508A/zh
Application granted granted Critical
Publication of CN112906508B publication Critical patent/CN112906508B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于卷积神经网络的面部活体检测方法,包括以下步骤:S1、采集人脸图像,采用人脸检测器对人脸图像进行处理,得到人脸检测图像数据集;S2、对人脸检测图像数据集进行预处理,得到标准化人脸数据集;S3、构建活体检测网络,并采用标准化人脸数据集对活体检测网络进行训练,得到训练完成的活体检测网络;S4、对训练完成的活体检测网络输入待处理的视频流,得到标记出真实或伪造的人脸视频图像帧;本发明解决了如何识别伪造的人脸图像的问题。

Description

一种基于卷积神经网络的面部活体检测方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于卷积神经网络的面部活体检测方法。
背景技术
近年来,人脸识别随着计算机视觉技术的不断发展,识别技术的性能得到了质的提升。由于人脸识别技术具有直接、方便、易用的特点,目前广泛应用于智能监控、金融、移动支付等领域。随着人脸识别技术的广泛应用,人脸识别技术的安全问题也日益突出,例如:伪造者可以利用用户的图片或视频欺骗人脸识别系统进行移动支付等,造成用户的损失。为了提高人脸识别技术的安全性,需要准确判断当前的用户是否为活体,目前普遍采用的是交互式活体检测技术,即引导用户配合(眨眼、转头、点头)等指令来做出相应动作以在一系列连续的帧中来提取特征来识别是否为活体,但是此方法的侵入性太强,且检索过程繁琐,用户友好性不高;除此之外,还有基于面部纹理的检测,真实人脸和照片中的人脸在图像纹理上存在差别,该方法计算了面部区域的局部二值模式(Local Binary Patterns,LBP),然后通过支持向量机(SVM)将面部检测为真实面部和伪造面部;还有频率分析和光流算法。但这些算法大多是基于人工特征提取,手段单一,不能准确描述活体人脸的特点,对多类型攻击手段的人脸欺诈方式的检测精度差,不具有鲁棒性,受场景约束度较高。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于卷积神经网络的面部活体检测方法解决了如何识别伪造的人脸图像的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于卷积神经网络的面部活体检测方法,包括以下步骤:
S1、采集人脸图像,采用人脸检测器对人脸图像进行处理,得到人脸检测图像数据集;
S2、对人脸检测图像数据集进行预处理,得到标准化人脸数据集;
S3、构建活体检测网络,并采用标准化人脸数据集对活体检测网络进行训练,得到训练完成的活体检测网络;
S4、对训练完成的活体检测网络输入待处理的视频流,得到标记出真实或伪造的人脸视频图像帧。
进一步地,步骤S2包括以下分步骤:
S21、采用高斯滤波对人脸检测图像数据集进行图像降噪,得到降噪人脸检测图像数据集;
S22、采用USM锐化方法对降噪人脸检测图像数据集进行图像增强,得到增强人脸检测图像数据集;
S23、对增强人脸检测图像数据集中每张图像进行左右翻转和旋转,得到扩充人脸检测图像数据集;
S24、对扩充人脸检测图像数据集按照Channel方向计算均值和标准差;
S25、根据均值和标准差,对扩充人脸检测图像数据集进行归一化和标准化处理,得到标准化人脸数据集。
进一步地,步骤S3中活体检测网络包括依次连接的输入层、骨干子网络和特征处理分类子网络;所述骨干子网络包括:Conv2D_BN_ReLU层、DownSampledLayer层、SpindleResidual层和1个DownSampledLayer层;
所述Conv2D_BN_ReLU层的数量为2个;
所述DownSampledLayer层的数量为2个至6个;
所述SpindleResidual层的数量为2个至6个;
所述2个的Conv2D_BN_ReLU层分别为:第一Conv2D_BN_ReLU层和第二Conv2D_BN_ReLU层;
所述DownSampledLayer层的数量为4个;
所述4个DownSampledLayer层分别为:第一DownSampledLayer层、第二DownSampledLayer层、第三DownSampledLayer层、第四DownSampledLayer层和第五DownSampledLayer层;
所述SpindleResidual层的数量为4个;
所述4个SpindleResidual层分别为:第一SpindleResidual层、第二SpindleResidual层、第三SpindleResidual层和第四SpindleResidual层;
所述特征处理分类子网络包括:第一线性层和第二线性层。
进一步地,步骤S3中活体检测网络包括依次连接的输入层、第一Conv2D_BN_ReLU层、第二Conv2D_BN_ReLU层、第一DownSampledLayer层、第一SpindleResidual层、第二DownSampledLayer层、第二SpindleResidual层、第三DownSampledLayer层、第三SpindleResidual层、第四DownSampledLayer层、第四SpindleResidual层、第五DownSampledLayer层、第一线性层和第二线性层;所述输入层的输入端作为活体检测网络的输入端;所述第二线性层的输出端作为活体检测网络的输出端。
上述进一步方案的有益效果为:活体检测网络结合残差块和深度卷积,在加深网络都的同时,既提取了更为抽象的图像语义特征又避免了梯度弥散的发生。
进一步地,第一Conv2D_BN_ReLU层和第二Conv2D_BN_ReLU层均包括依次连接的卷积层、批归化层和非线性单元。
进一步地,第一Conv2D_BN_ReLU层的卷积核大小为3×3,步长为1,输出通道为32。
进一步地,第二Conv2D_BN_ReLU层的卷积核大小为3×3,步长为1,输出通道为64。
进一步地,DownSampledLayer层的卷积核大小均为3×3,步长均为2,填充均为1。
进一步地,SpindleResidual层均包括依次连接的1×1的第一卷积层、3×3的第二卷积层和1×1的第三卷积层,所述3×3的第二卷积层的步长为1,边界填充为1;
所述SpindleResidual层对原始图像数据的处理过程为:
A1、采用1×1的第一卷积层对原始图像数据进行扩维度处理,得到维度为2倍的图像数据;
A2、采用3×3的第二卷积层对维度为2倍的图像数据做像素融合处理,得到融合图像数据;
A3、采用1×1的第三卷积层对融合图像数据进行降维处理,得降维图像数据;
A4、将原始图像数据和降维图像数据作为SpindleResidual层的输出。
进一步地,活体检测网络训练过程的学习率的变化系数为:
Figure BDA0002926938790000041
其中,λ为学习率的变化系数,p为训练总轮数,x为一轮训练的次数,a为超参数。
综上,本发明的有益效果为:本申请提出了一种基于卷积神经网络的面部活体检测方法,真人照片在纹理、光泽度等细节上具有较大差异,而伪造照片往往不具备这种差异。为了能够实现识别这种差异的效果,本发明通过构建深度卷积神经网络,极大的增加了学习抽象特征的能力,并通过使用残差结构,防止梯度消失,保障学习的有效性。
在构建活体检测网络的过程中,由于考虑到在边缘设备上实时计算的性能要求,网络采用深度可分离卷积(Depthwise Convolution)来降低网络参数,然后再接1×1的卷积(pointwise Convolution)来升维;其次,在卷积层后进行网络稀疏处理时,为避免人脸在不同环境下图像的影响,没有采用常用的池化方法(会丢失部分特征),而是采用卷积层来做下采样,尽可能保留了面部特征多样性;最后,为了加快神经网络的inference能力,把卷积层(Conv2D)和批归一化层(Batch Normalization)融合为一个层,融合层的推理时间比未融合前快。
附图说明
图1为一种基于卷积神经网络的面部活体检测方法的流程图;
图2为未优化的损失函数图;
图3为优化的损失函数图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
由于活体检测的本质就是一个二分类问题,所以本文的检测流程主要分为两个阶段,首先用人脸检测器进行人脸定位以及人脸关键点标记,并进行人脸对齐。然后对人脸区域图像进行预处理,包括归一化及标准化,再把人脸图像送入活体检测网络,最后输出一个真实人脸的概率,如果概率大于0.5即为真实人脸,否则为伪造人脸,其具体详细过程如下:
如图1所示,一种基于卷积神经网络的面部活体检测方法,包括以下步骤:
S1、采集人脸图像,采用人脸检测器对人脸图像进行处理,得到人脸检测图像数据集;
在本实施例中的人脸检测器采用MTCNN(多任务级联卷积神经网络),MTCNN由三个卷积神经网络组成,分别是P-Net,R-Net和O-Net。图像先由P-Net筛选出疑似人脸的候选区域(ROI)生成大量的boundingbox,根据坐标反算出在原图中的位置,然后再把候选区域图像输入R-Net进一步选出人脸区域,之后重复上一个步骤,再把选出的图像输入O-Net,最后输出人脸的坐标和置信度,以及五个landmark,通过五个landmark对人脸图像进行对齐,通过人脸的坐标截取出人脸区域的图像,构建人脸检测图像数据集。
S2、对人脸检测图像数据集进行预处理,得到标准化人脸数据集;
在本实施例中,人脸检测图像数据集使用NUAA人脸照片欺骗数据库。NUAA数据库是首个公认的反照片人脸欺骗数据库,数据库的采集分为3个时间阶段,并在不同光照条件下完成,共有15个目标参与数据收集,数据库图片数量如表1所示。为了模拟假冒人脸攻击方式,摄像头捕获的假脸数据存在前后上下左右以及旋转弯曲的空间位置移动和多种照片欺诈的运动形式。
表1 NUAA数据库图片数量
Figure BDA0002926938790000061
由于原始图像的大小不一致,所以先把图像统一缩放至128*128,接下来使用OpenCV对数据做预处理,为了减少图像噪点对训练网络的影响,使用高斯滤波(GaussianBlur)对图像降噪,并使用USM锐化图片对图像增强,为了增加样本的数量和多样性,可对图片左右翻转和旋转。然后对输入的图像按照Channel方向总体计算均值(mean)和标准差(std),做归一化和normaliz处理,具体详细过程如下:
所述步骤S2包括以下分步骤:
S21、采用高斯滤波对人脸检测图像数据集进行图像降噪,得到降噪人脸检测图像数据集;
S22、采用USM锐化方法对降噪人脸检测图像数据集进行图像增强,得到增强人脸检测图像数据集;
S23、对增强人脸检测图像数据集中每张图像进行左右翻转和旋转,得到扩充人脸检测图像数据集;
S24、对扩充人脸检测图像数据集按照Channel(通道)方向计算均值和标准差;
S25、根据均值和标准差,对扩充人脸检测图像数据集进行归一化和标准化处理,得到标准化人脸数据集。
S3、构建活体检测网络,并采用标准化人脸数据集对活体检测网络进行训练,得到训练完成的活体检测网络;
步骤S3中活体检测网络包括依次连接的输入层、骨干子网络和特征处理分类子网络;所述骨干子网络包括:Conv2D_BN_ReLU层、DownSampledLayer层、SpindleResidual层和1个DownSampledLayer层;
所述Conv2D_BN_ReLU层的数量为2个;
所述DownSampledLayer层的数量为2个至6个;
所述SpindleResidual层的数量为2个至6个;
所述2个的Conv2D_BN_ReLU层分别为:第一Conv2D_BN_ReLU层和第二Conv2D_BN_ReLU层;
所述DownSampledLayer层的数量为4个;
所述4个DownSampledLayer层分别为:第一DownSampledLayer层、第二DownSampledLayer层、第三DownSampledLayer层、第四DownSampledLayer层和第五DownSampledLayer层;
所述SpindleResidual层的数量为4个;
所述4个SpindleResidual层分别为:第一SpindleResidual层、第二SpindleResidual层、第三SpindleResidual层和第四SpindleResidual层;
所述特征处理分类子网络包括:第一线性层和第二线性层。
所述步骤S3中活体检测网络包括依次连接的输入层、第一Conv2D_BN_ReLU层、第二Conv2D_BN_ReLU层、第一DownSampledLayer层、第一SpindleResidual层、第二DownSampledLayer层、第二SpindleResidual层、第三DownSampledLayer层、第三SpindleResidual层、第四DownSampledLayer层、第四SpindleResidual层、第五DownSampledLayer层、第一线性层和第二线性层;
所述输入层的输入端作为活体检测网络的输入端;
所述第二线性层的输出端作为活体检测网络的输出端。
表2为活体检测网络的结构和参数表。
表2
Figure BDA0002926938790000081
Figure BDA0002926938790000091
第一Conv2D_BN_ReLU层和第二Conv2D_BN_ReLU层均包括依次连接的卷积层、批归化层和非线性单元。
在网络学习的过程中加入批归一化和非线性单元进行特征学习与分类决策。
第一Conv2D_BN_ReLU层的卷积核大小为3×3,步长为1,输出通道为32。
第二Conv2D_BN_ReLU层的卷积核大小为3×3,步长为1,输出通道为64。在第二Conv2D_BN_ReLU层后,考虑到池化对数据特征丢失的现象,这里没用MaxPooling或AvgPooling,而是采用DownSampledLayer(下采样)对数据进行处理。
DownSampledLayer层的卷积核大小均为3×3,步长均为2,填充均为1。
SpindleResidual层均包括依次连接的1×1的第一卷积层、3×3的第二卷积层和1×1的第三卷积层,所述3×3的第二卷积层的步长为1,边界填充为1;
SpindleResidual层对原始图像数据的处理过程为:
A1、采用1×1的第一卷积层对原始图像数据进行扩维度处理,得到维度为2倍的图像数据;
A2、采用3×3的第二卷积层对维度为2倍的图像数据做像素融合处理,得到融合图像数据;
A3、采用1×1的第三卷积层对融合图像数据进行降维处理,得降维图像数据;
A4、将原始图像数据和降维图像数据作为SpindleResidual层的输出。
训练活体检测网络采用AdamW优化器,AdamW优化器对于这种小数据集收敛得更快。在做梯度下降时,为了动态调整学习率,采用LambdaLR优化策略,随着训练总轮次p的增加而减少,其中学习率的变化系数λ的公式为:
所述活体检测网络训练过程的学习率的变化系数为:
Figure BDA0002926938790000101
其中,λ为学习率的变化系数,p为训练总轮数,x为一轮训练的次数,a为超参数,a=-3.441。
S4、对训练完成的活体检测网络输入待处理的视频流,得到标记出真实或伪造的人脸视频图像帧。
活体检测网络的输出为真实人脸的概率,是二分类的输出,代价函数选择用二分类交叉熵损失函数(BCELoss),输出一个0~1之间的数,优化的损失函数图像如图3所示,未优化的损失函数图像如图2所示。

Claims (10)

1.一种基于卷积神经网络的面部活体检测方法,其特征在于,包括以下步骤:
S1、采集人脸图像,采用人脸检测器对人脸图像进行处理,得到人脸检测图像数据集;
S2、对人脸检测图像数据集进行预处理,得到标准化人脸数据集;
S3、构建活体检测网络,并采用标准化人脸数据集对活体检测网络进行训练,得到训练完成的活体检测网络;
S4、对训练完成的活体检测网络输入待处理的视频流,得到标记出真实或伪造的人脸视频图像帧。
2.根据权利要求1所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述步骤S2包括以下分步骤:
S21、采用高斯滤波对人脸检测图像数据集进行图像降噪,得到降噪人脸检测图像数据集;
S22、采用USM锐化方法对降噪人脸检测图像数据集进行图像增强,得到增强人脸检测图像数据集;
S23、对增强人脸检测图像数据集中每张图像进行左右翻转和旋转,得到扩充人脸检测图像数据集;
S24、对扩充人脸检测图像数据集按照Channel方向计算均值和标准差;
S25、根据均值和标准差,对扩充人脸检测图像数据集进行归一化和标准化处理,得到标准化人脸数据集。
3.根据权利要求1所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述步骤S3中活体检测网络包括依次连接的输入层、骨干子网络和特征处理分类子网络;所述骨干子网络包括:Conv2D_BN_ReLU层、DownSampledLayer层、SpindleResidual层和1个DownSampledLayer层;
所述Conv2D_BN_ReLU层的数量为2个;
所述DownSampledLayer层的数量为2个至6个;
所述SpindleResidual层的数量为2个至6个;
所述2个的Conv2D_BN_ReLU层分别为:第一Conv2D_BN_ReLU层和第二Conv2D_BN_ReLU层;
所述DownSampledLayer层的数量为4个;
所述4个DownSampledLayer层分别为:第一DownSampledLayer层、第二DownSampledLayer层、第三DownSampledLayer层、第四DownSampledLayer层和第五DownSampledLayer层;
所述SpindleResidual层的数量为4个;
所述4个SpindleResidual层分别为:第一SpindleResidual层、第二SpindleResidual层、第三SpindleResidual层和第四SpindleResidual层;
所述特征处理分类子网络包括:第一线性层和第二线性层。
4.根据权利要求3所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述步骤S3中活体检测网络包括依次连接的输入层、第一Conv2D_BN_ReLU层、第二Conv2D_BN_ReLU层、第一DownSampledLayer层、第一SpindleResidual层、第二DownSampledLayer层、第二SpindleResidual层、第三DownSampledLayer层、第三SpindleResidual层、第四DownSampledLayer层、第四SpindleResidual层、第五DownSampledLayer层、第一线性层和第二线性层;所述输入层的输入端作为活体检测网络的输入端;所述第二线性层的输出端作为活体检测网络的输出端。
5.根据权利要求4所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述第一Conv2D_BN_ReLU层和第二Conv2D_BN_ReLU层均包括依次连接的卷积层、批归化层和非线性单元。
6.根据权利要求4所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述第一Conv2D_BN_ReLU层的卷积核大小为3×3,步长为1,输出通道为32。
7.根据权利要求4所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述第二Conv2D_BN_ReLU层的卷积核大小为3×3,步长为1,输出通道为64。
8.根据权利要求3所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述DownSampledLayer层的卷积核大小均为3×3,步长均为2,填充均为1。
9.根据权利要求3所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述SpindleResidual层均包括依次连接的1×1的第一卷积层、3×3的第二卷积层和1×1的第三卷积层,所述3×3的第二卷积层的步长为1,边界填充为1;
所述SpindleResidual层对原始图像数据的处理过程为:
A1、采用1×1的第一卷积层对原始图像数据进行扩维度处理,得到维度为2倍的图像数据;
A2、采用3×3的第二卷积层对维度为2倍的图像数据做像素融合处理,得到融合图像数据;
A3、采用1×1的第三卷积层对融合图像数据进行降维处理,得降维图像数据;
A4、将原始图像数据和降维图像数据作为SpindleResidual层的输出。
10.根据权利要求1所述的基于卷积神经网络的面部活体检测方法,其特征在于,所述活体检测网络训练过程的学习率的变化系数为:
Figure FDA0002926938780000041
其中,λ为学习率的变化系数,p为训练总轮数,x为一轮训练的次数,a为超参数。
CN202110135891.1A 2021-02-01 2021-02-01 一种基于卷积神经网络的面部活体检测方法 Active CN112906508B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110135891.1A CN112906508B (zh) 2021-02-01 2021-02-01 一种基于卷积神经网络的面部活体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110135891.1A CN112906508B (zh) 2021-02-01 2021-02-01 一种基于卷积神经网络的面部活体检测方法

Publications (2)

Publication Number Publication Date
CN112906508A true CN112906508A (zh) 2021-06-04
CN112906508B CN112906508B (zh) 2024-05-28

Family

ID=76120843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110135891.1A Active CN112906508B (zh) 2021-02-01 2021-02-01 一种基于卷积神经网络的面部活体检测方法

Country Status (1)

Country Link
CN (1) CN112906508B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821825A (zh) * 2022-06-30 2022-07-29 广州中平智能科技有限公司 一种多粒度人脸伪造检测方法、系统、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815566A (zh) * 2016-12-29 2017-06-09 天津中科智能识别产业技术研究院有限公司 一种基于多任务卷积神经网络的人脸检索方法
CN109949235A (zh) * 2019-02-26 2019-06-28 浙江工业大学 一种基于深度卷积神经网络的胸部x光片去噪方法
CN110674730A (zh) * 2019-09-20 2020-01-10 华南理工大学 一种基于单目的人脸静默活体检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815566A (zh) * 2016-12-29 2017-06-09 天津中科智能识别产业技术研究院有限公司 一种基于多任务卷积神经网络的人脸检索方法
CN109949235A (zh) * 2019-02-26 2019-06-28 浙江工业大学 一种基于深度卷积神经网络的胸部x光片去噪方法
CN110674730A (zh) * 2019-09-20 2020-01-10 华南理工大学 一种基于单目的人脸静默活体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JEREMY——LF: "卷积神经网络的发展及各模型的优缺点", pages 1 - 7, Retrieved from the Internet <URL:https://blog.csdn.net/Jeremy_lf/article/details/105501697> *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821825A (zh) * 2022-06-30 2022-07-29 广州中平智能科技有限公司 一种多粒度人脸伪造检测方法、系统、设备和介质
CN114821825B (zh) * 2022-06-30 2022-12-06 广州中平智能科技有限公司 一种多粒度人脸伪造检测方法、系统、设备和介质

Also Published As

Publication number Publication date
CN112906508B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
US10789465B2 (en) Feature extraction and matching for biometric authentication
Bappy et al. Hybrid lstm and encoder–decoder architecture for detection of image forgeries
Yi et al. An end‐to‐end steel strip surface defects recognition system based on convolutional neural networks
US8064653B2 (en) Method and system of person identification by facial image
CN111695406B (zh) 一种基于红外线的人脸识别反欺骗方法、系统及终端
Deshpande et al. Super resolution and recognition of long range captured multi‐frame iris images
Agarwal et al. Image forgery detection and deep learning techniques: A review
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
Yu et al. Manipulation classification for jpeg images using multi-domain features
Nam et al. Content-aware image resizing detection using deep neural network
CN115393944A (zh) 一种基于多维特征融合的微表情识别方法
Chen et al. Image splicing localization using residual image and residual-based fully convolutional network
CN112906508A (zh) 一种基于卷积神经网络的面部活体检测方法
Geradts et al. Interpol review of forensic video analysis, 2019–2022
CN111368602A (zh) 人脸图像模糊程度评价方法、装置、可读存储介质及设备
CN112800941B (zh) 基于非对称辅助信息嵌入网络的人脸反欺诈方法及系统
CN114913607A (zh) 一种基于多特征融合的指静脉仿冒检测方法
Roka et al. Deep stacked denoising autoencoder for unsupervised anomaly detection in video surveillance
Shu et al. Text-Enhanced Scene Image Super-Resolution via Stroke Mask and Orthogonal Attention
Alharbi et al. Spoofing Face Detection Using Novel Edge-Net Autoencoder for Security.
Rajeswari et al. Face occlusion removal for face recognition using the related face by structural similarity index measure and principal component analysis
CN116665283B (zh) 一种课堂面部数据集的构建方法及系统
Chougala et al. A REVIEW ON COPY MOVE FORGERY DETECTION IN DOCUMENT IMAGES
Shaick et al. Accelerating face detection by means of image segmentation
Han et al. Intelligent Recognition of Antigen Detection Reagent for Corona virus based on Improved Text Recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant