CN116453199A - 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 - Google Patents
基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 Download PDFInfo
- Publication number
- CN116453199A CN116453199A CN202310566946.3A CN202310566946A CN116453199A CN 116453199 A CN116453199 A CN 116453199A CN 202310566946 A CN202310566946 A CN 202310566946A CN 116453199 A CN116453199 A CN 116453199A
- Authority
- CN
- China
- Prior art keywords
- layer
- convolution
- feature
- jump connection
- dlc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 28
- 238000013507 mapping Methods 0.000 claims abstract description 51
- 230000006870 function Effects 0.000 claims description 47
- 238000011176 pooling Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 18
- 238000010586 diagram Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 241000282326 Felis catus Species 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 11
- 238000004364 calculation method Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract description 3
- 230000008859 change Effects 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,首先提供了一种用于紧密连接的卷积层的DenseNet作为纹理增强块,对每张人脸图像的浅层纹理特征图进行纹理信息的增强。然后将增强的纹理特征图送入DCAR‑Net来提高感受野的灵活性,从而能够捕捉到更全局、语义层次更高的特征。该方法在网络主干中引入了空洞卷积以及跳跃连接,对于伪造检测任务来说,空洞卷积能够更好地捕捉到比较分散的伪造换脸痕迹,跳跃连接使得网络有恒等映射的能力,可以使网络变得更深、更容易训练,同时能够降低计算的复杂度,从而保证更好的人脸伪造检测效果。
Description
技术领域
本发明涉及计算机视觉伪造检测技术领域,具体涉及一种基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法。
背景技术
人脸伪造检测是人脸识别中比较重要的一部分,在生活中有着很重要的应用,比如人脸身份验证、刷脸打卡、扫脸支付等行业。随着深度伪造算法日趋成熟,生成的伪造人脸图像也达到了难以辨别真伪的程度,基于GAN方法生成的伪造人脸就是其中之一。在享受科技带来便利的同时也要预防其危害,同时加强高性能的伪造检测技术的探索。
基于GAN生成人脸的检测,以往的方法大都将切取好的人脸图像直接放入人脸检测器进行检测。但由于人脸图像的低对比度、模糊和亮度不均匀等问题,导致人脸伪造痕迹细节信息的丢失。传统的GAN人脸检测算法使用神经网络来区分真实面部图像和GAN生成的面部图像,通过学习高维特征空间中的表示来寻找GAN生成过程中由融合操作引起的不一致性,这些方法在当时是可解释的。由于生成对抗网络(Generative AdversarialNetwork,GAN)技术的快速进步,GAN生成图像的真实性已经大幅提高,以至于现有的方法不再起作用。当前常见的检测方法是使用卷积神经网络(Convolutional Neural Network,CNN)构建的模型,该模型自动学习真假可辨别的特征来进行图像鉴别,然而CNN存在感受野不够灵活、不善于表示浅层的语义特征等问题。而GAN图像检测器需要更细节的底层纹理区域伪造痕迹提供检测依据。
发明内容
本发明为了克服以上技术的不足,提供了一种伪造痕迹可视性的基于底层纹理区域伪造痕迹的GAN生成人脸检测方法。
本发明克服其技术问题所采用的技术方案是:
一种基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,包括如下步骤:
a)从FF++人脸图像数据集的c23子集中的DF数据集中选取个视频、从c23子集中的F2F数据集中选取/>个视频、从c23子集中的FS数据集中选取/>个视频、从c23子集中的NT数据集中选取/>个视频、从c23子集中的Youtube数据集中选取/>个视频;
b)将n个视频进行预处理提取面部图像,得到预处理后的人脸图像集Imgs,Imgs={Img1,Img2,...,Imgi,...,Imgn},其中Imgi为第i个预处理后的人脸图像,i∈{1,2,...,n};
c)建立纹理增强模块,将第i个预处理后的人脸图像Imgi输入到纹理增强模块中,输出得到纹理特征Ft;
d)将纹理特征Ft输入到DenseNet网络中,输出得到强化纹理特征图Fs;
e)建立DCAR-Net网络,将强化纹理特征图Fs输入到DCAR-Net网络中,输出得到最终的伪造特征图f;
f)通过空间注意力权重对伪造特征图f加权操作,得到最终的特征映射f′;
g)建立分类网络,将最终的特征映射f′输入到分类网络中,输出得到输出结果。优选的,优选的步骤a)中的n取值为10000。
进一步的,步骤b)包括如下步骤:
b-1)利用openCV将选取的每个视频中抽取10帧人脸图像进行保存,利用人脸关键点检测的python库Dlib检测所有人脸图像,将人脸定位后进行1.3比例的剪裁处理,得到分辨率为224*224的人脸图像;
b-2)将剪裁后的人脸图像依次进行水平翻转、对比度增强、亮度增强、随机噪声处理,得到预处理后的人脸图像集Imgs。
进一步的,步骤c)包括如下步骤:
c-1)纹理增强模块由卷积网络、自适应平均池化层、卷积层构成;
c-2)纹理增强模块的卷积网络依次由卷积层、BN归一化层、ReLU激活函数层构成,将第i个预处理后的人脸图像Imgi输入到卷积网络的卷积层中,输出得到抽象的特征图像将抽象的特征图像/>依次输入到卷积网络的BN归一化层、ReLU激活函数层中,输出得到非纹理特征/>
c-3)将第i个预处理后的人脸图像Imgi依次输入到纹理增强模块的自适应平均池化层、卷积层中,输出得到全局特征
c-4)将全局特征与非纹理特征/>相减得到纹理特征Ft。
优选的,步骤c-2)中卷积网络的卷积层的卷积核大小为3*3;步骤c-3)中纹理增强模块的卷积层的卷积核大小为1*1。
进一步的,步骤e)包括如下步骤:
e-1)DCAR-Net网络由第一卷积层、池化层、TLSCM模块、DLGCM模块、平均池化层、第二卷积层构成;
e-2)将强化纹理特征图Fs依次输入到DCAR-Net网络的第一卷积层、池化层中,输出得到特征Fs′;
e-3)DCAR-Net网络的TLSCM模块由第一跳跃连接Tlc1、第一卷积层、第二跳跃连接Tlc2、第二卷积层、第三跳跃连接Tlc3、空洞卷积层构成,第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3均依次由第一卷积层、第二卷积层、第三卷积层构成,将特征Fs′输入到TLSCM模块的第一跳跃连接Tlc1中,输出得到特征映射F′s1,将特征映射F′s1与特征Fs′通过concat()函数相加得到特征映射F″s1,将特征映射F″s1输入到TLSCM模块的第一卷积层中,输出得到特征映射F″′s1,将特征映射F″′s1输入到TLSCM模块的第二跳跃连接Tlc2中,输出得到特征映射F″″s1,将特征映射F″″s1与特征映射F″′s1通过concat()函数相加得到特征映射Fs11,将特征映射Fs11输入到TLSCM模块的第二卷积层中,输出得到特征映射F′s11,将特征映射F′s11输入到TLSCM模块的第三跳跃连接Tlc3中,输出得到特征映射F″s11,将特征映射F″s11与特征映射F′s11通过concat()函数相加得到特征映射F″′s11,将特征映射F″′s11输入到TLSCM模块的空洞卷积层中,输出得到扩大感受野后的特征映射f1,f1∈RW×H×C,R为实数空间,C为通道数,H为特征的高,W为特征的宽;
e-4)DCAR-Net网络的DLGCM模块由第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6、空洞卷积层构成,第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6均依次由第一卷积层、第二卷积层构成,将特征Fs′输入到DLGCM模块的第一双层跳跃连接Dlc1中,输出得到特征F′s2,将特征F′s2与特征Fs′通过concat()函数相加得到特征F″s2,将特征F″s2输入到DLGCM模块的第二双层跳跃连接Dlc2中,输出得到特征F″′s2,将特征F″′s2与特征F″s2通过concat()函数相加得到特征Fs22,将特征F″s2输入到DLGCM模块的第三双层跳跃连接Dlc3中,输出得到特征F′s22,将特征F′s22与特征Fs22通过concat()函数相加得到特征F″s22,将特征F″s22输入到DLGCM模块的第四双层跳跃连接Dlc4中,输出得到特征F″′s22,将特征F″′s22与特征F″s22通过concat()函数相加得到特征F″s23,将特征F″s23输入到DLGCM模块的第五双层跳跃连接Dlc5中,输出得到特征F″′s23,将特征F″′s23与特征F″s23通过concat()函数相加得到特征Fs24,将特征Fs24输入到DLGCM模块的第六双层跳跃连接Dlc6中,输出得到特征F′s24,将特征F′s24与特征Fs24通过concat()函数相加得到特征F″s24,将特征F″s24输入到的DLGCM模块的空洞卷积层中,输出得到扩大感受野后的特征映射f2,f2∈RW×H×C;
e-5)将特征映射f1与特征映射f2通过concat()函数相加得到新的特征映射fs 3;
e-6)将特征映射fs 3输入到DCAR-Net网络的平均池化层中,输出得到特征图fs 4;
e-7)将特征图fs 4输入到DCAR-Net网络的第二卷积层中,输出得到最终的伪造特征图f,f∈RW×H×C。
优选的,步骤e-2)中中第一卷积层的卷积核大小为7*7;步骤e-3)中TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第一卷积层的卷积核大小均为1*1,TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第二卷积层的卷积核大小均为3*3,TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第三卷积层的卷积核大小均为1*1,TLSCM模块的第一卷积层的卷积核大小为1*1,TLSCM模块的第二卷积层的卷积核大小为1*1,TLSCM模块的空洞卷积层的dilation rate设置为2,空洞卷积层的感受野大小为7,步骤e-4)中第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6的第一卷积层的卷积核大小均为3*3,第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6的第二卷积层的卷积核大小均为3*3,DLGCM模块的空洞卷积层的dilationrate设置为2,步骤e-7)中DCAR-Net网络的第二卷积层的卷积核大小为5*5。
进一步的,步骤f)包括如下步骤:
f-1)将最终的伪造特征图f依次输入到卷积层、Sigmoid激活函数层中,得到空间注意力权重sa,sa∈RW×H;
f-2)将空间注意力权重与最终的伪造特征图f进行加权操作,得到最终的特征映射f′,f′∈RW×H×C。
进一步的,步骤g)包括如下步骤:
g-1)分类网络由全连接层、Sigmoid函数构成;
g-2)将最终的特征映射f′输入到分类网络的全连接层中,映射成一个定长的特征向量x,x=[x1,x2,...,xj,...,xm]T,为第j个向量,j∈{1,2,...,m},m为向量总数,T为转置;
g-3)通过公式zj=W*xj+bj计算得到第j个向量xj线性变换后的向量zj,式中W为行为p、列为q的矩阵,bj为第j个偏置,j∈{1,2,...,m};
g-4)将向量zj输入到分类网络的Sigmoid函数中,输出得到隐藏层的值g(zj);
g-5)将隐藏层的值g(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g′(zj);
g-6)将隐藏层的值g′(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g″(zj);
g-7)将隐藏层的值g″(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g″′(zj);
g-8)将隐藏层的值g″′(zj)输入到Sigmoid函数中,输出得到输出结果0或1,输出结果为0表示生成人脸,输出结果为1表示真实人脸。
本发明的有益效果是:通过紧密连接的卷积层的DenseNet作为纹理增强块,对每张人脸图像的浅层纹理特征图进行纹理信息的增强。然后将增强的纹理特征图送入来提高感受野的灵活性,从而能够捕捉到更全局、语义层次更高的特征。该方法在网络主干中引入了空洞卷积以及跳跃连接,对于伪造检测任务来说,空洞卷积能够更好地捕捉到比较分散的伪造换脸痕迹,跳跃连接使得网络有恒等映射的能力,可以使网络变得更深、更容易训练,同时能够降低计算的复杂度,从而保证更好的人脸伪造检测效果。
附图说明
图1为本发明的方法流程图;
图2为本发明的纹理增强模块结构图;
图3为本发明的提取扩大感受野的人脸图像特征网络结构图;
图4为本发明的感受野扩大过程结构图;
图5为本发明的感受野扩大后的特征映射结构图;
图6为本发明的注意力机制结构图;
图7为本发明的GAN人脸图像分类网络结构图。
具体实施方式
下面结合附图1至附图7对本发明做进一步说明。
本发明提供了伪造痕迹可视性的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,如附图1所示,包括如下步骤:
a)从FF++人脸图像数据集的c23子集中的DF数据集中选取个视频、从c23子集中的F2F数据集中选取/>个视频、从c23子集中的FS数据集中选取/>个视频、从c23子集中的NT数据集中选取/>个视频、从c23子集中的Youtube数据集中选取/>个视频。优选的n取值为10000。
b)将n个视频进行预处理提取面部图像,得到预处理后的人脸图像集Imgs,Imgs={Img1,Img2,...,Imgi,...,Imgn},其中Imgi为第i个预处理后的人脸图像,i∈{1,2,...,n}。
c)建立纹理增强模块,将第i个预处理后的人脸图像Imgi输入到纹理增强模块中,输出得到纹理特征Ft。
d)将纹理特征Ft输入到DenseNet网络中,输出得到强化纹理特征图Fs。DenseNet网络可以确保最大程度地利用特征图信息,使得模型效果更好且参数更少,并保证了特征信息在网络层之间的最大传递。
e)建立DCAR-Net网络,将强化纹理特征图Fs输入到DCAR-Net网络中,输出得到最终的伪造特征图f。
f)通过空间注意力权重对伪造特征图f加权操作,得到最终的特征映射f′。结合注意力机制进行权重的重加减少一些背景信息的干扰。
g)建立分类网络,将最终的特征映射f′输入到分类网络中,输出得到输出结果。
实施例1:
步骤b)包括如下步骤:
b-1)利用openCV将选取的每个视频中抽取10帧人脸图像进行保存,利用人脸关键点检测的python库Dlib检测所有人脸图像,将人脸定位后进行1.3比例的剪裁处理,得到分辨率为224*224的人脸图像。
b-2)为了扩充数据集,将剪裁后的人脸图像依次进行水平翻转、对比度增强、亮度增强、随机噪声处理,得到预处理后的人脸图像集Imgs。
实施例2:
如附图2所示,步骤c)包括如下步骤:
c-1)纹理增强模块由卷积网络、自适应平均池化层、卷积层构成。
c-2)纹理增强模块的卷积网络依次由卷积层、BN归一化层、ReLU激活函数层构成,将第i个预处理后的人脸图像Imgi输入到卷积网络的卷积层中,输出得到抽象的特征图像将抽象的特征图像/>依次输入到卷积网络的BN归一化层、ReLU激活函数层中,输出得到非纹理特征/>
c-3)将第i个预处理后的人脸图像Imgi依次输入到纹理增强模块的自适应平均池化层、卷积层中,输出得到全局特征
c-4)将全局特征与非纹理特征/>相减得到纹理特征Ft。
在该实施例中,优选的,步骤c-2)中卷积网络的卷积层的卷积核大小为3*3;步骤c-3)中纹理增强模块的卷积层的卷积核大小为1*1。
实施例3:
如附图3所示,步骤e)包括如下步骤:
e-1)DCAR-Net网络由第一卷积层、池化层、TLSCM模块、DLGCM模块、平均池化层、第二卷积层构成。
e-2)将强化纹理特征图Fs依次输入到DCAR-Net网络的第一卷积层、池化层中,输出得到特征Fs′。
e-3)DCAR-Net网络的TLSCM模块由第一跳跃连接Tlc1、第一卷积层、第二跳跃连接Tlc2、第二卷积层、第三跳跃连接Tlc3、空洞卷积层构成,第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3均依次由第一卷积层、第二卷积层、第三卷积层构成,利用三个卷积层对卷积核先降维再升维的目的是方便后续的加法操作,将特征Fs′输入到TLSCM模块的第一跳跃连接Tlc1中,输出得到特征映射F′s1,将特征映射F′s1与特征Fs′通过concat()函数相加得到特征映射F″s1,将特征映射F″s1输入到TLSCM模块的第一卷积层中,输出得到特征映射F″′s1,将特征映射F″′s1输入到TLSCM模块的第二跳跃连接Tlc2中,输出得到特征映射F″″s1,将特征映射F″″s1与特征映射F″′s1通过concat()函数相加得到特征映射Fs11,将特征映射Fs11输入到TLSCM模块的第二卷积层中,输出得到特征映射F′s11,将特征映射F′s11输入到TLSCM模块的第三跳跃连接Tlc3中,输出得到特征映射F″s11,将特征映射F″s11与特征映射F′s11通过concat()函数相加得到特征映射F″′s11,将特征映射F″′s11输入到TLSCM模块的空洞卷积层中,输出得到扩大感受野后的特征映射f1,f1∈RW×H×C,R为实数空间,C为通道数,H为特征的高,W为特征的宽。
e-4)DCAR-Net网络的DLGCM模块由第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6、空洞卷积层构成,第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6均依次由第一卷积层、第二卷积层构成,将特征Fs′输入到DLGCM模块的第一双层跳跃连接Dlc1中,输出得到特征F′s2,将特征F′s2与特征Fs′通过concat()函数相加得到特征F″s2,将特征F″s2输入到DLGCM模块的第二双层跳跃连接Dlc2中,输出得到特征F″′s2,将特征F″′s2与特征F″s2通过concat()函数相加得到特征Fs22,将特征F″s2输入到DLGCM模块的第三双层跳跃连接Dlc3中,输出得到特征F′s22,将特征F′s22与特征Fs22通过concat()函数相加得到特征F″s22,将特征F″s22输入到DLGCM模块的第四双层跳跃连接Dlc4中,输出得到特征F″′s22,将特征F″′s22与特征F″s22通过concat()函数相加得到特征F″s23,将特征F″s23输入到DLGCM模块的第五双层跳跃连接Dlc5中,输出得到特征F″′s23,将特征F″′s23与特征F″s23通过concat()函数相加得到特征Fs24,将特征Fs24输入到DLGCM模块的第六双层跳跃连接Dlc6中,输出得到特征F′s24,将特征F′s24与特征Fs24通过concat()函数相加得到特征F″s24,将特征F″s24输入到的DLGCM模块的空洞卷积层中,输出得到扩大感受野后的特征映射f2,f2∈RW×H×C。
e-5)将特征映射f1与特征映射f2通过concat()函数相加得到新的特征映射fs 3。
e-6)将特征映射fs 3输入到DCAR-Net网络的平均池化层中,输出得到特征图fs 4。e-7)将特征图fs 4输入到DCAR-Net网络的第二卷积层中,输出得到最终的伪造特征图f,f∈RW ×H×C。
通过跳跃连接将残差块的输入输出进行一个简单的叠加,使得网络有恒等映射的能力,可以使网络变得更深、更容易训练,同时能够降低计算的复杂度,在该网络中加入空洞卷积层,能够更好的捕捉到分散的伪造痕迹。
在该实施例中,优选的,步骤e-2)中中第一卷积层的卷积核大小为7*7;步骤e-3)中TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第一卷积层的卷积核大小均为1*1,TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第二卷积层的卷积核大小均为3*3,TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第三卷积层的卷积核大小均为1*1,TLSCM模块的第一卷积层的卷积核大小为1*1,TLSCM模块的第二卷积层的卷积核大小为1*1,如附图4所示,相比于一般的卷积方法,空洞卷积需要增加“dilation rate”这个参数,以确定最外层核与内核之间的距离。距离越大感受野越大,在本发明中,TLSCM模块的空洞卷积层的dilation rate设置为2,经过扩大后的卷积核实际上等价于一个5*5大小的普通卷积,感受野大小为F,F=2(rate-1)*(k-1)+k,rate为膨胀率,k为卷积核大小,如附图5所示,经过扩大后的感受野大小空洞卷积层的感受野大小为7,即F=2(2-1)*(3-1)+3=7,步骤e-4)中第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6的第一卷积层的卷积核大小均为3*3,第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6的第二卷积层的卷积核大小均为3*3,DLGCM模块的空洞卷积层的dilation rate设置为2,步骤e-7)中DCAR-Net网络的第二卷积层的卷积核大小为5*5。
实施例4:
由于裁剪比例为1.3的人脸图像包含的伪造痕迹相对集中但也会包含更多的干扰背景信息。因此,我们需要结合注意力机制,将权重进行重新加权,让重要的信息更突出,减弱背景信息的干扰。具体的,如附图6所示,步骤f)包括如下步骤:
f-1)将最终的伪造特征图f依次输入到卷积层、Sigmoid激活函数层中,得到空间注意力权重sa,sa∈RW×H。
f-2)将空间注意力权重与最终的伪造特征图f进行加权操作,得到最终的特征映射f′,f′∈RW×H×C。
实施例5:
如附图7所示,步骤g)包括如下步骤:
g-1)分类网络由全连接层、Sigmoid函数构成。
g-2)将最终的特征映射f′输入到分类网络的全连接层中,映射成一个定长的特征向量x,x=[x1,x2,...,xj,...,xm]T,为第j个向量,j∈{1,2,...,m},m为向量总数,T为转置。
g-3)通过公式zj=W*xj+bj计算得到第j个向量xj线性变换后的向量zj,式中W为行为p、列为q的矩阵,bj为第j个偏置,j∈{1,2,...,m}。
g-4)将向量zj输入到分类网络的Sigmoid函数中,输出得到隐藏层的值g(zj)。
g-5)将隐藏层的值g(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g′(zj)。重复时全连接层的维度为1024。
g-6)将隐藏层的值g′(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g″(zj)。重复时全连接层的维度为512。
g-7)将隐藏层的值g″(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g″′(zj)。重复时全连接层的维度为256。经过3次重复,增强网络的非线性能力,
g-8)将隐藏层的值g″′(zj)输入到Sigmoid函数中,输出得到输出结果0或1,对真实人脸图像以及GAN方法生成的人脸图像进行二元分类,输出结果为0表示生成人脸,输出结果为1表示真实人脸。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于,包括如下步骤:
a)从FF++人脸图像数据集的c23子集中的DF数据集中选取个视频、从c23子集中的F2F数据集中选取/>个视频、从c23子集中的FS数据集中选取/>个视频、从c23子集中的NT数据集中选取/>个视频、从c23子集中的Youtube数据集中选取/>个视频;
b)将n个视频进行预处理提取面部图像,得到预处理后的人脸图像集Imgs,Imgs={Img1,Img2,...,Imgi,…,Imgn},其中Imgi为第i个预处理后的人脸图像,i∈{1,2,…,n};
c)建立纹理增强模块,将第i个预处理后的人脸图像Imgi输入到纹理增强模块中,输出得到纹理特征Ft;
d)将纹理特征Ft输入到DenseNet网络中,输出得到强化纹理特征图Fs;
e)建立DCAR-Net网络,将强化纹理特征图Fs输入到DCAR-Net网络中,输出得到最终的伪造特征图f;
f)通过空间注意力权重对伪造特征图f加权操作,得到最终的特征映射f′;
g)建立分类网络,将最终的特征映射f′输入到分类网络中,输出得到输出结果。
2.根据权利要求1所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于:优选的步骤a)中的n取值为10000。
3.根据权利要求1所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于,步骤b)包括如下步骤:
b-1)利用openCV将选取的每个视频中抽取10帧人脸图像进行保存,利用人脸关键点检测的python库Dlib检测所有人脸图像,将人脸定位后进行1.3比例的剪裁处理,得到分辨率为224*224的人脸图像;
b-2)将剪裁后的人脸图像依次进行水平翻转、对比度增强、亮度增强、随机噪声处理,得到预处理后的人脸图像集Imgs。
4.根据权利要求1所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于,步骤c)包括如下步骤:
c-1)纹理增强模块由卷积网络、自适应平均池化层、卷积层构成;
c-2)纹理增强模块的卷积网络依次由卷积层、BN归一化层、ReLU激活函数层构成,将第i个预处理后的人脸图像Imgi输入到卷积网络的卷积层中,输出得到抽象的特征图像将抽象的特征图像/>依次输入到卷积网络的BN归一化层、ReLU激活函数层中,输出得到非纹理特征/>
c-3)将第i个预处理后的人脸图像Imgi依次输入到纹理增强模块的自适应平均池化层、卷积层中,输出得到全局特征
c-4)将全局特征与非纹理特征/>相减得到纹理特征Ft。
5.根据权利要求4所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于:步骤c-2)中卷积网络的卷积层的卷积核大小为3*3;步骤c-3)中纹理增强模块的卷积层的卷积核大小为1*1。
6.根据权利要求1所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于,步骤e)包括如下步骤:
e-1)DCAR-Net网络由第一卷积层、池化层、TLSCM模块、DLGCM模块、平均池化层、第二卷积层构成;
e-2)将强化纹理特征图Fs依次输入到DCAR-Net网络的第一卷积层、池化层中,输出得到特征Fs′;
e-3)DCAR-Net网络的TLSCM模块由第一跳跃连接Tlc1、第一卷积层、第二跳跃连接Tlc2、第二卷积层、第三跳跃连接Tlc3、空洞卷积层构成,第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3均依次由第一卷积层、第二卷积层、第三卷积层构成,将特征Fs′输入到TLSCM模块的第一跳跃连接Tlc1中,输出得到特征映射F′s1,将特征映射F′s1与特征Fs′通过concat()函数相加得到特征映射F″s1,将特征映射F″s1输入到TLSCM模块的第一卷积层中,输出得到特征映射F″′s1,将特征映射F″′s1输入到TLSCM模块的第二跳跃连接Tlc2中,输出得到特征映射F″″s1,将特征映射F″″s1与特征映射F″″s1通过concat()函数相加得到特征映射Fs11,将特征映射Fs11输入到TLSCM模块的第二卷积层中,输出得到特征映射F′s11,将特征映射F′s11输入到TLSCM模块的第三跳跃连接Tlc3中,输出得到特征映射F″s11,将特征映射F″s11与特征映射F′s11通过concat()函数相加得到特征映射F″′s11,将特征映射F″′s11输入到TLSCM模块的空洞卷积层中,输出得到扩大感受野后的特征映射f1,f1∈RW×H×C,R为实数空间,C为通道数,H为特征的高,W为特征的宽;
e-4)DCAR-Net网络的DLGCM模块由第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6、空洞卷积层构成,第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6均依次由第一卷积层、第二卷积层构成,将特征Fs′输入到DLGCM模块的第一双层跳跃连接Dlc1中,输出得到特征F′s2,将特征F′s2与特征Fs′通过concat()函数相加得到特征F″s2,将特征F″s2输入到DLGCM模块的第二双层跳跃连接Dlc2中,输出得到特征F″′s2,将特征F″′s2与特征F″s2通过concat()函数相加得到特征Fs22,将特征F″s2输入到DLGCM模块的第三双层跳跃连接Dlc3中,输出得到特征F′s22,将特征F″s22与特征Fs22通过concat()函数相加得到特征F″s22,将特征F″s22输入到DLGCM模块的第四双层跳跃连接Dlc4中,输出得到特征F″′s22,将特征F″′s22与特征F″s22通过concat()函数相加得到特征F″s23,将特征F″s23输入到DLGCM模块的第五双层跳跃连接Dlc5中,输出得到特征F″′s23,将特征F″′s23与特征F″s23通过concat()函数相加得到特征Fs24,将特征Fs24输入到DLGCM模块的第六双层跳跃连接Dlc6中,输出得到特征F′s24,将特征F′s24与特征Fs24通过concat()函数相加得到特征F″s24,将特征F″s24输入到的DLGCM模块的空洞卷积层中,输出得到扩大感受野后的特征映射f2,f2∈RW×H×C;
e-5)将特征映射f1与特征映射f2通过concat()函数相加得到新的特征映射fs 3;
e-6)将特征映射fs 3输入到DCAR-Net网络的平均池化层中,输出得到特征图fs 4;
e-7)将特征图fs 4输入到DCAR-Net网络的第二卷积层中,输出得到最终的伪造特征图f,f∈RW×H×C。
7.根据权利要求6所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于:步骤e-2)中中第一卷积层的卷积核大小为7*7;步骤e-3)中TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第一卷积层的卷积核大小均为1*1,TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第二卷积层的卷积核大小均为3*3,TLSCM模块的第一跳跃连接Tlc1、第二跳跃连接Tlc2、第三跳跃连接Tlc3的第三卷积层的卷积核大小均为1*1,TLSCM模块的第一卷积层的卷积核大小为1*1,TLSCM模块的第二卷积层的卷积核大小为1*1,TLSCM模块的空洞卷积层的dilation rate设置为2,空洞卷积层的感受野大小为7,步骤e-4)中第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6的第一卷积层的卷积核大小均为3*3,第一双层跳跃连接Dlc1、第二双层跳跃连接Dlc2、第三双层跳跃连接Dlc3、第四双层跳跃连接Dlc4、第五双层跳跃连接Dlc5、第六双层跳跃连接Dlc6的第二卷积层的卷积核大小均为3*3,DLGCM模块的空洞卷积层的dilation rate设置为2,步骤e-7)中DCAR-Net网络的第二卷积层的卷积核大小为5*5。
8.根据权利要求1所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于,步骤f)包括如下步骤:
f-1)将最终的伪造特征图f依次输入到卷积层、Sigmoid激活函数层中,得到空间注意力权重sa,sa∈RW×H;
f-2)将空间注意力权重与最终的伪造特征图f进行加权操作,得到最终的特征映射f′,f′∈RW×H×C。
9.根据权利要求1所述的基于复杂纹理区域伪造痕迹的GAN生成人脸检测方法,其特征在于,步骤g)包括如下步骤:
g-1)分类网络由全连接层、Sigmoid函数构成;
g-2)将最终的特征映射f′输入到分类网络的全连接层中,映射成一个定长的特征向量x,x=[x1,x2,…,xj,…,xm]T,为第j个向量,j∈{1,2,...,m},m为向量总数,T为转置;
g-3)通过公式zj=W*xj+bj计算得到第j个向量xj线性变换后的向量zj,式中W为行为p、列为q的矩阵,bj为第j个偏置,j∈{1,2,...,m};
g-4)将向量zj输入到分类网络的Sigmoid函数中,输出得到隐藏层的值g(zj);
g-5)将隐藏层的值g(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g′(zj);
g-6)将隐藏层的值g′(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g″(zj);
g-7)将隐藏层的值g″(zj)替代步骤g-2)中的最终的特征映射f′后重复执行步骤g-2)至步骤g-4)得到隐藏层的值g″′(zj);
g-8)将隐藏层的值g″′(zj)输入到Sigmoid函数中,输出得到输出结果0或1,输出结果为0表示生成人脸,输出结果为1表示真实人脸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310566946.3A CN116453199B (zh) | 2023-05-19 | 2023-05-19 | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310566946.3A CN116453199B (zh) | 2023-05-19 | 2023-05-19 | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116453199A true CN116453199A (zh) | 2023-07-18 |
CN116453199B CN116453199B (zh) | 2024-01-26 |
Family
ID=87133918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310566946.3A Active CN116453199B (zh) | 2023-05-19 | 2023-05-19 | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116453199B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315798A (zh) * | 2023-11-20 | 2023-12-29 | 齐鲁工业大学(山东省科学院) | 一种基于身份脸型特征的深度伪造检测方法 |
CN117593798A (zh) * | 2023-11-28 | 2024-02-23 | 齐鲁工业大学(山东省科学院) | 一种基于双分支特征增强的伪造人脸检测方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120020A (zh) * | 2019-04-30 | 2019-08-13 | 西北工业大学 | 一种基于多尺度空洞残差注意力网络的sar图像去噪方法 |
CN111369563A (zh) * | 2020-02-21 | 2020-07-03 | 华南理工大学 | 一种基于金字塔空洞卷积网络的语义分割方法 |
CN113011332A (zh) * | 2021-03-19 | 2021-06-22 | 中国科学技术大学 | 基于多区域注意力机制的人脸伪造检测方法 |
CN113011357A (zh) * | 2021-03-26 | 2021-06-22 | 西安电子科技大学 | 基于时空融合的深度伪造人脸视频定位方法 |
CN113205509A (zh) * | 2021-05-24 | 2021-08-03 | 山东省人工智能研究院 | 一种基于位置卷积注意力网络的血管斑块ct影像分割方法 |
CN113468954A (zh) * | 2021-05-20 | 2021-10-01 | 西安电子科技大学 | 基于多通道下局部区域特征的人脸伪造检测方法 |
CN113903073A (zh) * | 2021-11-23 | 2022-01-07 | 山东省人工智能研究院 | 一种基于局部增强transformer的假视频检测方法 |
CN114549481A (zh) * | 2022-02-25 | 2022-05-27 | 河北工业大学 | 一种融合深度和宽度学习的深度伪造图像检测方法 |
CN114842034A (zh) * | 2022-04-19 | 2022-08-02 | 山东省人工智能研究院 | 一种基于放大模糊操作痕迹的图片真假检测方法 |
CN115641632A (zh) * | 2022-10-20 | 2023-01-24 | 南京航空航天大学 | 一种基于分离三维卷积神经网络的人脸伪造检测方法 |
-
2023
- 2023-05-19 CN CN202310566946.3A patent/CN116453199B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120020A (zh) * | 2019-04-30 | 2019-08-13 | 西北工业大学 | 一种基于多尺度空洞残差注意力网络的sar图像去噪方法 |
CN111369563A (zh) * | 2020-02-21 | 2020-07-03 | 华南理工大学 | 一种基于金字塔空洞卷积网络的语义分割方法 |
CN113011332A (zh) * | 2021-03-19 | 2021-06-22 | 中国科学技术大学 | 基于多区域注意力机制的人脸伪造检测方法 |
CN113011357A (zh) * | 2021-03-26 | 2021-06-22 | 西安电子科技大学 | 基于时空融合的深度伪造人脸视频定位方法 |
CN113468954A (zh) * | 2021-05-20 | 2021-10-01 | 西安电子科技大学 | 基于多通道下局部区域特征的人脸伪造检测方法 |
CN113205509A (zh) * | 2021-05-24 | 2021-08-03 | 山东省人工智能研究院 | 一种基于位置卷积注意力网络的血管斑块ct影像分割方法 |
CN113903073A (zh) * | 2021-11-23 | 2022-01-07 | 山东省人工智能研究院 | 一种基于局部增强transformer的假视频检测方法 |
CN114549481A (zh) * | 2022-02-25 | 2022-05-27 | 河北工业大学 | 一种融合深度和宽度学习的深度伪造图像检测方法 |
CN114842034A (zh) * | 2022-04-19 | 2022-08-02 | 山东省人工智能研究院 | 一种基于放大模糊操作痕迹的图片真假检测方法 |
CN115641632A (zh) * | 2022-10-20 | 2023-01-24 | 南京航空航天大学 | 一种基于分离三维卷积神经网络的人脸伪造检测方法 |
Non-Patent Citations (6)
Title |
---|
CHIH-CHUNG HSU等: "Deep Fake Image Detection Based on Pairwise Learning", 《MDPI》, pages 1 - 14 * |
HONG-SHUO CHEN等: "DEFAKEHOP: A LIGHT-WEIGHT HIGH-PERFORMANCE DEEPFAKE DETECTOR", 《ARXIV:2103.06929V1》, pages 1 - 6 * |
SU-GYEONG YU等: "Face Spoofing Detection Using DenseNet", 《INTERNATIONAL CONFERENCE ON INTELLIGENT HUMAN COMPUTER INTERACTION》, pages 229 - 238 * |
张璐等: "人脸视频深度伪造检测方法综述", 《计算机科学与探索》, pages 1 - 31 * |
曹玉红等: "智能人脸伪造与检测综述", 《工程研究——跨学科视野中的工程》, pages 538 - 555 * |
曹申豪等: "人脸伪造及检测技术综述", 《中国图象图形学报》, pages 1023 - 1038 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315798A (zh) * | 2023-11-20 | 2023-12-29 | 齐鲁工业大学(山东省科学院) | 一种基于身份脸型特征的深度伪造检测方法 |
CN117315798B (zh) * | 2023-11-20 | 2024-03-12 | 齐鲁工业大学(山东省科学院) | 一种基于身份脸型特征的深度伪造检测方法 |
CN117593798A (zh) * | 2023-11-28 | 2024-02-23 | 齐鲁工业大学(山东省科学院) | 一种基于双分支特征增强的伪造人脸检测方法 |
CN117593798B (zh) * | 2023-11-28 | 2024-05-28 | 齐鲁工业大学(山东省科学院) | 一种基于双分支特征增强的伪造人脸检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116453199B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116453199B (zh) | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 | |
CN111415316A (zh) | 基于生成对抗网络的缺陷数据合成算法 | |
Rehman et al. | Deep learning for face anti-spoofing: An end-to-end approach | |
CN113743484A (zh) | 基于空间和通道注意力机制的图像分类方法与系统 | |
CN116250020A (zh) | 使用潜在邻域图检测对抗性示例 | |
CN113762138A (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
Wang et al. | HidingGAN: High capacity information hiding with generative adversarial network | |
Nam et al. | Deep convolutional neural network for identifying seam-carving forgery | |
CN115641632A (zh) | 一种基于分离三维卷积神经网络的人脸伪造检测方法 | |
CN113807232B (zh) | 基于双流网络的伪造人脸检测方法、系统及存储介质 | |
CN111259792A (zh) | 基于dwt-lbp-dct特征的人脸活体检测方法 | |
Xu et al. | MDTL-NET: Computer-generated image detection based on multi-scale deep texture learning | |
Wang et al. | A Timely Survey on Vision Transformer for Deepfake Detection | |
Birajdar et al. | Subsampling-based blind image forgery detection using support vector machine and artificial neural network classifiers | |
CN116978096A (zh) | 一种基于生成对抗网络的人脸对抗攻击方法 | |
Raswa et al. | Fingerprint liveness detection using denoised-bayes shrink wavelet and aggregated local spatial and frequency features | |
JP2013520714A (ja) | 高次元データ空間内のテストデータのクラスを評価するための方法およびシステム | |
CN113553895A (zh) | 一种基于人脸正面化的多姿态人脸识别方法 | |
Essa et al. | High Order Volumetric Directional Pattern for Video‐Based Face Recognition | |
CN112906508A (zh) | 一种基于卷积神经网络的面部活体检测方法 | |
Yao et al. | An Improved Self‐Training Model with Fine‐Tuning Teacher/Student Exchange Strategy to Detect Computer‐Generated Images | |
Shah et al. | Image Manipulation Detection Using Error Level Analysis | |
Yadav et al. | Investigating the Impact of Visual Attention Models in Face Forgery Detection | |
Una et al. | Classification technique for face-spoof detection in artificial neural networks using concepts of machine learning | |
Xie | Adaptive spatial image steganography and steganalysis using perceptual modelling and machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |