CN111179219A - 一种基于生成对抗网络的copy-move伪造检测方法 - Google Patents

一种基于生成对抗网络的copy-move伪造检测方法 Download PDF

Info

Publication number
CN111179219A
CN111179219A CN201911249736.1A CN201911249736A CN111179219A CN 111179219 A CN111179219 A CN 111179219A CN 201911249736 A CN201911249736 A CN 201911249736A CN 111179219 A CN111179219 A CN 111179219A
Authority
CN
China
Prior art keywords
network
copy
move
generation
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911249736.1A
Other languages
English (en)
Inventor
李应灿
丁峰
杨建权
张玉兰
朱国普
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201911249736.1A priority Critical patent/CN111179219A/zh
Publication of CN111179219A publication Critical patent/CN111179219A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Quality & Reliability (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

本发明涉一种基于生成对抗网络的copy‑move伪造检测方法,包括以下步骤:1)获取成对的数据集;2)生成对抗网络模型;3)损失函数的优化;4)调整对抗网络模型的参数。本发明基于GAN,定位图像copy‑move伪造中的相似区域,可以有效识别出图像中copy‑move的来源区域和目标区域。在训练好条件生成对抗网络后,该模型可有效检测图像的copy‑move伪造区域,检测速度相对于传统方法大大提高,具有较高的实用价值。

Description

一种基于生成对抗网络的copy-move伪造检测方法
技术领域
本发明属于信息安全领域,涉及一种基于生成对抗网络的copy-move伪造检测方法。
背景技术
数码相机的快速发展大大增加了世界各地数字图像的数量,而数字图像在取证调查、新闻报道等领域发挥着重要作用,图像的真实性是我们相信图片所传达的信息的基本要求。然而,随着数字图像处理软件的发展,修改数字图像越来越简单,造成眼见不一定为实的局面,如Photoshop、美图秀秀等。Copy-Move图像伪造是目前最简单、最常用的一种图像修改方法,通过复制或掩盖同幅图像中的特定对象,来误导大众。因其操作非常简单,所以即使是普通大众,也可以很轻易的修改图像。生活中使用copy-move来伪造图像的例子数不胜数,如首届华赛摄影金奖作品造假,伊朗成功发射导弹的新闻造假等,在数字图像真实性被破坏的同时,也产生了恶劣的社会影响。因此,图像伪造检测与定位在数字取证领域具有重要意义,理应受到更多的关注。
传统的copy-move伪造检测主要由以下四个主要步骤组成,分别是图像预处理、特征提取、特征匹配和后处理。传统方法可分为基于块检测和基于关键点检测,在此基础上又针对不同的伪造方式提出了对应的检测方法,但是在事先不知道采用了哪种伪造方式的情况下,无法选择合适的伪造定位方法。传统方法在特征匹配阶段计算代价较高,且传统手工特征的识别能力和对特定转换的不变性还不够好,限制检测性能。
发明内容
为解决上述背景技术中存在的问题,本发明提出一种基于生成对抗网络的copy-move伪造检测方法,其利用已经训练好的条件生成对抗网络(cGANs,conditionalGenerative Adversarial Networks)定位出伪造图像中的相似区域,利用条件生成对抗网络的相互博弈最终达到平衡的过程,准确建立输入与输出的对应关系。
本发明解决上述问题的技术方案是:一种基于条件生成对抗网络的copy-move伪造检测方法,其特殊之处在于,包括以下步骤:
1)获取大量的成对数据集;
2)生成对抗网络模型;
3)损失函数的优化;
4)调整对抗网络模型的参数。
优先地,所述步骤1)获取成对的数据集,具体为:
在训练条件生成对抗网络过程中需要大量成对的训练集,数据集为copy-move伪造图像及其对应的ground truth图像对,数据集又被分为:训练集、验证集和测试集。
优先地,所述步骤2)生成对抗网络模型,具体为:
本发明基于条件生成对抗网络,其中生成网络为U-net结构,是在普通的encoder-decoder结构的基础上增加跳线连接。该网络的输入经过几层下采样之后到达瓶颈层(bottleneck layer),然后逆转之前的下采样过程,进行对应层数的上采样,使得生成网络的输入与输出具有同等大小,需要注意的是,在进行上采样的过程中,该网络将第i层和第n-i层的特征层连接在一起作为第i+1层的输入,其中,n是生成网络的总层数。判别网络是由普通的几卷积层、池化层和激活层组成的结构,输出对输入图像对的评价,一个true或者false的矢量。
优先地,所述步骤3)损失函数的优化,具体为:
cGANs最后稳定状态是作为一个与输入相关的图片生成器,为了更好的理解cGANs的目标函数,我们首先看一下GANs的损失函数,如公式(1)所示。
Figure BDA0002308681100000021
其中:x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片,D(x)表示D网络判断真实图片是否真实的概率,因为x就是真实的,对于D来说D(x)值越接近1越好,D(G(z))是D网络判断G生成的图片的是否真实的概率。
D的目的:D的能力越强,D(x)应该越大,D(G(z))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大。G的目的:G应该希望自己生成的图片越接近真实越好,因此式子对于G来说是求最小。
同理,cGANs模型的损失函数如公式(2)所示,目标函数如公式(3)所示。其中,x表示生成网络中用户输入的图片。
Figure BDA0002308681100000031
Figure BDA0002308681100000032
基于GANs之前的研究得出,损失函数在对抗损失和传统损失(例如L1距离)之间效果较好。具体来说,判别网络的工作保持不变,但生成网络需要在欺骗判别网络的基础上,使得生成器生成的图片在L1的意义上更加接近ground truth,该项的作用可以减少生成图片中不自然的内容。
本发明针对图像的copy-move伪造检测任务,在上述损失的基础上引入更加关注伪造区域的Lmask损失。该项损失只关注待检测的伪造区域的L1距离,即在L1损失的基础上乘以ground truth所对应的0、1矩阵(用mask表示)。
所以,本发明中cGANs模型最终的目标函数为条件生成对抗网路的对抗损失、基于L1距离的传统损失和Lmask损失的融合,如公式(6)所示。
Figure BDA0002308681100000033
Figure BDA0002308681100000034
Figure BDA0002308681100000035
其中,λL1、λmask参数大小可根据具体任务进行相应的调整。
优先地,所述步骤4)调整对抗网络模型的参数,具体为:
经实验,本发明网络模型的参数选择如下:epoch=6,lr=0.0001,batch_size=1,λL1=200,λmask=10。
本发明的优点:
1、本发明着眼于图像copy-move伪造检测,通过对现有copy-move伪造检测算法的研究和学习,发现了基于图像到图像的条件生成对抗网络更适合copy-move伪造检测,输入待检测图像,直接得到伪造定位结果;
2、本发明基于GAN,定位图像copy-move伪造中的相似区域,可以有效识别出图像中copy-move的来源区域和目标区域。在训练好条件生成对抗网络后,该模型可有效检测图像的copy-move伪造区域,检测速度相对于传统方法大大提高,具有较高的实用价值。
附图说明
图1示出一种基于生成对抗网络的copy-move伪造检测方法的流程图;
图2展示的是本发明实施例在测试集上的部分实验结果图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。
本发明提出一种基于条件生成对抗网络(cGANs,conditional GenerativeAdversarial Networks)的检测方法,以提高检测准确率。cGANs中条件(conditional)体现在生成网络的输入不再是随机噪声,而是输入用户给的图片和随机噪声,它使用成对的数据(paired data)进行训练,把生成网络G的输入和输出一起作为判别网络D的输入,建立输入和输出的对应关系。经实验,在没有随机噪声的情况下,生成网络依旧可以学习输入到输出的映射。对于copy-move伪造检测任务,生成网络的输入为待检测图像,输出为对应的伪造定位结果,生成网络的目标是尽可能生成接近ground truth的伪造定位结果;判别网络的输入为待检测图像和ground truth图像对以及待检测图像和生成的伪造定位结果图像对,判别网络的目标是准确判断出输入的图像对为真实图像对还是虚假图像对。生成网络和判别网络相互博弈,直到生成网络可以生成判别器无法判断真假且与输入的待检测图像成对的输出,生成网络可用于图像的copy-move伪造检测。
GANs实质上是两个网络(生成网络G和判别网络D)在相互博弈的过程中,性能都得到提升,直到生成器生成难以判断真假的结果,丢掉D网络,G网络即可用作图片生成器。其中生成器的输入是随机噪声,输出是一幅由生成网络生成的假图片G(z)。
cGANs是在GANs的基础上,根据用户输入,建立起输入和输出图像对之间的关系,直到生成器可以生成与输入图像成对的输出。cGANs中conditional体现在输入不再是随机噪声,而是输入用户给的图片和随机噪声。该网络使用成对的数据(paired data)进行训练,把G的输入和输出一起作为D的输入,判断输入D网络的图像对是真的图像对还是假的图像对,当判别网络难以判断图像对真假的时候,丢掉D网络,G网络可以用来生成与输入图像对应的结果,由此便可建立输入和输出的对应关系。
生成对抗网络在开始时生成模型和判别模型的效果都很差,首先固定生成样本,训练判别器,提高判别网络D的性能。然后,固定判别器,让生成网络生成的数据和真实样本数据做一个拟合,来优化生成器G的性能。最后,当生成器的数据概率分布和真实数据概率分布重合时,达到一个稳定状态,生成器可以生成足以以假乱真的图片,判别网络判断不出真假样本,此时便可丢掉判别网络D,生成网络G可作为生成图片生成器,条件生成对抗网络(cGANs)最后的稳定状态便是,生成网络可作为与用户输入相对应的图片生成器。
本发明基于TensorFlow深度学习框架,使用python编程语言搭建上述网络,下面详细解释本发明的具体流程。首先是训练该模型所需的大量成对数据集,其次是该模型的网络结构,然后是该网络的目标函数,最后根据训练效果进行调参,避免欠拟合、防止过拟合。
参见图1和图2,一种基于生成对抗网络的copy-move伪造检测方法,具体为:
1)获取大量成对数据集
在训练条件生成对抗网络过程中需要大量成对的训练集,实验所用的数据集为100000张copy-move伪造图像及其对应的ground truth图像对,全部来自Yue Wu实验组提供的USCISI-CMFD数据集。其中,训练集为80000张copy-move伪造图像及其对应的groundtruth图像对。验证集为10000张copy-move伪造图像及其对应的ground truth图像对。实验使用剩余的10000张copy-move伪造图像及其对应的ground truth图像对作为测试集。
2)建立模型结构
本发明基于条件生成对抗网络,其中生成网络为U-net结构,是在普通的encoder-decoder结构的基础上增加跳线连接。该网络的输入经过几层下采样之后到达瓶颈层(bottleneck layer),然后逆转之前的下采样过程,进行对应层数的上采样,使得生成网络的输入与输出具有同等大小,需要注意的是,在进行上采样的过程中,该网络将第i层和第n-i层的特征层连接在一起作为第i+1层的输入,其中,n是生成网络的总层数。判别网络是由普通的几卷积层、池化层和激活层组成的结构,输出对输入图像对的评价,一个true或者false的矢量。
3)目标函数
cGANs最后稳定状态是作为一个与输入相关的图片生成器,为了更好的理解cGANs的目标函数,我们首先看一下GANs的损失函数,如公式(1)所示。
Figure BDA0002308681100000061
其中:x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片,D(x)表示D网络判断真实图片是否真实的概率,因为x就是真实的,对于D来说D(x)值越接近1越好,D(G(z))是D网络判断G生成的图片的是否真实的概率。
D的目的:D的能力越强,D(x)应该越大,D(G(z))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大。G的目的:G应该希望自己生成的图片越接近真实越好,因此式子对于G来说是求最小。
同理,cGANs模型的损失函数如公式(2)所示,目标函数如公式(3)所示。其中,x表示生成网络中用户输入的图片。
Figure BDA0002308681100000071
Figure BDA0002308681100000072
基于GANs之前的研究得出,损失函数在对抗损失和传统损失(例如L1距离)之间效果较好。具体来说,判别网络的工作保持不变,但生成网络需要在欺骗判别网络的基础上,使得生成器生成的图片在L1的意义上更加接近groundtruth,该项的作用可以减少生成图片中不自然的内容。
本发明针对图像的copy-move伪造检测任务,在上述损失的基础上引入更加关注伪造区域的Lmask损失。该项损失只关注待检测的伪造区域的L1距离,即在L1损失的基础上乘以ground truth所对应的0、1矩阵(用mask表示)。
所以,本发明中cGANs模型最终的目标函数为条件生成对抗网路的对抗损失、基于L1距离的传统损失和Lmask损失的融合,如公式(6)所示。
Figure BDA0002308681100000073
Figure BDA0002308681100000074
Figure BDA0002308681100000075
其中,λL1、λmask参数大小可根据具体任务进行相应的调整。
4)模型参数的调整
基于深度网络的copy-move伪造检测已有相应的研究,取得了不错的研究结果。基于cGANs的图像到图像的翻译(Image-to-ImageTranslation)是一种通用的解决方案,它似乎可以很好地解决各种各样的问题,已经在标签图像到街景图像、白天到夜景图像和边缘到实际图像等方面取得了不错的效果。经验证基于cGANs的图像copy-move伪造检测在数据集充足、网络结构合适、损失函数合理的情况下,取得了较好的伪造定位结果。
经实验,本发明网络模型的参数选择如下:epoch=6,lr=0.0001,batch_size=1,λL1=200,λmask=10。
在实验中,我们将成对的数据集作为网络的输入,80000对训练集和10000对验证集经过6个epoch的训练得到条件生成对抗模型。在10000张测试集上测试该模型。图2展示的是在测试集上的部分实验结果。
通过图2可看出,本发明可以准确定位出部分测试集的copy-move伪造区域。综合来看,本发明在定位图像中具体目标的平移、缩放类型copy-move伪造时有较好的检测结果,达到了既定目标。测试结果表明本发明可以作为一种潜在的图像copy-move伪造检测算法。
以上所述仅为本发明的实施例,并非以此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的系统领域,均同理包括在本发明的保护范围内。

Claims (5)

1.一种基于生成对抗网络的copy-move伪造检测方法,其特征在于,包括以下步骤:
1)获取成对的数据集;
2)生成对抗网络模型;
3)损失函数的优化;
4)调整对抗网络模型的参数。
2.根据权利要求1所述的一种基于生成对抗网络的copy-move伪造检测方法,其特征在于:
所述步骤1)的数据集为copy-move伪造图像及其对应的ground truth图像对,数据集又被分为:训练集、验证集和测试集。
3.根据权利要求2所述的一种基于生成对抗网络的copy-move伪造检测方法,其特征在于:
步骤2)的生成对抗网络模型,其中生成网络是在encoder-decoder结构的基础上增加跳线连接的U-net结构,生成网络模型的输入经过几层下采样之后到达瓶颈层,然后逆转之前的下采样过程,进行对应层数的上采样,使得生成网络的输入与输出具有同等大小;在进行上采样的过程中,该网络将第i层和第n-i层的特征层连接在一起作为第i+1层的输入,其中,n是生成网络的总层数;判别网络是由普通的几卷积层、池化层和激活层组成的结构,输出对输入图像对的评价,一个true或者false的矢量。
4.根据权利要求3所述的一种基于生成对抗网络的copy-move伪造检测方法,其特征在于:
所述步骤3)损失函数的优化,具体为:
cGANs最后稳定状态是作为一个与输入相关的图片生成器,GANs的损失函数,如公式(1)所示:
Figure FDA0002308681090000021
其中:x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片,D(x)表示D网络判断真实图片是否真实的概率,因为x就是真实的,对于D来说D(x)值越接近1越好,D(G(z))是D网络判断G生成的图片的是否真实的概率;
D的目的:D的能力越强,D(x)应该越大,D(G(z))应该越小;这时V(D,G)会变大,因此式子对于D来说是求最大;G的目的:G应该希望自己生成的图片越接近真实越好,因此式子对于G来说是求最小;
同理,cGANs模型的损失函数如公式(2)所示,目标函数如公式(3)所示,其中,x表示生成网络中用户输入的图片;
Figure FDA0002308681090000022
Figure FDA0002308681090000023
损失函数在对抗损失和传统损失之间效果较好,具体来说,判别网络的工作保持不变,但生成网络需要在欺骗判别网络的基础上,使得生成器生成的图片在L1的意义上更加接近ground truth,该项的作用可以减少生成图片中不自然的内容;
针对图像的copy-move伪造检测任务,在上述损失的基础上引入更加关注伪造区域的Lmask损失,该项损失只关注待检测的伪造区域的L1距离,即在L1损失的基础上乘以groundtruth所对应的0、1矩阵,用mask表示,
所以,cGANs模型最终的目标函数为条件生成对抗网路的对抗损失、基于L1距离的传统损失和Lmask损失的融合,如公式(6)所示:
Figure FDA0002308681090000031
Figure FDA0002308681090000032
Figure FDA0002308681090000033
5.根据权利要求4所述的一种基于生成对抗网络的copy-move伪造检测方法,其特征在于,
所述步骤4)调整对抗网络模型的参数如下:epoch=6,lr=0.0001,batch_size=1,λL1=200,λmask=10。
CN201911249736.1A 2019-12-09 2019-12-09 一种基于生成对抗网络的copy-move伪造检测方法 Pending CN111179219A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911249736.1A CN111179219A (zh) 2019-12-09 2019-12-09 一种基于生成对抗网络的copy-move伪造检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911249736.1A CN111179219A (zh) 2019-12-09 2019-12-09 一种基于生成对抗网络的copy-move伪造检测方法

Publications (1)

Publication Number Publication Date
CN111179219A true CN111179219A (zh) 2020-05-19

Family

ID=70652023

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911249736.1A Pending CN111179219A (zh) 2019-12-09 2019-12-09 一种基于生成对抗网络的copy-move伪造检测方法

Country Status (1)

Country Link
CN (1) CN111179219A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899251A (zh) * 2020-08-06 2020-11-06 中国科学院深圳先进技术研究院 一种区分伪造来源和目标区域的copy-move型伪造图像检测方法
CN112419238A (zh) * 2020-11-03 2021-02-26 广东机电职业技术学院 基于端到端深度神经网络的复制-粘贴伪造图像取证方法
WO2022037258A1 (zh) * 2020-08-18 2022-02-24 腾讯科技(深圳)有限公司 图像真伪检测方法、装置、计算机设备和存储介质
CN116758261A (zh) * 2023-06-26 2023-09-15 清华大学 基于生成对抗网络的宽带前视成像雷达目标识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909621A (zh) * 2017-11-16 2018-04-13 深圳市唯特视科技有限公司 一种基于双生成对抗网络的医学图像合成方法
CN109377448A (zh) * 2018-05-20 2019-02-22 北京工业大学 一种基于生成对抗网络的人脸图像修复方法
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909621A (zh) * 2017-11-16 2018-04-13 深圳市唯特视科技有限公司 一种基于双生成对抗网络的医学图像合成方法
CN109377448A (zh) * 2018-05-20 2019-02-22 北京工业大学 一种基于生成对抗网络的人脸图像修复方法
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHUAITAO ZHANG.ET AL: "EnsNet: Ensconce Text in the Wild", pages 801 *
YUZHU JI.ET AL: "Saliency Detection via Conditional Adversarial Image-to-Image Network", pages 1 - 30 *
赵小川编著: "现代数字图像处理技术提高及应用案例详解 MATLAB版", 北京航空航天大学出版社, pages: 292 - 295 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899251A (zh) * 2020-08-06 2020-11-06 中国科学院深圳先进技术研究院 一种区分伪造来源和目标区域的copy-move型伪造图像检测方法
WO2022037258A1 (zh) * 2020-08-18 2022-02-24 腾讯科技(深圳)有限公司 图像真伪检测方法、装置、计算机设备和存储介质
CN112419238A (zh) * 2020-11-03 2021-02-26 广东机电职业技术学院 基于端到端深度神经网络的复制-粘贴伪造图像取证方法
CN116758261A (zh) * 2023-06-26 2023-09-15 清华大学 基于生成对抗网络的宽带前视成像雷达目标识别方法
CN116758261B (zh) * 2023-06-26 2024-06-11 清华大学 基于生成对抗网络的宽带前视成像雷达目标识别方法

Similar Documents

Publication Publication Date Title
Rao et al. Deep learning local descriptor for image splicing detection and localization
CN111179219A (zh) 一种基于生成对抗网络的copy-move伪造检测方法
EP4085369A1 (en) Forgery detection of face image
Chen et al. SNIS: A signal noise separation-based network for post-processed image forgery detection
Wang et al. Image splicing detection based on convolutional neural network with weight combination strategy
CN113920094B (zh) 基于梯度残差u型卷积神经网络的图像篡改检测技术
Fu et al. CCNet: CNN model with channel attention and convolutional pooling mechanism for spatial image steganalysis
CN113361474B (zh) 基于图像块特征提取的双流网络图像伪造检测方法及系统
Wang et al. HidingGAN: High capacity information hiding with generative adversarial network
Liu et al. Overview of image inpainting and forensic technology
Chen et al. Image splicing localization using residual image and residual-based fully convolutional network
CN113807232B (zh) 基于双流网络的伪造人脸检测方法、系统及存储介质
Zhao et al. A transferable anti-forensic attack on forensic CNNs using a generative adversarial network
Arora et al. A review of techniques to detect the GAN-generated fake images
Satapathy et al. A lite convolutional neural network built on permuted Xceptio-inception and Xceptio-reduction modules for texture based facial liveness recognition
Zhao et al. TAN-GFD: generalizing face forgery detection based on texture information and adaptive noise mining
Mazumdar et al. Siamese convolutional neural network‐based approach towards universal image forensics
Kaushik et al. Convolutional neural network based digital image forensics using random forest and SVM classifier
Chen et al. A novel general blind detection model for image forensics based on DNN
CN115775409A (zh) 一种人脸图像防篡改融合检测方法
Peng et al. Mobilevit-focr: Mobilevit with fixed-one-centre loss and gradient reversal for generalised fake face detection
Do et al. Potential Attacks of DeepFake on eKYC Systems and Remedy for eKYC with DeepFake Detection Using Two-Stream Network of Facial Appearance and Motion Features
Zhang et al. Dynamic attention based domain generalization for face anti-spoofing
Farhan et al. Double Dual Convolutional Neural Network (D2CNN) for Copy-Move Forgery Detection
CN118333830B (zh) 基于QPCET水印的双任务级联主动Deepfake检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200519