CN116664880B - 深度伪造反取证图像的生成方法 - Google Patents

深度伪造反取证图像的生成方法 Download PDF

Info

Publication number
CN116664880B
CN116664880B CN202310950013.4A CN202310950013A CN116664880B CN 116664880 B CN116664880 B CN 116664880B CN 202310950013 A CN202310950013 A CN 202310950013A CN 116664880 B CN116664880 B CN 116664880B
Authority
CN
China
Prior art keywords
image
identity
evidence obtaining
generating
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310950013.4A
Other languages
English (en)
Other versions
CN116664880A (zh
Inventor
丁峰
范冰
刘帅旗
朱小刚
刘春年
刘伯成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Juneng Iot Technology Research Center Co ltd
Nanchang University New Generation Information Technology Industry Research Institute
Nanchang University
Original Assignee
Jiangxi Juneng Iot Technology Research Center Co ltd
Nanchang University New Generation Information Technology Industry Research Institute
Nanchang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Juneng Iot Technology Research Center Co ltd, Nanchang University New Generation Information Technology Industry Research Institute, Nanchang University filed Critical Jiangxi Juneng Iot Technology Research Center Co ltd
Priority to CN202310950013.4A priority Critical patent/CN116664880B/zh
Publication of CN116664880A publication Critical patent/CN116664880A/zh
Application granted granted Critical
Publication of CN116664880B publication Critical patent/CN116664880B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明提供了一种深度伪造反取证图像的生成方法,涉及图像处理与多媒体信息安全技术领域。所述生成方法包括以下步骤:获取图像数据,并构建反取证模型的网络结构;将图像数据区分为训练集图像和测试集图像,将训练集图像输入生成网络并以预设权重提取视觉特征和取证特征,进行特征重组合成伪造图像;判别网络对伪造图像与训练集图像进行分类判别,并将学习到的权重回传至生成网络更新预设权重;重复进行达到预设迭代轮次后生成反取证模型;将测试集图像输入反取证模型,输出反取证图像。本发明生成的反取证图像能够提高取证检测器的检测难度,达到更强的反取证效果,从而能够协助应对新型伪造技术的取证挑战。

Description

深度伪造反取证图像的生成方法
技术领域
本发明涉及图像处理与多媒体信息安全技术领域,尤其涉及一种深度伪造反取证图像的生成方法。
背景技术
DeepFake目前因为伪造和制造虚假面孔而广为人知。近年来,取证研究人员已经建立了许多算法来对抗DeepFake。尽管迄今为止已经在区分伪造面孔和原始面孔方面取得了巨大进展,但仍存在操纵面部图像语义信息的潜在威胁。过去为了发起反取证攻击,研究人员通常设计复杂的数学模型,需要具有对图像高水平的数学和计算机专业知识。随着机器学习的发展,GAN模型已经广泛应用于反取证模型。通过创新,现在可以对图像内容,如人脸进行反取证攻击。到目前为止,大多数Deepfake生成方法只能操纵面部的内部区域,而外部区域仍然保留了原始面部图像,通过这些方法生成的虚假面孔,仍然无法逃脱从外部区域收集身份语义信息的身份驱动方法的检测。因此,亟需提供一种方案改善上述问题。
发明内容
本发明的目的在于提供了一种深度伪造反取证图像的生成方法,以改善现有技术没有将身份语义信息引入图像反取证领域中,无法逃脱身份驱动方法检测的问题,并且提升了生成的反取证图像的视觉效果,生成的反取证图像能够提高取证检测器的检测难度,达到更强的反取证效果,从而能够协助应对新型伪造技术的取证挑战。
本发明提供的深度伪造反取证图像的生成方法采用如下的技术方案:
S1、获取图像数据,并构建反取证模型的生成对抗网络结构;其中,所述图像数据至少包含两组身份的人脸数据,所述网络结构包含生成网络和判别网络;
S2、将所述图像数据区分为训练集图像和测试集图像,将所述训练集图像输入所述生成网络,所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像;将所述伪造图像输入所述判别网络与所述训练集图像进行分类判别,并将学习到的权重回传至所述生成网络更新所述预设权重;
S3、重复进行步骤S2达到预设迭代轮次后,生成所述反取证模型;
S4、将所述测试集图像输入所述反取证模型,输出反取证图像。
如上所述的生成方法,其中,所述生成网络包括编码器E和解码器D,编码器E用于提取图像数据的视觉特征和取证特征,解码器D采用上采样操作将重组后的视觉特征和取证特征合成伪造图像。
如上所述的生成方法,其中,编码器E和解码器D中均包含ConvlutionFormer块结构,所述ConvlutionFormer块结构用于保留图像数据的高频特征。
如上所述的生成方法,其中,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征时,所述训练集图像特征可以表示为:
其中,为身份X的人脸图像特征,/>为经过所述编码器E提取身份X特征的操作,/>表示身份X的视觉特征,/>表示身份X的取证特征。
如上所述的生成方法,其中,所述X为A或B,进行特征重组以合成伪造图像后,所述伪造图像可以表示为:
其中,为身份B的视觉特征与身份B的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份A的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份B的视觉特征重组后的伪造图像,D为经过所述解码器D将重组后的特征合成伪造图像的操作。
如上所述的生成方法,其中,判别网络包括判别器DA和判别器DB,且判别器DA和判别器DB分别与解码器D相连接;判别器DA用于判别身份A的图像和具有身份A取证特征的伪造图像,DB用于判别身份B的图像和具有身份B取证特征的伪造图像。
如上所述的生成方法,其中,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像的过程中,编码器E构建损失函数LE,解码器D构建损失函数LD,判别器DA构建损失函数,判别器DB构建损失函数/>
如上所述的生成方法,其中,所述反取证模型的对抗损失函数分别为LadvA和LadvB,像素损失函数分别为和/>,可以表示为:
其中,E表示期望符号,表示当判别器DA输入伪造图像B''后的交叉熵损失,/>表示当判别器DB输入伪造图像B'后的交叉熵损失。
如上所述的生成方法,其中,所述LE和LD分别可以表示为:
其中为权重因子,/>为编码器E的参数,/>为解码器D的参数。
如上所述的生成方法,其中,所述和/>分别可以表示为:
其中,E表示期望符号,表示当判别器DA输入身份A的图像后的交叉熵损失,/>表示当判别器DB输入身份B的图像后的交叉熵损失,/>为判别器DA的参数,/>为判别器DB的参数。
本发明提出的生成方法的有益效果在于:
1.本发明结合身份语义信息(即取证特征)进行图像信息合成,能够提高取证检测器的检测难度,达到更强的反取证效果,从而协助取证工作者应对新型的伪造技术挑战。
2.本发明加入了ConvlutionFormer块结构,能够进行深度特征提取,使图像的高频特征被保留,提高了反取证图像的质量。
附图说明
图1为本发明实施例提供的反取证模型的结构图;
图2为本发明实施例提供的ConvlutionFormer块的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。除非另外定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本文中使用的“包括”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
下面结合附图和实施例对本发明进一步说明:
实施例1
本发明实施例1提供了一种深度伪造反取证图像的生成方法,包括:
S1、获取图像数据,并构建反取证模型的生成对抗网络结构;其中,所述图像数据至少包含两组身份的人脸数据,所述网络结构包含生成网络和判别网络;
S2、将所述图像数据区分为训练集图像和测试集图像,将所述训练集图像输入所述生成网络,所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像;将所述伪造图像输入所述判别网络与所述训练集图像进行分类判别,并将学习到的权重回传至所述生成网络更新所述预设权重;
S3、重复进行步骤S2达到预设迭代轮次后,生成所述反取证模型;
S4、将所述测试集图像输入所述反取证模型,输出反取证图像。
在一些实施例中,采用DeepFake数据集中的Celeb-DF和DeepForensics数据集作为输入的图像数据,从视频中提取帧后,对所有图像中的面部区域进行定位和分割,通过重采样和裁剪操作将图像尺寸统一为3×256×256,同时从数据集中手动删除没有完整面部生物信息的样本,最终,每个数据集分别使用2900、360和360张图像进行训练、验证和测试。
在一些进一步的实施例中,所有实验都在配备两个GPU GTX-3090的服务器上进行,使用torch 1.10.0+cu113构建了所有网络模型。
在一些实施例中,参见图1,生成网络包括编码器E和解码器D,所述编码器E用于提取图像数据的视觉特征和取证特征,所述解码器D采用上采样操作将重组后的视觉特征和取证特征合成伪造图像。
在一些进一步的实施例中,编码器E和解码器D中均包含ConvlutionFormer块结构,参见图2,该ConvlutionFormer块由归一化层、卷积层、通道多层感知层构建而成,旨在进行特征提取时能够保留图像数据的高频特征,提高反取证图像的质量。
在一些实施例中,当输入图像为面部图像时,其特征可以定义为:
其中,为身份X的人脸图像特征,/>为经过所述编码器E提取身份X特征的操作,/>表示身份X的视觉特征,/>表示身份X的取证特征;
所述X为A或B,再对视觉特征和取证特征进行特征重组,将重组后的特征输入解码器D中合成伪造图像,所述伪造图像可以表示为:
其中,为身份B的视觉特征与身份B的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份A的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份B的视觉特征重组后的伪造图像,/>为经过所述解码器D将重组后的特征合成伪造图像的操作。
在一些实施例中,判别网络包括判别器DA和判别器DB,且所述判别器DA和所述判别器DB分别与所述解码器D相连接;所述判别器DA用于判别身份A的图像和具有身份A取证特征的伪造图像,所述DB用于判别身份B的图像和具有身份B取证特征的伪造图像。
在一些实施例中,反取证模型的对抗损失函数分别为LadvA和LadvB,像素损失函数分别为Lpix1,可以表示为:
其中,E表示期望符号,表示当判别器DA输入伪造图像B''后的交叉熵损失,/>表示当判别器DB输入伪造图像B'后的交叉熵损失。
在一些进一步的实施例中,编码器E的损失函数LE和解码器D的损失函数LD,可以表示为:
其中为权重因子,/>为编码器E的参数,/>为解码器D的参数。
在一些实施例中,判别器的损失函数/>和判别器/>的损失函数/>,可以表示为:
其中,E表示期望符号,表示当判别器DA输入身份A的图像后的交叉熵损失,/>表示当判别器DB输入身份B的图像后的交叉熵损失,/>为判别器DA的参数,/>为判别器DB的参数。
在一些实施例中,在测试之前,需要训练多个深度神经网络模型作为身份检测器来预测身份,选择的模型有DenseNet-121、ShuffleNet和EfficientNet,所有模型都在各自的数据集上独立训练,每个模型分别使用2900、360和360张图像进行训练、验证和测试,使用准确率()和精确率(Precision)作为评价指标来评估身份检测器的性能,其表示为:
其中,TP表示正确预测的正样本数量,TN表示正确预测的负样本数量,FP表示错误预测的正样本数量,P表示实际正样本数量,N表示实际负样本数量,上述三个身份检测器训练后的分类性能如表1所示;
将本发明提供的反取证模型分别与VQGAN、MaxViT和CycleGAN反取证模型进行对比,使用相同的数据集训练上述四个反取证模型之后,用训练好的模型生成测试数据集;然后,使用训练后的DenseNet-121、ShuffleNet和EfficientNet身份检测器对测试数据集进行预测,其预测精确率如表2所示。
表1,
表2,
从表中可以看出,除CycleGAN反取证模型以外,其它模型在大多数情况下都可以欺骗身份检测器。特别是本发明提出的反取证模型和VQGAN反取证模型都具有令人满意的不可检测性能,它们可以在不同的数据集上相互胜出。但可以看出本发明提出的反取证模型在Celeb-DF数据集上表现欠佳,这是由于Celeb-DF数据集中的视频图像数据是在杂乱的背景下拍摄的。因此,要恢复令人满意的视觉质量的背景场景还存在一定的困难。
虽然在上文中详细说明了本发明的实施方式,但是对于本领域的技术人员来说显而易见的是,能够对这些实施方式进行各种修改和变化。但是,应理解,这种修改和变化都属于权利要求书中所述的本发明的范围和精神之内。而且,在此说明的本发明可有其它的实施方式,并且可通过多种方式实施或实现。

Claims (9)

1.一种深度伪造反取证图像的生成方法,其特征在于,包含以下步骤:
S1、获取图像数据,并构建反取证模型的生成对抗网络结构;其中,所述图像数据至少包含两组身份的人脸数据,所述网络结构包含生成网络和判别网络;所述生成网络包括编码器E和解码器D,所述编码器E和解码器D中均包含ConvlutionFormer块结构,所述ConvlutionFormer块结构用于保留图像数据的高频特征;所述ConvlutionFormer块由归一化层、卷积层、通道多层感知层构建而成;
S2、将所述图像数据区分为训练集图像和测试集图像,将所述训练集图像输入所述生成网络,所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像;将所述伪造图像输入所述判别网络与所述训练集图像进行分类判别,并将学习到的权重回传至所述生成网络更新所述预设权重;其中,所述取证特征为身份语义信息;
S3、重复进行步骤S2达到预设迭代轮次后,生成所述反取证模型;
S4、将所述测试集图像输入所述反取证模型,输出反取证图像。
2.根据权利要求1所述的一种深度伪造反取证图像的生成方法,其特征在于,所述编码器E用于提取图像数据的视觉特征和取证特征,所述解码器D采用上采样操作将重组后的视觉特征和取证特征合成伪造图像。
3.根据权利要求2所述的一种深度伪造反取证图像的生成方法,其特征在于,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征时,所述训练集图像特征可以表示为:
其中,为身份X的人脸图像特征,/>为经过所述编码器E提取身份X特征的操作,表示身份X的视觉特征,/>表示身份X的取证特征。
4.根据权利要求3所述的一种深度伪造反取证图像的生成方法,其特征在于,所述X为A或B,进行特征重组以合成伪造图像后,所述伪造图像可以表示为:
其中,为身份B的视觉特征与身份B的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份A的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份B的视觉特征重组后的伪造图像,D为经过所述解码器D将重组后的特征合成伪造图像的操作。
5.根据权利要求4所述的一种深度伪造反取证图像的生成方法,其特征在于,所述判别网络包括判别器DA和判别器DB,且所述判别器DA和所述判别器DB分别与所述解码器D相连接;所述判别器DA用于判别身份A的图像和具有身份A取证特征的伪造图像,所述DB用于判别身份B的图像和具有身份B取证特征的伪造图像。
6.根据权利要求5所述的一种深度伪造反取证图像的生成方法,其特征在于,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像的过程中,所述编码器E构建损失函数LE,所述解码器D构建损失函数LD,所述判别器DA构建损失函数,所述判别器DB构建损失函数/>
7.根据权利要求6所述的一种深度伪造反取证图像的生成方法,其特征在于,所述反取证模型的对抗损失函数分别为LadvA和LadvB,像素损失函数分别为Lpix1,可以表示为:
其中,E表示期望符号,表示当判别器DA输入伪造图像B''后的交叉熵损失,表示当判别器DB输入伪造图像B'后的交叉熵损失。
8.根据权利要求7所述的一种深度伪造反取证图像的生成方法,其特征在于,所述LE和LD分别可以表示为:
其中为权重因子,/>为编码器E的参数,/>为解码器D的参数。
9.根据权利要求6所述的一种深度伪造反取证图像的生成方法,其特征在于,所述和/>分别可以表示为:
其中,E表示期望符号,表示当判别器DA输入身份A的图像后的交叉熵损失,表示当判别器DB输入身份B的图像后的交叉熵损失,/>为判别器DA的参数,为判别器DB的参数。
CN202310950013.4A 2023-07-31 2023-07-31 深度伪造反取证图像的生成方法 Active CN116664880B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310950013.4A CN116664880B (zh) 2023-07-31 2023-07-31 深度伪造反取证图像的生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310950013.4A CN116664880B (zh) 2023-07-31 2023-07-31 深度伪造反取证图像的生成方法

Publications (2)

Publication Number Publication Date
CN116664880A CN116664880A (zh) 2023-08-29
CN116664880B true CN116664880B (zh) 2023-11-28

Family

ID=87712224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310950013.4A Active CN116664880B (zh) 2023-07-31 2023-07-31 深度伪造反取证图像的生成方法

Country Status (1)

Country Link
CN (1) CN116664880B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117115064B (zh) * 2023-10-17 2024-02-02 南昌大学 一种基于多模态控制的图像合成方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325687A (zh) * 2020-02-14 2020-06-23 上海工程技术大学 一种基于端对端深度网络的平滑滤波取证方法
CN114202529A (zh) * 2021-12-14 2022-03-18 四川大学 一种全局特征引导的多任务篡改图像检测方法
KR20220084236A (ko) * 2020-12-13 2022-06-21 한국항공대학교산학협력단 개선된 조작영상의 검출시스템 및 방법
CN114692741A (zh) * 2022-03-21 2022-07-01 华南理工大学 基于域不变特征的泛化人脸伪造检测方法
EP4102399A1 (en) * 2021-06-08 2022-12-14 Université de Genève Object authentication using digital blueprints and physical fingerprints
CN115588226A (zh) * 2022-11-01 2023-01-10 重庆邮电大学 一种高鲁棒性的深度伪造人脸检测方法
CN115879516A (zh) * 2023-03-02 2023-03-31 南昌大学 一种数据取证方法
CN116071270A (zh) * 2023-03-06 2023-05-05 南昌大学 基于可变形卷积生成对抗网络的电子数据生成方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115087973A (zh) * 2020-01-06 2022-09-20 维尔蒂姆知识产权有限公司 用于区分开运动传感器数据中记录的特定于用户、动作和设备的特征的系统和方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325687A (zh) * 2020-02-14 2020-06-23 上海工程技术大学 一种基于端对端深度网络的平滑滤波取证方法
KR20220084236A (ko) * 2020-12-13 2022-06-21 한국항공대학교산학협력단 개선된 조작영상의 검출시스템 및 방법
EP4102399A1 (en) * 2021-06-08 2022-12-14 Université de Genève Object authentication using digital blueprints and physical fingerprints
CN114202529A (zh) * 2021-12-14 2022-03-18 四川大学 一种全局特征引导的多任务篡改图像检测方法
CN114692741A (zh) * 2022-03-21 2022-07-01 华南理工大学 基于域不变特征的泛化人脸伪造检测方法
CN115588226A (zh) * 2022-11-01 2023-01-10 重庆邮电大学 一种高鲁棒性的深度伪造人脸检测方法
CN115879516A (zh) * 2023-03-02 2023-03-31 南昌大学 一种数据取证方法
CN116071270A (zh) * 2023-03-06 2023-05-05 南昌大学 基于可变形卷积生成对抗网络的电子数据生成方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Securing Facial Bioinformation by Eliminating Adversarial Perturbations;FengDing等;《IEEE TRANSACTIONS ON INDUSTRIALINFORMATICS》;全文 *
数字图像区域复制篡改的盲取证技术研究进展;赵洁;刘萌萌;武斌;翟大伟;;华侨大学学报(自然科学版)(01);全文 *

Also Published As

Publication number Publication date
CN116664880A (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
Guo et al. Fake face detection via adaptive manipulation traces extraction network
WO2021189364A1 (zh) 一种对抗图像生成方法、装置、设备以及可读存储介质
CN116664880B (zh) 深度伪造反取证图像的生成方法
CN106295501A (zh) 基于唇部运动的深度学习身份识别方法
JP2022141931A (ja) 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
CN113724354B (zh) 基于参考图颜色风格的灰度图像着色方法
Ding et al. Real-time estimation for the parameters of Gaussian filtering via deep learning
CN113822377B (zh) 基于对比自学习的伪造人脸检测方法
CN116958637A (zh) 图像检测模型的训练方法、装置、设备及存储介质
CN114842524A (zh) 一种基于不规则显著性像素簇的人脸鉴伪方法
CN112529081B (zh) 基于高效注意力校准的实时语义分割方法
US20220129664A1 (en) Deepfake video detection system and method
CN117523626A (zh) 伪rgb-d人脸识别法
CN114092827A (zh) 一种图像数据集生成方法
Wang et al. Face forgery detection with a fused attention mechanism
Chen et al. Identification of image global processing operator chain based on feature decoupling
CN111754459A (zh) 基于统计深度特征的染色伪造图像检测方法及电子装置
CN111914852B (zh) 一种基于编解码结构的多模态显著性对象检测方法
Ma et al. Image steganalysis method based on cover selection and adaptive filtered residual network
CN115797711B (zh) 一种基于重构模型的对抗样本改进分类方法
CN115936961B (zh) 基于少样本对比学习网络的隐写分析方法、设备及介质
Kumar et al. Encoder–decoder-based CNN model for detection of object removal by image inpainting
CN113392840B (zh) 基于多尺度分割融合的实时语义分割方法
CN110084141B (zh) 一种基于私有信息的跨领域场景识别方法
CN113592016B (zh) 基于互信息增强的自监督新颖性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant