CN116664880A - 深度伪造反取证图像的生成方法 - Google Patents
深度伪造反取证图像的生成方法 Download PDFInfo
- Publication number
- CN116664880A CN116664880A CN202310950013.4A CN202310950013A CN116664880A CN 116664880 A CN116664880 A CN 116664880A CN 202310950013 A CN202310950013 A CN 202310950013A CN 116664880 A CN116664880 A CN 116664880A
- Authority
- CN
- China
- Prior art keywords
- image
- evidence obtaining
- identity
- generating
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000000007 visual effect Effects 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000012360 testing method Methods 0.000 claims abstract description 11
- 238000005215 recombination Methods 0.000 claims abstract description 9
- 230000006798 recombination Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 230000010485 coping Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000005242 forging Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000001815 facial effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种深度伪造反取证图像的生成方法,涉及图像处理与多媒体信息安全技术领域。所述生成方法包括以下步骤:获取图像数据,并构建反取证模型的网络结构;将图像数据区分为训练集图像和测试集图像,将训练集图像输入生成网络并以预设权重提取视觉特征和取证特征,进行特征重组合成伪造图像;判别网络对伪造图像与训练集图像进行分类判别,并将学习到的权重回传至生成网络更新预设权重;重复进行达到预设迭代轮次后生成反取证模型;将测试集图像输入反取证模型,输出反取证图像。本发明生成的反取证图像能够提高取证检测器的检测难度,达到更强的反取证效果,从而能够协助应对新型伪造技术的取证挑战。
Description
技术领域
本发明涉及图像处理与多媒体信息安全技术领域,尤其涉及一种深度伪造反取证图像的生成方法。
背景技术
DeepFake目前因为伪造和制造虚假面孔而广为人知。近年来,取证研究人员已经建立了许多算法来对抗DeepFake。尽管迄今为止已经在区分伪造面孔和原始面孔方面取得了巨大进展,但仍存在操纵面部图像语义信息的潜在威胁。过去为了发起反取证攻击,研究人员通常设计复杂的数学模型,需要具有对图像高水平的数学和计算机专业知识。随着机器学习的发展,GAN模型已经广泛应用于反取证模型。通过创新,现在可以对图像内容,如人脸进行反取证攻击。到目前为止,大多数Deepfake生成方法只能操纵面部的内部区域,而外部区域仍然保留了原始面部图像,通过这些方法生成的虚假面孔,仍然无法逃脱从外部区域收集身份语义信息的身份驱动方法的检测。因此,亟需提供一种方案改善上述问题。
发明内容
本发明的目的在于提供了一种深度伪造反取证图像的生成方法,以改善现有技术没有将身份语义信息引入图像反取证领域中,无法逃脱身份驱动方法检测的问题,并且提升了生成的反取证图像的视觉效果,生成的反取证图像能够提高取证检测器的检测难度,达到更强的反取证效果,从而能够协助应对新型伪造技术的取证挑战。
本发明提供的深度伪造反取证图像的生成方法采用如下的技术方案:
S1、获取图像数据,并构建反取证模型的生成对抗网络结构;其中,所述图像数据至少包含两组身份的人脸数据,所述网络结构包含生成网络和判别网络;
S2、将所述图像数据区分为训练集图像和测试集图像,将所述训练集图像输入所述生成网络,所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像;将所述伪造图像输入所述判别网络与所述训练集图像进行分类判别,并将学习到的权重回传至所述生成网络更新所述预设权重;
S3、重复进行步骤S2达到预设迭代轮次后,生成所述反取证模型;
S4、将所述测试集图像输入所述反取证模型,输出反取证图像。
如上所述的生成方法,其中,所述生成网络包括编码器E和解码器D,编码器E用于提取图像数据的视觉特征和取证特征,解码器D采用上采样操作将重组后的视觉特征和取证特征合成伪造图像。
如上所述的生成方法,其中,编码器E和解码器D中均包含ConvlutionFormer块结构,所述ConvlutionFormer块结构用于保留图像数据的高频特征。
如上所述的生成方法,其中,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征时,所述训练集图像特征可以表示为:
,
其中,为身份X的人脸图像特征,/>为经过所述编码器E提取身份X特征的操作,/>表示身份X的视觉特征,/>表示身份X的取证特征。
如上所述的生成方法,其中,所述X为A或B,进行特征重组以合成伪造图像后,所述伪造图像可以表示为:
,
,
,
其中,为身份B的视觉特征与身份B的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份A的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份B的视觉特征重组后的伪造图像,D为经过所述解码器D将重组后的特征合成伪造图像的操作。
如上所述的生成方法,其中,判别网络包括判别器DA和判别器DB,且判别器DA和判别器DB分别与解码器D相连接;判别器DA用于判别身份A的图像和具有身份A取证特征的伪造图像,DB用于判别身份B的图像和具有身份B取证特征的伪造图像。
如上所述的生成方法,其中,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像的过程中,编码器E构建损失函数LE,解码器D构建损失函数LD,判别器DA构建损失函数,判别器DB构建损失函数/>。
如上所述的生成方法,其中,所述反取证模型的对抗损失函数分别为LadvA和LadvB,像素损失函数分别为和/>,可以表示为:
,
,
,
,
其中,E表示期望符号,表示当判别器DA输入伪造图像B''后的交叉熵损失,/>表示当判别器DB输入伪造图像B'后的交叉熵损失。
如上所述的生成方法,其中,所述LE和LD分别可以表示为:
,
,
其中为权重因子,/>为编码器E的参数,/>为解码器D的参数。
如上所述的生成方法,其中,所述和/>分别可以表示为:
,
,
,
,
其中,E表示期望符号,表示当判别器DA输入身份A的图像后的交叉熵损失,/>表示当判别器DB输入身份B的图像后的交叉熵损失,/>为判别器DA的参数,为判别器DB的参数。
本发明提出的生成方法的有益效果在于:
1.本发明结合身份语义信息(即取证特征)进行图像信息合成,能够提高取证检测器的检测难度,达到更强的反取证效果,从而协助取证工作者应对新型的伪造技术挑战。
2.本发明加入了ConvlutionFormer块结构,能够进行深度特征提取,使图像的高频特征被保留,提高了反取证图像的质量。
附图说明
图1为本发明实施例提供的反取证模型的结构图;
图2为本发明实施例提供的ConvlutionFormer块的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。除非另外定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本文中使用的“包括”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
下面结合附图和实施例对本发明进一步说明:
实施例1
本发明实施例1提供了一种深度伪造反取证图像的生成方法,包括:
S1、获取图像数据,并构建反取证模型的生成对抗网络结构;其中,所述图像数据至少包含两组身份的人脸数据,所述网络结构包含生成网络和判别网络;
S2、将所述图像数据区分为训练集图像和测试集图像,将所述训练集图像输入所述生成网络,所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像;将所述伪造图像输入所述判别网络与所述训练集图像进行分类判别,并将学习到的权重回传至所述生成网络更新所述预设权重;
S3、重复进行步骤S2达到预设迭代轮次后,生成所述反取证模型;
S4、将所述测试集图像输入所述反取证模型,输出反取证图像。
在一些实施例中,采用DeepFake数据集中的Celeb-DF和DeepForensics数据集作为输入的图像数据,从视频中提取帧后,对所有图像中的面部区域进行定位和分割,通过重采样和裁剪操作将图像尺寸统一为3×256×256,同时从数据集中手动删除没有完整面部生物信息的样本,最终,每个数据集分别使用2900、360和360张图像进行训练、验证和测试。
在一些进一步的实施例中,所有实验都在配备两个GPU GTX-3090的服务器上进行,使用torch 1.10.0+cu113构建了所有网络模型。
在一些实施例中,参见图1,生成网络包括编码器E和解码器D,所述编码器E用于提取图像数据的视觉特征和取证特征,所述解码器D采用上采样操作将重组后的视觉特征和取证特征合成伪造图像。
在一些进一步的实施例中,编码器E和解码器D中均包含ConvlutionFormer块结构,参见图2,该ConvlutionFormer块由归一化层、卷积层、通道多层感知层构建而成,旨在进行特征提取时能够保留图像数据的高频特征,提高反取证图像的质量。
在一些实施例中,当输入图像为面部图像时,其特征可以定义为:
,
其中,为身份X的人脸图像特征,/>为经过所述编码器E提取身份X特征的操作,/>表示身份X的视觉特征,/>表示身份X的取证特征;
所述X为A或B,再对视觉特征和取证特征进行特征重组,将重组后的特征输入解码器D中合成伪造图像,所述伪造图像可以表示为:
,
,
,
其中,为身份B的视觉特征与身份B的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份A的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份B的视觉特征重组后的伪造图像,/>为经过所述解码器D将重组后的特征合成伪造图像的操作。
在一些实施例中,判别网络包括判别器DA和判别器DB,且所述判别器DA和所述判别器DB分别与所述解码器D相连接;所述判别器DA用于判别身份A的图像和具有身份A取证特征的伪造图像,所述DB用于判别身份B的图像和具有身份B取证特征的伪造图像。
在一些实施例中,反取证模型的对抗损失函数分别为LadvA和LadvB,像素损失函数分别为Lpix1和,可以表示为:
,
,
,
,
其中,E表示期望符号,表示当判别器DA输入伪造图像B''后的交叉熵损失,/>表示当判别器DB输入伪造图像B'后的交叉熵损失。
在一些进一步的实施例中,编码器E的损失函数LE和解码器D的损失函数LD,可以表示为:
,
,
其中为权重因子,/>为编码器E的参数,/>为解码器D的参数。
在一些实施例中,判别器的损失函数/>和判别器/>的损失函数/>,可以表示为:
,
,
,
,
其中,E表示期望符号,表示当判别器DA输入身份A的图像后的交叉熵损失,/>表示当判别器DB输入身份B的图像后的交叉熵损失,/>为判别器DA的参数,为判别器DB的参数。
在一些实施例中,在测试之前,需要训练多个深度神经网络模型作为身份检测器来预测身份,选择的模型有DenseNet-121、ShuffleNet和EfficientNet,所有模型都在各自的数据集上独立训练,每个模型分别使用2900、360和360张图像进行训练、验证和测试,使用准确率()和精确率(Precision)作为评价指标来评估身份检测器的性能,其表示为:
,
,
其中,TP表示正确预测的正样本数量,TN表示正确预测的负样本数量,FP表示错误预测的正样本数量,P表示实际正样本数量,N表示实际负样本数量,上述三个身份检测器训练后的分类性能如表1所示;
将本发明提供的反取证模型分别与VQGAN、MaxViT和CycleGAN反取证模型进行对比,使用相同的数据集训练上述四个反取证模型之后,用训练好的模型生成测试数据集;然后,使用训练后的DenseNet-121、ShuffleNet和EfficientNet身份检测器对测试数据集进行预测,其预测精确率如表2所示。
表1,
,
表2,
,
从表中可以看出,除CycleGAN反取证模型以外,其它模型在大多数情况下都可以欺骗身份检测器。特别是本发明提出的反取证模型和VQGAN反取证模型都具有令人满意的不可检测性能,它们可以在不同的数据集上相互胜出。但可以看出本发明提出的反取证模型在Celeb-DF数据集上表现欠佳,这是由于Celeb-DF数据集中的视频图像数据是在杂乱的背景下拍摄的。因此,要恢复令人满意的视觉质量的背景场景还存在一定的困难。
虽然在上文中详细说明了本发明的实施方式,但是对于本领域的技术人员来说显而易见的是,能够对这些实施方式进行各种修改和变化。但是,应理解,这种修改和变化都属于权利要求书中所述的本发明的范围和精神之内。而且,在此说明的本发明可有其它的实施方式,并且可通过多种方式实施或实现。
Claims (10)
1.一种深度伪造反取证图像的生成方法,其特征在于,包含以下步骤:
S1、获取图像数据,并构建反取证模型的生成对抗网络结构;其中,所述图像数据至少包含两组身份的人脸数据,所述网络结构包含生成网络和判别网络;
S2、将所述图像数据区分为训练集图像和测试集图像,将所述训练集图像输入所述生成网络,所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像;将所述伪造图像输入所述判别网络与所述训练集图像进行分类判别,并将学习到的权重回传至所述生成网络更新所述预设权重;
S3、重复进行步骤S2达到预设迭代轮次后,生成所述反取证模型;
S4、将所述测试集图像输入所述反取证模型,输出反取证图像。
2.根据权利要求1所述的一种深度伪造反取证图像的生成方法,其特征在于,所述生成网络包括编码器E和解码器D,所述编码器E用于提取图像数据的视觉特征和取证特征,所述解码器D采用上采样操作将重组后的视觉特征和取证特征合成伪造图像。
3.根据权利要求2所述的一种深度伪造反取证图像的生成方法,其特征在于,所述编码器E和解码器D中均包含ConvlutionFormer块结构,所述ConvlutionFormer块结构用于保留图像数据的高频特征。
4.根据权利要求2所述的一种深度伪造反取证图像的生成方法,其特征在于,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征时,所述训练集图像特征可以表示为:
,
其中,为身份X的人脸图像特征,/>为经过所述编码器E提取身份X特征的操作,/>表示身份X的视觉特征,/>表示身份X的取证特征。
5.根据权利要求4所述的一种深度伪造反取证图像的生成方法,其特征在于,所述X为A或B,进行特征重组以合成伪造图像后,所述伪造图像可以表示为:
,
,
,
其中,为身份B的视觉特征与身份B的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份A的取证特征重组后的伪造图像,/>为身份B的视觉特征与身份B的视觉特征重组后的伪造图像,D为经过所述解码器D将重组后的特征合成伪造图像的操作。
6.根据权利要求5所述的一种深度伪造反取证图像的生成方法,其特征在于,所述判别网络包括判别器DA和判别器DB,且所述判别器DA和所述判别器DB分别与所述解码器D相连接;所述判别器DA用于判别身份A的图像和具有身份A取证特征的伪造图像,所述DB用于判别身份B的图像和具有身份B取证特征的伪造图像。
7.根据权利要求6所述的一种深度伪造反取证图像的生成方法,其特征在于,执行所述生成网络以预设权重提取所述训练集图像的视觉特征和取证特征,并进行特征重组以合成伪造图像的过程中,所述编码器E构建损失函数LE,所述解码器D构建损失函数LD,所述判别器DA构建损失函数,所述判别器DB构建损失函数/>。
8.根据权利要求7所述的一种深度伪造反取证图像的生成方法,其特征在于,所述反取证模型的对抗损失函数分别为LadvA和LadvB,像素损失函数分别为Lpix1和,可以表示为:
,
,
,
,
其中,E表示期望符号,表示当判别器DA输入伪造图像B''后的交叉熵损失,表示当判别器DB输入伪造图像B'后的交叉熵损失。
9.根据权利要求8所述的一种深度伪造反取证图像的生成方法,其特征在于,所述LE和LD分别可以表示为:
,
,
其中为权重因子,/>为编码器E的参数,/>为解码器D的参数。
10.根据权利要求7所述的一种深度伪造反取证图像的生成方法,其特征在于,所述和/>分别可以表示为:
,
,
,
,
其中,E表示期望符号,表示当判别器DA输入身份A的图像后的交叉熵损失,表示当判别器DB输入身份B的图像后的交叉熵损失,/>为判别器DA的参数,/>为判别器DB的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310950013.4A CN116664880B (zh) | 2023-07-31 | 2023-07-31 | 深度伪造反取证图像的生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310950013.4A CN116664880B (zh) | 2023-07-31 | 2023-07-31 | 深度伪造反取证图像的生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116664880A true CN116664880A (zh) | 2023-08-29 |
CN116664880B CN116664880B (zh) | 2023-11-28 |
Family
ID=87712224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310950013.4A Active CN116664880B (zh) | 2023-07-31 | 2023-07-31 | 深度伪造反取证图像的生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116664880B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115064A (zh) * | 2023-10-17 | 2023-11-24 | 南昌大学 | 一种基于多模态控制的图像合成方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325687A (zh) * | 2020-02-14 | 2020-06-23 | 上海工程技术大学 | 一种基于端对端深度网络的平滑滤波取证方法 |
US20210209508A1 (en) * | 2020-01-06 | 2021-07-08 | Veridium Ip Limited | System and method for disentangling features specific to users, actions and devices recorded in motion sensor data |
CN114202529A (zh) * | 2021-12-14 | 2022-03-18 | 四川大学 | 一种全局特征引导的多任务篡改图像检测方法 |
KR20220084236A (ko) * | 2020-12-13 | 2022-06-21 | 한국항공대학교산학협력단 | 개선된 조작영상의 검출시스템 및 방법 |
CN114692741A (zh) * | 2022-03-21 | 2022-07-01 | 华南理工大学 | 基于域不变特征的泛化人脸伪造检测方法 |
EP4102399A1 (en) * | 2021-06-08 | 2022-12-14 | Université de Genève | Object authentication using digital blueprints and physical fingerprints |
CN115588226A (zh) * | 2022-11-01 | 2023-01-10 | 重庆邮电大学 | 一种高鲁棒性的深度伪造人脸检测方法 |
CN115879516A (zh) * | 2023-03-02 | 2023-03-31 | 南昌大学 | 一种数据取证方法 |
CN116071270A (zh) * | 2023-03-06 | 2023-05-05 | 南昌大学 | 基于可变形卷积生成对抗网络的电子数据生成方法及系统 |
-
2023
- 2023-07-31 CN CN202310950013.4A patent/CN116664880B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210209508A1 (en) * | 2020-01-06 | 2021-07-08 | Veridium Ip Limited | System and method for disentangling features specific to users, actions and devices recorded in motion sensor data |
CN111325687A (zh) * | 2020-02-14 | 2020-06-23 | 上海工程技术大学 | 一种基于端对端深度网络的平滑滤波取证方法 |
KR20220084236A (ko) * | 2020-12-13 | 2022-06-21 | 한국항공대학교산학협력단 | 개선된 조작영상의 검출시스템 및 방법 |
EP4102399A1 (en) * | 2021-06-08 | 2022-12-14 | Université de Genève | Object authentication using digital blueprints and physical fingerprints |
CN114202529A (zh) * | 2021-12-14 | 2022-03-18 | 四川大学 | 一种全局特征引导的多任务篡改图像检测方法 |
CN114692741A (zh) * | 2022-03-21 | 2022-07-01 | 华南理工大学 | 基于域不变特征的泛化人脸伪造检测方法 |
CN115588226A (zh) * | 2022-11-01 | 2023-01-10 | 重庆邮电大学 | 一种高鲁棒性的深度伪造人脸检测方法 |
CN115879516A (zh) * | 2023-03-02 | 2023-03-31 | 南昌大学 | 一种数据取证方法 |
CN116071270A (zh) * | 2023-03-06 | 2023-05-05 | 南昌大学 | 基于可变形卷积生成对抗网络的电子数据生成方法及系统 |
Non-Patent Citations (2)
Title |
---|
FENGDING等: "Securing Facial Bioinformation by Eliminating Adversarial Perturbations", 《IEEE TRANSACTIONS ON INDUSTRIALINFORMATICS》 * |
赵洁;刘萌萌;武斌;翟大伟;: "数字图像区域复制篡改的盲取证技术研究进展", 华侨大学学报(自然科学版), no. 01 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115064A (zh) * | 2023-10-17 | 2023-11-24 | 南昌大学 | 一种基于多模态控制的图像合成方法 |
CN117115064B (zh) * | 2023-10-17 | 2024-02-02 | 南昌大学 | 一种基于多模态控制的图像合成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116664880B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Fake face detection via adaptive manipulation traces extraction network | |
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
WO2021189364A1 (zh) | 一种对抗图像生成方法、装置、设备以及可读存储介质 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN116664880B (zh) | 深度伪造反取证图像的生成方法 | |
US11514715B2 (en) | Deepfake video detection system and method | |
CN113724354B (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN116342601B (zh) | 基于边缘引导和多层级搜索的图像篡改检测方法 | |
CN114330652A (zh) | 一种目标检测攻击方法和装置 | |
CN114842524A (zh) | 一种基于不规则显著性像素簇的人脸鉴伪方法 | |
Lv et al. | Chinese character CAPTCHA recognition based on convolution neural network | |
CN113822377B (zh) | 基于对比自学习的伪造人脸检测方法 | |
CN117058769A (zh) | 基于相似度计算的人脸异常攻击筛查方法和装置 | |
CN110084141B (zh) | 一种基于私有信息的跨领域场景识别方法 | |
CN110866552A (zh) | 基于全卷积空间传播网络的高光谱图像分类方法 | |
CN112529081B (zh) | 基于高效注意力校准的实时语义分割方法 | |
Chen et al. | Identification of image global processing operator chain based on feature decoupling | |
Jellali et al. | An Approach of Fake Videos Detection Based on Haar Cascades and Convolutional Neural Network | |
CN114092827A (zh) | 一种图像数据集生成方法 | |
Alkhoja | Multilayer Perceptron Network to Detect Fraud in Digital Images | |
CN111754459A (zh) | 基于统计深度特征的染色伪造图像检测方法及电子装置 | |
Shah et al. | Image Manipulation Detection Using Error Level Analysis | |
CN117133039B (zh) | 图像鉴伪模型训练方法、图像鉴伪方法、装置及电子设备 | |
Ma et al. | Image steganalysis method based on cover selection and adaptive filtered residual network | |
CN111914852B (zh) | 一种基于编解码结构的多模态显著性对象检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |