CN114757342B - 一种基于对抗训练的电子数据信息反取证方法 - Google Patents

一种基于对抗训练的电子数据信息反取证方法 Download PDF

Info

Publication number
CN114757342B
CN114757342B CN202210664838.5A CN202210664838A CN114757342B CN 114757342 B CN114757342 B CN 114757342B CN 202210664838 A CN202210664838 A CN 202210664838A CN 114757342 B CN114757342 B CN 114757342B
Authority
CN
China
Prior art keywords
digital information
electronic digital
discriminator
generator
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210664838.5A
Other languages
English (en)
Other versions
CN114757342A (zh
Inventor
丁峰
龚雨轩
朱小刚
李向军
刘春年
裴康鹭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang University
Original Assignee
Nanchang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang University filed Critical Nanchang University
Priority to CN202210664838.5A priority Critical patent/CN114757342B/zh
Publication of CN114757342A publication Critical patent/CN114757342A/zh
Application granted granted Critical
Publication of CN114757342B publication Critical patent/CN114757342B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于对抗训练的电子数据信息反取证方法,将DeepFake生成的伪电子数字信息加入对抗性干扰后输入GAN网络的一级生成器,并使用鉴别器监督,输出一级电子数字信息;将一级电子数字信息输入GAN网络的二级生成器,并使用鉴别器监督,输出模仿原始伪电子数字信息的二级电子数字信息;将二级电子数字信息输入GAN网络的三级生成器,并使用三级鉴别器监督,将三级生成器生成的电子数字信息再度转换,输出最终电子数字信息,并根据第一损失函数、第二损失函数以及额外损失构建GAN网络的最终损失函数。本发明能够提高反取证能力与视觉效果。

Description

一种基于对抗训练的电子数据信息反取证方法
技术领域
本发明涉及数据处理领域,尤其涉及一种基于对抗训练的电子数据信息反取证方法。
背景技术
反取证技术是一套针对取证技术的对策技术,常见的反取证技术主要有数据隐藏、瑕疵擦除和痕迹模糊等。在许多传统的反取证工作中,研究人员通常手动设计数学模型,这需要相当高的专业知识与技能,并且这种方法大多都用途单一,效率低下。近年来研究人员发现可以通过传输电子数字信息样式来发动反取证攻击,这使得GAN(对抗网络)成为反取证最理想的工具。基于数据驱动的帧级分类的DNN(深度神经网络)是目前最有效的深度伪造取证方式,因此,本发明提出了一种基于对抗训练的电子数据信息反取证方法来对抗深度伪造探测器,不仅具有很高的反取证能力,还几乎没有视觉瑕疵。
发明内容
本发明提供了一种基于对抗训练的电子数据信息反取证方法,包括:
将DeepFake生成的伪电子数字信息加入对抗性干扰后输入GAN网络的一级生成器,并使用一级鉴别器和二级鉴别器监督,输出一级电子数字信息,使伪电子数字信息向真实电子数字信息靠近,并构建第一损失函数;
将一级电子数字信息输入GAN网络的二级生成器,并使用三级鉴别器和四级鉴别器监督,输出模仿原始伪电子数字信息的二级电子数字信息,用于逆转一级生成器的输出,并构建第二损失函数;
将二级电子数字信息输入GAN网络的三级生成器,并使用五级鉴别器和六级鉴别器监督,将三级生成器生成的电子数字信息再度转换,输出接近真实电子数字信息视觉效果的最终电子数字信息,并根据第一损失函数、第二损失函数以及额外损失构建GAN网络的最终损失函数。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,在DeepFake生成的伪电子数字信息加入对抗性干扰,具体为在伪电子数字信息中加入噪声。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,GAN网络的一级生成器加入的对抗性干扰为n,If代表伪电子数字信息,Ir代表真实电子数字信息,经对抗性干扰后使得If在统计学上接近Ir,即:G1(If) = If+ n = Is≈ Ir,Is为伪电子数字信息加入对抗性干扰后输出的电子数字信息。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,构建的第一损失函数为:L(G1,D1) = E[logD1(Ir,G1(If))],D1为一级鉴别器,G1为一级生成器。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,二级生成器G2的输出应该接近原始DeepFake生成的伪电子数字信息,三级鉴别器D3是监督二级生成器G2的输出和输入,此时期望四级鉴别器D4会判别错误,用下面的公式来描述:
G2(G1(If)) = Ie≈ If,
L(G2,D3) = E[1 − logD3(Is,G2(Is))],
L(G2,D4) = E[logD4(G1(If),G2(Is))]。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,监督视觉效果的第二损失函数如下:
L(G2,D3,D4) = L(G2,D3) + L(G2,D4)
= E[1 − logD3(Is,G2(Is))]+E[logD4(G1(If),G2(Is))]。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,对于反取证性能的额外监督,描述如下:
G3(G2(Is)) = Ir≈ Ir,
L(G3,D5) = E[logD5(G2(Is),G3(Ie))],
L(G3,D6) = E[1 − logD6(Ie,G3(Ie))],
L(G3,D5,D6) = L(G3,D5) + L(G3,D6)
= E[logD5(G2(Is),G3(Ie))]+E[1 − logD6(Ie,G3(Ie))];
整个GAN模型的损失函数如下:LGAN= L(G1,D1,D2)+L(G2,D3,D4)+λL(G3,D5,D6),其中λ控制最后一个模块的比重。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,用一个包含 L1和 L2的额外损失Lp来惩罚内部生成机作弊行为,额外的损失Lp描述如下:
Lp(G1,G2) = αL1(G1,G2) + βL2(G1,G2),
where
L1(G1,G2) = E[||Ir− G1(If,n)||]+ E[||If− G2(If+ n)||],
and
L2(G1,G2) = E[(Ir− G1(If,n))2]+ E[(If− G2(If+ n))2]。
如上所述的一种基于对抗训练的电子数据信息反取证方法,其中,最终的损失函数L GAN如下所示:
L GAN= LGAN+ Lp(G1,G2)= L(G1,D1,D2) + L(G2,D3,D4)+ λL(G3,D5,D6) + Lp(G1,G2)。
本发明实现的有益效果如下:
1、本发明着眼于反取证能力与视觉效果,通过对不同反取证算法的研究和学习,利用特殊的监督机制与多重GAN模型的叠加,设计出了独特的基于对抗训练的反取证模型。
2、本发明旨在通过研究反取证技术,从而揭露目前取证技术的弱点,推动取证技术的发展。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的系统整体设计框图;
图2是一种基于对抗训练的电子数据信息反取证方法流程图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
图1为系统整体设计框图,基于该系统设计,本发明实施例一提供一种基于对抗训练的电子数据信息反取证方法,如图2所示,包括:
步骤210、将DeepFake生成的伪电子数字信息加入对抗性干扰后输入GAN网络的一级生成器,并使用一级鉴别器和二级鉴别器监督,输出一级电子数字信息,使伪电子数字信息向真实电子数字信息靠近,并构建第一损失函数;
优选地,在DeepFake生成的伪电子数字信息加入对抗性干扰,具体为在伪电子数字信息中加入噪声。
GAN网络的生成器基于Unet设计,生成器包括编码器和解码器,编码器首先将伪电子数字信息转换为特征向量,最后再由解码器将处理后的特征向量还原为电子数字信息图像,并且最终输出的电子数字信息图像的尺寸与输入电子数字信息图像的尺寸是相同的。编码器和解码器都是由五个视觉群组成的神经网络。编码器采用卷积层进行下采样,解码器采用反卷积层进行上采样。本申请提供的生成器不需要使用任何池化操作,防止造成信息的丢失。此外,由于输入生成器的目标是在不改变电子数字信息内容的情况下合成电子数字信息,因此可以将编码器和解码器中相同深度的视觉群相互连接,利用编码器学习的权值,解码器可以生成内容一致且具有期望的反取证属性的电子数字信息。
具体地,GAN网络的一级生成器必须产生对抗性干扰n,并且具有高度的反取证能力,If代表伪电子数字信息,Ir代表真实电子数字信息,经对抗性干扰后使得If在统计学上接近Ir,即:G1(If) = If+ n = Is≈ Ir,Is为伪电子数字信息加入对抗性干扰后输出的电子数字信息。
为了使GAN网络的生成器不会失效,需要加入鉴别器来监督,本申请实施例中,除第一层与最后一层外,每层卷积层都经过正则化且激活函数均为lrelu,最终会给每张输入的电子数字信息图片赋予一个0~1的预测值,若数值靠近0则说明判别器认为该电子数字信息是DeepFake的可信度更高,若数值靠近1则相反。
其中,GAN网络的一级生成器生成的电子数字信息是用来欺骗一级鉴别器的,因此此部分的损失函数如下:L(G1,D1) = E[logD1(Ir,G1(If))],D1为一级鉴别器,G1为一级生成器。
二级鉴别器D2作为判别器,促使一级生成器G1的输出在统计学上与原始DeepFake生成的伪电子数字信息相差甚远,具体描述如下:L(G1,D2) = E[1 − logD2(If,G1(If))],至此,部分损失函数表示如下:L(G1,D1,D2) = L(G1,D1) + L(G1,D2)= E[logD1(Ir,G1(If))]+ E[1 − logD2(If,G1(If))]。
需要说明的是,本发明中生成器与鉴别器的结构是可以调整的,可以采用更加复杂的网络结构来平衡速度与效果。
步骤220、将一级电子数字信息输入GAN网络的二级生成器,并使用三级鉴别器和四级鉴别器监督,输出模仿原始伪电子数字信息的二级电子数字信息,用于逆转一级生成器的输出,并构建第二损失函数;
为了监督视觉质量,二级生成器G2的输出应该接近原始DeepFake生成的伪电子数字信息,三级鉴别器D3则是监督二级生成器G2的输出和输入,此时期望四级鉴别器D4会判别错误,因此,用下面的公式来描述这一部分的过程:
G2(G1(If)) = Ie≈ If,
L(G2,D3) = E[1 − logD3(Is,G2(Is))],
L(G2,D4) = E[logD4(G1(If),G2(Is))].
所以监督视觉效果的损失函数如下:
L(G2,D3,D4) = L(G2,D3) + L(G2,D4)
= E[1 − logD3(Is,G2(Is))]+E[logD4(G1(If),G2(Is))].
步骤230、将二级电子数字信息输入GAN网络的三级生成器,并使用五级鉴别器和六级鉴别器监督,将三级生成器生成的电子数字信息再度转换,输出接近真实电子数字信息视觉效果的最终电子数字信息,并根据第一损失函数、第二损失函数以及额外损失构建GAN网络的最终损失函数;
对于反取证性能的额外监督,描述如下:
G3(G2(Is)) = Ir≈ Ir,
L(G3,D5) = E[logD5(G2(Is),G3(Ie))],
L(G3,D6) = E[1 − logD6(Ie,G3(Ie))],
L(G3,D5,D6) = L(G3,D5) + L(G3,D6)
= E[logD5(G2(Is),G3(Ie))]+E[1 − logD6(Ie,G3(Ie))].
因此整个GAN模型的损失函数如下(其中λ控制最后一个模块的比重):
LGAN= L(G1,D1,D2)+L(G2,D3,D4)+λL(G3,D5,D6)
最后,为了避免G2直接将G1的输入作为输出,使得整个训练失效。因此,用一个包含 L1和 L2(L1和L2为损失函数,用于计算额外损失函数Lp)的额外损失Lp 来惩罚内部生成机作弊行为,额外的损失Lp 描述如下:
Lp(G1,G2) = αL1(G1,G2) + βL2(G1,G2),
where
L1(G1,G2) = E[||Ir− G1(If,n)||]+ E[||If− G2(If+ n)||],
and
L2(G1,G2) = E[(Ir− G1(If,n))2]+ E[(If− G2(If+ n))2]。
其中,α和β分别为两个损失函数L1和L2的权重值。
综上所述最终的损失函数L GAN如下所示:
L GAN= LGAN+ Lp(G1,G2)= L(G1,D1,D2) + L(G2,D3,D4)+ λL(G3,D5,D6) + Lp(G1,G2)。
本发明着眼于反取证能力与视觉效果,通过对不同反取证算法的研究和学习,利用特殊的监督机制与多重GAN模型的叠加,设计出了独特的基于对抗训练的反取证模型,使DeepFake变得更加完善;并且通过研究反取证技术,能给揭露目前取证技术的弱点,推动取证技术的发展。以下通过实验数据来分析本发明的有效性:
在评估反取证性能之前,先要找到有效的取证模型,为了验证选取的取证模型的有效性,分别从FF++、Celeb-DF、DFDC数据库中提取10万张图片来训练取证模型,例如划分1万张组成测试集,列出了每个数据集上模型的分类准确度。分类准确度定义为:
Figure 767507DEST_PATH_IMAGE001
,其中 TP、TN、FP、FN 分别表示真阳性率、真阴性率、假阳性率、假阴性率。
验证了取证模型的有效性之后,则要检测反取证模型的有效性。在训练模型之前,先必须对训练数据进行预处理,包括:评估面孔的视觉质量,并从训练和测试数据集中移除带有明显缺陷的视频;然后,在10万张伪造图片的精确数据集上训练GAN模型,直到纳什均衡点;将深度伪造的电子数字信息与对应的真实电子数字信息成对,进行对抗性训练;最后利用训练好的模型对测试集的图片进行处理,再送给取证模型进行检测。分类准确度定义为:
Figure 428295DEST_PATH_IMAGE002
最后,由于目前没有统一的人脸视觉效果评估手段,根据实验者手动打标签来训练出一个人脸评价器。例如组织18个人来辨别来自各种数据集的5万张人脸电子数字信息图像,并给图片中有明显的瑕疵的地方打上标签,最后用这种带标签的图片放入VGG16网络中训练。经过训练的评估器对伪造面孔的分类准确率达到94.22% 。此外,还应用Mask-SSIM作为一个度量来定量测量合成面部的质量,它以原始DeepFake伪造视频中的人脸作为参考,评估相应的合成人脸的相似性。在实验中,注意到带有明显缺陷和扭曲的劣质人脸电子数字信息图像总是得到较低的Mask-SSIM分数。本申请模型在保持大多数合成电子数字信息的高视觉质量方面具有显著的优势。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (9)

1.一种基于对抗训练的电子数据信息反取证方法,其特征在于,包括:
将DeepFake生成的伪电子数字信息加入对抗性干扰后输入GAN网络的一级生成器,并使用一级鉴别器监督,输出一级电子数字信息,并构建第一损失函数;使用二级鉴别器作为判别器处理一级生成器的输出,构建加入二级鉴别器的损失函数;
将一级电子数字信息输入GAN网络的二级生成器,并使用三级鉴别器和四级鉴别器监督,输出模仿原始伪电子数字信息的二级电子数字信息,用于逆转一级生成器的输出,并构建第二损失函数;
将二级电子数字信息输入GAN网络的三级生成器,并使用五级鉴别器和六级鉴别器监督,将三级生成器生成的电子数字信息再度转换,并根据第一损失函数、第二损失函数以及额外损失构建GAN网络的最终损失函数。
2.如权利要求1所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,在DeepFake生成的伪电子数字信息加入对抗性干扰,具体为在伪电子数字信息中加入噪声。
3.如权利要求2所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,GAN网络的一级生成器加入的对抗性干扰为n,If代表伪电子数字信息,Ir代表真实电子数字信息,经对抗性干扰后G1(If) = If+ n = Is≈ Ir,IS为伪电子数字信息加入对抗性干扰后输出的电子数字信息。
4.如权利要求3所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,构建的第一损失函数为:L(G1,D1) = E[logD1(Ir,G1(If))],D1为一级鉴别器,G1为一级生成器。
5.如权利要求4所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,将一级电子数字信息输入GAN网络的二级生成器,并使用三级鉴别器和四级鉴别器监督,具体采用如下公式来描述:
G2(G1(If)) = Ie≈ If,
L(G2,D3) = E[1 − logD3(Is,G2(Is))],
L(G2,D4) = E[logD4(G1(If),G2(Is))];
其中,G2为二级生成器、D3为三级鉴别器、D4为四级鉴别器。
6.如权利要求5所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,监督视觉效果的第二损失函数如下:
L(G2,D3,D4) = L(G2,D3) + L(G2,D4)
= E[1 − logD3(Is,G2(Is))]+E[logD4(G1(If),G2(Is))]。
7.如权利要求6所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,对于反取证性能的额外监督,描述如下:
G3(G2(Is)) = Ir≈ Ir,
L(G3,D5) = E[logD5(G2(Is),G3(Ie))],
L(G3,D6) = E[1 − logD6(Ie,G3(Ie))],
L(G3,D5,D6) = L(G3,D5) + L(G3,D6)
= E[logD5(G2(Is),G3(Ie))]+E[1 − logD6(Ie,G3(Ie))];
整个GAN模型的损失函数如下:LGAN= L(G1,D1,D2)+L(G2,D3,D4)+λL(G3,D5,D6),其中λ控制最后一个模块的比重,L(G1,D1,D2)为加入二级鉴别器的损失函数。
8.如权利要求7所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,用一个包含 L1和L2的额外损失Lp来惩罚内部生成机作弊行为,额外的损失Lp描述如下:
Lp(G1,G2) =αL1(G1,G2)+βL2(G1,G2),此时L1(G1,G2) = E[||Ir−G1(If,n)||]+ E[||If−G2(If+ n)||],并且,L2(G1,G2) = E[(Ir− G1(If,n))2]+ E[(If− G2(If+ n))2];α和β分别为两个损失函数L1和L2的权重值。
9.如权利要求8所述的一种基于对抗训练的电子数据信息反取证方法,其特征在于,最终的损失函数L GAN如下所示:
L GAN= LGAN+ Lp(G1,G2)= L(G1,D1,D2) + L(G2,D3,D4)+ λL(G3,D5,D6) + Lp(G1,G2)。
CN202210664838.5A 2022-06-14 2022-06-14 一种基于对抗训练的电子数据信息反取证方法 Active CN114757342B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210664838.5A CN114757342B (zh) 2022-06-14 2022-06-14 一种基于对抗训练的电子数据信息反取证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210664838.5A CN114757342B (zh) 2022-06-14 2022-06-14 一种基于对抗训练的电子数据信息反取证方法

Publications (2)

Publication Number Publication Date
CN114757342A CN114757342A (zh) 2022-07-15
CN114757342B true CN114757342B (zh) 2022-09-09

Family

ID=82336233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210664838.5A Active CN114757342B (zh) 2022-06-14 2022-06-14 一种基于对抗训练的电子数据信息反取证方法

Country Status (1)

Country Link
CN (1) CN114757342B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937994B (zh) * 2023-01-06 2023-05-30 南昌大学 一种基于深度学习检测模型的数据检测方法
CN115796242B (zh) * 2023-02-10 2023-05-16 南昌大学 一种电子数字信息反取证方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898184A (zh) * 2018-06-29 2018-11-27 北京奇虎科技有限公司 建立跨域联合分布匹配模型的方法、装置及其应用
CN108960278A (zh) * 2017-05-18 2018-12-07 英特尔公司 使用生成式对抗网络的鉴别器的新奇检测
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
EP3859599A1 (en) * 2020-02-03 2021-08-04 Robert Bosch GmbH Training a generator neural network using a discriminator with localized distinguishing information
CN114495239A (zh) * 2022-02-16 2022-05-13 云南大学 基于频域信息与生成对抗网络的伪造图像检测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741693B2 (en) * 2017-11-15 2023-08-29 Palo Alto Research Center Incorporated System and method for semi-supervised conditional generative modeling using adversarial networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960278A (zh) * 2017-05-18 2018-12-07 英特尔公司 使用生成式对抗网络的鉴别器的新奇检测
CN108898184A (zh) * 2018-06-29 2018-11-27 北京奇虎科技有限公司 建立跨域联合分布匹配模型的方法、装置及其应用
EP3859599A1 (en) * 2020-02-03 2021-08-04 Robert Bosch GmbH Training a generator neural network using a discriminator with localized distinguishing information
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN114495239A (zh) * 2022-02-16 2022-05-13 云南大学 基于频域信息与生成对抗网络的伪造图像检测方法及系统

Also Published As

Publication number Publication date
CN114757342A (zh) 2022-07-15

Similar Documents

Publication Publication Date Title
CN114757342B (zh) 一种基于对抗训练的电子数据信息反取证方法
CN112087442B (zh) 基于注意力机制的时序相关网络入侵检测方法
CN111582225A (zh) 一种遥感图像场景分类方法及装置
Kim et al. Label-preserving data augmentation for mobile sensor data
CN111738044A (zh) 一种基于深度学习行为识别的校园暴力评估方法
CN109919921B (zh) 基于生成对抗网络的环境影响程度建模方法
CN111866004A (zh) 安全评估方法、装置、计算机系统和介质
CN113095158A (zh) 一种基于对抗生成网络的笔迹生成方法及装置
CN110991603B (zh) 一种神经网络的局部鲁棒性验证方法
CN115114965A (zh) 风电机组齿轮箱故障诊断模型、方法、设备及存储介质
Luo et al. SMD anomaly detection: a self-supervised texture–structure anomaly detection framework
CN115526847A (zh) 一种基于半监督学习的主板表面缺陷检测方法
CN115240259A (zh) 一种基于yolo深度网络的课堂环境下人脸检测方法及其检测系统
CN112183645B (zh) 基于上下文感知的注意力机制的图像美学质量评价方法
CN114064459A (zh) 基于生成对抗网络和集成学习的软件缺陷预测方法
CN114638809A (zh) 基于pa-mlfpn工件表面多尺度微小缺陷检测方法
CN115238738A (zh) 构建水声目标识别模型的方法和装置
Viola et al. A Hybrid Approach for Video Memorability Prediction.
Chen et al. Identification of image global processing operator chain based on feature decoupling
CN111461135A (zh) 利用卷积神经网络集成的数字图像局部滤波取证方法
CN111723864A (zh) 基于主动学习使用互联网图片进行对抗训练的方法及装置
Silva et al. Machine learning for noisy multivariate time series classification: a comparison and practical evaluation
Atmajaya et al. ITE Law Enforcement Support through Detection Tools of Fake News, Hate Speech, and Insults in Digital Media
Yao et al. Intelligent Framework for Bearing Fault Diagnosis in High-Noise Environments: A Location-Focused Soft Threshold Denoising Approach
Madhu et al. SiamNet: Siamese CNN Based Similarity Model for Adversarially Generated Environmental Sounds

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant