CN113361594B - 一种基于生成模型的对抗样本生成方法 - Google Patents

一种基于生成模型的对抗样本生成方法 Download PDF

Info

Publication number
CN113361594B
CN113361594B CN202110621339.3A CN202110621339A CN113361594B CN 113361594 B CN113361594 B CN 113361594B CN 202110621339 A CN202110621339 A CN 202110621339A CN 113361594 B CN113361594 B CN 113361594B
Authority
CN
China
Prior art keywords
training
model
countermeasure
data set
train
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110621339.3A
Other languages
English (en)
Other versions
CN113361594A (zh
Inventor
杨高明
李明炜
方贤进
常昊乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University of Science and Technology
Original Assignee
Anhui University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University of Science and Technology filed Critical Anhui University of Science and Technology
Priority to CN202110621339.3A priority Critical patent/CN113361594B/zh
Publication of CN113361594A publication Critical patent/CN113361594A/zh
Application granted granted Critical
Publication of CN113361594B publication Critical patent/CN113361594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于生成模型的对抗样本生成方法,包括以下步骤:步骤1、获取需要进行对抗训练的模型在训练阶段使用的数据集,并进行预处理,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分;步骤2、使用训练集Xtrain训练所需的对抗样本生成模型,批量生成对抗样本。本发明对抗样本生成方法将迭代带来的时间代价集中至生成模型的训练阶段,从而避免在样本生成阶段重复的进行迭代,可以快速、批量地生成对抗样本,并且,通过让随机模型参与生成器的训练,本方法生成的对抗样本将具有更强的泛化性能,这将使得生成的样本可以用于多个模型的对抗训练,从而间接地降低对抗训练的成本。

Description

一种基于生成模型的对抗样本生成方法
技术领域
本发明涉及深度学习领域,具体的是一种基于生成模型的对抗样本生成方法。
背景技术
对抗样本是一类特殊的样本,它们通常由正常样本添加人眼难以察觉的微小扰动得来。对抗样本可以误导深度神经网络使其犯错,严重影响了深度学习模型的可靠性。为此,很多对抗样本的防御方法被提出。在已有的典型防御方法中,对抗训练是最直接有效的方法。通过在深度学习模型的训练阶段投入对抗样本,对抗训练可以使得模型的鲁棒性大幅度提升。但是,实施对抗训练必须以大量的对抗样本作为数据基础,为了驱动对抗训练,需要一种高效的、能够批量生成对抗样本的方法。
传统的对抗样本生成方法包括基于梯度的方法和基于优化的方法。基于梯度的方法以FGSM为代表,攻击者需要知道目标模型的参数以计算损失函数的梯度。基于优化的方法以C&W方法为代表,它们通常会将生成视为优化问题,攻击者通过设置多种约束条件最终得到对抗性扰动。大多数时候,基于优化的方法能计算出冗余较小的摄动,但也会花费更多的时间。这些传统的对抗样本生成方法通常对单个样本进行优化迭代,对于大规模生成对抗样本的场合,重复的迭代过程将耗费大量的时间。此外,传统方法生成的对抗样本具有很强的针对性,在指定的目标模型上生成的对抗样本很大程度上只对该模型生效,这使得耗费大量时间代价生成的对抗样本只能用于指定模型的对抗训练。
发明内容
为解决上述背景技术中提到的不足,本发明的目的在于提供一种基于生成模型的对抗样本生成方法,将迭代带来的时间代价集中至生成模型的训练阶段,从而避免在样本生成阶段重复的进行迭代,可以快速、批量地生成对抗样本,并且,通过让随机模型参与生成器的训练,本方法生成的对抗样本将具有更强的泛化性能,这将使得生成的样本可以用于多个模型的对抗训练,从而间接地降低对抗训练的成本。
本发明的目的可以通过以下技术方案实现:
一种基于生成模型的对抗样本生成方法,包括以下步骤:
步骤1、获取需要进行对抗训练的模型在训练阶段使用的数据集,并进行预处理,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分;
步骤2、使用训练集Xtrain训练所需的对抗样本生成模型,批量生成对抗样本。
进一步优选地,步骤1包括:
步骤1.1、将获得的数据集中的图像大小调整至需要进行对抗训练的模型在训练时使用的大小,将对应的标签转化为独热形式;
步骤1.2、用转化完成的图像数据和对应的标签组成数据集,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分。
进一步优选地,步骤2包括:
步骤2.1、使用训练集Xtrain训练所需的对抗样本生成模型;
步骤2.2、使用测试集Xtest作为训练完成的对抗样本生成模型的输入,生成对抗样本,将生成的对抗样本作为目标模型的输入,测试生成器G的效果;
步骤2.3、使用经过测试的生成器G在整个经过预处理的数据集上生成对抗样本,这些样本即可参与目标模型的对抗训练。
进一步优选地,生成模型的训练方法包括以下步骤:
S1、获取需要进行对抗训练的模型在训练阶段使用的数据集,并进行预处理,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分;
S2、构造深度自编码器结构,使用Xtrain对该结构进行训练,取训练完成的解码器部分作为映射器M;
S3、构建随机模型f并对其进行预训练;
S4、构建生成器G、判别器D,使用步骤2和步骤3所得的映射器M和随机模型f构成对抗样本生成模型,并对其进行预训练。
进一步优选地,步骤S1具体为:将获得的数据集中的图像统一转化为3通道PNG格式,图像大小调整至需要进行对抗训练的模型在训练时使用的大小,用转化完成的图像数据和对应的标签组成数据集,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分。
进一步优选地,步骤S2包括:
S201、根据获取到的数据集的复杂程度,构造深度自编码器结构;
S202、使用训练集Xtrain输入深度自编码器进行训练,获取自编码器的解码器部分作为构建对抗样本生成模型所需的映射器M。
进一步优选地,步骤S202中训练M时使用ADAM优化器,使用MSELoss作为损失函数。
进一步优选地,步骤S3包括:
S301、根据获取到的数据集的复杂程度,构建随机模型f,随机模型是结构可以产生随机变化的模型,由两个或两个以上的卷积层和全连接层随机组合而成,前向传播过程中,随机的对卷积层和全连接层进行组合,从而使得输出结果保持改变;
S302、使用训练集Xtrain输入随机模型f进行训练,使用测试集Xtest测试随机模型精度,保证精度高于85%,否则重复该步骤。
进一步优选地,步骤S302中训练f时使用SGD优化器,使用CrossEntropyLoss作为损失函数。
进一步优选地,步骤S4包括:
步骤4.1、根据获取到的数据集的复杂程度,参考WGAN的架构,设计生成器G和判别器D,G和D的输出层不使用激活函数。
步骤4.2、用步骤2和步骤3所得的映射器M、随机模型f和步骤4.1构建的生成器G、判别器D组成对抗样本生成模型,使用训练集Xtrain对G和D进行预训练,训练步骤如下:
从Xtrain中随机采样一批(x,l);
将x输入映射器M,得到向量v;
将v输入生成器G,获得生成结果xad,,计算:
Lossx=||xad-x||2
Lossadv=L(xad,l);
将生成结果xad输入判别器D,获得输出D(xad),计算:
LossGAN=Ex~p(x)[D(x)]-Ev~p(x)[D(xad)];
最小化LossGAN+αLossx+βLossadv,更新生成器G和判别器D的参数,其中α和β为超参数,根据生成器的表现需要对其做出调整;
重复以上过程直至对抗样本生成模型收敛。
本发明的有益效果:
发明所述的方法可以针对已经训练完成的深度学习图像分类模型进行对抗训练,使得其鲁棒性大幅度提升;相比现存的大部分对抗训练方法,本方法可以省去重复的迭代过程带来的时间代价,将时间代价压缩至对抗样本生成模型的一次性训练过程中,直接地降低对抗训练的成本;相比现存的大部分对抗样本生成方法,本方法所述的对抗样本生成模型可以生成泛化性能更强的对抗样本,从而使得同一批样本可以用于多个深度学习图像分类模型的对抗训练,间接地降低了对抗训练的成本。
附图说明
下面结合附图对本发明作进一步的说明,这些实例将通过附图的形式展示。其中。
图1是根据本说明书实施例所示的基本流程图;
图2是根据本说明书实施例所示的工作原理图;
图3是根据本说明书实施例所示的对抗样本生成模型架构图;
图4是根据本说明书实施例所示的随机模型架构图;
图5是根据本说明书实施例所示的对抗样本生成模型在示例数据集(CIFAR-10)。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“开孔”、“上”、“下”、“厚度”、“顶”、“中”、“长度”、“内”、“四周”等指示方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的组件或元件必须具有特定的方位,以特定的方位构造和操作,因此不能理解为对本发明的限制。
假设1:假设已经训练好了一个图像分类模型并挂载云端服务器中,提供给用户使用。此时希望对该图像分类模型进行对抗训练,模型拥有者可以根据本说明书的内容进行对抗样本生成。
假设2:该图像分类模型在MNIST数据集上训练,图像大小为28×28×1。
首先将MNIST数据集进行预处理,获得训练集Xtrain和测试集Xtest,该过程为图1的第一部分。
构造自动编码器结构,采用10层深度的卷积网络结构,即Decoder与Encoder分别5层的神经网络,Encoder激活函数为ReLU函数,Decoder激活函数为LeakyReLU函数。选用ADAM优化器和MSELoss损失函数,对自编码器进行训练。
构造随机模型,采用多个5层深度的卷积网络结构随机组合,激活函数为ReLU函数。选用SGD优化器和CrossEntropyLoss损失函数,对随机模型进行训练。
从Xtrain中随机采样出一批图像和对应标签组成的样本对,取训练完成的Decoder部分作为映射器M,将采样出的样本对输入M,得到一批向量v,该过程为图1的第2部分。
将v输入生成器G获得生成结果xad
分别计算:
Lossx=||xad-x||2,Lossadv=L(xad,l),LossGAN=Ex~p(x)[D(x)]-Ev~p(x)[D(xad)]。
最小化LossGAN+αLossx+βLossadv,更新生成器G和判别器D的参数。
训练过程使用的其他参数为:
EPOCHES=100,
BATCH_SIZE=128,LEARNING_RATE=1e-2,
WEIGHT_DECAY=1e-5。
重复以上步骤直至生成器G收敛。
上述步骤完成后,生成器G就可以按照图2所示的方式批量的生成对抗样本,为需要进行对抗训练的模型提供数据基础。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。

Claims (6)

1.一种基于生成模型的对抗样本生成方法,其特征在于,包括以下步骤:
步骤1、获取需要进行对抗训练的模型在训练阶段使用的数据集,并进行预处理,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分;
步骤2、使用训练集Xtrain训练所需的对抗样本生成模型,批量生成对抗样本;
所述步骤2包括:
步骤2.1、使用训练集Xtrain训练所需的对抗样本生成模型;
步骤2.2、使用测试集Xtest作为训练完成的对抗样本生成模型的输入,生成对抗样本,将生成的对抗样本作为目标模型的输入,测试生成器G的效果;
步骤2.3、使用经过测试的生成器G在整个经过预处理的数据集上生成对抗样本,这些样本即可参与目标模型的对抗训练;
所述生成模型的训练方法包括以下步骤:
S1、获取需要进行对抗训练的模型在训练阶段使用的数据集,并进行预处理,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分;
S2、构造深度自编码器结构,使用Xtrain对该结构进行训练,取训练完成的解码器部分作为映射器M;
S3、构建随机模型f并对其进行预训练;
S4、构建生成器G、判别器D,使用步骤S2和步骤S3所得的映射器M和随机模型f构成对抗样本生成模型,并对其进行预训练;
所述步骤S3包括:
S301、根据获取到的数据集的复杂程度,构建随机模型f,随机模型是可以产生随机变化的模型,由两个或两个以上的卷积层和全连接层随机组合而成,前向传播过程中,随机的对卷积层和全连接层进行组合,从而使得输出结果保持改变;
S302、使用训练集Xtrain输入随机模型f进行训练,使用测试集Xtest测试随机模型精度,保证精度高于85%,否则重复该步骤;
所述步骤S4包括:
步骤4.1、根据获取到的数据集的复杂程度,参考WGAN的架构,设计生成器G和判别器D,G和D的输出层不使用激活函数;
步骤4.2、用步骤S2和步骤S3所得的映射器M、随机模型f和步骤4.1构建的生成器G、判别器D组成对抗样本生成模型,使用训练集Xtrain对G和D进行预训练,训练步骤如下:
从Xtrain中随机采样一批(x,l);
将x输入映射器M,得到向量v;
将v输入生成器G,获得生成结果xad,计算:
Lossx=||xad-x||2
Lossadv=L(xad,l);
将生成结果xad输入判别器D,获得输出D(xad),计算:
LossGAN=Ex~p(x)[D(x)]-Ev~p(x)[D(xad)];
最小化LossGAN+αLossx+βLossadv,更新生成器G和判别器D的参数,其中α和β为超参数,根据生成器的表现需要对其做出调整;
重复步骤4.1、步骤4.2直至对抗样本生成模型收敛。
2.根据权利要求1所述的基于生成模型的对抗样本生成方法,其特征在于,所述步骤1包括:
步骤1.1、将获得的数据集中的图像大小调整至需要进行对抗训练的模型在训练时使用的大小,将对应的标签转化为独热形式;
步骤1.2、用转化完成的图像数据和对应的标签组成数据集,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分。
3.根据权利要求1所述的基于生成模型的对抗样本生成方法,其特征在于,所述步骤S1具体为:将获得的数据集中的图像统一转化为3通道PNG格式,图像大小调整至需要进行对抗训练的模型在训练时使用的大小,用转化完成的图像数据和对应的标签组成数据集,将得到的数据集划分为训练集Xtrain和测试集Xtest两部分。
4.根据权利要求1所述的基于生成模型的对抗样本生成方法,其特征在于,所述步骤S2包括:
S201、根据获取到的数据集的复杂程度,构造深度自编码器结构;
S202、使用训练集Xtrain输入深度自编码器进行训练,获取自编码器的解码器部分作为构建对抗样本生成模型所需的映射器M。
5.根据权利要求4所述的基于生成模型的对抗样本生成方法,其特征在于,所述步骤S202中训练M时使用ADAM优化器,使用MSELoss作为损失函数。
6.根据权利要求1所述的基于生成模型的对抗样本生成方法,其特征在于,所述步骤S302中训练f时使用SGD优化器,使用CrossEntropyLoss作为损失函数。
CN202110621339.3A 2021-06-03 2021-06-03 一种基于生成模型的对抗样本生成方法 Active CN113361594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110621339.3A CN113361594B (zh) 2021-06-03 2021-06-03 一种基于生成模型的对抗样本生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110621339.3A CN113361594B (zh) 2021-06-03 2021-06-03 一种基于生成模型的对抗样本生成方法

Publications (2)

Publication Number Publication Date
CN113361594A CN113361594A (zh) 2021-09-07
CN113361594B true CN113361594B (zh) 2023-10-20

Family

ID=77531877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110621339.3A Active CN113361594B (zh) 2021-06-03 2021-06-03 一种基于生成模型的对抗样本生成方法

Country Status (1)

Country Link
CN (1) CN113361594B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977629A (zh) * 2017-12-04 2018-05-01 电子科技大学 一种基于特征分离对抗网络的人脸图像衰老合成方法
CN108961217A (zh) * 2018-06-08 2018-12-07 南京大学 一种基于正例训练的表面缺陷检测方法
CN110334806A (zh) * 2019-05-29 2019-10-15 广东技术师范大学 一种基于生成式对抗网络的对抗样本生成方法
CN110516747A (zh) * 2019-08-29 2019-11-29 电子科技大学 基于对抗生成网络和自编码结合的肺结节良恶性分类方法
WO2020024097A1 (zh) * 2018-07-30 2020-02-06 东莞理工学院 基于深度强化学习的自适应博弈算法
CN110868598A (zh) * 2019-10-17 2020-03-06 上海交通大学 基于对抗生成网络的视频内容替换方法及系统
CN111159454A (zh) * 2019-12-30 2020-05-15 浙江大学 基于Actor-Critic生成式对抗网络的图片描述生成方法及系统
CN111277569A (zh) * 2020-01-10 2020-06-12 北京融信易安信息技术有限公司 一种网络报文解码方法、装置及电子设备
CN111563554A (zh) * 2020-05-08 2020-08-21 河北工业大学 基于回归变分自编码器的零样本图像分类方法
CN112216273A (zh) * 2020-10-30 2021-01-12 东南数字经济发展研究院 一种针对语音关键词分类网络的对抗样本攻击方法
CN112215292A (zh) * 2020-10-19 2021-01-12 电子科技大学 一种基于迁移性的图像对抗样本生成装置及方法
CN112541343A (zh) * 2020-12-03 2021-03-23 昆明理工大学 基于词对齐的半监督对抗学习跨语言摘要生成方法
CN112598032A (zh) * 2020-12-11 2021-04-02 同济大学 面向红外图像对抗攻击的多任务防御模型构建方法
CN112673381A (zh) * 2020-11-17 2021-04-16 华为技术有限公司 一种对抗样本的识别方法及相关装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977629A (zh) * 2017-12-04 2018-05-01 电子科技大学 一种基于特征分离对抗网络的人脸图像衰老合成方法
CN108961217A (zh) * 2018-06-08 2018-12-07 南京大学 一种基于正例训练的表面缺陷检测方法
WO2020024097A1 (zh) * 2018-07-30 2020-02-06 东莞理工学院 基于深度强化学习的自适应博弈算法
CN110334806A (zh) * 2019-05-29 2019-10-15 广东技术师范大学 一种基于生成式对抗网络的对抗样本生成方法
CN110516747A (zh) * 2019-08-29 2019-11-29 电子科技大学 基于对抗生成网络和自编码结合的肺结节良恶性分类方法
CN110868598A (zh) * 2019-10-17 2020-03-06 上海交通大学 基于对抗生成网络的视频内容替换方法及系统
CN111159454A (zh) * 2019-12-30 2020-05-15 浙江大学 基于Actor-Critic生成式对抗网络的图片描述生成方法及系统
CN111277569A (zh) * 2020-01-10 2020-06-12 北京融信易安信息技术有限公司 一种网络报文解码方法、装置及电子设备
CN111563554A (zh) * 2020-05-08 2020-08-21 河北工业大学 基于回归变分自编码器的零样本图像分类方法
CN112215292A (zh) * 2020-10-19 2021-01-12 电子科技大学 一种基于迁移性的图像对抗样本生成装置及方法
CN112216273A (zh) * 2020-10-30 2021-01-12 东南数字经济发展研究院 一种针对语音关键词分类网络的对抗样本攻击方法
CN112673381A (zh) * 2020-11-17 2021-04-16 华为技术有限公司 一种对抗样本的识别方法及相关装置
CN112541343A (zh) * 2020-12-03 2021-03-23 昆明理工大学 基于词对齐的半监督对抗学习跨语言摘要生成方法
CN112598032A (zh) * 2020-12-11 2021-04-02 同济大学 面向红外图像对抗攻击的多任务防御模型构建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Generating Adversarial Examples with Image-To-Perturbation Network;Desheng Wang等;2020 39th Chinese Control Conference (CCC);7055-7060 *
基于对抗性深度学习的图像处理算法研究;郭静;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210315;第2021年卷(第3期);参见第4.2节、图4.1 *
基于条件生成式对抗网络的数据增强方法;陈文兵;管正雄;陈允杰;;计算机应用(11);259-265 *
基于生成式对抗网络的窃电检测数据生成方法;王德文;杨凯华;;电网技术(02);415-422 *

Also Published As

Publication number Publication date
CN113361594A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN111753827B (zh) 基于语义强化编码器解码器框架的场景文字识别方法及系统
CN108921851B (zh) 一种基于3d对抗网络的医学ct图像分割方法
CN110622175B (zh) 神经网络分类
CN110163433B (zh) 一种船舶流量预测方法
CN108416755A (zh) 一种基于深度学习的图像去噪方法及系统
CN103020935B (zh) 一种自适应在线字典学习的图像超分辨率方法
CN109949215B (zh) 一种低剂量ct图像模拟方法
CN111476805A (zh) 一种基于多重约束的跨源无监督域适应分割模型
CN107945210B (zh) 基于深度学习和环境自适应的目标跟踪方法
CN108829756B (zh) 一种利用分层注意力上下文网络解决多轮视频问答的方法
CN111242233B (zh) 一种基于融合网络的阿尔兹海默病分类方法
CN109214989A (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
CN111833300A (zh) 一种基于生成对抗学习的复合材料构件缺陷检测方法和装置
WO2020215597A1 (zh) 磁共振成像方法、装置、系统及存储介质
CN110462638A (zh) 使用后验锐化训练神经网络
CN112164008A (zh) 图像数据增强网络的训练方法及其训练装置、介质和设备
CN107977949A (zh) 一种基于投影字典对学习的医学图像融合质量改善的方法
CN111914555A (zh) 基于Transformer结构的自动化关系抽取系统
CN113140023A (zh) 一种基于空间注意力的文本到图像生成方法及系统
CN116091288A (zh) 一种基于扩散模型的图像隐写方法
CN109710787B (zh) 基于深度学习的图像描述方法
CN113361594B (zh) 一种基于生成模型的对抗样本生成方法
CN112199637B (zh) 基于回归注意力生成对抗网络数据增强的回归建模方法
CN117576534A (zh) 一种两阶段图像描述生成方法、系统、装置及存储介质
CN111063000B (zh) 基于神经网络结构搜索的磁共振快速成像方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant