CN110533606B - 基于生成式对抗网络的安检x光违禁品图像数据增强方法 - Google Patents
基于生成式对抗网络的安检x光违禁品图像数据增强方法 Download PDFInfo
- Publication number
- CN110533606B CN110533606B CN201910694248.5A CN201910694248A CN110533606B CN 110533606 B CN110533606 B CN 110533606B CN 201910694248 A CN201910694248 A CN 201910694248A CN 110533606 B CN110533606 B CN 110533606B
- Authority
- CN
- China
- Prior art keywords
- ray
- security inspection
- ray contraband
- security
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000009827 uniform distribution Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000013256 Gubra-Amylin NASH model Methods 0.000 abstract description 2
- 230000036544 posture Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000012360 testing method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011344 liquid material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于生成式对抗网络的安检X光违禁品图像数据增强方法,其包括对利用X光安检机采集的真实的安检X光违禁品图像进行数据增强,并构成安检X光违禁品图像数据集;对生成式对抗网络模型进行改进而构建成改进生成式对抗网络模型,并对改进生成式对抗网络模型的超参数进行调整;将安检X光违禁品图像数据集输入到改进GAN模型中进行训练,最终获得生成的安检X光违禁品图像等步骤。本发明能够在少量图像样本的基础上,生成大量视觉效果逼真的、具有多种姿态的大分辨率的新图像,可以有效扩充安检X光违禁品图像数据集。
Description
技术领域
本发明属于数据增强技术领域,具体涉及一种基于生成式对抗网络的安检X光违禁品图像数据增强方法。
背景技术
目前,行李安检已广泛应用于维护公共交通安全领域。在各种公共交通的入口处均设有X光安检机,比如地铁口、火车站进站口以及航站楼等。尤其是民航运输,稍有不慎,后果不堪设想。目前安检的主要手段是通过X光安检机获得乘客携带物品的X光图像,然后由安检人员人工分析判断出物品中是否隐藏有违禁品。但由于每天安检处理的物品数量众多,并且需要安检人员在很短的时间内判断出是否有违禁品,因此安检人员的工作强度较大。另外,人工检测存在较强的主观性,在安检人员疲劳时容易造成漏判、错判。
近年来,卷积神经网络等深度学习算法在图像分类和目标检测任务中获得了前所未有的成功。人们提出了智能安检的想法即利用机器自动识别违禁品,辅助人工检测。基于深度学习的违禁品检测需要大量的安检数据集,但是已经存在的安检数据集很难满足深度学习算法的训练需求。因此,一个合理的解决方案是使用数据增强的方法自动生成新的训练样本。
传统的图像数据增强方法包括对图像的翻转、旋转、放缩和裁剪等。但是通过这些方法获得的额外信息有限。近年来,生成式对抗网络(GAN)在图像生成方面已经取得了巨大的成功。SAGAN和BigGAN的提出,大大提高了生成图像的质量和多样性。越来越逼真的生成图像证明了它们在数据增强方面的可行性,尤其是医学影像图像的数据增强。我们同样可以利用GAN对安检X光违禁品图像进行数据增强。相较于传统方法,使用生成式对抗网络生成新的安检X光违禁品图像可以更加有效地扩充数据集,从而有助于提升自动检测违禁品的效果。然而,由于违禁品数据集较小,目前存在的GAN模型不能很好地生成违禁品图像。
发明内容
为了解决上述问题,本发明的目的在于提出一种基于生成式对抗网络的安检X光违禁品图像数据增强方法。
为了达到上述目的,本发明提供的基于生成式对抗网络的安检X光违禁品图像数据增强方法包括按顺序进行的下列步骤:
1)对利用X光安检机采集的真实的安检X光违禁品图像进行数据增强,并构成安检X光违禁品图像数据集;
2)对生成式对抗网络模型进行改进而构建成改进生成式对抗网络模型,并对改进生成式对抗网络模型的超参数进行调整;
3)将步骤1)获得的安检X光违禁品图像数据集输入到步骤2)获得的改进生成式对抗网络模型中进行训练,最终获得生成的安检X光违禁品图像,用于扩充安检X光违禁品图像数据集。
在步骤1)中,所述的对利用X光安检机采集的真实的安检X光违禁品图像进行数据增强,并构成安检X光违禁品图像数据集的方法是:对真实的安检X光违禁品图像进行旋转、翻转而得到增强的安检X光违禁品图像;由所有真实的安检X光违禁品和增强的安检X光违禁品图像构成安检X光违禁品图像数据集。
在步骤2)中,所述的对生成式对抗网络模型进行改进而构建成改进生成式对抗网络模型,并对改进生成式对抗网络模型的超参数进行调整的方法是:
对生成器与判别器的网络结构进行改进并且选择了一个合适的损失函数,选用反卷积神经网络和卷积神经网络分别作为改进生成式对抗网络模型的生成器和判别器,生成器包括1个全连接层、五个3×3卷积核大小的反卷积层、一个自注意力机制和两个5×5卷积核大小的反卷积层;每个反卷积层中都有批量归一化;除了最后一反卷积层输出的损失函数为tanh,其余反卷积层输出的损失函数为lrelu;判别器包括两个5×5卷积核大小的卷积层、一个自注意力模块、四个3×3卷积核大小的卷积层和一个全连接层;这些卷积层都不包含批量归一化,每层的激活函数都为lrelu;
生成器和判别器的对抗训练是通过最小化损失函数实现的,选择WGAN-GP模型的损失函数,损失函数如式(1)所示:
完成改进生成式对抗网络模型的构建之后,需要进一步对该模型的超参数进行调整,超参数设置如下:批处理大小为36,生成器学习率为0.0001,判别器学习率为0.0004,迭代次数为10000,判别器更新1次生成器更新2次,模型使用Adam优化器;改进生成式对抗网络模型的噪声输入的噪声向量服从标准均匀分布。
本发明提供的基于生成式对抗网络的安检X光违禁品图像数据增强方法能够在少量图像样本的基础上,生成大量视觉效果逼真的、具有多种姿态的大分辨率的新图像,可以有效扩充安检X光违禁品图像数据集。
附图说明
图1为本发明提供的基于生成式对抗网络的安检X光违禁品图像数据增强方法流程图。
图2为12类真实的安检X光违禁品图像示意图。
图3为手枪安检X光图像增强结果示意图。
图4为改进生成式对抗网络模型结构示意图。
图5为生成的多姿态手枪X光图像示意图。
图6为生成的多类安检X光违禁品图像示意图。
图7为评价结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明提供的基于生成式对抗网络的安检X光违禁品图像数据增强方法进行详细说明。
如图1所示,本发明提供的基于生成式对抗网络的安检X光违禁品图像数据增强方法包括按顺序进行的下列步骤:
1)对利用X光安检机采集的真实的安检X光违禁品图像进行数据增强,并构成安检X光违禁品图像数据集;
如图2所示,本发明中利用X光安检机采集的真实的安检X光违禁品图像一共有12类,分别是手枪、水果刀、刀片、螺丝刀、剪刀、液体材质、钳子、打火机、扳手、移动电源、锤子和叉子。每类真实的安检X光违禁品图像共100-400张,该图像的分辨率为256*256。
由于真实的安检X光违禁品图像数量有限,而且每类真实的安检X光违禁品图像的多样性不够丰富,因此在对下述的改进生成式对抗网络模型训练之前需对真实的安检X光违禁品图像进行数据增强。具体的方法是对真实的安检X光违禁品图像进行旋转、翻转而得到增强的安检X光违禁品图像。以手枪为例,如图3所示,其中图3(a)为真实的手枪安检X光图像,将该图像分别沿顺时针旋转90°、180°和270°而得到图3(b)、图3(c)和图3(d)所示的图像。然后将图3(a)所示的真实的手枪安检X光图像经过垂直翻转而得到图3(e)所示的图像,将图3(e)所示的图像沿顺时针旋转90°、180°和270°而得到图3(f)、图3(g)和图3(h)所示的图像。采用这种方法对其它类的真实的安检X光违禁品图像也进行了数据增强。由所有真实的安检X光违禁品和增强的安检X光违禁品图像构成安检X光违禁品图像数据集。
2)对生成式对抗网络模型进行改进而构建成改进生成式对抗网络模型,并对改进生成式对抗网络模型的超参数进行调整;
生成式对抗网络(Generative AdversarialNetwork,GAN)模型是一种特殊的生成模型。一个典型的生成式对抗网络模型由两部分组成:判别器(Discriminator,D)和生成器(Generator,G)。其中判别器用来学习辨别真假样本。生成器用来捕获真实样本的潜在分布,并生成和真实样本难以区分的伪样本。判别器和生成器都是由神经网络构成。二者经过对抗学习和优化使得生成器生成的伪样本越来越逼真。
由于安检X光违禁品图像数据集中安检X光违禁品图像的数量有限以及安检X光违禁品图像具有全局特征的原因,已存在的生成式对抗网络模型不能很好地生成安检X光违禁品图像,因此需要对生成式对抗网络模型进行改进。主要是对生成器与判别器的网络结构进行改进并且选择了一个合适的损失函数。图4所示为改进生成式对抗网络模型结构示意图。
本发明选用反卷积神经网络和卷积神经网络分别作为改进生成式对抗网络模型的生成器和判别器,这样改进生成式对抗网络模型能够在小样本数据集的情况下稳定进行训练。为了让改进生成式对抗网络模型能够对安检X光违禁品图像的全局信息更好地建模,本发明对生成器和判别器的网络结构进行了调整。生成器包括1个全连接层、五个3×3卷积核大小的反卷积层、一个自注意力机制和两个5×5卷积核大小的反卷积层。每个反卷积层中都有批量归一化。除了最后一反卷积层输出的损失函数为tanh,其余反卷积层输出的损失函数为lrelu。判别器包括两个5×5卷积核大小的卷积层、一个自注意力模块、四个3×3卷积核大小的卷积层和一个全连接层。这些卷积层都不包含批量归一化,每层的激活函数都为lrelu。
生成器和判别器的对抗训练是通过最小化损失函数实现的,损失函数的选择对生成式对抗网络整体性能有着重要影响。本发明选择WGAN-GP模型的损失函数。不同于WGAN-GP模型本来的双边惩罚,发现该模型的单边惩罚更加适合安检X光违禁品图像的生成。损失函数如式(1)所示:
其中G和D分别为改进生成式对抗网络模型的生成器和判别器;Z为一个均匀分布的随机噪声;λ为惩罚系数,选择合适的惩罚系数λ能够优化生成的安检X光违禁品图像的质量;∈符合[0,1]均匀分布;为梯度惩罚的目标。
梯度惩罚是对改进生成式对抗网络模型的判别器强制执行Lipschitz约束。梯度惩罚的目标是由生成的数据和真实的数据之间线性插值采样得到的。如果模型训练的图像是同一类,插值会更加的合理,生成的图像也会更加真实。
完成改进生成式对抗网络模型的构建之后,需要进一步对该模型的超参数进行调整,使改进生成式对抗网络模型在安检X光违禁品图像数据集上学习效果达到最佳。超参数设置如下:批处理大小为36,生成器学习率为0.0001,判别器学习率为0.0004,迭代次数为10000,判别器更新1次生成器更新2次,模型使用Adam优化器;改进生成式对抗网络模型的噪声输入的噪声向量服从标准均匀分布。
3)将步骤1)获得的安检X光违禁品图像数据集输入到步骤2)获得的改进生成式对抗网络模型中进行训练,最终获得生成的安检X光违禁品图像,用于扩充安检X光违禁品图像数据集;
本发明中的改进生成式对抗网络模型训练是在Ubuntu16.04系统中进行,编程语言为Python3.6,深度学习框架为TensorFlow1.8。算法在GPU上运行,显卡型号为NVIDIA1080Ti11GB。以手枪为例,由改进生成式对抗网络模型生成的不同姿态的手枪X光图像如图5所示。我们可以观察到生成的手枪X光图像与真实的手枪X光图像质量相近。如图6所示,改进生成式对抗网络模型同样生成较为逼真的其它种类的X光违禁品图像,这也证明了改进生成式对抗网络模型具有较强的泛化性。
为了验证生成的安检X光违禁品图像是否能够用于扩充安检X光违禁品图像数据集,本发明引用GAN-train和GAN-test测度对生成的安检X光违禁品图像进行评价;通过这两个测度,不仅可以评估生成的安检X光违禁品图像是否可以用于扩充安检X光违禁品图像数据集,还可以用来评价生成的安检X光违禁品图像的多样性以及真实性。图7所示为这两个测度的结构说明。GAN-test是用安检X光违禁品图像数据集中的安检X光违禁品图像训练分类器然后再由生成的安检X光违禁品图像测试得到的准确率。GAN-train是由生成的安检X光违禁品图像训练分类器然后再由安检X光违禁品图像数据集中的安检X光违禁品图像测试得到的准确率。GAN-test准确率反应了生成的安检X光违禁品图像的真实性,GAN-train准确率反应了生成的安检X光违禁品图像的真实性和多样性。当GAN-train准确率比GAN-test准确率高时,表示生成的安检X光违禁品图像所包含的特征信息要比安检X光违禁品图像数据集中安检X光违禁品图像的特征信息多。
本发明通过GAN-train和GAN-test对生成的安检X光违禁品图像进行评价。安检X光违禁品图像数据集中的安检X光违禁品图像包括12类违禁品一共5541张。改进生成式对抗网络模型生成的12类违禁品一共147434张图像。为了更好地对X光违禁品图像的特征进行学习和分类,实验中的分类器选择目前分类效果较好的Inception v3网络。在训练分类器时,本发明人将上述所有图像的80%作为训练集,其余的图像作为验证集。分类器的结果如表1所示。
表1
其中验证准确率是指分类器在训练过程中由验证集测试得到的准确率,测试准确率是指分类器被训练完成后由训练集测试得到的准确率。高达99.91%的GAN-train测试准确率说明生成的安检X光违禁品图像的真实性与多样性与安检X光违禁品图像数据集中的安检X光违禁品图像相近。GAN-test测试准确率比验证准确率低,说明改进生成式对抗网络模型没有过拟合,且高达98.82%的测试准确率表明生成的安检X光违禁品图像的真实性与安检X光违禁品图像数据集中的安检X光违禁品图像非常接近。
12类违禁品的详细分类准确率如表2所示。从表2的GAN-train测试准确率中可以看到,除了剪刀和扳手分类准确率分别为98.87%和99.59%外,其余种类的违禁品的分类准确率都达到了100%,这表明分类器能够学习生成的安检X光违禁品图像的特征分布并正确地识别安检X光违禁品图像数据集中的安检X光违禁品图像,这意味着生成的安检X光违禁品图像包含了安检X光违禁品图像数据集中的安检X光违禁品图像的所有特征分布。相比于GAN-train测试准确率,GAN-test测试准确率有所下降。学习了安检X光违禁品图像数据集中的安检X光违禁品图像特征信息的分类器不能够完全地识别生成的安检X光违禁品图像的特征信息,这意味着生成的安检X光违禁品图像包含的特征信息比安检X光违禁品图像数据集中的安检X光违禁品图像的特征信息多。所以这证明了生成的X光违禁品图像可以对安检X光违禁品图像数据集起到数据增强作用。
表2
Claims (2)
1.一种基于生成式对抗网络的安检X光违禁品图像数据增强方法,其特征在于:所述的基于生成式对抗网络的安检X光违禁品图像数据增强方法包括按顺序进行的下列步骤:
1)对利用X光安检机采集的真实的安检X光违禁品图像进行数据增强,并构成安检X光违禁品图像数据集;
2)对生成式对抗网络模型进行改进而构建成改进生成式对抗网络模型,并对改进生成式对抗网络模型的超参数进行调整;
3)将步骤1)获得的安检X光违禁品图像数据集输入到步骤2)获得的改进生成式对抗网络模型中进行训练,最终获得生成的安检X光违禁品图像,用于扩充安检X光违禁品图像数据集;
在步骤2)中,所述的对生成式对抗网络模型进行改进而构建成改进生成式对抗网络模型,并对改进生成式对抗网络模型的超参数进行调整的方法是:
对生成器与判别器的网络结构进行改进并且选择了一个合适的损失函数,选用反卷积神经网络和卷积神经网络分别作为改进生成式对抗网络模型的生成器和判别器,生成器包括1个全连接层、五个3×3卷积核大小的反卷积层、一个自注意力机制和两个5×5卷积核大小的反卷积层;每个反卷积层中都有批量归一化;除了最后一反卷积层输出的损失函数为tanh,其余反卷积层输出的损失函数为lrelu;判别器包括两个5×5卷积核大小的卷积层、一个自注意力模块、四个3×3卷积核大小的卷积层和一个全连接层;这些卷积层都不包含批量归一化,每层的激活函数都为lrelu;
生成器和判别器的对抗训练是通过最小化损失函数实现的,选择WGAN-GP模型的损失函数,损失函数如式(1)所示:
完成改进生成式对抗网络模型的构建之后,需要进一步对该模型的超参数进行调整,超参数设置如下:批处理大小为36,生成器学习率为0.0001,判别器学习率为0.0004,迭代次数为10000,判别器更新1次生成器更新2次,模型使用Adam优化器;改进生成式对抗网络模型的噪声输入的噪声向量服从标准均匀分布。
2.根据权利要求1所述的基于生成式对抗网络的安检X光违禁品图像数据增强方法,其特征在于:在步骤1)中,所述的对利用X光安检机采集的真实的安检X光违禁品图像进行数据增强,并构成安检X光违禁品图像数据集的方法是:对真实的安检X光违禁品图像进行旋转、翻转而得到增强的安检X光违禁品图像;由所有真实的安检X光违禁品和增强的安检X光违禁品图像构成安检X光违禁品图像数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910694248.5A CN110533606B (zh) | 2019-07-30 | 2019-07-30 | 基于生成式对抗网络的安检x光违禁品图像数据增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910694248.5A CN110533606B (zh) | 2019-07-30 | 2019-07-30 | 基于生成式对抗网络的安检x光违禁品图像数据增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110533606A CN110533606A (zh) | 2019-12-03 |
CN110533606B true CN110533606B (zh) | 2023-01-17 |
Family
ID=68661105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910694248.5A Active CN110533606B (zh) | 2019-07-30 | 2019-07-30 | 基于生成式对抗网络的安检x光违禁品图像数据增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110533606B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047584A (zh) * | 2019-12-23 | 2020-04-21 | 福州大学 | 一种提高太阳能电池模块缺陷分类准确度的数据增强方法 |
CN111274429A (zh) * | 2020-01-14 | 2020-06-12 | 广东工业大学 | 一种基于gan的数据增强的无监督商标检索系统及方法 |
CN111310791A (zh) * | 2020-01-17 | 2020-06-19 | 电子科技大学 | 一种基于小样本数目集的动态渐进式自动目标识别方法 |
CN112001846A (zh) * | 2020-08-21 | 2020-11-27 | 深圳职业技术学院 | 具有较高分辨率的多目标x光安检图像合成方法 |
CN112001873A (zh) * | 2020-08-27 | 2020-11-27 | 中广核贝谷科技有限公司 | 一种基于集装箱x射线图像的数据生成方法 |
CN112233227A (zh) * | 2020-10-20 | 2021-01-15 | 北京航星机器制造有限公司 | 一种ct投影图生成方法和装置 |
CN112766344A (zh) * | 2021-01-12 | 2021-05-07 | 南京信息工程大学 | 一种基于YOLOv5优化器改进的违禁物品检测方法 |
CN113033656B (zh) * | 2021-03-24 | 2023-12-26 | 厦门航空有限公司 | 一种基于生成对抗网络的交互式孔探数据扩展方法 |
CN113642621A (zh) * | 2021-08-03 | 2021-11-12 | 南京邮电大学 | 基于生成对抗网络的零样本图像分类方法 |
CN114679232B (zh) * | 2022-04-06 | 2023-04-07 | 西南交通大学 | 一种基于数据驱动的光载无线传输链路建模方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584339A (zh) * | 2018-12-04 | 2019-04-05 | 中国民航大学 | 一种基于生成式对抗网络的安检违禁品x光图像生成方法 |
CN109784203A (zh) * | 2018-12-24 | 2019-05-21 | 中国科学院大学 | 基于分层传播和激活的弱监督x光图像违禁品检查方法 |
CN109934282A (zh) * | 2019-03-08 | 2019-06-25 | 哈尔滨工程大学 | 一种基于sagan样本扩充和辅助信息的sar目标分类方法 |
-
2019
- 2019-07-30 CN CN201910694248.5A patent/CN110533606B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584339A (zh) * | 2018-12-04 | 2019-04-05 | 中国民航大学 | 一种基于生成式对抗网络的安检违禁品x光图像生成方法 |
CN109784203A (zh) * | 2018-12-24 | 2019-05-21 | 中国科学院大学 | 基于分层传播和激活的弱监督x光图像违禁品检查方法 |
CN109934282A (zh) * | 2019-03-08 | 2019-06-25 | 哈尔滨工程大学 | 一种基于sagan样本扩充和辅助信息的sar目标分类方法 |
Non-Patent Citations (2)
Title |
---|
Data Augmentation for X-Ray Prohibited Item Images Using Generative Adversarial Networks;JINFENG YANG 等;《Pattern Recognition and Computer Vision》;20190318;第28894-28902页 * |
生成式对抗网络图像增强研究综述;马春光 等;《信息网络安全》;20190510;第10-21页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110533606A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110533606B (zh) | 基于生成式对抗网络的安检x光违禁品图像数据增强方法 | |
CN110097543B (zh) | 基于生成式对抗网络的热轧带钢表面缺陷检测方法 | |
CN108038445B (zh) | 一种基于多视角深度学习框架的sar自动目标识别方法 | |
CN104102929B (zh) | 基于深度学习的高光谱遥感数据分类方法 | |
CN104166859B (zh) | 基于ssae和fsals‑svm极化sar图像分类 | |
CN108537742A (zh) | 一种基于生成对抗网络的遥感图像全色锐化方法 | |
CN106650830A (zh) | 基于深层模型和浅层模型决策融合的肺结节ct图像自动分类方法 | |
CN112580782B (zh) | 基于通道增强的双注意力生成对抗网络及图像生成方法 | |
CN109190684A (zh) | 基于素描及结构生成对抗网络的sar图像样本生成方法 | |
CN110097145A (zh) | 一种基于cnn和特征金字塔的交通违禁品识别方法 | |
CN109102014A (zh) | 基于深度卷积神经网络的类别不平衡的图像分类方法 | |
CN108614992A (zh) | 一种高光谱遥感图像的分类方法、设备及存储设备 | |
CN108108751A (zh) | 一种基于卷积多特征和深度随机森林的场景识别方法 | |
CN110245711A (zh) | 基于角度旋转生成网络的sar目标识别方法 | |
CN111860171A (zh) | 一种大规模遥感图像中不规则形状目标的检测方法及系统 | |
CN109978071A (zh) | 基于数据增广和分类器融合的高光谱图像分类方法 | |
CN113762138B (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
CN104318246A (zh) | 基于深度自适应脊波网络的极化sar图像分类 | |
CN107316004A (zh) | 基于深度学习的空间目标识别方法 | |
CN112613350A (zh) | 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法 | |
CN110533582A (zh) | 一种基于生成式对抗网络的安检x光违禁品图像合成方法 | |
CN109948692A (zh) | 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法 | |
CN108665414A (zh) | 自然场景图片生成方法 | |
CN109948527A (zh) | 基于集成深度学习的小样本太赫兹图像异物检测方法 | |
CN113538347B (zh) | 基于高效双向路径聚合注意力网络的图像检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |