CN112257787A - 基于生成式双重条件对抗网络结构的图像半监督分类方法 - Google Patents

基于生成式双重条件对抗网络结构的图像半监督分类方法 Download PDF

Info

Publication number
CN112257787A
CN112257787A CN202011147833.2A CN202011147833A CN112257787A CN 112257787 A CN112257787 A CN 112257787A CN 202011147833 A CN202011147833 A CN 202011147833A CN 112257787 A CN112257787 A CN 112257787A
Authority
CN
China
Prior art keywords
data
discriminator
condition
image
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011147833.2A
Other languages
English (en)
Other versions
CN112257787B (zh
Inventor
宫秀军
吴泽宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202011147833.2A priority Critical patent/CN112257787B/zh
Publication of CN112257787A publication Critical patent/CN112257787A/zh
Application granted granted Critical
Publication of CN112257787B publication Critical patent/CN112257787B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及智能图像处理,为提出一种生成式双重条件对抗网络结新型结构用于图像半监督分类的新技术,该技术能够减少模型对无标签数据信息的损耗,提高无标签数据信息的二次利用进而提升了判别器的精度。本发明,基于生成式双重条件对抗网络结构的图像半监督分类方法,步骤一,初始化模型的相关变量和网络参数;步骤二,加载图像数据;步骤三,生成随机噪声以及生成条件即标签;步骤四,得到生成给定条件即标签c下的图像数据;步骤五,训练并且优化生成器;步骤六,输入真实数据和生成的数据,生成器与判别器的对抗;步骤七,给出对于有标签数据和条件生成的数据,判别器所要实现的分类(条件)损失函数;步骤八,输入无标签数据xu,单独利用无标签数据对判别器进行二次对抗训练。本发明主要应用于智能图像处理场合。

Description

基于生成式双重条件对抗网络结构的图像半监督分类方法
技术领域
本发明涉及智能图像处理,具体涉及基于生成式双重条件对抗网络结构的图像半监督学习方法。
背景技术
生成式对抗网络(GAN,Generative Adversarial Networks)是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。
近些年来,不同的研究学者已经提出了很多利用GAN的对抗机制所学习出数据分布的优势来进行图像的半监督分类学习。目前主流基于GAN的半监督图像分类问题都是通过判别模型D和生成模型G对不同状态数据(有标签数据,无标签数据,生成数据)的三种信息提取方式从而实现对于图像的信息提取来实现图像的分类问题。但是在主流基于GAN的半监督图像分类问题中分类器是由常规GAN中的判别器D改进而成的,而生成模型和常规的GAN中的生成模型原理一致;于是在主流基于GAN的半监督图像分类问题里面生成模型G中生成了大量数据,而这些数据并没有被判别器得到二次利用;并且主流基于GAN的半监督图像分类中对于无标签数据的利用并不够充分。
综上,我们对于上述主流基于GAN的半监督图像分类问题存在的两个问题提出了新的模型结构;本模型能够让生成模型所生成的数据二次利用,以此强化辅助了信息输入量,从而增强判别器D的泛化性;并且还利用了判别器的二次对抗实现了对于无标签数据信息的再次利用,从而达到数据信息利用率的最大化。
发明内容
为克服现有技术的不足,本发明旨在提出一种生成式双重条件对抗网络结新型结构用于图像半监督分类的新技术,该技术采用对抗生成思想以及条件生成模型思想,通过双重对抗网络结构来替代传统单一对抗网络结构中的信息提取,从而减少模型对无标签数据信息的损耗,提高无标签数据信息的二次利用进而提升了判别器的精度。
本发明的目的是通过以下技术方案实现的:
一种基于生成式双重条件对抗网络结构的图像半监督分类方法,包括以下步骤:
步骤一,初始化模型的相关变量和网络参数;
步骤二,加载图像数据,包括图像的初始化,以及图像数据种类的分割,分别切分为训练集和验证集以及测试集,其中xreal表示真实数据,xfake表示生成器G生成数据;
步骤三,生成随机噪声noise,以及生成条件即标签c;
步骤四,将随机噪声noise以及条件c输入到生成器G中,得到生成给定条件即标签c下的图像数据xfake=G(noise,c);
步骤五,训练并且优化生成器G,对于生成器G的损失函数为LG
Figure BDA0002740224930000021
Figure BDA0002740224930000022
Figure BDA0002740224930000023
其中,
Figure BDA0002740224930000024
Figure BDA0002740224930000025
分别表示判别器D对与真实数据xreal和生成数据xfake所提取出来的数据特征,Lfeature表示生成图像xfake和真实图像xreal之间重要图像特征的差异的损失函数,Lfeature越小说明生成器G所学习的分布越接近真实数据的分布;
Figure BDA0002740224930000026
是生成器条件生成图像的约束条件的损失函数,这个约束条件可以使得生成器生成某种条件下的图像数据;
步骤六,输入真实数据和生成的数据,生成器与判别器的对抗,实现无监督学习对于无标签数据信息的第一次提取,该过程所要实现的真假判断目标函数Ls如下:
Figure BDA0002740224930000027
其中,
Figure BDA0002740224930000028
是判别器D对真实图片xreal预测为真图片,即:s=real时的对数概率的均值,判别器D需要尽量的增大这个值才能够正确的判断出来这是真实图像;
Figure BDA0002740224930000029
表示判别器D对于生成图像xfake预测为假图片,即:s=fake时的对数概率的均值,判别器要尽量的增大这个值才能够正确的判断出来这是生成图像;结合生成器的损失函数,生成器和判别器实现第一次对抗;
步骤七,对于有标签数据和条件生成的数据,判别器所要实现的分类(条件)损失函数Lc如下:
Figure BDA00027402249300000210
其中,
Figure BDA00027402249300000211
Figure BDA00027402249300000212
分别表示判别器D把真实数据的标签预测值预测为真实标签的对数概率均值,以及把生成数据的条件预测值预测为真实给定的条件值的对数概率均值,其中C表示标签或条件分布、c是具体的标签或条件,判别器需要尽量增大这两个均值,才能够正确的预测出其所对应的标签或着对应条件;
步骤八,输入无标签数据xu,单独利用无标签数据对判别器进行二次对抗训练,即:对于任意一个无标签数据样本xu的某个领域中,找到一个最大的扰动向量rqadv,该扰动向量的目的是使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最大化;同时判别器要能够尽量的识别出经过扰动向量干扰的新样本,使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最小化,这样就形成了对判别器的二次对抗;这次对抗训练的目标函数
Figure BDA00027402249300000213
如下:
Figure BDA00027402249300000214
Figure BDA0002740224930000031
其中
Figure BDA0002740224930000032
为KL散度,用于衡量两种预测结果分布的差距,θ表示模型参数是个变量利用梯度下降来进行优化,
Figure BDA0002740224930000033
表示θ的在莫一时刻的某一固定取值是个常量,r为扰动向量即噪声,||r||2≤ε表示扰动向量r的一个半径小于ε的领域,
Figure BDA0002740224930000034
表示判别器D在模型参数为
Figure BDA0002740224930000035
时对无标签数据的预测分布,q(y|xu+r,θ)表示判别器D在对添加扰动向量的无标签数据的预测分布,其中rqadv称为最大扰动向量,该扰动向量的目标是使得判别器对无标签数据xu预测分布
Figure BDA0002740224930000036
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最大化,q(y|xu+rqadv,θ)表示判别器D在对添加最大扰动向量的无标签数据的预测分布;判别器的目标则与之相反,它要使得判别器对无标签数据xu预测分布
Figure BDA0002740224930000037
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最小化;从而实现第二次对抗;其中具体计算rqadv的方法为:假设模型在参数为
Figure BDA0002740224930000038
时对无标签数据xu的预测分布为
Figure BDA0002740224930000039
然后在无标签样本上加入高斯分布的噪声得到新样本
Figure BDA00027402249300000310
输入模型得到预测分布为
Figure BDA00027402249300000311
然后通过以下公式计算:
Figure BDA00027402249300000312
Figure BDA00027402249300000313
得到扰动值,其中
Figure BDA00027402249300000314
为一个超参数。
步骤九,训练并且优化判别器D,对于判别器D的最终损失函数为
Figure BDA00027402249300000315
其中Ls为真假判断损失函数如式(2),Lc为分类(条件)损失函数如式(3),
Figure BDA00027402249300000316
为二次对抗网络的损失函数如式(4)
本发明的特点及有益效果是:
本发明在常规半监督GAN对抗的基础上对判别器的损失函数进行了改进,当无标签数据进入判别器时能够通过增加的这项损失函数达到对判别器的二次对抗效果从而提升无标签数据的利用率,因此我们在判别器上增加了新的一个关于无标签数据的对抗系统实现该模型的双重对抗网络结构并且采用了条件生成的方式来对生成数据进行约束,通过双重网络对抗系统来替代传统单一对抗网络结构,从而避免了对无标签数据信息提取的不充分,提高了判别器对于图像分类的泛化性;运行条件生成的方式来进行数据重构,以此避免了常规半监督GAN中对于生成数据的浪费,进而提高了判别器对于图像分类的精确度。
附图说明:
图1判别器的流程图
图2.cifar10数据生成的图像
图3.cifar10数据集训练过程中有标签数据的损失变化图。
图4.cifar10数据集训练过程中无标签数据的损失变化图。
具体实施方式
本发明涉及了图像处理和深度学习领域,主要通过使用深度学习模型完成对于少量标签图像以及大量无标签图像的半监督分类问题,是半监督图像分类研究的一个重要方向。该深度学习模型在训练的过程中使用不同规模的图像数据集,训练完成后对图像能否与原始标签一一对应进行预测。
为克服主流基于GAN的半监督图像分类模型的不足,本发明旨在提出一种生成式双重条件对抗网络结新型结构用于图像半监督分类的新技术,该技术采用对抗生成思想以及条件生成模型思想,通过双重对抗网络结构来替代传统单一对抗网络结构中的信息提取,从而减少模型对无标签数据信息的损耗,提高无标签数据信息的二次利用进而提升了判别器的精度。为此,本发明采取的技术方案是,利用模型间的对抗和条件生成图像的思想实现了图像分类方法,在给定少量有标签图像以及大量无标签图像中,利用生成器和判别器组成的第一个对抗系统,生成器希望生成的数据能够欺骗判别器,判别器则是需要分清真实数据和生成数据,利用这样的一种对抗关系用来训练判别器和生成器并且学习整体数据的分部;其中,在第一个对抗系统中的生成模型G我们利用了条件生成模型,使得生成器G能够生成指定标签下的图像数据,从而增强了训练数据量并且能够二次利用生成图像。其次为了增强模型对无标签数据的信息提取,我们基于半监督的自治正则化方法在无标签数据上对判别器引入第二个对抗系统,利用第二个自对抗系统充分提取无标签数据信息从而增强判别器D的泛化能力,具体思想是对于每个无标签数据我们先对其进行扰动向量添加(噪声添加),添加扰动向量后的数据希望判别器不能识别出原无标签数据和添加扰动向量后的无标签数据,对于判别器来说需要正确识别出原无标签数据和添加扰动向量后的无标签数据(注:第一个对抗系统是生成器和判别器的对抗,有别于第一个对抗系统第二个对抗系统是只针对无标签数据的,并且对抗只发生在在判别器上的,并不需要像第一个对抗系统需要额外的模型(生成器)与其发生对抗);
具体步骤如下:
步骤一,初始化模型的相关变量和网络参数;
步骤二,加载图像数据,包括图像的初始化,以及图像数据种类的分割,分别切分为训练集和验证集以及测试集,其中xreal表示真实数据,xfake表示生成器G生成数据;
步骤三,生成随机噪声noise,以及生成条件(标签)c;
步骤四,将随机噪声noise以及条件c输入到生成器G中,得到生成给定条件(标签)c下的图像数据xfake=G(noise,c);
步骤五,训练并且优化生成器G,对于生成器G的损失函数为LG
Figure BDA0002740224930000051
Figure BDA0002740224930000052
Figure BDA0002740224930000053
其中,
Figure BDA0002740224930000054
Figure BDA0002740224930000055
分别表示判别器D对与真实数据xreal和生成数据xfake所提取出来的数据特征,Lfeature表示生成图像xfake和真实图像xreal之间重要图像特征的差异的损失函数,Lfeature越小说明生成器G所学习的分布越接近真实数据的分布;
Figure BDA0002740224930000056
是生成器条件生成图像的约束条件的损失函数,这个约束条件可以使得生成器生成某种条件下的图像数据;
步骤六,输入真实数据和生成的数据,生成器与判别器的对抗,实现无监督学习对于无标签数据信息的第一次提取,该过程所要实现的真假判断目标函数Ls如下:
Figure BDA0002740224930000057
其中,
Figure BDA0002740224930000058
是判别器D对真实图片xreal预测为真图片(即:s=real)的对数概率的均值,判别器D需要尽量的增大这个值才能够正确的判断出来这是真实图像;
Figure BDA0002740224930000059
表示判别器D对于生成图像xfake预测为假图片(即:s=fake)的对数概率的均值,判别器要尽量的增大这个值才能够正确的判断出来这是生成图像;结合生成器的损失函数,生成器和判别器实现第一次对抗;
步骤七,对于有标签数据和条件生成的数据,判别器所要实现的分类(条件)损失函数Lc如下:
Figure BDA00027402249300000510
其中,
Figure BDA00027402249300000511
Figure BDA00027402249300000512
分别表示判别器D把真实数据的标签预测值预测为真实标签的对数概率均值,以及把生成数据的条件预测值预测为真实给定的条件值的对数概率均值,其中C表示标签或条件分布、c是具体的标签或条件,判别器需要尽量增大这两个均值,才能够正确的预测出其所对应的标签或着对应条件;
步骤八,输入无标签数据xu,单独利用无标签数据对判别器进行二次对抗训练,即:对于任意一个无标签数据样本xu的某个领域中,找到一个最大的扰动向量rqadv,该扰动向量的目的是使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最大化;同时判别器要能够尽量的识别出经过扰动向量干扰的新样本,使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最小化,这样就形成了对判别器的二次对抗;这次对抗训练的目标函数
Figure BDA00027402249300000513
如下:
Figure BDA00027402249300000514
Figure BDA0002740224930000061
其中
Figure BDA0002740224930000062
为KL散度,用于衡量两种预测结果分布的差距,θ表示模型参数是个变量利用梯度下降来进行优化,
Figure BDA0002740224930000063
表示θ的在莫一时刻的某一固定取值是个常量,r为扰动向量(噪声),||r||2≤ε表示扰动向量r的一个半径小于ε的领域,
Figure BDA0002740224930000064
表示判别器D在模型参数为
Figure BDA0002740224930000065
时对无标签数据的预测分布,q(y|xu+r,θ)表示判别器D在对添加扰动向量的无标签数据的预测分布。其中rqadv称为最大扰动向量,该扰动向量的目标是使得判别器对无标签数据xu预测分布
Figure BDA0002740224930000066
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最大化,q(y|xu+rqadv,θ)表示判别器D在对添加最大扰动向量的无标签数据的预测分布;判别器的目标则与之相反,它要使得判别器对无标签数据xu预测分布
Figure BDA0002740224930000067
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最小化;从而实现了该模型的第二次对抗。其中具体计算rqadv的方法为:假设模型在参数为
Figure BDA0002740224930000068
时对无标签数据xu的预测分布为
Figure BDA0002740224930000069
然后在无标签样本上加入高斯分布的噪声得到新样本
Figure BDA00027402249300000610
输入模型得到预测分布为
Figure BDA00027402249300000611
然后通过以下公式计算:
Figure BDA00027402249300000612
Figure BDA00027402249300000613
得到扰动值,其中
Figure BDA00027402249300000614
为一个超参数。
步骤九,训练并且优化判别器D,对于判别器D的最终损失函数为
Figure BDA00027402249300000615
其中Ls为真假判断损失函数如式(2),Lc为分类(条件)损失函数如式(3),
Figure BDA00027402249300000616
为二次对抗网络的损失函数如式(4)
本发明的技术过程主要包含以下内容:
1)数据来源
本实验中使用到的数据集为MNIST和SVHN以及CIFAR-10;以CIFAR数据集为例,该数据集共有60000张彩色图像,图像均为大小为32*32*3的彩色图像,分为10个类,每类6000张图。这里面有45000当作训练集,5000用于做验证集;另外10000用于做测试集。其中训练集的45000张进一步划分:对于不同类别图像各取400张10个类别共计4000张图像作为有标签数据,其余图像数据当作无标签数据进行训练。
表1:数据集的大小
Data set Train data Valid data Test data Total
MNIST 40176 5000 10000 55176
SVHN 68257 5000 26032 99289
CIFAR-10 45000 5000 10000 60000
2)深度学习模型结构
我们的发明中使用到的深度学习模型主要是针对对抗系统中的生成器网络G和判别器网
络D进行结构设计,使用到的深度学习模型主要有以下组件组成:激活函数,批规范化层(Batch-Normalization),网络权值规范化层(Weight-Normalization),卷积神经网络层(CNN)和反卷积神经网络层。
其中我们的模型判别器网络的神经网络结构对输入32*32*3的RGB图像使用了九次卷积操作和将原始图像卷积成大小为192维度的特征信息,然后将三位图像数组形式扁平化为一维数组形式,最后将扁平化为一维数组形式的图像特征信息输入一个维度为192和10或者11的全连接层。判别器D对于输入真实数据和生成的数据。
生成器的神经网络结构为对输入的噪声以及噪声对应的约束条件进行了五次反卷积操作,将噪声卷积成为32*32*3的RGB图像。
本发明解决的问题是提供一种多重对抗生成思想的半监督图像分类新技术,该技术采用对抗生成思想以及条件生成模型思想学习到数据的真实分布,通过二次判别对抗学习数据信息来替代传统单一对抗的方法来学习数据信息,从而避免了对模型对数据学习的不充分,提高了模型对图像分类的精度。
本发明的技术方案是:
基于生成式双重条件对抗网络结构的图像半监督学习的预测新技术,包括以下步骤:
步骤一,初始化模型的相关变量和网络参数;
步骤二,加载图像数据,包括图像的初始化,以及图像数据种类的分割,分别切分为训练集和验证集以及测试集,其中xreal表示真实数据,xfake表示生成器G生成数据;
步骤三,生成随机噪声noise,以及生成条件(标签)c;
步骤四,将随机噪声noise以及条件c输入到生成器G中,得到生成给定条件(标签)c下的图像数据xfake=G(noise,c);
步骤五,训练并且优化生成器G,对于生成器G的损失函数为LG
Figure BDA0002740224930000071
Figure BDA0002740224930000072
Figure BDA0002740224930000073
其中,
Figure BDA0002740224930000074
Figure BDA0002740224930000075
分别表示判别器D对与真实数据xreal和生成数据xfake所提取出来的数据特征,Lfeature表示生成图像xfake和真实图像xreal之间重要图像特征的差异的损失函数,Lfeature越小说明生成器G所学习的分布越接近真实数据的分布;
Figure BDA0002740224930000076
是生成器条件生成图像的约束条件的损失函数,这个约束条件可以使得生成器生成某种条件下的图像数据;
步骤六,输入真实数据和生成的数据,生成器与判别器的对抗,实现无监督学习对于无标签数据信息的第一次提取,该过程所要实现的真假判断目标函数Ls如下:
Figure BDA0002740224930000077
其中,
Figure BDA0002740224930000081
是判别器D对真实图片xreal预测为真图片(即:s=real)的对数概率的均值,判别器D需要尽量的增大这个值才能够正确的判断出来这是真实图像;
Figure BDA0002740224930000082
表示判别器D对于生成图像xfake预测为假图片(即:s=fake)的对数概率的均值,判别器要尽量的增大这个值才能够正确的判断出来这是生成图像;结合生成器的损失函数,生成器和判别器实现第一次对抗;
步骤七,对于有标签数据和条件生成的数据,判别器所要实现的分类(条件)损失函数Lc如下:
Figure BDA0002740224930000083
其中,
Figure BDA0002740224930000084
Figure BDA0002740224930000085
分别表示判别器D把真实数据的标签预测值预测为真实标签的对数概率均值,以及把生成数据的条件预测值预测为真实给定的条件值的对数概率均值,其中C表示标签或条件分布、c是具体的标签或条件,判别器需要尽量增大这两个均值,才能够正确的预测出其所对应的标签或着对应条件;
步骤八,输入无标签数据xu,单独利用无标签数据对判别器进行二次对抗训练,即:对于任意一个无标签数据样本xu的某个领域中,找到一个最大的扰动向量rqadv,该扰动向量的目的是使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最大化;同时判别器要能够尽量的识别出经过扰动向量干扰的新样本,使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最小化,这样就形成了对判别器的二次对抗;这次对抗训练的目标函数
Figure BDA0002740224930000086
如下:
Figure BDA0002740224930000087
Figure BDA0002740224930000088
其中
Figure BDA0002740224930000089
为KL散度,用于衡量两种预测结果分布的差距,θ表示模型参数是个变量利用梯度下降来进行优化,
Figure BDA00027402249300000810
表示θ的在莫一时刻的某一固定取值是个常量,r为扰动向量(噪声),||r||2≤ε表示扰动向量r的一个半径小于ε的领域,
Figure BDA00027402249300000811
表示判别器D在模型参数为
Figure BDA00027402249300000812
时对无标签数据的预测分布,q(y|xu+r,θ)表示判别器D在对添加扰动向量的无标签数据的预测分布。其中rqadv称为最大扰动向量,该扰动向量的目标是使得判别器对无标签数据xu预测分布
Figure BDA00027402249300000813
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最大化,q(y|xu+rqadv,θ)表示判别器D在对添加最大扰动向量的无标签数据的预测分布;判别器的目标则与之相反,它要使得判别器对无标签数据xu预测分布
Figure BDA00027402249300000814
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最小化;从而实现了该模型的第二次对抗。其中具体计算rqadv的方法为:假设模型在参数为
Figure BDA00027402249300000815
时对无标签数据xu的预测分布为
Figure BDA00027402249300000816
然后在无标签样本上加入高斯分布的噪声得到新样本
Figure BDA00027402249300000911
输入模型得到预测分布为
Figure BDA0002740224930000091
然后通过以下公式计算:
Figure BDA0002740224930000092
Figure BDA0002740224930000093
得到扰动值,其中
Figure BDA0002740224930000094
为一个超参数。
步骤九,训练并且优化判别器D,对于判别器D的最终损失函数为
Figure BDA0002740224930000095
其中Ls为真假判断损失函数如式(2),Lc为分类(条件)损失函数如式(3),
Figure BDA0002740224930000096
为二次对抗网络的损失函数如式(4)
在完成模型对图像类别分类的过程中,使用了三种不同的数据集在有标签数量不同的情况下来完成训练和测试,在训练的过程中,使用五折交叉验证来评估模型的性能。对于五折交叉验证方法,首先将所有样本平均分成五份,在每次实验中,选取其中的4分作为训练集,剩下的1份作为测试集。所以在每个数据集上,我们分别进行了五次实验,然后计算了这五次实验的平均值和中位数以及标准差。结果如下表所示。
表2:每类数据有标签样本量为100时,MNIST测试集误差率对比
Figure BDA0002740224930000097
表3:每类数据有标签样本量为200时,MNIST测试集误差率对比
Figure BDA0002740224930000098
表4:每类数据有标签样本量为1000时,SVHN测试集误差率对比
Figure BDA0002740224930000099
表5:每类数据有标签样本量为2000时,SVHN测试集误差率对比
Figure BDA00027402249300000910
Figure BDA0002740224930000101
表6:每类数据有标签样本量为500时,CIFAR-10测试集误差率对比
Figure BDA0002740224930000102
表7:每类数据有标签样本量为800时,CIFAR-10测试集误差率对比
Figure BDA0002740224930000103
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于生成式双重条件对抗网络结构的图像半监督分类方法,其特征是,包括以下步骤:
步骤一,初始化模型的相关变量和网络参数;
步骤二,加载图像数据,包括图像的初始化,以及图像数据种类的分割,分别切分为训练集和验证集以及测试集,其中xreal表示真实数据,xfake表示生成器G生成数据;
步骤三,生成随机噪声noise,以及生成条件即标签c;
步骤四,将随机噪声noise以及条件c输入到生成器G中,得到生成给定条件即标签c下的图像数据xfake=G(noise,c);
步骤五,训练并且优化生成器G,对于生成器G的损失函数为LG:
Figure FDA0002740224920000011
Figure FDA0002740224920000012
Figure FDA0002740224920000013
其中,
Figure FDA0002740224920000014
Figure FDA0002740224920000015
分别表示判别器D对与真实数据xreal和生成数据xfake所提取出来的数据特征,Lfeature表示生成图像xfake和真实图像xreal之间重要图像特征的差异的损失函数,Lfeature越小说明生成器G所学习的分布越接近真实数据的分布;
Figure FDA0002740224920000016
是生成器条件生成图像的约束条件的损失函数,这个约束条件可以使得生成器生成某种条件下的图像数据;
步骤六,输入真实数据和生成的数据,生成器与判别器的对抗,实现无监督学习对于无标签数据信息的第一次提取,该过程所要实现的真假判断目标函数Ls如下:
Figure FDA0002740224920000017
其中,
Figure FDA0002740224920000018
是判别器D对真实图片xreal预测为真图片,即:s=real时的对数概率的均值,判别器D需要尽量的增大这个值才能够正确的判断出来这是真实图像;
Figure FDA0002740224920000019
表示判别器D对于生成图像xfake预测为假图片,即:s=fake时的对数概率的均值,判别器要尽量的增大这个值才能够正确的判断出来这是生成图像;结合生成器的损失函数,生成器和判别器实现第一次对抗;
步骤七,对于有标签数据和条件生成的数据,判别器所要实现的分类(条件)损失函数Lc如下:
Figure FDA00027402249200000110
其中,
Figure FDA00027402249200000111
Figure FDA00027402249200000112
分别表示判别器D把真实数据的标签预测值预测为真实标签的对数概率均值,以及把生成数据的条件预测值预测为真实给定的条件值的对数概率均值,其中C表示标签或条件分布、c是具体的标签或条件,判别器需要尽量增大这两个均值,才能够正确的预测出其所对应的标签或着对应条件;
步骤八,输入无标签数据xu,单独利用无标签数据对判别器进行二次对抗训练,即:对于任意一个无标签数据样本xu的某个领域中,找到一个最大的扰动向量rqadv,该扰动向量的目的是使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最大化;同时判别器要能够尽量的识别出经过扰动向量干扰的新样本,使得新的扰动样本xu+rqadv经过判别器的预测分布与原本的样本预测分布差异最小化,这样就形成了对判别器的二次对抗;这次对抗训练的目标函数
Figure FDA0002740224920000021
如下:
Figure FDA0002740224920000022
其中
Figure FDA0002740224920000023
为KL散度,用于衡量两种预测结果分布的差距,θ表示模型参数是个变量利用梯度下降来进行优化,
Figure FDA0002740224920000024
表示θ的在莫一时刻的某一固定取值是个常量,r为扰动向量即噪声,||r||2≤ε表示扰动向量r的一个半径小于ε的领域,
Figure FDA0002740224920000025
表示判别器D在模型参数为
Figure FDA0002740224920000026
时对无标签数据的预测分布,q(y|xu+r,θ)表示判别器D在对添加扰动向量的无标签数据的预测分布,其中rqadv称为最大扰动向量,该扰动向量的目标是使得判别器对无标签数据xu预测分布
Figure FDA0002740224920000027
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最大化,q(y|xu+rqadv,θ)表示判别器D在对添加最大扰动向量的无标签数据的预测分布;判别器的目标则与之相反,它要使得判别器对无标签数据xu预测分布
Figure FDA0002740224920000028
和判别器对xu+r的预测分布q(y|xu+r,θ)偏差达到最小化;从而实现第二次对抗;其中具体计算rqadv的方法为:假设模型在参数为
Figure FDA0002740224920000029
时对无标签数据xu的预测分布为
Figure FDA00027402249200000210
然后在无标签样本上加入高斯分布的噪声得到新样本
Figure FDA00027402249200000211
输入模型得到预测分布为
Figure FDA00027402249200000212
然后通过以下公式计算:
Figure FDA00027402249200000213
Figure FDA00027402249200000214
得到扰动值,其中∈为一个超参数。
步骤九,训练并且优化判别器D,对于判别器D的最终损失函数为
Figure FDA00027402249200000215
其中Ls为真假判断损失函数如式(2),Lc为分类(条件)损失函数如式(3),
Figure FDA0002740224920000031
为二次对抗网络的损失函数如式(4)。
CN202011147833.2A 2020-10-23 2020-10-23 基于生成式双重条件对抗网络结构的图像半监督分类方法 Expired - Fee Related CN112257787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011147833.2A CN112257787B (zh) 2020-10-23 2020-10-23 基于生成式双重条件对抗网络结构的图像半监督分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011147833.2A CN112257787B (zh) 2020-10-23 2020-10-23 基于生成式双重条件对抗网络结构的图像半监督分类方法

Publications (2)

Publication Number Publication Date
CN112257787A true CN112257787A (zh) 2021-01-22
CN112257787B CN112257787B (zh) 2023-01-17

Family

ID=74264970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011147833.2A Expired - Fee Related CN112257787B (zh) 2020-10-23 2020-10-23 基于生成式双重条件对抗网络结构的图像半监督分类方法

Country Status (1)

Country Link
CN (1) CN112257787B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114742258A (zh) * 2022-02-23 2022-07-12 吉林化工学院 可迁移的居民家庭用电负荷场景预测方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5841445A (en) * 1995-06-30 1998-11-24 Sony Corporation Image displaying apparatus
CN107464210A (zh) * 2017-07-06 2017-12-12 浙江工业大学 一种基于生成式对抗网络的图像风格迁移方法
CN108520503A (zh) * 2018-04-13 2018-09-11 湘潭大学 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
CN108921123A (zh) * 2018-07-17 2018-11-30 重庆科技学院 一种基于双重数据增强的人脸识别方法
CN109544442A (zh) * 2018-11-12 2019-03-29 南京邮电大学 基于双重对抗的生成式对抗网络的图像局部风格迁移方法
CN109674471A (zh) * 2018-12-18 2019-04-26 中国科学技术大学 一种基于生成对抗网络的电阻抗成像方法及系统
US20190130266A1 (en) * 2017-10-27 2019-05-02 Royal Bank Of Canada System and method for improved neural network training
CN110212528A (zh) * 2019-06-19 2019-09-06 华北电力大学 基于生成对抗和双重语义感知的配电网量测数据缺失重构方法
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111340716A (zh) * 2019-11-20 2020-06-26 电子科技大学成都学院 一种改进双重判别对抗网络模型的图像去模糊方法
US20220020184A1 (en) * 2018-11-29 2022-01-20 Kheiron Medical Technologies Ltd. Domain adaption

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5841445A (en) * 1995-06-30 1998-11-24 Sony Corporation Image displaying apparatus
CN107464210A (zh) * 2017-07-06 2017-12-12 浙江工业大学 一种基于生成式对抗网络的图像风格迁移方法
US20190130266A1 (en) * 2017-10-27 2019-05-02 Royal Bank Of Canada System and method for improved neural network training
CN108520503A (zh) * 2018-04-13 2018-09-11 湘潭大学 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
CN108921123A (zh) * 2018-07-17 2018-11-30 重庆科技学院 一种基于双重数据增强的人脸识别方法
CN109544442A (zh) * 2018-11-12 2019-03-29 南京邮电大学 基于双重对抗的生成式对抗网络的图像局部风格迁移方法
US20220020184A1 (en) * 2018-11-29 2022-01-20 Kheiron Medical Technologies Ltd. Domain adaption
CN109674471A (zh) * 2018-12-18 2019-04-26 中国科学技术大学 一种基于生成对抗网络的电阻抗成像方法及系统
CN110212528A (zh) * 2019-06-19 2019-09-06 华北电力大学 基于生成对抗和双重语义感知的配电网量测数据缺失重构方法
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111340716A (zh) * 2019-11-20 2020-06-26 电子科技大学成都学院 一种改进双重判别对抗网络模型的图像去模糊方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JOST TOBIAS SPRINGENBERG ET AL.: "UNSUPERVISED AND SEMI-SUPERVISED LEARNING", 《ARXIV》 *
王体等: "基于生成对抗网络的人脸年龄合成研究概述", 《软件》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114742258A (zh) * 2022-02-23 2022-07-12 吉林化工学院 可迁移的居民家庭用电负荷场景预测方法
CN114742258B (zh) * 2022-02-23 2022-11-29 吉林化工学院 可迁移的居民家庭用电负荷场景预测方法

Also Published As

Publication number Publication date
CN112257787B (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
Kim et al. Co-mixup: Saliency guided joint mixup with supermodular diversity
Bahng et al. Learning de-biased representations with biased representations
CN109639739B (zh) 一种基于自动编码器网络的异常流量检测方法
CN110717553B (zh) 一种基于自衰减权重和多局部约束的交通违禁品识别方法
Springenberg et al. Improving deep neural networks with probabilistic maxout units
Nair et al. Implicit mixtures of restricted Boltzmann machines
CN111126482B (zh) 一种基于多分类器级联模型的遥感影像自动分类方法
CN113408605A (zh) 基于小样本学习的高光谱图像半监督分类方法
CN109389171B (zh) 基于多粒度卷积降噪自动编码器技术的医疗图像分类方法
CN115131618B (zh) 基于因果推理的半监督图像分类方法
Zhang et al. Diversifying tire-defect image generation based on generative adversarial network
CN110363230A (zh) 基于加权基分类器的stacking集成污水处理故障诊断方法
CN115578248B (zh) 一种基于风格引导的泛化增强图像分类算法
CN113222072A (zh) 基于K-means聚类和GAN的肺部X光图像分类方法
CN114998602A (zh) 基于低置信度样本对比损失的域适应学习方法及系统
CN113743474A (zh) 基于协同半监督卷积神经网络的数字图片分类方法与系统
CN115019133B (zh) 基于自训练和标签抗噪的图像中弱目标的检测方法及系统
CN111652264A (zh) 基于最大均值差异的负迁移样本筛选方法
CN112257787B (zh) 基于生成式双重条件对抗网络结构的图像半监督分类方法
CN113011513B (zh) 一种基于通用域自适应的图像大数据分类方法
Zhao et al. A contrastive knowledge transfer framework for model compression and transfer learning
CN117710738A (zh) 一种基于原型对比学习的开放集识别方法及系统
CN113436115A (zh) 一种基于深度无监督学习的图像阴影检测方法
CN111797935A (zh) 基于群体智能的半监督深度网络图片分类方法
CN110533098B (zh) 一种基于卷积神经网络识别绿通车车厢装载类型的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20230117