CN109816032B - 基于生成式对抗网络的无偏映射零样本分类方法和装置 - Google Patents
基于生成式对抗网络的无偏映射零样本分类方法和装置 Download PDFInfo
- Publication number
- CN109816032B CN109816032B CN201910093484.1A CN201910093484A CN109816032B CN 109816032 B CN109816032 B CN 109816032B CN 201910093484 A CN201910093484 A CN 201910093484A CN 109816032 B CN109816032 B CN 109816032B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- semantic
- mapping
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 77
- 238000012360 testing method Methods 0.000 claims abstract description 46
- 230000006870 function Effects 0.000 claims description 42
- 239000010410 layer Substances 0.000 claims description 32
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 7
- 239000002356 single layer Substances 0.000 claims description 3
- 238000013145 classification model Methods 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 15
- 230000004927 fusion Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于生成式对抗网络的无偏映射零样本分类方法和装置,解决零样本图像分类模型的领域映射偏移问题,从而提升了模型的分类准确性。该方法包括以下步骤:接收输入的已知类别图像,训练图像特征提取器、图像语义映射网络和语义特征分类器;提取已知类别图像特征,训练生成式对抗网络;接收输入的级联噪声的未知类别语义特征,利用训练后的生成式对抗网络生成未知类别图像特征;采用未知类别图像特征再次训练图像语义映射网络,得到无偏图像语义映射网络;接收输入的未知类别测试图像;提取未知类别图像特征,采用无偏图像语义映射网络将未知类别图像特征映射到语义空间,采用语义特征分类器对测试图像进行分类,输出分类结果。
Description
技术领域
本发明涉及模式识别、机器学习、计算机视觉领域,特别涉及一种基于生成式对抗网络的无偏映射零样本分类方法和装置。
背景技术
随着计算机技术特别是人工智能领域的发展,图像分类任务受到了越来越多从业人员的关注。图像分类任务是指计算机自动判断输入图像中物体所属于的类别。通常计算机需要在带有类别标注的图像数据库上训练一个分类器,再将这个分类器用于测试图像的分类。通常,图像数据库中图像的收集和标注工作需要耗费大量的人力物力,图像数据库的规模已经逐渐成为制约图像分类算法发展的一个重要因素。而且,在数据库上训练得到的分类器只能对数据库中已有类别进行分类。在训练卷积神经网络(CNN)分类器时,通常使用ImageNet数据库进行训练,其中包含了1000类不同的物体。而人类常见的物体有30000类之多,而且新的物体类别层出不穷。如何使分类器具有对不在数据库中出现的图像类别的分类能力,成为了图像分类任务的重要研究方向。在这其中,零样本学习希望通过在分类过程中引入物体类别的属性信息,帮助分类器对数据库中没有出现的图像类别进行分类,从而使分类器摆脱对图像数据的依赖。
在零样本学习问题中,通常将数据库分为已知类别(seen class)和未知类别(unseen class)。在训练模型时,使用已知类别的图像,而在测试模型时,使用未知类别的图像。即在零样本学习问题中,训练数据和测试数据是来自不同类别的图像,这也是零样本图像分类和普通图像分类的最大区别之处。由于未知类别图像在训练时并不出现,因此需要引入辅助信息(side information)作为图像类别的语义特征,来帮助零样本分类模型学习与未知类别相关的知识。通常可以使用的辅助信息包括但不限于类别属性特征(attribute features)、类别名称的词向量特征(word vectors)和图像的文本描述(sentences)。
目前常用的零样本学习方法,多数为基于映射的零样本学习模型。即模型在训练阶段,在已知类别数据上学习一个从图像空间到辅助信息语义空间的映射函数,在测试阶段使用这个映射函数,将未知类别的测试图像映射到语义空间,在语义空间中,可以根据映射后特征与辅助信息之间的关系来确定测试样本的类别。发明人在研发过程中发现由于在已知类别数据上学习的映射函数被用于未知类别样本的分类测试,已知类别的数据分布和未知类别存在差异,所以基于映射的零样本学习模型存在领域映射偏移(projectiondomain shift)这一固有问题。即在已知类别图像数据上学习的映射,在应用到未知类别的测试样本时,由于数据分布存在差异,被映射的未知类别图像样本在语义空间中会偏离其在语义空间中的类别原型(class prototype)。这限制了零样本学习模型在图像分类任务上,对未知类别图像分类的准确率。
发明内容
为了解决现有基于映射的零样本图像分类方法受领域映射偏移问题的影响,本公开提供了一种基于生成式对抗网络的无偏映射零样本分类方法和装置,通过引入生成式对抗网络以及线性非线性融合图像语义映射网络,并将模型进行端到端协同训练,解决零样本图像分类模型的领域映射偏移问题,从而提升了模型的分类准确性。
本公开所采用的技术方案是:
一种基于生成式对抗网络的无偏映射零样本分类方法,该方法包括以下步骤:
接收输入的已知类别图像,训练图像特征提取器、图像语义映射网络和语义特征分类器;
提取已知类别图像特征,训练生成式对抗网络;
接收输入的级联噪声的未知类别语义特征,利用训练后的生成式对抗网络生成未知类别图像特征;
采用未知类别图像特征再次训练图像语义映射网络,得到无偏图像语义映射网络;
接收输入的未知类别测试图像;
提取未知类别图像特征,采用无偏图像语义映射网络将未知类别图像特征映射到语义空间,采用语义特征分类器对测试图像进行分类,输出分类结果。
通过上述技术方案,通过使用生成式对抗网络的生成器生成未知类别图像特征,训练图像语义映射网络,使映射函数不仅接受已知类别图像的训练,也接受未知类别信息的训练,从而得到无偏的映射函数,大幅度提高零样本图像分类模型的分类准确率。
进一步的,所述训练图像特征提取器、图像语义映射网络和语义特征分类器的步骤包括:
接收输入的已知类别图像,提取已知类别图像特征,构建训练样本;
利用训练样本中已知类别图像特征以及损失函数,分别训练基于卷积神经网络的图像特征提取器、图像语义映射网络和语义特征分类器。
进一步的,所述图像语义映射网络包括两个平行并联的第一全连接神经网络和第二全连接神经网络,所述第一全连接神经网络包括单层全连接神经网络,所述第二全连接神经网络包括两层全连接神经网络,在每层全连接神经网络之后连接一层带泄露整流函数层。
进一步的,所述生成式对抗网络包括生成器网络和判别器网络;
所述生成器网络包括四层全连接层,每个全连接层后分别加入相应的非线性激活层;
所述判别器网络包括三层全连接层,每两个全连接层之间加入相应的非线性激活层。
进一步的,所述训练生成式对抗网络的步骤包括:
接收输入的已知类别图像,作为已知类别训练样本;
采用卷积神经网络特征提取器提取已知类别训练样本的图像特征;
将该已知类别图像特征作为监督信息,并分别采用相应的损失函数训练生成式对抗网络的生成器网络和判别器网络。
通过上述技术方案,使生成式对抗网络中的生成器可以根据图像类别的语义特征生成对应的图像特征。
进一步的,所述图像语义映射网络的训练方法为:
接收输入的级联噪声的未知类别语义特征;
将未知类别的语义特征输入到训练后的生成式对抗网络中进行训练,生成未知类别的图像特征;
采用未知类别的图像特征和损失函数再次训练图像语义映射网络,得到无偏图像语义映射网络。
通过上述技术方案,使得图像语义映射网络具有在所有图像类别上无偏的特性,摆脱领域映射偏移的影响。
进一步的,所述采用无偏图像语义映射网络将未知类别图像特征映射到语义空间的步骤包括:
接收输入的未知类别测试图像,构建未知类别测试样本;
采用图像特征器提取未知类别测试样本的图像特征,得到测试样本的未知类型图像特征;
采用无偏图像语义映射网络将测试样本的未知类别图像特征映射到语义空间;
在语义空间中,采用训练好的语义特征分类器对未知类别测试样本进行分类,得到分类结果。
进一步的,所述分类结果的获取方法为:
采用训练好的语义特征分类器对未知类别测试样本的图像特征映射后的特征点进行分类;
将测试样本的图像特征映射后的特征点乘以未知类别语义特征,响应最大的类别。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的基于生成式对抗网络的无偏映射零样本分类方法。
一种零样本分类装置,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的基于生成式对抗网络的无偏映射零样本分类方法。
通过上述技术方案,本公开的有益效果是:
(1)本公开通过使用生成式对抗网络的生成器生成未知类别图像特征,训练图像语义映射网络,使映射函数不仅接受已知类别图像的训练,也接受未知类别信息的训练,从而得到无偏的映射函数,大幅度提高零样本图像分类模型的分类准确率;
(2)本公开采用线性非线性融合图像语义映射网络,综合了线性映射容易训练、容易取得较好效果,非线性映射网络容量更大、处理信息能力更强的优势,进一步提升了模型效果;
(3)本公开对将基于卷积神经网络的图像特征提取器,图像语义映射网络,语义特征分类器进行统一训练,使图像特征和映射函数得到协同训练,提升了模型性能;
(4)本公开通过引入生成式对抗网络以及线性非线性融合图像语义映射网络,并将模型进行端到端协同训练,解决零样本图像分类模型的领域映射偏移问题,从而提升了模型的分类准确性。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本申请,并不构成对本公开的不当限定。
图1是根据一种或多种实施方式的基于生成式对抗网络的无偏映射零样本分类方法流程图;
图2是根据一种或多种实施方式的步骤101训练过程示意图;
图3是根据一种或多种实施方式的步骤102训练过程示意图;
图4是根据一种或多种实施方式的步骤103训练过程示意图;
图5是根据一种或多种实施方式的步骤104对未知类别图像进行分类的示意图;
图6是根据一种或多种实施方式的线性非线性融合图像语义映射网络结构示意图;
图7是根据一种或多种实施方式的判别器网络结构示意图;
图8是根据一种或多种实施方式的生成器网络结构示意图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本公开使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
名词解释:
(1)Softmax分类器,是以多项式分布(Multinomial Distribution)为模型建模的,它可以分多种互斥的类别。
(2)Softmax激活函数,为归一化指数函数,其输入是多个变量,常用于多分类神经网络输出。
一种或多种实施例提供一种基于生成式对抗网络的无偏映射零样本分类方法,通过引入生成式对抗网络以及线性非线性融合图像语义映射网络,并将模型进行端到端协同训练,解决零样本图像分类模型的领域映射偏移问题,从而提升了模型的分类准确性。
请参阅附图1,该零样本分类方法包括以下步骤:
S101,接收输入的已知类别图像,采用已知类别图像特征和第一损失函数训练基于卷积神经网络的图像特征提取器、线性非线性融合图像语义映射网络和语义特征分类器。
请参阅附图2,所述步骤101中,接收输入的已知类别图像,作为已知类别训练样本,利用已知类别图像特征和第一损失函数依次训练基于卷积神经网络的图像特征提取器、线性非线性融合图像语义映射网络和语义特征分类器。
具体的,请参阅附图6,所述步骤101中,所述线性非线性融合图像语义映射网络为两个平行并联的全连接神经网络,分别将图像特征线性和非线性映射到语义空间,其中第一全连接神经网络的形式为单层全连接神经网络,用于将图像特征线性映射到语义空间,其中第二全连接神经网络的形式为两层全连接神经网络,全连接层之后连接一层带泄露整流函数层(Leaky ReLU),用于将图像特征非线性映射到语义空间。
在本实施例中,所述线性与非线性融合的图像语义映射网络的表达式为:
W=αWLinear+(1-α)WNonlinear
其中,WLinear为线性映射,WNonlinear为非线性映射,α为权重,融合图像语义映射W为二者加权之和,优选地,α取值为0.5。
具体的,所述步骤101中,所述语义特征分类器的结构为:网络权值为类别属性特征且在训练过程中保持固定的全连接层,连接上一个Softmax分类器。
具体的,所述步骤101中,所采用的第一损失函数LCLS1为带有Softmax激活函数的交叉熵损失,其公式表示为:
S102,利用已知类别图像特征训练生成式对抗网络。
请参阅附图3,所述步骤102中,接收输入的已知类别图像,作为已知类别训练样本,采用卷积神经网络特征提取器提取已知类别训练样本的图像特征,将该已知类别训练样本的图像特征作为监督信息,并采用第二损失函数训练生成式对抗网络的生成器网络和判别器网络,其目的是使生成式对抗网络中的生成器可以根据图像类别的语义特征生成对应的图像特征。
在所述步骤102中,所述生成式对抗网络为但不限于条件梯度惩罚(Wasserstein)生成式对抗网络(ConditionalWGAN-GP网络),其中包含一个生成器网络和一个判别器网络,生成器根据输入的图像类别的属性特征,生成其对应的图像特征,判别器用于判别输入的特征是真实的图像特征还是生成器生成的图像特征。
在至少一个实施例中,请参阅附图7,所述判别器网络为三层全连接层,每两层网络之间加入一层LeakyReLU非线性激活层;请参阅附图8,生成器网络为四层全连接层,前三层后均加入一层LeakyReLU非线性激活层,最后一层后加入ReLU非线性激活层。
其中,为根据某一已知类别图像语义特征ys生成对应类别的图像特征,cat(·)为级联操作,z为随机噪声信号,用于保持生成特征的多样性,G(·)和D(·)分别代表生成器网络和判别器网络的相应操作,其中优选地,λ设置为10。
S103,接收输入的级联噪声的未知类别语义特征,并输入到步骤102得到的生成式对抗网络中,生成未知类别的图像特征,采用未知类别的图像特征和第三损失函数训练步骤101得到的图像语义映射网络,得到无偏图像语义映射网络。
具体的,请参阅附图4,所述步骤103的具体实现方式如下:
S103-1,接收输入的级联噪声的未知类别语义特征;
S103-2,将未知类别的语义特征输入到步骤102得到的生成式对抗网络中进行训练,生成未知类别的图像特征;
S103-4,采用步骤103-2得到的未知类别的图像特征和第三损失函数训练步骤101得到的图像语义映射网络,得到无偏图像语义映射网络。
具体的,所述步骤103-4中,使用步骤103-2得到的多个未知类别的图像特征和第三损失函数训练图像语义映射网络,从而使图像特征训练图像语义映射网络具有在所有图像类别上无偏的特性,摆脱领域映射偏移的影响。
在所述步骤103-4中,再次训练图像语义映射网络时,特别地,模型将会固定其他部分的参数,只训练图像语义映射网络。
在本实施例中,经过步骤S101至步骤S103的训练,模型的图像语义映射网络经过已知类别图像特征的训练和生成器网络生成的未知类别图像特征的训练,从而得到无偏的图像语义映射网络,便于图像到语义空间的映射。
S104,接收输入的未知类别测试图像,提取未知类别测试图像特征,采用步骤103得到的无偏图像语义映射网络将未知类别测试图像特征映射到语义空间,采用语义特征分类器对测试图像进行分类,输出分类结果。
具体的,请参阅附图5,所述步骤104的具体实现方式如下:
S104-1,接收输入的未知类别测试图像,构建未知类别测试样本;
S104-2,采用步骤101得到的基于卷积神经网络的图像特征器提取未知类别测试样本的图像特征;
S104-3,采用步骤103得到的无偏图像语义映射网络将步骤104-2得到的未知类别图像特征映射到语义空间;
S104-3,在语义空间中,采用步骤101得到的语义特征分类器对未知类别测试样本进行分类;
S104-4,输出分类结果。
在所述步骤104中,使用步骤S101中训练得到的基于卷积神经网络的图像特征提取器,提取未知类别测试样本的图像特征,再使用步骤103训练得到的无偏图像语义映射函数,将其映射到语义空间,在语义空间中,使用语义特征分类器对未知类别测试样本进行分类,计算得到最终的分类结果。
在本实施例中,所述分类结果的计算方法为:
将未知类别测试样本的图像特征映射后的特征点与未知类别语义特征相乘,响应最大的类别即为最终的分类结果。
所述分类结果的表达式为:
其中,W表示线性非线性融合图像语义映射网络,xu为未知类别测试样本的图像特征,yu为未知类别语义特征。
本实施例提出的零样本分类方法存在以下有益效果:
(1)本公开通过使用生成式对抗网络的生成器生成未知类别图像特征,训练图像语义映射网络,使映射函数不仅接受已知类别图像的训练,也接受未知类别信息的训练,从而得到无偏的映射函数,大幅度提高零样本图像分类模型的分类准确率;
(2)本公开采用线性非线性融合图像语义映射网络,综合了线性映射容易训练、容易取得较好效果,非线性映射网络容量更大、处理信息能力更强的优势,进一步提升了模型效果;
(3)本公开对将基于卷积神经网络的图像特征提取器,图像语义映射网络,语义特征分类器进行统一训练,使图像特征和映射函数得到协同训练,提升了模型性能;
(4)本公开通过引入生成式对抗网络以及线性非线性融合图像语义映射网络,并将模型进行端到端协同训练,解决零样本图像分类模型的领域映射偏移问题,从而提升了模型的分类准确性。
一种或多种实施例还提供一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行以下步骤:
接收输入的已知类别图像,训练图像特征提取器、图像语义映射网络和语义特征分类器;
提取已知类别图像特征,训练生成式对抗网络;
接收输入的级联噪声的未知类别语义特征,利用训练后的生成式对抗网络生成未知类别的图像特征;
采用未知类别的图像特征训练图像语义映射网络,得到无偏图像语义映射网络;
接收输入的未知类别测试图像;
提取未知类别图像特征,采用无偏图像语义映射网络将未知类别图像特征映射到语义空间,采用语义特征分类器对测试图像进行分类,输出分类结果。
一种或多种实施例还提供一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行以下步骤:
接收输入的已知类别图像,训练图像特征提取器、图像语义映射网络和语义特征分类器;
提取已知类别图像特征,训练生成式对抗网络;
接收输入的级联噪声的未知类别语义特征,利用训练后的生成式对抗网络生成未知类别的图像特征;
采用未知类别的图像特征训练图像语义映射网络,得到无偏图像语义映射网络;
接收输入的未知类别测试图像;
提取未知类别图像特征,采用无偏图像语义映射网络将未知类别图像特征映射到语义空间,采用语义特征分类器对测试图像进行分类,输出分类结果。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
工业上的实用性
本公开的零样本分类方法能够应用于零样本学习的用途。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.一种基于生成式对抗网络的无偏映射零样本分类方法,其特征是,该方法包括以下步骤:
接收输入的已知类别图像,训练图像特征提取器、图像语义映射网络和语义特征分类器;
提取已知类别图像特征,训练生成式对抗网络;
接收输入的级联噪声的未知类别语义特征,利用训练后的生成式对抗网络生成未知类别图像特征;
采用未知类别图像特征再次训练图像语义映射网络,得到无偏图像语义映射网络;
接收输入的未知类别测试图像;
提取未知类别图像特征,采用无偏图像语义映射网络将未知类别图像特征映射到语义空间,采用语义特征分类器对测试图像进行分类,输出分类结果。
2.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述训练图像特征提取器、图像语义映射网络和语义特征分类器的步骤包括:
接收输入的已知类别图像,提取已知类别图像特征,构建训练样本;
利用训练样本中已知类别图像特征以及损失函数,分别训练基于卷积神经网络的图像特征提取器、图像语义映射网络和语义特征分类器。
3.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述图像语义映射网络包括两个平行并联的第一全连接神经网络和第二全连接神经网络,所述第一全连接神经网络包括单层全连接神经网络,所述第二全连接神经网络包括两层全连接神经网络,在每层全连接神经网络之后连接一层带泄露整流函数层。
4.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述生成式对抗网络包括生成器网络和判别器网络;
所述生成器网络包括四层全连接层,每个全连接层后分别加入相应的非线性激活层;
所述判别器网络包括三层全连接层,每两个全连接层之间加入相应的非线性激活层。
5.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述训练生成式对抗网络的步骤包括:
接收输入的已知类别图像,作为已知类别训练样本;
采用卷积神经网络特征提取器提取已知类别训练样本的图像特征;
将该已知类别图像特征作为监督信息,并分别采用相应的损失函数训练生成式对抗网络的生成器网络和判别器网络。
6.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述图像语义映射网络的训练方法为:
接收输入的级联噪声的未知类别语义特征;
将未知类别的语义特征输入到训练后的生成式对抗网络中进行训练,生成未知类别的图像特征;
采用未知类别的图像特征和损失函数再次训练图像语义映射网络,得到无偏图像语义映射网络。
7.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述采用无偏图像语义映射网络将未知类别图像特征映射到语义空间的步骤包括:
接收输入的未知类别测试图像,构建未知类别测试样本;
采用图像特征器提取未知类别测试样本的图像特征,得到测试样本的未知类型图像特征;
采用无偏图像语义映射网络将测试样本的未知类别图像特征映射到语义空间;
在语义空间中,采用训练好的语义特征分类器对未知类别测试样本进行分类,得到分类结果。
8.根据权利要求1所述的基于生成式对抗网络的无偏映射零样本分类方法,其特征是,所述分类结果的获取方法为:
采用训练好的语义特征分类器对未知类别测试样本的图像特征映射后的特征点进行分类;
将测试样本的图像特征映射后的特征点乘以未知类别语义特征,响应最大的类别。
9.一种计算机可读存储介质,其中存储有多条指令,其特征是,所述指令适于由终端设备的处理器加载并执行权利要求1至8中任一项所述的基于生成式对抗网络的无偏映射零样本分类方法。
10.一种零样本分类装置,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征是:所述指令适于由处理器加载并执行权利要求1至8中任一项所述的基于生成式对抗网络的无偏映射零样本分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910093484.1A CN109816032B (zh) | 2019-01-30 | 2019-01-30 | 基于生成式对抗网络的无偏映射零样本分类方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910093484.1A CN109816032B (zh) | 2019-01-30 | 2019-01-30 | 基于生成式对抗网络的无偏映射零样本分类方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109816032A CN109816032A (zh) | 2019-05-28 |
CN109816032B true CN109816032B (zh) | 2020-09-11 |
Family
ID=66605979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910093484.1A Active CN109816032B (zh) | 2019-01-30 | 2019-01-30 | 基于生成式对抗网络的无偏映射零样本分类方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109816032B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175655B (zh) * | 2019-06-03 | 2020-12-25 | 中国科学技术大学 | 数据识别方法及装置、存储介质及电子设备 |
CN110533578A (zh) * | 2019-06-05 | 2019-12-03 | 广东世纪晟科技有限公司 | 一种基于条件对抗神经网络的图像翻译方法 |
CN110263872B (zh) * | 2019-06-26 | 2022-05-17 | 上海鹰瞳医疗科技有限公司 | 训练数据处理方法及装置 |
CN110472652B (zh) * | 2019-06-30 | 2023-06-09 | 天津大学 | 基于语义引导的少量样本分类方法 |
CN111476294B (zh) * | 2020-04-07 | 2022-03-22 | 南昌航空大学 | 一种基于生成对抗网络的零样本图像识别方法及系统 |
CN111696066B (zh) * | 2020-06-13 | 2022-04-19 | 中北大学 | 基于改进wgan-gp的多波段图像同步融合与增强方法 |
CN112115963B (zh) * | 2020-07-30 | 2024-02-20 | 浙江工业大学 | 一种基于迁移学习生成无偏见深度学习模型的方法 |
CN113191381B (zh) * | 2020-12-04 | 2022-10-11 | 云南大学 | 一种基于交叉知识的图像零次分类模型及其分类方法 |
CN112488132B (zh) * | 2020-12-18 | 2022-04-19 | 贵州大学 | 一种基于语义特征增强的细粒度图像分类方法 |
CN112364851B (zh) * | 2021-01-13 | 2021-11-02 | 北京邮电大学 | 一种自动调制识别方法、装置、电子设备及存储介质 |
CN113887589A (zh) * | 2021-09-20 | 2022-01-04 | 复旦大学 | 一种基于潜层特征生成的广义零样本图像分类方法 |
CN115761239B (zh) * | 2023-01-09 | 2023-04-28 | 深圳思谋信息科技有限公司 | 一种语义分割方法及相关装置 |
CN116433977B (zh) * | 2023-04-18 | 2023-12-05 | 国网智能电网研究院有限公司 | 未知类别图像分类方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530633A (zh) * | 2013-10-09 | 2014-01-22 | 深圳大学 | 一种图像局部不变特征的语义映射方法及语义映射系统 |
CN106203510A (zh) * | 2016-07-11 | 2016-12-07 | 南京大学 | 一种基于形态学特征和字典学习的高光谱图像分类方法 |
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701504B (zh) * | 2016-01-08 | 2019-09-13 | 天津大学 | 用于零样本学习的多模态流形嵌入方法 |
US10706324B2 (en) * | 2017-01-19 | 2020-07-07 | Hrl Laboratories, Llc | Multi-view embedding with soft-max based compatibility function for zero-shot learning |
CN107563428B (zh) * | 2017-08-25 | 2019-07-02 | 西安电子科技大学 | 基于生成对抗网络的极化sar图像分类方法 |
CN108875818B (zh) * | 2018-06-06 | 2020-08-18 | 西安交通大学 | 基于变分自编码机与对抗网络结合的零样本图像分类方法 |
CN109190750B (zh) * | 2018-07-06 | 2021-06-08 | 国家计算机网络与信息安全管理中心 | 基于对抗生成网络的小样本生成方法及装置 |
-
2019
- 2019-01-30 CN CN201910093484.1A patent/CN109816032B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530633A (zh) * | 2013-10-09 | 2014-01-22 | 深圳大学 | 一种图像局部不变特征的语义映射方法及语义映射系统 |
CN106203510A (zh) * | 2016-07-11 | 2016-12-07 | 南京大学 | 一种基于形态学特征和字典学习的高光谱图像分类方法 |
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109816032A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816032B (zh) | 基于生成式对抗网络的无偏映射零样本分类方法和装置 | |
CN112100383B (zh) | 一种面向多任务语言模型的元-知识微调方法及平台 | |
CN113627447B (zh) | 标签识别方法、装置、计算机设备、存储介质及程序产品 | |
KR102042168B1 (ko) | 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치 | |
CN111967271A (zh) | 分析结果的生成方法、装置、设备及可读存储介质 | |
CN113239143B (zh) | 融合电网故障案例库的输变电设备故障处理方法及系统 | |
CN107544960A (zh) | 一种基于变量绑定和关系激活的推理方法 | |
CN111340179A (zh) | 一种卷积神经网络拓扑方法 | |
CN116310850B (zh) | 基于改进型RetinaNet的遥感图像目标检测方法 | |
CN117058716A (zh) | 基于图像预融合的跨域行为识别方法及装置 | |
CN116738983A (zh) | 模型进行金融领域任务处理的词嵌入方法、装置、设备 | |
CN116541507A (zh) | 一种基于动态语义图神经网络的视觉问答方法及系统 | |
KR20210038027A (ko) | 신경망 압축 훈련 방법 및 압축된 신경망을 이용하는 방법 | |
CN117011219A (zh) | 物品质量检测方法、装置、设备、存储介质和程序产品 | |
CN116975578A (zh) | 逻辑规则网络模型训练方法、装置、设备、程序及介质 | |
CN116976402A (zh) | 超图卷积神经网络的训练方法、装置、设备及存储介质 | |
CN113312445B (zh) | 数据处理方法、模型构建方法、分类方法及计算设备 | |
CN113159976B (zh) | 一种微博网络重要用户的识别方法 | |
CN113610080A (zh) | 基于跨模态感知的敏感图像识别方法、装置、设备及介质 | |
CN113239272A (zh) | 一种网络管控系统的意图预测方法和意图预测装置 | |
CN111611498A (zh) | 一种基于领域内部语义的网络表示学习方法及系统 | |
CN114898339B (zh) | 驾驶行为预测模型的训练方法、装置、设备、存储介质 | |
CN114492394B (zh) | 用于自主工业软件文本数据的关键词抽取方法及装置 | |
Song et al. | Prior-guided multi-scale fusion transformer for face attribute recognition | |
Fan et al. | Students' classroom Emotion Analysis Based on Intelligent Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |