CN113222002B - 一种基于生成式鉴别性对比优化的零样本分类方法 - Google Patents

一种基于生成式鉴别性对比优化的零样本分类方法 Download PDF

Info

Publication number
CN113222002B
CN113222002B CN202110496189.8A CN202110496189A CN113222002B CN 113222002 B CN113222002 B CN 113222002B CN 202110496189 A CN202110496189 A CN 202110496189A CN 113222002 B CN113222002 B CN 113222002B
Authority
CN
China
Prior art keywords
loss function
generated
classifier
training
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110496189.8A
Other languages
English (en)
Other versions
CN113222002A (zh
Inventor
张琳
庞善民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202110496189.8A priority Critical patent/CN113222002B/zh
Publication of CN113222002A publication Critical patent/CN113222002A/zh
Application granted granted Critical
Publication of CN113222002B publication Critical patent/CN113222002B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成式鉴别性对比优化的零样本分类方法,包括以下步骤:利用重构损失及对比损失控制生成特征具有关联性与鉴别性的生成式网络,所述生成式网络包括特征编码器E、特征生成器G、真伪判别器D及分类器C;构建重构损失函数及对比损失函数;利用重构损失函数、对比损失函数并联合真伪判别器对生成式网络进行对抗训练;通过训练后的特征生成器G为各不可见类别生成相应的不可见类别的视觉特征,然后将生成样本与对应语义组成对,再与训练数据集中的样本组合,以形成新的训练数据集,再利用新的训练数据集对分类器进行训练,最后利用训练后的分类器进行零样本分类,该方法的分类精度较高。

Description

一种基于生成式鉴别性对比优化的零样本分类方法
技术领域
本发明属于计算机视觉技术领域,涉及基于生成式的鉴别性对比优化的零样本分类方法。
背景技术
随着移动互联网络的日益增长,硬件设备不断迭代和更新,计算机性能不断提升,大规模数据表现出爆发式增长,在这些增长的数据里蕴藏着诸多可以被用来服务人类生活和预测未来世界的基础性信息。本文重点关注图像视觉特征数据的处理与应用。
随着深度学习技术的发展和大量有标签的训练数据的出现,监督学习的性能出现了巨大的提升。然而,有监督学习通常需要为每个目标类搜集数百个甚至上千个有标签的训练样本,需要大量带标签的数据。然而在许多实际场景中缺乏这些数据。目前机器学习领域存在一些以有标签训练数据少为主要特征的解决方法,更加符合人类的学习机制,也使得检测识别更具有智能。
为了解决对缺少或完全缺少有标签的训练数据的学习,提出了小样本学习(one/few shot learning)与零样本学习任务。该任务在使得机器学习系统具备不断学习的能力以及利用已知数据推断未知数据中起了重要作用,基于零样本学习将成为未来多个研究领域的热点问题。在没有任何观测数据的情况下进行分类识别任务被称为零样本学习(zeroshot learning ZSL),其关键思想在于探索和利用未知类与已知类在语义或其他高层特征间的相关知识,从而达到知识迁移的目的。一般经典的零样本学习在测试阶段只有不可见类不含可见类别。这显然与实际情况不符,现实生活中我们需要对见过或未见过都需要识别出来,所以推广零样本学习任务。当模型接收到一个新的图像时,并不知道它是来自于可见类还是不可见类,因此它需要能够从可见类和不可见类的组合中对图像进行分类,称为广义零样本学习(generalized zero shot learning GZSL)。
现有零样本学习方法大致分为三大类,一是嵌入式方法,二是生成式方法,三是图卷积方法。本发明是基于生成式方法进行改进优化。由于零样本学习面临着域漂移问题。产生域漂移问题,本文认为存在两个方面的原因。一方面,是因为当同一种属性在不同的类别中,视觉特征表达可能差别很大。复杂的视觉特征很难和语义信息一一对应,使得分类困难。另一方面,是因为零样本学习设置中可见类别和不可见类别之间互不相交,对于一些类来说,它们的数据样本互不相关,它们的数据分布不尽相同,这样就导致了它们之间数据域存在着很大的差距。因此,仅仅使用来自可见类的数据样本学习不同空间的映射函数而不对不可见类做出任何调整,必将导致数据存在严重的域漂移问题。生成式零样本学习方法利用对抗生成网络(GAN)来处理零样本学习任务。零样本学习的主要挑战来自于在训练阶段没有可见的视觉样本。通过利用GAN,人们可以从噪音中合成看不见的视觉特征。
虽然生成式方法可以在零样本学习中作为基线应用,但在之前的生成式方法中仍然存在两方面的问题。一是生成的特征过于随意,完全远离真实的特征分布。二是合成的不可见特征容易被混淆,因为GAN主要针对可见的样本进行训练。我们将此问题命名为特征功能性混淆问题。在传统的零样本学习中,特征功能性混淆问题并不一定很严重,因为只有不可见的样本测试才会涉及到。然而,在GZSL中,特性混淆是一个致命的问题,因为测试数据由可见和不可见的样本组成。如果合成的不可见特征容易产生可见特征,则不可见样本会被误分类为可见类别,导致不可见类分类准确率非常低,总体模型分类精度不可避免的变低。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供了一种基于生成式鉴别性对比优化的零样本分类方法,该方法的分类精度较高。
为达到上述目的,本发明所述的基于生成式鉴别性对比优化的零样本分类方法包括以下步骤:
利用重构损失及对比损失控制生成特征具有关联性与鉴别性的生成式网络,所述生成式网络包括特征编码器E、特征生成器G、真伪判别器D及分类器C;
构建重构损失函数及对比损失函数;
利用重构损失函数及对比损失函数并联合真伪判别器对生成式网络进行对抗训练;
通过训练后的特征生成器G为各不可见类别生成相应的不可见类别的视觉特征,然后将生成样本与对应语义组成对,再与训练数据集中的样本组合,以形成新的训练数据集,再利用新的训练数据集对分类器进行训练,最后利用训练后的分类器进行零样本分类。
重构损失函数为:
其中,P(z):N(0,1),x:P(x)和a:P(a),P(x)和P(a)分别为真实特征及语义嵌入的先验分布,DKL为Kullback-Leibler散度,a为语义属性,x为视觉特征,为虚拟特征。
对比损失函数为:
其中,a'为特征生成器G的输入语义符号。
当a'=a时,则采用重构损失函数训练优化生成式网络。
当a'≠a时,则采用对比损失函数训练优化生成式网络。
在对生成时网络进行训练时,真伪判别器D根据式(3)判断训练数据(x,a)的真实性,其中,
对于特征生成器G与真伪判别器D的对抗性损失函数为:
基于式(5)利用新的训练数据集对分类器C进行训练,其中,
其中,y为样本真实标签,为分类器输出的预测结果。取最高的分类得分为最终结果。
本发明具有以下有益效果:
本发明所述的基于生成式鉴别性对比优化的零样本分类方法在具体操作时,构建特征编码器及特征生成器,为保证生成特征的质量稳定性,构建重构损失函数及对比损失函数,以保证生成特征与原数据域的关联性及鉴别性,再通过真伪判别器判断是否为原数据,再进行对抗性训练,以提升判别器判别真伪的能力,同时提升特征生成器生成特征靠近真实的能力,使得模型充分学习现有数据分布,以挖掘出接近于真实的隐藏规则,并作为权重信息保留到模型中,从而达到优化网络正确分类可见类及不可见类数据的目的,继而提高分类精度。
附图说明
图1为本发明中零样本学习和广义零样本学习示意图;
图2为鉴别性对比特征网络DCF-Net示意图;
图3为在AwA2数据集上原图特征与生成鉴别性特征对比示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,不是全部的实施例,而并非要限制本发明公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要的混淆本发明公开的概念。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明构建利用重构损失和对比损失控制生成特征具有关联性与鉴别性的生成式网络,参考图1,所述生成式网络包括以下几个神经网络模块:
1)特征编码器E,特征编码器E通过映射数据点编码的方式E(x,a):x×a→z,将一对图像的视觉特征x及类别语义嵌入a作为特征编码器PE(z|x,a)的输入,通过pE(z|x,a)计算在给定视觉特征x及其对应语义属性a上的隐藏变量由于网络模型较为复杂,而全连接层结构简单且能够提高模型的非线性表达能力,该结构对于高维视觉特征进行降维操作是简单有效的,因此采用上述两层全连接层来提取能代表元数据数据分布的隐藏信息。
2)特征生成器G采用特征编码器PE(z|x,a)产生的隐藏表征信息z作为特征生成器对于源域数据x的先验信息,使得生成的数据不再完全脱离实际分布,该先验信息将源域的数据分布沿用到生成数据中,使得生成的数据尽可能与源域相关联。采用数据解码的方式从隐藏向量和语义信息到一个数据点的过程,表示为/>通过低维数据合成高维数据。假设z服从正态分布,P(z):N(0,1)。通过/>以隐藏表征信息z及语义属性a作为输入项计算生成的虚拟特征/>由于网络模型表征内容较为复杂,所以沿用两层全连接层从隐藏信息和语义属性信息中生成伪特征。
3)真伪判别器D以视觉语义特征对(x,a)作为输入并输出一个数值,指示x在多大程度上属于以属性a为特征的类。真伪判别器评估图像特征与类的关联紧密度,通过特征生成器中生成的假特征(G(a,z),a)希望分数趋近0越好,当训练数据(x,a)是真数据,希望训练数据(x,a)的分数越趋近1越好。
4)分类器C:y=softmax(x,a),a表示类别标签,x是视觉特征,该模块将两者结合起来投影到各类上,通过softmax进行归一化,损失函数采用交叉熵损失函数计算。
构建重构损失和对比损失
对于生成特征与原特征的关联性,编码器E及生成器G采用公式(1)重构损失函数。
其中,P(z):N(0,1);x:P(x)和a:P(a),其中,P(x)和P(a)分别表示真实特征及语义嵌入的先验分布;DKL为Kullback-Leibler散度,用于度量两个数据分布之间的相似度,通过式(1)减小隐藏表示分布与其先验分布之间的差距,为重构损失,通过优化该损失函数,特征编码模块可以捕获真实特征的隐藏的内在结构,有助于特征生成器合成与真实特征分布相似的特征。
剥离隐层特征与输入特征生成器E的关联程度,使得输入特征生成器E生成的特征更具鉴别性。为此,将生成器G的输入语义符号表示为a',从生成器输入的语义信息a'分为两种情况讨论:a'=a代表从生成器输入的语义属性向量a'与编码器输入的语义属性向量a为同一类别的语义属性。a'=a-表示两个输入的语义向量不是同一类别。从编码器输入的语义向量是其他类别用a-表示,将其公式化表示为{a-|a-∈As∧a-≠a}。
当a'=a时,则采用上述的重构损失约束一致性,a'≠a时,加重a-的存在比例,a-的生成情况直接关系到不可见类别通过语义信息生成特征的质量。通过加重a-,使得a-从隐藏变量z中剥离出来,生成具有a-特有语义的视觉特征,从而将不可见类别语义输入到生成器中得到对应的语义信息,将z作为先验信息,通过z了解现有数据的源域数据分布情况,使得生成的数据既可以从原有数据分布中学习隐藏表征再结合新的语义信息,构造更为具体化的虚拟特征来泛化到不可见类别的特征中。
对于编码器E和生成器G,构建下述损失函数约束生成的特征。当a'≠a时,控制x与特征生成器E生成的之间的距离不同,采用公式(2)所述的对比损失函数。
DCF-Net方法的具体过程为:
1)将原始图片利用ResNet-101在ImageNet上预训练的模型,提取最后一层2048维度的视觉特征作为原始图片的特征;
2)对于a'=a时,DCF-Net中的特征编码器E、特征生成器G根据式(1)所示的重构损失函数来优化生成模型;当a'≠a时,DCF-Net中特征编码器E、特征生成器G根据式(2)所示的对比损失函数来优化生成模型。
3)将训练数据(x,a)及网络模型生成的数据对输入到真伪判别器D中,通过真伪判别器D根据式(3)判断训练数据(x,a)的真实性;
其中,特征生成器G试图将其合成样本G(a,z)的分数推向1,此外,对于特征生成器G希望骗过真伪判别器E,对于特征生成器G与真伪判别器E的对抗性损失为:
通过步骤2)和步骤3)联合对抗训练生成模型;
4)通过训练后的生成器G为每个不可见类别生成相应的不可见类别的视觉特征,然后将生成样本与对应语义组成对,再与训练数据的其他样本结合起来,基于新的训练数据集训练分类器,通过式(5)交叉熵损失函数训练分类器。
其中,y为样本真实标签,为分类器输出的预测结果,对于零样本学习任务,选不可见类的最高分类为最终结果/>对于广义零样本学习来说,分别计算可见类别与不可见类别的精度,然后求出调和均值。
本发明中利用重构损失和对比损失约束生成数据的鉴别性,保证生成视觉特征与原数据特征的关联性和区分性。本发明中的每个模块都是全连接层神经网络的简单组合,具有便捷的可扩展性。在三个广泛使用的数据集上进行ZSL和GZSL实验,结果表明在各个数据集上均有增益效果,特别是细粒度类别间距差距小的数据集上增益效果更加显著。在实验中利用T-SNE可视化了生成的视觉特征,有助于增强分析模型的可解释性。本发明能为计算机视觉开放集识别、自然语言处理等领域提供研究思路。
实验设置与结果分析
评价标准
图像分类精度的衡量标准Top-1精度,即当预测类别正确时,就判定预测是准确的,通过公式(6)测量每个类的平均精度。
其中,accy表示Top-1平均精度;y表示测试类别;m表示类别y的正确预测数量;n表示类别y的样本数量。
在广义零样本学习设置中,评价时的搜索空间不仅限于测试类别的精度,也包括训练类别的准确度。在计算训练类别和测试类别的平均每类准确度之后,计算训练和测试准确度的调和平均值公式(7)作为评价标准。
其中,accys和accyu分别表示可见类ys和不可见类yu图像的精度。
零样本学习设置下的结果
表1
传统零样本实验设置下的结果如表1所示,视觉特征使用ImageNet上预训练的ResNet-101网络的最后一层2048维度的视觉特征,且不对图像进行任何预处理微调。传统零样本学习方法DeVISE[55]、ALE[54]和ESZSL[19]使用线性兼容函数或其他相似度指标来比较嵌入的视觉和语义特征。;CMT[52]和LATEM[53]利用多个神经网络学习非线性嵌入。我们的方法普遍都好于线性兼容性方法,在三个数据集上都取得了最好的结果,特别是在细粒度数据集上SUN和CUB上,与先前的方法相比性能显著提升,验证了鉴别性对比特征网络产生的鉴别性特征对识别精度的增益效果。
广义零样本学习设置下的结果
表2
广义零样本学习设置下的实验结果如表2所示,用调和均值进行度量,SE-GZSL[58]方法使用自编码器和对抗生成网络和回归器作为对生成特征的反馈,以改进特征的生成,但是它没有考虑到生成特征的区分性信息度量,所以效果没本方法好。与现有生成式方法相比,本发明在SUN、CUB等细粒度数据集上性能显著。AWA2也与现阶段结果相近,在AWA2上效果不明显的原因在于AWA2数据集的类间差异大,不易通过一个类推广到另一个类的视觉特征。本发明在细粒度及类间差距小的数据集上效果显著,在SUN和CUB数据集上不可见类别的识别精度大幅提升。该表结果表明本发明在细粒度类间距离较近的数据集上远超现有其他方法。
消融实验结果
在SUN和CUB数据集上,对模型进行消融实验,如表3所示。为了验证各个模块的作用,设计进行基础模块生成和判别模块对抗性训练、加入了源域先验信息对抗性训练以及去掉对比损失无法生成鉴别性特征优化的实验,并使用相同的标准进行评估。仅有对抗性训练生成的样本质量不足以让不可见类别生成真实的样本,所以性能较差。当增加了源域的一些信息,从特征编码模块中获得了一些真实特征的先验分布,有利于生成接近真实实例的样本,性能有所提高。从表中观察到,当删掉对比损失,不分离生成的特征与源特征的情况下,模型的性能显著提升程度较小。联合两者一起训练,会使得模型增益效果达到最高水平,足以证明本发明的有效性。
表3
可视化生成特征结果
从图3a中可以看到有一些类别存在一定程度的重叠,海狸与马、灰熊、波斯猫都有皮毛,存在一定的交叠也是正常的。本发明选择灰熊、波斯猫、马、羚羊、虎鲸通过模型生成样本。从图3b可以看出生成特征的分布与其他类别更有间距性,具有鉴别性,这样生成的特征不易与其他类别特征相混淆,有利于模型分类。也证实了本发明可以生成有鉴别性的特征以帮助模型分类。

Claims (2)

1.一种基于生成式鉴别性对比优化的零样本分类方法,其特征在于,用于图像分类领域,包括以下步骤:
利用重构损失及对比损失控制生成特征具有关联性与鉴别性的生成式网络,所述生成式网络包括特征编码器E、特征生成器G、真伪判别器D及分类器C;
构建重构损失函数及对比损失函数;
利用重构损失函数、对比损失函数联合真伪判别器对生成式网络进行对抗训练;
通过训练后的特征生成器G为各不可见类别生成相应的不可见类别的视觉特征,然后将生成样本与对应语义组成对,再与训练数据集中的样本组合,以形成新的训练数据集,再利用新的训练数据集对分类器进行训练,最后利用训练后的分类器进行零样本分类;
重构损失函数为:
其中,P(z):N(0,1),x:P(x)和a:P(a),P(x)和P(a)分别为真实特征及语义嵌入的先验分布,DKL为Kullback-Leibler散度,a为语义属性,x为视觉特征,为虚拟特征;
对比损失函数为:
其中,a'为特征生成器G的输入语义属性表征符号;
当a'=a时,则采用重构损失函数训练优化生成式网络;
当a'≠a时,则采用对比损失函数训练优化生成式网络;
在对生成式网络进行训练时,真伪判别器D根据式(3)判断训练数据(x,a)的真实性,其中,
对于特征生成器G与真伪判别器D的对抗性损失函数为:
2.根据权利要求1所述的基于生成式鉴别性对比优化的零样本分类方法,其特征在于,基于式(5)利用新的训练数据集对分类器C进行训练,其中,
其中,y为样本真实标签,为分类器输出的预测结果,取最高的分类得分为最终结果。
CN202110496189.8A 2021-05-07 2021-05-07 一种基于生成式鉴别性对比优化的零样本分类方法 Active CN113222002B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110496189.8A CN113222002B (zh) 2021-05-07 2021-05-07 一种基于生成式鉴别性对比优化的零样本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110496189.8A CN113222002B (zh) 2021-05-07 2021-05-07 一种基于生成式鉴别性对比优化的零样本分类方法

Publications (2)

Publication Number Publication Date
CN113222002A CN113222002A (zh) 2021-08-06
CN113222002B true CN113222002B (zh) 2024-04-05

Family

ID=77091624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110496189.8A Active CN113222002B (zh) 2021-05-07 2021-05-07 一种基于生成式鉴别性对比优化的零样本分类方法

Country Status (1)

Country Link
CN (1) CN113222002B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115758159B (zh) * 2022-11-29 2023-07-21 东北林业大学 基于混合对比学习和生成式数据增强的零样本文本立场检测方法
CN115797711B (zh) * 2023-02-20 2023-04-21 泉州装备制造研究所 一种基于重构模型的对抗样本改进分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
WO2020172838A1 (zh) * 2019-02-26 2020-09-03 长沙理工大学 一种改进辅助分类器gan的图像分类方法
CN111914929A (zh) * 2020-07-30 2020-11-10 南京邮电大学 零样本学习方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020172838A1 (zh) * 2019-02-26 2020-09-03 长沙理工大学 一种改进辅助分类器gan的图像分类方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN111914929A (zh) * 2020-07-30 2020-11-10 南京邮电大学 零样本学习方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘其开 ; 姜代红 ; 李文吉 ; .基于分段损失的生成对抗网络.计算机工程.2018,(第05期),全文. *
刘欢 ; 郑庆华 ; 罗敏楠 ; 赵洪科 ; 肖阳 ; 吕彦章 ; .基于跨域对抗学习的零样本分类.计算机研究与发展.2019,(第12期),全文. *

Also Published As

Publication number Publication date
CN113222002A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
Lee et al. Cfa: Coupled-hypersphere-based feature adaptation for target-oriented anomaly localization
Wang et al. Expression of Concern: Facial feature discovery for ethnicity recognition
CN113222002B (zh) 一种基于生成式鉴别性对比优化的零样本分类方法
CN108520215B (zh) 基于多尺度联合特征编码器的单样本人脸识别方法
Qian et al. Partial transfer fault diagnosis by multiscale weight-selection adversarial network
Mukhopadhyay et al. Learning dynamical systems in noise using convolutional neural networks
Luo et al. SFA: small faces attention face detector
CN111325237B (zh) 一种基于注意力交互机制的图像识别方法
CN110598759A (zh) 一种基于多模态融合的生成对抗网络的零样本分类方法
CN113610787A (zh) 图像缺陷检测模型的训练方法、装置、计算机设备
Wang et al. The application of mixed-level model in convolutional neural networks for cashmere and wool identification
Ming et al. Uniform local binary pattern based texture-edge feature for 3D human behavior recognition
Felix et al. Multi-modal ensemble classification for generalized zero shot learning
Hu et al. Semi-supervised learning based on GAN with mean and variance feature matching
Zhang et al. CNN-transformer based generative adversarial network for copy-move source/target distinguishment
CN115309860A (zh) 基于伪孪生网络的虚假新闻检测方法
Pouthier et al. Active speaker detection as a multi-objective optimization with uncertainty-based multimodal fusion
Ayeche et al. Facial Expressions Recognition Based on Delaunay Triangulation of Landmark and Machine Learning.
CN115758159A (zh) 基于混合对比学习和生成式数据增强的零样本文本立场检测方法
Zhang et al. Thinking in patch: Towards generalizable forgery detection with patch transformation
Pryor et al. Deepfake Detection Analyzing Hybrid Dataset Utilizing CNN and SVM
Oh et al. Multivariate Time Series Open-Set Recognition Using Multi-Feature Extraction and Reconstruction
CN113887509A (zh) 一种基于图像集合的快速多模态视频人脸识别方法
Cheng et al. Relation-based knowledge distillation for anomaly detection
JP2020181265A (ja) 情報処理装置、システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant