CN109598279A - 基于自编码对抗生成网络的零样本学习方法 - Google Patents

基于自编码对抗生成网络的零样本学习方法 Download PDF

Info

Publication number
CN109598279A
CN109598279A CN201811134484.3A CN201811134484A CN109598279A CN 109598279 A CN109598279 A CN 109598279A CN 201811134484 A CN201811134484 A CN 201811134484A CN 109598279 A CN109598279 A CN 109598279A
Authority
CN
China
Prior art keywords
classification
sample
semantic
visual signature
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811134484.3A
Other languages
English (en)
Other versions
CN109598279B (zh
Inventor
于云龙
冀中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201811134484.3A priority Critical patent/CN109598279B/zh
Publication of CN109598279A publication Critical patent/CN109598279A/zh
Application granted granted Critical
Publication of CN109598279B publication Critical patent/CN109598279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于自编码对抗生成网络的零样本学习方法,包括:输入可见类别样本的视觉特征,以及对应的类别语义特征;输入具体的平衡参数λ及α的数值;设定参数的初始值,学习率,利用Adam优化器训练本发明所提出的自编码对抗生成网络,得到编码器和解码器的模型参数;输入未见类别的语义特征,利用已训练好的模型参数合成对应类别的视觉特征;对未见类别的测试样本进行分类。本发明能够有效地对齐视觉模态和类别语义模态之间的语义关系。将视觉信息和类别语义信息充分的交融在一起,能够更有效地挖掘两种模态之间的语义关联,合成更有效地视觉特征。

Description

基于自编码对抗生成网络的零样本学习方法
技术领域
本发明涉及一种零样本学习方法。特别是涉及一种基于自编码对抗生成网络的零样本学习方法。
背景技术
深度学习技术的进步极大地促进了机器学习和计算机视觉领域的发展。然而这些技术大都局限于监督学习,即需要大量的标注样本训练模型。在现实中,样本标注是一件极其费力的工作。因此标注样本的缺失问题是影响当前机器学习发展的瓶颈之一,需要一种在完全缺失目标类别的视觉标注数据情况下仍然能够识别这些类别的技术,零样本学习正是这样的一类技术。
零样本学习是利用可见类别的数据,辅以一定的先验知识,对未见类别(无训练数据的类别)进行识别的技术。因此,零样本学习是解决样本缺失的一种有效手段。
当前实现零样本学习的基本思路是利用可见类别(有标注数据的训练类别)的样本数据以及样本对应的类别语义特征训练模型,并利用训练模型实现未见类别(没有标注数据的测试类别)样本的分类。当前针对如何训练样本数据和类别语义之间语义关系的模型主要分为两类:一类是基于判别的模型,另一类是基于生成的模型。基于判别的模型将零样本学习看作是一种特殊的多模态学习任务。具体为,样本数据的特征和类别语义特征是分布在不同模态空间中,判别模型的任务是学习一种模型将不同模态的特征映射到同一空间,以实现不同模态之间语义相似度的度量。尽管基于判别模型的方法在零样本学习中取得了较好的效果,但这类方法容易产生域偏移问题,即利用可见类别训练的模型容易在测试类别上发生偏移。近年来,为了解决零样本学习中未见类别样本缺失的问题,研究者们提出利用生成模型合成未见类别数据特征的方法。这类方法的基本思路是利用类别的语义特征或者利用由类别的语义特征及噪声组成的联合特征作为输入学习一个能够减小生成数据和真实数据分布之间差异的模型。然而这类模型大部分只关注类别语义到视觉特征之间的语义对齐关系而忽视了视觉特征到类别语义之间的关系,这弱化了不同模态之间的对齐关系。
发明内容
本发明所要解决的技术问题是,提供一种有效地合成未见类别的样本特征,同时有效地建立不同模态之间的语义交互关系的基于自编码对抗生成网络的零样本学习方法。
本发明所采用的技术方案是:一种基于自编码对抗生成网络的零样本学习方法,包括如下步骤:
1)将可见类别样本的视觉特征x输入到编码器中,在样本对应的类别语义特征a的监督下得到隐类别语义特征和隐噪声特征所述的编码器由三层网络构成;
2)将样本对应的类别语义特征a和真实的噪声特征z输入到解码器中,在样本的真实视觉特征的监督下得到合成的样本视觉特征解码器由三层网络构成;
3)将由隐类别语义特征和隐噪声特征组成的联合特征作为假数据,将由类别语义特征a和真实的噪声特征z组成的联合特征作为真数据,输入到类别语义判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
4)将样本的视觉特征x作为真数据,合成的视觉特征作为假数据,输入到视觉判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
5)根据步骤1)和步骤2)建立自编码器的目标函数:
其中E,G分别是编码器,解码器;w,v分别是编码器和解码器对应的参数,是用于约束模型参数的正则项,表示二范数,λ表示所述正则项的平衡参数;
6)根据步骤3)建立类别语义判别器的目标函数:
其中D为语义判别器模型,表示真实的噪声特征z的期望,表示样本的视觉特征x的期望,σ表示逻辑函数,[·,·]表示连接函数,r表示语义判别器的参数;
7)根据步骤4)建立视觉判别器的目标函数:
其中D′表示视觉判别器模型,u表示视觉判别器的参数,所述目标函数的最后一项是Lipschitz约束,α是Lipschitz约束的平衡参数;
8)给定正则项的平衡参数λ和Lipschitz约束的平衡参数α的具体值,利用Adam优化器对模型参数进行优化,得到模型参数的最优值;
9)输入未见类别的语义特征at,利用已训练好的模型参数合成对应类别的视觉特征;
10)对未见类别的测试样本进行分类。
步骤1)中所述的编码器结构为:全连接层—隐藏层—全连接层。
步骤2)中所述的解码器结构为:全连接层—隐藏层—全连接层。
步骤8)中所述的正则项的平衡参数λ和Lipschitz约束的平衡参数α的选择范围为:[0.01,0.001,0.0001]。
步骤10)是根据分类器的不同,有不同的分类方案,若利用无参数的最近邻分类器,那么测试样本的分类是利用测试样本的视觉特征和未见类别的合成视觉特征之间的相似度实现;若利用有参数的分类器,那么测试样本的分类是利用训练合成的未见类别的视觉特征实现。
本发明的基于自编码对抗生成网络的零样本学习方法,具有以下优点:
1)能够有效地对齐视觉模态和类别语义模态之间的语义关系。本发明不仅考虑了类别语义特征到样本视觉特征的语义对齐,并且考虑了样本视觉特征到类别语义特征的对齐关系,这种双向的语义对齐能够约束合成的视觉特征能够有效地重构语义特征,包含更多的语义信息。
2)能够合成更符合真实数据分布的视觉特征。本发明包含两个对抗网络,一个类别语义对抗网络,另一个是视觉对抗网络。对于编码器:其输入是真实的视觉特征,是输入视觉对抗网络的真数据,而其输出是类别语义对抗网络的假数据;对于解码器,其输入是类别语义对抗网络的真数据,而其输出是视觉对抗网络的假数据。这两个对抗网络将视觉信息和类别语义信息充分的交融在一起,能够更有效地挖掘两种模态之间的语义关联,合成更有效地视觉特征。
附图说明
图1是本发明自编码对抗生成网络的整体流程示意图;
图2是本发明自编码对抗生成方法用于零样本学习的流程图。
具体实施方式
下面结合实施例和附图对本发明的基于自编码对抗生成网络的零样本学习方法做出详细说明。
本发明的基于自编码对抗生成网络的零样本学习方法,利用可见类别的视觉样本数据以及对应的类别语义特征训练一种基于自编码器框架下的对抗生成网络,其结构图如图1所示。方法包括如下步骤:
1)将可见类别样本的视觉特征x输入到编码器中,在样本对应的类别语义特征a的监督下得到隐类别语义特征和隐噪声特征所述的编码器由三层网络构成,所述的编码器结构为:全连接层—隐藏层—全连接层;
2)将样本对应的类别语义特征a和真实的噪声特征z输入到解码器中,在样本的真实视觉特征的监督下得到合成的样本视觉特征解码器由三层网络构成,所述的解码器结构为:全连接层—隐藏层—全连接层;
3)将由隐类别语义特征和隐噪声特征组成的联合特征作为假数据,将由类别语义特征a和真实的噪声特征z组成的联合特征作为真数据,输入到类别语义判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
4)将样本的视觉特征x作为真数据,合成的视觉特征作为假数据,输入到视觉判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
5)根据步骤1)和步骤2)建立自编码器的目标函数:
其中E,G分别是编码器,解码器;w,v分别是编码器和解码器对应的参数,是用于约束模型参数的正则项,表示二范数,λ表示所述正则项的平衡参数;
6)根据步骤3)建立类别语义判别器的目标函数:
其中D为语义判别器模型,表示真实的噪声特征z的期望,表示样本的视觉特征x的期望,σ表示逻辑函数,[·,·]表示连接函数,r表示语义判别器的参数;
7)根据步骤4)建立视觉判别器的目标函数:
其中D′表示视觉判别器模型,u表示视觉判别器的参数,所述目标函数的最后一项是Lipschitz约束,α是Lipschitz约束的平衡参数;
8)给定正则项的平衡参数λ和Lipschitz约束的平衡参数α的具体值,所述的正则项的平衡参数λ和Lipschitz约束的平衡参数α的选择范围为:[0.01,0.001,0.0001]。利用Adam优化器对模型参数进行优化,得到模型参数的最优值。
9)输入未见类别的语义特征at,利用已训练好的模型参数合成对应类别的视觉特征;
10)对未见类别的测试样本进行分类。本发明根据分类器的不同,有不同的分类方案,若利用无参数的最近邻分类器,那么测试样本的分类是利用测试样本的视觉特征和未见类别的合成视觉特征之间的相似度实现;若利用有参数的分类器,如支持向量机,softmax等,那么测试样本的分类是利用训练合成的未见类别的视觉特征实现。
将本发明的基于自编码对抗生成网络的零样本学习方法应用到零样本具体任务中的流程如图2所示,包括如下步骤:
1)输入可见类别样本的视觉特征,以及对应的类别语义特征;
2)输入具体的平衡参数λ及α的数值;
3)设定参数的初始值,学习率,利用Adam优化器训练本发明所提出的自编码对抗生成网络,得到编码器和解码器的模型参数;
4)输入未见类别的语义特征,利用已训练好的模型参数合成对应类别的视觉特征;
5)对未见类别的测试样本进行分类。

Claims (5)

1.一种基于自编码对抗生成网络的零样本学习方法,其特征在于,包括如下步骤:
1)将可见类别样本的视觉特征x输入到编码器中,在样本对应的类别语义特征a的监督下得到隐类别语义特征和隐噪声特征所述的编码器由三层网络构成;
2)将样本对应的类别语义特征a和真实的噪声特征z输入到解码器中,在样本的真实视觉特征的监督下得到合成的样本视觉特征解码器由三层网络构成;
3)将由隐类别语义特征和隐噪声特征组成的联合特征作为假数据,将由类别语义特征a和真实的噪声特征z组成的联合特征作为真数据,输入到类别语义判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
4)将样本的视觉特征x作为真数据,合成的视觉特征作为假数据,输入到视觉判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
5)根据步骤1)和步骤2)建立自编码器的目标函数:
其中E,G分别是编码器,解码器;w,v分别是编码器和解码器对应的参数,是用于约束模型参数的正则项,表示二范数,λ表示所述正则项的平衡参数;
6)根据步骤3)建立类别语义判别器的目标函数:
其中D为语义判别器模型,表示真实的噪声特征z的期望,表示样本的视觉特征x的期望,σ表示逻辑函数,[·,·]表示连接函数,r表示语义判别器的参数;
7)根据步骤4)建立视觉判别器的目标函数:
其中D′表示视觉判别器模型,u表示视觉判别器的参数,所述目标函数的最后一项是Lipschitz约束,α是Lipschitz约束的平衡参数;
8)给定正则项的平衡参数λ和Lipschitz约束的平衡参数α的具体值,利用Adam优化器对模型参数进行优化,得到模型参数的最优值;
9)输入未见类别的语义特征at,利用已训练好的模型参数合成对应类别的视觉特征;
10)对未见类别的测试样本进行分类。
2.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤1)中所述的编码器结构为:全连接层—隐藏层—全连接层。
3.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤2)中所述的解码器结构为:全连接层—隐藏层—全连接层。
4.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤8)中所述的正则项的平衡参数λ和Lipschitz约束的平衡参数α的选择范围为:[0.01,0.001,0.0001]。
5.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤10)是根据分类器的不同,有不同的分类方案,若利用无参数的最近邻分类器,那么测试样本的分类是利用测试样本的视觉特征和未见类别的合成视觉特征之间的相似度实现;若利用有参数的分类器,那么测试样本的分类是利用训练合成的未见类别的视觉特征实现。
CN201811134484.3A 2018-09-27 2018-09-27 基于自编码对抗生成网络的零样本学习方法 Active CN109598279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811134484.3A CN109598279B (zh) 2018-09-27 2018-09-27 基于自编码对抗生成网络的零样本学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811134484.3A CN109598279B (zh) 2018-09-27 2018-09-27 基于自编码对抗生成网络的零样本学习方法

Publications (2)

Publication Number Publication Date
CN109598279A true CN109598279A (zh) 2019-04-09
CN109598279B CN109598279B (zh) 2023-04-25

Family

ID=65957966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811134484.3A Active CN109598279B (zh) 2018-09-27 2018-09-27 基于自编码对抗生成网络的零样本学习方法

Country Status (1)

Country Link
CN (1) CN109598279B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097095A (zh) * 2019-04-15 2019-08-06 天津大学 一种基于多视图生成对抗网络的零样本分类方法
CN110210933A (zh) * 2019-05-21 2019-09-06 清华大学深圳研究生院 一种基于生成对抗网络的隐语义推荐方法
CN110517328A (zh) * 2019-07-12 2019-11-29 杭州电子科技大学 一种基于相关双自编码器在零次学习上的运用方法
CN110580501A (zh) * 2019-08-20 2019-12-17 天津大学 一种基于变分自编码对抗网络的零样本图像分类方法
CN110598806A (zh) * 2019-07-29 2019-12-20 合肥工业大学 一种基于参数优化生成对抗网络的手写数字生成方法
CN111881935A (zh) * 2020-06-19 2020-11-03 北京邮电大学 一种基于内容感知gan的对抗样本生成方法
CN112364893A (zh) * 2020-10-23 2021-02-12 天津大学 一种基于数据增强的半监督零样本图像分类方法
CN112529772A (zh) * 2020-12-18 2021-03-19 深圳龙岗智能视听研究院 一种零样本设置下的无监督图像转换方法
CN113642604A (zh) * 2021-07-09 2021-11-12 南京邮电大学 一种基于云边协同的音视频辅助触觉信号重建方法
CN115758159A (zh) * 2022-11-29 2023-03-07 东北林业大学 基于混合对比学习和生成式数据增强的零样本文本立场检测方法
WO2023071123A1 (zh) * 2021-10-29 2023-05-04 广东坚美铝型材厂(集团)有限公司 最大间隔的语义特征自学习方法、计算机设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160034512A1 (en) * 2014-08-04 2016-02-04 Regents Of The University Of Minnesota Context-based metadata generation and automatic annotation of electronic media in a computer network
CN106485272A (zh) * 2016-09-30 2017-03-08 天津大学 基于流形约束的跨模态嵌入的零样本分类方法
CN107679556A (zh) * 2017-09-18 2018-02-09 天津大学 基于变分自动编码器的零样本图像分类方法
CN107767384A (zh) * 2017-11-03 2018-03-06 电子科技大学 一种基于对抗训练的图像语义分割方法
CN108376267A (zh) * 2018-03-26 2018-08-07 天津大学 一种基于类别转移的零样本分类方法
WO2018161217A1 (en) * 2017-03-06 2018-09-13 Nokia Technologies Oy A transductive and/or adaptive max margin zero-shot learning method and system
CN108564121A (zh) * 2018-04-09 2018-09-21 南京邮电大学 一种基于自编码器的未知类别图像标签预测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160034512A1 (en) * 2014-08-04 2016-02-04 Regents Of The University Of Minnesota Context-based metadata generation and automatic annotation of electronic media in a computer network
CN106485272A (zh) * 2016-09-30 2017-03-08 天津大学 基于流形约束的跨模态嵌入的零样本分类方法
WO2018161217A1 (en) * 2017-03-06 2018-09-13 Nokia Technologies Oy A transductive and/or adaptive max margin zero-shot learning method and system
CN107679556A (zh) * 2017-09-18 2018-02-09 天津大学 基于变分自动编码器的零样本图像分类方法
CN107767384A (zh) * 2017-11-03 2018-03-06 电子科技大学 一种基于对抗训练的图像语义分割方法
CN108376267A (zh) * 2018-03-26 2018-08-07 天津大学 一种基于类别转移的零样本分类方法
CN108564121A (zh) * 2018-04-09 2018-09-21 南京邮电大学 一种基于自编码器的未知类别图像标签预测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ELYOR KODIROV ET AL.: ""Semantic Autoencoder for Zero-Shot Learning"", 《ARXIV》 *
冀中 等: ""一种基于直推判别字典学习的零样本分类方法"", 《软件学报》 *
陈祥凤 等: ""度量学习改进语义自编码零样本分类算法"", 《北京邮电大学学报》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097095A (zh) * 2019-04-15 2019-08-06 天津大学 一种基于多视图生成对抗网络的零样本分类方法
CN110097095B (zh) * 2019-04-15 2022-12-06 天津大学 一种基于多视图生成对抗网络的零样本分类方法
CN110210933A (zh) * 2019-05-21 2019-09-06 清华大学深圳研究生院 一种基于生成对抗网络的隐语义推荐方法
CN110517328A (zh) * 2019-07-12 2019-11-29 杭州电子科技大学 一种基于相关双自编码器在零次学习上的运用方法
CN110598806A (zh) * 2019-07-29 2019-12-20 合肥工业大学 一种基于参数优化生成对抗网络的手写数字生成方法
CN110580501B (zh) * 2019-08-20 2023-04-25 天津大学 一种基于变分自编码对抗网络的零样本图像分类方法
CN110580501A (zh) * 2019-08-20 2019-12-17 天津大学 一种基于变分自编码对抗网络的零样本图像分类方法
CN111881935A (zh) * 2020-06-19 2020-11-03 北京邮电大学 一种基于内容感知gan的对抗样本生成方法
CN112364893A (zh) * 2020-10-23 2021-02-12 天津大学 一种基于数据增强的半监督零样本图像分类方法
CN112529772A (zh) * 2020-12-18 2021-03-19 深圳龙岗智能视听研究院 一种零样本设置下的无监督图像转换方法
CN112529772B (zh) * 2020-12-18 2024-05-28 深圳龙岗智能视听研究院 一种零样本设置下的无监督图像转换方法
CN113642604A (zh) * 2021-07-09 2021-11-12 南京邮电大学 一种基于云边协同的音视频辅助触觉信号重建方法
CN113642604B (zh) * 2021-07-09 2023-08-18 南京邮电大学 一种基于云边协同的音视频辅助触觉信号重建方法
WO2023071123A1 (zh) * 2021-10-29 2023-05-04 广东坚美铝型材厂(集团)有限公司 最大间隔的语义特征自学习方法、计算机设备及存储介质
CN115758159B (zh) * 2022-11-29 2023-07-21 东北林业大学 基于混合对比学习和生成式数据增强的零样本文本立场检测方法
CN115758159A (zh) * 2022-11-29 2023-03-07 东北林业大学 基于混合对比学习和生成式数据增强的零样本文本立场检测方法

Also Published As

Publication number Publication date
CN109598279B (zh) 2023-04-25

Similar Documents

Publication Publication Date Title
CN109598279A (zh) 基于自编码对抗生成网络的零样本学习方法
CN111476294B (zh) 一种基于生成对抗网络的零样本图像识别方法及系统
CN110580501B (zh) 一种基于变分自编码对抗网络的零样本图像分类方法
CN111754596B (zh) 编辑模型生成、人脸图像编辑方法、装置、设备及介质
Brekke et al. Multimodal 3d object detection from simulated pretraining
CN110826462A (zh) 一种非局部双流卷积神经网络模型的人体行为识别方法
CN110706300A (zh) 虚拟形象生成方法及装置
CN106096642A (zh) 基于鉴别局部保持投影的多模态情感特征融合方法
Peng et al. Contour-enhanced CycleGAN framework for style transfer from scenery photos to Chinese landscape paintings
CN104573726B (zh) 基于四等分及各成分重构误差最优组合的人脸图像识别方法
CN110415261A (zh) 一种分区域训练的表情动画转换方法及系统
Li et al. Segmentation of discrete vector fields
Ardhianto et al. Generative deep learning for visual animation in landscapes design
Yi et al. Improving synthetic to realistic semantic segmentation with parallel generative ensembles for autonomous urban driving
CN113111906B (zh) 一种基于单对图像训练的条件生成对抗网络模型的方法
Wang et al. Integrated design system of voice-visual VR based on multi-dimensional information analysis
Hu Visual Health Analysis of Print Advertising Graphic Design Based on Image Segmentation and Few‐Shot Learning
Wang Research and Application Analysis of Correlative Optimization Algorithms for GAN
He et al. Automatic generation algorithm analysis of dance movements based on music–action association
Luo et al. Clarifying origin-destination flows using force-directed edge bundling layout
Jia et al. Facial expression synthesis based on motion patterns learned from face database
Tarakanov et al. Immunocomputing of hydroacoustic fields.
Pitts et al. A parametric approach to 3D massing and density modelling
Jin et al. SAW-GAN: Multi-granularity Text Fusion Generative Adversarial Networks for text-to-image generation
Weijun 3D Indoor Scene Synthesis System Based on Collaborative Retrieval

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant