CN110097095A - 一种基于多视图生成对抗网络的零样本分类方法 - Google Patents

一种基于多视图生成对抗网络的零样本分类方法 Download PDF

Info

Publication number
CN110097095A
CN110097095A CN201910301398.5A CN201910301398A CN110097095A CN 110097095 A CN110097095 A CN 110097095A CN 201910301398 A CN201910301398 A CN 201910301398A CN 110097095 A CN110097095 A CN 110097095A
Authority
CN
China
Prior art keywords
generator
visual signature
sample
training
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910301398.5A
Other languages
English (en)
Other versions
CN110097095B (zh
Inventor
冀中
王俊月
于云龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201910301398.5A priority Critical patent/CN110097095B/zh
Publication of CN110097095A publication Critical patent/CN110097095A/zh
Application granted granted Critical
Publication of CN110097095B publication Critical patent/CN110097095B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

一种基于多视图生成对抗网络的零样本分类方法,首次将多视图生成对抗网络引入零样本学习中,通过将属性特征和文本矢量特征同时输入网络,构建了一个具有两个生成器和一个三输入辨别器的网络结构,不仅完成了视觉特征的生成过程,而且保证了不同视图间的对齐关系,设计了适合于图像数据特征的零样本分类技术。由此,本发明能够合成更趋近于真实分布的视觉特征。考虑到属性特征和文本矢量特征的对应关系,使生成的视觉特征具有相似的数据分布,既可以完成视觉特征与类别语义特征的关联,也完成了类别语义信息间的关联,合成更真实的视觉特征。

Description

一种基于多视图生成对抗网络的零样本分类方法
技术领域
本发明涉及一种零样本分类方法。特别是涉及一种基于多视图生成对抗网络的零样本分类方法。
背景技术
深度学习极大地促进了计算机视觉的发展,例如物体分类,图像检索和动作识别等。这些任务的性能通常在利用大量的标注数据训练后进行评估。然而,一些任务只有一小部分训练数据甚至没有训练数据,使得传统分类模型性能较差。基于此,零样本学习引起了广泛关注。其任务就是对没有训练数据的类别进行分类。在零样本学习中,数据分为两部分,分别是训练数据(可见类别)和测试数据(未见类别),并且两者的类别是不同的。对未见类别的识别通常由从可见类别到未见类别的知识迁移实现,借助了可见类别与未见类别共享的类别语义特征,包括属性特征和文本矢量特征。
图像由视觉特征表示,与类别语义特征之间存在语义鸿沟。为了建立视觉特征与类别语义特征间的关联,常见的方法包括线性映射方法和深度学习方法。其主要包括两个步骤,首先学习视觉空间和类别语义空间之间的关联关系,然后利用学习到的关联关系计算测试数据的视觉特征和未见类别的类别语义特征间的相似度,取相似度较大的类别为测试数据的标签。
生成对抗网络是基于深度学习的一个模型,其是作为一个可以学习特定数据分布的生成模型。生成对抗网络主要解决的是生成类问题,可以利用一段任意的随机数生成图像。其包括两个网络模型,一个生成模型G(Generator)和一个判别模型D(Discriminator)。G以随机噪声作为输入,生成一张图像G(z),然后将G(z)和真实图像x输入到D中,对G(z)和x做二分类,判断两者属于真实图像的概率。G和D会根据D输出的情况不断改进自己,G尽可能的提高G(z)和x的相似度来欺骗D,而D则会通过学习尽可能的不被G欺骗。当生成的图像与真实图像没有差别,也就是D的输出为0.5时,G获得了生成图像的能力。当把类别信息和噪声共同输入到G中时,可以生成满足特定分布的图像,以此在零样本方法中使用。
现存的基于生成数据的方法主要包括以下步骤:
1)利用训练样本,通过线性模型或者深度模型实现由属性空间A到视觉空间X的映射:
2)利用训练样本学习到的映射关系f将测试样本的属性特征映射到视觉空间,得到测试样本各个类别对应的预测视觉特征。
3)利用预测得到的视觉特征与测试样本的真实视觉特征间的相似度关系,确定测试样本所属类别。通常确定类别使用的判别标准为最近邻方法。
利用线性模型实现由属性空间到视觉空间的映射时,线性模型因过于简单而不能完成对属性视觉间的完整表征。利用深度模型学习该映射函数时,自编码器、变分自编码器和生成对抗网络等深度模型各有优劣。自编码器只能完成一对一的映射,变分自编码器由于变分下限的引入使生成的视觉特征易于失真,生成对抗网络则存在模式崩溃的问题。其中,生成对抗网络利用生成器G和辨别器D间的对抗学习,训练一个可以拟合真实视觉特征的生成器G。
一个视觉图像可以具有多种视图的描述,但现有的生成对抗方法通常只将属性作为输入得到生成的图像,这样保证了属性与图像间的关联关系,但忽略了生成图像与其他视图间的对应关系,造成同一图像不同视图间的不对等。
发明内容
本发明所要解决的技术问题是,提供一种能够合成更趋近于真实分布的视觉特征的基于多视图生成对抗网络的零样本分类方法。
本发明所采用的技术方案是:一种基于多视图生成对抗网络的零样本分类方法,首先,假设x为训练样本的视觉特征,a为训练样本的属性特征,w为训练样本的文本矢量特征,xt为测试样本的视觉特征,at为测试样本的属性特征,包括如下步骤:
1)分别初始化用于生成对抗网络的辨别器D、第一生成器G1和第二生成器G2的参数:d、v和r;
2)将训练样本的属性特征a和训练样本的文本矢量特征w随机选取一个设定批量数据,分别作为第一生成器G1和第二生成器G2的输入,得到相应的第一视觉特征xatt和第二视觉特征xword
3)将训练样本的视觉特征x、生成的第一视觉特征xatt和第二视觉特征xword分别随机选取一个设定批量,作为辨别器D的输入;
4)设定目标函数公式如下:
其中,Εx、Εa和Εw分别代表训练样本的视觉特征x、训练样本的属性特征a和训练样本的文本矢量特征w的分布,log为取对数运算,σ为softmax函数,d为辨别器D的参数,G1为第一生成器,G2为第二生成器;
5)根据目标函数公式,使用Adam优化器训练辨别器D,保留使辨别器D性能最好的参数d;
6)根据目标函数公式,使用Adam优化器训练第一生成器G1,保留使第一生成器G1性能最好的参数v;
7)根据目标函数公式,使用Adam优化器训练第二生成器G2,保留使第二生成器G2性能最好的参数r;
8)使用步骤6)和步骤7)得到的参数v和r,分别输入到第一生成器G1和第二生成器G2,得到相应训练后的第一视觉特征和训练后的第二视觉特征
9)根据如下公式计算正则损失L,并使用Adam优化器更新使正则损失最小的参数v和r:
其中N为可见类别的个数,为2范数表示,为第一视觉特征xatt的第i个样本,为第二视觉特征xword的第i个样本;
10)重复步骤5)~步骤9),得到辨别器D、第一生成器G1和第二生成器G2的最终参数d,v和r;
11)将测试样本的属性特征at输入到第一生成器G1中,根据得到未见类别的生成视觉特征
12)根据欧氏距离最小为原则,计算所有未见类别的生成视觉特征分别与测试样本的视觉特征xt间的距离,其中,最小距离为预测的类别标签。
步骤1)所述的第一生成器G1和第二生成器G2结构相同,都是由两个全连接层级联构成,
当把训练样本的属性特征a输入到第一生成器G1中时,得到对应的第一视觉特征xatt
xatt=G1(a,v) (1)
当把训练样本的文本矢量特征w输入到第二生成器G2时,得到对应的第二视觉特征xword
xword=G2(w,r) (2)
其中,v和r分别为第一生成器G1和第二生成器G2的参数。
步骤4)所述的辨别器D有三个输入,分别为训练样本的视觉特征x、第一视觉特征xatt和第二视觉特征xword;训练样本的视觉特征x对应真实的视觉特征,第一视觉特征xatt和第二视觉特征xword是生成的视觉特征,属于假的视觉特征。
本发明的一种基于多视图生成对抗网络的零样本分类方法,利用多视图生成对抗网络的方法模拟视觉特征的生成过程以及同一图像不同视图的对应关系,更好的探究了视觉特征的分布,具有如下有益效果:
本发明首次将多视图生成对抗网络引入零样本学习中,通过将属性特征和文本矢量特征同时输入网络,构建了一个具有两个生成器和一个三输入辨别器的网络结构,不仅完成了视觉特征的生成过程,而且保证了不同视图间的对齐关系,设计了适合于图像数据特征的零样本分类技术。由此,本发明能够合成更趋近于真实分布的视觉特征。考虑到属性特征和文本矢量特征的对应关系,使生成的视觉特征具有相似的数据分布,既可以完成视觉特征与类别语义特征的关联,也完成了类别语义信息间的关联,合成更真实的视觉特征。
附图说明
图1是发明一种基于多视图生成对抗网络的零样本分类方法的流程图。
具体实施方式
下面结合实施例和附图对本发明的一种基于多视图生成对抗网络的零样本分类方法做出详细说明。
零样本学习通过引入可见类别与未见类别共享的类别语义信息以达到知识迁移的作用,完成对测试样本类别的预测。假设在训练阶段给出了可见类别的数据{xi,ai,wi,yi}n,其中n为可见类别样本总数,xi∈Rp是可见类别第i个样本对应的视觉特征;类别语义信息包括两种,分别为属性和文本矢量,即ai∈Rq是可见类别第i个样本对应的属性特征,wi∈Rl是可见类别第i个样本对应的文本矢量特征;是可见类别第i个样本对应的类别标签;p、q和l分别是视觉、属性和文本矢量空间的维度。在测试阶段,根据未见类别的属性特征和类别标签{at,yt},对其视觉特征xt进行分类,其中并且有零样本的任务就是利用可见类别的数据训练模型,进而利用训练好的模型预测未见类别的标签yt
如图1所示,本发明的一种基于多视图生成对抗网络的零样本分类方法,首先,假设x为训练样本的视觉特征,a为训练样本的属性特征,w为训练样本的文本矢量特征,xt为测试样本的视觉特征,at为测试样本的属性特征,包括,如下步骤:
1)分别初始化用于生成对抗网络的辨别器D、第一生成器G1和第二生成器G2的参数:d、v和r;所述的第一生成器G1和第二生成器G2结构相同,都是由两个全连接层级联构成,
当把训练样本的属性特征a输入到第一生成器G1中时,得到对应的第一视觉特征xatt
xatt=G1(a,v) (1)
当把训练样本的文本矢量特征w输入到第二生成器G2时,得到对应的第二视觉特征xword
xword=G2(w,r) (2)
其中,v和r分别为第一生成器G1和第二生成器G2的参数。
2)将训练样本的属性特征a和训练样本的文本矢量特征w随机选取一个设定批量数据,分别作为第一生成器G1和第二生成器G2的输入,得到相应的第一视觉特征xatt和第二视觉特征xword
3)将训练样本的视觉特征x、生成的第一视觉特征xatt和第二视觉特征xword分别随机选取一个设定批量,作为辨别器D的输入;
4)设定目标函数公式如下:
其中,Εx、Εa和Εw分别代表训练样本的视觉特征x、训练样本的属性特征a和训练样本的文本矢量特征w的分布,log为取对数运算,σ为softmax函数,d为辨别器D的参数,G1为第一生成器,G2为第二生成器;
所述的辨别器D有三个输入,分别为训练样本的视觉特征x、第一视觉特征xatt和第二视觉特征xword;训练样本的视觉特征x对应真实的(Real)视觉特征,第一视觉特征xatt和第二视觉特征xword是生成的视觉特征,属于假的(Fake)视觉特征。
5)根据目标函数公式,使用Adam优化器训练辨别器D,保留使辨别器D性能最好的参数d;
6)根据目标函数公式,使用Adam优化器训练第一生成器G1,保留使第一生成器G1性能最好的参数v;
7)根据目标函数公式,使用Adam优化器训练第二生成器G2,保留使第二生成器G2性能最好的参数r;
8)使用步骤6)和步骤7)得到的参数v和r,分别输入到第一生成器G1和第二生成器G2,得到相应训练后的第一视觉特征和训练后的第二视觉特征
9)根据如下公式计算正则损失L,并使用Adam优化器更新使正则损失最小的参数v和r:
其中N为可见类别的个数,为2范数表示,为第一视觉特征xatt的第i个样本,为第二视觉特征xword的第i个样本;
10)重复步骤5)~步骤9),得到辨别器D、第一生成器G1和第二生成器G2的最终参数d,v和r;
11)将测试样本的属性特征at输入到第一生成器G1中,根据得到未见类别的生成视觉特征
12)根据欧氏距离最小为原则,计算所有未见类别的生成视觉特征分别与测试样本的视觉特征xt间的距离,其中,最小距离为预测的类别标签。
对于零样本图像分类任务,对于测试样本的视觉特征xt,本发明利用在可见类别上训练好的多视图生成对抗网络,选择通过对抗后在验证集上性能最好的参数v和r。进而将测试样本的属性特征at输入到第一生成器G1中,得到生成的视觉特征,并计算其与真实的视觉特征间的欧氏距离。认为距离最小的类别为预测的类别,以此实现零样本分类任务。本发明通过第一生成器G1和第二生成器G2两个生成器以及正则项的作用,使生成的视觉特征保证了在不同视图下的对应关系,更加符合真实数据的特点,在零样本任务中能够实现更好的分类效果。

Claims (3)

1.一种基于多视图生成对抗网络的零样本分类方法,其特征在于,首先,假设x为训练样本的视觉特征,a为训练样本的属性特征,w为训练样本的文本矢量特征,xt为测试样本的视觉特征,at为测试样本的属性特征,包括,如下步骤:
1)分别初始化用于生成对抗网络的辨别器D、第一生成器G1和第二生成器G2的参数:d、v和r;
2)将训练样本的属性特征a和训练样本的文本矢量特征w随机选取一个设定批量数据,分别作为第一生成器G1和第二生成器G2的输入,得到相应的第一视觉特征xatt和第二视觉特征xword
3)将训练样本的视觉特征x、生成的第一视觉特征xatt和第二视觉特征xword分别随机选取一个设定批量,作为辨别器D的输入;
4)设定目标函数公式如下:
其中,Εx、Εa和Εw分别代表训练样本的视觉特征x、训练样本的属性特征a和训练样本的文本矢量特征w的分布,log为取对数运算,σ为softmax函数,d为辨别器D的参数,G1为第一生成器,G2为第二生成器;
5)根据目标函数公式,使用Adam优化器训练辨别器D,保留使辨别器D性能最好的参数d;
6)根据目标函数公式,使用Adam优化器训练第一生成器G1,保留使第一生成器G1性能最好的参数v;
7)根据目标函数公式,使用Adam优化器训练第二生成器G2,保留使第二生成器G2性能最好的参数r;
8)使用步骤6)和步骤7)得到的参数v和r,分别输入到第一生成器G1和第二生成器G2,得到相应训练后的第一视觉特征和训练后的第二视觉特征
9)根据如下公式计算正则损失L,并使用Adam优化器更新使正则损失最小的参数v和r:
其中N为可见类别的个数,为2范数表示,为第一视觉特征xatt的第i个样本,为第二视觉特征xword的第i个样本;
10)重复步骤5)~步骤9),得到辨别器D、第一生成器G1和第二生成器G2的最终参数d,v和r;
11)将测试样本的属性特征at输入到第一生成器G1中,根据得到未见类别的生成视觉特征
12)根据欧氏距离最小为原则,计算所有未见类别的生成视觉特征分别与测试样本的视觉特征xt间的距离,其中,最小距离为预测的类别标签。
2.根据权利要求1所述的一种基于多视图生成对抗网络的零样本分类方法,其特征在于,步骤1)所述的第一生成器G1和第二生成器G2结构相同,都是由两个全连接层级联构成,
当把训练样本的属性特征a输入到第一生成器G1中时,得到对应的第一视觉特征xatt
xatt=G1(a,v) (1)
当把训练样本的文本矢量特征w输入到第二生成器G2时,得到对应的第二视觉特征xword
xword=G2(w,r) (2)
其中,v和r分别为第一生成器G1和第二生成器G2的参数。
3.根据权利要求1所述的一种基于多视图生成对抗网络的零样本分类方法,其特征在于,步骤4)所述的辨别器D有三个输入,分别为训练样本的视觉特征x、第一视觉特征xatt和第二视觉特征xword;训练样本的视觉特征x对应真实的视觉特征,第一视觉特征xatt和第二视觉特征xword是生成的视觉特征,属于假的视觉特征。
CN201910301398.5A 2019-04-15 2019-04-15 一种基于多视图生成对抗网络的零样本分类方法 Active CN110097095B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910301398.5A CN110097095B (zh) 2019-04-15 2019-04-15 一种基于多视图生成对抗网络的零样本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910301398.5A CN110097095B (zh) 2019-04-15 2019-04-15 一种基于多视图生成对抗网络的零样本分类方法

Publications (2)

Publication Number Publication Date
CN110097095A true CN110097095A (zh) 2019-08-06
CN110097095B CN110097095B (zh) 2022-12-06

Family

ID=67444946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910301398.5A Active CN110097095B (zh) 2019-04-15 2019-04-15 一种基于多视图生成对抗网络的零样本分类方法

Country Status (1)

Country Link
CN (1) CN110097095B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580501A (zh) * 2019-08-20 2019-12-17 天津大学 一种基于变分自编码对抗网络的零样本图像分类方法
CN110598759A (zh) * 2019-08-23 2019-12-20 天津大学 一种基于多模态融合的生成对抗网络的零样本分类方法
CN110795585A (zh) * 2019-11-12 2020-02-14 福州大学 基于生成对抗网络的零样本图像分类模型及其方法
CN110993037A (zh) * 2019-10-28 2020-04-10 浙江工业大学 一种基于多视图分类模型的蛋白质活性预测装置
CN111563554A (zh) * 2020-05-08 2020-08-21 河北工业大学 基于回归变分自编码器的零样本图像分类方法
CN112364894A (zh) * 2020-10-23 2021-02-12 天津大学 一种基于元学习的对抗网络的零样本图像分类方法
CN112529772A (zh) * 2020-12-18 2021-03-19 深圳龙岗智能视听研究院 一种零样本设置下的无监督图像转换方法
CN115424096A (zh) * 2022-11-08 2022-12-02 南京信息工程大学 一种多视角零样本图像识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107679556A (zh) * 2017-09-18 2018-02-09 天津大学 基于变分自动编码器的零样本图像分类方法
CN109492662A (zh) * 2018-09-27 2019-03-19 天津大学 一种基于对抗自编码器模型的零样本分类方法
CN109598279A (zh) * 2018-09-27 2019-04-09 天津大学 基于自编码对抗生成网络的零样本学习方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107679556A (zh) * 2017-09-18 2018-02-09 天津大学 基于变分自动编码器的零样本图像分类方法
CN109492662A (zh) * 2018-09-27 2019-03-19 天津大学 一种基于对抗自编码器模型的零样本分类方法
CN109598279A (zh) * 2018-09-27 2019-04-09 天津大学 基于自编码对抗生成网络的零样本学习方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Y. ZHU, M. ELHOSEINY, B. LIU, X. PENG ,A. ELGAMMAL: "A Generative Adversarial Approach for Zero-Shot Learning from Noisy Texts", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580501A (zh) * 2019-08-20 2019-12-17 天津大学 一种基于变分自编码对抗网络的零样本图像分类方法
CN110580501B (zh) * 2019-08-20 2023-04-25 天津大学 一种基于变分自编码对抗网络的零样本图像分类方法
CN110598759A (zh) * 2019-08-23 2019-12-20 天津大学 一种基于多模态融合的生成对抗网络的零样本分类方法
CN110993037A (zh) * 2019-10-28 2020-04-10 浙江工业大学 一种基于多视图分类模型的蛋白质活性预测装置
CN110795585B (zh) * 2019-11-12 2022-08-09 福州大学 基于生成对抗网络的零样本图像分类系统及其方法
CN110795585A (zh) * 2019-11-12 2020-02-14 福州大学 基于生成对抗网络的零样本图像分类模型及其方法
CN111563554B (zh) * 2020-05-08 2022-05-17 河北工业大学 基于回归变分自编码器的零样本图像分类方法
CN111563554A (zh) * 2020-05-08 2020-08-21 河北工业大学 基于回归变分自编码器的零样本图像分类方法
CN112364894A (zh) * 2020-10-23 2021-02-12 天津大学 一种基于元学习的对抗网络的零样本图像分类方法
CN112364894B (zh) * 2020-10-23 2022-07-08 天津大学 一种基于元学习的对抗网络的零样本图像分类方法
CN112529772A (zh) * 2020-12-18 2021-03-19 深圳龙岗智能视听研究院 一种零样本设置下的无监督图像转换方法
CN112529772B (zh) * 2020-12-18 2024-05-28 深圳龙岗智能视听研究院 一种零样本设置下的无监督图像转换方法
CN115424096A (zh) * 2022-11-08 2022-12-02 南京信息工程大学 一种多视角零样本图像识别方法
CN115424096B (zh) * 2022-11-08 2023-01-31 南京信息工程大学 一种多视角零样本图像识别方法

Also Published As

Publication number Publication date
CN110097095B (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
CN110097095A (zh) 一种基于多视图生成对抗网络的零样本分类方法
CN110580501B (zh) 一种基于变分自编码对抗网络的零样本图像分类方法
CN107132516B (zh) 一种基于深度置信网络的雷达一维距离像目标识别方法
JP6763925B2 (ja) 建築物レンダリング及びビルディングインフォメーションモデリングデータの機械学習システム
CN108875818B (zh) 基于变分自编码机与对抗网络结合的零样本图像分类方法
CN109492662A (zh) 一种基于对抗自编码器模型的零样本分类方法
CN110021051A (zh) 一种基于生成对抗网络通过文本指导的人物图像生成方法
CN106295506A (zh) 一种基于集成卷积神经网络的年龄识别方法
CN108052577A (zh) 一种通用文本内容挖掘方法、装置、服务器及存储介质
US20150147728A1 (en) Self Organizing Maps (SOMS) for Organizing, Categorizing, Browsing and/or Grading Large Collections of Assignments for Massive Online Education Systems
CN107194378B (zh) 一种基于混合字典学习的人脸识别方法及装置
CN111967533B (zh) 一种基于场景识别的草图图像翻译方法
CN106096551A (zh) 人脸部位识别的方法和装置
CN101351811A (zh) 手写识别的训练与合成
CN113642621A (zh) 基于生成对抗网络的零样本图像分类方法
Xu [Retracted] Fast Modelling Algorithm for Realistic Three‐Dimensional Human Face for Film and Television Animation
CN115290596A (zh) 一种基于fcn-acgan数据增强的隐匿危险品识别方法及设备
Liu et al. Face aging simulation with deep convolutional generative adversarial networks
CN113409157B (zh) 一种跨社交网络用户对齐方法以及装置
CN109255377A (zh) 仪器识别方法、装置、电子设备及存储介质
CN105809742B (zh) 一种数据驱动的室内场景着色方法
Wang et al. A study of the evaluation metrics for generative images containing combinational creativity
CN113869960B (zh) 海报生成方法、装置、存储介质及计算机设备
KR20210019362A (ko) Ar, vr 디자인 시뮬레이션 콘텐츠
Dev et al. Learning perceptual aesthetics of 3-D shapes from multiple views

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant