CN110135459A - 一种基于双三元组深度度量学习网络的零样本分类方法 - Google Patents
一种基于双三元组深度度量学习网络的零样本分类方法 Download PDFInfo
- Publication number
- CN110135459A CN110135459A CN201910300850.6A CN201910300850A CN110135459A CN 110135459 A CN110135459 A CN 110135459A CN 201910300850 A CN201910300850 A CN 201910300850A CN 110135459 A CN110135459 A CN 110135459A
- Authority
- CN
- China
- Prior art keywords
- sample
- semantic feature
- network
- visual signature
- triple
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于双三元组深度度量学习网络的零样本分类方法,将样本的语义特征输入到映射网络,输出到视觉空间。在视觉空间中,选择一对属于同一类别的语义特征和视觉特征构成正样本对,然后再选取一个与正样本对不同类别的语义特征,构成三元组,输入到语义引导的三元组网络;同时,选择一对属于同一类别的语义特征和视觉特征构成正样本对,然后再选取一个与正样本对不同类别的视觉特征,构成三元组,输入到视觉引导的三元组网络。最后将语义引导的三元组网络和视觉引导的三元组网络的输出,输入到双三元组损失函数中计算。最后使用最近邻分类器对测试样本进行分类。本发明结构实现简单,训练方法更加简单,训练参数较少,在计算机硬件设备较差的情形下仍能训练。
Description
技术领域
本发明涉及一种零样本分类方法。特别是涉及一种基于双三元组深度度量学习网络的零样本分类方法。
背景技术
近年来,因为在大规模数据集分类任务上的突出性能,深度学习得到了大力发展。但是一个突出的问题也愈加明显,带有标注的数据需要花费大量的人力物力来获得,甚至在有些情况下极难获得,如濒危动物的图像。相比于深度学习需要大量带标注的数据,人类仅仅需要少量样本,甚至不需要样本就可以进行识别任务。例如当一个人在已经认识猫的情况下,告知他老虎的额头还有“王”字花纹,他极有可能辨别出老虎。正是受到人类这一能力的启发,学者们开始研究零样本分类。零样本分类通过对可见类的学习,利用语义特征,达到识别未见类的目的。可见类与未见类通过语义特征建立联系,语义特征可以是属性特征也可以是词向量。
现有的大部分零样本分类方法都是采用映射的方法,将视觉特征和语义特征映射到同一空间中,使用可见类的样本来学习这一映射,测试时采用最近邻分类器,也就是距离测试样本最近的语义特征的标签即为测试样本的预测标签。这种基于映射的方法,由于在测试阶段采用最近邻分类法,所以在训练过程中样本间的距离度量是十分关键的。在零样本分类中,一些学者也采用度量学习的方法来解决零样本分类问题。具体地是,此类方法利用某种映射,再使用某种相似度度量方法,使得映射后样本的视觉特征和语义特征间,属于同一类别的特征相似度高,不同类别特征相似度低。然而此类方法没有充分利用样本的视觉特征和语义特征间的区别与联系。
发明内容
本发明所要解决的技术问题是,提供一种能够更加全面地学习类别之间的异同信息基于双三元组深度度量学习网络的零样本分类方法。
本发明所采用的技术方案是:一种基于双三元组深度度量学习网络的零样本分类方法,首先,利用卷积神经网络提取样本图像视觉特征;利用人工标注的属性特征作为样本语义特征,方法包括训练阶段和测试阶段:训练阶段,首先将训练样本语义特征输入到映射网络,映射网络的输出到视觉空间;在视觉空间中,选择一对属于同一类别的训练样本语义特征和训练样本视觉特征构成正样本对,再选取一个与正样本对不同类别的训练样本语义特征,构成三元组,输入到由语义特征作负样本的三元组网络;同时,选择一对属于同一类别的训练样本语义特征和训练样本视觉特征构成正样本对,再选取一个与正样本对不同类别的训练样本视觉特征,构成三元组,输入到由视觉特征作负样本的三元组网络;最后将由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络的输出,输入到双三元组损失函数中计算损失,用以对映射网络、由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络进行优化训练,选取由语义特征作负样本的三元组网络中的一个网络作为最终的深度度量学习网络;测试阶段,将测试样本视觉特征输入到训练完成的映射网络,得到的输出分别与不同类别的测试样本语义特征输入到训练得到的深度度量学习网络,深度度量学习网络输出得到测试样本视觉特征与不同类别的测试样本语义特征的相似度,使用最近邻分类器对样本进行分类,其中相似度最大的测试样本语义特征标注的类别作为样本视觉特征的类别。
所述双三元组损失函数l(x,a)表示如下:
s.t.s(x,a)=d(g(x),g(f(a))) (1)
其中,s(x,a)代表样本视觉特征和样本语义特征的距离,其中x,a是同类别的样本视觉特征和样本语义特征,a′代表不同类的样本语义特征,x′代表不同类的样本视觉特征,α是正负样本的距离间隔,属于超参数;Ω(Wf),Ω(Wg)是映射网络和深度度量学习网络的正则项,Wf和Wg是映射网络和度量网络的权重,λ是正则项系数,f(·)表示语义特征到视觉特征的映射网络,g(·)表示深度度量学习网络,d(·,·)表示两个特征的欧氏距离。
具体包括如下步骤:
1)在训练阶段,将样本语义特征通过三层的神经网络映射到视觉空间,把一个h维度的样本语义特征向量转换为和样本视觉特征同维度的d维特征向量,把样本语义特征矩阵A∈ Rh×k作为输入,每一行代表一个类别的样本语义特征向量,h是样本语义特征的维度,k是样本的类别数,经过一个h×l×d的三层神经网络,得到变换后的样本语义特征矩阵:f(A)∈ Rd×k,其中l为整数,且h<l<d;
2)在视觉空间中将变换后的样本语义特征矩阵f(A)∈Rd×k和原有的样本视觉特征矩阵 X∈Rd×m作为输入,d是视觉特征的维度,m是训练样本的数目,X中的每一行代表一个样本视觉特征;经过一个d×p×d的三层神经网络,分别得到二次变换后的样本语义特征矩阵和一次变换后的样本视觉特征矩阵g(f(A))∈Rd×k,g(X)∈Rd×m,其中p为整数,且0<p< d;
3)利用到二次变换后的样本语义特征矩阵和一次变换后的样本视觉特征矩阵g(f(A))∈ Rd×k,g(X)∈Rd×m计算出所有样本语义特征和所有样本视觉的欧氏距离,得到距离矩阵D∈ Rm×k,其中dij的元素就代表第i个样本的视觉特征与第j类语义特征的距离;
4)在距离矩阵D∈Rm×k中,选取同类别的样本语义特征和样本视觉特征作为正样本对,再选取与正样本对不同类的样本语义特征作为负样本,共同输入到一个由语义特征作负样本的三元组网络;
5)同时在距离矩阵D∈Rm×k中,选取同类别的样本语义特征和样本视觉特征作为正样本对,再选取与正样本对不同类的样本视觉特征作为负样本,共同输入到一个由视觉特征作负样本的三元组网络;
6)使用双三元组损失函数l(x,a)公式作为目标函数,对映射网络、由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络进行优化训练;
7)在测试阶段,将测试样本语义特征通过训练好的映射网络映射到视觉空间,然后将测试样本视觉特征和将测试样本语义特征逐一经过深度度量学习网络进行距离度量,使用最近邻分类器对样本进行分类,其中相似度最大的测试样本语义特征标注的类别作为样本视觉特征的类别,在传统零样本分类和广义零样本分类中,分别使用如下公式进行分类:
其中,XU是来自未见类标签集合U的样本视觉特征集合,AU是未见类标签集合U的样本语义特征集合,XT是来自所有类别标签集合T的样本视觉特征集合,AT是所有类别标签集合 T的样本的语义特征集合,s(xz,an)代表第z个测试样本的视觉特征xz和第n类测试样本语义特征an的距离,y和t分别代表在传统零样本分类和广义零样本分类下的测试样本的预测标签。
本发明的一种基于双三元组深度度量学习网络的零样本分类方法,更加全面地学习类别之间的异同信息,其优势主要体现在:
在零样本中除使用由语义特征作负样本的三元组网络的方法外,还使用由视觉特征作负样本的三元组网络,构成的双三元组深度度量方法。本发明在使用语义特征作负样本进行数据挖掘的同时,引入视觉特征作负样本进行数据发掘,两者之间形成相互的约束,充分考虑了语义负样本和视觉负样本的差异,充足的利用了所有样本特征之间的信息。与现存的零样本分类方法相比,本发明设计的基于双三元组深度度量零样本分类方法在Animals with Attributes(AwA),Caltech-UCSD,Birds-200-2011(CUB)和aPascal&aYahoo(aPY)三个数据集中的测试表明,本发明分类准确性达到领域内最先进水平。此外,本发明结构实现简单,相比于其他性能接近的零样本方法,训练方法更加简单,训练参数较少,在计算机硬件设备较差的情形下仍能训练。
附图说明
图1是本发明一种基于双三元组深度度量学习网络的零样本分类方法的流程图;
图2是本发明中由语义特征作负样本的三元组网络流程图;
图3是本发明中由视觉特征作负样本的三元组网络流程图。
具体实施方式
下面结合实施例和附图对本发明的一种基于双三元组深度度量学习网络的零样本分类方法做出详细说明。
如图1所示,本发明的一种基于双三元组深度度量学习网络的零样本分类方法,首先,利用卷积神经网络提取样本图像视觉特征;利用人工标注的属性特征作为样本语义特征,其方法包括训练阶段和测试阶段:训练阶段,首先将训练样本语义特征输入到映射网络,映射网络的输出到视觉空间;在视觉空间中,选择一对属于同一类别的训练样本语义特征和训练样本视觉特征构成正样本对,再选取一个与正样本对不同类别的训练样本语义特征,构成三元组,输入到图2所示的由语义特征作负样本的三元组网络;同时,选择一对属于同一类别的训练样本语义特征和训练样本视觉特征构成正样本对,再选取一个与正样本对不同类别的训练样本视觉特征,构成三元组,输入到图3所示的由视觉特征作负样本的三元组网络;最后将由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络的输出,输入到双三元组损失函数中计算损失,用以对映射网络、由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络进行优化训练,选取由语义特征作负样本的三元组网络中的一个网络作为最终的深度度量学习网络;测试阶段,将测试样本视觉特征输入到训练完成的映射网络,得到的输出分别与不同类别的测试样本语义特征输入到训练得到的深度度量学习网络,深度度量学习网络输出得到测试样本视觉特征与不同类别的测试样本语义特征的相似度,使用最近邻分类器对样本进行分类,其中相似度最大的测试样本语义特征标注的类别作为样本视觉特征的类别。测试时,传统零样本设置下,测试样本来自未知类别,预测标签也只能是未见类,而广义零样本则把这个范围扩大到包含可见类和未见类。
所述双三元组损失函数l(x,a)表示如下:
s.t.s(x,a)=d(g(x),g(f(a))) (1)
其中,s(x,a)代表样本视觉特征和样本语义特征的距离,其中x,a是同类别的样本视觉特征和样本语义特征,a′代表不同类的样本语义特征,x′代表不同类的样本视觉特征,α是正负样本的距离间隔,属于超参数;Ω(Wf),Ω(Wg)是映射网络和深度度量学习网络的正则项,Wf和Wg是映射网络和度量网络的权重,λ是正则项系数,f(·)表示语义特征到视觉特征的映射网络,g(·)表示深度度量学习网络,d(·,·)表示两个特征的欧氏距离。
本发明的一种基于双三元组深度度量学习网络的零样本分类方法,具体包括如下步骤:
1)在训练阶段,将样本语义特征通过三层的神经网络映射到视觉空间,把一个h维度的样本语义特征向量转换为和样本视觉特征同维度的d维特征向量,把样本语义特征矩阵A∈ Rh×k作为输入,每一行代表一个类别的样本语义特征向量,h是样本语义特征的维度,k是样本的类别数,经过一个h×l×d的三层神经网络,得到变换后的样本语义特征矩阵:f(A)∈ Rd×k,其中l为整数,且h<l<d;
2)在视觉空间中将变换后的样本语义特征矩阵f(A)∈Rd×k和原有的样本视觉特征矩阵 X∈Rd×m作为输入,d是视觉特征的维度,m是训练样本的数目,X中的每一行代表一个样本视觉特征;经过一个d×p×d的三层神经网络,分别得到二次变换后的样本语义特征矩阵和一次变换后的样本视觉特征矩阵g(f(A))∈Rd×k,g(X)∈Rd×m,其中p为整数,且0<p< d;
3)利用到二次变换后的样本语义特征矩阵和一次变换后的样本视觉特征矩阵g(f(A))∈ Rd×k,g(X)∈Rd×m计算出所有样本语义特征和所有样本视觉的欧氏距离,得到距离矩阵D∈ Rm×k,其中dij的元素就代表第i个样本的视觉特征与第j类语义特征的距离;
4)在距离矩阵D∈Rm×k中,选取同类别的样本语义特征和样本视觉特征作为正样本对,再选取与正样本对不同类的样本语义特征作为负样本,共同输入到一个由语义特征作负样本的三元组网络;
5)同时在距离矩阵D∈Rm×k中,选取同类别的样本语义特征和样本视觉特征作为正样本对,再选取与正样本对不同类的样本视觉特征作为负样本,共同输入到一个由视觉特征作负样本的三元组网络;
6)使用双三元组损失函数l(x,a)公式作为目标函数,对映射网络、由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络进行优化训练;
7)在测试阶段,将测试样本语义特征通过训练好的映射网络映射到视觉空间,然后将测试样本视觉特征和将测试样本语义特征逐一经过深度度量学习网络进行距离度量,使用最近邻分类器对样本进行分类,其中相似度最大的测试样本语义特征标注的类别作为样本视觉特征的类别,在传统零样本分类和广义零样本分类中,分别使用如下公式进行分类:
其中,XU是来自未见类标签集合U的样本视觉特征集合,AU是未见类标签集合U的样本语义特征集合,XT是来自所有类别标签集合T的样本视觉特征集合,AT是所有类别标签集合T的样本的语义特征集合,s(xz,an)代表第z个测试样本的视觉特征xz和第n类测试样本语义特征 an的距离,y和t分别代表在传统零样本分类和广义零样本分类下的测试样本的预测标签。
Claims (3)
1.一种基于双三元组深度度量学习网络的零样本分类方法,首先,利用卷积神经网络提取样本图像视觉特征;利用人工标注的属性特征作为样本语义特征,其特征在于,方法包括训练阶段和测试阶段:训练阶段,首先将训练样本语义特征输入到映射网络,映射网络的输出到视觉空间;在视觉空间中,选择一对属于同一类别的训练样本语义特征和训练样本视觉特征构成正样本对,再选取一个与正样本对不同类别的训练样本语义特征,构成三元组,输入到由语义特征作负样本的三元组网络;同时,选择一对属于同一类别的训练样本语义特征和训练样本视觉特征构成正样本对,再选取一个与正样本对不同类别的训练样本视觉特征,构成三元组,输入到由视觉特征作负样本的三元组网络;最后将由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络的输出,输入到双三元组损失函数中计算损失,用以对映射网络、由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络进行优化训练,选取由语义特征作负样本的三元组网络中的一个网络作为最终的深度度量学习网络;测试阶段,将测试样本视觉特征输入到训练完成的映射网络,得到的输出分别与不同类别的测试样本语义特征输入到训练得到的深度度量学习网络,深度度量学习网络输出得到测试样本视觉特征与不同类别的测试样本语义特征的相似度,使用最近邻分类器对样本进行分类,其中相似度最大的测试样本语义特征标注的类别作为样本视觉特征的类别。
2.根据权利要求1所述的一种基于双三元组深度度量学习网络的零样本分类方法,其特征在于,所述双三元组损失函数l(x,a)表示如下:
s.t.s(x,a)=d(g(x),g(f(a))) (1)
其中,s(x,a)代表样本视觉特征和样本语义特征的距离,其中x,a是同类别的样本视觉特征和样本语义特征,a′代表不同类的样本语义特征,x′代表不同类的样本视觉特征,α是正负样本的距离间隔,属于超参数;Ω(Wf),Ω(Wg)是映射网络和深度度量学习网络的正则项,Wf和Wg是映射网络和度量网络的权重,λ是正则项系数,f(·)表示语义特征到视觉特征的映射网络,g(·)表示深度度量学习网络,d(·,·)表示两个特征的欧氏距离。
3.根据权利要求1所述的一种基于双三元组深度度量学习网络的零样本分类方法,其特征在于,具体包括如下步骤:
1)在训练阶段,将样本语义特征通过三层的神经网络映射到视觉空间,把一个h维度的样本语义特征向量转换为和样本视觉特征同维度的d维特征向量,把样本语义特征矩阵A∈Rh×k作为输入,每一行代表一个类别的样本语义特征向量,h是样本语义特征的维度,k是样本的类别数,经过一个h×l×d的三层神经网络,得到变换后的样本语义特征矩阵:f(A)∈Rd×k,其中l为整数,且h<l<d;
2)在视觉空间中将变换后的样本语义特征矩阵f(A)∈Rd×k和原有的样本视觉特征矩阵X∈Rd×m作为输入,d是视觉特征的维度,m是训练样本的数目,X中的每一行代表一个样本视觉特征;经过一个d×p×d的三层神经网络,分别得到二次变换后的样本语义特征矩阵和一次变换后的样本视觉特征矩阵g(f(A))∈Rd×k,g(X)∈Rd×m,其中p为整数,且0<p<d;
3)利用到二次变换后的样本语义特征矩阵和一次变换后的样本视觉特征矩阵g(f(A))∈Rd×k,g(X)∈Rd×m计算出所有样本语义特征和所有样本视觉的欧氏距离,得到距离矩阵D∈Rm×k,其中dij的元素就代表第i个样本的视觉特征与第j类语义特征的距离;
4)在距离矩阵D∈Rm×k中,选取同类别的样本语义特征和样本视觉特征作为正样本对,再选取与正样本对不同类的样本语义特征作为负样本,共同输入到一个由语义特征作负样本的三元组网络;
5)同时在距离矩阵D∈Rm×k中,选取同类别的样本语义特征和样本视觉特征作为正样本对,再选取与正样本对不同类的样本视觉特征作为负样本,共同输入到一个由视觉特征作负样本的三元组网络;
6)使用双三元组损失函数l(x,a)公式作为目标函数,对映射网络、由语义特征作负样本的三元组网络和由视觉特征作负样本的三元组网络进行优化训练;
7)在测试阶段,将测试样本语义特征通过训练好的映射网络映射到视觉空间,然后将测试样本视觉特征和将测试样本语义特征逐一经过深度度量学习网络进行距离度量,使用最近邻分类器对样本进行分类,其中相似度最大的测试样本语义特征标注的类别作为样本视觉特征的类别,在传统零样本分类和广义零样本分类中,分别使用如下公式进行分类:
其中,XU是来自未见类标签集合U的样本视觉特征集合,AU是未见类标签集合U的样本语义特征集合,XT是来自所有类别标签集合T的样本视觉特征集合,AT是所有类别标签集合T的样本的语义特征集合,s(xz,an)代表第z个测试样本的视觉特征xz和第n类测试样本语义特征an的距离,y和t分别代表在传统零样本分类和广义零样本分类下的测试样本的预测标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910300850.6A CN110135459B (zh) | 2019-04-15 | 2019-04-15 | 一种基于双三元组深度度量学习网络的零样本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910300850.6A CN110135459B (zh) | 2019-04-15 | 2019-04-15 | 一种基于双三元组深度度量学习网络的零样本分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110135459A true CN110135459A (zh) | 2019-08-16 |
CN110135459B CN110135459B (zh) | 2023-04-07 |
Family
ID=67569979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910300850.6A Active CN110135459B (zh) | 2019-04-15 | 2019-04-15 | 一种基于双三元组深度度量学习网络的零样本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110135459B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598790A (zh) * | 2019-09-12 | 2019-12-20 | 北京达佳互联信息技术有限公司 | 一种图像的识别方法、装置、电子设备及存储介质 |
CN110929526A (zh) * | 2019-10-28 | 2020-03-27 | 深圳绿米联创科技有限公司 | 样本生成方法、装置以及电子设备 |
CN111144466A (zh) * | 2019-12-17 | 2020-05-12 | 武汉大学 | 一种图像样本自适应的深度度量学习方法 |
CN111553378A (zh) * | 2020-03-16 | 2020-08-18 | 北京达佳互联信息技术有限公司 | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 |
CN111582069A (zh) * | 2020-04-22 | 2020-08-25 | 北京航空航天大学 | 一种空基监视平台的轨道障碍物零样本分类方法及装置 |
CN113298096A (zh) * | 2021-07-07 | 2021-08-24 | 中国人民解放军国防科技大学 | 训练零样本分类模型的方法、系统、电子设备及存储介质 |
CN113435383A (zh) * | 2021-07-07 | 2021-09-24 | 中国人民解放军国防科技大学 | 基于双三元组伪孪生架构的遥感飞机目标分类方法和装置 |
CN113673685A (zh) * | 2021-08-31 | 2021-11-19 | 西湖大学 | 基于流形学习的数据嵌入方法 |
CN115858886A (zh) * | 2022-12-12 | 2023-03-28 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备及可读存储介质 |
CN116049660A (zh) * | 2021-10-28 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备、存储介质及程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845533A (zh) * | 2017-01-05 | 2017-06-13 | 天津大学 | 基于自训练的零样本视频分类方法 |
CN107679556A (zh) * | 2017-09-18 | 2018-02-09 | 天津大学 | 基于变分自动编码器的零样本图像分类方法 |
CN108304864A (zh) * | 2018-01-17 | 2018-07-20 | 清华大学 | 深度对抗度量学习方法及装置 |
CN108376267A (zh) * | 2018-03-26 | 2018-08-07 | 天津大学 | 一种基于类别转移的零样本分类方法 |
CN109492662A (zh) * | 2018-09-27 | 2019-03-19 | 天津大学 | 一种基于对抗自编码器模型的零样本分类方法 |
WO2019055114A1 (en) * | 2017-09-12 | 2019-03-21 | Hrl Laboratories, Llc | VIEW-FREE VIEW-SENSITIVE SYSTEM FOR ATTRIBUTES THROUGH SHARED REPRESENTATIONS |
-
2019
- 2019-04-15 CN CN201910300850.6A patent/CN110135459B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845533A (zh) * | 2017-01-05 | 2017-06-13 | 天津大学 | 基于自训练的零样本视频分类方法 |
WO2019055114A1 (en) * | 2017-09-12 | 2019-03-21 | Hrl Laboratories, Llc | VIEW-FREE VIEW-SENSITIVE SYSTEM FOR ATTRIBUTES THROUGH SHARED REPRESENTATIONS |
CN107679556A (zh) * | 2017-09-18 | 2018-02-09 | 天津大学 | 基于变分自动编码器的零样本图像分类方法 |
CN108304864A (zh) * | 2018-01-17 | 2018-07-20 | 清华大学 | 深度对抗度量学习方法及装置 |
CN108376267A (zh) * | 2018-03-26 | 2018-08-07 | 天津大学 | 一种基于类别转移的零样本分类方法 |
CN109492662A (zh) * | 2018-09-27 | 2019-03-19 | 天津大学 | 一种基于对抗自编码器模型的零样本分类方法 |
Non-Patent Citations (3)
Title |
---|
ELAD HOFFER ET AL.: "Deep metric learning using triplet network", 《ARXIV:1412.6622V4》 * |
MOHAMMAD NOROUZI ET AL.: "Zero-shot learning by convex combination of semantic embeddings", 《ARXIV:1312.5650V3》 * |
冀中等: "基于局部保持典型相关分析的零样本动作识别", 《天津大学学报(自然科学与工程技术版)》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598790A (zh) * | 2019-09-12 | 2019-12-20 | 北京达佳互联信息技术有限公司 | 一种图像的识别方法、装置、电子设备及存储介质 |
CN110929526A (zh) * | 2019-10-28 | 2020-03-27 | 深圳绿米联创科技有限公司 | 样本生成方法、装置以及电子设备 |
CN110929526B (zh) * | 2019-10-28 | 2024-06-04 | 深圳绿米联创科技有限公司 | 样本生成方法、装置以及电子设备 |
CN111144466B (zh) * | 2019-12-17 | 2022-05-13 | 武汉大学 | 一种图像样本自适应的深度度量学习方法 |
CN111144466A (zh) * | 2019-12-17 | 2020-05-12 | 武汉大学 | 一种图像样本自适应的深度度量学习方法 |
CN111553378A (zh) * | 2020-03-16 | 2020-08-18 | 北京达佳互联信息技术有限公司 | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 |
CN111553378B (zh) * | 2020-03-16 | 2024-02-20 | 北京达佳互联信息技术有限公司 | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 |
CN111582069A (zh) * | 2020-04-22 | 2020-08-25 | 北京航空航天大学 | 一种空基监视平台的轨道障碍物零样本分类方法及装置 |
CN111582069B (zh) * | 2020-04-22 | 2021-05-28 | 北京航空航天大学 | 一种空基监视平台的轨道障碍物零样本分类方法及装置 |
CN113298096B (zh) * | 2021-07-07 | 2021-10-01 | 中国人民解放军国防科技大学 | 训练零样本分类模型的方法、系统、电子设备及存储介质 |
CN113435383A (zh) * | 2021-07-07 | 2021-09-24 | 中国人民解放军国防科技大学 | 基于双三元组伪孪生架构的遥感飞机目标分类方法和装置 |
CN113298096A (zh) * | 2021-07-07 | 2021-08-24 | 中国人民解放军国防科技大学 | 训练零样本分类模型的方法、系统、电子设备及存储介质 |
CN113673685A (zh) * | 2021-08-31 | 2021-11-19 | 西湖大学 | 基于流形学习的数据嵌入方法 |
CN113673685B (zh) * | 2021-08-31 | 2024-03-15 | 西湖大学 | 基于流形学习的数据嵌入方法 |
CN116049660A (zh) * | 2021-10-28 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备、存储介质及程序产品 |
CN115858886A (zh) * | 2022-12-12 | 2023-03-28 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备及可读存储介质 |
CN115858886B (zh) * | 2022-12-12 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110135459B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135459A (zh) | 一种基于双三元组深度度量学习网络的零样本分类方法 | |
CN107273490B (zh) | 一种基于知识图谱的组合错题推荐方法 | |
CN109492099A (zh) | 一种基于领域对抗自适应的跨领域文本情感分类方法 | |
CN108830209B (zh) | 基于生成对抗网络的遥感图像道路提取方法 | |
CN114092832B (zh) | 一种基于并联混合卷积网络的高分辨率遥感影像分类方法 | |
CN107818164A (zh) | 一种智能问答方法及其系统 | |
CN114241273B (zh) | 基于Transformer网络和超球空间学习的多模态图像处理方法及系统 | |
CN107437100A (zh) | 一种基于跨模态关联学习的图像位置预测方法 | |
CN105975573A (zh) | 一种基于knn的文本分类方法 | |
CN106407333A (zh) | 基于人工智能的口语查询识别方法及装置 | |
CN106203483B (zh) | 一种基于语义相关多模态映射方法的零样本图像分类方法 | |
CN108710894A (zh) | 一种基于聚类代表点的主动学习标注方法和装置 | |
CN107895028A (zh) | 采用深度学习的草图检索方法 | |
CN112990296A (zh) | 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统 | |
CN110765254A (zh) | 一种融合多视角答案重排序的多文档问答系统模型 | |
CN106250925B (zh) | 一种基于改进的典型相关分析的零样本视频分类方法 | |
CN110097060A (zh) | 一种面向树干图像的开集识别方法 | |
CN109063649A (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN106897669A (zh) | 一种基于一致迭代多视角迁移学习的行人再辨识方法 | |
CN105989336A (zh) | 基于带权重的解卷积深度网络学习的场景识别方法 | |
CN110082738B (zh) | 基于高斯混合和张量循环神经网络的雷达目标识别方法 | |
CN110110116A (zh) | 一种整合深度卷积网络和语义分析的商标图像检索方法 | |
CN105808665A (zh) | 一种新的基于手绘草图的图像检索方法 | |
CN113157678A (zh) | 一种多源异构数据关联方法 | |
CN109753649A (zh) | 基于细粒度匹配信号的文本相关性度量方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |