CN112819075B - 一种基于转导式推理的均衡小样本任务分类方法 - Google Patents
一种基于转导式推理的均衡小样本任务分类方法 Download PDFInfo
- Publication number
- CN112819075B CN112819075B CN202110142249.6A CN202110142249A CN112819075B CN 112819075 B CN112819075 B CN 112819075B CN 202110142249 A CN202110142249 A CN 202110142249A CN 112819075 B CN112819075 B CN 112819075B
- Authority
- CN
- China
- Prior art keywords
- classification
- small sample
- similarity matrix
- support set
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000026683 transduction Effects 0.000 title claims abstract description 12
- 238000010361 transduction Methods 0.000 title claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims abstract description 75
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000012360 testing method Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000000052 comparative effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000005012 migration Effects 0.000 claims description 4
- 238000013508 migration Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000001939 inductive effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Abstract
本发明公开了一种基于转导式推理的均衡小样本任务分类方法。该方法包括确定数据集和分类网络,采用二阶段训练方法训练分类网络;利用分类网络提取小样本任务中的图片特征;对这些特征之间的相似矩阵进行迭代更新至符合预设要求;利用相似矩阵来迭代调整支撑集输出的原型特征,并生成新的相似矩阵,直至新的相似矩阵符合预设要求;利用生成的相似矩阵进行均衡小样本任务分类。本发明为了解决现有技术没有考虑到同一个小样本任务内的支撑集与询问集特征之间的约束关系,没有充分利用转导式推理的优势的问题,利用支撑集和询问集样本之间的相似矩阵的不断更新来解决他们内部特征不匹配的问题,进一步提升了在小样本分类的基准数据集上的性能。
Description
技术领域
本发明涉及一种均衡小样本任务分类方法,尤其涉及一种基于转导式推理的均衡小样本任务分类方法。
背景技术
深度学习模型在各种任务中都达到了人类的水平。这些模型的成功很大程度上依赖于从大规模标记数据集中进行的学习。尽管如此,如果只给定一些新类的几个带标签实例的话,他们很难泛化到这些新的类上。相比之下,人类可以利用以往的经验和相关背景,很容易地从少数例子中学习新的任务。小样本学习已经成为弥合这一差距的吸引人的例子。在标准的小样本学习场景下,模型首先在初始数据集(通常称为基类)上根据大量标记数据进行训练。然后,对于新类的数据的监督学习将被限制在每类仅有1个或几个的情况。该模型在小样本任务上进行评估,每个任务由每个新类的几个带标签的数据(支撑集)以及未带标签的数据构成(询问集)。
一个具体的小样本任务是这样构造的:给定一个数据集(模型训练的时候使用基类数据集,测试的时候使用新类的数据集),这个数据集对应着一个标签空间。我们首先从这个标签空间中采样出N个不同的标签(即N个类别),然后我们对这N类中的每类,都从数据集中采样出一定的样本。对于采样得到的样本,我们从每类中随机选择K个打上标签,提供给模型学习任务特征,剩余的混在一起,用于进行N类的分类任务。这些打上标签的样本属于支撑集,剩余的待分类的样本属于询问集。支撑集和询问集共同组成了一个小样本分类任务。特别的,如果分类数目是N,支撑集中每类的样本数目为K,就称这个任务是N-way K-shot小样本分类任务。如果我们能在分类之前确保询问集中,每类的样本数目也是相同的,我们就称它是均衡的小样本分类任务,否则是不均衡的。我们考虑的是均衡的情况。
针对一个测试时的小样本任务,往往有转导式推理或者归纳推理两种方式。转导式推理会对任务的所有未标记的询问集样本联合执行类预测,而归纳推理一次只预测一个样本。转导式学习通常表现要比归纳式的要好,比较典型的是使用图网络来进行标签的传播的方法(英文简称TPN,一种转导推理算法,在2018年提出)以及利用简单的初次迭代的分类结果来优化下次迭代分类中心的问题,但是这些转导式方法没有考虑到同一个小样本任务内的支撑集与询问集特征之间的约束关系,没有充分利用转导式推理的优势。
发明内容
针对现有技术中的上述不足,本发明提供了一种基于转导式推理的均衡小样本任务分类方法。
为了达到上述发明目的,本发明采用的技术方案为:
一种基于转导式推理的均衡小样本任务分类方法,包括以下步骤:
S1、选取数据集和分类网络,采用二阶段训练方法训练分类网络;
S2、利用步骤S1中训练好的分类网络提取小样本任务中的图片特征;
S3、对步骤S2提取的特征之间的相似矩阵进行更新;
S4、判断步骤S3中更新后的相似矩阵是否符合预设要求,若是,执行步骤S5,否则返回步骤S3;
S5、利用步骤S3中更新好的相似矩阵调整支撑集输出的原型特征,并生成新的相似矩阵;
S6、判断步骤S5中生成的新的相似矩阵是否符合预设要求,若是,执行步骤S7,否则返回步骤S3;
S7、利用步骤S5生成的相似矩阵进行均衡小样本任务分类。
本发明具有以下有益效果:本发明相较于现有技术更加充分的利用了转导推理的特性,缓解了支撑集和询问集特征矛盾的情形,同时采用了多种转导推理的方法,通过迭代的方式自然将其融合在了一起,因此模型整体性能很高,在均衡小样本任务分类方法中处于领先水平。
优选地,步骤S1包括以下分步骤:
S11、选取基准数据集,将其划分为训练集、验证集和数据集,将训练集作为基类数据集,测试集作为新类数据集;
S12、对深度残差网络进行调整,得到18层的残差网络ResNet-18,将其作为分类网络;
S13、采用交叉熵作为损失函数,在基类数据集上对分类网络进行训练;
S14、将步骤S13训练后的分类网络的全连接层去掉并固定其余网络层的参数,得到训练好的分类网络。
该优选方案具有以下有益效果:采用了二阶段的训练方法训练分类网络,在性能上比传统的端到端的训练方法性能更好。
优选地,步骤S2具体包括:
利用训练好的分类网络对新类数据中的图片进行特征提取,并对支撑集和询问集重新进行定义:
S←{fθ(x)|x∈S}
Q←{fθ(x)|x∈Q}
其中S为支撑集,Q为询问集,x为新类数据中的图片,fθ(·)为训练好的分类网络。
该优选方案具有以下有益效果:经过步骤S1采用二阶段训练方法训练得到的分类网络在本步骤特征提取过程中不涉及网络参数的更新,有利于后续分类算法中的参数调整,减少了运算量。
优选地,步骤S3包括以下分步骤:
S31、定义相似矩阵A和相似矩阵B,A和B内的元素aij和bij定义如下:
aij=d(xi,xj)xi∈S,xi∈Q
bij=d(xi,xj)xi∈Q,xi∈Q
其中d(·)为一种比较相似性的函数;
S32、对相似矩阵A和相似矩阵B执行归一化操作;
S33、对相似矩阵A进行更新,更新方法如下:
该优选方案具有以下有益效果:对矩阵A进行更新满足了支撑集和询问集特征匹配的问题,减少了特征提取网络在不同类数据集上的表现差异,提高了模型的性能。
优选地,步骤S4具体包括:
利用步骤S33更新后的相似矩阵A进行小样本任务分类,若连续多次迭代的分类结果保持不变或此处判断次数已到上限,执行步骤S4,否则返回步骤S33。
该优选方案具有以下有益效果:若连续多次迭代的分类结果能够保持不变,就可以认为相似矩阵A的更新过程已经比较稳定,此时就可以停止A的更新进行后续步骤,设置迭代次数上限避免了算法的运行时间过长。
优选地,步骤S5包括以下分步骤:
S51、采用加权平均的方法移动调整原型:
其中,c表示该元素属于N类中的第c类,N为小样本分类任务中的分类数目,Pc为调整前的第c类的原型,P′c为调整后的第c类的原型,Qc为根据相似矩阵A得到的分类结果的询问集中第c类样本的特征集合,Sc为支撑集中属于第c类元素的集合,cos为余弦相似度,exp为指数幂计算;
S52、使用域迁移操作减少支撑集S和询问集Q之间的差异:
Xq←Xq+ξ
其中下标s和q表明该元素属于支撑集或者询问集,|S|表示支撑集中的元素的数量,|Q|表示询问集中的元素的数量,表示支撑集和询问集中的元素归一化值,ξ为支撑集和询问集之间的均值差异,原型调整后生成新的相似矩阵A。
该优选方案具有以下有益效果:步骤S3更新完成后的A因为包含了一些询问集内部的数据特性,与原先的支撑集的内部特征(即原型)将不再一致,通过调整原型可以减缓这两者之间的矛盾,在原型移动的方法之外,还进一步使用了域迁移操作,减少了支撑集和询问集之间的差异。
优选地,步骤S6具体包括:
利用步骤S52生成的新的相似矩阵A进行小样本任务分类,若连续两次迭代的分类结果保持不变或此处判断次数已到上限,执行步骤S7,否则返回步骤S3。
该优选方案具有以下有益效果:步骤S5原型调整后会生成新的相似矩阵A,新的相似矩阵A与B可能依旧存在矛盾,需要多次迭代来尽可能的减缓二者之间的矛盾,当一轮迭代过后,相似矩阵A对应的预测标签不再发生变化时,表明二者不存在矛盾,就终止迭代,设置迭代次数上限避免了算法的运行时间过长。
附图说明
图1是本发明一种基于转导式推理的均衡小样本任务分类方法的流程图;
图2是本发明实施例中对于基类数据和新类数据的使用情况示意图;
图3是本发明实施例中相似矩阵A的更新过程示意图,其中图3(1)为A和AB分类结果一致时的更新过程示意图,图3(2)为A和AB分类结果存在分歧时的更新过程示意图;
图4是本发明实施例中的算法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
请参照图1,本发明提供了一种基于转导式推理的均衡小样本任务分类方法,该方法采取了二阶段的训练方法,采用原型调整的转导式推理的方法,并利用支撑集和询问集样本之间的相似矩阵的不断更新来解决他们内部特征不匹配的问题,从而在基准数据集miniImageNet上的取得了更好的表现,该方法包括以下步骤:
S1、选取数据集和分类网络,采用二阶段训练方法训练分类网络;
本发明实施例中,步骤S1包括以下分步骤:
S11、选取基准数据集,本实施例中选取miniImageNet作为本发明的数据集,它在小样本分类中被作为一个基准的测试数据集。miniImageNet是从ILSVRC-12(Imagenetlarge scale visual recognition challenge)中采样得到的。miniImageNet一共包含100个类别,每类600张图片。数据集被划分为三个部分:训练集,验证集以及测试集,每个类别分别包括64类,16类和20类的数据(即这三个数据集的标签空间是不重叠的),将训练集作为基类数据集,测试集作为新类数据集,两个数据集中数据的使用情况请参照图2所示;
S12、对深度残差网络进行调整,得到18层的残差网络ResNet-18,这个模型基于现有技术中的深度残差网络架构做了一些调整,首先去除了前两个下采样层,将第一个卷积层的步长设置为1,并移除第一个最大池化层。第一层的卷积核使用的是3×3的大小而不是7×7,ResNet-18有8个残差块,每个残差块中包括两个卷积层,两个批次归一化层以及一个ReLU非线性激活层。残差块中的卷积层使用的卷积核都是3×3的大小,并使用步长为1,填充为1的设置。在8个残差块之后进行全局平均池化操作,后接一个全连接层,将提取到的特征从512维映射到64维,从而达到分类效果,将其作为本发明的分类网络;
S13、采用交叉熵作为损失函数,同时采用了标签平滑策略(参数设置为0.1),优化器选用了SGD。在基类数据集上对分类网络进行训练,在训练的过程中,利用验证集的数据进行早停操作来减少过拟合的影响;
S14、将步骤S13训练后的分类网络的全连接层去掉并固定其余网络层的参数,得到训练好的分类网络,在使用新类数据进行想样本任务的分类时,用来提取小样本分类任务中的图片的特征。之后针对这些特征再执行本发明的转导式分类方法。
S2、利用步骤S1中训练好的分类网络提取小样本任务中的图片特征;
本发明实施例中,步骤S2具体包括:
利用训练好的分类网络对新类数据中的图片进行特征提取,为了描述更加清楚,对支撑集和询问集重新进行定义:
S←{fθ(x)|x∈S}
Q←{fθ(x)|x∈Q}
其中S为支撑集,Q为询问集,x为新类数据中的图片,fθ(·)为训练好的分类网络;集合中的元素原本是图片,现在重新定义后集合中的元素为图片经过分类网络提取后得到的特征。
S3、对步骤S2提取的特征之间的相似矩阵进行更新;
本发明实施例中,步骤S3包括以下分步骤:
S31、定义相似矩阵A和相似矩阵B用来描述支撑集和询问集之间的元素相似度以及询问集自身内部的元素相似度,A和B内的元素aij和bij定义如下:
aij=d(xi,xj)xi∈S,xi∈Q
bij=d(xi,xj)xi∈Q,xi∈Q
其中d(·)为一种比较相似性的函数,此处使用的是余弦相似度;
S32、对相似矩阵A和相似矩阵B执行归一化操作,使得这些矩阵的某一行或者某一列的元素和为1,现在矩阵内部的元素可以看作是一种概率;
S33、对相似矩阵A进行更新以满足之前说明的支撑集和询问集特征匹配的问题,如果两个图片都是同一个类的话,那么这两个图片应该是比较像的。具体到小样本任务中,支撑集中的特征是有标签的,我们可以直接比较询问集样本与支撑集样本之间的相似性来分类(比如直接使用A矩阵来分类),这个分类结果应该满足的一个标准是分类到同一个类的样本之间应该较为相似(即A与B之间应该有某种对应关系),利用如下的更新方法来强化这种对应关系:
其中AB为矩阵乘法,α为调整偏好的超参数,在实际代码实现的时候,α待选列表为(0.1,0.3,0.5,0.7,0.9,1.1,1.3,1.5,1.7,1.9,2.1,2.3,2.5),通过测试比较这些不同的α在训练集(基类数据)上的效果来选择出一个最佳的超参数,为归一化函数,保证了更新过后的相似矩阵A的行和仍然为1。
本步骤中的更新过程请参照图3所示,其中浅色的圆圈表示支撑集样本,深色的圆圈表示询问集样本,浅色箭头代表着相似矩阵A中权重较大的一部分,深色箭头表示相似矩阵B中权重较大的部分,弯曲的箭头表示矩阵A和B相乘后权重较大的部分。A和AB都能表示支撑集和询问集之间的相似性,当这两者之间的分类结果是一致的时候,情况如图3(1)中所示,更新过程不会过分影响A的概率分布,当这两者存在分歧的时候,情况如图3(2)中所示,更新过程会使得A逐渐变化,直至A与AB相互对应。
这种操作的合理性在于,AB实际上表意和A一样,也是支撑集样本与询问集样本之间的相似性。但是A是直接进行了比较,而AB则是将某个支撑集样本和询问集样本同时与全体询问集样本进行比较,然后将这些概率加权求和得到该支撑集样本与该询问集样本之间的相似性,是一种全概率定理的使用。简单来说,A是直接的,AB是间接的。因此,经过更新之后,会使得相似矩阵A开始包含B中的一些因素,从而达到支撑集与询问集特征相互匹配的目的。
S4、判断步骤S3中更新后的相似矩阵是否符合预设要求,若是,执行步骤S5,否则返回步骤S3;
本发明实施例中,步骤S4具体包括:
利用步骤S33更新后的相似矩阵A进行小样本任务分类,若连续三次迭代的分类结果保持不变或此处判断次数已到上限20次,执行步骤S5,否则返回步骤S33。即利用更新后的A来产生分类结果,如果连续三次的迭代的分类结果能够保持不变,那么就认为这个更新过程已经比较稳定,然后停止A的更新,输出更新好的A。
S5、利用步骤S3中更新好的相似矩阵调整支撑集输出的原型特征,并生成新的相似矩阵;
对于一个N-way K-shot小样本分类任务来说,N的典型数值是5,K的典型数值是1或5。即我们一般进行5分类任务,每类将会给出1个或者5个带标签的样本。如果直接使用比较向本之间的相似度来进行分类,那么我们需要为这N个类的每个类确定一个类中心。如果K为1,那么这个带标签的样本就可以看作是类中心,如果K为5,一般的做法是将这五个特征的均值作为类中心。类中心又称为这个类的原型。我们在步骤S22中的公式通过度量函数来进行分类,实际上就是使用这些原型与询问集内部的样本进行比较。
本发明实施例中,步骤S5包括以下分步骤:
S51、更新完成后的相似矩阵A因为包含了一些询问集内部的数据特性,与原先的支撑集的内部特征(即原型)将不再一致,因此通过调整原型的方式来减缓这两者之间的矛盾,采用加权平均的方法移动调整原型,以满足新的相似矩阵A:
其中,c∈[1,N]且为整数,表示该元素属于N类中的第c类,N为小样本分类任务中的分类数目,Pc为调整前的第c类的原型,P′c为调整后的第c类的原型,Qc为根据相似矩阵A得到的分类结果的询问集中第c类样本的特征集合,Sc为支撑集中属于第c类元素的集合,cos为余弦相似度,exp为指数幂计算;
S52、除了原型移动的方法,进一步使用域迁移操作减少支撑集S和询问集Q之间的差异:
Xq←Xq+ξ
其中下标s和q表明该元素属于支撑集或者询问集,|S|表示支撑集中的元素的数量,|Q|表示询问集中的元素的数量,表示支撑集和询问集中的元素归一化值,ξ为支撑集和询问集之间的均值差异,原型调整后生成新的相似矩阵A。
该步骤比较了支撑集和询问集之间的均值差异,然后将询问集加上这个均值差异,经过此步骤调整后的询问集和支撑集之间的均值就相等了。
S6、判断步骤S5中生成的新的相似矩阵是否符合预设要求,若是,执行步骤S7,否则返回步骤S3;
本发明实施例中,步骤S6具体包括:
利用步骤S52生成的新的相似矩阵A进行小样本任务分类,若连续两次迭代的分类结果保持不变或此处判断次数已到20次,执行步骤S7,否则返回步骤S3。
原型调整之后会生成新的矩阵A,新的矩阵A与B可能依旧存在矛盾,因此这里天然存在一个迭代的过程。我们为这个迭代设置了一个上限:当一轮迭代过后,A矩阵对应的预测标签不再发生变化时,就终止迭代。为了避免算法的运行时间过长,人为地为循环次数设置了一个上限,内外的最大循环次数都是20。
S7、利用步骤S5生成的相似矩阵进行均衡小样本任务分类。
请参照图4,用l(A)表示矩阵A对应的预测结果:
①用S和Q计算出相似矩阵A,B
②利用步骤S31和S51的公式计算Ai和P′c
⑦若l(Ai+1)=l(Ai)则执行⑧,否则执行②
⑧输出l(Ai+1)当作询问集的预测结果
其中终止条件1是使用A矩阵作分类预测,分类预测的结果连续三次不变或者在此处判定次数到达20次。终止条件2是使用A矩阵做分类预测,分类结果连续两次不变或者在此处的判定次数到达20次。
本发明中的方法与一些经典的算法在基准数据集miniImageNet上的性能的比较如表1所示。
表1
从表1中可以看出,相较于现有技术中的常用算法,本发明在基准数据集miniImageNet上的性能达到了领先的水平。
本领域的普通技术人员将会意识到,这里所描述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (6)
1.一种基于转导式推理的均衡小样本任务分类方法,其特征在于,包括以下步骤:
S1、选取数据集和分类网络,采用二阶段训练方法训练分类网络;
S2、利用步骤S1中训练好的分类网络提取小样本任务中的图片特征;
S3、对步骤S2提取的特征之间的相似矩阵进行更新,包括以下分步骤:
S31、定义相似矩阵A和相似矩阵B,A和B内的元素aij和bij定义如下:
aij=d(xi,xj)xi∈S,xj∈Q
bij=d(xi,xj)xi∈Q,xj∈Q
其中d(·)为一种比较相似性的函数,S为支撑集,Q为询问集;
S32、对相似矩阵A和相似矩阵B执行归一化操作;
S33、对相似矩阵A进行更新,更新方法如下:
S4、判断步骤S3中更新后的相似矩阵是否符合预设要求,若是,执行步骤S5,否则返回步骤S3;
S5、利用步骤S3中更新好的相似矩阵调整支撑集输出的原型特征,并生成新的相似矩阵;
S6、判断步骤S5中生成的新的相似矩阵是否符合预设要求,若是,执行步骤S7,否则返回步骤S3;
S7、利用步骤S5生成的相似矩阵进行均衡小样本任务分类。
2.如权利要求1所述的一种基于转导式推理的均衡小样本任务分类方法,其特征在于,所述步骤S1包括以下分步骤:
S11、选取基准数据集,将其划分为训练集、验证集和测试集,将训练集作为基类数据集,测试集作为新类数据集;
S12、对深度残差网络进行调整,得到18层的残差网络ResNet-18,将其作为分类网络;
S13、采用交叉熵作为损失函数,在基类数据集上对分类网络进行训练;
S14、将步骤S13训练后的分类网络的全连接层去掉并固定其余网络层的参数,得到训练好的分类网络。
3.如权利要求2所述的一种基于转导式推理的均衡小样本任务分类方法,其特征在于,所述步骤S2具体包括:
利用训练好的分类网络对新类数据中的图片进行特征提取,并对支撑集S和询问集Q重新进行定义:
S←{fθ(x)|x∈S`}
Q←{fθ(x)|x∈Q`}
其中S为支撑集,Q为询问集,x为新类数据中的图片,fθ(·)为训练好的分类网络,S`为图片支撑集,S`中的元素为新类数据中的图片,Q`为图片询问集,Q`中的元素为新类数据中的图片。
4.如权利要求1所述的一种基于转导式推理的均衡小样本任务分类方法,其特征在于,所述步骤S4具体包括:
利用所述步骤S33更新后的相似矩阵A进行小样本任务分类,若连续多次迭代的分类结果保持不变或此处判断次数已到上限,执行步骤S4,否则返回步骤S33。
5.如权利要求4所述的一种基于转导式推理的均衡小样本任务分类方法,其特征在于,所述步骤S5包括以下分步骤:
S51、采用加权平均的方法移动调整原型:
其中,c表示该元素属于N类中的第c类,N为小样本分类任务中的分类数目,Pc为调整前的第c类的原型,P′c为调整后的第c类的原型,Qc为根据相似矩阵A得到的分类结果的询问集Q中第c类样本的特征集合,Sc为支撑集S中属于第c类元素的集合,cos为余弦相似度,exp为指数幂计算;
S52、使用域迁移操作减少支撑集S和询问集Q之间的差异:
Xq←Xq+ξ
6.如权利要求5所述的一种基于转导式推理的均衡小样本任务分类方法,其特征在于,所述步骤S6具体包括:
利用所述步骤S52生成的新的相似矩阵A进行小样本任务分类,若连续两次迭代的分类结果保持不变或此处判断次数已到上限,执行步骤S7,否则返回步骤S3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110142249.6A CN112819075B (zh) | 2021-02-02 | 2021-02-02 | 一种基于转导式推理的均衡小样本任务分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110142249.6A CN112819075B (zh) | 2021-02-02 | 2021-02-02 | 一种基于转导式推理的均衡小样本任务分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112819075A CN112819075A (zh) | 2021-05-18 |
CN112819075B true CN112819075B (zh) | 2021-10-22 |
Family
ID=75860508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110142249.6A Expired - Fee Related CN112819075B (zh) | 2021-02-02 | 2021-02-02 | 一种基于转导式推理的均衡小样本任务分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112819075B (zh) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7822745B2 (en) * | 2006-05-31 | 2010-10-26 | Yahoo! Inc. | Keyword set and target audience profile generalization techniques |
JP5307539B2 (ja) * | 2006-05-31 | 2013-10-02 | オリンパス株式会社 | 生体試料撮像方法および生体試料撮像装置 |
EP2562690A3 (en) * | 2011-08-22 | 2014-01-22 | Siemens Aktiengesellschaft | Assigning a number of reference measurement data sets to an input measurement data set |
CN109800811B (zh) * | 2019-01-24 | 2022-09-06 | 吉林大学 | 一种基于深度学习的小样本图像识别方法 |
US11741356B2 (en) * | 2019-02-08 | 2023-08-29 | Korea Advanced Institute Of Science & Technology | Data processing apparatus by learning of neural network, data processing method by learning of neural network, and recording medium recording the data processing method |
EP3748539A1 (en) * | 2019-06-03 | 2020-12-09 | Robert Bosch GmbH | Device and method of digital image content recognition, training of the same |
CN110276394A (zh) * | 2019-06-21 | 2019-09-24 | 扬州大学 | 一种小样本下基于深度学习的电力设备分类方法 |
CN110751201B (zh) * | 2019-10-16 | 2022-03-25 | 电子科技大学 | 基于纹理特征变换的sar装备任务失效成因推理方法 |
CN111797893B (zh) * | 2020-05-26 | 2021-09-14 | 华为技术有限公司 | 一种神经网络的训练方法、图像分类系统及相关设备 |
CN111639697B (zh) * | 2020-05-27 | 2023-03-24 | 西安电子科技大学 | 基于非重复采样与原型网络的高光谱图像分类方法 |
CN111881954A (zh) * | 2020-07-15 | 2020-11-03 | 中国科学院自动化研究所 | 基于渐进式簇净化网络的转导推理小样本分类方法 |
CN112434721B (zh) * | 2020-10-23 | 2023-09-01 | 特斯联科技集团有限公司 | 一种基于小样本学习的图像分类方法、系统、存储介质及终端 |
-
2021
- 2021-02-02 CN CN202110142249.6A patent/CN112819075B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN112819075A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Benoudjit et al. | On the kernel widths in radial-basis function networks | |
Pooladzandi et al. | Adaptive second order coresets for data-efficient machine learning | |
CN107729999A (zh) | 考虑矩阵相关性的深度神经网络压缩方法 | |
CN111882040A (zh) | 基于通道数量搜索的卷积神经网络压缩方法 | |
CN110942091B (zh) | 寻找可靠的异常数据中心的半监督少样本图像分类方法 | |
WO2022105108A1 (zh) | 一种网络数据分类方法、装置、设备及可读存储介质 | |
CN106203534A (zh) | 一种基于Boosting的代价敏感软件缺陷预测方法 | |
Ye et al. | Variable selection via penalized neural network: a drop-out-one loss approach | |
CN112966114A (zh) | 基于对称图卷积神经网络的文献分类方法和装置 | |
CN111723914A (zh) | 一种基于卷积核预测的神经网络架构搜索方法 | |
CN116503676B (zh) | 一种基于知识蒸馏小样本增量学习的图片分类方法及系统 | |
CN110738362A (zh) | 一种基于改进的多元宇宙算法构建预测模型的方法 | |
CN113128671A (zh) | 一种基于多模态机器学习的服务需求动态预测方法及系统 | |
CN115905855A (zh) | 一种改进的元学习算法MG-Reptile | |
KR100895481B1 (ko) | 다중 클래스 svm을 이용한 영역 기반 이미지 검색 방법 | |
CN112819075B (zh) | 一种基于转导式推理的均衡小样本任务分类方法 | |
CN116910210A (zh) | 基于文档的智能问答模型训练方法、装置及其应用 | |
US20230026322A1 (en) | Data Processing Method and Apparatus | |
WO2023078009A1 (zh) | 一种模型权重获取方法以及相关系统 | |
KR102559605B1 (ko) | 함수 최적화 방법 및 장치 | |
JP6993250B2 (ja) | コンテンツ特徴量抽出装置、方法、及びプログラム | |
CN108304546B (zh) | 一种基于内容相似度和Softmax分类器的医学图像检索方法 | |
US20220405599A1 (en) | Automated design of architectures of artificial neural networks | |
Han et al. | A modified fast recursive hidden nodes selection algorithm for ELM | |
CN113988181B (zh) | 一种基于自适应前馈神经网络的目标分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211022 |