CN111985581A - 一种基于样本级注意力网络的少样本学习方法 - Google Patents
一种基于样本级注意力网络的少样本学习方法 Download PDFInfo
- Publication number
- CN111985581A CN111985581A CN202010941622.XA CN202010941622A CN111985581A CN 111985581 A CN111985581 A CN 111985581A CN 202010941622 A CN202010941622 A CN 202010941622A CN 111985581 A CN111985581 A CN 111985581A
- Authority
- CN
- China
- Prior art keywords
- sample
- class
- support set
- query
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 239000013598 vector Substances 0.000 claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 230000001902 propagating effect Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 101100455978 Arabidopsis thaliana MAM1 gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001667 episodic effect Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于样本级注意力网络的少样本学习方法,包括步骤:将支撑集的样本和查询集的样本分别输入到特征提取模块中,得到相应的支撑集特征向量和查询集特征向量;将每个类对应的支撑集特征向量输入到样本级注意力网络模块中得到每个类别的类原型;通过计算查询集特征向量与每个类原型之间的距离,得到查询集特征向量所属类别的概率分布;采用查询集的交叉熵损失与支撑集的分类损失共同训练特征提取模块与样本级注意力网络模块,反向传播求梯度更新网络。本发明只需学习大量相似的学习任务就可以解决新的目标任务,对于目标任务,不再需要模型更新。
Description
技术领域
本发明涉及样本图像分类技术领域,特别是一种基于样本级注意力网络的少样本学习方法。
背景技术
近年来,在深度网络的帮助下,计算机在图像识别任务上已经超越了人类,但是深度网络也存在着三个问题:第一,训练深度网络模型需要大量的标记数据,所以图像识别技术多数都集中在有大规模数据集的物体识别上。第二,现实中很多的场景是不存在大量标注数据的,或者很多标注数据需要领域专家进行标注,获得大规模标注数据集的成本过于高,导致很多领域目前无法使用深度学习。第三,深度学习需要大量的数据和多次迭代训练出一个模型,但是当面临新类别出现的时候,又需要重新进行训练。
基于此,学者们提出了少样本学习,少样本学习的目标就是面对新类别样本数量极少的情况下,利用过往的经验进行快速学习。少样本学习的研究意义在于以下两点:第一,少样本学习能够借助几个新类别标记的数据集就对整个数据集进行分类,进而能够解决对大量未知图片标记的问题。第二,少样本学习可以在原先训练好的模型基础上,加上少量新类别数据进行训练,就可以快速学习到新类别的知识,从而对新类别进行准确的分类,进而解决传统深度学习需要重新训练的问题。
少样本学习的问题可以被定义为C-way K-shot任务,即给定一个支撑集S,它包含C个不同的图像类,每个类有K个标记的样本。对于给定的查询集Q,少样本学习的目的是根据支撑集S对查询集Q中每个未标记的样本进行分类。然而,由于支撑集S的样本数量极少,它将很难有效的训练模型对查询集样本Q进行分类。因此需要借助一组辅助数据集,这组辅助数据集包含大量的类和标记样本,但其与支撑集S的类别不相交。通过在辅助数据集上进行学习,以提取可转移的知识,使我们能够在支撑集S上进行更好的少样本学习,从而更准确的对查询集Q进行分类。少样本学习中的网络训练机制是情节训练机制。这个训练机制是在匹配网络中被提出的,后续的研究中均采用了这种训练机制。这种机制使用辅助数据集作为训练的样本,每一次训练的时候都从辅助数据集中随机选择C类样本,每类样本中选取K个标记样本作为支撑集,从剩余的样本中选取部分样本作为查询集,每次训练都使用网络对查询集进行分类,使用分类损失进行网络的训练。在无数次迭代训练后就认为这个网络具备了面对新的C个类别,能够根据每个类别仅有的K个样本,对于未标记的样本进行准确分类。
目前针对少样本学习任务的算法,大致可分为两类:
第一类是基于度量的方法。该方法的核心思想在于度量支撑集样本与查询集样本特征之间的距离或相似度,距离最近或者相似度最高的则被判别为是查询集所属的类别。由于少样本学习任务中的样本过少,而神经网络分类器存在大量参数,在训练分类器的时候就会产生过拟合的现象。为了避免过拟合,所以采用非参数化的分类器来度量未标记样本与标记样本之间的相似度或距离。其中Vinyals等人提出的匹配网络,使用不同的特征提取网络分别提取支撑集和查询集特征,使用查询集样本与支撑集同一类别不同样本距离的加权和计算分类概率。匹配网络中还首次提出了情景训练机制,这种训练方式被后面的小样本学习算法研究广泛使用。Snell等人提出的原型网络,使用每个类的均值作为类原型,使用查询集样本与支撑集样本的距离来计算分类概率。Sung等人提出的关系型网络,对度量方式进行建模,训练一个网络来学习计算查询集与支持集的相似度。Garcia等人提出的图神经网络,使用图神经网络,利用支撑集样本标签推理出查询集样本所属的类别。
第二类是基于元学习的方法。元学习指的是根据过往的经验来快速的学习新任务,其目标是使用大量的学习任务来学习模型,使得模型使用少量的训练样本就可以解决新的任务。其中最具代表的算法就是Finn等人提出的MAML算法,该方法首先使用元学习学习一组神经网络权值作为网络的初始权重,然后利用来自新任务的少量训练数据训练网络,几步的梯度下降就可以使得网络在新任务上取得很好的性能。Ravi等人提出的Meta-Learner LSTM算法使用一个基于LSTM的元学习器作为优化器来训练目标网络的参数、初始化权重。
但是以上两种方法都存在缺点,即面对新的少样本学习任务时网络还需要进行微调。
发明内容
有鉴于此,本发明的目的是提出一种基于样本级注意力网络的少样本学习方法,只需学习大量相似的学习任务就可以解决新的目标任务,对于目标任务,不再需要模型更新。
本发明采用以下方案实现:一种基于样本级注意力网络的少样本学习方法,具体包括以下步骤:
将支撑集的样本和查询集的样本分别输入到特征提取模块中,得到相应的支撑集特征向量和查询集特征向量;
将每个类对应的支撑集特征向量输入到样本级注意力网络模块中得到每个类别的类原型;
通过计算查询集特征向量与每个类原型之间的距离,得到查询集特征向量所属类别的概率分布;
采用查询集的交叉熵损失与支撑集的分类损失共同训练特征提取模块与样本级注意力网络模块,反向传播求梯度更新网络。
进一步地,所述将每个类对应的支撑集特征向量输入到样本级注意力网络模块中得到每个类别的类原型具体为:
对于类别i,其原型的计算公式如下:
进一步地,所述第i类支撑集中第j个支撑集样本的权重αj的计算公式如下:
其中,
进一步地,所述通过计算查询集特征向量与每个类原型之间的距离,得到查询集特征向量所属类别的概率分布具体为:
通过下式计算查询集样本xq为第i类的概率:
进一步地,所述采用查询集的交叉熵损失与支撑集的分类损失共同训练特征提取模块与样本级注意力网络模块具体为:采用以下损失函数来训练特征提取模块与样本级注意力网络模块:
式中,表示第i类中第j个支撑集样本,xq代表查询集样本。第一项为查询集的交叉熵分类损失,其中Pθ(y=i|xq)为查询集样本xq为第i类的概率;第二项为支撑集的交叉熵分类损失,其中为支撑集为第i类的概率,其中计算公式如下所示:
与现有技术相比,本发明有以下有益效果:
1.由于少样本学习中每个类别的样本数量比较少,可能会存在部分样本目标不明显从而影响分类性能的情况,为了解决这个问题,本发明使用样本级注意力网络,能够更好的获得与分类任务更加相关的类原型。
2.本发明在查询集分类损失的基础上加上支撑集分类损失,保证模型计算出的原型既能对查询样本进行正确的分类,又能对该类中的支撑集样本进行正确的分类。支撑集分类损失会拉近同一类支撑集样本与该类原型之间的距离,从而拉远与支撑集样本不同类别的原型的距离,使得整个特征空间各类间距离变大,类内距离变小。
附图说明
图1为本发明实施例的原理框架示意图。
图2为本发明实施例的特征提取模块示意图。
图3为本发明实施例的特征提取模块中的残差块的网络结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种基于样本级注意力网络的少样本学习方法,具体包括以下步骤:
将支撑集的样本和查询集的样本分别输入到特征提取模块中,得到相应的支撑集特征向量和查询集特征向量;
将每个类对应的支撑集特征向量输入到样本级注意力网络模块中得到每个类别的类原型;
通过计算查询集特征向量与每个类原型之间的距离,得到查询集特征向量所属类别的概率分布;
采用查询集的交叉熵损失与支撑集的分类损失共同训练特征提取模块与样本级注意力网络模块,反向传播求梯度更新网络。
较佳的,如图2所示,本实施例所使用的特征提取模块为ResNet-256F,在该网络的最后本实施例使用全局平均池化层代替全连接层。具体来说,该特征提取网络包含了四个残差块和一个全局平均池化层。其中一个残差块如图3所示,可以表示为:
xl+1=xl+F(xl,Wl);
残差块分为两部分:直接映射部分和残差部分。F(xl,Wl)代表残差部分,由3个3×3卷积层组成,如图3中右侧部分所示。网络的前两个残差块还包含一个2×2的最大池化层,而后两个块没有。将支撑集Ts的样本和查询集TQ的样本xq分别输入ResNet-256F中,得到相应的特征向量和
在本实施例中,所述将每个类对应的支撑集特征向量输入到样本级注意力网络模块中得到每个类别的类原型具体为:
对于类别i,其原型的计算公式如下:
在本实施例中,所述第i类支撑集中第j个支撑集样本的权重αj的计算公式如下:
其中,
在本实施例中,所述通过计算查询集特征向量与每个类原型之间的距离,得到查询集特征向量所属类别的概率分布具体为:
通过下式计算查询集样本xq为第i类的概率:
在本实施例中,所述采用查询集的交叉熵损失与支撑集的分类损失共同训练特征提取模块与样本级注意力网络模块具体为:采用以下损失函数来训练特征提取模块与样本级注意力网络模块:
式中,表示第i类中第j个支撑集样本,xq代表查询集样本。第一项为查询集的交叉熵分类损失,其中Pθ(y=i|xq)为查询集样本xq为第i类的概率;第二项为支撑集的交叉熵分类损失,其中为支撑集为第i类的概率,其中计算公式如下所示:
特别的,传统的方法使用的是查询集的交叉熵损失来训练网络。本发明在交叉熵损失的基础上加上支撑集分类损失,保证模型计算出的原型既能对查询样本进行正确的分类,又能对该类中的支撑集样本进行正确的分类。
特别的,本实施例中的样本为图像数据。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (5)
1.一种基于样本级注意力网络的少样本学习方法,其特征在于,包括以下步骤:
将支撑集的样本和查询集的样本分别输入到特征提取模块中,得到相应的支撑集特征向量和查询集特征向量;
将每个类对应的支撑集特征向量输入到样本级注意力网络模块中得到每个类别的类原型;
通过计算查询集特征向量与每个类原型之间的距离,得到查询集特征向量所属类别的概率分布;
采用查询集的交叉熵损失与支撑集的分类损失共同训练特征提取模块与样本级注意力网络模块,反向传播求梯度更新网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010941622.XA CN111985581B (zh) | 2020-09-09 | 2020-09-09 | 一种基于样本级注意力网络的少样本学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010941622.XA CN111985581B (zh) | 2020-09-09 | 2020-09-09 | 一种基于样本级注意力网络的少样本学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111985581A true CN111985581A (zh) | 2020-11-24 |
CN111985581B CN111985581B (zh) | 2022-07-05 |
Family
ID=73450388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010941622.XA Expired - Fee Related CN111985581B (zh) | 2020-09-09 | 2020-09-09 | 一种基于样本级注意力网络的少样本学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985581B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613555A (zh) * | 2020-12-21 | 2021-04-06 | 深圳壹账通智能科技有限公司 | 基于元学习的目标分类方法、装置、设备和存储介质 |
CN112765315A (zh) * | 2021-01-18 | 2021-05-07 | 燕山大学 | 一种法律场景智能分类系统和方法 |
CN112929380A (zh) * | 2021-02-22 | 2021-06-08 | 中国科学院信息工程研究所 | 结合元学习与时空特征融合的木马通信检测方法及系统 |
CN113033665A (zh) * | 2021-03-26 | 2021-06-25 | 北京沃东天骏信息技术有限公司 | 样本扩展方法、训练方法和系统、及样本学习系统 |
CN113111804A (zh) * | 2021-04-16 | 2021-07-13 | 北京房江湖科技有限公司 | 一种人脸检测的方法、装置、电子设备及存储介质 |
CN113537305A (zh) * | 2021-06-29 | 2021-10-22 | 复旦大学 | 一种基于匹配网络少样本学习的图像分类方法 |
CN114580484A (zh) * | 2022-04-28 | 2022-06-03 | 西安电子科技大学 | 一种基于增量学习的小样本通信信号自动调制识别方法 |
CN114861749A (zh) * | 2022-03-11 | 2022-08-05 | 山东科技大学 | 一种基于深度原型网络的少样本轴承故障诊断方法 |
CN115953665A (zh) * | 2023-03-09 | 2023-04-11 | 武汉人工智能研究院 | 一种目标检测方法、装置、设备及存储介质 |
TWI804090B (zh) * | 2020-12-07 | 2023-06-01 | 日商樂天集團股份有限公司 | 學習系統、學習方法及程式產品 |
CN114861749B (zh) * | 2022-03-11 | 2024-10-22 | 山东科技大学 | 一种基于深度原型网络的少样本轴承故障诊断方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200097771A1 (en) * | 2018-09-25 | 2020-03-26 | Nec Laboratories America, Inc. | Deep group disentangled embedding and network weight generation for visual inspection |
CN111291139A (zh) * | 2020-03-17 | 2020-06-16 | 中国科学院自动化研究所 | 基于注意力机制的知识图谱长尾关系补全方法 |
CN111401558A (zh) * | 2020-06-05 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 数据处理模型训练方法、数据处理方法、装置、电子设备 |
CN111476292A (zh) * | 2020-04-03 | 2020-07-31 | 北京全景德康医学影像诊断中心有限公司 | 医学图像分类处理人工智能的小样本元学习训练方法 |
-
2020
- 2020-09-09 CN CN202010941622.XA patent/CN111985581B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200097771A1 (en) * | 2018-09-25 | 2020-03-26 | Nec Laboratories America, Inc. | Deep group disentangled embedding and network weight generation for visual inspection |
CN111291139A (zh) * | 2020-03-17 | 2020-06-16 | 中国科学院自动化研究所 | 基于注意力机制的知识图谱长尾关系补全方法 |
CN111476292A (zh) * | 2020-04-03 | 2020-07-31 | 北京全景德康医学影像诊断中心有限公司 | 医学图像分类处理人工智能的小样本元学习训练方法 |
CN111401558A (zh) * | 2020-06-05 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 数据处理模型训练方法、数据处理方法、装置、电子设备 |
Non-Patent Citations (2)
Title |
---|
JUNHUA WANG ET AL.: "Attention Based Siamese Networks for Few-Shot Learning", 《2018 IEEE 9TH INTERNATIONAL CONFERENCE ON SOFTWARE ENGINEERING AND SERVICE SCIENCE (ICSESS)》, 11 March 2019 (2019-03-11), pages 551 - 554 * |
蒋留兵 等: "基于改进匹配网络的单样本学习", 《系统工程与电子技术》, vol. 41, no. 06, 22 March 2019 (2019-03-22), pages 1210 - 1217 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI804090B (zh) * | 2020-12-07 | 2023-06-01 | 日商樂天集團股份有限公司 | 學習系統、學習方法及程式產品 |
WO2022134586A1 (zh) * | 2020-12-21 | 2022-06-30 | 深圳壹账通智能科技有限公司 | 基于元学习的目标分类方法、装置、设备和存储介质 |
CN112613555A (zh) * | 2020-12-21 | 2021-04-06 | 深圳壹账通智能科技有限公司 | 基于元学习的目标分类方法、装置、设备和存储介质 |
CN112765315A (zh) * | 2021-01-18 | 2021-05-07 | 燕山大学 | 一种法律场景智能分类系统和方法 |
CN112929380B (zh) * | 2021-02-22 | 2022-04-15 | 中国科学院信息工程研究所 | 结合元学习与时空特征融合的木马通信检测方法及系统 |
CN112929380A (zh) * | 2021-02-22 | 2021-06-08 | 中国科学院信息工程研究所 | 结合元学习与时空特征融合的木马通信检测方法及系统 |
CN113033665A (zh) * | 2021-03-26 | 2021-06-25 | 北京沃东天骏信息技术有限公司 | 样本扩展方法、训练方法和系统、及样本学习系统 |
CN113033665B (zh) * | 2021-03-26 | 2024-07-19 | 北京沃东天骏信息技术有限公司 | 样本扩展方法、训练方法和系统、及样本学习系统 |
WO2022199214A1 (zh) * | 2021-03-26 | 2022-09-29 | 北京沃东天骏信息技术有限公司 | 样本扩展方法、训练方法和系统、及样本学习系统 |
CN113111804A (zh) * | 2021-04-16 | 2021-07-13 | 北京房江湖科技有限公司 | 一种人脸检测的方法、装置、电子设备及存储介质 |
CN113111804B (zh) * | 2021-04-16 | 2024-06-04 | 贝壳找房(北京)科技有限公司 | 一种人脸检测的方法、装置、电子设备及存储介质 |
CN113537305A (zh) * | 2021-06-29 | 2021-10-22 | 复旦大学 | 一种基于匹配网络少样本学习的图像分类方法 |
CN114861749A (zh) * | 2022-03-11 | 2022-08-05 | 山东科技大学 | 一种基于深度原型网络的少样本轴承故障诊断方法 |
CN114861749B (zh) * | 2022-03-11 | 2024-10-22 | 山东科技大学 | 一种基于深度原型网络的少样本轴承故障诊断方法 |
CN114580484A (zh) * | 2022-04-28 | 2022-06-03 | 西安电子科技大学 | 一种基于增量学习的小样本通信信号自动调制识别方法 |
CN115953665A (zh) * | 2023-03-09 | 2023-04-11 | 武汉人工智能研究院 | 一种目标检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111985581B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111985581B (zh) | 一种基于样本级注意力网络的少样本学习方法 | |
CN112308158B (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN109299342B (zh) | 一种基于循环生成式对抗网络的跨模态检索方法 | |
US10956817B2 (en) | Unsupervised domain adaptation with similarity learning for images | |
CN109063565B (zh) | 一种低分辨率人脸识别方法及装置 | |
CN112528928B (zh) | 一种基于自注意力深度网络的商品识别方法 | |
Lian et al. | Max-margin dictionary learning for multiclass image categorization | |
CN109063719B (zh) | 一种联合结构相似性和类信息的图像分类方法 | |
CN110942091B (zh) | 寻找可靠的异常数据中心的半监督少样本图像分类方法 | |
CN105930834B (zh) | 基于球哈希二值编码的人脸识别方法及装置 | |
CN107480261A (zh) | 一种基于深度学习细粒度人脸图像快速检索方法 | |
CN105760888B (zh) | 一种基于属性聚类的邻域粗糙集集成学习方法 | |
CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN103400144B (zh) | 一种基于k近邻的支持向量机主动学习的方法 | |
CN107004115B (zh) | 用于人脸识别的方法和系统 | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN105894050A (zh) | 一种基于多任务学习的人脸图像种族和性别识别方法 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN114444600A (zh) | 基于记忆增强原型网络的小样本图像分类方法 | |
CN114780767B (zh) | 一种基于深度卷积神经网络的大规模图像检索方法及系统 | |
CN114329031B (zh) | 一种基于图神经网络和深度哈希的细粒度鸟类图像检索方法 | |
CN115221947A (zh) | 一种基于预训练语言模型的鲁棒的多模态主动学习方法 | |
CN114692732A (zh) | 一种在线标签更新的方法、系统、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220705 |