CN113837228B - 基于惩罚感知中心损失函数的用于细粒度物体检索方法 - Google Patents
基于惩罚感知中心损失函数的用于细粒度物体检索方法 Download PDFInfo
- Publication number
- CN113837228B CN113837228B CN202111005829.7A CN202111005829A CN113837228B CN 113837228 B CN113837228 B CN 113837228B CN 202111005829 A CN202111005829 A CN 202111005829A CN 113837228 B CN113837228 B CN 113837228B
- Authority
- CN
- China
- Prior art keywords
- center point
- loss function
- global
- center
- batch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006870 function Effects 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000008447 perception Effects 0.000 title claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000012512 characterization method Methods 0.000 claims abstract description 3
- 239000010410 layer Substances 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 3
- 239000002344 surface layer Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
基于惩罚感知中心损失函数的用于细粒度物体检索方法,涉及深度度量学习和细粒度对象检索。包括以下步骤:1)使用resnet50网络对图片进行特征抽取,获得到对于输入信息的维度为2048的向量表征;2)将全连接层的权重当做细粒度物体的全局中心点来构建全新的tripletloss损失函数;3)在获得全局中心的基础上,计算每一个batch中的局部中心点,然后通过惩罚感知中心损失函数修正全局中心点,使最后参与计算的中心点尽可能接近实际意义上的中心点。充分利用全局数据分布和局部数据分布相结合的表达能力来学习高质量的距离度量。在广泛使用的数据集CUB‑200‑2011上验证该方法的有效性。
Description
技术领域
本发明涉及深度度量学习和细粒度对象检索,具体是涉及一种基于深度度量学习的惩罚感知中心损失函数的用于细粒度物体检索的深度神经网络。
背景技术
随着深度神经网络在各种计算机领域任务上取得卓越的效果,深度神经网络的影响力日益扩大。在各种通用领域的任务可以较为容易的获得极高的性能与效果,比如猫狗检索等等问题。可是如果对于特定领域的问题的检索上,例如鸟类检索、车辆ReID,往往会存在误识别和较低检索精度的问题。这是由于在特定领域中,相同类别物体的类内差异较大,不同物体对象的类间差异较小导致的。因此,细粒度物体检索逐渐成为当前研究的热门领域,它的主要目的是通过在特定领域的问题中减小相同类别物体的类内差异和扩大不同类别物体的类间差异,来解决在特定领域的检索问题。
由于细粒度检索是对于特定领域的问题的检索上,例如鸟类检索、车辆ReID。因此,在这样的设置中,物体实例彼此相似,并且在一个通用类中。因此,不同的实例只能通过细微的部分来区分,这是关键的挑战。传统的细粒度物体检索方法往往采用人工设计的特征,比如LBP,Bag-of-Visual-Words等(具体内容可以参考文献Lingxi Xie,JingdongWang,Bo Zhang,and Qi Tian.2015.Fine-grained image search.IEEE Transactions onMultimedia),以及支持向量机来识别具有细粒度语义和视觉外观的实例。但这些人工设计的特征往往比较局限,它们对不同的环境和设备较为敏感,容易受到训练数据的干扰。随着深度学习的发展,深度神经网络被用于细粒度检索任务,并取得卓越的表现。近期,基于神经网络的方法(Xiu-Shen Wei,Jian-Hao Luo,Jianxin Wu,and Zhi-HuaZhou.2017.Selective Convolutional Descriptor Aggregation for Fine-GrainedImage Retrieval.IEEE Transactions on Image Processing.)提出利用粗粒度的显著性映射选择特征以提高检索性能的方法,说明目标定位的重要性。然而,利用粗粒度的显著性特征图和预训练的神经网络来提取的特征并不总是具有识别性,这需要精确的目标检测和实例分割。这往往需要设计复杂的网络结构和不能做到端到端训练,同时如此复杂的模型会导致泛化能力较差。
为解决上述问题,考虑使用深度度量学习来设计针对于细粒度检索问题的损失函数和网络结构来实现对于特定领域的问题的检索上,例如鸟类检索、车辆ReID。近来,目前基于代理点的损失函数设计成为深度度量学习的主要研究方向之一,例如基于代理点的损失函数(Xiawu Zheng,Rongrong Ji,Xiaoshuai Sun,Baochang Zhang,Yongjian Wu,andFeiyue Huang.2019.Towards Optimal Fine Grained Retrieval via DecorrelatedCentralized Loss with Normalize-Scale layer.In Proceedings of the Associationfor the Advance of Artificial Intelligence)通过改进经典的损失函数在细粒度检索问题上取得卓越的效果。尽管基于代理的triplet取得显著的进展,但这类工作通常在构建三元组时考虑局部数据的分布,往往忽略整个训练数据的全局分布,因为三元组是从训练数据的子集(通常是一批)中选取的。此外,该方法还存在一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样的问题。因此,这种局部设置本质上不足以准确表征训练数据的整体几何结构,会导致模型对采样数据过拟合,而对未采样数据拟合不足。最后,在深度模型的训练中加入基于代理的学习使得上述问题更加严重,因为在每次迭代中只采样一小批来更新模型参数。此外,为解决深度神经网络容易过拟合的问题。考虑重新设计模型的损失函数,来解决上述问题。
发明内容
本发明的目的在于针对现有技术存在的在使用深度度量学习来设计针对于细粒度检索问题的损失函数时,没有将整个训练数据的全局分布和每一个batch中数据的局部分布特性综合起来考虑,以及一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样等问题;提供一种基于深度度量学习的惩罚感知中心损失函数的用于细粒度物体检索的深度神经网络;本发明引入memory bank来存储全局中心,同时使用全局中心点来构造惩罚感知中心损失函数,使得模型更具鉴别性和泛化能力。
基于惩罚感知中心损失函数的细粒度检索方法,包括以下步骤:
1)使用resnet50网络对图片进行特征抽取,获得到对于输入信息的维度为2048的向量表征;
2)将全连接层的权重当做细粒度物体的全局中心点来构建全新的triplet loss损失函数;
3)在获得全局中心的基础上,计算每一个batch中的局部中心点,然后通过惩罚感知中心损失函数修正全局中心点,使最后参与计算的中心点尽可能接近实际意义上的中心点。
在步骤1)中,深度神经网络使用112*112大小的图片数据作为输入,单独使用一个resnet50网络对其特征抽取,在最后一个卷积层之后之后,使用一个全局池化层产生一个512维的判别特征,然后进入正则化层,将获得512维特征归一化到某一个超球面的表面层,然后进入Embedding Space,原始的欧氏距离||zi-zj||被转换为其中,(zi,zj,zk)为数据集中的三个不同的样本经过resnet50网络对其特征抽取得到的特征,(zi,zj)是来自同一个类别的正样本对,(zj,zk)是来自不同类别的负样本对,/>(α是自定义缩放参数,||z||指的是对于变量z进行正则化操作。
在步骤2)中,所述构建全新的triplet loss损失函数的具体步骤可为:使用zi对应类别的全局中心点来替换三元组(zi,zj,zk)中的正样本zj,使用与zi不同类别的全局中心点Wj来替换三元组(zi,zj,zk)中的负样本zk,所以有三元组(zi,Wli,Wj),同时对于中心点也做正则化处理,加上原本用于全连接层之后的softmax损失函数得到全新的tripletloss损失函数:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数是与/>类别不相同的类别中心;/>是与类别相同的类别中心。
在步骤3)中,所述局部中心点Cm如下式:
其中,1{ }为指示函数,li为对应的类别的标签;batch中相同类别的特征直接平均获得该类别在当前batch中的局部中心点;通过惩罚感知策略β修正全局中心点:
其中,ei为当前的epoch次数,E为总的训练epoch次数,通过训练时间来动态惩罚全局中心点;所述惩罚感知中心损失函数为:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数是与/>类别不相同的类别中心;/>是与类别相同的类别中心。
本发明的优点如下:
本发明提出一种罚感知中心损失函数,它充分利用全局数据分布和局部数据分布相结合的表达能力来学习高质量的距离度量。本发明解决了以往在使用深度度量学习来设计针对于细粒度检索问题的损失函数时,没有将整个训练数据的全局分布和每一个batch中数据的局部分布特性综合起来考虑,以及一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样等问题。本发明在广泛使用的数据集CUB-200-2011上验证该方法的有效性。
附图说明
图1为本发明的网络结构框架图。
图2为本发明的对应数据集的T-SNE效果展示图。
具体实施方式
以下实施例将结合附图对本发明作详细的说明。
本发明包括以下部分:
1.正则化层(Normalization),如图1所示的Normalization层。网络使用112*112大小的图片数据作为输入,单独使用一个resnet50网络对其特征抽取,在最后一个卷积层之后之后,使用一个全局池化层产生一个512维的判别特征,然后进入正则化层,将获得512维特征归一化到某一个超球面的表面层,然后进入Embedding Space。所以,原始的欧氏距离||zi-zj||被转换为其中(zi,zj,zk)为三元组对,(zi,zj)是来自同一个类别的正样本对,(zi,zj)是来自不同类别的负样本对,/>
2.存储体(memory bank),为解决部分数据被多次重复采样,而另一些数据点可能永远不会被采样的问题,以及减少在传统的度量学习方法中构建三元组带来的大量计算。同时,将存储体定义为正则化层之后的全连接层的权重,与原始resnet50网络,这没有增加任何的存储空间,只是将全连接层的权重当做细粒度物体的全局中心点来构建全新的triplet loss损失函数。具体来说就是,使用zi对应类别的全局中心点来替换三元组(zi,zj,zk)中的正样本zj,使用与zi不同类别的全局中心点Wj来替换三元组(zi,zj,zk)中的负样本zk,所以有三元组/>同时对于中心点也做正则化处理,加上原本用于全连接层之后的softmax损失函数得到:
3.惩罚感知策略,如图1所示,在获得全局中心的基础上,计算每一个batch中的局部中心点,然后通过局部中心点来修正全局中心点,使得最后参与计算的中心点可能的接近实际意义上的中心点。局部中心点Cm的获得:
其中,1{ }为指示函数,li为对应的类别的标签。batch中相同类别的特征直接平均获得该类别在当前batch中的局部中心点。通过惩罚感知策略β来修正全局中心点:
其中,ei为当前的epoch次数,E为总的训练epoch次数,通过训练时间来动态惩罚全局中心点。本发明的损失函数为:
以CUB-200-2011数据集为例进行说明。CUB-200-2011数据集包含1.2万张112*112大小的图片。图片总共可以分为200个类别的鸟类,每个鸟类都包含200张图片。
CUB-200-2011数据集中方法实验结果参见表1。
表1
从表1可以看出,在CUB-200-2011数据集上,在R@1,R@2,R@4和R@8指标上分别提高2.2,1.5,0.4,0.3个百分点。这种提高的难点于如何精准的区分只有细微差别的不同种类的的图片。
图2给出本发明的对应数据集的T-SNE效果展示图。可以看出,本发明解决一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样等问题。本发明方法精确性更高。
Claims (1)
1.基于惩罚感知中心损失函数的用于细粒度物体检索方法,其特征在于包括以下步骤:
1)使用resnet50网络对图片进行特征抽取,获得到对于输入信息的维度为2048的向量表征;在步骤1)中,深度神经网络使用112*112大小的图片数据作为输入,单独使用一个resnet50网络对其特征抽取,在最后一个卷积层之后,使用一个全局池化层产生一个512维的判别特征,然后进入正则化层,将获得512维特征归一化到某一个超球面的表面层,然后进入EmbeddingSpace,原始的欧氏距离||zi-zj||被转换为其中,(zi,zj,zk)为数据集中的三个不同的样本经过resnet50网络对其特征抽取得到的特征,(zi,zj)是来自同一个类别的正样本对,(zj,zk)是来自不同类别的负样本对,/>α是自定义缩放参数,||z||指的是对于变量z进行正则化操作;
2)将全连接层的权重当做细粒度物体的全局中心点来构建全新的tripletloss损失函数,具体步骤为:使用zi对应类别的全局中心点来替换三元组(zi,zj,zk)中的正样本zj,使用与zi不同类别的全局中心点Wj来替换三元组(zi,zj,zk)中的负样本zk,所以有三元组同时对于中心点也做正则化处理,加上原本用于全连接层之后的softmax损失函数得到全新的tripletloss损失函数:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数,是与/>类别不相同的类别中心;/>是与/>相同的类别中心;
3)在获得全局中心的基础上,计算每一个batch中的局部中心点Cm,然后通过惩罚感知中心损失函数修正全局中心点,使最后参与计算的中心点尽可能接近实际意义上的中心点;
所述局部中心点Cm如下式:
其中,1{}为指示函数,li为对应的类别的标签;batch中相同类别的特征直接平均获得该类别在当前batch中的局部中心点;通过惩罚感知策略β修正全局中心点:
其中,ei为当前的epoch次数,E为总的训练epoch次数,通过训练时间来动态惩罚全局中心点;所述惩罚感知中心损失函数为:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数,是与/>类别不相同的类别中心;/>是与/>相同的类别中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111005829.7A CN113837228B (zh) | 2021-08-30 | 2021-08-30 | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111005829.7A CN113837228B (zh) | 2021-08-30 | 2021-08-30 | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113837228A CN113837228A (zh) | 2021-12-24 |
CN113837228B true CN113837228B (zh) | 2024-01-16 |
Family
ID=78961580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111005829.7A Active CN113837228B (zh) | 2021-08-30 | 2021-08-30 | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113837228B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399428A (zh) * | 2018-02-09 | 2018-08-14 | 哈尔滨工业大学深圳研究生院 | 一种基于迹比准则的三元组损失函数设计方法 |
WO2018148493A1 (en) * | 2017-02-09 | 2018-08-16 | Painted Dog, Inc. | Methods and apparatus for detecting, filtering, and identifying objects in streaming video |
CN109190446A (zh) * | 2018-07-06 | 2019-01-11 | 西北工业大学 | 基于三元组聚焦损失函数的行人再识别方法 |
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
CN110334235A (zh) * | 2019-04-28 | 2019-10-15 | 厦门大学 | 一种中心排序损失及弱监督物体定位的细粒度检索方法 |
WO2019231105A1 (ko) * | 2018-05-31 | 2019-12-05 | 한국과학기술원 | 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치 |
CN110728263A (zh) * | 2019-10-24 | 2020-01-24 | 中国石油大学(华东) | 一种基于距离选择的强判别特征学习的行人重识别方法 |
CN111507217A (zh) * | 2020-04-08 | 2020-08-07 | 南京邮电大学 | 一种基于局部分辨特征融合的行人重识别方法 |
CN111652293A (zh) * | 2020-05-20 | 2020-09-11 | 西安交通大学苏州研究院 | 一种多任务联合判别学习的车辆重识别方法 |
CN112257601A (zh) * | 2020-10-22 | 2021-01-22 | 福州大学 | 基于弱监督学习的数据增强网络的细粒度车辆识别方法 |
CN112861626A (zh) * | 2021-01-04 | 2021-05-28 | 西北工业大学 | 基于小样本学习的细粒度表情分类方法 |
CN113220915A (zh) * | 2021-04-29 | 2021-08-06 | 华中科技大学 | 一种基于残差注意力的遥感图像检索方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3234871B1 (en) * | 2014-12-17 | 2020-11-25 | Google LLC | Generating numeric embeddings of images |
US11348237B2 (en) * | 2019-05-16 | 2022-05-31 | Retrace Labs | Artificial intelligence architecture for identification of periodontal features |
-
2021
- 2021-08-30 CN CN202111005829.7A patent/CN113837228B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018148493A1 (en) * | 2017-02-09 | 2018-08-16 | Painted Dog, Inc. | Methods and apparatus for detecting, filtering, and identifying objects in streaming video |
CN108399428A (zh) * | 2018-02-09 | 2018-08-14 | 哈尔滨工业大学深圳研究生院 | 一种基于迹比准则的三元组损失函数设计方法 |
WO2019231105A1 (ko) * | 2018-05-31 | 2019-12-05 | 한국과학기술원 | 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치 |
CN109190446A (zh) * | 2018-07-06 | 2019-01-11 | 西北工业大学 | 基于三元组聚焦损失函数的行人再识别方法 |
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
CN110334235A (zh) * | 2019-04-28 | 2019-10-15 | 厦门大学 | 一种中心排序损失及弱监督物体定位的细粒度检索方法 |
CN110728263A (zh) * | 2019-10-24 | 2020-01-24 | 中国石油大学(华东) | 一种基于距离选择的强判别特征学习的行人重识别方法 |
CN111507217A (zh) * | 2020-04-08 | 2020-08-07 | 南京邮电大学 | 一种基于局部分辨特征融合的行人重识别方法 |
CN111652293A (zh) * | 2020-05-20 | 2020-09-11 | 西安交通大学苏州研究院 | 一种多任务联合判别学习的车辆重识别方法 |
CN112257601A (zh) * | 2020-10-22 | 2021-01-22 | 福州大学 | 基于弱监督学习的数据增强网络的细粒度车辆识别方法 |
CN112861626A (zh) * | 2021-01-04 | 2021-05-28 | 西北工业大学 | 基于小样本学习的细粒度表情分类方法 |
CN113220915A (zh) * | 2021-04-29 | 2021-08-06 | 华中科技大学 | 一种基于残差注意力的遥感图像检索方法及装置 |
Non-Patent Citations (1)
Title |
---|
角度余量损失和中心损失联合的深度人脸识别;李振东;钟勇;陈蔓;王理顺;;计算机应用(第S2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113837228A (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11670071B2 (en) | Fine-grained image recognition | |
US11341424B2 (en) | Method, apparatus and system for estimating causality among observed variables | |
CN113378632A (zh) | 一种基于伪标签优化的无监督域适应行人重识别算法 | |
Wu et al. | PSOSAC: Particle swarm optimization sample consensus algorithm for remote sensing image registration | |
CN108154198B (zh) | 知识库实体归一方法、系统、终端和计算机可读存储介质 | |
CN110188225B (zh) | 一种基于排序学习和多元损失的图像检索方法 | |
Wang et al. | SSRNet: In-field counting wheat ears using multi-stage convolutional neural network | |
CN113360701B (zh) | 一种基于知识蒸馏的素描图处理方法及其系统 | |
CN115080764B (zh) | 基于知识图谱及聚类算法的医学相似实体分类方法及系统 | |
CN111127364A (zh) | 图像数据增强策略选择方法及人脸识别图像数据增强方法 | |
Fornarelli et al. | An unsupervised multi-swarm clustering technique for image segmentation | |
WO2022041940A1 (en) | Cross-modal retrieval method, training method for cross-modal retrieval model, and related device | |
CN105320764A (zh) | 一种基于增量慢特征的3d模型检索方法及其检索装置 | |
Bi et al. | Multiple instance dense connected convolution neural network for aerial image scene classification | |
CN110765882A (zh) | 一种视频标签确定方法、装置、服务器及存储介质 | |
CN111738319B (zh) | 一种基于大规模样本的聚类结果评价方法及装置 | |
CN115471739A (zh) | 基于自监督对比学习的跨域遥感场景分类与检索方法 | |
Simran et al. | Content based image retrieval using deep learning convolutional neural network | |
CN113837228B (zh) | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 | |
CN117315090A (zh) | 基于跨模态风格学习的图像生成方法及装置 | |
Li et al. | Hierarchical clustering driven by cognitive features | |
CN117435685A (zh) | 文档检索方法、装置、计算机设备、存储介质和产品 | |
CN116704171A (zh) | 基于多尺度局部描述符聚合网络的跨视角跨模态地理定位方法 | |
Zhang et al. | Hierarchical Image Retrieval Method Based on Bag-of-Visual-Word and Eight-point Algorithm with Feature Clouds for Visual Indoor Positioning | |
Yu et al. | Bag of Tricks and a Strong Baseline for FGVC. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |