CN113837228B - 基于惩罚感知中心损失函数的用于细粒度物体检索方法 - Google Patents

基于惩罚感知中心损失函数的用于细粒度物体检索方法 Download PDF

Info

Publication number
CN113837228B
CN113837228B CN202111005829.7A CN202111005829A CN113837228B CN 113837228 B CN113837228 B CN 113837228B CN 202111005829 A CN202111005829 A CN 202111005829A CN 113837228 B CN113837228 B CN 113837228B
Authority
CN
China
Prior art keywords
center point
loss function
global
center
batch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111005829.7A
Other languages
English (en)
Other versions
CN113837228A (zh
Inventor
纪荣嵘
李润
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202111005829.7A priority Critical patent/CN113837228B/zh
Publication of CN113837228A publication Critical patent/CN113837228A/zh
Application granted granted Critical
Publication of CN113837228B publication Critical patent/CN113837228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

基于惩罚感知中心损失函数的用于细粒度物体检索方法,涉及深度度量学习和细粒度对象检索。包括以下步骤:1)使用resnet50网络对图片进行特征抽取,获得到对于输入信息的维度为2048的向量表征;2)将全连接层的权重当做细粒度物体的全局中心点来构建全新的tripletloss损失函数;3)在获得全局中心的基础上,计算每一个batch中的局部中心点,然后通过惩罚感知中心损失函数修正全局中心点,使最后参与计算的中心点尽可能接近实际意义上的中心点。充分利用全局数据分布和局部数据分布相结合的表达能力来学习高质量的距离度量。在广泛使用的数据集CUB‑200‑2011上验证该方法的有效性。

Description

基于惩罚感知中心损失函数的用于细粒度物体检索方法
技术领域
本发明涉及深度度量学习和细粒度对象检索,具体是涉及一种基于深度度量学习的惩罚感知中心损失函数的用于细粒度物体检索的深度神经网络。
背景技术
随着深度神经网络在各种计算机领域任务上取得卓越的效果,深度神经网络的影响力日益扩大。在各种通用领域的任务可以较为容易的获得极高的性能与效果,比如猫狗检索等等问题。可是如果对于特定领域的问题的检索上,例如鸟类检索、车辆ReID,往往会存在误识别和较低检索精度的问题。这是由于在特定领域中,相同类别物体的类内差异较大,不同物体对象的类间差异较小导致的。因此,细粒度物体检索逐渐成为当前研究的热门领域,它的主要目的是通过在特定领域的问题中减小相同类别物体的类内差异和扩大不同类别物体的类间差异,来解决在特定领域的检索问题。
由于细粒度检索是对于特定领域的问题的检索上,例如鸟类检索、车辆ReID。因此,在这样的设置中,物体实例彼此相似,并且在一个通用类中。因此,不同的实例只能通过细微的部分来区分,这是关键的挑战。传统的细粒度物体检索方法往往采用人工设计的特征,比如LBP,Bag-of-Visual-Words等(具体内容可以参考文献Lingxi Xie,JingdongWang,Bo Zhang,and Qi Tian.2015.Fine-grained image search.IEEE Transactions onMultimedia),以及支持向量机来识别具有细粒度语义和视觉外观的实例。但这些人工设计的特征往往比较局限,它们对不同的环境和设备较为敏感,容易受到训练数据的干扰。随着深度学习的发展,深度神经网络被用于细粒度检索任务,并取得卓越的表现。近期,基于神经网络的方法(Xiu-Shen Wei,Jian-Hao Luo,Jianxin Wu,and Zhi-HuaZhou.2017.Selective Convolutional Descriptor Aggregation for Fine-GrainedImage Retrieval.IEEE Transactions on Image Processing.)提出利用粗粒度的显著性映射选择特征以提高检索性能的方法,说明目标定位的重要性。然而,利用粗粒度的显著性特征图和预训练的神经网络来提取的特征并不总是具有识别性,这需要精确的目标检测和实例分割。这往往需要设计复杂的网络结构和不能做到端到端训练,同时如此复杂的模型会导致泛化能力较差。
为解决上述问题,考虑使用深度度量学习来设计针对于细粒度检索问题的损失函数和网络结构来实现对于特定领域的问题的检索上,例如鸟类检索、车辆ReID。近来,目前基于代理点的损失函数设计成为深度度量学习的主要研究方向之一,例如基于代理点的损失函数(Xiawu Zheng,Rongrong Ji,Xiaoshuai Sun,Baochang Zhang,Yongjian Wu,andFeiyue Huang.2019.Towards Optimal Fine Grained Retrieval via DecorrelatedCentralized Loss with Normalize-Scale layer.In Proceedings of the Associationfor the Advance of Artificial Intelligence)通过改进经典的损失函数在细粒度检索问题上取得卓越的效果。尽管基于代理的triplet取得显著的进展,但这类工作通常在构建三元组时考虑局部数据的分布,往往忽略整个训练数据的全局分布,因为三元组是从训练数据的子集(通常是一批)中选取的。此外,该方法还存在一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样的问题。因此,这种局部设置本质上不足以准确表征训练数据的整体几何结构,会导致模型对采样数据过拟合,而对未采样数据拟合不足。最后,在深度模型的训练中加入基于代理的学习使得上述问题更加严重,因为在每次迭代中只采样一小批来更新模型参数。此外,为解决深度神经网络容易过拟合的问题。考虑重新设计模型的损失函数,来解决上述问题。
发明内容
本发明的目的在于针对现有技术存在的在使用深度度量学习来设计针对于细粒度检索问题的损失函数时,没有将整个训练数据的全局分布和每一个batch中数据的局部分布特性综合起来考虑,以及一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样等问题;提供一种基于深度度量学习的惩罚感知中心损失函数的用于细粒度物体检索的深度神经网络;本发明引入memory bank来存储全局中心,同时使用全局中心点来构造惩罚感知中心损失函数,使得模型更具鉴别性和泛化能力。
基于惩罚感知中心损失函数的细粒度检索方法,包括以下步骤:
1)使用resnet50网络对图片进行特征抽取,获得到对于输入信息的维度为2048的向量表征;
2)将全连接层的权重当做细粒度物体的全局中心点来构建全新的triplet loss损失函数;
3)在获得全局中心的基础上,计算每一个batch中的局部中心点,然后通过惩罚感知中心损失函数修正全局中心点,使最后参与计算的中心点尽可能接近实际意义上的中心点。
在步骤1)中,深度神经网络使用112*112大小的图片数据作为输入,单独使用一个resnet50网络对其特征抽取,在最后一个卷积层之后之后,使用一个全局池化层产生一个512维的判别特征,然后进入正则化层,将获得512维特征归一化到某一个超球面的表面层,然后进入Embedding Space,原始的欧氏距离||zi-zj||被转换为其中,(zi,zj,zk)为数据集中的三个不同的样本经过resnet50网络对其特征抽取得到的特征,(zi,zj)是来自同一个类别的正样本对,(zj,zk)是来自不同类别的负样本对,/>(α是自定义缩放参数,||z||指的是对于变量z进行正则化操作。
在步骤2)中,所述构建全新的triplet loss损失函数的具体步骤可为:使用zi对应类别的全局中心点来替换三元组(zi,zj,zk)中的正样本zj,使用与zi不同类别的全局中心点Wj来替换三元组(zi,zj,zk)中的负样本zk,所以有三元组(zi,Wli,Wj),同时对于中心点也做正则化处理,加上原本用于全连接层之后的softmax损失函数得到全新的tripletloss损失函数:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数是与/>类别不相同的类别中心;/>是与类别相同的类别中心。
在步骤3)中,所述局部中心点Cm如下式:
其中,1{ }为指示函数,li对应的类别的标签;batch中相同类别的特征直接平均获得该类别在当前batch中的局部中心点;通过惩罚感知策略β修正全局中心点:
其中,ei为当前的epoch次数,E为总的训练epoch次数,通过训练时间来动态惩罚全局中心点;所述惩罚感知中心损失函数为:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数是与/>类别不相同的类别中心;/>是与类别相同的类别中心。
本发明的优点如下:
本发明提出一种罚感知中心损失函数,它充分利用全局数据分布和局部数据分布相结合的表达能力来学习高质量的距离度量。本发明解决了以往在使用深度度量学习来设计针对于细粒度检索问题的损失函数时,没有将整个训练数据的全局分布和每一个batch中数据的局部分布特性综合起来考虑,以及一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样等问题。本发明在广泛使用的数据集CUB-200-2011上验证该方法的有效性。
附图说明
图1为本发明的网络结构框架图。
图2为本发明的对应数据集的T-SNE效果展示图。
具体实施方式
以下实施例将结合附图对本发明作详细的说明。
本发明包括以下部分:
1.正则化层(Normalization),如图1所示的Normalization层。网络使用112*112大小的图片数据作为输入,单独使用一个resnet50网络对其特征抽取,在最后一个卷积层之后之后,使用一个全局池化层产生一个512维的判别特征,然后进入正则化层,将获得512维特征归一化到某一个超球面的表面层,然后进入Embedding Space。所以,原始的欧氏距离||zi-zj||被转换为其中(zi,zj,zk)为三元组对,(zi,zj)是来自同一个类别的正样本对,(zi,zj)是来自不同类别的负样本对,/>
2.存储体(memory bank),为解决部分数据被多次重复采样,而另一些数据点可能永远不会被采样的问题,以及减少在传统的度量学习方法中构建三元组带来的大量计算。同时,将存储体定义为正则化层之后的全连接层的权重,与原始resnet50网络,这没有增加任何的存储空间,只是将全连接层的权重当做细粒度物体的全局中心点来构建全新的triplet loss损失函数。具体来说就是,使用zi对应类别的全局中心点来替换三元组(zi,zj,zk)中的正样本zj,使用与zi不同类别的全局中心点Wj来替换三元组(zi,zj,zk)中的负样本zk,所以有三元组/>同时对于中心点也做正则化处理,加上原本用于全连接层之后的softmax损失函数得到:
3.惩罚感知策略,如图1所示,在获得全局中心的基础上,计算每一个batch中的局部中心点,然后通过局部中心点来修正全局中心点,使得最后参与计算的中心点可能的接近实际意义上的中心点。局部中心点Cm的获得:
其中,1{ }为指示函数,li对应的类别的标签。batch中相同类别的特征直接平均获得该类别在当前batch中的局部中心点。通过惩罚感知策略β来修正全局中心点:
其中,ei为当前的epoch次数,E为总的训练epoch次数,通过训练时间来动态惩罚全局中心点。本发明的损失函数为:
以CUB-200-2011数据集为例进行说明。CUB-200-2011数据集包含1.2万张112*112大小的图片。图片总共可以分为200个类别的鸟类,每个鸟类都包含200张图片。
CUB-200-2011数据集中方法实验结果参见表1。
表1
从表1可以看出,在CUB-200-2011数据集上,在R@1,R@2,R@4和R@8指标上分别提高2.2,1.5,0.4,0.3个百分点。这种提高的难点于如何精准的区分只有细微差别的不同种类的的图片。
图2给出本发明的对应数据集的T-SNE效果展示图。可以看出,本发明解决一些数据点需要多次重复采样,而另一些数据点可能永远不会被采样等问题。本发明方法精确性更高。

Claims (1)

1.基于惩罚感知中心损失函数的用于细粒度物体检索方法,其特征在于包括以下步骤:
1)使用resnet50网络对图片进行特征抽取,获得到对于输入信息的维度为2048的向量表征;在步骤1)中,深度神经网络使用112*112大小的图片数据作为输入,单独使用一个resnet50网络对其特征抽取,在最后一个卷积层之后,使用一个全局池化层产生一个512维的判别特征,然后进入正则化层,将获得512维特征归一化到某一个超球面的表面层,然后进入EmbeddingSpace,原始的欧氏距离||zi-zj||被转换为其中,(zi,zj,zk)为数据集中的三个不同的样本经过resnet50网络对其特征抽取得到的特征,(zi,zj)是来自同一个类别的正样本对,(zj,zk)是来自不同类别的负样本对,/>α是自定义缩放参数,||z||指的是对于变量z进行正则化操作;
2)将全连接层的权重当做细粒度物体的全局中心点来构建全新的tripletloss损失函数,具体步骤为:使用zi对应类别的全局中心点来替换三元组(zi,zj,zk)中的正样本zj,使用与zi不同类别的全局中心点Wj来替换三元组(zi,zj,zk)中的负样本zk,所以有三元组同时对于中心点也做正则化处理,加上原本用于全连接层之后的softmax损失函数得到全新的tripletloss损失函数:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数,是与/>类别不相同的类别中心;/>是与/>相同的类别中心;
3)在获得全局中心的基础上,计算每一个batch中的局部中心点Cm,然后通过惩罚感知中心损失函数修正全局中心点,使最后参与计算的中心点尽可能接近实际意义上的中心点;
所述局部中心点Cm如下式:
其中,1{}为指示函数,li对应的类别的标签;batch中相同类别的特征直接平均获得该类别在当前batch中的局部中心点;通过惩罚感知策略β修正全局中心点:
其中,ei为当前的epoch次数,E为总的训练epoch次数,通过训练时间来动态惩罚全局中心点;所述惩罚感知中心损失函数为:
λ1和λ2是两个等式的平衡参数,N是batch大小,C为batch中的类别数,是与/>类别不相同的类别中心;/>是与/>相同的类别中心。
CN202111005829.7A 2021-08-30 2021-08-30 基于惩罚感知中心损失函数的用于细粒度物体检索方法 Active CN113837228B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111005829.7A CN113837228B (zh) 2021-08-30 2021-08-30 基于惩罚感知中心损失函数的用于细粒度物体检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111005829.7A CN113837228B (zh) 2021-08-30 2021-08-30 基于惩罚感知中心损失函数的用于细粒度物体检索方法

Publications (2)

Publication Number Publication Date
CN113837228A CN113837228A (zh) 2021-12-24
CN113837228B true CN113837228B (zh) 2024-01-16

Family

ID=78961580

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111005829.7A Active CN113837228B (zh) 2021-08-30 2021-08-30 基于惩罚感知中心损失函数的用于细粒度物体检索方法

Country Status (1)

Country Link
CN (1) CN113837228B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399428A (zh) * 2018-02-09 2018-08-14 哈尔滨工业大学深圳研究生院 一种基于迹比准则的三元组损失函数设计方法
WO2018148493A1 (en) * 2017-02-09 2018-08-16 Painted Dog, Inc. Methods and apparatus for detecting, filtering, and identifying objects in streaming video
CN109190446A (zh) * 2018-07-06 2019-01-11 西北工业大学 基于三元组聚焦损失函数的行人再识别方法
CN110008842A (zh) * 2019-03-09 2019-07-12 同济大学 一种基于深度多损失融合模型的行人重识别方法
CN110334235A (zh) * 2019-04-28 2019-10-15 厦门大学 一种中心排序损失及弱监督物体定位的细粒度检索方法
WO2019231105A1 (ko) * 2018-05-31 2019-12-05 한국과학기술원 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN111507217A (zh) * 2020-04-08 2020-08-07 南京邮电大学 一种基于局部分辨特征融合的行人重识别方法
CN111652293A (zh) * 2020-05-20 2020-09-11 西安交通大学苏州研究院 一种多任务联合判别学习的车辆重识别方法
CN112257601A (zh) * 2020-10-22 2021-01-22 福州大学 基于弱监督学习的数据增强网络的细粒度车辆识别方法
CN112861626A (zh) * 2021-01-04 2021-05-28 西北工业大学 基于小样本学习的细粒度表情分类方法
CN113220915A (zh) * 2021-04-29 2021-08-06 华中科技大学 一种基于残差注意力的遥感图像检索方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9836641B2 (en) * 2014-12-17 2017-12-05 Google Inc. Generating numeric embeddings of images
US11348237B2 (en) * 2019-05-16 2022-05-31 Retrace Labs Artificial intelligence architecture for identification of periodontal features

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018148493A1 (en) * 2017-02-09 2018-08-16 Painted Dog, Inc. Methods and apparatus for detecting, filtering, and identifying objects in streaming video
CN108399428A (zh) * 2018-02-09 2018-08-14 哈尔滨工业大学深圳研究生院 一种基于迹比准则的三元组损失函数设计方法
WO2019231105A1 (ko) * 2018-05-31 2019-12-05 한국과학기술원 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치
CN109190446A (zh) * 2018-07-06 2019-01-11 西北工业大学 基于三元组聚焦损失函数的行人再识别方法
CN110008842A (zh) * 2019-03-09 2019-07-12 同济大学 一种基于深度多损失融合模型的行人重识别方法
CN110334235A (zh) * 2019-04-28 2019-10-15 厦门大学 一种中心排序损失及弱监督物体定位的细粒度检索方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN111507217A (zh) * 2020-04-08 2020-08-07 南京邮电大学 一种基于局部分辨特征融合的行人重识别方法
CN111652293A (zh) * 2020-05-20 2020-09-11 西安交通大学苏州研究院 一种多任务联合判别学习的车辆重识别方法
CN112257601A (zh) * 2020-10-22 2021-01-22 福州大学 基于弱监督学习的数据增强网络的细粒度车辆识别方法
CN112861626A (zh) * 2021-01-04 2021-05-28 西北工业大学 基于小样本学习的细粒度表情分类方法
CN113220915A (zh) * 2021-04-29 2021-08-06 华中科技大学 一种基于残差注意力的遥感图像检索方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
角度余量损失和中心损失联合的深度人脸识别;李振东;钟勇;陈蔓;王理顺;;计算机应用(第S2期);全文 *

Also Published As

Publication number Publication date
CN113837228A (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
US11670071B2 (en) Fine-grained image recognition
CN106909924B (zh) 一种基于深度显著性的遥感影像快速检索方法
US11341424B2 (en) Method, apparatus and system for estimating causality among observed variables
Garcia-Fidalgo et al. Hierarchical place recognition for topological mapping
CN113378632A (zh) 一种基于伪标签优化的无监督域适应行人重识别算法
CN108154198B (zh) 知识库实体归一方法、系统、终端和计算机可读存储介质
Xia et al. Loop closure detection for visual SLAM using PCANet features
CN110188225B (zh) 一种基于排序学习和多元损失的图像检索方法
Wang et al. SSRNet: In-field counting wheat ears using multi-stage convolutional neural network
Fornarelli et al. An unsupervised multi-swarm clustering technique for image segmentation
CN111127364A (zh) 图像数据增强策略选择方法及人脸识别图像数据增强方法
CN105320764A (zh) 一种基于增量慢特征的3d模型检索方法及其检索装置
CN110146080B (zh) 一种基于移动机器人的slam回环检测方法及装置
CN110765882A (zh) 一种视频标签确定方法、装置、服务器及存储介质
Bi et al. Multiple instance dense connected convolution neural network for aerial image scene classification
WO2022041940A1 (en) Cross-modal retrieval method, training method for cross-modal retrieval model, and related device
Jiang et al. Active object detection in sonar images
Simran et al. Content based image retrieval using deep learning convolutional neural network
CN111738319A (zh) 一种基于大规模样本的聚类结果评价方法及装置
CN113837228B (zh) 基于惩罚感知中心损失函数的用于细粒度物体检索方法
CN117315090A (zh) 基于跨模态风格学习的图像生成方法及装置
CN117435685A (zh) 文档检索方法、装置、计算机设备、存储介质和产品
Li et al. Hierarchical clustering driven by cognitive features
CN116704171A (zh) 基于多尺度局部描述符聚合网络的跨视角跨模态地理定位方法
Sun et al. Learning from web data: the benefit of unsupervised object localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant