CN113722528A - 一种面向素描图进行照片快速检索的方法及系统 - Google Patents

一种面向素描图进行照片快速检索的方法及系统 Download PDF

Info

Publication number
CN113722528A
CN113722528A CN202110885713.0A CN202110885713A CN113722528A CN 113722528 A CN113722528 A CN 113722528A CN 202110885713 A CN202110885713 A CN 202110885713A CN 113722528 A CN113722528 A CN 113722528A
Authority
CN
China
Prior art keywords
sketch
sketch map
loss
network
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110885713.0A
Other languages
English (en)
Inventor
鲍秉坤
袁博闻
陈柏茹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110885713.0A priority Critical patent/CN113722528A/zh
Publication of CN113722528A publication Critical patent/CN113722528A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了图像识别的跨模态分析技术领域的一种面向素描图进行照片快速检索的方法及系统。面向素描图进行照片快速检索的方法,包括:采集素描图;将素描图输入训练好的素描图检索模型,输出与输入的素描图相关度满足设定条件的照片;素描图检索模型首先利用域对抗子网络对来自两个领域的图像对齐特征分布;通过角度对抗子网络来避免不同拍摄视角造成的特征提取干扰,并为三元组网络和分类网络设计三元组损失和联合分类损失,分别用于跨模态特征和缩小素描‑照片对之间的距离;最后计算指定素描图与照片的相关度,相关度较大的照片即是此素描图的真实照片;能够在特征层面上解决领域和拍摄角度的变化,根据素描图准确在照片库中进行检索。

Description

一种面向素描图进行照片快速检索的方法及系统
技术领域
本发明属于图像识别的跨模态分析技术领域,具体涉及一种面向素描图进 行照片快速检索的方法及系统。
背景技术
由于素描所携带的信息具有较直观的特点,使其成为人们表达和记录信息 的重要途径。对于追踪目标或特定事件调查等场景,在无法获取照片的情况下, 只能通过目击者所提供的目标的信息由技术人员得出其素描图像。在这种情况 下,素描到照片的准确匹配就有了重要的研究意义,可以通过绘制的素描图在 照片库中查找并确定目标。因此,人们对面向素描图进行照片快速检索的关注 度越来越高。
然而,该任务目前仍然存在以下几个挑战:(a)域间差距:素描是缺乏色 调和纹理信息的抽象描述,而照片包含丰富的语义信息,经常在外观和背景上 发生强烈的变化。(b)外观差异:不同相机拍摄的照片通常会因人体姿势的变 化而变化。(c)类间相似性:照片和素描图中相似的人会产生相似的特征级分布, 难以区分。(d)类内多样性:即使类具有相同的标签信息,但由于光线、视角 和背景等其他外部因素,同样会导致特征分布不均匀。针对上述挑战,现有方 法要么只关注类间相似性或类内变化,要么只关注不同领域间的稳定特征表示 而忽略了外观差异。
发明内容
为解决现有技术中的不足,本发明提供一种面向素描图进行照片快速检索 的方法及系统,能够在特征层面上解决领域和拍摄角度的变化,根据素描图准 确在照片库中进行检索。
为达到上述目的,本发明所采用的技术方案是:
第一方面,提供一种面向素描图进行照片快速检索的方法,包括:采集素 描图;将素描图输入训练好的素描图检索模型,输出与输入的素描图相关度满 足设定条件的照片。
进一步地,所述素描图检索模型包括特征提取网络,用于提取输入的素描 图的图像特征。
进一步地,所述素描图检索模型包括对抗网络,用于逐步减少域信息和角 度信息,包括一个域对抗子网络和一个角度对抗子网络,所述对抗网络的对抗 损失LA表示为:
Figure BDA0003194026660000021
其中,
Figure BDA0003194026660000022
表示域对抗子网络的损失,
Figure BDA0003194026660000023
表示角度对抗子网络的损失。
进一步地,所述域对抗子网络通过域判别器区分输入特征来自哪个特定域, 通过训练好的域判别器来降低特征提取器对特定领域信息的关注;
域判别器的目标函数为:
Figure BDA0003194026660000024
其中,LD表示域判别器在对抗学习中的损失,D()的输出为判定输入图像为 素描图的概率,F()表示特征提取器,Ns表示选取的素描图总数,xi s表示选取的 素描图中第i个人的素描图,相应的,Np表示选取的照片总数,xj p表示选取的 照片中第i个人的照片;
特征提取器的目标函数为:
Figure BDA0003194026660000031
进一步地,所述角度对抗子网络通过角度分类器区分标记的拍摄视角,使 用如下的交叉熵损失训练角度分类器:
Figure BDA0003194026660000032
其中,
Figure BDA0003194026660000033
表示姿态分类器损失,C()的输出为分类器具体的预测结果,Nj是 带有姿态标签Oj的人物图像数量,xi oj表示相应的姿态聚类;
为了减少不同拍摄视角的干扰,让提取到的特征F(x)尽可能不去关注角度 信息,目标函数如下所示:
Figure BDA0003194026660000034
其中,F()表示特征提取器,C()的输出为分类器具体的预测结果,Cj(F(x)) 和1-Cj(F(x))分别是图像属于和不属于第j姿态的概率。
进一步地,所述素描图检索模型包括三元组网络,所述三元组网络设置为 域和角度的任意组合,其中,锚示例和正示例共享相同的身份;最终,三元组 损失计算如下:
Figure BDA0003194026660000035
其中,Ltri表示改进后的三元组损失,E()为欧几里得距离函数,图像三元 组(A,P,N)由正示例P、负示例N以及锚示例A组成,Δ代表三元组中正示 例和负示例的差值。
进一步地,所述素描图检索模型包括分类网络,所述分类网络用于优化具 有相同身份的图像之间的距离,使用组合分类损失,包括softmax损失、非欧角 度损失以及中心损失,完整的损失函数如下所示:
LC=γ1Lsoft2Lsphe3Lcenter (7)
其中,LC表示总的分类损失,γ1∈(0,1)是分类网络中softmax损失项Lsoft对 应的协调权重,γ2∈(0,1)是分类网络中非欧角度损失项Lsphe对应的协调权重, γ3∈(0,1)是分类网络中中心损失项Lcenter对应的协调权重。
第二方面,提供一种面向素描图进行照片快速检索的系统,包括:数据采 集模块,用于采集素描图;素描图检索模块,用于将素描图输入训练好的素描 图检索模型,输出与输入的素描图相关度满足设定条件的照片。
与现有技术相比,本发明所达到的有益效果:本发明利用生成器和判别器 的对抗学习,最终解决了根据素描图检索对应照片的问题;通过在特征层面上 过滤来自不同领域、不同角度的干扰来提取判别性的跨域特征,极大地提高了 检索的准确性。
附图说明
图1是本发明实施例提供的一种面向素描图进行照片快速检索的方法的检 索流程示意图;
图2是现有技术总的相关方法与本申请所述方法在Sketch Re-ID数据集上 的结果比较;
图3是有无角度对抗学习的检索结果。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明 本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例一:
一种面向素描图进行照片快速检索的方法,包括:采集素描图;将素描图 输入训练好的素描图检索模型,输出与输入的素描图相关度满足设定条件的照 片。
如图1所示,本实施例所提出的面向素描图进行照片快速检索的方法的流 程图,其包含四个部分:1)特征提取网络;2)对抗网络;3)三元组网络;4) 分类网络;5)相关度度量。
1.特征提取网络
素描图检索模型包括特征提取网络,用于提取输入的素描图的图像特征; 采用DenseNet-169作为每个分支中的权重共享特征提取器,记作F(),其包含四 个以密集方式连接的卷积块。
2.对抗网络
素描图检索模型包括对抗网络,用于逐步减少域信息和角度信息,包括一 个域对抗子网络和一个角度对抗子网络。每个子网络均设置一个判别器来同特 征提取器做对抗训练,并通过以下两个步骤进行优化:1)利用分类任务训练判 别器;2)使用该判别器来优化特征提取器。
对抗网络的对抗损失LA表示为:
Figure BDA0003194026660000051
其中,
Figure BDA0003194026660000052
表示域对抗子网络的损失,
Figure BDA0003194026660000053
表示角度对抗子网络的损失。
2.1域对抗子网络
首先利用域对抗子网络(domain adversarial sub-network)对来自两个领域的图像对齐特征分布。域对抗子网络的输入为带标签的图像,输出为判定其是素 描图的概率,通过判别器和特征提取器的对抗训练,过滤域敏感特征,获取域 不变的特征表示。
为了避免提取的特征含有域间干扰,该网络去除域相关信息,包括色调、 纹理等。其判别器的训练具体包括以下两个步骤:
域对抗子网络通过域判别器区分输入特征来自哪个特定域,通过训练好的 域判别器来降低特征提取器对特定领域信息的关注;
域判别器训练:训练域判别器D()用来区分输入特征来自哪个特定域,其目 标函数表示为:
Figure BDA0003194026660000061
其中,LD表示域判别器在对抗学习中的损失,D()的输出为判定输入图像为 素描图的概率,F()表示特征提取器,Ns表示选取的素描图总数,xi s表示选取的 素描图中第i个人的素描图,相应的,Np表示选取的照片总数,xj p表示选取的 照片中第i个人的照片。
干扰过滤:使用训练好的判别器来降低特征提取器对特定领域信息的关注; 给定输入特征F(xS)、F(xp)以及D(),特征提取器的目标函数表示如下:
Figure BDA0003194026660000062
D(F(x))表示x属于素描图的概率,1-D(F(x))则表示x属于照片的概率。
2.2角度对抗子网络
构建角度对抗子网络(pose adversarial sub-network)来避免多角度特征提取的干扰,并为三元组网络和分类网络设计改进过的三元组损失和联合分类损失, 分别用于跨模态特征和缩小素描-照片对之间的距离;角度对抗子网络充当分类 器,在预处理阶段对不同的拍摄视角进行分类,然后通过多类对抗损失优化特 征提取器。
为了避免不同拍摄视角造成的干扰,本实施例直接在特征级上移除角度变 化,利用有效的对抗学习方法来代替复杂不稳定的生成过程。角度对抗子网络 充当分类器,先根据标签进行角度分类,然后通过我们设计的多类对抗损失对 特征提取器进行优化。
角度分类器训练:
角度对抗子网络通过角度分类器区分标记的拍摄视角,在给定提取特征 F(x)及角度标签x的情况下,使用如下的交叉熵损失来训练角度分类器C:
Figure BDA0003194026660000071
其中,
Figure BDA0003194026660000072
表示姿态分类器损失,C()的输出为分类器具体的预测结果,Nj是 带有姿态标签Oj的人物图像数量,xi oj代表相应的姿态聚类。该损失能够达到区 分每张照片和素描图拍摄角度的目的。
干扰过滤:为了减少不同拍摄视角的干扰,让提取到的特征F(x)尽可能不 去关注角度信息,目标函数如下所示:
Figure BDA0003194026660000073
其中,F( )代表特征提取器,C()的输出为分类器具体的预测结果,Cj(F(x)) 和1-Cj(F(x))分别是图像属于和不属于第j姿态的概率。
3.三元组网络
本实施例对原有三元组损失进行了改进,通过扩大类间的相对距离同时缩 小类内的相对距离来提高特征的鉴别力。通常,图片三元组包括一个正示例, 一个负示例和一个锚示例。在现有的跨模态研究中,锚示例和正示例通常从不 同域中提取以避免域间差异,但这一做法不利于跨模态特征对齐和图像检索。 为此,本实施例基于对抗网络,将三元组设置为域和角度的任意组合。其中, 锚示例和正示例共享相同的身份。最终,三元组损失计算如下:
Figure BDA0003194026660000081
其中,Ltri表示改进后的三元组损失,E()表示欧几里得距离函数,图像三 元组(A,P,N)由正示例P、负示例N以及锚示例A组成,Δ代表三元组中正 示例和负示例的差值。改进后的三元组损失,通过扩大类间的相对距离和缩小 类内的相对距离,提高对特征的判别能力;同现有的三元组损失相比,更具合 理性和解释性。
4.分类网络
本实施例引入分类网络来优化具有相同身份的图像之间的距离,使其更加 紧凑。为此使用组合分类损失,包括softmax损失、非欧角度损失以及中心损失 (center loss)。完整的函数如下所示:
LC=γ1Lsoft2Lsphe3Lcenter (7)
其中,LC表示总的分类损失,γ1∈(0,1)是分类网络中softmax损失项Lsoft对 应的协调权重,γ2∈(0,1)是分类网络中非欧角度损失项Lsphe对应的协调权重, γ3∈(0,1)是分类网络中中心损失项Lcenter对应的协调权重。
5.相关度度量
为了衡量本模型在Sketch Re-ID数据集上的性能,我们采用Top-k检索精度(rank1,rank5,rank10和rank20)。它表明了给定探针出现在top k的实际匹配度。 实验时,我们将十次测试的平均精度作为最终精度。
6.实施效果
为了评估本实施例,选择Sketch Re-ID这一数据集来展示其实施效果,其 中每个主体都对应一张素描图和两张照片。
图2显示了照片检索任务在Sketch Re-ID上的结果。由此可以看出,本申 请技术方案(DFD模型,判别性特征去相关网络模型)对获得角度不变的特征 和优化特征分布是有意义的,并取得了目前最优的性能。
图3列出了DFD模型具体的一些检索结果。粗线框内为搜索结果,其中, (a)是有角度对抗学习的检索结果,(b)是无角度对抗学习的结果。显然,本 实施例可以很好地关注身份敏感信息和角度不变信息。在没有角度对抗学习的 情况下,当不同人的拍摄角度差异很小时,对应的素描特征间的距离更小。这 表明原有的模型在过滤相关信息方面没有得到很好的训练。而DFD模型则不存 在这种现象。
本实施例利用生成器和判别器的对抗学习,最终解决了根据素描图检索对 应照片的问题;通过在特征层面上过滤来自不同领域、不同角度的干扰来提取 判别性的跨域特征,极大地提高了检索的准确性。
实施例二:
基于实施例一所述的面向素描图进行照片快速检索的方法,本实施例提供 一种面向素描图进行照片快速检索的系统,包括:数据采集模块,用于采集素 描图;素描图检索模块,用于将素描图输入训练好的素描图检索模型,输出与 输入的素描图相关度满足设定条件的照片。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通 技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变 形,这些改进和变形也应视为本发明的保护范围。

Claims (8)

1.一种面向素描图进行照片快速检索的方法,其特征是,包括:
采集素描图;
将素描图输入训练好的素描图检索模型,输出与输入的素描图相关度满足设定条件的照片。
2.根据权利要求1所述的面向素描图进行照片快速检索的方法,其特征是,所述素描图检索模型包括特征提取网络,用于提取输入的素描图的图像特征。
3.根据权利要求1所述的面向素描图进行照片快速检索的方法,其特征是,所述素描图检索模型包括对抗网络,用于逐步减少域信息和角度信息,包括一个域对抗子网络和一个角度对抗子网络,所述对抗网络的对抗损失LA表示为:
Figure FDA0003194026650000011
其中,
Figure FDA0003194026650000012
表示域对抗子网络的损失,
Figure FDA0003194026650000013
表示角度对抗子网络的损失。
4.根据权利要求3所述的面向素描图进行照片快速检索的方法,其特征是,所述域对抗子网络通过域判别器区分输入特征来自哪个特定域,通过训练好的域判别器来降低特征提取器对特定领域信息的关注;
域判别器的目标函数为:
Figure FDA0003194026650000014
其中,LD表示域判别器在对抗学习中的损失,D()的输出为判定输入图像为素描图的概率,F()表示特征提取器,Ns表示选取的素描图总数,xi s表示选取的素描图中第i个人的素描图,相应的,Np表示选取的照片总数,xj p表示选取的照片中第i个人的照片。
特征提取器的目标函数为:
Figure FDA0003194026650000021
5.根据权利要求3所述的面向素描图进行照片快速检索的方法,其特征是,所述角度对抗子网络通过角度分类器区分标记的拍摄视角,使用如下的交叉熵损失训练角度分类器:
Figure FDA0003194026650000022
其中,
Figure FDA0003194026650000023
表示姿态分类器损失,C()的输出为分类器具体的预测结果,Nj是带有姿态标签Oj的人物图像数量,xi oj表示相应的姿态聚类;
为了减少不同拍摄视角的干扰,让提取到的特征F(x)尽可能不去关注角度信息,目标函数如下所示:
Figure FDA0003194026650000024
其中,F()表示特征提取器,C()的输出为分类器具体的预测结果,Cj(F(x))和1-Cj(F(x))分别是图像属于和不属于第j姿态的概率。
6.根据权利要求1所述的面向素描图进行照片快速检索的方法,其特征是,所述素描图检索模型包括三元组网络,所述三元组网络设置为域和角度的任意组合,其中,锚示例和正示例共享相同的身份;最终,三元组损失计算如下:
Figure FDA0003194026650000025
其中,Ltri表示改进后的三元组损失,E()为欧几里得距离函数,图像三元组(A,P,N)由正示例P、负示例N以及锚示例A组成,Δ代表三元组中正示例和负示例的差值。
7.根据权利要求1所述的面向素描图进行照片快速检索的方法,其特征是,所述素描图检索模型包括分类网络,所述分类网络用于优化具有相同身份的图像之间的距离,使用组合分类损失,包括softmax损失、非欧角度损失以及中心损失,完整的损失函数如下所示:
LC=γ1Lsoft2Lsphe3Lcenter (7)
其中,LC表示总的分类损失,γ1∈(0,1)是分类网络中softmax损失项Lsoft对应的协调权重,γ2∈(0,1)是分类网络中非欧角度损失项Lsphe对应的协调权重,γ3∈(0,1)是分类网络中中心损失项Lcenter对应的协调权重。
8.一种面向素描图进行照片快速检索的系统,其特征是,包括:
数据采集模块,用于采集素描图;
素描图检索模块,用于将素描图输入训练好的素描图检索模型,输出与输入的素描图相关度满足设定条件的照片。
CN202110885713.0A 2021-08-03 2021-08-03 一种面向素描图进行照片快速检索的方法及系统 Pending CN113722528A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110885713.0A CN113722528A (zh) 2021-08-03 2021-08-03 一种面向素描图进行照片快速检索的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110885713.0A CN113722528A (zh) 2021-08-03 2021-08-03 一种面向素描图进行照片快速检索的方法及系统

Publications (1)

Publication Number Publication Date
CN113722528A true CN113722528A (zh) 2021-11-30

Family

ID=78674669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110885713.0A Pending CN113722528A (zh) 2021-08-03 2021-08-03 一种面向素描图进行照片快速检索的方法及系统

Country Status (1)

Country Link
CN (1) CN113722528A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113987285A (zh) * 2021-12-27 2022-01-28 北京理工大学 基于隐藏状态的运动特征数据库生成方法、检索方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681555A (zh) * 2018-04-08 2018-10-19 天津大学 一种基于形状回归的草图图像检索方法
CN109359541A (zh) * 2018-09-17 2019-02-19 南京邮电大学 一种基于深度迁移学习的素描人脸识别方法
CN109815359A (zh) * 2018-12-27 2019-05-28 深圳云天励飞技术有限公司 图像检索方法及相关产品
CN110069992A (zh) * 2019-03-18 2019-07-30 西安电子科技大学 一种人脸图像合成方法、装置、电子设备及存储介质
CN110175251A (zh) * 2019-05-25 2019-08-27 西安电子科技大学 基于语义对抗网络的零样本草图检索方法
US20200250226A1 (en) * 2019-03-28 2020-08-06 Beijing Dajia Internet Information Technology Co., Ltd. Similar face retrieval method, device and storage medium
CN112380369A (zh) * 2021-01-15 2021-02-19 长沙海信智能系统研究院有限公司 图像检索模型的训练方法、装置、设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681555A (zh) * 2018-04-08 2018-10-19 天津大学 一种基于形状回归的草图图像检索方法
CN109359541A (zh) * 2018-09-17 2019-02-19 南京邮电大学 一种基于深度迁移学习的素描人脸识别方法
CN109815359A (zh) * 2018-12-27 2019-05-28 深圳云天励飞技术有限公司 图像检索方法及相关产品
CN110069992A (zh) * 2019-03-18 2019-07-30 西安电子科技大学 一种人脸图像合成方法、装置、电子设备及存储介质
US20200250226A1 (en) * 2019-03-28 2020-08-06 Beijing Dajia Internet Information Technology Co., Ltd. Similar face retrieval method, device and storage medium
CN110175251A (zh) * 2019-05-25 2019-08-27 西安电子科技大学 基于语义对抗网络的零样本草图检索方法
CN112380369A (zh) * 2021-01-15 2021-02-19 长沙海信智能系统研究院有限公司 图像检索模型的训练方法、装置、设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴柳玮;孙锐;阚俊松;高隽;: "双重对偶生成对抗网络的跨年龄素描―照片转换", 中国图象图形学报, no. 04 *
吴柳玮;孙锐;阚俊松;高隽;: "双重对偶生成对抗网络的跨年龄素描―照片转换", 中国图象图形学报, no. 04, 15 April 2020 (2020-04-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113987285A (zh) * 2021-12-27 2022-01-28 北京理工大学 基于隐藏状态的运动特征数据库生成方法、检索方法
CN113987285B (zh) * 2021-12-27 2022-04-26 北京理工大学 基于隐藏状态的运动特征数据库生成方法、检索方法

Similar Documents

Publication Publication Date Title
Liu et al. Enhancing the discriminative feature learning for visible-thermal cross-modality person re-identification
CN111539370B (zh) 一种基于多注意力联合学习的图像行人重识别方法和系统
Jiang et al. CmSalGAN: RGB-D salient object detection with cross-view generative adversarial networks
You et al. Relative CNN-RNN: Learning relative atmospheric visibility from images
Lin et al. RSCM: Region selection and concurrency model for multi-class weather recognition
CN110598543B (zh) 基于属性挖掘和推理的模型训练方法及行人再识别方法
EP2005366A2 (en) Forming connections between image collections
CN111539255A (zh) 基于多模态图像风格转换的跨模态行人重识别方法
US20150332117A1 (en) Composition modeling for photo retrieval through geometric image segmentation
CN111339343A (zh) 图像检索方法、装置、存储介质及设备
Sumbul et al. Informative and representative triplet selection for multilabel remote sensing image retrieval
CN112784768A (zh) 一种基于视角引导多重对抗注意力的行人重识别方法
Abdul-Rashid et al. Shrec’18 track: 2d image-based 3d scene retrieval
CN114510594A (zh) 一种基于自注意力机制的传统纹样子图检索方法
Sabry et al. Image retrieval using convolutional autoencoder, infogan, and vision transformer unsupervised models
CN114882537A (zh) 一种基于神经辐射场的手指新视角图像生成方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN113722528A (zh) 一种面向素描图进行照片快速检索的方法及系统
CN111881997B (zh) 一种基于显著性的多模态小样本学习方法
Wang et al. Listen, look, and find the one: Robust person search with multimodality index
CN115830643A (zh) 一种姿势引导对齐的轻量行人重识别方法
Thepade et al. Identification of aerial image land use using fused thepade sbtc and adaptive thresholding with machinelearning ensemble
CN113191381B (zh) 一种基于交叉知识的图像零次分类模型及其分类方法
Jia et al. An unsupervised person re‐identification approach based on cross‐view distribution alignment
CN115880740A (zh) 人脸活体检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination