CN114860973A - 一种面向小样本场景的深度图像检索方法 - Google Patents

一种面向小样本场景的深度图像检索方法 Download PDF

Info

Publication number
CN114860973A
CN114860973A CN202210336881.9A CN202210336881A CN114860973A CN 114860973 A CN114860973 A CN 114860973A CN 202210336881 A CN202210336881 A CN 202210336881A CN 114860973 A CN114860973 A CN 114860973A
Authority
CN
China
Prior art keywords
sample
database
loss function
training
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210336881.9A
Other languages
English (en)
Inventor
张利军
陈宇辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202210336881.9A priority Critical patent/CN114860973A/zh
Publication of CN114860973A publication Critical patent/CN114860973A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种面向小样本场景的深度图像检索方法,尤其是在可获得的学习样本较为稀疏的情况下,使用本发明通过结合对比学习,从少量样本中挖掘获得更多语义信息,以提升深度哈希模型的表征与编码能力。首先,从数据库中采样得到训练样本,并随机增强生成正负样本副本。然后使用哈希深度网络生成连续特征,以保留更多的语义信息,最后映射生成二进制码。同时,利用训练样本间以及训练样本与数据库间的相似度矩阵维护数据库样本的二进制码。训练阶段结束模型收敛后,对于外来样本,可以使用深度哈希网络计算其二进制码,再根据数据库的二进制码直接进行检索。与现有技术相比,本发明能提升图像检索的效率和精度,在面对小样本场景时更为鲁棒。

Description

一种面向小样本场景的深度图像检索方法
技术领域
本发明涉及一种面向小样本场景的深度图像检索方法,属于计算机视觉和图像检索领域,特别适用于可获得的训练样本数量较少的小样本场景。
背景技术
随着数据的爆炸式增长,近似最近邻搜索在信息检索领域引起了越来越多的关注。作为近似最近邻搜索中一种经典的技术,哈希算法在保留原始数据相似性信息的同时,利用哈希函数将高维数据编码成二进制码。基于短二进制码表示,查询样本和数据库中样本的相似性可以用汉明距离来衡量。因此,结合哈希运算的近似最近邻搜索可以实现线性或次线性的时间复杂度,具有查询速度快、存储成本低等显著优势。
传统的哈希方法使用手工方法(如SIFT算子)生成用于二进制码学习的特征。而随着深度学习在计算机视觉领域取得了巨大成功,深度神经网络被引入哈希方法中,使表征学习部分和二进制码学习部分同时工作。在深度哈希中,网络提取的深度特征被用于生成二进制码。与此同时,二进制码学习提供反馈,指导深层网络的表征学习。
然而,目前的图像检索方法往往基于大量的训练样本,而现实中很多场景下可获得的训练样本数量收到限制,或者可利用的训练资源不足。另外,深度哈希的输出受到离散约束的限制。与分类任务等输出为每个类别的概率分布的任务相比,二进制输出从原始数据中保留的语义信息较少。因此在面对可获得的训练样本较少的场景时,语义信息的缺少使得二进制码学习部分不能很好地指导深度网络进行表征学习,从而进一步影响二进制码学习的效果。因此需要一种方法,能够克服深度哈希方法中信息损失的缺陷,从有限样本中获得更多有用的语义信息,来指导深度哈希进行表征学习。
发明内容
本申请的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本申请的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
针对现有技术中存在的问题与不足,本发明目的在于提供一种面向小样本场景的深度图像检索方法,在可获得的学习样本较为稀疏的情况下,引入中间连续特征,从少量样本中挖掘更多的信息,指导深度网络进行表征学习,然后利用训练获得的哈希网络计算哈希码并数据库中进行检索。提升了图像检索的效率和精度,在面对小样本场景时更为鲁棒,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
本发明公开一种面向小样本场景的深度图像检索方法,包括如下步骤:
步骤1,获取图像数据集H作为数据库,从数据库中采样训练样本,并根据训练样本数据的标签计算训练样本间以及训练样本与数据库间的相似度矩阵;
步骤2,对所述训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc
步骤3,将学习到的所述中间表征映射为二进制码,结合所述训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数;
步骤4,基于所述对比损失函数Lc与二值损失函数构造总损失函数L;
步骤5,基于所述总损失函数L对深度哈希网络进行更新,基于所述训练样本间以及训练样本与数据库间的相似度矩阵与所述总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛;
步骤6,对于外来图像样本,使用上述步骤5训练好的深度哈希网络对图像进行检索。
进一步的,所述步骤2的具体步骤为:
步骤2.1,对深度哈希网络进行初始化,所述深度哈希网络由一个卷积神经网络和两层全连接网络组成;
步骤2.2,对采样的所述训练样本分别进行两次随机的图像增强,得到正负两组样本副本,以构成最终训练数据集H*
步骤2.3,使用所述卷积神经网络提取特征并通过其中一层所述全连接网络映射到l维空间中,得到中间特征ri,其中中间特征ri表示为连续向量;
步骤2.4,基于所述中间特征ri计算对比损失函数Lc
进一步的,所述步骤3的具体步骤为:
步骤3.1,使用所述全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi),用tanh(·)近似sign(·)来保证可导;
步骤3.2,基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其中二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq
进一步的,所述步骤4中基于所述对比损失函数Lc与二值损失函数构造总损失函数L,将所述总损失函数L构造为L=Lc1Lb2Lq,其中λ12为超参数。
进一步的,所述步骤5采用非对称的方式在训练过程中直接对数据库中的哈希码进行更新,其具体步骤为:
步骤5.1,固定深度哈希网络的参数,初始化数据库样本的二进制码V;
步骤5.2,将所述训练样本生成的两组样本副本的输出分别表示为U1和U2,令
Figure BDA0003574639370000031
并将
Figure BDA0003574639370000032
扩充成矩阵
Figure BDA0003574639370000033
步骤5.3,将目标函数进行简化改写为
Figure BDA0003574639370000034
其中,
Figure BDA0003574639370000035
const表示为常数项;
步骤5.4,采用DCC算法按位对所述数据库样本的二进制码V进行优化,表示为:
Figure BDA0003574639370000036
其中,
Figure BDA0003574639370000037
Figure BDA0003574639370000038
的第k列,
Figure BDA0003574639370000039
Figure BDA00035746393700000310
除去第k列后剩下的矩阵部分,
Figure BDA00035746393700000311
为V除去第k列后剩下的矩阵部分,Q*k为Q的第k列。
进一步的,所述步骤6中对于外来图像样本进行检索的步骤为:
步骤6.1,获取待检索的图像样本;
步骤6.2,加载步骤5训练好的深度哈希网络;
步骤6.3,计算所述待检索图像样本的二进制码与数据库中哈希码的汉明距离,并按升序排序;
步骤6.4,返回排序靠前k个哈希码所对应的图像样本。
进一步的,所述对比损失函数Lc表示为:
Figure BDA00035746393700000312
其中,
Figure BDA00035746393700000313
为该批训练样本中标签等于
Figure BDA00035746393700000314
的样本个数,τ为温度系数,Sij为训练样本间的相似度矩阵。
进一步的,所述训练样本内损失函数Lb定义为:
Figure BDA0003574639370000041
其中,c为初始化设置二进制码V的长度。
进一步的,所述训练样本与数据库间损失函数Lq定义为:
Figure BDA0003574639370000042
其中,
Figure BDA0003574639370000043
为训练样本与数据库间的相似度矩阵,Ωi为训练样本
Figure BDA0003574639370000044
在数据库中对应的索引,c,γ均为超参数。
与现有技术相比,本发明的有益效果为:本发明提供了一种面向小样本场景的深度图像检索方法,具体步骤为:首先从数据库中采样少量训练样本,并根据标签计算训练样本间以及训练样本与数据库间的相似度矩阵;然后,通过随机图像增强生成正负样本映射到连续空间中,以获得中间特征并计算对比损失函数;将学习到的中间特征被映射为二进制码,结合相似度矩阵计算二值损失函数;结合二值损失函数与上一步骤的对比损失函数一同对深度网络模型进行更新。与此同时,基于训练样本间以及训练样本与数据库间的相似度矩阵以及损失函数,对数据库样本的哈希码进行更新。最后对于外来图像样本,使用训练好的深度哈希网络计算其哈希码,对数据库中的哈希码对图像进行检索。与现有深度哈希技术相比,本发明克服了二进制编码中的信息损失影响模型进行表征学习的问题,使得模型在训练样本较少的情况下也能取得较好的效果,尤其适用于训练样本稀疏以及训练资源受限的情况。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。
在附图中:
图1:为本发明的主要步骤示意图;
图2:为本发明深度哈希网络训练的步骤流程示意图;
图3:为本发明对于外来待检索图像样本的检索步骤流程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
本发明公开了一种面向小样本场景的深度图像检索方法,下面将参考附图并结合实施例来详细说明本公开。
参照图1至3所示,主要包括以下步骤:
步骤1,获取图像数据集H作为数据库,从数据库中采样训练样本,并根据训练样本数据的标签计算训练样本间以及训练样本与数据库间的相似度矩阵;
步骤2,对训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc
步骤3,将学习到的中间表征映射为二进制码,结合训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数;
步骤4,根据对比损失函数Lc与二值损失函数构造总损失函数L;
步骤5,基于总损失函数L对深度哈希网络进行更新,基于训练样本间以及训练样本与数据库间的相似度矩阵与总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛;
步骤6,对于外来图像样本,使用上述步骤5训练好的深度哈希网络对图像进行检索。
具体而言,首先获取图像数据集H={(xi,yi),i=1,2,…,m}作为数据库,其中xi表示图像向量,yi表示其所属类别标签,为one-hot向量。并初始化数据库样本对应的哈希码库,其中包括初始化数据库样本的二进制码V={vi,i=1,2,…,m},设置二进制码的长度c。
在步骤2中,对训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc,具体步骤为:
步骤2.1,对深度哈希网络进行初始化,深度哈希网络由一个卷积神经网络和两层全连接网络组成;
步骤2.2,对采样的训练样本分别进行两次随机的图像增强,得到正负两组样本副本,以构成最终训练数据集H*
步骤2.3,使用卷积神经网络提取特征并通过其中一层全连接网络映射到l维空间中,得到中间特征ri,其中中间特征ri表示为连续向量;
步骤2.4,基于中间特征ri计算对比损失函数Lc
具体而言,从数据库中随机采样N个作为训练样本,代表可获得的训练数据,用于构成训练样本集,这里N通常小于等于200。再对采样到的训练样本xi,,分别进行两次随机图像增强,使用包括裁剪、尺度变换、重新着色、高斯扰动等方法。由此得到两组样本副本
Figure BDA0003574639370000061
对应标签满足
Figure BDA0003574639370000062
构成最终训练数据集
Figure BDA0003574639370000063
其中标签相同样本的互为正样本,标签不同的互为负样本。我们采取改进后的ResNet50架构作为深度哈希模型,使用初始化后的卷积神经网络提取特征并通过其中一层全连接层映射到l维空间中得到中间特征ri,中间特征ri表示为连续向量,这里l我们设为128,可以视数据规模调整。基于中间特征ri计算对比损失函数Lc,对比损失函数Lc表示为:
Figure BDA0003574639370000064
其中,
Figure BDA0003574639370000065
为该批训练样本中标签等于
Figure BDA0003574639370000066
的样本个数,τ为温度系数,
Figure BDA0003574639370000067
为训练样本间的相似度矩阵,当Sij=1代表样本属于同类别。
在步骤3中,将学习到的中间表征映射为二进制码,结合训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其具体步骤为:
步骤3.1,使用全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi),用tanh(·)近似sign(·)来保证可导;
步骤3.2,基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其中二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq
具体而言,使用全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi)。通常在实际训练中,我们用tanh(·)近似sign(·)来保证可导。基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数。二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq。训练样本内损失函数Lb表示为:
Figure BDA0003574639370000071
其中,Sij为训练样本间的相似度矩阵,c为初始化设置二进制码V的长度,ui为中间表征映射的二进制码。训练样本与数据库间损失函数Lq表示为:
Figure BDA0003574639370000072
其中,
Figure BDA0003574639370000073
为训练样本与数据库间的相似度矩阵,Ωi为训练样本
Figure BDA0003574639370000074
在数据库中对应的索引,c,γ均为超参数。
基于对比损失函数Lc、训练样本内损失函数Lb和训练样本与数据库间损失函数Lq构造总损失函数L,因此将总损失函数L构造为L=Lc1Lb2Lq,其中λ12为超参数。
在步骤5中,基于总损失函数L对深度哈希网络进行更新,基于训练样本间以及训练样本与数据库间的相似度矩阵与总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛。具体步骤包括:
步骤5.1,固定深度哈希网络的参数,初始化数据库样本的二进制码V;
步骤5.2,将训练样本生成的两组样本副本的输出分别表示为U1和U2,令
Figure BDA0003574639370000075
Figure BDA0003574639370000076
并将
Figure BDA0003574639370000077
扩充成矩阵
Figure BDA0003574639370000078
步骤5.3,将目标函数进行简化改写为
Figure BDA0003574639370000079
其中,
Figure BDA00035746393700000710
const表示为常数项;
步骤5.4,采用DCC算法按位对所述数据库样本的二进制码V进行优化,表示为:
Figure BDA00035746393700000711
其中,
Figure BDA00035746393700000712
Figure BDA00035746393700000713
的第k列,
Figure BDA00035746393700000714
Figure BDA00035746393700000715
除去第k列后剩下的矩阵部分,
Figure BDA00035746393700000716
为V除去第k列后剩下的矩阵部分,Q*k为Q的第k列。
具体而言,
Figure BDA0003574639370000081
中的向量满足
Figure BDA0003574639370000082
对于i=1,2,…,n,而其余向量均置为0。对应使用总损失函数L对深度哈希网络进行更新,基于训练样本间以及训练样本与数据库间的相似度矩阵与总损失函数L,对数据库样本的哈希码进行训练和更新。若网络训练更新至收敛时,输出模型和数据库中的哈希码库。若网络训练更新未收敛时,则重复上述步骤1至5。
在步骤6中,在对外来图像样本进行检索时,可以直接根据训练阶段得到的哈希码库计算相似度,无需再对数据库样本进行哈希操作。具体对于外来图像样本进行检索的步骤如下:
步骤6.1,获取待检索的图像样本;
步骤6.2,加载步骤5训练好的深度哈希网络模型;
步骤6.3,计算待检索图像样本的二进制码与数据库中哈希码的汉明距离,并按升序排序;
步骤6.4,返回排序靠前k个哈希码所对应的图像样本。
具体而言,首先,获取待检索图像样本;然后,加载上述步骤5中训练好的深度哈希网络,使用其计算出待检索图像样本的二进制码。其次,将待检索图像样本的二进制码数据库中哈希码(哈希码库)中的二进制码分别计算汉明距离,并将汉明距离按升序进行排序。最后,返回前k个二进制码将其对应的图像样本进行返回。其中,k由系统设置或视需要而定。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (9)

1.一种面向小样本场景的深度图像检索方法,其特征在于,包括如下步骤:
步骤1,获取图像数据集H作为数据库,从数据库中采样训练样本,并根据训练样本数据的标签计算训练样本间以及训练样本与数据库间的相似度矩阵;
步骤2,对所述训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc
步骤3,将学习到的所述中间表征映射为二进制码,结合所述训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数;
步骤4,根据所述对比损失函数Lc与二值损失函数构造总损失函数L;
步骤5,基于所述总损失函数L对深度哈希网络进行更新,基于所述训练样本间以及训练样本与数据库间的相似度矩阵与所述总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛;
步骤6,对于外来图像样本,使用上述步骤5训练好的深度哈希网络对图像进行检索。
2.根据权利要求1所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤2的具体步骤为:
步骤2.1,对深度哈希网络进行初始化,所述深度哈希网络由一个卷积神经网络和两层全连接网络组成;
步骤2.2,对采样的所述训练样本分别进行两次随机的图像增强,得到正负两组样本副本,以构成最终训练数据集H*
步骤2.3,使用所述卷积神经网络提取特征并通过其中一层所述全连接网络映射到l维空间中,得到中间特征ri,其中中间特征ri表示为连续向量;
步骤2.4,基于所述中间特征ri计算对比损失函数Lc
3.根据权利要求2所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤3的具体步骤为:
步骤3.1,使用所述全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi),用tanh(·)近似sign(·)来保证可导;
步骤3.2,基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其中二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq
4.根据权利要求3所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤4中基于所述对比损失函数Lc与二值损失函数构造总损失函数L,将所述总损失函数L构造为L=Lc1Lb2Lq,其中λ12为超参数。
5.根据权利要求4所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤5采用非对称的方式在训练过程中直接对数据库中的哈希码进行更新,其具体步骤为:
步骤5.1,固定深度哈希网络的参数,初始化数据库样本的二进制码V;
步骤5.2,将所述训练样本生成的两组样本副本的输出分别表示为U1和U2,令
Figure FDA0003574639360000021
并将
Figure FDA0003574639360000022
扩充成矩阵
Figure FDA0003574639360000023
步骤5.3,将目标函数进行简化改写为
Figure FDA0003574639360000024
其中,
Figure FDA0003574639360000025
const表示为常数项;
步骤5.4,采用DCC算法按位对所述数据库样本的二进制码V进行优化,表示为:
Figure FDA0003574639360000026
其中,
Figure FDA0003574639360000027
Figure FDA0003574639360000028
的第k列,
Figure FDA0003574639360000029
Figure FDA00035746393600000210
除去第k列后剩下的矩阵部分,
Figure FDA00035746393600000211
为V除去第k列后剩下的矩阵部分,Q*k为Q的第k列。
6.根据权利要求5所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤6中对于外来图像样本进行检索的步骤为:
步骤6.1,获取待检索的图像样本;
步骤6.2,加载步骤5训练好的深度哈希网络模型;
步骤6.3,计算所述待检索图像样本的二进制码与数据库中哈希码的汉明距离,并按升序排序;
步骤6.4,返回排序靠前k个哈希码所对应的图像样本。
7.根据权利要求4所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述对比损失函数Lc表示为:
Figure FDA00035746393600000212
其中,
Figure FDA00035746393600000213
为该批训练样本中标签等于
Figure FDA00035746393600000214
的样本个数,τ为温度系数,Sij为训练样本间的相似度矩阵。
8.根据权利要求7所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述训练样本内损失函数Lb定义为:
Figure FDA0003574639360000031
其中,c为初始化设置二进制码V的长度。
9.根据权利要求8所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述训练样本与数据库间损失函数Lq定义为:
Figure FDA0003574639360000032
其中,
Figure FDA0003574639360000033
为训练样本与数据库间的相似度矩阵,Ωi为训练样本
Figure FDA0003574639360000034
在数据库中对应的索引,c,γ均为超参数。
CN202210336881.9A 2022-03-31 2022-03-31 一种面向小样本场景的深度图像检索方法 Pending CN114860973A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210336881.9A CN114860973A (zh) 2022-03-31 2022-03-31 一种面向小样本场景的深度图像检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210336881.9A CN114860973A (zh) 2022-03-31 2022-03-31 一种面向小样本场景的深度图像检索方法

Publications (1)

Publication Number Publication Date
CN114860973A true CN114860973A (zh) 2022-08-05

Family

ID=82630452

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210336881.9A Pending CN114860973A (zh) 2022-03-31 2022-03-31 一种面向小样本场景的深度图像检索方法

Country Status (1)

Country Link
CN (1) CN114860973A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116108219A (zh) * 2023-04-07 2023-05-12 天津汉云工业互联网有限公司 图像检索方法、装置、电子设备和存储介质
CN117573915A (zh) * 2024-01-16 2024-02-20 山东建筑大学 基于对比学习的二值码图像检索方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116108219A (zh) * 2023-04-07 2023-05-12 天津汉云工业互联网有限公司 图像检索方法、装置、电子设备和存储介质
CN116108219B (zh) * 2023-04-07 2023-06-13 天津汉云工业互联网有限公司 图像检索方法、装置、电子设备和存储介质
CN117573915A (zh) * 2024-01-16 2024-02-20 山东建筑大学 基于对比学习的二值码图像检索方法及系统
CN117573915B (zh) * 2024-01-16 2024-04-26 山东建筑大学 基于对比学习的二值码图像检索方法及系统

Similar Documents

Publication Publication Date Title
CN110188227B (zh) 一种基于深度学习与低秩矩阵优化的哈希图像检索方法
CN110851645B (zh) 一种基于深度度量学习下相似性保持的图像检索方法
CN110941734B (zh) 基于稀疏图结构的深度无监督图像检索方法
CN111242033B (zh) 一种基于视频和文字对判别分析的视频特征学习方法
CN114860973A (zh) 一种面向小样本场景的深度图像检索方法
CN110866134B (zh) 一种面向图像检索的分布一致性保持度量学习方法
CN110598022B (zh) 一种基于鲁棒深度哈希网络的图像检索系统与方法
CN112948601B (zh) 一种基于受控语义嵌入的跨模态哈希检索方法
Yuan et al. Evoq: Mixed precision quantization of dnns via sensitivity guided evolutionary search
CN114170333B (zh) 基于直推式半监督深度学习的图像哈希编码方法
CN115495555A (zh) 一种基于深度学习的文献检索方法和系统
CN112347284A (zh) 一种组合商标图像检索方法
CN109933682B (zh) 一种基于语义与内容信息结合的图像哈希检索方法及系统
CN115587207A (zh) 一种基于分类标签的深度哈希检索方法
CN109472282B (zh) 一种基于极少训练样本的深度图像哈希方法
CN111858984A (zh) 一种基于注意力机制哈希检索的图像匹配方法
CN114332519A (zh) 一种基于外部三元组和抽象关系的图像描述生成方法
CN116304066A (zh) 一种基于提示学习的异质信息网络节点分类方法
CN116204694A (zh) 一种基于深度学习与哈希算法的多模态检索方法
CN116049450A (zh) 一种基于距离聚类的支持多模态的图文检索方法及装置
CN116662565A (zh) 基于对比学习预训练的异质信息网络关键词生成方法
CN115329120A (zh) 一种知识图谱嵌入注意力机制的弱标注哈希图像检索架构
CN114357221A (zh) 一种基于图像分类的自监督主动学习方法
CN113076490B (zh) 一种基于混合节点图的涉案微博对象级情感分类方法
CN111079840B (zh) 基于卷积神经网络和概念格的图像语义完备标注方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination