CN114860973A - 一种面向小样本场景的深度图像检索方法 - Google Patents
一种面向小样本场景的深度图像检索方法 Download PDFInfo
- Publication number
- CN114860973A CN114860973A CN202210336881.9A CN202210336881A CN114860973A CN 114860973 A CN114860973 A CN 114860973A CN 202210336881 A CN202210336881 A CN 202210336881A CN 114860973 A CN114860973 A CN 114860973A
- Authority
- CN
- China
- Prior art keywords
- sample
- database
- loss function
- training
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 238000005070 sampling Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000001174 ascending effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 58
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种面向小样本场景的深度图像检索方法,尤其是在可获得的学习样本较为稀疏的情况下,使用本发明通过结合对比学习,从少量样本中挖掘获得更多语义信息,以提升深度哈希模型的表征与编码能力。首先,从数据库中采样得到训练样本,并随机增强生成正负样本副本。然后使用哈希深度网络生成连续特征,以保留更多的语义信息,最后映射生成二进制码。同时,利用训练样本间以及训练样本与数据库间的相似度矩阵维护数据库样本的二进制码。训练阶段结束模型收敛后,对于外来样本,可以使用深度哈希网络计算其二进制码,再根据数据库的二进制码直接进行检索。与现有技术相比,本发明能提升图像检索的效率和精度,在面对小样本场景时更为鲁棒。
Description
技术领域
本发明涉及一种面向小样本场景的深度图像检索方法,属于计算机视觉和图像检索领域,特别适用于可获得的训练样本数量较少的小样本场景。
背景技术
随着数据的爆炸式增长,近似最近邻搜索在信息检索领域引起了越来越多的关注。作为近似最近邻搜索中一种经典的技术,哈希算法在保留原始数据相似性信息的同时,利用哈希函数将高维数据编码成二进制码。基于短二进制码表示,查询样本和数据库中样本的相似性可以用汉明距离来衡量。因此,结合哈希运算的近似最近邻搜索可以实现线性或次线性的时间复杂度,具有查询速度快、存储成本低等显著优势。
传统的哈希方法使用手工方法(如SIFT算子)生成用于二进制码学习的特征。而随着深度学习在计算机视觉领域取得了巨大成功,深度神经网络被引入哈希方法中,使表征学习部分和二进制码学习部分同时工作。在深度哈希中,网络提取的深度特征被用于生成二进制码。与此同时,二进制码学习提供反馈,指导深层网络的表征学习。
然而,目前的图像检索方法往往基于大量的训练样本,而现实中很多场景下可获得的训练样本数量收到限制,或者可利用的训练资源不足。另外,深度哈希的输出受到离散约束的限制。与分类任务等输出为每个类别的概率分布的任务相比,二进制输出从原始数据中保留的语义信息较少。因此在面对可获得的训练样本较少的场景时,语义信息的缺少使得二进制码学习部分不能很好地指导深度网络进行表征学习,从而进一步影响二进制码学习的效果。因此需要一种方法,能够克服深度哈希方法中信息损失的缺陷,从有限样本中获得更多有用的语义信息,来指导深度哈希进行表征学习。
发明内容
本申请的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本申请的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
针对现有技术中存在的问题与不足,本发明目的在于提供一种面向小样本场景的深度图像检索方法,在可获得的学习样本较为稀疏的情况下,引入中间连续特征,从少量样本中挖掘更多的信息,指导深度网络进行表征学习,然后利用训练获得的哈希网络计算哈希码并数据库中进行检索。提升了图像检索的效率和精度,在面对小样本场景时更为鲁棒,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
本发明公开一种面向小样本场景的深度图像检索方法,包括如下步骤:
步骤1,获取图像数据集H作为数据库,从数据库中采样训练样本,并根据训练样本数据的标签计算训练样本间以及训练样本与数据库间的相似度矩阵;
步骤2,对所述训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc;
步骤3,将学习到的所述中间表征映射为二进制码,结合所述训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数;
步骤4,基于所述对比损失函数Lc与二值损失函数构造总损失函数L;
步骤5,基于所述总损失函数L对深度哈希网络进行更新,基于所述训练样本间以及训练样本与数据库间的相似度矩阵与所述总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛;
步骤6,对于外来图像样本,使用上述步骤5训练好的深度哈希网络对图像进行检索。
进一步的,所述步骤2的具体步骤为:
步骤2.1,对深度哈希网络进行初始化,所述深度哈希网络由一个卷积神经网络和两层全连接网络组成;
步骤2.2,对采样的所述训练样本分别进行两次随机的图像增强,得到正负两组样本副本,以构成最终训练数据集H*;
步骤2.3,使用所述卷积神经网络提取特征并通过其中一层所述全连接网络映射到l维空间中,得到中间特征ri,其中中间特征ri表示为连续向量;
步骤2.4,基于所述中间特征ri计算对比损失函数Lc。
进一步的,所述步骤3的具体步骤为:
步骤3.1,使用所述全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi),用tanh(·)近似sign(·)来保证可导;
步骤3.2,基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其中二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq。
进一步的,所述步骤4中基于所述对比损失函数Lc与二值损失函数构造总损失函数L,将所述总损失函数L构造为L=Lc+λ1Lb+λ2Lq,其中λ1,λ2为超参数。
进一步的,所述步骤5采用非对称的方式在训练过程中直接对数据库中的哈希码进行更新,其具体步骤为:
步骤5.1,固定深度哈希网络的参数,初始化数据库样本的二进制码V;
步骤5.4,采用DCC算法按位对所述数据库样本的二进制码V进行优化,表示为:
进一步的,所述步骤6中对于外来图像样本进行检索的步骤为:
步骤6.1,获取待检索的图像样本;
步骤6.2,加载步骤5训练好的深度哈希网络;
步骤6.3,计算所述待检索图像样本的二进制码与数据库中哈希码的汉明距离,并按升序排序;
步骤6.4,返回排序靠前k个哈希码所对应的图像样本。
进一步的,所述对比损失函数Lc表示为:
进一步的,所述训练样本内损失函数Lb定义为:
其中,c为初始化设置二进制码V的长度。
进一步的,所述训练样本与数据库间损失函数Lq定义为:
与现有技术相比,本发明的有益效果为:本发明提供了一种面向小样本场景的深度图像检索方法,具体步骤为:首先从数据库中采样少量训练样本,并根据标签计算训练样本间以及训练样本与数据库间的相似度矩阵;然后,通过随机图像增强生成正负样本映射到连续空间中,以获得中间特征并计算对比损失函数;将学习到的中间特征被映射为二进制码,结合相似度矩阵计算二值损失函数;结合二值损失函数与上一步骤的对比损失函数一同对深度网络模型进行更新。与此同时,基于训练样本间以及训练样本与数据库间的相似度矩阵以及损失函数,对数据库样本的哈希码进行更新。最后对于外来图像样本,使用训练好的深度哈希网络计算其哈希码,对数据库中的哈希码对图像进行检索。与现有深度哈希技术相比,本发明克服了二进制编码中的信息损失影响模型进行表征学习的问题,使得模型在训练样本较少的情况下也能取得较好的效果,尤其适用于训练样本稀疏以及训练资源受限的情况。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。
在附图中:
图1:为本发明的主要步骤示意图;
图2:为本发明深度哈希网络训练的步骤流程示意图;
图3:为本发明对于外来待检索图像样本的检索步骤流程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
本发明公开了一种面向小样本场景的深度图像检索方法,下面将参考附图并结合实施例来详细说明本公开。
参照图1至3所示,主要包括以下步骤:
步骤1,获取图像数据集H作为数据库,从数据库中采样训练样本,并根据训练样本数据的标签计算训练样本间以及训练样本与数据库间的相似度矩阵;
步骤2,对训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc;
步骤3,将学习到的中间表征映射为二进制码,结合训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数;
步骤4,根据对比损失函数Lc与二值损失函数构造总损失函数L;
步骤5,基于总损失函数L对深度哈希网络进行更新,基于训练样本间以及训练样本与数据库间的相似度矩阵与总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛;
步骤6,对于外来图像样本,使用上述步骤5训练好的深度哈希网络对图像进行检索。
具体而言,首先获取图像数据集H={(xi,yi),i=1,2,…,m}作为数据库,其中xi表示图像向量,yi表示其所属类别标签,为one-hot向量。并初始化数据库样本对应的哈希码库,其中包括初始化数据库样本的二进制码V={vi,i=1,2,…,m},设置二进制码的长度c。
在步骤2中,对训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc,具体步骤为:
步骤2.1,对深度哈希网络进行初始化,深度哈希网络由一个卷积神经网络和两层全连接网络组成;
步骤2.2,对采样的训练样本分别进行两次随机的图像增强,得到正负两组样本副本,以构成最终训练数据集H*;
步骤2.3,使用卷积神经网络提取特征并通过其中一层全连接网络映射到l维空间中,得到中间特征ri,其中中间特征ri表示为连续向量;
步骤2.4,基于中间特征ri计算对比损失函数Lc
具体而言,从数据库中随机采样N个作为训练样本,代表可获得的训练数据,用于构成训练样本集,这里N通常小于等于200。再对采样到的训练样本xi,,分别进行两次随机图像增强,使用包括裁剪、尺度变换、重新着色、高斯扰动等方法。由此得到两组样本副本对应标签满足构成最终训练数据集其中标签相同样本的互为正样本,标签不同的互为负样本。我们采取改进后的ResNet50架构作为深度哈希模型,使用初始化后的卷积神经网络提取特征并通过其中一层全连接层映射到l维空间中得到中间特征ri,中间特征ri表示为连续向量,这里l我们设为128,可以视数据规模调整。基于中间特征ri计算对比损失函数Lc,对比损失函数Lc表示为:
在步骤3中,将学习到的中间表征映射为二进制码,结合训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其具体步骤为:
步骤3.1,使用全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi),用tanh(·)近似sign(·)来保证可导;
步骤3.2,基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其中二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq。
具体而言,使用全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi)。通常在实际训练中,我们用tanh(·)近似sign(·)来保证可导。基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数。二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq。训练样本内损失函数Lb表示为:
其中,Sij为训练样本间的相似度矩阵,c为初始化设置二进制码V的长度,ui为中间表征映射的二进制码。训练样本与数据库间损失函数Lq表示为:
基于对比损失函数Lc、训练样本内损失函数Lb和训练样本与数据库间损失函数Lq构造总损失函数L,因此将总损失函数L构造为L=Lc+λ1Lb+λ2Lq,其中λ1,λ2为超参数。
在步骤5中,基于总损失函数L对深度哈希网络进行更新,基于训练样本间以及训练样本与数据库间的相似度矩阵与总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛。具体步骤包括:
步骤5.1,固定深度哈希网络的参数,初始化数据库样本的二进制码V;
步骤5.3,将目标函数进行简化改写为
步骤5.4,采用DCC算法按位对所述数据库样本的二进制码V进行优化,表示为:
具体而言,中的向量满足对于i=1,2,…,n,而其余向量均置为0。对应使用总损失函数L对深度哈希网络进行更新,基于训练样本间以及训练样本与数据库间的相似度矩阵与总损失函数L,对数据库样本的哈希码进行训练和更新。若网络训练更新至收敛时,输出模型和数据库中的哈希码库。若网络训练更新未收敛时,则重复上述步骤1至5。
在步骤6中,在对外来图像样本进行检索时,可以直接根据训练阶段得到的哈希码库计算相似度,无需再对数据库样本进行哈希操作。具体对于外来图像样本进行检索的步骤如下:
步骤6.1,获取待检索的图像样本;
步骤6.2,加载步骤5训练好的深度哈希网络模型;
步骤6.3,计算待检索图像样本的二进制码与数据库中哈希码的汉明距离,并按升序排序;
步骤6.4,返回排序靠前k个哈希码所对应的图像样本。
具体而言,首先,获取待检索图像样本;然后,加载上述步骤5中训练好的深度哈希网络,使用其计算出待检索图像样本的二进制码。其次,将待检索图像样本的二进制码数据库中哈希码(哈希码库)中的二进制码分别计算汉明距离,并将汉明距离按升序进行排序。最后,返回前k个二进制码将其对应的图像样本进行返回。其中,k由系统设置或视需要而定。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (9)
1.一种面向小样本场景的深度图像检索方法,其特征在于,包括如下步骤:
步骤1,获取图像数据集H作为数据库,从数据库中采样训练样本,并根据训练样本数据的标签计算训练样本间以及训练样本与数据库间的相似度矩阵;
步骤2,对所述训练样本随机图像增强生成样本副本,将其通过深度哈希网络映射到连续空间中,以获得中间特征并计算对比损失函数Lc;
步骤3,将学习到的所述中间表征映射为二进制码,结合所述训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数;
步骤4,根据所述对比损失函数Lc与二值损失函数构造总损失函数L;
步骤5,基于所述总损失函数L对深度哈希网络进行更新,基于所述训练样本间以及训练样本与数据库间的相似度矩阵与所述总损失函数L,对数据库样本的哈希码进行更新,直至网络收敛;
步骤6,对于外来图像样本,使用上述步骤5训练好的深度哈希网络对图像进行检索。
2.根据权利要求1所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤2的具体步骤为:
步骤2.1,对深度哈希网络进行初始化,所述深度哈希网络由一个卷积神经网络和两层全连接网络组成;
步骤2.2,对采样的所述训练样本分别进行两次随机的图像增强,得到正负两组样本副本,以构成最终训练数据集H*;
步骤2.3,使用所述卷积神经网络提取特征并通过其中一层所述全连接网络映射到l维空间中,得到中间特征ri,其中中间特征ri表示为连续向量;
步骤2.4,基于所述中间特征ri计算对比损失函数Lc。
3.根据权利要求2所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤3的具体步骤为:
步骤3.1,使用所述全连接网络将中间特征ri映射为向量zi,再将向量zi转换为二进制码表示为ui=sign(zi),用tanh(·)近似sign(·)来保证可导;
步骤3.2,基于二进制码ui和训练样本间以及训练样本与数据库间的相似度矩阵计算二值损失函数,其中二值损失函数包括训练样本内损失函数Lb和训练样本与数据库间损失函数Lq。
4.根据权利要求3所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤4中基于所述对比损失函数Lc与二值损失函数构造总损失函数L,将所述总损失函数L构造为L=Lc+λ1Lb+λ2Lq,其中λ1,λ2为超参数。
6.根据权利要求5所述的一种面向小样本场景的深度图像检索方法,其特征在于,所述步骤6中对于外来图像样本进行检索的步骤为:
步骤6.1,获取待检索的图像样本;
步骤6.2,加载步骤5训练好的深度哈希网络模型;
步骤6.3,计算所述待检索图像样本的二进制码与数据库中哈希码的汉明距离,并按升序排序;
步骤6.4,返回排序靠前k个哈希码所对应的图像样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210336881.9A CN114860973A (zh) | 2022-03-31 | 2022-03-31 | 一种面向小样本场景的深度图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210336881.9A CN114860973A (zh) | 2022-03-31 | 2022-03-31 | 一种面向小样本场景的深度图像检索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114860973A true CN114860973A (zh) | 2022-08-05 |
Family
ID=82630452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210336881.9A Pending CN114860973A (zh) | 2022-03-31 | 2022-03-31 | 一种面向小样本场景的深度图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114860973A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108219A (zh) * | 2023-04-07 | 2023-05-12 | 天津汉云工业互联网有限公司 | 图像检索方法、装置、电子设备和存储介质 |
CN117573915A (zh) * | 2024-01-16 | 2024-02-20 | 山东建筑大学 | 基于对比学习的二值码图像检索方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507159A (zh) * | 2020-11-20 | 2021-03-16 | 有米科技股份有限公司 | 哈希网络训练方法、广告图像素材检索方法及相关装置 |
CN112906721A (zh) * | 2021-05-07 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及计算机可读存储介质 |
CN112966792A (zh) * | 2021-05-19 | 2021-06-15 | 腾讯科技(深圳)有限公司 | 血管图像分类处理方法、装置、设备及存储介质 |
-
2022
- 2022-03-31 CN CN202210336881.9A patent/CN114860973A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507159A (zh) * | 2020-11-20 | 2021-03-16 | 有米科技股份有限公司 | 哈希网络训练方法、广告图像素材检索方法及相关装置 |
CN112906721A (zh) * | 2021-05-07 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及计算机可读存储介质 |
CN112966792A (zh) * | 2021-05-19 | 2021-06-15 | 腾讯科技(深圳)有限公司 | 血管图像分类处理方法、装置、设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108219A (zh) * | 2023-04-07 | 2023-05-12 | 天津汉云工业互联网有限公司 | 图像检索方法、装置、电子设备和存储介质 |
CN116108219B (zh) * | 2023-04-07 | 2023-06-13 | 天津汉云工业互联网有限公司 | 图像检索方法、装置、电子设备和存储介质 |
CN117573915A (zh) * | 2024-01-16 | 2024-02-20 | 山东建筑大学 | 基于对比学习的二值码图像检索方法及系统 |
CN117573915B (zh) * | 2024-01-16 | 2024-04-26 | 山东建筑大学 | 基于对比学习的二值码图像检索方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188227B (zh) | 一种基于深度学习与低秩矩阵优化的哈希图像检索方法 | |
CN110851645B (zh) | 一种基于深度度量学习下相似性保持的图像检索方法 | |
CN110941734B (zh) | 基于稀疏图结构的深度无监督图像检索方法 | |
CN114860973A (zh) | 一种面向小样本场景的深度图像检索方法 | |
CN112732864B (zh) | 一种基于稠密伪查询向量表示的文档检索方法 | |
CN111242033B (zh) | 一种基于视频和文字对判别分析的视频特征学习方法 | |
CN114170333B (zh) | 基于直推式半监督深度学习的图像哈希编码方法 | |
CN112948601B (zh) | 一种基于受控语义嵌入的跨模态哈希检索方法 | |
CN110866134B (zh) | 一种面向图像检索的分布一致性保持度量学习方法 | |
CN114357221B (zh) | 一种基于图像分类的自监督主动学习方法 | |
CN115495555A (zh) | 一种基于深度学习的文献检索方法和系统 | |
CN109933682B (zh) | 一种基于语义与内容信息结合的图像哈希检索方法及系统 | |
CN115587207A (zh) | 一种基于分类标签的深度哈希检索方法 | |
CN109472282B (zh) | 一种基于极少训练样本的深度图像哈希方法 | |
CN114332519A (zh) | 一种基于外部三元组和抽象关系的图像描述生成方法 | |
CN116049450A (zh) | 一种基于距离聚类的支持多模态的图文检索方法及装置 | |
CN111858984A (zh) | 一种基于注意力机制哈希检索的图像匹配方法 | |
CN115035341B (zh) | 一种自动选择学生模型结构的图像识别知识蒸馏方法 | |
CN116662565A (zh) | 基于对比学习预训练的异质信息网络关键词生成方法 | |
CN110083734B (zh) | 基于自编码网络和鲁棒核哈希的半监督图像检索方法 | |
CN115329120A (zh) | 一种知识图谱嵌入注意力机制的弱标注哈希图像检索架构 | |
CN117011515A (zh) | 基于注意力机制的交互式图像分割模型及其分割方法 | |
CN114168782B (zh) | 一种基于三元组网络的深度哈希图像检索方法 | |
CN116662566A (zh) | 一种基于对比学习机制的异质信息网络链路预测方法 | |
CN115019183B (zh) | 基于知识蒸馏和图像重构的遥感影像模型迁移方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |