CN109885716B - 基于异质多任务学习深度监督离散哈希的图像检索方法 - Google Patents
基于异质多任务学习深度监督离散哈希的图像检索方法 Download PDFInfo
- Publication number
- CN109885716B CN109885716B CN201910119846.XA CN201910119846A CN109885716B CN 109885716 B CN109885716 B CN 109885716B CN 201910119846 A CN201910119846 A CN 201910119846A CN 109885716 B CN109885716 B CN 109885716B
- Authority
- CN
- China
- Prior art keywords
- image
- hash
- network
- learning
- retrieval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于异质多任务学习深度监督离散哈希的图像检索方法,考虑判别性的实值特征及高质量的哈希码应该适合分类与检索任务,将实值特征空间分类任务与检索任务的学习及二值特征空间分类任务及检索任务的学习融入只有一个输出的单流(one‑stream)网络框架,充分利用异质空间中多个任务的相关信息,实现哈希码的紧致性、判别性的提升,提高哈希检索性能。
Description
技术领域
本发明涉及图像检索领域,尤其涉及一种基于异质多任务学习深度监督离散哈希的图像检索方法。
背景技术
在最近几年,对于大尺度图像检索任务,哈希技术已经受到很多研究者的关注。哈希的目标是为了将多媒体数据从原始高维空间到紧致的二值空间,同时保留数据之间的相似性。通过在CPUs或者GPUs上利用XOR及POPCNT算子计算汉明距离测度,我们可以实现常数或者子线性的搜索速度。对于大尺度多媒体检索,有效的存储及搜索可以使得哈希技术很受欢迎。
一般而言,我们将现有的哈希方法分类两类:数据独立及数据依赖的哈希方法。数据独立哈希方法利用随机投影作为哈希函数,将数据点从原始特征空间映射到二值空间。这些方法为将近邻数据点以高的概率映射到相同的哈希码提供了理论保证。然而,他们需要长的二值码以实现高的精度。数据依赖的哈希方法(即哈希学习方法)从训练数据学习哈希函数及紧致的二值码。基于是否使用语义(标签)信息,这些方法可以进一步分为无监督的哈希方法及监督的哈希方法。在许多实际应用中,监督的哈希方法跟无监督的哈希方法比展现了更优越的性能。最近基于深度学习的哈希方法现了比这些传统的哈希方法更加优越的性能。主要原因是深度哈希方法可以按照端对端的学习框架,同时进行特征学习及哈希码的学习。现有的深度监督哈希方法主要专注于单个检索任务而忽略了可以帮助提升哈希码性能的类别信息。最近深度监督的哈希方法通过将分类任务及检索任务融入同质空间如实值空间,或者将多任务学习在异质空间分解成两个单任务如在二值空间进行分类任务及在实值空间进行检索任务。然而,来自于异质空间中的相关任务(如分类任务及检索任务)信息并没有被充分地用于训练深度哈希模型。
发明内容
本发明所要解决的技术问题是:针对现有技术存在的问题,本发明提供一种基于异质多任务学习深度监督离散哈希的图像检索方法、模型及模型构建方法,在实值的视觉空间及离散的二值空间同时进行多任务学习,利用不同空间不同任务的信息充分地训练监督离散哈希模型。
本发明提供的一种基于异质多任务学习深度监督离散哈希的图像检索模型构建方法,包括:
S1,收集大量的训练图片,并进行图片类别标注;调整所有图片的大小到一个固定尺寸;将整个数据库随机划分成三个集合:查询集、数据库集和训练集;
S2,构建一个哈希学习网络,对所构建的哈希学习网络进行参数初始化;在哈希学习网络的最后添加损失层,网络的损失函数J定义如下:
J=J1+αJ2+βJ3+γJ4+μJ5
其中,α,β,γ,μ表示超参数用以平衡实值空间分类任务的判别性损失J1、实值空间检索任务的成对损失J2、二值空间分类任务的判别性损失J3、二值空间检索任务的非对称成对损失J4及量化损失J5;
针对实值空间分类任务,采用下面的判别性损失用于实值特征的学习:
其中,Y∈{0,1}L×N,m表示每批次输入图像的数目,N表示训练集图像的数目,Nk表示第k个类别的样本数目;ui表示网络最后一层经过tanh(·)激活函数的输出的实值特征,Y表示训练集图像的标签矩阵,L表示训练集图像的类别数目,ck表示第k类的特征中心;
针对实值空间检索任务,采用下面的成对损失形式:
针对二值空间分类任务,利用如下简单的线性模型构建判别性损失:
其中W表示线性分类器的权重,η表示超参数,B∈{-1,1}m×r表示相应的离散哈希码,F表示Frobenius范数;
针对二值空间检索任务,采用如下的非对称成对损失:
其中r表示哈希码的码长,U表示输入的每一个批次图像经过网络实值特征ui构成的矩阵;
并引入如下的量化损失:
其中bi表示输入批次图像中第i张图像的哈希码;
S4,网络模型训练好后,将数据库集中的图片按照S3归一化后,输入训练好后的哈希网络;利用逐元素的sign(·)函数层替换训练好后的哈希网络最后的损失层,得到数据库图像的哈希码:
bd=sign(H(xd;Θ))=sign(ud)
其中,xd表示输入的数据库图像,ud表示对应的网络输出,H表示由网络参数Θ构成的映射函数;
将训练集作为查询图片输入上述修改后的哈希网络得到查询图片的哈希码并计算检索的平均精度;按照交叉验证的原则,调整学习率及所有超参数α,β,γ,μ和η的数值;选择最优的参数训练得到的哈希网络作为最终的检索模型。
进一步,S3中采用交替优化算法更新哈希码B、所有类别的特征中心C、网络参数Θ及权重W,具体包括:
a.固定B,C及Θ,更新权重W,得到如下关于W的闭式解:
W=(BBT+ηI)-1BYT
其中I表示单位矩阵;
b.固定W,C及Θ,优化B,表示成如下形式:
其中Tr(·)表示矩阵的迹,const表示与B无关的常数,J(B)表示关于离散哈希码B的子优化目标函数;利用离散环坐标下降方法学习B,令Bk*表示B的第k行,表示矩阵B去掉第k行后的剩下的矩阵部分,同理定义Wk*,Uk*,Qk*及得到:
Bk*=-sign(z)
c.固定W,B及C,更新Θ,采用Pytorch自带的自动技术,利用方向传播算法更新Θ;
d.固定W,B及Θ,更新特征中心C=[c1,c2,…,cL],写成如下闭式解形式:
进一步,所述方法还包括,将查询集图片按照S3归一化后,输入训练好后的哈希网络,得到查询集图像的哈希码,并计算检索的平均精度。
进一步,S3中采用减均值的归一化处理方法,即对图片减去数据库中所有图片的均值进行归一化处理。
本发明另一方面提供的一种基于异质多任务学习深度监督离散哈希的图像检索模型,在如上所述的图像检索模型构建方法上构建实现,包括:
图像检索输入接口,接收要进行检索的图片;
检索图像归一化处理模块,将检索图像的RGB三个通道作归一化处理;
深度监督离散哈希处理,对归一化处理后的图像进行深度监督离散哈希处理,得到图像的哈希码。
本发明另一方面提供的一种基于异质多任务学习深度监督离散哈希的图像检索方法,在如上所述的图像检索模型上实现,包括:
输入要检索的图片,将检索图像的RGB三个通道进行归一化处理;对归一化处理后的图像进行深度监督离散哈希处理,得到图像的哈希码。
与现有技术相比,本发明考虑判别性的实值特征及高质量的哈希码应该适合分类与检索任务,将实值特征空间分类任务与检索任务的学习及二值特征空间分类任务及检索任务的学习融入只有一个输出的单流(one-stream)网络框架,充分利用异质空间中多个任务的相关信息,实现哈希码的紧致性、判别性的提升,提高哈希检索性能。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1-图3为本发明一实施例的利用t-SNE可视化方法将CIFAR-10测试集图片分别输入HMDH-C、HMDH-D和本发明实施例方案模型输出的实值特征投影到二维空间的结果;
图4为本发明实施例方案模型在CIFAR-10及ImageNet-100数据库上的训练损失曲线。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
根据本发明提供的一种基于异质多任务学习深度监督离散哈希的图像检索模型构建方法,包括:
S1,收集大量的训练图片,并进行图片类别标注;调整所有图片的大小到一个固定尺寸;将整个数据库随机划分成三个集合:查询集、数据库集(检索集)和训练集;
S2,构建一个哈希学习网络,对所构建的哈希学习网络进行参数初始化;在哈希学习网络的最后添加损失层,网络的损失函数J定义如下:
J=J1+αJ2+βJ3+γJ4+μJ5
其中,α,β,γ,μ表示超参数用以平衡实值空间分类任务的判别性损失J1、实值空间检索任务的成对损失J2、二值空间分类任务的判别性损失J3、二值空间检索任务的非对称成对损失J4及量化损失J5。对于实值空间,采用多任务学习框架,结合实值的分类任务及实值的检索任务提高实值特征的语义表示能力,为学习高质量的哈希码奠定基础。
针对实值空间分类任务,采用下面的判别性损失用于实值特征的学习:
其中,Y∈{0,1}L×N,m表示每批次输入图像的数目,N表示训练集图像的数目,Nk表示第k个类别的样本数目;ui表示网络最后一层经过tanh(·)激活函数的输出的实值特征,Y表示训练集图像的标签矩阵,L表示训练集图像的类别数目,ck表示第k类的特征中心;
针对实值空间检索任务,采用下面的成对损失形式:
考虑到高质量的哈希码应该很适合分类与检索任务。因此对于二值空间,采用多任务学习框架,结合二值的分类任务及二值的检索任务提高哈希码的语义表示能力。针对二值空间分类任务,利用如下简单的线性模型构建判别性损失:
其中W表示线性分类器的权重,η表示超参数,B∈{-1,1}m×r表示相应的离散哈希码值,F表示Frobenius范数;
针对二值空间检索任务,采用如下的非对称成对损失:
其中r表示哈希码的码长,U表示输入的每一个批次图像经过网络实值特征ui构成的矩阵。高质量的哈希码,其量化误差应该是得到控制的。为此,引入如下的量化损失:
其中bi表示输入批次图像中第i张图像的哈希码;
S4,网络模型训练好后,将数据库集中的图片按照S3归一化后,输入训练好后的哈希网络;利用逐元素(element-wise)的sign(·)函数层替换训练好后的哈希网络最后的损失层,得到数据库图像的哈希码:
bd=sign(H(xd;Θ))=sign(ud)
其中,xd表示输入的数据库图像,ud表示对应的网络输出,H表示由网络参数Θ构成的映射函数。
将训练集作为查询图片输入上述修改后的哈希网络得到查询图片的哈希码并计算检索的平均精度(MAP);按照交叉验证的原则,调整学习率(learning rate)及所有超参数α,β,γ,μ和η的数值;选择最优的参数训练得到的哈希网络作为最终的检索模型。
优选地,S3中采用交替优化算法更新哈希码B、所有类别的特征中心C、网络参数Θ及权重W,具体包括:
a.固定B,C及Θ,更新权重W,得到如下关于W的闭式解:
W=(BBT+ηI)-1BYT
其中I表示单位矩阵;
b.固定W,C及Θ,优化B,表示成如下形式:
其中Tr(·)表示矩阵的迹,const表示与B无关的常数,J(B)表示关于离散哈希码B的子优化目标函数;利用离散环坐标下降方法学习B,令Bk*表示B的第k行,表示矩阵B去掉第k行后的剩下的矩阵部分,同理定义Wk*,Uk*,Qk*及得到:
Bk*=-sign(z)
c.固定W,B及C,更新Θ,采用Pytorch自带的自动技术,利用方向传播算法更新Θ;
d.固定W,B及Θ,更新特征中心C=[c1,c2,…,cL],写成如下闭式解形式:
作为本发明的一种实施方式,所述方法还包括,将查询集图片按照S3归一化后,输入训练好后的哈希网络,得到查询集图像的哈希码,并计算检索的平均精度。
作为本发明的一种实施方式,S3中采用减均值的归一化处理方法,即对图片减去数据库中所有图片的均值进行归一化处理。
根据本发明提供的一种基于异质多任务学习深度监督离散哈希的图像检索模型,在如上所述的图像检索模型构建方法上构建实现,包括:
图像检索输入接口,接收要进行检索的图片;
检索图像归一化处理模块,将检索图像的RGB三个通道作归一化处理;
深度监督离散哈希处理,对归一化处理后的图像进行深度监督离散哈希处理,得到图像的哈希码。
根据本发明提供的一种基于异质多任务学习深度监督离散哈希的图像检索方法,在如上所述的图像检索模型上实现,包括:
输入要检索的图片,将检索图像的RGB三个通道进行归一化处理;对归一化处理后的图像进行深度监督离散哈希处理,得到图像的哈希码。
下面以一个具体实施例为例进行具体说明。
步骤1:从网上分别下载CIFAR-10及ImageNet-100数据库。对于CIFAR-10数据库,随机从60000张图像中选出1000张图片作为查询集,将剩余的59000张图片作为数据库集。然后随机地从数据库集每一类中采样500张图片共计5000张图片作为训练集。ImageNet-100数据库是ImageNet-1000类数据库的子集,从中随机选择100个子类作为ImageNet-100数据库。对于ImageNet-100数据库,我们利用从原ImageNet-1000选择的子类中对应的验证集里选择相应的5000张图片作为查询集。然后从原ImageNet-1000选择的子类中对应的训练集作为数据库集。然后,从数据库集每一类中随机选择100张图片共计10000张图片作为训练集。最后将上述两个数据库中的所有图片大小归一化为224*224*3。
步骤2:根据如表1所示的网络配置构建哈希学习网络。本实施例所采用的基础网络结构为VGG-19。
表1
表1为本实施例构建网络的参数配置,其中“Filter num×size×size”表示卷积核数量及其接受域尺寸;“stride”表示卷积核步长;“pad”表示给输入的每一个激活谱上填充的像素数目;“LRN”表示激活谱局部响应归一化;“pool”表示下采样因子;“4096”表示全连接层的输出维度。
本实施例中Conv1-Conv5及Full6-Full7的权重及偏置可以利用在ImageNet数据库上预训练的VGG-19模型的前7层进行参数初始化。哈希网络中的Full8层的权重与偏置按照均值为0方差为0.01的高斯分布进行随机初始化。
步骤3:采用减均值的归一化处理方式,对所有图片减去数据库中所有图片的均值进行预处理。
步骤4:基础网络中所有卷积层及全连接层的学习率按照交叉验证的方法从10-1到10-6进行调节,将新加层的学习率设置为基础网络学习率的10倍,并将权重退化参数设置为5×10-4。按照在训练集中执行交叉验证,对超参数α,β,γ,μ,η进行调节。从中选择最优的超参数,利用提出的交替优化算法,对所有变量包括哈希码B,所有类别的特征中心C及网络参数Θ,权重W进行更新,得到最优的网络模型。
步骤5:测试过程:按照步骤3将查询集及数据库集图像进行归一化处理,输入步骤4得到的最优的网络模型,得到查询集及数据库集图像的哈希码。利用MAP评测指标,对所提出的模型在CIFAR-10及ImageNet-100上进行评测。
我们将本发明方案缩写为HMDH。在CIFAR-10数据库上,将HMDH与当前最好的哈希检索算法包括DDSH(Q.Jiang,X.Cui,and W.Li,“Deep discrete supervised hashing,”IEEE Transactions on Image Processing,vol.27,no.12,pp.5996–6009,2018.)、DSDH(Q.Li,Z.Sun,R.He,and T.Tan,“Deep supervised discrete hashing,”in NIPS,2017,pp.2479–2488.)、DTSH(X.Wang,Y.Shi,and K.M.Kitani,“Deep supervised hashing withtriplet labels,”in ACCV,2016,pp.70–84.)和DPSH(W.Li,S.Wang,and W.Kang,“Featurelearning based deep supervised hashing with pairwise labels,”in IJCAI,2016,pp.1711–1717.)比较检索的MAP性能,结果如表2所示。在ImageNet-100数据库上,将HMDH分别与HashNet(Z.Cao,M.Long,J.Wang,and P.S.Yu,“Hashnet:Deep learning to hash bycontinuation,”in ICCV,2017,pp.5609–5618.)、DHN(Y.Cao,M.Long,J.Wang,H.Zhu,andQ.Wen,“Deep quantization network for efficient image retrieval,”in AAAI,2016,pp.3457–3463.)、DNNH(H.Lai,Y.Pan,Y.Liu,and S.Yan,“Simultaneous featurelearning and hash coding with deep neural networks,”in CVPR,2015,pp.3270–3278.)、CNNH(R.Xia,Y.Pan,H.Lai,C.Liu,and S.Yan,“Supervised hashing for imageretrieval via image representation learning,”in AAAI,2014,pp.2156–2162.)进行MAP@1000(即返回的前1000个检索图像计算检索的平均精度)性能比较,结果如表3所示。对比表2及表3中的实验结果,我们可以看出HMDH取得了比现有的方法更优的检索性能。除此之外,在CIFAR-10及ImageNet-100数据库上相应的消去实验结果如表4所示。从表4的实验结果可以看出,联合异质空间包括实值空间及二值空间的多任务学习方法性能最优。为了更加直观的认识,我们将HMDH拆成同质空间里的多任务学习问题,即实值空间多任务学习(对应表4最后一行)HMDH-C和二值空间里的多任务学习(对应表4倒数第二行)HMDH-D。图1-图3分别展示了将CIFAR-10测试集图片分别输入HMDH-C、HMDH-D和HMDH模型所得到的实值特征,然后利用t-SNE可视化方法将实值特征投影到二维空间的结果。从主观的实验结果中,我们看出本发明提出的HMDH方法可以产生更加紧致性及判别性的哈希码。HMDH方法在CIFAR-10及ImageNet-100数据库上的训练损失曲线如图4所示。从图4可以看出,本发明所提出的HMDH方法可以在100次训练中收敛。
表2
表3
表4
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random AccessMemory)、磁盘或光盘等。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。
Claims (6)
1.一种基于异质多任务学习深度监督离散哈希的图像检索模型构建方法,其特征在于,包括:
S1,收集图像,并进行图像类别标注;调整所有图像的大小到一个固定尺寸;将整个数据库随机划分成三个集合:查询集、数据库集和训练集;
S2,构建一个哈希学习网络,对所构建的哈希学习网络进行参数初始化;在哈希学习网络的最后添加损失层,网络的损失函数J定义如下:
J=J1+αJ2+βJ3+γJ4+μJ5
其中,α,β,γ,μ表示超参数用以平衡实值空间分类任务的判别性损失J1、实值空间检索任务的成对损失J2、二值空间分类任务的判别性损失J3、二值空间检索任务的非对称成对损失J4及量化损失J5;
针对实值空间分类任务,采用下面的判别性损失用于实值特征的学习:
其中,Y∈{0,1}L×N,m表示每批次输入图像的数目,N表示训练集图像的数目,Nk表示第k个类别的样本数目;ui表示网络最后一层经过tanh(·)激活函数的输出的实值特征,Y表示训练集图像的标签矩阵,L表示训练集图像的类别数目,ck表示第k类的特征中心;
针对实值空间检索任务,采用下面的成对损失形式:
针对二值空间分类任务,利用如下简单的线性模型构建判别性损失:
其中W表示线性分类器的权重,η表示超参数,B∈{-1,1}m×r表示相应的离散哈希码,F表示Frobenius范数;
针对二值空间检索任务,采用如下的非对称成对损失:
其中r表示哈希码的码长,U表示输入的每一个批次图像经过网络实值特征ui构成的矩阵;
并引入如下的量化损失:
其中bi表示输入批次图像中第i张图像的哈希码;
S3,将训练集图像的RGB三个通道进行归一化处理;将归一化后的图像输入网络,经过最后tanh(·)激活函数的输出得到实值特征表示采用交替优化算法更新哈希码B、所有类别的特征中心C、网络参数Θ及权重W;
S4,网络模型训练好后,将数据库集中的图像按照S3归一化后,输入训练好后的哈希学习网络;利用逐元素的sign(·)函数层替换训练好后的哈希学习网络最后的损失层,得到数据库集图像的哈希码:
bd=sign(H(xd;Θ))=sign(ud)
其中,xd表示输入的数据库集图像,ud表示对应的网络输出,H表示由网络参数Θ构成的映射函数;
将训练集作为查询图像输入上述训练好后的哈希学习网络得到查询图像的哈希码并计算检索的平均精度;按照交叉验证的原则,调整学习率及所有超参数α,β,γ,μ和η的数值;选择最优的参数训练得到的哈希学习网络作为最终的检索模型。
2.根据权利要求1所述的一种基于异质多任务学习深度监督离散哈希的图像检索模型构建方法,其特征在于,S3中采用交替优化算法更新哈希码B、所有类别的特征中心C、网络参数Θ及权重W,具体包括:
a.固定B,C及Θ,更新权重W,得到如下关于W的闭式解:
W=(BBT+ηI)-1BYT
其中I表示单位矩阵;
b.固定W,C及Θ,优化B,表示成如下形式:
其中Tr(·)表示矩阵的迹,const表示与B无关的常数,J(B)表示关于离散哈希码B的子优化目标函数;利用离散环坐标下降方法学习B,令表示B的第k行,表示矩阵B去掉第k行后的剩下的矩阵部分,同理定义及得到:
c.固定W,B及C,更新Θ,采用Pytorch自带的自动技术,利用方向传播算法更新Θ;
d.固定W,B及Θ,更新特征中心C=[c1,c2,…,cL],写成如下闭式解形式:
3.根据权利要求1所述的一种基于异质多任务学习深度监督离散哈希的图像检索模型构建方法,其特征在于,所述方法还包括,将查询集图像按照S3归一化后,输入训练好后的哈希学习网络,得到查询集图像的哈希码,并计算检索的平均精度。
4.根据权利要求1所述的一种基于异质多任务学习深度监督离散哈希的图像检索模型构建方法,其特征在于,S3中采用减均值的归一化处理方法,即对图像减去数据库中所有图像的均值进行归一化处理。
5.一种基于异质多任务学习深度监督离散哈希的图像检索模型,其特征在于,在权利要求1-4任一项所述的图像检索模型构建方法上构建实现,包括:图像检索输入接口,接收要进行检索的图像;检索图像归一化处理模块,将检索图像的RGB三个通道作归一化处理;深度监督离散哈希处理,对归一化处理后的图像进行深度监督离散哈希处理,得到图像的哈希码。
6.一种基于异质多任务学习深度监督离散哈希的图像检索方法,其特征在于,在权利要求5所述的图像检索模型上实现,包括:输入要检索的图像,将检索图像的RGB三个通道进行归一化处理;对归一化处理后的图像进行深度监督离散哈希处理,得到图像的哈希码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910119846.XA CN109885716B (zh) | 2019-02-18 | 2019-02-18 | 基于异质多任务学习深度监督离散哈希的图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910119846.XA CN109885716B (zh) | 2019-02-18 | 2019-02-18 | 基于异质多任务学习深度监督离散哈希的图像检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109885716A CN109885716A (zh) | 2019-06-14 |
CN109885716B true CN109885716B (zh) | 2022-10-14 |
Family
ID=66928282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910119846.XA Active CN109885716B (zh) | 2019-02-18 | 2019-02-18 | 基于异质多任务学习深度监督离散哈希的图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109885716B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111611427B (zh) * | 2020-05-21 | 2023-06-30 | 湖北工业大学 | 基于线性鉴别分析深度哈希算法的图像检索方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104820696A (zh) * | 2015-04-29 | 2015-08-05 | 山东大学 | 一种基于多标签最小二乘哈希算法的大规模图像检索方法 |
CN107729513A (zh) * | 2017-10-25 | 2018-02-23 | 鲁东大学 | 基于语义对齐的离散监督跨模态哈希检索方法 |
CN107885764A (zh) * | 2017-09-21 | 2018-04-06 | 银江股份有限公司 | 基于多任务深度学习快速哈希车辆检索方法 |
CN109063113A (zh) * | 2018-07-30 | 2018-12-21 | 成都快眼科技有限公司 | 一种基于不对称深度离散哈希的快速图像检索方法、检索模型及模型构建方法 |
CN109063112A (zh) * | 2018-07-30 | 2018-12-21 | 成都快眼科技有限公司 | 一种基于多任务学习深度语义哈希的快速图像检索方法、模型及模型构建方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512273A (zh) * | 2015-12-03 | 2016-04-20 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
US10817774B2 (en) * | 2016-12-30 | 2020-10-27 | Facebook, Inc. | Systems and methods for providing content |
CN106951911B (zh) * | 2017-02-13 | 2021-06-29 | 苏州飞搜科技有限公司 | 一种快速的多标签图片检索系统及实现方法 |
CN108304573A (zh) * | 2018-02-24 | 2018-07-20 | 江苏测联空间大数据应用研究中心有限公司 | 基于卷积神经网络和监督核哈希的目标检索方法 |
CN108920720B (zh) * | 2018-07-30 | 2021-09-07 | 电子科技大学 | 基于深度哈希和gpu加速的大规模图像检索方法 |
CN109165306B (zh) * | 2018-08-09 | 2021-11-23 | 长沙理工大学 | 基于多任务哈希学习的图像检索方法 |
-
2019
- 2019-02-18 CN CN201910119846.XA patent/CN109885716B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104820696A (zh) * | 2015-04-29 | 2015-08-05 | 山东大学 | 一种基于多标签最小二乘哈希算法的大规模图像检索方法 |
CN107885764A (zh) * | 2017-09-21 | 2018-04-06 | 银江股份有限公司 | 基于多任务深度学习快速哈希车辆检索方法 |
CN107729513A (zh) * | 2017-10-25 | 2018-02-23 | 鲁东大学 | 基于语义对齐的离散监督跨模态哈希检索方法 |
CN109063113A (zh) * | 2018-07-30 | 2018-12-21 | 成都快眼科技有限公司 | 一种基于不对称深度离散哈希的快速图像检索方法、检索模型及模型构建方法 |
CN109063112A (zh) * | 2018-07-30 | 2018-12-21 | 成都快眼科技有限公司 | 一种基于多任务学习深度语义哈希的快速图像检索方法、模型及模型构建方法 |
Non-Patent Citations (5)
Title |
---|
Bit-Scalable Deep Hashing With Regularized Similarity Learning for Image Retrieval and Person Re-Identification;R. Zhang 等;《IEEE Transactions on Image Processing》;20151231;第24卷(第12期);4766-4779 * |
Hierarchy Neighborhood Discriminative Hashing for An Unified View of Single-Label and Multi-Label Image retrieval;Lei Ma 等;《https://arxiv.org/abs/1901.03060》;20190111;1-6 * |
Multi-task Learning for Deep Semantic Hashing;L. Ma 等;《2018 IEEE Visual Communications and Image Processing (VCIP)》;20181212;1-4 * |
基于哈希方法的跨媒体检索研究;姚涛;《中国优秀博硕士学位论文全文数据库(博士) 信息科技辑》;20180615(第06期);I138-131 * |
基于哈希算法的大规模图像最近邻检索算法研究;高新;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20180915(第09期);I138-289 * |
Also Published As
Publication number | Publication date |
---|---|
CN109885716A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Visual saliency guided complex image retrieval | |
Hancer et al. | A survey on feature selection approaches for clustering | |
CN107480261B (zh) | 一种基于深度学习细粒度人脸图像快速检索方法 | |
El Bouchefry et al. | Learning in big data: Introduction to machine learning | |
Thoma | Analysis and optimization of convolutional neural network architectures | |
CN107679250B (zh) | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 | |
CN109918528A (zh) | 一种基于语义保护的紧凑的哈希码学习方法 | |
CN108984642B (zh) | 一种基于哈希编码的印花织物图像检索方法 | |
Xu | Multiple-instance learning based decision neural networks for image retrieval and classification | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN114299362A (zh) | 一种基于k-means聚类的小样本图像分类方法 | |
CN113569895A (zh) | 图像处理模型训练方法、处理方法、装置、设备及介质 | |
Li et al. | Deep learning for approximate nearest neighbour search: A survey and future directions | |
Oneata et al. | Axes at trecvid 2012: Kis, ins, and med | |
CN109885716B (zh) | 基于异质多任务学习深度监督离散哈希的图像检索方法 | |
Goyal et al. | Leaf Bagging: A novel meta heuristic optimization based framework for leaf identification | |
Guo | Research on sports video retrieval algorithm based on semantic feature extraction | |
CN116108217B (zh) | 一种基于深度哈希编码和多任务预测的逃费车辆相似图片检索方法 | |
Gao et al. | An improved XGBoost based on weighted column subsampling for object classification | |
Bai et al. | Learning two-pathway convolutional neural networks for categorizing scene images | |
CN110941994B (zh) | 一种基于元类基学习器的行人重识别集成方法 | |
Chandrakala et al. | Image classification based on color and texture features using frbfn network with artificial bee colony optimization algorithm | |
Zhong et al. | Deep multi-label hashing for image retrieval | |
Omar et al. | WAY-LOOK4: A CBIR system based on class signature of the images' color and texture features | |
CN115292535B (zh) | 一种基于深度极化哈希的分层车辆图像检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |