CN111611413B - 基于度量学习的深度哈希方法 - Google Patents
基于度量学习的深度哈希方法 Download PDFInfo
- Publication number
- CN111611413B CN111611413B CN202010453613.6A CN202010453613A CN111611413B CN 111611413 B CN111611413 B CN 111611413B CN 202010453613 A CN202010453613 A CN 202010453613A CN 111611413 B CN111611413 B CN 111611413B
- Authority
- CN
- China
- Prior art keywords
- hash
- images
- neural network
- image
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
基于度量学习的深度哈希方法,涉及计算机视觉和图像处理领域,解决现有深度哈希方法的对比损失函数只能使得相同类别的图像在量化前的特征向量尽可能接近,但并不能鼓励其符号相同;使不同类别图像的量化前的值尽可能远离,但并不能鼓励其符号相反;最终导致量化后的哈希码鉴别力差,造成误判等问题,本发明构建哈希对比损失函数,对于量化前的实数值特征向量进行符号位的约束,使得量化前的实数值特征向量在经过符号函数量化后,得到的代表图像的哈希编码更加的准确,通过fsim(fi·fj)和fdiff(fi·fj)两个控制函数,对符号进行约束;表达式中其他部分用于使相同类别图像的特征值接近,不同类别图像特征值远离。本发明方法有效的提高分类的精度,减少了误判率。
Description
技术领域
本发明涉及计算机视觉和图像处理领域,具体涉及一种基于度量学习的深度哈希方法。
背景技术
随着信息时代的到来,信息技术和存储技术得到高速发展,每天都有海量的数据生成,其中图像数据的规模更是爆发性增长,大规模数据如果是用直接的相似性检索势必会导致极大的时间和空间的开销。同时,由于图像的结构比较复杂,特征的维度也较高,在大规模数据集中保证图像检索的检索精度和检索效率是急需攻克的难题。
深度哈希方法的主要流程:首先是基于卷积层、池化层等构建一个卷积神经网络用于对图像的特征提取,常用的特征提取网络(由浅至深)有Alexnet、VGG、ResNet等等。网络的输入是一张图像,经过特征提取网络后获得一组特征图,特征图经过一系列全连接层后训练成代表该图像的特征向量。最后,使用符号函数(sgn(·))将特征向量映射成为±1的哈希值。网络输入中,有的采取单图像的输入,但更多的是采用图像对(image pairwise)的方式输入到网络中。深度哈希方法一部分受限于特征提取网络的深度,这个决定了提取特征的好坏;更重要的是,深度哈希方法的准确度受量化过程(使用符号函数将特征向量映射成为哈希码)的影响较大,很多文章都是在这个地方做优化做改进,目的就是1、让量化前的特征向量和量化后的哈希值尽可能接近,即特征向量尽可能的接近于±1,能避免太多的特征丢失;2、让相同类别的特征向量,能在每一位都能都特别接近;3、让不同类别的特征向量,能在尽可能多的位上的值,都相差很远。
现有用于快速图像检索的深度监督哈希法(Deep supervised hashing for fastimage retrieval,以下简称DSH):DSH发表在CVPR2016上,是深度哈希方法发展过程中极为重要的一个进步。DSH提出了有监督的哈希方法,在输入时利用成对的图像输入网络进行训练,与此同时输入二者的标签关系,同类的两张图像:S=1,不同类别的两张图像:S=0。DSH还设计了一个对比损失函数,使用欧氏距离来计算两张图像的特征向量的距离,对比损失函数的目的是使同类图像特征之间的距离更小,不同类别图像特征之间的距离更大。DSH还设计了一个量化损失函数,使得图像的特征向量更接近于±1(二值化),从而减少图像语义信息的丢失。最后通过符号函数对特征向量进行量化操作,得到哈希码,在之后的图像检索中,均使用哈希码去计算汉明距离来进行最近邻检索。总的来说,DSH的目的就是基于深度卷积神经网络学习到能表达图像特征的、且表达近似离散的特征向量,这样能在量化时保留更多的语义信息,且将同类和不同类别的图像更好的区分开。
现有的对比损失函数只能使得相同类别的图像在量化前的特征向量尽可能接近,但并不能鼓励其符号相同;只能使不同类别图像的量化前的值尽可能远离,但并不能鼓励其符号相反。由于最终进行图像检索时是根据量化后的哈希编码来判别的,对比损失极有可能让同类图像的部分比特位出现在0附近接近的情况,尤其是两个的特征值还是一正一负,分别位于0的两侧,经过符号函数量化后的值一个为+1,一个为-1,最终会造成量化后得到的哈希码的鉴别力下降,造成误判。
本发明基于度量学习的深度哈希方法能够有效地满足相同类别图像的值接近,不同类别图像的值远离这一基本需求的同时鼓励相同类别图像在量化后的符号相同,不同类别图像的符号相反,降低由于量化操作导致的哈希码鉴别力下降的影响,有效的提高分类的精度。
发明内容
本发明为解决现有深度哈希方法的对比损失函数只能使得相同类别的图像在量化前的特征向量尽可能接近,但并不能鼓励其符号相同;使不同类别图像的量化前的值尽可能远离,但并不能鼓励其符号相反;最终导致量化后的哈希码鉴别力差,造成误判等问题,提供一种基于度量学习的深度哈希方法。
基于度量学习的深度哈希方法,该方法由以下步骤实现:
步骤一、构建三元组形式的训练样本;
具体为:每次训练时,所述训练样本均由两张图像和所述两张图像之间的标签关系的三元组形式{Xi,Xj,Sij};其中,Xi和Xj表示两张图像,Sij为两张图像Xi,Xj之间的标签关系,对所述三元组中的两张图像Xi,Xj进行缩放和裁剪操作,保证Xi,Xj有相同的图像尺寸;
步骤二、构建用于特征提取的深度卷积神经网络H;
去掉已有的深度卷积神经网络模型AlexNet末尾的损失层和分类层,构建一个由5层卷积层和3层全连接层的用于特征提取的深度卷积神经网络H;所述深度卷积神经网络H输出多维的实数类型的特征向量值;
对于最后一层全连接层,构建一个低维度的输出作为哈希全连接层,用于匹配需要进行的量化编码操作,即最终的输出神经元个数与哈希编码的位数相同;
步骤三、利用哈希对比损失函数和量化损失函数对深度卷积神经网络H进行训练和优化,获得训练好的深度卷积神经网络H;
将步骤一进行缩放和裁剪操作图像和标签关系一起输入到步骤二构建的深度卷积神经网络H中进行训练;采用哈希对比损失函数和量化损失函数对所述深度卷积神经网络H进行约束,优化两种损失函数时采用梯度回传的方式对卷积神经网络的参数进行更新;具体过程为:
三元组训练样本中的图像Xi,Xj经过深度卷积神经网络H后得到对应的实数值特征向量fi,fj,计算哈希对比损失函数和量化损失函数;向深度卷积神经网络H反向传播梯度来更新网络的参数,哈希对比损失函数的计算公式如下:
式中,fsim(fi·fj)和fdiff(fi·fj)均为哈希对比损失中对符号进行控制的函数,fi,fj为Xi,Xj经过卷积神经网络后的实数值特征向量,m和mdiff均为阈值超参数;
步骤四、将测试图像和图库中图像输入训练好的深度卷积神经网络H网络,获得对应测试图像和图库中图像的哈希码;
步骤五、计算步骤四获得的测试图像的哈希码和图库中图像的哈希码之间的汉明距离,将汉明距离最小的图像作为最相似的图像。
本发有的有益效果:本发明所述的基于度量学习的深度哈希方法,通过增大类间距离并减小类内距离,使得相同类别图像之间的相似度尽可能大,而不同类别图像之间的相似度尽可能小,从而能够快速准确的进行图像检索。同时,基于度量学习的深度哈希方法能使量化前后的特征向量的每一位更加的接近,并且保证相同的符号,准确率得到进一步提升。
本发明提出的基于度量学习的方法,构建了哈希对比损失函数,对于量化前的实数值特征向量进行了符号位的约束,使得量化前的实数值特征向量在经过符号函数量化后,得到的代表图像的哈希编码更加的准确,更具有判别力。哈希对比损失函数设计中,分别对同类别的图像和不同类别的图像设计了不同的损失函数,通过fsim(fi·fj)和fdiff(fi·fj)两个控制函数,对符号进行约束;表达式中其他部分用于使相同类别图像的特征值接近,不同类别图像特征值远离。
本发明主要基于度量学习的深度哈希方法,在设计损失函数方面,考虑了量化前实数值特征向量的符号约束问题,保障同类别图像之间生成哈希码的汉明距离尽可能的小,不同类别图像之间生成哈希码的汉明距离尽可能大于阈值;并且提出了哈希对比损失函数,通过设计不同的损失函数鼓励相同类别图形在经过量化以后符号相同,不同类别图像的符号相反,降低由于量化操作导致的哈希码鉴别力下降的影响,经过大量的实验证明,本发明方法有效的提高分类的精度,减少了误判率。
附图说明
图1为本发明所述的基于度量学习的深度哈希方法的原理框图;
图2为本发明所述的基于度量学习的深度哈希方法的流程图。
具体实施方式
结合图1和图2说明本实施方式,基于度量学习的深度哈希方法,该方法由以下步骤实现:
一、构建三元组形式的训练样本;
输入数据:每次训练的输入是两张图像和他们之间的标签关系的三元组形式:
{Xi,Xj,Sij}
其中,X代表图像,Sij代表图像Xi,Xj之间的标签关系,同类别为1,不同类别为0,即:
在输入进行特征提取的神经网络之前,需要对输入的三元组对中的Xi,Xj进行缩放(resize)和裁剪(crop)操作,保证Xi,Xj有相同的图像尺寸;将图像缩放到256像素×256像素然后随机裁剪227像素×227像素的内容区域。
二、构建深度神经网络;
参考已有的深度卷积网络AlexNet,去掉最末尾的损失层和分类层,构建一个用于特征提取的卷积神经网络结构H,H由5层卷积层和3层全连接层构成,最后能输出多维的实数类型的特征向量值。对于最后一层的全连接层,需要构建一个低维度的输出作为哈希全连接层(Hash Full Connection layer,HFC),匹配后面需要进行的量化编码操作,即最终的输出神经元个数与哈希编码的位数相同。
三、将图像对进行缩放(resize)和裁剪(crop)操作后和标签关系一起输入到深度卷积神经网络H中进行训练。训练过程中使用哈希对比损失函数和量化损失函数对模型进行约束,优化两种损失函数时采用梯度回传的方式对深度卷积神经网络H的参数进行更新。具体为:
三元组训练样本的图像Xi,Xj经过深度卷积神经网络H后得到对应的实数值特征向量fi,fj,计算哈希对比损失和量化损失,向深度卷积神经网络H反向传播梯度来更新网络的参数,哈希对比损失函数的计算公式如下:
其中,fi,fj是Xi,Xj经过卷积神经网络后的实数值特征向量,可以表示为:
fi=(zi1,zi2,…,zin)
其中,z为实数值特征向量每一个维度的实数值,实数值特征向量的维度为n。
对于相同类别的图像哈希对比损失是上面一行的结果,他由两部分组成。的目的是约束同类别的两张图像的n维实数值特征向量的值尽可能接近,即实数值特征向量每一个维度的实数值z特别接近。fsim(fi·fj)是哈希对比损失中对符号进行控制的函数,输入是实数值特征向量fi,fj对应位的乘积,即:
fi·fj=(zi1·zj1,zi2·zj2,…,zin·zjn)=(c1,c2,…cn)
fsim(fi·fj)主要解决的问题是:哈希方法最后使用sgn(·)函数对z进行量化操作最终得到哈希码,z的符号直接决定了最终生成的哈希码。但是,目前已有的深度哈希方法中都没有专门的损失函数对z的符号进行限定,这样会导致一些问题的出现:相同类别的两张图像Xi,Xj,我们希望他们量化后的汉明距离足够的小(汉明距离的为0是最好的情况),但是只是对量化前的实数值特征向量进行了约束,这样约束会出现一个极端情况:对于实数值特征向量中的任意一位(假如说是第k位,k∈{1,2,…,n}),尽可能小且接近0了,但是zik和zjk却分别位于原点的两侧,符号不同;最终实际上会使得两张图像的哈希码在更多的位上不一致,汉明距离变大,导致误判的概率增大。因此,fsim(fi·fj)的主要目的是解决上述问题,fsim(fi·fj)可以表示为:
设计的原因有以下几点:在ci<0时,zik和zjk具有不同的符号,会导致最终的哈希码映射成为不同的值,不符合预期的要求,需要对这种情况增加惩罚;在ci=0时,zik和zjk中必有一个为0,而zik和zjk在接近零时量化操作有局限且函数非常不鲁棒,也需要添加惩罚;在0<ci<1时,zik和zjk具有相同的符号,最终会量化成为相同的哈希码,但是zik和zjk两个的值仍至少有一个是接近于0的,在继续训练中仍然很容易改变他的符号,所以在0<ci<1范围内也需要添加惩罚,使得哈希函数更加鲁棒;最后在ci≥1时,满足需要不再添加损失,因此将损失设置为0。
对于不同类别图像的哈希对比损失是Lhash(Xi,Xj,Sij)的下面一行的结果,也是由两部分组成:和max(0,mdiff-fdiff(fi·fj))。前者主要是约束不同类别的两张图像的n维实数值特征向量的值差距尽可能大,这样量化后的哈希码的汉明距离也更大。fdiff(fi·fj)也是哈希对比损失中对符号进行控制的函数,主要解决的问题是出现zik和zjk距离较远但是符号相同的情况,在的约束下,只要值大于了阈值m,就不再具有约束作用,但实际上zik和zjk可能仍然处于相同的符号位置,最终量化得到的哈希码仍然会相同,导致不同类别的两张图像的汉明距离很接近。max(0,mdiff-fdiff(fi·fj))的主要目的是解决上述问题。其中fdiff(fi·fj)可以表示为:
设计的原因有以下几点:在ci>0时,zik和zjk具有相同的符号,会导致最终的哈希码映射成为相同的值,不符合预期的要求,需要对这种情况增加惩罚;在ci=0时,zik和zjk中必有一个为0,而zik和zjk在接近零时量化操作有局限且函数非常不鲁棒,也需要添加惩罚;在-1<ci<0时,zik和zjk具有不同的符号,最终会量化成为不同的哈希码,但是zik和zjk两个的值仍至少有一个是接近于0的,在继续训练中仍然很容易改变他的符号,所以在-1<ci<0范围内也需要添加惩罚,使得哈希函数更加鲁棒;最后在ci≤-1时,满足需要不再添加损失,因此将损失设置为0。
一般来说,不同的图像的哈希码不会要求所有位都全部不同,会设定一个阈值,在汉明距离大于这个阈值的时候会认为这两张图像的是不同类别的,反之是属于同一个类别的。因此,在对于不同类别的图像进行约束时,需要设定阈值,在达到阈值要求后不再进行惩罚,这里的m和mdiff就是在这种情况下设置的阈值。
除了哈希对比损失,还有就是量化损失,表达式如下:
其中,|·|为绝对值运算,1是一个向量,‖·‖1是l1范数。由于实数值特征向量在经过符号函数量化后会直接编码为{+1,-1},当实数值特征向量偏离±1较大的时候,经过量化后势必会造成较大的语义信息丢失,因此量化损失的目的就是让量化前的实数值特征向量尽可能的接近于±1,在量化后不会造成太大的语义信息损失。
三元组训练样本经过深度卷积神经网络H后得到图像Xi,Xj所对应的实数值特征向量fi,fj,对实数值特征向量进行量化编码任务时使用符号函数:
最后,将图库中的所有图像经过深度卷积神经网络H后对每一张图像的哈希码进行存储,查询的图像的哈希码与图库中图像的哈希码进行汉明距离计算,排序后查找到最相似的图像。
Claims (5)
1.基于度量学习的深度哈希方法,其特征是:该方法由以下步骤实现:
步骤一、构建三元组形式的训练样本;
具体为:每次训练时,所述训练样本均由两张图像和所述两张图像之间的标签关系的三元组形式{Xi,Xj,Sij};其中,Xi和Xj表示两张图像,Sij为两张图像Xi,Xj之间的标签关系,对所述三元组中的两张图像Xi,Xj进行缩放和裁剪操作,保证Xi,Xj有相同的图像尺寸;
步骤二、构建用于特征提取的深度卷积神经网络H;
去掉已有的深度卷积神经网络模型AlexNet末尾的损失层和分类层,构建一个由5层卷积层和3层全连接层的用于特征提取的深度卷积神经网络H;所述深度卷积神经网络H输出多维的实数类型的特征向量值;
对于最后一层全连接层,构建一个低维度的输出作为哈希全连接层,用于匹配需要进行的量化编码操作,即最终的输出神经元个数与哈希编码的位数相同;
步骤三、利用哈希对比损失函数和量化损失函数对深度卷积神经网络H进行训练和优化,获得训练好的深度卷积神经网络H;
将步骤一进行缩放和裁剪操作图像和标签关系一起输入到步骤二构建的深度卷积神经网络H中进行训练;采用哈希对比损失函数和量化损失函数对所述深度卷积神经网络H进行约束,优化两种损失函数时采用梯度回传的方式对卷积神经网络的参数进行更新;具体过程为:
三元组训练样本中的图像Xi,Xj经过深度卷积神经网络H后得到对应的实数值特征向量fi,fj,计算哈希对比损失函数和量化损失函数;向深度卷积神经网络H反向传播梯度来更新网络的参数,哈希对比损失函数的计算公式如下:
式中,fsim(fi·fj)和fdiff(fi·fj)均为哈希对比损失中对符号进行控制的函数,fi,fj为Xi,Xj经过卷积神经网络后的实数值特征向量,m和mdiff均为阈值超参数;
步骤四、将测试图像和图库中图像输入训练好的深度卷积神经网络H网络,获得对应测试图像和图库中图像的哈希码;
步骤五、计算步骤四获得的测试图像的哈希码和图库中图像的哈希码之间的汉明距离,将汉明距离最小的图像作为最相似的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453613.6A CN111611413B (zh) | 2020-05-26 | 2020-05-26 | 基于度量学习的深度哈希方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453613.6A CN111611413B (zh) | 2020-05-26 | 2020-05-26 | 基于度量学习的深度哈希方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611413A CN111611413A (zh) | 2020-09-01 |
CN111611413B true CN111611413B (zh) | 2023-04-18 |
Family
ID=72199263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010453613.6A Active CN111611413B (zh) | 2020-05-26 | 2020-05-26 | 基于度量学习的深度哈希方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611413B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821667A (zh) * | 2021-06-11 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置及电子设备 |
WO2023130429A1 (zh) * | 2022-01-10 | 2023-07-13 | 烟台创迹软件有限公司 | 物体识别方法、物体识别装置以及模型学习方法 |
CN115878823B (zh) * | 2023-03-03 | 2023-04-28 | 中南大学 | 基于图卷积网络的深度哈希方法及交通数据检索方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512289A (zh) * | 2015-12-07 | 2016-04-20 | 郑州金惠计算机系统工程有限公司 | 基于深度学习和哈希的图像检索方法 |
CN107423376A (zh) * | 2017-07-10 | 2017-12-01 | 上海交通大学 | 一种有监督深度哈希快速图片检索方法及系统 |
CN108920720A (zh) * | 2018-07-30 | 2018-11-30 | 电子科技大学 | 基于深度哈希和gpu加速的大规模图像检索方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512273A (zh) * | 2015-12-03 | 2016-04-20 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
-
2020
- 2020-05-26 CN CN202010453613.6A patent/CN111611413B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512289A (zh) * | 2015-12-07 | 2016-04-20 | 郑州金惠计算机系统工程有限公司 | 基于深度学习和哈希的图像检索方法 |
CN107423376A (zh) * | 2017-07-10 | 2017-12-01 | 上海交通大学 | 一种有监督深度哈希快速图片检索方法及系统 |
CN108920720A (zh) * | 2018-07-30 | 2018-11-30 | 电子科技大学 | 基于深度哈希和gpu加速的大规模图像检索方法 |
Non-Patent Citations (4)
Title |
---|
Haomiao Liu等.Deep Supervised Hashing for Fast Image Retrieval.2016 IEEE Conference on Computer Vision and Pattern Recognition.2016,全文. * |
ISSR等.Structured Deep Hashing with Convolutional Neural Networks for Fast Person Re-identification.ARXIV.2017,全文. * |
周书仁等.融合多尺度特征的深度哈希图像检索方法.CNKI.2018,全文. * |
李泗兰等.基于深度学习哈希算法的快速图像检索研究.计算机与数字工程.2019,第47卷(第12期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111611413A (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110209823B (zh) | 一种多标签文本分类方法及系统 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN111611413B (zh) | 基于度量学习的深度哈希方法 | |
US20230031738A1 (en) | Taxpayer industry classification method based on label-noise learning | |
CN110222218B (zh) | 基于多尺度NetVLAD和深度哈希的图像检索方法 | |
CN112100346B (zh) | 基于细粒度图像特征和外部知识相融合的视觉问答方法 | |
CN110321967B (zh) | 基于卷积神经网络的图像分类改进方法 | |
CN110263325B (zh) | 中文分词系统 | |
CN109271486B (zh) | 一种相似性保留跨模态哈希检索方法 | |
CN110188827B (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN112966691A (zh) | 基于语义分割的多尺度文本检测方法、装置及电子设备 | |
CN111598041A (zh) | 一种用于物品查找的图像生成文本方法 | |
CN110598022B (zh) | 一种基于鲁棒深度哈希网络的图像检索系统与方法 | |
CN109918507B (zh) | 一种基于TextCNN改进的文本分类方法 | |
CN109933682B (zh) | 一种基于语义与内容信息结合的图像哈希检索方法及系统 | |
CN109871379B (zh) | 一种基于数据块学习的在线哈希最近邻查询方法 | |
CN110647907A (zh) | 利用多层分类和字典学习的多标签图像分类算法 | |
CN114444507A (zh) | 基于水环境知识图谱增强关系的上下文参数中文实体预测方法 | |
CN112163114B (zh) | 一种基于特征融合的图像检索方法 | |
CN116486419A (zh) | 一种基于孪生卷积神经网络的书法字识别方法 | |
CN114372465A (zh) | 基于Mixup和BQRNN的法律命名实体识别方法 | |
CN114491115B (zh) | 一种基于深度哈希的多模型融合的集成图像检索方法 | |
CN115587207A (zh) | 一种基于分类标签的深度哈希检索方法 | |
CN113392191B (zh) | 一种基于多维度语义联合学习的文本匹配方法和装置 | |
Sen et al. | Face recognition using deep convolutional network and one-shot learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |