CN109241313B - 一种基于高阶深度哈希学习的图像检索方法 - Google Patents
一种基于高阶深度哈希学习的图像检索方法 Download PDFInfo
- Publication number
- CN109241313B CN109241313B CN201810919209.6A CN201810919209A CN109241313B CN 109241313 B CN109241313 B CN 109241313B CN 201810919209 A CN201810919209 A CN 201810919209A CN 109241313 B CN109241313 B CN 109241313B
- Authority
- CN
- China
- Prior art keywords
- network
- hash
- order
- image
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于高阶深度哈希学习的图像检索方法。该发明方法包括:构造数据集,获取原始图像的特征和标签信息,并将其划分为训练集、测试集和检索图像集;利用基础特征子网络、高阶池化子网络、哈希子网络及损失子网络四个模块构建高阶深度哈希网络结构;基于损失函数,借助随机梯度下降法和反向传播算法训练模型,优化深度哈希网络;利用学习到的网络计算测试集与检索图像集的哈希码,根据汉明距离输出检索结果。本发明的网络模型融合基础特征、高阶特征和哈希编码,深入挖掘三者的内在联系,联合优化,保证学习到的哈希码具有更丰富的语义信息,借助交叉熵损失实现端对端训练,提升高阶哈希的图像检索性能。
Description
技术领域
本发明涉及图像检索领域和深度学习领域,具体涉及一种基于高阶深度哈希学习的图像检索方法。
背景技术
哈希方法是将图像特征转换为二值编码,以哈希码作为图像的索引进行匹配,通过最近邻搜索,查询与其最相似的编码序列,将对应的图片作为检索结果输出。哈希方法具有查询效率高和易于存储等特点,可极大提高检索速度,且内存耗费低,被广泛应用到大规模图像检索中。
哈希方法一般分为数据依赖和数据独立两类,其中前者研究更为广泛,并可划分为无监督哈希和有监督哈希方法。无监督哈希方法在训练时仅利用图片的特征信息,忽略相应的标签信息,典型方法有迭代量化法和离散图哈希;有监督的哈希方法依赖标签进行哈希码训练,典型方法包括有监督的核哈希算法和最小损失哈希。近年来,随着深度学习的快速发展,深度哈希被有效提出,其结合深度卷积网络特征,克服传统手工特征弱化语义信息的弊端,极大提高哈希方法的精度,典型的深度哈希方法包括深度学习二值哈希码、深度有监督哈希和深度神经网络哈希等。
发明内容
针对现有技术的局限,本发明提出一种基于高阶深度哈希学习的图像检索方法,将基础深度特征通过协方差池化转化为高阶特征,借助该全局特征表示图像并获得哈希码,从而有效匹配图像。
本发明一种基于高阶深度哈希学习的图像检索方法,具体包括以下步骤:
步骤S1:构造包含图像数据及标签的图像数据集,并划分为训练集、测试集和检索图像集三部分,训练集用于模型训练,测试集和检索图像集用于模型测试;
步骤S2:构建高阶深度哈希网络的结构,包括基础特征子网络、高阶池化子网络、哈希子网络及损失子网络;
步骤S3:高阶深度哈希网络模型的端对端训练,包括模型特征前向传播和误差反向传播两个过程;
步骤S4:根据学习到的高阶深度哈希网络,计算测试集和检索图像集的深度高阶哈希码;
步骤S5:计算测试集与检索图像集哈希码之间的汉明距离,将最小汉明距离对应的图像作为检索结果输出,用平均精度均值指标评判该方法整体性能。
本发明的网络模型融合基础特征、高阶特征和哈希编码,深入挖掘三者的内在联系,联合优化,保证学习到的哈希码具有更丰富的语义信息,借助交叉熵损失实现端对端训练,提升高阶哈希的图像检索性能。
附图说明
以下结合附图和具体的实施方式对本发明作进一步详细的说明。
图1是本发明所涉及的基于高阶深度哈希学习的图像检索方法的流程示意图。
图2是本发明方法所构高阶深度哈希网络的结构示意图。
具体实施方式
本发明基于高阶深度哈希学习的图像检索方法包括:
步骤S1:构造包含图像数据及标签的图像数据集,并划分为训练集、测试集和检索图像集三部分,训练集用于本发明的模型训练,其余用于模型测试。
具体的:构造图像数据集,获取图像的底层特征和标签,X=[x1,x2,...,xN]代表所有图片构成的样本集,每一张图像记作xi,{i=1,2,...,N},N为图像样本个数,Y=[y1,y2,...,yM]代表图像数据集X对应的标签。将样本集进行划分,选取一部分作为测试样本集Xte,一部分作为训练样本集Xtr,一部分作为检索图像集Xdata。
步骤S2:构建高阶深度哈希网络的结构,包括基础特征子网络、高阶池化子网络、哈希子网络及损失子网络。
具体的:基础特征子网络由VGG-F网络的1-14层构成,卷积层、激活层、池化层交替组合。原始图像在该子网络中逐层映射,获得图像的深度特征表示,取代原始手工特征。
高阶池化子网络设计协方差池化层作为模型的第15层,它处理14层的深度特征为样本协方差矩阵,根据特征值分解生成正交阵和对角阵,利用特征值求解矩阵幂。该层取代传统的一阶池化方法,获得建立在深度特征上的高阶特征,作为图像的全局特征表示。
哈希子网络实现哈希位映射和编码激活,包括第16层哈希隐层和第17层激活层。哈希隐层将高阶特征线性映射到指定编码位的全连接层,配合激活层将数值变化为[0,1]范围的可编码特征。
损失子网络由全连接层和Softmax交叉熵损失层组成,该部分仅用于指导训练,测试(检索)过程不涉及。哈希码传播至18层全连接层,映射为各类别标签的概率值,经Softmax转化为和为1的概率分布,利用交叉熵损失函数计算检索误差,衡量预测值和真实值之间的差别,后续作为网络训练的目标函数。
步骤S3:高阶深度哈希网络模型的端对端训练,包括模型特征前向传播和误差反向传播两个过程。
其中步骤S3的模型特征前向传播部分具体包括以下过程:
(1)将训练集图像Xtr输入网络,经基础特征子网络映射为基础特征Xm,高阶池化子网络将其处理为样本协方差矩阵M:
(2)根据协方差矩阵,基于特征值分解和矩阵幂获得高阶特征:
其中,m是正实数,表示高阶特征的幂次,U和Λ分别代表协方差矩阵M经特征值分解P=UΛUT确定的正交阵和对角阵。F(Λ)=diag(f(λ1),...f(λd)),且f(λi)=λi m,λi是Λ的特征值,据此可充分利用对角阵特性,将矩阵幂转换为元素λi求幂,简化运算。
(3)将高阶特征P引入哈希子网络,获得[0,1]范围的可编码特征,具体计算公式如下:
H=WH TP+σ=WH T[UF(Λ)UT]+σ (3)
其中,H表示训练集的可编码特征矩阵,H=[h1,h2,...hN],WH T∈R4096×K表示哈希层的权重,K是哈希隐层的结点数,代表编码比特位数,σ∈RK代表K维偏置向量。
其中步骤S3的误差反向传播部分具体包括以下过程:
反向传播利用交叉熵损失函数作为目标函数,旨在比较哈希码的预测值和图像真实标签之间的差别,其整体计算形式如下:
为方便后续反向传播的梯度求解,这里将公式(4)细化如下:
(1)可编码特征hi经全连接层映射为对应标签的取值:
xi=WC Thi+τ (5)
(2)利用交叉熵损失函数计算误差值:
其中,WC T和τ分别代表全连接层的权重和偏置,它将xi转化为各标签的预测概率 且 与yi均为M×1的标签列向量,yi对应第i张图片的真实标签,且yi∈{0,1},该式衡量预测值和真实值之间的差别,确定预测误差。
首先,根据公式(5)(6)的原理,确定损失函数L和H之间的梯度回传形式:
其次,根据高阶特征引入可编码特征的公式(3),确定由H回传至P的形式:
最后,根据基础特征构造高阶协方差特征的关系式(1)、(2),确定P最终反向传播至基础特征Xm的表达式:
上述三个梯度关系式依次衔接,逐层递进,共同实现反向传播。训练阶段借助损失函数学习前端基础特征、高阶特征及哈希编码,挖掘三者的内在关系,实现特征融合与统一。
步骤S4:根据学习到的高阶深度哈希网络计算测试集和检索图像集的深度高阶哈希码。
具体的:将测试集Xte和检索图像集Xdata输入步骤S4学习到的网络模型,前向传播至哈希子网络获得可编码特征hi,借助bi=sgn(hi)执行元素二值操作,将元素值以0为界映射为1或-1,确定哈希码B=[b1,b2,...bN]。
步骤S5:计算测试集与检索图像集哈希码之间的汉明距离,将最小汉明距离对应的图像作为检索结果输出,用平均精度均值指标(mAP)评判方法整体性能。
具体的:将测试(检索)图像与检索图像集中的每一张图像进行汉明距离匹配,以此作为相似度评价标准,汉明距离越近则相似度越高,排序并返回最小汉明距离对应的图像,即测试集样本的检索图像。根据评价指标平均精度均值指标(mAP)衡量检索结果准确率,判断测试集图像与检索图像的类别标签是否一致。
以下结合具体的实验进一步说明本发明的有益技术效果:
本发明采用CIFAR-10图像数据集作为实例数据集,该数据集包含60000张32×32的彩色图像,划分为10个类别:airplane、automobile、bird、cat、deer、dog、frog、horse、ship、truck,每个类别对应6000张图片。本发明在构建网络模型时选用VGG-F,该网络是利用大规模图像数据库Imagenet学习到的21层深度模型。
参照图1,本发明解决其技术问题的具体步骤如下:
步骤S1:构造并划分图像数据集
采集CIFAR-10图像数据集,预处理为224×224的图像特征,构造为图像数据集X=[x1,x2,...,x60000],数据集X的10个类别标签表示为Y=[y1,y2,...,y10],X中的每个样本xi,{i=1,2,...,60000}均包含图像特征及标签。随后划分数据集,从每类中依次随机选取100张、500张和5000张(各部分无重复),分别作为训练集Xtr、测试集Xte和检索图像集Xdata,训练集用于模型训练,测试集和检索图像集用于图像测试(检索)。
步骤S2:构建高阶深度哈希网络的架构
参照图2网络结构示意图,构建基于基础特征子网络、高阶池化子网络、哈希子网络及损失子网络的高阶深度哈希网络。为探索不同编码位上高阶深度哈希码的性能,本实例将编码位分别设置为K={12,24,32,48},即分别构建结点数为12、24、32、48的哈希隐层,获得四种模式的高阶深度哈希网络模型G1、G2、G3、G4;
步骤S3:训练高阶深度哈希网络模型
(1)网络参数初始化,设置训练的学习率为(10-6~10-3),权重下降率为0.0001,设置训练批次为16,训练代数为100,图像特征前向传播:
将训练集Xtr的5000张图像输入网络,每张224×224的图像经基础特征子网络映射为13×13×256的基础特征Xm,在高阶池化子网络中,根据发明内容所述公式(1)、(2)转化为样本协方差矩阵M,基于特征值分解和矩阵幂获得1×32896的高阶特征P。
在此基础上根据公式(3)将高阶特征P嵌入可编码特征,分别获得4种比特位的特征矩阵H,其维度为K×5000,K={12,24,32,48},H=[h1,h2,...h5000],hi代表每张图片对应的K×1的哈希列向量,
(2)误差反向传播:根据公式(5),全连接层将可编码特征映射为10×1的向量xi,即对应10个类别标签的取值,经Softmax处理为10×1的预测概率向量,依据公式(6)计算交叉熵损失。本实例设置训练代数为100代,当训练编码位为48位时,根据数据记录可知,初始的top1错误率为0.65,top5错误率为0.145。
此时根据该初始误差进行反向传播,参照公式(7)、(8)、(9),实现梯度回传更新网络参数。在迭代过程中,错误率随着训练代数增加逐渐减小,当训练至20代时,top1错误率近似为0.16,top5错误率为0.03。在后续的训练中,网络参数微调,直至错误率最低,达到收敛状态,在第100代训练结束时,top1错误率达到0.11,top5错误率达到0.01,确定最优高阶深度哈希网络模型。
步骤S4:计算测试集及检索图像集的哈希码
将1000张测试集Xte和50000张检索图像集Xdata输入学习到的网络,正向传播至哈希子网络获得可编码特征hi,借助bi=sgn(hi)执行元素二值操作,将元素值以0为界映射为1或-1,确定哈希码Bte=[b1,b2,...b1000]及Bdata=[b1,b2,...b50000]。
步骤S5:计算汉明距离,排序输出检索结果
针对1000张测试集图像中的任意一幅图像,计算该图像与检索图像集中50000张图像的汉明距离,并表示为50000×1的距离向量,最终整个测试集得到50000×1000的距离矩阵。根据汉明距离判断图像相似度,对该矩阵的列向量排序,返回最小距离对应的图像索引,该索引对应的图像即测试集图像的检索结果。根据测试集样本与检索到图像的类别标签是否一致,计算图像检索的mAP。如下表1是4种编码位的高阶深度哈希码的mAP,在CIFAR-10数据集上与其他两种哈希方法比较,其结果更占优势。
表1 CIFAR-10数据集上不同方法的mAP
综上所述,本发明提出的基于高阶深度哈希学习的方法可有效提升图像检索精度,该方法构造包含图像特征及标签信息的数据集,并划分为测试集、训练集和检索图像集;利用基础特征子网络、高阶池化子网络、哈希子网络及损失子网络构建高阶深度哈希网络结构;基于损失函数训练模型,确定最优深度哈希网络;利用训练好的网络计算测试集和检索图像集的哈希码并输出检索结果。本发明的网络模型融合基础特征、高阶特征和哈希编码,深入挖掘三者的内在联系,联合优化,保证学习到的哈希码具有更丰富的语义信息,借助交叉熵损失实现网络端对端训练,提升高阶深度哈希的图像检索性能。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围内。
Claims (3)
1.一种基于高阶深度哈希学习的图像检索方法,其特征在于,该方法包括以下步骤:
步骤S1:构造包含图像数据及标签的图像数据集,并划分为训练集、测试集和检索图像集三部分,训练集用于模型训练,测试集和检索图像集用于模型测试;
步骤S2:高阶深度哈希网络由基础特征子网络、高阶池化子网络、哈希子网络及损失子网络依次衔接构成,其中:
S21:基础特征子网络使用VGG-F网络的1-14层构建;
S22:高阶池化子网络设计为协方差池化层,其将基础特征子网络输出的深度特征转化为样本协方差矩阵,然后基于特征值分解和矩阵幂获得高阶深度特征;
S23:哈希子网络由哈希隐层和激活层构建,哈希隐层将高阶特征线性映射到指定编码位的全连接层,配合激活层将数值变化至[0,1]范围;
S24:损失子网络由全连接层和Softmax交叉熵损失层组成,仅用于指导网络训练;
步骤S3:高阶深度哈希网络模型的端对端训练,包括模型特征前向传播和误差反向传播两个过程;
步骤S4:根据学习到的高阶深度哈希网络,计算测试集和检索图像集的深度高阶哈希码;
步骤S5:计算测试集与检索图像集哈希码之间的汉明距离,将最小汉明距离对应的图像作为检索结果输出,用平均精度均值指标评判该方法整体性能。
2.根据权利要求1所述的基于高阶深度哈希学习的图像检索方法,其特征在于,步骤S3中模型特征前向传播利用训练集作为网络输入,经过基础特征子网络、高阶池化子网络,获得高阶深度特征,该特征由哈希子网络映射为[0,1]范围的可编码特征,具体计算公式如下:
H=WH T[UF(Λ)UT]+σ
其中,H=[h1,h2,...hN],WH T∈R4096×K表示哈希层的权重,K代表哈希码比特位数,σ∈RK代表K维偏置向量,U和Λ分别代表前向过程产生的协方差矩阵通过特征值分解得到的正交阵和对角阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810919209.6A CN109241313B (zh) | 2018-08-14 | 2018-08-14 | 一种基于高阶深度哈希学习的图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810919209.6A CN109241313B (zh) | 2018-08-14 | 2018-08-14 | 一种基于高阶深度哈希学习的图像检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109241313A CN109241313A (zh) | 2019-01-18 |
CN109241313B true CN109241313B (zh) | 2021-11-02 |
Family
ID=65071221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810919209.6A Active CN109241313B (zh) | 2018-08-14 | 2018-08-14 | 一种基于高阶深度哈希学习的图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241313B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840290B (zh) * | 2019-01-23 | 2020-09-22 | 北京航空航天大学 | 一种基于端到端深度哈希的皮肤镜图像检索方法 |
CN111597430A (zh) * | 2019-02-21 | 2020-08-28 | 北京京东尚科信息技术有限公司 | 数据处理方法及装置、电子设备、存储介质 |
CN109977250B (zh) * | 2019-03-20 | 2023-03-28 | 重庆大学 | 融合语义信息和多级相似性的深度哈希图像检索方法 |
CN110083734B (zh) * | 2019-04-15 | 2024-05-03 | 中南大学 | 基于自编码网络和鲁棒核哈希的半监督图像检索方法 |
CN110321451B (zh) * | 2019-04-25 | 2022-08-05 | 吉林大学 | 基于分布熵增益损失函数的图像检索算法 |
CN110188227B (zh) * | 2019-05-05 | 2022-11-18 | 华南理工大学 | 一种基于深度学习与低秩矩阵优化的哈希图像检索方法 |
CN110309333B (zh) * | 2019-05-28 | 2021-09-17 | 北京工业大学 | 一种基于余弦度量的深度哈希图像检索方法 |
CN110196918B (zh) * | 2019-05-28 | 2021-05-04 | 北京理工大学 | 一种基于目标检测的无监督深度哈希方法 |
CN110704664B (zh) * | 2019-08-28 | 2022-04-05 | 宁波大学 | 一种哈希检索方法 |
CN110795591B (zh) * | 2019-10-14 | 2022-07-22 | 中山大学 | 一种基于离散梯度反向传播的图像检索方法 |
CN110909027B (zh) * | 2019-10-17 | 2022-04-01 | 宁波大学 | 一种哈希检索方法 |
CN111738058B (zh) * | 2020-05-07 | 2023-04-25 | 华南理工大学 | 基于生成对抗网络的针对生物模板保护的重构攻击方法 |
CN111626408B (zh) * | 2020-05-22 | 2021-08-06 | 深圳前海微众银行股份有限公司 | 哈希编码方法、装置、设备及可读存储介质 |
CN111695508B (zh) * | 2020-06-12 | 2022-07-19 | 桂林电子科技大学 | 一种基于多尺度的Retinex和改进VGGNet网络的手势图像检索方法 |
CN112364192B (zh) * | 2020-10-13 | 2024-10-01 | 中山大学 | 一种基于集成学习的零样本哈希检索方法 |
CN112597324A (zh) * | 2020-12-15 | 2021-04-02 | 武汉工程大学 | 一种基于相关滤波的图像哈希索引构建方法、系统及设备 |
CN112818859B (zh) * | 2021-02-02 | 2022-06-24 | 电子科技大学 | 一种基于深度哈希的多级检索行人重识别方法 |
CN112883216B (zh) * | 2021-03-01 | 2022-09-16 | 中国科学院信息工程研究所 | 基于扰动一致性自集成的半监督图像检索方法及装置 |
CN113326393B (zh) * | 2021-05-31 | 2023-04-07 | 深圳前瞻资讯股份有限公司 | 一种基于深度哈希特征和异构并行处理的图像检索方法 |
CN113591784B (zh) * | 2021-08-12 | 2024-02-09 | 上海交通大学 | 基于深度哈希的多源遥感影像检索方法 |
CN115292535B (zh) * | 2022-08-24 | 2023-07-25 | 合肥市正茂科技有限公司 | 一种基于深度极化哈希的分层车辆图像检索方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834693A (zh) * | 2015-04-21 | 2015-08-12 | 上海交通大学 | 基于深度搜索的视觉图像检索方法及系统 |
CN106055576A (zh) * | 2016-05-20 | 2016-10-26 | 大连理工大学 | 一种大规模数据背景下的快速有效的图像检索方法 |
CN106503106A (zh) * | 2016-10-17 | 2017-03-15 | 北京工业大学 | 一种基于深度学习的图像哈希索引构建方法 |
CN108304573A (zh) * | 2018-02-24 | 2018-07-20 | 江苏测联空间大数据应用研究中心有限公司 | 基于卷积神经网络和监督核哈希的目标检索方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9110923B2 (en) * | 2011-03-03 | 2015-08-18 | Google Inc. | Ranking over hashes |
-
2018
- 2018-08-14 CN CN201810919209.6A patent/CN109241313B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834693A (zh) * | 2015-04-21 | 2015-08-12 | 上海交通大学 | 基于深度搜索的视觉图像检索方法及系统 |
CN106055576A (zh) * | 2016-05-20 | 2016-10-26 | 大连理工大学 | 一种大规模数据背景下的快速有效的图像检索方法 |
CN106503106A (zh) * | 2016-10-17 | 2017-03-15 | 北京工业大学 | 一种基于深度学习的图像哈希索引构建方法 |
CN108304573A (zh) * | 2018-02-24 | 2018-07-20 | 江苏测联空间大数据应用研究中心有限公司 | 基于卷积神经网络和监督核哈希的目标检索方法 |
Non-Patent Citations (1)
Title |
---|
基于卷积神经网络和监督核哈希的图像检索方法;柯圣财等;《电子学报》;20170131;第45卷(第1期);第157-163页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109241313A (zh) | 2019-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241313B (zh) | 一种基于高阶深度哈希学习的图像检索方法 | |
CN111291836B (zh) | 一种生成学生网络模型的方法 | |
CN111612066B (zh) | 基于深度融合的卷积神经网络的遥感图像分类方法 | |
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
CN108108854B (zh) | 城市路网链路预测方法、系统及存储介质 | |
CN110941734B (zh) | 基于稀疏图结构的深度无监督图像检索方法 | |
CN114548591B (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统 | |
CN106528610A (zh) | 一种基于路径张量分解的知识图谱表示学习方法 | |
CN110083125B (zh) | 一种基于深度学习的机床热误差建模方法 | |
CN112000772B (zh) | 面向智能问答基于语义特征立方体的句子对语义匹配方法 | |
CN110490320B (zh) | 基于预测机制和遗传算法融合的深度神经网络结构优化方法 | |
CN108876044B (zh) | 一种基于知识增强神经网络的线上内容流行度预测方法 | |
CN114019370B (zh) | 基于灰度图像和轻量级cnn-svm模型的电机故障检测方法 | |
CN114817568B (zh) | 联合注意力机制与卷积神经网络的知识超图链接预测方法 | |
CN116363423A (zh) | 面向小样本学习的知识蒸馏方法、装置及存储介质 | |
CN116383401A (zh) | 一种融合文本描述与图卷积机制的知识图谱补全方法 | |
CN115796358A (zh) | 一种碳排放预测的方法及终端 | |
CN115345222A (zh) | 一种基于TimeGAN模型的故障分类方法 | |
CN111507472A (zh) | 一种基于重要性剪枝的精度估计参数搜索方法 | |
CN113836174A (zh) | 基于强化学习dqn算法的异步sql连接查询优化方法 | |
CN117876735A (zh) | 一种基于残差卷积网络的水生生物类别电子标注方法 | |
CN110309333B (zh) | 一种基于余弦度量的深度哈希图像检索方法 | |
CN112329918A (zh) | 一种基于注意力机制的对抗正则化网络嵌入方法 | |
CN116564555A (zh) | 基于深度记忆交互的药物相互作用预测模型构建方法 | |
CN115100435B (zh) | 基于有限数据多尺度目标学习的图像着色方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |