CN111078911B - 一种基于自编码器的无监督哈希方法 - Google Patents

一种基于自编码器的无监督哈希方法 Download PDF

Info

Publication number
CN111078911B
CN111078911B CN201911284130.1A CN201911284130A CN111078911B CN 111078911 B CN111078911 B CN 111078911B CN 201911284130 A CN201911284130 A CN 201911284130A CN 111078911 B CN111078911 B CN 111078911B
Authority
CN
China
Prior art keywords
hash
layer
images
encoder
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911284130.1A
Other languages
English (en)
Other versions
CN111078911A (zh
Inventor
张博麟
钱江波
陈海明
严迪群
董一鸿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dragon Totem Technology Achievement Transformation Co ltd
Zhejiang Business Information Technology Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201911284130.1A priority Critical patent/CN111078911B/zh
Publication of CN111078911A publication Critical patent/CN111078911A/zh
Application granted granted Critical
Publication of CN111078911B publication Critical patent/CN111078911B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Abstract

一种基于自编码器的无监督哈希方法,包括:建立栈式去噪自编码器并使用训练集对其进行训练,栈式去噪自编码器包括依次全连接的M个编码层、哈希层和M个解码层;再使用栈式去噪自编码器中的参数建立与栈式去噪自编码器的结构相同的栈式自编码器并将训练集中的图像分批输入到其中进行训练;移除最终的栈式自编码器中的解码器,将保留的M个编码层及哈希层作为检索网络;将待检索的图像输入到该检索网络中得到哈希层的输出,并对哈希层的输出结果进行量化获得哈希码,计算该待检索图像与数据库中图像的哈希码之间的汉明距离,将数据库中与待检索图像汉明距离最小的图像作为该待检索图像的检索结果。该无监督哈希方法同时具有优越的检索和聚类效果。

Description

一种基于自编码器的无监督哈希方法
技术领域
本发明涉及一种基于自编码器的无监督哈希方法。
背景技术
哈希是一种利用映射函数将高维特征向量转换为二进制码的方法,在快速检索数据方面取得了显著的成功。近年来,卷积神经网络(CNN)的快速发展推动了近似最近邻检索的发展。特别是,与有监督哈希方法相比,由于无监督散列方法不需要标记的训练数据,所以它已经得到越来越多的关注。受限玻尔兹曼机首先被用来在无监督哈希方法中编码哈希码。然而,由于过于复杂和需要预训练使得RBM基本上难以实施。近年来,随着深层神经网络的发展,尤其是生成对抗网络的发展,许多研究在哈希学习中取得了显著的成绩。
然而,这些方法中的大多数只能将哈希学习用于单一的数据检索任务,有申请号为CN201410305838.1(授权公告号为CN104021234B)的中国发明专利公开了一种基于自适应位分配哈希算法的大规模图像库检索方法,包括:从待检索图像库中选取部分图像作为训练集,提取训练集的GIST特征;利用PCA对训练集的特征数据进行投影,再对训练数据计算每一维的离散度;根据不同维的离散度,自适应地分配不同的位数来编码数据;根据每一维的编码长度和阈值编码每一维,得子编码,拼接成对数据的完整编码;对查询图像和待检索图像库中特征数据的处理与训练过程对应,分别计算待检索图像和查询图像特征的哈希编码;计算两者之间的汉明距离,由此快速检索相似图像。该发明具有很好的普适性,能很好地保持原始特征数据的近邻结构,利用哈希方法对数据进行编码,既减少了数据的存储空间又提高了查询的检索效率。但由于该检索方法中是自适应地分配不同的位数来编码数据,因此该方法并不是无监督学习方法,编码结果受影响较大,因此需要进一步改进。
发明内容
本发明所要解决的技术问题是针对现有技术的现状,提供一种同时具有良好的检索效果和聚类效果的基于自编码器的无监督哈希方法。
本发明解决上述技术问题所采用的技术方案为:一种基于自编码器的无监督哈希方法,用于在数据库存储的图像中检索出与待检索图像最相似的图像,其特征在于:包括以下步骤:
步骤1、在数据库存储的图像中选取部分图像组成训练集;
步骤2、建立栈式去噪自编码器,并初始化栈式去噪自编码器中的参数;其中建立的栈式去噪自编码器包括依次全连接的M个编码层、带有n个神经元的哈希层和M个解码层;M个编码层和哈希层共同组成编码器,M个解码层组成解码器;M为通过实验确定的最优正整数,n为预设的正整数;
步骤3、将训练集中的所有图像依次输入到步骤2中建立的栈式去噪自编码器中进行预训练,得到预训练之后的栈式去噪自编码器;
步骤4、建立与步骤2结构相同的栈式自编码器,将步骤3中预训练之后得到的栈式去噪自编码器中的参数作为栈式自编码器中的初始参数;
步骤5、将训练集中的所有图像分批输入到栈式自编码器中进行训练,最终得到训练完成的栈式自编码器;具体包括以下步骤:
步骤5-1、将第一批次的所有图像依次经过M个编码层和哈希层后得到哈希层的输出数据
Figure BDA0002317543610000021
计算公式为:
Figure BDA0002317543610000022
其中,tanh(.)为双曲正切函数,
Figure BDA0002317543610000023
z为实数;WH为最后一个编码层与哈希层之间预设的权值,WH为n*d的矩阵;ai M为第M个编码层的输出数据,ai M为d*1的矩阵,d为第M个编码层中的神经元数目,i=1,2,3...m;m为每一批次的所有图像数量;bH为最后一个编码层与哈希层之间预设的偏置,bH为n*1的矩阵;将
Figure BDA0002317543610000024
计算得到的矩阵中的每个元素作为z值分别代入tanh(.)函数进行计算;
步骤5-2、将哈希层的输出数据
Figure BDA0002317543610000025
作为第一个解码器的输入,依次经过M个解码层,最终得到第M个解码层的输出数据,该输出数据为第i幅图像xi重构后的数据;
步骤5-3、使用聚类方法计算步骤5-1中得到的哈希层输出数据
Figure BDA0002317543610000026
的初始类簇中心,得到C个初始类簇中心,记为μj,j=1,2,3...C,C为正整数;
步骤5-4、根据步骤5-3中的C个初始类簇中心计算聚类损失Lc,并根据该批次中的所有输入图像与重构后的图像计算重构损失Lr,以及计算后续对哈希层的输出结果进行量化过程中的量化损失Lh,最后计算总的损失函数L,计算公式为:
L=γLc+αLr+βLh
其中,γ为预设的聚类损失权重,α为预设的重构损失权重,β为预设的哈希量化损失权重;γ>0,α>0,β>0;
步骤5-6、使用总损失函数对每个编码层的权值进行更新,并使用重构损失对每个解码层的权值进行更新,得到该批次图像训练完成后参数更新的栈式自编码器;
步骤5-7、依次将下一批次的图像输入到上一批次训练完成的栈式自编码器中进行训练,直至当某一批次的图像训练完成后得到的栈式自编码器收敛,则训练完成,将此时得到的栈式自编码器作为最终的栈式自编码器;
步骤6、移除最终的栈式自编码器中的解码器,将保留的M个编码层及哈希层作为检索网络,且将步骤5最终得到的栈式自编码器中的参数作为该检索网络中的参数;
步骤7、将某幅待检索的图像输入到该检索网络中,待检索的图像依次经过M个编码层及哈希层后最终得到哈希层的输出,并对哈希层的输出结果进行量化获得哈希码,使用同样的方法计算出数据库中所有图像对应的哈希码,最后计算该待检索图像对应的哈希码与数据库中存储的图像对应的哈希码之间的汉明距离,将数据库中与待检索图像汉明距离最小的图像作为该待检索图像的检索结果。
作为改进,所述步骤3中预训练的具体过程为:
步骤3-1、将每幅图像xi分别加入噪声后重构成
Figure BDA0002317543610000034
,并将重构后的数据作为输入数据依次经过M个编码层和哈希层,最终得到哈希层的输出数据;
步骤3-2、将哈希层的输出数据作为第一个解码器的输入数据,并依次经过M个解码层解码,得到最后一个解码层解码后的数据x′i
步骤3-3、计算重构损失L1,计算公式为:
Figure BDA0002317543610000031
其中,||·||2为2范数,N为训练集中所有图像的总数量;
步骤3-4、使该重构损失L1最小化,并依次更新栈式去噪自编码器中的参数,得到预训练之后的栈式去噪自编码器。
在本方案中,所述步骤5-4中某一批次图像的聚类损失Lc、重构损失Lr和哈希量化损失Lh的具体计算公式为:
Figure BDA0002317543610000032
其中,Q为伪标签分布,用来度量哈希层输出数据
Figure BDA0002317543610000033
和聚类中心μj之间的相似性
Figure BDA0002317543610000041
P为由标签分布Q生成的目标分布,
Figure BDA0002317543610000042
KL(P||Q)为计算Q和P之间的KL散度;
Figure BDA0002317543610000043
Figure BDA0002317543610000044
为解码器的映射,该值对应为最后一个解码层的输出数据;
Figure BDA0002317543610000045
进一步的,所述步骤5中使用每一批的图像对栈式自编码器进行训练后参数更新的具体过程为:
步骤a、设定学习率λ,并根据该批次的m个图像计算出目标分布P;之后更新聚类中心、解码层权值和编码层权值,更新完成后则进入到步骤b;其中,
聚类中心μj更新的公式为:
Figure BDA0002317543610000046
Figure BDA0002317543610000047
解码层权值更新的公式为:
Figure BDA0002317543610000048
其中,Wk′为第k个解码层对应的权值矩阵,k=1,2,3…M;
编码层权值更新的公式为:
Figure BDA0002317543610000049
其中,Wt为第t个编码层对应的权值矩阵,t=1,2,3…M+1;第M+1个编码层对应为哈希层,
Figure BDA00023175436100000410
步骤b、判断所有批次的图像是否全部完成了训练,如是,则结束训练;如否,则使用下一批次的图像对栈式自编码器进行训练,转入步骤c;
步骤c、根据下一批次的图像更新目标分布P,并计算更新目标分布P后计算分配给图像xi的标签si
Figure BDA00023175436100000411
转入步骤d;
步骤d、判断目标分布更新前后两次的标签分配改变率是否小于预设的阈值Φ,如是,则结束训练,如否,则转入步骤b。
与现有技术相比,本发明的优点在于:通过将聚类融合到哈希学习中,用聚类生成的伪标签来指导网络的训练,同时将聚类和哈希任务统合到一个统一的网络中,极大提高了哈希性能,也不会影响聚类的性能。因此该无监督哈希方法具有优越的检索性能,同时也得到优秀的聚类效果。
附图说明
图1为本发明实施例中无监督哈希方法的流程图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
一种基于自编码器的无监督哈希方法,用于在数据库存储的图像中检索出与待检索图像最相似的图像,包括以下步骤:
步骤1、在数据库存储的图像中选取部分图像组成训练集;
步骤2、建立栈式去噪自编码器,并初始化栈式去噪自编码器中的参数;其中建立的栈式去噪自编码器包括依次全连接的M个编码层、带有n个神经元的哈希层和M个解码层;M个编码层和哈希层共同组成编码器,M个解码层组成解码器;M为通过实验确定的最优正整数,n为预设的正整数;本实施例中,M=4;
步骤3、将训练集中的所有图像分别输入到步骤2中建立的栈式去噪自编码器中进行预训练,得到预训练之后的栈式去噪自编码器;预训练的具体过程为:
步骤3-1、将每幅图像xi分别加入噪声后重构成
Figure BDA0002317543610000052
,并将重构后的数据作为输入数据依次经过M个编码层和哈希层,最终得到哈希层的输出数据;其中,M个编码层使用ReLUs函数作为网络的激活函数,可以引导网络进行更快的训练;
步骤3-2、将哈希层的输出数据作为第一个解码器的输入数据,并依次经过M个解码层解码,得到最后一个解码层解码后的数据x′i
步骤3-3、计算重构损失L1,计算公式为:
Figure BDA0002317543610000051
其中,||·||2为2范数,N为训练集中所有图像的总数量;
步骤3-4、使该重构损失L1最小化,并依次更新栈式去噪自编码器中的参数,得到预训练之后的栈式去噪自编码器;其中更新栈式去噪自编码器中的参数的方法采用深度学习中比较常规的方法,例如:梯度下降法;
通过在输入数据中加入噪声,使训练的自编码器有更强的鲁棒性,从而提高了模型的泛化能力,也能防止出现过拟合问题;且由于经过预训练后栈式自编码器需要对哈希层的输出数据进行聚类,因此无需在输入数据中添加噪声;
步骤4、建立与步骤2结构相同的栈式自编码器,将步骤3中预训练之后得到的栈式去噪自编码器中的参数作为栈式自编码器中的初始参数;本实施例中,该栈式自编码器与步骤1中的栈式去噪自编码器均为欠完备的自编码器,结构与使用的参数均相同,不同的是,该栈式自编码器中移除了噪声,输入数据无需加入噪声;
步骤5、将训练集中的所有图像分批输入到栈式自编码器中进行训练,最终得到训练完成的栈式自编码器;具体包括以下步骤:
步骤5-1、将第一批次的所有图像依次经过M个编码层和哈希层后得到哈希层的输出数据
Figure BDA0002317543610000061
计算公式为:
Figure BDA0002317543610000062
其中,tanh(.)为双曲正切函数,
Figure BDA0002317543610000063
z为实数;WH为最后一个编码层与哈希层之间预设的权值,WH为n*d的矩阵;ai M为第M个编码层的输出数据,ai M为d*1的矩阵,d为第M个编码层中的神经元数目,i=1,2,3...m;m为每一批次的所有图像数量;bH为最后一个编码层与哈希层之间预设的偏置,bH为n*1的矩阵;将
Figure BDA0002317543610000064
计算得到的矩阵中的每个元素作为z值分别代入tanh(z)函数进行计算;
步骤5-2、将哈希层的输出数据
Figure BDA0002317543610000065
作为第一个解码器的输入,依次经过M个解码层,最终得到第M个解码层的输出数据,该输出数据为第i幅图像xi重构后的数据;
步骤5-3、使用聚类方法计算步骤5-1中得到的哈希层输出数据
Figure BDA0002317543610000066
的初始类簇中心,得到C个初始类簇中心,记为μj,j=1,2,3...C,C为正整数;本实施例中,使用k-means聚类方法;
步骤5-4、根据步骤5-3中的C个初始类簇中心计算聚类损失Lc,并根据该批次中的所有输入图像与重构后的图像计算重构损失Lr,以及计算后续对哈希层的输出结果进行量化过程中的量化损失Lh,最后计算总的损失函数L,计算公式为:
L=γLc+αLr+βLh
其中,γ为预设的聚类损失权重,α为预设的重构损失权重,β为预设的哈希量化损失权重;γ>0,α>0,β>0;
量化损失Lh使得哈希层的每个神经元输出接近1或-1,避免当将哈希层的输出结果量化为二进制码时引入不必要的误差;
某一批次图像的聚类损失Lc、重构损失Lr和哈希量化损失Lh的具体计算公式为:
Figure BDA0002317543610000071
其中,Q为伪标签分布,用来度量哈希层输出数据
Figure BDA0002317543610000072
和聚类中心μj之间的相似性qij
Figure BDA0002317543610000073
P为由标签分布Q生成的目标分布,
Figure BDA0002317543610000074
KL(P||Q)为计算Q和P之间的KL散度;
Figure BDA0002317543610000075
Figure BDA0002317543610000076
为解码器的映射,该值对应为最后一个解码层的输出数据;
Figure BDA0002317543610000077
步骤5-6、使用总损失函数对每个编码层的权值进行更新,并使用重构损失对每个解码层的权值进行更新,得到该批次图像训练完成后参数更新的栈式自编码器;
步骤5-7、依次将下一批次的图像输入到上一批次训练完成的栈式自编码器中进行训练,直至当某一批次的图像训练完成后得到的栈式自编码器收敛,则训练完成,将此时得到的栈式自编码器作为最终的栈式自编码器;
使用每一批的图像对栈式自编码器进行训练后参数更新的具体过程为:
步骤a、设定学习率λ,并根据该批次的m个图像计算出目标分布P;之后更新聚类中心、解码层权值和编码层权值,更新完成后则进入到步骤b;其中,
聚类中心μj更新的公式为:
Figure BDA0002317543610000078
Figure BDA0002317543610000079
解码层权值更新的公式为:
Figure BDA00023175436100000710
其中,Wk′为第k个解码层对应的权值矩阵,k=1,2,3…M;
编码层权值更新的公式为:
Figure BDA0002317543610000081
其中,Wt为第t个编码层对应的权值矩阵,t=1,2,3…M+1;第M+1个编码层对应为哈希层,
Figure BDA0002317543610000082
步骤b、判断所有批次的图像是否全部完成了训练,如是,则结束训练;如否,则使用下一批次的图像对栈式自编码器进行训练,转入步骤c;其中,当所有批次的图像均完成训练后,如果目标分布更新前后两次的标签分配改变率仍大于预设的阈值时,则可根据需要重新选择训练集对该栈式自编码器进行训练;
步骤c、根据下一批次的图像更新目标分布P,并计算更新目标分布P后计算分配给图像xi的标签si
Figure BDA0002317543610000083
转入步骤d;
步骤d、判断目标分布更新前后两次的标签分配改变率是否小于预设的阈值Φ,如是,则结束训练,如否,则转入步骤b;标签分配改变率为计算目标分布更新前后的标签出现更改的图像占所有图像的比例;当目标分布更新前后两次的标签分配改变率小于预设的阈值,则认为此时的栈式自编码器收敛,从而结束训练;
步骤6、移除最终的栈式自编码器中的解码器,将保留的M个编码层及哈希层作为检索网络,且将步骤5中最终的栈式自编码器的参数作为该检索网络中的参数;
步骤7、将某幅待检索的图像输入到该检索网络中,待检索的图像依次经过M个编码层及哈希层后最终得到哈希层的输出,并对哈希层的输出结果进行量化获得哈希码,使用同样的方法计算出数据库中所有图像对应的哈希码,最后计算该待检索图像对应的哈希码与数据库中存储的图像对应的哈希码之间的汉明距离,将数据库中与待检索图像汉明距离最小的图像作为该待检索图像的检索结果。
其中,对哈希层的输出结果进行量化的计算公式为:
Figure BDA0002317543610000084
Figure BDA0002317543610000085
Figure BDA0002317543610000086
是对
Figure BDA0002317543610000087
中的每个元素分别进行计算。
在现实生活中,绝大部分数据都是无标签的,相比于有监督方式,无监督的训练方式不需要对数据进行人工标注,节省了大量的人力物力,同时,还可以充分地利用无标签数据,无监督方法比有监督方法具有更广阔的应用前景。其中,聚类是一种以无监督形式对数据进行分类的方法,本发明中将聚类融合到哈希学习中,用聚类生成的伪标签来指导网络的训练,同时将聚类和哈希任务统合到一个统一的网络中,极大提高了哈希性能,也不会影响聚类的性能。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于自编码器的无监督哈希方法,用于在数据库存储的图像中检索出与待检索图像最相似的图像,其特征在于:包括以下步骤:
步骤1、在数据库存储的图像中选取部分图像组成训练集;
步骤2、建立栈式去噪自编码器,并初始化栈式去噪自编码器中的参数;其中建立的栈式去噪自编码器包括依次全连接的M个编码层、带有n个神经元的哈希层和M个解码层;M个编码层和哈希层共同组成编码器,M个解码层组成解码器;M为通过实验确定的正整数,n为预设的正整数;
步骤3、将训练集中的所有图像依次输入到步骤2中建立的栈式去噪自编码器中进行预训练,得到预训练之后的栈式去噪自编码器;
步骤4、建立与步骤2中栈式去噪自编码器的结构相同的栈式自编码器,将步骤3中预训练之后得到的栈式去噪自编码器中的参数作为栈式自编码器中的初始参数;
步骤5、将训练集中的所有图像分批输入到栈式自编码器中进行训练,最终得到训练完成的栈式自编码器;具体包括以下步骤:
步骤5-1、将第一批次的所有图像依次经过M个编码层和哈希层后得到哈希层的输出数据
Figure FDA0002317543600000011
计算公式为:
Figure FDA0002317543600000012
其中,tanh(.)为双曲正切函数,
Figure FDA0002317543600000013
z为实数;WH为最后一个编码层与哈希层之间预设的权值,WH为n*d的矩阵;ai M为第M个编码层的输出数据,ai M为d*1的矩阵,d为第M个编码层中的神经元数目,i=1,2,3...m;m为每一批次的所有图像数量;bH为最后一个编码层与哈希层之间预设的偏置,bH为n*1的矩阵;将
Figure FDA0002317543600000014
计算得到的矩阵中的每个元素作为z值分别代入tanh(z)函数中进行计算;
步骤5-2、将哈希层的输出数据
Figure FDA0002317543600000015
作为第一个解码器的输入,依次经过M个解码层,最终得到第M个解码层的输出数据,该输出数据为第i幅图像xi重构后的数据;
步骤5-3、使用聚类方法计算步骤5-1中得到的哈希层输出数据
Figure FDA0002317543600000016
的初始类簇中心,得到C个初始类簇中心,记为μj,j=1,2,3...C,C为正整数;
步骤5-4、根据步骤5-3中的C个初始类簇中心计算聚类损失Lc,并根据该批次中的所有输入图像与重构后的图像计算重构损失Lr,以及计算后续对哈希层的输出结果进行量化过程中的量化损失Lh,最后计算总的损失函数L,计算公式为:
L=γLc+αLr+βLh
其中,γ为预设的聚类损失权重,α为预设的重构损失权重,β为预设的哈希量化损失权重;γ>0,α>0,β>0;
步骤5-6、使用总损失函数对每个编码层的权值进行更新,并使用重构损失对每个解码层的权值进行更新,得到该批次图像训练完成后参数更新的栈式自编码器;
步骤5-7、依次将下一批次的图像输入到上一批次训练完成的栈式自编码器中进行训练,直至当某一批次的图像训练完成后得到的栈式自编码器收敛,则训练完成,将此时得到的栈式自编码器作为最终的栈式自编码器;
步骤6、移除最终的栈式自编码器中的解码器,将保留的M个编码层及哈希层作为检索网络,且将步骤5最终得到的栈式自编码器中的参数作为该检索网络中的参数;
步骤7、将某幅待检索的图像输入到该检索网络中,待检索的图像依次经过M个编码层及哈希层后最终得到哈希层的输出,并对哈希层的输出结果进行量化获得哈希码,使用同样的方法计算出数据库中所有图像对应的哈希码,最后计算该待检索图像对应的哈希码与数据库中存储的图像对应的哈希码之间的汉明距离,将数据库中与待检索图像汉明距离最小的图像作为该待检索图像的检索结果。
2.根据权利要求1所述的基于自编码器的无监督哈希方法,其特征在于:所述步骤3中预训练的具体过程为:
步骤3-1、将每幅图像xi分别加入噪声后重构成x~i,并将重构后的数据作为输入数据依次经过M个编码层和哈希层,最终得到哈希层的输出数据;
步骤3-2、将哈希层的输出数据作为第一个解码器的输入数据,并依次经过M个解码层解码,得到最后一个解码层解码后的数据x′i
步骤3-3、计算重构损失L1,计算公式为:
Figure FDA0002317543600000021
其中,||.||2为2范数,N为训练集中所有图像的总数量;
步骤3-4、使该重构损失L1最小化,并依次更新栈式去噪自编码器中的参数,得到预训练之后的栈式去噪自编码器。
3.根据权利要求1所述的基于自编码器的无监督哈希方法,其特征在于:所述步骤5-4中某一批次图像的聚类损失Lc、重构损失Lr和哈希量化损失Lh的具体计算公式为:
Figure FDA0002317543600000031
其中,Q为伪标签分布,用来度量哈希层输出数据
Figure FDA0002317543600000032
和聚类中心μj之间的相似性qij
Figure FDA0002317543600000033
P为由标签分布Q生成的目标分布,
Figure FDA0002317543600000034
KL(P||Q)为计算Q和P之间的KL散度;
Figure FDA0002317543600000035
Figure FDA0002317543600000036
为解码器的映射,该值对应为最后一个解码层的输出数据;
Figure FDA0002317543600000037
4.根据权利要求1所述的基于自编码器的无监督哈希方法,其特征在于:所述步骤5中使用每一批的图像对栈式自编码器进行训练后参数更新的具体过程为:
步骤a、设定学习率λ,并根据该批次的m个图像计算出目标分布P;之后更新聚类中心、解码层权值和编码层权值,更新完成后则进入到步骤b;其中,
聚类中心μj更新的公式为:
Figure FDA0002317543600000038
Figure FDA0002317543600000039
解码层权值更新的公式为:
Figure FDA00023175436000000310
其中,W′k为第k个解码层对应的权值矩阵,k=1,2,3…M;
编码层权值更新的公式为:
Figure FDA00023175436000000311
其中,Wt为第t个编码层对应的权值矩阵,t=1,2,3…M+1;第M+1个编码层对应为哈希层,
Figure FDA0002317543600000041
步骤b、判断所有批次的图像是否全部完成了训练,如是,则结束训练;如否,则使用下一批次的图像对栈式自编码器进行训练,转入步骤c;
步骤c、根据下一批次的图像更新目标分布P,并计算更新目标分布P后计算分配给图像xi的标签si
Figure FDA0002317543600000042
转入步骤d;
步骤d、判断目标分布更新前后两次的标签分配改变率是否小于预设的阈值Φ,如是,则结束训练,如否,则转入步骤b。
CN201911284130.1A 2019-12-13 2019-12-13 一种基于自编码器的无监督哈希方法 Active CN111078911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911284130.1A CN111078911B (zh) 2019-12-13 2019-12-13 一种基于自编码器的无监督哈希方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911284130.1A CN111078911B (zh) 2019-12-13 2019-12-13 一种基于自编码器的无监督哈希方法

Publications (2)

Publication Number Publication Date
CN111078911A CN111078911A (zh) 2020-04-28
CN111078911B true CN111078911B (zh) 2022-03-22

Family

ID=70314493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911284130.1A Active CN111078911B (zh) 2019-12-13 2019-12-13 一种基于自编码器的无监督哈希方法

Country Status (1)

Country Link
CN (1) CN111078911B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112199533B (zh) * 2020-10-15 2024-02-06 华中科技大学 一种基于节点表征的无监督深度哈希模型训练方法及图像检索方法
CN112507732A (zh) * 2020-11-05 2021-03-16 昆明理工大学 融入双语词典的无监督汉-越神经机器翻译方法
CN113242207B (zh) * 2021-04-02 2022-06-17 河海大学 一种迭代聚类的网络流量异常检测方法
CN113449849B (zh) * 2021-06-29 2022-05-27 桂林电子科技大学 基于自编码器的学习型文本哈希方法
CN114003635B (zh) * 2021-09-27 2023-01-31 中国科学院自动化研究所 一种推荐信息获取方法、装置、设备及产品
CN113935329B (zh) * 2021-10-13 2022-12-13 昆明理工大学 基于自适应特征识别与去噪的非对称文本匹配方法
CN115482418A (zh) * 2022-10-09 2022-12-16 宁波大学 基于伪负标签的半监督模型训练方法、系统及应用
CN115473610B (zh) * 2022-11-11 2023-03-24 蓝象智联(杭州)科技有限公司 一种用于安全多方计算的数据编解码方法及求交方法
CN117056734B (zh) * 2023-10-12 2024-02-06 山东能源数智云科技有限公司 基于数据驱动的设备故障诊断模型的构建方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491430A (zh) * 2018-02-09 2018-09-04 北京邮电大学 一种基于对特征方向进行聚类的无监督哈希检索方法
CN109829549A (zh) * 2019-01-30 2019-05-31 宁波大学 基于演化树的哈希学习方法及其无监督的在线哈希学习方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491430A (zh) * 2018-02-09 2018-09-04 北京邮电大学 一种基于对特征方向进行聚类的无监督哈希检索方法
CN109829549A (zh) * 2019-01-30 2019-05-31 宁波大学 基于演化树的哈希学习方法及其无监督的在线哈希学习方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于栈式自动编码机的语音质量评价方法;杨明极等;《小型微型计算机系统》;20181015(第10期);全文 *
基于栈式自动编码的图像哈希算法;张春雨等;《电子测量技术》;20160315(第03期);全文 *

Also Published As

Publication number Publication date
CN111078911A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN111078911B (zh) 一种基于自编码器的无监督哈希方法
CN114169330B (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
Yu et al. Learning image representations from the pixel level via hierarchical sparse coding
CN111667884A (zh) 基于注意力机制使用蛋白质一级序列预测蛋白质相互作用的卷积神经网络模型
US8781218B2 (en) Receptive field learning for pooled image features
CN107943938A (zh) 一种基于深度乘积量化的大规模图像相似检索方法及系统
CN112000770B (zh) 面向智能问答的基于语义特征图的句子对语义匹配方法
CN113705811B (zh) 模型训练方法、装置、计算机程序产品及设备
Lee et al. Deeptwist: Learning model compression via occasional weight distortion
CN111276187B (zh) 一种基于自编码器的基因表达谱特征学习方法
CN114911958B (zh) 一种基于语义偏好的快速图像检索方法
CN110941734A (zh) 基于稀疏图结构的深度无监督图像检索方法
CN112948601B (zh) 一种基于受控语义嵌入的跨模态哈希检索方法
Wei et al. Compact MQDF classifiers using sparse coding for handwritten Chinese character recognition
Shi et al. Structured Word Embedding for Low Memory Neural Network Language Model.
CN115795065A (zh) 基于带权哈希码的多媒体数据跨模态检索方法及系统
CN114118369A (zh) 一种基于群智能优化的图像分类卷积神经网络设计方法
CN110688501B (zh) 一种基于深度学习的全卷积网络的哈希检索方法
CN114332500A (zh) 图像处理模型训练方法、装置、计算机设备和存储介质
CN110704664B (zh) 一种哈希检索方法
Liu et al. Online optimized product quantization
CN112241475B (zh) 基于维度分析量化器哈希学习的数据检索方法
Tabus et al. Classification and feature gene selection using the normalized maximum likelihood model for discrete regression
CN113191445A (zh) 基于自监督对抗哈希算法的大规模图像检索方法
CN112307225A (zh) 基于改进哈希学习算法的大规模数据检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221206

Address after: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

Address before: 315211, Fenghua Road, Jiangbei District, Zhejiang, Ningbo 818

Patentee before: Ningbo University

Effective date of registration: 20221206

Address after: 310000 7th Floor, Building 6, No. 2, Xiyuan 8th Road, Xihu District, Hangzhou, Zhejiang

Patentee after: Zhejiang Business Information Technology Co.,Ltd.

Address before: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen dragon totem technology achievement transformation Co.,Ltd.