CN109948029B - 基于神经网络自适应的深度哈希图像搜索方法 - Google Patents

基于神经网络自适应的深度哈希图像搜索方法 Download PDF

Info

Publication number
CN109948029B
CN109948029B CN201910071846.7A CN201910071846A CN109948029B CN 109948029 B CN109948029 B CN 109948029B CN 201910071846 A CN201910071846 A CN 201910071846A CN 109948029 B CN109948029 B CN 109948029B
Authority
CN
China
Prior art keywords
neural network
convolutional neural
map value
network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910071846.7A
Other languages
English (en)
Other versions
CN109948029A (zh
Inventor
胡海峰
蒋林瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201910071846.7A priority Critical patent/CN109948029B/zh
Publication of CN109948029A publication Critical patent/CN109948029A/zh
Application granted granted Critical
Publication of CN109948029B publication Critical patent/CN109948029B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了强化学习及深度学习领域的一种基于神经网络自适应的深度哈希图像搜索方法,首先在数据集中对大规模图像进行分类标记,然后通过定义搜索空间,利用循环神经网络抽样得到多组卷积神经网络结构模型,随后分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练并得到mAP值,然后利用传回的mAP值,使用强化学习中的策略梯度方法同时通过反向传播来更新循环神经网络的参数,在达到目标迭代数目后,最后选取了最终的神经网络结构,本发明解决了在大规模图像检索过程中,传统深度哈希方法应用图像分类卷积神经网络而不是适应于深度哈希任务的神经网络所导致的性能欠佳的问题,有效提高了神经网络结构的设计效率,减少了计算开销。

Description

基于神经网络自适应的深度哈希图像搜索方法
技术领域
本发明涉及一种网络搜索方法,具体的说是一种基于神经网络自适应的深度哈希图像搜索方法,属于强化学习及深度学习领域。
背景技术
现代互联网面临海量的图像数据,需要对大规模的图像数据进行快速检索。传统的图像检索方法存在检索速度慢和消耗大量存储空间的问题。哈希算法实现了图像的二值化,利用哈希码来快速检索图像,在大大减少了时间和存储空间的损耗的同时,也拥有较高的精度。但传统的哈希方法通常通过手工提取图像特征,无法实现端到端的优化,在图像检索的精度方面有所欠缺。深度学习的提出解决了这一问题,它通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习采用特征学习和分层特征提取的高效算法来替代手工获取特征,同时可端到端更新自身网络参数进行优化。
随着深度学习的发展,结合了深度学习和传统哈希方法的深度哈希方法已成为被广泛使用的大规模图像检索方法,它利用设计的卷积神经网络架构提取图像特征,在保有原来检索速度快的优点的同时大幅提高了图像检索的精度。但是已存在的深度哈希算法主要使用已有的针对其他图像任务设计而成的深度学习网络架构,而没有对适应于哈希检索任务的网络架构进行探索。传统的卷积神经网络架构如AlexNet、VGGNet往往由专家设计并通过多次实验得到最优架构,这通常需要遍历所有可能的网络组成结构。在耗费大量时间和计算资源的同时,还不能根据特定任务设计特定的自适应网络结构来提升性能。
深度强化学习为寻找优秀的卷积神经网络架构提供了理论基础。传统的强化学习受限于较小的动作空间和样本空间,且一般处于离散的情境下。然而复杂的、更加接近实际情况的任务则往往有着很大的状态空间和连续的动作空间。当输入数据具有很高维度时,传统的强化学习很难处理,深度强化学习将深度学习可接受高维输入这一优点与强化学习结合起来。深度强化学习中的神经网络自适应方法避免了穷举问题,大大减少了消耗的时间和计算资源。与此同时,循环神经网络的发展解决了模型单一化的问题,它具有记忆性并且参数共享,因此能以很高的效率对序列的非线性特征进行学习。这为探索多样的卷积神经网络结构提供了可能。循环神经网络通过时间序列产生卷积神经网络模型,确保了组成卷积神经网络的组件之间的联系,而非将不同组件作为独立的个体来设计卷积神经网络。通过定义不同的搜索空间,使用神经网络自适应方法可以从多方面、多角度探索更适合深度哈希的网络架构。
综上所述,现有技术中对于如何利用神经网络自适应高效率、高精度的优点解决适应于深度哈希检索网络的搜索问题尚没有公开的披露。
发明内容
本发明的目的在于提供一种基于神经网络自适应的深度哈希图像搜索方法,主要用于解决在大规模图像检索过程中,传统深度哈希方法应用图像分类卷积神经网络而不是适应于深度哈希的神经网络的问题,以较低的计算开销训练搜索得到适应于深度哈希任务的卷积神经网络,同时性能优于传统深度哈希方法。
为了达到以上的目的,本发明提供了一种基于神经网络自适应的深度哈希图像搜索方法,其特征在于,包括以下步骤:
步骤1:在数据集中对大规模图像进行分类标记;
步骤2:定义搜索空间;
步骤3:通过循环神经网络抽样得到多组卷积神经网络结构模型;
步骤4:分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练至收敛,在验证集上得到mAP值(平均精度值);
步骤5:利用传回的mAP值(平均精度值),使用强化学习中的策略梯度方法同时通过反向传播来更新循环神经网络的参数;
步骤6:重复步骤3至5进行迭代,直到达到目标迭代轮数,选取最终神经网络,在训练集上训练至收敛。
作为本发明的进一步限定,步骤1中,数据集中的每张图片都有对应的类别标记,对不同的图片打上不同的标记。
作为本发明的进一步限定,步骤2中,定义一个搜索空间,其中包含了3 ×3卷积核、5×5卷积核、跨层连接、最大池化层、平均池化层等结构。
作为本发明的进一步限定,步骤3中,循环神经网络的每个时序都会输出一组概率向量,每个概率向量包含了在这一步操作中选取搜索空间中某种组成结构的概率,根据这一概率向量进行随机抽样得到对应卷积神经网络的组成结构进而搭建整体网络结构。
作为本发明的进一步限定,步骤4中,分别将抽样得到的卷积神经网络在训练集上训练至收敛,然后在验证集上得到mAP值,将它作为强化学习中策略梯度的奖赏值返回至循环神经网络,在之后的迭代过程中,如果遇到了相同的结构,则会利用权值共享直接在验证集上得到mAP值返回来减少训练时间。
作为本发明的进一步限定,步骤5中,利用传回的mAP值,通过策略梯度方法和反向传播来更新循环神经网络的参数,在更新完成后,在每个时序分别产生新的概率向量,根据新的概率向量随机抽样得到新的多组网络结构,其中反向传播遵循的梯度公式为:
Figure RE-GDA0002063763310000031
其中T表示控制器时序的总数,同时也表示子网络的总层数,J(θ)表示mAP 值(平均精度值)的数学期望值,
Figure RE-GDA0002063763310000032
表示梯度,θ表示控制器的参数分布,at表示t时序时的抽样结果,P(a1:T;θ)表示根据控制器的参数产生的1到T时序的概率分布,R表示返回的mAP值(平均精度值),E表示在概率分布P下的数学期望。
作为本发明的进一步限定,步骤6中,设置总迭代轮数,重复步骤3至5,直到达到目标迭代轮数后,在抽取的网络中选取一个在验证集上mAP指标最高的网络结构,最后将这一网络结构在训练集上训练至收敛。
与现有技术相比,本发明具有以下有益技术效果:
1、解决了很多传统深度哈希方法直接使用图像分类任务的神经网络结构,而非根据具体哈希任务设计自适应网络的问题;
2、解决了在设计传统神经网络结构时需要穷举所有可能的网络结构进行实验的问题,有效提高了神经网络结构的设计效率,减少了计算开销;
3、循环神经网络的应用解决了以往设计神经网络结构时模型结构单一化的问题,它通过时间序列产生卷积神经网络模型,确保了组成卷积神经网络的组件之间的联系,为探索多样的卷积神经网络结构提供了可能。
附图说明
图1为本方法的系统框架图。
图2为本方法的控制器(循环神经网络)结构图。
图3为本方法的子网络(卷积神经网络)结构图。
图4为本方法的整体流程图。
具体实施方式
以下结合说明书附图对发明做进一步的详细说明。
本方法的系统框架图如图1所示,整个方法过程可以分为通过控制器(循环神经网络)生成子网络(卷积神经网络),子网络返回mAP指标(平均精度值)更新控制器参数进行迭代优化的过程;具体框架分别如图2和图3所示,其中第一步到第三步采用如图2所示的方式,其中N表示组件的总数;第四步到第六步采用如图3所示的方式,其中N表示组件的总数;整体流程图如图4 所示。
第一步,在数据库中对大规模图像进行分类标记;
数据集中的每张图片都有对应的类别标记,对不同的图片打上不同的标记。
第二步,定义搜索空间;
人为定义搜索空间及生成的卷积神经网络层数,搜索空间可由不同尺寸的卷积核组件如3×3、5×5构成,也可以由不同尺寸的最大池化层、平均池化层组件构成,同时加入跨层连接组件,以解决网络退化和梯度消失的问题;首先考虑到优秀的卷积神经网络结构必须具有参数少、复杂度小的特点,通过借鉴 AlexNet、VGGNet、ResNet等网络的设计思想,多采用了小卷积核,如(3×3卷积核、5×5卷积核)等结构,并考虑使用最大池化、平均池化等不携带参数的减采样结构来优化卷积神经网络模型,每一个卷积神经网络组件都由一个特定的独热向量所映射得到。
第三步,通过循环神经网络抽样得到多组卷积神经网络结构模型;
需要说明的是,本发明的重点在于通过控制器(循环神经网络)来得到子网络(卷积神经网络),再通过子网络返回的mAP指标(平均精度值)来更新控制器参数以生成更优的子网络;循环神经网络的每个时序生成一个概率向量,通过这一概率向量进行随机抽样,在搜索空间中选取网络结构的组成部分,表示在该时序对应的子网络层结构组成部分;在控制器的结构选取中,考虑到子网络模型组件的前后关系,必须解决梯度消失的问题,采用了LSTM这一长短期记忆模型来生成子网络结构。
第四步,分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练至收敛,在验证集上得到mAP值(平均精度值);
定义抽样的卷积神经网络数量,将抽样得到的卷积神经网络分别在大规模图像数据集的验证集上训练至收敛,然后选取其中mAP值(平均精度值)最高的网络在训练集上训练至收敛。在测试集上得到mAP值(平均精度值)返回至控制器(循环神经网络)。在卷积神经网络的训练过程中,通过构建性能优异的深度哈希目标函数来优化性能,同时考虑到收敛速度快、精度高的要求,采用了ADAM优化器,得到对应的深度哈希指标mAP值(平均精度值)。
第五步,利用传回的mAP值(平均精度值),利用强化学习中的策略梯度方法通过反向传播来更新循环神经网络的参数;
把RNN每一层根据输出的预测值进行的抽样记为一个动作,而动作的选取是由控制器(循环神经网络)的参数分布所决定的,要生成更好的模型,就要通过抽样模型训练后返回的mAP值(平均精度值)来更新控制器的参数,那其实就是寻找控制器的最优参数使mAP值(平均精度值)的数学期望值最大;这里采用强化学习中的策略梯度方法,即通过所有可能动作的组合求梯度的期望值来更新参数;
假设共有k个模型,那么它的梯度就是
Figure RE-GDA0002063763310000061
其中T表示控制器时序的总数,同时也表示子网络的总层数,J(θ)表示mAP值 (平均精度值)的数学期望值,
Figure RE-GDA0002063763310000062
表示梯度,θ表示控制器的参数分布,at表示t 时序时的抽样结果,P(a1:T;θ)表示根据控制器的参数产生的1到T时序的概率分布, R表示返回的mAP值(平均精度值);
在实际操作过程中不可能将所有模型穷举出来,为了解决这个问题,采样 m个模型取平均值来逼近结果,这里的采样是根据P(a1:T;θ)这一概率分布进行的蒙特卡洛采样,本质的思想就是通过对一个事件的m次实验的结果取平均进行一个无偏估计,即在多次重复下,估计量的均值约等于真实值,采用估计量来近似表示事件的期望值。通过这种方法,可以得到循环网络反向传播时的近似梯度。
第六步,重复迭代至目标轮数,得到最终的卷积神经网络;
重复步骤三至五进行迭代,在每一次迭代过程后,循环神经网络抽样生成卷积神经网络的过程中,性能优异的卷积神经网络结构被抽样的概率将会提升,性能差的卷积神经网络结构被抽样的概率将会下降,所以将以更大的概率采样得到性能更优的网络结构;直到达到目标迭代轮数,选取在验证集中mAP指标 (平均精度值)最优的最终的卷积神经网络,在深度哈希损失函数的约束下在训练集上训练至收敛。至此,得到了性能优异的适应于深度哈希算法的卷积神经网络结构。
本发明最终将提出的基于神经网络自适应的深度哈希方法用于多个数据集中,以验证算法的有效性;所得的深度哈希卷积神经网络结构也可以迁移至其他图像处理任务中去(如图像分类)。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (4)

1.一种基于神经网络自适应的深度哈希图像搜索方法,其特征在于,包括以下步骤:
步骤1:在数据集中对大规模图像进行分类标记;
步骤2:定义搜索空间;
步骤3:通过循环神经网络抽样得到多组卷积神经网络结构模型,循环神经网络的每个时序都会输出一组概率向量,每个概率向量包含了在这一步操作中选取搜索空间中某种组成结构的概率,根据这一概率向量进行随机抽样得到对应卷积神经网络的组成结构进而搭建整体网络结构;
步骤4:分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练至收敛,在验证集上得到mAP值,将它作为强化学习中策略梯度的奖赏值返回至循环神经网络,在之后的迭代过程中,如果遇到了相同的结构,则会利用权值共享直接在验证集上得到mAP值返回来减少训练时间;
步骤5:利用传回的mAP值,使用强化学习中的策略梯度方法和通过反向传播来更新循环神经网络的参数,在更新完成后,在每个时序分别产生新的概率向量,根据新的概率向量随机抽样得到新的多组网络结构,其中反向传播遵循的梯度公式为:
Figure FDA0003757197730000011
其中T表示控制器时序的总数,同时也表示子网络的总层数,J(θ)表示mAP值的数学期望值,
Figure FDA0003757197730000012
表示梯度,θ表示控制器的参数分布,at表示t时序时的抽样结果,P(a1:T;θ)表示根据控制器的参数产生的1到T时序的概率分布,R表示返回的mAP值,E表示在概率分布P下的数学期望;
步骤6:重复步骤3至5进行迭代,直到达到目标迭代轮数,选取最终神经网络,在训练集上训练至收敛。
2.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤1中,数据集中的每张图片都有对应的类别标记,对不同的图片打上不同的标记。
3.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤2中,定义一个搜索空间,其中包含了3×3卷积核、5×5卷积核、跨层连接、最大池化层、平均池化层结构。
4.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤6中,设置总迭代轮数,重复步骤3至5,直到达到目标迭代轮数后,在抽取的网络中选取一个在验证集上mAP指标最高的网络结构,最后将这一网络结构在训练集上训练至收敛。
CN201910071846.7A 2019-01-25 2019-01-25 基于神经网络自适应的深度哈希图像搜索方法 Active CN109948029B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910071846.7A CN109948029B (zh) 2019-01-25 2019-01-25 基于神经网络自适应的深度哈希图像搜索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910071846.7A CN109948029B (zh) 2019-01-25 2019-01-25 基于神经网络自适应的深度哈希图像搜索方法

Publications (2)

Publication Number Publication Date
CN109948029A CN109948029A (zh) 2019-06-28
CN109948029B true CN109948029B (zh) 2022-10-14

Family

ID=67007447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910071846.7A Active CN109948029B (zh) 2019-01-25 2019-01-25 基于神经网络自适应的深度哈希图像搜索方法

Country Status (1)

Country Link
CN (1) CN109948029B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674326A (zh) * 2019-08-06 2020-01-10 厦门大学 一种基于多项式分布学习的神经网络结构检索方法
CN110705695B (zh) * 2019-10-10 2022-11-18 北京百度网讯科技有限公司 搜索模型结构的方法、装置、设备和存储介质
CN111191785B (zh) * 2019-12-20 2023-06-23 沈阳雅译网络技术有限公司 用于命名实体识别的基于拓展搜索空间的结构搜索方法
CN111275172B (zh) * 2020-01-21 2023-09-01 复旦大学 一种基于搜索空间优化的前馈神经网络结构搜索方法
CN111340221B (zh) * 2020-02-25 2023-09-12 北京百度网讯科技有限公司 神经网络结构的采样方法和装置
CN111582475A (zh) * 2020-04-28 2020-08-25 中国科学院空天信息创新研究院 一种基于自动化轻量级神经网络的数据处理方法及装置
CN111582476A (zh) * 2020-05-09 2020-08-25 北京百度网讯科技有限公司 自动量化策略搜索方法、装置、设备以及存储介质
CN111667057B (zh) * 2020-06-05 2023-10-20 北京百度网讯科技有限公司 用于搜索模型结构的方法和装置
CN112529160A (zh) * 2020-12-09 2021-03-19 南京大学 一种摄像器材记录的视频图像数据的高维模仿学习方法
CN112381215B (zh) * 2020-12-17 2023-08-11 之江实验室 一种面向自动机器学习的自适应搜索空间生成方法与装置
CN112579842A (zh) * 2020-12-18 2021-03-30 北京百度网讯科技有限公司 模型搜索方法、装置、电子设备、存储介质和程序产品
CN112633591A (zh) * 2020-12-30 2021-04-09 成都艾特能电气科技有限责任公司 一种基于深度强化学习的空间搜索方法及设备
CN112966812A (zh) * 2021-02-25 2021-06-15 中国人民解放军战略支援部队航天工程大学 一种通信信号调制识别的自动神经网络结构搜索方法
CN113031441B (zh) * 2021-03-03 2022-04-08 北京航空航天大学 基于强化学习的旋转机械诊断网络自动搜索方法
CN113627472B (zh) * 2021-07-05 2023-10-13 南京邮电大学 基于分层深度学习模型的智慧园林食叶害虫识别方法
CN113780542B (zh) * 2021-09-08 2023-09-12 北京航空航天大学杭州创新研究院 一种面向fpga的多目标网络结构的构建方法
CN114528975A (zh) * 2022-01-20 2022-05-24 珠高智能科技(深圳)有限公司 深度学习模型训练方法、系统及介质
CN116363817B (zh) * 2023-02-02 2024-01-02 淮阴工学院 一种化工厂危险区域入侵预警方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980641A (zh) * 2017-02-09 2017-07-25 上海交通大学 基于卷积神经网络的无监督哈希快速图片检索系统及方法
CN109165306A (zh) * 2018-08-09 2019-01-08 长沙理工大学 基于多任务哈希学习的图像检索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980641A (zh) * 2017-02-09 2017-07-25 上海交通大学 基于卷积神经网络的无监督哈希快速图片检索系统及方法
CN109165306A (zh) * 2018-08-09 2019-01-08 长沙理工大学 基于多任务哈希学习的图像检索方法

Also Published As

Publication number Publication date
CN109948029A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
CN109948029B (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN107330902B (zh) 基于Arnold变换的混沌遗传BP神经网络图像分割方法
CN112163601B (zh) 图像分类方法、系统、计算机设备及存储介质
CN112465120A (zh) 一种基于进化方法的快速注意力神经网络架构搜索方法
CN113449612B (zh) 一种基于子流型稀疏卷积的三维目标点云识别的方法
CN113190688A (zh) 基于逻辑推理和图卷积的复杂网络链接预测方法及系统
CN113595993B (zh) 边缘计算下模型结构优化的车载感知设备联合学习方法
CN112561028A (zh) 训练神经网络模型的方法、数据处理的方法及装置
CN110796233A (zh) 基于迁移学习的深度残差卷积神经网络的自适应压缩方法
CN112686376A (zh) 一种基于时序图神经网络的节点表示方法及增量学习方法
CN115688913A (zh) 一种云边端协同个性化联邦学习方法、系统、设备及介质
CN115344883A (zh) 一种用于处理不平衡数据的个性化联邦学习方法和装置
CN116362325A (zh) 一种基于模型压缩的电力图像识别模型轻量化应用方法
CN117034100A (zh) 基于分层池化架构自适应图分类方法、系统、设备和介质
CN116523079A (zh) 一种基于强化学习联邦学习优化方法及系统
CN114708479B (zh) 一种基于图结构和特征的自适应防御方法
CN113128432B (zh) 基于演化计算的机器视觉多任务神经网络架构搜索方法
CN113987236A (zh) 基于图卷积网络的视觉检索模型的无监督训练方法和装置
CN112232565A (zh) 基于两阶段的时间序列预测方法、预测系统、终端及介质
CN117058235A (zh) 跨多种室内场景的视觉定位方法
CN109697511B (zh) 数据推理方法、装置及计算机设备
CN113743012B (zh) 一种多用户场景下的云-边缘协同模式任务卸载优化方法
CN115131605A (zh) 一种基于自适应子图的结构感知图对比学习方法
CN113033653B (zh) 一种边-云协同的深度神经网络模型训练方法
CN113642592A (zh) 一种训练模型的训练方法、场景识别方法、计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant