CN109189973A - 基于策略梯度的大规模图像检索方法及装置 - Google Patents

基于策略梯度的大规模图像检索方法及装置 Download PDF

Info

Publication number
CN109189973A
CN109189973A CN201811004958.2A CN201811004958A CN109189973A CN 109189973 A CN109189973 A CN 109189973A CN 201811004958 A CN201811004958 A CN 201811004958A CN 109189973 A CN109189973 A CN 109189973A
Authority
CN
China
Prior art keywords
gradient
policy
scale image
network
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811004958.2A
Other languages
English (en)
Other versions
CN109189973B (zh
Inventor
鲁继文
周杰
袁鑫
任亮亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201811004958.2A priority Critical patent/CN109189973B/zh
Publication of CN109189973A publication Critical patent/CN109189973A/zh
Application granted granted Critical
Publication of CN109189973B publication Critical patent/CN109189973B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于策略梯度的大规模图像检索方法及装置,其中,方法包括:接收输入图像;将输入图像送入新的深度哈希网络中,其中,新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用卷积神经网络学习得到图像的深度表达,并通过带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率;通过端到端训练新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。该方法通过采用策略梯度的方法得到一个最优化的深度哈希框架,从而提高大规模图像数据库上的检索精度。

Description

基于策略梯度的大规模图像检索方法及装置
技术领域
本发明涉及计算机图像处理技术领域,特别涉及一种基于策略梯度的大规模图像检索方法及装置。
背景技术
随着信息技术的迅速发展,各行各业积累的数据都呈现出爆炸式增长趋势,已经进入大数据时代。大数据在很多领域都具有广阔的应用前景,已经成为国家重要的战略资源,对大数据的存储、管理和分析也已经成为学术界和工业界高度关注的热点。收集、存储、传输、处理大数据的目的是为了利用大数据,而要有效地利用大数据,机器学习技术必不可少。图像的检索问题的传统方法直接从海量图像的高维向量空间抽取特征,在速度和存储开销等方面都不能取得令人满意的效果。在实际的场景中无法应用,哈希学习进入机器学习领域以后,成为了该领域的一大研究热点。在大规模图像检索的应用场景下,哈希学习通过将数据表示成二进制码的形式,加速检索过程节约内外存开销,取得了优于传统方法的效果。人们广泛关注哈希学习方法,因此产生了该领域的一个热点问题。
大部分现有的基于学习的哈希方法使用浅层结构将数据样本进行编码,即通过学习一个单一的投影矩阵将相似的样本映射到学习的汉明空间中相近的位置。大部分这种类型的方法不能解决数据的非线性问题,限制了图像检索中的性能提高。最近,基于深度学习的哈希方法被提出来学习具有强大判别能力的图像表达以及非线性的哈希映射,在多个图像检索数据集上取得了非常好的性能。
然而,不可微的离散优化中的二值约束是一个具有挑战性问题。该问题使得深度哈希不能被以一种真正端到端的方式去学习。通过连续性放松,不可微的优化问题可以被转化为可以使用标准梯度下降方法进行解决的连续优化问题。虽然很多方法被提出来控制量化误差,但是他们依然不能在一个优化过程中精准地得到二值哈希码,进而可能导致学习到次优的哈希二值码。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于策略梯度的大规模图像检索方法,该方法可以得到最有效的梯度和最优的哈希二值码,提高大规模图像数据库上的检索精度。
本发明的另一个目的在于提出一种基于策略梯度的大规模图像检索装置。
为达到上述目的,本发明一方面实施例提出了一种基于策略梯度的大规模图像检索方法,包括以下步骤:接收输入图像;将所述输入图像送入新的深度哈希网络中,其中,所述新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用所述卷积神经网络学习得到图像的深度表达,并通过所述带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率;通过端到端训练所述新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。
本发明实施例的基于策略梯度的大规模图像检索方法,通过采用策略梯度的方法得到一个最优化的深度哈希框架,将哈希网络的不可微分的部分重新形式化为采用随机策略进行采样,以使得传统框架中的放松部分被除去,直接生成二值码并且最大化对于相似度保持的奖励的期望,以克服使得离散优化的不可微分的问题,从而得到最有效的梯度和最优的哈希二值码,提高大规模图像数据库上的检索精度。
另外,根据本发明上述实施例的基于策略梯度的大规模图像检索方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述带有非线性激活函数的全连接的策略层输出的概率分布被形式化的表示为:
其中,π(xi,θ)为策略函数,θ为网络参数,xi为输入样本,ai为二值动作。
进一步地,在本发明的一个实施例中,所述通过端到端训练所述新的深度哈希网络,进一步包括:在训练过程中,将最小化训练数据的奖励函数的期望的相反数作为目标。
进一步地,在本发明的一个实施例中,所述通过端到端训练所述新的深度哈希网络,进一步包括:通过强化算法和基线算法获取整体优化目标的梯度;
其中,使用所述强化算法来计算不可微分的奖励函数期望梯度:
其中,Ai是对第i个数据的所有动作,r(ai)为加权的奖励函数,Pθ为在当前的网络参数下,对某一状态采取动作的概率;
期待的策略梯度计算为:
其中,T为进行采样的次数,ai t为采取的动作,r(ai t)为奖励函数;
另外,采用所述基线算法进行梯度的估计,梯度估计为:
其中,r’为基线。
进一步地,在本发明的一个实施例中,在完成学习网络参数后,对训练的样本生成的二值码进行扩展,其中,将测试样本传入所述哈希网络之中,在顶层得到K维度的关于采取+1的哈希码的概率向量,且直接采用:
另外,对于已经得到的概率向量,写出随机式的二值码生成:
为达到上述目的,本发明另一方面实施例提出了一种基于策略梯度的大规模图像检索装置,包括:接收模块,用于接收输入图像;送入模块,用于将所述输入图像送入新的深度哈希网络中,其中,所述新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用所述卷积神经网络学习得到图像的深度表达,并通过所述带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率;训练模块,用于通过端到端训练所述新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。
本发明实施例的基于策略梯度的大规模图像检索装置,通过采用策略梯度的方法得到一个最优化的深度哈希框架,将哈希网络的不可微分的部分重新形式化为采用随机策略进行采样,以使得传统框架中的放松部分被除去,直接生成二值码并且最大化对于相似度保持的奖励的期望,以克服使得离散优化的不可微分的问题,从而得到最有效的梯度和最优的哈希二值码,提高大规模图像数据库上的检索精度。
另外,根据本发明上述实施例的基于策略梯度的大规模图像检索装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述带有非线性激活函数的全连接的策略层输出的概率分布被形式化的表示为:
其中,π(xi,θ)为策略函数,θ为网络参数,xi为输入样本,ai为二值动作。
进一步地,在本发明的一个实施例中,所述训练模块进一步用于在训练过程中,将最小化训练数据的奖励函数的期望的相反数作为目标。
进一步地,在本发明的一个实施例中,所述训练模块进一步用于通过强化算法和基线算法获取整体优化目标的梯度;其中,使用所述强化算法来计算不可微分的奖励函数期望梯度:
其中,Ai是对第i个数据的所有动作,r(ai)为加权的奖励函数,Pθ为在当前的网络参数下,对某一状态采取动作的概率;
期待的策略梯度计算为:
其中,T为进行采样的次数,ai t为采取的动作,r(ai t)为奖励函数;
另外,采用所述基线算法进行梯度的估计,梯度估计为:
其中,r’为基线。
进一步地,在本发明的一个实施例中,在完成学习网络参数后,对训练的样本生成的二值码进行扩展,其中,
将测试样本传入所述哈希网络之中,在顶层得到K维度的关于采取+1的哈希码的概率向量,且直接采用:
另外,对于已经得到的概率向量,写出随机式的二值码生成:
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于策略梯度的大规模图像检索方法的流程图;
图2为根据本发明一个具体实施例的基于策略梯度的大规模图像检索方法的流程图;
图3为根据本发明一个实施例的基于策略梯度的大规模图像检索装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于策略梯度的大规模图像检索方法及装置,首先将参照附图描述根据本发明实施例提出的基于策略梯度的大规模图像检索方法。
图1是本发明一个实施例的基于策略梯度的大规模图像检索方法的流程图。
如图1所示,该基于策略梯度的大规模图像检索方法包括以下步骤:
在步骤S101中,接收输入图像。
在步骤S102中,将输入图像送入新的深度哈希网络中,其中,新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用卷积神经网络学习得到图像的深度表达,并通过带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率。
可以理解的是,如图2所示,首先,将输入图像送入本发明实施例设计的新的深度哈希网络中。网络分为两个部分:第一个部分是一个卷积神经网络,本发明实施例使用该网络学习得到图像的深度表达。第二个部分是一个带有非线性激活函数的全连接的策略层,用来将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率。
进一步地,在本发明的一个实施例中,带有非线性激活函数的全连接的策略层输出的概率分布被形式化的表示为:
其中,π(xi,θ)为策略函数,θ为网络参数,xi为输入样本,ai为二值动作。
具体而言,下面将对策略的形式化定义进行进一步阐述。
本发明实施例定义为策略函数,并且由网络参数θ和输入样本xi进行参数化。该策略会产生一系列的二值动作ai,策略网络仅仅输出产生为+1的哈希码的概率,这与现有的输出每个动作概率分布的强化学习框架是不同的。进而,本发明实施例的方法中策略层输出的概率分布可以被形式化的表示为:
在产生动作以后,框架会给出一个与相似度保持相关联的奖励函数。这个奖励是由比较汉明空间的相似度保持与真实标注的相似度进行比较计算得出的。
在步骤S103中,通过端到端训练新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。
具体而言,关于训练策略,在每一次迭代中,采样一组数据进行训练,对于每个小组的m个数据样本,本发明实施例目的是利用相似性保持哈希编码bi=2*(ai-0.5)和码本{bj}{j=1:n}之间全局信息。对于两个哈希二值码,采用內积的方式来表达汉明距离。此外,本发明实施例还使用加权的奖励函数来解决数据集中正负样本不平衡的问题:
其中,
是用来补偿正负样本中不平衡性问题的相似性度量。其中调节参数β来适应不同数据集中的样本不平衡性。值得注意的是,码本C比模型参数本身更新速度要缓慢一些,这样在一定程度上保证训练的稳定性。
在本发明的一个实施例中,通过端到端训练新的深度哈希网络,进一步包括:在训练过程中,将最小化训练数据的奖励函数的期望的相反数作为目标。
可以理解的是,在训练过程中的目标就是最小化该组训练数据的奖励函数的期望的相反数。值得一提的是,本发明实施例的框架与网络进行交互的是图像数据,而图像数据并不会因为动作或者之前的状态发生转移。因此,严格的讲,这种表达并不是完整的强化学习框架。本发明实施例仅仅关注在奖励函数的引导下,提高哈希二值码的相似性保持和改善哈希学习的性能。下面将对两种优化方式进行进一步阐述。
进一步地,在本发明的一个实施例中,通过端到端训练新的深度哈希网络,进一步包括:通过强化算法和基线算法获取整体优化目标的梯度;其中,使用强化算法来计算不可微分的奖励函数期望梯度:
其中,Ai是对第i个数据的所有动作,r(ai)为加权的奖励函数,Pθ为在当前的网络参数下,对某一状态采取动作的概率;
期待的策略梯度计算为:
其中,T为进行采样的次数,ai t为采取的动作,r(ai t)为奖励函数;
另外,采用所述基线算法进行梯度的估计,梯度估计为:
其中,r’为基线。
具体而言,引入的奖励函数依然是不可微分的。因此本发明实施例采用两种优化方式来计算整体优化目标的梯度:强化算法和基线算法。
强化算法:使用REINFORCE算法来计算不可微分的奖励函数期望梯度:
其中Ai是对第i个数据的所有可能的动作,期望的梯度可以用蒙特卡洛采样得出。本发明实施例给出对一个动作ai的T样本蒙特卡洛采样为:
对于一组训练样本,期待的策略梯度可以计算为:
该梯度中的对数概率可以对伯努利分布进行二值交叉熵计算求得。
基线算法:以上的第一种算法会受到较大方差问题的影响。为了减少梯度估计的方差,采用基线算法进行梯度的估计。对于每一组训练数据,梯度估计为:
其中,基线r’应当独立于动作。增加此基线项不会影响梯度的期望,但是确实可以有效的减少估计的方差。本发明实施例选择所有奖励函数的平均值作为基线。那些保留了和码本相似度的二值码可以得到正的奖励,相反,较少的相似性信息则会得到惩罚。然后采用该梯度来更新网络参数。
进一步地,在本发明的一个实施例中,在完成学习网络参数后,对训练的样本生成的二值码进行扩展,其中,将测试样本传入哈希网络之中,在顶层得到K维度的关于采取+1的哈希码的概率向量,且直接采用
另外,对于已经得到的概率向量,写出随机式的二值码生成:
具体而言,完成了学习网络参数以后,本发明实施例不仅仅对训练的样本生成了二值码,还对如何对样本外的数据生成二值码进行了扩展,样本外扩展分为两种方式:确定式和随机式。
确定式:对于一个给定的测试样本,将其传入哈希网络之中,在顶层可以得到K维度的,关于采取+1的哈希码的概率向量。在确定式的生成方式之中,直接采用:
随机式:对于已经得到的概率向量,可以写出随机式的二值码生成:
当模型收敛以后,两种方式的样本外扩展在性能方面相差不大,但是随机式的硬件耗时会比确定式稍长,所以采用确定式的样本外数据扩展。
综上,本发明实施例提出引入基于策略梯度的算法进行哈希学习,通过最大化对于相似度保持的奖励的期望,解决离散优化不可微分的问题。
根据本发明实施例提出的基于策略梯度的大规模图像检索方法,通过采用策略梯度的方法得到一个最优化的深度哈希框架,将哈希网络的不可微分的部分重新形式化为采用随机策略进行采样,以使得传统框架中的放松部分被除去,直接生成二值码并且最大化对于相似度保持的奖励的期望,以克服使得离散优化的不可微分的问题,从而得到最有效的梯度和最优的哈希二值码,提高大规模图像数据库上的检索精度。
其次参照附图描述根据本发明实施例提出的基于策略梯度的大规模图像检索装置。
图3是本发明一个实施例的基于策略梯度的大规模图像检索装置的结构示意图。
如图3所示,该基于策略梯度的大规模图像检索装置10包括:接收模块100、送入模块200和训练模块300。
其中,接收模块100用于接收输入图像。送入模块200用于将输入图像送入新的深度哈希网络中,其中,新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用卷积神经网络学习得到图像的深度表达,并通过带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率。训练模块300用于通过端到端训练新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。本发明实施例的装置10通过采用策略梯度的方法得到一个最优化的深度哈希框架,从而提高大规模图像数据库上的检索精度。
进一步地,在本发明的一个实施例中,所述带有非线性激活函数的全连接的策略层输出的概率分布被形式化的表示为:
其中,π(xi,θ)为策略函数,θ为网络参数,xi为输入样本,ai为二值动作。
进一步地,在本发明的一个实施例中,所述训练模块300进一步用于在训练过程中,将最小化训练数据的奖励函数的期望的相反数作为目标。
进一步地,在本发明的一个实施例中,所述训练模块300进一步用于通过强化算法和基线算法获取整体优化目标的梯度;其中,使用所述强化算法来计算不可微分的奖励函数期望梯度:
其中,Ai是对第i个数据的所有动作,r(ai)为加权的奖励函数,Pθ为在当前的网络参数下,对某一状态采取动作的概率;
期待的策略梯度计算为:
其中,T为进行采样的次数,ai t为采取的动作,r(ai t)为奖励函数;
另外,采用所述基线算法进行梯度的估计,梯度估计为:
其中,r’为基线。
进一步地,在本发明的一个实施例中,在完成学习网络参数后,对训练的样本生成的二值码进行扩展,其中,将测试样本传入所述哈希网络之中,在顶层得到K维度的关于采取+1的哈希码的概率向量,且直接采用:
另外,对于已经得到的概率向量,写出随机式的二值码生成:
需要说明的是,前述对基于策略梯度的大规模图像检索方法实施例的解释说明也适用于该实施例的基于策略梯度的大规模图像检索装置,此处不再赘述。
根据本发明实施例提出的基于策略梯度的大规模图像检索装置,通过采用策略梯度的方法得到一个最优化的深度哈希框架,将哈希网络的不可微分的部分重新形式化为采用随机策略进行采样,以使得传统框架中的放松部分被除去,直接生成二值码并且最大化对于相似度保持的奖励的期望,以克服使得离散优化的不可微分的问题,从而得到最有效的梯度和最优的哈希二值码,提高大规模图像数据库上的检索精度。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于策略梯度的大规模图像检索方法,其特征在于,包括以下步骤:
接收输入图像;
将所述输入图像送入新的深度哈希网络中,其中,所述新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用所述卷积神经网络学习得到图像的深度表达,并通过所述带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率;以及
通过端到端训练所述新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。
2.根据权利要求1所述的基于策略梯度的大规模图像检索方法,其特征在于,所述带有非线性激活函数的全连接的策略层输出的概率分布被形式化的表示为:
其中,π(xi,θ)为策略函数,θ为网络参数,xi为输入样本,ai为二值动作。
3.根据权利要求1所述的基于策略梯度的大规模图像检索方法,其特征在于,所述通过端到端训练所述新的深度哈希网络,进一步包括:
在训练过程中,将最小化训练数据的奖励函数的期望的相反数作为目标。
4.根据权利要求1所述的基于策略梯度的大规模图像检索方法,其特征在于,所述通过端到端训练所述新的深度哈希网络,进一步包括:
通过强化算法和基线算法获取整体优化目标的梯度;
其中,使用所述强化算法来计算不可微分的奖励函数期望梯度:
其中,Ai是对第i个数据的所有动作,r(ai)为加权的奖励函数,Pθ为在当前的网络参数下,对某一状态采取动作的概率;
期待的策略梯度计算为:
其中,T为进行采样的次数,ai t为采取的动作,r(ai t)为奖励函数;
另外,采用所述基线算法进行梯度的估计,梯度估计为:
其中,r’为基线。
5.根据权利要求1所述的基于策略梯度的大规模图像检索方法,其特征在于,
在完成学习网络参数后,对训练的样本生成的二值码进行扩展,其中,
将测试样本传入所述哈希网络之中,在顶层得到K维度的关于采取+1的哈希码的概率向量,且直接采用:
另外,对于已经得到的概率向量,写出随机式的二值码生成:
6.一种基于策略梯度的大规模图像检索装置,其特征在于,包括:
接收模块,用于接收输入图像;
送入模块,用于将所述输入图像送入新的深度哈希网络中,其中,所述新的深度哈希网络包括卷积神经网络与带有非线性激活函数的全连接的策略层,且使用所述卷积神经网络学习得到图像的深度表达,并通过所述带有非线性激活函数的全连接的策略层将每个特征表达转化成一个K维度的向量,每一个维度代表着进行二值操作的概率;以及
训练模块,用于通过端到端训练所述新的深度哈希网络,以最大化相似度保持所得到的奖励的期望。
7.根据权利要求6所述的基于策略梯度的大规模图像检索装置,其特征在于,所述带有非线性激活函数的全连接的策略层输出的概率分布被形式化的表示为:
其中,π(xi,θ)为策略函数,θ为网络参数,xi为输入样本,ai为二值动作。
8.根据权利要求7所述的基于策略梯度的大规模图像检索装置,其特征在于,所述训练模块进一步用于在训练过程中,将最小化训练数据的奖励函数的期望的相反数作为目标。
9.根据权利要求6所述的基于策略梯度的大规模图像检索装置,其特征在于,所述训练模块进一步用于通过强化算法和基线算法获取整体优化目标的梯度;其中,使用所述强化算法来计算不可微分的奖励函数期望梯度:
其中,Ai是对第i个数据的所有动作,r(ai)为加权的奖励函数,Pθ为在当前的网络参数下,对某一状态采取动作的概率;
期待的策略梯度计算为:
其中,T为进行采样的次数,ai t为采取的动作,r(ai t)为奖励函数;
另外,采用所述基线算法进行梯度的估计,梯度估计为:
其中,r’为基线。
10.根据权利要求6所述的基于策略梯度的大规模图像检索装置,其特征在于,
在完成学习网络参数后,对训练的样本生成的二值码进行扩展,其中,
将测试样本传入所述哈希网络之中,在顶层得到K维度的关于采取+1的哈希码的概率向量,且直接采用:
另外,对于已经得到的概率向量,写出随机式的二值码生成:
CN201811004958.2A 2018-08-30 2018-08-30 基于策略梯度的大规模图像检索方法及装置 Active CN109189973B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811004958.2A CN109189973B (zh) 2018-08-30 2018-08-30 基于策略梯度的大规模图像检索方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811004958.2A CN109189973B (zh) 2018-08-30 2018-08-30 基于策略梯度的大规模图像检索方法及装置

Publications (2)

Publication Number Publication Date
CN109189973A true CN109189973A (zh) 2019-01-11
CN109189973B CN109189973B (zh) 2021-07-30

Family

ID=64916949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811004958.2A Active CN109189973B (zh) 2018-08-30 2018-08-30 基于策略梯度的大规模图像检索方法及装置

Country Status (1)

Country Link
CN (1) CN109189973B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020224118A1 (zh) * 2019-05-05 2020-11-12 平安科技(深圳)有限公司 基于图片转换的病灶判断方法、装置、计算机设备
CN112650877A (zh) * 2021-01-20 2021-04-13 北京工业大学 一种基于改进的深度残差卷积神经网络和深度哈希的高清遥感图像快速检索方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107943938A (zh) * 2017-11-23 2018-04-20 清华大学 一种基于深度乘积量化的大规模图像相似检索方法及系统
CN108021983A (zh) * 2016-10-28 2018-05-11 谷歌有限责任公司 神经架构搜索
CN108305266A (zh) * 2017-12-26 2018-07-20 浙江工业大学 基于条件随机场图结构学习的语义图像分割方法
CN108364269A (zh) * 2018-03-08 2018-08-03 深圳市唯特视科技有限公司 一种基于强化学习框架的白盒照片后期处理方法
CN108427738A (zh) * 2018-03-01 2018-08-21 中山大学 一种基于深度学习的快速图像检索方法
CN108446619A (zh) * 2018-03-12 2018-08-24 清华大学 基于深度强化学习的人脸关键点检测方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021983A (zh) * 2016-10-28 2018-05-11 谷歌有限责任公司 神经架构搜索
CN107943938A (zh) * 2017-11-23 2018-04-20 清华大学 一种基于深度乘积量化的大规模图像相似检索方法及系统
CN108305266A (zh) * 2017-12-26 2018-07-20 浙江工业大学 基于条件随机场图结构学习的语义图像分割方法
CN108427738A (zh) * 2018-03-01 2018-08-21 中山大学 一种基于深度学习的快速图像检索方法
CN108364269A (zh) * 2018-03-08 2018-08-03 深圳市唯特视科技有限公司 一种基于强化学习框架的白盒照片后期处理方法
CN108446619A (zh) * 2018-03-12 2018-08-24 清华大学 基于深度强化学习的人脸关键点检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIWEN LU等: "Deep Hashing for Scalable Image Search", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020224118A1 (zh) * 2019-05-05 2020-11-12 平安科技(深圳)有限公司 基于图片转换的病灶判断方法、装置、计算机设备
CN112650877A (zh) * 2021-01-20 2021-04-13 北京工业大学 一种基于改进的深度残差卷积神经网络和深度哈希的高清遥感图像快速检索方法

Also Published As

Publication number Publication date
CN109189973B (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
De Boer et al. A tutorial on the cross-entropy method
US8301638B2 (en) Automated feature selection based on rankboost for ranking
Lin et al. Super vision transformer
CN114186084B (zh) 在线多模态哈希检索方法、系统、存储介质及设备
CN107391577B (zh) 一种基于表示向量的作品标签推荐方法和系统
CN109818971B (zh) 一种基于高阶关联挖掘的网络数据异常检测方法与系统
CN115048539B (zh) 基于动态记忆力的社交媒体数据在线检索方法及系统
WO2023207389A1 (zh) 数据处理方法、装置、程序产品、计算机设备和介质
CN109189973A (zh) 基于策略梯度的大规模图像检索方法及装置
CN116932722A (zh) 一种基于跨模态数据融合的医学视觉问答方法及系统
CN113656700A (zh) 基于多相似度一致矩阵分解的哈希检索方法
CN114330514B (zh) 一种基于深度特征与梯度信息的数据重建方法及系统
CN115329120A (zh) 一种知识图谱嵌入注意力机制的弱标注哈希图像检索架构
Song et al. Siamese-discriminant deep reinforcement learning for solving jigsaw puzzles with large eroded gaps
Andrei et al. Overview of ImageCLEFmedical GANs 2023 Task: identifying training data “fingerprints” in synthetic biomedical images generated by GANs for medical image security
CN110717043A (zh) 基于网络表示学习训练的学术团队构建方法
CN116383422B (zh) 一种基于锚点的无监督跨模态哈希检索方法
Liang et al. Variable skipping for autoregressive range density estimation
CN117315090A (zh) 基于跨模态风格学习的图像生成方法及装置
CN114972959B (zh) 深度学习中样本生成和类内排序损失的遥感图像检索方法
Fushimi et al. Accelerating Greedy K-Medoids Clustering Algorithm with Distance by Pivot Generation
Arevalillo-Herráez et al. Improving distance based image retrieval using non-dominated sorting genetic algorithm
CN111259176B (zh) 融合有监督信息的基于矩阵分解的跨模态哈希检索方法
CN111581467A (zh) 基于子空间表示和全局消歧方法的偏标记学习方法
Zhu et al. Construct informative triplet with two-stage hard-sample generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant