CN110222140A - 一种基于对抗学习和非对称哈希的跨模态检索方法 - Google Patents

一种基于对抗学习和非对称哈希的跨模态检索方法 Download PDF

Info

Publication number
CN110222140A
CN110222140A CN201910323769.XA CN201910323769A CN110222140A CN 110222140 A CN110222140 A CN 110222140A CN 201910323769 A CN201910323769 A CN 201910323769A CN 110222140 A CN110222140 A CN 110222140A
Authority
CN
China
Prior art keywords
data
feature
modal data
modal
hash codes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910323769.XA
Other languages
English (en)
Other versions
CN110222140B (zh
Inventor
古文
李波
古晓艳
熊智
谷井子
王伟平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Information Engineering of CAS
Original Assignee
Institute of Information Engineering of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Information Engineering of CAS filed Critical Institute of Information Engineering of CAS
Priority to CN201910323769.XA priority Critical patent/CN110222140B/zh
Publication of CN110222140A publication Critical patent/CN110222140A/zh
Application granted granted Critical
Publication of CN110222140B publication Critical patent/CN110222140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • G06F16/325Hash tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于对抗学习和非对称哈希的跨模态检索方法,其步骤包括:1)选取一跨模态数据集并将其划分为训练集和测试集;对模型进行训练,该模型包括一损失模块、特征提取单元和哈希码学习单元;哈希码学习单元包括哈希码学习网络和一个共享的多标签二值矩阵,损失模块包含特征提取单元的对抗损失,哈希码学习单元的三元边距损失、余弦量化损失和非对称哈希损失;2)利用训练的最优模型,生成跨模态数据集中每一模态数据的二值哈希码;3)对于一给定的查询数据,首先生成二值哈希码,然后计算该查询数据的二值哈希码与该跨模态数据集中与该查询数据模态不同的模态数据的二值哈希码之间计算汉明距离,得到满足条件的跨模态数据实例。

Description

一种基于对抗学习和非对称哈希的跨模态检索方法
技术领域
本发明涉及一种基于对抗学习和非对称哈希的跨模态检索方法,属于计算机软件技术领域。
背景技术
随着网络社交媒体和搜索引擎中多媒体数据的大量增加,在不同模态数据(如视频、图像、文本等)之间进行相互检索的需求日益增大。比如,用户输入文本查询时需要得到与查询文本相关的图片信息或者音视频信息。为解决在大规模跨模态数据中进行的检索问题,一种高效并且快速的方法就是哈希方法,跨模态哈希方法主要有两个阶段,一是各个模态数据特征的提取,二是各个模态数据之间相似性的挖掘。当前存在的跨模态哈希方法大致可分为两种:传统的跨模态哈希方法和基于深度学习的跨模态哈希方法。
以图像和文本的跨模态检索为例,传统的跨模态哈希方法一般使用手工构建的特征(如SIFT特征)作为图片的输入特征,然后通过关联矩阵分解等手段进行图片和文本相似度的挖掘,然后生成图像和文本的哈希码。例如,中国专利(申请号:201410532057.6,公开号:CN104317837A)通过构建基于主题的跨模态检索图模型,建立不同模态数据所包含主题之间的相关关系,同时能利用跨模态数据所具有的标签信息学习不同数据主题间的差异信息,最终进行跨模态之间相似性度量,实现跨模态检索。
近年来,随着深度学习的不断发展,基于深度神经网络的跨模态哈希方法取得了一定的突破,在跨模态检索任务中达到了很好的效果。与传统的跨模态哈希方法不同的是,基于深度学习的跨模态哈希方法利用卷积神经网络来提取图像模态数据的特征,多层感知机网络来提取文本模态的特征,然后通过一系列相似度学习方法来保证各个模态数据之间的相似度,从而生成哈希码。例如,中国专利(申请号:201711184981.X,公开号:CN107871014A)通过捕获视觉数据和自然语言之间的内在交叉对应关系,从而在端到端深度学习架构中生成图像和语句的紧凑哈希码,降低了距离计算开销,实现高效的跨模态检索。
由于传统的跨模态哈希方法使用人工构建的特征,因此对于各个模态数据的特征的提取不够充分,不能准确表达各个模态的数据。并且,通过矩阵分解等线性操作来生成哈希码,对各个模态之间的关联度的提取也不够充分,模态间数据的相似性不能完全保留,在一定程度上会对哈希码的生成造成影响,降低跨模态检索的效果。
基于深度学习的跨模态方法,因为使用深度神经网络较好的表达能力,通过卷积神经网络或者多层感知机网络提取的数据特征较传统方法有了很大提升。但是现有的基于深度学习的跨模态方法,在特征提取阶段不能充分提取各个模态数据的特征,在哈希码生成阶段生成的哈希码也不是最优的。因此,现有的基于深度学习的跨模态方法仍然需要改进,以取得更好地跨模态检索效果。
发明内容
由于现有的深度跨模态哈希方法在特征提取阶段没有关注各个模态数据本身的标签分类信息,因此提取到的数据特征不具有充分的判别性。此外,在相似度学习阶段,大多数基于深度学习的跨模态方法都是使用基于对的数据(如“图像-文本”对)来进行相似度的提取,但是一个模态的某个数据,在另一个模态中可能存在多个与之相似或者不相似的数据,通过基于对的方法提取相似度,不能保证所有相似的数据对的相似度都比不相似的数据对大。同时,因为大多数实际数据会存在多个标签信息,如何保证在学习相似度的同时保留多标签的语义信息,大多数基于深度学习的跨模态方法都没有考虑。
针对上面分析的现有跨模态哈希方法的不足,本发明提出了一种新的基于深度学习的跨模态哈希方法,该方法通过对抗学习和注意力机制进行各个模态数据特征的提取,保证了提取到的数据特征在不同模态之间的分布一致性,以及标签分类的有效判别性。同时,该方法利用基于三元组(如“图像-相似文本-不相似文本”三元组)的方法进行相似度的提取,并且使用非对称哈希方法保证学到的哈希码能够保留跨模态数据多标签的语义信息,从而提高生成的哈希码的准确度,提升跨模态检索的效果。
本发明中提出的基于对抗学习和非对称哈希的跨模态检索方法,将跨模态数据特征表示的学习和哈希码的学习整合到一个端到端的网络框架中。该框架首先通过特征提取网络提取各个模态数据的特征,包括图像特征提取网络和文本特征提取网络,为了强化数据特征的提取过程,本方法使用了由对抗学习引导的注意力模块,该模块由一组判别网络和一个多标签注意力矩阵组成,包括文本特征判别网络和图像特征判别网络,因为每个模态数据包含多个标签信息,而所有的数据共享固定的标签空间,所以多标签注意力矩阵为所有标签的实值表示组成的矩阵。该模块通过对抗学习和注意力机制的共同作用,既使得不同模态的特征达到了跨模态一致性,同时还保留了特征的多标签判别性。具体来说,在对抗学习过程中,将特征的提取阶段看成特征生成器,以图像模态为例,即图片特征提取网络提取的特征看做是由图片生成的文本特征,与文本特征提取网络提取的真实文本特征一同作为输入,经过文本特征判别网络辨别文本特征的真假,文本模态的数据也有相同的操作,特征生成器和特征判别器以对抗的方式进行训练,从而达到跨模态特征的分布一致性。经过生成对抗网络得到的数据特征,在多标签注意力矩阵的作用下,融合多标签分类语义信息,从而使得数据的特征更具有判别性,而多标签注意力矩阵,则是基于生成对抗网络生成的特征得到的。
此外,为了使生成的哈希码在保留相似度关系的同时还能够保证其具有多标签的语义信息,该方法首先使用三元边距约束和基于余弦的量化约束来保证所有相似的数据对比不相似的数据对有更高的相似性,然后提出了一个共享的多标签二值矩阵,利用生成的哈希码与此矩阵的语义相关性,设计了非对称哈希损失,通过优化该损失,可以同时进行多标签二值矩阵和数据哈希码的优化,使生成的哈希码能够保留多标签的语义信息。
按照本发明提供的方案,一种基于对抗网络和非对称哈希的跨模态检索方法的具体步骤如下:
步骤1.数据预处理。由于跨模态数据以数据对(以图像-文本模态数据为例)的形式出现,即每一个实例都包含一个图片-文本对和与其对应的标签信息,每个数据实例被分为图片和文本两个部分,所有的数据被划分为训练集和测试集两个部分。
步骤2.初始化模型框架。该框架由跨模态特征提取和哈希码学习两个部分组成。特征提取部分包含三个主要的模块,一是图片特征提取网络,由卷积神经网络搭建而成,将原始图片像素作为输入,通过多个卷积层,池化层,全连接层以及激活函数的操作,得到输入图像的向量特征;二是文本特征提取网络,通过一个三层的多层感知机实现,先获得文本数据的“词袋(Bag of Word,BoW)”表示,BoW表示,即通过预先给定的词典,将一段文本表示成词典大小(词典中词的数目)的向量,向量中的每个位置对应词典的每个词,每个元素的值表示这段文本中该词出现的次数,将文本的BoW表示作为输入,通过多个全连接层以及激活函数的操作,得到文本数据的向量特征;三是对抗学习引导的注意力模块,该模块由图像特征判别网络、文本特征判别网络和一个多标签注意力矩阵组成,用来强化跨模态特征的学习,其中两个特征判别网络都是由三层的多层感知机实现,多标签注意力矩阵为每个标签的实值表示组成的矩阵,由于图像和文本数据共享标签空间,所以多标签注意力矩阵在两个模态中共享。哈希码学习部分包括图像哈希码学习网络、文本哈希码学习网络和一个共享的多标签二值矩阵,两个网络都是由两层全连接层组成,多标签二值矩阵则是随机初始化的二值(即只有+1和-1)矩阵,哈希码学习部分为两个模态的数据学习能够保证相似关系和多标签语义信息的哈希码。损失模块包含特征提取部分的对抗损失,以及哈希码学习部分的三元边距损失、余弦量化损失和非对称哈希损失。
步骤3.模型训练。每个跨模态数据对作为输入时,图片数据和文本数据经过各自的特征提取网络,得到各个模态数据的特征,然后在对抗学习的作用下对各个模态数据的特征进行强化,强化的图像和文本特征,按照其多标签分类信息对属于同一标签的特征进行平均,生成共享的多标签注意力矩阵,多标签注意力矩阵生成公式如下:
式中M表示多标签注意力矩阵,Fx和Fy分别表示通过对抗学习得到的图像特征和文本特征,表示数据的多标签矩阵,其中li∈{0,1}C表示第i个数据对对应的标签向量,n为训练集中数据对的数目,C为标签数目,表示属于标签S的所有数据的数目组成的向量(因为标签是0、1构成的向量,按照向量相加之后得到的是属于每个标签的数据的数目组成的向量)。同时,图像特征和文本特征再分别与多标签注意力矩阵进行相似度计算并经过Sigmoid函数的操作获得权重向量(表示特征包含的每一个标签的置信度),再将多标签注意力矩阵基于权重向量进行带权求和,得到一个图像特征或者文本特征的注意力特征,该注意力特征和对应的图像或文本特征按照一定的比例融合起来,即得到每个模态数据经过注意力后的特征。将两个模态的数据特征输入到哈希网络中,通过图像和文本哈希网络,在Tanh激活函数的作用下生成各个模态实值的哈希码,然后计算三元边距损失、余弦量化损失和非对称哈希损失,计算的损失通过反向传播,利用随机梯度下降的方法更新模型的参数,多标签二值矩阵则是通过循环坐标下降(CCD)的方法更新,同时,利用对抗学习,特征判别器最大化分辨一个特征是否是真实特征的概率,并且特征生成器最小化特征判别器判别某个特征是生成特征的概率,通过此方式来优化各模态特征提取(生成)网络与判别网络的参数。当模型参数收敛并且在测试机上的检索效果达到最优时,保存此时的最优模型。
步骤4.各模态数据哈希码生成。利用步骤3中得到的最优模型,将数据库中的所有的数据作为输入,分别得到图像模态数据和文本数据的实值哈希码,此时对生成的哈希码进行取符号操作,即对实值哈希码的每一位元素进行符号函数操作后,得到图像和文本模态数据的由+1和-1组成的二值哈希码。
步骤5.检索阶段。在给定新的查询数据(图像或文本)时,通过步骤4,得到查询的二值哈希码,然后在此哈希码与数据库中的与查询不同模态的所有数据的哈希码之间计算汉明距离,按照汉明距离的升序排序,得到满足检索条件的跨模态数据实例,并输出相应的检索结果。
上述的,步骤2中,卷积神经网络由多个卷积层、最大池化层、局部响应归一化层和全连接层组成,具体构成可以参见AlexNet网络。每个卷积层通过卷积核与输入的卷积操作,提取输入的特征图,最大池化层则是对特征图进行的下采样处理,局部响应归一化层用来增强模型的泛化能力。
上述的,步骤2中,生成对抗网络中的特征判别网络(包括文本模态特征判别网络和图像模态特征判别网络)都是由3层全连接层组成。
上述的,步骤2中,哈希学习网络(包括文本模态哈希学习网络和图像模态哈希学习网络)都是由全连接层和激活函数层组成。
上述的,步骤2中,对抗损失表达为:
其中,分别表示图像模态和文本模态的对抗损失,Dx和Dy分别表示图像特征判别网络和文本特征判别网络,分别为Dx和Dy的参数,分别为第i个数据对中图片的特征和文本的特征,D(f;θ)表示判别网络输出的特征是否为真实特征的概率,n为训练集样本的数目。
上述的,步骤2中,三元边距损失表达为:
其中,分别表示图像模态和文本模态的三元边距损失,的表达式分别为:
其中表示三元组,ui是图片的实值哈希码,是与ui相似的文本的实值哈希码,是与ui不相似的文本哈希码,的定义类似,Σi,j,k表示所有满足上述条件的(i,j,k)对应的三元组的求和,cos(·)表示余弦函数。
上述的,步骤2中,余弦量化损失表达为:
其中,分别表示图像模态和文本模态的余弦量化损失,1u示维度与ui相同的值全为1的向量,1v示维度与vi相同的值全为1的向量,exp(·)表示指数函数。
上述的,步骤2中,非对称哈希损失表达为:
其中,分别表示图像、文本和标签的非对称哈希损失,Q表示多标签语义二值矩阵,Q中的每一行即一个语义标签的二值表示,qi是Q的第i行,li表示第i个实例的标签,当第i个实例属于标签空间的某个标签时,li对应的维度的值即为1,否则为0,K为哈希码的长度,Iij为指示矩阵I的元素,I∈{-1,+1}C×C,当i=j时,Iij=1,否则Iij=-1。指示矩阵I计算过程中直接生成的。
上述的,步骤3中,优化对抗损失、三元边距损失和余弦量化损失时,可以直接采用反向传播算法对模型参数进行更新,非对称哈希损失因为有离散值的存在,在优化Q时,不能直接进行反向传播,所以使用循环坐标下降(CCD)方法进行优化。在训练过程中,各个网络的参数交替的进行更新。
本发明的关键点包括:
1.本方法提出的跨模态哈希方法将跨模态特征提取、跨模态相似度学习以及哈希码生成整合到一个端到端的框架中,能够高效的生成大规模跨模态数据的哈希码,并显著地提高跨模态检索的效果。
2.本方法提出的跨模态哈希框架包含三个模块,特征提取模块用来提取图像和文本数据的特征;对抗注意力模块用来强化特征的学习,该模块使用基于对抗学习的注意力结构,保证了跨模态特征的分布一致性与判别性;哈希学习模块联合三元组学习和非对称哈希方法,保证了生成哈希码在所有相似数据对上的较高相似度,同时保留了哈希码的多标签语义信息。
3.本方法提出了四种相互作用,共同影响的损失函数,包括:对抗损失、三元边距损失、余弦量化损失和非对称哈希损失。
在模型训练的过程中,使用循环坐标下降的方法进行离散二值矩阵的学习,同时交替的更新各个网络的参数,该训练方式可以同时优化实值参数矩阵和离散二值矩阵,交替的训练,还能够增加模型的鲁棒性。
与现有技术相比,本发明的积极效果为:
1.本发明针对目前的跨模态哈希方法中,跨模态特征提取不够充分,跨模态特征表示不具有判别性,提出的对抗网络引导的注意力模块,利用对抗学习保证各个模态特征的跨模态分布一致性,同时,利用多标签分类注意力矩阵,使得提取的特征能够保证较高的判别性。
2.本发明针对目前方法中跨模态哈希码生成时,不能充分保证所有相似数据对于不相似数据对之间相似度的上下级关系,以及哈希码自身的多标签语义相似度的保留问题,提出的哈希学习网络,整合三元边距损失和非对称哈希损失等多个损失,使得学习的哈希码能够充分的保证所有相似数据对相比不相似数据对具有较高的相似度,同时保证生成的哈希码具有多标签的语义信息,显著地提升了跨模态检索的效果。
3.本发明提供的针对离散二值矩阵的循环坐标下降优化方法以及交替训练模型参数的更新策略,使得整个网络以端到端的方式训练,增强模型的鲁棒性,强化了跨模态特征的抽取,提高了生成的哈希码的准确度。
附图说明
图1是本发明方法的流程示意图;
图2是本发明方法提出的框架结构示意图;
图3是本发明方法提出的注意力模块示意图。
具体实施方式
为更好地表达本发明中提出的基于对抗学习和非对称哈希的跨模态检索方法,下面结合附图和具体实施方式,以224×224像素的图片以及其对应的一段文字描述为例,对本发明作进一步的说明。
图1为本发明的整体流程图,包括数据预处理、初始化模型框架、模型训练、各模态数据哈希码生成以及检索阶段五个部分。
步骤1.数据预处理。将跨模态数据集分为训练集和测试集两个部分,每个数据实例包含图片-文本对以及其相应的标签;
步骤2.初始化模型框架。图2是本发明中设计的模型框架,该框架包含跨模态特征提取模块、对抗网络引导的注意力模块、哈希学习模块以及损失函数模块。卷积层用“COV”表示,全连接层用“FC”表示,最大池化层用“POOLING”表示,对抗网络用“D”表示,注意力模块用“ATTN”表示。卷积层参数配置按顺序设置为:k.64×11×11,st.4×4,pad 0,LRN;k.256×5×5,st.1×1,pad 2,LRN;k.256×3×3,st.1×1,pad 1;k.256×3×3,st.1×1,pad 1;k.256×3×3,st.1×1,pad 1,其中k.表示卷积核的配置信息(个数×宽度×高度),st.表示步长,pad表示填充维度,LRN表示是否有局部响应归一化操作,FC1的特征数为8192,FC2、FC6、FC7的特征数为4096,FC3和FC8的特征数为跨模态特征的维度,在本实例中为128,哈希学习模块中,FC9和FC10的特征数为哈希码的长度,在本实例中为64。最大池化层的参数均为(3×3)×2。图3是注意力模块示意图,其中表示矩阵乘法操作,表示矩阵加法操作,σ表示Sigmoid函数,公式为:
在本实施例中,图片数据通过图片特征提取网络得到128维的特征向量,即为FC8的输出,文本数据通过文本特征提取网络得到128维的特征向量,即为FC3的输出,两个特征在分别被输入到注意力模块中,得到更具判别性的特征表示。随后,图片特征和文本特征分别进入哈希学习网络的全连接层FC9和FC10,分别输出图片和文本长度为48位的哈希码;
步骤3.模型训练。在特征提取网络得到各个模态的特征后,计算对抗网络中的对抗损失,然后反向传播更新特征学习网络与对抗网络的参数,随后,再生成图片和文本的实值哈希码之后,计算三元边距损失、余弦量化损失和非对称哈希损失,通过反向传播更新特征学习网络个哈希学习网络的参数,通过循环坐标下降更新多标签二值矩阵的值。重复参数更新过程,直到模型收敛,并且在测试集中的效果达到最优,保存此时的最优模型;
步骤4.各模态数据哈希码生成。对于数据库中的每一个数据实例(图像-文本对),将其中的图像输入到图像特征提取网络中,经过注意力模块得到具有判别性的图片特征,然后在进入哈希学习网络中,得到实值的哈希码,最后通过符号函数的操作,得到二值哈希码。文本数据也进行类似的操作,得到二值哈希码。
步骤5.检索阶段。将待查询的图片或者文本按照步骤4传入网络中,得到查询的二值哈希码,然后计算其与数据库中另一模态数据哈希码之间的汉明距离,根据汉明距离的升序排列,返回满足要求的查询结果。由于汉明距离可以由位运算中的异或操作快速得到,所以计算距离的开销非常小,能够显著地提升跨模态检索的速度。
尽管为说明目的公开了本发明的具体内容、实施算法以及附图,其目的在于帮助理解本发明的内容并据以实施,但是本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换、变化和修改都是可能的。本发明不应局限于本说明书最佳实施例和附图所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (9)

1.一种基于对抗学习和非对称哈希的跨模态检索方法,其步骤包括:
1)选取一跨模态数据集并将其划分为训练集和测试集;其中,跨模态数据集包括多个数据实例,每一数据实例包括一跨模态数据对及其对应的标签信息;
2)设置一模型,该模型包括一损失模块、特征提取单元和哈希码学习单元;哈希码学习单元包括哈希码学习网络和一个共享的多标签二值矩阵,损失模块包含特征提取单元的对抗损失,哈希码学习单元的三元边距损失、余弦量化损失和非对称哈希损失;
3)模型训练:首先对于训练集中的每个跨模态数据对,对该跨模态数据对中的模态数据进行特征提取,得到每一模态数据的特征;然后在对抗学习的作用下对各模态数据的特征进行强化,然后按照模态数据的多标签分类信息对强化后的特征进行平均,生成共享的多标签注意力矩阵;然后将强化后的特征分别与该多标签注意力矩阵进行相似度计算并经过Sigmoid函数的操作获得对应特征的权重向量,再将多标签注意力矩阵基于权重向量进行带权求和,得到注意力特征,将注意力特征和每一模态数据的特征按照设定比例融合,得到每个模态数据经过注意力后的特征;然后根据模态数据的特征生成对应模态数据的实值哈希码,然后计算三元边距损失、余弦量化损失和非对称哈希损失,并将计算的损失更新模型的参数和多标签二值矩阵;当模型参数收敛并且测试通过后,保存此时的最优模型;
4)利用得到的最优模型,提取跨模态数据集中每一模态数据的实值哈希码,然后对生成的实值哈希码进行取符号操作,得到各模态数据的二值哈希码;
5)对于一给定的查询数据,首先生成该查询数据的二值哈希码,然后计算该查询数据的二值哈希码与该跨模态数据集中与该查询数据模态不同的模态数据的二值哈希码之间计算汉明距离,得到满足条件的跨模态数据实例。
2.如权利要求1所述的方法,其特征在于,所述多标签注意力矩阵为其中,跨模态数据对包括x模态数据和y模态数据,Fx表示强化后的x模态数据的特征,Fy表示强化后的y模态数据的特征,表示模态数据的多标签矩阵,li∈{0,1}C表示第i个跨模态数据对对应的标签向量,C为标签数目,表示属于标签S的所有模态数据的数目组成的向量。
3.如权利要求1所述的方法,其特征在于,所述三元边距损失为其中,表示x模态数据的三元边距损失,表示y模态数据的三元边距损失, 三元组中,ui是x模态数据的实值哈希码,是与ui相似的y模态数据的实值哈希码,vj -是与ui不相似的实值哈希码;三元组中,vi是x模态数据的实值哈希码,是与vi相似的x模态数据的实值哈希码,是与vi不相似的实值哈希码,Σi,j,k表示所有满足上述条件的(i,j,k)对应的三元组的求和,cos(·)表示余弦函数。
4.如权利要求1所述的方法,其特征在于,所述余弦量化损失为 表示x模态数据的余弦量化损失,表示y模态数据的余弦量化损失,1u表示维度与ui相同的值全为1的向量,1v示维度与vi相同的值全为1的向量,exp(·)表示指数函数。
5.如权利要求1所述的方法,其特征在于,所述非对称哈希损失为
其中,分别表示x模态数据、y模态数据和标签的非对称哈希损失,Q表示多标签语义二值矩阵,Q中的每一行即一个语义标签的二值表示,qi是Q的第i行,li表示第i个数据实例的标签,当第i个数据实例属于一设定类别标签时,li对应的维度的值即为1,否则为0,K为哈希码的长度,Iij为指示矩阵I的元素,I∈{-1,+1}C×C,当i=j时,Iij=1,否则Iij=-1,C为标签数目。
6.如权利要求1所述的方法,其特征在于,步骤3)中,将特征提取阶段看成特征生成器,利用对抗学习,特征判别器最大化分辨一个特征是否是真实特征的概率,并且特征生成器最小化特征判别器判别一特征是生成特征的概率,优化各模态数据对应的特征提取网络参数与判别网络的参数。
7.如权利要求6所述的方法,其特征在于,对抗学习过程中的对抗损失计算方法为:
其中,表示x模态数据的对抗损失,表示y模态数据的对抗损失,Dx和Dy分别表示x模态数据特征判别网络和y模态数据特征判别网络,分别为Dx和Dy的参数,分别为第i个跨模态数据对中x模态数据的特征和y模态数据的特征,D(f;θ)表示判别网络输出的特征是否为真实特征的概率,n为训练集样本的数目。
8.如权利要求1所述的方法,其特征在于,跨模态数据对包括x模态数据和y模态数据,Fx表示强化后的x模态数据的特征,Fy表示强化后的y模态数据的特征;特征提取单元包含x模态数据特征提取网络,y模态数据提取网络和对抗学习引导的注意力模块;该注意力模块包括x模态数据特征判别网络、y模态数据特征判别网络和一个多标签注意力矩阵,用来强化跨模态特征的学习,多标签注意力矩阵为每个标签的实值表示组成的矩阵,x模态数据和y模态数据共享标签空间。
9.如权利要求1所述的方法,其特征在于,所述模态数据为视频数据、图像数据或文本数据;所述跨模态数据对为图像数据与文本数据对、视频数据与图像数据对或视频数据与文本数据对。
CN201910323769.XA 2019-04-22 2019-04-22 一种基于对抗学习和非对称哈希的跨模态检索方法 Active CN110222140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910323769.XA CN110222140B (zh) 2019-04-22 2019-04-22 一种基于对抗学习和非对称哈希的跨模态检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910323769.XA CN110222140B (zh) 2019-04-22 2019-04-22 一种基于对抗学习和非对称哈希的跨模态检索方法

Publications (2)

Publication Number Publication Date
CN110222140A true CN110222140A (zh) 2019-09-10
CN110222140B CN110222140B (zh) 2021-07-13

Family

ID=67819996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910323769.XA Active CN110222140B (zh) 2019-04-22 2019-04-22 一种基于对抗学习和非对称哈希的跨模态检索方法

Country Status (1)

Country Link
CN (1) CN110222140B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659023A (zh) * 2019-09-11 2020-01-07 腾讯科技(深圳)有限公司 一种程序化内容生成的方法以及相关装置
CN110929080A (zh) * 2019-11-26 2020-03-27 西安电子科技大学 基于注意力和生成对抗网络的光学遥感图像检索方法
CN111104555A (zh) * 2019-12-24 2020-05-05 山东建筑大学 基于注意力机制的视频哈希检索方法
CN111125457A (zh) * 2019-12-13 2020-05-08 山东浪潮人工智能研究院有限公司 一种深度跨模态哈希检索方法及装置
CN111460201A (zh) * 2020-03-04 2020-07-28 南京邮电大学 一种基于生成性对抗网络的模态一致性跨模态检索方法
CN111489802A (zh) * 2020-03-31 2020-08-04 重庆金域医学检验所有限公司 报告单编码模型生成方法、系统、设备及存储介质
CN111581332A (zh) * 2020-04-29 2020-08-25 山东大学 基于三元组深度哈希学习的相似司法案例匹配方法及系统
CN111598712A (zh) * 2020-05-18 2020-08-28 北京邮电大学 社交媒体跨模态搜索中数据特征生成器训练及搜索方法
CN111597298A (zh) * 2020-03-26 2020-08-28 浙江工业大学 一种基于深度对抗离散哈希学习的跨模态检索方法及装置
CN111639240A (zh) * 2020-05-14 2020-09-08 山东大学 一种基于注意力感知机制的跨模态哈希检索方法及系统
CN111651577A (zh) * 2020-06-01 2020-09-11 全球能源互联网研究院有限公司 跨媒体数据关联分析模型训练、数据关联分析方法及系统
CN111666939A (zh) * 2020-05-22 2020-09-15 华东师范大学 基于边距约束的任意形状的场景文本检测方法
CN111753189A (zh) * 2020-05-29 2020-10-09 中山大学 一种少样本跨模态哈希检索共同表征学习方法
CN112035728A (zh) * 2020-08-21 2020-12-04 中国电子科技集团公司电子科学研究院 一种跨模态检索方法、装置及可读存储介质
CN112488133A (zh) * 2020-12-18 2021-03-12 贵州大学 一种视频/图片-文本跨模态检索方法
CN112487217A (zh) * 2019-09-12 2021-03-12 腾讯科技(深圳)有限公司 跨模态检索方法、装置、设备及计算机可读存储介质
CN112613451A (zh) * 2020-12-29 2021-04-06 民生科技有限责任公司 一种跨模态文本图片检索模型的建模方法
CN112800292A (zh) * 2021-01-15 2021-05-14 南京邮电大学 一种基于模态特定和共享特征学习的跨模态检索方法
CN112905822A (zh) * 2021-02-02 2021-06-04 华侨大学 一种基于注意力机制的深度监督跨模态对抗学习方法
CN113095415A (zh) * 2021-04-15 2021-07-09 齐鲁工业大学 一种基于多模态注意力机制的跨模态哈希方法及系统
CN113177141A (zh) * 2021-05-24 2021-07-27 北湾科技(武汉)有限公司 基于语义嵌入软相似性的多标签视频哈希检索方法及设备
CN113204974A (zh) * 2021-05-14 2021-08-03 清华大学 对抗文本的生成方法、装置、设备及存储介质
CN113343014A (zh) * 2021-05-25 2021-09-03 武汉理工大学 基于深度异构相关学习的跨模态图像音频检索方法
WO2022155994A1 (zh) * 2021-01-21 2022-07-28 深圳大学 基于注意力的深度跨模态哈希检索方法、装置及相关设备
CN115081627A (zh) * 2022-07-27 2022-09-20 中南大学 一种基于生成式网络的跨模态数据哈希检索攻击方法
CN117079142A (zh) * 2023-10-13 2023-11-17 昆明理工大学 无人机自动巡检的反注意生成对抗道路中心线提取方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346440A (zh) * 2014-10-10 2015-02-11 浙江大学 一种基于神经网络的跨媒体哈希索引方法
CN107871014A (zh) * 2017-11-23 2018-04-03 清华大学 一种基于深度融合哈希的大数据跨模态检索方法及系统
CN107885764A (zh) * 2017-09-21 2018-04-06 银江股份有限公司 基于多任务深度学习快速哈希车辆检索方法
CN108170755A (zh) * 2017-12-22 2018-06-15 西安电子科技大学 基于三元组深度网络的跨模态哈希检索方法
CN108510559A (zh) * 2017-07-19 2018-09-07 哈尔滨工业大学深圳研究生院 一种基于有监督多视角离散化的多媒体二值编码方法
CN109299342A (zh) * 2018-11-30 2019-02-01 武汉大学 一种基于循环生成式对抗网络的跨模态检索方法
CN109299216A (zh) * 2018-10-29 2019-02-01 山东师范大学 一种融合监督信息的跨模态哈希检索方法和系统
US10243781B1 (en) * 2017-07-05 2019-03-26 Juniper Networks, Inc. Detecting link faults in network paths that include link aggregation groups (LAGs)
CN109558890A (zh) * 2018-09-30 2019-04-02 天津大学 基于自适应权重哈希循环对抗网络的零样本图像分类方法
CN109614611A (zh) * 2018-11-28 2019-04-12 中山大学 一种融合生成非对抗网络与卷积神经网络的情感分析方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346440A (zh) * 2014-10-10 2015-02-11 浙江大学 一种基于神经网络的跨媒体哈希索引方法
US10243781B1 (en) * 2017-07-05 2019-03-26 Juniper Networks, Inc. Detecting link faults in network paths that include link aggregation groups (LAGs)
CN108510559A (zh) * 2017-07-19 2018-09-07 哈尔滨工业大学深圳研究生院 一种基于有监督多视角离散化的多媒体二值编码方法
CN107885764A (zh) * 2017-09-21 2018-04-06 银江股份有限公司 基于多任务深度学习快速哈希车辆检索方法
CN107871014A (zh) * 2017-11-23 2018-04-03 清华大学 一种基于深度融合哈希的大数据跨模态检索方法及系统
CN108170755A (zh) * 2017-12-22 2018-06-15 西安电子科技大学 基于三元组深度网络的跨模态哈希检索方法
CN109558890A (zh) * 2018-09-30 2019-04-02 天津大学 基于自适应权重哈希循环对抗网络的零样本图像分类方法
CN109299216A (zh) * 2018-10-29 2019-02-01 山东师范大学 一种融合监督信息的跨模态哈希检索方法和系统
CN109614611A (zh) * 2018-11-28 2019-04-12 中山大学 一种融合生成非对抗网络与卷积神经网络的情感分析方法
CN109299342A (zh) * 2018-11-30 2019-02-01 武汉大学 一种基于循环生成式对抗网络的跨模态检索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
B.WANG等: "Adversarial Cross-Modal Retrieval", 《THE 2017 ACM》 *
张璐: "基于对抗学习的跨模态检索方法研究进展", 《现代计算机(专业版)》 *
董震等: "基于异构哈希网络的跨模态人脸检索方法", 《计算机学报》 *

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659023A (zh) * 2019-09-11 2020-01-07 腾讯科技(深圳)有限公司 一种程序化内容生成的方法以及相关装置
CN112487217A (zh) * 2019-09-12 2021-03-12 腾讯科技(深圳)有限公司 跨模态检索方法、装置、设备及计算机可读存储介质
CN110929080A (zh) * 2019-11-26 2020-03-27 西安电子科技大学 基于注意力和生成对抗网络的光学遥感图像检索方法
CN110929080B (zh) * 2019-11-26 2022-03-22 西安电子科技大学 基于注意力和生成对抗网络的光学遥感图像检索方法
CN111125457A (zh) * 2019-12-13 2020-05-08 山东浪潮人工智能研究院有限公司 一种深度跨模态哈希检索方法及装置
CN111104555A (zh) * 2019-12-24 2020-05-05 山东建筑大学 基于注意力机制的视频哈希检索方法
CN111104555B (zh) * 2019-12-24 2023-07-07 山东建筑大学 基于注意力机制的视频哈希检索方法
CN111460201A (zh) * 2020-03-04 2020-07-28 南京邮电大学 一种基于生成性对抗网络的模态一致性跨模态检索方法
CN111460201B (zh) * 2020-03-04 2022-09-23 南京邮电大学 一种基于生成性对抗网络的模态一致性跨模态检索方法
CN111597298A (zh) * 2020-03-26 2020-08-28 浙江工业大学 一种基于深度对抗离散哈希学习的跨模态检索方法及装置
CN111489802B (zh) * 2020-03-31 2023-07-25 重庆金域医学检验所有限公司 报告单编码模型生成方法、系统、设备及存储介质
CN111489802A (zh) * 2020-03-31 2020-08-04 重庆金域医学检验所有限公司 报告单编码模型生成方法、系统、设备及存储介质
CN111581332A (zh) * 2020-04-29 2020-08-25 山东大学 基于三元组深度哈希学习的相似司法案例匹配方法及系统
CN111639240A (zh) * 2020-05-14 2020-09-08 山东大学 一种基于注意力感知机制的跨模态哈希检索方法及系统
CN111598712A (zh) * 2020-05-18 2020-08-28 北京邮电大学 社交媒体跨模态搜索中数据特征生成器训练及搜索方法
CN111598712B (zh) * 2020-05-18 2023-04-18 北京邮电大学 社交媒体跨模态搜索中数据特征生成器训练及搜索方法
CN111666939A (zh) * 2020-05-22 2020-09-15 华东师范大学 基于边距约束的任意形状的场景文本检测方法
CN111666939B (zh) * 2020-05-22 2021-02-26 华东师范大学 基于边距约束的任意形状的场景文本检测方法
CN111753189A (zh) * 2020-05-29 2020-10-09 中山大学 一种少样本跨模态哈希检索共同表征学习方法
CN111651577B (zh) * 2020-06-01 2023-04-21 全球能源互联网研究院有限公司 跨媒体数据关联分析模型训练、数据关联分析方法及系统
CN111651577A (zh) * 2020-06-01 2020-09-11 全球能源互联网研究院有限公司 跨媒体数据关联分析模型训练、数据关联分析方法及系统
CN112035728A (zh) * 2020-08-21 2020-12-04 中国电子科技集团公司电子科学研究院 一种跨模态检索方法、装置及可读存储介质
CN112035728B (zh) * 2020-08-21 2023-07-25 中国电子科技集团公司电子科学研究院 一种跨模态检索方法、装置及可读存储介质
CN112488133A (zh) * 2020-12-18 2021-03-12 贵州大学 一种视频/图片-文本跨模态检索方法
CN112488133B (zh) * 2020-12-18 2022-06-14 贵州大学 一种视频/图片-文本跨模态检索方法
CN112613451A (zh) * 2020-12-29 2021-04-06 民生科技有限责任公司 一种跨模态文本图片检索模型的建模方法
CN112800292A (zh) * 2021-01-15 2021-05-14 南京邮电大学 一种基于模态特定和共享特征学习的跨模态检索方法
CN112800292B (zh) * 2021-01-15 2022-10-11 南京邮电大学 一种基于模态特定和共享特征学习的跨模态检索方法
WO2022155994A1 (zh) * 2021-01-21 2022-07-28 深圳大学 基于注意力的深度跨模态哈希检索方法、装置及相关设备
CN112905822A (zh) * 2021-02-02 2021-06-04 华侨大学 一种基于注意力机制的深度监督跨模态对抗学习方法
CN112905822B (zh) * 2021-02-02 2022-07-01 华侨大学 一种基于注意力机制的深度监督跨模态对抗学习方法
CN113095415A (zh) * 2021-04-15 2021-07-09 齐鲁工业大学 一种基于多模态注意力机制的跨模态哈希方法及系统
CN113095415B (zh) * 2021-04-15 2022-06-14 齐鲁工业大学 一种基于多模态注意力机制的跨模态哈希方法及系统
CN113204974B (zh) * 2021-05-14 2022-06-17 清华大学 对抗文本的生成方法、装置、设备及存储介质
CN113204974A (zh) * 2021-05-14 2021-08-03 清华大学 对抗文本的生成方法、装置、设备及存储介质
CN113177141A (zh) * 2021-05-24 2021-07-27 北湾科技(武汉)有限公司 基于语义嵌入软相似性的多标签视频哈希检索方法及设备
CN113343014A (zh) * 2021-05-25 2021-09-03 武汉理工大学 基于深度异构相关学习的跨模态图像音频检索方法
CN115081627A (zh) * 2022-07-27 2022-09-20 中南大学 一种基于生成式网络的跨模态数据哈希检索攻击方法
CN115081627B (zh) * 2022-07-27 2022-11-25 中南大学 一种基于生成式网络的跨模态数据哈希检索攻击方法
CN117079142A (zh) * 2023-10-13 2023-11-17 昆明理工大学 无人机自动巡检的反注意生成对抗道路中心线提取方法
CN117079142B (zh) * 2023-10-13 2024-01-26 昆明理工大学 无人机自动巡检的反注意生成对抗道路中心线提取方法

Also Published As

Publication number Publication date
CN110222140B (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN110222140A (zh) 一种基于对抗学习和非对称哈希的跨模态检索方法
CN105512289B (zh) 基于深度学习和哈希的图像检索方法
CN111753189A (zh) 一种少样本跨模态哈希检索共同表征学习方法
CN110309331A (zh) 一种基于自监督的跨模态深度哈希检索方法
CN107871014A (zh) 一种基于深度融合哈希的大数据跨模态检索方法及系统
CN107729513A (zh) 基于语义对齐的离散监督跨模态哈希检索方法
WO2022001123A1 (zh) 关键点检测方法、装置、电子设备及存储介质
CN106227851A (zh) 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法
CN110532417A (zh) 基于深度哈希的图像检索方法、装置及终端设备
CN112308115B (zh) 一种多标签图像深度学习分类方法及设备
US10949653B2 (en) Intelligent persona generation
CN110019652A (zh) 一种基于深度学习的跨模态哈希检索方法
CN108984642A (zh) 一种基于哈希编码的印花织物图像检索方法
CN111159485A (zh) 尾实体链接方法、装置、服务器及存储介质
CN107346327A (zh) 基于监督转移的零样本哈希图片检索方法
CN115374189B (zh) 基于区块链的食品安全溯源方法、装置及设备
KR20200010672A (ko) 딥러닝을 이용한 스마트 상품 검색 방법 및 시스템
CN115860152B (zh) 一种面向人物军事知识发现的跨模态联合学习方法
CN114298122A (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
CN114595306A (zh) 基于距离感知自注意力机制和多角度建模的文本相似度计算系统及方法
CN116129141A (zh) 医学数据处理方法、装置、设备、介质和计算机程序产品
CN114282059A (zh) 视频检索的方法、装置、设备及存储介质
CN114398557A (zh) 基于双画像的信息推荐方法、装置、电子设备及存储介质
CN115471885A (zh) 动作单元相关性学习方法、装置、电子设备及存储介质
CN113380360B (zh) 一种基于多模态病历图的相似病历检索方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant