CN112836068B - 一种基于带噪标签学习的无监督跨模态哈希检索方法 - Google Patents
一种基于带噪标签学习的无监督跨模态哈希检索方法 Download PDFInfo
- Publication number
- CN112836068B CN112836068B CN202110312838.4A CN202110312838A CN112836068B CN 112836068 B CN112836068 B CN 112836068B CN 202110312838 A CN202110312838 A CN 202110312838A CN 112836068 B CN112836068 B CN 112836068B
- Authority
- CN
- China
- Prior art keywords
- hash
- text
- modal
- picture
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于带噪标签学习的无监督跨模态哈希检索方法,包括多模态数据采集步骤、对偶多模态神经网络搭建步骤、基于预训练神经网络提取带噪声的相似度伪标签、基于带噪声标签学习的无监督跨模态哈希训练步骤和最终的对偶跨模态哈希检索的测试步骤。本发明可以通过设置两个对偶哈希模型组,相互喂给对方相对来说比较干净的伪标签,从而使得模型的学习尽可能少的受到噪声伪标签的误导,最终效果是模型收敛到一个更好的位置,在测试数据集上表现要比别的无监督跨模态哈希方法要好。
Description
技术领域
本发明涉及一种基于带噪标签学习的无监督跨模态哈希检索方法,用于带文字描述的图片哈希检索。
背景技术
一般的跨模态哈希检索任务是通过一组网络来实现的,包含了图片网络和文本网络。在有监督标签的情况下,每个图片/文本都被赋有多个标签,如果一个图片和一个文本的各自标签中至少有一个共同的标签,则称之为相似的标签,反之则称之为不相似。在训练这组网络的过程中,每次采样一个批次的“图片-文本”对,经过网络处理之后得到其特征表示,在基于特征表示计算相似度,并计算与真实相似度的误差函数。误差函数后向传播,使得网络权重向我们所希望的方向更新,直到网络参数大致收敛为止。
但是,在我们所面临的无监督跨模态哈希检索任务中,没有一个图片/文本是被赋予语义标签的,所以无法得到真实的相似/不相似的语义标签。当前来看,表现最好的方法是这样做的,首先用预训练的卷积网络去提取图片的特征,用词袋模型去提取文本的特征,然后对两个“图片-文本”对而言,分别计算其图片和文本的余弦相似度,并做加权平均得到其最终的相似度伪标签。然后施行和有监督方法几乎是一样的训练过程。
虽然说上述的方法取得了目前来看最好的效果,但是其缺点却也是很明显,因为训练是基于在预训练特征和词包模型上得到的余弦相似度作为伪标签,而这样的伪标签未必就是准确的,经过与真实标签的比较,噪声标签占比还相当高。
发明内容
发明目的:针对之前的方法一般通过使用预训练网络提取的图片特征和词包模型的文本特征计算余弦相似度作为伪标签直接去拟合,得到的伪标签包含非常之多噪声的问题,本发明提供一种基于带噪标签学习的无监督跨模态哈希检索方法,在本发明中,独创性地使用带噪声标签学习的思想,设置对偶的两组哈希模型,分别利用“小误差准则”去挑选每个小批次当中相对比较干净可信的相似性标签,喂给对方神经网络,去做训练,实践证明确实能有效提高模型泛化性能。现有技术中存在的问题与不足,。
技术方案:一种基于带噪标签学习的无监督跨模态哈希检索方法,利用带噪标签学习的方法,设计了对偶的多模态网络,在训练过程中两个互为对偶的网络组基于小损失准则,彼此为对方挑选损失函数值较小的样本对,这些样本对被认为是比较干净的,然后另一个网络使用这些被选出的样本对进行前向传播与反向传播,以更新自身参数。详细来说,具体包括无监督多模态数据采集步骤、对偶多模态神经网络搭建步骤、基于预训练神经网络提取带噪声的相似度伪标签、基于带噪声标签学习的无监督跨模态哈希训练步骤和最终的对偶跨模态哈希检索的测试步骤。
所述无监督多模态数据采集步骤具体为,采集图片文本数据,将数据组织成若干“(图片,文本)”对的形式,其中文本是对图片的描述;不同于有监督的跨模态哈希检索,整个数据中没有对数据示例精确的人工标注。
然后搭建对偶多模态神经网络,一共包含两组对偶的神经网络模型,每组模型包含两个网络,两个网络分别处理图片模态和文本模态;跨模态哈希检索任务,包含的是两个模态,即图片和文本,跨模态指的是使用某一个模态去查询检索语义相关的另一个模态的样本,哈希指的是把两个模态的样本全都映射在二值的汉明空间中,通过计算汉明距离来对样本进行排序,距离较小的样本即被模型认为是语义相关的。跨模态哈希检索的优点是能极大的加快检索的速度,也便于减少所需要的存储空间;不过也带来了一些挑战,比如需要将多个模态的数据映射到相同的语义空间,以及哈希码本身的离散属性导致的不可微分。
所述对偶多模态神经网络搭建步骤具体为:
步骤200,搭建图片网络一,包含卷积网络特征提取模块和哈希层;
步骤201,搭建文本网络一,包含全连接网络特征提取模块和哈希层;
步骤202,将图片网络一和文本网络一聚合成为哈希检索模型一;
步骤203,搭建图片网络二,包含卷积网络特征提取模块和哈希层;
步骤204,搭建文本网络二,包含全连接网络特征提取模块和哈希层;
步骤205,将图片网络二和文本网络二聚合成为哈希检索模型二。
在训练开始前,使用预训练的神经网络对图片模特提取特征并计算余弦相似度,对文本模特来说在词包表示的基础上计算余弦相似度,并把两者加权平均得到相似度伪标签。
所述基于预训练神经网络提取带噪声的相似度伪标签具体为:
步骤300,准备两对“(图片,文本)”对;
步骤301,准备一个预训练好的卷积神经网络;
步骤302,通过预训练的卷积神经网络对图片提取向量型特征;
步骤303,通过词包模型对文本提取向量型特征;
步骤304,计算两张图片的向量特征的余弦相似度;
步骤305,计算两段文本的向量特征的余弦相似度;
步骤306,将两个模态的余弦相似度加权平均;
步骤307,对所有的“(图片,文本)”样本对,重复300-306,计算每两对“图片-文本”对的相似度伪标签。
在训练过程中,就每个批次而言,根据带噪声学习中的小损失准则,对偶的神经网络组互相为对方挑选伪标签可信度较大的样本,并执行前向传播和后向传播进行训练。
所述基于带噪声标签学习的无监督跨模态哈希训练步骤具体为:
步骤400,从训练数据中采样一个批次的“(图片,文本)”对,以及该批次中任意两对样本对的相似度伪标签;
步骤401,运用哈希模型一对接收到的“(图片,文本)”对进行处理,得到其特征表示;
步骤402,在特征表示之上计算余弦相似度,并与伪标签计算均方误差;
步骤403,哈希模型一选择均方误差相对较小的一部分“(图片,文本)”对送给哈希模型二;
步骤404,运用哈希模型二对接收到的 “(图片,文本)”对进行处理,得到其特征表示;
步骤405,在特征表示之上计算余弦相似度,并与伪标签计算均方误差;
步骤406,哈希模型二选择均方误差相对较小的一部分“(图片,文本)”对送给哈希模型一;
步骤407,哈希模型一和哈希模型二分别利用对方选择的误差较小的模态对进行反向传播,更新自身网络参数。
步骤408,重复步骤400-407,直至达到预先设定的最大迭代轮数。
最后展示基于对偶多模态哈希网络在新数据上进行哈希检索的具体过程。
所述对偶跨模态哈希检索的测试步骤具体为(跨模态检索是指以图搜文或者以文搜图,这里用以图搜文作为例子,以文搜图类似):
步骤500,准备当前的查询图片(做检索的时候的查询图片)和所有待检索排序的文本样本;
步骤501,分别通过哈希模型一和哈希模型二计算查询图片和所有待检索文本的相似性分数并直接取平均,得到查询图片和所有待检索文本的最终相似性分数;
步骤502,根据待检索文本的相似性从高到低排序。
有益效果:与现有技术相比,本发明提供基于带噪标签学习的无监督跨模态哈希检索方法,本发明可以通过设置两个对偶哈希模型组,相互喂给对方相对来说比较干净的伪标签,从而使得模型的学习尽可能少的受到噪声伪标签的误导,最终效果是模型收敛到一个更好的位置,在测试数据集上表现要比别的无监督跨模态哈希方法要好。
附图说明
图1为本发明实施例的多模态数据采集流程图;
图2为本发明实施例的对偶多模态神经网络搭建流程图;
图3为本发明实施例的提取带噪声的相似度伪标签流程图;
图4为本发明实施例的基于带噪标签学习的无监督跨模态哈希训练流程图;
图5为本发明实施例的对偶跨模态哈希检索的测试流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
下面的实施例以社交媒体网络上图文无监督检索为具体例子进行阐述本发明方法。
如图1所示,多模态数据采集步骤依次为:确定文本标签是否为对应图片的具体描述(步骤100),然后将所有图片和每个图片对应的文本描述组织成“图片-文本”对的形式(步骤101)。
如图2所示,对偶多模态神经网络搭建步骤依次为:就哈希检索模型一而言,首先搭建图片网络(步骤200),包含一个卷积神经网络作为特征提取模块,记作h_i=H(I_i,W_cnn),其中I_i代表第i张图片,而W_cnn代表卷积神经网络的参数,h_i代表最后的特征表示输出,维度为d,而哈希层就是一个tanh函数,用来把处于实值空间的h_i压缩到[-1,1]的范围内,从而利于减少与哈希二值表示的误差,同时tanh函数又不丧失可微分性质;其次搭建哈希检索模型一里面的文本网络(步骤201),包含一个全连接网络用于特征提取,记作g_i=G(T_i,W_ffn),其中T_i代表第i张图片所对应的文本描述,W_ffn代表全连接网络的参数,而输出端结果特征表示记为g_i,维度为d,而哈希层就是一个tanh函数,用来把处于实值空间的g_i压缩到[-1,1]的范围内;然后把图片网络和文本网络聚合为哈希检索模型一(步骤202);对于对偶的哈希检索模型二,其搭建过程也是做同样的操作(步骤203,204,205)。
如图3所示,基于预训练神经网络提取带噪声的相似度伪标签步骤依次为:准备两个“(图片-文本)”对,记作[I_0,T_0]和[I_1,T_1](步骤300);再准备一个在ImageNet上预训练好的VGG网络参数(步骤301);通过VGG对图片I_0和I_1提取向量型特征并记作FI_0与FI_1(步骤302);通过词包模型确定文本T_0与T_1的向量型特征表示FT_0与FT_1(步骤303);计算两张图片向量化表示的余弦相似度sim_I=cosine(FI_0,FI_1)(步骤304);计算两段文本的向量化特征的余弦相似度sim_T=cosine(FT_0,FT_1)(步骤305);将两个模态的余弦相似度加权平均sim=lambda*sim_I+lambda*sim_T(0<lambda<1)(步骤306);对所有的样本对,重复300-306,计算每两对“图片-文本”对的相似度伪标签(步骤307)。
如图4所示,基于带噪声标签学习的无监督跨模态哈希训练步骤具体为:从训练数据中采样一个批次的“(图片,文本)”对,以及该批次中任意两对样本对的相似度伪标签(步骤400);运用哈希模型一对该批次的样本对进行处理,得到其特征表示(步骤401);在特征表示之上计算余弦相似度,并与伪标签计算均方误差(步骤402);哈希模型一选择均方误差相对较小的一部分对送给哈希模型二(步骤403);哈希模型二按照相同的方式处理特征,计算余弦相似度并选择与伪标签均方误差相对较小的一部分对送给哈希模型一(步骤404,405,406);哈希模型一和哈希模型二分别利用对方选择的误差较小的模态对进行反向传播,更新自身网络参数(步骤407)。重复步骤400-407,直至哈希模型一和哈希模型二都接近收敛(步骤408)。
如图5所示,所述对偶跨模态哈希检索的测试步骤具体为:准备当前的查询样本qI和所有待检索排序n个的样本{dT_1,dT_2,…,dT_n}(步骤500);分别通过两个对偶模型计算查询样本和所有待检索样本的相似性分数ham_list0和ham_list1,各自包含了qI与n个待检索样本的汉明距离,然后两个list直接取平均,得到查询样本和所有待检索样本的最终哈希距离{dis_0,dis_1,…,dis_n}(步骤501);根据待检索样本的哈希汉明距离从近到远排序(步骤502)。
本发明适用于没有人工标注的跨模态哈希检索任务,使用对偶的神经网络组进行训练和预测。
Claims (5)
1.一种基于带噪标签学习的无监督跨模态哈希检索方法,其特征在于,包括无监督多模态数据采集步骤、对偶多模态神经网络搭建步骤、基于预训练神经网络提取带噪声的相似度伪标签步骤、基于带噪声标签学习的无监督跨模态哈希训练步骤和最终的对偶跨模态哈希检索的测试步骤;所述无监督多模态数据采集步骤具体为,采集图片文本数据,将数据组织成若干“(图片,文本)”对的形式,其中文本是对图片的描述;对偶多模态神经网络搭建步骤中,一共包含两组对偶的神经网络模型,每组模型包含两个网络,两个网络分别处理图片模态和文本模态;基于预训练神经网络提取带噪声的相似度伪标签步骤中,使用预训练的神经网络对图片模态提取特征并计算余弦相似度,对文本模态来说在词包表示的基础上计算余弦相似度,并把两者加权平均得到相似度伪标签;基于带噪声标签学习的无监督跨模态哈希训练步骤中,就每个批次而言,根据带噪声学习中的小损失准则,对偶的神经网络组互相为对方挑选伪标签可信度较大的样本,并执行前向传播和后向传播进行训练;对偶跨模态哈希检索的测试步骤展示基于对偶多模态哈希网络在新数据上进行哈希检索的具体过程。
2.根据权利要求1所述的基于带噪标签学习的无监督跨模态哈希检索方法,其特征在于,所述对偶多模态神经网络搭建步骤具体为:
步骤200,搭建图片网络一,包含卷积网络特征提取模块和哈希层;
步骤201,搭建文本网络一,包含全连接网络特征提取模块和哈希层;
步骤202,将图片网络一和文本网络一聚合成为哈希检索模型一;
步骤203,搭建图片网络二,包含卷积网络特征提取模块和哈希层;
步骤204,搭建文本网络二,包含全连接网络特征提取模块和哈希层;
步骤205,将图片网络二和文本网络二聚合成为哈希检索模型二。
3.根据权利要求1所述的基于带噪标签学习的无监督跨模态哈希检索方法,其特征在于,所述基于预训练神经网络提取带噪声的相似度伪标签具体为:
步骤300,准备两对“(图片,文本)”对;
步骤301,准备一个预训练好的卷积神经网络;
步骤302,通过预训练的卷积神经网络对图片提取向量型特征;
步骤303,通过词包模型对文本提取向量型特征;
步骤304,计算两张图片的向量特征的余弦相似度;
步骤305,计算两段文本的向量特征的余弦相似度;
步骤306,将两个模态的余弦相似度加权平均;
步骤307,对所有的“(图片,文本)”样本对,重复300-306,计算每两对“图片-文本”对的相似度伪标签。
4.根据权利要求1所述的基于带噪标签学习的无监督跨模态哈希检索方法,其特征在于,所述基于带噪声标签学习的无监督跨模态哈希训练步骤具体为:
步骤400,从训练数据中采样一个批次的“(图片,文本)”对,以及该批次中任意两对样本对的相似度伪标签;
步骤401,运用哈希模型一对该批次的样本对进行处理,得到其特征表示;
步骤402,在特征表示之上计算余弦相似度,并与伪标签计算均方误差;
步骤403,哈希模型一选择均方误差相对较小的一部分“(图片,文本)”对送给哈希模型二;
步骤404,运用哈希模型二对接收到的 “(图片,文本)”对进行处理,得到其特征表示;
步骤405,在特征表示之上计算余弦相似度,并与伪标签计算均方误差;
步骤406,哈希模型二选择均方误差相对较小的一部分“(图片,文本)”对送给哈希模型一;
步骤407,哈希模型一和哈希模型二分别利用对方选择的误差较小的模态对进行反向传播,更新自身网络参数;
步骤408,重复步骤400-407,直至哈希模型一和哈希模型二都接近收敛。
5.根据权利要求1所述的基于带噪标签学习的无监督跨模态哈希检索方法,其特征在于,所述对偶跨模态哈希检索的测试步骤具体为:
步骤500,准备当前的查询样本和所有待检索排序的样本;
步骤501,分别通过两个对偶模型计算查询样本和所有待检索样本的相似性分数并直接取平均,得到查询样本和所有待检索样本的最终相似性分数;
步骤502,根据待检索样本的相似性从高到低排序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110312838.4A CN112836068B (zh) | 2021-03-24 | 2021-03-24 | 一种基于带噪标签学习的无监督跨模态哈希检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110312838.4A CN112836068B (zh) | 2021-03-24 | 2021-03-24 | 一种基于带噪标签学习的无监督跨模态哈希检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112836068A CN112836068A (zh) | 2021-05-25 |
CN112836068B true CN112836068B (zh) | 2023-09-26 |
Family
ID=75930471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110312838.4A Active CN112836068B (zh) | 2021-03-24 | 2021-03-24 | 一种基于带噪标签学习的无监督跨模态哈希检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112836068B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114067233B (zh) * | 2021-09-26 | 2023-05-23 | 四川大学 | 一种跨模态匹配方法及系统 |
CN115114395B (zh) * | 2022-04-15 | 2024-03-19 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
CN114896434B (zh) * | 2022-07-13 | 2022-11-18 | 之江实验室 | 一种基于中心相似度学习的哈希码生成方法及装置 |
CN116383422B (zh) * | 2023-04-07 | 2023-11-03 | 四川大学 | 一种基于锚点的无监督跨模态哈希检索方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871454A (zh) * | 2019-01-31 | 2019-06-11 | 鲁东大学 | 一种鲁棒离散监督跨媒体哈希检索方法 |
CN110502660A (zh) * | 2019-08-28 | 2019-11-26 | 南京大学 | 一种弱监督下的多距离度量图像检索方法 |
CN110674323A (zh) * | 2019-09-02 | 2020-01-10 | 山东师范大学 | 基于虚拟标签回归的无监督跨模态哈希检索方法及系统 |
CN110765281A (zh) * | 2019-11-04 | 2020-02-07 | 山东浪潮人工智能研究院有限公司 | 一种多语义深度监督跨模态哈希检索方法 |
CN111353076A (zh) * | 2020-02-21 | 2020-06-30 | 华为技术有限公司 | 训练跨模态检索模型的方法、跨模态检索的方法和相关装置 |
CN111914950A (zh) * | 2020-08-20 | 2020-11-10 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 基于深度对偶变分哈希的无监督跨模态检索模型训练方法 |
CN112100413A (zh) * | 2020-09-07 | 2020-12-18 | 济南浪潮高新科技投资发展有限公司 | 一种跨模态的哈希检索方法 |
CN112100410A (zh) * | 2020-08-13 | 2020-12-18 | 中国科学院计算技术研究所 | 一种基于语义条件关联学习的跨模态检索方法及系统 |
CN112199531A (zh) * | 2020-11-05 | 2021-01-08 | 广州杰赛科技股份有限公司 | 一种基于哈希算法和邻域图的跨模态检索方法及装置 |
CN112364198A (zh) * | 2020-11-17 | 2021-02-12 | 深圳大学 | 一种跨模态哈希检索方法、终端设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3076638A1 (en) * | 2019-03-22 | 2020-09-22 | Royal Bank Of Canada | Systems and methods for learning user representations for open vocabulary data sets |
-
2021
- 2021-03-24 CN CN202110312838.4A patent/CN112836068B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871454A (zh) * | 2019-01-31 | 2019-06-11 | 鲁东大学 | 一种鲁棒离散监督跨媒体哈希检索方法 |
CN110502660A (zh) * | 2019-08-28 | 2019-11-26 | 南京大学 | 一种弱监督下的多距离度量图像检索方法 |
CN110674323A (zh) * | 2019-09-02 | 2020-01-10 | 山东师范大学 | 基于虚拟标签回归的无监督跨模态哈希检索方法及系统 |
CN110765281A (zh) * | 2019-11-04 | 2020-02-07 | 山东浪潮人工智能研究院有限公司 | 一种多语义深度监督跨模态哈希检索方法 |
CN111353076A (zh) * | 2020-02-21 | 2020-06-30 | 华为技术有限公司 | 训练跨模态检索模型的方法、跨模态检索的方法和相关装置 |
CN112100410A (zh) * | 2020-08-13 | 2020-12-18 | 中国科学院计算技术研究所 | 一种基于语义条件关联学习的跨模态检索方法及系统 |
CN111914950A (zh) * | 2020-08-20 | 2020-11-10 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 基于深度对偶变分哈希的无监督跨模态检索模型训练方法 |
CN112100413A (zh) * | 2020-09-07 | 2020-12-18 | 济南浪潮高新科技投资发展有限公司 | 一种跨模态的哈希检索方法 |
CN112199531A (zh) * | 2020-11-05 | 2021-01-08 | 广州杰赛科技股份有限公司 | 一种基于哈希算法和邻域图的跨模态检索方法及装置 |
CN112364198A (zh) * | 2020-11-17 | 2021-02-12 | 深圳大学 | 一种跨模态哈希检索方法、终端设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
基于伪成对标签的深度无监督哈希学习;林计文;刘华文;《模式识别与人工智能》(第3期);71-80 * |
基于哈希方法的跨模态检索研究进展;樊花;陈华辉;《数据通信》(第3期);43-49 * |
数据资源受限的跨模态检索;杭诚;《中国优秀硕士学位论文全文数据库 信息科技辑》(第5期);I138-1320 * |
Also Published As
Publication number | Publication date |
---|---|
CN112836068A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112836068B (zh) | 一种基于带噪标签学习的无监督跨模态哈希检索方法 | |
CN110866140B (zh) | 图像特征提取模型训练方法、图像搜索方法及计算机设备 | |
CN112199375B (zh) | 跨模态的数据处理方法、装置、存储介质以及电子装置 | |
CN108509463B (zh) | 一种问题的应答方法及装置 | |
CN106845411B (zh) | 一种基于深度学习和概率图模型的视频描述生成方法 | |
CN111198964B (zh) | 图像检索方法及系统 | |
CN111198959A (zh) | 一种基于卷积神经网络的两阶段图像检索方法 | |
CN110837602A (zh) | 基于表示学习和多模态卷积神经网络的用户推荐方法 | |
Shu et al. | Clipood: Generalizing clip to out-of-distributions | |
CN110555121B (zh) | 基于图神经网络的图像哈希生成方法及装置 | |
CN111950728B (zh) | 图像特征提取模型的构建方法、图像检索方法及存储介质 | |
CN111931505A (zh) | 一种基于子图嵌入的跨语言实体对齐方法 | |
CN114036406A (zh) | 一种基于图对比学习和社交网络增强的推荐方法及系统 | |
CN112115716A (zh) | 一种基于多维词向量下文本匹配的服务发现方法、系统及设备 | |
CN111177432A (zh) | 一种基于分层深度哈希的大规模图像检索方法 | |
CN113127632A (zh) | 基于异质图的文本摘要方法及装置、存储介质和终端 | |
CN106840166A (zh) | 一种基于词袋树群模型的机器人定位和导航方法 | |
CN112948601A (zh) | 一种基于受控语义嵌入的跨模态哈希检索方法 | |
CN111241310A (zh) | 一种深度跨模态哈希检索方法、设备及介质 | |
CN111291867A (zh) | 数据预测模型生成方法、装置及数据预测方法、装置 | |
CN115618101A (zh) | 基于负反馈的流媒体内容推荐方法、装置及电子设备 | |
CN113792594A (zh) | 一种基于对比学习的视频中语言片段定位方法及装置 | |
CN109670071B (zh) | 一种序列化多特征指导的跨媒体哈希检索方法和系统 | |
CN116541592A (zh) | 向量生成方法、信息推荐方法、装置、设备及介质 | |
CN113032612B (zh) | 一种多目标图像检索模型的构建方法及检索方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |