CN104166684A - 一种基于统一稀疏表示的跨媒体检索方法 - Google Patents
一种基于统一稀疏表示的跨媒体检索方法 Download PDFInfo
- Publication number
- CN104166684A CN104166684A CN201410356736.2A CN201410356736A CN104166684A CN 104166684 A CN104166684 A CN 104166684A CN 201410356736 A CN201410356736 A CN 201410356736A CN 104166684 A CN104166684 A CN 104166684A
- Authority
- CN
- China
- Prior art keywords
- media
- data
- unified
- matrix
- retrieval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于统一稀疏表示的跨媒体检索方法,包括以下步骤:建立包含多种媒体类型的跨媒体数据库,提取每种媒体数据的特征向量;为每种媒体类型学习跨媒体统一稀疏表示的特征映射矩阵,考虑所有不同媒体类型之间的关联关系,同时也考虑跨媒体数据在映射后空间中的稀疏性,并保持映射后的统一特征空间样本分布和映射之前的特征空间样本分布接近;以两个媒体数据属于同一类别的概率作为不同媒体之间的相似性;计算查询样例和查询目标集中媒体数据之间的相似性,输出最相似的跨媒体检索结果,包含所有媒体类型。本发明充分考虑了跨媒体数据之间的关联关系、稀疏性和样本分布,能够提高统一特征表示的有效性,从而提高了跨媒体检索的准确率。
Description
技术领域
本发明涉及多媒体检索技术领域,具体涉及一种基于统一稀疏表示的跨媒体检索方法。
背景技术
随着大数据时代的来临,互联网上的多媒体数据迅速增长,包括文本、图像、视频、音频等各种媒体数据。然而,现有的搜索引擎如谷歌、百度等仍然依赖于基于关键词的检索,这种检索方式一方面忽略了图像、视频、音频等多媒体数据本身的信息,另一方面当多媒体数据周边没有文本时,便无法进行搜索。尽管有一些研究工作关注基于内容的单媒体检索,如以图搜图等,然而无法支持基于内容的跨媒体检索,例如用一张图像样例,检索出所有相关的媒体数据,不仅包括相关的图像,还包括文本、视频、音频、3D等。这种检索方式比传统的基于关键词的检索和基于内容的单一媒体检索更加符合用户需求,一方面检索结果更加全面,用户可以一次获得所有相关的各种媒体结果,另一方面用户可以提交任意媒体作为查询,而不必限制查询媒体的类型,因此检索方式更加灵活。
现有的跨媒体检索方法一般可以分为两类。第一类是基于子空间的映射技术,这一类方法以典型相关分析(Canonical Correlation Analysis,简称CCA)为代表,CCA是一种类似于主成分分析(Principal Component Analysis,简称PCA)的降维技术,不同的是CCA可以同时分析两组变量之间的相关性,学习出映射子空间使得在子空间中两组变量的相关性最大。除了CCA以外,Li等人在文献“Multimedia content processing through cross-modal association”中提出了一种新的跨模态因子分析方法(Cross-modal Factor Analysis,简称CFA)用于学习两组异构数据的映射空间,不同于CCA最大化两组数据之间的相关性,CFA的学习目标是在映射后的空间中,最小化两组数据之间的弗罗贝尼乌斯范数(Frobenius Norm),并且取得了比CCA更好的效果。
然而,现有方法往往只考虑了数据之间的一一对应关系,例如通过CCA或者CFA学习出映射子空间,使得原始的一一对应的跨媒体数据之间的相关性最大。它们不能挖掘更加丰富的语义信息,例如跨媒体数据的语义类别信息。因此第二类基于语义映射的方法被提出,Rasiwasia等人在其文献“A New Approach to Cross-Modal Multimedia Retrieval”中提出了两个假设:(1)对图像和文本两种媒体之间的关联关系进行建模有利于跨媒体检索;(2)高层抽象表示能够进一步提高跨媒体检索的效果。在Rasiwasia等人的工作中,跨媒体数据之间的关联信息通过CCA进行学习,高层抽象通过逻辑回归将文本或图像表示为具有相同维度的语义概念向量,其中每一维表示该多媒体数据属于对应类别的概率。然而,该方法在学习的过程中只能考虑两种媒体类型之间的关系,并且没有考虑利用稀疏性来降低跨媒体数据中的噪声,并且该方法的两个学习步骤是独立进行的,不能够同时考虑关联信息和语义类别信息,因此误差积累传播至后续的特征学习阶段,从而使得最终的跨媒体检索的准确率下降。
发明内容
针对现有技术的不足,本发明提出了一种基于统一稀疏表示的跨媒体检索方法,能够充分考虑多种媒体类型之间的关联关系,同时学习多种媒体类型的稀疏特征表示,从而有效地过滤特征表示中的噪声,并使得不同媒体数据能够互相校正,进一步提高统一特征表示的有效性,提高跨媒体检索的准确率。
为达到以上目的,本发明采用的技术方案如下:
一种基于统一稀疏表示的跨媒体检索方法,用于统一表示多种不同媒体类型实现跨媒体检索,包括以下步骤:
(1)建立包含多种媒体类型的跨媒体数据库,并将所述数据库分为训练集和测试集,提取每种媒体类型数据的特征向量;
(2)通过训练集的多媒体数据,为每种媒体类型数据学习跨媒体统一稀疏表示的特征映射矩阵;
(3)根据特征映射矩阵,将测试集中的每种媒体类型数据映射到统一的空间中,得到跨媒体数据的统一稀疏表示;
(4)基于统一稀疏表示,计算任意媒体数据之间的跨媒体相似性;
(5)将测试集中的每个数据作为查询样例,整个测试集作为查询目标集进行查询;计算查询样例和查询目标集中媒体数据之间的相似性,进而根据相似性得到跨媒体统一检索结果,检索结果包含所有相关的媒体类型数据。
进一步,上述一种基于统一稀疏表示的跨媒体检索方法,所述步骤(1)多种媒体类型为五种媒体类型,包括文本、图像、视频、音频和3D。
进一步,上述一种基于统一稀疏表示的跨媒体检索方法,所述步骤(1)中为了提取每种媒体类型数据的特征向量,对于文本数据,提取其隐狄雷克雷分布特征向量;对于图像数据,提取其词袋特征向量;对于视频数据,提取其词袋特征向量;对于音频数据,提取其梅尔频率倒谱系数特征向量;对于3D数据,提取其光场特征向量。
进一步,上述一种基于统一稀疏表示的跨媒体检索方法,所述步骤(2)中跨媒体统一稀疏表示学习算法考虑了所有不同媒体类型之间的关联关系,同时也考虑了跨媒体数据在映射后的空间中的稀疏性,并保持映射后的统一特征空间样本分布和映射之前的特征空间样本分布接近。
进一步,上述一种基于统一稀疏表示的跨媒体检索方法,所述步骤(4)的跨媒体相似性计算方法以两个媒体数据属于同一类别的概率作为其相似性。
进一步,上述一种基于统一稀疏表示的跨媒体检索方法,所述步骤(5)的跨媒体统一检索是指提交任意一种媒体类型数据作为查询,检索结果包括测试集中的所有媒体类型数据;该步骤计算得到所述相似性后,根据相似性进行排序,以输出最终的跨媒体检索结果。
本发明的效果在于:与现有方法相比,本发明能够支持多种媒体类型的统一检索,并充分考虑多种媒体类型之间的关联关系,同时学习多种媒体类型的统一稀疏特征表示,从而有效地过滤特征表示中的噪声,并使得不同媒体类型能够互相校正,进一步提高统一特征表示的有效性,从而能取得更高的跨媒体检索准确率。
本发明之所以具有上述发明效果,其原因在于:采用了统一稀疏表示。一方面,通过对多种媒体类型数据统一建模,能够充分考虑多种媒体类型之间的关联关系,增强了对跨媒体内容的分析与挖掘的能力;另一方面,能够同时学习多种媒体类型数据的稀疏特征表示,稀疏特征表示能够有效地过滤特征表示中的噪声,更为重要的是对不同媒体类型数据的统一建模学习,能够使得不同媒体类型数据能够互相校正,进一步提高统一特征表示的有效性,从而取得更高的跨媒体检索准确率。
附图说明
图1是本发明的基于统一稀疏表示的跨媒体检索方法的流程示意图。
图2是一个跨媒体检索实例的示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细的描述。
本发明的一种基于统一稀疏表示的跨媒体检索方法,其流程如图1所示,具体包含以下步骤:
(1)建立包含多种媒体类型的跨媒体数据库,并将所述数据库分为训练集和测试集,提取每种媒体类型数据的特征向量。
本实施例中,所述多种媒体类型为五种媒体类型,包括文本、图像、视频、音频和3D。
对于文本数据,提取其隐狄雷克雷分布特征向量;对于图像数据,提取其词袋特征向量;对于视频数据,提取其词袋特征向量;对于音频数据,提取其梅尔频率倒谱系数特征向量;对于3D数据,提取其光场特征向量。本实施例的方法同样支持其他特征种类,例如文本词袋特征,图像纹理特征、颜色特征,视频运动特征,音频均方根、过零率特征,3D形状特征等。
用X(1),...,X(s)表示跨媒体训练集中s种媒体类型的特征向量矩阵,其中上标(i)表示第i种媒体类型,矩阵的维度为d(i)×n(i),表示共有n(i)个训练样本,每个训练样本的特征向量维度是d(i)。
用Y(1),...,Y(s)表示跨媒体训练集中s种媒体类型的类别标签矩阵,其中上标(i)表示第i种媒体类型,矩阵的维度为c×n(i),表示共有n(i)个训练样本以及对应的c个类别,每个训练样本都来自于其中一类。
用表示跨媒体训练集和测试集中s种媒体类型的特征向量矩阵,其中上标(i)表示第i种媒体类型,矩阵的维度为d(i)×(n(i)+m(i)),表示共有n(i)个训练样本和m(i)个测试样本,每个样本的特征向量维度是d(i)。
(2)通过训练集的多媒体数据,为每种媒体类型学习跨媒体统一稀疏表示的特征映射矩阵。
建立的目标函数为:
其中P(1),...,P(s)为跨媒体数据库中所有s种媒体类型的映射矩阵,其中上标(i)表示第i种媒体类型的映射矩阵,矩阵的维度为d(i)×c,可以将原始的特征向量从d(i)维的空间映射到一个统一的c维的统一空间中。和表示一一对应的两个矩阵,这两个矩阵中的一一对应样本表示来自不同媒体类型,而具有同样类别标签的元素。||Z||F表示矩阵Z的Frobenius范数,其定义为:||Z||2,1表示矩阵Z的l2,1范数,其定义为:可以看出,最小化||Z||2,1能够使得矩阵Z稀疏。
上述公式中的第一项目标函数考虑了所有不同媒体之间的关联关系,能够让来自不同媒体类型而描述相同类别的样本对象具有接近的特征表示。第二项目标函数考虑了各自媒体内部的类别信息,使其在映射之后的空间中尽可能接近原始的类别标签。第三项目标函数Ω(P(i))表示在映射之后的统一特征空间中的样本分布和在映射之前的特征空间中的样本分布的一致程度,用于挖掘蕴含于不同媒体内部的样本分布结构信息,该信息能够作为类别信息的补充进一步提高效果,其定义为:
L(i)=I-D-1/2W(i)D-1/2
其中表示矩阵Z的迹范数,I表示单位矩阵,D表示斜对角矩阵,其对角线上的元素W(i)为距离矩阵,表示样本的k近邻集合。
第四项目标函数||P(i)||2,1能够使得最终的统一特征表示稀疏,从而过滤跨媒体数据中的噪声,提高跨媒体统一特征表示的有效性,从而能取得更高的跨媒体检索准确率。
上述目标函数的迭代求解公式为:
(3)根据特征映射矩阵,将测试集中的每种媒体类型映射到统一的空间中,得到跨媒体数据的统一稀疏表示。
该步骤将测试集中的每种媒体类型数据通过上述学习的映射矩阵映射到一个统一空间中,以获得多种媒体类型的统一特征表示:
这里我们用x(i)表示第i种媒体的一个样本,用oi表示映射到统一空间中的第i种媒体的统一稀疏特征表示。
(4)基于统一稀疏表示,计算任意媒体数据之间的跨媒体相似性。
任意两个媒体数据之间相似性计算方法为:
这里表示第i种媒体的数据p的统一稀疏特征表示,表示第j种媒体的数据q的统一稀疏特征表示,yp表示的类别,yq表示的类别,l表示类别集合中的任一种类别,o表示任意一种媒体数据,Nk(o)表示媒体数据o的k近邻,可以看出,相似性计算公式的目标是计算两个媒体数据属于同一类别l的概率值,σ(z)=(1+exp(-z))-1为sigmoid函数。
(5)将测试集中的每个数据作为查询样例,整个测试集作为查询目标集进行查询;计算查询样例和查询目标集中媒体数据之间的相似性,根据相似性进行排序,得到跨媒体统一检索结果,检索结果包含所有媒体类型。
跨媒体统一检索是指提交任意一种媒体类型作为查询,检索结果包括测试集中的所有媒体类型数据的相关结果,即输出最相似的跨媒体检索结果。图2是一个跨媒体检索的实例示意图。用户提交任意媒体数据作为查询样例,系统自动从跨媒体数据集中检索出所有相关结果。例如提交一张加拿大梦莲湖的图像作为查询,除了能搜索出相关的图片结果以外,还能自动检索出所有相关的文本、音频、视频和3D。
下面的实验结果表明,与现有方法相比,本发明基于统一稀疏表示进行跨媒体检索,可以取得更高的检索准确率。
本实施例中采用了XMedia跨媒体数据集进行实验,其中包括5000段文本,5000张图像,1000段音频,500段视频和500个3D模型,分别来自20个不同的类别,每个类别包括250段文本,250张图像,50段音频,25段视频和25个3D模型。我们将数据集的80%作为训练集,剩余20%作为测试集。我们测试了以下3种方法作为实验对比:
现有方法一:文献“A New Approach to Cross-Modal Multimedia Retrieval”(作者N.Rasiwasia,J.Pereira,E.Coviello,G.Doyle,G.Lanckriet,R.Levy和N.Vasconcelos,发表在2010年的ACM international conference on Multimedia)的方法,该方法首先采用CCA统计分析将原始的特征映射到第三个空间中,然后再采用逻辑回归进一步对特征进行映射;
现有方法二:文献“Multimedia content processing through cross-modal association”(作者D.Li,N.Dimitrova,M.Li和I.Sethi,发表在2003年的ACM international conference onMultimedia)的方法,该方法通过最小化一一对应的数据之间的Frobenius范数进行特征学习;
本发明:本实施例的方法。
实验采用信息检索领域最常用的MAP(mean average precision)指标来评测跨媒体检索的准确性,MAP是指每个查询样例检索准确性的平均值,MAP值越大,说明跨媒体检索的结果就越好。
表1.与现有方法的对比实验结果
文本查询 | 图像查询 | 音频查询 | 视频查询 | 3D查询 | |
现有方法一 | 0.141 | 0.143 | 0.125 | 0.116 | 0.082 |
现有方法二 | 0.136 | 0.137 | 0.117 | 0.107 | 0.111 |
本发明 | 0.199 | 0.252 | 0.197 | 0.152 | 0.181 |
从表1中可以看出,本发明取得了最好的跨媒体检索结果,对比现有方法一,该方法在学习的过程中只能考虑两种媒体类型之间的关系,并且没有考虑利用稀疏性来降低跨媒体数据中的噪声,而本发明能够同时学习多种媒体类型的稀疏特征表示,稀疏特征表示能够有效地过滤特征表示中的噪声,更为重要的是对不同媒体类型统一建模学习能够使得不同媒体类型数据能够互相校正,进一步提高统一特征表示的有效性。对比现有方法二,其仅考虑了数据之间的一一对应关系,本发明不仅可以考虑所有媒体之间的一一对应关系,还考虑了数据的类别信息和稀疏性,因此能够极大提高跨媒体检索的MAP值。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种基于统一稀疏表示的跨媒体检索方法,包括以下步骤:
(1)建立包含多种媒体类型的跨媒体数据库,并将所述数据库分为训练集和测试集,提取每种媒体类型数据的特征向量;
(2)通过训练集的多媒体数据,为每种媒体类型学习跨媒体统一稀疏表示的特征映射矩阵;
(3)根据特征映射矩阵,将测试集中的每种媒体类型映射到统一的空间中,得到跨媒体数据的统一稀疏表示;
(4)基于统一稀疏表示,计算任意媒体数据之间的跨媒体相似性;
(5)将测试集中的每个数据作为查询样例,以整个测试集作为查询目标集进行查询;计算查询样例和查询目标集中媒体数据之间的跨媒体相似性,进而根据相似性得到跨媒体统一检索结果,检索结果包含相关的所有媒体类型数据。
2.如权利要求1所述的方法,其特征在于,所述多种媒体类型为五种媒体类型,包括文本、图像、视频、音频和3D数据。
3.如权利要求2所述的方法,其特征在于,对于文本数据,提取其隐狄雷克雷分布特征向量;对于图像数据,提取其词袋特征向量;对于视频数据,提取其词袋特征向量;对于音频数据,提取其梅尔频率倒谱系数特征向量;对于3D数据,提取其光场特征向量。
4.如权利要求1所述的方法,其特征在于,所述步骤(2)中跨媒体统一稀疏表示学习算法考虑了所有不同媒体类型数据之间的关联关系,同时也考虑了跨媒体数据在映射后的空间中的稀疏性,并保持映射后的统一特征空间样本分布和映射之前的特征空间样本分布接近。
5.如权利要求4所述的方法,其特征在于,步骤(2)所述为每种媒体类型学习跨媒体统一稀疏表示的特征映射矩阵,其建立的目标函数为:
其中P(1),...,P(s)为跨媒体数据库中所有s种媒体类型的映射矩阵,上标(i)表示第i种媒体类型的映射矩阵,矩阵的维度为d(i)×c,可以将原始的特征向量从d(i)维的空间映射到一个统一的c维的统一空间中;和表示一一对应的两个矩阵,这两个矩阵中的一一对应样本表示来自不同媒体类型,而具有同样类别标签的元素;||Z||F表示矩阵Z的Frobenius范数,其定义为:||Z||2,1表示矩阵Z的l2,1范数,其定义为:最小化||Z||2,1能够使得矩阵Z稀疏。
6.如权利要求5所述的方法,其特征在于,第三项目标函数Ω(P(i))表示在映射之后的统一特征空间中的样本分布和在映射之前的特征空间中的样本分布的一致程度,用于挖掘蕴含于不同媒体内部的样本分布结构信息,该信息能够作为类别信息的补充进一步提高效果,其定义为:
L(i)=I-D-1/2W(i)D-1/2,
其中表示矩阵Z的迹范数,I表示单位矩阵,D表示斜对角矩阵,其对角线上的元素W(i)为距离矩阵,表示样本的k近邻集合。
7.如权利要求1所述的方法,其特征在于,所述步骤(4)的跨媒体相似性计算方法以两个媒体数据属于同一类别的概率作为其相似性。
8.如权利要求1所述的方法,其特征在于,所述步骤(4)中任意两个媒体数据之间相似性计算方法为:
其中,表示第i种媒体的数据p的统一稀疏特征表示,表示第j种媒体的数据q的统一稀疏特征表示,yp表示的类别,yq表示的类别,l表示类别集合中的任一种类别,o表示任意一种媒体数据,Nk(o)表示媒体数据o的k近邻,σ(z)=(1+exp(-z))-1为sigmoid函数。
9.如权利要求1所述的方法,其特征在于,所述步骤(5)的跨媒体统一检索是指提交任意一种媒体类型作为查询,检索结果包括测试集中相关的所有媒体类型数据;该步骤计算得到所述相似性后,根据相似性进行排序,以输出最终的跨媒体检索结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410356736.2A CN104166684A (zh) | 2014-07-24 | 2014-07-24 | 一种基于统一稀疏表示的跨媒体检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410356736.2A CN104166684A (zh) | 2014-07-24 | 2014-07-24 | 一种基于统一稀疏表示的跨媒体检索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104166684A true CN104166684A (zh) | 2014-11-26 |
Family
ID=51910497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410356736.2A Pending CN104166684A (zh) | 2014-07-24 | 2014-07-24 | 一种基于统一稀疏表示的跨媒体检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104166684A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550190A (zh) * | 2015-06-26 | 2016-05-04 | 许昌学院 | 面向知识图谱的跨媒体检索系统 |
CN105701227A (zh) * | 2016-01-15 | 2016-06-22 | 北京大学 | 一种基于局部关联图的跨媒体相似性度量方法和检索方法 |
CN105701225A (zh) * | 2016-01-15 | 2016-06-22 | 北京大学 | 一种基于统一关联超图规约的跨媒体检索方法 |
CN105718532A (zh) * | 2016-01-15 | 2016-06-29 | 北京大学 | 一种基于多深度网络结构的跨媒体排序方法 |
CN107220337A (zh) * | 2017-05-25 | 2017-09-29 | 北京大学 | 一种基于混合迁移网络的跨媒体检索方法 |
CN107357884A (zh) * | 2017-07-10 | 2017-11-17 | 中国人民解放军国防科学技术大学 | 一种基于双向学习排序的跨媒体的不同距离度量方法 |
WO2017210949A1 (zh) * | 2016-06-06 | 2017-12-14 | 北京大学深圳研究生院 | 一种跨媒体检索方法 |
WO2018010365A1 (zh) * | 2016-07-11 | 2018-01-18 | 北京大学深圳研究生院 | 一种跨媒体检索方法 |
CN108388639A (zh) * | 2018-02-26 | 2018-08-10 | 武汉科技大学 | 一种基于子空间学习与半监督正则化的跨媒体检索方法 |
CN108595546A (zh) * | 2018-04-09 | 2018-09-28 | 武汉科技大学 | 基于半监督的跨媒体特征学习检索方法 |
WO2018188240A1 (zh) * | 2017-04-10 | 2018-10-18 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN109992676A (zh) * | 2019-04-01 | 2019-07-09 | 中国传媒大学 | 一种跨媒体资源检索方法及检索系统 |
CN110866129A (zh) * | 2019-11-01 | 2020-03-06 | 中电科大数据研究院有限公司 | 一种基于跨媒体统一表征模型的跨媒体检索方法 |
CN113779278A (zh) * | 2021-11-15 | 2021-12-10 | 南京码极客科技有限公司 | 一种基于统一双分支网络的细粒度跨媒体检索方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488713A (zh) * | 2013-09-10 | 2014-01-01 | 浙江大学 | 一种可直接度量不同模态数据间相似性的跨模态检索方法 |
CN103559192A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 一种基于跨模态稀疏主题建模的跨媒体检索方法 |
-
2014
- 2014-07-24 CN CN201410356736.2A patent/CN104166684A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488713A (zh) * | 2013-09-10 | 2014-01-01 | 浙江大学 | 一种可直接度量不同模态数据间相似性的跨模态检索方法 |
CN103559192A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 一种基于跨模态稀疏主题建模的跨媒体检索方法 |
Non-Patent Citations (3)
Title |
---|
XIAOHUA ZHAI ET AL.: ""Cross-Modality Correlation Propagation for Cross-Media Retrieval"", 《2012 IEEE CONFERENCE ON ICASSP》 * |
XIAOHUA ZHAI ET AL.: ""Heterogeneous Metric Learning with Joint Graph Regularization for Cross-Media Retrieval"", 《PROCEEDINGS OF THE TWENTY-SEVENTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 * |
XIAOHUA ZHAI ET AL.: ""Learning Cross-Media Joint Representation With Sparse and Semisupervised Regularization"", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550190A (zh) * | 2015-06-26 | 2016-05-04 | 许昌学院 | 面向知识图谱的跨媒体检索系统 |
CN105550190B (zh) * | 2015-06-26 | 2019-03-29 | 许昌学院 | 面向知识图谱的跨媒体检索系统 |
CN105701227A (zh) * | 2016-01-15 | 2016-06-22 | 北京大学 | 一种基于局部关联图的跨媒体相似性度量方法和检索方法 |
CN105701225A (zh) * | 2016-01-15 | 2016-06-22 | 北京大学 | 一种基于统一关联超图规约的跨媒体检索方法 |
CN105718532A (zh) * | 2016-01-15 | 2016-06-29 | 北京大学 | 一种基于多深度网络结构的跨媒体排序方法 |
CN105718532B (zh) * | 2016-01-15 | 2019-05-07 | 北京大学 | 一种基于多深度网络结构的跨媒体排序方法 |
CN105701227B (zh) * | 2016-01-15 | 2019-02-01 | 北京大学 | 一种基于局部关联图的跨媒体相似性度量方法和检索方法 |
CN105701225B (zh) * | 2016-01-15 | 2019-02-01 | 北京大学 | 一种基于统一关联超图规约的跨媒体检索方法 |
WO2017210949A1 (zh) * | 2016-06-06 | 2017-12-14 | 北京大学深圳研究生院 | 一种跨媒体检索方法 |
WO2018010365A1 (zh) * | 2016-07-11 | 2018-01-18 | 北京大学深圳研究生院 | 一种跨媒体检索方法 |
WO2018188240A1 (zh) * | 2017-04-10 | 2018-10-18 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN108694200A (zh) * | 2017-04-10 | 2018-10-23 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN108694200B (zh) * | 2017-04-10 | 2019-12-20 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN107220337A (zh) * | 2017-05-25 | 2017-09-29 | 北京大学 | 一种基于混合迁移网络的跨媒体检索方法 |
CN107357884A (zh) * | 2017-07-10 | 2017-11-17 | 中国人民解放军国防科学技术大学 | 一种基于双向学习排序的跨媒体的不同距离度量方法 |
CN108388639A (zh) * | 2018-02-26 | 2018-08-10 | 武汉科技大学 | 一种基于子空间学习与半监督正则化的跨媒体检索方法 |
CN108388639B (zh) * | 2018-02-26 | 2022-02-15 | 武汉科技大学 | 一种基于子空间学习与半监督正则化的跨媒体检索方法 |
CN108595546A (zh) * | 2018-04-09 | 2018-09-28 | 武汉科技大学 | 基于半监督的跨媒体特征学习检索方法 |
CN108595546B (zh) * | 2018-04-09 | 2022-02-15 | 武汉科技大学 | 基于半监督的跨媒体特征学习检索方法 |
CN109992676A (zh) * | 2019-04-01 | 2019-07-09 | 中国传媒大学 | 一种跨媒体资源检索方法及检索系统 |
CN109992676B (zh) * | 2019-04-01 | 2020-12-25 | 中国传媒大学 | 一种跨媒体资源检索方法及检索系统 |
CN110866129A (zh) * | 2019-11-01 | 2020-03-06 | 中电科大数据研究院有限公司 | 一种基于跨媒体统一表征模型的跨媒体检索方法 |
CN113779278A (zh) * | 2021-11-15 | 2021-12-10 | 南京码极客科技有限公司 | 一种基于统一双分支网络的细粒度跨媒体检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104166684A (zh) | 一种基于统一稀疏表示的跨媒体检索方法 | |
CN107122413B (zh) | 一种基于图模型的关键词提取方法及装置 | |
An et al. | Naive Bayes classifiers for music emotion classification based on lyrics | |
CN107515895B (zh) | 一种基于目标检测的视觉目标检索方法与系统 | |
WO2018010365A1 (zh) | 一种跨媒体检索方法 | |
CN105718532B (zh) | 一种基于多深度网络结构的跨媒体排序方法 | |
CN107862070B (zh) | 基于文本聚类的线上课堂讨论短文本即时分组方法及系统 | |
CN108280114B (zh) | 一种基于深度学习的用户文献阅读兴趣分析方法 | |
CN105701225B (zh) | 一种基于统一关联超图规约的跨媒体检索方法 | |
US11669558B2 (en) | Encoder using machine-trained term frequency weighting factors that produces a dense embedding vector | |
CN111782833B (zh) | 基于多模型网络的细粒度跨媒体检索方法 | |
JP2006510114A (ja) | 概念モデル空間におけるコンテンツの表現及びこれを検索するための方法及び装置 | |
CN102782678A (zh) | 用于项关联的联合嵌入 | |
CN104199965A (zh) | 一种语义信息检索方法 | |
CN112287695A (zh) | 基于跨语言双语预训练及Bi-LSTM的汉-越平行句对抽取方法 | |
CN108388639B (zh) | 一种基于子空间学习与半监督正则化的跨媒体检索方法 | |
CN104035996A (zh) | 基于Deep Learning的领域概念抽取方法 | |
CN112115716A (zh) | 一种基于多维词向量下文本匹配的服务发现方法、系统及设备 | |
CN109376261B (zh) | 基于中级文本语义增强空间的模态独立检索方法和系统 | |
CN112800249A (zh) | 基于生成对抗网络的细粒度跨媒体检索方法 | |
CN104008187A (zh) | 一种基于最小编辑距离的半结构化文本匹配方法 | |
CN105701227B (zh) | 一种基于局部关联图的跨媒体相似性度量方法和检索方法 | |
CN117493513A (zh) | 一种基于向量和大语言模型的问答系统及方法 | |
CN107832319B (zh) | 一种基于语义关联网络的启发式查询扩展方法 | |
CN105701501B (zh) | 一种商标图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141126 |