CN105701225B - 一种基于统一关联超图规约的跨媒体检索方法 - Google Patents
一种基于统一关联超图规约的跨媒体检索方法 Download PDFInfo
- Publication number
- CN105701225B CN105701225B CN201610028560.7A CN201610028560A CN105701225B CN 105701225 B CN105701225 B CN 105701225B CN 201610028560 A CN201610028560 A CN 201610028560A CN 105701225 B CN105701225 B CN 105701225B
- Authority
- CN
- China
- Prior art keywords
- media
- data
- hypergraph
- matrix
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于统一关联超图规约的跨媒体检索方法,包括以下步骤:1.建立包含多种媒体类型的跨媒体数据集,提取每种媒体类型数据的特征向量;2.通过跨媒体数据集,同时为所有媒体学习得到统一特征表示映射矩阵,通过在一个关联超图中建模所有媒体数据,综合考虑了所有媒体的关联关系;3.根据映射矩阵,将不同媒体类型映射到统一空间,在统一空间中计算媒体数据的相似性;4.以任意一种媒体类型作为查询,计算其与作为查询目标的媒体类型数据的相似性,并根据相似性从大到小排序,最终输出检索结果。本发明将所有媒体数据建模在一个超图中,提高了建模的统一性和信息的多样性,提高了跨媒体检索的准确率。
Description
技术领域
本发明涉及多媒体检索领域,具体涉及一种基于统一关联超图规约的跨媒体检索方法。
背景技术
近年来,互联网上的多媒体数据(如图像、视频、文本、音频等)总量飞速增长,已经成为大数据的主要内容。面对快速增长的媒体数量和丰富多样的媒体种类,用户对多媒体数据的检索需求越来越强烈。然而,现有的搜索引擎系统(如百度等)仍然主要基于文本关键词,通过对用户输入文本进行匹配来实现检索。另一方面,基于内容的多媒体检索能够根据内容的相似性进行检索,但局限在单媒体检索上,即返回的检索结果媒体类型与用户输入的媒体类型必须一致,从而限制了检索的灵活性和全面性。跨媒体检索是指用户以任意一种媒体类型作为输入,系统经过检索后返回所有媒体类型的结果。如用户输入一幅图片,不仅能够返回内容相关的图片,还能够得到相关文本、音频、视频等数据。
相比较单媒体检索,跨媒体检索具有两方面的优势:一方面能够返回所有媒体的相关数据,增加了检索的灵活性;另一方面多种媒体相互促进,起到了降低噪声的修正作用。
现有的最常见的跨媒体检索方法是基于统计分析的映射学习方法。其代表为典型相关分析(Canonical Correlation Analysis,简称CCA)。CCA通过统计分析,学习得到能够最大化两组异构数据关联性的子空间,从而将两种媒体的特征向量映射到统一空间中。CCA被广泛应用于如视频音源定位、视频说话人检测等研究中。另一种相关方法是跨模态因子分析(Cross-modal Factor Analysis,简称CFA),由Li等人在文献“Multimedia contentprocessing through cross-modal association”中提出。该方法直接在映射后的空间中最小化两组数据间的弗罗贝尼乌斯范数(Frobenius Norm),也取得了较好的效果。
为了利用已知的数据标注信息,Rasiwasia等人在其文献“A New Approach toCross-Modal Multimedia Retrieval”中提出了高层语义映射方法:先对不同媒体数据进行CCA学习关联,再在统一空间中使用逻辑回归得到高层语义表示(相同维度的语义概念向量)。该方法在CCA的基础上取得了一定的效果提升,但只利用了有标注的信息,且无法同时建模两种以上媒体。另外,关联学习和高层语义表示是两个独立的步骤,无法同时考虑。针对这些问题,Zhai等人在文献“Learning Cross-Media Joint Representation withSparse and Semi-Supervised Regularization”中提出了一种基于稀疏和半监督规约的跨媒体检索方法,同时进行关联学习和语义抽象。该方法在一个统一的框架中对不同媒体的数据使用半监督图规约方法,且加入稀疏规约项,从而能够利用无监督的数据取得更好的效果。另外,该方法也能够同时建模两种以上媒体。但是,它对于不同媒体分别建图,不能同时有效考虑所有媒体的关联信息,从而在信息的全面性上有所欠缺。
发明内容
针对现有技术的不足,本发明提出了一种基于统一关联超图规约的跨媒体检索方法,能够在映射后的统一空间中,同时将所有媒体建模在同一个超图中,从而使得模型具有全面分析跨媒体关联的能力。该方法同时学习不同媒体的统一特征表示映射矩阵,且利用超图表达复杂关联的能力,使得模型的信息更加完整,提高了跨媒体检索的准确率。
为达到以上目的,本发明采用的技术方案如下:
一种基于统一关联超图规约的跨媒体检索方法,用于同时学习不同媒体的统一空间映射,进而得到不同媒体的统一特征表示,实现跨媒体检索,包括以下步骤:
(1)建立包含多种媒体类型的跨媒体数据集,提取每种媒体类型数据的特征向量;
(2)通过跨媒体数据集,同时为所有媒体类型学习得到统一特征表示映射矩阵;
(3)根据映射矩阵,将不同媒体类型映射到统一空间,在统一空间中计算媒体数据间的相似性;
(4)进行跨媒体检索时,以任意一种媒体类型作为查询,按照步骤(3)计算其与作为查询目标的媒体类型数据的相似性,并根据相似性从大到小排序,最终输出检索结果。
进一步,上述一种基于统一关联超图规约的跨媒体检索方法,所述步骤(1)中的多媒体类型为五种媒体类型,包括:文本、图像、视频、音频和3D模型。
进一步,上述一种基于统一关联超图规约的跨媒体检索方法,所述步骤(1)中的特征向量具体为:文本数据是提取隐狄雷克雷分布特征向量;图像数据是提取词袋特征向量;视频数据是提取关键帧后,对关键帧提取词袋特征向量;音频数据是提取其梅尔频率倒谱系数特征向量;3D数据是提取其光场特征向量。
进一步,上述一种基于统一关联超图规约的跨媒体检索方法,所述步骤(2)中的映射矩阵学习过程,通过在一个关联超图中建模所有媒体的数据(包括标注数据和未标注数据),能够同时考虑所有媒体之间的关联关系,使得学习得到的映射矩阵能够全面地利用媒体类型之间、媒体类型内部的数据关联关系。另外,该方法考虑到了映射矩阵的稀疏性,对数据噪声有抑制作用。
进一步,上述一种基于统一关联超图规约的跨媒体检索方法,所述步骤(3)的相似性定义为两个媒体数据属于同一语义类别的概率。
进一步,上述一种基于统一关联超图规约的跨媒体检索方法,所述步骤(4)的跨媒体检索是指,使用一种媒体类型的数据作为查询,返回另一种媒体类型的相关结果。步骤(2)中的学习过程同时学习对于所有媒体的映射矩阵,但一次检索只在两种媒体间进行。该步骤计算得到所述相似性后,根据相似性从大到小排序,最终输出检索结果。
本发明的效果在于:与现有方法相比,本方法能够通过构建跨媒体统一关联超图,充分考虑了媒体类型之间、媒体类型内部的关联关系,同时学习所有媒体的统一特征表示映射矩阵,进而得到多种媒体类型的更加精确的统一特征表示。通过综合考虑不同媒体的信息及其关联,兼顾统一特征表示的稀疏性,进一步提高了统一特征表示的有效性,提高了跨媒体检索的准确率。
本方法之所以具有上述发明效果,其原因在于:在建模过程中以跨媒体统一关联超图为中心。一方面,将所有媒体类型数据统一建模在一张超图中(而不是对不同媒体类型分别建图),大大提高了建模的统一性与模型信息的全面性。另一方面,相比起普通图,超图表达复杂关联结构的能力更强,能够起到更好地描述跨媒体关联的作用,进一步提高了该方法关联学习及语义抽象的能力。通过上述一种基于统一关联超图规约的跨媒体检索方法学习得到的统一特征表示,具有更高的有效性,从而提高了跨媒体检索的准确率。
附图说明
图1是本发明的基于统一关联超图规约的跨媒体检索方法的流程示意图。
图2是本发明的超图构建过程、统一特征表示学习过程的示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细的描述。
本发明的一种基于统一关联超图规约的跨媒体检索方法,其流程如图1所示,包含以下步骤:
(1)建立包含多种媒体类型的跨媒体数据集,并将所述数据集分为训练集和测试集,提取每种媒体类型数据的特征向量。
本实施例中,所述的多种媒体类型为文本、图像、视频、音频和3D模型。对于不同媒体类型的特征向量提取方法如下:文本数据是提取隐狄雷克雷分布特征向量;图像数据是提取词袋特征向量;视频数据是提取关键帧后,对关键帧提取词袋特征向量;音频数据是提取其梅尔频率倒谱系数特征向量;3D数据是提取其光场特征向量。
本方法同样支持其它种类的特征,例如图像纹理特征、颜色特征、深度学习特征,视频运动特征、音频均方根、3D形状特征等。
用s表示媒体跨媒体训练集中的媒体类型数量,对于第r种媒体类型,我们定义n(r)为其数据个数。训练集中的每个数据有且只有一个语义类别。
定义为第r种媒体类型中的第p个数据的特征向量,其表示结构为一个d(r)×1的向量,其中d(r)表示第r种媒体的特征向量维度。
定义的语义标签为其表示结构为一个c×1的向量,其中c表示语义类别的总量。中有且只有一维为1,其余为0,表示该数据的语义类别值为1的列所对应的标签。
(2)通过训练集的数据,同时为所有媒体类型学习得到统一特征表示映射矩阵。
建立目标函数如下:
其中P(1),...,P(s)为跨媒体数据集中所有s种媒体类型的映射矩阵,其中上标(s)表示第s种媒体类型的映射矩阵,矩阵的维度为d(s)×c,可以将原始的特征向量从d(s)维的空间映射到一个统一的c维的统一空间中。PT表示矩阵P的转置。即为数据通过映射矩阵变换到统一空间中后的向量(维度为c×1)。1c表示一个c×1的全1列向量,b为偏移项,用于构造线性规约模型。||Z||F表示矩阵Z的Frobenius范数,其定义为:上式中λ表示权重参数,||Z||2,1表示矩阵Z的l2,1范数,其定义为:最小化||Z||2,1能够使得矩阵Z具有稀疏性。上述公式的第一项使得原始数据通过映射矩阵,映射到统一空间后的统一特征表示能够尽可能与其类别标签一致。另外,通过l2,1范数,使得学习到的统一特征表示具有稀疏性,起到抑制噪声的作用。
Ω(O)为跨媒体统一关联超图规约项,O代表所有映射到统一空间后的媒体数据。图2以4种媒体为例,示意了本发明的超图构建过程和统一特征表示学习过程。下面先介绍统一关联超图的构建方法:
定义统一关联超图G={V,E,H,w},其中V为点集,E为超边集,H为关联矩阵,w为超边权重集。V,E,H,w的构造方法如下:
V:所有映射到统一空间后的媒体数据。
E:对于V中的任意一点vi,将其k近邻使用一条超边连接,如此构成超边集。
H:对于V中的任意一点vi及E中任意一条超边ej,若vi∈ej,则令Hij=1,否则Hij=0。
w:本方法中,令所有超边的权重wj均为1。
我们根据文献“Learning with hypergraphs:Clustering,classification,andembedding”中的推导,定义该统一关联超图G的拉普拉斯:
其中,I为单位矩阵,Dv为所有顶点的度数构成的对角矩阵,设共有p个顶点,则该矩阵大小为p×p,对角线上的值为对应点的度数。De为所有超边度数构成的对角矩阵,设共有q条超边,则该矩阵大小为q×q,对角线上的值为对应超边的度数。其它符号上述已经介绍过。
推导得到:
其中,分别代表第r种、第k种媒体的所有数据构成的矩阵。以第r种媒体为例,该矩阵的大小应为d(r)×n(r)。Lrk代表在统一关联超图的拉普拉斯L中,按照对应媒体类型r的行以及对应媒体类型k的列所取出的子矩阵。
该目标函数通过迭代求解,经过推导,迭代求解公式为:
其中,P(r)代表第r中媒体类型在该轮迭代的结果,代表第j种媒体类型在上一
轮迭代的结果。Y(r)为第r种媒体所有数据对应的标签构成的矩阵。D(r)为对角矩阵,第i行对
角线上的值定义为为中心矩阵,定义为我
们初始化所有P(r)为随机值,之后每次迭代更新所有的P(r),即可得到对应每种媒体类型的
映射矩阵。
(3)根据映射矩阵,将不同媒体类型映射到统一空间,在统一空间中计算媒体数据间的相似性。
该步骤首先将测试集中的每种媒体类型数据,通过上述学习的映射矩阵映射到一个统一空间中,以获得多种媒体类型的统一特征表示:
设我们要求第r种媒体的第p个数据的统一特征表示,则
由于在统一空间中已经不存在媒体类型的区别,在后面的公式中我们省略媒体类型,仅仅用xp代表一个媒体数据,用yp代表其语义类别,op代表其统一特征表示。
定义一个数据属于概念t的概率为:
其中,Nk(op)表示数据op在统一空间中的k近邻,σ(z)=(1+exp(-z))-1为sigmoid函数。
定义两个数据的相似性为:
(4)任取测试集中的两种媒体类型A与B,将A中的每个数据作为查询样例,B为查询目标进行检索,计算查询样例和B中数据的相似性,将相似性按照从大到小排序,得到媒体类型B的相关结果列表。
该步骤中使用的测试方式是一种媒体到另一种媒体的检索,跨媒体统一检索是指提交任意一种媒体类型作为查询,返回的结果是另一种媒体的数据,并对返回的数据进行相似性的排序,用户所看到的是返回数据及其相似性构成的列表,按相似度从大到小排序。用户提交任意媒体数据作为查询样例,系统自动从跨媒体数据集中检索出另一种媒体的相关结果。例如提交一段北京大学的介绍音频作为查询,除了能搜索出相关的音频结果以外,还能自动检索出所有相关的文本、图像、视频和3D。
下面的实验结果表明,与现有方法相比,本发明基于统一关联超图规约的跨媒体检索方法,可以取得更高的检索准确率。
本实施例中的数据集为XMedia异构媒体数据集进行实验,该数据集由文献“Learning cross-media joint representation with sparse and semi-supervisedregularization”(作者X.Zhai,Y.Peng,and J.Xiao,发表在2014年的IEEE Transactionson Circuits and Systems for Video Technology)提出,包括5种媒体类型:图像、文本、视频、音频、3D。数据量分别为:5000段文本,5000张图像,1000段音频,500段视频和500个3D模型。该数据集包含20个不同的类别,每个类别具有同样的媒体类型数量,即250段文本,250张图像,50段音频,25段视频和25个3D模型。通过随机选取,将数据集的80%作为训练集,剩余20%作为测试集。我们测试了以下3种方法作为实验对比:
现有方法一:文献“Relations between two sets of variates”(作者H.Hotelling.)中的典型相关分析(CCA)方法,可以同时分析两组变量之间的相关性,学习出映射子空间使得在子空间中两组变量的相关性最大,这是跨媒体检索领域的典型方法,也是很多涉及两种数据建模工作的基本方法;
现有方法二:文献“A New Approach to Cross-Modal Multimedia Retrieval”(作者N.Rasiwasia,J.Pereira,E.Coviello,G.Doyle,G.Lanckriet,R.Levy和N.Vasconcelos,发表在2010年的ACM international conference on Multimedia)中的方法,该方法先对不同媒体数据使用CCA学习其关联,再在CCA学习到的子空间中使用逻辑回归,对数据进行语义表示;
本发明:本实施例的方法。
实验采用信息检索领域常用的MAP(mean average precision)指标来评测跨媒体检索的准确性,MAP是指每个查询样例检索准确性的平均值,MAP值越大,说明跨媒体检索的结果就越好。
表1.与现有方法的对比实验结果
从表1可以看出,本发明的方法取得了最好的跨媒体检索结果。对比方法中,方法一只建模了跨媒体数据的一一对应关系,不能对数据的语义信息进行有效建模。另外,该方法一次只能建模两种媒体,对多种媒体之间的校正作用的利用不足。方法二在方法一的基础上引入了高层语义信息,取得了更好的效果,但一方面只使用了标注样本的信息,没有使用未标注样本,从而训练数据的多样性受到限制;另一方面,其并没有对所有媒体统一建模,不能同时对所有媒体学习映射,利用的关联信息有限,因此取得的提升不够明显。本发明的方法不仅考虑了未标注样本,也能同时将所有媒体数据统一建模到一张关联超图中,提高了建模的统一性和信息的多样性。本发明同时采用了稀疏规约项,起到了抑制噪声的作用。因为上述优势,本方法在上述所有检索任务上都取得了显著的提高。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种基于统一关联超图规约的跨媒体检索方法,包括以下步骤:
(1)建立包含多种媒体类型的跨媒体数据集,提取每种媒体类型数据的特征向量;
(2)通过跨媒体数据集,同时为所有媒体类型学习得到统一特征表示映射矩阵;该步骤首先构建跨媒体统一关联超图,然后定义基于统一关联超图规约的目标函数,使得映射后的特征空间分布符合已知的跨媒体关联;所述目标函数为:
其中,定义为第r种媒体类型中的第p个数据的特征向量,其表示结构为一个d(r)×1的向量,其中d(r)表示第r种媒体的特征向量维度;定义的语义标签定义为其表示结构为一个c×1的向量,其中c表示语义类别的总量,中有且只有一维为1,其余为0,表示该数据的语义类别值为1的列所对应的标签;P(1),...,P(s)为跨媒体数据集中所有s种媒体类型的映射矩阵,其中上标(s)表示第s种媒体类型的映射矩阵,矩阵的维度为d(s)×c,将原始的特征向量从d(s)维的空间映射到一个统一的c维的统一空间中;PT表示矩阵P的转置;即为数据通过映射矩阵变换到统一空间后的向量,维度为c×1;1c表示一个c×1的全1列向量,b为偏移项,用于构造线性规约模型;||Z||F表示矩阵Z的Frobenius范数,其定义为:上式中λ表示权重参数,||Z||2,1表示矩阵Z的l2,1范数,其定义为:最小化||Z||2,1能够使得矩阵Z具有稀疏性;n(r)为第r种媒体类型的数据个数;Ω(O)为跨媒体统一关联超图规约项,O代表所有映射到统一空间后的媒体数据;
(3)根据映射矩阵,将不同媒体类型映射到统一空间,在统一空间中计算媒体数据间的相似性;
(4)进行跨媒体检索时,以任意一种媒体类型作为查询,按照步骤(3)计算其与作为查询目标的媒体类型数据的相似性,并根据相似性从大到小排序,最终输出检索结果。
2.如权利要求1所述的方法,其特征在于,步骤(1)所述多种媒体类型为如下五种媒体类型中的一种或多种:图像、文本、视频、音频和3D模型。
3.如权利要求1所述的方法,其特征在于,步骤(1)对五种媒体提取的特征向量具体为:文本数据是提取隐狄雷克雷分布特征向量;图像数据是提取词袋特征向量;视频数据是提取关键帧后,对关键帧提取词袋特征向量;音频数据是提取其梅尔频率倒谱系数特征向量;3D数据是提取其光场特征向量。
4.如权利要求1所述的方法,其特征在于,步骤(2)中统一特征表示映射矩阵的学习方法是在同一张超图中统一建模所有媒体类型,而不是对每种媒体类型分别建模;具体地,该方法将所有媒体映射到统一空间后的点作为超图顶点,将每个顶点的k近邻作为超边建立统一关联超图,利用媒体内部和媒体之间的关联关系,使得映射后的特征空间分布符合已知的跨媒体关联。
5.如权利要求1所述的方法,其特征在于,第三项目标函数Ω(O)用于表示复杂的跨媒体关联关系,使得得到的特征能够反映已知的跨媒体关联;统一关联超图的建法为:
定义统一关联超图G={V,E,H,w},其中V为点集,E为超边集,H为关联矩阵,w为超边权重集;V,E,H,w的构造方法如下:
V:所有映射到统一空间后的媒体数据;
E:对于V中的任意一点vi,将其k近邻使用一条超边连接,如此构成超边集;
H:对于V中的任意一点vi及E中任意一条超边ej,若vi∈ej,则令Hij=1,否则Hij=0;
w:本方法中,令所有超边的权重wj均为1;
该规约项的定义为:
其中,分别代表第r种、第k种媒体的所有数据构成的矩阵;Lrk代表在统一关联超图的拉普拉斯L中,按照对应媒体类型r的行以及对应媒体类型k的列所取出的子矩阵。
6.如权利要求1所述方法,其特征在于,所述步骤(3)的跨媒体相似性定义为两个媒体数据属于同一语义类别的概率,计算两种媒体同属于类别t的概率的公式为:
其中,由于在统一空间中已经不存在媒体类型的区别,这里仅仅用xp代表一个媒体数据,用yp代表其语义类别,op代表其统一特征表示,Nk(op)表示数据op在统一空间中的k近邻,o表示k近邻中的每一个媒体数据,而y表示每一个媒体数据的语义类别,σ(z)=(1+exp(-z))-1为sigmoid函数。
7.如权利要求6所述方法,其特征在于,所述步骤(3)的跨媒体相似性方法计算中,计算两种媒体的相似度方法为:
8.如权利要求1中所述的方法,其特征在于,所述步骤(4)中的跨媒体检索是指,提交任意一种媒体类型作为查询,返回的检索结果是另一种媒体的数据,并对返回的数据进行相似性的排序,用户所看到的是返回数据及其相似性构成的列表,从相似度从大到小排序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610028560.7A CN105701225B (zh) | 2016-01-15 | 2016-01-15 | 一种基于统一关联超图规约的跨媒体检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610028560.7A CN105701225B (zh) | 2016-01-15 | 2016-01-15 | 一种基于统一关联超图规约的跨媒体检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105701225A CN105701225A (zh) | 2016-06-22 |
CN105701225B true CN105701225B (zh) | 2019-02-01 |
Family
ID=56227560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610028560.7A Active CN105701225B (zh) | 2016-01-15 | 2016-01-15 | 一种基于统一关联超图规约的跨媒体检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701225B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106682095B (zh) * | 2016-12-01 | 2019-11-08 | 浙江大学 | 基于图的主题描述词预测及排序方法 |
CN107357884A (zh) * | 2017-07-10 | 2017-11-17 | 中国人民解放军国防科学技术大学 | 一种基于双向学习排序的跨媒体的不同距离度量方法 |
CN108132968B (zh) * | 2017-12-01 | 2020-08-04 | 西安交通大学 | 网络文本与图像中关联语义基元的弱监督学习方法 |
CN109992676B (zh) * | 2019-04-01 | 2020-12-25 | 中国传媒大学 | 一种跨媒体资源检索方法及检索系统 |
CN110866129A (zh) * | 2019-11-01 | 2020-03-06 | 中电科大数据研究院有限公司 | 一种基于跨媒体统一表征模型的跨媒体检索方法 |
CN114781642B (zh) * | 2022-06-17 | 2022-09-23 | 之江实验室 | 一种跨媒体对应知识的生成方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663010A (zh) * | 2012-03-20 | 2012-09-12 | 复旦大学 | 基于标注语义的个性化图像浏览与推荐方法及系统 |
CN103049526A (zh) * | 2012-12-20 | 2013-04-17 | 中国科学院自动化研究所 | 基于双空间学习的跨媒体检索方法 |
CN103473307A (zh) * | 2013-09-10 | 2013-12-25 | 浙江大学 | 跨媒体稀疏哈希索引方法 |
CN104166684A (zh) * | 2014-07-24 | 2014-11-26 | 北京大学 | 一种基于统一稀疏表示的跨媒体检索方法 |
-
2016
- 2016-01-15 CN CN201610028560.7A patent/CN105701225B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663010A (zh) * | 2012-03-20 | 2012-09-12 | 复旦大学 | 基于标注语义的个性化图像浏览与推荐方法及系统 |
CN103049526A (zh) * | 2012-12-20 | 2013-04-17 | 中国科学院自动化研究所 | 基于双空间学习的跨媒体检索方法 |
CN103473307A (zh) * | 2013-09-10 | 2013-12-25 | 浙江大学 | 跨媒体稀疏哈希索引方法 |
CN104166684A (zh) * | 2014-07-24 | 2014-11-26 | 北京大学 | 一种基于统一稀疏表示的跨媒体检索方法 |
Non-Patent Citations (4)
Title |
---|
A Low Rank Structural Large Margin Method for Cross-Modal Ranking;Xinyan Lu, et.al;《SIGIR"13》;20130801;全文 * |
Learning Cross-Media Joint Representation With Sparse and Semisupervised Regularization;Xiaohua Zhai, et.al;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20140630;全文 * |
基于超图融合语义信息的图像场景分类方法;徐杰;《中国优秀硕士学位论文全文数据库》;20140615(第2014年06期);全文 * |
多媒体技术研究:2012--多媒体数据索引与检索技术研究进展;中国计算机学会多媒体专业委员会;《中国图象图形学报》;20131116(第2013年11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN105701225A (zh) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701225B (zh) | 一种基于统一关联超图规约的跨媒体检索方法 | |
CN107562812B (zh) | 一种基于特定模态语义空间建模的跨模态相似性学习方法 | |
CN105718532B (zh) | 一种基于多深度网络结构的跨媒体排序方法 | |
Wang et al. | Learning common and specific features for RGB-D semantic segmentation with deconvolutional networks | |
CN110008338B (zh) | 一种融合gan和迁移学习的电商评价情感分析方法 | |
CN106295796B (zh) | 基于深度学习的实体链接方法 | |
CN112905822B (zh) | 一种基于注意力机制的深度监督跨模态对抗学习方法 | |
CN106202256B (zh) | 基于语义传播及混合多示例学习的Web图像检索方法 | |
Saito et al. | Illustration2vec: a semantic vector representation of illustrations | |
Qian et al. | Enhancing sketch-based image retrieval by re-ranking and relevance feedback | |
CN112819023B (zh) | 样本集的获取方法、装置、计算机设备和存储介质 | |
CN112417306B (zh) | 基于知识图谱的推荐算法性能优化的方法 | |
CN111782833B (zh) | 基于多模型网络的细粒度跨媒体检索方法 | |
CN104166684A (zh) | 一种基于统一稀疏表示的跨媒体检索方法 | |
CN105138977A (zh) | 一种大数据环境下的人脸识别方法 | |
CN108388639B (zh) | 一种基于子空间学习与半监督正则化的跨媒体检索方法 | |
CN109101490B (zh) | 一种基于融合特征表示的事实型隐式情感识别方法和系统 | |
CN111444342A (zh) | 一种基于多重弱监督集成的短文本分类方法 | |
CN112800249A (zh) | 基于生成对抗网络的细粒度跨媒体检索方法 | |
CN111222318A (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
Wang et al. | Norm-guided Adaptive Visual Embedding for Zero-Shot Sketch-Based Image Retrieval. | |
Cao et al. | Automatic image annotation method based on a convolutional neural network with threshold optimization | |
CN108595546A (zh) | 基于半监督的跨媒体特征学习检索方法 | |
Han et al. | Multi-scale feature network for few-shot learning | |
Padala et al. | Effect of input noise dimension in GANs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |