CN104317834A - 一种基于深度神经网络的跨媒体排序方法 - Google Patents
一种基于深度神经网络的跨媒体排序方法 Download PDFInfo
- Publication number
- CN104317834A CN104317834A CN201410531101.1A CN201410531101A CN104317834A CN 104317834 A CN104317834 A CN 104317834A CN 201410531101 A CN201410531101 A CN 201410531101A CN 104317834 A CN104317834 A CN 104317834A
- Authority
- CN
- China
- Prior art keywords
- text
- image
- neural network
- deep neural
- media
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于深度神经网络的跨媒体排序方法。包括如下步骤:1)将文本检索图像的排序样本或图像检索文本的排序样本构建为训练样本;2)对构建得到的训练样本进行基于深度神经网络的跨媒体排序学习,得到多媒体语义空间以及跨媒体排序模型;3)使用学习得到的跨媒体排序模型进行跨媒体检索。本发明由于使用了跨媒体排序数据驱动的深度神经网络,因此得到的检索模型的语义理解能力更强,在图像检索文本或文本检索图像中所取得性能较传统的浅层模型方法更好。
Description
技术领域
本发明涉及跨媒体检索,尤其涉及一种基于深度神经网络的跨媒体排序方法。
背景技术
图像具有丰富语义。一般来说,图像由一个个的像素点组成,计算机并不能直接理解图像所蕴含的语义信息。随着多媒体技术和网络技术的发展,越来越多的图像涌现出来。检索技术可以帮助用户从海量数据中快速查找到自己感兴趣的内容,成为计算机应用技术中越来越重要的领域。传统的检索技术,无论是基于关键词的检索还是基于内容的检索,都不能很好地满足用户希望用文本检索图像或者图像检索文本的需求。在基于关键词的检索系统中,需要事先对图像进行标注。但是目前存在的图像数量巨大,使得标注过程工程量浩繁。并且,由于标注内容不可避免地会受到标注者主观因素的影响,针对同一个图像,不同的标注者可能会标注不同的关键词,因此关键词往往不能客观反映图像所蕴含的全部语义。基于内容的图像检索技术则不需要对图像进行标注,基于比较用户提交的检索样例与被检索图像之间的相似度来实现图像检索,但是传统基于内容的图像检索技术存在两个弱点:一是用户只能检索与查询例子属于同一类型的媒体对象,如只能通过图像检索图像;二是图像的底层特征和高层语义存在语义鸿沟,即底层特征无法直接反映高层语义,因此检索性能受到限制。为了跨越不同模态数据间的语义鸿沟,更好地理解多媒体语义,同时为了满足用户跨媒体查询的需求,寻求一种基于语义的跨媒体排序方法颇有意义。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于深度神经网络的跨媒体排序方法。
基于深度神经网络的跨媒体排序方法包括如下步骤:
1)将文本检索图像的排序样本或者图像检索文本的排序样本构建为训练样本;
2)对构建得到的训练样本进行基于深度神经网络的跨媒体排序学习,得到多媒体语义空间以及跨媒体排序模型;
3)使用学习得到的跨媒体排序模型进行跨媒体检索:用户提交查询文档后,将查询文档和候选文档同时输入到所提出的深度神经网络中,根据深度神经网络输出的排序分数从大到小对所有跨媒体对象进行排序,得到跨媒体检索结果。所述的步骤1)包括:
1)对训练样本里的所有文本文档利用词袋模型进行特征表达,文本最终被表示为t∈Rm,其中m为文本空间的维数;
2)将训练样本里的所有图像文档缩放,使具有相同的宽度w和高度h,使用每个像素点的RGB通道值来表示每个像素,将所有像素拉成一个向量,则图像最终被表示为p∈R3×w×h;
3)对文本检索图像方向而言,对每一个查询文本文档,构建一个候选图像文档的排序列表,其中列表中的图像被标记为查询语义相关或者语义不相关,因此每个文本检索图像的训练样本被表示为三元组其中N为训练样本个数,ti为检索文本,pi为图像集合,是图像集合上的排序,y表示整个排序空间;
4)对图像检索文本方向而言,对每一个查询文档(图像),构建一个候选文本文档的排序列表,其中列表中的文本文档被标记为查询语义相关或者语义不相关,每个图像检索文本的训练样本被表示为三元组M为训练样本个数,pj为检索图像,tj是文本文档集合,是文本文档集合上的排序。
所述的步骤2)包括:
1)使用深度结构语义网络对文本进行建模,对每个文本,深度结构语义网络顶层输出一个k维的向量;
2)使用深度卷积网络对图像进行建模,对每个图像,深度卷积网络顶层输出一个k维的向量;
3)对候选文档所对应的深度神经网络,在原顶层之后添加仅有一个节点的排序分数层作为新的顶层,其中连接排序分数层和原顶层的权重参数被设置为查询文档对应深度神经网络所输出的k维向量;
4)构建一个目标函数,使得神经网络输出的候选文档集合的排序和训练集合中的排序一致,对第i个训练样本定义的损失函数为:
其中,n(i)是第i个训练样本中候选文档的个数, 分别是训练集中的排序分数列表、深度神经网络输出的排序分数列表,以及
5)输入排序样本作为优化问题的训练样本,根据损失函数对深度神经网络进行反向回馈以得到深度神经网络的各层的参数,根据学习得到的深度神经网络的参数,提取图像文档和文本文档在语义空间中的k维表达。
本发明与背景技术相比,具有的有益的效果是:
本发明针对跨媒体排序训练样本提出了一种新的基于语义内容的检索方法。由于该方法融合了深度学习和排序学习两种机制,不仅充分利用了跨媒体排序训练样本,而且深度神经网络的训练针对排序性能进行直接优化,因此能学习得到更好的特征表达,具有更好的排序性能。
附图说明
图1是基于深度神经网络的跨媒体排序方法示意图。
具体实施方式
基于深度神经网络的跨媒体排序方法包括如下步骤:
1)将文本检索图像的排序样本或者图像检索文本的排序样本构建为训练样本;
2)对构建得到的训练样本进行基于深度神经网络的跨媒体排序学习,得到多媒体语义空间以及跨媒体排序模型;
3)使用学习得到的跨媒体排序模型进行跨媒体检索:用户提交查询文档后,将查询文档和候选文档同时输入到所提出的深度神经网络中,根据深度神经网络输出的排序分数从大到小对所有跨媒体对象进行排序,得到跨媒体检索结果。所述的步骤1)包括:
1)对训练样本里的所有文本文档利用词袋模型进行特征表达,文本最终被示为t∈Rm,其中m为文本空间的维数;
2)将训练样本里的所有图像文档缩放,使具有相同的宽度w和高度h,使用每个像素点的RGB通道值来表示每个像素,将所有像素拉成一个向量,则图像最终被表示为pR3×w×h;
3)对文本检索图像方向而言,对每一个查询文本文档,构建一个候选图像文
档的排序列表,其中列表中的图像被标记为查询语义相关或者语义不相关,因此每个文本检索图像的训练样本被表示为三元组其中N为训练样本个数,ti为检索文本,pi为图像集合,是图像集合上的排序,y表示整个排序空间;
4)对图像检索文本方向而言,对每一个查询文档(图像),构建一个候选文本文档的排序列表,其中列表中的文本文档被标记为查询语义相关或者语义不相关,每个图像检索文本的训练样本被表示为三元组M为训练样本个数,pj为检索图像,tj是文本文档集合,是文本文档集合上的排序。
所述的步骤2)包括:
1)使用深度结构语义网络对文本进行建模,对每个文本,深度结构语义网络顶层输出一个k维的向量;
2)使用深度卷积网络对图像进行建模,对每个图像,深度卷积网络顶层输出一个k维的向量;
3)对候选文档所对应的深度神经网络,在原顶层之后添加仅有一个节点的排序分数层作为新的顶层,其中连接排序分数层和原顶层的权重参数被设置为查询文档对应深度神经网络所输出的k维向量;
4)构建一个目标函数,使得神经网络输出的候选文档集合的排序和训练集合中的排序一致,对第i个训练样本定义的损失函数为:
其中,n(i)是第i个训练样本中候选文档的个数,和分别是训练集中的排序分数列表、深度神经网络输出的排序分数列表,以及
5)输入排序样本作为优化问题的训练样本,根据损失函数对深度神经网络进行反向回馈以得到深度神经网络的各层的参数,根据学习得到的深度神经网络的参数,提取图像文档和文本文档在语义空间中的维表达。求解深度神经网络参数的具体算法如下:
实施例
为了验证本发明的效果,从“维基百科-每日一图”的网页上抓取约2900个网页,分为10个大类,每个网页包含了一张图像以及几段相关的描述文本,以此作为数据集进行实验。如果图像和文本都归属于10大类中的一类,则认为图像和文本相关,否则不相关。将数据集划分为训练集和测试集,本发明在训练集上进行训练,然后在测试集上进行独立评价。对于特征提取按照本发明所说步骤进行,其中去除常见词和生僻词后文本空间设定为5000维。为了客观地评价本发明的算法的性能,使用平均准确率(Mean Average Precision,MAP)对本发明进行评价。MAP的结果如表1所示:
MAP50 | MAPall | |
文本查询图像 | 0.2712 | 0.1649 |
图像查询文本 | 0.2563 | 0.2216 |
表1
其中MAP50是前50个返回结果计算得到的MAP值,MAPall是所有返回结果计算得到的MAP值。
Claims (3)
1.一种基于深度神经网络的跨媒体排序方法,其特征在于包括如下步骤:
1)将文本检索图像的排序样本或者图像检索文本的排序样本构建为训练样本;
2)对构建得到的训练样本进行基于深度神经网络的跨媒体排序学习,得到多媒体语义空间以及跨媒体排序模型;
3)使用学习得到的跨媒体排序模型进行跨媒体检索:用户提交查询文档后,将查询文档和候选文档同时输入到所提出的深度神经网络中,根据深度神经网络输出的排序分数从大到小对所有跨媒体对象进行排序,得到跨媒体检索结果。
2.根据权利要求1所述的一种基于深度神经网络的跨媒体排序方法,其特征在于,所述的步骤1)包括:
1)对训练样本里的所有文本文档利用词袋模型进行特征表达,文本最终被表示为t∈Rm,其中m为文本空间的维数;
2)将训练样本里的所有图像文档缩放,使具有相同的宽度ω和高度h,使用每个像素点的RGB通道值来表示每个像素,将所有像素拉成一个向量,则图像最终被表示为p∈R3×ω×h;
3)对文本检索图像方向而言,对每一个查询文本文档,构建一个候选图像文档的排序列表,其中列表中的图像被标记为查询语义相关或者语义不相关,因此每个文本检索图像的训练样本被表示为三元组其中N为训练样本个数,ti为检索文本,pi为图像集合,是图像集合上的排序,y表示整个排序空间;
4)对图像检索文本方向而言,对每一个查询文档(图像),构建一个候选文本文档的排序列表,其中列表中的文本文档被标记为查询语义相关或者语义不相关,每个图像检索文本的训练样本被表示为三元组M为训练样本个数,pj为检索图像,tj是文本文档集合,是文本文档集合上的排序。
3.根据权利要求1所述的一种基于深度神经网络的跨媒体排序方法,其特征在于,所述的步骤2)包括:
1)使用深度结构语义网络对文本进行建模,对每个文本,深度结构语义网络顶层输出一个k维的向量;
2)使用深度卷积网络对图像进行建模,对每个图像,深度卷积网络顶层输出一个k维的向量;
3)对候选文档所对应的深度神经网络,在原顶层之后添加仅有一个节点的排序分数层作为新的顶层,其中连接排序分数层和原顶层的权重参数被设置为查询文档对应深度神经网络所输出的k维向量;
4)构建一个目标函数,使得神经网络输出的候选文档集合的排序和训练集合中的排序一致,对第i个训练样本定义的损失函数为:
其中,n(i)是第i个训练样本中候选文档的个数,和分别是训练集中的排序分数列表、深度神经网络输出的排序分数列表,以及
5)输入排序样本作为优化问题的训练样本,根据损失函数对深度神经网络进行反向回馈以得到深度神经网络的各层的参数,根据学习得到的深度神经网络的参数,提取图像文档和文本文档在语义空间中的k维表达。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410531101.1A CN104317834B (zh) | 2014-10-10 | 2014-10-10 | 一种基于深度神经网络的跨媒体排序方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410531101.1A CN104317834B (zh) | 2014-10-10 | 2014-10-10 | 一种基于深度神经网络的跨媒体排序方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104317834A true CN104317834A (zh) | 2015-01-28 |
CN104317834B CN104317834B (zh) | 2017-09-29 |
Family
ID=52373066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410531101.1A Expired - Fee Related CN104317834B (zh) | 2014-10-10 | 2014-10-10 | 一种基于深度神经网络的跨媒体排序方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104317834B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915448A (zh) * | 2015-06-30 | 2015-09-16 | 中国科学院自动化研究所 | 一种基于层次卷积网络的实体与段落链接方法 |
CN106021364A (zh) * | 2016-05-10 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 图片搜索相关性预测模型的建立、图片搜索方法和装置 |
CN106095829A (zh) * | 2016-06-01 | 2016-11-09 | 华侨大学 | 基于深度学习与一致性表达空间学习的跨媒体检索方法 |
WO2016192465A1 (zh) * | 2015-06-05 | 2016-12-08 | 北京京东尚科信息技术有限公司 | 基于商品图像特征的个性化搜索装置及方法 |
CN106294635A (zh) * | 2016-08-02 | 2017-01-04 | 北京百度网讯科技有限公司 | 应用程序搜索方法、深度神经网络模型的训练方法及装置 |
CN106777402A (zh) * | 2017-03-10 | 2017-05-31 | 山东师范大学 | 一种基于稀疏神经网络的图像检索文本方法 |
CN106897254A (zh) * | 2015-12-18 | 2017-06-27 | 清华大学 | 一种网络表示学习方法 |
CN107203600A (zh) * | 2017-05-12 | 2017-09-26 | 浙江大学 | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 |
CN107357884A (zh) * | 2017-07-10 | 2017-11-17 | 中国人民解放军国防科学技术大学 | 一种基于双向学习排序的跨媒体的不同距离度量方法 |
WO2018010365A1 (zh) * | 2016-07-11 | 2018-01-18 | 北京大学深圳研究生院 | 一种跨媒体检索方法 |
CN107657008A (zh) * | 2017-09-25 | 2018-02-02 | 中国科学院计算技术研究所 | 基于深度判别排序学习的跨媒体训练及检索方法 |
CN108399414A (zh) * | 2017-02-08 | 2018-08-14 | 南京航空航天大学 | 样本选择方法及装置 |
WO2018188240A1 (zh) * | 2017-04-10 | 2018-10-18 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN110222838A (zh) * | 2019-04-30 | 2019-09-10 | 北京三快在线科技有限公司 | 深度神经网络及其训练方法、装置、电子设备及存储介质 |
WO2020001048A1 (zh) * | 2018-06-29 | 2020-01-02 | 北京大学深圳研究生院 | 一种基于双语义空间的对抗性跨媒体检索方法 |
CN115712740A (zh) * | 2023-01-10 | 2023-02-24 | 苏州大学 | 多模态蕴含增强图像文本检索的方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1920818A (zh) * | 2006-09-14 | 2007-02-28 | 浙江大学 | 基于多模态信息融合分析的跨媒体检索方法 |
CN103559191A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 基于隐空间学习和双向排序学习的跨媒体排序方法 |
-
2014
- 2014-10-10 CN CN201410531101.1A patent/CN104317834B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1920818A (zh) * | 2006-09-14 | 2007-02-28 | 浙江大学 | 基于多模态信息融合分析的跨媒体检索方法 |
CN103559191A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 基于隐空间学习和双向排序学习的跨媒体排序方法 |
Non-Patent Citations (5)
Title |
---|
HUIJIE LIN ET AL.: "Psychological stress detection from cross-media microblog data using Deep Sparse Neural Network", 《MULTIMEDIA AND EXPO(ICME),2014 IEEE INTERNATIONAL CONFERENCE ON》 * |
XINYAN LU ET AL.: "A Low Rank Structural Large Margin Method for Cross-Modal Ranking", 《PROCEEDINGS OF THE 36TH ANNUAL INTERNATIONAL ACMSIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION RETRIEVAL》 * |
YI YANG ET AL.: "Harmonizing Hierarchical Manifolds for Multimedia Document Semantics Understanding and Cross-Media Retrieval", 《IEEE TRANSLATION ON MULTIMEDIA》 * |
YUE-TING ZHUANG ET AL.: "Mining Semantic Correlation of Heterogeneous Multimedia Data for Cross-Media Retrieval", 《IEEE TRANSLATION ON MULTIMEDIA》 * |
吴飞等: "互联网跨媒体分析与检索:理论与算法", 《计算机辅助设计与图形学学报》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2697739C2 (ru) * | 2015-06-05 | 2019-08-19 | Бейджин Цзиндун Шанкэ Информейшн Текнолоджи Ко., Лтд. | Устройство и способ персонализированного поиска на основе признаков изображения продукта |
WO2016192465A1 (zh) * | 2015-06-05 | 2016-12-08 | 北京京东尚科信息技术有限公司 | 基于商品图像特征的个性化搜索装置及方法 |
CN104915448A (zh) * | 2015-06-30 | 2015-09-16 | 中国科学院自动化研究所 | 一种基于层次卷积网络的实体与段落链接方法 |
CN104915448B (zh) * | 2015-06-30 | 2018-03-27 | 中国科学院自动化研究所 | 一种基于层次卷积网络的实体与段落链接方法 |
CN106897254A (zh) * | 2015-12-18 | 2017-06-27 | 清华大学 | 一种网络表示学习方法 |
CN106897254B (zh) * | 2015-12-18 | 2020-01-21 | 清华大学 | 一种网络表示学习方法 |
US10354170B2 (en) | 2016-05-10 | 2019-07-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus of establishing image search relevance prediction model, and image search method and apparatus |
CN106021364A (zh) * | 2016-05-10 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 图片搜索相关性预测模型的建立、图片搜索方法和装置 |
CN106095829A (zh) * | 2016-06-01 | 2016-11-09 | 华侨大学 | 基于深度学习与一致性表达空间学习的跨媒体检索方法 |
CN106095829B (zh) * | 2016-06-01 | 2019-08-06 | 华侨大学 | 基于深度学习与一致性表达空间学习的跨媒体检索方法 |
WO2018010365A1 (zh) * | 2016-07-11 | 2018-01-18 | 北京大学深圳研究生院 | 一种跨媒体检索方法 |
CN106294635B (zh) * | 2016-08-02 | 2019-09-03 | 北京百度网讯科技有限公司 | 应用程序搜索方法、深度神经网络模型的训练方法及装置 |
CN106294635A (zh) * | 2016-08-02 | 2017-01-04 | 北京百度网讯科技有限公司 | 应用程序搜索方法、深度神经网络模型的训练方法及装置 |
CN108399414B (zh) * | 2017-02-08 | 2021-06-01 | 南京航空航天大学 | 应用于跨模态数据检索领域的样本选择方法及装置 |
CN108399414A (zh) * | 2017-02-08 | 2018-08-14 | 南京航空航天大学 | 样本选择方法及装置 |
CN106777402A (zh) * | 2017-03-10 | 2017-05-31 | 山东师范大学 | 一种基于稀疏神经网络的图像检索文本方法 |
CN108694200A (zh) * | 2017-04-10 | 2018-10-23 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
WO2018188240A1 (zh) * | 2017-04-10 | 2018-10-18 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN108694200B (zh) * | 2017-04-10 | 2019-12-20 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
CN107203600A (zh) * | 2017-05-12 | 2017-09-26 | 浙江大学 | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 |
CN107203600B (zh) * | 2017-05-12 | 2020-09-18 | 浙江大学 | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 |
CN107357884A (zh) * | 2017-07-10 | 2017-11-17 | 中国人民解放军国防科学技术大学 | 一种基于双向学习排序的跨媒体的不同距离度量方法 |
CN107657008A (zh) * | 2017-09-25 | 2018-02-02 | 中国科学院计算技术研究所 | 基于深度判别排序学习的跨媒体训练及检索方法 |
CN107657008B (zh) * | 2017-09-25 | 2020-11-03 | 中国科学院计算技术研究所 | 基于深度判别排序学习的跨媒体训练及检索方法 |
WO2020001048A1 (zh) * | 2018-06-29 | 2020-01-02 | 北京大学深圳研究生院 | 一种基于双语义空间的对抗性跨媒体检索方法 |
CN110222838A (zh) * | 2019-04-30 | 2019-09-10 | 北京三快在线科技有限公司 | 深度神经网络及其训练方法、装置、电子设备及存储介质 |
CN110222838B (zh) * | 2019-04-30 | 2021-07-20 | 北京三快在线科技有限公司 | 文档排序方法、装置、电子设备及存储介质 |
CN115712740A (zh) * | 2023-01-10 | 2023-02-24 | 苏州大学 | 多模态蕴含增强图像文本检索的方法和系统 |
CN115712740B (zh) * | 2023-01-10 | 2023-06-06 | 苏州大学 | 多模态蕴含增强图像文本检索的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104317834B (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104317834A (zh) | 一种基于深度神经网络的跨媒体排序方法 | |
US10146862B2 (en) | Context-based metadata generation and automatic annotation of electronic media in a computer network | |
CN108280114B (zh) | 一种基于深度学习的用户文献阅读兴趣分析方法 | |
CN107180045B (zh) | 一种互联网文本蕴含地理实体关系的抽取方法 | |
CN101364239B (zh) | 一种分类目录自动构建方法及相关系统 | |
CN103559191B (zh) | 基于隐空间学习和双向排序学习的跨媒体排序方法 | |
CN102982153B (zh) | 一种信息检索方法及其装置 | |
CN101127042A (zh) | 一种基于语言模型的情感分类方法 | |
Foley et al. | Learning to extract local events from the web | |
CN103064903B (zh) | 图片检索方法和装置 | |
CN110888991B (zh) | 一种弱标注环境下的分段式语义标注方法 | |
CN101320375A (zh) | 基于用户点击行为的数字图书搜索方法 | |
CN103914478A (zh) | 网页训练方法及系统、网页预测方法及系统 | |
CN104090936B (zh) | 一种基于超图排序的新闻推荐方法 | |
CN105426529A (zh) | 基于用户搜索意图定位的图像检索方法及系统 | |
CN101751439A (zh) | 基于层次聚类的图像检索方法 | |
CN108090223B (zh) | 一种基于互联网信息的开放学者画像方法 | |
CN110134799B (zh) | 一种基于bm25算法的文本语料库的搭建和优化方法 | |
TWI743623B (zh) | 基於人工智慧的商務智慧系統及其分析方法 | |
CN104298776A (zh) | 基于lda模型的搜索引擎结果优化系统 | |
CN105512333A (zh) | 基于情感倾向的产品评论主题搜索方法 | |
CN112507109A (zh) | 一种基于语义分析与关键词识别的检索方法和装置 | |
Wang et al. | Constructing a comprehensive events database from the web | |
CN111104492B (zh) | 一种基于层次化Attention机制的民航领域自动问答方法 | |
KR102434880B1 (ko) | 멀티미디어 플랫폼 기반 지식 공유 서비스 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170929 Termination date: 20181010 |
|
CF01 | Termination of patent right due to non-payment of annual fee |