CN104156433B - 一种基于语义映射空间构建的图像检索方法 - Google Patents
一种基于语义映射空间构建的图像检索方法 Download PDFInfo
- Publication number
- CN104156433B CN104156433B CN201410393094.3A CN201410393094A CN104156433B CN 104156433 B CN104156433 B CN 104156433B CN 201410393094 A CN201410393094 A CN 201410393094A CN 104156433 B CN104156433 B CN 104156433B
- Authority
- CN
- China
- Prior art keywords
- semantic
- image
- semantic concept
- formula
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于语义映射空间的图像检索方法,其特征是按如下步骤进行:步骤1、学习语义映射空间;步骤2、估计每个未标注图像的语义概念;步骤3、将语义空间中语义概念对应的图像进行升序排列;步骤4、输入待检索的文本查询词,返回语义概念所对应的图像。本发明能有效地提高图像检索的准确性。
Description
技术领域
本发明属于信息检索技术领域,主要涉及一种基于语义映射空间构建的图像检索方法。
背景技术
21世纪是信息时代,计算机和网络技术进一步普及和快速发展,互联网上以图像为代表的多媒体数据呈现爆炸式地增长。因此,图像检索技术受到了来自不同领域的研究人员越来越多的关注,研究人员旨在给用户提供更优质的图像浏览和检索服务,以提高图像检索的用户满意度。
主流的图像检索方法当前可以分为两类:基于文本的图像检索和基于内容的图像检索。
基于文本的图像检索方法通常利用文本信息来描述图像内容,使用简短的注释或者文本标签来对数据库中的图像进行索引。基于文本的图像检索方法的有效性严重依赖于检索算法的性能以及文本标注的准确性。然而,对互联网时代的大规模网络图像进行标注却是一件极其耗费人力物力的事情,随着网络图像数据的规模呈几何级数式地增长,基于文本的图像检索方法已经不再适用。
基于内容的图像检索方法是一种“以图搜图”的方法,主要存在两个问题:首先,每次查询用户都被要求提高一个事例图像;其次,视觉查询由于众所周知“语义鸿沟”的存在,其无法表示高层语义概念。
因此,目前的网络图像检索方法都不再满足实际需求,导致目前网络图像检索的准确度不高,效率低下。
发明内容
本发明旨在解决当前网络图像检索准确度不高以及效率低下的问题,提出了一种基于语义映射空间构建的图像检索方法,能有效地提高图像检索的准确性。
本发明为解决技术问题采用如下技术方案:
本发明一种基于语义映射空间的图像检索方法的特点是按如下步骤进行:
步骤1、学习语义映射空间
步骤1.1、从网络图像数据集中获取训练图像数据集与未标注图像数据集,所述训练图像数据集包括n幅训练图像;所述未标注图像数据集包括m幅未标注图像;获取与所述n幅训练图像相对应的语义概念,并令相同的语义概念用一个索引号来索引,从而获得语义概念集G={g1,g2,…,gγ,…,gc},γ为索引号,γ∈{1,2,…c},c表征所述语义概念的个数,c≤n;
步骤1.2、提取所述训练图像数据集和所述未标注图像数据集中每幅训练图像和未标注图像的高维特征向量,从而获得高维特征向量集X={x1,…,xn,xn+1,…,xn+m};d表示所述训练图像和未标注图像的特征维数;
步骤1.3、利用式(1)获得任意两个语义概念gα和gβ之间的距离Dα,β,从而利用式(2)获得在所述语义概念集G中任意两个语义概念gα和gβ之间距离Dα,β所组成的语义距离矩阵
式(1)中:α、β∈{1,2,…c}分别表示语义概念gα和gβ的索引号;f(gα)表示包含语义概念gα的训练图像个数,f(gβ)表示包含语义概念gβ的训练图像个数;f(gα,gβ)表示既包含语义概念gα又包含语义概念gβ的训练图像个数;K表示所述网络图像数据集中所有网络图像的个数;
步骤1.4、定义语义概念gα在所述语义映射空间上的映射为语义概念原型由每一个语义概念所对应的语义概念原型构成语义概念原型矩阵P,
1.4.1、利用式(3)计算矩阵
式(3)中:为单位矩阵;表示全为1的列向量;
1.4.2、按照的分解形式对矩阵进行分解,获得矩阵V和Λ;
1.4.3、采用式(4)获得语义概念原型矩阵P,从而获得每一个语义概念所对应的语义概念原型p1,p2,…,pα,…,pc:
步骤1.5、利用式(5)学习图像映射矩阵W:
式(5)中:表示第i幅训练图像的高维特征向量;yi∈{1,2,…,c}表示第i幅训练图像的语义概念的索引号;λ为正则化参数;
由所述语义概念原型矩阵P和图像映射矩阵W获得所述语义映射空间
步骤2、利用式(6)获得所述未标注图像数据集中任一未标注图像所对应的语义概念的索引号θ,从而估计每个未标注图像的语义概念:
式(6)中:xt表示所述未标注图像数据集中任一未标注图像的高维特征向量;t∈(n+1,…,n+m);
步骤3、每个语义概念gθ都对应一组图像,θ∈{1,2,…,c};将gθ对应的图像的高维特征向量组成向量集,所述向量集{xθ1,xθ2,…,xθl}按照的大小进行升序排列;j∈{1,2,…,l};
根据图像与语义概念原型的距离大小进行对图像的排序。
步骤4、输入待检索的文本查询词,找到所述文本查询词在语义映射空间中所对应的语义概念,并按照步骤3进行升序排列后,返回所述语义概念所对应的图像。
本发明基于语义映射空间构建的图像检索方法的特点也在于,当有新的语义概念加入到语义映射空间时,所述步骤1的语义映射空间是按如下步骤进行更新:
步骤5.1、利用式(7)获得新的语义概念gc+1所对应的语义概念原型pc+1:
式(7)中:Dc+1,θ为语义概念gc+1和语义概念gθ之间的语义距离,θ∈{1,2,…,c};
并利用式(8)获得新的语义概念原型矩阵P*:
P*=P∪pc+1 (8)
式(8)中:更新后得到的语义概念原型矩阵P*={p1,p2,…pc,pc+1};
步骤5.2、利用式(9)获得新的图像映射矩阵W*:
式(9)中:yi为第i幅训练图像所对应的语义概念索引号;x′k为所述新的语义概念gc+1对应的第k幅图像的高维特征向量,k∈{1,2,…,q};由所述新的语义概念原型矩阵P*和新的图像映射矩阵W*获得更新的所述语义映射空间
与已有技术相比,本发明有益效果体现在:
1、本发明通过计算语义概念原型矩阵,将传统的语义概念转为语义概念原型存放于语义空间中;并学习图像映射矩阵,将图像映射到语义空间中所对应的语义概念原型周围,使得图像的语义概念和视觉特征映射到同一个的语义空间中,实现基于文本的图像检索和基于内容的图像检索的相结合,有效地集合两种不同的方法的优势;
2、本发明通过对语义概念原型以及图像映射矩阵的在线更新,将不断增加的语义概念以及所对应的新的图像内容有效地融入到所构建的语义空间中,对语义空间进行增量式地学习,加快了图像数据库更新的速度,有效地提高了图像检索的效率。
3、本发明提出的基于语义映射空间的图像检索方法,大大缩短了高层语义概念和低层视觉特征之间的“语义鸿沟”,有效地提高图像检索的准确性;同时可以很好地处理动态增长的网络图像数据,可以在当今互联网大数据时代进行很好地应用。
附图说明
图1为本发明图像检索方法的工作流程图;
图2为本发明方法以“均值精度“为度量标准,与其它多种检索方法进行量化对比分析的示意图;
图3为本发明方法以“中间均值精度“为度量标准,与其它多种检索方法进行量化对比分析的示意图;
具体实施方式
本实施例中,一种基于语义映射空间构建的检索方法主要用于互联网图像检索,应用于百度、谷歌、必应、雅虎等国内外互联网搜索引擎。本发明方法的特点是将语义概念和图像映射到同一个表示空间中,通过在该空间中度量语义概念和图像之间的距离来完成检索。
如图1所示,本发明方法进行图像检索时的主要步骤如下:
步骤1、学习语义映射空间
步骤1.1、从网络图像数据集中获取训练图像数据集与未标注图像数据集,训练图像数据集包括n幅训练图像;未标注图像数据集包括m幅未标注图像;获取与n幅训练图像相对应的语义概念,并令相同的语义概念用一个索引号来索引,从而获得语义概念集G={g1,g2,…,gγ,…,gc},γ为索引号,γ∈{1,2,…c},c表征语义概念的个数,c≤n;
语义映射空间是“离线学习”的形式学习的。在实际应用中,网络图像数据集的规模很大,需要尽可能多地包含各种图片,以满足各种用户的搜索需求。在本发明的实验测试中,使用Caltech-101数据集,Caltech-101数据集包含101类图像,共10000幅图像。c=101。训练图像数据集的个数为n=15×101=1515。
训练图像数据集是已标注的数据,每幅图像对应一个语义概念,比如“狗”、“花”或者“树木”等等,而且,一个语义概念通常对应多幅图像。未标注图像数据集不包含语义概念。
步骤1.2、提取训练图像数据集和未标注图像数据集中每幅训练图像和未标注图像的高维特征向量,从而获得高维特征向量集X={x1,…,xn,xn+1,…,xn+m};d表示训练图像和未标注图像的特征维数;
训练图像和未标注图像的高维特征主要由以下几种特征组成:64维的彩色直方图、144维彩色自相关图、1000维的“词袋”(Bag of Word)特征。所以,训练图像和未标注图像的视觉特征为1208维的特征向量,d=1208。
步骤1.3、利用式(1)获得任意两个语义概念gα和gβ之间的距离Dα,β,从而利用式(2)获得在语义概念集G中任意两个语义概念gα和gβ之间距离Dα,β所组成的语义距离矩阵
式(1)中:α、β∈{1,2,…c}分别表示语义概念gα和gβ的索引号;f(gα)表示包含语义概念gα的训练图像个数,f(gβ)表示包含语义概念gβ的训练图像个数;f(gα,gβ)表示既包含语义概念gα又包含语义概念gβ的训练图像个数;K表示网络图像数据集中所有网络图像的个数,在Caltech-101数据集中,K=10000。
Dα,β表示两个语义概念之间的语义距离,式(1)中的语义距离计算方法名为“Flickr距离”;
步骤1.4、定义语义概念gα在语义映射空间上的映射为语义概念原型由每一个语义概念所对应的语义概念原型构成语义概念原型矩阵P,
求解语义概念原型矩阵P的目标函数如式(3)所示
式(3)目标函数的意义在于使两个语义概念之间的语义距离和两个语义概念所对应的概念原型之间的距离尽可能相近,使语义概念原型能够“继承”语义概念之间的语义关系。
1.4.1、利用式(4)计算矩阵
式(4)中:为单位矩阵;表示全为1的列向量;
1.4.2、按照的分解形式对矩阵进行分解,获得矩阵V和Λ;其中,Λ为特征值对角矩阵,V为对应的特征向量矩阵。
1.4.3、采用式(5)获得语义概念原型矩阵P,从而获得每一个语义概念所对应的语义概念原型p1,p2,…,pα,…,pc:
步骤1.4.1、1.4.2以及1.4.3就是式(3)所示的优化函数的求解过程。所获得的语义概念原型是每一个语义概念在语义空间上映射,是一个c×1的向量,与图像内容相独立的。
步骤1.5、利用式(6)所示的目标函数学习图像映射矩阵W:
图像映射矩阵W将每一个训练图像映射到语义空间中,即式(6)目标函数的作用在于保持在语义空间中与xi对应的语义概念原型距离较近。式(6)的目标函数通过式(7)进行闭合求解:
式(7)中:表示第i幅训练图像的高维特征向量;yi∈{1,2,…,c}表示第i幅训练图像的语义概念的索引号;λ为正则化参数;
由语义概念原型矩阵P和图像映射矩阵W获得语义映射空间语义映射空间的学习过程至此结束。
步骤2、利用式(8)获得未标注图像数据集中任一未标注图像所对应的语义概念的索引号θ,从而估计每个未标注图像的语义概念:
式(8)中:xt表示未标注图像数据集中任一未标注图像的高维特征向量;t∈(n+1,…,n+m);将未标注图像在语义空间中的映射Wxt与每一个语义概念原型求欧式距离,选择距离最小的那个语义概念原型所对应的语义概念作为未标注图像的索引;
步骤3、每个语义概念gθ都对应一组图像,θ∈{1,2,…,c};将gθ对应的图像的高维特征向量组成向量集,所述向量集{xθ1,xθ2,…,xθl}按照的大小进行图像升序排列;j∈{1,2,…,l};
语义空间中每一个语义概念原型都对应多个图像,比如”苹果“这个语义概念肯定对应很多不同颜色,不同种类的苹果,不同拍摄效果的苹果;需要对概念原型对应的很多图像进行排序,当用户查询时,将排序结果返回给用户;
步骤4、输入待检索的文本查询词,找到文本查询词在语义映射空间中所对应的语义概念,并按照步骤3进行升序排列后,返回语义概念所对应的图像。
至此,本发明方法的离线学习阶段以及排序和查询阶段都结束了。但是,在互联网时代,新事物的产生总是太快,需要对本发明中语义空间中语义概念原型以及图像映射矩阵进行更新。
步骤5、当有新的语义概念加入到语义映射空间时,步骤1的语义映射空间按如下步骤进行更新:
步骤5.1、利用式(9)获得新的语义概念gc+1所对应的语义概念原型pc+1:
式(9)中:Dc+1,θ为语义概念gc+1和语义概念gθ之间的语义距离,按照式(1)进行求解,θ∈{1,2,…,c};
并利用式(10)获得新的语义概念原型矩阵P*:
P*=P∪pc+1 (10)
式(10)中:更新后得到的语义概念原型矩阵P*={p1,p2,…pc,pc+1};当不断地更新以后,语义概念原型矩阵所包含语义概念原型会越来越多,以便应对用户不断变化的查询需求。
步骤5.2、利用式(11)获得新的图像映射矩阵W*:
式(11)中:yi为第i幅训练图像所对应的语义概念索引号;x′k为新的语义概念gc+1对应的第k幅图像的高维特征向量,k∈{1,2,…,q};由新的语义概念原型矩阵P*和新的图像映射矩阵W*获得更新的语义映射空间式(11)所示更新方式是一种在线增量更新方法,是在原有基础上进行图像映射矩阵的计算,不需要从头计算,节省了大量计算时间。
图2为本发明方法以“均值精度“为度量标准,与其它多种检索方法进行量化对比分析的示意图;图3为本发明方法以“中间均值精度“为度量标准,与其它多种检索方法进行量化对比分析的示意图;图2和图3中,CSM表示本发明的图像检索方法;CCA表示基于典型相关分析的图像检索方法;SBIR表示基于语义的图像检索方法;CBIR表示基于图像内容的图像检索方法;CERM是一种与本发明相似的方法,主要区别在于CERM的语义距离矩阵D是通过随机相似度进行计算的,主要是为了验证本发明方法中语义关联的重要性。五种方法均在Caltech-101数据集上进行测试,从图2和图3来看,本发明方法的精确度明显高于其它方法,展现了本发明方法的优越性。
以上,仅为本发明较佳的一种实施方式,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或相关参数改变,都应涵盖在本发明的保护范围之内。
Claims (2)
1.一种基于语义映射空间的图像检索方法,其特征是按如下步骤进行:
步骤1、学习语义映射空间
步骤1.1、从网络图像数据集中获取训练图像数据集与未标注图像数据集,所述训练图像数据集包括n幅训练图像;所述未标注图像数据集包括m幅未标注图像;获取与所述n幅训练图像相对应的语义概念,并令相同的语义概念用一个索引号来索引,从而获得语义概念集G={g1,g2,...,gγ,...,gc},γ为索引号,γ∈{1,2,…c},c表征所述语义概念的个数,c≤n;
步骤1.2、提取所述训练图像数据集和所述未标注图像数据集中每幅训练图像和未标注图像的高维特征向量,从而获得高维特征向量集X={x1,...,xn,xn+1,...,xn+m};d表示所述训练图像和未标注图像的特征维数;
步骤1.3、利用式(1)获得任意两个语义概念gα和gβ之间的距离Dα,β,从而利用式(2)获得在所述语义概念集G中任意两个语义概念gα和gβ之间距离Dα,β所组成的语义距离矩阵
式(1)中:α、β∈{1,2,…c}分别表示语义概念gα和gβ的索引号;f(gα)表示包含语义概念gα的训练图像个数,f(gβ)表示包含语义概念gβ的训练图像个数;f(gα,gβ)表示既包含语义概念gα又包含语义概念gβ的训练图像个数;K表示所述网络图像数据集中所有网络图像的个数;
步骤1.4、定义语义概念gα在所述语义映射空间上的映射为语义概念原型由每一个语义概念所对应的语义概念原型构成语义概念原型矩阵P,
1.4.1、利用式(3)计算矩阵
式(3)中:为单位矩阵;表示全为1的列向量;
1.4.2、按照的分解形式对矩阵进行分解,获得矩阵V和Λ;Λ为特征值对角矩阵,V为对应的特征向量矩阵;
1.4.3、采用式(4)获得语义概念原型矩阵P,从而获得每一个语义概念所对应的语义概念原型p1,p2,...,pα,...,pc:
步骤1.5、利用式(5)学习图像映射矩阵W:
式(5)中:表示第i幅训练图像的高维特征向量;yi∈{1,2,…,c}表示第i幅训练图像的语义概念的索引号;λ为正则化参数;
由所述语义概念原型矩阵P和图像映射矩阵W获得所述语义映射空间
步骤2、利用式(6)获得所述未标注图像数据集中任一未标注图像所对应的语义概念的索引号θ,从而估计每个未标注图像的语义概念:
式(6)中:xt表示所述未标注图像数据集中任一未标注图像的高维特征向量;t∈(n+1,…,n+m);
步骤3、将语义概念gθ所对应的未标注图像的高维特征向量以及未标注图像的高维特征向量组成向量集{xθ1,xθ2,...,xθl},并将所述向量集{xθ1,xθ2,...,xθl}按照的大小进行升序排列;j∈{1,2,…,l};
步骤4、输入待检索的文本查询词,找到所述文本查询词在语义映射空间中所对应的语义概念,并按照步骤3进行升序排列后,返回所述语义概念所对应的图像。
2.根据权利要求1所述的基于语义映射空间的图像检索方法,其特征是,当有新的语义概念加入到语义映射空间时,所述步骤1的语义映射空间是按如下步骤进行更新:
步骤2.1、利用式(7)获得新的语义概念gc+1所对应的语义概念原型pc+1:
式(7)中:Dc+1,θ为语义概念gc+1和语义概念gθ之间的语义距离,θ∈{1,2,…,c};
并利用式(8)获得新的语义概念原型矩阵P*:
P*=P∪pc+1 (8)
式(8)中:更新后得到的语义概念原型矩阵P*={p1,p2,…pc,pc+1};
步骤2.2、利用式(9)获得新的图像映射矩阵W*:
式(9)中:yi为第i幅训练图像所对应的语义概念索引号;x′k为所述新的语义概念gc+1对应的第k幅图像的高维特征向量,k∈{1,2,…,q};由所述新的语义概念原型矩阵P*和新的图像映射矩阵W*获得更新的所述语义映射空间
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410393094.3A CN104156433B (zh) | 2014-08-11 | 2014-08-11 | 一种基于语义映射空间构建的图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410393094.3A CN104156433B (zh) | 2014-08-11 | 2014-08-11 | 一种基于语义映射空间构建的图像检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104156433A CN104156433A (zh) | 2014-11-19 |
CN104156433B true CN104156433B (zh) | 2017-05-17 |
Family
ID=51881931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410393094.3A Active CN104156433B (zh) | 2014-08-11 | 2014-08-11 | 一种基于语义映射空间构建的图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104156433B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915400B (zh) * | 2015-05-29 | 2017-12-29 | 山西大学 | 基于彩色直方图和nsct的模糊相关同步图像检索方法 |
CN104899280B (zh) * | 2015-05-29 | 2017-12-29 | 山西大学 | 基于彩色直方图和nsct的模糊相关异步图像检索方法 |
CN105469096B (zh) * | 2015-11-18 | 2018-09-25 | 南京大学 | 一种基于哈希二值编码的特征袋图像检索方法 |
CN105740879B (zh) * | 2016-01-15 | 2019-05-21 | 天津大学 | 基于多模态判别分析的零样本图像分类方法 |
US10026020B2 (en) * | 2016-01-15 | 2018-07-17 | Adobe Systems Incorporated | Embedding space for images with multiple text labels |
CN105740888A (zh) * | 2016-01-26 | 2016-07-06 | 天津大学 | 一种用于零样本学习的联合嵌入模型 |
US10346727B2 (en) * | 2016-10-28 | 2019-07-09 | Adobe Inc. | Utilizing a digital canvas to conduct a spatial-semantic search for digital visual media |
CN108170823B (zh) * | 2018-01-04 | 2021-10-15 | 江西师范大学 | 一种基于高层语义属性理解的手绘交互式三维模型检索方法 |
CN108875828B (zh) * | 2018-06-19 | 2022-01-28 | 太原学院 | 一种相似图像的快速匹配方法和系统 |
CN110991523A (zh) * | 2019-11-29 | 2020-04-10 | 西安交通大学 | 一种面向无人驾驶车辆检测算法性能的可解释性评估方法 |
CN111259176B (zh) * | 2020-01-16 | 2021-08-17 | 合肥工业大学 | 融合有监督信息的基于矩阵分解的跨模态哈希检索方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1710557A (zh) * | 2005-06-16 | 2005-12-21 | 上海交通大学 | 基于非负矩阵分解的隐含语义图像检索方法 |
CN1936892A (zh) * | 2006-10-17 | 2007-03-28 | 浙江大学 | 图像内容语义标注方法 |
CN101620615A (zh) * | 2009-08-04 | 2010-01-06 | 西南交通大学 | 一种基于决策树学习的自动图像标注与翻译的方法 |
CN103279580A (zh) * | 2013-06-24 | 2013-09-04 | 魏骁勇 | 基于新型语义空间的视频检索方法 |
CN103530633A (zh) * | 2013-10-09 | 2014-01-22 | 深圳大学 | 一种图像局部不变特征的语义映射方法及语义映射系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8891908B2 (en) * | 2012-11-14 | 2014-11-18 | Nec Laboratories America, Inc. | Semantic-aware co-indexing for near-duplicate image retrieval |
-
2014
- 2014-08-11 CN CN201410393094.3A patent/CN104156433B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1710557A (zh) * | 2005-06-16 | 2005-12-21 | 上海交通大学 | 基于非负矩阵分解的隐含语义图像检索方法 |
CN1936892A (zh) * | 2006-10-17 | 2007-03-28 | 浙江大学 | 图像内容语义标注方法 |
CN101620615A (zh) * | 2009-08-04 | 2010-01-06 | 西南交通大学 | 一种基于决策树学习的自动图像标注与翻译的方法 |
CN103279580A (zh) * | 2013-06-24 | 2013-09-04 | 魏骁勇 | 基于新型语义空间的视频检索方法 |
CN103530633A (zh) * | 2013-10-09 | 2014-01-22 | 深圳大学 | 一种图像局部不变特征的语义映射方法及语义映射系统 |
Non-Patent Citations (5)
Title |
---|
"A Literature Review of Image Retrieval based on Semantic Concept";Alaa M. Riad ET AL;《International Journal of Computer Applications (0975–8887)》;20120228;第40卷(第11期);全文 * |
"Learning to Reduce the Semantic Gap in Web Image Retrieval and Annotation";Changhu Wang ET AL;《SIGIR’08》;20080724;全文 * |
"Semantic Spaces Revisited";Jonathon S. Hare ET AL;《CIVR’08》;20080709;全文 * |
"图像的语义化标注和检索关键技术研究";李倩倩;《中国优秀硕士学位论文全文数据库 信息科技辑》;20081215;全文 * |
"基于语义的图像检索系统基础技术研究";钟锐;《中国优秀硕士学位论文全文数据库 信息科技辑》;20130315;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN104156433A (zh) | 2014-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104156433B (zh) | 一种基于语义映射空间构建的图像检索方法 | |
CN104318340B (zh) | 基于文本履历信息的信息可视化方法及智能可视分析系统 | |
CN103049446B (zh) | 一种图像检索方法及装置 | |
US9449026B2 (en) | Sketch-based image search | |
EP2368200B1 (en) | Interactively ranking image search results using color layout relevance | |
CN102750347B (zh) | 一种用于图像或视频搜索重排序的方法 | |
CN104317834B (zh) | 一种基于深度神经网络的跨媒体排序方法 | |
US20230409653A1 (en) | Embedding Based Retrieval for Image Search | |
CN104361102B (zh) | 一种基于群组匹配的专家推荐方法及系统 | |
CN105426529B (zh) | 基于用户搜索意图定位的图像检索方法及系统 | |
CN103559191B (zh) | 基于隐空间学习和双向排序学习的跨媒体排序方法 | |
US20070214114A1 (en) | Projecting queries and images into a similarity space | |
CN104834693A (zh) | 基于深度搜索的视觉图像检索方法及系统 | |
CN106095829A (zh) | 基于深度学习与一致性表达空间学习的跨媒体检索方法 | |
CN103123653A (zh) | 基于贝叶斯分类学习的搜索引擎检索排序方法 | |
CN102542067A (zh) | 基于尺度学习和关联标号传播的自动图像语义标注方法 | |
US20200250537A1 (en) | Training image and text embedding models | |
CN106156333A (zh) | 一种融合社会化信息的改进单类协同过滤方法 | |
CN105320764A (zh) | 一种基于增量慢特征的3d模型检索方法及其检索装置 | |
CN102831161B (zh) | 用于图像检索的基于流形正则化的半监督排序学习方法 | |
US9104946B2 (en) | Systems and methods for comparing images | |
CN110310012B (zh) | 数据分析方法、装置、设备及计算机可读存储介质 | |
CN105677838A (zh) | 基于用户需求的用户档案创建、个性化搜索排名方法和系统 | |
Boteanu et al. | A relevance feedback perspective to image search result diversification | |
CN115098534A (zh) | 基于索引权重提升的数据查询方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Wang Meng Inventor after: Yang Xun Inventor after: Hong Richang Inventor after: Guo Dan Inventor after: Liu Yiqun Inventor after: Sun Maosong Inventor before: Wang Meng Inventor before: Yang Xun Inventor before: Hong Richang |
|
COR | Change of bibliographic data | ||
GR01 | Patent grant | ||
GR01 | Patent grant |