CN100573523C - 一种基于显著区域的图像查询方法 - Google Patents
一种基于显著区域的图像查询方法 Download PDFInfo
- Publication number
- CN100573523C CN100573523C CNB2006101715204A CN200610171520A CN100573523C CN 100573523 C CN100573523 C CN 100573523C CN B2006101715204 A CNB2006101715204 A CN B2006101715204A CN 200610171520 A CN200610171520 A CN 200610171520A CN 100573523 C CN100573523 C CN 100573523C
- Authority
- CN
- China
- Prior art keywords
- image
- marking area
- grid
- characteristic
- steps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于显著区域的图像查询方法,包括以下步骤:(1)将图像进行网格划分;(2)对网格进行模糊聚类,将图像分割成若干关注区域;(3)基于关注区域计算显著度;(4)将所有格点按照显著度进行排序得到显著区域;(5)进行图像查询。本发明的优点在于:简化计算,更符合视觉感知,提高检索效率和精度。
Description
技术领域
本发明涉及图像处理、计算机视觉以及模式识别技术,特别涉及一种基于显著区域的图像查询方法。
背景技术
在当今数字化和网络化的时代,图像已成为人们接触最多得的信息载体之一。图像信息有其自身的特点,一方面它的信息量大,但另一方面,它的抽象化和结构化程度很低,不利于进行有效的管理。因此快速的从大量的图像信息中获取有用的信息成为一个关注热点,如何有效的对大规模图像库进行检索已成为一个亟待解决的问题。
目前普遍的认识到,基于特定区域的检索比基于全部图像特征的检索更加高效,尤其对于应用在商业网站上的图像检索系统而言,商品往往都处于图像中比较显著的位置,而且也是用户更感兴趣的区域,其周边的背景图像往往可以被忽略。其中一个最核心的问题是如何在图像中决定哪些是最重要的、最具代表性的区域。很明显,如果每个区域中语义内容和对象已知,则这个问题很容易解决。但是,这个问题远远超过了当前的计算机视觉的发展能力。另一方面,感知注意机制在生物视觉和人类的识别中发挥了很重要的作用,它使得人们能够自动的滤除和筛选进入人眼的信息。如果这种注意机制能够模型化,它就能够用来帮助决定图像中的最重要的区域,从而服务于基于区域的图像内容检索。
传统的基于形状或基于区域的图像检索系统,严重依赖于准确的图像分割机制,后果往往是计算量很大,而且因为涉及到语义内容理解问题导致难以产生令人满意的效果。为了减少采用低级特征的缺陷,同时又能避免对语义内容的完全理解,引入了基于视觉注意模型的图像分析技术。注意是一个神经生物学概念。它指的是人们能将大脑的主要精力集中放到一个物体上的能力。计算注意模型使得人们通过较少的计算就能对图像进行分析、理解,同时又能很好的符合人们的视觉感知。
由于图像检索具有自身的特点,不同领域中的图像在对象分布上也各有规律。商业网站上的图像,比如一些在线交易网站淘宝网、当当网等,一般具有以下特点:(1)每幅图像里只有不多于三个的关注对象;(2)关注对象往往处在图像中间位置,以吸引用户注意力;(3)背景一般都不提供有用的信息,可以忽略;(4)分辨率较低。已有的方法没有将显著图技术与具体的商业图像检索的要求和特点结合起来,检索效率较低,难以实现真正的实时商业应用。
发明内容
本发明的目的是克服现有技术的缺陷,提供一种能够简化计算,突出图像中的显著区域,模拟用户的关注模式,得到更好的检索性能的基于显著区域的图像查询方法。
为了实现上述目的,本发明采取如下技术方案:
一种基于显著区域的图像查询方法,包括以下步骤:
(1)将图像进行网格划分;
(2)对网格进行模糊聚类,将图像分割成若干关注区域;关注区域是图像分割得到的每一个连通区域;
(3)基于关注区域计算显著度;
(4)将所有格点按照显著度进行排序,得到显著区域;
(5)进行图像查询。
在上述技术方案中,进一步地,所述步骤(1)将图像进行固定块数的网格划分包括以下步骤:①根据图像每个像素点的RGB(Red红,Green绿,Blue蓝)值,将颜色空间转化到HSV(Hue色度,Saturation饱和度,Value纯度)空间;②将HSV空间中的三个独立通道进行量化和融合,得到一幅彩色灰度图;③在彩色灰度图的基础上,将每幅图像划分为同等大小的网格。
在上述技术方案中,进一步地,所述步骤(2)将图像以网格为最小单位进行模糊聚类,得到粗粒度的分割结果,具体步骤如下:①提取每个网格的颜色特征和纹理特征,并将颜色和纹理特征整合成为一个特征向量;②对这些特征向量进行聚类。
在上述技术方案中,进一步地,所述步骤(3)具体步骤如下:①基于关注区域计算显著度的描述特征:颜色对比、强度对比和方向性对比等;②将多个显著度的描述特征进行融合,得到显著图;③修正显著图。
在上述技术方案中,进一步地,所述步骤③修正显著图,是根据格点到图像中心的距离产生修正权值,对显著图进行修正。
在上述技术方案中,进一步地,所述步骤(4)中,将格点根据显著度进行排序,得到显著区域,显著区域是显著度最大的点对应的关注区域。
在上述技术方案中,进一步地,步骤(5)中,用户提交目标图像后,是基于显著区域进行图像查询,采用以下步骤进行查询:①提取目标图像的显著区域和特征向量;②与图像库中的每副待查图像的显著区域的特征向量进行相似性匹配;③根据相似性进行排序,并按照设定数目输出排在前面的图像。
本发明的优点在于:
(1)将原始图像转化到HSV颜色空间,更符合人类的视觉感知;将图像固定划分为若干网格,以网格为单位来进行聚类计算,得到图像的粗粒度的关注区域分割结果,简化了计算,并将像素级的处理提升到区域级,更接近图像的语义处理;
(2)在由多个特征图进行组合得到显著图的过程中,考虑了各自显著区域的分布和位置、大小,结合先验知识指导权重的选择和调整,得到更符合视觉感知的显著图;
(3)结合显著图与商业图像检索的特点,在检索过程中,仅对显著区域进行特征匹配,突出了感兴趣的对象,提高检索效率和精度。
附图说明
图1(a)是实施例中转换为彩色灰度图后的网格划分示意图;
图1(b)是实施例中转换为彩色灰度图后的聚类结果示意图;
图2(a)是实施例中用于修正显著图的位置权重分布示意图;
图2(b)是实施例中用于修正显著图的权重-距离函数;
图3是实施例中显著区域提取方法流程图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细描述:
如图3所示,为本发明的一种基于显著区域的商业图像检索方法的操作流程图。该方法的操作步骤包括:
步骤100,将图像进行网格划分;
先根据图像每个像素点的RGB值,利用转换公式,将颜色空间转化到HSV空间,使之更符合人类的视觉感知;并根据人眼对色调的感受规律,将HSV空间中的三个独立通道进行量化和融合,得到一幅彩色灰度图,如图1(a)所示;在彩色灰度图的基础上,将每幅图像按照8*8的规则划分为64个同等大小的网格。
其中RGB空间到HSV空间(也称为HIS空间)的转换公式如下:
s=max(r,g,b)-min(r,g,b)
步骤200,对网格进行模糊聚类,将图像分割成若干关注区域。关注区域是图像分割得到的每一个连通区域。
基于彩色灰度图,采用FCM(Fuzzy C-means Method,简称FCM,模糊C均值方法)方法,将图像以网格为最小单位进行模糊聚类,得到粗粒度的分割结果,如图1(b)所示;这里的模糊隶属度使用高斯函数进行计算,并考虑领域网格对中心网格的影响,将具有相似颜色和纹理特征的8-连通的网格进行聚合,根据聚类结果将图像分割为若干个关注对象。
FCM的主要思想是优化目标函数,得到每个样本点对各类中心的隶属度,从而决定样本点的归属。实现方法如下:
最小化目标函数:
约束条件:
这里隶属度的计算采用高斯公式:
步骤300,基于关注区域的显著度计算;具体分为以下三个步骤310、步骤320和步骤330:
在步骤310中,采用RGB空间中的原图像计算亮度、颜色、方向等多个特征图:为了简化计算,将RGB空间的原图像分解为n*n个像素的固定分划的小块,此处n=8,并以小块为单位进行后继处理;从图像中提取为多种视觉特征,如亮度、红色、蓝色、黄色和绿色等,各种特征和它领域内的点采取中心-外周的方式作差,表示特征在背景中的对比,对比越强,该点的显著性就越大;为了消除领域大小对对比值的影响,对比在多个尺度上进行,生成多尺度的特征图,这里多尺度的表示方式通过高斯金字塔方法实现;特征图的形成过程模拟了感受野的信息处理方式,生成的特征图和输入图像之间保持拓扑对应关系。
图像的亮度特征是由I=(r+g+b)/3得到的,然后为其产生9个尺度的高斯金字塔。接下来在中心尺度c和外周尺度s之间用中心-外周差操作(用Θ表示)计算亮度特征图。对于6个不同尺度的亮度图,
其中:
c∈{2,3,4},s=c+δ,δ∈{3,4}
计算:
I(c,s)=|I(c)ΘI(s)|
提取颜色特征图的过程为:产生四个颜色通道图,分别为红色、绿色、蓝色、黄色颜色图,四个颜色通道形成四个色度金字塔,四个颜色通道的计算公式是:
R=r-(g+b)/2
G=g-(r+b)/2
B=b-(r-g)/2
Y=(r+g)/2-|r-g|/2-b
由于人类视觉皮层中存在着红绿、绿红、黄蓝和蓝黄颜色对比对。本发明计算红绿、蓝黄对比对来表示人们对颜色的感觉特征。其中:
RG(c,s)=|(R(c)-G(c))Θ(G(s)-R(s))
BY(c,s)=|(B(c)-Y(c))Θ(Y(s)-B(s)):
与亮度特征图的计算类似,为每个颜色对计算颜色特征图。
方向特征图是由一个方向Gabor金字塔得到的,其中σ表示9个不同的尺度,θ表示方向,方向特征图的计算为:
O(c,s,θ)=|O(c,θ)ΘO(s,θ)|
每幅特征图归一化后就可分别组合成三幅特征显著图,分别用I,C,O来表示,其中I表示亮度显著图,C表示色显著图,O表示方向显著图。它们的计算公式为:
其中表示特征图之间的求和运算。求和时先把特征图下采样到尺度为4的级别,然后再逐像素点求和,详细算法可参见文献:Itti,L.Koch,C.Niebur.A Modelof Saliency-Based Visual Attention for Rapid Scene Analysis.IEEE Trans.on PatternAnalysis and Machine Intelligence,Vol.20,No,11,1998.
在步骤320中,根据得到的多个显著性特征图,将它们进行融合,得到显著图。
由于不同特征图针对的视觉特征不同,各自的计算方法和量化范围都不相同,所以要先将三副特征图进行统一的归一化处理,以免叠加效果中,出现幅度较大的特征图遮盖了幅度较小特征图中显著区域的问题;考虑到不同特征图中突出的显著区域不同,而且一般而言,拥有较少显著区域的特征图中,各个显著区域更具代表性,更有可能成为用户的关注对象,因此应该增强较少显著区域的特征图的影响,而减弱拥有多个显著区域的特征图的影响,这可以通过归一化过程中赋予不同特征图不同的权重来实现,权值的计算是由每副显著图中全局最大值与所有局部最大值的平均值之差来决定的。操作的过程为:
(1)将特征图中的值归一化到[0,……,M]之间;
(2)找到特征图的全局最大值M和除全局最大值之外的局部最大值的平均值m;
(3)将特征图中的每个值乘以(M-m)2。
在步骤330中,根据启发式规则对显著图进行修正。以上通过归一化和权值调整得到的显著图仅仅考虑到自底向上的低层视觉特征,本发明中还加入了先验知识的指导。在常见的商业检索图片中,用来销售和做广告的商品图片一般具有相似的分布规律——单个商品都居于图像的正中,如果有若干个商品也是大致集中在图像的中间部分,背景图像往往可以作为噪音点不予考虑;因此可人为的对图像进行划分,得到一个线性权值,中间部分的权重最大,其余部分线性减弱。如图2(a)所示,采用棋盘距离,根据各格点到图像中心的距离函数f(d)产生修正权值,图中点a的权值为1,点b的权值为0.5;用这个主观的注意力权值对刚才得到的显著图进行修正,即将每个点的显著度乘以距离函数,得到更符合人类视觉感知的结果。
综合所有特征的显著性,并用图2(b)所示的线性权值进行修正,就得到了对应于输入图像的显著图S:
S=w1I+w2C+w3O
步骤400,将所有格点按照显著度进行排序,得到显著区域;显著度最大的点对应的关注区域称为显著区域。
步骤500中,基于显著区域进行图像的相似性查询,返回规定数目的相似图像。用户提交目标图像后,采用以下步骤进行查询:①提取目标图像的显著区域和特征向量;②与图像库中的每副待查图像的显著区域的特征向量进行相似性匹配;③根据相似性进行排序,并按照设定数目输出排在前面的图像。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1、一种基于显著区域的图像查询方法,包括以下步骤:
(1)将图像库中的图像进行网格划分;
(2)基于彩色灰度图,采用FCM方法,将所述图像以网格为最小单位进行模糊聚类,得到粗粒度的分割结果,模糊隶属度使用高斯函数进行计算,并考虑邻域网格对中心网格的影响,将具有相似颜色和纹理特征的8-连通的网格进行聚合,根据聚类结果将图像分割为若干个关注区域;
(3)基于关注区域计算显著度;具体分为以下三个步骤310、步骤320和步骤330:其中,在步骤310中,采用RGB空间中的原图像计算亮度、颜色、方向多个特征图,各种特征和它邻域内的点采取中心-外周的方式作差,表示特征在背景中的对比,对比越强,该点的显著性就越大;
在步骤320中,根据得到的多个显著性特征图,将它们进行融合,得到显著图;
通过归一化过程中赋予不同特征图不同的权重来实现,权值的计算是由每副显著图中全局最大值与所有局部最大值的平均值之差来决定的,操作的过程为:
(a)将特征图中的值归一化到[0,……,M]之间;
(b)找到特征图的全局最大值M和除全局最大值之外的局部最大值的平均值m;
(c)将特征图中的每个值乘以(M-m)2;
在步骤330中,根据启发式规则对显著图进行修正:是根据格点到图像中心的距离产生修正权值,对显著图进行修正;
(4)将所有格点按照显著度进行排序得到显著区域;
(5)基于显著区域进行图像的相似性查询,返回规定数目的相似图像;用户提交目标图像后,采用以下步骤进行查询:
①提取目标图像的显著区域的特征向量;
②与图像库中的每副待查图像的显著区域的特征向量进行相似性匹配;
③根据相似性进行排序,并按照设定数目输出排在前面的目标图像。
2、根据权利要求1所述基于显著区域的图像查询方法,其特征是,所述步骤(1)具体包括以下步骤:
①先根据所述图像每个像素点的RGB值,利用下述的转换公式,将颜色空间转化到HSV空间;其中,所述的转换公式如下:
s=max(r,g,b)-min(r,g,b)
②将HSV空间中的三个独立通道进行量化和融合得到彩色灰度图;
③在彩色灰度图的基础上,将每幅图像划分为同等大小的网格。
3、根据权利要求1所述基于显著区域的图像查询方法,其特征是,所述模糊聚类具体包括如下步骤:①提取每个网格的颜色特征和纹理特征,并将颜色特征和纹理特征整合成为一个特征向量;②对特征向量进行聚类。
4、根据权利要求1所述基于显著区域的图像查询方法,其特征是,所述步骤(4)中,将格点根据显著度进行排序,显著度最大的点对应的关注区域为显著区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2006101715204A CN100573523C (zh) | 2006-12-30 | 2006-12-30 | 一种基于显著区域的图像查询方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2006101715204A CN100573523C (zh) | 2006-12-30 | 2006-12-30 | 一种基于显著区域的图像查询方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101211356A CN101211356A (zh) | 2008-07-02 |
CN100573523C true CN100573523C (zh) | 2009-12-23 |
Family
ID=39611388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2006101715204A Expired - Fee Related CN100573523C (zh) | 2006-12-30 | 2006-12-30 | 一种基于显著区域的图像查询方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100573523C (zh) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639940B (zh) * | 2008-08-01 | 2012-04-25 | 北京大学 | 一种基于视频内容的提取视频注意窗序列的方法及系统 |
CN101398930B (zh) * | 2008-10-24 | 2011-12-07 | 清华大学 | 一种交互式编辑的方法和系统 |
CN101770578B (zh) * | 2010-03-24 | 2011-07-27 | 上海交通大学 | 图像特征提取方法 |
CN102236675B (zh) * | 2010-04-30 | 2013-11-06 | 华为技术有限公司 | 图像特征点匹配对处理、图像检索方法及设备 |
CN101944178B (zh) * | 2010-09-27 | 2012-10-24 | 山东大学 | 用于智能监控的显著区域提取方法 |
CN101984464B (zh) * | 2010-10-22 | 2012-05-30 | 北京工业大学 | 一种图像中不同区域视觉显著程度的检测方法 |
CN102063719B (zh) * | 2010-12-23 | 2013-01-16 | 西北工业大学 | 一种三维模型局部匹配方法 |
CN102129693B (zh) * | 2011-03-15 | 2012-07-25 | 清华大学 | 基于色彩直方图和全局对比度的图像视觉显著性计算方法 |
CN102810042B (zh) * | 2011-06-02 | 2015-04-29 | 宏达国际电子股份有限公司 | 影像缩图的版面产生方法及系统 |
CN102496157B (zh) * | 2011-11-22 | 2014-04-09 | 上海电力学院 | 基于高斯多尺度变换及颜色复杂度的图像检测方法 |
CN102542267B (zh) * | 2011-12-26 | 2013-07-03 | 哈尔滨工业大学 | 结合空间分布和全局对比的显著区域检测方法 |
CN103577993B (zh) * | 2012-08-07 | 2017-06-09 | 阿里巴巴集团控股有限公司 | 颜色选取方法及装置 |
CN103679169B (zh) * | 2012-09-10 | 2016-12-21 | 华为技术有限公司 | 图像特征的提取方法及装置 |
CN104112279B (zh) * | 2013-04-19 | 2017-07-14 | 浙江大华技术股份有限公司 | 一种目标检测方法及装置 |
CN103336830B (zh) * | 2013-07-08 | 2017-02-08 | 刘广海 | 基于结构语义直方图的图像检索方法 |
CN104112138A (zh) * | 2013-12-17 | 2014-10-22 | 深圳市华尊科技有限公司 | 物体颜色分类方法及装置 |
CN104200240B (zh) * | 2014-09-24 | 2017-07-07 | 梁爽 | 一种基于内容自适应哈希编码的草图检索方法 |
CN104392233B (zh) * | 2014-11-21 | 2017-06-06 | 宁波大学 | 一种基于区域的图像显著图提取方法 |
CN106157280B (zh) * | 2015-03-31 | 2019-09-24 | 阿里巴巴集团控股有限公司 | 一种图像数据处理方法及装置 |
CN105825238B (zh) * | 2016-03-30 | 2019-04-30 | 江苏大学 | 一种视觉显著性目标的检测方法 |
CN105976379A (zh) * | 2016-05-11 | 2016-09-28 | 南京邮电大学 | 一种基于布谷鸟优化的模糊聚类彩色图像分割方法 |
BR112018076406A2 (pt) * | 2016-06-24 | 2019-04-09 | Beckman Coulter Inc | sistemas e métodos para um atlas de imagens |
CN106296695B (zh) * | 2016-08-12 | 2019-05-24 | 西安理工大学 | 基于显著性的自适应阈值自然目标图像分割抽取算法 |
CN106920209A (zh) * | 2017-01-11 | 2017-07-04 | 中山大学 | 一种基于纹理缝合的图像十字绣风格化方法及装置 |
CN107240119B (zh) * | 2017-04-19 | 2019-11-08 | 北京航空航天大学 | 利用改进模糊聚类算法提取灰度不均匀红外行人的方法 |
CN110019898A (zh) * | 2017-08-08 | 2019-07-16 | 航天信息股份有限公司 | 一种动漫图像处理系统 |
CN108170791A (zh) * | 2017-12-27 | 2018-06-15 | 四川理工学院 | 视频图像检索方法 |
CN109256184A (zh) * | 2018-07-30 | 2019-01-22 | 邓建晖 | 一种基于认知记忆识别与恢复方法及系统 |
CN109558506B (zh) * | 2018-11-29 | 2023-01-20 | 青海民族大学 | 一种基于颜色聚合向量的图像检索方法 |
CN110008969B (zh) * | 2019-04-15 | 2021-05-14 | 京东方科技集团股份有限公司 | 图像显著性区域的检测方法和装置 |
CN110309335B (zh) * | 2019-07-03 | 2023-01-06 | 腾讯科技(深圳)有限公司 | 一种图片匹配方法、装置、设备及存储介质 |
CN111415360B (zh) * | 2020-03-30 | 2022-12-20 | 上海烟草集团有限责任公司 | 烟叶图像切割方法、装置、设备和介质 |
CN112220448B (zh) * | 2020-10-14 | 2022-04-22 | 北京鹰瞳科技发展股份有限公司 | 眼底相机及眼底图像合成方法 |
CN115017357A (zh) * | 2022-06-01 | 2022-09-06 | 特赞(上海)信息科技有限公司 | 图像检索方法、图像库构建方法、电子设备及存储介质 |
CN116363390B (zh) * | 2023-05-25 | 2023-09-19 | 之江实验室 | 一种红外弱小目标检测方法、装置、存储介质及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1477566A (zh) * | 2003-07-18 | 2004-02-25 | 北京大学计算机科学技术研究所 | 一种对镜头进行基于内容的视频检索的方法 |
WO2004111931A2 (en) * | 2003-06-10 | 2004-12-23 | California Institute Of Technology | A system and method for attentional selection |
-
2006
- 2006-12-30 CN CNB2006101715204A patent/CN100573523C/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004111931A2 (en) * | 2003-06-10 | 2004-12-23 | California Institute Of Technology | A system and method for attentional selection |
CN1477566A (zh) * | 2003-07-18 | 2004-02-25 | 北京大学计算机科学技术研究所 | 一种对镜头进行基于内容的视频检索的方法 |
Non-Patent Citations (2)
Title |
---|
基于层次和动态阈值得图像显著区域检测方法. 葛涛,冯松鹤.计算机应用,第26卷第11期. 2006 * |
基于视点转移和视区追踪的图像显著区域检测. 张鹏,王润生.软件学报,第15卷第6期. 2004 * |
Also Published As
Publication number | Publication date |
---|---|
CN101211356A (zh) | 2008-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100573523C (zh) | 一种基于显著区域的图像查询方法 | |
CN111310773B (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
CN104809187B (zh) | 一种基于rgb‑d数据的室内场景语义标注方法 | |
Huang et al. | A hierarchical conditional random field model for labeling and segmenting images of street scenes | |
Chatzichristofis et al. | CEDD: Color and edge directivity descriptor: A compact descriptor for image indexing and retrieval | |
Ohta | Knowledge-based interpretation of outdoor natural color scenes | |
CN102073748B (zh) | 一种基于视觉关键词的遥感影像语义检索方法 | |
Lu et al. | Salient object detection using concavity context | |
CN108898145A (zh) | 一种结合深度学习的图像显著目标检测方法 | |
CN103377376A (zh) | 图像分类的方法和系统、图像检索的方法和系统 | |
CN112766291A (zh) | 一种场景图像中特定目标对象的匹配方法 | |
CN104408733B (zh) | 基于对象随机游走的遥感图像视觉显著性检测方法及系统 | |
CN104182765A (zh) | 一种互联网图像驱动的三维模型最优视图自动选择方法 | |
CN105205804A (zh) | 血细胞图像中白细胞的核浆分离方法、分类方法及装置 | |
CN102651128A (zh) | 一种基于采样的图像集分割方法 | |
CN109145964B (zh) | 一种实现图像颜色聚类的方法和系统 | |
CN102208099A (zh) | 一种抗光照变化的作物彩色图像分割方法 | |
CN105930497A (zh) | 基于图像边缘和线条特征的三维模型检索方法 | |
CN105678318A (zh) | 交通标牌的匹配方法及装置 | |
CN104850857A (zh) | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 | |
CN110889718B (zh) | 方案筛选方法、方案筛选装置、介质以及电子设备 | |
CN107657276B (zh) | 一种基于寻找语义类簇的弱监督语义分割方法 | |
Wang | Robust segmentation of the colour image by fusing the SDD clustering results from different colour spaces | |
Zhang et al. | Spatial contextual superpixel model for natural roadside vegetation classification | |
CN108664968B (zh) | 一种基于文本选取模型的无监督文本定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20091223 Termination date: 20201230 |
|
CF01 | Termination of patent right due to non-payment of annual fee |