CN107610136A - 基于凸包结构中心查询点排序的显著目标检测方法 - Google Patents
基于凸包结构中心查询点排序的显著目标检测方法 Download PDFInfo
- Publication number
- CN107610136A CN107610136A CN201710866766.1A CN201710866766A CN107610136A CN 107610136 A CN107610136 A CN 107610136A CN 201710866766 A CN201710866766 A CN 201710866766A CN 107610136 A CN107610136 A CN 107610136A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- pixel
- mtd
- convex closure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 239000011159 matrix material Substances 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 6
- 230000011218 segmentation Effects 0.000 claims abstract description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 3
- 230000005476 size effect Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000005755 formation reaction Methods 0.000 claims description 2
- 238000011282 treatment Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 abstract 3
- 238000000034 method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于计算机图像识别领域,具体涉及一种基于凸包结构中心查询点排序的显著目标检测方法,包括步骤:1)构造目标区域的凸包结构,求出凸包中心;2)对图像进行超像素分割,以超像素作为节点构建闭环图模型并计算最优相似度矩阵;3)以凸包中心所在超像素及其邻接超像素为标签过的查询点,构建标签向量,进行流形排序得到前景显著图;4)以距离凸包中心最近的两条边构建标签向量,流形排序得到背景显著图;5)将前景显著图和背景显著图二值化,交集处理后得到种子节点集合,进行流形排序得到最终显著图。本发明实现的是一种自底向上的显著目标检测方法,采用凸包结构进行中心先验,能够准确地找出显著目标的位置,获得准确的前景特征。
Description
技术领域
本发明属于计算机图像识别领域,具体涉及一种基于凸包结构中心查询点排序的显著目标检测方法。
背景技术
人类在接收和感知外部世界的时候,80%的信息都是通过视觉注意。因而人类具有非常强的图像数据处理的能力,而且能够快速的在复杂的视觉场景中分辨并筛选出显著的区域。而在计算机视觉领域,随着多媒体和互联网的飞速发展和图片的井喷式增长,图像的处理至关重要。显著目标检测就是图像分析和处理前期的一个重要工作,模拟人对于显著目标的快速获取能力,对目标区域的快速检测可以将计算资源优先分配给显著区域,减少了非显著区域对资源的浪费,能够显著的提高计算机的处理和分析能力。准确的检测出图像的显著图是近几年不断深入讨论的一个课题,并且应用在很多方向,包括目标识别、图像压缩、分割、匹配、自适应编码、图像视频摘要等。
现有的图像显著性检测算法按照实现方式,可分为两大类:自底向上的目的驱动模型和自顶向下的任务驱动模型。自顶向下的模型是从高级语义入手,通过任务驱动,如对特定目标进行检测。而自底向上模型是从底层入手,对图像的颜色,边缘,纹理等信息进行处理。
常用的显著目标检测算法主要有基于局部对比和基于全局对比两种。
局部对比方法将某区域与邻域内其他区域进行比较,如多尺度测量方式,中心-周围算子等。Ma和Zhang提出了基于LUV颜色空间计算感知单元的邻域对比,通过模糊增长的方式提取显著区域[1]。Liu等利用高斯金字塔的线性融合,计算多尺度局部对比度特征来得到显著区域[2]。Borji利用字典学习的方法从自然图片中学习图像的稀疏编码,利用稀疏编码分析图像的局部对比度[3]。基于局部对比度的方法过于注重图像的细节,无法均匀的凸显整个显著区域,而且存在噪声误检。
全局对比方法是将某区域与整个图像范围内的其他区域均进行比较。Cheng提出了一种基于直方图对比度的计算方式(RC)[4],该方法首先将图进行过分割为小的区域,以全局范围的颜色距离和空间距离加权衡量每个区域的显著性,特殊颜色空间分布用来描述显著区域。Yang提出了一种基于图模型的显著目标检测方法(MR算法)[5],将流形排序[6]引入到显著性检测中。以上全局对比方法虽然具有不错的效果和一定的代表性,但由于过分依赖边界背景,导致对于目标严重偏离中心区域的图像或背景复杂的图像,无法准确地检测出显著区域。
现有技术文件信息如下:
[1]Y.F.Ma,H.J.Zhang.Contrast-Based Image Attention Analysis by UsingFuzzy Growing[C].Proceedings of the Eleventh ACM International Conference onMultimedia,Berkeley,CA,USA,2003,374-381
[2]T.Liu,J.Sun,N.N.Zheng.Learning to detect a salient object[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Minneapolis,Minnesota,USA,2007,1-8
[3]Borji A.Itti L.Exploiting local and global patch rarities forsaliency detection[C].Computer Vision and Pattern Recognition(CVPR),2012IEEEconference on.IEEE,2012:478-485.
[4]M.M.Cheng,G.X.Zhang,N.J.Mitra,et al.Global contrast based salientregion detection[C].In Proceedings of IEEE Conference on Computer Vison andPattern Recognition,2011,409-416
[5]Chuan Yang,Lihe Zhang,Huchuan Lu,Xiang Ruan,Ming-HsuanYang.Saliency Detection via Graph-Based Manifold Ranking.Proceedings of IEEEconference on Computer Vision and Pattern Recognition(CVPR 2013),Portland,June,2013.
[6]D.Zhou.J.Weston,A.Gretton,et al.Ranking on data manifolds[C].InAdvances in Neural Information Processing Systems,2004.
发明内容
为了解决现有技术中存在的上述技术问题,本发明提供了一种基于凸包结构中心查询点排序的显著目标检测方法。
本发明的技术解决方案是:一种基于凸包结构中心查询点排序的显著目标检测方法,其特殊之处在于,包括以下步骤:
1)获取图像,构造目标区域的凸包结构,并求出凸包中心O;
2)对图像进行超像素分割,以超像素作为节点,构建闭环图模型G,重新定义图模型的关联矩阵P′,并计算最优相似度矩阵A;
3)以凸包中心O所在超像素及其邻接超像素为标签过的查询点,构建标签向量y1,进行流形排序得到前景显著图S1=A×y1;
4)以距离凸包中心O最近的两条边作为查询点,构建标签向量y2和y3,流形排序得到显著图S2=1-A×y2和显著图S3=1-A×y3,再将两个显著图S2和S3以相乘的方式得到背景显著图S4=S2×S3;
5)将前景显著图S1和背景显著图S4二值化处理,分别得到前景种子q1和背景种子q2;对前景种子q1和背景种子q2进行交集处理后,得到种子查询点集合,进行流形排序得到最终显著图S。
进一步地,步骤1)的实现方式是:
1.1)获取图像;
1.2)利用颜色增强Harris角点检测算法检测出图像中的角点,包括显著区域的轮廓点;
1.3)消除靠近图像边界的兴趣点,计算出剩余的包含中心查询点的凸包;
1.4)计算凸包中心O;
进一步地,步骤1.2)的实现方式是:
1.2.1)利用水平和竖直两差分算子对图像的像素点进行滤波得到水平梯度Ix和竖直梯度Iy,进而得到梯度乘积m:
1.2.2)对梯度乘积m的每个元素进行高斯滤波,得到Harris矩阵M:
其中,x和y分别为图像像素点的横、纵坐标,w(x,y)为高斯窗函数滤波器;
1.2.3)计算对应于每一个像素点的角点响应函数R:
R=detM-δ(traceM)2
其中,δ为调节参数,δ的取值范围是0-0.1;
1.2.4)筛选所有角点响应函数R大于阈值的像素点,作为角点或者显著区域的轮廓点。
进一步地,凸包中心O的横坐标为凸包所包含的像素点的横坐标的平均值,凸包中心O的纵坐标为凸包所包含的像素点的纵坐标的平均值。
进一步地,步骤2)的实现方式是:
2.1)将图形分割成N个大小一致且视觉效果均匀的超像素区域;
2.2)以超像素作为节点v构成节点集V,以相邻超像素之间共享的边作为超像素间的关联构成边集E;处于图像边界的超像素两两相连,并通过四条图像边界,构建闭环图模型G(V,E);
2.3)计算闭环图模型G(V,E)的考虑非相邻像素点影响的关联矩阵P′:
2.3.1)构建一个N*N的关联矩阵P,定义每个对应元素如下:
2.3.2)求出各超像素的空间距离矩阵,并归一化;定义当距离小于设定阈值时为1,否则为0,从而得到N*N的距离矩阵;
2.3.3)将关联矩阵P与距离矩阵求并集,得到闭环图模型G(V,E)的考虑非相邻像素点影响的关联矩阵P′,P′为仅包含0、1元素的N阶方阵;
2.4)根据超像素的空间距离和颜色距离以及关联矩阵P′,计算度矩阵D和相似度矩阵W:
D=diag{d11,d22,…dnn}
W=[wi,j]n×n
其中,p′i,j为关联矩阵中对应(i,j)点的值,k为权重系数,i和j是节点的下标,D(vi,vj)是vi和vj之间的空间距离,c是节点v所包含像素在CIELAB空间的颜色均值,||ci-cj||是ci和cj之间的欧式距离,σ1是用于控制空间距离加权的强度,σ2是用于控制颜色距离加权的强度;
2.5)计算最优相似度矩阵A=(D-αW)-1,其中α为调节参数,α∈[0,1);
进一步地,步骤2.3)中的其中(xi,yi)表示超像素节点vi的中心点坐标。
进一步地,步骤3)中的标签向量y1是一个n×1维向量,其中凸包中心O所在的超像素所在节点以及与凸包中心O所在的超像素相连的节点的标签项均赋值为1,其余节点的标签项均赋值为0。
本发明的有益效果在于:
(1)本发明实现的是一种自底向上的显著目标检测方法,采用凸包结构进行中心先验,能够准确地找出显著目标的位置,获得准确的前景特征。
(2)本发明采用距离凸包中心最近的两个边进行排序,有效的抑制了边缘背景对目标的干扰,对于目标远离图像中心的情况有较好的效果。
(3)本发明充分将空间距离因素考虑在内,重新定义了图模型的关联矩阵,并求出了颜色距离和空间距离相结合的相似度矩阵,使得算法具有更高的鲁棒性。
(4)本发明采用前景种子和背景种子相与的方式,确保最后排序的种子节点为目标节点,提高了准确率。
附图说明
图1为本发明显著目标检测方法的步骤流程图。
图2为本发明显著目标检测方法的各步骤效果示意图。
图3为本发明在MSRA1000数据集上与各个算法的显著图对比结果。
具体实施方式
参见图1和图2,本发明提供了一种基于凸包中心流形排序的显著目标检测方法,其较佳实施例的操作步骤具体如下。
步骤一,获取图像,构造目标区域的凸包结构,并求出凸包中心O。
利用颜色增强Harris角点检测算子,检测出彩图像中的角点或者显著区域的轮廓点,消除靠近图像边界的兴趣点之后,计算出剩余的包含中心兴趣点的凸包,并计算出凸包中心O。
Harris算法步骤如下:
(1)利用水平和竖直两差分算子对图像的像素点进行滤波得到水平和竖直两梯度Ix,Iy,进而得到梯度的乘积。
(2)进一步对m的每个元素进行高斯滤波,得到新的M,称为Harris矩阵
其中,w(x,y)为所选的高斯窗函数滤波器。
(3)计算对应于每一个像素点的角点响应函数R:
R=detM-k(traceM)2
通过将R与所设阈值对比,当R>threshold,则该像素为角点。
凸包:通过一个凸多边形将Harris算法检测到的显著点都包含起来,这个凸多边形将图像分割成两部分,显著区域包含在凸包结构中而外部区域的像素趋于背景。
凸包中心:O=(oi,oj),而凸包中心的横纵坐标利用求凸包所包含的像素点的横纵坐标的平均值表示。
步骤二,将图像分割成超像素,并对每一个超像素标定,以超像素作为节点,构建一个闭环图模型G,重新定义图模型的关联矩阵P′,求出度矩阵D和相似度矩阵W,并计算最优相似度矩阵A。
利用SLIC算法,将图像分割成N个(根据程序,可调)大小一致且视觉效果均匀的超像素区域,以每一个超像素为节点,考虑不相邻的超像素的位置距离,构建一个闭环的新型图模型G=(V,E),根据超像素的空间距离和颜色距离,计算度矩阵D和相似度矩阵W。闭环图模型可以缩短超像素之间的测地距离,提高显著目标检测的准确率。
闭环图构建方式如下:
1.利用SLIC算法将输入图像分割成若干个大小一致且具有均匀视觉效果的超像素,将每一个超像素都作为图模型G的节点v,从而构成N维的节点集V(G);相邻的超像素之间共享同一条边,记作e=vivj,称作超像素间的关联,所有的关联构成图G边集E(G)。
2.处于图像边界的超像素两两相连,并通过四条边,构成了一个连通的环。
3.特别的,在图像复杂的区域会出现距离相近但并不邻接的两超像素节点,按照传统的图模型(相邻节点邻接矩阵的对应元素为1,不相邻的对应元素为0),往往不考虑这些非相邻像素点的影响。本发明对此特别的做了改变。具体步骤如下:
3.1构建一个N*N的关联矩阵P,定义每个对应元素如下:
3.2)求出各超像素的空间距离矩阵,并归一化;定义当距离小于设定阈值时为1,否则为0,从而得到N*N的距离矩阵;
3.3)将关联矩阵P与距离矩阵求并集,得到闭环图模型G(V,E)的考虑非相邻像素点影响的关联矩阵P′;
步骤三,以凸包中心为标签过的查询点(query),构建标签向量y1,利用流形排序的迭代公式,求出前景显著图S1。
流行排序算法是一种以图模型来模拟数据集的流行结构,通过对图模型各个查询点之间的结构和关系建立,查询点会不断的把自身的排序值传递给相连接的查询点,直到达到最优效果为止。最终得到的排序反映了以该查询点为中心,其他查询点与此之间的关系紧密程度。给定一个数据集合X={x1…xl,xl+1…xn}∈Rn×m,包括l个已标记过的查询数据以及n-l个未标记的需要排序的数据。f:X→Rn表示数列的一种排序方程,fi表示对应数据xi的排序值,f可以表示为一个n维向量f=[f1,f2…fn]T。y=[y1,…yn]T表示需要排序的数据的一个标签向量,当xi为所需查询的数据节点时,对应的yi=1,当xi不是查询数据节点时,yi=0。具体的算法步骤如下:
1.根据分割后得超像素图构建一个闭环得带权图模型G(V,E),其中V为顶点集(vertex),在图中表示为超像素的集合,E为边集合(edge)。边E的权重表示为相似度矩阵W=[wi,j]n×n,计算图的度矩阵D=diag{d11,d22,…dnn},其中对相似度矩阵W归一化后得S=D-1/2WD-1/2。
2.对排序算法得目标函数进行求解
得到最优解f*=(I-αS)-1y,其中α是调节参数,α∈[0,1)。非归一化的解为
f*=(D-αW)-1y (2)
令A=(D-αW)-1,A称作最优相似度矩阵,则
f*=Ay (3)
标签向量yi=1在此表示为该标签过的超像素的显著值为1。边集E的权重定义为两个超像素之间的颜色距离和空间距离的乘积。
其中k为一个权重系数,i,j是节点的下标,D(vi,vj)表示两个节点的空间距离:(xi,yi)表示超像素节点vi的中心点坐标。ci是节点vi所包含像素在CIELAB空间的颜色均值。||ci-cj||为ci,cj之间的欧式距离。
由于人眼在观察一幅图像时,视觉注意点往往停留在某一块颜色显著的整体区域,很少分散在整幅图片上,这样的权重系数,将颜色距离和空间距离同时考虑在内,既保证的颜色差异对超像素显著值的影响,也使得显著性区域在空间上更加紧密。
通过wi,j构建相似度矩阵W,进一步求出最优相似度矩阵A,则图像的显著值可用公式(2)表示为f*=Ay。当基于显著区域的查询点进行排序时,每个节点的显著值定义为归一化的排序向量f*,当基于背景区域的查询点排序时,则显著值定义为1-f*。
基于步骤一得到的凸包中心O=(oi,oj)定义标签向量为n×1维向量y1,其中凸包中心所在超像素vi以及与该超像素相连的节点赋值为1,其余点为0。利用公式(3)进行流形排序,得到一个显著图S1。
步骤四,以距离凸包中心O=(oi,oj)最近的两条边构建标签向量y2,y3,利用流行排序的迭代公式求出显著图S2和S3。进一步得到S4。
假设输入的图像大小为m×n,即表示有m×n个像素点,通过比较中心坐标与四条边的距离,找出横向和纵向两个最近的边。
min(oi,m-oi)and min(oj,m-oj),
以最近的两条边的超像素作为新的标签向量y2,y3,(如果某超像素存在与该条边上,则对应的标签项为1,否则为0)再次利用公式(3)进行流行排序,通过公式1-f*得到两个背景显著图S2,S3,两个显著图通过相乘的方式得到新的背景特征显著图S4。
选择距离最近的两条边,是为保证显著目标不会因为离该条边太远,而导致权重系数太小,进而通过流形排序时丢失目标。这种方式对于显著目标原理图像中心的情况具有很好鲁棒性。
步骤五:将步骤三和步骤四得到的显著图通过自定义阈值的方法进行二值化处理,阈值可选该图像的平均显著值,得到前景种子q1和背景种子q2,通过求交集的方式进行合并,得到新的基于目标得种子节点集合,
qf=q1∩q2
以该集合作为新的标签向量再次通过公式(3)进行排序,得到最终的显著图。
通过求交集,可以有效的将错误当成背景的种子节点去除,保证种子节点的正确率。
图3是本发明与近几年的几种最新的非机器学习算法进行比较分析。其中(a)为输入图片,(b)为标记过的显著目标,(c)为本发明的实现结果,(d)、(e)和(f)分别为三种有代表性的显著目标检测方法。
Claims (7)
1.一种基于凸包结构中心查询点排序的显著目标检测方法,其特征在于,包括以下步骤:
1)获取图像,构造目标区域的凸包结构,并求出凸包中心O;
2)对图像进行超像素分割,以超像素作为节点,构建闭环图模型G,重新定义图模型的关联矩阵P′,并计算最优相似度矩阵A;
3)以凸包中心O所在超像素及其邻接超像素为标签过的查询点,构建标签向量y1,进行流形排序得到前景显著图S1=A×y1;
4)以距离凸包中心O最近的两条边构建标签向量y2和y3,流形排序得到显著图S2=1-A×y2和显著图S3=1-A×y3,再将两个显著图S2和S3以相乘的方式得到背景显著图S4=S2×S3;
5)将前景显著图S1和背景显著图S4二值化处理,分别得到前景种子q1和背景种子q2;对前景种子q1和背景种子q2进行交集处理后,得到种子节点集合,进行流形排序得到最终显著图S。
2.根据权利要求1所述的基于凸包结构中心查询点排序的显著目标检测方法,其特征在于,步骤1)的实现方式是:
1.1)获取图像;
1.2)利用颜色增强Harris角点检测算法检测出图像中的角点,所述角点包括显著区域的轮廓点;
1.3)消除靠近图像边界的兴趣点,求出剩余的兴趣点的凸包结构;
1.4)计算凸包中心O。
3.根据权利要求2所述的基于凸包结构中心查询点排序的显著目标检测方法,其特征在于,步骤1.2)的实现方式是:
1.2.1)利用水平和竖直两差分算子对图像的像素点进行滤波得到水平梯度Ix和竖直梯度Iy,进而得到梯度乘积m:
<mrow>
<mi>m</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msubsup>
<mi>I</mi>
<mi>x</mi>
<mn>2</mn>
</msubsup>
</mtd>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mi>x</mi>
</msub>
<msub>
<mi>I</mi>
<mi>y</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mi>x</mi>
</msub>
<msub>
<mi>I</mi>
<mi>y</mi>
</msub>
</mrow>
</mtd>
<mtd>
<msubsup>
<mi>I</mi>
<mi>y</mi>
<mn>2</mn>
</msubsup>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
1.2.2)对梯度乘积m的每个元素进行高斯滤波,得到Harris矩阵M:
<mrow>
<mi>M</mi>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</munder>
<mi>w</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msubsup>
<mi>I</mi>
<mi>x</mi>
<mn>2</mn>
</msubsup>
</mtd>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mi>x</mi>
</msub>
<msub>
<mi>I</mi>
<mi>y</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mi>x</mi>
</msub>
<msub>
<mi>I</mi>
<mi>y</mi>
</msub>
</mrow>
</mtd>
<mtd>
<msubsup>
<mi>I</mi>
<mi>y</mi>
<mn>2</mn>
</msubsup>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,x和y分别为图像像素点的横、纵坐标,w(x,y)为高斯窗函数滤波器;
1.2.3)计算对应于每一个像素点的角点响应函数R:
R=det M-δ(traceM)2
其中,δ为调节参数,δ的取值范围是0-0.1;
1.2.4)筛选所有角点响应函数R大于阈值的像素点,作为角点或者显著区域的轮廓点。
4.根据权利要求3所述的基于凸包结构中心查询点排序的显著目标检测方法,其特征在于:凸包中心O的横坐标为凸包所包含的像素点的横坐标的平均值,凸包中心O的纵坐标为凸包所包含的像素点的纵坐标的平均值。
5.根据权利要求1,3或4所述的基于凸包结构中心查询点排序的显著目标检测方法,其特征在于,步骤2)的实现方式是:
2.1)将图形分割成N个大小一致且视觉效果均匀的超像素区域;
2.2)以超像素作为节点v构成节点集V,以相邻超像素之间共享的边作为超像素间的关联构成边集E;处于图像边界的超像素两两相连,并通过四条图像边界,构建闭环图模型G(V,E);
2.3)计算闭环图模型G(V,E)的考虑非相邻像素点影响的关联矩阵P′:
2.3.1)构建一个N*N的关联矩阵P,定义每个对应元素如下:
2.3.2)求出各超像素的空间距离矩阵,并归一化;定义当距离小于设定阈值时为1,否则为0,从而得到N*N的距离矩阵;
2.3.3)将关联矩阵P与距离矩阵求并集,得到闭环图模型G(V,E)的考虑非相邻像素点影响的关联矩阵P′,P′为仅包含0、1元素的N阶方阵;
2.4)根据超像素的空间距离和颜色距离以及关联矩阵P′,计算度矩阵D和相似度矩阵W:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<msubsup>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>&times;</mo>
<mfrac>
<mn>1</mn>
<mi>k</mi>
</mfrac>
<mi>exp</mi>
<mo>&lsqb;</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>&sigma;</mi>
<mn>1</mn>
<mn>2</mn>
</msubsup>
</mfrac>
<mo>&rsqb;</mo>
<mo>&CenterDot;</mo>
<mi>exp</mi>
<mo>&lsqb;</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>c</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>c</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
<msubsup>
<mi>&sigma;</mi>
<mn>2</mn>
<mn>2</mn>
</msubsup>
</mfrac>
<mo>&rsqb;</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>&Element;</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<msub>
<mi>d</mi>
<mrow>
<mi>i</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>j</mi>
</munder>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
D=diag{d11,d22,…dnn}
W=[wi,j]n×n
其中,p′i,j为关联矩阵中对应(i,j)点的值,k为权重系数,i和j是节点的下标,D(vi,vj)是vi和vj之间的空间距离,c是节点v所包含像素在CIELAB空间的颜色均值,||ci-cj||是ci和cj之间的欧式距离,σ1是用于控制空间距离加权的强度,σ2是用于控制颜色距离加权的强度;
2.5)计算最优相似度矩阵A=(D-αW)-1,其中α为调节参数,α∈[0,1)。
6.根据权利要求5所述的基于凸包结构中心查询点排序的显著目标检测方法,其特征在于:步骤2.4)中的其中(xi,yi)表示超像素节点vi的中心点坐标。
7.根据权利要求1所述的基于凸包结构中心查询点排序的显著目标检测方法,其特征在于:步骤3)中的标签向量y1是一个n×1维向量,其中凸包中心O所在的超像素所在节点以及与凸包中心O所在的超像素相连的节点的标签项均赋值为1,其余节点的标签项均赋值为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710866766.1A CN107610136B (zh) | 2017-09-22 | 2017-09-22 | 基于凸包结构中心查询点排序的显著目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710866766.1A CN107610136B (zh) | 2017-09-22 | 2017-09-22 | 基于凸包结构中心查询点排序的显著目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107610136A true CN107610136A (zh) | 2018-01-19 |
CN107610136B CN107610136B (zh) | 2019-12-31 |
Family
ID=61061786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710866766.1A Active CN107610136B (zh) | 2017-09-22 | 2017-09-22 | 基于凸包结构中心查询点排序的显著目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107610136B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034001A (zh) * | 2018-07-04 | 2018-12-18 | 安徽大学 | 一种基于时空线索的跨模态视频显著性检测方法 |
CN111581710A (zh) * | 2020-05-19 | 2020-08-25 | 北京数字绿土科技有限公司 | 架空输电线路杆塔挠度自动获取方法及装置 |
CN113159025A (zh) * | 2021-03-26 | 2021-07-23 | 西安交通大学 | 一种图像显著性检测方法、系统、终端及可读存储介质 |
CN115952312A (zh) * | 2022-12-02 | 2023-04-11 | 北京工业大学 | 一种图像标签的自动标注与排序方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN103914834A (zh) * | 2014-03-17 | 2014-07-09 | 上海交通大学 | 一种基于前景先验和背景先验的显著性物体检测方法 |
CN105761238A (zh) * | 2015-12-30 | 2016-07-13 | 河南科技大学 | 一种通过灰度统计数据深度信息提取显著目标的方法 |
CN106127785A (zh) * | 2016-06-30 | 2016-11-16 | 重庆大学 | 基于流形排序和随机游走的图像显著性检测方法 |
CN106874917A (zh) * | 2017-02-22 | 2017-06-20 | 南京邮电大学 | 一种基于Harris角点的显著性目标检测方法 |
-
2017
- 2017-09-22 CN CN201710866766.1A patent/CN107610136B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN103914834A (zh) * | 2014-03-17 | 2014-07-09 | 上海交通大学 | 一种基于前景先验和背景先验的显著性物体检测方法 |
CN105761238A (zh) * | 2015-12-30 | 2016-07-13 | 河南科技大学 | 一种通过灰度统计数据深度信息提取显著目标的方法 |
CN106127785A (zh) * | 2016-06-30 | 2016-11-16 | 重庆大学 | 基于流形排序和随机游走的图像显著性检测方法 |
CN106874917A (zh) * | 2017-02-22 | 2017-06-20 | 南京邮电大学 | 一种基于Harris角点的显著性目标检测方法 |
Non-Patent Citations (3)
Title |
---|
NAVJOT SINGH等: "A convex hull approach in conjunction with Gaussian mixture model for salient object detection", 《IEEE》 * |
汪梅: "基于流行排序和结合前景背景特征的图像显著性检测", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
邓晨: "融合多尺度对比与贝叶斯模型的显著目标检测", 《计算机工程与应用》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034001A (zh) * | 2018-07-04 | 2018-12-18 | 安徽大学 | 一种基于时空线索的跨模态视频显著性检测方法 |
CN111581710A (zh) * | 2020-05-19 | 2020-08-25 | 北京数字绿土科技有限公司 | 架空输电线路杆塔挠度自动获取方法及装置 |
CN113159025A (zh) * | 2021-03-26 | 2021-07-23 | 西安交通大学 | 一种图像显著性检测方法、系统、终端及可读存储介质 |
CN113159025B (zh) * | 2021-03-26 | 2024-04-05 | 西安交通大学 | 一种图像显著性检测方法、系统、终端及可读存储介质 |
CN115952312A (zh) * | 2022-12-02 | 2023-04-11 | 北京工业大学 | 一种图像标签的自动标注与排序方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107610136B (zh) | 2019-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830246B2 (en) | Systems and methods for extracting and vectorizing features of satellite imagery | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
Tao et al. | Smoke detection based on deep convolutional neural networks | |
CN103413151B (zh) | 基于图正则低秩表示维数约简的高光谱图像分类方法 | |
CN105761238B (zh) | 一种通过灰度统计数据深度信息提取显著目标的方法 | |
Zhang et al. | Road recognition from remote sensing imagery using incremental learning | |
CN107610136A (zh) | 基于凸包结构中心查询点排序的显著目标检测方法 | |
CN109034035A (zh) | 基于显著性检测和特征融合的行人重识别方法 | |
CN103927511A (zh) | 基于差异特征描述的图像识别方法 | |
CN112232184A (zh) | 一种基于深度学习和空间转换网络的多角度人脸识别方法 | |
CN104850857A (zh) | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 | |
Sun et al. | Which target to focus on: Class-perception for semantic segmentation of remote sensing | |
Naseer et al. | Efficient Aerial Images Algorithms over Multi-objects labeling and Semantic Segmentation | |
Yao et al. | Semantic Segmentation for Remote Sensing Image Using the Multi-Granularity Object-based Markov Random Field with Blinking Coefficient | |
Ouzounis et al. | Interactive collection of training samples from the max-tree structure | |
CN102156879B (zh) | 基于加权陆地运动距离的人体目标匹配方法 | |
CN110414379A (zh) | 结合高程图Gabor纹理特征和LiDAR点云特征的建筑物提取算法 | |
Sun et al. | The recognition framework of deep kernel learning for enclosed remote sensing objects | |
Chen et al. | Improved Faster R-CNN identification method for containers | |
Wang | MRCNNAM: Mask Region Convolutional Neural Network Model Based On Attention Mechanism And Gabor Feature For Pedestrian Detection | |
CN117437234B (zh) | 基于图神经网络的航片地物分类与变化检测方法 | |
Hu et al. | Salient object detection via spectral clustering | |
CN112419227B (zh) | 基于小目标搜索缩放技术的水下目标检测方法和系统 | |
Li | Research on Image Segmentation Technology and Intelligent Language Recognition Based on Ant Colony Algorithm | |
CN115984583B (zh) | 数据处理方法、装置、计算机设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |