CN103927758B - 一种基于对比度与角点最小凸包的显著性检测方法 - Google Patents

一种基于对比度与角点最小凸包的显著性检测方法 Download PDF

Info

Publication number
CN103927758B
CN103927758B CN201410180885.8A CN201410180885A CN103927758B CN 103927758 B CN103927758 B CN 103927758B CN 201410180885 A CN201410180885 A CN 201410180885A CN 103927758 B CN103927758 B CN 103927758B
Authority
CN
China
Prior art keywords
pixel
super
notable
point
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410180885.8A
Other languages
English (en)
Other versions
CN103927758A (zh
Inventor
范敏
陈曦
王楷
石欣
熊庆宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201410180885.8A priority Critical patent/CN103927758B/zh
Publication of CN103927758A publication Critical patent/CN103927758A/zh
Application granted granted Critical
Publication of CN103927758B publication Critical patent/CN103927758B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开一种基于对比度与角点最小凸包的显著性检测方法。首先根据超像素的全局对比计算全局显著图,然后使用中心—周围算子计算局部显著图,最后根据Harris角点的最小凸包估计主要目标的位置与大小过滤到背景中部分区域的干扰,使得主要目标得以突出。

Description

一种基于对比度与角点最小凸包的显著性检测方法
技术领域
本发明涉及一种利用对比度与角点最小凸包的方法对图像显著性目标进行检测,不需要目标图像的先验知识,是一种由图像本身数据驱动的检测方法。
背景技术
人眼在观察一副复杂的图像时可以迅速找到自己感兴趣的区域,图像的显著性检测就是利用计算机模拟人眼这种视觉特性。显著性检测是目前计算机视觉领域研究的一个热点课题,其结果可以从一个复杂的图像中提取出更容易吸引人注意力的区域即显著性高的区域。图像的显著区域常含有丰富的信息,所以显著性检测的结果可以广泛地应用于图像压缩、目标识别、图像检索等领域。目前的显著性检测方法主要基于两种视觉模型:自下向上与自上向下。自下向上的计算模型由数据驱动,根据图像本身的数据进行检测,不需要事先对图像进行学习,处理速度较快。自上向下的计算模型由任务、知识驱动,需要对大量图像进行学习,处理的速度较慢,并且检测结果很大程度上取决于观察的目的性。本发明基于自下向上的计算模型,根据图像本身的颜色与方向等信息计算显著性。
下面对国内外自下向上的显著性检测算法做相关的介绍。Itti于1998年提出的Itti模型为以后的显著性研究提供了一个很好的思路,Itti将图像分成颜色、亮度和方向三个通道,通过向下采样、高斯滤波和中心—周围算子计算图像的显著图。Harel等人于2007年提出了GBVS(Grahp-Based Visual Saliency)算法,根据Itti的思路也将图像分为多个通道,根据图像中像素之间的差异与欧式距离建立马尔科夫链,根据马尔科夫链的平稳分布计算图像的显著图。HOU等人与2007年从频域幅度角度出发提出了基于频域的残余光谱方法”Saliency detection:a spectral residual approach”。Gopalakrishnan于2009年提出”Salient region detection by modeling distributions of color andorientation”,根据空间域中颜色和方向分量所占比例计算显著性,但是当图像中颜色种类比较多时检测效果不够理想。Goferman等人与2010年提出了“Context-aware saliencydetection”算法,利用多尺度下的局部特征与全局特征估计一个图像块的显著性,这种方法计算量大,由于采用了局部特征有时会对物体的边缘过于敏感而不能突出整个目标。Wei等人于2012年提出“Geodesic saliency using background priors”算法,使用背景先验可能将背景独立的物体检测出来,并没有结合显著物体本身的特性。ZHU等人于2013年提出“Multi-scale region-based saliency detection using W2 distance on N-dimensional normal distributions”算法,根据多个尺度下超像素之间的W2距离计算图像的全局与局部显著图,这种方法基于超像素之间的对比度计算显著性,当背景比较复杂时容易出现误判。
目前国内关于显著性的算法多基于图像中各个区域之间的对比度计算显著性,但是在很多图像中背景的部分区域也有较高的对比度,导致检测结果不能有效地将主要目标与这部分区域区分开。本发明采取不同的方法,基于图像的局部、全局对比度与Harris角点的最小凸包确定显著目标,使得最终显著图可以有效地将主要目标从背景中提取出来。
发明内容
根据现有技术中的缺陷,本发明的目的提出一种基于对比度与角点最小凸包的显著性检测算法。该方法首先根据区域之间的对比度找出对比度较高的区域,然后计算出图像中Harris角点的最小凸包,根据最小凸包估计出主要目标的位置与大小,将背景区域滤除掉,使得最终的显著图能有效地提取出主要目标。
为实现本发明目的而采用的技术方案是这样的,一种基于对比度与角点最小凸包的显著性检测方法,其特征在于,包括以下步骤:
1)将图像分割成若干个超像素,以Si表示第i个超像素,i=1、2……M,即得到超像素集合S={S1,S2…SM},以每一个超像素作为基本计算单位;
2)Si的特征表示为:
其中:是第i个超像素中每个像素点CIELab颜色空间的三维正太分布,是第i个超像素中每个像素点CIELab颜色空间三维正太分布中每一维均值组成的向量、nc(i)是第i个超像素中每个像素点CIELab颜色空间三维正太分布的协方差矩阵;是Gabor滤波得到的第i个超像素中每个像素点在四个角度的方向数值拟合的四维正太分布,是第i个超像素中每个像素点方向数值拟合的四维正太分布中每一维均值组成的向量、no(i)是第i个超像素中每个像素点方向数值拟合的四维正太分布的协方差矩阵;c(i)(x(i),y(i))是集合S中第i个超像素的几何中心点;
3)根据式(1)计算集合S中任意两个超像素Sa和Sb之间的沃瑟斯坦距离Wco2(a,b),其中,Wc2(a,b)表示沃瑟斯坦距离的颜色分量、Wo2(a,b)表示沃瑟斯坦距离的方向分量、Wc为颜色的权重值、Wo为方向的权重值;
4)使用超像素之间的Wco2(a,b)平方的相反数构建聚类的相似矩阵,对集合S中的超像素进行AP聚类,即能从S={S1,S2...SM}中提取出若干超像素作为聚类的中心点C={C1,C2...CK},
将聚类的r参数r(Si,Cj)全部标准化为到[-1,0]后,按式(2)进行指数处理,其中:Si∈S、Cj∈C,j=1、2……K:
5)计算每个超像素Si处于各个中心点聚类的概率Pg(Cj|Si):
然后按式(4)计算每个聚类是显著的概率Pg(Cn),其中:D(i,j)为超像素Si与中心点Cj的欧氏距离,Cn∈C:
将上述式(3)和式(4)相结合,即可得到全局显著图Pg(Si):
6)根据超像素之间的Wasserstein距离和欧式距离,使用“中心-周围算子”按照式(6)计算局部显著图;式中,σ表示集合S中的所有超像素的中心点的距离平均值;得到局部显著图Pl(Si),其中(xi,yi)是集合S中第i个超像素的几何中心点,(xq,yq)是集合S中第q个超像素的几何中心点,(xj,yj)是集合C中第j个超像素的几何中心点;
7)计算出图像中的哈里斯角点,将靠近图像边缘的角点去除,计算角点的最小凸包以及最小凸包的中心点;根据式(7)计算中心显著图;(xHm,yHm)表示最小凸包的中心点坐标,得到中心显著图Pc(i),σx表示集合S中的所有超像素的中心点的x坐标的方差,σy表示集合S中的所有超像素的中心点的y坐标的方差:
8)求全局显著图Pg(Si)与局部显著图Pl(Si)的均值,该均值乘以中心显著图Pc(i)得到最终的显著图。
本发明的技术效果是毋庸置疑的,首先根据超像素的全局对比计算全局显著图,然后使用中心—周围算子计算局部显著图,最后根据Harris角点的最小凸包估计主要目标的位置与大小过滤到背景中部分区域的干扰,使得主要目标得以突出。
附图说明
图1为步骤1中待处理的图片;
图2为步骤1中分割成若干超像素的图片;
图3为步骤5得到的可得到全局显著图;
图4为步骤6得到的局部显著图;
图5为步骤7得到的角点的最小凸包;
图6为步骤7得到的中心显著图;
图7为步骤8得到的为最终的显著图;
图8为本发明的流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,但不应该理解为本发明上述主题范围仅限于下述实施例。在不脱离本发明上述技术思想的情况下,根据本领域普通技术知识和惯用手段,做出各种替换和变更,均应包括在本发明的保护范围内。
通过扫描或数码相机拍照的方式,得到一幅待处理图像,如图1所示。
1)使用步长为25、紧致性参数为20的SLIC图像分割方法(Achanta等人于2012年提出“SLICSuperpixels”),将图像分割成若干个超像素(superpixel),以Si表示第i个超像素,i=1、2……M,即得到超像素集合S={S1,S2…SM},以每一个超像素作为基本计算单位,如图2所示。
2)Si的特征表示为:
其中:是第i个超像素中每个像素点CIELab颜色空间的三维正太分布,是第i个超像素中每个像素点CIELab颜色空间三维正太分布中每一维均值组成的向量、nc(i)是第i个超像素中每个像素点CIELab颜色空间三维正太分布的协方差矩阵;是使用波长为3、X比例因子为0.5、Y比例因子为0.5的Gabor滤波得到的第i个超像素中每个像素点在0度、45度、90度和135度四个角度的方向数值拟合的四维正太分布,是第i个超像素中每个像素点方向数值拟合的四维正太分布中每一维均值组成的向量、no(i)是第i个超像素中每个像素点方向数值拟合的四维正太分布的协方差矩阵;c(i)(x(i),y(i))是集合S中第i个超像素的几何中心点。
3)根据下式计算集合S中任意两个超像素Sa和Sb之间的沃瑟斯坦距离(Wasserstein)Wco2(a,b),其中,Wc2(a,b)表示沃瑟斯坦距离的颜色分量、Wo2(a,b)表示沃瑟斯坦距离的方向分量、Wc为颜色的权重值、Wo为方向的权重值,可以根据实际情况进行修改。优选地,Wc=0.5、Wo=0.5。
4)使用超像素之间的Wco2(a,b)平方的相反数构建聚类的相似矩阵(Brendan等人于2012年提出“Clustering by passing messages between data points”),对集合S中的超像素进行AP聚类,即能从S={S1,S2...SM}中提取出若干超像素作为聚类的中心点C={C1,C2...CK},
将聚类的r参数(responsibility)r(Si,Cj)全部标准化为到[-1,0]后进行指数处理,其中:Si∈S、Cj∈C,j=1、2……K:
5)计算每个超像素Si处于各个中心点聚类的概率Pg(Cj|Si):
然后计算每个聚类是显著的概率Pg(Cn),其中:D(i,j)为超像素Si与中心点Cj的欧氏距离,Cn∈C:
将上述两式相结合即可得到全局显著图Pg(Si),计算结果如图3:
6)根据超像素之间的Wasserstein距离和欧式距离,使用“中心-周围算子”计算局部显著图,为了确保相邻范围内空间的半径按照比例缩放,式中σ表示集合S中的所有超像素的中心点的距离平均值;得到局部显著图Pl(Si),其中(xi,yi)是集合S中第i个超像素的几何中心点,(xq,yq)是集合S中第q个超像素的几何中心点,(xj,yj)是集合C中第j个超像素的几何中心点。计算结果如图4:
7)计算出图像中的哈里斯角点(Harris角点,Weijer等人与2006年提出“Boostingcolor saliency in image feature detection”),将靠近图像边缘的角点去除,计算角点的最小凸包以及最小凸包的中心点。根据下式计算中心显著图。(xHm,yHm)表示最小凸包的中心点坐标,得到中心显著图Pc(i),σx表示集合S中的所有超像素的中心点的x坐标的方差,σy表示集合S中的所有超像素的中心点的y坐标的方差,计算结果如图6:
8)求全局显著图Pg(Si)与局部显著图Pl(Si)的均值,该均值乘以中心显著图Pc(i)得到最终的显著图,计算结果如图7所示。

Claims (1)

1.一种基于对比度与角点最小凸包的显著性检测方法,其特征在于,包括以下步骤:
1)将图像分割成若干个超像素,以Si表示第i个超像素,i=1、2……M,即得到超像素集合S={S1,S2…SM},以每一个超像素作为基本计算单位;
2)Si的特征表示为:
其中:是第i个超像素中每个像素点CIELab颜色空间的三维正太分布,是第i个超像素中每个像素点CIELab颜色空间三维正太分布中每一维均值组成的向量、nc(i)是第i个超像素中每个像素点CIELab颜色空间三维正太分布的协方差矩阵;是Gabor滤波得到的第i个超像素中每个像素点在四个角度的方向数值拟合的四维正太分布,是第i个超像素中每个像素点方向数值拟合的四维正太分布中每一维均值组成的向量、no(i)是第i个超像素中每个像素点方向数值拟合的四维正太分布的协方差矩阵;c(i)(x(i),y(i))是集合S中第i个超像素的几何中心点;
3)根据式(1)计算集合S中任意两个超像素Sa和Sb之间的沃瑟斯坦距离Wco2(a,b),其中,Wc2(a,b)表示沃瑟斯坦距离的颜色分量、Wo2(a,b)表示沃瑟斯坦距离的方向分量、Wc为颜色的权重值、Wo为方向的权重值;
W c o 2 ( a , b ) = W c 2 ( a , b ) × W c + W o 2 ( a , b ) × W o W c 2 ( a , b ) = | | m → c ( a ) - m → c ( b ) | | 2 + t r ( n c ( a ) + n c ( b ) ) - 2 t r ( n c ( a ) × n c ( b ) ) W o 2 ( a , b ) = | | m → o ( a ) - m → o ( b ) | | 2 + t r ( n o ( a ) + n o ( b ) ) - 2 t r ( n o ( a ) × n o ( b ) ) - - - ( 1 )
4)使用超像素之间的Wco2(a,b)平方的相反数构建聚类的相似矩阵,对集合S中的超像素进行AP聚类,即能从S={S1,S2…SM}中提取出若干超像素作为聚类的中心点C={C1,C2…CK},
将聚类的r参数r(Si,Cj)全部标准化为到[-1,0]后,按式(2)进行指数处理,其中:Si∈S、Cj∈C,j=1、2……K:
r ^ e ( S i , C j ) = exp ( r ^ ( S i , C j ) Var s i ∈ S { r ^ ( S i , C j ) } ) - - - ( 2 )
5)计算每个超像素Si处于各个中心点聚类的概率Pg(Cj|Si):
P g ( C j | S i ) = r ^ e ( S i , C j ) Σ j = 1 K r ^ e ( S i , C j ) - - - ( 3 )
然后按式(4)计算每个聚类是显著的概率Pg(Cn),其中:D(i,j)为超像素Si与中心点Cj的欧氏距离,Cn∈C:
P g ( C n ) = ( Σ j = 1 K Σ i = 1 M P g ( C n | S i ) * D ( i , j ) ) - 1 - - - ( 4 )
将上述式(3)和式(4)相结合,即可得到全局显著图Pg(Si):
P g ( S i ) = Σ n = 1 K P g ( C n ) * P g ( C n | S i ) - - - ( 5 )
6)根据超像素之间的Wasserstein距离和欧式距离,使用“中心-周围算子”按照式(6)计算局部显著图;式中,σ表示集合S中的所有超像素的中心点的距离平均值;得到局部显著图Pl(Si),其中(xi,yi)是集合S中第i个超像素的几何中心点,(xq,yq)是集合S中第q个超像素的几何中心点,(xj,yj)是集合C中第j个超像素的几何中心点;
P l ( S i ) = 1 g Σ j = 1 K W c o 2 ( i , j ) × exp ( - ( x i - x j ) 2 + ( y i - y j ) 2 σ 2 ) g = Σ q = 1 M exp ( - ( x i - x q ) 2 + ( y i - y q ) 2 σ 2 ) - - - ( 6 )
7)计算出图像中的哈里斯角点,将靠近图像边缘的角点去除,计算角点的最小凸包以及最小凸包的中心点;根据式(7)计算中心显著图;(xHm,yHm)表示最小凸包的中心点坐标,得到中心显著图Pc(i),σx表示集合S中的所有超像素的中心点的x坐标的方差,σy表示集合S中的所有超像素的中心点的y坐标的方差:
8)求全局显著图Pg(Si)与局部显著图Pl(Si)的均值,该均值乘以中心显著图Pc(i)得到最终的显著图。
CN201410180885.8A 2014-04-30 2014-04-30 一种基于对比度与角点最小凸包的显著性检测方法 Active CN103927758B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410180885.8A CN103927758B (zh) 2014-04-30 2014-04-30 一种基于对比度与角点最小凸包的显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410180885.8A CN103927758B (zh) 2014-04-30 2014-04-30 一种基于对比度与角点最小凸包的显著性检测方法

Publications (2)

Publication Number Publication Date
CN103927758A CN103927758A (zh) 2014-07-16
CN103927758B true CN103927758B (zh) 2017-02-15

Family

ID=51145969

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410180885.8A Active CN103927758B (zh) 2014-04-30 2014-04-30 一种基于对比度与角点最小凸包的显著性检测方法

Country Status (1)

Country Link
CN (1) CN103927758B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809651B (zh) * 2014-12-16 2019-02-22 吉林大学 基于边缘非相似性对比的图像显著性检测方法
CN104574335B (zh) * 2015-01-14 2018-01-23 西安电子科技大学 一种基于显著图和兴趣点凸包的红外与可见光图像融合方法
CN108352069B (zh) * 2015-12-15 2022-11-25 徕卡生物系统公司 自动核分割
CN106780505B (zh) * 2016-06-20 2019-08-27 大连民族大学 基于区域能量的超像素显著目标检测方法
CN106874917A (zh) * 2017-02-22 2017-06-20 南京邮电大学 一种基于Harris角点的显著性目标检测方法
CN107025672A (zh) * 2017-03-30 2017-08-08 上海理工大学 一种基于改进凸包的显著性检测方法
CN111581710B (zh) * 2020-05-19 2021-04-13 北京数字绿土科技有限公司 架空输电线路杆塔挠度自动获取方法及装置
CN113192097B (zh) * 2021-07-05 2021-09-17 季华实验室 工业零件位姿识别方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102800092A (zh) * 2012-07-12 2012-11-28 北方工业大学 从点至面的图像显著性检测
CN103208115A (zh) * 2013-03-01 2013-07-17 上海交通大学 基于测地线距离的图像显著性区域检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8175376B2 (en) * 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102800092A (zh) * 2012-07-12 2012-11-28 北方工业大学 从点至面的图像显著性检测
CN103208115A (zh) * 2013-03-01 2013-07-17 上海交通大学 基于测地线距离的图像显著性区域检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于区域显著度与水下光学先验的目标检测";王慧斌等;《仪器仪表学报》;20140228;第35卷(第2期);全文 *

Also Published As

Publication number Publication date
CN103927758A (zh) 2014-07-16

Similar Documents

Publication Publication Date Title
CN103927758B (zh) 一种基于对比度与角点最小凸包的显著性检测方法
CN110378196B (zh) 一种结合激光点云数据的道路视觉检测方法
CN106250870B (zh) 一种联合局部和全局相似性度量学习的行人再识别方法
CN103996198B (zh) 复杂自然环境下感兴趣区域的检测方法
CN105184779B (zh) 一种基于快速特征金字塔的车辆多尺度跟踪方法
Qin et al. Object-based 3-D building change detection on multitemporal stereo images
CN105957054B (zh) 一种图像变化检测方法
CN107862698A (zh) 基于k均值聚类的光场前景分割方法及装置
CN109255317A (zh) 一种基于双网络的航拍图像差异检测方法
CN103735269B (zh) 一种基于视频多目标跟踪的高度测量方法
CN104318051B (zh) 基于规则的大范围水体信息遥感自动提取系统及方法
CN105631852B (zh) 基于深度图像等高线的室内人体检测方法
CN105678735A (zh) 一种用于雾天图像的目标显著性检测方法
CN105512622B (zh) 一种基于图分割和监督学习的可见光遥感图像海陆分割方法
CN105139401A (zh) 一种深度图中深度的可信度的评估方法
CN106682678A (zh) 一种基于支撑域的图像角点检测和分类方法
CN109800713A (zh) 基于区域增长的遥感图像云检测方法
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN110110618A (zh) 一种基于pca和全局对比度的sar目标检测方法
CN105205801B (zh) 基于变化检测的围填海信息提取方法及装置
Bin et al. Parcel-based change detection in land-use maps by adopting the holistic feature
CN108648200A (zh) 一种间接的城市高分辨率不透水面提取方法
CN105844614B (zh) 一种基于校对机器人角度的视觉指北方法
CN104463896A (zh) 基于核相似区分布特性的图像角点检测方法及系统
CN104573635A (zh) 一种基于三维重建的微小高度识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant