CN103914834B - 一种基于前景先验和背景先验的显著性物体检测方法 - Google Patents
一种基于前景先验和背景先验的显著性物体检测方法 Download PDFInfo
- Publication number
- CN103914834B CN103914834B CN201410098280.4A CN201410098280A CN103914834B CN 103914834 B CN103914834 B CN 103914834B CN 201410098280 A CN201410098280 A CN 201410098280A CN 103914834 B CN103914834 B CN 103914834B
- Authority
- CN
- China
- Prior art keywords
- priori
- pixel
- significance
- super
- saliency maps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明提供一种基于前景先验和背景先验的显著性物体检测方法,该方法分别从显著性物体(前景)和背景出发,结合各自先验知识的优势来定义对应的显著性衡量方式。对于显著性物体,首先利用对比先验计算每个子区域(初分割后)的中心-周围颜色对比,然后将该对比度值乘以中心先验,最后通过平滑得到基于前景的显著性图。对于背景,利用边界先验和所定义的8邻域“缝”,动态优化找到每一个像素分别到四条边界的最优“缝”,计算最优“缝”的成本得到基于背景的显著性图。最后将两张显著性图相乘,再经过平滑输出最终的显著性图。本发明得到的显著性图能均匀地突出图像中的显著性物体,有利于后续诸如图像检索、目标跟踪等处理。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,具体涉及一种基于前景先验和背景先验的显著性物体检测方法。
背景技术
视觉显著性理论认为:人类视觉系统只详细处理图像的某些局部,而对图像的其余部分几乎视而不见。这种被视觉系统详细处理的局部区域通常被称为显著性区域。静态图像中,能够引起人类视觉注意的信号刺激主要包括:新异刺激、较强刺激和人所期待的刺激。据此,视觉注意机制一般分为两个阶段:
(1)快速的、下意识的、自底向上的、数据驱动的显著性提取;
(2)慢速的、任务相关的、自顶向下的、目标驱动的显著性提取。
根据这两个阶段,显著性检测的主要方法大体可以分为两类。第一类方法,采用“自底向上”思想,即利用局部中心邻域结构,衡量图像区域的显著性。第二类方法,采用“自顶向下”思想,即利用图像的统计特性的先验知识以及任务需求,实现显著性的建模。显著性检测的结果被称为“显著性图”,图上亮度越大的区域意味着越容易吸引人的注意。本发明属于“自底向上”的显著性检测方法。
近些年来,国内外很多知名学者在这方面做了大量的有益成果,其中的方法主要有:Itti等人于1998年提出一种基于生物启发模型和特征整合理论的视觉显著性计算方法。该方法首先利用线性滤波器分解图像,以获取颜色、亮度、方向等特征图。然后在每个特征图内部,不同位置按照赢者通吃的准则进行显著性的竞争,最后按照一种纯粹自下而上的方式组合成一个主显著性图。Ma等人于2003年提出了一种基于图像局部对比度分析的方法,来产生显著性图。进而通过模拟人类的感知方式,采用模糊增长的策略从显著性图中提取感兴趣的物体区域。Harel等人于2007年提出了一种基于图结构的视觉显著性检测方法。该方法首先为每个图像位置提取特征向量,然后利用这些特征向量构建动标图,最后对这些动标图进行归一化以突出和其它动标图相兼容的显著性组合。Achanta等人于2009年提出了一种基于频率调整的算法来获取多个尺度的显著性区域检测结果。Bruce等人提出了一种基于信息论的方法,对显著性、视觉注意、和视觉搜索过程进行建模。Murray等人于2011年利用滤波器卷积、中心邻域机制和空间合并的方法获取图像的显著性区域。Perazzi等人于2012年提出将显著性检测视为图像特征上的高维高斯滤波操作。
专利方面,申请号为CN201110335538.4的中国发明专利申请通过对待检测图像进行多次小波变换,再采用中心—周边直方图算法获得精确的显著性值;申请号为CN201210425652.0的中国发明专利提出一种基于尺度选择的自顶向下的视觉显著性提取方法,包括两个阶段,训练阶段学习得到非线性模型,并找到多尺度合并中的最佳的尺度;申请号为CN201310044869.1的中国发明专利申请利用颜色对比和颜色分布,综合这两种特征使得检测结果比较均匀,保持物体的边缘细节,并且能够较强的抑制背景干扰。
本发明公开的方法不同于上述所有方法,以往的大多数方法的关注点都在何为显著性物体,而本发明不单单从显著性物体出发,同时也从背景的角度出发,利用由各自具有的普遍特点所形成的先验知识,结合两个角度各自检测结果的优点,最终将显著性物体凸显出来,与以上的方法检测结果相比,不仅可以更加均匀完整地突出显著性物体,而且可以更好地抑制背景。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于前景先验和背景先验的显著性物体检测方法,该方法能有效突出图像中的显著性物体,同时抑制背景,有利于后续诸如图像检索、目标跟踪等处理。
从显著性物体出发,本发明基于两个先验,即对比先验和中心先验。从大量图像的统计观察可知,显著性物体普遍与周围的背景有强烈的对比差异,在本发明中称之为对比先验;其次,显著性物体一般会靠近图像的中心,这既是大量观察得到的普遍结果,也符合一般摄影的习惯,在本发明中称之为中心先验,然而显著性物体不靠近图像中心也不是一个很罕见的情况,为此本发明旨在寻求一个更可靠的中心(即显著性物体的中心)而非图像的中心。从背景出发,本发明基于一个先验,称之为边界先验。所谓边界先验是指在一幅图像中,靠近边界的部分一般来说都是背景,这也是根据大量观察和摄影原则得到的,具有比较普遍的适用性,但是本发明也同时考虑到了少数边界不仅有背景,也有显著性物体切到的情况,因此本发明利用边界先验但并不局限于该先验。
本发明提供一种基于前景先验和背景先验的显著性物体检测方法,该方法分别从显著性物体(前景)和背景出发,结合各自先验知识的优势来定义对应的显著性衡量方式。对于显著性物体,首先利用对比先验计算每个子区域(初分割后)的中心-周围颜色对比,然后将该对比度值乘以中心先验,最后通过平滑得到基于前景的显著性图。对于背景,利用边界先验和所定义的8邻域“缝”,动态优化找到每一个像素分别到四条边界的最优“缝”,计算最优“缝”的成本得到基于背景的显著性图。最后将两张显著性图相乘,再经过平滑输出最终的显著性图。本发明得到的显著性图能均匀地突出图像中的显著性物体,有利于后续诸如图像检索、目标跟踪等处理。
本发明所述方法包括如下步骤:
第一步,图像预处理:将输入的彩色图像过分割为许多颜色相似,保边界的超像素,并且计算超像素内部的平均颜色和位置,将超像素作为处理的最小单位;
所述的图像预处理进一步提升了图像处理的速度和检测结果的均匀。超像素和像素相比,是一个颜色相似的区域,将其作为处理单元,可以减少单元的个数,而且可以保证最终同一个单元中的像素的显著性一致,使得检测结果更加均匀。
第二步,基于前景的显著性图:首先利用对比先验计算每个子区域的中心-周围颜色对比,然后将该对比度值乘以中心先验,最后进行平滑;
所述的步骤二中,首先计算第i个超像素ri的中心-周围颜色对比Scon(ri),具体的公式为:
其中pi、pj和ci、cj分别表示超像素ri和rj内部的平均位置和平均颜色,i、j表示超像素的下标号,‖·‖2表示L2范数,α1是一个控制权重影响的参数;
紧接着将该对比度值乘以中心先验,具体的公式为:
其中pi表示超像素ri内部的平均位置,pc表示显著性物体的中心位置,i表示超像素的下标号,‖·‖2表示L2范数,α2是一个控制权重影响的参数;
最后对Sct(ri)进行平滑计算得到每一个超像素ri基于前景先验的显著性值Sc(ri),具体的公式为:
其中是一个归一化系数,i、j表示超像素的下标号,‖·‖2表示L2范数,β1是一个控制权重影响的参数。
第三步,基于背景的显著性图:利用边界先验和所定义的8邻域“缝”,动态优化找到每一个像素分别到四条边界的最优“缝”,计算最优“缝”的成本;
所述的步骤三中,首先定义从图像上边界到某一像素i的一条符合8邻域连接性质的“缝”:
其中su是所定义的“缝”包含的像素的集合,u是一个映射函数:[1…,n]→[1…,m],(n,m)表示i在图像中的位置,其中n表示行,m表示列;
在此基础上,定义具有最小成本的“缝”如下:
其中为“缝”所经过的像素,为所具有的能量,由一个基于梯度的能量图来决定,这个优化问题的解通过一个动态的优化算法得到;
同样,按照上述的方法,得到像素i到图像的下边界、左边界、右边界的具有最小成本的“缝”,其成本分别表示为和最后得到每一个像素i基于背景先验的显著性值Sbac(i),具体的公式为:
第四步,显著性图融合:将前两步得到的显著性图相乘,再通过对显著性值进行平滑操作输出最终的显著性图,该融合策略在凸显显著性物体的同时,还能有效的抑制背景。
在所述的显著性图融合中,将步骤二和步骤三得到的显著性图相乘:
Sal=Sc×Sbac
最后通过对显著性值进行平滑操作输出最终的显著性图Smap:
其中Sal(ri)、Sal(rj)分别表示超像素ri、rj的平均显著性值,是一个归一化系数,i、j表示超像素的下标号,‖·‖2表示L2范数,β2是一个控制权重影响的参数。
与现有技术相比,本发明具有如下的有益效果:
首先,在利用中心先验时并没有直接把图像中心作为显著性物体中心,而是寻求一个包围显著性物体的凸包,取凸包的中心作为显著性物体中心,使得检测更加准确。
其次,从背景出发,充分利用了四条边界所包含的背景信息,检测结果在抑制背景方面有很大的优势;
最后,结合了基于前景先验和背景先验各自的优点,将各自得到的显著性图相乘,再加上最后的平滑操作,这样不仅可以更加均匀完整地突出显著性物体,而且可以更好地抑制背景。
本发明通过结合利用图像前景和背景的先验,能够比较准确快速地检测出图像中的显著性物体,能取得令人满意的检测结果,对后续诸如图像检索、目标跟踪等处理过程有重要意义。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例过分割后图像;
图2为本发明一实施例基于中心先验的凸包;
图3为本发明一实施例基于前景的显著性图;
图4为本发明一实施例基于四条边界和“缝”的累积能量图(从左到右依次是基于上、下、左、右边界);
图5为本发明一实施例基于背景的显著性图;
图6为本发明一实施例经过融合策略和平滑后输出的最终的显著性图;
图7为简单阈值分割显著性物体示例(左)和标准检测结果(右)。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本实施例提供一种基于前景先验和背景先验的显著性物体检测方法,在本实施例中对于一幅输入图像,按照如下详细步骤进行处理:
1、图像预处理
将输入的彩色图像的颜色空间从RGB转到LAB,然后利用SLIC超分割算法将图像过分割为K=200个超像素,按照式(1)计算超像素内部的平均位置pi和平均颜色ci,将超像素作为处理的最小单位;
其中Ip为像素I的位置向量(2维向量[x,y]),Ic为像素I的颜色向量(3维向量[L,a,b]),|ri|表示超像素ri中所含像素的个数。
输入图像与过分割结果示例见图1。
2、基于前景的显著性图
首先利用对比先验计算每个超像素ri的中心-周围颜色对比Scon(ri),如式(2)所示:
其中pi、pj和ci、cj分别表示超像素ri和rj内部的平均位置和平均颜色,i、j表示超像素的下标号,‖·‖2表示L2范数,α1是一个控制权重影响的参数。
然后将该对比度值乘以中心先验,如式(3)所示:
其中pi表示超像素ri内部的平均位置,pc表示显著性物体的中心位置,i表示超像素的下标号,‖·‖2表示L2范数,α2是一个控制权重影响的参数。
把pc定义为一个将显著性物体围起来的凸包的中心位置。从Achanta等人于2009年提出了一种基于频率调整的算法中可知,显著性物体的特征与整张图像的平均特征相差很大,差的越多,越有可能是显著性部分,因此这里取LAB空间的颜色向量作为特征,计算每一个超像素ri的特征ci和平均特征的距离,取前N个距离最近的超像素,以这N个超像素的pi通过常用的凸包生成算法生成一个将显著性物体大部分覆盖的区域,最后取这个区域内所有像素的平均位置(即pc)作为显著性物体的中心位置。
最后对Sct(ri)进行平滑计算得到每一个超像素ri基于前景先验的显著性值Sc(ri),如式(4)所示:
其中是一个归一化系数,i、j表示超像素的下标号,‖·‖2表示L2范数,β1是一个控制权重影响的参数。
本实施例中,获取凸包得到显著性物体的中心pc,这里N=40,凸包示例见图2。
按照公式(2)计算每个超像素的中心—周围对比,这里α1=0.005。
将对比先验和中心先验按照公式(3)相乘,并按照公式(4)平滑得到基于前景的显著性图,这里α2=0.005、β1=0.001,将平滑之后的显著性图归一化到[0,1],结果示例见图3。
3、基于背景的显著性图
基于边界先验,首先定义从图像上边界到某一像素i的一条符合8邻域连接性质的“缝”,如式(5)所示:
其中su是所定义的“缝”包含的像素的集合,u是一个映射函数:[1…,n]→[1…,m],(n,m)表示像素i在图像中的位置,其中n表示行,m表示列。
在此基础上,定义具有最小成本的“缝”如式(6)所示:
其中为“缝”所经过的像素,为所具有的能量。
e是一张和原图大小一样的能量图,每个位置的值代表原图该位置像素所具有的能量,这里选取前一步得到基于前景的显著性图的梯度图作为能量图,如式(7)所示:
其中Sc为基于前景的显著性图,代表Sc分别对水平和垂直两个方向求梯度。
式(6)的求解可以采用动态规划的方法,定义一张累积能量图S1,将e的第一行赋值给S1的第一行,对于S1的任意位置(x,y),累积能量图的计算如式(8)所示:
S1(x,y)=e(x,y)+min(S1(x-1,y-1),S1(x-1,y),S1(x-1,y+1)) (8)
其中e是式(5)所得到的能量图,可以看出S1(x,y)就是上边界到像素i(x,y)具有最小成本的“缝”的成本值
基本原理是基于梯度图中显著性物体的边界处的大梯度,每条“缝”都是始于边界终于图像中的某个像素,也就是说显著性物体内部的点一定要经过边界处的大梯度点才能到达边界,由于“缝”的成本是累积得到的,如此内部区域的显著性值就会提升从而被凸显。
同样,按照上述的方法,可以得到像素i到图像的下边界、左边界、右边界的具有最小成本的,其成本分别表示为和最后得到每一个像素i基于背景先验的显著性值Sbac(i),如式(9)所示:
按照公式(5)-(8)计算每一个像素到上、下、左、右边界的具有最小成本的“缝”的成本结果示例见图4,然后按照公式(9)取其中四个成本中的最小成本作为基于背景的显著性值,将显著性图归一化到[0,1],得到的结果示例见图5。
4、显著性图融合
将前两步得到的显著性图相乘,如式(10)所示:
Sal=Sc×Sbac (10)
然后通过对显著性值进行平滑,得到最终的显著性图Smap,如式(11)所示:
其中Sal(ri)、Sal(rj)分别表示超像素ri、rj的平均显著性值,是一个归一化系数,i、j表示超像素的下标号,‖·‖2表示L2范数,β2是一个控制权重影响的参数。
按照公式(10)的策略对两幅显著性图进行相乘融合,并按照公式(11)平滑输出最后的显著性图,这里β2=0.001,得到的结果示例见图6,显著性图中越亮的区域意味着这个区域越可能属于显著的物体。
通过本实施例所得到的显著性图能够明显的突出图像中的显著性物体,抑制背景噪声,即使是使用最简单的阈值化操作就能从最终的显著性图中分割出显著的物体,分割示例见图7(左),和图7(右)的人工标定的Ground Truth效果几乎不相上下。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (3)
1.一种基于前景先验和背景先验的显著性物体检测方法,其特征在于包括如下步骤:
第一步,图像预处理:将输入的彩色图像过分割为许多颜色相似,保边界的超像素,并且计算超像素内部的平均颜色和位置,将超像素作为处理的最小单位;
第二步,基于前景的显著性图:首先利用对比先验计算每个子区域的中心-周围颜色对比,然后将该对比度值乘以中心先验,最后进行平滑;
第三步,基于背景的显著性图:利用边界先验和所定义的8邻域“缝”,动态优化找到每一个像素分别到四条边界的最优“缝”,计算最优“缝”的成本;
所述的步骤三中,首先定义从图像上边界到某一像素i的一条符合8邻域连接性质的“缝”:
其中su是所定义的“缝”包含的像素的集合,u是一个映射函数:[1…,n]→[1…,m],(n,m)表示i在图像中的位置,其中n表示行,m表示列;
在此基础上,定义具有最小成本的“缝”如下:
其中为“缝”所经过的像素,为所具有的能量,由一个基于梯度的能量图来决定,这个优化问题的解通过一个动态的优化算法得到;
同样,按照上述的方法,得到像素i到图像的下边界、左边界、右边界的具有最小成本的“缝”,其成本分别表示为和最后得到每一个像素i基于背景先验的显著性值Sbac(i),具体的公式为:
第四步,显著性图融合:将前两步得到的显著性图相乘,再通过对显著性值进行平滑操作输出最终的显著性图,该融合策略在凸显显著性物体的同时,还能有效的抑制背景。
2.根据权利要求1所述的基于前景先验和背景先验的显著性物体检测方法,其特征在于,所述的步骤二中,首先计算第i个超像素ri的中心-周围颜色对比Scon(ri),具体的公式为:
其中pi、pj和ci、cj分别表示超像素ri和rj内部的平均位置和平均颜色,i、j表示超像素的下标号,||·||2表示L2范数,α1是一个控制权重影响的参数;
紧接着将该对比度值乘以中心先验,具体的公式为:
其中pi表示超像素ri内部的平均位置,pc表示显著性物体的中心位置,i表示超像素的下标号,||·||2表示L2范数,α2是一个控制权重影响的参数;
最后对Sct(ri)进行平滑计算得到每一个超像素ri基于前景先验的显著性值Sc(ri),具体的公式为:
其中是一个归一化系数,i、j表示超像素的下标号,||·||2表示L2范数,β1是一个控制权重影响的参数。
3.根据权利要求1-2任一项所述的基于前景先验和背景先验的显著性物体检测方法,其特征在于,在所述的显著性图融合中,将步骤二和步骤三得到的显著性图相乘:
Sal=Sc×Sbac
最后通过对显著性值进行平滑操作输出最终的显著性图Smap:
其中Sal(ri)、Sal(rj)分别表示超像素ri、rj的平均显著性值,是一个归一化系数,i、j表示超像素的下标号,||·||2表示L2范数,β2是一个控制权重影响的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410098280.4A CN103914834B (zh) | 2014-03-17 | 2014-03-17 | 一种基于前景先验和背景先验的显著性物体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410098280.4A CN103914834B (zh) | 2014-03-17 | 2014-03-17 | 一种基于前景先验和背景先验的显著性物体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103914834A CN103914834A (zh) | 2014-07-09 |
CN103914834B true CN103914834B (zh) | 2016-12-07 |
Family
ID=51040490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410098280.4A Active CN103914834B (zh) | 2014-03-17 | 2014-03-17 | 一种基于前景先验和背景先验的显著性物体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103914834B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104573085B (zh) * | 2015-01-28 | 2018-02-13 | 深圳酷派技术有限公司 | 图像检索方法、图像检索装置和终端 |
CN104680546A (zh) * | 2015-03-12 | 2015-06-03 | 安徽大学 | 一种图像显著目标检测方法 |
CN105574866A (zh) * | 2015-12-15 | 2016-05-11 | 努比亚技术有限公司 | 一种实现图像处理的方法及装置 |
CN106056579A (zh) * | 2016-05-20 | 2016-10-26 | 南京邮电大学 | 一种基于背景对比的显著性检测方法 |
CN106127744B (zh) * | 2016-06-17 | 2019-05-14 | 广州市幸福网络技术有限公司 | 图像前景和背景边界显著性评估方法及系统 |
CN106127785B (zh) * | 2016-06-30 | 2019-02-22 | 重庆大学 | 基于流形排序和随机游走的图像显著性检测方法 |
CN106203430B (zh) * | 2016-07-07 | 2017-11-03 | 北京航空航天大学 | 一种基于前景聚集度和背景先验的显著性物体检测方法 |
CN106570498B (zh) * | 2016-10-12 | 2019-06-14 | 中国科学院自动化研究所 | 显著区域检测方法和检测系统 |
CN106530324A (zh) * | 2016-10-21 | 2017-03-22 | 华中师范大学 | 一种模拟视觉皮质机制的视频目标跟踪方法 |
CN106780450A (zh) * | 2016-12-06 | 2017-05-31 | 天津大学 | 一种基于低秩多尺度融合的图像显著性检测方法 |
CN106778634B (zh) * | 2016-12-19 | 2020-07-14 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN106815842B (zh) * | 2017-01-23 | 2019-12-06 | 河海大学 | 一种改进的基于超像素的图像显著性检测方法 |
CN107133558B (zh) * | 2017-03-13 | 2020-10-20 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107194870B (zh) * | 2017-05-24 | 2020-07-28 | 北京大学深圳研究生院 | 一种基于显著性物体检测的图像场景重构方法 |
CN107610136B (zh) * | 2017-09-22 | 2019-12-31 | 中国科学院西安光学精密机械研究所 | 基于凸包结构中心查询点排序的显著目标检测方法 |
CN107862702B (zh) * | 2017-11-24 | 2021-07-09 | 大连理工大学 | 一种结合边界连通性与局部对比性的显著性检测方法 |
CN109002750B (zh) * | 2017-12-11 | 2021-03-30 | 罗普特科技集团股份有限公司 | 一种基于显著性检测与图像分割的相关滤波跟踪方法 |
CN109960979A (zh) * | 2017-12-25 | 2019-07-02 | 大连楼兰科技股份有限公司 | 基于图像分层技术的车辆检测方法 |
CN109960984A (zh) * | 2017-12-25 | 2019-07-02 | 大连楼兰科技股份有限公司 | 基于对比度与显著性分析的车辆检测方法 |
CN108198172B (zh) * | 2017-12-28 | 2022-01-28 | 北京大学深圳研究生院 | 图像显著性检测方法和装置 |
CN108416347A (zh) * | 2018-01-04 | 2018-08-17 | 天津大学 | 基于边界先验和迭代优化的显著目标检测算法 |
CN109636764A (zh) * | 2018-11-01 | 2019-04-16 | 上海大学 | 一种基于深度学习与显著性检测的图像风格转移方法 |
CN110189294B (zh) * | 2019-04-15 | 2021-05-07 | 杭州电子科技大学 | 基于深度可信度分析的rgb-d图像显著性检测方法 |
CN110310263B (zh) * | 2019-06-24 | 2020-12-01 | 北京师范大学 | 一种基于显著性分析和背景先验的sar图像居民区检测方法 |
CN111539420B (zh) * | 2020-03-12 | 2022-07-12 | 上海交通大学 | 基于注意力感知特征的全景图像显著性预测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN102968782A (zh) * | 2012-09-12 | 2013-03-13 | 苏州大学 | 一种彩色图像中显著对象的自动抠取方法 |
CN103065298A (zh) * | 2012-12-20 | 2013-04-24 | 杭州电子科技大学 | 一种模拟视网膜滤波的视觉显著性检测方法 |
CN103390279A (zh) * | 2013-07-25 | 2013-11-13 | 中国科学院自动化研究所 | 联合显著性检测与判别式学习的目标前景协同分割方法 |
CN103413303A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 基于联合显著性的红外目标分割方法 |
-
2014
- 2014-03-17 CN CN201410098280.4A patent/CN103914834B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN102968782A (zh) * | 2012-09-12 | 2013-03-13 | 苏州大学 | 一种彩色图像中显著对象的自动抠取方法 |
CN103065298A (zh) * | 2012-12-20 | 2013-04-24 | 杭州电子科技大学 | 一种模拟视网膜滤波的视觉显著性检测方法 |
CN103390279A (zh) * | 2013-07-25 | 2013-11-13 | 中国科学院自动化研究所 | 联合显著性检测与判别式学习的目标前景协同分割方法 |
CN103413303A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 基于联合显著性的红外目标分割方法 |
Non-Patent Citations (2)
Title |
---|
Geodesic Saliency Using Background Priors;Yichen Wei.et al.;《12th European Conference on Computer Vision》;20121013;31-32 * |
Salient Object Detection via Color Contrast and Color Distribution;Keren Fu.et al.;《11th Asian Conference on Computer Vision》;20121109;114-116 * |
Also Published As
Publication number | Publication date |
---|---|
CN103914834A (zh) | 2014-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103914834B (zh) | 一种基于前景先验和背景先验的显著性物体检测方法 | |
CN104834922B (zh) | 基于混合神经网络的手势识别方法 | |
CN103942577B (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN101359365B (zh) | 一种基于最大类间方差和灰度信息的虹膜定位方法 | |
CN104156693B (zh) | 一种基于多模态序列融合的动作识别方法 | |
CN106295542A (zh) | 一种夜视红外图像中的基于显著性的道路目标提取方法 | |
Zheng et al. | Machine learning based vesselness measurement for coronary artery segmentation in cardiac CT volumes | |
CN103218605B (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
CN103745468B (zh) | 一种基于图结构和边界先验的显著性物体检测方法 | |
CN103310194B (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN106709568A (zh) | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 | |
CN103208115B (zh) | 基于测地线距离的图像显著性区域检测方法 | |
Romaguera et al. | Left ventricle segmentation in cardiac MRI images using fully convolutional neural networks | |
CN106296638A (zh) | 显著性信息取得装置以及显著性信息取得方法 | |
CN103914699A (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN104715238A (zh) | 一种基于多特征融合的行人检测方法 | |
CN104616308A (zh) | 一种基于核模糊聚类的多尺度水平集图像分割方法 | |
Chen et al. | Facial expression recognition based on edge detection | |
CN104318051B (zh) | 基于规则的大范围水体信息遥感自动提取系统及方法 | |
CN104134059A (zh) | 保持颜色信息的形变敏感器官模型下的不良图像检测方法 | |
CN103745453B (zh) | 基于Google Earth遥感影像的城镇信息提取方法 | |
CN103914829B (zh) | 一种含噪图像边缘检测方法 | |
CN107451595A (zh) | 基于混合算法的红外图像显著性区域检测方法 | |
CN109087310A (zh) | 睑板腺纹理区域的分割方法、系统、存储介质及智能终端 | |
Lou et al. | Automatic fetal brain extraction using multi-stage U-Net with deep supervision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |