CN103020993A - 一种双通道颜色对比度融合的视觉显著性检测方法 - Google Patents
一种双通道颜色对比度融合的视觉显著性检测方法 Download PDFInfo
- Publication number
- CN103020993A CN103020993A CN2012104973326A CN201210497332A CN103020993A CN 103020993 A CN103020993 A CN 103020993A CN 2012104973326 A CN2012104973326 A CN 2012104973326A CN 201210497332 A CN201210497332 A CN 201210497332A CN 103020993 A CN103020993 A CN 103020993A
- Authority
- CN
- China
- Prior art keywords
- pixel region
- color
- super pixel
- floor height
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 230000000007 visual effect Effects 0.000 title abstract description 6
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000005457 optimization Methods 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011426 transformation method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 10
- 230000003935 attention Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000010332 selective attention Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种双通道颜色对比度融合的视觉显著性检测方法。本发明方法首先提取输入图像的高斯尺度图像,将每层高斯尺度图像划分为多个互不相交且区域面积近似相等的超像素区域。其次采用彩色变换方法,分别提取每层高斯尺度图像在CIELAB空间的三个彩色分量图,基于上述三个彩色分量图为每个像素分配基于CIELAB空间的颜色显著性值。然后采用彩色变换方法,分别提取每层高斯尺度图像在RGB空间的三个彩色分量图,基于这三个彩色分量图为每个像素分配基于RGB空间的颜色显著性值。最后将两个空间的颜色显著性值融合得到输入图像中每个像素的最终显著性值。本发明可有效克服单一颜色通道检测的局限,提高显著性检测的鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,具体来说是一种融合CIELAB颜色通道对比度特性和RGB颜色通道对比度特性的视觉显著性检测方法。
背景技术
视觉选择性注意力机制可以突破信息处理的瓶颈,使得人类可以很容易地判断局部显著性区域。在计算机视觉中,显著性提供了一种基于生物启发的人工视觉系统处理框架,实现图像处理和分析所需计算资源的优先分配。目前视觉显著性已在计算机视觉和图像处理领域引起广泛兴趣,包括图像分割,自适应压缩,图像内容编辑等。
目前视觉显著性检测模型大致分为两类。一类是基于生物启发的显著性检测方法。这类方法倾向模拟人类眼球运动,追踪眼部的关注焦点,其最终显著图往往是图像中某几个预测人眼关注的位置点或小区域,难以直接用于大多数的计算机视觉任务。
另一类是计算模型,它们通常都是以目标为显著单元,这与大多数的计算机视觉任务的目标更为一致。在大多数的计算模型中,显著目标通常定义为“相对于周围背景有充分的独特性、稀有性和不可预计性”。该定义隐含了对比度先验、背景先验,或某些高阶假设。基于对比度的显著检测模型是目前的流行方法,通过提取局部对比度特性和全局对比度特性来实现显著性检测。虽然这些方法通常也是受生物学原理启发以及基于某些生物学概念,且在近年来已获得了瞩目的成功,但它们的实现和策略往往是难以验证其合理性。特别是特征的选择和参数配置通常都需根据实验来确定。Cheng等人利用图割方法提取区域特征,并将全局对比度分析应用到显著性区域检测。但由于采取大尺度区域的图割方法,难以解决显著性区域的边缘扩散问题。Perazzi等人引入SLIC超像素分割方法,提取均匀且具边缘保持特性的超像素区域作为显著基元,提高了显著性检测精度。然而目前性能优秀的计算模型通常都在单一尺度空间下进行显著性分析,因而难以处理背景纹理复杂或目标纹理复杂的显著性检测。目前基于多尺度空间的计算模型往往面临着显著目标轮廓模糊等局限,因而召回率和精确度都难以令人满意。
发明内容
本发明针对现有技术的不足,融合CIELAB和RGB颜色通道对比度特性,提供了一种双通道颜色对比度融合的视觉显著性检测方法。
本发明方法的具体步骤如下:
步骤(1):提取输入图像的N层高斯尺度图像,具体为:
,
步骤(2):采用SLIC超像素聚类方法,将每层高斯尺度图像划分为多个互不相交且区域面积近似相等的超像素区域。具体为:
步骤(3):采用彩色变换方法,分别提取步骤(1)中每层高斯尺度图像在CIELAB空间的l彩色分量图、a彩色分量图和b彩色分量图,具体为:
步骤(4):根据步骤(2)和步骤(3)的结果,提取每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色特征,具体为:
所述的超像素区域r ni 在CIELAB空间的颜色均值矢量表示为,其中为超像素区域r ni 内所有像素的l彩色分量均值,为超像素区域r ni 内所有像素的a彩色分量均值,为超像素区域r ni 内所有像素的b彩色分量均值。
所述的超像素区域r ni 的面积率表示超像素区域r ni 内的像素个数与输入图像总像素的比值。
步骤(5):根据步骤(4)结果,提取每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色独特性,具体为:
其中为超像素区域r ni 和超像素区域r nj 在CIELAB空间的颜色距离;为超像素区域r ni 和超像素区域r nj 的空间距离;为高斯函数标准差;m为第n层高斯尺度图像在步骤(2)中划分出的超像素个数。
所述的超像素区域r ni 和超像素区域r nj 在CIELAB空间的颜色距离表示为超像素区域r ni 在CIELAB空间的颜色均值矢量与超像素区域r nj 在CIELAB空间的颜色均值矢量的L2距离,具体描述为:
步骤(6):根据步骤(4)结果,计算每层高斯尺度图像中每个超像素区域在CIELAB空间的空间分布特性,具体为:
步骤(7):根据步骤(5)和步骤(6)的结果,计算每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色显著性值,具体为:
步骤(8):根据步骤(5)结果,对步骤(7)结果进行平滑优化,以保证在CIELAB空间中颜色独特性值近似的两个相邻超像素区域间颜色显著性值的连续平滑。
所述的CIELAB空间中颜色显著性值的平滑优化方法具体为:
步骤(9):为每层高斯尺度图像中的每个像素分配基于CIELAB空间的颜色显著性值,具体为:
步骤(10):为输入图像中的每个像素分配基于CIELAB空间的颜色显著性值,具体为:
步骤(11):采用彩色变换方法,分别提取每层高斯尺度图像在RGB空间的R彩色分量图、G彩色分量图和B彩色分量图,具体为:
步骤(12):根据步骤(2)和步骤(11)的结果,提取每层高斯尺度图像中每个超像素区域在RGB空间的颜色特征,具体为:
所述的超像素区域r ni 在RGB空间的颜色均值矢量表示为,其中为超像素区域r ni 内所有像素的R彩色分量均值,为超像素区域r ni 内所有像素的G彩色分量均值,为超像素区域r ni 内所有像素的B彩色分量均值。
步骤(13):根据步骤(12)结果,提取每层高斯尺度图像中每个超像素区域在RGB空间的颜色独特性,具体为:
步骤(14):根据步骤(12)结果,计算每层高斯尺度图像中每个超像素区域在RGB空间的空间分布特性,具体为:
对于第n层高斯尺度图像中的第i个超像素区域r ni ,其在RGB空间的颜色空间分布特性表示为:
步骤(15):根据步骤(13)和步骤(14)的结果,计算每层高斯尺度图像中每个超像素区域在RGB空间的颜色显著性值,具体为:
步骤(16):根据步骤(13)结果,对步骤(15)结果进行平滑优化,以保证在RGB空间中颜色独特性值近似的两个相邻超像素区域间颜色显著性值的连续平滑。
所述的RGB空间中颜色显著性值的平滑优化方法具体为:
步骤(17):为每层高斯尺度图像中的每个像素分配基于RGB空间的颜色显著性值,具体为:
步骤(18):为输入图像中的每个像素分配基于RGB空间的颜色显著性值,具体为:
步骤(19):根据步骤(10)和步骤(18)的结果,计算输入图像中每个像素的最终显著性值,具体为:
本发明提供了一种双通道颜色对比度融合的视觉显著性检测方法。该方法融合了CIELAB颜色通道的颜色对比度显著特性和RGB颜色通道的颜色对比度显著特性,可有效克服单一颜色通道检测的局限,提高显著性检测的鲁棒性。同时该方法融合了不同尺度图像的显著性区域特性,可有效解决单一尺度图像的显著性检测中难以处理背景纹理复杂或目标纹理复杂的问题。该方法可在保持高精度的同时,提高了对显著目标像素的召回率,并且显著目标区域的显著值分布均匀高亮。
附图说明
图1为本发明中的方法流程图;
图2为本发明方法与现有方法的显著性检测结果图像比较;
图3为召回率-精确度曲线的比对图;
图4为平均绝对误差比较图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,一种双通道颜色对比度融合的视觉显著性检测方法具体步骤如下:
步骤(2):采用SLIC超像素聚类方法,将每层高斯尺度图像划分为多个互不相交且区域面积近似相等的超像素区域。具体为:
步骤(3):采用彩色变换方法,分别提取步骤(1)中每层高斯尺度图像在CIELAB空间的l彩色分量图、a彩色分量图和b彩色分量图,具体为:
步骤(4):根据步骤(2)和步骤(3)的结果,提取每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色特征,具体为:
所述的超像素区域r ni 在CIELAB空间的颜色均值矢量表示为,其中为超像素区域r ni 内所有像素的l彩色分量均值,为超像素区域r ni 内所有像素的a彩色分量均值,为超像素区域r ni 内所有像素的b彩色分量均值。
步骤(5):根据步骤(4)结果,提取每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色独特性,具体为:
其中为超像素区域r ni 和超像素区域r nj 在CIELAB空间的颜色距离;为超像素区域r ni 和超像素区域r nj 的空间距离;为高斯函数标准差;m为第n层高斯尺度图像在步骤(2)中划分出的超像素个数。
所述的超像素区域r ni 和超像素区域r nj 在CIELAB空间的颜色距离表示为超像素区域r ni 在CIELAB空间的颜色均值矢量与超像素区域r nj 在CIELAB空间的颜色均值矢量的L2距离,具体描述为:
步骤(6):根据步骤(4)结果,计算每层高斯尺度图像中每个超像素区域在CIELAB空间的空间分布特性,具体为:
其中为高斯函数标准差。
步骤(7):根据步骤(5)和步骤(6)的结果,计算每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色显著性值,具体为:
其中为高斯函数方差。
步骤(8):根据步骤(5)结果,对步骤(7)结果进行平滑优化,以保证在CIELAB空间中颜色独特性值近似的两个相邻超像素区域间颜色显著性值的连续平滑。
所述的CIELAB空间中颜色显著性值的平滑优化方法具体为:
步骤(9):为每层高斯尺度图像中的每个像素分配基于CIELAB空间的颜色显著性值,具体为:
步骤(10):为输入图像中的每个像素分配基于CIELAB空间的颜色显著性值,具体为:
步骤(11):采用彩色变换方法,分别提取每层高斯尺度图像在RGB空间的R彩色分量图、G彩色分量图和B彩色分量图,具体为:
步骤(12):根据步骤(2)和步骤(11)的结果,提取每层高斯尺度图像中每个超像素区域在RGB空间的颜色特征,具体为:
所述的超像素区域r ni 在RGB空间的颜色均值矢量表示为,其中为超像素区域r ni 内所有像素的R彩色分量均值,为超像素区域r ni 内所有像素的G彩色分量均值,为超像素区域r ni 内所有像素的B彩色分量均值。
步骤(13):根据步骤(12)结果,提取每层高斯尺度图像中每个超像素区域在RGB空间的颜色独特性,具体为:
步骤(14):根据步骤(12)结果,计算每层高斯尺度图像中每个超像素区域在RGB空间的空间分布特性,具体为:
步骤(15):根据步骤(13)和步骤(14)的结果,计算每层高斯尺度图像中每个超像素区域在RGB空间的颜色显著性值,具体为:
步骤(16):根据步骤(13)结果,对步骤(15)结果进行平滑优化,以保证在RGB空间中颜色独特性值近似的两个相邻超像素区域间颜色显著性值的连续平滑。
所述的RGB空间中颜色显著性值的平滑优化方法具体为:
步骤(17):为每层高斯尺度图像中的每个像素分配基于RGB空间的颜色显著性值,具体为:
步骤(18):为输入图像中的每个像素分配基于RGB空间的颜色显著性值,具体为:
步骤(19):根据步骤(10)和步骤(18)的结果,计算输入图像中每个像素的最终显著性值,具体为:
采用目前通用的1000幅数据库及其真值图[2]测试本发明方法的性能。
如图2所示,本发明方法的显著性检测结果说明如下:第一列为输入图像,第二列为步骤10中得到的CIELAB空间的颜色显著性值,第三列为步骤18中得到的RGB空间的颜色显著性值,第四列为步骤19中得到的最终颜色显著性值,第五列为人工标记的正确视觉显著性区域。
如图3所示,本发明方法与近期最好的四种方法在召回率-精确度曲线的比对说明如下:CM表示本发明方法;SF表示F. Perazzi 等人提出的显著性滤波方法;HC为M.-M. Cheng等人提出的基于直方图的全局对比度显著性检测方法;RC为M.-M. Cheng等人提出的基于区域的全局对比度显著性检测方法; LR为X. Shen等人提出的基于低阶矩阵的显著性检测方法。本发明方法得到的召回率-精确度曲线明显高于其他方法。
如图4所示,采用与文献相同的平均绝对误差计算方法,本发明方法与现有12种方法的平均绝对误差比对说明如下:FT为R. Achanta等人提出的基于频率域的显著性检测方法;IT为L. Itti等人提出的视觉显著测量方法;AC为R. Achanta等人提出的显著区域检测方法;SR为X. Hou等人提出的基于谱分析的检测方法;LC为Y. Zhai等人提出的基于空时线索的显著性检测方法;GB为J. Harel等人提出的基于图的显著性检测方法;MZ为Y.-F. Ma等人提出的基于模糊增长的视觉注意力分析方法;CA为S. Goferman等人提出的基于内容的显著性检测方法。本发明方法得到的平均绝对误差明显低于其他方法,表明本发明方法结果更接近于真值图。
Claims (1)
1. 一种双通道颜色对比度融合的视觉显著性检测方法,其特征在于该方法包括如下步骤:
步骤(1):提取输入图像的N层高斯尺度图像,具体为:
步骤(2):采用SLIC超像素聚类方法,将每层高斯尺度图像划分为多个互不相交且区域面积近似相等的超像素区域,具体为:
步骤(3):采用彩色变换方法,分别提取步骤(1)中每层高斯尺度图像在CIELAB空间的l彩色分量图、a彩色分量图和b彩色分量图,具体为:
步骤(4):根据步骤(2)和步骤(3)的结果,提取每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色特征,具体为:
所述的超像素区域r ni 在CIELAB空间的颜色均值矢量表示为,其中为超像素区域r ni 内所有像素的l彩色分量均值,为超像素区域r ni 内所有像素的a彩色分量均值,为超像素区域r ni 内所有像素的b彩色分量均值;
步骤(5):根据步骤(4)结果,提取每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色独特性,具体为:
其中为超像素区域r ni 和超像素区域r nj 在CIELAB空间的颜色距离;为超像素区域r ni 和超像素区域r nj 的空间距离;为高斯函数标准差;m为第n层高斯尺度图像在步骤(2)中划分出的超像素个数;
所述的超像素区域r ni 和超像素区域r nj 在CIELAB空间的颜色距离表示为超像素区域r ni 在CIELAB空间的颜色均值矢量与超像素区域r nj 在CIELAB空间的颜色均值矢量的L2距离,具体描述为:
步骤(6):根据步骤(4)结果,计算每层高斯尺度图像中每个超像素区域在CIELAB空间的空间分布特性,具体为:
其中为高斯函数标准差;
步骤(7):根据步骤(5)和步骤(6)的结果,计算每层高斯尺度图像中每个超像素区域在CIELAB空间的颜色显著性值,具体为:
其中为高斯函数方差;
步骤(8):根据步骤(5)结果,对步骤(7)结果进行平滑优化,以保证在CIELAB空间中颜色独特性值近似的两个相邻超像素区域间颜色显著性值的连续平滑;
所述的CIELAB空间中颜色显著性值的平滑优化方法具体为:
步骤(9):为每层高斯尺度图像中的每个像素分配基于CIELAB空间的颜色显著性值,具体为:
步骤(10):为输入图像中的每个像素分配基于CIELAB空间的颜色显著性值,具体为:
步骤(11):采用彩色变换方法,分别提取每层高斯尺度图像在RGB空间的R彩色分量图、G彩色分量图和B彩色分量图,具体为:
步骤(12):根据步骤(2)和步骤(11)的结果,提取每层高斯尺度图像中每个超像素区域在RGB空间的颜色特征,具体为:
所述的超像素区域r ni 在RGB空间的颜色均值矢量表示为,其中为超像素区域r ni 内所有像素的R彩色分量均值,为超像素区域r ni 内所有像素的G彩色分量均值,为超像素区域r ni 内所有像素的B彩色分量均值;
步骤(13):根据步骤(12)结果,提取每层高斯尺度图像中每个超像素区域在RGB空间的颜色独特性,具体为:
步骤(14):根据步骤(12)结果,计算每层高斯尺度图像中每个超像素区域在RGB空间的空间分布特性,具体为:
步骤(15):根据步骤(13)和步骤(14)的结果,计算每层高斯尺度图像中每个超像素区域在RGB空间的颜色显著性值,具体为:
步骤(16):根据步骤(13)结果,对步骤(15)结果进行平滑优化,以保证在RGB空间中颜色独特性值近似的两个相邻超像素区域间颜色显著性值的连续平滑;
所述的RGB空间中颜色显著性值的平滑优化方法具体为:
步骤(17):为每层高斯尺度图像中的每个像素分配基于RGB空间的颜色显著性值,具体为:
步骤(18):为输入图像中的每个像素分配基于RGB空间的颜色显著性值,具体为:
步骤(19):根据步骤(10)和步骤(18)的结果,计算输入图像中每个像素的最终显著性值,具体为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210497332.6A CN103020993B (zh) | 2012-11-28 | 2012-11-28 | 一种双通道颜色对比度融合的视觉显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210497332.6A CN103020993B (zh) | 2012-11-28 | 2012-11-28 | 一种双通道颜色对比度融合的视觉显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103020993A true CN103020993A (zh) | 2013-04-03 |
CN103020993B CN103020993B (zh) | 2015-06-17 |
Family
ID=47969559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210497332.6A Expired - Fee Related CN103020993B (zh) | 2012-11-28 | 2012-11-28 | 一种双通道颜色对比度融合的视觉显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103020993B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318571A (zh) * | 2014-10-29 | 2015-01-28 | 兰州理工大学 | 一种基于背景非显著度的图像显著性算法评价方法 |
CN106056579A (zh) * | 2016-05-20 | 2016-10-26 | 南京邮电大学 | 一种基于背景对比的显著性检测方法 |
CN103699578B (zh) * | 2013-12-01 | 2017-01-11 | 北京航空航天大学 | 一种基于谱图分析的图像检索方法 |
CN106952251A (zh) * | 2017-02-28 | 2017-07-14 | 华南理工大学 | 一种基于吸附模型的图像显著性检测方法 |
CN107229917A (zh) * | 2017-05-31 | 2017-10-03 | 北京师范大学 | 一种基于迭代聚类的多幅遥感影像共性显著目标检测方法 |
CN107767404A (zh) * | 2017-06-23 | 2018-03-06 | 北京理工大学 | 一种基于改进ViBe背景模型的遥感图像序列动目标检测方法 |
CN107886533A (zh) * | 2017-10-26 | 2018-04-06 | 深圳大学 | 立体图像的视觉显著性检测方法、装置、设备及存储介质 |
CN108776815A (zh) * | 2018-06-04 | 2018-11-09 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于深度特征的显著性目标检测方法 |
DE112017000273T9 (de) | 2016-08-03 | 2019-01-03 | Jiangsu University | Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild |
CN110111259A (zh) * | 2019-05-15 | 2019-08-09 | 电子科技大学 | 一种基于区域引导的多源图像融合方法 |
CN110251076A (zh) * | 2019-06-21 | 2019-09-20 | 安徽大学 | 融合视觉注意力基于对比度的显著性检测方法及装置 |
CN110276350A (zh) * | 2019-06-25 | 2019-09-24 | 上海海事大学 | 一种海上船舶目标检测方法 |
CN110765948A (zh) * | 2019-10-24 | 2020-02-07 | 长沙品先信息技术有限公司 | 一种基于无人机的目标检测识别方法及系统 |
CN112085020A (zh) * | 2020-09-08 | 2020-12-15 | 北京印刷学院 | 一种视觉显著性目标检测方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100226564A1 (en) * | 2009-03-09 | 2010-09-09 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
-
2012
- 2012-11-28 CN CN201210497332.6A patent/CN103020993B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100226564A1 (en) * | 2009-03-09 | 2010-09-09 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
Non-Patent Citations (2)
Title |
---|
HOU XIAODI ET AL: "《Saliency Detection:A Spectral Residual Approach》", 《IEEE CONFERENCE ON CVPR"07》 * |
黄志勇等: "《一种随机的视觉显著性检测算法》", 《中国科学》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103699578B (zh) * | 2013-12-01 | 2017-01-11 | 北京航空航天大学 | 一种基于谱图分析的图像检索方法 |
CN104318571A (zh) * | 2014-10-29 | 2015-01-28 | 兰州理工大学 | 一种基于背景非显著度的图像显著性算法评价方法 |
CN106056579A (zh) * | 2016-05-20 | 2016-10-26 | 南京邮电大学 | 一种基于背景对比的显著性检测方法 |
US10635929B2 (en) | 2016-08-03 | 2020-04-28 | Jiangsu University | Saliency-based method for extracting road target from night vision infrared image |
DE112017000273T9 (de) | 2016-08-03 | 2019-01-03 | Jiangsu University | Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild |
CN106952251B (zh) * | 2017-02-28 | 2019-07-16 | 华南理工大学 | 一种基于吸附模型的图像显著性检测方法 |
CN106952251A (zh) * | 2017-02-28 | 2017-07-14 | 华南理工大学 | 一种基于吸附模型的图像显著性检测方法 |
CN107229917A (zh) * | 2017-05-31 | 2017-10-03 | 北京师范大学 | 一种基于迭代聚类的多幅遥感影像共性显著目标检测方法 |
CN107229917B (zh) * | 2017-05-31 | 2019-10-15 | 北京师范大学 | 一种基于迭代聚类的多幅遥感影像共性显著目标检测方法 |
CN107767404A (zh) * | 2017-06-23 | 2018-03-06 | 北京理工大学 | 一种基于改进ViBe背景模型的遥感图像序列动目标检测方法 |
CN107886533A (zh) * | 2017-10-26 | 2018-04-06 | 深圳大学 | 立体图像的视觉显著性检测方法、装置、设备及存储介质 |
CN108776815A (zh) * | 2018-06-04 | 2018-11-09 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于深度特征的显著性目标检测方法 |
CN110111259A (zh) * | 2019-05-15 | 2019-08-09 | 电子科技大学 | 一种基于区域引导的多源图像融合方法 |
CN110251076A (zh) * | 2019-06-21 | 2019-09-20 | 安徽大学 | 融合视觉注意力基于对比度的显著性检测方法及装置 |
CN110251076B (zh) * | 2019-06-21 | 2021-10-22 | 安徽大学 | 融合视觉注意力基于对比度的显著性检测方法及装置 |
CN110276350A (zh) * | 2019-06-25 | 2019-09-24 | 上海海事大学 | 一种海上船舶目标检测方法 |
CN110276350B (zh) * | 2019-06-25 | 2021-08-27 | 上海海事大学 | 一种海上船舶目标检测方法 |
CN110765948A (zh) * | 2019-10-24 | 2020-02-07 | 长沙品先信息技术有限公司 | 一种基于无人机的目标检测识别方法及系统 |
CN112085020A (zh) * | 2020-09-08 | 2020-12-15 | 北京印刷学院 | 一种视觉显著性目标检测方法及装置 |
CN112085020B (zh) * | 2020-09-08 | 2023-08-01 | 北京印刷学院 | 一种视觉显著性目标检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103020993B (zh) | 2015-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103020993A (zh) | 一种双通道颜色对比度融合的视觉显著性检测方法 | |
EP2811423B1 (en) | Method and apparatus for detecting target | |
WO2015010451A1 (zh) | 一种从单幅图像检测道路的方法 | |
CN102006425B (zh) | 一种基于多摄像机的视频实时拼接方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN107292234B (zh) | 一种基于信息边缘和多模态特征的室内场景布局估计方法 | |
CN108537239B (zh) | 一种图像显著性目标检测的方法 | |
CN104240244B (zh) | 一种基于传播模式和流形排序的显著性物体检测方法 | |
CN103745468B (zh) | 一种基于图结构和边界先验的显著性物体检测方法 | |
CN107066916B (zh) | 基于反卷积神经网络的场景语义分割方法 | |
JP4979033B2 (ja) | オブジェクト・ベース視覚的注意モデルの顕著性推定 | |
CN105869173A (zh) | 一种立体视觉显著性检测方法 | |
CN104134217A (zh) | 一种基于超体素图割的视频显著物体分割方法 | |
CN105046689B (zh) | 一种基于多层次图结构的交互式立体图像快速分割方法 | |
CN102867313A (zh) | 一种融合区域颜色和HoG特征的视觉显著性检测方法 | |
Ückermann et al. | Realtime 3D segmentation for human-robot interaction | |
CN109741293A (zh) | 显著性检测方法及装置 | |
CN104966285A (zh) | 一种显著性区域的检测方法 | |
CN104680546A (zh) | 一种图像显著目标检测方法 | |
CN103198479A (zh) | 基于语义信息分类的sar图像分割方法 | |
CN103093470A (zh) | 一种具有尺度无关特性的快速多模态图像协同分割方法 | |
CN104851089A (zh) | 一种基于三维光场的静态场景前景分割方法和装置 | |
Pahwa et al. | Locating 3D object proposals: A depth-based online approach | |
Yang et al. | Local stereo matching based on support weight with motion flow for dynamic scene | |
CN102542267B (zh) | 结合空间分布和全局对比的显著区域检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210707 Address after: 314400 room 609, block a, 128 Shuanglian Road, Haining Economic Development Zone, Haining City, Jiaxing City, Zhejiang Province Patentee after: Haining Dingcheng Intelligent Equipment Co.,Ltd. Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang Patentee before: HANGZHOU DIANZI University |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150617 |
|
CF01 | Termination of patent right due to non-payment of annual fee |