CN108537239A - 一种图像显著性目标检测的方法 - Google Patents

一种图像显著性目标检测的方法 Download PDF

Info

Publication number
CN108537239A
CN108537239A CN201810348789.8A CN201810348789A CN108537239A CN 108537239 A CN108537239 A CN 108537239A CN 201810348789 A CN201810348789 A CN 201810348789A CN 108537239 A CN108537239 A CN 108537239A
Authority
CN
China
Prior art keywords
image
pixel
target
conspicuousness
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810348789.8A
Other languages
English (en)
Other versions
CN108537239B (zh
Inventor
刘桂华
周飞
张华�
徐锋
邓豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University of Science and Technology
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN201810348789.8A priority Critical patent/CN108537239B/zh
Publication of CN108537239A publication Critical patent/CN108537239A/zh
Application granted granted Critical
Publication of CN108537239B publication Critical patent/CN108537239B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像显著性目标检测的方法,其包括以下步骤:将目标图像进行图像分割空间转换;对空间中的图像进行像素显著性值计算,得到显著性图;将得到的显著性图与得到的分割图组结合并得到显著性分割图;将该显著性分割图的灰度值设置为255或0,得到整个图像的显著性目标区域二值图;将显著性目标二值图进行形态学开操作后进行边缘检测;将空间中的图像进行超像素分割后与具有最小外接矩形的图像相结合后进行相似度检测,得到背景种子和前景种子;分割出对应的显著性目标,得到图像中每个具有全分辨率的显著性目标,完成图像显著性目标检测。本发明能够准确地分割出显著性目标的背景和前景,具有精度高、效果好等特点。

Description

一种图像显著性目标检测的方法
技术领域
本发明涉及计算机图像处理领域,具体涉及一种图像显著性目标检测的方法。
背景技术
显著性目标检测是计算机图像处理中的基本操作,显著性目标检测是指自动提取未知场景中符合人类视觉习惯的兴趣目标的方法。目前对于目标显著性的分析计算已经成为计算机视觉领域研究的一个热点,它被广泛应用到各个领域,如图像分割,目标识别,图像压缩,及图像检索等等。计算机在进行相关图像处理操作前可以采用显著性检测技术过滤掉无关信息,从而大大减小图像处理的工作,提高效率。
现有的显著性目标检测方法主要包括基于视觉注意模型、背景先验、中心先验和对比度。
(1)视觉注意模型是一种用计算机来模拟人类视觉注意力系统的模型,在一幅图像中提取人眼所能观察到的引人注意的检点,相对于计算机而言,就是该图像的显著性,比如Itti注意力模型,它是1998年由Itti等人在《Computational Modeling of VisualAttention》中提出的,是比较经典的视觉注意力模型之一。该模型的基本思想是在图像中通过线性滤波提取颜色特征、亮度特征和方向特征,通过高斯金字塔、中央周边操作算子和归一化处理后,形成12张颜色特征地图、6张亮度特征地图和24张方向特征地图,将这些特征地图结合和归一化处理后,分别形成颜色、亮度、方向关注图,三个特征的关注图线性融合生成显著性图,再通过两层的赢者取胜神经网络,得到显著性区域,最后通过返回抑制机制,抑制当前显著区域,转而寻找下一个显著区域。
(2)基于对比度的方法又分为全局对比和局部对比两种方法。全局对比的思想主要通过计算当前超像素或像素与图像中其他超像素或像素的颜色、纹理、深度等特征差异来确定显著值;局部对比的思想主要通过计算当前超像素或像素与图像中相邻超像素或像素的颜色、纹理、深度等特征差异来确定显著值。比如2014年Peng等人《RGBD SalientObject Detection:A Benchmark and Algorithms》采用三层显著检测框架,通过全局对比方法,融合颜色、深度、位置等特征信息进行显著计算。
(3)显著检测模型采用背景先验知识进行显著性计算,比如2013年Yang等人《Saliency Detection via Graph-Based Manifold Ranking》假设RGB彩色图像的四条边为背景,应用Manifold Ranking(流形排序算法)排序所有超像素节点的相关性完成显著性计算。
(4)采用中心先验进行显著性计算,比如2015年Cheng等人《Global ContrastBased Salient Region Detection》假设图像的中心超像素为显著目标超像素,通过计算其他超像素与该中心超像素的颜色和空间差异值来进行显著性计算。
上述方法中,基于视觉注意模型的显著性目标检测方法检测的结果不具有全分辨率,基于对比度的显著性目标检测方法发不适用于复杂的环境,基于背景先验知识的显著性目标检测方法检测的结果包含较多噪声,基于中心先验的显著性目标检测方法不适用于显著性目标不在图像中心的情况。
发明内容
针对现有技术中的上述不足,本发明提供的一种图像显著性目标检测的方法解决了现有显著性目标检测方法检测效果差的问题。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种图像显著性目标检测的方法,其包括以下步骤:
S1、将目标图像去噪后分别进行meanshift图像分割和CIELAB空间转换,分别得到分割图组和位于CIELAB空间中的图像;
S2、对CIELAB空间中的图像进行像素显著性值计算,得到每个像素的显著性值,进而得到显著性图;
S3、将得到的显著性图与得到的分割图组结合并得到显著性分割图;
S4、根据各个显著性分割图的平均灰度值大小,将该显著性分割图的灰度值设置为255或0,得到整个图像的显著性目标区域二值图;
S5、将显著性目标二值图进行形态学开操作后进行边缘检测,得到带有与该边缘对应的原图像目标最小外接矩形的图像;
S6、将CIELAB空间中的图像进行超像素分割后与具有最小外接矩形的图像相结合,并将每个最小外接矩形外边缘作为标准对该最小外接矩形内的超像素进行相似度检测;
S7、将符合相似度的超像素作为与其对应的显著性目标的背景种子,其余的超像素作为与其对应的显著性目标的前景种子;
S8、根据每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标,得到图像中每个具有全分辨率的显著性目标,完成图像显著性目标检测。
进一步地,步骤S1中将目标图像去噪后进行CIELAB空间转换的具体方法为:
通过高斯滤波器去除目标图像的噪声,并根据公式
将目标图像从RGB颜色空间转换到XYZ颜色空间,并根据公式
将目标图像从XYZ颜色空间转换到CIELAB空间;其中X、Y、Z是XYZ颜色空间的三色刺激值,R为RGB图像的红色通道分量,G为RGB图像的绿色通道分量,B为RGB图像的蓝色通道分量,L*为CIELAB空间中图像像素的亮度分量,a*为CIELAB空间中从红色到绿色的范围,b*为CIELAB空间中从黄色到蓝色的范围,Yn、Xn和Zn是XYZ颜色空间中对应的三刺激色相对于白色的参考值,Yn默认取值为95.047,Xn默认取值为100.0,Zn默认取值为108.883。
进一步地,步骤S2的具体方法为:
根据公式
Sss(x,y)=||Iu(x,y)-If(x,y)||
x0=min(x,m-x)
y0=min(y,n-y)
A=(2x0+1)(2y0+1)
对CIELAB空间中的图像进行像素显著性值计算,得到每个像素的显著性值Sss(x,y),进而得到显著性图;其中‖‖为计算Iu(x,y)与If(x,y)的欧式距离;If(x,y)为CIELAB空间中像素在(x,y)位置处的像素值;Iu(x,y)为在CIELAB空间中以位置(x,y)处为中心像素的子图像的平均像素值;x0、y0和A为中间参数;m为图像的宽度;n为图像的高度。
进一步地,步骤S4的具体方法为:
判断每个显著性分割图的平均灰度值是否大于等于1.5倍整个显著性图的平均灰度值,若是则将该显著性分割图的灰度值设置为255,否则将该显著性分割图的灰度值设置为0,得到整个图像的显著性目标区域二值图。
进一步地,步骤S5的具体方法为:
将显著性目标二值图进行形态学开操作,平滑显著性二值化目标的轮廓、消除图像中的突出物后进行canny边缘检测,得到该边缘对应的原图像目标的最小外接矩形,进而得到带有与该边缘对应的原图像目标最小外接矩形的图像。
进一步地,步骤S6中将CIELAB空间中的图像进行超像素分割的具体方法为:
S6-1、将CIELAB空间中的图像离散地生成聚类核心,将CIELAB空间中的图像中所有像素点进行聚合;
S6-2、取聚类核心3×3领域内梯度最小处坐标代替原聚类核心的坐标,并向新的聚类核心分配一个单独标号;
S6-3、任取CIELAB空间中的图像中的两个像素点e和f,根据公式
利用像素点对应CIELAB空间映射值及对XY轴坐标值得到相似度;其中dlab表示像素点e,f的色差值;dxy为像素e,f的空间相位距离;DH表示像素聚类阈值,H是邻域聚类核心的距离;m表示调节因子,取值区间为[1,20];le、ae和be分别表示在CIELAB空间中像素点e的L分量、A分量和B分量的取值,lf、af和bf表示在CIELAB空间中像素点f的L分量、A分量和B分量的取值,xe和ye表示在CIELAB空间中像素点e的x和y坐标的取值,xf和yf表示在CIELAB空间中像素点f的x和y坐标的取值。
S6-4、以聚类核心为基准,2H×2H为领域范围,将聚类核心领域范围内相似度大于聚类阈值的像素合并,同时将聚类核心的标号分配给超像素内的每一个像素;
S6-5、重复步骤S6-4直至所有超像素收敛,完成超像素分割。
进一步地,步骤S8中根据每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标的具体方法为:
根据grabcut算法将每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标。
本发明的有益效果为:本发明通过基于CIELAB空间的像素显著性计算能有效地凸显出图像中的显著性目标和背景之间的对比度,使用基于meanshift图像分割与得到的显著性图相结合并使用合理的计算方法能最大限度地抑制背景、凸显显著性区域,通过得到的显著性区域的最小外界矩与图像的超像素相结合得到每一块显著性目标的前景种子和背景种子,最终使用GrabCut算法得到每一块具有全分辨率的图像显著性目标。本方法提取的显著性区域具有准确率高、鲁棒性强等特点,能够准确地分割出显著性目标的背景和前景,具有精度高、效果好等特点。
附图说明
图1为本发明的流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,该图像显著性目标检测的方法包括以下步骤:
S1、将目标图像去噪后分别进行meanshift图像分割和CIELAB空间转换,分别得到分割图组和位于CIELAB空间中的图像;
S2、对CIELAB空间中的图像进行像素显著性值计算,得到每个像素的显著性值,进而得到显著性图;
S3、将得到的显著性图与得到的分割图组结合并得到显著性分割图;
S4、根据各个显著性分割图的平均灰度值大小,将该显著性分割图的灰度值设置为255或0,得到整个图像的显著性目标区域二值图;
S5、将显著性目标二值图进行形态学开操作后进行边缘检测,得到带有与该边缘对应的原图像目标最小外接矩形的图像;
S6、将CIELAB空间中的图像进行超像素分割后与具有最小外接矩形的图像相结合,并将每个最小外接矩形外边缘作为标准对该最小外接矩形内的超像素进行相似度检测;
S7、将符合相似度的超像素作为与其对应的显著性目标的背景种子,其余的超像素作为与其对应的显著性目标的前景种子;
S8、根据grabcut算法将每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标,得到图像中每个具有全分辨率的显著性目标,完成图像显著性目标检测。
步骤S1中将目标图像去噪后进行CIELAB空间转换的具体方法为:
通过高斯滤波器去除目标图像的噪声,并根据公式
将目标图像从RGB颜色空间转换到XYZ颜色空间,并根据公式
将目标图像从XYZ颜色空间转换到CIELAB空间;其中X、Y、Z是XYZ颜色空间的三色刺激值,R为RGB图像的红色通道分量,G为RGB图像的绿色通道分量,B为RGB图像的蓝色通道分量,L*为CIELAB空间中图像像素的亮度分量,a*为CIELAB空间中从红色到绿色的范围,b*为CIELAB空间中从黄色到蓝色的范围,Yn、Xn和Zn是XYZ颜色空间中对应的三刺激色相对于白色的参考值,Yn默认取值为95.047,Xn默认取值为100.0,Zn默认取值为108.883。
步骤S2的具体方法为:
根据公式
Sss(x,y)=||Iu(x,y)-If(x,y)||
x0=min(x,m-x)
y0=min(y,n-y)
A=(2x0+1)(2y0+1)
对CIELAB空间中的图像进行像素显著性值计算,得到每个像素的显著性值Sss(x,y),进而得到显著性图;其中‖‖为计算Iu(x,y)与If(x,y)的欧式距离;If(x,y)为CIELAB空间中像素在(x,y)位置处的像素值;Iu(x,y)为在CIELAB空间中以位置(x,y)处为中心像素的子图像的平均像素值;x0、y0和A为中间参数;m为图像的宽度;n为图像的高度。
步骤S4的具体方法为:
判断每个显著性分割图的平均灰度值是否大于等于1.5倍整个显著性图的平均灰度值,若是则将该显著性分割图的灰度值设置为255,否则将该显著性分割图的灰度值设置为0,得到整个图像的显著性目标区域二值图。
步骤S5的具体方法为:
将显著性目标二值图进行形态学开操作,平滑显著性二值化目标的轮廓、消除图像中的突出物后进行canny边缘检测,得到该边缘对应的原图像目标的最小外接矩形,进而得到带有与该边缘对应的原图像目标最小外接矩形的图像。
步骤S6中将CIELAB空间中的图像进行超像素分割的具体方法为:
S6-1、将CIELAB空间中的图像离散地生成聚类核心,将CIELAB空间中的图像中所有像素点进行聚合;
S6-2、取聚类核心3×3领域内梯度最小处坐标代替原聚类核心的坐标,并向新的聚类核心分配一个单独标号;
S6-3、任取CIELAB空间中的图像中的两个像素点e和f,根据公式
利用像素点对应CIELAB空间映射值及对XY轴坐标值得到相似度;其中dlab表示像素点e,f的色差值;dxy为像素e,f的空间相位距离;DH表示像素聚类阈值,H是邻域聚类核心的距离;m表示调节因子,取值区间为[1,20];le、ae和be分别表示在CIELAB空间中像素点e的L分量、A分量和B分量的取值,lf、af和bf表示在CIELAB空间中像素点f的L分量、A分量和B分量的取值,xe和ye表示在CIELAB空间中像素点e的x和y坐标的取值,xf和yf表示在CIELAB空间中像素点f的x和y坐标的取值。
S6-4、以聚类核心为基准,2H×2H为领域范围,将聚类核心领域范围内相似度大于聚类阈值的像素合并,同时将聚类核心的标号分配给超像素内的每一个像素;
S6-5、重复步骤S6-4直至所有超像素收敛,完成超像素分割。
meanshift图像分割的本质是依据在不同的标准对特定空间进行聚类。设采样数据形成的d维的特征向量集合Sd={sk,k=1,2,…},其中s=[ss,sr]T,一般空间域向量Ss为2维,Range域向量xr的维数设为p,则d=p+2。在该集合中,概率密度函数的Parzen窗估计为:
在上式中,x表示d维空间空的一个点,KH(x)表示该d维空间中的核函数,带宽矩阵H可由带宽系数h来简化表示,H=h2I,同时采用剖面函数k来表式核函数K(x)=k(‖x‖2),则上式表达式可以表示为:
由核函数的定义可分离性,上式还可以表示为:
其中,C为归一化常量,分别表示空域和Range域的不同带宽系数,根据meanshift原理,寻找极值的过程可以直接通过均值的漂移来完成,因此每次漂移后新的特征向量由下式获得:
其中,wi为权重系数,g(x)=-k`(x)称为k的影子函数。漂移的过程不断进行,对于每个特征点向量xk,通过多次迭代收敛到不同模式点,从而形成聚类中心集合Cd={cd,k,k=1,2,…,n},经过该分类的过程,初始特征向量依据聚类中心的不同划分为n个类,然后再对Cd从空域和Range域分别进行检测,若任意ci,cj∈Cd,i≠j满足在特征空间中位于相同包围球内,则认为特征相近,将ci和cj归为一类,即
经过以上的处理,最终形成的Cd即为分割的结果。
GrabCut算法是在GraphCut算法的基础上改进而来,其中GraphCut算法描述如下:
图像被看成一个图G={V,ε},V是所有的节点,ε是连接相邻节点的边。图像分割可以当作一个二元标记问题,每一个i∈V,有唯一的一个xi∈{前景为1,背景为0},与之对应。所有的xi集合可以通过最小化Gibbs能量E(X)获得:
其中,λ为相干参数,同样的,根据用户指定的前景和背景,我们有前景节点集F和背景中子节点集B,未知节点集U。首先用K-Mean方法将F,B的节点聚类,计算每一个节点的平均颜色,代表所有前景类的平均颜色集合,背景类是计算每一个节点i到每一个前景类的最小距离和相应的背景距离其中C(i)是第i条边的连通性约束项,定义公式:
前两组等式保证定义与用户输入一致,第三组等式意味着与前景的颜色相近度决定者未知点的标记。
E2定义为与梯度相关的一个函数:
E2(xi,xj)=|xi-xj|*g(Ci,j)
E2的作用是减少在颜色相近似的像素之间,存在标记变化的可能,即使其只发生在边界上。最后,以E1和E2作为图的权值,对图进行分割,把未知区域的节点划分到前景集合或后景集合中,便得到前景提取的结果。
GrabCut算法在GraphCut的基础上进行了改进:利用高斯混合模型(GaussianMixture Model,GMM)取代直方图,将灰度图像扩展到彩色图像。
在GrabCut算法中,使用GMM模型来建立彩色图像数据模型。每一GMM都可看作一个K维的协方差。为了方便处理GMM,在优化过程中引入向量k=(k1,…,kn,…,kN)作为每个像素的独立GMM参数,且kn∈{1,2,…,K},相应像素点上的不透明度an=0或1。Gibbs能量函数写为:
E(α,k,θ,z)=U(α,k,θ,z)+V(α,z)
式中,α为不透明度,α∈{1,0},0为背景,1为前景目标,z为图像灰度值数组,z=(z,…,zn,…,zN),引入GMM彩色数据模型,其数据可以定义为:
式中D(an,kn,θ,zn)=-logp(znn,kn,θ)-log(αn,kn),p(·)是高斯概率分布,π(·)是混合权重系数(累积和为常数)。所以有:
这样模型的参数就确定为:
θ={π(α,k),u(α,k),∑(α,k),k=1,2,…,K}
彩色图像的平滑项为:
其中,常数β通过如下式子确定:β=[2<(zm-zn)2]-1,通过该式子得到的β确保上式中指数项在高低值之间适当转换。
本发明通过基于CIELAB空间的像素显著性计算能有效地凸显出图像中的显著性目标和背景之间的对比度,使用基于meanshift图像分割与得到的显著性图相结合并使用合理的计算方法能最大限度地抑制背景、凸显显著性区域,通过得到的显著性区域的最小外界矩与图像的超像素相结合得到每一块显著性目标的前景种子和背景种子,最终使用GrabCut算法得到每一块具有全分辨率的图像显著性目标。本方法提取的显著性区域具有准确率高、鲁棒性强等特点,能够准确地分割出显著性目标的背景和前景,具有精度高、效果好等特点。

Claims (7)

1.一种图像显著性目标检测的方法,其特征在于:包括以下步骤:
S1、将目标图像去噪后分别进行meanshift图像分割和CIELAB空间转换,分别得到分割图组和位于CIELAB空间中的图像;
S2、对CIELAB空间中的图像进行像素显著性值计算,得到每个像素的显著性值,进而得到显著性图;
S3、将得到的显著性图与得到的分割图组结合并得到显著性分割图;
S4、根据各个显著性分割图的平均灰度值大小,将该显著性分割图的灰度值设置为255或0,得到整个图像的显著性目标区域二值图;
S5、将显著性目标二值图进行形态学开操作后进行边缘检测,得到带有与该边缘对应的原图像目标最小外接矩形的图像;
S6、将CIELAB空间中的图像进行超像素分割后与具有最小外接矩形的图像相结合,并将每个最小外接矩形外边缘作为标准对该最小外接矩形内的超像素进行相似度检测;
S7、将符合相似度的超像素作为与其对应的显著性目标的背景种子,其余的超像素作为与其对应的显著性目标的前景种子;
S8、根据每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标,得到图像中每个具有全分辨率的显著性目标,完成图像显著性目标检测。
2.根据权利要求1所述的图像显著性目标检测的方法,其特征在于:所述步骤S1中将目标图像去噪后进行CIELAB空间转换的具体方法为:
通过高斯滤波器去除目标图像的噪声,并根据公式
将目标图像从RGB颜色空间转换到XYZ颜色空间,并根据公式
将目标图像从XYZ颜色空间转换到CIELAB空间;其中X、Y、Z是XYZ颜色空间的三色刺激值,R为RGB图像的红色通道分量,G为RGB图像的绿色通道分量,B为RGB图像的蓝色通道分量,L*为CIELAB空间中图像像素的亮度分量,a*为CIELAB空间中从红色到绿色的范围,b*为CIELAB空间中从黄色到蓝色的范围,Yn、Xn和Zn是XYZ颜色空间中对应的三刺激色相对于白色的参考值,Yn默认取值为95.047,Xn默认取值为100.0,Zn默认取值为108.883。
3.根据权利要求1所述的图像显著性目标检测的方法,其特征在于:所述步骤S2的具体方法为:
根据公式
Sss(x,y)=||Iu(x,y)-If(x,y)||
x0=min(x,m-x)
y0=min(y,n-y)
A=(2x0+1)(2y0+1)
对CIELAB空间中的图像进行像素显著性值计算,得到每个像素的显著性值Sss(x,y),进而得到显著性图;其中‖‖为计算Iu(x,y)与If(x,y)的欧式距离;If(x,y)为CIELAB空间中像素在(x,y)位置处的像素值;Iu(x,y)为在CIELAB空间中以位置(x,y)处为中心像素的子图像的平均像素值;x0、y0和A为中间参数;m为图像的宽度;n为图像的高度。
4.根据权利要求1所述的图像显著性目标检测的方法,其特征在于:所述步骤S4的具体方法为:
判断每个显著性分割图的平均灰度值是否大于等于1.5倍整个显著性图的平均灰度值,若是则将该显著性分割图的灰度值设置为255,否则将该显著性分割图的灰度值设置为0,得到整个图像的显著性目标区域二值图。
5.根据权利要求1所述的图像显著性目标检测的方法,其特征在于:所述步骤S5的具体方法为:
将显著性目标二值图进行形态学开操作,平滑显著性二值化目标的轮廓、消除图像中的突出物后进行canny边缘检测,得到该边缘对应的原图像目标的最小外接矩形,进而得到带有与该边缘对应的原图像目标最小外接矩形的图像。
6.根据权利要求1所述的图像显著性目标检测的方法,其特征在于:所述步骤S6中将CIELAB空间中的图像进行超像素分割的具体方法为:
S6-1、将CIELAB空间中的图像离散地生成聚类核心,将CIELAB空间中的图像中所有像素点进行聚合;
S6-2、取聚类核心3×3领域内梯度最小处坐标代替原聚类核心的坐标,并向新的聚类核心分配一个单独标号;
S6-3、任取CIELAB空间中的图像中的两个像素点e和f,根据公式
利用像素点对应CIELAB空间映射值及对XY轴坐标值得到相似度;其中dlab表示像素点e,f的色差值;dxy为像素e,f的空间相位距离;DH表示像素聚类阈值,H是邻域聚类核心的距离;m表示调节因子,取值区间为[1,20];le、ae和be分别表示在CIELAB空间中像素点e的L分量、A分量和B分量的取值,lf、af和bf表示在CIELAB空间中像素点f的L分量、A分量和B分量的取值,xe和ye表示在CIELAB空间中像素点e的x和y坐标的取值,xf和yf表示在CIELAB空间中像素点f的x和y坐标的取值。
S6-4、以聚类核心为基准,2H×2H为领域范围,将聚类核心领域范围内相似度大于聚类阈值的像素合并,同时将聚类核心的标号分配给超像素内的每一个像素;
S6-5、重复步骤S6-4直至所有超像素收敛,完成超像素分割。
7.根据权利要求1所述的图像显著性目标检测的方法,其特征在于:所述步骤S8中根据每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标的具体方法为:
根据grabcut算法将每个显著性目标的前景种子和对应的背景种子在原图像中分割出对应的显著性目标。
CN201810348789.8A 2018-04-18 2018-04-18 一种图像显著性目标检测的方法 Active CN108537239B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810348789.8A CN108537239B (zh) 2018-04-18 2018-04-18 一种图像显著性目标检测的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810348789.8A CN108537239B (zh) 2018-04-18 2018-04-18 一种图像显著性目标检测的方法

Publications (2)

Publication Number Publication Date
CN108537239A true CN108537239A (zh) 2018-09-14
CN108537239B CN108537239B (zh) 2020-11-17

Family

ID=63477709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810348789.8A Active CN108537239B (zh) 2018-04-18 2018-04-18 一种图像显著性目标检测的方法

Country Status (1)

Country Link
CN (1) CN108537239B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409435A (zh) * 2018-11-01 2019-03-01 上海大学 一种基于卷积神经网络的深度感知显著性检测方法
CN110059704A (zh) * 2019-04-19 2019-07-26 中国科学院遥感与数字地球研究所 一种视觉注意模型驱动的稀土矿区遥感信息智能提取方法
CN110136110A (zh) * 2019-05-13 2019-08-16 京东方科技集团股份有限公司 光伏组件缺陷的检测方法和装置
CN110147799A (zh) * 2019-05-13 2019-08-20 安徽工业大学 一种基于超像素的显微图像目标区域提取方法及系统
CN110211135A (zh) * 2019-06-05 2019-09-06 广东工业大学 一种面向复杂背景干扰的硅藻图像分割方法、装置及设备
CN110473212A (zh) * 2019-08-15 2019-11-19 广东工业大学 一种融合显著性和超像素的电镜硅藻图像分割方法及装置
CN111028259A (zh) * 2019-11-15 2020-04-17 广州市五宫格信息科技有限责任公司 一种通过图像显著性改进适应的前景提取方法
CN111275096A (zh) * 2020-01-17 2020-06-12 青梧桐有限责任公司 基于图像识别的同名小区辨别方法及系统
CN111681256A (zh) * 2020-05-07 2020-09-18 浙江大华技术股份有限公司 图像边缘检测方法、装置、计算机设备和可读存储介质
CN112541912A (zh) * 2020-12-23 2021-03-23 中国矿业大学 矿井突发灾害场景中显著性目标的快速检测方法及装置
CN112750119A (zh) * 2021-01-19 2021-05-04 上海海事大学 一种面向白玻璃盖板表面微弱缺陷的检测与测量方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110229025A1 (en) * 2010-02-10 2011-09-22 Qi Zhao Methods and systems for generating saliency models through linear and/or nonlinear integration
CN102592268A (zh) * 2012-01-06 2012-07-18 清华大学深圳研究生院 一种分割前景图像的方法
CN102693426A (zh) * 2012-05-21 2012-09-26 清华大学深圳研究生院 一种图像显著区域检测方法
CN106296695A (zh) * 2016-08-12 2017-01-04 西安理工大学 基于显著性的自适应阈值自然目标图像分割抽取算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110229025A1 (en) * 2010-02-10 2011-09-22 Qi Zhao Methods and systems for generating saliency models through linear and/or nonlinear integration
CN102592268A (zh) * 2012-01-06 2012-07-18 清华大学深圳研究生院 一种分割前景图像的方法
CN102693426A (zh) * 2012-05-21 2012-09-26 清华大学深圳研究生院 一种图像显著区域检测方法
CN106296695A (zh) * 2016-08-12 2017-01-04 西安理工大学 基于显著性的自适应阈值自然目标图像分割抽取算法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
D. COMANICIU ET AL.: "Mean shift: a robust approach toward feature space analysis", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
JIAN LI ET AL.: "Salient object detection based on meanshift filtering and", 《IET IMAGE PROCESSING》 *
RADHAKRISHNA ACHANTA ET AL.: "Frequency-tuned salient region detection", 《2009 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
冯海永: "基于超像素的显著性区域检测研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
朱元泓等: "《印刷色彩》", 31 January 2013 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409435A (zh) * 2018-11-01 2019-03-01 上海大学 一种基于卷积神经网络的深度感知显著性检测方法
CN110059704B (zh) * 2019-04-19 2021-04-13 中国科学院遥感与数字地球研究所 一种视觉注意模型驱动的稀土矿区遥感信息智能提取方法
CN110059704A (zh) * 2019-04-19 2019-07-26 中国科学院遥感与数字地球研究所 一种视觉注意模型驱动的稀土矿区遥感信息智能提取方法
CN110136110A (zh) * 2019-05-13 2019-08-16 京东方科技集团股份有限公司 光伏组件缺陷的检测方法和装置
CN110147799A (zh) * 2019-05-13 2019-08-20 安徽工业大学 一种基于超像素的显微图像目标区域提取方法及系统
CN110211135A (zh) * 2019-06-05 2019-09-06 广东工业大学 一种面向复杂背景干扰的硅藻图像分割方法、装置及设备
CN110473212A (zh) * 2019-08-15 2019-11-19 广东工业大学 一种融合显著性和超像素的电镜硅藻图像分割方法及装置
CN111028259A (zh) * 2019-11-15 2020-04-17 广州市五宫格信息科技有限责任公司 一种通过图像显著性改进适应的前景提取方法
CN111028259B (zh) * 2019-11-15 2023-04-28 广州市五宫格信息科技有限责任公司 一种通过图像显著性改进适应的前景提取方法
CN111275096A (zh) * 2020-01-17 2020-06-12 青梧桐有限责任公司 基于图像识别的同名小区辨别方法及系统
CN111681256A (zh) * 2020-05-07 2020-09-18 浙江大华技术股份有限公司 图像边缘检测方法、装置、计算机设备和可读存储介质
CN111681256B (zh) * 2020-05-07 2023-08-18 浙江大华技术股份有限公司 图像边缘检测方法、装置、计算机设备和可读存储介质
CN112541912A (zh) * 2020-12-23 2021-03-23 中国矿业大学 矿井突发灾害场景中显著性目标的快速检测方法及装置
CN112541912B (zh) * 2020-12-23 2024-03-12 中国矿业大学 矿井突发灾害场景中显著性目标的快速检测方法及装置
CN112750119A (zh) * 2021-01-19 2021-05-04 上海海事大学 一种面向白玻璃盖板表面微弱缺陷的检测与测量方法

Also Published As

Publication number Publication date
CN108537239B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN108537239A (zh) 一种图像显著性目标检测的方法
CN107578418B (zh) 一种融合色彩和深度信息的室内场景轮廓检测方法
CN104268583B (zh) 基于颜色区域特征的行人重识别方法及系统
CN106250874B (zh) 一种服饰及随身物品的识别方法和装置
CN107862698B (zh) 基于k均值聚类的光场前景分割方法及装置
CN104077605B (zh) 一种基于颜色拓扑结构的行人搜索识别方法
CN106056155B (zh) 基于边界信息融合的超像素分割方法
CN103984946B (zh) 一种基于K‑means的高分辨率遥感地图道路提取方法
CN108549891A (zh) 基于背景与目标先验的多尺度扩散显著目标检测方法
CN106611421B (zh) 基于特征学习和素描线段约束的sar图像分割方法
CN108319973A (zh) 一种树上柑橘果实检测方法
CN107230188B (zh) 一种视频运动阴影消除的方法
Almogdady et al. A flower recognition system based on image processing and neural networks
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN108710916B (zh) 图片分类的方法及装置
CN106127735B (zh) 一种设施蔬菜边缘清晰类叶面病斑分割方法及装置
CN109087330A (zh) 一种基于由粗到精图像分割的运动目标检测方法
CN109191432A (zh) 基于域变换滤波多尺度分解的遥感图像云检测方法
CN103035013A (zh) 一种基于多特征融合的精确运动阴影检测方法
Agrawal et al. Survey on image segmentation techniques and color models
CN105069816B (zh) 一种进出口人流量统计的方法及系统
CN108388905A (zh) 一种基于卷积神经网络和邻域上下文的光源估计方法
CN106446925A (zh) 一种基于图像处理的海豚身份识别的方法
CN109271932A (zh) 基于颜色匹配的行人再识别方法
CN108846404A (zh) 一种基于相关约束图排序的图像显著性检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant