CN107274419B - 一种基于全局先验和局部上下文的深度学习显著性检测方法 - Google Patents
一种基于全局先验和局部上下文的深度学习显著性检测方法 Download PDFInfo
- Publication number
- CN107274419B CN107274419B CN201710555319.4A CN201710555319A CN107274419B CN 107274419 B CN107274419 B CN 107274419B CN 201710555319 A CN201710555319 A CN 201710555319A CN 107274419 B CN107274419 B CN 107274419B
- Authority
- CN
- China
- Prior art keywords
- super
- pixel
- image
- color
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明公开一种基于全局先验和局部上下文的深度学习显著性检测方法,首先对彩色图像和深度图像进行超像素分割,基于每个超像素的紧凑性、独特性和背景性等中层特征,获得每个超像素的全局先验特征图,并进一步通过深度学习模型,得到全局先验显著图;然后,结合全局先验显著图和彩色图像与深度图像中的局部上下文信息,通过深度学习模型,得到初始显著图;最后,依据空间一致性和外观相似性优化初始显著图,得到最终显著图。应用本发明,解决了传统显著性检测方法无法有效检测到复杂背景图像中的显著物体,还解决了现有的基于深度学习的显著性检测方法由于提取出的高层特征存在噪声而导致误检的问题。
Description
技术领域
本发明属于图像处理和计算机视觉领域,尤其涉及一种基于全局先验和局部上下文的深度学习显著性检测方法。
背景技术
人眼在感知外部环境时,总能从包含有大量信息的场景中提取出感兴趣的内容,这种能力被称为视觉注意。视觉注意是计算机视觉中的一个研究热点,主要有两个方面的研究:一是研究基于视觉注意机制的眼睛注视,二是研究显著性目标区域的提取,也就是显著性检测。显著性检测的目的是从图像中将比较引人注目的目标区域与背景分离开,然后提取目标及其携带的信息,其广泛应用于图像分割、图像识别、视频异常检测等领域。
目前关于显著性检测的研究比较丰富,特征的对比是显著性检测的一个重要手段,从对比范围来说,显著性检测方法可分为局部对比和全局对比。局部对比方法通过计算检测区域与其邻域之间在颜色、纹理、边缘、方向等特征上的不同来突显检测区域,其强调显著区域的边缘但缺乏图像全局信息。全局对比方法通过将检测区域与图像中所有其它区域进行对比检测显著性,其能较好地突出显著区域的内部,但是当显著目标较大或者背景较复杂时,全局对比方法反而容易突出背景区域。最近,已有一些方法将局部对比和全局对比相结合,进行显著性检测。这些方法采用手工设定的特征和一些先验知识来计算显著性,其在简单场景下检测效果较好,但是对于具有复杂场景的图像,就很难设定有效的检测特征,因此,其检测结果中往往存在比较多的漏检和误检区域。
深度学习通过构建多层人工神经网络,能自动有效地提取图像的检测特征,并在图像分类和目标检测等任务中获得了优秀的性能。最近,也有一些方法将深度学习技术应用到显著性检测中。然而,这些方法都是仅将原图像或者原图像的局部区域作为深度学习模型的输入,对显著性检测来说,这些输入所包含的信息并不都是有用的,无用的信息会干扰高层特征的提取,影响深度学习模型的性能。
为了解决上述问题,当前需要一种新的基于深度学习的显著性检测方法。
发明内容
本发明要解决的问题是:在图像的显著性物体检测技术中,单纯依靠手工设定的特征和一些先验知识来计算显著性,无法有效检测到复杂背景图像中的显著物体;而现有的基于深度学习的显著性检测方法,仅将原图像或者原图像的局部区域作为深度学习模型的输入,由于提取出的高层特征存在噪声而导致误检。需要提出一种新的基于深度学习的显著性检测方法,提高检测效果。
为了解决上述问题,本发明提供了一种基于全局先验和局部上下文的深度学习显著性检测方法,以超像素为检测单位,融合全局先验和局部上下文信息,基于深度学习进行图像的显著性检测,包括以下步骤:
1)将彩色图像和深度图像进行超像素分割;
2)基于超像素的分割结果构建图模型,将每个超像素作为图模型中的顶点,构建无向图,每个超像素不仅和它相邻的超像素相连,而且和它相邻超像素的邻域超像素相连,并且位于边界的每个超像素互相连接,边的权值为两个超像素间的特征差异;
3)生成全局先验显著图,具体为:首先,基于每个超像素的颜色、纹理、深度等底层特征,计算其紧凑性、独特性和背景性等中层特征,并计算每个超像素与所有超像素之间的中层特征差异,得到每个超像素对应的紧凑性、独特性和背景性特征图,组合这些特征图,生成其对应的全局先验特征图,进一步将所有超像素对应的全局先验特征图作为深度学习模型的输入,得到全局先验显著图;
4)结合全局先验和局部上下文信息生成初始显著图,具体为:首先,将所有超像素在彩色图像上的局部邻域和全局先验显著图作为一个卷积神经网络的输入,计算得到彩色局部上下文显著图,然后,将其与所有超像素在深度图像上的局部邻域作为另一个卷积神经网络的输入,最后得到初始显著图;
5)结合空间一致性和外观相似性优化初始显著图,得到最终显著图。
作为进一步的优选方式,步骤3)具体步骤为:
3.1)生成紧凑性特征图时,首先,基于每个超像素的颜色、深度和纹理等底层特征,计算其紧凑性特征,每个超像素的紧凑性特征用一个三维特征向量表示:颜色紧凑性、深度紧凑性、纹理紧凑性;以颜色紧凑性为例,对于超像素ri,计算其与其它超像素之间的颜色相似性加权的距离平均,作为ri基于颜色的紧凑性特征值,类似可以计算得到ri的深度紧凑性和纹理紧凑性,即得到ri的紧凑性特征,其为颜色紧凑性、深度紧凑性、纹理紧凑性;然后计算每个超像素与图像中所有超像素之间的紧凑性特征差异,将所有超像素与该超像素的紧凑性特征差异值作为该超像素的紧凑性特征图中对应超像素区域的灰度值,即可得到每个超像素对应的紧凑性特征图;
3.2)生成独特性特征图时,首先,基于每个超像素的颜色、深度和纹理等底层特征,计算其独特性特征,每个超像素的独特性特征用一个三维特征向量表示为:颜色独特性、深度独特性、纹理独特性;以颜色独特性为例,对于超像素ri,计算其与其它超像素之间的空间距离加权的颜色差异和,作为ri基于颜色的独特性特征值,类似可以计算得到ri的深度独特性和纹理独特性,即得到ri的独特性特征,其为:颜色独特性、深度独特性、纹理独特性;然后计算每个超像素与图像中所有超像素之间的独特性特征差异,将所有超像素与该超像素的独特性特征差异值作为该超像素的独特性特征图中对应超像素区域的灰度值,即可得到每个超像素对应的独特性特征图;
3.3)生成背景性特征图时,首先,基于每个超像素的颜色、深度和纹理等底层特征,计算其背景性特征,每个超像素的背景性特征用一个三维特征向量表示为:颜色背景性、深度背景性、纹理背景性;以颜色背景性为例,对于超像素ri,计算其扩展区域面积,以此得到ri所属区域位于边界的长度,进一步基于超像素之间的颜色差异,计算ri的边界连通性,根据背景性与边界连通性的反比例关系,得到ri基于颜色的背景性特征值,类似可以计算得到ri的深度背景性和纹理背景性,即得到ri的背景性特征,其为颜色背景性、深度背景性、纹理背景性;计算ri的对象性特征值,基于其对象性特征优化得到ri的背景性特征;然后计算每个超像素与图像中所有超像素之间的背景性特征差异,将所有超像素与该超像素的背景性特征差异值作为该超像素的背景性特征图中对应超像素区域的灰度值,即可得到每个超像素对应的背景性特征图;
3.4)生成全局先验特征图时,将每个超像素对应的紧凑性特征图、独特性特征图和背景性特征图,组合为其对应的三通道的全局先验特征图,且和原图像大小相同。具体为:对于超像素ri来说,将其紧凑性特征图、独特性特征图和背景性特征图,分别作为其对应的全局先验特征图的R通道、G通道和B通道,即得到ri对应的全局先验特征图;
3.5)采用ImageNet比赛中图像分类任务的冠军模型Clarifai构建深度学习模型DCNN_GP,将图像中所有超像素所对应的全局先验特征图,作为DCNN_GP的输入,分别进行前向运算,得到每个超像素对应的显著值,将其作为显著图中对应位置像素点的灰度值,最终得到全局先验显著图。
作为进一步的优选方式,步骤4)具体步骤为:
4.1)生成彩色局部上下文显著图时,首先,用彩色图像训练集中所有像素点的灰度值均值扩充彩色图,在扩充后的彩色图像上选取每个超像素对应的邻域矩形框,将其和全局先验显著图作为卷积神经网络DCNN_LC的输入,进行前向运算得到超像素的显著值,如果全局先验显著图中,该超像素的显著值大于0.8或者小于0.2,显著值不变,否则用DCNN_LC计算出来的显著值进行替换,对每个超像素都做同样的操作,最终得到彩色局部上下文显著图;
4.2)生成初始显著图时,首先,用深度图训练集中所有像素点的深度值均值扩充深度图像,在扩充后的图像上选取每个超像素对应的邻域矩形框,将其和彩色局部上下文显著图作为卷积神经网络DCNN_LD的输入,得到初始显著图。
作为进一步的优选方式,步骤5)具体为:相邻区域之间具有相似的显著值,并且显著区域之间外观十分相似,基于此,构建代价函数,最小化代价函数优化初始显著性图,得到最终显著图,其数学表述为:
其中,S为优化得到的显著图,θi表示在初始显著图Sld中如果超像素的显著值接近于0或者1,则在优化后的显著图中这个超像素越有可能是背景或者显著区域,Wij表示无向图中每条边的权重,C表示超像素内像素点在LAB空间内的均值,T表示超像素的纹理特征,D表示超像素内像素点深度的均值,σ2=0.1。
作为进一步的优选方式,步骤1)为:利用SLIC对彩色图进行超像素分割,基于彩色图的分割区域标记匹配深度图,得到深度图的超像素分割区域。
本发明提供了一种基于全局先验和局部上下文的深度学习显著性检测方法,该方法首先对彩色图像和深度图像进行超像素分割,基于每个超像素的紧凑性、独特性和背景性等中层特征,获得每个超像素的全局先验特征图,并进一步通过深度学习模型,得到全局先验显著图;然后,结合全局先验显著图和彩色图像与深度图像中的局部上下文信息,通过深度学习模型,得到初始显著图;最后,依据空间一致性和外观相似性优化初始显著图,得到最终显著图。应用本发明,解决了传统显著性检测方法无法有效检测到复杂背景图像中的显著物体,还解决了现有的基于深度学习的显著性检测方法由于提取出的高层特征存在噪声而导致误检的问题。本发明适用于图像的显著性检测,具有很好的鲁棒性,检测结果准确。
本发明的优点是:首先,本发明以图像的中层特征作为全局先验深度学习模型的输入,充分利用显著性的先验知识;其次,本发明通过结合全局先验和局部上下文检测显著性,采用全局先验作为深度学习模型的输入,不仅使其能关注待检测图像的全局显著性,而且还会减少模型的学习模糊性,采用局部上下文作为深度学习模型的输入,可以使模型学习显著物体的局部细节;最后,利用区域之间的空间一致性和外观相似性优化初始显著性图,提高显著性检测结果。
附图说明
图1是本发明基于全局先验和局部上下文的深度学习显著性检测方法的流程图;
图2是本发明生成全局先验显著图的流程图;
图3是本发明生成初始显著图的流程图。
具体实施方式
本发明提供了一种基于全局先验和局部上下文的深度学习显著性检测方法,该方法首先对彩色图像和深度图像进行超像素分割,基于超像素的紧凑性、独特性和背景性等中层特征,通过全局先验深度学习模型,计算得到全局先验显著图;结合全局先验显著图和彩色图像与深度图像中的局部上下文信息,通过深度学习模型,得到初始显著图;最后,依据空间一致性和外观相似性优化初始显著图,得到最终显著图。本发明适用于图像的显著性检测,具有很好的鲁棒性,检测结果准确。
如图1所示,本发明包括以下步骤:
1)采用SLIC超像素分割算法对彩色图像和深度图像进行分割,得到图像对应的区域标记。
2)基于超像素的分割结果构建图模型,将每个超像素作为图模型中的顶点,构建无向图,每个超像素不仅和它相邻的超像素相连,而且和它相邻超像素的邻域超像素相连,并且位于边界的每个超像素互相连接,边的权值为两个超像素间的特征差异。
3)计算每个超像素的全局先验特征图时,首先基于每个超像素的颜色、纹理、深度等底层特征,分别计算其紧凑性、独特性和背景性等中层特征,然后计算每个超像素与图像中所有超像素之间的中层特征差异,得到每个超像素对应的紧凑性、独特性和背景性特征图,最后,将每个超像素对应的紧凑性、独特性和背景性特征图,分别作为图像的三个通道,即可得到每个超像素对应的全局先验特征图;将每个超像素的全局先验特征图作为全局先验深度学习模型的输入,分别进行前向运算,得到每个超像素对应的显著值,将其作为显著图中对应位置像素点的灰度值,最终得到全局先验显著图。
3.1)一般来说,显著目标上的颜色、纹理、深度等底层特征都基本相似,因此,显著目标在颜色、纹理、深度这三个特征空间的分布是比较紧凑的,而背景区域在这三个特征空间的分布往往是比较发散的。
基于这一特性,本发明采用紧凑性表示超像素的显著性特征,每个超像素的紧凑性特征用一个三维特征向量表示:(颜色紧凑性,深度紧凑性,纹理紧凑性)。
以颜色紧凑性为例,超像素ri的颜色紧凑性为:
其中,N表示图像中超像素的个数,nj表示超像素rj中像素点的个数,aij表示两个超像素之间的颜色相似性,ci和cj分别表示超像素ri和rj中所有像素LAB颜色特征的均值,表示超像素rj的几何中心,σc控制颜色相似性权值强度,σc 2=0.1。
同理,分别得到超像素ri的深度紧凑性dc(ri)和纹理紧凑性tc(ri),即超像素ri的紧凑性特征为:
cp(ri)=(cc(ri),dc(ri),tc(ri))
为了有效地对物体进行准确定位,本发明基于超像素之间的紧凑性特征差异,生成每个超像素对应的紧凑性特征图。
在超像素ri对应的紧凑性特征图CMap(ri)中,超像素rj(j=1,2,...,N)中每个像素p的灰度值均为:
其中,Norm(x)是一个归一化函数,将x归一化到[0,1]区间。
3.2)如果一个区域与其邻域,或与图像中所有其它区域相比是比较独特的,则认为该区域是显著的。基于这一特性,本发明基于颜色、深度和纹理等底层特征计算每个超像素的独特性特征,则每个超像素的独特性特征用一个三维特征向量表示:(颜色独特性,深度独特性,纹理独特性)。
以颜色独特性为例,采用全局对比的方式计算超像素ri的颜色独特性为:
其中,N表示图像中超像素的个数,nj表示超像素rj中像素点的个数,wij表示空间距离权重,xi和xj分别表示超像素和rj的质心点,ci和cj分别表示超像素ri和rj中所有像素的LAB颜色特征均值,σd=0.3。
同理,分别得到超像素ri的深度独特性du(ri)和纹理独特性tu(ri),即超像素ri的独特性特征为:
up(ri)=(cu(ri),du(ri),tu(ri))
基于超像素之间的独特性特征差异,生成每个超像素对应的独特性特征图。在超像素ri对应的独特性特征图UMap(ri)中,超像素rj(j=1,2,...,N)中每个像素p的灰度值均为:
3.3)通过观察发现,显著物体极大可能位于图像的内部而不是图像边界,且背景区域之间具有较强的连通性。基于这一特性,本发明基于颜色、深度和纹理等底层特征计算每个超像素的初始背景性特征,则每个超像素的初始背景性特征用一个三维特征向量表示:(颜色背景性,深度背景性,纹理背景性)。
以颜色背景性为例,计算超像素ri的颜色背景性cb(ri)为:
其中,BndCon(r)表示超像素r的边界连通性,Lenbnd(r)表示超像素r所属区域位于图像边界的长度,当rj位于图像的边界,则δ(rj∈Bnd)=1,否则其为0,Area(r)表示超像素r的扩展区域面积,dgeo(r′,r″)表示超像素r′与r″之间的最短路径代价,dapp(r′,r″)为相连两个超像素r′、r″之间的颜色特征差异,
同理,分别得到超像素ri的深度背景性db(ri)和纹理背景性tb(ri)。但是,当显著物体位于图像的边界时,此背景性特征会将图像中位于边界的目标区域误判为背景区域。一般,图像中的显著目标通常是真实物体,因此,本发明计算每个超像素的对象性,以修正其背景性特征,即超像素ri的背景性特征为:
bp(ri)=(cb(ri),db(ri),tb(ri))·(1-Obj(ri))
其中,Obj(ri)表示超像素ri的对象性。
基于超像素之间的背景性特征差异,生成每个超像素对应的背景性特征图。在超像素ri对应的背景性特征图BMap(ri)中,超像素rj(j=1,2,...,N)中每个像素p的灰度值均为:
3.4)对于具有N个超像素区域的图像I,可以分别得到每个超像素ri(i=1,2,...,N)对应的紧凑性特征图CMap(ri)、独特性特征图UMap(ri)和背景性特征图BMap(ri)。基于每个超像素的紧凑性特征图、独特性特征图和背景性特征图,生成每个超像素对应的全局先验特征图。在超像素ri对应的全局先验特征图GPMap(ri)中,超像素rj(j=1,2,...,N)中每个像素p的值均为:
3.5)本发明采用ImageNet比赛中图像分类任务的冠军模型Clarifai构建深度学习模型DCNN_GP,检测超像素的全局先验显著值,其主要包含5层卷积层和3层全连接层。在显著性检测时,首先需将图像进行超像素分割,对于得到的每一个超像素,生成对应的全局先验特征图,然后将这些特征图输入到模型中分别进行前向运算,得到每个超像素对应的显著值,将其作为显著图中对应位置像素点的灰度值,最终得到全局先验显著图Sg。
4)为了结合全局先验和局部上下文信息,本发明采用包含有两个卷积神经网络(DCNN_LC、DCNN_LD)的深度学习模型生成初始显著图。
4.1)首先,采用彩色图像训练集中所有像素点的灰度值均值扩充原彩色图的四周,扩充后图像的宽和高变为原来的三倍,在扩充后的图像上分别获取以每个超像素质心点为中心的固定大小的邻域矩形框,将这些邻域矩形框调整为227×227×3的大小作为卷积神经网络DCNN_LC的输入。DCNN_LC的结构、训练集的标注方式与DCNN_GP一致,只是网络中参数不同。为了融合全局先验和局部上下文,本文还将全局阶段得到的显著图Sg作为DCNN_LC的输入。在训练DCNN_LC的过程中,Sg不需要参与卷积运算,只需将其下采样为64×64,然后通过flatten层调整为4096维向量,其和第二层全连接层提取的4096维向量相结合共同判断超像素属于哪一类。在检测的时候将超像素的邻域矩形框作为输入,其经过DCNN_LC进行前向运算得到超像素的显著值,如果在显著图Sg中,该超像素的显著值大于0.8或者小于0.2,显著值不变,否则用DCNN_LC计算出来的显著值进行替换,对每个超像素都做同样的操作,最终得到显著图Slc。
4.2)采用深度图训练集中所有像素点的深度值均值扩充原深度图的四周,扩充后图像的宽和高变为原来的三倍,在扩充后的图像上分别获取以每个超像素质心点为中心的固定大小的邻域矩形框,将这些邻域矩形框调整为227×227×3的大小作为卷积神经网络DCNN_LD的输入。DCNN_LD的结构、训练集的标注方式与DCNN_GP一致,只是网络中参数不同,本文还将显著图Slc作为DCNN_LD的输入。在训练DCNN_LD的过程中,Slc不需要参与卷积运算,只需将其下采样为64×64大小,然后通过flatten层调整为4096维向量,其和第二层全连接层提取的4096维向量相结合共同判断超像素属于哪一类。在检测的时候将超像素的邻域矩形框作为输入,其经过DCNN_LD进行前向运算得到超像素的显著值,对每个超像素都做同样的操作,最终得到初始显著图Sld。
5)本发明利用图像中区域间的空间一致性和显著区域间的外观相似性优化初始显著性图,从而得到最终显著图S。基于已构建好的无向图,本发明提出一个代价函数,通过最小化代价函数优化各区域的显著值,其数学表述为:
其中,S为优化得到的显著图,θi表示在初始显著图Sld中如果超像素的显著值接近于0或者1,则在优化后的显著图中这个超像素越有可能是背景或者显著区域,Wij表示无向图中每条边的权重,C表示超像素内像素点在LAB空间内的均值,T表示超像素的纹理特征,D表示超像素内像素点深度的均值,σ2=0.1。
本发明在图像处理和计算机视觉领域有着广泛的应用,例如:图像分割、图像识别、视频异常检测等。下面参照附图,对本发明进行详尽的描述。
(1)在本发明的实施例中,采用SLIC超像素分割算法对彩色图像和深度图像进行分割,得到图像对应的区域标记。
(2)基于超像素的分割结果构建图模型,将每个超像素作为图模型中的顶点,构建无向图,每个超像素不仅和它相邻的超像素相连,而且和它相邻超像素的邻域超像素相连,并且位于边界的每个超像素互相连接,边的权值为两个超像素间的特征差异。
(3)将每个超像素的全局先验特征图作为全局先验深度学习模型的输入,生成全局先验显著图,具体做法如图2所示。首先,基于每个超像素的颜色、纹理、深度等底层特征,计算其紧凑性、独特性和背景性等中层特征;计算每个超像素与图像中所有超像素之间的中层特征差异,得到每个超像素对应的紧凑性、独特性和背景性特征图;组合这些特征图,生成每个超像素对应的全局先验特征图;将每个超像素对应的全局先验特征图作为全局先验深度学习模型的输入,得到全局先验显著图。
(4)结合全局先验和局部上下文信息生成初始显著图,具体做法如图3所示。首先,用彩色图像训练集中所有像素点的灰度值均值扩充彩色图,在扩充后的彩色图像上选取每个超像素对应的局部邻域,将其和全局先验显著图一起作为卷积神经网络DCNN_LC的输入,得到彩色局部上下文显著图,然后用深度图训练集中所有像素点的深度值均值扩充深度图,在扩充后的深度图像上获取每个超像素对应的局部邻域,将其和彩色局部上下文显著图一起作为卷积神经网络DCNN_LD的输入,得到初始显著图。
(5)利用空间一致性和外观相似性优化初始显著性图,从而得到最终的显著性检测结果。基于构建好的无向图,计算相连超像素之间的颜色、纹理和深度特征相似性,然后以其为权重,求得最终显著图中所有超像素显著值之间的加权差异之和,并计算所有超像素优化之前显著值和优化之后显著值之间的加权差异之和,将这两个差异之和相加构建代价函数,最后通过最小化代价函数得到最终显著图。
在NVIDIA Quadro K2200和Ubuntu14.04 64位操作系统下,采用Caffe和MATLAB2015编程实现该方法。
本发明提供了一种基于全局先验和局部上下文的深度学习显著性检测方法,适用于图像的显著性检测,鲁棒性好,检测结果准确。实验表明该方法能够有效地进行显著性检测。
Claims (4)
1.一种基于全局先验和局部上下文的深度学习显著性检测方法,其特征在于,包括以下步骤:
步骤1)、将彩色图和深度图进行超像素分割;
步骤2)、基于超像素的分割结果构建图模型,将每个超像素作为图模型中的顶点,构建无向图,每个超像素不仅和它相邻的超像素相连,而且和它相邻超像素的邻域超像素相连,并且位于边界的每个超像素互相连接,边的权值为两个超像素间的特征差异;
步骤3)、生成全局先验显著图,具体为:首先,基于每个超像素的颜色、纹理、深度底层特征,计算其紧凑性、独特性和背景性中层特征;计算每个超像素与图像中所有超像素之间的中层特征差异,得到每个超像素对应的紧凑性、独特性和背景性特征图;组合这些特征图,生成每个超像素对应的全局先验特征图;将每个超像素对应的全局先验特征图作为全局先验深度学习模型的输入,得到全局先验显著图;
步骤3)具体步骤为:
3.1)、生成紧凑性特征图时,首先,基于每个超像素的颜色、深度和纹理底层特征,计算其紧凑性特征,每个超像素的紧凑性特征用一个三维特征向量表示:颜色紧凑性、深度紧凑性、纹理紧凑性;以颜色紧凑性为例,对于超像素ri,计算其与其它超像素之间的颜色相似性加权的距离平均,作为ri基于颜色的紧凑性特征值,类似可以计算得到ri的深度紧凑性和纹理紧凑性,即得到ri的紧凑性特征,其为颜色紧凑性、深度紧凑性、纹理紧凑性;然后计算每个超像素与图像中所有超像素之间的紧凑性特征差异,将所有超像素与该超像素的紧凑性特征差异值作为该超像素的紧凑性特征图中对应超像素区域的灰度值,即可得到每个超像素对应的紧凑性特征图;
3.2)、生成独特性特征图时,首先,基于每个超像素的颜色、深度和纹理底层特征,计算其独特性特征,每个超像素的独特性特征用一个三维特征向量表示为:颜色独特性、深度独特性、纹理独特性;以颜色独特性为例,对于超像素ri,计算其与其它超像素之间的空间距离加权的颜色差异和,作为ri基于颜色的独特性特征值,类似可以计算得到ri的深度独特性和纹理独特性,即得到ri的独特性特征,其为:颜色独特性、深度独特性、纹理独特性;然后计算每个超像素与图像中所有超像素之间的独特性特征差异,将所有超像素与该超像素的独特性特征差异值作为该超像素的独特性特征图中对应超像素区域的灰度值,即可得到每个超像素对应的独特性特征图;
3.3)、生成背景性特征图时,首先,基于每个超像素的颜色、深度和纹理底层特征,计算其背景性特征,每个超像素的背景性特征用一个三维特征向量表示为:颜色背景性、深度背景性、纹理背景性;以颜色背景性为例,对于超像素ri,计算其扩展区域面积,以此得到ri所属区域位于边界的长度,进一步基于超像素之间的颜色差异,计算ri的边界连通性,根据背景性与边界连通性的反比例关系,得到ri基于颜色的背景性特征值,类似可以计算得到ri的深度背景性和纹理背景性,即得到ri的背景性特征,其为颜色背景性、深度背景性、纹理背景性;计算ri的对象性特征值,基于其对象性特征优化得到ri的背景性特征;然后计算每个超像素与图像中所有超像素之间的背景性特征差异,将所有超像素与该超像素的背景性特征差异值作为该超像素的背景性特征图中对应超像素区域的灰度值,即可得到每个超像素对应的背景性特征图;
3.4)、生成全局先验特征图时,将每个超像素对应的紧凑性特征图、独特性特征图和背景性特征图,组合为其对应的三通道的全局先验特征图,且和原图像大小相同; 具体为:对于超像素ri来说,将其紧凑性特征图、独特性特征图和背景性特征图,分别作为其对应的全局先验特征图的R通道、G通道和B通道,即得到ri对应的全局先验特征图;
3.5)、采用ImageNet比赛中图像分类任务的冠军模型Clarifai构建深度学习模型DCNN_GP,将图像中所有超像素所对应的全局先验特征图,作为DCNN_GP的输入,分别进行前向运算,得到每个超像素对应的显著值,将其作为显著图中对应位置像素点的灰度值,最终得到全局先验显著图;
步骤4)、生成初始显著图,具体为:首先,用彩色图像训练集中所有像素点的灰度值均值扩充彩色图,在扩充后的彩色图像上选取每个超像素对应的局部矩形框,将其和全局先验显著图一起作为卷积神经网络的输入,得到彩色局部上下文显著图,然后用深度图训练集中所有像素点的深度值均值扩充深度图,在扩充后的深度图像上获取每个超像素对应的局部矩形框,将其和彩色局部上下文显著图一起作为另一个卷积神经网络的输入,得到初始显著图;
步骤5)结合空间一致性和外观相似性优化初始显著图,得到最终显著图。
2.如权利要求1所述的基于全局先验和局部上下文的深度学习显著性检测方法,其特征在于,步骤4)具体步骤为:
4.1)、生成彩色局部上下文显著图时,首先,用彩色图像训练集中所有像素点的灰度值均值扩充彩色图,在扩充后的彩色图像上选取每个超像素对应的邻域矩形框,将其和全局先验显著图作为卷积神经网络DCNN_LC的输入,进行前向运算得到超像素的显著值,如果全局先验显著图中,该超像素的显著值大于0.8或者小于0.2,显著值不变,否则用DCNN_LC计算出来的显著值进行替换,对每个超像素都做同样的操作,最终得到彩色局部上下文显著图;
4.2)、生成初始显著图时,首先,用深度图训练集中所有像素点的深度值均值扩充深度图像,在扩充后的图像上选取每个超像素对应的邻域矩形框,将其和彩色局部上下文显著图作为卷积神经网络DCNN_LD的输入,得到初始显著图。
4.根据权利要求1所述的基于全局先验和局部上下文的深度学习显著性检测方法,其特征在于,步骤1)为:利用SLIC对彩色图进行超像素分割,基于彩色图的分割区域标记匹配深度图,得到深度图的超像素分割区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710555319.4A CN107274419B (zh) | 2017-07-10 | 2017-07-10 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710555319.4A CN107274419B (zh) | 2017-07-10 | 2017-07-10 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107274419A CN107274419A (zh) | 2017-10-20 |
CN107274419B true CN107274419B (zh) | 2020-10-13 |
Family
ID=60072369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710555319.4A Active CN107274419B (zh) | 2017-07-10 | 2017-07-10 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107274419B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107833220B (zh) * | 2017-11-28 | 2021-06-11 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
CN108021886B (zh) * | 2017-12-04 | 2021-09-14 | 西南交通大学 | 一种无人机重复纹理影像局部显著特征点匹配方法 |
CN108154150B (zh) * | 2017-12-18 | 2021-07-23 | 北京工业大学 | 一种基于背景先验的显著性检测方法 |
CN108154488B (zh) * | 2017-12-27 | 2019-10-22 | 西北工业大学 | 一种基于显著图像块分析的图像运动模糊去除方法 |
CN108415260A (zh) * | 2018-02-10 | 2018-08-17 | 深圳众厉电力科技有限公司 | 一种智能家居服务机器人 |
CN108550132B (zh) * | 2018-03-16 | 2021-06-18 | 安徽大学 | 一种图像协同显著目标检测方法 |
CN108388905B (zh) * | 2018-03-21 | 2019-07-19 | 合肥工业大学 | 一种基于卷积神经网络和邻域上下文的光源估计方法 |
CN108805029B (zh) * | 2018-05-08 | 2021-08-24 | 天津师范大学 | 一种基于显著对偶激活编码的地基云图识别方法 |
CN109035196B (zh) * | 2018-05-22 | 2022-07-05 | 安徽大学 | 基于显著性的图像局部模糊检测方法 |
CN109086777B (zh) * | 2018-07-09 | 2021-09-28 | 南京师范大学 | 一种基于全局像素特征的显著图精细化方法 |
CN109241913B (zh) * | 2018-09-10 | 2021-05-18 | 武汉大学 | 结合显著性检测和深度学习的船只检测方法及系统 |
CN109636764A (zh) * | 2018-11-01 | 2019-04-16 | 上海大学 | 一种基于深度学习与显著性检测的图像风格转移方法 |
CN109409435B (zh) * | 2018-11-01 | 2022-07-15 | 上海大学 | 一种基于卷积神经网络的深度感知显著性检测方法 |
CN110111357B (zh) * | 2019-04-03 | 2023-02-07 | 天津大学 | 一种视频显著性检测方法 |
CN110096961B (zh) * | 2019-04-04 | 2021-03-02 | 北京工业大学 | 一种超像素级别的室内场景语义标注方法 |
CN110490082B (zh) * | 2019-07-23 | 2022-04-05 | 浙江科技学院 | 一种有效融合神经网络特征的道路场景语义分割方法 |
CN110945564B (zh) * | 2019-08-13 | 2023-04-07 | 香港应用科技研究院有限公司 | 基于混合上下文cnn模型的医学图像分割 |
CN112990226A (zh) * | 2019-12-16 | 2021-06-18 | 中国科学院沈阳计算技术研究所有限公司 | 一种基于机器学习的显著性物体检测方法 |
CN111079674B (zh) * | 2019-12-22 | 2022-04-26 | 东北师范大学 | 一种基于全局和局部信息融合的目标检测方法 |
CN111160300B (zh) * | 2019-12-31 | 2022-06-28 | 北京理工大学重庆创新中心 | 一种结合全局先验的深度学习高光谱图像显著性检测算法 |
CN111209918B (zh) * | 2020-01-06 | 2022-04-05 | 河北工业大学 | 一种图像显著性目标检测方法 |
CN111914852B (zh) * | 2020-06-03 | 2023-10-03 | 杭州电子科技大学 | 一种基于编解码结构的多模态显著性对象检测方法 |
CN112381813B (zh) * | 2020-11-25 | 2023-09-05 | 华南理工大学 | 一种基于图卷积神经网络的全景图视觉显著性检测方法 |
CN114022778B (zh) * | 2021-10-25 | 2023-04-07 | 电子科技大学 | 一种基于显著性cnn的sar靠岸船只检测方法 |
CN115115654B (zh) * | 2022-06-14 | 2023-09-08 | 北京空间飞行器总体设计部 | 一种基于显著性和近邻形状查询的物体图像分割方法 |
CN115601233B (zh) * | 2022-12-14 | 2023-03-10 | 南京诺源医疗器械有限公司 | 一种医学图像的2d转3d方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574375A (zh) * | 2014-12-23 | 2015-04-29 | 浙江大学 | 结合彩色和深度信息的图像显著性检测方法 |
CN105513070A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 一种基于前景背景优化的rgb-d显著物体检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10095953B2 (en) * | 2009-11-11 | 2018-10-09 | Disney Enterprises, Inc. | Depth modification for display applications |
US9025880B2 (en) * | 2012-08-29 | 2015-05-05 | Disney Enterprises, Inc. | Visual saliency estimation for images and video |
-
2017
- 2017-07-10 CN CN201710555319.4A patent/CN107274419B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574375A (zh) * | 2014-12-23 | 2015-04-29 | 浙江大学 | 结合彩色和深度信息的图像显著性检测方法 |
CN105513070A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 一种基于前景背景优化的rgb-d显著物体检测方法 |
Non-Patent Citations (4)
Title |
---|
Saliency Detection by Multi-Context Deep Learning;Rui Zhao等;《2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20151025;第1265-1274页 * |
Salient Region Detection by UFO: Uniqueness, Focusness and Objectness;Peng Jiang等;《2013 IEEE International Conference on Computer Vision》;20140303;第1976-1983页 * |
基于颜色和运动空间分布的时空显著性区域检测算法;郑云飞等;《计算机应用研究 知网网络首发》;20160802;第2189-2195页 * |
结合局部特征及全局特征的显著性检测;蔡强等;《光学精密工程》;20170331;第25卷(第3期);第772-778页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107274419A (zh) | 2017-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274419B (zh) | 一种基于全局先验和局部上下文的深度学习显著性检测方法 | |
Fischer et al. | Flownet: Learning optical flow with convolutional networks | |
JP6631179B2 (ja) | 前景画像分割方法及び装置、プログラム、並びに記録媒体 | |
CN103871076B (zh) | 基于光流法和超像素分割的运动目标提取方法 | |
Lee et al. | Temporally coherent video matting | |
Li et al. | Saliency model-based face segmentation and tracking in head-and-shoulder video sequences | |
Zoidi et al. | Visual object tracking based on local steering kernels and color histograms | |
CN107330390B (zh) | 一种基于图像分析和深度学习的人数统计方法 | |
CN109086777B (zh) | 一种基于全局像素特征的显著图精细化方法 | |
CN111415316A (zh) | 基于生成对抗网络的缺陷数据合成算法 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
Dahan et al. | Combining color and depth for enhanced image segmentation and retargeting | |
CN108022244B (zh) | 一种基于前景和背景种子用于显著目标检测的超图优化方法 | |
JP2018124890A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN108537816A (zh) | 一种基于超像素和背景连接先验的显著物体分割方法 | |
CN106778634B (zh) | 一种基于区域融合的显著性人体区域检测方法 | |
Choi et al. | A contour tracking method of large motion object using optical flow and active contour model | |
Pahwa et al. | Locating 3D object proposals: A depth-based online approach | |
CN108154150B (zh) | 一种基于背景先验的显著性检测方法 | |
Zoidi et al. | Stereo object tracking with fusion of texture, color and disparity information | |
Qiao et al. | A novel segmentation based depth map up-sampling | |
Liu et al. | Automatic body segmentation with graph cut and self-adaptive initialization level set (SAILS) | |
CN111161219B (zh) | 一种适用于阴影环境的鲁棒单目视觉slam方法 | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 | |
CN106296740B (zh) | 一种基于低秩稀疏表达的目标精细轮廓跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |