CN104408712A - 基于信息融合的隐马尔可夫显著区域检测方法 - Google Patents
基于信息融合的隐马尔可夫显著区域检测方法 Download PDFInfo
- Publication number
- CN104408712A CN104408712A CN201410616754.XA CN201410616754A CN104408712A CN 104408712 A CN104408712 A CN 104408712A CN 201410616754 A CN201410616754 A CN 201410616754A CN 104408712 A CN104408712 A CN 104408712A
- Authority
- CN
- China
- Prior art keywords
- image
- calculate
- passage
- label
- sigma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于信息融合的隐马尔可夫显著区域检测方法,本发明可以应用于复杂背景下的目标区域检测和识别。技术特征在于:首先计算图像的三个颜色对比通道;然后,通过最大后验概率迭代计算各通道的最终标签图像;再用最大互信息的标签类得到各通道突出图;最后将3个通道中所有大于冗余信息的连通区域信息量相加并归一化,得到最终显著图。本发明在充分利用了图像先验信息同时保留了数据细节,解决了区域颜色信息丢失所带来的问题,能够迅速对焦于广泛的显著区域而不用提前进行训练。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于信息融合的隐马尔可夫显著区域检测方法。
背景技术
显著区域检测是从复杂的自然场景中检测出最能吸引观察者注意的图像区域,这些区域可以给人眼带来较强的刺激,使视觉系统能够用有效的方式来分配有限的感性资源。目前显著区域检测广泛的应用于自适应压缩和缩放,无监督图像分割,目标识别等众多图像处理领域。因此,研究显著区域检测方法有很重要的实用价值。
目前针对显著区域检测的一些主要方法:
SUN方法是Christopher Kanan等在“Robust Classification of Objects,Faces,and FlowersUsing Natural Image Statistics”in CVPR 2010中提出的。其思路是从自然图像集合当中,用独立成分分析训练出一个基特征来模仿神经元的感受野,从而求解图像中的显著目标区域。该方法符合自上而下的视觉系统,其计算速度较快。然而,人眼能够迅速的从大量复杂背景中寻找出有用的目标,在很大程度上就是依赖于颜色信息。该方法在处理时只考虑灰度图像,忽略了图像的颜色信息,而这些在不同的像素位置上的颜色值反映的是真实场景的有关信息,这导致在不同颜色背景下计算出的显著值近似,影响了检测的效果。
四元数方法是Boris Schauerte等在“Quatemion-based Spectral Saliency Detection for EyeFixation Prediction”in ECCV 2012中提出的。其主要思想是将图像作为一个整体映射到四元数频谱,从四元数频谱的变化率出发给出一个通用显著区域检测模型。该方法从纯数学的角度考虑了区域显著性在四元数频谱的变化,检测出的区块较完整。然而,该方法缺乏对图像显著区域的先验知识利用,显著区域检测是为了理解,但是理想的检测结果需要理解后的结果作为先验知识,因而显著区域检测是一个病态问题,该方法忽略了对这种病态性问题的考虑,随着图像场景的复杂化,其检测准确性也急剧下降。
发明内容
本发明的目的是针对背景技术存在的缺陷,提出一种基于信息融合的隐马尔可夫显著区域检测方法,保留了图像的先验知识和颜色信息,可以从一个复杂的自然场景当中自动检测出显著区域,能够迅速对焦于广泛的显著区域而不用提前进行训练。
为实现上述目的,本发明的技术方案包括如下几个步骤:
步骤1)读取待检测图像Y,用RGB颜色空间转换为对比颜色空间方法,计算出三个对比颜色通道YRG,YBY,YI。
步骤2)将通道YRG视作观察场来计算完全数据ZRG和初始标签图具体步骤如下:
2a)用canny算法求通道YRG的边缘响应,该边缘响应就是完全数据ZRG。
2b)对通道YRG用高斯模糊来降低图像细节并减少噪声。
2c)用k-means聚类算法计算通道YRG的初始标签图聚类数即标签类l的个数。
步骤3)计算初始标签图中各类标签的均值与方差,作为初始参数。
步骤4)通过最大后验概率来计算新标签图像详细步骤如下:
4a)求似然能量函数U(y|x;λ),方法为:其中yi为通道YRG的第i个像素,与为标签图像的第i个像素所在的标签类l的均值和方差, 为参数集合。
4b)计算先验能量函数U(x),可以通过该式得到:它是基团集合C中所有基团的势函数Vc(x)的总和。其中,势函数Vc(x)为:x′i是点xi的邻域像素点。δ(xi,x′i)是邻域像素对的势函数参数,具有以下这种形式:
4c)重复步骤4a)-4b),更新似然能量函数和先验能量函数,用来计算新标签图像方法为:
步骤5)用步骤4)得到的新标签图像来重新估计参数,具体步骤如下:
5a)计算通道YRG的条件分布g(yi|xi;λl),条件分布用高斯分布来表达,λl为新标签图像的第l类标签的参数集合。
5b)执行t次迭代,计算标签类l的条件概率,方法为:
其中,的计算方法同步骤4b)中势函数的计算方法,是xi的邻域像素点。
5c)计算第l类标签的最大后验概率:P(yi)为通道YRG在第i个像素上的概率,用高斯分布来表达。
5d)用最大后验概率P(t)(l|yi)重新估计参数,具体计算方法为:
步骤6)重复步骤4)-5),得到通道YRG的最终标签图像XRG。
步骤7)计算通道YBY与通道YI的最终标签图XBY与XI,方法同步骤4)-6)。得到三个通道的最终标签图X={XRG,XBY,XI}。
步骤8)计算三通道突出图X*。方法是在给定待检测图像Y的条件下,找到各通道下最终标签图X的互信息值最大的标签类l,该标签类l即为突出图X*:
其中,H(Xl)是标签图像X中的标签类l所代表的图像区域Xl的熵。H(Xl|Y)反映的是当人眼观察到图像Y后,图像中出现标签区域Xl的熵。
步骤9)删除突出图中过小的连通区域。突出图X*由多个独立的连通区域{R1,R2...,Rk}构成,若第k个连通区域满足条件则保留,否则从突出图中删除,其中d为面积阈值,m·n为图像的尺寸。
步骤10)计算三个对比颜色通道突出图X*中的各连通区域的自信息。
步骤11)最后将三通道下的突出图融合成一幅显著图S,计算方法是将三通道中所有大于冗余信息参数的连通区域的自信息相加,并归一化,得到最终显著图S。
所述RGB颜色空间转换对比颜色空间方法,利用文章Color invariance中提出的颜色空间转换方法。
所述canny算法采用文章On regularized Laplacian zero crossings and other optimal edgeintegrators中的canny边缘检测算法。
所述k-means聚类算法采用文章A fast k-means implementation using coresets中的k-means聚类算法。
有益效果
本发明涉及一种基于信息融合的隐马尔可夫显著区域检测方法,使用基于贝叶斯框架的隐马尔可夫随机场结构,在充分利用了图像先验信息的同时又保留了数据细节,该结构能够克服显著目标检测的病态性问题。其能有效刻画图像的空间信息。对于包含的光谱变化率、纹理基元的排列以及图像表面局部的内在特征的复杂场景图像,用该结构来描述检测显著区域的先验分布非常恰当。
本发明还使用各颜色通道下基于随机场求出的标签图像与原始图像的互信息,来寻找每个颜色通道中最有代表性的目标区域。这些区域承载着代表该颜色背景下在原始图像中信息量最大的显著性目标。然后利用这些候选区域本身所包含的信息量来确定视觉系统真正在注意的是哪些区域,从而将多通道突出图融合成一幅显著图,解决了区域颜色信息丢失所带来的问题,能够迅速对焦于广泛的显著区域而不用提前进行训练。
附图说明
图1是本发明方法的工作原理流程图。
图2是本发明方法的实例操作流程图。
具体实施方式
现结合实施例、附图对本发明作进一步的描述:
用于实施的硬件环境是:Intel core 15-2400CPU、2GB内存、1GB显卡计算机,运行的软件环境是:Matlab 2012a、WindowsXP。使用数据库公开可下载的MSRA显著目标图像集进行实验,该数据库是由20000幅图像组成,被三个人进行显著区域标注。我们用Matlab软件实现了本发明提出的方法。
本发明的具体实施步骤如下:
步骤1)读取待检测图像Y,将RGB颜色空间转换为对比颜色空间,计算三个对比颜色通道YRG,YBY,YI,其中设置伽马矫正参数为2.4,用于移出RGB图像各分量的伽马非线性。
步骤2)将通道YRG视作观察场来计算完全数据ZRG和初始标签图具体步骤如下:
2a)用canny算法求通道YRG的边缘响应,该边缘响应就是完全数据ZRG,设置边缘检测门限为0.75,得到的完全数据Z是值为0、1的逻辑图像。
2b)对通道YRG用高斯模糊来降低图像细节并减少噪声,高斯标准差取值4。
2c)用k-means聚类算法计算通道YRG的初始标签图聚类数即标签类l的个数,聚类个数取值3。
步骤3)计算初始标签图中3类标签的均值μ0与方差σ0,作为初始参数。
步骤4)通过最大后验概率来计算新标签图像详细步骤如下:
4a)求似然能量函数U(y|x;λ),方法为:其中yi为通道YRG的第i个像素,与为标签图像的第i个像素所在的标签类l的均值和方差,为参数集合。这里依据观察数据yi之间相互独立,假设同一类图像标签的像素服从同一种分布,并用高斯分布来近似同一类图像标签区域像素的分布情况。
4b)计算先验能量函数U(x),可以通过该式得到:它是基团集合C中所有基团的势函数Vc(x)的总和。
其中,势函数Vc(x)为:x′i是点xi的4-邻域像素点。δ(xi,x′i)是邻域像素对的势函数参数,具有以下这种形式: 设置4-邻域像素来表示基团C,即xi的标签值与4-邻域像素点x′i的标签值相等时势函数为0。
4c)重复步骤4a)-4b),迭代次数取10,更新似然能量函数和先验能量函数,用来计算新标签图像方法为:
步骤5)用步骤4)得到的新标签图像来重新估计其参数,具体步骤如下:
5a)计算通道YRG的条件分布g(yi|xi;λl),条件分布用高斯分布来表达,λl为新标签图像的第l类标签的参数集合。
5b)计算第t次迭代时,标签类l的条件概率,方法为:
其中,的计算方法同步骤4b),Ni表示i的4-邻域,对应xi的4-邻域像素点。
5c)计算第l类标签的最大后验概率:P(yi)为通道YRG在第i个像素上的概率,用高斯分布来表达。
5d)用最大后验概率P(t)(l|yi)重新估计参数,计算方法如下:
步骤6)重复步骤4)-5),迭代次数取10,得到通道YRG的最终标签图像XRG。
步骤7)计算通道YBY与通道YI的最终标签图XBY与XI,方法同步骤4)-6)。得到三个通道的最终标签图X={XRG,XBY,XI}。
步骤8)计算三通道突出图X*。方法是在给定待检测图像Y的条件下,找到各通道下最终标签图X的互信息值最大的标签类l,该标签类l即为突出图:
其中,H(Xl)是标签图像X中的标签类l所代表的图像区域Xl的熵。H(Xl|Y)反映的是当人眼观察到图像Y后,图像中出现标签区域Xl的熵。
步骤9)删除突出图X*中过小的连通区域。突出图X*由多个独立的连通区域{R1,R2...,Rk}构成,若第k个连通区域满足条件则保留,否则从突出图中删除,其中m·n为图像的尺寸,d为面积阈值,取值范围为[50,500]。
步骤10)计算三个对比颜色通道突出图X*中的各连通区域的自信息:I(Rk)=-logP(Rk),其中I(Rk)表示突出图X*所包含的第k个连通区域Rk的信息量。
步骤11)最后将三通道下的突出图融合成一幅显著图S,计算方法是将3个通道中所有大于冗余信息参数的连通区域的自信息相加,并归一化,得到最终显著图S。计算表达形式为:其中w·Imax是冗余信息参数,Imax是该通道下的所有连通区域中最大的信息值,w是冗余阈值,取值范围从0到1。
所述RGB颜色空间转换对比颜色空间方法,利用文章Color invariance中提出的颜色空间转换方法。
所述canny算法采用文章On regularized Laplacian zero crossings and other optimal edgeintegrators中的canny边缘检测算法。
所述k-means聚类算法采用文章A fast k-means implementation using coresets中的k-means聚类算法。
Claims (4)
1.一种基于信息融合的隐马尔可夫显著区域检测方法,其特征在于步骤如下:
步骤1)读取待检测图像Y,将RGB颜色空间转换为对比颜色空间,计算出三个对比颜色通道YRG,YBY,YI。
步骤2)将通道YRG视作观察场来计算完全数据ZRG和初始标签图具体步骤如下:
2a)用canny算法求通道YRG的边缘响应,该边缘响应就是完全数据ZRG。
2b)对通道YRG用高斯模糊来降低图像细节并减少噪声。
2c)用k-means聚类算法计算通道YRG的初始标签图聚类数即标签类l的个数。
步骤3)计算初始标签图中各类标签的均值与方差,作为初始参数。
步骤4)通过最大后验概率来计算新的标签图像详细步骤如下:
4a)求似然能量函数U(y|x;λ),方法为:其中yi为通道YRG的第i个像素,与为标签图像的第i个像素所在的标签类l的均值和方差,为参数集合。
4b)计算先验能量函数U(x),可以通过该式得到:它是基团集合C中所有基团的势函数Vc(x)的总和。其中,势函数Vc(x)为:x′i是点xi的邻域像素点。δ(xi,x′i)是邻域像素对的势函数参数,该参数具有以下这种形式:
4c)重复步骤4a)-4b),更新似然能量函数和先验能量函数,用来计算新标签图像方法为:
步骤5)用步骤4)得到的新标签图像来重新估计参数,具体步骤如下:
5a)计算通道YRG的条件分布g(yi|xi;λl),条件分布用高斯分布来表达,λl为新标签图像的第l类标签的参数集合。
5b)执行t次迭代,计算标签类l的条件概率,方法为:其中,的计算方法同步骤4b)中势函数的计算方法,是xi的邻域像素点。
5c)计算第l类标签的最大后验概率:P(yi)为通道YRG在第i个像素上的概率,用高斯分布来表达。
5d)用最大后验概率P(t)(l|yi)重新估计参数,具体计算方法为:
步骤6)重复步骤4)-5),得到通道YRG的最终标签图像XRG。
步骤7)计算通道YBY与通道YI的最终标签图XBY与XI,方法同步骤4)-6)。得到三个通道的最终标签图X={XRG,XBY,XI}。
步骤8)计算三通道突出图X*。方法是在给定待检测图像Y的条件下,找到各通道下最终标签图X的互信息值最大的标签类l,该标签类l即为突出图X*:
其中,H(Xl)是标签图像X中的标签类l所代表的图像区域Xl的熵。H(Xl|Y)反映的是当人眼观察到图像Y后,图像中出现标签区域Xl的熵。
步骤9)删除各通道突出图X*中过小的连通区域。突出图由多个独立的连通区域{R1,R2...,Rk}构成,若第k个连通区域满足条件则保留,否则从突出图中删除,其中d为面积阈值,m·n为图像的尺寸。
步骤10)计算三个对比颜色通道突出图X*中的各连通区域的自信息。
步骤11)最后将三通道下的突出图融合成一幅显著图S,计算方法是将三通道中所有大于冗余信息参数的连通区域的自信息相加,并归一化,得到最终显著图S。
2.根据权利要求1所述RGB颜色空间转换对比颜色空间方法,利用文章Colorinvariance中提出的颜色空间转换方法。
3.根据权利要求1所述canny算法采用文章On regularized Laplacian zero crossings andother optimal edge integrators中的canny边缘检测算法。
4.根据权利要求1所述k-means聚类算法采用文章A fast k-means implementation usingcoresets中的k-means聚类算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410616754.XA CN104408712B (zh) | 2014-10-30 | 2014-10-30 | 基于信息融合的隐马尔可夫显著区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410616754.XA CN104408712B (zh) | 2014-10-30 | 2014-10-30 | 基于信息融合的隐马尔可夫显著区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104408712A true CN104408712A (zh) | 2015-03-11 |
CN104408712B CN104408712B (zh) | 2017-05-24 |
Family
ID=52646341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410616754.XA Expired - Fee Related CN104408712B (zh) | 2014-10-30 | 2014-10-30 | 基于信息融合的隐马尔可夫显著区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104408712B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097569A (zh) * | 2019-04-04 | 2019-08-06 | 北京航空航天大学 | 基于颜色马尔科夫链显著性模型的油罐目标检测方法 |
CN114092774B (zh) * | 2021-11-22 | 2023-08-15 | 沈阳工业大学 | 基于信息流融合的rgb-t图像显著性检测系统及检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102945378A (zh) * | 2012-10-23 | 2013-02-27 | 西北工业大学 | 一种基于监督方法的遥感图像潜在目标区域检测方法 |
CN103106671A (zh) * | 2013-01-25 | 2013-05-15 | 西北工业大学 | 一种基于视觉注意机制的图像感兴趣区域检测方法 |
CN103106672A (zh) * | 2013-01-25 | 2013-05-15 | 西北工业大学 | 一种基于颜色特征的图像感兴趣区域检测方法 |
CN103810503A (zh) * | 2013-12-26 | 2014-05-21 | 西北工业大学 | 一种基于深度学习的自然图像中显著区域的检测方法 |
-
2014
- 2014-10-30 CN CN201410616754.XA patent/CN104408712B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102945378A (zh) * | 2012-10-23 | 2013-02-27 | 西北工业大学 | 一种基于监督方法的遥感图像潜在目标区域检测方法 |
CN103106671A (zh) * | 2013-01-25 | 2013-05-15 | 西北工业大学 | 一种基于视觉注意机制的图像感兴趣区域检测方法 |
CN103106672A (zh) * | 2013-01-25 | 2013-05-15 | 西北工业大学 | 一种基于颜色特征的图像感兴趣区域检测方法 |
CN103810503A (zh) * | 2013-12-26 | 2014-05-21 | 西北工业大学 | 一种基于深度学习的自然图像中显著区域的检测方法 |
Non-Patent Citations (2)
Title |
---|
LINGYUN ZHANG ET AL.: "SUN: A Bayesian framework for saliency using natural statistics", 《JOURNAL OF VISION (2008)》 * |
邹强 等: "基于图像边缘和对比度的显著目标检测", 《科学技术与工程》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097569A (zh) * | 2019-04-04 | 2019-08-06 | 北京航空航天大学 | 基于颜色马尔科夫链显著性模型的油罐目标检测方法 |
CN114092774B (zh) * | 2021-11-22 | 2023-08-15 | 沈阳工业大学 | 基于信息流融合的rgb-t图像显著性检测系统及检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104408712B (zh) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509859B (zh) | 一种基于深度神经网络的无重叠区域行人跟踪方法 | |
Dornaika et al. | Building detection from orthophotos using a machine learning approach: An empirical study on image segmentation and descriptors | |
Xu et al. | Deep interactive object selection | |
Alvarez et al. | Road scene segmentation from a single image | |
Khalel et al. | Automatic pixelwise object labeling for aerial imagery using stacked u-nets | |
CN102509091B (zh) | 一种飞机尾号识别方法 | |
Fei et al. | Visual tracking based on improved foreground detection and perceptual hashing | |
Bai et al. | Saliency-SVM: An automatic approach for image segmentation | |
US20140270489A1 (en) | Learned mid-level representation for contour and object detection | |
CN108921120B (zh) | 一种适应广泛零售场景下的香烟识别方法 | |
Lu et al. | A hierarchical approach for road detection | |
CN103093203A (zh) | 一种人体再识别方法以及人体再识别系统 | |
Cao et al. | Robust vehicle detection by combining deep features with exemplar classification | |
CN110008900B (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
Cheng et al. | Efficient sea–land segmentation using seeds learning and edge directed graph cut | |
CN109325407B (zh) | 基于f-ssd网络滤波的光学遥感视频目标检测方法 | |
CN111582410B (zh) | 图像识别模型训练方法、装置、计算机设备及存储介质 | |
CN102147867A (zh) | 一种基于主体的国画图像和书法图像的识别方法 | |
CN103632153A (zh) | 一种基于区域的图像显著图提取方法 | |
Ding et al. | Efficient vanishing point detection method in complex urban road environments | |
Coughlan et al. | A fast algorithm for finding crosswalks using figure-ground segmentation | |
CN103049749A (zh) | 在栅格遮挡下的人体再识别方法 | |
CN103065126A (zh) | 不同场景对人体图像再识别的方法 | |
Tao et al. | Smoke vehicle detection based on robust codebook model and robust volume local binary count patterns | |
CN104050674A (zh) | 一种显著性区域检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170524 Termination date: 20191030 |
|
CF01 | Termination of patent right due to non-payment of annual fee |