CN102509299B - 基于视觉注意机制的图像显著区域检测方法 - Google Patents

基于视觉注意机制的图像显著区域检测方法 Download PDF

Info

Publication number
CN102509299B
CN102509299B CN201110364499.0A CN201110364499A CN102509299B CN 102509299 B CN102509299 B CN 102509299B CN 201110364499 A CN201110364499 A CN 201110364499A CN 102509299 B CN102509299 B CN 102509299B
Authority
CN
China
Prior art keywords
width
disparity map
weights
image
disparity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110364499.0A
Other languages
English (en)
Other versions
CN102509299A (zh
Inventor
侯彪
焦李成
杨伟
张向荣
马文萍
王爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Minshi Intelligent Technology Co.,Ltd.
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201110364499.0A priority Critical patent/CN102509299B/zh
Publication of CN102509299A publication Critical patent/CN102509299A/zh
Application granted granted Critical
Publication of CN102509299B publication Critical patent/CN102509299B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于视觉注意机制的图像显著区域检测方法,主要解决现有技术检测出的显著区域与目标区域常存在偏差,精确度不高的问题。其实现过程是:首先,对一幅原始图像进行强度特征和颜色特征提取,其中颜色特征包括RG颜色分量和BY颜色分量,得到三幅特征图;其次,对三幅特征图进行视差计算,得到三幅相应的视差图;再次,根据三幅视差图计算出三个相应的权值系数;最后,根据三个权值系数,对三个视差图进行线性整合,得到最终的视觉显著图。本发明有效提高图像中显著目标区域检测的精度,并具有较好的抗干扰能力,可用于目标检测、目标识别、图像检索以及自然图像压缩等领域。

Description

基于视觉注意机制的图像显著区域检测方法
技术领域
本发明属于图像处理技术领域,具体来说是一种基于人眼视觉注意机制的图像显著区域检测方法,可用于目标检测、图像压缩、图像检索等。
背景技术
随着信息技术的发展,迅速膨胀的数据和日益增长的需求对计算机信息处理效率提出了越来越高的要求。在计算机图像信息处理中,任务所关心的内容通常仅是整幅图像中很小的一部分。一视同仁地处理所有的数据是不现实的,也是不必要的。如何快速找到并提取与任务相关的那部分信息,是计算机图像信息处理领域的一个热点。
我们知道,人类具有异常突出的数据筛选能力。在人类视觉信息处理中,总是迅速选择少数几个显著区域进行优先处理,而忽略或舍弃其它非显著区域,这使我们能够有选择地分配计算资源,从而极大地提高了视觉信息处理的工作效率。如何在计算机图像信息处理中模拟和实现人类的选择性注意机制,快速找到那些容易引起观察者注意的图像区域,形成一个合理的计算资源分配方案,引导整个图像信息处理过程,使计算机具有类似人类的选择性和主动性的图像信息处理能力,对提高计算机图像信息处理效率将具有重大意义。
目前,基于视觉注意机制的显著区域检测引起了越来越多的图像信息处理领域研究者的关注。其中一些典型的算法有:
1)Itti模型:其主要过程是从输入图像中提取多方面的特征,如颜色、方向、亮度等,通过高期金字塔和中央周边操作算子形成各个特征的关注图,然后归一化组合得到显著图。在此基础上,通过胜者全取神经网络相互竞争,使得显著区胜出。该方法对局部显著性进行了较好的度量。但没有充分考虑图像的全局信息;显著区的大小和目标的大小也有较大的偏差。
2)Stentiford模型:该方法将图像的显著性用视觉注意图表示,其基本思想是当图像某区域特征在图像其他区域中出现频率越少,其区域显著性就越高;通过抑制图像中具有相同模式的区域得到视觉注意图,用于表示显著性。该方法考虑了目标整体性,对图像进行了全局显著性度量,但没有提取目标的区域,也没有对目标的重要程度进行判断。
3)HOAM模型:该模型是以强度和方向图作为引导视觉注意的早期特征。被注意的单元不是空间的某个点或某个区域,而是具有确定物理意义的完整目标。该方法首先需要假设图像已经分成了若干具有物理意义的目标或目标组合,这是需要人工干预的。
发明内容
本发明的目的在于克服上述已有的显著区域检测技术的不足,提出了一种新的基于视觉注意机制的图像显著区域检测方法,以降低检测的复杂度,提高图像中显著区域的检测精度。
为实现上述目的,本发明的检测方法包括如下步骤:
(1)对一幅原始的自然图像,提取强度特征和两个颜色特征,即红绿颜色RG分量和蓝黄颜色BY分量,得到三幅特征图;
(2)对上述的三幅特征图进行视差计算,得到三幅相应的视差图,即强度视差图、RG视差图和BY视差图;
(3)根据步骤(2)得到的三幅视差图,计算三个权值系数;
3a)分别计算步骤(2)得到的三幅视差图的平均值和标准差:
Average n = 1 H × W Σ i = 0 H - 1 Σ j = 0 W - 1 D n ( i , j )
Deviate n = 1 H × W Σ i = 0 H - 1 Σ j = 0 W - 1 ( D n ( i , j ) - Average n ) 2
式中,H和W分别代表视差图的长和宽,Dn(i,j)为第n幅视差图上任意一个像素(i,j)的灰度值,Averagen和Deviaten分别为第n幅视差图的平均值和标准差n=1,2,3;
3b)根据每一幅视差图的标准差与平均值,得到三个相应的权值,计算公式如下:
式中,kn′为第n幅视差图对应的权值,Averagen和Deviaten分别为第n幅视差图的平均值和标准差,n=1,2,3;
3c)对上述三个权值归一化,得到三个相应的权值系数,其计算公式如下:
K n = k n ′ k 1 ′ + k 2 ′ + k 3 ′
式中,Kn为第n个权值对应的权值系数,kn′为第n幅视差图对应的权值,k′1、k′2、k′3分别为强度视差图的权值、RG视差图的权值和BY视差图的权值,n=1,2,3;
(4)对步骤(2)中的三幅视差图进行归一化处理,使三幅视差图的灰度值的范围均为0~255,得到三个相应的特征显著图;
(5)对三幅特征显著图进行线性整合,即将三幅特征显著图乘以其相应的权值系数,并进行线性相加,得到最终的视觉显著图。
本发明与现有的技术相比具有以下优点:
(1)本发明由于对原始图像的各个特征图进行了视差计算,因而在对图像进行局部显著性度量的同时,兼顾到了图像中各个区域的全局显著性,而且能检测出图像的显著区域,反映出不同显著区域之间的显著性差异。
(2)本发明由于在对各个视差图进行线性整合前,分别将各个视差图的灰度值范围归一化为0~255,符合人眼视感觉处理过程中早期视觉信息的并行处理的过程。
(3)本发明由于在对各个视差图进行线性整合时,根据各个视差图的权值系数来设定各个视差图在线性整合中的比重,不仅符合人眼视知觉信息的串行处理过程,而且能更精确的检测出图像中的显著区域。
附图说明
图1是本发明的实现流程图;
图2是在背景单一的自然图像中用本发明与现有Itti方法的检测结果对比图;
图3是在背景复杂的自然图像中用本发明与现有Itti方法的检测结果对比图。
具体实施方式
参照图1,本发明的实施如下:
步骤1,对输入图像I,提取强度特征和两个颜色特征,即红绿颜色RG特征和蓝黄颜色BY特征,得到三幅特征图。
(1a)将输入的自然图像I转换成灰度图像G:
G=0.299r+0.587g+0.114b
其中,r,g,b分别为输入图像I的红、绿、蓝三颜色分量;
(1b)根据灰度图像G计算强度特征图F1,计算公式如下:
F1=|G-C|
C = 1 25 Σ m = - 2 2 Σ n = - 2 2 G ( i + m , j + n )
式中C为灰度图像G中任意一个像素(i,j)的5×5邻域的灰度平均值,G(i+m,j+n)为灰度图像G中像素(i+m,j+n)是灰度值;
(1c)利用如下公式提取输入图像I的两个颜色特征图,即RG特征图和BY特征图:
F 2 = 3 2 r - 3 2 g
F 3 = 2 b - 1 2 r - 3 2 g r &GreaterEqual; g 2 b - 3 2 r - 1 2 g r < g
式中,r,g,b分别为输入图像I的红、绿、蓝三颜色分量,F2和F3分别为输入图像I的RG特征图和BY特征图。
步骤2,对步骤1中得到的三幅特征图进行视差计算,得到三幅相应的视差图。
视差计算是用来计算图像中各个视觉对象之间的视觉差异,目前主要有两种视觉计算方法:局部视差计算和全局视差计算。局部视差是将图像对象的周边范围作为背景,计算对象与背景的差异;而全局视差则将整图像作为背景,计算对象与背景的差异。本实例选用的是全局视觉计算方法,其视差计算公式如下:
Dn=Fn-FMeann
式中Fn和Dn分别表示第n副特征图和其对应的视差图,FMeann表示第n副特征图中所有像素的灰度平均值,n=1,2,3。
步骤3,由步骤2中三幅视差图,得到三个权值系数。
(3a)计算步骤2中每一幅视差图的平均值Averagen和标准差Deviaten
Average n = 1 H &times; W &Sigma; i = 0 H - 1 &Sigma; j = 0 W - 1 D n ( i , j )
Deviate n = 1 H &times; W &Sigma; i = 0 H - 1 &Sigma; j = 0 W - 1 ( D ( i , j ) - Average n ) 2
式中,H和W分别代表视差图的长和宽,Dn(i,j)为第n幅视差图上任意一个像素(i,j)的灰度值,n=1,2,3;
(3b)根据每一幅视差图的标准差与平均值,得到三个相应的权值,计算公式如下:
式中,kn′为第n幅视差图对应的权值,n=1,2,3;
(3c)对上述三个权值归一化,得到三个相应的权值系数,其计算公式如下:
K n = k n &prime; k 1 &prime; + k 2 &prime; + k 3 &prime;
式中,Kn为第n个权值对应的权值系数,kn′为第n幅视差图对应的权值,k′1分别为强度视差图的权值、k′2为RG视差图的权值和k′3为BY视差图的权值,n=1,2,3;
步骤4,对步骤(2)中的三幅视差图进行归一化处理,使三幅视差图的灰度值的范围均为0~255,得到三幅相应的特征显著图,具体计算过程如下:
M n = D n - min max - min &times; 255
式中min和max分别代表第n幅视差图Dn灰度值的最小值和最大值,Mn表示第n幅视差图Dn的特征显著图,n=1,2,3。
步骤5,将三幅归一化的视差图乘以其相应的权值系数,然后进行线性相加,得到最终的视觉显著图S。
S = &Sigma; n = 1 3 K n &CenterDot; M n
式中,Kn为第n幅视差图的权值系数,Mn表示第n幅特征显著图,n=1,2,3。
本发明的效果可通过以下实验结果与分析进一步说明:
1.实验条件
实验仿真环境为:MATLAB 7.8.0,VC++6.0,Intel(R)Pentium(R)1CPU 2.4GHz,Window XP Professional。
本发明使用大小为384×256的自然图像进行测试实验。这些图像中均含有显著性目标。为说明本发明的有效性,本发明与现有的Itti方法的检测方法进行了对比。我们选取了两类自然图像进行测试实验。一类是背景单一的自然图像,如图2(a);另一类是背景复杂的自然图像,如图3(a)。
2.实验内容与结果分析
实验1,在图像背景比较单一的情况下,比较现有的Itti方法与本发明方法的检测结果。如图2所示,其中图2(b)为Itti方法的检测结果,图2(c)为本发明的检测结果。从实验结果图中可以看出,Itti方法和本发明方法都能检测出视觉显著区域,但Itti方法检测出的显著区域和实际的显著区域存在一定的偏差,检测出的显著区不能有效代表实际显著区域所在位置。这是由于Itti模型没有充分考虑图像的全局信息,仅对局部显著性进行了度量。而本发明克服了上述方法中缺点,充分考虑了图像的全局信息和局部信息。从图2(c)中还可以看出,本发明方法不仅能够很精确的检测出图像中显著区域,而且还能检测出显著区域内部各部分的显著性。
实验2,在图像背景比较复杂的情况下,比较了Itti模型与本发明方法的检测结果。如图3所示,其中图3(b)为Itti方法的检测结果,图3(c)为本发明的检测结果。从图3(b)中可以看出,在背景复杂的情况时,Itti方法未能有效的检测出图像中的显著区域,并存在明显的误检测。这表明Itti模型对图像显著区域的检测存在一定的局限性。从图3(c)中可以看出,本发明方法在背景较复杂的情况下,仍能精确的检测出图像中的显著区域,从而说明本发明提出的方法具有较好的抗干扰性能。
综上所述,本发明提取的基于视觉注意机制的图像显著区域检测方法结合了图像的局部信息和全局信息相,有效的模拟了人眼视觉的注意过程,与传统方法相比,本发明大大提高了对图像中的显著目标区域检测的精度,并且具有较好的搞干扰性能。

Claims (4)

1.一种基于视觉注意机制的图像显著区域检测方法,包含以下步骤:
(1)对一幅原始的自然图像,提取强度特征和两个颜色特征,即红绿颜色RG分量和蓝黄颜色BY分量,得到三幅特征图;
(2)对上述的三幅特征图进行视差计算,得到三幅相应的视差图,即强度视差图、RG视差图和BY视差图;
(3)根据步骤(2)得到的三幅视差图,计算三个权值系数,包括步骤3a)~3c);
3a)分别计算步骤(2)得到的三幅视差图的平均值和标准差:
Average n = 1 H &times; W &Sigma; i = 0 H - 1 &Sigma; j = 0 W - 1 D n ( i , j )
Deviate n = 1 H &times; W &Sigma; i = 0 H - 1 &Sigma; j = 0 W - 1 ( D n ( i , j ) - Average n ) 2
式中,H和W分别代表视差图的长和宽,Dn(i,j)为第n幅视差图上任意一个像素(i,j)的灰度值,Averagen和Deviaten分别为第n幅视差图的平均值和标准差n=1,2,3;
3b)根据每一幅视差图的标准差与平均值,得到三个相应的权值,其计算公式如下:
式中,kn'为第n幅视差图对应的权值n=1,2,3;
3c)对上述三个权值归一化,得到三个相应的权值系数,其计算公式如下:
K n = k n &prime; k 1 &prime; + k 2 &prime; + k 3 &prime;
式中,Kn为第n个权值对应的权值系数,kn'为第n幅视差图对应的权值,k1'、k2'、k3'分别为强度视差图的权值、RG视差图的权值和BY视差图的权值,n=1,2,3;
(4)对步骤(2)中的三幅视差图进行归一化处理,使三幅视差图的灰度值的范围均为0~255,得到三个相应的特征显著图;
(5)对三幅特征显著图进行线性整合,即将三幅特征显著图乘以其相应的权值系数,并进行线性相加,得到最终的视觉显著图。
2.根据权利要求1所述的方法,其中步骤(1)所述的提取强度特征,按如下步骤进行:
1a)将输入的自然图像I转换成灰度图像G:
G=0.299r+0.587g+0.114b
其中,r,g,b分别为输入图像I的红、绿、蓝三颜色分量;
1b)根据灰度图像G计算强度特征图F1,计算公式如下:
F1=|G-C|
式中C为灰度图像G中任意一个像素(i,j)的5×5邻域的灰度平均值,G(i+m,j+n)为灰度图像G中像素(i+m,j+n)的灰度值。
3.根据权利要求1所述的方法,其中步骤(1)所提取的两个颜色特征为RG特征图和BY特征图,其按如下公式计算:
F 2 = 3 2 r - 3 2 g
F 3 = 2 b - 1 2 r - 3 2 g r &GreaterEqual; g 2 b - 3 2 r - 1 2 g r < g
式中,r,g,b分别为输入图像I的红、绿、蓝三颜色分量,F2和F3分别为输入图像I的RG特征图和BY特征图。
4.根据权利要求1所述的方法,其中步骤(2)所述对三幅特征图进行视差计算,是按如下公式计算:
Dn=Fn-FMeann
式中Fn和Dn分别表示第n副特征图和其对应的视差图,FMeann表示第n副特征图中所有像素的灰度平均值,n=1,2,3。
CN201110364499.0A 2011-11-17 2011-11-17 基于视觉注意机制的图像显著区域检测方法 Active CN102509299B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110364499.0A CN102509299B (zh) 2011-11-17 2011-11-17 基于视觉注意机制的图像显著区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110364499.0A CN102509299B (zh) 2011-11-17 2011-11-17 基于视觉注意机制的图像显著区域检测方法

Publications (2)

Publication Number Publication Date
CN102509299A CN102509299A (zh) 2012-06-20
CN102509299B true CN102509299B (zh) 2014-08-06

Family

ID=46221377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110364499.0A Active CN102509299B (zh) 2011-11-17 2011-11-17 基于视觉注意机制的图像显著区域检测方法

Country Status (1)

Country Link
CN (1) CN102509299B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489188A (zh) * 2013-09-23 2014-01-01 华南理工大学 一种宫颈lct图像的异常细胞核定位方法
CN106815323B (zh) * 2016-12-27 2020-02-07 西安电子科技大学 一种基于显著性检测的跨域视觉检索方法
CN108171679B (zh) * 2017-12-27 2022-07-22 合肥君正科技有限公司 一种图像融合方法、系统及设备
CN108549872B (zh) * 2018-04-17 2022-03-22 福州大学 一种适用于重定向图像质量评估的视觉注意融合方法
CN109214367A (zh) * 2018-10-25 2019-01-15 东北大学 一种基于视觉注意机制的人脸检测方法
CN110705566B (zh) * 2019-09-11 2021-07-13 浙江科技学院 一种基于空间金字塔池的多模态融合显著性检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101533512A (zh) * 2009-04-24 2009-09-16 西安电子科技大学 基于人类视觉注意系统的图像感兴趣区域自动提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7940985B2 (en) * 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101533512A (zh) * 2009-04-24 2009-09-16 西安电子科技大学 基于人类视觉注意系统的图像感兴趣区域自动提取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A New Visual Attention-based Method for Water Detection in SAR Images;Biao Hou et al.;《Synthetic Aperture Radar (APSAR), 2011 3rd International Asia-Pacific Conference on》;20110930;1-2 *
Biao Hou et al..A New Visual Attention-based Method for Water Detection in SAR Images.《Synthetic Aperture Radar (APSAR), 2011 3rd International Asia-Pacific Conference on》.2011,1-2.
基于视觉注意力模型的显著性提取;张杰等;《计算机技术与发展》;20101130;第20卷(第11期);109-113 *
张杰等.基于视觉注意力模型的显著性提取.《计算机技术与发展》.2010,第20卷(第11期),109-113.

Also Published As

Publication number Publication date
CN102509299A (zh) 2012-06-20

Similar Documents

Publication Publication Date Title
CN102509299B (zh) 基于视觉注意机制的图像显著区域检测方法
CN111339858A (zh) 一种基于神经网络的油气管道标志物识别方法
CN103996195A (zh) 一种图像显著性检测方法
CN110992238A (zh) 一种基于双通道网络的数字图像篡改盲检测方法
CN102073873B (zh) 一种基于支持向量机的sar景象匹配区选取方法
CN103456020B (zh) 基于treelet特征融合的遥感图像变化检测方法
CN112288758B (zh) 一种电力设备红外与可见光图像配准方法
CN103247059A (zh) 一种基于整数小波与视觉特征的遥感图像感兴趣区检测方法
CN103325120A (zh) 一种快速自适应支持权值双目视觉立体匹配方法
CN102663724B (zh) 基于自适应差异图的遥感图像变化检测方法
CN103927758B (zh) 一种基于对比度与角点最小凸包的显著性检测方法
CN110852243B (zh) 一种基于改进YOLOv3的道路交叉口检测方法及装置
CN106952274A (zh) 基于立体视觉的行人检测与测距方法
CN104182985A (zh) 遥感图像变化检测方法
CN104966285A (zh) 一种显著性区域的检测方法
CN104361351A (zh) 一种基于区域统计相似度的合成孔径雷达图像分类方法
CN105512622B (zh) 一种基于图分割和监督学习的可见光遥感图像海陆分割方法
CN103761526A (zh) 一种基于特征位置优选整合的城区检测方法
CN108776777A (zh) 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法
CN104282019B (zh) 基于自然场景统计和感知质量传播的盲图像质量评价方法
CN106355607A (zh) 一种宽基线彩色图像模板匹配方法
CN106408526A (zh) 一种基于多层矢量图的能见度检测方法
CN111414954A (zh) 一种岩石图像检索方法及其系统
Xu et al. Water level estimation based on image of staff gauge in smart city
CN102254162B (zh) 基于最小直线比率的sar图像机场跑道检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230414

Address after: No. 601, Unit 3, Building 7, Fengyeyuan South District, No. 27 Gaoxin Second Road, High tech Zone, Xi'an City, Shaanxi Province, 710000

Patentee after: Xi'an Minshi Intelligent Technology Co.,Ltd.

Address before: 710071 Taibai South Road, Xi'an, Xi'an, Shaanxi 2

Patentee before: XIDIAN University

TR01 Transfer of patent right