CN101866422A - 基于图像的多特征融合提取图像关注度的方法 - Google Patents
基于图像的多特征融合提取图像关注度的方法 Download PDFInfo
- Publication number
- CN101866422A CN101866422A CN 201010215691 CN201010215691A CN101866422A CN 101866422 A CN101866422 A CN 101866422A CN 201010215691 CN201010215691 CN 201010215691 CN 201010215691 A CN201010215691 A CN 201010215691A CN 101866422 A CN101866422 A CN 101866422A
- Authority
- CN
- China
- Prior art keywords
- image
- regional
- arbitrary
- otherness
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图像的多特征融合提取图像关注度的方法,该方法包括其具体步骤如下:(1)输入图像,分别提取每个区域的多个特征;(2)进行多个特征融合,计算区域关注度;(3)通过图像中每个像素点的像素值与每个区域的均值的相近程度,将上述区域关注度转化为图像中每个像素点k的关注度,提取图像关注度。该方法采用多个特征融合,计算区域关注度,不仅能准确地定位人眼关注的位置,而且能准确地凸显关注物体的整个区域和外围轮廓,更满足人眼的视觉要求,并且具有准确度高且实时性好的特点,在机器视觉、对象分割、目标跟踪等领域有很好的应用前景。
Description
技术领域
本发明涉及计算机视觉、图像处理技术领域,具体地说是涉及一种基于图像的多特征融合提取图像关注度的方法。
背景技术
随着信息时代的来临、多媒体技术的飞速发展,信息的传输量日益增多,其中不仅有文字信息和语音信息,也有大量的图像信息和视频信息。人们并不是对图像中的所有内容都是同等重视的,人们最关注的是有用的信息。提取图像关注度,找出图像中人眼关注的位置和对象,是图像分析、模式识别和计算机视觉领域的一个重要问题,同时也是一个难点问题。正如1998年11月L.Itti等人在IEEE《图形分析和机器智能》学刊的第20期,第11篇发表了“一种快速场景分析的基于显著性的视觉注意力模型”一文,该文介绍了视觉注意力模型,它主要用于预测人眼的关注点,但是用上述视觉注意力模型,只能找到最受关注物体的位置而找不出物体的具体形状。2007年刘铁等人在IEEE《CVPR论文集》第1至8页中发表了“学习检测单个显著性物体”一文,该文介绍的“检测单个显著性物体”,是用多个特征描述显著性物体的局部、区域和全局特性,并用条件随机域模型检测显著性物体,虽然能够将显著性物体凸显出来,但是显著性物体的轮廓模糊,不符合人眼感受。
发明内容
本发明的目的在于针对已有技术中存在的缺陷提出一种基于图像的多特征融合提取图像关注度的方法,该方法不仅能够准确地定位人眼关注的位置,而且能准确地凸显关注物体的整个区域和外围轮廓,满足人眼的视觉要求。
为了达到上述目的,本发明所采用的技术方案是:
上述基于图像的多特征融合提取图像关注度的方法,其具体步骤如下:
(1),输入原始图像,分别提取每个区域的多个特征。
(2)、进行多个特征融合,计算区域关注度。
(3)、通过图像中每个像素点的像素值与每个区域的均值的相近程度,将上述区域关注度转化为图像中每个像素点k的关注度,提取图像关注度。
上述步骤(1)所述的输入原始图像,分别提取每个区域的多个特征,其具体步骤如下:
(1-1)、计算任一区域的均值
(1-4)、用Canny算子找出任一区域内的边缘
先用Canny算子找出图像内所有的边缘,然后将任一区域i内的边缘象素组成集合Ei;
上述步骤(2)所述的进行多个特征融合,计算区域关注度,其具体步骤如下:
(2-1)、分别计算任一区域与相邻区域和图像均值的差异性度量
先找出任一区域对应的相邻区域,计算任一区域i与相邻区域的均值的差异性度量,其计算表达式为:
计算任一区域i与图像均值的差异性度量,其计算表达式为:
(2-2)、计算任一区域i内的边缘的差异性度量
计算任一区域i内的边缘的差异性度量,其计算表达式为:
Θ′表示像素k的8邻域,Num(Ei)表示象素集合Ei中的像素个数。
(2-3)、计算任一区域位置的差异性度量
计算任一区域位置的差异性度量,其计算表达式为:
(2-4)、计算区域关注度
融合上述步骤(2-1)、(2-2)、(2-3)所述的差异性度量,计算出区域关注度SR(i),其计算表达式为:
上述步骤(3)所述的通过图像中每个像素点的像素值与每个区域的均值的相近程度,将上述区域关注度转化为图像中每个像素点k的关注度,提取图像关注度,其计算表达式为:
本发明的基于图像的多特征融合提取图像关注度的方法与现有的技术相比,具有如下优点:该方法采用多个特征融合,计算区域关注度,不仅能准确地定位人眼关注的位置,而且能准确地凸显关注物体的整个区域和外围轮廓,更满足人眼的视觉要求,并且具有准确度高且实时性好的特点,在机器视觉、对象分割、目标跟踪等领域有很好的应用前景。
附图说明
图1是本发明的基于图像的多特征融合提取图像关注度的方法的流程图;
图2(a)为输入的原始图像;
图2(b)是用Mean Shift算法分割原始图像后的区域分割图;
图3是区域的中心位置的图;
图4是用Canny算子找出任一区域内的边缘的图;
图5是区域与相邻区域的差异性的图;
图6是区域与图像均值的差异性的图;
图7是区域内边缘的差异性的图;
图8是区域位置的差异性的图;
图9是区域关注度的图;
图10是图像关注度的图;
图11是多种类型图像关注度的图(图(a)为原始图像,图(b)为关注度的图)。
具体实施方式
下面结合附图对本发明的实施例作进一步详细说明。
本发明进行的仿真实验是在CPU为2.0GHz、内存为1G的PC测试平台上编程实现。
如图1所示,本发明的基于图像的多特征融合提取图像关注度的方法所采用的技术方案是:首先将原始图像分割成若干区域,提取每个区域的多个特征;然后分别融合上述各个区域的多个特征的差异性度量,计算每个区域的关注度;最后将每个区域的关注度转化为图像中每个像素点的关注度,提取图像关注度,其具体步骤如下:
(1),输入原始图像,用Mean Shift算法分割图像,分别提取每个区域的多个特征,其具体如下:
(1-1)、计算任一区域的均值
将原始图像从RGB颜色空间转换到CIE Lab颜色空间,用Mean Shift算法分割图像,统计任一区域的均值,如图2(a)、图2(b)所示,图2(a)、图2(b)分别为原始图像和用MeanShift算法分割原始图像后的区域分割图像,在图2(b)中任一区域内所有像素点的颜色都用该区域的均值表示。
(1-2)、计算任一区域的中心位置
将任一区域内的所有像素点位置计算统计平均量,得到区域的中心位置,如图3所示,图中每一个黑点就表示一个区域的中心位置。
(1-3)、计算任一区域与图像边框的相交长度
通过统计任一区域拥有图像边框像素的个数求出任一区域与图像边框的相交长度。
(1-4)、用Canny算子找出任一区域内的边缘
先用Canny算子找出图像内所有的边缘,然后将任一区域i内的边缘象素组成集合Ei,如图4所示,图中属于同一集合的边缘像素颜色相同,属于不同集合的边缘像素颜色不同。
(2)、进行多个特征融合,计算区域关注度。
利用步骤(1)提取的多个特征,分别计算区域与相邻区域和图像均值的差异性度量、图像边缘的差异性度量、区域位置的差异性度量,然后进行融合计算区域关注度,其具体步骤如下:
(2-1)、分别计算任一区域与相邻区域和图像均值的差异性度量
先找出每个区域对应的相邻区域,按照公式(1)计算任一区域i与相邻区域的均值的差异性度量,其差异性度量如图5所示。用灰度图来表示差异性的大小,灰度图中颜色越接近白色就表示差异性越大,灰度图中颜色越接近黑色就表示差异性越小。由图5看出图中右下角的花瓣区域与相邻区域的均值的差异性最大。
先计算出图像均值,然后按照公式(2)计算任一区域i与图像均值的差异性度量,其差异性度量如图6所示,由图看出图中花蕊区域与图像均值的差异性最大。
(2-2)、计算任一区域i内的边缘的差异性度量
按照公式(3)计算任一区域i内的边缘的差异性度量,其差异性度量如图7所示,由图可以看出花蕊及花瓣区域内的边缘的差异性比背景区域内的边缘的差异性大。
(2-3)、计算任一区域位置的差异性度量
利用步骤(1-4)提取的Ei,按照公式(4)计算任一区域位置的差异性度量,其差异性度量如图8所示,由图可以看出离图像中心近的区域差异性大。
(2-4)、计算区域关注度
按照公式(5)融合上述步骤(2-1)、(2-2)、(2-3)所述的差异性度量,计算出区域关注度SR(i),其关注度如图9所示,灰度图中颜色越接近白色就表示关注度越大,灰度图中颜色越接近黑色就表示关注度越小。
(3)、将上述区域关注度转化为图像中每个像素点k的关注度SP(k),提取图像关注度。
按照公式(6)将上述区域关注度转化为图像中每个像素点k的关注度SP(k),提取图像关注度提取图像关注度,得到的结果如图10所示,由图看出花所在的区域关注度最大,而且轮廓分明。
本发明进行的仿真实验中还作了其它不同的实验,如图11所示,该图有动物2幅,人物1幅,景观1幅和花1幅,分成5行2列排列,第一列是原始图像,第二列是关注度图。
从上述仿真实验结果可以看出,本发明的方法不仅能准确地定位人眼关注的位置,而且能准确地凸显关注物体的整个区域和外围轮廓,准确性高,更满足人眼的视觉要求。
Claims (4)
1.一种基于图像的多特征融合提取图像关注度的方法,其具体步骤如下:
(1),输入原始图像,分别提取每个区域的多个特征;
(2)、进行多个特征融合,计算区域关注度;
(3)、通过图像中每个像素点的像素值与每个区域的均值的相近程度,将上述区域关注度转化为图像中每个像素点k的关注度,提取图像关注度。
3.根据权利要求2所述的基于图像的多特征融合提取图像关注度的方法,其特征在于,
上述步骤(2)所述的进行多个特征融合,计算区域关注度,其具体步骤如下:
(2-1)、分别计算任一区域与相邻区域和图像均值的差异性度量
先找出每个区域对应的相邻区域,计算任一区域i与相邻区域均值的差异性度量,其计算表达式为:
计算任一区域i与图像均值的差异性度量,其计算表达式为:
(2-2)、计算任一区域i内的边缘的差异性度量
计算任一区域i内的边缘的差异性度量,其计算表达式为:
Θ′表示像素k的8邻域,Num(Ei)表示象素集合Ei中的像素个数;
(2-3)、计算任一区域位置的差异性度量
计算任一区域位置的差异性度量,其计算表达式为:
(2-4)、计算区域关注度
融合上述步骤(2-1)、(2-2)、(2-3)所述的差异性度量,计算出区域关注度SR(i),其计算
表达式为:
4.根据权利要求4所述的基于图像的多特征融合提取图像关注度的方法,其特征在于,上述步骤(3)所述通过图像中每个像素点的像素值与每个区域的均值的相近程度,将上述区域关注度转化为图像中每个像素点k的关注度,提取图像关注度,其计算表达式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010215691 CN101866422A (zh) | 2010-06-29 | 2010-06-29 | 基于图像的多特征融合提取图像关注度的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010215691 CN101866422A (zh) | 2010-06-29 | 2010-06-29 | 基于图像的多特征融合提取图像关注度的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101866422A true CN101866422A (zh) | 2010-10-20 |
Family
ID=42958143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201010215691 Pending CN101866422A (zh) | 2010-06-29 | 2010-06-29 | 基于图像的多特征融合提取图像关注度的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101866422A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103201769A (zh) * | 2011-08-29 | 2013-07-10 | 松下电器产业株式会社 | 图像处理装置、图像处理方法、程序、集成电路 |
CN105825491A (zh) * | 2016-03-17 | 2016-08-03 | 江苏科技大学 | 一种基于混合模型的图像融合方法 |
CN106934397A (zh) * | 2017-03-13 | 2017-07-07 | 北京市商汤科技开发有限公司 | 图像处理方法、装置及电子设备 |
CN108694398A (zh) * | 2017-04-06 | 2018-10-23 | 杭州海康威视数字技术股份有限公司 | 一种图像分析方法及装置 |
CN109887583A (zh) * | 2019-03-11 | 2019-06-14 | 数坤(北京)网络科技有限公司 | 基于医生行为的数据获取方法/系统、医学图像处理系统 |
CN112241762A (zh) * | 2020-10-19 | 2021-01-19 | 吉林大学 | 一种用于病虫害图像分类的细粒度识别方法 |
CN112738533A (zh) * | 2020-12-28 | 2021-04-30 | 中国南方电网有限责任公司超高压输电公司 | 一种机巡图像分区域压缩方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004320723A (ja) * | 2003-03-31 | 2004-11-11 | Seiko Epson Corp | 画像処理装置、画像処理方法およびプログラム |
CN101237581A (zh) * | 2008-02-29 | 2008-08-06 | 上海大学 | 基于运动特征的h.264压缩域实时视频对象分割方法 |
CN101299268A (zh) * | 2008-07-01 | 2008-11-05 | 上海大学 | 适于低景深图像的语义对象分割方法 |
-
2010
- 2010-06-29 CN CN 201010215691 patent/CN101866422A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004320723A (ja) * | 2003-03-31 | 2004-11-11 | Seiko Epson Corp | 画像処理装置、画像処理方法およびプログラム |
US20040240749A1 (en) * | 2003-03-31 | 2004-12-02 | Seiko Epson Corporation | Image processing device, image processing method, and program |
CN101237581A (zh) * | 2008-02-29 | 2008-08-06 | 上海大学 | 基于运动特征的h.264压缩域实时视频对象分割方法 |
CN101299268A (zh) * | 2008-07-01 | 2008-11-05 | 上海大学 | 适于低景深图像的语义对象分割方法 |
Non-Patent Citations (1)
Title |
---|
《上海大学学报(自然科学版)》 20070831 刘志 等 语义对象分割技术综述 第13卷, 第4期 2 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103201769A (zh) * | 2011-08-29 | 2013-07-10 | 松下电器产业株式会社 | 图像处理装置、图像处理方法、程序、集成电路 |
CN103201769B (zh) * | 2011-08-29 | 2016-09-07 | 松下电器(美国)知识产权公司 | 图像处理装置、图像处理方法、集成电路 |
CN105825491A (zh) * | 2016-03-17 | 2016-08-03 | 江苏科技大学 | 一种基于混合模型的图像融合方法 |
CN106934397A (zh) * | 2017-03-13 | 2017-07-07 | 北京市商汤科技开发有限公司 | 图像处理方法、装置及电子设备 |
WO2018166438A1 (zh) * | 2017-03-13 | 2018-09-20 | 北京市商汤科技开发有限公司 | 图像处理方法、装置及电子设备 |
CN106934397B (zh) * | 2017-03-13 | 2020-09-01 | 北京市商汤科技开发有限公司 | 图像处理方法、装置及电子设备 |
US10943145B2 (en) | 2017-03-13 | 2021-03-09 | Beijing Sensetime Technology Development Co., Ltd. | Image processing methods and apparatus, and electronic devices |
CN108694398A (zh) * | 2017-04-06 | 2018-10-23 | 杭州海康威视数字技术股份有限公司 | 一种图像分析方法及装置 |
CN109887583A (zh) * | 2019-03-11 | 2019-06-14 | 数坤(北京)网络科技有限公司 | 基于医生行为的数据获取方法/系统、医学图像处理系统 |
CN109887583B (zh) * | 2019-03-11 | 2020-12-22 | 数坤(北京)网络科技有限公司 | 基于医生行为的数据获取方法/系统、医学图像处理系统 |
CN112241762A (zh) * | 2020-10-19 | 2021-01-19 | 吉林大学 | 一种用于病虫害图像分类的细粒度识别方法 |
CN112738533A (zh) * | 2020-12-28 | 2021-04-30 | 中国南方电网有限责任公司超高压输电公司 | 一种机巡图像分区域压缩方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101866422A (zh) | 基于图像的多特征融合提取图像关注度的方法 | |
CN105160317B (zh) | 一种基于区域分块行人性别识别方法 | |
CN104134234B (zh) | 一种全自动的基于单幅图像的三维场景构建方法 | |
CN102682287B (zh) | 基于显著度信息的行人检测方法 | |
CN103208115B (zh) | 基于测地线距离的图像显著性区域检测方法 | |
CN105426905A (zh) | 基于梯度直方图和支持向量机的机器人障碍物识别方法 | |
CN106296653A (zh) | 基于半监督学习的脑部ct图像出血区域分割方法及系统 | |
CN103020614B (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN103177241B (zh) | 利用视频图像处理技术定位输电线路间隔棒的方法 | |
CN104966285A (zh) | 一种显著性区域的检测方法 | |
CN105513105A (zh) | 基于显著图的图像背景虚化方法 | |
CN103020993A (zh) | 一种双通道颜色对比度融合的视觉显著性检测方法 | |
CN103679719A (zh) | 一种图像分割方法 | |
CN103679718A (zh) | 一种基于显著性的快速场景分析方法 | |
CN102779270A (zh) | 一种针对购物图像搜索的目标衣物图像提取方法 | |
CN103473537A (zh) | 一种目标图像轮廓特征表示方法及装置 | |
CN105931241A (zh) | 一种自然场景图像的自动标注方法 | |
CN103927758A (zh) | 一种基于对比度与角点最小凸包的显著性检测方法 | |
CN102147867A (zh) | 一种基于主体的国画图像和书法图像的识别方法 | |
CN103678552A (zh) | 基于显著区域特征的遥感影像检索方法及系统 | |
CN105513060A (zh) | 一种视觉感知启发的高分辨率遥感图像分割方法 | |
CN104835196A (zh) | 一种车载红外图像彩色化三维重建方法 | |
CN102799646A (zh) | 一种面向多视点视频的语义对象分割方法 | |
CN109117717A (zh) | 一种城市行人检测方法 | |
CN102867171B (zh) | 一种基于标记传播与邻域嵌入保持的人脸表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20101020 |