CN103700100B - 一种基于图论的高光谱图像显著度计算方法 - Google Patents
一种基于图论的高光谱图像显著度计算方法 Download PDFInfo
- Publication number
- CN103700100B CN103700100B CN201310702829.1A CN201310702829A CN103700100B CN 103700100 B CN103700100 B CN 103700100B CN 201310702829 A CN201310702829 A CN 201310702829A CN 103700100 B CN103700100 B CN 103700100B
- Authority
- CN
- China
- Prior art keywords
- pixel
- significance
- image
- calculates
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于图论的高光谱图像显著度计算方法,包括以下步骤:1)将输入的高光谱图像以图表示;2)对图进行权值计算,构建权重矩阵,权重矩阵中的元素值反映了中任意一个顶点和其他所有顶点的联系;3)像元的全局显著性计算,像元的全局显著性等于它与图像中所有其它像元间权值的总和:4)像元的局部显著性计算,像元的局部显著性用其邻域背景像素的方差来表示:5)像元的最终显著度计算,将对应像元的全局显著性与局部显著性相乘,得到各像元的最终显著度。本发明在计算高光谱图像显著度时,充分考虑了感兴趣目标的光谱特性和几何尺寸特性,因此,能够有效抑制背景的干扰,提高感兴趣区域的提取效果。
Description
技术领域
本发明属于高光谱遥感应用领域,更具体地,涉及一种基于图论的高光谱图像显著度计算方法。
背景技术
随着科技的发展,高光谱成像传感器不仅在光谱维能获取各个波段对应物质的光谱信息,同时在空间维获取场景的空间信息,形成了包含丰富信息的多维数据体,因此高光谱图像数据在目标检测中有着独特的优势。如何快速处理庞大的高光谱图像数据成为一个富有挑战的课题。
从心理学和认知科学可知,人们在观察一幅图像时,人的视觉系统能快速地将注意力集中在某个或某几个显著的区域,这些显著的区域往往是我们感兴趣的区域。为了提取图像中的显著区域,通常采用的方法是,先通过计算图像中每个像素的显著度值,得到图像的显著度图,然后对该显著度图进行取阈值分割处理,得到一个二值化的图像分割结果,从而将感兴趣的目标提取出来。
发明内容
特定的目标具有特定的光谱特性和几何尺寸特性,如何在显著度计算时,充分利用目标的光谱特性和几何特性,使感兴趣的目标区域在显著度图中具有较高的显著度值,而其他背景和干扰区域具有较低的显著度值,将有利于目标的快速检测。
针对上述技术问题,本发明将人类视觉选择性注意机制应用到高光谱图像处理中,提供一种基于生物视觉的高光谱图像显著度计算方法,将感兴趣的目标提取出来,以实现目标的快速探测与精确识别。
本发明提出了一种基于图论的高光谱图像显著度计算方法,其具体步骤如下:
(1)将高光谱图像以图表示:设有高光谱图像I,大小为M×N,波段数为L,以高光谱图像中的每个像元为顶点,以像元间的联系为边,构造一个带权的全连接无向图,记为图G,图G用权重矩阵W表示,W矩阵大小为(M×N)×(M×N);
(2)权值计算:权重矩阵W中的元素值反映了G中任意一个顶点和其他所有顶点的联系,记w((i,j),(p,q))为像元G(i,j)和像元G(p,q)间的权重,其计算公式为:
w((i,j),(p,q))=d((i,j),(p,q))*f((i,j),(p,q))
其中,d((i,j),(p,q))为两像元间的光谱差异性,这里采用欧氏距离来度量,其计算式为:
f((i,j),(p,q))为像元间的光谱差异性的衰减函数,其计算式为:
其中,α为影响因子,决定像元全局显著性度量的比较范围,α值越大比较范围越大,α值越小比较范围越小;
并将构造的权重矩阵按列进行归一化;
(3)像元的全局显著性计算:像元的度等于它与图像中所有其它像元间权值的总和,像元(i,j)的度Sg(i,j)定义为:
(4)像元的局部显著性计算:像元的局部显著性用其邻域背景像素的方差来表示,方差越小,像元的局部显著性越强,像元(i,j)的局部显著性用下式计算:
其中,B为像元(i,j)的邻域背景像元集,#(B)为像元(i,j)的邻域背景像元的个数,为背景像元的均值,ε为常数,以避免公式的分母为零;
(5)像元的最终显著度计算:按下式计算每个像元的显著度值:
S(i,j)=Sg(i,j)·Sl(i,j)。
作为本发明的进一步优选,所述步骤(2)中的影响因子α取值为图像宽度的。
作为本发明的进一步改进,所述步骤(4)中背景像元按以下方式获取:
设目标的长边为R,定义以像元(i,j)为中心的R×R大小窗口为内窗口,以像元(i,j)为中心的大小为(R+10)×(R+10)窗口为外窗口,内窗口中的像元为目标像元,内窗口和外窗口构成的环状区域中的像元为背景像元,背景像元集记为B。
作为本发明的进一步优选,所述步骤(4)中的ε取值为10-16。
作为本发明的进一步改进,在所述步骤(1)中对原始高光谱图像进行降采样得到降采样后的图像,在所述步骤(2)中对降采样后的图像进行权值计算,在所述步骤(3)基于降采样的图像的权重矩阵计算降采样的图像的全局显著性,并对所述降采样的图像的全局显著性计算结果进行插值获得原始图像的全局显著性。
作为本发明的进一步优选,所述插值采用双三次插值。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,由于结合了全局分析和局部分析技术,计算出全局显著度值和局部显著度值,融合后能够得到具有更高准确率的显著度图。
附图说明
图1是本发明基于图论的高光谱图像显著度计算方法的流程图;
图2是本发明方法与基于视觉显著图GBVS方法显著度计算结果比较图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,为本发明本发明基于图论的高光谱图像显著度计算方法的流程图,所述方法包括:
(1)将高光谱图像以图表示:设有高光谱图像I,大小为M×N,波段数为L,以高光谱图像中的每个像元为顶点,以像元间的联系为边,构造一个带权的全连接无向图,记为图G,图G用权重矩阵W表示,W矩阵大小为(M×N)×(M×N);。
(2)权值计算:图G的带权连接可用权重矩阵W表示,它反映了G中任意一个顶点和其他所有顶点的联系,记w((i,j),(p,q))为像元G(i,j)和像元G(p,q)间的权重,其计算公式为:
w((i,j),(p,q))=d((i,j),(p,q))*f((i,j),(p,q))
其中,d((i,j),(p,q))为两像元间的光谱差异性,这里采用欧氏距离来度量,其计算式为:
f((i,j),(p,q))为像元间的光谱差异性的衰减函数,其计算式为:
其中,α为影响因子,决定像元全局显著性度量的比较范围,α值越大比较范围越大,α值越小,范围越小,这里根据实际应用的效果,取图像宽带的作为α的经验值。
(3)像元的全局显著值计算:像元的全局显著性采用图论中顶点的度来描述,像元的度等于它与图像中所有其它像元间权值的总和,像元(i,j)的全局显著值Sg(i,j)定义为:
(4)像元的局部显著值计算:像元的局部显著性用其邻域背景像素的方差来表示,方差越小,像元的局部显著性应越强,像元(i,j)的局部显著值Sl(i,j)定义为:
其中,#(B)为背景像元的个数,为背景像元的均值,ε为常数,其目的是避免(式5)分母为零,这里取值为10-16。
(5)输出图像的最终显著度图:按下式计算每个像元的显著度值,获得图像的最终显著度图:
S(i,j)=Sg(i,j)·Sl(i,j)。
进一步地,在所述步骤(1)中对原始高光谱图像进行降采样得到降采样后的图像,在所述步骤(2)中对降采样后的图像进行权值计算,在所述步骤(3)基于降采样的图像的权重矩阵计算降采样的图像的全局显著性,并对所述降采样的图像的全局显著性计算结果进行插值获得原始图像的全局显著性。
(5)将降采样图的全局显著度图进行插值处理,获得原始图像的全局显著度图。
如图2所示,为本发明方法与GBVS方法显著度计算结果的ROC曲线比较图,GBVS为基于视觉显著图,全称为Graph-based visual saliency,具体可参考文献(Harel J,Koch C,Perona P.Graph-based visual saliency[J].Advances in Neural Information Processing Systems,2007,19:545–552.)。曲线越接近左上角说明检测结果越好,从图中可以看出,本发明比GBVS方法效果要好。
为了更直观的比较本发明与GBVS方法的优劣,表1列出了ROC曲线下面积,该值越大说明准确度越高。
表1:本发明与GBVS的ROC曲线下面积比较。
数据1 | 数据2 | 数据3 | 数据4 | 数据5 | 数据6 | 平均 | |
GBVS | 0.8022 | 0.9028 | 0.9507 | 0.9572 | 0.9497 | 0.9323 | 0.9015 |
本发明 | 0.8123 | 0.9256 | 0.9674 | 0.9754 | 0.9729 | 0.9628 | 0.9244 |
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于图论的高光谱图像显著度计算方法,其特征在于,所述方法包括如下步骤:
(1)将高光谱图像以图表示:设有高光谱图像I,大小为M×N,波段数为L,以高光谱图像中的每个像元为顶点,以像元间的联系为边,构造一个带权的全连接无向图,记为图G,图G用权重矩阵W表示,W矩阵大小为(M×N)×(M×N);
(2)权值计算:权重矩阵W中的元素值反映了G中任意一个顶点和其他所有顶点的联系,记w((i,j),(p,q))为像元G(i,j)和像元G(p,q)间的权重,其计算公式为:
w((i,j),(p,q))=d((i,j),(p,q))*f((i,j),(p,q))
其中,d((i,j),(p,q))为两像元间的光谱差异性,这里采用欧氏距离来度量,其计算式为:
f((i,j),(p,q))为像元间的光谱差异性的衰减函数,其计算式为:
其中,α为影响因子,决定像元全局显著性度量的比较范围,α值越大比较范围越大,α值越小比较范围越小;
并将构造的权重矩阵按列进行归一化;
(3)像元的全局显著性计算:像元的度等于它与图像中所有其它像元间权值的总和,像元(i,j)的度Sg(i,j)定义为:
(4)像元的局部显著性计算:像元的局部显著性用其邻域背景像元的方差来表示,方差越小,像元的局部显著性越强,像元(i,j)的局部显著性用下式计算:
其中,B为像元(i,j)的邻域背景像元集,#(B)为像元(i,j)的邻域背景像元的个数,为背景像元的均值,ε为常数,以避免公式的分母为零;
(5)像元的最终显著度计算:按下式计算每个像元的显著度值:
S(i,j)=Sg(i,j)·Sl(i,j)。
2.如权利要求1所述的方法,其特征在于,所述步骤(2)中的影响因子α取值为图像宽度的
3.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中背景像元按以下方式获取:
设目标的长边为R,定义以像元(i,j)为中心的R×R大小窗口为内窗口,以像元(i,j)为中心的大小为(R+10)×(R+10)窗口为外窗口,内窗口中的像元为目标像元,内窗口和外窗口构成的环状区域中的像元为背景像元,背景像元集记为B。
4.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中的ε取值为10-16。
5.如权利要求1或2所述的方法,其特征在于,在所述步骤(1)中对高光谱图像进行降采样得到降采样后的图像,在所述步骤(2)中对降采样后的图像进行权值计算,在所述步骤(3)基于降采样后的图像的权重矩阵计算降采样后的图像的全局显著性,并对所述降采样后的图像的全局显著性计算结果进行插值获得高光谱图像的全局显著性。
6.如权利要求5所述的方法,其特征在于,所述插值采用双三次插值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310702829.1A CN103700100B (zh) | 2013-12-19 | 2013-12-19 | 一种基于图论的高光谱图像显著度计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310702829.1A CN103700100B (zh) | 2013-12-19 | 2013-12-19 | 一种基于图论的高光谱图像显著度计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103700100A CN103700100A (zh) | 2014-04-02 |
CN103700100B true CN103700100B (zh) | 2016-08-31 |
Family
ID=50361619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310702829.1A Expired - Fee Related CN103700100B (zh) | 2013-12-19 | 2013-12-19 | 一种基于图论的高光谱图像显著度计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103700100B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184763B (zh) * | 2014-06-23 | 2020-12-01 | 索尼公司 | 图像处理方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070116361A1 (en) * | 2003-12-18 | 2007-05-24 | Olivier Le Meur | Device and method for creating a saliency map of an image |
CN102214298A (zh) * | 2011-06-20 | 2011-10-12 | 复旦大学 | 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法 |
-
2013
- 2013-12-19 CN CN201310702829.1A patent/CN103700100B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070116361A1 (en) * | 2003-12-18 | 2007-05-24 | Olivier Le Meur | Device and method for creating a saliency map of an image |
CN102214298A (zh) * | 2011-06-20 | 2011-10-12 | 复旦大学 | 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法 |
Non-Patent Citations (2)
Title |
---|
Image Matching via Saliency Region Correspondences;Toshev, A.等;《Computer Vision and Pattern Recognition, 2007. CVPR "07. IEEE Conference on》;20070622;1-8 * |
一种改进的谱聚类彩色图像分割方法;钱素静等;《小型微型计算机系统》;20130630;第34卷(第6期);1413-1416 * |
Also Published As
Publication number | Publication date |
---|---|
CN103700100A (zh) | 2014-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yue et al. | A deep learning framework for hyperspectral image classification using spatial pyramid pooling | |
Wang et al. | Image recognition of plant diseases based on backpropagation networks | |
Sun et al. | Low-rank and sparse matrix decomposition-based anomaly detection for hyperspectral imagery | |
Verma et al. | Wild animal detection using deep convolutional neural network | |
CN111429391A (zh) | 一种红外和可见光图像融合方法、融合系统及应用 | |
CN107292258B (zh) | 基于双边加权调制与滤波的高光谱图像低秩表示聚类方法 | |
ElMikaty et al. | Detection of cars in high-resolution aerial images of complex urban environments | |
CN107066959B (zh) | 一种基于导向滤波和线性空间相关性信息的高光谱图像分类方法 | |
CN107403433A (zh) | 一种复杂云背景下红外小目标检测方法 | |
CN104240264A (zh) | 一种运动物体的高度检测方法和装置 | |
Yang et al. | Small target detection in infrared video sequence using robust dictionary learning | |
Wang et al. | Hyperspectral image classification based on capsule network | |
Li et al. | Decision fusion for dual-window-based hyperspectral anomaly detector | |
CN104537381B (zh) | 一种基于模糊不变特征的模糊图像识别方法 | |
Chu et al. | Hyperspectral image classification with discriminative manifold broad learning system | |
Zhao et al. | Spatial-spectral classification of hyperspectral image via group tensor decomposition | |
CN107256412B (zh) | 一种基于多人眼感知分组特性的图构造方法 | |
CN107527001B (zh) | 一种基于导向滤波和线性空间相关性信息的高光谱图像分类方法 | |
Liu et al. | MMF: A Multi-scale MobileNet based fusion method for infrared and visible image | |
CN103700100B (zh) | 一种基于图论的高光谱图像显著度计算方法 | |
CN108876776B (zh) | 一种分类模型生成方法、眼底图像分类方法及装置 | |
Imani et al. | Edge-preserving-based collaborative representation for spectral-spatial classification | |
Zhang et al. | Pedestrian detection with EDGE features of color image and HOG on depth images | |
Wang et al. | Infrared Moving Small Target Detection Based on Space–Time Combination in Complex Scenes | |
Shi et al. | HINRDNet: A half instance normalization residual dense network for passive millimetre wave image restoration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160831 Termination date: 20181219 |