CN113191179A - 一种基于灰度共生矩阵和bp神经网络的遥感图像分类方法 - Google Patents
一种基于灰度共生矩阵和bp神经网络的遥感图像分类方法 Download PDFInfo
- Publication number
- CN113191179A CN113191179A CN202011522434.XA CN202011522434A CN113191179A CN 113191179 A CN113191179 A CN 113191179A CN 202011522434 A CN202011522434 A CN 202011522434A CN 113191179 A CN113191179 A CN 113191179A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sensing image
- gray level
- neural network
- occurrence matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 65
- 239000011159 matrix material Substances 0.000 title claims abstract description 51
- 238000005070 sampling Methods 0.000 claims abstract description 52
- 238000007619 statistical method Methods 0.000 claims abstract description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法及系统,所述方法包括:获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。本发明能够快速获取采样点地区的遥感图像,通过灰度共生矩阵提取遥感图像的纹理特征,并采用统计学的方法,计算得到遥感图像灰度统计特征,将所述纹理特征与灰度统计特征输入到预设BP神经网络实现遥感图像的自动分类,提高了遥感图像的分类精度。
Description
技术领域
本发明涉及遥感图像技术领域,特别是涉及一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法、系统、终端设备和计算机可读存储介质。
背景技术
目前,常规的遥感图像分类技术主要有以下几种:
(1)基于统计分析的传统分类方法
在遥感图像分类方法当中,基于统计分析的分类方法是较为传统的方法,主要分为监督分类和非监督分类。两者最大的区别在于是否利用了类别的先验知识来进行分类。监督分类会收集已知类别的训练样本并统计样本特征,使用诸如最大似然法、K近邻法、贝叶斯法以及决策树法等监督分类算法来确定图像判别的规则,从而对图像其余的未知像元的所属类别进行判定。而非监督分类是在缺乏图像类别的先验知识的前提下,仅仅依靠遥感图像本身的光谱特征和自然点群的分布规律来实现地物类别的划分,因此需要用户提前指定需要分出的类别数量。非监督分类主要的分类方法包括ISODATA算法、主成分分析法以及合成序列集群方法等。这两种方法目前发展都比较成熟而且应用也较为广泛,但是由于这两种基于统计的方法过于依赖地物的光谱信息特征,而遥感图像中又普遍存在着“同物异谱”、“同谱异物”的现象,因此很容易在实际图像分类中出现错分和漏分的情况,导致最后分类效果不够理想最终分类的效果不尽如人意。
在实际图像分类中出现错分和漏分的情况,导致最后分类效果不够理想最终分类的效果不尽如人意。
(2)面向对象的分类方法
面向对象的分类方法是对传统遥感图像分类方法的一种突破。该方法通常需要先对图像进行影像的分割,目前较为成熟的分割方法主要包括基于阈值的分割方法、基于边缘检测的分割方法或基于物理模型的分割方法等,再根据这些分割的影像对象的几何特征、光谱特征、纹理特征和空间特征信息对图像进行分类。因此面向对象的分类方法避免了传统的基于像元统计方法的不足之处,综合考虑了对象的色彩、纹理、光谱和空间特征信息,从而改善了高分辨率遥感图像地物类别的分类精度。
(3)基于人工神经网络的分类方法
人工神经网络是一种在对人脑的神经组织结构以及运行机制等方面深刻认识的基础上从信息处理的角度对其进行抽象,构建起从结构、功能以及机理上模仿生物神经网络,并通过大量的神经元之间的广泛连接而形成的自适应非线性系统。由于神经网络不需要预设样本空间的概率统计分布,具有强大而复杂的映射能力以及内在的自组织和抗干扰能力,使其在各个学科领域都得到了广泛的应用,而且在遥感图像分类方法方面的研究和应用也越来越热门,众多的学者在基于人工神经网络或者与其他算法相结合的遥感图像分类方法的尝试普遍都获得了很好的分类效果。
总体而言,目前遥感图像分类方法越来越丰富也越来越成熟,并且在研究和应用中普遍能够获得良好的效果,但不可否认的是遥感图像分类普遍存在着两大难题:
(1)数据获取的难度大,特别是大区域甚至是全球尺度的数据获取难度极大;
(2)遥感图像的光谱和空间信息特征异常复杂,并没有哪一种分类方法能够在所有的遥感图像分类中都能获得良好的效果。
因此,如何继续提高遥感数据获得的容易程度以及如何继续发展更多普遍适用性分类效果更好的分类方法,是目前遥感图像分类研究的关键问题。
发明内容
本发明的目的是:提供一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法及系统,能够快速获取采样点地区的遥感图像,通过灰度共生矩阵提取图像的纹理特征,并采用统计学的方法,计算得到遥感图像灰度统计特征,,将所述纹理特征与灰度统计特征输入到预设BP神经网络实现遥感图像的自动分类,提高遥感图像的分类精度。
为了实现上述目的,本发明提供了一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法,包括:
获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;
根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;
将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。
进一步地,所述获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;具体为:
通过谷歌地球服务,获取采样点地区的遥感图像数据,并通过谷歌地球的组件技术,对采样点地区的地图窗口进行批量截图。
进一步地,所述灰度共生矩阵,采用如下公式表示:
Pd,θ(i,j)=g{(x1,y1),(x2,y2)∈M×N|f(x1,y1)=i,f(x2,y2)=j}
其中,M为图像f(x,y)的行数,N为图像f(x,y)的列数,Pd,θ(i,j)为方位角θ的位置为(x2,y2)灰度为j的像素同时出现的频率。
进一步地,所述纹理特征包括:熵、相关、角二阶距和对比度。
进一步地,所述熵采用如下公式计算:
其中,式中μx、μy、σx和σy的定义分别为:
所述角二阶距采用如下公式计算:
所述对比度采用如下公式计算:
进一步地,所述灰度统计特征包括:采样点地区窗口内像素灰度的均值、标准差、偏度和峰度。
进一步地,所述均值采用如下公式计算:
其中,n为窗口内的像元数;
所述标准差采用如下公式计算:
所述偏度采用如下公式计算:
所述峰度采用如下公式计算:
本发明实施例还提供一种基于灰度共生矩阵和BP神经网络的遥感图像分类系统,包括:数据获取模块、特征提取模块和分类处理模块;其中,
所述数据获取模块,用于获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;
所述特征提取单元,根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;
所述分类处理模块,用于将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。
本发明实施例还提供一种计算机终端设备,包括:一个或多个处理器;存储器,与所述处理器耦接,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述任一项所述的基于灰度共生矩阵和BP神经网络的遥感图像分类方法。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述任一项所述的基于灰度共生矩阵和BP神经网络的遥感图像分类方法。
本发明实施例一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法及系统与现有技术相比,其有益效果在于:
1、突破性地采用在全球尺度上具有快速和免费获取的优势的互联网GoogleEarth遥感图像。
2、通过Google Earth COM API的开发原理并实现了遥感图像采样点的真彩色图像的批量截图。
3、通过灰度共生矩阵提取图像的纹理特征,并采用统计学的方法,计算得到图像灰度统计特征,将所述纹理特征与灰度统计特征输入到预设BP神经网络成功实现了遥感图像的自动分类,提高了遥感图像的分类精度。
附图说明
图1为本发明某一实施例提供的一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法的流程示意图;
图2为本发明某一实施例提供的谷歌地球(Google Earth)影像截图示例;
图3为本发明某一实施例提供的灰度统计特征的统计示意图;
图4为本发明某一实施例提供的BP神经网络结构示意图;
图5为本发明某一实施例提供的全球城市区域采样点分布示意图;
图6为本发明某一实施例提供的全球非城市区域采样点分布示意图;
图7为本发明某一实施例提供的多种纹理特征示意图;
图8为本发明某一实施例提供的随机采样和灯光数据辅助采样效率对比示意图;
图9为本发明某一实施例提供的一种基于灰度共生矩阵和BP神经网络的遥感图像分类系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,文中所使用的步骤编号仅是为了方便描述,不对作为对步骤执行先后顺序的限定。
应当理解,在本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本发明第一实施例:
如图1所示,本发明实施例提供的一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法,至少包括如下步骤:
S101、获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;
需要说明的是,在本申请中,采用谷歌地球(Google Earth)软件,获取采样点地区的遥感图像数据。Google Earth是美国Google公司推出的一款三维影像与矢量地图服务软件,可以让用户通过交互的方式定点查询特定的区域,进行地图的放大、缩小和漫游等控制,其数据来源包括卫星遥感图像(如Quickbird和Landsat卫星)和航拍影像。GoogleEarth的全球影像的有效分辨率通常为30米,视角海拔高度约为15公里,针对主要的城市区域会提供分辨率为0.6米左右的高精度影像,视海拔高度约为400米。
Google公司已经向开发者免费开放了Google Earth COM API(ApplicationProgramming Interface),COM即组件技术,API即应用编程接口,借助Google Earth COMAPI用户可以在各种外部程序中调用Google Earth的功能。IApplicationGE是GoogleEarth COM API中最重要的接口之一,通过该接口可以实现控制Google Earth程序的启动、关闭、获取主程序窗口的句柄、获取地图窗口的句柄以及设置照相机参数等功能。IApplicationGE主要调用的方法是SetCamera(ICameraInfoGE,Speed),其中ICameraInfoGE为照相机视角接口,该接口可以获取和设置照相机的焦点位置、方位角和倾角等参数,主要参数的具体描述如表1所示,另外Speed是指照相机的移动速度,其取值范围是0-5,其中0和5分别代表最小和最大速度。
Google Earth COM API可以通过函数SaveScreenShot()对指定的地图窗口进行截屏并保存为灰度图像。然而为了得到更丰富的色彩和纹理信息以提升城市和非城市的分类精度,获取Google Earth真彩色图像是十分必要的。因此,通过在Visual Studio.NET环境下使用C#语言调用函数GetMainHwd()获取Google Earth主程序窗口句柄,再利用函数GetRenderHwnd()获取地图窗口句柄,这样可以设置Google Earth软件的地图窗口的大小并且能把地图窗口嵌入(hook)到自定义的与其大小一致的图像框中,并使用C#的截屏函数CopyFromScreen()从图像框中获取到真彩色图像。借助编写好的Google Earth影像截图程序可以自动的批量获取指定经纬度坐标的采样点的遥感图像截图。ICameraInfoGE接口的主要参数如下表1所述:
表1 ICameraInfoGE接口的主要参数描述
S102、根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;
需要说明的是,所述灰度共生矩阵(GTSDM)是一种常用的图像纹理特征计算方法,GTSDM可以定义为:一幅灰度级别为G的M行N列的图像f(x,y),从位置为(x1,y1)灰度为i的像素出发,统计与其距离为d,方位角为θ的位置为(x2,y2)灰度为j的像素同时出现的频率Pd,θ(i,j),用数学公式和矩阵形式则表示为:
Pd,θ(i,j)=g{(x1,y1),(x2,y2)∈M×N|f(x1,y1)=i,f(x2,y2)=j}
GTSDM算法的复杂度和纹理提取效果通常由四个因子决定:两个像素的方向θ、偏移距离d、图像的灰度级G以及纹理窗口大小k。方向θ通常取0°,45°,90°,135°四个方向并计算各个方向的平均值,这样可以抑制方向分量,使得到的纹理特征跟方向无关。偏移距离d一般取值为1,用于描述最近邻像元间的灰度差异。假设一张灰度级为8、偏移距离为1、方向为0°,纹理窗口为5×5的灰度共生矩阵统计图如图3所示,在这个5×5的纹理窗口中仅有第一行第一列的数值“1”在其偏移距离为1、方向为0°的像元中也出现了“1”,因此在灰度等级空间依赖统计矩阵中“11”组合的数值为1,然而在纹理窗口中“12”组合的却有两对,因此在统计矩阵中“12”组合的数值为2。
根据GTSDM最多可以同时算出14个纹理特征。然而Ulaby等[52]研究表明在14个纹理特征中仅有熵、相关、角二阶距和对比度四个特征是不相关的,而且对遥感图像而言,这四种纹理特征的提取效果也是最好的。因此本文只选取了熵,相关,角二阶距这四个纹理特征,在减少输入变量的同时也能得到较高的分类精度。另外为了获得更多的特征信息,还计算了窗口内像素灰度的均值、标准差、偏度和峰度这四个最基本的灰度统计特征,用以反映感兴趣区域像素灰度值的统计规律。除灰度外的8个特征的计算公式为:
(1)均值(Mean):
其中,n为窗口内的像元数。
(2)标准差(Standard Deviation):反映组内个体和均值间的总体离散程度
(3)偏度(Skewness):度量数据分布对称性
(4)峰度(Kurtosis):度量数据在中心聚集程度
(5)熵(Entropy):度量纹理的随机性,若矩阵所有值相等则熵值最大,矩阵值越不均匀则熵值越小
(6)相关(Correlation):度量矩阵元素在行或列方向上的相似性,相关值与矩阵元素值的均匀程度有关,值越均匀则相关值就大,反之越小
其中,式中μx、μy、σx和σy的定义分别为:
(7)角二阶距(Angular Second Moment):度量图像灰度均匀分布的程度以及纹理的粗细度,若矩阵的所有值相等,则角二阶距较小,反之越大
(8)对比度(Contrast):度量图像的清晰度以及纹理沟纹的深浅程度,纹理沟纹浅则对比度小,反之越大
S103、将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。
需要说明的是,目前人工神经网络算法已被广泛地应用于遥感图像分类的研究和应用当中,主要的人工神经网络包括BP神经网络、RBP神经网络、Hopfield神经网络以及小波神经网络等,其中BP(Back Propagation)神经网络算法是由Rumelhart等提出的一种按误差逆传播算法训练的多层前馈网络,是迄今最为流行、应用最为广泛的人工神经网络模型之一。
BP神经网络是一种分层型的网络,通常包含了输入层、中间层(隐含层)以及输出层三层结构,如图4所示。Xi为输入的特征变量,输入层的神经元数量和特征变量的数量一致,Wi为隐含层神经元之间以及和输入输出的神经元的权值参数,Yi为输出的结果。BP神经网络是利用非线性可微分函数进行权值参数的训练,当系统为BP神经网络提供学习样本后,输入信号从输入层到中间层再到输出进行前向传播,输出层输出的信号和期望信号不符,则将输出信号和期望信号之间的误差按照减少误差的方向,逐层修正从输入层、中间层以及输出层之间的连接权值,当最终输出信号和期望信号满足误差范围时完成神经网络的训练,因此BP神经网络也称为误差反向传播人工神经网络模型。
需要说明的是,由于在本发明进行时,Google Earth提供的城市区域的影像数据获取时间一般为2013年,因此需要大致确定从2000年到2013年会发生由非城市转换为城市的潜在区域。根据相关资料表明对快速城市化的南京市的城市增长的空间模式进行了研究,发现在1979年到1988年近10年间和和2000年到2003年的3年间超过80%的新增城市发生在原有城市用地的1.4公里的距离范围内,接近全部的新增城市发生在原有城市用地4公里的距离范围内。因此确定原有MOD500的2000年城市用地外围的4公里缓冲区范围内为2013年发生由非城市转换为城市的潜在区域。
然而由于缺乏先验知识,全球尺度下在2000年城市用地外围的4公里缓冲区范围内寻找足够的城市转化点仍然是十分困难的。因此,为了能高效地从该区域中采样寻找转化点,本发明采用夜间灯光遥感数据辅助提取采样点。这是因为探测得到的像元夜间灯光强度一定程度上反映了城市的开发水平,尽管灯光数据具有一定的发散效应,但一般来说灯光强度越高城市的开发水平也越高,这一特征使夜间灯光数据产品已被广泛而成功地应用于城市建成区提取等相关研究之中。本发明采用的夜间灯光遥感数据为NPP-VIIRS2012年的两月合成夜间灯关数据产品,该产品其分辨率为500米。以中国的部分城市为研究区对NPP-VIIRS 2012灯光数据进行了分析,发现大城市的最大DN值为235.13,并且总结了12个城市的用于提取城市区域的最佳阈值,如表2所示。
表2 12个城市的用于提取城市区域的最佳阈值
根据这一系列的研究发现NPP-VIIRS用于提取城市区域的阈值范围约为3到25之间,据此把4公里缓冲区范围按照灯光数据的DN值分成3个区域:(1)值为0到3:这部分值低于提取城市区域的阈值,远离城市中心,因此该区域出现城市转化点的可能性很小,拟提取10000个样本点;(2)值为3到25:这部分值位于提取城市区域阈值的取值范围内,一般离城市中心比较远。由于灯光数据时间为2012年,从长远来看,灯光数据DN值为3到25这一区域在未来的长周期时间内仍有较大可能转化为城市用地,因此获得该部分区域的转化规律对于未来长周期的城市扩张模拟具有重要的影响。但是由于该区域出现城市转化点的概率较低,空间分布也比较稀疏,为了能获得更多该区域的城市转化点,拟提取20000个采样点;(3)值为25到235:由于该区域DN值大于提取城市区域的阈值,除了部分非城市区域可能由于灯光的发散作用会有很高的灯光强度值,因此临近城市中心,城市转化点的空间分布相对更加密集,出现城市转化点的概率很高,因此拟提取10000个样本点即可获得较多的城市转化点。因此,在确定采样区域后对数据进行分层采样,各层的描述和采样点数量如表3所示,将这些采样点的经纬度坐标输入Google Earth影像截图程序即可批量获取相应的遥感图像截图。全球的城市采样点和非城市采样点分布如图5和图6所示。
表3每个区域分层采样的样本数
在本研究的参数设置中,Google Earth COM API的ICameraInfoGE接口默认设置Azimuth,Range,Tilt为0,AltitudeMode为绝对高度,Altitude为10公里。Google Earth影像截图为真彩色图像,因此灰度级为256。根据图2得知在视海拔高度为10km的情况的比例尺为118个像素对应2313米,即每个像素约为19.6米。因此本发明采用的纹理窗口计算纹理特征,这和MOD500的463米分辨率也是比较吻合的。在纹理窗口、视海拔高度为10km的情况下城市和非城市Google Earth影像截图效果对比如图7所示。
实现Google Earth真彩色截图功能后,需要对每一张图像中心点的纹理特征进行提取,作为基于BP神经网络的城市和非城市遥感图像分类器的输入指标,纹理特征和灰度统计特征的计算程序在Visual Studio 2010环境下使用C++语言编程实现。
本研究采用Matlab R2011b神经网络工具箱开发的BP神经网络根据色彩和纹理特征等变量对城市(值为1)和非城市(值为0)采样点遥感图像进行训练和分类。该BP神经网络模型是一个三层的神经网络。第一层为输入层,输入层的神经元的节点数和参与分类的遥感图像提取的特征量数目一致,分类的特征量包括每个采样点遥感图像的RGB三个波段的DN值以及各个波段的8个统计和纹理特征量,因此总的输入层节点数为27。第二层为隐含层,研究表明3层神经网络的隐含层神经元至少为2n/3个(其中n为输入层神经元的数目),因此采用的隐含层节点数为20,采用tansig激励函数;第三层为输出层,输出层只有一个输出节点,输出值为该采样点属于城市类别的概率。神经网络通过训练可以不断的调整参数,使得神经网络的计算值和真实值不断的接近。
由于MOD500产品的城市分类本身存在一定的误差,为了提高神经网络分类器的精度和稳定性,对10000个城市采样点的遥感图像进行目视解译,解译结果是筛选出6063个在25×25窗口大小内城市用地占主导的采样点,其余的3937个采样点将作为非城市点输入神经网络。因此神经网络的输入的训练数据包括6063个城市采样点和27373个非城市采样点计算得到的特征量,从总体的数据当中随机抽取了75%的数据用于训练,其余25%的数据(8205条记录)用于模型的分类精度验证,最终BP神经网络模型分类结果的混淆矩阵和精度如表4所示,模型的分割阈值为0.45。
表4 BP神经网络模型训练结果精度表
使用训练好的神经网络对4公里缓冲区内的共40000个采样点进行分类,结果得到11901个城市转化点和28099个非城市点,每个区域的分类结果如表5所示。为了对比使用灯光数据辅助获取采样点的效果,同时也使用随机采样的方式在全球城市用地外围的4公里缓冲区内获取了10000个采样点,并使用训练好的神经网络对这10000的采样点进行分类,结果得到802个城市转化点和9198个非城市点。图8对比了随机采样方法和使用灯光数据辅助采样方法的采样效率。结果证明,使用灯光数据辅助获取采样点的方法效率是缺乏先验知识使用随机采样的方法效率的近4倍。
表5每个区域的分类结果
在本发明的某一个实施例中,所述获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;具体为:
通过谷歌地球服务,获取采样点地区的遥感图像数据,并通过谷歌地球的组件技术,对采样点地区的地图窗口进行批量截图。
本发明实施例一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法与现有技术相比,其有益效果在于:
1、突破性地采用在全球尺度上具有快速和免费获取的优势的互联网GoogleEarth遥感图像。
2、通过Google Earth COM API的开发原理并实现了遥感图像采样点的真彩色图像的批量截图。
3、通过灰度共生矩阵提取图像的纹理特征,并采用统计学的方法,计算得到图像灰度统计特征,将所述纹理特征与灰度统计特征输入到预设BP神经网络成功实现了遥感图像的自动分类,提高了遥感图像的分类精度。
本发明第二实施例:
如图2所示,本发明实施例提供的一种基于灰度共生矩阵和BP神经网络的遥感图像分类系统200,包括:数据获取模块201、特征提取模块202和分类处理模块203;其中,
所述数据获取模块201,用于获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;
所述特征提取单元202,用于根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;
所述分类处理模块203,用于将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。
本发明第三实施例:
本发明实施例还提供一种计算机终端设备,包括:一个或多个处理器;
存储器,与所述处理器耦接,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述任一项所述的基于灰度共生矩阵和BP神经网络的遥感图像分类方法。
需要说明的是,所述处理器可以是中央处理单元(CentralProcessingUnit,CPU),还可以是其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,通用处理器可以是微处理器,或者所述处理器也可以是任何常规的处理器,所述处理器是所述终端设备的控制中心,利用各种接口和线路连接所述终端设备的各个部分。
所述存储器主要包括程序存储区和数据存储区,其中,程序存储区可存储操作系统、至少一个功能所需的应用程序等,数据存储区可存储相关数据等。此外,所述存储器可以是高速随机存取存储器,还可以是非易失性存储器,例如插接式硬盘,智能存储卡(SmartMediaCard,SMC)、安全数字(SecureDigital,SD)卡和闪存卡(FlashCard)等,或所述存储器也可以是其他易失性固态存储器件。
需要说明的是,上述终端设备可包括,但不仅限于,处理器、存储器,本领域技术人员可以理解,上述终端设备仅仅是示例,并不构成对终端设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件。
本发明第四实施例:
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述任一项所述的基于灰度共生矩阵和BP神经网络的遥感图像分类方法。
需要说明的是,所述计算机程序可以被分割成一个或多个模块/单元(如计算机程序、计算机程序),所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述终端设备中的执行过程。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于灰度共生矩阵和BP神经网络的遥感图像分类方法,其特征在于,包括:
获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;
根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;
将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。
2.根据权利要求1所述基于灰度共生矩阵和BP神经网络的遥感图像分类方法,其特征在于,所述获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;具体为:
通过谷歌地球服务,获取采样点地区的遥感图像数据,并通过谷歌地球的组件技术,对采样点地区的地图窗口进行批量截图。
3.根据权利要求1所述的所述基于灰度共生矩阵和BP神经网络的遥感图像分类方法,其特征在于,所述灰度共生矩阵,采用如下公式表示:
Pd,θ(i,j)=g{(x1,y1),(x2,y2)∈M×N|f(x1,y1)=i,f(x2,y2)=j}
其中,M为图像f(x,y)的行数,N为图像f(x,y)的列数,Pd,θ(i,j)为方位角θ的位置为(x2,y2)灰度为j的像素同时出现的频率。
4.根据权利要求1所述基于灰度共生矩阵和BP神经网络的遥感图像分类方法,其特征在于,所述纹理特征包括:熵、相关、角二阶距和对比度。
6.根据权利要求1所述基于灰度共生矩阵和BP神经网络的遥感图像分类方法,其特征在于,所述灰度统计特征包括:采样点地区窗口内像素灰度的均值、标准差、偏度和峰度。
8.一种基于灰度共生矩阵和BP神经网络的遥感图像分类系统,其特征在于,包括:数据获取模块、特征提取模块和分类处理模块;其中,
所述数据获取模块,用于获取采样点地区的遥感图像数据,并对所述遥感图像数据进行批量截图,得到截图数据集;
所述特征提取单元,用于根据灰度共生矩阵提取所述截图数据集中每张图片的纹理特征,并采用统计学的方法,计算得到所述截图数据集中每张图片的灰度统计特征;
所述分类处理模块,用于将所述纹理特征和所述灰度统计特征通过预设的BP神经网络,得到遥感图像分类结果。
9.一种计算机终端设备,其特征在于,包括:
一个或多个处理器;
存储器,与所述处理器耦接,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至7任一项所述的基于灰度共生矩阵和BP神经网络的遥感图像分类方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的基于灰度共生矩阵和BP神经网络的遥感图像分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011522434.XA CN113191179A (zh) | 2020-12-21 | 2020-12-21 | 一种基于灰度共生矩阵和bp神经网络的遥感图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011522434.XA CN113191179A (zh) | 2020-12-21 | 2020-12-21 | 一种基于灰度共生矩阵和bp神经网络的遥感图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113191179A true CN113191179A (zh) | 2021-07-30 |
Family
ID=76972800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011522434.XA Pending CN113191179A (zh) | 2020-12-21 | 2020-12-21 | 一种基于灰度共生矩阵和bp神经网络的遥感图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191179A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081791A (zh) * | 2010-11-25 | 2011-06-01 | 西北工业大学 | 一种基于多尺度特征融合的sar图像分割方法 |
CN105809194A (zh) * | 2016-03-08 | 2016-07-27 | 华中师范大学 | 一种sar影像翻译为光学影像的方法 |
CN107610114A (zh) * | 2017-09-15 | 2018-01-19 | 武汉大学 | 基于支持向量机的光学卫星遥感影像云雪雾检测方法 |
CN108460402A (zh) * | 2018-01-15 | 2018-08-28 | 中国科学院自动化研究所 | 极化sar图像有监督分类方法及装置 |
CN110728311A (zh) * | 2019-09-29 | 2020-01-24 | 贝壳技术有限公司 | 一种图像处理方法、装置和存储介质 |
-
2020
- 2020-12-21 CN CN202011522434.XA patent/CN113191179A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081791A (zh) * | 2010-11-25 | 2011-06-01 | 西北工业大学 | 一种基于多尺度特征融合的sar图像分割方法 |
CN105809194A (zh) * | 2016-03-08 | 2016-07-27 | 华中师范大学 | 一种sar影像翻译为光学影像的方法 |
CN107610114A (zh) * | 2017-09-15 | 2018-01-19 | 武汉大学 | 基于支持向量机的光学卫星遥感影像云雪雾检测方法 |
CN108460402A (zh) * | 2018-01-15 | 2018-08-28 | 中国科学院自动化研究所 | 极化sar图像有监督分类方法及装置 |
CN110728311A (zh) * | 2019-09-29 | 2020-01-24 | 贝壳技术有限公司 | 一种图像处理方法、装置和存储介质 |
Non-Patent Citations (3)
Title |
---|
付仲良 等: "灰度和纹理特征组合的SAR影像SVM分类", 《应用科学学报》 * |
刘天福 等: "深度学习在GlobalLand30-2010产品分类精度优化中应用研究", 《遥感技术与应用》 * |
赵静: "基于BP人工神经网络的遥感影像土地覆盖分类研究——以湖北省汉川市为例", 《中国优秀硕士学位论文全文数据 基础科学辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN110378381B (zh) | 物体检测方法、装置和计算机存储介质 | |
US11568639B2 (en) | Systems and methods for analyzing remote sensing imagery | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN107239751B (zh) | 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法 | |
CN108052966B (zh) | 基于卷积神经网络的遥感图像场景自动提取和分类方法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
Geng et al. | Using deep learning in infrared images to enable human gesture recognition for autonomous vehicles | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN109543632A (zh) | 一种基于浅层特征融合引导的深层网络行人检测方法 | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN113158943A (zh) | 一种跨域红外目标检测方法 | |
CN116883588A (zh) | 一种大场景下的三维点云快速稠密重建方法及系统 | |
CN111666813B (zh) | 基于非局部信息的三维卷积神经网络的皮下汗腺提取方法 | |
Chang et al. | Locating waterfowl farms from satellite images with parallel residual u-net architecture | |
Babu et al. | An efficient image dahazing using Googlenet based convolution neural networks | |
CN111507416A (zh) | 一种基于深度学习的吸烟行为实时检测方法 | |
Gu et al. | A classification method for polsar images using SLIC superpixel segmentation and deep convolution neural network | |
Zhang et al. | Learning nonlocal quadrature contrast for detection and recognition of infrared rotary-wing UAV targets in complex background | |
CN107358625B (zh) | 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法 | |
CN112819832A (zh) | 基于激光点云的城市场景语义分割细粒度边界提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210730 |