CN108960300B - 一种基于深度神经网络的城市土地利用信息分析方法 - Google Patents
一种基于深度神经网络的城市土地利用信息分析方法 Download PDFInfo
- Publication number
- CN108960300B CN108960300B CN201810636689.5A CN201810636689A CN108960300B CN 108960300 B CN108960300 B CN 108960300B CN 201810636689 A CN201810636689 A CN 201810636689A CN 108960300 B CN108960300 B CN 108960300B
- Authority
- CN
- China
- Prior art keywords
- information
- polarization
- optical
- fully
- classification result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 28
- 238000004458 analytical method Methods 0.000 title abstract description 9
- 230000003287 optical effect Effects 0.000 claims abstract description 105
- 230000010287 polarization Effects 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims description 70
- 238000012549 training Methods 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 38
- 238000007781 pre-processing Methods 0.000 claims description 20
- 230000005855 radiation Effects 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 15
- 238000000354 decomposition reaction Methods 0.000 claims description 12
- 238000005315 distribution function Methods 0.000 claims description 12
- 239000002689 soil Substances 0.000 claims description 12
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 8
- 238000012706 support-vector machine Methods 0.000 claims description 6
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 4
- 230000002336 repolarization Effects 0.000 claims description 4
- 230000001427 coherent effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 102000006463 Talin Human genes 0.000 description 2
- 108010083809 Talin Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000004568 cement Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000001704 evaporation Methods 0.000 description 1
- 230000008020 evaporation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009916 joint effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/16—Real estate
- G06Q50/165—Land development
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Multimedia (AREA)
- Economics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度神经网络的城市土地利用信息分析方法,包括:采用人工选择地面控制点的方法,对预处理后的全极化SAR数据和光学图像进行配准,分别提取极化特征及光学特征;将极化特征和光学特征组合的特征向量输入到预先训练的SAE分类器中,获取对应光学特征的第一初级分类结果、对应极化特征的第二初级分类结果;SAE分类器为基于深度神经网络架构预先采用标注的样本进行训练获得的分类器;采用D‑S证据理论对所述第一初级分类结果和第二初级分类结果进行决策级融合,获得城市土地利用的分类信息。本发明的方法解决了现有技术中利用单一传感器的城市土地利用提取精度有限的难题。
Description
技术领域
本发明属于遥感图像处理技术,尤其涉及一种基于深度神经网络的城市土地利用信息分析方法。
背景技术
城市化是剧烈的人类活动改变大自然的集中表现之一,城市土地利用变化是城市化进程的最重要反应之一。土地利用分类反映人类对土地利用和改造的形式,反映土地利用本身的内在特征。城市土地利用变化是人类长期活动与自然环境相互作用的综合体现,与人类经济和社会发展密切相关,同时也与径流过程,蒸发过程,生态过程和城市热岛效应等自然过程密切相关。城市土地利用的改变带来复杂的生态环境后果,影响区域和全球的可持续发展。因此获取城市土地利用信息具有重要的经济,环境和社会学意义,可以为城市管理、环境监测的决策分析提供有效的支持。
一直以来,城市土地利用信息的准确获取是一项具有挑战性的课题。传统的实地测量,结合GPS进行测量,以及利用航空拍摄的摄影测量方法,都由于昂贵的成本而无法用于大范围估算和及时更新。利用光学卫星遥感影像进行不透水层的提取,由于其快速,准确,及时,经济的优点在大中尺度的城市土地利用信息提取中占有明显的优势。光学遥感卫星获取地物在可见光及近红外波段的地表反射信息,因此地物种类的复杂度是一个关键因素,影响着地物分类的准确性。首先,裸土层很容易混淆亮不透水层(如空旷的房顶,新水泥路面),阴影区和水体很容易混淆暗不透水层(如柏油马路和旧的水泥路面),混淆的原因是这些地物的布拉格散射相似。另外天气原因,随机出现的云层和气候等因素同时导致了地物类型识别的低准确度。而微波遥感具有穿透云层,全天候工作的优点,在遥感监测中具有独特的优势,此外微波遥感对地物的材质和几何形态敏感,能有效解决同谱异物问题。
目前,合成孔径雷达(SAR)是主要的微波遥感手段之一,被较为广泛地用于地表环境监测。SAR与光学遥感的显著差异是其反应的是地物的介电特性与几何结构(包括朝向),因此能够提供对于地物分类任务非常有益的互补信息。与单极化SAR相比,全极化SAR系统不仅能够获取地物的后向散射截面,还能够获得地物在任意不同极化电磁波照射下的后向散射信息,从而更加有助于对地物的类型进行区分。因此结合光学遥感和微波遥感提取城市土地利用信息可以大大提高其精确度。
为此,如何将光学遥感和微波遥感结合提取城市土地利用信息成为当前需要解决的技术问题。
发明内容
针对现有技术中的问题,本发明提供一种基于深度神经网络的城市土地利用信息分析方法,该方法解决了现有技术中利用单一传感器的城市土地利用提取精度有限的难题。
第一方面,本发明提供一种基于深度神经网络的城市土地利用信息分析方法,包括:
S1、对待处理的全极化SAR数据进行预处理,获取预处理后的全极化SAR数据;
对待处理的光学图像进行预处理,获取预处理后的光学图像;所述全极化SAR数据和所述光学图像属于同一个城市土地不同图像;
S2、采用人工选择地面控制点的方法,对预处理后的全极化SAR数据和预处理后的光学图像进行配准,获取配准后的全极化SAR图像和配准后的光学图像;
S3、从配准后的全极化SAR数据中获取极化特征;
从配准后的光学图像中获取光学特征;
S4、将所述极化特征和所述光学特征组合为特征向量,将该特征向量输入到预先训练的堆栈自编码器SAE分类器中,获取对应光学特征的第一初级分类结果、对应极化特征的第二初级分类结果;
所述SAE分类器为基于深度神经网络架构预先采用标注的样本进行训练获得的分类器;
S5、采用D-S证据理论对所述第一初级分类结果和第二初级分类结果进行决策级融合,获得城市土地利用的分类信息。
可选地,所述方法还包括:
S6、对所述城市土地利用的分类信息进行评价/分析。
可选地,所述S1中的对待处理的全极化SAR数据进行预处理,包括:
基于DEM的几何校正、辐射校正、地理编码对所述全极化SAR数据进行预处理;
所述S1中的对待处理的光学图像进行预处理,包括:
对所述光学图像进行大气校正、几何校正、辐射校正和地理编码。
可选地,所述步骤S3中的从配准后的全极化SAR数据中获取极化特征,包括:
S31、对所述配准后的全极化SAR数据进行格式转换和/或定标处理,得到处理后的矩阵;
S32、判断处理后的矩阵是否为全极化SAR协方差矩阵;
S33、若处理后的矩阵为复极化散射矩阵,则将所述复极化散射矩阵转换为全极化SAR协方差矩阵;
S34、对所述全极化SAR协方差矩阵进行多视处理、精致极化Lee滤波,获取相干矩阵和Stokes向量;所述全极化SAR协方差矩阵为所述步骤S33中的转换后的全极化SAR协方差矩阵,或者为处理后的全极化SAR协方差矩阵;
S35、对所述全极化SAR协方差矩阵、所述相干矩阵、所述Stokes向量提取极化特征,得到所述配准后的全极化SAR数据的极化特征。
可选地,所述步骤S3中的从配准后的光学图像中获取光学特征,包括:
提取配准后的光学图像中各波段信息;
根据所述各波段信息,获取配准后的光学图像的辐射强度信息;
提取配准后的光学图像的纹理信息和植被覆盖指数信息;
所述各波段信息、辐射强度信息、纹理信息、植被覆盖指数信息组成所述光学特征。
可选地,在所述步骤S4之前,所述方法还包括:
S4a、采用训练样本训练所述深度神经网络架构,获取训练后的SAE分类器。
可选地,所述步骤S4a包括:
所述训练样本为包括:光学图像对应的第一训练样本,和全极化SAR数据对应的第二训练样本;
所述第一训练样本的类型包括:亮不透水面的标签类型、暗不透水面的标签类型、植被标签类型、裸土标签类型、水体标签类型和阴影标签类型;
所述第二训练样本的类型包括:不透水面一标签类型,不透水面二标签类型、水体标签类型、植被标签类型和裸土标签类型;
将多个自编码器级联形成堆栈自编码器SAE,每一层通过贪心的无监督层次训练策略进行训练,从而对每一层SAE的权值进行初始化,以及在最后一层的自编码器之后加入支持向量机,结合第一训练样本和第二训练样本的标签类型,利用反向传播算法对深度神经网络进行微调获得训练后的SAE分类器。
可选地,所述步骤S5包括:
所述第一初级分类结果、第二初级分类结果中每一个标签类型具有各自的似然度;
S51、对所述第一初级分类结果的类型中的亮不透水面类型和暗不透水面类型合并为一类;
对所述第二初步分类结果中的不透水面一类型和不透水面二类型合并为一类,以使所述第一初级分类结果和第二初级分类结果的类型一一对应;
S52、根据调整后的第一初级分类结果建立事件集合一、根据调整后的第二初级分类结果建立事件集合二;
所述事件集合一和事件集合二中分别包括:每一类型及该类型的确定的概率;
S53、根据D-S证据理论,向所述事件集合一和事件集合二分别分配信任函数;并根据证据组合规则对两个信任函数进行融合,将融合结果中具有最大似然度的城市地物类型确定为城市土地利用的分类信息。
本发明具有的有益效果如下:
1)本发明通过有效利用光学和极化SAR遥感图像的互补信息,有效地提高了城市土地利用分类的正确率。
2)本发明利用D-S证据理论进行光学和SAR遥感信息的决策级融合,通过证据合成规则实现光学和SAR互补信息的最有效利用。
3)本发明基于堆栈自编码器对光学和SAR图像进行分类,利用非监督预训练对特征进行优化,使分类网络具有更佳的初始化权值,从而在有效训练样本的基础上取得更佳的分类性能。
也就是说,本发明通过融合光学图像和全极化SAR图像的信息,结合深度神经网络技术,提高地表覆盖类型分类的正确率,为相关的研究和业务化应用提供重要基础数据。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1A和图1B分别为本发明一实施例提供的基于深度神经网络的城市土地利用信息分析方法的流程示意图;
图2为本发明一实施例提供的光学图像和全极化的SAR图像特征示意图;
图3A为本发明一实施例提供的自编码神经网络的结构示意图;
图3B为本发明一实施例提供的自编码器的堆叠结构的示意图;
图4为本发明一实施例提供的第一初级分类结果和第二初级分类结果的示意图;
图5为本发明一实施例提供的光学和SAR融合土地利用分类结果的示意图;
图6为本发明一实施例提供的混淆矩阵的示意图。
具体实施方式
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
在以下的描述中,将描述本发明的多个不同的方面,然而,对于本领域内的普通技术人员而言,可以仅仅利用本发明的一些或者全部结构或者流程来实施本发明。为了解释的明确性而言,阐述了特定的数目、配置和顺序,但是很明显,在没有这些特定细节的情况下也可以实施本发明。在其它情况下,为了不混淆本发明,对于一些众所周知的特征将不再进行详细阐述。
针对现有技术中利用单一传感器的城市土地利用提取精度有限的难题,结合光学遥感和微波遥感提取城市土地利用信息可以大大提高其精确度。
然而,融合两种传感器提供的信息,进行更为精准的城市土地利用分类一直以来是个充满挑战的课题。首先,由于成像几何不同,高分辨率的光学和SAR图像的精准配准比较困难。其次,对于光学和SAR两种截然不同的传感器需要设计独特的融合准则以最优化信息融合结果。最后,有限样本的条件下光学和SAR高维特征的处理和分析需要合适的分类器来拟合地物标签和样本特征间复杂的非线性关系。
从分类器模型来看,目前常用的分类器有监督的支持向量机(SVM)、随机森林(RF)以及人工神经网络(ANN)等。相比浅层网络,深度神经网络模型具有多层神经元,在描述复杂结构方面具有非常强大的能力。然而,当权重随机初始化时,随着网络深度的增加,梯度(从输出层到网络的初始层)的幅度急剧下降,整体损失函数相对于前几层的权重的梯度非常小,以至于他们无法从样本中有效地学习,这个问题通常被称为“梯度弥散”。为解决多层神经网络权值的初始化问题,堆栈自编码器(SAE)被提出,它是一种深层多层神经网络,通过贪心分层无监督训练策略初始化其权重。深度网络模型的应用可以更好地融合极化及光学特征,从而有效地提高城市土地利用分类的精度。
本实施例通过融合光学图像和全极化SAR图像的信息,结合深度神经网络技术,提高地表覆盖类型分类的正确率,为相关的研究和业务化应用提供重要基础数据。
实施例一
如图1A所示,图1A示出了本实施例中的基于深度神经网络的城市土地利用信息分析方法的流程示意图,该方法包括下述步骤:
S1、获取微波遥感卫星的一组全极化SAR数据和光学遥感卫星的一组多光谱图像,对待处理的全极化SAR数据进行预处理,获取预处理后的全极化SAR数据;对待处理的光学图像进行预处理,获取预处理后的光学图像。
本实施例中,全极化SAR数据和所述光学图像属于同一个城市土地不同图像。
应说明的是,预先获取待处理的多光谱光学图像(即光学图像),进而对光学图像进行大气校正,几何校正,辐射校正,地理编码等预处理。基于DEM的几何校正、辐射校正、地理编码对所述全极化SAR数据进行预处理。
S2、采用人工选择地面控制点的方法,对预处理后的全极化SAR数据和预处理后的光学图像进行配准,获取配准后的全极化SAR图像和配准后的光学图像。
也就是说,基于人工选择地面控制点的方法,对一组全极化SAR数据和多光谱图像进行配准,采用多项式差值算法,获得配准后的全极化SAR数据和多光谱图像数据。本实施例中多项式差值算法的误差在一个像素以内。
本实施例中可购买各个地面站接收的微波遥感卫星的全极化SAR数据,或者购买各个地面站接收的光学遥感卫星的光谱图像。
目前,光学遥感与微波遥感的工作波段不同,成像原理不同,为此,本实施例在预处理之后将其结合配准,可较好的获取下述的分类结果/分类信息。
当然,还可以在配准之后进行预处理,本实施例示出的是先预处理再配准,可根据实际需要调整,并对其进行限定。
S3、从配准后的全极化SAR数据中获取极化特征,如图2(b)所示;从配准后的光学图像中获取光学特征,如图2(a)所示。
举例来说,极化特征可包括下述的一项或多项:多视极化SAR协方差矩阵特征、Cloude-Pottier分解特征、Freeman-Cloude三分量分解特征、极化度,椭圆率,同极化相位差标准差、相关系数,相干系数,一致性系数、GLCM特征等。
光学特征可包括:各波段信息、辐射强度信息、纹理信息、植被覆盖指数信息等。
例如,可提取配准后的光学图像中各波段信息;
根据所述各波段信息,获取配准后的光学图像的辐射强度信息;
提取配准后的光学图像的纹理信息和植被覆盖指数信息;
所述各波段信息、辐射强度信息、纹理信息、植被覆盖指数信息组成所述光学特征。
S4、将所述极化特征和所述光学特征组合为特征向量,将该特征向量输入到预先训练的堆栈自编码器SAE分类器中,获取对应光学特征的第一初级分类结果(图4(a)所示)、对应极化特征的第二初级分类结果(图4(b)所示)。图4(c)示出的是图4(a)和图4(b)中结果的划分说明。
本实施例中,SAE分类器为基于深度神经网络架构预先采用标注的样本进行训练获得的分类器,如图1B所示。
本实施例中的预先标注的样本包括:光学图像对应的标注样本,和SAR数据/图像对应的标注样本。
例如,可对光学图像进行样本标注,标注为亮不透水面(BIS),暗不透水面(DIS),植被(VEG),裸土(SOI),水体(WAT),阴影(SHA);本实施例中可结合光学图像与极化特征对SAR图像进行样本标注,标注为不透水面1(IS1),不透水面2(IS2),水体(WAT),植被(VEG),裸土(SOI)。
上述样本标注是根据地面验证信息、或者高分辨率的参考影像人工划定的。
本实施例的第一初级分类结果、第二初级分类结果中每一个标签类型均具有各自的似然度。
上述的SAE分类器可以根据光学特征和极化特征(如SAR特征)分别得到样本属于各种地物类型的似然度,以及初级分类结果。
S5、采用D-S证据理论对所述第一初级分类结果和第二初级分类结果进行决策级融合,获得城市土地利用的分类信息,如图5所示。
在执行步骤S5的决策级融合之后,可预先将光学图像对应的初级分类结果中的亮不透水面(BIS),暗不透水面(DIS)合并为一类,将SAR特征对应的初级分类结果中的不透水面1(IS1),不透水面2(IS2)也合并为一类,使通过光学和SAR图像获取的土地利用类型类型一一对应。
举例来说,基于SAE分类器给出的初级分类结果中标签类型的似然度,分别建立对应上述第一初级分类结果、第二初级分类结果的事件集合Θ,因各个框架中的分类结果互斥,可构成各自的识别框架。将光学图像中阴影的似然度赋给全集Θ,即识别框架内的所有焦元的概率。对SAR图像根据经验设定全集概率Θ,表明证据的不确定性。
进一步地,根据D-S证据理论得到基于光学和SAR分类结果的基本信任分配函数m1、m2。根据证据组合规则对两个信任函数m1、m2进行融合。将融合结果中具有最大似然度的城市地物类型确定为最终的分类结果(即上述步骤S5的分类信息)。融合后的分类结果为:不透水面(IS),植被(VEG),裸土(SOI),水体(WAT)。
可选地,上述方法还可包括下述的步骤S6:
S6、对所述城市土地利用的分类信息进行评价/分析。
举例来说,如图1B中所示,结合样本标签,对S5所得结果的分类精度进行定量化评估,用户精度,采用混淆矩阵计算分类结果的总体精度,制图精度,用户精度,Kappa系数等参数。
另外,需要说明的是,还可以对S4中的初级分类结果进行定量化评估。图6(a)示出了光学分类结果对应的混淆矩阵,图6(b)示出了SAR分类结果对应的混淆矩阵。
本实施例中通过有效利用光学和极化SAR遥感图像的互补信息,有效地提高了城市土地利用分类的正确率。进一步利用D-S证据理论进行光学和SAR遥感信息的决策级融合,通过证据合成规则实现光学和SAR互补信息的最有效利用。
本发明基于堆栈自编码器对光学和SAR图像进行分类,利用非监督预训练对特征进行优化,使分类网络具有更佳的初始化权值,从而在有效训练样本的基础上取得更佳的分类性能。
进一步地,在具体实现过程中,可在上述步骤S1之前,预先训练获取SAE分类器。
举例来说,可设置训练样本,如光学图像对应的第一训练样本,和全极化SAR数据对应的第二训练样本;
所述第一训练样本的类型包括:亮不透水面的标签类型、暗不透水面的标签类型、植被标签类型、裸土标签类型、水体标签类型和阴影标签类型;
所述第二训练样本的类型包括:不透水面一标签类型,不透水面二标签类型、水体标签类型、植被标签类型和裸土标签类型;
将多个自编码器级联形成堆栈自编码器SAE,每一层通过贪心的无监督层次训练策略进行训练,从而对每一层SAE的权值进行初始化,以及在最后一层的自编码器之后加入支持向量机,结合第一训练样本和第二训练样本的标签类型,利用反向传播算法对深度神经网络进行微调获得训练后的SAE分类器。
实施例二
基于上述实施例一的内容,下述与上述实施例一中各个步骤进行详细说明。
(一)光学特征提取
1、多光谱波段信息提取
可提取光学图像各个波段的辐射强度信息:band1,band2至bandn。
2、灰度共生矩阵(GLCM)信息提取
对光学图像的各个通道强度进行加权求和,得到辐射强度信息:
A=c1·band1+c2·band2...cn·bandn
其中系数ci由经验选取;
3、利用灰度共生矩阵提取光学图像的纹理信息:均值(Mean),相关系数(Correlation),方差(Variance),同质性(Homogeneity),对比度(Contrast),差异性(Dissimilarity),熵(Entropy)等。
4、归一化植被覆盖指数(NDVI)信息提取:
NDVI指数表征地表植被的覆盖情况,可以经光学图像不同波段信息计算而得到:
NDVI=(NIR-R)/(NIR+R)
NDWI=(G-NIR)/(G+NIR)
其中R,G,NIR代表红,绿,近红外波段的地表反射率。
(二)全极化SAR数据预处理
对需要处理的全极化SAR数据进行格式转换、定标等预处理(如需要),得到全极化SAR协方差矩阵(C)。若得到的是复极化散射矩阵(S),则通过以下方法将其转化为协方差矩阵:
其中S**代表某种极化发射和接收时的后向散射系数,如Shv即为水平极化发射,垂直极化接收,h为水平极化,v为垂直极化。
例如,可采用下述公式将其S转换为C:
其中,下标h表示水平极化的极化方式,v表示垂直极化的极化方式。
此外,本实施例中还可对对所述全极化SAR协方差矩阵C进行多视处理、精致极化Lee滤波,获取相干矩阵T和Stokes向量。
也就是说,为了减小单视全极化SAR数据所受到的相干斑噪声影响,需要对全极化SAR协方差矩阵做多视处理。多视处理是一个常用的方法,空域滤波代替时域平均,即用一个n×n的窗口对图像做平均,赋给窗口中间的像素。
极化协方差矩阵C:
Pauli散射基向量由下式计算:
即:
由全极化散射矩阵(即散射矩阵)可得任意发射信号下接收回波的Stokes向量:
其中Eih和Eiv分别为某一极化发射状态下水平和极化接收的后向散射矩阵。本实施例中发射极化方式i为垂直(V)发射,因此Eih和Eiv就对应为Svh和Svv。
此外,为了进一步降低斑点噪声对全极化SAR数据目标解译的影响,对协方差矩阵进行精致极化Lee滤波,例如,可在SPAN图像上进行边缘模板匹配,选取方向窗口;以及在该方向窗口内应用局部统计滤波器对协方差矩阵进行滤波处理。
(三)精致极化Lee滤波
为了进一步降低斑点噪声对极化SAR图像目标解译的影响,对协方差矩阵进行精致极化Lee滤波,此时的滤波过程主要包括如下步骤:
1.在SPAN图像上进行边缘模板匹配,选取方向窗口;
2.在该方向窗口内应用局部统计滤波器对协方差矩阵进行滤波处理。
(四)极化SAR特征提取
基于滤波后的协方差矩阵和相干矩阵,或通过其计算出的Stokes向量,提取如下极化特征构成特征组合,与光学特征一起构成特征向量输入分类器。
1.多视极化SAR协方差矩阵特征:C11,C22,C33,C12,C13,C23
2.Cloude-Pottier分解特征
3.Freeman-Cloude三分量分解特征
对多视极化SAR协方差矩阵实施Freeman-Cloude分解,得到一次面散射成分fs,二面角散射成分fd,体散射成分fv。
4.极化度,椭圆率,同极化相位差标准差
由水平(或者垂直)发射极化波信号的Stokes矩阵计算能衡量电磁波极化成分纯度的极化度:
其中,gi1,gi2,gi3,gi0分别为Stokes向量中的元素。
发射极化i为水平(H)极化,利用Stokes矩阵分量和计算度计算极化信号极化椭圆的椭圆率:
gi3,gi0分别为Stokes向量中的元素,P为极化度。
5.相关系数,相干系数,一致性系数
由协方差矩阵计算HH和VV通道相关系数:
由相关矩阵计算相干系数:
其中,T12,T11和T22分别为相干矩阵中的元素。
计算全极化SAR图像的一致性系数;
6.基于后向散射截面,提取各个极化通道强度图像GLCM特征。
可理解的是,上述的多视极化SAR协方差矩阵特征、Cloude-Pottier分解特征、Freeman-Cloude三分量分解特征、极化度,椭圆率,同极化相位差标准差、相关系数,相干系数,一致性系数、GLCM特征均属于极化特征。
(五)特征向量的构成
特征向量由基于上述方法,从光学图像和全极化SAR图像中提取的特征构成。包括:多光谱图像各个波段特征(n个,n为波段数),光学图像灰度共生矩阵特征(7个),NDVI指数,多极化SAR协方差矩阵特征(6个),Cloude-Pottier分解特征(3个),Freeman-Cloude三分量分解特征(3个),极化度,椭圆率,同极化相位差标准差,相关系数,相干系数,一致性系数等。对于配准后的全极化SAR数据和光学图像的每一个像素点,所有特征组合,构成特征向量。
(六)堆栈自编码器(SAE)
自编码器(auto-encoder)是一种无监督学习算法,它使用了反向传播算法,通过训练一个单隐层的神经网络,让目标值等于输入值,得到输入信号的抽象表示。如图3A所示,图3A示出了一个自编码神经网络的示例图。
图3A中,n:输入输出层节点数;m:隐层节点数;
x∈Rn,h∈Rm,y∈Rn分别表示输入、隐层和输出层的数据矢量;
b∈Rm,c∈Rn表示隐层和输出层的偏置矢量;
W∈Rm×n表示输入和隐层之间的权重矩阵;
从输入层到隐藏层的输出,输入信号被编码,且从隐藏层到输出,隐藏层的输出被解码为:
h=f(x)=sf(Wx+b)
在等式中,f()和g()分别代表编码和解码功能。Sf和Sg是编码器和解码器的相应激活功能。可以选择S形函数作为激活函数,权重W的转置矩阵W)可以作为解码器的权重.
给定输入向量,自动编码器旨在最小化输入x和输出y之间的差异。重建误差可以用交叉熵函数来描述:
因此对于训练集S平均重建误差可以被确定为:
通过最小化L(θ),可以拟合编码器的参数θ={W,b,c}。自动编码器的学习不需要标签信息,所以它是一个无监督的过程。隐藏层h的输出可以看作输入x的表示。
堆叠自编码器(Stacked Auto-Encoder,SAE)是将多个自编码器级联,以便它们将前一个自动编码器的一个隐藏层的输出h(k)作为其后续自动编码器的输入,如图3B所示。每一层都通过贪心的无监督层次训练策略进行训练,上层是相关高层次抽象的表示。堆叠式自动编码器可以通过在靠近最优值的区域初始化其权重来更有效地建立深度神经网络。在最后一层自编码器之后加入支持向量机,以实现分类输出。
(七)D-S证据理论
1.识别框架
在证据理论中,通常用集合来代表命题,假设是一个集合,里面的元素是相互排斥并且可以列举的,即Θ={θ1,θ2,…θJ,…,θN}。
当一个元素可以被解释成可能的答案,并且仅有一个答案正确时,那么该集合被称为一个识别框架。识别的含义是对于一个提问,从与该提问相关的所有可能的答案中只能区分出一个正确的答案。
现有一个集合Θ,Θ中的元素是需要确定问题的所有可能答案,且集合中的元素都是相互排斥的,无论任何时候,答案只是Θ中一个元素,而且这个答案可能是非数值变量,也可能是数值变量,识别框架就是相互排斥事件的正交集,如式(1.1)所示。
Θ={θ1,θ2,…θJ,…,θN}(1.1)
其中θJ代表一个元素或事件;N表示的是元素个数,j=1,2,…N幂集是在识别框架Θ中,将所有的子集组成的一个集合,记作2θ,如式(1.2)所示。
2θ={Φ,{θ1},{θ2},…{θn},{θ1∪θ2},{θ1∪θ3},…,Θ} (1.2)
其中Θ表示的是空集;{θi∪θj}也可记为{θi,θj},i,j∈[1,n],且i≠j,以此类推。
2.基本信任分配函数
其中m(A)表示的是事件A的基本信任分配函数,它的含义是证据A的信任程度。
3.信任函数
则把Bel(A)叫做A的信任函数,它表示的是证据对A是真命题时的信任程度。
此时的信任函数叫做空信任函数。当没有任何证据的情况时适合空信任函数。
4.似然函数
Pl(A)函数表示对A是真命题的信任程度。而表示的是对A的怀疑程度。由于A为真的信任程度用Bel(A)表示,A为非假的信任程度用Pl(A)表示,而且Pl(A)≥Bel(A),因此,A信任程度的上限是Bel(A),A信任程度的下限是Pl(A),记为[Bel(A),Pl(A)],这个区间表示的是不确定区间。Pl(A)-Bel(A)表示的是不确定程度。
5.D-S证据理论的合成规则
命题的不确定性可以用似然函数和信任函数来权衡,而似然函数和信任函数是基于基本信任分配函数的,所以表达命题不确定性是通过基本信任分配函数表现的。然而,有时由于不同的数据的来源,将会有两个或两个以上不同的基本信任分配函数。由于要计算似然函数和信任函数,需要把这两个或两个以上的mass函数换算成一个基本信任分配函数,D-S合成规则可将两个或两个以上基本信任分配函数变换,结果反映了证据的共同作用。在同一识别框架上,给出几个不同证据的基本信任分配函数,可以应用D-S合成规则得到一个新的信任函数,而它就被认为是几个证据联合作用下,产生的一个信任函数,这个信任函数称为原来几个信任函数的正交和。
Bel1、Bel2是同一识别框架上的两个信任函数,m1、m2是相应的基本信任分配函数。如果Ai、Bi是焦元,在Bel1、Bel2的作用下,m1(Ai),m2(Bi)就会被分配在Ai∩Bi上。在A是一定的情况下,假如有Ai∩Bi=A,就有m1(Ai)m2(Bi)分配在A的可信度上。应用D-S合成规则得到:
最后应说明的是:以上所述的各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (7)
1.一种基于深度神经网络的城市土地利用信息分析方法,其特征在于,包括:
S1、对待处理的全极化SAR数据进行预处理,获取预处理后的全极化SAR数据;
对待处理的光学图像进行预处理,获取预处理后的光学图像;所述全极化SAR数据和所述光学图像属于同一个城市土地不同图像;
S2、采用人工选择地面控制点的方法,对预处理后的全极化SAR数据和预处理后的光学图像进行配准,采用多项式差值算法,获取配准后的全极化SAR图像和配准后的光学图像;
S3、从配准后的全极化SAR数据中获取极化特征;极化特征包括下述的一项或多项:多视极化SAR协方差矩阵特征、Cloude-Pottier分解特征、Freeman-Cloude三分量分解特征、极化度,椭圆率,同极化相位差标准差、相关系数,相干系数,一致性系数和灰度共生矩阵GLCM特征;
从配准后的光学图像中获取光学特征;所述光学特征包括:各波段信息、辐射强度信息、纹理信息、植被覆盖指数信息;
S4、对于配准后的全极化SAR数据和光学图像的每一个像素点的所有特征组合,即将所述极化特征和所述光学特征组合为特征向量,将该特征向量输入到预先训练的堆栈自编码器SAE分类器中,获取对应光学特征的第一初级分类结果、对应极化特征的第二初级分类结果;
所述SAE分类器为基于深度神经网络架构预先采用标注的样本进行训练获得的分类器;
S5、采用D-S证据理论对所述第一初级分类结果和第二初级分类结果进行决策级融合,获得城市土地利用的分类信息;即根据D-S证据理论得到基于光学和SAR分类结果的基本信任分配函数m1、m2,根据证据组合规则对两个基本信任分配函数m1、m2进行融合,将融合结果中具有最大似然度的城市地物类型确定为最终的分类信息;
其中,在S4之前,所述方法还包括:
S4a、采用训练样本训练所述深度神经网络架构,获取训练后的SAE分类器;
所述训练样本包括:光学图像对应的第一训练样本,和全极化SAR数据对应的第二训练样本;
所述第一训练样本的类型包括:亮不透水面的标签类型、暗不透水面的标签类型、植被标签类型、裸土标签类型、水体标签类型和阴影标签类型;
所述第二训练样本的类型包括:不透水面一标签类型,不透水面二标签类型、水体标签类型、植被标签类型和裸土标签类型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
S6、对所述城市土地利用的分类信息进行评价/分析。
3.根据权利要求1或2所述的方法,其特征在于,所述S1中的对待处理的全极化SAR数据进行预处理,包括:
基于DEM的几何校正、辐射校正、地理编码对所述全极化SAR数据进行预处理;
所述S1中的对待处理的光学图像进行预处理,包括:
对所述光学图像进行大气校正、几何校正、辐射校正和地理编码。
4.根据权利要求3所述的方法,其特征在于,所述S3中的从配准后的全极化SAR数据中获取极化特征,包括:
S31、对所述配准后的全极化SAR数据进行格式转换和/或定标处理,得到处理后的矩阵;
S32、判断处理后的矩阵是否为全极化SAR协方差矩阵;
S33、若处理后的矩阵为复极化散射矩阵,则将所述复极化散射矩阵转换为全极化SAR协方差矩阵;
S34、对所述全极化SAR协方差矩阵进行多视处理、精致极化Lee滤波,获取相干矩阵和Stokes向量;所述全极化SAR协方差矩阵为所述步骤S33中的转换后的全极化SAR协方差矩阵,或者为处理后的全极化SAR协方差矩阵;
S35、对所述全极化SAR协方差矩阵、所述相干矩阵、所述Stokes向量提取极化特征,得到所述配准后的全极化SAR数据的极化特征。
5.根据权利要求4所述的方法,其特征在于,所述S3中的从配准后的光学图像中获取光学特征,包括:
提取配准后的光学图像中各波段信息;
根据所述各波段信息,获取配准后的光学图像的辐射强度信息;
提取配准后的光学图像的纹理信息和植被覆盖指数信息;
所述各波段信息、辐射强度信息、纹理信息、植被覆盖指数信息组成所述光学特征。
6.根据权利要求1至5任一所述的方法,其特征在于,所述S4a包括:
将多个自编码器级联形成堆栈自编码器SAE,每一层通过贪心的无监督层次训练策略进行训练,从而对每一层SAE的权值进行初始化,以及在最后一层的自编码器之后加入支持向量机,结合第一训练样本和第二训练样本的标签类型,利用反向传播算法对深度神经网络进行微调获得训练后的SAE分类器。
7.根据权利要求6所述的方法,其特征在于,所述步骤S5包括:
所述第一初级分类结果、第二初级分类结果中每一个标签类型具有各自的似然度;
S51、对所述第一初级分类结果的类型中的亮不透水面类型和暗不透水面类型合并为一类;
对所述第二初步分类结果中的不透水面一类型和不透水面二类型合并为一类,以使所述第一初级分类结果和第二初级分类结果的类型一一对应;
S52、根据调整后的第一初级分类结果建立事件集合一、根据调整后的第二初级分类结果建立事件集合二;
所述事件集合一和事件集合二中分别包括:每一类型及该类型的确定的概率;
S53、根据D-S证据理论,向所述事件集合一和事件集合二分别分配信任函数;并根据证据组合规则对两个信任函数进行融合,将融合结果中具有最大似然度的城市地物类型确定为城市土地利用的分类信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810636689.5A CN108960300B (zh) | 2018-06-20 | 2018-06-20 | 一种基于深度神经网络的城市土地利用信息分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810636689.5A CN108960300B (zh) | 2018-06-20 | 2018-06-20 | 一种基于深度神经网络的城市土地利用信息分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960300A CN108960300A (zh) | 2018-12-07 |
CN108960300B true CN108960300B (zh) | 2021-03-02 |
Family
ID=64489648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810636689.5A Active CN108960300B (zh) | 2018-06-20 | 2018-06-20 | 一种基于深度神经网络的城市土地利用信息分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960300B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711446B (zh) * | 2018-12-18 | 2021-01-19 | 中国科学院深圳先进技术研究院 | 一种基于多光谱影像和sar影像的地物分类方法及装置 |
CN111210467A (zh) * | 2018-12-27 | 2020-05-29 | 上海商汤智能科技有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109815885A (zh) * | 2019-01-21 | 2019-05-28 | 南京国准数据有限责任公司 | 基于modis卫星数据的gdp估算方法及装置 |
CN110008914A (zh) * | 2019-04-11 | 2019-07-12 | 杨勇 | 一种基于神经网络的模式识别系统及识别方法 |
CN110991705B (zh) * | 2019-11-15 | 2023-07-11 | 南方海洋科学与工程广东省实验室(广州) | 一种基于深度学习的城市扩展预测方法及系统 |
CN111553245A (zh) * | 2020-04-24 | 2020-08-18 | 中国电建集团成都勘测设计研究院有限公司 | 基于机器学习算法和多源遥感数据融合的植被分类方法 |
US11604305B2 (en) * | 2020-10-09 | 2023-03-14 | International Business Machines Corporation | Classifying land use using satellite temperature data |
CN112070078B (zh) * | 2020-11-16 | 2021-01-19 | 武汉思众空间信息科技有限公司 | 基于深度学习的土地利用分类方法及系统 |
CN112668400A (zh) * | 2020-12-08 | 2021-04-16 | 深圳先进技术研究院 | 一种植被识别方法及应用 |
CN113963262B (zh) * | 2021-12-20 | 2022-08-23 | 中国地质大学(武汉) | 一种矿区土地覆盖分类方法、设备、装置及存储介质 |
CN115015910B (zh) * | 2022-05-30 | 2024-02-13 | 深圳大学 | 微波与光学视觉的交互感知识别方法、装置、终端及介质 |
CN115205688A (zh) * | 2022-09-07 | 2022-10-18 | 浙江甲骨文超级码科技股份有限公司 | 茶树种植区域提取方法及系统 |
CN116343053B (zh) * | 2022-12-27 | 2024-02-09 | 生态环境部卫星环境应用中心 | 基于光学遥感影像和sar遥感影像融合的固废自动提取方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105866775A (zh) * | 2016-03-28 | 2016-08-17 | 南京信息工程大学 | 一种基于全极化合成孔径雷达图像的海面溢油检测方法 |
CN105930772A (zh) * | 2016-04-13 | 2016-09-07 | 武汉大学 | 基于sar影像与光学遥感影像融合的城市不透水面提取方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488968B (zh) * | 2012-06-14 | 2016-12-21 | 株式会社日立制作所 | 遥感图像的混合像素物质构成精细化分解装置及方法 |
CN104077599B (zh) * | 2014-07-04 | 2017-04-19 | 西安电子科技大学 | 基于深度神经网络的极化sar图像分类方法 |
CN105894018B (zh) * | 2016-03-29 | 2019-04-23 | 西安电子科技大学 | 基于深度多示例学习的极化sar图像分类方法 |
-
2018
- 2018-06-20 CN CN201810636689.5A patent/CN108960300B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105866775A (zh) * | 2016-03-28 | 2016-08-17 | 南京信息工程大学 | 一种基于全极化合成孔径雷达图像的海面溢油检测方法 |
CN105930772A (zh) * | 2016-04-13 | 2016-09-07 | 武汉大学 | 基于sar影像与光学遥感影像融合的城市不透水面提取方法 |
Non-Patent Citations (2)
Title |
---|
基于全极化SAR图像的植被信息提取技术研究;李昕;《中国优秀硕士学位论文全文数据库 信息科技辑 I136-759》;20160215(第02期);第16-28页 * |
基于深度学习的高光谱遥感图像分类;王玉巧;《中国优秀硕士学位论文全文数据库 信息科技辑 I140-1678》;20170215(第02期);第12-31页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108960300A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960300B (zh) | 一种基于深度神经网络的城市土地利用信息分析方法 | |
Isikdogan et al. | Surface water mapping by deep learning | |
Wang et al. | Sea ice concentration estimation during melt from dual-pol SAR scenes using deep convolutional neural networks: A case study | |
Zhou et al. | Polarimetric SAR image classification using deep convolutional neural networks | |
Song et al. | Radar image colorization: Converting single-polarization to fully polarimetric using deep neural networks | |
Rambour et al. | Flood detection in time series of optical and sar images | |
Zhao et al. | Contrastive-regulated CNN in the complex domain: A method to learn physical scattering signatures from flexible PolSAR images | |
Karimi et al. | Effective supervised multiple‐feature learning for fused radar and optical data classification | |
Zhang et al. | A manifold learning approach to urban land cover classification with optical and radar data | |
CN108764326B (zh) | 基于深度置信网络的城市不透水层提取方法 | |
CN105930772A (zh) | 基于sar影像与光学遥感影像融合的城市不透水面提取方法 | |
Zhang et al. | A new road extraction method using Sentinel-1 SAR images based on the deep fully convolutional neural network | |
Shi et al. | Object-level semantic segmentation on the high-resolution Gaofen-3 FUSAR-map dataset | |
He et al. | Multi-spectral remote sensing land-cover classification based on deep learning methods | |
Xiao et al. | A review of remote sensing image spatiotemporal fusion: Challenges, applications and recent trends | |
Ghasemi et al. | Urban classification using preserved information of high dimensional textural features of Sentinel-1 images in Tabriz, Iran | |
Khesali et al. | Semi automatic road extraction by fusion of high resolution optical and radar images | |
Sadeghi et al. | Design and implementation of an expert system for updating thematic maps using satellite imagery (case study: changes of Lake Urmia) | |
CN112884029B (zh) | 融合全极化sar与高光谱遥感的协同分类方法 | |
Carmo et al. | Deep learning approach for tropical cyclones classification based on C-band sentinel-1 SAR images | |
Wu et al. | Fusing optical and synthetic aperture radar images based on shearlet transform to improve urban impervious surface extraction | |
Vasilyeva et al. | Lossy compression of three-channel remote sensing images with controllable quality | |
Wang et al. | [Retracted] Remote Sensing Satellite Image‐Based Monitoring of Agricultural Ecosystem | |
Li et al. | Multitemporal SAR images change detection based on joint sparse representation of pair dictionaries | |
Malladi et al. | Cloud masking technique for high-resolution satellite data: an artificial neural network classifier using spectral & textural context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |