CN112733746A - 融合InSAR相干性与多光谱遥感的协同分类方法 - Google Patents

融合InSAR相干性与多光谱遥感的协同分类方法 Download PDF

Info

Publication number
CN112733746A
CN112733746A CN202110048697.XA CN202110048697A CN112733746A CN 112733746 A CN112733746 A CN 112733746A CN 202110048697 A CN202110048697 A CN 202110048697A CN 112733746 A CN112733746 A CN 112733746A
Authority
CN
China
Prior art keywords
image
classification
remote sensing
coherence
insar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110048697.XA
Other languages
English (en)
Other versions
CN112733746B (zh
Inventor
李鹏
刘洁
李振洪
王厚杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202110048697.XA priority Critical patent/CN112733746B/zh
Publication of CN112733746A publication Critical patent/CN112733746A/zh
Application granted granted Critical
Publication of CN112733746B publication Critical patent/CN112733746B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于空间对地观测(卫星遥感)与湿地地理环境学科交叉领域,具体涉及一种融合InSAR相干性与多光谱遥感的协同分类方法,对同一区域合成孔径雷达主影像和辅影像进行相关性计算,利用Python语言对光学以及SAR影像进行重采样到相同分辨率;利用Python语言将样本矢量文件转换为栅格数据并进行标签提取一并作为分类器的训练样本,对影像训练数据集进行分类器模型训练;将重采样过后的影像分别拉伸成不同的一维特征向量,然后组合成为预测数据集;调用先前训练完成的模型实现标签值的预测。本发明方法可以直接用于InSAR相干性与多光谱遥感影像湿地协同分类,同时也可应用于其他场景下的地物类型分类。

Description

融合InSAR相干性与多光谱遥感的协同分类方法
技术领域
本发明属于空间对地观测(卫星遥感)与湿地地理环境技术学科交叉领域,具体涉及一种融合InSAR相干性与多光谱遥感的协同分类方法。
背景技术
湿地是水陆生态系统间的过渡地域,拥有众多动植物资源,是极其重要的自然生态系统,具有强大的环境净化能力,对生物多样性、水质保护、气候改善、径流调节等有重要意义。近年来,全球湿地受到人类过度开发与全球变化的双重影响,导致面积锐减、生态环境恶化。以黄河三角洲为例,该地区面临断流、污染、海水入侵等威胁,湿地面积萎缩、生态破坏与功能退化等问题。因此,对湿地环境变化的连续监测,对湿地环境、资源保护与开发等极其重要。
与传统地面监测技术相比,湿地遥感技术具有数据获取方便、时空尺度多样、光谱信息丰富、覆盖面广等优势,近年来成为湿地环境监测的重要手段。但是,可见光遥感资料通常受到光照条件、云覆盖等客观限制,并且难以穿透植被,尤其是在植被覆盖密集的热带、亚热带等地区,经常难以获得足够的高质量无云影像,使其在湿地变化研究中受到显著地制约。作为一种主动成像传感器,合成孔径雷达(Synthetic Aperture Radar,SAR)能够穿透云雾以及部分植被冠层,具备全天时、全天候和高空间分辨率观测能力。同时,雷达信号蕴含了丰富的强度、相位、极化等信息,因此湿地相干性的时空变化特征可以为湿地生态环境监测提供重要的参考。
发明内容
针对上述技术问题,本发明提供一种融合InSAR相干性与多光谱遥感影像的湿地协同分类方法,基于多源融合数据对具有复杂地物类型的湿地地区分类的信号优势,以黄河口湿地地区为例,详细分析了融合相InSAR相关性与多光谱遥感影像对湿地分类的影响,进一步讨论不同分类模型的差异,并给出分类精度报告。组合不同的遥感数据,可以进行复杂地物的高精度分类。
具体的技术方案为:
融合InSAR相干性与多光谱遥感的协同分类方法,包括以下步骤:
(1)干涉图主辅影像根据下式进行相关性计算,得到相关系数图像;
Figure BDA0002898410020000011
E[]为数学期望,u1、u2分别为主、辅图像,
Figure BDA0002898410020000021
表示辅图像共轭复数。在实际遥感影像相干处理应用中上式数学式变换式为:
Figure BDA0002898410020000022
其中N,H分别为选取的图像滑动窗口的高和宽u1(n,m)、u2(n,m)分别为主、辅图像位于滑动窗口(n,m)处像素的复数值,
Figure BDA0002898410020000023
表示了辅图像在相同位置像素的共轭复数。通过相关性计算得到的影像像素值保持在0-1之间,其中0表示图像完全不相关,1表示图像完全相关;
(2)根据步骤(1),利用Python语言将相关系数图像(以Sentinel-1BTOPSAR卫星为例)和光学遥感影像(以Sentinel-2多光谱遥感卫星为例),投影到同一坐标系下并进行重采样,得到具有相同空间分辨率的影像文件;
(3)根据步骤和(2),利用Python语言对实地观测得到的样本区域土地利用类型矢量数据进行栅格化,并提取每个像素的类型标签值;
(4)根据步骤(3),基于Python语言对样本数据以及样本标签值进行RF、NB、MLP等监督分类模型训练,为影像分类预测做准备;
(5)根据步骤(1)和步骤(4),基于训练完成的各种分类模型,对拉伸成一维特征向量的重采样影像文件进行无标签值预测;
(6)根据步骤(5),基于联合影像的投影坐标系,将完成预测的一维标签值输出为带有地理信息的图像,将标签值与地物类型进行匹配并分配给带有不同标签值的像素不同的显示色彩,可用于遥感影像分类等应用;
朴素贝叶斯分类算法是基于贝叶斯理论发展而来:
Figure BDA0002898410020000024
其中,y是类变量,X是特征向量(大小为n)。
X=(x1,x2,x3,...,xn) (4)
只要给出了事件X为真,那么就能算出事件y发生的概率,事件X也被称为证据,P(y)是事件y的先验概率,P(y|X)是X的后验概率。贝叶斯理论朴素假设认为每个特征都相互独立。假定两个事件A和B是相互独立的,那么有:
P(AB)=P(A)P(B) (5)
因此(3)式可以换成以下公式:
Figure BDA0002898410020000031
因为分母与输入数据是常量相关的,所以可以去除分母项。现在需要建立一个分类模型,用已知的类变量y的所有可能值计算概率,并选择输出概率是最大的结果:
Figure BDA0002898410020000032
随机森林算法是通过集成思想将多棵单元决策树集成,并进行投票,投票数最多类型即为输出类型,从而最终达到分类目的的一种集成学习方法。随机森林的随机性在于通过BootstrapSample方法,随机有放回的从训练样本中进行抽样并进行训练。
多层感知机(MLP,Multilayer Perceptron)又称为人工神经网络(ANN,Artificial Neural Network),包括输入层、隐藏层以及输出层。最简单的MLP只含有一层隐藏层,输入层(InputLayer)通过权重参数(WeightParameter)生成隐藏层(HiddenLayer),隐藏层通过激活函数生成输出层。当隐藏层与输出层特征数量相同时,称为全连接(Fully Connect)。
本发明提供的融合InSAR相干性与多光谱遥感的协同分类方法,具有的技术效果:
(1)InSAR相关性具有探测物体前后时间段内地表雷达波后向散射系数变化的能力,在影像数据比较稀疏的时候,可以为地物分类带来一定程度上的观测特征弥补。
(2)对于不同分类方法,分类精度会有大的差异,总体结果显示协同分类相比单一数据分类精度都有一定程度改善。
附图说明
图1为实例研究区域-黄河口湿地地区示意图,其中方框代表的Sentinel-1B与Sentinel-2影像数据的研究范围;
图2为实例基于多层感知机(MLP)、朴素贝叶斯(NB)、随机森林(RF)模型得到的黄河口湿地地物分类结果;
图3为实例基于三种分类模型的光学影像、InSAR相关系数影像以及二者协同分类结果的F1_Score精度折线图;
图4为研究涉及的每种地物类型相关系数均值年变化统计图;
图5为研究涉及的每种地物类型相关系数标准差年变化统计图。
具体实施方式
结合实施例说明本发明的具体技术方案。
以Sentinel-2多光谱和Sentinel-1SAR遥感数据为例,开展面向湿地的融合InSAR相干性与多光谱遥感影像的协同分类,并讨论协同分类精度、相关性估计以及年变化水平。相比Sentinel-2多光谱数据,Sentinel-1多极化模式TOPSAR数据可以克服光照条件、云覆盖等客观限制条件,同时提供丰富的强度、相位、极化等信息。另外,经过数据检索发现目前可获取的重访周期为12天的Sentinel-1干涉对非常丰富,可以获取短时间基线的干涉图像。
如图1所示,黄河口湿地位于中国山东省东营市东北部黄河入海口,东临莱州湾,北靠渤海,属温带大陆性季风气候,年均气温12.1℃,年降水量551.6mm。该地区动植物资源丰富,其中湿地植被以水生、盐生为主,土壤类型以潮土、盐土为主。如图1所示,因人类开发活动影响,该处也遍布盐田、养殖池、农田、人工构筑物等地物类型,地物类型复杂多样且易受人为干扰,所以对该区域的地物分类难度较大。
如图2、图3所示,基于融合InSAR相干性与多光谱遥感影像的协同分类方法分别对光学影像、InSAR相关性影像以及二者协同影像进行MLP、NB、RF监督分类,从结果上可以观察出InSAR相关系数单独分类的效果相对不理想;相反,协同分类以及光学遥感分类效果较好且普遍协同分类方法分类精度达到最高,其中基于多层感知机在光学遥感影像上的分类精度高达93.4%。
表1光学影像随机森林分类
Figure BDA0002898410020000041
Figure BDA0002898410020000051
表2 InSAR相关性与光学影像随机森林协同分类
Figure BDA0002898410020000052
如表1和表2所示,三种分类方法中,基于随机森林算法的协同分类结果精度较高可达92.8%左右,对分类混淆矩阵的对比分析中可以得出如下结论:在某些地物类型如建筑、潮滩、稻田,InSAR相关性与多光谱数据协同分类方法表现较好,可以显著提高分类精度;但是对于裸地和盐田地物类型,由于两种地物季节变化大,容易导致地表失相关,协同分类方法导致分类精度下降较明显;在其余地物类型中,协同方法没有带来分类精度明显的提高或者降低。
如图4、图5所示,将协同分类方法得到的不同地物类型矢量边界数据导出,提取2019年全年黄河口地区12景InSAR相干系数图中不同地物类型对应的相干系数均值与标准差。从图中能够明显看出,人工建筑物全年都保持较高的相干性均值(相干性均值普遍保持在0.5以上)以及较为稳定的相干性标准差(标准差基本保持在0.2~0.25之间);水体全年都保持最低的相干性均值且变化稳定以及大部分时间的标准差最低值。裸地在冬季(2月份)达到全年相干性均值的峰值(0.693),同时这也是全年所有地物类型中相干性均值的最大值,裸地还是所有地物类型中相干性标准差跨度最大的(发生在4~6月份之间,标准差降低了0.12)。3~5月份之间,所有地物类型相干性均值均发生不同程度的降低,分析了时空基线以及入射角差异之后发现,5月份获取SAR影像作为干涉辅影像是4月份影像作为主影像时,全年空间基线(-188.359m)与入射角差异(0.012°,一般入射角差异保持在0.005以下)最大的月份,因此时空基线增大等干涉条件不佳导致所有地物相干系数普遍降低。

Claims (4)

1.融合InSAR相干性与多光谱遥感的协同分类方法,其特征在于,包括以下步骤:
(1)合成孔径雷达主辅影像进行相关性计算,得到相关系数图像;
(2)根据步骤(1),将相关系数图像以及光学影像投影到同一坐标系下并进行重采样,得到具有相同空间分辨率的影像文件;
(3)根据步骤(2),对实地观测得到的样本区域土地利用类型矢量数据进行栅格化,并提取每个像素的类标签值;
(4)根据步骤(3),对样本数据以及样本标签值进行监督分类模型训练,为影像分类做准备;
(5)根据步骤(1)和步骤(4),基于训练完成的三种分类模型,对拉伸成一维特征向量集的重采样影像文件进行无标签值预测;
(6)根据步骤(5),基于联合影像的投影坐标系,将完成预测的一维标签值输出为带有地理信息的影像,将标签值与地物类型进行匹配,并分配给带有不同标签值的像素不同的显示色彩,完成影像分类。
2.根据权利要求1所述的融合InSAR相干性与多光谱遥感的协同分类方法,其特征在于,步骤(1)中进行相关性计算,得到相关系数图像;
Figure FDA0002898410010000011
其中N,H分别为选取的图像滑动窗口的高和宽u1(n,m)、u2(n,m)分别为主、辅图像位于滑动窗口(n,m)处像素的复数值,
Figure FDA0002898410010000012
同样表示了辅图像在相同位置像素的共轭复数;通过相关性计算得到的影像像素值保持在0-1之间,其中0表示图像完全不相关,1表示图像完全相关。
3.根据权利要求1所述的融合InSAR相干性与多光谱遥感的协同分类方法,其特征在于,步骤(2)到步骤(4)利用Python语言。
4.根据权利要求1所述的融合InSAR相干性与多光谱遥感的协同分类方法,其特征在于,步骤(4)进行监督分类模型训练采用随机森林、朴素贝叶、多层感知机。
CN202110048697.XA 2021-01-14 2021-01-14 融合InSAR相干性与多光谱遥感的协同分类方法 Active CN112733746B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110048697.XA CN112733746B (zh) 2021-01-14 2021-01-14 融合InSAR相干性与多光谱遥感的协同分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110048697.XA CN112733746B (zh) 2021-01-14 2021-01-14 融合InSAR相干性与多光谱遥感的协同分类方法

Publications (2)

Publication Number Publication Date
CN112733746A true CN112733746A (zh) 2021-04-30
CN112733746B CN112733746B (zh) 2022-06-28

Family

ID=75593004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110048697.XA Active CN112733746B (zh) 2021-01-14 2021-01-14 融合InSAR相干性与多光谱遥感的协同分类方法

Country Status (1)

Country Link
CN (1) CN112733746B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420838A (zh) * 2021-08-20 2021-09-21 中国科学院空天信息创新研究院 基于多尺度注意力特征融合的sar与光学图像分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463229A (zh) * 2014-12-30 2015-03-25 哈尔滨工业大学 基于相关系数冗余度的高光谱数据有监督分类方法
CN105956622A (zh) * 2016-04-29 2016-09-21 武汉大学 基于多特征联合建模的极化sar影像分类方法
CN107292920A (zh) * 2017-06-15 2017-10-24 武汉大学 一种联合分类的多时相全极化sar影像变化检测方法
CN109711446A (zh) * 2018-12-18 2019-05-03 中国科学院深圳先进技术研究院 一种基于多光谱影像和sar影像的地物分类方法及装置
CN110363221A (zh) * 2019-06-12 2019-10-22 河海大学 基于Bagging的高光谱遥感协同表示集成学习分类方法
CN111144250A (zh) * 2019-12-15 2020-05-12 东南大学 融合雷达和光学遥感数据的土地覆盖分类方法
CN111652193A (zh) * 2020-07-08 2020-09-11 中南林业科技大学 基于多源影像的湿地分类方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463229A (zh) * 2014-12-30 2015-03-25 哈尔滨工业大学 基于相关系数冗余度的高光谱数据有监督分类方法
CN105956622A (zh) * 2016-04-29 2016-09-21 武汉大学 基于多特征联合建模的极化sar影像分类方法
CN107292920A (zh) * 2017-06-15 2017-10-24 武汉大学 一种联合分类的多时相全极化sar影像变化检测方法
CN109711446A (zh) * 2018-12-18 2019-05-03 中国科学院深圳先进技术研究院 一种基于多光谱影像和sar影像的地物分类方法及装置
CN110363221A (zh) * 2019-06-12 2019-10-22 河海大学 基于Bagging的高光谱遥感协同表示集成学习分类方法
CN111144250A (zh) * 2019-12-15 2020-05-12 东南大学 融合雷达和光学遥感数据的土地覆盖分类方法
CN111652193A (zh) * 2020-07-08 2020-09-11 中南林业科技大学 基于多源影像的湿地分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RUIMEI HAN ET AL.: "An Improved Urban Mapping Strategy Based on Collaborative Processing of Optical and SAR Remotely Sensed Data", 《MATHEMATICAL PROBLEMS IN ENGINEERING》 *
李鹏 等: "黄河三角洲地区GF-3雷达数据与Sentinel-2多光谱数据湿地协同分类研究", 《武汉大学学报 信息科学版》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420838A (zh) * 2021-08-20 2021-09-21 中国科学院空天信息创新研究院 基于多尺度注意力特征融合的sar与光学图像分类方法
CN113420838B (zh) * 2021-08-20 2021-11-02 中国科学院空天信息创新研究院 基于多尺度注意力特征融合的sar与光学图像分类方法

Also Published As

Publication number Publication date
CN112733746B (zh) 2022-06-28

Similar Documents

Publication Publication Date Title
Sun et al. Classification mapping of salt marsh vegetation by flexible monthly NDVI time-series using Landsat imagery
Tian et al. Aboveground mangrove biomass estimation in Beibu Gulf using machine learning and UAV remote sensing
Yang et al. Timely and accurate national-scale mapping of urban land in China using Defense Meteorological Satellite Program’s Operational Linescan System nighttime stable light data
Shen et al. Annual forest aboveground biomass changes mapped using ICESat/GLAS measurements, historical inventory data, and time-series optical and radar imagery for Guangdong province, China
Castro Gomez Joint use of Sentinel-1 and Sentinel-2 for land cover classification: A machine learning approach
Chen et al. Aboveground biomass of salt-marsh vegetation in coastal wetlands: Sample expansion of in situ hyperspectral and Sentinel-2 data using a generative adversarial network
CN112884029B (zh) 融合全极化sar与高光谱遥感的协同分类方法
Bacani et al. Markov chains–cellular automata modeling and multicriteria analysis of land cover change in the Lower Nhecolândia subregion of the Brazilian Pantanal wetland
Dong et al. Combing Sentinel-1 and Sentinel-2 image time series for invasive Spartina alterniflora mapping on Google Earth Engine: A case study in Zhangjiang Estuary
Xiong et al. Comparison of artificial neural network and support vector machine methods for urban land use/cover classifications from remote sensing images a case study of Guangzhou, South China
Sun et al. Extracting distribution and expansion of rubber plantations from Landsat imagery using the C5. 0 decision tree method
Wan et al. Modeling wetland aboveground biomass in the Poyang Lake National Nature Reserve using machine learning algorithms and Landsat-8 imagery
Zhu et al. Estimating and mapping mangrove biomass dynamic change using WorldView-2 images and digital surface models
Yang et al. MSFusion: Multistage for remote sensing image spatiotemporal fusion based on texture transformer and convolutional neural network
CN112733746B (zh) 融合InSAR相干性与多光谱遥感的协同分类方法
Song et al. Remote sensing image spatiotemporal fusion via a generative adversarial network with one prior image pair
Fayad et al. Hy-TeC: a hybrid vision transformer model for high-resolution and large-scale mapping of canopy height
Du et al. Monitoring urban impervious surface area change using China-Brazil Earth Resources Satellites and HJ-1 remote sensing images
Fayad et al. Vision Transformers, a new approach for high-resolution and large-scale mapping of canopy heights
Na et al. Wetland mapping in the Zhalong National Natural Reserve, China, using optical and radar imagery and topographical data
Norris et al. Effect of textural features for landcover classification of UAV multispectral imagery of a salt marsh restoration site
Mercier et al. Estimation and monitoring of bare soil/vegetation ratio with SPOT VEGETATION and HRVIR
CN116229285B (zh) 融合物联网数据和空间场景的土壤含水量监测方法
Guo et al. Convolutional Highway Unit Network for Large-Scale Classification with GF-3 Dual-Pol Sar Data
Dubeau Mapping and Characterizing Wetlands and Wetland Dynamics in the Highlands of Ethiopia Using Random Forest Classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant