CN113705340B - 一种基于雷达遥感数据的深度学习变化检测方法 - Google Patents

一种基于雷达遥感数据的深度学习变化检测方法 Download PDF

Info

Publication number
CN113705340B
CN113705340B CN202110804698.2A CN202110804698A CN113705340B CN 113705340 B CN113705340 B CN 113705340B CN 202110804698 A CN202110804698 A CN 202110804698A CN 113705340 B CN113705340 B CN 113705340B
Authority
CN
China
Prior art keywords
change detection
data
images
radar
pauli
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110804698.2A
Other languages
English (en)
Other versions
CN113705340A (zh
Inventor
李世华
翟鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110804698.2A priority Critical patent/CN113705340B/zh
Publication of CN113705340A publication Critical patent/CN113705340A/zh
Application granted granted Critical
Publication of CN113705340B publication Critical patent/CN113705340B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于土地覆盖变化检测技术领域,具体涉及一种基于雷达遥感数据的深度学习变化检测方法。本发明利用全极化雷达遥感影像在一定程度上避免了光学遥感数据在多云多雨地区难以获取的缺陷,并通过在创建的数据集时使用前后年份的多个月份的数据,在一定程度上避免了季节因素带来的伪变化;通过前、后时相多景全极化雷达影像,提取多维初始特征,并根据初始特征影像构建差异影像;同时,针对小样本问题,采用了MobileNet轻量级网络模型的深度可分离卷积结构,并且将该结构与U‑Net基础框架有机结合,利用所构造的轻量级模型进行变化检测,以实现在小样本数据集上有效的获得变化检测结果。最终本发明实现了自动、高效且准确地提取变化检测结果。

Description

一种基于雷达遥感数据的深度学习变化检测方法
技术领域
本发明属于土地覆盖变化检测技术领域,具体涉及一种基于雷达遥感数据的深度学习变化检测方法。
背景技术
遥感影像变化检测是利用多时相遥感影像,使用变化检测的算法来提取不同时相遥感影像之间的变化信息,这种技术已经成熟的应用于土地覆盖/土地利用、自然灾害评估、城市化建设以及农作物生长等方面。
国内外学者利用光学遥感影像针对变化检测已经开展了一些研究,Shen等针对不相邻像元对分类的影响提出一个分类框架,利用全卷积网络(FullyConvolution Network,FCN)合并远程上下文信息,在高光谱数据集上得到良好的分类效果。Lyu等首次将循环神经网络应用于变化检测,作者使用改进的长短期记忆网络(Long Short-Term Memory,LSTM)来获取和记录长时间序列光学遥感数据的变化信息。Mou等首次结合卷积神经网络(Convolutional Neural Networks,CNN)和循环神经网络(Recurrent Neural Network,RNN)用于多光谱影像的变化检测,相较于单独使用两种网络,耦合网络在各项精度指标上都有更好的表现。Zhao等提出了一种基于度量学习的生成对抗网络(GenerativeAdversarial Networks,GAN)用来最大限度的排除季节变化带来的伪变化特征,从而有效获取真实的变化结果。Saha等将改进的生成对抗网络(GAN)用于Sentinel-2影像,改进的网络模型可以有效的建模上下文信息并处理多光谱影像中的大量波段。
然而我国西南地区常年多云多雨,因此高质量的光学影像通常难以获取。合成孔径雷达(Synthetic Aperture Radar,SAR)由于其特殊的成像机理,能够在恶劣的天气条件下获得较好的高分辨率雷达图像,能够全天时、全天候的工作,非常适用于变化检测任务。针对深度学习应用于SAR变化检测任务,Geng等提出了一种深度联合分布自适应网络,针对非同源但相似目标分布的SAR影像变化检测有着良好的检测效果,为解决SAR影像迁移学习问题提供了新的范式。Gong等提出了一个解决三元变化检测问题的框架,首先利用系稀疏自编码器(sparse autoencoder,SAE)将对数比值差异影像转换为合适的特征空间用以提取关键变化并抑制噪声,然后用卷积神经网络训练由无监督聚类方法获取可靠的样本标签数据最终获得检测结果。Gao等提出了一种多级融合网络,充分利用低、中、高层特征之间的互补信息来实现SAR图像检测海冰变化。Fang等提出了一种局部受限的卷积网络用于SAR的变化检测,它通过对网络的输出层加以空间约束,以便从多个分层差异影像中学习变化特征。
综上所述,尽管基于深度学习的方法逐渐应用到SAR影像的变化检测任务中,但由于SAR影像获取成本较高,且由于特殊的成像机理导致目视解译的难度较大,针对变化检测相关的公开数据集较少,因此利用深度学习方法进行变化检测的研究还不够充分,并且绝大多数公开数据集只含有双极化或单极化信息而不包含全极化信息,极大阻碍了多极化SAR在变化检测领域的发展。针对上述情况,本发明使用U-Net基础框架,并采用MobileNet的深度可分离卷积模块代替U-Net的传统卷积模块,使用全极化数据进行变化检测,获得了良好的效果。
发明内容
针对上述存在问题或不足,本发明提供了一种基于雷达遥感数据的深度学习变化检测方法,使用全极化雷达遥感数据,建立了一个可以实现获取端到端的变化检测结果的语义分割模型,该模型使用三通道输入,输入不同的雷达初始差异特征,经过特征提取器的提取,实现了变化与未变化的结果获取。
一种基于雷达遥感数据的深度学习变化检测方法,具体步骤如下:
步骤一、雷达数据预处理:
首先需要对获取的数据进行预处理,以获取不同极化方式、Pauli分解以及Freeman-Durden分解影像。
获取不同极化方式(HH、VV和VH)的影像需要依次经过辐射定标、多视处理、地形校正、斑点滤波和转换分贝值的操作;获取Freeman-Durden分解影像需要对初始雷达影像依次进行辐射定标、多视处理、地形校正、Freeman-Durden极化分解和极化滤波的操作。获取Pauli分解影像需要对初始雷达影像依次进行辐射定标、多视处理、地形校正、Pauli极化分解和极化滤波的操作。
由于雷达信号可以传送水平(H)或者垂直(V)电场矢量,接收水平(H)或者垂直(V)信号,因此全极化要求同时发射H和V,包含了四种极化方式:HH、HV、VV、VH,由于VH和HV特征值相近,因此我们在后续的实验中,仅使用了HH、VV、VH极化方式。
步骤二、获取雷达差异影像:
步骤一处理完毕后,紧接着需要构建差异影像用于后续提取差异信息。本发明按照时间先后数据一一对应的方式采用对数比值法求取差异影像,对数比值法由下式定义:
Figure BDA0003166044980000021
其中,b1表示后时相参数波段,b2表示前时相与b1相同的参数波段。
生成的差异影像在每个时间都包含三波段参数,包括HH、VV和VH三波段,Freeman分解的dbl、vol和surf三波段,Pauli分解的Pauli_r、Pauli_g和Pauli_b三波段,因此单一时间包含3幅差异影像,本发明共采用了n个时间差,因此共包含数据n×3幅,n≥1。
步骤三、差异影像标准化;
由于不同极化方式、Freeman分解参数和Pauli分解参数物理含义有所不同,在表达中存在量纲的区别,同时各种参数的特征值多出现负值,为了避免输入数据出现的混乱导致可能对模型训练造成干扰,我们对所有差异影像的像素值进行了0-255的标准化。标准化的方式由下式定义:
Figure BDA0003166044980000031
其中Inij表示输入影像目标像元的像素值,Outij表示经过标准化输出后该像元的像素值,其中i和j分别为影像的行列元素,xmin和xmax分别表示输入影像的原始像素值的最小和最大值,ymax和ymin分别表示标准化的范围,此处分别为255和0。
步骤四、数据集的生成与扩展;
通过人工标注变化标签,并利用步骤二生成的n×3幅差异影像以及对应的变化标签生成数据集,采用随机裁剪的方式生成的变化检测数据集每张大小为512×512,共1000张。然后按照训练、测试、验证比例为8:1:1的方式分配数据集,同时在训练的过程中,对读入的数据集进行水平或垂直翻转、旋转及亮度变化等随机图像处理,用以对训练数据的扩展,提高模型的鲁棒性,降低模型过拟合的风险。
步骤五、模型的构建、训练与验证;
将MobileNet模型的深度可分离卷积基组件替代U-Net深度学习模型中上、下采样时所用卷积,以完成模型的构建。
本发明所采用的深度学习模型基本框架为U-Net,同时我们将其与MobileNet网络结构有机的结合起来提出了MobileUNet模型结构用于变化检测,MobileNet模型是一个轻量级的模型,其基组件是深度可分离卷积,将该卷积结构替代U-Net深度学习模型中上、下采样时所用的卷积,至此完成模型的构建。本发明构建的模型可以极大程度的减少U-Net模型的参数量,降低U-Net模型的计算复杂度,同时保留U-Net模型的基础框架,结合二者的优势,可以有效的提取全极化SAR影像的变化信息。
将步骤四获取的数据集按照步骤四的数据分配方式依次进行训练、验证和测试,验证的目的在于通过查看验证的精度以及损失函数的值来判定是否需要提前终止。在训练结束后,将测试数据集输入到训练好的模型中,获得测试精度以及最终的变化检测结果。
本发明通过在创建的数据集时使用了前后年份的多个月份的数据,在一定程度上避免了季节因素带来的伪变化;同时,针对小样本问题,我们采用了MobileNet轻量级网络模型的深度可分离卷积结构,并且将该结构与U-Net基础框架有机结合,利用本发明所构造的轻量级模型进行变化检测,结果表明,该模型可以在小样本数据集上有效的获得变化检测结果。
本发明通过前、后时相多景全极化雷达影像,提取多维初始特征,并根据初始特征影像构建差异影像;利用轻量级网络实现了自动、高效且准确地提取变化检测结果;同时,利用多时相全极化雷达遥感影像在一定程度上避免了光学遥感数据难以获取的缺陷,避免了由季节不同引起的伪变化现象。
附图说明
图1为本发明的流程示意图;
图2为实施例的研究区域;
图3为实施例的网络结构简图;
图4为实施例的普通卷积和深度可分离卷积对比图;
图5为实施例的测试结果图。
具体实施方式
下面结合附图和实施例对本发明做进一步的详细说明。
步骤1:本实施例使用的雷达数据为精细波束模式全极化(Fine Quad-Pol)的单视复型(SLC,Single Look Complex)Radarsat-2数据,将所有原始雷达数据按照发明内容步骤一的方法进行预处理,影像原始大小为2000×2000。数据详情一览表如表1。
表1数据详情
Figure BDA0003166044980000041
步骤2:搭建开发环境,本实施例开发环境为PyCharm,编程语言为Python,具体实验硬件软件环境如下表。
表2硬件设备详情
硬件 品牌 参数
显卡 英伟达GeForce RTX2080-TI(11GB)
处理器 英特尔Core I7-9700@3.60GHz8核
内存 海盗船WDC 3200MHz32G
机械硬盘 西数WDC 2T 7200转
固态硬盘 英特尔SSD 512GB
表2软件详情
软件 版本
Ubuntu 16.04LTS
Tensorflow-gpu 1.13.1
Cuda Version10.0
CuDnn Version10.0
OpenCV 3.4.1
Anaconda3 5.1.0
PyCharm 2019
Python 3.6.3
Numpy 1.14.2
步骤3:按照发明内容步骤二提及的对数比值法,按照一一对应的方式获得雷达差异影像,一一对应的要求为时间以及参数的对应,具体准则为:2016年5月15日、6月8日、7月2日、7月26日按照发明内容步骤一处理后的影像与2019年5月7日、5月31日、6月24日、7月18日处理后的影像一一对应分别求取差异影像;参数的一一对应则为在时间对应的基础上,如2016年5月15日与2019年5月7日处理后的影像使用相同波段参数利用对数比值法求取差异指标,生成的差异影像大小同样为2000×2000。
步骤4、数据集的生成与扩展
然后按照发明内容的步骤三所提及的方法对雷达差异影像的每一个参数进行特征标准化,将标准化后的单参数波段进行波段叠加为三波段,包括HH、VV、VH三波段,Freeman分解的dbl、vol、surf三波段,Pauli分解的Pauli_r、Pauli_g、Pauli_b三波段。
使用代码将叠加后的影响按照随机窗口大小为512×512的大小对进行随机裁剪获得变化检测数据集。
步骤5:将变化检测数据集根据训练、测试、验证为8:1:1的大小进行分配进行训练和测试。训练、验证和测试过程如下:
(1)由于我们的数据量较大,同时考虑到设备的内存因素,需要设置batchsize为4,它表示每次输入到网络的训练数据的数量。
(2)模型根据梯度下降的算法进行循环迭代寻找最优解,迭代次数设置为350。
为了寻找目标最优解,引入损失函数进行评估,损失函数所表达的是模型的测试值与真实值之间的差异。本发明优选使用了交叉熵损失函数,交叉熵损失函数相比平方差损失函数能够在梯度很小的情况下继续训练,同时能够加速模型的收敛。
为了让模型更快的收敛,我们使用优化算法来不断地更新训练参数,优化算法多种多样,本发明使用了Adam(Adaptive Moment Estimation)算法,它结合了动量梯度下降算法和RMSprop算法各自的优点,使得神经网络训练的速度大大提高,Adam需要设置学习率用以控制学习的步长,学习率设置为0.001。
(3)每一次迭代结束后,利用验证数据集对当前迭代结果进行验证,获取当前验证精度,并判断当前训练过程是否存在过拟合或欠拟合情况,如果存在则需要重新设定参数直到损失函数值下降到预期值。
(4)在训练结束后,将测试数据集输入到训练好的模型中,获得测试精度以及最终的变化检测结果。
MobileUNet网络结构的基本原理是:MobileUNet结构延续了U-Net的基础框架,分为编码和解码部分,具体结构如图说明书附图3所示。在编码部分本发明的卷积采用了MobileNet的深度可分离卷积,该结构可以在一定程度上减少模型的参数,它的思想是将一个完整的卷积运算分解为两步进行,分别是Depthwise Convolution和PointwiseConvolution。说明书图4中,左图为普通卷积,右图为深度可分离卷积,模型的其它结构保留了U-Net的结构,包括5次下采样和5次上采样,同时在上采样还原特征中采用skip与对应的下采样连接实现与高维与低级特征的融合。
图5为本实施例的测试结果图:(a)样区一标签,(b)样区一测试结果,(c)样区二标签,(d)样区二测试结果;在测试集上获得的结果为精确率96.30,召回率95.99,F1-Measure96.09,Mean-IOU81.19。可见本发明使用全极化雷达遥感数据,通过建立了可获取端到端的变化检测结果的语义分割模型,从而有效实现了变化与未变化的结果获取。

Claims (1)

1.一种基于雷达遥感数据的深度学习变化检测方法,其特征在于,包括以下步骤:
步骤一、雷达数据预处理:
首先对获取的数据进行预处理,以获取不同极化方式、Pauli分解以及Freeman-Durden分解影像;
获取不同极化方式的影像需要依次经过辐射定标、多视处理、地形校正、斑点滤波和转换分贝值的操作;获取Freeman-Durden分解影像需要对初始雷达影像依次进行辐射定标、多视处理、地形校正、Freeman-Durden极化分解和极化滤波的操作;获取Pauli分解影像需要对初始雷达影像依次进行辐射定标、多视处理、地形校正、Pauli极化分解和极化滤波的操作;
不同极化方式为HH、VV和VH极化方式;
步骤二、获取雷达差异影像:
按照前后两年数据一一对应的方式采用对数比值法求取差异影像,对数比值法由下式定义:
Figure FDA0004061722930000011
其中,b1表示后时相参数波段,b2表示前时相与b1相同的参数波段;
生成的差异影像在每个时间都包含三波段参数,包括HH、VV和VH三波段,Freeman分解的dbl、vol和surf三波段,Pauli分解的Pauli_r、Pauli_g和Pauli_b三波段,因此单一时间包含3幅差异影像,共采用了n个时间差,因此共包含数据n×3幅,n≥1;
步骤三、差异影像标准化;
对所有差异影像的像素值进行了0-255的标准化,标准化的方式由下式定义:
Figure FDA0004061722930000012
其中Inij表示输入影像目标像元的像素值,Outij表示经过标准化输出后该像元的像素值,其中i和j分别为影像的行列元素,xmin和xmax分别表示输入影像的原始像素值的最小和最大值,ymax和ymin分别表示标准化的范围,此处分别为255和0;
步骤四、数据集的生成与扩展;
通过人工标注变化标签,并利用步骤二生成的n×3幅差异影像以及对应的变化标签生成数据集,采用随机裁剪的方式生成每张大小为512×512共1000张的变化检测数据集;然后按照训练、测试、验证比例为8:1:1的方式分配数据集,同时在训练的过程中,对读入的数据集进行水平或垂直翻转、旋转及亮度变化的随机图像处理,用以对训练数据的扩展;
步骤五、模型的构建、训练与验证;
将MobileNet模型的深度可分离卷积基组件替代U-Net深度学习模型中上、下采样时所用的卷积,以完成模型的构建;
将步骤四获取的数据集按照步骤四的数据分配方式依次进行训练、验证和测试,验证的目的在于通过查看验证的精度以及损失函数的值来判定是否需要提前终止;在训练结束后,将测试数据集输入到训练好的模型中,获得测试精度以及最终的变化检测结果。
CN202110804698.2A 2021-07-16 2021-07-16 一种基于雷达遥感数据的深度学习变化检测方法 Active CN113705340B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110804698.2A CN113705340B (zh) 2021-07-16 2021-07-16 一种基于雷达遥感数据的深度学习变化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110804698.2A CN113705340B (zh) 2021-07-16 2021-07-16 一种基于雷达遥感数据的深度学习变化检测方法

Publications (2)

Publication Number Publication Date
CN113705340A CN113705340A (zh) 2021-11-26
CN113705340B true CN113705340B (zh) 2023-04-07

Family

ID=78648733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110804698.2A Active CN113705340B (zh) 2021-07-16 2021-07-16 一种基于雷达遥感数据的深度学习变化检测方法

Country Status (1)

Country Link
CN (1) CN113705340B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708514B (zh) * 2022-03-29 2023-04-07 中山大学 一种基于深度学习的森林砍伐变化的检测方法及装置
CN114926740A (zh) * 2022-06-01 2022-08-19 江西省水利科学院 一种基于深度学习改进的高分遥感影像耕地提取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832798A (zh) * 2017-11-20 2018-03-23 西安电子科技大学 基于nsct阶梯网模型的极化sar图像目标检测方法
CN111681197A (zh) * 2020-06-12 2020-09-18 陕西科技大学 一种基于Siamese网络结构的遥感图像无监督变化检测方法
CN112016436A (zh) * 2020-08-28 2020-12-01 北京国遥新天地信息技术有限公司 一种基于深度学习的遥感影像变化检测方法
CN112906638A (zh) * 2021-03-19 2021-06-04 中山大学 一种基于多层次监督和深度度量学习的遥感变化检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11507775B2 (en) * 2018-12-05 2022-11-22 Here Global B.V. Method and apparatus for matching heterogeneous feature spaces

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832798A (zh) * 2017-11-20 2018-03-23 西安电子科技大学 基于nsct阶梯网模型的极化sar图像目标检测方法
CN111681197A (zh) * 2020-06-12 2020-09-18 陕西科技大学 一种基于Siamese网络结构的遥感图像无监督变化检测方法
CN112016436A (zh) * 2020-08-28 2020-12-01 北京国遥新天地信息技术有限公司 一种基于深度学习的遥感影像变化检测方法
CN112906638A (zh) * 2021-03-19 2021-06-04 中山大学 一种基于多层次监督和深度度量学习的遥感变化检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dino lenco等.combining sentinel-1 and sentinel-2 satellite image time series for land cover mapping via a multi-source deep learning architecture.ISPRS journal of photogrammetry and remote sensing.2019,第158卷11-22. *
杨国铮 ; 禹晶 ; 肖创柏 ; 孙卫东 ; .基于形态字典学习的复杂背景SAR图像舰船尾迹检测.自动化学报.2017,第43卷(第10期),1713-1725. *
翟鹏飞.基于全极化雷达遥感数据的土地覆盖变化检测方法研究.中国优秀硕士学位论文全文数据库基础科学辑.2023,(第1期),A008-365. *

Also Published As

Publication number Publication date
CN113705340A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN111383192B (zh) 一种融合sar的可见光遥感图像去雾方法
US11521379B1 (en) Method for flood disaster monitoring and disaster analysis based on vision transformer
CN108537742B (zh) 一种基于生成对抗网络的遥感图像全色锐化方法
CN109636742B (zh) 基于对抗生成网络的sar图像和可见光图像的模式转换方法
CN108921799B (zh) 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
CN113705340B (zh) 一种基于雷达遥感数据的深度学习变化检测方法
CN108647568B (zh) 基于全卷积神经网络的草地退化自动提取方法
CN113343789A (zh) 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法
CN113312993B (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
CN110910413A (zh) 一种基于U-Net的ISAR图像分割方法
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN113222824B (zh) 一种红外图像超分辨率及小目标检测方法
Long et al. Bishift networks for thick cloud removal with multitemporal remote sensing images
CN115546656A (zh) 一种基于深度学习的遥感影像养殖区域提取方法
CN115937707A (zh) 基于多尺度残差注意力模型的sar影像水体提取方法
CN115375548A (zh) 一种超分辨率的遥感图像生成方法、系统、设备和介质
Zhou et al. MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution
CN114092803A (zh) 基于遥感图像的云检测方法、装置、电子设备及介质
CN114926826A (zh) 场景文本检测系统
CN113393385B (zh) 基于多尺度融合的无监督去雨方法、系统、装置及介质
Wang et al. Afdn: Attention-based feedback dehazing network for UAV remote sensing image haze removal
CN115984714B (zh) 一种基于双分支网络模型的云检测方法
CN117058367A (zh) 高分辨率遥感影像建筑物语义分割方法及装置
CN115546658B (zh) 一种数据集质量提升与改进cnn相结合的夜间云检测方法
CN116310325A (zh) 一种从patch到region架构的大幅面遥感影像语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant