CN112419197A - 一种通用的单、多时相sar影像相干斑噪声去除方法 - Google Patents

一种通用的单、多时相sar影像相干斑噪声去除方法 Download PDF

Info

Publication number
CN112419197A
CN112419197A CN202011350566.9A CN202011350566A CN112419197A CN 112419197 A CN112419197 A CN 112419197A CN 202011350566 A CN202011350566 A CN 202011350566A CN 112419197 A CN112419197 A CN 112419197A
Authority
CN
China
Prior art keywords
time phase
time
training
phase
speckle noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011350566.9A
Other languages
English (en)
Inventor
沈焕锋
周晨霞
李�杰
袁强强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202011350566.9A priority Critical patent/CN112419197A/zh
Publication of CN112419197A publication Critical patent/CN112419197A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种通用的单、多时相SAR影像相干斑噪声去除方法。首先获取多时相的SAR影像,对多时相SAR影像做预处理,并且使用多时相平均影像作为标签影像,再通过添加不同程度的相干斑噪声,生成训练样本;然后,根据需求构建单、多时相SAR影像相干斑噪声通用网络模型,需考虑网络可输入任意数量时相以及时空信息的充分挖掘;接着根据需求,确定网络训练损失函数、训练优化方法以及超参数;对训练样本进行数据增强,包括归一化、裁剪、翻转旋转等操作;其次对使用训练样本训练网络模型,获得模型参数;输入测试样本到网络中,最终获得输出的相干斑噪声去除影像。本发明操作方便,计算效率高,数据要求低,易于实现且可扩展性强,实用价值高。

Description

一种通用的单、多时相SAR影像相干斑噪声去除方法
技术领域
本发明属于遥感图像处理技术领域,涉及一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法,多时相的SAR影像之间有很大的相关性,其信息具有互补性,因此可以利用多时相的SAR影像辅助进行相干斑去除。
背景技术
SAR具有全天时全天候的对地观测能力,为长时序地表监测提供了数据源。另外随着越来越多的SAR卫星的发射成功,基于多时相的SAR影像的应用也应运而生,例如:森林和灾害的监测、地表覆盖分类、冰川积雪分析等。而在SAR成像过程中,相干斑是不可避免的系统噪声,其严重影响了后续应用的精度。因此对SAR影像的相干斑噪声去除是必不可少的预处理步骤。在过去的几十年内,大多数SAR相干斑噪声去除方法关注于单时相影像的邻域或者非局部的空间信息,而基于多时相的SAR相干斑去除方法在空间信息之外,还可提供额外的时间尺度的信息。然而现有的基于多时相的SAR相干斑噪声去除方法大多数是传统方法,噪声去除效果依赖于人工调节参数,对于时空信息的利用也不够充分。而且多时相的方法对于时相个数的输入比较严格,必须采用多于两个时相的影像,影像数量对于最终的效果也具有较大的影响。那么在只有单时相的情况下就无法采用多时相的方法。因此发展一种单、多时相通用的自动化程度高的SAR相干斑噪声去除方法是由必要的。
发明内容
本发明的目的在于,针对现有技术的上述不足,提供了一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法。该方法基于深度学习卷积神经网络模型,可充分利用多时相影像的时空信息,做到一次训练多次使用,实现自动化需求。另外该方法对输入影像的时相数量无定量要求,因此可利用多时相的影像对该网络模型参数进行训练,再输入任意单或多时相影像进行测试。
为了实现以上目的,本发明所采用的技术方案是:一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法,包括以下步骤:
步骤1,训练样本生成,包括获取多时相的SAR影像数据,对多时相的SAR影像做预处理,使其符合格式要求,生成训练数据样本;
步骤2,搭建单、多时相通用深度卷积神经网络模型,包括残差模块以及时间注意力模块与空间注意力模块;
所述深度卷积神经网络模型由三个部分组成,分别为特征提取层、特征融合层与特征恢复层;
特征提取层负责对输入的单、多时相的影像进行特征提取,由多个残差模块组成;
特征融合层负责对由特征提取层所提取的多时相时间与空间信息进行融合,是由时间注意力模块和空间注意力模块组成;
特征恢复层负责对融合时间和空间信息后的特征进行恢复,输入时空融合后的特征到特征恢复层网络中,其网络结构与特征提取层相同;
步骤3,对训练数据样本做数据增强,即对步骤1所获得的训练数据样本进行数据增强处理;
步骤4,选择网络训练的损失函数、优化方法、初始学习率进行训练;
步骤5,训练单、多时相通用深度卷积神经网络模型,即将步骤1获得的训练数据样本经过步骤3的数据增强后输入到步骤2构建好的深度卷积神经网络模型中,使用步骤4的方法进行训练,得到最后的单、多时相通用深度卷积神经网络模型;
步骤6,SAR影像相干斑噪声去除,即将单或者多时相SAR影像输入到步骤5训练好的模型中,得到目标时相的SAR相干斑噪声去除结果。
进一步的,步骤1中训练样本生成,是利用多时相的SAR影像的算数平均值作为训练样本的标签数据,并且尺寸裁剪为400×400,再添加不同程度的相干斑噪声生成不同视数的噪声数据,生成一对训练样本。
进一步的,步骤2中所述残差模块表示为:
Figure BDA0002801150970000021
残差模块分为直接映射部分和残差部分,xL为直接映射部分,也是输入特征,
Figure BDA0002801150970000022
为残差部分,
Figure BDA0002801150970000023
表示卷积操作与激活函数,而{w,b}表示卷积权重与偏置参数,xL+1为输出特征。
进一步的,所述时间注意力模块是负责对多时相时间尺度信息进行融合,而空间注意力模块负责对融合时间尺度信息后的特征进行空间尺度信息融合;
其中时间注意力模块,根据上一层特征提取层所提取的多时相特征为f1…ft,目标时相为第一个时相,因此首先求取每个时相与目标时相之间的相似度距离h,计算方法如下:
h(f1,fi)=Sigmoid(Θ(f1)T·Φ(fi))i∈[1,t] (2)
其中Sigmoid为S型激活函数,Θ和Φ分别表示对目标时相和第i时相特征的卷积操作,t表示为时相总数,T表示转置;接下来根据所求得的相似度距离,求得加权后的特征,计算方式如下:
Figure BDA0002801150970000031
Figure BDA0002801150970000032
其中
Figure BDA0002801150970000033
表示第i时相的加权特征,Cat为串联操作,融合后的特征ffusion为多时相特征的加权平均值;
空间注意力模块采用两层金字塔结构,输入时间尺度融合后的特征ffusion,对其做两次均值池化和最大值池化操作以扩充感受野,再经过上采样操作,融入原始特征,得到时空融合后的特征。
进一步的,步骤3所采取的数据增强的操作,包括归一化、裁剪、翻转、与旋转处理,归一化操作为最大值归一化方式,翻转与旋转角度从[-180°,180°]中随机取值,裁剪为80×80大小。
进一步的,步骤4中选择均方误差MSE损失函数作为训练目标,Adam作为网络优化方法,初始学习率为0.0001。
本发明的优点在于:
(1)能够自动化对SAR影像进行相干斑噪声去除,无需手动调节参数;
(2)能够适应单、多时相多种输入,对时相个数无要求;
(3)采用时空注意力模块,能够有效对时空信息进行融合,进而达到更佳的相干斑去除效果。
附图说明
图1:本发明实施例的流程图。
图2:本发明网络框架图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施示例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
SAR影像上的相干斑噪声是不可避免的系统噪声,而在SAR相干斑去除过程中,可以利用多时相的影像所提供有效的冗余信息,以达到更好的相干斑去除效果。而深度学习的方法具有较好的非线性拟合能力,结合多时相与深度学习方法可有效的去除SAR相干斑噪声。
请见图1,本发明提供的一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法,包括以下步骤:
步骤1:训练样本生成:获取多时相的SAR影像数据,对多时相的SAR影像做预处理,使其符合格式要求,生成训练数据样本;
步骤1中训练样本生成,是利用多时相的SAR影像的算数平均值作为训练样本的标签数据,并且尺寸裁剪为400×400,再添加不同程度的相干斑噪声生成不同视数的噪声数据,生成一对训练样本。
步骤2:搭建单、多时相通用深度卷积神经网络模型:包括残差模块以及时间注意力模块与空间注意力模型;
步骤2中所构建的单、多时相通用深度卷积神经网络模型结合了残差模块与时间与空间注意力模块。该网络模型是由三个部分组成,分别为特征提取层、特征融合层与特征恢复层。
特征提取层负责对输入的单、多时相的影像进行特征提取,主要由残差模块组成。一个残差模块可以表示为:
Figure BDA0002801150970000041
残差模块分为直接映射部分和残差部分。xL为直接映射部分,也是输入特征。
Figure BDA0002801150970000042
为残差部分,
Figure BDA0002801150970000043
表示卷积操作与激活函数,而{w,b}表示卷积权重与偏置参数,xL+1为输出特征。
特征融合层负责对由特征提取层所提取的多时相时间与空间信息进行融合,是由时间注意力模块和空间注意力模块组成。其中时间注意力模块是负责对多时相时间尺度信息进行融合,而空间注意力模块负责对融合时间尺度信息后的特征进行空间尺度信息融合。
其中时间注意力模块,根据上一层特征提取层所提取的多时相特征为f1…ft,目标时相为第一个时相,因此首先求取每个时相与目标时相之间的相似度距离h,计算方法如下:
h(f1,fi)=Sigmoid(Θ(f1)T·Φ(fi))i∈[1,t] (2)
其中Sigmoid为S型激活函数,Θ和Φ分别表示对目标时相和第i时相特征的卷积操作,t表示为时相总数,T表示转置。接下来根据所求得的相似度距离,求得加权后的特征,计算方式如下:
Figure BDA0002801150970000051
Figure BDA0002801150970000052
其中
Figure BDA0002801150970000053
表示第i时相的加权特征,Cat为串联操作,融合后的特征ffusion为多时相特征的加权平均值。
空间注意力模块采用两层金字塔结构,输入时间尺度融合后的特征ffusion,对其做两次均值池化和最大值池化操作以扩充感受野,再经过上采样操作,融入原始特征,得到时空融合后的特征
特征恢复层主要是对融合时间和空间信息后的特征进行恢复,输入时空融合后的特征到特征恢复层网络中,其网络结构同样是由堆叠的残差块组成,与特征提取层相同。
步骤3:对训练数据样本做数据增强:对步骤1所获得的训练数据样本进行数据增强处理,包括归一化、裁剪、翻转、与旋转处理;
步骤3所采取的数据增强的操作,归一化操作为最大值归一化方式,翻转旋转角度随机[-180°,180°],裁剪为80×80大小。
步骤4:选择网络训练的损失函数、优化方法、初始学习率进行训练:选择均方误差(MSE)损失函数作为训练目标,Adam作为网络优化方法,初始学习率为0.0001;
步骤5:训练单、多时相通用深度卷积神经网络模型:将步骤1获得的训练数据样本经过步骤3的数据增强后输入到步骤2构建好的模型中,使用步骤4的方法进行训练,得到最后的单、多时相通用深度卷积神经网络模型;
步骤6:SAR影像相干斑噪声去除:将单或者多时相SAR影像输入到步骤5训练好的模型中,得到目标时相的SAR相干斑噪声去除结果。
本发明面向单、多时相的SAR影像相干斑噪声去除,统一了网络框架,使得模型的复用性较强,同时在网络框架内使用注意力模块,充分融合影像的时间和空间信息,使得相干斑噪声得到很好的抑制,得到去噪后的SAR影像。该方法可较为准确地去除相干斑噪声并且细节保留较好,数据要求低,易于实现且可扩展性强,实用价值高。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (6)

1.一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于,包括以下步骤:
步骤1,训练样本生成,包括获取多时相的SAR影像数据,对多时相的SAR影像做预处理,使其符合格式要求,生成训练数据样本;
步骤2,搭建单、多时相通用深度卷积神经网络模型,包括残差模块以及时间注意力模块与空间注意力模块;
所述深度卷积神经网络模型由三个部分组成,分别为特征提取层、特征融合层与特征恢复层;
特征提取层负责对输入的单、多时相的影像进行特征提取,由多个残差模块组成;
特征融合层负责对由特征提取层所提取的多时相时间与空间信息进行融合,是由时间注意力模块和空间注意力模块组成;
特征恢复层负责对融合时间和空间信息后的特征进行恢复,输入时空融合后的特征到特征恢复层网络中,其网络结构与特征提取层相同;
步骤3,对训练数据样本做数据增强,即对步骤1所获得的训练数据样本进行数据增强处理;
步骤4,选择网络训练的损失函数、优化方法、初始学习率进行训练;
步骤5,训练单、多时相通用深度卷积神经网络模型,即将步骤1获得的训练数据样本经过步骤3的数据增强后输入到步骤2构建好的深度卷积神经网络模型中,使用步骤4的方法进行训练,得到最后的单、多时相通用深度卷积神经网络模型;
步骤6,SAR影像相干斑噪声去除,即将单或者多时相SAR影像输入到步骤5训练好的模型中,得到目标时相的SAR相干斑噪声去除结果。
2.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤1中训练样本生成,是利用多时相的SAR影像的算数平均值作为训练样本的标签数据,并且尺寸裁剪为400×400,再添加不同程度的相干斑噪声生成不同视数的噪声数据,生成一对训练样本。
3.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤2中所述残差模块表示为:
Figure FDA0002801150960000011
残差模块分为直接映射部分和残差部分,xL为直接映射部分,也是输入特征,
Figure FDA0002801150960000021
为残差部分,
Figure FDA0002801150960000022
表示卷积操作与激活函数,而{w,b}表示卷积权重与偏置参数,xL+1为输出特征。
4.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:所述时间注意力模块是负责对多时相时间尺度信息进行融合,而空间注意力模块负责对融合时间尺度信息后的特征进行空间尺度信息融合;
其中时间注意力模块,根据上一层特征提取层所提取的多时相特征为f1…ft,目标时相为第一个时相,因此首先求取每个时相与目标时相之间的相似度距离h,计算方法如下:
h(f1,fi)=Sigmoid(Θ(f1)T·Φ(fi)) i∈[1,t] (2)
其中Sigmoid为S型激活函数,Θ和Φ分别表示对目标时相和第i时相特征的卷积操作,t表示为时相总数,T表示转置;接下来根据所求得的相似度距离,求得加权后的特征,计算方式如下:
Figure FDA0002801150960000023
Figure FDA0002801150960000024
其中
Figure FDA0002801150960000025
表示第i时相的加权特征,Cat为串联操作,融合后的特征ffusion为多时相特征的加权平均值;
空间注意力模块采用两层金字塔结构,输入时间尺度融合后的特征ffusion,对其做两次均值池化和最大值池化操作以扩充感受野,再经过上采样操作,融入原始特征,得到时空融合后的特征。
5.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤3所采取的数据增强的操作,包括归一化、裁剪、翻转、与旋转处理,归一化操作为最大值归一化方式,翻转与旋转角度从[-180°,180°]中随机取值,裁剪为80×80大小。
6.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤4中选择均方误差MSE损失函数作为训练目标,Adam作为网络优化方法,初始学习率为0.0001。
CN202011350566.9A 2020-11-26 2020-11-26 一种通用的单、多时相sar影像相干斑噪声去除方法 Pending CN112419197A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011350566.9A CN112419197A (zh) 2020-11-26 2020-11-26 一种通用的单、多时相sar影像相干斑噪声去除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011350566.9A CN112419197A (zh) 2020-11-26 2020-11-26 一种通用的单、多时相sar影像相干斑噪声去除方法

Publications (1)

Publication Number Publication Date
CN112419197A true CN112419197A (zh) 2021-02-26

Family

ID=74842152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011350566.9A Pending CN112419197A (zh) 2020-11-26 2020-11-26 一种通用的单、多时相sar影像相干斑噪声去除方法

Country Status (1)

Country Link
CN (1) CN112419197A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807206A (zh) * 2021-08-30 2021-12-17 电子科技大学 一种基于去噪任务辅助的sar图像目标识别方法
CN114049335A (zh) * 2021-11-18 2022-02-15 感知天下(北京)信息科技有限公司 一种基于时空注意力的遥感影像变化检测方法
CN116228609A (zh) * 2023-05-10 2023-06-06 中国人民解放军国防科技大学 一种基于零样本学习的雷达图像相干斑滤波方法及装置
CN116385319A (zh) * 2023-05-29 2023-07-04 中国人民解放军国防科技大学 一种基于场景认知的雷达图像相干斑滤波方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110120020A (zh) * 2019-04-30 2019-08-13 西北工业大学 一种基于多尺度空洞残差注意力网络的sar图像去噪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110120020A (zh) * 2019-04-30 2019-08-13 西北工业大学 一种基于多尺度空洞残差注意力网络的sar图像去噪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHENXIA ZHOU等: "《Multi-Temporal SAR Image Despeckling based a Convolutional Neural Network》", 《ISPRS ANNALS OF THE PHOTOGRAMMETRY,REMOTE SENSING AND SPATIAL INFORMATION SCIENCES》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807206A (zh) * 2021-08-30 2021-12-17 电子科技大学 一种基于去噪任务辅助的sar图像目标识别方法
CN113807206B (zh) * 2021-08-30 2023-04-07 电子科技大学 一种基于去噪任务辅助的sar图像目标识别方法
CN114049335A (zh) * 2021-11-18 2022-02-15 感知天下(北京)信息科技有限公司 一种基于时空注意力的遥感影像变化检测方法
CN114049335B (zh) * 2021-11-18 2022-06-14 感知天下(北京)信息科技有限公司 一种基于时空注意力的遥感影像变化检测方法
CN116228609A (zh) * 2023-05-10 2023-06-06 中国人民解放军国防科技大学 一种基于零样本学习的雷达图像相干斑滤波方法及装置
CN116228609B (zh) * 2023-05-10 2023-07-21 中国人民解放军国防科技大学 一种基于零样本学习的雷达图像相干斑滤波方法及装置
CN116385319A (zh) * 2023-05-29 2023-07-04 中国人民解放军国防科技大学 一种基于场景认知的雷达图像相干斑滤波方法及装置
CN116385319B (zh) * 2023-05-29 2023-08-15 中国人民解放军国防科技大学 一种基于场景认知的雷达图像相干斑滤波方法及装置

Similar Documents

Publication Publication Date Title
CN113688808B (zh) 一种基于拉普拉斯金字塔遥感图像融合的滑坡体识别方法
CN112419197A (zh) 一种通用的单、多时相sar影像相干斑噪声去除方法
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
CN111259876B (zh) 一种基于陆表水体产品的雷达数据水体信息提取方法及系统
CN113673590B (zh) 基于多尺度沙漏密集连接网络的去雨方法、系统和介质
CN102629378B (zh) 基于多特征融合的遥感图像变化检测方法
CN106910202B (zh) 一种遥感图像地物的图像分割方法及系统
CN111553869B (zh) 一种空基视角下的生成对抗网络图像补全方法
CN113240040B (zh) 一种基于通道注意力深度网络的极化sar图像分类方法
CN113569815B (zh) 基于图像分割与孪生神经网络的遥感影像变化的检测方法
CN113312993B (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
US20200034664A1 (en) Network Architecture for Generating a Labeled Overhead Image
CN113239736A (zh) 一种基于多源遥感数据的土地覆盖分类标注图获取方法、存储介质及系统
CN116258976A (zh) 一种分层次Transformer的高分辨率遥感图像语义分割方法及系统
CN113887472A (zh) 基于级联颜色及纹理特征注意力的遥感图像云检测方法
Miroszewski et al. Detecting clouds in multispectral satellite images using quantum-kernel support vector machines
CN111274878A (zh) 卫星云图分类方法及系统
CN114266947A (zh) 一种基于激光点云和可见光图像融合的分类方法及装置
Kumar et al. Multi-sensor multi-resolution image fusion for improved vegetation and urban area classification
CN113516084A (zh) 高分辨率遥感影像半监督分类方法、装置、设备及介质
CN115984714B (zh) 一种基于双分支网络模型的云检测方法
Ruiz-Lendínez et al. Deep learning methods applied to digital elevation models: state of the art
CN113505650B (zh) 地形特征线提取方法及装置、设备
CN112800932B (zh) 海上背景下显著船舶目标的检测方法及电子设备
CN108109153A (zh) 基于sar-kaze特征提取的sar图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210226

RJ01 Rejection of invention patent application after publication