CN112419197A - 一种通用的单、多时相sar影像相干斑噪声去除方法 - Google Patents
一种通用的单、多时相sar影像相干斑噪声去除方法 Download PDFInfo
- Publication number
- CN112419197A CN112419197A CN202011350566.9A CN202011350566A CN112419197A CN 112419197 A CN112419197 A CN 112419197A CN 202011350566 A CN202011350566 A CN 202011350566A CN 112419197 A CN112419197 A CN 112419197A
- Authority
- CN
- China
- Prior art keywords
- time phase
- time
- training
- phase
- speckle noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000010606 normalization Methods 0.000 claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 238000011084 recovery Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 2
- 238000005065 mining Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种通用的单、多时相SAR影像相干斑噪声去除方法。首先获取多时相的SAR影像,对多时相SAR影像做预处理,并且使用多时相平均影像作为标签影像,再通过添加不同程度的相干斑噪声,生成训练样本;然后,根据需求构建单、多时相SAR影像相干斑噪声通用网络模型,需考虑网络可输入任意数量时相以及时空信息的充分挖掘;接着根据需求,确定网络训练损失函数、训练优化方法以及超参数;对训练样本进行数据增强,包括归一化、裁剪、翻转旋转等操作;其次对使用训练样本训练网络模型,获得模型参数;输入测试样本到网络中,最终获得输出的相干斑噪声去除影像。本发明操作方便,计算效率高,数据要求低,易于实现且可扩展性强,实用价值高。
Description
技术领域
本发明属于遥感图像处理技术领域,涉及一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法,多时相的SAR影像之间有很大的相关性,其信息具有互补性,因此可以利用多时相的SAR影像辅助进行相干斑去除。
背景技术
SAR具有全天时全天候的对地观测能力,为长时序地表监测提供了数据源。另外随着越来越多的SAR卫星的发射成功,基于多时相的SAR影像的应用也应运而生,例如:森林和灾害的监测、地表覆盖分类、冰川积雪分析等。而在SAR成像过程中,相干斑是不可避免的系统噪声,其严重影响了后续应用的精度。因此对SAR影像的相干斑噪声去除是必不可少的预处理步骤。在过去的几十年内,大多数SAR相干斑噪声去除方法关注于单时相影像的邻域或者非局部的空间信息,而基于多时相的SAR相干斑去除方法在空间信息之外,还可提供额外的时间尺度的信息。然而现有的基于多时相的SAR相干斑噪声去除方法大多数是传统方法,噪声去除效果依赖于人工调节参数,对于时空信息的利用也不够充分。而且多时相的方法对于时相个数的输入比较严格,必须采用多于两个时相的影像,影像数量对于最终的效果也具有较大的影响。那么在只有单时相的情况下就无法采用多时相的方法。因此发展一种单、多时相通用的自动化程度高的SAR相干斑噪声去除方法是由必要的。
发明内容
本发明的目的在于,针对现有技术的上述不足,提供了一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法。该方法基于深度学习卷积神经网络模型,可充分利用多时相影像的时空信息,做到一次训练多次使用,实现自动化需求。另外该方法对输入影像的时相数量无定量要求,因此可利用多时相的影像对该网络模型参数进行训练,再输入任意单或多时相影像进行测试。
为了实现以上目的,本发明所采用的技术方案是:一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法,包括以下步骤:
步骤1,训练样本生成,包括获取多时相的SAR影像数据,对多时相的SAR影像做预处理,使其符合格式要求,生成训练数据样本;
步骤2,搭建单、多时相通用深度卷积神经网络模型,包括残差模块以及时间注意力模块与空间注意力模块;
所述深度卷积神经网络模型由三个部分组成,分别为特征提取层、特征融合层与特征恢复层;
特征提取层负责对输入的单、多时相的影像进行特征提取,由多个残差模块组成;
特征融合层负责对由特征提取层所提取的多时相时间与空间信息进行融合,是由时间注意力模块和空间注意力模块组成;
特征恢复层负责对融合时间和空间信息后的特征进行恢复,输入时空融合后的特征到特征恢复层网络中,其网络结构与特征提取层相同;
步骤3,对训练数据样本做数据增强,即对步骤1所获得的训练数据样本进行数据增强处理;
步骤4,选择网络训练的损失函数、优化方法、初始学习率进行训练;
步骤5,训练单、多时相通用深度卷积神经网络模型,即将步骤1获得的训练数据样本经过步骤3的数据增强后输入到步骤2构建好的深度卷积神经网络模型中,使用步骤4的方法进行训练,得到最后的单、多时相通用深度卷积神经网络模型;
步骤6,SAR影像相干斑噪声去除,即将单或者多时相SAR影像输入到步骤5训练好的模型中,得到目标时相的SAR相干斑噪声去除结果。
进一步的,步骤1中训练样本生成,是利用多时相的SAR影像的算数平均值作为训练样本的标签数据,并且尺寸裁剪为400×400,再添加不同程度的相干斑噪声生成不同视数的噪声数据,生成一对训练样本。
进一步的,步骤2中所述残差模块表示为:
进一步的,所述时间注意力模块是负责对多时相时间尺度信息进行融合,而空间注意力模块负责对融合时间尺度信息后的特征进行空间尺度信息融合;
其中时间注意力模块,根据上一层特征提取层所提取的多时相特征为f1…ft,目标时相为第一个时相,因此首先求取每个时相与目标时相之间的相似度距离h,计算方法如下:
h(f1,fi)=Sigmoid(Θ(f1)T·Φ(fi))i∈[1,t] (2)
其中Sigmoid为S型激活函数,Θ和Φ分别表示对目标时相和第i时相特征的卷积操作,t表示为时相总数,T表示转置;接下来根据所求得的相似度距离,求得加权后的特征,计算方式如下:
空间注意力模块采用两层金字塔结构,输入时间尺度融合后的特征ffusion,对其做两次均值池化和最大值池化操作以扩充感受野,再经过上采样操作,融入原始特征,得到时空融合后的特征。
进一步的,步骤3所采取的数据增强的操作,包括归一化、裁剪、翻转、与旋转处理,归一化操作为最大值归一化方式,翻转与旋转角度从[-180°,180°]中随机取值,裁剪为80×80大小。
进一步的,步骤4中选择均方误差MSE损失函数作为训练目标,Adam作为网络优化方法,初始学习率为0.0001。
本发明的优点在于:
(1)能够自动化对SAR影像进行相干斑噪声去除,无需手动调节参数;
(2)能够适应单、多时相多种输入,对时相个数无要求;
(3)采用时空注意力模块,能够有效对时空信息进行融合,进而达到更佳的相干斑去除效果。
附图说明
图1:本发明实施例的流程图。
图2:本发明网络框架图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施示例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
SAR影像上的相干斑噪声是不可避免的系统噪声,而在SAR相干斑去除过程中,可以利用多时相的影像所提供有效的冗余信息,以达到更好的相干斑去除效果。而深度学习的方法具有较好的非线性拟合能力,结合多时相与深度学习方法可有效的去除SAR相干斑噪声。
请见图1,本发明提供的一种基于深度卷积神经网络的通用单、多时相SAR影像相干斑噪声去除方法,包括以下步骤:
步骤1:训练样本生成:获取多时相的SAR影像数据,对多时相的SAR影像做预处理,使其符合格式要求,生成训练数据样本;
步骤1中训练样本生成,是利用多时相的SAR影像的算数平均值作为训练样本的标签数据,并且尺寸裁剪为400×400,再添加不同程度的相干斑噪声生成不同视数的噪声数据,生成一对训练样本。
步骤2:搭建单、多时相通用深度卷积神经网络模型:包括残差模块以及时间注意力模块与空间注意力模型;
步骤2中所构建的单、多时相通用深度卷积神经网络模型结合了残差模块与时间与空间注意力模块。该网络模型是由三个部分组成,分别为特征提取层、特征融合层与特征恢复层。
特征提取层负责对输入的单、多时相的影像进行特征提取,主要由残差模块组成。一个残差模块可以表示为:
特征融合层负责对由特征提取层所提取的多时相时间与空间信息进行融合,是由时间注意力模块和空间注意力模块组成。其中时间注意力模块是负责对多时相时间尺度信息进行融合,而空间注意力模块负责对融合时间尺度信息后的特征进行空间尺度信息融合。
其中时间注意力模块,根据上一层特征提取层所提取的多时相特征为f1…ft,目标时相为第一个时相,因此首先求取每个时相与目标时相之间的相似度距离h,计算方法如下:
h(f1,fi)=Sigmoid(Θ(f1)T·Φ(fi))i∈[1,t] (2)
其中Sigmoid为S型激活函数,Θ和Φ分别表示对目标时相和第i时相特征的卷积操作,t表示为时相总数,T表示转置。接下来根据所求得的相似度距离,求得加权后的特征,计算方式如下:
空间注意力模块采用两层金字塔结构,输入时间尺度融合后的特征ffusion,对其做两次均值池化和最大值池化操作以扩充感受野,再经过上采样操作,融入原始特征,得到时空融合后的特征
特征恢复层主要是对融合时间和空间信息后的特征进行恢复,输入时空融合后的特征到特征恢复层网络中,其网络结构同样是由堆叠的残差块组成,与特征提取层相同。
步骤3:对训练数据样本做数据增强:对步骤1所获得的训练数据样本进行数据增强处理,包括归一化、裁剪、翻转、与旋转处理;
步骤3所采取的数据增强的操作,归一化操作为最大值归一化方式,翻转旋转角度随机[-180°,180°],裁剪为80×80大小。
步骤4:选择网络训练的损失函数、优化方法、初始学习率进行训练:选择均方误差(MSE)损失函数作为训练目标,Adam作为网络优化方法,初始学习率为0.0001;
步骤5:训练单、多时相通用深度卷积神经网络模型:将步骤1获得的训练数据样本经过步骤3的数据增强后输入到步骤2构建好的模型中,使用步骤4的方法进行训练,得到最后的单、多时相通用深度卷积神经网络模型;
步骤6:SAR影像相干斑噪声去除:将单或者多时相SAR影像输入到步骤5训练好的模型中,得到目标时相的SAR相干斑噪声去除结果。
本发明面向单、多时相的SAR影像相干斑噪声去除,统一了网络框架,使得模型的复用性较强,同时在网络框架内使用注意力模块,充分融合影像的时间和空间信息,使得相干斑噪声得到很好的抑制,得到去噪后的SAR影像。该方法可较为准确地去除相干斑噪声并且细节保留较好,数据要求低,易于实现且可扩展性强,实用价值高。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (6)
1.一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于,包括以下步骤:
步骤1,训练样本生成,包括获取多时相的SAR影像数据,对多时相的SAR影像做预处理,使其符合格式要求,生成训练数据样本;
步骤2,搭建单、多时相通用深度卷积神经网络模型,包括残差模块以及时间注意力模块与空间注意力模块;
所述深度卷积神经网络模型由三个部分组成,分别为特征提取层、特征融合层与特征恢复层;
特征提取层负责对输入的单、多时相的影像进行特征提取,由多个残差模块组成;
特征融合层负责对由特征提取层所提取的多时相时间与空间信息进行融合,是由时间注意力模块和空间注意力模块组成;
特征恢复层负责对融合时间和空间信息后的特征进行恢复,输入时空融合后的特征到特征恢复层网络中,其网络结构与特征提取层相同;
步骤3,对训练数据样本做数据增强,即对步骤1所获得的训练数据样本进行数据增强处理;
步骤4,选择网络训练的损失函数、优化方法、初始学习率进行训练;
步骤5,训练单、多时相通用深度卷积神经网络模型,即将步骤1获得的训练数据样本经过步骤3的数据增强后输入到步骤2构建好的深度卷积神经网络模型中,使用步骤4的方法进行训练,得到最后的单、多时相通用深度卷积神经网络模型;
步骤6,SAR影像相干斑噪声去除,即将单或者多时相SAR影像输入到步骤5训练好的模型中,得到目标时相的SAR相干斑噪声去除结果。
2.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤1中训练样本生成,是利用多时相的SAR影像的算数平均值作为训练样本的标签数据,并且尺寸裁剪为400×400,再添加不同程度的相干斑噪声生成不同视数的噪声数据,生成一对训练样本。
4.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:所述时间注意力模块是负责对多时相时间尺度信息进行融合,而空间注意力模块负责对融合时间尺度信息后的特征进行空间尺度信息融合;
其中时间注意力模块,根据上一层特征提取层所提取的多时相特征为f1…ft,目标时相为第一个时相,因此首先求取每个时相与目标时相之间的相似度距离h,计算方法如下:
h(f1,fi)=Sigmoid(Θ(f1)T·Φ(fi)) i∈[1,t] (2)
其中Sigmoid为S型激活函数,Θ和Φ分别表示对目标时相和第i时相特征的卷积操作,t表示为时相总数,T表示转置;接下来根据所求得的相似度距离,求得加权后的特征,计算方式如下:
空间注意力模块采用两层金字塔结构,输入时间尺度融合后的特征ffusion,对其做两次均值池化和最大值池化操作以扩充感受野,再经过上采样操作,融入原始特征,得到时空融合后的特征。
5.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤3所采取的数据增强的操作,包括归一化、裁剪、翻转、与旋转处理,归一化操作为最大值归一化方式,翻转与旋转角度从[-180°,180°]中随机取值,裁剪为80×80大小。
6.根据权利要求1所述的一种通用的单、多时相SAR影像相干斑噪声去除方法,其特征在于:步骤4中选择均方误差MSE损失函数作为训练目标,Adam作为网络优化方法,初始学习率为0.0001。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011350566.9A CN112419197A (zh) | 2020-11-26 | 2020-11-26 | 一种通用的单、多时相sar影像相干斑噪声去除方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011350566.9A CN112419197A (zh) | 2020-11-26 | 2020-11-26 | 一种通用的单、多时相sar影像相干斑噪声去除方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112419197A true CN112419197A (zh) | 2021-02-26 |
Family
ID=74842152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011350566.9A Pending CN112419197A (zh) | 2020-11-26 | 2020-11-26 | 一种通用的单、多时相sar影像相干斑噪声去除方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419197A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807206A (zh) * | 2021-08-30 | 2021-12-17 | 电子科技大学 | 一种基于去噪任务辅助的sar图像目标识别方法 |
CN114049335A (zh) * | 2021-11-18 | 2022-02-15 | 感知天下(北京)信息科技有限公司 | 一种基于时空注意力的遥感影像变化检测方法 |
CN116228609A (zh) * | 2023-05-10 | 2023-06-06 | 中国人民解放军国防科技大学 | 一种基于零样本学习的雷达图像相干斑滤波方法及装置 |
CN116385319A (zh) * | 2023-05-29 | 2023-07-04 | 中国人民解放军国防科技大学 | 一种基于场景认知的雷达图像相干斑滤波方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120020A (zh) * | 2019-04-30 | 2019-08-13 | 西北工业大学 | 一种基于多尺度空洞残差注意力网络的sar图像去噪方法 |
-
2020
- 2020-11-26 CN CN202011350566.9A patent/CN112419197A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120020A (zh) * | 2019-04-30 | 2019-08-13 | 西北工业大学 | 一种基于多尺度空洞残差注意力网络的sar图像去噪方法 |
Non-Patent Citations (1)
Title |
---|
CHENXIA ZHOU等: "《Multi-Temporal SAR Image Despeckling based a Convolutional Neural Network》", 《ISPRS ANNALS OF THE PHOTOGRAMMETRY,REMOTE SENSING AND SPATIAL INFORMATION SCIENCES》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807206A (zh) * | 2021-08-30 | 2021-12-17 | 电子科技大学 | 一种基于去噪任务辅助的sar图像目标识别方法 |
CN113807206B (zh) * | 2021-08-30 | 2023-04-07 | 电子科技大学 | 一种基于去噪任务辅助的sar图像目标识别方法 |
CN114049335A (zh) * | 2021-11-18 | 2022-02-15 | 感知天下(北京)信息科技有限公司 | 一种基于时空注意力的遥感影像变化检测方法 |
CN114049335B (zh) * | 2021-11-18 | 2022-06-14 | 感知天下(北京)信息科技有限公司 | 一种基于时空注意力的遥感影像变化检测方法 |
CN116228609A (zh) * | 2023-05-10 | 2023-06-06 | 中国人民解放军国防科技大学 | 一种基于零样本学习的雷达图像相干斑滤波方法及装置 |
CN116228609B (zh) * | 2023-05-10 | 2023-07-21 | 中国人民解放军国防科技大学 | 一种基于零样本学习的雷达图像相干斑滤波方法及装置 |
CN116385319A (zh) * | 2023-05-29 | 2023-07-04 | 中国人民解放军国防科技大学 | 一种基于场景认知的雷达图像相干斑滤波方法及装置 |
CN116385319B (zh) * | 2023-05-29 | 2023-08-15 | 中国人民解放军国防科技大学 | 一种基于场景认知的雷达图像相干斑滤波方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113688808B (zh) | 一种基于拉普拉斯金字塔遥感图像融合的滑坡体识别方法 | |
CN112419197A (zh) | 一种通用的单、多时相sar影像相干斑噪声去除方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN111259876B (zh) | 一种基于陆表水体产品的雷达数据水体信息提取方法及系统 | |
CN113673590B (zh) | 基于多尺度沙漏密集连接网络的去雨方法、系统和介质 | |
CN102629378B (zh) | 基于多特征融合的遥感图像变化检测方法 | |
CN106910202B (zh) | 一种遥感图像地物的图像分割方法及系统 | |
CN111553869B (zh) | 一种空基视角下的生成对抗网络图像补全方法 | |
CN113240040B (zh) | 一种基于通道注意力深度网络的极化sar图像分类方法 | |
CN113569815B (zh) | 基于图像分割与孪生神经网络的遥感影像变化的检测方法 | |
CN113312993B (zh) | 一种基于PSPNet的遥感数据土地覆盖分类方法 | |
US20200034664A1 (en) | Network Architecture for Generating a Labeled Overhead Image | |
CN113239736A (zh) | 一种基于多源遥感数据的土地覆盖分类标注图获取方法、存储介质及系统 | |
CN116258976A (zh) | 一种分层次Transformer的高分辨率遥感图像语义分割方法及系统 | |
CN113887472A (zh) | 基于级联颜色及纹理特征注意力的遥感图像云检测方法 | |
Miroszewski et al. | Detecting clouds in multispectral satellite images using quantum-kernel support vector machines | |
CN111274878A (zh) | 卫星云图分类方法及系统 | |
CN114266947A (zh) | 一种基于激光点云和可见光图像融合的分类方法及装置 | |
Kumar et al. | Multi-sensor multi-resolution image fusion for improved vegetation and urban area classification | |
CN113516084A (zh) | 高分辨率遥感影像半监督分类方法、装置、设备及介质 | |
CN115984714B (zh) | 一种基于双分支网络模型的云检测方法 | |
Ruiz-Lendínez et al. | Deep learning methods applied to digital elevation models: state of the art | |
CN113505650B (zh) | 地形特征线提取方法及装置、设备 | |
CN112800932B (zh) | 海上背景下显著船舶目标的检测方法及电子设备 | |
CN108109153A (zh) | 基于sar-kaze特征提取的sar图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210226 |
|
RJ01 | Rejection of invention patent application after publication |