CN117496162A - 一种红外卫星遥感影像薄云去除方法、装置及介质 - Google Patents
一种红外卫星遥感影像薄云去除方法、装置及介质 Download PDFInfo
- Publication number
- CN117496162A CN117496162A CN202410004810.8A CN202410004810A CN117496162A CN 117496162 A CN117496162 A CN 117496162A CN 202410004810 A CN202410004810 A CN 202410004810A CN 117496162 A CN117496162 A CN 117496162A
- Authority
- CN
- China
- Prior art keywords
- module
- thin cloud
- remote sensing
- thin
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims description 51
- 238000012545 processing Methods 0.000 claims description 19
- 230000002776 aggregation Effects 0.000 claims description 12
- 238000004220 aggregation Methods 0.000 claims description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 238000013135 deep learning Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/273—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种红外卫星遥感影像薄云去除方法、装置及介质,主要基于多尺度卷积和稠密残差网络,构建薄云去除模型,以实现端到端的红外遥感图像薄云去除网络,从而得到纹理细节高保真的无云红外遥感图像。本发明中薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块。
Description
技术领域
本发明涉及图像处理技术领域,更具体的说是涉及一种红外卫星遥感影像薄云去除方法、装置及介质。
背景技术
在遥感影像处理领域,红外卫星遥感影像因其独特的穿透能力和对地观测的敏感性,成为了重要的数据来源。尤其在气候变化、环境监测和军事侦察等领域,红外遥感影像发挥了不可替代的作用。然而,由于大气扰动、环境因素和传感器限制等问题,这些影像往往会受到薄云的影响,导致云层下的地表信息被遮挡,严重降低了影像的使用价值和解译准确性。
目前,薄云去除方法主要包括物理建模方法和深度学习方法,其中,物理建模方法是通过模拟云和大气的物理特性来预测和补偿薄云的影响,但该种方法需要精确的大气参数,且计算复杂度较高;相比之下,深度学习技术在图像处理领域取得了突破性进展,为薄云去除提供了新的解决方案。但现有深度学习方法多是针对多光谱遥感影像,相比之下,单通道的红外遥感图像,只包含少量的信息量,且缺乏额外的光谱信息,由此使得当前深度学习方法无法精细的对红外遥感图像进行处理,以及难以区分细微的薄云特征和地物特征,导致在去除薄云的同时,很可能会误删一些重要的地物细节。
同时,大部分现有深度学习方法主要关注图像的全局特征,而忽略了局部细节的保持,从而导致地物辨识度的下降。
因此,如何克服上述问题,提高地物辨识度是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种红外卫星遥感影像薄云去除方法、装置及介质,通过结合多尺度信息和深度特征,在去除薄云时最大限度的保留局部特征,同时,保证计算效率。
为了实现上述目的,本发明采用如下技术方案:
第一、一种红外卫星遥感影像薄云去除方法,包括,
构建薄云去除模型;所述薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块;
获得训练数据集,对所述薄云去除模型进行训练;
利用训练好的薄云去除模型去除红外遥感图像中的薄云。
作为优选,所述多尺度卷积模块包括多个并联的卷积层,且多个卷积层具有不同的尺寸;用于从不同尺度提取红外卫星遥感影像的特征;
所述稠密残差模块包括多个串联的稠密残差块;用于提取经第一特征汇聚模块所得混合特征图的深度特征
所述第一特征汇聚模块与所述第二特征汇聚模块包括串联的特征汇聚层和通道-空间注意力模块,分别用于对多尺度卷积模块和稠密残差模块提取的特征进行融合,得到相应的混合特征图。
作为优选,所述稠密残差块之间通过通道-空间注意力模块连接。
作为优选,所述第二特征汇聚模块输出的混合特征图与输入至薄云去除模型的红外卫星遥感影像进行像素相加后,作为所述薄云去除模型的输出结果。
作为优选,训练前,对训练数据集进行标准化处理,以及数据增强处理。
数据增强处理包括:随机角度旋转、等比例缩放,和/或增加高斯噪声。
作为优选,训练时,采用的损失函数如下:
式中,L表示损失值,表示模型输出去云图像在/>处的像素值,/>表示对应的无云图像在/>处的像素值,d表示无云图像的像素总数。
第二、一种红外卫星遥感影像薄云去除装置,包括,
薄云去除模型构建模块;用于构建薄云去除模型,所述薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块;
薄云去除模型训练模块,用于获取训练数据集,对所述薄云去除模型进行训练;
薄云去除模块,用于利用训练好的薄云去除模型去除红外遥感图像中的薄云。
作为优选,所述薄云去除模型训练模块包括训练数据集处理单元和训练单元,
所述训练数据集处理单元,用于对训练数据集进行标准化处理,以及数据增强处理;
所述训练单元,用于利用处理后的训练数据集按如下损失函数对薄云去除模型进行训练;
式中,L表示损失值,表示模型输出去云图像在/>处的像素值,/>表示对应的无云图像在/>处的像素值,d表示无云图像的像素总数。
第三、一种计算机可读存储介质,所处存储介质中存储有训练完成的薄云去除模型,用于利用所述训练完成的薄云去除模型去除红外遥感图像中的薄云。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种红外卫星遥感影像薄云去除方法、装置及介质,主要基于多尺度卷积和稠密残差网络,构建薄云去除模型,以实现端到端的红外遥感图像薄云去除网络,从而得到纹理细节高保真的无云红外遥感图像;
本发明薄云去除模型结构简单,参数较少,可有效解决现有技术中薄云去除方法计算量大的问题;
同时,通过结合多尺度卷积和稠密残差网络,有针对性地设计了适应红外图像特性的网络结构。即多尺度卷积能够适应图像中目标的尺寸变化,稠密残差块则利用深度学习中的残差连接来提高信息流,并且通过稠密连接加强特征复用。此外,本发明引入了注意力机制,通过加入通道-空间注意力模块,使模型能够更好地区分图像中的重要特征和区域,从而在红外图像上获得更加准确的结果,进而解决现有技术不适用于红外遥感影像的问题,提高带有薄云的红外遥感影像的处理质量和应用效果。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明薄云去除模型的结构示意图。
图2为去除薄云前的红外遥感图像;
图3为使用FFA-Net生成的去云图像;
图4为使用DehazeFormer生成的去云图像;
图5为根据本发明方法生成的去云图像。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本发明实施例公开了一种红外卫星遥感影像薄云去除方法,包括如下步骤:
构建薄云去除模型;如图1所示,所述薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块;
获得训练数据集,对所述薄云去除模型进行训练;
利用训练好的薄云去除模型去除红外遥感图像中的薄云。
为进一步优化上述技术方案,本申请中多尺度卷积模块包括多个并联的卷积层,用于从不同尺度提取红外卫星遥感影像的特征;本实施例中,卷积层有4个,且具有不同的尺寸,分别为3×3、5×5、7×7、9×9;
对于红外卫星遥感影像来说,云和地面目标的尺寸差异较大。通过使用多尺度卷积,能够在提取细粒度特征的同时,保留足够的感受野来理解更大区域的上下文信息,从而有助于更准确地区分云和非云区域。
稠密残差模块由多个串联的稠密残差块组成;用于提取经第一特征汇聚模块所得混合特征图的深度特征;
相应的,稠密残差块串联连接,可增强特征传递,提高特征复用,从而避免在深网络中出现的梯度消失问题。本发明中,稠密残差网络的结构有利于从之前的多尺度卷积层中提取的细粒度特征进行深入学习,从而提高薄云区域的识别和去除性能。
其中,稠密残差块之间通过通道-空间注意力模块连接,用于进一步提高稠密残差模块提取特征的能力。
第一特征汇聚模块与第二特征汇聚模块包括串联的特征汇聚层和通道-空间注意力模块,分别用于对多尺度卷积模块和稠密残差模块提取的特征进行融合,得到相应的混合特征图。
其中,第一特征汇聚模块通过将不同尺度卷积层的输出结果相合并,以丰富最终的特征表示,从而使得网络有能力从多个角度分析输入数据;
第二特征汇聚模块通过把不同层次的特征图拼接起来,既包含了原始的特征信息,也加入了新层次的特征。
同时,在深度学习网络中,信息从输入到输出的流动可能会因为网络深度的加深而变得复杂。本申请利用特征融合可以直接传递底层信息到高层,改善信息流,减少信息在传递过程中的丢失,从而提高网络的学习和泛化能力。
进一步,通道-空间注意力模块能够让网络学习到通道和空间维度上的重要特征。本发明中,可使模型更加专注于与去除薄云相关的特征,如突出云的边缘或是纹理等特征,同时抑制不重要的特征,提高精度。
优选的,多尺度卷积模块和稠密残差模块中的全部卷积层后均附有ReLU激活层,用于引入非线性,解决梯度消失问题,以及提高模型计算效率。
本发明中,将样本输入至薄云去除模型后,输入样本首先进入多尺度卷积模块,从不同尺度得到多组相同尺寸的特征图;随后进入第一个特征汇聚模块,得到混合特征图;将混合特征图输入至稠密残差模块,在稠密残差模块中,每经过一个稠密残差块便可得到一组特征图,随后将多组特征图输入至第二个特征汇聚模块,即可得到最终特征图;
本实施例中,将第二特征汇聚模块输出的最终混合特征图与输入至薄云去除模型的红外卫星遥感影像进行像素相加后,作为所述薄云去除模型的输出结果。
进一步地,获得训练数据集,对所述薄云去除模型进行训练;
具体选用公开的红外遥感影像去云数据集作为原始红外影像去云数据集,该数据集共包含n组红外遥感影像,每组包含2张尺寸为d×d的红外遥感影像,其中一张为无云红外遥感影像,另一张是对应的带有薄云的红外遥感影像,所有样本的全部像素值均在[0,255]区间内;
然后将该数据集划分为训练样本、验证样本和测试样本,划分规则为:从原始数据集中随机选择g%组红外遥感影像作为测试样本,随机选择m%组红外遥感影像作为验证样本,其余组红外遥感影像作为训练样本,其中g和m为百分比值,通常情况下,g取20,m取10;
以及对全部样本进行标准化处理并使用随机角度旋转、等比例缩放、增加高斯噪声等方法对样本进行数据增强;
进一步,将训练数据集中带有薄云的样本作为模型输入,使用模型输出结果和对应的无云样本计算损失;在训练过程中,使用验证数据集评估模型性能,调整优化模型权重,经过多次完整训练后完成模型收敛;其中,本申请中,采用的损失函数如下:
式中,L表示损失值,表示模型输出去云图像在/>处的像素值,/>表示对应的无云图像在/>处的像素值,d表示无云图像的像素总数;
进一步地,利用训练好的薄云去除模型去除红外遥感图像中的薄云,即批量输入测试数据集中带有薄云的样本,生成无云红外图像,完成薄云去除任务
实施例二
本实施例公开了一种红外卫星遥感影像薄云去除装置,包括,
薄云去除模型构建模块;用于构建薄云去除模型,所述薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块;
薄云去除模型训练模块,用于获取训练数据集,对所述薄云去除模型进行训练;
薄云去除模块,用于利用训练好的薄云去除模型去除红外遥感图像中的薄云。
作为优选,所述薄云去除模型训练模块包括训练数据集处理单元和训练单元,
所述训练数据集处理单元,用于对训练数据集进行标准化处理,以及数据增强处理;
所述训练单元,用于利用处理后的训练数据集按如下损失函数对薄云去除模型进行训练;
式中,L表示损失值,表示模型输出去云图像在/>处的像素值,/>表示对应的无云图像在/>处的像素值,d表示无云图像的像素总数。
实施例三
本实施例进一步公开了一种计算机可读存储介质,其中,所处存储介质中存储有训练完成的薄云去除模型,用于利用所述训练完成的薄云去除模型去除红外遥感图像中的薄云。
为验证本申请薄云去除方法的去除效果,与常用云雾深度学习模型FFA-Net和DehazeFormer进行实验对比。实验结果如图2至图5,其中,图2为去除薄云前的红外遥感图像,由于实验图像的尺寸较大,为了清晰地展示图中的地物,其中仅给出了实验图像的局部区域;图3为使用FFA-Net生成的去云图像,图4为使用DehazeFormer生成的去云图像,图5为根据本发明方法生成的去云图像。
由图3至图5显示的薄云去除效果可见,本发明具有较好的纹理细节保真效果,同时,本申请提供的模型参数数量较小,具体见下表,即本申请可保证计算效率。
模型 | 参数量 |
FFA-Net | 17.2M |
DehazeFormer | 10.6M |
本实施例提供的模型 | 5.8M |
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种红外卫星遥感影像薄云去除方法,其特征在于,包括,
构建薄云去除模型;所述薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块;
获得训练数据集,对所述薄云去除模型进行训练;
利用训练好的薄云去除模型去除红外遥感图像中的薄云。
2.根据权利要求1所述的一种红外卫星遥感影像薄云去除方法,其特征在于,所述多尺度卷积模块包括多个并联的卷积层,用于从不同尺度提取红外卫星遥感影像的特征;
所述稠密残差模块包括多个串联的稠密残差块;用于提取经第一特征汇聚模块所得混合特征图的深度特征;
所述第一特征汇聚模块与所述第二特征汇聚模块包括串联的特征汇聚层和通道-空间注意力模块,分别用于对多尺度卷积模块和稠密残差模块提取的特征进行融合,得到相应的混合特征图。
3.根据权利要求2所述的一种红外卫星遥感影像薄云去除方法,其特征在于,所述稠密残差块之间通过通道-空间注意力模块连接。
4.根据权利要求1所述的一种红外卫星遥感影像薄云去除方法,其特征在于,所述第二特征汇聚模块输出的混合特征图与输入至薄云去除模型的红外卫星遥感影像进行像素相加后,作为所述薄云去除模型的输出结果。
5.根据权利要求1所述的一种红外卫星遥感影像薄云去除方法,其特征在于,训练前,对训练数据集进行标准化处理,以及数据增强处理。
6.根据权利要求1所述的一种红外卫星遥感影像薄云去除方法,其特征在于,训练时,采用的损失函数如下:
;
式中,L表示损失值,表示模型输出去云图像在/>处的像素值,/>表示对应的无云图像在/>处的像素值,d表示无云图像的像素总数。
7.一种红外卫星遥感影像薄云去除装置,其特征在于,包括,
薄云去除模型构建模块;用于构建薄云去除模型,所述薄云去除模型依次包括多尺度卷积模块、第一特征汇聚模块、稠密残差模块,和第二特征汇聚模块;
薄云去除模型训练模块,用于获取训练数据集,对所述薄云去除模型进行训练;
薄云去除模块,用于利用训练好的薄云去除模型去除红外遥感图像中的薄云。
8.根据权利要求7所述的一种红外卫星遥感影像薄云去除装置,其特征在于,所述薄云去除模型训练模块包括训练数据集处理单元和训练单元,
所述训练数据集处理单元,用于对训练数据集进行标准化处理,以及数据增强处理;
所述训练单元,用于利用处理后的训练数据集按如下损失函数对薄云去除模型进行训练;
;
式中,L表示损失值,表示模型输出去云图像在/>处的像素值,/>表示对应的无云图像在/>处的像素值,d表示无云图像的像素总数。
9.一种计算机可读存储介质,其特征在于,所处存储介质中存储如权利要求1-6任一所述的一种红外卫星遥感影像薄云去除方法中的薄云去除模型,用于利用所述薄云去除模型去除红外遥感图像中的薄云。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410004810.8A CN117496162B (zh) | 2024-01-03 | 2024-01-03 | 一种红外卫星遥感影像薄云去除方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410004810.8A CN117496162B (zh) | 2024-01-03 | 2024-01-03 | 一种红外卫星遥感影像薄云去除方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117496162A true CN117496162A (zh) | 2024-02-02 |
CN117496162B CN117496162B (zh) | 2024-03-22 |
Family
ID=89674842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410004810.8A Active CN117496162B (zh) | 2024-01-03 | 2024-01-03 | 一种红外卫星遥感影像薄云去除方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117496162B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170161584A1 (en) * | 2015-12-07 | 2017-06-08 | The Climate Corporation | Cloud detection on remote sensing imagery |
CN108921799A (zh) * | 2018-06-22 | 2018-11-30 | 西北工业大学 | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 |
US10436907B1 (en) * | 2014-10-11 | 2019-10-08 | Arete Associates | Active christiansen effect LIDAR system and method |
US20200250427A1 (en) * | 2019-02-06 | 2020-08-06 | Farmers Edge Inc. | Shadow and cloud masking for agriculture applications using convolutional neural networks |
CN113936204A (zh) * | 2021-11-22 | 2022-01-14 | 安徽师范大学 | 融合地形数据与深度神经网络的高分辨率遥感影像云雪识别方法及装置 |
CN113935917A (zh) * | 2021-10-14 | 2022-01-14 | 中国石油大学(华东) | 一种基于云图运算和多尺度生成对抗网络的光学遥感影像薄云去除方法 |
CN116228576A (zh) * | 2023-02-28 | 2023-06-06 | 江苏师范大学 | 基于注意力机制与特征增强的图像去雾方法 |
CN116758388A (zh) * | 2023-06-19 | 2023-09-15 | 中国地质大学(武汉) | 基于多尺度模型和残差的遥感图像时空融合方法及装置 |
-
2024
- 2024-01-03 CN CN202410004810.8A patent/CN117496162B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10436907B1 (en) * | 2014-10-11 | 2019-10-08 | Arete Associates | Active christiansen effect LIDAR system and method |
US20170161584A1 (en) * | 2015-12-07 | 2017-06-08 | The Climate Corporation | Cloud detection on remote sensing imagery |
CN108921799A (zh) * | 2018-06-22 | 2018-11-30 | 西北工业大学 | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 |
US20200250427A1 (en) * | 2019-02-06 | 2020-08-06 | Farmers Edge Inc. | Shadow and cloud masking for agriculture applications using convolutional neural networks |
CN113935917A (zh) * | 2021-10-14 | 2022-01-14 | 中国石油大学(华东) | 一种基于云图运算和多尺度生成对抗网络的光学遥感影像薄云去除方法 |
CN113936204A (zh) * | 2021-11-22 | 2022-01-14 | 安徽师范大学 | 融合地形数据与深度神经网络的高分辨率遥感影像云雪识别方法及装置 |
CN116228576A (zh) * | 2023-02-28 | 2023-06-06 | 江苏师范大学 | 基于注意力机制与特征增强的图像去雾方法 |
CN116758388A (zh) * | 2023-06-19 | 2023-09-15 | 中国地质大学(武汉) | 基于多尺度模型和残差的遥感图像时空融合方法及装置 |
Non-Patent Citations (3)
Title |
---|
HOU JIANG: "Multi-Scale Residual Convolutional Neural Network for Haze Removal of Remote Sensing Images", 《REMOTE SENSING》, 14 June 2018 (2018-06-14) * |
QIZHI XU: "LMO-YOLO: A Ship Detection Model for Low-Resolution Optical Satellite Imagery", 《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》, vol. 15, 20 May 2022 (2022-05-20) * |
李俊: "基于多尺度特征的遥感影像厚云检测和薄云去除方法研究", 《中国博士学位论文全文数据库基础科学辑》, 15 June 2022 (2022-06-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117496162B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110929607B (zh) | 一种城市建筑物施工进度的遥感识别方法和系统 | |
CN108846835B (zh) | 基于深度可分离卷积网络的图像变化检测方法 | |
CN110619282A (zh) | 一种无人机正射影像建筑物自动提取方法 | |
CN111369581A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN112862774B (zh) | 一种遥感影像建筑物精确分割方法 | |
CN111832615A (zh) | 一种基于前景背景特征融合的样本扩充方法及系统 | |
CN111738044B (zh) | 一种基于深度学习行为识别的校园暴力评估方法 | |
CN113592007B (zh) | 一种基于知识蒸馏的不良图片识别系统、方法、计算机及存储介质 | |
CN113269224B (zh) | 一种场景图像分类方法、系统及存储介质 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
CN116206112A (zh) | 基于多尺度特征融合和sam的遥感图像语义分割方法 | |
CN111815526B (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统 | |
CN113111740A (zh) | 一种遥感图像目标检测的特征编织方法 | |
Zhou et al. | MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution | |
CN117975267A (zh) | 一种基于孪生多尺度交叉注意的遥感影像变化检测方法 | |
CN113988147A (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
CN117557774A (zh) | 一种基于改进YOLOv8的无人机图像小目标检测方法 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN114329050A (zh) | 视觉媒体数据去重处理方法、装置、设备和存储介质 | |
CN113704276A (zh) | 地图更新方法、装置、电子设备及计算机可读存储介质 | |
CN115953330B (zh) | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 | |
CN112766381A (zh) | 有限样本下属性引导的sar图像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |