CN112966580B - 基于深度学习和超分辨率的遥感图像绿潮信息提取方法 - Google Patents

基于深度学习和超分辨率的遥感图像绿潮信息提取方法 Download PDF

Info

Publication number
CN112966580B
CN112966580B CN202110211077.3A CN202110211077A CN112966580B CN 112966580 B CN112966580 B CN 112966580B CN 202110211077 A CN202110211077 A CN 202110211077A CN 112966580 B CN112966580 B CN 112966580B
Authority
CN
China
Prior art keywords
image
green tide
resolution
super
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110211077.3A
Other languages
English (en)
Other versions
CN112966580A (zh
Inventor
崔宾阁
刘慧芳
荆纬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202110211077.3A priority Critical patent/CN112966580B/zh
Publication of CN112966580A publication Critical patent/CN112966580A/zh
Application granted granted Critical
Publication of CN112966580B publication Critical patent/CN112966580B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4046Scaling the whole image or part thereof using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明属于遥感图像处理技术领域,公开了一种基于深度学习和超分辨率的遥感图像绿潮信息提取方法,其包括如下步骤:I.利用降采样后的GF‑1图像对超分辨率网络模型进行预训练,得到预训练好的超分辨率网络模型;II.构建语义分割网络;III.基于预训练好的超分辨率网络模型和语义分割网络得到绿潮提取模型,训练所述绿潮提取模型;IV.获取待提取绿潮信息的MODIS图像输入训练后的绿潮提取模型,得到对应的绿潮提取结果。本发明方法能够替代传统的人工阈值方法;通过将图像超分辨率重建技术集成到语义分割网络中,在提高图像质量的前提下改善最终的分割性能;由于人为因素少,绿潮提取结果精确稳定。

Description

基于深度学习和超分辨率的遥感图像绿潮信息提取方法
技术领域
本发明涉及一种基于深度学习和超分辨率的遥感图像绿潮信息提取方法。
背景技术
绿潮是在特定的环境条件下,海洋中大型藻类(例如浒苔)爆发性增殖聚集形成的一种藻华现象。绿潮的大规模爆发不但会导致海洋灾害,还会影响景观,干扰旅游业的发展。
基于传统船舶走航的绿潮监测方法会耗费大量的人力和物力,而卫星遥感技术能够准确及时的获取绿潮爆发的位置和分布范围等信息,因而具有传统方法不可替代的优势。
中分辨率成像光谱仪(Moderate-Resolution Imaging Spectroradiometer,简称MODIS)以其高时间分辨率的优势被广泛应用于绿潮动态的实时监测。但是,MODIS数据空间分辨率低(250m-1000m),混合像元影响大,从而导致了绿潮提取误差较大。
传统的绿潮提取方法一直是绿潮检测领域关注和研究的热点。如基于阈值的绿潮单波段阈值选择法和多波段比值法,以及传统监督分类等方法都是应用于绿潮信息提取的常用方法。
绿潮单波段阈值提取法借助绿潮和海水光谱的差异性,特别是遥感图像的近红外波段的光谱特性更容易区分近海上的绿潮和海水,是遥感界用于提取地物分类的有效方法之一。
多波段比值法则通过对遥感图像不同波段间进行相应的比值,可以有效地增强绿潮和海水之间的差别,加强海水和绿潮的区分度,因此被广泛应用于绿潮遥感监测。
然而,以上两种绿潮提取方法均基于阈值,阈值的设定一定程度上依赖于使用者的经验,而且单一的阈值无法适应卫星数据中观测条件的变化。
传统监督分类方法是目前遥感界用于目标解译和分类的主要方法,是对现存的已经标记了绿潮信息的样本进行模型训练,进而对遥感数据进行像素级分类。
但是对于传统的监督分类方法,其分类结果由于遥感图像本身的空间分辨率的限制,往往出现较多的错分、漏分现象,导致绿潮信息分类精度不高。
综上所述,传统的针对卫星遥感图像进行绿潮提取的方法存在一定的不足。
近年来,深度卷积神经网络(Deep Convolutional Neural Networks,简称DCNN)由于其强大的特征表示能力,在计算机视觉的图像识别任务中取得了极大的成功。
目前,先后涌现出了FCN、R-CNN、F-RCN、UNet等深度卷积神经网络模型,并且成功将深度卷积网络应用于图像的语义分割和目标检测等图像处理任务。
深度卷积网络虽然在图像识别任务中取得了成功,然而,却极少被应用于遥感图像绿潮的提取及语义分割任务中,其原因在于,将深度卷积神经网络应用于低分辨率遥感影像中的绿潮信息提取任务时,在网络结构构建以及训练方法上仍然需要探索。
因此,如何能够将深度卷积神经网络应用于低分辨率遥感影像中的绿潮信息提取任务,以更好地完成绿潮提取任务,成为绿潮信息提取领域研究的一个重要方向。
发明内容
本发明的目的在于提出一种基于深度学习和超分辨率的遥感图像绿潮信息提取方法,以便将深度卷积神经网络应用于低分辨率遥感影像中的绿潮信息提取任务中。
本发明为了实现上述目的,采用如下技术方案:
基于深度学习和超分辨率的遥感图像绿潮信息提取方法,包括如下步骤:
I.利用降采样后的GF-1图像对超分辨率网络模型进行预训练,得到预训练好的超分辨率网络模型;其中,GF-1图像为与步骤III中MODIS训练图像为相同区域的图像;
II.构建语义分割网络,其包括编码路径模块、桥接模块、解码路径模块以及跳跃连接;
编码路径模块包括依次连接的第一卷积层、第一稠密块、第一池化层、第二稠密块以及第二池化层;桥接模块采用第三稠密块;
其中,第二池化层的输出端与第三稠密块的输入端相连;
解码路径模块包括依次连接的第一卷积+上采样块、第四稠密块、第二卷积+上采样块、第五稠密块、第二卷积层、第三池化层、第三卷积层以及第四卷积层;
其中,第三稠密块的输出端与第一卷积+上采样块的输入端相连;
跳跃连接有两个,分别为第一跳跃连接和第二跳跃连接;
第一跳跃连接为第一稠密块输出端与第五稠密块输入端之间的连接;其中,第一稠密块的输出特征图与第二卷积+上采样块的输出特征图进行拼接,作为第五稠密块的输入;
第二跳跃连接为第二稠密块输出端与第四稠密块输入端之间的连接;其中,第二稠密块的输出特征图与第一卷积+上采样块的输出特征图进行拼接,作为第四稠密块的输入;
III.基于预训练好的超分辨率网络模型和语义分割网络,得到绿潮提取模型;
获取MODIS训练图像,利用MODIS训练图像训练绿潮提取模型,得到训练好的绿潮提取模型;绿潮提取模型的训练过程如下:
III.1.获取MODIS遥感图像;
对MODIS遥感图像进行目视解译,生成二值标签图,并生成MODIS训练图像;
计算MODIS训练图像的归一化差分植被指数值,将归一化差分植被指数值作为一个波段,与MODIS训练图像的红色和近红外波段拼接,得到三波段遥感图像;
III.2.将步骤III.1中的三波段遥感图像输入到预训练好的超分辨率网络模型,得到分辨率提高一倍的重建图像;
III.3.将重建图像输入至语义分割网络,得到二值分割图;
III.4.利用二元交叉熵作为损失函数,计算步骤III.3中的二值分割图与步骤III.1中生成的二值标签图的损失;
然后将损失进行反向传播,利用自适应矩估计算法优化完成绿潮提取模型的训练;
IV.获取待提取绿潮信息的MODIS图像,将待提取绿潮信息的MODIS图像输入到经过步骤III训练好的绿潮提取模型中,得到绿潮提取结果。
优选地,步骤I中,超分辨率网络采用WDSR超分辨率网络。
优选地,步骤I具体为:
I.1.获取与步骤III中MODIS训练图像相同区域的GF-1图像;
I.2.将GF-1图像通过高斯滤波器降采样,得到分辨率降低一倍的降采样GF-1图像;
I.3.将降采样GF-1图像输入至超分辨率网络,得到超分辨率重建图像;
I.4:将步骤I.3中的超分辨率重建图像与步骤I.1GF-1图像通过均方误差函数MSE进行误差反向传播,获得预训练好的超分辨率网络模型。
优选地,均方误差函数MSE的计算公式如下:
Figure BDA0002951474950000031
其中,θ表示总体参数,n表示样本的个数,i表示第i个样本;
X(i),Y(i)分别表示输入的降采样GF-1图像和对应的原始GF-1图像;
F(X(i);θ)表示超分辨率网络模型的输出,即超分辨率重建图像。
优选地,编码路径模块中,第一卷积层的卷积核大小为3×3,第一稠密块以及第二稠密块均为五层稠密块,第一池化层以及第二池化层均采用最大池化。
优选地,桥接模块中,第三稠密块为三层稠密块。
优选地,解码路径模块中,第一卷积+上采样块、第二卷积+上采样块、第二卷积层以及第三卷积层中卷积核的大小为3×3,第四卷积层的卷积核大小为1×1;
第一卷积+上采样块、第二卷积+上采样块中上采样块通过插值法对卷积结果进行上采样;
第四稠密块以及第五稠密块均为五层稠密块,第三池化层采用最大池化。
优选地,步骤III.1中,归一化差分植被指数值NDVI的计算公式如下:
NDVI=(NIR-R)/(NIR+R) (2)
其中,NIR和R分别表示卫星观测到的近红外和红光波段的反射值。
优选地,步骤III.4中,损失函数采用二元交叉熵函数,计算公式如下:
Figure BDA0002951474950000041
式中,y'表示二值分割图,y表示二值标签图;
然后将损失进行反向传播,利用自适应矩估计算法进行优化完成绿潮提取模型的训练。
本发明具有如下优点:
如上所述,本发明提出了一种基于深度学习和超分辨率的遥感图像绿潮信息提取方法,该方法将深度卷积神经网络应用于低分辨率遥感影像中的绿潮提取,省略了传统绿潮提取方法中阈值选取的步骤,可以无监督的对遥感图像进行针对绿潮信息提取;本发明通过将图像超分辨率重建技术集成到语义分割网络中,在提高图像质量的前提下改善了最终的分割性能。
附图说明
图1为本发明中基于深度学习和超分辨率的遥感图像绿潮信息提取方法的流程图;
图2为本发明中采用的超分辨率网络WDSR的原理示意图;
图3为本发明中采用的超分辨率网络WDSR中的残差块结构示意图;
图4为本发明方法中构建的绿潮提取模型SRSe-Net的组成结构示意图;
图5为本发明中采用的稠密块的原理示意图;
图6为本发明中待提取绿潮信息遥感影像图;
图7为本发明中通过超分辨率重建后的遥感影像图;
图8为经过本发明方法提取的绿潮信息结果图。
具体实施方式
本发明的基本思想在于:
在高空间分辨率的GF图像域中学习到的低/高分辨率图像之间的表征迁移到MODIS图像域,用于提高MODIS图像的空间分辨率,在此基础上构建一种用于绿潮信息提取的深度语义分割网络,以针对分布复杂的绿潮信息能够自动提供语义分割图。
下面结合附图以及具体实施方式对本发明作进一步详细说明:
实施例
本实施例述及了一种基于深度学习和超分辨率的遥感图像绿潮信息提取方法,该方法将深度卷积神经网络应用于低分辨率遥感影像中的绿潮信息提取任务。
如图1所示,基于深度学习和超分辨率的遥感图像绿潮信息提取方法,包括如下步骤:
I.利用降采样后的GF-1图像对超分辨率网络模型进行预训练,得到预训练好的超分辨率网络模型。其中,GF-1图像为与步骤III中MODIS训练图像为相同区域的图像。
本实施例选用GF-1图像对超分辨率网络模型进行预训练的原因在于:
随着新的可用的大规模遥感数据源的急剧增加,可用于语义分割任务的数据集不断扩展,从多个源获得不同分辨率的数据集是普遍存在的。
在绿潮信息提取的实际应用中往往采用空间覆盖范围广且时间分辨率较高的MODIS卫星影像。然而,MODIS数据空间分辨率较低,混合像元影响大,导致绿潮提取误差较大。
而GF-1图像虽然空间覆盖范围小但具有较高的空间分辨率。
因此,为了在绿潮信息提取任务中提高MODIS数据空间分辨率,改善图像质量,取得更加精确的分割性能,本实施例利用高空间分辨率的GF-1图像预训练超分辨率网络模型。
将在GF图像域中学习到的低/高分辨率图像之间的表征迁移用于提高MODIS图像的空间分辨率,空间分辨率的提高和图像质量的改善,提高了区分绿潮斑块和周围水域的能力。
在基于深度神经网络方法解决超分辨率问题的研究领域中,SRCNN、FSRCNN、VDSR、WDSR以及ESRGAN等超分辨率网络模型实现了对图像的高分辨率重建。
其中,WDSR网络作为一种单图像超分辨率方法,在较小的计算开销下保证了信息流的贯通。因此,本发明优选采用WDSR超分辨率网络对遥感图像进行超分辨率重建。
下面对利用降采样后的GF-1图像对超分辨率网络模型进行预训练的过程进行详细说明:
I.1.获取与步骤III中MODIS训练图像相同区域的GF-1图像,空间分辨率为16m。
I.2.将GF-1图像通过高斯滤波器降采样,得到分辨率降低一倍的降采样GF-1图像,降采样后的GF-1图像,其空间分辨率为32m。
I.3.将降采样GF-1图像输入至超分辨率网络,得到超分辨率重建图像。具体过程如下:
①将降采样后的低分辨率GF-1图像通过两个采用不同卷积模块的分支提取特征;
②将两个分支结果采用相同的像素重组操作对特征图作放大处理;
③将两个分支结果相加得到重建的高分辨率图像。
I.4:将步骤I.3中的超分辨率重建图像与步骤I.1中GF-1图像通过均方误差函数MSE进行误差反向传播,获得预训练好的超分辨率网络模型。
其中,均方误差函数MSE的计算公式如下:
Figure BDA0002951474950000051
其中,θ表示总体参数,n表示样本的个数,i表示第i个样本;
X(i),Y(i)分别表示输入的降采样GF-1图像和对应的原始GF-1图像;
F(X(i);θ)表示超分辨率网络模型的输出,即超分辨率重建图像。
如图2为本实施例中WDSR超分辨率网络的原理示意图。
从图2中能够看出,第一分支由两个标准卷积层、残差体和像素重组模块组成;
其中,第一个卷积层的卷积核大小为3×3、卷积核个数为32;残差体由16个结构相同的残差块组成;第二个卷积层的卷积核大小为3×3、卷积核个数为。
第二分支由一个标准卷积层和像素重组模块组成;
其中,卷积层的卷积核大小为5×5,卷积核的个数为2。
残差块结构如图3所示,残差块由三个卷积层组成,其中:
第一卷积层的卷积核大小为1×1、卷积核个数为192,激活层的激活方式为“ReLU”;
第二卷积层的卷积核大小为1×1、卷积核个数为25;
第三卷积层的卷积核大小为3×3、卷积核个数为32;
最后,残差块的输出结果为将第三卷积层的输出结果与第一卷积层的输入相加。
II.基于编解码结构以及稠密块构建语义分割网络Se-Net,用于提取目标特征。
如图4所示,语义分割网络包括编码路径模块、桥接模块、解码路径模块以及跳跃连接。
其中,编码路径模块用于提取绿潮高级语义特征,获取高级语义特征图;
桥接模块用于将获得高级语义特征图进行特征聚合,减少特征映射数量,提高计算效率;
解码路径模块以及跳跃连接用于在保留细节信息的同时输出二值分割图。
下面对编码路径模块、桥接模块、解码路径模块以及跳跃连接进行详细说明:
编码路径模块包括依次连接的第一卷积层、第一稠密块D0、第一池化层、第二稠密块D1以及第二池化层。该编码路径模块中各个结构的特征如下:
第一卷积层的卷积核大小为3×3,步长为1;
第一稠密块D0以及第二稠密块D1均为五层稠密块;
第一池化层以及第二池化层均采用最大池化、核大小为2×2、步长为2,输出特征图的尺寸为16×16×992。
桥接模块采用第三稠密块D2,该第三稠密块D2为三层稠密块。
第二池化层的输出端与第三稠密块D2的输入端相连;
经过桥接模块中一个三层的稠密块D2进行特征聚合后输出特征图尺寸为16×16×2016。
解码路径模块包括依次连接的第一卷积+上采样块、第四稠密块D3、第二卷积+上采样块、第五稠密块D4、第二卷积层、第三池化层、第三卷积层以及第四卷积层。
其中,第三稠密块D2的输出端与第一卷积+上采样块的输入端相连。
解码路径模块中各个结构的特征如下:
第一卷积+上采样块、第二卷积+上采样块中,卷积核的大小为3×3、步长为1,且上采样块,通过插值法对卷积结果进行上采样。
第二卷积层以及第三卷积层中卷积核的大小为3×3,第四卷积层的卷积核大小为1×1。
第四稠密块以及第五稠密块均为五层稠密块,第三池化层采用最大池化。
解码路径模块最终输出二值分割图。
跳跃连接有两个,分别为第一跳跃连接和第二跳跃连接。
第一跳跃连接为第一稠密块D0输出端与第五稠密块D4输入端之间的连接。
第一跳跃连接的作用在于,将第一稠密块D0的输出特征图与第二卷积+上采样块的输出特征图进行拼接,作为第五稠密块D4的输入。
第二跳跃连接为第二稠密块D1输出端与第四稠密块D3输入端之间的连接。
第二跳跃连接的作用在于,将第二稠密块D1的输出特征图与第一卷积+上采样块的输出特征图进行拼接,作为第四稠密块D3的输入。
第一跳跃连接以及第二跳跃连接,通过将编码路径模块中各稠密块的输出特征图分别与解码路径模块中相应的稠密块的输入特征图进行拼接,增加了对形状多变的绿潮斑块信息提取的丰富性和多样性,使语义分割网络Se-Net更具表现力。
通过远距离跳跃连接(第一跳跃连接和第二跳跃连接),使得绿潮丰富的细节信息从编码路径模块传递到解码路径模块中,从而提高了绿潮提取精度。
由于本实施例中构建的语义分割网络Se-Net结合了稠密连接以及编解码结构的思想,因此,针对分布复杂的绿潮信息,能够自动提供语义分割图。
语义分割网络Se-Net自动进行语义分割的过程如下:
编码路径模块中第一层是卷积核大小为3×3,步长为1的第一卷积层,输出特征图F0
特征图F0输入一个第一稠密块D0,输出特征图F1
特征图F1输入一个核大小为2×2、步长为2的第一池化层,输出特征图F2
特征图F2输入一个第二稠密块D1,输出特征图F3
特征图F3输入一个第二池化层,输出特征图F4
第三稠密块D2是一个桥接稠密块,特征图F4输入桥接稠密块,得到输出特征图F5
解码路径模块中第一层是第一卷积+上采样块(conv+upsample),其中,卷积核大小为3×3,步长为1,上采样操作通过插值法对卷积结果进行上采样,输出特征图F6
特征图F6与特征图F3拼接后输入一个第四稠密块D3,输出特征图F7
特征图F7经过一个第二卷积+上采样块,其中,卷积核大小为3×3、步长为1,上采样操作通过插值法对卷积结果进行上采样,输出特征图F8
特征图F8与特征图F1拼接后输入一个第五稠密块D4,输出特征图F9
特征图F9经过一个卷积核大小为3×3、步长为1的第二卷积层,输出特征图F10
特征图F10依次经过第三池化层、第三卷积层以及第四卷积层,输出二值分割图。
图5为语义分割网络中稠密块(Dense Block)的原理示意图。
如图5所示,第i层的输入不仅与第i-1层的输出相关,还与所有之前层的输出有关。
记作:Xl=Hl([X0,X1,...,Xl-1]);Hl表示第l层用到的非线性变换;
其中,[·]代表拼接,既将X0到Xl-1层的所有输出特征图按通道组合在一起。
这里所用到的非线性变换为BN+ReLU+Conv(3×3)的组合,其中,BN表示批量归一化,ReLU表示线性整流函数,Conv(3×3)表示卷积核大小为3×3的卷积层。
在每一个稠密块中,任何两层之间都有直接的连接,即网络每一层的输入都是前面所有层输出的并集,而该层所学习的特征图也会被直接传给其后面所有层作为输入。
本实施例通过以上稠密块中的密集连接,缓解了梯度消失问题,加强绿潮信息中的特征传播,鼓励特征复用,极大的减少了参数量。
III.基于预训练好的超分辨率网络模型和语义分割网络,得到绿潮提取模型SRSe-Net。
其中,本实施例构建的绿潮提取模型SRSe-Net如图4所示。
利用MODIS训练图像训练绿潮提取模型SRSe-Net,得到训练好的绿潮提取模型SRSe-Net。绿潮提取模型SRSe-Net的训练过程如下:
MODIS训练图像先经过预训练好的WDSR超分辨率网络模型重建图像,再输入至语义分割网络Se-Net,进而完成绿潮提取模型SRSe-Net的训练。
下面对绿潮提取模型SRSe-Net的训练过程进行详细说明:
III.1.按照常规方法获取空间分辨率为250m的MODIS海洋卫星遥感图像,对MODIS图像进行目视解译,生成二值标签图,并生成大小为32×32的MODIS训练图像。
下面说明利用MODIS海洋卫星遥感图像得到MODIS训练图像具体过程:
筛选少云、噪声少、亮度均匀并且能够覆盖绿潮区域的影像;对筛选出的多源遥感图像进行几何校正、大气校正和海陆掩膜的数据预处理操作并选取目标感兴趣区进行裁切。
对裁切后的MODIS海洋卫星遥感图像进行目视解译,生成对应的真值图;裁剪MODIS图像和真值图,生成大小为32×32的MODIS训练图像。
同理,在上述步骤I中GF-1图像的获取过程如下:
按照常规方法获取空间分辨率分别为16m的GF-1海洋卫星遥感图像;
筛选少云、噪声少、亮度均匀并且能够覆盖绿潮区域的影像;对筛选出的多源遥感图像进行几何校正、大气校正和海陆掩膜的数据预处理操作并选取目标感兴趣区进行裁切;
采用高斯滤波器将裁切后的GF-1图像降采样至32m分辨率,裁剪GF-1图像和降采样图像,生成原始的和对应低分辨率的大小为32×32的GF-1训练样本。
针对浒苔的生物和光谱特性,计算MODIS训练图像的归一化差分植被指数值,归一化差分植被指数值NDVI的计算公式如下:NDVI=(NIR-R)/(NIR+R) (2)
其中,NIR和R分别表示卫星观测到的近红外和红光波段的反射值。
将经过上述公式(2)计算得到的归一化差分植被指数值作为一个波段,与MODIS训练图像的红色和近红外波段拼接,得到三波段遥感图像。
III.2.将步骤III.1中的三波段遥感图像输入到预训练好的超分辨率网络模型,得到分辨率提高一倍的重建图像。
III.3.将重建图像输入至语义分割网络Se-Net,得到二值分割图。
III.4.利用二元交叉熵作为损失函数,计算步骤III.3中的二值分割图与步骤III.1中生成的所述二值标签图的损失;损失函数采用二元交叉熵函数,计算公式如下:
Figure BDA0002951474950000091
式中,y'表示二值分割图,y表示二值标签图;
然后将损失进行反向传播,利用自适应矩估计算法进行优化完成绿潮提取模型的训练。
本实施例中自适应矩估计算法为常见的优化算法,此处不再详细赘述。
IV.获取待提取绿潮信息的MODIS图像,将待提取绿潮信息的MODIS图像输入到经过步骤III训练好的绿潮提取模型SRSe-Net中,得到绿潮提取结果。
本发明通过将深度卷积神经网络应用于低分辨率遥感影像中的绿潮信息提取任务,省略了传统绿潮提取方法中的阈值选取步骤,可以无监督的对遥感图像进行绿潮信息提取。
由于本发明将图像超分辨率重建技术集成到语义分割网络中,因此,在提高图像质量的前提下改善最终的分割性能,由于人为因素的减少,使得结果精确稳定。
图6、图7以及图8分别示出了待提取绿潮信息遥感影像图、通过超分辨率重建后的遥感影像图以及绿潮信息提取结果图。由图8可知,本发明能够较好的提取绿潮信息。
与常用的绿潮信息提取方法相比,本发明具有如下优势:
①本发明基于深度学习方法提取绿潮信息,因此,省略了传统绿潮提取方法中的阈值选取步骤,能够无监督的对遥感图像进行针对绿潮信息的提取。
②本发明方法通过将图像超分辨率重建技术集成到语义分割网络中,通过重建更精细的空间细节,能够提高最终的分割性能以及绿潮提取精度。
③本发明方法基于稠密块和跳跃连接,构建了适用于绿潮信息提取的语义分割网络Se-Net,通过加强对绿潮信息中特征的传播,鼓励特征复用,以获得更准确的分割结果。
当然,以上说明仅仅为本发明的较佳实施例,本发明并不限于列举上述实施例,应当说明的是,任何熟悉本领域的技术人员在本说明书的教导下,所做出的所有等同替代、明显变形形式,均落在本说明书的实质范围之内,理应受到本发明的保护。

Claims (9)

1.基于深度学习和超分辨率的遥感图像绿潮信息提取方法,其特征在于,
包括如下步骤:
I.利用降采样后的GF-1图像对超分辨率网络模型进行预训练,得到预训练好的超分辨率网络模型;其中,GF-1图像为与步骤III中MODIS训练图像为相同区域的图像;
II.构建语义分割网络,其包括编码路径模块、桥接模块、解码路径模块以及跳跃连接;
编码路径模块包括依次连接的第一卷积层、第一稠密块、第一池化层、第二稠密块以及第二池化层;桥接模块采用第三稠密块;
其中,第二池化层的输出端与第三稠密块的输入端相连;
解码路径模块包括依次连接的第一卷积+上采样块、第四稠密块、第二卷积+上采样块、第五稠密块、第二卷积层、第三池化层、第三卷积层以及第四卷积层;
其中,第三稠密块的输出端与第一卷积+上采样块的输入端相连;
跳跃连接有两个,分别为第一跳跃连接和第二跳跃连接;
第一跳跃连接为第一稠密块输出端与第五稠密块输入端之间的连接;其中,第一稠密块的输出特征图与第二卷积+上采样块的输出特征图进行拼接,作为第五稠密块的输入;
第二跳跃连接为第二稠密块输出端与第四稠密块输入端之间的连接;其中,第二稠密块的输出特征图与第一卷积+上采样块的输出特征图进行拼接,作为第四稠密块的输入;
III.基于预训练好的超分辨率网络模型和语义分割网络,得到绿潮提取模型;
获取MODIS训练图像,利用所述MODIS训练图像训练所述绿潮提取模型,得到训练好的绿潮提取模型;绿潮提取模型的训练过程如下:
III.1.获取MODIS遥感图像;
对MODIS遥感图像进行目视解译,生成二值标签图,并生成MODIS训练图像;
计算MODIS训练图像的归一化差分植被指数值,将归一化差分植被指数值作为一个波段,与所述MODIS训练图像的红色和近红外波段拼接,得到三波段遥感图像;
III.2.将步骤III.1中的三波段遥感图像输入到预训练好的超分辨率网络模型,得到分辨率提高一倍的重建图像;
III.3.将所述重建图像输入至语义分割网络,得到二值分割图;
III.4.利用二元交叉熵作为损失函数,计算步骤III.3中的二值分割图与步骤III.1中生成的二值标签图之间的损失;
将损失进行反向传播,利用自适应矩估计算法优化完成绿潮提取模型的训练;
IV.获取待提取绿潮信息的MODIS图像,将所述待提取绿潮信息的MODIS图像输入到经过步骤III训练好的绿潮提取模型中,得到绿潮提取结果。
2.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述步骤I中,所述超分辨率网络采用WDSR超分辨率网络。
3.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述步骤I具体为:
I.1.获取与步骤III中所述MODIS训练图像相同区域的GF-1图像;
I.2.将所述GF-1图像通过高斯滤波器降采样,得到分辨率降低一倍的降采样GF-1图像;
I.3.将所述降采样GF-1图像输入至超分辨率网络,得到超分辨率重建图像;
I.4:将步骤I.3中的超分辨率重建图像与步骤I.1所述GF-1图像通过均方误差函数MSE进行误差反向传播,获得预训练好的超分辨率网络模型。
4.根据权利要求3所述的遥感图像绿潮信息提取方法,其特征在于,
所述均方误差函数MSE的计算公式如下:
Figure FDA0002951474940000021
其中,θ表示总体参数,n表示样本的个数,i表示第i个样本;
X(i),Y(i)分别表示输入的降采样GF-1图像和对应的原始GF-1图像;
F(X(i);θ)表示超分辨率网络模型的输出,即超分辨率重建图像。
5.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述编码路径模块中,第一卷积层的卷积核大小为3×3,第一稠密块以及第二稠密块均为五层稠密块,第一池化层以及第二池化层均采用最大池化。
6.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述桥接模块中,第三稠密块为三层稠密块。
7.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述解码路径模块中,第一卷积+上采样块、第二卷积+上采样块、第二卷积层以及第三卷积层中卷积核的大小为3×3,第四卷积层的卷积核大小为1×1;
第一卷积+上采样块、第二卷积+上采样块中上采样块通过插值法对卷积结果进行上采样;
第四稠密块以及第五稠密块均为五层稠密块,第三池化层采用最大池化。
8.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述步骤III.1中,归一化差分植被指数值NDVI的计算公式如下:
NDVI=(NIR-R)/(NIR+R) (2)
其中,NIR和R分别表示卫星观测到的近红外和红光波段的反射值。
9.根据权利要求1所述的遥感图像绿潮信息提取方法,其特征在于,
所述步骤III.4中,损失函数采用二元交叉熵函数,计算公式如下:
Figure FDA0002951474940000031
式中,y'表示二值分割图,y表示二值标签图;
然后将损失进行反向传播,利用自适应矩估计算法进行优化完成绿潮提取模型的训练。
CN202110211077.3A 2021-02-25 2021-02-25 基于深度学习和超分辨率的遥感图像绿潮信息提取方法 Expired - Fee Related CN112966580B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110211077.3A CN112966580B (zh) 2021-02-25 2021-02-25 基于深度学习和超分辨率的遥感图像绿潮信息提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110211077.3A CN112966580B (zh) 2021-02-25 2021-02-25 基于深度学习和超分辨率的遥感图像绿潮信息提取方法

Publications (2)

Publication Number Publication Date
CN112966580A CN112966580A (zh) 2021-06-15
CN112966580B true CN112966580B (zh) 2022-07-12

Family

ID=76286101

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110211077.3A Expired - Fee Related CN112966580B (zh) 2021-02-25 2021-02-25 基于深度学习和超分辨率的遥感图像绿潮信息提取方法

Country Status (1)

Country Link
CN (1) CN112966580B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487483A (zh) * 2021-07-05 2021-10-08 上海商汤智能科技有限公司 影像分割网络的训练方法和装置
CN113640226B (zh) * 2021-08-12 2022-05-20 国家卫星海洋应用中心 绿潮空间覆盖率的反演方法、装置及电子设备
CN116310543B (zh) * 2023-03-14 2023-09-22 自然资源部第一海洋研究所 Gf-1 wfv卫星赤潮深度学习探测模型、构建方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574887A (zh) * 2016-02-29 2016-05-11 民政部国家减灾中心 高分辨率遥感影像快速分割方法
CN109447089A (zh) * 2018-10-16 2019-03-08 同济大学 基于超分技术的高分辨率北极海冰类型提取方法
CN112183360A (zh) * 2020-09-29 2021-01-05 上海交通大学 高分辨率遥感影像的轻量化语义分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574887A (zh) * 2016-02-29 2016-05-11 民政部国家减灾中心 高分辨率遥感影像快速分割方法
CN109447089A (zh) * 2018-10-16 2019-03-08 同济大学 基于超分技术的高分辨率北极海冰类型提取方法
CN112183360A (zh) * 2020-09-29 2021-01-05 上海交通大学 高分辨率遥感影像的轻量化语义分割方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"DenseUNet:densely connceted UNet for election microscopy image segmentation";Yue Cao et al.;《IET Image Processing》;20200903;全文 *
"Evolution of Image Segmentation using Deep Convolutional Neural Network:A Survey";Farhaha Sultana et al.;《arXiv》;20200529;全文 *
"Green Tide Information Extration Based on Multi-source Remote Sensing Data";Tingting Liang et al.;《IEEE》;20200826;全文 *
"Wide Activation for Efficient and Accurate Image Super-Resolution";Jiahui Yu et al.;《arXiv》;20181221;全文 *
"基于UNet深度学习算法的东海大型漂浮藻类遥感监测";李潇凡 等;《光学学报》;20200131;第41卷(第2期);全文 *
"基于深度学习的遥感图像语义分割技术研究";杨岚心;《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅱ辑》;20200115(第01期);全文 *

Also Published As

Publication number Publication date
CN112966580A (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
CN112966580B (zh) 基于深度学习和超分辨率的遥感图像绿潮信息提取方法
CN109102469B (zh) 一种基于卷积神经网络的遥感图像全色锐化方法
CN111767801A (zh) 一种基于深度学习的遥感影像水域自动提取方法及系统
CN112819910B (zh) 基于双鬼注意力机制网络的高光谱图像重建方法
CN111179167A (zh) 一种基于多阶段注意力增强网络的图像超分辨方法
Ren et al. Reinforced swin-convs transformer for simultaneous underwater sensing scene image enhancement and super-resolution
CN113313644A (zh) 一种基于残差双注意力网络的水下图像增强方法
Li et al. Underwater image high definition display using the multilayer perceptron and color feature-based SRCNN
CN112419155A (zh) 一种全极化合成孔径雷达影像超分辨率重建方法
CN112561876A (zh) 基于图像的池塘和水库的水质检测方法及系统
CN116309070A (zh) 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备
CN111008936B (zh) 一种多光谱图像全色锐化方法
CN116152120B (zh) 一种融合高低频特征信息的低光图像增强方法及装置
Hu et al. Hyperspectral image super resolution based on multiscale feature fusion and aggregation network with 3-D convolution
CN113312993A (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
CN116128898A (zh) 一种基于Transformer双分支模型的皮肤病变图像分割方法
Zhou et al. PAN-guided band-aware multi-spectral feature enhancement for pan-sharpening
CN113205016B (zh) 恒等残差型Unet与遥感水体指数的河湖岸线变化检测方法
CN117408924A (zh) 一种基于多重语义特征融合网络的低光照图像增强方法
CN117058367A (zh) 高分辨率遥感影像建筑物语义分割方法及装置
CN116977866A (zh) 一种轻量级滑坡检测方法
CN115861818A (zh) 基于注意力机制联合卷积神经网络的细小水体提取方法
CN114998101A (zh) 一种基于深度学习的卫星影像超分辨率方法
CN114638761A (zh) 一种高光谱图像全色锐化方法、设备及介质
CN113689346A (zh) 一种基于对比学习的紧凑深度学习去雾方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220712

CF01 Termination of patent right due to non-payment of annual fee