CN112749621A - 一种基于深度卷积神经网络的遥感图像云层检测方法 - Google Patents

一种基于深度卷积神经网络的遥感图像云层检测方法 Download PDF

Info

Publication number
CN112749621A
CN112749621A CN202011342358.4A CN202011342358A CN112749621A CN 112749621 A CN112749621 A CN 112749621A CN 202011342358 A CN202011342358 A CN 202011342358A CN 112749621 A CN112749621 A CN 112749621A
Authority
CN
China
Prior art keywords
neural network
convolutional neural
image
deep convolutional
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011342358.4A
Other languages
English (en)
Other versions
CN112749621B (zh
Inventor
傅莘莘
何一凡
杜晓凤
满旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University of Technology
Original Assignee
Xiamen University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University of Technology filed Critical Xiamen University of Technology
Priority to CN202011342358.4A priority Critical patent/CN112749621B/zh
Publication of CN112749621A publication Critical patent/CN112749621A/zh
Application granted granted Critical
Publication of CN112749621B publication Critical patent/CN112749621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

一种基于深度卷积神经网络的遥感图像云层检测方法,首先需要获得卫星图像的多个波段图,其中必要的是卫星遥感图像中的自然真彩色图像(RGB)、近光红外波段(Nir)以及云层掩模图作为训练集和测试集对深度卷积神经网络模型进行训练和测试,采用测试通过后的深度卷积神经网络模型实现遥感图像云层检测。这种基于深度学习对云层进行检测的方法拥有检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。

Description

一种基于深度卷积神经网络的遥感图像云层检测方法
技术领域
本发明涉及遥感图像云层检测偿领域,特别是指一种基于深度卷积神经网络的遥感图像云层检测方法。
背景技术
云层检测是遥感图像检测的必要前提条件。按照目前的技术水平来说,识别云层的方法主要是基于阈值分割的,所以在遥感图中同时出现雪、海洋以及云层的情况中,不能获得一个精准的划分效果。在遥感图像处理的过程中,云层检测是分析遥感图像和卫星图像的一个重要步骤。一方面,从时间、传输和存储来看,从卫星空间站向地面站台传输遥感图像是一个费时费力的过程,另一方面从地球的表面在任何时刻都有超过三分之二的云层覆盖比例,因此探测一张区域图像的上空是否有云层覆盖,对于得到该区域的大气参数是至关重要的,所以我们需要考虑一个高效,准确的算法去除云层。
近年来,许多云层检测的方法被提出,主要可以被分为以下的几种。一种是Z.Zhuand C.Woodcock等人提出的FMask(“Object-based cloud and cloud shadow detectionin landsat imagery,”Remote Sens.of Env.,vol.118,pp.8394,2012.)方法,FMask是一种被广泛使用的基于阈值分割云层语义的方法,基本思路是对光谱特性采取一系列的测试,并获得一个最佳云层分割阈值,并由此来获得遥感图像中潜在的云像素层并且使用形态学变换中的填充变换,并结合散射相关计算得到潜在的云阴影层,在获得两者之后在使用面向对象的方法完成云匹配。另一种方法的代表是基于深度学习语义分割的云检测方法,Mehta R,Arbel T等人提出的Rs-Net模型(RS-Net:Regression-Segmentation 3D CNNfor Synthesis of Full Resolution Missing Brain MRI in the Presence of Tumours[J].2018.)借鉴了U-Net(O.Ronneberger,P.Fischer,and T.Brox,“U-Net:Convolutionalnetworks for biomedical image segmentation,”CoRR,2015.)语义分割模型的实现减少了网络的深度,并在其中添加了L2正规化层、批量归一化层去避免过拟合的情况和加快训练速度并减少对图像预处理的要求,以及在结构的最后添加一个剪裁层去去除训练图像最外围对训练帮助不大的区域来防止对网络的训练产生错误的影响。Mohajerani S,SaeediP等人提出的Cloud-Net模型(Cloud-Net:An End-To-End Cloud Detection Algorithmfor Landsat 8Imagery[C]//IGARSS 2019-2019IEEE International Geoscience andRemote Sensing Symposium.IEEE,2019.)各个层级充分运用了卷积层提取的特征来获得更加精准的结果。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于深度卷积神经网络的遥感图像云层检测方法,检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
本发明采用如下技术方案:
一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集;
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练;
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估;
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果。
优选的,所述深度卷积神经网络模型是从输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
Figure BDA0002798903060000021
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7
优选的,步骤2)中,深度卷积神经网络模型的训练是以取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure BDA0002798903060000022
优选的,取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure BDA0002798903060000023
具体为:权值矩阵更新的公式为:
Figure BDA0002798903060000024
偏置更新的公式为:
Figure BDA0002798903060000025
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,
Figure BDA0002798903060000031
Figure BDA0002798903060000032
分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
Figure BDA0002798903060000033
优选的,步骤2)中,训练所述深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Figure BDA0002798903060000034
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度,
Figure BDA0002798903060000035
表示通过特征提取得到的图像,c′表示输出图像的维度,w′表示输出图像的宽度,h′表示输出图像的高度,c′大于c,θ1表示在特征提取过程中卷积操作的参数;
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
Figure BDA0002798903060000036
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出,w表示输出图像的宽度,h表示输出图像的高度,1是输出图像的维度。
优选的,步骤2)中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,给定超参数0≤β1≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别为梯度的一阶矩和二阶矩并有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示当前时间步,所以需要对其做偏移矫正,有如下的公式:
Figure BDA0002798903060000037
Figure BDA0002798903060000038
并根据如上的公式对各个权重参数Wt进行更新:
Figure BDA0002798903060000041
β1和β2以及ε是预设的参数,W表示模型中的权重参数,Wt为第t个时间步长中W的值,
Figure BDA00027989030600000415
Figure BDA00027989030600000416
分别为经过偏移矫正的估计值。
优选的,步骤2)中,所述深度卷积神经网络模型的注意力机制,包括如下:
通道注意力机制:
Figure BDA0002798903060000042
Figure BDA0002798903060000043
其中,
Figure BDA0002798903060000044
σ表示Sigmoid激活函数,F为注意力模块的输入,其中
Figure BDA0002798903060000045
为点乘的操作,
Figure BDA0002798903060000046
W0和W1中r为一常数,r=8,AvgPool是平均池化操作,MaxPool是最大池化操作,W1和W0是两个权重矩阵的参数,MLP表示共享权重矩阵,
Figure BDA0002798903060000047
表示整个通道注意力模块的输出,
Figure BDA0002798903060000048
表示最大池化层的输出,
Figure BDA0002798903060000049
表示平均池化层的输出;
深度注意力机制如下:
Figure BDA00027989030600000410
Figure BDA00027989030600000411
Figure BDA00027989030600000412
f7×7为卷积核大小为7的卷积操作,Favg表示多通道的平均池化操作,Fmax表示多通道的最大池化操作,
Figure BDA00027989030600000413
表示空间注意力模块的输出。
优选的,步骤3)中,进行测试得到深度卷积神经网络模型的性能和准确度评估,包括如下:
模型的精度评估标准为:
Figure BDA00027989030600000414
模型召回率评估标准为:
Figure BDA0002798903060000051
准确率的评估标准为:
Figure BDA0002798903060000052
其中tp(i,j)表示真阳性的数量,fn(i,j)表示假阴性的数量,tn(i,j)表示真阴性的数量,fp(i,j)表示假阳性的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量;
模型F1评估标准为:
Figure BDA0002798903060000053
Jaccard评估标准为:
Figure BDA0002798903060000054
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
1、本方法利用两种自然图像的卷积神经网络语义分割算法的基础上利用了注意力机制,得到了更加精准的云层掩模概率层,并且采用了Jaccard Index损失函数对训练的结果产生评估,这一损失函数通过每一步的损失进行梯度的反向传播,逐次优化神经网络中的权重和偏置参数,可以适配多种卫星遥感图像所提供的不同波段并且与传统基于阈值分割检测云层相比准确度大大提高。
2、本发明的方法,使用注意力机制和编码以及解码网络来获得更加优秀的云层分割概率图,利用绝对值正则化和基于自适应矩估计的梯度优化算法来加快训练卷积神经网络收敛速度。
3、本发明的方法基于深度学习对云层进行检测,拥有检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
附图说明
图1是深度卷积神经网络模型训练的过程中,Jacc coef函数数值下降的过程。
图2是深度卷积神经网络模型训练的过程中,模型的训练和验证精度上升的过程。
图3是深度卷积神经网络模型组成图。
图4(a)是深度卷积神经网络模型的通道注意力机制的示意图。
图4(b)是深度卷积神经网络模型的空间注意力机制的示意图。
图5(a)是卫星遥感图像的输入图像。
图5(b)是经过神经网络预测的云层分布图,其中白色为云层,黑色为其他的背景。
以下结合附图和具体实施例对本发明作进一步详述。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
一种基于深度卷积神经网络的遥感图像云层检测方法,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集。
Landsat卫星作为例子,Landsat带云掩模的图像可以从SPARCS数据集中下载得到,对于下载到的卫星遥感图像,可选取其中的三个真彩色波段(RGB)、近光红外波段(Nir)以及云层掩模图进行剪裁备用。剪裁理想的大小为384×384的小块,根据实际使用的需要将这些小块的图片根据类别并按照1:9的比例划分为训练集和测试集,分别在训练和测试的过程中进行使用。
在实际生产中我们可以使用现成的数据集(38-Cloud-A-Cloud-Segmentation-Dataset),这个数据库也是以Landsat 8卫星作为蓝本,将20张较大的卫星图切分为小块,并按照波段(RGB真彩色以及Nir波段)分文件夹进行归类,共有8400张图片可以进行训练和验证使用,同时提供了9200张图片用于测试。
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练。
输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
Figure BDA0002798903060000071
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7用于避免等式除以零的错误。
其中图1为Jaccard损失函数数值下降的过程,图2是模型训练和验证精度上升的过程,可以看出收敛和准确度迭代的方向在大致上始终朝着一个正确的方向运动。
参见图3的深度卷积神经网络模型组成图,主要有两个部分构成,分别是提取输入遥感图像的特征以及根据遥感图像的特征和短链接得到的浅层信息进行语义分割,最终得到云掩模的概率图。
深度卷积神经网络模型的训练是以取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure BDA0002798903060000072
损失函数的最小化由梯度下降算法和标准的反向传播算法实现,具体为:
权值矩阵更新的公式为:
Figure BDA0002798903060000073
Wl表示第l层的权重矩阵,l=1,2,3,5,...L,L是深度卷积神经网络模型的总层数偏置更新的公式为,i表示第i轮的迭代
Figure BDA0002798903060000074
其中,Bl表示第l层的偏置,l=1、2、3、...、L,l和i分别是卷积层的索引和迭代次数,η是学习率,
Figure BDA0002798903060000075
Figure BDA0002798903060000076
分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
Figure BDA0002798903060000077
深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Figure BDA0002798903060000081
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度。
Figure BDA0002798903060000082
表示经过特征提取的特征图像,c′表示输出图像的维度,c′大于c,θ1表示在特征提取过程中卷积操作的参数,
Figure BDA0002798903060000083
为特征图像。
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
Figure BDA0002798903060000084
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出。
该步骤中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,在时间步t中,给定超参数0≤β1≤1,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别表示梯度的一阶矩和二阶矩,有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示当前的时间步,则有一个一阶和二阶动量做偏移矫正,有如下的公式:
Figure BDA0002798903060000085
Figure BDA0002798903060000086
并根据如上的公式对各个权重参数Wt进行更新:
Figure BDA0002798903060000087
其中β1和β2以及ε是预设的参数,W表示模型中的权重参数,Wt为第t个时间步长中权重参数的值,
Figure BDA0002798903060000088
Figure BDA0002798903060000089
分别为经过偏移矫正的估计值。
另外,参见图4(a)和图4(b)是神经网络中空间注意力机制和通道注意力机制的示意图,注意力机制可以给网络指导,哪一部分是需要重视的特征,哪一部分是可以被忽略的特征,为了同时充分地利用图像的空间和通道信息,分别设计针对这两个模块的注意力机制,根据获取到的位置和分类信息来控制网络中信息的流动。如下分别为通道注意力和空间注意力机制的具体实现:
通道注意力机制:
Figure BDA0002798903060000091
Figure BDA0002798903060000092
其中,
Figure BDA0002798903060000093
σ表示Sigmoid激活函数,F为注意力模块的输入,其中
Figure BDA0002798903060000094
为点乘的操作,
Figure BDA0002798903060000095
W0和W1中r为一常数,本申请中r=8,它的作用是减少神经网络中参数的数量。F为模块的输入图像,
Figure BDA0002798903060000096
表示通道维度模块的输出,其中c×h×w表示注意力模块输出图像的维度、高度和宽度,MaxPool表示最大池化的操作,AvgPool表示平均池化的操作,MLP表示共享的权重矩阵,
Figure BDA0002798903060000097
表示平均池化层的输出,
Figure BDA0002798903060000098
表示最大池化层的输出。
深度注意力机制如下:
Figure BDA0002798903060000099
Figure BDA00027989030600000910
Figure BDA00027989030600000911
f7×7为卷积核大小为7的卷积操作,Favg表示多通道的平均池化操作,Fmax表示多通道的最大池化操作,
Figure BDA00027989030600000912
表示空间注意力模块的输出。其中c,h,w分别为输出图像的维度,高度和宽度。
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估。该步骤中,经过步骤2)的学习训练过程后,会得到一个模型文件,通过对这个模型的加载并分析其他未在训练集合内的遥感图像中的云层,得到训练模型的性能和准确度评估。评估的函数有如下几个标准:
模型的精度评估标准为:
Figure BDA0002798903060000101
其中tp(i,j)、fp(i,j)分别表示True positive(真阳性)和False positive(假阳性)的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量。
模型召回率评估标准为:
Figure BDA0002798903060000102
其中tp(i,j)、fn(i,j)分别表示True positive(真阳性)和False negative(假阴性)的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量。
准确率的评估标准为:
Figure BDA0002798903060000103
其中tp(i,j)表示True positive(真阳性),fn(i,j)表示False negative(假阴性)的数量,tn(i,j)表示True negative(真阴性)的数量,fp(i,j)表示False negative的数量(假阳性),M表示测试图像的数量,N表示一张测试图像中像素的数量。
模型F1评估标准为:
Figure BDA0002798903060000104
Jaccard评估标准为:
Figure BDA0002798903060000105
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
参见表1是深度卷积神经网络模型训练测试后的一份性能和准确度评估
表1
Figure BDA0002798903060000111
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果,即获得对应预测的云层掩模图像,输出的掩模图像表示了云层在原输入遥感图像中的云层分布情况。参见图5(a)是输入的卫星遥感图像,图5(b)是经过神经网络预测的云层分布图,其中白色为云层,黑色为其他的背景。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。

Claims (8)

1.一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集;
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练;
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估;
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果。
2.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,所述深度卷积神经网络模型是从输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
Figure FDA0002798903050000011
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7
3.如权利要求2所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,深度卷积神经网络模型的训练是以取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure FDA0002798903050000012
4.如权利要求3所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure FDA0002798903050000015
具体为:权值矩阵更新的公式为:
Figure FDA0002798903050000013
偏置更新的公式为:
Figure FDA0002798903050000014
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,
Figure FDA0002798903050000021
Figure FDA0002798903050000022
分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
Figure FDA0002798903050000023
5.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,训练所述深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度,Y1 w′×h′×c′表示通过特征提取得到的图像,c′表示输出图像的维度,w′表示输出图像的宽度,h′表示输出图像的高度,c′大于c,θ1表示在特征提取过程中卷积操作的参数;
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
Figure FDA0002798903050000024
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出,w表示输出图像的宽度,h表示输出图像的高度,1是输出图像的维度。
6.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,给定超参数0≤β1≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别为梯度的一阶矩和二阶矩并有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示时间步,所以需要对其做偏移矫正,有如下的公式:
Figure FDA0002798903050000025
Figure FDA0002798903050000031
并根据如上的公式对各个权重参数Wt进行更新:
Figure FDA0002798903050000032
β1和β2以及ε是预设的参数,W表示模型中的权重参数,Wt为第t个时间步长中W的值,
Figure FDA0002798903050000033
Figure FDA0002798903050000034
分别为经过偏移矫正的估计值。
7.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,所述深度卷积神经网络模型的注意力机制,包括如下:
通道注意力机制:
Figure FDA0002798903050000035
Figure FDA0002798903050000036
其中,
Figure FDA0002798903050000037
σ表示Sigmoid激活函数,F为注意力模块的输入,其中
Figure FDA0002798903050000038
为点乘的操作,
Figure FDA0002798903050000039
W0和W1中r为一常数,r=8,AvgPool是平均池化操作,MaxPool是最大池化操作,W1和W0是两个权重矩阵的参数,MLP表示共享权重矩阵,
Figure FDA00027989030500000310
表示整个通道注意力模块的输出,
Figure FDA00027989030500000311
表示最大池化层的输出,
Figure FDA00027989030500000312
表示平均池化层的输出;
深度注意力机制如下:
Figure FDA00027989030500000313
Figure FDA00027989030500000314
Figure FDA00027989030500000315
f7×7为卷积核大小为7的卷积操作,Favg表示多通道的平均池化操作,Fmax表示多通道的最大池化操作,
Figure FDA00027989030500000316
表示空间注意力模块的输出。
8.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤3)中,进行测试得到深度卷积神经网络模型的性能和准确度评估,包括如下:
模型的精度评估标准为:
Figure FDA0002798903050000041
模型召回率评估标准为:
Figure FDA0002798903050000042
准确率的评估标准为:
Figure FDA0002798903050000043
其中tp(i,j)表示真阳性的数量,fn(i,j)表示假阴性的数量,tn(i,j)表示真阴性的数量,fp(i,j)表示假阳性的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量;
模型F1评估标准为:
Figure FDA0002798903050000044
Jaccard评估标准为:
Figure FDA0002798903050000045
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
CN202011342358.4A 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法 Active CN112749621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011342358.4A CN112749621B (zh) 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011342358.4A CN112749621B (zh) 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法

Publications (2)

Publication Number Publication Date
CN112749621A true CN112749621A (zh) 2021-05-04
CN112749621B CN112749621B (zh) 2023-06-13

Family

ID=75648670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011342358.4A Active CN112749621B (zh) 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法

Country Status (1)

Country Link
CN (1) CN112749621B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408457A (zh) * 2021-06-29 2021-09-17 西南交通大学 一种联合高分影像和视频图像的道路信息智能提取方法
CN113421258A (zh) * 2021-07-22 2021-09-21 湖南星图空间信息技术有限公司 一种基于高分辨率遥感影像的自动云检测方法
CN113643312A (zh) * 2021-10-12 2021-11-12 江苏维沛通信科技发展有限公司 基于真彩色卫星云图与图像处理的云层分割方法
CN113792653A (zh) * 2021-09-13 2021-12-14 山东交通学院 一种遥感影像云检测的方法、系统、设备和存储介质
CN116977311A (zh) * 2023-08-02 2023-10-31 中国人民解放军61540部队 一种洪涝灾害区域检测方法、系统、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805861A (zh) * 2018-04-28 2018-11-13 中国人民解放军国防科技大学 一种基于深度学习的遥感图像云检测方法
WO2019136946A1 (zh) * 2018-01-15 2019-07-18 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN110458165A (zh) * 2019-08-14 2019-11-15 贵州大学 一种引入注意力机制的自然场景文本检测方法
CN111062917A (zh) * 2019-12-10 2020-04-24 西安中科星图空间数据技术有限公司 一种基于深度神经网络的三线阵影像云检测方法及装置
CN111738124A (zh) * 2020-06-15 2020-10-02 西安电子科技大学 基于Gabor变换和注意力的遥感图像云检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019136946A1 (zh) * 2018-01-15 2019-07-18 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN108805861A (zh) * 2018-04-28 2018-11-13 中国人民解放军国防科技大学 一种基于深度学习的遥感图像云检测方法
CN110458165A (zh) * 2019-08-14 2019-11-15 贵州大学 一种引入注意力机制的自然场景文本检测方法
CN111062917A (zh) * 2019-12-10 2020-04-24 西安中科星图空间数据技术有限公司 一种基于深度神经网络的三线阵影像云检测方法及装置
CN111738124A (zh) * 2020-06-15 2020-10-02 西安电子科技大学 基于Gabor变换和注意力的遥感图像云检测方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408457A (zh) * 2021-06-29 2021-09-17 西南交通大学 一种联合高分影像和视频图像的道路信息智能提取方法
CN113421258A (zh) * 2021-07-22 2021-09-21 湖南星图空间信息技术有限公司 一种基于高分辨率遥感影像的自动云检测方法
CN113792653A (zh) * 2021-09-13 2021-12-14 山东交通学院 一种遥感影像云检测的方法、系统、设备和存储介质
CN113792653B (zh) * 2021-09-13 2023-10-20 山东交通学院 一种遥感影像云检测的方法、系统、设备和存储介质
CN113643312A (zh) * 2021-10-12 2021-11-12 江苏维沛通信科技发展有限公司 基于真彩色卫星云图与图像处理的云层分割方法
CN113643312B (zh) * 2021-10-12 2022-02-08 江苏维沛通信科技发展有限公司 基于真彩色卫星云图与图像处理的云层分割方法
CN116977311A (zh) * 2023-08-02 2023-10-31 中国人民解放军61540部队 一种洪涝灾害区域检测方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
CN112749621B (zh) 2023-06-13

Similar Documents

Publication Publication Date Title
CN112749621A (zh) 一种基于深度卷积神经网络的遥感图像云层检测方法
US11783569B2 (en) Method for classifying hyperspectral images on basis of adaptive multi-scale feature extraction model
CN108648191B (zh) 基于贝叶斯宽度残差神经网络的害虫图像识别方法
CN109190491B (zh) 残差卷积神经网络sar影像海冰分类方法
CN109523013B (zh) 基于浅层卷积神经网络的空气颗粒物污染程度估计方法
CN108573276A (zh) 一种基于高分辨率遥感影像的变化检测方法
CN110245711B (zh) 基于角度旋转生成网络的sar目标识别方法
CN107808138B (zh) 一种基于FasterR-CNN的通信信号识别方法
CN112395987B (zh) 基于无监督域适应cnn的sar图像目标检测方法
CN112308152B (zh) 基于光谱分割与同质区域检测的高光谱图像地物分类方法
CN108764250B (zh) 一种运用卷积神经网络提取本质图像的方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN112613350A (zh) 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法
CN108229274B (zh) 多层神经网络模型训练、道路特征识别的方法和装置
CN110543916B (zh) 一种缺失多视图数据的分类方法及系统
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN108734717B (zh) 基于深度学习的单帧星图背景暗弱目标提取方法
CN111626267B (zh) 一种利用空洞卷积的高光谱遥感图像分类方法
CN109543585A (zh) 基于卷积神经网络的水下光学目标检测与识别方法
CN111861906A (zh) 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法
CN116310510A (zh) 一种基于小样本深度学习的高光谱图像分类方法
CN112651468A (zh) 一种多尺度轻量化图像分类方法及其存储介质
CN114863348A (zh) 基于自监督的视频目标分割方法
CN114359387A (zh) 基于改进yolov4算法的袋料栽培香菇检测方法
CN114549891A (zh) 一种基于对比自监督学习的地基云图云类识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant