CN112749621B - 一种基于深度卷积神经网络的遥感图像云层检测方法 - Google Patents

一种基于深度卷积神经网络的遥感图像云层检测方法 Download PDF

Info

Publication number
CN112749621B
CN112749621B CN202011342358.4A CN202011342358A CN112749621B CN 112749621 B CN112749621 B CN 112749621B CN 202011342358 A CN202011342358 A CN 202011342358A CN 112749621 B CN112749621 B CN 112749621B
Authority
CN
China
Prior art keywords
neural network
image
convolutional neural
representing
deep convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011342358.4A
Other languages
English (en)
Other versions
CN112749621A (zh
Inventor
傅莘莘
何一凡
杜晓凤
满旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University of Technology
Original Assignee
Xiamen University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University of Technology filed Critical Xiamen University of Technology
Priority to CN202011342358.4A priority Critical patent/CN112749621B/zh
Publication of CN112749621A publication Critical patent/CN112749621A/zh
Application granted granted Critical
Publication of CN112749621B publication Critical patent/CN112749621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于深度卷积神经网络的遥感图像云层检测方法,首先需要获得卫星图像的多个波段图,其中必要的是卫星遥感图像中的自然真彩色图像(RGB)、近光红外波段(Nir)以及云层掩模图作为训练集和测试集对深度卷积神经网络模型进行训练和测试,采用测试通过后的深度卷积神经网络模型实现遥感图像云层检测。这种基于深度学习对云层进行检测的方法拥有检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。

Description

一种基于深度卷积神经网络的遥感图像云层检测方法
技术领域
本发明涉及遥感图像云层检测偿领域,特别是指一种基于深度卷积神经网络的遥感图像云层检测方法。
背景技术
云层检测是遥感图像检测的必要前提条件。按照目前的技术水平来说,识别云层的方法主要是基于阈值分割的,所以在遥感图中同时出现雪、海洋以及云层的情况中,不能获得一个精准的划分效果。在遥感图像处理的过程中,云层检测是分析遥感图像和卫星图像的一个重要步骤。一方面,从时间、传输和存储来看,从卫星空间站向地面站台传输遥感图像是一个费时费力的过程,另一方面从地球的表面在任何时刻都有超过三分之二的云层覆盖比例,因此探测一张区域图像的上空是否有云层覆盖,对于得到该区域的大气参数是至关重要的,所以我们需要考虑一个高效,准确的算法去除云层。
近年来,许多云层检测的方法被提出,主要可以被分为以下的几种。一种是Z.Zhuand C.Woodcock等人提出的FMask(“Object-based cloud and cloud shadow detectionin landsat imagery,”Remote Sens.of Env.,vol.118,pp.8394,2012.)方法,FMask是一种被广泛使用的基于阈值分割云层语义的方法,基本思路是对光谱特性采取一系列的测试,并获得一个最佳云层分割阈值,并由此来获得遥感图像中潜在的云像素层并且使用形态学变换中的填充变换,并结合散射相关计算得到潜在的云阴影层,在获得两者之后在使用面向对象的方法完成云匹配。另一种方法的代表是基于深度学习语义分割的云检测方法,Mehta R,Arbel T等人提出的Rs-Net模型(RS-Net:Regression-Segmentation 3D CNNfor Synthesis of Full Resolution Missing Brain MRI in the Presence of Tumours[J].2018.)借鉴了U-Net(O.Ronneberger,P.Fischer,and T.Brox,“U-Net:Convolutionalnetworks for biomedical image segmentation,”CoRR,2015.)语义分割模型的实现减少了网络的深度,并在其中添加了L2正规化层、批量归一化层去避免过拟合的情况和加快训练速度并减少对图像预处理的要求,以及在结构的最后添加一个剪裁层去去除训练图像最外围对训练帮助不大的区域来防止对网络的训练产生错误的影响。Mohajerani S,SaeediP等人提出的Cloud-Net模型(Cloud-Net:An End-To-End Cloud Detection Algorithmfor Landsat 8Imagery[C]//IGARSS 2019-2019IEEE International Geoscience andRemote Sensing Symposium.IEEE,2019.)各个层级充分运用了卷积层提取的特征来获得更加精准的结果。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于深度卷积神经网络的遥感图像云层检测方法,检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
本发明采用如下技术方案:
一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集;
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练;
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估;
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果。
优选的,所述深度卷积神经网络模型是从输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
Figure GDA0004202546990000021
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7
优选的,步骤2)中,深度卷积神经网络模型的训练是以取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure GDA0004202546990000022
优选的,取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure GDA0004202546990000023
具体为:权值矩阵更新的公式为:
Figure GDA0004202546990000024
偏置更新的公式为:
Figure GDA0004202546990000025
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,
Figure GDA0004202546990000031
Figure GDA0004202546990000032
分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
Figure GDA0004202546990000033
优选的,步骤2)中,训练所述深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度,Y1 w′×h′×c′表示通过特征提取得到的图像,c′表示输出图像的维度,w′表示输出图像的宽度,h′表示输出图像的高度,c′大于c,θ1表示在特征提取过程中卷积操作的参数;
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
Figure GDA0004202546990000034
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出,w表示输出图像的宽度,h表示输出图像的高度,1是输出图像的维度。
优选的,步骤2)中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,给定超参数0≤β1≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别为梯度的一阶矩和二阶矩并有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示当前时间步,所以需要对其做偏移矫正,有如下的公式:
Figure GDA0004202546990000035
Figure GDA0004202546990000036
并根据如上的公式对各个权重参数Wt进行更新:
Figure GDA0004202546990000041
β1和β2以及ε是预设的参数,W表示模型中的权重参数,Wt为第t个时间步长中W的值,
Figure GDA0004202546990000042
Figure GDA0004202546990000043
分别为经过偏移矫正的估计值。
优选的,步骤2)中,所述深度卷积神经网络模型的注意力机制,包括如下:
通道注意力机制:
Figure GDA0004202546990000044
Figure GDA0004202546990000045
其中,
Figure GDA0004202546990000046
σ表示Sigmoid激活函数,F为注意力模块的输入,其中
Figure GDA0004202546990000047
为点乘的操作,
Figure GDA0004202546990000048
W0和W1中r为一常数,r=8,AvgPool是平均池化操作,MaxPool是最大池化操作,W1和W0是两个权重矩阵的参数,MLP表示共享权重矩阵,
Figure GDA0004202546990000049
表示整个通道注意力模块的输出,
Figure GDA00042025469900000410
表示最大池化层的输出,
Figure GDA00042025469900000411
表示平均池化层的输出;
深度注意力机制如下:
Figure GDA00042025469900000412
Figure GDA00042025469900000413
Figure GDA00042025469900000414
f7×7为卷积核大小为7的卷积操作,Favg表示多通道的平均池化操作,Fmax表示多通道的最大池化操作,
Figure GDA00042025469900000415
表示空间注意力模块的输出。
优选的,步骤3)中,进行测试得到深度卷积神经网络模型的性能和准确度评估,包括如下:
模型的精度评估标准为:
Figure GDA00042025469900000416
模型召回率评估标准为:
Figure GDA0004202546990000051
准确率的评估标准为:
Figure GDA0004202546990000052
其中tp(i,j)表示真阳性的数量,fn(i,j)表示假阴性的数量,tn(i,j)表示真阴性的数量,fp(i,j)表示假阳性的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量;
模型F1评估标准为:
Figure GDA0004202546990000053
Jaccard评估标准为:
Figure GDA0004202546990000054
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
1、本方法利用两种自然图像的卷积神经网络语义分割算法的基础上利用了注意力机制,得到了更加精准的云层掩模概率层,并且采用了Jaccard Index损失函数对训练的结果产生评估,这一损失函数通过每一步的损失进行梯度的反向传播,逐次优化神经网络中的权重和偏置参数,可以适配多种卫星遥感图像所提供的不同波段并且与传统基于阈值分割检测云层相比准确度大大提高。
2、本发明的方法,使用注意力机制和编码以及解码网络来获得更加优秀的云层分割概率图,利用绝对值正则化和基于自适应矩估计的梯度优化算法来加快训练卷积神经网络收敛速度。
3、本发明的方法基于深度学习对云层进行检测,拥有检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
附图说明
图1是深度卷积神经网络模型训练的过程中,Jacc coef函数数值下降的过程。
图2是深度卷积神经网络模型训练的过程中,模型的训练和验证精度上升的过程。
图3是深度卷积神经网络模型组成图。
图4(a)是深度卷积神经网络模型的通道注意力机制的示意图。
图4(b)是深度卷积神经网络模型的空间注意力机制的示意图。
图5(a)是卫星遥感图像的输入图像。
图5(b)是经过神经网络预测的云层分布图,其中白色为云层,黑色为其他的背景。
以下结合附图和具体实施例对本发明作进一步详述。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
一种基于深度卷积神经网络的遥感图像云层检测方法,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集。
Landsat卫星作为例子,Landsat带云掩模的图像可以从SPARCS数据集中下载得到,对于下载到的卫星遥感图像,可选取其中的三个真彩色波段(RGB)、近光红外波段(Nir)以及云层掩模图进行剪裁备用。剪裁理想的大小为384×384的小块,根据实际使用的需要将这些小块的图片根据类别并按照1:9的比例划分为训练集和测试集,分别在训练和测试的过程中进行使用。
在实际生产中我们可以使用现成的数据集(38-Cloud-A-Cloud-Segmentation-Dataset),这个数据库也是以Landsat 8卫星作为蓝本,将20张较大的卫星图切分为小块,并按照波段(RGB真彩色以及Nir波段)分文件夹进行归类,共有8400张图片可以进行训练和验证使用,同时提供了9200张图片用于测试。
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练。
输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
Figure GDA0004202546990000071
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7用于避免等式除以零的错误。
其中图1为Jaccard损失函数数值下降的过程,图2是模型训练和验证精度上升的过程,可以看出收敛和准确度迭代的方向在大致上始终朝着一个正确的方向运动。
参见图3的深度卷积神经网络模型组成图,主要有两个部分构成,分别是提取输入遥感图像的特征以及根据遥感图像的特征和短链接得到的浅层信息进行语义分割,最终得到云掩模的概率图。
深度卷积神经网络模型的训练是以取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure GDA0004202546990000072
损失函数的最小化由梯度下降算法和标准的反向传播算法实现,具体为:
权值矩阵更新的公式为:
Figure GDA0004202546990000073
Wl表示第l层的权重矩阵,l=1,2,3,5,...L,L是深度卷积神经网络模型的总层数偏置更新的公式为,i表示第i轮的迭代
Figure GDA0004202546990000074
其中,Bl表示第l层的偏置,l=1、2、3、...、L,l和i分别是卷积层的索引和迭代次数,η是学习率,
Figure GDA0004202546990000075
Figure GDA0004202546990000076
分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
Figure GDA0004202546990000077
深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度。Y1 w×h′×c′表示经过特征提取的特征图像,c′表示输出图像的维度,c′大于c,θ1表示在特征提取过程中卷积操作的参数,Y1 w×h×c′为特征图像。
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
Figure GDA0004202546990000081
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出。
该步骤中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,在时间步t中,给定超参数0≤β1≤1,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别表示梯度的一阶矩和二阶矩,有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示当前的时间步,则有一个一阶和二阶动量做偏移矫正,有如下的公式:
Figure GDA0004202546990000082
Figure GDA0004202546990000083
并根据如上的公式对各个权重参数Wt进行更新:
Figure GDA0004202546990000084
其中β1和β2以及ε是预设的参数,W表示模型中的权重参数,Wt为第t个时间步长中权重参数的值,
Figure GDA0004202546990000085
Figure GDA0004202546990000086
分别为经过偏移矫正的估计值。
另外,参见图4(a)和图4(b)是神经网络中空间注意力机制和通道注意力机制的示意图,注意力机制可以给网络指导,哪一部分是需要重视的特征,哪一部分是可以被忽略的特征,为了同时充分地利用图像的空间和通道信息,分别设计针对这两个模块的注意力机制,根据获取到的位置和分类信息来控制网络中信息的流动。如下分别为通道注意力和空间注意力机制的具体实现:
通道注意力机制:
Figure GDA0004202546990000091
Figure GDA0004202546990000092
其中,
Figure GDA0004202546990000093
σ表示Sigmoid激活函数,F为注意力模块的输入,其中
Figure GDA0004202546990000094
为点乘的操作,
Figure GDA0004202546990000095
W0和W1中r为一常数,本申请中r=8,它的作用是减少神经网络中参数的数量。F为模块的输入图像,
Figure GDA0004202546990000096
表示通道维度模块的输出,其中c×h×w表示注意力模块输出图像的维度、高度和宽度,MaxPool表示最大池化的操作,AvgPool表示平均池化的操作,MLP表示共享的权重矩阵,
Figure GDA0004202546990000097
表示平均池化层的输出,
Figure GDA0004202546990000098
表示最大池化层的输出。
深度注意力机制如下:
Figure GDA0004202546990000099
Figure GDA00042025469900000910
Figure GDA00042025469900000911
f7×7为卷积核大小为7的卷积操作,Favg表示多通道的平均池化操作,Fmax表示多通道的最大池化操作,
Figure GDA00042025469900000912
表示空间注意力模块的输出。其中c,h,w分别为输出图像的维度,高度和宽度。
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估。该步骤中,经过步骤2)的学习训练过程后,会得到一个模型文件,通过对这个模型的加载并分析其他未在训练集合内的遥感图像中的云层,得到训练模型的性能和准确度评估。评估的函数有如下几个标准:
模型的精度评估标准为:
Figure GDA0004202546990000101
其中tp(i,j)、fp(i,j)分别表示True positive(真阳性)和False positive(假阳性)的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量。
模型召回率评估标准为:
Figure GDA0004202546990000102
其中tp(i,j)、fn(i,j)分别表示True positive(真阳性)和False negative(假阴性)的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量。
准确率的评估标准为:
Figure GDA0004202546990000103
其中tp(i,j)表示True positive(真阳性),fn(i,j)表示False negative(假阴性)的数量,tn(i,j)表示True negative(真阴性)的数量,fp(i,j)表示False negative的数量(假阳性),M表示测试图像的数量,N表示一张测试图像中像素的数量。
模型F1评估标准为:
Figure GDA0004202546990000104
Jaccard评估标准为:
Figure GDA0004202546990000105
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
参见表1是深度卷积神经网络模型训练测试后的一份性能和准确度评估
表1
Figure GDA0004202546990000111
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果,即获得对应预测的云层掩模图像,输出的掩模图像表示了云层在原输入遥感图像中的云层分布情况。参见图5(a)是输入的卫星遥感图像,图5(b)是经过神经网络预测的云层分布图,其中白色为云层,黑色为其他的背景。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。

Claims (5)

1.一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集;
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,给定超参数0≤β1≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别为梯度的一阶矩和二阶矩并有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示时间步,所以需要对其做偏移矫正,有如下的公式:
Figure FDA0004202546980000011
Figure FDA0004202546980000012
并根据如上的公式对各个权重参数Wt进行更新:
Figure FDA0004202546980000013
β1和β2以及ε是预设的参数,W表示模型中的权重参数,Wt为第t个时间步长中W的值,
Figure FDA0004202546980000014
Figure FDA0004202546980000015
分别为经过偏移矫正的估计值;所述深度卷积神经网络模型的注意力机制,包括如下:
通道注意力机制:
Figure FDA0004202546980000016
Figure FDA0004202546980000017
其中,
Figure FDA0004202546980000018
σ表示Sigmoid激活函数,F为注意力模块的输入,其中
Figure FDA0004202546980000019
为点乘的操作,
Figure FDA00042025469800000110
W0和W1中r为一常数,r=8,AvgPool是平均池化操作,MaxPool是最大池化操作,W1和W0是两个权重矩阵的参数,MLP表示共享权重矩阵,
Figure FDA00042025469800000111
表示整个通道注意力模块的输出,
Figure FDA00042025469800000112
表示最大池化层的输出,
Figure FDA00042025469800000113
表示平均池化层的输出;
深度注意力机制如下:
Figure FDA0004202546980000021
Figure FDA0004202546980000022
Figure FDA0004202546980000023
f7×7为卷积核大小为7的卷积操作,Favg表示多通道的平均池化操作,Fmax表示多通道的最大池化操作,
Figure FDA0004202546980000024
表示空间注意力模块的输出;
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估;包括如下:
模型的精度评估标准为:
Figure FDA0004202546980000025
模型召回率评估标准为:
Figure FDA0004202546980000026
准确率的评估标准为:
Figure FDA0004202546980000027
其中tp(i,j)表示真阳性的数量,fn(i,j)表示假阴性的数量,tn(i,j)表示真阴性的数量,fp(i,j)表示假阳性的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量;
模型F1评估标准为:
Figure FDA0004202546980000028
Jaccard评估标准为:
Figure FDA0004202546980000031
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作;
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果。
2.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,所述深度卷积神经网络模型是从输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
Figure FDA0004202546980000032
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7
3.如权利要求2所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,深度卷积神经网络模型的训练是以取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure FDA0004202546980000033
4.如权利要求3所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,取得损失函数JL(t,l)的最优值来估计映射函数F中参数θ的最优取值
Figure FDA0004202546980000034
具体为:权值矩阵更新的公式为:
Figure FDA0004202546980000035
偏置更新的公式为:
Figure FDA0004202546980000036
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,
Figure FDA0004202546980000041
Figure FDA0004202546980000042
分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
Figure FDA0004202546980000043
5.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,训练所述深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度,Y1 w×h×c′表示通过特征提取得到的图像,c′表示输出图像的维度,w′表示输出图像的宽度,h′表示输出图像的高度,c′大于c,θ1表示在特征提取过程中卷积操作的参数;
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
Figure FDA0004202546980000044
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出,w表示输出图像的宽度,h表示输出图像的高度,1是输出图像的维度。
CN202011342358.4A 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法 Active CN112749621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011342358.4A CN112749621B (zh) 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011342358.4A CN112749621B (zh) 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法

Publications (2)

Publication Number Publication Date
CN112749621A CN112749621A (zh) 2021-05-04
CN112749621B true CN112749621B (zh) 2023-06-13

Family

ID=75648670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011342358.4A Active CN112749621B (zh) 2020-11-25 2020-11-25 一种基于深度卷积神经网络的遥感图像云层检测方法

Country Status (1)

Country Link
CN (1) CN112749621B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408457B (zh) * 2021-06-29 2022-10-21 西南交通大学 一种联合高分影像和视频图像的道路信息智能提取方法
CN113421258A (zh) * 2021-07-22 2021-09-21 湖南星图空间信息技术有限公司 一种基于高分辨率遥感影像的自动云检测方法
CN113792653B (zh) * 2021-09-13 2023-10-20 山东交通学院 一种遥感影像云检测的方法、系统、设备和存储介质
CN113935908B (zh) * 2021-09-16 2024-06-14 航天东方红卫星有限公司 一种基于双支路通道和特征强化机制的遥感图像去云方法
CN113643312B (zh) * 2021-10-12 2022-02-08 江苏维沛通信科技发展有限公司 基于真彩色卫星云图与图像处理的云层分割方法
CN116977311B (zh) * 2023-08-02 2024-06-11 中国人民解放军61540部队 一种洪涝灾害区域检测方法、系统、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805861A (zh) * 2018-04-28 2018-11-13 中国人民解放军国防科技大学 一种基于深度学习的遥感图像云检测方法
WO2019136946A1 (zh) * 2018-01-15 2019-07-18 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN110458165A (zh) * 2019-08-14 2019-11-15 贵州大学 一种引入注意力机制的自然场景文本检测方法
CN111062917A (zh) * 2019-12-10 2020-04-24 西安中科星图空间数据技术有限公司 一种基于深度神经网络的三线阵影像云检测方法及装置
CN111738124A (zh) * 2020-06-15 2020-10-02 西安电子科技大学 基于Gabor变换和注意力的遥感图像云检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019136946A1 (zh) * 2018-01-15 2019-07-18 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN108805861A (zh) * 2018-04-28 2018-11-13 中国人民解放军国防科技大学 一种基于深度学习的遥感图像云检测方法
CN110458165A (zh) * 2019-08-14 2019-11-15 贵州大学 一种引入注意力机制的自然场景文本检测方法
CN111062917A (zh) * 2019-12-10 2020-04-24 西安中科星图空间数据技术有限公司 一种基于深度神经网络的三线阵影像云检测方法及装置
CN111738124A (zh) * 2020-06-15 2020-10-02 西安电子科技大学 基于Gabor变换和注意力的遥感图像云检测方法

Also Published As

Publication number Publication date
CN112749621A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN112749621B (zh) 一种基于深度卷积神经网络的遥感图像云层检测方法
CN111652321B (zh) 一种基于改进yolov3算法的海上船舶检测方法
CN109754017B (zh) 基于可分离的三维残差网络和迁移学习高光谱图像分类方法
CN108648191B (zh) 基于贝叶斯宽度残差神经网络的害虫图像识别方法
CN107808138B (zh) 一种基于FasterR-CNN的通信信号识别方法
CN111652038A (zh) 基于卷积神经网络的遥感的海冰图像分类方法
CN112613350A (zh) 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法
CN104112263A (zh) 基于深度神经网络的全色图像与多光谱图像融合的方法
CN109523013A (zh) 一种基于浅层卷积神经网络的空气颗粒物污染程度估计方法
CN107578455B (zh) 基于卷积神经网络的任意尺寸样本纹理合成方法
CN111738954B (zh) 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法
CN110443296B (zh) 面向高光谱图像分类的数据自适应激活函数学习方法
CN111368935B (zh) 一种基于生成对抗网络的sar时敏目标样本增广方法
CN111539314A (zh) 面向云雾遮挡的海面目标显著性检测方法
CN109543585A (zh) 基于卷积神经网络的水下光学目标检测与识别方法
CN111626267B (zh) 一种利用空洞卷积的高光谱遥感图像分类方法
CN114266898A (zh) 一种基于改进EfficientNet的肝癌识别方法
CN113392871B (zh) 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法
CN111815526B (zh) 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统
CN106934398A (zh) 基于超像素聚类和稀疏表示的图像去噪方法
CN114299398B (zh) 一种基于自监督对比学习的小样本遥感图像分类方法
CN116563683A (zh) 一种基于卷积神经网络和多层感知机的遥感影像场景分类方法
CN105931184B (zh) 基于联合优化的sar图像超分辨率方法
CN104700115A (zh) 基于稀疏提升集成分类器的火星探测器软着陆过程中陨石坑的检测方法
CN110781832A (zh) 基于联合深度置信网络的高光谱图像异常目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant