CN112749621B - 一种基于深度卷积神经网络的遥感图像云层检测方法 - Google Patents
一种基于深度卷积神经网络的遥感图像云层检测方法 Download PDFInfo
- Publication number
- CN112749621B CN112749621B CN202011342358.4A CN202011342358A CN112749621B CN 112749621 B CN112749621 B CN 112749621B CN 202011342358 A CN202011342358 A CN 202011342358A CN 112749621 B CN112749621 B CN 112749621B
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- convolutional neural
- representing
- deep convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 27
- 238000013527 convolutional neural network Methods 0.000 title claims description 56
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000012360 testing method Methods 0.000 claims abstract description 30
- 230000006870 function Effects 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 19
- 238000011176 pooling Methods 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 18
- 230000007246 mechanism Effects 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 9
- 238000013528 artificial neural network Methods 0.000 abstract description 6
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000003062 neural network model Methods 0.000 abstract description 3
- 230000006978 adaptation Effects 0.000 abstract description 2
- 238000013508 migration Methods 0.000 abstract description 2
- 230000005012 migration Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 8
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 101150083127 brox gene Proteins 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006740 morphological transformation Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于深度卷积神经网络的遥感图像云层检测方法,首先需要获得卫星图像的多个波段图,其中必要的是卫星遥感图像中的自然真彩色图像(RGB)、近光红外波段(Nir)以及云层掩模图作为训练集和测试集对深度卷积神经网络模型进行训练和测试,采用测试通过后的深度卷积神经网络模型实现遥感图像云层检测。这种基于深度学习对云层进行检测的方法拥有检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
Description
技术领域
本发明涉及遥感图像云层检测偿领域,特别是指一种基于深度卷积神经网络的遥感图像云层检测方法。
背景技术
云层检测是遥感图像检测的必要前提条件。按照目前的技术水平来说,识别云层的方法主要是基于阈值分割的,所以在遥感图中同时出现雪、海洋以及云层的情况中,不能获得一个精准的划分效果。在遥感图像处理的过程中,云层检测是分析遥感图像和卫星图像的一个重要步骤。一方面,从时间、传输和存储来看,从卫星空间站向地面站台传输遥感图像是一个费时费力的过程,另一方面从地球的表面在任何时刻都有超过三分之二的云层覆盖比例,因此探测一张区域图像的上空是否有云层覆盖,对于得到该区域的大气参数是至关重要的,所以我们需要考虑一个高效,准确的算法去除云层。
近年来,许多云层检测的方法被提出,主要可以被分为以下的几种。一种是Z.Zhuand C.Woodcock等人提出的FMask(“Object-based cloud and cloud shadow detectionin landsat imagery,”Remote Sens.of Env.,vol.118,pp.8394,2012.)方法,FMask是一种被广泛使用的基于阈值分割云层语义的方法,基本思路是对光谱特性采取一系列的测试,并获得一个最佳云层分割阈值,并由此来获得遥感图像中潜在的云像素层并且使用形态学变换中的填充变换,并结合散射相关计算得到潜在的云阴影层,在获得两者之后在使用面向对象的方法完成云匹配。另一种方法的代表是基于深度学习语义分割的云检测方法,Mehta R,Arbel T等人提出的Rs-Net模型(RS-Net:Regression-Segmentation 3D CNNfor Synthesis of Full Resolution Missing Brain MRI in the Presence of Tumours[J].2018.)借鉴了U-Net(O.Ronneberger,P.Fischer,and T.Brox,“U-Net:Convolutionalnetworks for biomedical image segmentation,”CoRR,2015.)语义分割模型的实现减少了网络的深度,并在其中添加了L2正规化层、批量归一化层去避免过拟合的情况和加快训练速度并减少对图像预处理的要求,以及在结构的最后添加一个剪裁层去去除训练图像最外围对训练帮助不大的区域来防止对网络的训练产生错误的影响。Mohajerani S,SaeediP等人提出的Cloud-Net模型(Cloud-Net:An End-To-End Cloud Detection Algorithmfor Landsat 8Imagery[C]//IGARSS 2019-2019IEEE International Geoscience andRemote Sensing Symposium.IEEE,2019.)各个层级充分运用了卷积层提取的特征来获得更加精准的结果。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于深度卷积神经网络的遥感图像云层检测方法,检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
本发明采用如下技术方案:
一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集;
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练;
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估;
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果。
优选的,所述深度卷积神经网络模型是从输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7。
偏置更新的公式为:
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,和分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
优选的,步骤2)中,训练所述深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度,Y1 w′×h′×c′表示通过特征提取得到的图像,c′表示输出图像的维度,w′表示输出图像的宽度,h′表示输出图像的高度,c′大于c,θ1表示在特征提取过程中卷积操作的参数;
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出,w表示输出图像的宽度,h表示输出图像的高度,1是输出图像的维度。
优选的,步骤2)中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,给定超参数0≤β1≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别为梯度的一阶矩和二阶矩并有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示当前时间步,所以需要对其做偏移矫正,有如下的公式:
并根据如上的公式对各个权重参数Wt进行更新:
优选的,步骤2)中,所述深度卷积神经网络模型的注意力机制,包括如下:
通道注意力机制:
其中,σ表示Sigmoid激活函数,F为注意力模块的输入,其中为点乘的操作,W0和W1中r为一常数,r=8,AvgPool是平均池化操作,MaxPool是最大池化操作,W1和W0是两个权重矩阵的参数,MLP表示共享权重矩阵,表示整个通道注意力模块的输出,表示最大池化层的输出,表示平均池化层的输出;
深度注意力机制如下:
优选的,步骤3)中,进行测试得到深度卷积神经网络模型的性能和准确度评估,包括如下:
模型的精度评估标准为:
模型召回率评估标准为:
准确率的评估标准为:
其中tp(i,j)表示真阳性的数量,fn(i,j)表示假阴性的数量,tn(i,j)表示真阴性的数量,fp(i,j)表示假阳性的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量;
模型F1评估标准为:
Jaccard评估标准为:
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
1、本方法利用两种自然图像的卷积神经网络语义分割算法的基础上利用了注意力机制,得到了更加精准的云层掩模概率层,并且采用了Jaccard Index损失函数对训练的结果产生评估,这一损失函数通过每一步的损失进行梯度的反向传播,逐次优化神经网络中的权重和偏置参数,可以适配多种卫星遥感图像所提供的不同波段并且与传统基于阈值分割检测云层相比准确度大大提高。
2、本发明的方法,使用注意力机制和编码以及解码网络来获得更加优秀的云层分割概率图,利用绝对值正则化和基于自适应矩估计的梯度优化算法来加快训练卷积神经网络收敛速度。
3、本发明的方法基于深度学习对云层进行检测,拥有检测速度快,精准度高并且可以快速迁移适应不同卫星型号的特点。
附图说明
图1是深度卷积神经网络模型训练的过程中,Jacc coef函数数值下降的过程。
图2是深度卷积神经网络模型训练的过程中,模型的训练和验证精度上升的过程。
图3是深度卷积神经网络模型组成图。
图4(a)是深度卷积神经网络模型的通道注意力机制的示意图。
图4(b)是深度卷积神经网络模型的空间注意力机制的示意图。
图5(a)是卫星遥感图像的输入图像。
图5(b)是经过神经网络预测的云层分布图,其中白色为云层,黑色为其他的背景。
以下结合附图和具体实施例对本发明作进一步详述。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
一种基于深度卷积神经网络的遥感图像云层检测方法,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集。
Landsat卫星作为例子,Landsat带云掩模的图像可以从SPARCS数据集中下载得到,对于下载到的卫星遥感图像,可选取其中的三个真彩色波段(RGB)、近光红外波段(Nir)以及云层掩模图进行剪裁备用。剪裁理想的大小为384×384的小块,根据实际使用的需要将这些小块的图片根据类别并按照1:9的比例划分为训练集和测试集,分别在训练和测试的过程中进行使用。
在实际生产中我们可以使用现成的数据集(38-Cloud-A-Cloud-Segmentation-Dataset),这个数据库也是以Landsat 8卫星作为蓝本,将20张较大的卫星图切分为小块,并按照波段(RGB真彩色以及Nir波段)分文件夹进行归类,共有8400张图片可以进行训练和验证使用,同时提供了9200张图片用于测试。
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练。
输入端到输出端的映射函数F(Xw×h×c;θ),θ={W1,W2,...,WL;B1,B2,...,BL},Wl表示第l层的权值矩阵,l=1,2,3,5,...,L,L是深度卷积神经网络模型的总层数,Bl表示第l层的偏置,Xw×h×c表示输入图像,w,h,c分别为输入图像的宽度、高度和维度,损失函数为:
其中t表示为云掩模层,y表示为深度卷积神经网络模型的输出,N表示为云掩模层中像素的数量,y∈[0,1]以及t∈[0,1],yi、ti分别表示为y和t的第i个像素的值,ε=10-7用于避免等式除以零的错误。
其中图1为Jaccard损失函数数值下降的过程,图2是模型训练和验证精度上升的过程,可以看出收敛和准确度迭代的方向在大致上始终朝着一个正确的方向运动。
参见图3的深度卷积神经网络模型组成图,主要有两个部分构成,分别是提取输入遥感图像的特征以及根据遥感图像的特征和短链接得到的浅层信息进行语义分割,最终得到云掩模的概率图。
权值矩阵更新的公式为:
Wl表示第l层的权重矩阵,l=1,2,3,5,...L,L是深度卷积神经网络模型的总层数偏置更新的公式为,i表示第i轮的迭代
其中,Bl表示第l层的偏置,l=1、2、3、...、L,l和i分别是卷积层的索引和迭代次数,η是学习率,和分别是第i次迭代时损失函数对第l层的权值矩阵和偏置的偏导数,经过深度卷积神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优取值
深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度。Y1 w×h′×c′表示经过特征提取的特征图像,c′表示输出图像的维度,c′大于c,θ1表示在特征提取过程中卷积操作的参数,Y1 w×h×c′为特征图像。
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出。
该步骤中,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,在时间步t中,给定超参数0≤β1≤1,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别表示梯度的一阶矩和二阶矩,有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示当前的时间步,则有一个一阶和二阶动量做偏移矫正,有如下的公式:
并根据如上的公式对各个权重参数Wt进行更新:
另外,参见图4(a)和图4(b)是神经网络中空间注意力机制和通道注意力机制的示意图,注意力机制可以给网络指导,哪一部分是需要重视的特征,哪一部分是可以被忽略的特征,为了同时充分地利用图像的空间和通道信息,分别设计针对这两个模块的注意力机制,根据获取到的位置和分类信息来控制网络中信息的流动。如下分别为通道注意力和空间注意力机制的具体实现:
通道注意力机制:
其中,σ表示Sigmoid激活函数,F为注意力模块的输入,其中为点乘的操作,W0和W1中r为一常数,本申请中r=8,它的作用是减少神经网络中参数的数量。F为模块的输入图像,表示通道维度模块的输出,其中c×h×w表示注意力模块输出图像的维度、高度和宽度,MaxPool表示最大池化的操作,AvgPool表示平均池化的操作,MLP表示共享的权重矩阵,表示平均池化层的输出,表示最大池化层的输出。
深度注意力机制如下:
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估。该步骤中,经过步骤2)的学习训练过程后,会得到一个模型文件,通过对这个模型的加载并分析其他未在训练集合内的遥感图像中的云层,得到训练模型的性能和准确度评估。评估的函数有如下几个标准:
模型的精度评估标准为:
其中tp(i,j)、fp(i,j)分别表示True positive(真阳性)和False positive(假阳性)的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量。
模型召回率评估标准为:
其中tp(i,j)、fn(i,j)分别表示True positive(真阳性)和False negative(假阴性)的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量。
准确率的评估标准为:
其中tp(i,j)表示True positive(真阳性),fn(i,j)表示False negative(假阴性)的数量,tn(i,j)表示True negative(真阴性)的数量,fp(i,j)表示False negative的数量(假阳性),M表示测试图像的数量,N表示一张测试图像中像素的数量。
模型F1评估标准为:
Jaccard评估标准为:
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作。
参见表1是深度卷积神经网络模型训练测试后的一份性能和准确度评估
表1
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果,即获得对应预测的云层掩模图像,输出的掩模图像表示了云层在原输入遥感图像中的云层分布情况。参见图5(a)是输入的卫星遥感图像,图5(b)是经过神经网络预测的云层分布图,其中白色为云层,黑色为其他的背景。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。
Claims (5)
1.一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,包括如下步骤:
1)从数据库中获取卫星遥感图像,进行处理后分为训练集和测试集;
2)构建深度卷积神经网络模型,将训练集输入该深度卷积神经网络模型进行训练,通过使用自适应矩估计的梯度优化算法,提高深度卷积神经网络模型训练的收敛速度,给定超参数0≤β1≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
vt=β2vt-1+(1-β2)·diag(gt 2)
其中η表示学习率,mt和vt分别为梯度的一阶矩和二阶矩并有初值m0=0,v0=0,在迭代的阶段,mt和vt有一个向初值的偏移,t表示时间步,所以需要对其做偏移矫正,有如下的公式:
并根据如上的公式对各个权重参数Wt进行更新:
通道注意力机制:
其中,σ表示Sigmoid激活函数,F为注意力模块的输入,其中为点乘的操作,W0和W1中r为一常数,r=8,AvgPool是平均池化操作,MaxPool是最大池化操作,W1和W0是两个权重矩阵的参数,MLP表示共享权重矩阵,表示整个通道注意力模块的输出,表示最大池化层的输出,表示平均池化层的输出;
深度注意力机制如下:
3)将测试集输入训练好的深度卷积神经网络模型进行测试,得到模型的性能和准确度评估;包括如下:
模型的精度评估标准为:
模型召回率评估标准为:
准确率的评估标准为:
其中tp(i,j)表示真阳性的数量,fn(i,j)表示假阴性的数量,tn(i,j)表示真阴性的数量,fp(i,j)表示假阳性的数量,M表示测试图像的数量,N表示一张测试图像中像素的数量;
模型F1评估标准为:
Jaccard评估标准为:
其中ti表示模型预测云掩模像素的值,yi表示真实边界值,ε表示一个小常数防止除0的操作;
4)将待检测的图片输入测试通过的深度卷积神经网络模型,则输出云层检测结果。
5.如权利要求1所述的一种基于深度卷积神经网络的遥感图像云层检测方法,其特征在于,步骤2)中,训练所述深度卷积神经网络模型包括特征提取和语义分割,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
Y1 w′×h′×c′=F1(Xw×h×c;θ1)
其中w表示图像的宽度,h表示图像的高度,c表示图像的维度,Y1 w×h×c′表示通过特征提取得到的图像,c′表示输出图像的维度,w′表示输出图像的宽度,h′表示输出图像的高度,c′大于c,θ1表示在特征提取过程中卷积操作的参数;
语义分割是对特征图像进行上采样并逐步使得通道的维度减半,最后生成一个和输入图像相同大小的云掩模概率图,公式为:
其中θ2表示为在语义分割中卷积操作的参数,Y2为生成的云掩模图像输出,w表示输出图像的宽度,h表示输出图像的高度,1是输出图像的维度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011342358.4A CN112749621B (zh) | 2020-11-25 | 2020-11-25 | 一种基于深度卷积神经网络的遥感图像云层检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011342358.4A CN112749621B (zh) | 2020-11-25 | 2020-11-25 | 一种基于深度卷积神经网络的遥感图像云层检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112749621A CN112749621A (zh) | 2021-05-04 |
CN112749621B true CN112749621B (zh) | 2023-06-13 |
Family
ID=75648670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011342358.4A Active CN112749621B (zh) | 2020-11-25 | 2020-11-25 | 一种基于深度卷积神经网络的遥感图像云层检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112749621B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408457B (zh) * | 2021-06-29 | 2022-10-21 | 西南交通大学 | 一种联合高分影像和视频图像的道路信息智能提取方法 |
CN113421258A (zh) * | 2021-07-22 | 2021-09-21 | 湖南星图空间信息技术有限公司 | 一种基于高分辨率遥感影像的自动云检测方法 |
CN113792653B (zh) * | 2021-09-13 | 2023-10-20 | 山东交通学院 | 一种遥感影像云检测的方法、系统、设备和存储介质 |
CN113935908B (zh) * | 2021-09-16 | 2024-06-14 | 航天东方红卫星有限公司 | 一种基于双支路通道和特征强化机制的遥感图像去云方法 |
CN113643312B (zh) * | 2021-10-12 | 2022-02-08 | 江苏维沛通信科技发展有限公司 | 基于真彩色卫星云图与图像处理的云层分割方法 |
CN116977311B (zh) * | 2023-08-02 | 2024-06-11 | 中国人民解放军61540部队 | 一种洪涝灾害区域检测方法、系统、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805861A (zh) * | 2018-04-28 | 2018-11-13 | 中国人民解放军国防科技大学 | 一种基于深度学习的遥感图像云检测方法 |
WO2019136946A1 (zh) * | 2018-01-15 | 2019-07-18 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN110458165A (zh) * | 2019-08-14 | 2019-11-15 | 贵州大学 | 一种引入注意力机制的自然场景文本检测方法 |
CN111062917A (zh) * | 2019-12-10 | 2020-04-24 | 西安中科星图空间数据技术有限公司 | 一种基于深度神经网络的三线阵影像云检测方法及装置 |
CN111738124A (zh) * | 2020-06-15 | 2020-10-02 | 西安电子科技大学 | 基于Gabor变换和注意力的遥感图像云检测方法 |
-
2020
- 2020-11-25 CN CN202011342358.4A patent/CN112749621B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019136946A1 (zh) * | 2018-01-15 | 2019-07-18 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN108805861A (zh) * | 2018-04-28 | 2018-11-13 | 中国人民解放军国防科技大学 | 一种基于深度学习的遥感图像云检测方法 |
CN110458165A (zh) * | 2019-08-14 | 2019-11-15 | 贵州大学 | 一种引入注意力机制的自然场景文本检测方法 |
CN111062917A (zh) * | 2019-12-10 | 2020-04-24 | 西安中科星图空间数据技术有限公司 | 一种基于深度神经网络的三线阵影像云检测方法及装置 |
CN111738124A (zh) * | 2020-06-15 | 2020-10-02 | 西安电子科技大学 | 基于Gabor变换和注意力的遥感图像云检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112749621A (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112749621B (zh) | 一种基于深度卷积神经网络的遥感图像云层检测方法 | |
CN111652321B (zh) | 一种基于改进yolov3算法的海上船舶检测方法 | |
CN109754017B (zh) | 基于可分离的三维残差网络和迁移学习高光谱图像分类方法 | |
CN108648191B (zh) | 基于贝叶斯宽度残差神经网络的害虫图像识别方法 | |
CN107808138B (zh) | 一种基于FasterR-CNN的通信信号识别方法 | |
CN111652038A (zh) | 基于卷积神经网络的遥感的海冰图像分类方法 | |
CN112613350A (zh) | 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法 | |
CN104112263A (zh) | 基于深度神经网络的全色图像与多光谱图像融合的方法 | |
CN109523013A (zh) | 一种基于浅层卷积神经网络的空气颗粒物污染程度估计方法 | |
CN107578455B (zh) | 基于卷积神经网络的任意尺寸样本纹理合成方法 | |
CN111738954B (zh) | 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法 | |
CN110443296B (zh) | 面向高光谱图像分类的数据自适应激活函数学习方法 | |
CN111368935B (zh) | 一种基于生成对抗网络的sar时敏目标样本增广方法 | |
CN111539314A (zh) | 面向云雾遮挡的海面目标显著性检测方法 | |
CN109543585A (zh) | 基于卷积神经网络的水下光学目标检测与识别方法 | |
CN111626267B (zh) | 一种利用空洞卷积的高光谱遥感图像分类方法 | |
CN114266898A (zh) | 一种基于改进EfficientNet的肝癌识别方法 | |
CN113392871B (zh) | 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 | |
CN111815526B (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统 | |
CN106934398A (zh) | 基于超像素聚类和稀疏表示的图像去噪方法 | |
CN114299398B (zh) | 一种基于自监督对比学习的小样本遥感图像分类方法 | |
CN116563683A (zh) | 一种基于卷积神经网络和多层感知机的遥感影像场景分类方法 | |
CN105931184B (zh) | 基于联合优化的sar图像超分辨率方法 | |
CN104700115A (zh) | 基于稀疏提升集成分类器的火星探测器软着陆过程中陨石坑的检测方法 | |
CN110781832A (zh) | 基于联合深度置信网络的高光谱图像异常目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |