CN113435254A - 一种基于哨兵二号影像的耕地深度学习提取方法 - Google Patents

一种基于哨兵二号影像的耕地深度学习提取方法 Download PDF

Info

Publication number
CN113435254A
CN113435254A CN202110606395.XA CN202110606395A CN113435254A CN 113435254 A CN113435254 A CN 113435254A CN 202110606395 A CN202110606395 A CN 202110606395A CN 113435254 A CN113435254 A CN 113435254A
Authority
CN
China
Prior art keywords
image
sentinel
farmland
extraction
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110606395.XA
Other languages
English (en)
Inventor
王加胜
王志敏
王丽蒙
杨昆
粟凡婕
陈鑫亚
赵喆
冉文静
饶珣
徐春晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yunnan University YNU
Yunnan Normal University
Original Assignee
Yunnan Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yunnan Normal University filed Critical Yunnan Normal University
Priority to CN202110606395.XA priority Critical patent/CN113435254A/zh
Publication of CN113435254A publication Critical patent/CN113435254A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Sentinel‑2遥感影像的耕地深度学习提取方法。所述基于Sentinel‑2影像的耕地提取深度学习方法包括:采集同一区域内不同时相的Sentinel‑2遥感影像,进行去云、合成等预处理;获取相应区域内的土地利用分类数据,将数据分为耕地数据和背景数据;构建改进的深度卷积神经网络,包括基于UNet网络加入上下文模块,扩大网络的感受野来提取全局特征;对改进的深度卷积神经网络进行训练;对待提取的Sentinel‑2遥感影像,用训练好的模型进行耕地提取。本发明实现自动化耕地提取,不受耕地大小和形状的限制,提高了Sentinel‑2影像耕地提取的准确率。

Description

一种基于哨兵二号影像的耕地深度学习提取方法
技术领域
本发明涉及耕地分割的遥感图像处理技术领域,具体涉及一种基于哨兵二号影像的耕地深度学习提取方法。
背景技术
耕地和粮食安全有着密切的关联,是人类生存和发展的重要基础资源。实时准确的掌握耕地的面积和分布是农业发展与调控的重要科学依据,对于各种应用都有广泛的意义。例如耕地动态监测、粮食生产力调查、粮食安全和农业产量预测等。
如今,遥感影像几乎覆盖了全球地表的每个地方,并且因其具有大面积和实时监测的优势,使其成为了获取耕地信息和空间分布的重要工具。传统的Sentinel-2影像耕地制图的方法大多是基于机器学习算法的,例如随机森林(RF)、支持向量机(SVM)和决策树(DT)等。这些方法都是分析不同地物类型的光谱季节性的特征或利用各种指数的特征来区分不同地物的差异,然后使用相同地物的光谱季节性特征相似性或指数阈值的方法来实现耕地提取的。但是,传统的方法只能从原始影像数据中提取低级或中级特征,这对于大范围且不同类型的耕地提取的鲁棒性不是很强。
近年来,随着深度学习和遥感大数据的发展,使得基于深度学习的遥感影像耕地提取快速发展起来。特别是基于深度卷积神经网络的方法可以学习到影像的深层特征,因此其可以提高耕地提取的准确率。目前,在遥感图像分类和提取用的较多的深度卷积神经网络主要包括VGGNet、ResNet、GoogleNet等。深度卷积神经网络相比传统的方法,它能够自动提取目标的浅层特征和深层特征,其具有比传统方法更强的特征表达能力。因此,越来越多的学者将深度卷积神经网络引入到遥感领域里进行遥感大数据分析。
在遥感影像的像素分类提取方面,全卷积神经网络(FCN)的出现,推动了遥感影像地物分类的自动化。后来又相继有人在此基础上提出了SegNet、UNet、PSPNet、Deeplab等逐像素分类的网络,解决了一些分类问题。但是,目前主流的分割网络都是基于卷积神经网络的,由于卷积神经网络的感受野是有限的,无法结合全局像素,因此会导致一些边界和小目标的信息丢失。因此在进行耕地提取时,会造成耕地边缘或小块耕地提取不完整等问题。
因此,本发明基于遥感影像分类网络UNet,引入了一个基于空洞卷积的上下文模块,针对Sentinel-2遥感影像进行耕地提取。
发明内容
针对现有Sentinel-2影像耕地提取方法的不足,本发明的目的是提供一种基于Sentinel-2影像的深度卷积神经网络进行耕地提取。
为了达到上述技术效果,本发明是通过以下技术方案实现的:一种基于哨兵二号影像的耕地深度学习提取方法,具体包括以下步骤:
步骤1,遥感影像预处理,包括采集同一区域内不同时相的Sentinel-2遥感影像,进行去云、中值合成等预处理后得到处理好的影像;
步骤2,分类数据预处理,包括获取相应区域内的土地利用分类数据,根据分类的标签值将数据分为耕地数据和背景数据;
步骤3,构建样本库,包括将处理好的遥感数据和分类数据裁剪成大小一致的小块图像,然后将裁剪好的数据集划分为训练集和测试集;
步骤4,构建改进的深度卷积神经网络,包括基于UNet网络,加入基于空洞卷积操作的上下文模块,该模块可以结合多尺度信息,扩大网络的感受野,用于提取输入影像的全局特征,可以更好的区分耕地和背景;
步骤5,对改进的耕地提取网络进行训练,包括基于步骤3中样本库划分好的训练集,将其输入到步骤4中构建的深度卷积神经网络进行训练;
步骤6,耕地提取,包括对待提取的Sentinel-2遥感影像,通过步骤1中的预处理,将其分块通过步骤5中的训练好的模型进行预测,最后将结果拼接还原就得到了耕地提取结果。
进一步的,步骤1中Sentinel-2遥感影像去云采用的方法是利用Sentinel-2影像的QA60波段标记来实现去云处理。
进一步的,步骤2中的分类数据是全球土地利用分类数据,且将其耕地标签值设为1,背景标签值设为0。
进一步的,步骤3中的影像裁剪是以256×256像素大小的滑动窗口来裁剪得到图像块的,并将裁剪后的影像进行归一化处理。
进一步的,步骤4中构建的深度卷积神经网络是基于编码器-解码器结构的,编码器提取影像的特征,解码器将编码器提取的特征进行还原,编码器和解码器之间通过跳跃连接相连,在编码器的最后一层通过加入上下文模块结合全局信息,在解码器的最后一层将还原的特征图通过Softmax激活函数得到每一类的概率结果图;上下文模块采用不同空洞率的空洞卷积串联和并联的结构。
进一步的,编码器部分选用UNet网络中的前3个block,每个block都由两个3×3的卷积模块组成,两个block之间用最大池化层连接,在编码器最后一个block后面连接上下文模块;上下文模块采用空洞卷积串联和并联结合而来,串联结构采用空洞率依次增大的3×3卷积串联,增大卷积的感受野,并联结构采用感受野依次减少的串联结构并联,这些3×3卷积的数量都为512,空洞率依次设为1、2、4、8、1、2、4、1、2、1,然后将不同尺度的特征图进行相加融合,经过上下文模块得到的特征图经过上采样与解码器进行融合;解码器也是3个block,每个block都由一个尺寸为2×2、步长为2的反卷积和两个3×3的卷积模块组成;在解码器最后连接了一个1×1卷积用于将特征图的通道数变为分类的类别数,最后再通过Softmax激活函数将特征图转为模型的预测概率图。
进一步的,步骤5中对网络训练时,由于耕地像素与背景像素的占比差异较大,因此在训练时使用focal loss作为损失函数,使得在训练中可以兼顾小比例样本,提高耕地提取的准确率。
与现有的技术相比较本发明具有如下优点:
(1)本发明使用UNet为基础,相比其它网络,该网络对大尺度遥感影像具有更好的分类效果。
(2)本发明引入了一个上下文模块,该模块使用空洞卷积进行串并联,可以避免特征提取时下采样造成信息丢失,同时可以结合多尺度的感受野学习到全局的特征,进一步提高耕地边界提取的准确性。
(3)在训练网络时选用focal loss作为损失函数,可以再训练过程中更加兼顾耕地的训练,提高耕地提取精度。
综上所述,本发明的优势在于:传统的机器学习方法需要人工参与选取特征,且只能提取到浅层的特征,即耗费了人力资源且提取的精度也达不到要求。而基于深度学习的耕地提取方法可以自动的提取遥感影像的深层特征,大大降低了人工的参与且提取精度能满足一定的要求。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中耕地提取的流程图;
图2为本发明实施例中基于UNet网络融合上下文模块的耕地深度学习提取网络结构;
图3为本发明实施例中基于空洞卷积的上下文模块结构;
图4为本发明实例中基于Sentinel-2影像的耕地提取结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
参阅图1至图4所示,本发明的实施例所使用的环境:服务器的CPU为Intel(R)Xeon(R)CPU@2.20GHz,GPU为Tesla P100,操作系统为Ubuntu 18.04.5,编译环境为Python3.7.10,TensorFlow2.4.1以及CUDA 11.2。
本发明的实施例是一种基于哨兵二号影像的耕地深度学习提取方法,具体流程参照图1,本发明实施例的具体步骤如下:
步骤1,遥感影像预处理:采集同一区域内不同时相的Sentinel-2遥感影像,然后将遥感影像进行去云、中值合成等预处理后得到处理好的影像;
首先采集固定区域空间分辨率为10米的Sentinel-2遥感影像,然后通过固定区域的矢量文件对遥感影像进行裁剪,再通过Sentinel-2影像的QA60波段标记来去除云和阴影,最后通过中值合成得到一幅RGB波段的真彩色Sentinel-2遥感影像。
步骤2,分类数据预处理:获取相应区域内的土地利用分类数据,然后根据分类的标签值将数据分为耕地数据和背景数据。
首先,获取相应区域内的土地利用分类数据,然后通过固定区域的矢量文件对分类数据进行裁剪,再将分类数据的十个类别映射到两个类别,具体是将耕地的标签设为1,其它类别设为0,再将其转为栅格数据和遥感影像栅格数据共同作为训练数据。
步骤3,构建样本库:将处理好的遥感数据和分类数据裁剪成大小一致的小块图像,然后将裁剪好的数据集划分为训练集和测试集。
样本库的构建基于Sentinel-2影像数据和土地利用分类数据。首先将步骤1处理好的遥感影像进行读取,再将步骤2处理好的分类标签数据进行读取,然后将读取的数据进行相应的裁剪,裁剪的块的大小为256×256像素,裁剪步长设为256,接着将裁剪好的数据集进行归一化处理,其处理公式如(1),最后按照6:1:1将数据集划分为训练集、验证集和测试集。
Figure BDA0003088169320000071
其中xi为影像的像素输入值,μ为所有影像像素值的平均值,σ为所有影像像素值的标准差。
步骤4,构建改进的深度卷积神经网络:基于UNet网络,加入基于空洞卷积操作的上下文模块,该模块可以结合多尺度信息,扩大网络的感受野,用于提取输入影像的全局特征,可以更好的区分耕地和背景。
实施例所用的基于耕地深度学习提取网络如附图2、3所示。网络采用对称的编码器和解码器结构。编码器(图2左边部分)提取影像的特征,解码器(图2右边部分)将编码器提取的特征进行还原,编码器和解码器之间通过跳跃连接相连,在编码器的最后一层通过加入上下文模块结合全局信息,在解码器的最后一层将还原的特征图通过Softmax激活函数得到每一类的概率结果图,最后通过取概率最大的那个类别就是当前像素所属的类别。
实施例中,输入部分为RGB(红、绿、蓝)三个波段,大小为256x256像素的遥感影像。编码器部分选用UNet网络中的前3个block,每个block都由两个3×3的卷积模块组成(图2中蓝色箭头),每个卷积模块都包括3×3卷积操作、批量归一化(Batch Normalization)和ReLU(Rectified Linear Unit)激活函数(式2)操作。两个block之间通过最大池化(MaxPool)层连接(图2中橙色箭头),池化的窗口大小为2×2,步长为2,池化操作可以将特征图的尺寸缩小一倍,这样可以更深层的提取图像特征。3个block使用的卷积核尺寸都为3×3,通道数量从上到下依次为64、128、256,特征图尺寸为256×256、128×128、64×64,且每个卷积和池化操作后面都接一个批量归一化操作。并且每一个block的特征图用一个跳跃连接和解码器的上采样进行通道上的拼接(concatenate),这样可以结合更多的上下文信息。
Figure BDA0003088169320000081
其中x为卷积神经网络层的输入。
为了避免图像信息在池化中损失,同时也为了进一步增大卷积神经网络的感受野从而可以学习到全局的特征。在最后一个block后面接一个池化层,使通道数量变为512,特征图尺寸变为32×32,并在后面加一个基于空洞卷积的上下文模块结构(图3)。该结构中卷积核的大小都为3×3,卷积核的数量(通道数)都为512,该结构由5个感受野不同的路径并联而成,每条路径都由不同空洞率的空洞卷积串联而成。其中从上到下每条路径的空洞率分别为1、2、4、8、1、2、4、1、2、1,从上到下的感受野分别为31、15、7、3、1,为了获取更丰富的全局信息,将不同感受野的特征图以相加的方式融合,这样网络就可以学习到更加丰富的上下文信息了。最后,该模块获取的特征以上采样的方式与解码器连接。
解码器也是与编码器对称的3个block,每个block都由一个尺寸为2×2、步长为2的反卷积和两个3×3的卷积模块组成。每个卷积层后面都有一个批量归一化和ReLU函数操作,特征图在经过反卷积层后其尺寸扩大一倍且通道数减少一倍,这就是上采样。经过上采样的特征图与编码器的相应block的特征图按通道连接在一起后再输入到3×3卷积层上,从下到上的特征图尺寸分别为64×64、28×128、256×256,通道数分别为256、128、64,在解码器最后一个block连接了一个1×1卷积用于将特征图的通道数变为分类的类别数,最后再通过Softmax激活函数将特征图转为模型的预测概率图。
网络的输入为遥感影像和分类的标签图的矩阵形式,输入的图像总数为N,其输入集合可表示为{(Mi,Li)|Mi∈εH*W*C,Li∈δH*W,i=1,L,N},其中Mi表示输入的RGB遥感影像,Li表示输入的分类标签图,H、W和C分别表示图像的高度、宽度和维度,ε表示影像归一化后的值ε∈[0,1],δ表示耕地和非耕地的类别δ={0,1}。网络的输出为概率图,其输出可以表示为{Oi|Oi∈oH*W*2},其中H、W分别表示图像的高度、宽度,因为输出的是耕地和非耕地的概率,因此其维度为2,o表示每一个类别的概率值o∈[0,1]。
步骤5,对改进的耕地提取网络进行训练:设置合适的超参数,选择合适的优化器和损失函数,将步骤3中得到的数据集输入到步骤4中得到的网络进行训练。
将步骤3中划分的训练集输入到网络中训练,训练时为了得到更好的鲁棒性,选择Adam优化器作为参数梯度下降时的方式,设置每个批次输入的图像数即批大小(bath-size)为16,在硬件条件内批大小尽可能设置最大,学习率(learning rate)设为0.001,最后为了避免网络在训练时过拟合,使网络的泛化性能更好,使用早停(Early Stopping)方法来提前结束训练。
在网络训练时选择focal loss作为损失函数,主要要是为了解决耕地提取中耕地样本和背景样本比例失衡的问题,该损失函数降低了大量简单负样本在训练中所占的权重。focal loss是在交叉熵损失函数基础上进行的修改,二分类交叉熵损失函数如式(3),focal loss函数如式(4)。
Figure BDA0003088169320000101
其中,y表示真实的标签值,y'表示激活函数的输出,其值在0-1之间。
Figure BDA0003088169320000111
其中,y表示真实的标签值,y'表示激活函数的输出,α平衡因子,用来平衡正负样本本身的比例不均。γ表示调节简单样本权重降低的速率,当γ为0时即为交叉熵损失函数。网络训练时需要设置合适的α和γ的值。
在Sentinel-2影像中,由于耕地样本和非耕地的样本差异较大,因此focal loss可以降低非耕地在训练时的权重,让网络去更多的学习到耕地的特征,从而提高遥感影像耕地提取的准确性。
步骤6,耕地提取:对待提取的Sentinel-2遥感影像,通过步骤1中的预处理,将其裁剪成256×256像素的小块,裁剪步长为256,将步骤5中训练好的模型参数保存下来,预测时用保存的模型进行预测,最后将结果按照原图拼接还原就得到了Sentinel-2遥感影像的耕地提取结果,如图4就是步骤5训练的模型提取的耕地结果,可以看出本发明改进的网络提取耕地的结果要比原始UNet网络更精确。
具体实施时,该方法可采用计算机软件技术实现自动运行流程,实施方法流程的相应系统装置也在本发明的保护范围内。
应用本专利,进行Sentinel-2遥感影像耕地提取可充分利用遥感图像的深层特征,引入上下文模块可以在不丢失图像信息的前提下扩大卷积神经网络感受野的范围,从而提高耕地边缘提取效果,提高遥感影像耕地提取的准确率。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。

Claims (7)

1.一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于,包括:
步骤1,遥感影像预处理,包括采集同一区域内不同时相的Sentinel-2遥感影像,进行去云、中值合成等预处理后得到处理好的影像;
步骤2,分类数据预处理,包括获取相应区域内的土地利用分类数据,根据分类的标签值将数据分为耕地数据和背景数据;
步骤3,构建样本库,包括将处理好的遥感数据和分类数据裁剪成大小一致的小块图像,然后将裁剪好的数据集划分为训练集和测试集;
步骤4,构建改进的深度卷积神经网络,包括基于UNet网络,加入基于空洞卷积操作的上下文模块,该模块可以结合多尺度信息,扩大网络的感受野,用于提取输入影像的全局特征,可以更好的区分耕地和背景;
步骤5,对改进的耕地提取网络进行训练,包括基于步骤3中样本库划分好的训练集,将其输入到步骤4中构建的深度卷积神经网络进行训练;
步骤6,耕地提取,包括对待提取的Sentinel-2遥感影像,通过步骤1中的预处理,将其分块通过步骤5中的训练好的模型进行预测,最后将结果拼接还原就得到了耕地提取结果。
2.根据权利要求1所述一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于:步骤1中遥感影像去云所采用的方法是利用Sentinel-2影像的QA60波段标记来实现去云处理。
3.根据权利要求1所述一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于:步骤2中的分类数据是全球土地利用分类数据,且将其耕地标签值设为1,背景标签值设为0。
4.根据权利要求1所述一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于:步骤3中的影像裁剪是以256×256像素大小的滑动窗口来裁剪得到图像块的,并将裁剪后的影像进行归一化处理。
5.根据权利要求1所述一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于:步骤4中构建的深度卷积神经网络是基于编码器-解码器结构的,编码器提取影像的特征,解码器将编码器提取的特征进行还原,编码器和解码器之间通过跳跃连接相连,在编码器的最后一层通过加入上下文模块结合全局信息,在解码器的最后一层将还原的特征图通过Softmax激活函数得到每一类的概率结果图;上下文模块采用不同空洞率的空洞卷积串联和并联的结构。
6.根据权利要求5所述一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于:编码器部分选用UNet网络中的前3个block,每个block都由两个3×3的卷积模块组成,两个block之间用最大池化层连接,在编码器最后一个block后面连接上下文模块;上下文模块采用空洞卷积串联和并联结合而来,串联结构采用空洞率依次增大的3×3卷积串联,增大卷积的感受野,并联结构采用感受野依次减少的串联结构并联,这些3×3卷积的数量都为512,空洞率依次设为1、2、4、8、1、2、4、1、2、1,然后将不同尺度的特征图进行相加融合,经过上下文模块得到的特征图经过上采样与解码器进行融合;解码器也是3个block,每个block都由一个尺寸为2×2、步长为2的反卷积和两个3×3的卷积模块组成;在解码器最后连接了一个1×1卷积用于将特征图的通道数变为分类的类别数,最后再通过Softmax激活函数将特征图转为模型的预测概率图。
7.根据权利要求1所述一种基于哨兵二号影像的耕地深度学习提取方法,其特征在于:步骤5中对网络训练时,由于耕地像素与背景像素的占比差异较大,因此在训练时使用focal loss作为损失函数,使得在训练中可以兼顾小比例样本,提高耕地提取的准确率。
CN202110606395.XA 2021-05-27 2021-05-27 一种基于哨兵二号影像的耕地深度学习提取方法 Pending CN113435254A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110606395.XA CN113435254A (zh) 2021-05-27 2021-05-27 一种基于哨兵二号影像的耕地深度学习提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110606395.XA CN113435254A (zh) 2021-05-27 2021-05-27 一种基于哨兵二号影像的耕地深度学习提取方法

Publications (1)

Publication Number Publication Date
CN113435254A true CN113435254A (zh) 2021-09-24

Family

ID=77803283

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110606395.XA Pending CN113435254A (zh) 2021-05-27 2021-05-27 一种基于哨兵二号影像的耕地深度学习提取方法

Country Status (1)

Country Link
CN (1) CN113435254A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419421A (zh) * 2022-01-21 2022-04-29 中国地质大学(北京) 一种基于影像的地铁隧道裂缝识别系统及方法
CN114926740A (zh) * 2022-06-01 2022-08-19 江西省水利科学院 一种基于深度学习改进的高分遥感影像耕地提取方法
CN115205688A (zh) * 2022-09-07 2022-10-18 浙江甲骨文超级码科技股份有限公司 茶树种植区域提取方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209871A (zh) * 2020-01-09 2020-05-29 河南大学 一种基于光学卫星影像的油菜种植地块遥感自动识别方法
CN111738111A (zh) * 2020-06-10 2020-10-02 杭州电子科技大学 基于多分支级联空洞空间金字塔的高分辨遥感图像的道路提取方法
CN111986099A (zh) * 2020-06-30 2020-11-24 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN112580453A (zh) * 2020-12-08 2021-03-30 成都数之联科技有限公司 一种基于遥感影像和深度学习的土地利用分类方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209871A (zh) * 2020-01-09 2020-05-29 河南大学 一种基于光学卫星影像的油菜种植地块遥感自动识别方法
CN111738111A (zh) * 2020-06-10 2020-10-02 杭州电子科技大学 基于多分支级联空洞空间金字塔的高分辨遥感图像的道路提取方法
CN111986099A (zh) * 2020-06-30 2020-11-24 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN112580453A (zh) * 2020-12-08 2021-03-30 成都数之联科技有限公司 一种基于遥感影像和深度学习的土地利用分类方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
何昭欣 等: "《Google Earth Engine支持下的江苏省夏收作物遥感提取》", 《地球信息科学》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419421A (zh) * 2022-01-21 2022-04-29 中国地质大学(北京) 一种基于影像的地铁隧道裂缝识别系统及方法
CN114926740A (zh) * 2022-06-01 2022-08-19 江西省水利科学院 一种基于深度学习改进的高分遥感影像耕地提取方法
CN115205688A (zh) * 2022-09-07 2022-10-18 浙江甲骨文超级码科技股份有限公司 茶树种植区域提取方法及系统

Similar Documents

Publication Publication Date Title
US11783569B2 (en) Method for classifying hyperspectral images on basis of adaptive multi-scale feature extraction model
CN111191736B (zh) 基于深度特征交叉融合的高光谱图像分类方法
Fu et al. Fast and accurate detection of kiwifruit in orchard using improved YOLOv3-tiny model
CN110321963B (zh) 基于融合多尺度多维空谱特征的高光谱图像分类方法
CN109829399B (zh) 一种基于深度学习的车载道路场景点云自动分类方法
CN112446388A (zh) 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN110728197B (zh) 基于深度学习的单木级树种识别方法
CN110633708A (zh) 一种基于全局模型和局部优化的深度网络显著性检测方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN114842264B (zh) 一种基于多尺度空谱特征联合学习的高光谱图像分类方法
CN113705580B (zh) 基于深度迁移学习的高光谱图像分类方法
Miao et al. Classification of farmland images based on color features
Su et al. LodgeNet: Improved rice lodging recognition using semantic segmentation of UAV high-resolution remote sensing images
Chen et al. Agricultural remote sensing image cultivated land extraction technology based on deep learning
CN110647932A (zh) 一种种植作物结构遥感影像分类方法及装置
CN114943893A (zh) 一种土地覆盖分类的特征增强网络
Lu et al. Citrus green fruit detection via improved feature network extraction
CN116385902A (zh) 一种遥感大数据处理方法、系统及云平台
Liu et al. Tomato detection based on convolutional neural network for robotic application
CN117612031A (zh) 一种基于语义分割的撂荒地遥感识别方法
CN116168392A (zh) 基于多维空间特征模型最佳源域的目标标注方法及系统
Wang et al. Strawberry ripeness classification method in facility environment based on red color ratio of fruit rind
Ma et al. DGCC-Fruit: a lightweight fine-grained fruit recognition network
Sharma et al. SoyaTrans: A novel transformer model for fine-grained visual classification of soybean leaf disease diagnosis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination