CN114419430A - 一种基于SE-U-Net++模型的耕地地块提取方法及装置 - Google Patents

一种基于SE-U-Net++模型的耕地地块提取方法及装置 Download PDF

Info

Publication number
CN114419430A
CN114419430A CN202111513825.XA CN202111513825A CN114419430A CN 114419430 A CN114419430 A CN 114419430A CN 202111513825 A CN202111513825 A CN 202111513825A CN 114419430 A CN114419430 A CN 114419430A
Authority
CN
China
Prior art keywords
image
net
model
remote sensing
cultivated land
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111513825.XA
Other languages
English (en)
Inventor
胡月明
刘洛
熊曦柳
朱泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN202111513825.XA priority Critical patent/CN114419430A/zh
Publication of CN114419430A publication Critical patent/CN114419430A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于SE‑U‑Net++模型的耕地地块提取方法及装置,所述提取方法包括:采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像,将预处理后的高分遥感影像进行标签化处理,获得标签图像,将所述标签图像进行分割,获得切片图像集,将所述切片图像集进行数据增强处理,获得增强数据集,将所述增强数据集输入到训练好的SE‑U‑Net++模型,获得耕地地块提取结果。所述提取方法在U‑Net++模型基础上融入注意力机制SE模块,提取图像的浅层和深层特征,提高对不同波段的图纸学习能力,提高耕地地块的提取精度。

Description

一种基于SE-U-Net++模型的耕地地块提取方法及装置
技术领域
本发明主要涉及土地监测技术领域,具体涉及到一种基于SE-U-Net++模型的耕地地块提取方法及装置。
背景技术
随着人工智能技术的发展,深度学习技术的深层网络模型中有大量的神经元,各个神经元可以相互连接,且可以改变其关联的强度,从而决定网络的功能,为高分辨率遥感图像提取耕地地块信息提供了更好的技术支持。
目前对于高分遥感影像的耕地地块提取,主要采用U-Net网络分割模型进行提取,但是耕地形状、光谱特征复杂多样,采用U-Net模型提取的耕地地块边界比较模糊,存在孔洞和遗漏分类的问题,提取精度低。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于SE-U-Net++模型的耕地地块提取方法,所述方法采用U-Net++模型,提取图像的浅层和深层特征,并在所述U-Net++模型上融入注意力机制SE模块,提高模型对不同波段的图像学习能力,提高耕地地块的提取精度。
本发明提供了一种基于SE-U-Net++模型的耕地地块提取方法,所述提取方法包括:
采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像;
将预处理后的高分遥感影像进行标签化处理,获得标签图像;
将所述标签图像进行分割,获得切片图像集;
将所述切片图像集进行数据增强处理,获得增强数据集;
将所述增强数据集输入到训练好的SE-U-Net++模型进行耕地地块提取,获得耕地地块提取结果。
进一步的,所述采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像,包括:
采集高分遥感影像,提取所述高分遥感影像的多光谱影像和全色影像,将所述多光谱影像依次进行辐射定标,大气校正和正射校正的预处理操作,获得预处理后的多光谱影像;
将所述全色影像进行辐射定标和正射校正的预处理操作,获得预处理后的全色影像。
所述采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像,还包括:
将所述预处理后的多光谱影像和所述预处理后的全色影像进行地理配准,并将地理配准后的多光谱影像和地理配准后的全色影像进行融合,获得预处理后的高分遥感影像。
进一步的,所述将预处理后的高分遥感影像进行标签化处理,获得标签图像,包括:
通过目测解译勾绘所述预处理后的高分遥感影像的耕地图斑,得到矢量标签图像,将所述矢量标签图像转化为栅格标签图像,获得标签图像。
进一步的,所述将标签图像进行分割,获得切片图像集,包括:
构建一个预设大小的正方形裁剪框,基于所述正方形裁剪框在所述标签图像上从左往右依次分割,将所述标签图像分割为若干个切片图像,获得切片图像集。
进一步的,所述将切片图像集进行数据增强处理,获得增强数据集,包括:
将所述切片图像集进行图像翻转处理扩充,获得扩充切片图像集,所述图像翻转处理包括水平翻转、竖直翻转、对角翻转和随机翻转;
将所述扩充切片图像集进行滤波数据增强处理,获得增强数据集。
所述训练好的SE-U-Net++模型的训练方法为:
选取耕地地块历史数据,通过分析处理将历史数据划分为训练集和测试集;
将训练集输入到SE-U-Net++模型进行二元交叉熵损失值的迭代训练,当所述训练集的二元交叉熵损失值收敛时,获得训练后的SE-U-Net++模型;
将测试集输入训练后的SE-U-Net++模型进行精度测试,获得训练好的SE-U-Net++模型。
进一步的:所述将训练集输入到SE-U-Net++模型进行训练,并通过验证集进行验证,获得验证后的SE-U-Net++模型,包括:
在所述训练集中随机选取一组图像,以矩阵形式输入所述SE-U-Net++模型进行耕地地块提取,将提取结果进行二元交叉熵损失值的迭代计算,当所述训练集的二元交叉熵损失值的迭代计算结果收敛,获得训练后的SE-U-Net++模型。
进一步的,所述二元交叉熵损失值的计算公式为:
Figure BDA0003403289010000031
其中,LossBCE为当前轮次训练后的二元交叉熵损失值,
Figure BDA0003403289010000032
为耕地地块提取结果,
Figure BDA0003403289010000033
为训练集图像标签,w为切片数据的宽度,h为切片数据的高度,cL为影像标签对中标签的通道数。
本发明还提供了一种基于SE-U-Net++模型的耕地地块提取装置,所述装置包括:
预处理模块:采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像;
标记模块:将预处理后的高分遥感影像进行标签化处理,获得标签图像;
切片模块:将所述标签图像进行分割,获得切片图像集;
数据增强模块:将所述切片图像集进行数据增强处理,获得增强数据集;
运算模块:将所述增强数据集输入到训练好的SE-U-Net++模型进行耕地地块提取,获得耕地地块提取结果。
本发明提供了一种基于SE-U-Net++模型的耕地地块提取方法及装置,所述方法采用U-Net++网络模型提取图像的浅层特征和深层特征,在U-Net++模型基础上,增加了SE注意力机制模块,强化不同类别的地物特征,提高耕地地块的提取精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例中基于SE-U-Net++模型的耕地地块提取方法流程图;
图2为本发明实施例中高分遥感影像预处理流程图;
图3为本发明实施例中SE-U-Net++模型训练方法流程图;
图4为本发明实施例中U-Net++网络结构示意图;
图5为本发明实施例中训练集的训练精度变化示意图;
图6为本发明实施例中训练集的损失函数变化示意图;
图7为本发明实施例中各个模型耕地地块提取结果对比示意图;
图8为本发明实施例中基于SE-U-Net++模型的耕地地块提取装置示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了本发明实施例基于SE-U-Net++模型的耕地地块提取方法流程图,所述提取方法包括:
S11:采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像。
具体的,图2示出了本发明实施例中高分遥感影像预处理流程图,采集高分2号遥感影像,所述高分2号遥感影像包括4米空间分辨率的多光谱影像和1米空间分辨率的全色影像。
进一步的,将所述多光谱影像依次进行辐射定标、大气校正和正射校正的预处理操作,获得预处理后的多光谱影像。将所述全色影像依次进行辐射定标和正射校正的预处理操作,获得预处理后的全色影像,将所述预处理后的多光谱影像和所述预处理后的全色影像进行地理配准,使得所述预处理后的多光谱影像和所述预处理后的全色影像之间相对应位置没有发生偏移,将完成地理配准后的多光谱影像和全色影像进行整合,生成1米的高空间分辨率高分二号遥感影像,即预处理后的高分遥感影像。
S12:将预处理后的高分遥感影像进行标签化处理,获得标签图像,包括:
通过目测解译勾绘所述预处理后的高分遥感影像的耕地图斑,得到矢量标签图像,将所述矢量标签图像转化为栅格标签图像,获得标签图像。
具体的,将所述预处理后的高分遥感影像导入地图绘制软件中,创建一个与所述预处理后的高分遥感影像空间坐标系一致的矢量标签文件,通过目视解译勾绘所述预处理后的高分遥感影像的耕地图斑,获得矢量标签图像,并在属性表中新建一个空字段,使用字段计算器,将耕地图斑赋值为1。利用工具箱的转换工具将得到的矢量标签转成栅格标签,输出像元大小与处理范围与影像一致,输出标签图像。
S13:将所述标签图像进行分割,获得切片图像集,包括:
构建一个256*256像素的正方形裁剪框,基于所述正方形裁剪框在所述标签图像上从左往右依次分割,将所述标签图像分割为若干个切片图像,获得切片图像集。
具体的,使用GDAL库,即开源栅格空间数据转换库,读取所述栅格化影像左上角的第一个像素点坐标(X1,Y1),构建一个像素大小为256*256的正方形裁剪框,从左到右依次裁剪所述标签图像,形成若干个切片图像,获得切片图像集。
进一步的,所述标签图像的大小不能被256整除,截取所述标签图像的最后一行图像时,选取所述最后一行的右上角坐标为起点,在截取所述标签图像的最后一列图像时,选取所述最后一列图像的左下角坐标为起点,在截取所述标签图像右下角图像时,从所述标签右下角的坐标为起点向前截取。
S14:将所述切片图像集进行数据增强处理,获得增强数据集,包括:
将所述切片图像集进行图像翻转处理扩充,获得扩充切片图像集,所述图像翻转处理包括水平翻转、竖直翻转、对角翻转和随机翻转;
将所述扩充切片图像集进行滤波数据增强处理,获得增强数据集。
进一步的,使用GDAL库读取所述切片图像集,通过跨平台计算机视觉和机器学习软件库的图像翻转函数对所述切片图像集进行水平翻转、竖直翻转、对角翻转、随机反转的操作,扩充所述切片图像集,通过图像滤波函数对扩充后的切片图像集进行滤波的数据增强,获得增强数据集。
S15:将增强数据集输入到训练好的SE-U-Net++模型,获得耕地地块提取结果。
具体的,将所述增强数据集输入训练好的SE-U-Net++模型,输出耕地地块提取结果,获得耕地地块分布图。
本实施例提供了一种基于SE-U-Net++模型的耕地地块提取方法,所述方法基于SE-U-Net++模型进行耕地地块提取,将高分遥感图像进行分析处理,输入到所述SE-U-Net++模型,提取图像的浅层和深层特征,提高模型对不同波段的图像学习能力,强化耕地地块特征,提高耕地地块的提取精度。
实施例二:
图3示出了本发明实施例中SE-U-Net++模型的训练方法流程示意图,所述SE-U-Net++模型的训练方法为包括:
S21:选取耕地地块历史数据,通过分析处理将历史数据划分为训练集和测试集;
具体的,选取耕地地块历史数据,提取高分二号多光谱影像和全色遥感影像,进行辐射定标、大气校正、正射校正、影像配准、影像融合的预处理操作,从而生成1m分辨率的高分辨率遥感影像,基于所述1m分辨率的高分辨率遥感影像,手动勾绘了该区域正在耕作的耕地地块作为训练标签,并通过转换工具得到标签图像。
具体的,将所述1m分辨率的高分辨率遥感影像输入U-Net++模型,通过卷积操作提取所述预处理后的高分遥感影像的耕地特征,并融入SE模块的通道注意力,构建SE-U-Net++模型。
所述卷积操作公式为:
Figure BDA0003403289010000071
其中,i为编码器中第i个下采样层;j为跳跃连接中第j个卷积层,H()为带有激活函数ReLU的卷积运算,u()为上采样的解卷积操作。
图4示出了本发明实施例中U-Net++网络结构示意图,所述U-Net++网络结构包括编码器和解码器。
所述编码器部分包含三个操作,标准化函数处理、ReLU激活函数处理和池化处理,所述三个操作的任一个操作包括两个卷积层;所述标准化函数对一批数据在网络各层的输出做标准化处理,使数据符合0均值,1为标准差的正态分布;所述ReLU激活函数和Maxpooling最大池化层,将卷积操作后输出的多个特征图缩小两倍,三个步骤输出的特征图数量分别为64、128,256,512和1024。
所述解码器部分重新设置了跳跃连接结构,使得编码器的特征图的语义特征更加接近解码器的特征图的语义特征,有助于优化器的优化。最终的输出层包含一个卷积层,其后紧跟Sigmoid激活函数,该函数生成耕地地块概率图像,取值范围为[0,1]。
在所述编码器部分融入SE模块,所述SE模块为结合空间和通道的注意力机制模块,分为压缩和激发两个步骤,所述压缩步骤通过将输入的特征图层执行全局平均池化,得到当前特征图[H,W,C]的全局压缩特征量[1,1,C];激发步骤通过两层全连接结构得到特征图层中每个通道的权值,然后使用sigmoid函数进行归一化,得到对应的SE特征图像。最后将输入图像和SE特征图像相乘,得到经过信息校准过的特征图,并将加权后的特征层作为下一层网络的输入,通过融入所述SE模块,提高所述U-Net++模型的耕地特征提取精度。
通过滑动窗口对所述标签图像进行裁剪,获得切片图像集,对所述切片图像进行翻转处理和数据滤波增强操作,获得历史数据集,通过移动数据函数将所述历史数据集随机划分为训练集和测试集。
S22:将训练集输入到SE-U-Net++模型进行二元交叉熵损失值的迭代训练,当所述训练集的二元交叉熵损失值收敛时,获得训练后的SE-U-Net++模型;
模型训练过程中采用二元交叉熵损失作为损失函数。为了最大效率地使用显卡的内存,批处理参数设置为16。选用Adam作为参数优化器,设定初始学习率为0.0001,训练迭代的最大次数epoch设为100。加入早停机制,当训练集的训练精度三轮迭代之后不下降,就停止训练并保存模型。
具体的,所述耕地地块模型训练参数设置如下表:
表1耕地地块模型训练参数设置
Figure BDA0003403289010000081
使用训练集的7000张切片图像对所述SE-U-Net++网络模型进行训练,从测试集1000张中进行测试,使用训练好的网络模型对其进行耕地地块提取并评估结果。
具体的,将训练集输入到所述SE-U-Net++模型进行二元交叉熵损失值的迭代训练,当所述训练集的二元交叉熵损失值收敛时,完成所述SE-U-Net++模型的训练,获得训练后的SE-U-Net++模型。
具体的,设置迭代次数Epoch,初始化Epoch=1,在每一轮训练时,从训练集中随机选择一组切片数据,通过GDAL库中的按块读取栅格函数读入所述切片数据,然后以矩阵形式输入所述切片图像数据到所述SE-U-Net++模型中进行训练,得到计算结果,计算当前轮次训练后的二元交叉熵损失值,计算公式为:
Figure BDA0003403289010000091
其中,LossBCE为当前轮次训练后的二元交叉熵损失值,w和h为切片数据的宽度和高度,cL为影像标签对中标签的通道数。
比较当前轮次训练后的二元交叉熵损失值是否小于前一轮次训练后的二元交叉熵损失值,如果小于,则根据当前轮次训练后的二元交叉熵损失值,通过反向传播更新当前权重,进行下一步;否则,保持前一轮训练后的网络权重,进行下一步。
令Epochx=Epochx+1,然后提取新的切片数据,通过融入SE注意力机制的U-Net++网络进行反复迭代训练,直到计算的二元交叉熵损失值收敛,通过三轮的训练集的训练,所述二元交叉熵损失值维持稳定,则停止迭代,保存训练后的SE-U-Net++模型。
进一步的,图5示出了本发明实施例中训练集的训练精度示意图,图6示出了本发明实施例中训练集的损失函数变化示意图,所述训练集的精度呈现上升趋势,损失函数呈现下降趋势,当精度提升和损失函数下降趋于平缓时,完成训练,获得训练后的SE-U-Net++模型。
S23:将测试集输入训练后的SE-U-Net++模型进行精度测试,获得训练好的SE-U-Net++模型。
具体的,将所述测试集输入到训练后后的SE-U-Net++模型,获得耕地地块提取结果,将所述耕地地块提取结果进行精度评价,精度评价结果满足要求时,获得训练好的SE-U-Net++模型,若精度评价结果不符合要求,则重新训练所述SE-U-Net++模型。
具体的,将得到的模型对测试集提取耕地地块,进一步对耕地地块提取精度以及总体精度对模型进行评价,并与所述栅格化图像进行计算形成混淆矩阵,由混淆矩阵可以计算真阳性、真阴性、假阳性、假阴性,然后依据混淆矩阵计算出耕地地块提取结果的总体提取精度、各类精度以及IOU,Kappa等来进行精度评价。
精确率计算公式为:
Precision=TP/(TP+FP);
其中,Precision为精确率,TP为真阴性,FP为假阴性;
召回率计算公式为:
Recall=TP/(TP+FN);
其中,Recall为召回率,TP为真阴性,FN为假阳性;
总体精度计算公式为:
OA=(TP+TN)/(TP+FP+TN+FN);
其中,OA为总体精度,TP为真阴性,TN为真阳性,FP为假阴性,FN为假阳性;
F1分数计算公式为:
F=2TP/(2TP+FP+FN);
其中,TP为真阴性,FP为假阴性,FN为假阳性;
交并比计算公式为:
IoU=TP/(TP+FP+FN);
其中,IoU为交并比,TP为真阴性,FP为假阴性,FN为假阳性;
Kappa系数的计算公式为:
Kappa=(p0-pe)/(1-pe);
p0=(TP+TN)/(TP+FP+TN+FN);
pe=((TP+FP)·(TP+FN)+(TN+FP)·(TN+FN))/(TP+FP+TN+FN)2;
其中,TP为真阴性,TN为真阳性,FP为假阴性,FN为假阳性。
具体的,将所述测试集的提取结果进行精度评价,将评价结果与其它模型对比,对比结果如表2所示:
表2结果精度评价对比表
Figure BDA0003403289010000101
进一步的,图7示出了本发明实施例中测试集耕地地块提取结果对比示意图,所述SE-U-Net++模型提取结果相比U-Net模型提取结果总体精度提高了5%,IoU提高了0.05,Kapp系数提高了0.06。
所述SE-U-Net++模型相比U-Net++模型进行耕地地块分割精度评价结果的总体精度提高了2%,IoU提高了0.04,Kapp系数提高了0.05。
进一步的,U-Net与U-Net++模型在提取耕地地块边界时不够平滑,且存在较多的误分漏分的情况,对于耕地边界较为模糊的地块提取效果不理想,所述SE-U-Net++模型对于耕地边界的划分有较好的分割效果,且对于模糊的地块边界和小面积的地块也能有较理想的分割效果。
本发明实施例提供了SE-U-Net++模型的训练方法,所述方法通过在U-Net++模型上融入注意力机制SE模块,构建SE-U-Net++模型,通过历史数据进行训练、验证和测试,得到耕地地块提取精度高的SE-U-Net++模型。
实施例三:
图8示出了本发明实施例中基于SE-U-Net++模型的耕地地块提取装置示意图,所述装置包括:
预处理模块1:采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像;
具体的,提取高分遥感影像的多光谱影像和全色影像,将所述多光谱影像依次进行辐射定标、大气校正和正射校正的预处理操作,获得预处理后的多光谱影像;将所述全色影像依次进行辐射定标和正射校正的预处理操作,获得预处理后的全色影像。
进一步的,将所述预处理后的多光谱影像和所述预处理后的全色影像进行地理配准,使得所述预处理后的多光谱影像和所述预处理后的全色影像之间相对应位置没有发生偏移,将完成地理配准后的多光谱影像和全色影像进行整合,生成1米的高空间分辨率高分二号遥感影像,即预处理后的高分遥感影像。
标记模块2:将预处理后的高分遥感影像进行标签化处理,获得标签图像;
输入目测解译勾绘所述预处理后的高分遥感影像的耕地图斑,得到矢量标签图像,将所述矢量标签图像转化为栅格标签图像,获得标签图像。
具体的,在地图绘制软件中,勾绘所述预处理后的高分遥感影像的耕地图斑,获得矢量标签图像,通过转换工具将所述矢量标签进行转换,得到栅格化标签,输出标签图像。
切片模块3:将所述标签图像进行分割,获得切片图像集;
具体的,通过大小为256*256的裁剪窗口将所述标签图像进行分格,获得切片图像集。
数据增强模块4:将所述切片图像集进行数据增强处理,获得增强数据集;
具体的,将所述切片图像集进行图像翻转处理扩充,获得扩充切片图像集,所述图像翻转处理包括水平翻转、竖直翻转、对角翻转和随机翻转;
将所述扩充切片图像集进行滤波数据增强处理,获得增强数据集。
运算模块5:将所述增强数据集输入到训练好的SE-U-Net++模型,获得耕地地块提取结果。
本发明实施例提供了一种基于SE-U-Net++模型的耕地地块提取装置,所述装置通过将高分遥感数据进行处理分析,输入带有注意力机制SE模块的U-Net++模型进行提取,提高耕地地块的提取精度。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,ReadOnly Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
另外,以上对本发明实施例进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于SE-U-Net++模型的耕地地块提取方法,其特征在于,所述提取方法包括:
采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像;
将预处理后的高分遥感影像进行标签化处理,获得标签图像;
将所述标签图像进行分割,获得切片图像集;
将所述切片图像集进行数据增强处理,获得增强数据集;
将所述增强数据集输入到训练好的SE-U-Net++模型进行耕地地块提取处理,获得耕地地块提取结果。
2.如权利要求1所述的耕地地块提取方法,其特征在于,所述采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像,包括:
采集高分遥感影像,提取所述高分遥感影像的多光谱影像和全色影像,将所述多光谱影像依次进行辐射定标、大气校正和正射校正的预处理操作,获得预处理后的多光谱影像;
将所述全色影像进行辐射定标和正射校正的预处理操作,获得预处理后的全色影像。
3.如权利要求2所述的耕地地块提取方法,其特征在于,所述采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像,还包括:
将所述预处理后的多光谱影像和所述预处理后的全色影像进行地理配准,并将地理配准后的多光谱影像和地理配准后的全色影像进行融合,获得预处理后的高分遥感影像。
4.如权利要求1所述的耕地地块提取方法,其特征在于,所述将预处理后的高分遥感影像进行标签化处理,获得标签图像,包括:
通过目测解译勾绘所述预处理后的高分遥感影像的耕地图斑,得到矢量标签图像,将所述矢量标签图像转化为栅格标签图像,获得标签图像。
5.如权利要求1所述的耕地地块提取方法,其特征在于,所述将标签图像进行分割,获得切片图像集,包括:
构建一个预设大小的正方形裁剪框,基于所述正方形裁剪框在所述标签图像上从左往右依次分割,将所述标签图像分割为若干个切片图像,获得切片图像集。
6.如权利要求1所述的耕地地块提取方法,其特征在于,所述将切片图像集进行数据增强处理,获得增强数据集,包括:
将所述切片图像集进行图像翻转处理扩充,获得扩充切片图像集,所述图像翻转处理包括水平翻转、竖直翻转、对角翻转和随机翻转;
将所述扩充切片图像集进行滤波数据增强处理,获得增强数据集。
7.如权利要求1所述的耕地地块提取方法,其特征在于,所述训练好的SE-U-Net++模型的训练方法为:
选取耕地地块历史数据,通过分析处理将历史数据划分为训练集和测试集;
将训练集输入到SE-U-Net++模型进行二元交叉熵损失值的迭代训练,当所述训练集的二元交叉熵损失值收敛时,获得训练后的SE-U-Net++模型;
将测试集输入训练后的SE-U-Net++模型进行精度测试,获得训练好的SE-U-Net++模型。
8.如权利要求7所述的耕地地块提取方法,其特征在于,所述将训练集输入到SE-U-Net++模型进行二元交叉熵损失值的迭代训练,当所述训练集的二元交叉熵损失值收敛时,获得训练后的SE-U-Net++模型,包括:
在所述训练集中随机选取一组图像,以矩阵形式输入所述SE-U-Net++模型进行耕地地块提取,将提取结果进行二元交叉熵损失值的迭代计算,当所述训练集的二元交叉熵损失值的迭代计算结果收敛,获得训练后的SE-U-Net++模型。
9.如权利要求8所述的耕地地块提取方法,其特征在于,所述二元交叉熵损失值的计算公式为:
Figure FDA0003403285000000031
其中,LossBCE为当前轮次训练后的二元交叉熵损失值,
Figure FDA0003403285000000032
为耕地地块提取结果,
Figure FDA0003403285000000033
为训练集图像标签,w为切片数据的宽度,h为切片数据的高度,cL为影像标签对中标签的通道数。
10.一种基于SE-U-Net++模型的耕地地块提取装置,其特征在于,所述装置包括:
预处理模块:采集高分遥感影像并进行预处理,获得预处理后的高分遥感影像;
标记模块:将预处理后的高分遥感影像进行标签化处理,获得标签图像;
切片模块:将所述标签图像进行分割,获得切片图像集;
数据增强模块:将所述切片图像集进行数据增强处理,获得增强数据集;
运算模块:将所述增强数据集输入到训练好的SE-U-Net++模型进行耕地地块提取,获得耕地地块提取结果。
CN202111513825.XA 2021-12-09 2021-12-09 一种基于SE-U-Net++模型的耕地地块提取方法及装置 Pending CN114419430A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111513825.XA CN114419430A (zh) 2021-12-09 2021-12-09 一种基于SE-U-Net++模型的耕地地块提取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111513825.XA CN114419430A (zh) 2021-12-09 2021-12-09 一种基于SE-U-Net++模型的耕地地块提取方法及装置

Publications (1)

Publication Number Publication Date
CN114419430A true CN114419430A (zh) 2022-04-29

Family

ID=81266079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111513825.XA Pending CN114419430A (zh) 2021-12-09 2021-12-09 一种基于SE-U-Net++模型的耕地地块提取方法及装置

Country Status (1)

Country Link
CN (1) CN114419430A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926740A (zh) * 2022-06-01 2022-08-19 江西省水利科学院 一种基于深度学习改进的高分遥感影像耕地提取方法
CN115713700A (zh) * 2022-11-23 2023-02-24 广东省国土资源测绘院 一种空地协同的典型农作物种植样本采集方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717420A (zh) * 2019-09-25 2020-01-21 中国科学院深圳先进技术研究院 一种基于遥感图像的耕地提取方法、系统及电子设备
CN112102324A (zh) * 2020-09-17 2020-12-18 中国科学院海洋研究所 一种基于深度U-Net模型的遥感图像海冰识别方法
CN112200029A (zh) * 2020-09-27 2021-01-08 电子科技大学 基于改进型UNet++网络的遥感图像建筑物提取方法
CN112393714A (zh) * 2020-11-25 2021-02-23 国网安徽省电力有限公司电力科学研究院 一种基于无人机航拍与卫星遥感融合的影像校正方法
CN112418027A (zh) * 2020-11-11 2021-02-26 青岛科技大学 一种改进U-Net网络的遥感影像道路提取方法
CN113705538A (zh) * 2021-09-28 2021-11-26 黄河水利委员会黄河水利科学研究院 基于深度学习的高分遥感影像道路变化检测装置及方法
CN113743373A (zh) * 2021-09-28 2021-12-03 黄河水利委员会黄河水利科学研究院 基于深度学习的高分遥感影像耕地变化检测装置及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717420A (zh) * 2019-09-25 2020-01-21 中国科学院深圳先进技术研究院 一种基于遥感图像的耕地提取方法、系统及电子设备
CN112102324A (zh) * 2020-09-17 2020-12-18 中国科学院海洋研究所 一种基于深度U-Net模型的遥感图像海冰识别方法
CN112200029A (zh) * 2020-09-27 2021-01-08 电子科技大学 基于改进型UNet++网络的遥感图像建筑物提取方法
CN112418027A (zh) * 2020-11-11 2021-02-26 青岛科技大学 一种改进U-Net网络的遥感影像道路提取方法
CN112393714A (zh) * 2020-11-25 2021-02-23 国网安徽省电力有限公司电力科学研究院 一种基于无人机航拍与卫星遥感融合的影像校正方法
CN113705538A (zh) * 2021-09-28 2021-11-26 黄河水利委员会黄河水利科学研究院 基于深度学习的高分遥感影像道路变化检测装置及方法
CN113743373A (zh) * 2021-09-28 2021-12-03 黄河水利委员会黄河水利科学研究院 基于深度学习的高分遥感影像耕地变化检测装置及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926740A (zh) * 2022-06-01 2022-08-19 江西省水利科学院 一种基于深度学习改进的高分遥感影像耕地提取方法
CN115713700A (zh) * 2022-11-23 2023-02-24 广东省国土资源测绘院 一种空地协同的典型农作物种植样本采集方法

Similar Documents

Publication Publication Date Title
CN109446992B (zh) 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN113449594B (zh) 一种多层网络组合的遥感影像地类语义分割与面积计算方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN114419430A (zh) 一种基于SE-U-Net++模型的耕地地块提取方法及装置
CN111753828A (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN114694038A (zh) 基于深度学习的高分辨率遥感影像分类方法及系统
CN112419202B (zh) 基于大数据及深度学习的野生动物图像自动识别系统
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN114463637A (zh) 一种基于深度学习的冬小麦遥感识别分析方法和系统
CN116168246A (zh) 一种用于铁路工程的弃渣场识别方法、装置、设备及介质
CN113205023B (zh) 一种基于先验矢量引导的高分影像建筑物提取精处理方法
CN112784869B (zh) 一种基于注意力感知与对抗学习的细粒度图像识别方法
CN113963272A (zh) 一种基于改进yolov3的无人机图像目标检测方法
CN111428191A (zh) 基于知识蒸馏的天线下倾角计算方法、装置和存储介质
CN112232102A (zh) 一种基于深度神经网络和多任务学习的建筑物目标识别方法和系统
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN114511862A (zh) 表格识别方法、装置及电子设备
CN114550179A (zh) 对手写汉字黑板板书进行指导的方法、系统及设备
CN114463503A (zh) 三维模型和地理信息系统的融合方法及装置
CN116091911A (zh) 一种地震勘探工区建筑物自动识别方法及系统
CN112465821A (zh) 一种基于边界关键点感知的多尺度害虫图像检测方法
CN115546780B (zh) 车牌识别方法、模型及装置
CN113657214B (zh) 一种基于Mask RCNN的建筑损伤评估方法
CN114882292B (zh) 基于跨样本关注机制图神经网络的遥感影像海洋目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination