CN117011713B - 一种基于卷积神经网络的田块信息提取方法 - Google Patents
一种基于卷积神经网络的田块信息提取方法 Download PDFInfo
- Publication number
- CN117011713B CN117011713B CN202310991849.9A CN202310991849A CN117011713B CN 117011713 B CN117011713 B CN 117011713B CN 202310991849 A CN202310991849 A CN 202310991849A CN 117011713 B CN117011713 B CN 117011713B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sensing image
- image data
- net
- rsu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims description 38
- 238000000605 extraction Methods 0.000 claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 37
- 230000007246 mechanism Effects 0.000 claims abstract description 15
- 230000002708 enhancing effect Effects 0.000 claims abstract description 4
- 238000010586 diagram Methods 0.000 claims description 68
- 230000008569 process Effects 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 13
- 238000012795 verification Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 6
- 238000012800 visualization Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000007794 visualization technique Methods 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 6
- 238000003062 neural network model Methods 0.000 abstract 1
- 230000011218 segmentation Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000004927 fusion Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 240000007817 Olea europaea Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 208000012868 Overgrowth Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于卷积神经网络的田块信息提取方法,包括的步骤为:构建经过处理的原始多光谱卫星遥感影像数据集;数据增强;构建U2‑Net++卷积神经网络模型;设置参数;获取模型训练结果及数据集特征提取,最终得到田块信息提取结果。U2‑Net++卷积神经网络模型以U2‑Net及U‑Net++模型结构为基础框架,融合深度可分离式卷积与空间通道注意力机制构建。本发明的基于卷积神经网络的田块信息提取方法,能够在大规模、多时相的提取耕地范围,对耕地边界提取清晰,能有效提升耕地提取精度。
Description
技术领域
本发明属于利用遥感数据对耕地范围提取技术领域,具体为一种基于卷积神经网络的田块信息提取方法。
背景技术
利用遥感数据对耕地范围进行提取一直是热门的研究课题,精准的提取出耕地的边界对提高耕地普查效率、实现精准农业管理、改善农民生产条件、保护生态环境、促进地方经济发展具有十分重要的意义。目前有大量基于耕地范围的农业、水利行业的算法,快速、精准获取耕地范围显得尤为重要,而耕地面积广,传统普查的方式确定耕地面积及分布耗时耗力。遥感技术具有快速、有效、实时、范围广等特点,利用遥感技术开展耕地范围提取绘制工作,不仅能够自动多时相监测耕地面积变化,还可以快速更新耕地信息,为耕地资源管理提供有效的技术支持和决策依据。以往基于遥感技术绘制的耕地边界精度不佳,这是因为Sentinel-2(30m)和Landsat(10m)系列等卫星在空间分辨率上太粗糙,且无法排除地形、植被等因素影响。随着卫星遥感技术发展,高分辨率遥感数据获取便利,如GF-7(0.8米至3.2米),可能能够克服这些因素,在大规模、多时相的提取耕地范围,但仍然需要进一步的研究。
在过去几十年,相关研究人员进行了大量的工作:如基于阈值分割的方法,利用遥感影像中的灰度值对图像进行分割,将田块和背景区分开来,通过调整阈值,可以得到不同的田块提取结果。基于区域生长的方法,从一个种子点开始,通过生长算法逐渐将相邻的像素点合并成一个区域,从而得到田块的边界。基于边缘检测的方法,通过检测遥感影像中的边缘信息,利用边缘之间的关系来提取田块边界。这些方法虽然都简单易行,但是都有一定的局限性。基于阈值分割需要合适的阈值设置,同时受到噪声、遮挡等因素的影响。基于区域生长的方法易过分生长、受噪声干扰且参数选择困难。基于边缘检测的方法噪声敏感、边缘断裂、精度不高且对参数敏感。为了解决这些难点,研究人员尝试混合使用,先用基于区域生长的方法对遥感影像进行初步的分割和提取,然后再使用基于边缘检测的方法对提取结果进行修正和完善,最后再结合人工干预对结果进行进一步的调整和优化,但是准确性和效率还是有限。
随着深度学习的发展,为田块提取工作提供了一种解决方法。深度学习通过分层抽象的方式,从低层次的特征逐步提取出更高层次的抽象特征,从而实现对数据的高效表达。近年来用于遥感的深度学习方法有很多,如全卷积神经网络(FCN)、Deeplab_V3和U型卷积神经网络(U-Net)。FNC使用卷积层进行特征提取和反卷积操作对特征图进行上采样,同时使用跳跃连接进行融合,实现像素级别的分类。Deeplab_V3采用了空洞卷积、ASPP模块和多尺度输入等技术,提高了模型对不同尺度物体的感知能力和分割精度。U-Net使用对称的编码器-解码器结构,将高分辨率的输入图像逐步降采样为低分辨率的特征图,再将特征图逐步上采样恢复为高分辨率的输出图像,同时使用跳跃连接(skip connection)进行特征融合,能够有效提高模型的分割精度。这些技术都在一定程度上提升了分割精度,但是耕地边界在遥感影像中特征不如建筑、道路明显,所以这些网络在耕地提取应用上的精度一直不高。
U-Net神经网络自研发出来至今在图像分割领域都有很强的应用,还演变出了一系列改进模型,如U-NET++、ResU-Net、SegNet、U2-Net等。U-Net++采用了更加复杂的U形网络结构,引入了多层级的特征融合机制,以达到更好的特征表达能力和更强的泛化能力。ResU-Net在U-Net的基础上加入了残差块,并使用全卷积结构,以增强模型的非线性拟合能力和鲁棒性。SegNet在网络的编码器和解码器部分使用了对称的结构,从而实现了对输入图像的精确分割和重建。U2-Net将U-Net中的编码器和解码器替换为不同深度u型残差块RSU,重新搭建成u型网络。U-NET++、ResU-Net、SegNet都在耕地提取方面进行了应用,但都存在精度不佳,边界错误等问题。U2-Net是为了显著性物体检测(SOD)而提出的,在遥感应用中较少。
发明内容
本发明的目的在于提供一种基于卷积神经网络的田块信息提取方法,能够在大规模、多时相的提取耕地范围,且能有效的提升耕地提取的分割精度。本发明对U2网络进行改进,并加入可分离式卷积(DSC)和空间和通道注意力机制(CBAM)以适应其在遥感分类及耕地提取的应用。
本发明的目的是通过以下技术方案实现的:
一种基于卷积神经网络的田块信息提取方法,所述方法包括如下步骤:
S1、构建经过处理的原始多光谱卫星遥感影像数据集:获取原始多光谱卫星遥感影像数据集,并对其中田块覆盖区域和其它覆盖类型区域分别进行标注;对数据集中原始卫星多光谱遥感影像数据图片进行裁剪;将裁剪后的原始多光谱卫星遥感影像数据集按划分训练集、验证集与测试集,得到经过处理的原始多光谱卫星遥感影像数据集;
S2、数据增强:对步骤S1构建的经过处理的原始多光谱遥感影像数据集进行增强,使数据集中多光谱卫星遥感影像数据图片进行匀色、随机旋转,得到包括田块覆盖区域、其它覆盖区域的田块信息数据集;
S3、构建模型:以U2-Net及U-Net++模型结构为基础框架,融合深度可分离式卷积与空间通道注意力机制构建U2-Net++卷积神经网络模型;U2-Net++由输入层,多个嵌套的、跳跃路径相连的RSU模块,聚合不同阶段输出的空间通道注意力模块组成,并将传统卷积方式更换为深度可分离式卷积;整体框架由RSU模块组成不同深度编码器和解码器;在编码器部分,使用不同深度的RSU模块对输入的遥感影像数据进行提取;在解码器部分,使用相同深度的RSU模块进行解码操作,经过空间通道注意力机制后进行“卷积-批标准化-激活”操作得到这一深度的输出,再融合不同深度编码器和解码器的输出田块区域图,得到最终的田块信息;
S4、设置参数:以步骤S2处理后的训练集数据为数据源,对模型的运行参数进行调整,使得模型达到最佳的运行表现,得到模型训练设置参数;
S5、获取模型训练结果及数据集特征提取:
对模型训练后得到的权重参数进行保存,并利用S3构建的模型及S4获取的训练参数对S2处理后的验证集和测试集数据进行特征提取;
S6、得到田块信息提取结果:
通过对模型预测结果的可视化方法,利用像素转换技术对S5获得的特征提取结果进行转换,得到田块信息提取的可视化结果并展示。
进一步的优化,S1、构建经过处理的原始多光谱卫星遥感影像数据集包括以下具体步骤:
S1.1、由遥感卫星采集原始遥感影像数据,形成原始多光谱卫星遥感影像数据集,其中包括待测区域内的以下两类多光谱遥感影像数据:田块覆盖区域的多光谱遥感影像数据和其它覆盖区域的多光谱遥感影像数据;
S1.2、对原始遥感影像数据进行标注:田块覆盖区域标注为像素值255,其它覆盖类型区域标注为像素值0;
S1.3、将原始多光谱卫星遥感影像数据集中的原始多光谱遥感影像数据进行裁剪,裁剪后图像的像素大小为512×512;
S1.4、将裁剪后的原始多光谱卫星遥感影像数据集按照8:1:1的比例划分训练集、验证集与测试集,得到经过处理的原始多光谱卫星遥感影像数据集。
进一步的,S3中U-Net++的整体框架共有多个阶段,每个阶段都是由一个RSU模块填充,并且在RSU模块之间嵌套密集跳跃连接,横向的每一个RSU模块的深度H相同,纵向排列的模块深度H逐层递减;在编码过程的纵向上:每次向下运行时,进行一次下采样,使得特征图大小减小一半;在解码过程的纵向上:采取上采样,使用的是双线性插值,将特征图上采样至原大小;在横向上,后一个RSU模块的输入将接收纵向上底层模块上采样完的特征图及横向上前所有步骤的特征图,并将它们进行拼接。本发明的U2-Net++模型使用U-Net结构进行多尺度特征提取和编码,其中L参数决定了模型深度和感受野范围,而逐渐下采样和渐进式上采样、拼接和卷积过程则有助于缓解直接上采样导致的细节丢失问题。
进一步的,U-Net++的整体框架共有15个阶段,横向的每一个RSU模块的深度相同:第一层(0,x)模块共设置5个,其深度H为7;第二层(1,x)模块共设置4个,其深度H为6;第三层(2,x)模块共设置3个,其深度H为5;第四层(3,x)模块共设置2个,其深度H为4;第五层为(4,0)模块;所述x为0~4中全部或部分的整数。
本发明的优点和有益效果是:
本发明的基于卷积神经网络的田块信息提取方法,能够大规模、多时相的提取耕地范围,对耕地边界提取清晰,能有效提升耕地提取精度。
附图说明
下面结合附图和实施例对本发明作进一步说明。
图1为本发明U2-Net++卷积神经网络模型结构示意图;
图2为可分离式卷积和空间通道注意力机制对模型性能的影响对比图;
图3为U2-Net++模型对不同区域的田块提取结果;
图4为U2-Net++模型提取的不同情景下的农田定量评价结果图;
图5为本发明U2-Net++模型提取结果与其他三种图像分割的深度学习模型(U-Net、Deeplabv-3、U2-Net)比较结果。
具体实施方式
实施例1
一种基于卷积神经网络的田块信息提取方法,本实施例的研究区域在中国东部的山东省高青县。山东省高青县北依黄河,南邻小清河,属鲁北黄泛冲积平原,土地面积124.6万亩,其中耕地78.7万亩(基本农田75万亩),从事农业人口24.1万人,占全县人口约65%。雨季为5~9月,多年平均降水量650mm,多年平均气温13.9℃,主要作物为蔬菜和水稻。
所述方法包括如下步骤:
S1、构建经过处理的原始多光谱卫星遥感影像数据集:获取原始多光谱卫星遥感影像数据集,并对其中田块覆盖区域和其它覆盖类型区域分别进行标注;对数据集中原始多光谱遥感影像数据图片进行裁剪;将裁剪后的原始多光谱卫星遥感影像数据集按划分训练集、验证集与测试集,得到经过处理的原始多光谱卫星遥感影像数据集。包括以下具体步骤:
S1.1、由遥感卫星采集原始遥感影像数据,形成原始多光谱卫星遥感影像数据集,其中包括待测区域内的以下两类多光谱遥感影像数据:田块覆盖区域的多光谱遥感影像数据和其它覆盖区域的多光谱遥感影像数据。
针对高青县,本实施例通过中国资源卫星应用中心获取了共4张云量低于5%的资源三号卫星影像,包括全色影像(450-800nm,2.1m空间分辨率)和多光谱影像(5.8m空间分辨率)。并使用苍穹遥感卫星影像处理软件(KQRS Ortho)进行了正射校正、大气校正、影像匹配、区域网平差、融合、匀色等预处理,最后得到空间分辨率为2m的假彩色合成图像。
S1.2、对原始遥感影像数据进行标注:田块覆盖区域标注为像素值255,其它覆盖类型区域标注为像素值0。
本实施例使用了ArcGIS软件对假彩色合成图像进行目视标注,手动数字化地块边界,将其创建为矢量多边形,处理后得到空间分辨率为2米的图像。共创建了3000个多边形,其中一个多边形就代表一个完整的地块。随后,使用GDAL库将多边形转换为二值图像,像素值为0或255。
S1.3、将原始多光谱卫星遥感影像数据集中的原始多光谱遥感影像数据进行裁剪,裁剪后图像的像素大小为512×512;
本实施例中,使用Pillow库定位每个封闭多边形的中心,并将影像与二值图裁剪成512x512大小的图像。这种处理方法能够充分利用每个标注的多边形作为一个样本,最终得到了3000个样本数据集。
S1.4、将裁剪后的原始多光谱卫星遥感影像数据集按照8:1:1的比例划分训练集、验证集与测试集,得到经过处理的原始多光谱卫星遥感影像数据集。
S2、数据增强:对步骤S1构建的经过处理的原始多光谱遥感影像数据集进行增强,使数据集中多光谱卫星遥感影像数据图片进行匀色、随机旋转,得到包括田块覆盖区域、其它覆盖区域的田块信息数据集。
S3、构建模型:以U2-Net及U-Net++模型结构为基础框架,融合深度可分离式卷积与空间通道注意力机制构建U2-Net++卷积神经网络模型;U2-Net++由输入层,多个嵌套的、跳跃路径相连的RSU模块,聚合不同阶段输出的空间通道注意力模块组成,并将传统卷积方式更换为深度可分离式卷积;整体框架由RSU模块组成不同深度编码器和解码器;在编码器部分,使用不同深度的RSU模块对输入的遥感影像数据进行提取;在解码器部分,使用相同深度的RSU模块进行解码操作,经过空间通道注意力机制后进行“卷积-批标准化-激活”操作得到这一深度的输出,再融合不同深度编码器和解码器的输出田块区域图,得到最终的田块信息。
本实施例中田块提取模型U2-Net++的整体框架结构如图1所示。U2-Net++由输入层,15个嵌套的、密集的跳跃路径相连的RSU模块(根据需要也可以设定更多)、聚合不同阶段输出注意力模块组成,最终生成田块区域图。共有15个阶段(图1中的方块)组成,每个阶段都是由一个配置良好的RSU模块填充,并且在RSU模块之间嵌套密集跳跃连接,因此可以提取出阶段内多尺度特征和阶段内多尺度特诊聚合。其中横向的每一个RSU模块的深度是保持一致的,(0,x)模块的深度H为7,(1,x)模块的深度H为6,(2,x)模块的深度H为5,(3,x)模块的深度H为4,(4,0)模块因为输入的特征图分辨率相对较低,进一步降低这些特征图的采样会导致有用上下文的丢失,所以没有继续采取下采样操作。H通常根据输入特征映射的空间分辨率来配置。对于高宽较大的特征地图,使用更大的H来捕获更多的大比例尺信息。
在编码过程的纵向上,每次向下运行时,将进行一次下采样,使得特征图大小减小一半,如输入的原始图像为512×512大小,在经过(0,0)模块后得到的特征图为512×512,在进入(1,0)模块之前进行下采样,使得特征图大小为256×256,反之在解码过程的纵向上,将采取上采样,使用的是双线性插值,将特征图上采样至原大小。在横向上,后一个RSU模块的输入将接收纵向上底层模块上采样完的特征图及横向上前所有步骤的特征图,并将它们进行拼接。如(0,3)模块的输入为(1,2)模块的输出特征图进行上采样,并与(0,0)、(0,1)、(0,2)的输出特征图进行拼接得到的。不同模块的图像大小如表1所示。
表1
模块 | (0,x) | (1,x) | (2,x) | (3,x) | (4,x) |
图像大小 | 512 | 256 | 128 | 64 | 32 |
“I”、“M”、“O”分别表示每个块的输入通道(Cin)、中间通道和输出通道(Cout)的数量。如表2所示。
表2
概率图融合模块,用于生成田块概率图。本实施例在U2-Net的最外部的RSU模块输出的特征图输入到时空注意力机制模块,再使用3*3卷积层和sigmoid函数,从(0,1),(0,2),(0,3),(0,4),(4,0),(3,1),(2,2),(1,3)阶段输出田块概率图S(8),S(7),S(6),S(5)S(4),S(3),S(2),S(1),即图1中输出通道8~1,然后再将这些概率图通过级联操作进行融合然后使用1×1卷积层和sigmoid函数,生成最终的显著性概率映射。
S3.1融合深度可分离式卷积的RSU模块
RSU(Residual Split-Upsampling)是一种类似于U-Net用于图像分割的模块,可以将输入特征图逐步进行下采样、上采样和拼接操作,提取多尺度信息。RSU由三个部分组成:残差块(Residual Block)、分裂块(Split Block)和上采样块(Upsampling Block)。
图像在经过RSU模块提取特征后,特征图的长宽与输入图的长宽保持一致,通道数按RSU模块的编号按下表变化。“I”、“M”、“O”分别表示每个块的输入通道(Cin)、中间通道和输出通道(Cout)的数量。如表2所示。
在RSU模块的内部编码-解码过程,以RSU(0,0)为例,RSU(0,0)的深度为7。编码过程:输入图像像素值为512*512,通道数为3,经过第一次卷积操作,将图像通道数变为64,像素值为512*512的特征图,作为第一特征图输入给第二层。
使用最大池化操作将第一特征图的长宽缩小为原来的二分之一,并继续进行卷积,此时得到通道数为32,像素值为256*256的特征图,将该特征图作为第二特征图,输入给第三层。
使用最大池化操作将第二特征图的长宽缩小为原来的二分之一,并继续进行卷积,此时得到通道数为32,像素值为128*128的特征图,将该特征图作为第三特征图,输入给第四层。
使用最大池化操作将第三特征图的长宽缩小为原来的二分之一,并继续进行卷积,此时得到通道数为32,像素值为64*64的特征图,将该特征图作为第四特征图,输入给第五层。
使用最大池化操作将第四特征图的长宽缩小为原来的二分之一,并继续进行卷积,此时得到通道数为32,像素值为32*32的特征图,将该特征图作为第五特征图,输入给第六层。
使用最大池化操作将第五特征图的长宽缩小为原来的二分之一,并继续进行卷积,此时得到通道数为32,像素值为16*16的特征图,将该特征图作为第六特征图,输入给第七层。
不再进行最大池化操作,使用空洞卷积对第六特征图进行操作,得到通道数为32,像素值为16*16的特征图,做为第七特征特。
将第七特征图与第六特征图进行拼接,得到通道数为64,像素值为16*16的特征图,并进行卷积,得到通道数32,像素值为16*16的解码第一特征图。
将解码第一特征图利用双线性插值进行上采样,并与第五特征图进行拼接,得到通道数为64,像素值为32*32的特征图,并进行卷积,得到通道数32,像素值为32*32的解码第二特征图。
将解码第二特征图利用双线性插值进行上采样,并与第四特征图进行拼接,得到通道数为64,像素值为64*64的特征图,并进行卷积,得到通道数32,像素值为64*64的解码第三特征图。
将解码第三特征图利用双线性插值进行上采样,并与第三特征图进行拼接,得到通道数为64,像素值为128*128的特征图,并进行卷积,得到通道数32,像素值为128*128的解码第四特征图。
将解码第四特征图利用双线性插值进行上采样,并与第二特征图进行拼接,得到通道数为64,像素值为256*256的特征图,并进行卷积,得到通道数64,像素值为256*256的解码第五特征图。
将解码第五特征图与第一特征图进行融合,并经过残差模块处理,得到RSU(0,0)模块的输出特征图,通道数为64,像素值为512*512。
S3.2U2-Net++的编码过程
横向的每一个RSU模块的深度是保持一致的,(0,x)模块的深度H为7,(1,x)模块的深度H为6,(2,x)模块的深度H为5,(3,x)模块的深度H为4,(4,0)模块的深度H为4。
U2-Net++有不同深度编码-解码过程。第一个有RSU(0,0)、(1,0)、(0,1)组成,512*512*3的图像经过RSU(0,0)得到512*512*64的特征图。经过下采样后得到256*256*64的特征图输入到RSU(1,0)进行操作,得到256*256*128的特征图,将RSU(1,0)得到的特征图进行上采样并与RSU(0,0)的特征图进行拼接输入到RSU(0,1),得到512*512*64的特征图,再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出4。
第二是在第一个上更进一步,将RSU(1,0)的特征图进行下采样得到128*128*64的特征图输入到(2,0)中,得到128*128*256的特征图。将RSU(2,0)得到的特征图进行上采样并与RSU(1,0)的特征图进行拼接输入到RSU(1,1),得到256*256*128的特征图。将RSU(1,1)得到的特征图进行上采样并与RSU(0,0)、(0,1)的特征图进行拼接输入到RSU(0,2),得到512*512*64的特征图。再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出3。
第三个是在第二个的更进一步,将RSU(2,0)的特征图进行下采样得到64*64*64的特征图输入到(3,0)中,得到64*64*512的特征图。将RSU(3,0)得到的特征图进行上采样并与RSU(2,0)的特征图进行拼接输入到RSU(2,1),得到128*128*128的特征图。将RSU(2,1)得到的特征图进行上采样并与RSU(1,0)、(1,1)的特征图进行拼接输入到RSU(1,2),得到256*256*128的特征图。将RSU(1,2)得到的特征图进行上采样并与RSU(0,0)、(0,1)、(0,2)的特征图进行拼接输入到RSU(0,3),得到512*512*64的特征图。再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出2。
第四个是在第三个的更进一步,将RSU(3,0)64*64*512的特征图输入到(4,0)中,得到64*64*512的特征图,再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出8。将RSU(4,0)得到的特征图进行上采样并与RSU(3,0)的特征图进行拼接输入到RSU(3,1),得到64*64*512的特征图,再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出7。将RSU(3,1)得到的特征图进行上采样并与RSU(2,0)、(2,1)的特征图进行拼接输入到RSU(2,2),得到126*128*256的特征图,再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出6。将RSU(2,2)得到的特征图进行上采样并与RSU(1,0)、(1,1)、(1,2)的特征图进行拼接输入到RSU(1,3),得到256*256*128的特征图。再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出5。将RSU(1,3)得到的特征图进行上采样并与RSU(0,0)、(0,1)、(0,2)、(0,3)的特征图进行拼接输入到RSU(0,4),得到512*512*64的特征图。再经过空间通道注意力模块和卷积操作,得到像素值为512*512,通道数为1的输出1。
将输出1、输出2、输出3、输出4、输出5、输出6、输出7、输出8进行拼接,得到输出0,像素值为512*512,通道数为8,在经过卷积,标准化处理,和sigmoid函数激活,得到最终的预测结果。
S4、设置参数:以步骤S2处理后的训练集数据为数据源,对模型的运行参数进行调整,使得模型达到最佳的运行表现,得到模型训练设置参数;
在训练过程中,本发明模型预测结果不仅包括最终的田块预测图,还包括了8个不同阶段(S(1)边到S(8)边)的特征图,如图1输出1~输出8。因此,在训练模型时,不仅监督网络的最终输出结果图,还监督中间不同阶段的特征图。为了实现这一目标,本实施例采用了一种类似于整体嵌套边缘检测(HED)方法的深度监督方法,每次迭代输出九个损失。这些损失被用来调整模型参数,以最小化误差并精确地描绘重叠的田块。
其中(M=9,如图中的输出1~8在上图)为侧输出显著图/>边的损失,lfuse为最终融合输出显著图的损失。/>和wfuse为各损失项的权重。对于每一项l,使用标准二元交叉熵来计算损失,如下式所示:
式中:(i,j)为像素坐标,(H,W)分别为图像大小、高度和宽度。PG(i,j)和PS(i,j)分别表示真实值和预测的显著性概率图的像素值。训练过程尽量使整体损失L最小(式(1))。选择融合输出lfuse作为在测试过程中的最终显著性图。
S5、获取模型训练结果及数据集特征提取:
对模型训练后得到的权重参数进行保存,并利用S3构建的模型及S4获取的训练参数对S2处理后的验证集和测试集数据进行特征提取;
S6、得到田块信息提取结果:
通过对模型预测结果的可视化方法,利用像素转换技术对S5获得的特征提取结果进行转换,得到田块信息提取的可视化结果并展示。
精度评价:
采用交并比评估模型预测结果,R和P分别表示模型预测的区域和真实的目标区域。将样本的真实类别与模型的预测结果进行比较,可分为以下四种情况:真阳性(TP),其中橄榄冠的预测值与真实值一致;假阳性(FP),实际情况是背景,但被错误地预测为冠;假阴性(FN),真实场景中的皇冠没有被正确识别;真负(TN),其中背景与真实值一致。此外,采用精密度和召回率、总体准确度和F1-Score作为评价指标对模型进行评价。precision、recall、OA、F1-Score越高,预测值越接近真实值:
预测结果:
本研究的软硬件参数如下所示。在训练过程中,使用对输入图像进行随机裁剪、旋转等数据增强,并采用AdamW优化器调整模型训练过程。模型的batch size设置为4,迭代次数为360,其他超参数设置为默认值(学习率为0.001,weight decay为1×10-4,eval-interval为10),根据给定参数配置训练,输入我们制作的样本进行迭代训练,所需时间为14个小时。
表3
深度可分离式卷积以及空间通道注意力机制的影响:
为了评估可分离式卷积和空间通道注意力机制对模型性能的影响,本发明模型添加这两种方法前后对田块提取结果以及训练速度进行测试。使用了U2-Net++分别应用传统卷积和可分离式卷积的模型性能进行了测试,结果显示,在使用深度可分离卷积后,模型精度可以保持,Precision,Recall,F1-score,IoU的精度浮动都在±1%之间,但是训练速度降低了4个小时,因此可以证明深度可分离式卷积在卷积神经网络中的作用,在保证精度的同时,大幅度降低训练所需时间。如图2所示。
在添加空间通道注意力机制前后,训练所需的时间未发生较大的改变,添加之前训练本发明的数据所用时长为14小时,添加之后所需时间为14.5小时,但是在4种指标中,精度都有不一定程度的提升,其中Precision提升3.05%,Recall提升了4.21%,F1-score提升了3.63%,IoU提升了3.31%。因此空间通道注意力机制提高了田块提取精度。
田块提取结果评价:
本发明U2-Net++模型对不同区域的田块进行了提取如图3所示。从图中可以看的出来,所有测试区分区的提取效果都很好。在城镇与农田交汇区,农田的面积占比较小,且边界与建筑接壤,一些田块没有明显的田埂,但是本发明的模型依旧能够提取出田块清晰的轮廓,形状与实际一致。在道路与农田交汇区,本发明的模型也并未受到道路的影像,能够很准确的提取出田块的边界。在水渠与农田交汇区,水渠边细小田块提取效果不如其他区域,分析原因是勾画的样本中这一部分的内容较少导致。在全是田块的区域,本发明模型有最好的提取效果,田块边界完整。在所有分区中,都没有发生“错分”的情况,即不是田块的区域被提取为田块,准确率非常高。
本发明的模型提取的不同情景下的农田定量评价结果图4所示,在四种情景下准确率较高,均高于94.44%,F1-score都高于92.13%,总体准确率都超过90.81%。
通过对不同情景下的田块提取精度分析,发现在城镇周边的田块边界较为不光滑,提取出现边界识别误差,出现未识别的情况,U2-Net++的总体准确度为95.98%,召回率为88.57%,F1-score的总体精度为92.13%,OA为90.81%,IoU为85.40%。在道路周边和水渠周边的田块提取情况,提取效果受道路和水渠的影响较小,总体准确度分别为97.27%和98.82%,召回率分别为96.42%和95.49%,OA分别为95.38%,95.58%,IoU分别为93.88%和94.42%,因此本发明的模型在各类情景下都有较好的适用性。
不同深度学习模型的准确性评估:
为了研究U2-Net模型的适用性,本发明将其提取结果与其他三种图像分割的深度学习模型(U-Net、Deeplabv-3、U2-Net)进行了比较。这三种模型采用了和U2-Net同样的训练方式,都未使用预训练权值,并且都使用本发明U2-Net模型的样本数据进行训练。测试可视化提取结果如图5所示。可以看出,在同一实验区域内,四种深度学习模型的提取效果都没有出现明显的误分类现象,说明这些模型能够很好地将目标特征与背景特征区分开来。然而,在全是耕地的区域以及道路与农田交汇区域,可以看出U-Net的整体遗漏严重,提取的完整性较差,并且噪声比较严重。Deeplabv-3和U2-Net模型的提取结果相比U-Net整体效果更优,但是仍存在遗漏和噪声的情况,尤其是在田块边界不明显的区域,如城镇周边。本发明使用的U2-Net++模型显著降低了误分类和遗漏。虽然还存在一些缺陷,但田块边界分割效果很好。虽然仍然存在城镇周边边界较小以及部分噪声,但本研究使用的U2-Ne++t模型显著减少了误分类和遗漏,具有良好的田块提取效果。
四种模型的提取精度定量分析结果如下表所示。四种算法在Precision、Recall、F1-Score、OA和IoU这五个指标上的表现存在一定差异。在Precision指标上,U-Net表现得相对较差,只有89.54%的分数,而其他三种算法均超过了94%。在Recall指标上,四种算法的表现相对接近,U-Net的表现略低于其他三种算法。在F1-Score指标上,除了U-Net外,其他三种算法均超过了94%的分数。在OA指标上,四种算法的表现相对接近,但U2-Net++的表现略低于其他三种算法。在IoU指标上,四种算法的表现也存在差异,其中U-Net的表现最差,而Deeplab V3+和U2-Net表现较好,U2-Net++表现最好。
综合以上指标,可以发现U-Net相对于其他三种算法来说,在田块提取精度方面存在一定的劣势。而Deeplab V3+和U2-Net三种算法在各个指标上的表现尚佳,且分割能力相差不多,综合评价U2-Net++模型相比于老模型在F1-score提高了20%以上,相比于更复杂先进的模型(Deeplabv3+,U2Net)也有2%以上的提升。说明U2-Net++模型在数据较少,情景较复杂的田块提取工作中,可以得到更好的提取结果。
表4
Mathods | Precision(%) | Recall(%) | F1-Score(%) | OA(%) | IoU(%) |
U-Net | 89.5425 | 72.2025 | 79.5075 | 71.3175 | 66.735 |
Deeplab V3+ | 97.525 | 92.99 | 95.185 | 93.2275 | 90.87 |
U2-Net | 97.06 | 93.985 | 95.485 | 93.6925 | 91.4425 |
U2-Net++ | 98.82 | 95.49 | 97.13 | 95.58 | 94.42 |
最后应说明的是,以上仅用以说明本发明的技术方案而非限制,尽管参照较佳布置方案对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围。
Claims (4)
1.一种基于卷积神经网络的田块信息提取方法,其特征在于:所述方法包括如下步骤:
S1、构建经过处理的原始多光谱卫星遥感影像数据集:获取原始多光谱卫星遥感影像数据集,并对其中田块覆盖区域和其它覆盖类型区域分别进行标注;对数据集中原始多光谱遥感影像数据图片进行裁剪;将裁剪后的原始多光谱卫星遥感影像数据集按划分训练集、验证集与测试集,得到经过处理的原始多光谱卫星遥感影像数据集;
S2、数据增强:对步骤S1构建的经过处理的原始多光谱卫星遥感影像数据集进行增强,使数据集中多光谱卫星遥感影像数据图片进行匀色、随机旋转,得到包括田块覆盖区域、其它覆盖区域的田块信息数据集;
S3、构建模型:以U2-Net及U-Net++模型结构为基础框架,融合深度可分离式卷积与空间通道注意力机制构建U2-Net++卷积神经网络模型;U2-Net++由输入层、嵌套的跳跃路径相连的RSU模块及聚合不同阶段输出的空间通道注意力模块组成,并将传统卷积方式更换为深度可分离式卷积;整体框架由RSU模块组成不同深度编码器和解码器;在编码器部分,使用不同深度的RSU模块对输入的遥感影像数据进行提取;在解码器部分,使用相同深度的RSU模块进行解码操作,经过空间通道注意力机制后进行“卷积-批标准化-激活”操作得到这一深度的输出,融合不同深度编码器和解码器的输出田块区域图,得到最终的田块信息;
S4、设置参数:以步骤S2处理后的训练集数据为数据源,对模型的运行参数进行调整,使得模型达到最佳的运行表现,得到模型训练设置参数;
S5、获取模型训练结果及数据集特征提取:
对模型训练后得到的参数进行保存,并利用S3构建的模型及S4获取的训练参数对S2处理后的验证集和测试集数据进行特征提取;
S6、得到田块信息提取结果:
通过对模型预测结果的可视化方法,利用像素转换技术对S5获得的特征提取结果进行转换,得到田块信息提取的可视化结果并展示。
2.根据权利要求1所述的基于卷积神经网络的田块信息提取方法,其特征在于:S1、构建经过处理的原始多光谱卫星遥感影像数据集包括以下具体步骤:S1.1、由遥感卫星采集原始遥感影像数据,形成原始多光谱卫星遥感影像数据集,其中包括待测区域内的以下两类多光谱遥感影像数据:田块覆盖区域的多光谱遥感影像数据和其它覆盖区域的多光谱遥感影像数据;
S1.2、对原始遥感影像数据进行标注:田块覆盖区域标注为像素值255,其它覆盖类型区域标注为像素值0;
S1.3、将原始多光谱卫星遥感影像数据集中的原始多光谱遥感影像数据进行裁剪,裁剪后图像的像素大小为512×512;
S1.4、将裁剪后的原始多光谱卫星遥感影像数据集按照8:1:1的比例划分训练集、验证集与测试集,得到经过处理的原始多光谱卫星遥感影像数据集。
3.根据权利要求1所述的基于卷积神经网络的田块信息提取方法,其特征在于:S3中U2-Net++的整体框架共有15个阶段,每个阶段都是由一个RSU模块填充,并且在RSU模块之间嵌套密集跳跃连接,横向的每一个RSU模块的深度H相同,纵向排列的模块深度H逐层递减;在编码过程的纵向上:每次向下运行时,进行一次下采样,使得特征图大小减小一半;在解码过程的纵向上:采取上采样,使用的是双线性插值,将特征图上采样至原大小;在横向上,后一个RSU模块的输入将接收纵向上底层模块上采样完的特征图及横向上前所有步骤的特征图,并将它们进行拼接。
4.根据权利要求3所述的基于卷积神经网络的田块信息提取方法,其特征在于:U2-Net++的整体框架共有15个阶段,横向的每一个RSU模块的深度相同:第一层(0,x)模块共设置5个,其深度H为7;第二层(1,x)模块共设置4个,其深度H为6;第三层(2,x)模块共设置3个,其深度H为5;第四层(3,x)模块共设置2个,其深度H为4;第五层为(4,0)模块;所述x为0~4中全部或部分的整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310991849.9A CN117011713B (zh) | 2023-08-08 | 2023-08-08 | 一种基于卷积神经网络的田块信息提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310991849.9A CN117011713B (zh) | 2023-08-08 | 2023-08-08 | 一种基于卷积神经网络的田块信息提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117011713A CN117011713A (zh) | 2023-11-07 |
CN117011713B true CN117011713B (zh) | 2024-05-07 |
Family
ID=88565217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310991849.9A Active CN117011713B (zh) | 2023-08-08 | 2023-08-08 | 一种基于卷积神经网络的田块信息提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117011713B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115223063A (zh) * | 2022-07-13 | 2022-10-21 | 河南省农业科学院农业经济与信息研究所 | 基于深度学习的无人机遥感小麦新品种倒伏面积提取方法及系统 |
WO2022257959A1 (en) * | 2021-06-09 | 2022-12-15 | Subtle Medical, Inc. | Multi-modality and multi-scale feature aggregation for synthesizing spect image from fast spect scan and ct image |
FR3125907A3 (fr) * | 2022-03-01 | 2023-02-03 | Anhui University of Science and Technology | Méthode de production des cartes de caractéristiques saillantes sur la base des poids d’attention |
CN115861837A (zh) * | 2022-12-02 | 2023-03-28 | 湖南省第二测绘院 | 基于Ares-UNet++网络的耕地识别方法及相关装置 |
CN116152498A (zh) * | 2023-02-28 | 2023-05-23 | 哈尔滨工业大学 | 基于数据驱动的金属表面缺陷语义分割网络与训练方法 |
CN116205924A (zh) * | 2022-11-22 | 2023-06-02 | 三峡大学 | 一种基于U2-Net的前列腺分割算法 |
CN116229265A (zh) * | 2023-03-08 | 2023-06-06 | 长江大学 | 一种自动无损提取大豆植株表型的方法 |
CN116486068A (zh) * | 2022-09-23 | 2023-07-25 | 杭州电子科技大学 | 一种基于嵌套u型网络的covid-19病灶分割方法 |
CN116503706A (zh) * | 2022-11-11 | 2023-07-28 | 苏州光图智能科技有限公司 | 一种基于U2Net的新型显著性目标检测网络 |
-
2023
- 2023-08-08 CN CN202310991849.9A patent/CN117011713B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022257959A1 (en) * | 2021-06-09 | 2022-12-15 | Subtle Medical, Inc. | Multi-modality and multi-scale feature aggregation for synthesizing spect image from fast spect scan and ct image |
FR3125907A3 (fr) * | 2022-03-01 | 2023-02-03 | Anhui University of Science and Technology | Méthode de production des cartes de caractéristiques saillantes sur la base des poids d’attention |
CN115223063A (zh) * | 2022-07-13 | 2022-10-21 | 河南省农业科学院农业经济与信息研究所 | 基于深度学习的无人机遥感小麦新品种倒伏面积提取方法及系统 |
CN116486068A (zh) * | 2022-09-23 | 2023-07-25 | 杭州电子科技大学 | 一种基于嵌套u型网络的covid-19病灶分割方法 |
CN116503706A (zh) * | 2022-11-11 | 2023-07-28 | 苏州光图智能科技有限公司 | 一种基于U2Net的新型显著性目标检测网络 |
CN116205924A (zh) * | 2022-11-22 | 2023-06-02 | 三峡大学 | 一种基于U2-Net的前列腺分割算法 |
CN115861837A (zh) * | 2022-12-02 | 2023-03-28 | 湖南省第二测绘院 | 基于Ares-UNet++网络的耕地识别方法及相关装置 |
CN116152498A (zh) * | 2023-02-28 | 2023-05-23 | 哈尔滨工业大学 | 基于数据驱动的金属表面缺陷语义分割网络与训练方法 |
CN116229265A (zh) * | 2023-03-08 | 2023-06-06 | 长江大学 | 一种自动无损提取大豆植株表型的方法 |
Non-Patent Citations (2)
Title |
---|
U-Net-Based Medical Image Segmentation;Xiao Xia Yin et al.;Hindawi Journal of Healthcare Engineering;20220415;全文 * |
基于U2-Net眼底OCT图像黄斑水肿的语义分割方法研究;王健;中国优秀硕士学位论文全文数据库 医药卫生科技辑;20230215;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117011713A (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111767801B (zh) | 一种基于深度学习的遥感影像水域自动提取方法及系统 | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
CN109871798B (zh) | 一种基于卷积神经网络的遥感影像建筑物提取方法 | |
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
He et al. | Generating 2m fine-scale urban tree cover product over 34 metropolises in China based on deep context-aware sub-pixel mapping network | |
CN112949550B (zh) | 一种基于深度学习的水体识别方法、系统和介质 | |
CN113205018B (zh) | 一种基于多尺度残差网络模型的高分影像建筑物提取方法 | |
CN113205016B (zh) | 恒等残差型Unet与遥感水体指数的河湖岸线变化检测方法 | |
CN111368843B (zh) | 一种基于语义分割的冰上湖提取的方法 | |
CN117058367A (zh) | 高分辨率遥感影像建筑物语义分割方法及装置 | |
CN115661655B (zh) | 高光谱和高分影像深度特征融合的西南山区耕地提取方法 | |
CN116958827A (zh) | 一种基于深度学习的撂荒区域提取方法 | |
Guo et al. | Monitoring the spatiotemporal change of Dongting Lake wetland by integrating Landsat and MODIS images, from 2001 to 2020 | |
CN117197686A (zh) | 一种基于卫星影像的高标准农田地块边界自动识别方法 | |
Guo et al. | A flexible object-level processing strategy to enhance the weight function-based spatiotemporal fusion method | |
CN114663749A (zh) | 滑坡体识别模型的训练方法、装置、电子设备及存储介质 | |
CN114332619A (zh) | 一种基于深度学习的遥感数据水华提取方法 | |
CN114612315A (zh) | 一种基于多任务学习的高分辨率影像缺失区域重建方法 | |
CN117011713B (zh) | 一种基于卷积神经网络的田块信息提取方法 | |
CN117455939A (zh) | 遥感卫星图像的耕地边界提取方法 | |
Chen et al. | Large-Scale Building Footprint Extraction from Open-Sourced Satellite Imagery via Instance Segmentation Approach | |
Guo et al. | Object-Level Hybrid Spatiotemporal Fusion: Reaching a Better Trade-Off Among Spectral Accuracy, Spatial Accuracy and Efficiency | |
CN115909077A (zh) | 基于无监督光谱解混神经网络的高光谱图像变化检测方法 | |
CN115100091A (zh) | 一种sar图像转光学图像的转换方法及装置 | |
CN114743098A (zh) | 结合植被指数和卷积神经网络的遥感植被分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |