CN116958827A - 一种基于深度学习的撂荒区域提取方法 - Google Patents

一种基于深度学习的撂荒区域提取方法 Download PDF

Info

Publication number
CN116958827A
CN116958827A CN202310725425.8A CN202310725425A CN116958827A CN 116958827 A CN116958827 A CN 116958827A CN 202310725425 A CN202310725425 A CN 202310725425A CN 116958827 A CN116958827 A CN 116958827A
Authority
CN
China
Prior art keywords
abandoned
remote sensing
image
prompt
sensing image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310725425.8A
Other languages
English (en)
Inventor
王腾
董正国
林康恩
陈浩
徐秋婷
张晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SURVEYING AND MAPPING INSTITUTE LANDS AND RESOURCE DEPARTMENT OF GUANGDONG PROVINCE
Original Assignee
SURVEYING AND MAPPING INSTITUTE LANDS AND RESOURCE DEPARTMENT OF GUANGDONG PROVINCE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SURVEYING AND MAPPING INSTITUTE LANDS AND RESOURCE DEPARTMENT OF GUANGDONG PROVINCE filed Critical SURVEYING AND MAPPING INSTITUTE LANDS AND RESOURCE DEPARTMENT OF GUANGDONG PROVINCE
Priority to CN202310725425.8A priority Critical patent/CN116958827A/zh
Publication of CN116958827A publication Critical patent/CN116958827A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于深度学习的撂荒区域提取方法,包括获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,建立基于语义分割和对比学习的撂荒区域提取模型并利用预处理后的遥感影像数据集训练优化;获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行提取,获取撂荒区域初步分割结果和撂荒区域权重;将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中进行二次分割;将撂荒区域初步分割结果和撂荒区域二次分割结果融合,完成撂荒区域提取;本发明能够提供细节信息更丰富、精度更高的撂荒分割结果,并强化撂荒制图流程面对不同遥感影像源制图结果的鲁棒性。

Description

一种基于深度学习的撂荒区域提取方法
技术领域
本发明涉及遥感图像识别和深度学习技术领域,更具体地,涉及一种基于深度学习的撂荒区域提取方法。
背景技术
耕地撂荒是指被闲置、未能有效利用起来进行粮食生产的耕地区域。耕地撂荒导致耕地资源破坏或不能得到充分利用,对粮食安全均会产生较大的影响,因此需要对其进行密切的监测。研究撂荒的现状和影响因素都需要明确撂荒的空间信息和有效的撂荒空间分布制图。提取耕地撂荒区域的时空分布特征,可为保障粮食安全、改善民生、合理规划土地利用提供依据。
传统的撂荒识别方法中,通常基于时间序列数据进行识别,因此对遥感影像的时间分辨率有较高的要求,大部分使用的遥感影像为MODIS、Landsat,其中还有ALOS卫星影像、环境系列卫星影像等。以上遥感影像普遍空间分辨率不高,当面对破碎化且不规整的耕地时,低分辨率影像的混合像元给撂荒识别带来了较大的难度,此外,这些影像丢失了大量的纹理细节信息,从而无法实现精细化的撂荒制图。传统方法往往依赖于长时间的序列遥感影像,当待预测区域的气候为多云多雨时,时序影像数据容易缺失,从而使得预测精度大幅下降,不能满足常规性的监测需求。
语义分割是一种能够实现端到端的图像密集分类方法,目前常见的语义分割方法大多基于深度神经网络,包括卷积神经网络、Transformer等。输入图像首先经过一个主干网络后生成图像特征,并通过解码器将图像特征上采样,最后输出预测概率图像并得到最终的图像分割结果,语义分割网络通过计算与真实标签的损失函数和梯度回传完成网络的学习。在撂荒识别中,语义分割网络能够对高分辨率影像中的撂荒特征进行初步识别,但所得结果范围不够准确。
对比学习常用于深度学习中的无监督或自监督学习任务中,通过人为规定的代理任务划分相似和不相似样本,对应正样本和负样本,并通过对比学习模型学习这些样本的特征来提高模型的预测精度。在对比学习中,正样本之间的特征相似度要求尽可能高,负样本之间的特征相似度要求尽可能低。
提示工程出现于自然语言处理领域,通过预先设计的语言提示来提高文本生成模型的质量和相关性。在图像分割领域中,可以通过例如位置、文本等输入令模型给出合适语义和范围的分割结果。
现有技术公开了一种用于撂荒地的遥感识别方法,通过图像预处理、特征提取、模型训练、推理、逻辑运算等步骤,实现了从遥感影像中提取撂荒地;现有技术中的方法利用LUNET模型获得植被与非植被的推理结果,用TRNET模型获得云与非云的推理结果,仅能解决撂荒地提取中耗费人力的问题,但由于其使用的图像空间分辨率不高,撂荒区域的识别精度仍然较低。
发明内容
本发明为克服上述现有技术中撂荒区域提取精度低的缺陷,提供一种基于深度学习的撂荒区域提取方法,能够提供细节信息更丰富、精度更高的撂荒分割结果,在提升撂荒制图结果的形态准确率的同时,强化撂荒制图流程面对不同遥感影像源制图结果的鲁棒性。
为解决上述技术问题,本发明的技术方案如下:
一种基于深度学习的撂荒区域提取方法,包括以下步骤:
S1:获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;
S2:建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;
S3:获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;
S4:对撂荒区域初步分割结果随机采样预设比例的点,将随机采样获得的点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;
将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;
S5:将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,完成撂荒区域提取。
优选地,所述步骤S1中,获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理的具体方法为:
获取同一地点多个时相的高空间分辨率遥感影像数据集,并对获取到的每张遥感影像依次进行重采样、几何校正和辐射校正;
在辐射校正后的所有遥感影像中筛选具有农田撂荒地块的遥感影像,将筛选到的遥感影像中的农田撂荒地块进行人工目译标注,获取撂荒区域标注结果;将撂荒区域标注结果转化为二值图并作为对应遥感影像的真实值标签y,y=1表示撂荒区域,y=0表示非撂荒区域;
将标注后的所有遥感影像进行数据增强操作,所述数据增强操作包括:水平翻转、垂直翻转、随机变形、随机裁剪、亮度调整和增加高斯噪声;
将数据增强操作后的所有遥感影像进行标准化处理,完成预处理,获得预处理后的遥感影像数据集;
所述标准化处理的公式具体为:
其中,x′为标准化处理后的遥感影像;x为数据增强操作后的遥感影像像素值,μ和σ分别对应遥感影像像素值的均值和标准差。
优选地,所述步骤S2中,基于语义分割和对比学习的撂荒区域提取模型具体为:
所述撂荒区域提取模型包括两个结构相同且并列设置的语义分割网络,记为第一语义分割网络和第二语义分割网络;
每个所述语义分割网络均包括依次连接的:输入层、编码模块、解码模块和输出层;
所述编码模块为Swin Transformer模型,所述解码模块为特征金字塔模型。
优选地,所述步骤S2中,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型,具体方法为:
S2.1:在预处理后的遥感影像数据集中随机选取两张遥感影像并分别输入第一语义分割网络和第二语义分割网络中进行特征提取,获得第一特征和第二特征;
将第一特征输入预设的队列特征库中并更新,获取更新后的队列特征库;
S2.2:将第一特征和第二特征作为正样本进行对比学习,获取正样本对比学习结果;
在更新后的队列特征库中进行随机采样,获取第三特征,将第二特征和第三特征作为负样本进行对比学习,获取负样本对比学习结果;
S2.3:将正样本对比学习结果和负样本对比学习结果分别与预设的撂荒区域掩膜进行点积运算,获得正样本掩膜结果和负样本掩膜结果;
S2.4:根据正样本掩膜结果和负样本掩膜结果计算监督损失和对比损失,根据计算得到的监督损失和对比损失,通过梯度回传对第一语义分割网络进行参数更新,更新后的第一语义分割网络通过动量更新的方式对第二语义分割网络进行参数更新;
S2.5:重复步骤S2.1~S2.4,当监督损失和对比损失均取得最小值时,获取最优的撂荒区域提取模型。
优选地,所述步骤S2.1中,在预处理后的遥感影像数据集中随机选取两张遥感影像之后还包括:分别判断每张选取到的遥感影像中撂荒区域的面积占比是否大于预设阈值,若大于预设阈值,则将该遥感影像输入对应的语义分割网络;否则,重新选取遥感影像,执行步骤S2.1。
优选地,所述步骤S2.4中计算监督损失和对比损失的具体方法为:
根据以下监督损失函数计算监督损失:
Loss(p,y)=LossCE(,y)+βLossDice(,y)
其中,Loss(p,y)为监督损失函数值,α和β分别为第一超参数和第二超参数,LossCE(,y)为交叉熵损失函数值,LossDice(,y)为Dice损失函数值;p为遥感影像通过第一或第二语义分割网络输出的预测值,y为对应遥感影像的真实值标签;
所述交叉熵损失函数具体为:
所述Dice损失函数具体为:
其中,yi为第i张遥感影像的真实值标签,pi为第i张遥感影像通过第一或第二语义分割网络输出的预测值;N为遥感影像数量;
根据以下对比损失函数计算对比损失:
其中,Lq为对比损失函数值,q为第一特征,k+为正样本掩膜结果,ki为负样本掩膜结果,τ为第三超参数,c为训练过程中每个批次的大小。
优选地,所述步骤S2.4中的动量更新具体为:
所述动量更新公式为:
其中,θ k为动量更新后的第二语义分割网络参数,θq为第一语义分割网络参数,θ k为第二语义分割网络参数,m为动量更新超参数。
优选地,所述步骤S4中的提示工程分割模型具体为Segment Anything Model,包括:图像编码器、提示编码器和分割解码器;
所述图像编码器和提示编码器并列设置,图像编码器和提示编码器的输出分别与分割解码器的输入连接;
所述图像编码器为使用Masked Auto Encoders方法进行自监督预训练的VisionTransformer模型;
所述分割解码器包括:第一自注意力模块、第一提示-图像交叉注意力模块、第一全连接层、第一图像-提示交叉注意力模块、第二自注意力模块、第二提示-图像交叉注意力模块、第二全连接层、第二图像-提示交叉注意力模块、上卷积采样层、第三图像-提示交叉注意力模块、第三全连接层;
所述第一自注意力模块、第一提示-图像交叉注意力模块、第一全连接层和第一图像-提示交叉注意力模块依次连接;第二自注意力模块、第二提示-图像交叉注意力模块、第二全连接层和第二图像-提示交叉注意力模块依次连接;
所述第一自注意力模块还与第二自注意力模块连接,第一提示-图像交叉注意力模块还分别与第二提示-图像交叉注意力模块和第二图像-提示交叉注意力模块连接;
所述第二图像-提示交叉注意力模块还分别与上卷积采样层和第三图像-提示交叉注意力模块连接;第二自注意力模块还分别与上卷积采样层和第三图像-提示交叉注意力模块连接;
所述第三图像-提示交叉注意力模块还与第三全连接层连接。
优选地,所述步骤S4中,将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果,具体方法为:
S4.1:将待提取的高空间分辨率遥感影像输入图像编码器中,获得图像编码;将提示点和提示掩膜输入提示编码器中,获得提示编码,并为所有提示编码添加输出编码;
S4.2:将图像编码分别输入第一图像-提示交叉注意力模块和第一提示-图像交叉注意力模块中进行特征交互,将提示编码及其对应的输出编码共同输入第一自注意力模块中进行特征交互,第三全连接层输出交并比,上采样卷积层输出图像解码结果;
S4.3:将基于交并比选择的输出编码和图像解码结果进行点乘运算,获取撂荒区域二次分割结果。
优选地,所述步骤S5之后,还包括对最终的撂荒区域提取结果进行去噪和平滑处理,所述去噪和平滑处理包括:开运算、闭运算和平均滤波。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供一种基于深度学习的撂荒区域提取方法,首先获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;对撂荒区域初步分割结果随机采样预设比例的点,将随机采样获得的点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,完成撂荒区域提取;
本发明具有以下有益效果:
1)本发明针对高分辨率遥感影像设计了基于深度学习语义分割的农田撂荒区域初步提取流程,相比于传统的基于时序的撂荒提取方法,基于深度学习语义分割的方法能够提取更丰富的撂荒纹理特征,从而提供了细节信息更丰、精度更高的撂荒分割结果,实现了对高分辨率遥感影像的自动化撂荒解译流程;
2)本发明针对语义分割撂荒提取模型中对不同时相影像撂荒特征解译不够稳定的问题,参照人工撂荒解译流程,设计了基于对比学习的模型改进方法,从而增强模型对同一区域内多个时相遥感影像中撂荒特征的学习效果,同时强化了语义分割网络对于不同时相遥感影像撂荒的特征提取能力。
3)本发明设计了一种基于提示工程分割模型的撂荒区域二次分割方法,通过将语义分割撂荒提取模型生成的撂荒提取结果转化为提示输入,通过具有强对象形状和边界感知能力的提示工程分割模型优化撂荒结果,提升了撂荒制图结果的形态准确率,同时强化了撂荒制图流程面对不同遥感影像源制图结果的鲁棒性。
附图说明
图1为实施例1所提供的一种基于深度学习的撂荒区域提取方法流程图。
图2为实施例2所提供的撂荒区域提取模型结构图。
图3为实施例2所提供的提示工程分割模型结构图。
图4为实施例2所提供的最终的撂荒区域提取结果示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,本发明提供一种基于深度学习的撂荒区域提取方法,包括以下步骤:
S1:获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;
S2:建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;
S3:获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;
S4:对撂荒区域初步分割结果随机采样预设比例的点,将随机采样获得的点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;
将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;
S5:将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,完成撂荒区域提取。
在具体实施过程中,首先获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;对撂荒区域初步分割结果随机采样预设比例的点,将随机采样获得的点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;最后将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,完成撂荒区域提取;
本方法通过在语义分割网络的基础上引入对比学习结构,并结合提示工程分割模型进行撂荒区域的联合提取,能够提供细节信息更丰富、精度更高的撂荒分割结果,在提升撂荒制图结果的形态准确率的同时,强化撂荒制图流程面对不同遥感影像源制图结果的鲁棒性。
实施例2
本发明提供一种基于深度学习的撂荒区域提取方法,包括以下步骤:
S1:获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;
S2:建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;
S3:获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;
S4:对撂荒区域初步分割结果随机采样预设比例的点,将随机采样获得的点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;
将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;
S5:将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,对最终的撂荒区域提取结果进行去噪和平滑处理,完成撂荒区域提取;
所述去噪和平滑处理包括:开运算、闭运算和平均滤波;
所述步骤S1中,获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理的具体方法为:
获取同一地点多个时相的高空间分辨率遥感影像数据集,并对获取到的每张遥感影像依次进行重采样、几何校正和辐射校正;
在辐射校正后的所有遥感影像中筛选具有农田撂荒地块的遥感影像,将筛选到的遥感影像中的农田撂荒地块进行人工目译标注,获取撂荒区域标注结果;将撂荒区域标注结果转化为二值图并作为对应遥感影像的真实值标签y,y=1表示撂荒区域,y=0表示非撂荒区域;
将标注后的所有遥感影像进行数据增强操作,所述数据增强操作包括:水平翻转、垂直翻转、随机变形、随机裁剪、亮度调整和增加高斯噪声;
将数据增强操作后的所有遥感影像进行标准化处理,完成预处理,获得预处理后的遥感影像数据集;
所述标准化处理的公式具体为:
其中,x′为标准化处理后的遥感影像;x为数据增强操作后的遥感影像像素值,μ和σ分别对应遥感影像像素值的均值和标准差;
如图2所示,所述步骤S2中,基于语义分割和对比学习的撂荒区域提取模型具体为:
所述撂荒区域提取模型包括两个结构相同且并列设置的语义分割网络,记为第一语义分割网络和第二语义分割网络;
每个所述语义分割网络均包括依次连接的:输入层、编码模块、解码模块和输出层;
所述编码模块为Swin Transformer模型,所述解码模块为特征金字塔模型;
所述步骤S2中,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型,具体方法为:
S2.1:在预处理后的遥感影像数据集中随机选取两张遥感影像并分别输入第一语义分割网络和第二语义分割网络中进行特征提取,获得第一特征和第二特征;
将第一特征输入预设的队列特征库中并更新,获取更新后的队列特征库;
S2.2:将第一特征和第二特征作为正样本进行对比学习,获取正样本对比学习结果;
在更新后的队列特征库中进行随机采样,获取第三特征,将第二特征和第三特征作为负样本进行对比学习,获取负样本对比学习结果;
S2.3:将正样本对比学习结果和负样本对比学习结果分别与预设的撂荒区域掩膜进行点积运算,获得正样本掩膜结果和负样本掩膜结果;
S2.4:根据正样本掩膜结果和负样本掩膜结果计算监督损失和对比损失,根据计算得到的监督损失和对比损失,通过梯度回传对第一语义分割网络进行参数更新,更新后的第一语义分割网络通过动量更新的方式对第二语义分割网络进行参数更新;
S2.5:重复步骤S2.1~S2.4,当监督损失和对比损失均取得最小值时,获取最优的撂荒区域提取模型;
所述步骤S2.1中,在预处理后的遥感影像数据集中随机选取两张遥感影像之后还包括:分别判断每张选取到的遥感影像中撂荒区域的面积占比是否大于预设阈值,若大于预设阈值,则将该遥感影像输入对应的语义分割网络;否则,重新选取遥感影像,执行步骤S2.1;
所述步骤S2.4中计算监督损失和对比损失的具体方法为:
根据以下监督损失函数计算监督损失:
Loss(p,y)=LossCE(,y)+βLossDice(,y)
其中,Loss(p,y)为监督损失函数值,α和β分别为第一超参数和第二超参数,LossCE(,y)为交叉熵损失函数值,LossDice(,y)为Dice损失函数值;p为遥感影像通过第一或第二语义分割网络输出的预测值,y为对应遥感影像的真实值标签;
所述交叉熵损失函数具体为:
所述Dice损失函数具体为:
其中,yi为第i张遥感影像的真实值标签,pi为第i张遥感影像通过第一或第二语义分割网络输出的预测值;N为遥感影像数量;
根据以下对比损失函数计算对比损失:
其中,Lq为对比损失函数值,q为第一特征,k+为正样本掩膜结果,ki为负样本掩膜结果,τ为第三超参数,c为训练过程中每个批次的大小;
所述步骤S2.4中的动量更新具体为:
所述动量更新公式为:
其中,θ k为动量更新后的第二语义分割网络参数,θq为第一语义分割网络参数,θ k为第二语义分割网络参数,m为动量更新超参数;
如图3所示,所述步骤S4中的提示工程分割模型具体为Segment Anything Model,包括:图像编码器、提示编码器和分割解码器;
所述图像编码器和提示编码器并列设置,图像编码器和提示编码器的输出分别与分割解码器的输入连接;
所述图像编码器为使用Masked Auto Encoders方法进行自监督预训练的VisionTransformer模型;
所述分割解码器包括:第一自注意力模块、第一提示-图像交叉注意力模块、第一全连接层、第一图像-提示交叉注意力模块、第二自注意力模块、第二提示-图像交叉注意力模块、第二全连接层、第二图像-提示交叉注意力模块、上卷积采样层、第三图像-提示交叉注意力模块、第三全连接层;
所述第一自注意力模块、第一提示-图像交叉注意力模块、第一全连接层和第一图像-提示交叉注意力模块依次连接;第二自注意力模块、第二提示-图像交叉注意力模块、第二全连接层和第二图像-提示交叉注意力模块依次连接;
所述第一自注意力模块还与第二自注意力模块连接,第一提示-图像交叉注意力模块还分别与第二提示-图像交叉注意力模块和第二图像-提示交叉注意力模块连接;
所述第二图像-提示交叉注意力模块还分别与上卷积采样层和第三图像-提示交叉注意力模块连接;第二自注意力模块还分别与上卷积采样层和第三图像-提示交叉注意力模块连接;
所述第三图像-提示交叉注意力模块还与第三全连接层连接;
所述步骤S4中,将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果,具体方法为:
S4.1:将待提取的高空间分辨率遥感影像输入图像编码器中,获得图像编码;将提示点和提示掩膜输入提示编码器中,获得提示编码,并为所有提示编码添加输出编码;
S4.2:将图像编码分别输入第一图像-提示交叉注意力模块和第一提示-图像交叉注意力模块中进行特征交互,将提示编码及其对应的输出编码共同输入第一自注意力模块中进行特征交互,第三全连接层输出交并比,上采样卷积层输出图像解码结果;
S4.3:将基于交并比选择的输出编码和图像解码结果进行点乘运算,获取撂荒区域二次分割结果。
在具体实施过程中,首先获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;
首先对高分辨率遥感影像进行重采样、几何校正和辐射校正,从而确保用于模型训练的所有遥感影像具有一致的几何和辐射条件;重采样的目的是为了保证不同时相之间的遥感影像像素地理位置的一致性;
之后对具有农田撂荒地块的遥感影像进行筛选,通过人工目视解译撂荒地块完成撂荒数据集标注,将撂荒区域标注结果转化为二值图作为真实值标签y,在本实施实例中,遥感影像数据集包含13322张512×512大小的影像样本对;将标注后的遥感影像数据集通过随机划分的方式分为训练集和测试集,训练集和测试集的数据分配比例为80%和20%;
将标注后的所有遥感影像进行数据增强操作来增加训练样本,以提高模型的鲁棒性和泛化能力,所述数据增强操作包括:水平翻转、垂直翻转、随机变形、随机裁剪、亮度调整和增加高斯噪声;
将数据增强操作后的所有遥感影像进行标准化处理,完成预处理,获得预处理后的遥感影像数据集;
所述标准化处理的公式具体为:
其中,x′为标准化处理后的遥感影像;x为数据增强操作后的遥感影像像素值,μ和σ分别对应遥感影像像素值的均值和标准差;
建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;
本实施例中的撂荒区域提取模型包括两个结构相同且并列设置的语义分割网络,记为第一语义分割网络和第二语义分割网络;
每个所述语义分割网络均包括依次连接的:输入层、编码模块、解码模块和输出层;
所述编码模块为Swin Transformer模型,在训练过程中,编码模块首先对图像进行分块编码,每4×4范围的图像为一个分块,并通过线性层将像素值转化为特征编码;图像特征会经过4个不同阶段但相似的模块进行进一步的特征提取,在进入新的阶段前,通过间隔一个像素采样的方式减小特征图像的分辨率;阶段内模块将特征图像分成多个窗口计算自注意力,该公式可以表示为:
其中,Attention(·)表示窗口自注意力模块,Q,K,V通过特征矩阵分别通过三个不同的线性层获得,d表示矩阵K的维度,B为相对位置编码,通过计算每个位置与窗口中心点的相对位置实现;随后,编码模块通过窗口位移的方式进行不同窗口之间的自注意力特征交互,为了保持窗口位移后Q和K的索引保持一致,对索引位置不一致的部分进行掩膜,并完成自注意力的计算;
本实施例中的解码模块为特征金字塔模型,经过编码模块的特征提取后,语义分割网络通过特征金字塔模型完成图像特征的解码,将特征图进行不同大小池化核的运算,获得不同尺度的图像特征,并对不同尺度的图像特征进行进一步的特征解译,最后将不同尺度的特征合并,捕获全局的上下文信息,通过上采样模块恢复至图像原分辨率,输出第一或第二特征,通过数据集中的真实值标签完成监督训练;
撂荒区域提取模型的训练过程具体为:
S2.1:在预处理后的遥感影像数据集中随机选取两张遥感影像并分别输入第一语义分割网络和第二语义分割网络中进行特征提取,获得第一特征和第二特征;
将第一特征输入预设的队列特征库中并更新,获取更新后的队列特征库;
S2.2:将第一特征和第二特征作为正样本进行对比学习,获取正样本对比学习结果;
在更新后的队列特征库中进行随机采样,获取第三特征,将第二特征和第三特征作为负样本进行对比学习,获取负样本对比学习结果;
S2.3:将正样本对比学习结果和负样本对比学习结果分别与预设的撂荒区域掩膜进行点积运算,获得正样本掩膜结果和负样本掩膜结果;
S2.4:根据正样本掩膜结果和负样本掩膜结果计算监督损失和对比损失,根据计算得到的监督损失和对比损失,通过梯度回传对第一语义分割网络进行参数更新,更新后的第一语义分割网络通过动量更新的方式对第二语义分割网络进行参数更新;
S2.5:重复步骤S2.1~S2.4,当监督损失和对比损失均取得最小值时,获取最优的撂荒区域提取模型;
所述步骤S2.1中,在预处理后的遥感影像数据集中随机选取两张遥感影像之后还包括:分别判断每张选取到的遥感影像中撂荒区域的面积占比是否大于预设阈值,若大于预设阈值,则将该遥感影像输入对应的语义分割网络;否则,重新选取遥感影像,执行步骤S2.1;该步骤可以避免撂荒区域过小令模型学习到错误的特征;
所述步骤S2.4中计算监督损失和对比损失的具体方法为:
根据以下监督损失函数计算监督损失:
Loss(p,y)=LossCE(,y)+βLossDice(,y)
其中,Loss(p,y)为监督损失函数值,α和β分别为第一超参数和第二超参数,在本实施例中,α=0.8,β=0.2,LossCE(,y)为交叉熵损失函数值,LossDice(,y)为Dice损失函数值;p为遥感影像通过第一或第二语义分割网络输出的预测值,y为对应遥感影像的真实值标签;
所述交叉熵损失函数具体为:
所述Dice损失函数具体为:
其中,yi为第i张遥感影像的真实值标签,pi为第i张遥感影像通过第一或第二语义分割网络输出的预测值;N为遥感影像数量;
由于模型需要重点关注撂荒特征,因此在计算对比损失时,选取特征图像撂荒区域内的特征,并对该特征求平均值,作为该图像的撂荒特征,根据以下对比损失函数计算对比损失:
其中,Lq为对比损失函数值,q为第一特征,k+为正样本掩膜结果,ki为负样本掩膜结果,τ为第三超参数,c为训练过程中每个批次的大小;
为了增强对比学习对于正负样本的判别能力,本方法使用了基于队列的特征库结构,在每次训练过程中,图像经过特征提取器所得的特征会存储进特征库中,并以队列后进后出的形式在每次特征库更新时去除早期的特征,从而令特征库分布趋向于正常前向过程的特征分布;在使用了队列特征库后,模型从特征库中随机采样特征参与损失函数的计算,因此无法通过常规的梯度回传方式更新网络,因此将其中一个分支通过动量更新的方式进行网络参数更新,在动量更新过程中,分支内大部分参数与原网络一致,只引入另一个通过正常梯度回传的特征提取分支中少部分的网络参数,从而保证特征库更新后特征内部的一致性;
所述动量更新公式为:
其中,θ′k为动量更新后的第二语义分割网络参数,θq为第一语义分割网络参数,θ′k为第二语义分割网络参数,m为动量更新超参数,在本实施例中,m=0.999;
本实例将引入对比学习后的撂荒提取模型与未引入对比学习的模型进行对比,模型提取的结果与真实标签之间精度对比如表1所示:
表1引入对比学习与未引入对比学习的模型精度对比表
模型 IoU Recall Precision
未引入对比学习 0.6368 0.7743 0.8178
引入对比学习 0.6556 0.8116 0.8430
通过实验精度评价结果可以看出,本实施例所使用的模型相比于未引入对比学习策略的撂荒提取模型在各项指标中精度更优;
之后获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;
为了提高提示工程分割模型输出结果的稳定性,本方法对撂荒区域初步分割结果随机采样20个点,将随机采样获得的20个点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;
将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;
本实施例中的提示工程分割模型具体为Segment Anything Model,包括:图像编码器、提示编码器和分割解码器;
所述图像编码器和提示编码器并列设置,图像编码器和提示编码器的输出分别与分割解码器的输入连接;
所述图像编码器为使用Masked Auto Encoders方法进行自监督预训练的VisionTransformer模型;图像在经过分块编码后,通过多个自注意力模块完成特征提取,最终生成空间大小下采样4倍、特征维度为256维的图像特征;
对于提示编码器,提示点的输入为经过余弦编码的位置信息,本实例中多个点的位置信息经过相加后输入到提示编码器中,并通过线性层将位置编码变换为256维大小的特征符号,增加两个相同大小且可学习的符号用于表示输入的点位于前景还是背景;对于输入的提示掩膜,提示编码器对其进行降采样后,通过卷积运算完成编码;最后,所有提示编码还会增加一定数量的输出编码,该输出编码用于最后辅助分割结果的生成;
在分割解码器中,经过多个交叉注意力层后,提示编码中的多个输出编码会通过一个全连接层不同输出编码对应预测分割结果的交并比,最终,基于交并比选择的输出编码与图像解码结果点乘,获得撂荒区域二次分割结果;
最后将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,对最终的撂荒区域提取结果进行去噪和平滑处理,完成撂荒区域提取;所述去噪和平滑处理包括:开运算、闭运算和平均滤波;
本实施例方法的结果示例如图4所示,其中,淡灰色的部分为未经提示工程处理的结果,黑色框内部分的区域为本方法最终的撂荒提取结果,可以看到经过本实施例中的提示工程进行二次分割的方法,能够有效对撂荒地块的区域和形状进行补全;
本方法通过在语义分割网络的基础上引入对比学习结构,并结合提示工程分割模型进行撂荒区域的联合提取,能够提供细节信息更丰富、精度更高的撂荒分割结果,在提升撂荒制图结果的形态准确率的同时,强化撂荒制图流程面对不同遥感影像源制图结果的鲁棒性。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于深度学习的撂荒区域提取方法,其特征在于,包括以下步骤:
S1:获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理,获得预处理后的遥感影像数据集;
S2:建立基于语义分割和对比学习的撂荒区域提取模型,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型;
S3:获取待提取的高空间分辨率遥感影像并输入最优的撂荒区域提取模型中进行撂荒区域提取,获取撂荒区域初步分割结果和撂荒区域权重;
S4:对撂荒区域初步分割结果随机采样预设比例的点,将随机采样获得的点作为提示工程中的提示点,将撂荒区域权重作为提示工程中的提示掩膜;
将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果;
S5:将撂荒区域初步分割结果和撂荒区域二次分割结果融合,获得最终的撂荒区域提取结果,完成撂荒区域提取。
2.根据权利要求1所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S1中,获取同一地点多个时相的高空间分辨率遥感影像数据集并进行预处理的具体方法为:
获取同一地点多个时相的高空间分辨率遥感影像数据集,并对获取到的每张遥感影像依次进行重采样、几何校正和辐射校正;
在辐射校正后的所有遥感影像中筛选具有农田撂荒地块的遥感影像,将筛选到的遥感影像中的农田撂荒地块进行人工目译标注,获取撂荒区域标注结果;将撂荒区域标注结果转化为二值图并作为对应遥感影像的真实值标签y,y=1表示撂荒区域,y=0表示非撂荒区域;
将标注后的所有遥感影像进行数据增强操作,所述数据增强操作包括:水平翻转、垂直翻转、随机变形、随机裁剪、亮度调整和增加高斯噪声;
将数据增强操作后的所有遥感影像进行标准化处理,完成预处理,获得预处理后的遥感影像数据集;
所述标准化处理的公式具体为:
其中,x′为标准化处理后的遥感影像;x为数据增强操作后的遥感影像像素值,μ和σ分别对应遥感影像像素值的均值和标准差。
3.根据权利要求2所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S2中,基于语义分割和对比学习的撂荒区域提取模型具体为:
所述撂荒区域提取模型包括两个结构相同且并列设置的语义分割网络,记为第一语义分割网络和第二语义分割网络;
每个所述语义分割网络均包括依次连接的:输入层、编码模块、解码模块和输出层;
所述编码模块为Swin Transformer模型,所述解码模块为特征金字塔模型。
4.根据权利要求3所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S2中,将预处理后的遥感影像数据集输入撂荒区域提取模型中进行训练优化,获取最优的撂荒区域提取模型,具体方法为:
S2.1:在预处理后的遥感影像数据集中随机选取两张遥感影像并分别输入第一语义分割网络和第二语义分割网络中进行特征提取,获得第一特征和第二特征;
将第一特征输入预设的队列特征库中并更新,获取更新后的队列特征库;
S2.2:将第一特征和第二特征作为正样本进行对比学习,获取正样本对比学习结果;
在更新后的队列特征库中进行随机采样,获取第三特征,将第二特征和第三特征作为负样本进行对比学习,获取负样本对比学习结果;
S2.3:将正样本对比学习结果和负样本对比学习结果分别与预设的撂荒区域掩膜进行点积运算,获得正样本掩膜结果和负样本掩膜结果;
S2.4:根据正样本掩膜结果和负样本掩膜结果计算监督损失和对比损失,根据计算得到的监督损失和对比损失,通过梯度回传对第一语义分割网络进行参数更新,更新后的第一语义分割网络通过动量更新的方式对第二语义分割网络进行参数更新;
S2.5:重复步骤S2.1~S2.4,当监督损失和对比损失均取得最小值时,获取最优的撂荒区域提取模型。
5.根据权利要求4所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S2.1中,在预处理后的遥感影像数据集中随机选取两张遥感影像之后还包括:分别判断每张选取到的遥感影像中撂荒区域的面积占比是否大于预设阈值,若大于预设阈值,则将该遥感影像输入对应的语义分割网络;否则,重新选取遥感影像,执行步骤S2.1。
6.根据权利要求5所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S2.4中计算监督损失和对比损失的具体方法为:
根据以下监督损失函数计算监督损失:
Loss(p,y)=αLossCE(p,y)+βLossDice(p,y)
其中,Loss(p,y)为监督损失函数值,α和β分别为第一超参数和第二超参数,LossCE(p,y)为交叉熵损失函数值,LossDice(p,y)为Dice损失函数值;p为遥感影像通过第一或第二语义分割网络输出的预测值,y为对应遥感影像的真实值标签;
所述交叉熵损失函数具体为:
所述Dice损失函数具体为:
其中,yi为第i张遥感影像的真实值标签,pi为第i张遥感影像通过第一或第二语义分割网络输出的预测值;N为遥感影像数量;
根据以下对比损失函数计算对比损失:
其中,Lq为对比损失函数值,q为第一特征,k+为正样本掩膜结果,ki为负样本掩膜结果,τ为第三超参数,c为训练过程中每个批次的大小。
7.根据权利要求6所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S2.4中的动量更新具体为:
所述动量更新公式为:
其中,θ′k为动量更新后的第二语义分割网络参数,θq为第一语义分割网络参数,θ′k为第二语义分割网络参数,m为动量更新超参数。
8.根据权利要求1或7所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S4中的提示工程分割模型具体为Segment Anything Model,包括:图像编码器、提示编码器和分割解码器;
所述图像编码器和提示编码器并列设置,图像编码器和提示编码器的输出分别与分割解码器的输入连接;
所述图像编码器为使用Masked Auto Encoders方法进行自监督预训练的VisionTransformer模型;
所述分割解码器包括:第一自注意力模块、第一提示-图像交叉注意力模块、第一全连接层、第一图像-提示交叉注意力模块、第二自注意力模块、第二提示-图像交叉注意力模块、第二全连接层、第二图像-提示交叉注意力模块、上卷积采样层、第三图像-提示交叉注意力模块、第三全连接层;
所述第一自注意力模块、第一提示-图像交叉注意力模块、第一全连接层和第一图像-提示交叉注意力模块依次连接;第二自注意力模块、第二提示-图像交叉注意力模块、第二全连接层和第二图像-提示交叉注意力模块依次连接;
所述第一自注意力模块还与第二自注意力模块连接,第一提示-图像交叉注意力模块还分别与第二提示-图像交叉注意力模块和第二图像-提示交叉注意力模块连接;
所述第二图像-提示交叉注意力模块还分别与上卷积采样层和第三图像-提示交叉注意力模块连接;第二自注意力模块还分别与上卷积采样层和第三图像-提示交叉注意力模块连接;
所述第三图像-提示交叉注意力模块还与第三全连接层连接。
9.根据权利要求8所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S4中,将待提取的高空间分辨率遥感影像、提示点和提示掩膜共同输入到预设的提示工程分割模型中,获得撂荒区域二次分割结果,具体方法为:
S4.1:将待提取的高空间分辨率遥感影像输入图像编码器中,获得图像编码;将提示点和提示掩膜输入提示编码器中,获得提示编码,并为所有提示编码添加输出编码;
S4.2:将图像编码分别输入第一图像-提示交叉注意力模块和第一提示-图像交叉注意力模块中进行特征交互,将提示编码及其对应的输出编码共同输入第一自注意力模块中进行特征交互,第三全连接层输出交并比,上采样卷积层输出图像解码结果;
S4.3:将基于交并比选择的输出编码和图像解码结果进行点乘运算,获取撂荒区域二次分割结果。
10.根据权利要求9所述的一种基于深度学习的撂荒区域提取方法,其特征在于,所述步骤S5之后,还包括对最终的撂荒区域提取结果进行去噪和平滑处理,所述去噪和平滑处理包括:开运算、闭运算和平均滤波。
CN202310725425.8A 2023-06-16 2023-06-16 一种基于深度学习的撂荒区域提取方法 Pending CN116958827A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310725425.8A CN116958827A (zh) 2023-06-16 2023-06-16 一种基于深度学习的撂荒区域提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310725425.8A CN116958827A (zh) 2023-06-16 2023-06-16 一种基于深度学习的撂荒区域提取方法

Publications (1)

Publication Number Publication Date
CN116958827A true CN116958827A (zh) 2023-10-27

Family

ID=88457339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310725425.8A Pending CN116958827A (zh) 2023-06-16 2023-06-16 一种基于深度学习的撂荒区域提取方法

Country Status (1)

Country Link
CN (1) CN116958827A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392550A (zh) * 2023-12-11 2024-01-12 天津市勘察设计院集团有限公司 基于高分辨率遥感影像的自然要素提取方法
CN117612031A (zh) * 2024-01-22 2024-02-27 环天智慧科技股份有限公司 一种基于语义分割的撂荒地遥感识别方法
CN117952995A (zh) * 2024-03-27 2024-04-30 山东大学 一种可聚焦提示调优的心脏图像分割系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392550A (zh) * 2023-12-11 2024-01-12 天津市勘察设计院集团有限公司 基于高分辨率遥感影像的自然要素提取方法
CN117612031A (zh) * 2024-01-22 2024-02-27 环天智慧科技股份有限公司 一种基于语义分割的撂荒地遥感识别方法
CN117952995A (zh) * 2024-03-27 2024-04-30 山东大学 一种可聚焦提示调优的心脏图像分割系统
CN117952995B (zh) * 2024-03-27 2024-06-11 山东大学 一种可聚焦提示调优的心脏图像分割系统

Similar Documents

Publication Publication Date Title
CN112991354B (zh) 一种基于深度学习的高分辨率遥感影像语义分割方法
CN110059698B (zh) 用于街景理解的基于边缘稠密重建的语义分割方法及系统
CN115049936B (zh) 一种面向高分遥感影像的边界增强型语义分割方法
CN113449594B (zh) 一种多层网络组合的遥感影像地类语义分割与面积计算方法
CN114120102A (zh) 边界优化的遥感图像语义分割方法、装置、设备及介质
CN112183258A (zh) 一种基于上下文信息和注意力机制的遥感图像道路分割方法
CN116958827A (zh) 一种基于深度学习的撂荒区域提取方法
CN110889449A (zh) 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN111986125B (zh) 一种用于多目标任务实例分割的方法
CN110070091B (zh) 用于街景理解的基于动态插值重建的语义分割方法及系统
CN110059769B (zh) 用于街景理解的基于像素重排重建的语义分割方法及系统
CN110059768A (zh) 用于街景理解的融合点与区域特征的语义分割方法及系统
CN111460936A (zh) 基于U-Net网络的遥感影像建筑物提取方法、系统、电子设备
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN114694038A (zh) 基于深度学习的高分辨率遥感影像分类方法及系统
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、系统及设备
CN113628180B (zh) 一种基于语义分割网络的遥感建筑物检测方法及系统
CN115620010A (zh) 一种rgb-t双模态特征融合的语义分割方法
CN117058367A (zh) 高分辨率遥感影像建筑物语义分割方法及装置
CN115424017B (zh) 一种建筑物内外轮廓分割方法、装置及存储介质
CN117727046A (zh) 新型山洪前端仪器仪表读数自动识别方法及系统
CN111860465A (zh) 基于超像素的遥感图像提取方法、装置、设备及存储介质
CN116012299A (zh) 一种基于目标识别的复合绝缘子憎水性等级检测方法
CN113901913A (zh) 一种用于古籍文档图像二值化的卷积网络
CN114494284A (zh) 一种基于显式监督区域关系的场景解析模型及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination