CN116343111A - 一种撂荒地监测方法及系统 - Google Patents
一种撂荒地监测方法及系统 Download PDFInfo
- Publication number
- CN116343111A CN116343111A CN202310140528.8A CN202310140528A CN116343111A CN 116343111 A CN116343111 A CN 116343111A CN 202310140528 A CN202310140528 A CN 202310140528A CN 116343111 A CN116343111 A CN 116343111A
- Authority
- CN
- China
- Prior art keywords
- encoder
- abandoned
- learning model
- monitoring
- abandoned land
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012544 monitoring process Methods 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 51
- 230000011218 segmentation Effects 0.000 claims abstract description 27
- 238000012360 testing method Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 13
- 238000012795 verification Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000000052 comparative effect Effects 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 9
- 238000010200 validation analysis Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 14
- 238000002474 experimental method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 4
- 229910015234 MoCo Inorganic materials 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及农业监测领域,公开了一种撂荒地监测方法及系统,所述方法包括收集撂荒地区域内的卫星影像;对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本;构建对比学习模型和构建语义分割网络,将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中,利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图;根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。本发明通过提取和整合了同一区域不同时相的撂荒特征,绘制撂荒地监测图,能够有效提高撂荒地监测的实时性和精度。
Description
技术领域
本发明涉及农业监测领域,更具体地,涉及一种撂荒地监测方法及系统。
背景技术
研究撂荒的现状和影响因素从而采取相关应对措施,都依赖明确撂荒的空间信息和有效的撂荒空间分布制图。通过提取耕地撂荒区域的时空分布特征,绘制撂荒地监测图,对撂荒地进行监测可为保障粮食安全、改善民生和合理规划土地利用提供依据。
目前,撂荒区域的监测主要使用长时间序列遥感影像进行识别,然而质量良好的长时间序列遥感图像常常使难以获得,且不能对同一地区不同时相的撂荒地区进行识别,监测实时性低,且无法进行有效的精细制图,造成监测精度低的缺陷。
发明内容
本发明为克服现有撂荒地监测方法存在的监测实时性和精度低的缺陷,提供一种撂荒地监测方法及系统。
为解决上述技术问题,本发明的技术方案如下:
第一个方面,本发明提出一种撂荒地监测方法,包括:
收集撂荒地区域内的卫星影像。
对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本。
以所述正样本和负样本构建初始数据集。将所述初始数据集划分为训练集、验证集和测试集。
构建对比学习模型,利用所述训练集和验证集对所述对比学习模型进行训练和调参。
构建语义分割网络,将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中,利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图。
根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。
第二个方面,本发明还提出一种撂荒地监测系统,应用于如第一个方面所述的撂荒地监测方法中,包括:
收集模块,用于收集目标撂荒地区域内的卫星影像。
匹配模块,用于对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本。
第一构建模块,用于以所述正样本和负样本构建初始数据集。将所述初始数据集划分为训练集、验证集和测试集。
第二构建模块,用于构建对比学习模型,并利用所述训练集和验证集对所述对比学习模型进行训练和调参。
第三构建模块,用于构建语义分割网络,并将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中。
监督学习模块,用于利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图。
制图模块,用于根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。
与现有技术相比,本发明技术方案的有益效果是:本发明通过对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本,并引入对比学习模型,利用所述正样本和负样本进行初步的自监督训练,提取和整合了同一区域不同时相的撂荒特征,绘制撂荒地监测图,能够有效提高撂荒地监测的实时性和精度。
附图说明
图1为本申请实施例中撂荒地监测方法的流程图。
图2为本申请实施例中对比学习模型的结构示意图。
图3为本申请实施例中对比学习模型和语义分割网络进行自监督学习的原理图。
图4为本申请实施例中制作耕地撂荒数据集的展示图。
图5(a)为本申请实施例中人工标注撂荒区域的耕地撂荒提取实验结果图。
图5(b)为本申请实施例中ResNet-PSPNet-CA的耕地撂荒提取实验结果图。
图5(c)为本申请实施例中ResNet-PSPNet-CA-MoCo的耕地撂荒提取实验结果图。
图5(d)为本申请实施例中EfficientNet-PSPNet-CA的耕地撂荒提取实验结果图。
图5(e)为本申请实施例中EfficientNet-PSPNet-CA-MoCo的耕地撂荒提取实验结果图。
图6为本申请实施例中撂荒地监测系统的架构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例一
请参阅图1,本实施例提出一种撂荒地监测方法:
收集撂荒地区域内的卫星影像。
对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本。
以所述正样本和负样本构建初始数据集。将所述初始数据集划分为训练集、验证集和测试集。
构建对比学习模型,利用所述训练集和验证集对所述对比学习模型进行训练和调参。
在具体实施过程中,存在两个时相的影像和同一个撂荒区域标注,标注过程是选取两个时相影像均为撂荒的区域,因此本实施例使用的对比学习中的代理任务设置为同一个区域上半年和下半年的影像作为相似影像,视作互为正样本,数据集中的所有不同区域间的上半年和下半年的影像视作互为负样本。
构建语义分割网络,将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中,利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图。
根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。
本实施例所提出的撂荒地监测方法,通过对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本,并引入对比学习模型,利用所述正样本和负样本进行初步的自监督训练,能够提取和整合了同一区域不同时相的撂荒特征,绘制撂荒地监测图,能够有效提高撂荒地监测的实时性和精度。
实施例二
本实施例在实施例一提出的撂荒地监测方法的基础上作出改进。
本实施例中,如图2所示,其为对比学习模型的结构示意图,所述对比学习模型中的编码器包括第一编码器和第二编码器。分批次将所述训练集分别输入所述第一编码器和所述第二编码器,第一编码器和第二编码器分别输出第一图像特征和第二图像特征。优化所述第一图像特征和所述第二图像特征之间的对比损失,直至对比学习模型的损失函数收敛,得到训练好的对比学习模型。
在具体实施过程中,对比学习模型中通常包含两个分支,两个分支对应两个经过数据增强后的图像输入,分支内部对应两个特征提取器即本实施例中的第一编码器和第二编码器,用于提取特征,最后获得两张输入图像的两组特征,这两组特征会计算相互的对比损失,通过优化该损失使得相似图像的特征在特征空间中的距离相近,不同图像对应的特征在特征空间中相互远离。特征提取器经过对比学习后,网络模型能够在没有图像标注的情况下学习到特定的特征编码能力,能够对不同的数据做出判别,从而令网络在后续的训练中快速收敛,并且获得比网络权重随机初始化更好的训练性能。
本实施例中,所述对比学习模型的损失函数的表达式如下所示:
其中,q为第一编码器输出的第一图像特征,k为第二编码器输出的第二图像特征,q·k为通过点积计算两个编码器分支输出特征的相似度,τ为超参数;c为训练集中一个批次的大小,即训练集一个批次内部的其他样本数量,通过近似计算图像与其他所有图像的分类损失从而令网络学习到图像之间的特征差距;k+为正样本通过编码器后输出的特征,ki为第i个批次内所有图像通过第二编码器后输出的图像特征。
本实施例中,对比学习模型的初始学习率设置为0.0001,对比学习中损失函数超参数τ设置为0.1,用于计算相似度的特征维度设置为128,特征队列长度设置为1024。
本实施例中,通过构建队列结构的记忆库,所述记忆库的更新方式设置为当最新批次的图像特征存储进记忆库时,移除上一批次的图像特征。将第二编码器当前批次输出的图像特征设置为负样本并存储至所述记忆库中。在对所述对比学习模型进行训练的过程中引入所述记忆库中的负样本参与对比学习,对所述记忆库进行迭代更新,直至所述对比学习模型完成训练。
在具体实施过程中,将原有的记忆库更改成了队列结构的记忆库,充分利用队列的后进后出的特性,在每次更新记忆库时,最新的特征进入的同时将早期的特征移除,从而保证了当次训练中特征的一致性,同时在模型训练的初始化阶段,通过调整队列结构的容量参数,扩大该队列结构的容量实现了足够数量的负样本参与训练。另外,该方法保留了两个特征提取分支,与端到端方法不同的是,其中一个分支在训练过程中不直接参与损失函数的梯度回传,而是通过动量更新(Momentum Update)机制对该分支下的网络参数进行更新。在动量更新过程中,该分支的大部分参数与原网络一致,只引入另一个参与正常梯度回传的分支中少部分的网络参数,从而保证队列中特征内部的一致性。将所有训练数据进行对比学习,完成训练后将对比学习模型中的编码器部分中的权重初始化到语义分割网络中并进行监督学习。
本实施例中,在优化所述第一图像特征和所述第二图像特征之间的对比损失时,包括:利用参与损失函数梯度回传的第一编码器对不参与损失函数梯度回传的第二编码器进行网络参数动量更新,其表达式如下所示:
其中,θq为第一编码器的网络参数,θk为第二编码器的网络参数,m为用于控制动量更新速度的超参数。
如图3所示,其为对比学习模型和语义分割网络进行自监督学习的原理图,中,所述语义分割网络的损失函数包括交叉熵损失和Dice损失;
所述交叉熵损失的表达式如下所示:
所述Dice损失的表达式如下所示:
其中,N为输入的样本总数,pi为标签为i的样本的真实值,yi为标签为i的样本的预测值。
本实施例中,根据所述目标撂荒地区域的二值图,绘制撂荒地监测图,具体为:对所述目标撂荒地区域的二值图分别进行矢量化和去噪后处理,得到撂荒地监测图。
本实施例中,在利用训练集和验证集对对比学习模型进行训练之前,所述方法还包括:对训练集进行数据增强,具体包括:对影像数据进行平移翻转、随机裁剪、随机色彩映射和增加高斯噪声。
本实施例中,所述卫星影像为高分辨率遥感图像。高分辨率影像具有空间分辨率高、地物几何结构明显、纹理信息清晰和数据量大等特征。模拟撂荒产品标注过程中对两个时相高分辨率影像的判别过程,将同一地区不同时相的影像通过不同的随机数据增强方法输入到不同分支的编码器网络中,通过计算两个分支输出特征的对比损失,让网络学习到两个时相影像之间所共有的撂荒特征,强化了网络对于不同时相高分影像撂荒的特征提取能力。
实施例三
为了展示双时相对比学习进行预训练的效果,本实施例在实施例二提出的撂荒地监测方法的基础上,引入ImageNet数据集进行有监督的预训练作为权重初始化参数进行对比。
本实施例中,根据广东省2020年大于15亩耕地撂荒数据,结合广东省2020年下半年高分二号卫星采集部分区域的影像,制作耕地撂荒数据集展示图如图4所示,共116张分辨率为1米的遥感影像,范围在4平方公里左右,涵盖广东粤东、粤西、粤北和珠三角等区域;根据广东省2021年大于3亩耕地撂荒数据,结合广东省2021年上半年和下半年高分二号卫星采集揭西县、兴宁市和雷州市三个研究区域的影像进行实际制图测试。
本实施例中,根据撂荒标注数据,将撂荒标注的区域裁剪出512×512大小的样本,并补充少量没有撂荒标注区域的样本,其中2020年大于15亩撂荒数据得到共3000组样本,2021年揭西县、兴宁市和雷州市三个研究区大于3亩撂荒数据得到共2000组样本,将其随机分成训练集、验证集、测试集。通过在训练集上进行训练,通过验证集监测训练过程,挑出验证最优的对比学习模型在测试集上进行测试。完成训练后将对比学习模型中的编码器部分中的权重初始化到语义分割网络中并进行监督学习。对比学习部分中,数据增强部分针对本任务进行了调整,包括增大随机裁剪的范围以及去除高斯模糊。两个时相的影像经过数据增强后会随机输入到两个实验。所使用的数据增强方式有一定区别,除了常见的平移、翻转、随机裁剪外,还增加了随机色彩映射和增加高斯噪声。初始学习率设置为0.0001,对比学习中损失函数超参数τ设置为0.1,用于计算相似度的特征维度设置为128,特征队列长度设置为1024。
本实施例中,为了展示本发明所提出的双时相对比学习在多种模型上的泛用性,同时选择出最适用于撂荒提取任务中的模型,本实施例对不同的模型编码器、解码器结构均加入对比实验中。其中编码器部分包括ResNet和EfficientNet结构,解码器部分使用了我们在前文提出的PSP-CA、PSP-STL结构。
表1基于对比学习的耕地撂荒提取实验
本实施例使用不同预训练权重参数和不同模型结构的结果如表1所示,以下的精度评价均基于像素级别。其中使用了Moco对比学习策略作为预训练权重参数的模型均有一定程度的精度提升,其中使用EfficientNet和PSPNet-CA结构的模型使用了对比学习策略后精度提升幅度最大,同时也在本项实验中整体精度OA和交并比IoU和召回率Recall达到了最高精度,分别为90.26%、56.36%和73.63%,使用EfficientNet和PSPNet-STL结构的模型在准确率Precision和F1指标中达到了最高,分别为71.31%和72.12%,证明了使用双时相对比学习策略在不引入额外标注工作量的情况下具有一定的性能提升作用。使用同样结构的编码器PSPNet-CA的情况下,使用EfficientNet作为特征提取器的模型性能精度显著高于使用ResNet作为特征提取器的模型,说明EfficientNet在撂荒数据中拥有更强的特征提取能力。因此,在后续的应用中,模型将使用EfficientNet-PSPNet-CA作为应用模型,并使用本发明所提出的双时相对比学习得到的模型权重作为预训练参数。
如图5所示,其为本实施例中的撂荒提取结果图,其中图5(c)和图5(e)结果对应的模型相较于图5(b)和图5(d)列对应的模型增加了双时相对比学习策略,可以看到对于撂荒痕迹明显的区域对比学习策略没有明显的优势,但对于撂荒痕迹不明显、撂荒特征与周围相似的区域,对比学习策略的引入能够很好的进行补充,原模型出现了较多整个撂荒斑块的漏提,对比学习在充分提取双时相的撂荒特征后,能够进行补充识别,并且能够有效提高斑块尺度上的识别率。对于不规则、细长型的撂荒区域,引入对比学习后虽然没有能够对形状做出很好的提取,但不会出现整个撂荒区域大面积的漏提,能够有效辅助人工作业的进一步判断。
综上,基于对比学习的方法,有效的使用了高分辨率遥感影像数据,将同一地区不同时相的影像通过不同的随机数据增强方法输入到不同分支的编码器网络中,通过计算两个分支输出特征的对比损失,让网络学习到两个时相影像之间所共有的撂荒特征,强化了网络对于不同时相高分影像撂荒的特征提取能力。
实施例四
参阅图6,本实施例提出一种撂荒地监测系统,包括:
收集模块,用于收集目标撂荒地区域内的卫星影像。
匹配模块,用于对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本。
第一构建模块,用于以所述正样本和负样本构建初始数据集。将所述初始数据集划分为训练集、验证集和测试集。
第二构建模块,用于构建对比学习模型,并利用所述训练集和验证集对所述对比学习模型进行训练和调参。
第三构建模块,用于构建语义分割网络,并将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中。
监督学习模块,用于利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图。
制图模块,用于根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。
本实施例所提出的撂荒地监测系统,通过对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本,并引入对比学习模型,利用所述正样本和负样本进行初步的自监督训练,提取和整合了同一区域不同时相的撂荒特征,绘制撂荒地监测图,能够有效提高撂荒地监测的实时性和精度。
附图仅用于示例性说明,不能理解为对本专利的限制。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种撂荒地监测方法,其特征在于,包括:
收集撂荒地区域内的卫星影像;
对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本;
以所述正样本和负样本构建初始数据集;将所述初始数据集划分为训练集、验证集和测试集;
构建对比学习模型,利用所述训练集和验证集对所述对比学习模型进行训练和调参;
构建语义分割网络,将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中,利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图;
根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。
2.根据权利要求1所述的撂荒地监测方法,其特征在于,所述对比学习模型中的编码器包括第一编码器和第二编码器;
分批次将所述训练集分别输入所述第一编码器和所述第二编码器,第一编码器和第二编码器分别输出第一图像特征和第二图像特征;
优化所述第一图像特征和所述第二图像特征之间的对比损失,直至对比学习模型的损失函数收敛,得到训练好的对比学习模型。
3.根据权利要求2所述的撂荒地监测方法,其特征在于,所述方法还包括:
构建队列结构的记忆库;所述记忆库的更新方式设置为当最新批次的图像特征存储进记忆库时,移除上一批次的图像特征;
将第二编码器输出的第二图像特征设置为负样本并存储至所述记忆库中;
在对所述对比学习模型进行训练的过程中引入所述记忆库中的负样本参与对比学习,对所述记忆库进行迭代更新,直至所述对比学习模型完成训练。
7.根据权利要求1所述的撂荒地监测方法,其特征在于,根据所述目标撂荒地区域的二值图,绘制撂荒地监测图,具体为:对所述目标撂荒地区域的二值图分别进行矢量化和去噪后处理,得到撂荒地监测图。
8.根据权利要求1所述的撂荒地监测方法,其特征在于,在利用训练集和验证集对对比学习模型进行训练之前,所述方法还包括:
对训练集进行数据增强,具体包括:对影像数据进行平移翻转、随机裁剪、随机色彩映射和增加高斯噪声。
9.根据权利要求1所述的撂荒地监测方法,其特征在于,所述卫星影像为高分辨率遥感图像。
10.一种撂荒地监测系统,应用于如权利要求1~9任一项所述的撂荒地监测方法,其特征在于,包括:
收集模块,用于收集目标撂荒地区域内的卫星影像;
匹配模块,用于对所述卫星影像进行时空节点匹配,将同一区域内的卫星影像视作互为正样本,将不同区域间的卫星影像视作互为负样本;
第一构建模块,用于以所述正样本和负样本构建初始数据集;将所述初始数据集划分为训练集、验证集和测试集;
第二构建模块,用于构建对比学习模型,并利用所述训练集和验证集对所述对比学习模型进行训练和调参;
第三构建模块,用于构建语义分割网络,并将完成训练的对比学习模型中的编码器的权重初始化到所述语义分割网络中;
监督学习模块,用于利用所述语义分割网络对测试集进行监督学习,得到目标撂荒地区域的二值图;
制图模块,用于根据所述目标撂荒地区域的二值图,绘制撂荒地监测图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310140528.8A CN116343111A (zh) | 2023-02-20 | 2023-02-20 | 一种撂荒地监测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310140528.8A CN116343111A (zh) | 2023-02-20 | 2023-02-20 | 一种撂荒地监测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116343111A true CN116343111A (zh) | 2023-06-27 |
Family
ID=86875491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310140528.8A Pending CN116343111A (zh) | 2023-02-20 | 2023-02-20 | 一种撂荒地监测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116343111A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116884077A (zh) * | 2023-09-04 | 2023-10-13 | 上海任意门科技有限公司 | 一种人脸图像类别确定方法、装置、电子设备及存储介质 |
-
2023
- 2023-02-20 CN CN202310140528.8A patent/CN116343111A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116884077A (zh) * | 2023-09-04 | 2023-10-13 | 上海任意门科技有限公司 | 一种人脸图像类别确定方法、装置、电子设备及存储介质 |
CN116884077B (zh) * | 2023-09-04 | 2023-12-08 | 上海任意门科技有限公司 | 一种人脸图像类别确定方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113159051B (zh) | 一种基于边缘解耦的遥感图像轻量化语义分割方法 | |
CN111259898B (zh) | 基于无人机航拍图像的农作物分割方法 | |
CN107239751B (zh) | 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法 | |
CN112308860A (zh) | 基于自监督学习的对地观测图像语义分割方法 | |
CN112233129B (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN109949224B (zh) | 一种基于深度学习的联级超分辨率重建的方法及装置 | |
CN112488025B (zh) | 基于多模态特征融合的双时相遥感影像语义变化检测方法 | |
CN107491793B (zh) | 一种基于稀疏散射全卷积的极化sar图像分类方法 | |
CN111461006B (zh) | 一种基于深度迁移学习的光学遥感图像杆塔位置检测方法 | |
CN111882620A (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN114943876A (zh) | 一种多级语义融合的云和云影检测方法、设备及存储介质 | |
CN111178438A (zh) | 一种基于ResNet101的天气类型识别方法 | |
CN114022408A (zh) | 基于多尺度卷积神经网络的遥感图像云检测方法 | |
CN113298817A (zh) | 一种准确率高的遥感图像语义分割方法 | |
CN114549405A (zh) | 一种基于监督自注意力网络的高分遥感图像语义分割方法 | |
CN116343111A (zh) | 一种撂荒地监测方法及系统 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN116958827A (zh) | 一种基于深度学习的撂荒区域提取方法 | |
CN117726954A (zh) | 一种遥感图像海陆分割方法及系统 | |
CN116543165B (zh) | 一种基于双通道复合深度网络的遥感图像果树分割方法 | |
CN110751061B (zh) | 基于sar网络的sar图像识别方法、装置、设备和存储介质 | |
CN113591614B (zh) | 一种基于紧邻空间特征学习的遥感影像道路提取方法 | |
CN115578624A (zh) | 农业病虫害模型构建方法、检测方法及装置 | |
CN113505833A (zh) | 基于多视角可变卷积神经网络的雷达自动目标识别方法 | |
CN112580519A (zh) | 基于自适应混合特征重校准的深度学习模型的大豆损伤识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |