CN115082785A - 一种高原鼠兔型退化草甸秃斑特征的判别方法 - Google Patents

一种高原鼠兔型退化草甸秃斑特征的判别方法 Download PDF

Info

Publication number
CN115082785A
CN115082785A CN202210614744.7A CN202210614744A CN115082785A CN 115082785 A CN115082785 A CN 115082785A CN 202210614744 A CN202210614744 A CN 202210614744A CN 115082785 A CN115082785 A CN 115082785A
Authority
CN
China
Prior art keywords
data set
meadow
area
rabbit
plateau
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210614744.7A
Other languages
English (en)
Inventor
王璐
李希来
宋梓涵
苏金雨
王世颍
孙华方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qinghai University
Original Assignee
Qinghai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qinghai University filed Critical Qinghai University
Priority to CN202210614744.7A priority Critical patent/CN115082785A/zh
Publication of CN115082785A publication Critical patent/CN115082785A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G20/00Cultivation of turf, lawn or the like; Apparatus or methods therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Environmental Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种高原鼠兔型退化草甸秃斑特征的判别方法,基于无人机遥感高寒退化草甸图像数据,采用语义分割相关方法,实现了对高寒退化草甸中不同类型秃斑进行分类和预测。依据专家经验对不同类型斑块进行标注,将每张无人机采集图像标注;使用深度学习框架和迁移学习的思想,采用网络模型Resnet50、MobileNetV2和Xception作为主干特征提取网络,并分别搭配卷积神经网络PSPNet和Deeplabv3+对数据集进行训练;经过实验达到预期目的。PSPNet配合主干特征提取网络MobileNetV2在本数据集上的表现最佳,达到了精确率87.14%、召回率86.57%、f1‑score86.85%,准确率99.10%,频权交并比81.40%的良好结果。本发明为高寒退化草甸的智能化诊断和快速修复提供了理论依据和科学支撑,同时为智能技术在区域生态环境中的应用奠定了基础。

Description

一种高原鼠兔型退化草甸秃斑特征的判别方法
技术领域
本发明涉及高原鼠兔型退化草甸等级判别技术领域,具体涉及一种高原鼠兔型退化草甸秃斑特征的判别方法。
背景技术
青藏高原作为“地球第三极”,当前主流认知其草地退化是由于自然因素和人类活动的共同影响,自然因素包含鼠兔活动、气候变化等;人类活动主要如超载放牧、滥挖滥采等行为。其中,高原鼠兔作为青藏高原高寒草甸的优势啮齿穴生动物,其采食和掘洞等行为大量造成土壤裸斑镶嵌于草地植被中,导致植被分布的空间异质性。此外,研究发现,高原鼠兔倾向于活动在土壤含水量较高、植被丰富、生长季陆地表面温度相宜的地区。与此同时,鼠兔啃咬地下根茎从而破坏生草层,在这个过程中,土壤结构被强力改变,冻土层变薄,催化“黑土滩”的蔓延。“黑土滩”是对青藏高原海拔3600-4500米范围的高寒草甸严重退化后所形成的大面积次生裸地的一种称呼,而鼠害是秃斑产生的主要因子,加速了“黑土滩”的形成过程。但是青藏高原高寒草甸的系统活力低,脆弱且具有很大惰性,一旦被破坏,治理难度极大。总之,鼠害的发生将会进一步造成草原生态环境的恶化。所以明确高原鼠兔在高寒草甸的生活轨迹及产生的草甸秃斑,对于制定恢复高寒草甸生态系统的措施和方法有着重大影响。
无人机遥感技术在观测过程中具有拍摄范围广、高效率、高分辨率的优势,在各个行业都有着广阔的应用前景。草原地幅辽阔,天气常有变换,在这种情况下,通过无人机迅速精准地识别草地信息,能够获得详细准确的实验数据。传统方法中常采用人工测量和经验判断来断定基于无人机遥感的高寒鼠兔型退化草甸的秃斑识别与分类,显然,使用这种方法后分类结果往往依赖于丰富的专家经验,并且耗时耗力,需要大量的时间和人力。随着深度学习理论的深入和计算机相关技术的发展,将计算机视觉和影像运用于草地领域,基于卷积神经网络的语义分割,可以方便、快捷、准确地处理退化草甸的秃斑识别与分类,进一步明确高原鼠兔干扰造成的秃斑类型的典型特征,这对于高寒退化草地智能诊断和精准修复有着重要意义。
语义分割是精确的像素级别的图像分类任务,即将每一个像素进行准确分类,并给出相似特征区域的标签信息和确定其位置信息。在计算机视觉领域,语义分割是一个重要的研究方向,具有非常高的生活实用价值。譬如,在医学影像中对于肿瘤的判断;在无人驾驶中对于行人和车辆的预测;在遥感图像方面对于房屋、道路和湖泊等环境的分割。传统的语义分割算法根据纹理、边缘、颜色等表层特征,主要有基于阈值、图论、聚类、区域等常用的分割算法。随着分割场景的复杂化和分割要求的提高,深度学习逐渐被引入语义分割任务,卷积神经网络(Convolutional neural network,CNN)成为提取图像特征的重要手段,实现了高效精准的结果。CNN的基本组成结构:输入层、卷积层、池化层、全连接层和输出层。输入特征图通过在卷积层的卷积运算和激活函数的非线性拟合得到局部特征图;池化层通过降采样操作提取空间不变性特征,减少神经元数量;全连接层则获取图像的全局信息。
综上所述,关于对高寒鼠兔型退化草甸秃斑特征进行基于语义分割检测识别的研究,还处在一个需要探索的新境界。
发明内容
为了解决上述技术问题,本发明基于无人机遥感高寒草甸退化草地图像数据,采用语义分割相关方法,实现了对高寒退化草地中不同类型秃斑进行分类和预测。目的是提供一种高原鼠兔型退化草甸秃斑特征的判别方法。
本发明保护一种高原鼠兔型退化草甸秃斑特征的判别方法,具体包括如下步骤:
S1,数据来源及获取:试验地通过模拟放牧以及高原鼠兔两种扰动下,记录和观察不同样方不同类型斑块的变化规律,进而评价草地的退化情况;试验地大小为30米*25米,共27块地,草地图像为无人机高空拍摄,每个月拍摄一次,每次每块地拍摄两张;
S2,数据集的分类:数据集中包括模拟放牧以及高原鼠兔干扰等因素造成的草地退化秃斑,根据领域内专家经验,将遥感图像中展现出的草甸现状划分为4种类型,描述为活动区域、非活动区域、恢复区域和高寒草甸背景区域;
S3,图像预处理:为了获得规范化的数据,通过Photoshop和Windows系统中照片自带的编辑功能对原始图像处理,具体操作包括:旋转、裁剪、斑点去除及光线调整;
S4,数据集标注:将预处理图片结合数据集分类后的秃斑,采用软件labelme中的多边形标注方式,最终生成josn文件用于保存所需要的各区域的位置信息;
S5,数据集预处理:将标注形成的josn文件通过labelme相关程序转换成png形式的标签图片;采用voc格式对数据集进行整理,最后对数据集统一进行512*512大小的归一化处理;
S6,数据增强:选择分类标签数量较少的图片进行数据增强,操作包括图像的水平和垂直翻转、逆时针旋转90度、逆时针旋转180度、逆时针旋转270度;
S7,搭建深度学习框架:采用语义分割算法对高寒鼠兔型退化草甸数据集进行训练,主要运用PSPNet搭配主干特征提取网络MobileNetV2和Resnet50,Deeplabv3+搭配主干特征提取网络MobileNetV2和Xception;优化器选择Adam(Adaptive Moment Estimation)算法动态调整学习率梯度下降,保证参数的平稳性;另外,为了取得较为精细的分割结果,下采样因子均选择8倍;其中,训练过程中使用交叉熵损失函数作为观察算法在数据集上的适用性和是否停止迭代的参考;
S8,指标评估:将数据集按照训练集:验证集=8:2的比例进行随机划分,同时把测试集和验证集合二为一进行综合测试,采用精确率(Precision)、召回率(Recall)、f1-score、准确率(Accuracy)和频权交并比(FWIoU)进行效果评价;此外,为了减少数据集分类标签不平衡的问题,即每种斑块数量不均匀,对评估指标划分权重占比,给予每一类别不同权重计算,即恢复区域:活动区域:非活动区域:背景区域=1:1:1:7;通过混淆矩阵展示指标评估结果。
进一步的,所述步骤S1中,获得4年中,6-9月四个月份的图像,去除不合格及不能用于实验的图像。
进一步的,所述步骤S2中,活动区域,即为高原鼠兔的频繁活动区,土壤裸露疏松、少有植物生长;非活动区域,即高原鼠兔停止扰动而形成的区域,有少量的杂类草植物;恢复区域,即无高原鼠兔活动正在进行自然生态恢复的区域,一般植被覆盖率小于60%;高寒草甸区域,即高寒草甸背景区域。
相比于现有的技术,本发明具有如下有益效果:
本发明基于无人机遥感高寒退化草甸图像数据,采用语义分割相关方法,实现了对高寒退化草甸中不同类型秃斑进行分类和预测。首先,依据专家经验对不同类型斑块进行标注,将每张无人机采集图像标注为活动区域、非活动区域、恢复区域和高寒草甸背景区域;其次,使用深度学习框架和迁移学习的思想,采用预训练的网络模型Resnet50、MobileNetV2和Xception作为主干特征提取网络,并分别搭配卷积神经网络PSPNet和Deeplabv3+对数据集进行训练,完成语义分割任务;最后,经过实验达到预期目的。其中,PSPNet配合主干特征提取网络MobileNetV2在本数据集上的表现最佳,达到了精确率最高87.14%,召回率最高86.57%,f1-score最高86.85%,准确率最高99.10%,频权交并比最高81.40%的良好结果。因此,本发明为高寒退化草甸的智能化诊断和快速修复提供了理论依据和科学支撑,同时为智能技术在区域生态环境中的应用奠定了基础。
附图说明
图1为本发明方法流程图;
图2为数据集分类的四种区域类型;图中,A、活动区域;B、非活动区域;C、恢复区域;D、高寒草甸背景区域;
图3为曝光异常的图像,图中A为亮度过低的图像;B亮度过高的图像;
图4为数据集标注过程图;
图5为数据集voc格式预处理图,图中A为未处理图像;B为voc格式处理图像;
图6为算法1的Epoch-loss图;
图7为算法2的Epoch-loss图;
图8为算法3的Epoch-loss图;
图9为算法4的Epoch-loss图;
图10为算法5的Epoch-loss图;
图11为5种算法的f1-score结果图;
图12为预测结果图;图中,A、算法1;B、算法2;C、算法3;D、算法4;E、算法5。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
一种高原鼠兔型退化草甸秃斑特征的判别方法
1、硬件环境
表1硬件环境
Figure BDA0003670436790000071
2、软件环境
选用编程语言为Python,此外,选择的深度学习框架为Pytorch。具体软件环境的配置如表2所示。
表2软件环境
Figure BDA0003670436790000072
3、数据来源及获取
数据集来源于青海省黄南藏族自治州河南县某试验地草地样方无人机航拍图像,试验地通过模拟放牧以及高原鼠兔两种扰动下,记录和观察不同样方不同类型斑块的变化规律,进而评价草地的退化情况;试验地大小为30米*25米,共27块地,草地图像为无人机高空拍摄,每个月拍摄一次,每次每块地拍摄两张,获得2018-2021年4年中,每年6-9月四个月份图像,去除不合格及不能用于实验的图像,共计756张原始图像;
4、数据集的分类
数据集中包括模拟放牧以及高原鼠兔干扰等因素造成的草地退化秃斑,根据领域内专家经验,将遥感图像中展现出的草甸现状划分为4种类型,描述为活动区域、非活动区域、恢复区域和高寒草甸背景区域;其中,活动区域,即为高原鼠兔的频繁活动区,土壤裸露疏松、少有植物生长;非活动区域,即高原鼠兔停止扰动而形成的区域,有少量的杂类草植物;恢复区域,即无高原鼠兔活动正在进行自然生态恢复的区域,一般植被覆盖率小于60%;高寒草甸区域,即高寒草甸背景区域(详见附图2)。
5、图像预处理
由于拍摄角度和环境的影响及工作人员的用具等噪声,拍摄图片含有白点或者部分图像歪斜或曝光不正常等;为了获得规范化的数据,通过Photoshop和Windows系统中照片自带的编辑功能对原始图像处理,具体操作包括:旋转、裁剪、斑点去除及光线调整;如附图3所示曝光不正常图像,通过程序批量进行调高(低)亮度和对比度操作。
6、数据集标注
将预处理图片结合数据集分类后的秃斑,采用软件labelme中的多边形标注方式,最终生成josn文件用于保存所需要的各区域的位置信息;其中,labelme是使用python编写的基于图形界面QT的跨平台图像标注工具,可用来标注分类、检测、分割、关键点等常见的视觉任务,支持VOC和COCO等格式的导出。其中,红色代表非活动区域,绿色代表恢复区域,黄色代表活动区域,标注具体过程如附图4所示。
7、数据集预处理
将标注形成的josn文件通过labelme相关程序转换成png形式的标签图片;采用voc格式对数据集进行整理(详见附图5),最后对数据集统一进行512*512大小的归一化处理;
8、数据增强
为了提高实验所采用的算法模型的泛化性和鲁棒性,扩大数据集规模,降低过拟合程度,数据增强是必要的;但考虑到标签数据不平衡的影响,尤其是需要对抗正常高寒草甸背景区域的庞大面积占比,进而选择分类标签数量较少的图片进行数据增强,操作包括图像的水平和垂直翻转、逆时针旋转90度、逆时针旋转180度、逆时针旋转270度,这种数据增强的方式能够有效避免随机旋转导致标注信息减少或消失的可能性,无损于标注标签的面积减少;经过数据增强,数据集规模达到2036张图片;
9、搭建深度学习框架
采用语义分割算法对高寒鼠兔型退化草甸数据集进行训练,主要运用PSPNet搭配主干特征提取网络MobileNetV2和Resnet50,Deeplabv3+搭配主干特征提取网络MobileNetV2和Xception;优化器选择Adam(Adaptive Moment Estimation)算法动态调整学习率梯度下降,保证参数的平稳性;另外,为了取得较为精细的分割结果,下采样因子均选择8倍;其中,训练过程中使用交叉熵损失函数作为观察算法在数据集上的适用性和是否停止迭代的参考;所使用的算法及其他参数设置具体如表3所示。
表3算法参数
Figure BDA0003670436790000101
10、指标评估
将数据集按照训练集:验证集=8:2的比例进行随机划分,同时把测试集和验证集合二为一,所以把2036张图像的20%,即408张图片进行综合测试,采用精确率(Precision)、召回率(Recall)、f1-score、准确率(Accuracy)和频权交并比(FWIoU)进行效果评价;此外,为了减少数据集分类标签不平衡的问题,即每种斑块数量不均匀,对评估指标划分权重占比,给予每一类别不同权重计算,即恢复区域:活动区域:非活动区域:背景区域=1:1:1:7;通过混淆矩阵展示指标评估结果。
混淆矩阵的结构详见表4所示,针对恢复区域,对评估指标作出如下解释:
TP(True Positive):真阳性,指被分类器正确分类的正元组。即检测分割出的类型为恢复区域,与标注的类型一致。TN(True Negative):真阴性,指被分类器正确分类的负元组,即检测分割出的类型不是恢复区域,且与标注的类型一致。FP(False Positive):假阳性,是被错误标记为正元组的负元组。即检测分割出的类型为恢复区域,与标注的类型不一致。FN(False Negative):假阴性,是被错误标记为负元组的正元组。即检测分割出的类型不是恢复区域,但标注的类型是恢复区域。
表4混淆矩阵
Figure BDA0003670436790000111
精确率(Precision):是精确性的度量,即被标记为正类的元组实际为正类所占的百分比,计算公式如下:
Figure BDA0003670436790000112
召回率(Recall):也就是灵敏度,即正元组被标记为正所占的百分比,计算公式如下:
Figure BDA0003670436790000113
f1-score:由于Precision和Recall相互矛盾,通常,Precision值高时,Recall值往往偏低;而Precision值低时,Recall值往往偏高。当分类置信度高时,Precision值偏高;分类置信度低时,Recall值偏高。所以F度量被提出,是Precision和Recall的加权调和平均值,计算公式如下:
Figure BDA0003670436790000121
准确率(Accuracy):被分类器正确分类的元组所占的百分比,反映分类器对各类元组的正确识别情况,计算公式如下:
Figure BDA0003670436790000122
频权交并比(FWIoU):IOU的英文全称为Intersection over Union,是交和并的比值。在语义分割的问题中,单类的交并比就是该类的真实标签和预测值的交和并的比值。而频权交并比是根据每一类出现的频率设置权重,权重乘以每一类的IoU并进行求和得到。计算公式如下:
Figure BDA0003670436790000123
11、结果分析
在本研究中,针对高寒鼠兔型退化草甸数据集,共设置参数不同的5种算法进行实验,训练过程中使用交叉熵损失函数作为观察算法在数据集上的适用性和是否停止迭代的参考。loss值随着迭代次数的变化细节如附图6-10所示。
从附图6、8和9中,凡是采用了MobileNetV2作为主干特征提取网络的算法,在迭代训练的前期,loss值都有明显的下降变化;而Resnet50作为主干特征提取网络,如附图7所展示的算法2,在迭代训练过程中loss值一直下降缓慢;Xception作为主干特征提取网络,如附图10所展示的算法5,在迭代训练的前期,loss值虽然有明显的下降,但后期变化也较为缓慢。针对算法1和算法3,两种卷积神经网络相比较而言,还是PSPNet在训练过程中loss值变化更加迅速;针对算法3和算法4,都采用相同的卷积神经网络与主干特征提取网络,但设置更大的batch size和学习率进行梯度下降,则可以加快训练速度,减少训练时间。
表5是评价指标针对测试集的计算结果,从表5中可以得出,PSPNet配合主干特征提取网络MobileNetV2最为适用于本数据集,精确率、召回率和频权交并比的数值都集中表现较好,其次指标效果较好的是Deeplabv3+配合主干特征提取网络MobileNetV2。而PSPNet配合主干特征提取网络Resnet50面对本草地数据集的实验效果最不突出。当然,5种实验算法都有很高的准确率。
表5五种算法的实验结果
Figure BDA0003670436790000131
附图11为5种算法在草地数据集上面对f1-score这一综合指标的评估结果。算法1,即PSPNet配合主干特征提取网络MobileNetV2的f1-score最高,为86.85%。算法2,即PSPNet配合主干特征提取网络Resnet50的f1-score最低,为77.59%,推测可能是由于Resnet50的网络层数过深,与数据集规模较小的矛盾造成的。
附图12为实验中算法针对图片各自的识别预测图。由此也可以看出,卷积神经网络PSPNet配合主干特征提取网络MobileNetV2确实对本数据集的适用性最高。而采用网络Resnet50和Xception进行主干特征提取的算法识别效果还有待提高。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (3)

1.一种高原鼠兔型退化草甸秃斑特征的判别方法,其特征在于,具体包括如下步骤:
S1,数据来源及获取:试验地通过模拟放牧以及高原鼠兔两种扰动下,记录和观察不同样方不同类型斑块的变化规律,进而评价草地的退化情况;试验地大小为30米*25米,共27块地,草地图像为无人机高空拍摄,每个月拍摄一次,每次每块地拍摄两张;
S2,数据集的分类:数据集中包括模拟放牧以及高原鼠兔干扰等因素造成的草地退化秃斑,根据领域内专家经验,将遥感图像中展现出的草甸现状划分为4种类型,描述为活动区域、非活动区域、恢复区域和高寒草甸背景区域;
S3,图像预处理:为了获得规范化的数据,通过Photoshop和Windows系统中照片自带的编辑功能对原始图像处理,具体操作包括:旋转、裁剪、斑点去除及光线调整;
S4,数据集标注:将预处理图片结合数据集分类后的秃斑,采用软件labelme中的多边形标注方式,最终生成josn文件用于保存所需要的各区域的位置信息;
S5,数据集预处理:将标注形成的josn文件通过labelme相关程序转换成png形式的标签图片;采用voc格式对数据集进行整理,最后对数据集统一进行512*512大小的归一化处理;
S6,数据增强:选择分类标签数量较少的图片进行数据增强,操作包括图像的水平和垂直翻转、逆时针旋转90度、逆时针旋转180度、逆时针旋转270度;
S7,搭建深度学习框架:采用语义分割算法对高寒鼠兔型退化草甸数据集进行训练,主要运用PSPNet搭配主干特征提取网络MobileNetV2和Resnet50,Deeplabv3+搭配主干特征提取网络MobileNetV2和Xception;优化器选择Adam算法动态调整学习率梯度下降,保证参数的平稳性;另外,为了取得较为精细的分割结果,下采样因子均选择8倍;其中,训练过程中使用交叉熵损失函数作为观察算法在数据集上的适用性和是否停止迭代的参考;
S8,指标评估:将数据集按照训练集:验证集=8:2的比例进行随机划分,同时把测试集和验证集合二为一进行综合测试,采用精确率Precision、召回率Recall、f1-score、准确率Accuracy和频权交并比FWIoU进行效果评价;此外,为了减少数据集分类标签不平衡的问题,即每种斑块数量不均匀,对评估指标划分权重占比,给予每一类别不同权重计算,即恢复区域:活动区域:非活动区域:背景区域=1:1:1:7;通过混淆矩阵展示指标评估结果。
2.根据权利要求1所述的一种高原鼠兔型退化草甸秃斑特征的判别方法,其特征在于,所述步骤S1中,获得4年中,6-9月四个月份的图像,去除不合格及不能用于实验的图像。
3.根据权利要求1所述的一种高原鼠兔型退化草甸秃斑特征的判别方法,其特征在于,所述步骤S2中,活动区域,即为高原鼠兔的频繁活动区,土壤裸露疏松、少有植物生长;非活动区域,即高原鼠兔停止扰动而形成的区域,有少量的杂类草植物;恢复区域,即无高原鼠兔活动正在进行自然生态恢复的区域,一般植被覆盖率小于60%;高寒草甸区域,即高寒草甸背景区域。
CN202210614744.7A 2022-05-30 2022-05-30 一种高原鼠兔型退化草甸秃斑特征的判别方法 Pending CN115082785A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210614744.7A CN115082785A (zh) 2022-05-30 2022-05-30 一种高原鼠兔型退化草甸秃斑特征的判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210614744.7A CN115082785A (zh) 2022-05-30 2022-05-30 一种高原鼠兔型退化草甸秃斑特征的判别方法

Publications (1)

Publication Number Publication Date
CN115082785A true CN115082785A (zh) 2022-09-20

Family

ID=83250086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210614744.7A Pending CN115082785A (zh) 2022-05-30 2022-05-30 一种高原鼠兔型退化草甸秃斑特征的判别方法

Country Status (1)

Country Link
CN (1) CN115082785A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797788A (zh) * 2023-02-17 2023-03-14 武汉大学 基于深度学习的多模态铁路设计要素遥感特征提取方法
CN117522956A (zh) * 2023-11-20 2024-02-06 青海大学 一种使用无人机影像计算退化指示草种覆盖度的方法
CN117522956B (zh) * 2023-11-20 2024-07-02 青海大学 一种使用无人机影像计算退化指示草种覆盖度的方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797788A (zh) * 2023-02-17 2023-03-14 武汉大学 基于深度学习的多模态铁路设计要素遥感特征提取方法
CN115797788B (zh) * 2023-02-17 2023-04-14 武汉大学 基于深度学习的多模态铁路设计要素遥感特征提取方法
CN117522956A (zh) * 2023-11-20 2024-02-06 青海大学 一种使用无人机影像计算退化指示草种覆盖度的方法
CN117522956B (zh) * 2023-11-20 2024-07-02 青海大学 一种使用无人机影像计算退化指示草种覆盖度的方法

Similar Documents

Publication Publication Date Title
Jin et al. Weed identification using deep learning and image processing in vegetable plantation
CN111986099B (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN107016405B (zh) 一种基于分级预测卷积神经网络的害虫图像分类方法
Morbekar et al. Crop disease detection using YOLO
Zhang et al. Deep learning-based automatic recognition network of agricultural machinery images
Sharma et al. RETRACTED ARTICLE: SVM-based compliance discrepancies detection using remote sensing for organic farms
CN111881816B (zh) 一种长时序的河湖围埂养殖区域监测方法
CN104318051B (zh) 基于规则的大范围水体信息遥感自动提取系统及方法
Patil et al. Enhanced radial basis function neural network for tomato plant disease leaf image segmentation
Ji et al. In-field automatic detection of maize tassels using computer vision
CN113221765A (zh) 一种基于数字相机影像有效像元的植被物候期提取方法
CN115082785A (zh) 一种高原鼠兔型退化草甸秃斑特征的判别方法
CN114758132A (zh) 一种基于卷积神经网络的果树病虫害识别方法及系统
Ji et al. Exploring the solutions via Retinex enhancements for fruit recognition impacts of outdoor sunlight: a case study of navel oranges
Kamani et al. Shape matching using skeleton context for automated bow echo detection
Liu A SAM-based method for large-scale crop field boundary delineation
CN109615610A (zh) 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法
Okubo et al. Land use/cover classification of a complex agricultural landscape using single-dated very high spatial resolution satellite-sensed imagery
CN117611885A (zh) 一种基于Canny边缘检测的候鸟生态调控方法
CN117132894A (zh) 一种基于时序遥感影像的露天煤矿区生态损伤区识别方法
Noppitak et al. Instance segmentation of water body from aerial image using mask region-based convolutional neural network
CN116206210A (zh) 一种基于NAS-Swin的遥感影像农业大棚提取方法
CN110210376A (zh) 一种基于深度学习的高分遥感影像西北地区农膜提取方法
Cui et al. Optimal spatial resolution of remote-sensing imagery for monitoring cantaloupe greenhouses
CN110084125B (zh) 一种基于深度学习的农业保险查勘技术方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination