CN117058522A - 一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法 - Google Patents
一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法 Download PDFInfo
- Publication number
- CN117058522A CN117058522A CN202311023268.2A CN202311023268A CN117058522A CN 117058522 A CN117058522 A CN 117058522A CN 202311023268 A CN202311023268 A CN 202311023268A CN 117058522 A CN117058522 A CN 117058522A
- Authority
- CN
- China
- Prior art keywords
- vegetation
- model
- leaf area
- unet
- leaf
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003595 spectral effect Effects 0.000 title claims abstract description 21
- 230000008859 change Effects 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 9
- 238000001514 detection method Methods 0.000 title claims abstract description 5
- 238000011160 research Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000002474 experimental method Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 30
- 238000005303 weighing Methods 0.000 claims description 8
- 238000012706 support-vector machine Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 101001057166 Homo sapiens Protein EVI2A Proteins 0.000 claims description 3
- 102100027246 Protein EVI2A Human genes 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000013179 statistical model Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 101100280138 Mus musculus Evi2a gene Proteins 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000000701 chemical imaging Methods 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims description 2
- 238000004836 empirical method Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims description 2
- 238000011065 in-situ storage Methods 0.000 claims 1
- 238000011835 investigation Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 238000011161 development Methods 0.000 abstract description 2
- 238000005259 measurement Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 229930002875 chlorophyll Natural products 0.000 description 1
- 235000019804 chlorophyll Nutrition 0.000 description 1
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000035613 defoliation Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法,其步骤包括:1)将UNet模型设计为三维卷积完成地物光谱特征和轮廓、边缘、纹理特征的有机结合;2)建立3D‑UNet网络模型的卷积深度和卷积步长等结构参数;3)将上述制作的数据集在3D‑UNet网络进行训练与精度分析;4)对于大量的其他多时相实际采集的多光谱影像,利用构建的3D‑UNet模型应用完成大量训练,完成植被特征提取。然后再根据所选择的研究实验场地进行实地采集、计算测量叶面积指数,进而完成拟合VI‑LAI模型;5)对所有植被像元反演预测叶面积指数,完成植被生态变化研究。本发明实现对研究区域植被生态变化的监测,为漓江区域生态环境保护提供了宝贵的量化数据,有助于更全面、准确地了解漓江流域植被生态系统的现状和变化趋势,为该区域的生态保护和可持续发展提供科学依据。
Description
技术领域
本发明涉及一种光谱神经网络和叶面积指数的遥感地表生态变化检测方法,具体是一种针对漓江流域植被生态变化的问题,设计了基于光谱特征和叶面积指数,结合深度学习神经网络模型的地表植被生态变化检测的方法。属于遥感信息处理、计算机深度学习、生态变化研究领域。
背景技术
漓江流域位于桂林市,由于地处中国典型的喀斯特地貌区域,漓江流域生态系统多样性和稳定性相对较差,因此对漓江流域进行植被生态变化监测研究尤为重要。深度学习植被提取技术是一种新兴的遥感图像处理方法,可以有效地提取植被信息。而无人机多光谱遥感技术则可以提供高时间和空间分辨率的多光谱信息遥感数据,获取到植被的光谱、生理和结构信息,从而更好地反映植被的生态状态和生态变化。叶面积指数是反映植被叶面积密度的重要指标,可以用于评估植被的生长状态和生态环境。
但是,目前少有利用无人机多光谱遥感影像结合植被光谱信息获取叶面积指数的研究,尤其是结合神经网络对漓江流域的生态变化进行检测,目前还未有相关报道。高林等研究人员采用基于无人机高光谱数据计算的RVI(Ratio Vegetation Index,比值植被指数)构建叶面积指数预测模型,没有采用神经网络相关技术。周恺等人仅选取R、G、B构建的LAI(Leaf Area Index,叶面积指数)进行颜色指数与LAI的相关性分析,但是缺少植被的光谱信息。Bo Duan等人仅提出了高分辨率遥感影像的纹理特征在LAI估算中可能比光谱特征更有效,缺乏进一步验证,而且也没有涉及光谱神经网络相关模型的研究。Yi Gan等人探讨了使用无人机的RGB图像以及颜色指数来准确估计温带落叶林中叶面积指数的可行性,缺少无人机多光谱特征的研究。同时,相比于传统的卫星遥感,无人机多光谱遥感在叶面积指数测算中具有很多优势,例如无人机多光谱遥感数据分辨率更高,能够提供更为详细的图像信息;无人机多光谱遥感光谱信息更加丰富,有利于和神经网络结合进行建模;无人机的灵活性更高,能够进行更为精细的空间采样,并能够在不同时间和地点获取图像数据,这对于叶面积指数的精准测算至关重要。
发明内容
针对上述问题,本发明的目的在于提供一种基于光谱特征和叶面积指数,结合深度学习神经网络模型的地表植被生态变化检测的方法,本发明采用无人机多光谱遥感融合深度学习模型和植被叶面积指数模型的方法对典型植被进行多光谱特征提取。
本发明的步骤包括:1) 将UNet模型设计为三维卷积完成地物光谱特征和轮廓、边缘、纹理特征的有机结合;2)建立3D-UNet网络模型的卷积深度和卷积步长等结构参数;3)将上述制作的数据集在3D-UNet网络进行训练与精度分析;4)对于大量的其他多时相实际采集的多光谱影像,利用构建的3D-UNet模型应用完成大量训练,完成植被特征提取。然后再根据所选择的研究实验场地进行实地采集、计算测量叶面积指数,进而完成拟合VI-LAI模型;5)对所有植被像元反演预测叶面积指数,完成植被生态变化研究。
所述步骤1)将UNet模型设计为三维卷积完成地物光谱特征和轮廓、边缘、纹理特征的有机结合,包括以下步骤:①选定漓江流域典型植被区域作为研究区域,捕获和像素级标注多光谱图像以建立数据集;②采用目视解译划分少量真实样本,建立面向像元SVM(支持向量机)分类模型,利用每个像素的5个波段进行预测以获得预分类;③在预分类的基础上再进行手动修正得到分类标签。
所述步骤2)建立3D-UNet网络模型的卷积深度和卷积步长等结构参数,包括以下步骤:①将过滤器与输入数据逐元素相乘,并将结果值相加以产生标量输出,对整个输入数据中过滤器的每个位置重复此过程;②在解码器部分,通过三线性插值法将下游的特征图进行上采样,并与编码器中对应的特征图进行连接,然后进行一次三维卷积。将该过程重复2次后,得到32个通道的特征图;③在输出的最后阶段,将特征图的深度(depth)维度和通道(channel)维度整合成1个维度实施降维,并进行分类映射,最后进行逐像元的分类预测。
所述步骤3)将上述制作的数据集在3D-UNet网络进行训练与精度分析,包括以下步骤:①使用交叉熵结合Dice Loss(一种用于评估两个样本的相似性的度量函数)作为损失函数,以提高模型在不平衡分类样本和少量类别上的表现;②优化器采用Adam(AdaptiveMoment Estimation,自适应矩估计)以加快模型收敛速度。
所述步骤4)对于大量的其他多时相实际采集的多光谱影像,利用构建的3D-UNet模型应用完成大量训练,完成植被特征提取。然后再根据所选择的研究实验场地进行实地采集、计算测量叶面积指数,进而完成拟合VI-LAI模型。包括以下步骤:①破坏性采集并测量了15个地面样本点并制作了LAI测量数据集;②同步进行LAI的采集测量与光谱测量(无人机航测);③对采集样本的叶面积进行快速的测算;拟合VI-LAI统计模型。
所述步骤5)对所有植被像元反演预测叶面积指数,完成植被生态变化研究,包括以下步骤:①将训练好的基于多光谱的三维卷积神经网络3D-UNet,在第二期影像上执行预测预测,分别提取出该漓江流域研究区域的两期景象的植被区域像元;②使用拟合的EVI2-LAI模型在研究区域的植被像元进行叶面积指数的全局预测。
与现有技术相比,本发明的积极效果为:
1、针对使用深度学习在多光谱图像中进行植被分割的问题,提出了一种用于多光谱图像分割的3D-UNet模型,该模型同时考虑了光谱和空间上下文信息,3D-UNet的整体IoU(Intersection over Union,测量在特定数据集中检测相应物体准确度的一个标准)比UNet提高了3.8%,模型参数量减小了98.4%,实验结果显示该网络模型有着极高的准确率,有效的提取了地物的光谱特征和轮廓、边缘、纹理特征;
2、基于无人机获取的高分辨率多光谱图像,引入了一种创新的“先分割,再反演”策略来反演预测全局叶面积指数,实现对研究区域植被生态变化的监测,为漓江区域生态环境保护提供了宝贵的量化数据,有助于更全面、准确地了解漓江流域植被生态系统的现状和变化趋势,为该区域的生态保护和可持续发展提供科学依据。
附图说明
图1为本发明的3D-UNet网络模型结构图;
图2为3D-UNet网络模型训练过程图;
图3为叶面积采集与测量图:(a)植被区域;(b)基于阈值法叶片提取;
图4为分类结果图:(a)原始图像;(b)真实标签;(c)RGB + UNet;(d) MSI + UNet;(e) MSI + 3D-UNet. ,其中黄色、绿色、蓝色分别表示裸地、植被、水体分类;
图5为预测效果图:分别展示了四组在第二期影象上执行的3D-UNet预测效果;
图6为LAI-VI拟合过程图;
图7为植被提取与叶面积指数分级变化图;
图8为划分区间的像元数以及占总像元数的比例图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
本发明的基于光谱特征和叶面积指数,结合深度学习神经网络模型的地表植被生态变化检测的方法,总体设计如图1所示,包括以下步骤:
1、将UNet模型设计为三维卷积完成地物光谱特征和轮廓、边缘、纹理特征的有机结合,包括以下步骤:
1)选定漓江流域典型植被区域作为研究区域,捕获和像素级标注多光谱图像以建立数据集,研究区域选定漓江流域典型植被区域,总面积约7公顷,地物类型丰富,包含水体、野生植被、农作物、裸地,采用5个用于多光谱成像的单色传感器:蓝(Blue)、绿(Green)、红(Red)、红边(RedEdged)、近红外(Nir)。单个传感器有效像素208万。航拍的飞行相对高度为50米,对应地面分辨率为2.6cm,飞行速度5.0m/s,航向重叠率为70%,旁向重叠率为50%;
2)采用目视解译划分少量真实样本,采用面向像元的支持向量机分类模型,利用每个像素的5个波段进行预测以获得预分类,每类原始图像(RGB、MSI、MSI+NDVI、MSI+EVI2)共用同样的标签图。每组数据集包含共2016张空间尺寸为256×256的图像,并按照8:2的比例分为训练集和验证集;
3)在预分类的基础上再进行手动修正得到分类标签,生成的标签图是单通道的图像,根据不同类别,为该像素点赋值。分类包含植被、裸地和水体三种类型。
2、建立3D-UNet网络模型的卷积深度和卷积步长等结构参数,包括以下步骤:
1)将过滤器与输入数据逐元素相乘,并将结果值相加以产生标量输出,对整个输入数据中过滤器的每个位置重复此过程;
其中,表示输入的三维矩阵,表示卷积核,表示偏置,表示输出的矩阵,、和表示输出矩阵的坐标,、和表示卷积核的坐标;
2)在解码器部分,通过三线性插值法将下游的特征图进行上采样,并与编码器中对应的特征图进行连接,然后进行一次三维卷积。将该过程重复2次后,得到32个channel的特征图;由于图像的光谱分辨率远小于空间分辨率(256×256),考虑不对depth维度进行池化,选择进行步长为1×2×2的最大池化,在经过4个卷积块后得到的特征图的channel数分别为32、64、128;
3)在输出的最后阶段,将特征图的depth维度和channel维度整合成1个维度实施降维,并使用1×1的卷积进行分类映射,最后使用softmax和argmax进行逐像元的分类预测。
3、将上述制作的数据集在3D-UNet网络进行训练与精度分析,包括以下步骤:
1)使用交叉熵结合Dice Loss作为损失函数以提高模型在不平衡分类样本和少量类别上的表现;随着训练的进行,训练集损失和验证集损失都在减少,表明模型正在学习拟合数据;训练损失和验证损失之间的差异相对较小,表明模型没有过度拟合训练数据;
2)优化器采用Adam以加快模型收敛速度,快速上升并逐步趋于稳定的mIoU曲线,说明该模型具有良好的训练表现。图2为3D-UNet在训练过程中的loss下降曲线和mIoU提升曲线
4、将构建并训练好的3D-UNet模型应用其他时相的多光谱影像完成植被特征提取,在提取的植被基础上,根据实地采集、测量的叶面积指数(如图3所示),拟合VI-LAI模型,包括以下步骤:
1)破坏性采集并测量了15个地表样本点并制作了LAI测量数据集:采集前需要准备剪刀、塑料袋或保鲜袋、卷尺、记号笔。选取合适的植被地区作为待测区域。操作无人机在研究区域航拍完成后,在待测区域内选取规划1m×0.5m的样方,将该样方的所有植株整株剪下并使用保鲜袋装好,并在袋子上用记号笔标记所对应样地号。在本发明的研究中,在两次航拍实验中总共建立并采集了15个样区;
2)同步进行LAI的采集测量与光谱测量(无人机航测),以得出4种不同的VIs(遥感植被指数),包括简单比率(SR)、归一化差异植被指数(NDVI)、增强植被指数(EVI2)和绿色叶绿素指数(CIGreen);
3)对采集样本的叶面积进行快速的测算;采用叶面积测量法参考了数字图像处理法和比叶重法,对已经采集的每份叶株样本采取以下方法步骤进行统计并分别估算每一份样本的叶面积:
a)对总样本进行称重得到克;
b)从样本中选取部分叶株进行称重得到克,并进行叶杆分离,再对叶片称重得到克,可估算总样本的叶片重量:;
c)将已经进行叶杆分离后的叶片称重得到克,平铺摆放于已知面积为的区域
上。该区域的背景颜色需要与叶片颜色有较大的区分度,以便用阈值法分割;
d)使用数码相机于合适距离高度拍摄正视图,并计算叶片所占像素e以及区域所
占像素,可得到叶面积:;
e)综上所述,样本的叶面积指数的计算如式(2)所示:
图4展示了模型分类预测结果与原图以及真实标签之间的对比,分类结果如图5所示。
4)拟合VI-LAI统计模型是为了找到光谱指数和叶面积指数之间的关系,以实现根
据植被光谱进行叶面积指数的预测:采用基于植被指数(VI)的经验方法,利用遥感数据估
算LAI,在本发明中的由EVI2建立的LAI指数函数反演模型达到了最决定系数水平。再使用拟合的
EVI2-LAI模型在研究区域的植被像元进行叶面积指数的全局预测。基于4种VI拟合最佳的
线性和指数模型曲线如图6所示。
5、对所有植被像元反演预测叶面积指数,完成植被生态变化研究,包括以下步骤:
1)将训练好的基于多光谱的三维卷积神经网络3D-UNet,在第二期影像上执行预测预测,分别提取出该漓江流域研究区域的两期景象的植被区域像元:根据本研究区域预测的叶面积指数范围,对叶面积指数建立6个区域划分:0.5~ 1.167,1.167~1.834,1.834~2.5,2.5~3.166,3.167~3.834,3.834~4.5;
2)使用拟合的EVI2-LAI模型在研究区域的植被像元进行叶面积指数的全局预测:根据叶面积指数的范围建立叶面积指数分级并绘制叶面积指数等级分布图像(如图7所示),以实现该漓江流域叶面积指数的定量遥感生态变化监测。最后分别统计每个LAI划分区间的像元数以及占总像元数的比例,如图8所示。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,本领域的技术人员应可理解,凡在本发明的精神和原则之内所作的任何修改、等同替换或改进等,均应包含在本发明的保护范围之内,保护范围以权利要求书所界定者为准。
Claims (7)
1.一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法,其步骤包括:
1)将UNet模型设计为三维卷积完成地物光谱特征和轮廓、边缘、纹理特征的有机结合;
2)建立3D-UNet网络模型的卷积深度和卷积步长等结构参数;
3)将上述制作的数据集在3D-UNet网络进行训练与精度分析;
4)对于大量的其他多时相实际采集的多光谱影像,利用构建的3D-UNet模型应用完成大量训练,完成植被特征提取。然后再根据所选择的研究实验场地进行实地采集、计算测量叶面积指数,进而完成拟合VI-LAI模型;
5)对所有植被像元反演预测叶面积指数,完成植被生态变化研究。
2.如权利要求1所述的方法,其特征在于,选定漓江流域典型植被区域作为研究区域,所述捕获和像素级标注多光谱图像以建立数据集的方法为:采用5波段多光谱成像载荷:蓝(Blue)、绿(Green)、红(Red)、红边(RedEdged)、近红外(Nir)。单个波段有效载荷像素208万。航拍的飞行相对高度为50米,经过计算对应地面分辨率为2.6cm,飞行速度5.0m/s,航向重叠率和旁向重叠率分别设置参数70%、50%;利用每个像素的5个波段进行预测以获得预分类,每类原始图像(RGB、MSI、MSI+NDVI、MSI+EVI2)共用同样的标签图。每组数据集包含共2016张空间尺寸为256×256的图像,并按照8:2的比例分为训练集和验证集。
3.如权利要求1所述的方法,其特征在于,将UNet模型修改为三维卷积,所述完成地物光谱特征和轮廓、边缘、纹理特征的有机结合的方法为:选定漓江流域典型植被区域作为研究区域,捕获和像素级标注多光谱图像以建立数据集;采用目视解译划分少量真实样本,建立面向像元SVM(支持向量机)分类模型,利用每个像素的5个波段进行预测以获得预分类;在预分类的基础上再进行手动修正得到分类标签。
4.如权利要求3所述的方法,其特征在于,使用制作的数据集,所述在3D-UNet网络进行训练与精度分析的方法为:使用交叉熵结合Dice Loss(损失函数)以提高模型在不平衡分类样本和少量类别上的表现;优化器采用Adam(Adaptive Moment Estimation,自适应矩估计)以加快模型收敛速度。
5.如权利要求4所述的方法,其特征在于,将构建并训练好的3D-UNet模型应用其他时
相的多光谱影像完成植被特征提取,所述在提取的植被基础上,根据实地采集、测量的叶面
积指数的方法为:对总样本进行称重得到克;从样本中选取部分叶株进行称重得到克,并
进行叶杆分离,再对叶片称重得到克,可估算总样本的叶片重量:;将已经进行叶杆
分离后的叶片称重得到克,平铺摆放于已知面积为的区域上。该区域的背景颜色需要与
叶片颜色有较大的区分度,以便用阈值法分割;使用数码相机于合适距离高度拍摄正视图,
并计算叶片所占像素e以及区域所占像素,可得到叶面积:;综上所述,样本的叶面积
指数的计算公式为。
6.如权利要求4所述的方法,其特征在于,所述拟合VI-LAI统计模型的方法为:采用基
于植被指数(VI)的经验方法,利用遥感数据估算LAI,在本发明中的由EVI2建立的LAI指数
函数反演模型达到了最决定系数水平。再
使用拟合的EVI2-LAI模型在研究区域的植被像元进行叶面积指数的全局预测。
7.如权利要求5所述的方法,其特征在于基于多光谱的三维卷积神经网络3D-UNet,在第二期影像上执行预测预测,所述分别提取出该漓江流域研究区域的两期景象的植被区域像元方法为:根据本研究区域预测的叶面积指数范围,对叶面积指数建立6个区域划分:0.5~ 1.167,1.167~1.834,1.834~2.5,2.5~3.166,3.167~3.834,3.834~4.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311023268.2A CN117058522A (zh) | 2023-08-15 | 2023-08-15 | 一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311023268.2A CN117058522A (zh) | 2023-08-15 | 2023-08-15 | 一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117058522A true CN117058522A (zh) | 2023-11-14 |
Family
ID=88654740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311023268.2A Pending CN117058522A (zh) | 2023-08-15 | 2023-08-15 | 一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117058522A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117607063A (zh) * | 2024-01-24 | 2024-02-27 | 中国科学院地理科学与资源研究所 | 一种基于无人机的森林垂直结构参数测量系统和方法 |
-
2023
- 2023-08-15 CN CN202311023268.2A patent/CN117058522A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117607063A (zh) * | 2024-01-24 | 2024-02-27 | 中国科学院地理科学与资源研究所 | 一种基于无人机的森林垂直结构参数测量系统和方法 |
CN117607063B (zh) * | 2024-01-24 | 2024-04-19 | 中国科学院地理科学与资源研究所 | 一种基于无人机的森林垂直结构参数测量系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363215B (zh) | 基于生成式对抗网络的sar图像转化为光学图像的方法 | |
Halme et al. | Utility of hyperspectral compared to multispectral remote sensing data in estimating forest biomass and structure variables in Finnish boreal forest | |
Eng et al. | The use of VARI, GLI, and VIgreen formulas in detecting vegetation in aerial images | |
CN101692037B (zh) | 高光谱图像和独立分量分析植物叶面叶绿素分布的方法 | |
CN112183209A (zh) | 一种基于多维特征融合的区域农作物分类方法及系统 | |
CN112016436A (zh) | 一种基于深度学习的遥感影像变化检测方法 | |
CN110414738B (zh) | 一种农作物产量预测方法及系统 | |
Zhang et al. | Extraction of tree crowns damaged by Dendrolimus tabulaeformis Tsai et Liu via spectral-spatial classification using UAV-based hyperspectral images | |
CN112529788B (zh) | 一种基于薄云厚度图估计的多光谱遥感图像薄云去除方法 | |
CN112766155A (zh) | 一种基于深度学习的海水养殖区提取方法 | |
CN114740180A (zh) | 基于多源遥感数据的土壤有机碳估算方法及装置 | |
Mathews | Object-based spatiotemporal analysis of vine canopy vigor using an inexpensive unmanned aerial vehicle remote sensing system | |
Liu et al. | Estimating potato above-ground biomass by using integrated unmanned aerial system-based optical, structural, and textural canopy measurements | |
CN117058522A (zh) | 一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法 | |
CN112669363B (zh) | 城市绿地三维绿量测算方法 | |
CN112836725A (zh) | 基于时序遥感数据的弱监督lstm循环神经网络稻田识别方法 | |
CN110765977A (zh) | 一种基于无人机多时相遥感数据提取小麦倒伏信息的方法 | |
CN108898070A (zh) | 一种基于无人机平台的高光谱遥感提取薇甘菊装置及方法 | |
CN109870419B (zh) | 一种采用航空高光谱数据预测黑土氮磷钾含量的方法 | |
CN112446298A (zh) | 一种小麦赤霉病的高光谱无损检测方法 | |
Masemola et al. | Towards a semi-automated mapping of Australia native invasive alien Acacia trees using Sentinel-2 and radiative transfer models in South Africa | |
CN113850769B (zh) | 一种基于Siamese空谱联合卷积网络的高光谱变化检测方法 | |
CN108038440A (zh) | 一种基于重叠池化的高光谱遥感影像分类方法 | |
Akila et al. | Automation in plant growth monitoring using high-precision image classification and virtual height measurement techniques | |
Rhinane et al. | Palm trees crown detection and delineation from very high spatial resolution images using deep neural network (U-Net) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |