CN115019205B - 一种基于无人机多光谱影像的油菜花期spad和lai估测方法 - Google Patents

一种基于无人机多光谱影像的油菜花期spad和lai估测方法 Download PDF

Info

Publication number
CN115019205B
CN115019205B CN202210641009.5A CN202210641009A CN115019205B CN 115019205 B CN115019205 B CN 115019205B CN 202210641009 A CN202210641009 A CN 202210641009A CN 115019205 B CN115019205 B CN 115019205B
Authority
CN
China
Prior art keywords
rape
lai
spad
flowering phase
flowering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210641009.5A
Other languages
English (en)
Other versions
CN115019205A (zh
Inventor
徐立章
杨洪时
魏乐乐
牛亚晓
罗育森
赵红阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202210641009.5A priority Critical patent/CN115019205B/zh
Publication of CN115019205A publication Critical patent/CN115019205A/zh
Application granted granted Critical
Publication of CN115019205B publication Critical patent/CN115019205B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,包括规范采集油菜花期无人机多光谱影像数据、地面实测油菜花期SPAD和LAI;对获取的影像进行预处理;提取波段反射率,计算植被指数;用植被指数分别与SPAD和LAI进行RBF神经网络训练;进行显著性分析验证;进行逐步多元线性回归分析,综合植被指数分别与SPAD和LAI,建立SPAD和LAI估测的多元线型模型,并评定模型精度;对估测模型的SPAD和LAI的预测值与真实值进行精度验证与模型优化,达到0.01的极显著水平时确定估测模型;用克里金法对研究区油菜遥感影像进行LAI和SPAD可视化填图,获取处方图。本发明的估测方法精度较高,对前期地面采集数据要求较少,可实现油菜花期的SPAD和LAI大面积快速检测。

Description

一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法
技术领域
本发明属于作物生长监测和无人机遥感技术领域,涉及一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法。
背景技术
油菜是我国最重要也是最主要的油料作物之一,具有极高的经济价值。在油菜的整个生育期中,油菜花期约占1/4,持续时间超过30天,是油菜最重要的表型特征之一。油菜成熟时期的地上部分生物量很大程度取决于油菜盛花期地面植株覆盖率,油菜盛花期植株之间茎秆、叶片与花朵层叠交错,难以通过机器视觉方法直接测得,而人工计数方法工作量过于巨大。
LAI(Leaf area index,以下简称LAI)以其灵敏的植被分类和冠层间隙率算法,为大面积测量作物生物量分布提供了可能。
氮素是作物不同生长期对所有器官影响最显著的矿质营养元素,而叶绿素是作物氮素含量最重要的指示器,在实际农业研究与应用中,多采用SPAD(Soil and plantanalyzer development,以下简称SPAD)值表征植物叶绿素含量。
现有技术中对作物的SPAD和LAI的估测方法主要有模型反演法和经验反演法两种,经验反演法因其依据的物理模型过于简单导致其估测值与植被指数的统计关系缺乏普适性,估测误差较大。模型反演法需要通过将同一时期不同的输入参数综合起来,才能将作物同一时刻的SPAD或LAI较为准确的反演出来。
发明内容
针对上述技术问题,本发明的一个方式的目的之一是提供一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,估测精度较高,对前期地面采集数据要求较少。本发明的一个方式的目的之一是通过研究油菜花期的LAI可为预测成熟期油菜植株的地上生物量提供可靠的数据支撑。本发明的一个方式的目的之一是利用SPAD值判断油菜长势及量化估测生物量。本发明的一个方式的目的之一是结合同时期作物的SPAD和LAI,可显著提高作物生物量估测精度。本发明的一个方式的目的之一是利用低空无人机遥感技术以其机动性高,探测范围大,一次获取信息量大等特点,为大面积获取作物SPAD和LAI提供有效途径。无人机可在需求区域频繁飞行,进而可拍摄更精细多维的空间模式,监测收集作物多时相、多尺度图像。
注意,这些目的的记载并不妨碍其他目的的存在。本发明的一个方式并不需要实现所有上述目的。可以从说明书、附图、权利要求书的记载中抽取上述目的以外的目的。
本发明所述基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,属于机器学习和农业遥感技术领域,步骤如下:规范采集油菜花期无人机多光谱影像数据、地面实测油菜花期SPAD和LAI;对获取的影像进行预处理;提取波段反射率,计算植被指数;用植被指数分别与SPAD和LAI进行RBF神经网络训练;进行显著性分析验证;进行逐步多元线性回归分析,综合植被指数分别与SPAD和LAI,建立SPAD和LAI估测的多元线型模型,并评定模型精度;对估测模型的SPAD和LAI的预测值与真实值进行精度验证与模型优化,达到0.01的极显著水平时确定估测模型;用克里金法对研究区油菜遥感影像进行LAI可视化填图,获取处方图。本发明的估测方法精度较高,对前期地面采集数据要求较少,可实现油菜花期的SPAD和LAI大面积快速检测。
本发明的技术方案是:
一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,包括以下步骤:
步骤S1:数据采集:通过无人机采集获取研究区油菜花期多光谱影像数据,同时采集N个地面样本点坐标数据,采集N个地面样本点对应的油菜花期SPAD值,采集N个地面样本点对应的油菜花期LAI值;
步骤S2:数据预处理:对步骤S1中获取的油菜花期多光谱影像进行预处理,得到油菜花期多光谱影像反射率数据;
步骤S3:样本划分:依据步骤S1中采集的N个地面样本点坐标数据及其对应的N个SPAD值和N个LAI值,选择n组样本作为训练集样本,选择m组样本作为测试集样本,n+m=N;
步骤S4:对步骤S2中预处理后得到的油菜花期多光谱影像反射率数据进行数据处理,包括提取反射率,对波段的不同反射率值进行算法处理,获取颜色植被指数和多光谱窄波段植被指数;
步骤S5:BRF神经网络训练:将步骤S1中获取的油菜花期SPAD值和油菜花期LAI值作为因变量,步骤S4中得到的植被指数作为协变量,选取步骤S3中划分的训练集样本,分别对植被指数和油菜花期SPAD值、植被指数和油菜花期LAI值进行BRF神经网络训练,分别选取训练结果中I1>0.8和I2>0.7的植被指数,其中I1为植被指数和油菜花期SPAD值的正态化重要性值,I2为植被指数和油菜花期LAI值的正态化重要性值;
步骤S6:显著性分析:将步骤S5中得到的I1>0.8和I2>0.7的植被指数和油菜花期SPAD、植被指数和油菜花期LAI分别进行显著性分析,筛选P≤0.01极显著水平的植被指数;
步骤S7:利用步骤S6中得到的极显著水平的植被指数与步骤S3中划分的训练集样本中的油菜花期SPAD值与油菜花期LAI值分别进行逐步多元线性回归建模,得到油菜花期SPAD估测模型和油菜花期LAI估测模型,计算其决定系数R2和均方根误差RMSE,并评定其精度;
步骤S8:将测试集样本中的油菜花期SPAD值和油菜花期LAI值分别输入到步骤S7中的油菜花期SPAD估测模型和油菜花期LAI估测模型,分别计算出油菜花期SPAD和油菜花期LAI预测值,与样本中的油菜花期SPAD和油菜花期LAI真实值进行相关性分析,在0.01的极显著水平计算其决定系数R2和均方根误差RMSE和平均绝对百分比误差MAPE,根据精度等级优化估测模型,当评价指标都达到预设的优秀水平范围时确定油菜花期SPAD估测模型和油菜花期LAI估测模型;
步骤S9:利用步骤S8中得到的油菜花期LAI估测模型,计算研究区总体油菜花期的LAI值,并对研究区无人机遥感影像进行油菜花期LAI可视化填图,生成处方图,利用步骤S8中得到的油菜花期SPAD估测模型,计算研究区总体油菜花期的SPAD值,并对研究区无人机遥感影像进行油菜花期SPAD可视化填图,生成处方图。
上述方案中,所述步骤S1中利用GNSS RTK测绘仪采集N个地面样本点坐标数据。
上述方案中,所述步骤S1中利用叶绿素测定仪采集N个地面样本点对应的油菜花期SPAD值。
上述方案中,所述步骤S1中利用植物冠层分析仪采集N个地面样本点对应的油菜花期LAI值。
上述方案中,所述步骤S2:对步骤S1中获取的油菜花期多光谱影像进行预处理,包括地理定标、几何校准、图像配准、大气校正和辐射定标,得到油菜花期多光谱影像反射率数据。
进一步的,所述步骤S2中对油菜花期多光谱影像进行预处理,具体为:
地理定标坐标系设置为WGS 1984坐标系,利用50%反射率校准灰布校正辐射,green,blue,red,red edge,near infrared的中心波长分别为450nm,560nm,650nm,730nm,840nm,对应的反射率分别为0.452071,0.451725,0463871,0457711,0.446365,利用经验校正法,得到校正辐射后的油菜花期反射率影像。
上述方案中,所述步骤S5中对植被指数和油菜花期SPAD值进行BRF神经网络训练后剔除植被指数与SPAD训练结果中正态化重要性值I1≤0.8的植被指数。
上述方案中,所述步骤S5中对植被指数和油菜花期LAI值进行BRF神经网络训练后剔除植被指数与LAI训练结果中正态化重要性I2≤0.7的植被指数。
上述方案中,所述步骤8中油菜花期SPAD估测模型为:
SPAD=7.98655NGBDI+21.33399NDRE–1.85665RGRI+38.16949
其中,NGBDI为归一化绿蓝差异指数,NDRE为归一化差异红边植被指数,RGRI为绿红比值指数。
上述方案中,所述步骤8中油菜花期LAI估测模型为:
LAI=0.0258SRI+0.98406GNDVI–0.08552NDVI–0.19173VARI+0.39883
其中,SRI为比值植被指数,GNDVI为绿色归一化植被指数,NDVI为归一化植被指数,VARI为可见大气抗性指数。
与现有技术相比,本发明的有益效果是:根据本发明的一个方式,基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,估测精度较高,对前期地面采集数据要求较少。根据本发明的一个方式,通过研究油菜花期的LAI可为预测成熟期油菜植株的地上生物量提供可靠的数据支撑。根据本发明的一个方式,利用SPAD值判断油菜长势及量化估测生物量。根据本发明的一个方式,结合同时期作物的SPAD和LAI,可显著提高作物生物量估测精度。根据本发明的一个方式,利用低空无人机遥感技术以其机动性高,探测范围大,一次获取信息量大等特点,为大面积获取作物SPAD和LAI提供有效途径。无人机可在需求区域频繁飞行,进而可拍摄更精细多维的空间模式,监测收集作物多时相、多尺度图像。
注意,这些效果的记载不妨碍其他效果的存在。本发明的一个方式并不一定必须具有所有上述效果。可以从说明书、附图、权利要求书等的记载显而易见地看出并抽出上述以外的效果。
附图说明
图1为本发明的一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法流程示意图;
图2为本发明的研究区域精校正正射RGB图像;
图3为本发明的油菜花期SPAD估测模型精度图;
图4为本发明的油菜花期LAI估测模型精度图;
图5为本发明的研究区域LAI填图分类结果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
图1所示为本发明所述基于无人机多光谱影像的油菜花期SPAD和LAI估测方法的一种较佳实施方式,所述基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,估测精度较高,对前期地面采集数据要求较少,适用于上述背景技术中提到的问题。
所述基于无人机多光谱影像的油菜花期SPAD和LAI估测方法包括如下步骤:
步骤S1:数据采集:通过无人机采集获取研究区油菜花期多光谱影像数据,同时利用GNSS RTK测绘仪采集50个地面样本点坐标数据,利用叶绿素测定仪采集50个地面样本点对应的油菜花期SPAD,利用植物冠层分析仪采集50个地面样本点对应的油菜花期LAI;
步骤S2:数据预处理:对步骤S1中获取的油菜花期多光谱影像进行预处理:地理定标、几何校准、图像配准、大气校正和辐射定标等,得到油菜花期多光谱影像反射率数据;
优选的,所述地理定标坐标系设置为WGS 1984坐标系,利用50%反射率校准灰布校正辐射,green(绿光波段),blue(蓝光波段),red(红光波段),red edge(红边波段),nearinfrared(近红外波段)的中心波长分别为450nm,560nm,650nm,730nm,840nm,对应的反射率分别为0.452071,0.451725,0463871,0457711,0.446365,利用经验校正法,得到校正辐射后的油菜花期反射率影像。
步骤S3:样本划分:依据步骤S1中采集的50个地面样本点坐标数据及其对应的50个SPAD值和50个LAI值,选择30组样本作为训练集样本,选择20组样本作为测试集样本。
步骤S4:对步骤S2中预处理后得到的油菜花期多光谱影像反射率数据进行数据处理:提取反射率,对5个波段的不同反射率值进行算法处理,获取9个颜色植被指数如表1所示,获取的10个多光谱窄波段植被指数如表2所示;
表1获取的9个颜色植被指数
(续表)
注:公式栏中R,G,B分别是经过标准化之后的DN值,
表2 10个多光谱窄波段植被指数
(续表)
注:公式栏中R450,R560,R650,R730,R840分别代表450nm,540nm,650nm,730nm,840nm波段处的反射率。
步骤S5:BRF神经网络训练:将步骤S1中获取的SPAD和LAI作为因变量,步骤S4中得到的19种植被指数作为协变量,选取步骤S3中划分的训练集样本,分别对植被指数和SPAD、植被指数和LAI进行BRF神经网络训练,分别选取训练结果中I1>0.8和I2>0.7的植被指数,其中I1为植被指数和油菜花期SPAD值的正态化重要性值,I2为植被指数和油菜花期LAI值的正态化重要性值;剔除植被指数与SPAD训练结果中正态化重要性I1≤0.8的植被指数,植被指数与LAI训练结果中正态化重要性I2≤0.7的植被指数,经筛选后保留的植被指数如表3所示:
表3保留的植被指数
步骤S6:显著性分析:将步骤S5中得到的两组植被指数分别与其对应的油菜花期SPAD和LAI进行显著性分析,筛选P≤0.01极显著水平的植被指数,经筛选后得到的植被指数如表4所示:
表4极显著水平的植被指数
步骤S7:将测试集样本中的SPAD值和LAI值分别输入到步骤S5中的油菜花期SPAD和LAI估测模型,分别计算出SPAD和LAI预测值,与样本中的SPAD和LAI真实值进行相关性分析,在0.01的极显著水平分别计算其决定系数R2、均方根误差RMSE和平均绝对百分比误差MAPE,根据精度等级优化估测模型,当评价指标都达到优秀水平范围时确定油菜花期SPAD估测模型和油菜花期LAI估测模型。
在使用R2和RMSE进行线性回归模型精度评价时,一般情况下,认为R2越高且RMSE越低,表示回归模型拟合效果越好,当R2大于0.75时,表示模型拟合程度很好,可解释程度较高。
在使用MAPE时,一般情况下,对于不同模型同一组数据,认为MAPE越小,模型精度越高,当MAPE小于10时,预测精度较高。
步骤S8:利用步骤S7中得到的油菜花期LAI估测模型,计算研究区总体油菜花期的LAI值,并对研究区无人机遥感影像进行油菜花期LAI可视化填图,生成处方图。
综上所述,与现有技术相比,本发明由于采用了上述技术方案,有益效果为:
本发明通过对获取9个颜色植被指数和10个多光谱窄波段植被指数分别与研究区实测的SPAD和LAI进行BRF神经网络训练,以协变量植被指数分别对因变量SPAD和LAI的正态化重要性程度为衡量标准,在植被指数与SPAD训练模型中筛选正态化重要性值大于80%的植被指数用于SPAD估测反演的备选数据;在植被指数与LAI训练模型中筛选正态化重要性值大于70%的植被指数用于LAI估测反演的备选数据,避免了低相关性植被指数参与SPAD和LAI的反演计算,提高了估测精度。
本发明使用基于无人机多光谱影像数据的植被指数作为估测的原始数据因子,分别进行SPAD和LAI进行估测反演,为后续油菜生物量和产量的估测提供数据支撑,在提高估测精度的同时有效地提高了模型鲁棒性。
本发明的两种估测模型能实现作物SPAD和LAI的大面积快速监测,可以及时有效地生成作物的长势信息和营养状况矢量图,可以为区域精准施肥策略提供数据支撑。
本发明的LAI估测模型基于油菜花期数据,通过对油菜花LAI的高精度估测,后续可结合油菜花期病害数据进行油菜成熟期角果数目的预测,对油菜产量及生物量等作物指标的反演具有较大优势。
本发明通过对获取9个颜色植被指数和10个多光谱窄波段植被指数分别与研究区实测的SPAD和LAI进行BRF神经网络训练,以协变量植被指数分别对因变量SPAD和LAI的正态化重要性程度为衡量标准,在植被指数与SPAD训练模型中筛选正态化重要性值大于80%的植被指数用于SPAD估测反演的备选数据;在植被指数与LAI训练模型中筛选正态化重要性值大于70%的植被指数用于LAI估测反演的备选数据,避免了低相关性植被指数参与SPAD和LAI的反演计算,提高了估测精度。
本发明使用基于无人机多光谱影像数据的植被指数作为估测的原始数据因子,分别进行SPAD和LAI进行估测反演,为后续油菜生物量和产量的估测提供数据支撑,在提高估测精度的同时有效地提高了模型鲁棒性。
本发明的两种估测模型能实现作物SPAD和LAI的大面积快速监测,可以及时有效地生成作物的长势信息和营养状况矢量图,可以为区域精准施肥策略提供数据支撑。
本发明的LAI估测模型基于油菜花期数据,通过对油菜花LAI的高精度估测,后续可结合油菜花期病害数据进行油菜成熟期角果数目的预测,对油菜产量及生物量等作物指标的反演具有较大优势。
具体实施例:
本发明基于相同品种,相同生育期,相同施氮水平,相同种植密度处理的油菜花期田间实验进行,油菜试验田及数据采集基本信息如表5所示。
表5油菜试验田及数据采集基本信息
从油菜试验田获得油菜花期冠层多光谱影像数据,GNSS RTK坐标及SPAD和LAI数据,数据获取样本数量较大,系统性较强,处理因素较多,可以较为有效地验证本发明的估测方法在不同环境条件和处理下的准确度和适应性。
一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法具体步骤如下:
步骤S1:数据采集:采用深圳大疆创新科技有限公司生产的4旋翼P4Multispectral无人机搭载RGB和五波段多光谱相机在15m飞行高度,1m/s飞行速度,南北向飞行航线条件下获取研究区油菜花期冠层影像数据;采集的五个波段分别为450nm,560nm,650nm,730nm,840nm,范围为434nm-866nm,地面采样距离为0.79cm/pixel,无人机飞行路径和速度在两次飞行中保持一致,飞行时间在正午12:00-13:30晴朗无云阶段。
同时采用上海华测导航技术股份有限公司生产的中绘i50小型化智能RTK测量系统获取50个地面样本点坐标数据;采用Konica Minolta公司生产的SPAD-502P叶绿素计获取50个地面样本点对应的油菜花期SPAD,采用Delta-T公司生产的SunScan获取50个地面样本点对应的油菜花期LAI;
步骤S2:数据预处理:对步骤S1中获取的油菜花期多光谱影像进行预处理:地理定标、几何校准、图像配准、大气校正和辐射定标等,得到油菜花期多光谱影像反射率数据;
地理定标坐标系设置为WGS 1984坐标系,利用50%反射率校准灰布校正辐射,green,blue,red,red edge,near infrared的中心波长分别为450nm,560nm,650nm,730nm,840nm,对应的反射率分别为0.452071,0.451725,0463871,0457711,0.446365,利用经验校正法,得到校正辐射后的油菜花期反射率影像。预处理后的研究区域精校正正射RGB图像如图2所示。
步骤S3:样本划分:依据步骤1中采集的50个地面样本点坐标数据及其对应的50个SPAD值和50个LAI值,选择30组样本作为测试样本,选择20组样本作为验证样本。
步骤S4:对步骤2中预处理后得到的油菜花期多光谱影像反射率数据进行数据处理:提取反射率,对5个波段的不同反射率值进行算法处理,获取9个颜色植被指数和10个多光谱窄波段植被指数;
步骤S5:BRF神经网络训练:将步骤S1中获取的SPAD和LAI作为因变量,步骤4中得到的19种植被指数作为协变量,选取步骤S3中划分的30测试练样本,20组验证样本,分别对植被指数和SPAD、植被指数和LAI进行BRF神经网络训练,分别剔除植被指数与SPAD训练结果中正态化重要性≤0.8的植被指数,植被指数与LAI训练结果中正态化重要性≤0.7的植被指数,经筛选后保留的植被指数如表6所示。
表6经两组BRF神经网络训练筛选后分别保留的植被指数
步骤S6:显著性分析:将步骤S5中得到的两组植被指数分别与其对应的油菜花期SPAD和LAI进行显著性分析,筛选P≤0.01极显著水平的植被指数,筛选后的植被指数与SPAD的相关系数如表7所示,植被指数与LAI的相关系数如表8所示。
表7不同植被指数与SPAD的相关系数
注:**为达到P﹤0.01的水平(双侧)上极显著相关。
表8不同植被指数与LAI的相关系数
注:**为达到P﹤0.01的水平(双侧)上极显著相关。
步骤S7:利用步骤S6中两组极显著水平的植被指数分别与步骤S1中获取的油菜花期SPAD值与LAI值进行逐步多元线性回归建模,计算其决定系数R2和均方根误差RMSE,并评定其精度。
SPAD=7.98655NGBDI+21.33399NDRE–1.85665RGRI+38.16949
LAI=0.0258SRI+0.98406GNDVI–0.08552NDVI–0.19173VARI+0.39883
在使用R2和RMSE进行线性回归模型精度评价时,一般情况下,认为R2越高且RMSE越低,表示回归模型拟合效果越好,当R2大于0.75时,表示模型拟合程度很好,可解释程度较高。
步骤S8:将20组样本中的输入数据分别输入到步骤S7的油菜花期SPAD和LAI估测模型,分别计算出SPAD和LAI预测值,并分别与样本中的SPAD和LAI真实值进行相关性分析,在0.01的极显著水平计算其决定系数R2和均方根误差RMSE和平均绝对百分比误差MAPE,根据精度等级优化估测模型,当R2﹥0.75,RMSE﹤0.2,MAPE﹤10时确定估测模型。SPAD和LAI估测模型精度图如图3和图4所示。两组模型真实值与预测值的R2分别达到0.94和0.80,RMSE分别达到0.17和0.13,MAPE分别达到2.34和7.50,三个相关性评价指标精度均达到极高水平,故可确定回归模型。
在使用MAPE时,一般情况下,对于不同模型同一组数据,认为MAPE越小,模型精度越高,当MAPE小于10时,预测精度较高。
步骤S9:利用步骤S8中得到的油菜花期LAI估测模型,计算研究区总体油菜花期的LAI值,并对研究区无人机遥感影像进行油菜花期LAI可视化填图,生成处方图。研究区域LAI填图分类结果图如图5所示。将LAI值划分为4个区间,参考植被覆盖度标准分类方法,在LAI值为0~0.6区间,油菜LAI水平为低,在LAI值为0.6~1.2区间,油菜LAI水平为中,在LAI值为1.2~1.8区间,油菜LAI水平为中高,在LAI值为1.8~2.2区间,油菜LAI水平为高。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
应当理解,虽然本说明书是按照各个实施例描述的,但并非每个实施例仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施例的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施例或变更均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,包括以下步骤:
步骤S1:数据采集:通过无人机采集获取研究区油菜花期多光谱影像数据,同时采集N个地面样本点坐标数据,采集N个地面样本点对应的油菜花期SPAD值,采集N个地面样本点对应的油菜花期LAI值;
步骤S2:数据预处理:对步骤S1中获取的油菜花期多光谱影像进行预处理,得到油菜花期多光谱影像反射率数据;
步骤S3:样本划分:依据步骤S1中采集的N个地面样本点坐标数据及其对应的N个SPAD值和N个LAI值,选择n组样本作为训练集样本,选择m组样本作为测试集样本,n+m=N;
步骤S4:对步骤S2中预处理后得到的油菜花期多光谱影像反射率数据进行数据处理,包括提取反射率,对波段的不同反射率值进行算法处理,获取颜色植被指数和多光谱窄波段植被指数;
步骤S5:BRF神经网络训练:将步骤S1中获取的油菜花期SPAD值和油菜花期LAI值作为因变量,步骤S4中得到的植被指数作为协变量,选取步骤S3中划分的训练集样本,分别对植被指数和油菜花期SPAD值、植被指数和油菜花期LAI值进行BRF神经网络训练,分别选取训练结果中I1>0.8和I2>0.7的植被指数,其中I1为植被指数和油菜花期SPAD值的正态化重要性值,I2为植被指数和油菜花期LAI值的正态化重要性值;
步骤S6:显著性分析:将步骤S5中得到的I1>0.8和I2>0.7的植被指数和油菜花期SPAD、植被指数和油菜花期LAI分别进行显著性分析,筛选P≤0.01极显著水平的植被指数;
步骤S7:利用步骤S6中得到的极显著水平的植被指数与步骤S3中划分训练集样本中的油菜花期SPAD值与油菜花期LAI值分别进行逐步多元线性回归建模,得到油菜花期SPAD估测模型和油菜花期LAI估测模型,计算其决定系数R2和均方根误差RMSE,并评定其精度;
步骤S8:将测试集样本中的油菜花期SPAD值和油菜花期LAI值分别输入到步骤S7中的油菜花期SPAD估测模型和油菜花期LAI估测模型,分别计算出油菜花期SPAD和油菜花期LAI预测值,与样本中的油菜花期SPAD和油菜花期LAI真实值进行相关性分析,在0.01的极显著水平计算其决定系数R2和均方根误差RMSE和平均绝对百分比误差MAPE,根据精度等级优化估测模型,当评价指标都达到预设的优秀水平范围时确定油菜花期SPAD估测模型和油菜花期LAI估测模型;
步骤S9:利用步骤S8中得到的油菜花期LAI估测模型,计算研究区总体油菜花期的LAI值,并对研究区无人机遥感影像进行油菜花期LAI可视化填图,生成处方图,利用步骤S8中得到的油菜花期SPAD估测模型,计算研究区总体油菜花期的SPAD值,并对研究区无人机遥感影像进行油菜花期SPAD可视化填图,生成处方图。
2.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S1中利用GNSS RTK测绘仪采集N个地面样本点坐标数据。
3.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S1中利用叶绿素测定仪采集N个地面样本点对应的油菜花期SPAD值。
4.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S1中利用植物冠层分析仪采集N个地面样本点对应的油菜花期LAI值。
5.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S2:对步骤S1中获取的油菜花期多光谱影像进行预处理,包括地理定标、几何校准、图像配准、大气校正和辐射定标,得到油菜花期多光谱影像反射率数据。
6.根据权利要求5所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S2中对油菜花期多光谱影像进行预处理,具体为:
地理定标坐标系设置为WGS 1984坐标系,利用50%反射率校准灰布校正辐射,green,blue,red,red edge,near infrared的中心波长分别为450nm,560nm,650nm,730nm,840nm,对应的反射率分别为0.452071,0.451725,0463871,0457711,0.446365,利用经验校正法,得到校正辐射后的油菜花期反射率影像。
7.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S5中对植被指数和油菜花期SPAD值进行BRF神经网络训练后剔除植被指数与SPAD训练结果中正态化重要性值I1≤0.8的植被指数。
8.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤S5中对植被指数和油菜花期LAI值进行BRF神经网络训练后剔除植被指数与LAI训练结果中正态化重要性I2≤0.7的植被指数。
9.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤8中油菜花期SPAD估测模型为:
SPAD=7.98655NGBDI+21.33399NDRE–1.85665RGRI+38.16949
其中,NGBDI为归一化绿蓝差异指数,NDRE为归一化差异红边植被指数,RGRI为绿红比值指数。
10.根据权利要求1所述的基于无人机多光谱影像的油菜花期SPAD和LAI估测方法,其特征在于,所述步骤8中油菜花期LAI估测模型为:
LAI=0.0258SRI+0.98406GNDVI–0.08552NDVI–0.19173VARI+0.39883
其中,SRI为比值植被指数,GNDVI为绿色归一化植被指数,NDVI为归一化植被指数,VARI为可见大气抗性指数。
CN202210641009.5A 2022-06-08 2022-06-08 一种基于无人机多光谱影像的油菜花期spad和lai估测方法 Active CN115019205B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210641009.5A CN115019205B (zh) 2022-06-08 2022-06-08 一种基于无人机多光谱影像的油菜花期spad和lai估测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210641009.5A CN115019205B (zh) 2022-06-08 2022-06-08 一种基于无人机多光谱影像的油菜花期spad和lai估测方法

Publications (2)

Publication Number Publication Date
CN115019205A CN115019205A (zh) 2022-09-06
CN115019205B true CN115019205B (zh) 2024-03-19

Family

ID=83073906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210641009.5A Active CN115019205B (zh) 2022-06-08 2022-06-08 一种基于无人机多光谱影像的油菜花期spad和lai估测方法

Country Status (1)

Country Link
CN (1) CN115019205B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116151454A (zh) * 2023-02-24 2023-05-23 南昌工程学院 一种多光谱无人机预测矮林芳樟精油产量的方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389452A (zh) * 2015-12-31 2016-03-09 西北农林科技大学 基于神经网络的黄瓜全程光合速率预测模型及建立方法
CN114128608A (zh) * 2021-10-25 2022-03-04 塔里木大学 一种果园灌溉管理方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389452A (zh) * 2015-12-31 2016-03-09 西北农林科技大学 基于神经网络的黄瓜全程光合速率预测模型及建立方法
CN114128608A (zh) * 2021-10-25 2022-03-04 塔里木大学 一种果园灌溉管理方法及系统

Also Published As

Publication number Publication date
CN115019205A (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
CN109948596B (zh) 一种基于植被指数模型进行水稻识别和种植面积提取的方法
CN106971167B (zh) 基于无人机平台的作物生长分析方法及其分析系统
CN105740759B (zh) 基于多时相数据中特征提取的中稻信息决策树分类方法
Dobrowski et al. Grapevine dormant pruning weight prediction using remotely sensed data
CN111368736B (zh) 基于sar和光学遥感数据的水稻精细化估产方法
CN112287892B (zh) 基于无人机高光谱和机器学习算法的乔木生物量测算方法
CN102033230A (zh) 一种草原卫星遥感监测系统及方法
CN113221765B (zh) 一种基于数字相机影像有效像元的植被物候期提取方法
CN114140695B (zh) 一种基于无人机多光谱遥感的茶树氮素诊断及品质指标测定的预测方法和系统
Yi et al. Evaluation of MODIS surface reflectance products for wheat leaf area index (LAI) retrieval
CN109325433A (zh) 引入地形因子的黑土区大豆生物量多时相遥感反演方法
Dong et al. Using RapidEye imagery to identify within-field variability of crop growth and yield in Ontario, Canada
Ouyang et al. Assessment of canopy size using UAV-based point cloud analysis to detect the severity and spatial distribution of canopy decline
CN115019205B (zh) 一种基于无人机多光谱影像的油菜花期spad和lai估测方法
CN115062863A (zh) 基于作物参考曲线和积温校正的苹果的始花期预测方法
Liu et al. Open-air grape classification and its application in parcel-level risk assessment of late frost in the eastern Helan Mountains
CN116052141B (zh) 作物生育期的识别方法、装置、设备及介质
WO2023131949A1 (en) A versatile crop yield estimator
Etchanchu et al. Effects of high spatial and temporal resolution Earth observations on simulated hydrometeorological variables in a cropland (southwestern France)
Wittamperuma et al. Remote-sensing-based biophysical models for estimating LAI of irrigated crops in Murry darling basin
CN115791639A (zh) 基于物候信息的大豆种植区域遥感提取方法
Sayad et al. Crop management using Big Data
Alvarez-Mendoza et al. Estimation of Nitrogen in the soil of balsa trees in Ecuador using Unmanned aerial vehicles
Syafiqah et al. GIS and UAV Aerial Imaging Applications for Durian Plantation Management
Guo et al. High-throughput estimation of plant height and above-ground biomass of cotton using digital image analysis and Canopeo

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant