CN115424006A - 应用于作物表型参数反演的多源多层次数据融合方法 - Google Patents

应用于作物表型参数反演的多源多层次数据融合方法 Download PDF

Info

Publication number
CN115424006A
CN115424006A CN202211008392.7A CN202211008392A CN115424006A CN 115424006 A CN115424006 A CN 115424006A CN 202211008392 A CN202211008392 A CN 202211008392A CN 115424006 A CN115424006 A CN 115424006A
Authority
CN
China
Prior art keywords
crop
canopy
image
fusion
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211008392.7A
Other languages
English (en)
Inventor
张泽
秦诗哲
丁怡人
马露露
周泽轩
张强
陈翔宇
周猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shihezi University
Original Assignee
Shihezi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shihezi University filed Critical Shihezi University
Priority to CN202211008392.7A priority Critical patent/CN115424006A/zh
Publication of CN115424006A publication Critical patent/CN115424006A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/58Extraction of image or video features relating to hyperspectral data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

本发明提供了应用于作物表型参数反演的多源多层次数据融合方法,多源多层次数据融合方法的具体步骤如下:第五步:利用高光谱数据提取作物叶片、冠层尺度的特征信息构建特征向量用于后续融合建模;第七步:利用叶绿素荧光数据提取作物叶片、冠层尺度的特征信息构建特征向量用于后续融合建模;本发明将不同传感器所获取的信息进行提取特征向量,并运用三层改进的融合方法,将数据代入不同的机器学习算法中训练验证,最后使用集成学习算法输出最终结果,既能保证准确率又可防止过拟合,大大提升了作物表型参数监测和诊断的稳定性和精度,为农户提供农情监测服务,为农作物的灾害防控与生产栽培提供技术支撑。

Description

应用于作物表型参数反演的多源多层次数据融合方法
技术领域
本发明属于作物生长检测技术领域,涉及应用于作物表型参数反演的多源多层次数据融合方法。
背景技术
传统方式进行作物相关表型参数监测的方法会耗费大量的时间和精力,除了会带来药剂污染,还对作物造成毁灭性损伤,不利于植株生长以及长期重复性监测,难以满足精准农业需求的实时、快速及可靠性的监测标准。
因此,在进行作物表型参数反演时,急需一种可以弥补传统监测手段的不足,同时还能有效、准确诊断作物生理生化状态的技术。近年来RGB 图像、高光谱遥感技术和叶绿素荧光动力学技术的发展为此提供了方向; RGB图像通过便捷、快速的手段准确获取作物表型参数状况成为近年来相关研究人员的重点研究方向,可通过提取图像相应特征发现作物表型细微的变化以此进行反演;而高光谱遥感技术具备分辨率高,波段间连续性强等特点,因此能够探测到许多表面不能探查到的信息;与高光谱反射信号相比,叶绿素荧光参数与作物的生理生态变化、光合作用等密切相关。已有研究表明,在叶绿素含量下降前荧光信号已经发生,可以提前指示作物的生长状态,可以从本质上解释作物生理生化的变化情况,可以更好地监测作物的生长状况,特别是作物受环境胁迫的状态。综上,结合RGB图像、高光谱遥感与叶绿素荧光监测技术,实现作物表性参数的准确、快速获取与监测,是解决肥料高效利用和合理投入的关键,进而降低栽培成本,提高作物产量,本发明以大田作物为研究对象,结合作物相关表型参数在不同叶位和不同生育时期的时空分布规律,探究高光谱、RGB图像和叶绿素荧光特征响应的机理,建立应用于作物表型参数反演的多源多层次数据融合方法,进一步提高大田作物生理生化参数监测诊断的时效性和精度。
发明内容
本发明的目的在于提供应用于作物表型参数反演的多源多层次数据融合方法,以解决上述背景技术中提出的问题。
本发明的目的可通过下列技术方案来实现:
应用于作物表型参数反演的多源多层次数据融合方法,所述多源多层次数据融合方法的具体步骤如下:
第一步:获取作物叶片、冠层尺度的数码图像;
第二步:对数码图像进行感兴趣区间分割,将待监测的叶片及冠层区域从背景中分割出来;
第三步:将数码图像转化为不同的颜色空间,并提取作物叶片、冠层尺度的颜色、纹理及形态特征构建特征向量用于后续融合建模;
第四步:获取作物叶片、冠层尺度的高光谱数据;
第五步:利用高光谱数据提取作物叶片、冠层尺度的特征信息构建特征向量用于后续融合建模;
第六步:获取作物叶片、冠层尺度的叶绿素荧光数据;
第七步:利用叶绿素荧光数据提取作物叶片、冠层尺度的特征信息构建特征向量用于后续融合建模;
第八步:将图像、光谱和荧光所提取的特征向量代入多源多层次数据融合方法进行精准反演作物表型参数。
在上述的应用于作物表型参数反演的多源多层次数据融合方法中,所述第一步中,获取作物叶片、冠层尺度的数码图像具体操作如下:
应用手机和数码相机,拍摄时相机设置为自动白平衡,在晴朗天气下,距作物叶片、冠层高度固定、与地面90°拍摄采样,需辅助以标准色卡进行颜色校正,以期最大限度减小光照以及拍摄装备型号对图像的影响。
在上述的应用于作物表型参数反演的多源多层次数据融合方法中,所述第三步操作具体包括以下步骤:
步骤一:图像颜色空间转换;
步骤二:提取图像的颜色特征;
步骤三:提取图像的纹理特征;
步骤四:提取图像的形态特征;
步骤五:筛选基于图像的特征向量用于后续建模。
在上述的应用于作物表型参数反演的多源多层次数据融合方法中,所述第四步的具体操作如下:
应用便携式地物光谱仪采集作物高光谱数据,采集时通过光谱仪自带的叶片夹和内置光源进行采集,每个叶片或冠层测量点取重复3次的平均值作为此该点的光谱值,测量不同叶片或冠层前进行白板校正。
在上述的应用于作物表型参数反演的多源多层次数据融合方法中,第七步中,筛选特征叶绿素荧光参数的方法为:对叶片或冠层叶绿素荧光参数数据及待测作物表型参数进行分析,利用Duncan法分析差异的显著性,继而对叶绿素荧光参数与待测参数进行相关回归分析,选择与作物表型参数相关性好的荧光参数。
与现有技术相比,本发明应用于作物表型参数反演的多源多层次数据融合方法的优点为:
1、现阶段作物监测仍普遍使用单一数码图像、单一反射率光谱数据或单一叶绿素荧光数据以此反演作物表型参数,本发明针对传统的作物表型监测诊断方法破坏性大,单一传感器监测获取信息有限、反演精度低等问题,提出了将数码图像、荧光以及光谱特征信息通过改进的多源多层次数据融合方法用于精准的反演作物表型参数,此方法可以有效提高植物叶片尺度或冠层尺度表型参数反演的精度,为精准农业的发展打下基础。
2、现有的融合技术大多为多特征融合,为底层融合方法,其仅仅将不同数据级联在一起进行建模预测,融合效果虽有提升,但融合数据冗余,建模效果并不理想;本发明专利将不同传感器所获取的信息进行提取特征向量,并运用三层改进的融合方法,将数据代入不同的机器学习算法中训练验证,最后使用Stacking集成学习算法输出最终结果,既能保证准确率又可防止过拟合,大大提升了作物表型参数监测和诊断的稳定性和精度,为农户提供农情监测服务,为农作物的灾害防控与生产栽培提供技术支撑。
附图说明
图1是作物表型参数反演特征级融合框架图。
图2是作物表型参数反演决策级融合框架图。
图3是本发明的结构示意图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
第一步:获取作物叶片或冠层尺度的数码图像。
应用手机或数码相机,拍摄时相机设置为自动白平衡。在晴朗天气下,距作物叶片或冠层高度固定、与地面90°拍摄采样;需辅助以标准色卡进行颜色校正,以期最大限度减小光照以及拍摄装备型号对图像的影响。
第二步:对数码图像进行感兴趣区间分割,将待监测的叶片或冠层区域从背景中分割出来。
进行数码图像叶片或冠层区域的分割方法主要有以下几种,可根据实际应用情况,结合分割精度和运行时间进行最优选择。
(1)Otus算法:最大类间方差法又称大律法,是一种自适合于双峰情况的自动求取阈值的方法,该方法按照图像的灰度特性将图像分成背景和目标两个部分,背景和目标之间的差别越大,说明构成图像的两部分的差别越大,设灰度图像的灰度级为H,则灰度范围为[0,H-1],采用最大类间方差法计算图像的最优分割阈值,表达式如下所示: t=Max[W0(t)*(u0(t)-u)^2+w1(t)*(u1(t)-u)^2]
其中,t表示最优分割阈值,W0表示图像背景比例,w1表示图像前景比例,u0表示背景均值,u1表示前景均值。
(2)K-means聚类算法:k均值聚类算法是一种迭代求解的聚类分析算法,其步骤是,将预测数据分为k组,则随机选取k个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。该算法的基本思想是:以空间中k个点为中心进行聚类,k值一般按照具体的研究内容人为而定,k值确定之后对最靠近他们的对象进行归类,然后通过迭代的方法,逐次更新各聚类中心的值,直至得到最理想的聚类结果。
(3)超绿算法:科研人员利用绿色作物在可见光波段中绿光通道反射率高,红光和蓝光通道反射率低的光谱特性,构建了基于R、G、B的超红指数EXR、归一化植被指数NDI、超绿指数EXG和植被指数组合COM等系列植被指数,用来增强作物本身与其背景的差异,有效分离出绿色作物和其背景,本研究使用超绿指数EXG进行棉叶图像分割,其公式如下所示。
EXG=2G-R-B
(4)深度学习算法:基于深度学习的图像分割步骤主要包括:数据集的制作、感兴趣区间的标定、卷积神经网络的搭建、图像数据数据训练、结果测试。
第三步:将数码图像转化为不同的颜色空间,并提取作物叶片或冠层尺度的颜色、纹理及形态特征构建特征向量用于后续融合建模。
1.图像颜色空间转换
将叶片或冠层RGB图像转换为HSV、La*b*、YCrCb、YIQ颜色空间模型,颜色空间转化公式如表1中所示。
表1本方法涉及的颜色空间综述
Figure RE-RE-GDA0003923124990000061
2.提取图像的颜色特征
A Stricker和M Orengo提出了颜色矩的方法,其包括一阶矩(均值, mean)、二阶矩(方差,variance)和三阶矩(度,skewness),由于颜色信息主要分布于低阶矩中,所以用一阶矩,二阶矩和三阶矩足以表达目标图像的颜色信息的分布。
三类颜色矩计算方法如表2所示:
表2三类颜色矩计算方法综述
Figure RE-RE-GDA0003923124990000071
其中,pi,j表示叶片或冠层图像第j个像素的第i个颜色分量,N表示图像中的像素个数。本方法图像提取出的颜色特征向量,以HSV颜色空间为例,前三阶颜色矩组成的一个9维直方图向量,表示如下:
Figure RE-RE-GDA0003923124990000072
对每个颜色空间提取其9维直方图向量作为图像的颜色特征向量。
3.提取图像的纹理特征
从以获取的叶片或冠层图像中选择了基于灰度共生矩(GLMC)从4个不同角度(0°、45°、90°和135°)计算出的4个纹理特征,并计算4个纹理特征各角度的平均值(mean)及方差(sd)。RGB图像的3个波段被计算为灰度值后再来计算纹理特征(表3)。各纹理特征意义如下:
(1)二阶矩(Angular Second Monment,Asm):表示图像能量值变化,反映图像灰度值分布均匀性和纹理粗细,当图像中所有像素灰度值相同时,能量值为1:
(2)熵(Entropy,Ent):反映图像中灰度值分布的复杂性,Ent值越大,图像中像素分布越复杂,相同元素分布越分散:
(3)对比度(Contrast,Con):反映图像的清晰度和纹理深浅,纹理越深,Con越大,图像越清晰,像素间灰度值变化量越大:
(4)自相关(Correlation,Cor):反映窗口内相邻两个像素间灰度值间存在的可预测的线性关系,Cor越大,像素间可预测性越大,灰度值越均匀:
表3提取的纹理特征及提取角度
Figure RE-RE-GDA0003923124990000081
4.提取图像的形态特征
形态特征是图像中的另一个重要特征,不同于颜色、纹理特征等低层特征,对形态特征的描述必须以对图像中的物体或区域对象的分割为前提。形态特征的表示方法可以分为两类:一是基于轮廓特征,典型方法是傅里叶描述符方法。二是基于区域特征,典型方法是形状无关矩法。轮廓特征中只用到物体的边界,而区域特征需要考虑整个形状区域;在此基础上测得的作物叶片叶面积也应作为重要的形态特征。
5.筛选基于图像的特征向量用于后续建模
通过第2、3、4步骤中提取的颜色、纹理及形态特征向量与待诊断作物表性参数建立相关性,挑选显著相关的变量用于后续建模;或使用 SelectFromModel筛选特征,其包括基于L1的特征选择;随机森林模型特征选择;基于树的特征选择。或将特征选择过程融入pipline中。
第四步:获取作物叶片或冠层尺度的高光谱数据。
应用便携式地物光谱仪采集作物高光谱数据,采集时通过光谱仪自带的叶片夹和内置光源进行采集。每个叶片或冠层测量点取重复3次的平均值作为此该点的光谱值,测量不同叶片或冠层前进行白板校正。
第五步:利用高光谱数据提取作物叶片或冠层尺度的特征信息构建特征向量用于后续融合建模。
全波段光谱数据存在同质性和冗余性,不利于对作物氮素特性的提取,影响了模型监测的准确性;为了有效提高光谱数据的特征代表性,提取的特征参数要与作物氮素相关性强,筛选特征光谱参数的方法如下:
(1)随机蛙跳法(SFLA)是通过设定变量的正态分布空间,预先选取一组初始变量,在初始变数集合内的变量经过连续选取,使其成为候选子集,候选子集中的变量数量会随着次数的递增或递减而重复,依每次循环次数的不同,变量之间的关联度愈高,则在候选子集中出现的可能性愈大,根据样本频率排序选择变量序号对应的波段为特征波长。
(2)连续投影算法(SPA)首先,假设从所有原始变量中选出最大的数量个数,然后通过向量投影不断选择非共线性向量和高投影成为起始向量,最后将筛选出的向量集进行置信度分析,得到RMSE趋于稳定且最小的值就是最优选取变量数量,根据输出的结果选定特征波长。
(3)灰度关联分析(GRA)是灰色系统理论的一种评价手段,通过指标间的相关性来评价目标,其本质是对离散数据进行线性插值将数据连续化,然后再比较数据的几何特征,几何特征越相似,两者之间的相关性就越高,最后评估相关程度。
(4)竞争性自适应重加权(CARS)是一种基于PLSR回归系数和蒙特卡罗采样的特征波长选择算法。CARS先通过蒙特卡罗采样选择校准集样本,并建立相应的PLSR模型,计算本次采样的波长回归系数的绝对权重,并将绝对值较小的波长变量排除。在此基础上,对剩余的波长进行自适应再加权取样采样选择波长,建立相应机器学习模型,所选特征波长对应于具有最低波长RMSECV的机器学习模型。
第六步:获取作物叶片或冠层尺度的叶绿素荧光数据。
叶片尺度:利用多功能植物测量仪MultispeQ在光谱数据获取的同时测定作物叶片的荧光参数,测定时间选定为晴朗无云的北京时间 12:00-16:00(光适应)和00:00-05:00(暗适应),测定叶位为典型功能叶,从测定的结果中筛选出Fm'、qP、qN、Fm、Fv/Fm等参数用于数据处理(表 4)。
表4叶绿素荧光参数
Figure RE-RE-GDA0003923124990000101
Figure RE-RE-GDA0003923124990000111
冠层尺度:按照冠层叶绿素的计算方法构造了一个能够代表冠层综合叶绿素荧光的指标,并用此指标分析与冠层反射高光谱的关系,显著提高了植被指数监测冠层叶绿素荧光的精度。冠层叶绿素荧光动力学参数的计算式如下:
CCFC=1stLD×1stLCFC+2ndLD×2ndLCFC+3rdLD×3rdLCFC+....
Figure RE-RE-GDA0003923124990000112
CCFD为冠层叶绿素荧光密度;1stLD,2ndLD,3rdLD等分别为典型叶第1张叶片重、第2张叶片重和第3张叶片重等等,单位为kg/m2;1stLCFC, 2ndLCFC,3rdLCFC等分别对应不同典型叶的Fv/Fm。
第七步:利用叶绿素荧光数据提取作物叶片或冠层尺度的特征信息构建特征向量用于后续融合建模。
叶绿素荧光参数众多,分析工作量大,不利于选择相关性好的参数,影响模型监测的精度,筛选特征叶绿素荧光参数的方法为:对叶片或冠层叶绿素荧光参数数据及待测作物表型参数进行分析,利用Duncan法分析差异的显著性,继而对叶绿素荧光参数与待测参数进行相关回归分析,选择与作物表型参数相关性好的荧光参数。
第八步:将图像、光谱和荧光所提取的特征向量代入多源多层次数据融合方法进行精准反演作物表型参数。
1.多源特征级融合反演作物表型参数
特征级融合是在特征层进行的,即从不同的数据源中提取特征,本方法的数据源为数码图像、叶绿素荧光以及高光谱信息,将以上数据源提取出的特征向量在最终回归预测之前进行特征连接,利用级联的方法融合,得到最终反演结果,图1为本方法特征级融合的流程图。
其中,将已经提取出来的图像特征、叶绿素荧光特征以及高光谱特征利用级联融合函数进行融合,将各传感器特征融合堆叠,最终选择合适的机器学习的回归模型进行预测分析;以此获取相应作物表型参数的最终结果。
2.多源决策级融合反演作物表型参数
决策级融合模块利用数码图像特征、光谱特征以及叶绿素荧光特征与待测作物表型参数在三个维度单独建模对结果进行决策,实现从图片数据到文本数据的匹配,图2为本方法决策级融合的流程图。
先将图像、叶绿素荧光和高光谱数据所提取的特征分别输入到全连接层和分类层分别进行初次机器学习回归模型的建模预测评估,将三种模态预测结果代入Stacking集成学习算法中再次回归预测,并得出最终作物表型参数反演结果。
3、多源混合融合反演作物表型参数
混合融合与特征级融合大同小异,其是将特征级融合结果与决策级融合结果输入到Stacking集成学习算法中进行二次回归预测,得到混合融合最终的作物表型参数预测结果,图3为本方法混合融合的流程图。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.应用于作物表型参数反演的多源多层次数据融合方法,其特征在于,所述多源多层次数据融合方法的具体步骤如下:
第一步:获取作物叶片、冠层尺度的数码图像;
第二步:对数码图像进行感兴趣区间分割,将待监测的叶片及冠层区域从背景中分割出来;
第三步:将数码图像转化为不同的颜色空间,并提取作物叶片、冠层尺度的颜色、纹理及形态特征构建特征向量用于后续融合建模;
第四步:获取作物叶片、冠层尺度的高光谱数据;
第五步:利用高光谱数据提取作物叶片、冠层尺度的特征信息构建特征向量用于后续融合建模;
第六步:获取作物叶片、冠层尺度的叶绿素荧光数据;
第七步:利用叶绿素荧光数据提取作物叶片、冠层尺度的特征信息构建特征向量用于后续融合建模;
第八步:将图像、光谱和荧光所提取的特征向量代入多源多层次数据融合方法进行精准反演作物表型参数。
2.根据权利要求1所述的应用于作物表型参数反演的多源多层次数据融合方法,其特征在于,所述第一步中,获取作物叶片、冠层尺度的数码图像具体操作如下:
应用手机和数码相机,拍摄时相机设置为自动白平衡,在晴朗天气下,距作物叶片、冠层高度固定、与地面90°拍摄采样,需辅助以标准色卡进行颜色校正,以期最大限度减小光照以及拍摄装备型号对图像的影响。
3.根据权利要求1所述的应用于作物表型参数反演的多源多层次数据融合方法,其特征在于,所述第三步操作具体包括以下步骤:
步骤一:图像颜色空间转换;
步骤二:提取图像的颜色特征;
步骤三:提取图像的纹理特征;
步骤四:提取图像的形态特征;
步骤五:筛选基于图像的特征向量用于后续建模。
4.根据权利要求1所述的应用于作物表型参数反演的多源多层次数据融合方法,其特征在于,所述第四步的具体操作如下:
应用便携式地物光谱仪采集作物高光谱数据,采集时通过光谱仪自带的叶片夹和内置光源进行采集,每个叶片或冠层测量点取重复3次的平均值作为此该点的光谱值,测量不同叶片或冠层前进行白板校正。
5.根据权利要求1所述的应用于作物表型参数反演的多源多层次数据融合方法,其特征在于,第七步中,筛选特征叶绿素荧光参数的方法为:对叶片或冠层叶绿素荧光参数数据及待测作物表型参数进行分析,利用Duncan法分析差异的显著性,继而对叶绿素荧光参数与待测参数进行相关回归分析,选择与作物表型参数相关性好的荧光参数。
6.根据权利要求1所述的应用于作物表型参数反演的多源多层次数据融合方法,其特征在于,第八步中,多源多层次数据融合方法为特征级融合、决策级融合和混合融合。
CN202211008392.7A 2022-08-22 2022-08-22 应用于作物表型参数反演的多源多层次数据融合方法 Pending CN115424006A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211008392.7A CN115424006A (zh) 2022-08-22 2022-08-22 应用于作物表型参数反演的多源多层次数据融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211008392.7A CN115424006A (zh) 2022-08-22 2022-08-22 应用于作物表型参数反演的多源多层次数据融合方法

Publications (1)

Publication Number Publication Date
CN115424006A true CN115424006A (zh) 2022-12-02

Family

ID=84198307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211008392.7A Pending CN115424006A (zh) 2022-08-22 2022-08-22 应用于作物表型参数反演的多源多层次数据融合方法

Country Status (1)

Country Link
CN (1) CN115424006A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761518A (zh) * 2023-01-10 2023-03-07 云南瀚哲科技有限公司 一种基于遥感图像数据的作物分类方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761518A (zh) * 2023-01-10 2023-03-07 云南瀚哲科技有限公司 一种基于遥感图像数据的作物分类方法

Similar Documents

Publication Publication Date Title
CN109063754B (zh) 一种基于OpenStreetMap的遥感影像多特征联合分类方法
CN101692037B (zh) 高光谱图像和独立分量分析植物叶面叶绿素分布的方法
CN109544538B (zh) 小麦赤霉病病害等级分级方法及装置
CN109726705B (zh) 红树林信息的提取方法、装置及电子设备
CN111126511B (zh) 一种基于植被指数融合的lai定量模型建立的方法
Liang et al. Improved estimation of aboveground biomass in rubber plantations by fusing spectral and textural information from UAV-based RGB imagery
CN111144250A (zh) 融合雷达和光学遥感数据的土地覆盖分类方法
CN110705449A (zh) 一种土地利用变化遥感监测分析方法
WO2023197496A1 (zh) 一种机采棉脱叶效果综合评价指标监测与评价方法及系统
CN116824384A (zh) 一种基于标准曲线的大豆识别方法
CN103278467A (zh) 一种植物叶片氮素丰缺快速无损高准确率的鉴别方法
Liu et al. Estimating wheat fractional vegetation cover using a density peak k-means algorithm based on hyperspectral image data
CN105930863A (zh) 一种卫星相机谱段设置的确定方法
CN106568730B (zh) 一种基于近地面高光谱影像的水稻阴阳叶穗识别方法
CN115901644A (zh) 一种小麦条锈病光谱库建立方法
CN115424006A (zh) 应用于作物表型参数反演的多源多层次数据融合方法
CN114660040A (zh) 微生物单细胞种类鉴定方法、装置、介质及设备
Zhang et al. Chlorophyll content detection of field maize using RGB-NIR camera
CN114199800A (zh) 一种水稻纹枯病识别方法、系统、设备及介质
CN116863341B (zh) 基于时间序列卫星遥感影像的作物分类和识别方法和系统
CN115049902B (zh) 柑橘叶片含水量可视化预测方法、系统、设备及存储介质
GB2620469A (en) Spatial prediction and evaluation method of soil organic matter content based on partition algorithm
CN116258844A (zh) 一种棉花叶片表型性状快速精准鉴定方法
CN115830318A (zh) 基于改进Mask-RCNN网络的重叠烟丝图像分割方法及装置
CN112949607A (zh) 一种基于JM Relief F湿地植被特征优选与融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination