CN109975250B - 一种叶面积指数反演方法及装置 - Google Patents

一种叶面积指数反演方法及装置 Download PDF

Info

Publication number
CN109975250B
CN109975250B CN201910333471.7A CN201910333471A CN109975250B CN 109975250 B CN109975250 B CN 109975250B CN 201910333471 A CN201910333471 A CN 201910333471A CN 109975250 B CN109975250 B CN 109975250B
Authority
CN
China
Prior art keywords
layer
input
data
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910333471.7A
Other languages
English (en)
Other versions
CN109975250A (zh
Inventor
董莹莹
李雪玲
朱溢佞
叶回春
黄文江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capital Normal University
Institute of Remote Sensing and Digital Earth of CAS
Original Assignee
Capital Normal University
Institute of Remote Sensing and Digital Earth of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capital Normal University, Institute of Remote Sensing and Digital Earth of CAS filed Critical Capital Normal University
Priority to CN201910333471.7A priority Critical patent/CN109975250B/zh
Publication of CN109975250A publication Critical patent/CN109975250A/zh
Application granted granted Critical
Publication of CN109975250B publication Critical patent/CN109975250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种叶面积指数反演方法及装置,其中,方法包括:获取遥感植被冠层光谱反射率数据,将遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到深度神经网络模型输出的叶面积指数,深度神经网络模型至少包括卷积层,卷积层的采样步幅大于1,并且取不大于卷积层使用的滤波器的尺度的数值中的最大值。通过本申请,可以反演出具有较高精度的叶面积指数。

Description

一种叶面积指数反演方法及装置
技术领域
本申请涉及遥感数据处理领域,尤其涉及一种叶面积指数反演方法及装置。
背景技术
植被的叶面积指数定义为:单位地表面积上的全部植被的叶面积的总和。植被的叶面积指数是表征植被冠层结构的关键参量之一。其与植被的众多生物和物理过程密切相关,例如,光合作用、呼吸作用、碳循环、蒸腾作用和地表净初级生产力等。通常采用植被的遥感光谱反射率数据确定植被的叶面积指数,将该过程称为叶面积指数的反演过程。
目前,常用的叶面积指数的是基于统计方法反演得到,具体的,统计方法包括:首先根据植被的遥感光谱反射率计算出植被指数(例如,归一化植被指数或比值植被指数等),然后,寻找植被指数与叶面积指数间的映射关系,得到叶面积指数。
但是,基于统计方法反演得到的叶面积指数的精度低。
发明内容
发明人在研究的过程中发现,深度神经网络模型相比于传统的统计方法,具有较好的预测精度,因此,可以使用深度神经网络模型进行叶面积指数的反演,但是,仅仅将深度神经网络模型简单移植到叶面积指数的反演的场景下,并不可取,因为叶面积指数的反演的场景下输入和输出数据之间的数据维度相差较大,因此,需要关注数据的降维处理,又因为数据降维和反演精度之间的矛盾性,所以,还要保证降维处理过程中不过于降低反演精度。综上所述,将深度神经网络模型用于叶面积指数的反演的场景的情况下,如何兼顾数据降维和反演精度,成为亟待解决的问题。
本申请提供了一种叶面积指数反演方法及装置,目的在于解决将深度神经网络模型用于叶面积指数的反演的场景的情况下,如何兼顾数据降维和反演精度的问题。
为了实现上述目的,本申请提供了以下技术方案:
本申请提供了一种叶面积指数反演方法,包括:
获取遥感植被冠层光谱反射率数据;
将所述遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到所述深度神经网络模型输出的叶面积指数,所述深度神经网络模型至少包括卷积层,所述卷积层的采样步幅大于1,并且取不大于所述卷积层使用的滤波器的尺度的数值中的最大值。
可选的,获取遥感植被冠层光谱反射率数据;
将所述遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到所述深度神经网络模型输出的叶面积指数,所述深度神经网络模型至少包括卷积层,所述卷积层的采样步幅大于1,并且取不大于所述卷积层使用的滤波器的尺度的数值中的最大值。
可选的,所述卷积层包括:第一个卷积层与第二个卷积层,所述第一个卷积层与所述第二个卷积层连接;
所述第一卷积层的滤波器尺寸为1*3,采样步幅为3,所述第二个卷积层的滤波器尺寸为1*3,采样步幅为3。
可选的,所述深度神经网络模型还包括:一个池化层;所述第二个卷积层与所述池化层连接。
可选的,所述深度神经网络模型还包括:三个全连接层,分别为第一个全连接层,第二个全连接层与第三个全连接层;所述池化层与所述第一个全连接层连接,所述第一个全连接层输出的数据,输入随机失活(Dropout),所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层与所述第三个全连接层连接。
可选的,所述第二个卷积层输出的数据输入预设的第一ReLU激活函数,所述第一ReLU激活函数输出的数据输入所述池化层,所述池化层输出的数据输入所述第一个全连接层,所述第一个全连接层输出的数据输入预设的第二ReLU激活函数,所述第二ReLU激活函数输出的数据输入所述Dropout,所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层输出的数据输入预设的第三ReLU激活函数,所述第三ReLU激活函数输出的数据输入所述第三个全连接层,所述第三个全连接层输出的数据输入预设的Sigmoid函数。
本申请还提供了一种叶面积指数反演装置,包括:
获取模块,用于获取遥感植被冠层光谱反射率数据;
输入模块,用于将所述遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到所述深度神经网络模型输出的叶面积指数,所述深度神经网络模型至少包括卷积层,所述卷积层的采样步幅大于1,并且取不大于所述卷积层使用的滤波器的尺度的数值中的最大值。
可选的,所述预先训练的神经网络模型采用训练样本训练得到;所述训练样本包括预设的植被光谱发射率数据,以及与所述预设的植被光谱反射率数据对应的叶面积指数;
所述预设的植被光谱反射率数据为在所述遥感植被冠层光谱反射率数据中的比例为0.14%的数据。
可选的,所述卷积层包括:第一个卷积层与第二个卷积层,所述第一个卷积层与所述第二个卷积层连接;
所述第一卷积层的滤波器尺寸为1*3,采样步幅为3,所述第二个卷积层的滤波器尺寸为1*3,采样步幅为3。
可选的,所述深度神经网络模型还包括:一个池化层;所述第二个卷积层与所述池化层连接。
可选的,所述深度神经网络模型还包括:三个全连接层,分别为第一个全连接层,第二个全连接层与第三个全连接层;所述池化层与所述第一个全连接层连接,所述第一个全连接层输出的数据,输入Dropout中,所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层与所述第三个全连接层连接。
可选的,所述第二个卷积层输出的数据输入预设的第一ReLU激活函数,所述第一ReLU激活函数输出的数据输入所述池化层,所述池化层输出的数据输入所述第一个全连接层,所述第一个全连接层输出的数据输入预设的第二ReLU激活函数,所述第二ReLU激活函数输出的数据输入所述Dropout,所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层输出的数据输入预设的第三ReLU激活函数,所述第三ReLU激活函数输出的数据输入所述第三个全连接层,所述第三个全连接层输出的数据输入预设的Sigmoid函数。
本申请提供的叶面积指数反演方法及装置中,获取遥感植被冠层光谱反射率数据,将所述遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到所述深度神经网络模型输出的叶面积指数。因为深度神经网络模型具有参数多,以及训练后的深度神经网络模型中的网络参数是在损失函数不断收敛的过程中更新得到的,所以相对于现有技术的统计方法,基于训练后的深度神经网络模型反演得到的叶面积指数的精度得到提高。
进一步的,因为输入和输出数据之间的数据维度相差较大,所以,从卷积层开始降维,即卷积层采用大于1的采样步幅,而如果采样步幅过大,会使得某些光谱反射率数据被漏掉,而违背提高精度的初衷,因此,卷积层的采样步幅取不大于卷积层使用的滤波器的尺度的数值中的最大值,以保证在降维的情况下,不明显减低精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例公开的深度神经网络模型的结构示意图;
图2为本申请实施例公开的一种对深度神经网络模型的训练过程示意图;
图3为本申请实施例公开的一种叶面积指数反演方法的流程图;
图4为本申请实施例公开的一种叶面积指数反演装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请实施例提供的深度神经网络模型的结构示意图,包括6个网络层,具体包括:两个卷积层,一个池化层以及三个全连接层。其中,两个卷积层中的第一个卷积层与第二个卷积层连接,第二个卷积层与池化层连接,池化层与第一个全连接层连接,第一个全连接层与第二个全连接层连接,第二个全连接层与第三个全连接层连接。
其中,第一个卷积层通道数量设置为4,即第一个卷积层由4个滤波器组成,每个滤波器的尺度为1*3,每个滤波器的采样步幅大于1,并且,取不大于滤波器尺寸的数值中的最大值,即取不大于3的数值中的最大值,因此,采样步幅为3。第二个卷积层的通道数量设置为16,即第二个卷积层由16个滤波器组成,每个滤波器的尺度为1*3,每个滤波器的采样步幅大于1,并且,取不大于滤波器尺寸的数值中的最大值,即取不大于3的数值中的最大值,因此,采样步幅为3。对于输入深度神经网络模型中的数据,首先经过第一个卷积层,第一个卷积层输出的数据输入第二个卷积层,一般情况下,第二个卷积层输出的数据输入池化层,在本实施例中,为了使得增大输入池化层数据的非线性,将第二个卷积层输出的数据先经过一个预设的ReLU激活函数,其中,ReLU激活函数又称为线性整流函数,为了描述方便,将第二个卷积层输出的数据所输入的ReLU激活函数,称为第一ReLU激活函数,该第一ReLU激活函数输出的数据的非线性增大,并将该第一ReLU激活函数输出的数据输入池化层。
为了加快计算以及防止出现过拟合现象,深度神经网络模型通常包括池化层。在本申请实施例提供的深度神经网络模型中池化层采用最大池化,池化尺寸设置为1*3,池化步幅设置为3,通道数量为16,其中,池化层通道数量由第二个卷积层的通道数量决定。经池化层池化后的数据输入全连接层。在本申请实施例中,包括三个全连接层,分别为第一个全连接层,第二个全连接层与第三个全连接层,其中,第一个全连接层的神经元数量设置为32,第二个全连接层的神经元数量设置为8,第三个全连接层的神经元数量设置为1。
上述深度神经网络模型中,两个卷积层的网络参数的数量为80个,三个全连接层的网络参数的总数量为4913个,因此,本申请实施例提供的深度神经网络模型的网络参数的总数量为4993个。
待反演的植被光谱反射率数据的维度是较大的,由于本申请实施例提供的深度神经网络模型中的网络参数远多于现有技术中统计方法中统计模型的参数数量,因此,采用训练后的深度神经网络模型对待反演的植被光谱反射率数据进行反演得到的叶面积指数的精度,高于采用训练后的统计模型对待反演的植被光谱反射率数据进行反演得到的叶面积指数的精度。
图2为本申请实施例提供的对深度神经网络模型的训练过程的示意图,包括以下步骤:
S201、获取训练样本。
在本申请实施例中需要对研究区内的植被光谱反射率数据进行反演,得到该研究区的叶面积指数,即研究区内的植被光谱反射率数据为待反演的光谱反射率数据。在本实施例中,随机抽取研究区内的植被光谱反射率数据和对应的叶面积指数作为训练样本。
在本实施例中,通过多次实验,确定训练样本的数据量为待反演的光谱反射率数据量的0.14%,即可获得满足精度要求的模型。在本实施例中,训练样本中的光谱反射率数据的尺寸为1*244。
S202:将训练样本输入深度神经网络模型。
深度神经网络模型中的各层对数据的流程如下:
A1、深度神经网络模型中的卷积层对训练样本中的植被光谱反射率图像进行卷积计算。
深度神经网络模型中的卷积层主要用于对植被光谱反射率数据进行特征提取。将训练样本中的植被光谱反射率数据输入卷积层后,首先第一个卷积层中的4个滤波器分别在该植被光谱反射率数据上进行滑动卷积。第二个卷积层中的16个滤波器分别在第一个卷积层输出的数据上进行滑动卷积。
其中,对于任意一个卷积层,输入该卷积层的数据尺寸与经该卷积层卷积运算输出的数据尺寸间的关系如下公式(1)所示。
Figure BDA0002038403970000071
式中,inputsize表示输入的数据尺寸,outputsize表示经该卷积层输出的数据尺寸,
Figure BDA0002038403970000072
表示向下取整,kconv表示该卷积层滤波器的尺寸,sconv表示滤波器的采样步幅,padding表示在输入该卷积层的数据上添加零层的圈数。在本实施例中,将padding设置为0,即表示无需对输入该卷积层的数据进行填充。
本实施例中,训练样本的植被光谱反射率数据的尺寸为1*244,由于滤波器尺寸为1*3,并且采样步幅为3,因此,第一个卷积层的各滤波器输出的数据尺寸都为1*81。第二个卷积层的各滤波器输出的数据尺寸都为1*27。
A2、第一ReLU激活函数对第二个卷积层输出的数据进行处理。
其中,第一ReLU激活函数用于为所接收的数据加入非线性因素。具体的,第一ReLU激活函数对所接收的数据的计算公式如下公式(2)所示。
ReLU(r)=max(0,r) (2)
式中,r表示输入该第一ReLU激活函数的数据,ReLU(r)表示第一ReLU激活函数输出的数据。从公式(2)中,可以看出第一ReLU激活函数将所接收的数据与0中的最大值作为输出。
第二个卷积层输出的数据经第一ReLU激活函数输出的数据尺寸不变。
A3、池化层对第一ReLU激活函数输出的数据进行池化运算。
其中,池化层用于将输入的数据尺寸进行缩小。在本步骤中,采用最大池化。本申请实施例提供的深度神经网络模型中池化层的尺寸设置为1*3,池化步幅设置为3。
具体的,池化层的函数表达式如下公式(3)所示。
Figure BDA0002038403970000081
式中,p表示输入池化层的数据,具体的p=(p1,p2,……pj……pn),即输入池化层的数据尺寸为1*n,q表示池化层输出的数据,具体的,q=(q1,q2,……qjs……qm),即池化层输出的数据尺寸为1*m。qjs表示池化层输出数据中的第js个分量,n表示输入数据的维数,s表示池化步幅。
对于输入池化层的数据维数n与池化层输出的数据维数m间的关系,如下公式(4)所示。
Figure BDA0002038403970000082
式中,m表示池化层输出的数据维数,n表示输入池化层的数据维数,kpooling表示池化尺寸,spooling表示池化步幅,padding=0,
Figure BDA0002038403970000083
表示向下取整。
A4、全连接层对池化层输出的数据进行运算。
深度神经网络模型的全连接层用于建立所提取的光谱特征与叶面积指数之间的映射关系。将池化层输出的数据输入该全连接层,该全连接层输出叶面积指数。本申请实施例提供的深度神经网络模型的全连接层包括三个全连接层,分别为第一个全连接层、第二个全连接层和第三个全连接层。其中,对于第二个全连接层与第三个全连接层中的任意一个全连接层,该全连接层中的每个神经元都与上一个全连接层中的所有神经元进行全连接。
由于全连接层所包含的神经元数量较多,为了提高全连接层的拟合效率以及防止出现过拟合现象,在本申请实施例提供的深度神经网络模型中第一个全连接层与第二个全连接层之间添加了随机失活(Dropout)模块,Dropout用于在训练网络的时候依概率P保留每个神经元,即在每次训练时有些神经元会被设置为0。
在本申请实施例提供的深度神经网络模型中,全连接层中的相邻两个全连接层之间都存在一个ReLU激活函数,即第一个全连接层输出的数据输入预设的ReLU激活函数,为了描述方便,将第一个全连接层输出的数据所输入的ReLU激活函数,称为第二ReLU激活函数,将第二ReLU激活函数输出的数据输入Dropout,并将Dropout输出的数据作为第二个全连接层的输入,将第二个全连接层输出的数据输入预设的ReLU激活函数,为了描述方便,将第二个全连接层输出的数据所输入的ReLU激活函数,称为第三ReLU激活函数,并将第三ReLU激活函数的输出作为第三个全连接层的输入。
此外,在第三个全连接层输出的数据输入预设的Sigmoid激活函数,其中,Sigmoid激活函数又称为S型生长曲线,Sigmoid激活函数输出的数值为叶面积指数。具体的,Sigmoid激活函数的表达式如下公式(5)所示。
Figure BDA0002038403970000091
式中,aL(x)表示经Sigmoid激活函数输出的叶面积指数,zL(x)表示最后一个全连接层输出的叶面积指数,x表示光谱反射率数据,L表示本申请实施例提供的深度神经网络模型中网络层的总数量。其中,由于本申请实施例提供的深度神经网络模型包括两个卷积层,一个池化层以及三个全连接层,因此,本申请实施例提供的深度神经网络模型中网络层的总数量为6层。
上述A1~A4是将训练样本中植被光谱反射率数据输入本申请实施例提供的深度神经网络模型后,依次经过该深度神经网络模型中各层进行运算的过程,该过程为训练深度神经网络模型中的正向传播过程。
通过正向传播过程得到了Sigmoid激活函数输出的叶面积指数,此时所得到叶面积指数只是经深度神经网络模型中的各层计算得到的,因此,该叶面积指数很大概率上并不是训练样本中植被光谱反射率数据实际对应的准确的叶面积指数。
采用训练样本对深度神经网络模型进行训练的本质是:通过调整深度神经网络模型中的各网络参数的取值,使得该深度神经网络模型输出的叶面积指数与训练样本中的叶面积指数逼近。其中,调整深度神经网络模型中的网络参数,使得调整后的深度神经网络模型输出的叶面积指数与训练样本中的叶面积指数逼近的过程,称为反向传播过程。
具体的,反向传播过程的具体实现为:通过引入损失函数更新深度神经网络模型中卷积层与全连接层的网络参数,具体过程如下S203~S204所示。
S203、依据在正向传播过程中深度神经网络模型中各层的输出,以及预设的损失函数,计算通过该正向传播过程的损失函数值。
本实施例提供的损失函数表达式如下公式(6)所示:
Figure BDA0002038403970000101
式中,J(W,b)表示损失函数值,N表示叶面积指数的数据维数,在本实施例中,N取1,L表示本申请实施例提供的深度神经网络模型中网络层的总数量,y表示训练样本中的叶面积指数,aL(x)表示经过深度神经网络模型输出的叶面积指数。
本申请实施例提供的深度神经网络模型包括六个网络层,分别是两个卷积层,一个池化层,以及三个全连接层。其中,两个卷积层分别为第一个卷积层与第二个卷积层,三个全连接层分别是第一个全连接层、第二个全连接层与第三个全连接层。为了描述方便,将网络层采用l表示,即l可取1、2、3、4、5和6,其中,在本实施例中,l=1表示第一个卷积层,l=2表示第二个卷积层,l=3表示池化层,l=4表示第一个全连接层,l=5表示第二个全连接层,l=6表示第三个全连接层。
对于每个网络层输出的数据采用al(x)表示。对于任意一个网络层,如果该网络层后连接有激活函数,此时,该网络层输出的数据al(x)表示经过该激活函数后的数据,如果该网络层后没有连接激活函数,此时,该网络层输出的数据al(x)表示该网络层输出的数据。
对于l=1的情况,该网络层输出的数据为
Figure BDA0002038403970000111
),其中,
Figure BDA0002038403970000112
表示a1中的第j个分量,其中,用于计算a1中第j个分量的表达式,如下公式(7)所示。
Figure BDA0002038403970000113
式中,
Figure BDA0002038403970000114
表示该网络层的权重(滤波器参数),b1表示偏置项,x表示输入该网络层的数据,nx表示输入该网络层的植被光谱反射率数据的维数,即波段数目,在本实施例中,nx=244。
对于l=2的情况,该网络层输出的数据为
Figure BDA0002038403970000115
),其中,
Figure BDA0002038403970000116
表示a2中的第j个分量,其中,用于计算
Figure BDA0002038403970000117
中第j个分量的表达式如下公式(8)所示。
Figure BDA0002038403970000118
式中,
Figure BDA0002038403970000119
表示第二个卷积层输出的数据中的第j个分量,即未经该第二个卷积层所连接的ReLU激活函数运算的数据。其中,
Figure BDA00020384039700001110
的计算公式如下公式(9)所示。
Figure BDA00020384039700001111
式中,
Figure BDA00020384039700001112
表示第二个卷积层的权重(滤波器参数),b2表示第二个卷积层的偏置项,a1表示第一个卷积层输出的数据,
Figure BDA00020384039700001113
表示第一个卷积层输出的数据的维数,具体的,
Figure BDA00020384039700001114
对于l=3的情况,该网络层输出的数据为
Figure BDA00020384039700001115
),其中,a3中的第j个分量采用
Figure BDA00020384039700001116
表示,具体的,用于计算
Figure BDA00020384039700001117
的表达式,如下公式(10)所示。
Figure BDA00020384039700001118
式中,s表示池化步幅,
Figure BDA00020384039700001119
表示第二个卷积层输出的a2的数据维数。
对于l=4与l=5的情况,对应的网络层输出的数据为
Figure BDA0002038403970000121
其中,al中的第j个分量采用
Figure BDA0002038403970000122
表示,用于计算
Figure BDA0002038403970000123
的表达式,如下公式(11)所示。
Figure BDA0002038403970000124
式中,
Figure BDA0002038403970000125
表示对应的网络层的权重,
Figure BDA0002038403970000126
表示对应的网络层的偏置项。
对于l=6的情况,经该网络层后的Sigmoid激活函数输出的数据为深度神经网络模型反演出的叶面积指数aL,具体的,aL的计算公式如下公式(12)所示。
Figure BDA0002038403970000127
式中,
Figure BDA0002038403970000128
表示第三个全连接层的权重,
Figure BDA0002038403970000129
表示第三个全连接层的偏置项。
在本实施例中,在得到深度神经网络模型输出的叶面积指数后,就可以依据损失函数的计算公式,计算该深度神经网络模型输出的叶面积指数的损失函数值。
依据损失函数值判断此时的深度神经网络模型输出的叶面积指数是否逼近训练样本中的叶面积指数。如果损失函数值未收敛时,此时的深度神经网络模型中的网络参数还需更新,具体的,对深度神经网络模型中的网络参数的更新过程如下S204所示。
S204、更新深度神经网络模型中的网络参数。
在本步骤中,对深度神经网络模型中的网络参数进行更新的过程,就是对深度神经网络模型中各网络层中的权重与偏置项进行更新的过程。具体的,对于任意一个网络层,该网络层中的权重W与偏置项b的更新公式如下公式(13)所示。
Figure BDA00020384039700001210
式中,
Figure BDA0002038403970000131
表示损失函数对权重W的偏导数,
Figure BDA0002038403970000132
表示损失函数对偏置项b的偏导数,η表示学习率。
其中,
Figure BDA0002038403970000133
Figure BDA0002038403970000134
与梯度误差δl(l=L,L-1,…,1)有关,具体的,深度神经网络模型的最后一个网络层(第三个全连接层)对应的梯度误差δL,可以通过损失函数得到,具体的,采用损失函数得到第三个全连接层的梯度误差的计算公式如下公式(14)所示。
Figure BDA0002038403970000135
式中,
Figure BDA0002038403970000136
表示第三个全连接层的梯度误差中的第j个分量,
Figure BDA0002038403970000137
表示第三个全连接层未经ReLU激活函数输出的数据中的第j个分量,
Figure BDA0002038403970000138
表示第三个全连接层输出的数据经ReLU激活函数输出的数据中的第j个分量。
在得到第三个全连接层的梯度误差后,可以计算得到第二个全连接层的梯度误差,再依据第二个全连接层的梯度误差可以计算得到第一个全连接层的梯度误差。
具体的,对于l=4与l=5的情况,梯度误差δl的表达式见公式(15):
δl=((Wl+1)Tδl+1)⊙σ′(zl) (15)
式中,Wl+1表示第l+1对应的网络层的权重,δl+1表示第l+1层的梯度误差,⊙表示Hadamard乘积,用于矩阵或向量之间点对点的乘法运算。σ′(zl)表示第l层激活函数对zl求导。
此时,对于l=4与l=5的情况,各网络层的权重与偏置项的偏导数的计算方式如下公式(16)所示:
Figure BDA0002038403970000139
依据各网络层的权重与偏置项的更行公式,可以得到对于l=4与l=5分别对应的网络层的权重与偏置项的更新结果,具体如下公式(17)所示。
Figure BDA00020384039700001310
此时,可以得到第一个全连接层与第二个全连接层分别对应的权重与偏置项的更新结果。
对于池化层,即l=3时,该池化层的梯度误差为
Figure BDA0002038403970000141
其中,δ3的计算方式如下公式(18)所示。
Figure BDA0002038403970000142
式中,
Figure BDA0002038403970000143
表示池化层的梯度误差中的第j个分量,
Figure BDA0002038403970000144
表示池化层未经ReLU激活函数输出的数据中的第j个分量。
由于池化层中没有网络参数,因此,无需对池化层进行网络参数的更新,只需得到池化层的梯度误差,用来计算第二个卷积层的梯度误差即可。
对于第二个卷积层,即l=2时,该网络层的梯度误差的计算方式如下公式(19)所示。
δl=((Wl+1)Tδl+1)⊙σ′(zl) (19)
此处需进行上采样处理,记录前向传播池化层中最大值的位置,然后将梯度误差δl+1放到最大值对应位置上,其他位置补0,从而得到矩阵向量(Wl+1)Tδl+1
对于第一个卷积层,即l=1时,该网络层的梯度误差的计算方式如下公式(20)所示。
δl=(δl+1*Wl+1)⊙σ′(zl) (20)
式中,*表示卷积运算。
此时,可以对第二个卷积层与第一个卷积层分别对应的权重与偏置项进行更新,具体的更新方式如下公式(21)所示。
Figure BDA0002038403970000145
上述S202是:训练深度神经网络模型中的一次正向传播过程。上述S203~S204的过程是:训练深度神经网络模型中的一次反向传播过程。在实际中,训练深度神经网络模型的过程需要按照S202~S204的过程迭代多次,在本实施例中,设置的迭代次数为10000次,即按照S202~S204的过程迭代10000次后所更新得到的深度神经网络模型,就是训练后的深度神经网络模型。
将训练样本中的植被光谱反射率数据输入该训练后的深度神经网络模型后,输出的叶面积指数是逼近训练样本中的叶面积指数,即训练后的深度神经网络模型中的网络参数已具备准确建立植被光谱反射率数据与叶面积指数间对应关系的能力。
对本申请实施例提供的深度神经网路模型训练后得到的训练后的深度神经网络模型,具有以下有益效果:
有益效果一、
由于本申请实施例提供的深度神经网络模型具有参数多,以及训练后的深度神经网络模型中的网络参数是在损失函数不断收敛的过程中更新得到的,因此,相对于现有技术的统计模型,本申请实施例提供的训练后的深度神经网络模型对叶面积指数的反演精度得到提高。
进一步的,因为输入深度神经网络模型的数据和需深度神经网络模型输出数据之间的数据维度相差较大,所以,从卷积层开始降维,即卷积层采用大于1的采样步幅,而如果采样步幅过大,会使得某些光谱反射率数据被漏掉,而违背提高精度的初衷,因此,卷积层的采样步幅取不大于卷积层使用的滤波器的尺度的数值中的最大值,以保证在降维的情况下,不明显降低精度。
有益效果二、
对本申请实施例提供的深度神经网络模型进行训练的训练样本为研究区的植被光谱反射率数据中的一部分,具体的,训练样本可以为研究区待反演的植被光谱反射率数据的1%,使得训练样本中的植被光谱反射率的数据量减少。由于训练样本中的植被光谱发射率数据是从研究区内的植被光谱反射率数据中随机抽取的,因此,采用训练样本训练得到的深度神经网络模型还可以保证对整个研究区内的植被光谱发射率数据反演的准确合理性,因此,随机采用整个研究区的植被光谱反射率数据中的一部分数据作为训练样本,既可以减小训练深度神经网络模型的计算量,还可以保证对整个研究区内的光谱反射率数据的反演准确合理性。
在本申请实施例中,采用研究区待反演的植被光谱反射率数据的0.14%作为训练样本对深度神经网络模型进行训练,得到训练后的深度神经网络模型。在本实施例中,以高光谱遥感影像EnMAP为例,以农作物为研究对象,其中,EnMAP遥感影像的大小为1000行×1000列×244光谱波段。采用训练后的深度神经网络模型对高光谱遥感影像中的植被光谱反射率数据进行叶面积指数反演。采用本申请实施例提供的训练后的深度神经网络模型的反演得到的叶面积指数的均方根误差RMSE和决定系数R2分别为0.42和0.93,采用传统的统计类模型对数模型,反演得到的叶面积指数的均方根误差RMSE和决定系数R2分别为1.07和0.53。采用指数模型反演得到叶面积指数的均方根误差RMSE和决定系数R2分别为1.07和0.52。因此,实验表明,采用本申请实施例提供的训练后的深度神经网络模型的反演得到的叶面积指数,具有更高的精度。
有益效果三、
在本申请实施例提供的深度神经网络模型包括池化层,以及第一个全连接层与第二个全连接层之间添加了Dropout,可以防止本申请实施例提供的深度神经网络模型出现过拟合现象。
有益效果四、
由于深度神经网络模型本身具有较好的抗噪性能,因此,将本申请提供的深度神经网络模型应用于叶面积指数的反演场景中,使得叶面积指数的反演结果的稳定性较高。
图3为本申请实施例提供的一种叶面积指数反演方法,包括以下步骤:
S301、获取遥感植被冠层光谱反射率数据。
在本实施例中,遥感植被冠层光谱反射率数据是指通过遥感获取的植被光谱反射率数据。
在本步骤中,遥感植被冠层光谱反射率数据是待反演得到叶面积指数的植被光谱反射率数据,即研究区的植被光谱反射率数据。
S302、将所获取的遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到该深度神经网络模型输出的叶面积指数。
在本步骤中,预设的深度神经网络模型为经过图2对应的训练过程得到的训练后的深度神经网络模型。
由于训练后的深度神经网络模型已具备准确建立光谱反射率数据与叶面积指数间的对应关系的能力,因此,在本步骤中,训练后的深度神经网络模型输出的叶面积指数是准确的。
由于本实施例中采用的深度神经网络模型是通过图1对应的训练过程训练得到的,因此,图2对应的训练过程所得到的深度神经网络模型所具有的有益效果,在本实施例都具有。
图4为本申请实施例提供的一种叶面积指数的反演装置,包括:获取模块401和输入模块402,其中,获取模块401,用于获取遥感植被冠层光谱反射率数据。输入模块402,用于将遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到深度神经网络模型输出的叶面积指数,深度神经网络模型至少包括卷积层,卷积层的采样步幅大于1,并且取不大于卷积层使用的滤波器的尺度的数值中的最大值。
可选的,预先训练的神经网络模型是采用训练样本训练得到;训练样本包括预设的植被光谱发射率数据,以及与预设的植被光谱反射率数据对应的叶面积指数,其中,预设的植被光谱反射率数据为遥感植被冠层光谱反射率数据的0.14%。
可选的,卷积层包括:第一个卷积层与第二个卷积层,第一个卷积层与第二个卷积层连接;第一卷积层的滤波器尺寸为1*3,采样步幅为3,通道数量为4,第二个卷积层的滤波器尺寸为1*3,采样步幅为3,通道数量为16。
可选的,深度神经网络模型还包括:一个池化层;第二个卷积层与池化层连接。
可选的,深度神经网络模型还包括:三个全连接层,分别为第一个全连接层,第二个全连接层与第三个全连接层;池化层与第一个全连接层连接,第一个全连接层输出的数据,输入Dropout中,Dropout输出的数据输入第二个全连接层,第二个全连接层与第三个全连接层连接。
可选的,第二个卷积层输出的数据输入预设的第一ReLU激活函数,第一ReLU激活函数输出的数据输入池化层,池化层输出的数据输入第一个全连接层,第一个全连接层输出的数据输入预设的第二ReLU激活函数,第二ReLU激活函数输出的数据输入Dropout,Dropout输出的数据输入第二个全连接层,第二个全连接层输出的数据输入预设的第三ReLU激活函数,第三ReLU激活函数输出的数据输入第三个全连接层,第三个全连接层输出的数据输入预设的Sigmoid函数。
本申请实施例方法所述的功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算设备可读取存储介质中。基于这样的理解,本申请实施例对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台计算设备(可以是个人计算机,服务器,移动计算设备或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种叶面积指数反演方法,其特征在于,包括:
获取遥感植被冠层光谱反射率数据;
将所述遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到所述深度神经网络模型输出的叶面积指数,所述深度神经网络模型至少包括卷积层,所述卷积层的采样步幅大于1,并且取不大于所述卷积层使用的滤波器的尺寸的数值中的最大值;
其中,所述卷积层包括:第一个卷积层与第二个卷积层,所述第一个卷积层与所述第二个卷积层连接;
所述第一卷积层的滤波器尺寸为1*3,采样步幅为3,所述第二个卷积层的滤波器尺寸为1*3,采样步幅为3;
其中,所述深度神经网络模型还包括:一个池化层;所述第二个卷积层与所述池化层连接;
其中,所述深度神经网络模型还包括:三个全连接层,分别为第一个全连接层,第二个全连接层与第三个全连接层;所述池化层与所述第一个全连接层连接,所述第一个全连接层输出的数据,输入随机失活(Dropout),所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层与所述第三个全连接层连接。
2.根据权利要求1所述的方法,其特征在于,所述预设的神经网络模型是采用训练样本训练得到;所述训练样本包括预设的植被光谱反射率数据,以及与所述预设的植被光谱反射率数据对应的叶面积指数;
所述预设的植被光谱反射率数据为在所述遥感植被冠层光谱反射率数据中的比例为0.14%的数据。
3.根据权利要求1所述的方法,其特征在于,所述第二个卷积层输出的数据输入预设的第一ReLU激活函数,所述第一ReLU激活函数输出的数据输入所述池化层,所述池化层输出的数据输入所述第一个全连接层,所述第一个全连接层输出的数据输入预设的第二ReLU激活函数,所述第二ReLU激活函数输出的数据输入所述Dropout,所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层输出的数据输入预设的第三ReLU激活函数,所述第三ReLU激活函数输出的数据输入所述第三个全连接层,所述第三个全连接层输出的数据输入预设的Sigmoid函数。
4.一种叶面积指数反演装置,其特征在于,包括:
获取模块,用于获取遥感植被冠层光谱反射率数据;
输入模块,用于将所述遥感植被冠层光谱反射率数据输入预先训练的深度神经网络模型,得到所述深度神经网络模型输出的叶面积指数,所述深度神经网络模型至少包括卷积层,所述卷积层的采样步幅大于1,并且取不大于所述卷积层使用的滤波器的尺寸的数值中的最大值;
其中,所述卷积层包括:第一个卷积层与第二个卷积层,所述第一个卷积层与所述第二个卷积层连接;
所述第一卷积层的滤波器尺寸为1*3,采样步幅为3,所述第二个卷积层的滤波器尺寸为1*3,采样步幅为3;
其中,所述深度神经网络模型还包括:一个池化层;所述第二个卷积层与所述池化层连接;
其中,所述深度神经网络模型还包括:三个全连接层,分别为第一个全连接层,第二个全连接层与第三个全连接层;所述池化层与所述第一个全连接层连接,所述第一个全连接层输出的数据,输入Dropout中,所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层与所述第三个全连接层连接。
5.根据权利要求4所述的装置,其特征在于,所述预先训练的神经网络模型采用训练样本训练得到;所述训练样本包括预设的植被光谱反射率数据,以及与所述预设的植被光谱反射率数据对应的叶面积指数;
所述预设的植被光谱反射率数据为在所述遥感植被冠层光谱反射率数据中的比例为0.14%的数据。
6.根据权利要求4所述的装置,其特征在于,所述第二个卷积层输出的数据输入预设的第一ReLU激活函数,所述第一ReLU激活函数输出的数据输入所述池化层,所述池化层输出的数据输入所述第一个全连接层,所述第一个全连接层输出的数据输入预设的第二ReLU激活函数,所述第二ReLU激活函数输出的数据输入所述Dropout,所述Dropout输出的数据输入所述第二个全连接层,所述第二个全连接层输出的数据输入预设的第三ReLU激活函数,所述第三ReLU激活函数输出的数据输入所述第三个全连接层,所述第三个全连接层输出的数据输入预设的Sigmoid函数。
CN201910333471.7A 2019-04-24 2019-04-24 一种叶面积指数反演方法及装置 Active CN109975250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910333471.7A CN109975250B (zh) 2019-04-24 2019-04-24 一种叶面积指数反演方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910333471.7A CN109975250B (zh) 2019-04-24 2019-04-24 一种叶面积指数反演方法及装置

Publications (2)

Publication Number Publication Date
CN109975250A CN109975250A (zh) 2019-07-05
CN109975250B true CN109975250B (zh) 2020-03-24

Family

ID=67086055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910333471.7A Active CN109975250B (zh) 2019-04-24 2019-04-24 一种叶面积指数反演方法及装置

Country Status (1)

Country Link
CN (1) CN109975250B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110544277B (zh) * 2019-08-12 2023-01-10 蔡建楠 一种无人机载高光谱成像仪反演亚热带植被叶面积指数的方法
CN110579186B (zh) * 2019-08-26 2020-07-21 中国农业大学 基于逆高斯过程反演叶面积指数的农作物长势监测方法
CN111814707B (zh) * 2020-07-14 2022-09-23 中国科学院空天信息创新研究院 一种作物叶面积指数反演方法及装置
CN112560661A (zh) * 2020-12-10 2021-03-26 首都师范大学 叶面积指数的计算方法、装置、电子设备及可读存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10008035B1 (en) * 2015-05-18 2018-06-26 Blue River Technology Inc. System and method of virtual plant field modelling
CN106951836B (zh) * 2017-03-05 2019-12-13 北京工业大学 基于先验阈值优化卷积神经网络的作物覆盖度提取方法
CN107464260A (zh) * 2017-07-06 2017-12-12 山东农业大学 一种采用无人机的水稻冠层图像处理方法
US11263707B2 (en) * 2017-08-08 2022-03-01 Indigo Ag, Inc. Machine learning in agricultural planting, growing, and harvesting contexts
CN108764005B (zh) * 2018-01-31 2019-06-18 华侨大学 一种高光谱遥感图像地物空间波谱特征提取方法及系统
CN108334937A (zh) * 2018-02-06 2018-07-27 大连海事大学 一种基于卷积神经网络的水上油膜相对厚度提取方法及系统
CN109344891A (zh) * 2018-09-21 2019-02-15 北京航空航天大学 一种基于深度神经网络的高光谱遥感数据分类方法
CN109389106B (zh) * 2018-12-20 2021-06-08 中国地质大学(武汉) 一种基于3d卷积神经网络的高光谱图像解混方法及系统
CN109670509A (zh) * 2019-01-04 2019-04-23 中国农业大学 基于卷积神经网络的冬小麦苗期长势参数估算方法及系统

Also Published As

Publication number Publication date
CN109975250A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
CN109975250B (zh) 一种叶面积指数反演方法及装置
CN110969251B (zh) 基于无标签数据的神经网络模型量化方法及装置
WO2020019236A1 (en) Loss-error-aware quantization of a low-bit neural network
CN109754063A (zh) 用于学习低精度神经网络的方法及装置
CN111507521B (zh) 台区电力负荷预测方法及预测装置
CN111080397A (zh) 信用评估方法、装置及电子设备
CN110799995A (zh) 数据识别器训练方法、数据识别器训练装置、程序及训练方法
CN110889547B (zh) 一种作物生育期预测方法及装置
CN109740734B (zh) 一种利用优化神经元空间排布的卷积神经网络的图像分类方法
US11657285B2 (en) Methods, systems, and media for random semi-structured row-wise pruning in neural networks
CN113379042B (zh) 保护数据隐私的业务预测模型训练方法及装置
US20220300823A1 (en) Methods and systems for cross-domain few-shot classification
CN110135681A (zh) 风险用户识别方法、装置、可读存储介质及终端设备
CN104679868B (zh) 一种基于数据间关联关系的遗漏数据填补方法
CN113762468A (zh) 一种基于缺失数据的分类模型生成方法
CN110782019A (zh) 基于分解和剪枝的卷积神经网络压缩方法、系统、装置
JPWO2019146189A1 (ja) ニューラルネットワークのランク最適化装置および最適化方法
CN110390561A (zh) 基于动量加速随机梯度下降的用户-金融产品选用倾向高速预测方法和装置
Ngufor et al. Extreme logistic regression
US20200151570A1 (en) Training System for Artificial Neural Networks Having a Global Weight Constrainer
CN111242284A (zh) 预测方法及装置
CN111932091A (zh) 一种基于梯度生存提升树的生存分析风险函数预测方法
CN113011532A (zh) 分类模型训练方法、装置、计算设备及存储介质
CN116188878A (zh) 基于神经网络结构微调的图像分类方法、装置和存储介质
CN117408736A (zh) 基于改进的Stacking融合算法的企业资金需求挖掘方法和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant