CN115049945A - 一种基于无人机图像的小麦倒伏面积提取方法和装置 - Google Patents

一种基于无人机图像的小麦倒伏面积提取方法和装置 Download PDF

Info

Publication number
CN115049945A
CN115049945A CN202210658126.2A CN202210658126A CN115049945A CN 115049945 A CN115049945 A CN 115049945A CN 202210658126 A CN202210658126 A CN 202210658126A CN 115049945 A CN115049945 A CN 115049945A
Authority
CN
China
Prior art keywords
wheat
image
rgb
lodging
digital surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210658126.2A
Other languages
English (en)
Other versions
CN115049945B (zh
Inventor
杨宝华
崔强
朱月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Agricultural University AHAU
Original Assignee
Anhui Agricultural University AHAU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Agricultural University AHAU filed Critical Anhui Agricultural University AHAU
Priority to CN202210658126.2A priority Critical patent/CN115049945B/zh
Publication of CN115049945A publication Critical patent/CN115049945A/zh
Application granted granted Critical
Publication of CN115049945B publication Critical patent/CN115049945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于无人机图像的小麦倒伏面积提取方法和装置,该方法包括:1获取田间的小麦RGB图像数据,并进行拼接、裁剪和标注,得到研究区域图和标签数据;2利用小麦研究区域的RGB图像得到小麦数字表面模型图像,融合小麦RGB图像和数字表面模型图像,得到小麦RGB‑数字表面模型图像;3基于深度学习构建小麦倒伏分割模型,包括空间路径、上下文路径和特征融合模块,其中,上下文路径包括ResNet18网络和金字塔切分注意力;4通过小麦RGB‑数字表面模型图像数据训练小麦倒伏分割模型,并对小麦图像进行倒伏区域的分割,从而利用分割结果估算倒伏区域面积,解决现有小麦倒伏面积提取方法的误差和准确率较低的问题。

Description

一种基于无人机图像的小麦倒伏面积提取方法和装置
技术领域
本发明涉及图像处理的技术领域,尤其是涉及一种基于无人机图像的小麦倒伏面积提取方法和装置。
背景技术
倒伏是造成小麦减产的主要因素之一,准确快速地提取小麦倒伏,为小麦抗倒伏育种、灾后评估和倒伏影响因素分析等工作提供了重要依据。目前的小麦倒伏区域提取方法主要依赖于遥感技术,但遥感技术无法及时准确地获取小麦倒伏信息,性能有限;部分技术基于深度学习分割模型进行小麦倒伏区域提取,仍然存在分割效果不够精细的问题,在小麦田间复杂场景下的适用性不高;在小麦图像中融入高程信息,能够提高倒伏区域分割的准确度,进而计算出小麦倒伏区域的面积。
在现有基于深度学习进行小麦倒伏分割的技术中,大多依赖于大量的标签数据,并且无法充分利用无标签数据的信息,导致小麦倒伏区域分割工作的效率低下。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于无人机图像的小麦倒伏面积提取方法和装置,以期能快速准确地获取小麦图像中的倒伏区域面积,从而能解决现有小麦倒伏面积提取方法的误差和准确率较低的问题。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于无人机图像的小麦倒伏面积提取方法的特点在于,包括:
步骤1、通过无人机航拍的方式,得到小麦研究区域中每个田间的小麦RGB图像数据,并对每个田间的小麦RGB图像数据进行拼接、裁剪和标注,从而得到所述小麦研究区域的RGB图像及其相应的标签图像;
步骤2、对小麦研究区域的RGB图像进行提取,获得小麦单通道数字表面模型图像,并将RGB图像和小麦单通道数字表面模型图像进行融合,得到小麦RGB-数字表面模型图像;
步骤3、对小麦RGB-数字表面模型图像和所述标签图像分别进行随机裁剪和数据增强操作,并构成图像-标签对数据集;
步骤4、构建基于深度学习的小麦倒伏分割模型,并利用所述图像-标签对数据集训练所述小麦倒伏分割模型,得到训练后的小麦倒伏分割模型,从而确定所述小麦研究区域的小麦RGB-数字表面模型中倒伏区域的位置和范围。
本发明所述的基于无人机图像的小麦倒伏面积提取方法的特点也在于,所述步骤1中的拼接、裁剪和标注包括:
步骤1.1、将第n个田间的小麦RGB图像数据记为In,基于无人机拍摄高度信息、角度信息与飞行速度信息,得到第n个田间的小麦RGB图像数据In与第n+1个田间的小麦RGB图像数据In+1之间变化关系的仿射变换矩阵,从而利用所述仿射变换矩阵,对所述第n个田间的小麦RGB图像数据In与所述第n+1个田间的小麦RGB图像数据In+1进行拼接,得到拼接后的第n张RGB图像;
步骤1.2,将第n张RGB图像作为第n+1个田间的小麦RGB图像数据In+1后,将n+1赋值给n,并返回步骤1.1执行,直到n>N为止,从而得到第N张RGB图像并作为小麦研究区域的RGB图像;N表示小麦研究区域中的田间小麦图像数量;
步骤1.3、对小麦研究区域的RGB图像中的倒伏区域进行标注,从而得到标签图像。
所述步骤2中的融合操作包括:
步骤2.1、利用小麦研究区域的RGB图像生成稀疏点云,并利用密集点云计算方法对所述稀疏点云进行处理,生成密集点云数据;
步骤2.2、对所述密集点云数据进行三维重建处理,得到对应的小麦单通道数字表面模型图像;
步骤2.3、将小麦研究区域的RGB图像分解为RGB三个单通道的特征图像VR、VG和VB,将所述小麦单通道数字表面模型图像记为单个特征图像VD,首先,将VR与VD进行加权平均融合,得到融合图像VRD,然后将融合图像VRD与VG进行加权平均融合,得到融合图像VRGD,最后将融合图像VRGD与VB进行加权平均融合,得到融合图像VRGBD,从而得到小麦RGB-数字表面模型图像;
其中,加权平均融合过程如式(1)所示:
X(li,lj)=σ1Y(li,lj)+σ2Z(li,lj) (1)
式(1)中,li表示图像中像素的行号,li=1,2...L,lj表示图像中像素的列号,lj=1,2...R,σ1表示加权系数1,σ2表示加权系数2,且σ12=1;X表示融合后的图像,Y表示其中一个待融合的图像,Z表示另一个待融合的图像,L表示图像中像素的行数,R表示图像中像素的列数。
所述小麦倒伏分割模型的训练步骤包括:
步骤4.1、将所述图像-标签对数据集输入小麦倒伏分割模型中进行训练,得到初步训练的小麦倒伏分割模型M1
步骤4.2、将小麦RGB-数字表面模型图像划分为第一数据集DU1和第二数据集DU2
步骤4.3、将第一数据集DU1输入训练所述初步训练的小麦倒伏分割模型M1中,并获得相应的预测结果,记为伪标签D′U1,并与所述第一数据集DU1配对后,加入图像-标签对数据集中,从而构成新的训练集;
步骤4.4、基于新的训练集,重新对小麦倒伏分割模型进行训练,得到更新后的小麦倒伏分割模型M2
步骤4.5、将第二数据集DU2输入更新后的小麦倒伏分割模型M2中,并获得相应的预测结果,记为伪标签D′U2,并与所述第二数据集DU2配对后,加入新的训练集中,从而构成更新后的训练集;
步骤4.6、基于更新后的训练集,重新对小麦倒伏分割模型进行训练,从而得到最终的训练后的小麦倒伏分割模型M3
步骤4.7、将小麦研究区域的RGB图像输入所述训练后的小麦倒伏分割模型M3中,并输出倒伏区域的位置和范围,再根据小麦研究区域的RGB图像中倒伏区域像素数量和实测研究区面积之间的关系,计算小麦研究区域中小麦倒伏区域的面积。
所述小麦倒伏分割模型包括空间路径、上下文路径和特征融合模块;
所述空间路径包括:m个下采样层,其中,每个下采样层包括n个卷积层、n个批归一化层和n个激活层;其中,每个卷积层分别与一个批归一化层和一个激活层依次连接并组成一个下采样块;从而由n个下采样块依次连接构成下采样层;
将i个小麦RGB-数字表面模型图像{X1,X2,...,Xi}输入所述小麦倒伏分割模型中,并依次经过所述空间路径中的m个下采样层的处理后,得到空间路径中的特征图MS,其中,Xi表示第i个小麦RGB-数字表面模型图像;
所述上下文路径中包括:ResNet18网络和金字塔切分注意力单元;
所述ResNet18网络包括:p个残差模块,其中,每个残差模块包括q+1个卷积层,q个批归一化层和q个激活层;其中,每个卷积层依次连接一个批归一化层和一个激活层后构成一个残差块,再由q个残差块依次连接后与第q+1个卷积层连接构成一个残差模块;
将i个小麦RGB-数字表面模型图像{X1,X2,...,Xi}输入所述小麦倒伏分割模型中,并经过上下文路径中的ResNet18网络的处理后,得到小麦RGB-数字表面模型图像的特征图{X′1,X′2,...,X′i};其中,X′i表示第i个小麦RGB-数字表面模型图像的特征图;
所述金字塔切分注意力单元包括:分裂与合并模块、压缩激励模块、Softmax层和点乘模块;其中,所述分裂与合并模块中包含i个卷积层和分组卷积层,且每个卷积层的卷积核尺寸记为{K1,K2,...,Ki},每个分组卷积层的分组数量为{G1,G2,...,Gi},Ki表示第i个卷积核的尺寸,Gi表示第i个分组卷积层的分组数量;
将小麦RGB-数字表面模型图像的特征图{X′1,X′2,...,X′i}输入所述金字塔切分注意力单元中,并先经过分裂与合并模块进行通道维度上的切分,得到S组小麦RGB-数字表面模型图像特征图{X′0,X′1,...,X′S-1};其中,X′S-1表示第S-1组小麦RGB-数字表面模型图像特征图;
所述S组小麦RGB-数字表面模型图像特征图{X′0,X′1,...,X′S-1}输入所述分裂与合并模块中,并利用式(2)得到不同尺度的小麦RGB-数字表面模型图像特征图{F0,F1,...,Fi,...,FS-1},从而利用式(3)得到拼接后的小麦RGB-数字表面模型图像的特征图F;
Fi=Conv(Ki×Ki,Gi)×(Xi),i=0,1,...,S-1 (2)
F=Cat([F0,F1,...,Fi,...,FS-1]) (3)
式(2)和式(3)中,Conv为卷积操作,Cat为拼接操作;
所述压缩激励模块对拼接后的小麦RGB-数字表面模型图像的特征图F进行通道注意力提取,得到不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1,Z2,...Zi};其中,Zi表示第i个通道注意力向量;
所述Softmax层对将不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1,Z2,...Zi}进行拼接和重新加权,得到重新加权后的不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z′1,Z′2,...Z′i};其中,Z′i表示重新加权后的第i个通道注意力向量;
所述点乘模块将重新加权后的不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z′1,Z′2,...Z′i}与拼接后的小麦RGB-数字表面模型图像的特征图F按元素进行点乘处理,得到上下文路径中的特征图MC
所述特征融合模块包括:n个拼接层、n个卷积层、n个批归一化层、n个激活层和n个全局池化层;其中,每个拼接层分别依次连接一个卷积层、一个批归一化层、一个激活层和一个全局池化层并构成一个融合块,从而由n个融合块依次连接构成特征融合模块;
所述特征融合模块对空间路径中的特征图MS和上下文路径中的特征图MC进行拼接融合处理,得到预测结果。
本发明一种基于无人机图像的小麦倒伏面积提取装置的特点在于,包括:数据获取模块、图像融合模块、模型构建模块和倒伏面积提取模块,其中,
所述数据获取模块,用于获取田间小麦RGB图像数据,并对所述小麦图像数据进行拼接、裁剪和标注,得到小麦研究区域的RGB图像和相应的标签图像;
所述图像融合模块,用于利用小麦研究区域的RGB图像获得相应的小麦单通道数字表面模型图像,并对所述两种图像进行融合,得到小麦RGB-数字表面模型图像;
所述模型构建模块,用于通过深度学习框架构建小麦倒伏区域分割模型,并利用所述小麦RGB-数字表面模型图像数据进行训练;
所述倒伏分割模块,用于通过所述小麦RGB-数字表面模型图像数据训练分割模型进行倒伏区域分割,确定出所述小麦图像中倒伏区域的位置和范围;
所述倒伏面积提取模块,用于通过所述倒伏分割结果,计算出小麦倒伏区域面积。
与现有技术相比,本发明的有益效果在于:
1、本发明使用空间路径、上下文路径和特征融合模块构成的小麦倒伏分割模型,将小麦RGB-数字表面模型图像作为输入,采用半监督学习训练方法,准确地提取了小麦倒伏区域的位置和大小,并计算出倒伏面积。从而解决了在进行小麦倒伏分割的技术中,过于依赖标签数据,而在数据处理过程中却无法充分利用无标签数据的信息,导致小麦倒伏区域分割工作效率低下的问题。
2、本发明是将小麦RGB-数字表面模型图像作为输入,增加了小麦倒伏的高程信息。将小麦研究区的RGB图像和单通道数字表面模型图像进行融合,得到小麦RGB-数字表面模型图像,输入到小麦倒伏分割模型中,充分利用了单通道数字表面模型图像中的高程信息,从而提高了小麦倒伏区域分割的精度。
3、本发明使用金字塔切分注意力进行多尺度特征的提取,获得了不同尺度的小麦倒伏特征信息。将小麦RGB-数字表面模型图像的特征图进行切分,同时使用不同尺寸的卷积核和不同分组数量的分组卷积进行特征提取,并通过压缩激励模块和Softmax层得到归一化注意力特征,最终进行拼接处理获得多尺度倒伏特征,使小麦倒伏区域分割的结果更加准确。
4、本发明使用半监督学习方法进行小麦倒伏分割模型的训练,节约了标注时间。将小麦RGB-数字表面模型图像划分为第一数据集和第二数据集,使用第一数据集训练小麦倒伏分割模型并预测出倒伏分割结果,记为伪标签,加入图像-标签对数据集中,从而构成新的训练集,更新小麦倒伏分割模型,第二数据集按照同样的方法进行处理,得到最终的小麦倒伏分割模型,充分利用了无标签数据辅助分割模型进行训练,提高了小麦倒伏区域分割的效率。
附图说明
图1为本发明一种基于无人机图像的小麦倒伏面积提取方法的流程图;
图2为本发明一种基于无人机图像的小麦倒伏面积提取装置的示意图。
具体实施方式
本实施例中,一种基于无人机图像的小麦倒伏面积提取方法,如图1所示,该方法包括如下步骤:
步骤一、通过无人机航拍的方式,得到小麦研究区域中每个田间的小麦RGB图像数据,并对每个田间的小麦RGB图像数据进行拼接、裁剪和标注,从而得到小麦研究区域的RGB图像及其相应的标签图像;
步骤1.1、将第n个田间的小麦RGB图像数据记为In,基于无人机拍摄高度信息、角度信息与飞行速度信息,得到第n个田间的小麦RGB图像数据In与第n+1个田间的小麦RGB图像数据In+1之间变化关系的仿射变换矩阵,从而利用仿射变换矩阵,对第n个田间的小麦RGB图像数据In与第n+1个田间的小麦RGB图像数据In+1进行拼接,得到拼接后的第n张RGB图像;
步骤1.2,将第n张RGB图像作为第n+1个田间的小麦RGB图像数据In+1后,将n+1赋值给n,并返回步骤1.1执行,直到n>N为止,从而得到第N张RGB图像并作为小麦研究区域的RGB图像;N表示小麦研究区域中的田间小麦图像数量;
步骤1.3、对小麦研究区域的RGB图像中的倒伏区域进行标注,从而得到标签图像。
步骤二、对小麦研究区域的RGB图像进行提取,获得小麦单通道数字表面模型图像,并将RGB图像和小麦单通道数字表面模型图像进行融合,得到小麦RGB-数字表面模型图像;
步骤2.1、利用小麦研究区域的RGB图像生成稀疏点云,并利用密集点云计算方法对稀疏点云进行处理,生成密集点云数据;
该密集点云计算方法的公式如式(1)所示:
Figure BDA0003689225690000061
式(1)中,pointcloud_dense为点云密集度,(xmax-xmin)、(ymax-ymin)为密集点云数据的范围,Mp为密集点云数据的点数目,G为常数。
步骤2.2、对密集点云数据进行三维重建处理,得到对应的小麦单通道数字表面模型图像;
步骤2.3、将小麦研究区域的RGB图像分解为RGB三个单通道的特征图像VR、VG和VB,将所述小麦单通道数字表面模型图像记为单个特征图像VD,首先,将VR与VD进行加权平均融合,得到融合图像VRD,然后将融合图像VRD与VG进行加权平均融合,得到融合图像VRGD,最后将融合图像VRGD与VB进行加权平均融合,得到融合图像VRGBD,从而得到小麦RGB-数字表面模型图像。
其中,加权平均融合过程如式(2)所示:
X(li,lj)=σ1Y(li,lj)+σ2Z(li,lj) (2)
式(2)中,li表示图像中像素的行号,li=1,2...L,nj表示图像中像素的列号,lj=1,2...R,σ1表示加权系数1,σ2表示加权系数2,且σ12=1;X表示融合后的图像,Y表示第一个待融合的图像,Z表示第二个待融合的图像,L表示图像中像素的最后一行,R表示图像中像素的最后一列。
步骤三、对小麦RGB-数字表面模型图像和标签图像分别进行随机裁剪和数据增强操作,并构成图像-标签对数据集;
其中,随机裁剪大小为256×256像素,数据增强操作包括:小麦RGB-数字表面模型图像和相应标签图均旋转90°,180°,270°;小麦RGB-数字表面模型图像做模糊操作;小麦RGB-数字表面模型图像做光照调整操作;小麦RGB-数字表面模型图像做增加高斯噪声、椒盐噪声操作。
步骤四、构建基于深度学习的小麦倒伏分割模型,并利用图像-标签对数据集训练小麦倒伏分割模型,得到训练后的小麦倒伏分割模型,从而确定小麦研究区域的小麦RGB-数字表面模型中倒伏区域的位置和范围。
步骤4.1、将图像-标签对数据集输入小麦倒伏分割模型中进行训练,得到初步训练的小麦倒伏分割模型M1
步骤4.2、将小麦RGB-数字表面模型图像划分为第一数据集DU1和第二数据集DU2
步骤4.3、将第一数据集DU1输入训练初步训练的小麦倒伏分割模型M1中,并获得相应的预测结果,记为伪标签D′U1,并与第一数据集DU1配对后,加入图像-标签对数据集中,从而构成新的训练集;
步骤4.4、基于新的训练集,重新对小麦倒伏分割模型进行训练,得到更新后的小麦倒伏分割模型M2
步骤4.5、将第二数据集DU2输入更新后的小麦倒伏分割模型M2中,并获得相应的预测结果,记为伪标签D′U2,并与第二数据集DU2配对后,加入新的训练集中,从而构成更新后的训练集;
步骤4.6、基于更新后的训练集,重新对小麦倒伏分割模型进行训练,从而得到最终的训练后的小麦倒伏分割模型M3
步骤4.7、将小麦研究区域的RGB图像输入训练后的小麦倒伏分割模型M3中,并输出倒伏区域的位置和范围,再根据小麦研究区域的RGB图像中倒伏区域像素数量和实测研究区面积之间的关系,计算小麦研究区域中小麦倒伏区域的面积。
其中,小麦倒伏分割模型包括:空间路径、上下文路径和特征融合模块;
空间路径包括:m个下采样层,其中每个下采样层包括:n个卷积层、n个批归一化层和n个激活层;其中,其中,每个卷积层分别与一个批归一化层和一个激活层依次连接并组成一个下采样块;从而由n个下采样块依次连接构成下采样层;本实施例中,卷积层中的卷积核尺寸为3×3,后接批归一化层与激活层,构成完整的下采样层;
将i个小麦RGB-数字表面模型图像{X1,X2,...,Xi}输入小麦倒伏分割模型中,经过空间路径中的m个下采样层,得到空间路径中的特征图MS,其中,Xi表示第i个小麦RGB-数字表面模型图像;
上下文路径中包括:ResNet18网络和金字塔切分注意力单元;
ResNet18网络包括:p个残差模块,其中,每个残差模块包括q+1个卷积层,q个批归一化层和q个激活层;其中,每个卷积层依次连接一个批归一化层和一个激活层后构成一个残差块,再由q个残差块依次连接后与第q+1个卷积层连接构成一个残差模块;本实施例中,每个卷积核大小为3×3的卷积层后接批归一化层和激活层,再接一个卷积核大小为1×1的卷积层变化输入形状后进行相加运算;
本实施例中,ResNet18网络包含17个卷积层和一个全连接层;ResNet18网络在第2、3、4残差层使用1×1大小的卷积进行了下采样,共进行5次下采样。ResNet18网络中的残差结构将输入特征图x直接由短连接引入到非线性层的输出上,使得整个残差模块的映射变为:
y=f(x,ω)+x (2)
式(2)中,x为残差模块的输入,f(x,ω)为残差模块中常规卷积操作的映射,y为残差模块的输出;在残差结构中,通过短连接使输入特征x不经过卷积操作直接传到输出中;当f(x,ω)=0时,有y=x,此时残差结构从学习卷积模块的整体输出变为学习预测值y与输入x的差值。
将i个小麦RGB-数字表面模型图像{X1,X2,...,Xi}输入小麦倒伏分割模型中,经过上下文路径中的ResNet18网络,得到小麦RGB-数字表面模型图像的特征图{X′1,X′2,...,X′i};其中,Xi′表示第i个小麦RGB-数字表面模型图像的特征图;
金字塔切分注意力单元包括:分裂与合并模块、压缩激励模块、Softmax层和点乘模块;其中,分裂与合并模块中包含i个卷积层和分组卷积层,且每个卷积层的卷积核尺寸记为{K1,K2,...,Ki},每个分组卷积层的分组数量为{G1,G2,...,Gi},Ki表示第i个卷积核的尺寸,Gi表示第i个分组卷积层的分组数量;本实例中卷积核尺寸大小为3,5,7,9,分组数量为1,2,3,4;
将小麦RGB-数字表面模型图像的特征图{X′1,X′2,...,X′i}输入金字塔切分注意力单元中,并先经过分裂与合并模块进行通道维度上的切分,得到S组小麦RGB-数字表面模型图像特征图{X′0,X′1,...,X′S-1};X′S-1表示第S-1组小麦RGB-数字表面模型图像特征图;
S组小麦RGB-数字表面模型图像特征图{X′0,X′1,...,X′S-1}输入分裂与合并模块中,并利用式(3)得到不同尺度的小麦RGB-数字表面模型图像特征图{F0,F1,...,Fi,...,FS-1},从而利用式(4)得到拼接后的小麦RGB-数字表面模型图像特征图F;
Fi=Conv(Ki×Ki,Gi)×(Xi),i=0,1,...,S-1 (3)
F=Cat([F0,F1,...,Fi,...,FS-1]) (4)
式(3)和式(4)中,Conv为卷积操作,Cat为拼接操作;
压缩激励模块对拼接后的小麦RGB-数字表面模型图像特征图F进行通道注意力提取,得到不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1,Z2,...Zi};其中,Zi表示第i个通道注意力向量;
Softmax层对将不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1,Z2,...Zi}进行拼接和重新加权,得到重新加权后的不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z′1,Z′2,...Z′i};其中,Z′i表示重新加权后的第i个通道注意力向量;
点乘模块将重新加权后的不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z′1,Z′2,...Z′i}与拼接后的小麦RGB-数字表面模型图像的特征图F按元素进行点乘处理,得到上下文路径中的特征图MC
特征融合模块包括:n个拼接层、n个卷积层、n个批归一化层、n个激活层和n个全局池化层;其中,其中,每个拼接层分别依次连接一个卷积层、一个批归一化层、一个激活层和一个全局池化层并构成一个融合块,从而由n个融合块依次连接构成特征融合模块;本实施例中,拼接层后接卷积核大小为3×3的卷积层、批归一化层和激活层,再接全局池化层后进行sigmoid归一化拼接处理;
特征融合模块对空间路径中的特征图MS和上下文路径中的特征图MC进行拼接融合处理,得到预测结果。
本实施例中,一种基于无人机图像的小麦倒伏面积提取装置,如图2所示,包括:数据获取模块、图像融合模块、模型构建模块和倒伏面积提取模块,其中,
数据获取模块,用于获取田间小麦RGB图像数据,并对小麦图像数据进行拼接、裁剪和标注,得到小麦研究区域的RGB图像和相应的标签图像;
图像融合模块,用于利用小麦研究区域的RGB图像获得相应的小麦单通道数字表面模型图像,并对两种图像进行融合,得到小麦RGB-数字表面模型图像;
模型构建模块,用于通过深度学习框架构建小麦倒伏区域分割模型,并利用小麦RGB-数字表面模型图像数据进行训练;
倒伏分割模块,用于通过小麦RGB-数字表面模型图像数据训练分割模型进行倒伏区域分割,确定出小麦图像中倒伏区域的位置和范围;
倒伏面积提取模块,用于通过倒伏分割结果,计算出小麦倒伏区域面积。

Claims (6)

1.一种基于无人机图像的小麦倒伏面积提取方法,其特征在于,包括:
步骤1、通过无人机航拍的方式,得到小麦研究区域中每个田间的小麦RGB图像数据,并对每个田间的小麦RGB图像数据进行拼接、裁剪和标注,从而得到所述小麦研究区域的RGB图像及其相应的标签图像;
步骤2、对小麦研究区域的RGB图像进行提取,获得小麦单通道数字表面模型图像,并将RGB图像和小麦单通道数字表面模型图像进行融合,得到小麦RGB-数字表面模型图像;
步骤3、对小麦RGB-数字表面模型图像和所述标签图像分别进行随机裁剪和数据增强操作,并构成图像-标签对数据集;
步骤4、构建基于深度学习的小麦倒伏分割模型,并利用所述图像-标签对数据集训练所述小麦倒伏分割模型,得到训练后的小麦倒伏分割模型,从而确定所述小麦研究区域的小麦RGB-数字表面模型中倒伏区域的位置和范围。
2.根据权利1所述的基于无人机图像的小麦倒伏面积提取方法,其特征在于,所述步骤1中的拼接、裁剪和标注包括:
步骤1.1、将第n个田间的小麦RGB图像数据记为In,基于无人机拍摄高度信息、角度信息与飞行速度信息,得到第n个田间的小麦RGB图像数据In与第n+1个田间的小麦RGB图像数据In+1之间变化关系的仿射变换矩阵,从而利用所述仿射变换矩阵,对所述第n个田间的小麦RGB图像数据In与所述第n+1个田间的小麦RGB图像数据In+1进行拼接,得到拼接后的第n张RGB图像;
步骤1.2,将第n张RGB图像作为第n+1个田间的小麦RGB图像数据In+1后,将n+1赋值给n,并返回步骤1.1执行,直到n>N为止,从而得到第N张RGB图像并作为小麦研究区域的RGB图像;N表示小麦研究区域中的田间小麦图像数量;
步骤1.3、对小麦研究区域的RGB图像中的倒伏区域进行标注,从而得到标签图像。
3.根据权利1所述的基于无人机图像的小麦倒伏面积提取方法,其特征在于,所述步骤2中的融合操作包括:
步骤2.1、利用小麦研究区域的RGB图像生成稀疏点云,并利用密集点云计算方法对所述稀疏点云进行处理,生成密集点云数据;
步骤2.2、对所述密集点云数据进行三维重建处理,得到对应的小麦单通道数字表面模型图像;
步骤2.3、将小麦研究区域的RGB图像分解为RGB三个单通道的特征图像VR、VG和VB,将所述小麦单通道数字表面模型图像记为单个特征图像VD,首先,将VR与VD进行加权平均融合,得到融合图像VRD,然后将融合图像VRD与VG进行加权平均融合,得到融合图像VRGD,最后将融合图像VRGD与VB进行加权平均融合,得到融合图像VRGBD,从而得到小麦RGB-数字表面模型图像;
其中,加权平均融合过程如式(1)所示:
X(li,lj)=σ1Y(li,lj)+σ2Z(li,lj) (1)
式(1)中,li表示图像中像素的行号,li=1,2...L,lj表示图像中像素的列号,lj=1,2...R,σ1表示加权系数1,σ2表示加权系数2,且σ12=1;X表示融合后的图像,Y表示其中一个待融合的图像,Z表示另一个待融合的图像,L表示图像中像素的行数,R表示图像中像素的列数。
4.根据权利1所述的基于无人机图像的小麦倒伏面积提取方法,其特征在于,所述小麦倒伏分割模型的训练步骤包括:
步骤4.1、将所述图像-标签对数据集输入小麦倒伏分割模型中进行训练,得到初步训练的小麦倒伏分割模型M1
步骤4.2、将小麦RGB-数字表面模型图像划分为第一数据集DU1和第二数据集DU2
步骤4.3、将第一数据集DU1输入训练所述初步训练的小麦倒伏分割模型M1中,并获得相应的预测结果,记为伪标签D′U1,并与所述第一数据集DU1配对后,加入图像-标签对数据集中,从而构成新的训练集;
步骤4.4、基于新的训练集,重新对小麦倒伏分割模型进行训练,得到更新后的小麦倒伏分割模型M2
步骤4.5、将第二数据集DU2输入更新后的小麦倒伏分割模型M2中,并获得相应的预测结果,记为伪标签D′U2,并与所述第二数据集DU2配对后,加入新的训练集中,从而构成更新后的训练集;
步骤4.6、基于更新后的训练集,重新对小麦倒伏分割模型进行训练,从而得到最终的训练后的小麦倒伏分割模型M3
步骤4.7、将小麦研究区域的RGB图像输入所述训练后的小麦倒伏分割模型M3中,并输出倒伏区域的位置和范围,再根据小麦研究区域的RGB图像中倒伏区域像素数量和实测研究区面积之间的关系,计算小麦研究区域中小麦倒伏区域的面积。
5.根据权利4所述的基于无人机图像的小麦倒伏面积提取方法,其特征在于,所述小麦倒伏分割模型包括空间路径、上下文路径和特征融合模块;
所述空间路径包括:m个下采样层,其中,每个下采样层包括n个卷积层、n个批归一化层和n个激活层;其中,每个卷积层分别与一个批归一化层和一个激活层依次连接并组成一个下采样块;从而由n个下采样块依次连接构成下采样层;
将i个小麦RGB-数字表面模型图像{X1,X2,...,Xi}输入所述小麦倒伏分割模型中,并依次经过所述空间路径中的m个下采样层的处理后,得到空间路径中的特征图MS,其中,Xi表示第i个小麦RGB-数字表面模型图像;
所述上下文路径中包括:ResNet18网络和金字塔切分注意力单元;
所述ResNet18网络包括:p个残差模块,其中,每个残差模块包括q+1个卷积层,q个批归一化层和q个激活层;其中,每个卷积层依次连接一个批归一化层和一个激活层后构成一个残差块,再由q个残差块依次连接后与第q+1个卷积层连接构成一个残差模块;
将i个小麦RGB-数字表面模型图像{X1,X2,...,Xi}输入所述小麦倒伏分割模型中,并经过上下文路径中的ResNet18网络的处理后,得到小麦RGB-数字表面模型图像的特征图{X′1,X′2,...,X′i};其中,X′i表示第i个小麦RGB-数字表面模型图像的特征图;
所述金字塔切分注意力单元包括:分裂与合并模块、压缩激励模块、Softmax层和点乘模块;其中,所述分裂与合并模块中包含i个卷积层和分组卷积层,且每个卷积层的卷积核尺寸记为{K1,K2,...,Ki},每个分组卷积层的分组数量为{G1,G2,...,Gi},Ki表示第i个卷积核的尺寸,Gi表示第i个分组卷积层的分组数量;
将小麦RGB-数字表面模型图像的特征图{X′1,X′2,...,X′i}输入所述金字塔切分注意力单元中,并先经过分裂与合并模块进行通道维度上的切分,得到S组小麦RGB-数字表面模型图像特征图{X′0,X′1,...,X′S-1};其中,X′S-1表示第S-1组小麦RGB-数字表面模型图像特征图;
所述S组小麦RGB-数字表面模型图像特征图{X′0,X′1,...,X′S-1}输入所述分裂与合并模块中,并利用式(2)得到不同尺度的小麦RGB-数字表面模型图像特征图{F0,F1,...,Fi,...,FS-1},从而利用式(3)得到拼接后的小麦RGB-数字表面模型图像的特征图F;
Fi=Conv(Ki×Ki,Gi)×(Xi),i=0,1,...,S-1 (2)
F=Cat([F0,F1,...,Fi,...,FS-1]) (3)
式(2)和式(3)中,Conv为卷积操作,Cat为拼接操作;
所述压缩激励模块对拼接后的小麦RGB-数字表面模型图像的特征图F进行通道注意力提取,得到不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1,Z2,...Zi};其中,Zi表示第i个通道注意力向量;
所述Softmax层对将不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1,Z2,...Zi}进行拼接和重新加权,得到重新加权后的不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z′1,Z′2,...Z′i};其中,Z′i表示重新加权后的第i个通道注意力向量;
所述点乘模块将重新加权后的不同尺度的小麦RGB-数字表面模型图像特征图的通道注意力向量{Z1′,Z2′,...Zi′}与拼接后的小麦RGB-数字表面模型图像的特征图F按元素进行点乘处理,得到上下文路径中的特征图MC
所述特征融合模块包括:n个拼接层、n个卷积层、n个批归一化层、n个激活层和n个全局池化层;其中,每个拼接层分别依次连接一个卷积层、一个批归一化层、一个激活层和一个全局池化层并构成一个融合块,从而由n个融合块依次连接构成特征融合模块;
所述特征融合模块对空间路径中的特征图MS和上下文路径中的特征图MC进行拼接融合处理,得到预测结果。
6.一种基于无人机图像的小麦倒伏面积提取装置,其特征在于,包括:数据获取模块、图像融合模块、模型构建模块和倒伏面积提取模块,其中,
所述数据获取模块,用于获取田间小麦RGB图像数据,并对所述小麦图像数据进行拼接、裁剪和标注,得到小麦研究区域的RGB图像和相应的标签图像;
所述图像融合模块,用于利用小麦研究区域的RGB图像获得相应的小麦单通道数字表面模型图像,并对所述两种图像进行融合,得到小麦RGB-数字表面模型图像;
所述模型构建模块,用于通过深度学习框架构建小麦倒伏区域分割模型,并利用所述小麦RGB-数字表面模型图像数据进行训练;
所述倒伏分割模块,用于通过所述小麦RGB-数字表面模型图像数据训练分割模型进行倒伏区域分割,确定出所述小麦图像中倒伏区域的位置和范围;
所述倒伏面积提取模块,用于通过所述倒伏分割结果,计算出小麦倒伏区域面积。
CN202210658126.2A 2022-06-10 2022-06-10 一种基于无人机图像的小麦倒伏面积提取方法和装置 Active CN115049945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210658126.2A CN115049945B (zh) 2022-06-10 2022-06-10 一种基于无人机图像的小麦倒伏面积提取方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210658126.2A CN115049945B (zh) 2022-06-10 2022-06-10 一种基于无人机图像的小麦倒伏面积提取方法和装置

Publications (2)

Publication Number Publication Date
CN115049945A true CN115049945A (zh) 2022-09-13
CN115049945B CN115049945B (zh) 2023-10-20

Family

ID=83161192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210658126.2A Active CN115049945B (zh) 2022-06-10 2022-06-10 一种基于无人机图像的小麦倒伏面积提取方法和装置

Country Status (1)

Country Link
CN (1) CN115049945B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115641444A (zh) * 2022-12-23 2023-01-24 中国科学院空天信息创新研究院 小麦倒伏检测方法、装置、设备及介质
CN116740703A (zh) * 2023-06-16 2023-09-12 安徽农业大学 一种基于点云信息的小麦表型参数变化率估测方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461052A (zh) * 2020-04-13 2020-07-28 安徽大学 基于迁移学习的多个生育期小麦倒伏区域识别方法
CN113129281A (zh) * 2021-04-13 2021-07-16 广西大学 一种基于深度学习的小麦茎秆截面参数检测方法
CN113807210A (zh) * 2021-08-31 2021-12-17 西安理工大学 一种基于金字塔切分注意力模块的遥感图像语义分割方法
CN113850825A (zh) * 2021-09-27 2021-12-28 太原理工大学 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN114022406A (zh) * 2021-09-15 2022-02-08 济南国科医工科技发展有限公司 一种半监督学习的图像分割方法、系统及终端
CN114155481A (zh) * 2021-11-30 2022-03-08 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于语义分割的非结构化田间道路场景识别方法及装置
EP3995992A1 (en) * 2020-11-06 2022-05-11 Toyota Jidosha Kabushiki Kaisha Method and system for detecting an action in a video clip
CN114565655A (zh) * 2022-02-28 2022-05-31 上海应用技术大学 一种基于金字塔分割注意力的深度估计方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461052A (zh) * 2020-04-13 2020-07-28 安徽大学 基于迁移学习的多个生育期小麦倒伏区域识别方法
EP3995992A1 (en) * 2020-11-06 2022-05-11 Toyota Jidosha Kabushiki Kaisha Method and system for detecting an action in a video clip
CN113129281A (zh) * 2021-04-13 2021-07-16 广西大学 一种基于深度学习的小麦茎秆截面参数检测方法
CN113807210A (zh) * 2021-08-31 2021-12-17 西安理工大学 一种基于金字塔切分注意力模块的遥感图像语义分割方法
CN114022406A (zh) * 2021-09-15 2022-02-08 济南国科医工科技发展有限公司 一种半监督学习的图像分割方法、系统及终端
CN113850825A (zh) * 2021-09-27 2021-12-28 太原理工大学 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN114155481A (zh) * 2021-11-30 2022-03-08 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于语义分割的非结构化田间道路场景识别方法及装置
CN114565655A (zh) * 2022-02-28 2022-05-31 上海应用技术大学 一种基于金字塔分割注意力的深度估计方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BAOHUA YANG等: ""Accurate Wheat Lodging Extraction from Multi-Channel UAV Images Using a Lightweight Network Model"", 《SENSORS》, pages 1 - 16 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115641444A (zh) * 2022-12-23 2023-01-24 中国科学院空天信息创新研究院 小麦倒伏检测方法、装置、设备及介质
CN116740703A (zh) * 2023-06-16 2023-09-12 安徽农业大学 一种基于点云信息的小麦表型参数变化率估测方法和装置
CN116740703B (zh) * 2023-06-16 2023-11-24 安徽农业大学 一种基于点云信息的小麦表型参数变化率估测方法和装置

Also Published As

Publication number Publication date
CN115049945B (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN109816725B (zh) 一种基于深度学习的单目相机物体位姿估计方法及装置
CN112085735B (zh) 一种基于自适应锚框的铝材质图像缺陷检测方法
CN110738697B (zh) 基于深度学习的单目深度估计方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN110232394B (zh) 一种多尺度图像语义分割方法
CN109886066B (zh) 基于多尺度和多层特征融合的快速目标检测方法
CN107679462B (zh) 一种基于小波的深度多特征融合分类方法
CN111680695A (zh) 一种基于反向注意力模型的语义分割方法
CN109035251B (zh) 一种基于多尺度特征解码的图像轮廓检测方法
CN114255238A (zh) 一种融合图像特征的三维点云场景分割方法及系统
CN115049945B (zh) 一种基于无人机图像的小麦倒伏面积提取方法和装置
CN112750148B (zh) 一种基于孪生网络的多尺度目标感知跟踪方法
CN110197505B (zh) 基于深度网络及语义信息的遥感图像双目立体匹配方法
WO2023193401A1 (zh) 点云检测模型训练方法、装置、电子设备及存储介质
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN113420643B (zh) 基于深度可分离空洞卷积的轻量级水下目标检测方法
CN112580512B (zh) 一种基于通道裁剪的轻量级无人机目标检测方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法
CN111414931A (zh) 一种基于图像深度的多分支多尺度小目标检测方法
CN113408398A (zh) 基于通道注意力及概率上采样的遥感图像云检测方法
CN113743417A (zh) 语义分割方法和语义分割装置
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant