CN111738165A - 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法 - Google Patents

一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法 Download PDF

Info

Publication number
CN111738165A
CN111738165A CN202010587476.5A CN202010587476A CN111738165A CN 111738165 A CN111738165 A CN 111738165A CN 202010587476 A CN202010587476 A CN 202010587476A CN 111738165 A CN111738165 A CN 111738165A
Authority
CN
China
Prior art keywords
image
canopy
pixel
individual plant
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010587476.5A
Other languages
English (en)
Other versions
CN111738165B (zh
Inventor
孙伟
曹姗姗
金忠明
吴建寨
张晶
邱琴
周向阳
朱孟帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinjiang Agricultural University
Agricultural Information Institute of CAAS
Original Assignee
Xinjiang Agricultural University
Agricultural Information Institute of CAAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinjiang Agricultural University, Agricultural Information Institute of CAAS filed Critical Xinjiang Agricultural University
Priority to CN202010587476.5A priority Critical patent/CN111738165B/zh
Publication of CN111738165A publication Critical patent/CN111738165A/zh
Application granted granted Critical
Publication of CN111738165B publication Critical patent/CN111738165B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法,其包括以下内容:一、对获取的无人机遥感数据进行预处理,裁剪、清洗、标注数据集;二、利用深度卷积神经网络U‑Net得到冠层初步分割结果,使用标注好的数据集对U‑Net模型进行训练,用训练好的U‑Net模型对图像进行分割,得到概率灰度图;三、基于标记控制分水岭算法对概率灰度图进行优化,得到最终单株植物冠层分割结果。本发明利用U‑Net算法可以在一定程度上避免自然条件下原始图像背景复杂,光照强度不均对冠层分割的干扰,得到冠层的初始轮廓,标记控制分水岭算法能够较好的分割单株植物冠层,用于对U‑Net提取的冠层结果进行优化,提取单株植物冠层信息、郁闭度精度更高、速度更快。

Description

一种从高分辨率无人机可见光遥感影像中提取单株植物冠层 的方法
技术领域
本发明属于农林业资源监测技术和农业信息化领域,具体涉及一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法。
背景技术
森林资源在维护国家生态安全中发挥着重要作用,及时掌握森林资源现状及动态变化十分必要。要实现森林资源的精准测量,势必会落实到单株立木的精准测量,冠层是反应植物信息最直接的部位,通过提取单株植物冠层信息可以识别树种、监测长势,获得单株植物冠层位置、冠幅、胸径、单木生物量等参数。因此,单株植物冠层信息提取对森林资源监测和实现精准数字林业具有重要意义。传统单株植物冠层信息获取方法主要是人工实地测量,不仅作业强度大、效率低,而且主观因素的依赖性大,测量精度难以保证。虽然卫星遥感是一种有效的冠层监测方式,但易受云层干扰,受限于空间分辨率、几何形变、时效性差等因素,针对特定研究区域往往无法及时获取相应的高分辨率卫星遥感影像数据,使其在特定区域快速精准获取单株植物冠层信息存在一定的局限性。无人机遥感具有高空间分辨率、不受云层影响、实时性强、可搭载多种传感器等优点,为快速获取高精度冠层信息提供了有效途径。基于无人机激光雷达数据和多光谱数据获取的单株植物冠层信息精度高,但成本也高,高分辨率无人机可见光影像为单株植物冠层提取提供了一种低成本、高效率的方法,探索一种基于无人机可见光影像的单株植物冠层提取方法具有重要的现实意义和良好的推广应用价值。
发明内容
本发明所要解决的技术问题在于针对上述现有技术的不足,提供一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法,该方法能从森林区域无人机可见光遥感影像中,快速高效的分割出单木林冠边界,为林分株数和郁闭度的计算提供支持,操作简便,大大提高了影像提取质量和提取效率。
为解决上述技术问题,本发明采用的技术方案是:一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法,其特征在于,包括以下步骤:
S1、获取林区无人机可见光遥感影像的航向和旁向重叠率≥60%,分辨率不大于0.12m,并对无人机遥感影像进行拼接与正射校正等预处理,使得待分割区域的影像冠层边界特征完好。
S2、在预处理后的遥感影像中裁剪出一定数量的样本集,样本集中样本尺寸大小结合遥感影像的分辨率,使样本尺寸在野外相当于一块30m×30m的样地,这样既可以保证一定数量的完整冠层又不会导致网络负担过重。
S3、对裁剪后的样本集进行清洗和标记,若清洗后的样本数量过小,则通过基于移动最小二乘法的图像变形方法、水平翻转、垂直翻转等方法对标记后的样本进行变换,最后将样本集按照5:1分为训练集和验证集。
S4、构建U-Net模型并进行训练,U-Net模型包括提取特征的收缩路径和精确定位的扩展路径,其中,收缩路径遵循典型的卷积神经网络结构,由卷积层和最大池化层交替组成,卷积层采用3×3的卷积核,由于原始的U-Net网络采用无填充的方式进行卷积操作,会导致输出图像的尺寸小于输入图像的尺寸,为使输入输出图像尺寸保持一致且方便在扩展路径中拼接相应收缩路径中的特征图层,省去剪裁(crop)操作,在卷积过程中采用padding=SAME的方式对图像边界进行填充,同时,激活函数使用ELU代替ReLU。输入图像经过收缩路径后,输出特征图层的尺寸变为原图像的1/16,以完成对图像中冠层特征的提取。然后对特征图层进行上采样(反卷积),每次上采样后都与对应收缩路径中的特征图层进行拼接融合,再次进行卷积操作,通过扩张路径后特征图层恢复至原始图像尺寸。
S5、选择的代价函数是特征图层中每一个像素在深度方向上经过softmax函数之后,再和真实的标签进行交叉熵计算得到损失值,所述softmax函数的定义为:
Figure BDA0002554316410000031
式中,ak(x)表示在特征图层上每一个像素点(x)对应通道(k)的激活值,x∈Ω,Ω∈Z2,K表示总类别个数,pk(x)表示像素点(x)为对应类(k)归一化后的值,也就是x被划分为k类的概率;
二元交叉熵函数定义如式下所示:
E=∑ω(x)log(pl(x)(x))
式中,l(x)表示像素点x对应的label类,pl(x)(x)表示像素点(x)对应label类的softmax输出值,ω(x)表示每个像素点(x)的权重值,由于分割单株植物冠层,需要对两个冠层间的分离背景标签赋予较大的权重,通过预先计算每个ground truth分割的weightmap来补偿训练数据集中某个类别的不同像素频率,ω(x)定义如式下所示:
Figure BDA0002554316410000032
式中,ωc(x)表示平衡类频率的权重值,d1(x)表示像素点(x)与最近冠层间的距离,d2(x)表示像素点(x)与次近冠层间的距离,ω0、σ为常数,为确定ω0、σ两个超参,在训练集上进行预先计算;精度评价函数采用准确率(accuracy)公式如下所示:
Figure BDA0002554316410000033
式中,TP代表正例预测正确的个数,FP代表负例预测错误的个数,TN代表负例预测正确的个数,FN代表正例预测错误的个数,完美分割时ACC值为1。
S6、构建U-Net模型后,加载训练集和验证集,进行模型训练,设置batch_size为32,epochs为100,采用Adam优化器,为防止过拟合使用Early Stopping,当验证集的损失函数值在10个epochs中都无变化时停止训练,保存训练好的网络模型。最后,将待分割图像输入到训练好的U-Net模型进行单株植物冠层分割,得到单株植物冠层初步分割结果。
S7、在利用U-Net模型提取冠层的基础上进行标记控制的分水岭分割,得到最终单株植物冠层的分割提取结果。
优选的,所述S6具体包括以下操作步骤:
S701、读取U-Net模型提取冠层的概率灰度图;
S702、对灰度图进行基于重建的开闭操作,滤波去噪;
S703、进行前景标记,计算处理后图像区域极大值作为前景标记,所标记前景均在分割目标内部;
S704、进行背景标记,将处理后图像二值化,计算二值图像的欧几里得矩阵,所得到的背景标记,能够包住待分割目标;
S705、利用前景标记和背景标记修正梯度幅值图像,使其只在标记位置达到最小值;
S706、进行分水岭变换得到单株植物冠层分割结果。
本发明与现有技术相比具有以下优点:
1、本发明利用U-Net算法可以在一定程度上避免自然条件下原始图像背景复杂,光照强度不均对冠层分割的干扰,得到冠层的初始轮廓,标记控制分水岭算法能够较好的分割单株植物冠层,用于对U-Net提取的冠层结果进行优化,提取单株植物冠层信息、郁闭度精度更高、速度更快。
2、本发明提出了一种基于深度卷积神经网络U-Net和标记控制分水岭算法的单株植物冠层提取方法。深度卷积神经网络U-Net通过训练能够很好的学习到高质量的冠层特征,进过单株植物冠层分割数据集训练后的U-Net模型可以在一定程度上避免自然条件下原始图像背景复杂,光照强度不均对冠层分割的干扰,有效地将背景和冠层分割开,得到冠层的初始轮廓;标记控制分水岭算法可以较好的分割单株植物冠层细节部分,在冠层粘连遮挡处分割效果良好,用于对U-Net提取的冠层结果进行优化。因此U-Net和标记控制分水岭算法既可以避免自然条件下原始图像背景复杂,光照强度不均对分割冠层的干扰,又可以在冠层粘连遮挡处取得较好的单株植物冠层分割效果。
下面结合附图和实施例对本发明作进一步详细说明。
附图说明
图1是本发明的操作流程示意图。
图2是本发明具体实施方式中获取的天山云杉林的原始正射影像图。
图3是本发明中将原始正射影像图裁剪标记后的样本集。
图4是本发明中不同ω0、σ在训练集的计算显示结果
图5是本发明中单株植物冠层分割结果示例图。
具体实施方式
如图1至图5所示,本发明用于提取天山北麓某地林场中的天山云杉林的单株植物冠层信息,具体包括以下操作步骤:
S1、获取林区无人机可见光遥感影像的航向和旁向重叠率≥60%,分辨率不大于0.12m,影像为RGB真彩色影像,林区地面仍有积雪覆盖,对无人机遥感影像进行拼接与正射校正等预处理,使得待分割区域的影像冠层边界特征完好。
S2、由于原始影像尺寸较大,影像空间分辨率为0.117748m,因此选择256×256像素大小的图像作为训练样本,该尺寸的图像在野外相当于一块30m×30m的样地,既可以保证一定数量的完整冠层又不会导致网络负担过重。
S3、将整幅影像裁剪为60516张256×256像素大小的图像,进行数据清洗,去除NODATA图像、不含天山云杉图像和成像效果差的图像,选择1000张含天山云杉的图像作为训练集和验证集,选择128张256×256像素大小的图像,作为测试集。使用Labelme工具对样本进行标记,并进行转换。同时,通过数据增强扩大样本集,主要运用基于移动最小二乘法的图像变形方法,同时结合图像水平翻转、垂直翻转、亮度变化等方法对1000张训练样本进行变换,扩充为16000张,在增强样本数据多样性的同时,降低了网络模型过拟合的风险。从扩充后的样本集中随机抽取12800张作为训练样本用于网络模型的训练,剩余3200张作为验证样本用于对训练过程中的网络模型进行验证。测试集的128张图像用于对训练好的模型进行评估。
S4、构建U-Net模型并进行训练,U-Net模型包括提取特征的收缩路径和精确定位的扩展路径,其中,收缩路径遵循典型的卷积神经网络结构,由卷积层和最大池化层交替组成,卷积层采用3×3的卷积核,由于原始的U-Net网络采用无填充的方式进行卷积操作,会导致输出图像的尺寸小于输入图像的尺寸,为使输入输出图像尺寸保持一致且方便在扩展路径中拼接相应收缩路径中的特征图层,省去剪裁(crop)操作,在卷积过程中采用padding=SAME的方式对图像边界进行填充,同时,激活函数使用ELU代替ReLU。输入图像经过收缩路径后,输出特征图层的尺寸变为原图像的1/16,以完成对图像中冠层特征的提取。然后对特征图层进行上采样(反卷积),每次上采样后都与对应收缩路径中的特征图层进行拼接融合,再次进行卷积操作,通过扩张路径后特征图层恢复至原始图像尺寸。
S5、选择特征图层中每一个像素在深度方向上经过softmax函数之后,再和真实的标签进行交叉熵计算得到的损失值作为代价函数。预测结果的精度越高,得到的交叉熵值越低,该代价函数能很好地衡量两个概率分布之间地差异性,训练的目标就是使其最小化。其中,softmax函数的定义为:
Figure BDA0002554316410000071
式中,ak(x)表示在特征图层上每一个像素点(x)对应通道(k)的激活值,x∈Ω,Ω∈Z2,K表示总类别个数,pk(x)表示像素点(x)为对应类(k)归一化后的值,也就是x被划分为k类的概率;
二元交叉熵函数定义如式下所示:
E=∑ω(x)log(pl(x)(x))
式中,l(x)表示像素点x对应的label类,pl(x)(x)表示像素点(x)对应label类的softmax输出值,ω(x)表示每个像素点(x)的权重值,由于分割单株植物冠层,需要对两个冠层间的分离背景标签赋予较大的权重,通过预先计算每个ground truth分割的weightmap来补偿训练数据集中某个类别的不同像素频率,ω(x)定义如式下所示:
Figure BDA0002554316410000072
式中,ωc(x)表示平衡类频率的权重值,d1(x)表示像素点(x)与最近冠层间的距离,d2(x)表示像素点(x)与次近冠层间的距离,ω0、σ为常数,为确定ω0、σ两个超参,在训练集上进行预先计算。在图4中第一行为不同取值的ω0、σ在一张训练集上的计算结果,第二行为计算结果与原图的叠加效果,对比发现,当ω0=10,σ=3时可以较为准确的为两个或多个冠层间的相邻边界像素赋予大的权重值,从而在训练过程中给予更多的关注。
精度评价函数采用准确率(accuracy)公式如下所示:
Figure BDA0002554316410000073
式中,TP代表正例预测正确的个数,FP代表负例预测错误的个数,TN代表负例预测正确的个数,FN代表正例预测错误的个数,完美分割时ACC值为1。
S6、构建U-Net模型后,加载训练集和验证集,进行模型训练,设置batch_size为32,epochs为100,采用Adam优化器,为防止过拟合使用Early Stopping,当验证集的损失函数值在10个epochs中都无变化时停止训练,保存训练好的网络模型。最后,将待分割图像输入到训练好的U-Net模型进行单株植物冠层分割,得到单株植物冠层初步分割结果。
S7、在利用U-Net模型提取冠层的基础上进行标记控制的分水岭分割,得到最终单株植物冠层的分割提取结果。
本实施例中,所述S7具体包括以下操作步骤:
S701、读取U-Net模型提取冠层的概率灰度图;
S702、对灰度图进行基于重建的开闭操作,滤波去噪;
S703、进行前景标记,计算处理后图像区域极大值作为前景标记,所标记前景均在分割目标内部;
S704、进行背景标记,将处理后图像二值化,计算二值图像的欧几里得矩阵,所得到的背景标记,能够包住待分割目标;
S705、利用前景标记和背景标记修正梯度幅值图像,使其只在标记位置达到最小值;
S706、进行分水岭变换得到单株植物冠层分割结果如图5所示。
图5中,第一列为不同光照条件下不同郁闭度天山云杉林原始影像,第二列为U-Net模型提取单株植物冠层的概率灰度图,第三列为U-Net+标记控制分水岭算法提取单株植物冠层轮廓与Ground Truth叠加显示效果图。U-Net+标记控制分水岭算法结合了U-Net模型和标记控制分水岭算法两种方法的优点,冠层和背景区分良好,能够提取出大部分大小不同,粘连、遮挡的天山云杉单株植物冠层。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制。凡是根据发明技术实质对以上实施例所作的任何简单修改、变更以及等效变化,均仍属于本发明技术方案的保护范围内。

Claims (3)

1.一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法,其特征在于,包括以下步骤:
S1、获取分辨率不大于0.12m的林区无人机可见光遥感影像,并对无人机遥感影像进行拼接与正射校正预处理;
S2、在预处理后的遥感影像中裁剪出样本集,所述样本集中的样本尺寸大小对应野外30m×30m的样地;
S3、对裁剪后的样本集进行清洗和标记,若清洗后的样本数量过小,则对标记后的样本进行变换,将清洗标记后的样本集按照5:1的比例分为训练集和验证集;
S4、构建U-Net模型并进行训练,所述U-Net模型包括提取特征的收缩路径和精确定位的扩展路径,收缩路径遵循典型的卷积神经网络结构,由卷积层和最大池化层交替组成,卷积层利用3×3的卷积核得到特征图层,ELU作为激活函数,每两次无填充的卷积后进行一次用于下采样的2×2最大池化操作,在下采样后使特征通道的数量增加一倍,扩张路径首先利用2×2的卷积核进行反卷积得到特征图层,完成一次特征图层的上采样,特征通道的数量减半,同时裁剪融合对应收缩路径的特征图层,然后通过3×3的卷积核进行两次无填充的卷积运算,并使用ELU作为激活函数,重复这一过程,在最后一层中,利用1×1的卷积核将64维的特征向量映射到网络的输出层,对每个像素进行识别,还原像素在原图像中的位置,实现图像端到端的输出,便于进行分割操作,在卷积过程中采用padding=SAME的方式对图像边界进行填充,输入图像大小为256×256,经过卷积操作后,第一个卷积层组输出特征图大小为256×256×16(图像长×图像宽×特征通道数),接着进行一次下采样(最大池化)得到特征图大小为128×128×16,依次交替进行4次,完成对图像中冠层特征的提取,此时输出特征图层的尺寸变为原图像大小的1/16,随后对提取的特征图层进行上采样(反卷积),每完成一次上采样特征通道数量减半,同时与对应收缩路径中的特征图层进行拼接融合,再对其进行卷积操作,如此重复4次恢复至图像原始尺寸;
S5、选取代价函数和精度评价函数;
S6、在U-Net模型中加载训练集和验证集进行训练,设置batch_size为32,epochs为100,采用Adam优化器,为防止过拟合使用Early Stopping,当验证集的损失函数值在10个epochs中都无变化时停止训练,保存训练好的U-Net模型,将遥感影像输入到训练好的U-Net模型进行单株植物冠层分割,得到单株植物冠层初步分割结果;
S7、在利用U-Net模型提取冠层的基础上进行标记控制的分水岭分割,得到最终单株植物冠层的分割提取结果。
2.根据权利要求1所述的一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法,其特征在于,所述S5的具体操作步骤为:
S501、选择的代价函数是S4所述特征图层中每一个像素在深度方向上经过softmax函数之后,再和真实的标签进行交叉熵计算得到损失值,所述softmax函数的定义为:
Figure FDA0002554316400000021
式中,ak(x)表示在特征图层上每一个像素点(x)对应通道(k)的激活值,x∈Ω,Ω∈Z2,K表示总类别个数,pk(x)表示像素点(x)为对应类(k)归一化后的值,也就是x被划分为k类的概率;
S502、二元交叉熵函数定义如式下所示:
E=∑ω(x)log(pl(x)(x))
式中,l(x)表示像素点x对应的label类,pl(x)(x)表示像素点(x)对应label类的softmax输出值,ω(x)表示每个像素点(x)的权重值,由于分割单株植物冠层,需要对两个冠层间的分离背景标签赋予较大的权重,通过预先计算每个ground truth分割的weight map来补偿训练数据集中某个类别的不同像素频率,ω(x)定义如式下所示:
Figure FDA0002554316400000031
式中,ωc(x)表示平衡类频率的权重值,d1(x)表示像素点(x)与最近冠层间的距离,d2(x)表示像素点(x)与次近冠层间的距离,ω0、σ为常数,为确定ω0、σ两个超参,在训练集上进行预先计算;
S503、精度评价函数采用准确率(accuracy)公式如下所示:
Figure FDA0002554316400000032
式中,TP代表正例预测正确的个数,FP代表负例预测错误的个数,TN代表负例预测正确的个数,FN代表正例预测错误的个数,完美分割时ACC值为1。
3.根据权利要求1所述的一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法,其特征在于,所述S7具体包括以下操作步骤:
S701、读取U-Net模型提取冠层的概率灰度图;
S702、对灰度图进行基于重建的开闭操作,滤波去噪;
S703、进行前景标记,计算S702处理后图像区域极大值作为前景标记,所标记前景均在分割目标内部;
S704、进行背景标记,将S702处理后的图像二值化,计算二值图像的欧几里得矩阵,使所得到的背景标记能够包住待分割目标;
S705、使用Sobel边缘检测算子对S702处理后图像进行运算产生梯度图像,然后利用前景标记和背景标记对梯度幅值图像进行重建,使梯度幅值图像只在标记位置达到最小值;
S706、对修正后的梯度幅值图像进行分水岭变换得到单株植物冠层分割结果,其中分水岭变换是传统分水岭算法,将地形学和水文学的概念应用在基于区域的图像分割中,把图像当作一个地形图,利用分水岭结构形成分割轮廓;首先求取图像上每个像素的灰度级,并且选择极值点,然后从这些极值点实现淹没的过程中,合并极值点附近灰度差异满足一定条件的像素点,接着重新迭代更新计算灰度差异的准则,依据该准则对每个局部极值的影响域进行判断及标注,最后找到图像分割的全部界线。
CN202010587476.5A 2020-06-24 2020-06-24 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法 Active CN111738165B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010587476.5A CN111738165B (zh) 2020-06-24 2020-06-24 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010587476.5A CN111738165B (zh) 2020-06-24 2020-06-24 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法

Publications (2)

Publication Number Publication Date
CN111738165A true CN111738165A (zh) 2020-10-02
CN111738165B CN111738165B (zh) 2023-04-18

Family

ID=72652044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010587476.5A Active CN111738165B (zh) 2020-06-24 2020-06-24 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法

Country Status (1)

Country Link
CN (1) CN111738165B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101309A (zh) * 2020-11-12 2020-12-18 北京道达天际科技有限公司 基于深度学习分割网络的地物目标识别方法和装置
CN112818855A (zh) * 2021-02-01 2021-05-18 浙江省农业科学院 基于无人机影像的桃树树冠表型信息提取的方法、装置及系统
CN113240697A (zh) * 2021-05-13 2021-08-10 安徽大学 一种生菜多光谱图像前景分割方法
CN113514402A (zh) * 2021-04-12 2021-10-19 新疆农业大学 一种冬小麦叶绿素含量的预测系统及方法
CN113537140A (zh) * 2021-08-03 2021-10-22 电子科技大学 一种基于深度神经网络的杂草检测方法
CN114494851A (zh) * 2021-12-23 2022-05-13 青岛星科瑞升信息科技有限公司 一种基于多时相遥感影像差异信息的滑坡提取方法
CN114821325A (zh) * 2022-04-24 2022-07-29 南京林业大学 基于模型提取植被冠层孔隙度的方法、装置、设备及介质
CN115760885A (zh) * 2022-11-09 2023-03-07 南京林业大学 基于消费级无人机影像的高郁闭度湿地森林参数提取方法
CN115861858A (zh) * 2023-02-16 2023-03-28 之江实验室 基于背景过滤的小样本学习农作物冠层覆盖度计算方法
CN116229263A (zh) * 2023-02-24 2023-06-06 广西壮族自治区气象科学研究所 一种基于地基可见光图像的植被长势灾损验证方法
CN117433449A (zh) * 2023-12-19 2024-01-23 南京农业大学三亚研究院 一种基于根盒的植物地上部与地下部表型联合鉴定方法
CN117935061A (zh) * 2024-03-21 2024-04-26 四川省能源地质调查研究所 基于数据分析的地质区域环境综合评价系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107516068A (zh) * 2017-07-26 2017-12-26 福州大学 一种从无人机高分辨率影像中提取单木树冠的方法
US20180033144A1 (en) * 2016-09-21 2018-02-01 Realize, Inc. Anomaly detection in volumetric images
CN109815959A (zh) * 2018-12-27 2019-05-28 中国农业科学院农业环境与可持续发展研究所 一种冬小麦产量预测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180033144A1 (en) * 2016-09-21 2018-02-01 Realize, Inc. Anomaly detection in volumetric images
CN107516068A (zh) * 2017-07-26 2017-12-26 福州大学 一种从无人机高分辨率影像中提取单木树冠的方法
CN109815959A (zh) * 2018-12-27 2019-05-28 中国农业科学院农业环境与可持续发展研究所 一种冬小麦产量预测方法及装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101309A (zh) * 2020-11-12 2020-12-18 北京道达天际科技有限公司 基于深度学习分割网络的地物目标识别方法和装置
CN112818855A (zh) * 2021-02-01 2021-05-18 浙江省农业科学院 基于无人机影像的桃树树冠表型信息提取的方法、装置及系统
CN113514402A (zh) * 2021-04-12 2021-10-19 新疆农业大学 一种冬小麦叶绿素含量的预测系统及方法
CN113514402B (zh) * 2021-04-12 2023-03-07 新疆农业大学 一种冬小麦叶绿素含量的预测系统及方法
CN113240697B (zh) * 2021-05-13 2022-10-18 安徽大学 一种生菜多光谱图像前景分割方法
CN113240697A (zh) * 2021-05-13 2021-08-10 安徽大学 一种生菜多光谱图像前景分割方法
CN113537140A (zh) * 2021-08-03 2021-10-22 电子科技大学 一种基于深度神经网络的杂草检测方法
CN113537140B (zh) * 2021-08-03 2023-05-02 电子科技大学 一种基于深度神经网络的杂草检测方法
CN114494851A (zh) * 2021-12-23 2022-05-13 青岛星科瑞升信息科技有限公司 一种基于多时相遥感影像差异信息的滑坡提取方法
CN114821325A (zh) * 2022-04-24 2022-07-29 南京林业大学 基于模型提取植被冠层孔隙度的方法、装置、设备及介质
CN114821325B (zh) * 2022-04-24 2024-04-02 南京林业大学 基于模型提取植被冠层孔隙度的方法、装置、设备及介质
CN115760885A (zh) * 2022-11-09 2023-03-07 南京林业大学 基于消费级无人机影像的高郁闭度湿地森林参数提取方法
CN115760885B (zh) * 2022-11-09 2023-09-19 南京林业大学 基于消费级无人机影像的高郁闭度湿地森林参数提取方法
CN115861858A (zh) * 2023-02-16 2023-03-28 之江实验室 基于背景过滤的小样本学习农作物冠层覆盖度计算方法
CN116229263A (zh) * 2023-02-24 2023-06-06 广西壮族自治区气象科学研究所 一种基于地基可见光图像的植被长势灾损验证方法
CN117433449A (zh) * 2023-12-19 2024-01-23 南京农业大学三亚研究院 一种基于根盒的植物地上部与地下部表型联合鉴定方法
CN117433449B (zh) * 2023-12-19 2024-03-19 南京农业大学三亚研究院 一种基于根盒的植物地上部与地下部表型联合鉴定方法
CN117935061A (zh) * 2024-03-21 2024-04-26 四川省能源地质调查研究所 基于数据分析的地质区域环境综合评价系统
CN117935061B (zh) * 2024-03-21 2024-05-31 四川省能源地质调查研究所 基于数据分析的地质区域环境综合评价系统

Also Published As

Publication number Publication date
CN111738165B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111738165B (zh) 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法
CN111027547B (zh) 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111986099B (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
US9942440B2 (en) Image-based field boundary detection and identification
CN111626947B (zh) 基于生成对抗网络的地图矢量化样本增强方法及系统
Hormese et al. Automated road extraction from high resolution satellite images
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN109308688B (zh) 一种可见光和近红外波段厚云及阴影去除方法
Karami et al. Gully erosion mapping using object-based and pixel-based image classification methods
CN113239736B (zh) 一种基于多源遥感数据的土地覆盖分类标注图获取方法
CN108428220A (zh) 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法
Xia et al. Deep extraction of cropland parcels from very high-resolution remotely sensed imagery
CN114898097A (zh) 图像识别方法及系统
CN115880487A (zh) 基于深度学习方法的林木激光点云枝叶分离方法
CN110298366B (zh) 农作物分布提取方法及装置
Buyukdemircioglu et al. Deep learning based building footprint extraction from very high resolution true orthophotos and nDSM
CN116739739A (zh) 一种贷款额度评估方法、装置、电子设备及存储介质
Politz et al. Exploring ALS and DIM data for semantic segmentation using CNNs
CN110070513A (zh) 遥感影像的辐射校正方法及系统
Schuegraf et al. Deep learning for the automatic division of building constructions into sections on remote sensing images
Gruszczyński et al. Correction of low vegetation impact on UAV-derived point cloud heights with U-Net networks
Berveglieri et al. Forest cover change analysis based on temporal gradients of the vertical structure and density
CN110427961B (zh) 一种基于规则和样本融合的建筑信息提取方法及系统
CN114463642A (zh) 一种基于深度学习的耕地地块提取方法
Loghin et al. Supervised classification and its repeatability for point clouds from dense VHR tri-stereo satellite image matching using machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant