CN112200846A - 融合无人机影像与地基雷达点云的林分因子提取方法 - Google Patents

融合无人机影像与地基雷达点云的林分因子提取方法 Download PDF

Info

Publication number
CN112200846A
CN112200846A CN202011149806.9A CN202011149806A CN112200846A CN 112200846 A CN112200846 A CN 112200846A CN 202011149806 A CN202011149806 A CN 202011149806A CN 112200846 A CN112200846 A CN 112200846A
Authority
CN
China
Prior art keywords
point cloud
bounding box
ground
point
box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011149806.9A
Other languages
English (en)
Inventor
李丹
苏丽丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeast Forestry University
Original Assignee
Northeast Forestry University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Forestry University filed Critical Northeast Forestry University
Priority to CN202011149806.9A priority Critical patent/CN112200846A/zh
Publication of CN112200846A publication Critical patent/CN112200846A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

融合无人机影像与地基雷达点云的林分因子提取方法,涉及林分因子提取领域。本发明是为了解决目前存在的提取林分因子的方法自动化程度较低、运算量大、配准精度较低的问题,包括以下步骤:步骤一、遥感影像与激光雷达点云数据的配准与融合;步骤二、运用3D‑BoNet三维点云分割框架对融合后的点云数据进行实例分割;步骤三、基于深度学习的生物量反演。

Description

融合无人机影像与地基雷达点云的林分因子提取方法
技术领域
本发明涉及林分因子提取领域,特别涉及融合无人机影像与地基雷达点云的林分因子提取方法。
背景技术
近年来,随着林业行业的快速发展,对很多对林业资源的调查方法的研究逐渐成为林业调查领域的关注重点。科学的林业资源调查方法能够反映调查区域的各种条件及经营管理状况,能够实现林业资源的合理配置。合理的提取林分因子的方法可以实现快速、精准、大范围的测量,减少传统林业资源调查时间及经济成本。
目前存在的几种提取林分因子的方法分别为:基于内在几何约束的方式实现了光学影像和地基以及机载LiDAR数据的配准,方法采用控制物体代替了常用的控制点。通过将ALS和TLS数据栅格化,并进行基于图像的配准实现了林区ALS与TLS数据的融合。直接处理3D实例分割的神经算法,它学会了通过相似矩阵对每点特征进行分组。将相同的每点特征分组管道应用于分割3D实例。在PartNet中将实例分割表述为按点分类的问题,均值漂移聚类,以获得最终的实例标签基于提议的3D-SIS和GSPN,它们通常依赖于两阶段训练和昂贵的非最大抑制来修剪密集对象提议。这些提取林分因子的方法存在自动化程度较低、运算量大、配准精度较低的问题,不能满足实际林木测量的需求。
发明内容
本发明目的是为了解决现有提取林分因子的方法自动化程度低、运算量大、配准精度较低的问题。
融合无人机影像与地基雷达点云的林分因子提取方法具体过程为:
步骤一、将遥感影像与激光雷达点云数据进行配准与融合,其具体过程为:
步骤一一、采用由粗到精的策略对地基激光雷达和无人机影像配准,其具体过程为:
步骤一一一、采用内在几何约束法进行粗配准:
以单棵树木整体点云和对应影像上的树冠轮廓为特征进行匹配,以经过反投影后落入影像树冠轮廓内的点云的比例作为目标函数,进行优化,最终获取影像最优的外方位元素参数;
步骤一一二、进一步精配准:
将粗配准得到的外方位元素参数作为输入值,根据运动恢复结构(SfM)算法,将影像进行三维重构,生成为与LiDAR点云在同一坐标系下的点云。
所述数据恢复结构算法实现过程为:
step1.特征提取和匹配:
采用具有尺度不变和旋转不变性的SIFT算子从图像中寻找特征点.将搜索到的特征点进行两两配对,随后通过设置阈值以及根据随机采样一致性算法对误匹配点对进行剔除.
step2.估计相机位置和同名点三维坐标:
(1)根据确定的配对点计算照片间的相对位置关系;
(2)基于前方交会,计算同名像点的三维坐标,构建稀疏的三维点云;
(3)进行迭代光束平差法,将所有三维点反向投影到各自相片的像素坐标并分别与初始坐标比对,若大于阈值则删除,通过迭代优化,使重建误差降低到最小;
step3.密集点云的生成:
根据多视立体视觉算法,基于step2中获取的稀疏点云,搜索图像中每一个像素栅格来获取更多的匹配点,生成密集点云数据。
步骤一二、使用CSF算法对配准后的点云进行地面滤波,实现地面点云的滤除;
步骤一三、对滤波后的点云进行高度归一化处理,消除地面起伏的影响;
步骤二、运用3D-BoNet三维点云分割框架对融合后的点云数据进行实例分割;
步骤三、基于深度学习的生物量反演。
本发明的有益效果为:
本发明结合地基激光雷达和无人机倾斜摄影测量,将UAV影像与TLS点云进行多源数据融合,大程度减少林业资源调查方面人力物力财力的成本,将新兴的点云深度学习实力例分割方法应用于林业,更加快速高效地提取林分因子。在提取林分因子基础上运用深度学习方法进行一系列的生物量测量统计与反演,能够提高提取林分因子自动化水平,减少运算量,并同时提高配准精度,实现林业快速、精准、大范围的测量,满足国家森林资源调查等项目要求。
附图说明
图1为融合无人机影像与地基雷达点云的林分因子提取方法具体操作流程图。
具体实施方式
具体实施方式一:本实施方式融合无人机影像与地基雷达点云的林分因子提取方法具体过程为:
步骤一、将遥感影像与激光雷达点云数据进行配准与融合;
步骤一一、采用由粗到精的策略对地基激光雷达和无人机影像配准,其具体过程为:
步骤一一一、采用内在几何约束法进行粗配准:
以单棵树木整体点云和对应影像上的树冠轮廓为特征进行匹配,以经过反投影后落入影像树冠轮廓内的点云的比例作为目标函数,进行优化,最终获取影像最优的外方位元素参数;
步骤一一二、进一步精配准:
将粗配准得到的外方位元素参数作为输入值,根据运动恢复结构(SfM)算法,将影像进行三维重构,生成为与LiDAR点云在同一坐标系下的点云。
所述SfM算法实现过程为:
step1.特征提取和匹配:
采用具有尺度不变和旋转不变性的SIFT算子从图像中寻找特征点,将搜索到的特征点进行两两配对,随后通过设置阈值以及根据随机采样一致性算法对误匹配点对进行剔除。
step2.估计相机位置和同名点三维坐标:
(1)根据确定的配对点计算照片间的相对位置关系;
(2)基于前方交会,计算同名像点的三维坐标,构建稀疏的三维点云;
(3)进行迭代光束平差法,将所有三维点反向投影到各自相片的像素坐标并分别与初始坐标比对,若大于阈值则删除,通过迭代优化,使重建误差降低到最小.
step3.密集点云的生成:
根据多视立体视觉算法,基于step2中获取的稀疏点云,搜索图像中每一个像素栅格来获取更多的匹配点,生成密集点云数据。
步骤一二、使用CSF算法对融合后的点云进行地面滤波,实现地面点云的滤除;
步骤一三、对滤波后的点云进行高度归一化处理,消除地面起伏的影响;
步骤二、运用3D-BoNet三维点云分割框架对融合后的点云数据进行实例分割;
所述3D-BoNet三维点云分割框架由一个骨干网络和两个并行的网络分支组成;
所述两个并行的网络分支为:实例级边界框预测分支、用于实例分割的点级掩码预测分支;
所述实例级边界框预测分支用于预测点云中每个实例的边界框;
所述用于实例分割的点级掩码预测分支用于预测边界框中的点的掩码,以进一步区分边界框中的点属于实例还是背景;
步骤二一、使用骨干网络为每个点云提取局部向量,并为整个输入点云提取全局特征向量;
所述局部特征向量是每个点云周围属性的集合;
所述全局特征向量是所有点云周围属性的集合;
步骤二二、引入实例级边界框预测分支和用例实例分割的点级掩码预测分支和一系列设计的损失函数来学习物体边界,设计损失函数的具体过程为:
Step1.将预测的边界框与地面真值边界框之间进行关联:
将预测的边界框与真值边界框之间的关联(配对)问题建模为一个最优分配问题,两个边界框越匹配代价越小,寻找总代价最小的关联指数矩阵:
Figure BDA0002740824150000041
其中,A是关联指数矩阵,C是关联代价矩阵代表将第一个预测的边界框分配给地面真值的边界框的关联代价。H是预测的边界框数量,T是真值边界框预测数量,i∈(1,n)是预测框的个数,j∈(1,n)是地面真值框的个数,Ci,j是两个盒子的相似性;
为了使学习到的盒子尽可能与地面真值的边界框重合关联代价矩阵C需要考虑顶点之间的欧几里德距离,为了使学习到的盒子覆盖尽可能多的点,克服不均匀性关联代价矩阵C需要考虑SoftloU和交叉熵,因此关联代价矩阵C需要考虑顶点之间的欧几里德距离、SoftloU和交叉熵三个指标:
(1)使学习到的盒子尽可能与地面真值的边界框重合,顶点之间的欧几里德距离:第i个预测的边界框分配给第j个地面真值的边界框的代价为:
Figure BDA0002740824150000042
B是预测边界框的顶点的坐标信息,
Figure BDA0002740824150000043
真值边界的顶点坐标信息;
(2)给定输入点云P和地面真值真相实例边界框我们可以直接得到一个硬二元向量描述每个点是否在边界框内。但是,对于相同的输入点云P的第i个预测框,直接获得相似的硬二元向量将导致不可微。因此引入一个可微但简单的算法来获得一个相似但软的二元向量称为pred-box概率中的点。所有值都在范围(0,1)内;值越高,点在框中的可能性就越大;值越小,对应的点可能离框越远。因此,第一预测的边界框和地面真值的边界框的sIoU的定义如下:
Figure BDA0002740824150000044
N是点云p中的点云数,
Figure BDA0002740824150000051
是第n个硬的二进制向量,
Figure BDA0002740824150000052
预测框内点的概率的取值范围是[0,1]。
(3)交叉熵倾向于获得具有更高覆盖率的更大边界框:
Figure BDA0002740824150000053
第一预测的边界框和地面真值的边界框最终相关代价为:
Figure BDA0002740824150000054
Step2.定义损失函数:
通过边界框关联各层利用关联指数矩阵A将预测的边界框B及其对应的得分与地面真值进行匹配,使靠前的T的边界框和边界框与地面真值匹配得到盒型预测的多准则损失函数:
Figure BDA0002740824150000055
C是关联代价矩阵,代表将第i个预测的边界框分配给地面真值的边界框的关联代价,T是地面真值的边界框总数,t是预测盒和真值盒对应配对的个数。
预测盒得分旨在表征相应预测盒的有效性,通过关联指数矩阵A重新排序后,将前T个真实边界框对应的分数设置为1,将其余H-T无效边界框对应的分数设置为0,将交叉熵损失用于二元分类任务得到边界框得分预测损失函数:
Figure BDA0002740824150000056
Figure BDA0002740824150000057
是关联后的预测分数;
最终整个网络的最终损失函数定义为:
lall=lsem+lbbox+lbbs+lpmask
其中,lpmask使用第T对掩码值计算,lsem采用标准的softmax交叉熵损失函数实现了另一个独立的分支来学习逐点语义。
步骤二三、将预测的框和全局特征一起馈入后续的点掩码分支:
将特征点与每个边界框和分数进行融合,然后为每个实例预测一个点级二值掩码;考虑到背景点和实例点之间的不平衡,使用焦点损失来优化该分支。
步骤三、基于深度学习的生物量反演,具体过程为:
在提取林分因子的基础上,经过ANN网络多层感知器(MLP)训练后可以匹配任意一种输入输出之间的映射关系,从而用它来根据已知的观察值输出反演出合适的参数输入,用多层MLP反演出与其对应的合适的参数输入矢量来进行迭代反演,依据先验知识加入约束,提高反演速度和精度。

Claims (7)

1.融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于所述方法具体过程为:
步骤一、将遥感影像与激光雷达点云数据进行配准与融合;
步骤二、运用3D-BoNet三维点云分割框架对融合后的点云数据进行实例分割;
步骤三、基于深度学习的生物量反演。
2.根据权利要求1所述的融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于:所述步骤一中将遥感影像与激光雷达点云数据进行配准与融合,具体过程为:
步骤一一、采用由粗到精的策略对地基激光雷达和无人机影像配准,其具体过程为:
步骤一一一、采用内在几何约束法进行粗配准:
以单棵树木整体点云和对应影像上的树冠轮廓为特征进行匹配,以经过反投影后落入影像树冠轮廓内的点云的比例作为目标函数,进行优化,最终获取影像最优的外方位元素参数;
步骤一一二、进一步精配准:
将粗配准得到的外方位元素参数作为输入值,根据运动恢复结构算法,将影像进行三维重构,生成为与LiDAR点云在同一坐标系下的点云;
步骤一二、使用CSF算法对配准后的点云进行地面滤波,实现地面点云的滤除;
步骤一三、对滤波后的点云进行高度归一化处理,消除地面起伏的影响。
3.根据权利要求2所述的融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于:步骤一一二所述的运动恢复结构算法,具体过程为:
step1.特征提取和匹配:
采用具有尺度不变和旋转不变性的SIFT算子从图像中寻找特征点,将搜索到的特征点进行两两配对,随后通过设置阈值以及根据随机采样一致性算法对误匹配点对进行剔除;
step2.估计相机位置和同名点三维坐标:
(1)根据确定的配对点计算照片间的相对位置关系;
(2)基于前方交会,计算同名像点的三维坐标,构建稀疏的三维点云;
(3)进行迭代光束平差法,将所有三维点反向投影到各自相片的像素坐标并分别与初始坐标比对,若大于阈值则删除,通过迭代优化,使重建误差降低到最小;
step3.密集点云的生成:
根据多视立体视觉算法,基于step2中获取的稀疏点云,搜索图像中每一个像素栅格来获取更多的匹配点,生成密集点云数据。
4.根据权利要求3所述的融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于:所述步骤二中运用3D-BoNet三维点云分割框架对融合后的点云数据进行实例分割,具体过程为:
所述3D-BoNet三维点云分割框架由一个骨干网络和两个并行的网络分支组成;
所述两个并行的网络分支为:实例级边界框预测分支、用于实例分割的点级掩码预测分支;
所述实例级边界框预测分支用于预测点云中每个实例的边界框;
所述用于实例分割的点级掩码预测分支用于预测边界框中的点的掩码,以进一步区分边界框中的点属于实例还是背景;
步骤二一、使用骨干网络为每个点云提取局部向量,并为整个输入点云提取全局特征向量;
所述局部特征向量是每个点云周围属性的集合;
所述全局特征向量是所有点云周围属性的集合;
步骤二二、引入实例级边界框预测分支和用例实例分割的点级掩码预测分支和一系列损失函数来学习物体边界;
步骤二三、将预测的框和全局特征一起馈入后续的点掩码分支:
将特征点与每个边界框和分数进行融合,然后为每个实例预测一个点级二值掩码;考虑到背景点和实例点之间的不平衡,使用焦点损失来优化该分支。
5.根据权利要求4所述的融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于:步骤二二中所述设计一系列损失函数具体过程为:
Step1.将预测的边界框与地面真值边界框之间进行关联,获得总代价最小的关联指数矩阵:
Figure FDA0002740824140000021
其中,A是关联指数矩阵,C是关联代价矩阵代表将第一个预测的边界框分配给地面真值的边界框的关联代价,H是预测的边界框数量,T是真值边界框预测数量,i∈(1,n)是预测框的个数,j∈(1,n)是地面真值框的个数,Ci,j是两个盒子的相似性;
其中C是关联代价矩阵其中包含顶点之间的欧几里德距离、SoftloU和交叉熵三个指标,第一预测的边界框和地面真值的边界框最终相关代价为:
Figure FDA0002740824140000022
其中,
Figure FDA0002740824140000031
是顶点之间的欧几里德距离指标,
Figure FDA0002740824140000032
是sIoU指标,
Figure FDA0002740824140000033
是交叉熵;
Step2.定义损失函数:
(1)通过边界框关联各层利用关联指数矩阵A将预测的边界框B及其对应的得分与地面真值进行匹配,使靠前的T的边界框和边界框与地面真值匹配得到盒型预测的多准则损失函数:
Figure FDA0002740824140000034
C是关联代价矩阵,代表将第i个预测的边界框分配给地面真值的边界框的关联代价,T是地面真值的边界框总数,t是预测盒和真值盒对应配对的个数。
(2)将交叉熵损失用于二元分类任务得到边界框得分预测损失函数:
Figure FDA0002740824140000035
Bs t是关联后的预测分数;
(3)最终整个网络的最终损失函数定义为:
lall=lsem+lbbox+lbbs+lpmask
其中,lpmask使用第T对掩码值计算,lsem采用标准的softmax交叉熵损失函数实现了另一个独立的分支来学习逐点语义。
6.根据权利要求5所述的融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于:step1中所述的C是关联代价矩阵其中包含顶点之间的欧几里德距离、SoftloU和交叉熵三个指标,具体过程为:
(1)顶点之间的欧几里德距离:第i个预测的边界框分配给第j个地面真值的边界框的代价为:
Figure FDA0002740824140000036
其中,B是预测边界框的顶点的坐标信息,是
Figure FDA0002740824140000037
真值边界的顶点坐标信息;
(2)第一预测的边界框和地面真值的边界框的sIoU的定义为:
Figure FDA0002740824140000038
N是点云p中的点云数,
Figure FDA0002740824140000041
是第n个硬的二进制向量,
Figure FDA0002740824140000042
预测框内点的概率的取值范围是[0,1];
(3)交叉熵倾向于获得具有更高覆盖率的更大边界框:
Figure FDA0002740824140000043
7.根据权利要求6所述的融合无人机影像与地基雷达点云的林分因子提取方法,其特征在于:所述步骤三中基于深度学习的生物量反演具体过程为:
在提取林分因子的基础上,经过ANN网络多层感知器训练后可以匹配任意一种输入输出之间的映射关系,从而用它来根据已知的观察值输出反演出合适的参数输入,用多层MLP反演出与其对应的合适的参数输入矢量来进行迭代反演,依据先验知识加入约束,提高反演速度和精度。
CN202011149806.9A 2020-10-23 2020-10-23 融合无人机影像与地基雷达点云的林分因子提取方法 Pending CN112200846A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011149806.9A CN112200846A (zh) 2020-10-23 2020-10-23 融合无人机影像与地基雷达点云的林分因子提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011149806.9A CN112200846A (zh) 2020-10-23 2020-10-23 融合无人机影像与地基雷达点云的林分因子提取方法

Publications (1)

Publication Number Publication Date
CN112200846A true CN112200846A (zh) 2021-01-08

Family

ID=74011073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011149806.9A Pending CN112200846A (zh) 2020-10-23 2020-10-23 融合无人机影像与地基雷达点云的林分因子提取方法

Country Status (1)

Country Link
CN (1) CN112200846A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205548A (zh) * 2021-04-01 2021-08-03 广西壮族自治区自然资源遥感院 一种林区无人机和地基点云的自动化配准方法及系统
CN113298947A (zh) * 2021-04-28 2021-08-24 江苏省送变电有限公司 一种基于多源数据融合的变电站三维建模方法介质及系统
CN113379810A (zh) * 2021-06-11 2021-09-10 云南师范大学 一种林地点云数据配准方法、装置、设备及存储介质
CN114066960A (zh) * 2022-01-13 2022-02-18 季华实验室 三维重建方法、点云融合方法、装置、设备及存储介质
CN115015911A (zh) * 2022-08-03 2022-09-06 深圳安德空间技术有限公司 一种基于雷达图像的导航地图制作和使用方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200134392A1 (en) * 2018-10-24 2020-04-30 The Climate Corporation Detection of plant diseases with multi-stage, multi-scale deep learning
CN111368854A (zh) * 2020-03-03 2020-07-03 东南数字经济发展研究院 一种批量提取航拍图像中颜色单一的同类目标轮廓的方法
CN111553987A (zh) * 2020-05-19 2020-08-18 北京数字绿土科技有限公司 一种基于海量数据的单木点云编辑方法及系统
CN111767865A (zh) * 2020-06-30 2020-10-13 北部湾大学 一种利用航拍影像和激光数据反演红树林生物量的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200134392A1 (en) * 2018-10-24 2020-04-30 The Climate Corporation Detection of plant diseases with multi-stage, multi-scale deep learning
CN111368854A (zh) * 2020-03-03 2020-07-03 东南数字经济发展研究院 一种批量提取航拍图像中颜色单一的同类目标轮廓的方法
CN111553987A (zh) * 2020-05-19 2020-08-18 北京数字绿土科技有限公司 一种基于海量数据的单木点云编辑方法及系统
CN111767865A (zh) * 2020-06-30 2020-10-13 北部湾大学 一种利用航拍影像和激光数据反演红树林生物量的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BO YANG ET AL.: "Learning object bounding boxes for 3D instance segmentation on point clouds", 《 33RD CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS》 *
代婷婷: "基于UAV和TLS的树木参数提取", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205548A (zh) * 2021-04-01 2021-08-03 广西壮族自治区自然资源遥感院 一种林区无人机和地基点云的自动化配准方法及系统
CN113298947A (zh) * 2021-04-28 2021-08-24 江苏省送变电有限公司 一种基于多源数据融合的变电站三维建模方法介质及系统
CN113298947B (zh) * 2021-04-28 2023-10-03 江苏省送变电有限公司 一种基于多源数据融合的变电站三维建模方法介质及系统
CN113379810A (zh) * 2021-06-11 2021-09-10 云南师范大学 一种林地点云数据配准方法、装置、设备及存储介质
CN113379810B (zh) * 2021-06-11 2024-05-24 云南师范大学 一种林地点云数据配准方法、装置、设备及存储介质
CN114066960A (zh) * 2022-01-13 2022-02-18 季华实验室 三维重建方法、点云融合方法、装置、设备及存储介质
CN114066960B (zh) * 2022-01-13 2022-04-22 季华实验室 三维重建方法、点云融合方法、装置、设备及存储介质
CN115015911A (zh) * 2022-08-03 2022-09-06 深圳安德空间技术有限公司 一种基于雷达图像的导航地图制作和使用方法及系统
CN115015911B (zh) * 2022-08-03 2022-10-25 深圳安德空间技术有限公司 一种基于雷达图像的导航地图制作和使用方法及系统

Similar Documents

Publication Publication Date Title
CN111626217B (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN109410321B (zh) 基于卷积神经网络的三维重建方法
US20210390329A1 (en) Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium
CN112200846A (zh) 融合无人机影像与地基雷达点云的林分因子提取方法
CN111832655B (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN111145174B (zh) 基于图像语义特征进行点云筛选的3d目标检测方法
CN112529015A (zh) 一种基于几何解缠的三维点云处理方法、装置及设备
CN111968133A (zh) 自动驾驶场景下的三维点云数据实例分割方法及系统
CN113705631B (zh) 一种基于图卷积的3d点云目标检测方法
CN113706480A (zh) 一种基于关键点多尺度特征融合的点云3d目标检测方法
Lian et al. Large-scale semantic 3-D reconstruction: Outcome of the 2019 IEEE GRSS data fusion contest—Part B
CN113761999A (zh) 一种目标检测方法、装置、电子设备和存储介质
Liu et al. 3D building model generation from MLS point cloud and 3D mesh using multi-source data fusion
CN113724388B (zh) 高精地图的生成方法、装置、设备以及存储介质
CN111027581A (zh) 一种基于可学习编码的3d目标检测方法及系统
Morel et al. Segmentation of unbalanced and in-homogeneous point clouds and its application to 3D scanned trees
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
Pellis et al. 2D to 3D Label propagation for the semantic segmentation of Heritage building point clouds
CN110348311B (zh) 一种基于深度学习的道路交叉口识别系统及方法
Zhang et al. Point clouds classification of large scenes based on blueprint separation convolutional neural network
CN116071570A (zh) 一种室内场景下的3d目标检测方法
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
CN114882224B (zh) 模型结构、模型训练方法、单体化方法、设备及介质
Zhang et al. Multi-Data UAV Images for Large Scale Reconstruction of Buildings
Weibel et al. Sim2real 3d object classification using spherical kernel point convolution and a deep center voting scheme

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210108

WD01 Invention patent application deemed withdrawn after publication