CN115222988A - 激光雷达点云数据城市地物PointEFF精细分类方法 - Google Patents

激光雷达点云数据城市地物PointEFF精细分类方法 Download PDF

Info

Publication number
CN115222988A
CN115222988A CN202210838080.2A CN202210838080A CN115222988A CN 115222988 A CN115222988 A CN 115222988A CN 202210838080 A CN202210838080 A CN 202210838080A CN 115222988 A CN115222988 A CN 115222988A
Authority
CN
China
Prior art keywords
feature
point cloud
point
points
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210838080.2A
Other languages
English (en)
Other versions
CN115222988B (zh
Inventor
周国清
江越
王浩宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Technology
Original Assignee
Guilin University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Technology filed Critical Guilin University of Technology
Priority to CN202210838080.2A priority Critical patent/CN115222988B/zh
Publication of CN115222988A publication Critical patent/CN115222988A/zh
Priority to US18/352,246 priority patent/US20240020970A1/en
Application granted granted Critical
Publication of CN115222988B publication Critical patent/CN115222988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种激光雷达点云数据城市地物PointEFF精细分类方法,属于激光雷达点云分类领域。此方法包括:点云数据分块;端对端特征提取层构建;外部特征融合层构建;精度评价。PointEFF激光雷达点云数据城市地物精细分类方法通过构建外部特征融合(External Feature Fusion)模块,在模型上采样阶段将点云手工设计描述符(hand crafted descriptors)与网络得到的端对端特征融合,改善了以PointNet、PointNet++为代表的领域特征池化方法在上采样过程中因插值操作造成的点云局部信息损失问题,极大地提高了模型在复杂地物分类上,特别是提高对粗糙表面地物分类的分类精度,能够更好的应用于地物类型复杂的城市地物分类。

Description

激光雷达点云数据城市地物PointEFF精细分类方法
技术领域
本发明涉及激光雷达点云分类领域,特别涉及激光雷达点云数据城市地物精细分类。
背景技术
及时、准确地从高精度3D激光雷达点云数据中获取城市地物信息和进行城市地物分类成为国际上的研究热点。目前,激光雷达点云分类任务一般分为两个步骤:从局部和全局提取具有代表性的点特征;利用获取到的特征将每个点划分为预定义的语义类别。由于城市地物点云数据具有数据量大、场景复杂的特点,所以设计一种能获取点云丰富特征的分类方法尤为关键。
在点云分类方法上,早期的研究主要利用手工设计的规则提取特征,再使用如支持向量机(SVM)、随机森林(RF)等机器学习的方法预测每个点的语义类别,这种方法由于手工设计的规则提取的特征的限制,在面对复杂场景时无法达到令人满意的效果。随着深度学习的兴起,研究者们逐渐考虑基于深度学习来处理点云数据相关问题,但是由于点云的无序性的特点,早期的基于深度学习的方法一般先将点云正则化处理为二维图像或者体素网格再进行分类,如MVCNN、 CVGNN、VoxNet、Kd-Net等,这种将三维数据转化为二维数据再进行处理的方式并不能充分利用点云数据的特性。
以PointNet、PointNet++为代表的领域特征池化方法舍弃了上述的先将点云正则化再处理的方式,开创了直接对原始点云进行处理的先河,以较低的代价和较好的效果解决了点云无序性、置换不变性和旋转不变性的问题,如申请号为CN109410238A的一种基于PointNet++网络的枸杞识别计数方法利用PointNet++网络融合上下文信息,实现了对枸杞数量的识别和计数;申请号为CN110210431A的一种基于点云语义标注和优化的点云分类方法使用PointNet++对原始点云进行预分类。领域特征池化方法在小场景、小范围的点云数据集的分类问题上取得了优异的效果,但是在面对场景复杂、数据量庞大的城市地物分类问题上,其还存在以下不足:
1、领域特征池化方法在获取点云每个点的特征后,采用的池化的方式用某一点的特征来表示点云局部区域特征。池化虽然能够缩减模型的大小,提高计算速度,但是在面对空间信息丰富的分类对象时势必会造成局部区域有用信息的损失。
2、领域特征池化方法在上采样过程中采用插值的方式来恢复点云空间维度,用少数的采样点的特征来描述局部区域的特征,在面对简单场景的分类任务时能够取得比较好的效果,但是在面对复杂场景,特别是粗糙表面场景的分类任务时比较吃力。
3、领域特征池化方法缺乏对点与点之间结构信息的提取。
发明内容
为了解决上述技术问题,本发明提出了一种新型的激光雷达点云数据城市地物PoinEFF(Point cloud External Feature Fusion Net)精细分类方法,其主要思想是在模型上采样阶段将手工设计描述符(hand crafted descriptors)与领域特征池化获取的端对端(end to end)特征融合,构建外部特征融合(External Feature Fusion)模块。激光雷达点云数据城市地物PointEFF精细分类方法解决了传统的基于深度学习的领域特征池化方法在提取点云特征时没有考虑点与点之间的结构信息的缺陷,改善了其在上采样过程中因插值操作造成的点云局部信息损失问题,极大地提高了模型在复杂地物分类上,特别是提高对粗糙表面地物分类的分类精度。
考虑到快速点特征直方图(Fast Point Feature Histogram)具有提取简单、对噪声和密度变化鲁棒性强以及几何结构信息丰富的优点,本方法选择其作为外部特征融合模块的输入。本发明可以采用以下技术方案实现:
步骤1:点云数据分块。
步骤2:构建PointEFF端对端特征提取层。
步骤3:构建PointEFF外部特征融合层。
步骤4:输入数据,得到点云类别标签并进行精度评价。
进一步的,所述步骤1中数据分块包括以下步骤:
由于网络处理的每批次点的数量是有限的,所以本发明先使用简化的密度聚类(DBSCAN)算法将数据按照点数聚类和分块后再输入网络,以处理点数庞大的城市地物数据集,其计算方法如下:
设点集为R,其中第一个点的坐标为p1=(x1,y1,z1)∈R,其余点坐标为pR-1=(xR-1,yR-1,zR-1)∈R,则pR-1到p1的欧式距离的定义为:
Figure BDA0003749656550000031
根据每个样本点到p1的距离dR-i和设定的分块区域的点数m,划分出p1的领域为{p1,p1…,pm}后再迭代计算内剩余点到pm+1点的距离,直至点集内所有点被划分完毕。
进一步的,所述步骤2中构建PointEFF端对端特征提取层包括以下步骤:
端对端特征提取层包括网络编码器和解码器两部分。编码器通过抽象集合操作对一组点进行处理和抽象,以递归提取点云局部区域的多尺度特征。解码器通过特征传播操作操作逐渐恢复空间维度,融合编码过程中提取到的特征,在尽可能减少信息损失的前提下完成同尺度的输入输出。二者通过两组跳跃链接模块来传递网络不同尺度的特征。
网络编码器包含三次抽象集合操作,抽象集合由采样层、分组层和特征提取层三部分组成。首先,将具有3维属性(x,y,z)的N个激光雷达点输入到我们的网络中,采样层通过迭代最远点采样算法 (Farthest Point Sampling)选择N′点来定义局部区域的N′个质心。
之后在分组层中,通过球查询算法(query ball),设定半径r,搜索质心范围r内相邻的k点构建局部区域。在执行采样层和分组层之后,激光雷达点被采样成N′中心簇,每个中心簇包含k个点和它们的 36维属性,输出涉及一组大小为N′×k×36的点集。最后,我们通过特征提取层将这些局部区域编码为特征向量。将点集输入MLP网络,输出为N′×k×C,其中C为通过MLP提取的特征,每个中心簇再经过最大池化(max-pooling)操作,选取每个中心簇中最大的特征作为区域特征,输出为N′×C。
经过三次抽象集合操作,直至输出为1×1024的全局特征。
网络解码器由三次特征传播操作和二组跳跃链接模块构成,其利用上采样操作逐渐恢复空间维度,融合编码过程中提取到的特征,在尽可能减少信息损失的前提下完成同尺度的输入输出。
在特征传播层中,为了将学习到的特征从采样点传播到原始点,对于通过编码器得到的N″×C′维特征图,首先使用反距离加权算法 (Inverse Distance Weighted)进行插值,计算每个待插值点到所有点的距离,计算出权重,将点数从N″插值到N′,得到插值后的N×C维特征图。再通过跳跃链接模块链接同尺度下编码器得到的C维特征图,得到N×(C′+C)维特征图。最后通过多层感知器(MLP),得到N ×C″′维特征图。
在经过三层特征传播操作后,得到N×128维特征图。
进一步的,所述步骤3中构建PointEFF外部特征融合层包括以下步骤:
外部特征融合层由手工设计描述符的提取和外部特征融合模块构成。本方法选择快速点特征直方图作为外部特征融合模块的输入,提取快速点特征直方图的步骤如下:
利用最小二乘法平面拟合求得点云法线,根据求得的法向量,建立两点之间的局部坐标系:
μ=ηs
Figure BDA0003749656550000051
ω=μ×υ
点法线对之间的差异可以用以下角度表示:
α=υ·ηt
Figure BDA0003749656550000052
θ=arctan(ω·ηt,μ·ηt)
d=||pt-ps||2
然后对这些角度量化形成点特征直方图(PFH)。
快速点特征直方图的特征表示为:
Figure BDA0003749656550000053
在获取快速点云点特征直方图后,将端对端特征提取层得到的N ×128维特征图和手工设计描述符提取到的N×33维快速点特征直方图作为输入传递进外部特征融合模块。在外部特征融合模块中,端对端特征提取层得到特征为:
x∈R128
快速点特征直方图的特征为:
y∈R33
通过拼接(concatenate)操作得到新的特征图为:
z=[x,y]∈R128+33
拼接操作完毕后,再通过多层感知机,得到N×128维特征图,每个点都有128维特征。
进一步的,输入训练数据,和测试数据,得到分类结果并进行精度评价,评价指标选取OA、mIoU、Kappa系数、和F1-score,计算方法如下:
Figure BDA0003749656550000061
Figure BDA0003749656550000062
Figure BDA0003749656550000063
Figure BDA0003749656550000064
Figure BDA0003749656550000065
Figure BDA0003749656550000066
Figure BDA0003749656550000067
附图说明
图1是专利技术流程图
图2是训练数据分块情况图
图3是测试数据分块情况图
图4是PointEFF端对端特征提取层结构图
图5是PointEFF外部特征融合层结构图
图6是PointEFF网络分类结果图
具体实施方式
下面结合附图和具体实施案例,对本发明作进一步阐明。
在Windows操作系统下,选择PyTorch为平台,搭建PointEFF 网络,在NMP3DBenchmark Suite数据集上验证网络的有效性。
具体包括以下几个步骤:
步骤1:结合图1、图2,说明点云分块及训练数据和测试数据分布情况。将NMP3D数据集按10000点数进行分块,分为83个训练区域,其中,MiniLille1、MiniLille2和MiniParis1_1中的60个区域为训练数据,MiniParis1_2中的23个区域为测试数据。
步骤2:结合图3,说明PointEFF网络端对端特征提取层的构建。端对端特征提取层由编码器和解码器两部分组成,其中编码器部分包含三次抽象集合操作,解码器部分包含三次特征传播操作和二组跳跃链接模块。
设定N=2048,将具有3维位置属性的2048个激光雷达点输入网络中,采样层通过迭代最远点采样算法选取512个中心点,在分组层中,通过球查询算法,设定查询查询半径r=0.2米,查询点数k=32 个,搜索质心0.2m范围内相邻的32个点构建中心簇,在通过特征提取层输出512×256维特征图,第一次抽象集合完毕。
对第一次抽象集合得到的512×256维特征图,采样层通过迭代最远点采样算法选取128个中心点,在分组层中,通过球查询算法,设定查询半径r=0.4米,查询点数k=64个,搜索质心0.4m范围内相邻的64个点构建中心簇,再通过特征提取层输出128×256维特征图,第二次抽象集合操作完毕。
对第二次抽象集合操作得到的128×256维特征图,再进行第三次抽象集合操作,最终得到1×1024的区域全局特征。网络编码器部分设计完毕。
在第一次特征传播中,首先将编码器得到的1×1024维特征图进行复制操作,得到128×1024维特征图,再通过跳跃链接模块链接同尺度下编码器得到的256维特征,得到128×(1024+256)维特征图,最后通过多层感知器(MLP),得到128×256维特征图,第一次特征传播完毕。
在第二次特征传播中,利用反距离权重算法(IDW)将第一次特征传播层中得到的128×256维特征图进行插值,得到512×256维特征图,再通过跳跃链接模块链接同尺度下编码器得到的128维特征,得到512×(256+128)维特征图,最后通过多层感知器(MLP),得到512 ×128维特征图,第二次特征传播完毕。
在第三次特征传播中,利用反距离权重算法(IDW)将第二次特征传播层中得到的512×128维特征图进行插值,得到2048×128维特征图,最后通过多层感知器(MLP),得到2048×128维特征图,第二次特征传播完毕。网络解码器部分设计完毕。
步骤3:结合图3,说明网络外部特征融合层的构建。
在Windows操作系统下,选择PCL(Point Cloud Library)为平台,提取快速点特征直方图。设置半径为0.03米,计算点云法线。在提取的点云法线的基础上,设置半径为0.04米,计算快速点特征直方图。将计算得到的快速点特征直方图存储在pcd文件中。手工设计描述符提取完毕。
手工设计描述符提取完毕后,将端对端特征提取层得到的N×128维特征图和N×33维快速点特征直方图作为输入传递进外部特征融合模块。在外部特征融合模块中,通过拼接(concatenate)融合端对端特征提取层得到的特征和提取到的手工设计描述符,得到N× (128+33)维特征图。之后将融合得到的特征图作为多层感知机的输入,得到2048×128维特征图。
最后,输入特征图,通过一维卷积得到类别标签,分类完毕。
步骤5:结合图6,说明PointEFF的分类效果
PointEFF分类总体精度见表1,各类别分类精度结果见表2,可以看出,大多数类别都被正确分类,特别是在建筑物和之别这种表面比较粗糙的场景的分类上取得了优异的效果。
表1:PointEFF分类总体精度结果
Figure BDA0003749656550000091
表2:PointEFF分类各类别分类精度结果
Figure BDA0003749656550000092

Claims (4)

1.激光雷达点云数据城市地物PointEFF精细分类方法,其特征在于:①通过提取点云手工设计描述符(hand crafted descriptors),获得更加丰富的点云几何结构信息,解决了传统的基于深度学习的领域特征池化方法在提取点云局部特征时没有考虑点与点之间的结构信息的缺陷②在模型上采样阶段构建外部特征融合模块(External FeatureFusion)模块,改善了传统的基于深度学习的领域特征池化方法在上采样过程中因插值操作造成的点云局部信息损失问题,极大的提高了模型在复杂地物分类上,特别是对粗糙表面分类的分类精度;
其特征还在于由点云数据分块、端对端特征提取层、外部特征融合层组成。
2.根据权利要求1所述的激光雷达点云数据城市地物PointEFF精细分类方法,其特征在于,按如下步骤对点云数据进行分块:
设点集为R,其中第一个点为p1=(x1,y1,z1)∈R,其余点为pR-1=(xR-1,yR-1,zR-1)∈R,pR-1到p1的欧式距离为:
Figure FDA0003749656540000011
根据每个样本点到p1的欧式距离和分块区域的点数m,划分出p1的领域为{p1,p1…,pm}后再迭代计算点集内剩余点到pm+1点的距离,直至点集内所有点被划分完毕。
3.根据权利要求1所述的激光雷达点云数据城市地物PointEFF精细分类方法,其特征在于,按照如下步骤构建端对端特征提取层:
端对端特征提取层包括网络编码器和解码器两部分;编码器通过抽象集合操作对一组点进行处理和抽象,以递归提取点云局部区域的多尺度特征;解码器通过特征传播操作操作逐渐恢复空间维度,融合编码过程中提取到的特征,在尽可能减少信息损失的前提下完成同尺度的输入输出;二者通过两组跳跃链接模块来传递同尺度的特征;
网络编码器包含三次抽象集合操作,抽象集合由采样层、分组层和特征提取层三部分组成;首先,将具有3维属性(x,y,z)的N个激光雷达点输入到我们的网络中,采样层通过迭代最远点采样算法(Farthest Point Sampling)选择N′点来定义局部区域的N′个质心;
之后在分组层中,通过球查询算法(query ball),设定半径r,搜索质心范围r内相邻的k点构建局部区域;在执行采样层和分组层之后,激光雷达点被采样成N′中心簇,每个中心簇包含k个点和它们的36维属性,输出涉及一组大小为N′×k×36的点集;最后,我们通过特征提取层将这些局部区域编码为特征向量;将点集输入MLP网络,输出为N′×k×C,其中C为通过MLP提取的特征,每个中心簇再经过最大池化(max-pooling)操作,选取每个中心簇中最大的特征作为区域特征,输出为N′×C;
经过三次抽象集合,直至输出为1×1024的全局特征;
网络解码器由三次特征传播操作和二组跳跃链接模块构成,其利用上采样操作逐渐恢复空间维度,融合编码过程中提取到的特征,在尽可能减少信息损失的前提下完成同尺度的输入输出;在特征传播层中,为了将学习到的特征从采样点传播到原始点,对于通过编码器得到的N″×C′维特征图,首先使用反距离加权算法(Inverse Distance Weighted)进行插值,计算每个待插值点到所有点的距离,计算出权重,将点数从N″插值到N′,得到插值后的N×C维特征图;再通过跳跃链接模块链接同尺度下编码器得到的C维特征图,得到N×(C′+C)维特征图;最后通过多层感知器(MLP),得到N×C″′维特征图;
在经过三层特征传播层后,得到N×128维特征图。
4.根据权利要求1所述的激光雷达点云数据城市地物PointEFF精细分类方法,其特征在于,按照如下步骤构建外部特征融合层:
外部特征融合层由手工设计描述符的提取和外部特征融合模块构成;本方法选择快速点特征直方图作为外部特征融合模块的输入;
利用最小二乘法平面拟合求得点云法线,根据求得的法向量,建立两点之间的局部坐标系:
μ=ηs
Figure FDA0003749656540000031
ω=μ×υ
点法线对之间的差异可以用以下角度表示:
α=υ·ηt
Figure FDA0003749656540000032
θ=arctan(ω·ηt,μ·ηt)
d=||pt-ps||2
然后对这些角度量化形成点特征直方图PFH;
快速点特征直方图的特征表示为:
Figure FDA0003749656540000033
在获取快速点云点特征直方图后,将端对端特征提取层得到的N×128维特征图和N×33维快速点特征直方图作为输入传递进外部特征融合模块;在外部特征融合模块中,端对端特征提取层得到特征为:
x∈R128
快速点特征直方图的特征为:
y∈R33
通过拼接(concatenate)操作得到新的特征图为:
z=[x,y]∈R128+33
拼接操作完毕后,再通过多层感知机,得到N×128维特征图,即每个点都有128维特征;
最后,输入特征图,通过一维卷积得到点云类别标签,激光雷达点云数据城市地物PointEFF精细分类方法设计完。
CN202210838080.2A 2022-07-17 2022-07-17 激光雷达点云数据城市地物PointEFF精细分类方法 Active CN115222988B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210838080.2A CN115222988B (zh) 2022-07-17 2022-07-17 激光雷达点云数据城市地物PointEFF精细分类方法
US18/352,246 US20240020970A1 (en) 2022-07-17 2023-07-14 Pointeff method for urban object classification with lidar point cloud data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210838080.2A CN115222988B (zh) 2022-07-17 2022-07-17 激光雷达点云数据城市地物PointEFF精细分类方法

Publications (2)

Publication Number Publication Date
CN115222988A true CN115222988A (zh) 2022-10-21
CN115222988B CN115222988B (zh) 2024-06-18

Family

ID=83612080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210838080.2A Active CN115222988B (zh) 2022-07-17 2022-07-17 激光雷达点云数据城市地物PointEFF精细分类方法

Country Status (2)

Country Link
US (1) US20240020970A1 (zh)
CN (1) CN115222988B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147245A1 (en) * 2017-11-14 2019-05-16 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
CN110210431A (zh) * 2019-06-06 2019-09-06 上海黑塞智能科技有限公司 一种基于点云语义标注和优化的点云分类方法
CN111476242A (zh) * 2020-03-31 2020-07-31 北京经纬恒润科技有限公司 一种激光点云语义分割方法及装置
CN112633330A (zh) * 2020-12-06 2021-04-09 西安电子科技大学 点云分割方法、系统、介质、计算机设备、终端及应用
CN113378854A (zh) * 2021-06-11 2021-09-10 武汉大学 一种融合原始点云和体素划分的点云目标检测方法
WO2021232463A1 (zh) * 2020-05-19 2021-11-25 北京数字绿土科技有限公司 多源移动测量点云数据空地一体化融合方法、存储介质
CN114120110A (zh) * 2021-11-22 2022-03-01 中国科学院紫金山天文台 一种混杂场景机载激光点云分类的多粒度计算方法
CN114187310A (zh) * 2021-11-22 2022-03-15 华南农业大学 基于八叉树和PointNet++网络的大规模点云分割方法
CN114187422A (zh) * 2021-11-30 2022-03-15 华中科技大学 一种基于视触觉融合的三维测量方法及系统
CN114723764A (zh) * 2022-02-28 2022-07-08 西安理工大学 一种点云物体的参数化边缘曲线提取方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147245A1 (en) * 2017-11-14 2019-05-16 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
CN110210431A (zh) * 2019-06-06 2019-09-06 上海黑塞智能科技有限公司 一种基于点云语义标注和优化的点云分类方法
CN111476242A (zh) * 2020-03-31 2020-07-31 北京经纬恒润科技有限公司 一种激光点云语义分割方法及装置
WO2021232463A1 (zh) * 2020-05-19 2021-11-25 北京数字绿土科技有限公司 多源移动测量点云数据空地一体化融合方法、存储介质
CN112633330A (zh) * 2020-12-06 2021-04-09 西安电子科技大学 点云分割方法、系统、介质、计算机设备、终端及应用
CN113378854A (zh) * 2021-06-11 2021-09-10 武汉大学 一种融合原始点云和体素划分的点云目标检测方法
CN114120110A (zh) * 2021-11-22 2022-03-01 中国科学院紫金山天文台 一种混杂场景机载激光点云分类的多粒度计算方法
CN114187310A (zh) * 2021-11-22 2022-03-15 华南农业大学 基于八叉树和PointNet++网络的大规模点云分割方法
CN114187422A (zh) * 2021-11-30 2022-03-15 华中科技大学 一种基于视触觉融合的三维测量方法及系统
CN114723764A (zh) * 2022-02-28 2022-07-08 西安理工大学 一种点云物体的参数化边缘曲线提取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YIYAO ZHOU, ET AL.: "Point cloud denoising using non-local collaborative projections", PATTERN RECOGNITION, 31 December 2021 (2021-12-31), pages 1 - 11 *
张爱武;李文宁;段乙好;孟宪刚;王书民;李含伦;: "结合点特征直方图的点云分类方法", 计算机辅助设计与图形学学报, no. 05, 15 May 2016 (2016-05-15), pages 106 - 112 *
王宏涛;雷相达;赵宗泽;: "融合光谱信息的机载LiDAR点云三维深度学习分类方法", 激光与光电子学进展, no. 12, 31 December 2020 (2020-12-31), pages 348 - 355 *
胡海瑛;惠振阳;李娜;: "基于多基元特征向量融合的机载LiDAR点云分类", 中国激光, no. 08, 31 December 2020 (2020-12-31), pages 237 - 247 *

Also Published As

Publication number Publication date
US20240020970A1 (en) 2024-01-18
CN115222988B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
CN109410321B (zh) 基于卷积神经网络的三维重建方法
WO2024077812A1 (zh) 基于点云语义分割与结构拟合的单体建筑三维重建方法
Ji et al. A novel simplification method for 3D geometric point cloud based on the importance of point
CN104090972A (zh) 用于三维城市模型检索的图像特征提取和相似性度量方法
CN110119772B (zh) 一种基于几何形状特征融合的三维模型分类方法
CN112396641B (zh) 一种基于全等二基线匹配的点云全局配准方法
CN110019914A (zh) 一种支持三维场景交互的三维模型数据库检索方法
CN101477529A (zh) 一种三维对象的检索方法和装置
CN112085072A (zh) 基于时空特征信息的草图检索三维模型的跨模态检索方法
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN111985389A (zh) 一种基于流域属性距离的流域相似判别方法
CN113239753A (zh) 基于YOLOv4改进的交通标志检测与识别方法
CN115619963A (zh) 一种基于内容感知的城市建筑物实体建模方法
CN115713605A (zh) 一种基于图像学习的商业类建筑群自动建模方法
CN114998890A (zh) 一种基于图神经网络的三维点云目标检测算法
CN112085837B (zh) 一种基于几何形状和lstm神经网络的三维模型分类方法
CN110310322A (zh) 一种10微米级高精度器件装配表面检测方法
CN113628329A (zh) 一种零样本草图三维点云检索方法
CN112200248B (zh) 一种基于dbscan聚类的城市道路环境下的点云语义分割方法、系统及存储介质
Xin et al. Accurate and complete line segment extraction for large-scale point clouds
CN112634447A (zh) 一种露头岩层分层方法、装置、设备及存储介质
Zhou 3D urban modeling from city-scale aerial LiDAR data
CN116579949A (zh) 适用于城市多噪声环境下机载点云地面点滤波方法
CN115222988B (zh) 激光雷达点云数据城市地物PointEFF精细分类方法
CN115272864A (zh) 一种基于无人机航空摄影的实景三维建筑物智能提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant