CN112257597B - 一种点云数据的语义分割方法 - Google Patents
一种点云数据的语义分割方法 Download PDFInfo
- Publication number
- CN112257597B CN112257597B CN202011141582.7A CN202011141582A CN112257597B CN 112257597 B CN112257597 B CN 112257597B CN 202011141582 A CN202011141582 A CN 202011141582A CN 112257597 B CN112257597 B CN 112257597B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- semantic segmentation
- network
- module
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000005070 sampling Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 230000002776 aggregation Effects 0.000 claims description 6
- 238000004220 aggregation Methods 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 12
- 230000008859 change Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 15
- 238000011176 pooling Methods 0.000 description 13
- 238000012360 testing method Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000008033 biological extinction Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种点云数据的语义分割方法,属于点云数据处理技术领域。本发明从点云数据的几何特性出发,结合深度学习底层理论构建语义分割网络模型,该语义分割网络模型将CrossLink网络结构与深度学习理论中的Densenet网络相结合,保证了不同尺度下点云信息充分融合,增加了点云语义分割场景尺度变化的鲁棒性。解决了点云实际处理工程中分割精度不佳、分割消耗时间长以及处理点云数据量有限的问题。
Description
技术领域
本发明涉及一种点云数据的语义分割方法,属于点云数据处理技术领域。
背景技术
三维激光扫描测量技术正以日新月异的发展态势成为三维空间信息获取的一种无可替代的方式。由于缺乏结构,原始点云除了可视化和简单距离测量外,其它的应用十分有限,需要通过数据处理从中提取出感兴趣的信息,其中获取点云的语义信息是实现三维场景识别的重要手段,其在导航、林业、市政等诸多行业有着重要的应用。
为了解决点云的语义分割问题,相关学者提出了大量的解决方案,如:基于边缘的分割方法、区域生长型算法、模型匹配法以及以这些方法为基础加以组合形成的复合算法。由于点云的海量和分布不均匀等特性,且在现实场景中语义信息种类繁多、分布复杂,导致点云语义分割问题很难使用某一种固定的算法加以解决,迫切需要一种以数据驱动的方式来进行处理。
近年来,深度学习在图像和自然语言处理方面取得了巨大成就,相关研究也逐渐扩展到了点云处理领域,并且出现了专注于点云分割的深度学习方法。在深度学习领域,根据语义分割过程中基于的输入数据类型不同,可将点云语义分割网络分为两大类,分别为:投影类网络和基于点的卷积神经网络。其中投影类网络根据投影中介的不同,又可分为:多视图投影、球形投影、体素投影、晶格投影以及复合投影,投影类网络在映射过程中会不可避免的存在遮挡,从而存在三维空间信息的丢失。
直接基于点数据的卷积神经网络根据分割过程中使用的网络架构的不同,又可分为:逐点多层感知机的网络、点卷积网络、基于RNN(Recurrent Neural Network)的网络以及图卷积网络。虽然大量学者已经获得了卓有成效的研究结果,然而在现有的深度学习语义分割模型中,深度学习语义分割模型仍然存在一定的问题,逐点多层感知机的网络代表PointNet采用最大池化聚合所有点的特征,完全忽略了点云的领域特性对语义分割的重要性。图卷积网络构造复杂,在实际应用过程中泛化能力差;而基于RNN的网络只能提供点云的上下文特征,难以独立地构建语义分割模型。理论上,神经网络的深度越深越能提取更加抽象的特征,有助于语义分割,然而网络的加深,也会带来一些弊端,例如:过拟合、梯度消失、以及网络过深也会使得网络变得冗余复杂,为语义分割也带来了许多不必要的计算量。
发明内容
本发明的目的是提供一种点云数据的语义分割方法,以解决目前点云数据语义分割中存在的效率低、准确性不高的问题。
本发明为解决上述技术问题而提供一种点云数据的语义分割方法,该语义分割方法包括以下步骤:
构建语义分割网络模型,所述的语义分割网络模型包括降采样模块、CrossLink模块和升采样模块,降采样模块包括MLP处理单元和特征聚合单元,用于聚合邻居点的空间几何特征,并将空间坐标以及数据原始特征转换为抽象特征,且通过降采样操作获得不同尺度的信息;CrossLink模块用于将各尺度特征向量维度进行融合,用于后续升采样操作处理;升采样模块采用最邻近插值和Densenet网络,从而可结合上下文信息对点云的细节进行恢复,以便进行后续处理,最终获得逐点的语义标签。
利用已训练的语义分割网络模型对待分割的点云数据进行分割。
本发明从点云数据的几何特性出发,结合深度学习底层理论构建语义分割网络模型,该语义分割网络模型将CrossLink网络结构与深度学习理论中的Densenet网络相结合,保证了不同尺度下点云信息充分融合,增加了点云语义分割场景尺度变化的鲁棒性,解决了点云实际处理工程中分割精度不佳、分割消耗时间长以及处理点云数据量有限的问题。
进一步地,为了能够获取更多的上下文信息,所述Densenet网络的每一层的输入为之前层模块的输出,即将之前所有层的输出进行维度变换作为本层的额外输入,并将其与本层所获得的新的特征相组合。
进一步地,为了获取精确的几何特征,所述的特征聚合单元采用KNN算法,用于聚合点云数据中邻居点的空间几何特征。
进一步地,为了提高训练速度,所述CrossLink模块采用求和方式融合多尺度特征。
进一步地,为了增强模型的泛化能力,该方法还包括对MLP处理单元处理单元处理得到的数据进行注意力池化操作。
附图说明
图1是本发明点云数据的语义分割方法采用语义分割网络模型架构图;
图2是本发明语义分割网络模型中降采样原理示意图;
图3是本发明语义分割网络模型中CrossLink模块细节图;
图4-a是原始的神经网络模型残差模块示意图;
图4-b是ResNet模型的残差模块示意图;
图5是本发明语义分割网络模型中Densenet模型示意图;
图6-a是本发明实验过程中所选用Semantic 3D数据集中的点云激光强度示意图;
图6-b是本发明实验过程中所选用Semantic 3D数据集中的点云RGB示意图;
图6-c是本发明实验过程中所选用Semantic 3D数据集中的点云语义标签示意图;
图7是实验过程中本发明与现有点云语义分割结果示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步地说明。
本发明考虑到点云邻域特性,结合深度学习理论中空洞卷积与注意力池化设计点云集合信息,根据点云的多尺度特性,将CrossLink网络结构与深度学习理论中的DenseLink相结合,构建了语义分割模型,该语义分割模型包括降采样模块、CrossLink模块和升采样模块,其中降采样模块包括特征聚合单元和MLP单元,用于聚合邻居点的空间几何特征,并将空间坐标以及数据原始特征转换为抽象特征,得到不同尺度的信息;CrossLink模块用于将各尺度特征向量维度转换为目标尺度的特征向量维度,并将融合;升采样模块采用Densenet网络,用于对CrossLink模块输出的特征进行升采样。下面对该方法的具体实现过程进行详细说明。
1.构建语义分割网络模型。
本发明结合目前网络框架设计经验以及最新的网络框架设计理论,从以下两点出发构建本发明的语义分割网络模型。分别为:第一:改善跨尺度信息流动,使得网络在早期将不同尺度的空间信息进行混合,从而使网络对点云的尺度变化有更强的鲁棒性;第二,借鉴DenseNet的理论,在升采样的过程中使得网络中的每一层都能接受该层之前的网络信息,以改善神经网络跨层信息流动,增加了特征重用,减少了网络中的参数。该语义分割网络模型的架构如图1所示,包括有降采样模块、CrossLink模块和升采样模块。
其中降采样模块如图2所示,其中DP表示DownSampling,为降采样操作,DP1~DP5表示进行了5次降采样,即5个神经层,每一层的输出为下一层的输入。在每一神经层中,首先通过降采样DP操作,稀疏点云,然后通过KNN算法,用于获取点云数据的邻域中心点坐标、邻域点坐标、坐标差以及欧氏距离;而最后的MLP(Multi Layer Perceptron,多层感知机)单元用于将空间坐标以及前一神经层的输出特征转换为描述能力更强的抽象特征。其中,降采样的次数在理论上可随意设定,本模型设置为5次的原因为在试验过程中,低于5次降采样未达到理想分割效果;而高于5次,分割效果并未有明显提升,且消耗大量的内存资源与计算资源,造成点云分割处理效率下降。
MLP单元的输入为邻域中心点坐标、邻域点坐标、坐标差以及欧氏距离合并而成,如下式:
其中pi为卷积核中心点空间坐标,为以pi为中心点的邻域点坐标,MLP单元输出与点云原始特征(例如:颜色、反射率等)相结合,以获得增强特征。MLP在试验中的具体实施方法为一维卷积,其中卷积方式采用“空洞卷积”方式。空洞卷积在卷积操作过程中加入了一些“空洞”,描述空洞程度的空洞率在如下公式中用r表示。空洞卷积可以有效地扩大卷积核的大小,同时并不增加网络参数的数量。在下式中,X表示坐标、邻域等空间信息,W为网络模型的权重。
注意力池化(attentive pooling):池化操作紧随MLP操作之后,通过MLP操作之后,可获得每一个激光点的特征,而对邻域点进行池化操作可获得更为稳定学习参数,从而增强模型的泛化能力。传统的池化方式主要有平均池化与最大池化,本发明使用了注意力池化,该池化方式首先学习各个点特征的权重,使得深度学习网络决定哪些特征比较重要,对比较重要的特征,给与较大的权重,最后让所有的权重值与特征值相乘再经过函数处理获得最终的特征池化值。实施方式如下:
在上式中,代表MLP输出的每一个激光点的特征,W为权重参数,g为非线性函数。
跨尺度交叉连接(CrossLink)在网络编码阶段将不同尺度信息进行交互,实现不同尺度分支中的各层相互通信,本发明Crosslink模块的输入端与降采样模块中的各MLP单元的输出端连接,如图2所示,Crosslink模块首先将当前尺度的特征向量维度转换为目标尺度的特征向量维度,然后将其进行融合,与跨层特征融合不同的是,在跨尺度特征信息融合时,可采用串联方式或者求和方式,如图3所示,求和方式融合多尺度特征在训练速度和测试性能方面均表现得更好,本实施例采用求和方式将多尺度信息整合起来,从而延长了多尺度信息交互的过程,增强了网络对尺度变化的鲁棒性。
升采样模块用于对CrossLink模块输出的特征进行升采样,升采样模块可采用神经网络,经典CNN总是一层一层的单连接,所有的层只能接受来自前一层的特征,在反向传播过程中,梯度值在经历很多层后会慢慢的消失,从而影响网络的收敛。在神经网络的输入层与输出层之间加入ShortCut,可使网络更有效率,更加准确地训练。为了改善神经层之间的信息流动,早期的ResNet,HighWay Network都进行了相关的研究工作。ResNet的核心是设计了残差模块(Residual block),其架构如图4-a和图4-b所示,图4-a为原始的神经网络模型,模型的输入是x,期望输出是H(x),即H(x)是期望的复杂潜在映射,weight layer为权重层,ReLU为激活函数的一种。对一个合理深度的模型增加更多的层会导致模型的训练准确率下降,这说明当x是最佳学习结果时,H(x)这一组非线性神经层很难拟合x。现假定一残差映射:F(x)=H(x)-x,见图4-b,当x是最佳学习结果时,为使得网络的最终输出F(x)+x达到最优,则需要F(x)=0,让一组非线性神经层拟合0比拟合输入x容易的多,因此当x是最佳学习结果时,在有残差模块存在的网络中加入更多的层不会使训练结果准确率下降。在实际上x几乎达不到理论最佳学习结果,这就使得残差F(x)不会为0,从而F(x)在输入特征基础上会继续学习到新的特征,也就使网络拥有更好的性能,此外恒等映射没有引入额外的参数,不会影响网络的复杂度。但是ResNet很多特征参数都是冗余的,冗余的特征不仅增加了训练过程中的运算负担,在应用过程中,也减缓网络的推理速度。
为此,本发明的升采样模块采用Densenet网络,如图5所示,该Densenet网络的每一层都将之前的层输出作为当前层的额外输入:
xl=Hl([x0,x1,...,xl-1])
其中[x0,x1,...,xl-1]为前面所有层输出向量合并而成,Hl(.)是一个连续操作,由卷积、ReLU激活函数、批量标准化(Batch Normalization)组合而成。为了确保最大程度上信息流动,网络中的每一层都与后面的层进行连接,Densenet并未对网络的加深提取更多的特征,主要通过特征重用来挖掘网络的潜力,从而生成易于训练且参数高效利用的浓缩模型。Densenet网络应用于升采样过程中,网络的第一层输入为降采样模块的输出,输出结果已良好地融合了降采样过程中各尺度下点云的特征,升采样时,每一层的将前一层的输出经过变换获得新的特征,再将之前所有层的输出作为本层的额外输入,并将其与新的特征相组合,获得最终的当前层输出结果,网络各层以Densenet的方式关联,能够获取更多的上下文信息,即将局部细节特征与整体抽象特征相结合,从而输出更为准确的逐点语义特征。
2.对语义分割网络模型进行训练。
本发明利用大型开源室外语义分割数据集Semantic 3D,Semantic KITTI对语义分割模型进行训练,根据训练过程中反馈的结果对网络中不合理的结构以及参数进行微量调整。
3.进行语义分割。
将待分割的点云数据输入到训练完成的语义分割网络模型中,利用该语义分割网络模型即可实现对点云数据的分割。
为了更好地说明本发明语义分割方法的效果,下面通过实验仿真来验证本发明的可行性和效果。
实验的硬件环境为Intel Core i9-7980Xe CPU,GPU为单块Nvidia GTX1080Ti,RAM为128GB。软件环境采用Linux下的TensorFlow学习框架,并行计算框架为CUDA8.0,整体工作全部采用python2.7实现,开发环境为Pycharm。
(1)试验数据
本次试验采用的是Semantic 3D数据集,该数据集由苏黎世联邦理工学院下的大地测量与摄影测量学院于2017年采集。数据集的三维激光点总数超过40亿个,由地面静态扫描完成,且各场景点云密度变化大且细节丰富。采集场景包含了教堂、街道、铁轨、广场、村庄、足球场、城堡等。整个数据集一共包含了8个语义类别,分别为:人造地形、自然地形、高植被、低植被、建筑物、硬质景观、扫描人工制品、汽车,见图6-a、6-b和图6-c所示。
由于Semantic 3D数据量过于庞大加之计算机硬件性能限制,实验过程中无法对Semantic 3D整个数据集进行训练,为此选择了semantic 3D数据集中的12个场景作为训练集,四个场景untermaederbrunnen3、neugasse、sg27_9、sg27_4作为测试集,数据量之比为大致7:3。
(2)性能测度
在验证网络学习性能方面,采用了mIoU和OA两种衡量标准,其中mIoU,OA分别称为平均交并比(mean Intersection over Union)与总体精度(overall accuracy),mIoU是对场景中的各个语义类别测试所得的IoU通过平均计算得来。IoU,mIoU与OA的计算方法分别如下:
其中,cij代表实际标签为i,预测为j的点数量,N是所划分的地物类别数量。
(3)对比试验
为验证本文所提出神经网络架构的有效性,将本发明与文献PointNet、PointWiseCNN、SGPN的神经网络分别进行训练,对四种架构分别设置好学习率等参数,最大学习迭代次数均设为50次。四种架构在测试集上的语义分割效果如图7所示。从图7中可以得出,相较于其它三种算法,本发明点云分割边界更加清晰,且面积较小硬质景观也能较好识别。
为了定量的评价本文所提神经网络的分割效果,采用mIoU和OA两种评价标准对四种分割方法的结果进行定量计算,结果如表1所示。
表1
由表1可知,本发明的点云语义分割方法与PointNet、Pointwise CNN以及SGPN相比,本发明的点云语义分割方法的OA与mIoU都是最高的,相比较于PointNet,OA和mIoU分别提升了5.5%和11%;相比较于Pointwise CNN,OA和mIoU分别提升了3.7%和5.9%。相对于SGPN,OA和mIoU分别提升了1.6%和1.8%。通过目视判断和定量评价,均验证本发明的点云语义分割方法具有良好的点云分割效果。
为了对本发明中Cross Link模块与密集连接模块对点云分割的有效性进行验证,本发明将去除密集连接模块与Cross Link模块后的模型称为原始模型,并在原始模型的基础上依次加入了密集连接网络与Cross Link模块,构建了四种模型,分别为:原始模型(Plain)、原始模型+密集连接模块(Dense Block)、原始模型+CrossLink模块(Cross Link)以及本发明最终模型。为定量评价CrossLink模块和密集连接网络的有效性,进行了大量试验对四种网络的分割结果进行比对,结果如表2所示。
表2
从表2可以看出,相对原始模型,从总体精度上看,本发明加入了CrossLink模块和密集连接模块的模型比较与原始模型分别提升了3.5%和2.7%;从平均交并比上看,加入了CrossLink模块和密集连接模块的模型比较与原始模型分别提升了6.1%和4.7%。说明了CrossLink模块和密集连接模块都有效的改善了原始网络的性能,验证了两者的可靠性。
Claims (2)
1.一种点云数据的语义分割方法,其特征在于,该语义分割方法包括以下步骤:
构建语义分割网络模型,所述的语义分割网络模型包括降采样模块、CrossLink模块和升采样模块,降采样模块包括MLP处理单元和特征聚合单元,用于聚合邻居点的空间几何特征,并将空间坐标以及数据原始特征转换为抽象特征,且通过降采样操作获得不同尺度的信息;CrossLink模块用于将各尺度特征向量维度进行融合,用于后续升采样操作处理;升采样模块采用最邻近插值和Densenet网络,从而可结合上下文信息对点云的细节进行恢复,以便进行后续处理,最终获得逐点的语义标签;所述Densenet网络的每一层的输入为之前层模块的输出,即将之前所有层的输出进行维度变换作为本层的额外输入,并将其与本层所获得的新的特征相组合,该方法还包括对MLP处理单元处理单元处理得到的数据进行注意力池化操作;所述CrossLink模块采用求和方式融合多尺度特征;
利用已训练的语义分割网络模型对待分割的点云数据进行分割。
2.根据权利要求1所述的点云数据的语义分割方法,其特征在于,所述的特征聚合单元采用KNN算法,用于聚合点云数据中邻居点的空间几何特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011141582.7A CN112257597B (zh) | 2020-10-22 | 2020-10-22 | 一种点云数据的语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011141582.7A CN112257597B (zh) | 2020-10-22 | 2020-10-22 | 一种点云数据的语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112257597A CN112257597A (zh) | 2021-01-22 |
CN112257597B true CN112257597B (zh) | 2024-03-15 |
Family
ID=74263282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011141582.7A Active CN112257597B (zh) | 2020-10-22 | 2020-10-22 | 一种点云数据的语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257597B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446385B (zh) * | 2021-01-29 | 2021-04-30 | 清华大学 | 一种场景语义分割方法、装置、电子设备 |
CN112819080B (zh) * | 2021-02-05 | 2022-09-02 | 四川大学 | 一种高精度通用的三维点云识别方法 |
CN113392841B (zh) * | 2021-06-03 | 2022-11-18 | 电子科技大学 | 一种基于多特征信息增强编码的三维点云语义分割方法 |
CN113393474B (zh) * | 2021-06-10 | 2022-05-13 | 北京邮电大学 | 一种基于特征融合的三维点云的分类和分割方法 |
CN113516663B (zh) * | 2021-06-30 | 2022-09-27 | 同济大学 | 点云语义分割方法及装置、电子设备及存储介质 |
US11295170B1 (en) | 2021-08-17 | 2022-04-05 | FPT USA Corp. | Group-equivariant convolutional neural networks for 3D point clouds |
CN114358246A (zh) * | 2021-12-27 | 2022-04-15 | 东北林业大学 | 三维点云场景的注意力机制的图卷积神经网络模块 |
CN114494586B (zh) * | 2022-01-10 | 2024-03-19 | 南京林业大学 | 晶格投影的深度学习网络阔叶树枝叶分离与骨架重建方法 |
CN115049938B (zh) * | 2022-08-16 | 2022-11-29 | 广州地铁设计研究院股份有限公司 | 一种点云图像处理方法及系统 |
CN115862013B (zh) * | 2023-02-09 | 2023-06-27 | 南方电网数字电网研究院有限公司 | 基于注意力机制的输配电场景点云语义分割模型训练方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119619A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种基于3d目标分类和场景语义分割的网络优化结构 |
CN111489358A (zh) * | 2020-03-18 | 2020-08-04 | 华中科技大学 | 一种基于深度学习的三维点云语义分割方法 |
CN111615706A (zh) * | 2017-11-17 | 2020-09-01 | 脸谱公司 | 基于子流形稀疏卷积神经网络分析空间稀疏数据 |
-
2020
- 2020-10-22 CN CN202011141582.7A patent/CN112257597B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111615706A (zh) * | 2017-11-17 | 2020-09-01 | 脸谱公司 | 基于子流形稀疏卷积神经网络分析空间稀疏数据 |
WO2020119619A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种基于3d目标分类和场景语义分割的网络优化结构 |
CN111489358A (zh) * | 2020-03-18 | 2020-08-04 | 华中科技大学 | 一种基于深度学习的三维点云语义分割方法 |
Non-Patent Citations (2)
Title |
---|
党吉圣 ; 杨军 ; .多特征融合的三维模型识别与分割.西安电子科技大学学报.2020,(04),全文. * |
杨军 ; 党吉圣 ; .采用深度级联卷积神经网络的三维点云识别与分割.光学精密工程.2020,(05),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN112257597A (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112257597B (zh) | 一种点云数据的语义分割方法 | |
Xu et al. | Voxel-based representation of 3D point clouds: Methods, applications, and its potential use in the construction industry | |
Liang et al. | An improved loop subdivision to coordinate the smoothness and the number of faces via multi-objective optimization | |
CN109493346B (zh) | 一种基于多损失的胃癌病理切片图像分割方法和装置 | |
CN109508360B (zh) | 一种基于元胞自动机的地理多元流数据时空自相关分析方法 | |
CN108776993A (zh) | 带有孔洞的三维点云的建模方法及地下电缆工井建模方法 | |
CN105354593B (zh) | 一种基于nmf的三维模型分类方法 | |
CN111028335B (zh) | 一种基于深度学习的点云数据的分块面片重建方法 | |
CN111414953A (zh) | 点云分类方法和装置 | |
CN113256649B (zh) | 一种基于深度学习的遥感图像选站选线语义分割方法 | |
CN115471634B (zh) | 一种城市绿植孪生的建模方法及装置 | |
CN113569979A (zh) | 一种基于注意力机制的三维物体点云分类方法 | |
CN112257496A (zh) | 一种基于深度学习的输电通道周围环境分类方法及系统 | |
CN115482380A (zh) | 一种基于深度学习的多等级公路三维点云目标分割方法 | |
CN116662468A (zh) | 基于地理对象空间模式特征的城市功能区识别方法及系统 | |
Wang et al. | Oblique photogrammetry supporting procedural tree modeling in urban areas | |
CN111881919B (zh) | 一种基于追踪式格网剖分的线要素智能化简方法与装置 | |
Li et al. | Saliency guided subdivision for single-view mesh reconstruction | |
CN116386803A (zh) | 一种基于图的细胞病理报告生成方法 | |
CN114170385B (zh) | 实时生成模型剖面带洞网格的方法、装置、介质和设备 | |
CN110322548A (zh) | 一种基于几何图像参数化的三维网格模型生成方法 | |
CN113808006B (zh) | 一种基于二维图像重建三维网格模型的方法及装置 | |
Li et al. | PointLAE: A Point Cloud Semantic Segmentation Neural Network via Multifeature Aggregation for Large-Scale Application | |
CN112633376A (zh) | 基于深度学习的点云数据地物分类方法、系统与存储介质 | |
CN113688873B (zh) | 一种具有直观交互能力的矢量路网生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |