CN113392841A - 一种基于多特征信息增强编码的三维点云语义分割方法 - Google Patents

一种基于多特征信息增强编码的三维点云语义分割方法 Download PDF

Info

Publication number
CN113392841A
CN113392841A CN202110617230.2A CN202110617230A CN113392841A CN 113392841 A CN113392841 A CN 113392841A CN 202110617230 A CN202110617230 A CN 202110617230A CN 113392841 A CN113392841 A CN 113392841A
Authority
CN
China
Prior art keywords
layer
point
point cloud
information
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110617230.2A
Other languages
English (en)
Other versions
CN113392841B (zh
Inventor
罗欣
陈艳阳
李晓溪
崔慧敏
赫熙煦
许文波
郑进军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110617230.2A priority Critical patent/CN113392841B/zh
Publication of CN113392841A publication Critical patent/CN113392841A/zh
Application granted granted Critical
Publication of CN113392841B publication Critical patent/CN113392841B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多特征信息增强编码的三维点云语义分割方法。该发明可以进一步增强以PointNet++为代表的三维点云语义分割算法在不同应用场景下的性能。PointNet++网络在编码过程中,只是单纯的利用点和中心点的坐标差作为局部空间的几何信息构建显然是不够充分的。同时,对于点的附加信息,PointNet++网络直接将其和几何信息进行共同编码,这是一种对于点云附件信息的不恰当使用,点云信息在其中的作用很小。本发明提出的基于多特征信息增强编码的三维点云语义分割方法,添加点与中心点的原始坐标和欧式距离等信息,与坐标差共同进行局部空间的特征聚合,并将点的附加特征和几何特征分开编码,重新设计了一种基于点云多类特征的信息编码增强结构。

Description

一种基于多特征信息增强编码的三维点云语义分割方法
技术领域
本发明属于计算机三维点云语义分割领域,是基于深度学习的方法实现三维点云的语义分割。
背景技术
近年来,针对三维信息的研究等工作开始得到越来越多的科研工作者的重视。三维点云语义分割是将点云中的每个点按照各自的类别进行语义的划分,对同一类别的点进行相同的标注。随着三维数据获取的难度变小,基于三维数据的技术开始逐渐发展,也已经开始应用在自动驾驶、智能机器人、遥感和医疗等领域中。点云语义分割算法是三维点云处理的重要方向之一,传统的点云分割方法精度不高,且存在局限性。因此,基于深度学习的三维点云语义分割方法开始逐渐涌现。目前经典的基于深度学习的方法大多是对点数据进行处理,直接对不规则点云进行处理,本发明主要关注逐点MLP(Pointwise Multi-LayerPerceptron)方法。逐点MLP方法效率较高,它是利用了共享MLP作为网络的基本结构。其中,PointNet研究了点云数据的特性,并根据点云的特性设置了专属的网络模型,它首先使用了MLP网络来进行点云特征的升维,将点的信息提升到高维空间中,然后采用最大池化来对提取到的高维特征进行提取,得到了点云的整体特征,中间步骤进行升维的特征就是点自身的局部特征。PointNet++在原有PointNet的基础上对于局部特征的构建提出了更加有效的方法,它利用了点的邻域空间,利用下采样的方式同时构建每个采样点的局部空间,对每个局部空间利用PointNet的基础结构进行空间的特征提取,之后在进行对应的上采样特征插值,最后得到了每个点的特征,这些特征包含了点的几何空间信息。PointNet++网络在编码过程中,只是单纯的利用点和中心点的坐标差作为局部空间的几何信息构建显然是不够充分的。同时,对于点的附加信息,PointNet++网络直接将其和几何信息进行共同编码,这是一种对于点云附件信息的不恰当使用,点云信息在其中的作用很小。
发明内容
为了克服上述基于深度学习的三维点云语义分割方法在编码过程的不足,本发明提出了一种基于多特征信息增强编码的三维点云语义分割(SG-PointNet++)方法。该方法以PointNet++为基础框架,如图1所示,对其在编码过程中利用多特征信息增强进行改进,完成了SG-PointNet++的构建。其中,S代表Separate,表示将几何特征和附加信息的特征进行分开编码,G代表了几何信息增强(Geometric information enhancement),其同样在编码层的局部空间进行处理。PointNet++网络在编码过程存在的问题和本发明的改进方法如图2所示。在编码层的局部空间进行几何特征聚合的过程中,本发明对该部分进行了局部空间几何信息编码增强,构建了GEO-PointNet模块,针对编码过程中,PointNet++网络对点的附加信息处理不完善的问题,本发明提出了将点的附加特征和几何特征分开编码的方法,构建了SEP-PointNet模块。结合本发明对PointNet++网络的改进,设计了SG-PointNet++网络,技术路线如图3所示。
本发明采用的技术方案是基于多特征信息增强编码的三维点云语义分割方法,该方法包括:
步骤1:对输入的点云数据进行编码得到点云的局部空间特征,编码层由2个SG-抽象层(Separate and Geometric information enhancement-Set Abstraction Layer,SG-SA)结构组成,通过SG-SA1和SG-SA2进行抽取并保留各层的特征,每个SG-SA层结构均由三个相关联的网络结构构成,分别是用于点云采样点选取的采样层(Sampling Layer)、用于构建局部空间的分组层(Grouping Layer)和用于特征聚合的SG-PointNet层;
步骤2:将采样并编码后的特征点云按照2次编码的反过程进行2次解码,解码层由2个特征聚合(Feature Propagation,FP)层构成,通过FP1和FP2逐步进行上采样恢复原始点云结构,并进行特征聚合和跨层跳跃链接,得到点云中每个点的特征;
步骤3:将点云和其对应的特征放入全连接层,并进行点的语义信息的判别。
进一步,所述步骤1的具体方法为:
步骤1.1:输入的点云数据首先通过用于点云采样点选取的采样层(SamplingLayer),用最远点采样方法(Farthest Point Sampling,FPS)获取固定数量的点作为采样点;
步骤1.2:对每个采样点利用分组层(Grouping Layer)进行球体查询(BallQuery),寻找邻域点并局部空间构建;
步骤1.3:在每个局部空间内的几何信息和附加信息利用PointNet基础结构进行分开编码,在构建几何特征时加入局部空间的中心点坐标、相对坐标和欧氏距离等信息,得到了降采样后的点云和每个点的局部空间特征,即完成了SG-SA1层的降采样和特征提取;
步骤1.4:将步骤1.3得到的点云和特征重复步骤1.1-1.3,完成SG-SA2层的降采样和特征提取,得到2组经过降采样后的点云和特征。
进一步,所述步骤2的具体方法为:
步骤2.1:将SG-SA2层得到的点云和对应特征通过FP1层上采样恢复到SG-SA1层处理后的点云大小;
步骤2.2:对SG-SA1层中的每个点找到其对应SG-SA2层中最近的3个点,将这三个点的特征进行三线性权重插值,作为点的插值特征;
步骤2.3:将插值特征与SG-SA1层中得到的点的特征进行几何特征和附加特征的跨层跳跃链接,并通过MLP得到了FP1层的最终点特征;
步骤2.4:将FP1层获取的点特征作为下一层FP2中的插值部分,用三线性插值获取插值特征,之后和原始的点的特征链接,再通过MLP获取最终的每个点的特征;
与现有技术相比,本发明的有益效果是:
(1)原始的PointNet++网络只利用了点的坐标差作为特征聚合的方法,本论文将添加点与中心点的原始坐标和欧式距离等信息,与坐标差共同进行局部空间的特征聚合,构建成一个局部空间几何信息编码增强的GEO-PointNet层。
(2)针对编码过程对点的附加信息处理不完善的问题,采用了将点的附加特征和几何特征分开编码的方式来改进,提出了SEP-PointNet层,构建用于特征聚合的SG-PointNet层,重新设计了一种基于点云多类特征的信息编码增强结构。
附图说明
图1为PointNet++网络的基础框架;
图2为本发明的网络改进方法;
图3为本发明的一种基于多特征信息增强编码的三维点云语义分割方法的技术路线;
图4为PointNet++网络的单个局部空间特征聚合过程;
图5为改进后的单个局部空间几何特征聚合过程;
图6为单个采样点局部空间的SEP-PointNet编码结构;
图7为测试点云原始数据;
图8为测试点云可视化数据;
图9为测试点云的语义分割结果;
图10为各个网络的总体精度评价结果;
图11为各个网络的各个类别IoU评价结果;
具体实施步骤
一、编码部分
网络的编码部分相对于原始的PointNet++网络的区别在于对PointNet层局部空间信息编码的构建。在PointNet++网络中的点云信息编码过程中,PointNet层处理采样点和邻域点组成的空间时,利用了采样点与邻域点的相对位置,即坐标差来进行特征聚合。具体实现步骤如下:PointNet层输入的数据为一个个局部空间,局部空间中包含采样点的坐标和附件信息以及采样点的邻域点对应的坐标和附加信息。以一个局部空间作为例子,其对应的局部空间编码网络结构如图4所示。
PointNet层结构的输入为N1组点,每组一共有K个点,每个点的维度为d+C,d为坐标的维度,一般为3,C为该点的附加信息或者特征的维度。对于一组点来说,PointNet层对于点集具体操作如下:
PointNet层首先将对应的邻域当中的每个点进行处理,将点的坐标全部替换为邻域点相对于中心点即该区域采样点的相对坐标,并与对应的点的其他维度的特征相连接,之后利用MLP神经网络,对每个点进行类似卷积的操作,进行点特征的聚合。经过MLP之后,将我们一共得到了K个点的特征,然后对着K个点进行池化操作,得到了一个一维的行向量,将该向量与该局部空间区域的中心点即采样点的坐标进行连接,即将该局部空间的信息编码到了采样点上,可以近似地看作这个采样点包含了该空间的所有信息。
为了能够更加有效的利用点云的几何和结构关系,对于输入的点云信息充分的利用,本发明首先根据PointNet层的基本结构,设计了一种基于局部空间编码信息增强的PointNet层结构。
对于单点来说,局部空间编码信息增强后的PointNet层,其对应的MLP处理内容有所变化,原始的局部空间内的单点特征获取操作,如公式(1)所示:
Figure BDA0003098257960000051
改进后的PointNet层的单点几何信息编码如公式(2)所示:
Figure BDA0003098257960000052
其中,fi k为MLP处理后得到的单点特征,用来后续和其余点的特征结合起来进行池化,pi为该局部空间中心的采样点的坐标,
Figure BDA0003098257960000053
为该局部空间内的采样点的某一邻域点的坐标,
Figure BDA0003098257960000054
为采样点与该邻域点的坐标差,
Figure BDA0003098257960000055
为采样点与该邻域点的欧氏距离。
改进后的网络处理一个局部空间内的点云集合的具体操作网络结构如图5所示,它展示了一个基于局部空间编码信息增强的PointNet层结构。对输入的局部空间点云,PointNet层网络首先进行点云内的坐标计算,将空间内的所有点的坐标信息进行添加,依次加入局部空间的中心点坐标、相对坐标和欧氏距离,空间中的每个点的信息都增加了7个维度。之后,将处理好的点与其原始的点附加信息保持连接,利用MLP神经网络对其进行特征聚合,与原始的PointNet层结构相比,MLP处理的每个点都包含了中心点坐标,相对坐标和欧式距离等信息,能够更好的表现点云的空间几何和结构信息。之后在进行池化操作,并与局部空间的点云坐标进行对应连接。
另外,PointNet++网络在进行点云的信息编码过程中,经过第一个SA层时,直接将点的几何信息和附加的特征信息直接混合,一起进行MLP处理,这种方法会混淆点几何信息和其附加信息,属于一种不完善的编码过程,因此,为了更好的学习点云信息,在编码和解码的过程中,点云的几何信息和附加信息分开进行编码,并在解码后的几何特征和附加特征进行组合,将组合后的特征经过全连接层再进行语义判别。
PointNet++网络在进行点云的信息编码时,是利用了局部空间进行特征聚合的,属于SA的PointNet层,因此,将点云的几何信息和附加信息进行单独编码时,也需要在局部空间中进行编码,对应的编码层被记作SEP-PointNet,其结构如图6所示。
对于每个采样点,我们按照PointNet++的方法进行寻找邻域,得到了一个领域空间,邻域空间中的每个点都包含了各自的几何特征和颜色特征,将其几何特征和颜色特征分开,单独对他们进行MLP处理。图6中的D模块代表了点的几何特征,C模块代表了点的附加信息特征。
局部空间中每个点的几何特征D分别通过MLP结构,进行特征升维,然后通过最大池化模块,得到了该局部空间的新的几何特征D1。附加信息特征进行同样的操作,对每个点的附加特征C进行MLP特征升维,然后进行最大池化,得到该局部空间的新的附加信息特征C1。将他们进行组合进入下一个SA模块中。在实际运算过程中,我们要了解到该采样点特征聚合后得到的几何特征维度和附加信息特征维度,这样才可以在进入下一次的SA模块中准确分离,因此,在网络的设置过程中,要准确的设置好各个特征的维度,保证两种特征的正确聚合。
将本发明提出的GEO-PointNet层与SEP-PointNet层联合起来,结合原本PointNet++的基本结构,就是本发明设计的三维点云语义分割SG-PointNet++网络的框架。
二、解码部分
解码部分由两个上采样层FP构成,空间信息解码部分的主要目的是将聚合得到的局部空间信息映射到点云集合的所有点当中,得到点云中每个原始点的点特征。空间信息解码的基本思想是通过上采样,将点的特征从上一层传播到下一层中,直到恢复到原始点云。
其实现过程是通过基于距离的插值进行点的特征传播,并通过跨层跳跃链接(Skip Link Concatenation)来聚合其对应编码层的对应点的携带特征。在进行Nl层向Nl-1层进行点特征传播时,假设我们要获取Nl-1层中A点的特征,首先利用KNN插值办法找到A点在Nl层最邻近的3个点,对进行加权求和,此时公式(3)中对应的p=2,k=3。然后将得到的加权特征和编码过程中对应点集SA抽象层获取的特征,通过跨层跳跃链接进行组合,将连接的组合特征通过一个单一的PointNet层结构进行聚合。不同通过这种特征聚合方式进行点云上采样,直到点云集合恢复到原始点云大小。
Figure BDA0003098257960000071
三、点云语义分割
利用点云的多特征信息进行对应的编码解码之后,得到了每个点的特征,通过全连接层对特征进行处理,得到每个点的预测语义分割结果。本发明使用了S3DIS(StanfordLarge-Scale 3D Indoor Spaces Dataset)数据集作为主要数据,针对S3DIS标准数据集的六个区域,选取了Area_5作为训练过程中的测试数据,其余五个区域作为训练数据进行计算。对Area_5区域内的所有66个房间都进行了语义分割的测试,每个类型的房间都选取了一间来进行最终语义效果的展示,最终选取了6个房间作为实验测试的基准。对每个类型的房间如下图7所示,它们是选中的区域5中的6个房间的点云,其颜色都是真实的点云颜色。为了方便与网络预测的结果进行对比,将测试点云按照测试的可视化颜色标准进行着色,设定了13种类别可视化RGB颜色标准,测试点云可视化之后的点云如图8所示。通过训练后,利用DD-PointNet++网络对点云进行语义分割,其结果如图9所示。
最终得到的网络的三维点云语义分割结果的精度评价指标如下图10和图11所示。
改进后的SG-PointNet++网络的总体精度为82.4%,相对于PointNet++提高了1.3%,对于各类的平均交并比mIoU,我们可以看到,SG-PointNet++网络的mIoU值为51.96%,相对于PointNet++增加了2.57%,在一些原本表现不好的地板、柱子、窗和门等类别上也超过了PointNet网络。其中,天花板的IoU值为89.4%,地板的IoU值为97.6%,墙的IoU值为72.7%,柱的IoU值为3.6%,窗的IoU值为57.2%,门的IoU值为14.0%,桌子的IoU值为66.8%,椅子的IoU值为73.5%,沙发的IoU值为39.7%,书架的IoU值为61.3%,木板的IoU值为58.5%,杂类的IoU值为41.2%。
由此可见,我们对PointNet++网络进行的点云多类特征的信息增强编码研究是有效的改进后的SG-PointNet++网络的各个精度评价指标相对于PointNet++都有着明显的提升。

Claims (4)

1.一种基于多特征信息增强编码的三维点云语义分割方法,其特征在于,包括以下步骤:
步骤1:对输入的点云数据进行编码得到点云的局部空间特征,编码层由2个SG-抽象层(Separate and Geometric information enhancement-Set Abstraction Layer,SG-SA)结构组成,通过SG-SA1和SG-SA2进行抽取并保留各层的特征,每个SG-SA层结构均由三个相关联的网络结构构成,分别是用于点云采样点选取的采样层(Sampling Layer)、用于构建局部空间的分组层(Grouping Layer)和用于特征聚合的SG-PointNet层;
步骤1.1:输入的点云数据首先通过用于点云采样点选取的采样层,用最远点采样方法(Farthest Point Sampling,FPS)获取固定数量的点作为采样点;
步骤1.2:对每个采样点利用分组层(Grouping Layer)进行球体查询(Ball Query),寻找邻域点并局部空间构建;
步骤1.3:在每个局部空间内的几何信息和附加信息利用PointNet基础结构进行分开编码,在构建几何特征时加入局部空间的中心点坐标、相对坐标和欧氏距离等信息,得到了降采样后的点云和每个点的局部空间特征,即完成了SG-SA1层的降采样和特征提取;
步骤1.4:将步骤1.3得到的点云和特征重复步骤1.1-1.3,完成SG-SA2层的降采样和特征提取,得到2组经过降采样后的点云和特征;
步骤2:将采样并编码后的特征点云按照2次编码的反过程进行2次解码,解码层由2个特征聚合(Feature Propagation,FP)层构成,通过FP1和FP2逐步进行上采样恢复原始点云结构,并进行特征聚合和跨层跳跃链接,得到点云中每个点的特征;
步骤2.1:将SG-SA2层得到的点云和对应特征通过FP1层上采样恢复到SG-SA1层处理后的点云大小;
步骤2.2:对SG-SA1层中的每个点找到其对应SG-SA2层中最近的3个点,将这三个点的特征进行三线性权重插值,作为点的插值特征;
步骤2.3:将插值特征与SG-SA1层中得到的点的特征进行几何特征和附加特征的跨层跳跃链接,并通过MLP得到了FP1层的最终点特征;
步骤2.4:将FP1层获取的点特征作为下一层FP2中的插值部分,用三线性插值获取插值特征,之后和原始的点的特征链接,再通过MLP获取最终的每个点的特征;
步骤3:将点云和其对应的特征放入全连接层,并进行点的语义信息的判别。
2.如权利要求1所述方法,其特征在于,步骤1中的SG-SA1层和SG-SA2层在进行局部空间特征提取时将每个局部空间内的几何信息和附加信息利用PointNet基础结构进行分开编码。
3.如权利要求1所述方法,其特征在于,步骤1中的SG-SA1层和SG-SA2层在构建几何特征时加入局部空间的中心点坐标、相对坐标和欧氏距离等信息。
4.如权利要求1所述方法,其特征在于,步骤2中将几何特征和附加特征进行分开聚合。
CN202110617230.2A 2021-06-03 2021-06-03 一种基于多特征信息增强编码的三维点云语义分割方法 Active CN113392841B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110617230.2A CN113392841B (zh) 2021-06-03 2021-06-03 一种基于多特征信息增强编码的三维点云语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110617230.2A CN113392841B (zh) 2021-06-03 2021-06-03 一种基于多特征信息增强编码的三维点云语义分割方法

Publications (2)

Publication Number Publication Date
CN113392841A true CN113392841A (zh) 2021-09-14
CN113392841B CN113392841B (zh) 2022-11-18

Family

ID=77619893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110617230.2A Active CN113392841B (zh) 2021-06-03 2021-06-03 一种基于多特征信息增强编码的三维点云语义分割方法

Country Status (1)

Country Link
CN (1) CN113392841B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049938A (zh) * 2022-08-16 2022-09-13 广州地铁设计研究院股份有限公司 一种点云图像处理方法及系统
CN115496910A (zh) * 2022-11-07 2022-12-20 中国测绘科学研究院 基于全连接图编码及双重扩张残差的点云语义分割方法
CN116229399A (zh) * 2023-03-08 2023-06-06 北京辉羲智能科技有限公司 一种用于自动驾驶图像处理的点云数据的特征提取方法、系统及介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法
US20190108639A1 (en) * 2017-10-09 2019-04-11 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Semantic Segmentation of 3D Point Clouds
CN110097556A (zh) * 2019-04-29 2019-08-06 东南大学 基于PointNet的大规模点云语义分割算法
CN110223298A (zh) * 2019-05-27 2019-09-10 东南大学 基于点云局部结构的语义分割改进算法
CN111027559A (zh) * 2019-10-31 2020-04-17 湖南大学 一种基于扩张点卷积空间金字塔池化的点云语义分割方法
CN111192270A (zh) * 2020-01-03 2020-05-22 中山大学 一种基于点全局上下文关系推理的点云语义分割方法
CN111582111A (zh) * 2020-04-29 2020-08-25 电子科技大学 一种基于语义分割的细胞各成分分割方法
CN111814874A (zh) * 2020-07-08 2020-10-23 东华大学 一种用于点云深度学习的多尺度特征提取增强方法及模块
CN111862101A (zh) * 2020-07-15 2020-10-30 西安交通大学 一种鸟瞰图编码视角下的3d点云语义分割方法
CN112257597A (zh) * 2020-10-22 2021-01-22 中国人民解放军战略支援部队信息工程大学 一种点云数据的语义分割方法
CN112258512A (zh) * 2020-10-16 2021-01-22 北京字节跳动网络技术有限公司 点云分割方法、装置、设备和存储介质
CN112287939A (zh) * 2020-10-29 2021-01-29 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
US10921817B1 (en) * 2018-06-29 2021-02-16 Zoox, Inc. Point cloud filtering with semantic segmentation
CN112560865A (zh) * 2020-12-23 2021-03-26 清华大学 一种室外大场景下点云的语义分割方法
CN112818999A (zh) * 2021-02-10 2021-05-18 桂林电子科技大学 一种基于卷积神经网络的复杂场景3d点云语义分割方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190108639A1 (en) * 2017-10-09 2019-04-11 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Semantic Segmentation of 3D Point Clouds
US10921817B1 (en) * 2018-06-29 2021-02-16 Zoox, Inc. Point cloud filtering with semantic segmentation
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法
CN110097556A (zh) * 2019-04-29 2019-08-06 东南大学 基于PointNet的大规模点云语义分割算法
CN110223298A (zh) * 2019-05-27 2019-09-10 东南大学 基于点云局部结构的语义分割改进算法
CN111027559A (zh) * 2019-10-31 2020-04-17 湖南大学 一种基于扩张点卷积空间金字塔池化的点云语义分割方法
CN111192270A (zh) * 2020-01-03 2020-05-22 中山大学 一种基于点全局上下文关系推理的点云语义分割方法
CN111582111A (zh) * 2020-04-29 2020-08-25 电子科技大学 一种基于语义分割的细胞各成分分割方法
CN111814874A (zh) * 2020-07-08 2020-10-23 东华大学 一种用于点云深度学习的多尺度特征提取增强方法及模块
CN111862101A (zh) * 2020-07-15 2020-10-30 西安交通大学 一种鸟瞰图编码视角下的3d点云语义分割方法
CN112258512A (zh) * 2020-10-16 2021-01-22 北京字节跳动网络技术有限公司 点云分割方法、装置、设备和存储介质
CN112257597A (zh) * 2020-10-22 2021-01-22 中国人民解放军战略支援部队信息工程大学 一种点云数据的语义分割方法
CN112287939A (zh) * 2020-10-29 2021-01-29 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
CN112560865A (zh) * 2020-12-23 2021-03-26 清华大学 一种室外大场景下点云的语义分割方法
CN112818999A (zh) * 2021-02-10 2021-05-18 桂林电子科技大学 一种基于卷积神经网络的复杂场景3d点云语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
杨军 等: "基于上下文注意力CNN的三维点云语义分割", 《通信学报》 *
许安宁: "基于深度学习的三维点云语义分割方法综述", 《长江信息通信》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049938A (zh) * 2022-08-16 2022-09-13 广州地铁设计研究院股份有限公司 一种点云图像处理方法及系统
CN115049938B (zh) * 2022-08-16 2022-11-29 广州地铁设计研究院股份有限公司 一种点云图像处理方法及系统
CN115496910A (zh) * 2022-11-07 2022-12-20 中国测绘科学研究院 基于全连接图编码及双重扩张残差的点云语义分割方法
CN116229399A (zh) * 2023-03-08 2023-06-06 北京辉羲智能科技有限公司 一种用于自动驾驶图像处理的点云数据的特征提取方法、系统及介质
CN116229399B (zh) * 2023-03-08 2024-02-09 北京辉羲智能信息技术有限公司 一种用于自动驾驶图像处理的点云数据的特征提取方法、系统及介质

Also Published As

Publication number Publication date
CN113392841B (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
CN113392841B (zh) 一种基于多特征信息增强编码的三维点云语义分割方法
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
CN113469094A (zh) 一种基于多模态遥感数据深度融合的地表覆盖分类方法
CN113256640B (zh) 基于PointNet网络点云分割及虚拟环境生成方法和装置
CN111898439B (zh) 基于深度学习的交通场景联合目标检测和语义分割方法
CN111860693A (zh) 一种轻量级视觉目标检测方法及系统
Cui et al. 3D semantic map construction using improved ORB-SLAM2 for mobile robot in edge computing environment
CN104933417A (zh) 一种基于稀疏时空特征的行为识别方法
CN108984642A (zh) 一种基于哈希编码的印花织物图像检索方法
CN113343775B (zh) 一种用于遥感影像地表覆盖分类的深度学习泛化方法
CN112329780B (zh) 一种基于深度学习的深度图像语义分割方法
CN109635662A (zh) 一种基于卷积神经网络的道路场景语义分割方法
CN102208033B (zh) 基于数据聚类的鲁棒sift特征匹配方法
CN116229079A (zh) 一种基于视觉辅助和特征增强的三维点云语义分割方法及系统
CN115631513B (zh) 基于Transformer的多尺度行人重识别方法
CN115115839A (zh) 一种基于局部特征增强PointNet++网络的建筑物室内点云分割方法
CN112819080A (zh) 一种高精度通用的三维点云识别方法
CN104796624B (zh) 一种光场编辑传播方法
CN114359902B (zh) 基于多尺度特征融合的三维点云语义分割方法
CN115240079A (zh) 一种多源遥感影像深度特征融合匹配方法
CN113392842B (zh) 一种基于点数据网络结构改进的点云语义分割方法
CN116844004A (zh) 一种面向数字孪生场景的点云自动语义化建模方法
CN115375922B (zh) 一种基于多尺度空间注意力的轻量化显著性检测方法
Li et al. Locally-enriched cross-reconstruction for few-shot fine-grained image classification
CN114429607B (zh) 一种基于Transformer的半监督视频目标分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant