CN117058384B - 一种三维点云语义分割的方法及系统 - Google Patents
一种三维点云语义分割的方法及系统 Download PDFInfo
- Publication number
- CN117058384B CN117058384B CN202311062067.3A CN202311062067A CN117058384B CN 117058384 B CN117058384 B CN 117058384B CN 202311062067 A CN202311062067 A CN 202311062067A CN 117058384 B CN117058384 B CN 117058384B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- points
- mapping
- pixel
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000011218 segmentation Effects 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 56
- 238000013507 mapping Methods 0.000 claims abstract description 53
- 230000006870 function Effects 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims description 24
- 238000012937 correction Methods 0.000 claims description 3
- 238000009877 rendering Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 2
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000002372 labelling Methods 0.000 abstract description 13
- 230000000694 effects Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 6
- 230000009977 dual effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种三维点云语义分割的方法及系统,属于计算机视觉技术领域,通过视锥投影初步将三维场景投影至二维,进行标注,得到包含反投影矩阵的二维标签序列;利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵,进行二维标签到三维的正确映射;处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差;针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数,对构建的深度网络模型进行训练;利用训练得到的深度网络模型进行三维点云场景的语义分割。本发明能够解决现有技术在平衡标注困难和分割效果方面存在的难题。
Description
技术领域
本发明属于计算机视觉技术领域,涉及一种三维点云语义分割的方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
三维场景的语义分割是机器感知三维场景的基础性方法,具有广泛而基础的应用,如机器人导航和增强现实等领域。三维点云数据是一种易于获取、同时包含大量可靠信息的信息源。一个高质量的三维点云场景通常包括上亿个拥有结构空间和物体表面信息的点,能很好地还原真实场景。因此,三维点云的语义分割一直以来都是计算机视觉领域重要研究方向之一。
在三维点云语义分割领域,深度神经网络学习取得了很好的成绩。然而,基于深度网络的点云语义分割学习方法需要点云场景样本的完全标注,而对上亿个点做出准确完整的标注往往需要耗费大量的人力。特别是,与二维图像的标注不同,三维点云的标注缺乏一个简易快捷的标注工具,这在很大程度上进一步限制了三维场景分割的发展。
近年来,一些研究转向了弱监督的三维点云语义分割,通过稀疏点云的标注或者亚场景级的标签等更易获得的标签来训练神经网络。然而,稀疏点云标签仍未完全摆脱三维点标注难的问题,而亚场景级的标签往往无法取得与传统全监督方法匹敌的效果。
发明内容
本发明为了解决上述问题,提出了一种三维点云语义分割的方法及系统,本发明能够解决现有技术在平衡标注困难和分割效果方面存在的难题。
根据一些实施例,本发明采用如下技术方案:
一种三维点云语义分割的方法,包括以下步骤:
通过视锥投影初步将三维场景投影至二维,进行标注,得到包含反投影矩阵的二维标签序列;
利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵,进行二维标签到三维的正确映射;
处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差;
针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数,对构建的深度网络模型进行训练;
利用训练得到的深度网络模型进行三维点云场景的语义分割。
作为可选择的实施方式,通过视锥投影初步将三维场景投影至二维的具体过程包括:
获取三维点云场景,包含三维空间以及物体结构信息的点、物体表面的色彩和结构信息;
采用视锥投影的方法进行对输入的点云场景进行投影;
裁剪不可视部分,通过视锥棱台变换得到直平行六面体;
网格化划分yz平面,初步构建像素-点云映射矩阵,对yz平面投影映射,利用对应的颜色,渲染二维原始图像,获取点云二维图像。
作为进一步的,采用视锥投影的方法进行对输入的点云场景进行投影的过程包括按照视点(x0,y0,z0)和视角信息,得到平移操作和旋转矩阵,将点云坐标原点平移至视点,再通旋转至正面投影平面。
作为进一步的,网格化划分yz平面的具体过程包括通过点的(y,z)坐标计算在yz平面网格的坐标,初步构建像素-点云映射矩阵M,M矩阵大小与点云中点的个数相同,对于每个对应点p,赋予其在这个yz平面的坐标id,完成点-像素的对应。
作为进一步的,优化yz平面投影的具体过程包括考虑到不同平面的遮盖关系保留该像素中最低平面内所有点的映射关系,而删除更远处的点的映射关系。
作为可选择的实施方式,利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵的具体过程包括:
在yz平面上,对于每个像素计算中心像素所对应的平面高度与其八近邻像素对应平面的高度差Δh;
统计高度差大于设定阈值的数目,若数量大于设定值,则认为该像素本应该被遮蔽,将其对应的像素-点映射关系删除,并继承其八近邻平面的高度。
作为可选择的实施方式,处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差的具体过程包括:构建与修正后的反投影矩阵形状相同的第二个空的映射矩阵;
基于人工标注的图像,处理得到每个标签块的边缘像素,每个边界应包含两个标签,边界两侧有两组像素,分别拥有这两种标签;
在原始修正后的反投影矩阵中与一组像素构成映射的点将在第二个空的映射矩阵中与第二组像素构成映射,使得同一个点的通过两个映射矩阵分别对应两个不同的标签,即该点被赋予了双类别标签。
作为可选择的实施方式,对于边缘点或相交点,使用多个投影矩阵进行重复映射操作,拥有更多的标签。
作为可选择的实施方式,针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数的具体过程包括:区分普通点、边缘点以及无像素映射点,普通点在修正后的反投影矩阵中含有且只含有一个标签的像素,将使用交叉熵损失函数;边缘点为在修正后的反投影矩阵中含有超过一个标签的像素,赋予双类别交叉熵损失函数;无映射点为在修正后的反投影矩阵中不含有标签与之对应的像素,赋予香农熵约束。
一种三维点云语义分割的系统,包括:
投影模块,被配置为进行标注,得到包含反投影矩阵的二维标签序列;
修正模块,被配置为利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵,进行二维标签到三维的正确映射;
标签赋予模块,被配置为处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差;
损失函数设计模块,被配置为针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数,对构建的深度网络模型进行训练;
语义分割模块,被配置为利用训练得到的深度网络模型进行三维点云场景的语义分割。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述方法中的步骤。
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的方法中的步骤。
与现有技术相比,本发明的有益效果为:
与普通全监督方法动辄半小时到数小时的场景标注时间相比,本发明对场景投影图片的标注仅需数分钟,大大减小了标注所需的人工成本,“修正模块”和“标签赋予模块”使本发明对较低质量标签也有一定的容错能力。总的来说本发明利用较少的人工成本取得了接近全监督方法的效果。
与其他弱监督方法相比,例如稀疏点标签的方法,本发明更加平衡标注成本和最终效果。通过抛弃传统的在三维空间点对点的标记手段,转而采用并优化更加符合人标注习惯的二维区块标注,完成标注类型从点到块的转变,大大提高了人工标注的效率。据调查,由于稀疏点标注仍未能摆脱在三维场景标注困难的缺点,本发明的方法仅需相当于0.2%稀疏点标签的人工成本,即可达到相当于2%稀疏点标签的效果。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明二维图像标签更为精准地通过反投影回到三维点云的投影矩阵生成的流程示意图
图2是本发明深度网络学习损失函数的适配优化的流程示意图
图3展示了使用本发明进行神经网络训练的可视化总过程示意图;
图4为处理得到的三维点云的二维投影示例图。
图5为本发明在公开数据集上的一些效果展示。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
如图1所示,本发明提供一种三维点云语义分割的方法,首先包括了将二维图像标签通过反投影回到三维点云的方法,获得精确的投影矩阵的步骤。具体又细分为以下步骤:
(1)二维图像及投影矩阵生成
为了得到反投影需要的二维标签,首先需要得到对应的二维投影图片,经过人工或自动标注,最终得到包含反投影矩阵的二维标签序列。包括以下步骤:
输入给定的三维点云场景V,为含有三维空间以及物体结构信息的点v(x,y,z,R,G,B…)的集合,其中(x,y,z)为三维坐标,(R,G,B…)为物体表面的色彩、结构信息。
在本实施例中,其包含大量含有三维空间以及物体结构信息的点v(x,y,z,R,G,B,h)其中(x,y,z)为三维坐标,(R,G,B,h)为物体表面的色彩、结构信息,在这里结构信息保留PointNeXt的高度信息。
然后,采用视锥投影的方法进行对输入的点云场景V进行投影,因此需要确定投影的参数:视点(x0,y0,z0)、视角视距dv、画布大小等。
在本实施例中,选择场景中央作为视点,前后左右四个方向作为视角,视距和画布大小根据不同的场景和点云质量做不同适配,可以选择dv=5m视距,300×300的画布大小。
在得到视点(x0,y0,z0)和视角信息后,平移矩阵将点云坐标原点平移至视点(即v-(x0,y0,z0)),再通过旋转矩阵使点云旋转至正面投影平面(即/> 分别为绕y,z轴旋转的矩阵)。
然后,裁剪去坐标轴负向方向的不可视点,再将视锥棱台通过拉伸变换为直平行六面体的形状。具体来说:可以对于每个可见点,其y,z值乘以式中x即该点的x值,xmax即所有x值中最大者。
经过上述变换的点可以重新写作p(h,y,z,R,G,B,…)其中h代表点到投影平面的距离。
然后,网格化划分yz平面:通过点的(y,z)坐标计算在yz平面网格的坐标,初步构建像素-点云映射矩阵M。M矩阵大小与点云中点的个数相同。对于每个对应点p,赋予其在这个yz平面的坐标id,即可完成点-像素的对应。
此时每个像素常常会有非常多个点与之对应,考虑到不同平面的遮盖关系,h最小的点所在整个平面应当被保留,而h更大的平面上的点应当被删除,所以该像素包含了最低平面h±Δo内所有点的映射关系,而删除更远处的点的映射关系。本实施例中,可以取Δo=0.01m。
然后,在优化后的yz平面上,取点每个点的(R,G,B)为其对应的颜色,渲染二维原始图像,渲染是使用Z-buffer模式渲染,取网格中h最小的点渲染色彩。获取点云的二维图像。
最终记录经过修改的三维点与二维图片映射矩阵M1以供反投影备用。投影图片以及相应的标注图片有图4进行展示。
(2)二维图像标注噪点去除
情况描述:由于点云的稀疏性,在步骤(1)处理的过程中只能处理单像素上的遮盖问题。如果存在一个物体在另一个物体之前,但由于前一个物体采样点较为稀疏,或者存在漏洞,可能会是若干位于后面的本应被遮盖的物体出现在投影图上。这种噪点误差在人为标注的过程中若要手动纠正,则需要耗费大量额外工作,效果也可能受限,须以在此处理。
处理过程如下:
通过计算八近邻平面消除这种误差:计算中心像素所对应的平面高度与其八近邻像素的对应平面的高度差Δh。
统计高度差大于设定阈值Δs的数目,若数量大于设定阈值θ,则认为该像素本应该被遮蔽,需将其对应的像素-点映射关系删除,并继承其八近邻平面的高度。
实验表明Δs=0.01m,θ=4可以取得良好的效果。该设置的意义是:中心像素周围至少一半像素不明显高于该像素,该像素才被认为是有效的。其物理先验是:采样物体表面不会连续出现的高于1cm的起伏,而应当是连续且平滑的。
对于输出图像质量较低的重复次本步骤多次。
(3)二维图像标注边缘处理
情况描述:在图像标注的过程中,人工标注难免会产生一定的误差。在图像识别的过程中,由于卷积神经网络的特性,以及图像的连续性,这样的误差并不会对结果产生较大影响。但是在本系统中,二维边错误的标注将被反投影至三维。像素的连续性在反投影的三维空间中并不存在,二维平面上邻接的两个物体在三维空间中可能有着较远的差距,这样本来在二维中较小的误差将会被放大。此外,位于同一平面的不同物体往往也难以产生清晰的边界,其边界像素往往会同时包含应属于两个不同物体的点。
为了解决上述问题,本实施例提出了边缘上的双类别交叉熵:
输入人工标注的图像,处理得到每个标签块的边缘像素,每个边界应包含两个标签l1,l2,边界两侧有两组像素p1,p2,分别拥有这两种标签。
构建M2:在原始映射矩阵M1中与p1构成映射的点将在M2中与p2构成映射。
由此同一个点的通过两个映射矩阵M1,M2分别对应了两个不同的标签,即该点被赋予了双类别标签。
对于特别的边缘点(如三类相交处),也可以使用更多的投影矩阵操作,拥有更多的标签。
接下来,利用二维图像到三维点云的反投影矩阵,进行深度网络学习损失函数的适配优化,如图2所示,包括:
网络训练过程
以图1所示网络结构为例讲解。给定场景V,选择合适的三维神经网络作为骨干网络Fφ(如PointNext-S),Ф为神经网络参数。
这样,可以得到相应的神经网络表示Fφ(V),在外面的条件下,Fφ(V)输出了每个输入点的一个多通道向量,每一个通道对应于一个特定的类别。
接着进行softmax操作,Fφ(V)可以被进一步转化为对应类别的预测概率。
然后通过上述步骤,可以得到二维图像到三维点云的反投影矩阵M,从而将二维图像标签的信息通过反投影回到三维点云场景V,从而使点云中每个点拥有至多两个类别标签。
于是可以将点云划分为以下三个部分:
即Ω1,Ω2,Ω3分别代表普通点(仅有一个标签)、边缘像素点(有两个标签)、无映射点集合(无标签)。
其中普通点将使用普通的标准交叉熵损失函数:
边缘点赋予双类别特别适配的交叉熵损失函数:
式中是该像素预测为第i类的概率,Yi是该像素的双类别标签,在此用n和m表示这两类,而这第n类和第m类的概率之和应当为1。
上述损失函数将鼓励边缘像素收敛到第n类或第m类而不是某个特定类。因此,本发明避免了学习边缘点的错误标签,并允许图像标签在物体边界处存在一些误差。
无映射点赋予香农熵约束:
经过第一个部分的处理,得到的投影矩阵M并不能保证每个点与至少一个像素对应,这部分点我们成为无映射点。
通常来说,经过第一个部分的处理后,即使每个场景使用四个投影,仍有超半数的点无法被映射,自然无法获得反投影信息。
对于无映射点,我们采用一个先验定理:每个点属于且仅属于某一特定物体,即每个点都应有一特定标签。
因此,只要最小化每个点的熵就可以对无映射点产生良好的约束:
式中表示每个点预测的每个类别的概率。
于是神经网络训练过程就可以表示为以下的网络参数φ的优化过程:
进行网络推理,适用的网络推理与正常的三维点云语义分割网络相同,不需要额外的二维图像,只需要输入点云场景V,通过训练得到的网络Fφ得到网络输出Fφ(V)。
通过确定网络输出最大值所在通道确定对应点所属的类别,完成语义分割。
语义分割结果如图5所示的展示效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (7)
1.一种三维点云语义分割的方法,其特征是,包括以下步骤:
通过视锥投影初步将三维场景投影至二维,进行标注,得到包含反投影矩阵的二维标签序列;
利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵,进行二维标签到三维的正确映射;
处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差;
针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数,对构建的深度网络模型进行训练;
利用训练得到的深度网络模型进行三维点云场景的语义分割;
处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差的具体过程包括:构建与修正后的反投影矩阵形状相同的第二个空的映射矩阵;
基于人工标注的图像,处理得到每个标签块的边缘像素,每个边界应包含两个标签,边界两侧有两组像素,分别拥有这两种标签;
在原始修正后的反投影矩阵中与一组像素构成映射的点将在第二个空的映射矩阵中与第二组像素构成映射,使得同一个点的通过两个映射矩阵分别对应两个不同的标签,即该点被赋予了双类别标签;
对于边缘点或相交点,使用多个投影矩阵进行重复映射操作,拥有更多的标签;
针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数的具体过程包括:区分普通点、边缘点以及无像素映射点,普通点在修正后的反投影矩阵中含有且只含有一个标签的像素,将使用交叉熵损失函数;边缘点为在修正后的反投影矩阵中含有超过一个标签的像素,赋予双类别交叉熵损失函数;无映射点为在修正后的反投影矩阵中不含有标签与之对应的像素,赋予香农熵约束。
2.如权利要求1所述的一种三维点云语义分割的方法,其特征是,通过视锥投影初步将三维场景投影至二维的具体过程包括:
获取三维点云场景,包含三维空间以及物体结构信息的点、物体表面的色彩和结构信息;
采用视锥投影的方法进行对输入的点云场景进行投影;
裁剪不可视部分,通过视锥棱台变换得到直平行六面体;
网格化划分yz平面,初步构建像素-点云映射矩阵,对yz平面投影映射,利用对应的颜色,渲染二维原始图像,获取点云二维图像。
3.如权利要求2所述的一种三维点云语义分割的方法,其特征是,采用视锥投影的方法进行对输入的点云场景进行投影的过程包括按照视点(x0,y0,z0)和视角信息,得到平移操作和旋转矩阵,将点云坐标原点平移至视点,再通旋转至正面投影平面。
4.如权利要求2所述的一种三维点云语义分割的方法,其特征是,网格化划分yz平面的具体过程包括通过点的(y,z)坐标计算在yz平面网格的坐标,初步构建像素-点云映射矩阵M,M矩阵大小与点云中点的个数相同,对于每个对应点p,赋予其在这个yz平面的坐标id,完成点-像素的对应。
5.如权利要求2所述的一种三维点云语义分割的方法,其特征是,优化yz平面投影的具体过程包括考虑到不同平面的遮盖关系保留该像素中最低平面内所有点的映射关系,而删除更远处的点的映射关系。
6.如权利要求1所述的一种三维点云语义分割的方法,其特征是,利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵的具体过程包括:
在yz平面上,对于每个像素计算中心像素所对应的平面高度与其八近邻像素对应平面的高度差Δh;
统计高度差大于设定阈值的数目,若数量大于设定值,则认为该像素本应该被遮蔽,将其对应的像素-点映射关系删除,并继承其八近邻平面的高度。
7.一种三维点云语义分割的系统,其特征是,包括:
投影模块,被配置为进行标注,得到包含反投影矩阵的二维标签序列;
修正模块,被配置为利用像素的八近邻关系去除二维图像的噪点,修正所述反投影矩阵,进行二维标签到三维的正确映射;
标签赋予模块,被配置为处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差;
损失函数设计模块,被配置为针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数,对构建的深度网络模型进行训练;
语义分割模块,被配置为利用训练得到的深度网络模型进行三维点云场景的语义分割;
其中,处理像素边缘的误差,通过赋予边缘像素多个正标签缓解三维场景的不连续性误差的具体过程包括:构建与修正后的反投影矩阵形状相同的第二个空的映射矩阵;
基于人工标注的图像,处理得到每个标签块的边缘像素,每个边界应包含两个标签,边界两侧有两组像素,分别拥有这两种标签;
在原始修正后的反投影矩阵中与一组像素构成映射的点将在第二个空的映射矩阵中与第二组像素构成映射,使得同一个点的通过两个映射矩阵分别对应两个不同的标签,即该点被赋予了双类别标签;
对于边缘点或相交点,使用多个投影矩阵进行重复映射操作,拥有更多的标签;
针对普通像素点、边界像素点以及无像素映射点构建不同的损失函数的具体过程包括:区分普通点、边缘点以及无像素映射点,普通点在修正后的反投影矩阵中含有且只含有一个标签的像素,将使用交叉熵损失函数;边缘点为在修正后的反投影矩阵中含有超过一个标签的像素,赋予双类别交叉熵损失函数;无映射点为在修正后的反投影矩阵中不含有标签与之对应的像素,赋予香农熵约束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311062067.3A CN117058384B (zh) | 2023-08-22 | 2023-08-22 | 一种三维点云语义分割的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311062067.3A CN117058384B (zh) | 2023-08-22 | 2023-08-22 | 一种三维点云语义分割的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117058384A CN117058384A (zh) | 2023-11-14 |
CN117058384B true CN117058384B (zh) | 2024-02-09 |
Family
ID=88653233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311062067.3A Active CN117058384B (zh) | 2023-08-22 | 2023-08-22 | 一种三维点云语义分割的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117058384B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725966B (zh) * | 2024-02-18 | 2024-06-11 | 粤港澳大湾区数字经济研究院(福田) | 草图序列重建模型的训练方法、几何模型重建方法及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968240A (zh) * | 2020-09-04 | 2020-11-20 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN113129311A (zh) * | 2021-03-10 | 2021-07-16 | 西北大学 | 一种标签优化点云实例分割方法 |
CN114972758A (zh) * | 2022-06-06 | 2022-08-30 | 上海人工智能创新中心 | 一种基于点云弱监督的实例分割方法 |
CN114966603A (zh) * | 2022-05-11 | 2022-08-30 | 北京理工大学 | 基于相机图像驱动的激光雷达点云目标检测方法及系统 |
CN115578516A (zh) * | 2022-10-19 | 2023-01-06 | 京东科技控股股份有限公司 | 一种三维成像方法、装置、设备和存储介质 |
US11636602B1 (en) * | 2020-02-12 | 2023-04-25 | Scale AI, Inc. | Prelabeling for semantic segmentation tasks |
WO2023091249A1 (en) * | 2021-11-16 | 2023-05-25 | Google Llc | Neural semantic fields for generalizable semantic segmentation of 3d scenes |
-
2023
- 2023-08-22 CN CN202311062067.3A patent/CN117058384B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11636602B1 (en) * | 2020-02-12 | 2023-04-25 | Scale AI, Inc. | Prelabeling for semantic segmentation tasks |
CN111968240A (zh) * | 2020-09-04 | 2020-11-20 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN113129311A (zh) * | 2021-03-10 | 2021-07-16 | 西北大学 | 一种标签优化点云实例分割方法 |
WO2023091249A1 (en) * | 2021-11-16 | 2023-05-25 | Google Llc | Neural semantic fields for generalizable semantic segmentation of 3d scenes |
CN114966603A (zh) * | 2022-05-11 | 2022-08-30 | 北京理工大学 | 基于相机图像驱动的激光雷达点云目标检测方法及系统 |
CN114972758A (zh) * | 2022-06-06 | 2022-08-30 | 上海人工智能创新中心 | 一种基于点云弱监督的实例分割方法 |
CN115578516A (zh) * | 2022-10-19 | 2023-01-06 | 京东科技控股股份有限公司 | 一种三维成像方法、装置、设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
4D点云语义分割网络研究;杨星宇;《中国优秀硕士学位论文全文数据库信息科技辑》(第01期);第I138-1597页 * |
LiDARNet: A Boundary-Aware Domain Adaptation Model for Point Cloud Semantic Segmentation;Peng Jiang等;《2021 IEEE International Conference on Robotics and Automation (ICRA)》;第2457-2464页 * |
Semantic Segmentation for Point Cloud based on Distance Weighted and Adaptive Augmentation;Wenhua Huang等;《2022 34th Chinese Control and Decision Conference (CCDC)》;第6106-6111页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117058384A (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399386B (zh) | 饼图中的信息提取方法及装置 | |
EP4120199A1 (en) | Image rendering method and apparatus, and electronic device and storage medium | |
CN112348815A (zh) | 图像处理方法、图像处理装置以及非瞬时性存储介质 | |
US20110267345A9 (en) | Apparatus and method for finding visible points in a cloud point | |
CN115082639A (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN113808261B (zh) | 一种基于全景图的自监督学习场景点云补全的数据集生成方法 | |
CN107464286B (zh) | 三维城市模型中的孔洞修复方法及装置、设备及可读介质 | |
CN117058384B (zh) | 一种三维点云语义分割的方法及系统 | |
CN110009637B (zh) | 一种基于树形结构的遥感图像分割网络 | |
CN109979013B (zh) | 三维人脸贴图方法及终端设备 | |
CN109948441B (zh) | 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN109272442B (zh) | 全景球面图像的处理方法、装置、设备和存储介质 | |
CN108921942A (zh) | 对图像进行2d转制3d的方法及装置 | |
CN111027538A (zh) | 一种基于实例分割模型的集装箱检测方法 | |
CN111768468A (zh) | 图像填充方法、装置、设备及存储介质 | |
CN114266860A (zh) | 三维人脸模型建立方法、装置、电子设备及存储介质 | |
CN112330815A (zh) | 基于障碍物融合的三维点云数据处理方法、装置和设备 | |
CN115546422A (zh) | 一种建筑物的三维模型构建方法、系统和电子设备 | |
CN113177957B (zh) | 一种细胞图像的分割方法、装置、电子设备及存储介质 | |
CN115272599A (zh) | 一种面向城市信息模型的三维语义地图构建方法 | |
CN111768467A (zh) | 图像填充方法、装置、设备及存储介质 | |
Lin et al. | Immesh: An immediate lidar localization and meshing framework | |
CN112580213B (zh) | 电场线的显示图像的生成方法和装置、存储介质 | |
CN113505885A (zh) | 基于预设的损失函数的单目深度估计网络的训练方法 | |
CN110288691B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |