CN117974746A - 点云2d深度面三角剖分构图方法、装置、系统及设备 - Google Patents
点云2d深度面三角剖分构图方法、装置、系统及设备 Download PDFInfo
- Publication number
- CN117974746A CN117974746A CN202410381160.9A CN202410381160A CN117974746A CN 117974746 A CN117974746 A CN 117974746A CN 202410381160 A CN202410381160 A CN 202410381160A CN 117974746 A CN117974746 A CN 117974746A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- graph
- triangulation
- traffic scene
- primary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000010586 diagram Methods 0.000 claims description 37
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000002441 reversible effect Effects 0.000 claims description 17
- 238000003062 neural network model Methods 0.000 claims description 13
- 238000000059 patterning Methods 0.000 claims description 11
- 230000004048 modification Effects 0.000 claims description 7
- 238000012986 modification Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 241001272996 Polyphylla fullo Species 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 17
- 230000000694 effects Effects 0.000 description 9
- 238000005070 sampling Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种点云2D深度面三角剖分构图方法、装置、系统及设备,属于点云构图领域。将3D原始点云投影到2D的深度面空间上,2D点云三角剖分算法不需要法线,且将3D原始点云投影到2D深度面之后,点云中所有点的仰角和方位角的邻接关系没有发生改变,在此基础上进行Delaunay三角剖分,就会将相邻点有效的连接成多个三角形,形成连续的连接关系,克服了3D点云三角剖分算法面不连续问题。由于本发明的Delaunay三角剖分是在2D空间进行,因此避免了3D三角剖分的计算复杂度的问题。
Description
技术领域
本发明涉及点云构图领域,特别是涉及一种点云2D深度面三角剖分构图方法、装置、系统及设备。
背景技术
受CNN(Convolutional Neural Networks,卷积神经网络)启发,想要使用类似于图片的方式表示3D点云进行深度学习,目前LaserNet等算法直接使用深度图表示激光雷达点云。但是深度图有一个重要的问题是:它是一张规则的图片,在将3D点云转化为深度图的过程中会产生量化误差和0值像素,这会带来信息损失以及增加无效计算量。
发明内容
本发明的目的是提供一种点云2D深度面三角剖分构图方法、装置、系统及设备,可克服3D点云三角剖分算法面不连续问题,以及计算复杂度较高的问题。
为实现上述目的,本发明提供了如下方案:
一种点云2D深度面三角剖分构图方法,包括:将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集;对所述2D点集进行2D Delaunay三角剖分,形成Delaunay图;将所述Delaunay图再反投影到3D原始点云上,获得交通场景的初级图;对初级图进行修饰,获得交通场景的最终构图。
可选地,将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集,具体包括以下过程。
依据公式和/>,将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集;其中,(x,y,z)表示3D原始点云中点的坐标,x、y、z分别表示3D原始点云中点的X轴坐标、Y轴坐标、Z轴坐标;/>为方位角,/>∈[-π,π);ε为仰角,ε∈[-π,π];/>表示2D点集中点的坐标。
可选地,对初级图进行修饰,获得交通场景的最终构图,具体包括:若所述初级图中存在长边,则去除长边,获得去除长边之后的边集合为;其中,所述长边为初级图中长度大于长度阈值的边;/>为去除长边之后的边集合,m为初级图中边的条数,/>为初级图的第k条边,/>为初级图的第k条边是否为长边的掩码,/>=0表示初级图的第k条边为长边,/>=1表示初级图的第k条边为非长边;构造无向图,增加反向边,获得反向边集合为:/>;其中,Er为反向边集合,V为初级图中的节点集合,/>和/>分别为初级图中的节点集合中的第i个节点和第j个节点;/>为全称量化符号;添加自环,获得自环边的集合为:/>;其中,Es为自环边的集合;根据去除长边之后的边集合、反向边集合和自环边的集合,依据公式,确定交通场景的最终构图中的边集合E;根据交通场景的最终构图中的边集合E和初级图中的节点集合V,获得交通场景的最终构图G(V,E)。
可选地,去除长边所依据的公式为:;其中,ME为边掩码,eD为边集合中的一条边,dup为距离上限阈值,/>,/>为正实数,/>为L2范数。
可选地,对初级图进行修饰,获得交通场景的最终构图,之后还包括:将交通场景的最终构图输入图神经网络模型,识别交通场景中目标的分类,并定位目标;所述目标包括:车、走路的行人和骑自行车的人。
可选地,若所述初级图中存在长边,且图神经网络模型的规模大于规模阈值,则不需要去除长边;若图神经网络模型不支持无向图,或图神经网络模型的规模大于规模阈值,或点云附加了单向语义特征,则不需要构造无向图,不进行反向边的增加;若图神经网络不支持自环,或初级图中不会产生孤点,或点特征更新不需要考虑自身特征,则不需要添加自环。
一种点云2D深度面三角剖分构图装置,包括:点云传感器和计算机;云传感器用于采集交通场景的3D原始点云,并传输至计算机;计算机用于采用上述的点云2D深度面三角剖分构图方法,获得交通场景的最终构图。
一种点云2D深度面三角剖分构图系统,包括:投影模块,用于将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集;三角剖分模块,用于对所述2D点集进行2D Delaunay三角剖分,形成Delaunay图;反投影模块,用于将所述Delaunay图再反投影到3D原始点云上,获得交通场景的初级图;修饰模块,用于对初级图进行修饰,获得交通场景的最终构图。
一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述的点云2D深度面三角剖分构图方法。
可选地,所述存储器为非暂态计算机可读存储介质。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明实施例的点云2D深度面三角剖分构图方法、装置、系统及设备,将3D原始点云投影到2D的深度面空间上,2D点云三角剖分算法不需要法线,且将3D原始点云投影到2D深度面之后,点云中所有点的仰角和方位角的邻接关系没有发生改变,在此基础上进行Delaunay三角剖分,就会将相邻点有效的连接成多个三角形,形成连续的连接关系,克服了3D点云三角剖分算法面不连续问题。由于本发明的Delaunay三角剖分是在2D空间进行,因此避免了3D三角剖分的计算复杂度的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种点云2D深度面三角剖分构图方法的流程图。
图2为本发明实施例提供的一种点云2D深度面三角剖分构图方法的原理图。
图3为本发明实施例提供的深度面及点云分布示意图。
图4为本发明实施例提供的深度面Dalaunay三角剖分过程示意图。
图5为本发明实施例提供的Dalaunay三角剖分效果示意图。
图6为本发明实施例提供的去除长边后的图效果。
图7为本发明实施例提供的图修饰流程图。
图8为本发明实施例提供的应用于图神经网络的流程示意图。
图9为本发明实施例提供的一种点云2D深度面三角剖分构图装置的硬件连接关系图。
图10为本发明实施例提供的激光雷达采样方式图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明在深度图的基础上提出深度面的概念,将3D原始点云直接投影到2D的深度面空间,2D点云将和3D原始点云具有双射关系,不会有量化误差和0值像素。深度面的概念则更类似于顶点图(Vertex Map)的概念,不同的是深度图直接采用方位角作为横坐标,仰角作为纵坐标,不存在顶点图的坐标移动。然后使用Delaunay三角剖分就构建了一张可以描述点云之间邻接关系的图,经过一系列处理之后就可以应用于图神经网络。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本发明实施例提供了一种点云2D深度面三角剖分构图方法,包括以下步骤。
步骤1:将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集。
如图2所示,先获取3D原始点云,再进行2D深度面投影,投影方式如公式(1)所示。
(1)。
其中,。
式中,(x,y,z)表示3D原始点云中点的坐标,x、y、z分别表示3D原始点云中点的X轴坐标、Y轴坐标、Z轴坐标。为方位角,/>∈[-π,π);ε为仰角,ε∈[-π,π];/>表示2D点集中点的坐标。r为半径,指点到原点的距离;需要注意的是函数arctan2(y,x)在y=0且x=0时无意义,实际物理世界也不存在y=0且x=0的情况,但为了防止y=0,x=0输入arctan2(y,x),在使用之前应将y=0且x=0对应的点删除。
由此可知深度面空间是横坐标为、纵坐标为ε的2D空间,深度面及点云分布如图3所示。以此,即可将3D原始点云P展平为2D点集P',则有/>,p'为2D点集P'中的点。
本发明提出的深度面的概念类似于深度图和顶点图(vertex map)的概念,但有区别。深度图是一张规则的图片,具有量化误差,但深度面表示的点云可无损恢复为原始点云。顶点图平移了坐标系,而深度面直接使用球坐标系的方位角和仰角作为点在2D平面上的分布坐标中的横纵坐标。
步骤2:对所述2D点集进行2D Delaunay三角剖分,形成Delaunay图。
对图3中分布在2D深度面上的2D点集P'进行2D Delaunay三角剖分,Delaunay三角剖分的算法有很多,包括但不限于Quick Hull算法、翻边算法(flip algorithm)、分割归并法、逐点插入算法、三角网增长法,翻边算法又具体包括Lawson算法,逐点插入算法又具体包括Bowyer-Watson算法等等。2D点集P'进行三角剖分之后,各点之间将会有组织的连接起来,此时相当于一张图(Graph),令Delaunay三角形的边集合为ED,Delaunay图表示为GD(V,ED),如图4中的(b)部分所示,图4中的(b)部分显示出了深度面Dalaunay三角剖分效果图。图4中的(a)部分表示Dalaunay三角剖分局部放大图。
步骤2对应图2中的“Delaunay三角剖分”。
步骤3:将所述Delaunay图再反投影到3D原始点云上,获得交通场景的初级图。
将形成的Delaunay图再反投影到3D原始点云上,则有V={v|v=(p,s)}。式中,V为初级图中的节点集合,v为初级图中的节点集合中的节点,p为3D原始点云中的点,s为点云其他特征,如反射率ir和颜色rc、gc、bc等。故初级图则为GP(V, ED),如图5所示。其中,rc、gc、bc代表红、绿、蓝三个通道的颜色。图5示出了长边、π/-π方位角平面、空间不连续和车被切分为两块。
步骤3对应图2中的“反投影为3D空间三角剖分图”。
步骤4:对初级图进行修饰,获得交通场景的最终构图。
初级图GP(V, ED)有时还不能直接用于图神经网络,还需对初级图GP(V, ED)进行修饰,修饰流程如图7所示。
子步骤1):判断是否移除长边:初级图GP(V, ED)的ED在3D原始点云中有些边非常长,导致虽然两p点的关系非常远,但图神经网络处理时却非常近,故此类边考虑是否去除,以保证图神经网络可以有效汇集附近点云的信息。但也应根据图神经网络类型和应用场景决定是否而定,比如:图神经网络模型足够大、数据集足够多或场景中几乎不存在长边,此类情况可以不去除长边。若去除长边则执行子步骤2),否则执行子步骤3)。
子步骤2):去除长边,方法如公式(2)和公式(3)。
(2)。
式中,ME为边掩码,eD为边集合中的一条边,dup为距离上限阈值,,/>为正实数,/>为L2范数。去除长边之后的边集合如公式(3)所示,效果如图6所示。
(3)。
式中:为去除长边之后的边集合,m为初级图中边的条数,/>为初级图的第k条边,/>为初级图的第k条边是否为长边的掩码,/>=0表示初级图的第k条边为长边,/>=1表示初级图的第k条边为非长边。
子步骤3):根据图神经网络类型和应用场景决定是否构造无向图。如:图神经网络类型不支持无向图,图神经网络模型足够大不构造无向图也可具有足够表达能力,以及点云附加了单向语义特征(如从属关系)等情况不需要构造无向图,但一般情况下最好构造无向图。若构造无向图则执行子步骤4),否则执行子步骤5)。
子步骤4):令边,则目前/>,此为有向图,因此需增加反向边构造无向图。
(4)。
式中,Er为反向边集合,V为初级图中的节点集合,和/>分别为初级图中的节点集合中的第i个节点和第j个节点;/>为全称量化符号。
子步骤5):根据图神经网络类型和应用场景决定是否添加自环。如,图神经网络不支持自环、图中不会产生孤点、点特征更新不需要考虑自身特征等情况,则不需要添加自环,一般情况最好添加自环。若添加自环则执行子步骤6),否则结束此子流程。
子步骤6):添加自环,自环边的集合Es可表示为公式(5)。
(5)。
则,交通场景的最终构图中的边集合E如下。
(6)。
交通场景的最终构图可表示为G(V,E)。
子步骤1)至子步骤6)可总结为:若所述初级图中存在长边,则去除长边,获得去除长边之后的边集合为;其中,所述长边为初级图中长度大于长度阈值的边;/>为去除长边之后的边集合,m为初级图中边的条数,/>为初级图的第k条边,/>为初级图的第k条边是否为长边的掩码,/>=0表示初级图的第k条边为长边,/>=1表示初级图的第k条边为非长边;构造无向图,增加反向边,获得反向边集合为:;其中,Er为反向边集合,V为初级图中的节点集合,/>和/>分别为初级图中的节点集合中的第i个节点和第j个节点;/>为全称量化符号;添加自环,获得自环边的集合为:/>;其中,Es为自环边的集合;根据去除长边之后的边集合、反向边集合和自环边的集合,依据公式/>,确定交通场景的最终构图中的边集合E;根据交通场景的最终构图中的边集合E和初级图中的节点集合V,获得交通场景的最终构图G(V,E)。
若所述初级图中存在长边,且图神经网络模型的规模大于规模阈值,则不需要去除长边;若图神经网络模型不支持无向图,或图神经网络模型的规模大于规模阈值,或点云附加了单向语义特征,则不需要构造无向图,不进行反向边的增加;若图神经网络不支持自环,或初级图中不会产生孤点,或点特征更新不需要考虑自身特征,则不需要添加自环。
步骤4对应图2中的“图修饰子流程”。
获得交通场景的最终构图之后,交通场景的最终构图G(V,E)可应用于图神经网络,以进行分类、定位、3D目标检测等任务,但不限于上述任务,如图8所示。步骤1至步骤4构成图8中的“2D深度面三角剖分子流程”。
下面分析本发明的方法与现有文献1、现有文献2、现有文献3和现有文献4的区别。
现有文献1:R. Tse, C. Gold, and D. Kidner, "Using the DelaunayTriangulation/ Voronoi Diagram to extract Building Information from Raw LIDARData," in 4th International Symposium on Voronoi Diagrams in Science andEngineering (ISVD 2007), 9-11 July 2007 2007, pp. 222-229, doi: 10.1109/ISVD.2007.40。
现有文献2:R. Kundrick, P. J. Kovach, and S. J. Austin, "Mobile,Aerial and Static LiDAR Data Acquisition, Processing, and Remote SensingApplications," October 17 2019. [Online]。
现有文献3:G. Vosselman, B. Gorte, G. Sithole, and T. B, "Recognisingstructure in laser scanner point clouds," Inter. Arch. Photogramm. RemoteSens. Spatial Inf. Sci., vol. 46, 11/30 2003。
现有文献4:吕潮峰 and 杜正春, "基于激光雷达测量技术的集装箱卡车定位系统," 激光技术, no. 06, pp. 596-599, 2007。
现有文献1中记载的第1张参考图、第2张参考图、第3张参考图和第12张参考图示出了Delaunay三角剖分过程,过程为:现有文献1中的第1张参考图→现有文献1中的第2张参考图→现有文献1中的第3张参考图→现有文献1中的第12张参考图。现有文献1中的第1张参考图表示采样方式及应用场景,现有文献1中的第2张参考图表示原始点云Delaunay三角剖分,现有文献1中的第3张参考图表示降采样的三角剖分和Voronoi图,现有文献1中的第12张参考图表示表面重建效果。
采样方式不同:现有文献1为俯视采样(如现有文献1中的第1张参考图所示),本发明为水平采样。
用途不同:现有文献1用于3D表面重建(如现有文献1中的第12张参考图所示),而本发明用于构图然后进行图神经网络深度学习。
由于现有文献1没有构图的需求,所以没有设计后续图修饰流程。
现有文献1使用单线激光雷达(如现有文献1中的第1张参考图、现有文献2第6页右上角记载的附图和现有文献2第11页记载的附图所示),本发明使用多线激光雷达(如本发明的图10所示),多线激光雷达精度更高、性能更好。
现有文献1没有提到现有文献1中的第2张参考图所示的点云是如何投影的,而根据俯视采样方式,推测采用BEV(Bird’s Eye View)(也就是俯视正投影)的方式完成,即直接使用(x,y)坐标(坐标系如现有文献1中的第1张参考图所示)表示。参考现有文献1中的第12张参考图和本发明的图6,现有文献1与本发明有本质性区别:深度面的坐标系使用的是方位角和仰角,即。这两种坐标系点云的邻接关系是不同的,比如多线的激光雷达的一个点很远,那么它的z坐标就会比较高,然后它在正投影(y,z)面上就会偏上,远离了它在坐标系中原来的邻接点,邻接关系的改变会显著引起后面神经网络的性能。同时现有文献1的视点(飞机上传感器坐标系的位置)是移动的,而本发明中的传感器视点可以认为是固定的(同一帧的点云可以在一定程度上忽略传感器的移动),这也是导致现有文献1不能采用深度面的/>投影的一个原因。这一点是跟其他方案最本质的区别。
本发明与现有文献2、现有文献3和现有文献4的区别同上。现有文献2第6页右上角记载的附图表示机载单线激光雷达飞行扫描过程,现有文献2第11页记载的附图表示机载单线激光雷达飞行扫描详情,现有文献2第78页左侧记载的附图表示三角剖分表面重建效果。现有文献3记载的第1张参考图为三角剖分效果图。现有文献4记载的第1张参考图表示扫描系统移动原理图,现有文献4记载的第3张参考图表示扫描过程图,现有文献4记载的第5张参考图表示单线激光雷达平移扫描效果。
本发明的优点如下。
一、实现3D点云在没有法线的情况下完成三角剖分。
其他3D点云三角剖分算法存在面不连续问题,尤其是同一个目标不连续、地面不连续的问题。这些剖分面不连续将导致点云的不连续,在应用于图神经网络时将无法汇聚物体周围的点云的信息,也就无法扩展感受野。本发明解决了以上问题,实现了3D点云在没有法线的情况下完成三角剖分。
二、直接3D点云三角剖分剖分计算复杂度较高的问题。
优点来源:
步骤1:将3D点云投影到2D的深度面空间上。
步骤1和步骤2:投影和三角剖分。
产生原因:
①2D点云三角剖分算法不需要法线,但是3D三角剖分大多需要法线。
②将3D原始点云投影到2D深度面之后,所有的点云的仰角和方位角的邻接关系没有发生改变,在此基础上进行Delaunay三角剖分,就会将相邻点有效的连接成多个三角形,形成连续的连接关系。因为实际上的三角剖分是在2D空间进行,因此避免的3D三角剖分的计算复杂度的问题。
本发明解决了如下问题:实现3D点云在没有法线的情况下完成三角剖分。其他3D点云三角剖分面不连续问题;以及3D点云三角剖分剖分计算复杂度较高的问题。
实施例二
如图9所示,本发明实施例提供了一种点云2D深度面三角剖分构图装置,包括:点云传感器和计算机。
点云传感器用于采集交通场景的3D原始点云(图9中的点云数据),并传输至计算机。计算机用于采用实施例一的点云2D深度面三角剖分构图方法,获得交通场景的最终构图。
实施例三
本发明实施例提供了一种点云2D深度面三角剖分构图系统,包括:投影模块、三角剖分模块、反投影模块和修饰模块。
投影模块,用于将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集。
三角剖分模块,用于对所述2D点集进行2D Delaunay三角剖分,形成Delaunay图。
反投影模块,用于将所述Delaunay图再反投影到3D原始点云上,获得交通场景的初级图。
修饰模块,用于对初级图进行修饰,获得交通场景的最终构图。
本发明实施例提供的点云2D深度面三角剖分构图系统与实施例一的点云2D深度面三角剖分构图方法,其工作原理和有益效果类似,故此处不再详述,具体内容可参见上述方法实施例的介绍。
实施例四
本发明还提供一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如实施例一的点云2D深度面三角剖分构图方法。
示例性的,所述存储器为非暂态计算机可读存储介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种点云2D深度面三角剖分构图方法,其特征在于,包括:
将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集;
对所述2D点集进行2D Delaunay三角剖分,形成Delaunay图;
将所述Delaunay图再反投影到3D原始点云上,获得交通场景的初级图;
对初级图进行修饰,获得交通场景的最终构图。
2.根据权利要求1所述的点云2D深度面三角剖分构图方法,其特征在于,将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集,具体包括:
依据公式和/>,将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集;
其中,(x,y,z)表示3D原始点云中点的坐标,x、y、z分别表示3D原始点云中点的X轴坐标、Y轴坐标、Z轴坐标;为方位角,/>∈[-π,π);ε为仰角,ε∈[-π,π];/>表示2D点集中点的坐标。
3.根据权利要求1所述的点云2D深度面三角剖分构图方法,其特征在于,对初级图进行修饰,获得交通场景的最终构图,具体包括:
若所述初级图中存在长边,则去除长边,获得去除长边之后的边集合为;其中,所述长边为初级图中长度大于长度阈值的边;/>为去除长边之后的边集合,m为初级图中边的条数,/>为初级图的第k条边,/>为初级图的第k条边是否为长边的掩码,/>=0表示初级图的第k条边为长边,/>=1表示初级图的第k条边为非长边;
构造无向图,增加反向边,获得反向边集合为:;其中,Er为反向边集合,V为初级图中的节点集合,vi和vj分别为初级图中的节点集合中的第i个节点和第j个节点;/>为全称量化符号;
添加自环,获得自环边的集合为:;其中,Es为自环边的集合;
根据去除长边之后的边集合、反向边集合和自环边的集合,依据公式,确定交通场景的最终构图中的边集合E;
根据交通场景的最终构图中的边集合E和初级图中的节点集合V,获得交通场景的最终构图G(V,E)。
4.根据权利要求3所述的点云2D深度面三角剖分构图方法,其特征在于,去除长边所依据的公式为:
;
其中,ME为边掩码,eD为边集合中的一条边,dup为距离上限阈值,,/>为正实数,/>为L2范数。
5.根据权利要求3所述的点云2D深度面三角剖分构图方法,其特征在于,对初级图进行修饰,获得交通场景的最终构图,之后还包括:
将交通场景的最终构图输入图神经网络模型,识别交通场景中目标的分类,并定位目标;所述目标包括:车、走路的行人和骑自行车的人。
6.根据权利要求5所述的点云2D深度面三角剖分构图方法,其特征在于,
若所述初级图中存在长边,且图神经网络模型的规模大于规模阈值,则不需要去除长边;
若图神经网络模型不支持无向图,或图神经网络模型的规模大于规模阈值,或点云附加了单向语义特征,则不需要构造无向图,不进行反向边的增加;
若图神经网络不支持自环,或初级图中不会产生孤点,或点特征更新不需要考虑自身特征,则不需要添加自环。
7.一种点云2D深度面三角剖分构图装置,其特征在于,包括:点云传感器和计算机;
点云传感器用于采集交通场景的3D原始点云,并传输至计算机;
计算机用于采用权利要求1-6任一项所述的点云2D深度面三角剖分构图方法,获得交通场景的最终构图。
8.一种点云2D深度面三角剖分构图系统,其特征在于,包括:
投影模块,用于将交通场景的3D原始点云投影到2D的深度面空间上,获得交通场景的2D点集;
三角剖分模块,用于对所述2D点集进行2D Delaunay三角剖分,形成Delaunay图;
反投影模块,用于将所述Delaunay图再反投影到3D原始点云上,获得交通场景的初级图;
修饰模块,用于对初级图进行修饰,获得交通场景的最终构图。
9.一种电子设备,其特征在于,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的点云2D深度面三角剖分构图方法。
10.根据权利要求9所述的电子设备,其特征在于,所述存储器为非暂态计算机可读存储介质。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410381160.9A CN117974746B (zh) | 2024-04-01 | 点云2d深度面三角剖分构图方法、装置、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410381160.9A CN117974746B (zh) | 2024-04-01 | 点云2d深度面三角剖分构图方法、装置、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117974746A true CN117974746A (zh) | 2024-05-03 |
CN117974746B CN117974746B (zh) | 2024-07-09 |
Family
ID=
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103711050A (zh) * | 2013-12-31 | 2014-04-09 | 中交第二公路勘察设计研究院有限公司 | 一种激光雷达道路改扩建勘测设计方法 |
CN104809755A (zh) * | 2015-04-09 | 2015-07-29 | 福州大学 | 基于单幅图像文化遗存遗址的三维重建方法 |
US20180005018A1 (en) * | 2016-06-30 | 2018-01-04 | U.S. Army Research Laboratory Attn: Rdrl-Loc-I | System and method for face recognition using three dimensions |
CN107610228A (zh) * | 2017-07-05 | 2018-01-19 | 山东理工大学 | 基于海量点云的曲面增量拓扑重建方法 |
CN107767442A (zh) * | 2017-10-16 | 2018-03-06 | 浙江工业大学 | 一种基于Kinect和双目视觉的脚型三维重建与测量方法 |
CN110516388A (zh) * | 2019-08-31 | 2019-11-29 | 大连理工大学 | 基于调和映射的曲面离散点云模型环切刀轨生成方法 |
US20210041554A1 (en) * | 2019-08-05 | 2021-02-11 | Tellus You Care, Inc. | Non-contact identification of multi-person presence for elderly care |
US20210150231A1 (en) * | 2019-11-14 | 2021-05-20 | Toyota Research Institute, Inc. | 3d auto-labeling with structural and physical constraints |
CN114359744A (zh) * | 2021-12-07 | 2022-04-15 | 中山大学 | 一种基于激光雷达和事件相机融合的深度估计方法 |
CN116778288A (zh) * | 2023-06-19 | 2023-09-19 | 燕山大学 | 一种多模态融合目标检测系统及方法 |
WO2023179341A1 (zh) * | 2022-03-25 | 2023-09-28 | 北京字跳网络技术有限公司 | 在视频中放置虚拟对象的方法及相关设备 |
CN116993942A (zh) * | 2023-07-05 | 2023-11-03 | 立得空间信息技术股份有限公司 | 锥形物体三维重建及体积测量方法、系统及无人机 |
CN117315169A (zh) * | 2023-09-05 | 2023-12-29 | 武汉大学 | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 |
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103711050A (zh) * | 2013-12-31 | 2014-04-09 | 中交第二公路勘察设计研究院有限公司 | 一种激光雷达道路改扩建勘测设计方法 |
CN104809755A (zh) * | 2015-04-09 | 2015-07-29 | 福州大学 | 基于单幅图像文化遗存遗址的三维重建方法 |
US20180005018A1 (en) * | 2016-06-30 | 2018-01-04 | U.S. Army Research Laboratory Attn: Rdrl-Loc-I | System and method for face recognition using three dimensions |
CN107610228A (zh) * | 2017-07-05 | 2018-01-19 | 山东理工大学 | 基于海量点云的曲面增量拓扑重建方法 |
CN107767442A (zh) * | 2017-10-16 | 2018-03-06 | 浙江工业大学 | 一种基于Kinect和双目视觉的脚型三维重建与测量方法 |
US20210041554A1 (en) * | 2019-08-05 | 2021-02-11 | Tellus You Care, Inc. | Non-contact identification of multi-person presence for elderly care |
CN110516388A (zh) * | 2019-08-31 | 2019-11-29 | 大连理工大学 | 基于调和映射的曲面离散点云模型环切刀轨生成方法 |
US20210150231A1 (en) * | 2019-11-14 | 2021-05-20 | Toyota Research Institute, Inc. | 3d auto-labeling with structural and physical constraints |
CN114359744A (zh) * | 2021-12-07 | 2022-04-15 | 中山大学 | 一种基于激光雷达和事件相机融合的深度估计方法 |
WO2023179341A1 (zh) * | 2022-03-25 | 2023-09-28 | 北京字跳网络技术有限公司 | 在视频中放置虚拟对象的方法及相关设备 |
CN116778288A (zh) * | 2023-06-19 | 2023-09-19 | 燕山大学 | 一种多模态融合目标检测系统及方法 |
CN116993942A (zh) * | 2023-07-05 | 2023-11-03 | 立得空间信息技术股份有限公司 | 锥形物体三维重建及体积测量方法、系统及无人机 |
CN117315169A (zh) * | 2023-09-05 | 2023-12-29 | 武汉大学 | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 |
Non-Patent Citations (6)
Title |
---|
MIN YAN, JUNZHENG WANG, JING LI, KE ZHANG, ZIMU YANG: "Road detection using lidar data based on plane assumption and graph model", IEEE, 20 February 2020 (2020-02-20) * |
张彩仙;彭晓玲;王学文;徐泽楷;: "基于聚类算法的边缘点集连接方法", 武汉大学学报(工学版), no. 05, 1 October 2015 (2015-10-01) * |
张晓帅;华顺刚;: "结合平面投影与区域生长的点云表面重建", 机电工程技术, no. 06, 20 June 2020 (2020-06-20), pages 1 - 2 * |
李凤霞;刘咏梅;王晓哲;饶永辉;: "一种基于映射法的散乱点云Delaunay三角剖分算法", 计算机应用研究, no. 03, 15 March 2015 (2015-03-15), pages 1 - 2 * |
李旭;高峰;: "海量数据三角网格生成算法", 北京航空航天大学学报, no. 12, 15 December 2008 (2008-12-15) * |
杨振发;万刚;曹雪峰;李锋;谢理想;: "基于几何结构特征的点云表面重建方法", 系统仿真学报, no. 11, 8 November 2017 (2017-11-08), pages 1 - 3 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109766878B (zh) | 一种车道线检测的方法和设备 | |
CN109493407B (zh) | 实现激光点云稠密化的方法、装置及计算机设备 | |
CN111832655B (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
EP2849117B1 (en) | Methods, apparatuses and computer program products for automatic, non-parametric, non-iterative three dimensional geographic modeling | |
CN111209915B (zh) | 一种基于深度学习的三维图像同步识别和分割方法 | |
CN113066162B (zh) | 一种用于电磁计算的城市环境快速建模方法 | |
US20240078744A1 (en) | Method and system for semantic-driven intelligent reconstruction of large-scene sparse light field | |
WO2021238359A1 (zh) | 一种构建物体的多细节层次模型的方法及计算机设备 | |
CN113361365B (zh) | 定位方法和装置、设备及存储介质 | |
CN115451964A (zh) | 基于多模态混合特征的船舶场景同时建图与定位方法 | |
CN115359474A (zh) | 适用于移动端的轻量级三维目标检测方法、装置及介质 | |
CN114648640A (zh) | 一种目标物单体化方法、装置、设备及存储介质 | |
CN115032648A (zh) | 一种基于激光雷达密集点云的三维目标识别与定位方法 | |
CN112197773A (zh) | 基于平面信息的视觉和激光定位建图方法 | |
CN113421217A (zh) | 可行驶区域检测方法和装置 | |
Li et al. | Vehicle object detection based on rgb-camera and radar sensor fusion | |
CN114299242A (zh) | 高精地图中图像处理方法、装置、设备以及存储介质 | |
CN117974746B (zh) | 点云2d深度面三角剖分构图方法、装置、系统及设备 | |
CN113256696A (zh) | 基于自然场景的激光雷达和相机的外参标定方法 | |
CN117974746A (zh) | 点云2d深度面三角剖分构图方法、装置、系统及设备 | |
CN116740514A (zh) | 时空误差容忍的多智能体协同感知方法、装置和电子设备 | |
CN116129234A (zh) | 一种基于注意力的4d毫米波雷达与视觉的融合方法 | |
CN116433580A (zh) | 一种基于智能无人机的大坝裂缝检测方法 | |
Jin et al. | High precision indoor model contour extraction algorithm based on geometric information | |
CN116309817A (zh) | 一种基于rgb-d相机的托盘检测与定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |