CN114862957A - 一种基于3d激光雷达的地铁车底定位方法 - Google Patents

一种基于3d激光雷达的地铁车底定位方法 Download PDF

Info

Publication number
CN114862957A
CN114862957A CN202210802040.2A CN202210802040A CN114862957A CN 114862957 A CN114862957 A CN 114862957A CN 202210802040 A CN202210802040 A CN 202210802040A CN 114862957 A CN114862957 A CN 114862957A
Authority
CN
China
Prior art keywords
target
point cloud
points
laser radar
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210802040.2A
Other languages
English (en)
Other versions
CN114862957B (zh
Inventor
秦娜
谢林孜
黄德青
杜元福
刘佳辉
周期
罗兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202210802040.2A priority Critical patent/CN114862957B/zh
Publication of CN114862957A publication Critical patent/CN114862957A/zh
Application granted granted Critical
Publication of CN114862957B publication Critical patent/CN114862957B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于3D激光雷达的地铁车底定位方法,具体为:通过位于地铁巡检机器人上的3D激光雷达获取地铁车底环境三维点云数据;基于深度学习的目标检测网络PointPillars实现快速定位和识别车底点云中的三维目标;通过直通滤波器对需要进行测距定位的目标框进行提取,过滤掉不属于目标主成份的点云;再对提取出的目标框进行下采样处理,控制点云数量;拟合目标点云在各方向上的平面,并计算各方向上的平面在对应方向的中点位置信息,从而得到目标物中心点相对于激光雷达的位置信息,实现定位。本发明实现了精准定位,提高了算法的泛化性,平衡了检测速度和检测精度,为巡检机器人后期的导航巡检工作奠定了扎实的基础。

Description

一种基于3D激光雷达的地铁车底定位方法
技术领域
本发明属于地铁车底定位技术领域,尤其涉及一种基于3D激光雷达的地铁车底定位方法。
背景技术
城市轨道交通的建设是解决交通拥堵、带动就业以及带动经济发展的重要方式之一,随着我国经济的发展及城市轨道交通的技术的成熟,各城市纷纷开通城市轨道交通线路。而大量地铁的开通,必不可免会带来各种行车安全问题。要建立智能运维体系,从而提升城轨装备维护的智能化程度和运维效率。为此地铁巡检维护智能化,现在也被提上日程,成为了当下研究的热点,所以建立列车安全保障体系成为城市轨道系统建设中必不可少的一环。
随着“互联网+”城市轨道交通的发展,基于自动化、智能化的新技术与新模式不断出现,其中机器人技术、人工智能、大数据、图像处理技术等助力了智慧城市轨道交通,而当下地铁巡检机器人的问世也的确替代了人工巡检工作,大大提升了智能巡检维护的效率,而对于巡检机器人而言,前期的定位导航为后期机器人移动到对应位置采集相关部件数据进行监测分析奠定了至关重要的基础。目前多数巡检机器人采用人工路标导航、超声波传感器、激光测距仪、相机等来实现对目标的识别与定位。人工路标导航,费工费时,效率低,主要依赖工作人员的现场工作经验来进行路标标注,具有一定的主观性,难以保证定位结果的准确率。基于超声波传感器、激光测距仪这类方法的成本较高,智能度也不够,算法鲁棒性不强,这显然不符合中国城轨交通协会提出的城市轨道交通智能化、高效化建设要求。而基于相机的方法即视角SLAM,是多数巡检机器人目前会采用的方法,但是,由于相机传感器光学特性的限制,相机只能在光照充足且稳定的环境下工作,而对于工作环境狭小密闭且场景复杂的地铁车底而言,采用相机的方法将会受到环境影响。而激光雷达因其不受外界光照影响,成为无人驾驶感知方案的主流,激光雷达定位具有极高的分辨率、抗干扰能力强、获取的信息量丰富、精度可达厘米级,适用于室内尤其是场景复杂的情况下,因此基于激光雷达的地铁车底定位成为了目前研究的一个热点。
从上述背景中可以分析出利用3D激光雷达实现列车车底定位需要解决以下几个关键点:(1)算法模型须能够适应狭小密闭且场景复杂的地铁车底环境,能够不受光照、污渍等环境因素的干扰,具有强鲁棒性。(2)算法模型必须具备高精度、高稳定性以及泛化性的特点,能够精准获得位置信息,实现定位功能,完美辅助后期巡检机器人导航巡检。(3)高效率,智能巡检只能在地铁停运的阶段进行,在不影响地铁正常发车运行,需在较短时间内完成一系列的巡检工作,故需算法模型在较短的时间内完成车底定位,才能更好地辅助后期项点检测。
发明内容
针对上述问题,本发明提供了一种基于3D激光雷达的地铁车底定位方法。
本发明的一种基于3D激光雷达的地铁车底定位方法,包括以下步骤:
步骤1:采用3D激光雷达获取地铁车底点云数据。
步骤2:利用基于深度学习的目标检测网络PointPillars实现快速定位和识别车底点云中的三维目标。
S21:将点云数据划分为一定数量的Pillars,然后通过最大池化操作从Pillars中提取特征,并将提取的特征压缩为鸟瞰图,生成伪2D图。
S22:将伪2D图作为输入,通过区域候选网络2D-CNN和单步多尺度检测网络SSD实现目标检测任务,获取三维目标边界框。
步骤3:目标框点云预处理。
S31:采用直通滤波,保留需要进行测距定位的目标框点云,过滤掉背景点云中非目标成分,实现对一个简单立方体的分割提取。
S32:再对提取出的目标框进行采样处理,控制点云数量。
步骤4:拟合目标框点云在各方向上的平面,并计算各方向平面在对应方向的中点位置信息,从而获得目标物相对雷达的位置信息。
S41:利用RANSAC先随机选取一些点,用这些点去组成一个平面。
S42:用获得的平面去测试剩余的点,如果测试的数据点到平面的距离在误差允许的范围内,则判断为内点inlier,否则为外点outlier。
S43:计算内点inlier的数目,如果内点数目达到了设定的阈值m,则说明此次选取的这些数据点集达到了可接受的程度,否则继续S41-S43,不断重复此过程,直到找到选取的这些数据点集达到可接受的程度为止,此时得到的模型便可以认为是对数据点的最优模型构建,循环终止条件满足下式:
Figure 95096DEST_PATH_IMAGE002
空间平面拟合至少需要3个空间点,因此RANSAC算法应用于空间平面拟合时,N=3,P表示一些迭代过程中从数据集内随机选取出的点均为局内点的概率,因此P也表征了算法产生有用结果的概率;
Figure 300950DEST_PATH_IMAGE004
是所有N个点均为内点inlier的概率;
Figure 293177DEST_PATH_IMAGE006
N个点中至少有一个点为外点outlier的概率。
S44:对拟合得到的各方向(X,Y,Z)上的平面点云进行对应方向排序,获取各平面在对应方向上的中点位置信息,从而得到目标物相对于激光雷达的位置信息,辅助机器人定位。
本发明的有益技术效果为:
1.本发明采用了激光雷达来对地铁车底环境进行扫描,激光雷达不受光照的影响、具有极高的分辨率、抗干扰能力强、获取的信息量丰富、精度可达厘米级,非常适应于地铁车底狭小且密闭复杂的空间使用。解决了巡检机器人只能工作在宽敞且光照充足环境下的弊端。并且由激光雷达所生成的三维点云数据,包含了目标对象的位置、距离、深度和角度等信息,数据构成更符合真实情况。
2.本发明采用了基于深度学习网络的点云目标检测网络PointPillars,先利用PointPillars目标检测模型对列车底部点云进行目标识别定位,获得目标三维框,再提取对应目标物的目标框实现一个分割效果。相较于传统的点云处理方法,利用深度学习的目标检测网络PointPlliars可以精准对整个列底部进行目标识别,生成三维目标边界框,之后再对需要的相应目标框进行分割提取,相较于传统点云处理方式:先分析采集到的车底点云,人眼查找到目标物,再对点云进行滤波、分割提取目标点云框。深度学习的方式准确性更好,目标性更强,精准度更高,且处理速度更快。
3.为获取目标物距离机器人的位置,本发明采用了RANSAC拟合目标点云在各个方向上的空间平面,对拟合得到的各方向上的平面点云进行对应方向排序,获取各平面在对应方向上的中点位置信息,从而得到目标物相对于激光雷达的位置信息。RANSAC拟合空间平面的方法可以有效剔除噪声和局外点,还可以消除因采集角度带来的影响,使算法具有很高的鲁棒性。
附图说明
图1为本发明基于3D激光雷达的地铁车底定位方法的总体流程图。
图2为PointPillars目标检测网络结构。
图3为伪2D图生成过程。
图4为计算目标物(车轴)距离机器人相对位置的原理。
图5为计算目标物(车轴)坐标系示意图。
图6为平面拟合算法流程。
具体实施方式
下面结合附图和具体实施方法对本发明进一步详细说明。
本发明的一种基于3D激光雷达的地铁车底定位方法如图1所示,包括以下步骤:
步骤1:采用3D激光雷达获取地铁车底点云数据。
激光雷达并不是独立运作的,而是由激光发射器、接收器、和惯性定位导航三个主要模块组成。它基本工作原理是发射出一种激光,在遇到物体后折射回来被CMOS传感器接收,来测得本体到障碍物的距离,可以获取各转角情况下目标物体扫描截面到扫描仪的距离,由于这类数据在可视化后看起来像是由很多小点组成的云团,因此常被称之为点云(Point Clould)。在获得扫描的点云后,可以在计算机中重现扫描物体/场景的三维信息。
步骤2:基于深度学习的目标检测网络PointPillars实现快速目标检测。
深度学习网络在二维图像的应用已经较为成熟了,但深度学习网络在三维空间上,尤其像点云这种无序集的应用,现在研究得很少。传统二维图片目标检测算法,使用相机作为数据来源,依赖外部光源,且无法精确定位目标物的距离、位置、深度和角度等信息。由激光雷达所生成的三维点云数据,则包含了目标对象的位置、距离、深度和角度等信息,数据构成更符合真实情况。
PointPillars目标检测网络整个流程如图2所示,先在三维空间中对采集到的列车点云数据按照尺寸柱(Pillar)均匀划分,并提取柱内点云特征生成伪2D图,将得到的伪2D图通过2D-CNN网络进行多尺度特征提取,最后将通过SSD网络实现目标检测,生成三维目标边界框。
PointPillars目标检测模型首先需要将3维的点云生成一个伪二维的图像,才能将其送入到后面的网络中。伪2D图生成过程如图3所示:先按照点云数据所在的X,Y轴(不考虑Z轴)将点云数据划分为一个个的网格,凡是落入到一个网格的点云数据被视为其处在一个pillar里,或者理解为它们构成了一个Pillar。每个点云用一个9维向量表示,分别为
Figure 191862DEST_PATH_IMAGE008
。其中
Figure 902330DEST_PATH_IMAGE010
为该点云的真实坐标信息(三维)和反射强度;
Figure 646295DEST_PATH_IMAGE012
为该点云所处Pillar中所有点的几何中心;
Figure 758607DEST_PATH_IMAGE014
反映了点与几何中心的相对位置,即:
Figure 562615DEST_PATH_IMAGE016
点云数据集具有稀疏性,空间中大部分的柱都为空柱,少数非空柱也只有很少的点。点云数据使用0~97%的稀疏度,通过对每个样本的非空柱数(M)和每个柱的点数(N)实施限制来利用这种稀疏度(D),以此产生尺度为(D,M,N)的疏密度张量。如果样本或柱中保留过多数据则通过随机采样保留数据以适应张量,相反,如果样本或柱中数据过少,则使用0填充张量。实现张量化后,再通过简化的PointNet对张量化的点云数据进行处理和特征提取,实际上是对点云的维度处理,处理后输出大小为
Figure 258913DEST_PATH_IMAGE018
的张量,最后按照Pillar所在维度进行最大池化(Max Pooling)操作,即获得了维度
Figure 806569DEST_PATH_IMAGE020
的特征图,为了获得伪图片特征,将M转化为
Figure 773388DEST_PATH_IMAGE022
,即
Figure 623664DEST_PATH_IMAGE024
,就获得形如
Figure 565116DEST_PATH_IMAGE026
的伪图片。
获得了伪图之后,将其作为2D CNN的输入用来进一步提取图片特征,最后采用了SSD进行目标检测,获得三维目标框,后期将会提取分割相应的目标框进行传统的点云处理,求出目标与激光雷达的距离。
步骤3:目标框点云预处理。
前期步骤2进行了目标检测算法,对应的目标物会被三维边界框标注,此时需要根据当前的需求提取对应目标三维框实现一个简单立方体分割,为提高算法的运行效率,采用简单高效的直通滤波器(PassThrough),将X、Y、Z方向上指定范围之外的点云过滤掉,保留目标点云,提取对应字段内的点云,如此便可过滤掉背景点云中非目标点云,提高算法精度。
提取出来的目标点云数量高达10万多个,如此庞大数量的点云会导致算法运行速度很慢。因此,在保证点云信息不丢失的前提下,通过减少点云数量来提升算法处理速度,而用到的解决方式就是对点云进行下采样,将对全部点云的操作转换到下采样所得到的关键点上,降低计算量。该发明使用体素化网格方法实现下采样,即减少点的数量,减少点云数据,并同时保存点云的形状特征。该方法通过PCL中的VoxelGrid滤波器来实现,通过对输入的点云数据创建一个三维体素栅格(三维立方体的集合),然后在每个体素(三维立方体)内,用体素中所有点的重心来近似显示体素中其他点,这样该体素内所有点就用一个重心点
最终表示,由此进行下采样,最后点云数量减少到5000左右。
步骤4:计算分析目标物相对雷达位置。
通过步骤3得到了处理后的目标物点云,由于目标物的形状不固定,有圆柱、轮对、箱体等多种形状,要想获得目标物相对于雷达的位置,具体坐标信息,就需计算三维目标物的几何中心到雷达的距离,如果直接拟合对应目标物的几何形状来获取几何中心的位置信息,一旦目标物的点云数据失真,就不能拟合出对应几何形状,并且目标物的几何形状不统一,如采用该种方式,算法就不具有泛化性。因任何几何形状的目标物中都存在平面,该发明采用拟合各方向上的平面,再对各方向上的平面点云排序,求得各平面在对应方向上的中点位置,即获得了该目标的中心位置信息,求得目标物相对于激光雷达的坐标信息。整个计算原理如图4、图5所示。
对应方向上的平面拟合采用了RANSAC(随机采样一致性)算法,它是通过迭代拟合的方法,可以排除噪点的影响,大大提高拟合精度。RANSAC拟合平面的流程如图6所示。
由数学知识可知确定一个平面至少需要三个点,因此RANSAC算法首先随机选取三个点,然后根据如下平面方程对平面模型参数A,B,C,D进行计算。
Figure 916463DEST_PATH_IMAGE028
接着再用剩下的点去检验上述公式中估计的平面模型,计算结果误差,将误差与设定的误差阈值作比较,如果小于设定的阈值,则将确定为内点,并统计内点数目,并继续重复前述步骤,若当前模型的内点数量大于已经保存的最大内点数量,则更新模型参数,保留的模型参数始终是内点数量最多的模型。最后不断迭代,重复前述步骤,直到达到迭代阈值m,找到内点个数最多的模型参数,最后用内点再次对模型参数进行估计,从而得到最终的模型。
平面拟合算法迭代终止满足条件为:
Figure 737789DEST_PATH_IMAGE002
空间平面拟合至少需要3个空间点,因此RANSAC算法应用于空间平面拟合时,N=3,P表示一些迭代过程中从数据集内随机选取出的点均为内点的概率,因此P也表征了算法产生有用结果的概率;
Figure 149179DEST_PATH_IMAGE004
是所有N个点均为内点的概率;
Figure 55955DEST_PATH_IMAGE006
N个点中至少有一个点为外点的概率。
拟合了对应方向上的点云平面,并对该方向上的平面点云排序,因为点云是无序的,所以需要对点云进行排序。在进行升序排序后,并取一定数量的前端和末端点云,并分别求取前端、末端点云区域的平均值,最后再对末端和前端点云的平均值坐标求和取中点坐标值即为平面在该方向上的中点,也即是目标物在该方向距激光雷达的距离,从而获得目标物相对于激光雷达位置坐标,实现定位。
各方向拟合的平面在对应方向的前端、末端点云的坐标平均值公式:
Figure 945413DEST_PATH_IMAGE030
其中,
Figure 886825DEST_PATH_IMAGE032
为目标物在
Figure 469116DEST_PATH_IMAGE034
方向拟合的平面在
Figure 627302DEST_PATH_IMAGE034
方向上索引为i的点云;
Figure 320452DEST_PATH_IMAGE036
为目标物在
Figure 850790DEST_PATH_IMAGE034
方向拟合的平面在
Figure 276086DEST_PATH_IMAGE034
方向的前端点云区域的坐标平均值,
Figure 157455DEST_PATH_IMAGE038
为目标物在
Figure 654295DEST_PATH_IMAGE034
方向拟合的平面在
Figure 803255DEST_PATH_IMAGE034
方向的后端点云区域的坐标平均值,
Figure 225883DEST_PATH_IMAGE040
Figure 328969DEST_PATH_IMAGE034
方向拟合的平面点云总数,n为前端和后端各自所取的点云数量。
各方向上的平面在该方向上的中点坐标公式:
Figure 363921DEST_PATH_IMAGE042
其中,
Figure 134431DEST_PATH_IMAGE044
为目标物在
Figure 698267DEST_PATH_IMAGE034
方向拟合的平面在该方向上的中点坐标。
目标物的中心点坐标:
Figure 554228DEST_PATH_IMAGE046
本发明针对地铁巡检机器人车底定位提出了一个完善的定位流程。对于工作环境狭小密闭且场景复杂的地铁车底而言,本发明采用了3D激光雷达来对地铁车底环境进行扫描,3D激光雷达不受光照的影响、具有极高的分辨率、抗干扰能力强、获取的信息量丰富、精度可达厘米级,有利于巡检机器人的导航巡检。目前多数巡检机器人采用人工路标导航、超声波传感器、激光测距仪、相机等来实现对目标的识别与定位。人工路标导航,费工费时,效率低,主要依赖工作人员的现场工作经验来进行路标标注,具有一定的主观性,难以保证定位结果的准确率。基于超声波传感器、激光测距仪这类方法的成本较高,智能度也不够,算法鲁棒性不强。而常用的相机,受到传感器光学特性的限制,只能工作在宽敞且光照充足环境下的弊端,显然不适合密闭狭小且情况复杂的地铁车底。
本发明引入了深度学习模型,提高了算法模型的鲁棒性及泛化性,PointPillars目标检测模型是3D检测模型,可以应用在三维空间,它是一种能够平衡检测速度和检测精度的3D检测模型,能够实现高效率、高精度的检测。相较于传统的点云处理方法,利用深度学习的目标识别网络PointPlliars可以精准对整个列底部进行一个目标识别,再对需要的目标框进行一个分割提取,而传统点云处理方式是先分析采集到的车底点云,人眼查找到目标物,再对点云进行滤波、分割提取目标点云框。PointPillars3D检测模型的方式准确性更好,目标性更强,精准度更高,且处理速度更快。
本发明在计算目标物相对雷达位置中,采用了RANSAC平面拟合的方式拟合各个方向的对应平面从而来求取目标物的中心点位置坐标,最后的定位精度能够控制在1cm以内。该方法相较于传统点云算法中的几何模型分割而言,平面拟合的方式更具有泛化性,鲁棒性,并且定位准确,能够更好的辅助巡检机器人后期的导航巡检工作。

Claims (3)

1.一种基于3D激光雷达的地铁车底定位方法,其特征在于,包括以下步骤:
步骤1:采用3D激光雷达获取地铁车底点云数据;
步骤2:利用基于深度学习的目标检测网络PointPillars实现快速定位和识别车底点云中的三维目标框;
步骤3:目标框点云预处理;
S31:采用直通滤波,保留需要进行测距定位的目标框点云,过滤掉背景点云中非目标成分,实现对一个简单立方体的分割提取;
S32:再对提取出的目标框进行采样处理,控制点云数量;
步骤4:拟合目标框点云在各方向上的平面,并计算各方向平面在对应方向的中点位置信息,从而获得目标物相对于雷达的位置信息。
2.根据权利要求1所述的一种基于3D激光雷达的地铁车底定位方法,其特征在于,所述步骤2具体为:
S21:将点云数据划分为若干数量的Pillars,然后通过最大池化操作从Pillars中提取特征,并将提取的特征压缩为鸟瞰图,生成伪2D图;
S22:将伪2D图作为输入,通过区域候选网络2D-CNN和单步多尺度检测网络SSD实现目标检测任务,获取三维目标边界框。
3.根据权利要求1所述的一种基于3D激光雷达的地铁车底定位方法,其特征在于,所述步骤4具体为:
S41:利用RANSAC先随机选取一些点,用这些点去组成一个平面;
S42:用获得的平面去测试剩余的点,如果测试的数据点到平面的距离在误差允许的范围内,则判断为内点inlier,否则为外点outlier;
S43:计算内点inlier的数目,如果内点数目达到了设定的阈值m,则继续步骤S44,否则继续步骤S41-S43,直到满足循环终止条件为止,此时得到的模型便认为是对数据点的最优模型构建,循环终止条件满足下式:
Figure 418865DEST_PATH_IMAGE002
空间平面拟合至少需要3个空间点,因此RANSAC算法应用于空间平面拟合时,N=3,P表示一些迭代过程中从数据集内随机选取出的点均为局内点的概率,因此P也表征了算法产生有用结果的概率;
Figure 797019DEST_PATH_IMAGE004
是所有N个点均为内点inlier的概率;
Figure 619482DEST_PATH_IMAGE006
N个点中至少有一个点为外点outlier的概率;
S44:对拟合得到的各方向(X,Y,Z)上的平面点云进行对应方向排序,获取各平面在对应方向上的中点位置信息,从而得到目标物相对于激光雷达的位置信息,辅助机器人定位。
CN202210802040.2A 2022-07-08 2022-07-08 一种基于3d激光雷达的地铁车底定位方法 Active CN114862957B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210802040.2A CN114862957B (zh) 2022-07-08 2022-07-08 一种基于3d激光雷达的地铁车底定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210802040.2A CN114862957B (zh) 2022-07-08 2022-07-08 一种基于3d激光雷达的地铁车底定位方法

Publications (2)

Publication Number Publication Date
CN114862957A true CN114862957A (zh) 2022-08-05
CN114862957B CN114862957B (zh) 2022-09-27

Family

ID=82625514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210802040.2A Active CN114862957B (zh) 2022-07-08 2022-07-08 一种基于3d激光雷达的地铁车底定位方法

Country Status (1)

Country Link
CN (1) CN114862957B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101293529A (zh) * 2007-04-29 2008-10-29 余亚莉 车载式轨道交通客流运能及运行安全智能监控和预警系统
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
US20190205665A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, and device for determining lane line on road
CN111582232A (zh) * 2020-05-21 2020-08-25 南京晓庄学院 一种基于像素级语义信息的slam方法
CN112389505A (zh) * 2019-08-16 2021-02-23 比亚迪股份有限公司 列车定位系统和列车定位方法
CN112767391A (zh) * 2021-02-25 2021-05-07 国网福建省电力有限公司 融合三维点云和二维图像的电网线路部件缺陷定位方法
CN113240038A (zh) * 2021-05-31 2021-08-10 西安电子科技大学 基于高度-通道特征增强的点云目标检测方法
CN113589685A (zh) * 2021-06-10 2021-11-02 常州工程职业技术学院 一种基于深度神经网络的挪车机器人控制系统及其方法
CN113808133A (zh) * 2021-11-19 2021-12-17 西南交通大学 一种基于三维点云的地铁闸瓦故障检测方法
CN114119553A (zh) * 2021-11-28 2022-03-01 长春理工大学 一种以十字激光为基准的双目视觉异面圆孔检测方法
CN114325634A (zh) * 2021-12-23 2022-04-12 中山大学 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN114397877A (zh) * 2021-06-25 2022-04-26 南京交通职业技术学院 一种智能汽车自动驾驶系统
CN114639115A (zh) * 2022-02-21 2022-06-17 北京航空航天大学 一种人体关键点与激光雷达融合的3d行人检测方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101293529A (zh) * 2007-04-29 2008-10-29 余亚莉 车载式轨道交通客流运能及运行安全智能监控和预警系统
US20190205665A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, and device for determining lane line on road
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN112389505A (zh) * 2019-08-16 2021-02-23 比亚迪股份有限公司 列车定位系统和列车定位方法
CN111582232A (zh) * 2020-05-21 2020-08-25 南京晓庄学院 一种基于像素级语义信息的slam方法
CN112767391A (zh) * 2021-02-25 2021-05-07 国网福建省电力有限公司 融合三维点云和二维图像的电网线路部件缺陷定位方法
CN113240038A (zh) * 2021-05-31 2021-08-10 西安电子科技大学 基于高度-通道特征增强的点云目标检测方法
CN113589685A (zh) * 2021-06-10 2021-11-02 常州工程职业技术学院 一种基于深度神经网络的挪车机器人控制系统及其方法
CN114397877A (zh) * 2021-06-25 2022-04-26 南京交通职业技术学院 一种智能汽车自动驾驶系统
CN113808133A (zh) * 2021-11-19 2021-12-17 西南交通大学 一种基于三维点云的地铁闸瓦故障检测方法
CN114119553A (zh) * 2021-11-28 2022-03-01 长春理工大学 一种以十字激光为基准的双目视觉异面圆孔检测方法
CN114325634A (zh) * 2021-12-23 2022-04-12 中山大学 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN114639115A (zh) * 2022-02-21 2022-06-17 北京航空航天大学 一种人体关键点与激光雷达融合的3d行人检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
卢海林: "基于2D-3D图像信息融合的列车车底中心鞘螺栓故障检测方法", 《中国优秀硕士学位论文全文数据库》 *

Also Published As

Publication number Publication date
CN114862957B (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
CN110032949B (zh) 一种基于轻量化卷积神经网络的目标检测与定位方法
CN108229366B (zh) 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN111798475B (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
CN111832655B (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN111340797A (zh) 一种激光雷达与双目相机数据融合检测方法及系统
CN111429514A (zh) 一种融合多帧时序点云的激光雷达3d实时目标检测方法
CN111060924B (zh) 一种slam与目标跟踪方法
CN112001958B (zh) 基于有监督单目深度估计的虚拟点云三维目标检测方法
CN111899328B (zh) 一种基于rgb数据与生成对抗网络的点云三维重建方法
CN115032651B (zh) 一种基于激光雷达与机器视觉融合的目标检测方法
CN112487919A (zh) 一种基于相机与激光雷达的3d目标检测与跟踪方法
Shen et al. A new algorithm of building boundary extraction based on LIDAR data
CN113267761B (zh) 激光雷达目标检测识别方法、系统及计算机可读存储介质
CN115187964A (zh) 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析系统
CN115128628A (zh) 基于激光slam和单目视觉的道路栅格地图构建方法
CN116486287A (zh) 基于环境自适应机器人视觉系统的目标检测方法及系统
Alidoost et al. Y-shaped convolutional neural network for 3d roof elements extraction to reconstruct building models from a single aerial image
Wen et al. Research on 3D point cloud de-distortion algorithm and its application on Euclidean clustering
Bieder et al. Exploiting multi-layer grid maps for surround-view semantic segmentation of sparse lidar data
CN116740146A (zh) 无人驾驶挖掘机动态目标检测跟踪方法、装置及设备
CN113536959A (zh) 一种基于立体视觉的动态障碍物检测方法
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
CN117214904A (zh) 一种基于多传感器数据的鱼类智能识别监测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant