CN110033457B - 一种目标点云分割方法 - Google Patents

一种目标点云分割方法 Download PDF

Info

Publication number
CN110033457B
CN110033457B CN201910180734.5A CN201910180734A CN110033457B CN 110033457 B CN110033457 B CN 110033457B CN 201910180734 A CN201910180734 A CN 201910180734A CN 110033457 B CN110033457 B CN 110033457B
Authority
CN
China
Prior art keywords
depth map
point
coordinate
point cloud
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910180734.5A
Other languages
English (en)
Other versions
CN110033457A (zh
Inventor
龚建伟
张海鸣
王羽纯
齐建永
吴绍斌
熊光明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bit Intelligent Vehicle Technology Co ltd
Beijing Institute of Technology BIT
Original Assignee
Bit Intelligent Vehicle Technology Co ltd
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bit Intelligent Vehicle Technology Co ltd, Beijing Institute of Technology BIT filed Critical Bit Intelligent Vehicle Technology Co ltd
Priority to CN201910180734.5A priority Critical patent/CN110033457B/zh
Publication of CN110033457A publication Critical patent/CN110033457A/zh
Application granted granted Critical
Publication of CN110033457B publication Critical patent/CN110033457B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种目标点云分割方法,属于目标分割技术领域,解决了现有激光雷达分割方法存在的计算量大、计算速度慢、分割不精确的问题。包括以下步骤:步骤S1:接收并处理激光雷达采集的激光雷达点云数据,得到所述激光雷达点云数据对应的深度图;步骤S2:识别深度图角度矩阵中的地面信息,并将深度图中的相应坐标的R值置为‑1,得到去除地面信息的深度图;步骤S3:对去除地面信息的深度图进行目标分割,得到目标分割结果。实现了目标点云的快速分割,计算量小、计算结果精确,可以满足车辆运动时的实时目标分割需求。

Description

一种目标点云分割方法
技术领域
本发明涉及目标分割技术领域,尤其涉及一种目标点云分割方法。
背景技术
伴随着计算机信息技术以及传感器技术的发展,无人驾驶感知技术获得了长足快速的发展。其中用于将传感器原始数据转换为目标语义数据的场景目标的分割技术是无人驾驶感知领域中的研究重点。当前无人驾驶车辆上采用的大多是基于单一传感器实现的,主要采用的传感器是相机和激光雷达两种。
基于相机进行场景目标分割的主要缺点在于,视觉算法很难获取到当前场景目标的距离信息,无法满足定位的需求;抑或采用带有深度信息记录功能的深度相机,但是无法实现较远距离的检测,还不能够实际应用于无人驾驶车辆上。基于激光雷达的场景目标分割方法主要分为三大类,第一类是模板匹配方法,直接利用激光雷达的3D数据,在事先构建的目标3D特征基础上,通过3D特征模板匹配进行目标分割及识别,这种方法通用性较差且计算量较大;第二类是3D聚类方法,利用空间上同一目标点云距离相近或密度集中等特点进行分割,但这种方法聚类参数不好设置,且容易受噪声点影响;第三类是栅格地图聚类方法,将3D数据投影至2D网格中,再对网格中的数据进行处理,但是针对不同的环境网格的数量要进行相应的调整,适应性欠佳。
发明内容
鉴于上述的分析,本发明旨在提供一种目标点云分割方法,用以解决现有激光雷达分割方法存在的计算量大、计算速度慢、分割不精确的问题。
本发明的目的主要是通过以下技术方案实现的:
一种目标点云分割方法,包括以下步骤:
接收并处理激光雷达采集的激光雷达点云数据,得到所述激光雷达点云数据对应的深度图;
计算深度图中垂向上相邻两像素点之间的夹角,生成深度图角度矩阵,识别深度图角度矩阵中的地面信息,并将深度图中的相应坐标的R值置为-1,得到去除地面信息的深度图;
对去除地面信息的深度图进行目标分割,得到目标分割结果。
本发明有益效果如下:本实施例提供的目标点云分割方法,将激光雷达获取的三维数据信息转化为用二维深度图的像素存储信息,牺牲了一定的数据信息字段,但是提高了处理速度;同时,采用角度的计算来消除地面信息,使得目标信息量大大减少且数据有效比例大大增加,节约了资源。在消除地面信息的基础上,利用目标信息的凹凸性对目标点云数据进行分割,这种目标分割方法有效准确且快速,是对实现完全自动驾驶的重要条件。
在上述方案的基础上,本发明还做了如下改进:
进一步,得到所述激光雷达点云数据对应的深度图,包括以下步骤:
对球坐标系下的激光雷达点云数据进行离散化处理,得到深度图P:
P={(Rr,crc)|r=1,2,…,m;c=1,2,…n} (2)
其中,Rr,c表示:坐标为(r,c)的点云数据到球坐标系坐标原点的距离;
r为离散化后的行序列号,与激光雷达的垂直通道数相对应;m为激光雷达的垂直通道总数;
c为离散化后的列序列号,c=round(θ/Δα),与激光雷达在某个垂直通道确定的倾角扫描平面上离散化采样点序列号相对应,Δα为离散化选取的角度间隔,n=2π/Δα;
ξr、θc分别表示坐标为(r,c)的元素对应的点云数据俯仰角、点云数据的横摆角。
采用上述进一步方案的有益效果是:将激光雷达获取的三维数据信息转化为用二维深度图的像素存储信息,牺牲了一定的数据信息字段,但是提高了处理速度,并且处理二维图像信息的数据处理方法更加灵活。二维信息以矩阵的方式存储信息,更利于对信息的搜索以及对点云领域的操作。
进一步,所述计算深度图中垂向上相邻两像素点之间的夹角,生成深度图角度矩阵,包括以下步骤:
计算深度图中垂向上相邻两像素点之间的夹角
Figure BDA0001991247610000031
生成深度图角度矩阵M,矩阵中第i行、第c列的元素
Figure BDA0001991247610000032
Figure BDA0001991247610000033
其中,1≤i<m且i为整数。
进一步,所述识别深度图角度矩阵中的地面信息,包括:
对所述深度图角度矩阵进行平滑处理:
以平滑后的深度图角度矩阵中第一列、第一行的元素为基准点,将其与设定的阈值Δσ相比:
若所述基准点大于或等于阈值Δσ,则所述基准点不属于地面点,结束本列的搜索;以下一列、第一行的元素为基准点,重复与设定阈值Δσ的比较;
若所述基准点小于阈值Δσ,则将所述基准点标记为地面点,并将所述地面点N4邻域元素依次与设定的阈值Δσ比较,进一步判断邻域元素是否小于设定阈值Δσ,若邻域元素同样小于设定阈值Δσ,将邻域元素也标记为地面点,并进一步搜索该地面点的N4邻域元素,继续判断其相邻元素是否为地面点;依次类推,直至识别出所有地面点。
采用上述进一步方案的有益效果是:激光点云的数据量是极大的,如果直接进行目标分割,则计算量极大。因此采用角度的计算来消除背景信息,使得目标信息量大大减少且数据有效比例大大增加,节约了资源。
进一步,所述设定的阈值Δσ为当前行驶状况下道路曲率的最大值。
采用上述进一步方案的有益效果是:本发明深度图像角度矩阵的元素与激光雷达线束采集到的相邻两个地面点之间的角度有关,因此设定阈值Δσ为当前行驶状况下道路曲率的最大值,能够更好地识别出地面信息。
进一步,执行以下操作实现对所述深度图角度矩阵进行平滑处理:
依次将深度图角度矩阵中的各元素作为中心元素,与其N4邻域内的元素值进行比较,当中心元素值为比较结果的最大值或最小值时,用其N4邻域内元素的均值替换所述中心元素,得到平滑后的深度图角度矩阵。
采用上述进一步方案的有益效果是:通过对深度图角度矩阵进行平滑处理,能够有效避免深度图角度矩阵中个别误差较大的值对后续的面信息地识别过程造成影响,提升地面信息的识别精度。
进一步,所述对去除地面信息的深度图进行目标分割,得到目标分割结果进一步包括以下步骤:
从所述去除地面信息的深度图中,任取一R值为非-1的坐标点并将其标注为一个类别,确定该坐标点与其N4邻域任一R值为非-1的相邻点组成的连线、二者中R值较大的点与坐标原点组成的连线,计算两条连线之间的夹角β;
比较所述夹角与设定阈值β0
当所述夹角β大于设定阈值β0时,所述邻域点与当前坐标点属于同一类别;并进一步判别所述邻域点的N4邻域点是否属于同一类别;直到搜索到所有属于当前分类的坐标点;并将其分割为此类别的目标;
任取一未归入上述类别的R值为非-1的坐标点,为其标注新的类别,按照上述方式识别出所有属于当前类别的坐标点;并将其分割为此类别的目标;
直到识别出所有坐标点的分类情况。
采用上述进一步方案的有益效果是:由于单个目标本身的连续性和凹凸性,体现在角度上,即按照本发明中的角度计算方式,单个目标内部的点云数据计算得到的角度均大于一定阈值,通过这种方式能够有效识别目标,并实现对不同目标的分割。
进一步,设定阈值β0取10°。
采用上述进一步方案的有益效果是:一般目标的边缘点的非目标内的领域点与该边缘点的β夹角一般都低于5°。而在同一目标表面的点及其领域点获得的β夹角基本都在30°以上。为避免误识别的情况,本实施例选取10°作为设定的阈值。
进一步,当选取的邻域点为俯仰方向上的坐标点时,已知两坐标点到坐标原点之间的距离Rr,c、Rr+1,c及以两坐标点与坐标原点之间的夹角|ξrr+1|,根据三角余弦定理,即可得到夹角β。
进一步,当选取的邻域点为横摆方向上的坐标点时,已知两坐标点到坐标原点之间的距离Rr,c、Rr,c+1以及两坐标点与坐标原点之间的夹角|θcc+1|,根据三角余弦定理,即可得到夹角β。
本发明中,上述各技术方案之间还可以相互组合,以实现更多的优选组合方案。本发明的其他特征和优点将在随后的说明书中阐述,并且,部分优点可从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书、权利要求书以及附图中所特别指出的内容中来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例中的激光雷达扫描示意图;
图2为本发明实施例中目标点云分割方法流程图;
图3为本发明中激光雷达点云数据转换为深度图的原理示意图;
图4为本发明实施例深度图中垂向上相邻两像素点之间的夹角关系示意图;
图5为本发明实施例中目标分割原理图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明的一个具体实施例,公开了一种目标点云分割方法,本实施例所涉及平台搭载的激光雷达为Velodyne 64线激光雷达,使用时,将激光雷达安装于平台的顶端,安装效果图如图1所示。此外,也可优选其他型号的激光雷达,对于16线和32线的激光雷达,在分割精度上会有所不同。
图2示出了该方法对应的流程图,包括以下步骤:
步骤S1:接收并处理激光雷达采集的激光雷达点云数据,得到所述激光雷达点云数据对应的深度图;
激光雷达是向目标发射探测信号(激光束),然后将接收到的从目标反射回来的信号(目标回波)与发射信号进行比较处理后,就可获得目标信息,即激光雷达点云数据,表示为笛卡尔坐标系下的三维坐标。
步骤S11:将笛卡尔坐标下的激光雷达点云数据转化为球坐标系下的相应数据:
Figure BDA0001991247610000071
其中,(x,y,z)为笛卡尔坐标系下激光雷达点云数据的三维坐标;(θ,ξ,R)为(x,y,z)转换到球坐标系后的对应的值;θ表示点云数据的横摆角,ξ表示点云数据的俯仰角,R表示点云数据到球坐标系坐标原点的距离。
步骤S12:对球坐标系下的激光雷达点云数据进行离散化处理,得到深度图:
2D深度图的分辨率定义如图3所示,深度图的垂向分辨率(即深度图的行数)通过激光雷达的垂向激光束的数量(即激光雷达的线数)来定义,激光点的球坐标提供了每个激光束的俯仰角度,以此可将该激光点与深度图上的投影像素点的行对应;图像的横向分辨率(即深度图的列数)通过激光雷达360°旋转一次扫描获取的数据进行定义,激光点的球坐标提供了激光束的横摆角,可以确定最终需要由几个激光点进行数据融合来投影到对应深度图的列上,一般该像素值取点云投影点离原点最近点的距离值。
所述深度图P为:
P={(Rr,crc)|r=1,2,…,m;c=1,2,…n} (2)
其中,深度图P中坐标为(r,c)的元素Rr,c表示:坐标为(r,c)的点云数据到球坐标系坐标原点的距离;
r为离散化后的行序列号,与激光雷达的垂直通道数相对应,以激光雷达最低线束扫描到的点云数据为第一行,依次类推;m为激光雷达的垂直通道总数(即激光雷达总线数);
c为离散化后的列序列号,c=round(θ/Δα),与激光雷达在某个垂直通道确定的倾角扫描平面上离散化采样点序列号相对应,Δα为离散化选取的角度间隔,n=2π/Δα;
ξr、θc分别表示坐标为(r,c)的元素对应的点云数据俯仰角、点云数据的横摆角。
步骤S2:计算深度图中垂向上相邻两像素点之间的夹角,生成深度图角度矩阵,识别深度图角度矩阵中的地面信息,并将深度图中的相应坐标的R值置为-1,得到去除地面信息的深度图;
步骤S21:计算深度图中垂向上相邻两像素点之间的夹角,示意图如图4所示,生成深度图角度矩阵M,矩阵中第i行、第c列的元素
Figure BDA0001991247610000081
Figure BDA0001991247610000082
其中,1≤i<m且i为整数;
步骤S22:对所述深度图角度矩阵进行平滑处理:
依次将深度图角度矩阵中的各元素作为中心元素,与其8邻域内的元素值进行比较,当中心元素值为比较结果的最大值或最小值时,用其8邻域内元素的均值替换所述中心元素,得到平滑后的深度图角度矩阵;
步骤S23:对平滑后的深度图角度矩阵进行搜索,识别出深度图角度矩阵中的地面信息:
以平滑后的深度图角度矩阵中第一列、第一行的元素为基准点,将其与设定的阈值Δσ相比:
若所述基准点大于或等于阈值Δσ,则所述基准点不属于地面点,结束本列的搜索;以下一列、第一行的元素为基准点,重复与设定阈值Δσ的比较;
若所述基准点小于阈值Δσ,则将所述基准点标记为地面点,并将所述地面点N4邻域元素依次与设定的阈值Δσ比较,进一步判断邻域元素是否小于设定阈值Δσ,若邻域元素同样小于设定阈值Δσ,将邻域元素也标记为地面点,并进一步搜索该地面点的N4邻域元素,继续判断其相邻元素是否为地面点;依次类推,直至识别出所有地面点;
本发明中,从每列的第一行开始判断是否为地面点的原因是:在深度图P中,以激光雷达最低线束扫描到的点云数据为第一行,而线束越低,扫描到地面点的概率越大;如果第一行扫描到的点云数据都不是地面点,那么可以认为该列中所有线束扫描到的点云数据均不是地面点;如果第一行扫描的点云数据是地面点,则需进一步判断其N4邻域范围的点云数据是否为地面点。
所述设定的阈值Δσ为当前行驶状况下道路曲率的最大值;
为保证目标点不被误识为地面点,同时考虑城市道路情况,阈值范围一般取5°~10°。
步骤S24:提取深度图像角度矩阵中所有地面点的坐标,将深度图中相应坐标点的R值置为-1。
步骤S3:对去除地面信息的深度图进行目标分割,得到目标分割结果。
步骤S31:从所述去除地面信息的深度图中,任取一R值为非-1的坐标点并将其标注为一个类别,确定该坐标点与其N4邻域任一R值为非-1的相邻点组成的连线、二者中R值较大的点与坐标原点组成的连线,计算两条连线之间的夹角β,
步骤S32:比较所述夹角与设定阈值β0
当所述夹角β大于设定阈值β0时,所述邻域点与当前坐标点属于同一类别;并进一步判别所述邻域点的N4邻域点是否属于同一类别;直到搜索到所有属于当前分类的坐标点;并将其分割为此类别的目标;
任取一未归入上述类别的R值为非-1的坐标点,为其标注新的类别,按照上述方式识别出所有属于当前类别的坐标点;并将其分割为此类别的目标;
依次类推,直到识别出所有坐标点的分类情况。
所述设定阈值β0的取值取决于在道路上以及生活中的目标点多为凸表面的物体。
一般目标的边缘点的非目标内的领域点与该边缘点的β夹角一般都低于5°。而在同一目标表面的点及其领域点获得的β夹角基本都在30°以上。为避免误识别的情况,本实施例选取10°作为设定的阈值。
本实施例还给出了计算上述领域两点与激光雷达安装点组成的夹角β的具体方式:
(1)当选取的邻域点为俯仰方向上的坐标点时,示意图如图5所示,已知两坐标点到坐标原点之间的距离Rr,c、Rr+1,c及以两坐标点与坐标原点之间的夹角|ξrr+1|,根据三角余弦定理,即可得到夹角β;
(2)当选取的邻域点为横摆方向上的坐标点时,已知两坐标点到坐标原点之间的距离Rr,c、Rr,c+1以及两坐标点与坐标原点之间的夹角|θcc+1|,根据三角余弦定理,即可得到夹角β。
激光雷达测量极限附近的物体可能因为只获取到部分点或是由于雷达扫描线稀疏而没有扫描到点云数据,而导致测量极限附近的物体无法识别成功。但此实施例应用于运动的车辆上,运动的下一帧,测量极限也会向远处运动,因此这一帧未能成功识别的目标,在下一帧也可以成功识别,不会影响激光雷达测量极限范围内车辆行驶种的目标识别的效果。
与现有技术相比,本实施例提供的目标点云分割方法,将激光雷达获取的三维数据信息转化为用二维深度图的像素存储信息,牺牲了一定的数据信息字段,但是提高了处理速度,并且处理二维图像信息的数据处理方法更加灵活。二维信息以矩阵的方式存储信息,更利于对信息的搜索以及对点云领域的操作。本方法具有很小的计算需求,基本不占用计算空间资源,可以满足车辆运动时实时的目标分割的需求。激光点云的数据量是极大的,如果直接进行目标分割,则计算量极大。因此采用角度的计算来消除背景信息,使得目标信息量大大减少且数据有效比例大大增加,节约了资源。这种目标分割方法有效准确且快速,是对实现完全自动驾驶的重要条件。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (4)

1.一种目标点云分割方法,其特征在于,包括以下步骤:
接收并处理激光雷达采集的激光雷达点云数据,得到所述激光雷达点云数据对应的深度图;
得到所述激光雷达点云数据对应的深度图,包括以下步骤:
对球坐标系下的激光雷达点云数据进行离散化处理,得到深度图P:
P={(Rr,crc)|r=1,2,…,m;c=1,2,…n} (2)
其中,Rr,c表示:坐标为(r,c)的点云数据到球坐标系坐标原点的距离;
r为离散化后的行序列号,与激光雷达的垂直通道数相对应;m为激光雷达的垂直通道总数;
c为离散化后的列序列号,c=round(θ/Δα),与激光雷达在某个垂直通道确定的倾角扫描平面上离散化采样点序列号相对应,Δα为离散化选取的角度间隔,n=2π/Δα;
ξr、θc分别表示坐标为(r,c)的元素对应的点云数据俯仰角、点云数据的横摆角;
计算深度图中垂向上相邻两像素点之间的夹角,生成深度图角度矩阵,识别深度图角度矩阵中的地面信息,并将深度图中的相应坐标的R值置为-1,得到去除地面信息的深度图;
所述识别深度图角度矩阵中的地面信息,包括:
对所述深度图角度矩阵进行平滑处理;
以平滑后的深度图角度矩阵中第一列、第一行的元素为基准点,将其与设定的阈值Δσ相比:
若所述基准点大于或等于阈值Δσ,则所述基准点不属于地面点,结束本列的搜索;以下一列、第一行的元素为基准点,重复与设定阈值Δσ的比较;
若所述基准点小于阈值Δσ,则将所述基准点标记为地面点,并将所述地面点N4邻域元素依次与设定的阈值Δσ比较,进一步判断邻域元素是否小于设定阈值Δσ,若邻域元素同样小于设定阈值Δσ,将邻域元素也标记为地面点,并进一步搜索该地面点的N4邻域元素,继续判断其相邻元素是否为地面点;依次类推,直至识别出所有地面点;
所述设定的阈值Δσ为当前行驶状况下道路曲率的最大值;对去除地面信息的深度图进行目标分割,得到目标分割结果,包括以下步骤:
从所述去除地面信息的深度图中,任取一R值为非-1的坐标点并将其标注为一个类别,确定该坐标点与其N4邻域任一R值为非-1的相邻点组成的连线、二者中R值较大的点与坐标原点组成的连线,计算两条连线之间的夹角β;
比较所述夹角与设定阈值β0
当所述夹角β大于设定阈值β0时,所述邻域点与当前坐标点属于同一类别;并进一步判别所述邻域点的N4邻域点是否属于同一类别;直到搜索到所有属于当前分类的坐标点;并将其分割为此类别的目标;
任取一未归入上述类别的R值为非-1的坐标点,为其标注新的类别,按照上述方式识别出所有属于当前类别的坐标点;并将其分割为此类别的目标;
直到识别出所有坐标点的分类情况;
当选取的邻域点为俯仰方向上的坐标点时,已知两坐标点到坐标原点之间的距离Rr,c、Rr+1,c及以两坐标点与坐标原点之间的夹角|ξrr+1|,根据三角余弦定理,得到夹角β;
当选取的邻域点为横摆方向上的坐标点时,已知两坐标点到坐标原点之间的距离Rr,c、Rr,c+1以及两坐标点与坐标原点之间的夹角|θcc+1|,根据三角余弦定理,得到夹角β。
2.根据权利要求1所述的目标点云分割方法,其特征在于,所述计算深度图中垂向上相邻两像素点之间的夹角,生成深度图角度矩阵,包括以下步骤:
计算深度图中垂向上相邻两像素点之间的夹角
Figure FDA0003203218720000031
生成深度图角度矩阵M,矩阵中第i行、第c列的元素
Figure FDA0003203218720000032
Figure FDA0003203218720000033
其中,1≤i<m且i为整数。
3.根据权利要求1所述的目标点云分割方法,其特征在于,执行以下操作实现对所述深度图角度矩阵进行平滑处理:
依次将深度图角度矩阵中的各元素作为中心元素,与其N4邻域内的元素值进行比较,当中心元素值为比较结果的最大值或最小值时,用其N4邻域内元素的均值替换所述中心元素,得到平滑后的深度图角度矩阵。
4.根据权利要求1所述的目标点云分割方法,其特征在于,设定阈值β0取10°。
CN201910180734.5A 2019-03-11 2019-03-11 一种目标点云分割方法 Active CN110033457B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910180734.5A CN110033457B (zh) 2019-03-11 2019-03-11 一种目标点云分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910180734.5A CN110033457B (zh) 2019-03-11 2019-03-11 一种目标点云分割方法

Publications (2)

Publication Number Publication Date
CN110033457A CN110033457A (zh) 2019-07-19
CN110033457B true CN110033457B (zh) 2021-11-30

Family

ID=67235171

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910180734.5A Active CN110033457B (zh) 2019-03-11 2019-03-11 一种目标点云分割方法

Country Status (1)

Country Link
CN (1) CN110033457B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561836B (zh) * 2019-09-25 2024-04-16 北京地平线机器人技术研发有限公司 一种获取目标物的点云集合的方法及装置
CN110967679B (zh) * 2019-12-04 2023-03-31 吉林大学 一种低线束激光雷达数据匹配多线束激光雷达模型的方法
CN111337948A (zh) * 2020-02-25 2020-06-26 达闼科技成都有限公司 障碍物检测方法、雷达数据生成方法、装置及存储介质
CN111427032B (zh) * 2020-04-24 2022-02-01 森思泰克河北科技有限公司 基于毫米波雷达的房间墙体轮廓识别方法及终端设备
CN112147638B (zh) * 2020-09-21 2023-10-20 知行汽车科技(苏州)股份有限公司 基于激光点云反射强度的地面信息获取方法、装置和系统
CN112199459A (zh) * 2020-09-30 2021-01-08 深兰人工智能(深圳)有限公司 3d点云分割方法、分割装置
CN112200849A (zh) * 2020-09-30 2021-01-08 深兰人工智能(深圳)有限公司 基于深度图的3d点云分割方法、分割装置
CN113064179A (zh) * 2021-03-22 2021-07-02 上海商汤临港智能科技有限公司 一种点云数据筛选方法、车辆控制方法及装置
CN113219446A (zh) * 2021-04-30 2021-08-06 森思泰克河北科技有限公司 车内雷达占位识别方法、装置及车载雷达
CN113283494B (zh) * 2021-05-21 2023-07-14 福建盛海智能科技有限公司 一种地面凹坑的检测方法及终端
CN113970734B (zh) * 2021-10-13 2024-04-19 长安大学 路侧多线激光雷达降雪噪点去除方法、装置及设备
CN115375699B (zh) * 2022-10-25 2023-03-24 杭州华橙软件技术有限公司 点云分割方法、移动机器人及计算机可读存储介质
CN115985122A (zh) * 2022-10-31 2023-04-18 内蒙古智能煤炭有限责任公司 无人驾驶系统感知方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268609A (zh) * 2013-05-17 2013-08-28 清华大学 一种有序提取地面的点云分割方法
CN104143194A (zh) * 2014-08-20 2014-11-12 清华大学 一种点云分割方法及装置
CN109100741A (zh) * 2018-06-11 2018-12-28 长安大学 一种基于3d激光雷达及图像数据的目标检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204705B (zh) * 2016-07-05 2018-12-07 长安大学 一种基于多线激光雷达的3d点云分割方法
CN107330925B (zh) * 2017-05-11 2020-05-22 北京交通大学 一种基于激光雷达深度图像的多障碍物检测和跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268609A (zh) * 2013-05-17 2013-08-28 清华大学 一种有序提取地面的点云分割方法
CN104143194A (zh) * 2014-08-20 2014-11-12 清华大学 一种点云分割方法及装置
CN109100741A (zh) * 2018-06-11 2018-12-28 长安大学 一种基于3d激光雷达及图像数据的目标检测方法

Also Published As

Publication number Publication date
CN110033457A (zh) 2019-07-19

Similar Documents

Publication Publication Date Title
CN110033457B (zh) 一种目标点云分割方法
CN109961440B (zh) 一种基于深度图的三维激光雷达点云目标分割方法
CN109100741B (zh) 一种基于3d激光雷达及图像数据的目标检测方法
CN110344621B (zh) 一种面向智能车库的车轮点云检测方法
CN109633676A (zh) 一种基于激光雷达侦测障碍物运动方向的方法及系统
CN111179152B (zh) 一种道路标识识别方法及装置、介质、终端
CN108280840B (zh) 一种基于三维激光雷达的道路实时分割方法
CN110379007B (zh) 基于车载移动激光扫描点云的三维公路曲线重建方法
JP7224682B1 (ja) 自律走行のための3次元多重客体検出装置及び方法
CN108074232B (zh) 一种基于体元分割的机载lidar建筑物检测方法
CN109633686B (zh) 一种基于激光雷达侦测地面障碍物的方法及系统
CN112184736A (zh) 一种基于欧式聚类的多平面提取方法
CN114118252A (zh) 一种基于传感器多元信息融合的车辆检测方法及检测装置
CN114821526A (zh) 基于4d毫米波雷达点云的障碍物三维边框检测方法
CN114782729A (zh) 一种基于激光雷达与视觉融合的实时目标检测方法
CN113569958A (zh) 激光点云数据聚类方法、装置、设备及介质
CN112183330A (zh) 基于点云的目标检测方法
CN111736167B (zh) 一种获取激光点云密度的方法和装置
CN114740493A (zh) 一种基于多线激光雷达的路沿检测方法
Nitsch et al. 3d ground point classification for automotive scenarios
CN114662600B (zh) 一种车道线的检测方法、装置和存储介质
CN115830555A (zh) 基于雷达点云的目标识别方法、存储介质及设备
CN116508071A (zh) 用于注释汽车雷达数据的系统和方法
Huang et al. An efficient multi-threshold selection method for lane detection based on lidar
CN110907949A (zh) 一种自动驾驶可行驶区域检测方法、系统及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant