CN113759391A - 一种基于激光雷达的可通行区域检测方法 - Google Patents

一种基于激光雷达的可通行区域检测方法 Download PDF

Info

Publication number
CN113759391A
CN113759391A CN202111000764.7A CN202111000764A CN113759391A CN 113759391 A CN113759391 A CN 113759391A CN 202111000764 A CN202111000764 A CN 202111000764A CN 113759391 A CN113759391 A CN 113759391A
Authority
CN
China
Prior art keywords
point cloud
cloud data
straight line
point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111000764.7A
Other languages
English (en)
Inventor
李必军
曹永兴
别韦苇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Dongfeng Motor Corp
Original Assignee
Wuhan University WHU
Dongfeng Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU, Dongfeng Motor Corp filed Critical Wuhan University WHU
Priority to CN202111000764.7A priority Critical patent/CN113759391A/zh
Publication of CN113759391A publication Critical patent/CN113759391A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本申请提供一种基于激光雷达的可通行区域检测方法,其特征在于,所述方法包括,获取激光雷达单帧点云数据;提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息;根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域;根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域。使用本申请提供的方案,能够实现在结构化场景与半结构化场景下稳定检测可行区域。

Description

一种基于激光雷达的可通行区域检测方法
技术领域
本申请涉及检测领域,尤其涉及一种基于激光雷达的可通行区域检测方法。
背景技术
近年来,随着无人驾驶技术的逐步发展,自动驾驶出租车(Robotaxi)也从测试研发逐步走向试运营阶段。可通行区域检测是自动驾驶领域的一项关键技术,在Robotaxi中有着重要的应用,目前较为成熟的算法和应用主要针对标志标线清晰的平坦道路环境,但Robotaxi的实际运营环境中,不可避免要进入光照环境不佳、标志标线不清晰等道路边界存在模糊区域、或存在一定斜坡与颠簸的场景。能够在结构化场景与半结构化场景下进行鲁棒性可行区域检测的方法对于提升Robotaxi运行的可靠性至关重要。
用于可行区域检测的主流传感器包括激光雷达和摄像头。基于摄像头的可行区域检测方法主要通过提取车道线、道路边线以及路面纹理等特征获取可行区域,这类方法要求场景具有良好的特征信息,且由于传感器的特性限制,这类方法受到光照、气候条件变化影响较大,对不同环境场景的适应性较差。
近年来,基于激光雷达的自动驾驶车辆可通行区域检测技术发展迅速,可分为两个技术方向,一类为基于规则的检测方法,例如基于网格的方法以及基于点位置分布特征的方法等。第二类为基于深度学习的方法,第一类方法中,对于路面的提取主要依赖高度信息,对具有起伏的路面环境适应性不高;且这类方法对于多帧数据间的时间关联性考虑不足;而基于深度学习的方法对计算资源的要求较高,且需要耗费大量标注训练样本的人力成本。
以往对于可行区域检测的算法研究中,主要关注两类场景,一类为结构化道路场景,在该场景下的可行区域检测问题重点关注道路边界提取、路面分割以及动静态障碍物检测;第二类为非结构化场景,该场景下的可行区域检测问题重点关注正负障碍物的检测与识别。半结构化环境中的路面起伏性与颠簸性弱于越野场景等非结构化环境,因此在技术路线上与结构化场景下的可行区域检测更为类似。
基于规则的可通行区域检测如《可行驶区域路面提取方式和装置》(202011139074.5),这项专利公开了一种可行驶区域路面提取方法和装置,主要步骤包括通过激光雷达获取车体坐标系下的路面点云,并通过高精地图获取车体坐标系下的路面边缘点;根据路面边缘点将路面划分为N个矩形,获取路面点云中高度大于预设高度阈值,且处于N个矩形中的点云,并根据点云进行路面拟合,获取拟合路面的横滚角和俯仰角;当拟合路面的横滚角小于第一预设角度,且拟合路面的俯仰角小于第二预设角度时,将拟合路面作为当前路面。该专利解决算法鲁棒性的方法是加入高精地图为路面分割提供路面边缘点,因此路面分割的结果对地图的精确性依赖较高,且对于道路的可通行性分析时,没有考虑多帧点云数据之间的关联性。
基于深度学习的可通行区域检测如《一种面向复杂环境的可通行区域检测方法及系统》(202011164865.3),这项专利公开了一种面向复杂环境的可通行区域检测方法,主要步骤如下:1.构建可通行区域点云深度学习检测子系统,包含道路类型识别网络和可通行区域检测网络;2.构建可通行区域传统方法检测子系统,包含道路类型识别模块和可通行区域检测模块;3.点云深度学习检测子系统和传统方法检测子系统通过深度学习框架底层接口直接连接;4.车载激光雷达新采集点云数据优先输入点云深度学习检测子系统。该方法通过将深度学习算法与传统检测算法结合的方式,提高了检测算法对不同环境的适应性,但由于该专利对于两类方法的融合方式较为简单,融合所带来的优势互补效果不明显。且并没有缓解深度学习检测算法对样本的依赖性,也没有提高传统检测算法对不同环境的自适应性。
发明内容
有鉴于此,本申请提供一种基于激光雷达的可通行区域检测方法,能够实现在结构化场景与半结构化场景下稳定检测可行区域。
具体地,本申请是通过如下技术方案实现的:
根据本申请的第一方面,提供一种基于激光雷达的可通行区域检测方法,所述方法包括:
获取激光雷达单帧点云数据;
提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息;
根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域;
根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域。
可选的,所述提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息包括,
将无序点云数据基于雷达垂直角分辨率以及水平角分辨率组织为有序点云数据,所述激光雷达单帧点云数据包括所有返回的激光点的三维坐标信息。
可选的,所述提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息包括,
基于模糊线段法,逐线提取所述单帧点云数据中的直线特征,并基于线段长度、斜率、截距及宽度信息,对直线特征进行筛选与聚类。
可选的,所述提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息包括,
提取有序点云数据中某一线序的数据,将其投影至平面,从起始扫描点开始,依次计算该点与前后n个点的位置平方差,选取位置方差大于第一阈值的点作为分割点,将单线序的点云数据分为若干段离散曲线点云,对每一段离散曲线点云,基于模糊线段法进行拟合,并记录该段离散曲线的模糊线段拟合数据作为特征值。
可选的,所述对每一段离散曲线点云,基于模糊线段法进行拟合包括,
若离散曲线点云的离散点集(x,y)对于预设离散直线L(a,b,u)满足,
u≤ax-by<u+w,且离散曲线长度大于第二阈值,则将该段离散曲线点云加入道路边界线候选点云,并记录该段离散曲线的模糊线段拟合数据作为特征值;所述特征值包括,起止点、斜率、截距及宽度,所述宽度为候选点云与拟合直线的最大直线距离;其中,a,b为离散直线L的斜率参数,u为离散直线L的截距,w为第三阈值。
可选的,对所有线序的数据基于模糊线段法进行拟合,分割得到单帧点云数据中所有具备直线特征的点云,以及其拟合线段的特征值,设定线段斜率与截距的阈值,若不同线序点云中所含直线特征的斜率与截距差异在设定阈值范围内,则将直线特征合并,更新起止点信息;对合并后的直线特征进行分析,选取斜率近似相等且与车辆行驶朝向差异满足阈值要求的线段作为车道边界线,提取车道边界线对应的离散曲线点云作为车道边界点云。
可选的,根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域包括,
根据提取的车道边界点云及车道边界线的起止点,对所述单帧点云数据进行分割,对车道边界线以外的点云数据进行分割,把余下的点云作为可行区域点云,得到第一可通行区域。
可选的,在根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域之前,还包括
将惯性测量单元数据与激光雷达数据基于GPS授时进行时间同步;
基于惯性测量单元数据,将当前帧与前一帧的点云数据进行配准;并记录坐标转换关系,将前一帧点云数据中的直线段特征进行坐标转换,并与当前帧直线段特征对比,若斜率差异大于第四阈值,则放弃两帧数据叠加,采用单帧数据进行障碍物提取,所斜率差异小于第四阈值,则将两帧数据叠加,用于障碍物检测。
可选的,根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域包括,
将单帧点云数据根据其水平角度划分为若干条射线;
选取某一射线上的点云,依次计算连续三个点之间形成的夹角关系,判断可行性,具体可行性判断准则为,定义ΔD1=E(α0)-(α1+θ),
ΔD2=α1+θ-α0;公式中,E(α0)表示激光束打在地面时的期望值,α0可由激光安装高度以及点所在线序的垂直角度计算得出,若
ΔD1≈0且ΔD2≈0,则为平整可通行区域,若ΔD1≈0,且
ΔD2>0,则三个点中靠近车身的点凸起;若ΔD1>0且ΔD2<0,则三个点中的中间点存在影响车身凸起;若ΔD1<0且ΔD2>0,则三个点中的最远点存在影响车身凸起;其中,θ为激光雷达垂直角度分辨率,α0、α1为激光束与地面的夹角。
可选的,根据可行性判断准则对每一条射线上的点云进行筛选,得到障碍物点云,将影响车辆行驶的障碍物点云从第一可通行区域中进行分割,得到第二可通行区域。
由上述描述可知,通过提取单帧点云数据中的直线特征,根据直线特征获取道路边界点云数据及道路边界直线拟合信息;根据道路边界点云数据及道路边界直线拟合信息,对单帧点云数据进行分割,得到第一可通行区域;根据相邻点角度信息提取障碍物点云数据,根据第一可通行区域和障碍物点云数据,得到第二可通行区域,从而得到汽车可通行区域,实现了在结构化场景与半结构化场景下稳定检测可行区域。
附图说明
图1是本申请一示例性实施例示出的一种基于激光雷达的可通行区域检测方法示意图;
图2是本申请一示例性实施例示出的另一种基于激光雷达的可通行区域检测方法示意图。
图3是本申请一示例性实施例示出的相邻点角度信息示意图。
附图标记说明:
301-车辆;302-激光雷达。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
参见图1,图1是一种基于激光雷达的可通行区域检测方法的示意图,该方法包括以下步骤。
步骤101,获取激光雷达单帧点云数据。
该单帧点云数据可通过在车辆顶部安装激光雷达来获取,单帧点云数据包括所有返回的激光点的三维坐标信息。
步骤102,提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息。
基于模糊线段法,逐线提取单帧点云中的直线特征,并基于线段长度、斜率、截距等信息,对直线特征进行筛选与聚类,从而获取道路边界点云数据及道路边界直线拟合信息。
步骤103,根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域。
根据步骤102中获取的直线特征,获取道路边界点云数据及道路边界直线拟合信息后,根据道路边界点云数据及道路边界直线拟合信息,对激光雷达单帧点云数据进行分割,将道路边界线以外的点云数据进行分割,把余下的点云作为可行区域点云,得到第一可通行区域,该第一可通行区域为道路边界线内的区域,仍包括道路内的障碍物区域。
步骤104,根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域。
获得障碍物点云数据后,将障碍物点云从第一可通行区域中分割,得到第二可通行区域,第二可通行区域已经将障碍物区域从第一可通行区域中分割出了,完成车辆可行区域检测。
本实施例通过基于模糊线段法在原始点云数据中提取道路边界,对点云数据进行分割,相较于基于高度阈值的地面点云分割方法,对有坡度的路面适用性更强;根据相邻点角度信息提取障碍物点云数据,进一步提高了检测的准确度。
参见图2,图2是另一种基于激光雷达的可通行区域检测方法示意图,该方法包括以下步骤。
步骤201,获取激光雷达单帧点云数据。
步骤202,提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息。
步骤203,根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域。
根据步骤202中获取的直线特征,获取道路边界点云数据及道路边界直线拟合信息后,根据道路边界点云数据及道路边界直线拟合信息,对激光雷达单帧点云数据进行分割,将道路边界线以外的点云数据进行分割,把余下的点云作为可行区域点云,得到第一可通行区域,该第一可通行区域为道路边界线内的区域,仍包括道路内的障碍物区域。
步骤204,基于惯性测量单元数据,对连续两帧点云进行配准;根据配准结果,选择是否采用两帧点云数据进行障碍物检测。
基于惯性测量单元数据与车辆运动学模型,对连续两帧点云进行配准,根据配准结果,选择是否采用两帧点云数据进行障碍物检测。惯性测量单元可以安装在车辆上,车辆运动学模型为常用的模型。
步骤205,根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域。
步骤202进一步包括:
步骤202-1,将无序的激光雷达单帧点云数据基于雷达垂直角分辨率以及水平角分辨率组织为有序点云数据。激光雷达单帧点云数据包括所有返回的激光点的三维坐标信息。
步骤202-2,提取有序点云中某一线序的数据,将其投影至X-Y平面,从起始扫描点开始,依次计算该点与前后n个点的位置平方差,其计算公式为:
Figure BDA0003233498070000081
选取位置方差较大的点作为分割点,将单线序的点云数据分为若干段离散曲线点云,对每一段离散曲线点云,基于模糊线段法进行拟合,若满足模糊线段定义,即若离散曲线点云的离散点集(x,y)对于预设离散直线L(a,b,u)满足,
u≤ax-by<u+w,且离散曲线长度大于指定阈值,则将该段离散曲线点云加入道路边界线候选点云,并记录该段离散曲线的模糊线段拟合数据作为特征值。该特征值包括,起止点、斜率、截距及宽度等,宽度为候选点云与拟合直线的最大直线距离。其中,a,b为离散直线L的斜率参数,决定了离散直线L的斜率,u为离散直线L的截距,w为需要满足的阈值。
步骤202-3,对所有线序进行步骤202-2的操作,分割得到单帧点云数据中所有具备直线特征的点云,以及其拟合线段的特征值,设定线段斜率与截距的阈值,若不同线序点云中所含直线特征的斜率与截距差异在设定阈值范围内,则将直线特征合并,更新起止点信息;对合并后的直线特征进行分析,选取斜率近似相等且与车辆行驶朝向差异满足阈值要求的线段作为车道边界线,提取其包含的离散曲线点云作为车道边界点云。
步骤204进一步包括:
步骤204-1,将惯性测量单元数据与激光雷达数据基于GPS授时进行时间同步。
步骤204-2,基于惯性测量单元数据与车辆运动学模型,将当前帧与前一帧的点云数据进行配准;并记录坐标转换关系,将前一帧点云数据中的直线段特征进行坐标转换,并与当前帧直线段特征对比,若斜率差异大于指定阈值,则放弃两帧数据叠加,采用单帧数据进行障碍物提取,所斜率差异小于指定阈值,则将两帧数据叠加,用于障碍物检测。
步骤205进一步包括:
步骤205-1,将单帧点云数据根据其水平角度划分为若干条射线。
步骤205-2,选取某一射线上的点云,依次计算连续三个点之间形成的夹角关系,判断可行性,具体可行性判断准则为,定义ΔD1=E(α0)-(α1+θ),ΔD2=α1+θ-α0;公式中,E(α0)表示激光束打在地面时的期望值,α0可由激光安装高度以及点所在线序的垂直角度计算得出,若ΔD1≈0且ΔD2≈0,则为平整可通行区域,若ΔD1≈0,且ΔD2>0,则三个点中靠近车身的点凸起;若ΔD1>0且ΔD2<0,则三个点中的中间点存在影响车身凸起;若ΔD1<0且ΔD2>0,则三个点中的最远点存在影响车身凸起;其中,θ为激光雷达垂直角度分辨率,α0、α1为激光束与地面的夹角,具体参见图3。通过该可行性判断准则,筛选出该射线上影响车辆行驶的点云。
步骤205-3,根据步骤205-2中的可行性判断准则对每一条射线上的点云进行筛选,得到障碍物点云,将影响车辆行驶的障碍物点云从第一可通行区域中进行分割,得到第二可通行区域。
本实施例通过基于模糊线段法在原始点云数据中提取道路边界,对点云数据进行分割,相较于基于高度阈值的地面点云分割方法,对有坡度的路面适用性更强;根据相邻点角度信息提取障碍物点云数据,进一步提高了检测的准确度;通过对多帧点云数据进行障碍物点云提取,减小了基于连续点夹角判断障碍物点云的搜索范围,降低了运算量;通过对多帧点云数据进行障碍物点云提取,降低了由于单一位置采集点云的数据疏密差异对提取结果的影响,提高了提取结果的鲁棒性。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (10)

1.一种基于激光雷达的可通行区域检测方法,其特征在于,所述方法包括:
获取激光雷达单帧点云数据;
提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息;
根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域;
根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域。
2.根据权利要求1所述的方法,其特征在于,所述提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息包括,
将无序点云数据基于雷达垂直角分辨率以及水平角分辨率组织为有序点云数据,所述激光雷达单帧点云数据包括所有返回的激光点的三维坐标信息。
3.根据权利要求1所述的方法,其特征在于,所述提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息包括,
基于模糊线段法,逐线提取所述单帧点云数据中的直线特征,并基于线段长度、斜率、截距及宽度信息,对直线特征进行筛选与聚类。
4.根据权利要求2所述的方法,其特征在于,所述提取所述单帧点云数据中的直线特征,根据所述直线特征获取道路边界点云数据及道路边界直线拟合信息包括,
提取有序点云数据中某一线序的数据,将其投影至平面,从起始扫描点开始,依次计算该点与前后n个点的位置平方差,选取位置方差大于第一阈值的点作为分割点,将单线序的点云数据分为若干段离散曲线点云,对每一段离散曲线点云,基于模糊线段法进行拟合,并记录该段离散曲线的模糊线段拟合数据作为特征值。
5.根据权利要求4所述的方法,其特征在于,所述对每一段离散曲线点云,基于模糊线段法进行拟合包括,
若离散曲线点云的离散点集(x,y)对于预设离散直线L(a,b,u)满足,
u≤ax-by<u+w,且离散曲线长度大于第二阈值,则将该段离散曲线点云加入道路边界线候选点云,并记录该段离散曲线的模糊线段拟合数据作为特征值;所述特征值包括,起止点、斜率、截距及宽度,所述宽度为候选点云与拟合直线的最大直线距离;其中,a,b为离散直线L的斜率参数,u为离散直线L的截距,w为第三阈值。
6.根据权利要求1至5任一项所述的方法,其特征在于,对所有线序的数据基于模糊线段法进行拟合,分割得到单帧点云数据中所有具备直线特征的点云,以及其拟合线段的特征值,设定线段斜率与截距的阈值,若不同线序点云中所含直线特征的斜率与截距差异在设定阈值范围内,则将直线特征合并,更新起止点信息;对合并后的直线特征进行分析,选取斜率近似相等且与车辆行驶朝向差异满足阈值要求的线段作为车道边界线,提取车道边界线对应的离散曲线点云作为车道边界点云。
7.根据权利要求6所述的方法,其特征在于,根据所述道路边界点云数据及道路边界直线拟合信息,对所述单帧点云数据进行分割,得到第一可通行区域包括,
根据提取的车道边界点云及车道边界线的起止点,对所述单帧点云数据进行分割,对车道边界线以外的点云数据进行分割,把余下的点云作为可行区域点云,得到第一可通行区域。
8.根据权利要求1所述的方法,其特征在于,在根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域之前,还包括
将惯性测量单元数据与激光雷达数据基于GPS授时进行时间同步;
基于惯性测量单元数据,将当前帧与前一帧的点云数据进行配准;并记录坐标转换关系,将前一帧点云数据中的直线段特征进行坐标转换,并与当前帧直线段特征对比,若斜率差异大于第四阈值,则放弃两帧数据叠加,采用单帧数据进行障碍物提取,所斜率差异小于第四阈值,则将两帧数据叠加,用于障碍物检测。
9.根据权利要求1所述的方法,其特征在于,根据相邻点角度信息提取障碍物点云数据,根据所述第一可通行区域和障碍物点云数据,得到第二可通行区域包括,
将单帧点云数据根据其水平角度划分为若干条射线;
选取某一射线上的点云,依次计算连续三个点之间形成的夹角关系,判断可行性,具体可行性判断准则为,
定义ΔD1=E(α0)-(α1+θ),ΔD2=α1+θ-α0;公式中,
E(α0)表示激光束打在地面时的期望值,α0可由激光安装高度以及点所在线序的垂直角度计算得出,若ΔD1≈0且ΔD2≈0,则为平整可通行区域,若ΔD1≈0,且ΔD2>0,则三个点中靠近车身的点凸起;若ΔD1>0且ΔD2<0,则三个点中的中间点存在影响车身凸起;若ΔD1<0且ΔD2>0,则三个点中的最远点存在影响车身凸起;其中,θ为激光雷达垂直角度分辨率,α0、α1为激光束与地面的夹角。
10.根据权利要求9所述的方法,其特征在于,根据可行性判断准则对每一条射线上的点云进行筛选,得到障碍物点云,将影响车辆行驶的障碍物点云从第一可通行区域中进行分割,得到第二可通行区域。
CN202111000764.7A 2021-08-27 2021-08-27 一种基于激光雷达的可通行区域检测方法 Pending CN113759391A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111000764.7A CN113759391A (zh) 2021-08-27 2021-08-27 一种基于激光雷达的可通行区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111000764.7A CN113759391A (zh) 2021-08-27 2021-08-27 一种基于激光雷达的可通行区域检测方法

Publications (1)

Publication Number Publication Date
CN113759391A true CN113759391A (zh) 2021-12-07

Family

ID=78791792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111000764.7A Pending CN113759391A (zh) 2021-08-27 2021-08-27 一种基于激光雷达的可通行区域检测方法

Country Status (1)

Country Link
CN (1) CN113759391A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114425774A (zh) * 2022-01-21 2022-05-03 深圳优地科技有限公司 机器人行走道路的识别方法、识别设备以及存储介质
CN115540896A (zh) * 2022-12-06 2022-12-30 广汽埃安新能源汽车股份有限公司 路径规划方法、装置、电子设备和计算机可读介质
CN115797640A (zh) * 2023-02-13 2023-03-14 北京路凯智行科技有限公司 用于露天矿区的道路边界提取方法
CN115985122A (zh) * 2022-10-31 2023-04-18 内蒙古智能煤炭有限责任公司 无人驾驶系统感知方法
CN116901085A (zh) * 2023-09-01 2023-10-20 苏州立构机器人有限公司 智能机器人避障方法、装置、智能机器人及可读存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114425774A (zh) * 2022-01-21 2022-05-03 深圳优地科技有限公司 机器人行走道路的识别方法、识别设备以及存储介质
CN114425774B (zh) * 2022-01-21 2023-11-03 深圳优地科技有限公司 机器人行走道路的识别方法、识别设备以及存储介质
CN115985122A (zh) * 2022-10-31 2023-04-18 内蒙古智能煤炭有限责任公司 无人驾驶系统感知方法
CN115540896A (zh) * 2022-12-06 2022-12-30 广汽埃安新能源汽车股份有限公司 路径规划方法、装置、电子设备和计算机可读介质
CN115540896B (zh) * 2022-12-06 2023-03-07 广汽埃安新能源汽车股份有限公司 路径规划方法、装置、电子设备和计算机可读介质
CN115797640A (zh) * 2023-02-13 2023-03-14 北京路凯智行科技有限公司 用于露天矿区的道路边界提取方法
CN116901085A (zh) * 2023-09-01 2023-10-20 苏州立构机器人有限公司 智能机器人避障方法、装置、智能机器人及可读存储介质
CN116901085B (zh) * 2023-09-01 2023-12-22 苏州立构机器人有限公司 智能机器人避障方法、装置、智能机器人及可读存储介质

Similar Documents

Publication Publication Date Title
CN111551958B (zh) 一种面向矿区无人驾驶的高精地图制作方法
CN113759391A (zh) 一种基于激光雷达的可通行区域检测方法
CN108960183B (zh) 一种基于多传感器融合的弯道目标识别系统及方法
Chang et al. Argoverse: 3d tracking and forecasting with rich maps
Zai et al. 3-D road boundary extraction from mobile laser scanning data via supervoxels and graph cuts
CN102208013B (zh) 风景匹配参考数据生成系统和位置测量系统
CN111179152B (zh) 一种道路标识识别方法及装置、介质、终端
Guan et al. Using mobile laser scanning data for automated extraction of road markings
WO2018068653A1 (zh) 点云数据处理方法、装置及存储介质
CN112380317B (zh) 高精地图更新方法、装置、电子设备和存储介质
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
CN102208035B (zh) 图像处理系统及位置测量系统
Ma et al. Generation of horizontally curved driving lines in HD maps using mobile laser scanning point clouds
JP6442834B2 (ja) 路面高度形状推定方法とシステム
Nedevschi et al. A sensor for urban driving assistance systems based on dense stereovision
KR101822373B1 (ko) 물체 탐지 장치 및 방법
CN110379168B (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN111179300A (zh) 障碍物检测的方法、装置、系统、设备以及存储介质
CN102222236A (zh) 图像处理系统及位置测量系统
CN110458050B (zh) 基于车载视频的车辆切入检测方法及装置
CN104239867A (zh) 车牌定位方法及系统
CN107909012B (zh) 一种基于视差图的实时车辆跟踪检测方法与装置
CN106951898B (zh) 一种车辆候选区域推荐方法及系统、电子设备
CN117073664B (zh) 一种露天矿山道路地形建图方法
CN113989784A (zh) 一种基于车载激光点云的道路场景类型识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination