CN113487631B - 基于lego-loam的可调式大角度探测感知及控制方法 - Google Patents

基于lego-loam的可调式大角度探测感知及控制方法 Download PDF

Info

Publication number
CN113487631B
CN113487631B CN202110822519.8A CN202110822519A CN113487631B CN 113487631 B CN113487631 B CN 113487631B CN 202110822519 A CN202110822519 A CN 202110822519A CN 113487631 B CN113487631 B CN 113487631B
Authority
CN
China
Prior art keywords
point cloud
pose
loam
lego
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110822519.8A
Other languages
English (en)
Other versions
CN113487631A (zh
Inventor
索旭东
管西强
刘宇飞
彭为强
李冀川
赵联彬
梁家辉
危义坤
朱佳鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Mobile Robot Zhongshan Research Institute
Original Assignee
Intelligent Mobile Robot Zhongshan Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Mobile Robot Zhongshan Research Institute filed Critical Intelligent Mobile Robot Zhongshan Research Institute
Priority to CN202110822519.8A priority Critical patent/CN113487631B/zh
Publication of CN113487631A publication Critical patent/CN113487631A/zh
Application granted granted Critical
Publication of CN113487631B publication Critical patent/CN113487631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供了一种基于LEGO‑LOAM的可调式大角度探测感知及控制方法,该方法包括如下步骤:步骤一、数据读取;步骤二、点云分割;步骤三、特征提取;步骤四、雷达里程计;步骤五、雷达建图;步骤六、变换融合。本发明的有益效果在于:获取多线激光雷达的点云数据,并结合IMU惯性测量单元获取的位姿信息,使得建图和定位算法更加鲁棒,改善现有单线激光SLAM只能平面式扫描问题,通过多线激光雷达可以扫描到周围环境的3D模型,运用LEGO‑LOAM算法能较为容易的检测出周围环境信息,达到实时建图的效果。

Description

基于LEGO-LOAM的可调式大角度探测感知及控制方法
技术领域
本发明涉及机器人控制技术领域,尤其涉及基于LEGO-LOAM的可调式大角度探测感知及控制方法。
背景技术
同时定位和地图构建(SLAM)技术是机器人在未知的环境中完成自主跟踪、检测、导航等任务的关键和基础。其基本原理是利用移动机器人搭载的各种传感器,估计机器人在环境中的位姿,同时获取机器人周围环境的信息。随着激光雷达技术的发展,移动SLAM制图系统在各个制造业领域已显现出广阔的应用前景。激光雷达距离测量比较准确,误差模型简单,在强光直射以外的环境中运行稳定,点云的处理也比较容易。同时,点云信息本身包含直接的几何关系,使得机器人的路径规划和导航变得直观。
激光SLAM的任务是搭载激光雷达的主体于运动中估计自身的位姿,同时建立周围的环境地图。目前市面上主流的SLAM方案多是基于单线激光雷达,建立的是2D地图,但是,单线雷达只能平面式扫描,不能测量物体高度,有一定局限性。而多线的激光雷达相比单线激光雷达在维度提升和场景还原上有了质的改变,可以识别物体的高度信息,能够建立信息更加丰富的3D地图。
在相关技术中,LOAM算法是3D激光SLAM中很经典的算法,LOAM算法在前端里程计特征提取和点云配准方面,提出了新颖的ICP算法,提取边缘点与平面点作为关键特征点,用点对线,点对面进行点云帧间配准,提高了配准精度;同时将SLAM分为两部分进行,第一部分为高频率(10HZ)低精度的里程计odometry过程,另一个是低频率(1HZ)高精度的建图mapping过程,二者结合可实现低漂移、低计算量、高精度的SLAM。但是LOAM算法未对于嵌入式可移动平台做出更好的适配。2018年发布的LEGO-LOAM算法做出了改进,可以实时地运行在嵌入式平台端。该算法经过地面优化,在分割和优化步骤中利用了地面的约束,应用点云分割来滤除噪声,并进行特征提取,以获得独特的平面和边缘特征,然后采用两步Levenberg-Marquardt优化方法,使用平面和边缘特征来解决连续扫描中六个自由度变换的不同分量。同LOAM算法相比,LEGO-LOAM在减少计算开销的情况下实现了相似或更好的建图精度。
发明内容
本发明的目的是提供基于LEGO-LOAM的可调式大角度探测感知及控制方法,其改善现有单线激光SLAM只能平面式扫描问题,通过多线激光雷达可以扫描到周围环境的3D模型,运用LEGO-LOAM算法对比上一帧及下一帧环境的变化,能较为容易的检测出周围环境信息,通过实时得到的全局地图与高精度地图中的特征物进行比对,能加强定位精度并实现后续的自主导航,可以将激光雷达转动特定的角度,能够更好的去感知周围环境信息并建图,从而可以解决背景技术中涉及的技术问题。
为实现上述目的,本发明的技术方案为:
一种基于LEGO-LOAM的可调式大角度探测感知及控制方法,该方法包括如下步骤:
步骤一、数据读取,读取多线激光雷达扫描的点云数据和IMU惯性测量单元获取的位姿数据;
步骤二、点云分割,对读取的点云数据和位姿数据先进行图4地面提取,然后对剩下的点云进行分割,将分割好的三维的点云数据进行平面投射,投影得到二维深度图,在二维深度图上进行地面提取,得到地面点云和非地面点云,然后对非地面点云进行聚类,得到聚类簇,然后在聚类簇中提取曲率较大的特征点,将点云分割为边缘点类和平面点类;
步骤三、特征提取,在地面点云上提取平面特征,而在聚类簇上提取线特征;
步骤四、雷达里程计,通过点对线和点对面进行相邻两帧的匹配来估计激光雷达的姿态变化,得到高频率的里程计信息;
步骤五、雷达建图,根据雷达里程计信息,继续用线面特征进行匹配,将特征点与周围点云图进行配准,采用最小二乘化方法得到精准的低频率的位姿信息;
步骤六、变换融合,根据高频率的雷达里程计信息和低频率的精准位姿信息进行融合,输出一个最终的高频位姿估计信息。
作为本发明的一种优选改进,在步骤一中,所述多线激光雷达为16线激光雷达。
作为本发明的一种优选改进,在步骤一中,所述位姿信息在ROS下通过话题的方式进行发布。
作为本发明的一种优选改进,在步骤三中,特征提取具体包括如下步骤:先在水平方向上将深度图均分成许多子图像,然后计算每个点的曲率,然后在每个子图像的每一行根据曲率的大小选择若干个边缘点和若干个平面点,其中,粗糙度较大的是边缘点,粗糙度较小的是平面点。
作为本发明的一种优选改进,在步骤四中,在匹配的过程中采用两步L-M优化,提取相邻帧的平面特征进行匹配,并用来计算竖直维度的变动,通过线特征匹配获取水平维度的变动。
作为本发明的一种优选改进,在步骤五中,所述位姿信息作为节点加到位姿图里面,将提取的特征点作为约束边,用GTSAM进行整体的平滑优化;通过空间距离、时间限制、里程距离约束和ICP来检测回环,检测到了回环,则计算回环帧与当前帧的相对位姿,作为约束边继续加入到位姿图中,来减小漂移。
本发明提供的基于LEGO-LOAM的可调式大角度探测感知及控制方法的有益效果在于:获取多线激光雷达的点云数据,并结合IMU惯性测量单元获取的位姿信息,使得建图和定位算法更加鲁棒,改善现有单线激光SLAM只能平面式扫描问题,通过多线激光雷达可以扫描到周围环境的3D模型,运用LEGO-LOAM算法能较为容易的检测出周围环境信息,达到实时建图的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。下文描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为本发明所述的LEGO-LOAM算法流程图;
图2为本发明所述的激光里程计算法流程图;
图3为本发明所述的点云分割效果图;
图4为本发明所述的特征提取效果图;
图5为本发明的雷达建图效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供了种一种基于LEGO-LOAM的可调式大角度探测感知及控制方法,该方法包括如下步骤:
步骤一、数据读取,读取多线激光雷达扫描的点云数据和IMU惯性测量单元获取的位姿数据;
具体的,所述多线激光雷达为16线激光雷达,所述位姿信息在ROS下通过话题的方式进行发布。
需要进一步说明的是,所述多线激光雷达启动后,将激光束编号(从仰角最小的激光束开始编号)作为点云的纵坐标,激光的水平编号(从旋角为0的点开始编号)作为点云的横坐标,对点云进行编号,最后记录点云的深度信息、水平旋角和仰角,根据雷达所设定的参数来输出感知到的点云数据。
步骤二、点云分割,对读取的点云数据和位姿数据先进行地面提取,然后对剩下的点云进行分割,将分割好的三维的点云数据进行平面投射,投影得到二维深度图,在二维深度图上进行地面提取,得到地面点云和非地面点云,然后对非地面点云进行聚类,得到聚类簇,然后在聚类簇中提取曲率较大的特征点,将点云分割为边缘点类和平面点类;
需要说明的是,通过所述点云分割,可以去除不稳定的特征点。这是由于室外环境中会有很多噪声点,例如树叶、垃圾等小型物体,这些都是不可靠的特征,在连续两帧里都在同一位置出现的可能性不大,所以应该将它们剔除掉,不参与帧间匹配。本发明采用的方法是计算每个点簇中点的个数,将所有个数小于30的点簇都剔除掉。剔除前后点云,具体参见图3所示,图3(a)表示原始点云,图3(b)的水平向的点为地面点云,其余的竖直向的点为分割后剩余的点。点云分割以后的每个点包含了分割标签(地面点或分割点)在距离图像中的行和列的索引和传感器的距离值ri信息。
步骤三、特征提取,在地面点云上提取平面特征,而在聚类簇上提取线特征;
具体的,特征提取具体包括如下步骤:
在水平方向上将深度图均分成许多子图像;
需要进一步说明的是,为了所有方向均匀提取特征,将图像水平划分为几个相等的子图像。
计算每个点的曲率,计算公式如下:
式中|S|表示点集中点的个数,||ri||表示点i的深度,ri:每个像素的深度值,j:距离i的最近点,rj:除了i点的像素深度值。通过式子可得到点云中每个点的曲率值,在非地面点中,点的曲率越大则表明此处点云深度变化幅度越大,并计入边缘特征点集合。
在每个子图像的每一行根据曲率的大小选择若干个边缘点和若干个平面点,其中,粗糙度较大的是边缘点,粗糙度较小的是平面点。
需要进一步说明的是,根据阈值区分边缘点(C>Cth)和平面点(C<Cth)。所有的边缘点Fme和平面点集Fmp。从每一行中选取不属于地面点,且具有最大c值的边缘点,组成集合Fme;从每一行中选取最小c值的平面点(可以标记为地面或边缘点),组成集合Fmp,如图4(c)所示,图4(c)中,水平向的点和竖直向的点分别表示平面和边缘特征:再进行一次筛选,得到精炼的边缘点Fe和平面点集Fp,如图4(d)所示,图4(d)中水平向的点和竖直向的点分别代表边平面点集Fp和缘点Fe的平面特征和边缘特征。
步骤四、雷达里程计,通过点对线和点对面进行相邻两帧的匹配来估计激光雷达的姿态变化,得到高频率的里程计信息;
具体的,在匹配的过程中采用两步L-M优化,提取相邻帧的平面特征进行匹配,并用来计算竖直维度的变动,通过线特征匹配获取水平维度的变动。
在前面特征提取部分,获取了四种点云类型:{Fe,Fme,Fp,Fmp},设定当前时刻为t,则上一时刻为t-1,选取t时刻的特征点和/>以及t-1时刻的/>和/>来构建/>的点到线的对应关系和点到面的对应关系/>就这样通过点对线和点对面进行相邻两帧的匹配来估计激光雷达的姿态变化,得到高频率的里程计信息。
需要进一步说明的是,此过程第一步进行标签匹配,平面特征点只采用了地面上的平面特征点,用来做匹配,这样可以保证相邻帧中地面信息保持不变,以及聚类后点云被分为若干块,提高匹配准确性,缩小了潜在对应特征的数量。第二步是两阶段的L-M优化,优化计算平面点的对应约束来得到tz,θroll,θpitch通过平面特征匹配获得,剩下的tx,ty,θyaw通过边缘特征匹配获得,如图2所示。
步骤五、雷达建图,根据雷达里程计信息,继续用线面特征进行匹配,将特征点与周围点云图进行配准,采用最小二乘化方法得到精准的低频率的位姿信息;
具体的,所述位姿信息作为节点加到位姿图里面,将提取的特征点作为约束边,用GTSAM进行整体的平滑优化;通过空间距离、时间限制、里程距离约束和ICP来检测回环,检测到了回环,则计算回环帧与当前帧的相对位姿,作为约束边继续加入到位姿图中,来减小漂移,建图效果如图5所示。
步骤六、变换融合,根据高频率的雷达里程计信息和低频率的精准位姿信息进行融合,输出一个最终的高频位姿估计信息。
具体的,根据接收到上述的雷达里程计低频率且粗配准的里程计信息和雷达建图高频率精配准的位姿信息,将雷达建图高频率精配准的位姿信息作为计算的基础更新位姿,获取配准后的速度信息作为下一次的先验,反复进行粗配准的里程计信息与精配准的里程计信息融合计算,并在回调函数中发送了最终外发的里程计话题,输出最终的高频位姿估计信息。
本发明提供的基于LEGO-LOAM的可调式大角度探测感知及控制方法的有益效果在于:获取多线激光雷达的点云数据,并结合IMU惯性测量单元获取的位姿信息,使得建图和定位算法更加鲁棒,改善现有单线激光SLAM只能平面式扫描问题,通过多线激光雷达可以扫描到周围环境的3D模型,运用LEGO-LOAM算法能较为容易的检测出周围环境信息,达到实时建图的效果。
尽管本发明的实施方案已公开如上,但并不仅仅限于说明书和实施方案中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里所示出与描述的图例。

Claims (6)

1.一种基于LEGO-LOAM的可调式大角度探测感知及控制方法,其特征在于,该方法包括如下步骤:
步骤一、数据读取,读取多线激光雷达扫描的点云数据和IMU惯性测量单元获取的位姿数据;
步骤二、点云分割,对读取的点云数据和位姿数据先进行地面提取,然后对剩下的点云进行分割,将分割好的三维的点云数据进行平面投射,投影得到二维深度图,在二维深度图上进行地面提取,得到地面点云和非地面点云,然后对非地面点云进行聚类,得到聚类簇,然后在聚类簇中提取曲率较大的特征点,将点云分割为边缘点类和平面点类;
步骤三、特征提取,在地面点云上提取平面特征,而在聚类簇上提取线特征;
步骤四、雷达里程计,通过点对线和点对面进行相邻两帧的匹配来估计激光雷达的姿态变化,得到高频率的里程计信息;
步骤五、雷达建图,根据雷达里程计信息,继续用线面特征进行匹配,将特征点与周围点云图进行配准,采用最小二乘化方法得到精准的低频率的位姿信息;
步骤六、变换融合,根据高频率的雷达里程计信息和低频率的精准位姿信息进行融合,输出一个最终的高频位姿估计信息。
2.如权利要求1所述的基于LEGO-LOAM的可调式大角度探测感知及控制方法,其特征在于,在步骤一中,所述多线激光雷达为16线激光雷达。
3.如权利要求1所述的基于LEGO-LOAM的可调式大角度探测感知及控制方法,其特征在于,在步骤一中,所述位姿信息在ROS下通过话题的方式进行发布。
4.如权利要求1所述的基于LEGO-LOAM的可调式大角度探测感知及控制方法,其特征在于,在步骤三中,特征提取具体包括如下步骤:先在水平方向上将深度图均分成许多子图像,然后计算每个点的曲率,然后在每个子图像的每一行根据曲率的大小选择若干个边缘点和若干个平面点,其中,粗糙度较大的是边缘点,粗糙度较小的是平面点。
5.如权利要求1所述的基于LEGO-LOAM的可调式大角度探测感知及控制方法,其特征在于,在步骤四中,在匹配的过程中采用两步L-M优化,提取相邻帧的平面特征进行匹配,并用来计算竖直维度的变动,通过线特征匹配获取水平维度的变动。
6.如权利要求1所述的基于LEGO-LOAM的可调式大角度探测感知及控制方法,其特征在于,在步骤五中,所述位姿信息作为节点加到位姿图里面,将提取的特征点作为约束边,用GTSAM进行整体的平滑优化;通过空间距离、时间限制、里程距离约束和ICP来检测回环,检测到了回环,则计算回环帧与当前帧的相对位姿,作为约束边继续加入到位姿图中,来减小漂移。
CN202110822519.8A 2021-07-21 2021-07-21 基于lego-loam的可调式大角度探测感知及控制方法 Active CN113487631B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110822519.8A CN113487631B (zh) 2021-07-21 2021-07-21 基于lego-loam的可调式大角度探测感知及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110822519.8A CN113487631B (zh) 2021-07-21 2021-07-21 基于lego-loam的可调式大角度探测感知及控制方法

Publications (2)

Publication Number Publication Date
CN113487631A CN113487631A (zh) 2021-10-08
CN113487631B true CN113487631B (zh) 2024-04-23

Family

ID=77942651

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110822519.8A Active CN113487631B (zh) 2021-07-21 2021-07-21 基于lego-loam的可调式大角度探测感知及控制方法

Country Status (1)

Country Link
CN (1) CN113487631B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348829B (zh) * 2020-11-02 2022-06-28 东华理工大学 基于模态点演化的地面LiDAR点云枝叶分离方法
CN113985435A (zh) * 2021-10-13 2022-01-28 上海师范大学 一种融合多激光雷达的建图方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN111929699A (zh) * 2020-07-21 2020-11-13 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统
CN112767490A (zh) * 2021-01-29 2021-05-07 福州大学 一种基于激光雷达的室外三维同步定位与建图方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN111929699A (zh) * 2020-07-21 2020-11-13 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统
CN112767490A (zh) * 2021-01-29 2021-05-07 福州大学 一种基于激光雷达的室外三维同步定位与建图方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种改进ICP算法的移动机器人激光与视觉建图方法研究;张杰;周军;;机电工程;20171218(第12期);全文 *
无人驾驶汽车三维同步定位与建图精度评估;吴晶;;装备机械;20191230(第04期);全文 *

Also Published As

Publication number Publication date
CN113487631A (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN109949375B (zh) 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN110264567B (zh) 一种基于标记点的实时三维建模方法
CN113436260B (zh) 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN110569704A (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN115032651B (zh) 一种基于激光雷达与机器视觉融合的目标检测方法
CN111781608B (zh) 一种基于fmcw激光雷达的运动目标检测方法及系统
CN113487631B (zh) 基于lego-loam的可调式大角度探测感知及控制方法
CN103106659A (zh) 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
CN110197173B (zh) 一种基于双目视觉的路沿检测方法
CN111723778B (zh) 基于MobileNet-SSD的车辆测距系统及方法
Almansa-Valverde et al. Mobile robot map building from time-of-flight camera
Konrad et al. Localization in digital maps for road course estimation using grid maps
CN113218408B (zh) 适用于多地形的多传感器融合的2Dslam方法及其系统
CN112862858A (zh) 一种基于场景运动信息的多目标跟踪方法
CN116878501A (zh) 一种基于多传感器融合的高精度定位与建图系统及方法
CN113327296A (zh) 基于深度加权的激光雷达与相机在线联合标定方法
CN115908539A (zh) 一种目标体积自动测量方法和装置、存储介质
CN114217665A (zh) 一种相机和激光雷达时间同步方法、装置及存储介质
CN112432653B (zh) 基于点线特征的单目视觉惯性里程计方法
CN117029870A (zh) 一种基于路面点云的激光里程计
Hirata et al. Real-time dense depth estimation using semantically-guided LIDAR data propagation and motion stereo
CN117053779A (zh) 一种基于冗余关键帧去除的紧耦合激光slam方法及装置
CN115930946A (zh) 室内外交变环境下动态障碍物多特征描述的方法
CN115113170A (zh) 一种基于室内特征退化环境的激光雷达边缘特征预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant