CN116299500B - 一种融合目标检测和跟踪的激光slam定位方法及设备 - Google Patents

一种融合目标检测和跟踪的激光slam定位方法及设备 Download PDF

Info

Publication number
CN116299500B
CN116299500B CN202310025986.7A CN202310025986A CN116299500B CN 116299500 B CN116299500 B CN 116299500B CN 202310025986 A CN202310025986 A CN 202310025986A CN 116299500 B CN116299500 B CN 116299500B
Authority
CN
China
Prior art keywords
laser
feature points
map
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310025986.7A
Other languages
English (en)
Other versions
CN116299500A (zh
Inventor
秦晓辉
周洪
周云水
徐彪
秦兆博
谢国涛
王晓伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Jicui Qinglian Intelligent Control Technology Co ltd
Original Assignee
Jiangsu Jicui Qinglian Intelligent Control Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Jicui Qinglian Intelligent Control Technology Co ltd filed Critical Jiangsu Jicui Qinglian Intelligent Control Technology Co ltd
Publication of CN116299500A publication Critical patent/CN116299500A/zh
Application granted granted Critical
Publication of CN116299500B publication Critical patent/CN116299500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种融合目标检测和跟踪的激光SLAM定位方法及设备,该方法包括:接收激光雷达传感器扫描到的原始激光点云信息,获取当前雷达坐标系下的潜在动态对象;去除潜在动态对象后,提取边缘特征点和平面特征点,从中筛选出强特征点和一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;通过滑动窗口法判断当前帧中潜在动态对象是动态目标、状态未确定目标或静态目标;在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。

Description

一种融合目标检测和跟踪的激光SLAM定位方法及设备
技术领域
本发明涉及无人驾驶技术领域,特别是关于一种融合目标检测和跟踪的激光SLAM定位方法及设备。
背景技术
高精度、高可靠性的定位方法是当前乃至未来无人驾驶汽车的重要需求。目前高精度全球导航卫星系统(Global Navigation Satellite System,GNSS)是室外环境下常用的定位方法,但是GNSS在城市道路下受高楼、隧道、树木遮挡,以及湖泊附近多路径效应的存在,导致GNSS信号跳变而解算出不正确或者偏差较大的位姿。近年来一种搭载特定传感器实现自主定位源的方法应运而生,即同步定位与建图技术(simultaneous localizationand mapping,SLAM),SLAM技术能够使运载设备完成对周围环境的地图构建并估计出地图中自身位姿。
现有的激光SLAM算法可以在静态环境假设下稳定运行且定位精度高,而在高速公路、繁忙的城市道路等动态场景中由于缺乏对动态物体的处理而性能变差。然而,道路交通往往是一个动态化环境,运动的车辆、行人已经临时停靠车辆等各种交通参与者会随着时间产生位置变化,这些动态物体对激光SLAM技术的影响主要是在两个方面,一方面是数据关联,移动物体上的点云数据很难在参考帧或者参考地图中找到对应点,特别是在高动态场景下,大量点云在移动物体上使得点云配准失败,导致定位精度恶化,另一方面是地图的构建,动态环境下构建的点云地图往往会充斥着大量由移动物体引起点云重影,这些重影将会影响后续基于全局地图的定位或基于地图的路径规划的准确性。
激光SLAM目前已在自动驾驶车辆领域得到应用,滤除场景中动态物的方法主要分为三大类:基于体素网格的方法、基于视点可见性的方法和基于点云分割的方法,仍存在一定问题,归纳如下:(1)依赖静态点数高占比。基于体素网格的方法和基于视点可见性方法需要在静态点数占优的情况下计算出较准确的传感器位姿,并根据位姿去除动态点,这与SLAM目的是相违背的,当场景中动态点云数占比更大时候,往往不能得出准确的位姿,也就无法有效去除动态点;(2)数据关联鲁棒性低和过度去除特征点。基于视点可见性方法由于初始位姿精度低容易在物体边缘处造成动态点的漏检和误检。基于点云分割的方法存在过度去除可利用的低动态对象,如在非结构化场景中,为了防止SLAM算法退化,人、车等潜在动态物低速运动时,其特征点是可以用于点云配准计算位姿的;(3)实时性低。基于体素网格方法中栅格地图的构建和维护需要消耗大量的内存和计算资源。为了保证点云分割结果的精度,大多数语义分割方法的网络架构复杂,每帧点云的网络推理时间高达几百毫秒,难以保证SLAM系统实时性的要求。
为了解决上述提到的问题,亟待一种提高动态场景下自动驾驶车辆实时激光SLAM系统的稳定性与准确性的技术。
发明内容
本发明的目的在于提供一种融合目标检测和跟踪的激光SLAM定位方法及设备,来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种融合目标检测和跟踪的激光SLAM定位方法,包括:
步骤1,接收激光雷达传感器扫描到的原始激光点云信息,根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
步骤2,去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
步骤3,对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
步骤4,构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
步骤5,在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
优选的,步骤5后还包括:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
优选的,还包括:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
优选的,步骤1包括:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
优选的,步骤2包括:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
本发明还提供一种融合目标检测和跟踪的激光SLAM定位设备,其特征在于,包括:通信器件和处理器,其中,
通信器件,用于接收激光雷达传感器扫描到的原始激光点云信息;
处理器,用于:
根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
优选的,处理器用于:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
优选的,处理器用于:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
优选的,处理器用于:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
优选的,处理器用于:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
本发明由于采取以上技术方案,其具有以下优点:
本发明采用的技术方案,能有效提高自动驾驶车辆在各种环境下的适用性,并因为具有点云动态障碍物剔除模块,能够同时达到提高定位系统定位精度、稳定性的效果。
附图说明
图1为本发明实施例提供的一种融合目标检测和跟踪的激光SLAM定位方法的流程示意图。
图2为本发明的提供的一种融合目标检测和跟踪的激光SLAM定位方法所应用的激光SLAM系统的示例的示意图。
图3示出本发明实施例提供的一种融合目标检测和跟踪的激光SLAM定位方法的流程示意图。
图4示出本发明实施例提供的多目标跟踪算法的示意图。
图5示出本发明实施例提供的融合目标检测和跟踪的激光SLAM定位方法中判断目标种类的滑动窗口示意图。
图6示出本发明实施例提供一种融合目标检测和跟踪的激光SLAM定位设备的结构示意图。
图7示出本发明一示例中一种融合目标检测和跟踪的激光SLAM定位设备的结构示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
在不冲突的情况下,本发明各实施例及各实施方式中的技术特征可以相互组合,并不局限于该技术特征所在的实施例或实施方式中。
下面结合附图以及具体实施例对本发明做进一步的说明,需要指出的是,下面仅以一种最优化的技术方案对本发明的技术方案以及设计原理进行详细阐述,但本发明的保护范围并不仅限于此。
本文涉及下列术语,为便于理解,对其含义说明如下。本领域技术人员应当理解,下列术语也可能有其它名称,但在不脱离其含义的情形下,其它任何名称都应当被认为与本文所列术语一致。
本发明实施例提供一种融合目标检测和跟踪的激光SLAM定位方法,如图1所示,包括:
步骤1,接收激光雷达传感器扫描到的原始激光点云信息,根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象。
步骤2,去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图。
步骤3,对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID。
步骤4,构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标。例如,对于当前帧的潜在动态物体,在滑动窗口中由近及远地构建检测框几何约束快速去除高速动态目标。对于静态目标和低动态目标的筛选,统计每一个潜在动态对象中动态特征点数,若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标。其中,所谓高速动态目标,指的是检测框在连续帧中的移动速度超过阈值的动态目标。例如可以动态目标的检测框的中心计算其移动速度,确定动态目标是否属于高速动态目标。
步骤5,在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
其中,步骤5后还可以包括:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
该方法还可以包括:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
其中,步骤1可以包括:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
其中,步骤2可以包括:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
下面通过具体实施例说明本发明提供的融合目标检测和跟踪的激光SLAM定位方法。
图2为本发明的提供的一种融合目标检测和跟踪的激光SLAM定位方法所应用的激光SLAM系统的示例,包括:
点云预处理模块:过滤激光原始点云中的近处点和无效点后输入到目标检测网络,例如PointPillars网络,得到原始点云坐标系下目标对象的3D检测框;
激光里程计模块:获取潜在移动对象掩码后对纯静态环境提取特征点,利用强特征点进行点云配准1获取位姿初值,结合恢复的静态特征点和一般特征点进行点云配准2以获取更准确的定位,并筛选关键帧和回环检测;
动态目标去除模块:与激光里程计模块并行运行,跟踪每一帧潜在移动对象并将结果存入至滑动窗口中,对滑动窗口中跟踪序列进行运动检测后恢复静态对象;
全局图优化模块:基于关键帧构建局部地图,并在回环检测成功后进行位姿图优化构建全局一致的轨迹和静态全局地图。
图3示出本发明实施例提供的一种融合目标检测和跟踪的激光SLAM定位方法的流程示意图。如图3所示,该方法包括:
步骤31,获取原始激光点云信息,去除自身车辆上点云和无效点云得到初始点云,将初始点云输入至目标检测网络,该目标检测网络包括但不限于PointPillars网络,获取当前雷达坐标系下潜在动态对象的检测框。也可以同时获取检测框及其内部点云数据。
其中,通过如下方式获取原始激光点云信息:激光雷达传感器将扫描周围环境点云信息传输至处理器并存储点云信息,数据预处理模块读取存储器模块中原始点云数据。其中,根据如下方式判断是否属于自身车辆上点云和无效点云:在原始点云中,判断激光点离坐标原点的距离是否小于阈值例如2.5m,若小于,则判断为近处点去除;若激光点离坐标原点的距离大于阈值例如100m,则判断为无效点去除。若激光点离坐标原点的距离无穷小,也被判断为无效点。
步骤32,根据初始点云的空间曲率信息,提取除潜在动态对象掩码外的边缘点和平面点,并利用主成分分析方法筛选出线特征和面特征更强的边缘点和平面点,通过强特征点与局部特征地图进行点云配准1,获得激光雷达位姿1。
如下式,对每个特征点pi寻找满足距离阈值的(δ<6m)最近5个特征点,并计算其重心构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标分别为σ1D、σ2D
本发明中,选取距离阈值的最近5个特征点,其中阈值也可以设置其他值,例如设置δ<7m,也可以选取距离阈值的最近n个特征点,n可以为5以外的值例如6,本文对此不做限制。
本发明中,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,并剔除σ1D、σ2D小于0.3的弱特征点,剩余特征点为一般特征点。容易理解,0.9和0.3的取值仅为示例,也可以选取其它值。
得到强特征点后,点云配准1是通过强特征点与局部特征地图匹配获取较为准确的里程计位姿1(或者说激光雷达位姿1),既保证多目标跟踪的准确性又加速了点云配准2的收敛速度,随后等待动态目标去除模块的处理结果。
其中,利用点云配准1获取较为准确的里程计位姿1的具体过程包括:通过筛选出的强特征点与局部特征地图进行匹配,具体匹配过程包括:强特征点的边缘点与局部边缘点特征地图进行点到点的ICP匹配,强特征点的平面点与局部平面点特征地图进行点到平面距离的最小化匹配。其中,局部特征地图是通过对历史关键帧中的边缘点特征地图和平面点特征地图进行组合得到。例如,选取距离当前帧最近的预设数量(例如30个)关键帧的边缘点特征地图和平面点特征地图组成局部特征地图。为了降低搜索运算量,边缘点特征地图和平面点特征地图均以3D KD-tree(k维树)形式存储并分别进行更新和维护。
步骤33,进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID。
通过对不同帧进行跟踪,识别不同帧中的相同潜在动态对象(潜在动态对象即跟踪目标),并采用相同标识ID来标识相同潜在动态对象。
例如,多目标跟踪算法如图4所示,由卡尔曼滤波器匀速模型对上一帧跟踪结果Tt-1预测得到T't。其中,上一帧跟踪结果Tt-1包括上一帧中每个目标的标识ID、目标检测框Bbox以及每个目标内部点云信息,利用相邻两帧匀速模型假设,对上一帧跟踪结果Tt-1的预测得到当前帧坐标系下的预测结果T't,包括:每个目标的ID、目标检测框Bbox以及每个目标内部点云信息。
对当前帧的点云进行目标检测得到当前帧检测结果Dt,包括每个目标的检测框Bbox、以及检测结果的置信度。对当前帧检测结果Dt进行置信度筛选,得到两个等级的检测结果(高置信度检测结果低置信度检测结果/>)。其中,将当前帧检测结果的置信度与置信度阈值对比,大于阈值的检测结果为高置信度检测结果/>否则则为低置信度检测结果/>图4中,S>θ表示根据当前检测结果得分S和置信度阈值θ筛选出置信度高的检测结果和低置信度检测结果/>
数据关联是通过计算T't中N个预测结果与中M个检测结果之间的N×M代价矩阵进行,代价矩阵中每个元素D(i,j)由下式(2)计算,再由匈牙利算法得到匹配结果,确定前后同一物体,并附上相同的ID。
式中:i为第i个跟踪结果;j为第j个检测结果;D(i,j)表示第i个跟踪结果与第j个检测结果的加权距离值;dtype(i,j)表示不同类型的距离;βtype表示不同类型距离的权重;loc表示目标点云包络中心位置距离;dir表示目标朝向距离;bbox表示Bbox的尺寸距离;num表示Bbox内部点云数量距离;his表示Bbox内部点云分布直方图距离;shift表示Bbox中心偏移距离;iou表示Bbox空间交并比。
图4中还包括:在数据关联结束后,将匹配成功的跟踪框输入卡尔曼滤波更新模块,匹配失败的检测框进行航迹初始化,为了避免遮挡等原因造成低置信度检测结果的航迹匹配失败,将匹配失败的跟踪框/>再与低置信度检测结果/>进行数据关联,匹配成功的跟踪框/>输入卡尔曼滤波更新模块,最后删除匹配失败的航迹/>和低置信度目标由匹配失败高置信度目标/>和卡尔曼滤波更新结果组成当前帧跟踪结果Tt
步骤34,构建滑动窗口,其中存储多个连续帧下的激光雷达位姿1以及潜在动态对象。
多目跟踪结束后,构建如图5所示尺寸大小为k(即k帧)的滑动窗口,滑动窗口中存储着连续时间序列激光雷达位姿Tt,以及在每一帧激光雷达坐标系下跟踪到的潜在移动目标V表示当前帧跟踪成功的目标数。滑动窗口每插入一帧点云后,将该帧多目标跟踪结果Ot与滑动窗口历史帧结果进行同ID目标级间的数据关联。为了节省计算资源和提高计算速度,可以先利用Bbox几何约束由近及远快速去除高速动态目标。
Bbox几何约束计算公式如公式(3)所示:
公式(3)中,分别为滑动窗口中在t'时刻激光雷达坐标系下同ID目标检测框Bbox中心位置的差、目标检测框Bbox的交并比;/>为两帧各自雷达坐标系下ID一致的目标检测框Bbox中心坐标;Tt为t时刻激光雷达位姿,Tt-k为t-k时刻激光雷达位姿,/>为t'时刻激光雷达坐标系下两个目标检测框Bbox在XY平面上投影的交集和补集。
基于公式(3),通过距离阈值ψ和交并比阈值ζ筛选出高速动态目标,即满足和/>的潜在动态对象(即目标)为高速动态目标。
对于静态目标和低动态目标的筛选,首先提取每个目标内部特征点,将t时刻目标特征点由远到近投影至相应时刻激光雷达坐标系中,按公式(4)计算每个目标特征点与临近点/>的投影距离误差e2,e2是自由度为3的卡方分布。
其中,为滑动窗口中t-i时刻激光雷达坐标系下的特征点,/>为滑动窗口中t时刻激光雷达坐标系下的特征点,Tt为t时刻激光雷达在世界坐标系中的位姿,Tt-i为t-i时刻激光雷达在世界坐标系中的位姿,e2为特征点投影距离误差,是自由度为3的卡方分布;∈chi为自由度为3的卡方分布阈值。
对于每一个目标,统计该目标中距离误差大于阈值∈chi的特征点(动态特征点)个数,动态特征点数占所有特征点数的比例达到阈值例如80%以上则认为该目标是动态目标,否则被判为状态未确定目标,若同一目标连续预设数量例如15帧均判为状态未确定物体则认为目标属于静态目标,至此区分出动态目标、静态目标和状态未确定目标。
步骤35:执行点云配准2,获得激光雷达位姿2。
点云配准2包括:将步骤34中区分出的静态目标恢复至激光点云中,利用激光点云中的一般特征点和恢复后的静态物体特征点与局部特征地图匹配,得到更加准确的激光雷达位姿2。局部特征地图是选取当前帧最近的预设数量例如30个关键帧的边缘点特征地图和平面点特征地图组成。为了降低搜索运算量,边缘点特征地图和平面点特征地图均以3DKD-tree形式存储并分别进行更新和维护。为保证系统初始化成功和长时间稳定运行,初始10个普通帧设为关键帧,后续关键帧的筛选可以根据当前帧与最近关键帧之间的移动距离与角度确定。
步骤36:执行回环检测。
点云配准2结束后,对关键帧的原始点云提取描述子(Scan Context),并与历史关键帧的描述子对比计算相似度得分,得分超过一定阈值后即可认为回环检测成功。
为避免SLAM系统在长期或大场景的运行下容易产生累计误差且无法构建全局一致的轨迹和地图,回环检测成功后基于回环约束构建位姿图进行全局轨迹和地图的优化。全局优化结束后,利用优化后的位姿更新局部特征地图。全局静态地图的构建通过剔除原始点云中所有潜在动态对象,每间隔5个关键帧保存一次全局静态地图并滤波,在节省计算机资源前提下,确保最大程度的保存环境中的静态信息,以便于静态地图的长期使用和维护。
其中,基于回环约束构建位姿图进行全局轨迹和地图的优化包括:对回环检测成功的当前关键帧与回环关键帧之间的所有关键帧构建位姿图,添加当前关键帧和回环关键帧的回环约束,将激光里程计累计误差均匀分摊到每一关键帧中,从而得到消除累计误差的全局轨迹及其地图。
其中,利用优化后的位姿更新局部特征地图包括:局部地图是由最近的例如30帧关键帧的特征点组成,因此位姿更新后,需要用更新后的位姿拼接最近的30帧关键帧的特征点得到由边缘点特征地图和平面点特征地图组成的局部特征地图。
其中,全局静态地图的构建包括:剔除原始点云中所有潜在动态物体,每间隔若干例如5个关键帧保存一次全局静态地图并滤波。
需要说明,若当前帧是关键帧,执行回环检测,回环检测成功后基于回环约束构建位姿图进行全局轨迹和地图的优化;即使回环检测失败,仍然会保存静态地图。
本发明采用的技术方案,能有效提高自动驾驶车辆在各种环境下的适用性,并因为具有点云动态障碍物剔除模块,能够同时达到提高定位系统定位精度、稳定性的效果。
本发明提供一种融合目标检测和跟踪的激光SLAM定位设备,用于执行上述任一实施例和示例中的方法,如图6所示,该设备包括:通信器件61和处理器62,其中,
通信器件61,用于与其他设备进行通信;
处理器62,用于:
根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
其中,处理器62可以用于:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
其中,处理器62可以用于:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
其中,处理器62可以用于:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
其中,处理器62可以用于:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
在一个示例中,如图7所示,一种融合目标检测和跟踪的激光SLAM定位设备包括:激光雷达模块、数据存储模块和处理器,处理器中包括数据预处理模块、数据存储模块、位姿求解模块,动态目标去除模块、以及全局图优化模块之间紧密结合。
数据预处理模块用于采集原始激光雷达点云数据,过滤原始点云中的无效点云和近处点云后,输入至3D目标检测单元,获得当前帧点云中潜在动态物体的检测框信息。
数据存储模块用于存储数据,实现各模块间的数据交互。具体地说,数据存储模块用于实现处理器外接设备数据的本地化存储以及处理器各模块间交互数据的存储。该存储数据包括由激光雷达得到的点云原始点云信息,数据预处理模块过滤后的点云信息和潜在动态目标的检测结果,动态目标去除模块恢复出的静态物体点云信息,位姿求解模块的位姿信息、局部地图信息和每一帧点云描述子信息,还包括全局图优化模块的全局地图信息和全局轨迹信息。数据存储模块对数据进行的本地化存储,可以实现车辆作业时数据的可视化和作业后数据再分析,能够根据具体环境进行针对性求解,可以得到具有更高精度的全局一致静态地图和轨迹。
动态目标去除模块基于多目标跟踪和时序滑动窗口实现对每一帧点云中潜在动态物体的跟踪和运动状态判别,进而去除场景中的动态物体和恢复出静态物体信息,增加位姿求解模块的约束,提高定位精度。具体地说,动态目标去除模块包括多目标跟踪单元、滑动窗口运动检测单单元和静态对象恢复单元。
位姿求解模块基于局部特征地图的点云配准实现车辆位姿信息求解,为车辆提供直接稳定的定位信息。具体地说,位姿求解模块包括特征提取单元,点云配准单元以及关键帧筛选单元。
全局图优化模块用于实现全局一致的轨迹和静态地图的构建,保证车辆位姿的长期稳定性。具体地说,全局图优化模块包括回环检测单元、位姿图优化单元和全局地图单元。
车辆启动后,定位设备开始运行,处理器实时接收激光雷达模块采集的点云信息,数据预处里模块的数据采集单元接收原始点云信息并过滤无效点云和近处点云得到初始点云,初始点云输入至3D目标检测单元获得潜在动态物体检测框。动态目标去除模块和位姿求解模块接收到潜在动态物体检测框信息后并行运行,位姿求解模块在获取潜在移动对象掩码后对纯静态环境提取特征点,点云配准单元中分别利用“强特征点”进行点云配准1获取位姿初值,结合恢复的静态特征点和“一般特征点”进行点云配准2以获取更准确的定位,关键帧筛选单元根据里程计距离和角度筛选出关键帧;动态目标去除模块中跟踪每一帧潜在移动对象并将结果存入至滑动窗口中,对滑动窗口中跟踪序列进行运动检测后恢复静态对象;全局图优化模块的回环检测单元对当前关键帧提取特征描述子并于历史关键帧描述子对比判别回环检测成功,回环检测成功后进行位姿图优化构建全局一致的轨迹和静态全局地图。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种融合目标检测和跟踪的激光SLAM定位方法,其特征在于,包括:
步骤1,接收激光雷达传感器扫描到的原始激光点云信息,根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
步骤2,去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
步骤3,对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
步骤4,构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
步骤5,在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
2.根据权利要求1所述的融合目标检测和跟踪的激光SLAM定位方法,其特征在于,步骤5后还包括:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
3.根据权利要求2所述的融合目标检测和跟踪的激光SLAM定位方法,其特征在于,还包括:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
4.根据权利要求1所述的融合目标检测和跟踪的激光SLAM定位方法,其特征在于,步骤1包括:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
5.一种融合目标检测和跟踪的激光SLAM定位设备,其特征在于,包括:通信器件和处理器,其中,
通信器件,用于接收激光雷达传感器扫描到的原始激光点云信息;
处理器,用于:
根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
6.根据权利要求5所述的融合目标检测和跟踪的激光SLAM定位设备,其特征在于,处理器用于:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
7.根据权利要求6所述的激光SLAM定位设备,其特征在于,处理器用于:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
8.根据权利要求5所述的激光SLAM定位设备,其特征在于,处理器用于:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
CN202310025986.7A 2022-12-14 2023-01-09 一种融合目标检测和跟踪的激光slam定位方法及设备 Active CN116299500B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2022116065142 2022-12-14
CN202211606514 2022-12-14

Publications (2)

Publication Number Publication Date
CN116299500A CN116299500A (zh) 2023-06-23
CN116299500B true CN116299500B (zh) 2024-03-15

Family

ID=86794931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310025986.7A Active CN116299500B (zh) 2022-12-14 2023-01-09 一种融合目标检测和跟踪的激光slam定位方法及设备

Country Status (1)

Country Link
CN (1) CN116299500B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116977622A (zh) * 2023-09-22 2023-10-31 国汽(北京)智能网联汽车研究院有限公司 初始化定位方法及其装置、设备、介质
CN117495968B (zh) * 2024-01-02 2024-05-17 苏州中德睿博智能科技有限公司 基于3d激光雷达的移动机器人位姿跟踪方法及装置
CN118224980B (zh) * 2024-05-23 2024-07-23 烟台军诺智能科技有限公司 一种基于无线光通信的目标位姿测量方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258618A (zh) * 2020-11-04 2021-01-22 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法
CN112418288A (zh) * 2020-11-17 2021-02-26 武汉大学 一种基于gms和运动检测的动态视觉slam方法
CN113066105A (zh) * 2021-04-02 2021-07-02 北京理工大学 激光雷达和惯性测量单元融合的定位与建图方法及系统
CN113345018A (zh) * 2021-05-31 2021-09-03 湖南大学 一种动态场景下的激光单目视觉融合定位建图方法
CN113781582A (zh) * 2021-09-18 2021-12-10 四川大学 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN113885046A (zh) * 2021-09-26 2022-01-04 天津大学 针对低纹理车库的智能网联汽车激光雷达定位系统及方法
CN115272596A (zh) * 2022-07-08 2022-11-01 同济大学 一种面向单调无纹理大场景的多传感器融合slam方法
CN115343722A (zh) * 2022-07-07 2022-11-15 东南大学 一种大范围场景下基于回环检测的激光雷达slam方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926514A (zh) * 2021-03-26 2021-06-08 哈尔滨工业大学(威海) 一种多目标检测及跟踪方法、系统、存储介质及应用

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法
CN112258618A (zh) * 2020-11-04 2021-01-22 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法
CN112418288A (zh) * 2020-11-17 2021-02-26 武汉大学 一种基于gms和运动检测的动态视觉slam方法
CN113066105A (zh) * 2021-04-02 2021-07-02 北京理工大学 激光雷达和惯性测量单元融合的定位与建图方法及系统
CN113345018A (zh) * 2021-05-31 2021-09-03 湖南大学 一种动态场景下的激光单目视觉融合定位建图方法
CN113781582A (zh) * 2021-09-18 2021-12-10 四川大学 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN113885046A (zh) * 2021-09-26 2022-01-04 天津大学 针对低纹理车库的智能网联汽车激光雷达定位系统及方法
CN115343722A (zh) * 2022-07-07 2022-11-15 东南大学 一种大范围场景下基于回环检测的激光雷达slam方法
CN115272596A (zh) * 2022-07-08 2022-11-01 同济大学 一种面向单调无纹理大场景的多传感器融合slam方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于3D激光雷达的无人水面艇海上目标检测;李小毛;张鑫;王文涛;瞿栋;祝川;;上海大学学报(自然科学版);20170228(第01期);第27-36页 *
基于激光点云全局特征匹配处理的目标跟踪算法;钱其姝;胡以华;赵楠翔;李敏乐;邵福才;;激光与光电子学进展(第06期);第061012-1至061012-8页 *
融合激光与视觉点云信息的定位与建图方法;张伟伟;陈超;徐军;;计算机应用与软件(第07期);第114-119页 *

Also Published As

Publication number Publication date
CN116299500A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN116299500B (zh) 一种融合目标检测和跟踪的激光slam定位方法及设备
CN111583369B (zh) 一种基于面线角点特征提取的激光slam方法
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
CN115372958A (zh) 一种基于毫米波雷达和单目视觉融合的目标检测和跟踪方法
CN111611853B (zh) 一种传感信息融合方法、装置及存储介质
CN113223045B (zh) 基于动态物体语义分割的视觉与imu传感器融合定位系统
Muresan et al. Multi-object tracking of 3D cuboids using aggregated features
JP2016057750A (ja) 自車走行レーン推定装置及びプログラム
CN114359476A (zh) 一种用于城市峡谷环境导航的动态3d城市模型构建方法
CN112037268B (zh) 一种动态场景下的基于概率传递模型的环境感知方法
Rodriguez et al. An embedded multi-modal system for object localization and tracking
CN115249349A (zh) 一种点云去噪方法、电子设备及存储介质
Gies et al. Environment perception framework fusing multi-object tracking, dynamic occupancy grid maps and digital maps
CN115388902A (zh) 室内定位方法和系统、ar室内定位导航方法和系统
Schütz et al. Multiple extended objects tracking with object-local occupancy grid maps
CN113077495B (zh) 在线多目标跟踪方法、系统、计算机设备及可读存储介质
CN118037790A (zh) 一种点云处理方法、装置、计算机设备及存储介质
Meuter et al. 3D traffic sign tracking using a particle filter
Hu et al. A novel lidar inertial odometry with moving object detection for dynamic scenes
Keller et al. Dense stereo-based roi generation for pedestrian detection
Aguilar et al. Enhanced GM-PHD filter for real time satellite multi-target tracking
Zeng et al. Entropy-based Keyframe Established and Accelerated Fast LiDAR Odometry and Mapping
Gehrig et al. A multi-cue approach for stereo-based object confidence estimation
Tamjidi et al. A pose estimation method for unmanned ground vehicles in GPS denied environments
Azim 3D perception of outdoor and dynamic environment using laser scanner

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant