CN116299500B - 一种融合目标检测和跟踪的激光slam定位方法及设备 - Google Patents
一种融合目标检测和跟踪的激光slam定位方法及设备 Download PDFInfo
- Publication number
- CN116299500B CN116299500B CN202310025986.7A CN202310025986A CN116299500B CN 116299500 B CN116299500 B CN 116299500B CN 202310025986 A CN202310025986 A CN 202310025986A CN 116299500 B CN116299500 B CN 116299500B
- Authority
- CN
- China
- Prior art keywords
- laser
- feature points
- map
- points
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000003068 static effect Effects 0.000 claims abstract description 69
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 238000011084 recovery Methods 0.000 claims abstract description 7
- 238000005457 optimization Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 6
- 230000004807 localization Effects 0.000 claims description 4
- 238000012216 screening Methods 0.000 abstract description 10
- 239000011159 matrix material Substances 0.000 description 10
- 238000001914 filtration Methods 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种融合目标检测和跟踪的激光SLAM定位方法及设备,该方法包括:接收激光雷达传感器扫描到的原始激光点云信息,获取当前雷达坐标系下的潜在动态对象;去除潜在动态对象后,提取边缘特征点和平面特征点,从中筛选出强特征点和一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;通过滑动窗口法判断当前帧中潜在动态对象是动态目标、状态未确定目标或静态目标;在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
Description
技术领域
本发明涉及无人驾驶技术领域,特别是关于一种融合目标检测和跟踪的激光SLAM定位方法及设备。
背景技术
高精度、高可靠性的定位方法是当前乃至未来无人驾驶汽车的重要需求。目前高精度全球导航卫星系统(Global Navigation Satellite System,GNSS)是室外环境下常用的定位方法,但是GNSS在城市道路下受高楼、隧道、树木遮挡,以及湖泊附近多路径效应的存在,导致GNSS信号跳变而解算出不正确或者偏差较大的位姿。近年来一种搭载特定传感器实现自主定位源的方法应运而生,即同步定位与建图技术(simultaneous localizationand mapping,SLAM),SLAM技术能够使运载设备完成对周围环境的地图构建并估计出地图中自身位姿。
现有的激光SLAM算法可以在静态环境假设下稳定运行且定位精度高,而在高速公路、繁忙的城市道路等动态场景中由于缺乏对动态物体的处理而性能变差。然而,道路交通往往是一个动态化环境,运动的车辆、行人已经临时停靠车辆等各种交通参与者会随着时间产生位置变化,这些动态物体对激光SLAM技术的影响主要是在两个方面,一方面是数据关联,移动物体上的点云数据很难在参考帧或者参考地图中找到对应点,特别是在高动态场景下,大量点云在移动物体上使得点云配准失败,导致定位精度恶化,另一方面是地图的构建,动态环境下构建的点云地图往往会充斥着大量由移动物体引起点云重影,这些重影将会影响后续基于全局地图的定位或基于地图的路径规划的准确性。
激光SLAM目前已在自动驾驶车辆领域得到应用,滤除场景中动态物的方法主要分为三大类:基于体素网格的方法、基于视点可见性的方法和基于点云分割的方法,仍存在一定问题,归纳如下:(1)依赖静态点数高占比。基于体素网格的方法和基于视点可见性方法需要在静态点数占优的情况下计算出较准确的传感器位姿,并根据位姿去除动态点,这与SLAM目的是相违背的,当场景中动态点云数占比更大时候,往往不能得出准确的位姿,也就无法有效去除动态点;(2)数据关联鲁棒性低和过度去除特征点。基于视点可见性方法由于初始位姿精度低容易在物体边缘处造成动态点的漏检和误检。基于点云分割的方法存在过度去除可利用的低动态对象,如在非结构化场景中,为了防止SLAM算法退化,人、车等潜在动态物低速运动时,其特征点是可以用于点云配准计算位姿的;(3)实时性低。基于体素网格方法中栅格地图的构建和维护需要消耗大量的内存和计算资源。为了保证点云分割结果的精度,大多数语义分割方法的网络架构复杂,每帧点云的网络推理时间高达几百毫秒,难以保证SLAM系统实时性的要求。
为了解决上述提到的问题,亟待一种提高动态场景下自动驾驶车辆实时激光SLAM系统的稳定性与准确性的技术。
发明内容
本发明的目的在于提供一种融合目标检测和跟踪的激光SLAM定位方法及设备,来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种融合目标检测和跟踪的激光SLAM定位方法,包括:
步骤1,接收激光雷达传感器扫描到的原始激光点云信息,根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
步骤2,去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
步骤3,对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
步骤4,构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
步骤5,在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
优选的,步骤5后还包括:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
优选的,还包括:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
优选的,步骤1包括:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
优选的,步骤2包括:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
本发明还提供一种融合目标检测和跟踪的激光SLAM定位设备,其特征在于,包括:通信器件和处理器,其中,
通信器件,用于接收激光雷达传感器扫描到的原始激光点云信息;
处理器,用于:
根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
优选的,处理器用于:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
优选的,处理器用于:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
优选的,处理器用于:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
优选的,处理器用于:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
本发明由于采取以上技术方案,其具有以下优点:
本发明采用的技术方案,能有效提高自动驾驶车辆在各种环境下的适用性,并因为具有点云动态障碍物剔除模块,能够同时达到提高定位系统定位精度、稳定性的效果。
附图说明
图1为本发明实施例提供的一种融合目标检测和跟踪的激光SLAM定位方法的流程示意图。
图2为本发明的提供的一种融合目标检测和跟踪的激光SLAM定位方法所应用的激光SLAM系统的示例的示意图。
图3示出本发明实施例提供的一种融合目标检测和跟踪的激光SLAM定位方法的流程示意图。
图4示出本发明实施例提供的多目标跟踪算法的示意图。
图5示出本发明实施例提供的融合目标检测和跟踪的激光SLAM定位方法中判断目标种类的滑动窗口示意图。
图6示出本发明实施例提供一种融合目标检测和跟踪的激光SLAM定位设备的结构示意图。
图7示出本发明一示例中一种融合目标检测和跟踪的激光SLAM定位设备的结构示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
在不冲突的情况下,本发明各实施例及各实施方式中的技术特征可以相互组合,并不局限于该技术特征所在的实施例或实施方式中。
下面结合附图以及具体实施例对本发明做进一步的说明,需要指出的是,下面仅以一种最优化的技术方案对本发明的技术方案以及设计原理进行详细阐述,但本发明的保护范围并不仅限于此。
本文涉及下列术语,为便于理解,对其含义说明如下。本领域技术人员应当理解,下列术语也可能有其它名称,但在不脱离其含义的情形下,其它任何名称都应当被认为与本文所列术语一致。
本发明实施例提供一种融合目标检测和跟踪的激光SLAM定位方法,如图1所示,包括:
步骤1,接收激光雷达传感器扫描到的原始激光点云信息,根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象。
步骤2,去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图。
步骤3,对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID。
步骤4,构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标。例如,对于当前帧的潜在动态物体,在滑动窗口中由近及远地构建检测框几何约束快速去除高速动态目标。对于静态目标和低动态目标的筛选,统计每一个潜在动态对象中动态特征点数,若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标。其中,所谓高速动态目标,指的是检测框在连续帧中的移动速度超过阈值的动态目标。例如可以动态目标的检测框的中心计算其移动速度,确定动态目标是否属于高速动态目标。
步骤5,在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
其中,步骤5后还可以包括:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
该方法还可以包括:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
其中,步骤1可以包括:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
其中,步骤2可以包括:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
下面通过具体实施例说明本发明提供的融合目标检测和跟踪的激光SLAM定位方法。
图2为本发明的提供的一种融合目标检测和跟踪的激光SLAM定位方法所应用的激光SLAM系统的示例,包括:
点云预处理模块:过滤激光原始点云中的近处点和无效点后输入到目标检测网络,例如PointPillars网络,得到原始点云坐标系下目标对象的3D检测框;
激光里程计模块:获取潜在移动对象掩码后对纯静态环境提取特征点,利用强特征点进行点云配准1获取位姿初值,结合恢复的静态特征点和一般特征点进行点云配准2以获取更准确的定位,并筛选关键帧和回环检测;
动态目标去除模块:与激光里程计模块并行运行,跟踪每一帧潜在移动对象并将结果存入至滑动窗口中,对滑动窗口中跟踪序列进行运动检测后恢复静态对象;
全局图优化模块:基于关键帧构建局部地图,并在回环检测成功后进行位姿图优化构建全局一致的轨迹和静态全局地图。
图3示出本发明实施例提供的一种融合目标检测和跟踪的激光SLAM定位方法的流程示意图。如图3所示,该方法包括:
步骤31,获取原始激光点云信息,去除自身车辆上点云和无效点云得到初始点云,将初始点云输入至目标检测网络,该目标检测网络包括但不限于PointPillars网络,获取当前雷达坐标系下潜在动态对象的检测框。也可以同时获取检测框及其内部点云数据。
其中,通过如下方式获取原始激光点云信息:激光雷达传感器将扫描周围环境点云信息传输至处理器并存储点云信息,数据预处理模块读取存储器模块中原始点云数据。其中,根据如下方式判断是否属于自身车辆上点云和无效点云:在原始点云中,判断激光点离坐标原点的距离是否小于阈值例如2.5m,若小于,则判断为近处点去除;若激光点离坐标原点的距离大于阈值例如100m,则判断为无效点去除。若激光点离坐标原点的距离无穷小,也被判断为无效点。
步骤32,根据初始点云的空间曲率信息,提取除潜在动态对象掩码外的边缘点和平面点,并利用主成分分析方法筛选出线特征和面特征更强的边缘点和平面点,通过强特征点与局部特征地图进行点云配准1,获得激光雷达位姿1。
如下式,对每个特征点pi寻找满足距离阈值的(δ<6m)最近5个特征点,并计算其重心构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标分别为σ1D、σ2D。
本发明中,选取距离阈值的最近5个特征点,其中阈值也可以设置其他值,例如设置δ<7m,也可以选取距离阈值的最近n个特征点,n可以为5以外的值例如6,本文对此不做限制。
本发明中,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,并剔除σ1D、σ2D小于0.3的弱特征点,剩余特征点为一般特征点。容易理解,0.9和0.3的取值仅为示例,也可以选取其它值。
得到强特征点后,点云配准1是通过强特征点与局部特征地图匹配获取较为准确的里程计位姿1(或者说激光雷达位姿1),既保证多目标跟踪的准确性又加速了点云配准2的收敛速度,随后等待动态目标去除模块的处理结果。
其中,利用点云配准1获取较为准确的里程计位姿1的具体过程包括:通过筛选出的强特征点与局部特征地图进行匹配,具体匹配过程包括:强特征点的边缘点与局部边缘点特征地图进行点到点的ICP匹配,强特征点的平面点与局部平面点特征地图进行点到平面距离的最小化匹配。其中,局部特征地图是通过对历史关键帧中的边缘点特征地图和平面点特征地图进行组合得到。例如,选取距离当前帧最近的预设数量(例如30个)关键帧的边缘点特征地图和平面点特征地图组成局部特征地图。为了降低搜索运算量,边缘点特征地图和平面点特征地图均以3D KD-tree(k维树)形式存储并分别进行更新和维护。
步骤33,进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID。
通过对不同帧进行跟踪,识别不同帧中的相同潜在动态对象(潜在动态对象即跟踪目标),并采用相同标识ID来标识相同潜在动态对象。
例如,多目标跟踪算法如图4所示,由卡尔曼滤波器匀速模型对上一帧跟踪结果Tt-1预测得到T't。其中,上一帧跟踪结果Tt-1包括上一帧中每个目标的标识ID、目标检测框Bbox以及每个目标内部点云信息,利用相邻两帧匀速模型假设,对上一帧跟踪结果Tt-1的预测得到当前帧坐标系下的预测结果T't,包括:每个目标的ID、目标检测框Bbox以及每个目标内部点云信息。
对当前帧的点云进行目标检测得到当前帧检测结果Dt,包括每个目标的检测框Bbox、以及检测结果的置信度。对当前帧检测结果Dt进行置信度筛选,得到两个等级的检测结果(高置信度检测结果低置信度检测结果/>)。其中,将当前帧检测结果的置信度与置信度阈值对比,大于阈值的检测结果为高置信度检测结果/>否则则为低置信度检测结果/>图4中,S>θ表示根据当前检测结果得分S和置信度阈值θ筛选出置信度高的检测结果和低置信度检测结果/>
数据关联是通过计算T't中N个预测结果与中M个检测结果之间的N×M代价矩阵进行,代价矩阵中每个元素D(i,j)由下式(2)计算,再由匈牙利算法得到匹配结果,确定前后同一物体,并附上相同的ID。
式中:i为第i个跟踪结果;j为第j个检测结果;D(i,j)表示第i个跟踪结果与第j个检测结果的加权距离值;dtype(i,j)表示不同类型的距离;βtype表示不同类型距离的权重;loc表示目标点云包络中心位置距离;dir表示目标朝向距离;bbox表示Bbox的尺寸距离;num表示Bbox内部点云数量距离;his表示Bbox内部点云分布直方图距离;shift表示Bbox中心偏移距离;iou表示Bbox空间交并比。
图4中还包括:在数据关联结束后,将匹配成功的跟踪框输入卡尔曼滤波更新模块,匹配失败的检测框进行航迹初始化,为了避免遮挡等原因造成低置信度检测结果的航迹匹配失败,将匹配失败的跟踪框/>再与低置信度检测结果/>进行数据关联,匹配成功的跟踪框/>输入卡尔曼滤波更新模块,最后删除匹配失败的航迹/>和低置信度目标由匹配失败高置信度目标/>和卡尔曼滤波更新结果组成当前帧跟踪结果Tt。
步骤34,构建滑动窗口,其中存储多个连续帧下的激光雷达位姿1以及潜在动态对象。
多目跟踪结束后,构建如图5所示尺寸大小为k(即k帧)的滑动窗口,滑动窗口中存储着连续时间序列激光雷达位姿Tt,以及在每一帧激光雷达坐标系下跟踪到的潜在移动目标V表示当前帧跟踪成功的目标数。滑动窗口每插入一帧点云后,将该帧多目标跟踪结果Ot与滑动窗口历史帧结果进行同ID目标级间的数据关联。为了节省计算资源和提高计算速度,可以先利用Bbox几何约束由近及远快速去除高速动态目标。
Bbox几何约束计算公式如公式(3)所示:
公式(3)中,分别为滑动窗口中在t'时刻激光雷达坐标系下同ID目标检测框Bbox中心位置的差、目标检测框Bbox的交并比;/>为两帧各自雷达坐标系下ID一致的目标检测框Bbox中心坐标;Tt为t时刻激光雷达位姿,Tt-k为t-k时刻激光雷达位姿,/>为t'时刻激光雷达坐标系下两个目标检测框Bbox在XY平面上投影的交集和补集。
基于公式(3),通过距离阈值ψ和交并比阈值ζ筛选出高速动态目标,即满足和/>的潜在动态对象(即目标)为高速动态目标。
对于静态目标和低动态目标的筛选,首先提取每个目标内部特征点,将t时刻目标特征点由远到近投影至相应时刻激光雷达坐标系中,按公式(4)计算每个目标特征点与临近点/>的投影距离误差e2,e2是自由度为3的卡方分布。
其中,为滑动窗口中t-i时刻激光雷达坐标系下的特征点,/>为滑动窗口中t时刻激光雷达坐标系下的特征点,Tt为t时刻激光雷达在世界坐标系中的位姿,Tt-i为t-i时刻激光雷达在世界坐标系中的位姿,e2为特征点投影距离误差,是自由度为3的卡方分布;∈chi为自由度为3的卡方分布阈值。
对于每一个目标,统计该目标中距离误差大于阈值∈chi的特征点(动态特征点)个数,动态特征点数占所有特征点数的比例达到阈值例如80%以上则认为该目标是动态目标,否则被判为状态未确定目标,若同一目标连续预设数量例如15帧均判为状态未确定物体则认为目标属于静态目标,至此区分出动态目标、静态目标和状态未确定目标。
步骤35:执行点云配准2,获得激光雷达位姿2。
点云配准2包括:将步骤34中区分出的静态目标恢复至激光点云中,利用激光点云中的一般特征点和恢复后的静态物体特征点与局部特征地图匹配,得到更加准确的激光雷达位姿2。局部特征地图是选取当前帧最近的预设数量例如30个关键帧的边缘点特征地图和平面点特征地图组成。为了降低搜索运算量,边缘点特征地图和平面点特征地图均以3DKD-tree形式存储并分别进行更新和维护。为保证系统初始化成功和长时间稳定运行,初始10个普通帧设为关键帧,后续关键帧的筛选可以根据当前帧与最近关键帧之间的移动距离与角度确定。
步骤36:执行回环检测。
点云配准2结束后,对关键帧的原始点云提取描述子(Scan Context),并与历史关键帧的描述子对比计算相似度得分,得分超过一定阈值后即可认为回环检测成功。
为避免SLAM系统在长期或大场景的运行下容易产生累计误差且无法构建全局一致的轨迹和地图,回环检测成功后基于回环约束构建位姿图进行全局轨迹和地图的优化。全局优化结束后,利用优化后的位姿更新局部特征地图。全局静态地图的构建通过剔除原始点云中所有潜在动态对象,每间隔5个关键帧保存一次全局静态地图并滤波,在节省计算机资源前提下,确保最大程度的保存环境中的静态信息,以便于静态地图的长期使用和维护。
其中,基于回环约束构建位姿图进行全局轨迹和地图的优化包括:对回环检测成功的当前关键帧与回环关键帧之间的所有关键帧构建位姿图,添加当前关键帧和回环关键帧的回环约束,将激光里程计累计误差均匀分摊到每一关键帧中,从而得到消除累计误差的全局轨迹及其地图。
其中,利用优化后的位姿更新局部特征地图包括:局部地图是由最近的例如30帧关键帧的特征点组成,因此位姿更新后,需要用更新后的位姿拼接最近的30帧关键帧的特征点得到由边缘点特征地图和平面点特征地图组成的局部特征地图。
其中,全局静态地图的构建包括:剔除原始点云中所有潜在动态物体,每间隔若干例如5个关键帧保存一次全局静态地图并滤波。
需要说明,若当前帧是关键帧,执行回环检测,回环检测成功后基于回环约束构建位姿图进行全局轨迹和地图的优化;即使回环检测失败,仍然会保存静态地图。
本发明采用的技术方案,能有效提高自动驾驶车辆在各种环境下的适用性,并因为具有点云动态障碍物剔除模块,能够同时达到提高定位系统定位精度、稳定性的效果。
本发明提供一种融合目标检测和跟踪的激光SLAM定位设备,用于执行上述任一实施例和示例中的方法,如图6所示,该设备包括:通信器件61和处理器62,其中,
通信器件61,用于与其他设备进行通信;
处理器62,用于:
根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
其中,处理器62可以用于:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
其中,处理器62可以用于:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
其中,处理器62可以用于:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
其中,处理器62可以用于:
对每个特征点pi选择满足距离阈值的最近的5个特征点,计算特征点pi和5个特征点的重心并构建协方差矩阵C,对协方差矩阵特征分解得到由大到小的特征向量λ1、λ2、λ3,并计算线性性和平面性评价指标σ1D、σ2D,选取σ1D>0.9的边缘点和σ2D>0.9平面点作为强特征点,剔除σ1D、σ2D小于0.3特征点,剩余特征点为一般特征点;其中:
在一个示例中,如图7所示,一种融合目标检测和跟踪的激光SLAM定位设备包括:激光雷达模块、数据存储模块和处理器,处理器中包括数据预处理模块、数据存储模块、位姿求解模块,动态目标去除模块、以及全局图优化模块之间紧密结合。
数据预处理模块用于采集原始激光雷达点云数据,过滤原始点云中的无效点云和近处点云后,输入至3D目标检测单元,获得当前帧点云中潜在动态物体的检测框信息。
数据存储模块用于存储数据,实现各模块间的数据交互。具体地说,数据存储模块用于实现处理器外接设备数据的本地化存储以及处理器各模块间交互数据的存储。该存储数据包括由激光雷达得到的点云原始点云信息,数据预处理模块过滤后的点云信息和潜在动态目标的检测结果,动态目标去除模块恢复出的静态物体点云信息,位姿求解模块的位姿信息、局部地图信息和每一帧点云描述子信息,还包括全局图优化模块的全局地图信息和全局轨迹信息。数据存储模块对数据进行的本地化存储,可以实现车辆作业时数据的可视化和作业后数据再分析,能够根据具体环境进行针对性求解,可以得到具有更高精度的全局一致静态地图和轨迹。
动态目标去除模块基于多目标跟踪和时序滑动窗口实现对每一帧点云中潜在动态物体的跟踪和运动状态判别,进而去除场景中的动态物体和恢复出静态物体信息,增加位姿求解模块的约束,提高定位精度。具体地说,动态目标去除模块包括多目标跟踪单元、滑动窗口运动检测单单元和静态对象恢复单元。
位姿求解模块基于局部特征地图的点云配准实现车辆位姿信息求解,为车辆提供直接稳定的定位信息。具体地说,位姿求解模块包括特征提取单元,点云配准单元以及关键帧筛选单元。
全局图优化模块用于实现全局一致的轨迹和静态地图的构建,保证车辆位姿的长期稳定性。具体地说,全局图优化模块包括回环检测单元、位姿图优化单元和全局地图单元。
车辆启动后,定位设备开始运行,处理器实时接收激光雷达模块采集的点云信息,数据预处里模块的数据采集单元接收原始点云信息并过滤无效点云和近处点云得到初始点云,初始点云输入至3D目标检测单元获得潜在动态物体检测框。动态目标去除模块和位姿求解模块接收到潜在动态物体检测框信息后并行运行,位姿求解模块在获取潜在移动对象掩码后对纯静态环境提取特征点,点云配准单元中分别利用“强特征点”进行点云配准1获取位姿初值,结合恢复的静态特征点和“一般特征点”进行点云配准2以获取更准确的定位,关键帧筛选单元根据里程计距离和角度筛选出关键帧;动态目标去除模块中跟踪每一帧潜在移动对象并将结果存入至滑动窗口中,对滑动窗口中跟踪序列进行运动检测后恢复静态对象;全局图优化模块的回环检测单元对当前关键帧提取特征描述子并于历史关键帧描述子对比判别回环检测成功,回环检测成功后进行位姿图优化构建全局一致的轨迹和静态全局地图。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种融合目标检测和跟踪的激光SLAM定位方法,其特征在于,包括:
步骤1,接收激光雷达传感器扫描到的原始激光点云信息,根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
步骤2,去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
步骤3,对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
步骤4,构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
步骤5,在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
2.根据权利要求1所述的融合目标检测和跟踪的激光SLAM定位方法,其特征在于,步骤5后还包括:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
3.根据权利要求2所述的融合目标检测和跟踪的激光SLAM定位方法,其特征在于,还包括:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
4.根据权利要求1所述的融合目标检测和跟踪的激光SLAM定位方法,其特征在于,步骤1包括:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
5.一种融合目标检测和跟踪的激光SLAM定位设备,其特征在于,包括:通信器件和处理器,其中,
通信器件,用于接收激光雷达传感器扫描到的原始激光点云信息;
处理器,用于:
根据预设条件去除自身车辆上激光点和无效激光点后得到初始点云,获取当前雷达坐标系下的潜在动态对象;
去除潜在动态对象后,根据初始点云的空间曲率信息,提取边缘特征点和平面特征点,从中筛选出满足预设条件的特征点作为强特征点,剩余特征点为一般特征点,使用强特征点与局部特征地图进行第一次点云配准,得到初始激光雷达位姿;其中,局部特征地图包括预设数量的关键帧的边缘特征点地图和平面特征点地图;
对潜在动态对象进行多目标跟踪,为不同帧中同一潜在动态对象附上相同的标识ID;
构建滑动窗口,滑动窗口中存储多个连续帧下的初始激光雷达位姿以及潜在动态对象;对于当前帧,在滑动窗口中构建潜在动态对象的检测框,根据同一潜在动态对象的检测框在连续帧中的位置变化确定满足预设条件的高速动态目标;对于其他潜在动态对象,统计每一个潜在动态对象中动态特征点数:若动态特征点数占所有特征点数达到阈值,则判断潜在动态对象是动态目标,否则判断潜在动态对象是状态未确定目标,若潜在动态对象在连续预设数量帧内均为状态未确定目标,则判断潜在动态对象是静态目标;
在初始点云中恢复静态目标的特征点,利用一般特征点和恢复后的静态目标特征点与局部特征地图匹配,得到激光雷达位姿。
6.根据权利要求5所述的融合目标检测和跟踪的激光SLAM定位设备,其特征在于,处理器用于:
判断当前帧是否是关键帧,若是,且与上一次保存静态地图相差预设数量的关键帧,则基于当前帧生成静态地图,插入全局静态地图。
7.根据权利要求6所述的激光SLAM定位设备,其特征在于,处理器用于:
若当前帧是关键帧,执行回环检测,并在回环检测成功后进行全局轨迹和地图的优化,全局优化结束后,利用优化后的位姿更新局部特征地图。
8.根据权利要求5所述的激光SLAM定位设备,其特征在于,处理器用于:
对于原始激光点云,判断激光点与坐标原点的距离是否小于第一阈值,若小于,则判断激光点为自身车辆上激光点;判断激光点与坐标原点的距离是否大于第二阈值,若大于,则判断激光点为无效点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2022116065142 | 2022-12-14 | ||
CN202211606514 | 2022-12-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116299500A CN116299500A (zh) | 2023-06-23 |
CN116299500B true CN116299500B (zh) | 2024-03-15 |
Family
ID=86794931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310025986.7A Active CN116299500B (zh) | 2022-12-14 | 2023-01-09 | 一种融合目标检测和跟踪的激光slam定位方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116299500B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116977622A (zh) * | 2023-09-22 | 2023-10-31 | 国汽(北京)智能网联汽车研究院有限公司 | 初始化定位方法及其装置、设备、介质 |
CN117495968B (zh) * | 2024-01-02 | 2024-05-17 | 苏州中德睿博智能科技有限公司 | 基于3d激光雷达的移动机器人位姿跟踪方法及装置 |
CN118224980B (zh) * | 2024-05-23 | 2024-07-23 | 烟台军诺智能科技有限公司 | 一种基于无线光通信的目标位姿测量方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258618A (zh) * | 2020-11-04 | 2021-01-22 | 中国科学院空天信息创新研究院 | 基于先验激光点云与深度图融合的语义建图与定位方法 |
CN112258600A (zh) * | 2020-10-19 | 2021-01-22 | 浙江大学 | 一种基于视觉与激光雷达的同时定位与地图构建方法 |
CN112418288A (zh) * | 2020-11-17 | 2021-02-26 | 武汉大学 | 一种基于gms和运动检测的动态视觉slam方法 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113345018A (zh) * | 2021-05-31 | 2021-09-03 | 湖南大学 | 一种动态场景下的激光单目视觉融合定位建图方法 |
CN113781582A (zh) * | 2021-09-18 | 2021-12-10 | 四川大学 | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 |
CN113885046A (zh) * | 2021-09-26 | 2022-01-04 | 天津大学 | 针对低纹理车库的智能网联汽车激光雷达定位系统及方法 |
CN115272596A (zh) * | 2022-07-08 | 2022-11-01 | 同济大学 | 一种面向单调无纹理大场景的多传感器融合slam方法 |
CN115343722A (zh) * | 2022-07-07 | 2022-11-15 | 东南大学 | 一种大范围场景下基于回环检测的激光雷达slam方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926514A (zh) * | 2021-03-26 | 2021-06-08 | 哈尔滨工业大学(威海) | 一种多目标检测及跟踪方法、系统、存储介质及应用 |
-
2023
- 2023-01-09 CN CN202310025986.7A patent/CN116299500B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258600A (zh) * | 2020-10-19 | 2021-01-22 | 浙江大学 | 一种基于视觉与激光雷达的同时定位与地图构建方法 |
CN112258618A (zh) * | 2020-11-04 | 2021-01-22 | 中国科学院空天信息创新研究院 | 基于先验激光点云与深度图融合的语义建图与定位方法 |
CN112418288A (zh) * | 2020-11-17 | 2021-02-26 | 武汉大学 | 一种基于gms和运动检测的动态视觉slam方法 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113345018A (zh) * | 2021-05-31 | 2021-09-03 | 湖南大学 | 一种动态场景下的激光单目视觉融合定位建图方法 |
CN113781582A (zh) * | 2021-09-18 | 2021-12-10 | 四川大学 | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 |
CN113885046A (zh) * | 2021-09-26 | 2022-01-04 | 天津大学 | 针对低纹理车库的智能网联汽车激光雷达定位系统及方法 |
CN115343722A (zh) * | 2022-07-07 | 2022-11-15 | 东南大学 | 一种大范围场景下基于回环检测的激光雷达slam方法 |
CN115272596A (zh) * | 2022-07-08 | 2022-11-01 | 同济大学 | 一种面向单调无纹理大场景的多传感器融合slam方法 |
Non-Patent Citations (3)
Title |
---|
基于3D激光雷达的无人水面艇海上目标检测;李小毛;张鑫;王文涛;瞿栋;祝川;;上海大学学报(自然科学版);20170228(第01期);第27-36页 * |
基于激光点云全局特征匹配处理的目标跟踪算法;钱其姝;胡以华;赵楠翔;李敏乐;邵福才;;激光与光电子学进展(第06期);第061012-1至061012-8页 * |
融合激光与视觉点云信息的定位与建图方法;张伟伟;陈超;徐军;;计算机应用与软件(第07期);第114-119页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116299500A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116299500B (zh) | 一种融合目标检测和跟踪的激光slam定位方法及设备 | |
CN111583369B (zh) | 一种基于面线角点特征提取的激光slam方法 | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
CN115372958A (zh) | 一种基于毫米波雷达和单目视觉融合的目标检测和跟踪方法 | |
CN111611853B (zh) | 一种传感信息融合方法、装置及存储介质 | |
CN113223045B (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
Muresan et al. | Multi-object tracking of 3D cuboids using aggregated features | |
JP2016057750A (ja) | 自車走行レーン推定装置及びプログラム | |
CN114359476A (zh) | 一种用于城市峡谷环境导航的动态3d城市模型构建方法 | |
CN112037268B (zh) | 一种动态场景下的基于概率传递模型的环境感知方法 | |
Rodriguez et al. | An embedded multi-modal system for object localization and tracking | |
CN115249349A (zh) | 一种点云去噪方法、电子设备及存储介质 | |
Gies et al. | Environment perception framework fusing multi-object tracking, dynamic occupancy grid maps and digital maps | |
CN115388902A (zh) | 室内定位方法和系统、ar室内定位导航方法和系统 | |
Schütz et al. | Multiple extended objects tracking with object-local occupancy grid maps | |
CN113077495B (zh) | 在线多目标跟踪方法、系统、计算机设备及可读存储介质 | |
CN118037790A (zh) | 一种点云处理方法、装置、计算机设备及存储介质 | |
Meuter et al. | 3D traffic sign tracking using a particle filter | |
Hu et al. | A novel lidar inertial odometry with moving object detection for dynamic scenes | |
Keller et al. | Dense stereo-based roi generation for pedestrian detection | |
Aguilar et al. | Enhanced GM-PHD filter for real time satellite multi-target tracking | |
Zeng et al. | Entropy-based Keyframe Established and Accelerated Fast LiDAR Odometry and Mapping | |
Gehrig et al. | A multi-cue approach for stereo-based object confidence estimation | |
Tamjidi et al. | A pose estimation method for unmanned ground vehicles in GPS denied environments | |
Azim | 3D perception of outdoor and dynamic environment using laser scanner |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |