CN113947636B - 一种基于深度学习的激光slam定位系统及方法 - Google Patents

一种基于深度学习的激光slam定位系统及方法 Download PDF

Info

Publication number
CN113947636B
CN113947636B CN202111223949.4A CN202111223949A CN113947636B CN 113947636 B CN113947636 B CN 113947636B CN 202111223949 A CN202111223949 A CN 202111223949A CN 113947636 B CN113947636 B CN 113947636B
Authority
CN
China
Prior art keywords
pose
frame
current
laser
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111223949.4A
Other languages
English (en)
Other versions
CN113947636A (zh
Inventor
张驰洲
陈明松
王冠强
蔺永诚
吴敏杰
王秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202111223949.4A priority Critical patent/CN113947636B/zh
Publication of CN113947636A publication Critical patent/CN113947636A/zh
Application granted granted Critical
Publication of CN113947636B publication Critical patent/CN113947636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于深度学习的激光SLAM定位系统及方法,包括:步骤1:点云预处理模块,用于地面点和平面及边缘特征提取;步骤2:激光里程计模块,将位姿分为两步优化,由地面点构成高度约束并优化特征之间的距离;步骤3:激光建图模块,由相邻帧下采样后构成局部优化,同时结合里程计位姿数据优化建图位姿数据;步骤4:回环检测模块,使用SegMatch框架中的描述符并结合孪生神经网络求解帧间相似度;步骤5:检测到回环后进行重定位,进行全局优化后得到修正后的当前位姿。基于该方法有效提高移动机器人在室内外环境下的定位精度。

Description

一种基于深度学习的激光SLAM定位系统及方法
技术领域
本发明涉及移动机器人定位技术领域,具体涉及一种基于深度学习的激光SLAM定位系统及方法。
背景技术
随着机器人技术的飞速发展,越来越多的科技产品如无人车、无人机等开始走进人们的生活,而其中实现各类移动机器人智能化的一项重要技术就是定位。在实际应用中,移动机器人在面对复杂场景,如光照变换、动态障碍物多时,容易导致跟踪失败,进而影响移动机器人的定位与建图过程。因而复杂环境下的同步定位与建图(SimultaneousLocalization and Mapping,SLAM)是当前移动机器人研究的热点与重要方向。
激光雷达不依赖于外界光照条件,是一种主动式探测传感器,具有高精度的距离测量信息,也是目前移动机器人SLAM方法中应用最为广泛的方法。专利CN108387236A公布了一种基于扩展卡尔曼滤波的激光SLAM算法,借助于分布式扩展卡尔曼滤波算法实现了机器人位姿估计与环境地图的构建,但该算法需要维持高强度的协方差矩阵来描述SLAM的不确定性且无回环检测,存在算法复杂和定位误差较大等问题。
因此,为实现高精度的定位技术同时简化算法,采用提取点云特征同时基于图优化方法优化激光里程计位姿,同时在回环检测部分引入深度学习,克服传统特征提取的缺点,以减小移动机器人的定位累计误差,最终得到高精度的室内外定位位姿。
发明内容
本发明目的在于提供一种基于深度学习的激光SLAM定位系统及方法,该方法通过嵌入式计算平台、多线激光雷达、机器人移动平台等硬件,有效解决传统基于滤波器地激光SLAM 复杂度高且定位精度不高的问题,同时该方法采用基于深度学习的回环检测进一步减小定位累计误差,该方法鲁棒性高、精度高、适用性强。
本发明的目的实现由以下技术方案完成:
一种基于深度学习的激光SLAM定位系统及方法,其包括并行运行的激光SLAM过程以及基于深度学习的激光闭环检测过程,具有以下步骤:
步骤1:点云预处理模块,用于接收多线激光雷达传感器采集到的点云数据,随后将接收到的每一帧点云数据根据点云高度参数与随机抽样一致性算法(RANdom SAmpleConsensus,RANSAC)分为不可分割的地面点和其他分割点,对于上述其他分割点根据曲率阈值进行划分并分为平面特征点和边缘特征点;
步骤2:激光里程计模块,激光里程计的估计分为两步优化,首先通过激光扫描利用地面点构成高度约束,然后利用当前平面特征和边缘特征点分别计算点面距离和点线距离并使其最小化后,最终得到当前帧的位姿变换;
步骤3:激光建图模块,可用于构建环境地图,首先从激光里程计得到的当前帧中搜索附近的关键帧并进行下采样后构成局部优化,随后融合激光里程计发布的高频当前位姿变换与建图过程发布的低频当前位姿进行融合得到高频的精确的当前位姿;
步骤4:回环检测模块,用于判断回环约束是否成立,首先将当前帧点云根据当前帧位姿进行帧间对齐后,随后使用SegMatch框架中数据驱动的描述符从三维点云数据中提取64 维的特征描述子,最终通过设计孪生神经网络对当前帧和历史帧进行对比求解相似度,当相似度大于阈值时,且多次几何性验证成功后,便可判断形成回环约束;
步骤5:若回环检测成功后,进行增量位姿图优化进行位姿全局优化;若回环检测失败后,则无回环约束且不进行全局优化;
步骤6:检测到回环后进行广义迭代最近点(Generalized Iterative ClosestPoint,GICP) 重定位后,若GICP求解当前帧与历史某一帧的匹配分数大于设定值则完成构成回环约束,并求解出当前相对位姿,最终通过Ceres-Solver库进行全局优化后得到修正后的当前位姿。
进一步地,所述用于检测当前帧与候选帧的回环约束的计算方法在一般嵌入式平台上,模型推理时间不超过50毫秒。
进一步地,同时为避免SegMatch失效,则对当前帧进行邻域搜索,若在当前帧与领域帧在设定距离范围内同样判断检测到回环。
本发明的有益效果为:
1、本发明选择激光雷达为SLAM方法使用的传感器,定位精度相对传统基于滤波器激光SLAM更高且复杂度低;
2、本发明通过使用基于RANSAC的地面检测方法后进行两步位姿优化过程,激光里程计估计出来的位姿精度更高;
3、本发明通过采用基于深度学习的场景识别方法进行回环检测,相对传统检测方法,鲁棒性更好且基本上不存在漏检现象,保证回环检测的正确性;
4、本发明在基于深度学习的回环检测方法失效后依然有基于距离的回环检测方法进行判别,提高了定位系统的鲁棒性。
综上,一种基于深度学习的激光SLAM定位系统及方法实现了高精度的定位,系统鲁棒性更好且适用场景更广,且采用深度学习的回环检测算法相对比传统特征检测算法基本上不存在漏检现象,有效地减小累计误差。
附图说明
图1是基于深度学习的激光SLAM定位系统流程图;
图2是回环检测流方法程图;
具体实施方式
为了使本发明目的、技术方案及优点更加清楚明白,下面结合附图及实施例对本发明作进一步描述。
如图1所示,本实施例的一种基于深度学习的激光SLAM定位系统及方法,包括嵌入式计算平台、多线激光雷达和机器人移动平台,其中主要包括四个模块(激光帧预处理、激光里程计、激光建图和回环检测),模块之间相互解耦且稳定性高,最终能实现高精度地定位,具体地说:
步骤1:激光帧预处理模块,将输入点云数据划分为不可分割的地面点和其他分割点。对于地面点检测采用条件筛选法,首先根据激光传感器离地面的安装高度进行高度范围的取点滤波,保证地面点在高度范围内,然后根据地面点的法向量与z轴方向夹角较小去除高度范围内的地面点,使用RANSAC算法拟合地平面ax+by+cz=d。之后判断地平面的法线与z轴的夹角是否小于5°,如果小于5°则地平面参数符合条件。对于其他分割点,按照如下式计算曲率后进行判断是否为平面特征点或者边缘特征点:
其中,S为当前点连续若干点集合,为当前点,/>为当前点相邻第j个点。若当前点的曲率小于阈值,则判断当前点为平面特征点,否则判断当前点为边缘特征点。到此经过该模块后,已提取完当前地面点集合/>当前平面特征点/>和当前边缘特征点/>
步骤2:激光里程计模块,在上一模块中,提取完当前帧特征点同时也获得前一帧特征点,如果直接进行匹配,相对于移动机器人平台,就会产生严重的匹配误差。因此采用两步位姿优化方法,在匹配约束中加入地面约束以较小误差。地面有较好的约束在(tzrollpicth)中,平面特征点和边缘特征点之间匹配有较好的约束在(tx,tyyaw)中,其中tx,ty,tzrollpitchyaw分别为6DOF位姿(当前雷达坐标系下的位姿)的6个分量。针对地面约束可以构造如下目标函数,优化方法均采用Ceres-Solver库进行优化:
步骤3:激光建图模块,该模块地图构造基于地平面约束,将边缘点和平面点与局部地图Mt-1进行匹配后进行局部优化并且对之间的特征点进行降采样以提高匹配效率。如果不考虑之前里程计的位姿估计结果,直接进行匹配会使整个SLAM系统的实时性较低,因而根据上一模块激光里程计所估计当前雷达坐标系下的位姿作为初始值并且结合位姿转换/>便可以得到当前世界坐标系的位姿/>以上位姿之间的计算关系式如下:
步骤4:回环检测模块,使用SegMatch框架下数据驱动的描述符从三维激光点云数据中提取特征,将当前帧的点云特征与之前历史帧的点云特征经过孪生神经网络后得出相似性,若相似性大于设定值并且经过几何验证后及GICP重定位的分数大于设定值则判断检测到回环,使用GICP进行重定位综合考虑到计算出当前帧和历史某一帧的相对位姿并使用Ceres-Solver 库进行全局优化,修正当前在世界坐标系的位姿。同时,若SegMatch框架出现问题时,采用领域搜索关键帧附近历史帧并且通过两帧距离判断依然能够有效地检测到回环,增强算法的鲁棒性。
如图2为回环检测方法流程图,有效解决了现有室外移动机器人在大规模环境下的回环检测问题,同时减少了漏检现象,提高了检测精度。其中图2(a)为回环检测方法总流程图,图2(b)为基于孪生神经网络的帧间相似度计算流程图,包括以下步骤:
步骤1:通过当前帧位姿和当前帧点云进行帧间对齐,使当前帧点云在雷达坐标系坐标转换到世界坐标系下,同时进行kd树搜索保留当前帧的近距离历史帧以防基于深度学习的回环检测算法失效。
步骤2:进一步地,由历史帧点云和当前帧点云进行在线分割后通过SegMatch框架提取出 64维的特征描述子,两帧特征描述子A和B通过孪生神经网络后计算得到两帧的相似性,在这种情况下,网络的分支是两个相同的描述符提取网络,但它们共享相同的权重参数。其特点是在推理过程中点云特征提取部分和分类器部分可以独立使用,当对同一特征向量进行多次测试时,可以限制提高回环性能。训练过程中,采用随机梯度下降法最小化网络的交叉熵同时正负样本比例选择为2:1。其中孪生神经网络中的非线性激活函数采用ELU函数,可有效地较快网络的训练速度且具有缓解梯度消失的能力LOSS函数包括且不限于Sigmod、 SoftMax等。
步骤3:进一步地,通过多次几何性验证与GICP重定位后进行匹配分数计算,若小于设定阈值,则形成回环约束同时计算两帧相对位姿,否则不构成回环约束。
本发明所述的一种基于深度学习的激光SLAM定位系统及方法,本发明选择多线激光雷达为SLAM定位传感器,在黑暗、纹理性弱的室内外环境中仍能捕捉到足够有效信息,保证高精度的定位;本发明通过RANSAC拟合地平面后采用两步优化位姿;本发明通过基于深度学习的回环检测过程基本上排除了漏检的情况,算法检测率和鲁棒性更高,同时即使在基于深度学习的回环检测不起作用时,也能通过帧间距离判断回环约束。
综上,一种基于深度学习的激光SLAM定位系统及方法实现了高精度的定位,为实现移动机器人在室内外路径规划奠定了基础。
上面结合附图对本发明的实例进行了描述,虽然本发明已以较佳实施例公开如上,但其并非用以限定本发明,任何熟悉此技术的人,在不脱离本发明的精神和范围内,都可做各种的改动与修饰,因此本发明的保护范围应该以权利要求书所界定的为准。

Claims (2)

1.一种基于深度学习的激光SLAM定位方法,其特征在于该方法采用点云特征与孪生神经网络实现移动平台在室内外环境下高精度的定位,包括以下步骤:
步骤1:点云预处理模块,用于接收多线激光雷达传感器采集到的点云数据,随后将接收到的每一帧点云数据根据点云高度参数与RANSAC算法分为不可分割的地面点和其他分割点,对于其他分割点根据曲率阈值进行划分并分为平面特征点和边缘特征点;
步骤2:激光里程计模块,激光里程计的估计分为两步优化,首先利用地面点构成高度约束,然后利用当前平面特征和边缘特征点分别进行点面距离和点线距离并使其最小化后,最终得到当前帧的位姿变换;具体按照以下步骤实施:
在上一模块中,提取完当前帧特征点同时也获得前一帧特征点,如果直接进行匹配,相对于移动机器人平台,就会产生严重的匹配误差,因此采用两步位姿优化方法,在匹配约束中加入地面约束以较小误差,地面有较好的约束在(tzrollpicth)中,平面特征点和边缘特征点之间匹配有较好的约束在(tx,tyyaw)中,其中tx,ty,tzrollpitchyaw分别为6DOF位姿的6个分量,针对地面约束可以构造如下目标函数,优化方法均采用Ceres-Solver库进行优化:
步骤3:激光建图模块,从激光里程计得到的当前帧中搜索附近的关键帧并进行下采样后构成局部优化,同时激光里程计发布的高频当前位姿变换与建图过程发布的低频当前位姿进行融合得到高频的精确的当前位姿;具体按照以下步骤实施:
该模块地图构造基于地平面约束,将边缘点和平面点与局部地图Mt-1进行匹配后进行局部优化并且对之间的特征点进行降采样以提高匹配效率,如果不考虑之前里程计的位姿估计结果,直接进行匹配会使整个SLAM系统的实时性较低,因而根据上一模块激光里程计所估计当前雷达坐标系下的位姿TL t作为初始值并且结合位姿转换便可以得到当前世界坐标系的位姿/>以上位姿之间的计算关系式如下:
步骤4:回环检测模块,将当前帧点云根据当前帧位姿进行帧间对齐后,使用SegMatch框架中数据驱动的描述符从三维点云数据中提取64维的特征描述子,随后设计孪生神经网络对当前帧和历史帧进行对比求解相似度,当相似度大于阈值时,同时进行几何性验证成功后,便可判断形成回环约束;具体按照以下步骤实施:
通过当前帧位姿和当前帧点云进行帧间对齐,使当前帧点云在雷达坐标系坐标转换到世界坐标系下,同时进行kd树搜索保留当前帧的近距离历史帧以防基于深度学习的回环检测算法失效;
进一步地,由历史帧点云和当前帧点云进行在线分割后通过SegMatch框架提取出64维的特征描述子,两帧特征描述子A和B通过孪生神经网络后计算得到两帧的相似性,在这种情况下,网络的分支是两个相同的描述符提取网络,但它们共享相同的权重参数,其特点是在推理过程中点云特征提取部分和分类器部分可以独立使用,当对同一特征向量进行多次测试时,可以限制提高回环性能,训练过程中,采用随机梯度下降法最小化网络的交叉熵同时正负样本比例选择为2:1,其中孪生神经网络中的非线性激活函数采用ELU函数,可有效地较快网络的训练速度且具有缓解梯度消失的能力LOSS函数包括且不限于Sigmod、SoftMax等;
进一步地,通过多次几何性验证与GICP重定位后进行匹配分数计算,若小于设定阈值,则形成回环约束同时计算两帧相对位姿,否则不构成回环约束;
步骤5:若回环检测成功后,进行增量位姿图优化进行位姿全局优化;
步骤6:检测到回环后进行GICP重定位后,若GICP求解当前帧与历史某一帧的匹配分数大于设定值则完成构成回环约束,求解出当前相对位姿,通过Ceres-Solver库进行全局优化后得到修正后的当前位姿;
同时为避免SegMatch失效错过回环检测,则对当前帧进行领域搜索,若在当前帧与领域帧在设定距离范围内同样判断检测到回环。
2.如权利要求1所述的基于深度学习的激光SLAM定位方法,其特征在于:
所述用于检测当前帧与候选帧的回环约束的计算方法在一般嵌入式平台上,模型推理时间不超过50毫秒。
CN202111223949.4A 2021-10-19 2021-10-19 一种基于深度学习的激光slam定位系统及方法 Active CN113947636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111223949.4A CN113947636B (zh) 2021-10-19 2021-10-19 一种基于深度学习的激光slam定位系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111223949.4A CN113947636B (zh) 2021-10-19 2021-10-19 一种基于深度学习的激光slam定位系统及方法

Publications (2)

Publication Number Publication Date
CN113947636A CN113947636A (zh) 2022-01-18
CN113947636B true CN113947636B (zh) 2024-04-26

Family

ID=79331908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111223949.4A Active CN113947636B (zh) 2021-10-19 2021-10-19 一种基于深度学习的激光slam定位系统及方法

Country Status (1)

Country Link
CN (1) CN113947636B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022132204A1 (de) 2022-12-05 2024-06-06 Connaught Electronics Ltd. Erzeugen oder Aktualisieren einer digitalen Repräsentation einer Trajektorie, Selbstlokalisierung eines Ego-Fahrzeugs und wenigstens teilweise automatisches Führen eines Ego-Fahrzeugs
CN117291984B (zh) * 2023-11-22 2024-02-09 武汉理工大学 一种基于位姿约束的多帧描述符匹配重定位方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN111462321A (zh) * 2020-03-27 2020-07-28 广州小鹏汽车科技有限公司 点云地图处理方法、处理装置、电子装置和车辆
AU2020101833A4 (en) * 2019-12-03 2020-09-24 Wuhan University Of Science And Technology Laser slam method based on subgraph merging and pose optimization
CN112085849A (zh) * 2020-07-28 2020-12-15 航天图景(北京)科技有限公司 基于航拍视频流的实时迭代三维建模方法、系统及可读介质
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112665575A (zh) * 2020-11-27 2021-04-16 重庆大学 一种基于移动机器人的slam回环检测方法
CN112767490A (zh) * 2021-01-29 2021-05-07 福州大学 一种基于激光雷达的室外三维同步定位与建图方法
CN112966542A (zh) * 2020-12-10 2021-06-15 武汉工程大学 一种基于激光雷达的slam系统和方法
CN113269094A (zh) * 2021-05-26 2021-08-17 中国科学院自动化研究所 基于特征提取算法和关键帧的激光slam系统及方法
CN113345018A (zh) * 2021-05-31 2021-09-03 湖南大学 一种动态场景下的激光单目视觉融合定位建图方法
CN113436260A (zh) * 2021-06-24 2021-09-24 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111258313B (zh) * 2020-01-20 2022-06-07 深圳市普渡科技有限公司 多传感器融合slam系统及机器人

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
AU2020101833A4 (en) * 2019-12-03 2020-09-24 Wuhan University Of Science And Technology Laser slam method based on subgraph merging and pose optimization
CN111462321A (zh) * 2020-03-27 2020-07-28 广州小鹏汽车科技有限公司 点云地图处理方法、处理装置、电子装置和车辆
CN112085849A (zh) * 2020-07-28 2020-12-15 航天图景(北京)科技有限公司 基于航拍视频流的实时迭代三维建模方法、系统及可读介质
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112665575A (zh) * 2020-11-27 2021-04-16 重庆大学 一种基于移动机器人的slam回环检测方法
CN112966542A (zh) * 2020-12-10 2021-06-15 武汉工程大学 一种基于激光雷达的slam系统和方法
CN112767490A (zh) * 2021-01-29 2021-05-07 福州大学 一种基于激光雷达的室外三维同步定位与建图方法
CN113269094A (zh) * 2021-05-26 2021-08-17 中国科学院自动化研究所 基于特征提取算法和关键帧的激光slam系统及方法
CN113345018A (zh) * 2021-05-31 2021-09-03 湖南大学 一种动态场景下的激光单目视觉融合定位建图方法
CN113436260A (zh) * 2021-06-24 2021-09-24 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统

Also Published As

Publication number Publication date
CN113947636A (zh) 2022-01-18

Similar Documents

Publication Publication Date Title
Liu et al. Seqlpd: Sequence matching enhanced loop-closure detection based on large-scale point cloud description for self-driving vehicles
CN112230243B (zh) 一种移动机器人室内地图构建方法
CN111693047A (zh) 一种高动态场景下的微小型无人机视觉导航方法
CN113947636B (zh) 一种基于深度学习的激光slam定位系统及方法
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
CN113506318B (zh) 一种车载边缘场景下的三维目标感知方法
Engel et al. Deeplocalization: Landmark-based self-localization with deep neural networks
CN110487286B (zh) 基于点特征投影与激光点云融合的机器人位姿判断方法
CN113223045B (zh) 基于动态物体语义分割的视觉与imu传感器融合定位系统
CN113269094B (zh) 基于特征提取算法和关键帧的激光slam系统及方法
CN111427047A (zh) 一种大场景下自主移动机器人slam方法
CN101408983A (zh) 基于粒子滤波和活动轮廓模型的多目标跟踪方法
CN111505662A (zh) 一种无人驾驶车辆定位方法及系统
CN111259837A (zh) 一种基于部位注意力的行人重识别方法及系统
Wei et al. GMSK-SLAM: a new RGB-D SLAM method with dynamic areas detection towards dynamic environments
CN116592897A (zh) 基于位姿不确定性的改进orb-slam2定位方法
Yin Object Detection Based on Deep Learning: A Brief Review
CN117053779A (zh) 一种基于冗余关键帧去除的紧耦合激光slam方法及装置
Lu et al. Hybrid deep learning based moving object detection via motion prediction
CN111239761B (zh) 一种用于室内实时建立二维地图的方法
CN115187614A (zh) 一种基于stdc语义分割网络的实时同时定位与建图方法
Liu et al. VL-MFL: UAV Visual Localization Based on Multi-Source Image Feature Learning
CN117537803B (zh) 机器人巡检语义-拓扑地图构建方法、系统、设备及介质
Ding Research on RGB-D SLAM System Based on YOLOv3 to Eliminate Dynamic Targets
Gao et al. Visual Odometry Based on Handcrafted and Learned CNN Feature Points

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant