CN112665575B - 一种基于移动机器人的slam回环检测方法 - Google Patents

一种基于移动机器人的slam回环检测方法 Download PDF

Info

Publication number
CN112665575B
CN112665575B CN202011351910.6A CN202011351910A CN112665575B CN 112665575 B CN112665575 B CN 112665575B CN 202011351910 A CN202011351910 A CN 202011351910A CN 112665575 B CN112665575 B CN 112665575B
Authority
CN
China
Prior art keywords
matrix
loop detection
subgraph
point
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011351910.6A
Other languages
English (en)
Other versions
CN112665575A (zh
Inventor
刘茛
王庆志
江涛
苏晓杰
黄江帅
刁羽峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202011351910.6A priority Critical patent/CN112665575B/zh
Publication of CN112665575A publication Critical patent/CN112665575A/zh
Application granted granted Critical
Publication of CN112665575B publication Critical patent/CN112665575B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于机器人定位技术领域,主要涉及一种基于移动机器人的SLAM回环检测方法,包括如下步骤:S1、对机器人运动产生的激光运动畸变进行激光预处理,并对距离图像中边缘点、平面点特征进行提取;S2、将连续帧的相对姿态变换获得雷达里程计,并通过关键帧的选择组成局部子图;S3、采用全新描述子EPSC代表局部子图特征进行回环检测。本发明方法采用全新描述子EPSC进行回环检测,可有效降低漂移误差建立一致性更优化的全局地图,提升了闭环检测精度、召回率及计算效率。

Description

一种基于移动机器人的SLAM回环检测方法
技术领域
本发明属于机器人定位技术领域,具体涉及一种基于移动机器人的SLAM回环检测方法。
背景技术
随着计算机科学技术的快速发展,轮式移动机器人自主导航的研究已是智能车交通系统的研究热点之一,其中,路径规划是智能车研究领域的重要技术。移动机器人执行各类任务,如导航、传递、搜索和救援等,一般都需要对其工作环境建构地图,并确定自己的在环境中的位置,这就需要同步定位与地图构建(simultaneous localization andmapping,以下简称SLAM)技术。其中,基于激光雷达的SLAM技术具有较多优势,成为目前最受关注的SLAM方向之一。目前,市面上有很多开源的激光SLAM整体解决方案,但大部分方案很难以保证全局一致。
发明内容
本发明的目的是:旨在提供一种基于移动机器人的SLAM回环检测方法,用于解决移动机器人的SLAM回环检测实现全局地图一致的问题。
为实现上述技术目的,本发明采用的技术方案如下:
一种基于移动机器人的SLAM回环检测方法,包括如下步骤:
S1、对机器人运动产生的激光运动畸变进行激光预处理,并对距离图像中边缘点、平面点特征进行提取;
S2、将连续帧的相对姿态变换获得雷达里程计,并通过关键帧的选择组成局部子图;
S3、采用全新描述子EPSC代表局部子图特征进行回环检测。
进一步,S1包括以下步骤:
S101、利用IMU预积分后的值去除因机器人运动产生的激光运动畸变;
S102、一帧激光点云数据集合记为P={p1,p2,p3,...,pn},并投影到距离图像上;
S103、在距离图像上选取一行连续的点,其集合记为R,点pi为中点,通过以下公式可以计算pi的曲率值:
其中di为点pi到激光雷达的欧式距离,设定一个值cb,当c大于cb时为边缘点,当c小于cb时为平面点。
进一步,S2包括如下步骤:
S201、两个连续帧的相对姿态变换即雷达里程计通过点到平面和点到边缘的扫描匹配方法获得,其中边沿特征点到线的距离计算如下:
平面特征的点到面的计算如下:
其中,k和k+1是连续且相关联的两帧激光,i,j,l和m是两帧激光中的点;
S202、用LM非线性优化方法得到连续两帧的位姿变换即雷达里程计;
S203、选取关键帧,设置一个距离值l和角度值θ,当某一帧的距离比上一个关键帧大于l或者角度偏移大于θ时,将被选择为关键帧;
S204、关键帧组成局部子图,当以下条件满足其一时,一个局部子图被建立:现有子图关键帧数量超过设定值n;创建子图的时间超过设定值t;角度变化过于剧烈,超过设定值ω。
进一步,S3包括如下步骤:
S301、提取特征点,设一个局部子图所有的点云集合为S={s1,s2,…,sn},且sk=(xk,yk,zk),Se={se1,se2,…,sem}和Sp={sp1,sp2,…,sp3}分别代表子图中边缘特征点和平面特征点的集合;
S302、建立传感器坐标系,采用3D扫描的点云俯视图,并将地面区域划分为多个子空间;
S303、局部子图根据方位角和径向方向进行分割,并以不同颜色区分为若干环、扇区、子空间,点云中的每个点sk都可用极坐标来表示:
sk=[ρk,θk,zk]
其中,方位角具体为:在激光雷达帧中从0到2π,径向具体为:从中心到激光能打到的最大距离;
S304、通过在方位角和径向方向上等分极坐标,将点云分割成Ns个扇区和Nr个环,整个局部子图被划分为Nr×Ns个子空间,把第i个扇区和第j个环中的边缘特征数量和平面特征数量分别记作neij和npij
S305、将局部子图映射到矩阵上,方位角映射为矩阵的列,径向映射为矩阵的行,表征边缘特征局部子图的矩阵表示为Ωe,且Ωe(i,j)=neij;表征平面特征局部子图的矩阵表示为Ωp,且Ωp(i,j)=npij;若矩阵元素为空,则把该元素记为0;
S306、将两个矩阵的对应元素合并成新矩阵的对应位置元素,得到新的矩阵记作Ωep即获得当前局部子图的EPSC;
其中:
进一步,本发明方法还包括如下步骤:
位置重新识别,将当前位置Pn与数据库中的历史位置D={P1,P2,...,Pn-1}进行比对,确认机器人是否回环,随着数据库D的规模不断增加,采用两阶段分级位置再识别策略提高计算效率,包括基于二进制运算的快速几何检索和特征结构匹配进行回环检测。
进一步,基于二进制运算的快速几何检索的具体步骤如下:
给定EPSC矩阵Ωep,其在局部坐标上的几何分布可以表示为二值矩阵Γ:
对于当前EPSC矩阵候选EPSC矩阵/>及其二进制变换/>可以导出几何相似性:
其中XOR(x,y)是指矩阵x和y的异或运算,|x|是指矩阵x中的元素数量,消除视角带来的误差,最终得分计算如下:
其中是/>移动i列,通过移动列来获得一个最大的相似度得分,就可以认定为最佳匹配,以纠正激光视角带来的变化几何检索完成。
进一步,特征结构匹配的具体步骤如下:
通过列式比较识别两个EPSC矩阵和/>之间的特征相似性,假设/>和/>分别是/>和/>的第i列,则得分可以通过如下得到:
由于激光视角的影响,假设当移动k列时得分最多,那么最终得分如下计算得到:
通过两部分的得分相加确定总的得分,得分越高,子图越匹配;
当得分大于一个阈值c的时候,即可确定当前位置是机器人之前经过的历史位置,即完成回环检测。
采用上述技术方案的发明,具有如下优点:
1、本发明方法采用全新描述子EPSC进行回环检测,可有效降低漂移误差,建立一致性更优化的全局地图,提升了闭环检测精度、召回率及计算效率;
2、本发明方法通过局部子图的建立,以及关键帧的条件选择,进一步优化数据结构与计算效率;
3、本发明方法采用两阶段分级位置再识别策略,包括基于二进制运算的快速几何检索和特征结构匹配,有效提升计算效率。
附图说明
本发明可以通过附图给出的非限定性实施例进一步说明;
图1表示局部子图的原始点云;
图2是基于平面特征点的子地图;
图3是基于边缘特征点的局部子图;
图4是全新EPSC描述子矩阵。
具体实施方式
以下将结合附图和具体实施例对本发明进行详细说明,需要说明的是,在附图或说明书描述中,相似或相同的部分都使用相同的图号,附图中未绘示或描述的实现方式,为所属技术领域中普通技术人员所知的形式。另外,实施例中提到的方向用语,例如“上”、“下”、“顶”、“底”、“左”、“右”、“前”、“后”等,仅是参考附图的方向,并非用于限制本发明的保护范围。
如图1-4所示,一种基于移动机器人的SLAM回环检测方法,包括如下步骤:
S1、对机器人运动产生的激光运动畸变进行激光预处理,并对距离图像中边缘点、平面点特征进行提取;
S2、将连续帧的相对姿态变换获得雷达里程计,并通过关键帧的选择组成局部子图;
S3、采用全新描述子EPSC进行回环检测。
实施例1:激光预处理
S101、利用IMU预积分后的值去除因机器人运动产生的激光运动畸变;
S102、一帧激光点云数据集合记为P={p1,p2,p3,...,pn},并投影到距离图像上;
S103、在距离图像上选取一行连续的点,其集合记为R,点pi为中点,通过以下公式可以计算pi的曲率值:
其中di为点pi到激光雷达的欧式距离,设定一个值cb,当c大于cb时为边缘点,当c小于cb时为平面点。
实施例2:局部子图建立
S201、两个连续帧的相对姿态变换即雷达里程计通过点到平面和点到边缘的扫描匹配方法获得,其中边沿特征点到线的距离计算如下:
平面特征的点到面的计算如下:
其中,和k+1是连续且相关联的两帧激光,i,j,l和m是两帧激光中的点;
S202、用LM非线性优化方法得到连续两帧的位姿变换即雷达里程计;
S203、选取关键帧,设置一个距离值l和角度值θ,当某一帧的距离比上一个关键帧大于l或者角度偏移大于θ时,将被选择为关键帧;
S204、关键帧组成局部子图,当以下条件满足其一时,一个局部子图被建立:现有子图关键帧数量超过设定值n;创建子图的时间超过设定值t;角度变化过于剧烈,超过设定值ω。
实施例3:全新描述子,Edge-Planar Scan Context(EPSC)建立
S301、提取特征点,设一个局部子图所有的点云集合为S={s1,s2,…,sn},且sk=(xk,yk,zk),Se={se1,se2,…,sem}和Sp={sp1,sp2,…,sp3}分别代表子图中边缘特征点和平面特征点的集合;
S302、建立传感器坐标系,采用3D扫描的点云俯视图,并将地面区域划分为多个子空间;
S303、局部子图根据方位角和径向方向进行分割,并以不同颜色区分为若干环、扇区、子空间,点云中的每个点sk都可用极坐标来表示:
sk=[ρk,θk,zk]
其中,方位角具体为:在激光雷达帧中从0到2π,径向具体为:从中心到激光能打到的最大距离;
S304、通过在方位角和径向方向上等分极坐标,将点云分割成Ns个扇区和Nr个环,整个局部子图被划分为Nr×Ns个子空间,把第i个扇区和第j个环中的边缘特征数量和平面特征数量分别记作neij和npij
S305、将局部子图映射到矩阵上,方位角映射为矩阵的列,径向映射为矩阵的行,表征边缘特征局部子图的矩阵表示为Ωe,且Ωe(i,j)=neij;表征平面特征局部子图的矩阵表示为Qp,且Ωp(i,j)=npij;若矩阵元素为空,则把该元素记为0;
S306、将两个矩阵的对应元素合并成新矩阵的对应位置元素,得到新的矩阵记作Ωep即获得当前局部子图的EPSC;
其中:
实施例4:EPSC的具体建立
首先用ring(环)和sector(扇形)把局部子图划分,环上的方位角从0到2π,这里均匀划分20等份,扇形的径向范围从中心点到激光能打到的最大距离,均匀划分为60等份。利用局部子图的俯视图把地面区域划为多个子空间。把方位角映射为列,扇形径向映射为行,即可把传感器坐标系映射为一个矩阵,以方便计算,把矩阵分别记为Ωe(边缘特征矩阵)和Ωp(平面特征矩阵)。统计每个子空间的边缘特征点数和平面特征点数(区分边缘特征和平面特征的方法和激光预处理的方法一致),分别记为neij和npij,与Ωe(i,j)和Ωp(i,j)对应,这样就可以把局部子图中的特征用矩阵表示。但是用两个矩阵表示一个子图的特征显得过于冗余,因此我们融合两个矩阵得到一个新矩阵Ωep来表示,
其中,a可以为任意常数,取a=100。得到矩阵即ESSC,元素为空的位置我们设为0。
实施例5:回环检测完成
位置重新识别,将当前位置Pn与数据库中的历史位置D={P1,P2,...,Pn-1}进行比对,确认机器人是否回环,随着数据库D的规模不断增加,采用两阶段分级位置再识别策略提高计算效率,包括基于二进制运算的快速几何检索和特征结构匹配进行回环检测。
实施例6:回环检测具体实现一
给定EPSC矩阵Ωep,其在局部坐标上的几何分布可以表示为二值矩阵Γ:
对于当前EPSC矩阵候选EPSC矩阵/>及其二进制变换/>可以导出几何相似性:
其中XOR(x,y)是指矩阵x和y的异或运算,|x|是指矩阵x中的元素数量,消除视角带来的误差,最终得分计算如下:
其中是/>侈动i列,通过移动列来获得一个最大的相似度得分,就可以认定为最佳匹配,以纠正激光视角带来的变化,这样几何检索完成。
实施例7:回环检测具体实现二
通过列式比较识别两个EPSC矩阵和/>之间的特征相似性,假设/>和/>分别是/>和/>的第i列,则得分可以通过如下得到:
由于激光视角的影响,假设当移动k列时得分最多,那么最终得分如下计算得到:
通过两部分的得分相加确定总的得分,得分越高,子图越匹配;
当得分大于一个阈值c的时候,即可确定当前位置是机器人之前经过的历史位置,即完成回环检测。
本发明对实现一种基于移动机器人的SLAM回环检测方法进行了详细介绍。具体实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,改进和修饰也落入本发明权利要求的保护范围内。

Claims (5)

1.一种基于移动机器人的SLAM回环检测方法,其特征在于,包括如下步骤:
S1、对机器人运动产生的激光运动畸变进行激光预处理,并对距离图像中边缘点、平面点特征进行提取;
S2、将连续帧的相对姿态变换获得雷达里程计,并通过关键帧的选择组成局部子图;
S3、采用全新描述子EPSC代表局部子图特征进行回环检测;
其中,S2包括如下步骤:
S201、两个连续帧的相对姿态变换即雷达里程计通过点到平面和点到边缘的扫描匹配方法获得,其中边沿特征点到线的距离计算如下:
平面特征的点到面的计算如下:
其中,k和k+1是连续且相关联的两帧激光,i,j,l和m是两帧激光中的点;
S202、用LM非线性优化方法得到连续两帧的位姿变换即雷达里程计;
S203、选取关键帧,设置一个距离值l和角度值θ,当某一帧的距离比上一个关键帧大于l或者角度偏移大于θ时,将被选择为关键帧;
S204、关键帧组成局部子图,当以下条件满足其一时,一个局部子图被建立:现有子图关键帧数量超过设定值n;创建子图的时间超过设定值t;角度变化过于剧烈,超过设定值ω;
S3包括如下步骤:
S301、提取特征点,设一个局部子图所有的点云集合为S={s1,s2,...,sn},且集合中某一点记为sk=(xk,yk,zk),Se={se1,se2,...,sem}和Sp={sp1,sp2,...,spn}分别代表子图中边缘特征点和平面特征点的集合;
S302、建立传感器坐标系,采用3D扫描的点云俯视图,并将地面区域划分为多个子空间;
S303、局部子图根据方位角和径向方向进行分割,并以不同颜色区分为若干环、扇区、子空间,点云中的每个点sk都可用极坐标来表示:
sk=[ρk,θk,zk]
其中,方位角具体为:在激光雷达帧中从0到2π,径向具体为:从中心到激光能打到的最大距离Lmax
S304、通过在方位角和径向方向上等分极坐标,将点云分割成Ns个扇区和Nr个环,整个局部子图被划分为Nr×Ns个子空间,把第i个扇区和第j个环中的边缘特征数量和平面特征数量分别记作neij和npij
S305、将局部子图映射到矩阵上,方位角映射为矩阵的列,径向映射为矩阵的行,表征边缘特征局部子图的矩阵表示为Ωe,且Ωe(i,j)=neij;表征平面特征局部子图的矩阵表示为Ωp,且Ωp(i,j)=npij;若矩阵元素为空,则把该元素记为0;
S306、将两个矩阵的对应元素合并成新矩阵的对应位置元素,得到新的矩阵记作Ωep即获得当前局部子图的EPSC;
其中:
2.根据权利要求1所述的一种基于移动机器人的SLAM回环检测方法,其特征在于,S1包括以下步骤:
S101、利用IMU预积分后的值去除因机器人运动产生的激光运动畸变;
S102、一帧激光点云数据集合记为P={p1,p2,p3,...,pn},并投影到距离图像上;
S103、在距离图像上选取一行连续的点,其集合记为R,点pi为中点,通过以下公式可以计算pi的曲率值:
其中di为点pi到激光雷达的欧式距离,设定一个值cb,当c大于cb时为边缘点,当c小于cb时为平面点。
3.根据权利要求1所述的一种基于移动机器人的SLAM回环检测方法,其特征在于,还包括如下步骤:
位置重新识别,将当前位置Pn与数据库中的历史位置D={P1,P2,...,Pn-1}进行比对,确认机器人是否回环,随着数据库D的规模不断增加,采用两阶段分级位置再识别策略,包括基于二进制运算的快速几何检索和特征结构匹配进行回环检测。
4.根据权利要求3所述的一种基于移动机器人的SLAM回环检测方法,其特征在于,所述基于二进制运算的快速几何检索的具体步骤如下:
给定EPSC矩阵Ωep,其在局部坐标上的几何分布可以表示为二值矩阵Γ:
对于当前EPSC矩阵候选EPSC矩阵/>及其二进制变换/>可以导出几何相似性:
其中XOR(x,y)是指矩阵x和y的异或运算,|x|是指矩阵x中的元素数量,消除视角带来的误差,最终得分计算如下:
其中是/>移动i列,通过移动列来获得一个最大的相似度得分,就可以认定为最佳匹配,以纠正激光视角带来的变化几何检索完成。
5.根据权利要求3所述的一种基于移动机器人的SLAM回环检测方法,其特征在于,所述特征结构匹配进行回环检测的具体步骤如下:
通过列式比较识别两个EPSC矩阵和/>之间的特征相似性,假设/>和/>分别是/>和/>的第i列,则得分可以通过如下得到:
由于激光视角的影响,假设当移动k列时得分最多,那么最终得分如下计算得到:
通过两部分的得分相加确定总的得分,得分越高,子图越匹配;
当得分大于一个阈值c的时候,即可确定当前位置是机器人之前经过的历史位置,即完成回环检测。
CN202011351910.6A 2020-11-27 2020-11-27 一种基于移动机器人的slam回环检测方法 Active CN112665575B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011351910.6A CN112665575B (zh) 2020-11-27 2020-11-27 一种基于移动机器人的slam回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011351910.6A CN112665575B (zh) 2020-11-27 2020-11-27 一种基于移动机器人的slam回环检测方法

Publications (2)

Publication Number Publication Date
CN112665575A CN112665575A (zh) 2021-04-16
CN112665575B true CN112665575B (zh) 2023-12-29

Family

ID=75403847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011351910.6A Active CN112665575B (zh) 2020-11-27 2020-11-27 一种基于移动机器人的slam回环检测方法

Country Status (1)

Country Link
CN (1) CN112665575B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269094B (zh) * 2021-05-26 2023-01-13 中国科学院自动化研究所 基于特征提取算法和关键帧的激光slam系统及方法
CN113406659A (zh) * 2021-05-28 2021-09-17 浙江大学 一种基于激光雷达信息的移动机器人位置重识别方法
CN113516682B (zh) * 2021-07-08 2023-08-11 福州大学 一种激光slam的回环检测方法
CN113485346B (zh) * 2021-07-15 2022-07-22 上海交通大学 一种移动机器人在核事故复杂环境中的自主导航方法
CN113850864B (zh) * 2021-09-14 2024-04-12 中南大学 一种面向室外移动机器人的gnss/lidar回环检测方法
CN113947636B (zh) * 2021-10-19 2024-04-26 中南大学 一种基于深度学习的激光slam定位系统及方法
CN115290066A (zh) * 2022-07-06 2022-11-04 杭州萤石软件有限公司 一种误差校正方法、装置及移动设备
CN115661255B (zh) * 2022-12-15 2023-04-28 中国科学技术大学 一种激光slam回环检测与校正方法

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194865A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN106595659A (zh) * 2016-11-03 2017-04-26 南京航空航天大学 城市复杂环境下多无人机视觉slam的地图融合方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN108830191A (zh) * 2018-05-30 2018-11-16 上海电力学院 基于改进emm及orb算法的移动机器人slam方法
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN109709801A (zh) * 2018-12-11 2019-05-03 智灵飞(北京)科技有限公司 一种基于激光雷达的室内无人机定位系统及方法
CN109974712A (zh) * 2019-04-22 2019-07-05 广东亿嘉和科技有限公司 一种基于图优化的变电站巡检机器人建图方法
CN110146080A (zh) * 2019-04-24 2019-08-20 佛山科学技术学院 一种基于移动机器人的slam回环检测方法及装置
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN110253889A (zh) * 2019-07-11 2019-09-20 重庆大学 一种基于数字光栅图像处理器的多材料3d打印方法
CN110796683A (zh) * 2019-10-15 2020-02-14 浙江工业大学 一种基于视觉特征联合激光slam的重定位方法
CN111076733A (zh) * 2019-12-10 2020-04-28 亿嘉和科技股份有限公司 一种基于视觉与激光slam的机器人室内建图方法及系统
WO2020155615A1 (zh) * 2019-01-28 2020-08-06 速感科技(北京)有限公司 Vslam方法、控制器和可移动设备
CN111583369A (zh) * 2020-04-21 2020-08-25 天津大学 一种基于面线角点特征提取的激光slam方法
AU2020101833A4 (en) * 2019-12-03 2020-09-24 Wuhan University Of Science And Technology Laser slam method based on subgraph merging and pose optimization
CN111929699A (zh) * 2020-07-21 2020-11-13 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111060101B (zh) * 2018-10-16 2022-06-28 深圳市优必选科技有限公司 视觉辅助的距离slam方法及装置、机器人
US10782137B2 (en) * 2019-01-28 2020-09-22 Qfeeltech (Beijing) Co., Ltd. Methods, apparatus, and systems for localization and mapping

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194865A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN106595659A (zh) * 2016-11-03 2017-04-26 南京航空航天大学 城市复杂环境下多无人机视觉slam的地图融合方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN108830191A (zh) * 2018-05-30 2018-11-16 上海电力学院 基于改进emm及orb算法的移动机器人slam方法
CN109709801A (zh) * 2018-12-11 2019-05-03 智灵飞(北京)科技有限公司 一种基于激光雷达的室内无人机定位系统及方法
WO2020155615A1 (zh) * 2019-01-28 2020-08-06 速感科技(北京)有限公司 Vslam方法、控制器和可移动设备
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN109974712A (zh) * 2019-04-22 2019-07-05 广东亿嘉和科技有限公司 一种基于图优化的变电站巡检机器人建图方法
CN110146080A (zh) * 2019-04-24 2019-08-20 佛山科学技术学院 一种基于移动机器人的slam回环检测方法及装置
CN110253889A (zh) * 2019-07-11 2019-09-20 重庆大学 一种基于数字光栅图像处理器的多材料3d打印方法
CN110796683A (zh) * 2019-10-15 2020-02-14 浙江工业大学 一种基于视觉特征联合激光slam的重定位方法
AU2020101833A4 (en) * 2019-12-03 2020-09-24 Wuhan University Of Science And Technology Laser slam method based on subgraph merging and pose optimization
CN111076733A (zh) * 2019-12-10 2020-04-28 亿嘉和科技股份有限公司 一种基于视觉与激光slam的机器人室内建图方法及系统
CN111583369A (zh) * 2020-04-21 2020-08-25 天津大学 一种基于面线角点特征提取的激光slam方法
CN111929699A (zh) * 2020-07-21 2020-11-13 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
An improved transformed unscented FastSLAM with adaptive genetic resampling;Lin M, Yang C, Li D;《IEEE Transactions on Industrial Electronics》;第66卷(第5期);3583-3594 *
LSD-SLAM: Large-scale direct monocular SLAM;Engel J, Schöps T, Cremers D;《European Conference on Computer Vision》;834-849 *
一种改进的粒子群算法在BP网络中的应用研究;江涛;张玉芳;王银辉;;《计算机科学》(第09期);164-168 *
基于EM-ORB算法的移动机器人SLAM系统研究;陈昱皓;彭道刚;王志萍;夏飞;;《电气传动》(第05期);69-76 *
基于RGB-D图像的三维同步定位与建图研究;胡凌燕;曹禄;熊鹏文;辛勇;谢泽坤;;《系统仿真学报》(第11期);243-249 *
视觉SLAM综述;权美香, 朴松昊, 李国;《智能系统学报》;第11卷(第6期);768-776 *

Also Published As

Publication number Publication date
CN112665575A (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
CN112665575B (zh) 一种基于移动机器人的slam回环检测方法
US11182612B2 (en) Systems and methods for place recognition based on 3D point cloud
CN101398907B (zh) 一种用于移动机器人的二维码结构及解码方法
CN108334080A (zh) 一种针对机器人导航的虚拟墙自动生成方法
CN114088099B (zh) 基于已知地图的语义重定位方法、装置、电子设备及介质
CN110705385B (zh) 一种障碍物角度的检测方法、装置、设备及介质
WO2024120269A1 (zh) 一种融合点云地图、运动模型和局部特征的位置识别方法
CN109711242A (zh) 车道线的修正方法、装置和存储介质
CN113587933A (zh) 一种基于分支定界算法的室内移动机器人定位方法
WO2023005384A1 (zh) 可移动设备的重定位方法及装置
CN113706710A (zh) 基于fpfh特征差异的虚拟点多源点云融合方法及系统
CN114740898B (zh) 一种基于自由空间与a*算法的三维航迹规划方法
Liu et al. Vision-aware air-ground cooperative target localization for UAV and UGV
CN113095184A (zh) 定位方法、行驶控制方法、装置、计算机设备及存储介质
CN115308770A (zh) 一种基于拟合图形的动态障碍物检测方法
Kong et al. Explicit points-of-interest driven Siamese transformer for 3D LiDAR place recognition in outdoor challenging environments
Guo et al. Curb detection and compensation method for autonomous driving via a 3-D-LiDAR sensor
Xia et al. DuARUS: Automatic Geo-object Change Detection with Street-view Imagery for Updating Road Database at Baidu Maps
Fan et al. Biologically-inspired visual place recognition with adaptive multiple scales
Zhang et al. Accurate real-time SLAM based on two-step registration and multimodal loop detection
Li et al. An efficient point cloud place recognition approach based on transformer in dynamic environment
Gökçe et al. Recognition of dynamic objects from UGVs using Interconnected Neuralnetwork-based Computer Vision system
CN116625395A (zh) 基于二维栅格地图的多目标路径规划方法
Li et al. RF-LOAM: Robust and Fast LiDAR Odometry and Mapping in Urban Dynamic Environment
CN105701771A (zh) 一种基于射频识别锚点的数字地图拼接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant