CN111427047A - 一种大场景下自主移动机器人slam方法 - Google Patents
一种大场景下自主移动机器人slam方法 Download PDFInfo
- Publication number
- CN111427047A CN111427047A CN202010236546.2A CN202010236546A CN111427047A CN 111427047 A CN111427047 A CN 111427047A CN 202010236546 A CN202010236546 A CN 202010236546A CN 111427047 A CN111427047 A CN 111427047A
- Authority
- CN
- China
- Prior art keywords
- pose
- robot
- map
- environment
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种大场景下自主移动机器人SLAM方法,首先考虑机器人在空间平面运行所面临各种噪声的影响,由不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;然后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,结合位姿优化模块,得到一个精准的位姿和地图;最后将得到的位姿和地图信息传送到基于信息论方法的自主探索算法中,让机器人自主完成定位与建图任务。本发明相对其他方法计算量均很低,而且适用于结构化与非结构化环境当中,具有良好的鲁棒性,适用于更加复杂、较大的环境场合,并且能够实现机器人在未知环境下自主地大范围建图与定位。
Description
技术领域
本发明属于机器人定位与建图(SLAM)领域,涉及到自主探索和同步定位与地图构建等机器人技术,具体涉及一种大场景下自主移动机器人SLAM方法。
背景技术
自起步发展至今,SLAM技术已经有三十多年的历史,其功能以及应用范围随着科学技术的发展以及人们对生活生产的需要而逐渐完善和推广。SLAM问题可以描述为:移动机器人在没有任何先验环境的情况下,仅凭借自身传感器构建未知环境地图的同时确定自身的位姿。SLAM已成为近年来机器人领域的热点研究问题,并被认为是实现真正自主机器人的核心环节。
随着机器人应用的不断推广,SLAM技术所面临的问题与挑战也越来越大,比如机器人由初始的小范围作业变为需要适应特殊场合的大环境,在大场景下如何保证前后帧之间的关联以及数据的准确匹配;随着场景的越来越大,SLAM系统所要维护的地图数据量也越来越大,从而加大了地图构建的难度,这如何保证系统处理数据的实时性;每一次位姿估计的微小误差,机器人经过长时间与长距离的运作必然会累积成一个较大的误差,这样的误差该如何有效地减小甚至消除等等。这些问题也都是SLAM需要解决的。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种更加复杂、较大的环境场合下,机器人准确实现自主定位与建图的一种大场景下自主移动机器人SLAM方法。
为解决上述技术问题,本发明的一种大场景下自主移动机器人SLAM方法,包括如下步骤:
步骤1:采用不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;
步骤2:首先对步骤1得到的观测数据建立栅格化地图,状态估计方程为:
将等式右边取对数,则:
将连乘运算转换成加法运算,通过上式将整帧观测数据的概率转换成当前帧数据每一个点的概率;
对观测数据建立栅格化地图:将环境划分为n×n数量的栅格,以空闲和占据表示栅格的两种状态,空闲表示栅格所表示的空间没有障碍物,用白色来填充,占据表示栅格所代表的空间有障碍物,用黑色来填充,还没有探测到的未知区域为灰色,最后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,初步得到机器人的位姿信息与环境地图信息;
步骤3:由步骤2得到的初步机器人位姿信息以及环境地图信息,通过构建位姿以及路标点之间的图模型,利用它们之间的约束关系,采用非线性优化的方式将估计位姿与实际观测所得到的位姿构造一个误差函数,最小化误差函数以进一步求得精确位姿;
步骤4:将得到的精确的位姿和地图信息,传送到基于信息论方法的自主探索算法中,该算法的长期目标是减少机器人在探索未知环境时所构建的地图的信息熵,短期目标是最大化互信息,互信息高的位置相当于环境的未被探索的区域,利用贝叶斯优化的方法来确定互信息极值点位置,从而确定移动机器人在未知环境中的每一个运动目标位置,让机器人自主完成定位与建图任务。
本发明还包括:
1.步骤1中采用不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型具体为:
步骤1.1:建立观测模型:将雷达传感器本身的噪声、随机测量产生的误差和检测失败造成的误差观测分布进行不同权重的加权和建立一个近似高斯函数的观测模型:
其中雷达传感器本身的噪声服从高斯分布,随机测量产生的误差服从指数分布,表示高斯分布,指数分布概率密度函数以及检测失败的概率密度,α,β,χ分别是它们所对应的权重,由于传感器噪声占主要部分,所以权重α最大,通过实验不断调整α,β,χ的大小关系来构建一个适用于实际场景的模型;
步骤1.2:建立似然域模型:将步骤1.1得到的近似高斯函数作用于所有空间点障碍物数据,首先将参考点云所占的空间划分成网格或体素并计算每个网格的均值和方差;接着由里程计给出初始化的位姿参数xt=(x y θ)T;然后根据传感器所测得的数据点变换到已知的地图上的变换关系观测数据转换到参考点云图中,转换关系为:
其中xt=(x y θ)T表示机器人的位姿,(xk'yk')T为传感器局部坐标位置,θk'表示传感器光束相对于机器人航向角的偏角。
本发明的有益效果:
(1)本发明和机器人自主移动算法相结合,能够实现机器人对未知环境的自主探索,在环境中实现自动地定位与建图
(2)本发明通过考虑得到的激光数据的各种不同权重噪声的影响,构建一个似然场模型来实现帧间之间的匹配,提高了匹配的精准度,提高了定位与建图的准确性
(3)本发明利用分支定界方法对匹配进行加速处理,在保证准确性良好的情况下,提升了算法的实时性,适用于解决较大场景的SLAM问题。
附图说明
图1是分支定界法应用于搜索算法中的流程图。
图2是本发明一种基于自主移动机器人的大场景SLAM方法框图。
图3是观测数据建立栅格化地图示意图。
具体实施方式
下面结合附图对本发明具体实施方式做进一步说明。
结合图2,本发明的一种大场景下自主移动机器人SLAM方法,主要包括似然域模型模块、搜索匹配模块、位姿优化模块以及机器人对环境自主探索模块:
(1)似然域模型模块首先考虑到雷达传感器测量空间环境会有以下几种噪声的影响:(a)由雷达传感器本身的噪声所带来的,它主要服从高斯分布;(b)随机测量产生的误差,主要服从指数分布;(c)检测失败造成的误差。三种误差中(a)是占的比重最大,所以将三种误差的观测分布进行不同权重的加权和建立一个近似高斯函数的观测模型,然后将观测得到点云进行近似的高斯模糊化,然后激光雷达扫描到的数据点经过坐标变换映射到地图坐标系下,从而得到一定的匹配得分。
(2)搜索匹配模块通过观测数据建立好的栅格化地图和当前观测值来估计机器人的位姿。首先在参考帧时刻的位姿xt-1的一定范围内设定一个搜索框,比如以xt-1为中心的10×10(或者更大)的矩形区域内;然后通过分枝定界法在这个区域内进行加速筛选,生成一个候选子集;最后在这个候选子集上计算出每个位姿(位置和旋转)上对应于观测数据集合中所有坐标的概率和,寻找一个得分和最高的,就是我们所需要求的最佳位姿。
(2.1)分枝定界主要分为两部分,一是分枝,二是定界。分枝的含义就是将整个总问题(相当于根节点)不断分解成越来越小的子问题,这些子问题相当于树中的子节点,而子节点又分解子节点,直到叶子节点,每一个叶子节点就代表单个的解。分枝的过程也就可以理解为一个将大的解空间分解成一个个小的解集的过程。而定界就是在分枝的过程中在其所有子空间解集内找到一个最大值或最小值作为其父节点的值,也叫做这些解集的目标上界或下界。对于本专利的位姿搜索问题而言,首先将当前的最优解设置为z=-∞(假设求解问题解为最大值);其次从还没有分枝的节点中选择一个节点,进行分枝;然后计算出每一个新分出来的节点的上限;最后对每一个节点进行是否需要分枝的判断,若节点的上界大于等于z那么就将此值赋予z,否则将这个节点减掉不予考虑,返回第二步,直到左右节点遍历完为止。具体流程图如图1所示。
(3)位姿优化模块,通过构建位姿以及路标点之间的图模型,利用它们之间的约束关系,采用非线性优化的方式将估计位姿与实际观测所得到的位姿构造一个误差函数,最小化误差函数以进一步求得精确位姿,此外在此基础上加入回路闭合检测算法,检测到回环后,将历史时刻机器人位姿进行进一步调整。
(4)将得到的机器人位姿和周围环境信息传入到自主探索模块,采用一种基于信息论的方法,该方法的长期目标是减少机器人在探索未知环境时所构建的地图的信息熵,短期目标是最大化互信息(互信息高的位置相当于环境的未被探索的区域),利用贝叶斯优化的方法来确定互信息极值点位置,从而确定移动机器人在未知环境中的每一个运动目标位置。驱动硬件模块探索完所有环境的地图信息,并绘制出栅格地图。
本发明具体实施方式还包括:
本发明涉及到自主探索和同步定位与地图构建等机器人技术。本发明采用激光雷达以及机器人里程计作为传感器,首先考虑机器人在空间平面运行所面临各种噪声的影响,由不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;然后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,结合位姿优化模块,得到一个精准的位姿和地图;最后将得到的位姿和地图信息传送到基于信息论方法的自主探索算法中,让机器人自主完成定位与建图任务。本发明相对其他方法计算量均很低,而且同时适用于结构化与非结构化环境当中,具有良好的鲁棒性,适用于更加复杂、较大的环境场合,并且能够实现机器人在位置环境下自主的大范围建图与定位。
本发明包括如下步骤:
步骤1:考虑机器人在空间平面运行所面临各种噪声的影响,由不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;
步骤1.1:建立观测模型:考虑到雷达传感器测量空间环境会有以下几种噪声的影响:(1)
由雷达传感器本身的噪声所带来的,它主要服从高斯分布;(2)随机测量产生的误差,主要服从指数分布;(3)检测失败造成的误差。将三种误差的观测分布进行不同权重的加权和建立一个近似高斯函数的观测模型。
其中表示高斯分布,指数分布概率密度函数以及检测失败的概率密度,α,β,χ分别是它们所对应的权重,由于传感器噪声占主要部分,所以权重α最大,通过实验不断调整α,β,χ的大小关系来构建一个适用于实际场景的模型。
步骤1.2:建立似然域模型:将步骤1.1得到的近似高斯函数作用于所有空间点障碍物数据,首先将参考点云所占的空间划分成一定大小的网格或体素并计算每个网格的均值和方差;接着由里程计给出初始化的位姿参数xt=(x y θ)T;然后根据传感器所测得的数据点变换到已知的地图上的变换关系观测数据转换到参考点云图中,转换关系如下式所示:
其中xt=(x y θ)T表示机器人的位姿,(xk'yk')T为传感器局部坐标位置,θk'表示传感器光束相对于机器人航向角的偏角。
步骤2、首先对步骤1得到的观测数据建立栅格化地图,由于一帧雷达观测包含很多数据点,而这些数据之间是没有关联的,即它们是完全独立的,所以状态估计方程又可以写为:
考虑到实际计算的复杂性,这里我们将等式右边取个对数,则:
这样就可以将连乘运算转换成加法运算了。通过式(4)就可以将整帧观测数据的概率转换成当前帧数据每一个点的概率。接着,在计算这个概率之前,需要对观测数据建立栅格化地图。我们将环境划分为n×n数量的栅格,以空闲和占据表示栅格的两种状态,空闲表示栅格所表示的空间没有障碍物,用白色来填充,占据表示栅格所代表的空间有障碍物,用黑色来填充。如图3所示,灰色部分是还没有探测到的未知区域。最后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,初步得到机器人的位姿信息与环境地图信息。
步骤3、由步骤2得到的初步机器人位姿信息以及环境地图信息,通过构建位姿以及路标点之间的图模型,利用它们之间的约束关系,采用非线性优化的方式将估计位姿与实际观测所得到的位姿构造一个误差函数,最小化误差函数以进一步求得精确位姿。
步骤4、将得到的精确的位姿和地图信息,传送到基于信息论方法的自主探索算法中,该算法的长期目标是减少机器人在探索未知环境时所构建的地图的信息熵,短期目标是最大化互信息(互信息高的位置相当于环境的未被探索的区域),利用贝叶斯优化的方法来确定互信息极值点位置,从而确定移动机器人在未知环境中的每一个运动目标位置,让机器人自主完成定位与建图任务。
其中,对得到的观测数据建立栅格化地图,采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,初步得到机器人位姿以及环境地图信息。
通过最大化互信息来实现移动机器人的自主探索。在机器人的传感器有效范围内采集周围环境信息,计算出互信息最大的位置,该位置就是移动机器人的最佳运动目标位置,让机器人自主完成定位与建图任务。
Claims (2)
1.一种大场景下自主移动机器人SLAM方法,其特征在于,包括如下步骤:
步骤1:采用不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;
步骤2:首先对步骤1得到的观测数据建立栅格化地图,状态估计方程为:
将等式右边取对数,则:
将连乘运算转换成加法运算,通过上式将整帧观测数据的概率转换成当前帧数据每一个点的概率;
对观测数据建立栅格化地图:将环境划分为n×n数量的栅格,以空闲和占据表示栅格的两种状态,空闲表示栅格所表示的空间没有障碍物,用白色来填充,占据表示栅格所代表的空间有障碍物,用黑色来填充,还没有探测到的未知区域为灰色,最后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,初步得到机器人的位姿信息与环境地图信息;
步骤3:由步骤2得到的初步机器人位姿信息以及环境地图信息,通过构建位姿以及路标点之间的图模型,利用它们之间的约束关系,采用非线性优化的方式将估计位姿与实际观测所得到的位姿构造一个误差函数,最小化误差函数以进一步求得精确位姿;
步骤4:将得到的精确的位姿和地图信息,传送到基于信息论方法的自主探索算法中,该算法的长期目标是减少机器人在探索未知环境时所构建的地图的信息熵,短期目标是最大化互信息,互信息高的位置相当于环境的未被探索的区域,利用贝叶斯优化的方法来确定互信息极值点位置,从而确定移动机器人在未知环境中的每一个运动目标位置,让机器人自主完成定位与建图任务。
2.根据权利要求1所述的一种大场景下自主移动机器人SLAM方法,其特征在于:步骤1所述采用不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型具体为:
步骤1.1:建立观测模型:将雷达传感器本身的噪声、随机测量产生的误差和检测失败造成的误差观测分布进行不同权重的加权和建立一个近似高斯函数的观测模型:
其中雷达传感器本身的噪声服从高斯分布,随机测量产生的误差服从指数分布,表示高斯分布,指数分布概率密度函数以及检测失败的概率密度,α,β,χ分别是它们所对应的权重,由于传感器噪声占主要部分,所以权重α最大,通过实验不断调整α,β,χ的大小关系来构建一个适用于实际场景的模型;
步骤1.2:建立似然域模型:将步骤1.1得到的近似高斯函数作用于所有空间点障碍物数据,首先将参考点云所占的空间划分成网格或体素并计算每个网格的均值和方差;接着由里程计给出初始化的位姿参数xt=(x yθ)T;然后根据传感器所测得的数据点变换到已知的地图上的变换关系观测数据转换到参考点云图中,转换关系为:
其中xt=(x yθ)T表示机器人的位姿,(xk'yk')T为传感器局部坐标位置,θk'表示传感器光束相对于机器人航向角的偏角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010236546.2A CN111427047B (zh) | 2020-03-30 | 2020-03-30 | 一种大场景下自主移动机器人slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010236546.2A CN111427047B (zh) | 2020-03-30 | 2020-03-30 | 一种大场景下自主移动机器人slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111427047A true CN111427047A (zh) | 2020-07-17 |
CN111427047B CN111427047B (zh) | 2023-05-05 |
Family
ID=71549829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010236546.2A Active CN111427047B (zh) | 2020-03-30 | 2020-03-30 | 一种大场景下自主移动机器人slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111427047B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111998846A (zh) * | 2020-07-24 | 2020-11-27 | 中山大学 | 基于环境几何与拓扑特征的无人系统快速重定位方法 |
CN112179330A (zh) * | 2020-09-14 | 2021-01-05 | 浙江大华技术股份有限公司 | 移动设备的位姿确定方法及装置 |
CN112883290A (zh) * | 2021-01-12 | 2021-06-01 | 中山大学 | 一种基于分支定界法的自动切图方法 |
CN113298014A (zh) * | 2021-06-09 | 2021-08-24 | 安徽工程大学 | 基于逆向索引关键帧选取策略的闭环检测方法、存储介质及设备 |
CN113391318A (zh) * | 2021-06-10 | 2021-09-14 | 上海大学 | 一种移动机器人定位方法及系统 |
CN113703443A (zh) * | 2021-08-12 | 2021-11-26 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113763263A (zh) * | 2021-07-27 | 2021-12-07 | 华能伊敏煤电有限责任公司 | 基于点云尾气过滤技术的水雾尾气噪声处理方法 |
CN113759928A (zh) * | 2021-09-18 | 2021-12-07 | 东北大学 | 用于复杂大尺度室内场景的移动机器人高精度定位方法 |
CN114018236A (zh) * | 2021-09-30 | 2022-02-08 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114596360A (zh) * | 2022-02-22 | 2022-06-07 | 北京理工大学 | 一种基于图拓扑的双阶段主动即时定位与建图算法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004276168A (ja) * | 2003-03-14 | 2004-10-07 | Japan Science & Technology Agency | 移動ロボット用地図作成システム |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
CN109959377A (zh) * | 2017-12-25 | 2019-07-02 | 北京东方兴华科技发展有限责任公司 | 一种机器人导航定位系统及方法 |
CN110530368A (zh) * | 2019-08-22 | 2019-12-03 | 浙江大华技术股份有限公司 | 一种机器人定位方法及设备 |
CN110645974A (zh) * | 2019-09-26 | 2020-01-03 | 西南科技大学 | 一种融合多传感器的移动机器人室内地图构建方法 |
CN110807799A (zh) * | 2019-09-29 | 2020-02-18 | 哈尔滨工程大学 | 一种结合深度图推断的线特征视觉里程计方法 |
-
2020
- 2020-03-30 CN CN202010236546.2A patent/CN111427047B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004276168A (ja) * | 2003-03-14 | 2004-10-07 | Japan Science & Technology Agency | 移動ロボット用地図作成システム |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
CN109959377A (zh) * | 2017-12-25 | 2019-07-02 | 北京东方兴华科技发展有限责任公司 | 一种机器人导航定位系统及方法 |
CN110530368A (zh) * | 2019-08-22 | 2019-12-03 | 浙江大华技术股份有限公司 | 一种机器人定位方法及设备 |
CN110645974A (zh) * | 2019-09-26 | 2020-01-03 | 西南科技大学 | 一种融合多传感器的移动机器人室内地图构建方法 |
CN110807799A (zh) * | 2019-09-29 | 2020-02-18 | 哈尔滨工程大学 | 一种结合深度图推断的线特征视觉里程计方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111998846B (zh) * | 2020-07-24 | 2023-05-05 | 中山大学 | 基于环境几何与拓扑特征的无人系统快速重定位方法 |
CN111998846A (zh) * | 2020-07-24 | 2020-11-27 | 中山大学 | 基于环境几何与拓扑特征的无人系统快速重定位方法 |
CN112179330A (zh) * | 2020-09-14 | 2021-01-05 | 浙江大华技术股份有限公司 | 移动设备的位姿确定方法及装置 |
CN112883290A (zh) * | 2021-01-12 | 2021-06-01 | 中山大学 | 一种基于分支定界法的自动切图方法 |
CN112883290B (zh) * | 2021-01-12 | 2023-06-27 | 中山大学 | 一种基于分支定界法的自动切图方法 |
CN113298014A (zh) * | 2021-06-09 | 2021-08-24 | 安徽工程大学 | 基于逆向索引关键帧选取策略的闭环检测方法、存储介质及设备 |
CN113391318A (zh) * | 2021-06-10 | 2021-09-14 | 上海大学 | 一种移动机器人定位方法及系统 |
CN113763263A (zh) * | 2021-07-27 | 2021-12-07 | 华能伊敏煤电有限责任公司 | 基于点云尾气过滤技术的水雾尾气噪声处理方法 |
CN113703443A (zh) * | 2021-08-12 | 2021-11-26 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113703443B (zh) * | 2021-08-12 | 2023-10-13 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113759928A (zh) * | 2021-09-18 | 2021-12-07 | 东北大学 | 用于复杂大尺度室内场景的移动机器人高精度定位方法 |
CN114018236A (zh) * | 2021-09-30 | 2022-02-08 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114018236B (zh) * | 2021-09-30 | 2023-11-03 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114596360A (zh) * | 2022-02-22 | 2022-06-07 | 北京理工大学 | 一种基于图拓扑的双阶段主动即时定位与建图算法 |
Also Published As
Publication number | Publication date |
---|---|
CN111427047B (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111427047A (zh) | 一种大场景下自主移动机器人slam方法 | |
US10885352B2 (en) | Method, apparatus, and device for determining lane line on road | |
CN112230243B (zh) | 一种移动机器人室内地图构建方法 | |
GB2501466A (en) | Localising transportable apparatus | |
CN111638526A (zh) | 一种陌生环境下机器人自主建图的方法 | |
CN106056643A (zh) | 一种基于点云的室内动态场景slam方法及系统 | |
CN113325389A (zh) | 一种无人车激光雷达定位方法、系统及存储介质 | |
CN113947636B (zh) | 一种基于深度学习的激光slam定位系统及方法 | |
CN116469001A (zh) | 面向遥感影像的旋转框目标检测模型的构建方法 | |
Liao et al. | Optimized SC-F-LOAM: Optimized fast LiDAR odometry and mapping using scan context | |
CN116758153A (zh) | 用于机器人精准位姿获取的基于多因子图的后端优化方法 | |
CN113191427B (zh) | 一种多目标车辆跟踪方法及相关装置 | |
CN115482252A (zh) | 基于运动约束的slam闭环检测和位姿图优化方法 | |
CN116907510A (zh) | 一种基于物联网技术的智能化运动识别方法 | |
CN115015908A (zh) | 基于图神经网络的雷达目标数据关联方法 | |
CN112305558A (zh) | 一种利用激光点云数据的移动机器人轨迹确定方法及装置 | |
Peters et al. | Hybrid tracking of low snr targets | |
CN118068318B (zh) | 基于毫米波雷达和环境传感器的多模态感知方法及系统 | |
CN117788511B (zh) | 基于深度神经网络的多扩展目标跟踪方法 | |
CN117928559A (zh) | 一种基于强化学习的威胁规避下无人机路径规划方法 | |
CN117537803B (zh) | 机器人巡检语义-拓扑地图构建方法、系统、设备及介质 | |
Cheng et al. | Multi-sensor Fused Localization Algorithm Based on Optimized Nearest Neighbor Search | |
CN118068318A (zh) | 基于毫米波雷达和环境传感器的多模态感知方法及系统 | |
Scheel | Fully bayesian vehicle tracking using extended object models | |
Díez-González et al. | Time-based UWB localization architectures analysis for UAVs positioning in industry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |