CN114646937A - 一种slam与uwb的实时融合与建图方法 - Google Patents
一种slam与uwb的实时融合与建图方法 Download PDFInfo
- Publication number
- CN114646937A CN114646937A CN202210338417.3A CN202210338417A CN114646937A CN 114646937 A CN114646937 A CN 114646937A CN 202210338417 A CN202210338417 A CN 202210338417A CN 114646937 A CN114646937 A CN 114646937A
- Authority
- CN
- China
- Prior art keywords
- ultra
- wideband
- intelligent agent
- uwb
- current moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种SLAM与UWB的实时融合与建图方法,包括:步骤1、在携带激光雷达的智能体的移动过程中,根据分布式算法,得到当前时刻智能体与各超宽带节点的定位信息;步骤2、基于扩展卡尔曼滤波算法,对当前时刻的定位信息进行修正;步骤3、基于高斯‑牛顿方法求取当前时刻智能体的最优位姿,采用最优位姿矫正智能体当前时刻的位姿估计以及各超宽带节点的位置,同时更新激光雷达地图以及UWB地图;将步骤3输出的当前时刻的智能体的位姿估计以及各超宽带节点的位置作为步骤2的输入。本发明将LiDAR传感器与UWB传感器融合在一起,融合UWB和LiDAR以提高基于UWB的定位和映射的准确性和鲁棒性,并提供超宽带节点坐标以及周围环境的详细地图信息。
Description
技术领域
本发明涉及机器人定位与导航技术领域,特别是一种SLAM与UWB的实时融合与建图方法。
背景技术
SLAM(Simulaneous localizaion and mapping)已在移动机器人领域中有着广泛的应用。由于雷达(LiDAR)能够准确测量到附近物体的距离,因此许多方法都使用了雷达,但SLAM性能非常容易受到累积错误的影响。
在基于LiDAR的SLAM中可以使用UWB传感器融合的方法消除累积误差并增强鲁棒性。但是UWB的距离分辨率低于LiDAR(激光测距误差约为1cm,约为UWB测距误差的十分之一),直接在UWB定位结果之上构建LiDAR地图的融合效果并不理想。
发明内容
鉴于此,本发明提供一种SLAM与UWB的实时融合与建图方法,将LiDAR传感器与UWB(Ultra Wide Band)传感器融合在一起,融合UWB和LiDAR以提高基于UWB的定位和映射的准确性和鲁棒性,并提供锚点坐标以及周围环境的详细地图信息。
本发明公开了一种SLAM与UWB的实时融合与建图方法,包括:
步骤1、在携带激光雷达的智能体的移动过程中,根据分布式算法,得到当前时刻所述智能体与各超宽带节点的定位信息;
步骤2、基于扩展卡尔曼滤波算法,对当前时刻的所述定位信息进行修正;
步骤3、基于高斯-牛顿方法求取当前时刻所述智能体的最优位姿,采用所述最优位姿矫正所述智能体当前时刻的位姿估计以及各超宽带节点的位置,同时更新激光雷达地图以及UWB地图;将步骤3输出的当前时刻的所述智能体的位姿估计以及各超宽带节点的位置作为步骤2的输入;
步骤4、当所述智能体移动到下一时刻时,令下一时刻等于当前时刻,重复执行步骤1至步骤3,直至所述智能体完成预设的任务。
进一步地,所述步骤1包括:
所述智能体进入未知区域后,抛投位置已知的超宽带节点和位置未知的超宽带节点,并与各超宽带节点建立通讯,测得相互之间的距离;智能体在区域中不断移动,收集各个位置的激光雷达反馈数据。
进一步地,所述步骤1中的智能体在移动的过程中,当不满足预设条件时,需要继续在其周围抛投超宽带节点;所述预设条件为所述智能体周围可测量范围内的超宽带节点数量大于3个。
进一步地,所述步骤2包括:
根据步骤1输出的所述智能体和各超宽带节点的定位信息构建动态观测模型;
采用扩展卡尔曼滤波算法对所述动态观测模型进行更新,得到更新的状态估计和更新的协方差估计,即完成对对所述定位信息的修正。
进一步地,所述动态观测模型包括状态噪声;所述定位信息包括位姿及速度。
进一步地,利用基于高斯-牛顿方法的扫描匹配过程,将当前时刻观测到的光束端点与当前时刻的激光雷达地图进行匹配,以找到最佳的变换从而更好地匹配。
进一步地,所述扫描匹配过程在一个多分辨率网格中进行,从低分辨率的网格映射到高分辨率的网格映射,从而更有可能找到全局解而不是被困在局部解中。
进一步地,在建立所述激光雷达地图时,通过变换和旋转,设定一个超宽带节点固定在原点,设定另一个超宽带节点始终位于正x轴上;两个设定的超宽带节点的速度为零;在以两个设定的超宽带节点建立的局部框架下构建和更新激光雷达地图。
由于采用了上述技术方案,本发明具有如下的优点:将LiDAR传感器与UWB(UltraWide Band)传感器融合在一起,融合UWB和LiDAR以提高基于UWB的定位和映射的准确性和鲁棒性,并提供锚点坐标以及周围环境的详细地图信息。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本发明实施例的一种SLAM与UWB的实时融合与建图方法的流程示意图;
图2为本发明实施例的UWB节点定位坐标系示意图;
图3为本发明实施例的节点拓扑网络结构图;
图4为本发明实施例的仿真环境示意图;
图5为本发明实施例的建图过程示意图;
图6为本发明实施例的建图效果示意图;
图7为本发明实施例的建图地图输出图。
具体实施方式
结合附图和实施例对本发明作进一步说明,显然,所描述的实施例仅是本发明实施例一部分实施例,而不是全部的实施例。本领域普通技术人员所获得的所有其他实施例,都应当属于本发明实施例保护的范围。
实施例一:
参见图1,本发明提供了一种SLAM与UWB的实时融合与建图方法的实施例,包括:
S1、在携带激光雷达的智能体的移动过程中,根据分布式算法,得到当前时刻智能体与各超宽带节点的定位信息;
S2、基于扩展卡尔曼滤波算法,对当前时刻的定位信息进行修正;
S3、基于高斯-牛顿方法求取当前时刻智能体的最优位姿,采用最优位姿矫正智能体当前时刻的位姿估计以及各超宽带节点的位置,同时更新激光雷达地图以及UWB地图;将S3输出的当前时刻的智能体的位姿估计以及各超宽带节点的位置作为S2的输入;
S4、智能体移动到下一时刻,令下一时刻等于当前时刻,重复执行S1至S3,直至智能体完成预设的任务。
本实施例中,S1包括:
智能体进入未知区域后,抛投位置已知的超宽带节点和位置未知的超宽带节点,并与各超宽带节点建立通讯,测得相互之间的距离;智能体在区域中不断移动,收集各个位置的激光雷达反馈数据。
本实施例中,S1中的智能体在移动的过程中,当不满足预设条件时,需要继续在其周围抛投超宽带节点;预设条件为智能体周围可测量范围内的超宽带节点数量大于3个。
本实施例中,S2包括:
根据S1输出的智能体和各超宽带节点的定位信息构建动态观测模型;
采用扩展卡尔曼滤波算法对动态观测模型进行更新,得到更新的状态估计和更新的协方差估计,即完成对对定位信息的修正。
本实施例中,动态观测模型包括状态噪声;定位信息包括位姿及速度。
本实施例中,利用基于高斯-牛顿方法的扫描匹配过程,将当前时刻观测到的光束端点与当前时刻的激光雷达地图进行匹配,以找到最佳的变换从而更好地匹配。
本实施例中,扫描匹配过程在一个多分辨率网格中进行,从低分辨率的网格映射到高分辨率的网格映射,从而更有可能找到全局解而不是被困在局部解中。
本实施例中,在建立激光雷达地图时,通过变换和旋转,设定一个超宽带节点固定在原点,设定另一个超宽带节点始终位于正x轴上;两个设定的超宽带节点的速度为零;在以两个设定的超宽带节点建立的局部框架下构建和更新激光雷达地图。
NLOS(Non Line of Sight)传播对于高分辨率定位系统影响很大,因为在距离测量中会引入不可忽略的偏差,从而降低了定位精度。如果功率差(即接收功率减去第一路径功率)大于10dB,则该信道很可能是非视距(NLOS),那么NLOS下的测距在EKF更新中可被忽略。
由于UWB测距和LiDAR测距的精度差异,不能直接在UWB的定位基础上构建LiDAR地图,这促使通过优化机器人的位姿和方向估计来匹配扫描端点。HectorSLAM利用基于高斯-牛顿方法的扫描匹配过程,将时刻t观测到的光束端点与最新的LiDAR地图进行匹配,以找到最佳的变换从而更好地匹配。扫描匹配的过程在一个多分辨率网格中进行,从低分辨率的网格映射到高分辨率的网格映射,使它更有可能找到全局解而不是被困在局部解中。基于EKF(Extended Kalman Filter)的UWB测距可以获得机器人以及锚点的位姿和速度估计,并用在扫描匹配过程的初始化。
实施例二:
本实施例以9个超宽带节点为例,其包括4个位置已知的超宽带节点和5个位置未知的超宽带节点,阐述本实施例的方法。
在一个人类无法进入且GPS信号弱,无其他可参考信号的区域,需要派遣智能体进行区域探测,并建立本地区的地图。智能体均携带超宽带模块,且无定位的先验信息。智能体进入未知区域后,抛投初始UWB定位节点,并与各节点建立通讯,测得相互之间的距离。智能体在区域中不断移动,收集各个位置的雷达反馈数据。在远离初始位置的区域可以再次抛投UWB定位节点进行协同定位。基于扩展卡尔曼滤波方法,将UWB融合信息进行滤波处理,得到当前智能体的位置、速度、朝向等信息,以此位置为先验信息,利用高斯-牛顿方法对雷达数据进行匹配,得到当前位置的准确信息,并建立地图。
在本实例中应用提供的基于SLAM与UWB的实时融合与建图方法,通过分布式定位算法,实现三维空间内的未知超宽带节点的定位。同时,智能体的运动信息在噪声的影响下会出现偏差,而UWB的定位结果能够及时纠正位置信息,减小匹配算法收敛与局部最优解的概率。以下通过具体实例来实施和验证其准确性。实验环境如图4所示。
步骤一:分布式定位。
分布式定位系统整体框架:多个UWB模块采用DR分布式测距,并且与智能体搭载的计算设备串口通讯;计算设备与主计算机建立无线通讯。假设网络节点的拓扑结构如图3所示。节点p1,p2,p3,p4是位置已知的锚点,其余的是坐标未知的网络中的普通节点,对于空间中由p1,p2,p3,p4组成的凸四面体中的任何点p0,存在重心坐标w01,w02,w03,w04,使得
w01+w02+w03+w04=1
p0=w01*p1+w02*p2+w03*p3+w04*p4
则:
所有要定位的节点都可以表示为重心坐标与其对应邻居的乘积之和:
p5=w51p1+w56p6+w58p8+w59p9
p6=w62p2+w65p5+w67p7+w69p9
p7=w73p3+w76p6+w78p8+w79p9
p8=w84p4+w85p5+w87p7+w89p9
p9=w95p5+w96p6+w97p7+w98p8
将上式转换为矩阵表示形式:
pn=Cpn+Bpa
其中pa表示锚点,即pa=[p1,p2,p3,p4]T;pn表示待定位的普通节点,pn=[p5,p6,p7,p8,p9]T,B、C是由重心坐标构成的矩阵,在本例中B、C如下所示
可以等价写为:
(I-C)pn=Bpa
令M=I-C,并且给等式两边同乘以MT,令A=MTM且b=MTBpa,可以将定位问题表示为一个最小二乘问题如下所示:
Apn=b
将矩阵A进行分解:
A=D-L-U
其中矩阵D表示A的对角线构成的矩阵,-L和-U分别表示矩阵A的严格下三角矩阵和严格上三角矩阵。此时取K=D且N=L+U,将该问题表示为迭代的形式:
然后,按如下方式进行Jacobi迭代估计:
接下来,修改Jacobi迭代估计方法以提高其收敛速度,并获得更适合恶劣环境的迭代形式。
接下来将上式递归算法开发为一种分布式的算法如下:
步骤二:扩展卡尔曼滤波定位。
用r(UWB)表示基于UWB的测距。
xt=[p0,x,t,p0,y,t,v0,x,t,v0,y,t]T
动态观测模型中
xt=Ftxt-1+Gtwt
其中转换矩阵:
状态噪声wt为零均值且具有协方差:
δ是采样间隙,由标准扩展卡尔曼滤波(EKF)更新:
Pt|t=(I4(Nt+1)-KtHt)Pt|t-1
由于处理的一个没有全局定位信息的锚点定位问题,初始只知道四个节点,所以基于UWB测距下只能得到可以任意变换和旋转的所有节点的相对几何位置关系,如图2。在建立LiDAR地图时,需要消除这种几何不确定性。为此,通过变换和旋转,使一个锚点总在原点,另一个锚点始终位于正x轴上。另外,强制这两个选定的锚点的速度为零。便可以在以这两个锚点建立的局部框架下构建和更新LiDAR地图。建图过程如图5所示。
步骤三:基于高斯-牛顿法的匹配建图。
机器人t时刻的位姿ξ*和上一时刻位姿ξ存在关系ξ+Δξ=ξ*,要求所有激光点在栅格地图占用偏差总量尽可能小,即要求Δξ满足以下要求:
在Δξ处展开:
对Δξ求导:
令:
则求导后式子可变为:
2(K-H·Δξ)=0
即:
Δξ=H-1·K
根据定义:
栅格地图每个栅格都用0-1表示障碍物占据的概率。利用双线性插值法计算占用值M(Pm),Pi,j=(si,x,si,y)T
对上式求偏导:
将上式中的Pm替换为Si(ξ),则得到结果M(Si(ξ))。建图效果如图6所示,建图结果如图7所示。
经过仿真验证,相比于市面上常用的锚点-标签定位方案,本实例提出的基于SLAM与UWB的实时融合与建图方法,目前能够实现基于UWB的多智能体系统分布式协同定位的精度小于2cm,如图7所示,远超目前市面上现有的UWB设备定位精度(通常为15cm)。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (8)
1.一种SLAM与UWB的实时融合与建图方法,其特征在于,包括:
步骤1、在携带激光雷达的智能体的移动过程中,根据分布式算法,得到当前时刻所述智能体与各超宽带节点的定位信息;
步骤2、基于扩展卡尔曼滤波算法,对当前时刻的所述定位信息进行修正;
步骤3、基于高斯-牛顿方法求取当前时刻所述智能体的最优位姿,采用所述最优位姿矫正所述智能体当前时刻的位姿估计以及各超宽带节点的位置,同时更新激光雷达地图以及UWB地图;将步骤3输出的当前时刻的所述智能体的位姿估计以及各超宽带节点的位置作为步骤2的输入;
步骤4、当所述智能体移动到下一时刻时,令下一时刻等于当前时刻,重复执行步骤1至步骤3,直至所述智能体完成预设的任务。
2.根据权利要求1所述的方法,其特征在于,所述步骤1包括:
所述智能体进入未知区域后,抛投位置已知的超宽带节点和位置未知的超宽带节点,并与各超宽带节点建立通讯,测得相互之间的距离;智能体在区域中不断移动,收集各个位置的激光雷达反馈数据。
3.根据权利要求1所述的方法,其特征在于,所述步骤1中的智能体在移动的过程中,当不满足预设条件时,需要继续在其周围抛投超宽带节点;所述预设条件为所述智能体周围可测量范围内的超宽带节点数量大于3个。
4.根据权利要求1所述的方法,其特征在于,所述步骤2包括:
根据步骤1输出的所述智能体和各超宽带节点的定位信息构建动态观测模型;
采用扩展卡尔曼滤波算法对所述动态观测模型进行更新,得到更新的状态估计和更新的协方差估计,即完成对对所述定位信息的修正。
5.根据权利要求4所述的方法,其特征在于,所述动态观测模型包括状态噪声;所述定位信息包括位姿及速度。
6.根据权利要求1所述的方法,其特征在于,利用基于高斯-牛顿方法的扫描匹配过程,将当前时刻观测到的光束端点与当前时刻的激光雷达地图进行匹配,以找到最佳的变换从而更好地匹配。
7.根据权利要求6所述的方法,其特征在于,所述扫描匹配过程在一个多分辨率网格中进行,从低分辨率的网格映射到高分辨率的网格映射,从而更有可能找到全局解而不是被困在局部解中。
8.根据权利要求1所述的方法,其特征在于,在建立所述激光雷达地图时,通过变换和旋转,设定一个超宽带节点固定在原点,设定另一个超宽带节点始终位于正x轴上;两个设定的超宽带节点的速度为零;在以两个设定的超宽带节点建立的局部框架下构建和更新激光雷达地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210338417.3A CN114646937A (zh) | 2022-04-01 | 2022-04-01 | 一种slam与uwb的实时融合与建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210338417.3A CN114646937A (zh) | 2022-04-01 | 2022-04-01 | 一种slam与uwb的实时融合与建图方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114646937A true CN114646937A (zh) | 2022-06-21 |
Family
ID=81995801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210338417.3A Pending CN114646937A (zh) | 2022-04-01 | 2022-04-01 | 一种slam与uwb的实时融合与建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114646937A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117849708A (zh) * | 2024-03-07 | 2024-04-09 | 奥鼎智通(北京)科技有限公司 | 一种基于多传感器建图的超宽带定位方法及系统 |
-
2022
- 2022-04-01 CN CN202210338417.3A patent/CN114646937A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117849708A (zh) * | 2024-03-07 | 2024-04-09 | 奥鼎智通(北京)科技有限公司 | 一种基于多传感器建图的超宽带定位方法及系统 |
CN117849708B (zh) * | 2024-03-07 | 2024-05-17 | 奥鼎智通(北京)科技有限公司 | 一种基于多传感器建图的超宽带定位方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ullah et al. | Extended Kalman filter-based localization algorithm by edge computing in wireless sensor networks | |
CN112347840A (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN113269837B (zh) | 一种适用于复杂三维环境的定位导航方法 | |
CN108896047B (zh) | 分布式传感器网络协同融合与传感器位置修正方法 | |
CN113781582A (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN110866927A (zh) | 一种基于垂足点线特征结合的ekf-slam算法的机器人定位与构图方法 | |
CN108332752B (zh) | 机器人室内定位的方法及装置 | |
CN115479598A (zh) | 基于多传感器融合的定位与建图方法及紧耦合系统 | |
CN110187337B (zh) | 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及系统 | |
CN111474932B (zh) | 一种集成情景经验的移动机器人建图与导航方法 | |
CN111739066B (zh) | 一种基于高斯过程的视觉定位方法、系统及存储介质 | |
CN114646937A (zh) | 一种slam与uwb的实时融合与建图方法 | |
Malagon-Soldara et al. | Mobile robot localization: A review of probabilistic map-based techniques | |
CN114111791A (zh) | 一种智能机器人室内自主导航方法、系统及存储介质 | |
CN115421153B (zh) | 一种基于扩展卡尔曼滤波的激光雷达和uwb组合定位方法及系统 | |
CN115103299B (zh) | 一种基于rfid的多传感器融合定位方法 | |
CN115951369A (zh) | 面向复杂港口环境的多传感器融合定位方法 | |
CN115930948A (zh) | 一种果园机器人融合定位方法 | |
CN115950414A (zh) | 一种不同传感器数据的自适应多重融合slam方法 | |
CN116105726A (zh) | 一种多传感器融合的爬壁机器人立面定位方法 | |
CN115575935A (zh) | 一种基于随机矩阵法的部分遮挡扩展目标跟踪方法及装置 | |
Yang et al. | SLAM self-cruise vehicle based on ROS platform | |
JP7125927B2 (ja) | 情報端末装置、方法及びプログラム | |
Escourrou et al. | Ndt localization with 2d vector maps and filtered lidar scans | |
CN112241002A (zh) | 一种基于Karto SLAM的鲁棒闭环检测新方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |