CN111044036B - 基于粒子滤波的远程定位方法 - Google Patents

基于粒子滤波的远程定位方法 Download PDF

Info

Publication number
CN111044036B
CN111044036B CN201911277230.1A CN201911277230A CN111044036B CN 111044036 B CN111044036 B CN 111044036B CN 201911277230 A CN201911277230 A CN 201911277230A CN 111044036 B CN111044036 B CN 111044036B
Authority
CN
China
Prior art keywords
particle
visual
pose
robot
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911277230.1A
Other languages
English (en)
Other versions
CN111044036A (zh
Inventor
曹衍龙
孙安顺
杨将新
曹彦鹏
何泽威
董献瑞
薛小杰
刘佳炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911277230.1A priority Critical patent/CN111044036B/zh
Publication of CN111044036A publication Critical patent/CN111044036A/zh
Application granted granted Critical
Publication of CN111044036B publication Critical patent/CN111044036B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于粒子滤波的远程定位方法,包括以下步骤:基于视觉位姿进行粒子群状态初始化;基于优化后轮式里程计进行粒子位姿预测;基于激光匹配进行粒子状态微调;基于激光观测信息进行粒子状态更新;基于视觉位姿和机器人系统当前定位信息判断机器人是否被绑架,如果被绑架,重新开始执行基于视觉位姿进行粒子群状态初始化;如果没有被绑架,判断视觉位姿是否可信,如果视觉位姿可信,结合视觉位姿、激光观测信息和二维激光似然域地图进行粒子权重更新;如果视觉位姿信息不可信,仅仅基于激光观测信息和二维激光似然域地图进行粒子权重更新;根据更新的粒子权重对粒子状态进行加权平均,计算机器人基于多传感器融合算法得出的最终位姿。

Description

基于粒子滤波的远程定位方法
技术领域
本发明属于移动机器人定位技术领域,具体涉及一种基于粒子滤波的远程定位方法。
背景技术
以视觉导航机器人不在少数,视觉导航是依靠在机器人上安装一个摄像头,将看到的信息收集,经过将这些信息算法处理,得出环境模型,再而选择一条最佳路线,实现机器人的移动。视觉导航技术的优势在于较为成熟、技术成本低、借助大数据就能够解决技术路线,因此视觉导航在机器人市场中占据一席之地。但是视觉导航机器人的问题也很明显,视觉测距的前提要测的准,而在实际操作中,视觉测距经常会出现位置漂移的情况,在机器人的摄像头获取环境信息后计算出距离,期间若是数据处理和算法跟不上,距离数据就会形成偏差。
激光导航的工作原理是通过激光获取环境信息,测量激光从发出到接收的时间计算出自身距离前方障碍物的距离,通过算法的处理,同样得出环境模型,在不断的扫描测距中获得定位和行走路线。激光雷达作为机器人技术中的后起之秀,激光雷达因为成本的高昂起步较慢,但随着低成本激光雷达的研发,激光雷达机器人的性能更加优异,激光雷达具有高精度、高分辨率的优势,在地图的精度和定位上更精准。
如上分析,激光的信息精确度高,并且对光照鲁棒,基于激光得到的里程计,置信度高;但是激光的信息量较少,特征少,导致在结构化重复性程度高的环境中容易出现定位失效的情况。视觉信息的特征丰富,容易通过闭环检测来减少累计误差,但是其精度不高,并且对光照变化剧烈的情况不鲁棒,容易受图像遮挡,运动物体干扰或者快速移动导致系统失效。激光和可见光的优缺点形成互补关系,因此考虑将激光信息和视觉信息进行融合。
发明内容
鉴于以上存在的技术问题,本发明用于提供一种基于粒子滤波的远程定位方法,针对室内环境中的机器人定位展开研究,采用多传感器融合的方式来解决在重复性结构多的环境中可能出现的定位失效问题。
为解决上述技术问题,本发明采用如下的技术方案:
一种基于粒子滤波的远程定位方法,包括以下步骤:
基于视觉位姿进行粒子群的状态初始化;
基于优化后轮式里程计进行粒子位姿预测;
基于激光匹配进行预测粒子状态的微调;
基于激光观测信息进行粒子状态更新;
基于视觉位姿和机器人系统当前定位信息判断机器人是否被绑架,如果判断得到机器人被绑架,重新开始执行基于视觉位姿进行粒子群的状态初始化;如果机器人没有被绑架,判断视觉位姿是否可信,如果视觉位姿可信,如果视觉位姿可信,结合视觉位姿、激光观测信息和二维激光似然域地图进行粒子权重更新;如果视觉位姿信息不可信,不结合视觉权重进行粒子权重更新,仅仅基于激光观测信息和二维激光似然域地图进行粒子权重更新;;
根据更新的粒子权重对粒子状态进行加权平均,计算机器人基于多传感器融合算法得出的最终位姿。
优选地,基于视觉位姿进行粒子群状态初始化具体为:
基于视觉SLAM获得环境的视觉地图,加载视觉地图,远程操控机器人移动,当机器人在运动过程中视觉回环成功后,返回当前相机位姿xvisual,以xvisual为均值,基于服从式
Figure BDA0002315881170000031
的高斯概率分布采样粒子{x(i)},对粒子群进行初始化,粒子分布服从高斯分布,每个粒子都携带有机器人的位姿信息,粒子群的位姿均值为系统粒子滤波的最后输出机器人位姿xPF
优选地,基于优化后轮式里程计进行粒子位姿预测具体为:
基于实现的系统粒子群{x(i)}的初始化,移动机器人在运动的过程中粒子群也需实时移动,将优化后的轮式里程计作为机器人的控制输入信息ut-1,假设当前时刻为t,机器人在t-1时刻的粒子群为
Figure BDA0002315881170000032
基于式
Figure BDA0002315881170000033
其中
Figure BDA0002315881170000034
代表基于里程计的运动更新,预测下一时刻
Figure BDA0002315881170000035
粒子群的位置。
优选地,基于激光匹配进行粒子状态微调具体为:
根据预测得到的粒子群在t时刻的状态
Figure BDA0002315881170000036
由于轮式里程计存在误差,需要对粒子群中的每一个粒子进行位置微调,在移动过程中基于激光似然域模型,基于当前激光观测信息和粒子所处的地图
Figure BDA0002315881170000037
进行匹配,计算得到当前粒子的置信度;以每个粒子以预测值为初值,在一定范围内对粒子进行移动,计算各个位置的粒子置信度,保留置信度最高的粒子,替换预测得到的粒子群,得到微调的粒子群
Figure BDA0002315881170000038
优选地,基于激光观测信息进行粒子状态更新具体为:
对于粒子群
Figure BDA0002315881170000039
中每个粒子
Figure BDA00023158811700000310
在其
Figure BDA00023158811700000311
周围一定范围的区域内有规则地选取K个粒子,对每个粒子点求取其置信度
Figure BDA00023158811700000312
其中
Figure BDA00023158811700000313
基于机器人的概率运动模型计算得到,
Figure BDA00023158811700000314
基于激光地图的似然域模型计算得到,基于这K个点的置信度计算近似的后验分布,最终计算得到粒子状态的后验分布
Figure BDA0002315881170000041
从该后验分布中重新采样得到t时刻最终的粒子群
Figure BDA0002315881170000042
优选地,判断机器人是否被绑架具体为:
对当前的激光传感器信息zt地图m,计算基于多传感器融合算法得到的机器人位姿xPF的置信度
Figure BDA0002315881170000043
和基于视觉SLAM得到的机器人位姿xvisual的置信度
Figure BDA0002315881170000044
Figure BDA0002315881170000045
则认为此时机器人已经被绑架,对粒子群基于视觉位姿重新初始化;
Figure BDA0002315881170000046
则认为此时视觉位姿信息失效,进行粒子权重更新;
Figure BDA0002315881170000047
则认为此时视觉位姿信息有效,进行粒子权重更新。
优选地,若
Figure BDA0002315881170000048
则认为此时视觉位姿信息失效,进行粒子权重更新具体为:
Figure BDA0002315881170000049
Figure BDA00023158811700000410
优选地,若
Figure BDA00023158811700000411
则认为此时视觉位姿信
Figure BDA0002315881170000051
息有效,进行粒子权重更新具体为:
Figure BDA0002315881170000052
其中
Figure BDA0002315881170000053
为视觉权重,xvisual为视觉SLAM系统输出的位姿,按照如下公计算:
Figure BDA0002315881170000054
采用本发明具有如下的有益效果:通过本发明实施例的基于粒子滤波的远程定位方法,通过基于优化后轮式里程计进行粒子位姿预测、基于激光匹配进行粒子状态微调以及基于激光观测信息进行粒子状态更新,并结合视觉信息与激光观测信息进行权重更新,实现机器人位姿信息的实时更新,提高定位精度。
附图说明
图1为本发明实施例的基于粒子滤波的远程定位方法的步骤流程图;
图2为本发明实施例的基于粒子滤波的远程定位方法中基于视觉位姿的粒子初始化;
图3为本发明实施例的基于粒子滤波的远程定位方法中基于轮式里程计的采样模型;
图4为本发明实施例的基于粒子滤波的远程定位方法中粒子重采样过程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据视觉和激光信息各自优缺点,激光的信息精确度高,并且对光照鲁棒,基于激光得到的里程计,置信度高;但是激光的信息量较少,特征少,导致在结构化重复性程度高的环境中容易出现定位失效的情况。视觉信息的特征丰富,容易通过闭环检测来减少累计误差,但是其精度不高,并且对光照变化剧烈的情况不鲁棒,容易受图像遮挡,运动物体干扰或者快速移动导致系统失效。激光和可见光的优缺点形成互补关系,故本发明实施例中将激光信息和视觉信息进行融合。
在基于滤波的方式中,同时定位与建图的核心思想是根据系统得到的传感器信息z1:t来估计环境地图m和机器人位姿联合后验概率密度函数p(x1:t,m|z1:t,u0:t),被称作全SLAM后验;基于这种思想,环境地图和机器人的位姿需要被同时计算出来,这种方式较为复杂,可以将这种联合后验进行如下的因式分解:
p(x1:t,m|z1:t,u1:t-1)=p(m|x1:t,z1:t)·p(x1:t|z1:t,u1:t-1)
上式表明,先对机器人的轨迹进行估计,得到p(x1:t|z1:t,u1:t-1),然后再基于轨迹和观测对地图进行估计,得到p(m|x1:t,z1:t)。
采用滤波的方式对机器人运动路径的后验进行计算,用p(x1:t|z1:t,u1:t-1)表示。机器人运动路径和激光传感器观测模型存在着高度的非线性,基于这个特点,采用粒子滤波方法开展机器人的运动路径估计,粒子滤波是一种非参数的滤波实现,可以满足高度模型的非线性需求。
粒子滤波的主要思想是以有限个带噪音的状态来近似所研究对象的状态的后验分布。粒子滤波利用一系列从后验得到的随机状态采样表示后验bel(xt),其中后验分布中每个的样本状态被称作粒子(particles),有:
Figure BDA0002315881170000071
其中每一个粒子
Figure BDA0002315881170000072
是所研究的对象的状态在t时刻的一个具体的实例,是根据真实世界状态在t时刻的一种可能假设。这里的M代表的是粒子群
Figure BDA0002315881170000073
的粒子数量。基于粒子群
Figure BDA0002315881170000074
来近似状态后验bel(xt),在理想情况下,状态假设xt包含在粒子群
Figure BDA0002315881170000075
中的概率值与其贝叶斯的后验bel(xt)成比例:
Figure BDA0002315881170000076
若粒子群
Figure BDA0002315881170000077
中粒子的数量越多,那么式
Figure BDA0002315881170000078
中粒子群近似的分布和状态的真实分布越接近。
针对以上融合需求,参照图1,所示为本发明实施例提供的一种基于粒子滤波的远程定位方法的步骤流程图,包括如下步骤:
基于视觉位姿进行粒子群的状态初始化;
基于优化后轮式里程计进行粒子位姿预测;
基于激光匹配进行预测粒子状态的微调;
基于激光观测信息进行粒子状态更新;
基于视觉位姿和机器人系统当前定位信息判断机器人是否被绑架,如果判断得到机器人被绑架,重新开始执行基于视觉位姿进行粒子群的状态初始化;如果机器人没有被绑架,判断视觉位姿是否可信,如果视觉位姿可信,如果视觉位姿可信,结合视觉位姿、激光观测信息和二维激光似然域地图进行粒子权重更新;如果视觉位姿信息不可信,不结合视觉权重进行粒子权重更新,仅仅基于激光观测信息和二维激光似然域地图进行粒子权重更新;;
根据更新的粒子权重对粒子状态进行加权平均,计算机器人基于多传感器融合算法得出的最终位姿。
下面对流程中的每一步骤的实现过程进行详细的说明。
1)基于视觉位姿进行粒子群状态初始化
多传感器融合移动机器人定位系统开启的时候,机器人不知道自己所在的位姿信息,可以人为指定初始位置进行初始化;基于视觉SLAM获得了环境的视觉地图,可以加载视觉地图,远程操控机器人移动,当机器人在运动过程中视觉回环成功后,返回当前相机位姿xvisual,以xvisual为均值,基于服从式
Figure BDA0002315881170000081
的高斯概率分布采样粒子{x(i)}。
如图2所示对粒子群进行初始化,粒子分布服从高斯分布,每个粒子都携带有机器人的位姿信息,粒子群的位姿均值为系统粒子滤波的最后输出位姿信息xPF,进行基于优化后轮式里程计进行粒子位姿预测。
2)基于优化后轮式里程计进行粒子位姿预测
步骤1)中实现了系统粒子群{x(i)}的初始化,移动机器人在运动的过程中粒子群也需实时移动,将优化后的轮式里程计作为机器人的控制输入信息ut-1,如图3所示,假设当前时刻为t,机器人在t-1时刻的粒子群为
Figure BDA0002315881170000082
基于式
Figure BDA0002315881170000083
其中
Figure BDA0002315881170000084
代表基于里程计的运动更新,预测下一时刻
Figure BDA0002315881170000085
粒子群的位置,进行基于激光匹配进行粒子状态微调。
3)基于激光匹配进行粒子状态微调
步骤2)预测得到的粒子群在t时刻的状态
Figure BDA0002315881170000086
由于轮式里程计存在误差,需要对粒子群中的每一个粒子进行位置微调。在移动过程中基于激光似然域模型,对当前激光观测信息和粒子所处的地图
Figure BDA0002315881170000087
进行匹配,可以计算得到当前粒子的置信度;以每个粒子的预测值为初值,在一定范围内对粒子进行移动,计算各个位置的粒子置信度,保留置信度最高的粒子,替换预测得到的粒子群,得到微调的粒子群
Figure BDA0002315881170000088
进行基于激光观测信息进行粒子状态更新。
4)基于激光观测信息进行粒子状态更新
经过上述步骤3)之后,得到了微调后的预测粒子群
Figure BDA0002315881170000091
在此基础上基于激光传感器获得的信息对预测得到的粒子群进行状态更新。其核心思想是从一个更接近目标分布的后验分布
Figure BDA0002315881170000092
中采样新的粒子。
对粒子基于目标分布进行重新采样,其采样的目标分布概率模型中考虑了机器人运动概率和激光观测模型。对每个粒子的重采样过程如下:对于粒子群
Figure BDA0002315881170000093
中每个粒子
Figure BDA0002315881170000094
在其
Figure BDA0002315881170000095
周围一定范围的区域内有规则地选取K个粒子,如图4所示。
对每个粒子点求取其置信度
Figure BDA0002315881170000096
其中
Figure BDA0002315881170000097
可以基于机器人的概率运动模型计算得到,见公式
Figure BDA0002315881170000098
其中Pi为基于激光传感器自身的不同噪音模型得到的概率值,k代表激光检测到的返回的k个激光信息点;
Figure BDA0002315881170000099
可以基于激光地图的似然域模型计算得到,见如下公式
Figure BDA00023158811700000910
Figure BDA00023158811700000911
Figure BDA00023158811700000912
Figure BDA00023158811700000913
Figure BDA00023158811700000914
Figure BDA00023158811700000915
Figure BDA00023158811700000916
Figure BDA00023158811700000917
Figure BDA00023158811700000918
p=p1×p2×p3
基于这K个点的置信度计算近似的后验分布,计算如下:
Figure BDA00023158811700000919
Figure BDA0002315881170000101
Figure BDA0002315881170000102
最终计算得到粒子状态的后验分布
Figure BDA0002315881170000103
从该后验分布中重新采样得到t时刻最终的粒子群
Figure BDA0002315881170000104
进行机器人是否被绑架判断。
5)判断机器人是否被绑架
基于当前的激光传感器信息zt地图m,计算基于多传感器融合算法得到的机器人位姿xPF的置信度
Figure BDA0002315881170000105
和基于视觉SLAM得到的机器人位姿xvisual的置信度
Figure BDA0002315881170000106
1、若
Figure BDA0002315881170000107
则认为此时机器人已经被绑架,运行步骤1,对粒子群基于视觉位姿重新初始化,thershold1依据实验环境选择,通常选择-0.2。
2、若
Figure BDA0002315881170000108
则认为此时视觉位姿信息失效,在进行粒子权重更新时候,不结合视觉权重,thershold2依据实验环境选择,通常选择0.1。
3、若
Figure BDA0002315881170000109
则认为此时视觉位姿信息有效,结合视觉权重和基于激光传感器信息的似然域地图权重进行粒子权重更新,thershold3依据实验环境选择,通常选择0.1。
6)粒子权重更新
上述得到的粒子群中的每个粒子重要性程度是一样的,但是这不符合实际情况,由于每个粒子的置信度有不同,应该对每个粒子进行权重赋值,使得权重越大的粒子的重要性程度越高,在计算最终机器人位姿的时候更加合理。
若步骤5)中视觉信息此时有效,基于公式6a)对粒子权重进行更新,若视觉信息失效,基于公式6b)对粒子权重进行更新:
Figure BDA0002315881170000111
Figure BDA0002315881170000112
Figure BDA0002315881170000113
Figure BDA0002315881170000114
其中
Figure BDA0002315881170000115
为视觉权重,xVisual为视觉SLAM系统输出的位姿,按照如下公式6c)计算:
Figure BDA0002315881170000116
7)计算多传感器融合位姿
基于粒子群
Figure BDA0002315881170000117
中每个粒子的状态和权重计算得到t时刻机器人的位姿xPF
Figure BDA0002315881170000118
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。

Claims (6)

1.一种基于粒子滤波的远程定位方法,其特征在于,包括以下步骤:
基于视觉位姿进行粒子群的状态初始化;
基于优化后轮式里程计进行粒子位姿预测;
基于激光匹配进行预测粒子状态的微调;
基于激光观测信息进行粒子状态更新;
基于视觉位姿和机器人系统当前定位信息判断机器人是否被绑架,如果判断得到机器人被绑架,重新开始执行基于视觉位姿进行粒子群的状态初始化;如果机器人没有被绑架,判断视觉位姿是否可信,如果视觉位姿可信,结合视觉位姿、激光观测信息和二维激光似然域地图进行粒子权重更新;如果视觉位姿信息不可信,不结合视觉权重进行粒子权重更新,仅仅基于激光观测信息和二维激光似然域地图进行粒子权重更新;
根据更新的粒子权重对粒子状态进行加权平均,计算机器人基于多传感器融合算法得出的最终位姿;
基于视觉位姿进行粒子群状态初始化具体为:
基于视觉SLAM获得环境的视觉地图,加载视觉地图,远程操控机器人移动,当机器人在运动过程中视觉回环成功后,返回当前相机位姿xvisual,以xvisual为均值,基于服从式
Figure FDA0003177033640000011
的高斯概率分布来采样粒子{x(i)},对粒子群进行初始化,粒子分布服从高斯分布,每个粒子都携带有机器人的位姿信息,粒子群的位姿均值为系统粒子滤波的最后输出机器人位姿xPF
基于优化后轮式里程计进行粒子位姿预测具体为:
基于实现的系统粒子群{x(i)}的初始化,移动机器人在运动的过程中粒子群也需实时移动,将优化后的轮式里程计作为机器人的控制输入信息ut-1,假设当前时刻为t,机器人在t-1时刻的粒子群为
Figure FDA0003177033640000012
基于式
Figure FDA0003177033640000013
其中
Figure FDA0003177033640000014
代表基于里程计的运动更新,预测下一时刻
Figure FDA0003177033640000015
粒子群的位置。
2.如权利要求1所述的基于粒子滤波的远程定位方法,其特征在于,基于激光匹配进行粒子状态微调具体为:
根据预测得到的粒子群在t时刻的状态
Figure FDA0003177033640000016
由于轮式里程计存在误差,需要对粒子群中的每一个粒子进行位置微调,在移动过程中基于激光似然域模型,对当前激光观测信息和粒子所处的地图
Figure FDA0003177033640000017
进行匹配,计算得到当前粒子的置信度;以每个粒子以预测值为初值,在一定范围内对粒子进行移动,计算各个位置的粒子置信度,保留置信度最高的粒子,替换预测得到的粒子群,得到微调的粒子群
Figure FDA0003177033640000018
3.如权利要求2所述的基于粒子滤波的远程定位方法,其特征在于,基于激光观测信息进行粒子状态更新具体为:
对于粒子群
Figure FDA0003177033640000021
中每个粒子
Figure FDA0003177033640000022
在其
Figure FDA0003177033640000023
周围一定范围的区域内有规则地选取K个粒子,对每个粒子点求取其置信度
Figure FDA0003177033640000024
其中
Figure FDA0003177033640000025
基于机器人的概率运动模型计算得到,
Figure FDA0003177033640000026
基于激光地图的似然域模型计算得到,基于这K个点的置信度计算近似的后验分布,最终计算得到粒子状态的后验分布
Figure FDA0003177033640000027
从该后验分布中重新采样得到t时刻最终的粒子群
Figure FDA0003177033640000028
4.如权利要求1至3任一所述的基于粒子滤波的远程定位方法,其特征在于,判断机器人是否被绑架具体为:
基于当前的激光传感器信息zt地图m,计算基于多传感器融合算法得到的机器人位姿xPF的置信度
Figure FDA0003177033640000029
和基于视觉SLAM得到的机器人位姿xvisual的置信度
Figure FDA00031770336400000210
Figure FDA00031770336400000211
则认为此时机器人已经被绑架,对粒子群基于视觉位姿重新初始化;
Figure FDA00031770336400000212
则认为此时视觉位姿信息失效,进行粒子权重更新;
Figure FDA00031770336400000213
则认为此时视觉位姿信息有效,进行粒子权重更新。
5.如权利要求4所述的基于粒子滤波的远程定位方法,其特征在于,若
Figure FDA00031770336400000214
则认为此时视觉位姿信息失效,进行粒子权重更新具体为:
Figure FDA00031770336400000215
Figure FDA00031770336400000216
6.如权利要求5所述的基于粒子滤波的远程定位方法,其特征在于,若
Figure FDA00031770336400000217
则认为此时视觉位姿信息有效,进行粒子权重更新具体为
Figure FDA0003177033640000031
Figure FDA0003177033640000032
其中
Figure FDA0003177033640000033
为视觉权重,xvisual为视觉SLAM系统输出的位姿,按照如下公计算:
Figure FDA0003177033640000034
CN201911277230.1A 2019-12-12 2019-12-12 基于粒子滤波的远程定位方法 Active CN111044036B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911277230.1A CN111044036B (zh) 2019-12-12 2019-12-12 基于粒子滤波的远程定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911277230.1A CN111044036B (zh) 2019-12-12 2019-12-12 基于粒子滤波的远程定位方法

Publications (2)

Publication Number Publication Date
CN111044036A CN111044036A (zh) 2020-04-21
CN111044036B true CN111044036B (zh) 2021-10-15

Family

ID=70235918

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911277230.1A Active CN111044036B (zh) 2019-12-12 2019-12-12 基于粒子滤波的远程定位方法

Country Status (1)

Country Link
CN (1) CN111044036B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111795701B (zh) * 2020-07-09 2022-06-21 上海有个机器人有限公司 机器人远程恢复定位方法及装置
CN111895990B (zh) * 2020-07-14 2022-04-15 武汉科技大学 一种基于多指标绑架检测及移动机器人重定位的方法
CN112344966B (zh) * 2020-11-24 2023-06-16 深兰科技(上海)有限公司 一种定位失效检测方法、装置、存储介质及电子设备
CN112284403B (zh) * 2020-12-28 2021-09-24 深兰人工智能芯片研究院(江苏)有限公司 定位方法、装置、电子设备和存储介质
CN112732854B (zh) * 2021-01-11 2023-03-31 哈尔滨工程大学 一种粒子滤波bslam方法
CN113607173B (zh) * 2021-09-14 2023-10-20 成都睿芯行科技有限公司 一种基于fpga的机器人激光定位方法
CN113916232B (zh) * 2021-10-18 2023-10-13 济南大学 一种改进图优化的地图构建方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105911518A (zh) * 2016-03-31 2016-08-31 山东大学 机器人定位方法
CN105865449B (zh) * 2016-04-01 2020-05-05 深圳市杉川机器人有限公司 基于激光和视觉的移动机器人的混合定位方法
CN106568432B (zh) * 2016-10-20 2019-07-09 上海物景智能科技有限公司 一种移动机器人初始位姿获取方法和系统
CN109084732B (zh) * 2018-06-29 2021-01-12 北京旷视科技有限公司 定位与导航方法、装置及处理设备
CN109556607A (zh) * 2018-10-24 2019-04-02 上海大学 一种快速处理移动机器人定位“绑架”问题的方法
CN109323697B (zh) * 2018-11-13 2022-02-15 大连理工大学 一种针对室内机器人任意点启动时粒子快速收敛的方法
CN109633664B (zh) * 2018-12-29 2023-03-28 南京理工大学工程技术研究院有限公司 基于rgb-d与激光里程计的联合定位方法
CN110082776B (zh) * 2019-03-08 2023-04-07 贵州电网有限责任公司 一种基于2d激光数据的机器人实时定位方法
CN110243358B (zh) * 2019-04-29 2023-01-03 武汉理工大学 多源融合的无人车室内外定位方法及系统
CN110412596A (zh) * 2019-07-10 2019-11-05 上海电机学院 一种基于图像信息和激光点云的机器人定位方法

Also Published As

Publication number Publication date
CN111044036A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111044036B (zh) 基于粒子滤波的远程定位方法
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
EP3671121A1 (en) Map creation method for mobile robot and path planning method based on map
CN105973145B (zh) 移动式三维激光扫描系统及移动式三维激光扫描方法
CN111288989B (zh) 一种小型无人机视觉定位方法
JP2019215853A (ja) 測位のための方法、測位のための装置、デバイス及びコンピュータ読み取り可能な記憶媒体
CN111982137B (zh) 生成路线规划模型的方法、装置、设备和存储介质
CN112731371B (zh) 一种激光雷达与视觉融合的集成化目标跟踪系统及方法
CN110388926B (zh) 一种基于手机地磁和场景图像的室内定位方法
KR101888295B1 (ko) 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
JP2007322391A (ja) 自車両位置推定装置
CN114019552A (zh) 一种基于贝叶斯多传感器误差约束的定位置信度优化方法
CN112797985A (zh) 基于加权扩展卡尔曼滤波的室内定位方法及室内定位系统
CN114608568B (zh) 一种基于多传感器信息即时融合定位方法
JP6903955B2 (ja) 移動物状態量推定装置及びプログラム
CN113237482B (zh) 一种基于因子图的城市峡谷环境下车辆鲁棒定位方法
CN117554989A (zh) 视觉融合激光雷达slam定位导航的方法及其无人机系统
CN115930937A (zh) 一种多传感器的同时定位和建图方法、终端及存储介质
CN115556769A (zh) 障碍物状态量确定方法及装置、电子设备和介质
CN114721377A (zh) 一种基于改进Cartographer的SLAM的室内导盲机器人控制方法
Yang et al. SLAM self-cruise vehicle based on ROS platform
CN117405118B (zh) 一种多传感器融合建图方法、系统、设备及存储介质
Dong et al. Robot Global Relocalization Based on Multi-sensor Data Fusion
Jiang et al. High precise localization of mobile robot by three times pose correction
CN117268404B (zh) 一种利用多传感器融合的无人机室内外自主导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant