CN105865449A - 基于激光和视觉的移动机器人的混合定位方法 - Google Patents

基于激光和视觉的移动机器人的混合定位方法 Download PDF

Info

Publication number
CN105865449A
CN105865449A CN201610198296.1A CN201610198296A CN105865449A CN 105865449 A CN105865449 A CN 105865449A CN 201610198296 A CN201610198296 A CN 201610198296A CN 105865449 A CN105865449 A CN 105865449A
Authority
CN
China
Prior art keywords
particle
mobile robot
map
probability
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610198296.1A
Other languages
English (en)
Other versions
CN105865449B (zh
Inventor
邓龙
李崇国
杨勇
宫海涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen City, Shan Chuan robot Co., Ltd.
Original Assignee
Shenzhen Shanchuan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Shanchuan Technology Co Ltd filed Critical Shenzhen Shanchuan Technology Co Ltd
Priority to CN201610198296.1A priority Critical patent/CN105865449B/zh
Publication of CN105865449A publication Critical patent/CN105865449A/zh
Application granted granted Critical
Publication of CN105865449B publication Critical patent/CN105865449B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明揭示了一种基于激光和视觉的移动机器人的混合定位方法,所述移动机器人包括激光雷达和视觉传感器,本发明根据激光雷达采集的数据和视觉传感器采集的数据对各粒子的预测位置的权值进行更新,然后对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。与现有技术相比,本发明技术方案综合了激光雷达的精度高特性和视觉的信息完整性,可适用范围更广,并弥补了视觉定位不稳定的缺点;此外,在本发明的一个实施例中还对传统的粒子滤波采样模型进行了改进,使粒子的多样性得到了保证。

Description

基于激光和视觉的移动机器人的混合定位方法
技术领域
本发明涉及移动机器人的定位方法,特别是基于激光和视觉的移动机器人的混合定位方法。
背景技术
随着移动机器人的不断发展,同时定位与建图(SLAM)已经成为了移动机器人发展的一个重大命题。如何解决此问题,有多种方法,从模型上分,分为概率定位模型(如粒子滤波)和绝对定位模型(如GPS)等;从地图来分有栅格地图,拓扑地图等;从传感器角度分有超声定位,激光雷达定位,视觉定位等。
概率模型内存和CPU的限制,绝对定位模型需要一些设备如:人工信标,或者一些特殊环境,如室内就不适合GPS;栅格地图会存在着栅格误差,拓扑地图维护成本比较大,摧毁后难以恢复;超声存在着精度问题;目前正常的激光雷达都是二维激光雷达,维度低,对环境的识别度不高;视觉定位主要有基于特征的定位,基于三维图匹配的定位,基于三维点簇的定位等,视觉定位算法目前不是很成熟。
但是,对于移动机器人来说,定位不仅要有一定的精度,并且对于快速性也有很高的要求。
基于上述问题,发明人分别基于激光雷达定位和视觉定位的现有成果,综合考虑激光雷达的快速准确优点和视觉传感器信息丰富的优点,通过粒子滤波算法,实现移动机器人的快速、精确的定位。
发明内容
本发明专利申请的目的在于提供一种用于移动机器人的快速、精确的定位方法,以解决背景技术中的问题。
为达到以上目的,本发明专利申请的技术方案如下:
S1:初始化各粒子位置及各粒子的栅格地图和视觉特征地图,建立各粒子的全局栅格地图和全局视觉特征地图;
S2:初始化移动机器人的位置Pt0及建立移动机器人的激光雷达全局点图;
S3:根据里程计和陀螺仪得到移动机器人在t时刻的预测位置Pt
S4:根据移动机器人的估计位置Pt和激光雷达在t时刻采集到的数据得到修正后的预测位置P't
S5:根据移动机器人在t-1时刻和t时刻的位置变化和各粒子在t-1时刻的位置,采样得到t时刻各粒子的估计位置;
S6:根据t时刻激光雷达采集的数据得到t时刻各粒子的估计位置的概率PL;
S7:根据t时刻视觉传感器采集的图像得到t时刻各粒子的估计位置的概率PV;
S8:根据各粒子的估计位置的概率PL、PV对粒子权值进行更新;
S9:对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。
与现有技术相比,本发明申请具有以下优点:
1、本发明技术方案综合了激光雷达的精度高特性和视觉的信息完整性,可适用范围更广(室内室外都可),通过激光雷达与视觉传感器的结合,弥补了视觉定位不稳定的缺点;
2、本发明技术方案对传统的粒子滤波采样模型进行了改进,使粒子的多样性得到了保证;
3、本发明技术方案因引入自适应因子,可根据环境的情况实时调度激光雷达与视觉传感器的权重。
附图说明
图1为本发明申请的流程图;
图2为本发明实施例中的移动机器人的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明方案进行进一步详细说明。
如图2所示,本实施例中的移动机器人包括里程计、陀螺仪、激光雷达、摄像机(视觉传感器)、驱动系统和核心控制板(MCU),具体地,本实施例中的驱动系统由左、右轮构成,并分别由不同的马达驱动,应该可以理解的是,移动机器人还可包括其他部分(如吸尘系统、传感器系统、报警系统等),由于与本发明的技术方案无关,因此不在此说明。
如图1所示,本发明移动机器人的基于粒子滤波算法的定位方法包括以下步骤:
S1:初始化各粒子位置及各粒子的栅格地图和视觉特征地图,建立各粒子的全局栅格地图和全局视觉特征地图。
初始化各粒子位置及各粒子的栅格地图的过程如下:
在栅格地图中,将移动机器人的初始位置坐标设定为(0,0,0),则在坐标点(0,0,0)附近随机生成由N个粒子s0 k、权值为w0 k的组成的粒子集S0={s0 k, w0 k},其中k=1,2,...N,这N个粒子都是移动机器人下一时刻可能达到的位置,由于不知道移动机器人的运动速度和方向,假定移动机器人下个时刻到这些粒子的概率相等,因此各粒子的概率为1/N,在本实施例中,粒子N的个数为50个,因此S0={s0 k, 0.02}。由于此时移动机器人的各粒子只有一个栅格地图,因此可将该栅格地图作为各粒子的全局栅格地图进行存储。
初始化各粒子的视觉特征地图的过程如下:
将视觉传感器(如摄像机)采集的图像通过SIFT算法,建立图像金字塔,并对每层金字塔提取特征,然后得到128维描述子的视觉特征地图。同样地,由于此时各粒子只有一个视觉特征地图,因此将其作为各粒子的全局视觉特征地图进行存储。
S2:初始化移动机器人的位置Pt0及建立移动机器人的激光雷达全局点图。
激光雷达可以直接获得环境的水平剖面图,测得的环境点的信息是2D极坐标,表示为,其中,r表示2D激光雷达扫描获得的距离值,Ψ为水平扫描角。激光雷达通过TOF、三角测距等原理将移动机器人在位置Pt0的障碍信息转换为特征点坐标,由此建立起初始的激光雷达全局点图并存储。
S3:根据里程计和陀螺仪得到移动机器人在t时刻的预测位置Pt。
本步骤是通过以下子步骤实现的:
S31:通过航迹推算得到移动机器人的预测位置Pt=[x(t),y(t),theta(t)],航迹推算公式如下:
其中,[x(t), y(t)]为移动机器人t时刻的位置,theta(t)为移动机器人t时刻航向,[x(t-1) y(t-1)]为移动机器人t-1时刻的位置,theta(t-1)为移动机器人t-1时刻航向,sr(t-1)、sl(t-1)为移动机器人t-1时刻到t时刻右轮、左轮行走的距离,b为左、右轮之间的轮轴距。
为了便于理解,假设t-1时刻为移动机器人初始化的时刻,移动机器人在初始化时朝着x轴正方向,因此,[x(t-1) , y(t-1) ,theta(t-1)]=[0,0,0],进而得到[x(t) , y(t),theta(t)]= [(sr(t-1)+sl(t-1))/2,0, (sr(t-1)+sl(t-1))/b]。
S32:陀螺仪更新航迹推算所得到的航向theta(t);
theta(t)=thetaG(t),其中thetaG(t)为t时刻陀螺仪的读数,本实施例中直接用陀螺仪读数替换了里程计航迹推导出来的角度theta(t),原因是陀螺仪得到的角度非常高。
S4:根据移动机器人的估计位置Pt和激光雷达在t时刻采集到的数据得到修正后的预测位置P't
步骤S4是通过以下方式实现的:
S41:将t时刻采集到的激光雷达数据坐标转换到激光雷达全局点图;
XG(k)=XL(k)*cos(theta(t))-YL(k)*sin(theta(t))+x(t);
YG(k)=XL(k)*sin(theta(t))+YL(k)*cos(theta(t))+y(t);
其中[XL(k),YL(k)]为当前移动机器人位置激光雷达采到的某一个(第k个)数据; [XG(k),YL(k)]为将第k个数据转换到全局的全局坐标;[x(t),y(t),theta(t)]为t时刻移动机器人的位置和航向,即Pt
S42:对转换后的各激光雷达数据坐标寻找满足阈值条件的匹配点,并保存所有的匹配对;
每个转换后的激光雷达数据坐标只有一个匹配点。比如一个点在10cm范围(阈值一般10cm或者5cm)内有多个匹配点存在,那就选取离它最近的那个匹配点,如果存在两个或两个以上的最近匹配点,则随机选择一个。
S43:通过最小二乘法求得使匹配对模型函数最小的移动机器人位置;
即通过里程计和陀螺仪结合运动模型计算出来的初始预测Pt,再融合激光定位算法,通过ICP匹配相连俩帧激光数据,通过最小二乘法得到修正后的移动机器人预测位置,具体如下:
其中X为所有匹配对的局部坐标,即激光雷达采集到的数据,坐标转换之前的坐标所组成的矩阵;X形式为;Y为所有匹配对的全局坐标,即采集到的数据匹配上的全局地图上的点组成的矩阵,Y的形式为:,XT,YT为X,Y的转置;A为转换关系,A的形式为,其中[x(t),y(t),theta(t)]为t时刻移动机器人位置;
S44:重复步骤S41至S43直到移动机器人位置收敛,得到修正后的移动机器人位姿P't
此处的收敛条件是通过迭代计算得到的移动机器人位置和航向几乎不再发生变化,即在在极小的范围(可以忽略不计的范围)内波动或者不再变化。
S5:根据移动机器人在t-1时刻和t时刻的位置变化和各粒子在t-1时刻的位置,采样得到t时刻各粒子的估计位置。
如果t时刻是第一次对移动个机器人进行定位,在t-1时刻为移动机器人初始化的时刻,具体实现过程如下:
xp(i,t)=xp(i,t-1)+(x(t)-x(t-1));yp(i,t)=yp(i,t-1)+(y(t)-y(t-1));
其中[xp(i,t) yp(i,t)],[xp(i,t-1) yp(i,t-1)]分别为某一个粒子(第i个粒子)t时刻和t-1时刻的位置;[x(t) y(t)],[x(t-1) y(t-1)]为ICP定位出来的移动机器人t时刻和t-1时刻的位置。
S6:根据t时刻激光雷达采集的数据得到t时刻各粒子的估计位置的概率PL;
步骤S6在本实施例中根据scan matching算法得到t时刻各粒子位置坐标的估计概率PL,具体实现过程如下:
S61:采集t时刻激光雷达扫描的数据信息并通过某一粒子的位置坐标转换到该粒子全局坐标系;
XG(k)=XL(k)*cos(thetap(i,t))-YL(k)*sin(theta(i))+xp(i,t);
YG(k)=XL(k)*sin(thetap(i,t))+YL(k)*cos(theta(i))+yp(i,t);
其中[XL(k),YL(k)]为当前移动机器人位置激光雷达采到的某一个(第k个)数据;[XG(k),YL(k)]为将第k个数据转换到全局坐标系(即世界坐标系)的全局坐标,即在全局坐标系(即世界坐标系)形成一个坐标点,在下面简称为点图;[xp(i,t),yp(i,t),thetap(i,t)]为某一个粒子(第i个粒子)t时刻的位置和航向。
S62:将转换后得到的点图转换为该粒子的概率栅格地图;
该步骤在本实施例中的具体如下:
首先,将转换后的点图中各位置的概率设置为0.5;接着,将0.5用log算子log化得到log形式概率PL(xg,yg)=log(P(xg,yg)/(1-P(xg,yg))),其中P(x,y)为log化之后位置(xg,yg)的log概率,P(xg,yg)为真实概率即转换之前的概率;然后,转换采集到的数据到栅格地图:
xgrid(k)=XG(k)/d;ygrid(k)=YG(k)/d;其中,[XG(k),YG(k)]步骤S61得到的某一个数据的在全局坐标系下的全局坐标;d为栅格的分辨率(一般为5cm);[xgrid(k) ygrid(k)]为转换之后的栅格位置;再按照二维高斯分布得到此栅格位置周围3*3范围内的概率;最后将得到的概率用log算子公式转换为log形式概率;从而各栅格位置log形式概率为
PL(xg,yg)=PLb(xg,yg)+PLa(xg,yg);其中PL(xg,yg),PLb(xg,yg),PLa(xg,yg)分别为位置[xg,yg]处的更新之后,更新之前,和要更新进去(加入进去)的概率。
S63:通过条件概率公式和log算子得到该粒子的位置坐标的估计概率pl;
先将各栅格位置的概率从log形式转换到真实概率,即用上面log化算子的反函数转换到真实概率;
P(xg,yg)=1-1/(1+exp(PL(xg,yg));其中exp为自然指数函数;然后根据得到pl的估计概率。
S64:重复步骤S61至S63直到完成所有粒子的位置坐标的估计概率。
S7:根据t时刻视觉传感器采集的图像得到t时刻各粒子的估计位置的概率PV。
S71:对t时刻采集到的视觉图像进行高斯滤波得到高斯金字塔;
将摄像机采集的图像通过SIFT算法,建立图像金字塔,并对每层金字塔提取特征,然后得到128维描述子的视觉特征地图。
S72:寻找关键点并删除错误的关键点;
关键点就是突变点,或者说局部极值点(分界点),错误的关键点即是不能完全满足突变点的条件的点,它满足一部分,有可能一开始会被误选中。由于关键点的寻找和错误点的删除是本领域技术人员的一般常识,在这里就不详细说明了。
S73:求得关键点的主方向并生成SIFT描述子,从而得到特征地图;
S74:由t时刻的各粒子的位置坐标将特征地图进行坐标转换,从而得到各粒子的视觉特征地图;
S75:通过匹配各粒子的视觉特征地图和全局视觉特征地图得到各粒子的估计位置的概率PV;
S8:根据各粒子的估计位置的概率PL、PV对粒子权值进行更新。
对各粒子的权值更新过程如下:
S81:根据t时刻各粒子的栅格地图匹配率得到t时刻栅格地图匹配率的分布;
S82:根据t时刻各粒子的视觉特征地图匹配率得到t时刻视觉特征地图匹配率的分布;
S83:通过联合概率抽样统计方法得到自适应因子omega;
S84:由自适应因子omega加权各粒子的激光雷达栅格地图估计概率PL和视觉特征地图估计概率PV,得到各粒子的概率P(k),计算公式如下:,其中,P(k)为第k个粒子的权值,PL(k),PV(k)分别为第k个粒子激光雷达地图概率和视觉特征地图概率。
S9:对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。
通过设定阈值,舍弃权值小于阈值的粒子,复制权值高的粒子,使得粒子总数保持不变。
以上是本发明的较佳实施例的详细说明,不认定本发明只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下所作出的等同替代或明显变形,且性能或用途相同,都应当视为本发明所提交的权利要求书确定的保护范围内。

Claims (6)

1.一种基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述移动机器人包括里程计和陀螺仪、激光雷达和视觉传感器,所述方法包括以下步骤:
S1:初始化各粒子位置及各粒子的栅格地图和视觉特征地图,建立各粒子的全局栅格地图和全局视觉特征地图;
S2:初始化移动机器人的位置Pt0及建立移动机器人的激光雷达全局点图;
S3:根据里程计和陀螺仪得到移动机器人在t时刻的预测位置Pt
S4:根据移动机器人的估计位置Pt和激光雷达在t时刻采集到的数据得到修正后的预测位置P't
S5:根据移动机器人在t-1时刻和t时刻的位置变化和各粒子在t-1时刻的位置,采样得到t时刻各粒子的估计位置;
S6:根据t时刻激光雷达采集的数据得到t时刻各粒子的估计位置的概率PL;
S7:根据t时刻视觉传感器采集的图像得到t时刻各粒子的估计位置的概率PV;
S8:根据各粒子的估计位置的概率PL、PV对粒子权值进行更新;
S9:对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。
2.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述移动机器人为包括左右轮的移动机器人, 所述步骤S2包括以下子步骤:
S31:通过航迹推算得到移动机器人的位姿Pi[x(t),y(t),theta(t)],航迹推算公式如下:
其中,[x(t), y(t)]为移动机器人t时刻的位置,theta(t)为移动机器人t时刻航向,[x(t-1) y(t-1)]为移动机器人t-1时刻的位置,theta(t-1)为移动机器人t-1时刻航向,sr(t-1)、sl(t-1)为移动机器人t-1时刻到t时刻右轮、左轮行走的距离,b为左、右轮之间的轮轴距;
S32:陀螺仪更新航迹推算所得到的航向theta(t)。
3.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S4包括以下子步骤:
S41:将t时刻采集到的激光雷达数据坐标转换到激光雷达全局点图;
S42:对转换后的各激光雷达数据坐标寻找满足阈值条件的匹配点,并保存所有的匹配对;
S43:通过最小二乘法求得使匹配对模型函数最小的移动机器人位置;
S44:重复步骤S41至S43直到移动机器人位置收敛,得到修正后的移动机器人位姿P't
4.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S6包括:
S61:采集t时刻激光雷达扫描的数据信息并通过某一粒子的位置坐标转换到该粒子全局坐标系;
S62:将转换后得到的点图转换为该粒子的概率栅格地图;
S63:通过条件概率公式和log算子得到该粒子的位置坐标的估计概率pl;
S64:重复步骤S61至S63直到完成所有粒子的位置坐标的估计概率。
5.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S7包括:
S71:对t时刻采集到的视觉图像进行高斯滤波得到高斯金字塔;
S72:寻找关键点并删除错误的关键点;
S73:求得关键点的主方向并生成SIFT描述子,从而得到特征地图;
S74:由t时刻的各粒子的位置坐标将特征地图进行坐标转换,从而得到各粒子的视觉特征地图;
S75:通过匹配各粒子的视觉特征地图和全局视觉特征地图得到各粒子的估计位置的概率PV。
6.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S8包括:
S81:根据t时刻各粒子的栅格地图匹配率得到t时刻栅格地图匹配率的分布;
S82:根据t时刻各粒子的视觉特征地图匹配率得到t时刻视觉特征地图匹配率的分布;
S83:通过联合概率抽样统计方法得到自适应因子omega;
S84:由自适应因子omega加权各粒子的激光雷达栅格地图估计概率PL和视觉特征地图估计概率PV,得到各粒子的概率P(k),计算公式如下:
其中,P(k)为第k个粒子的权值,PL(k),PV(k)分别为第k个粒子激光雷达地图概率和视觉特征地图概率。
CN201610198296.1A 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法 Active CN105865449B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610198296.1A CN105865449B (zh) 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610198296.1A CN105865449B (zh) 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法

Publications (2)

Publication Number Publication Date
CN105865449A true CN105865449A (zh) 2016-08-17
CN105865449B CN105865449B (zh) 2020-05-05

Family

ID=56626757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610198296.1A Active CN105865449B (zh) 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法

Country Status (1)

Country Link
CN (1) CN105865449B (zh)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106525025A (zh) * 2016-10-28 2017-03-22 武汉大学 一种变电站巡检机器人路线规划导航方法
CN106597435A (zh) * 2016-12-08 2017-04-26 北京康力优蓝机器人科技有限公司 实现基于粒子滤波slam算法的方法及系统
CN106950985A (zh) * 2017-03-20 2017-07-14 成都通甲优博科技有限责任公司 一种自动送货方法及装置
CN107218939A (zh) * 2017-06-04 2017-09-29 吕文君 一种基于运动分解的移动机器人航迹推算定位方法
CN107390681A (zh) * 2017-06-21 2017-11-24 华南理工大学 一种基于激光雷达与地图匹配的移动机器人实时定位方法
CN107450080A (zh) * 2017-09-27 2017-12-08 北京特种机械研究所 基于视觉定位及激光测距的两车自动对接方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN107589749A (zh) * 2017-09-19 2018-01-16 浙江大学 水下机器人自主定位与节点地图构建方法
CN107741745A (zh) * 2017-09-19 2018-02-27 浙江大学 一种实现移动机器人自主定位与地图构建的方法
CN107907124A (zh) * 2017-09-30 2018-04-13 杭州迦智科技有限公司 基于场景重识的定位方法、电子设备、存储介质、系统
CN108007453A (zh) * 2017-12-11 2018-05-08 北京奇虎科技有限公司 基于点云的地图更新方法、装置及电子设备
CN108088446A (zh) * 2017-12-01 2018-05-29 合肥优控科技有限公司 移动机器人航向角检测方法、装置与计算机可读存储介质
CN108151727A (zh) * 2017-12-01 2018-06-12 合肥优控科技有限公司 移动机器人定位方法、系统与计算机可读存储介质
CN108717710A (zh) * 2018-05-18 2018-10-30 京东方科技集团股份有限公司 室内环境下的定位方法、装置及系统
CN109323701A (zh) * 2017-08-01 2019-02-12 郑州宇通客车股份有限公司 基于地图与多传感器检测相结合的定位方法及系统
WO2019062651A1 (zh) * 2017-09-26 2019-04-04 上海思岚科技有限公司 一种定位建图的方法及系统
CN109739226A (zh) * 2018-12-27 2019-05-10 国网北京市电力公司 目标巡检位置的确定方法及装置
CN109765569A (zh) * 2017-11-09 2019-05-17 电子科技大学中山学院 一种基于激光雷达实现虚拟航迹推算传感器的方法
CN109960254A (zh) * 2017-12-25 2019-07-02 深圳市优必选科技有限公司 机器人及其路径规划方法
CN110243381A (zh) * 2019-07-11 2019-09-17 北京理工大学 一种陆空机器人协同感知监测方法
CN110333513A (zh) * 2019-07-10 2019-10-15 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
CN110888125A (zh) * 2019-12-05 2020-03-17 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN111044036A (zh) * 2019-12-12 2020-04-21 浙江大学 基于粒子滤波的远程定位方法
CN111337943A (zh) * 2020-02-26 2020-06-26 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111397594A (zh) * 2020-03-20 2020-07-10 广东博智林机器人有限公司 一种全局初始化定位方法、装置、电子设备及存储介质
CN112067006A (zh) * 2020-09-14 2020-12-11 上海汽车集团股份有限公司 一种基于语义的视觉定位方法及装置
CN112712107A (zh) * 2020-12-10 2021-04-27 浙江大学 一种基于优化的视觉和激光slam融合定位方法
CN112781591A (zh) * 2019-11-06 2021-05-11 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
CN112917467A (zh) * 2019-12-06 2021-06-08 深圳市优必选科技股份有限公司 机器人的定位及地图构建方法、装置及终端设备
CN113465728A (zh) * 2021-06-25 2021-10-01 重庆工程职业技术学院 一种地形感知方法、系统、存储介质、计算机设备
WO2021226776A1 (zh) * 2020-05-11 2021-11-18 华为技术有限公司 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆
CN113804182A (zh) * 2021-09-16 2021-12-17 重庆邮电大学 一种基于信息融合的栅格地图创建方法
CN114037807A (zh) * 2021-11-24 2022-02-11 深圳市云鼠科技开发有限公司 低内存占用的链式栅格地图构建方法、装置及计算机设备
WO2022041706A1 (zh) * 2020-08-28 2022-03-03 华为技术有限公司 一种定位方法、定位系统和车辆

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120029698A1 (en) * 2006-11-16 2012-02-02 Samsung Electronics Co., Ltd Method, apparatus, and medium for estimating pose of mobile robot using particle filter
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105333879A (zh) * 2015-12-14 2016-02-17 重庆邮电大学 同步定位与地图构建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120029698A1 (en) * 2006-11-16 2012-02-02 Samsung Electronics Co., Ltd Method, apparatus, and medium for estimating pose of mobile robot using particle filter
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105333879A (zh) * 2015-12-14 2016-02-17 重庆邮电大学 同步定位与地图构建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李永坚: "融合视觉和激光测距的机器人Monte Carlo自定位方法", 《农业机械学报》 *

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106525025B (zh) * 2016-10-28 2019-10-11 武汉大学 一种变电站巡检机器人路线规划导航方法
CN106525025A (zh) * 2016-10-28 2017-03-22 武汉大学 一种变电站巡检机器人路线规划导航方法
CN106597435A (zh) * 2016-12-08 2017-04-26 北京康力优蓝机器人科技有限公司 实现基于粒子滤波slam算法的方法及系统
CN106950985A (zh) * 2017-03-20 2017-07-14 成都通甲优博科技有限责任公司 一种自动送货方法及装置
CN107218939A (zh) * 2017-06-04 2017-09-29 吕文君 一种基于运动分解的移动机器人航迹推算定位方法
CN107390681A (zh) * 2017-06-21 2017-11-24 华南理工大学 一种基于激光雷达与地图匹配的移动机器人实时定位方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN109323701A (zh) * 2017-08-01 2019-02-12 郑州宇通客车股份有限公司 基于地图与多传感器检测相结合的定位方法及系统
CN107589749A (zh) * 2017-09-19 2018-01-16 浙江大学 水下机器人自主定位与节点地图构建方法
CN107741745A (zh) * 2017-09-19 2018-02-27 浙江大学 一种实现移动机器人自主定位与地图构建的方法
WO2019062651A1 (zh) * 2017-09-26 2019-04-04 上海思岚科技有限公司 一种定位建图的方法及系统
CN107450080A (zh) * 2017-09-27 2017-12-08 北京特种机械研究所 基于视觉定位及激光测距的两车自动对接方法
CN107450080B (zh) * 2017-09-27 2019-11-08 北京特种机械研究所 基于视觉定位及激光测距的两车自动对接方法
CN107907124A (zh) * 2017-09-30 2018-04-13 杭州迦智科技有限公司 基于场景重识的定位方法、电子设备、存储介质、系统
CN107907124B (zh) * 2017-09-30 2020-05-15 杭州迦智科技有限公司 基于场景重识的定位方法、电子设备、存储介质、系统
CN109765569A (zh) * 2017-11-09 2019-05-17 电子科技大学中山学院 一种基于激光雷达实现虚拟航迹推算传感器的方法
CN108088446A (zh) * 2017-12-01 2018-05-29 合肥优控科技有限公司 移动机器人航向角检测方法、装置与计算机可读存储介质
CN108151727A (zh) * 2017-12-01 2018-06-12 合肥优控科技有限公司 移动机器人定位方法、系统与计算机可读存储介质
CN108151727B (zh) * 2017-12-01 2019-07-26 合肥优控科技有限公司 移动机器人定位方法、系统与计算机可读存储介质
CN108007453A (zh) * 2017-12-11 2018-05-08 北京奇虎科技有限公司 基于点云的地图更新方法、装置及电子设备
CN109960254A (zh) * 2017-12-25 2019-07-02 深圳市优必选科技有限公司 机器人及其路径规划方法
CN109960254B (zh) * 2017-12-25 2022-09-23 深圳市优必选科技有限公司 机器人及其路径规划方法
CN108717710A (zh) * 2018-05-18 2018-10-30 京东方科技集团股份有限公司 室内环境下的定位方法、装置及系统
CN108717710B (zh) * 2018-05-18 2022-04-22 京东方科技集团股份有限公司 室内环境下的定位方法、装置及系统
US11295472B2 (en) 2018-05-18 2022-04-05 Boe Technology Group Co., Ltd. Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database
CN109739226A (zh) * 2018-12-27 2019-05-10 国网北京市电力公司 目标巡检位置的确定方法及装置
CN110333513A (zh) * 2019-07-10 2019-10-15 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
CN110333513B (zh) * 2019-07-10 2023-01-10 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
CN110243381A (zh) * 2019-07-11 2019-09-17 北京理工大学 一种陆空机器人协同感知监测方法
CN110243381B (zh) * 2019-07-11 2020-10-30 北京理工大学 一种陆空机器人协同感知监测方法
CN112781591A (zh) * 2019-11-06 2021-05-11 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
CN110888125A (zh) * 2019-12-05 2020-03-17 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN110888125B (zh) * 2019-12-05 2020-06-19 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN112917467A (zh) * 2019-12-06 2021-06-08 深圳市优必选科技股份有限公司 机器人的定位及地图构建方法、装置及终端设备
CN111044036A (zh) * 2019-12-12 2020-04-21 浙江大学 基于粒子滤波的远程定位方法
CN111337943B (zh) * 2020-02-26 2022-04-05 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111337943A (zh) * 2020-02-26 2020-06-26 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111397594A (zh) * 2020-03-20 2020-07-10 广东博智林机器人有限公司 一种全局初始化定位方法、装置、电子设备及存储介质
WO2021226776A1 (zh) * 2020-05-11 2021-11-18 华为技术有限公司 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆
WO2022041706A1 (zh) * 2020-08-28 2022-03-03 华为技术有限公司 一种定位方法、定位系统和车辆
CN112067006B (zh) * 2020-09-14 2022-06-21 上海汽车集团股份有限公司 一种基于语义的视觉定位方法及装置
CN112067006A (zh) * 2020-09-14 2020-12-11 上海汽车集团股份有限公司 一种基于语义的视觉定位方法及装置
CN112712107A (zh) * 2020-12-10 2021-04-27 浙江大学 一种基于优化的视觉和激光slam融合定位方法
CN112712107B (zh) * 2020-12-10 2022-06-28 浙江大学 一种基于优化的视觉和激光slam融合定位方法
CN113465728A (zh) * 2021-06-25 2021-10-01 重庆工程职业技术学院 一种地形感知方法、系统、存储介质、计算机设备
CN113465728B (zh) * 2021-06-25 2023-08-04 重庆工程职业技术学院 一种地形感知方法、系统、存储介质、计算机设备
CN113804182A (zh) * 2021-09-16 2021-12-17 重庆邮电大学 一种基于信息融合的栅格地图创建方法
CN113804182B (zh) * 2021-09-16 2023-09-29 重庆邮电大学 一种基于信息融合的栅格地图创建方法
CN114037807A (zh) * 2021-11-24 2022-02-11 深圳市云鼠科技开发有限公司 低内存占用的链式栅格地图构建方法、装置及计算机设备
CN114037807B (zh) * 2021-11-24 2023-03-28 深圳市云鼠科技开发有限公司 低内存占用的链式栅格地图构建方法、装置及计算机设备

Also Published As

Publication number Publication date
CN105865449B (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
CN105865449A (zh) 基于激光和视觉的移动机器人的混合定位方法
US20220028163A1 (en) Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images
CN110084272B (zh) 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法
CN111240319B (zh) 室外多机器人协同作业系统及其方法
CN106802668B (zh) 基于双目与超声波融合的无人机三维避撞方法及系统
CN106092104B (zh) 一种室内机器人的重定位方法及装置
CN106017472B (zh) 全局路线规划方法、全局路线规划系统及无人机
CN106097304B (zh) 一种无人机实时在线地图生成方法
CN108415032A (zh) 一种基于深度学习与激光雷达的点云语义地图构建方法
CN105843223A (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN107544501A (zh) 一种智能机器人智慧行走控制系统及其方法
CN106826833A (zh) 基于3d立体感知技术的自主导航机器人系统
CN105487535A (zh) 一种基于ros的移动机器人室内环境探索系统与控制方法
CN103278170A (zh) 基于显著场景点检测的移动机器人级联地图创建方法
CN110471426A (zh) 基于量子狼群算法的无人驾驶智能车自动避碰方法
CN111862200B (zh) 一种煤棚内无人机定位方法
CN110490809A (zh) 多智能体协同定位与建图方法及装置
CN112833892B (zh) 一种基于轨迹对齐的语义建图方法
CN110823223A (zh) 一种无人机群的路径规划方法及装置
Xiang et al. UAV based target tracking and recognition
CN117152249A (zh) 基于语义一致性的多无人机协同建图与感知方法及系统
CN114077249B (zh) 一种作业方法、作业设备、装置、存储介质
CN111812978A (zh) 一种多无人机协作slam方法与系统
CN108198241A (zh) 一种三维图像构建的方法和装置
CN116358520A (zh) 一种人机多节点协同语义激光slam系统及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20161221

Address after: 518057 Guangdong city of Shenzhen province Nanshan District Guangdong streets High-tech Park North Beihuan Road No. 9018 building C building 10 layer's innovation

Applicant after: Shenzhen City, Shan Chuan robot Co., Ltd.

Address before: Nanshan District Guangdong streets south ring road of Shenzhen city Guangdong province 518057 No. 29 students start building room 1003

Applicant before: SHENZHEN SHANCHUAN TECHNOLOGY CO., LTD.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: A District No. 9018 building 518057 Guangdong Han innovation city of Shenzhen province Nanshan District high tech park, North Central Avenue, 5 floor Room 501

Applicant after: Shenzhen City, Shan Chuan robot Co., Ltd.

Address before: 518057 Guangdong city of Shenzhen province Nanshan District Guangdong streets High-tech Park North Beihuan Road No. 9018 building C building 10 layer's innovation

Applicant before: Shenzhen City, Shan Chuan robot Co., Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant