CN105258702A - 一种基于slam导航移动机器人的全局定位方法 - Google Patents

一种基于slam导航移动机器人的全局定位方法 Download PDF

Info

Publication number
CN105258702A
CN105258702A CN201510644986.0A CN201510644986A CN105258702A CN 105258702 A CN105258702 A CN 105258702A CN 201510644986 A CN201510644986 A CN 201510644986A CN 105258702 A CN105258702 A CN 105258702A
Authority
CN
China
Prior art keywords
mobile robot
pose
data
theta
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510644986.0A
Other languages
English (en)
Other versions
CN105258702B (zh
Inventor
王斌
李国飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhumang Technology Co ltd
Original Assignee
Shenzhen Lzrobotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Lzrobotics Co Ltd filed Critical Shenzhen Lzrobotics Co Ltd
Priority to CN201510644986.0A priority Critical patent/CN105258702B/zh
Publication of CN105258702A publication Critical patent/CN105258702A/zh
Application granted granted Critical
Publication of CN105258702B publication Critical patent/CN105258702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于SLAM导航移动机器人的全局定位方法,属于移动机器人自动导航技术领域。为解决现有技术中实现移动机器人全局定位需要对应用环境进行改造,增加辅助定位的特征物体,或者需要在移动机器人设备上安装辅助设备等。这些方案本身不能适应较为复杂环境、成本较高、定位精度较差、极为不方便,因此定位精度难以有更大的优化与提高的问题,本方法包括以下4个步骤:步骤1移动机器人应用环境的子区域的选取,步骤2数据点的采集,步骤3子区域选取合理与否的分析判断,步骤4基于ICP实现移动机器人全局定位。用于基于激光SLAM导航移动机器人尤其是AGV(自动导航小车)复杂环境下的全局定位。

Description

一种基于SLAM导航移动机器人的全局定位方法
技术领域
本发明具体涉及一种基于SLAM导航移动机器人的全局定位方法,属于移动机器人自动导航技术领域。
背景技术
智能移动机器人是在复杂环境下工作的,具有自主规划、自组织、自适应能力的机器人。基于激光SLAM(同时定位与构建地图)导航的AGV(自动导航小车)是智能移动机器人的一种,该类AGV不需要设置固定的轨道,可通过构建室内完整的地图,获得周围环境完整的信息,在移动过程中,通过传感器实时获取周围环境的信息,与已构建好的室内地图进行匹配,并采用粒子滤波算法精确确定其在全局地图中的位置,同时也就确定了在周围环境中的位置。
由于激光SLAM导航技术本身存在的缺陷,或者其不完善的地方,使其在一定情况下,比如在走廊、遇到体积较大的运动物体等,导致其定位不准确,在没有及时纠正的情况下,会出现脱离虚拟任务路线的可能;或者在运行过程中出现故障等问题停止运行,需维修。上述问题都会导致该类导航AGV丢失自身的位姿,为了解决该全局定位的问题,目前可行的方案主要有使得AGV回到设定的零点区域、视觉辅助定位(需要改造环境)、无线定位等。对于该类AGV,使得AGV回到设定的零点区域的方法,系统内部设定其每次重新启动的起点位姿为零点。当其丢失自己的位姿时,通常将其人工移动到地图的零点区域,由于只有一个零点区域,因此移动距离较远,然后再重新启动执行未完成的任务。该方法是目前使用最多的方法,但该方法浪费人力、效率低下,很不方便;采用视觉辅助定位,通过安装在AGV上的相机,采集已经存储其对应位姿的二维码信息,来确定AGV当前的位姿。该方法需要在AGV上安装辅助设备,增加了设备制造与维护成本,且需要对工厂的环境进行一定程度的人工改造,增加了人力成本;无线定位的方法是在应用环境内设定多个无线发射器(至少3个),根据接受到的无线信号,通过时间延迟,采用三角测量等方法,获取AGV在全局地图中的位姿,该方法测量误差较大,且容易受环境中障碍物或其它物体的影响,导致定位不准确。另外需要安装无线发射器与接收器,大大增加了成本。
发明内容
因此,本发明针对现有技术中实现移动机器人全局定位需要对应用环境进行一定程度的改造,增加辅助定位的特征物体,或者需要在移动机器人设备上安装辅助设备等。这些方案本身对较为复杂环境的适应能力低下、成本较高、定位精度较差、极为不方便,且由于某些方法固有的缺陷难以消除,因此定位精度难以有更大的优化与提高的问题,提供一种基于SLAM导航移动机器人的全局定位方法,所述方法包括以下步骤:
步骤1移动机器人应用环境的子区域的选取
通过移动机器人自带传感器,获取室内环境的数据信息,并通过SLAM技术,构建关于室内环境完整的平面地图。设整个应用环境为∑,在该环境下选取多个矩形的子区域,取地图中位姿为零点所对应的环境区域为∑0,其它的子区域分别为∑1,∑2,...,∑n
假设移动机器人人工移动最大距离不超过D,那么任意相邻的两个子区域的几何中心的距离都不应该超过2D,且应该满足2D>l,l表示子区域沿移动机器人运行方向的长度;
步骤2数据点的采集
步骤1中在移动机器人应用环境中选取矩形的子区域,它的宽度和长度分别设为d、l,宽度d表示子区域沿垂直于移动机器人运行方向的宽度,长度l表示子区域沿移动机器人运行方向的长度,那么每个子区域宽度与长度分别表示为d1,d2,...,dn,l1,l2,...,ln,将第i个子区域分别沿宽度与长度方向上分别等距分割为mi、ki等份,得到mi*ki个矩形,将移动机器人放在分割得到的每个小矩形的几何中心,可获取沿前进或后退方向上移动机器人自带传感器扫描数据Qi,Qi包含mi*ki组匹配数据,并保存在全局定位数据库中。每个子区域获取的数据都存在一个到移动机器人在构建地图中位姿的一一映射ψ:Qit→(xit,yit,θit)(1≤i≤n,1≤t≤mi*ki);
设用于Delaunay迭代最近点算法匹配的函数为L:(P,Q)→(R,T),该函数的输入为待匹配的两个点集,定义P为目标点集,Q为模型点集,输出为两个点集进行匹配的旋转矩阵R与平移向量T,旋转矩阵R(θ)表示沿逆时针方向旋转θ(θ>0),是2×2的矩阵,而平移向量T表示2×1的列向量,并定义每个点集中点的个数为N(Qi);
步骤3子区域选取合理与否的分析判断
步骤3A设第i个子区域,第r组匹配数据,表示为Qir,初始值i=1,r=1,P表示数据库中任意一组模型点集,匹配误差εir表示与第i个子区域中第r组数据匹配的误差,εir计算方法为:其中pj、qj分别表示点集P、Qir中的任一点坐标;
步骤3B将Qir与数据库中已选取的所有子区域内的所有组数据进行匹配,获取对应的匹配误差如下:
ϵ s 1 = { ϵ s 1 , ϵ s 2 , ... , ϵ s ( m s * k s ) } ( s = i )
步骤3C当中的任何一个元素的值都小于中任何一个元素值,r=r+1,再返回步骤3B,否则退出循环,重新从应用环境中选取子区域∑i。当r=mi*ki+1时,执行步骤3D;
步骤3D改变变量i=i+1,r=1,然后返回步骤3B,继续执行,直至i=n+1,退出循环;
步骤4基于ICP实现移动机器人全局定位:
步骤4A将移动机器人置于应用环境中已选取的任一子区域∑i内,任何位置获取一组激光传感器原始数据P,数据Qi表示在第i个子区域∑i采集的数据。设在定位程序启动前移动机器人在地图中的位姿为(x0,y0,θ0),定义初始变量c=0,0<δ<π/6,定义初始总误差Eic=0,i=1;
步骤4B先将数据P进行处理得Ph=R(cδ)*P,然后通过定义的ICP匹配函数L,与全局定位数据库中的数据Qi进行匹配得到mi*ki组变换矩阵(Rt,Tt)=L(Ph,Qit)(1≤t≤mi*ki),其中Qit表示第i个子区域采集的第t组匹配数据;
步骤4C根据每组变换矩阵先计算变换后的点集可表示为Pt=Rt*Ph+Tt,然后计算每组匹配数据的误差为其中pr、qr分别表示点集Pt、Qit中的任一点坐标,在子区域∑i内将所有组数据匹配一次得到总的匹配误差可表示为
步骤4D将子区域∑i的数据库与激光传感器扫描的数据P在2π弧度内进行多次匹配,改变参数的值c=c+1,当满足时继续执行步骤4E,否则返回步骤4B,其中Γ(x)(x>0)表示取不超过x的最大整数;
步骤4E改变全局定位数据库中匹配点集的子区域,i=i+1,当i=n时继续执行步骤4F,否则返回步骤4A;
步骤4F共获得多组总的匹配误差E1,E2,...,Ec 取误差中最小的两组Emin1与Emin2作为移动机器人全局定位的数据,设此时对应的min1=(x1,y1),min2=(x2,y2),由于移动机器人在全局中的位姿只能在某一个子区域内,因此,该结果必须同时满足条件 其中l(x1)与d(x1)分别表示第x1子区间所分割的小矩形的长度与宽度,当满足条件时继续执行步骤4G,否则让移动机器人自动向前或者向后移动一定的距离,再返回步骤4A重新执行;
步骤4G根据上述结果确定移动机器人在全局地图中的位置。根据第x个子区域内采集的mxkx组点集Qx与Ph(c=y1∪y2)之间匹配可得到mxkx组误差,将其按照从小到大顺序排列,分别取前三个最小的误差,设结果分别为 ϵ xy 1 = { ϵ y 1 1 , ϵ y 1 2 , ϵ y 1 3 } , ϵ xy 2 = { ϵ y 2 1 , ϵ y 2 2 , ϵ y 2 3 } , 其对应的Qx中的六组匹配点集可设为 { Q xy 1 1 , Q xy 1 2 , Q xy 1 3 , Q xy 2 1 , Q xy 2 2 , Q xy 2 3 } ;
步骤4H步骤4G中共得到的六个误差,同样按照从小到大的顺序排列,并取前三个最小的误差,设得到对应误差为{ε1′,ε2′,ε3′},对应的点集可分别设为{Qx1′,Qx2′,Qx3′},根据映射关系ψ,设三个点集对应的移动机器人在地图中的位姿分别为
步骤4I设定方差阈值σ,计算三个误差的方差σ3,如果满足σ3<σ,则继续执行步骤4J,否则去掉三个误差中最大的那个,然后再计算两个误差的方差σ2,如果满足σ2<σ,则继续执行步骤4K,否则去掉两个误差中最大的那个,然后继续执行步骤4L;
步骤4J假设最终有三个误差{ε1′,ε2′,ε3′},每个误差对应的匹配变换矩阵分别为(x0,y0,θ0)表示移动机器人丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ 01 θ 02 θ 03 = θ 0 + δ C 1 C 2 C 3
其中x0与y0不变,然后根据匹配变换矩阵计算移动机器人三个全局地图的位姿可表示如下;
1θ2θ3]T=[θ01θ02θ03]T+[β1β2β3]T
x 1 y 1 x 2 y 2 x 3 y 3 = x 0 y 0 x 0 y 0 x 0 y 0 + T 1 ( 1 ) T 1 ( 2 ) T 2 ( 1 ) T 2 ( 2 ) T 3 ( 1 ) T 3 ( 2 )
计算三个权重其中i=1,2,3,根据权重可最终确定移动机器人全局定位的位姿可表示如下:
x y θ = x 1 x 2 x 3 y 1 y 2 y 3 θ 1 θ 2 θ 3 ω 1 ω 2 ω 3
步骤4K假设最终有两个误差{ε1′,ε2′,},每个误差对应的匹配变换矩阵分别为表示移动机器人丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ 01 θ 02 = θ 0 + δ C 1 C 2
其中x0与y0不变,然后根据匹配变换矩阵计算移动机器人两个全局地图的位姿可表示如下;
1θ2]T=[θ01θ02]T+[β1β2]T
x 1 y 1 x 2 y 2 = x 0 y 0 x 0 y 0 + T 1 ( 1 ) T 1 ( 2 ) T 2 ( 1 ) T 2 ( 2 )
计算两个权重其中i=1,2,根据权重可最终确定移动机器人全局定位的位姿可表示如下:
x y θ = x 1 x 2 y 1 y 2 θ 1 θ 2 ω 1 ω 2
步骤4L假设最只有误差ε1′,,对应的匹配变换矩阵分别为(R(βl),Tl),(x0,y0,θ0)表示移动机器人丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ01=θ0+δc1
其中x0与y0不变,然后根据匹配变换矩阵计算移动机器人全局地图的位姿可表示如下;
θ1=θ011
x 1 y 1 = x 0 y 0 + T 1 ( 1 ) T 1 ( 2 )
计算权重ω1=1,根据权重可最终确定移动机器人全局定位的位姿可表示如下:
x y θ = ω 1 x 1 y 1 θ 1 .
进一步的,步骤1中移动机器人自带的传感器为激光传感器或视觉传感器。
进一步的,所述方法步骤4I中方差阈值σ根据下述公式确定:
σ=(2~5)×min({ε1′,ε2′,ε3′})。
本发明的有益效果在于:本发明在实现基于SLAM导航移动机器人的全局定位的基础上,使得方案更为可行可靠、成本更低、操作简单易于实现。该方法只是通过软件实现的一段程序,且进行了自动、智能优化的判断分析,结合简单的人工操作,即可完成本方案的实现与布局。由于该方法采用了构建地图过程中获取的原始数据,并进行不断的更新,可采用ICP(迭代最近点算法)匹配的方法,根据匹配的效果综合分析,以确定移动机器人在全局地图中的位姿,易于实现、定位准确、速度快。本发明不需要对环境进行改造,实现简单可行,易于操作,降低了产品成本,提高了生产效率。本发明的方法可适用各种移动机器人,尤其是AGV类型的移动机器人,只需移动机器人自带的传感器可获得数据实现SLAM导航即可。
附图说明
图1为本发明一种基于SLAM导航移动机器人的全局定位方法的流程图;
图2为具体实施方式中AGV在任一子区域获取的激光数据与数据库中的数据,在基于ICP全局定位匹配前位姿状态示意图;
图3为具体实施方式中AGV在任一子区域获取的激光数据与数据库中的数据,在基于ICP全局定位匹配后位姿状态示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行说明:
以配备激光SLAM导航系统的自动导航叉车AGV为平台进行本发明基于激光SLAM导航的AGV全局定位方法的具体操作,如图1所示的方法流程,包括以下步骤:
步骤1移动机器人应用环境的子区域的选取
通过AGV自带的激光传感器,获取室内环境的数据信息,并通过SLAM技术,构建关于室内环境完整的平面地图。设整个应用环境为∑,在该环境下选取多个矩形的子区域,取地图中位姿为零点所对应的环境区域为Σ0,其它的子区域分别为∑1,∑2,...,Σn
本发明选取应用环境中的多个子区域,将AGV置于其中任一子区域中,不需要重启初始化,就可以实现自动全局定位,且人工移动的距离远远小于只有零点的子区域时所移动的距离。假设AGV人工移动最大距离不超过D,那么任意相邻的两个子区域的几何中心的距离都不应该超过2D,且应该满足2D>l,l表示子区域沿AGV运行方向的长度。
步骤2数据点的采集
步骤1中在AGV应用环境中选取矩形的子区域,它的宽度和长度分别设为d、l,宽度d表示子区域沿垂直于AGV运行方向的宽度,长度l表示子区域沿AGV运行方向的长度,那么每个子区域宽度与长度分别表示为d1,d2,...,dn,l1,l2,...,ln,将第i个子区域分别沿宽度与长度方向上分别等距分割为mi、ki等份,得到mi*ki个矩形,将AGV放在分割得到的每个小矩形的几何中心,可获取沿前进或后退方向上激光传感器扫描数据Qi,Qi包含mi*ki组匹配数据,并保存在全局定位数据库中。每个子区域获取的数据都存在一个到AGV在构建地图中位姿的一一映射ψ:Qit→(xit,yit,θit)(1≤i≤n,1≤t≤mi*ki);
设用于Delaunay迭代最近点算法匹配的函数为L:(P,Q)→(R,T),该函数的输入为待匹配的两个点集,定义P为目标点集,Q为模型点集,输出为两个点集进行匹配的旋转矩阵R与平移向量T,旋转矩阵R(θ)表示沿逆时针方向旋转θ(θ>0),是2×2的矩阵,而平移向量T表示2×1的列向量,并定义每个点集中点的个数为N(Qi)。
步骤3子区域选取合理与否的分析判断
步骤3A设第i个子区域,第r组匹配数据,表示为Qir,初始值i=1,r=1,P表示数据库中任意一组模型点集,匹配误差εir表示与第i个子区域中第r组数据匹配的误差,εir计算方法为:其中pj、qj分别表示点集P、Qir中的任一点坐标;
步骤3B将Qir与数据库中已选取的所有子区域内的所有组数据进行匹配,获取对应的匹配误差如下:
ϵ s 1 = { ϵ s 1 , ϵ s 2 , ... , ϵ s ( m s * k s ) } ( s = i )
步骤3C当中的任何一个元素的值都小于中任何一个元素值,r=r+1,再返回步骤3B,否则退出循环,重新从应用环境中选取子区域Σi。当r=mi*ki+1时,执行步骤3D;
步骤3D改变变量i=i+1,r=1,然后返回步骤3B,继续执行,直至i=n+1,退出循环。
步骤4基于ICP实现移动机器人全局定位:
步骤4A将AGV置于应用环境中已选取的任一子区域∑i内,任何位置获取一组激光传感器原始数据P,数据Qi表示在第i个子区域Σi采集的数据。设在定位程序启动前AGV在地图中的位姿为(x0,y0,θ0),定义初始变量c=0,0<δ<π/6,定义初始总误差Eic=0,i=1;
步骤4B先将数据P进行处理得Ph=R(cδ)*P,然后通过定义的ICP匹配函数L,与全局定位数据库中的数据Qi进行匹配得到mi*ki组变换矩阵(Rt,Tt)=L(Ph,Qit)(1≤t≤mi*ki),其中Qit表示第i个子区域采集的第t组匹配数据;
步骤4C根据每组变换矩阵先计算变换后的点集可表示为Pt=Rt*Ph+Tt,然后计算每组匹配数据的误差为其中pr、qr分别表示点集Pt、Qit中的任一点坐标,在子区域Σi内将所有组数据匹配一次得到总的匹配误差可表示为
步骤4D将子区域Σi的数据库与激光传感器扫描的数据P在2π弧度内进行多次匹配,改变参数的值c=c+1,当满足时继续执行步骤4E,否则返回步骤4B,其中Γ(x)(x>0)表示取不超过x的最大整数;
步骤4E改变全局定位数据库中匹配点集的子区域,i=i+1,当i=n时继续执行步骤4F,否则返回步骤4A;
步骤4F共获得多组总的匹配误差取误差中最小的两组Emin1与Emin2作为AGV全局定位的数据,设此时对应的min1=(x1,y1),min2=(x2,y2),由于AGV在全局中的位姿只能在某一个子区域内,因此,该结果必须同时满足条件x1=x2=x,其中l(x1)与d(x1)分别表示第x1子区间所分割的小矩形沿AGV运行方向的长度与沿垂直于AGV运行方向的宽度,当满足条件时继续执行步骤4G,否则让AGV自动向前或者向后移动一定的距离,再返回步骤4A重新执行;
步骤4G根据上述结果确定AGV在全局地图中的位置。根据第x个子区域内采集的mxkx组点集Qx与Ph(c=y1∪y2)之间匹配可得到mxkx组误差,将其按照从小到大顺序排列,分别取前三个最小的误差,设结果分别为 ϵ xy 1 = { ϵ y 1 1 , ϵ y 1 2 , ϵ y 1 3 } , ϵ xy 2 = { ϵ y 2 1 , ϵ y 2 2 , ϵ y 2 3 } , 其对应的Qx中的六组匹配点集可设为 { Q xy 1 1 , Q xy 1 2 , Q xy 1 3 , Q xy 2 1 , Q xy 2 2 , Q xy 2 3 } ;
步骤4H步骤4G中共得到的六个误差,同样按照从小到大的顺序排列,并取前三个最小的误差,设得到对应误差为{ε1′,ε2′,ε3′},对应的点集可分别设为{Qx1′,Qx2′,Qx3′},根据映射关系ψ,设三个点集对应的AGV在地图中的位姿分别为
步骤4I设定方差阈值σ,方差阈值σ根据下述公式确定:
σ=(2~5)×min({ε1′,ε2′,ε3′})。
计算三个误差的方差σ3,如果满足σ3<σ,则继续执行步骤4J,否则去掉三个误差中最大的那个,然后再计算两个误差的方差σ2,如果满足σ2<σ,则继续执行步骤4K,否则去掉两个误差中最大的那个,然后继续执行步骤4L。
步骤4J假设最终有三个误差{ε1′,ε2′,ε3′},每个误差对应的匹配变换矩阵分别为表示AGV丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ 01 θ 02 θ 03 = θ 0 + δ C 1 C 2 C 3
其中x0与y0不变,然后根据匹配变换矩阵计算AGV三个全局地图的位姿可表示如下;
1θ2θ3]T=[θ01θ02θ03]T+[β1β2β3]T
x 1 y 1 x 2 y 2 x 3 y 3 = x 0 y 0 x 0 y 0 x 0 y 0 + T 1 ( 1 ) T 1 ( 2 ) T 2 ( 1 ) T 2 ( 2 ) T 3 ( 1 ) T 3 ( 2 )
计算三个权重其中i=1,2,3,根据权重可最终确定AGV全局定位的位姿可表示如下:
x y θ = x 1 x 2 x 3 y 1 y 2 y 3 θ 1 θ 2 θ 3 ω 1 ω 2 ω 3
步骤4K假设最终有两个误差{ε1′,ε2′,},每个误差对应的匹配变换矩阵分别为表示AGV丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ 01 θ 02 = θ 0 + δ C 1 C 2
其中x0与y0不变,然后根据匹配变换矩阵计算AGV两个全局地图的位姿可表示如下;
1θ2]T=[θ01θ02]T+[β1β2]T
x 1 y 1 x 2 y 2 = x 0 y 0 x 0 y 0 + T 1 ( 1 ) T 1 ( 2 ) T 2 ( 1 ) T 2 ( 2 )
计算两个权重其中i=1,2,根据权重可最终确定AGV全局定位的位姿可表示如下:
x y θ = x 1 x 2 y 1 y 2 θ 1 θ 2 ω 1 ω 2
步骤4L假设最只有误差ε1′,,对应的匹配变换矩阵分别为(R(βl),Tl),(x0,y0,θ0)表示AGV丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ01=θ0+δc1
其中x0与y0不变,然后根据匹配变换矩阵计算AGV全局地图的位姿可表示如下;
θ1=θ011
x 1 y 1 = x 0 y 0 + T 1 ( 1 ) T 1 ( 2 )
计算权重ω1=1,根据权重可最终确定AGV全局定位的位姿可表示如下:
x y θ = ω 1 x 1 y 1 θ 1
本具体实施方式使用的自动导航叉车AGV平台,AGV在任一子区域获取的激光数据与数据库中的数据如图2所示,AGV在任一子区域获取的激光数据与数据库中的数据,在基于ICP全局定位匹配后位姿状态如图3所示,图2及图3中加号与星号分别表示模型点集与目标点集,通过图3与图2对比可以看出,采用基于激光SLAM导航AGV全局定位方法即图3中模型点集与目标点集更为接近,定位更加精确。
上述实施方式中使用的是自动导航叉车AGV平台,本发明也可以应用到其它各种移动机器人如餐厅服务机器人和家用机器人等领域。只需移动机器人自带的传感器能够获得数据进行SLAM导航即可,传感器可以是具体实施方式中的激光传感器,也可以是视觉传感器,通过视觉传感器获得点云数据,使用相同的算法进行计算,实现全局定位,也可以应用到其它类型的传感器。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于SLAM导航移动机器人的全局定位方法,其特征在于,所述方法包括以下步骤:
步骤1移动机器人应用环境的子区域的选取
通过移动机器人自带的传感器,获取室内环境的数据信息,并通过SLAM技术,构建关于室内环境完整的平面地图,设整个应用环境为Σ,在该环境下选取多个矩形的子区域,取地图中位姿为零点所对应的环境区域为Σ0,其它的子区域分别为Σ12,…,Σn
假设移动机器人人工移动最大距离不超过D,那么任意相邻的两个子区域的几何中心的距离都不应该超过2D,且应该满足2D>l,l表示子区域沿移动机器人运行方向的长度;
步骤2数据点的采集
步骤1中在移动机器人应用环境中选取矩形的子区域,它的宽度和长度分别设为d、l,宽度d表示子区域沿垂直于移动机器人运行方向的宽度,长度l表示子区域沿移动机器人运行方向的长度,那么每个子区域宽度与长度分别表示为d1,d2,…,dn,l1,l2,…,ln,将第i个子区域分别沿宽度与长度方向上分别等距分割为mi、ki等份,得到mi*ki个矩形,将移动机器人放在分割得到的每个小矩形的几何中心,可获取沿前进或后退方向上移动机器人自带传感器扫描数据Qi,Qi包含mi*ki组匹配数据,并保存在全局定位数据库中,每个子区域获取的数据都存在一个到移动机器人在构建地图中位姿的一一映射ψ:Qit→(xit,yitit)(1≤i≤n,1≤t≤mi*ki);
设用于Delaunay迭代最近点算法匹配的函数为L:(P,Q)→(R,T),该函数的输入为待匹配的两个点集,定义P为目标点集,Q为模型点集,输出为两个点集进行匹配的旋转矩阵R与平移向量T,旋转矩阵R(θ)表示沿逆时针方向旋转θ(θ>0),是2×2的矩阵,而平移向量T表示2×1的列向量,并定义每个点集中点的个数为N(Qi);
步骤3子区域选取合理与否的分析判断
步骤3A设第i个子区域,第r组匹配数据,表示为Qir,初始值i=1,r=1,P表示数据库中任意一组模型点集,匹配误差εir表示与第i个子区域中第r组数据匹配的误差,εir计算方法为:其中pj、qj分别表示点集P、Qir中的任一点坐标;
步骤3B将Qir与数据库中已选取的所有子区域内的所有组数据进行匹配,获取对应的匹配误差如下:
ϵ s 1 = { ϵ s 1 , ϵ s 2 , ... , ϵ s ( m s * k s ) } , ( s = i )
步骤3C当中的任何一个元素的值都小于中任何一个元素值,r=r+1,再返回步骤3B,否则退出循环,重新从应用环境中选取子区域Σi,当r=mi*ki+1时,执行步骤3D;
步骤3D改变变量i=i+1,r=1,然后返回步骤3B,继续执行,直至i=n+1,退出循环;
步骤4基于ICP实现移动机器人全局定位
步骤4A将移动机器人置于应用环境中已选取的任一子区域Σi内,任何位置获取一组传感器原始数据P,数据Qi表示在第i个子区域Σi采集的数据,设在定位程序启动前移动机器人在地图中的位姿为(x0,y00),定义初始变量c=0,0<δ<π/6,定义初始总误差Eic=0,i=1;
步骤4B先将数据P进行处理得Ph=R(cδ)*P,然后通过定义的ICP匹配函数L,与全局定位数据库中的数据Qi进行匹配得到mi*ki组变换矩阵(Rt,Tt)=L(Ph,Qit)(1≤t≤mi*ki),其中Qit表示第i个子区域采集的第t组匹配数据;
步骤4C根据每组变换矩阵先计算变换后的点集可表示为Pt=Rt*Ph+Tt,然后计算每组匹配数据的误差为其中pr、qr分别表示点集Pt、Qit中的任一点,在子区域Σi内将所有组数据匹配一次得到总的匹配误差可表示为 E i c = ( &Sigma; t = 1 m i * k i &epsiv; t 2 ) / ( m i * k i ) ;
步骤4D将子区域Σi的数据库与激光传感器扫描的数据P在2π弧度内进行多次匹配,改变参数的值c=c+1,当满足时继续执行步骤4E,否则返回步骤4B,其中Γ(x)(x>0)表示取不超过x的最大整数;
步骤4E改变全局定位数据库中匹配点集的子区域,i=i+1,当i=n时继续执行步骤4F,否则返回步骤4A;
步骤4F共获得多组总的匹配误差取误差中最小的两组Emin1与Emin2作为移动机器人全局定位的数据,设此时对应的min1=(x1,y1),mim2=(x2,y2),由于移动机器人在全局中的位姿只能在某一个子区域内,因此,该结果必须同时满足条件x1=x2=x, 其中l(x1)与d(x1)分别表示第x1子区间所分割的小矩形的长度与宽度,当满足条件时继续执行步骤4G,否则让移动机器人自动向前或者向后移动一定的距离,再返回步骤4A重新执行;
步骤4G根据上述结果确定移动机器人在全局地图中的位置,根据第x个子区域内采集的mxkx组点集Qx与Ph(c=y1∪y2)之间匹配可得到mxkx组误差,将其按照从小到大顺序排列,分别取前三个最小的误差,设结果分别为 &epsiv; xy 1 = { &epsiv; y 1 1 , &epsiv; y 1 2 , &epsiv; y 1 3 } , &epsiv; xy 2 = { &epsiv; y 2 1 , &epsiv; y 2 2 , &epsiv; y 2 3 } , 其对应的Qx中的六组匹配点集可设为
步骤4H步骤4G中共得到的六个误差,同样按照从小到大的顺序排列,并取前三个最小的误差,设得到对应误差为{ε1′,ε2′,ε3′},对应的点集可分别设为{Qx1′,Qx2′,Qx2′},根据映射关系ψ,设三个点集对应的移动机器人在地图中的位姿分别为
步骤4I设定方差阈值σ,计算三个误差的方差σ2,如果满足σ3<σ,则继续执行步骤4J,否则去掉三个误差中最大的那个,然后再计算两个误差的方差σ1,如果满足σ1<σ,则继续执行步骤4K,否则去掉两个误差中最大的那个,然后继续执行步骤4L;
步骤4J假设最终有三个误差{ε1′,ε2′,ε3′},每个误差对应的匹配变换矩阵分别为(x0,y00)表示移动机器人丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
&theta; 01 &theta; 02 &theta; 03 = &theta; 0 + &delta; c 1 c 2 c 3
其中xy与y0不变,然后根据匹配变换矩阵计算移动机器人三个全局地图的位姿可表示如下;
1θ2θ3]T=[θ01θ02θ03]T+[β1β2β3]T
x 1 y 1 x 2 y 2 x 3 y 3 = x 0 y 0 x 0 y 0 x 0 y 0 + T 1 ( 1 ) T 1 ( 2 ) T 2 ( 1 ) T 2 ( 2 ) T 3 ( 1 ) T 3 ( 2 )
计算三个权重其中i=1,2,3,根据权重可最终确定移动机器人全局定位的位姿可表示如下:
x y &theta; = x 1 x 2 x 3 y 1 y 2 y 3 &theta; 1 &theta; 2 &theta; 3 &omega; 1 &omega; 2 &omega; 3
步骤4K假设最终有两个误差{ε1′,ε2′,},每个误差对应的匹配变换矩阵分别为(x0,y00)表示移动机器人丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
&theta; 01 &theta; 02 = &theta; 0 + &delta; c 1 c 2
其中x0与y0不变,然后根据匹配变换矩阵计算移动机器人两个全局地图的位姿可表示如下;
1θ2]T=[θ01θ02]T+[β1β2]T
x 1 y 1 x 2 y 2 = x 0 y 0 x 0 y 0 + T 1 ( 1 ) T 1 ( 2 ) T 2 ( 1 ) T 2 ( 2 )
计算两个权重其中i=1,2,根据权重可最终确定移动机器人全局定位的位姿可表示如下:
x y &theta; = x 1 x 2 y 1 y 2 &theta; 1 &theta; 2 &omega; 1 &omega; 2
步骤4L假设最只有误差ε1′,,对应的匹配变换矩阵分别为(R(βl),Tl),(x0,y00)表示移动机器人丢失位姿后保存的位姿,首先根据R(cδ)变换其位姿为:
θ01=θ0+δc1
其中x0与y0不变,然后根据匹配变换矩阵计算移动机器人全局地图的位姿可表示如下;
θ1=θ011
x 1 y 1 = x 0 y 0 + T 1 ( 1 ) T 1 ( 2 )
计算权重ω1=1,根据权重可最终确定移动机器人全局定位的位姿可表示如下:
x y &theta; = &omega; 1 x 1 y 1 &theta; 1 .
2.如权利要求1所述的基于SLAM导航移动机器人的全局定位方法,其特征在于,所述移动机器人为AGV。
3.如权利要求1所述的基于SLAM导航移动机器人的全局定位方法,其特征在于,所述方法步骤1中移动机器人自带传感器为激光传感器或视觉传感器。
4.如权利要求1所述的基于SLAM导航移动机器人的全局定位方法,其特征在于,所述方法步骤4I中方差阈值σ根据下述公式确定:
σ=(2~5)×min({ε1′,ε2′,ε3′})。
CN201510644986.0A 2015-10-06 2015-10-06 一种基于slam导航移动机器人的全局定位方法 Active CN105258702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510644986.0A CN105258702B (zh) 2015-10-06 2015-10-06 一种基于slam导航移动机器人的全局定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510644986.0A CN105258702B (zh) 2015-10-06 2015-10-06 一种基于slam导航移动机器人的全局定位方法

Publications (2)

Publication Number Publication Date
CN105258702A true CN105258702A (zh) 2016-01-20
CN105258702B CN105258702B (zh) 2019-05-07

Family

ID=55098486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510644986.0A Active CN105258702B (zh) 2015-10-06 2015-10-06 一种基于slam导航移动机器人的全局定位方法

Country Status (1)

Country Link
CN (1) CN105258702B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105872987A (zh) * 2016-04-22 2016-08-17 浙江大学 一种基于单移动机器人的分布式无线传感网络节点定位方法
CN105928505A (zh) * 2016-04-19 2016-09-07 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN105973145A (zh) * 2016-05-19 2016-09-28 深圳市速腾聚创科技有限公司 移动式三维激光扫描系统及移动式三维激光扫描方法
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN106197421A (zh) * 2016-06-24 2016-12-07 北京工业大学 一种用于移动机器人自主探索的前沿目标点生成方法
CN106406338A (zh) * 2016-04-14 2017-02-15 中山大学 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法
CN106441238A (zh) * 2016-06-01 2017-02-22 昆山塔米机器人有限公司 一种基于红外视觉技术的机器人的定位装置及其定位导航算法
CN107328420A (zh) * 2017-08-18 2017-11-07 上海木爷机器人技术有限公司 定位方法和装置
CN107422735A (zh) * 2017-07-29 2017-12-01 深圳力子机器人有限公司 一种无轨导航agv激光与视觉特征混合导航方法
CN107479555A (zh) * 2017-09-10 2017-12-15 南京中高知识产权股份有限公司 一种扫地机器人的寻路方法
CN107564060A (zh) * 2017-07-13 2018-01-09 塔米智能科技(北京)有限公司 一种消除slam导航累积误差的方法
CN107577646A (zh) * 2017-08-23 2018-01-12 上海莫斐信息技术有限公司 一种高精度轨迹运算方法及系统
CN107632607A (zh) * 2017-09-27 2018-01-26 哈工大机器人(合肥)国际创新研究院 基于二维激光Slam和Tag标签的移动机器人精确定位方法
WO2018032488A1 (zh) * 2016-08-19 2018-02-22 广州艾若博机器人科技有限公司 基于发光设备的地图构建方法、纠正方法及装置
CN108053446A (zh) * 2017-12-11 2018-05-18 北京奇虎科技有限公司 基于点云的定位方法、装置及电子设备
CN108344970A (zh) * 2018-02-01 2018-07-31 感知智能科技新加坡有限公司 一种使用移动机器人的无线定位自动校准方法
CN108571960A (zh) * 2017-03-09 2018-09-25 深圳市朗驰欣创科技股份有限公司 一种定位方法和定位设备
CN108629799A (zh) * 2017-03-24 2018-10-09 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN108981701A (zh) * 2018-06-14 2018-12-11 广东易凌科技股份有限公司 一种基于激光slam的室内定位和导航方法
CN110045733A (zh) * 2019-04-04 2019-07-23 肖卫国 一种实时定位方法及其系统、计算机可读介质
US10444021B2 (en) 2016-08-04 2019-10-15 Reification Inc. Methods for simultaneous localization and mapping (SLAM) and related apparatus and systems
WO2020057462A1 (zh) * 2018-09-17 2020-03-26 北京三快在线科技有限公司 列车内定位、以及室内定位
CN111060135A (zh) * 2019-12-10 2020-04-24 亿嘉和科技股份有限公司 一种基于局部地图的地图修正方法及系统
CN111123279A (zh) * 2019-12-31 2020-05-08 芜湖哈特机器人产业技术研究院有限公司 一种融合nd和ipc匹配的移动机器人重定位方法
CN111487642A (zh) * 2020-03-10 2020-08-04 国电南瑞科技股份有限公司 基于三维激光和双目视觉的变电站巡检机器人定位导航系统及方法
CN111623783A (zh) * 2020-06-30 2020-09-04 杭州海康机器人技术有限公司 一种初始定位方法、视觉导航设备、仓储系统
TWI712993B (zh) * 2019-08-19 2020-12-11 國立雲林科技大學 應用於半特徵視覺式同步定位與建圖方法的半特徵視覺里程計
CN113485327A (zh) * 2021-06-30 2021-10-08 三一机器人科技有限公司 末端工位定位方法、装置及电子设备
CN115082665A (zh) * 2022-08-22 2022-09-20 山东西曼克技术有限公司 可提高作业精度的agv小车视觉自检方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060012493A1 (en) * 2002-12-17 2006-01-19 Karlsson L N Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101576384A (zh) * 2009-06-18 2009-11-11 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
CN101619985A (zh) * 2009-08-06 2010-01-06 上海交通大学 基于可变形拓扑地图的服务机器人自主导航方法
CN103206954A (zh) * 2013-04-25 2013-07-17 佳木斯大学 一种基于ukf的移动机器人多传感器信息融合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060012493A1 (en) * 2002-12-17 2006-01-19 Karlsson L N Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101576384A (zh) * 2009-06-18 2009-11-11 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
CN101619985A (zh) * 2009-08-06 2010-01-06 上海交通大学 基于可变形拓扑地图的服务机器人自主导航方法
CN103206954A (zh) * 2013-04-25 2013-07-17 佳木斯大学 一种基于ukf的移动机器人多传感器信息融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
马健等: "一种基于全局位置估计误差的路标探索策略", 《智能系统学报》 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106406338A (zh) * 2016-04-14 2017-02-15 中山大学 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法
CN106406338B (zh) * 2016-04-14 2023-08-18 中山大学 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法
CN105928505A (zh) * 2016-04-19 2016-09-07 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN105928505B (zh) * 2016-04-19 2019-01-29 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN105872987A (zh) * 2016-04-22 2016-08-17 浙江大学 一种基于单移动机器人的分布式无线传感网络节点定位方法
CN105872987B (zh) * 2016-04-22 2019-04-16 浙江大学 一种基于单移动机器人的分布式无线传感网络节点定位方法
CN105973145A (zh) * 2016-05-19 2016-09-28 深圳市速腾聚创科技有限公司 移动式三维激光扫描系统及移动式三维激光扫描方法
CN106441238A (zh) * 2016-06-01 2017-02-22 昆山塔米机器人有限公司 一种基于红外视觉技术的机器人的定位装置及其定位导航算法
CN106197421B (zh) * 2016-06-24 2019-03-22 北京工业大学 一种用于移动机器人自主探索的前沿目标点生成方法
CN106197421A (zh) * 2016-06-24 2016-12-07 北京工业大学 一种用于移动机器人自主探索的前沿目标点生成方法
US11215465B2 (en) 2016-08-04 2022-01-04 Reification Inc. Methods for simultaneous localization and mapping (SLAM) and related apparatus and systems
US10444021B2 (en) 2016-08-04 2019-10-15 Reification Inc. Methods for simultaneous localization and mapping (SLAM) and related apparatus and systems
CN108139213B (zh) * 2016-08-19 2018-12-21 广州艾若博机器人科技有限公司 基于发光设备的地图构建方法、纠正方法及装置
WO2018032488A1 (zh) * 2016-08-19 2018-02-22 广州艾若博机器人科技有限公司 基于发光设备的地图构建方法、纠正方法及装置
CN108139213A (zh) * 2016-08-19 2018-06-08 广州艾若博机器人科技有限公司 基于发光设备的地图构建方法、纠正方法及装置
CN106092104B (zh) * 2016-08-26 2019-03-15 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN108571960A (zh) * 2017-03-09 2018-09-25 深圳市朗驰欣创科技股份有限公司 一种定位方法和定位设备
CN108629799B (zh) * 2017-03-24 2021-06-01 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN108629799A (zh) * 2017-03-24 2018-10-09 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN107564060A (zh) * 2017-07-13 2018-01-09 塔米智能科技(北京)有限公司 一种消除slam导航累积误差的方法
CN107422735A (zh) * 2017-07-29 2017-12-01 深圳力子机器人有限公司 一种无轨导航agv激光与视觉特征混合导航方法
CN107328420A (zh) * 2017-08-18 2017-11-07 上海木爷机器人技术有限公司 定位方法和装置
CN107577646A (zh) * 2017-08-23 2018-01-12 上海莫斐信息技术有限公司 一种高精度轨迹运算方法及系统
CN107479555A (zh) * 2017-09-10 2017-12-15 南京中高知识产权股份有限公司 一种扫地机器人的寻路方法
CN107632607A (zh) * 2017-09-27 2018-01-26 哈工大机器人(合肥)国际创新研究院 基于二维激光Slam和Tag标签的移动机器人精确定位方法
CN108053446A (zh) * 2017-12-11 2018-05-18 北京奇虎科技有限公司 基于点云的定位方法、装置及电子设备
CN108344970B (zh) * 2018-02-01 2022-03-15 感知智能科技新加坡有限公司 一种使用移动机器人的无线定位自动校准方法
CN108344970A (zh) * 2018-02-01 2018-07-31 感知智能科技新加坡有限公司 一种使用移动机器人的无线定位自动校准方法
CN108981701A (zh) * 2018-06-14 2018-12-11 广东易凌科技股份有限公司 一种基于激光slam的室内定位和导航方法
CN108981701B (zh) * 2018-06-14 2022-05-10 广东易凌科技股份有限公司 一种基于激光slam的室内定位和导航方法
WO2020057462A1 (zh) * 2018-09-17 2020-03-26 北京三快在线科技有限公司 列车内定位、以及室内定位
CN110045733A (zh) * 2019-04-04 2019-07-23 肖卫国 一种实时定位方法及其系统、计算机可读介质
TWI712993B (zh) * 2019-08-19 2020-12-11 國立雲林科技大學 應用於半特徵視覺式同步定位與建圖方法的半特徵視覺里程計
CN111060135B (zh) * 2019-12-10 2021-12-17 亿嘉和科技股份有限公司 一种基于局部地图的地图修正方法及系统
CN111060135A (zh) * 2019-12-10 2020-04-24 亿嘉和科技股份有限公司 一种基于局部地图的地图修正方法及系统
CN111123279A (zh) * 2019-12-31 2020-05-08 芜湖哈特机器人产业技术研究院有限公司 一种融合nd和ipc匹配的移动机器人重定位方法
CN111123279B (zh) * 2019-12-31 2022-05-27 芜湖哈特机器人产业技术研究院有限公司 一种融合nd和icp匹配的移动机器人重定位方法
CN111487642A (zh) * 2020-03-10 2020-08-04 国电南瑞科技股份有限公司 基于三维激光和双目视觉的变电站巡检机器人定位导航系统及方法
CN111623783A (zh) * 2020-06-30 2020-09-04 杭州海康机器人技术有限公司 一种初始定位方法、视觉导航设备、仓储系统
CN113485327A (zh) * 2021-06-30 2021-10-08 三一机器人科技有限公司 末端工位定位方法、装置及电子设备
CN113485327B (zh) * 2021-06-30 2024-02-02 三一机器人科技有限公司 末端工位定位方法、装置及电子设备
CN115082665A (zh) * 2022-08-22 2022-09-20 山东西曼克技术有限公司 可提高作业精度的agv小车视觉自检方法、装置及系统
CN115082665B (zh) * 2022-08-22 2022-11-01 山东西曼克技术有限公司 可提高作业精度的agv小车视觉自检方法、装置及系统

Also Published As

Publication number Publication date
CN105258702B (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN105258702A (zh) 一种基于slam导航移动机器人的全局定位方法
CN109916393B (zh) 一种基于机器人位姿的多重栅格值导航方法及其应用
Santos et al. An evaluation of 2D SLAM techniques available in robot operating system
CN112904358B (zh) 基于几何信息的激光定位方法
CN103926930A (zh) 一种基于Hilbert曲线探测的多机器人协作地图构建方法
CN110749895B (zh) 一种基于激光雷达点云数据的定位方法
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
CN105184243A (zh) 一种基于三维栅格地图的环境特征表示与识别的方法
Tang et al. Robot tracking in SLAM with Masreliez-Martin unscented Kalman filter
JP2017526083A (ja) 位置特定およびマッピングの装置ならびに方法
CN104898675A (zh) 一种机器人智能导航控制方法
JP7014180B2 (ja) 航走体制御装置、航走体の制御方法、及び航走体制御装置の制御プログラム
Gimenez et al. Optimization methodology to fruit grove mapping in precision agriculture
CN111609853A (zh) 三维地图构建方法、扫地机器人及电子设备
CN112857370A (zh) 一种基于时序信息建模的机器人无地图导航方法
Iswanto et al. 3D object modeling using data fusion from laser sensor on quadrotor
CN105096733A (zh) 一种基于栅格地图的环境特征表示与识别的方法
Baranzadeh A decentralized control algorithm for target search by a multi-robot team
Chow et al. Learning human navigational skill for smart wheelchair in a static cluttered route
CN116429121A (zh) 基于多传感器的定位方法、装置、自移动设备及存储介质
CN104776968A (zh) 一种多关节模型穿透深度的计算方法
CN114815899A (zh) 基于3d激光雷达传感器的无人机三维空间路径规划方法
CN115047871A (zh) 动态目标的多无人车协同搜索方法、装置、设备及介质
Jung et al. Gaussian Mixture Midway-Merge for Object SLAM With Pose Ambiguity
Awad-Allah et al. A MODIFIED SAMPLING METHOD FOR LOCALIZATION ACCURACY IMPROVEMENT OF MONTE CARLO LOCALIZATION

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221124

Address after: 10/F, Financial Technology Building, No. 11, Keyuan Road, Science Park Community, Yuehai Street, Nanshan District, Shenzhen, Guangdong 518057

Patentee after: Shenzhen zhumang Technology Co.,Ltd.

Address before: No. 501, Liuxian Venture Park, No. 87, Liuxian Village Road, Nanshan, Shenzhen, Guangdong 518055

Patentee before: SHENZHEN LZROBOTICS Co.,Ltd.

TR01 Transfer of patent right