CN113310484B - 一种移动机器人定位方法和系统 - Google Patents
一种移动机器人定位方法和系统 Download PDFInfo
- Publication number
- CN113310484B CN113310484B CN202110592577.6A CN202110592577A CN113310484B CN 113310484 B CN113310484 B CN 113310484B CN 202110592577 A CN202110592577 A CN 202110592577A CN 113310484 B CN113310484 B CN 113310484B
- Authority
- CN
- China
- Prior art keywords
- positioning
- map
- visual identifier
- mobile robot
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000000007 visual effect Effects 0.000 claims abstract description 102
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 51
- 238000005457 optimization Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000009434 installation Methods 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 5
- 230000004048 modification Effects 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000002401 inhibitory effect Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims 2
- 238000012217 deletion Methods 0.000 abstract description 2
- 230000037430 deletion Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- -1 hydrogen Chemical class 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/006—Theoretical aspects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种移动机器人定位方法和系统,所述方法包括如下步骤:确定定位场景,在所述定位场景内贴装视觉定位标识符,建立视觉定位标识符地图;在所述定位场景同时建立激光定位地图;获取视觉标识符地图定位数据和激光定位地图的定位数据,并处理两种定位数据,形成融合定位数据;根据所述融合定位数据进行处理获取或更新定位结果。所述方法和系统采用视觉标识符和激光里程计进行数据融合的方式进行机器人定位,可以有效地提高机器人定位的精度,避免单纯的激光里程计扫描存在地图边缘缺失的问题。
Description
技术领域
本发明涉及移动机器人定位领域,特别涉及一种移动机器人定位方法和系统。
背景技术
目前使用激光里程计作为移动机器人定位的方式已成为一大主流,其算法执行效率高,定位精度也较高,但是也存在高度相似的几何环境定位丢失的风险,大地图下全局自主重定位计算速度慢甚至无法准确定位。目前视觉传感器价钱低廉,成本底,定位精度也较高,也是用于定位的常用手段。但一般基于图像特征追踪的方式在大场景下需要维护很大的地图,且对计算平台有很高的要求,目前并不适用于使用嵌入式计算平台的移动机器人。
比如现有技术中专利申请号为CN201811085808的中国专利公开了一种基于无人机视觉SLAM的辅助地面机器人导航方法及装置,该专利用视觉特征去弥补激光建图时由于扫描高度限制而导致的地图边缘信息缺失的问题,但并没有有效的提高移动机器人的定位精度。因为本来激光应该看不到的地方还是看不到,由于建图时考虑了不同高度的障碍物,并将其反映在地图中,反而使得定位时做scan-map的匹配时无法正确的匹配。
发明内容
本发明其中一个发明目的在于提供一种移动机器人定位方法和系统,所述方法和系统采用视觉标识符和激光里程计进行数据融合的方式进行机器人定位,可以有效地提高机器人定位的精度,避免单纯的激光里程计扫描存在地图边缘缺失的问题。
本发明其中一个发明目的在于提供一种移动机器人定位方法和系统,所述方法和系统可以在日常工作中进行视觉标识符地图精度的自优化,从而使得环境定位精度的影响较小。
本发明其中一个发明目的在于提供一种移动机器人定位方法和系统,所述方法和系统采用记录三维视觉标识符的地图结构,可以和传统的激光地图同步,从而使得机器人可以适应相似度极高的复杂环境。
本发明其中一个发明目的在于提供一种移动机器人定位方法和系统,所述方法和系统对机器人本体和机器人自身的机构部件采用视觉标识进行定位,用于检测机器人在全局地图中的状态,从而可以有效地提高对机器人定位精度,使得机器人可以在几何复杂度较高的环境中执行相关的定位操作。
本发明其中一个发明目的在于提供一种移动机器人定位方法和系统,所述方法和系统结合视觉标识符和激光里程计无需全场景粘贴,只需要粘贴至需要工作的场景,可以降低定位成本,并且可以实现无人化的自动定位。
为了实现至少一个上述发明目的,本发明进一步提供一种移动机器人定位方法,所述方法包括如下步骤:
确定定位场景,在所述定位场景内贴装视觉标识符,建立视觉标识符地图;
在所述定位场景同时建立激光定位地图;
获取视觉标识符地图定位数据和激光定位地图的定位数据,并处理两种定位数据,形成融合定位数据;
根据所述融合定位数据进行处理获取或更新定位结果。
根据本发明其中一个较佳实施例,所述定位方法包括视觉标识符地图的初始化步骤:获取机器人的当前位置,通过激光里程计建立临时地图,在所述临时地图内选取当前移动机器人未到达过的栅格点作为目标点进行移动,直到检测到所述视觉标识符地图中贴装好的视觉标识符停止。
根据本发明另一个较佳实施例,通过检测到的觉定位标识符计算移动机器人在定位地图中的全局位姿:
Twr=Twt(TraTat)-1
其中Twt表示视觉标识符在全局地图中的位姿,Twr表示激光里程计定位移动机器人在全局地图中的位姿,Tra表示从相机安装位姿到机器人中心的坐标变化关系,Tat表示相机坐标系下视觉标识符的位姿,所述相机安装于机器人本体和运动机构。
根据本发明另一个较佳实施例,所述视觉标识符地图采用结构化数据存储,所述结构化数据包括:视觉标识符编号id-视觉标识符位置xyz-视觉标识符姿态(四元数形式)Q-迭代优化次数N-最近一次优化或检测的时间t。
根据本发明另一个较佳实施例,所述定位方法还包括在对视觉标识符定位精度优化检测方法:
ei=ln(Tit -1Ti -1Tt)∨=ln(exp((-ξit)∧)exp((-ξi)∧)exp(ξt ∧))∨
其中,ξ表示待优化的变量为李代数形式下表示的视觉表示符,用于表示移动机器人或移动机器人机构的空间位姿;i是索引标号,指代第i次对视觉标识符的检测;ei表示的是设计的误差函数;Tit表示的是从视觉标识符到移动机器人或移动机器人机构的位姿变换关系,ξit是Tit的李代数表示形式,Ti表示的是移动机器人或者移动机器人机构检测到视觉标识符在地图上的空间位姿,ξi是Ti的李代数表示形式,Tt表示的是视觉标识符在地图上的空间位姿,ξt是Tt的李代数表示形式,ρ表示的是核函数,用来抑制检测到的外点对优化系统的影响。
根据本发明另一个较佳实施例,所述视觉标识符定位精度优化方法包括:
设置最大检测次数Nmax;
记录当前检测次数为N,若N<Nmax,则优化完后N=N+1;
直到当前检测次数N≥Nmax。
根据本发明另一个较佳实施例,所述觉标识符定位精度优化方法包括:
周期性遍历所述视觉标识符地图,记录检测时移动机器人对应的地图点;当满足
Tnow-t<tτ
时,删除记录的地图点;其中Tnow表示的是当前的时间,t是在视觉标识符地图中记录的上次访问或修改此时间对应的视觉标识符的时间,tτ表示时间间隔。
根据本发明另一个较佳实施例,所述融合定位数据处理方法包括:
其中Zk=[z1,k z2,k … zn,k]T,表示对应n个位姿检测结果;
设置激光检测误差为eL,k;当前误差为ei,k,若eL,k<<ei,k,i≠L,则将本次融合定位数据中的激光检测数据丢弃。
为了实现至少一个上述发明目的,本发明进一步提供一种移动机器人定位系统,所述定位系统采用上述一种机器人移动定位方法。
本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序可被处理器执行上述一种移动机器人定位系统。
附图说明
图1显示的是本发明一种移动机器人定位方法的流程示意图。
图2显示的是本发明中移动机器人结构示意图。
其中
相机a-10,相机b-20,激光雷达-30
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。
请参考图1,本发明公开了一种移动机器人定位方法的流程示意图,所述方法主要包括两个部分,首先是建立精确的视觉标识符地图,进一步在机器人移动过程中采用激光里程计获取的定位数据融合所述视觉标识符的定位数据,用于对移动机器人执行精确的定位。
所述视觉标识符地图的建立方法包括如下步骤:
选定移动机器人的工作场景,在所述工作场景内粘贴所述视觉标识符,用于建立视觉标识符地图;
在所述机器人本体和机器人机构上安装定位相机,所述定位相机用于获取拍摄视野内的视觉标识符,所述机器人机构包括但不仅限于机械臂、叉齿、摇臂等,定位相机在拍摄到所述视觉标识符后将该视觉标识符保存至所述视觉标识符地图中,所述移动机器人还设有激光里程计,所述激光里程机用于计算激光地图中的定位数据,通过融合所述视觉标识符地图和激光地图的定位数据对所述移动机器人进行精确定位。由于在所述机器人机构上安装了定位相机,因此在融合所述视觉标识符和激光的定位数据,建立融合定位数据后,可以精确定位所述移动机器人在三维控制中的位姿,从而可以适应复杂几何环境下的作业任务。
具体的,本发明所述的融合定位数据包括:机器人在移动过程中对视觉标识符在全局地图中的位姿,所述全局地图表示地图中所有数据的总和,其中所述全局地图包括激光地图和视觉标识符地图,所述激光地图记录了空间中由激光里程计记录的所有环境结构的点在全局地图中的位置,所述视觉标识符地图记录了所有视觉标识符在全局地图中的位置。进一步计算所述移动机器人对视觉标识符在所述全局地图中的位姿:
Twt=TwrTraTat;
其中Twt表示视觉标识符在全局地图中的位姿,Twr表示激光里程计定位移动机器人在全局地图中的位姿,Tra表示从相机安装位姿到机器人中心的坐标变化关系,Tat表示相机坐标系下视觉标识符的位姿。进一步将检测到的视觉标识符在所述全局地图中的位姿采用如下结构化数据进行保存:
视觉标识符编号id-视觉标识符位置xyz-视觉标识符姿态(四元数形式)Q-迭代优化次数N-最近一次优化或检测的时间t。
由于所述移动机器人在工作环境下受到各种因素的影响,从而导致定位精度下降的情况,本发明进一步对日常工作中的移动机器人的定位进行优化,用于提高移动机器人的定位精度,定位精度的优化方法包括:
其中ξ表示待优化的变量为李代数形式下表示的视觉表示符,argmin表示值最小时i的取值,表示移动机器人或移动机器人机构的空间位姿;∧是合取符号,∨为析取符号,i是索引标号,指代第i次对视觉标识符的检测;ei表示的是设计的误差函数;Tit表示的是从视觉标识符到移动机器人或移动机器人机构的位姿变换关系,ξit是其李代数表示形式,Ti表示的是移动机器人或者其机构检测到视觉标识符在地图上的空间位姿,ξi是其李代数表示形式,Tt表示的是视觉标识符在地图上的空间位姿,ξt是其李代数表示形式,ρ表示的是核函数,用来抑制检测到的外点对优化系统的影响。也就是说,通过计算上述检测数据,并设置误差函数和核函数可以有效地提高移动机器人的定位精度,并且可以做到实时定位的技术效果。
本发明在使用激光里程计建立新的地图,所述新的地图是临时地图,通过所述机器人自身的建图模块建立虚拟的具有栅格点的临时地图,需要说明的是,所述临时地图的原点为机器人当前在工作场景中的位置。并通过移动机器人的不断移动来扩大机器人当前所在的场景。
具体而言:所述移动机器人获取当前位置,并通过所述临时地图寻找到最接近机器人当前位置的栅格点,并判断该栅格点是否经历过,若否则将该栅格点作为所述移动机器人的目标点靠近该栅格点进行移动,若检测到的最近的栅格点为已经经历过的点,则再寻找其他未经历的最接近的栅格点作为目标点进行靠近移动。到达未经历的栅格点后重复执行临时地图的建立和目标点的寻找,直到所述移动机器人通过所述定位相机检测到场景中的已经记录的视觉标识符。
进一步计算初始化状态下的位姿检测结果:若所述移动机器人检测到场景中的视觉标识符,则根据所述视觉标识符计算所述移动机器人已经构建完毕的全局图中的位姿:
Twr=Twt(TraTat)-1;
其中Twt表示视觉标识符在全局地图中的位姿,Twr表示激光里程计定位移动机器人在全局地图中的位姿,Tra表示从相机安装位姿到机器人中心的坐标变化关系,Tat表示相机坐标系下视觉标识符的位姿。需要说明的是,Tra是根据机器人自身的坐标系建立的转换关系,也就是说可以根据机器人的几何结构获取运动中心,根据运动中心设置三维立体坐标系,在所述移动机器人身上设置不同的相机,根据所述移动机器人运动中心建立的三维立体坐标系使得每个相机都有一个坐标参数,该坐标参数为从相机安装位姿到机器人中心的坐标变化关系。其中所述相机自身的拍摄界面也设有一个拍摄界面坐标系,该拍摄界面坐标系以传统的拍摄界面左上角为拍摄坐标系原点,以拍摄界面左方向为拍摄坐标系x轴正轴延伸方向,以拍摄界面下方向为拍摄坐标系y轴延伸方向,以拍摄界面朝里的方向为拍摄坐标系的z轴。当所述相机拍摄到视觉标识符后就可以获取所述视觉标识符在所述拍摄界面坐标系下的位姿,需要说明的是,拍摄相机可以设置成多个,从而使得不同相机拍摄坐标系下视觉标识符的位姿不同。
在获取上述至少一个工作地图的全局位姿后,删除建立的临时地图,并根据上述全局位姿进行移动机器人的融合定位,所述融合定位采用了视觉标识符的多检测数据和激光里程计定位数据的融合定位,在执行融合定位计算时,需要加载所述移动机器人中正常保存的激光地图和视觉标识定位地图,并将机器人的初始位置设置为上述全局地图位姿计算结果下的机器人所在的位置。
所述视觉标识符可以采用包括但不仅限于Apriltag,ARtag等开源稳定方案,解算的结果需要包括物体在三维空间中六个自由度的表达。
值得一提的是,在本发明其中一个较佳实施例中,所述融合定位方法包括如下步骤:设置定位标识符的个数为n-1,n=0,1,2……,在k时刻估计的位姿结果测量值为:其中Zk=[z1,k z2,k … zn,k]T;zn,k表示第n个位姿的检测结果,Zk表示k时刻n个位姿的检测结果的集合,Zk包含视觉标识符的位姿检测结果和激光里程计的位姿检测结果,通过上述位姿检测结果可以使得激光定位数据和视觉标识符定位数据进行融合,从而使得定位结果的精度更好。
设置k时刻所述位姿检测结果的权重系数Wk,其中Wk=[ω1,k ω2,k … ωn,k]T;ωn,k表示对第n个位姿检测结果的数据设置的权重系数,将所述位姿检测结果权重系数Wk和位姿的检测结果进行融合,生成所述k时刻估计的测量值进一步根据估计的位姿结果测量值和实际位姿检测结果Zk计算误差函数上述权重系数满足T上标表示转置矩阵。
在实际的检测和更新过程中需要对异常数据进行处理,异常数据的处理过程包括如下步骤:设置误差阈值eL,k,测量当前误差为ei,k;若当前误差远大于所述误差阈值,即eL,k<<ei,k,i≠L,则认为激光测量数据在高度特征重复的环境下发生定位丢失,本次数据融合将激光测量数据舍弃。
在本发明另一较佳实施例中,需要对移动过程中的机器人进行全局地图的姿态检测,移动状态下检测结果可以如下表示:
Tt=Twt=TwrTraTat;
其中,Twt是表示视觉标识符在全局地图中的位姿,Twr表示激光里程计定位移动机器人在全局地图中的位姿,Tra表示从相机安装位姿到机器人中心的坐标变化关系,Tat表示相机坐标系下视觉标识符的位姿。
进一步根据位姿检测结果建立结构化数据存储,所述结构化数据包括:视觉标识符编号id-视觉标识符位置xyz-视觉标识符姿态(四元数形式)Q-迭代优化次数N-最近一次优化或检测的时间t。
本发明进一步对融合定位的优化更新进行管理,优化更新方法包括如下步骤:
若检测到的视觉标识符编号为初次检测,将本次检测的结果以上述设计的数据结构存储于文件中。
在机器人的移动过程中,若检测到视觉标识符满足如下条件,则执行上述的视觉标识符优化更新策略:
若当前优化次数为N<Nmax;
则执行当前的优化更新策略,优化完成后更新N=N+1,其中,N是视觉标识符地图中记录的检测到视觉标识符的次数。Nmax表示的设计的最大检测次数,可以根据具体应用场景灵活调整。周期性的对记录的视觉标识符地图进行遍历检测,若满足:
Tnow-t<tτ;
其中,Tnow表示的是当前的时间,t是在视觉标识符地图中记录的上次访问或修改此时间对应的视觉标识符的时间。tτ表示时间间隔,可以根据具体应用场景灵活调整。
在本发明其中一个较佳实施例中可选取优化的最大次数Nmax=200,优化选取的核函数为Huber核函数,具体如下:
其中,ε的取值可以设置为0.25。
在管理视觉标识符地图策略中,tτ选取可以为2592000s。
为了更好地解释本发明,本发明以电商仓库作为本发明具体实施实例举例说明:该电商仓库的长约120米,宽约80,高约10米,仓库内重复的复杂集合环境繁多,多为相同式样的货架和廊柱。选择在其几何结构重复度高的区域,例如长走廊中间或者交叉十字路口处的地面上张贴Apriltag视觉标识符。选择需要移动机器人叉腿搬运货物的货架或附近的墙面上,张贴Apriltag视觉标识符。张贴的角度无严格要求,方便张贴布置为主。选择使用的Apriltag视觉标识符的样式为tag_36_11,大小为0.2m×0.2m。
实施实例中采用的移动机器人如附图2所示:移动机器人有安装一个激光雷达30和两个RGB相机(相机a10和相机b20),其中相机a10固定在本体上,相机b20固定在叉腿上,相机b跟随叉腿进行上下移动。
本实施中如若是第一次部署运用则需要构建激光里程计构建仓库环境的二维激光栅格地图和视觉标识符地图,建图方式为人工遥控移动机器人,移动机器人初步构建带有边界且任务点信息描述正确的初步地图。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线段、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线段的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线段、电线段、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明,本发明的目的已经完整并有效地实现,本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。
Claims (8)
1.一种移动机器人定位方法,其特征在于,所述方法包括如下步骤:
确定定位场景,在所述定位场景内贴装视觉标识符,建立视觉标识符地图;
在所述定位场景同时建立激光定位地图;
获取视觉标识符地图定位数据和激光定位地图的定位数据,并处理两种定位数据,形成融合定位数据;
根据所述融合定位数据进行处理获取或更新定位结果;
所述融合定位数据处理方法包括:
2.根据权利要求1所述的一种移动机器人定位方法,其特征在于,所述定位方法包括视觉标识符地图的初始化步骤:获取机器人的当前位置,通过激光里程计建立临时地图,在所述临时地图内选取当前移动机器人未到达过的栅格点作为目标点进行移动,直到检测到所述视觉标识符地图中贴装好的视觉标识符停止。
4.根据权利要求1所述的一种移动机器人定位方法,其特征在于,所述视觉标识符地图采用结构化数据存储,所述结构化数据包括:视觉标识符编号id-视觉标识符位置xyz-视觉标识符姿态四元数Q-迭代优化次数N-最近一次优化或检测的时间t。
7.一种移动机器人定位系统,其特征在于,所述定位系统采用上述权利要求1-6中任意一项所述的一种移动机器人定位方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序可被处理器执行权利要求1-6中任意一项所述的一种移动机器人定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110592577.6A CN113310484B (zh) | 2021-05-28 | 2021-05-28 | 一种移动机器人定位方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110592577.6A CN113310484B (zh) | 2021-05-28 | 2021-05-28 | 一种移动机器人定位方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113310484A CN113310484A (zh) | 2021-08-27 |
CN113310484B true CN113310484B (zh) | 2022-06-24 |
Family
ID=77375978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110592577.6A Active CN113310484B (zh) | 2021-05-28 | 2021-05-28 | 一种移动机器人定位方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113310484B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791620B (zh) * | 2021-09-14 | 2024-07-23 | 杭州景吾智能科技有限公司 | 动态自适应定位方法、定位系统、机器人及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107727104B (zh) * | 2017-08-16 | 2019-04-30 | 北京极智嘉科技有限公司 | 结合标识的同时定位和地图创建导航方法、装置及系统 |
CN110356824B (zh) * | 2018-08-02 | 2022-04-12 | 北京京东乾石科技有限公司 | 自动导引运输车及其路径规划方法 |
CN108931245B (zh) * | 2018-08-02 | 2021-09-07 | 上海思岚科技有限公司 | 移动机器人的局部自定位方法及设备 |
CN110333495A (zh) * | 2019-07-03 | 2019-10-15 | 深圳市杉川机器人有限公司 | 利用激光slam在长走廊建图的方法、装置、系统、存储介质 |
CN110849374B (zh) * | 2019-12-03 | 2023-04-18 | 中南大学 | 地下环境定位方法、装置、设备及存储介质 |
CN111766603B (zh) * | 2020-06-27 | 2023-07-21 | 长沙理工大学 | 基于AprilTag码视觉辅助定位的移动机器人激光SLAM方法、系统、介质及设备 |
CN111823252B (zh) * | 2020-07-10 | 2024-06-04 | 上海迪勤智能科技有限公司 | 一种智能机器人系统 |
-
2021
- 2021-05-28 CN CN202110592577.6A patent/CN113310484B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113310484A (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109211251B (zh) | 一种基于激光和二维码融合的即时定位与地图构建方法 | |
CN112197770B (zh) | 一种机器人的定位方法及其定位装置 | |
US10127677B1 (en) | Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment | |
Ohya et al. | Vision-based navigation by a mobile robot with obstacle avoidance using single-camera vision and ultrasonic sensing | |
US10209063B2 (en) | Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose | |
CN108214487B (zh) | 基于双目视觉和激光雷达的机器人目标定位和抓取方法 | |
CN113781582A (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
US20130114886A1 (en) | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium | |
CN111338383B (zh) | 基于gaas的自主飞行方法及系统、存储介质 | |
JP5480667B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
CN112652001B (zh) | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 | |
CN110825111A (zh) | 适用于高架仓库货物盘点的无人机控制方法、货物盘点方法、装置、服务器及存储介质 | |
CN114494629A (zh) | 一种三维地图的构建方法、装置、设备及存储介质 | |
CN110376605A (zh) | 地图构建方法、导航方法和装置 | |
US20220012494A1 (en) | Intelligent multi-visual camera system and method | |
CN114815851A (zh) | 机器人跟随方法、装置、电子设备以及存储介质 | |
CN113310484B (zh) | 一种移动机器人定位方法和系统 | |
Liu | A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure | |
CN115307641A (zh) | 机器人定位方法、装置、机器人和存储介质 | |
CN118310531A (zh) | 一种由粗到细点云配准的机器人跨场景定位方法及系统 | |
CN109848988A (zh) | 一种基于历史多帧点云信息融合的扫描匹配方法及系统 | |
Stodola et al. | Optimal location and motion of autonomous unmanned ground vehicles | |
CN115900697A (zh) | 对象运动轨迹信息处理方法、电子设备以及自动驾驶车辆 | |
CN108958296A (zh) | 一种无人机自主跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |