CN111337943B - 一种基于视觉引导激光重定位的移动机器人定位方法 - Google Patents
一种基于视觉引导激光重定位的移动机器人定位方法 Download PDFInfo
- Publication number
- CN111337943B CN111337943B CN202010119797.2A CN202010119797A CN111337943B CN 111337943 B CN111337943 B CN 111337943B CN 202010119797 A CN202010119797 A CN 202010119797A CN 111337943 B CN111337943 B CN 111337943B
- Authority
- CN
- China
- Prior art keywords
- robot
- positioning
- laser
- map
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 56
- 239000002245 particle Substances 0.000 claims abstract description 76
- 238000001914 filtration Methods 0.000 claims abstract description 14
- 238000011084 recovery Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 238000009826 distribution Methods 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 18
- 230000014509 gene expression Effects 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000012952 Resampling Methods 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种基于视觉引导激光重定位的移动机器人定位方法,包括以下步骤:根据视觉特征地图对机器人的位置进行初始化定位,并将其映射到激光地图上;采用自适应粒子滤波方法,根据激光扫描匹配的结果获取机器人在激光地图上的精准定位;判断在自适应粒子滤波方法的定位过程中定位的粒子方差是否超过设定的阈值,若是,利用视觉特征地图进行视觉重定位,输出机器人的定位结果,并对当前的粒子进行重新初始化,即错误恢复;若否,输出机器人的定位结果;与现有技术相比,本发明可使得机器人能在初始化时或“被绑架”后,依靠视觉特征地图的重定位功能,快速恢复精准的定位,从而保证了定位的稳定可靠。
Description
技术领域
本发明涉及移动机器人自主定位领域,尤其是涉及一种基于视觉引导激光重定位的移动机器人定位方法。
背景技术
定位技术是机器人自主移动的基础,是赋予机器人感知和行动能力的关键。随着机器人技术的发展和广泛应用,越来越多的工业搬运机器人和巡检机器人需要在无人化的工厂里工作,而定位技术则是其执行任务的基础。
传统的定位方法中,绝对定位主要采用导航信标、标识和卫星导航技术等进行定位,但信标等的建设和维护成本较高,GPS只能用于室外。相对定位主要采用轮式编码器、惯性测量单元和激光雷达等,轮式编码器和惯性测量单元都是测量一些间接的物理量,高精度的激光雷达价格过于昂贵,这些因素给自主定位的移动机器人的商业化、进入日常生活带来了不小的挑战和困难。近几年来,以视觉传感器为中心的视觉SLAM技术得到了明显的转变和突破。多种基于单目、双目和深度相机的理论方法被提出,其中,相机相比于激光雷达虽然精度较差、噪声大,但是成本低,能够采集彩色图像信息,因而更加适合在普通的办公、家庭等室内场景使用。
然而目前主流的方法中,机器人定位多采用激光雷达方案或视觉方案。基于激光雷达的方法可以在结构化的环境中保持良好的定位,对高速运动不敏感,但其难以初始化且错误恢复较难。当前基于激光定位技术的无人搬运车辆往往需要固定工位,在设定好的工位进行初始化而无法灵活地在任意地方开始工作。另外,一旦其定位发生,由于工厂环境结构的对称性及相似性,要恢复到正确的位置往往需要很长时间的更新和恢复,而大大影响了生产效率,更有可能造成安全隐患。基于视觉的定位方法则可以快速初始化,但其不能应对快速运动和旋转,且对环境特征和光线要求很高,如若环境特征不能一直维持,也很容易丢失定位。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于视觉引导激光重定位的移动机器人定位方法。
本发明的目的可以通过以下技术方案来实现:
一种基于视觉引导激光重定位的移动机器人定位方法,包括以下步骤:
S1、根据视觉特征地图对机器人的位置进行初始化定位,并将其映射到激光地图上。
S2、采用自适应粒子滤波方法,根据激光扫描匹配的结果获取机器人在激光地图上的精准定位;
S3、判断在自适应粒子滤波方法的定位过程中定位的粒子方差是否超过设定的阈值,若是,则执行步骤S4;若否,则执行步骤S5;
S4、利用视觉特征地图进行视觉重定位,输出机器人的定位结果,并对当前的粒子进行重新初始化,即错误恢复;
S5、输出机器人的定位结果。
进一步地,所述的步骤S1中,根据视觉特征地图对机器人进行定位具体包括以下步骤:
S11、提取图像ORB特征,使用DBoW2模型计算当前帧的BoW词袋向量,生成一个表征向量v;
S12、挑选视觉特征地图上的备选关键帧,计算备选关键帧与当前帧的BoW相似性得分,相似性标准采用L1范数距离,返回所有满足设定得分的关键帧;
S13、逐个比较当前帧和候选关键帧的匹配特征点,得到匹配关系;
S14、根据匹配关系,对每个备选关键帧轮流执行EPnP算法,使用RANSAC算法迭代求解当前帧的位姿,即在视觉特征地图中的位置。
进一步地,所述的步骤S14中,EPnP算法的步骤包括:
A1、选取世界坐标下的四个控制点坐标为:
Cw=[0 0 0 1]T,[1 0 0 1]T,[0 1 0 1]T,[0 0 1 1]T;
A2、通过n个3D点在摄像头平面的投影关系,以及与这四个控制点的权重关系,构建一个12×12方阵,求得其零空间特征向量,得到虚拟控制点的摄像头平面坐标,然后使用正交投影迭代变换即可求出摄像头位姿;
A3、通过EPnP算法求得四对点下的封闭解后,将该解作为非线性优化的初值,优化提高精度。
进一步地,所述的步骤S2中,自适应粒子滤波的方法具体包括以下步骤:
S21、获取里程计和激光传感器的数据;
S24、计算粒子的权重并且按权重进行自适应重采样;
S25、输出粒子的加权值,作为机器人的当前位姿。
进一步地,所述的里程计移动模型的表达式为:
其中,prot1为在机器人位置在世界坐标系下的旋转误差分布,prot2为机器人的自身旋转误差分布,ptrans为机器人移动的位移误差分布,ut为里程计提供的数据。
进一步地,所述的激光传感器模型的表达式为:
其中,zhit、zrand、zmax为权重,phit为测量误差,prand为观测随机噪声,pmax为最大测量距离似然,zt为激光传感器提供的数据。
进一步地,所述的步骤S2中,将视觉特征地图中定位的位置映射到激光地图上,具体包括:将机器人在激光地图下的位姿估计为地图间齐次变换矩阵与使用视觉特征地图重定位后获取位姿的乘积。
进一步地,自适应粒子滤波方法的定位过程中定位的粒子方差的计算表达式为:
进一步地,视觉特征地图根据ORB-SLAM2方法建立,建立的视觉特征地图中包含特征点和关键帧的信息;激光地图根据cartographer方法建立;建立视觉特征地图和激光地图时选择相同的初始点。
与现有技术相比,本发明具有以下优点:
1、本发明有机结合了激光匹配定位算法和视觉定位算法,可使得机器人能在“初始化”或“被绑架”(意为突然被搬到某地,也就是机器人非自发地被移动到某个地方)后,依靠视觉特征地图的重定位功能,快速恢复精准的定位,从而保证了定位的稳定可靠;本发明比传统激光匹配定位算法更加抗干扰,机器人被绑架后可以快速恢复自身定位;同时,本发明比传统基于特征查找的视觉定位算法更加鲁棒,不会受剧烈运动的影响,特征点的丢失不影响激光匹配端的定位。
2、本发明不对环境特征产生过多的依赖,仅在粒子失效时利用视觉特征进行错误恢复,使得机器人的定位效果也更加稳定。应用方面,也不再依赖于固定工位的设计,可以使得机器人在任意地方初始化,短期定位漂移后也能快速恢复,更加适用于更加复杂环境中精准稳定的定位。
3、本发明同时建立视觉特征地图和激光地图,提供两种位置表达,从环境中提取出了更加稳定而丰富的定位信息,提高了定位的精度。
附图说明
图1为本实施例的定位系统示意图。
图2为本实施例的流程示意图。
图3为视觉重定位算法流程示意图。
图4为激光定位算法流程示意图。
图5为实施例的定位设备结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例中机器人采用的定位系统包括激光传感器、摄像头和里程计,以及分别连接激光传感器、摄像头和里程计的一个定位模块。基于视觉引导激光重定位的移动机器人定位方法在定位模块中执行用于实时输出机器人的位置。
如图5所示,机器人搭载了摄像头,激光雷达和轮式里程计。定义世界坐标系为建立激光地图和视觉特征地图时所使用的坐标系,摄像头坐标系原点位于机器人上摄像头的安装位置,设定以摄像头的前方为x轴,左侧为y轴,垂直于地面的为z轴。定义激光传感器坐标系和里程计坐标系重合,其原点位于机器人模型底盘上激光传感器的安装位置,前方为x轴,左侧为y轴,垂直于地面的为z轴。
如图2所示,本实施例提供了一种基于视觉引导激光重定位的移动机器人定位方法,包括以下步骤:
步骤S1、根据视觉特征地图对机器人的位置进行初始化定位,并将其映射到激光地图上。
步骤S2、采用自适应粒子滤波方法,根据激光扫描匹配的结果获取机器人在激光地图上的精准定位。
步骤S3、判断在自适应粒子滤波方法的定位过程中定位的粒子方差是否超过设定的阈值,若是,则执行步骤S4;若否,则执行步骤S5。
步骤S4、利用视觉特征地图进行视觉重定位,输出机器人的定位结果,并对当前的粒子进行重新初始化,即错误恢复。
步骤S5、输出机器人的定位结果。
根据上述的方法,本实施例可具体分为二个部分进行描述:
一、视觉特征重定位与错误恢复
本实施例采用的视觉特征为ORB特征,其具有良好的旋转不变性,且计算较快。如图3所示,在步骤S1和步骤S4中,视觉定位均为首先提取图像ORB特征,然后匹配视觉特征地图,解算机器人位置。
需要注意的是,本实施例中激光地图根据google开源的cartographer方法建立,视觉特征地图根据ORB-SLAM2方法建立。设激光地图坐标系为m0,视觉特征地图坐标系为m1,坐标系是在开始建立地图时所设定的,若建立地图时选择的初始点相同,则两坐标系重合。另外,建立的视觉特征地图中包含了特征点和关键帧的信息。
获取视觉特征地图坐标系下的位姿方法如下:
步骤S11、提取图像ORB特征,使用DBoW2模型计算当前帧的BoW(Bag of Words)词袋向量,生成一个表征向量v。
步骤S12、挑选视觉特征地图上的备选关键帧,计算备选关键帧与当前帧的BoW相似性得分,相似性标准采用L1范数距离,返回所有满足设定得分(本实施例中采用最高得分的75%)的关键帧;
定义两向量间的L1范数距离如下:
其中,v1,v2分别代表备选关键帧和当前帧的表征向
步骤S13、逐个比较当前帧和候选关键帧的匹配特征点,得到匹配关系。
步骤S14、根据匹配关系,对每个备选关键帧轮流执行EPnP算法,使用RANSAC算法迭代求解当前帧的位姿,即在视觉特征地图中的位置。
其中,EPnP算法的步骤包括:
步骤A1、选取世界坐标系下的四个控制点坐标为:
Cw=[0 0 0 1]T,[1 0 0 1]T,[0 1 0 1]T,[0 0 1 1]T;
步骤A2、通过n个3D点在摄像头平面的投影关系,以及与这四个控制点的权重关系,构建一个12×12方阵,求得其零空间特征向量,得到虚拟控制点的摄像头平面坐标,然后使用正交投影迭代变换即可求出摄像头位姿;
步骤A3、通过EPnP算法求得四对点下的封闭解后,将该解作为非线性优化的初值,优化提高精度。
在得到视觉特征地图下的位置后,要执行步骤S2,对机器人位姿进行错误恢复,就需要根据地图之间的坐标转换把当前位置映射到激光地图中。具体包括:将机器人在激光地图下的位姿估计为地图间齐次变换矩阵与使用视觉特征地图重定位后获取位姿的乘积。
其中,m1表示视觉特征地图坐标系,m0表示激光地图坐标系。
二、激光特征定位过程
本部分旨在解决利用激光传感器数据和轮式里程计数据获取定位结果的问题,其流程如图4所示,采用自适应粒子滤波的方法,在获取了里程计和激光的数据后,由粒子滤波器更新,最后融合粒子信息得到机器人的位置。
设机器人位置在激光地图下的表示xt|m0(x,y,θ),里程计提的数据U={u0,u1,u2,···,ut},激光传感器提供测量数据Z={z0,z1,z2,···,zt};
自适应粒子滤波的方法具体包括以下步骤:
步骤S21、获取里程计和激光传感器的数据。
步骤S22、通过粒子分布设定机器人位置的后验概率分布,初始化粒子。
定义机器人位置的后验概率分布:
bel(xt)=p(xt|z0...t,u0...t)
由于机器人可能具有硬件误差,因此建立激光传感器模型和里程计移动模型,再执行粒子滤波器的预测和更新。
里程计移动模型的表达式为:
其中,prot1为在机器人位置在世界坐标系下的旋转误差分布,prot2为机器人的自身旋转误差分布,ptrans为机器人移动的位移误差分布,ut为里程计提供的数据。
然后,采用激光传感器的数据对当前时刻的机器人位置进行测量更新,进一步矫正定位结果。利用激光传感器模型当前时刻的机器人位置和归一化常数ηt,求得基于激光传感器信息提高准确度的当前位置的概率其计算表达式为:
激光传感器模型的表达式为:
其中,zhit、zrand、zmax为权重,phit为测量误差,prand为观测随机噪声,pmax为最大测量距离似然,zt为激光传感器提供的数据。
步骤S24、计算粒子的权重并且按权重进行自适应重采样。
关于本文中的概率表达形式和位姿表达形式的解释:粒子的分布就代表了概率分布,因此在计算得出最后位姿的时候,也是得到了一个概率分布,而这个概率分布的表达形式就是粒子群,所以最后加权平均粒子求出了所需要的位姿表达。
粒子的方差按如下公式计算:
从粒子的方差是否大于设定的阈值可以判断粒子是否失效,粒子失效也就意味着激光定位模块的输出结果是不准确的,因此,需要用视觉特征定位模块对其进行重定位。若方差小于所设定的阈值,则证明粒子良好地跟随了机器人的轨迹,因此可以加权粒子的值,即从概率分布中提取得到机器人位姿:
步骤S25、输出粒子的加权值,作为机器人的当前位姿。
综上,本实施例可以采用以下算法形式实现:
1.提取图像词袋向量,在视觉特征地图中进行重定位,获取m1中机器人的初始位姿x0|m1;
6.输出粒子的加权值,作为机器人的估计位姿xt。
本实施例基于建立的激光地图和视觉特征地图对机器人位置进行精准定位。激光地图的建立使其易于跟踪环境的结构化特征,在粒子方差小时,可以输出较精准的位置,同时其对高速旋转和快速运动不敏感。但其初始化和错误恢复的过程较困难,因此本发明提出了一种基于视觉引导激光重定位的方法。在初始化或粒子方差较大时,基于图像ORB特征对机器人位置进行视觉重定位,将视觉特征地图重定位的位置映射到激光地图上,继而维持机器人定位的长期稳定。
本实施例不对环境特征产生过多的依赖,仅在粒子失效时利用视觉特征进行错误恢复,使得机器人的定位效果也更加稳定。应用方面,也不再依赖于固定工位的设计,可以在任意地方初始化,短期定位漂移后也能快速恢复。本发明融合了激光定位和视觉定位的优点,可适用于更加复杂环境中精准稳定的定位。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (6)
1.一种基于视觉引导激光重定位的移动机器人定位方法,其特征在于,包括以下步骤:
S1、根据视觉特征地图对机器人的位置进行初始化定位,并将其映射到激光地图上;
S2、采用自适应粒子滤波方法,根据激光扫描匹配的结果获取机器人在激光地图上的精准定位;自适应粒子滤波的方法具体包括以下步骤:
S21、获取里程计和激光传感器的数据;
S24、计算粒子的权重并且按权重进行自适应重采样;
S25、输出粒子的加权值,作为机器人的当前位姿;
所述的里程计移动模型的表达式为:
其中,prot1为在机器人位置在世界坐标系下的旋转误差分布,prot2为机器人的自身旋转误差分布,ptrans为机器人移动的位移误差分布,ut为里程计提供的数据;
所述的激光传感器模型的表达式为:
其中,zhit、zrand、zmax为权重,phit为测量误差,prand为观测随机噪声,pmax为最大测量距离似然,zt为激光传感器提供的数据;
S3、判断在自适应粒子滤波方法的定位过程中定位的粒子方差是否超过设定的阈值,若是,则执行步骤S4;若否,则执行步骤S5;
S4、利用视觉特征地图进行视觉重定位,输出机器人的定位结果,并对当前的粒子进行重新初始化,即错误恢复;
S5、输出机器人的定位结果。
2.根据权利要求1所述的基于视觉引导激光重定位的移动机器人定位方法,其特征在于,所述的步骤S1中,根据视觉特征地图对机器人进行定位具体包括以下步骤:
S11、提取图像ORB特征,使用DBoW2模型计算当前帧的BoW词袋向量,生成一个表征向量v;
S12、挑选视觉特征地图上的备选关键帧,计算备选关键帧与当前帧的BoW相似性得分,相似性标准采用L1范数距离,返回所有满足设定得分的关键帧;
S13、逐个比较当前帧和备选关键帧的匹配特征点,得到匹配关系;
S14、根据匹配关系,对每个备选关键帧轮流执行EPnP算法,使用RANSAC算法迭代求解当前帧的位姿,即在视觉特征地图中的位置。
3.根据权利要求2所述的基于视觉引导激光重定位的移动机器人定位方法,其特征在于,所述的步骤S14中,EPnP算法的步骤包括:
A1、选取世界坐标下的四个控制点坐标为:
Cw=[0 0 0 1]T,[1 0 0 1]T,[0 1 0 1]T,[0 0 1 1]T;
A2、通过n个3D点在摄像头平面的投影关系,以及与这四个控制点的权重关系,构建一个12×12方阵,求得其零空间特征向量,得到虚拟控制点的摄像头平面坐标,然后使用正交投影迭代变换即可求出摄像头位姿;
A3、通过EPnP算法求得四对点下的封闭解后,将该解作为非线性优化的初值,优化提高精度。
4.根据权利要求1所述的基于视觉引导激光重定位的移动机器人定位方法,其特征在于,所述的步骤S1中,将视觉特征地图中定位的位置映射到激光地图上,具体包括:将机器人在激光地图下的位姿估计为地图间齐次变换矩阵与使用视觉特征地图重定位后获取位姿的乘积。
6.根据权利要求1所述的基于视觉引导激光重定位的移动机器人定位方法,其特征在于,视觉特征地图根据ORB-SLAM2方法建立,建立的视觉特征地图中包含特征点和关键帧的信息;激光地图根据cartographer方法建立;建立视觉特征地图和激光地图时选择相同的初始点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010119797.2A CN111337943B (zh) | 2020-02-26 | 2020-02-26 | 一种基于视觉引导激光重定位的移动机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010119797.2A CN111337943B (zh) | 2020-02-26 | 2020-02-26 | 一种基于视觉引导激光重定位的移动机器人定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111337943A CN111337943A (zh) | 2020-06-26 |
CN111337943B true CN111337943B (zh) | 2022-04-05 |
Family
ID=71181869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010119797.2A Active CN111337943B (zh) | 2020-02-26 | 2020-02-26 | 一种基于视觉引导激光重定位的移动机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111337943B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111947666B (zh) * | 2020-08-21 | 2022-10-28 | 广州高新兴机器人有限公司 | 一种室外激光导航位置丢失自动找回方法 |
CN112034855A (zh) * | 2020-09-07 | 2020-12-04 | 中国南方电网有限责任公司超高压输电公司天生桥局 | 一种提高巡检机器人定位速度的方法及装置 |
CN112102410A (zh) * | 2020-09-24 | 2020-12-18 | 四川长虹电器股份有限公司 | 基于粒子滤波器和视觉辅助的移动机器人定位方法及装置 |
CN112652001B (zh) * | 2020-11-13 | 2023-03-31 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 |
CN112461230B (zh) * | 2020-12-07 | 2023-05-09 | 优必康(青岛)科技有限公司 | 机器人重定位方法、装置、机器人和可读存储介质 |
CN112712107B (zh) * | 2020-12-10 | 2022-06-28 | 浙江大学 | 一种基于优化的视觉和激光slam融合定位方法 |
CN112596070B (zh) * | 2020-12-29 | 2024-04-19 | 四叶草(苏州)智能科技有限公司 | 一种基于激光及视觉融合的机器人定位方法 |
CN112964276B (zh) * | 2021-02-09 | 2022-08-05 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101509781A (zh) * | 2009-03-20 | 2009-08-19 | 同济大学 | 基于单目摄像头的步行机器人定位系统 |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
CN103198183A (zh) * | 2013-03-20 | 2013-07-10 | 合肥工业大学 | 一种提高小波滤波器逼近精度的方法 |
CN105652871A (zh) * | 2016-02-19 | 2016-06-08 | 深圳杉川科技有限公司 | 移动机器人的重定位方法 |
CN105865449A (zh) * | 2016-04-01 | 2016-08-17 | 深圳杉川科技有限公司 | 基于激光和视觉的移动机器人的混合定位方法 |
CN106444780A (zh) * | 2016-11-10 | 2017-02-22 | 速感科技(北京)有限公司 | 一种基于视觉定位算法的机器人的自主导航方法及系统 |
CN107356252A (zh) * | 2017-06-02 | 2017-11-17 | 青岛克路德机器人有限公司 | 一种融合视觉里程计与物理里程计的室内机器人定位方法 |
CN108256574A (zh) * | 2018-01-16 | 2018-07-06 | 广东省智能制造研究所 | 机器人定位方法及装置 |
CN110207707A (zh) * | 2019-05-30 | 2019-09-06 | 四川长虹电器股份有限公司 | 基于粒子滤波器的快速初始定位方法及机器人设备 |
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
CN110533722A (zh) * | 2019-08-30 | 2019-12-03 | 的卢技术有限公司 | 一种基于视觉词典的机器人快速重定位方法及系统 |
WO2019233299A1 (zh) * | 2018-06-05 | 2019-12-12 | 杭州海康机器人技术有限公司 | 地图构建方法、装置及计算机可读存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2011305154B2 (en) * | 2010-09-24 | 2015-02-05 | Irobot Corporation | Systems and methods for VSLAM optimization |
US10033924B2 (en) * | 2014-10-10 | 2018-07-24 | Iec Infrared Systems, Llc | Panoramic view imaging system |
US20170374342A1 (en) * | 2016-06-24 | 2017-12-28 | Isee, Inc. | Laser-enhanced visual simultaneous localization and mapping (slam) for mobile devices |
-
2020
- 2020-02-26 CN CN202010119797.2A patent/CN111337943B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101509781A (zh) * | 2009-03-20 | 2009-08-19 | 同济大学 | 基于单目摄像头的步行机器人定位系统 |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
CN103198183A (zh) * | 2013-03-20 | 2013-07-10 | 合肥工业大学 | 一种提高小波滤波器逼近精度的方法 |
CN105652871A (zh) * | 2016-02-19 | 2016-06-08 | 深圳杉川科技有限公司 | 移动机器人的重定位方法 |
CN105865449A (zh) * | 2016-04-01 | 2016-08-17 | 深圳杉川科技有限公司 | 基于激光和视觉的移动机器人的混合定位方法 |
CN106444780A (zh) * | 2016-11-10 | 2017-02-22 | 速感科技(北京)有限公司 | 一种基于视觉定位算法的机器人的自主导航方法及系统 |
CN107356252A (zh) * | 2017-06-02 | 2017-11-17 | 青岛克路德机器人有限公司 | 一种融合视觉里程计与物理里程计的室内机器人定位方法 |
CN108256574A (zh) * | 2018-01-16 | 2018-07-06 | 广东省智能制造研究所 | 机器人定位方法及装置 |
WO2019233299A1 (zh) * | 2018-06-05 | 2019-12-12 | 杭州海康机器人技术有限公司 | 地图构建方法、装置及计算机可读存储介质 |
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
CN110207707A (zh) * | 2019-05-30 | 2019-09-06 | 四川长虹电器股份有限公司 | 基于粒子滤波器的快速初始定位方法及机器人设备 |
CN110533722A (zh) * | 2019-08-30 | 2019-12-03 | 的卢技术有限公司 | 一种基于视觉词典的机器人快速重定位方法及系统 |
Non-Patent Citations (8)
Title |
---|
Omnidirectional walking based on preview control for biped robots;Wang Helin 等;《2016 IEEE International Conference on Robotics and Biomimetics (ROBIO)》;20170302;第856-861页 * |
Portable Laser Guided Robotic Metrology System;Peter A. Slater 等;《2019 Antenna Measurement Techniques Association Symposium (AMTA)》;20191121;第1-6页 * |
The IMU/UWB Fusion Positioning Algorithm Based on a Particle Filter;Yan Wang 等;《International Journal of Geo-Information》;20170807;第1-17页 * |
一种融合视觉与激光的定位方法研究;杜万和 等;《科技创新导报》;20180930;第1207-1215页 * |
基于Rulkov神经元模型的四足机器人适应性行走控制;刘成菊 等;《同济大学学报(自然科学版)》;20190831;第47卷(第8期);第1207-1215页 * |
基于VL_SLAM的无GPS自动驾驶系统研究;陈平 等;《时代汽车》;20190331;第36-39页 * |
基于激光扫描测距的机器人粒子滤波定位技术研究;戈广双 等;《传感器与微系统》;20171231;第36卷(第12期);第36-39页 * |
室内机器人同步定位与建图研究;尹磊;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20190915;第1-65页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111337943A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111337943B (zh) | 一种基于视觉引导激光重定位的移动机器人定位方法 | |
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
Huang | Review on LiDAR-based SLAM techniques | |
CN111595333A (zh) | 视觉惯性激光数据融合的模块化无人车定位方法及系统 | |
CN112639502A (zh) | 机器人位姿估计 | |
JP2022531679A (ja) | デバイス測位方法、装置、及びデバイス | |
CN110487286B (zh) | 基于点特征投影与激光点云融合的机器人位姿判断方法 | |
Wu et al. | Robust LiDAR-based localization scheme for unmanned ground vehicle via multisensor fusion | |
Ma et al. | Crlf: Automatic calibration and refinement based on line feature for lidar and camera in road scenes | |
CN114234967B (zh) | 一种基于多传感器融合的六足机器人定位方法 | |
CN114693787B (zh) | 停车库建图与定位方法、系统及车辆 | |
CN112101160B (zh) | 一种面向自动驾驶场景的双目语义slam方法 | |
CN110032965A (zh) | 基于遥感图像的视觉定位方法 | |
CN116222543B (zh) | 用于机器人环境感知的多传感器融合地图构建方法及系统 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
Pang et al. | Low-cost and high-accuracy LIDAR SLAM for large outdoor scenarios | |
CN113129377A (zh) | 一种三维激光雷达快速鲁棒slam方法和装置 | |
CN113763549A (zh) | 融合激光雷达和imu的同时定位建图方法、装置和存储介质 | |
Yan et al. | SensorX2car: Sensors-to-car calibration for autonomous driving in road scenarios | |
CN113379915B (zh) | 一种基于点云融合的行车场景构建方法 | |
Tao et al. | SLAM Method Based on Multi-Sensor Information Fusion | |
CN117419719A (zh) | 一种融合imu的三维激光雷达定位与建图方法 | |
CN115950414A (zh) | 一种不同传感器数据的自适应多重融合slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |