CN110412596A - 一种基于图像信息和激光点云的机器人定位方法 - Google Patents
一种基于图像信息和激光点云的机器人定位方法 Download PDFInfo
- Publication number
- CN110412596A CN110412596A CN201910619673.8A CN201910619673A CN110412596A CN 110412596 A CN110412596 A CN 110412596A CN 201910619673 A CN201910619673 A CN 201910619673A CN 110412596 A CN110412596 A CN 110412596A
- Authority
- CN
- China
- Prior art keywords
- robot
- pose
- binocular camera
- laser radar
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000004807 localization Effects 0.000 title claims abstract description 26
- 239000002245 particle Substances 0.000 claims abstract description 30
- 238000012952 Resampling Methods 0.000 claims abstract description 9
- 230000004927 fusion Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于图像信息和激光点云的机器人定位方法,包括如下步骤:1)定位开始前,双目摄像机预先记录关键位置的图像;2)定位开始后,若机器人没有经过关键位置,则根据里程计运动模型采样,得到机器人位姿的提议分布;若机器人经过关键位置,则利用双目摄像机和激光雷达数据联合观测数据来得到机器人位姿概率最大的一点,在此点附近采样一组位姿点,计算这组位姿点的均值和方差,得到高斯分布来代替以往的提议分布;3)对得到的提议分布进行重采样,利用激光雷达观测模型来计算粒子的权值,保留权值大的粒子,舍弃权值小的粒子,为下一次预测阶段提供输入;4)经过步骤2)和3)阶段的反复迭代之后,来得到机器人的真实位姿,完成定位。
Description
技术领域
本发明涉及机器人技术领域,具体地说,特别涉及到一种基于图像信息和激光点云的机器人定位方法。
背景技术
目前,机器人定位技术广泛应用于园区巡检,仓储搬运等领域中,机器人自主定位导航技术的应用可以有效代替人完成部分作业,因此,机器人的定位导航技术式当前的研究热点。
目前,机器人定位分为局部定位和全局定位。局部定位是要求机器人在已知初始位置的条件下通过测量机器人相对于初始位置的距离和方向来确定当前位置,通常也称为航迹推算法。主要包括里程计法和惯性导航定位法。里程计法是在移动机器人的车轮上安装光电编码器,记录车轮转动圈数,来计算机器人的位移和偏转角度。惯性导航定位法是一种使用惯性导航传感器定位的方法。通过使用陀螺仪来测量机器人的角速度,用加速度计测量机器人的加速度。
全局定位是要求机器人在未知初始位置的情况下确定自己的位置。目前采用导航信标、主动或被动标识、地图匹配、卫星导航技术或概率方法进行定位。其中基于概率的全局定位成为了机器人定位研究的热点,最重要的是马尔可夫定位和蒙特卡洛定位。两者不仅能够实现全局定位和局部位置跟踪,而且能够解决机器人的“绑架”问题(是指由于机器人容易与外界发生碰撞而使机器人在不知情的情况下发生移动)。
在局部定位中,里程计法存在机器人与外界环境接触而引发的非系统的误差,导致机器人无法准确预测位姿情况。而在惯性导航定位法中,由于常量误差经积分运算会产生误差的累计,不适用于长时间的精确定位。
在基于概率的绝对定位中,当机器人获得编码器信息或者利用外界传感器感知环境后,马尔可夫定位算法必须对所有的栅格进行计算,因此需要大量的计算资源和内存,导致定位处理的实时性很差。蒙特卡洛定位则需要大量的样本才能较好地估计后验密度,任然需要较多时间实现机器人的位置更新,实时性不理想。
发明内容
本发明的目的在于针对现有技术中的不足,提供一种基于图像信息和激光点云的机器人定位方法,利用双目摄像机和激光雷达获取周围环境信息,对机器人实现高精度的定位。
以解决现有技术中存在的问题。
本发明所解决的技术问题可以采用以下技术方案来实现:
一种基于图像信息和激光点云的机器人定位方法,包括如下步骤:
1)定位开始前,双目摄像机预先记录关键位置的图像;
2)定位开始后,若机器人没有经过双目摄像机记录的关键位置,则根据里程计运动模型采样,得到机器人位姿的提议分布;
若机器人经过双目摄像机记录的关键位置,则利用双目摄像机和激光雷达数据联合观测数据来得到机器人位姿概率最大的一点,在此点附近采样一组位姿点,计算这组位姿点的均值和方差,得到高斯分布,以高斯分布来代替以往的提议分布;
3)对得到的提议分布进行重采样,利用激光雷达观测模型来计算粒子的权值,保留权值大的粒子,舍弃权值小的粒子,为下一次预测阶段提供输入;
4)经过步骤2)和步骤3)阶段的反复迭代之后,来得到机器人的真实位姿,完成定位。
进一步的,所述步骤2)为粒子滤波预测阶段,其过程如下:
2.1)当机器人没有经过双目摄像机记录的位置时,则获取最新时刻的里程计数据ut-1,利用里程计运动模型,根据状态转移函数来对每一个粒子进行状态估计,以此来得到一个提议分布,根据此提议分布进行重采样,反复迭代之后得到机器人真实位姿;
2.2)当机器人经过双目摄像机记录的位置时,利用里程计,双目摄像机,激光雷达数据联合观测,得到提议分布;
2.3)根据公式在概率最大的位姿点附近进行采样,若两位姿点距离小于阈值Δ,则判断该位姿点有效,进行采样,共得到K个位姿点;
2.4)利用双目摄像头、激光雷达的融合观测概率和里程计判断的位姿概率来对K个位姿点进行估计,利用均值和方差来表示K个位姿点的高斯分布,以高斯分布来表示新的提议分布。
进一步的,所述步骤2.2)的过程如下:
2.2.1)ut-1为最新时刻的里程计数据,根据最新时刻的里程计运动模型的数据,对机器人位姿进行估计,来得到新的机器人位姿集合
2.2.2)将双目摄像头最新时刻图像数据zVt和激光雷达最新时刻数据zLt进行数据融合,将相机坐标系下的扫描点的角度信息,经过旋转变换之后,转换到激光雷达下的坐标系,将角度信息进行融合;
2.2.3)输入双目摄像机和激光雷达的联合观测数据,包括扫描点云的融合角度信息和距离信息,根据公式来得出概率最大的一个位姿点
进一步的,所述步骤2.2.2)的过程如下:
设双目摄像机扫描到物体点特征的角度为以下形式:
ΘV=[θv,1θv,2···θv,n] (1)
激光雷达扫描到物体点云的角度为以下形式:
ΘL=[θl,1θl,2···θl,n] (2)
根据式(3)来求得旋转变换矩阵R,将相机扫描点的角度信息与激光雷达扫描的角度信息进行融合;
当时,求出的解为旋转矩阵R的最大似然估计,为激光雷达测量噪声的方差,为双目相机测量噪声的方差。根据奇异值分解,旋转矩阵R的求解如下:
R=UVT (5)
与现有技术相比,本发明的有益效果在于:
1)在现有定位方法中,主要是基于粒子滤波或者直方图滤波的框架下,利用激光雷达或者双目摄像机来对机器人进行定位导航,定位精度存在较大偏差,导航性能差。本发明是利用激光雷达和双目摄像机的联合观测数据进行定位导航。在机器人定位开始前,事先利用双目摄像机记录关键位置的图像,如路口,拐角处或障碍物附近等。若机器人经过关键位置时,调取先前记录的图像,将图像中的角度信息与激光雷达的角度信息进行融合,将融合后的角度信息与激光雷达的距离信息作为观测数据,对机器人的位姿进行矫正,可以有效提高定位精度。若机器人未经过关键位置,则利用激光雷达观测数据对机器人进行实时定位。
2)目前,在粒子滤波过程中的预测阶段,是将里程计模型判断后的粒子分布作为提议分布,为重采样阶段提供粒子分布群。此分布过于分散,估计机器人位姿效率不高。本发明是将双目摄像机和激光雷达的数据进行融合。具体是将相机坐标系的角度信息转换到激光雷达坐标系,将融合的角度信息和激光雷达的距离信息作为观测数据,来改善现有的提议分布,使提议分布更为集中,有效减少了机器人位姿估计的时间。
3)在现有方法中,是将里程计模型判断后的粒子分布作为提议分布。在本发明的粒子滤波预测阶段,利用双目摄像机和激光雷达数据联合观测来得到机器人位姿概率最大的一点,在此点附近采样一组位姿点,计算这组位姿点的均值和方差,得到新的高斯分布,以高斯分布来代替现有的里程计模型判断的提议分布,使估计位姿粒子群更接近于机器人真实位姿。
附图说明
图1为本发明所述基于图像信息和激光点云的机器人定位方法的示意图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
参见图1,本发明所述的一种基于图像信息和激光点云的机器人定位方法,包括如下步骤:
1)在定位开始前,双目摄像机事先记录关键位置的图像,如路口,障碍物附近或者楼道转弯处等。
2)定位开始后,若机器人没有经过双目摄像机记录的位置,则在粒子滤波的预测阶段,根据里程计运动模型采样,来得到机器人位姿的提议分布。若机器人经过双目摄像机记录的位置,则利用双目摄像机和激光雷达数据联合观测数据来得到机器人位姿概率最大的一点,在此点附近采样一组位姿点,计算这组位姿点的均值和方差,得到高斯分布,以高斯分布来代替以往的提议分布。
3)对得到的提议分布进行重采样,利用激光雷达观测模型来计算粒子的权值,保留权值大的粒子,舍弃权值小的粒子,为下一次预测阶段提供输入。
4)经过步骤2)和步骤3)阶段的反复迭代之后,来得到机器人的真实位姿,完成定位。
实施例
1)设初始时刻机器人采样样本为St-1,包括机器人位姿和地图信息
双目摄像机事先记录关键位置的图像,如路口,障碍物附近或者楼道转弯处等。
2)粒子滤波预测阶段
2.1)当机器人没有经过双目摄像机记录的位置时,则获取最新时刻的里程计数据ut-1,利用里程计运动模型,根据状态转移函数来对每一个粒子进行状态估计,以此来得到一个提议分布,根据此提议分布进行重采样,反复迭代之后得到机器人真实位姿。
2.2)当机器人经过双目摄像机记录的位置时,利用里程计,双目摄像机,激光雷达数据联合观测,得到提议分布。
2.2.1)ut-1为最新时刻的里程计数据,根据最新时刻的里程计运动模型的数据,对机器人位姿进行估计,来得到新的机器人位姿集合
2.2.2)将双目摄像头最新时刻图像数据zVt和激光雷达最新时刻数据zLt进行数据融合,将相机坐标系下的扫描点的角度信息,经过旋转变换之后,转换到激光雷达下的坐标系,将角度信息进行融合。
设双目摄像机扫描到物体点特征的角度为以下形式:
ΘV=[θv,1θv,2···θv,n] (1)
激光雷达扫描到物体点云的角度为以下形式:
ΘL=[θl,1θl,2···θl,n] (2)
根据式(3)来求得旋转变换矩阵R,将相机扫描点的角度信息与激光雷达扫描的角度信息进行融合。
当时,求出的解为旋转矩阵R的最大似然估计,为激光雷达测量噪声的方差,为双目相机测量噪声的方差。根据奇异值分解,旋转矩阵R的求解如下所示。
R=UVT (5)
2.2.3)输入双目摄像机和激光雷达的联合观测数据,包括扫描点云的融合角度信息和距离信息,根据公式来得出概率最大的一个位姿点
2.3)根据公式在概率最大的位姿点附近进行采样,若两位姿点距离小于阈值Δ,则判断该位姿点有效,进行采样,共得到K个位姿点。
2.4)利用双目摄像头、激光雷达的融合观测概率和里程计判断的位姿概率来对K个位姿点进行估计,利用均值和方差来表示K个位姿点的高斯分布,以高斯分布来表示新的提议分布。
3)对得到的提议分布进行重采样,根据激光雷达的观测模型,计算各个位姿点的权重。并且舍弃权重小的粒子,保留权重大的粒子。
4)经过重采样得到的粒子分布,作为下一次预测阶段的粒子输入,经过步骤2)和3)阶段的反复迭代,使大部分粒子都接近于机器人的真实位姿,完成机器人的定位。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (4)
1.一种基于图像信息和激光点云的机器人定位方法,其特征在于,包括如下步骤:
1)定位开始前,双目摄像机预先记录关键位置的图像;
2)定位开始后,若机器人没有经过双目摄像机记录的关键位置,则根据里程计运动模型采样,得到机器人位姿的提议分布;
若机器人经过双目摄像机记录的关键位置,则利用双目摄像机和激光雷达数据联合观测数据来得到机器人位姿概率最大的一点,在此点附近采样一组位姿点,计算这组位姿点的均值和方差,得到高斯分布,以高斯分布来代替以往的提议分布;
3)对得到的提议分布进行重采样,利用激光雷达观测模型来计算粒子的权值,保留权值大的粒子,舍弃权值小的粒子,为下一次预测阶段提供输入;
4)经过步骤2)和步骤3)阶段的反复迭代之后,来得到机器人的真实位姿,完成定位。
2.根据权利要求1所述的基于图像信息和激光点云的机器人定位方法,其特征在于,所述步骤2)为粒子滤波预测阶段,其过程如下:
2.1)当机器人没有经过双目摄像机记录的位置时,则获取最新时刻的里程计数据ut-1,利用里程计运动模型,根据状态转移函数来对每一个粒子进行状态估计,以此来得到一个提议分布,根据此提议分布进行重采样,反复迭代之后得到机器人真实位姿;
2.2)当机器人经过双目摄像机记录的位置时,利用里程计,双目摄像机,激光雷达数据联合观测,得到提议分布;
2.3)根据公式在概率最大的位姿点附近进行采样,若两位姿点距离小于阈值Δ,则判断该位姿点有效,进行采样,共得到K个位姿点;
2.4)利用双目摄像头、激光雷达的融合观测概率和里程计判断的位姿概率来对K个位姿点进行估计,利用均值和方差来表示K个位姿点的高斯分布,以高斯分布来表示新的提议分布。
3.根据权利要求2所述的基于图像信息和激光点云的机器人定位方法,其特征在于,所述步骤2.2)的过程如下:
2.2.1)ut-1为最新时刻的里程计数据,根据最新时刻的里程计运动模型的数据,对机器人位姿进行估计,来得到新的机器人位姿集合
2.2.2)将双目摄像头最新时刻图像数据zVt和激光雷达最新时刻数据zLt进行数据融合,将相机坐标系下的扫描点的角度信息,经过旋转变换之后,转换到激光雷达下的坐标系,将角度信息进行融合;
2.2.3)输入双目摄像机和激光雷达的联合观测数据,包括扫描点云的融合角度信息和距离信息,根据公式来得出概率最大的一个位姿点
4.根据权利要求3所述的基于图像信息和激光点云的机器人定位方法,其特征在于,所述步骤2.2.2)的过程如下:
设双目摄像机扫描到物体点特征的角度为以下形式:
ΘV=[θv,1 θv,2 ··· θv,n] (1)
激光雷达扫描到物体点云的角度为以下形式:
ΘL=[θl,1 θl,2 ··· θl,n] (2)
根据式(3)来求得旋转变换矩阵R,将相机扫描点的角度信息与激光雷达扫描的角度信息进行融合;
当时,求出的解为旋转矩阵R的最大似然估计,为激光雷达测量噪声的方差,为双目相机测量噪声的方差。根据奇异值分解,旋转矩阵R的求解如下:
R=UVT (5)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910619673.8A CN110412596A (zh) | 2019-07-10 | 2019-07-10 | 一种基于图像信息和激光点云的机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910619673.8A CN110412596A (zh) | 2019-07-10 | 2019-07-10 | 一种基于图像信息和激光点云的机器人定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110412596A true CN110412596A (zh) | 2019-11-05 |
Family
ID=68360874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910619673.8A Pending CN110412596A (zh) | 2019-07-10 | 2019-07-10 | 一种基于图像信息和激光点云的机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110412596A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111044036A (zh) * | 2019-12-12 | 2020-04-21 | 浙江大学 | 基于粒子滤波的远程定位方法 |
CN111076724A (zh) * | 2019-12-06 | 2020-04-28 | 苏州艾吉威机器人有限公司 | 三维激光定位方法及系统 |
CN111551181A (zh) * | 2020-05-29 | 2020-08-18 | 深圳市南科信息科技有限公司 | 基于智能手机航位推算以及LiFi识别的室内定位方法 |
CN112882056A (zh) * | 2021-01-15 | 2021-06-01 | 西安理工大学 | 基于激光雷达的移动机器人同步定位与地图构建方法 |
CN112956961A (zh) * | 2021-03-19 | 2021-06-15 | 北京小狗吸尘器集团股份有限公司 | 扫地机器人及其重新定位方法、装置和存储介质 |
CN113990073A (zh) * | 2021-12-24 | 2022-01-28 | 浙江宇视科技有限公司 | 面向交通路口的雷达视觉协同方法、装置、设备及介质 |
CN116442226A (zh) * | 2023-04-13 | 2023-07-18 | 深圳市普渡科技有限公司 | 位姿正确性判断方法、装置、机器人和存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101699313A (zh) * | 2009-09-30 | 2010-04-28 | 北京理工大学 | 基于摄像机和三维激光雷达的外部参数标定方法及系统 |
CN103644904A (zh) * | 2013-12-17 | 2014-03-19 | 上海电机学院 | 一种基于sift算法的视觉导航方法 |
US20140350839A1 (en) * | 2013-05-23 | 2014-11-27 | Irobot Corporation | Simultaneous Localization And Mapping For A Mobile Robot |
CN104180818A (zh) * | 2014-08-12 | 2014-12-03 | 北京理工大学 | 一种单目视觉里程计算装置 |
CN105509755A (zh) * | 2015-11-27 | 2016-04-20 | 重庆邮电大学 | 一种基于高斯分布的移动机器人同步定位与地图构建方法 |
US20160147230A1 (en) * | 2014-11-26 | 2016-05-26 | Irobot Corporation | Systems and Methods for Performing Simultaneous Localization and Mapping using Machine Vision Systems |
CN206990800U (zh) * | 2017-07-24 | 2018-02-09 | 宗晖(上海)机器人有限公司 | 一种定位系统 |
CN108375976A (zh) * | 2018-01-22 | 2018-08-07 | 中国民用航空飞行学院 | 一种服务机器人导航方法及系统 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108932736A (zh) * | 2018-05-30 | 2018-12-04 | 南昌大学 | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 |
CN109341706A (zh) * | 2018-10-17 | 2019-02-15 | 张亮 | 一种面向无人驾驶汽车的多特征融合地图的制作方法 |
CN109633664A (zh) * | 2018-12-29 | 2019-04-16 | 南京理工大学工程技术研究院有限公司 | 基于rgb-d与激光里程计的联合定位方法 |
CN109682382A (zh) * | 2019-02-28 | 2019-04-26 | 电子科技大学 | 基于自适应蒙特卡洛和特征匹配的全局融合定位方法 |
CN109752725A (zh) * | 2019-01-14 | 2019-05-14 | 天合光能股份有限公司 | 一种低速商用机器人、定位导航方法及定位导航系统 |
-
2019
- 2019-07-10 CN CN201910619673.8A patent/CN110412596A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101699313A (zh) * | 2009-09-30 | 2010-04-28 | 北京理工大学 | 基于摄像机和三维激光雷达的外部参数标定方法及系统 |
US20140350839A1 (en) * | 2013-05-23 | 2014-11-27 | Irobot Corporation | Simultaneous Localization And Mapping For A Mobile Robot |
CN103644904A (zh) * | 2013-12-17 | 2014-03-19 | 上海电机学院 | 一种基于sift算法的视觉导航方法 |
CN104180818A (zh) * | 2014-08-12 | 2014-12-03 | 北京理工大学 | 一种单目视觉里程计算装置 |
US20160147230A1 (en) * | 2014-11-26 | 2016-05-26 | Irobot Corporation | Systems and Methods for Performing Simultaneous Localization and Mapping using Machine Vision Systems |
CN105509755A (zh) * | 2015-11-27 | 2016-04-20 | 重庆邮电大学 | 一种基于高斯分布的移动机器人同步定位与地图构建方法 |
CN206990800U (zh) * | 2017-07-24 | 2018-02-09 | 宗晖(上海)机器人有限公司 | 一种定位系统 |
CN108375976A (zh) * | 2018-01-22 | 2018-08-07 | 中国民用航空飞行学院 | 一种服务机器人导航方法及系统 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108932736A (zh) * | 2018-05-30 | 2018-12-04 | 南昌大学 | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 |
CN109341706A (zh) * | 2018-10-17 | 2019-02-15 | 张亮 | 一种面向无人驾驶汽车的多特征融合地图的制作方法 |
CN109633664A (zh) * | 2018-12-29 | 2019-04-16 | 南京理工大学工程技术研究院有限公司 | 基于rgb-d与激光里程计的联合定位方法 |
CN109752725A (zh) * | 2019-01-14 | 2019-05-14 | 天合光能股份有限公司 | 一种低速商用机器人、定位导航方法及定位导航系统 |
CN109682382A (zh) * | 2019-02-28 | 2019-04-26 | 电子科技大学 | 基于自适应蒙特卡洛和特征匹配的全局融合定位方法 |
Non-Patent Citations (4)
Title |
---|
YONG LI等: "Localization and Navigation for Indoor Mobile Robot Based on ROS", 《2018 CHINESE AUTOMATION CONGRESS (CAC)》 * |
杨良洁: "基于视觉的室内定位算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
王消为: "基于激光雷达与双目视觉的移动机器人SLAM技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
雷杨浩: "室内动态环境下基于粒子滤波的服务机器人定位", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111076724A (zh) * | 2019-12-06 | 2020-04-28 | 苏州艾吉威机器人有限公司 | 三维激光定位方法及系统 |
CN111076724B (zh) * | 2019-12-06 | 2023-12-22 | 苏州艾吉威机器人有限公司 | 三维激光定位方法及系统 |
CN111044036A (zh) * | 2019-12-12 | 2020-04-21 | 浙江大学 | 基于粒子滤波的远程定位方法 |
CN111551181A (zh) * | 2020-05-29 | 2020-08-18 | 深圳市南科信息科技有限公司 | 基于智能手机航位推算以及LiFi识别的室内定位方法 |
CN112882056A (zh) * | 2021-01-15 | 2021-06-01 | 西安理工大学 | 基于激光雷达的移动机器人同步定位与地图构建方法 |
CN112882056B (zh) * | 2021-01-15 | 2024-04-09 | 西安理工大学 | 基于激光雷达的移动机器人同步定位与地图构建方法 |
CN112956961A (zh) * | 2021-03-19 | 2021-06-15 | 北京小狗吸尘器集团股份有限公司 | 扫地机器人及其重新定位方法、装置和存储介质 |
CN112956961B (zh) * | 2021-03-19 | 2022-08-23 | 北京小狗吸尘器集团股份有限公司 | 扫地机器人及其重新定位方法、装置和存储介质 |
CN113990073A (zh) * | 2021-12-24 | 2022-01-28 | 浙江宇视科技有限公司 | 面向交通路口的雷达视觉协同方法、装置、设备及介质 |
CN116442226A (zh) * | 2023-04-13 | 2023-07-18 | 深圳市普渡科技有限公司 | 位姿正确性判断方法、装置、机器人和存储介质 |
CN116442226B (zh) * | 2023-04-13 | 2024-07-26 | 深圳市普渡科技有限公司 | 位姿正确性判断方法、装置、机器人和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11002859B1 (en) | Intelligent vehicle positioning method based on feature point calibration | |
CN110412596A (zh) | 一种基于图像信息和激光点云的机器人定位方法 | |
CN112639502B (zh) | 机器人位姿估计 | |
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN102538781B (zh) | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 | |
Wang et al. | Intelligent vehicle self-localization based on double-layer features and multilayer LIDAR | |
WO2020038285A1 (zh) | 车道线的定位方法和装置、存储介质、电子装置 | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN101907714B (zh) | 基于多传感器数据融合的gps辅助定位方法 | |
CN106052691B (zh) | 激光测距移动制图中闭合环误差纠正方法 | |
CN110307836B (zh) | 一种用于无人清扫车辆贴边清扫的精确定位方法 | |
CN112987065B (zh) | 一种融合多传感器的手持式slam装置及其控制方法 | |
US20230083965A1 (en) | Map construction method, apparatus and storage medium | |
CN110411462A (zh) | 一种gnss/惯性/车道线约束/里程计多源融合方法 | |
CN113252033A (zh) | 基于多传感器融合的定位方法、定位系统及机器人 | |
CN114019552A (zh) | 一种基于贝叶斯多传感器误差约束的定位置信度优化方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN115183762A (zh) | 一种机场仓库内外建图方法、系统、电子设备及介质 | |
Niewola et al. | PSD–probabilistic algorithm for mobile robot 6D localization without natural and artificial landmarks based on 2.5 D map and a new type of laser scanner in GPS-denied scenarios | |
CN113639722B (zh) | 连续激光扫描配准辅助惯性定位定姿方法 | |
Chiang et al. | High-Definition-Map-Based LiDAR Localization Through Dynamic Time-Synchronized Normal Distribution Transform Scan Matching | |
CN117451054A (zh) | 基于单目相机、imu和uwb多传感器融合的无人机高精度室内定位方法 | |
Verentsov et al. | Bayesian localization for autonomous vehicle using sensor fusion and traffic signs | |
CN110849349A (zh) | 一种基于磁传感器与轮式里程计融合定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191105 |