CN114721377A - 一种基于改进Cartographer的SLAM的室内导盲机器人控制方法 - Google Patents
一种基于改进Cartographer的SLAM的室内导盲机器人控制方法 Download PDFInfo
- Publication number
- CN114721377A CN114721377A CN202210282406.8A CN202210282406A CN114721377A CN 114721377 A CN114721377 A CN 114721377A CN 202210282406 A CN202210282406 A CN 202210282406A CN 114721377 A CN114721377 A CN 114721377A
- Authority
- CN
- China
- Prior art keywords
- robot
- algorithm
- slam
- improved
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 238000005457 optimization Methods 0.000 claims abstract description 11
- 230000004064 dysfunction Effects 0.000 claims abstract description 7
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000007613 environmental effect Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims description 3
- 238000012417 linear regression Methods 0.000 claims description 3
- 238000012067 mathematical method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提出了一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,本发明首先通过Cartographer的SLAM算法精确的提取养老康复中心内图像特征,通过这些特征不断建立和完善养老康复中心模型。在接受导盲任务之后,规划导盲路线,牵引视觉功能障碍的残疾人到达指定位置,途中通过自身携带的摄像头、激光雷达、红外传感器、距离传感器实时提醒残疾人避开沿途障碍。本发明为基于改进Cartographer的SLAM的室内导盲机器人控制方法,改进的Cartographer算法具有累计误差低、能天然的输出协方差矩阵、输入项后端优化、开源、易编程等优点,可以测速、测距、快速识别与建立地图,实现机器人长时间、高精度定位。
Description
技术领域
本发明涉及导盲机器人控制领域,具体为一种基于改进Cartographer的SLAM的室内导盲机器人控制方法。
背景技术
让机器人具备在复杂多变的环境下完成预定任务的能力,是现阶段移动机器人学科研究的重点也是难点。在移动机器人的应用中,为了自主稳定地完成各项任务,机器人通常需要掌握所处的未知环境来进行自身和任务目标的定位。惯性导航系统和全球定位系统等传统的定位技术极大地制约了其在复杂动态的场景下的定位性能,例如在深海以及室内等GPS信号较弱的情况下,移动机器人不能实现准确的定位,致使其不能获取自身精确的位置信息。
SLAM问题最早由文献提出,将概率论方法与SLAM问题联系起来。它指的是移动机器人在未知环境中移动时,通过从传感器采集的数据估计自身在环境中的位姿,同时根据观测得到的位姿和传感器采集的环境信息更新地图。激光SLAM按照后端优化方案的不同可以分为基于滤波的SLAM和基于图优化的SLAM。
目前常见的SLAM算法有Gmapping、hector两种;
Gmapping是基于粒子滤波的算法。
缺点:严重依赖里程计,无法适应无人机及地面不平坦的区域,无回环(激光SLAM很难做回环检测),大的场景,粒子较多的情况下,特别消耗资源。
Hector
基于优化的算法(解最小二乘问题),优缺点:不需要里程计,但对于雷达帧率要求很高40Hz,估计6自由度位姿,可以适应空中或者地面不平坦的情况。初值的选择对结果影响很大,所以要求雷达帧率较高。
Cartographer算法累计误差较前两种算法低,能天然的输出协方差矩阵,后端优化的输入项,因此申请人设计一种基于改进Cartographer的SLAM的室内导盲机器人控制方法。
发明内容
为解决上述技术问题,本发明提出了一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,相比于基于滤波的方法,基于图优化的SLAM方案在单位计算时间内具有更高的精度。图优化方案使用所有时刻采集的数据,根据非线性优化方法求解状态的全局最优估计,从而优化累积误差。采用图优化框架对激光SLAM问题进行优化,使用扫描匹配测量两帧扫描之间的相对运动,并通过迭代线性化来优化机器人所有的位姿。该算法能天然的输出协方差矩阵,后端优化的输入项,在成本较低的雷达也能跑出不错的效果。是一种新的基于激光数据的回环检测方法,这种方法可以减少计算量,可以满足大空间的建图需要,并且对大规模数据进行实时优化。
为实现上述目的,本发明采取的技术方案是:
一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,具体步骤如下:
第一步:建立康复养老中心地图:
室内导盲机器人处于初始位置时位于控制室充电站上,启动机器人,自检完成后,通过环境特征信息提取设备提取康复养老中心环境特征,基于Cartographer的SLAM算法提取特征点,建立环境模型;
Cartograhper生成地图由两部分组成;
第一部分是生成基于局部坐标系的子图;
第二部分是生成一个全局地图,该地图是由子图组合而成,当识别出回环时对其进行校正;
生成子图是一个迭代过程,将激光雷达扫描的点云于子图坐标系进行比较,激光雷达的一次扫描提供一帧点云,每帧点云记为P={pk}k=1,2,3...k,pk∈R2,点云坐标系到子图坐标系的位姿变换为Tδ,则每个点在子图坐标系中的位姿由定义;
优化的SLAM算法;
基于图优化的SLAM算法存储移动机器人所有的位姿信息及位姿间的空间约束,根据检测到的回环约束对所有位姿及其约束关系进行优化,实现机器人的轨迹估计和地图构建;
第二步:路径规划:
养老康复中心模型建立后,设置目标点,机器人开始牵引视觉功能障碍的残疾人到达指定位置;不论何种方式机器人都需要自主建立路径规划以到达准确的位置;采用最小二乘法的一元线性回归模型数学方法,设样本回归模型为:其中:Xi表示第i点的自变量,Yi表示与Xi相关的因变量,ei为随机扰动项,为回归方程常数项;残差平方和为: 为因变量Yi的对应估计值,有效说明了算法估计的路径;
第三步:定位:
最后在通过真实运动轨迹与算法生成轨迹的均方根差对比与运动测量和传感器读数来确定是否正确,设机器人实际运动轨迹为X=(x1,x2,x3…xk),算法生成的运动轨迹为通过真实运动轨迹与算法生成轨迹的均方根差来判断定位是否精准;表示算法生成轨迹在第i点处偏移量,trans(xi)表示实际运动轨迹在在第i点处偏移量,n表示摄像头个数;
第四步:智能引导:
通过实时的环境检测,对视觉功能障碍的残疾人发出提醒,顺利牵引残疾人到达目标点。
作为本发明进一步改进,所述环境特征信息提取设备包括摄像头和激光雷达。
作为本发明进一步改进,步骤四采用轮式移动工业机器人底盘,搭载红外传感器、测距传感器对环境进行检测。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明为基于改进Cartographer的SLAM的室内导盲机器人控制方法,改进的Cartographer算法具有累计误差低、能天然的输出协方差矩阵、输入项后端优化、开源、易编程等优点,可以测速、测距、快速识别与建立地图,实现机器人长时间、高精度定位。
2、相较于传统的GPS而言,本发明更适合在室内环境使用下,减少因外界环境带来的不必要干扰。成本低、可使用范围更加广泛。
附图说明
图1为本发明优化SLAM框架示意图;
图2为本发明Cartographer算法的框架图;
图3为本发明分布式软件架构图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
作为本发明一种实施例。本发明提供一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,具体步骤如下:
第一步:建立康复养老中心地图:
室内导盲机器人处于初始位置时位于控制室充电站上,启动机器人,自检完成后,通过环境特征信息提取设备提取康复养老中心环境特征,所述环境特征信息提取设备包括摄像头和激光雷达,基于Cartographer的SLAM算法提取特征点,其中Cartographer算法的框架图如图2所示,建立环境模型;
Cartograhper生成地图由两部分组成;
第一部分是生成基于局部坐标系的子图;
第二部分是生成一个全局地图,该地图是由子图组合而成,当识别出回环时对其进行校正;
生成子图是一个迭代过程,将激光雷达扫描的点云于子图坐标系进行比较,激光雷达的一次扫描提供一帧点云,每帧点云记为P={pk}k=1,2,3...k,pk∈R2,点云坐标系到子图坐标系的位姿变换为Tδ,则每个点在子图坐标系中的位姿由定义;
优化的SLAM算法;
基于图优化的SLAM算法存储移动机器人所有的位姿信息及位姿间的空间约束,根据检测到的回环约束对所有位姿及其约束关系进行优化,实现机器人的轨迹估计和地图构建,其中优化SLAM框架示意图如图1所示;
第二步:路径规划:
养老康复中心模型建立后,设置目标点,机器人开始牵引视觉功能障碍的残疾人到达指定位置;不论何种方式机器人都需要自主建立路径规划以到达准确的位置;采用最小二乘法的一元线性回归模型数学方法,设样本回归模型为:其中:Xi表示第i点的自变量,Yi表示与Xi相关的因变量,ei为随机扰动项,为回归方程常数项;残差平方和为: 为因变量Yi的对应估计值,有效说明了算法估计的路径;
第三步:定位:
最后在通过真实运动轨迹与算法生成轨迹的均方根差对比与运动测量和传感器读数来确定是否正确,设机器人实际运动轨迹为X=(x1,x2,x3…xk),算法生成的运动轨迹为通过真实运动轨迹与算法生成轨迹的均方根差来判断定位是否精准;表示算法生成轨迹在第i点处偏移量,trans(xi)表示实际运动轨迹在在第i点处偏移量,n表示摄像头个数;
第四步:智能引导:
采用轮式移动工业机器人底盘,搭载红外传感器、测距传感器对环境进行检测,通过实时的环境检测,对视觉功能障碍的残疾人发出提醒,顺利牵引残疾人到达目标点。
本发明分布式软件架构图如图3所示,因为实现了导盲的精确定位,故导盲机器人的精确性能得到极大的保证,实时数据通过智能控制主机经过信号交换器传递给主控电脑,进行分析和处理。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
Claims (3)
1.一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,其特征在于,具体步骤如下:
第一步:建立康复养老中心地图:
室内导盲机器人处于初始位置时位于控制室充电站上,启动机器人,自检完成后,通过环境特征信息提取设备提取康复养老中心环境特征,基于Cartographer的SLAM算法提取特征点,建立环境模型;
Cartograhper生成地图由两部分组成;
第一部分是生成基于局部坐标系的子图;
第二部分是生成一个全局地图,该地图是由子图组合而成,当识别出回环时对其进行校正;
生成子图是一个迭代过程,将激光雷达扫描的点云于子图坐标系进行比较,激光雷达的一次扫描提供一帧点云,每帧点云记为P={pk}k=1,2,3...k,pk∈R2,点云坐标系到子图坐标系的位姿变换为Tδ,则每个点在子图坐标系中的位姿由定义;
优化的SLAM算法;
基于图优化的SLAM算法存储移动机器人所有的位姿信息及位姿间的空间约束,根据检测到的回环约束对所有位姿及其约束关系进行优化,实现机器人的轨迹估计和地图构建;
第二步:路径规划:
养老康复中心模型建立后,设置目标点,机器人开始牵引视觉功能障碍的残疾人到达指定位置;不论何种方式机器人都需要自主建立路径规划以到达准确的位置;采用最小二乘法的一元线性回归模型数学方法,设样本回归模型为:其中:Xi表示第i点的自变量,Yi表示与Xi相关的因变量,ei为随机扰动项,为回归方程常数项;残差平方和为:为因变量Yi的对应估计值,有效说明了算法估计的路径;
第三步:定位:
最后在通过真实运动轨迹与算法生成轨迹的均方根差对比与运动测量和传感器读数来确定是否正确,设机器人实际运动轨迹为X=(xl,x2,x3…xk),算法生成的运动轨迹为通过真实运动轨迹与算法生成轨迹的均方根差来判断定位是否精准;表示算法生成轨迹在第i点处偏移量,trans(xi)表示实际运动轨迹在在第i点处偏移量,n表示摄像头个数;
第四步:智能引导:
通过实时的环境检测,对视觉功能障碍的残疾人发出提醒,顺利牵引残疾人到达目标点。
2.根据权利要求1所述的一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,其特征在于:所述环境特征信息提取设备包括摄像头和激光雷达。
3.根据权利要求1所述的一种基于改进Cartographer的SLAM的室内导盲机器人控制方法,其特征在于:步骤四采用轮式移动工业机器人底盘,搭载激光雷达、红外传感器、测距传感器对环境进行检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210282406.8A CN114721377A (zh) | 2022-03-22 | 2022-03-22 | 一种基于改进Cartographer的SLAM的室内导盲机器人控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210282406.8A CN114721377A (zh) | 2022-03-22 | 2022-03-22 | 一种基于改进Cartographer的SLAM的室内导盲机器人控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114721377A true CN114721377A (zh) | 2022-07-08 |
Family
ID=82240760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210282406.8A Withdrawn CN114721377A (zh) | 2022-03-22 | 2022-03-22 | 一种基于改进Cartographer的SLAM的室内导盲机器人控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114721377A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117554984A (zh) * | 2023-11-08 | 2024-02-13 | 广东科学技术职业学院 | 一种基于图像理解的单线激光雷达室内slam定位方法及系统 |
-
2022
- 2022-03-22 CN CN202210282406.8A patent/CN114721377A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117554984A (zh) * | 2023-11-08 | 2024-02-13 | 广东科学技术职业学院 | 一种基于图像理解的单线激光雷达室内slam定位方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
EP4318397A2 (en) | Method of computer vision based localisation and navigation and system for performing the same | |
CN112014857A (zh) | 用于智能巡检的三维激光雷达定位导航方法及巡检机器人 | |
JP2019215853A (ja) | 測位のための方法、測位のための装置、デバイス及びコンピュータ読み取り可能な記憶媒体 | |
JP4984659B2 (ja) | 自車両位置推定装置 | |
Suger et al. | Global outer-urban navigation with openstreetmap | |
CN106767791A (zh) | 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法 | |
CN114111818B (zh) | 一种通用视觉slam方法 | |
US11748449B2 (en) | Data processing method, data processing apparatus, electronic device and storage medium | |
CN114323033A (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN115685736B (zh) | 一种基于热成像与卷积神经网络的轮式巡检机器人 | |
Fasiolo et al. | Comparing LiDAR and IMU-based SLAM approaches for 3D robotic mapping | |
CN114047766B (zh) | 面向室内外场景长期应用的移动机器人数据采集系统及方法 | |
CN118310531A (zh) | 一种由粗到细点云配准的机器人跨场景定位方法及系统 | |
CN114721377A (zh) | 一种基于改进Cartographer的SLAM的室内导盲机器人控制方法 | |
CN117075158A (zh) | 基于激光雷达的无人变形运动平台的位姿估计方法及系统 | |
Wang et al. | Online drone-based moving target detection system in dense-obstructer environment | |
CN114462545A (zh) | 一种基于语义slam的地图构建方法及装置 | |
Yang et al. | SLAM self-cruise vehicle based on ROS platform | |
CN118279770B (zh) | 一种基于slam算法的无人机跟拍方法 | |
Radzi et al. | Visual-based and Lidar-based SLAM Study for Outdoor Environment | |
CN117671022B (zh) | 一种室内弱纹理环境的移动机器人视觉定位系统及方法 | |
Słowak et al. | Homography augmented particle filter SLAM | |
CN117268404B (zh) | 一种利用多传感器融合的无人机室内外自主导航方法 | |
Zhao et al. | On-board Visual Relative Localization for Small UAVs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220708 |
|
WW01 | Invention patent application withdrawn after publication |