CN108958232A - 一种基于深度视觉的移动扫地机器人slam装置及算法 - Google Patents

一种基于深度视觉的移动扫地机器人slam装置及算法 Download PDF

Info

Publication number
CN108958232A
CN108958232A CN201711289726.1A CN201711289726A CN108958232A CN 108958232 A CN108958232 A CN 108958232A CN 201711289726 A CN201711289726 A CN 201711289726A CN 108958232 A CN108958232 A CN 108958232A
Authority
CN
China
Prior art keywords
rgb
sweeping robot
information
environment
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711289726.1A
Other languages
English (en)
Inventor
潘景良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ju Da Technology Co Ltd
Original Assignee
Ju Da Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ju Da Technology Co Ltd filed Critical Ju Da Technology Co Ltd
Priority to CN201711289726.1A priority Critical patent/CN108958232A/zh
Publication of CN108958232A publication Critical patent/CN108958232A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度视觉的扫地机器人SLAM装置及算法,包括用于采集环境中具有RGB色彩图像和Depth深度信息的RGB‑D信息的RGB‑D传感器;用于360度移动RGB‑D传感器旋转机构。其中本发明的SLM算法对传统的SLM算法进行了改进,首先通过在固定位置摆动RGB‑D传感器,然后融合多帧当前位置的RGB‑D信息,其次移动扫地机器人,通过SURF特征优化出扫地机器人的移动轨迹的同时,生成了整个环境的三维图像,以用于扫地机器人的自动导航,实现扫地机器人的无人巡航工作。

Description

一种基于深度视觉的移动扫地机器人SLAM装置及算法
技术领域
本发明涉及图像处理及三维地图的建立领域,具体涉及一种基于 深度视觉的移动扫地机器人SLAM装置及算法。
背景技术
为了在未知环境中进行导航,移动扫地机器人需要构建环境地图 并且同时定位自身在地图中的位置,像这样同时解决这两个问题的 过程就称为同步定位与地图构建(Simultaneously Localization And Mapping,SLAM)。当扫地机器 人处于室外环境的时候,这个问题可以通过高精度的GPS来解决。 但是,当扫地机器人处于室内环境时,或当GPS不够精确无法满足高 精度的需求时,或者当扫地机器人所处环境涉密时,人们就必须使用其他方法来精确估计扫地机器人的位置并且同时构建环境地图。SLAM 问题就是在这样的需求背景下提出的,是当前移动扫地机器人研究 领域的一个重要课题。
移动扫地机器人可以通过不同类型的传感器获取所处环境的信 息,传感器的类型不同,得到的环境信息的内容也不相同。如声呐测 距仪获取的信息为传感器与障碍的距离信息,激光扫描测距仪获取的 信息为传感器与障碍的距离和角度信息,视觉传感器获取的信息为环 境的图像信息等等。移动扫地机器人可以同时配置多类传感器,通过 融合不同传感器所获取的信息,可以有效地提高地图环境的精度。
把视觉传感器和红外传感器集成到一起并实现两种传感器信息 之间的良好同步,这样就构成了RGB-D传感器。基于RGB-D传感器的 VSLAM则被称为RGB-D SLAM。
申请号为201610298075.1的中国专利,公开了一种可提高扫地 机器人位姿一致性的ORB关键帧闭环检测SLAM方法。其首先,采用 RGB-D传感器获取环境的彩色信息与深度信息,使用ORB特征提取图 像特征;接着,通过基于RANSAC-ICP帧间配准算法实现了扫地机器 人位姿估计,构建初始位姿图;最后,通过提取KeyFrame关键帧中 的ORB特征构建BoVW(视觉词袋),当前关键帧与BoVW中的单词进行 相似性比较,实现闭环关键帧检测,通过关键帧帧间配准检测添加位 姿图约束,得到全局最优的扫地机器人位姿,但其并没有解决扫地机 器人的导航问题,以及扫地机器人运动后如何生成全景三维地图的问 题。
发明内容
为解决上述问题,本发明提供了一种基于深度视觉的移动扫地机 器人SLAM装置及算法。本发明对传统的SLM算法进行了改进,首先 通过在固定位置摆动RGB-D传感器,然后融合多帧当前位置的RGB-D 信息,其次移动扫地机器人,通过SURF特征优化出扫地机器人的移 动轨迹的同时,生成了整个环境的三维图像,以用于扫地机器人的自 动导航,实现扫地机器人的无人巡航工作。
为实现所述技术目的,本发明的技术方案是:一种基于深度视觉 的扫地机器人SLAM装置,包括:
RGB-D传感器,用于采集环境中具有RGB色彩图像(位图序列) 和Depth深度信息的RGB-D信息;
旋转机构,用于360度移动RGB-D传感器。
进一步,所述RGB-D传感器包括:
激光测距仪和Kinect摄像头或MESA相机的至少一种,用于采集 环境RGB色彩图像和Depth深度信息。
进一步,所述RGB-D传感器和旋转机构安装于移动装置上,用于 在环境中移动扫地机器人SLAM装置,不断建立环境的三维地图。
进一步,所述扫地机器人SLAM装置上安装设置IMU惯性测量装 置以及电子编码器,用于结合扫地机器人运动加速度,确定扫地机器 人的位置。
一种基于深度视觉的扫地机器人SLAM算法,包括以下步骤:
S1:固定扫地机器人,使RGB-D传感器具有一定摆动姿态,进一 步获取当前环境的多帧RGB-D信息;RGB-D信息包括激光测距仪或 Kinect摄像头或MESA相机测量的Depth深度信息,以及Kinect摄像 头或MESA相机获取的RGB色彩图像或位图序列。
S2:基于步骤S1中的每帧RGB-D信息,通过ORB算法进行特征 检测和描述,提取SURF特征点;
S3:对步骤S2中的每帧RGB-D信息进行异值剔除;
S4:对步骤S3中的多帧RGB-D信息,通过ICP算法整合;
S5:移动扫地机器人,使得扫地机器人具有一定的运动轨迹,重 复步骤S1-S4,以达到RGB-D传感器的视觉覆盖整个环境目标区域;
S6:针对步骤S5的运动轨迹,通过所述步骤S2中的SURF特征 点,进行闭环检测和轨迹图优化;其中在进行轨迹图优化的同时,还 融合了TMU惯性测量装置的位置信息。
S7:建立环境的三维图像。也就是说,本发明首先通过在固定位 置摆动RGB-D传感器,然后融合多帧当前位置的RGB-D信息,其次移 动扫地机器人,优化出扫地机器人的移动轨迹的同时,生成了整个环 境的三维图像,以用于扫地机器人的自动导航,实现扫地机器人的无 人巡航工作。
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S2 中ORB算法,对所述步骤S1中的RGB-D信息构建尺度空间金字塔。
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S3 中的异值剔除,是对所述步骤S2中的每帧环境RGB-D信息通过RANSAC 算法进行异值剔除。
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S4 中ICP算法整合的方法为:
T1:获得步骤S3中的每帧RGB-D信息,并获得每帧RGB-D信息 的点云集;
T2:初始化步骤S1中RGB-D传感器摆动姿态的旋转变换R和平 移变换t;
T3:最小化旋转变换R和平移变换t的均方误差,求解得到旋转 变换R和平移变换t的最优解;
T4:根据旋转变换R和平移变换t的最优解,拼接所述步骤T1 中的每帧RGB-D信息点云集,从而建立当前扫地机器人所在环境的三 维地图。
作为本发明的优选方案,基于上述内容,不同的是,步骤S5中 闭环检测和轨迹图优化,采用g2o优化库,对扫地机器人的运动轨迹 进行估计和优化。
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S7 中建立环境的三维图像,是通过Octomap算法表示并存储三维地图, 用于扫地机器人的导航。
本发明的有益效果在于:
本发明对传统的SLM算法进行了改进,首先通过在固定位置摆动 RGB-D传感器,然后融合多帧当前位置的RGB-D信息,其次移动扫地 机器人,通过SURF特征优化出扫地机器人的移动轨迹的同时,生成 了整个环境的三维图像,以用于扫地机器人的自动导航,实现扫地机 器人的无人巡航工作。
具体实施方式
下面将对本发明的技术方案进行清楚、完整地描述。
一种基于深度视觉的扫地机器人SLAM装置,包括:
RGB-D传感器,用于采集环境中具有RGB色彩图像(位图序列) 和Depth深度信息的RGB-D信息;
旋转机构,用于360度移动RGB-D传感器。作为本发明的优选, 旋转机构可选用Barrett WAM的摆臂;以使得在扫地机器人位置固定 时,在同一位置的环境中采集到当前环境的所有RGB-D信息。
进一步,所述RGB-D传感器包括:
激光测距仪和Kinect摄像头或MESA相机的至少一种,用于采集 环境RGB色彩图像和Depth深度信息。作为本发明的优选,本基于深 度视觉的扫地机器人SLAM装置还包括有内部搭载ROS软件工具的机 载PC机,并和RGB-D传感器组成有线或无线通讯,在机载PC机进行 数据处理和仿真。相比于CARMEN、Microsoft Robotics Studio和ARIA 来说,ROS软件为免费的开源软件,且扫地机器人内部的PMPL,PLC 和Rviz,Gazebo算法更容易集成于ROS软件内。
进一步,所述RGB-D传感器和旋转机构安装于移动装置2上,用 于在环境中移动扫地机器人SLAM装置,不断建立环境的三维地图。 作为本发明的优选,移动装置2,可选用型号为Segway RMP100的移 动基底。
进一步,所述扫地机器人SLAM装置上安装设置IMU惯性测量装 置以及电子编码器,用于结合扫地机器人运动加速度,确定扫地机器 人的位置。
一种基于深度视觉的扫地机器人SLAM算法,包括以下步骤:
S1:固定扫地机器人,使RGB-D传感器具有一定摆动姿态,进一 步获取当前环境的多帧RGB-D信息;
S2:基于步骤S1中的每帧RGB-D信息,通过ORB算法进行特征 检测和描述,提取SURF特征点;
S3:对步骤S2中的每帧RGB-D信息进行异值剔除;
S4:对步骤S3中的多帧RGB-D信息,通过ICP算法整合;也就 说,ICP算法将通同一固定位置中的多帧RGB-D信息进行融合,还原 了当前环境的三维立体地图。
S5:移动扫地机器人,使得扫地机器人具有一定的运动轨迹,重 复步骤S1-S4,以达到RGB-D传感器的视觉覆盖整个环境目标区域;
S6:针对步骤S5的运动轨迹,通过所述步骤S2中的SURF特征 点,进行闭环检测和轨迹图优化;其中在进行轨迹图优化的同时,还 融合了IMU惯性测量装置的位置信息。
S7:建立环境的三维图像。也就是说,本发明首先通过在固定位 置摆动RGB-D传感器,然后融合多帧当前位置的RGB-D信息,其次移 动扫地机器人,优化出扫地机器人的移动轨迹的同时,生成了整个环 境的三维图像,以用于扫地机器人的自动导航,实现扫地机器人的无 人巡航工作。
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S2 中ORB算法,对所述步骤S1中的RGB-D信息构建尺度空间金字塔。
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S3 中的异值剔除,是对所述步骤S2中的每帧环境RGB-D信息通过RANSAC 算法进行异值剔除,RANSAC算法是一个非决定性的算法,只有一定的 概率才能有较好的异值剔除效果,且概率通过多次迭代算法而增加, 具体的来说,迭代次数s可以从理论结果推断,用p表示一些迭代 过程中从数据集(每帧RGB-D信息)内随机选取出的点均为局内点(有 效值,或非异值)的概率;此时,结果模型很可能有用,因此p也表 征了算法产生有用结果的概率。用p表示每次从每帧RGB-D信息中选 取一个有效值的概率,则p=有效值数目/每帧RGB-D信息中总数 目。
由于事先并不知道w的值,假设估计模型需要选定k个点,p是每 次从每帧RGB-D信息中选取一个有效值的概率;1-p是k个点中至 少有一个点为异值点的概率,此时表明我们从数据集(每帧RGB-D信 息)中估计出了一个异值模型。因此,1-p=(1-pk)s;同时迭次数
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S4 中ICP算法整合的方法为:
T1:获得步骤S3中的每帧RGB-D信息,并获得每帧RGB-D信息 的点云集;假设一帧图像上的点云集为P={p1,...pNp},下一帧图像 的点云集为X={x1,x2,...,xNx}。
T2:初始化步骤S1中RGB-D传感器摆动姿态的旋转变换R和平 移变换t;
T3:最小化旋转变换R和平移变换t的均方误差,求解得到旋转 变换R和平移变换t的最优解E(R,t);其中最优解E(R,t)的 计算公式为:
T4:根据旋转变换R和平移变换t的最优解,拼接所述步骤T1 中的每帧RGB-D信息点云集,从而建立当前扫地机器人所在环境的三 维地图。
作为本发明的优选,ICP算法还具有point-to-point,point-to-plane 以及plane-to-plane变种,但均基于获取点云集、加权、点云集关 联、拒绝某些异值点的步骤。
作为本发明的优选方案,基于上述内容,不同的是,步骤S5中 闭环检测和轨迹图优化,采用g2o优化库,对扫地机器人的运动轨迹 进行估计和优化。作为本发明的优选,轨迹X*=argminF(X),其中 F(X)=∑<i,j>∈ce(XI,XJ,ZIJ)TQIJe(XI,XJ,ZJJ);
其中, T表示在旋转机构带动下RGB-D传感器的摆 动姿态矢量,ZIJ和ΩIJ分别为摆动姿态XI和XJ的矩阵约束,e(XI,XJ,ZIJ) 为在摆动姿态XI和XJ和约束ZIJ相比时的误差函数矢量;需要说明的 是,在摆动姿态XI和XJ完全满足约束ZIJ时,误差函数为0.
作为本发明的优选方案,基于上述内容,不同的是,所述步骤S7 中建立环境的三维图像,是通过0ctomap算法表示并存储三维地图, 用于扫地机器人的导航。
对于本领域的普通技术人员来说,在不脱离本发明创造构思的前 提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种基于深度视觉的扫地机器人SLAM装置,其特征在于,包括:
RGB-D传感器,用于采集环境中具有RGB色彩图像和Depth深度信息的RGB-D信息;
旋转机构,用于360度移动RGB-D传感器。
2.根据权利要求1所述的一种基于深度视觉的扫地机器人SLAM装置,其特征在于,所述RGB-D传感器包括:
激光测距仪和Kinect摄像头或MESA相机的至少一种,用于采集环境RGB色彩图像和Depth深度信息。
3.根据权利要求1所述的一种基于深度视觉的扫地机器人SLAM装置,其特征在于,所述RGB-D传感器和旋转机构安装于移动装置(2)上,用于在环境中移动扫地机器人SLAM装置,不断建立环境的三维地图。
4.根据权利要求1所述的一种基于深度视觉的扫地机器人SLAM装置,其特征在于,所述扫地机器人SLAM装置上安装设置IMU惯性测量装置以及电子编码器,用于结合扫地机器人运动加速度,确定扫地机器人的位置。
5.一种基于深度视觉的扫地机器人SLAM算法,其特征在于,包括以下步骤:
S1:固定扫地机器人,使RGB-D传感器具有一定摆动姿态,进一步获取当前环境的多帧RGB-D信息;
S2:基于步骤S1中的每帧RGB-D信息,通过ORB算法进行特征检测和描述,提取SURF特征点;
S3:对步骤S2中的每帧RGB-D信息进行异值剔除;
S4:对步骤S3中的多帧RGB-D信息,通过ICP算法整合;
S5:移动扫地机器人,使得扫地机器人具有一定的运动轨迹,重复步骤S1-S4,以达到RGB-D传感器的视觉覆盖整个环境目标区域;
S6:针对步骤S5的运动轨迹,通过所述步骤S2中的SURF特征点,进行闭环检测和轨迹图优化;
S7:建立环境的三维图像。
6.根据权利要求4所述的一种基于深度视觉的扫地机器人SLAM算法,其特征在于,所述步骤S2中ORB算法,对所述步骤S1中的RGB-D信息构建尺度空间金字塔。
7.根据权利要求4所述的一种基于深度视觉的扫地机器人SLAM算法,其特征在于,所述步骤S3中的异值剔除,是对所述步骤S2中的每帧环境RGB-D信息通过RANSAC算法进行异值剔除。
8.根据权利要求4所述的一种基于深度视觉的扫地机器人SLAM算法,其特征在于,所述步骤S4中ICP算法整合的方法为:
T1:获得步骤S3中的每帧RGB-D信息,并获得每帧RGB-D信息的点云集;
T2:初始化步骤S1中RGB-D传感器摆动姿态的旋转变换R和平移变换t;
T3:最小化旋转变换R和平移变换t的均方误差,求解得到旋转变换R和平移变换t的最优解;
T4:根据旋转变换R和平移变换t的最优解,拼接所述步骤T1中的每帧RGB-D信息点云集,从而建立当前扫地机器人所在环境的三维地图。
9.根据权利要求4所述的一种基于深度视觉的扫地机器人SLAM算法,其特征在于,步骤S5中闭环检测和轨迹图优化,采用g2o优化库,对扫地机器人的运动轨迹进行估计和优化。
10.根据权利要求7所述一种基于深度视觉的扫地机器人SLAM算法,其特征在于,所述步骤S7中建立环境的三维图像,是通过Octomap算法表示并存储三维地图,用于扫地机器人的导航。
CN201711289726.1A 2017-12-07 2017-12-07 一种基于深度视觉的移动扫地机器人slam装置及算法 Pending CN108958232A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711289726.1A CN108958232A (zh) 2017-12-07 2017-12-07 一种基于深度视觉的移动扫地机器人slam装置及算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711289726.1A CN108958232A (zh) 2017-12-07 2017-12-07 一种基于深度视觉的移动扫地机器人slam装置及算法

Publications (1)

Publication Number Publication Date
CN108958232A true CN108958232A (zh) 2018-12-07

Family

ID=64495312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711289726.1A Pending CN108958232A (zh) 2017-12-07 2017-12-07 一种基于深度视觉的移动扫地机器人slam装置及算法

Country Status (1)

Country Link
CN (1) CN108958232A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163915A (zh) * 2019-04-09 2019-08-23 深圳大学 一种多rgb-d传感器的空间三维扫描方法及装置
CN111609853A (zh) * 2019-02-25 2020-09-01 北京奇虎科技有限公司 三维地图构建方法、扫地机器人及电子设备
CN112157648A (zh) * 2020-08-06 2021-01-01 盐城工学院 基于urdf的车载机械臂建模与仿真方法
CN112562443A (zh) * 2020-12-22 2021-03-26 北京航空航天大学 智能探测教学实践平台和智能探测车
CN112650255A (zh) * 2020-12-29 2021-04-13 杭州电子科技大学 一种基于视觉与激光雷达信息融合的机器人室内外定位导航系统方法
TWI731555B (zh) * 2019-01-17 2021-06-21 南韓商Lg電子股份有限公司 移動式機器人及控制複數個移動式機器人的方法
CN113296504A (zh) * 2021-05-14 2021-08-24 江苏师范大学 基于rgbd深度相机的移动机器人建图与路径规划方法
CN113558532A (zh) * 2021-08-02 2021-10-29 季华实验室 一种基于视觉的可重构扫地机器人及其控制方法
TWI756844B (zh) * 2020-09-25 2022-03-01 財團法人工業技術研究院 自走車導航裝置及其方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120155775A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Walking robot and simultaneous localization and mapping method thereof
CN105411490A (zh) * 2015-10-26 2016-03-23 曾彦平 移动机器人的实时定位方法及移动机器人
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120155775A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Walking robot and simultaneous localization and mapping method thereof
CN105411490A (zh) * 2015-10-26 2016-03-23 曾彦平 移动机器人的实时定位方法及移动机器人
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
余杰: "基于ORB关键帧闭环检测算法的SLAM方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
卢惠民 等: "《ROS与中型组足球机器人》", 31 October 2016, 国防工业出版社 *
王锋: "面向服务机器人的室内语义地图构建的研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI731555B (zh) * 2019-01-17 2021-06-21 南韓商Lg電子股份有限公司 移動式機器人及控制複數個移動式機器人的方法
US11787041B2 (en) 2019-01-17 2023-10-17 Lg Electronics Inc. Mobile robot and method of controlling a plurality of mobile robots
CN111609853A (zh) * 2019-02-25 2020-09-01 北京奇虎科技有限公司 三维地图构建方法、扫地机器人及电子设备
CN110163915A (zh) * 2019-04-09 2019-08-23 深圳大学 一种多rgb-d传感器的空间三维扫描方法及装置
CN112157648A (zh) * 2020-08-06 2021-01-01 盐城工学院 基于urdf的车载机械臂建模与仿真方法
TWI756844B (zh) * 2020-09-25 2022-03-01 財團法人工業技術研究院 自走車導航裝置及其方法
US11636612B2 (en) 2020-09-25 2023-04-25 Industrial Technology Research Institute Automated guided vehicle navigation device and method thereof
CN112562443A (zh) * 2020-12-22 2021-03-26 北京航空航天大学 智能探测教学实践平台和智能探测车
CN112650255A (zh) * 2020-12-29 2021-04-13 杭州电子科技大学 一种基于视觉与激光雷达信息融合的机器人室内外定位导航系统方法
CN113296504A (zh) * 2021-05-14 2021-08-24 江苏师范大学 基于rgbd深度相机的移动机器人建图与路径规划方法
CN113558532A (zh) * 2021-08-02 2021-10-29 季华实验室 一种基于视觉的可重构扫地机器人及其控制方法
CN113558532B (zh) * 2021-08-02 2022-04-01 季华实验室 一种基于视觉的可重构扫地机器人及其控制方法

Similar Documents

Publication Publication Date Title
CN108958232A (zh) 一种基于深度视觉的移动扫地机器人slam装置及算法
Park et al. Spatiotemporal camera-LiDAR calibration: A targetless and structureless approach
Qin et al. Vins-mono: A robust and versatile monocular visual-inertial state estimator
US11295456B2 (en) Visual-inertial odometry with an event camera
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
US10268201B2 (en) Vehicle automated parking system and method
Concha et al. Visual-inertial direct SLAM
Lovegrove et al. Spline Fusion: A continuous-time representation for visual-inertial fusion with application to rolling shutter cameras.
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR102016551B1 (ko) 위치 추정 장치 및 방법
JP5991952B2 (ja) 周囲状況に対するカメラの姿勢を求めるための方法
JP6658001B2 (ja) 位置推定装置、プログラム、位置推定方法
CN107193279A (zh) 基于单目视觉和imu信息的机器人定位与地图构建系统
CN108051002A (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
US10347001B2 (en) Localizing and mapping platform
US10977810B2 (en) Camera motion estimation
JP6229041B2 (ja) 基準方向に対する移動要素の角度偏差を推定する方法
CN113570662B (zh) 3d定位来自真实世界图像中地标的系统和方法
CN113778096B (zh) 室内机器人的定位与模型构建方法及系统
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
Huttunen et al. A monocular camera gyroscope
Choi et al. Monocular SLAM with undelayed initialization for an indoor robot
CN116721166B (zh) 双目相机和imu旋转外参在线标定方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181207

RJ01 Rejection of invention patent application after publication