CN103680291B - 基于天花板视觉的同步定位与地图绘制的方法 - Google Patents
基于天花板视觉的同步定位与地图绘制的方法 Download PDFInfo
- Publication number
- CN103680291B CN103680291B CN201210332451.6A CN201210332451A CN103680291B CN 103680291 B CN103680291 B CN 103680291B CN 201210332451 A CN201210332451 A CN 201210332451A CN 103680291 B CN103680291 B CN 103680291B
- Authority
- CN
- China
- Prior art keywords
- module
- robot
- map
- motion
- submodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000013507 mapping Methods 0.000 title abstract description 6
- 230000003287 optical effect Effects 0.000 claims abstract description 17
- 239000000284 extract Substances 0.000 claims abstract description 9
- 230000033001 locomotion Effects 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 28
- 238000001914 filtration Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000007792 addition Methods 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 238000009795 derivation Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 230000004807 localization Effects 0.000 abstract description 3
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 238000007726 management method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属机器人同步定位与地图创建领域,涉及基于天花板的角点信息实现机器人定位及地图绘制的方法,该方法采用实时高效的角点选取算法,角点位于天花板上,由安装在机器人上且光轴与天花板垂直的摄像机进行拍摄,并从拍摄的图片中提取出角点;使用光流跟踪法跟踪连续两张图片中匹配的角点对,利用匹配的角点对来实现角点的三维重构;配合基于扩展卡尔曼滤波的同步定位与地图创建算法确定机器人每次拍摄时的位置和航向角,结合重构的路标信息不断完善地图。本发明实现了基于天花板视觉的同步定位与地图绘制,能较精确地描述机器人与周围环境的关系。
Description
技术领域
本发明属于机器人同步定位与地图创建(SLAM)领域,涉及基于天花板的角点信息实现机器人定位及地图绘制的方法。本方法中结合了数字图像处理技术、计算机视觉和扩展卡尔曼滤波技术等等。
背景技术
同时定位与地图创建(SLAM)的技术是机器人领域比较经典的问题,通常SLAM问题可以描述为:机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。影响SLAM问题的比较重要的因为环境噪声以及观测数据的相关联性,如果能够得到较高的数据相关联性将决定了对周围环境观测的正确性,进而影响到整个环境地图的创建。
SlAM问题依赖于机器人对环境信息的感知,目前可以用于环境信息感知的传感器种类多样,主要有码盘、摄像机、激光雷达等等,其中视觉传感器价格低廉、信息量丰富,随着图像处理和机器视觉技术的发展,将越来越多地应用于机器人领域,基于视觉传感器的移动机器人同时定位与建图已经成为本领域比较热门的研究课题。
本发明拟采用室内天花板的视觉信息作为研究对象,基于室内天花板兴趣点的获取与跟踪,以此得到的信息构建场景地图,用于机器人的定位与路径规划。
发明内容
本发明的目的是提供一种同时定位与地图创建(SLAM)的解决方案,涉及基于天花板视频信息的机器人定位与地图构建系统,尤其是基于天花板的角点信息实现机器人定位及地图绘制的方法。本系统中从特征点采集与匹配到基于扩展卡尔曼滤波的EKF-SLAM算法,由于特征点采集来自于图像角点,可以确保较高的数据相关性。
本发明方法中,采用实时高效的角点选取算法,角点位于天花板上,由安装在机器人上且光轴与天花板垂直的摄像机进行拍摄,并从拍摄的图片中提取出角点;使用光流跟踪法跟踪连续两张图片中匹配的角点对,利用匹配的角点对实现角点的三维重构;配合上基于扩展卡尔曼滤波的同步定位与地图创建算法确定机器人每次拍摄时的位置和航向角,结合重构的路标信息不断完善地图。
本发明提供了基于天花板视觉的同步定位与地图绘制的方法,其特征在于,通过安装在机器人上垂直于天花板的摄像头,由摄像头对天花板进行拍摄,将照片作为输入传给系统,经系统处理后输出当前更新的地图;
所述的系统包括:机器人运动模块(1)、图像处理模块(2)、视觉信息处理模块(3)、基于扩展卡尔曼滤波的slam模块(4),其中,
所述机器人运动模块(1)包括运动模块(1.1)和摄像模块(1.2),运动模块(1.1)控制机器人的运动,机器人的每次运动在接收速度和运动方向信号(即控制矩阵)后,经过分析后完成运动,并且给出运动的距离作为输入量传给视觉处理模块;摄像模块(1.3)由内嵌于机器人内部垂直向上的摄像头来完成对天花板的拍摄任务,并把图片传输到图像处理模块。
所述图像处理模块(2)包括角点特征提取子模块(2.1)、通过光流跟踪子模块(2.2);角点特征提取子模块(2.1)接收机器人每步中拍摄的照片,使用Harris角点检测法提取其中的角点;角点特征提取模块(2.1)中输出的角点像素信息作为输入传给光流跟踪子模块(2.2),经处理后输出连续图片中匹配的角点对。
所述视觉信息处理模块(3)包括深度信息重构子模块(3.1)和三维重构子模块(3.2);图像处理模块(2)得到的角点对做为输入传到深度信息子模块(3.1)中去,使用三角测量法进行深度信息重构;将得到的深度信息作为输入传给三维重构子模块(3.2),根据光学相关知识进行三维坐标的重构。
所述基于扩展卡尔曼滤波的SLAM模块(4)包括预测子模块(4.1)、观测子模块(4.2)、更新子模块(4.3)和地图管理子模块(4.4);预测子模块(4.1)根据预测模型以及先前系统状态推测出当前系统的状态;观测子模块(4.2)接收三维重构的数据,如果符合观测数据的要求,则将其作为观测数据处理;更新子模块(4.3),根据扩展卡尔曼滤波的更新公式进行矩阵运算;地图管理子模块(4.4),根据当前的状态以及观测数据,对地图实施添加、修改和删除等管理操作。
本发明中:
所述机器人运动模块(1.1),控制机器人的运动,机器人的每次运动在接收速度和运动方向信号(即控制矩阵)后,经过分析后完成运动,并且给出运动的距离作为输入量传给视觉处理模块。
所述摄像模块(1.2)由内嵌于机器人内部垂直向上的摄像头来完成对天花板的拍摄任务,并把图片传输到图像处理模块。
所述的角点特征提取子模块(2.1),根据Harris角点检测法提取角点,并存储角点像素坐标,本发明的实施例中,依据:第一,Harris角点相对于其他角点检测法速度较快而且准确率较高;第二,对光的敏感度较低等的原因,选取Harris角点检测法作为角点选取的方法。
所述光流跟踪子模块(2.2),在前一帧获取的特征点周围基于光流金字塔,进行特征点匹配,如果匹配成功的特征点数目少于指定数目,则重新检测特征点;否则,将获取的特征点的中位数作为输出;
所述深度信息重构子模块(3.1),采用三角测量法以及连续两祯图片中匹配的角点提取深度信息;其中的三角测量法,使用连续图片中匹配角点在运动方向的像素移动配合上标定出来的摄像头焦距能够得到有一定误差的深度信息,推导公式如下:
其中f为焦距,T为拍摄这连续图片时机器人移动的位移,xl和xr分别为连续图片中匹配点的x像素坐标;
所述三维重构子模块(3.2),利用标定出的内参数矩阵,结合当前像素坐标,实现三维坐标重构。
所述预测模块(4.1)包括根据预测模型以及先前系统状态推测出当前系统的状态,预测部分分为机器人和角点位置的预测,机器人位置的预测由它的前进路线而定,而角点则是精致的所以预测中角点位置是不变的。
所述观测模块(4.2)接收三维重构的数据,如果符合观测数据的要求,则将其作为观测数据处理。观测到的点如果已经在地图中且满足观测要求,则将其作为观测值来更新地图中点的位置;否则,重构出它的初始值,并将其加入到地图中去。
所述更新模块(4.3)根据扩展卡尔曼滤波的更新公式进行矩阵运算,更新部分包括机器人位置更新、路标位置更新。
所述地图管理模块(4.4)根据当前的状态以及观测数据,来对地图实施添加、修改和删除等管理操作。
本发明采用室内天花板的视觉信息作为测试对象,基于室内天花板兴趣点的获取与跟踪,得到的信息构建场景地图,由于特征点采集来自于图像角点,可以确保较高的数据相关性,能较精确地描述机器人与周围环境的关系,较好的实现了基于天花板视觉的同步定位与地图绘制。
附图说明
图1是本发明的模块结构示意图。
具体实施方式
下面根据图1给出本发明的较好实施例,并予以详细说明,使能更好地理解本发明而不是用来限制本发明的范围。
实施例1
核心算法以及外围组成部分结构如图1所示。
首先在机器人运动模块里面,接受输入的控制矩阵作为系统信号让机器人运动起来,在运动的过程中每过一段时间都由摄像模块来对天花板进行拍摄,同时,计算这段时间内行进的位移,拍摄完后的照片,传送到图像处理模块以及视觉处理模块进行处理;图像处理模块接收拍摄好的照片,对拍摄好的照片利用角点检测和跟踪来获得照片中的匹配的角点对;然后,视觉模块,则利用机器人运动模块输出的行进距离以及图像处理模块输出的角点像素信息,对角点进行三维重构;最后,将重构后的点作为输入传到ekf-slam中进行迭代,输出新的当前的系统状态。
结合图1中各个部分的释义及功能详细说明本实施例:
控制矩阵:输入量包括机器人的速度以及行进方向;
机器人运动模块1:控制机器人的运动,并且在运动过程中进行拍照;
机器人运动模块(1.1),控制机器人的运动,机器人的每次运动在接收速度和运动方向信号(即控制矩阵)后,经过分析后完成运动,并且给出运动的距离作为输入量传给视觉处理模块;
摄像模块(1.2)由内嵌于机器人内部垂直向上的摄像头来完成对天花板的拍摄任务,并把图片传输到图像处理模块;
图像处理模块2:对拍好的照片提取角点,并对连续照片进行光流跟踪;
角点特征提取子模块(2.1),根据Harris角点检测法提取角点,并存储角点像素坐标,之所以选取Harris角点检测法作为角点选取的方法有以下几方面原因:第一,Harris角点相对于其他角点检测法速度较快而且准确率较高;第二,对光的敏感度较低;
光流跟踪子模块(2.2),在前一帧获取的特征点周围基于光流金字塔,进行特征点匹配,如果匹配成功的特征点数目少于指定数目,则重新检测特征点;否则,将获取的特征点的中位数作为输出;
视觉处理模块(3),将角点的像素坐标转化成三位世界中的物理坐标;
所述深度信息重构子模块(3.1),采用三角测量法以及连续两祯图片中匹配的角点提取深度信息;其中的三角测量法,使用连续图片中匹配角点在运动方向的像素移动配合上标定出来的摄像头焦距能够得到有一定误差的深度信息,推导公式如下:
其中f为焦距,T为拍摄这连续图片时机器人移动的位移,xl和xr分别为连续图片中匹配点的x像素坐标;
所述三维重构子模块(3.2),利用标定出的内参数矩阵,结合当前像素坐标,实现三维坐标重构;
EKF-SLAM模块(4),系统的核心模块,使用基于扩展卡尔曼滤波的slam算法对系统状态进行迭代更新;
预测模块(4.1)包括根据预测模型以及先前系统状态推测出当前系统的状态,预测部分分为机器人和角点位置的预测,机器人位置的预测由它的前进路线而定,而角点则是精致的所以预测中角点位置是不变的;
观测模块(4.2)接收三维重构的数据,如果符合观测数据的要求,则将其作为观测数据处理。观测到的点如果已经在地图中且满足观测要求,则将其作为观测值来更新地图中点的位置;否则,重构出它的初始值,并将其加入到地图中去;
更新模块(4.3)根据扩展卡尔曼滤波的更新公式进行矩阵运算,更新部分包括机器人位置更新、路标位置更新;
地图管理模块(4.4)根据当前的状态以及观测数据,对地图实施添加、修改和删除等管理操作;
实现基于天花板视觉的同步定位与地图绘制。
Claims (1)
1.基于天花板视觉的同步定位与地图绘制的方法,其特征在于,通过安装在机器人上垂直于天花板的摄像头,对天花板进行拍摄,经系统处理后输出当前更新的地图;
所述系统包括:机器人运动模块(1)、图像处理模块(2)、视觉处理模块(3)、基于扩展卡尔曼滤波的SLAM模块(4);
其中,
所述机器人运动模块(1)包括运动模块(1.1)和摄像模块(1.2),运动模块(1.1)控制机器人的运动,机器人的每次运动在接收速度和运动方向信号后,经过分析完成运动,并且给出运动的距离作为输入量传给视觉处理模块;摄像模块(1.2)由内嵌于机器人内部垂直向上的摄像头完成对天花板的拍摄任务,并将图片传输到图像处理模块;
所述图像处理模块(2)包括角点特征提取子模块(2.1)和光流跟踪子模块(2.2);
角点特征提取子模块(2.1)接收机器人移动过程中拍摄的照片,用Harris角点检测方法提取其中的角点;角点特征提取子模块(2.1)中输出的角点像素信息作为输入传给光流跟踪子模块(2.2),经处理后输出连续图片中匹配的角点对;其中:
角点特征提取子模块(2.1),根据Harris角点检测法提取角点,并存储角点像素坐标;
光流跟踪子模块(2.2),在前一帧获取的特征点周围基于光流金字塔,进行特征点匹配,如果匹配成功的特征点数目少于指定数目,则重新检测特征点;否则,将获取的特征点的中位数作为输出;
所述视觉处理模块(3)包括深度信息子模块(3.1)和三维重构子模块(3.2);图像处理模块(2)得到的角点对做为输入传到深度信息子模块(3.1)中去,用三角测量法进行深度信息重构;将得到的深度信息作为输入传给三维重构子模块(3.2),根据光学相关知识进行三维坐标的重构;其中:
深度信息子模块(3.1),采用三角测量法以及连续两祯图片中匹配的角点提取深度信息;用连续图片中匹配角点在运动方向的像素移动配合上标定出的摄像头焦距得到有误差的深度信息,推导公式如下:
其中f为焦距,T为拍摄这连续图片时机器人移动的位移,xl和xr分别为连续图片中匹配点的x像素坐标;
所述三维重构子模块(3.2),利用标定出的内参数矩阵,结合当前像素坐标,实现三维坐标重构;
所述基于扩展卡尔曼滤波的SLAM模块(4)包括预测模块(4.1)、观测模块(4.2)、更新模块(4.3)和地图管理模块(4.4),预测模块(4.1)根据预测模型以及先前系统状态推测出当前系统的状态;观测模块(4.2)接收三维重构的数据,其中,如果符合观测数据的要求,则将其作为观测数据处理;更新模块(4.3),根据扩展卡尔曼滤波的更新公式进行矩阵运算;地图管理模块(4.4),根据当前的状态以及观测数据,对地图实施添加、修改和删除管理操作;
其中:预测模块(4.1)包括根据预测模型以及先前系统状态推测出当前系统的状态,预测部分分为机器人和角点位置的预测,机器人位置的预测由它的前进路线而定;
观测模块(4.2)接收三维重构的数据,如果符合观测数据的要求,则将其作为观测数据处理;观测到的点如果已经在地图中且满足观测要求,则将其作为观测值更新地图中点的位置;否则,重构出它的初始值,并将其加入到地图中去;
更新模块(4.3)根据扩展卡尔曼滤波的更新公式进行矩阵运算,更新部分包括机器人位置更新、路标位置更新;
地图管理模块(4.4)根据当前的状态以及观测数据,对地图实施添加、修改和删除管理操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210332451.6A CN103680291B (zh) | 2012-09-09 | 2012-09-09 | 基于天花板视觉的同步定位与地图绘制的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210332451.6A CN103680291B (zh) | 2012-09-09 | 2012-09-09 | 基于天花板视觉的同步定位与地图绘制的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103680291A CN103680291A (zh) | 2014-03-26 |
CN103680291B true CN103680291B (zh) | 2016-12-21 |
Family
ID=50317693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210332451.6A Expired - Fee Related CN103680291B (zh) | 2012-09-09 | 2012-09-09 | 基于天花板视觉的同步定位与地图绘制的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103680291B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886107B (zh) * | 2014-04-14 | 2017-10-03 | 张文强 | 基于天花板图像信息的机器人定位与地图构建系统 |
CN105321186B (zh) * | 2014-07-01 | 2018-09-14 | 北京四维图新科技股份有限公司 | 一种基于正射投影的封闭空间地图采集方法及装置 |
CN105841687B (zh) * | 2015-01-14 | 2019-12-06 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN106204516B (zh) * | 2015-05-06 | 2020-07-03 | Tcl科技集团股份有限公司 | 一种机器人的自动充电方法及装置 |
CN105043375A (zh) * | 2015-06-04 | 2015-11-11 | 上海斐讯数据通信技术有限公司 | 一种导航方法、系统及相应的移动终端 |
CN106569489A (zh) * | 2015-10-13 | 2017-04-19 | 录可系统公司 | 具有视觉导航功能的扫地机器人及其导航方法 |
JP6280147B2 (ja) * | 2016-03-18 | 2018-02-14 | 本田技研工業株式会社 | 無人走行作業車 |
CN105956081B (zh) * | 2016-04-29 | 2020-01-17 | 深圳一电航空技术有限公司 | 地面站地图更新方法及装置 |
CN106197427A (zh) * | 2016-07-04 | 2016-12-07 | 上海思依暄机器人科技股份有限公司 | 一种室内定位导航的方法、装置以及机器人 |
CN106370188A (zh) * | 2016-09-21 | 2017-02-01 | 旗瀚科技有限公司 | 一种基于3d摄像机的机器人室内定位与导航方法 |
CN106325278B (zh) * | 2016-09-30 | 2019-05-31 | 中国矿业大学 | 一种基于椭圆识别的机器人定位导航方法 |
CN106444774B (zh) * | 2016-11-01 | 2019-06-18 | 西安理工大学 | 基于室内照明灯的移动机器人视觉导航方法 |
CN106595639B (zh) * | 2016-12-27 | 2019-09-20 | 纳恩博(北京)科技有限公司 | 定位系统及其定位方法和装置及机器人 |
CN109507995B (zh) * | 2017-09-14 | 2022-01-04 | 深圳乐动机器人有限公司 | 机器人地图的管理系统及机器人 |
CN107728616B (zh) * | 2017-09-27 | 2019-07-02 | 广东宝乐机器人股份有限公司 | 移动机器人的地图创建方法及移动机器人 |
CN108986037B (zh) * | 2018-05-25 | 2020-06-16 | 重庆大学 | 基于半直接法的单目视觉里程计定位方法及定位系统 |
CN109199245A (zh) * | 2018-09-30 | 2019-01-15 | 江苏美的清洁电器股份有限公司 | 扫地机及其控制方法和控制装置 |
CN109269477A (zh) * | 2018-10-08 | 2019-01-25 | 塔米智能科技(北京)有限公司 | 一种视觉定位方法、装置、设备和存储介质 |
CN109612468A (zh) * | 2018-12-28 | 2019-04-12 | 芜湖哈特机器人产业技术研究院有限公司 | 一种顶标地图构建及机器人定位方法 |
CN110244772B (zh) * | 2019-06-18 | 2021-12-03 | 中国科学院上海微系统与信息技术研究所 | 移动机器人的领航跟随系统和领航跟随控制方法 |
US11935292B2 (en) | 2020-06-22 | 2024-03-19 | Carnegie Robotics, Llc | Method and a system for analyzing a scene, room or venue |
CN112464734B (zh) * | 2020-11-04 | 2023-09-15 | 昆明理工大学 | 一种基于视觉的四足动物行走运动特征自动识别方法 |
CN116197889A (zh) * | 2021-11-30 | 2023-06-02 | 珠海一微半导体股份有限公司 | 一种天花板视觉机器人的定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100791382B1 (ko) * | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치 |
CN101459857A (zh) * | 2007-12-10 | 2009-06-17 | 深圳华为通信技术有限公司 | 通信终端和信息系统 |
JP2009193097A (ja) * | 2008-02-12 | 2009-08-27 | Yaskawa Electric Corp | 移動ロボットの制御装置および移動ロボットシステム |
CN102043964A (zh) * | 2010-12-30 | 2011-05-04 | 复旦大学 | 基于云台摄像头的飞行器起降跟踪算法及跟踪系统 |
WO2012033173A1 (ja) * | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法 |
CN102596517A (zh) * | 2009-07-28 | 2012-07-18 | 悠进机器人股份公司 | 移动机器人定位和导航控制方法及使用该方法的移动机器人 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100776215B1 (ko) * | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
KR100877071B1 (ko) * | 2007-07-18 | 2009-01-07 | 삼성전자주식회사 | 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 |
-
2012
- 2012-09-09 CN CN201210332451.6A patent/CN103680291B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100791382B1 (ko) * | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치 |
CN101459857A (zh) * | 2007-12-10 | 2009-06-17 | 深圳华为通信技术有限公司 | 通信终端和信息系统 |
JP2009193097A (ja) * | 2008-02-12 | 2009-08-27 | Yaskawa Electric Corp | 移動ロボットの制御装置および移動ロボットシステム |
CN102596517A (zh) * | 2009-07-28 | 2012-07-18 | 悠进机器人股份公司 | 移动机器人定位和导航控制方法及使用该方法的移动机器人 |
WO2012033173A1 (ja) * | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法 |
CN102043964A (zh) * | 2010-12-30 | 2011-05-04 | 复旦大学 | 基于云台摄像头的飞行器起降跟踪算法及跟踪系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103680291A (zh) | 2014-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103680291B (zh) | 基于天花板视觉的同步定位与地图绘制的方法 | |
CN107356252B (zh) | 一种融合视觉里程计与物理里程计的室内机器人定位方法 | |
CN109211241B (zh) | 基于视觉slam的无人机自主定位方法 | |
US11340632B2 (en) | Georeferenced trajectory estimation system | |
Scaramuzza et al. | Visual odometry [tutorial] | |
CN103411621B (zh) | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
KR101439921B1 (ko) | 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 | |
Dong et al. | Lighting-invariant visual odometry using lidar intensity imagery and pose interpolation | |
CN108235735A (zh) | 一种定位方法、装置及电子设备、计算机程序产品 | |
WO2019241782A1 (en) | Deep virtual stereo odometry | |
CN112197770A (zh) | 一种机器人的定位方法及其定位装置 | |
He et al. | Wearable ego-motion tracking for blind navigation in indoor environments | |
CN110163963B (zh) | 一种基于slam的建图装置和建图方法 | |
CN112833892B (zh) | 一种基于轨迹对齐的语义建图方法 | |
CN111182174B (zh) | 一种扫地机器人补光的方法及装置 | |
CN110260866A (zh) | 一种基于视觉传感器的机器人定位与避障方法 | |
CN104898675A (zh) | 一种机器人智能导航控制方法 | |
KR20220124051A (ko) | 3차원 맵 생성 방법 및 시스템 | |
CN110751123A (zh) | 一种单目视觉惯性里程计系统及方法 | |
Rahman et al. | Contour based reconstruction of underwater structures using sonar, visual, inertial, and depth sensor | |
CN116429116A (zh) | 一种机器人定位方法及设备 | |
Khoshelham et al. | Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry | |
Huai et al. | Stereo-inertial odometry using nonlinear optimization | |
CN115049910A (zh) | 一种基于双目视觉里程计的足式机器人建图与导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20161221 Termination date: 20190909 |
|
CF01 | Termination of patent right due to non-payment of annual fee |