CN102087530B - 基于手绘地图和路径的移动机器人视觉导航方法 - Google Patents

基于手绘地图和路径的移动机器人视觉导航方法 Download PDF

Info

Publication number
CN102087530B
CN102087530B CN2010105771125A CN201010577112A CN102087530B CN 102087530 B CN102087530 B CN 102087530B CN 2010105771125 A CN2010105771125 A CN 2010105771125A CN 201010577112 A CN201010577112 A CN 201010577112A CN 102087530 B CN102087530 B CN 102087530B
Authority
CN
China
Prior art keywords
robot
target
point
map
pilot point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2010105771125A
Other languages
English (en)
Other versions
CN102087530A (zh
Inventor
李新德
吴雪建
朱博
戴先中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN2010105771125A priority Critical patent/CN102087530B/zh
Publication of CN102087530A publication Critical patent/CN102087530A/zh
Application granted granted Critical
Publication of CN102087530B publication Critical patent/CN102087530B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Navigation (AREA)

Abstract

一种基于手绘地图和路径的移动机器人视觉导航方法,首先根据较小偏差的原则提取运行路径中的关键引导点,将原始路径分成多段;然后,在各段运行过程中,对预先绘制环境地图中对应的参考图像以及机器人摄像头实时采集到的信息进行匹配,估计当前视野中最可能存在的图像,并利用SURF算法检测图像的特征,依靠KD-TREE方法快速求得匹配点,采用RANSAC算法求解参考图像与实时图像的投影变换矩阵,进而得到参考图像在实时图像中的位置,并融合里程计数据,得到机器人的参考位置。再后,根据获得的机器人参考位置,计算下一段的运行方向,直至运动到最后一个参考点。该机器人不需要精确的环境地图及精确运行路径就能运行到指定区域,并能避开动态障碍物。

Description

基于手绘地图和路径的移动机器人视觉导航方法
技术领域
本发明涉及的智能机器人导航领域,通过手绘地图的人机交互方式指导机器人利用视觉等传感器在动态未知环境中自主导航,对促使服务机器人早日走进人类家庭具有重要意义。
背景技术
《环球》杂志报道了(http://tekbots.eefocus.com/article/10-01/1688061264400769.html)比尔·盖茨曾经在《科学美国人》上发表文章,谈到机器人产业的未来。在他看来,机器人产业只要能发展到临界点,就可能会彻底改变这个世界,就是未来的电脑产业。印裔英国学者古普塔拉在他的文章《2020年,日本机器人统治世界》曾指出,到2020年,日本将是全世界机器人领域当之无愧的霸主;另外韩国三星经济研究所也曾经预测,到2020年,世界机器人市场规模将达到1.4万亿美元,韩国信息与通信部甚至曾订出2020年每家都有一个机器人的惊人目标。随着家庭机器人走进人类家庭越来越迫切,当机器人面对新环境,即具有个性化、差异化室内装修的家居环境,“脑海”是一片空白,也就是说,机器人面向一个未知家居环境,由于室内的物品的摆放也不是固定不变的,或者室内人员的任意走动,导致该环境也是动态的。对于非机器人专家,或者一般的家庭成员(机器人使用新手)来说,想轻松地操作机器人学习周围的环境,传统的依靠精确地图的绘制指导机器人导航,由于机器人定位精度的固有局限性,随着环境的复杂程度的提高,越来越显得力不从心。在这种情况下,如何探索一种直接简单的交互导航方式非常关键。
自从上个世纪60年代以来,移动机器人的导航研究一直是各国学者研究的重要领域。随着计算机处理水平的不断提高,视觉导航方法由于其自主性、廉价性和可靠性成为导航策略领域的研究热点,逐步成为机器人导航过程中的一种重要的传感器。对于移动机器人的视觉导航研究,DeSouza“Vision for mobile robot navigation:a survey”(DeSouza G.N.,Kak,A.C.IEEE Trans.Pattern Anal.Mach.Intell.,2002,24(2):237-267)和Bonin-Font“Visual Navigation for Mobile Robots:A Survey”(Bonin-Font F.,Ortiz A.,and OliverG.J.Intell.Robotics Syst.2008,53,(3):263-296.)等人对过去几十年来的发展状况进行了总结:导航的目的是使机器人到达指定的地点,因而大多数导航过程都需要相应的环境地图来引导机器人。目前,米制地图、拓扑地图以及混合地图是应用最为广泛的地图表示方式。对于米制地图,它表示环境的精确坐标信息,因而当环境比较大时对于计算机的存储能力以及环境的测量过程都是一个考验;对于拓扑地图,它表示环境中关键点的连通信息,对于环境的实际大小没有明确的表示,因而对于环境的描述并不是很完善;而将米制地图和拓扑地图综合起来而得到的混合地图则能够将环境在整体上用拓扑地图表示,在感兴趣的局部地区构建米制地图,从而丰富了环境信息,然而真正在导航过程中,机器人在拓扑节点之间的运行却很容易受到外界干扰的影响。
假想这样一种情形,当别人向我们问路时,我们通常会这样说:沿着某条路往前走,走大概多远或到达某个目标前,转向某个方向,继续往某个地方走,绕过某个目标,再走多远就到达了目的地,从开始到目的地的距离大概有多少等等。这就是人类在陌生环境下问路导航方式。Tversky等人“How Space Structures Language,in SpatialCognition:An Interdisciplinary Approach to Representing and Processing SpatialKnowledge”(B.Tversky,and P.Lee,in Proceedings of the Spatial Cognition:AnInterdisciplinary Approach to Representing and Processing Spatial Knowledge,Berlin,1998:157-176.),“What do Sketches Say about Thinking?”(in Proceedings of the AAAISpring Symposium,Sketch Understanding Workshop,Stanford University,2002:148-151.)从人类认知学的角度出发,分析了手绘地图在人类导航过程中的作用,并指出路线图和路线方向对人类导航的关键作用,以及手绘地图与实际地图的偏差程度对导航结果带来的影响。在考虑前面介绍的其它地图表示方式不足的基础上,借鉴这种仿人导航方式,决定采用手工绘制地图的方式来指导机器人导航,该手绘地图的基本元素包括环境中的各个实体(用实际图像或实体符号表示)、机器人、运行路径和起始点至目标点的距离。人通过分析机器人所要运行的环境,将环境中的关键目标、机器人的位置和方向在地图上标示出,接着绘制一条机器人由起点到达目标终点区域的路径,并标注概略距离,最终完成地图的绘制。
基于手绘地图的移动机器人导航目前研究的还很少。Kawamura等人在文献“TowardPerception-Based Navigation Using EgoSphere[”(Kawamura K.,Peters II R.A.I,andWilkes D.M.,etc.in Proceedings for SPIE Conference,Boston,MA,October,2001.),“Toward Egocentric Navigation”(Kawamura K.,Koku A.B.and Wilkes D.M.etc.International Journal of Robotics and Automation,2002,17(4):135-145.)中提出了一种基于Egosphere的导航方法,这种方法所依靠的地图也是一种不精确的地图,可以通过手工在地图中的大致位置上绘制相应的路标,而后给机器人提供一个目标位置以及由几个关键点组成的路径,这样机器人便可以通过传感器感知到的实时状态SES(Sensory EgoSphere)与关键点处所应感知到的状态LES(Landmark EgoSphere)进行比较,从而指导机器人依次通过各个关键点。然而,这种方法需要机器人具有很强的感知能力,若机器人不能在任意时刻感知到两个以上的路标,则导航很容易失去控制。Chronics和Skubic等人在基于手绘地图的导航方面做了大量的工作“Extracting navigation states from a hand-drawn map”(Skubic M.,Matsakis P.,Forrester B.,and Chronis G.in Proceedings of the IEEEInternational Conference on Robotics and Automation(ICRA),Seoul,Korea,,vol.1,2001:259-264.),“Generating Multi-Level Linguistic Spatial Descriptions from RangeSensor Readings Using the Histogram of Forces”(Skubic M.,Matsakis P.,Chronis G.and J.Keller.Autonomous Robots,2003,14(1):51-69),“Qualitative Analysis ofSketched Route Maps:Translating a Sketch into Linguistic Descriptions”(Skubic M.,Blisard S.,Bailey C.,etc.IEEE Transactions on Systems,Man and Cybernetics,2004,34(2):1275-1282.),此种导航方法仅仅局限于声纳作为唯一的传感器,其实现过程主要分为三个步骤:手工绘制地图和路径,从所绘地图中提取关键点(QLS),实时检测是否匹配到相应的QLS;仿真和实际实验表明,在简单环境下该方法能够达到理想的效果;然而,受困于其传感器的检测能力,在复杂的环境下,此方法在实时匹配过程中很容易出现误匹配的情形,也就可能导致导航的失败。
本发明提出的基于手绘地图的导航方法,该手绘地图(路标的概略位置和路标的图像信息)、路径(包括起点、终点及路线图)和机器人的起始点(包括粗略位置和方向)是三个必要的先验人机交互信息,利用机器人自带单目摄像机作为主要的传感器来引导机器人的运行,利用声纳来辅助机器人进行避障,并融合里程计信息来粗略定位,最终在它们的相互协作下完成导航任务。
发明内容
技术问题:本发明主要提出了一种基于手绘地图和路径的移动机器人视觉导航方法。该方法首先根据较小偏差的原则提取运行路径中的关键引导点,将原始路径分成多段;然后,在各段运行过程中,对预先绘制环境地图中对应的参考图像以及机器人摄像头实时采集到的信息进行匹配,这里提出预测估计的方法估计当前视野中最可能存在的图像,以加速图像的匹配过程,并利用SURF(Speed Up Robust Features)算法检测图像的特征,依靠KD-TREE方法快速求得匹配点,采用RANSAC(RANdom SAmple Consensus)算法求解参考图像与实时图像的投影变换矩阵H,进而得到参考图像在实时图像中的位置,并融合里程计数据,得到机器人的参考位置。再后,根据获得的机器人参考位置,计算下一段的运行方向,直至运动到最后一个参考点。最后,通过一系列的实验,充分验证了本发明在机器人不需要精确的环境地图及精确运行路径就能运行到指定区域,并能有效地实时避开动态障碍物。
技术方案:本发明的基于手绘地图和路径的移动机器人视觉导航方法包括:手绘地图的绘制与表示、基于预测估计的机器人导航,
一、手绘地图的绘制与表示
将真实地图M与不精确的手绘地图建立有效的映射关系,
其手绘地图表示为m{L,P,R},其中
Figure BDA0000036646010000033
表示路标(尺寸,位置)在手绘地图中的概略位置,即存在映射关系路标(尺寸,位置)a L
Figure BDA0000036646010000035
表示机器人的初始概略位姿,这里包含路径的起始点S,终点D,以及路径线路图,主要从所绘路径的延伸趋势出发,将原始路径分成几段,每段都有一个关键引导点,将机器人引导到关键引导点附近,然后向着下一个关键引导点运行;为了便于机器人的控制,关键引导点间的运动采用直线运行的方式,在原始路径上提取关键引导点的较小偏差原则是:既能反映出机器人原有的运动趋势,又能减少机器人整体的旋转频率,即选取的关键引导点的数目尽量少;
二、基于预测估计的机器人导航
1)预测估计方法:两个黑色节点表示此时的关键引导点和下一个关键引导点,设机器人Robot已经处在关键引导点Nthis并且朝向两关键引导点Nthis和Nnext之间连线
Figure BDA0000036646010000037
的方向,关键引导点Nthis和Nnext线段之间的两个灰色节点N0.5和N0.75分别表示在矢量
Figure BDA0000036646010000038
方向上与关键引导点Nthis相距在0.5Dist(Nthis,Nnext)和0.75Dist(Nthis,Nnext)的位置,其中Dist(Nthis,Nnext)表示两点Nthis和Nnext之间的距离;目标1至目标4是点Nnext周围与其相距在一定摄像机视野范围内的环境中的目标,d1至d4以及α1至α4分别表示各个目标与点Nnext的距离以及各个目标与机器人运行方向
Figure BDA0000036646010000039
的夹角,提出了两个约束函数
Figure BDA00000366460100000310
Figure BDA00000366460100000311
它们分别表示目标与Nnext的距离,以及与矢量
Figure BDA00000366460100000312
方向偏离程度对其作为参考目标的影响,D表示原始图像的平均拍摄距离,α表示参考目标与矢量
Figure BDA0000036646010000041
的偏离角,d表示参考目标与关键引导点Nnext的距离,作为每个参考目标i的综合可能性程度F(i),可通过下式计算:F(i)=f1(di)gf2i),根据经验,若综合可能性程度的最大值
Figure BDA0000036646010000042
则认为点Nnext附近不存在参考目标,否则,使F(i)取最大值的目标i可以作为参考目标;若存在多个目标都能使F(i)取得最大值,则选择这些目标中α最小的做为参考目标;
2)比例尺更新:设更新前地图的比例尺是Rulerold,该段运行开始的关键引导点位置为L1,结束点位置为L2,机器人根据图像信息定位结束点在地图上的位置为L′2,则更新后的比例尺Rulernew利用下面的函数关系式进行计算:
Rule r new = Dist ( L 1 , L 2 ) Dist ( L 1 , L 2 ′ ) gRule r old , RC Rule r old , other
其中,Dist(.)表示两点间的距离,RC表示比例更新条件,根据经验这里设为
0.33<Dist(L1,L2)/Dist(L1,L′2)<3;
3)无约束导航,可以归纳以下3个步骤:
a)按照地图比例尺计算本关键引导点与下一个关键引导点间的距离,并据此确定在这两个关键点之间的运行模式。
b)按照a)中的模式进行运行,并按照预测估计的方法在必要的时候旋转摄像头寻找或跟踪参考目标。
c)机器人运行到下一个关键引导点附近后,根据图像信息或里程计信息进行定位,而后更新此关键引导点的位置以及地图比例尺,最后返回到a)中继续下一阶段的运行,直到运行到最后一个关键引导点。
4)避障导航
当机器人在行进的过程中遇到静态或者动态障碍物时,为了有效地避开环境中的静态或动态障碍物,并能在避障的过程中同时进行基于视觉的导航,机器人能够对避障前的状态进行记忆,避障之后,机器人返回到避障前的状态继续运行或者是进入一个新的状态。
有益效果:本发明方法使机器人不需要精确的环境地图及精确运行路径,以“仿人问路”的方式就能运行到指定区域,并能实时避开动态障碍物,当改变参考物的位置和数量、手绘路径等,导航依然能够顺利进行,充分体现了该方法具有简单、灵活、高效和鲁棒性强等优点,甚至便于扩展到人与机器之间的人机自然语言交互方式,对机器人走进家庭、和谐友好地服务人类具有重要的意义。
附图说明
图1绘制的路径及提取的关键引导点,
图2候选点选取流程图,
图3关键引导点选取流程图,
图4参考目标的预测估计,
图5与距离有关的约束函数,
图6与偏离方向有关的约束函数,
图7.机器人无约束导航流程图,
图8.机器人动态避障流程图。
具体实施方式
1手绘地图的绘制与表示
假设实际环境地图为M,
这里的路标(尺寸,位置)表示导航设置的关键路标;静态障碍物(尺寸,位置)表示在较长的时间段内静止不动的物体,由于其特征不是很明显,因此不能用作导航的参考物,但机器人在行进过程中,考虑到避障,必须避开这些静态障碍;动态障碍物(尺寸,位置)表示在机器人行进的过程中,环境中物体的位置在不停地变动;任务区(目标物,位置,范围)表示目标或者任务作业区域。移动机器人(尺寸,位置)的初始位姿。
手绘地图的绘制比较简单,打开交互绘制界面,由于预先在系统中保存了环境中关键路标的图像信息,可以用鼠标浏览图像库找到它们,并根据它们在实际环境中所处的大体位置,随意拖至绘图面板中对应的大致位置;根据机器人在实际地图中的概略位置和方向,在手绘地图中对应位置绘制它,并同时确定路径的起点,然后绘制路径和目标点。其手绘地图表示为m{L,P,R},其中
Figure BDA0000036646010000053
表示路标(尺寸,位置)在手绘地图中的概略位置,即存在映射关系路标(尺寸,位置)a L这里包含路径的起始点S,终点D,以及路径线路图,该路径图不是机器人走的实际或者真实路径,且该路径具有随意性、灵活性、不精确性,而只是指引移动机器人沿该路径的大致趋势行走。
Figure BDA0000036646010000056
表示机器人的初始概略位姿。手绘地图m{L,P,R}与实际环境地图之间存在“松散”映射关系。这是因为环境的精确大小无法获知,地图也没有精确的比例尺,所以手工绘制的路径无法表示机器人要走的精确路线。另一方面,绘制的路径对机器人起到的只是指引作用,机器人导航的最终目的是到达目标区域,因此机器人没有必要完全按照指定路径运行。于是本发明从所绘路径的延伸趋势出发,将原始路径分成几段,每段都有一个关键引导点,将机器人引导到关键引导点附近,然后向着下一个关键引导点运行。为了便于机器人的控制,关键引导点间的运动采用直线运行的方式,这样可以有效地避免机器人频繁旋转所带来的累积误差。在原始路径上提取关键引导点的较小偏差原则是:既能反映出机器人原有的运动趋势,又能减少机器人整体的旋转频率,即选取的关键引导点的数目尽量少。
关键引导点的提取过程如图1所示,图中的曲线表示所绘制的原始路径,最小的圆圈表示曲线的数字化表示,次小的圆圈表示关键引导点的候选点,最大的圆圈表示所提取的关键引导点,虚线表示机器人的大致引导方向,它可以与原始的路径进行比较。无论是候选点还是关键引导点,都是从原始的用于表示曲线的离散数字点中提取出来的。具体的提取过程如下:
(1)候选点的提取。从起点开始,沿着路径的方向依次检测各个离散数字点,设置角度变化阈值为M,候选点最小和最大距离阈值分别为Dmin和Dmax。具体的流程图如图5所示。
根据经验选取M为20度,Dmin为1DP,Dmax为8DP。根据以上参数,按照图2流程图计算,就可以得到如图1所示的次小圆圈所示的候选点。
(2)关键引导点的提取。如图3所示为从候选点中得到关键引导点的流程图。其中,Ti表示第i个候选点,T表示候选点的总数,ib和ie表示临时的开始的检测点和结束检测点,H表示两个关键引导点之间的最大候选点个数,
Figure BDA0000036646010000061
表示第ib和第ie个候选点之间的直线,表示第ib和第ie个候选点之间的所有原始离散点p至
Figure BDA0000036646010000063
的距离的最大值,DP表示原始曲线上任意两个相邻离散点之间的像素距离,α表示确定关键引导点的阈值。
根据试验经验,选取H为4DP,α为1.0。
通过(1)(2)两个步骤,就可以从原始路径上获得关键引导点。
2基于视觉的机器人粗定位
为了使机器人在导航行进的过程中,根据视觉获取的信息,粗略的定位机器人。这里给出两个必要的假设:1)原始图像的大致拍摄距离已知,且环境特征较丰富;2)原始图像里的环境信息在自身垂直平面内变化很小(即环境中具体物体在垂直方向上的高度变化不大)。
2.1近似距离的获取
根据针孔模型如图5所示,空间中的任一点由摄像机坐标系向图像坐标系的转换过程都符合中心射影或透视投影理论。其中OcXcYcZc和OiXiYi分别表示摄像机坐标系和图像坐标系,OcXcYc平面和OiXiYi平面是相互平行的,设直线OcXc和OcYc分别表示摄像机的垂直轴线和水平轴线,Pc、Qc为摄像机坐标系下的空间点并且PcQc平行于摄像机的垂直轴线,P′cQ′c为PcQc沿着ZcOc方向平移一段距离得到的空间线段,Pi和P′i分别为Pc和P′c在图像坐标系下的投影,Qi和Q′i分别为Qc和Q′c在图像坐标系下的投影,f表示摄像机的焦距,为图像坐标系中心与光心(摄像机坐标系中心)之间的距离。
由图5分析可知:
xi/xc=mi/mc=f/zc                   (1)
x′i/x′c=m′i/m′c=f/z′c         (2)
在摄像机焦距f保持不变的前提下,由(1)和(2)可以得到:
z′c/zc=[(x′c-m′c)/(xc-mc)].[(xi-mi)/(x′i-m′i)]     (3)
根据平行关系,x′c-m′c=xc-mc,因此可以得到z′c/zc=(xi-mi)/(x′i-m′i)。
设PcQc和P′c′Q′c为原始图像与导航过程中实时图像里对于某个环境的同一对应线段。根据上面的假设(2)可以得到,x′c-m′c≈xc-mc,因此同样可以得到
z′c/zc≈(xi-mi)/(x′i-m′i)                             (4)
将上面的同一对应线段推广到同一环境信息,则可以得到下面的结论:
d r ≈ p 1 p 2 d o - - - ( 5 )
这里dr表示实时获取的目标与摄像头之间的距离;do表示原始目标与摄像头之间的距离;p1表示目标的原始图像在距摄像机do时的像素高度;p2表示目标的原始图像在距离dr时的像素高度,因此,只需要得到实时图像在原始图像中的大致位置,根据原始图像与摄像头的距离信息,就可以求出摄像机与实时图像的距离。
2.2图像匹配算法
由于Speed Up Robust Features(SURF)算法实际上是对SIFT算法的改进。它能够继承SIFT算法对于图像的亮度、视角、仿射变换、尺寸变化等所具有的鲁棒性特性,又能极大地提高图像的检测速度,解决了SIFT方法在图像匹配应用中所面临的实时性难题“Distinctive imagefeatures from scale-invariant keypoints”(Lowe,D.G..International Journal of Computer Vision,2004,60(2):91-110.),“SURF:speed up robust features”(Bay H.,Tuvtellars T.,Gool,L.V.inProceedings of the European Conference on Computer Vision,2006:404-417.)。利用SURF算子求取各自的特征点,每个SURF特征都是用128维的向量表示的,按照KD-TREE“基于特征点的景象匹配技术研究”(徐秀云,南京理工大学硕士学位论文,2009.)的方法搜索原始图像与实时图像中每个特征点间的欧氏距离的最小值和次小值,并按照最小值和次小值的比值小于阈值T(这里取0.6)的原则,即可求出两图像中的对应点。令点P(x,y)为原始图像中的任一特征点,P′(x′,y′)为其在实时图像中的对应点,P和P′存在一种投影变换关系,它描述了两幅图像之间的对应关系。我们可以用3×3的矩阵H描述该对应关系,H也称为投影变换矩阵(单应性矩阵)。H与P、P′的具体关系可以用下式描述:
x ′ y ′ 1 = H x y 1 = h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 x y 1 - - - ( 6 )
根据原始图像和实时图像的对应点,按照RANSAC算法“Random sample consensus:Aparadigm for model fitting with applications to image analysis and automated cartography”(FISCHLER M.,BOLLES R..CACM,1981,24(6):381-395.),则可能得到投影变换矩阵H,若得不到H,则说明两图像不具有匹配关系,原来的对应点大都是不可靠点,反之,则可根据求得的矩阵H进一步判别对应关系的有效性。为了验证有效性,假设将原始图像的四个顶点A、B、C、D按照式(5)投影到实时图像中,就可以得到对应点A′、B′、C′、D′。根据本发明给出的假设2),可以容易得出原始图像在实时图像中的投影位置应该处在一个大致的矩形框内,并且该矩形框与原始图像的大小以及位置不存在巨大的差异,因此可以通过投影得到的矩形框的信息来进一步判定H的正确性。设原始图像的宽和高分别是WS和HS,判别原则如下:
Figure BDA0000036646010000081
其中,A′x、A′y分别表示A′的横坐标和纵坐标,其他点依此类推,Angle(.)表示两向量的夹角,|.|表示向量的长度。对于按照H所求得的点A′、B′、C′、D′,若满足式(7),则认为这四点所描述的轮廓就是原始图像在实时图像中的位置,然后,通过式(8)计算原始图像在实时图像中的高度为p2
p 2 = 1 2 | D y ′ + C y ′ - A y ′ - B y ′ | - - - ( 8 )
已知p1和do,由式(5),很容易计算出实时图像与摄像机的大致距离dr
3基于预测估计的机器人导航
本发明所提出的导航方法,对于机器人的传感器要求是:带有里程计设备、声纳设备及车载可水平旋转摄像头。在导航过程中,图像信息用于粗略地描述机器人与参考目标的相对位置,而里程计信息是在图像信息不够充分或不需要图像处理的阶段,用于辅助机器人运行的。
3.1预测估计方法的提出
本发明提出了一种预测估计的方法,该方法具体表现在两个方面:
(1)预测摄像头视野内图像是否需要处理;若当前视野内的图像不需要处理,则可以省略(a)图像的特征提取,(b)实时图像与原始图像的匹配。
(2)当视野内出现需要处理的图像时,预测它最可能是哪类图像。若预测到实时图像属于某种图像,则可以缩小待匹配图像的范围,减小待匹配图像的数目,因而可以缩短图像处理过程图像匹配的运算时间。因此,这种预测估计的方法可以有效地提高机器人的实时控制性能,在探测目标时具有主动性,而不是被动的,所以这种预测估计的方法也可以允许地图中出现两个或两个以上的相同目标,这是因为它能够事先确定要处理的是哪一个目标。下面详细介绍这种方法:
图4中,两个黑色节点表示此时的关键引导点和下一个关键引导点,假设机器人Robot已经处在关键引导点Nthis并且朝向矢量
Figure BDA0000036646010000083
的方向,两个灰色节点N0.5和N0.75分别表示向量
Figure BDA0000036646010000084
上与Nthis相距在0.5Dist(Nthis,Nnext)和0.75Dist(Nthis,Nnext)的位置。目标1至目标4是点Nnext周围与其相距在一定摄像机视野范围内的环境中的目标,d1至d4以及α1至α4分别表示各个目标与点Nnext的距离(通过像素距离以及地图比例尺可以计算得出)以及各个目标与机器人运行方向
Figure BDA0000036646010000085
的夹角。经过分析,作为参考目标与该目标和关键引导点的距离以及该目标偏离机器人的运动方向的程度有关:距离太近或太远,受困于图像的识别能力,均不宜识别图像;方向偏离太多,也不便于机器人控制摄像头来识别图像。基于这种考虑,我们提出了两个约束函数
Figure BDA0000036646010000091
Figure BDA0000036646010000092
它们分别表示目标的距离与方向偏离对其作为参考目标的影响,建模如图5和6所示。图5中D表示原始图像的平均拍摄距离,α表示参考目标与矢量的偏离角,d表示参考目标与关键引导点Nnext的距离。对于图4中的每个目标i,其可以作为参考目标的综合可能性程度F,可通过下式计算:
F(i)=f1(di).f2i)                                 (9)
根据经验,若综合可能性程度最大值
Figure BDA0000036646010000094
则认为点Nnext附近不存在参考目标。否则,使F(i)取最大值的目标i可以作为参考目标,若存在多个目标都能使F(i)取得最大值,则选择这些目标中α最小的做为参考目标。例如,在图4中,通过计算可知目标2可以作为参考目标。
3.2更新比例尺
在手绘地图中,已经给出了各个目标的像素位置,以及起点至终点的大致直线距离,再根据起点至终点的像素距离,就可以得到手绘地图与实际环境的初始比例尺;机器人在关键引导点附近基于图像的定位与里程计信息进行比较,则可以更新地图的比例尺。
若更新后机器人在地图上的位置有了变化,则可以通过该变化更新地图的比例尺。
设更新前地图的比例尺是Rulerold,该段运行开始的关键引导点位置为L1,结束点位置为L2,机器人根据图像信息定位结束点在地图上的位置为L′2,则更新后的比例尺Rulernew利用下面的函数关系式进行计算:
Rule r new = Dist ( L 1 , L 2 ) Dist ( L 1 , L 2 ) gRule r old , RC Rule r old , other
其中,Dist(.)表示两点间的距离,RC表示比例更新条件,根据经验这里设为
0.33<Dist(L1,L2)/Dist(L1,L′2)<3;
3.3无约束导航
这里的无约束导航即在导航中无需考虑避障。机器人导航的过程可以归纳以下3个步骤:
a)按照地图比例尺计算本关键引导点与下一个关键引导点间的距离,并据此确定在这两个关键点之间的运行模式。
b)按照a)中的模式进行运行,并按照预测估计的方法在必要的时候旋转摄像头寻找或跟踪参考目标。
c)机器人运行到下一个关键引导点附近后,根据图像信息或里程计信息进行定位,而后更新此关键引导点的位置以及地图比例尺,最后返回到a)中继续下一阶段的运行,直到运行到最后一个关键引导点。
根据上面的步骤,可以将机器人的控制方式看成是分段进行的,即每个阶段的运行都是从当前的关键引导点开始,到下一个关键引导点结束;在结束之前,对机器人信息与地图信息进行更新,为下一个阶段的运行做准备。机器人无约束导航的流程图如图7所示,其中Nthis表示当前的关键引导点,Nnext表示下一个关键引导点,Nlast表示最后一个关键引导点,Dist(Nthis,Nnext)表示Nthis和Nnext的距离,DT用于表示判别机器人在两个关键引导点间运行模式的距离阈值,Ruler表示关于手绘地图像素与实际距离的比例尺,ImageFlag用于保存当前需要检测的图像类别,DR-O表示该参考关键引导点与其参考目标之间的距离。根据图中的标号所示,下面对其具体解释如下:
1)是每段运行的开始,明确机器人的位置(也就是Nthis)、方向Rθ,以及Nnext,这一步就是要使Rθ转向的方向,为下一步机器人直行做准备。
2)确定运行的模式,Dist(Nthis,Nnext)是根据两关键点的像素位置及比例尺计算出来的,DT可以根据运行环境的大小适当选取,这里将其设置为1米,即当这两个关键点的距离小于1米时,直接按照里程计信息控制机器人进行直行,而不需要依靠视觉信息进行控制,增强了机器人的实时控制性能。
3)按照里程计信息到达这个关键引导点,若是在前面的运行中一直是直行,则不需要更新,但是需要考虑环境中存在障碍物的情形(3.3小节讨论),在这种情况下,若机器人没有一直直行,则需要更新Nthis的相关位置信息。
4)是参考目标的预测估计,详见3.1节。
5)为了便于模块8)、9)中对参考目标进行搜索跟踪,首先应将摄像头旋转至适当的位置,然后以此位置为基准进行目标搜索。如图4中的角度β,即可以作为摄像头相对于机器人运行方向的基准角度。
6)基于预测估计的方法,当机器人运行的距离小于0.5Dist(Nthis,Nnext)时,也即机器人运行到图4中的N0.5之前时,对环境进行图像识别处理意义不是很大,因此在这一段只对机器人进行直行控制,而不进行图像处理,当机器人运行到N0.5之后时再进行图像搜索与跟踪。
7)这一模块在ImageFlag中保存模块4)中所得到的参考目标的图像类别,而环境中的其他图像种类则不包含在内。
8)是第2节中所介绍的图像匹配部分,它的功能在于求解实时图像与参考目标图像的投影变换矩阵H以及检测H是否合理。如果不合理,则说明实时图像没有可用信息,在第9)步应进行目标的搜寻工作;如果合理,则根据原始参考图像在实时图像中的位置信息,于下一步调整摄像头方向以跟踪参考目标。
9)寻找目标过程,就是以5)中所计算出的角度β为基准,在一定的角度范围η内搜索目标的过程,即不停地旋转机器人上的摄像头,使其方向与机器人相对方向保持在[β-0.5η,β+0.5η]内,直到找到目标为止。
10)对前两个模块的处理结果进行分析的过程。如果8)、9)给出的结果若实时图像中没有原始参考图像的匹配结果,则说明没有找到目标,则程序转到13)步进行处理;如果8)、9)计算出原始参考图像在实时图像中的位置,则也不一定说明找到了目标,这是由于环境的复杂性对图像的检测可能存在干扰,例如,假设某个环境与参考目标图像具有相似的SURF特征,则当摄像头面对这个环境时也有可能计算出合理的投影变换矩阵H,进而在实时图像中得到相应的位置,干扰了我们的决策。因此,为了避免这种情况的出现,我们决定对前n次合理的检测结果不作分析,而只是将结果(如原始参考目标在实时图像中的高度)保存在一个队列中,当第n+1次检测的匹配图像时,则认为找到了目标,并同样将结果保存在队列中,以便用于11)步的处理。
11)这个模块是判断机器人是否到达本阶段的后一个关键引导点。由于在前一步中已经找到了目标,并且将相应的结果保存在队列中,因此,可以根据队列中保存的结果计算机器人与目标的距离。
当机器人找到目标并靠近目标的过程中,也可以根据上面已经计算出的机器人与目标的距离预测还需直行多少距离才能达到目标,这种方法用于机器人将要到达目标,突然遇到强烈的干扰而无法识别环境时,临时利用里程计信息辅助运行到目标的情形。
12)此时,机器人已经到达参考目标附近。这里需要在参考目标方向附近旋转摄像头,多次多方位扫描参考目标信息,以得到更精确的目标距离和方向。
13)判别是否有必要继续直行来寻找该阶段的后一个关键引导点。在Dist(Nthis,Nnext)前面存在一个系数1.2,这是为了增加目标检测的时间,这是根据地图的不精确性而给予的补偿处理。
14)此时,机器人的视野范围内所存在的信息不足以确定机器人的位置,需要在机器人周围360°范围内搜索信息来完成机器人的定位。同12)中的过程相似,将扫描范围设定在[-180°,180°],并在此范围内只扫描一次。在扫描过程中,记录所扫描到的相应参考目标的高度信息与角度信息。扫描完成后,根据所扫描到的每个参考目标,利用中值滤波计算机器人的位置,而后,将各个参考目标所计算出来的机器人位置求取均值,以得到最终的机器人位置。
15)是利用预测估计的方法为14)中的扫描过程提供参考目标。当机器人开始360°扫描时,假设周围与其相距在一定摄像机视野范围内的环境中存在k个目标,第i个目标中心相对于机器人当前位置的角度为αi。考虑到地图的不精确性,我们将第i个目标可能出现的方向设定在集合Ψi内,其中Ψi={x|αi-60°<x<αi+60°,x∈Z}。则在扫描过程中,对于每个扫描周期,首先清空ImageFlag,然后检测当前摄像头的方向φ与每个Ψi的关系,当φ∈Ψi时,将第i个目标所表示的图像类别保存入ImageFlag中,最后根据ImageFlag中的信息进行扫描过程。
16)更新ImageFlag的过程,即是清空ImageFlag中保存的信息的过程,为下一个阶段的运行提前做好初始化。
17)是每段运行的终点。根据12)或者14)中所定位出的机器人位置信息,根据3.2节比例映射关系,更新机器人在地图上的位置,并将此点更新为下一阶段的初始关键引导点。
18)此时,机器人已经到达最后一个关键引导点附近。由于在17)中可能更新了最后一个关键引导点的位置,因此,为了到达原始的最后一个关键引导点,需要在这一步根据更新前后的位置做补偿运行,使机器人到达原始终点。
3.4避障导航
为了有效地避开环境中的静态或动态障碍物,并能在避障的过程中同时进行基于视觉的导航,避障之后,机器人会返回到避障前的状态继续运行或者是进入一个新的状态。图8为避障导航的流程图,其避障步骤如下:
1.在机器人的直行过程中利用声纳实时检测前方是否存在障碍物,若不存在,则继续直行,否则,记录当前机器人的方向Rθ并转向步骤2。
2.根据声纳数据判断机器人旋转方向以避开障碍物,转向步骤3。
3.机器人旋转一定角度,根据声纳数据判断此时其前方是否存在障碍物,若不存在,则机器人停止旋转并前行一小段距离,转向步骤4,否则,继续转向步骤3。
4.机器人按照3.3节避障前无约束导航中的运行模式继续运行(例如,前行并调整摄像头检测跟踪参考目标等),转向步骤5。
5.根据里程计信息与图像信息判断机器人是否到达下一个关键引导点,若是,则转向步骤8,否则,转向步骤6。
6.根据机器人上的声纳信息检测Rθ方向处是否存在障碍物,若是,则转向步骤7,否则,转向步骤9。
7.根据机器人上的声纳信息检测机器人前方是否存在障碍物,若是,则转向步骤2,否则,转向步骤4。
8.退出避障状态,转入无约束导航状态,并进行下一阶段的运行分析。
9.机器人转向Rθ方向,退出避障状态,转入无约束导航状态,并按照避障前的模式继续运行。
将避障导航模块结合无约束导航导航模块,机器人就可以在复杂的环境中有效地完成导航任务。
4.实验结果
本实验采用美国ActivMedia Robotics公司的Pioneer3-DX机器人作为实验平台来实现上面介绍的导航方法。采用C/S模式对机器人进行控制,其中将机器人作为服务器端,负责图像、声纳和自身里程计信息数据的采集与传输以及控制命令的接收及执行;将高性能PC机作为客户机端,负责人机交互和各种不同数据的计算分析,并发送控制指令,从而可以完成机器人的自主导航。
该实验所需的硬件设备包括:内置PC的机器人一台、PTZ摄像头、声纳传感器、图像采集卡、无线网卡、无线路由器、高性能PC机一台等。
客户机端的软件设计包括地图的绘制模块、机器人状态显示模块、通信模块、导航算法设计模块等。考虑到Visual C#环境对于界面开发的易用性以及Visual C++环境开发项目的通用性,这里考虑利用C#和C++语言在Visual Studio 2008开发环境下的混合编程。即基于Windows Forms窗体应用程序,利用C#语言开发机器人的运行环境地图,用于用户地图的绘制、参数的设置以及机器人运行状态的显示;基于Win32 Console应用程序,利用C++语言导航系统中其他模块的设计,例如通信、图像检测匹配、导航算法设计等部分。
在服务器端,软件设计部分主要包括通信模块、传感器信息获取模块、底层驱动模块等,由于ActivMedia Robotics公司提供了一套关于Pioneer3-DX上的传感器及电机的API接口软件ARIA,结合此软件利用C#/C++语言可以很容易地编写出导航系统的各个模块。
为了验证本发明提出的导航算法,本发明从五个不同角度进行了如下实验。
实验一:在手绘路径不变的情况下,改变参考物在地图上的位置,观察机器人的实际运行情况。实验结果分析如下:
当参考物在小圆圈范围内位置发生变动时,机器人总能正确的运行到目标位置附近。即使参考物位置发生较大变动,但只要保证各个相对参考物相对位置不变,机器人仍然能够正确快速的运行到目的地。
实验二:在手绘路径不变的情况下,改变参考物的数量,观察机器人的实际运行情况。每次改变参考物数量,实验结果分析如下:
当环境较小时,改变参考物的数量时,对机器人的导航影响不是很大,但环境足够大,且参考物的数量极少时,其获取图像的信息就会受到限制,只能依靠里程计定位与导航,因此其导航结果会受到影响。
实验三:在参考物不变的情况下,每次实验通过改变手绘路径,观察机器人的实际运行情况。实验结果分析如下:
当改变手绘路径时,机器人实际运行的路径并不是保持不动,而是发生相应改变,但它仍然能够有效的导航到目标区域。从而可以看出,手绘路径的不精确性,并不影响其导航的结果。
实验四:在八个参考物中,有三个参考物完全相同,通过它们之间位置变化,检测导航算法在不同方位对相同参考物的识别能力,观察机器人的实际运行情况。实验结果分析如下:
当环境中有多个相同的参考物,而手绘路径保持不变时,由于本发明提出了基于预测估计的图像处理方法,能够有效预测到相同参考物中的哪一个,因此其导航结果不受任何影响。实验五:在机器人运行过程中添加动态障碍物。实验结果分析如下:
当机器人在沿着手绘路径导航的过程中,任意动态的障碍物靠近它或者在其附近活动,阻碍其前行方向,机器人能够实时的避开它们,并依靠手绘路径的指导,有效地导航到目标区域。
实验结果总结如下:
1)无论在何种情况,机器人运行的真实路径的大体趋势是一直的,与手绘路径的走向相似,除了在动态避障的过程中,实际路径有点波动,但避开障碍物后,马上能够恢复手绘路径的趋势,因此说明手绘地图在导航中的关键作用。
2)通过改变参考物的位置和数量、手绘路径等,导航依然能够顺利进行,可以看出本发明提出的导航方法具有较强的鲁棒性。
3)由于考虑不精确信息,其应用可以扩展到自然语言,具有较强的灵活性和简单易操作性,便于人机交互。
4)可以看出本发明提出的导航方法以“仿人问路”的方式,在手绘路径的指导下能够有效的指导机器人导航。

Claims (2)

1.一种基于手绘地图和路径的移动机器人视觉导航方法,其特征在于该方法包括:手绘地图的绘制与表示、基于视觉的机器人粗定位、基于预测估计的机器人导航,
一.手绘地图的绘制与表示
将真实地图M与不精确的手绘地图建立有效的映射关系,
Figure FDA0000104417350000011
其手绘地图表示为 
Figure FDA0000104417350000012
其中 
Figure FDA0000104417350000013
表示路标(尺寸,位置)在手绘地图中的概略位置,即存在映射关系路标(尺寸,位置)a 
Figure FDA0000104417350000014
表示机器人的初始概略位姿, 
Figure FDA0000104417350000015
这里包含路径的起始点S,终点D,以及路径线路图,主要从所绘路径的延伸趋势出发,将原始路径分成几段,每段都有一个关键引导点,将机器人引导到关键引导点附近,然后向着下一个关键引导点运行;为了便于机器人的控制,关键引导点间的运动采用直线运行的方式,在原始路径上提取关键引导点的较小偏差原则是:既能反映出机器人原有的运动趋势,又能减少机器人整体的旋转频率,即选取的关键引导点的数目尽量少;
二.基于视觉的机器人粗定位
为了使机器人在导航行进的过程中,根据视觉获取的信息,粗略的定位机器人;这里给出两个必要的假设:1)原始图像的大致拍摄距离已知,且环境特征较丰富;2)原始图像里的环境信息在自身垂直平面内变化很小,即环境中具体物体在垂直方向上的高度变化不大;
2.1近似距离的获取
Figure FDA0000104417350000016
这里dr表示实时获取的目标与摄像头之间的距离;do表示原始目标与摄像头之间的距离;p1表示目标的原始图像在距摄像机do时的像素高度;p2表示目标的原始图像在距离dr时的像素高度;
三.基于预测估计的机器人导航
1)预测估计方法:两个黑色节点表示此时的关键引导点和下一个关键引导点,设机器人Robot已经处在关键引导点Nthis并且朝向两关键引导点Nthis和Nnext之间连线 
Figure FDA0000104417350000017
的方向,关键引导点Nthis和Nnext线段之间的两个灰色节点N0.5 和N0.75分别表示在矢量 
Figure FDA0000104417350000021
方向上与关键引导点Nthis相距在0.5Dist(Nthis,Nnext)和0.75Dist(Nthis,Nnext)的位置,其中Dist(Nthis,Nnext)表示两点Nthis和Nnext之间的距离;目标1至目标4是点Nnext周围与其相距在一定摄像机视野范围内的环境中的目标,d1至d4以及α1至α4分别表示各个目标与点Nnext的距离以及各个目标与机器人运行方向 
Figure FDA0000104417350000022
的夹角,提出了两个约束函数 
Figure FDA0000104417350000023
Figure FDA0000104417350000024
它们分别表示目标与Nnext的距离,以及与矢量 
Figure FDA0000104417350000025
方向偏离程度对其作为参考目标的影响,D表示原始图像的平均拍摄距离,α表示参考目标与矢量 
Figure FDA0000104417350000026
的偏离角,d表示参考目标与关键引导点Nnext的距离,作为每个参考目标i的综合可能性程度F(i),可通过下式计算:F(i)=f1(di)gf2i),根据经验,若综合可能性程度的最大值 
Figure FDA0000104417350000027
则认为点Nnext附近不存在参考目标,否则,使F(i)取最大值的目标i可以作为参考目标;若存在多个目标都能使F(i)取得最大值,则选择这些目标中α最小的做为参考目标;
2)比例尺更新:设更新前地图的比例尺是Rulerold,该段运行开始的关键引导点位置为L1,结束点位置为L2,机器人根据图像信息定位结束点在地图上的位置为L′2,则更新后的比例尺Rulernew利用下面的函数关系式进行计算:
Figure FDA0000104417350000028
其中,Dist(.)表示两点间的距离,RC表示比例更新条件,根据经验这里设为
0.33<Dist(L1,L2)/Dist(L1,L′2)<3; 
3)无约束导航,可以归纳以下3个步骤:
a)按照地图比例尺计算本关键引导点与下一个关键引导点间的距离,并据此确定在这两个关键点之间的运行模式,
b)按照a)中的模式进行运行,并按照预测估计的方法在必要的时候旋转摄像头寻找或跟踪参考目标,
c)机器人运行到下一个关键引导点附近后,根据图像信息或里程计信息进行定位,而后更新此关键引导点的位置以及地图比例尺,最后返回到a)中继续下一阶段的运行,直到运行到最后一个关键引导点;
4)避障导航
当机器人在行进的过程中遇到静态或者动态障碍物时,为了有效地避开环境中的静态或动态障碍物,并能在避障的过程中同时进行基于视觉的导航,机器人能够对避障前的状态进行记忆,避障之后,机器人返回到避障前的状态继续运行或者是进入一个新的状态。 
CN2010105771125A 2010-12-07 2010-12-07 基于手绘地图和路径的移动机器人视觉导航方法 Expired - Fee Related CN102087530B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010105771125A CN102087530B (zh) 2010-12-07 2010-12-07 基于手绘地图和路径的移动机器人视觉导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105771125A CN102087530B (zh) 2010-12-07 2010-12-07 基于手绘地图和路径的移动机器人视觉导航方法

Publications (2)

Publication Number Publication Date
CN102087530A CN102087530A (zh) 2011-06-08
CN102087530B true CN102087530B (zh) 2012-06-13

Family

ID=44099369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105771125A Expired - Fee Related CN102087530B (zh) 2010-12-07 2010-12-07 基于手绘地图和路径的移动机器人视觉导航方法

Country Status (1)

Country Link
CN (1) CN102087530B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106153037A (zh) * 2016-07-21 2016-11-23 北京航空航天大学 一种机器人的室内定位方法、装置及系统

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102306145A (zh) * 2011-07-27 2012-01-04 东南大学 一种基于自然语言处理的机器人导航方法
CN103294054B (zh) * 2012-02-24 2016-03-30 联想(北京)有限公司 一种机器人导航方法及系统
CN102622732A (zh) * 2012-03-14 2012-08-01 上海大学 一种前扫声纳图像拼接方法
CN103791912A (zh) * 2012-10-30 2014-05-14 大陆汽车投资(上海)有限公司 支持手绘路径的导航路径规划装置
CN103809184B (zh) * 2012-11-09 2019-03-15 苏州科瓴精密机械科技有限公司 一种机器人定位系统及其反射装置的识别方法
FR3004570B1 (fr) * 2013-04-11 2016-09-02 Aldebaran Robotics Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference
CN103400416B (zh) * 2013-08-15 2016-01-13 东南大学 一种基于概率多层地形的城市环境机器人导航方法
CN103822625B (zh) * 2013-12-01 2017-05-10 兰州大学 一种智能机器人寻线导航的方法与装置
CN104714223B (zh) * 2013-12-12 2017-07-28 中国科学院声学研究所 一种合成孔径声纳数据中直航段数据的自动提取方法
CN104729496A (zh) * 2013-12-24 2015-06-24 财团法人车辆研究测试中心 利用影像辨识提供避障路线的方法及行动辅具
CN103926927A (zh) * 2014-05-05 2014-07-16 重庆大学 一种室内移动机器人双目视觉定位与三维建图方法
CN103984981B (zh) * 2014-05-23 2017-01-04 东南大学 基于高斯过程模型的建筑物环境传感器测点优化方法
CN104199452B (zh) * 2014-09-26 2017-03-08 上海未来伙伴机器人有限公司 移动机器人、移动机器人系统、移动及通信方法
CN104331080B (zh) * 2014-11-21 2015-08-26 中国人民解放军国防科学技术大学 用于移动式机器人的定点跟踪路径规划方法
CN104390645B (zh) * 2014-12-09 2017-11-07 重庆邮电大学 一种基于视觉信息的智能轮椅室内导航方法
US10884406B2 (en) * 2015-08-03 2021-01-05 X-Control System Co., Ltd. Method and device for controlling movement of external device
CN105116886B (zh) * 2015-08-11 2017-08-04 余路 一种机器人自主行走的方法
CN107209854A (zh) 2015-09-15 2017-09-26 深圳市大疆创新科技有限公司 用于支持顺畅的目标跟随的系统和方法
WO2017071143A1 (en) * 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
CN105242667A (zh) * 2015-09-23 2016-01-13 南京白云化工环境监测有限公司 可远程遥控的移动空气质量检测平台及其使用方法
CN105182979B (zh) * 2015-09-23 2018-02-23 上海物景智能科技有限公司 一种移动机器人障碍物检测及避让方法和系统
JP6323439B2 (ja) * 2015-12-17 2018-05-16 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US9864377B2 (en) * 2016-04-01 2018-01-09 Locus Robotics Corporation Navigation using planned robot travel paths
CN105807776A (zh) * 2016-05-25 2016-07-27 国网山东省电力公司诸城市供电公司 一种机房无人巡视机器人
CN105974928B (zh) * 2016-07-29 2018-12-07 哈尔滨工大服务机器人有限公司 一种机器人导航路径规划方法
US20180210459A1 (en) * 2016-10-08 2018-07-26 Zhejiang Guozi Robot Technology Co., Ltd. Traffic management method for mobile robotics system
CN108073165A (zh) * 2016-11-16 2018-05-25 阳光暖果(北京)科技发展有限公司 一种仿水黾捕食的机器人运动方法
CN108268029A (zh) * 2016-12-30 2018-07-10 纳恩博(北京)科技有限公司 一种控制方法及电子设备
US10606273B2 (en) * 2017-04-20 2020-03-31 Baidu Usa Llc System and method for trajectory re-planning of autonomous driving vehicles
CN107238387A (zh) * 2017-05-03 2017-10-10 广东精讯科技股份有限公司 利用智能手机规划机器人行走路线的方法
CN107065880A (zh) * 2017-05-16 2017-08-18 南京农业大学 基于动态引导点的遥操作农业车辆人机合作路径规划方法
CN107483096B (zh) * 2017-09-18 2020-07-24 河南科技学院 一种面向复杂环境的自主排爆机器人通信链路重构方法
CN108363392A (zh) * 2017-11-10 2018-08-03 广东康云多维视觉智能科技有限公司 确定扫描的最佳路径的方法及系统
CN109839921B (zh) * 2017-11-24 2022-03-18 中国电信股份有限公司 视觉定位导航方法、装置以及终端
CN107942748B (zh) * 2017-11-28 2020-08-07 上海师范大学 一种机械臂空间动态避障感应手环及控制系统
CN108287544B (zh) * 2018-01-16 2020-06-09 中国科学院福建物质结构研究所 一种智能机器人路线规划及沿原路径返回的方法及系统
CN108734262B (zh) * 2018-03-21 2020-12-08 北京猎户星空科技有限公司 智能设备控制方法、装置、智能设备和介质
CN109074638B (zh) * 2018-07-23 2020-04-24 深圳前海达闼云端智能科技有限公司 融合建图方法、相关装置及计算机可读存储介质
CN109189060B (zh) 2018-07-25 2021-01-12 博众精工科技股份有限公司 移动机器人的点镇定控制方法及装置
CN108919810A (zh) * 2018-07-26 2018-11-30 东北大学 基于视觉示教的移动机器人定位与导航系统
CN109035291B (zh) * 2018-08-03 2020-11-20 重庆电子工程职业学院 机器人定位方法及装置
CN109093625A (zh) * 2018-09-11 2018-12-28 国网山东省电力公司莱芜供电公司 一种用于机器人巡航的直线路径视觉识别方法
CN111457923B (zh) * 2019-01-22 2022-08-12 北京京东乾石科技有限公司 路径规划方法、装置及存储介质
CN109947114B (zh) * 2019-04-12 2022-03-15 南京华捷艾米软件科技有限公司 基于栅格地图的机器人全覆盖路径规划方法、装置及设备
CN110598783A (zh) * 2019-09-10 2019-12-20 中国科学技术大学 基于分布式移动机器人系统的视觉一致性方法
CN111189466A (zh) * 2019-12-31 2020-05-22 广州赛特智能科技有限公司 机器人定位位置优化方法、电子设备及存储介质
CN111158384B (zh) * 2020-04-08 2020-08-04 炬星科技(深圳)有限公司 机器人建图方法、设备及存储介质
CN112333638A (zh) * 2020-11-20 2021-02-05 广州极飞科技有限公司 路线导航方法、装置、无人设备及存储介质
CN112428275B (zh) * 2020-11-30 2022-04-19 深圳市优必选科技股份有限公司 机器人运动规划方法、装置、可移动机器人及存储介质
CN115565057B (zh) * 2021-07-02 2024-05-24 北京小米移动软件有限公司 地图生成方法、装置、足式机器人及存储介质
CN114296457A (zh) * 2021-12-29 2022-04-08 中国一冶集团有限公司 手绘轨迹控制抹灰机器人移动的方法
CN114413910B (zh) * 2022-03-31 2022-07-12 中国科学院自动化研究所 视觉目标导航方法及装置
CN115060281B (zh) * 2022-08-16 2023-01-03 浙江光珀智能科技有限公司 一种基于voronoi图的全局路径引导点生成规划方法
CN116385489B (zh) * 2023-04-04 2023-10-03 森丽康科技(北京)有限公司 基于rgbd相机的目标跟随方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3176701B2 (ja) * 1992-04-15 2001-06-18 本田技研工業株式会社 移動体の現在位置認識処理装置
US7715980B2 (en) * 2005-11-17 2010-05-11 Microsoft Corporation Schematic destination maps
CN100494900C (zh) * 2007-07-03 2009-06-03 北京控制工程研究所 适用于自主移动车辆的环境感知的单目视觉导航方法
TW201022700A (en) * 2008-12-15 2010-06-16 Ind Tech Res Inst Localization and detecting system applying sensors, and method thereof
CN101576384B (zh) * 2009-06-18 2011-01-05 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106153037A (zh) * 2016-07-21 2016-11-23 北京航空航天大学 一种机器人的室内定位方法、装置及系统
CN106153037B (zh) * 2016-07-21 2019-09-03 北京航空航天大学 一种机器人的室内定位方法、装置及系统

Also Published As

Publication number Publication date
CN102087530A (zh) 2011-06-08

Similar Documents

Publication Publication Date Title
CN102087530B (zh) 基于手绘地图和路径的移动机器人视觉导航方法
CN102313547B (zh) 基于手绘轮廓语义地图的移动机器人视觉导航方法
Yang et al. Cubeslam: Monocular 3-d object slam
CN110312912B (zh) 车辆自动停车系统和方法
US11852729B2 (en) Ground intensity LIDAR localizer
US9989969B2 (en) Visual localization within LIDAR maps
Alonso et al. Accurate global localization using visual odometry and digital maps on urban environments
CN108983781A (zh) 一种无人车目标搜索系统中的环境探测方法
Agrawal et al. Localization and mapping for autonomous navigation in outdoor terrains: A stereo vision approach
Goecke et al. Visual vehicle egomotion estimation using the fourier-mellin transform
US20170212518A1 (en) Autonomous moving device
CN115388902B (zh) 室内定位方法和系统、ar室内定位导航方法和系统
Dame et al. Using mutual information for appearance-based visual path following
Schreiber et al. Multi-drive feature association for automated map generation using low-cost sensor data
Nitsche et al. Monte carlo localization for teach-and-repeat feature-based navigation
Zhu et al. Fusing GNSS/INS/vision with a priori feature map for high-precision and continuous navigation
Barth et al. Fast and precise localization at stop intersections
Bülow et al. Fast and robust photomapping with an unmanned aerial vehicle (uav)
Deigmoeller et al. Stereo visual odometry without temporal filtering
Lee et al. A novel method for estimating the heading angle for a home service robot using a forward-viewing mono-camera and motion sensors
Lee et al. Localization based on visibility sectors using range sensors
Mostofi et al. Indoor localization and mapping using camera and inertial measurement unit (IMU)
Zováthi et al. Real-time vehicle localization and pose tracking in high-resolution 3D maps
Adams et al. Autonomous navigation: Achievements in complex environments
Wang et al. Landmarks based human-like guidance for driving navigation in an urban environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120613

Termination date: 20171207