CN101619984B - 一种基于颜色路标的移动机器人视觉导航方法 - Google Patents
一种基于颜色路标的移动机器人视觉导航方法 Download PDFInfo
- Publication number
- CN101619984B CN101619984B CN 200910104460 CN200910104460A CN101619984B CN 101619984 B CN101619984 B CN 101619984B CN 200910104460 CN200910104460 CN 200910104460 CN 200910104460 A CN200910104460 A CN 200910104460A CN 101619984 B CN101619984 B CN 101619984B
- Authority
- CN
- China
- Prior art keywords
- robot
- road sign
- particle
- coordinate
- road signs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明请求保护一种基于颜色路标的移动机器人视觉导航方法,涉及智能控制领域。本发明设计了带有两个不同颜色环的圆柱体作为机器人视觉导航的路标,在HSI(HSI:Hue,Saturation,Intensity,色调,饱和度,亮度)颜色空间下,以H为主阈值,I为辅助阈值的阈值分割法和基于S分量边缘点数量统计的分割法相结合,有效地实现了彩色路标的分割;通过色环的图像信息,实现了机器人对路标的识别和对准技术。引入改进的灰度相关匹配法,优化了两色环中心垂直距离值。通过建立机器人坐标系和路标的成像模型,得到了路标的全局坐标,并最终引入粒子群算法对其优化。建立数学模型,完成了基于路标的机器人视觉重定位。
Description
技术领域
本发明涉及智能控制领域,具体涉及移动机器人的视觉导航方法。
背景技术
自从20世纪60年代初,第一台工业机器人发明以来,机器人的发展已有半个多世纪,机器人的应用越来越广泛,几乎渗透到所有的领域。机器人大致经过三代的演变:第一代是可编程的示教再现型机器人;第二代是具有一定感觉功能和自适应能力的离线编程机器人;第三代机器人是智能机器人。机器人正在向智能化和视觉化的趋势发展,智能化和视觉化的机器系统将从事目前传统机器系统和人类难以胜任的恶劣环境下的一些操作。
移动机器人是机器人学中的一个重要分支,是一类能够通过传感器感知环境和自身状态,实现在非结构环境下,动态决策与规划、行为控制与执行等多项功能于一体的高智能化机器系统。它与机器人学、通讯技术、计算机视觉、多传感器信息融合、智能控制以及多智能体(Multi-Agent)、机械学等学科密切相关,体现了信息科学和人工智能技术的最新成果,具有重要的军用及民用价值,是现代机器人学中一个重要而且相当活跃的研究领域。
众所周知,人们从外界环境获取的信息中,80%来自于视觉,其他来自于触觉、听觉、嗅觉等感觉器官。当人们的眼睛从自己周围的环境获取大量信息,并传入大脑后,由大脑根据知识或经验,对信息进行加工、推理等处理工作,最后识别、理解周围环境:包括环境内的对象物、物体间的相对位置、形状、大小、颜色及纹理;从而使人能与周围环境进行有效的信息交互,完成各种复杂的任务与行动。同样,移动机器人感知外部环境也需要“眼睛”,那就是机器视觉。现在,视觉系统已成为移动机器人重要的组成部分之一。移动机器人视觉可以定义为这样一个过程:利用视觉传感器获取三维景物的二维图像,通过视觉处理算法对一幅或多幅图像进行处理、分析和解释,得 到有关景物的符号描述,并为特定的任务提供有用的信息,用于引导机器人的动作。
在移动机器人的研究课题中,对移动机器人的视觉导航进行研究是一个重要方面。视觉信息是人类感知环境世界的主要途径,也是移动机器人视觉导航的关键技术。如果机器人能够能像人一样通过视频处理而具有从外部环境获取信息的能力,这样就不仅大大提高了它们环境适应和生存能力,更重要的是使人机交互更加方便自然。因此这方面的研究工作具有重要的理论意义和潜在的应用价值。
世界上第一个自治机器人Shakey(Nilsson 1984),就使用了基于单色图像的障碍物检测方法。Shakey是在无质感的地面上行走,障碍物可以通过对单色输入图像进行边缘检测来检测。但是Shakey能行走的环境需要人工专门设置。障碍物的表面不能有反射并且表面的颜色都是均匀统一的。光源也需要特别放置,使得墙和地面不能出现反射和阴影。Becker等使用绑缚在屋顶的简单路标来实现机器人的导航。Stephen Se和David Lowe提出了利用视觉路标进行移动机器人全局定位和地图生成算法。该算法在没有任何修改的环境中利用尺度不变特征变换(Scale Invariant Feature Transform,SIFT)的来提取环境图像特征作为自然路标,实现了机器人的定位和地图构建。
但现有技术针对移动机器人视觉导航中,存在自然路标的鲁棒性不高,图像处理时间复杂度高等缺点。
发明内容
本发明针对移动机器人视觉导航中,自然路标的鲁棒性不高,图像处理时间复杂度高等缺点,提出了基于颜色路标的移动机器人视觉导航的方法。
本发明实现基于颜色路标的移动机器人视觉导航方法所采用的技术方案,具体包括如下步骤:
设计带有两个不同颜色环的圆柱体作为机器人视觉导航的路标,对不同 的路标加以编号并存储;机器人根据不同路标的色带组合依次寻找路标,算法模块根据公式 实时计算移动机器人到路标的距离L;移动机器人在开始运动时以初始行进的方向为X轴建立机器人坐标系,里程计等惯性器件实时检测机器人的当前坐标(X,Y)和旋转角度TH,调用公式:
PX=X+LcosTH (2)
PY=Y+LsinTH (3)
确定路标坐标(PX,PY);
机器人行进过程中,获取每一时刻路标坐标(pxk,pyk),以及机器人本身的坐标和旋转角度(xk,yk,thk),机器人与路标的距离dk;采用粒子群优化算法(Particle Swarm Optimization,PSO)确定最优坐标值。最优坐标值应满足距离适应度函数与角度适应度函数最小。
寻找路标并识别的过程中,首先在HSI(HSI:Hue,Saturation,Intensity,色调,饱和度,亮度)颜色空间下,以H为主阈值,I为辅助阈值的阈值分割法和基于S分量边缘点数量统计的分割法相结合,分割路标上的两色块,并得到它们的面积、图像坐标等信息。通过两个颜色块的面积大小相近小于某一阈值进行初步的路标判断,采用水平方向的两色块的中心坐标之差小于某一阈值作为路标识别的进一步判断,根据两色块的颜色并与存储空间中已经编号的路标比对最终完成路标的识别。
本发明的有益效果:本发明是一种基于颜色路标的移动机器人视觉导航的方法,与常规的移动机器人视觉导航方法相比,具有人工路标简单,图像处理复杂度低。机器人对路标的识别鲁棒性高,并通过数学建模,完成了移动机器人的视觉重定位。完成了机器人学习环境和利用环境认识自我的结合。
附图说明
图1机器人视觉导航流程图
图2人工路标示意图
图3路标成像模型示意图
图4机器人视觉重定位示意图
具体实施方式
本发明设计了一种基于颜色路标的移动机器人视觉导航方法,移动机器人在开始运动时以初始行进的方向为X轴建立默认的坐标系,这个坐标系称作机器人坐标系,也称为局部坐标系,机器人中的里程计等惯性器件获取得到每时刻移动机器人的在局部坐标系中的位置坐标,当然也可以通过坐标旋转平移得到移动机器人的全局坐标。里程计在短时间内的坐标是较为准确的,但随着时间的增加由于移动机器人车轮的打滑,路面的不平整等因素会使坐标的误差累积不断加大,移动机器人的坐标就会出现与实际情况偏差变大。此时,移动机器人利用设置的路标,通过视觉获取并计算路标的最优坐标值来求得机器人的准确坐标进行全局定位。
如图1所示为机器人视觉导航示意流程图,具体包括如下步骤:
首先设计带有不同颜色环的圆柱体作为机器人视觉导航的路标,对不同的路标加以编号并存储;
然后机器人根据不同路标的色带组合依次寻找路标,实时计算移动机器人到路标的距离,并引入粒子群算法获得路标的最优坐标。
最后根据里程计误差,判断是否引入机器人视觉重定位模块来重置机器人位姿,以实现持续安全的导航。
在目标检测和识别中,颜色作为物体表面的一个特征提供目标的位置或姿态等重要信息。常用的彩色图像目标检测和识别方法大多基于固定的颜色阈值,这种方法简单,处理速度快,但由于空间光线变化的影响,故在目标识别和检测时的鲁棒性不尽人意。对于移动机器人准确快速实现路标的识别要求来说,重点在鲁棒性、实时性以及符合要求的精度要求。在视觉图像的处理程序中,一些简单的信息通过颜色的阈值分割边界联接而得到,如不同 的颜色通道(Channel)、相同颜色下一定数目的颜色区域也即色块(Blob)、色块的周边坐标信息(Top,Bottom、Left、Right)、色块的面积大小(Area)、色块中心坐标(Center of Gravity of the blob,XCG YCG)等。为保证路标设定的鲁棒性,每个路标使用两种与环境差异较大的颜色Channel1和Channel2,使两色带宽度相同,两色带间距为一色带宽度,并对不同的路标加以编号,进行存储。通过色环的图像信息,实现机器人对路标的识别和对准。引入改进的灰度相关匹配法,优化了两色环中心垂直距离值。通过建立机器人坐标系和路标的成像模型,得到了路标的全局坐标,并最终引入粒子群算法对其优化。建立数学模型,完成了基于路标的机器人视觉重定位。
具体采用如下方法来设计路标,设计带有两个不同颜色环色带的圆柱体作为机器人视觉导航的路标,两色环的颜色选取与周围环境差异较大的颜色,例如红色、绿色等,色环带的宽度和两色环带间距为一固定值。色环带的两两组合可以方便的区分不同的路标,路标设计成圆柱体可以保证机器人在各个角度都能获得无差别的路标图像,从而确保了机器人对路标识别的鲁棒性。对不同的路标加以编号并存储。
在HSI颜色空间下,以H为主阈值,I为辅助阈值的阈值分割法和基于S分量边缘点数量统计的分割法相结合,实现对彩色路标的分割。对路标图像分割的目的是要分割出柱子上的两色块,并得到它们的面积、图像坐标等图像信息,以用于路标识别。根据我们路标设计的特点和环境的复杂性,我们选取以区域和边缘相结合的彩色图像分割方法。具体做法是在HSI颜色空间中以H分量为主阈值,S分量为辅助阈值对彩色图像进行阈值图像分割;对I分量图像首先用Canny算子进行边缘检测,然后用基于边缘点的数量统计分割出色环区域,将两幅分割图像合成,完成路标图像中对色块的最终分割。
通过分割的色块采取以下相应的措施进行路标的识别:
1)通过两个颜色块的面积大小相近小于某一阈值进行初步的路标判断,这样 在路标不完全进入摄像头视野时也不影响路标的识别,如根据公式|Area1-Area2|/(Area1+Area2)<2%进行初步判定,其中,Area1和Area2分别为亮色块面积;
2)采用水平方向的两色块的中心坐标之差(|xCG1-xCG2|)小于某一阈值Threshold作为路标识别的进一步判断,防止视野中相同颜色其他色块的干扰,如根据公式|xCG1-xCG2|<Threshold进一步判断;
3)根据两色块的颜色并与存储空间中已经编号的路标比对最终完成路标的识别。
机器人可根据不同路标的色带组合依次寻找人工路标的柱子,找到后对准路标,并向其驶近直到机器人到路标的距离接近设定值。
假设图2是路标通过摄像头在成像平面的投影,两色块的中心坐标为XCG,摄像头中两色块垂直方向中心距离为ΔYCG。由图3的路标成像模型可知,在移动机器人焦距f,路标的两色带中心距离W,以及摄像头中两色块垂直方向中心距离ΔYCG已知的情况下,算法模块调用公式(1)得到移动机器人到路标的距离L:
移动机器人在开始运动时即以初始行进的方向为x轴建立默认的坐标系,这个坐标系称为机器人坐标系。设置在机器人中的里程计等惯性器件实时检测机器人的当前坐标(X,Y)和旋转角度TH。根据距离L、当前坐标(X,Y)和旋转角度TH根据以下公式可以得到已知路标的坐标(PX,PY):
PX=X+LcosTH (2)
PY=Y+LsinTH (3)
机器人行进过程中,通过上述计算分别得到每一时刻路标的坐标(pxk,pyk),由此确定机器人本身的坐标和旋转角度(xk,yk,thk),机器人与路标的距离dk。
机器人从开始驶近路标至停止会得到路标的一系列坐标值,从这一系列坐标中如何求出最恰当的是研究的关键。一般的方法是求这一系列坐标值的算术平均,作为路标的最优坐标值。本发明采用PSO(Particle SwarmOptimizer,粒子群最优值)算法确定最恰当的坐标值。
PSO算法。PSO模拟鸟群的捕食行为,建立速度-位置(v-x)搜索模型,把优化问题空间转化为随机粒子空间,通过反复迭代寻找最优解。每一个备选解(机器人坐标和旋转角度)作为一个粒子,粒子的优劣程度由适应度函数F(x)决定。每一个粒子都由一个速度决定其更新的方向和大小,粒子们追随当前最优粒子通过迭代在解空间中搜索。每一次迭代,粒子通过跟踪两个极值更新自己的速度和位置:粒子本身所找到的最优解pBest和整个种群目前找到的最优解gBest。定义种群中存在n个粒子,每个粒子m维,其速度和位置的更新方法为:
vid(k+1)=wvid(k)+c1r1[pid(k)-xid(k)]+c2r2[gd(k)-xid(k)] (4)
xid(k+1)=xid(k)+vid(k+1) (5)
其中vid(k),xid(k)分别表示粒子i(i=1,2,...,n)第d(d=1,2,...,m)维分量在k时刻的速度和位置;pid(k)表示粒子i第d维分量到k时刻为止搜索到的最优位置;gd(k)表示种群中所有粒子第d维分量到k时刻为止搜索到的最优位置;r1,r2为(0~1)之间的随机数;c1,c2为加速常数,表示每个粒子受pBest和gBest位置吸引的加速项的权重,一般取c1=c2=2;w为惯性权重,较大则算法具有较强的全局搜索能力,较小则算法倾向于局部搜索,一般是将随迭代次数线性减小,即
其中:iter为当前迭代次数,itermax为总的迭代次数,wmax=0.9,wmax=0.4。
利用PSO算法确定路标的最优坐标值。应用PSO算法解决优化问题的两个重要步骤是:问题解的编码和适应度函数的选择。路标的最优坐标值(px,py)应 满足与机器人每时刻的距离和或角度和最接近已测量值,即位置坐标的距离适应度函数与旋转角度适应度函数最小,
或
最小,其中,n为总的粒子数,k表示不同的时刻。
以下以(7)式的距离适应度函数为例作为PSO算法的适应度函数确定路标的最优坐标值。具体包括如下步骤:
Step1:根据设定值,依次寻找路标,并对准。
Step2:驶近路标,记录每时刻路标的坐标(pxk,pyk),机器人本身的坐标和旋转角度(xk,yk,thk),机器人与路标的距离dk。
Step3:将Step2中获取的上述信息作为粒子群优化算法的粒子。粒子的位置即为(pxk,pyk),速度是位置的10%。粒子是2维的。从速度分量中分别找到每维的最大值vxmax和vymax,作为边界约束值。
Step4:算法模块调用公式(4)更新粒子的各维速度,并进行边界约束(即超过[-vmax,vmax]的值以边界值代替)。算法模块调用公式(5)更新粒子的各维位置。
Step5:算法模块调用公式(7)求每一个粒子的距离适应度函数,更新pij(k)和gj(k)。
Step6:返回Step4进行迭代,直到达到最大迭代次数itermax或满足精度要求(收敛)。
下面以一具体实例,说明随着里程计误差的增大,机器人根据已获得的路标坐标来实现自身的视觉重定位过程。如图4所示,移动机器人从起始点A(x1,y1)开始寻找路标P1(X1,Y1),当它找到后,对准并驶向P1,直到距离P1 到指定的长度。接着机器人寻找目标P2(X2,Y2),并重复以上过程。如果机器人的行驶路径是由A(x1,y1)到B(x2,y2)再到C(x3,y3)。由里程计测量得到线段BC的长度。由图像处理可以得到机器人从B和C到相应坐标的距离。
这时机器人在C点的坐标可由公式(9)得到:
X3=X2-L2 cos(β+α)
Y3=T2-L2 sin(β+α) (9)
θC=β+α
其中α和β为中间变量,具体含义如图4所示。算法模块调用公式(10)
计算得到:
其中D为B点到C点的距离,L为路标P1到路标P2的距离。
Claims (2)
1.一种基于颜色路标的移动机器人视觉导航方法,其特征在于,设计带有两个不同颜色环的圆柱体作为机器人视觉导航的路标,对不同的路标加以编号并存储;机器人根据不同路标的颜色环组合依次寻找并识别路标,根据摄像头中两颜色环垂直方向中心距离ΔYCG、机器人焦距f、路标的两不同颜色环中心距离W,算法模块根据公式实时计算机器人到路标的距离L;以机器人初始行进方向为X轴建立坐标系为机器人坐标系,里程计实时检测机器人的当前坐标和旋转角度(X,Y,TH),机器人行进过程中,通过算法模块调用公式:PX=X+LcosTH、PY=Y+LsinTH,分别得到在机器人坐标系中每一时刻路标的坐标;根据每时刻路标坐标、机器人坐标和旋转角度、机器人与路标的距离,算法模块建立速度-位置搜索模型,机器人坐标和旋转角度作为一个粒子,粒子的优劣程度由适应度函数F(x)决定,每一个粒子都由一个速度决定其更新的方向和大小,粒子们追随当前最优粒子通过迭代在解空间中搜索,每一次迭代,粒子通过跟踪两个极值更新自己的速度和位置:粒子本身所找到的最优解pBest和整个种群目前找到的最优解gBest,定义种群中存在n个粒子,每个粒子m维,根据公式:vid(k+1)=wvid(k)+c1r1[pid(k)-xid(k)]+c2r2[gd(k)-xid(k)],xid(k+1)=xid(k)+vid(k+1)更新,通过反复迭代寻找最优坐标值,其中vid(k),xid(k)分别表示粒子i(i=1,2,...,n)第d(d=1,2,...,m)维分量在k时刻的速度和位置,pid(k)表示粒子i第d维分量到k时刻为止搜索到的最优位置,gd(k)表示种群中所有粒子第d维分量到k时刻为止搜索到的最优位置,r1,r2为(0~1)之间的随机数;c1,c2为加速常数,w为惯性权重,w随迭代次数线性减小,即其中:iter为当前迭代次数,itermax为总的迭代次数,wmax=0.9,wmin=0.4。
2.根据权利要求1所述的移动机器人视觉导航方法,其特征在于,寻找并识别路标的步骤进一步包括,在HSI颜色空间下,采用以H为主阈值,I为辅助阈值的阈值分割法和基于S分量边缘点数量统计的分割法相结合,分割路标上的两个不同颜色环,并获取它们的面积、图像坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200910104460 CN101619984B (zh) | 2009-07-28 | 2009-07-28 | 一种基于颜色路标的移动机器人视觉导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200910104460 CN101619984B (zh) | 2009-07-28 | 2009-07-28 | 一种基于颜色路标的移动机器人视觉导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101619984A CN101619984A (zh) | 2010-01-06 |
CN101619984B true CN101619984B (zh) | 2013-02-20 |
Family
ID=41513334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 200910104460 Active CN101619984B (zh) | 2009-07-28 | 2009-07-28 | 一种基于颜色路标的移动机器人视觉导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101619984B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681541A (zh) * | 2011-03-10 | 2012-09-19 | 上海方伴自动化设备有限公司 | 一种机器人图像识别和视觉定位的方法 |
CN102833671A (zh) * | 2011-06-17 | 2012-12-19 | 国民技术股份有限公司 | 一种机器人视觉定位的方法及系统 |
CN103179332B (zh) * | 2011-12-22 | 2016-05-25 | 洛阳理工学院 | 一种基于fpga技术的视觉目标自适应检测控制器 |
CN103488172B (zh) * | 2012-06-13 | 2016-10-05 | 苏州宝时得电动工具有限公司 | 自动工作系统及其控制方法 |
CN103196440B (zh) * | 2013-03-13 | 2015-07-08 | 上海交通大学 | M序列离散式人工路标设置及相关移动机器人定位方法 |
CN105518560B (zh) * | 2014-10-31 | 2018-02-02 | 深圳市大疆创新科技有限公司 | 一种基于位置的控制方法、装置、可移动机器以及机器人 |
CN105841687B (zh) * | 2015-01-14 | 2019-12-06 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
EP3249419A4 (en) * | 2015-01-22 | 2018-02-28 | Guangzhou Airob Robot Technology Co., Ltd. | Color block tag-based localization and mapping method and device thereof |
CN105044754A (zh) * | 2015-07-01 | 2015-11-11 | 西安交通大学 | 一种基于多传感器融合的移动平台室外定位方法 |
CN105509730A (zh) * | 2015-11-23 | 2016-04-20 | 上海交通大学 | 路标优化布置方法及相应的机器人定位方法 |
CN106568432B (zh) * | 2016-10-20 | 2019-07-09 | 上海物景智能科技有限公司 | 一种移动机器人初始位姿获取方法和系统 |
CN106541404B (zh) * | 2016-11-03 | 2018-11-20 | 四川阿泰因机器人智能装备有限公司 | 一种机器人视觉定位导航方法 |
WO2018112926A1 (zh) * | 2016-12-23 | 2018-06-28 | 深圳前海达闼云端智能科技有限公司 | 定位方法、终端和服务器 |
CN106778787A (zh) * | 2016-12-29 | 2017-05-31 | 王红军 | 一种基于颜色特征的物体辅助识别方法 |
CN109781106A (zh) * | 2017-11-14 | 2019-05-21 | 中兴通讯股份有限公司 | 一种室内定位方法、装置、设备及存储介质 |
CN108388244A (zh) * | 2018-01-16 | 2018-08-10 | 上海交通大学 | 基于人工路标的移动机器人系统、停靠方法及存储介质 |
CN108196554A (zh) * | 2018-02-27 | 2018-06-22 | 合肥工业大学 | 一种基于磁感应器与陀螺仪的agv组合导引系统 |
CN109269518B (zh) * | 2018-08-31 | 2022-01-11 | 北京航空航天大学 | 一种基于智能体的可移动装置有限空间路径生成方法 |
CN111123902B (zh) * | 2018-10-11 | 2023-08-25 | 宇通客车股份有限公司 | 一种车辆进站方法及车站 |
CN109461065A (zh) * | 2018-10-17 | 2019-03-12 | 浙江医药高等专科学校 | 一种跨境电子商务视频安全监控系统及控制方法 |
CN111380533B (zh) * | 2018-12-29 | 2023-03-24 | 深圳市优必选科技股份有限公司 | 定位导航方法、设备及存储装置 |
CN111046955B (zh) * | 2019-12-12 | 2020-11-20 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于图网络的多智能体对抗策略智能预测方法及装置 |
CN111309008B (zh) * | 2020-02-18 | 2023-04-28 | 南京师范大学 | 一种基于色彩识别的移动机器人导航方法 |
CN111380535A (zh) * | 2020-05-13 | 2020-07-07 | 广东星舆科技有限公司 | 基于视觉标签的导航方法、装置、移动式机器及可读介质 |
CN112132469B (zh) * | 2020-09-25 | 2023-12-22 | 华中科技大学 | 一种基于多种群协作粒子群算法的水库群调度方法和系统 |
CN113191255A (zh) * | 2021-04-28 | 2021-07-30 | 浙江大学 | 一种基于移动机器人的交通标志识别方法 |
CN113370206A (zh) * | 2021-05-13 | 2021-09-10 | 中国地质大学(武汉) | 擂台机器人重新登台方法、控制系统和擂台机器人 |
CN115565057B (zh) * | 2021-07-02 | 2024-05-24 | 北京小米移动软件有限公司 | 地图生成方法、装置、足式机器人及存储介质 |
CN113343944B (zh) * | 2021-07-28 | 2022-09-20 | 浙江华睿科技股份有限公司 | 机器人图像采集方法及装置、电子设备、存储介质 |
CN114518116A (zh) * | 2022-02-17 | 2022-05-20 | 广州大学 | 一种基于跟踪导引线的视觉导航方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1598487A (zh) * | 2004-07-23 | 2005-03-23 | 东北大学 | 人工路标视觉导航方法 |
CN101451849A (zh) * | 2008-12-26 | 2009-06-10 | 天津理工大学 | 移动体视觉导航用多功能路标及综合导航方法 |
-
2009
- 2009-07-28 CN CN 200910104460 patent/CN101619984B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1598487A (zh) * | 2004-07-23 | 2005-03-23 | 东北大学 | 人工路标视觉导航方法 |
CN101451849A (zh) * | 2008-12-26 | 2009-06-10 | 天津理工大学 | 移动体视觉导航用多功能路标及综合导航方法 |
Non-Patent Citations (1)
Title |
---|
秦元庆等.基于粒子群算法的移动机器人路径规划.《机器人》.2004,第26卷(第3期),第222-225页. * |
Also Published As
Publication number | Publication date |
---|---|
CN101619984A (zh) | 2010-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101619984B (zh) | 一种基于颜色路标的移动机器人视觉导航方法 | |
KR102186299B1 (ko) | 카메라를 이용한 차량 환경 모델링 | |
Fallon et al. | Continuous humanoid locomotion over uneven terrain using stereo fusion | |
Bucher et al. | Image processing and behavior planning for intelligent vehicles | |
CN109176512A (zh) | 一种体感控制机器人的方法、机器人及控制装置 | |
CN106444780A (zh) | 一种基于视觉定位算法的机器人的自主导航方法及系统 | |
Correll et al. | SwisTrack: A tracking tool for multi-unit robotic and biological systems | |
Ruetz et al. | Ovpc mesh: 3d free-space representation for local ground vehicle navigation | |
Pan et al. | GPU accelerated real-time traversability mapping | |
CN110433467A (zh) | 基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备 | |
CN109164802A (zh) | 一种机器人迷宫行走方法、装置及机器人 | |
CN110986945A (zh) | 基于语义高度地图的局部导航方法和系统 | |
Kanoulas et al. | Curved patch mapping and tracking for irregular terrain modeling: Application to bipedal robot foot placement | |
Liu et al. | Dloam: Real-time and robust lidar slam system based on cnn in dynamic urban environments | |
Chen et al. | Cognitive map-based model: Toward a developmental framework for self-driving cars | |
US11467592B2 (en) | Route determination method | |
Lim et al. | Evolution of a reliable and extensible high-level control system for an autonomous car | |
CN108151742B (zh) | 机器人的导航控制方法及智能装置 | |
Rozsypálek et al. | Multidimensional particle filter for long-term visual teach and repeat in changing environments | |
CN115690343A (zh) | 一种基于视觉跟随的机器人激光雷达扫描建图方法 | |
Sujiwo et al. | Robust and accurate monocular vision-based localization in outdoor environments of real-world robot challenge | |
Mishra et al. | Perception engine using a multi-sensor head to enable high-level humanoid robot behaviors | |
Kress et al. | Pose based trajectory forecast of vulnerable road users | |
Zhao et al. | An RGBD data based vehicle detection algorithm for vehicle following systems | |
Uzawa et al. | Dataset Generation for Deep Visual Navigation in Unstructured Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |