CN102359783A - 基于视觉的移动机器人定位方法 - Google Patents
基于视觉的移动机器人定位方法 Download PDFInfo
- Publication number
- CN102359783A CN102359783A CN2011102075441A CN201110207544A CN102359783A CN 102359783 A CN102359783 A CN 102359783A CN 2011102075441 A CN2011102075441 A CN 2011102075441A CN 201110207544 A CN201110207544 A CN 201110207544A CN 102359783 A CN102359783 A CN 102359783A
- Authority
- CN
- China
- Prior art keywords
- robot
- probability
- graph
- circular arc
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种基于视觉的移动机器人定位方法,包括1)在机器人工作环境中的任意三个位置上分别设置三个地标;2)对测量出的每个方向角数据统计其方差σ2,得到测量角度呈现的分布特性;3)统计分析得到测量角度的后验概率分布p(Zij|αij)服从以上分布;4)由两个地标Li和Lj的坐标,以及随机变量Zij生成圆弧簇;5)以半径Rij表示圆弧簇的概率值,获得概率图M1和M2;6)将M1和M2进行融合,得到一个概率分布图Mt;7)寻找概率分布图Mt中具有最大权值的坐标位置作为机器人的位置。本发明对基于三角定位系统的移动机器人的自定位精度具有一定提高。在定位精确度上本发明方法比原始方法平均提高21.9%。当机器人处于“三角定位困难区域”时,机器人的定位精度有显著提高。
Description
技术领域
本发明属于移动机器人的自定位技术,具体涉及一种基于视觉的移动机器人定位方法。
背景技术
移动机器人自定位是指移动机器人通过对内部状态的检测或对外部环境的感知估算自身位置和姿态的过程。机器人自定位系统的研究对机器人的研究有着深远的意义,定位系统提供给机器人定位结果精度的高低直接影响到机器人导航及运动过程控制的可靠性,也会影响到人机交互的安全性问题。因此,机器人自定位系统亦成为国际机器人领域的研究热点。
由于,以“三角定位”、“三边定位”等为代表的几何计算方法能够为机器人提供相对精确的二维坐标形式的定位结果,这些几何定位方法受到了各国科学研究者的普遍关注,并被广泛应用于航海、航天、工厂环境中移动平台以及机器人足球比赛的自定位系统中。
通常使用的“三角定位”方法,其原理如下:
1.圆的求解。三个不在同一条直线上的点确定一个圆(如图1所示)。该圆可以由平面中两个地标(如P1、P2)的坐标和另外一个点(Robot,机器人的位置,图中用方块来表示)与此两地标的夹角角度计算得来。
几何公式推导结果如下:
而圆心坐标则可以根据三点位置拓扑关系的不同而分八种情况予以确定,如图2所示。
2.已知二维平面中任意三个地标的坐标,以及平面中机器人与这三个点的夹角的度数,可以根据1中的几何计算方法得出三个圆的方程如下:
(x-X0)2+(y-Y0)2=R0 2
(x-X1)2+(y-Y1)2=R1 2
(x-X2)2+(y-Y2)2=R2 2
此三个圆相交于共同的一点,求出此交点坐标,该坐标就是机器人的位置坐标。(参见图3),三个不同的两两交叉的圆,共同相交在同一个点(方块指示的位置),圆点指示三个地标。
在实际机器人自定位的系统中,图中圆点就是机器人所识别的地标的位置,而方块的点就是机器人本身的位置。运用传感器分别检测三个地标在环境中相对于机器人的方向,以及机器人和这三个地标所呈夹角就可以得到机器人本身的位置。该夹角即为机器人相对地标的方向角。
但是传感器对各地标方向角测量具有误差,所以定位系统的输入是具有误差的,相应也就影响了定位系统对机器人本身定位结果的准确度。当机器人处于三个地标围成的三角形区域中时,如今国际普遍应用的三角定位系统均能够提供较为精确的定位结果;而当机器人进入某些特殊区域(我们称之为“三角定位困难区域”)时,如贯穿三个地标的圆环状区域(如图4所示,为三角定位困难区域I,图中L1,L2,L3表示三个地标)以及距离三个地标围成的三角形区域较远的地带(图5所示,为三角定位困难区域II,图中L1,L2,L3表示三个地标),三角定位系统的定位误差变大,甚至会出现定位错误的情况。尽管国际上有很多学者在这方面做了很多努力,但在困难区域内机器人定位精度的提高上依旧收效甚微。
具体在涉及两种特殊情况时,现有技术的定位方法,定位精度较低:
1.当机器人的位置处于三个地标所确定的公共圆附近的区域时,如图4中三角定位困难区域I,此时图3中的三个相交叉的圆重合,三个圆的交点为无穷多个,从而定位系统完全失效。
2.而由于对三个地标的检测带有一定噪声干扰,即定位系统的输入量——三个角度的度数的测量值会出现不稳定的情况,进而影响到定位结果的精确性。当机器人的位置处于远离三个地标的区域时,定位结果的误差较大,定位精确度降低。
以上两种特殊情况时,传统三角定位系统的定位结果很不稳定,或者失效。
发明内容
针对以上现有技术的不足。本发明提出一种在仅具有三个地标的工作空间中,基于三角定位法的一种准确定位机器人坐标位置的方法。传感器测量的各地标的方向夹角存在误差,且本误差经统计后的概率分布呈现高斯分布,因此可以将输入角度误差所形成的分布作为先验知识,获得一个二维概率映射图,此概率映射图的大小等比例地描述了工作区域的大小,图中每点的概率值反映了机器人在该位置出现的可能性的大小。此概率映射图中概率值最大点的坐标就是机器人当前最有可能所在的位置。
将本概率图结合机器人里程计航位测量信息,运用于蒙特卡洛粒子滤波定位技术进行信息融合,能够进一步提高定位精度。
本发明的方法为:
1)在机器人工作环境中的任意三个位置上分别设置三个地标;
2)多次测量机器人相对地标的方向角,对测量出的每个方向角数据进行统计分析,拟合出其所服从高斯分布模型的方差参数;
3)从高斯分布模型引出方向角的后验概率分布;
4)由地标的坐标和方向角的后验概率分布生成圆弧簇概率图M1和M2;
5)融合圆弧簇概率图M1和M2,得到一个概率分布图Mt;
6)寻找概率分布图Mt中具有最大权值的坐标位置作为机器人的位置。
由地标的坐标和方向角的后验概率分布生成圆弧簇概率图M1和M2的方法为:
A、由任意两地标Li和Lj的坐标和方向角的后验概率分布生成圆弧簇Cij=[Xij,Yij,Rij],其中,Xij和Yij是地标Li和Lj及Zij确定的圆弧的圆心的坐标,Rij为圆弧的半径;
B、采用Rij的后验概率密度函数遍历所有方向角的测量值,获得概率图M1和M2。
所述采用Rij的后验概率密度函数遍历所有方向角的测量值的方法为:
a)获得Rij的后验概率密度函数:
b)将此式子求出的概率值反映到Cij=[Xij,Yij,Rij]上,形成概率图M1和M2。
其具体实施计算过程如下:
1.在机器人工作环境中的任意三个位置上分别设置三个地标;
2.多次测量机器人相对地标的方向角,对测量出的每个方向角数据统计其方差σ2,从而得到传感器测量角度呈现的分布特性:
3.统计分析可以得出测量角度的后验概率分布,p(Zij|αij),就服从以上分布。该后验概率分布表示的是,当测量值为αij时,其真实的角度是Zij的可能性的大小;
4.由其中两个地标Li和Lj的坐标,以及随机变量Zij生成圆弧簇Cij=[Xij,Yij,Rij],其中,Xij和Yij是地标Li和Lj及Zij确定的圆弧的圆心的坐标,Rij为圆弧的半径;
5.由于Zij是随机变量,所以这簇圆弧中每一个圆弧出现的可能性都对应着相应Zij每个样本值的概率。这簇圆弧以向量形式的随机变量Cij=[Xij,Yij,Rij]表示,每条圆弧相应的概率值可以由向量中半径分量Rij的概率表示。以半径Rij表示圆弧簇的概率值:
A、随机变量Rij的后验概率密度函数为:
B、将此式子求出的概率值反映到Cij=[Xij,Yij,Rij]上,形成概率图M1和M2。
6.将这两幅图使用下面公式进行融合,得到一个概率分布图Mt。
7.寻找概率分布图Mt中具有最大权值的坐标位置作为机器人的位置:
更进一步,对以上概率分布图做进一步的精确,在Monte Carlo粒子滤波定位系统中,与机器人运动信息融合得到新的概率分布图后再计算机器人的位置。Monte Carlo粒子滤波定位方法是已知方法,在此不再赘述。
采用最大似然估计法统计方向角的方差σ2。
所述概率图M1和M2为新月形,如图6所示。
所述概率图M1和M2为用Rij的后验概率密度函数遍历所有方向角的测量值获得。
所述机器人运动信息为机器人移动距离和旋转角度。
所述机器人运动信息由机器人里程计计量。
所述机器人采用全景摄像机测量机器人相对地标的方向角。
本发明的有益效果效果:
本发明对基于三角定位系统的移动机器人的自定位精度具有一定提高。针对三角定位困难区域中定位精度较低的问题,发明人设计了10个不同的场景,进行了上33170次的实验。实验结果显示,在定位精确度上我们的方法比原始方法平均提高21.9%。所以,当机器人在处于“三角定位困难区域”时,较之现在普遍运用的三角定位系统,机器人的定位精度有显著提高。
附图说明
图1是三点定位一个圆的原理图;
图2是根据三点位置拓扑关系不同确定圆心坐标的原理图;
图3是采用三个地标确定机器人位置的方法的原理图;
图4是三角定位方法中的定位困难区域I;
图5是三角定位方法中的定位困难区域II;
图6是本发明的方法生成的圆弧簇的概率图;
图7是图6的概率图融合过程的示意图;
具体实施方法
下面结合实施例和附图详细说明本发明的方法。
1.在机器人运行的工作环境中,随意放置三个地标;在此环境中的任意位置处,使用机器人全景摄像机多次大量测量机器人与各个地标的方向角,将这些测量结果统计分析,拟合出其所服从高斯分布模型的参数,主要是方差参数:
3.计算单个圆时形成圆簇的概率分布图。从地标Li和Lj的坐标和方向角Zij,可以生成圆弧簇,由于圆弧簇中各个圆的半径并不相同,可以用半径出现的概率值来体现圆簇中各个圆的概率值。圆弧簇概率分布函数为
根据此公式遍历所有方向角的测量值,形成新月形圆弧簇概率图M1和M2。如图6所示,方点代表三个地标。图6(a)是M1和图6(b)是M2。
4.参见图7,将M1和M2两图以如下方法进行融合,形成融合后的概率分布图Mt:
5.为了使定位精度更高,将此概率分布图作为观测模型,运用到Monte Carlo粒子滤波定位系统中,与里程计中计量的机器人运动信息,即机器人移动距离和旋转角度相融合得到融合后新的的概率分布图。
6.搜索机器人最终的坐标位置为:概率分布图Mt中具有最大权值的坐标位置,即
Claims (9)
1.一种基于视觉的移动机器人定位方法,包括如下步骤:
1)在机器人工作环境中的任意三个位置上分别设置三个地标;
2)多次测量机器人相对地标的方向角,对测量出的每个方向角数据进行统计分析,拟合出其所服从高斯分布模型的方差参数;
3)从高斯分布模型引出方向角的后验概率分布;
4)由地标的坐标和方向角的后验概率分布生成圆弧簇概率图M1和M2;
5)融合圆弧簇概率图M1和M2,得到一个概率分布图Mt;
6)寻找概率分布图Mt中具有最大权值的坐标位置作为机器人的位置。
2.根据权利要求1所述的基于视觉的移动机器人定位方法,其特征在于,在Monte Carlo粒子滤波定位系统中,将概率分布图Mt与机器人运动信息融合得到新的概率分布图后再计算机器人的位置。
3.根据权利要求1或2所述的基于视觉的移动机器人定位方法,其特征在于,采用最大似然估计法统计方向角的方差参数。
4.根据权利要求1或2所述的基于视觉的移动机器人定位方法,其特征在于,所述由地标的坐标和方向角的后验概率分布生成圆弧簇概率图M1和M2的方法为:
A、由任意两地标Li和Lj的坐标和方向角的后验概率分布生成圆弧簇Cij=[Xij,Yij,Rij],其中,Xij和Yij是地标Li和Lj及Zij确定的圆弧的圆心的坐标,Rij为圆弧的半径;
B、采用Rij的后验概率密度函数遍历所有方向角的测量值,获得概率图M1和M2。
6.根据权利要求1或2所述的基于视觉的移动机器人定位方法,其特征在于,所述概率图M1和M2为新月形。
7.根据权利要求2所述的基于视觉的移动机器人定位方法,其特征在于,所述机器人运动信息为机器人移动距离和旋转角度。
8.权利要求7所述的基于视觉的移动机器人定位方法,其特征在于,所述机器人运动信息由机器人里程计计量。
9.根据权利要求1或2所述的基于视觉的移动机器人定位方法,其特征在于,机器人采用全景视觉摄像机测量机器人相对地标的方向角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110207544 CN102359783B (zh) | 2011-07-22 | 2011-07-22 | 基于视觉的移动机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110207544 CN102359783B (zh) | 2011-07-22 | 2011-07-22 | 基于视觉的移动机器人定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102359783A true CN102359783A (zh) | 2012-02-22 |
CN102359783B CN102359783B (zh) | 2013-08-07 |
Family
ID=45585147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110207544 Expired - Fee Related CN102359783B (zh) | 2011-07-22 | 2011-07-22 | 基于视觉的移动机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102359783B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105867373A (zh) * | 2016-04-07 | 2016-08-17 | 重庆大学 | 一种基于激光雷达数据的移动机器人位姿推算方法及系统 |
CN107328406A (zh) * | 2017-06-28 | 2017-11-07 | 中国矿业大学(北京) | 一种基于多源传感器的矿井移动目标定位方法与系统 |
CN112204346A (zh) * | 2018-06-22 | 2021-01-08 | 戴姆勒股份公司 | 用于确定车辆位置的方法 |
CN112639404A (zh) * | 2018-08-30 | 2021-04-09 | 大陆汽车有限责任公司 | 用于车辆视觉位置确定的位置确定装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090187276A1 (en) * | 2008-01-23 | 2009-07-23 | Fanuc Ltd | Generating device of processing robot program |
CN101509781A (zh) * | 2009-03-20 | 2009-08-19 | 同济大学 | 基于单目摄像头的步行机器人定位系统 |
CN102121827A (zh) * | 2010-11-29 | 2011-07-13 | 浙江亚特电器有限公司 | 一种移动机器人定位系统及其定位方法 |
-
2011
- 2011-07-22 CN CN 201110207544 patent/CN102359783B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090187276A1 (en) * | 2008-01-23 | 2009-07-23 | Fanuc Ltd | Generating device of processing robot program |
CN101509781A (zh) * | 2009-03-20 | 2009-08-19 | 同济大学 | 基于单目摄像头的步行机器人定位系统 |
CN102121827A (zh) * | 2010-11-29 | 2011-07-13 | 浙江亚特电器有限公司 | 一种移动机器人定位系统及其定位方法 |
Non-Patent Citations (2)
Title |
---|
张国亮等: "大范围视觉伺服方法在空间机器人上的应用", 《西安交通大学学报》 * |
薛艳敏等: "基于BP神经网络的机器人视觉控制方法", 《西安理工大学学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105867373A (zh) * | 2016-04-07 | 2016-08-17 | 重庆大学 | 一种基于激光雷达数据的移动机器人位姿推算方法及系统 |
CN105867373B (zh) * | 2016-04-07 | 2018-09-11 | 重庆大学 | 一种基于激光雷达数据的移动机器人位姿推算方法及系统 |
CN107328406A (zh) * | 2017-06-28 | 2017-11-07 | 中国矿业大学(北京) | 一种基于多源传感器的矿井移动目标定位方法与系统 |
CN107328406B (zh) * | 2017-06-28 | 2020-10-16 | 中国矿业大学(北京) | 一种基于多源传感器的矿井移动目标定位方法与系统 |
CN112204346A (zh) * | 2018-06-22 | 2021-01-08 | 戴姆勒股份公司 | 用于确定车辆位置的方法 |
CN112204346B (zh) * | 2018-06-22 | 2024-02-09 | 梅赛德斯-奔驰集团股份公司 | 用于确定车辆位置的方法 |
CN112639404A (zh) * | 2018-08-30 | 2021-04-09 | 大陆汽车有限责任公司 | 用于车辆视觉位置确定的位置确定装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102359783B (zh) | 2013-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gao et al. | Review of wheeled mobile robots’ navigation problems and application prospects in agriculture | |
CN102779345B (zh) | 一种基于重心欧氏距离的点云精确配准方法 | |
CN109240284A (zh) | 一种无人驾驶农机的自主路径规划方法及装置 | |
Zhang et al. | Intelligent collaborative localization among air-ground robots for industrial environment perception | |
EP3086196B1 (en) | Method and control system for surveying and mapping a terrain while operating a bulldozer | |
CN103412565B (zh) | 一种具有全局位置快速估计能力的机器人定位方法 | |
Pierlot et al. | A new three object triangulation algorithm for mobile robot positioning | |
CN103247041B (zh) | 一种基于局部采样的多几何特征点云数据的分割方法 | |
CN106406338A (zh) | 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法 | |
CN102359783B (zh) | 基于视觉的移动机器人定位方法 | |
CN111243090A (zh) | 土方量计算方法及系统 | |
CN111273312B (zh) | 一种智能车辆定位与回环检测方法 | |
CN101858730A (zh) | 一种自动测量煤堆体积的方法及其专用装置 | |
CN104331078B (zh) | 一种基于位置映射算法的多机器人协作定位方法 | |
CN103616025A (zh) | 一种现场人员三维定位导航系统 | |
CN102091814A (zh) | 将激光跟踪技术与cad/cam技术结合实现曲面精确加工的方法 | |
CN102607459A (zh) | Lidar测量数据的拼接方法和装置 | |
CN110375712A (zh) | 巷道断面提取方法、装置、设备及存储介质 | |
CN107622530A (zh) | 一种高效鲁棒的三角网切割方法 | |
CN104992466A (zh) | 一种三维场景的即时寻径方法 | |
CN103278126A (zh) | 一种基于最小区域的零件球度误差评定方法 | |
CN104239678B (zh) | 一种实现干涉仪测向定位的方法和装置 | |
Lee et al. | A study on scan data matching for reverse engineering of pipes in plant construction | |
CN105785919A (zh) | 点云五轴无全局干涉刀轴矢量可行域计算方法 | |
CN104867156B (zh) | 一种针对合作标志器位姿测量的特征点识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130807 Termination date: 20170722 |