CN111191513A - 基于景物尺寸分析的移动机器人位置估计方法 - Google Patents
基于景物尺寸分析的移动机器人位置估计方法 Download PDFInfo
- Publication number
- CN111191513A CN111191513A CN201911230815.8A CN201911230815A CN111191513A CN 111191513 A CN111191513 A CN 111191513A CN 201911230815 A CN201911230815 A CN 201911230815A CN 111191513 A CN111191513 A CN 111191513A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- processor
- sky
- camera
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于天界线分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,所述的处理器设置位置估计方法,包括以下步骤:(1)移动机器人在工作场所的中心位置,原地旋转一周;处理器每隔角度Δθ,采集图像fi 1(x,y)和fi 2(x,y);(2)计算场景的深度di(x,y);(3)处理器搜索图像fi 1(x,y)中心线上的天界点(M/2,yi),与高度信息写入方向数组A[i];(4)采集工作场景的图像f1(x,y),确定自身方向β;(5)搜索图像f1(x,y)的中心线上的天界点,估计位置坐标x和y。
Description
技术领域
本发明涉及基于景物尺寸分析的移动机器人位置估计方法,属于移动机器人技术领域。
背景技术
室外移动机器人工作在室外复杂多变的环境中,为了实现智能化的路径规划以及任务规划,需要具有全局意义的自定位。常规的定位方式是采用惯性导航的方法,比如通过安装在驱动轮上的编码器实时计算移动机器人的位移和转向,这类定位方法最大的弊端就是具有累计误差,即随着工作时间的累计,误差也在不断的累计,最终导致定位数据无效。也有基于激光雷达的方案,这种方案根据激光雷达的测距数据与事先建立的地图进行匹配,从而确定自身的位置。这种方案对硬件要求很高,并且算法复杂,目前还不能普及到普通室外移动机器人,比如割草机器人。随着机器视觉的硬件成本的降低和软件处理技术的发展,模拟人眼对位置和方向的估计成为一种成本可接受的可行方案。
发明内容
本发明的目的是为了克服现有技术中的不足之处,提出基于景物尺寸分析的移动机器人位置估计方法,以移动机器人工作环境四周的四周景物为参照,按照近大远小的原理,进行坐标估算,提供了不具有累计误差的位置信息。
本发明解决其技术问题所采用的技术方案是:
基于景物尺寸分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的双目立体摄像机由两个光轴相互平行的第一摄像头和第二摄像头组成,所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,所述的处理器设置位置估计方法,所述的位置估计方法包括以下步骤:
(1) 所述的移动机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的双目立体摄像机采集工作场景的图像fi 1(x,y)和fi 2(x,y),其中,i=0…⌊2π/Δθ⌋-1,⌊⌋为向下取整;
(2) 所述的处理器基于fi 1(x,y)和fi 2(x,y)计算场景的深度di(x,y);
(3) 所述的处理器搜索图像fi 1(x,y)的中心线上的天界点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向地图数组A[i][0]=yi, A[i][1]= Hi,其中,M为fi 1(x,y)和fi 2(x,y)在x方向上的最大值,Hi= yi﹒p﹒di(M/2,yi)/f,为天界点的高度,p为像素尺寸,f为所述的第一摄像头的焦距;
(4) 所述的移动机器人在工作过程中需要确定自身位置的时候,所述的处理器通过所述的第一摄像头采集工作场景的图像f1(x,y),根据方向地图数组A[i]确定自身方向β,读取方向地图数组A[⌊β/Δθ⌋-1][1]=H⌊β/Δθ⌋-1;
(5) 所述的处理器搜索图像f1(x,y)的中心线上的天界点(M/2, yk),估算所述的移动机器人的位置坐标:x=(1/yk -1/yi)﹒f﹒Hi /p﹒cosβ,y=(1/yk -1/yi)﹒f﹒Hi /p﹒sinβ。
所述的步骤(3)和步骤(5)中,天界点的计算方法为:
如果y>Y,满足f 1(x,y)>T1,其中T1为判断天空的亮度阈值;并且f1(x,Y)-f1(x,Y-1)>T2,则点(x, Y)为天界点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
所述的步骤(4)中,方向β的计算方法为:
(4-1) 所述的处理器提取整个图像f1(x,y)的天界点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的第一摄像头的视角;
(4-2) 对采样数据B[j]与方向数组A[i][0]中的一段数据计算相似度,如果A[k] [0]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的方向为β=k﹒Δθ+α/2。
实施本发明的积极效果是:1、以移动机器人工作环境四周的四周景物为参照,按照近大远小的原理,进行坐标估算;2、具有全局性质、并且不具有累计误差。
附图说明
图1是位置估计方法的流程图。
具体实施方式
现结合附图对本发明作进一步说明:
参照图1,基于景物尺寸分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的双目立体摄像机由两个光轴相互平行的第一摄像头和第二摄像头组成,可同时采集左右两幅图像,通过计算视差来获取深度信息;所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,设置为安装在驱动轮上的编码器,实时计算割所述的草机器人的位移和转向。
所述的处理器设置位置估计方法,所述的位置估计方法包括以下步骤:
(1) 所述的移动机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的双目立体摄像机采集工作场景的图像fi 1(x,y)和fi 2(x,y),其中,i=0…⌊2π/Δθ⌋-1,⌊⌋为向下取整;
步骤(1)是所述的移动机器人原地旋转,并在旋转过程中建立与方向相关的图像数据的过程。所述的惯性导航系统在短时间内,累计误差还比较小,角度信息还是可以信赖的。
(2) 所述的处理器基于fi 1(x,y)和fi 2(x,y)计算场景的深度di(x,y);
步骤(2)是基于双目立体视觉原理,根据视差信息,计算图像中的像素点的深度信息,即距离。
(3) 所述的处理器搜索图像fi 1(x,y)的中心线上的天界点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向地图数组A[i][0]=yi, A[i][1]= Hi,其中,M为fi 1(x,y)和fi 2(x,y)在x方向上的最大值,Hi= yi﹒p﹒di(M/2,yi)/f,为天界点的高度,p为像素尺寸,f为所述的第一摄像头的焦距;
步骤(3)是建立工作环境的地图。所述的移动机器人的工作环境是复杂多变的,并且特征也是多变,不具有稳定性。但是,天空与地面或者地面建筑植物的交界点具有不变性,可作为所述的移动机器人判别方向的依据,并且天界点Hi的高度,可进行后续步骤的位置估计。天界点Hi是基于成像模型基础得到的。所述的步骤(3)和步骤(5)中,天界点的计算方法为:
如果y>Y,满足f 1(x,y)>T1,其中T1为判断天空的亮度阈值;并且f1(x,Y)-f1(x,Y-1)>T2,则点(x,Y)为天界点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
(4) 所述的移动机器人在工作过程中需要确定自身位置的时候,所述的处理器通过所述的第一摄像头采集工作场景的图像f1(x,y),根据方向地图数组A[i]确定自身方向β,读取方向地图数组A[⌊β/Δθ⌋-1][1]=H⌊β/Δθ⌋-1;
当测量当前位置的时候,所述的移动机器人进行图像采集,得到图像f1(x,y),然后计算所述的移动机器人的方向β,计算方法为:
(4-1) 所述的处理器提取整个图像f1(x,y)的天界点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的第一摄像头的视角;
(4-2) 对采样数据B[j]与方向数组A[i] [0]中的一段数据计算相似度,如果A[k] [0]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的方向为β=k﹒Δθ+α/2。
相似度计算可采用差分运算,求最小值的方法。得到所述的移动机器人的方向β以后,可查表得到所述的移动机器人在中心位置上正对的天界点的深度A[⌊β/Δθ⌋-1][1]=d⌊β/Δθ⌋-1 (M/2,y⌊β/Δθ⌋-1)。
(5) 所述的处理器搜索图像f1(x,y)的中心线上的天界点(M/2, yk),估算所述的移动机器人的位置坐标:x=(1/yk -1/yi)﹒f﹒Hi /p﹒cosβ,y=(1/yk -1/yi)﹒f﹒Hi /p﹒sinβ。
基于天界点坐标可以得到当前位置距离天界点的距离f﹒Hi /(yk﹒p), 而中心位置距离天界点的距离f﹒Hi /( yi﹒p)。最后根据当前位置和中心位置相对天界点的距离差,以及所述的移动机器人的方向,就可以估算当前位置的x和y坐标。
Claims (3)
1.基于景物尺寸分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的双目立体摄像机由两个光轴相互平行的第一摄像头和第二摄像头组成,所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,其特征在于:所述的处理器设置位置估计方法,所述的位置估计方法包括以下步骤:
(1) 所述的移动机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的双目立体摄像机采集工作场景的图像fi 1(x,y)和fi 2(x,y),其中,i=0…⌊2π/Δθ⌋-1,⌊⌋为向下取整;
(2) 所述的处理器基于fi 1(x,y)和fi 2(x,y)计算场景的深度di(x,y);
(3) 所述的处理器搜索图像fi 1(x,y)的中心线上的天界点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向地图数组A[i][0]=yi, A[i][1]= Hi,其中,M为fi 1(x,y)和fi 2(x,y)在x方向上的最大值,Hi= yi﹒p﹒di(M/2,yi)/f,为天界点的高度,p为像素尺寸,f为所述的第一摄像头的焦距;
(4) 所述的移动机器人在工作过程中需要确定自身位置的时候,所述的处理器通过所述的第一摄像头采集工作场景的图像f1(x,y),根据方向地图数组A[i]确定自身方向β,读取方向地图数组A[⌊β/Δθ⌋-1][1]=H⌊β/Δθ⌋-1;
(5) 所述的处理器搜索图像f1(x,y)的中心线上的天界点(M/2, yk),估算所述的移动机器人的位置坐标:x=(1/yk -1/yi)﹒f﹒Hi /p﹒cosβ,y=(1/yk -1/yi)﹒f﹒Hi /p﹒sinβ。
2.根据权利要求1所述的基于景物尺寸分析的移动机器人位置估计方法,其特征是:所述的步骤(3)和步骤(5)中,天界点的计算方法为:
如果y>Y,满足f 1(x,y)>T1,其中T1为判断天空的亮度阈值;并且f1(x,Y)-f1(x,Y-1)>T2,则点(x, Y)为天界点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
3.根据权利要求1所述的基于景物尺寸分析的移动机器人位置估计方法,其特征是:所述的步骤(4)中,方向β的计算方法为:
(4-1) 所述的处理器提取整个图像f1(x,y)的天界点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的第一摄像头的视角;
(4-2) 对采样数据B[j]与方向数组A[i][0]中的一段数据计算相似度,如果A[k] [0]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的方向为β=k﹒Δθ+α/2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911230815.8A CN111191513A (zh) | 2019-12-05 | 2019-12-05 | 基于景物尺寸分析的移动机器人位置估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911230815.8A CN111191513A (zh) | 2019-12-05 | 2019-12-05 | 基于景物尺寸分析的移动机器人位置估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111191513A true CN111191513A (zh) | 2020-05-22 |
Family
ID=70710878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911230815.8A Withdrawn CN111191513A (zh) | 2019-12-05 | 2019-12-05 | 基于景物尺寸分析的移动机器人位置估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111191513A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112223273A (zh) * | 2020-08-21 | 2021-01-15 | 宁波辰峰自动化科技有限公司 | 一种工业机器人视觉检测及避障系统 |
-
2019
- 2019-12-05 CN CN201911230815.8A patent/CN111191513A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112223273A (zh) * | 2020-08-21 | 2021-01-15 | 宁波辰峰自动化科技有限公司 | 一种工业机器人视觉检测及避障系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230260151A1 (en) | Simultaneous Localization and Mapping Method, Device, System and Storage Medium | |
CN110426051B (zh) | 一种车道线绘制方法、装置及存储介质 | |
CN106529495B (zh) | 一种飞行器的障碍物检测方法和装置 | |
CN111914715B (zh) | 一种基于仿生视觉的智能车目标实时检测与定位方法 | |
CN110807809B (zh) | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 | |
CN111833333A (zh) | 一种基于双目视觉的悬臂式掘进装备位姿测量方法及系统 | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
WO2015024407A1 (zh) | 基于电力机器人的双目视觉导航系统及方法 | |
CN111830953A (zh) | 车辆自定位方法、装置及系统 | |
CN112734839B (zh) | 一种提高鲁棒性的单目视觉slam初始化方法 | |
CN110827353B (zh) | 一种基于单目摄像头辅助的机器人定位方法 | |
CN113658337B (zh) | 一种基于车辙线的多模态里程计方法 | |
US10872246B2 (en) | Vehicle lane detection system | |
Zhao et al. | Reconstruction of textured urban 3D model by fusing ground-based laser range and CCD images | |
CN110751123B (zh) | 一种单目视觉惯性里程计系统及方法 | |
CN112700486B (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
CN111080784A (zh) | 一种基于地面图像纹理的地面三维重建方法和装置 | |
CN111161334A (zh) | 一种基于深度学习的语义地图构建方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN116468786A (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN110927743A (zh) | 一种基于多线激光点云极化表征的智能车定位方法 | |
CN113447014A (zh) | 室内移动机器人、建图方法、定位方法以及建图定位装置 | |
CN111191513A (zh) | 基于景物尺寸分析的移动机器人位置估计方法 | |
CN111862146B (zh) | 一种目标对象的定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200522 |
|
WW01 | Invention patent application withdrawn after publication |