CN111141270A - 基于天界线分析的移动机器人位置估计方法 - Google Patents

基于天界线分析的移动机器人位置估计方法 Download PDF

Info

Publication number
CN111141270A
CN111141270A CN201911224403.3A CN201911224403A CN111141270A CN 111141270 A CN111141270 A CN 111141270A CN 201911224403 A CN201911224403 A CN 201911224403A CN 111141270 A CN111141270 A CN 111141270A
Authority
CN
China
Prior art keywords
mobile robot
processor
sky
camera
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911224403.3A
Other languages
English (en)
Inventor
刘瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Jingyi Intelligent Science and Technology Co Ltd
Original Assignee
Hangzhou Jingyi Intelligent Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Jingyi Intelligent Science and Technology Co Ltd filed Critical Hangzhou Jingyi Intelligent Science and Technology Co Ltd
Priority to CN201911224403.3A priority Critical patent/CN111141270A/zh
Publication of CN111141270A publication Critical patent/CN111141270A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于天界线分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,所述的处理器设置位置估计方法,包括以下步骤:(1)移动机器人在工作场所的中心位置,原地旋转一周;处理器每隔角度Δθ,采集图像fi 1(x,y)和fi 2(x,y);(2)计算场景的深度di(x,y);(3)处理器搜索图像fi 1(x,y)中心线上的天界点(M/2,yi),与对应深度信息写入方向数组A[i];(4)采集工作场景的图像f1(x,y)和f2(x,y),计算场景的深度d(x,y),确定自身方向β;(5)搜索图像f1(x,y)的中心线上的天界点,并读取深度信息,估计位置坐标x和y。

Description

基于天界线分析的移动机器人位置估计方法
技术领域
本发明涉及基于天界线分析的移动机器人位置估计方法,属于移动机器人技术领域。
背景技术
室外移动机器人工作在室外复杂多变的环境中,为了实现智能化的路径规划以及任务规划,需要具有全局意义的自定位。常规的定位方式是采用惯性导航的方法,比如通过安装在驱动轮上的编码器实时计算移动机器人的位移和转向,这类定位方法最大的弊端就是具有累计误差,即随着工作时间的累计,误差也在不断的累计,最终导致定位数据无效。也有基于激光雷达的方案,这种方案根据激光雷达的测距数据与事先建立的地图进行匹配,从而确定自身的位置。这种方案对硬件要求很高,并且算法复杂,目前还不能普及到普通室外移动机器人,比如割草机器人。
发明内容
本发明的目的是为了克服现有技术中的不足之处,提出基于天界线分析的移动机器人位置估计方法,以移动机器人工作环境四周的天界线为信息,进行方向匹配,并进行坐标估算,提供了不具有累计误差的位置信息。
本发明解决其技术问题所采用的技术方案是:
基于天界线分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的双目立体摄像机由两个光轴相互平行的第一摄像头和第二摄像头组成,所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,所述的处理器设置位置估计方法,所述的位置估计方法包括以下步骤:
(1) 所述的移动机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的双目立体摄像机采集工作场景的图像fi 1(x,y)和fi 2(x,y),其中,i=0…⌊2π/Δθ⌋-1,⌊⌋为向下取整;
(2) 所述的处理器基于fi 1(x,y)和fi 2(x,y)计算场景的深度di(x,y);
(3) 所述的处理器搜索图像fi 1(x,y)的中心线上的天界点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向地图数组A[i][0]= yi, A[i][1]=di(M/2,yi),其中M为fi 1(x,y)和fi 2(x,y)在x方向上的最大值。
(4) 所述的移动机器人在工作过程中需要确定自身位置的时候,所述的处理器通过所述的双目立体摄像机采集工作场景的图像f1(x,y)和f2(x,y),计算场景的深度信息d(x,y),根据方向地图数组A[i]确定自身方向β,读取方向地图数组A[⌊β/Δθ⌋-1][1]=d⌊β/Δθ⌋-1 (M/2,y⌊β/Δθ⌋-1);
(5) 所述的处理器搜索图像f1(x,y)的中心线上的天界点(M/2, yk),读取深度信息d(M/2,yk),估算所述的移动机器人的位置坐标:x={d(M/2,yk)-A[⌊β/Δθ⌋-1][1]}cosβ,y={d(M/2,yk)-A[⌊β/Δθ⌋-1] [1]}sinβ。
所述的步骤(3)和步骤(5)中,天界点的计算方法为:
如果y>Y,满足f 1(x,y)>T1,其中T1为判断天空的亮度阈值;并且f1(x,Y)-f1(x,Y-1)>T2,则点(x, Y)为天界点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
所述的步骤(4)中,方向β的计算方法为:
(4-1) 所述的处理器提取整个图像f1(x,y)的天界点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的第一摄像头的视角;
(4-2) 对采样数据B[j]与方向数组A[i][0]中的一段数据计算相似度,如果A[k] [0]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的方向为β=k﹒Δθ+α/2。
实施本发明的积极效果是:1、以移动机器人工作环境四周的天界线为特征信息,易于识别,并且具有特征不变性;2、具有全局性质、并且不具有累计误差。
附图说明
图1是位置估计方法的流程图。
具体实施方式
现结合附图对本发明作进一步说明:
参照图1,基于天界线分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的双目立体摄像机由两个光轴相互平行的第一摄像头和第二摄像头组成,可同时采集左右两幅图像,通过计算视差来获取深度信息;所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,设置为安装在驱动轮上的编码器,实时计算割所述的草机器人的位移和转向。
所述的处理器设置位置估计方法,所述的位置估计方法包括以下步骤:
(1) 所述的移动机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的双目立体摄像机采集工作场景的图像fi 1(x,y)和fi 2(x,y),其中,i=0…⌊2π/Δθ⌋-1,⌊⌋为向下取整;
步骤(1)是所述的移动机器人原地旋转,并在旋转过程中建立与方向相关的图像数据的过程。所述的惯性导航系统在短时间内,累计误差还比较小,角度信息还是可以信赖的。
(2) 所述的处理器基于fi 1(x,y)和fi 2(x,y)计算场景的深度di(x,y);
步骤(2)是基于双目立体视觉原理,根据视差信息,计算图像中的像素点的深度信息,即距离。
(3) 所述的处理器搜索图像fi 1(x,y)的中心线上的天界点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向地图数组A[i][0]= yi, A[i][1]=di(M/2,yi),其中M为fi 1(x,y)和fi 2(x,y)在x方向上的最大值。
所述的移动机器人的工作环境是复杂多变的,并且特征也是多变,不具有稳定性。但是,天空与地面或者地面建筑植物的交界点具有不变性,可作为所述的移动机器人判别方向的依据,并且结合天界点的深度信息,可进行后续步骤的位置估计。所述的步骤(3)和步骤(5)中,天界点的计算方法为:
如果y>Y,满足f 1(x,y)>T1,其中T1为判断天空的亮度阈值;并且f1(x,Y)-f1(x,Y-1)>T2,则点(x,Y)为天界点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
(4) 所述的移动机器人在工作过程中需要确定自身位置的时候,所述的处理器通过所述的双目立体摄像机采集工作场景的图像f1(x,y)和f2(x,y),计算场景的深度信息d(x,y),根据方向地图数组A[i],确定自身方向β,读取方向地图数组A[⌊β/Δθ⌋-1][1]=d⌊β/Δθ⌋-1 (M/2,y⌊β/Δθ⌋-1);
当测量当前位置的时候,所述的移动机器人进行图像采集,得到图像f1(x,y)和f2(x,y),因此可计算深度信息d(x,y)。然后计算所述的移动机器人的方向β,计算方法为:
(4-1) 所述的处理器提取整个图像f1(x,y)的天界点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的第一摄像头的视角;
(4-2) 对采样数据B[j]与方向数组A[i] [0]中的一段数据计算相似度,如果A[k] [0]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的方向为β=k﹒Δθ+α/2。
相似度计算可采用差分运算,求最小值的方法。得到所述的移动机器人的方向β以后,可查表得到所述的移动机器人在中心位置上正对的天界点的深度A[⌊β/Δθ⌋-1][1]=d⌊β/Δθ⌋-1 (M/2,y⌊β/Δθ⌋-1)。
(5) 所述的处理器搜索图像f1(x,y)的中心线上的天界点(M/2, yk),读取深度信息d(M/2,yk),估算所述的移动机器人的位置坐标:x={d(M/2,yk)-A[⌊β/Δθ⌋-1][1]}cosβ,y={d(M/2,yk)-A[⌊β/Δθ⌋-1] [1]}sinβ;
步骤(5)计算所述的移动机器人在当前位置上正对的天界点的深度d(M/2,yk)。最后根据当前位置和中心位置相对天界点的深度差,以及所述的移动机器人的方向,估算当前位置的x和y坐标。

Claims (3)

1.基于天界线分析的移动机器人位置估计方法,所述的移动机器人内部设置进行集中控制的处理器,与所述的处理器连接的双目立体摄像机和惯性导航系统,所述的双目立体摄像机由两个光轴相互平行的第一摄像头和第二摄像头组成,所述的惯性导航系统用于计算所述的移动机器人的旋转角度θ,其特征在于:所述的处理器设置位置估计方法,所述的位置估计方法包括以下步骤:
(1) 所述的移动机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的双目立体摄像机采集工作场景的图像fi 1(x,y)和fi 2(x,y),其中,i=0…⌊2π/Δθ⌋-1,⌊⌋为向下取整;
(2) 所述的处理器基于fi 1(x,y)和fi 2(x,y)计算场景的深度di(x,y);
(3) 所述的处理器搜索图像fi 1(x,y)的中心线上的天界点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向地图数组A[i][0]= yi, A[i][1]=di(M/2,yi),其中M为fi 1(x,y)和fi 2(x,y)在x方向上的最大值。
(4) 所述的移动机器人在工作过程中需要确定自身位置的时候,所述的处理器通过所述的双目立体摄像机采集工作场景的图像f1(x,y)和f2(x,y),计算场景的深度信息d(x,y),根据方向地图数组A[i]确定自身方向β,读取方向地图数组A[⌊β/Δθ⌋-1][1]=d⌊β/Δθ⌋-1 (M/2,y⌊β/Δθ⌋-1);
(5) 所述的处理器搜索图像f1(x,y)的中心线上的天界点(M/2, yk),读取深度信息d(M/2,yk),估算所述的移动机器人的位置坐标:x={d(M/2,yk)-A[⌊β/Δθ⌋-1][1]}cosβ,y={d(M/2,yk)-A[⌊β/Δθ⌋-1] [1]}sinβ。
2.根据权利要求1所述的基于天界线分析的移动机器人位置估计方法,其特征是:所述的步骤(3)和步骤(5)中,天界点的计算方法为:
如果y>Y,满足f 1(x,y)>T1,其中T1为判断天空的亮度阈值;并且f1(x,Y)-f1(x,Y-1)>T2,则点(x, Y)为天界点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
3.根据权利要求1所述的基于天界线分析的移动机器人位置估计方法,其特征是:所述的步骤(4)中,方向β的计算方法为:
(4-1) 所述的处理器提取整个图像f1(x,y)的天界点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的第一摄像头的视角;
(4-2) 对采样数据B[j]与方向数组A[i][0]中的一段数据计算相似度,如果A[k] [0]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的方向为β=k﹒Δθ+α/2。
CN201911224403.3A 2019-12-04 2019-12-04 基于天界线分析的移动机器人位置估计方法 Withdrawn CN111141270A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911224403.3A CN111141270A (zh) 2019-12-04 2019-12-04 基于天界线分析的移动机器人位置估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911224403.3A CN111141270A (zh) 2019-12-04 2019-12-04 基于天界线分析的移动机器人位置估计方法

Publications (1)

Publication Number Publication Date
CN111141270A true CN111141270A (zh) 2020-05-12

Family

ID=70517602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911224403.3A Withdrawn CN111141270A (zh) 2019-12-04 2019-12-04 基于天界线分析的移动机器人位置估计方法

Country Status (1)

Country Link
CN (1) CN111141270A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673569A (zh) * 2021-07-21 2021-11-19 浙江大华技术股份有限公司 目标检测方法、装置、电子设备、存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673569A (zh) * 2021-07-21 2021-11-19 浙江大华技术股份有限公司 目标检测方法、装置、电子设备、存储介质

Similar Documents

Publication Publication Date Title
CN110807809B (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN111833333A (zh) 一种基于双目视觉的悬臂式掘进装备位姿测量方法及系统
CN109191504A (zh) 一种无人机目标跟踪方法
CN110319772B (zh) 基于无人机的视觉大跨度测距方法
US10872246B2 (en) Vehicle lane detection system
CN111830953A (zh) 车辆自定位方法、装置及系统
CN105096386A (zh) 大范围复杂城市环境几何地图自动生成方法
CN112734839B (zh) 一种提高鲁棒性的单目视觉slam初始化方法
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
CN104729485A (zh) 一种基于车载全景影像与街景地图匹配的视觉定位方法
CN102072725A (zh) 一种基于激光点云和实景影像进行空间三维测量的方法
CN114037762B (zh) 基于图像与高精度地图配准的实时高精度定位方法
CN110827353A (zh) 一种基于单目摄像头辅助的机器人定位方法
CN109029442A (zh) 基于多视角匹配的定位装置及方法
CN114063099A (zh) 基于rgbd的定位方法及装置
CN118168545A (zh) 基于多源传感器融合的除草机器人定位导航系统及方法
CN110286384B (zh) 一种基于多线激光点云极化表征的高精度地图生成系统及方法
CN111123914A (zh) 割草机器人基于视觉场景的方向估算方法
CN110927743A (zh) 一种基于多线激光点云极化表征的智能车定位方法
CN113838129B (zh) 一种获得位姿信息的方法、装置以及系统
CN112446915A (zh) 一种基于图像组的建图方法及装置
CN111141270A (zh) 基于天界线分析的移动机器人位置估计方法
CN111191513A (zh) 基于景物尺寸分析的移动机器人位置估计方法
CN113190564A (zh) 地图更新系统、方法及设备
JP4892224B2 (ja) 路面標示自動計測システム、装置及び方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200512