CN111123914A - 割草机器人基于视觉场景的方向估算方法 - Google Patents

割草机器人基于视觉场景的方向估算方法 Download PDF

Info

Publication number
CN111123914A
CN111123914A CN201911224570.8A CN201911224570A CN111123914A CN 111123914 A CN111123914 A CN 111123914A CN 201911224570 A CN201911224570 A CN 201911224570A CN 111123914 A CN111123914 A CN 111123914A
Authority
CN
China
Prior art keywords
mowing robot
image
processor
estimation method
delta theta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911224570.8A
Other languages
English (en)
Inventor
刘瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Jingyi Intelligent Science and Technology Co Ltd
Original Assignee
Hangzhou Jingyi Intelligent Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Jingyi Intelligent Science and Technology Co Ltd filed Critical Hangzhou Jingyi Intelligent Science and Technology Co Ltd
Priority to CN201911224570.8A priority Critical patent/CN111123914A/zh
Publication of CN111123914A publication Critical patent/CN111123914A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的处理器设置方向估算方法,包括以下步骤:(1)所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,采集图像f(x,y);(2)所述的处理器搜索图像中心线上的天际点(M/2,yi),然后写入方向数组A[i]=yi;(3)所述的割草机器人在工作过程中需要确定自身方向的时候,采集工作场景的图像f(x,y),提取图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j];(4)对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的数据相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。

Description

割草机器人基于视觉场景的方向估算方法
技术领域
本发明涉及割草机器人基于视觉场景的方向估算方法,属于移动机器人技术领域。
背景技术
室外割草机器人工作在室外复杂多变的环境中。为了实现智能化的路径规划以及迅速找到充电座,需要进行全局范围的自定位,即确定自身的位置和方向。常规的定位方式是采用惯性导航的方法,比如通过安装在驱动轮上的编码器实时计算割草机器人的位移和转向,这类定位方法最大的弊端就是具有累计误差,即随着工作时间的累计,误差也在不断的累计,最终导致定位数据无效。而具有全局定位能力的GPS,对于割草机器人来说,定位精度还不能满足要求。因此,寻找一种全局性质、不具有累计误差的定位方法对于完善割草机人的功能具有重要的意义。
发明内容
本发明的目的是为了克服现有技术中的不足之处,提出割草机器人基于视觉场景的方向估算方法,采用天际线图像匹配的方式确定割草机器人的方向,提供全局性质、不具有累计误差的方向信息。
本发明解决其技术问题所采用的技术方案是:
割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置进行集中控制的处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的惯性导航系统用于计算所述的割草机器人的旋转角度θ,所述的处理器设置方向估算方法,所述的方向估算方法包括以下步骤:
(1) 所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的图像采集模块采集工作场景的图像f(x,y);
(2) 所述的处理器搜索图像中心线上的天际点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向数组A[i]= yi,其中M为图像f(x,y)在x方向上的最大值;
(3) 所述的割草机器人在工作过程中需要确定自身方向的时候,所述的处理器通过所述的图像采集模块采集工作场景的图像f(x,y),提取整个图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={ h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的图像采集模块视角,⌊⌋为向下取整;
(4) 对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
所述的步骤(2)中,天际点的计算方法为:
如果y>yi,满足f(x,y)>T1,其中T1为判断天空的亮度阈值;并且f(x,yi)-f(x,yi-1)>T2,则点(x, yi)为天际点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
所述的步骤(4)中,方向数组A[k]处的相似度的计算方法为:差值D=
Figure 100002_DEST_PATH_IMAGE001
,D值越小,相似度越大。
实施本发明的积极效果是:1、基于图像采集及处理的工作方式,成本低,算法简单;2、具有全局性质、没有累计误差的定位方式。
附图说明
图1是方向估算方法的流程图。
具体实施方式
现结合附图对本发明作进一步说明:
参照图1,割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置进行集中控制的处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的图像采集模块负责进行所述的割草机器人工作场景的图像采集,其光轴与地面平行,可以兼顾天空和地面的成像,所述的惯性导航系统用于计算所述的割草机器人的旋转角度θ,设置为安装在驱动轮上的编码器,实时计算割所述的草机器人的位移和转向。
所述的处理器设置方向估算方法,所述的方向估算方法包括以下步骤:
(1) 所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的图像采集模块采集工作场景的图像f(x,y);
步骤(1)是所述的割草机器人原地旋转,是建立跟角度相关的图像数据的过程。所述的惯性导航系统在短时间内,累计误差还是可以信赖的。
(2) 所述的处理器搜索图像中心线上的天际点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向数组A[i]= yi,其中M为图像f(x,y)在x方向上的最大值;
所述的割草机器人的工作环境是复杂多变的,并且特征也是多变,不具有稳定性。但是,天空与地面或者地面建筑植物的交界点具有不变性,可作为所述的割草机器人判别方向的依据。所述的步骤(2)中,天际点的计算方法为:
如果y>yi,满足f(x,y)>T1,其中T1为判断天空的亮度阈值;并且f(x,yi)-f(x,yi-1)>T2,则点(x, yi)为天际点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
(3) 所述的割草机器人在工作过程中需要确定自身方向的时候,所述的处理器通过所述的图像采集模块采集工作场景的图像f(x,y),提取整个图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={ h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的图像采集模块视角,⌊⌋为向下取整;
在实际工作过程中,为了测量当前的方向,所述的割草机器人进行图像采集,并提取整幅图像的天际点,并选取跟角度Δθ对应的天际点组成采样数据B[j]。
(4) 对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
所述的步骤(4)中,方向数组A[k]处的相似度的计算方法为:差值D=
Figure 689175DEST_PATH_IMAGE001
,D值越小,相似度越大。
当采样数据B[j]与方向数组A[i]中的一段数据相似度最大时,就可以判断出所述的割草机器人的方向,并进行计算。

Claims (3)

1.割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置进行集中控制的处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的惯性导航系统用于计算所述的割草机器人的旋转角度θ,其特征在于:所述的处理器设置方向估算方法,所述的方向估算方法包括以下步骤:
(1) 所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的图像采集模块采集工作场景的图像f(x,y);
(2) 所述的处理器搜索图像中心线上的天际点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向数组A[i]= yi,其中M为图像f(x,y)在x方向上的最大值;
(3) 所述的割草机器人在工作过程中需要确定自身方向的时候,所述的处理器通过所述的图像采集模块采集工作场景的图像f(x,y),提取整个图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={ h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的图像采集模块视角,⌊⌋为向下取整;
(4) 对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
2.根据权利要求1所述的割草机器人基于视觉场景的方位估算方法,其特征是:所述的步骤(2)中,天际点的计算方法为:
如果y>yi,满足f(x,y)>T1,其中T1为判断天空的亮度阈值;并且f(x,yi)-f(x,yi-1)>T2,则点(x, yi)为天际点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
3.根据权利要求1所述的割草机器人基于视觉场景的方位估算方法,其特征是:所述的 步骤(4)中,方向数组A[k]处的相似度的计算方法为:差值D=
Figure DEST_PATH_IMAGE001
,D值越小,相 似度越大。
CN201911224570.8A 2019-12-04 2019-12-04 割草机器人基于视觉场景的方向估算方法 Withdrawn CN111123914A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911224570.8A CN111123914A (zh) 2019-12-04 2019-12-04 割草机器人基于视觉场景的方向估算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911224570.8A CN111123914A (zh) 2019-12-04 2019-12-04 割草机器人基于视觉场景的方向估算方法

Publications (1)

Publication Number Publication Date
CN111123914A true CN111123914A (zh) 2020-05-08

Family

ID=70497424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911224570.8A Withdrawn CN111123914A (zh) 2019-12-04 2019-12-04 割草机器人基于视觉场景的方向估算方法

Country Status (1)

Country Link
CN (1) CN111123914A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111520898A (zh) * 2020-05-12 2020-08-11 杭州晶一智能科技有限公司 基于热成像数据的室内环境体感温度获取方法
CN112164114A (zh) * 2020-09-23 2021-01-01 天津大学 一种基于天际线匹配的室外主动相机重定位方法
CN113207412A (zh) * 2021-04-15 2021-08-06 深圳拓邦股份有限公司 视觉伺服割草机器人目标跟踪方法和视觉伺服割草机器人

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111520898A (zh) * 2020-05-12 2020-08-11 杭州晶一智能科技有限公司 基于热成像数据的室内环境体感温度获取方法
CN112164114A (zh) * 2020-09-23 2021-01-01 天津大学 一种基于天际线匹配的室外主动相机重定位方法
CN112164114B (zh) * 2020-09-23 2022-05-20 天津大学 一种基于天际线匹配的室外主动相机重定位方法
CN113207412A (zh) * 2021-04-15 2021-08-06 深圳拓邦股份有限公司 视觉伺服割草机器人目标跟踪方法和视觉伺服割草机器人
CN113207412B (zh) * 2021-04-15 2022-12-06 深圳拓邦股份有限公司 视觉伺服割草机器人目标跟踪方法和视觉伺服割草机器人

Similar Documents

Publication Publication Date Title
KR102338270B1 (ko) 전자 지도를 업데이트하기 위한 방법, 장치 및 컴퓨터 판독 가능한 저장 매체
CN111522043B (zh) 一种无人车激光雷达快速重新匹配定位方法
CN109934920B (zh) 基于低成本设备的高精度三维点云地图构建方法
CN109696663B (zh) 一种车载三维激光雷达标定方法和系统
US11378958B2 (en) Navigating in snow
CN109341706B (zh) 一种面向无人驾驶汽车的多特征融合地图的制作方法
CN111551958B (zh) 一种面向矿区无人驾驶的高精地图制作方法
CN107704821B (zh) 一种弯道的车辆位姿计算方法
CN111123914A (zh) 割草机器人基于视觉场景的方向估算方法
CN110187375A (zh) 一种基于slam定位结果提高定位精度的方法及装置
US11615711B2 (en) Precision localization and geofencing governance system and method for light electric vehicles
CN110018503B (zh) 车辆的定位方法及定位系统
US11579622B2 (en) Systems and methods for utilizing images to determine the position and orientation of a vehicle
CN113419235A (zh) 一种基于毫米波雷达的无人机定位方法
CN116129067A (zh) 一种基于多源地理信息耦合的城市实景三维建模方法
CN108921896B (zh) 一种融合点线特征的下视视觉罗盘
CN113190564A (zh) 地图更新系统、方法及设备
CN111141271A (zh) 基于差分数据的室外移动机器人环境方向地图建立方法
CN113484843A (zh) 一种激光雷达与组合导航间外参数的确定方法及装置
CN111089572A (zh) 室外割草机器人基于视觉的电子罗盘
CN111141270A (zh) 基于天界线分析的移动机器人位置估计方法
CN109218970B (zh) 一种定位信息的修正方法
CN111189439A (zh) 基于关键信息匹配的室外移动机器人方向估计方法
CN102818570B (zh) 利用sins/图像匹配组合导航进行火星捕获的方法
JP2012118029A (ja) 退出判定装置、退出判定プログラム及び退出判定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200508