CN111123914A - 割草机器人基于视觉场景的方向估算方法 - Google Patents
割草机器人基于视觉场景的方向估算方法 Download PDFInfo
- Publication number
- CN111123914A CN111123914A CN201911224570.8A CN201911224570A CN111123914A CN 111123914 A CN111123914 A CN 111123914A CN 201911224570 A CN201911224570 A CN 201911224570A CN 111123914 A CN111123914 A CN 111123914A
- Authority
- CN
- China
- Prior art keywords
- mowing robot
- image
- processor
- estimation method
- delta theta
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000000007 visual effect Effects 0.000 claims abstract description 9
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的处理器设置方向估算方法,包括以下步骤:(1)所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,采集图像f(x,y);(2)所述的处理器搜索图像中心线上的天际点(M/2,yi),然后写入方向数组A[i]=yi;(3)所述的割草机器人在工作过程中需要确定自身方向的时候,采集工作场景的图像f(x,y),提取图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j];(4)对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的数据相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
Description
技术领域
本发明涉及割草机器人基于视觉场景的方向估算方法,属于移动机器人技术领域。
背景技术
室外割草机器人工作在室外复杂多变的环境中。为了实现智能化的路径规划以及迅速找到充电座,需要进行全局范围的自定位,即确定自身的位置和方向。常规的定位方式是采用惯性导航的方法,比如通过安装在驱动轮上的编码器实时计算割草机器人的位移和转向,这类定位方法最大的弊端就是具有累计误差,即随着工作时间的累计,误差也在不断的累计,最终导致定位数据无效。而具有全局定位能力的GPS,对于割草机器人来说,定位精度还不能满足要求。因此,寻找一种全局性质、不具有累计误差的定位方法对于完善割草机人的功能具有重要的意义。
发明内容
本发明的目的是为了克服现有技术中的不足之处,提出割草机器人基于视觉场景的方向估算方法,采用天际线图像匹配的方式确定割草机器人的方向,提供全局性质、不具有累计误差的方向信息。
本发明解决其技术问题所采用的技术方案是:
割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置进行集中控制的处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的惯性导航系统用于计算所述的割草机器人的旋转角度θ,所述的处理器设置方向估算方法,所述的方向估算方法包括以下步骤:
(1) 所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的图像采集模块采集工作场景的图像f(x,y);
(2) 所述的处理器搜索图像中心线上的天际点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向数组A[i]= yi,其中M为图像f(x,y)在x方向上的最大值;
(3) 所述的割草机器人在工作过程中需要确定自身方向的时候,所述的处理器通过所述的图像采集模块采集工作场景的图像f(x,y),提取整个图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={ h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的图像采集模块视角,⌊⌋为向下取整;
(4) 对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
所述的步骤(2)中,天际点的计算方法为:
如果y>yi,满足f(x,y)>T1,其中T1为判断天空的亮度阈值;并且f(x,yi)-f(x,yi-1)>T2,则点(x, yi)为天际点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
实施本发明的积极效果是:1、基于图像采集及处理的工作方式,成本低,算法简单;2、具有全局性质、没有累计误差的定位方式。
附图说明
图1是方向估算方法的流程图。
具体实施方式
现结合附图对本发明作进一步说明:
参照图1,割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置进行集中控制的处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的图像采集模块负责进行所述的割草机器人工作场景的图像采集,其光轴与地面平行,可以兼顾天空和地面的成像,所述的惯性导航系统用于计算所述的割草机器人的旋转角度θ,设置为安装在驱动轮上的编码器,实时计算割所述的草机器人的位移和转向。
所述的处理器设置方向估算方法,所述的方向估算方法包括以下步骤:
(1) 所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的图像采集模块采集工作场景的图像f(x,y);
步骤(1)是所述的割草机器人原地旋转,是建立跟角度相关的图像数据的过程。所述的惯性导航系统在短时间内,累计误差还是可以信赖的。
(2) 所述的处理器搜索图像中心线上的天际点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向数组A[i]= yi,其中M为图像f(x,y)在x方向上的最大值;
所述的割草机器人的工作环境是复杂多变的,并且特征也是多变,不具有稳定性。但是,天空与地面或者地面建筑植物的交界点具有不变性,可作为所述的割草机器人判别方向的依据。所述的步骤(2)中,天际点的计算方法为:
如果y>yi,满足f(x,y)>T1,其中T1为判断天空的亮度阈值;并且f(x,yi)-f(x,yi-1)>T2,则点(x, yi)为天际点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
(3) 所述的割草机器人在工作过程中需要确定自身方向的时候,所述的处理器通过所述的图像采集模块采集工作场景的图像f(x,y),提取整个图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={ h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的图像采集模块视角,⌊⌋为向下取整;
在实际工作过程中,为了测量当前的方向,所述的割草机器人进行图像采集,并提取整幅图像的天际点,并选取跟角度Δθ对应的天际点组成采样数据B[j]。
(4) 对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
当采样数据B[j]与方向数组A[i]中的一段数据相似度最大时,就可以判断出所述的割草机器人的方向,并进行计算。
Claims (3)
1.割草机器人基于视觉场景的方向估算方法,所述的割草机器人内部设置进行集中控制的处理器,与所述的处理器连接的图像采集模块和惯性导航系统,所述的惯性导航系统用于计算所述的割草机器人的旋转角度θ,其特征在于:所述的处理器设置方向估算方法,所述的方向估算方法包括以下步骤:
(1) 所述的割草机器人设置在工作场所的中心位置,并原地旋转一周;所述的处理器每隔角度Δθ,通过所述的图像采集模块采集工作场景的图像f(x,y);
(2) 所述的处理器搜索图像中心线上的天际点(M/2, yi),即天空与地面或者地面建筑、植物的交界点,然后写入方向数组A[i]= yi,其中M为图像f(x,y)在x方向上的最大值;
(3) 所述的割草机器人在工作过程中需要确定自身方向的时候,所述的处理器通过所述的图像采集模块采集工作场景的图像f(x,y),提取整个图像的天际点y`=h(x),取其中α/Δθ个数据组成采样数据B[j]={ h(0),h(⌊M·Δθ/α⌋),h(⌊2·M·Δθ/α⌋,h(⌊3·M·Δθ/α⌋……},其中,α为所述的图像采集模块视角,⌊⌋为向下取整;
(4) 对采样数据B[j]与方向数组A[i]中的一段数据计算相似度,如果A[k]开始的一段数据,与采样数据B[j]相似度最大,则所述的割草机器人的角度为β=k﹒Δθ+α/2。
2.根据权利要求1所述的割草机器人基于视觉场景的方位估算方法,其特征是:所述的步骤(2)中,天际点的计算方法为:
如果y>yi,满足f(x,y)>T1,其中T1为判断天空的亮度阈值;并且f(x,yi)-f(x,yi-1)>T2,则点(x, yi)为天际点,其中T2为天空到地面或者建筑物、植物的亮度梯度阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911224570.8A CN111123914A (zh) | 2019-12-04 | 2019-12-04 | 割草机器人基于视觉场景的方向估算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911224570.8A CN111123914A (zh) | 2019-12-04 | 2019-12-04 | 割草机器人基于视觉场景的方向估算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111123914A true CN111123914A (zh) | 2020-05-08 |
Family
ID=70497424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911224570.8A Withdrawn CN111123914A (zh) | 2019-12-04 | 2019-12-04 | 割草机器人基于视觉场景的方向估算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111123914A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111520898A (zh) * | 2020-05-12 | 2020-08-11 | 杭州晶一智能科技有限公司 | 基于热成像数据的室内环境体感温度获取方法 |
CN112164114A (zh) * | 2020-09-23 | 2021-01-01 | 天津大学 | 一种基于天际线匹配的室外主动相机重定位方法 |
CN113207412A (zh) * | 2021-04-15 | 2021-08-06 | 深圳拓邦股份有限公司 | 视觉伺服割草机器人目标跟踪方法和视觉伺服割草机器人 |
-
2019
- 2019-12-04 CN CN201911224570.8A patent/CN111123914A/zh not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111520898A (zh) * | 2020-05-12 | 2020-08-11 | 杭州晶一智能科技有限公司 | 基于热成像数据的室内环境体感温度获取方法 |
CN112164114A (zh) * | 2020-09-23 | 2021-01-01 | 天津大学 | 一种基于天际线匹配的室外主动相机重定位方法 |
CN112164114B (zh) * | 2020-09-23 | 2022-05-20 | 天津大学 | 一种基于天际线匹配的室外主动相机重定位方法 |
CN113207412A (zh) * | 2021-04-15 | 2021-08-06 | 深圳拓邦股份有限公司 | 视觉伺服割草机器人目标跟踪方法和视觉伺服割草机器人 |
CN113207412B (zh) * | 2021-04-15 | 2022-12-06 | 深圳拓邦股份有限公司 | 视觉伺服割草机器人目标跟踪方法和视觉伺服割草机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102338270B1 (ko) | 전자 지도를 업데이트하기 위한 방법, 장치 및 컴퓨터 판독 가능한 저장 매체 | |
CN111522043B (zh) | 一种无人车激光雷达快速重新匹配定位方法 | |
CN109934920B (zh) | 基于低成本设备的高精度三维点云地图构建方法 | |
CN109696663B (zh) | 一种车载三维激光雷达标定方法和系统 | |
US11378958B2 (en) | Navigating in snow | |
CN109341706B (zh) | 一种面向无人驾驶汽车的多特征融合地图的制作方法 | |
CN111551958B (zh) | 一种面向矿区无人驾驶的高精地图制作方法 | |
CN107704821B (zh) | 一种弯道的车辆位姿计算方法 | |
CN111123914A (zh) | 割草机器人基于视觉场景的方向估算方法 | |
CN110187375A (zh) | 一种基于slam定位结果提高定位精度的方法及装置 | |
US11615711B2 (en) | Precision localization and geofencing governance system and method for light electric vehicles | |
CN110018503B (zh) | 车辆的定位方法及定位系统 | |
US11579622B2 (en) | Systems and methods for utilizing images to determine the position and orientation of a vehicle | |
CN113419235A (zh) | 一种基于毫米波雷达的无人机定位方法 | |
CN116129067A (zh) | 一种基于多源地理信息耦合的城市实景三维建模方法 | |
CN108921896B (zh) | 一种融合点线特征的下视视觉罗盘 | |
CN113190564A (zh) | 地图更新系统、方法及设备 | |
CN111141271A (zh) | 基于差分数据的室外移动机器人环境方向地图建立方法 | |
CN113484843A (zh) | 一种激光雷达与组合导航间外参数的确定方法及装置 | |
CN111089572A (zh) | 室外割草机器人基于视觉的电子罗盘 | |
CN111141270A (zh) | 基于天界线分析的移动机器人位置估计方法 | |
CN109218970B (zh) | 一种定位信息的修正方法 | |
CN111189439A (zh) | 基于关键信息匹配的室外移动机器人方向估计方法 | |
CN102818570B (zh) | 利用sins/图像匹配组合导航进行火星捕获的方法 | |
JP2012118029A (ja) | 退出判定装置、退出判定プログラム及び退出判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200508 |