CN104898551B - 全自动割草机器人的双视觉自定位系统 - Google Patents

全自动割草机器人的双视觉自定位系统 Download PDF

Info

Publication number
CN104898551B
CN104898551B CN201510109659.5A CN201510109659A CN104898551B CN 104898551 B CN104898551 B CN 104898551B CN 201510109659 A CN201510109659 A CN 201510109659A CN 104898551 B CN104898551 B CN 104898551B
Authority
CN
China
Prior art keywords
module
full
removing robot
image
automatic grass
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510109659.5A
Other languages
English (en)
Other versions
CN104898551A (zh
Inventor
刘瑜
冯剑锋
邢明
胡轩
章思恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Sci Tech University ZSTU
Original Assignee
Zhejiang Sci Tech University ZSTU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Sci Tech University ZSTU filed Critical Zhejiang Sci Tech University ZSTU
Priority to CN201510109659.5A priority Critical patent/CN104898551B/zh
Publication of CN104898551A publication Critical patent/CN104898551A/zh
Application granted granted Critical
Publication of CN104898551B publication Critical patent/CN104898551B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器和所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法。

Description

全自动割草机器人的双视觉自定位系统
技术领域
本发明涉及室外移动机器人的自定位功能。
背景技术
随着室外草地绿化区域的覆盖范围变广,为了提高割草的效率,节省割草的时间,便利人们的生活,全自动割草机器人已经广泛应用在生活中。全自动割草机器人免去了人力劳动,实现了割草自动化,提升了割草的效率,并节省了维护草地的费用和时间成本。同时在全自动割草机器人实际应用中由于室外草地充斥着灌木丛、小土丘、树木、花等障碍物和池塘、低洼地等特殊地形。现有全自动割草机器人视觉自定位系统需要较多的实际参考数据,需要较多种类的传感器配合,计算速度慢且定位结果不精确。全自动割草机器人在实际工作中需要视觉自定位系统提供自身的位置信息,才能进行路径规划、回归充电工作。但是现有的全自动割草机器人视觉自定位系统无法快速和准确的为全自动割草机器人提供位置信息,对全自动割草机器人路径规划的准确性和回归充电的效率造成了制约。
发明内容
本发明的目的是为了解决在实际工作草地环境下,全自动割草机器人的自定位问题,为路径规划和回归充电提供位置信息。
本发明解决其技术问题所采用的技术方案是:
全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器与所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法。
在所述的全自动割草机器人的工作草坪上设置草坪坐标系,所述的草坪坐标系的原点设置在工作草坪的中心,所述的第一视觉采集模块设置在所述的草坪坐标系的X坐标轴上,距离原点的距离为D1,所述的第二视觉采集模块设置在所述的草坪坐标系的Y坐标轴上,距离原点的距离为D2。
所述的草地定位算法用于计算所述的全自动割草机器人的位置坐标(X,Y),设置以下步骤:
第一步:所述的第一视觉采集模块获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人,并标注出坐标为x1,x1/f1=Y/(X+D1),其中f1是所述的第一视觉采集模块的摄像头模块的焦距;
第二步:同时,所述的第二视觉采集模块获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人,并标注出坐标为x2,x2/f2=X/(Y+D2),其中f2是所述的第二视觉采集模块的摄像头模块的焦距;
第三步:将第一步和第二步得到的方程,结合成方程组,得到X=(x1 x2 D1+x2f1D2)/(f1 f2-x1 x2),Y=(x1 x2 D2+x1 f2 D1)/(f1 f2-x1 x2)。
附图说明
图1是第一视觉采集模块和第二视觉采集模块的原理结构示意图;
图2是草地平面坐标系示意图;
图3是坐标参数计算示意图;
具体实施方式
下面结合附图对本发明作进一步描述:
如图1-3所示,全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块7和第二视觉采集模块6,所述的第一视觉采集模块7和第二视觉采集模块6由数据存储模块3,无线传输模块4,摄像头模块2、控制模块1组成;所述的控制模块1与所述的数据存储模块3、所述的摄像头模块2、所述的无线传输模块4连接,所述的控制模块1协调所述的无线传输模块4、所述的摄像头模块2和所述的数据存储模块3同步工作,实现了所述的第一视觉采集模块7和所述的第二视觉采集模块6获取工作草地的图像并从图像中识别出所述的全自动割草机器人5的功能。
还包括设置在所述的全自动割草机器人5上的主控制器;所述的主控制器与所述的第一视觉采集模块7和第二视觉采集模块6通过无线连接,可以采用蓝牙无线连接,也可以采用wifi无线连接,不影响专利的实施。
所述的主控制器还设置确定所述的全自动割草机器人5位置坐标的草地定位算法。
在所述的全自动割草机器人的工作草坪上设置草坪坐标系8,所述的草坪坐标系8的原点设置在工作草地的中心,所述的第一视觉采集模块7设置所述的草坪坐标系8的X坐标轴上,距离原点的距离为D1,所述的第二视觉采集模块6设置在所述的草坪坐标系8的Y坐标轴上,距离原点的距离为D2。所述的第一视觉采集模块7和第二视觉采集模块6用高度为1米的三角支架立式安装;所述的第一视觉采集模块7和第二视觉采集模块6的俯仰观察角度根据矩形区域大小可调,合适的俯仰观察角度可以保证所述的第一视觉采集模块7和第二视觉采集模块6能观察到工作草坪的全景。
所述的草地定位算法用于计算所述的全自动割草机器人5的位置坐标(X,Y),设置以下步骤:
第一步:所述的第一视觉采集模块7获取工作草地的图像,设置图像坐标系的原点位于图像的中心,从图像中识别出所述的全自动割草机器人5,并标注出坐标为x1,x1/f1=Y/(X+D1),其中f1是所述的第一视觉采集模块7的摄像头模块的焦距;
在第一步中,所述的第一视觉采集模块7通过三角约束关系确定坐标X与坐标Y的第一个约束关系。
第二步:同时,所述的第二视觉采集模块6获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人5,并标注出坐标为x2,x2/f2=X/(Y+D2),其中f2是所述的第二视觉采集模块6的摄像头模块的焦距;
在第二步中,所述的第二视觉采集模块6通过三角约束关系确定坐标X与坐标Y的第二个约束关系。
第三步:将第一步和第二步得到的方程,结合成方程组,得到X=(x1 x2 D1+x2f1D2)/(f1 f2-x1 x2),Y=(x1 x2 D2+x1 f2 D1)/(f1 f2-x1 x2)。
在第三步中,运用方程组的求解方法得到坐标(X,Y)的具体数值。
综上所述,本专利方案通过简单的数学方法计算定位数据,需要的实际参数较少,因此实际环境的干扰对计算结果造成的误差较小,同时算法简单,计算和处理速度较快,能为全自动割草机器人提供实时的定位数据,为全自动割草机器人路径规划和回归充电提供位置信息,因此该发明具有较好的应用前景。

Claims (1)

1.全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器与所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法;在所述的全自动割草机器人的工作草坪上设置草坪坐标系,所述的草坪坐标系的原点设置在工作草坪的中心,所述的第一视觉采集模块设置在所述的草坪坐标系的X坐标轴上,距离原点的距离为D1,所述的第二视觉采集模块设置在所述的草坪坐标系的Y坐标轴上,距离原点的距离为D2,其特征在于:所述的草地定位算法用于计算所述的全自动割草机器人的位置坐标(X,Y),设置以下步骤:
第一步:所述的第一视觉采集模块获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人,并标注出坐标为x1,x1/f1=Y/(X+D1),其中f1是所述的第一视觉采集模块的摄像头模块的焦距;
第二步:同时,所述的第二视觉采集模块获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人,并标注出坐标为x2,x2/f2=X/(Y+D2),其中f2是所述的第二视觉采集模块的摄像头模块的焦距;
第三步:将第一步和第二步得到的方程,结合成方程组,得到X=(x1 x2 D1+x2 f1 D2)/(f1 f2-x1 x2),Y=(x1 x2 D2+x1 f2 D1)/(f1 f2-x1 x2)。
CN201510109659.5A 2015-03-08 2015-03-08 全自动割草机器人的双视觉自定位系统 Expired - Fee Related CN104898551B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510109659.5A CN104898551B (zh) 2015-03-08 2015-03-08 全自动割草机器人的双视觉自定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510109659.5A CN104898551B (zh) 2015-03-08 2015-03-08 全自动割草机器人的双视觉自定位系统

Publications (2)

Publication Number Publication Date
CN104898551A CN104898551A (zh) 2015-09-09
CN104898551B true CN104898551B (zh) 2017-07-21

Family

ID=54031266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510109659.5A Expired - Fee Related CN104898551B (zh) 2015-03-08 2015-03-08 全自动割草机器人的双视觉自定位系统

Country Status (1)

Country Link
CN (1) CN104898551B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102643B (zh) * 2017-06-19 2020-01-31 江西洪都航空工业集团有限责任公司 一种大型智能割草机器人p-d型路径规划方法
CN108646740A (zh) * 2018-05-23 2018-10-12 杭州晶智能科技有限公司 基于双无线网络的移动机器人回归路径规划方法
CN108873892B (zh) * 2018-05-31 2022-02-01 广东乐生智能科技有限公司 一种基于路径密度分析的自动吸尘机器人最优路径规划方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060034485A1 (en) * 2004-08-12 2006-02-16 Shahriar Negahdaripour Point location in multi-modality stereo imaging
CN101574586B (zh) * 2009-06-09 2010-11-17 东北大学 毽球机器人及控制方法
CN101916437B (zh) * 2010-06-18 2014-03-26 中国科学院计算技术研究所 一种基于多视觉信息的目标定位方法和系统
CN102622767B (zh) * 2012-03-05 2014-07-30 广州乐庚信息科技有限公司 双目非标定空间定位方法

Also Published As

Publication number Publication date
CN104898551A (zh) 2015-09-09

Similar Documents

Publication Publication Date Title
CN106643719B (zh) 一种智能割草车的路径规划算法
CN104035444B (zh) 机器人地图构建存储方法
CN103353758B (zh) 一种室内机器人导航方法
CN103400371B (zh) 一种多摄像头协同监控设备及方法
CN106851567B (zh) 一种定位方法、装置及系统
CN108575095B (zh) 自移动设备及其定位系统、定位方法和控制方法
CN107356230A (zh) 一种基于实景三维模型的数字测图方法和系统
CN108613671A (zh) 一种基于uwb定位和航迹定位的智能割草机定位装置及方法
WO2015180021A1 (zh) 剪枝机器人系统
CN102662179A (zh) 基于机载激光雷达的三维优化选线方法
CN103988824A (zh) 一种基于双目视觉技术的自动对靶喷施系统
CN104898551B (zh) 全自动割草机器人的双视觉自定位系统
CN111326003A (zh) 一种智能小车寻迹行驶方法、系统和存储介质
CN109099925A (zh) 一种无人农机导航路径规划与作业质量评估方法与装置
CN111199677B (zh) 一种室外区域的工作地图自动建立方法,装置,存储介质及工作设备
CN105044754A (zh) 一种基于多传感器融合的移动平台室外定位方法
CN110895334A (zh) 基于激光雷达和gps融合虚拟墙无人清扫车校准装置及方法
US20230292657A1 (en) Robotic tool system and control method thereof
CN107091636A (zh) 一种无人机测量植被面积及长度的方法
CN105142239A (zh) 基于数据价值动态估计的无线传感网移动sink数据收集方法
CN103699110A (zh) 一种智能网络型轨道微环境传感器装置
CN108196538B (zh) 基于三维点云模型的田间农业机器人自主导航系统及方法
CN107272037A (zh) 一种道路设施位置、图像信息采集装置及采集信息的方法
CN108536146A (zh) 基于路径和rssi的移动机器人定位充电基座的智能控制方法
CN110405731A (zh) 一种快速双机械臂基坐标系标定方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Liu Yu

Inventor after: Feng Jianfeng

Inventor after: Xing Ming

Inventor after: Hu Xuan

Inventor after: Zhang Sien

Inventor before: Xing Ming

Inventor before: Hu Xuan

Inventor before: Zhang Sien

Inventor before: Liu Yu

GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170721

Termination date: 20180308