CN112684786A - 自行走割草系统和户外行走设备 - Google Patents
自行走割草系统和户外行走设备 Download PDFInfo
- Publication number
- CN112684786A CN112684786A CN201911417081.4A CN201911417081A CN112684786A CN 112684786 A CN112684786 A CN 112684786A CN 201911417081 A CN201911417081 A CN 201911417081A CN 112684786 A CN112684786 A CN 112684786A
- Authority
- CN
- China
- Prior art keywords
- image
- module
- mowing
- boundary
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007246 mechanism Effects 0.000 claims abstract description 55
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 230000002452 interceptive effect Effects 0.000 claims description 27
- 238000012937 correction Methods 0.000 claims description 11
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 244000025254 Cannabis sativa Species 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000004088 simulation Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 239000004575 stone Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 241001494496 Leersia Species 0.000 description 1
- 241001417527 Pempheridae Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Guiding Agricultural Machines (AREA)
- Harvester Elements (AREA)
Abstract
本发明提供一种自行走割草系统,包括:执行机构,包括用于实现割草功能的割草组件和用于实现行走功能的工作组件;机壳,用于支撑执行机构;图像采集模块,能采集包括至少部分割草区域以及至少部分割草边界的实时图像;显示模块,显示模块被配置成用于显示实时图像或根据实时图像的生成的模拟实景图;边界生成模块,通过计算特征参数在实时图像中生成与割草边界对应的第一虚拟边界以形成第一融合图像;发送模块,发送第一融合图像;控制模块,与发送模块电连接,控制执行机构在第一虚拟边界内运行。本发明还提供一种户外行走设备,所述自行走割草系统和户外行走设备方便用户设定工作边界,并且可以直观地获取自行走割草系统的工作情况。
Description
技术领域
本发明涉及一种户外电动工具,具体涉及自行走割草系统和户外行走设备。
背景技术
自行走割草系统作为一种户外割草工具,不需要用户长期操作,智能方便而受到用户的青睐。传统的自行走割草系统割草工具的工作过程中,需要预先设定自行走割草系统的边界,通常为电子埋线的方式设定,此种方式成本较高,需要专业人员进行,且操作较为繁琐,如果更换割草区域,还需要重新进行布线,因此十分不方便用户使用。
发明内容
为解决现有技术的不足,本发明的目的在于提供一种自行走割草系统,其可以通过显示执行机构的模拟实景图或实时图像,使得用户在模拟实景图或实时图像上设定工作边界,方便用户使用,并且可以直观地获取自行走割草系统的工作情况。
为了实现以上主要发明目的,提出一种自行走割草系统,包括:执行机构,包括用于实现割草功能的割草组件和用于实现行走功能的行走组件;机壳,用于支撑执行机构;图像采集模块,能采集包括至少部分割草区域以及至少部分割草边界的实时图像;显示模块,与图像采集模块电连接或者通信连接,显示模块被配置成用于显示实时图像或根据实时图像的生成的模拟实景图;边界生成模块,通过计算特征参数在实时图像中生成与割草边界对应的第一虚拟边界以形成第一融合图像;接收模块,用于接收用户输入的是否需要修正第一融合图像中的第一虚拟边界的信息;修正模块,在用户输入需要修正第一虚拟边界的信息时接收用户指令以修正第一虚拟边界以在实时图像或模拟实景图中生成第二虚拟边界从而形成第二融合图像;发送模块,发送无需修正的第一融合图像的信息或经过修正的第二融合图像的信息;控制模块,与发送模块电连接或者通讯连接,控制模块控制执行机构在第一虚拟边界或者第二虚拟边界内运行。
可选的,接收模块设置在执行机构之外,接收模块包括键盘、鼠标、麦克风、触摸屏、遥控器和/或手柄、摄像头、激光雷达、手机等移动设备的任一种或多种。
可选的,接收模块还用于接收用户添加的第一虚拟障碍物,执行机构被控制在行走时规避第一虚拟障碍物对应的实际虚拟障碍物。
可选的,接收模块还用于接收用户添加的第一行走路径,执行机构被控制在行走按照第一行走路径在第二虚拟边界内行走作业。
为了实现以上主要发明目的,提出一种自行走割草系统,包括:执行机构,包括用于实现割草功能的割草组件和用于实现行走功能的工作组件;机壳,用于支撑执行机构;图像采集模块,能采集包括至少部分割草区域以及至少部分割草边界的实时图像;显示模块,与图像采集模块电连接或者通信连接,显示模块被配置成用于显示实时图像或根据实时图像的生成的模拟实景图;边界生成模块,通过计算特征参数在实时图像中生成与割草边界对应的第一虚拟边界以形成第一融合图像;发送模块,发送第一融合图像;控制模块,与发送模块电连接或者通讯连接,控制模块控制执行机构在第一虚拟边界内运行。
可选的,自行走割草系统还包括定位模块,定位模块包括GPS定位单元、IMU惯性测量单元、位移传感的一种或组合,用于获取执行机构的实时位置,通过对执行机构的实时定位数据分析,获取对执行机构行进和割草的控制调节。
为了实现以上主要发明目的,提出一显示模块包括投射设备和交互界面,通过投射设备投射产生交互界面,并由交互界面显示模拟实景图或实时图像。
可选的,自行走割草系统还包括引导通道设定模块,引导通道设定模块用于接收用户对第一虚拟子割草区域和第二虚拟子割草区域之间设定的虚拟引导通道,用于引导执行机构在第一虚拟子割草区域和第二虚拟子割草区域对应的第一子割草区域和第二子割草区域之间的行走路径。
为了实现以上主要发明目的,提出一种户外自行走设备,包括:执行机构,包括用于实现行走功能的行走组件和用于实现预设功能的工作组件;机壳,用于支撑执行机构;图像采集模块,能采集包括至少部分工作区域以及至少部分工作边界的实时图像;显示模块,与图像采集模块电连接或者通信连接,显示模块被配置成用于显示实时图像或根据实时图像的生成的模拟实景图;边界生成模块,通过计算特征参数在实时图像中生成与工作边界对应的第一虚拟边界以形成第一融合图像;接收模块,用于接收用户输入的是否需要修正第一融合图像中的第一虚拟边界的信息;修正模块,在用户输入需要修正第一虚拟边界的信息时接收用户指令以修正第一虚拟边界以在实时图像或模拟实景图中生成第二虚拟边界从而形成第二融合图像;发送模块,发送无需修正的第一融合图像或经过修正的第二融合图像;控制模块,与发送模块电连接或者通讯连接,控制模块控制执行机构在第一虚拟边界或者第二虚拟边界内运行。
为了实现以上主要发明目的,提出一种户外自行走设备,包括:执行机构,包括用于实现行走功能的行走组件和用于实现预设功能的工作组件;机壳,用于支撑执行机构;图像采集模块,能采集包括至少部分工作区域以及至少部分工作边界的实时图像;显示模块,与图像采集模块电连接或者通信连接,显示模块被配置成用于显示实时图像或根据实时图像的生成的模拟实景图;边界生成模块,通过计算特征参数在实时图像中生成与工作边界对应的第一虚拟边界以形成第一融合图像;发送模块,发送第一融合图像;控制模块,与发送模块电连接或者通讯连接,控制模块控制执行机构在第一虚拟边界内运行。
附图说明
图1是本发明的自行走割草系统的执行机构的结构图。
图2是图1中的执行机构和投射设备的连接示意图。
图3是图2中的执行机构的部分内部结构示意图。
图4是图1中的执行机构的框架示意图。
图5是图1中的自行走割草系统的框架示意图。
图6是本发明第一实施方式的割草区域示意图。
图7是本发明第一实施方式的交互界面示意图。
图8是本发明第一实施方式的交互界面显示实时图像的示意图。
图9是本发明第一实施方式的交互界面显示第一融合图像的示意图。
图10是本发明第一实施方式的交互界面中第二融合图像的示意图。
图11是本发明第一实施方式的执行机构坐标系示意图。
图12是本发明第一实施方式的像素坐标系示意图。
图13是本发明第二实施方式的自行走割草系统的框架示意图。
图14是本发明第二实施方式的割草区域示意图。
图15是本发明第二实施方式的第一融合图像的示意图。
图16是本发明第三实施方式的自行走割草系统的框架示意图。
图17是本发明第三实施方式的割草区域示意图。
图18是本发明第三实施方式的第一融合图像的示意图。
图19是本发明第三实施方式的第一融合图像的示意图。
图20是本发明第三实施方式的第二融合图像的示意图。
图21是本发明第四实施方式的自行走割草系统的框架示意图。
图22是本发明第四实施方式的割草区域示意图。
图23是本发明第四实施方式的第一融合图像的示意图。
图24是本发明第四实施方式的第一融合图像的示意图。
图25是本发明第四实施方式的第二融合图像的示意图。
图26是本发明第四实施方式的虚拟引导通道标识设置的示意图。
图27是本发明第五实施方式的户外自行走设备的结构示意图。
具体实施方式
本发明提出一种自行走割草系统,参照图1到图3,自行走割草系统包括用于修整植被的执行机构100,执行机构100至少包括用于实现割草功能的割草组件120和用于实现行走功能的行走组件110,并且包括主体140以及机壳130,机壳130包装支撑主体140、割草组件120、行走组件110。割草组件120包括割草元件121和输出马达122,输出马达122驱动割草元件121旋转进行修整植被,割草元件121可以是刀片,或者其它可以切割修整草坪的元件。行走组件110包括至少一行走轮111,以及用于驱动行走轮111的驱动马达112,驱动马达112提供转矩给至少一个行走轮111。通过割草组件120和行走组件110的配合,实现自行走割草系统可以控制执行机构100在植被上移动并作业。
参照图4,自行走割草系统还包括接收模块200以及计算组件、电源170,接收模块200至少包括用于接收用户指令的接收模块200,接收模块200用于接收用于输入的对自行走割草系统的控制指令。计算组件至少包括用于控制自行走割草系统运行的控制模块150,控制模块150用于根据指令和自行走割草系统的运行参数控制驱动马达112和输出马达122的运行,以控制执行机构100在对应的工作区域内行走以及进行割草作业。电源170用于给行走组件和输出组件供电,电源170优选的为可插拔的电池包,安装到机壳130。
自行走割草系统包括图像采集模块400和显示模块500,计算组件包括用于计算图像信息的控制模块150,显示模块500和图像采集模块400电连接或者通信连接,图像采集模块400能采集包括至少部分割草区域以及至少部分割草边界的实时图像530,并通过显示模块500显示对应的割草区域和割草边界的实时图像530。参照图3和图6,图像采集模块400至少包括摄像头410、激光雷达420、TOF传感器430的一种或组合,通过摄像头410和激光雷达420获取执行机构100的周边环境信息,即通过摄像头410获取待作业的割草区域和割草边界的环境图像,并可通过激光雷达420的激光反射的信息获取割草区域和割草边界内的物体的位置、相对当前执行机构100的距离、斜距、形状等参数信息,控制模块150接收图像采集模块400采集的割草区域和割草边界的图像信息,将图像内物体的参数信息合并到图像上。显示模块500将图像采集模块400采集的割草区域和割草边界的实时图像530显示给用户。
参照图3,为了提升对执行机构100的位置检测精度,自行走割草系统还包括定位模块300,用于获取执行机构100的位置,通过对执行机构100的实时定位数据分析,获取对执行机构100行进和割草的控制调节。定位模块300包括GPS定位单元310、IMU惯性测量单元320、位移传感器330的一种或组合,用于对执行机构100位置的获取。GPS定位单元310用于获取执行机构100的位置信息或位置估算、以及执行机构100移动的起始位置。IMU惯性测量单元320包括加速度计、陀螺仪,用于检测执行机构100在行进过程的偏移信息。位移传感器330可以设置驱动马达112或者行走轮111上,用于获取执行机构100的位移数据。通过多个以上装置获取的信息结合修正,获取较为精确的位置信息,获取执行机构100的实时位置和姿态。
在另一种方式中,控制模块150根据图像采集模块400采集的割草区域的图像信息和数据信息,生成对割草区域的模拟实景图540,模拟实景图540模拟割草区域的边界、区域、障碍物等,并建立执行机构模型160,根据执行机构100在割草区域内的位置在模拟实景图540中对应的显示执行机构模型160,使得执行机构模型160的位置和作业状态和实际的执行机构100同步。
参照图5,显示模块500用于投射模拟实景图540。具体的,显示模块500通过投射设备510投射产生交互界面520,并由交互界面520显示执行机构100的模拟实景图540。控制模块150控制显示模块500所生成的交互界面520在生成模拟实景图540的同时,生成供用户操作的控制面板550,并由用户通过接收模块200或者通过交互界面520直接控制自行走割草系统。投射设备510可以是手机屏幕、硬件显示屏,与计算组件可通信连接并用于显示模拟实景图540或实时图像530。
参照图3,控制模块150包括处理数据的数据运算处理器310以及用于生产图像和场景建模的图像处理器320,数据运算处理器310可以为CPU或较高数据处理速度的微控制器,图像处理器320可以为独立的GPU(Graphics Processing Unit)模块。在执行机构100运行时,通过数据运算处理器310分析执行机构100的各项运行数据以及环境数据,并由图像处理器320根据以上数据建模生成对应的虚拟实景图信息,并通过投射设备510生成具体的虚拟实景图,并随着执行机构100的实时运行状态变化,控制虚拟实景图同步更新显示内容,以与实际执行机构100的运行状态相互匹配。控制模块150还包括用于储存数据的储存器,其储存自行走割草系统的相关算法以及自行走割草系统运行过程中产生的数据信息。
在本发明的第一实施方式中,计算组件还包括边界生成模块700、控制模块150和发送模块600,参照图7和图8,通过计算特征参数在实时图像530或模拟实景图540中生成与割草边界对应的第一虚拟边界710以形成第一融合图像720。边界生成模块700内设有边界分析算法,通过对实时图像530或模拟实景图540中的色彩、草高、形状分析待割草区域的割草边界,从而在实时图像530或模拟实景图540内中对应地割草边界位置中生成第一虚拟边界710,并在实时图像530或模拟实景图540内中对应地割草边界位置中生成第一虚拟边界710,从而将第一虚拟边界710与实时图像530或模拟实景图540融合生成第一融合图像720,且第一融合图像720中包括第一虚拟边界710以及被第一虚拟边界710限定的第一虚拟割草区域760,第一虚拟边界710对应实际的第一边界,为边界生成模块700检测到的当前环境中的割草边界。第一虚拟割草区域760与实际的第一割草区域770的物体分布和位置对应。发送模块600与控制模块150电连接或者通讯连接,发送模块600发送第一融合图像720的信息给控制模块150,第一融合图像720的信息包括第一虚拟边界710的位置信息,控制模块控制执行机构在第一虚拟边界内运行,即第一虚拟边界710限定第一虚拟割草区域760,控制模块150根据第一虚拟边界710的位置信息控制执行机构100在第一虚拟割草区域760对应的实际第一割草区域770割草,且根据检测执行机构100的位置控制执行机构100仅在第一虚拟边界710对应的实际的第一边界内作业。
控制模块150连接并控制驱动马达112和输出马达122,从而控制模块150控制执行机构100按照补充作业路径行进并作业割草,行走轮111设为两个,分别为第一行走轮113和第二行走轮114,驱动马达112设为第一驱动马达115和第二驱动马达116,控制模块150控制连接第一驱动马达115和第二驱动马达116,控制单元通过驱动控制器控制第一驱动马达115和第二驱动马达116的转速,以控制执行机构100的行进状态。计算组件通过获取执行机构100的实时位置,分析对执行机构100的控制指令,以实现控制执行机构100在第一边界内作业。控制模块150包括用于控制输出电机的输出控制器,以及控制驱动马达112的驱动控制器,输出控制器与输出马达122电连接,通过输出控制器控制输出电机的运行,从而控制切割刀片的切割状态。驱动控制器连接控制驱动马达112,且驱动控制器与驱动马达112可通信地连接,从而接收模块200在接收用户的启动指令或判断启动后,控制模块150分析执行机构100的行驶路线,通过驱动控制器控制驱动马达112带动行走轮111行进。控制模块150获取第一虚拟边界710对应的位置信息,并根据定位模块300检测的执行机构100的位置信息,分析执行机构100为了完成在预设的第一边界内作业需要的转向和速度信息,并控制驱动控制器控制驱动马达112的转速,使得执行机构100安装预设的速度行驶。并可使得执行机构100两行走轮差速转动,以使得执行机构100转向。用户可以通过接收模块200操作执行机构100位移,以及图像采集模块400的位移,从而控制对应的实时图像530或模拟实景图540的移动,从而使得实时图像530或模拟实景图540用户需要观看的割草区域,并添加控制指令。
接收模块200可以设置在执行机构100之外的外设装置,外设装置和执行机构100可通信地连接,外设装置接收用户的控制指令,并发送给计算组件由计算组件分析用户的控制指令以控制执行机构100执行。外设装置可以被设置为键盘、鼠标、麦克风、触摸屏、遥控器和/或手柄、摄像头410、激光雷达420、手机等移动设备的任一种或多种。用户可通过鼠标、键盘、遥控器、手机等硬件直接手动输入命令信息,也可通过语音、手势、眼部运动等信号输入命令信息。通过设置摄像头410,用于采集用户眼部运动或手部运动的信息特征,从而分析用户给出的控制指令。
在另一种实施方式中,投射设备510采用虚拟成像技术,通过干涉和衍射原理,通过全息投影,通过AR设备或在VR眼镜设备内显示图像,并相应地生成虚拟控制面板550,并通过通信连接的外设装置310,如遥控器或手柄实现指令输入。优选的,交互模块400包括动作捕捉单元及交互定位装置,动作捕捉单元被设置为摄像头410和/或红外感应装置,用于捕获用户的手部或控制器的动作,交互定位装置获取投射设备510的位置,并通过分析用户手部的位移以及和投射设备510的相对位置,分析用户对生成的虚拟控制面板550的选择,并生成对应的控制指令。
在一种实施方式中,投射设备510搭载在外设装置上,如外设装置310选为手机或计算机或VR设备,投射设备510对应为手机屏幕、计算机屏幕、幕布、VR眼镜等。
显示模块500至少具有投射设备510和交互界面520,通过投射设备510显示交互界面520,交互界面520中显示实时图像530或模拟实景图540和第一融合图像720。投射设备510可以被实施为硬件显示屏,硬件显示屏可以是安装到外设装置上,如手机、计算机等的电子设备,或是直接安装在执行机构100上,或使得计算组件可通信地匹配到多种显示屏,并由用户选择投射对象以显示对应的实时图像530或模拟实景图540。
参照图9,接收模块200还可以在交互界面520上生成控制面板550,以通过控制面板550接收用户的控制指令。用于接收用户输入的是否需要修正第一融合图像720中的第一虚拟边界710的信息。用户选择修正第一融合图像720的信息时,用户手动输入指令对第一虚拟边界710修正,从而生成用户指定的第二虚拟边界730,在边界显示模块500计算生成第一融合图像720后,显示模块500通过投射设备510生成交互界面520以展示第一融合图像720以及第一虚拟边界710,接收模块200通过交互界面520询问用户是否需要修正第一虚拟边界710,用户通过接收模块200选择修改,结合实际需求的割草边界通过控制面板550在显示的第一融合图像720中对第一虚拟边界710进行修正。计算组件还包括修正模块800,修正模块800在用户输入需要修正第一虚拟边界710的信息时接收用户指令以修正第一虚拟边界710以在实时图像530或模拟实景图540中生成第二虚拟边界730从而形成第二融合图像740。
第二融合图像740中包括第二虚拟边界730以及被第二虚拟边界730限定的第二虚拟割草区域,第二虚拟边界730对应实际的第二边界,第二边界为用户修正出的实际待割草区域。第二虚拟割草区域与实际的第二割草区域的物体分布和位置对应。控制模块控制执行机构在第二虚拟边界内运行,即第二虚拟边界限定第二虚拟割草区域,控制模块150根据第二虚拟边界730的位置信息控制执行机构100在第二虚拟割草区域对应的实际的第二割草区域割草,且根据检测执行机构100的位置控制执行机构100仅在第二虚拟边界730对应的实际的第二边界内作业。
参照图10和图11,为了识别用户对第一融合图像720的修正指令以生成第二融合图像740,即将用户的修正指令融合到实时图像530或模拟实景图540中,数据运算处理器根据定位模块300和图像采集模块400获取的第一融合图像720和执行机构100的定位,建立执行机构坐标系750,用于对执行机构100在待割草环境中的定位分析。数据运算处理器对生成的第一融合图像720建立像素坐标系760,使得第一融合图像720中的像素分别对应其像素坐标,通过分析生成实时图像530或模拟实景图540的。用户通过交互界面520选中第一融合图像720中的线段或区域时,本质是选中了第一融合图像720上多个像素的集合。修正模块800通过分析实时的执行机构100在执行机构坐标系750中的位置,图像采集模块400的转动角度,以及用户选择的第二虚拟边界730对应的像素坐标集合,计算出实际的第二边界的位置信息,从而将用户在第一融合图像720上选择修正的第二虚拟边界730投射到实际的割草区域中,以获取用户指定的第二割草区域,且将第二虚拟边界730融合到实时图像530或模拟实景图540中,以生成第二融合图像740,第二虚拟边界730的坐标在执行机构坐标系750中固定,而随着用户控制实时图像530或模拟实景图540的转换过程中,在像素坐标系760中位置移动。通过用户的修正,可以修正自行走割草系统对割草边界自动识别获取的误差,从而可以直观准确地设定割草区域的边界,且通过图像传感器等装置识别生成第一虚拟边界710,用户只需在第一虚拟边界710的基础上进行修正以生成第二虚拟边界730,从而方便用户操作设定割草边界。
在另一种实施方式中,用户可以直接通过接收模块200在实时图像530或模拟实景图540上设定第一虚拟边界710,通过边界识别模块获取用户设定的第一虚拟边界710的位置信息,并投射到执行机构100坐标上,并通过定位模块300检测执行机构100位置,以通过控制模块150控制执行机构100在第一虚拟边界710对应的第一边界上移动,从而方便用户快速设定割草边界。
在本发明的第二实施方式中,参照图13和图14,计算组件包括图像采集模块400a和障碍物生成模块800a,图像采集模块400a包括图像传感器、激光雷达420a、超声波传感器、摄像头410a、TOF传感器430A一种或组合,超声波传感器通过发送超声波并根据超声波的返回时间以检测割草区域内是否有障碍物,并记录障碍物的位置信息,激光雷达420a发送激光并根据激光的反射时间以检测割草区域内的障碍物;图像传感器分析获取的图像形状、颜色,通过算法分析符合障碍物的对应图像。障碍物生成模块800a根据图像采集模块400a对割草区域的障碍物检测信息,将其融合到实时图像530a或模拟实景图540a中,通过显示模块500a在实时图像530a或模拟实景图540a中的割草区域内对应位置中生成第一虚拟障碍物标识810a,从而生成第一融合图像720a,第一融合图像720a为包括第一虚拟障碍物标识810a的实时图像530a或模拟实景图540a。发送模块600a发送第一融合图像720a的信息到控制模块150a。控制模块150a根据第一融合图像720a的信息控制执行机构100a在运行割草时避开虚拟障碍物。数据运算处理器建立像素坐标系和执行机构100a坐标系,通过识别用户在第一融合图像720a上添加的第一虚拟障碍物标识810a的像素坐标,根据预设的坐标转换方法,计算第一虚拟障碍物标识810a在障碍物中的以将第一虚拟障碍物标识位置信息转换到实际的障碍物820a的位置信息,并通过控制模块150a控制执行机构100a在运行过程中避开障碍物820a,以达到用户在实时图像530a或模拟实景图540a上添加第一虚拟障碍物标识810a,并使得自行走割草系统识别障碍物并绕开,从而方便用户操作,可以准确地添加障碍物信息到割草区域内。
在另一种实施方式中,参照图15,障碍物生成模块800a根据用户输入的指令在实时图像530a或模拟实景图540a中生成与障碍物对应的虚拟障碍物标识以形成第一融合图像720a。用户通过接收模块200a在实时图像530a或模拟实景图540a中根据实际割草区域中的障碍物位置,或者不需要割草的区域位置设定虚拟障碍物标识,作为设定执行机构100a无需作业,在实际割草作业中需要绕开的区域的标识。
针对割草区域中可能有障碍物如石头、树木等,障碍物生成模块800a预设障碍物模型,如石头模型、树木模型、花模型供用户选择。用户通过交互界面520a所模拟实景状态的模拟实景图540a或者实时图像530a,根据模拟实景图540a或实时图像530a所展示的环境特点,结合割草区域的实际状态,判断障碍物对应在模拟实景图540a或实时图像530a中的位置,并通过接收模块200a在模拟实景图540a或中选择或选择障碍物的种类,以及障碍物的位置和尺寸,用户输入相关信息后,由图像处理器320在生成的模拟实景图540a内生成对应的模拟障碍物640,并且由控制模块150a控制执行机构100a在运行过程中,规避障碍物作业。
障碍物生成模块800a在实时图像530a或模拟实景图540a中生成与障碍物对应的虚拟障碍物标识以形成第一融合图像720a,第一融合图像720a包括虚拟障碍物标识的大小、形状、位置信息。发送模块600a将第一融合图像720a的信息发送给控制模块150a,从而控制模块150a根据第一融合图像720a的信息控制执行机构100a在割草区域内割草时绕开虚拟障碍物标识,以达到规避障碍物的需求。
第一融合图像720a还可以包括第一虚拟边界710a,边界生成模块700a通过计算特征参数在实时图像530a或模拟实景图540a中生成与割草边界对应的第一虚拟边界710a,从而控制模块150a根据第一融合图像720a信息,控制执行机构100a在第一虚拟边界710a之内和虚拟障碍物标识之外的第一虚拟割草区域对应的第一割草区域内工作,从而限定执行机构100a在第一边界的范围内作业,并且规避了虚拟障碍物标识。障碍物可以是石头、物品等占用空间的物体,也可以是花、特殊植物等不需要割草的区域;障碍物也可以理解为用户需求的不需要在当前的第一虚拟边界710a内的区域作业的区域,并且可以形成特殊的图案或者形状,以满足用户的美化草坪的需求。
在本发明的第三实施方式中,参照图16到图19,障碍物生成模块800b通过计算特征参数在实时图像530b或模拟实景图540b中生成与割草障碍物对应的第一虚拟障碍物810b以形成第一融合图像720b。第一融合图像720b包括第一虚拟割草区域760b,以及第一虚拟割草区域760b内的第一虚拟障碍物810b,第一虚拟割草区域760b对应实际的第一割草区域770b,第一虚拟割草区域760b与实际的第一割草区域770b的物体分布和位置对应,第一割草区域770b为执行机构100b需要作业的割草区域。障碍物生成模块800b内设有障碍物分析算法,通过图像采集模块400b检测待割草区域的障碍物820b,并在实时图像530b或模拟实景图540b内中对应地割草障碍物820b位置中生成第一虚拟障碍物810b,从而将第一虚拟障碍物810b与实时图像530b或模拟实景图540b融合生成第一融合图像720b。通过显示模块500b显示虚拟实景图540b或者实时图像530b。第一融合图像720b中包括第一虚拟障碍物810b,第一虚拟障碍物810b对应实际的至少一个障碍物820b,为障碍物生成模块800b检测到的当前环境中的割草障碍物820b。发送模块600b与控制模块150b电连接或者通讯连接,发送模块600b发送第一融合图像720b的信息给控制模块150b,第一融合图像720b的信息包括第一虚拟障碍物810b的位置信息,控制模块150b根据第一虚拟障碍物810b的位置信息控制执行机构100b在第一虚拟割草区域760b对应的实际第一割草区域770b割草,且根据检测执行机构100b的位置控制执行机构100b仅在第一虚拟障碍物810b对应的实际的第一障碍物内作业。
进一步的,参照图20,在障碍物生成模块800b生成第一融合图像720b后,接收模块200b通过显示界面询问用户是否需要修正当前的第一融合图像720b中的第一虚拟障碍物810b信息,并且接收用户输入的是否需要修正第一融合图像720b中的第一虚拟障碍物810b的信息。用户选择修正第一融合图像720b的信息时,用户手动输入指令对第一虚拟障碍物810b修正,从而生成用户指定的第二虚拟障碍物830b,使得用户结合实际需求的割草障碍物通过控制面板在显示的第一融合图像720b中对第一虚拟障碍物810b进行修正。计算组件还包括修正模块800b,修正模块800b在用户输入需要修正第一虚拟障碍物810b的信息时接收用户指令以修正第一虚拟障碍物810b以在实时图像530b或模拟实景图540b中生成第二虚拟障碍物830b从而形成第二融合图像740b。
第二融合图像740b中包括修正的第二虚拟障碍物830b,第二虚拟障碍物830b对应实际的用户需要规避的至少一障碍物820b。控制模块150b根据第二虚拟障碍物830b的位置信息控制执行机构100b在第一虚拟割草区域760b对应的实际第一割草区域770b割草,且根据检测执行机构100b的位置控制执行机构100b仅在第二虚拟障碍物830b对应的实际的第二障碍物内作业,控制模块150b根据第一融合图像720b的信息控制执行机构100b在运行割草时避开第二虚拟障碍物830b对应的实际障碍物位置,从而使得用户方便的调节自行走割草系统作业过程中规避作业区,障碍物可以是石头、物品等占用空间的物体,也可以是花、特殊植物等不需要割草的区域。
在本发明的第四实施方式中,参照图,21计算组件包括路径生成模块900c,路径生成模块900c根据用户输入的指令在所述实时图像530c或模拟实景图中生成行走路径910c以形成第一融合图像720c。路径生成模块900c设有预设的割草路径模式,如弓字形路径,执行机构100c被控制在边界中往复渐进的工作,或回字形路径,执行机构100c被控制向一个中心环绕渐进作业。
参照图22,计算组件包括边界生成模块700c,用户发送开启指令,边界生成模块700c内设有边界分析算法,通过对实时图像530c或模拟实景图中的色彩、草高、形状分析待割草区域的割草边界,并在实时图像530c或模拟实景图内中对应地割草边界位置中生成第一虚拟边界710c。参照图23和图24,路径生成模块900c在生成的第一虚拟边界710c内安装预设算法设计割草区域内的行走路径910c,并根据生成的行走路径910c对应的执行机构100c坐标系中的位置坐标,计算对应的像素坐标系中的像素坐标,从而将生成的行走路径910c展示在实时图像530c或模拟实景图中,融合到实时图像530c或模拟实景图中生成第一融合图像720c。发送模块600c将第一融合图像720c发送到控制模块150c,控制模块150c控制行走组件110c沿着第一融合图像720c中的行走路径910c行走并对割草区域进行割草作业。
进一步的,参照图25,计算组件还包括修正模块800c,用户可以通过接收模块200c对第一融合图像720c中的行走路径910c进行修改,并通过修正模块800c修正路径生成模块900c生成的第一融合图像720c。通过交互界面520c在第一融合图像720c上对生成的行走路径910c修正,通过选中部分路径选择删除以对路径进行删除,以及在第一融合图像720c中添加线段以添加新路径,修正模块800c读取用户选定的路径或添加路径的像素坐标集合,并根据预设算法将其转换为执行机构100c坐标集合,并投射到割草区域对应的位置上,从而根据对执行机构100c的定位追踪,分析对控制执行机构100c的行进控制指令和割草控制指令,使得执行机构100c沿着用户修改后的行走路径910c行走作业。
在另一种实施方式中,路径生成模块900c包括预设算法用于根据割草区域的特征参数计算生成对已的第一行走路径910c,并在显示模块500c显示的实时图像530c或模拟实景图中显示出来。路径生成模块900c根据获取的割草边界信息、区域信息,自动计算生成第一行走路径910c。路径生成模块900c被设置根据割草区域的特征参数,生成第一行走路径910c,如弓字形路径、回字形路径或随机路径。且将对应的割草区域内即将割草遵循的第一行走路径910c在实时图像530c或模拟实景图展示给用户。接收模块200c接收用户输入的是否需要修正所述第一融合图像720c中的第一行走路径910c的信息,用户选择修正并通过接收模块200c输入修正指令,对第一行走路径910c删除部分线段或区域,以及对第一行走路径910c添加部分线段或区域,从而在实时图像530c或模拟实景图中生成第二行走路径920c,修正模块800c识别用户的修正指令,并将第二行走路径920c的坐标融合到实时图像530c或模拟实景图中,以生成第二融合图像740c。发送模块600c发送第二融合图像740c的信息给控制模块150c,控制模块150c按照第二行走路径920c的信息,控制执行机构100c沿着第二行走路径920c对应的实际在割草区域的路径行走作业。
在另一种实施方式中,路径生成模块900c生成预设路径刷,如回字形路径刷、弓字形路径刷、直线路径刷供用户选择。路径生成模块900c在交互界面520c上形成可供选择的路径刷,用户选择对应的路径刷并在实时图像530c或模拟实景图中刷过期望所述执行机构100c工作的区域,从而在对应的区域生成回字形路径、弓字形路径、直线形路径;以在实时图像530c或模拟实景图中生成对应的行走路径910c,控制模块150c控制执行机构100c沿着行走路径910c对应的实际在割草区域的路径行走作业。
在另一种方式中,路径生成模块900c可以接收用户通过接收模块200c发送的图案、文字等图形,并根据图案计算生成对应的行走路径910c,控制模块150c控制执行机构100c根据生成的行走路径910c行走割草,从而在割草区域内打印出用户发送图形的割草痕迹,以实现打印割草地目的,从而可以丰富草地外观类型。
在以上实施方式中,在边界生成模块700、路径生成模块900c、障碍物生成模块800b生成对应的虚拟边界、虚拟障碍物标识、行走路径910c时,可以通过显示模块显示的实时图像或模拟实景图中通过执行机构模型预览执行机构后续的工作执行状态,以及完成割草作业后的割草区域状态,从而用户可以提前获知当前设置下的执行机构的后续割草状态以及割草效果,如通过实时图像或所述模拟实景图,预览所述自行走割草系统规避所述第一虚拟障碍物标识的割草工作割草和割草作业效果,从而方便用户及时调整设置自行走割草系统。
用户通过交互界面520c所模拟实景状态的模拟实景图540c或者实时图像530c,根据模拟实景图540c或实时图像530c所展示的环境特点,结合割草区域的实际状态,判断障碍物对应在模拟实景图540c或实时图像530c中的位置,并通过接收模块200c在模拟实景图540c或中选择或选择障碍物的种类,以及障碍物的位置和尺寸,用户输入相关信息后,由图像处理器在生成的模拟实景图540c内生成对应的模拟障碍物,并且由控制模块150c控制执行机构100c在运行过程中,规避障碍物作业。
参照图26,计算组件还包括引导通道设定模块,引导通道设定模块控制在投射设备510投射的交互界面520c生成引导通道设定键或设定界面,用户通过引导通道设定模块在模拟实景图540c或实时图像530c中添加虚拟引导通道标识560c。用户的待作业区域可能存在多个相对独立的作业区域,如用户庭院的前后院,从而用户可以通过在两个独立的作业区域之间添加虚拟引导通道标识560c,引导执行机构100c通过用户需求的引导通道从某作业区域移动到另一个作业区域。具体的,自行走割草系统检测割草区域,在作业环境具有相对独立的多个作业区域时,识别生成对应的第一虚拟子割草区域770c和第二虚拟子割草区域780c,或者用户选定目标作业区域,通过模拟实景图540c选择至少第一虚拟子割草区域770c和第二虚拟子割草区域780c。引导通道设定模块用于接收用户对第一虚拟子割草区域770c和第二虚拟子割草区域780c之间设定的虚拟引导通道,用于引导执行机构100c在第一虚拟子割草区域770c和第二虚拟子割草区域780c对应的第一子割草区域和第二子割草区域之间的行走路径910c。用户根据需求的执行机构100c在第一割草区域和第二割草区域之间的移动通道,在模拟实景图540c中选择对应的虚拟引导通道标识560c,并由控制模块150c控制执行机构100c根据在模拟实景图中融合的虚拟引导通道标识560c来进行引导执行机构100c行进。
自行走割草系统还包括检测装置,用于检测执行机构100c的运行状况,如执行机构100c的机器参数、工作模式、机器故障情况和报警信息。显示模块还可以通过交互界面显示执行机构的机器参数、工作模式、机器故障情况和报警信息,并由数据运算处理器310计算显示信息控制投射设备实时动态反应机器信息,方便用户控制和获取执行机构的运行状态。
为了更好的检测执行机构的运行状态,自行走割草系统还包括电压传感器和/或电流传感器、雨量传感器、边界识别传感器。通常以上传感器可设置于执行机构内,电压传感器和电流传感器用于检测执行机构运行过程的电流和电压数值,以分析执行机构当前的运行信息。雨量传感器用于检测执行机构环境的雨水情况。边界识别传感器用于检测作业区域的边界,其可以是与边界电子埋线的匹配的传感器,也可以是通过摄像获取环境信息的摄像装置,还可以是定位装置。
可选的,通过雨量传感器检测当前雨量信息,并由图像传感器计算在生成的模拟实景图,模拟对应的下雨场景以及雨量大小。通过检测装置的激光雷达、摄像头、状态传感器等检测装置,获取执行机构周边环境和高度信息,并在模拟实景图中对应显示。可选的,设置电容传感器检测割草刀片的负荷信息,从而模拟执行机构作业后的草高信息。
以上实施方式中的计算组件可通信地和执行机构连接,计算组件的至少部分结构可以设置在执行机构内,也可以设置在执行机构之外,通过发送信号传递给执行机构的控制器以控制输出马达和行走马达的运行,以控制执行机构的行走和割草状态。
在本发明的第五实施方式中,参照图27,提出一种户外自行走设备,户外自行走设备可以是扫雪机,其包括: 执行机构100d,包括用于实现行走功能的行走组件110d和用于实现预设功能的工作组件; 机壳,用于支撑执行机构100d;图像采集模块400d,能采集包括至少部分工作区域以及至少部分工作边界的实时图像530d;显示模块500d,与图像采集模块400d电连接或者通信连接,显示模块500d被配置成用于显示实时图像530d或根据实时图像530d的生成的模拟实景图540d;边界生成模块700d,通过计算特征参数在实时图像530d中生成与工作边界对应的第一虚拟边界以形成第一融合图像;接收模块200d,用于接收用户输入的是否需要修正第一融合图像中的第一虚拟边界的信息;修正模块800d,在用户输入需要修正第一虚拟边界的信息时接收用户指令以修正第一虚拟边界以在实时图像530d或模拟实景图540d中生成第二虚拟边界730d从而形成第二融合图像;发送模块600d,发送无需修正的第一融合图像或经过修正的第二融合图像;控制模块300d,与发送模块600d电连接或者通讯连接,控制模块300d控制执行机构100d在第一虚拟边界或者第二虚拟边界730d内运行。
可选的,边界生成模块700d,通过计算特征参数在实时图像530d中生成与工作边界对应的第一虚拟边界以形成第一融合图像;发送模块600d,发送第一融合图像;控制模块300d,与发送模块600d电连接或者通讯连接,控制模块300d控制执行机构100d在第一虚拟边界内运行。
可选的,户外自行走设备还包括障碍物生成模块,根据用户输入的指令在实时图像530d中生成与障碍物对应的虚拟障碍物标识以形成第一融合图像;图像采集模块400d采集包括至少部分工作区域以及位于工作区域内的至少一个障碍物的实时图像530d,与发送模块600d电连接或者通讯连接,控制模块300d控制执行机构100d避开第一融合图像中的虚拟障碍物。
可选的,障碍物生成模块通过计算特征参数在实时图像530d中生成与障碍物对应的第一虚拟障碍物标识以形成第一融合图像,控制模块300d控制执行机构100d避开第一融合图像中的虚拟障碍物。
可选的,障碍物生成模块通过计算特征参数在实时图像530d或模拟实景图540d中生成与障碍物对应的第一虚拟障碍物标识以形成第一融合图像;接收模块200d接收用户输入的是否需要修正第一融合图像中的第一虚拟障碍物标识的信息;修正模块800d在用户输入需要修正第一虚拟障碍物标识的信息时,接收用户指令以修正第一虚拟障碍物标识以在实时图像530d或模拟实景图540d中生成第二虚拟障碍物标识从而形成第二融合图像;发送模块600d发送无需修正的第一融合图像或经过修正的第二融合图像;控制模块300d,与发送模块600d电连接或者通讯连接,控制模块300d控制执行机构100d避开第一融合图像中的第一虚拟障碍物标识或者第二融合图像中的第二虚拟障碍物标识。
可选的,障碍物生成模块根据用户输入的指令在实时图像530d或模拟实景图540d中生成第一虚拟障碍物标识以形成第一融合图像;发送模块600d,发送第一融合图像;控制模块300d,与发送模块600d电连接或者通讯连接,控制模块300d控制执行机构100d避开第一融合图像中的第一虚拟障碍物标识。
可选的,路径生成模块,根据用户输入的指令在实时图像530d或模拟实景图540d中生成行走路径以形成第一融合图像;发送模块600d发送第一融合图像;控制模块300d与发送模块600d电连接或者通讯连接,控制模块300d控制行走组件110d沿第一融合图像中的行走路径行走。
可选的,路径生成模块根据计算工作区域的特征参数在实时图像530d或模拟实景图540d中生成第一行走路径以形成第一融合图像;接收模块200d用于接收用户输入的是否需要修正第一融合图像中的第一行走路径的信息;修正模块800d在用户输入需要修正第一行走路径的信息时,接收用户指令以修正第一行走路径以在实时图像530d或模拟实景图540d中生成第二行走路径从而形成第二融合图像; 发送模块600d发送无需修正的第一融合图像或经过修正的第二融合图像; 控制模块300d与发送模块600d电连接或者通讯连接,控制模块300d控制行走组件110d沿第一融合图像中的第一行走路径或者第二融合图像中的第二行走路径行走。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,上述实施例不以任何形式限制本发明,凡采用等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (10)
1.一种自行走割草系统,包括:
执行机构,包括用于实现割草功能的割草组件和用于实现行走功能的行走组件;
机壳,用于支撑所述执行机构;
图像采集模块,能采集包括至少部分割草区域以及至少部分割草边界的实时图像;
显示模块,与所述图像采集模块电连接或者通信连接,所述显示模块被配置成用于显示所述实时图像或根据所述实时图像的生成的模拟实景图;
边界生成模块,通过计算特征参数在所述实时图像中生成与所述割草边界对应的第一虚拟边界以形成第一融合图像;
接收模块,用于接收用户输入的是否需要修正所述第一融合图像中的第一虚拟边界的信息;
修正模块,在用户输入需要修正所述第一虚拟边界的信息时接收用户指令以修正所述第一虚拟边界以在所述实时图像或模拟实景图中生成第二虚拟边界从而形成第二融合图像;
发送模块,发送无需修正的所述第一融合图像的信息或经过修正的所述第二融合图像的信息;
控制模块,与所述发送模块电连接或者通讯连接,所述控制模块控制所述执行机构在所述第一虚拟边界或者所述第二虚拟边界内运行。
2.如权利要求1所述的自行走割草系统,其特征在于:所述接收模块设置在所述执行机构之外,所述接收模块包括键盘、鼠标、麦克风、触摸屏、遥控器和/或手柄、摄像头、激光雷达、手机移动设备的任一种或多种。
3.如权利要求2所述的自行走割草系统,其特征在于:所述接收模块还用于接收用户添加的第一虚拟障碍物,所述执行机构被控制在行走时规避所述第一虚拟障碍物对应的实际虚拟障碍物。
4.如权利要求2所述的自行走割草系统,其特征在于:所述接收模块还用于接收用户添加的第一行走路径,所述执行机构被控制在行走按照所述第一行走路径在所述第二虚拟边界内行走作业。
5.一种自行走割草系统,包括:
执行机构,包括用于实现割草功能的割草组件和用于实现行走功能的工作组件;
机壳,用于支撑所述执行机构;
图像采集模块,能采集包括至少部分割草区域以及至少部分割草边界的实时图像;
显示模块,与所述图像采集模块电连接或者通信连接,所述显示模块被配置成用于显示所述实时图像或根据所述实时图像的生成的模拟实景图;
边界生成模块,通过计算特征参数在所述实时图像中生成与所述割草边界对应的第一虚拟边界以形成第一融合图像;
发送模块,发送所述第一融合图像;
控制模块,与所述发送模块电连接或者通讯连接,所述控制模块控制所述执行机构在所述第一虚拟边界内运行。
6.如权利要求5所述的自行走割草系统,其特征在于:所述自行走割草系统还包括定位模块,所述定位模块包括GPS定位单元、IMU惯性测量单元、位移传感的一种或组合,用于获取执行机构的实时位置,通过对执行机构的实时定位数据分析,获取对执行机构行进和割草的控制调节。
7.如权利要求6所述的自行走割草系统,其特征在于:所述显示模块包括投射设备和交互界面,通过所述投射设备投射产生所述交互界面,并由所述交互界面显示所述模拟实景图或所述实时图像。
8.如权利要求6所述的自行走割草系统,其特征在于:所述自行走割草系统还包括引导通道设定模块,所述引导通道设定模块用于接收用户对第一虚拟子割草区域和第二虚拟子割草区域之间设定的虚拟引导通道,用于引导所述执行机构在所述第一虚拟子割草区域和所述第二虚拟子割草区域对应的第一子割草区域和第二子割草区域之间的行走路径。
9.一种户外自行走设备,包括:
执行机构,包括用于实现行走功能的行走组件和用于实现预设功能的工作组件;
机壳,用于支撑所述执行机构;
图像采集模块,能采集包括至少部分工作区域以及至少部分工作边界的实时图像;
显示模块,与所述图像采集模块电连接或者通信连接,所述显示模块被配置成用于显示所述实时图像或根据所述实时图像的生成的模拟实景图;
边界生成模块,通过计算特征参数在所述实时图像中生成与所述工作边界对应的第一虚拟边界以形成第一融合图像;
接收模块,用于接收用户输入的是否需要修正所述第一融合图像中的第一虚拟边界的信息;
修正模块,在用户输入需要修正所述第一虚拟边界的信息时接收用户指令以修正所述第一虚拟边界以在所述实时图像或所述模拟实景图中生成第二虚拟边界从而形成第二融合图像;
发送模块,发送无需修正的所述第一融合图像或经过修正的所述第二融合图像;
控制模块,与所述发送模块电连接或者通讯连接,所述控制模块控制所述执行机构在所述第一虚拟边界或者所述第二虚拟边界内运行。
10.一种户外自行走设备,包括:
执行机构,包括用于实现行走功能的行走组件和用于实现预设功能的工作组件;
机壳,用于支撑所述执行机构;
图像采集模块,能采集包括至少部分工作区域以及至少部分工作边界的实时图像;
显示模块,与所述图像采集模块电连接或者通信连接,所述显示模块被配置成用于显示所述实时图像或根据所述实时图像的生成的模拟实景图;
边界生成模块,通过计算特征参数在所述实时图像中生成与所述工作边界对应的第一虚拟边界以形成第一融合图像;
发送模块,发送所述第一融合图像;
控制模块,与所述发送模块电连接或者通讯连接,所述控制模块控制所述执行机构在所述第一虚拟边界内运行。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019109925528 | 2019-10-18 | ||
CN201910992552 | 2019-10-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112684786A true CN112684786A (zh) | 2021-04-20 |
CN112684786B CN112684786B (zh) | 2024-08-09 |
Family
ID=75445228
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911409440.1A Active CN112673799B (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
CN201911409198.8A Pending CN112684785A (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
CN201911409201.6A Active CN112764416B (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
CN201911417081.4A Active CN112684786B (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911409440.1A Active CN112673799B (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
CN201911409198.8A Pending CN112684785A (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
CN201911409201.6A Active CN112764416B (zh) | 2019-10-18 | 2019-12-31 | 自行走割草系统和户外行走设备 |
Country Status (1)
Country | Link |
---|---|
CN (4) | CN112673799B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113950934A (zh) * | 2021-11-02 | 2022-01-21 | 甘肃畜牧工程职业技术学院 | 一种可远程进行操控的割草机可视化系统 |
CN115500143A (zh) * | 2022-11-02 | 2022-12-23 | 无锡君创飞卫星科技有限公司 | 一种具有激光雷达的割草机控制方法及装置 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112673799B (zh) * | 2019-10-18 | 2024-06-21 | 南京泉峰科技有限公司 | 自行走割草系统和户外行走设备 |
CN114115265A (zh) * | 2021-11-23 | 2022-03-01 | 未岚大陆(北京)科技有限公司 | 自移动设备的路径处理方法、及自移动设备 |
CN116088533B (zh) * | 2022-03-24 | 2023-12-19 | 未岚大陆(北京)科技有限公司 | 信息确定方法、远程终端、设备、割草机及存储介质 |
CN117191030A (zh) * | 2023-09-08 | 2023-12-08 | 深圳市鑫旭源环保有限公司 | 一种清扫机器人的路径规划方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140032033A1 (en) * | 2012-07-27 | 2014-01-30 | Honda Research Institute Europe Gmbh | Trainable autonomous lawn mower |
CN103891464A (zh) * | 2012-12-28 | 2014-07-02 | 苏州宝时得电动工具有限公司 | 自动割草系统 |
CN109062225A (zh) * | 2018-09-10 | 2018-12-21 | 扬州方棱机械有限公司 | 基于数字地图的割草机器人及其生成虚拟边界的方法 |
CN109421067A (zh) * | 2017-08-31 | 2019-03-05 | Neato机器人技术公司 | 机器人虚拟边界 |
WO2019096262A1 (zh) * | 2017-11-16 | 2019-05-23 | 南京德朔实业有限公司 | 智能割草系统 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3318170B2 (ja) * | 1995-11-02 | 2002-08-26 | 株式会社日立製作所 | 自動走行機械の経路生成方法 |
JP3237705B2 (ja) * | 1999-02-04 | 2001-12-10 | 日本電気株式会社 | 障害物検出装置および障害物検出装置を搭載した移動体 |
CN101777263B (zh) * | 2010-02-08 | 2012-05-30 | 长安大学 | 一种基于视频的交通车流量检测方法 |
TW201305761A (zh) * | 2011-07-21 | 2013-02-01 | Ememe Robot Co Ltd | 自走機器人及其定位方法 |
KR101334961B1 (ko) * | 2011-08-03 | 2013-11-29 | 엘지전자 주식회사 | 잔디 깎기용 이동로봇 시스템 및 이의 제어방법 |
US9420741B2 (en) * | 2014-12-15 | 2016-08-23 | Irobot Corporation | Robot lawnmower mapping |
CN105468033B (zh) * | 2015-12-29 | 2018-07-10 | 上海大学 | 一种基于多摄像头机器视觉的医疗吊臂自动避障控制方法 |
CN106155053A (zh) * | 2016-06-24 | 2016-11-23 | 桑斌修 | 一种割草方法、装置以及系统 |
CN106527424B (zh) * | 2016-09-20 | 2023-06-09 | 深圳银星智能集团股份有限公司 | 移动机器人及移动机器人的导航方法 |
CN206115271U (zh) * | 2016-09-20 | 2017-04-19 | 深圳市银星智能科技股份有限公司 | 移动机器人 |
CN106647765B (zh) * | 2017-01-13 | 2021-08-06 | 深圳拓邦股份有限公司 | 一种基于割草机器人的规划平台 |
CN107976998A (zh) * | 2017-11-13 | 2018-05-01 | 河海大学常州校区 | 一种割草机器人地图创建与路径规划系统及方法 |
CN108444390B (zh) * | 2018-02-08 | 2021-01-26 | 天津大学 | 一种无人驾驶汽车障碍物识别方法及装置 |
CN108829103A (zh) * | 2018-06-15 | 2018-11-16 | 米亚索能光伏科技有限公司 | 除草机的控制方法、除草机、终端、设备和存储介质 |
CN109063575B (zh) * | 2018-07-05 | 2022-12-23 | 中国计量大学 | 一种基于单目视觉的智能割草机自主有序割草方法 |
CN109258060B (zh) * | 2018-08-24 | 2020-04-21 | 宁波市德霖机械有限公司 | 基于特殊图像标识识别的地图构建智能割草机 |
CN109491397B (zh) * | 2019-01-14 | 2021-07-30 | 傲基科技股份有限公司 | 割草机器人及其割草区域划定方法 |
CN109634286B (zh) * | 2019-01-21 | 2021-06-25 | 傲基科技股份有限公司 | 割草机器人视觉避障方法、割草机器人和可读存储介质 |
CN109634287B (zh) * | 2019-01-22 | 2022-02-01 | 重庆火虫创新科技有限公司 | 割草机路径规划方法及系统 |
CN109871013B (zh) * | 2019-01-31 | 2022-12-09 | 莱克电气股份有限公司 | 清洁机器人路径规划方法及系统、存储介质、电子设备 |
CN109828584A (zh) * | 2019-03-01 | 2019-05-31 | 重庆润通智能装备有限公司 | 待割草坪移除、添加障碍物后的路径规划方法及系统 |
CN112673799B (zh) * | 2019-10-18 | 2024-06-21 | 南京泉峰科技有限公司 | 自行走割草系统和户外行走设备 |
-
2019
- 2019-12-31 CN CN201911409440.1A patent/CN112673799B/zh active Active
- 2019-12-31 CN CN201911409198.8A patent/CN112684785A/zh active Pending
- 2019-12-31 CN CN201911409201.6A patent/CN112764416B/zh active Active
- 2019-12-31 CN CN201911417081.4A patent/CN112684786B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140032033A1 (en) * | 2012-07-27 | 2014-01-30 | Honda Research Institute Europe Gmbh | Trainable autonomous lawn mower |
CN103891464A (zh) * | 2012-12-28 | 2014-07-02 | 苏州宝时得电动工具有限公司 | 自动割草系统 |
CN109421067A (zh) * | 2017-08-31 | 2019-03-05 | Neato机器人技术公司 | 机器人虚拟边界 |
WO2019096262A1 (zh) * | 2017-11-16 | 2019-05-23 | 南京德朔实业有限公司 | 智能割草系统 |
CN109062225A (zh) * | 2018-09-10 | 2018-12-21 | 扬州方棱机械有限公司 | 基于数字地图的割草机器人及其生成虚拟边界的方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113950934A (zh) * | 2021-11-02 | 2022-01-21 | 甘肃畜牧工程职业技术学院 | 一种可远程进行操控的割草机可视化系统 |
CN115500143A (zh) * | 2022-11-02 | 2022-12-23 | 无锡君创飞卫星科技有限公司 | 一种具有激光雷达的割草机控制方法及装置 |
CN115500143B (zh) * | 2022-11-02 | 2023-08-29 | 无锡君创飞卫星科技有限公司 | 一种具有激光雷达的割草机控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112673799B (zh) | 2024-06-21 |
CN112684786B (zh) | 2024-08-09 |
CN112764416A (zh) | 2021-05-07 |
CN112764416B (zh) | 2024-06-18 |
CN112673799A (zh) | 2021-04-20 |
CN112684785A (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112684786B (zh) | 自行走割草系统和户外行走设备 | |
CN110168465B (zh) | 智能割草系统 | |
EP3553620B1 (en) | Robotic vehicle grass structure detection | |
US10845804B2 (en) | Parcel mapping via electrical resistance detection of a robotic vehicle | |
CN113128747B (zh) | 智能割草系统及其自主建图方法 | |
US20220151147A1 (en) | Self-moving lawn mower and supplementary operation method for an unmowed region thereof | |
EP3613270A1 (en) | Intelligent mower based on lidar map building | |
EP2884364A1 (en) | Autonomous gardening vehicle with camera | |
EP3158409B1 (en) | Garden visualization and mapping via robotic vehicle | |
US20220217902A1 (en) | Self-moving mowing system, self-moving mower and outdoor self-moving device | |
US10809740B2 (en) | Method for identifying at least one section of a boundary edge of an area to be treated, method for operating an autonomous mobile green area maintenance robot, identifying system and green area maintenance system | |
CN113115621B (zh) | 智能割草系统及其自主建图方法 | |
CN117519125A (zh) | 自移动设备的控制方法 | |
CN114937258B (zh) | 割草机器人的控制方法、割草机器人以及计算机存储介质 | |
CN114721385A (zh) | 虚拟边界建立方法、装置、智能终端及计算机存储介质 | |
CN219349399U (zh) | 一种移动系统和园艺工作系统 | |
CN114995444A (zh) | 建立虚拟工作边界的方法、装置、远程终端及存储介质 | |
CN112438112B (zh) | 自行走割草机 | |
US20230320263A1 (en) | Method for determining information, remote terminal, and mower | |
WO2024038852A1 (en) | Autonomous operating zone setup for a working vehicle or other working machine | |
KR102702778B1 (ko) | 농업용 차량을 위한 증강현실 내비게이션 화면을 제공하는 시스템 및 방법 | |
CN118259658A (zh) | 工作边界确定方法、智能设备、存储介质及程序产品 | |
CN118605484A (zh) | 一种移动系统和园艺工作系统 | |
CN111742713A (zh) | 自主型割草机及其作业方法和作业系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: 211106 No. 529, 159, Jiangjun Avenue, Jiangning District, Nanjing, Jiangsu Province Applicant after: Nanjing Quanfeng Technology Co.,Ltd. Address before: No. 529, Jiangjun Avenue, Jiangning Economic and Technological Development Zone, Nanjing, Jiangsu Province Applicant before: NANJING CHERVON INDUSTRY Co.,Ltd. |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |