CN116203606B - 基于rtk与视觉融合技术的剪草机器人导航方法和装置 - Google Patents

基于rtk与视觉融合技术的剪草机器人导航方法和装置 Download PDF

Info

Publication number
CN116203606B
CN116203606B CN202310197123.8A CN202310197123A CN116203606B CN 116203606 B CN116203606 B CN 116203606B CN 202310197123 A CN202310197123 A CN 202310197123A CN 116203606 B CN116203606 B CN 116203606B
Authority
CN
China
Prior art keywords
lawn
area
lawnmower
sub
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310197123.8A
Other languages
English (en)
Other versions
CN116203606A (zh
Inventor
王超
周涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xiaojia Data Technology Co ltd
Original Assignee
Shanghai Xiaojia Data Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xiaojia Data Technology Co ltd filed Critical Shanghai Xiaojia Data Technology Co ltd
Priority to CN202310197123.8A priority Critical patent/CN116203606B/zh
Publication of CN116203606A publication Critical patent/CN116203606A/zh
Application granted granted Critical
Publication of CN116203606B publication Critical patent/CN116203606B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/43Determining position using carrier phase measurements, e.g. kinematic positioning; using long or short baseline interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Abstract

本发明提供一种基于RTK与视觉融合技术的剪草机器人导航方法和装置,其方法包括:通过安装在剪草机器人上的摄像头获取当前视频帧;对视频帧进行图像识别处理,获取草坪蒙版图像;从草坪蒙版图像上选取感兴趣的目标区域;将目标区域分割为若干子区域,并统计各子区域的草坪占比;通过RTK技术获取剪草机器人的精确定位信息;基于精确定位信息和目标区域的各子区域的草坪占比信息,对剪草机器人进行路径规划及导航。采用本发明提供的方法,可有效优化剪草机器人的工作路径,提高工作效率,提高草坪覆盖率。

Description

基于RTK与视觉融合技术的剪草机器人导航方法和装置
技术领域
本发明涉及机器人定位导航领域,尤其涉及一种基于RTK与视觉融合技术的剪草机器人导航方法和装置。
背景技术
市面现存剪草机器人基本以采用围线方式确定草坪边界。围线方式需要沿着界定的草坪边界开槽,然后埋入物理电线,并最终将电线接入到充电桩上形成回路,依靠充电桩在电线上加载电信号。机器人在电线围住的边界之内进行工作,通过探测到电信号来确定边界范围。围线方式需要破坏原有草坪,且草坪上的电线存在安全隐患。
以围线方式界定边界的机器人在圈定区域内部工作,在触碰到边界后随即转向,由此导致机器人无法准确定位自身所处位置,无法进行有效的工作规划,从而造成工作效率低下,可能存在某些区域长时间无法覆盖到。
发明内容
本发明的目的是提供一种能够在复杂环境下快速实现精确定位的剪草机器人,并且能够根据定位信息实时对剪草机器人能够准确的检测出草坪区域及其边界并且进行路径规划,具有实用性。
本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法和装置技术方案如下:
在一些实施方式中,本发明提供的基于RTK与视觉融合技术的剪草机器人导航方法,包括:
通过安装在所述剪草机器人上的摄像头获取当前视频帧;
对所述视频帧进行图像识别处理,获取草坪蒙版图像;
从所述草坪蒙版图像上选取感兴趣的目标区域;
将所述目标区域分割为若干子区域,并统计各子区域的草坪占比;
通过RTK技术获取所述剪草机器人的精确定位信息;
基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划及导航。
在一些实施方式中,所述通过RTK技术获取所述剪草机器人的精确定位信息,具体包括:
通过预设在草坪的RTK固定站,接收卫星信号,以所述RTK固定站为参考点产生差分数据;
将所述差分数据按照预设频率传输给所述剪草机器人;
通过安装于所述剪草机器人上的RTK定位模块,接收所述差分数据,采用实时动态载波相位差分技术对所述差分数据进行解算获取所述剪草机器人的位置信息;
通过安装于所述剪草机器人上的编码器,实时获取当前所述剪草机器人的编码器数据,所述编码器数据包括轮子的旋转圈数和轮子半径;
通过安装于所述剪草机器人上的惯性测量单元,获取当前所述剪草机器人的三维旋转角速度和三维加速度,修正误差后实时获取当前所述剪草机器人的姿态;
基于所述编码器数据和所述剪草机器人的姿态,融合所述剪草机器人的位置信息,获取所述剪草机器人的精确定位信息。
在一些实施方式中,所述的对所述视频帧进行图像识别处理,获取草坪蒙版图像具体包括:
将所述视频帧输入训练好的草坪识别模型;
通过所述草坪识别模型识别并分割出所述视频帧中的草坪区域;
基于识别的草坪区域,输出草坪蒙版图像。
在一些实施方式中,所述的基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划,具体包括:
判断各子区域的草坪占比是否均高于预设的安全阈值;
若各子区域的草坪占比均高于所述安全阈值时,则规划所述剪草机器人继续向前行驶;
若各子区域的草坪占比均低于所述安全阈值时,则规划所述剪草机器人执行后退或掉头操作;
若所述目标区域中存在高于安全阈值的子区域,也存在低于安全阈值的子区域时,则基于所述剪草机器人当前的位置,选取靠近所述剪草机器人的若干子区域作为参考子区域;
基于所述若干参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径。
在一些实施方式中,所述若干参考子区域包括:所述剪草机器人正前方的第一子区域,以及所述第一子区域两侧的子区域;所述的基于所述参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径;具体包括:
判断所述第一子区域的草坪占比是否大于所述安全阈值;
当判定所述第一子区域草坪占比大于所述安全阈值时,规划所述剪草机器人继续向前行驶;
当判定所述第一子区域草坪占比不大于所述安全阈值时,判定所述第一子区域的两侧是否均存在子区域;
若所述第一子区域只有一侧存在子区域时,判断所述第一子区域一侧的子区域的草坪占比是否大于所述安全阈值,若是,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向行驶;
若所述第一子区域的两侧均存在子区域时,分别判断两侧的子区域的草坪占比是否大于所述安全阈值;
当所述两侧的子区域中存在一侧子区域的草坪占比大于所述安全阈值,另一侧子区域的草坪占比小于所述安全阈值时,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向;
当所述两侧的子区域的草坪占比均大于所述安全阈值时,则规划所述剪草机器人向任意侧子区域方向转向。
另一方面,本申请的一种基于RTK与视觉融合技术的剪草机器人导航装置,包括:
视频帧获取模块,用于通过安装在所述剪草机器人上的摄像头获取当前视频帧;
图像处理模块,用于对所述视频帧进行图像识别处理,获取草坪蒙版图像;
目标选取模块,用于从所述草坪蒙版图像上选取感兴趣的目标区域;
草坪占比获取模块,用于将所述目标区域分割为若干子区域,并统计各子区域的草坪占比;
定位模块,用于通过RTK技术获取所述剪草机器人的精确定位信息;
规划导航模块,用于基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划及导航。
在一些实施方式中,所述定位模块,具体包括:
差分数据获取子模块,用于通过预设在草坪的RTK固定站,接收卫星信号,以所述RTK固定站为参考点产生差分数据并传输给所述剪草机器人;
差分数据解算子模块,用于通过安装于所述剪草机器人上的RTK定位模块,接收所述差分数据,采用实时动态载波相位差分技术对所述差分数据进行解算获取所述剪草机器人的位置信息;
编码器子模块,用于通过安装于所述剪草机器人上的编码器,实时获取当前所述剪草机器人的编码器数据,所述编码器数据包括轮子的旋转圈数和轮子半径;
姿态获取子模块,用于通过安装于所述剪草机器人上的惯性测量单元,获取当前所述剪草机器人的三维旋转角速度和三维加速度,修正误差后实时获取当前所述剪草机器人的姿态;
定位信息获取子模块,用于基于所述编码器数据和所述剪草机器人的姿态,融合所述剪草机器人的位置信息,获取所述剪草机器人的精确定位信息。
在一些实施方式中,所述图像处理模块,具体包括:
输入子模块,用于将所述视频帧输入训练好的草坪识别模型;
模型识别子模块,用于通过所述草坪识别模型识别并分割出所述视频帧中的草坪区域;并基于识别的草坪区域,输出草坪蒙版图像。
在一些实施方式中,所述规划导航模块,具体包括:
分析判断子模块,用于判断各子区域的草坪占比是否均高于预设的安全阈值;
第一规划子模块,用于若各子区域的草坪占比均高于所述安全阈值时,则规划所述剪草机器人继续向前行驶;
第二规划子模块,用于若各子区域的草坪占比均低于所述安全阈值时,则规划所述剪草机器人执行后退或掉头操作;
参考选取子模块,用于若所述目标区域中存在高于安全阈值的子区域,也存在低于安全阈值的子区域时,则基于所述剪草机器人当前的位置,选取靠近所述剪草机器人的若干子区域作为参考子区域;
第三规划子模块,用于基于所述若干参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径;
导航控制子模块,用于基于各规划子模块规划的所述剪草机器人的行驶路径,控制所述剪草机器人的行驶。
在一些实施方式中,所述若干参考子区域包括:所述剪草机器人正前方的第一子区域,以及所述第一子区域两侧的子区域;所述第三规划子模块,具体包括:
占比判断单元,用于判断所述第一子区域的草坪占比是否大于所述安全阈值;
规划单元,用于当判定所述第一子区域草坪占比大于所述安全阈值时,规划所述剪草机器人继续向前行驶;
区域判断单元,用于当判定所述第一子区域草坪占比不大于所述安全阈值时,判定所述第一子区域的两侧是否均存在子区域;
所述占比判断单元,还用于若所述第一子区域只有一侧存在子区域时,判断所述第一子区域一侧的子区域的草坪占比是否大于所述安全阈值,若是,则通过所述规划单元规划所述剪草机器人向大于所述安全阈值的子区域方向转向行驶;
所述占比判断单元,还用于若所述第一子区域的两侧均存在子区域时,分别判断两侧的子区域的草坪占比是否大于所述安全阈值;
所述规划单元,还用于当所述两侧的子区域中存在一侧子区域的草坪占比大于所述安全阈值,另一侧子区域的草坪占比小于所述安全阈值时,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向;
所述规划单元,还用于当所述两侧的子区域的草坪占比均大于所述安全阈值时,则规划所述剪草机器人向任意侧子区域方向转向。
采用本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法和装置,至少具有以下一项有益效果:
1、本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法,通过RTK配合卫星系统的精确定位技术,结合摄像头所拍摄的视频帧,通过分割算法获取出草坪和非草坪的边界,之后剪草机器人就可极大程度上优化剪草机器人的工作路径,根据视频帧中草坪占比以及非草坪占比的大小来及时矫正剪草机器人的姿态,防止剪草机器人超出草坪的边界,还避开草坪中的障碍物,提高工作效率,延长草坪寿命;
2、本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法,采用融合定位的方式,可以保证机器人在短间内丢失卫星信号的情况下维持正常工作状态;
3、本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法,由于是实时对视频帧进行分析,其检测速度快,能够满足实时性的要求。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对一种基于RTK与视觉融合技术的剪草机器人导航方法和装置的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法的一个实施例的流程示意图;
图2是本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法的另一实施例的流程示意图;
图3和图4是本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法的另一实施例的草坪分割示意图;
图5和图6是本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航方法的另一实施例的草坪分割示意图;
图7是本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航装置的一个实施例的模块框图;
图8是本发明提供的一种基于RTK与视觉融合技术的剪草机器人导航装置的另一实施例的模块框图。
附图标记:
1--剪草机器人;2--摄像头;L1--剪草机器人的宽度;A--盲区区域;P--省略区域;R--有效区域;Q--省略区域;G--失真区域;10--视频帧获取模块;20--图像处理模块;30--目标选取模块;40--草坪占比获取模块;50--定位模块;60--规划导航模块;21--输入子模块;22--模型识别子模块;51--差分数据获取子模块;52--差分数据解算子模块;53--编码器子模块;55--定位信息获取子模块;54--姿态获取子模块;61--分析判断子模块;62--第一规划子模块;63--第二规划子模块;64--参考选取子模块;65--第三规划子模块;66--导航控制子模块。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其他情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所述描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其他特征、整体、步骤、操作、元素、组件和/或集合的存在或添加。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
另外,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
在一个实施例中,一种基于RTK与视觉融合技术的剪草机器人导航方法,参考图1,包括步骤:
S100,通过安装在所述剪草机器人上的摄像头获取当前视频帧;
S200,对所述视频帧进行图像识别处理,获取草坪蒙版图像;
S300,从所述草坪蒙版图像上选取感兴趣的目标区域;
S400,将所述目标区域分割为若干子区域,并统计各子区域的草坪占比;
S500,通过RTK技术获取所述剪草机器人的精确定位信息;
S600,基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划及导航。
具体的,剪草机器人上装有摄像头,通过该摄像头可以不断的获取剪草机器人前方的草坪的视频帧,对不断获取的视频帧通过图像识别处理(比如通过草坪分割算法进行处理)后获得草坪蒙版图像。然后对草坪蒙版图像进行进行目标区域的选定,一般选择感兴趣区域作为目标区域,这个感兴趣区域可以预先设定,比如选定视频帧的特定位置区域作为感兴趣的目标区域,一般视频帧拍摄的都是剪草机器人的有效视觉范围内的图像,而与剪草机器人导航规划更切实相关的,则可选定剪草机器人前方的固定区域作为感兴趣区域,而将距离机器人较远的地方作为无关区域,无需去进行处理,减少数据处理的工作量,提高处理效率。在确定好目标区域后,再将该目标区域分割为若干子区域,比如划分为3*3个子区域,或者1*3个子区域等。划分子区域的数量可根据具体情况提前设定,本实施例不予限定。分割为若干子区域后,再统计各子区域的草坪占比,结合剪草机器人内置的RTK定位功能(获取视频帧的同时定位机器人的位置),规划调整剪草机器人的行进路径。
在另一个实施例中,在上述实施例的基础上,所述步骤S500通过RTK技术获取剪草机器人的精确定位信息,具体包括:
S510,通过预设在草坪的RTK固定站,接收卫星信号,以RTK固定站为参考点产生差分数据;
S520,将差分数据按照预设频率传输给剪草机器人;
S530,通过安装于剪草机器人上的RTK定位模块,接收差分数据,采用实时动态载波相位差分技术对差分数据进行解算获取剪草机器人的位置信息;
S540,通过安装于剪草机器人上的编码器,实时获取当前剪草机器人的编码器数据,编码器数据包括轮子的旋转圈数和轮子半径;
S550,通过安装于剪草机器人上的惯性测量单元,获取当前剪草机器人的三维旋转角速度和三维加速度,修正误差后实时获取当前剪草机器人的姿态;
S560,基于编码器数据和剪草机器人的姿态,融合剪草机器人的位置信息,获取剪草机器人的精确定位信息。
具体的,全球导航卫星系统GNSS(GlobalNavigationSatelliteSystem)是个多系统、多层面、多模式的复杂组合系统。GNSS受电离层和对流层误差影响,误差范围会在一定范围内波动,无法提供适用于草坪工作的精度。由此现阶段大多采用RTK技术,RTK由基准站和流动站组成,基准站将接收到的测量数据与预设的数据进行计算以得到差分数据,然后将差分数据发送给流动站(本实施例中流动站即剪草机器人),流动站使用差分数据计算实时位置。由于基准站与流动站距离有限,可使用差分数据修正GNSS电离层和对流层的误差,提高定位精度,目前主流平面精度可达2cm+1ppm。工作状态下的RTK固定站接收卫星信号,以自身为参考点产生差分数据,然后以1Hz的频率向剪草机器人设备进行输送产生的差分数据。通过剪草机器人内部的RTK定位模块采用实时动态载波相位差分技术,接收固定站传输的差分数据进行位置解算获取剪草机器人的位置信息。剪草机器人的驱动电机依赖编码器实现闭环控制,通过编码器即其他传感器可实时准确反映当前机器人轮子的旋转圈数,结合轮子半径等参数,可以实时获取当前机器人的理想行走里程。剪草机器人内部含有一个六轴惯性测量单元,可以实时估计机器人当前的三维旋转角速度和三维加速度,通过计算并对误差修正后可获取剪草机器人当前姿态。由于传感器固有误差和环境的复杂多变性,解算的实时位置的误差会随着时间的增长而逐渐扩大,逐渐偏离机器人实际位置,此时借助于卡尔曼滤波算法或者粒子滤波算法,引入RTK模块的定位数据,对原始数据进行融合计算,约束解算的位姿数据,将误差约束在一定范围之内,保证定位的精度。后续机器人使用该位姿数据进行地图构建、路径规划等工作进行实际工作。
在另一个实施例中,在上述任一实施例的基础上,通过剪草机器人的摄像头获取当前视频帧之后,在对所述视频帧进行图像识别处理,获取草坪蒙版图像之前,还包括:
S150,确定所述剪草机器人的有效视觉范围,并基于所述有效视觉范围对所述当前视频帧进行提取处理,提取出有效视觉范围的视频帧图像,以便对所述提取后的视频帧图像进行后续的图像识别。
具体的,摄像头所拍摄的视频帧是剪草机器人前方的一定视角范围,但由于剪草机器人宽度有限,所以需要去除视频帧中不影响机器人行驶的部分,而且由于较远地方的视频帧获取会有些失真,也可以作为省略区域而忽略。因此可以在获取到的视频帧进行提取处理,获取有效视觉范围内的视频帧,当然,也可以通过设置剪草机器人的摄像头的视觉角度,使得剪草机器人在草坪上正常运行时,所述摄像头会对上述有效视野区域部分草坪环境进行采样收集。
在机器人本体合适高度安装一个摄像头,当机器人在水平硬质地板上放置时,所述摄像头的固定需要呈水平姿态。
如图2所示,机器人机身宽度为L1,摄像头2安装设置在剪草机器人1上,所述摄像头2有一定的视角范围,图中所述的区域A为摄像头的视野盲区,区域P、区域R、区域Q、区域G均在摄像头的可视范围,其中区域A为盲区区域,区域P和区域Q为省略区域,区域G为失真区域,只有区域R为有效区域。
具体的,对机器人摄像头的视角范围进行分析,筛选出有效的视觉区域,略掉盲区的区域A;由于区域P和区域Q为超过机器人宽度的部分,若两个区域有非草坪区域不会影响机器人的正常行驶,故可以处理为省略区域;针对区域G距离摄像头较远,获得的图像会有些失真,也可以不予理会;最终选取区域R为有效区域。
机器人在草坪上正常运行时,所述摄像头会对上述视野区域部分草坪环境进行采样收集,机器人每秒钟捕捉多张图片,然后对收集到的图片进行处理计算,将画面中的区域划为草坪区域与非草坪区域,得到草坪蒙版。
在另一个实施例中,在上述实施例的基础上,对所述视频帧进行图像识别处理,获取草坪蒙版图像具体包括:
将所述视频帧输入训练好的草坪识别模型;
通过所述草坪识别模型识别并分割出所述视频帧中的草坪区域;
基于识别的草坪区域,输出草坪蒙版图像。
具体的,本实施例中,采用了人工智能技术,训练出草坪识别模块,该草坪识别模型利用分割算法(比如GrassSeg算法)分割当前视频帧,获得分割结果的蒙版图像。具体的,将当前帧输入到PULNet模型中,以此来获取草坪蒙版图像。
在另一个实施例中,在上述实施例的基础上,所述步骤S600中的基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划,具体包括:
判断各子区域的草坪占比是否均高于预设的安全阈值;
若各子区域的草坪占比均高于所述安全阈值时,则规划所述剪草机器人继续向前行驶;
若各子区域的草坪占比均低于所述安全阈值时,则规划所述剪草机器人执行后退或掉头操作;
若所述目标区域中存在高于安全阈值的子区域,也存在低于安全阈值的子区域时,则基于所述剪草机器人当前的位置,选取靠近所述剪草机器人的若干子区域作为参考子区域;
基于所述若干参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径。
具体的,参考图3,图中是将视频帧中的目标区域分割成9块,可以根据需要分割成其他数量的区域数量,在此不做限定。计算被分割好的每个分割子区域内草坪区域蒙版的占比,通过筛选,将草坪区域蒙版的占比低于安全阈值的子区域设定为1,将草坪区域蒙版的占比大于安全阈值的子区域设定为0。所以由图3可断定前方全部为草坪区域,规划剪草机器人继续向前行驶;参考图4,可断定前方全部为非草坪区域,机器将停止行驶。而对于目标区域中存在草坪子区域和非草坪子区域的情况,则需要进一步选取靠近机器人的若干子区域作为参考区域,进而基于这些参考区域的草坪占比和位置,来进一步规划下一行驶路径。
具体的,在上述实施例的基础上,所述若干参考子区域包括:所述剪草机器人正前方的第一子区域,以及所述第一子区域两侧的子区域;所述的基于所述参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径;具体包括:
判断所述第一子区域的草坪占比是否大于所述安全阈值;
当判定所述第一子区域草坪占比大于所述安全阈值时,规划所述剪草机器人继续向前行驶;
当判定所述第一子区域草坪占比不大于所述安全阈值时,判定所述第一子区域的两侧是否均存在子区域;
若所述第一子区域只有一侧存在子区域时,判断所述第一子区域一侧的子区域的草坪占比是否大于所述安全阈值,若是,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向行驶;
若所述第一子区域的两侧均存在子区域时,分别判断两侧的子区域的草坪占比是否大于所述安全阈值;
当所述两侧的子区域中存在一侧子区域的草坪占比大于所述安全阈值,另一侧子区域的草坪占比小于所述安全阈值时,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向;
当所述两侧的子区域的草坪占比均大于所述安全阈值时,则规划所述剪草机器人向任意侧子区域方向转向。
具体的,若子区域中的草坪占比大于安全阈值,则该子区域视为草坪区域,若该子区域的草坪占比不大于安全阈值,则该子区域视为非草坪区域。参考图5,虽然,非草坪子区域多于草坪子区域(1代表非草坪区域,0代表草坪区域),但选取的参考子区域是剪草机器人附近的子区域,比如,选定的参考子区域为最下面一排的三个子区域,其中,正对的子区域为0(草坪区),左侧的参考子区域为1(非草坪区),右侧的参考子区域为0(草坪区),则可控制剪草机器人先继续向前行驶,再向右转向行驶。同理,参考图6,此时剪草机器人的三个子区域都是非草坪区域,所以会停止行驶。当然,如果参考子区域中:中间的子区域为1(非草坪区),左侧的子区域为0(草坪区),右侧的子区域为1(非草坪区),则规划剪草机器人向左转弯行驶。
在一个实施例中,基于相同的技术构思,本发明还提供了一种基于RTK与视觉融合技术的剪草机器人导航装置,参考图7包括:
视频帧获取模块10,用于通过安装在所述剪草机器人上的摄像头获取当前视频帧;
图像处理模块20,用于对所述视频帧进行图像识别处理,获取草坪蒙版图像;
目标选取模块30,用于从所述草坪蒙版图像上选取感兴趣的目标区域;
草坪占比获取模块40,用于将所述目标区域分割为若干子区域,并统计各子区域的草坪占比;
定位模块50,用于通过RTK技术获取所述剪草机器人的精确定位信息;
规划导航模块60,用于基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划及导航。
具体的,视频帧获取模块10可以通过安装于剪草机器人上的摄像头来获取剪草机器人前方的视频帧,然后调用图像处理模块20对视频帧进行处理,目标选取模块30从获取的草坪蒙版图像中确定目标区域,再通过草坪占比获取模块40来计算分割的若干子区域的草坪占比,最后结合定位模块50获取的的剪草机器人定位信息,规划导航模块60对剪草机器人进行合适的剪草路径规划。
在另一个实施例中,在上述实施例的基础上,如图8所示,定位模块50,具体包括:
差分数据获取子模块51,用于通过预设在草坪的RTK固定站,接收卫星信号,以RTK固定站为参考点产生差分数据并传输给剪草机器人;
差分数据解算子模块52,用于通过安装于剪草机器人上的RTK定位模块,接收差分数据,采用实时动态载波相位差分技术对差分数据进行解算获取剪草机器人的位置信息;
编码器子模块53,用于通过安装于剪草机器人上的编码器,实时获取当前剪草机器人的编码器数据,编码器数据包括轮子的旋转圈数和轮子半径;
姿态获取子模块54,用于通过安装于剪草机器人上的惯性测量单元,获取当前剪草机器人的三维旋转角速度和三维加速度,修正误差后实时获取当前剪草机器人的姿态;
定位信息获取子模块55,用于基于编码器数据和剪草机器人的姿态,融合剪草机器人的位置信息,获取剪草机器人的精确定位信息。
具体的,本模块主要负责RTK技术的实施与剪草机器人精确定位的信息获取。通过差分数据获取子模块获取到基站传输的差分数据,通过差分数据解算子模块通过实时动态载波相位差分技术对差分数据进行解算以获取剪草机器人的位置信息。结合编码器子模块、姿态获取子模块的数据和剪草机器人的位置信息数据,通过定位信息获取子模块来解算出剪草机器人的精确定位信息。
较佳的,上述实施例中,所述图像处理模块20,具体包括:
输入子模块21,用于将所述视频帧输入训练好的草坪识别模型;
模型识别子模块22,用于通过所述草坪识别模型识别并分割出所述视频帧中的草坪区域;并基于识别的草坪区域,输出草坪蒙版图像。
在另一个实施例中,在上述实施例的基础上,规划导航模块60,具体包括:
分析判断子模块61,用于判断各子区域的草坪占比是否均高于预设的安全阈值;
第一规划子模块62,用于若各子区域的草坪占比均高于所述安全阈值时,则规划所述剪草机器人继续向前行驶;
第二规划子模块63,用于若各子区域的草坪占比均低于所述安全阈值时,则规划所述剪草机器人执行后退或掉头操作;
参考选取子模块64,用于若所述目标区域中存在高于安全阈值的子区域,也存在低于安全阈值的子区域时,则基于所述剪草机器人当前的位置,选取靠近所述剪草机器人的若干子区域作为参考子区域;
第三规划子模块65,用于基于所述若干参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径;
导航控制子模块66,用于基于各规划子模块规划的所述剪草机器人的行驶路径,控制所述剪草机器人的行驶。
具体的,通过规划导航模块中的分析子模块来判断目标区域中的各子区域的草坪占比大小,当判断各子区域均为草坪区域时则调用第一规划子模块来控制剪草机器人继续向前行驶。同理,若当前子区域中均为非草坪区域,则调用第二规划子模块控制剪草机器人停止行驶。对于目标区域中既存在草坪子区域,又存在非草坪子区域的情况,则可以根据选定的参考子区域的草坪占比和位置,通过第三规划子模块对剪草机器人进行规划控制。
在另一个实施例中,在上述实施例的基础上,所述若干参考子区域包括:所述剪草机器人正前方的第一子区域,以及所述第一子区域两侧的子区域;所述第三规划子模块,具体包括:
占比判断单元,用于判断所述第一子区域的草坪占比是否大于所述安全阈值;
规划单元,用于当判定所述第一子区域草坪占比大于所述安全阈值时,规划所述剪草机器人继续向前行驶;
区域判断单元,用于当判定所述第一子区域草坪占比不大于所述安全阈值时,判定所述第一子区域的两侧是否均存在子区域;
所述占比判断单元,还用于若所述第一子区域只有一侧存在子区域时,判断所述第一子区域一侧的子区域的草坪占比是否大于所述安全阈值,若是,则通过所述规划单元规划所述剪草机器人向大于所述安全阈值的子区域方向转向行驶;
所述占比判断单元,还用于若所述第一子区域的两侧均存在子区域时,分别判断两侧的子区域的草坪占比是否大于所述安全阈值;
所述规划单元,还用于当所述两侧的子区域中存在一侧子区域的草坪占比大于所述安全阈值,另一侧子区域的草坪占比小于所述安全阈值时,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向;
所述规划单元,还用于当所述两侧的子区域的草坪占比均大于所述安全阈值时,则规划所述剪草机器人向任意侧子区域方向转向。
具体的,通过预设一个安全阈值,比如70%,草坪占比达到70%的子区域视为草坪子区域,草坪占比低于70%的子区域视为非草坪区域,当然,安全阈值的具体值可根据实际情况进行设定,本申请在此不做限定。
它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述或记载的部分,可以参见其他实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可能集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (8)

1.一种基于RTK与视觉融合技术的剪草机器人导航方法,其特征在于,包括:
通过安装在所述剪草机器人上的摄像头获取当前视频帧;
对所述视频帧进行图像识别处理,将画面中的区域划为草坪区域与非草坪区域,获取草坪蒙版图像;对机器人摄像头的视角范围进行分析,筛选出有效的视觉区域,略掉盲区的区域;
从所述草坪蒙版图像上选取感兴趣的目标区域;选定剪草机器人前方的固定区域作为感兴趣区域;
将所述目标区域分割为若干子区域,并统计各子区域的草坪占比;
通过RTK技术获取所述剪草机器人的精确定位信息;
基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划及导航;
所述通过RTK技术获取所述剪草机器人的精确定位信息,具体包括:
通过预设在草坪的RTK固定站,接收卫星信号,以所述RTK固定站为参考点产生差分数据;
将所述差分数据按照预设频率传输给所述剪草机器人;
通过安装于所述剪草机器人上的RTK定位模块,接收所述差分数据,采用实时动态载波相位差分技术对所述差分数据进行解算获取所述剪草机器人的位置信息;
所述的对所述视频帧进行图像识别处理,获取草坪蒙版图像具体包括:
将所述视频帧输入训练好的草坪识别模型;
通过所述草坪识别模型识别并分割出所述视频帧中的草坪区域;
基于识别的草坪区域,输出草坪蒙版图像。
2.根据权利要求1所述的一种基于RTK与视觉融合技术的剪草机器人导航方法,其特征在于,所述通过RTK技术获取所述剪草机器人的精确定位信息,具体包括:
通过安装于所述剪草机器人上的编码器,实时获取当前所述剪草机器人的编码器数据,所述编码器数据包括轮子的旋转圈数和轮子半径;
通过安装于所述剪草机器人上的惯性测量单元,获取当前所述剪草机器人的三维旋转角速度和三维加速度,修正误差后实时获取当前所述剪草机器人的姿态;
基于所述编码器数据和所述剪草机器人的姿态,融合所述剪草机器人的位置信息,获取所述剪草机器人的精确定位信息。
3.根据权利要求1所述的一种基于RTK与视觉融合技术的剪草机器人导航方法,其特征在于,所述的基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划,具体包括:
判断各子区域的草坪占比是否均高于预设的安全阈值;
若各子区域的草坪占比均高于所述安全阈值时,则规划所述剪草机器人继续向前行驶;
若各子区域的草坪占比均低于所述安全阈值时,则规划所述剪草机器人执行后退或掉头操作;
若所述目标区域中存在高于安全阈值的子区域,也存在低于安全阈值的子区域时,则基于所述剪草机器人当前的位置,选取靠近所述剪草机器人的若干子区域作为参考子区域;
基于所述若干参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径。
4.根据权利要求3所述的一种基于RTK与视觉融合技术的剪草机器人导航方法,其特征在于,所述若干参考子区域包括:所述剪草机器人正前方的第一子区域,以及所述第一子区域两侧的子区域;所述的基于所述参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径;具体包括:
判断所述第一子区域的草坪占比是否大于所述安全阈值;
当判定所述第一子区域草坪占比大于所述安全阈值时,规划所述剪草机器人继续向前行驶;
当判定所述第一子区域草坪占比不大于所述安全阈值时,判定所述第一子区域的两侧是否均存在子区域;
若所述第一子区域只有一侧存在子区域时,判断所述第一子区域一侧的子区域的草坪占比是否大于所述安全阈值,若是,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向行驶;
若所述第一子区域的两侧均存在子区域时,分别判断两侧的子区域的草坪占比是否大于所述安全阈值;
当所述两侧的子区域中存在一侧子区域的草坪占比大于所述安全阈值,另一侧子区域的草坪占比小于所述安全阈值时,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向;
当所述两侧的子区域的草坪占比均大于所述安全阈值时,则规划所述剪草机器人向任意侧子区域方向转向。
5.一种基于RTK与视觉融合技术的剪草机器人导航装置,其特征在于,包括:
视频帧获取模块,用于通过安装在所述剪草机器人上的摄像头获取当前视频帧;
图像处理模块,用于对所述视频帧进行图像识别处理,将画面中的区域划为草坪区域与非草坪区域,获取草坪蒙版图像;对机器人摄像头的视角范围进行分析,筛选出有效的视觉区域,略掉盲区的区域;
目标选取模块,用于从所述草坪蒙版图像上选取感兴趣的目标区域;选定剪草机器人前方的固定区域作为感兴趣区域;
草坪占比获取模块,用于将所述目标区域分割为若干子区域,并统计各子区域的草坪占比;
定位模块,用于通过RTK技术获取所述剪草机器人的精确定位信息;
规划导航模块,用于基于所述精确定位信息和所述目标区域的各子区域的草坪占比信息,对所述剪草机器人进行路径规划及导航;
所述定位模块,具体包括:
差分数据获取子模块,用于通过预设在草坪的RTK固定站,接收卫星信号,以所述RTK固定站为参考点产生差分数据并传输给所述剪草机器人;
差分数据解算子模块,用于通过安装于所述剪草机器人上的RTK定位模块,接收所述差分数据,采用实时动态载波相位差分技术对所述差分数据进行解算获取所述剪草机器人的位置信息;
所述图像处理模块,具体包括:
输入子模块,用于将所述视频帧输入训练好的草坪识别模型;
模型识别子模块,用于通过所述草坪识别模型识别并分割出所述视频帧中的草坪区域;并基于识别的草坪区域,输出草坪蒙版图像。
6.根据权利要求5所述的一种基于RTK与视觉融合技术的剪草机器人导航装置,其特征在于,所述定位模块,具体包括:
编码器子模块,用于通过安装于所述剪草机器人上的编码器,实时获取当前所述剪草机器人的编码器数据,所述编码器数据包括轮子的旋转圈数和轮子半径;
姿态获取子模块,用于通过安装于所述剪草机器人上的惯性测量单元,获取当前所述剪草机器人的三维旋转角速度和三维加速度,修正误差后实时获取当前所述剪草机器人的姿态;定位信息获取子模块,用于基于所述编码器数据和所述剪草机器人的姿态,融合所述剪草机器人的位置信息,获取所述剪草机器人的精确定位信息。
7.根据权利要求5所述的一种基于RTK与视觉融合技术的剪草机器人导航装置,其特征在于,所述规划导航模块,具体包括:
分析子模块,对获取的所述草坪蒙版图像进行分析,获取所述草坪蒙版图像中的草坪占比;
第一规划子模块,用于当判断视觉区域内均为草坪区域时,则规划所述剪草机器人继续向前行驶;
第二规划子模块,用于当判断视觉区域内均为非草坪区域时,则规划所述剪草机器人停止行驶;
第三规划子模块,用于当视觉区域内出现部分非草坪区域,则获取所述非草坪区域和草坪区域在视觉区域内的占比和位置,根据所述非草坪区域和草坪区域在视觉区域内的占比和位置来规划所述剪草机器人的行驶路径;
分析判断子模块,用于判断各子区域的草坪占比是否均高于预设的安全阈值;
第一规划子模块,用于若各子区域的草坪占比均高于所述安全阈值时,则规划所述剪
草机器人继续向前行驶;
第二规划子模块,用于若各子区域的草坪占比均低于所述安全阈值时,则规划所述剪草机器人执行后退或掉头操作;
参考选取子模块,用于若所述目标区域中存在高于安全阈值的子区域,也存在低于安全阈值的子区域时,则基于所述剪草机器人当前的位置,选取靠近所述剪草机器人的若干子区域作为参考子区域;
第三规划子模块,用于基于所述若干参考子区域的草坪占比及位置,规划所述剪草机器人的行驶路径;
导航控制子模块,用于基于各规划子模块规划的所述剪草机器人的行驶路径,控制所述剪草机器人的行驶。
8.根据权利要求7所述的一种基于RTK与视觉融合技术的剪草机器人导航装置,其特征在于,所述若干参考子区域包括:所述剪草机器人正前方的第一子区域,以及所述第一子区域两侧的子区域;
所述第三规划子模块,具体包括:
占比判断单元,用于判断所述第一子区域的草坪占比是否大于所述安全阈值;
规划单元,用于当判定所述第一子区域草坪占比大于所述安全阈值时,规划所述剪草机器人继续向前行驶;
区域判断单元,用于当判定所述第一子区域草坪占比不大于所述安全阈值时,判定所述第一子区域的两侧是否均存在子区域;所述占比判断单元,还用于若所述第一子区域只有一侧存在子区域时,判断所述第一子区域一侧的子区域的草坪占比是否大于所述安全阈值,若是,则通过所述规划单元规划所述剪草机器人向大于所述安全阈值的子区域方向转向行驶;
所述占比判断单元,还用于若所述第一子区域的两侧均存在子区域时,分别判断两侧的子区域的草坪占比是否大于所述安全阈值;
所述规划单元,还用于当所述两侧的子区域中存在一侧子区域的草坪占比大于所述安全阈值,另一侧子区域的草坪占比小于所述安全阈值时,则规划所述剪草机器人向大于所述安全阈值的子区域方向转向;
所述规划单元,还用于当所述两侧的子区域的草坪占比均大于所述安全阈值时,则规划所述剪草机器人向任意侧子区域方向转向。
CN202310197123.8A 2023-03-03 2023-03-03 基于rtk与视觉融合技术的剪草机器人导航方法和装置 Active CN116203606B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310197123.8A CN116203606B (zh) 2023-03-03 2023-03-03 基于rtk与视觉融合技术的剪草机器人导航方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310197123.8A CN116203606B (zh) 2023-03-03 2023-03-03 基于rtk与视觉融合技术的剪草机器人导航方法和装置

Publications (2)

Publication Number Publication Date
CN116203606A CN116203606A (zh) 2023-06-02
CN116203606B true CN116203606B (zh) 2024-02-20

Family

ID=86510927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310197123.8A Active CN116203606B (zh) 2023-03-03 2023-03-03 基于rtk与视觉融合技术的剪草机器人导航方法和装置

Country Status (1)

Country Link
CN (1) CN116203606B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116736868A (zh) * 2023-08-11 2023-09-12 松灵机器人(深圳)有限公司 机器人移动控制方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014173290A1 (zh) * 2013-04-22 2014-10-30 苏州宝时得电动工具有限公司 自动行走设备及其工作区域判断方法
CN106647765A (zh) * 2017-01-13 2017-05-10 深圳拓邦股份有限公司 一种基于割草机器人的规划平台
CN108628314A (zh) * 2018-06-13 2018-10-09 西安交通大学 一种多机协作草坪修剪机器人系统及方法
WO2021093474A1 (zh) * 2019-11-12 2021-05-20 苏州宝时得电动工具有限公司 一种割草机导航方法、装置和割草机
CN114303581A (zh) * 2021-12-06 2022-04-12 深圳市杉川机器人有限公司 一种智能割草机、行走路径规划方法、装置及存储介质
CN114342640A (zh) * 2022-01-06 2022-04-15 未岚大陆(北京)科技有限公司 数据处理方法、自动园艺设备及计算机程序产品
CN114568108A (zh) * 2022-02-28 2022-06-03 清华大学深圳国际研究生院 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质
CN114777792A (zh) * 2022-05-09 2022-07-22 深圳市正浩创新科技股份有限公司 路径规划方法、装置、计算机可读介质及电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864849B (zh) * 2014-02-24 2017-12-26 电信科学技术研究院 视觉导航方法和装置以及机器人

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014173290A1 (zh) * 2013-04-22 2014-10-30 苏州宝时得电动工具有限公司 自动行走设备及其工作区域判断方法
CN106647765A (zh) * 2017-01-13 2017-05-10 深圳拓邦股份有限公司 一种基于割草机器人的规划平台
CN108628314A (zh) * 2018-06-13 2018-10-09 西安交通大学 一种多机协作草坪修剪机器人系统及方法
WO2021093474A1 (zh) * 2019-11-12 2021-05-20 苏州宝时得电动工具有限公司 一种割草机导航方法、装置和割草机
CN114303581A (zh) * 2021-12-06 2022-04-12 深圳市杉川机器人有限公司 一种智能割草机、行走路径规划方法、装置及存储介质
CN114342640A (zh) * 2022-01-06 2022-04-15 未岚大陆(北京)科技有限公司 数据处理方法、自动园艺设备及计算机程序产品
CN114568108A (zh) * 2022-02-28 2022-06-03 清华大学深圳国际研究生院 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质
CN114777792A (zh) * 2022-05-09 2022-07-22 深圳市正浩创新科技股份有限公司 路径规划方法、装置、计算机可读介质及电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"An Outdoor High-Accuracy Local Positioning System for an Autonomous Robotic Golf Greens Mower";Aaron D. Smith等;《2012 IEEE International Conference on Robotics and Automation》;20120514;2633-2639 *
"非结构环境中割草机器人视觉导航研究";缪赟晨;《中国优秀硕士学位论文全文数据库信息科技》;正文第22-25、39页 *
曹冲等.《北斗导航 定位精准时空》.上海科学普及出版社,2018,78-79. *
缪赟晨."非结构环境中割草机器人视觉导航研究".《中国优秀硕士学位论文全文数据库信息科技》.2013,正文第22-25、39页. *

Also Published As

Publication number Publication date
CN116203606A (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
US11747822B2 (en) Mobile robot system and method for autonomous localization using straight lines extracted from visual images
CN109686031B (zh) 基于安防的识别跟随方法
CN109131067B (zh) 三角架自走车及其避障方法
EP3226207B1 (en) Automatic operation vehicle
CN109740461B (zh) 目标跟随后的处理方法
US11714411B2 (en) Autonomous traveling work machine
CN116203606B (zh) 基于rtk与视觉融合技术的剪草机器人导航方法和装置
CN109740462B (zh) 目标的识别跟随方法
EP3223101B1 (en) Automatic operation vehicle
CN112631314B (zh) 基于多线激光雷达与事件相机slam的机器人控制方法、系统
CN106989743A (zh) 一种能自动感知进出高架道路信息的车辆导航设备
CN111077890A (zh) 一种基于gps定位与自动避障的农业机器人的实现方法
US20200089222A1 (en) Virtual Path Guidance System
CN114265409A (zh) 轨迹信息处理方法、装置及地面设备
EP3555854B1 (en) A method of tracking objects in a scene
EP3223102B1 (en) Automatic operation vehicle
Behringer et al. Results on visual road recognition for road vehicle guidance
CN116466724A (zh) 一种机器人的移动定位方法、装置和机器人
CN112729289B (zh) 应用于自动导引车的定位方法、装置、设备和存储介质
CN111857113B (zh) 可移动设备的定位方法及定位装置
WO2023055383A1 (en) Vehicle row follow system
CN117472082B (zh) 一种基于ai视觉辅助的无人机航线生成方法及装置
CN115410231A (zh) 一种无地图场景下基于多传感器的人员跟随方法
US20240102824A1 (en) Moving object, control method of moving object, non-transitory computer-readable storage medium, and moving object control system
JP2022079954A (ja) 物体検出装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant