CN110347159B - 移动机器人多机协作方法和系统 - Google Patents

移动机器人多机协作方法和系统 Download PDF

Info

Publication number
CN110347159B
CN110347159B CN201910627705.9A CN201910627705A CN110347159B CN 110347159 B CN110347159 B CN 110347159B CN 201910627705 A CN201910627705 A CN 201910627705A CN 110347159 B CN110347159 B CN 110347159B
Authority
CN
China
Prior art keywords
robot
robots
data
sensor
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910627705.9A
Other languages
English (en)
Other versions
CN110347159A (zh
Inventor
刘龙彬
方健
梅涛
庄维
李向威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Rongcui Special Robot Co ltd
Original Assignee
Suzhou Rongcui Special Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Rongcui Special Robot Co ltd filed Critical Suzhou Rongcui Special Robot Co ltd
Priority to CN201910627705.9A priority Critical patent/CN110347159B/zh
Publication of CN110347159A publication Critical patent/CN110347159A/zh
Application granted granted Critical
Publication of CN110347159B publication Critical patent/CN110347159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种移动机器人多机协作方法和系统。主要包括:获取地图信息;获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,当需要其它机器人协同工作时,向其它机器人发送请求指令。上述方法中,单台机器人可根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,通过综合判断,需要多台机器人完成该任务时,可向其它机器人发送请求指令。其它机器人可对该请求指令进行响应,进而可通过多台机器人协同工作来完成对应的任务。

Description

移动机器人多机协作方法和系统
技术领域
本发明涉及机器人领域,特别是涉及移动机器人多机协作方法和系统。
背景技术
目前,在机器人领域,随着技术发展,单台机器人已经可以完成多种任务,例如动态定位、导航等。但在一些特殊应用环境,单台机器人无法完成相关任务。而且,当单台机器人的某些元件损坏后,经常会导致该机器人无法继续工作。
发明内容
基于此,提供一种移动机器人多机协作方法。以克服单台机器人在完成任务时的局限性。
一种移动机器人多机协作方法,包括:
获取地图信息;
获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,所述状态数据包含的信息为机器人的传感器的工作状态,所述环境数据包含的信息为机器人通过传感器检测得到的机器人周边的环境状况;
当需要其它机器人协同工作时,向其它机器人发送请求指令。
上述方法中,单台机器人可根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,通过综合判断,需要多台机器人完成该任务时,可向其它机器人发送请求指令。其它机器人可对该请求指令进行响应,进而可通过多台机器人协同工作来完成对应的任务。
在其中一个实施例中,向其它机器人共享以下数据中的一种或多种:状态数据和环境数据。
在其中一个实施例中,所述状态数据包括传感器的工作状态,当传感器的工作状态为无法正常工作时,向其它机器人发送请求指令,所述请求指令包括要求获取其它机器人的传感器数据,借助其它机器人的传感器数据继续执行任务。
在其中一个实施例中,还包括:接收请求指令并解析请求指令,根据解析结果执行对应的任务。
在其中一个实施例中,所述获取地图信息为获取已知地图信息或通过与其它机器人协同工作生成地图信息。
在其中一个实施例中,所述地图信息为打靶场地图,所述任务指令包括以下模式中的一种或多种:协同对抗模式、随机躲避模式和指定路径巡游模式,其中,在每一种模式内将单台机器人的传感器获取的信息进行系统内共享,要求共享的信息包括由视觉传感器获取到的敌军位置信息,以及由激光雷达探测到的障碍物信息,当其中任意一台机器人被击中后,被击中的机器人立即向系统发布弹道数据,其它机器人根据现场环境并依据决策数据库的策略采取对应的动作。
在其中一个实施例中,根据任务的优先级,由优先级高到优先级低的顺序依次执行各个任务。
一种移动机器人多机协作系统,所述机器人安装有ROS操作系统,所述移动机器人多机协作系统还包括:
地图获取模块,所述地图获取模块用于获取地图信息;
解析判断模块,所述解析判断模块用于获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,所述状态数据包含的信息为机器人的传感器的工作状态,所述环境数据包含的信息为机器人通过传感器检测得到的机器人周边的环境状况;
请求指令发送模块,所述请求指令发送模块用于当需要其它机器人协同工作时,向其它机器人发送请求指令。
在其中一个实施例中,所述状态数据包括传感器的工作状态,当传感器的工作状态为无法正常工作时,通过请求指令发送模块向其它机器人发送请求指令,所述请求指令包括要求获取其它机器人的传感器数据。
在其中一个实施例中,所述解析判断模块还用于接收请求指令并解析请求指令。
在其中一个实施例中,所述地图信息为打靶场地图,所述任务指令包括以下模式中的一种或多种:协同对抗模式、随机躲避模式和指定路径巡游模式,其中,在每一种模式内将单台机器人的传感器获取的信息进行系统内共享,要求共享的信息包括由视觉传感器获取到的敌军位置信息,以及由激光雷达探测到的障碍物信息,当其中任意一台机器人被击中后,被击中的机器人立即向系统发布弹道数据,其它机器人根据现场环境并依据决策数据库的策略采取对应的动作。
附图说明
图1为单台机器人的硬件架构图。
图2为单台机器人的软件系统流程图。
图3为多机协作的软件系统流程图。
图4为Action调度器的服务端对于客户端请求的处理流程图。
图5为用户操作界面示意图。
图6为本发明的实施例的多机协作方法的流程图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施例的限制。
需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1和图6所示,本发明的实施例提供了一种移动机器人多机协作方法,包括:
获取地图信息;
获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作;
当需要其它机器人协同工作时,向其它机器人发送请求指令。
本发明是基于现有的ROS系统,在SLAM技术上实现多机器人协同作业。上述方法中,单台机器人可根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,通过综合判断,需要多台机器人完成该任务时,可向其它机器人发送请求指令。其它机器人可对该请求指令进行响应,进而可通过多台机器人协同工作来完成对应的任务。
上述任务指令也就是需要机器人完成的任务信息。当任务信息需要多台机器人协同完成时,本台机器人可向其它的机器人发送请求指令,请求其它机器人协同完成任务。例如,本台机器人接收的任务为在打靶场遇到敌人后召集其它机器人共同歼敌。则本台机器人在打靶场遇到敌人后,可向附近其它机器人发送请求指令,请求其它机器人移动至敌人所在位置并歼敌。
需要说明的是,上述任务指令可通过主机(master)进行发布,可选择其中一台机器人作为主机,当这台机器人无法工作时,可换其它一台机器人作为主机。
上述状态数据包含的信息为机器人的传感器的工作状态,例如可分为传感器正常工作以及传感器失效。机器人可实时检测各个传感器的工作状态,以获取状态数据。
具体的,本实施例中,所述状态数据包括传感器的工作状态,当本台机器人的某个传感器的工作状态为无法正常工作时,可向其它机器人发送请求指令,所述请求指令包括要求获取其它机器人的对应传感器的数据。获取后将其它机器人的对应传感器数据进行转化,可使本台机器人在其它机器人的协作下继续执行任务。可以理解,也可以先将各台机器人的传感器数据进行转化并在系统内共享,以供其它机器人获取后直接使用。
例如,本台机器人的激光雷达损坏后,通过向其它机器人发送请求指令,以获取附近其它机器人的雷达数据,在结合自身的里程计信息,从而达到辅助本台机器人完成导航的目的。
具体的,A机器人的激光雷达坏掉之后,向后台传输激光雷达坏掉的信息,后台会向地图内所有机器人发送指令,离A机器人最近的B机器人会移动至A 机器人处。这里,由于每个机器人在地图上都有坐标,后台根据坐标计算哪个机器人离该机器人最近。B机器人辅助A机器人方法为:B机器人通过相机扫描 A机器人的AR标签(机器人定位标签),进而获取A机器人的相对于B机器人的相对位置和姿态,然后结合B机器人自身坐标进行坐标系转换,就能获取A机器人在地图的位姿。同理,B机器人的激光信息经过坐标系转换后可以模拟生成 A机器人的激光信息。然后A机器人就可以利用转换后的含有障碍物信息的地图进行导航了。也就是B机器人充当A机器人的相应的传感器,来辅助A机器人导航。
所述环境数据包含的信息为机器人通过传感器检测得到的机器人周边的环境状况。也就是,上述环境数据为机器人通过传感器检测得到的实际环境的数据。例如机器人的传感器检测获得机器人前方有障碍物,则环境数据包含的信心可以包括机器人前方有障碍物,障碍物距离机器人的距离等,或者,环境数据也可以包括传感器检测得到的敌人的数据,或者传感器检测得到的坐标数据等。
上述请求指令包含的信息可以是:请求处理的任务,还可以包括状态数据和环境数据等。也就是可以将本台机器人的状态数据和环境数据与请求处理的任务一同发送给其它机器人,供其它机器人进行判断。
具体的,当某台机器人接收到请求指令后,可对请求指令进行解析,根据解析结果判断是否能够执行对应的任务,如果能够执行则执行对应的任务。
本实施例中,单台机器人可向其它机器人共享以下数据中的一种或多种:状态数据和环境数据。也就是本台机器人可将自身的状态数据以及通过传感器检测得到的环境数据共享给其它机器人,以供其它机器人进行使用。
需要说明的是,各个机器人可以在同一地图中执行任务,这时,各个机器人的坐标系转换可应用现有技术中的转换方法实现。各个机器人也可以在不同地图中执行任务,只要各个地图之间的坐标对应关系为已知,则各个机器人的坐标系转换可应用现有技术中的转换方法实现。
本实施例中,所述获取地图信息为获取已知地图信息或者通过与其它机器人协同工作生成地图信息:例如,可以单机即时动态生成地图,或者利用 multirobot_map_merge(改开源功能包可以合并任意数量机器人的地图)功能包控制多个机器人协作生成实时地图。具体的,以打靶场地图为例,所述地图信息为打靶场地图,所述任务指令包括以下模式中的一种或多种:协同对抗模式、随机躲避模式和指定路径巡游模式。
其中,协同对抗模式是指:当有一个机器人发现周边有敌军信息后,向周边机器人发送协同进攻的指令,周边机器人就会围拢过来采取进攻策略。进攻策略可根据实际需求预先进行设定,机器人调用该进攻策略后按照策略执行相应的动作。
随机躲避模式是指:当一个机器人向其它机器人发送危险信号之后,对应的机器人采用随机躲避模式,避免自身受到攻击。随机躲避模式采取的就具体策略可根据实际需求进行预先设定。可以设置多个躲避策略,机器人可根据实际环境进行选定,应用最优的躲避策略。例如,周边有障碍物,为了躲避敌人的进攻,可以躲避到障碍物后面,也就是机器人可以移动至障碍物后方来躲避敌人的攻击。例如,如果周围没有障碍物,则机器人可以卧倒,或者,如果周围有友军,则可以向友军靠拢等。
指定路径巡游模式是指:通过UI界面生成不同的巡游点,机器人在不同巡游点之间进行游走,遍历各个巡游点。在不同巡游点之间可采取不同移动速度。这样设置,有利于让真实的士兵训练打靶,这里,机器人为靶子,士兵对抗机器人。
需要说明的是,在每一种模式内,可将单台机器人的传感器获取的信息进行系统内共享,也就是各个机器人将自身的传感器获取的信息共享给其它机器人,要求共享的信息包括由视觉传感器获取到的敌军位置信息,以及由激光雷达探测到的障碍物信息,当其中任意一台机器人被击中后,被击中的机器人立即向系统发布弹道数据,其它机器人根据现场环境并依据决策数据库的策略采取对应的动作。例如,躲避、反击等动作。上述决策数据库的策略可预先设置好,当满足某条策略执行条件时,则执行该条策略。这样可实现机器人自主决策功能。
进一步的是,为了更好的实现机器人的自主决策功能,使各个机器人之间的交互更加智能化,各个机器人之间的交互可采用Action调度器(服务器端和客户端持续交互和状态跟踪)、services/clients通信机制(services/clients 通信机制是一种双向、一对一的可靠通信机制)、或者topic通信机制,也就是节点之间通过向主题上发布(publish)和订阅(subscribe)消息来进行消息传递。其中所述Action调度器以及services/clients通信是一种服务器端的应用程序,是客户端与服务器端的中间件,担当客户请求与服务器响应的中间层。具体交互架构可参考图4。这样设置,可使各个机器人的调度更加灵活。
本实施例中,根据任务的优先级,由优先级高到优先级低的顺序依次执行各个任务。例如,先执行优先级高的任务,再执行优先级低的任务。
如图1所示,本实施例还提供了一种移动机器人多机协作系统。该系统中,每台机器人的架构包括:动力系统、通信系统、导航系统、声光系统和主控系统,并通过锂电池组合BMS电池管理单元为各个系统供电。其中,动力系统的电机驱动器通过CAN总线与主控系统相连,电机驱动器用于驱动伺服电机。通讯系统的数据传输模块通过串口与主控系统相连,通讯系统的图像传输模块通过AV接口与主控系统相连,通讯系统的遥控器模块通过串口与主控系统相连。导航系统的陀螺仪通过串口与主控系统相连。导航系统的GPS接收机与主控系统相连。导航系统的激光雷达通过串口与主控系统相连。声光系统的照明灯通过继电器与主控系统相连。声光系统的地盘和工控机状态灯通过继电器与主控系统相连。声光系统的声光报警灯通过继电器与主控系统相连。此外,每台机器人还配备有UI操作界面,位姿采集模块和后置超声波信号处理模块。同时,每台机器人还安装有ROS操作系统,多机协作SLAM算法,深度摄像头以及激光融合算法。
所述移动机器人多机协作系统还包括:地图获取模块,所述地图获取模块用于获取地图信息;解析判断模块,所述解析判断模块用于获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作;请求指令发送模块,所述请求指令发送模块用于当需要其它机器人协同工作时,向其它机器人发送请求指令。
本实施例中,所述状态数据包括传感器的工作状态,当传感器的工作状态为无法正常工作时,通过请求指令发送模块向其它机器人发送请求指令,所述请求指令包括要求获取其它机器人的传感器数据。
本实施例中,所述解析判断模块还用于接收请求指令并解析请求指令。
本实施例中,所述地图信息为打靶场地图,所述任务指令包括以下模式中的一种或多种:协同对抗模式、随机躲避模式和指定路径巡游模式,其中,在每一种模式内将单台机器人的传感器获取的信息进行系统内共享,要求共享的信息包括由视觉传感器获取到的敌军位置信息,以及由激光雷达探测到的障碍物信息,当其中任意一台机器人被击中后,被击中的机器人立即向系统发布弹道数据,其它机器人根据现场环境并依据决策数据库的策略采取对应的动作。
本发明是基于ROS系统和SLAM技术,在传统机器人的及时定位、导航的基础上,融合了多机通信、作业调度、自主决策算法。
其中,多机通信包括:各台机器人之间进行通信,并进行数据共享。作业调度可以应用图4所示的调度器的调度模式。这样设置,可使各个机器人的调度更加灵活。自主决策算法包括预先设置决策数据库,决策数据库中存储有为各种应用场景设定的策略。当满足该策略的执行条件时,可调用该策略并执行该策略。也就是,每台机器人在实际环境中,根据任务指令、状态数据和环境数据判断调用哪个策略。实现自主决策。
本发明中,为了实现上述多机协作方法,进行了数据融合的工作,也就是上述的激光融合算法。具体包括:共享了地图信息,融合了各台机器人的激光数据,进行了基于共享地图的各台机器人的坐标系转换。这样就可以使本台机器人可以使用其它机器人的传感器的数据。以下将举例说明。
例如,点对点融合:A机器人获知障碍物的位置坐标点,通过坐标系转换,转换到B机器人的坐标系里面,这样就可以帮助B机器人发现其没有探测到的位置环境。坐标系转换算法为SLAM技术中现有的。
例如,多对多融合:系统中所有机器人向后台打包发送自身坐标和周边障碍物信息(也就是障碍物的坐标点)以及敌军分布信息(也就是敌军坐标点),后台系统将获取到的各种坐标统一处理生成全局的障碍物信息和敌军分布信息,然后向系统内的各个机器人统一发布。
需要说明的是,本发明中,每个协作机器人又是一个功能完备的单体机器人。其可以完成的工作包括但不限于以下内容:动态定位和导航,信息共享(点对点和组播两种方式的共享信息),接受并完成单机指令。
本发明的多机协作方法和系统的应用场景较为丰富。例如可作为“智能移动打靶机器人系统”使用。当靶场中的一个机器人发现敌人后,可以迅速调集附近的机器人协同歼灭,同时每个参与歼灭的机器人又可以采用不同的歼灭战术互相配合。
本发明的整体运行框架如下:在同一个map中生成多个机器人实体,每个机器人都拥有各自的底层驱动程序、里程计、激光数据、全局和局部规划器。由于各机器人功能的完备性,所以该框架也适用于异构的机器人平台。
基于ROS操作系统并结合SLAM技术的机器人的单机软件系统流程为现有技术,具体可参考图2。在单机软件系统流程的基础上,本发明研发出多机协作 SLAM算法,可参考图3。图3中,将每个机器人的单机软件系统进行整合。加入了坐标转换系统,UI指令模块,路由转换模块和地图服务器。
其中,坐标转换系统可应用SLAM技术中的tf(坐标系转换)技术,用于坐标转换。UI指令模块用于发送指令,上述指令是在客户端界面发送的指令,例如,重新制定一个目标点,或者执行一个特定任务,比如闪躲指令等。路由转换模块用于在多机系统中,对单个机器人的ID识别,以及接收和发送相关信息。地图服务器用于在加载地图之后根据地图的灰度值区分障碍物信息、自由空间和未知空间。也可以加载动态发现的障碍物信息,供导航定位使用。
具体的,本发明利用现有的单机SLAM相关技术并进一步开发,研发出多机协作SLAM算法,以实现以下定位和导航功能:通过ROS service(服务)发布共享的map信息,各个机器人实例分别订阅该map信息给move_base的actionlib (Action调度器的核心功能包)使用。所有的机器人都通过tf(坐标系转换) 转换各自的坐标系并且发布base_link到odom(里程计坐标系)的坐标转换。每个机器人又通过订阅各自的/scan和tf(坐标系转换)转换,经过amcl(自适应蒙特卡洛定位)处理后去动态定位并且发布map到odom(里程计坐标系)的tf (坐标系转换)转换。当每个机器人接收到导航任务后根据定位信息和规划好的路径来完成导航任务,在导航过程中遇到动态障碍信息可以利用SLAM技术的壁障算法进行壁障并重新规划路径。在任务执行的过程中根据状态机和行为树规则进行任务调度。
用户操作界面如5图所示:该框架可以根据具体的任务来客制化RVIZ的UI 界面,在本应用中实现的是为不同的机器人指定不同的目标点,多个机器人可以同步完成各自目标点的动态壁障和实时导航的任务。在智能打靶机器人项目中可以实现多个机器人随机游走,发现敌人后协作歼灭的任务。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种移动机器人多机协作方法,其特征在于,包括:
获取地图信息;
获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,所述状态数据包含的信息为机器人的传感器的工作状态,所述环境数据包含的信息为机器人通过传感器检测得到的机器人周边的环境状况;
当需要其它机器人协同工作时,向其它机器人发送请求指令;
所述地图信息为打靶场地图,所述任务指令包括以下模式中的一种或多种:协同对抗模式、随机躲避模式和指定路径巡游模式,其中,在每一种模式内将单台机器人的传感器获取的信息进行系统内共享,要求共享的信息包括由视觉传感器获取到的敌军位置信息,以及由激光雷达探测到的障碍物信息,当其中任意一台机器人被击中后,被击中的机器人立即向系统发布弹道数据,其它机器人根据现场环境并依据决策数据库的策略采取对应的动作。
2.根据权利要求1所述的移动机器人多机协作方法,其特征在于,向其它机器人共享以下数据中的一种或多种:所述状态数据和环境数据。
3.根据权利要求1所述的移动机器人多机协作方法,其特征在于,当传感器的工作状态为无法正常工作时,向其它机器人发送请求指令,所述请求指令包括要求获取其它机器人的传感器数据,借助其它机器人的传感器数据继续执行任务。
4.根据权利要求1所述的移动机器人多机协作方法,其特征在于,还包括:接收请求指令并解析请求指令,根据解析结果执行对应的任务。
5.根据权利要求1所述的移动机器人多机协作方法,其特征在于,所述获取地图信息为获取已知地图信息或通过与其它机器人协同工作生成地图信息。
6.根据权利要求1所述的移动机器人多机协作方法,其特征在于,根据任务的优先级,由优先级高到优先级低的顺序依次执行各个任务。
7.一种移动机器人多机协作系统,所述机器人安装有ROS操作系统,其特征在于,所述移动机器人多机协作系统还包括:
地图获取模块,所述地图获取模块用于获取地图信息;
解析判断模块,所述解析判断模块用于获取任务指令并解析任务指令,获取状态数据和环境数据,根据解析结果、状态数据和环境数据综合判断是否需要其它机器人协同工作,所述状态数据包含的信息为机器人的传感器的工作状态,所述环境数据包含的信息为机器人通过传感器检测得到的机器人周边的环境状况;
请求指令发送模块,所述请求指令发送模块用于当需要其它机器人协同工作时,向其它机器人发送请求指令;
所述地图信息为打靶场地图,所述任务指令包括以下模式中的一种或多种:协同对抗模式、随机躲避模式和指定路径巡游模式,其中,在每一种模式内将单台机器人的传感器获取的信息进行系统内共享,要求共享的信息包括由视觉传感器获取到的敌军位置信息,以及由激光雷达探测到的障碍物信息,当其中任意一台机器人被击中后,被击中的机器人立即向系统发布弹道数据,其它机器人根据现场环境并依据决策数据库的策略采取对应的动作。
8.根据权利要求7所述的移动机器人多机协作系统,其特征在于,当传感器的工作状态为无法正常工作时,通过请求指令发送模块向其它机器人发送请求指令,所述请求指令包括要求获取其它机器人的传感器数据,所述解析判断模块还用于接收请求指令并解析请求指令。
CN201910627705.9A 2019-07-12 2019-07-12 移动机器人多机协作方法和系统 Active CN110347159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910627705.9A CN110347159B (zh) 2019-07-12 2019-07-12 移动机器人多机协作方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910627705.9A CN110347159B (zh) 2019-07-12 2019-07-12 移动机器人多机协作方法和系统

Publications (2)

Publication Number Publication Date
CN110347159A CN110347159A (zh) 2019-10-18
CN110347159B true CN110347159B (zh) 2022-03-08

Family

ID=68175958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910627705.9A Active CN110347159B (zh) 2019-07-12 2019-07-12 移动机器人多机协作方法和系统

Country Status (1)

Country Link
CN (1) CN110347159B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240319B (zh) * 2019-12-31 2023-03-28 南京理工大学 室外多机器人协同作业系统及其方法
CN111093176B (zh) * 2020-03-25 2020-07-07 炬星科技(深圳)有限公司 机器人网络监控方法、设备及存储介质
CN111317842B (zh) * 2020-03-31 2021-04-20 苏州酷卡环保科技有限公司 一种消毒机器人
CN111399428A (zh) * 2020-04-23 2020-07-10 北京信安通靶场装备科技有限公司 一种模拟作战设备控制方法
CN111660285A (zh) * 2020-06-30 2020-09-15 佛山科学技术学院 多机器人协同控制方法、系统、设备及存储介质
WO2022032442A1 (zh) * 2020-08-10 2022-02-17 深圳技术大学 多智能主体协同搬运物件的方法、系统和计算机可读存储介质
CN111993424B (zh) * 2020-08-19 2022-03-29 中国兵器科学研究院 一种异构移动机器人的互操作中间件测试系统及方法
CN113854906B (zh) * 2021-10-22 2022-07-15 广州科语机器人有限公司 多台清洁机器人协同作业的控制方法、装置及设备
CN114536339B (zh) * 2022-03-03 2024-05-31 深圳市大族机器人有限公司 协作机器人的控制方法、装置、协作机器人和存储介质
CN116038687A (zh) * 2022-10-28 2023-05-02 深圳市大族机器人有限公司 移动机器人调度方法、装置、机器人系统和计算机设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102393747A (zh) * 2011-08-17 2012-03-28 清华大学 无人机集群的协作交互方法及无人机的可视导航系统
CN104932495A (zh) * 2015-05-13 2015-09-23 刘鹏军 基于无线网络协同工作的清洁机器人系统
CN105045094A (zh) * 2015-08-03 2015-11-11 南通大学 多机器人群体的任务搜索和任务执行方法
CN105182828A (zh) * 2015-09-18 2015-12-23 深圳前海达闼科技有限公司 一种设备请求协助、响应设备协助请求的方法及设备
CN105259814A (zh) * 2015-10-30 2016-01-20 上海交通大学 一种多机器人系统及其通信系统
US9661477B1 (en) * 2015-03-06 2017-05-23 AI Incorporated Collaborative robotic device work group
CN106774345A (zh) * 2017-02-07 2017-05-31 上海仙知机器人科技有限公司 一种进行多机器人协作的方法与设备
CN106843031A (zh) * 2016-12-15 2017-06-13 北京光年无限科技有限公司 用于智能机器人的协同处理方法及系统
CN107246868A (zh) * 2017-07-26 2017-10-13 上海舵敏智能科技有限公司 一种协同导航定位系统及导航定位方法
CN108536155A (zh) * 2018-05-21 2018-09-14 上海理工大学 基于云平台的智能打靶训练多机器人系统
CN109605401A (zh) * 2019-01-30 2019-04-12 苏州融萃特种机器人有限公司 一种用于壁面环境感知的机器人系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9527211B2 (en) * 2013-05-10 2016-12-27 Cnh Industrial America Llc Control architecture for multi-robot system
KR102117984B1 (ko) * 2013-11-27 2020-06-02 한국전자통신연구원 군집 로봇의 협력 청소 방법 및 제어 장치

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102393747A (zh) * 2011-08-17 2012-03-28 清华大学 无人机集群的协作交互方法及无人机的可视导航系统
US9661477B1 (en) * 2015-03-06 2017-05-23 AI Incorporated Collaborative robotic device work group
CN104932495A (zh) * 2015-05-13 2015-09-23 刘鹏军 基于无线网络协同工作的清洁机器人系统
CN105045094A (zh) * 2015-08-03 2015-11-11 南通大学 多机器人群体的任务搜索和任务执行方法
CN105182828A (zh) * 2015-09-18 2015-12-23 深圳前海达闼科技有限公司 一种设备请求协助、响应设备协助请求的方法及设备
CN105259814A (zh) * 2015-10-30 2016-01-20 上海交通大学 一种多机器人系统及其通信系统
CN106843031A (zh) * 2016-12-15 2017-06-13 北京光年无限科技有限公司 用于智能机器人的协同处理方法及系统
CN106774345A (zh) * 2017-02-07 2017-05-31 上海仙知机器人科技有限公司 一种进行多机器人协作的方法与设备
CN107246868A (zh) * 2017-07-26 2017-10-13 上海舵敏智能科技有限公司 一种协同导航定位系统及导航定位方法
CN108536155A (zh) * 2018-05-21 2018-09-14 上海理工大学 基于云平台的智能打靶训练多机器人系统
CN109605401A (zh) * 2019-01-30 2019-04-12 苏州融萃特种机器人有限公司 一种用于壁面环境感知的机器人系统

Also Published As

Publication number Publication date
CN110347159A (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
CN110347159B (zh) 移动机器人多机协作方法和系统
US10659530B2 (en) Apparatus and method for network based operation of an unmanned aerial vehicle
US7236861B2 (en) Mission planning system with asynchronous request capability
US11334069B1 (en) Systems, methods and computer program products for collaborative agent control
Viguria et al. Distributed service-based cooperation in aerial/ground robot teams applied to fire detection and extinguishing missions
US20070021880A1 (en) Collaborative system for a team of unmanned vehicles
CN103885444A (zh) 信息处理方法、可移动电子设备和决策控制设备
KR20170071443A (ko) 군집 로봇의 행위 기반 분산 제어 시스템 및 방법
Butzke et al. The University of Pennsylvania MAGIC 2010 multi‐robot unmanned vehicle system
Cui et al. UAV target tracking algorithm based on task allocation consensus
Raja et al. Nexus of Deep Reinforcement Learning and Leader–Follower Approach for AIoT Enabled Aerial Networks
Marín et al. Event based distributed Kalman filter for limited resource multirobot cooperative localization
CN113500604A (zh) 一种机器人控制方法、装置、设备及存储介质
Krupitzer et al. RoCoSys: A framework for coordination of mobile IoT devices
Boeing et al. WAMbot: Team MAGICian's entry to the Multi Autonomous Ground‐robotic International Challenge 2010
Ropertz et al. Cooperation and communication of autonomous tandem rollers in street construction scenarios
Correia et al. A Survey of high-level teleoperation, monitoring and task assignment to Autonomous Mobile Robots
Beck et al. MobotWare–A Plug-in Based Framework for Mobile Robots
Cesar et al. Coordinating Multiple Autonomies to Improve Mission Performance
CN111897348A (zh) 云端机器人的控制方法及系统、云端机器人、云端服务器
Remmersmann et al. Commanding multi-robot systems with robot operating system using battle management language
Sinsley et al. An intelligent controller for collaborative unmanned air vehicles
Wang et al. Dynamic Resources Management Under Limited Communication Based on Multi-level Agent System
KR102720843B1 (ko) 인공 지능을 이용하여, 안내 서비스를 제공하는 로봇 및 그의 동작 방법
Verret et al. Multi-unmanned vehicle systems (nUxVs) at Defence R&D Canada

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant