CN113589823A - 一种多移动机器人协同目标搜索方法 - Google Patents
一种多移动机器人协同目标搜索方法 Download PDFInfo
- Publication number
- CN113589823A CN113589823A CN202110929567.7A CN202110929567A CN113589823A CN 113589823 A CN113589823 A CN 113589823A CN 202110929567 A CN202110929567 A CN 202110929567A CN 113589823 A CN113589823 A CN 113589823A
- Authority
- CN
- China
- Prior art keywords
- robot
- mobile
- search method
- map
- robots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000008569 process Effects 0.000 claims abstract description 7
- 230000009466 transformation Effects 0.000 claims description 5
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉多智能体目标搜索技术领域,公开了一种多移动机器人协同目标搜索的方法,运用该方法,能够有效实现对已知环境下目标物体的快速搜寻。本方法主要用到的设备是一台搭载了激光雷达以及两台或以上搭载了RGB摄像头的差速移动机器人。本方法的具体实现流程为:先使用搭载激光雷达的移动机器人对未知环境建立栅格地图,在得到的栅格地图中选取一些关键点作为机器人的移动点;其次,使用聚类算法将这些点分成簇,为使用多机器人作准备;然后,使用解决旅行商问题的思路,使得每个机器人能够快速地遍历所在的区域,当某一机器人检测到物体时,发出讯息,其他机器人返回起点。
Description
技术领域
本发明涉多智能体目标搜索技术领域,特别涉及一种多移动机器人协同目标搜索方法。
背景技术
随着人类物质需求的日益增加,单纯的体力劳动难以维持正常的工业生产与民用生活,与此同时,以信息学科为核心的高尖端技术发展迅速,机器人学由此诞生。近半个世纪以来,信息科学、自动化、机械学、材料学、运筹学等多学科交叉发展,机器人研究取得了长足的进步。
在机器人技术的发展过程中,多机器人系统相关技术不断涌现,多机器人系统逐渐在工农业生产、高危环境作业、水下与空间环境探测、卫星协同控制等领域大量应用。相对于单机器人系统而言,多机器人系统适应更加复杂多变的动态环境,对环境中的干扰和机器人故障具备更好的鲁棒性;通过多个结构简单、成本较低的机器人组建团队,能够达到甚至超越成本高昂的单机器人所能产生的效果;多个机器人组成协作团队,能够并行执行更加复杂的分布式任务,效率更高。
目标搜索是多机器人领域的一个挑战,多机器人目标搜索是指多个机器人通过协作,利用自身携带的传感器对环境中的目标进行搜索。目标搜索是实现救援、侦查、防御等任务的重要环节, 是多机器人研究的重要内容之一。
发明内容
本发明的目的:对当前环境下,未知位置的目标物体进行搜寻,采用多机器人协同搜索的方式,提高工作效率,减轻工作负担;当某台机器人出现故障时,其他机器人仍能完成任务;利用求解旅行商问题的方法,快速遍历当前环境;基于RGB-D相机的物体搜寻,能够较准确地获得物体的空间位姿。
本发明为了实现上述目的,本发明提供了如下技术方案:
一种如上所述的多移动机器人协同目标搜索的方法,主要包括以下步骤:
步骤(1)使用搭载激光雷达的移动机器人对未知环境进行建图,采用Gmapping算法,通过远程键盘或控制器遥控的方式进行建图;
步骤(2)在机器人的移动过程中,依据AMCL(adaptive Monte CarloLocalization)定位算法,记录下移动机器人的base_frame相较于当前地图map_frame的坐标变化,这些坐标点就是后续移动机器人路径点;
步骤(3)得到坐标点后,使用K-MEANS聚类算法,将点分类成簇,使得每一个点都在一定的区域范围之内;
步骤(4)对每个簇分别求解旅行商问题,即在相对较短的时间内遍历巡检路径点,这里采用的是贪心算法;
步骤(5)对每条规划好的移动路径进行后端优化,求解最优控制问题(OptimalBoundary Value Problem, OBVP),使其符合机器人的运动学模型;
步骤(6)在机器人的移动过程中,相机不断采集周围环境,根据物体的颜色或者轮廓信息,识别目标物体;
步骤(7)识别到物体的颜色信息后,对图像进行二值化处理;同时,机器人运动控制改为视觉伺服,即通过相机坐标系的变换反解求机器人的运动学控制,从而不断靠近目标物体;
步骤(8)物体在相机中的二值化像素大小达到一定阈值时,停止移动,由物体的深度信息、像素坐标经坐标变换,输出其在世界坐标系下的位姿信息。
步骤(9)由完成任务的机器人发送消息,所有机器人返回起始位置。
在本发明中,搭载激光雷达和深度相机的移动机器人如图1所示,底盘是两轮的差速移动底盘,前后有支撑滚轮,其上还搭载了支持ROS系统的笔记本电脑;基于ROS节点间的通讯方式,整个系统框架如图2所示,各设备间通过无线网络连接。
与现有技术相比,本发明具有如下有益效果:
(1)使用多移动机器人,提高了工作效率,节点式的分布方式,以多台较低性能的机器人,完成较复杂的任务,节省任务成本;
(2)考虑搭载电脑的性能,使用高效的贪心算法求次优解,而不是通过暴力算法求最优解。
(3)基于ROS系统,独特的通信机制以及实用工具,使得各项子任务都能轻松完成。
附图说明
图1为本发明的搜索方法的总体流程图;
图2为本发明的两种主要设备示意图;
图3为本发明整体关系的框架示意图;
图4为本发明系统的节点架构示意图;
图5为本发明k-means聚类算法流程示意图;
图6为本发明求解旅行商问题的贪心算法流程示意图;
图7为本发明视觉伺服控制系统结构流程示意图。
具体实施方式
如图1-2所示的两种主要设备,在PC端都已经建立了相应的模型,在ROS系统中加载时,可以很容易地得到机器人各个部件坐标系的变换关系,即TF树;所有的操作都可以在一个总的PC端来实现,如图3所示,PC电脑连接着所有的机器人。
实施例,如图3-7所示,一种多移动机器人协同目标搜索的方法,包括以下步骤:
步骤1、在激光雷达端运行Gmapping节点,PC电脑运行键盘控制节点,遥控机器人运动进行建图;
步骤2、雷达端运行AMCL节点,在移动过程中,PC端订阅/amcl_pose话题,它输出了机器人相对世界坐标系的位姿;
步骤3、对步骤2记录的坐标点进行分类,使用K-MEANS聚类算法,分类簇的数量由搜寻机器人的数量决定;
步骤4、对步骤3得到的每个簇分别求解旅行商问题,即在相对较短的时间内访问所有路径点,这里采用的是贪心算法;
步骤5、对步骤4输出的移动路径进行后端优化,将优化后的结果从PC端发布,各个机器人订阅自己的路径消息;
步骤6、每台机器人运行目标识别的节点,订阅相机的消息,并基于opencv的目标检测,在检测到目标物体后,会发布当前物体的世界位姿;
步骤7、运行视觉伺服控制节点,订阅步骤6发布的图像及位姿消息,不断调整机器人位姿,直至目标物体在相机中所占像素达到一定。.
步骤8、输出位姿的节点,订阅深度相机的消息以及步骤7中最后的图像消息,发布目标物体位姿消息。
步骤9、由步骤8中完成任务的机器人发送返回消息,所有机器人订阅,返回起始位置,任务结束。
Claims (10)
1.一种多移动机器人协同目标搜索的方法,其特征在于:使用聚类的思想,将地图中的关键点划分成簇,使得多个机器人协同工作;在各自的区域,基于求解旅行商的问题,能够快速遍历地图;采用基于物体特征识别的方法,确定目标物体,并输出物体位姿;实现在已知环境中快速搜索目标物体。
2.根据权利要求1所述的多移动机器人协同目标搜索方法,主要包含以下步骤:
步骤1建图;构建当前环境的栅格地图;
步骤2定位;在建图过程中,通过定位算法实现对移动机器人的定位,记录下一些坐标点,如地图的拐角、隔间等地;
步骤3分类;将记录好的世界坐标点分类成簇,作为后续机器人的移动点;
步骤4求解路径;针对每个簇类,求解旅行商问题,得到相应的移动路径;
步骤5轨迹优化;对得到的移动路径的轨迹进行后端优化,使其符合机器人运动模型;
步骤6识别;在机器人移动过程中,不断检测识别目标物体;
步骤7靠近目标;当某台机器人检测到物体时,改为视觉伺服的方式控制该机器人靠近目标;
步骤8输出位姿;靠近目标物体一定距离,确定其空间位置后,输出具体空间位姿;
步骤9返回;由检测到物体的机器人发出消息指令,所有机器人返回起点。
3.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤1中的建图采用Gmapping算法。
4.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤2中的定位算法采用AMCL自适应蒙特卡洛定位。
5.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤2中的记录坐标点,是移动机器人经定位后的base_frame相对于地图的map_frame的变换。
6.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤3中的坐标点采用K-means聚类算法进行分类。
7.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤4中的移动路径是基于求解旅行商问题TSP得到。
8.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤5中的移动路径轨迹优化是基于求解两点边界最优控制问题OBVP 。
9.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤6中的检测识别目标物体是对物体颜色或轮廓的识别方式,并对识别图像进行二值化处理。
10.根据权利要求2所述的多移动机器人协同目标搜索方法,其特征在于:所述步骤7中的视觉伺服是通过相机坐标系的变换,反解求得机器人的运动学控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110929567.7A CN113589823A (zh) | 2021-08-13 | 2021-08-13 | 一种多移动机器人协同目标搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110929567.7A CN113589823A (zh) | 2021-08-13 | 2021-08-13 | 一种多移动机器人协同目标搜索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113589823A true CN113589823A (zh) | 2021-11-02 |
Family
ID=78257830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110929567.7A Pending CN113589823A (zh) | 2021-08-13 | 2021-08-13 | 一种多移动机器人协同目标搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113589823A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299210A (zh) * | 2018-11-06 | 2019-02-01 | 哈尔滨工业大学(深圳) | 一种基于信息融合的多无人机分布式协同搜索方法 |
CN109917818A (zh) * | 2019-01-31 | 2019-06-21 | 天津大学 | 基于地面机器人的协同搜索围堵方法 |
CN113009916A (zh) * | 2021-03-08 | 2021-06-22 | 珠海市一微半导体有限公司 | 一种基于全局地图探索的路径规划方法、芯片及机器人 |
-
2021
- 2021-08-13 CN CN202110929567.7A patent/CN113589823A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299210A (zh) * | 2018-11-06 | 2019-02-01 | 哈尔滨工业大学(深圳) | 一种基于信息融合的多无人机分布式协同搜索方法 |
CN109917818A (zh) * | 2019-01-31 | 2019-06-21 | 天津大学 | 基于地面机器人的协同搜索围堵方法 |
CN113009916A (zh) * | 2021-03-08 | 2021-06-22 | 珠海市一微半导体有限公司 | 一种基于全局地图探索的路径规划方法、芯片及机器人 |
Non-Patent Citations (2)
Title |
---|
刘文兵: "多无人机协同搜索多目标的路径规划问题研究", 电光与控制, vol. 26, no. 3, pages 35 - 39 * |
荣玉斌;胡英;马孜;: "基于全景视觉的海上救助机器人", 清华大学学报(自然科学版), no. 2 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110202583B (zh) | 一种基于深度学习的仿人机械手控制系统及其控制方法 | |
CN106774345B (zh) | 一种进行多机器人协作的方法与设备 | |
CN111243017B (zh) | 基于3d视觉的智能机器人抓取方法 | |
CN109960880A (zh) | 一种基于机器学习的工业机器人避障路径规划方法 | |
CN109799829B (zh) | 一种基于自组织映射的机器人群体协同主动感知方法 | |
CN113985879B (zh) | 基于历史数据动态优化的智能移动巡检方法 | |
Liu et al. | CNN-based vision model for obstacle avoidance of mobile robot | |
Wen et al. | Human assembly task recognition in human-robot collaboration based on 3D CNN | |
CN114442629B (zh) | 一种基于图像处理的移动机器人路径规划方法 | |
Horváth et al. | Point cloud based robot cell calibration | |
CN116665312A (zh) | 一种基于多尺度图卷积神经网络的人机协作方法 | |
Wang et al. | Unsupervised representation learning for visual robotics grasping | |
Al-Shanoon et al. | Learn to grasp unknown objects in robotic manipulation | |
Yang et al. | Robotic pushing and grasping knowledge learning via attention deep Q-learning network | |
CN113589823A (zh) | 一种多移动机器人协同目标搜索方法 | |
CN116189054A (zh) | 基于神经网络的人机协作方法及人机协作系统 | |
CN116460846A (zh) | 机械臂控制方法、装置、设备和存储介质 | |
Sun et al. | Sparse pointcloud map fusion of multi-robot system | |
Sun et al. | Precise grabbing of overlapping objects system based on end-to-end deep neural network | |
Tian et al. | A method for estimating an unknown target grasping pose based on keypoint detection | |
Gu et al. | Cooperative Grasp Detection using Convolutional Neural Network | |
Babi et al. | Autonomous Robotic Assembly and Sequence Planning Based on YOLOv8 | |
Jia et al. | Review of current vision-based robotic machine-tending applications | |
Li et al. | A new teaching system for arc welding robots with auxiliary path point generation module | |
Tang | Research on Visual Localization and Gripping Technology of Robotic Arm Based on Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |