CN114186859B - 复杂未知环境多机协同多目标任务分配方法 - Google Patents

复杂未知环境多机协同多目标任务分配方法 Download PDF

Info

Publication number
CN114186859B
CN114186859B CN202111518655.4A CN202111518655A CN114186859B CN 114186859 B CN114186859 B CN 114186859B CN 202111518655 A CN202111518655 A CN 202111518655A CN 114186859 B CN114186859 B CN 114186859B
Authority
CN
China
Prior art keywords
map
target
target task
unmanned system
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111518655.4A
Other languages
English (en)
Other versions
CN114186859A (zh
Inventor
孙光辉
付金宇
吴立刚
刘健行
姚蔚然
王艳坤
张兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202111518655.4A priority Critical patent/CN114186859B/zh
Publication of CN114186859A publication Critical patent/CN114186859A/zh
Application granted granted Critical
Publication of CN114186859B publication Critical patent/CN114186859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)

Abstract

一种复杂未知环境多机协同多目标任务分配方法,属于多无人系统任务分配技术领域。本发明针对现有复杂障碍环境下多目标多无人系统的任务分配无法实现分配最优的问题。包括:在目标区域环境地图上确定当前目标任务点;通过维诺图进行建图区域划分,将所有无人系统构建的区域地图融合后获得全场景地图;再利用K‑means算法对当前目标任务点进行初始聚类,获得初始聚类中心;再通过计算获得备用中心;利用备用中心作为本发明提出的K‑DPRM*算法的初始聚类中心,实现障碍物场景下的多目标多无人系统任务分配,通过数次迭代,进行任务再分配,获得再分配任务目标点;直到再分配后避障距离总和最小,实现聚类收敛。本发明可实现多机协同多目标任务分配最优。

Description

复杂未知环境多机协同多目标任务分配方法
技术领域
本发明涉及复杂未知环境多机协同多目标任务分配方法,属于多无人系统任务分配技术领域。
背景技术
多无人系统作为一种新型技术,因其协同执行任务,具有任务完成效率高、智能性及高效性等特点,而在多种场景中发挥着重要作用,尤其在工厂对于多目标的产品收集、清洁机器人的多清洁空间任务分配等方面具有重要意义。
为实现复杂障碍场景环境下的快速多无人系统协同任务规划,首先要做的是任务分配。目前对于障碍环境下的任务分配仍然是一个难点。在任务分配中,对于多无人系统任务的总航程最优规划问题,传统的K-means等分类方式无法缺少对障碍信息的关注,导致任务分配存在较强的不合理性。
发明内容
针对现有复杂障碍环境下多目标多无人系统的任务分配无法实现分配最优的问题,本发明提出一种复杂未知环境多机协同多目标任务分配方法。
本发明的一种复杂未知环境多机协同多目标任务分配方法,包括,
步骤一:建立未知陌生环境的目标区域环境地图;
步骤二:在目标区域环境地图上确定当前目标任务点;再通过维诺图在目标区域环境地图上对当前目标任务点进行建图区域划分,每台无人系统对应完成一个建图区域的建图任务获得区域地图,将所有区域地图进行融合,获得融合后全域地图;
步骤三:基于融合后全域地图,利用K-means算法对当前目标任务点进行初始聚类,获得与无人系统个数相同的初始聚类中心;每个聚类中心对应一个目标任务区;
步骤四:结合初始聚类中心、目标任务区内目标任务点坐标信息以及目标区域的栅格地图,将聚类中心所属的组内的目标任务点中距离初始聚类中心欧式距离最近的点作为备用中心;
基于备用中心,作为K-DPRM*算法的初始聚类中心,对每台无人系统进行当前目标任务点的任务再分配获得再分配任务区,直到再分配后对应每台无人系统的目标任务点与相应的备用中心的避障距离总和最小,确定当前备用中心为最终中心,完成一次多目标任务区的任务分配。
根据本发明的复杂未知环境多机协同多目标任务分配方法,步骤一中建立目标区域环境地图的方法包括:
采用无人系统点云激光雷达传感器模块获取目标区域的地图信息,建立目标区域环境地图。
根据本发明的复杂未知环境多机协同多目标任务分配方法,所述目标区域环境地图包括点云地图以及由点云地图转化获得的栅格地图。
根据本发明的复杂未知环境多机协同多目标任务分配方法,步骤二中,获得区域地图的方法包括:
对于当前无人系统,采用无人系统点云激光雷达传感器模块获取建图区域的地图信息,采用IMU惯性测量单元获取当前无人系统的系统姿态和云台状态,采用避障双目摄像头和高精轮式里程计获取当前无人系统运动参数,包括位移、速度、加速度、角度和角加速度;将所有获取的数据进行多信息场融合,进行一个区域地图的构建。
根据本发明的复杂未知环境多机协同多目标任务分配方法,获得融合后全域地图的方法包括:
对所有区域地图通过时间戳一致,再进行信息融合获得融合后全域地图M*:
Figure BDA0003408008040000021
式中,Fi表示区域地图,Ti表示通过点云特征匹配获得的状态转移函数,Knum表示无人系统个数。
根据本发明的复杂未知环境多机协同多目标任务分配方法,步骤三中,获得初始聚类中心的方法包括:
[cidx,ctrs]=kmeans(Coordinate,Knum,Inum),
式中cidx为多目标任务分类序号,ctrs为初始聚类中心,Coordinate为多目标任务点坐标信息,Inum为聚类迭代次数。
根据本发明的复杂未知环境多机协同多目标任务分配方法,步骤四中:每获得一次备用中心后,进行一次当前目标任务点的重新分配,并计算一次对应每台无人系统的目标任务点与相应的备用中心的避障距离总和,经过迭代后,获得目标任务点针对无人系统的最优任务分配。
根据本发明的复杂未知环境多机协同多目标任务分配方法,获得最优任务分配的目标函数S为:
Figure BDA0003408008040000031
式中,Nt为当前无人系统对应的目标任务点个数,j=1,2,3,……,Nt
Figure BDA0003408008040000032
为第j类目标任务点,
Figure BDA0003408008040000033
为利用PRM*算法通过避障距离构建的K-DPRM*函数运算方式,Ctr(ki)为第ki组聚类中心,ki=1,2,3,……,Knum,ki=f*(j),f*为第j类目标与ki的映射关系,F*为f*的函数空间。
根据本发明的复杂未知环境多机协同多目标任务分配方法,所述无人系统的运行通过多无人系统控制模组进行控制;所述多无人系统控制模组包括远程控制模块和运动控制模块,
远程控制模块用于对无人系统的环境感知、避障及作业规划进行控制;运动控制模块用于对无人系统的运动速度以及运动姿态进行控制。
根据本发明的复杂未知环境多机协同多目标任务分配方法,获得状态转移函数Ti的点云特征匹配方法包括ICP法、最小二乘法或SVD法。
本发明的有益效果:本发明方法提出了基于K-means算法与Voronoi Diagram法相结合的多机协同建图任务分配方法;基于所建立的地图,提出了将基于PRM*生成多目标到分类中心的避障路径总和,作为复杂避障场景下的多目标任务分配的新指标,实现多目标最优任务分配。
本发明利用维诺图与改进的K-DPRM*算法结合的方式,解决多目标、多通信无人系统情况下对无人系统的建图任务分配。从而实现多机协同对未知复杂环境下的地图构建。基于构建的地图中的障碍信息,结合改进的K-DPRM*算法,构建新的多目标任务分配指标,使每个任务分配的中心点到其对应的分类中心点的避障距离总和最短,可以实现复杂障碍环境下的多机协同多目标任务最优分配。
本发明可以迅速地实现指定区域的多无人系统协同建图任务分配,并且实现区域的无人系统的建图探索,同时在中控实现信息上传至云端实现云端知识共享,进行多机协同建图,提高建图效率,并且可以实时对作业区域情况监测并进行反馈,在自主漫游运动建图的基础上,以远程遥操作作为辅助建图控制手段,保障任务完成。并且,本发明可以使无人系统迅速实现空间覆盖并实现地图构建,从而对区域内多目标进行已知障碍环境下的多目标任务分配、为后续任务执行提供决策指导。
本发明具有任务完成速度快、响应速度快和多机协同作业等优点,利用备用中心作为提出的K-DPRM*算法的初始聚类中心,实现障碍物场景下的多目标多无人系统任务分配,通过数次迭代,进行当前目标任务点的任务再分配,获得再分配任务目标点;直到再分配后对应每台无人机的目标任务点与相应的备用中心的避障距离总和最小,实现聚类收敛。
本发明可以有效快速实现特定区域的建图,且在将障碍作为约束的条件下,构建新的多目标任务分配指标,实现多目标任务分配最优。
附图说明
图1是本发明所述复杂未知环境多机协同多目标任务分配方法的流程图;
图2是本发明所述方法实现过程的工作原理图;
图3是本发明方法的任务分配过程原理图;其中X为环境地图横坐标,Y为环境地图纵坐标;
图4是多信息场传感器信息融合建图平台工作示意图;
图5是多机协同建图空间映射工作示意图;
图6是本发明方法的多目标任务重分配效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其它实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
具体实施方式一、结合图1至图6所示,本发明提供了一种复杂未知环境多机协同多目标任务分配方法,包括,
步骤一:建立未知陌生环境的目标区域环境地图;
步骤二:在目标区域环境地图上确定当前目标任务点;再通过维诺图在目标区域环境地图上对当前目标任务点进行建图区域划分,每台无人系统对应完成一个建图区域的建图任务获得区域地图,将所有区域地图进行融合,获得融合后全域地图;
步骤三:基于融合后全域地图,利用K-means算法对当前目标任务点进行初始聚类,获得与无人系统个数相同的初始聚类中心;每个聚类中心对应一个目标任务区;
步骤四:结合初始聚类中心、目标任务区内目标任务点坐标信息以及目标区域的栅格地图,将聚类中心所属的组内的目标任务点中距离初始聚类中心欧式距离最近的点作为备用中心;
基于备用中心,作为K-DPRM*算法的初始聚类中心,构建K-DPRM*障碍环境下最优分配算法,对每台无人系统进行当前目标任务点的任务再分配获得再分配任务区,直到再分配后对应每台无人系统的目标任务点与相应的备用中心的避障距离总和最小,确定当前备用中心为最终中心,完成一次多目标任务区的任务分配。
本实施方式中所述无人系统也可以是无人车或无人艇等自主无人执行器。
目标区域环境地图map为:
map=zeros(m,n),m,n表示环境地图的尺寸。
进一步,结合图2所示,步骤一中建立目标区域环境地图的方法包括:
采用无人系统点云激光雷达传感器模块1-1获取目标区域的地图信息,建立目标区域环境地图。
再进一步,所述目标区域环境地图包括点云地图以及由点云地图转化获得的栅格地图。对未知环境进行点云地图构建或构建二维栅格地图,可为多无人系统多目标任务分配系统提供环境的地图信息。
再进一步,结合图2所示,步骤二中,获得区域地图的方法包括:
对于当前无人系统,采用无人系统点云激光雷达传感器模块1-1获取建图区域的地图信息,采用IMU惯性测量单元1-2获取当前无人系统的系统姿态和云台状态,采用避障双目摄像头1-3和高精轮式里程计1-4获取当前无人系统运动参数,包括位移、速度、加速度、角度和角加速度;将所有获取的数据进行多信息场融合,进行一个区域地图的构建。
本实施方式中,无人系统点云激光雷达传感器模块1-1、IMU惯性测量单元1-2、避障双目摄像头1-3和高精轮式里程计1-4组成智能无人系统环境感知模组1。其中无人系统点云激光雷达传感器模块1-1用于对未知环境进行点云地图构建或构建二维栅格地图,可为多无人系统多目标任务分配系统提供环境的地图信息;IMU惯性测量单元1-2用于对无人系统姿态的感知及云台状态反馈,保证无人系统在环境地图构建过程中数据点位置的稳定,并且为建图系统提供无人系统运动参数;
智能无人系统环境感知模组1搭载在各个无人系统上,其中无人系统点云激光雷达传感器模块1-1的激光雷达可以是单线得思岚科技单线激光雷达(只可构建栅格地图),也可以是速腾聚创(Robosense)或威力登(Velodyne)的16线/32线或更高线程的激光雷达。IMU惯性测量单元1-2中的IMU可以是九轴传感器,用于获得无人系统位姿信息。避障双目摄像头1-3可以为Zed双目摄像头。高精轮式里程计1-4为Omron等型号的轮式里程计。各个模块中的主控制器可以为Jeston Nano板卡或JetsonTX2或能安装ROS系统的工控机。
本实施方式的实施包括对待建图的动态环境的信息获取,待覆盖的多目标坐标点的信息获取,还利用到无人系统感知模组、无人系统控制模组、边缘侧控制模组和通讯模组。
再进一步,获得融合后全域地图的方法包括:
通过无人系统处理器进行多源信息融合后,将环境信息以通信方式传输至边缘侧,可在边缘侧或云端实现多机协同建图。
通过实际环境特征点与建图中点云关键点的映射关系求解,实现多无人系统地图融合。具体为对所有区域地图通过时间戳一致,再进行信息融合获得融合后全域地图M*:
Figure BDA0003408008040000061
式中,Fi表示区域地图,Ti表示通过点云特征匹配获得的状态转移函数,Knum表示无人系统个数,即聚类个数。Fi乘以Ti获得新的映射空间,从而实现地图的标定;同理其他无人系统都将自身的地图空间转化到新地图空间,从而实现多无人系统空间地图转化。
所述区域地图Fi即为单个无人系统构建的单机地图,可以为点云地图,通过将该无人系统构建的环境点云地图与实际的环境点云标定点进行特征匹配,实现空间转换;无人系统通过汇集激光雷达及IMU传感器数据,进行多信息场融合获得单机地图:
Fi=f1∪f2∪f3∪f4,
其中f1表示智能无人系统环境感知模组1提供的传感数据,f2表示多无人系统控制模组2提供的传感数据,f3表示边缘侧中央控制模组3提供的传感数据,f4表示智能无人5G通讯系统4提供的传感数据,
再进一步,步骤三中,获得初始聚类中心的方法包括:
[cidx,ctrs]=kmeans(Coordinate,Knum,Inum),
式中cidx为多目标任务分类序号,ctrs为初始聚类中心,Coordinate为多目标任务点坐标信息,Knum为聚类个数,Inum为聚类迭代次数,Inum可以由用户自主设置,所述聚类个数即为无人系统的个数,也就是最终任务分区的个数。
获得聚类中心ctrs后,进行对建图区域的划分,就是将所有目标任务点分区,每个区对应一个无人系统执行任务。
Vm=voronoi(ctrs(:,1),ctrs(:,2)),
式中Vm包括分类中心及分类边界。
再进一步,步骤四中:每获得一次备用中心后,进行一次当前目标任务点的重新分配,并计算一次对应每台无人系统的目标任务点与相应的备用中心的避障距离总和,经过迭代后,获得目标任务点针对无人系统的最优任务分配。
通过将栅格地图、多目标坐标信息、初始分类中心三个信息作为输入,进行复杂障碍环境下的多目标任务分配,通过改进的PRM*算法,解决算法的规划超调,并将每类的各目标点到相应的中心的避障距离总和作为新的分类指标,从而获得复杂障碍环境下的任务分配新指标。并获得新指标最优任务分配目标函数S。本发明构建了在复杂障碍环境下的任务分配新指标,使在该约束条件下的函数求解最优,进行任务再分配,通过对目标函数S的最小值求解,完成任务最优分配。
再进一步,获得最优任务分配的目标函数S为:
Figure BDA0003408008040000071
式中,Nt为当前无人系统对应的目标任务点个数,j=1,2,3,……,Nt
Figure BDA0003408008040000072
为第j类目标任务点,
Figure BDA0003408008040000073
为利用PRM*算法通过避障距离构建的K-DPRM*函数运算方式,Ctr(ki)为第ki组聚类中心,ki=1,2,3,……,Knum,ki=f*(j),f*为第j类目标与ki的映射关系,F*为f*的函数空间。通过将端点的规划点进行筛选处理,去除之字型轨迹规划点,保证避障规划轨迹平滑不回折。其中PRM*算法即为本发明方法。
根据实际需求可以循环几次任务再分配,当S已经收敛至一定范围,则认为是该约束条件下最优任务分配。
再进一步,结合图2所示,所述无人系统的运行通过多无人系统控制模组2进行控制;所述多无人系统控制模组2包括远程控制模块2-1和运动控制模块2-2,
远程控制模块2-1用于对无人系统的环境感知、避障及作业规划进行控制;运动控制模块2-2用于控制系统中每台无人系统的状态,包括对无人系统的运动速度以及运动姿态进行控制。无人系统自身具有一定智能性和自主性,特别是在复杂障碍环境下,可以实现自身的紧急制动和非合作目标避障。同时建图过程中,无人系统具有一定自主性,但边缘侧可进行远程控制,协助在任务较难的场景下,无人系统完成任务。
结合图2所示,本发明方法的实施,可以配置边缘侧中央控制模组3辅助方法流程中建图任务的分配和多目标任务的分配。还配置智能无人5G通讯系统4实现智能通讯。
边缘侧中央控制模组3包括中央控制模块3-1、多机建图任务分配系统3-2、多目标任务分配系统3-3和任务分配新指标最优反馈系统3-4;其中中央控制模块3-1用于建图过程中无人系统的远程遥操作,保证对全域范围的覆盖,实现地图构建的完整性;多机建图任务分配系统3-2是根据中央控制模块3-1结合智能无人系统环境感知模组1构建的环境地图,并根据用户实际多目标需求,将该需求作为任务分配系统的输入,进行任务粗分配,获得任务再分配分类中心初值;多目标任务分配系统3-3是通过构建任务分配新指标,对最优指标函数求解,实现对环境的最优任务分配。并根据任务分配新指标最优反馈系统3-4生成新任务分配结果,由于分类中心可能出现在障碍位置,可能导致由避障路径到中心的分配指标算法无法工作,所以需要构建中心备用点,寻找每个任务区中目标任务点与分类中心欧式距离最近的点作为备用中心,进行任务再分配,如此循环几次,完成任务最优分配。
边缘侧中央控制模组3为具有较好计算能力的高性能PC机或者工作站。
智能无人5G通讯系统4包括多无人系统拓扑通讯系统4-1和5G云-边-端一体化通讯系统4-2;其中多无人系统拓扑通讯系统4-1用于无人系统遥操作建图过程中无人系统通讯时保证自身的定位、高度实时更新校正,并使遥操作过程中不会出现大时滞;5G云-边-端一体化通讯系统4-2保证边缘计算机端的无人系统建图任务策略分配的实时性;并且对于建图过程的障碍信息等通过避障双目摄像头1-3回传环境实时图像,通过5G通讯系统上传至任务分配新指标最优反馈系统3-4,实现远程任务决策及遥操作。
单机的地图构建是由无人系统在自身完成,然后通过5G云-边-端一体化通讯系统4-2上传至边缘侧,并在云端实现快速的多机建图融合,从而获得由多机协同构建的环境地图。为提高多目标任务分配速度,可将点云地图转化为二维栅格地图,可为多无人系统多目标任务分配系统提供环境的地图信息。
智能无人5G通讯系统4包括通信传感器及基站,边缘侧中央控制模组3将任务通过通信传感器下发至各无人系统,无人系统通过各通信模块实现端对端通信,可实现任务的动态实时调整。
作为示例,获得状态转移函数Ti的点云特征匹配方法包括ICP法、最小二乘法或SVD法。
本发明通过建图任务的智能动态分配,通过机器人自主漫游结合远程遥操作形式,实现对复杂障碍环境下的地图构建。
具体实施例:
结合图1至图4,本发明方法实现对应配置的系统包括智能无人系统环境感知模组1、多无人系统控制模组2、边缘侧中央控制模组3和智能无人5G通讯系统4。
首先将待覆盖区域位置及待建图区域的环境地图作为输入,输入至边缘侧中央控制模组3,通过多机建图任务分配系统3-2采用K-means聚类作为初始的分类中心,并将多目标坐标Coordinate作为系统输入,进行聚类:
map=zeros(40,50),
[cidx,ctrs]=kmeans(Coordinate,4,5),
其中m=40,n=50分别为地图的原始尺寸;Knum=4,Inum=5分别为聚类个数和聚类迭代次数,可以由用户自主设置,与实际无人系统个数有关,通过五次迭代,总距离=234.5。
如图3所示为建图区域划分过程详细效果图,首先将区域中目标可视化(实际中该阶段环境的复杂障碍信息为未知,需经下阶段机器人自主建图获取)。其中①阶段为聚类分析,通过聚类后,可获得各聚类中心及各类成员,即目标任务点;②阶段为建图区域划分,通过该聚类中心ctrs输入给多机建图任务分配系统3-2,通过维诺图实现对建图区域的划分。过程③为多机建图区域覆盖过程。多无人系统在漫游过程中只需将所有目标点都覆盖后即可认为该地图符合作业需求。获得区域划分结果之后,通过中央控制模块3-1将建图区域任务划分结果通过5G云-边-端一体化通讯系统4-2下发给多无人系统。
图4中的建图工作流程,将智能无人系统环境感知模组1各单元传感器信息融合实现建图。智能无人系统环境感知模组1中多传感器信息进行融合后,通过卡尔曼滤波,实现单机的多源信息融合。
智能无人5G通讯系统4中的多无人系统拓扑通讯系统4-1可实现各无人系统间通信及信息共享,该通信系统搭载在无人系统上,可以实现机间通信,并可通过该系统实现与边缘侧中央控制模组3进行通信,实现感知信息上传,利用边缘侧及云端实现知识共享,并通过构建多机融合建图机理,实现多无人系统的地图融合,具体的融合如图5所示。图5中Ω1为各无人系统所在的欧式空间,但该空间中,各无人系统的地图都是以各个无人系统的初始出发点为坐标原点,需要进行地图融合映射。
如图5中,M*为融合后全域地图,即4个多无人系统通过将自身构建的地图,通过标定点的映射关系,实现空间地图映射,Fi为第一台无人系统所构建的空间地图,通过将该无人系构建的环境点云地图与实际的环境点云标定点通过ICP方法进行特征匹配,获得状态转移函数Ti,Fi将乘以Ti获得新的映射空间,从而实现地图的标定;同理其他无人系统都将自身的地图空间转化到新地图空间,从而实现多无人系统空间地图转化。单机的地图构建是由无人系统在自身完成,然后通过5G云-边-端一体化通讯系统4-2上传至边缘测,并在云端实现快速的多机建图融合。从而获得由多机协同构建的环境地图,为提高多目标任务分配速度,可将点云地图转化为二维栅格地图,可为多无人系统多目标任务分配系统提供环境的地图信息。
PRM是一种基于图搜索的方法,它将连续空间转换成离散空间,再利用A*等搜索算法在路线图上寻找路径,以提高搜索效率,并通过端点位置规划点特殊处理,从而获得改进的PRM算法PRM*。这种方法能用相对少的随机采样点来找到一个解,对多数问题而言,相对少的样本足以覆盖大部分可行的空间,并且找到路径的概率为1(随着采样数增加,P指数的趋向于1(找到一条路径))。显然,当采样点适当时,PRM算法可以满足指标需求,并且随着采用点的增加,也可以达到完备,所以PRM是概率完备算法。
通过将上述的栅格地图、多目标坐标信息、初始分类中心三个信息作为输入,输入给多目标任务分配系统3-3,进行复杂障碍环境下的多目标任务分配,通过改进的PRM算法PRM*,解决算法的规划回折问题,并将每类的个目标点到相应的中心避障距离的总和作为新的分类指标,从而获得复杂障碍环境下的任务分配新指标。
由于分类中心可能位于障碍中,上述方法无法实施,可以通过任务分配新指标最优反馈验证系统3-4进行中心备用点选取,即选取该类别中距离该中心欧氏距离最近位置作为备用中心点,从而实现最优求解,然后获得复杂障碍环境下任务分配最优求解结果。如图6所示为最终新分类效果图,相同的符号表示一个分类;新分类将障碍作为分类约束条件,可以使重分类后,每类目标距离其分类中心点更近,从而可以获得更为合理的多目标分配结果。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其它所述实施例中。

Claims (8)

1.一种复杂未知环境多机协同多目标任务分配方法,其特征在于包括,
步骤一:建立未知陌生环境的目标区域环境地图;
步骤二:在目标区域环境地图上确定当前目标任务点;再通过维诺图在目标区域环境地图上对当前目标任务点进行建图区域划分,每台无人系统对应完成一个建图区域的建图任务获得区域地图,将所有区域地图进行融合,获得融合后全域地图;
步骤三:基于融合后全域地图,利用K-means算法对当前目标任务点进行初始聚类,获得与无人系统个数相同的初始聚类中心;每个聚类中心对应一个目标任务区;
步骤四:结合初始聚类中心、目标任务区内目标任务点坐标信息以及目标区域的栅格地图,将聚类中心所属的组内的目标任务点中距离初始聚类中心欧式距离最近的点作为备用中心;
基于备用中心,作为K-DPRM*算法的初始聚类中心,对每台无人系统进行当前目标任务点的任务再分配获得再分配任务区,直到再分配后对应每台无人系统的目标任务点与相应的备用中心的避障距离总和最小,确定当前备用中心为最终中心,完成一次多目标任务区的任务分配;
步骤四中:每获得一次备用中心后,进行一次当前目标任务点的重新分配,并计算一次对应每台无人系统的目标任务点与相应的备用中心的避障距离总和,经过迭代后,获得目标任务点针对无人系统的最优任务分配;
获得最优任务分配的目标函数S为:
Figure FDA0003591952680000011
式中,Nt为当前无人系统对应的目标任务点个数,j=1,2,3,……,Nt
Figure FDA0003591952680000012
为第j类目标任务点,
Figure FDA0003591952680000013
为利用PRM*算法通过避障距离构建的K-DPRM*函数运算方式,Ctr(ki)为第ki组聚类中心,ki=1,2,3,……,Knum,ki=f*(j),f*为第j类目标与ki的映射关系,F*为f*的函数空间。
2.根据权利要求1所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
步骤一中建立目标区域环境地图的方法包括:
采用无人系统点云激光雷达传感器模块获取目标区域的地图信息,建立目标区域环境地图。
3.根据权利要求2所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
所述目标区域环境地图包括点云地图以及由点云地图转化获得的栅格地图。
4.根据权利要求3所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
步骤二中,获得区域地图的方法包括:
对于当前无人系统,采用无人系统点云激光雷达传感器模块获取建图区域的地图信息,采用IMU惯性测量单元获取当前无人系统的系统姿态和云台状态,采用避障双目摄像头和高精轮式里程计获取当前无人系统运动参数,包括位移、速度、加速度、角度和角加速度;将所有获取的数据进行多信息场融合,进行一个区域地图的构建。
5.根据权利要求4所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
获得融合后全域地图的方法包括:
对所有区域地图通过时间戳一致,再进行信息融合获得融合后全域地图M*:
Figure FDA0003591952680000021
式中,Fi表示区域地图,Ti表示通过点云特征匹配获得的状态转移函数,Knum表示无人系统个数。
6.根据权利要求5所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
步骤三中,获得初始聚类中心的方法包括:
[cidx,ctrs]=kmeans(Coordinate,Knum,Inum),
式中cidx为多目标任务分类序号,ctrs为初始聚类中心,Coordinate为多目标任务点坐标信息,Inum为聚类迭代次数。
7.根据权利要求6所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
所述无人系统的运行通过多无人系统控制模组进行控制;所述多无人系统控制模组包括远程控制模块和运动控制模块,
远程控制模块用于对无人系统的环境感知、避障及作业规划进行控制;运动控制模块用于对无人系统的运动速度以及运动姿态进行控制。
8.根据权利要求7所述的复杂未知环境多机协同多目标任务分配方法,其特征在于,
获得状态转移函数Ti的点云特征匹配方法包括ICP法、最小二乘法或SVD法。
CN202111518655.4A 2021-12-13 2021-12-13 复杂未知环境多机协同多目标任务分配方法 Active CN114186859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111518655.4A CN114186859B (zh) 2021-12-13 2021-12-13 复杂未知环境多机协同多目标任务分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111518655.4A CN114186859B (zh) 2021-12-13 2021-12-13 复杂未知环境多机协同多目标任务分配方法

Publications (2)

Publication Number Publication Date
CN114186859A CN114186859A (zh) 2022-03-15
CN114186859B true CN114186859B (zh) 2022-05-31

Family

ID=80543474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111518655.4A Active CN114186859B (zh) 2021-12-13 2021-12-13 复杂未知环境多机协同多目标任务分配方法

Country Status (1)

Country Link
CN (1) CN114186859B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114795000B (zh) * 2022-03-28 2024-02-23 北京小米移动软件有限公司 清洁设备的控制方法、控制装置、电子设备及存储介质
CN115057005B (zh) * 2022-06-07 2023-04-25 哈尔滨工业大学 大型环状空间结构姿轨形一体化分布式控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108983781A (zh) * 2018-07-25 2018-12-11 北京理工大学 一种无人车目标搜索系统中的环境探测方法
CN110428111A (zh) * 2019-08-08 2019-11-08 西安工业大学 Uav/ugv协同长时多任务作业轨迹规划方法
CN111897332A (zh) * 2020-07-30 2020-11-06 国网智能科技股份有限公司 一种语义智能变电站机器人仿人巡视作业方法及系统
CN112925318A (zh) * 2021-01-25 2021-06-08 西南交通大学 一种应用于智能机器人移动路径的计算方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180342030A1 (en) * 2017-05-24 2018-11-29 The Research Foundation For The State University Of New York Neutral radistricting using a multi-level weighted graph partitioning algorithm

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108983781A (zh) * 2018-07-25 2018-12-11 北京理工大学 一种无人车目标搜索系统中的环境探测方法
CN110428111A (zh) * 2019-08-08 2019-11-08 西安工业大学 Uav/ugv协同长时多任务作业轨迹规划方法
CN111897332A (zh) * 2020-07-30 2020-11-06 国网智能科技股份有限公司 一种语义智能变电站机器人仿人巡视作业方法及系统
CN112925318A (zh) * 2021-01-25 2021-06-08 西南交通大学 一种应用于智能机器人移动路径的计算方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Mobile robot 3D map building and path planning based on multi-sensor data fusion.;Fei Yan1 等;《International Journal of Computer Applications in Technology》;20121231;第44卷(第4期);全文 *
基于智能优化算法的无人机任务规划;高扬;《工程科技Ⅱ辑》;20200215(第02期);全文 *

Also Published As

Publication number Publication date
CN114186859A (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN111240319B (zh) 室外多机器人协同作业系统及其方法
Zhang et al. 2d lidar-based slam and path planning for indoor rescue using mobile robots
CN113110457B (zh) 在室内复杂动态环境中智能机器人的自主覆盖巡检方法
Basiri et al. A survey on the application of path-planning algorithms for multi-rotor UAVs in precision agriculture
CN114186859B (zh) 复杂未知环境多机协同多目标任务分配方法
Mahdoui et al. Communicating multi-uav system for cooperative slam-based exploration
Yu et al. Autonomous obstacle avoidance for uav based on fusion of radar and monocular camera
CN105487535A (zh) 一种基于ros的移动机器人室内环境探索系统与控制方法
Chatterjee et al. Vision based autonomous robot navigation: algorithms and implementations
Sun et al. A review of visual SLAM based on unmanned systems
Sundram et al. Development of a miniature robot for multi-robot occupancy grid mapping
Choi et al. Online 3D coverage path planning using surface vector
Doitsidis et al. 3d surveillance coverage using maps extracted by a monocular slam algorithm
Sheikh et al. Stereo vision-based optimal path planning with stochastic maps for mobile robot navigation
Chow et al. Learning human navigational skill for smart wheelchair in a static cluttered route
Fareh et al. A vision-based kinematic tracking control system using enhanced-PRM for differential wheeled mobile robot
Liu et al. An improved four-rotor UAV autonomous navigation multisensor fusion depth learning
Roggeman et al. Embedded vision-based localization and model predictive control for autonomous exploration
de Melo Neto et al. Environment exploration with multiple vehicles and fastslam technique
CN114815899A (zh) 基于3d激光雷达传感器的无人机三维空间路径规划方法
Piperigkos et al. Cooperative Five Degrees Of Freedom Motion Estimation For A Swarm Of Autonomous Vehicles
Guan et al. Intelligent obstacle avoidance algorithm for mobile robots in uncertain environment
CN112747752A (zh) 基于激光里程计的车辆定位方法、装置、设备和存储介质
Lebedeva et al. Method for distributed mapping of terrain by a heterogeneous group of robots based on google cartographer
Szpytko et al. Automated guided vehicles navigating problem in container terminal

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant