CN113580129B - 一种基于机器人的多目标协同围捕方法、装置及介质 - Google Patents
一种基于机器人的多目标协同围捕方法、装置及介质 Download PDFInfo
- Publication number
- CN113580129B CN113580129B CN202110810906.XA CN202110810906A CN113580129B CN 113580129 B CN113580129 B CN 113580129B CN 202110810906 A CN202110810906 A CN 202110810906A CN 113580129 B CN113580129 B CN 113580129B
- Authority
- CN
- China
- Prior art keywords
- robot
- target
- robots
- acting force
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 241000282461 Canis lupus Species 0.000 claims abstract description 19
- 230000006870 function Effects 0.000 claims description 19
- 230000003993 interaction Effects 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000001926 trapping method Methods 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 208000003028 Stuttering Diseases 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于机器人的多目标协同围捕方法、装置及介质,方法包括:构建环境模型以及机器人运动模型;获取所有待围捕目标的位置信息和所有机器人的位置信息;将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟;获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型;根据所述狼群围捕模型控制机器人协同围捕动态的多个目标。本发明能够提高闲置机器人的资源利用率高和效率,可广泛应用于机器人控制技术领域。
Description
技术领域
本发明涉及机器人控制技术领域,尤其是一种基于机器人的多目标协同围捕方法、装置及介质。
背景技术
相比于单机器人,群机器人系统具有高效率、鲁棒性、可扩展性等优点。多目标协同围捕方法的研究具有实际意义,可以应用到军事目标打击、灾害现场营救等任务上。由于目标会动态躲避,以及环境中存在静态和动态障碍物,多目标协同围捕任务具有复杂性。在多目标协同围捕任务中,有任务分配、群机器人的协同策略、包围猎物等重点子任务。任务分配所需的时间和分配结果,直接影响围捕任务的成功率和效率。好的协同策略可以提高围捕的效率,达到“1+1>2”的效果。
现有的技术方案只能解决单目标任务分配,无法解决更具实际意义的多目标协同围捕问题;然后,现有方案需要大量冗余捕猎机器人,在同一时刻只有部分捕猎机器人移动,其他保持不动,造成资源浪费;最后,该方案只有追击目标行为,没有捕猎机器人之间的协同合作,没有对目标形成包围圈,效率较低。
发明内容
有鉴于此,本发明实施例提供一种基于机器人的多目标协同围捕方法、装置及介质,以提高闲置机器人的资源利用率高和效率。
本发明的一方面提供了一种基于机器人的多目标协同围捕方法,包括:
构建环境模型以及机器人运动模型;
获取所有待围捕目标的位置信息和所有机器人的位置信息;
将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟;
获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型;
根据所述狼群围捕模型控制机器人协同围捕动态的多个目标。
可选地,所述构建环境模型以及机器人运动模型,包括:
获取空间内的所有机器人信息、所有待围捕目标信息以及障碍物信息;
根据所述机器人信息、所述待围捕目标信息以及所述障碍物信息,构建空间集合;
根据所述空间集合构建机器人运动模型;
其中,所述机器人的运动模型的表达式为:
其中,和/>分别是机器人ri在二维空间R2中x轴和y轴上的位移量;αi是机器人ri相对于x轴的角度,/>是αi的变化量;vil和vir分别是机器人ri的左轮和右轮线速度;vix和viy分别是机器人ri在二维空间R2中x轴和y轴上的速度分量;l是二轮差速机器人的两个车轮之间的长度。
可选地,所述将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟,包括:
根据所述待围捕目标的位置信息和机器人的位置信息,分别计算各个机器人与各个待围捕目标之间的欧式距离;
根据计算得到的所述欧式距离,构建一个输入值矩阵;
将所述输入值矩阵输入至多目标胜者通吃网络中,找出每个目标周围距离最近的捕猎机器人,以确定每个机器人的围捕目标;
将围捕目标相同的机器人组成联盟。
可选地,所述将所述输入值矩阵输入至多目标胜者通吃网络中,找出每个目标周围距离最近的捕猎机器人,以确定每个机器人的围捕目标,包括:
对每个目标使用单目标胜者通吃网络,确定每个目标的优选机器人;
将所有目标的优选机器人组成联盟;
当所述优选机器人同属于多个不同目标时,将该优选机器人分配去围捕最近的目标,并将剩下的优选机器人和其他目标再次构建信息的单目标胜者通吃网络,直至确定所有目标对应的优选机器人。
可选地,所述获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型,包括:
获取每个机器人受到其他目标的第一作用力、受到其他机器人的第二作用力以及受到障碍物的第三作用力;
根据所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息、探测到的障碍物位置信息、所述第一作用力、所述第二作用力以及所述第三作用力,计算每个机器人受到的第一合作用力;
计算每个目标受到的第二合作用力;
根据所述第一合作用力和所述第二合作用力,计算目标和机器人在空间中的移动信息。
可选地,所述第一作用力的表达式为:
所述第二作用力的表达式为:
所述第三作用力的表达式为:
所述第一合作用力的表达式为:
其中,表示第一作用力;/>表示目标对机器人的作用力系数;g(·)表示机器人和目标的交互作用函数;ui表示机器人在二维空间中的位置;/>表示目标pj在二维空间中的位置;uk表示其他机器人在二维空间中的位置;Fi,k表示第二作用力;/>表示机器人之间的作用力系数;ga(·)表示机器人和其他机器人以及障碍物的交互作用函数;φik表示控制机器人之间交互作用变化的高斯函数;Fi,o表示第三作用力;/>表示障碍物对捕猎机器人的作用力系数;uo表示障碍物的在二维空间中的位置;φio表示控制机器人和障碍物之间交互作用变化的高斯函数;Fi(t)表示第一合作用力;ωij表示多目标胜者通吃网络的输出值;/>表示机器人ri和rk追捕的目标。
可选地,所述根据所述第一合作用力和所述第二合作用力,计算目标和机器人在空间中的移动信息,包括:
根据所述第一合作用力和所述第二合作用力,计算机器人在运动中的第一加速度和目标在运动中的第二加速度;
根据所述第一加速度计算所述机器人的第一速度,根据所述第二加速度计算所述目标的第二速度;
根据所述第一速度和所述第二速度,确定目标和机器人在空间中的移动信息。
本发明实施例还提供了一种基于机器人的多目标协同围捕装置,包括:
第一模块,用于构建环境模型以及机器人运动模型;
第二模块,用于获取所有待围捕目标的位置信息和所有机器人的位置信息;
第三模块,用于将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟;
第四模块,用于获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型;
第五模块,用于根据所述狼群围捕模型控制机器人协同围捕动态的多个目标。
本发明实施例还提供了一种电子设备,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如前面所述的方法。
本发明实施例还提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
本发明的实施例构建环境模型以及机器人运动模型;获取所有待围捕目标的位置信息和所有机器人的位置信息;将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟;获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型;根据所述狼群围捕模型控制机器人协同围捕动态的多个目标。本发明能够提高闲置机器人的资源利用率高和效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的二轮差速机器人模型示意图;
图2为本发明实施例提供的整体步骤流程图;
图3为本发明实施例提供的围捕过程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
首先,介绍二轮差速机器人的运动学模型,即根据车轮的转动来计算机器人在空间中的位置坐标,如图1所示是二轮差速机器人模型示意图。二轮差速机器人的运动学方程如下所示:
其中,和/>分别是机器人在二维空间R2中x轴和y轴上的位移变化量;αi是机器人本体相对于x轴的角度,/>是αi的变化量;vil和vir分别是机器人的左轮和右轮线速度;vix和viy分别是机器人在二维空间R2中x轴和y轴上的速度分量;l是二轮差速机器人的两个车轮之间的长度。
在建立运动学模型后,使用胜者通吃策略来决定环境中哪些捕猎机器人追捕目标,并控制捕猎机器人的运动。详细过程如下:首先定义一个决策指标
其中,ui=(xi,yi)和up=(xp,yp)分别是捕猎机器人和目标在二维空间的位置坐标。然后使用以下控制公式和胜者通吃策略
其中,是群机器人的位移变化量;z是一个辅助变量,可以随机初始化;vi是机器人的速度;λ>0是比例因子;/>控制胜者通吃网络的输出值的范围;k是胜者通吃网络的胜者数量,即同一时刻环境中有k个捕猎机器人追捕目标;小于等于第k个决策指标与第k+1个决策指标的差值,用于增强网络中不同个体的决策指标之间的差异性。
在围捕过程中,不断根据胜者通吃策略动态调整群机器人的行为,如静止和追捕等等。在同一时刻,由决策指标较大的k个捕猎机器人追捕目标,从而高效完成协同围捕任务。
本发明提供的面向二轮差速机器人的多目标协同围捕方法的流程图如图2所示。方法包含如下步骤:
1.步骤一:构建未知环境模型、二轮差速机器人运动模型;
2.步骤二:捕猎机器人获取所有目标和其他捕猎机器人的位置信息,将围捕某个目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个捕猎机器人追捕的目标。完成同一任务的多个捕猎机器人组成联盟;
3.步骤三:根据联盟中的捕猎机器人、目标以及探测到的障碍物的位置信息,构建狼群围捕模型;
4.步骤四:基于狼群围捕模型,在未知动态障碍物环境下,群机器人协同围捕动态多目标。步骤一中,构建未知环境模型的过程为:在一个有限的二维空间R2中,存在一个集合T={R,P,O},其中群机器人R={ri|i=1,2,…,N}包含多个捕猎机器人,ri为第i个捕猎机器人,N为群机器人总数;目标P={pj|j=1,2,…,M},pj为第i个目标,M为目标总数;障碍物Ωo={os|s=1,2,…,S},os为第s个障碍物,S为障碍物总数;捕猎机器人ri的位置表示为ui(t)={xi(t),yi(t)},目标pj的位置表示为障碍物os的位置表示为在此环境中,目标动态躲避群机器人的追捕,群机器人的目的是围捕所有目标,即群机器人的多个子联盟包围在所有目标的四周,使得目标没有可逃脱的空间,同时群机器人避免与障碍物及其他捕猎机器人发生碰撞。
步骤一中,二轮差速机器人的运动模型如下所示:
其中,和/>分别是机器人ri在二维空间R2中x轴和y轴上的位移量;αi是机器人ri本体相对于x轴的角度,/>是αi的变化量;vil和vir分别是机器人ri的左轮和右轮线速度,且是机器人ri的最大线速度;vix和viy分别是机器人ri在二维空间R2中x轴和y轴上的速度分量;l是二轮差速机器人的两个车轮之间的长度。
步骤二中,使用多目标胜者通吃网络进行任务分配的过程如下:
群机器人获取所有目标和其他群机器人的位置信息,计算出群机器人与不同目标之间的欧式距离,构建一个输入值矩阵
j=1,…,N
i=1,…,M
其中,di=[di1,di2,…,diN]是群机器人与目标pj的欧氏距离向量,dij是捕猎机器人ri与目标pi之间的欧式距离。
将群机器人和目标的距离输入多目标胜者通吃网络中,找出每个目标周围距离最近的捕猎机器人,以此确定每个捕猎机器人所追捕的目标,完成任务分配,围捕一个目标视为一个任务。完成同一个任务的捕猎机器人组成一个联盟。
对于单个目标的胜者通吃网络如下所示:
其中,t表示时间;zj是对于目标pj的胜者通吃网络中中的辅助变量,可以初始化为随机值;λ>0是比例因子;kj表示围捕目标pj所需的捕猎机器人的数量;ωij是胜者通吃网络的输出值,标识“胜者”和“输者”;当ωij=1,捕猎机器人ri是“胜者”,捕猎机器人ri被分配去追捕目标pj;当ωij=0,捕猎机器人ri是“输者”。 严格小于等于第k个最小距离值与第k+1个最小距离值的差值,用于增强网络中不同距离值之间的差异性。
多目标胜者通吃网络的具体过程为:首先,对每个目标使用单目标胜者通吃网络,得到追捕每个目标的“胜者”。“胜者”组成联盟,协同围捕该目标。然后检查是否某个捕猎机器人同时是多个网络的“胜者”,若是,将此捕猎机器人分配去追捕最近的目标。将输者和目标构建新的胜者通吃网络,再次迭代。最后,确保分配去追捕目标pj的捕猎机器人的数量满足kj,以及每个捕猎机器人追捕单一目标。
步骤三中,构建狼群围捕模型的过程如下:
捕猎机器人ri受到的目标、其他捕猎机器人和障碍物的作用力,如下所示
g(x)=ga(x)-gr(x)
其中,Fi(t)是捕猎机器人ri在时刻t受到的合作用力;是捕猎机器人ri在时刻t受到目标pj的作用力;Fi,k(t)是捕猎机器人ri在时刻t受到其他捕猎机器人rk的作用力;Fi,o(t)是捕猎机器人ri在时刻t受到障碍物os的作用力;ωij是多目标胜者通吃网络的输出值;/>表示捕猎机器人ri和rk追捕同一个目标,/>表示捕猎机器人ri和rk追捕不同目标;/>是目标对捕猎机器人的作用力系数;/>是捕猎机器人之间的作用力系数;/>是障碍物对捕猎机器人的作用力系数;g(·)表示机器人和目标的交互作用函数;ga(·)表示机器人和其他机器人以及障碍物的交互作用函数;ui、uk、/>和uo分别表示捕猎机器人ri、捕猎机器人rj、目标pj和障碍物os的在二维空间中的位置;φik表示控制机器人之间交互作用变化的高斯函数;φio表示控制机器人和障碍物之间交互作用变化的高斯函数;dc表示机器人和目标的安全距离;当两个捕猎机器人和目标的距离均为da时,它们之间的作用力达到最大值,以驱使捕猎机器人形成包围圈;Ri表示捕猎机器人ri和目标的距离;Rk表示捕猎机器人rk和目标的距离;Ro表示障碍物和目标的距离。
目标受到群机器人和障碍物的作用力,如下所示
其中,是目标pj在时刻t受到的合作用力;/>是目标pj在时刻t受到的合作用力;/>是目标pj在时刻t受到障碍物os的作用力;当捕猎机器人ri在目标pj的感知范围内时,/>否则/>是群机器人对目标的作用力系数;/>是障碍物对群机器人的作用力系数;ui、/>和uo分别表示捕猎机器人ri、目标pj和障碍物os的在二维空间中的位置。
计算得到捕猎机器人和目标所受到的合作用力Fi(t),基于牛顿第二定律的思想计算出群机器人和目标的加速度进而得到速度vi(t)。速度vi(t)分解为分别沿x轴和y轴的速度分量vix和viy,根据步骤一的运动模型驱动群机器人和目标在二维空间中移动。公式如下所示
其中,表示群机器人和目标在时刻t的位置变化量;vi(t)和/>表示在时刻t的速度和加速度;mi表示群机器人和目标的质量。
图3为本发明实施例的围捕过程示意图。图中描绘了围捕过程中捕猎机器人和目标的运动轨迹,圆圈表示个体的初始位置,星型表示个体的最终位置,黑色矩形表示障碍物。红色实线为目标的运动轨迹,蓝色虚线为捕猎机器人的运动轨迹。环境中有2个目标和若干障碍物,由8个捕猎机器人完成协同围捕任务,分配4个捕猎机器人围捕每个目标。
初始时,8个捕猎机器人分为2组,分布在环境的左下方和右上方,2个目标在环境中央区域。随着捕猎机器人靠近目标,捕猎机器人根据多目标任务分配网络进行任务分配,重新组成围捕联盟,每个捕猎机器人追捕最近的目标,以达到围捕效率最大化。在追捕过程中,狼群围捕模型控制捕猎机器人有效躲避障碍物,以及避免捕猎机器人之间的碰撞。在最后的包围阶段,一个联盟中的4个捕猎机器人能够均匀分布在目标周围,使目标无法逃跑。
综上所述,本发明提出的多目标协同围捕方法,可以解决在动态变化环境下多目标围捕问题。本发明使用的多目标胜者通吃网络可快速高效完成多目标的任务分配,根据决策指标实时调整任务分配结果,提高围捕效率。本发明使用的狼群围捕模型的规则简单,同时可以完成复杂的围捕任务,自发形成追捕、协同包围目标等行为。通过替换决策指标和机器人的运动学模型,本发明可以快速迁移到不同场景和机器人上。
本发明根据决策指标,使用多目标胜者通吃网络完成多目标任务分配。群机器人组成动态调整的子联盟,分别围捕不同目标,提高围捕效率。本发明还基于简单的规则构造狼群围捕模型。根据临近物体和目标的位置信息,狼群围捕模型控制群机器人协同围捕多个目标,以及在未知的动态的环境中躲避障碍物。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.一种基于机器人的多目标协同围捕方法,其特征在于,包括:
构建环境模型以及机器人运动模型;
获取所有待围捕目标的位置信息和所有机器人的位置信息;
将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟;
获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型;
根据所述狼群围捕模型控制机器人协同围捕动态的多个目标;
所述获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型,包括:
获取每个机器人受到其他目标的第一作用力、受到其他机器人的第二作用力以及受到障碍物的第三作用力;
根据所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息、探测到的障碍物位置信息、所述第一作用力、所述第二作用力以及所述第三作用力,计算每个机器人受到的第一合作用力;
计算每个目标受到的第二合作用力;
根据所述第一合作用力和所述第二合作用力,计算目标和机器人在空间中的移动信息。
2.根据权利要求1所述的一种基于机器人的多目标协同围捕方法,其特征在于,所述构建环境模型以及机器人运动模型,包括:
获取空间内的所有机器人信息、所有待围捕目标信息以及障碍物信息;
根据所述机器人信息、所述待围捕目标信息以及所述障碍物信息,构建空间集合;
根据所述空间集合构建机器人运动模型;
其中,所述机器人的运动模型的表达式为:
其中,和/>分别是机器人ri在二维空间R2中x轴和y轴上的位移量;αi是机器人ri相对于x轴的角度,/>是αi的变化量;vil和vir分别是机器人ri的左轮和右轮线速度;vix和viy分别是机器人ri在二维空间R2中x轴和y轴上的速度分量;l是二轮差速机器人的两个车轮之间的长度。
3.根据权利要求1所述的一种基于机器人的多目标协同围捕方法,其特征在于,所述将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟,包括:
根据所述待围捕目标的位置信息和机器人的位置信息,分别计算各个机器人与各个待围捕目标之间的欧式距离;
根据计算得到的所述欧式距离,构建一个输入值矩阵;
将所述输入值矩阵输入至多目标胜者通吃网络中,找出每个目标周围距离最近的捕猎机器人,以确定每个机器人的围捕目标;
将围捕目标相同的机器人组成联盟。
4.根据权利要求3所述的一种基于机器人的多目标协同围捕方法,其特征在于,所述将所述输入值矩阵输入至多目标胜者通吃网络中,找出每个目标周围距离最近的捕猎机器人,以确定每个机器人的围捕目标,包括:
对每个目标使用单目标胜者通吃网络,确定每个目标的优选机器人;
将所有目标的优选机器人组成联盟;
当所述优选机器人同属于多个不同目标时,将该优选机器人分配去围捕最近的目标,并将剩下的优选机器人和其他目标再次构建信息的单目标胜者通吃网络,直至确定所有目标对应的优选机器人。
5.根据权利要求1所述的一种基于机器人的多目标协同围捕方法,其特征在于,
所述第一作用力的表达式为:
所述第二作用力的表达式为:
所述第三作用力的表达式为:
所述第一合作用力的表达式为:
其中,表示第一作用力;/>表示目标对机器人的作用力系数;g(·)表示机器人和目标的交互作用函数;ui表示机器人在二维空间中的位置;/>表示目标pj在二维空间中的位置;uk表示其他机器人在二维空间中的位置;Fi,k表示第二作用力;/>表示机器人之间的作用力系数;ga(·)表示机器人和其他机器人以及障碍物的交互作用函数;φik表示控制机器人之间交互作用变化的高斯函数;Fi,o表示第三作用力;/>表示障碍物对捕猎机器人的作用力系数;uo表示障碍物的在二维空间中的位置;φio表示控制机器人和障碍物之间交互作用变化的高斯函数;Fi(t)表示第一合作用力;ωij表示多目标胜者通吃网络的输出值;表示机器人ri和rk追捕的目标;N表示群机器人总数;M表示目标总数;Ωo={os|s=1,2,…,S},其中,Ωo表示障碍物的集合,os表示第s个障碍物,S表示障碍物总数。
6.根据权利要求1所述的一种基于机器人的多目标协同围捕方法,其特征在于,所述根据所述第一合作用力和所述第二合作用力,计算目标和机器人在空间中的移动信息,包括:
根据所述第一合作用力和所述第二合作用力,计算机器人在运动中的第一加速度和目标在运动中的第二加速度;
根据所述第一加速度计算所述机器人的第一速度,根据所述第二加速度计算所述目标的第二速度;
根据所述第一速度和所述第二速度,确定目标和机器人在空间中的移动信息。
7.一种基于机器人的多目标协同围捕装置,其特征在于,包括:
第一模块,用于构建环境模型以及机器人运动模型;
第二模块,用于获取所有待围捕目标的位置信息和所有机器人的位置信息;
第三模块,用于将围捕某个待围捕目标视为一个任务,通过多目标胜者通吃网络进行任务分配,以确定每个机器人的围捕目标,并将围捕目标相同的机器人组成联盟;
第四模块,用于获取所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息以及探测到的障碍物位置信息,构建狼群围捕模型;
第五模块,用于根据所述狼群围捕模型控制机器人协同围捕动态的多个目标;
所述第四模块,具体用于获取每个机器人受到其他目标的第一作用力、受到其他机器人的第二作用力以及受到障碍物的第三作用力;
根据所述联盟中对应的围捕目标的位置信息、每个机器人的位置信息、探测到的障碍物位置信息、所述第一作用力、所述第二作用力以及所述第三作用力,计算每个机器人受到的第一合作用力;
计算每个目标受到的第二合作用力;
根据所述第一合作用力和所述第二合作用力,计算目标和机器人在空间中的移动信息。
8.一种电子设备,其特征在于,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如权利要求1-6中任一项所述的方法。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有程序,所述程序被处理器执行实现如权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110810906.XA CN113580129B (zh) | 2021-07-19 | 2021-07-19 | 一种基于机器人的多目标协同围捕方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110810906.XA CN113580129B (zh) | 2021-07-19 | 2021-07-19 | 一种基于机器人的多目标协同围捕方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113580129A CN113580129A (zh) | 2021-11-02 |
CN113580129B true CN113580129B (zh) | 2024-01-16 |
Family
ID=78247836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110810906.XA Active CN113580129B (zh) | 2021-07-19 | 2021-07-19 | 一种基于机器人的多目标协同围捕方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113580129B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114326747B (zh) * | 2022-01-06 | 2023-10-24 | 中国人民解放军国防科技大学 | 群体机器人多目标围捕控制方法、装置和计算机设备 |
CN114510730B (zh) * | 2022-01-11 | 2023-06-13 | 暨南大学 | 位置隐私保护的多机器人分布式围捕方法、设备与介质 |
CN115629600B (zh) * | 2022-08-01 | 2023-12-12 | 北方工业大学 | 一种基于缓冲维诺图的复杂动态安保环境下多机协同围捕方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110096061A (zh) * | 2019-06-04 | 2019-08-06 | 兰州大学 | 一种无人艇集群的抗扰动分布式协同控制方法与装置 |
CN111240333A (zh) * | 2020-01-18 | 2020-06-05 | 湖南科技大学 | 一种复杂非凸环境下群机器人协同作业的多目标围捕方法 |
CN111457927A (zh) * | 2020-04-26 | 2020-07-28 | 北京工商大学 | 动态障碍物下的无人巡航船多目标路径规划方法 |
CN111830916A (zh) * | 2020-07-02 | 2020-10-27 | 兰州大学 | 一种面向多目标追踪的群机器人分布式竞争协同方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150005937A1 (en) * | 2013-06-27 | 2015-01-01 | Brain Corporation | Action selection apparatus and methods |
-
2021
- 2021-07-19 CN CN202110810906.XA patent/CN113580129B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110096061A (zh) * | 2019-06-04 | 2019-08-06 | 兰州大学 | 一种无人艇集群的抗扰动分布式协同控制方法与装置 |
CN111240333A (zh) * | 2020-01-18 | 2020-06-05 | 湖南科技大学 | 一种复杂非凸环境下群机器人协同作业的多目标围捕方法 |
CN111457927A (zh) * | 2020-04-26 | 2020-07-28 | 北京工商大学 | 动态障碍物下的无人巡航船多目标路径规划方法 |
CN111830916A (zh) * | 2020-07-02 | 2020-10-27 | 兰州大学 | 一种面向多目标追踪的群机器人分布式竞争协同方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113580129A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113580129B (zh) | 一种基于机器人的多目标协同围捕方法、装置及介质 | |
Kebria et al. | Deep imitation learning for autonomous vehicles based on convolutional neural networks | |
Naeem et al. | A gentle introduction to reinforcement learning and its application in different fields | |
Tai et al. | A deep-network solution towards model-less obstacle avoidance | |
US11442455B2 (en) | Method and apparatus for generating local motion based on machine learning | |
Pradhan et al. | Fuzzy logic techniques for navigation of several mobile robots | |
Bellemare et al. | The arcade learning environment: An evaluation platform for general agents | |
Antonelo et al. | Event detection and localization for small mobile robots using reservoir computing | |
CN111026272B (zh) | 虚拟对象行为策略的训练方法及装置、电子设备、存储介质 | |
Zhong et al. | Ad-vat+: An asymmetric dueling mechanism for learning and understanding visual active tracking | |
CN116679719A (zh) | 基于动态窗口法与近端策略的无人车自适应路径规划方法 | |
Li et al. | Detection of typical obstacles in orchards based on deep convolutional neural network | |
Xia et al. | Cooperative multi-target hunting by unmanned surface vehicles based on multi-agent reinforcement learning | |
Liu et al. | Self-attention-based multi-agent continuous control method in cooperative environments | |
Liu et al. | A hierarchical reinforcement learning algorithm based on attention mechanism for UAV autonomous navigation | |
Kebria et al. | Deep imitation learning: The impact of depth on policy performance | |
Liu et al. | Active object detection based on a novel deep Q-learning network and long-term learning strategy for the service robot | |
CN115220458A (zh) | 基于强化学习的多机器人围捕多目标的分布式决策方法 | |
CN115265547A (zh) | 一种未知环境下基于强化学习的机器人主动导航方法 | |
CN115409158A (zh) | 基于分层深度强化学习模型的机器人行为决策方法及设备 | |
Yu et al. | Obstacle avoidance method based on double DQN for agricultural robots | |
CN116430891A (zh) | 一种面向多智能体路径规划环境的深度强化学习方法 | |
CN117553798A (zh) | 复杂人群场景中移动机器人的安全导航方法、设备及介质 | |
Petrović et al. | Efficient machine learning of mobile robotic systems based on convolutional neural networks | |
Gromniak et al. | Deep reinforcement learning for mobile robot navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |