CN115599089A - 基于人工势场法的多智能体编队控制方法 - Google Patents

基于人工势场法的多智能体编队控制方法 Download PDF

Info

Publication number
CN115599089A
CN115599089A CN202210923877.2A CN202210923877A CN115599089A CN 115599089 A CN115599089 A CN 115599089A CN 202210923877 A CN202210923877 A CN 202210923877A CN 115599089 A CN115599089 A CN 115599089A
Authority
CN
China
Prior art keywords
agent
potential field
intelligent
distance
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210923877.2A
Other languages
English (en)
Inventor
戴荔
周小婷
蔡普申
黄腾
范子煊
孙中奇
夏元清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202210923877.2A priority Critical patent/CN115599089A/zh
Publication of CN115599089A publication Critical patent/CN115599089A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0289Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供一种基于人工势场法的多智能体编队控制方法,该方法能够确保每个智能体能够避碰避障,并趋近于目标点;具体过程为:建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪;基于所述人工势场函数构建多智能体编队控制优化模型,基于所述优化模型实现对多智能体编队控制。

Description

基于人工势场法的多智能体编队控制方法
技术领域
本发明属于多智能体编队控制技术领域,具体涉及一种基于人工势场法的多智能体编队控制方法。
背景技术
在实际的生产生活中,随着任务变得日益复杂,单个控制系统越来越无法适应控制需求。受到自然界中集群现象的启发,多智能体系统应运而生,其中编队控制是最近几十年来多智能体系统研究的热点,它通过设计合适的控制算法,根据传感器提供的本地信息以及与相邻智能体通信获得的局部或全局信息,使多个智能体(如无人机、无人车等)能够在移动到目标位置的同时,保持预期的编队形状。由于多智能体编队能够实现单个个体无法完成的任务或挑战,具有更强的容错型和鲁棒性,使其在军事领域和生活领域具有很大的应用潜力。尤其在军事领域,未来多智能体集群编队将会在应对现实威胁、提高作战能力等多个方面产生深远影响,成为未来地面战场的主要战斗力。发展智能集群化作战技术,会对未来的作战形式产生颠覆性影响。
而在实际应用中,一方面,为了安全考虑,所设计的编队控制算法应该保证智能体具有避碰避障的功能,而这些功能会使智能体在做出决策时产生相互影响,即“耦合”,给分布式控制的实现带来一定难度;另一方面,由于智能体的通讯范围有限,智能体在移动过程中系统的通信拓扑会发生改变。例如,在协同导航问题中,如果编队形状随时间动态变化,可能需要重新调整通信网络来适应这种新情况。所以编队控制还应该考虑时变的通信拓扑。目前,现有技术中兼具避碰和避障功能,并且能应用于时变系统的编队控制方法还比较少。
综合以上分析,研究具有避碰、避障功能的分布式多智能体编队控制算法具有重要的理论意义和应用价值。
发明内容
有鉴于此,本申请提供一种基于人工势场法的多智能体编队控制方法,该方法能够确保每个智能体能够避碰避障,并趋近于目标点。
实现本发明的技术方案如下:
一种基于人工势场法的多智能体编队控制方法,具体过程为:
建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪;
基于所述人工势场函数构建多智能体编队控制优化模型,基于所述优化模型实现对多智能体编队控制。
进一步地,本发明构建智能体与目标点之间的引力势场,构建智能体与障碍物之间的斥力势场;构建智能体之间的引/斥力势场,当智能体之间的距离大于设定的安全距离时,智能体之间会产生引力形成编队,当智能体之间的距离小于设定的安全距离时,智能体之间会产生斥力相互远离;
当智能体与障碍物的位置小于安全距离时,所述人工势场函数为智能体与障碍物之间的斥力势场;当智能体与障碍物的距离大于安全距离时,所述人工势场函数为智能体与目标点之间的引力势场和智能体之间的引/斥力势场的联合。
进一步地,本发明所述人工势场函数为:
Figure RE-GDA0003991517960000031
其中,Uo(ci(k))为智能体与障碍物之间的斥力势场,Uij(ci(k),cj(k))为智能体之间的引/斥力势场,Ut(ci(k))为智能体与目标点之间的引力势场。
进一步地,本发明所述Ut(ci(k))为:
Figure RE-GDA0003991517960000032
其中,kt是正定系数,
Figure RE-GDA0003991517960000033
表示智能体到目标点的欧几里得距离,ci(k)表示智能体的位置,
Figure RE-GDA0003991517960000034
表示目标点的位置。
进一步地,本发明所述Uij(ci(k),cj(k))为:
Figure RE-GDA0003991517960000035
其中,ka>0,表示正定系数,fij(ci(k),cj(k))=|ci(k)-cj(k)|表示智能体i和智能体j之间的距离;R为设置的安全距离,ci(k)表示智能体i的位置,cj(k)表示智能体j的位置,kc表示正定系数,dij表示代表智能体i和智能体j之间的期望的编队向量。
进一步地本发明所述Uo(ci(k))为:
Figure RE-GDA0003991517960000036
其中,ko是正定系数,
Figure RE-GDA0003991517960000037
表示智能体和障碍物的距离,R为设置的安全距离。
进一步地,本发明采用演化博弈实现对多智能体编队控制优化模型的求解。
进一步地,本发明所述采用博弈实现对多智能体编队控制优化模型的求解的具体过程为:
将编队控制中智能体位置转变为演化博弈中的种群状态,将编队控制中的各智能体转变成演化博弈中的策略,将多智能体编队控制优化模型和演化博弈的效益函数相结合,利用演化动力学方程对多智能体便对控制优化模型进行求解,实现对多智能体编队控制。
有益效果:
第一,本发明依据安全距离来控制智能体避障或编队与目标点跟踪,来建立人工势场函数,根据人工势场函数来构建优化模型,确保每个智能体能够避碰避障,并趋近于目标点。
第二,本发明人工势场函数在设计时,目标点的引力势场会对智能体产生“引力”,障碍物的斥力势场对智能体产生“斥力”。同时,为了能使智能体在移动的过程中,能够形成编队和避碰,在智能体和智能体之间构建了一种特殊的势力场:当智能体之间的距离大于规定的安全距离时,智能体之间会产生“引力”促使形成编队;当智能体之间的距离小于安全距离时,智能体之间会产生“斥力”来促使智能体相互远离,实现避碰的目的。
第三,本发明所有智能体均具有相同的角色,相比于现有领导者-跟随者中存在的缺点:不存在明确的反馈控制机制,并且太过于依赖领导者智能体;本发明具有更高的可靠性。
第四,本发明利用演化博弈的相关概念及性质,针对多智能体编队控制问题设计分布式的控制算法使智能体能够实现自主编队、自主避碰、自主避障等功能,提高控制器的轨迹规划能力。
第五,本发明对于时变的通信网络也同样适用。在提高了控制性能和安全性能的同时,降低了计算的复杂程度,减少了通信负担,解决了现有的部分编队控制算法不能处理具有通讯约束或时变通讯网络的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为6个智能体的二维实际轨迹图;
图2为每个智能体的位置坐标-时间曲线图;
图3为每个智能体和障碍物1的距离-时间曲线;
图4为每个智能体和障碍物2的距离-时间曲线图。
图5为每个智能体对之间的相对距离-时间曲线图。
图6为任意两个智能体之间的相对距离。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合;并且,基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
本申请实施例一种基于演化博弈的无领导者模型预测编队控制方法,如图1 所示,具体过程为:
步骤一,构建多智能体系统;
步骤11,多智能体系统架构的设计;包括如下子步骤:
假设有n个智能体,指标集用集合
Figure RE-GDA0003991517960000061
表示,针对智能体
Figure RE-GDA0003991517960000062
其离散动力学方程为:
zi(k+1)=Aizi(k)+Biui(k) (12)
其中,
Figure RE-GDA0003991517960000063
Figure RE-GDA0003991517960000064
分别为i智能体的状态和控制输入。
Figure RE-GDA0003991517960000065
表示智能体i的位置,
Figure RE-GDA0003991517960000066
表示智能体i的速度, Ai和Bi为智能体i的系数矩阵,每个智能体受到的输入和状态约束为:
Figure RE-GDA0003991517960000067
其中,
Figure RE-GDA0003991517960000068
u i
Figure RE-GDA0003991517960000069
分别表示最小和最大的允许控制向量,z i
Figure RE-GDA00039915179600000610
表示i智能体状态的上界和下界。
步骤12,确定每个智能体的通信拓扑和目标;
假设每个智能体只能在一定距离范围
Figure RE-GDA00039915179600000611
内和其他智能体进行通讯,由此构建一个时变的通讯拓扑图
Figure RE-GDA00039915179600000612
来描述智能体之间的通讯情况。
Figure RE-GDA0003991517960000071
表示智能体i期望的状态,
Figure RE-GDA0003991517960000072
Figure RE-GDA0003991517960000073
分别表示智能体i的期望的位置和速度。
Figure RE-GDA0003991517960000074
代表智能体i和智能体j之间的期望的编队向量。常量
Figure RE-GDA0003991517960000075
表示设定的安全距离,
Figure RE-GDA0003991517960000076
为no个障碍物的集合,其中,
Figure RE-GDA0003991517960000077
表示第m个静态障碍物的位置。
所要实现的编队控制目标是让所有智能体能够按照预先设计的形状到达期望的位置,并且在满足约束条件的情况下智能体能够同时实现避碰和避障的功能。对于智能体
Figure RE-GDA0003991517960000078
和它的邻居
Figure RE-GDA0003991517960000079
局部的控制目标可以概括为
跟踪目标:
Figure RE-GDA00039915179600000710
编队目标:cj(k)-ci(k)=dij
避碰功能:|cj(k)-ci(k)|≥R
避障功能:
Figure RE-GDA00039915179600000711
状态和输入约束:
Figure RE-GDA00039915179600000712
步骤二,构建人工势场函数,建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪。
具体包括:本发明构建智能体与目标点之间的引力势场,构建智能体与障碍物之间的斥力势场;构建智能体之间的引/斥力势场,当智能体之间的距离大于设定的安全距离时,智能体之间会产生引力形成编队,当智能体之间的距离小于设定的安全距离时,智能体之间会产生斥力相互远离;当智能体与障碍物的位置小于安全距离时,所述人工势场函数为智能体与障碍物之间的斥力势场;当智能体与障碍物的距离大于安全距离时,所述人工势场函数为智能体与目标点之间的引力势场和智能体之间的引/斥力势场的联合。
本实施例中,人工势场函数在设计时,目标点的引力势场会对智能体产生“引力”,障碍物的斥力势场对智能体产生“斥力”。同时,为了能使智能体在移动的过程中,能够形成编队和避碰,在智能体和智能体之间构建了一种特殊的势力场:当智能体之间的距离大于规定的安全距离时,智能体之间会产生“引力”促使形成编队;当智能体之间的距离小于安全距离时,智能体之间会产生“斥力”来促使智能体相互远离,实现避碰的目的。
该步骤包括如下子步骤:
步骤21,智能体受到来自目标点的吸引势场函数Ut和吸引力Ft定义为:
Figure RE-GDA0003991517960000081
Figure RE-GDA0003991517960000082
其中,kt是正定系数,
Figure RE-GDA0003991517960000083
表示智能体到目标点的欧几里得距离,Ft表示智能体受到的来自目标点的吸引力,为了简化撰写,公式(14) 中将ci(k)简写为ci
步骤22,假设智能体i和j之间的期望相对距离为
Figure RE-GDA0003991517960000084
定义智能体i和智能体j之间的势力场函数为
Figure RE-GDA0003991517960000085
其中,ka表示正定系数>0,kc表示正定系数,fij(ci(k),cj(k))=|ci(k)-cj(k)| 表示智能体i和智能体j之间的距离,R为设置的安全距离,且
Figure RE-GDA0003991517960000091
通过上式可以看出,如果智能体i和j之间的相对距离
Figure RE-GDA0003991517960000092
且 fij(ci(k),cj(k))>R时,该力为吸引力;当
Figure RE-GDA0003991517960000093
时,该力为排斥力,目的是为了使智能体形成期望的编队。而当智能体之间的相对距离fij(ci(k),cj(k))<R时会产生一种排斥力使智能体之间相互远离,从而达到避碰的目的。此外,当智能体的距离无限接近时,斥力将变得无穷大,从而避免智能体在运动过程中发生碰撞。为了简化撰写,公式(15)中将fij(ci(k),cj(k)) 简写为fij
步骤23,为了实现避障功能,在障碍物周围引入一个旋转势场Uo,定义障碍物周围的势能场为
Figure RE-GDA0003991517960000094
其中,ko是正定系数,
Figure RE-GDA0003991517960000095
为m个静态障碍物的位置。
Figure RE-GDA0003991517960000096
Figure RE-GDA0003991517960000097
表示智能体和障碍物的距离。
障碍物对智能体产生的排斥力为
Figure RE-GDA0003991517960000098
Figure RE-GDA0003991517960000099
步骤24,为了将问题进行简化,同时避免局部最小值问题,提出一种转换策略:当智能体与障碍物的位置小于安全距离时,只进行避障;如果智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪。
故建立的人工势场函数为:
Figure RE-GDA0003991517960000101
步骤三,多智能体编队控制优化模型如下式所示,基于所述优化模型实现对多智能体编队控制。
Figure RE-GDA0003991517960000102
Figure RE-GDA0003991517960000103
Figure RE-GDA0003991517960000104
zi(k+t+1|k)=Aizi(k+t|k)+Biui(k+t|k)
其中,
Figure RE-GDA0003991517960000105
(k+t+1|k)表示在k时刻预测的k+t时刻的状态,Hp为预测时域。
本申请又一实施例,还包括对智能体编队控制优化模型的求解,即如下步骤四。
步骤四、利用演化博弈模型对步骤三建立的多智能体编队控制优化模型进行求解。
演化博弈模型为现有技术,下面对其进行具体的介绍:
假设一个种群中包含大但有限数量的参与者,每个参与者可以从策略集
Figure RE-GDA0003991517960000106
中选择相应的策略,令ρi代表选择策略
Figure RE-GDA0003991517960000107
参与者的量,
Figure RE-GDA0003991517960000108
表示种群的状态。假设种群内既没有出生率也没有死亡率,那该种群在演化的过程中其参与者的总量保持不变,所有可能的种群状态为
Figure RE-GDA0003991517960000109
不同于传统的演化博弈,具有承载能力的演化博弈把选择策略的参与者的数量限制在一个理想的区间内,即对于所有的
Figure RE-GDA00039915179600001010
均有
Figure RE-GDA00039915179600001011
其中
Figure RE-GDA00039915179600001012
表示策略i的承载能力。种群状态的的可行集表示为
Figure RE-GDA0003991517960000111
其中
Figure RE-GDA0003991517960000112
Figure RE-GDA0003991517960000113
该演化博弈可以解决下面的优化问题
Figure RE-GDA0003991517960000114
Figure RE-GDA0003991517960000115
Figure RE-GDA0003991517960000116
上述优化问题的最优点是一个内部点,即p*=arg maxp∈Λ∩int(p)J(p)。
采用如下的策略转移协议生成分布式演化动力学方程
Figure RE-GDA0003991517960000117
其中,
Figure RE-GDA0003991517960000118
该策略转移协议表明如果参与者选择策略时,所获得的效益fj>fi,那么选择i策略的参与者可以转变为选择j策略。另外,
Figure RE-GDA0003991517960000119
表示环境的承载能力,即如果
Figure RE-GDA00039915179600001110
时,即使fj>fi,选择i策略的参与者也不能转变成为j策略,因为i策略已经超过了承载能力。
将策略转移协议代入到平均动力学方程中,得到
Figure RE-GDA00039915179600001111
具有承载能力的分布式Smith动力学的另一个特点是可行集的不变性,该性质能够保证种群在演化的过程中始终满足约束。
证明集合Λ∩X在DSDCC演化过程中是不变集,即如果初始条件满足ρi(0)∈Λ∩X,那么种群状态沿着演化动力学方程演化时,ρi(t)∈Λ∩X对于所有的时刻t都成立。
当初始状态满足p(0)∈Λ时,得到
Figure RE-GDA00039915179600001112
故而,ρi(t)∈Λ在以后的演化过程中总是成立。
假设p(0)∈X,当ρi=0时,可以推导出
Figure RE-GDA0003991517960000121
Figure RE-GDA0003991517960000122
对于所有的i∈S,均有
Figure RE-GDA0003991517960000123
因此,ρi(t)∈X在之后的演化过程中也总是成立。
综上可得,如果初始条件满足约束的情况下,在以后的演化过程中,种群的状态也始终满足约束,Λ∩X在DSDCC下是不变的。
证明若种群的初始状态满足p(0)∈Λ∩X。那么DSDCC演化动力学方程收敛到均衡点。并且
Figure RE-GDA0003991517960000124
是渐近稳定的。
选择E1(p)=J(p*)-J(p)为李雅普诺夫函数。沿着DSDCC演化动力学求导可得
Figure RE-GDA0003991517960000125
因为L′≥0,可知
Figure RE-GDA0003991517960000126
所以均衡点p*在李亚普诺夫的意义上是稳定的。
基于上述分析可知,多智能体编队控制优化问题可以转换成演化博弈问题进行分布式求解。
在转换时:将编队控制中智能体位置转变为演化博弈中的种群状态,将编队控制中的个智能体转变成演化博弈中的策略,将多智能体编队控制优化模型和演化博弈的效益函数相结合,利用演化动力学方程对多智能体便对控制优化模型进行求解,实现对多智能体编队控制。
具体实施步骤为:
S41、把具有承载能力的演化博弈中种群状态p和所建立的编队优化问题(20) 中智能体的位置关联起来,即将
Figure RE-GDA0003991517960000131
Figure RE-GDA0003991517960000132
分别定义为种群的状态,策略集
Figure RE-GDA0003991517960000133
与预测时域Hp内的参与者集合
Figure RE-GDA0003991517960000134
相结合,即参与者
Figure RE-GDA0003991517960000135
的数量为MHp
S42、将智能体在势力场中受到的力作为种群的效益函数,另外因为种群的动态方程在式(22)中最大化函数J(p),而编队控制中成本函数(20)是最小化的,所以
Figure RE-GDA0003991517960000136
S43、控制输入约束可以通过智能体的状态方程转换成状态约束,如果出现
Figure RE-GDA0003991517960000137
可以令
Figure RE-GDA0003991517960000138
作为种群的状态进行演化。
选择式(23)为演化博弈的策略转移协议,代入到平均动力学方程中可以得到智能体位置的演化方程
Figure RE-GDA0003991517960000139
Figure RE-GDA00039915179600001310
通过演化动力学方程可以对式(20)求解。
综上,基于分布式进化博弈的分布式模型预测无领队编队控制方法可以描述为:给定输入:智能体的期望位置
Figure RE-GDA00039915179600001311
势力场系数kt,ka,kc,ko,安全距离R,障碍物的位置
Figure RE-GDA00039915179600001312
预测时域Hp;输出智能体的最优控制输入
Figure RE-GDA00039915179600001313
(1)采样智能体i和其邻居
Figure RE-GDA00039915179600001314
当前的位置信息ci(k),cj(k);
(2)判断智能体i与障碍物
Figure RE-GDA00039915179600001315
的距离;
(3)为智能体i构建局部的模型预测编队优化问题;
(4)用演化博弈方法求解模型预测控制问题;
a)选择策略转移函数
Figure RE-GDA0003991517960000141
b)得到的演化动力学方程;
c)得到智能体i在不同时刻的位置
Figure RE-GDA0003991517960000142
d)利用系统的动态方程求得最优的控制输入
Figure RE-GDA0003991517960000143
实例:
由六个智能体构成的多智能体系统,允许的通信距离和安全距离设置为θ=2.3,R=0.5,δi=1。预测时域为Hl=10,势力场系数kt=ka=kc=ko=1。两个静态障碍物位于
Figure RE-GDA0003991517960000144
Figure RE-GDA0003991517960000145
对于每个智能体
Figure RE-GDA0003991517960000146
其动态方程为
Figure RE-GDA0003991517960000147
每个智能体的初始状态为
c1(0)=[3 3]T,c2(0)=[1 4]T,c3(0)=[2 0]T
c4(0)=[4 1]T,c5(0)=[0 2]T,c6(0)=[3 5]T
所有智能体的期望编队形状为一个六边形,初始速度和末速度都是0。每个智能体的期望位置为
Figure RE-GDA0003991517960000148
Figure RE-GDA0003991517960000149
使用Matlab对所设计的算法进行仿真。如图2所示,所有的智能体都能够沿着合适的轨迹从初始位置到达期望的位置,最终会形成一个六边形。图3为所有智能体在移动过程中具体的横纵坐标变化,可以看出当智能体到达期望的位置时,其位置不再改变。图6表示任意两个智能体之间的相对距离,红色虚线为设置的最小安全距离,由图可知任意两个智能体之间的距离始终满足大于等于0.5,满足避碰的要求。图4和图5分为表示智能体和障碍物
Figure RE-GDA0003991517960000151
障碍物
Figure RE-GDA0003991517960000152
的距离,红色虚线为设置的安全距离,由图可知所有曲线都位于y=0.5以上,表明智能体和障碍物的距离始终大于0.5,实现了避障的功能。通过以上的仿真验证了该算法在编队控制性能和避碰方面的有效性。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于人工势场法的多智能体编队控制方法,其特征在于,具体过程为:
建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪;
基于所述人工势场函数构建多智能体编队控制优化模型,基于所述优化模型实现对多智能体编队控制。
2.根据权利要求1所述基于人工势场法的多智能体编队控制方法,其特征在于,构建智能体与目标点之间的引力势场,构建智能体与障碍物之间的斥力势场;构建智能体之间的引/斥力势场,当智能体之间的距离大于设定的安全距离时,智能体之间会产生引力形成编队,当智能体之间的距离小于设定的安全距离时,智能体之间会产生斥力相互远离;
当智能体与障碍物的位置小于安全距离时,所述人工势场函数为智能体与障碍物之间的斥力势场;当智能体与障碍物的距离大于安全距离时,所述人工势场函数为智能体与目标点之间的引力势场和智能体之间的引/斥力势场的联合。
3.根据权利要求2所述基于人工势场法的多智能体编队控制方法,其特征在于,所述人工势场函数为:
Figure FDA0003778800890000011
其中,Uo(ci(k))为智能体与障碍物之间的斥力势场,Uij(ci(k),cj(k))为智能体之间的引/斥力势场,Ut(ci(k))为智能体与目标点之间的引力势场。
4.根据权利要求3所述基于人工势场法的多智能体编队控制方法,其特征在于,所述Ut(ci(k))为:
Figure FDA0003778800890000021
其中,kt是正定系数,
Figure FDA0003778800890000022
表示智能体到目标点的欧几里得距离,ci(k)表示智能体的位置,
Figure FDA0003778800890000023
表示目标点的位置。
5.根据权利要求3所述基于人工势场法的多智能体编队控制方法,其特征在于,所述Uij(ci(k),cj(k))为:
Figure FDA0003778800890000024
其中,ka>0,表示正定系数,fij(ci(k),cj(k))=|ci(k)-cj(k)|表示智能体i和智能体j之间的距离;R为设置的安全距离,ci(k)表示智能体i的位置,cj(k)表示智能体j的位置,kc表示正定系数,dij表示代表智能体i和智能体j之间的期望的编队向量。
6.根据权利要求3所述基于人工势场法的多智能体编队控制方法,其特征在于,所述Uo(ci(k))为:
Figure FDA0003778800890000025
其中,ko是正定系数,
Figure FDA0003778800890000026
表示智能体和障碍物的距离,R为设置的安全距离。
7.根据权利要求1或2或3所述基于人工势场法的多智能体编队控制方法,其特征在于,采用演化博弈实现对多智能体编队控制优化模型的求解。
8.根据权利要求7所述基于人工势场法的多智能体编队控制方法,其特征在于,所述采用博弈实现对多智能体编队控制优化模型的求解的具体过程为:
将编队控制中智能体位置转变为演化博弈中的种群状态,将编队控制中的各智能体转变成演化博弈中的策略,将多智能体编队控制优化模型和演化博弈的效益函数相结合,利用演化动力学方程对多智能体便对控制优化模型进行求解,实现对多智能体编队控制。
CN202210923877.2A 2022-08-02 2022-08-02 基于人工势场法的多智能体编队控制方法 Pending CN115599089A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210923877.2A CN115599089A (zh) 2022-08-02 2022-08-02 基于人工势场法的多智能体编队控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210923877.2A CN115599089A (zh) 2022-08-02 2022-08-02 基于人工势场法的多智能体编队控制方法

Publications (1)

Publication Number Publication Date
CN115599089A true CN115599089A (zh) 2023-01-13

Family

ID=84842464

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210923877.2A Pending CN115599089A (zh) 2022-08-02 2022-08-02 基于人工势场法的多智能体编队控制方法

Country Status (1)

Country Link
CN (1) CN115599089A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115993845A (zh) * 2023-03-23 2023-04-21 西北工业大学深圳研究院 一种集群智能系统协同运动规划与编队控制方法
CN117193335A (zh) * 2023-11-08 2023-12-08 山东大学 一种多智能体系统规避动态障碍物方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115993845A (zh) * 2023-03-23 2023-04-21 西北工业大学深圳研究院 一种集群智能系统协同运动规划与编队控制方法
CN117193335A (zh) * 2023-11-08 2023-12-08 山东大学 一种多智能体系统规避动态障碍物方法及系统
CN117193335B (zh) * 2023-11-08 2024-04-12 山东大学 一种多智能体系统规避动态障碍物方法及系统

Similar Documents

Publication Publication Date Title
CN115599089A (zh) 基于人工势场法的多智能体编队控制方法
CN108680063B (zh) 一种针对大规模无人机集群动态对抗的决策方法
CN113093802B (zh) 一种基于深度强化学习的无人机机动决策方法
Zhu et al. Multi-robot flocking control based on deep reinforcement learning
CN113900445A (zh) 基于多智能体强化学习的无人机协同控制训练方法及系统
Zhang et al. Multi-robot cooperative pursuit via potential field-enhanced reinforcement learning
CN113095481A (zh) 一种基于并行自我博弈的空战机动方法
Wang et al. Improving maneuver strategy in air combat by alternate freeze games with a deep reinforcement learning algorithm
CN113962012B (zh) 无人机对抗策略优化方法及装置
CN113900449B (zh) 多无人机轨迹规划方法、装置、无人机及存储介质
CN116501086B (zh) 一种基于强化学习的飞行器自主规避决策方法
CN116736883B (zh) 一种无人飞行集群智能协同运动规划的方法
CN113359437A (zh) 基于演化博弈的多智能体编队的分层模型预测控制方法
Li et al. Autonomous air combat decision‐making of UAV based on parallel self‐play reinforcement learning
Liu et al. Multi‐UUV Cooperative Dynamic Maneuver Decision‐Making Algorithm Using Intuitionistic Fuzzy Game Theory
CN114326822B (zh) 一种基于演化博弈的无人机集群信息共享方法
CN115525058A (zh) 一种基于深度强化学习的无人潜航器集群协同对抗方法
Xianyong et al. Research on maneuvering decision algorithm based on improved deep deterministic policy gradient
Cao et al. Autonomous maneuver decision of UCAV air combat based on double deep Q network algorithm and stochastic game theory
CN111773722B (zh) 一种模拟环境中的战斗机规避机动策略集生成方法
Wang et al. Deep reinforcement learning based multi-uuv cooperative control for target capturing
Zhang et al. A game-theoretic approach of cyberattack resilient constraint-following control for cyber–physical systems
Huang et al. A novel elitism co-evolutionary algorithm for antagonistic weapon-target assignment
CN115220473A (zh) 一种多无人机蜂群协同任务动态分配方法
Zhang et al. A dynamic resilience evaluation method for cross-domain swarms in confrontation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination