CN115599089A - 基于人工势场法的多智能体编队控制方法 - Google Patents
基于人工势场法的多智能体编队控制方法 Download PDFInfo
- Publication number
- CN115599089A CN115599089A CN202210923877.2A CN202210923877A CN115599089A CN 115599089 A CN115599089 A CN 115599089A CN 202210923877 A CN202210923877 A CN 202210923877A CN 115599089 A CN115599089 A CN 115599089A
- Authority
- CN
- China
- Prior art keywords
- agent
- potential field
- intelligent
- distance
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000005457 optimization Methods 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims abstract description 14
- 239000003795 chemical substances by application Substances 0.000 claims description 158
- 230000008901 benefit Effects 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 4
- 238000013459 approach Methods 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- TYJJADVDDVDEDZ-UHFFFAOYSA-M potassium hydrogencarbonate Chemical compound [K+].OC([O-])=O TYJJADVDDVDEDZ-UHFFFAOYSA-M 0.000 description 1
- 238000005381 potential energy Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0289—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供一种基于人工势场法的多智能体编队控制方法,该方法能够确保每个智能体能够避碰避障,并趋近于目标点;具体过程为:建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪;基于所述人工势场函数构建多智能体编队控制优化模型,基于所述优化模型实现对多智能体编队控制。
Description
技术领域
本发明属于多智能体编队控制技术领域,具体涉及一种基于人工势场法的多智能体编队控制方法。
背景技术
在实际的生产生活中,随着任务变得日益复杂,单个控制系统越来越无法适应控制需求。受到自然界中集群现象的启发,多智能体系统应运而生,其中编队控制是最近几十年来多智能体系统研究的热点,它通过设计合适的控制算法,根据传感器提供的本地信息以及与相邻智能体通信获得的局部或全局信息,使多个智能体(如无人机、无人车等)能够在移动到目标位置的同时,保持预期的编队形状。由于多智能体编队能够实现单个个体无法完成的任务或挑战,具有更强的容错型和鲁棒性,使其在军事领域和生活领域具有很大的应用潜力。尤其在军事领域,未来多智能体集群编队将会在应对现实威胁、提高作战能力等多个方面产生深远影响,成为未来地面战场的主要战斗力。发展智能集群化作战技术,会对未来的作战形式产生颠覆性影响。
而在实际应用中,一方面,为了安全考虑,所设计的编队控制算法应该保证智能体具有避碰避障的功能,而这些功能会使智能体在做出决策时产生相互影响,即“耦合”,给分布式控制的实现带来一定难度;另一方面,由于智能体的通讯范围有限,智能体在移动过程中系统的通信拓扑会发生改变。例如,在协同导航问题中,如果编队形状随时间动态变化,可能需要重新调整通信网络来适应这种新情况。所以编队控制还应该考虑时变的通信拓扑。目前,现有技术中兼具避碰和避障功能,并且能应用于时变系统的编队控制方法还比较少。
综合以上分析,研究具有避碰、避障功能的分布式多智能体编队控制算法具有重要的理论意义和应用价值。
发明内容
有鉴于此,本申请提供一种基于人工势场法的多智能体编队控制方法,该方法能够确保每个智能体能够避碰避障,并趋近于目标点。
实现本发明的技术方案如下:
一种基于人工势场法的多智能体编队控制方法,具体过程为:
建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪;
基于所述人工势场函数构建多智能体编队控制优化模型,基于所述优化模型实现对多智能体编队控制。
进一步地,本发明构建智能体与目标点之间的引力势场,构建智能体与障碍物之间的斥力势场;构建智能体之间的引/斥力势场,当智能体之间的距离大于设定的安全距离时,智能体之间会产生引力形成编队,当智能体之间的距离小于设定的安全距离时,智能体之间会产生斥力相互远离;
当智能体与障碍物的位置小于安全距离时,所述人工势场函数为智能体与障碍物之间的斥力势场;当智能体与障碍物的距离大于安全距离时,所述人工势场函数为智能体与目标点之间的引力势场和智能体之间的引/斥力势场的联合。
进一步地,本发明所述人工势场函数为:
其中,Uo(ci(k))为智能体与障碍物之间的斥力势场,Uij(ci(k),cj(k))为智能体之间的引/斥力势场,Ut(ci(k))为智能体与目标点之间的引力势场。
进一步地,本发明所述Ut(ci(k))为:
进一步地,本发明所述Uij(ci(k),cj(k))为:
其中,ka>0,表示正定系数,fij(ci(k),cj(k))=|ci(k)-cj(k)|表示智能体i和智能体j之间的距离;R为设置的安全距离,ci(k)表示智能体i的位置,cj(k)表示智能体j的位置,kc表示正定系数,dij表示代表智能体i和智能体j之间的期望的编队向量。
进一步地本发明所述Uo(ci(k))为:
进一步地,本发明采用演化博弈实现对多智能体编队控制优化模型的求解。
进一步地,本发明所述采用博弈实现对多智能体编队控制优化模型的求解的具体过程为:
将编队控制中智能体位置转变为演化博弈中的种群状态,将编队控制中的各智能体转变成演化博弈中的策略,将多智能体编队控制优化模型和演化博弈的效益函数相结合,利用演化动力学方程对多智能体便对控制优化模型进行求解,实现对多智能体编队控制。
有益效果:
第一,本发明依据安全距离来控制智能体避障或编队与目标点跟踪,来建立人工势场函数,根据人工势场函数来构建优化模型,确保每个智能体能够避碰避障,并趋近于目标点。
第二,本发明人工势场函数在设计时,目标点的引力势场会对智能体产生“引力”,障碍物的斥力势场对智能体产生“斥力”。同时,为了能使智能体在移动的过程中,能够形成编队和避碰,在智能体和智能体之间构建了一种特殊的势力场:当智能体之间的距离大于规定的安全距离时,智能体之间会产生“引力”促使形成编队;当智能体之间的距离小于安全距离时,智能体之间会产生“斥力”来促使智能体相互远离,实现避碰的目的。
第三,本发明所有智能体均具有相同的角色,相比于现有领导者-跟随者中存在的缺点:不存在明确的反馈控制机制,并且太过于依赖领导者智能体;本发明具有更高的可靠性。
第四,本发明利用演化博弈的相关概念及性质,针对多智能体编队控制问题设计分布式的控制算法使智能体能够实现自主编队、自主避碰、自主避障等功能,提高控制器的轨迹规划能力。
第五,本发明对于时变的通信网络也同样适用。在提高了控制性能和安全性能的同时,降低了计算的复杂程度,减少了通信负担,解决了现有的部分编队控制算法不能处理具有通讯约束或时变通讯网络的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为6个智能体的二维实际轨迹图;
图2为每个智能体的位置坐标-时间曲线图;
图3为每个智能体和障碍物1的距离-时间曲线;
图4为每个智能体和障碍物2的距离-时间曲线图。
图5为每个智能体对之间的相对距离-时间曲线图。
图6为任意两个智能体之间的相对距离。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合;并且,基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
本申请实施例一种基于演化博弈的无领导者模型预测编队控制方法,如图1 所示,具体过程为:
步骤一,构建多智能体系统;
步骤11,多智能体系统架构的设计;包括如下子步骤:
zi(k+1)=Aizi(k)+Biui(k) (12)
步骤12,确定每个智能体的通信拓扑和目标;
编队目标:cj(k)-ci(k)=dij
避碰功能:|cj(k)-ci(k)|≥R
步骤二,构建人工势场函数,建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪。
具体包括:本发明构建智能体与目标点之间的引力势场,构建智能体与障碍物之间的斥力势场;构建智能体之间的引/斥力势场,当智能体之间的距离大于设定的安全距离时,智能体之间会产生引力形成编队,当智能体之间的距离小于设定的安全距离时,智能体之间会产生斥力相互远离;当智能体与障碍物的位置小于安全距离时,所述人工势场函数为智能体与障碍物之间的斥力势场;当智能体与障碍物的距离大于安全距离时,所述人工势场函数为智能体与目标点之间的引力势场和智能体之间的引/斥力势场的联合。
本实施例中,人工势场函数在设计时,目标点的引力势场会对智能体产生“引力”,障碍物的斥力势场对智能体产生“斥力”。同时,为了能使智能体在移动的过程中,能够形成编队和避碰,在智能体和智能体之间构建了一种特殊的势力场:当智能体之间的距离大于规定的安全距离时,智能体之间会产生“引力”促使形成编队;当智能体之间的距离小于安全距离时,智能体之间会产生“斥力”来促使智能体相互远离,实现避碰的目的。
该步骤包括如下子步骤:
步骤21,智能体受到来自目标点的吸引势场函数Ut和吸引力Ft定义为:
其中,ka表示正定系数>0,kc表示正定系数,fij(ci(k),cj(k))=|ci(k)-cj(k)| 表示智能体i和智能体j之间的距离,R为设置的安全距离,且通过上式可以看出,如果智能体i和j之间的相对距离且 fij(ci(k),cj(k))>R时,该力为吸引力;当时,该力为排斥力,目的是为了使智能体形成期望的编队。而当智能体之间的相对距离fij(ci(k),cj(k))<R时会产生一种排斥力使智能体之间相互远离,从而达到避碰的目的。此外,当智能体的距离无限接近时,斥力将变得无穷大,从而避免智能体在运动过程中发生碰撞。为了简化撰写,公式(15)中将fij(ci(k),cj(k)) 简写为fij。
步骤23,为了实现避障功能,在障碍物周围引入一个旋转势场Uo,定义障碍物周围的势能场为
障碍物对智能体产生的排斥力为
步骤24,为了将问题进行简化,同时避免局部最小值问题,提出一种转换策略:当智能体与障碍物的位置小于安全距离时,只进行避障;如果智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪。
故建立的人工势场函数为:
步骤三,多智能体编队控制优化模型如下式所示,基于所述优化模型实现对多智能体编队控制。
zi(k+t+1|k)=Aizi(k+t|k)+Biui(k+t|k)
(k+t+1|k)表示在k时刻预测的k+t时刻的状态,Hp为预测时域。
本申请又一实施例,还包括对智能体编队控制优化模型的求解,即如下步骤四。
步骤四、利用演化博弈模型对步骤三建立的多智能体编队控制优化模型进行求解。
演化博弈模型为现有技术,下面对其进行具体的介绍:
假设一个种群中包含大但有限数量的参与者,每个参与者可以从策略集中选择相应的策略,令ρi代表选择策略参与者的量,表示种群的状态。假设种群内既没有出生率也没有死亡率,那该种群在演化的过程中其参与者的总量保持不变,所有可能的种群状态为
上述优化问题的最优点是一个内部点,即p*=arg maxp∈Λ∩int(p)J(p)。
采用如下的策略转移协议生成分布式演化动力学方程
其中,该策略转移协议表明如果参与者选择策略时,所获得的效益fj>fi,那么选择i策略的参与者可以转变为选择j策略。另外,表示环境的承载能力,即如果时,即使fj>fi,选择i策略的参与者也不能转变成为j策略,因为i策略已经超过了承载能力。
将策略转移协议代入到平均动力学方程中,得到
具有承载能力的分布式Smith动力学的另一个特点是可行集的不变性,该性质能够保证种群在演化的过程中始终满足约束。
证明集合Λ∩X在DSDCC演化过程中是不变集,即如果初始条件满足ρi(0)∈Λ∩X,那么种群状态沿着演化动力学方程演化时,ρi(t)∈Λ∩X对于所有的时刻t都成立。
当初始状态满足p(0)∈Λ时,得到
故而,ρi(t)∈Λ在以后的演化过程中总是成立。
假设p(0)∈X,当ρi=0时,可以推导出
因此,ρi(t)∈X在之后的演化过程中也总是成立。
综上可得,如果初始条件满足约束的情况下,在以后的演化过程中,种群的状态也始终满足约束,Λ∩X在DSDCC下是不变的。
选择E1(p)=J(p*)-J(p)为李雅普诺夫函数。沿着DSDCC演化动力学求导可得
基于上述分析可知,多智能体编队控制优化问题可以转换成演化博弈问题进行分布式求解。
在转换时:将编队控制中智能体位置转变为演化博弈中的种群状态,将编队控制中的个智能体转变成演化博弈中的策略,将多智能体编队控制优化模型和演化博弈的效益函数相结合,利用演化动力学方程对多智能体便对控制优化模型进行求解,实现对多智能体编队控制。
具体实施步骤为:
选择式(23)为演化博弈的策略转移协议,代入到平均动力学方程中可以得到智能体位置的演化方程
通过演化动力学方程可以对式(20)求解。
(3)为智能体i构建局部的模型预测编队优化问题;
(4)用演化博弈方法求解模型预测控制问题;
b)得到的演化动力学方程;
实例:
由六个智能体构成的多智能体系统,允许的通信距离和安全距离设置为θ=2.3,R=0.5,δi=1。预测时域为Hl=10,势力场系数kt=ka=kc=ko=1。两个静态障碍物位于和对于每个智能体其动态方程为
每个智能体的初始状态为
c1(0)=[3 3]T,c2(0)=[1 4]T,c3(0)=[2 0]T
c4(0)=[4 1]T,c5(0)=[0 2]T,c6(0)=[3 5]T
所有智能体的期望编队形状为一个六边形,初始速度和末速度都是0。每个智能体的期望位置为
使用Matlab对所设计的算法进行仿真。如图2所示,所有的智能体都能够沿着合适的轨迹从初始位置到达期望的位置,最终会形成一个六边形。图3为所有智能体在移动过程中具体的横纵坐标变化,可以看出当智能体到达期望的位置时,其位置不再改变。图6表示任意两个智能体之间的相对距离,红色虚线为设置的最小安全距离,由图可知任意两个智能体之间的距离始终满足大于等于0.5,满足避碰的要求。图4和图5分为表示智能体和障碍物障碍物的距离,红色虚线为设置的安全距离,由图可知所有曲线都位于y=0.5以上,表明智能体和障碍物的距离始终大于0.5,实现了避障的功能。通过以上的仿真验证了该算法在编队控制性能和避碰方面的有效性。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于人工势场法的多智能体编队控制方法,其特征在于,具体过程为:
建立人工势场函数,当智能体与障碍物的位置小于安全距离时,只进行避障,当智能体与障碍物的距离大于安全距离时,进行编队和目标点跟踪;
基于所述人工势场函数构建多智能体编队控制优化模型,基于所述优化模型实现对多智能体编队控制。
2.根据权利要求1所述基于人工势场法的多智能体编队控制方法,其特征在于,构建智能体与目标点之间的引力势场,构建智能体与障碍物之间的斥力势场;构建智能体之间的引/斥力势场,当智能体之间的距离大于设定的安全距离时,智能体之间会产生引力形成编队,当智能体之间的距离小于设定的安全距离时,智能体之间会产生斥力相互远离;
当智能体与障碍物的位置小于安全距离时,所述人工势场函数为智能体与障碍物之间的斥力势场;当智能体与障碍物的距离大于安全距离时,所述人工势场函数为智能体与目标点之间的引力势场和智能体之间的引/斥力势场的联合。
7.根据权利要求1或2或3所述基于人工势场法的多智能体编队控制方法,其特征在于,采用演化博弈实现对多智能体编队控制优化模型的求解。
8.根据权利要求7所述基于人工势场法的多智能体编队控制方法,其特征在于,所述采用博弈实现对多智能体编队控制优化模型的求解的具体过程为:
将编队控制中智能体位置转变为演化博弈中的种群状态,将编队控制中的各智能体转变成演化博弈中的策略,将多智能体编队控制优化模型和演化博弈的效益函数相结合,利用演化动力学方程对多智能体便对控制优化模型进行求解,实现对多智能体编队控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210923877.2A CN115599089A (zh) | 2022-08-02 | 2022-08-02 | 基于人工势场法的多智能体编队控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210923877.2A CN115599089A (zh) | 2022-08-02 | 2022-08-02 | 基于人工势场法的多智能体编队控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115599089A true CN115599089A (zh) | 2023-01-13 |
Family
ID=84842464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210923877.2A Pending CN115599089A (zh) | 2022-08-02 | 2022-08-02 | 基于人工势场法的多智能体编队控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115599089A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115993845A (zh) * | 2023-03-23 | 2023-04-21 | 西北工业大学深圳研究院 | 一种集群智能系统协同运动规划与编队控制方法 |
CN117193335A (zh) * | 2023-11-08 | 2023-12-08 | 山东大学 | 一种多智能体系统规避动态障碍物方法及系统 |
-
2022
- 2022-08-02 CN CN202210923877.2A patent/CN115599089A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115993845A (zh) * | 2023-03-23 | 2023-04-21 | 西北工业大学深圳研究院 | 一种集群智能系统协同运动规划与编队控制方法 |
CN117193335A (zh) * | 2023-11-08 | 2023-12-08 | 山东大学 | 一种多智能体系统规避动态障碍物方法及系统 |
CN117193335B (zh) * | 2023-11-08 | 2024-04-12 | 山东大学 | 一种多智能体系统规避动态障碍物方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115599089A (zh) | 基于人工势场法的多智能体编队控制方法 | |
CN108680063B (zh) | 一种针对大规模无人机集群动态对抗的决策方法 | |
CN113093802B (zh) | 一种基于深度强化学习的无人机机动决策方法 | |
Zhu et al. | Multi-robot flocking control based on deep reinforcement learning | |
CN113900445A (zh) | 基于多智能体强化学习的无人机协同控制训练方法及系统 | |
Zhang et al. | Multi-robot cooperative pursuit via potential field-enhanced reinforcement learning | |
CN113095481A (zh) | 一种基于并行自我博弈的空战机动方法 | |
Wang et al. | Improving maneuver strategy in air combat by alternate freeze games with a deep reinforcement learning algorithm | |
CN113962012B (zh) | 无人机对抗策略优化方法及装置 | |
CN113900449B (zh) | 多无人机轨迹规划方法、装置、无人机及存储介质 | |
CN116501086B (zh) | 一种基于强化学习的飞行器自主规避决策方法 | |
CN116736883B (zh) | 一种无人飞行集群智能协同运动规划的方法 | |
CN113359437A (zh) | 基于演化博弈的多智能体编队的分层模型预测控制方法 | |
Li et al. | Autonomous air combat decision‐making of UAV based on parallel self‐play reinforcement learning | |
Liu et al. | Multi‐UUV Cooperative Dynamic Maneuver Decision‐Making Algorithm Using Intuitionistic Fuzzy Game Theory | |
CN114326822B (zh) | 一种基于演化博弈的无人机集群信息共享方法 | |
CN115525058A (zh) | 一种基于深度强化学习的无人潜航器集群协同对抗方法 | |
Xianyong et al. | Research on maneuvering decision algorithm based on improved deep deterministic policy gradient | |
Cao et al. | Autonomous maneuver decision of UCAV air combat based on double deep Q network algorithm and stochastic game theory | |
CN111773722B (zh) | 一种模拟环境中的战斗机规避机动策略集生成方法 | |
Wang et al. | Deep reinforcement learning based multi-uuv cooperative control for target capturing | |
Zhang et al. | A game-theoretic approach of cyberattack resilient constraint-following control for cyber–physical systems | |
Huang et al. | A novel elitism co-evolutionary algorithm for antagonistic weapon-target assignment | |
CN115220473A (zh) | 一种多无人机蜂群协同任务动态分配方法 | |
Zhang et al. | A dynamic resilience evaluation method for cross-domain swarms in confrontation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |