CN111859541B - 一种基于迁移学习改进的pmaddpg多无人机任务决策方法 - Google Patents
一种基于迁移学习改进的pmaddpg多无人机任务决策方法 Download PDFInfo
- Publication number
- CN111859541B CN111859541B CN202010691509.0A CN202010691509A CN111859541B CN 111859541 B CN111859541 B CN 111859541B CN 202010691509 A CN202010691509 A CN 202010691509A CN 111859541 B CN111859541 B CN 111859541B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- network
- experience
- threat
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013526 transfer learning Methods 0.000 title claims abstract description 12
- 230000006872 improvement Effects 0.000 title claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 27
- 230000009471 action Effects 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 22
- 230000007704 transition Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 230000003321 amplification Effects 0.000 claims description 6
- 238000013500 data storage Methods 0.000 claims description 6
- 230000007613 environmental effect Effects 0.000 claims description 6
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 150000001875 compounds Chemical class 0.000 claims description 3
- 230000003068 static effect Effects 0.000 abstract description 5
- 230000007547 defect Effects 0.000 abstract description 4
- 230000004083 survival effect Effects 0.000 abstract description 2
- 238000011160 research Methods 0.000 description 5
- 230000007123 defense Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000452 restraining effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Business, Economics & Management (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Mathematical Optimization (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于迁移学习改进的PMADDPG多无人机任务决策方法。首先在多无人机实际作战环境背景下,针对环境中的防空导弹、雷达等威胁进行合理的数学建模,然后创建多个不同的二维作战环境模型,并且设计约束条件,依次对多个作战环境进行学习和训练,进而得到最终的多无人机任务分配模型。本发明方法克服了已有技术中只能在已知或静态作战环境下进行任务决策的缺陷,在未知的作战环境下,也可以能够高效的进行决策,实现无人机的任务,大大保障了无人机群在未知作战环境中的生存能力。
Description
技术领域
本发明属于飞行控制领域,具体涉及一种多无人机任务决策的方法。
背景技术
对于各国军方来说,无人机将会成为未来战场必不可少的武器之一。无人机很可能成为多个作战平台的攻击和反击对象,成为最普遍和最致命的空战“利剑”,多无人机的协同作战方式将会成为未来的主流发展趋势。目前,国内外军事院校及学者对多无人机任务决策问题的研究十分关注,成果也有很多。但是,多无人机任务决策的研究仍存在不少问题。比如在多无人机协同搜索、跟踪、任务分配、航迹规划、编队控制等问题中,一方面,大多研究的无人机模型建立基本都未考虑实际战场需求,仅仅在静态的无人机任务背景下进行单无人机的研究,并且使用的优化算法还是一些传统的优化算法。这些传统算法大多都基于单目标函数的优化问题而提出,并且大部分都是基于理论研究,适用于静态作战环境,未考虑实际空战中的各种动态变化和约束条件。另一方面,虽然有些无人机研究成果引入了深度强化学习的方法,但是,现有的深度强化学习算法在处理多无人机任务决策相关问题时耗时较长,对于实时性的需求还有待提高。并且在算法的泛化能力还远远不够,只能在训练时所处的环境中有很好的表现,在全新环境中的表现还远远不够。
发明内容
为了克服现有技术的不足,本发明提供一种基于迁移学习改进的PMADDPG多无人机任务决策方法。首先在多无人机实际作战环境背景下,针对环境中的防空导弹、雷达等威胁进行合理的数学建模,然后创建多个不同的二维作战环境模型,并且设计约束条件,依次对多个作战环境进行学习和训练,进而得到最终的多无人机任务分配模型。本发明方法克服了已有技术中只能在已知或静态作战环境下进行任务决策的缺陷,在未知的作战环境下,也可以能够高效的进行决策,实现无人机的任务,大大保障了无人机群在未知作战环境中的生存能力。
为达到上述目的,本发明提出了一种基于迁移学习改进的PMADDPG多无人机任务决策方法,包括以下步骤:
步骤1:建立雷达威胁模型、导弹威胁模型和转弯半径约束模型
建立雷达威胁模型为:
其中,Rmax为雷达在水平方向上最远的探测距离,UR是无人机当前位置与雷达位置的距离;
建立导弹威胁模型为:
其中,UM是无人机当前位置与导弹位置的距离,dM max为导弹所能攻击的最远距离,dM min为导弹的不可逃逸距离,一旦无人机与导弹的距离小于dM min,则无人机一定会被击中;
建立转弯半径约束模型为:
Ruav≥Rmin (3)
其中,Rmin为无人机的最小转弯半径,Ruav为无人机的实际转弯半径;
步骤2:设定作战环境中存在若干个威胁区、若干个目标区域、若干架无人机;随机选择一个或多个威胁区,随机选择一个或多个目标区域,随机选择一架或多架无人机,将选择的威胁区、目标区域、无人机进行组合,构建一个无人机作战环境;重复上述随机选择和组合过程,构建G个无人机作战环境;
步骤3:设定作战环境中共有k架无人机、m个威胁区和k个目标区域;k架无人机分别为:UAV1,UAV2,...,UAVk;定义第i架无人机的状态Suavi包含当前时刻的速度矢量(vuavi,x,vuavi,y)和在作战环境中的坐标位置(puavi,x,puavi,y);定义环境状态Senv包含m个威胁区的坐标位置及威胁半径和k个目标区域的坐标位置,其中第i个威胁区的坐标位置和威胁半径分别表示为(Wi,x,Wi,y)和ri,y,第i个目标区域的坐标位置表示为(Mi,x,Mi,y);k架无人机从起点出发,绕过作战环境中的威胁区,最终要分别到达k个目标区域;
步骤3-1:建立无人机的状态空间
每一架无人机的状态包括了自身的状态、其它无人机的状态和环境状态,无人机UAV1在t时刻的状态定义为:
St,uav1=(Suav1,Suav2,...,Suavk,Senv) (4)
进一步第i架无人机在t时刻的状态表示为:
无人机在各个时刻的状态构成无人机的状态空间;
步骤3-2:建立无人机的动作空间
t时刻将无人机的状态输入无人机的控制网络,控制网络输出无人机动作策略,表示为无人机瞬时速度(vx,vy),vx表示无人机沿x轴方向的速度,vy表示无人机沿y轴方向的速度;瞬时速度的大小限制在指定范围内,若超过指定范围的上限将瞬时速度设定为上限,若低于指定范围的下限将瞬时速度设定为下限;瞬时速度的方向受到无人机的转弯半径约束模型的约束,如果不符合转弯半径约束模型,则控制网络重新输出瞬时速度;
无人机在不同时刻的动作策略构成了二维向量表示的无人机动作空间;
步骤3-3:建立无人机奖励函数
定义威胁奖励函数Rf,如下式:
式中,DW为无人机与威胁区的距离;
设定碰撞奖励函数Rp,如下式:
式中,Ddij为第i架无人机与第j架无人机之间的距离,Dd为无人机之间的最小安全距离;
设定距离奖励函数Rr,如下式:
式中,dmin是每个目标区域距最近无人机的距离之和,(puavi,x,puavi,y)表示第i架无人机在作战环境中的坐标位置,(Mj,x,Mj,y)表示第j个目标区域在作战环境中的坐标位置;
最终无人机奖励函数设定为:
Ri=Rf+Rp+Rr (10)
式中,Ri表示第i架无人机的奖励值;
步骤4:构建与训练采用迁移学习的多无人机任务决策网络模型;
步骤4-1:加载步骤2中创建的任一无人机作战环境;
步骤4-2:无人机随机产生动作,无人机与威胁区、无人机与目标区域及无人机之间的相对位置发生变化,从而无人机作战环境发生改变;
步骤4-3:根据步骤3-3的无人机奖励函数(10)计算无人机随机产生动作后得到的奖励值,从而得到无人机状态转移数据;无人机状态转移数据包括无人机当前时刻状态、无人机动作策略、无人机奖励值、无人机下一时刻的状态;无人机状态转移数据表示为<si,ai,ri,si+1>,其中si表示无人机当前时刻的状态,ai表示当前时刻无人机动作策略,ri当前时刻无人机奖励值,si+1表示无人机下一时刻的状态;
步骤4-4:每架无人机在每一时刻都不断地产生状态转移数据并存储在自身的数据存储空间,每一架无人机的状态转移数据存储空间定义为一个经验池,经验池中的每个状态转移数据称为一个经验;
步骤4-5:采用优先经验回放的经验池进行无人机控制网络更新;
每架无人机的控制网络包含两个网络:Actor网络和Critic网络;Actor网络和Critic网络也都具备双网络结构,拥有各自的target网络和eval网络;
步骤4-5-1:初始化网络参数,创建经验池B和经验池M,从每架无人机的经验池中取出不同时刻的H个经验放入经验池B;
步骤4-5-2:计算经验池B中每个经验的优先级P:
L(i)=Ps-αT (12)
其中,L(i)表示i时刻Critic网络损失,C为时刻总数,T为抽取经验次数,Ps为经验顺序,α为经验抽取次数对经验优先级影响的权重,α∈(0,1);β为优先级的放大次数,Lβ(i)表示i时刻经过优先放大的Critic网络损失,β∈(0,1);
步骤4-5-3:随机抽取经验池B中的经验,如果抽取的经验优先级P小于等于预设的优先级阈值,则将该经验放入经验池M中;重复上述抽取过程,直到经验池M被装满;
步骤4-5-4:从经验池M中随机抽取若干个经验,组成经验包<S,A,R,S′>,其中S和S′分别是抽取的若干个经验中的无人机当前时刻状态集合和下一时刻状态集合,A是抽取的若干个经验中当前时刻无人机动作策略集合,R是抽取的若干个经验中当前时刻无人机奖励值集合,下一时刻状态集合S′由当前时刻状态集合S采取集合A中的动作策略得到;
步骤4-5-5:将S′输入到每一架无人机的Actor网络中得到下一时刻所有无人机动作策略集合A′,随后将A′和S′一起输入到每一架无人机的Critic网络中,得到每一架无人机对下一时刻估计的目标Q值;
步骤4-5-6:定义Critic网络的损失函数为:
其中,θQ是Critic网络中eval网络的权重,N表示训练时抽取经验数;Q(si,ai|θQ)表示以si和ai为输入时,Critic网络中eval网络的输出Q值;
yi=ri+γQ′(si+1,μ′(si+1|θμ′)|θQ′ )(14)
式中,γ是折扣因子,θQ′是Critic网络中target网络的权重,θμ′是Actor网络中target网络的权重,μ′表示Actor网络中target网络的策略;μ′(si+1|θμ′)表示以si+1为输入时,Actor网络中target网络的输出;Q′(si+1,μ′(si+1|θμ′)|θQ′)表示以si+1和μ′(si+1|θμ′)为输入时,Critic网络中target网络的输出;
以yi为训练标签,通过back-propagation算法更新Actor网络中eval网络权重;
步骤4-5-7:采用off-policy方法进行训练和更新Critic网络中eval网络的权重;
步骤4-5-8:每间隔固定时间通过soft-update算法更新Critic网络中target网络和Actor网络中target网络的权重;
步骤4-6:重复步骤4-2到步骤4-5,当达到设定的训练次数时停止训练;
步骤4-7:从步骤2中创建的G个无人机作战环境中选取未训练的无人机作战环境进行加载,重复步骤4-1到4-6,直到加载完G个作战环境后结束训练;
步骤5:使用训练完成的多无人机任务决策网络模型实现多架无人机在动态作战环境下面对多目标时的任务决策。
由于采用了本发明提出的一种基于迁移学习改进的PMADDPG多无人机任务决策方法,取得了以下有益效果:
1.本发明提供的基于PMADDPG的多无人机任务决策方法,在未知的作战环境下,也可以能够高效的进行决策,实现无人机的任务,克服了已有技术中只能在已知或静态作战环境下进行任务决策的缺陷。
2.PMADDPG算法引用了基于模型的迁移学习算法,将多种环境学习得到的模型参数迁移到其它多个环境学习的模型当中,加快学习的速度和提高了网络的表达能力,提高了最终模型的泛化性能,并且随着学习环境数量的增加,模型的泛化能力和学习速度也会进一步提升。
3.PMADDPG算法改进了经验池存储机制,采用优先回放经验算法,通过建立两个经验池进行筛选,获得经验分布更均匀更合理的经验池,为网络训练更新提供更有价值的经验,从而加快了模型的训练速度和增强了模型的稳定性。
4.本发明深度强化学习与多无人机系统联系在一起,在日益复杂化的战场环境下,可以增加无人机群的智能化水平,提高机群的作战能力,大大保障了无人机群在未知作战环境中的生存能力,具有很好的发展前景。
附图说明
图1是本发明雷达威胁示意图。
图2是本发明导弹威胁示意图。
图3是本发明无人机最小转弯半径示意图。
图4是本发明无人机的经验池结构示意图。
图5是本发明无人机作战环境模型加载流程图。
图6是本发明无人机网络结构示意图。
图7是本发明Critic网络和Actor网络结构示意图。
图8是本发明方法测试结果轨迹图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出了一种基于迁移学习改进的PMADDPG多无人机任务决策方法,包括以下步骤:
步骤1:建立雷达威胁模型、导弹威胁模型和转弯半径约束模型
雷达威胁主要是指无人机在敌方空域飞行时,能够探测并且对无人机造成影响的防空雷达。通常假设敌方防空雷达的探测范围是360度,如图1所示。在二维空间环境中等效为以雷达位置为中心,雷达水平方向探测最远距离为半径的圆周,建立雷达威胁模型为:
其中,Rmax为雷达在水平方向上最远的探测距离,UR是无人机当前位置与雷达位置的距离;
导弹威胁主要是指可以影响无人机正常飞行的防空导弹。和雷达威胁相同,导弹威胁在二维空间环境中也可以等效为圆周,如图2所示。但是不同的是,无人机与导弹的距离越近越容易被击中,无人机的杀伤概率与无人机和导弹的距离成一定比例,建立导弹威胁模型为:
其中,UM是无人机当前位置与导弹位置的距离,dM max为导弹所能攻击的最远距离,dM min为导弹的不可逃逸距离,一旦无人机与导弹的距离小于dM min,则无人机一定会被击中;
无人机在飞行过程中,由于惯性原因无法毫无约束的进行飞行转弯,在进行转弯飞行时会有一个最小转弯半径。如果航迹决策中的转弯半径小于无人机的最小转弯半径,则实际环境中无人机就无法完成此动作决策。如图3所示,建立转弯半径约束模型为:
Ruav≥Rmin (3)
其中,Rmin为无人机的最小转弯半径,Ruav为无人机的实际转弯半径;
步骤2:设定作战环境中存在若干个威胁区、若干个目标区域、若干架无人机;随机选择一个或多个威胁区,随机选择一个或多个目标区域,随机选择一架或多架无人机,将选择的威胁区、目标区域、无人机进行组合,构建一个无人机作战环境;重复上述随机选择和组合过程,构建G个无人机作战环境;无人机作战环境采用二维平面环境,无人机飞行的航迹是连续的,无人机需要绕过威胁区域,最终达到目标区域。
作战环境模型采用连续表示的环境模型。在连续表示的环境中,无人机所处的环境是连续的,飞行的航迹也是连续的,可以将环境中的信息映射为坐标信息,用坐标的变化来反应环境的动态改变,通常可以建立二维或三维空间的环境模型。连续表示模型中无人机和目标的位置可以用坐标点来表示,并且威胁区等可以建立函数关系用数学模型来表示。
步骤3:设定作战环境中共有k架无人机、m个威胁区和k个目标区域;k架无人机分别为:UAV1,UAV2,...,UAVk;定义第i架无人机的状态Suavi包含当前时刻的速度矢量(vuavi,x,vuavi,y)和在作战环境中的坐标位置(puavi,x,puavi,y);定义环境状态Senv包含m个威胁区的坐标位置及威胁半径和k个目标区域的坐标位置,其中第i个威胁区的坐标位置和威胁半径分别表示为(Wi,x,Wi,y)和ri,y,第i个目标区域的坐标位置表示为(Mi,x,Mi,y);k架无人机从起点出发,绕过作战环境中的威胁区,最终要分别到达k个目标区域;在k架无人机向目标飞行的过程中,无人机除了需要避开威胁区域外,还要注意避免航线与其它无人机产生重合而导致碰撞,因此单独无人机机动动作的选择不再具有完全独立性,与其它飞机具有一定的相关性,同时对于k个无人机各自对应的目标也没有明确指定,需要无人机之间相互协作共同决策,保证每个目标都有无人机前往,从而协同完成任务。
步骤3-1:建立无人机的状态空间
每一架无人机的状态包括了自身的状态、其它无人机的状态和环境状态,无人机UAV1在t时刻的状态定义为:
St,uav1=(Suav1,Suav2,...,Suavk,Senv) (4)
进一步第i架无人机在t时刻的状态表示为:
无人机在各个时刻的状态构成无人机的状态空间;
步骤3-2:建立无人机的动作空间
t时刻将无人机的状态输入无人机的控制网络,控制网络输出无人机动作策略,表示为无人机瞬时速度(vx,vy),vx表示无人机沿x轴方向的速度,vy表示无人机沿y轴方向的速度;瞬时速度的大小限制在指定范围内,若超过指定范围的上限将瞬时速度设定为上限,若低于指定范围的下限将瞬时速度设定为下限;瞬时速度的方向受到无人机的转弯半径约束模型的约束,如果不符合转弯半径约束模型,则控制网络重新输出瞬时速度;
无人机在不同时刻的动作策略构成了二维向量表示的无人机动作空间;
步骤3-3:建立无人机奖励函数
针对躲避威胁区设定一个威胁奖励,当无人机进入威胁区后,会被给予一个负奖励,定义威胁奖励函数Rf,如下式:
式中,DW为无人机与威胁区的距离;
在无人机的飞行过程中,每一架无人机都应和其它无人机保持安全距离,一旦无人机的位置过近,就会互相产生飞行威胁甚至发生碰撞,所以为了避免无人机发生碰撞,设定碰撞奖励函数Rp,当无人机间的距离小于安全距离时,就会给予其负奖励。碰撞奖励Rp如下式:
式中,Ddij为第i架无人机与第j架无人机之间的距离,Dd为无人机之间的最小安全距离;
为了在开始训练时,能够准确的引导无人机选择动作策略,并且让无人机每一步都拥有一个奖励,在这里设计了一个距离奖励Rr,计算每一时刻,无人机与目标的最近距离,以距离的负值作为奖励值,距离越近,奖励值越大。
设定距离奖励函数Rr,如下式:
式中,dmin是每个目标区域距最近无人机的距离之和,(puavi,x,puavi,y)表示第i架无人机在作战环境中的坐标位置,(Mj,x,Mj,y)表示第j个目标区域在作战环境中的坐标位置;
最终无人机奖励函数设定为:
Ri=Rf+Rp+Rr (10)
式中,Ri表示第i架无人机的奖励值;
步骤4:如图5所示,构建与训练采用迁移学习的多无人机任务决策网络模型;
步骤4-1:加载步骤2中创建的任一无人机作战环境;
步骤4-2:无人机随机产生动作,无人机与威胁区、无人机与目标区域及无人机之间的相对位置发生变化,从而无人机作战环境发生改变;
步骤4-3:根据步骤3-3的无人机奖励函数(10)计算无人机随机产生动作后得到的奖励值,从而得到无人机状态转移数据;无人机状态转移数据包括无人机当前时刻状态、无人机动作策略、无人机奖励值、无人机下一时刻的状态;无人机状态转移数据表示为<si,ai,ri,si+1>,其中si表示无人机当前时刻的状态,ai表示当前时刻无人机动作策略,ri当前时刻无人机奖励值,si+1表示无人机下一时刻的状态;
步骤4-4:每架无人机在每一时刻都不断地产生状态转移数据并存储在自身的数据存储空间,每一架无人机的状态转移数据存储空间定义为一个经验池,如图4所示,经验池中的每个状态转移数据称为一个经验;经验池是一种经验回放缓存结构,用来专门贮存学习的经验,回放缓存中仅储存固定数量的最近经验,当有新的信息输入时,需要删除旧的信息;
步骤4-5:采用优先经验回放的经验池进行无人机控制网络更新
如图6所示,每架无人机的控制网络包含两个网络:Actor网络和Critic网络;Actor网络和Critic网络也都具备双网络结构,拥有各自的target网络和eval网络;
步骤4-5-1:初始化网络参数,创建经验池B和经验池M,从每架无人机的经验池中取出不同时刻的H个经验放入经验池B;
步骤4-5-2:计算经验池B中每个经验的优先级P:
L(i)=Ps-αT (12)
其中,L(i)表示i时刻Critic网络损失,C为时刻总数,T为抽取经验次数,Ps为经过排序后的经验顺序,α为经验抽取次数对经验优先级影响的权重,α值越大,说明抽选次数对经验优先级的影响越大,α∈(0,1);β为优先级的放大次数,Lβ(i)表示i时刻经过优先放大的Critic网络损失,β∈(0,1);
步骤4-5-3:随机抽取经验池B中的经验,如果抽取的经验优先级P小于等于预设的优先级阈值,则将该经验放入经验池M中;重复上述抽取过程,直到经验池M被装满;
步骤4-5-4:从经验池M中随机抽取若干个经验,组成经验包<S,A,R,S′>,其中S和S′分别是抽取的若干个经验中的无人机当前时刻状态集合和下一时刻状态集合,A是抽取的若干个经验中当前时刻无人机动作策略集合,R是抽取的若干个经验中当前时刻无人机奖励值集合,下一时刻状态集合S′由当前时刻状态集合S采取集合A中的动作策略得到;
步骤4-5-5:将S′输入到每一架无人机的Actor网络中得到下一时刻所有无人机动作策略集合A′,随后将A′和S′一起输入到每一架无人机的Critic网络中,得到每一架无人机对下一时刻估计的目标Q值;
步骤4-5-6:实际Q值通过使用Critic网络得到,再利用时间差分法来更新Critic网络,用Q值的策略梯度来更新Actor网络,定义Critic网络的损失函数为:
其中,θQ是Critic网络中eval网络的权重,N表示训练时抽取经验数;Q(si,ai|θQ)表示以si和ai为输入时,Critic网络中eval网络的输出Q值;
yi=ri+γQ′(si+1,μ′(si+1|θμ′)|θQ′) (14)
式中,γ是折扣因子,θQ′是Critic网络中target网络的权重,θμ′是Actor网络中target网络的权重,μ′表示Actor网络中target网络的策略;μ′(si+1|θμ′)表示以si+1为输入时,Actor网络中target网络的输出;Q′(si+1,μ′(si+1|θμ′)|θQ′)表示以si+1和μ′(si+1|θμ′)为输入时,Critic网络中target网络的输出;
以yi为训练标签,通过back-propagation算法更新Actor网络中eval网络权重;
步骤4-5-7:计算Actor网络的策略梯度时,采用off-policy方法进行训练和更新Critic网络中eval网络的权重;
策略梯度如下式:
当状态s根据ρβ分布时,策略梯度是的期望值;使用蒙特卡罗算法估算的值;其中,θμ是Actor网络中eval网络的权重,μ(s|θμ)表示Actor网络中eval网络在状态s时的输出动作,Q(s,a|θQ)表示Critic网络中eval网络在输入状态s、动作a时的输出价值,ρβ表示策略,表示对a求梯度,表示对θμ求梯度;
步骤4-5-8:每间隔固定时间通过soft-update算法更新Critic网络中target网络和Actor网络中target网络的权重;更新过程如下式:
其中τ表示soft-update过程系数;
所有无人机依照相同的方法来更新自身的网络,只是每一个无人机的输入有所差别,而在其它方面的更新流程相同;
步骤4-6:重复步骤4-2到步骤4-5,当达到设定的训练次数时停止训练;
步骤4-7:从步骤2中创建的G个无人机作战环境中选取未训练的无人机作战环境进行加载,重复步骤4-1到步骤4-6,直到加载完G个作战环境后结束训练;
上述步骤中所述加载无人机作战环境的过程是在无人机与环境进行交互的前提下,当无人机面对新的作战环境时,将无人机之前在某一种或者多种环境上已经学好的模型参数迁移到新的环境当中。
步骤5:使用训练完成的多无人机任务决策网络模型实现多架无人机在动态作战环境下面对多目标时的任务决策。
实施例:
本实施例主要设计了PMADDPG算法,采用了确定性动作策略。针对PMADDPG算法,每进行一次训练,就输入新的环境,进行一次迁移学习,并且经验池B的大小为2000000,经验池M的大小为1000000。Actor网络结构为[56;56;2]的全连接神经网络,Critic网络的结构是[118;78;36;1]的全连接神经网络,如图7所示,具体网络参数设计如表1所示:
表1 具体网络参数
多无人机任务决策结果如图8所示,图中正方形阴影区域为威胁区,圆形区域为目标区域,可以看出3架无人机飞行轨迹全都进入了目标区域,而且躲避了所有的威胁区。结果表明,使用基于PMADDPG所构建的多无人机任务决策网络可以快速的收敛并且保证较高的精度,可以满足作战时不同环境多无人机任务决策的要求。可以看出,本发明提出的PMADDPG算法在新环境下具有更强的泛化能力。
Claims (1)
1.一种基于迁移学习改进的PMADDPG多无人机任务决策方法,其特征在于,包括以下步骤:
步骤1:建立雷达威胁模型、导弹威胁模型和转弯半径约束模型
建立雷达威胁模型为:
其中,Rmax为雷达在水平方向上最远的探测距离,UR是无人机当前位置与雷达位置的距离;
建立导弹威胁模型为:
其中,UM是无人机当前位置与导弹位置的距离,dMmax为导弹所能攻击的最远距离,dMmin为导弹的不可逃逸距离,一旦无人机与导弹的距离小于dMmin,则无人机一定会被击中;
建立转弯半径约束模型为:
Ruav≥Rmin (3)
其中,Rmin为无人机的最小转弯半径,Ruav为无人机的实际转弯半径;
步骤2:设定作战环境中存在若干个威胁区、若干个目标区域、若干架无人机;随机选择一个或多个威胁区,随机选择一个或多个目标区域,随机选择一架或多架无人机,将选择的威胁区、目标区域、无人机进行组合,构建一个无人机作战环境;重复上述随机选择和组合过程,构建G个无人机作战环境;
步骤3:设定作战环境中共有k架无人机、m个威胁区和k个目标区域;k架无人机分别为:UAV1,UAV2,...,UAVk;定义第i架无人机的状态Suavi包含当前时刻的速度矢量(vuavi,x,vuavi,y)和在作战环境中的坐标位置(puavi,x,puavi,y);定义环境状态Senv包含m个威胁区的坐标位置及威胁半径和k个目标区域的坐标位置,其中第i个威胁区的坐标位置和威胁半径分别表示为(Wi,x,Wi,y)和ri,y,第i个目标区域的坐标位置表示为(Mi,x,Mi,y);k架无人机从起点出发,绕过作战环境中的威胁区,最终要分别到达k个目标区域;
步骤3-1:建立无人机的状态空间
每一架无人机的状态包括了自身的状态、其它无人机的状态和环境状态,无人机UAV1在t时刻的状态定义为:
St,uav1=(Suav1,Suav2,...,Suavk,Senv) (4)
进一步第i架无人机在t时刻的状态表示为:
无人机在各个时刻的状态构成无人机的状态空间;
步骤3-2:建立无人机的动作空间
t时刻将无人机的状态输入无人机的控制网络,控制网络输出无人机动作策略,表示为无人机瞬时速度(vx,vy),vx表示无人机沿x轴方向的速度,vy表示无人机沿y轴方向的速度;瞬时速度的大小限制在指定范围内,若超过指定范围的上限将瞬时速度设定为上限,若低于指定范围的下限将瞬时速度设定为下限;瞬时速度的方向受到无人机的转弯半径约束模型的约束,如果不符合转弯半径约束模型,则控制网络重新输出瞬时速度;
无人机在不同时刻的动作策略构成了二维向量表示的无人机动作空间;
步骤3-3:建立无人机奖励函数
定义威胁奖励函数Rf,如下式:
式中,DW为无人机与威胁区的距离;
设定碰撞奖励函数Rp,如下式:
式中,Ddij为第i架无人机与第j架无人机之间的距离,Dd为无人机之间的最小安全距离;
设定距离奖励函数Rr,如下式:
式中,dmin是每个目标区域距最近无人机的距离之和,(puavi,x,puavi,y)表示第i架无人机在作战环境中的坐标位置,(Mj,x,Mj,y)表示第j个目标区域在作战环境中的坐标位置;
最终无人机奖励函数设定为:
Ri=Rf+Rp+Rr (10)
式中,Ri表示第i架无人机的奖励值;
步骤4:构建与训练采用迁移学习的多无人机任务决策网络模型;
步骤4-1:加载步骤2中创建的任一无人机作战环境;
步骤4-2:无人机随机产生动作,无人机与威胁区、无人机与目标区域及无人机之间的相对位置发生变化,从而无人机作战环境发生改变;
步骤4-3:根据步骤3-3的无人机奖励函数(10)计算无人机随机产生动作后得到的奖励值,从而得到无人机状态转移数据;无人机状态转移数据包括无人机当前时刻状态、无人机动作策略、无人机奖励值、无人机下一时刻的状态;无人机状态转移数据表示为<si,ai,ri,si+1>,其中si表示无人机当前时刻的状态,ai表示当前时刻无人机动作策略,ri当前时刻无人机奖励值,si+1表示无人机下一时刻的状态;
步骤4-4:每架无人机在每一时刻都不断地产生状态转移数据并存储在自身的数据存储空间,每一架无人机的状态转移数据存储空间定义为一个经验池,经验池中的每个状态转移数据称为一个经验;
步骤4-5:采用优先经验回放的经验池进行无人机控制网络更新;
每架无人机的控制网络包含两个网络:Actor网络和Critic网络;Actor网络和Critic网络也都具备双网络结构,拥有各自的target网络和eval网络;
步骤4-5-1:初始化网络参数,创建经验池B和经验池M,从每架无人机的经验池中取出不同时刻的H个经验放入经验池B;
步骤4-5-2:计算经验池B中每个经验的优先级P:
L(i)=Ps-αT (12)
其中,L(i)表示i时刻Critic网络损失,C为时刻总数,T为抽取经验次数,Ps为经验顺序,α为经验抽取次数对经验优先级影响的权重,α∈(0,1);β为优先级的放大次数,Lβ(i)表示i时刻经过优先放大的Critic网络损失,β∈(0,1);
步骤4-5-3:随机抽取经验池B中的经验,如果抽取的经验优先级P小于等于预设的优先级阈值,则将该经验放入经验池M中;重复上述抽取过程,直到经验池M被装满;
步骤4-5-4:从经验池M中随机抽取若干个经验,组成经验包<S,A,R,S′>,其中S和S′分别是抽取的若干个经验中的无人机当前时刻状态集合和下一时刻状态集合,A是抽取的若干个经验中当前时刻无人机动作策略集合,R是抽取的若干个经验中当前时刻无人机奖励值集合,下一时刻状态集合S′由当前时刻状态集合S采取集合A中的动作策略得到;
步骤4-5-5:将S′输入到每一架无人机的Actor网络中得到下一时刻所有无人机动作策略集合A′,随后将A′和S′一起输入到每一架无人机的Critic网络中,得到每一架无人机对下一时刻估计的目标Q值;
步骤4-5-6:定义Critic网络的损失函数为:
其中,θQ是Critic网络中eval网络的权重,N表示训练时抽取经验数;Q(si,ai|θQ)表示以si和ai为输入时,Critic网络中eval网络的输出Q值;
yi=ri+γQ′(si+1,μ′(si+1|θμ′)|θQ′) (14)
式中,γ是折扣因子,θQ′是Critic网络中target网络的权重,θμ′是Actor网络中target网络的权重,μ′表示Actor网络中target网络的策略;μ′(si+1|θμ′)表示以si+1为输入时,Actor网络中target网络的输出;Q′(si+1,μ′(si+1|θμ′)|θQ′)表示以si+1和μ′(si+1|θμ′)为输入时,Critic网络中target网络的输出;
以yi为训练标签,通过back-propagation算法更新Actor网络中eval网络权重;
步骤4-5-7:采用off-policy方法进行训练和更新Critic网络中eval网络的权重;
步骤4-5-8:每间隔固定时间通过soft-update算法更新Critic网络中target网络和Actor网络中target网络的权重;
步骤4-6:重复步骤4-2到步骤4-5,当达到设定的训练次数时停止训练;
步骤4-7:从步骤2中创建的G个无人机作战环境中选取未训练的无人机作战环境进行加载,重复步骤4-1到4-6,直到加载完G个作战环境后结束训练;
步骤5:使用训练完成的多无人机任务决策网络模型实现多架无人机在动态作战环境下面对多目标时的任务决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010691509.0A CN111859541B (zh) | 2020-07-17 | 2020-07-17 | 一种基于迁移学习改进的pmaddpg多无人机任务决策方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010691509.0A CN111859541B (zh) | 2020-07-17 | 2020-07-17 | 一种基于迁移学习改进的pmaddpg多无人机任务决策方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111859541A CN111859541A (zh) | 2020-10-30 |
CN111859541B true CN111859541B (zh) | 2022-10-14 |
Family
ID=73001798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010691509.0A Active CN111859541B (zh) | 2020-07-17 | 2020-07-17 | 一种基于迁移学习改进的pmaddpg多无人机任务决策方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111859541B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11907335B2 (en) * | 2020-10-16 | 2024-02-20 | Cognitive Space | System and method for facilitating autonomous target selection |
CN112486192B (zh) * | 2020-11-18 | 2022-04-08 | 四川大学 | 一种基于目的地运动预测的飞行器引导迁移学习训练算法 |
CN112749496B (zh) * | 2020-11-25 | 2022-09-27 | 中国人民解放军国防科技大学 | 基于时序作战环的装备体系作战效能评估方法及系统 |
CN112633415B (zh) * | 2021-01-11 | 2023-05-19 | 中国人民解放军国防科技大学 | 基于规则约束训练的无人机集群智能任务执行方法和装置 |
CN113093803B (zh) * | 2021-04-03 | 2022-10-14 | 西北工业大学 | 一种基于e-sac算法的无人机空战运动控制方法 |
CN113505538B (zh) * | 2021-07-28 | 2022-04-12 | 哈尔滨工业大学 | 一种基于计算机生成兵力的无人机自主作战系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110673620B (zh) * | 2019-10-22 | 2020-10-27 | 西北工业大学 | 一种基于深度强化学习的四旋翼无人机航线跟随控制方法 |
CN111260031B (zh) * | 2020-01-14 | 2022-03-01 | 西北工业大学 | 一种基于深度强化学习的无人机集群目标防卫方法 |
-
2020
- 2020-07-17 CN CN202010691509.0A patent/CN111859541B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111859541A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111880563B (zh) | 一种基于maddpg的多无人机任务决策方法 | |
CN111859541B (zh) | 一种基于迁移学习改进的pmaddpg多无人机任务决策方法 | |
CN113791634B (zh) | 一种基于多智能体强化学习的多机空战决策方法 | |
Yang et al. | Maneuver decision of UAV in short-range air combat based on deep reinforcement learning | |
CN112861442B (zh) | 基于深度强化学习的多机协同空战规划方法及系统 | |
CN113589842B (zh) | 一种基于多智能体强化学习的无人集群任务协同方法 | |
CN112180967B (zh) | 基于评判-执行架构的多无人机协同对抗决策方法 | |
CN110928329B (zh) | 一种基于深度q学习算法的多飞行器航迹规划方法 | |
CN101122974A (zh) | 基于Voronoi图和蚁群优化算法的无人机航路规划方法 | |
CN113095481A (zh) | 一种基于并行自我博弈的空战机动方法 | |
CN112198892B (zh) | 一种多无人机智能协同突防对抗方法 | |
CN114330115B (zh) | 一种基于粒子群搜索的神经网络空战机动决策方法 | |
CN115291625A (zh) | 基于多智能体分层强化学习的多无人机空战决策方法 | |
CN114510078A (zh) | 一种基于深度强化学习的无人机机动规避决策方法 | |
CN113625569B (zh) | 一种基于混合决策模型的小型无人机防控决策方法及系统 | |
Weiren et al. | Air combat autonomous maneuver decision for one-on-one within visual range engagement base on robust multi-agent reinforcement learning | |
CN114740883B (zh) | 一种协同点侦察任务规划跨层联合优化方法 | |
Wu et al. | Heterogeneous mission planning for multiple uav formations via metaheuristic algorithms | |
CN113741186B (zh) | 一种基于近端策略优化的双机空战决策方法 | |
CN111797966A (zh) | 一种基于改进羊群算法的多机协同全局目标分配方法 | |
CN114815891A (zh) | 一种基于per-idqn的多无人机围捕战术方法 | |
CN117313561A (zh) | 无人机智能决策模型训练方法及无人机智能决策方法 | |
Shuo et al. | Research on distributed task allocation of loitering munition swarm | |
CN115220473A (zh) | 一种多无人机蜂群协同任务动态分配方法 | |
CN112818496B (zh) | 基于蚁群算法的要地防空策略 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |