CN103488171A - 一种基于情景构建的无人机自主鲁棒决策方法 - Google Patents

一种基于情景构建的无人机自主鲁棒决策方法 Download PDF

Info

Publication number
CN103488171A
CN103488171A CN201310455107.0A CN201310455107A CN103488171A CN 103488171 A CN103488171 A CN 103488171A CN 201310455107 A CN201310455107 A CN 201310455107A CN 103488171 A CN103488171 A CN 103488171A
Authority
CN
China
Prior art keywords
red
blue
decision
unmanned plane
getlocation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310455107.0A
Other languages
English (en)
Other versions
CN103488171B (zh
Inventor
胡笑旋
陈意
罗贺
马华伟
靳鹏
夏维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201310455107.0A priority Critical patent/CN103488171B/zh
Publication of CN103488171A publication Critical patent/CN103488171A/zh
Application granted granted Critical
Publication of CN103488171B publication Critical patent/CN103488171B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

本发明公开了一种基于情景构建的无人机自主鲁棒决策方法,其特征包括:1、定义战场中红方无人机的决策变量和蓝方阵地的决策变量;2、情景构建;3、利用影响图建模方法构建影响图;4、计算红方无人机决策候选行动方案集中每一种决策候选行动方案在情景集中的每一个情景下的期望效用值;5、红方无人机根据期望效用值进行鲁棒决策。本发明能有效解决无人机在复杂战场环境下的自主决策能力弱的问题,使得无人机在各种情景中都能进行自主决策,从而提高无人机的自主决策效率和决策效果,实现最优的行动方案选择,并保证决策方案的可行性、有效性和安全性。

Description

一种基于情景构建的无人机自主鲁棒决策方法
技术领域
本发明涉及一种复杂战场环境下的基于情景构建的无人机自主鲁棒决策方法,属于计算机仿真与方法优化技术领域。
背景技术
无人机在现代战争中扮演着越来越重要的角色。在无人机的应用过程中,越来越强调其智能性、自主性,即在面临多变复杂外界条件时,要求无人机能够自主决策,决定自身下一步的行动方案。如无人机在执行情报搜索、目标追踪、目标侦查和精确打击等任务时,需要自主规划航路、自主采取机动动作、自主决定攻击方案等。这些决策行为通常是在复杂战场环境中做出的,存在巨大的风险性。因此,无人机在面临复杂战场环境时,自主决策应保证行动方案是可行的且在不同情景中能够有效执行,同时还能够最大幅度的降低风险,即无人机自主决策的鲁棒性。
无人机自主决策的研究目前主要集中于路径规划、任务分配和飞行控制领域。通常是根据决策任务提出路径规划算法、任务协同策略和资源分配优化算法,研究过程中很少考虑无人机自主决策时所处的复杂战场环境。然而,由于复杂战场环境具有多变性、动态性、高风险性等特点,无人机难以在有限的战斗时间内保证有效的自主决策。现存无人机自主决策的研究内容很少针对复杂战场环境下的无人机自主决策方法进行研究,往往只考虑某种特定环境下的无人机自主决策,导致无人机在面临复杂多变战场环境时,无法快速准确进行决策,且很难有效执行决策的同时最大幅度的降低决策风险,即保证决策的鲁棒性。所以,无人机在复杂战场环境下自主决策方法的研究显得尤为重要。目前还未发现复杂战场环境下无人机自主鲁棒决策方法的相关研究。
发明内容
本发明为了克服现有技术存在的不足之处,提出一种基于情景构建的无人机自主鲁棒决策方法,能有效解决无人机在复杂战场环境下的自主决策能力弱的问题,使得无人机在各种情景中都能进行自主决策,从而提高无人机的自主决策效率和决策效果,实现最优的行动方案选择,并保证决策方案的可行性、有效性和安全性。
本发明为解决以上技术问题采用如下方案:
本发明一种基于情景构建的无人机自主鲁棒决策方法,是应用于红方无人机攻打位于蓝方阵地中的蓝方高价值目标的复杂战场环境中,其特点是,所述无人机自主鲁棒决策方法按如下步骤进行:
步骤1:定义复杂战场环境中红方无人机的决策变量和蓝方阵地的决策变量
令红方无人机携带电子支援措施状态Red_ESMState={开,关}、红方无人机携带SAR雷达状态Red_SARState={开,关}、红方无人机机载导弹类型Red_Missile={A,B}、红方无人机飞行高度Red_Height={中,低}、红方无人机发现蓝方高价值目标位置Red_GetLocation={是,否}、红方无人机被击中Red_Destroyed={是,否}、红方无人机攻击效果Red_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁}、红方无人机决策候选行动方案集Red_Action={D1,D2,...,Di,...,Dn},n∈N,N为自然数,所述红方无人机决策候选行动方案集Red_Action中,Di为第i种红方无人机决策候选行动方案,i∈n;红方无人机攻打蓝方阵地的效用={Utility};
令蓝方雷达状态Blue_RadarState={开,关}、蓝方电子干扰设备状态Blue_ECMState={开,关}、蓝方高炮Blue_HasAA={是,否}、蓝方导弹类型Blue_Missile={中程导弹,近程导弹,无导弹}、蓝方发现红方无人机位置Blue_GetLocation={是,否};
令红方无人机与蓝方高价值目标之间的距离Distance={远,中,近};
步骤2:情景构建
利用所述红方无人机携带电子支援措施状态Red_ESMState、所述红方无人机携带SAR雷达状态Red_SARState、所述红方无人机机载导弹类型Red_Missile、所述红方无人机飞行高度Red_Height、所述蓝方雷达状态Blue_RadarState、所述蓝方电子干扰设备状态Blue_ECMState、所述蓝方高炮Blue_HasAA、所述蓝方导弹类型Blue_Missile以及红方无人机与蓝方高价值目标之间的距离Distance构建情景集S={S1,S2,...,Sj,...,Sm},m∈N,所述情景集S中第j个情景表示为:
Sj=(Red_ESMState(j),Red_SARState(j),Red_Missile(j),Red_Height(j),Blue_RadarState(j),Blue_ECMState(j),Blue_HasAA(j),Blue_Missile(j),Distance(j)),j∈m;
步骤3:根据所述红方无人机的决策变量和蓝方阵地的决策变量利用影响图建模方法按如下步骤构建影响图:
步骤3.1:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建有向无环图G:
G=(V,E)              (1)
式(1)中,V代表所述有向无环图中节点的集合,E代表所述有向无环图中有向边的集合,并有:
V=VC∪VD∪VU               (2)
式(2)中VC代表所述有向无环图中所有的随机节点,VD代表所述有向无环图中所有的决策节点,VU代表所述有向无环图中所有的效用节点,并有:
VC=(Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed);
VD=(Red_Action);
VU=(Utility);
所述有向无环图中有向边的集合E={(Red_Missile,Red_Action),(Red_Height,Red_Action),(Red_ESMState,Red_Action),(Red_SARState,Red_Action),(Distance,Red_Action),(Blue_ECMState,Red_GetLocation),(Distance,Red_GetLocation),(Red_ESMState,Red_GetLocation),(Red_SARState,Red_GetLocation),(Red_GetLocation,Red_Result),(Distance,Red_Result),(Red_Action,Red_Result),(Red_Height,Red_Result),(Distance,Blue_GetLocation),(Red_SARState,Blue_GetLocation),(Blue_RadarState,Blue_GetLocation),(Red_Height,Red_Destroyed),(Blue_GetLocation,Red_Destroyed),(Blue_Missile,Red_Destroyed),(Distance,Red_Destroyed),(Red_Action,Red_Destroyed),(Blue_HasAA,Red_Destroyed),(Red_Result,Utility),(Red_Destroyed,Utility)};
由所述所有的随机节点VC、所有的决策节点VD和所有的效用节点VU以及有向边的集合E构建出所述有向无环图;
步骤3.2:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建变量集合X;
X=XC∪XD               (3)
式(3)中,XC是随机变量集合,并有:
XC={Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed};
根据所述红方无人机的决策变量和蓝方阵地的决策变量获得所述随机变量集合XC中每个随机变量的状态空间Ω为:
ΩRed_ESMState={开,关},ΩRed_SARState={开,关},ΩRed_Missile={A,B}、ΩRed_Height={中,低},ΩBlue_RadarState={开,关},ΩBlue_ECMState={开,关},ΩBlue_HasAA={是,否},ΩBlue_Missile={中程导弹,近程导弹,无导弹},ΩDistance={远,中,近},ΩRed_GetLocation={是,否},ΩBlue_GetLocation={是,否},ΩRed_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁},ΩRed_Destroyed={是,否};
式(3)中,XD是决策变量集合,并有:
XD={Red_Action};
根据所述红方无人机决策候选行动方案集Red_Action获得决策变量集合XD中决策变量Red_Action的备选方案集为{D1,D2,……,Dn},n∈N;
步骤3.3:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建随机变量概率分布的集合;
所述随机变量概率分布的集合为:
Pr={P(Red_ESMState),P(Red_SARState),P(Red_Missile),P(Red_Height),P(Blue_RadarState),P(Blue_ECMState),P(Blue_HasAA),P(Blue_Missile),P(Red_GetLocationPar(Red_GetLocation)),P(Blue_GetLocationPar(Blue_GetLocation)),P(Red_ResultPar(Red_Result)),P(Red_DestroyedPar(Red_Destroyed)),P(Distance)};
                                (4)
式(4)中,Par(Red_GetLocation)为所述随机变量集合XC中随机变量Red_GetLocation的父节点集合,并有Par(Red_GetLocation)={Red_ESMState,Red_SARState,Blue_ECMState,Distance};
Par(Blue_GetLocation)为所述随机变量Blue_GetLocation的父节点集合,并有Par(Blue_GetLocation)={Blue_RadarState,Red_SARState,Distance};
Par(Red_Result)为所述随机变量Red_Result的父节点集合,并有Par(Red_Result)={Red_Height,Red_Action,Distance,Red_GetLocation};
Par(Red_Destoryed)为所述随机变量Red_Destoryed的父节点集合,并有Par(Red_Destoryed)={Red_Height,Blue_HasAA,Blue_Missile,Distance,Red_Action,Blue_GetLocation};
步骤3.4:利用所述红方无人机的决策变量构建效用函数的集合;
令所述效用函数的集合为U:
U={U(Red_Result,Red_Destroyed)}                     (5)
式(5)中,U(Red_Result,Red_Destroyed)为所述所有的效用节点VU中效用节点Utility的效用函数,并有:
Figure BDA0000389888270000051
式(6)中,U1、U2、U3、U4、U5、U6、U7和U8分别表示在不同条件下效用节点Utility的效用函数值;
利用所述有向无环图、变量集合、随机变量概率分布的集合和效用函数的集合构建出所述影响图;
步骤4:根据所述影响图利用式(7)获得红方无人机决策候选行动方案集Red_Action中每一种红方无人机决策候选行动方案在情景集S中的每一个情景下的期望效用值EU(Di,Sj):
EU(Di,Sj)=ΣU(Red_Result,Red_Destroyed)P(Red_Result,Red_Destroyede)        (7)
式(7)中,e代表证据,Di表示第i种红方无人机决策候选行动方案,i∈n,Sj表示第j个情景,j∈m;
步骤5:红方无人机根据所述期望效用值EU(Di,Sj)进行鲁棒决策;
步骤5.1:选择鲁棒决策候选行动方案;
令红方无人机决策候选行动方案集Red_Action中的决策候选行动方案Df,在情景集S中满足min(EU(Df,Sj))≥α,(f∈n,j∈m,j=1,2,...,m),α为预定的收益阈值,则决策候选行动方案Df为鲁棒决策候选行动方案并保留Df
判断所有的决策候选行动方案,保留所有的鲁棒决策候选行动方案,删除剩余决策候选行动方案;
步骤5.2:识别最优鲁棒行动方案;
利用式(8)获得所述所有的鲁棒决策候选行动方案在每一个情景中的最大期望效用值集EU+
EU + = { EU j + | EU j + = max EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 8 )
式(8)中:
Figure BDA0000389888270000062
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最大期望效用值;
利用式(9)获得所述鲁棒决策候选行动方案在每一个情景中的最小期望效用值集EU-
EU - = { EU j - | EU j - = min EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 9 )
式(9)中:
Figure BDA0000389888270000064
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最小期望效用值;
利用式(10)获得所有的鲁棒决策候选行动方案与所述最大期望效用值集EU+的距离
Figure BDA0000389888270000065
d i + = Σ j = 1 m ( EU ( D i , S j ) - EU j + ) 2 - - - ( 10 )
利用式(11)获得所有的鲁棒决策候选行动方案与所述最小期望效用值集EU-的距离
d i - = Σ j = 1 m ( EU ( D i , S j ) - EU j - ) 2 - - - ( 11 )
利用式(12)获得所有的鲁棒决策候选行动方案的贴近度ci
c i = d i + d i + + d i - - - - ( 12 )
选择所述贴近度ci最大的鲁棒决策候选行动方案为最优鲁棒行动方案。
与已有技术相比,本发明有益效果体现在:
1、本发明提出了一套新的解决复杂战场环境下无人机自主鲁棒决策的方法,将复杂战场环境中的各种影响因素通过决策变量来表征,利用决策变量进行情景构建,再结合影响图建模方法获得影响图,然后利用影响图得到的期望效用值进行鲁棒决策,从而获得最优鲁棒行动方案;
2、本发明通过情景构建将已有技术中只能在一种特定情景中实现的无人机自主决策改进为在复杂战场环境中各种情景发生时都能够进行有效决策,在复杂战场环境中将不同情景引入无人机自主决策过程中,从而保证无人机自主决策能够适用于各种不同情景,体现了方案的可行性;
3、本发明将自主决策建模过程与影响图建模结合起来,能够简单、直观的描述出各决策变量间关系,利用影响图推理计算出决策候选行动方案的期望效用值,提高了无人机自主决策的准确性,保证决策方案的有效性;
4、本发明在复杂战场环境下引入了鲁棒决策的思想,使得无人机自主决策的行动方案能够在不同情景中有效实施,同时最大幅度降低无人机执行决策过程中的风险,即保证决策的鲁棒性,从而大幅度提高了无人机在复杂战场环境中自主决策的安全性。
附图说明
图1是本发明的决策方法流程图;
图2是无人机决策影响图。
具体实施方式
本发明一种基于情景构建的无人机自主鲁棒决策方法,是应用于红方无人机攻打位于蓝方阵地中的蓝方高价值目标的复杂战场环境中,蓝方阵地是以蓝方高价值目标为中心,周围部署雷达、电子干扰设备、高炮和导弹的蓝方防空阵地,蓝方高价值目标可以是机场或油库或弹药库或桥梁或通讯中心或指挥中心等自身无打击防御能力的目标,如图1所示,一种基于情景构建的无人机自主鲁棒决策方法按照如下步骤进行:
步骤1:定义战场中红方无人机的决策变量和蓝方阵地的决策变量
令红方无人机携带电子支援措施状态Red_ESMState={开,关}、红方无人机携带SAR雷达状态Red_SARState={开,关}、红方无人机机载导弹类型Red_Missile={A,B}、红方无人机飞行高度Red_Height={中,低}、红方无人机发现蓝方高价值目标位置Red_GetLocation={是,否}、红方无人机被击中Red_Destroyed={是,否}、红方无人机攻击效果Red_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁}、红方无人机决策候选行动方案集Red_Action={D1,D2,...,Di,...,Dn},n∈N,N为自然数,红方无人机决策候选行动方案集Red_Action中,Di为第i种红方无人机决策候选行动方案,i∈n;具体实施中,n=4,第一种红方无人机决策候选行动方案D1=攻击蓝方高价值目标,第二种红方无人机决策候选行动方案D2=攻击蓝方防空阵地,第三种红方无人机决策候选行动方案D3=规避,第四种红方无人机决策候选行动方案D4=突防;红方无人机攻打蓝方阵地的效用={Utility};
令蓝方雷达状态Blue_RadarState={开,关}、蓝方电子干扰设备状态Blue_ECMState={开,关}、蓝方高炮Blue_HasAA={是,否}、蓝方导弹类型Blue_Missile={中程导弹,近程导弹,无导弹}、蓝方发现红方无人机位置Blue_GetLocation={是,否};
令红方无人机与蓝方高价值目标之间的距离Distance={远,中,近};
步骤2:情景构建
利用红方无人机携带电子支援措施状态Red_ESMState、红方无人机携带SAR雷达状态Red_SARState、红方无人机机载导弹类型Red_Missile、红方无人机飞行高度Red_Height、蓝方雷达状态Blue_RadarState、蓝方电子干扰设备状态Blue_ECMState、蓝方高炮Blue_HasAA、蓝方导弹类型Blue_Missile以及红方无人机与蓝方高价值目标之间的距离Distance构建情景集S={S1,S2,...,Sj,...,Sm},m∈N,情景集S中第j个情景表示为:
Sj=(Red_ESMState(j),Red_SARState(j),Red_Missile(j),Red_Height(j),Blue_RadarState(j),Blue_ECMState(j),Blue_HasAA(j),Blue_Missile(j),Distance(j)),j∈m;
本实施例中,构建了12个典型情景如下:
S1=(开,开,A,中,开,开,是,中程导弹,中);
S2=(开,开,A,中,开,开,是,近程导弹,中);
S3=(开,开,A,中,开,开,是,无导弹,中);
S4=(开,开,A,中,开,关,是,中程导弹,中);
S5=(开,开,A,中,开,关,是,近程导弹,中);
S6=(开,开,A,中,开,关,是,无导弹,中);
S7=(开,开,A,中,开,开,否,中程导弹,中);
S8=(开,开,A,中,开,开,否,近程导弹,中);
S9=(开,开,A,中,开,开,否,无导弹,中);
S10=(开,开,A,中,开,关,否,中程导弹,中);
S11=(开,开,A,中,开,关,否,近程导弹,中);
S12=(开,开,A,中,开,关,否,无导弹,中);
步骤3:根据红方无人机的决策变量和蓝方阵地的决策变量利用影响图建模方法构建影响图;
影响图是一种有向无环图模型,一个影响图可被定义为四元组ID=(G,X,Pr,U),包括:
1)一个有向无环图G=(V,E)。V代表图中节点的集合,V=VC∪VD∪VU。其中VC代表所有的随机节点,VD代表所有的决策节点,VU代表所有的效用节点,E代表图中有向边的集合。
2)一个变量集合X,X=XC∪XD。XC是随机变量集合,XC={C1,C2,...},随机变量集合XC中任意一个随机变量Cp(p=1,2,...)的状态空间
Figure BDA0000389888270000092
任意一个随机变量Cp对应所有的随机节点VC中的一个随机节点;XD是决策变量集合,XD={D1,D2,...},决策变量集合XD中任意一个决策变量Dq(q=1,2,...)的备选方案集为{dq1,dq2,...},任意一个决策变量对应所有的决策节点VD中的一个决策节点。
3)一个概率分布的集合Pr。任意一个随机变量Cp对应一个概率分布P(CpPar(Cp)),Par(Cp)表示Cp的父节点集合。
4)一个效用函数的集合U。影响图中任意一个效用节点Vp∈VU(p=1,2,...),任意一个效用节点Vp对应一个效用函数
Figure BDA0000389888270000091
效用节点Vp作为叶子节点存在。
如图2所示。在影响图中,随机节点用圆形表示,决策节点用矩形表示,效用节点用菱形表示。影响图中的有向边具有不同的含义:
指向随机节点或效用节点的有向边称为相关性弧,表达了节点之间的依赖关系,如图2中带箭头的实线所示;
如果两个随机节点没有直接的有向边相连,说明这两个变量是条件独立的;
指向决策节点的有向边称为信息弧,表明了信息的优先级,即在做出决策之前,决策节点的父节点的取值是知道的,如图2中带箭头的虚线所示。
步骤3.1:利用红方无人机的决策变量和蓝方阵地的决策变量构建有向无环图;
有向无环图为:
G=(V,E)            (1)
式(1)中,V代表有向无环图中节点的集合,E代表有向无环图中有向边的集合,并有:
V=VC∪VD∪VU              (2)
式(2)中VC代表有向无环图中所有的随机节点,VD代表有向无环图中所有的决策节点,VU代表有向无环图中所有的效用节点,并有:
VC=(Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed);
VD=(Red_Action);
VC=(Utility);
有向无环图中有向边的集合E={(Red_Missile,Red_Action),(Red_Height,Red_Action),(Red_ESMState,Red_Action),(Red_SARState,Red_Action),(Distance,Red_Action),(Blue_ECMState,Red_GetLocation),(Distance,Red_GetLocation),(Red_ESMState,Red_GetLocation),(Red_SARState,Red_GetLocation),(Red_GetLocation,Red_Result),(Distance,Red_Result),(Red_Action,Red_Result),(Red_Height,Red_Result),(Distance,Blue_GetLocation),(Red_SARState,Blue_GetLocation),(Blue_RadarState,Blue_GetLocation),(Red_Height,Red_Destroyed),(Blue_GetLocation,Red_Destroyed),(Blue_Missile,Red_Destroyed),(Distance,Red_Destroyed),(Red_Action,Red_Destroyed),(Blue_HasAA,Red_Destroyed),(Red_Result,Utility),(Red_Destroyed,Utility)};
由所有的随机节点VC、所有的决策节点VD和所有的效用节点VU以及有向边的集合E构建出一个有向无环图;
步骤3.2:利用红方无人机的决策变量和蓝方阵地的决策变量构建变量集合;
变量集合为:
X=XC∪XD               (3)
式(3)中,XC是随机变量集合,有:
XC={Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed};
根据红方无人机的决策变量和蓝方阵地的决策变量获得随机变量的状态空间Ω为:
ΩRed_ESMState={开,关},ΩRed_SARState={开,关},ΩRed_Missile={A,B}、ΩRed_Height={中,低},ΩBlue_RadarState={开,关},ΩBlue_ECMState={开,关},ΩBlue_HasAA={是,否},ΩBlue_Missile={中程导弹,近程导弹,无导弹},ΩDistance={远,中,近},ΩRed_GetLocation={是,否},ΩBlue_GetLocation={是,否},ΩRed_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁},ΩRed_Destroyed={是,否};
随机变量集合XC中一个随机变量对应所有的随机节点VC中一个随机节点;
式(3)中,XD是决策变量集合,有:
XD={Red_Action};
根据红方无人机决策候选行动方案集Red_Action获得决策变量集合XD中决策变量Red_Action的备选方案集为{D1,D2,……,Dn},n∈N;红方无人机决策候选行动方案集Red_Action为决策变量集合XD中的一个元素,该元素为决策变量Red_Action,其本身也是一个集合。
决策变量集合XD中一个决策变量对应所有的决策节点VD中的一个决策节点;
步骤3.3:利用红方无人机的决策变量和蓝方阵地的决策变量构建随机变量概率分布的集合;
随机变量概率分布的集合为:
Pr={P(Red_ESMState),P(Red_SARState),P(Red_Missile),P(Red_Height),P(Blue_RadarState),P(Blue_ECMState),P(Blue_HasAA),P(Blue_Missile),P(Red_GetLocationPar(Red_GetLocation)),P(Blue_GetLocationPar(Blue_GetLocation)),P(Red_ResultPar(Red_Result)),P(Red_DestroyedPar(Red_Destroyed)),P(Distance)};
                       (4)
式(4)中,Par(Red_GetLocation)为随机变量集合XC中随机变量Red_GetLocation的父节点集合,并有Par(Red_GetLocation)={Red_ESMState,Red_SARState,Blue_ECMState,Distance};
Par(Blue_GetLocation)为随机变量Blue_GetLocation的父节点集合,并有Par(Blue_GetLocation)={Blue_RadarState,Red_SARState,Distance};
Par(Red_Result)为随机变量Red_Result的父节点集合,并有Par(Red_Result)={Red_Height,Red_Action,Distance,Red_GetLocation};
Par(Red_Destoryed)为随机变量Red_Destoryed的父节点集合,并有Par(Red_Destoryed)={Red_Height,Blue_HasAA,Blue_Missile,Distance,Red_Action,Blue_GetLocation};
本实施例中,随机变量概率分布的集合中的每个随机变量的概率分布设定如下:
Figure BDA0000389888270000121
P ( Red _ Missile ) = 0.5 , Red _ Missile = A 0.5 , Red _ Missile = B ,
Figure BDA0000389888270000123
P(Blue_GetLocation|Par(Blue_GetLocation))的概率分布共有24个值分别如表1所示:
表1  P(Blue_GetLocation|Par(Blue_GetLocation))概率分布
Figure BDA0000389888270000131
P(Red_Result|Par(Red_Result))、P(Red_GetLocation|Par(Red_GetLocation))、P(Red_Destroyed|Par(Red_Destroyed))分别按照表1的形式进行设定也可以获得相关的图表,所获得的图表中,P(Red_Result|Par(Red_Result))共有48个概率分布值,P(Red_GetLocation|Par(Red_GetLocation))共有96个概率分布值,P(Red_Destroyed|Par(Red_Destroyed))共有576个概率分布值;
步骤3.4:利用红方无人机的决策变量构建效用函数的集合;
令效用函数的集合为U:
U={U(Red_Result,Red_Destroyed)}             (5)
式(5)中,U(Red_Result,Red_Destroyed)为所有的效用节点VU中效用节点Utility的效用函数,并有:
Figure BDA0000389888270000141
式(6)中,U1、U2、U3、U4、U5、U6、U7和U8分别表示在不同条件下效用节点Utility的效用函数值,本实施例中,效用函数值U1=56、U2=100、U3=42、U4=80、U5=0、U6=48、U7=0和U8=48;
利用有向无环图、变量集合、随机变量概率分布的集合和效用函数的集合构建出如图2所示的影响图;
步骤4:根据影响图利用式(7)获得红方无人机决策候选行动方案集Red_Action中每一种红方无人机决策候选行动方案在情景集S中的每一个情景下的期望效用值EU(Di,Sj):
EU(Di,Sj)=ΣU(Red_Result,Red_Destroyed)P(Red_Result,Red_Destroyede)               (7)
式(7)中,e代表证据,i表示第i种红方无人机决策候选行动方案,i∈n,j表示第j个情景,j∈m;
本实施例中,利用式(7)获得的红方无人机的四种决策候选行动方案的期望效用值如表2所示:
表2  红方无人机的四种决策候选行动方案的期望效用值
D1 D2 D3 D4
s1 28.1 28.1 38.4 21.6
s2 27.2 25.8 36.5 19.2
s3 56.1 52.5 43.2 28.8
s4 31.4 32.1 45.6 24
s5 30 28.9 40.8 23.5
s6 65.4 59.2 48 48
s7 45.5 41.7 38.4 21.6
s8 44.6 40 36.5 19.2
s9 72.7 64.2 43.2 28.8
s10 48.7 45.4 45.6 24
s11 47.3 42.5 40.8 23.5
s12 81.8 70.4 48 48
步骤5:红方无人机根据期望效用值EU(Di,Sj)进行鲁棒决策;
本实施例中,为了提高决策效率,可以在进行选择鲁棒决策候选行动方案之前进行劣决策候选行动方案的删除
步骤5.1:删除劣决策候选行动方案;
比较红方无人机决策候选行动方案集Red_Action中的红方无人机决策候选行动方案Dl与Dk在情景集S中的期望效用值,若行动方案Dl与Dk在m个情景中所对应的每个期望效用值满足:行动方案Dl的每个期望效用值都小于或等于行动方案Dk的每个期望效用值,且行动方案Dl的全部期望效用值不能完全等于行动方案Dk的全部期望效用值,即至少有一个行动方案Dl的期望效用值是小于行动方案Dk的期望效用值。则决策候选行动方案Dl为劣决策候选行动方案并删除Dl
由表5可以看出,本实例中没有劣决策候选行动方案,故无需删除;
步骤5.2:选择鲁棒决策候选行动方案;
令红方无人机决策候选行动方案集Red_Action中的决策候选行动方案Df,在情景集S中满足min(EU(Df,Sj))≥α,(f∈n,j∈m,j=1,2,...,m),α为预定的收益阈值,则决策候选行动方案Df为鲁棒决策候选行动方案并保留Df;也就是说,决策候选行动方案Df在m个情景中所对应的全部期望效用值中的最小期望效用值应大于等于预定的收益阈值α;
判断所有的决策候选行动方案,保留所有的鲁棒决策候选行动方案,删除剩余决策候选行动方案;
本实施例中,设置预定的收益阈值α=20,由表5得:
min(EU(D1,Sj))=EU(D1,S2)=27.2>20,故D1=攻击蓝方高价值目标为鲁棒决策候选行动方案,保留D1方案;
min(EU(D2,Sj))=EU(D2,S2)=25.8>20,故D2=攻击蓝方防空阵地为鲁棒决策候选行动方案,保留D2方案;
min(EU(D3,Sj))=EU(D3,S2)=EU(D3,S8)=36.5>20,故D3=规避为鲁棒决策候选行动方案,保留D3方案;
min(EU(D4,Sj))=EU(D4,S2)=EU(D4,S8)=19.2<20,故D4=突防不满足鲁棒决策候选行动方案,删除D4方案;
所以,全部鲁棒决策候选行动方案为:D1=攻击蓝方高价值目标;D2=攻击蓝方防空阵地;D3=规避;
步骤5.3:识别最优鲁棒行动方案;
利用式(8)获得所有的鲁棒决策候选行动方案在每一个情景中的最大期望效用值集EU+
EU + = { EU j + | EU j + = max EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 8 )
式(8)中:
Figure BDA0000389888270000162
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最大期望效用值;
利用式(9)获得鲁棒决策候选行动方案在每一个情景中的最小期望效用值集EU-
EU - = { EU j - | EU j - = min EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 9 )
式(9)中:
Figure BDA0000389888270000164
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最小期望效用值;
本实施例中,利用式(8)、式(9)和表2中D1、D2、D3三种鲁棒决策候选行动方案的期望效用值获得鲁棒决策候选行动方案在每一个情景中的最大期望效用值集EU+和最小期望效用值集EU-,如表3所示:
表3  最大、最小期望效用值
s1 s2 s3 s4 s5 s6 s7 s8 s9 s10 s11 s12
EU+ 38.4 36.5 56.1 45.6 40.8 65.4 45.5 44.6 72.7 48.7 47.3 81.8
EU- 28.1 25.8 43.2 31.4 28.9 48 38.4 36.5 43.2 45.4 40.8 48
利用式(10)获得鲁棒决策候选行动方案与最大期望效用值集EU+的距离
Figure BDA0000389888270000165
d i + = Σ j = 1 m ( EU ( D i , S j ) - EU j + ) 2 - - - ( 10 )
利用式(11)获得鲁棒决策候选行动方案与最小期望效用值集EU-的距离
d i - = Σ j = 1 m ( EU ( D i , S j ) - EU j - ) 2 - - - ( 11 )
利用式(12)获得鲁棒决策候选行动方案的贴近度ci
c i = d i + d i + + d i - - - - ( 12 )
选择贴近度ci最大的鲁棒决策候选行动方案为最优鲁棒行动方案;
本实施例中,利用式(10)、式(11)、式(12)、表2中D1、D2、D3三种鲁棒决策候选行动方案的期望效用值以及表3中鲁棒决策候选行动方案在每一个情景中的最大期望效用值集EU+和最小期望效用值集EU-计算,获得鲁棒决策候选行动方案与最大期望效用值集EU+的距离
Figure BDA0000389888270000171
鲁棒决策候选行动方案与最小期望效用值集EU-的距离
Figure BDA0000389888270000172
和鲁棒决策候选行动方案的贴近度ci如表4所示:
表4  最大、最小距离和贴近度
Figure BDA0000389888270000173
由表4可看出,鲁棒决策候选行动方案D1=攻击蓝方高价值目标的贴近度c1=0.6951最大,故D1=攻击蓝方高价值目标为最优鲁棒行动方案。

Claims (1)

1.一种基于情景构建的无人机自主鲁棒决策方法,是应用于红方无人机攻打位于蓝方阵地中的蓝方高价值目标的复杂战场环境中,其特征在于,所述无人机自主鲁棒决策方法按如下步骤进行:
步骤1:定义复杂战场环境中红方无人机的决策变量和蓝方阵地的决策变量
令红方无人机携带电子支援措施状态Red_ESMState={开,关}、红方无人机携带SAR雷达状态Red_SARState={开,关}、红方无人机机载导弹类型Red_Missile={A,B}、红方无人机飞行高度Red_Height={中,低}、红方无人机发现蓝方高价值目标位置Red_GetLocation={是,否}、红方无人机被击中Red_Destroyed={是,否}、红方无人机攻击效果Red_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁}、红方无人机决策候选行动方案集Red_Action={D1,D2,...,Di,...,Dn},n∈N,N为自然数,所述红方无人机决策候选行动方案集Red_Action中,Di为第i种红方无人机决策候选行动方案,i∈n;红方无人机攻打蓝方阵地的效用={Utility};
令蓝方雷达状态Blue_RadarState={开,关}、蓝方电子干扰设备状态Blue_ECMState={开,关}、蓝方高炮Blue_HasAA={是,否}、蓝方导弹类型Blue_Missile={中程导弹,近程导弹,无导弹}、蓝方发现红方无人机位置Blue_GetLocation={是,否};
令红方无人机与蓝方高价值目标之间的距离Distance={远,中,近};
步骤2:情景构建
利用所述红方无人机携带电子支援措施状态Red_ESMState、所述红方无人机携带SAR雷达状态Red_SARState、所述红方无人机机载导弹类型Red_Missile、所述红方无人机飞行高度Red_Height、所述蓝方雷达状态Blue_RadarState、所述蓝方电子干扰设备状态Blue_ECMState、所述蓝方高炮Blue_HasAA、所述蓝方导弹类型Blue_Missile以及红方无人机与蓝方高价值目标之间的距离Distance构建情景集S={S1,S2,...,Sj,...,Sm},m∈N,所述情景集S中第j个情景表示为:
Sj=(Red_ESMState(j),Red_SARState(j),Red_Missile(j),Red_Height(j),Blue_RadarState(j),Blue_ECMState(j),Blue_HasAA(j),Blue_Missile(j),Distance(j)),j∈m;
步骤3:根据所述红方无人机的决策变量和蓝方阵地的决策变量利用影响图建模方法按如下步骤构建影响图:
步骤3.1:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建有向无环图G:
G=(V,E)               (1)
式(1)中,V代表所述有向无环图中节点的集合,E代表所述有向无环图中有向边的集合,并有:
V=VC∪VD∪VU           (2)
式(2)中VC代表所述有向无环图中所有的随机节点,VD代表所述有向无环图中所有的决策节点,VU代表所述有向无环图中所有的效用节点,并有:
VC=(Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed);
VD=(Red_Action);
VU=(Utility);
所述有向无环图中有向边的集合E={(Red_Missile,Red_Action),(Red_Height,Red_Action),(Red_ESMState,Red_Action),(Red_SARState,Red_Action),(Distance,Red_Action),(Blue_ECMState,Red_GetLocation),(Distance,Red_GetLocation),(Red_ESMState,Red_GetLocation),(Red_SARState,Red_GetLocation),(Red_GetLocation,Red_Result),(Distance,Red_Result),(Red_Action,Red_Result),(Red_Height,Red_Result),(Distance,Blue_GetLocation),(Red_SARState,Blue_GetLocation),(Blue_RadarState,Blue_GetLocation),(Red_Height,Red_Destroyed),(Blue_GetLocation,Red_Destroyed),(Blue_Missile,Red_Destroyed),(Distance,Red_Destroyed),(Red_Action,Red_Destroyed),(Blue_HasAA,Red_Destroyed),(Red_Result,Utility),(Red_Destroyed,Utility)};
由所述所有的随机节点VC、所有的决策节点VD和所有的效用节点VU以及有向边的集合E构建出所述有向无环图;
步骤3.2:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建变量集合X;
X=XC∪XD             (3)
式(3)中,XC是随机变量集合,并有:
XC={Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed};
根据所述红方无人机的决策变量和蓝方阵地的决策变量获得所述随机变量集合XC中每个随机变量的状态空间Ω为:
ΩRed_ESMState={开,关},ΩRed_SARState={开,关},ΩRed_Missile={A,B}、ΩRed_Height={中,低},ΩBlue_RadarState={开,关},ΩBlue_ECMState={开,关},ΩBlue_HasAA={是,否},ΩBlue_Missile={中程导弹,近程导弹,无导弹},ΩDistance={远,中,近},ΩRed_GetLocation={是,否},ΩBlue_GetLocation={是,否},ΩRed_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁},ΩRed_Destroyed={是,否};
式(3)中,XD是决策变量集合,并有:
XD={Red_Action};
根据所述红方无人机决策候选行动方案集Red_Action获得决策变量集合XD中决策变量Red_Action的备选方案集为{D1,D2,……,Dn},n∈N;
步骤3.3:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建随机变量概率分布的集合;
所述随机变量概率分布的集合为:
Pr={P(Red_ESMState),P(Red_SARState),P(Red_Missile),P(Red_Height),P(Blue_RadarState),P(Blue_ECMState),P(Blue_HasAA),P(Blue_Missile),P(Red_GetLocationPar(Red_GetLocation)),P(Blue_GetLocationPar(Blue_GetLocation)),P(Red_ResultPar(Red_Result)),P(Red_DestroyedPar(Red_Destroyed)),P(Distance)};
                      (4)
式(4)中,Par(Red_GetLocation)为所述随机变量集合XC中随机变量Red_GetLocation的父节点集合,并有Par(Red_GetLocation)={Red_ESMState,Red_SARState,Blue_ECMState,Distance};
Par(Blue_GetLocation)为所述随机变量Blue_GetLocation的父节点集合,并有Par(Blue_GetLocation)={Blue_RadarState,Red_SARState,Distance};
Par(Red_Result)为所述随机变量Red_Result的父节点集合,并有Par(Red_Result)={Red_Height,Red_Action,Distance,Red_GetLocation};
Par(Red_Destoryed)为所述随机变量Red_Destoryed的父节点集合,并有Par(Red_Destoryed)={Red_Height,Blue_HasAA,Blue_Missile,Distance,Red_Action,Blue_GetLocation};
步骤3.4:利用所述红方无人机的决策变量构建效用函数的集合;
令所述效用函数的集合为U:
U={U(Red_Result,Red_Destroyed)}             (5)
式(5)中,U(Red_Result,Red_Destroyed)为所述所有的效用节点VU中效用节点Utility的效用函数,并有:
Figure FDA0000389888260000041
式(6)中,U1、U2、U3、U4、U5、U6、U7和U8分别表示在不同条件下效用节点Utility的效用函数值;
利用所述有向无环图、变量集合、随机变量概率分布的集合和效用函数的集合构建出所述影响图;
步骤4:根据所述影响图利用式(7)获得红方无人机决策候选行动方案集Red_Action中每一种红方无人机决策候选行动方案在情景集S中的每一个情景下的期望效用值EU(Di,Sj):
EU(Di,Sj)=ΣU(Red_Result,Red_Destroyed)P(Red_Result,Red_Destroyede)        (7)
式(7)中,e代表证据,Di表示第i种红方无人机决策候选行动方案,i∈n,Sj表示第j个情景,j∈m;
步骤5:红方无人机根据所述期望效用值EU(Di,Sj)进行鲁棒决策;
步骤5.1:选择鲁棒决策候选行动方案;
令红方无人机决策候选行动方案集Red_Action中的决策候选行动方案Df,在情景集S中满足min(EU(Df,Sj))≥α,(f∈n,j∈m,j=1,2,...,m),α为预定的收益阈值,则决策候选行动方案Df为鲁棒决策候选行动方案并保留Df
判断所有的决策候选行动方案,保留所有的鲁棒决策候选行动方案,删除剩余决策候选行动方案;
步骤5.2:识别最优鲁棒行动方案;
利用式(8)获得所述所有的鲁棒决策候选行动方案在每一个情景中的最大期望效用值集EU+
EU + = { EU j + | EU j + = max EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 8 )
式(8)中:
Figure FDA0000389888260000052
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最大期望效用值;
利用式(9)获得所述鲁棒决策候选行动方案在每一个情景中的最小期望效用值集EU-
EU - = { EU j - | EU j - = min EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 9 )
式(9)中:
Figure FDA0000389888260000054
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最小期望效用值;
利用式(10)获得所有的鲁棒决策候选行动方案与所述最大期望效用值集EU+的距离
d i + = Σ j = 1 m ( EU ( D i , S j ) - EU j + ) 2 - - - ( 10 )
利用式(11)获得所有的鲁棒决策候选行动方案与所述最小期望效用值集EU-的距离
Figure FDA0000389888260000057
d i - = Σ j = 1 m ( EU ( D i , S j ) - EU j - ) 2 - - - ( 11 )
利用式(12)获得所有的鲁棒决策候选行动方案的贴近度ci
c i = d i + d i + + d i - - - - ( 12 )
选择所述贴近度ci最大的鲁棒决策候选行动方案为最优鲁棒行动方案。
CN201310455107.0A 2013-09-29 2013-09-29 一种基于情景构建的无人机自主鲁棒决策方法 Active CN103488171B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310455107.0A CN103488171B (zh) 2013-09-29 2013-09-29 一种基于情景构建的无人机自主鲁棒决策方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310455107.0A CN103488171B (zh) 2013-09-29 2013-09-29 一种基于情景构建的无人机自主鲁棒决策方法

Publications (2)

Publication Number Publication Date
CN103488171A true CN103488171A (zh) 2014-01-01
CN103488171B CN103488171B (zh) 2015-12-23

Family

ID=49828482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310455107.0A Active CN103488171B (zh) 2013-09-29 2013-09-29 一种基于情景构建的无人机自主鲁棒决策方法

Country Status (1)

Country Link
CN (1) CN103488171B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105138677A (zh) * 2015-09-09 2015-12-09 云南大学 一种影响图的期望效用的并行计算方法
CN106022554A (zh) * 2015-03-24 2016-10-12 国际商业机器公司 用于支持决策做出过程的方法和系统
CN107832939A (zh) * 2017-10-27 2018-03-23 合肥工业大学 无人平台空中对抗推演方法及装置
CN108427286A (zh) * 2018-04-12 2018-08-21 合肥工业大学 用于强对抗环境下无人机深度决策的训练方法及训练网络
CN110308741A (zh) * 2019-07-16 2019-10-08 杭州叙简科技股份有限公司 一种多点无人机侦测防御系统及多点无人机侦测打击方法
CN110412999A (zh) * 2019-06-20 2019-11-05 合肥工业大学 对抗环境下多无人机任务分配的博弈智能决策方法及系统
CN110559668A (zh) * 2019-10-08 2019-12-13 台州万际航空器科技有限公司 一种新型空中竞争无人机的作战方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101136081A (zh) * 2007-09-13 2008-03-05 北京航空航天大学 基于蚁群智能的无人作战飞机多机协同任务分配方法
US20100163621A1 (en) * 2006-01-11 2010-07-01 Carmel-Haifa University Economic Corporation Ltd. Uav decision and control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100163621A1 (en) * 2006-01-11 2010-07-01 Carmel-Haifa University Economic Corporation Ltd. Uav decision and control system
CN101136081A (zh) * 2007-09-13 2008-03-05 北京航空航天大学 基于蚁群智能的无人作战飞机多机协同任务分配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XIAOXUAN HU 等: ""A GAHP Approach for Probability Elicitation for Influence Diagrams"", 《2010 SEVENTH INTERNATIONAL CONFERENCE ON FUZZY SYSTEMS AND KNOWLEDGE DISCOVERY》 *
刘辉舟: ""对抗场景划分识别与多agent群体对抗策略选择研究"", 《计算机应用研究》 *
朱艳萍 等: ""敌对环境下多无人机协同空战决策"", 《火力与指挥控制》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022554A (zh) * 2015-03-24 2016-10-12 国际商业机器公司 用于支持决策做出过程的方法和系统
CN105138677A (zh) * 2015-09-09 2015-12-09 云南大学 一种影响图的期望效用的并行计算方法
CN105138677B (zh) * 2015-09-09 2018-05-01 云南大学 一种影响图的期望效用的并行计算方法
CN107832939A (zh) * 2017-10-27 2018-03-23 合肥工业大学 无人平台空中对抗推演方法及装置
CN108427286A (zh) * 2018-04-12 2018-08-21 合肥工业大学 用于强对抗环境下无人机深度决策的训练方法及训练网络
CN108427286B (zh) * 2018-04-12 2021-06-01 合肥工业大学 用于强对抗环境下无人机深度决策的训练方法及训练网络
CN110412999A (zh) * 2019-06-20 2019-11-05 合肥工业大学 对抗环境下多无人机任务分配的博弈智能决策方法及系统
CN110412999B (zh) * 2019-06-20 2022-12-09 合肥工业大学 对抗环境下多无人机任务分配的博弈智能决策方法及系统
CN110308741A (zh) * 2019-07-16 2019-10-08 杭州叙简科技股份有限公司 一种多点无人机侦测防御系统及多点无人机侦测打击方法
CN110308741B (zh) * 2019-07-16 2022-02-11 杭州叙简科技股份有限公司 一种多点无人机侦测防御系统及多点无人机侦测打击方法
CN110559668A (zh) * 2019-10-08 2019-12-13 台州万际航空器科技有限公司 一种新型空中竞争无人机的作战方法

Also Published As

Publication number Publication date
CN103488171B (zh) 2015-12-23

Similar Documents

Publication Publication Date Title
CN103488171B (zh) 一种基于情景构建的无人机自主鲁棒决策方法
CN108958292B (zh) 一种基于rrt*算法的飞行器突防轨迹规划方法
CN106203870A (zh) 一种面向联合作战的目标体系分析及武器分配方法
KR101235149B1 (ko) 대공 표적에 대한 위협평가 시스템과 방법 및 이를 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
Cruz et al. Moving horizon Nash strategies for a military air operation
CN109063819B (zh) 基于贝叶斯网络的任务共同体的识别方法
WO2013169157A1 (en) Method and system of mission planning
CN113553777B (zh) 反无人机蜂群的防空部署方法、装置、设备和介质
CN114626246A (zh) 多层反导协同作战任务规划建模方法
CN115238226B (zh) 一种防空有效杀伤区计算方法
Shin et al. Weapon-target assignment problem with interference constraints using mixed-integer linear programming
Lee et al. Weapon target assignment problem with interference constraints
Ha et al. A stochastic game-based approach for multiple beyond-visual-range air combat
Zhang et al. A novel heterogeneous sensor-weapon-target cooperative assignment for ground-to-air defense by efficient evolutionary approaches
CN110986680B (zh) 一种城市环境中低慢小目标的复合拦截方法
Zhang et al. Fire scheduling for multiple weapons cooperative engagement
CN106996789B (zh) 一种多机载雷达协同探测的航路规划方法
Zhong et al. Design of air defense deployment optimization model based on adaptive nested PSO algorithm
Peng et al. Cooperative dynamic weapon-target assignment algorithm of multiple missiles based on networks
CN117371256B (zh) 一种多类型多数量平台部署设置方案规划方法
Pryluk et al. Guidance-Based missile allocation algorithm against a salvo attack
Chi et al. Research on Networked Cooperative fire control based on improved Hungary algorithm
Le Ménec et al. Cooperative allocation and guidance for air defence application
Xu et al. Generalized target-radar assignment using genetic algorithm
Chen et al. Research on multiple kill vehicles firepower distribution strategy based on adjust genetic algorithm

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant