CN106952014A - 一种基于军事仿真器的作战方案优化方法 - Google Patents
一种基于军事仿真器的作战方案优化方法 Download PDFInfo
- Publication number
- CN106952014A CN106952014A CN201710073698.3A CN201710073698A CN106952014A CN 106952014 A CN106952014 A CN 106952014A CN 201710073698 A CN201710073698 A CN 201710073698A CN 106952014 A CN106952014 A CN 106952014A
- Authority
- CN
- China
- Prior art keywords
- scheme
- troops
- model
- plan
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000005457 optimization Methods 0.000 title claims abstract description 25
- 238000005070 sampling Methods 0.000 claims abstract description 36
- 238000011156 evaluation Methods 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims description 32
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 238000012986 modification Methods 0.000 claims description 16
- 230000004048 modification Effects 0.000 claims description 16
- 238000003066 decision tree Methods 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 238000011161 development Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000011160 research Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000009472 formulation Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000010903 husk Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0637—Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
Landscapes
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于军事仿真器的作战方案优化方法,通过分析战场态势,快速制定初始方案,同时在初始方案的基础上进行采样操作,将采样生成的新方案经过方案预选模型预选,预选通过的方案将会在军事仿真器上进行仿真评估,基于评估的结果实现作战方案的优化。本方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
Description
技术领域
本发明涉及一种基于军事仿真器的作战方案优化方法,属于军事运筹学领域。
背景技术
美军于20世纪60年代开始研制“联合作战计划系统”,作战司令部通过该系统确定完成任务的最佳途径,并指导为完成任务所需要采取的行动。美军典型的联合作战模拟系统主要有JSIMS(联合仿真系统)、JWARS(联合战区级作战模拟系统)、JMASS(联合建模和仿真系统)等。JSIMS是美军为提高军种间的互操作能力和支持联合训练而由国防部负责开发的,目的是通过在各类使命任务的各阶段提供逼真的联合训练来支持部队的训练和教育。JWARS是为支持国防部制定关于军队现代化、军队改革和作战方面的决策而研制的联合战区作战模拟系统,可用来制定、检验作战计划、预测作战进程和结果、确定部队的最佳编成、发展新的作战概念、条令等。JMASS是国防部建模与仿真支持环境,可用来制定、运行和分析包括电子战在内的作战方案,可在一对一和多对多情况下模拟和评估作战系统的运行和功能,从而也便于武器系统结构的确立、设计和研制。
从对美军这3个典型作战模拟系统的分析中可见:这些系统中都含有方案或计划的制定、生成及对方案的模拟验证、使用等问题;其突出特点是方案的生成和生成后的模拟验证与方案的使用紧密相连,方案的生成、模拟运行、检验、运用一体化。通过方案的模拟运行检验方案的不足,促进决策者思考,开发新的作战概念和条令。
我国从20世纪80年代就开始了军事战略模拟的研究。国防系统分析专业组和军事运筹学会很早就组织过有关军事战略模拟相关问题的研究和讨论。随着科学技术的进步和军事需求的增大,很多单位研制出了战役战术训练模拟系统。但这些系统主要是为受训者的组织指挥能力或操作手的操作技能的提高提供一个训练平台。对战役特别是联合战役级的方案智能优化的研究还处在起步阶段。研究较多的是对方案的评估、优选,且一般都是先建立评价指标体系,确定各指标的权重,利用优选模型对预先存在的若干方案进行评估。其注重的是从人工制定的、预先存在的若干方案中选较好的,未能实现方案的自动生成和智能优化功能。
通过对以上国外国内研究进展的分析,发现目前的研究存在以下不足:方案只能从给定的人工制定的方案中进行选择,而人工制定的方案也许均未能达到既定的作战目标,仿真器无法根据已有的方案进行进一步的智能优化。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种基于军事仿真器的作战方案优化方法,该方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于军事仿真器的作战方案优化方法,包括以下步骤:
步骤1,初始方案的生成;基于战场信息,选取基于向量的方案编码方式生成初始方案,并将生成的初始方案放入到第一方案集合A中,第一方案集合A用于存储保留下来的方案;
基于向量的方案编码方式如下所示:
其中,第一行向量表示出动的兵力,第二行向量表示装载的弹药型号,第三行向量表示兵力出动的顺序,x表示编码矩阵,xi表示兵力出动顺序为并装载了型号为的弹药后的发射导弹的距离;其中,表示出动的兵力,表示出动的兵力总数量;表示装载的弹药型号,表示弹药型号的总数量;表示兵力出动的顺序,表示出动顺序的最大值;表示解向量的长度,解向量的长度等于出动的兵力总数量*弹药型号的总数量*出动顺序的最大值。
步骤2,初始方案的推演;将第一方案集合A中的方案依次放到仿真器上进行仿真推演,得到第一方案集合A中的各方案的仿真评估结果,然后根据第一方案集合A中的各方案的仿真评估结果采用以下打分公式对第一方案集合A中的各方案进行打分;
打分公式:
Scorem=λ1*ZNm+λ2*SHNm+λ3*RNm+λ4*BNm+λ5*SJNm
其中,Scorem表示方案m的得分值,ZN表示战果数量,SHN表示损耗数量,RN表示任务完成度,BN表示兵力占用,SJN表示射击效率,λ1,λ2,λ3,λ4,λ5分别表示战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重,且满足λ1+λ2+λ3+λ4+λ5=1;
步骤3,方案的采样;基于第一方案集合A的方案,运用采样方法生成新的方案;其中的采样方法如下:
步骤31,生成1到10之间的一个随机整数,该随机整数为采样操作的次数,记为Q;
步骤32,生成1到3之间的一个随机整数,记为P;
若P=1,表示修改兵力装载的弹药型号;随机选择方案中一个xi≠0的位置,将其所对应的兵力的弹药型号进行随机的修改;
若P=2,表示修改兵力出动的顺序;将方案中兵力出动的顺序进行重新随机排列;
若P=3,表示修改发射导弹的距离;随机选择一个方案中xi≠0的位置,将其所对应的兵力的导弹发射距离修改为1,2,3其中的任意一个值;
步骤33,判断当前采样操作的次数是否大于Q,若大于Q,则结束采样操作;否则继续执行采样操作;
步骤4,获取历史方案及其仿真评估结果,将历史方案及其仿真评估结果构造成初始训练样本,采用机器学习算法对训练样本进行训练学习,构建方案预选模型;
步骤5,将步骤3中采样生成的新方案放到方案预选模型中进行方案的预选,预选通过的方案将会放入到第二方案集合B中;
步骤6,方案的推演:将第二方案集合B中的方案依次放到仿真器上进行仿真推演,得到第二方案集合B中各方案的仿真评估结果,根据第二方案集合B中各方案的仿真评估结果采用步骤2中打分公式对第二方案集合B中各方案进行打分;
步骤7,将步骤5得到的第二方案集合B中的方案及步骤6中得到的其对应仿真评估结果作为训练样本,将此训练样本加入到已有的训练样本中,基于这些训练样本实现方案预选模型的更新,更新后的方案预选模型作为下一个方案的方案预选模型;
步骤8,方案的替换:对比第二方案集合B和第一方案集合A,基于方案打分值,将第二方案集合B中打分值高的方案替换第一方案集合A中相对打分值低的方案;
步骤9,迭代执行;重复步骤3到步骤8,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。
优选的:所述发射导弹的距离共有四种取值:xi=1表示兵力在近距离处发射了导弹;xi=2表示兵力在中距离处发射了导弹;xi=3表示兵力在远距离处发射了导弹;若xi=0则表示没有此项分配。
所述步骤2中方案推演方法,包括以下步骤:
步骤21,想定编辑;
在想定编辑界面根据方案部署我方兵力,敌方兵力是事先就部署好的且是固定不变的;在想定编辑界面设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的;
步骤22,运行推演程序;
步骤23,仿真推演结束,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,将这些指标的值根据打分公式进行加权得到方案的得分。
优选的:所述机器学习算法为人工神经网络算法、决策树算法、支持向量机等。
优选的:所述机器学习算法为决策树算法,提取方案中的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离作为特征;若方案的打分值大于等于设置的基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的基值,则方案的分类结果为0,即方案不可行;利用决策树算法对训练样本进行训练,构建方案预选模型。
优选的:对于新加入的训练样本,利用增量学习算法更新方案预选模型。
优选的:提取采样生成的新方案的特征,通过方案预选模型进行预选,如果分类结果为1,则说明该方案可行,预选通过的方案将会放入到第二方案集合B中进行下一步的方案仿真;如果分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
本发明相比现有技术,具有以下有益效果:
本方法通过根据作战意图和战场态势,从其可出动的部队中选择兵力出击。首先进行初始化生成初始方案集合,同时将生成的初始方案在仿真器上进行仿真推演评估,然后对初始方案集合进行采样操作生成新的方案。采样生成的新方案将经过方案预选模型的预选,预选通过的方案将加入到新方案集合中。新方案集合中的方案在仿真器上进行仿真推演评估,根据评估的结果实现作战方案的优化。重复以上步骤,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。本方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。本方法可直接用于军事仿真器中,有效解决作战方案制定主观经验干扰过大同时方案无法实现优化的问题,实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
附图说明
图1为本发明实施例的流程图。
图2为本发明所述的作战场景实例。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种基于军事仿真器的作战方案优化方法,如图1所示,包括以下步骤:
步骤1,初始方案的生成。基于战场信息,选取基于向量的方案编码方式生成初始方案,并将生成的初始方案放入到第一方案集合A中,第一方案集合A用于存储保留下来的方案。
其基于向量的方案编码方式:第一维(行)向量表示出动的兵力。第二维(行)向量表示装载的弹药型号。第三维(行)向量表示兵力出动的顺序。其具体编码方式如下所示:
其中,x表示编码矩阵,xi表示兵力出动顺序为并装载了型号为的弹药后的发射导弹的距离。其中,表示出动的兵力,表示出动的兵力总数量。表示装载的弹药型号,表示弹药型号的总数量。表示兵力出动的顺序,表示出动顺序的最大值;表示解向量的长度,解向量的长度等于出动的兵力总数量*弹药型号的总数量*出动顺序的最大值。
发射导弹的距离共有四种取值:xi=1表示兵力在近距离处发射了导弹。xi=2表示兵力在中距离处发射了导弹。xi=3表示兵力在远距离处发射了导弹。若xi=0则表示没有此项分配。
因此,对于每一个兵力具有多种的弹药型号分配可能,同时还具有多种的出动顺序可能,同时还具有多种的发射导弹距离可能,从而形成不同的作战方案。
步骤2,初始方案的推演。将第一方案集合A中的方案依次放到仿真器上进行仿真推演,根据推演结果采用以下打分公式对方案进行打分。
方案推演方法包括以下步骤:
步骤21,想定编辑。
在想定编辑界面根据方案部署我方兵力,敌方兵力是事先就部署好的且是固定不变的。在想定编辑界面设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的。
步骤22,运行推演程序。
步骤23,仿真推演结束,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,将这些指标的值根据打分公式进行加权得到方案的得分。
战果数量:作战摧毁敌方兵力的数量。记为ZN;
损耗数量:作战过程中我方被摧毁的兵力数量。记为SHN;
任务完成度:作战实际完成的任务数占计划任务数的比例。记为RN;
兵力占用:作战出动的兵力在所有可用兵力中的占比,即各兵力实际出动了多少。记为BN;
射击效率:发射的弹药中击中或者毁伤目标的弹药所占的比重。记为SJN;
打分公式如下:
Scorem=λ1*ZNm+λ2*SHNm+λ3*RNm+λ4*BNm+λ5*SJNm
Scorem表示方案m的得分值,ZN表示战果数量,SHN表示损耗数量,RN表示任务完成度,BN表示兵力占用,SJN表示射击效率,λ1,λ2,λ3,λ4,λ5分别表示战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重,且满足λ1+λ2+λ3+λ4+λ5=1。
步骤3,方案的采样。基于第一方案集合A的方案,运用采样方法生成新的方案,并将新方案放入到第二方案集合B中,第二方案集合B用于存储新产生的方案。其中的采样方法包括以下步骤:
步骤31,生成1到10之间的一个随机整数,该整数为采样操作的次数,记为Q。
步骤32,生成1到3之间的一个随机整数,记为P。
若P=1,表示修改兵力装载的弹药型号。随机选择方案中一个xi≠0的位置,将其所对应的兵力的弹药型号进行随机的修改。
若P=2,表示修改兵力出动的顺序。将方案中兵力出动的顺序进行重新随机排列。
若P=3,表示修改发射导弹的距离。随机选择一个方案中xi≠0的位置,将其所对应的兵力的导弹发射距离修改为1,2,3其中的任意一个值。
步骤33,判断当前采样操作的次数是否大于Q,若大于Q,则结束采样操作。否则继续执行采样操作。
步骤4,方案的预选。将采样生成的新方案放到方案预选模型中进行方案的预选,预选通过的方案将会放入到第二方案集合B中,第二方案集合B用于存储新产生的方案。方案的预选方法包括以下步骤:
步骤41,基于大量历史方案及其仿真评估的结果构造初始训练样本,采用机器学习算法,如人工神经网络算法、决策树算法对训练样本进行训练学习,构建方案预选模型;
步骤42,将迭代执行过程中加入到第二方案集合B中的方案及其仿真评估结果作为训练样本,将此训练样本加入到已有的训练样本中,基于这些训练样本实现方案预选模型的更新,更新后的方案预选模型作为下一个方案的方案预选模型;
步骤43,提取采样生成的新方案的特征,通过方案预选模型进行分类预选,如果分类结果为1,则说明该方案可行,可进行下一步的方案仿真;如果分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
步骤5,方案的推演。将第二方案集合B中的方案依次放到仿真器上进行仿真推演,根据推演结果对方案进行打分。
步骤6,方案的替换。对比第二方案集合B和第一方案集合A,基于方案打分值,将第二方案集合B中打分值高的方案替换第一方案集合A中相对打分值低的方案。
步骤7,迭代执行。重复步骤3到步骤6,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。
实例
一、总体实现方案
本发明提出了一种基于军事仿真器的作战方案优化方法,能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
图1为本发明一实施例的流程图。
如图1所示,上述过程主要由初始方案的生成、初始方案的推演、方案的采样、方案的预选、方案的推演、方案的替换组成。
二、具体实现步骤
(1)初始方案的生成
作战方案是使用作战兵力达成一定战役或战斗目的的计划,是组织指挥部队作战行动的依据性文件,是作战意图和决心的集中体现。从作战态势角度来看,作战方案就是要创造一种理想的目标态势。这种态势利于实现己方目标,却使敌方意图尽可能无法实现。最终是要解决在何时、何地、何种条件下,为何目标,让哪一(或哪些)部队去执行什么任务,对参战兵力、各兵力要完成的任务、采取的行动、方法等在时间、空间内进行合理安排,形成理想的态势。
本专利中的作战方案包含的因素主要有出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离。
我军可出动兵力,即出动的飞机数量和舰船数量,兵力数量视各部队可出动的状态变化,兵力数量的不同影响作战的规模的大小。
兵力装载的弹药型号,即弹药的种类,弹药的种类不同,其开火范围也会不同;因此,弹药型号的选择要根据具体的作战场景来选择。
兵力出动的顺序,即我军作战兵力出动的先后顺序。
作战方案的编码主要解决的问题是如何对作战方案进行表示的问题。
图2为本发明所述的作战场景实例。
现举例说明作战方案编码过程:
大致场景是设想在一片冲突海域,如图2所示,红方(图中左边)因某种原因,决定对蓝方(图中右边)一支海上力量进行打击。双方力量均为大型舰船1艘,飞机2架。双方配载的弹药型号均为一样,分别为小型导弹和大型导弹;导弹发射的距离有三种,即近距离发射导弹、中距离发射导弹、远距离发射导弹;红方作为进攻方,红方指挥员根据海战经验制定出作战方案,具体如下:
1)作战兵力2首先装载大型导弹,于远距离处发射导弹。
2)作战兵力1接着装载大型导弹,于近距离处发射导弹。
3)作战兵力3最后装载小型导弹,于中距离处发射导弹。
相对应的蓝方的作战方案在此不再赘述。
基于上面红方的作战方案,其相对应的编码如下:
表示出动的兵力,表示出动的兵力总数量,表示作战兵力1,表示作战兵力2,表示作战兵力3。表示装载的弹药型号,表示弹药型号的总数量,表示大型导弹,表示小型导弹。表示兵力出动的顺序,表示出动顺序的最大值,也就是等于兵力的总数量,表示出动顺序为1,表示出动顺序为2,表示出动顺序为3。xi=1表示兵力在近距离处发射了导弹。xi=2表示兵力在中距离处发射了导弹。xi=3表示兵力在远距离处发射了导弹。若xi=0则表示没有此项分配。
基于上面红方的作战方案,其相对应的编码如下:
通过该方案的编码,可以非常清晰的看出我军的作战方案:
作战兵力1装载了大型导弹第二个出动同时会在近距离处发射导弹,作战兵力2装载了大型导弹第一个出动同时会在远距离处发射导弹,作战兵力3装载了小型导弹第三个出动同时会在中距离处发射导弹。
生成的初始方案会加入到方案集合A中。
(2)初始方案的推演
在信息技术的支撑下,方案推演是结合具体的战场环境、战场态势,在军事仿真器软件环境下对指挥员制定的作战方案进行的更加具象的展现,以便于对筹划的作战方案、任务计划等进行预先的验证,从而可以及时的做出调整和优化。
方案的推演通常包括以下几个步骤:
1)想定编辑
想定编辑是军事仿真器的重要组成部分,其主要功能就是基本属性配置编辑、方案中涉及的实体属性配置编辑、环境配置编辑、运行规则配置编辑等。在想定编辑界面可以根据方案部署我方的兵力,由于敌方的作战方案是事先就已知的且是固定不变的,因此其兵力事先就已经部署好了。在想定编辑界面还可以设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的。
2)运行推演程序
推演程序主要基于推演规则建立的软件环境,为方案的推演执行提供了便利,有利于对作战方案进行有效的验证。
推演规则是指推演实施过程中必须遵循的依据和规范,包括约束规则和作战规则两大类。约束规则主要是指推演过程中对各种作战行动进行约束限制的规则,如兵力运用约束规则、装备使用约束规则、环境约束规则、交战关系约束规则等。作战规则主要是指各种作战行动执行中所遵循的规范或依据,如态势判断、目标选择及分配、兵力与火力分配、武器使用、指挥协同、效果评估等方面的规则。
3)仿真评估
仿真推演结束后,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,并将这些指标的进行加权得到方案的得分。
现举例说明方案得分的计算过程:
假设我方摧毁敌方兵力数量为10,即战果数量ZN=10。我方被摧毁的兵力数量为3,即损耗数量SHN=3。我方制定的作战任务总数为5,实际完成的任务数为3,即RN=3/5*100%=60%。我方总兵力为20,作战出动的兵力数量为15,即兵力占用BN=15/20*100%=75%。我方作战过程中共发射了20枚导弹,击中或毁伤目标的导弹数量为10,即射击效率SJN=10/20*100=50%。
其中,战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重分别为0.3,0.1,0.3,0.2,0.1。
方案的得分值为0.3*10+0.1*3+0.3*0.6+0.2*0.75+0.1*0.5=3.68。
(3)方案的采样
基于已有的方案,随机的选择方案涉及的因素进行随机的改变,从而生成与已有方案不同的方案的过程就是方案的采样。该方法基于已有的方案,可使新生成的方案在一定概率上继承先前方案的优点,一定概率上去除先前方案的缺点,是种效率较高且较为新颖的方案生成方式。
现举例说明方案采样的过程:
假设已有作战方案如下:
作战兵力2首先装载大型导弹,于远距离处发射导弹。
作战兵力1接着装载大型导弹,于近距离处发射导弹。
作战兵力3最后装载小型导弹,于中距离处发射导弹。
其对应的作战编码如下:
已知我军共有3个作战兵力,装载的导弹类型有小型导弹和大型导弹两种,发射导弹的距离有三种,近距离发射导弹、中距离发射导弹、远距离发射导弹。
第一步,生成1到10之间的一个随机整数,即采样操作的次数,假设产生的随机数为2,即要进行两次采样操作。
第二步,生成1到3之间的一个随机整数,假设生成的随机整数为3,当生成的随机整数为3时表明要修改发射导弹的距离。此时随机选择方案中一个xi≠0的位置,假设选择的是值为3的这个位置,对应的是作战兵力2,此时随机从导弹发射距离的取值中选择一个替换先前的导弹发射距离值,假设选择的是2,即作战兵力2的导弹发射距离由先前的远距离发射修改为了中距离发射。
该步执行后对应的方案编码如下:
第三步,由于要进行两次采样操作,先前已执行了一次,下面执行第二次。生成1到3之间的一个随机整数,假设生成的随机整数为1。当生成的随机整数为1时表明要修改兵力装载的弹药型号。此时随机选择方案中一个xi≠0的位置,假设选择的是值为1的这个位置,对应的是作战兵力1,此时随机从弹药型号取值中选择一个替换先前的弹药型号,假设选择的是小型导弹,即作战兵力1的弹药型号由先前的大型导弹修改为了小型导弹。
该步执行后对应的方案编码如下:
至此,两次采样操作已经结束,最终的生成的新方案如下:
作战兵力2首先装载大型导弹,于中距离处发射导弹。
作战兵力1接着装载小型导弹,于近距离处发射导弹。
作战兵力3最后装载小型导弹,于中距离处发射导弹。
采样生成的新方案会加入到方案集合B中。
(4)方案的预选
基于采样生成的新方案中存在部分方案是不可行的或者方案的效果较差,对于这些方案如果在方案推演之前能够通过某种技术对之进行预选,使得不可行的方案或者明显较差的方案可以预先删除掉,这样不仅可以节省仿真推演的时间,而且将会节省大量的系统资源,同时会提高方案优化的效率。
机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。机器学习是对能通过经验自动改进的计算机算法的研究。人工神经网络算法、决策树算法、支持向量机算法等等都是机器学习算法中常用的算法,下面以决策树算法为例说明方案预选模型的构建过程。
决策树是机器学习中一种常用的分类技术,它代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。机器学习中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测。
方案的预选过程如下:
第一步,方案预选模型的构建;基于历史方案及其仿真评估的结果构建训练样本;提取方案中包含的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离等因素作为特征;若方案的打分值大于等于设置的某一基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的某一基值,则方案的分类结果为0,即方案不可行;基于训练样本,利用决策树算法对训练样本进行训练,构建方案预选模型。
第二步,方案预选模型的更新;基于迭代执行过程加入到第二方案集合B中的方案及其仿真评估结果构建新的训练样本,将新的训练样本加入到已有的训练样本中;提取这些方案中包含的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离等因素作为特征;若方案的打分值大于等于设置的某一基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的某一基值,则方案的分类结果为0,即方案不可行;对于新加入的训练样本,利用增量学习算法更新方案预选模型。
第三步,提取新方案的特征,即出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离,构造预测样本,将待预选的样本在方案预选模型上进行分类预测,若分类结果为1,则说明该方案可行,将进行下一步的方案仿真;若分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
(5)方案的推演
预选通过的新方案需要在仿真器上进行仿真评估,由于其与初始方案的推演步骤是一致的,因此在此不再赘述。
(6)方案的替换
方案的替换是基于方案的打分值对比已有的方案集合中的方案和新产生的方案集合中的方案,用新产生的方案替换已有方案集合中存在的那些打分值低于新方案的方案。方案的替换可以淘汰较差的方案,保留较好的方案,同时可以引进新的较好的方案,对方案起到改进优化的作用。
现举例说明方案的替换过程:
方案集合A用于存储保留下来的方案,方案集合B用于存储新产生的方案。假设方案集合A中已有方案A1,A2,A3,其打分值分别为3.2,4.5,3.9;方案集合B中已有方案B1,B2,B3,其打分值分别为3.1,4.0,3.8。
对比方案B和方案集合A,B1的打分值比A1,A2,A3都要低,因此B1无法替换集合A中的任何方案;B2的打分值高于A1,A3,但低于A2,因此B2可以替换掉A1,A3,B2加入到集合A中,A1,A3从集合A中去除;因此,此时集合A中的方案的打分值为4.5,4.0;B3的打分值均比集合A中的打分值低,因此B3无法替换集合A中的任何方案。
因此,经过方案替换后的方案集合A中的方案打分值分别为4.5,4.0。
本发明通过分析战场态势,快速制定初始方案,同时在初始方案的基础上进行采样操作,将采样生成的新方案经过方案预选模型预选,预选通过的方案将会在军事仿真器上进行仿真评估,基于评估的结果实现作战方案的优化。本方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种基于军事仿真器的作战方案优化方法,其特征在于,包括以下步骤:
步骤1,初始方案的生成;基于战场信息,选取基于向量的方案编码方式生成初始方案,并将生成的初始方案放入到第一方案集合A中,第一方案集合A用于存储保留下来的方案;
基于向量的方案编码方式如下所示:
其中,第一行向量表示出动的兵力,第二行向量表示装载的弹药型号,第三行向量表示兵力出动的顺序,x表示编码矩阵,xi表示兵力出动顺序为许装载了型号为的弹药后的发射导弹的距离;表示出动的兵力,表示出动的兵力总数量;表示装载的弹药型号,表示弹药型号的总数量;表示兵力出动的顺序,表示出动顺序的最大值;表示解向量的长度;
步骤2,初始方案的推演;将第一方案集合A中的方案依次放到仿真器上进行仿真推演,得到第一方案集合A中的各方案的仿真评估结果,然后根据第一方案集合A中的各方案的仿真评估结果采用以下打分公式对第一方案集合A中的各方案进行打分;
打分公式:
Scorem=λ1*ZNm+λ2*SHNm+λ3*RNm+λ4*BNm+λ5*SJNm
其中,Scorem表示方案m的得分值,ZN表示战果数量,SHN表示损耗数量,RN表示任务完成度,BN表示兵力占用,SJN表示射击效率,λ1,λ2,λ3,λ4,λ5分别表示战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重,且满足λ1+λ2+λ3+λ4+λ5=1;
步骤3,方案的采样;基于第一方案集合A的方案,运用采样方法生成新的方案;其中的采样方法如下:
步骤31,生成1到10之间的一个随机整数,该随机整数为采样操作的次数,记为Q;
步骤32,生成1到3之间的一个随机整数,记为P;
若P=1,表示修改兵力装载的弹药型号;随机选择方案中一个xi≠0的位置,将其所对应的兵力的弹药型号进行随机的修改;
若P=2,表示修改兵力出动的顺序;将方案中兵力出动的顺序进行重新随机排列;
若P=3,表示修改发射导弹的距离;随机选择一个方案中xi≠0的位置,将其所对应的兵力的导弹发射距离修改为1,2,3其中的任意一个值;
步骤33,判断当前采样操作的次数是否大于Q,若大于Q,则结束采样操作;否则继续执行采样操作;
步骤4,获取历史方案及其仿真评估结果,将历史方案及其仿真评估结果构造成初始训练样本,采用机器学习算法对训练样本进行训练学习,构建方案预选模型;
步骤5,将步骤3中采样生成的新方案放到方案预选模型中进行方案的预选,预选通过的方案将会放入到第二方案集合B中;
步骤6,方案的推演:将第二方案集合B中的方案依次放到仿真器上进行仿真推演,得到第二方案集合B中各方案的仿真评估结果,根据第二方案集合B中各方案的仿真评估结果采用步骤2中打分公式对第二方案集合B中各方案进行打分;
步骤7,将步骤5得到的第二方案集合B中的方案及步骤6中得到的其对应仿真评估结果作为训练样本,将此训练样本加入到已有的训练样本中,基于这些训练样本实现方案预选模型的更新,更新后的方案预选模型作为下一个方案的方案预选模型;
步骤8,方案的替换:对比第二方案集合B和第一方案集合A,基于方案打分值,将第二方案集合B中打分值高的方案替换第一方案集合A中相对打分值低的方案;
步骤9,迭代执行;重复步骤3到步骤8,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。
2.根据权利要求1所述基于军事仿真器的作战方案优化方法,其特征在于:所述发射导弹的距离共有四种取值:xi=1表示兵力在近距离处发射了导弹;xi=2表示兵力在中距离处发射了导弹;xi=3表示兵力在远距离处发射了导弹;若xi=0则表示没有此项分配。
3.根据权利要求1所述基于军事仿真器的作战方案优化方法,其特征在于:所述步骤2中方案推演方法,包括以下步骤:
步骤21,想定编辑;
在想定编辑界面根据方案部署我方兵力,敌方兵力是事先就部署好的且是固定不变的;在想定编辑界面设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的;
步骤22,运行推演程序;
步骤23,仿真推演结束,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,将这些指标的值根据打分公式进行加权得到方案的得分。
4.根据权利要求1所述基于军事仿真器的作战方案优化方法,其特征在于:所述机器学习算法为人工神经网络算法、决策树算法、支持向量机。
5.根据权利要求1所述基于军事仿真器的作战方案优化方法,其特征在于:所述机器学习算法为决策树算法,提取方案中的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离作为特征;若方案的打分值大于等于设置的基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的基值,则方案的分类结果为0,即方案不可行;利用决策树算法对训练样本进行训练,构建方案预选模型。
6.根据权利要求1所述基于军事仿真器的作战方案优化方法,其特征在于:对于新加入的训练样本,利用增量学习算法更新方案预选模型。
7.根据权利要求5所述基于军事仿真器的作战方案优化方法,其特征在于:方案通过方案预选模型进行预选,如果分类结果为1,则说明该方案可行,预选通过的方案将会放入到第二方案集合B中进行下一步的方案仿真;如果分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
8.根据权利要求1所述基于军事仿真器的作战方案优化方法,其特征在于:解向量的长度等于出动的兵力总数量*弹药型号的总数量*出动顺序的最大值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710073698.3A CN106952014B (zh) | 2017-02-10 | 2017-02-10 | 一种基于军事仿真器的作战方案优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710073698.3A CN106952014B (zh) | 2017-02-10 | 2017-02-10 | 一种基于军事仿真器的作战方案优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106952014A true CN106952014A (zh) | 2017-07-14 |
CN106952014B CN106952014B (zh) | 2018-03-02 |
Family
ID=59465800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710073698.3A Expired - Fee Related CN106952014B (zh) | 2017-02-10 | 2017-02-10 | 一种基于军事仿真器的作战方案优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106952014B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832551A (zh) * | 2017-11-24 | 2018-03-23 | 北京宇航系统工程研究所 | 一种面向航天装备的组件化体系仿真系统及方法 |
CN108614938A (zh) * | 2018-04-28 | 2018-10-02 | 西北工业大学 | 一种考虑作战过程的飞机生存力提升方法 |
CN108647414A (zh) * | 2018-04-27 | 2018-10-12 | 北京华如科技股份有限公司 | 基于仿真实验的作战计划适应性分析方法及存储介质 |
CN108828948A (zh) * | 2018-07-15 | 2018-11-16 | 大国创新智能科技(东莞)有限公司 | 基于深度学习的人工智能作战方法和机器人系统 |
CN108958030A (zh) * | 2018-07-15 | 2018-12-07 | 大国创新智能科技(东莞)有限公司 | 基于知识库的人工智能作战方法和机器人系统 |
CN108960497A (zh) * | 2018-06-27 | 2018-12-07 | 南京航空航天大学 | 一种基于规则挖掘的军事方案优化方法 |
CN108985463A (zh) * | 2018-07-15 | 2018-12-11 | 大国创新智能科技(东莞)有限公司 | 基于知识库和深度学习的人工智能作战方法和机器人系统 |
CN110147883A (zh) * | 2019-05-28 | 2019-08-20 | 航天科工系统仿真科技(北京)有限公司 | 用于作战仿真的模型的训练方法、装置、设备和存储介质 |
CN110231777A (zh) * | 2019-02-14 | 2019-09-13 | 李策 | 基于决策点的陆军合同战斗方案自动控制仿真方法 |
CN110457725A (zh) * | 2018-05-08 | 2019-11-15 | 北京德馨同创科技发展有限责任公司 | 军事仿真推演方法、计算机程序、存储介质和电子设备 |
CN111882231A (zh) * | 2020-07-31 | 2020-11-03 | 中国舰船研究设计中心 | 一种面向方面综合控制的模拟训练评估方法 |
CN111950129A (zh) * | 2020-07-16 | 2020-11-17 | 中国人民解放军军事科学院国防科技创新研究院 | 基于高斯回归模型的作战仿真实验方案优化方法 |
CN113177368A (zh) * | 2021-05-31 | 2021-07-27 | 中国人民解放军国防科技大学 | 一种面向人机交互的智能化指控训练仿真系统 |
CN113297372A (zh) * | 2021-04-12 | 2021-08-24 | 杭州电子科技大学 | 一种快速构建方案的智能系统 |
CN113469853A (zh) * | 2021-05-13 | 2021-10-01 | 航天科工空间工程发展有限公司 | 一种加速指挥控制交战方法和人工智能装置 |
CN114863049A (zh) * | 2022-05-19 | 2022-08-05 | 广州贵博地理信息技术有限公司 | 基于地理信息的沙盘作战处理方法和系统 |
CN114862168A (zh) * | 2022-04-27 | 2022-08-05 | 中国人民解放军军事科学院战略评估咨询中心 | 一种推演仿真环境下多方案智能切换系统 |
CN114882755A (zh) * | 2022-04-27 | 2022-08-09 | 中国人民解放军军事科学院战略评估咨询中心 | 一种面向智能对抗的多方案自主切换方法 |
KR102441933B1 (ko) * | 2022-01-17 | 2022-09-13 | 국방과학연구소 | 모의 명령 정보를 전송하는 전자 장치의 동작 방법 및 이를 지원하는 전자 장치 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU202174U1 (ru) * | 2020-09-29 | 2021-02-05 | Сергей Александрович Бирюков | Устройство для расчета показателя потерь пстор и личного состава с учетом мероприятий обеспечения живучести рво |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484500A (zh) * | 2014-09-03 | 2015-04-01 | 北京航空航天大学 | 一种基于拟合强化学习的空战行为建模方法 |
US20160055359A1 (en) * | 2014-08-25 | 2016-02-25 | Covidien Lp | Systems and methods for emulating rfid transponders of a plurality of medical devices |
CN105678030A (zh) * | 2016-03-03 | 2016-06-15 | 黄安祥 | 基于专家系统和战术战法分形化的空战战术团队仿真方法 |
-
2017
- 2017-02-10 CN CN201710073698.3A patent/CN106952014B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160055359A1 (en) * | 2014-08-25 | 2016-02-25 | Covidien Lp | Systems and methods for emulating rfid transponders of a plurality of medical devices |
CN104484500A (zh) * | 2014-09-03 | 2015-04-01 | 北京航空航天大学 | 一种基于拟合强化学习的空战行为建模方法 |
CN105678030A (zh) * | 2016-03-03 | 2016-06-15 | 黄安祥 | 基于专家系统和战术战法分形化的空战战术团队仿真方法 |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832551A (zh) * | 2017-11-24 | 2018-03-23 | 北京宇航系统工程研究所 | 一种面向航天装备的组件化体系仿真系统及方法 |
CN107832551B (zh) * | 2017-11-24 | 2021-10-01 | 北京宇航系统工程研究所 | 一种面向航天装备的组件化体系仿真系统及方法 |
CN108647414B (zh) * | 2018-04-27 | 2022-05-27 | 北京华如科技股份有限公司 | 基于仿真实验的作战计划适应性分析方法及存储介质 |
CN108647414A (zh) * | 2018-04-27 | 2018-10-12 | 北京华如科技股份有限公司 | 基于仿真实验的作战计划适应性分析方法及存储介质 |
CN108614938B (zh) * | 2018-04-28 | 2019-06-18 | 西北工业大学 | 一种考虑作战过程的飞机生存力提升方法 |
CN108614938A (zh) * | 2018-04-28 | 2018-10-02 | 西北工业大学 | 一种考虑作战过程的飞机生存力提升方法 |
CN110457725A (zh) * | 2018-05-08 | 2019-11-15 | 北京德馨同创科技发展有限责任公司 | 军事仿真推演方法、计算机程序、存储介质和电子设备 |
CN108960497B (zh) * | 2018-06-27 | 2021-12-14 | 南京航空航天大学 | 一种基于规则挖掘的军事方案优化方法 |
CN108960497A (zh) * | 2018-06-27 | 2018-12-07 | 南京航空航天大学 | 一种基于规则挖掘的军事方案优化方法 |
CN108958030B (zh) * | 2018-07-15 | 2021-05-28 | 大国创新智能科技(东莞)有限公司 | 基于知识库的人工智能作战方法和机器人系统 |
CN108828948B (zh) * | 2018-07-15 | 2021-06-18 | 大国创新智能科技(东莞)有限公司 | 基于深度学习的人工智能作战方法和机器人系统 |
CN108958030A (zh) * | 2018-07-15 | 2018-12-07 | 大国创新智能科技(东莞)有限公司 | 基于知识库的人工智能作战方法和机器人系统 |
CN108828948A (zh) * | 2018-07-15 | 2018-11-16 | 大国创新智能科技(东莞)有限公司 | 基于深度学习的人工智能作战方法和机器人系统 |
CN108985463A (zh) * | 2018-07-15 | 2018-12-11 | 大国创新智能科技(东莞)有限公司 | 基于知识库和深度学习的人工智能作战方法和机器人系统 |
CN110231777A (zh) * | 2019-02-14 | 2019-09-13 | 李策 | 基于决策点的陆军合同战斗方案自动控制仿真方法 |
CN110147883A (zh) * | 2019-05-28 | 2019-08-20 | 航天科工系统仿真科技(北京)有限公司 | 用于作战仿真的模型的训练方法、装置、设备和存储介质 |
CN111950129A (zh) * | 2020-07-16 | 2020-11-17 | 中国人民解放军军事科学院国防科技创新研究院 | 基于高斯回归模型的作战仿真实验方案优化方法 |
CN111882231A (zh) * | 2020-07-31 | 2020-11-03 | 中国舰船研究设计中心 | 一种面向方面综合控制的模拟训练评估方法 |
CN111882231B (zh) * | 2020-07-31 | 2022-04-22 | 中国舰船研究设计中心 | 一种面向方面综合控制的模拟训练评估方法 |
CN113297372B (zh) * | 2021-04-12 | 2022-06-14 | 杭州电子科技大学 | 一种快速构建方案的智能系统 |
CN113297372A (zh) * | 2021-04-12 | 2021-08-24 | 杭州电子科技大学 | 一种快速构建方案的智能系统 |
CN113469853A (zh) * | 2021-05-13 | 2021-10-01 | 航天科工空间工程发展有限公司 | 一种加速指挥控制交战方法和人工智能装置 |
CN113177368A (zh) * | 2021-05-31 | 2021-07-27 | 中国人民解放军国防科技大学 | 一种面向人机交互的智能化指控训练仿真系统 |
CN113177368B (zh) * | 2021-05-31 | 2022-07-05 | 中国人民解放军国防科技大学 | 一种面向人机交互的智能化指控训练仿真系统 |
KR102441933B1 (ko) * | 2022-01-17 | 2022-09-13 | 국방과학연구소 | 모의 명령 정보를 전송하는 전자 장치의 동작 방법 및 이를 지원하는 전자 장치 |
CN114862168A (zh) * | 2022-04-27 | 2022-08-05 | 中国人民解放军军事科学院战略评估咨询中心 | 一种推演仿真环境下多方案智能切换系统 |
CN114882755A (zh) * | 2022-04-27 | 2022-08-09 | 中国人民解放军军事科学院战略评估咨询中心 | 一种面向智能对抗的多方案自主切换方法 |
CN114863049A (zh) * | 2022-05-19 | 2022-08-05 | 广州贵博地理信息技术有限公司 | 基于地理信息的沙盘作战处理方法和系统 |
CN114863049B (zh) * | 2022-05-19 | 2023-05-23 | 广州贵博地理信息技术有限公司 | 基于地理信息的沙盘作战处理方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106952014B (zh) | 2018-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106952014B (zh) | 一种基于军事仿真器的作战方案优化方法 | |
CN108364138B (zh) | 基于对抗视角的武器装备发展规划建模与求解方法 | |
CN112668175B (zh) | 基于动态情况驱动的军事仿真方法及系统 | |
CN105427032A (zh) | 一种无人机对抗决策评估方法 | |
CN106203870A (zh) | 一种面向联合作战的目标体系分析及武器分配方法 | |
CN105678030B (zh) | 基于专家系统和战术战法分形化的空战战术团队仿真方法 | |
CN109408877B (zh) | 一种反坦克导弹分队的智能射击决策方法 | |
CN109210997B (zh) | 基于智能实弹靶标系统的实兵与智能靶标对抗作战方法 | |
RU2585724C2 (ru) | Устройство для оценки эффективности войск противовоздушной обороны оперативного уровня | |
Lappi | Computational methods for tactical simulations | |
Rozman | The synthetic training environment | |
CN110231777B (zh) | 基于决策点的陆军合同战斗方案自动控制仿真方法 | |
Scogings et al. | An agent-based model of the battle of Isandlwana | |
CN114664139A (zh) | 可实现多军种联合训练及评估的方法及系统 | |
Cosma et al. | IMPLEMENTING A SOFTWARE MODELING--SIMULATION IN MILITARY TRAINING. | |
Choi et al. | Experimental and Computational Study on the Ground Forces CGF Automation of Wargame Models Using Reinforcement Learning | |
Hill et al. | Some experiments with agent-based combat models | |
Childs et al. | A battalion/brigade training simulation | |
Chaoran et al. | Application of Artificial Intelligence in Airborne Weapon Combat Identification Simulation Test | |
Biggs et al. | Small arms combat modeling: a superior way to evaluate marksmanship data | |
CN117690330B (zh) | 智能化军事行动策略模拟训练系统及方法 | |
CN112509413B (zh) | 一种登陆破障训练用无人化蓝军及其构建方法 | |
Antkiewicz et al. | Fast CoA Verification and Recommendation using Tactical Level Land Battle Deterministic Simulator | |
CN117917676A (zh) | 一种用于评估装备作战效能的兵棋推演方法 | |
Washburn | Bits, bangs or bucks? the coming information crisis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180302 |