CN111753443A - 一种基于能力累积的武器装备联合试验设计方法 - Google Patents

一种基于能力累积的武器装备联合试验设计方法 Download PDF

Info

Publication number
CN111753443A
CN111753443A CN202010744470.4A CN202010744470A CN111753443A CN 111753443 A CN111753443 A CN 111753443A CN 202010744470 A CN202010744470 A CN 202010744470A CN 111753443 A CN111753443 A CN 111753443A
Authority
CN
China
Prior art keywords
test
capability
combined
evaluation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010744470.4A
Other languages
English (en)
Inventor
孙超
姜守达
杨京礼
魏长安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202010744470.4A priority Critical patent/CN111753443A/zh
Priority to US17/033,802 priority patent/US11481309B2/en
Publication of CN111753443A publication Critical patent/CN111753443A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3684Test management for test design, e.g. generating new test cases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/282Testing of electronic circuits specially adapted for particular applications not provided for elsewhere
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/317Testing of digital circuits
    • G01R31/31707Test strategies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2205Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
    • G06F11/2236Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test CPU or processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2273Test methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3447Performance evaluation by modeling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3692Test management for test results analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Debugging And Monitoring (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于能力累积的武器装备联合试验设计方法,包括以下步骤:对参加本次试验的初始能力进行描述,并根据初始能力组合要开发的能力,确定评估策略和试验的联合作战背景信息;根据联合作战背景信息生成供联合试验支撑平台使用的逻辑靶场;根据联合作战背景信息和逻辑靶场制定试验场景,对试验场景进行分解,并确定与试验场景对应的试验方案;根据试验方案执行本次试验;对本次试验的试验结果进行分析和评估,生成一个或多个针对本次试验的联合能力评估报告。本发明能够在试验设计阶段以能力的形式直接引用以前的试验装备/体系,从而在整个的试验体系中不断迭代,实现装备试验的累积式发展。

Description

一种基于能力累积的武器装备联合试验设计方法
技术领域
本发明涉及武器装备联合试验技术领域,更具体的说是涉及一种基于能力累积的武器装备联合试验设计方法。
背景技术
武器装备作战试验是一项复杂的系统工程,是依据装备的作战使命任务,在近似实战条件下,按照作战流程,对装备作战效能、保障效能、部队适用性、作战任务满足度以及质量稳定性等进行考核与评估的装备试验活动。武器装备试验设计是指在武器装备试验实施之前,根据试验对象和目的,对试验工作各个方面、各个环节和整个过程进行总体筹划和适当安排,这一过程称为试验设计。试验设计是对整个试验过程的规划,是作战试验的核心部分,决定作战试验实施过程如何开展,是决定试验成功的关键环节。
因此,武器装备作战试验设计是指装备在进入作战试验实施阶段之前,依据被试装备的使命任务和能力需求,科学确定作战试验目的,综合考虑试验资源,对作战试验进行科学规划,选取科学试验方法,最终形成科学有效的作战试验方案和计划的过程。
现有的成熟的试验设计过程都是使命驱动型,所谓使命驱动就是直接根据作战/使命需求对作战想定进行构建,然后利用试验平台运行试验,最后对产生的试验数据进行采集并加以分析。这种类型的试验模式在面对具有相似或包含关系的试验使命的试验时,无法从以往执行过的试验中吸取经验,因此现行的联合试验的设计过程很容易造成大量重复的工作,致使试验资源浪费,只能实现平铺式的试验发展,无法实现能力在整个试验过程中的循环,方案设计阶段无法与需求定义阶段确定的能力直接关联,需求定义阶段完成的设计工作无法做到平台无关从而与其他试验平台兼容。
因此,如何提供一种能够与以往武器装备试验的能力直接相关联的武器装备试验设计方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于能力累积的武器装备联合试验设计方法,能够在试验设计阶段以能力的形式直接引用以前的试验装备/体系,从而在整个的试验体系中不断迭代,实现装备试验的累积式发展。
为了实现上述目的,本发明采用如下技术方案:一种基于能力累积的武器装备联合试验设计方法,所述能力指在特定的标准和条件下通过各种方法和手段执行任务即可达到预期效果的本领;其特征在于,包括以下步骤:
步骤S1、对参加本次试验的初始能力进行描述,并根据所述初始能力组合要开发的能力,确定评估策略和试验的联合作战背景信息;
步骤S2、根据所述联合作战背景信息生成供联合试验支撑平台使用的逻辑靶场;
步骤S3、根据所述联合作战背景信息和所述逻辑靶场制定试验场景,对所述试验场景进行分解,并确定与所述试验场景对应的试验方案;
步骤S4、根据所述试验方案执行本次试验;
步骤S5、对本次试验的试验结果进行分析和评估,生成一个或多个针对本次试验的联合能力评估报告。
经由上述的技术方案可知,与现有技术相比,通过描述试验所具有的能力,对参加本次试验的装备/体系进行标记和封装,当下一次试验需要达到的能力与之前试验实现的能力相似或者包含之前试验实现的能力时,则可在试验设计阶段以能力的形式直接引用以前的试验装备/体系,从而在整个的试验体系中不断迭代,实现装备试验的累积式发展。通过将需求定义阶段和试验方案设计阶段区分开来使需求定义阶段的设计工作实现平台无关,可以与多个平台兼容。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S1包括:
步骤S11、制定能力信息和试验信息;所述能力信息为描述能力的信息;所述试验信息为描述试验的信息;
根据所述能力在整个试验设计阶段的转换方式分为初始能力、开发中的能力和输出能力;所述初始能力为试验初始阶段的试验主体依托于其所拥有的武器装备、系统或体系的已知组合而具备的联合能力;所述开发中的能力为试验规划阶段,试验主体依据上级作战指示划分形成的联合能力;所述输出能力为试验评估分析阶段实际输出的联合能力;
步骤S12、制定联合作战背景信息;
根据步骤S11中制定能力信息和试验信息从联合试验环境基础模型库中进行检索,筛选出适合本次试验的联合试验环境基础模型;
根据筛选出的联合试验环境基础模型选择要参加试验的装备资源模型和环境资源模型;
对参加试验的装备资源模型和环境资源模型之间添加作战交互关系,生成联合作战背景信息;
对生成的联合作战背景信息的一致性和完整性进行验证。
步骤S13、制定评估策略;
收集评估信息;
根据步骤S11中的能力信息,制定关键能力问题和关键作战问题;
建立评估策略框架。
本发明通过划分能力在不同试验阶段的表现形式实现了能力的循环。通过引用关键能力问题使试验方案设计阶段与需求定义阶段确定的能力直接关联。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,所述装备资源模型包括一级平台模型和二级平台模型;所述环境资源模型包括物理环境和人文环境。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S13中标方的评估信息包括评估主体、评估职能、评估区域、评估能力和评估能力等级;所述评估主体指在评估过程中,收集试验执行结果,并对试验执行结果定量和定性评价的设备、人员或机构;所述评估职能指所述评估主体在评估过程必须要履行的行为和执行的动作;所述评估区域指所述评估主体依据评估职能所划定的待评估作战试验区域;所述待评估能力指描述待评估的相关能力;所述能力等级指对即将评估的联合能力进行评价和划分的能力评价标准。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S13中的关键能力问题为评估联合使命相关能力表现的分析性表述,其基本要素包括:任务集、使命预期效果、试验标准、试验条件、试验手段和试验方式;所述关键作战问题指设计作战效能和作战适应性的分析性表述;
所述评估策略框架根据测量的依赖性分为独立因子和依赖因子;所述独立因子包括:联合使命与任务、威胁与环境条件和系统配置选项;所述依赖因子包括:联合使命有效性测量、任务性能测量和系统属性测量。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S2包括:
步骤S21、实例化试验资源:将联合试验环境基础模型中的试验资源选择其下属的组件进行实例化;
步骤S22、添加试验节点:根据实例化后的组件确定其运行的物理节点,使试验资源在正确的物理节点参加试验;
步骤S23、生成中间插件:根据逻辑靶场内的所有试验资源所对应的联合试验环境基础模型,生成动态链接库,实现试验资源之间的数据传输。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S3包括:
步骤S31、制定试验场景;所述试验场景是对试验进行期间我方部队、敌方部队和环境之间的行动/交互关系的简要描述;
步骤S32、制定试验概念;所述制定试验概念包括建立全局试验目标、建立试验目的和确定试验顺序;
步骤S33、根据所述试验概念和所述试验场景制定试验设计;所述试验设计为试验运行时的具体方案。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S32包括:
步骤S321、建立全局实验目标:根据步骤S12中的联合作战背景信息获取关于本次试验的联合任务目标;将可用的联合任务目标与步骤S13中可用的关键能力问题相关联;将利益相关者、能力和联合任务目标整合至一个整体的试验目标中;
步骤S322、制定试验目的:根据步骤S13中的关键能力问题将步骤S321 中的全局试验目标分解出试验目的,每一个试验目的基于一个特定的关键能力问题;
步骤S323、确定试验顺序:进行根据优先级和时间对制定的试验目的进行排序。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S33包括:
步骤S331、制定试验片段:
以步骤S32中的试验目的为参考,将步骤S31指定的试验场景分解为多个试验片段,作为试验运行时的试验事件;
步骤S332、配置订购发布关系:
为试验资源之间的作战交互关系添加订购发布关系,确定试验资源之间的数据传输关系及类型;
步骤S333、制定数据采集方案:
根据步骤S331中的试验片段和与其对应关键能力问题,确定当前试验片段所需采集的关键能力指标,并制定相应的数据采集方案;
步骤S334、设计试验样本:
根据步骤S331中的关键能力指标和数据采集方案对每个试验片段制定对应的试验样本。
优选的,在上述一种基于能力累积的武器装备联合试验设计方法中,步骤S334包括:
步骤S3341、选取参试试验对象,并设置参试属性及参数;
步骤S3342、从各参试试验对象中选取参试试验因子;
步骤S3343、根据步骤S331中的关键能力指标和数据采集方案为每一个参试试验因子设定试验水平数量和水平值;
步骤S3344、选择适合所选参试试验因子的试验设计方法;
步骤S3345、根据试验设计方法生成试验样本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的流程图;
图2为本发明提供的步骤S1的流程图;
图3为本发明提供的步骤S1信息流图;
图4为本发明提供的关键能力问题的示例图;
图5为本发明提供的步骤S2的流程图;
图6为本发明提供的步骤S2的信息流图;
图7为本发明提供的步骤S3的流程图;
图8为本发明提供的步骤S3的信息流图;
图9为本发明提供的试验目标、试验目的和关键能力问题之间的关系图;
图10为本发明提供的试验场景、试验片段、试验目标和试验目的之间的关系图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例公开了一种基于能力累积的武器装备联合试验设计方法,能力指在特定的标准和条件下通过各种方法和手段执行任务即可达到预期效果的本领;其特征在于,包括以下步骤:
步骤S1、对参加本次试验的初始能力进行描述,并根据初始能力组合要开发的能力,确定评估策略和试验的联合作战背景信息;
步骤S2、根据联合作战背景信息生成供联合试验支撑平台使用的逻辑靶场;
步骤S3、根据联合作战背景信息和逻辑靶场制定试验场景,对试验场景进行分解,并确定与试验场景对应的试验方案;
步骤S4、根据试验方案执行本次试验;
步骤S5、对本次试验的试验结果进行分析和评估,生成一个或多个针对本次试验的联合能力评估报告。
其中,步骤S1产生两个关键产品:评估策略和试验的联合作战背景(JointOperational Context for Test,简称JOC-T)的描述,JOC-T描述了系统或能力即将执行其使命的运行环境。评估策略建立了验证系统或能力是否真正满足其开发要求的方法。
步骤S2将步骤S1产生的JOC-T转换成了逻辑靶场,将JOC-T中的资源模型确定为可以直接参加试验的组件。这一步将生成逻辑靶场,为后续的试验执行配置组件及其对象模型。
步骤S3基于步骤S1和S2生成的产品对试验进行设计,制定了试验的场景、概念和片段,确定了试验的具体方案。
步骤S4即是试验的执行阶段,试验执行平台加载步骤S3制定的试验方案并运行,完成试验.。
步骤S5对试验执行后产生的试验数据进行分析并评估,最终产生一个或多个联合能力评估报告。
下面对本发明的步骤S1-S3进行详细描述。
(一)如图2-3所示,步骤S1从初始能力文档中提取能力/试验信息,以此制定能力/试验描述,并使用制定的能力/试验描述来协助制定JOC-T和评估策略,供后续步骤使用。
步骤S1包括:
步骤S11、制定能力信息和试验信息;
实验设计的第一步需要对进行试验的能力进行描述,说明进行本次试验的能力的各项属性参数,制定能力/试验描述从相关的系统文件中提取与本次试验有关的能力/试验信息,试验设计人员对这些信息进行选择/组合,对能力的各项属性参数完成描述,供后续步骤使用。
能力信息即是描述能力的信息,包括能力关键词、能力文字描述、能力参数列表和系统属性列表。其中,能力关键词是联合能力的简要表述;能力文字描述是该能力的必要说明和补充描述;能力参数列表是与该能力相关的多个参数的集合;一般而言,参数应为数值,并具有相应的单位。系统属性列表是指与该能力相关的武器装备、系统或体系的多个属性的集合。
能力信息存储在能力文档中,根据能力所处的试验设计阶段,将能力划分为初始能力、开发中的能力和输出能力。初始能力指在初始阶段,试验主体依托于其所拥有的武器装备、系统或体系的已知组合而具备的联合能力,存放于初始能力文档(InitialCapability Document,简称ICD);开发中的能力指在试验规划阶段,试验主体依据上级作战指示构建试验时划分形成的联合能力,存放于能力开发文档(Capability DevelopmentDocument,简称CDD);输出能力指在评估分析阶段,实际导出的联合能力,存放于能力输出文档 (Capability Production Document,简称CPD),需要指出的是,在完成评估并导出输出能力后,其又能作为初始能力参加下一个基于能力的试验设计过程。
在初始能力文档中存放着由多个能力描述信息组成的初始能力描述信息列表。试验设计人员通过导入初始能力文档加载初始能力,然后对初始能力进行组合并挑选出本次试验关心的关键能力指标,将组合后的能力信息导入能力开发文档,供后续步骤使用。在整个试验结束后,开发完成的能力信息将会写入能力输出文档。
试验信息即是描述试验的信息,包括试验名称、试验使命说明、试验预期效果和试验任务与目标。试验信息可以从相关的系统文件获取,也可以在此阶段由试验设计人员手动添加。
步骤S12、制定联合作战背景信息;
对步骤S11描述的能力进行具现化,使能力可以真实的参与到试验当中,而能力的载体就是各式各样的装备,它们自身或者组合后就具备着多种能力,将装备作为试验参与者纳入到试验中,也即将能力纳入到试验当中。试验时,装备的运行背景即为联合作战背景,它是集我军、敌军、环境、各单元间的交互关系等信息于一体的,用于联合任务环境的场景描述。步骤S12制定试验的联合作战背景利用在步骤S11制定能力/试验描述中制定的能力信息,通过联合试验环境基础模型(包括装备资源模型和环境资源模型)完成对联合作战背景的制定,具体的制定过程包括以下5个步骤:
S121、分析试验使命
制定试验的联合作战背景的第一步就是对试验使命进行分析,分析过程就是根据步骤S11制定能力/试验描述制定的能力/试验信息对联合试验环境基础模型(包括装备资源模型和环境资源模型)进行检索,从联合试验环境基础模型库中筛选出适用于本次试验的联合试验环境基础模型,供试验设计人员使用,为描述试验参与者和环境奠定基础。
分析试验使命首先要进行语义精简,从之前制定的信息中提炼出相应的文字描述信息,这些信息包括:使命描述,试验目标,使命预期效果。其次,根据能力开发描述信息,检索具备该联合能力的相关武器装备模型,推荐给试验设计人员,方便试验设计人员根据这些推荐结果快速地选择并搭建出满意的联合作战背景。
S122、描述试验参与者
试验参与者即是参与试验的装备,它们是能力的载体,是能力在联合作战背景中的具现。试验的联合作战背景可以存在多个试验参与者,试验参与者直接推动试验的进行。
在上一步中,试验设计人员获得了与本次试验相关的推荐的资源模型和试验的描述信息,因此试验设计人员此时就可以将试验的描述信息作为参考,在推荐的资源模型中选择适合的装备资源模型作为本次试验的参与者,添加到试验当中。
S123、描述试验环境
接着对装备资源模型运行的环境进行描述。和步骤2)描述试验参与者时一样,在描述试验环境时试验设计人员需要从推荐的资源模型中选择合适的环境资源模型,作为装备资源模型的运行环境,添加到试验当中。
环境包括空气、水、土地、植物、动物和其他生物,人造结构、历史文化资源以及它们之间的相互关系。可以将环境进行分类,主要有:物理环境和人文环境两类。物理环境包括自然环境和人造环境,可以扩展到天空、气象、海洋和空间。物理环境可以包括外部和内部条件(例如:温度、湿度、辐射、电场和磁场,冲击振动等)。人文环境包括当地风土人情、经济状况,种族情况,政治和宗教派别,各社会团体历史及相互关系,一般人对我方和敌方部队的态度等。
S124、描述作战交互关系
在添加所有的资源模型后,需要对模型之间的关系做出描述。假定试验的联合作战背景中存在我方和敌方势力,那么我方试验参与者与敌方试验参与者之间是敌对关系,我方试验参与者内部之间或敌方试验参与者内部之间就是协作关系。对于这些敌对或者协作关系,称之为作战交互关系。可以将作战交互关系分为两类:攻击-防御型作战关系和主-被动协作关系。在作战交互关系中,试验参与者将向对方传递对应的数据以完成交互。试验设计人员还可以通过文字批注,传递试验参与者的特殊能力、关键问题,作战交互关系的实时性、可靠性,联合作战背景同步性等信息。
S125、核校JOC-T;
在完成了步骤1)-4)后,试验的联合作战背景就制定完成,为了确保联合作战背景的一致性与完整性,需要对联合作战背景进行验证。
验证主要包括联合作战的一致性与完整性。其中,一致性的验证是指,制定完成的联合作战背景中的试验参与者是否涵盖了步骤S11制定能力/试验描述所描述的能力/试验信息;完整性的验证是指,制定完成的联合作战背景是否具备联合作战背景应具有的所有信息。联合作战背景信息的基本组成包括:使命描述信息、我方与敌方的描述信息、环境描述信息、交互信息。这一部分主要验证试验设计人员是否依据试验使命和能力开发描述信息选择了相应的武器装备和环境资源模型,检查资源模型配给的参数/属性是否正确,验证作战交互关系的数据类型的内容是否为非空。
步骤S13、制定评估策略;
评估策略是评价某种能力的联合使命效率的蓝图/总规划,它说明了试验后期试验评估人员需要遵循的方针。在试验的需求定义阶段制定评估策略,那么在后续的试验设计和试验评估阶段,试验设计人员就会参考试验评估人员的需求,完善试验设计方案。而试验评估人员在制定数据采集方案和分析方案的时候,则必须遵守前面制定的评估策略。
评估策略的关键元素包括关键能力问题(Critical Capability Issue,简称CCI)、评估独立因素和评估依赖因素。关键元素是指,在制定试验评估策略的时候,试验设计人员需要特别予以重视的元素。评估独立因素是指在评估过程中互不影响、独立评价的因素,主要包括:联合使命与任务、敌方与环境条件、系统配置选项。评估依赖因素是指在评估过程中评估结果受独立因素影响的因素,主要包括:使命有效性测量(Mission measuresof effectiveness,简称MMOE)、任务性能测量(Task measures of performance,简称TMOP)、系统属性测量(Measures of System/SoS attributes,简称MOSA)。
为了完成评估策略的制定,需要经过以下3个步骤:
S131、收集评估信息
制定评估策略首要的便是收集评估信息,重在解决“谁去评估”和“评估的标准”问题,主要有评估主体、评估职能、评估区域、联合能力分析标准。
评估信息主要包括:评估主体信息、评估职能信息、评估区域信息、待评估能力信息、能力等级信息。评估主体是指在评估过程中,收集试验执行结果并定量和定性评价的设备、人员或者机构。评估主体信息可以是某一试验执行或分析人员、也可以是试验测量设备或者系统、还可以某一试验执行与分析机构。评估职能信息是评估主体在评估过程必须要履行的行为,以及执行的动作。评估区域信息是评估主体依据评估职能所划定的待评估作战试验区域。不同试验评估区域可能存在范围的交叉。待评估能力信息描述待评估的相关能力。能力等级信息是指对即将评估的联合能力依据什么样的能力评价标准进行评价和划分。
S132、制定关键能力问题和关键作战问题
制定评估策略最重要的就是制定关键能力问题(Critical Capability Issue,简称CCI)和关键作战问题(Critical Operational Issue,简称COI),CCI即为评估对象,解决“评估什么”的问题,COI为由能力差距引起的需要在评估时给予重视的问题。
关键能力问题是评价联合使命相关能力表现的分析性表述,其基本要素包括:任务集、使命预期效果、试验标准及条件、试验手段和方式。一般描述为:评估在A标准和条件下通过B方法和手段执行C任务集可达到D预期效果的能力,如图4所示,其中标准和条件为JOC-T的配置信息,手段和方式为JOC-T信息中的作战行动信息,任务集为试验信息中的试验使命,预期效果为试验信息中的试验效果。根据上述CCI基本要素的对应信息,从之前步骤中提取相应的信息,完成CCI的制定。
关键作战问题是涉及作战效能和作战适应性的分析性表述,更多地用于描述一个作战试验系统所面临的风险,即在开发新的联合能力时需要额外注意/ 避免的问题。在定义关键作战问题的时候需要依赖于能力差距(Capability Gap,简称CG)。所谓能力差距是指,开发中的联合能力与初始能力之间的不足之处,这些不足之处可能是因为不存在该能力,现有初始联合能力的指标达不到要求,现有初始联合能力需要重新组合产生等。在定义关键作战问题过程中,除了参考试验的联合作战背景,还要引用初始能力描述信息和能力开发描述信息中的内容。
S133、建立评估策略框架
建立评估策略框架是建立评估策略的核心问题,它概括了以联合使命为中心的评估方法论和支撑性试验策略,包括了对作战有效性、适用性和存活性做出贡献的基本任务和系统能力。该框架主要是为了给后续的试验设计和试验评估与分析提供可以快速查阅的参考资料。通过该框架的表格可以知道某一个作战/能力在评价与测量的时候需要关注的响应变量,还可以知道试验设计的概览,并对试验所用的资源和试验周期有一个前瞻性的了解。
建立评估策略框架重点解决“评估方法”的问题,也就是对每一个评估对象依照什么样的基本方法去测量和收集数据。评估策略框架不针对任何一个具体的测量方法,它只规定了对于某一评估对象,需要按照这样的框架去制定数据测量和采集方案。
试验评估策略框架根据测量的依赖性可以分为:独立因子和依赖因子。其中,评估的独立因子主要包括:联合使命与任务、威胁与环境条件、系统配置选项。而依赖因子主要包括:联合使命有效性测量、任务性能测量、系统属性测量。
评估策略框架可以确定试验的目标、以联合使命为中心的定量测量、试验设计要点、试验资源和试验周期等信息。试验的目标更多地关注于正在评估的作战使命和/或能力,并且将每个使命或能力与至少一个以使命为中心的定量测量联系起来,对于某些可用的关键能力问题或者关键作战问题进行识别。以联合使命为中心的定量测量更多地指出了评估过程中需要进行定量测量的响应变量,并不可能表述详细而具体的测量方法或流程,相关的测量方法或流程需要等到试验设计阶段才可以得到落实。在这些响应变量中有的是关键能力参数,有的是关键系统属性。以联合使命为中心的定量测量主要涉及作战效能、作战适应度和存活度等的相关的响应变量。试验设计要点主要涉及试验设计名称、测试点和示例等信息。这些试验设计要点主要是为了给后续的试验设计人员提供设计试验方案的相关指导。试验资源简要地重述评估该作战使命或者联合能力需要用到的资源或者武器装备集。试验周期简要表述该作战使命或者联合能力的评估时间段。
(二)图5说明了JOC-T转换成逻辑靶场的具体流程,步骤S2读取在步骤S1制定的JOC-T信息,对JOC-T中的试验参与者进行实例化,确定参加试验的具体装备组件,并为这些实例化后的试验参与者添加其对应的试验节点,同时根据对象模型生成中间件插件,图6说明了步骤S2的信息流。
逻辑靶场是把分布在不同地区、不同军种、或真实或虚拟或构造的资源联合在一起的逻辑上的靶场,是跨地域、跨虚拟与真实边界的试验训练资源集合体。逻辑靶场是支持试验运行的所有武器装备级模型的集合体。这些试验资源在逻辑靶场中实现了资源的确定化,通过一系列共享的特定对象模型为完成特定试验任务而协同工作,实现各独立试验资源之间的互联互通互操作。要完成JOC-T到逻辑靶场的转换共需以下3个步骤:
步骤S21、实例化试验资源:
这一步需要将JOC-T中引用的联合试验环境基础模型进行资源的实例化,将它们具体化为可以直接参加试验的组件。
试验资源实例化开始后,试验设计人员针对每一个JOC-T中的试验资源选择其下属的组件进行实例化,当所有资源实例化完成之后,即完成了逻辑靶场内资源的定义。实例化时,资源模型的组件不一定都已经建模完成,没有建模完成的组件将被作为额外的建模需求交给建模人员,建模人员将会根据需求进行建模。
步骤S22、添加试验节点
逻辑靶场的特性决定了靶场内的所有资源并不一定都在同一个物理靶场中,为了完成联合试验,逻辑靶场中的资源通常由多个物理靶场提供。为了在运行试验时对不同的物理靶场内的资源加以区分,在实例化试验资源后,需要根据具体的组件确定其运行的物理节点,也就是其所属的物理靶场,这样就可以保证在后续运行试验时,这些试验资源都会在正确的节点参加试验,确保试验运行的可靠性。
为了避免遗漏,在完成试验资源,也就是组件,实例化的同时,就要为其确定试验节点并分配至相应的试验节点。
步骤S23、生成中间插件:
根据逻辑靶场内的所有试验资源所对应的联合试验环境基础模型,生成动态链接库,实现试验资源之间的数据传输。
(三)图7说明了步骤S3基于试验想定生成试验方案的具体流程,步骤 S3使用步骤S1制定的JOC-T和步骤S2制定的逻辑靶场进行试验场景的构建,由此确定试验方案中的所有试验参与者信息;步骤S3使用步骤S1制定的评估策略确定试验的概念,为试验场景分解为试验片段提供指导;步骤S3在将试验场景分解为试验片段后,针对每一个试验片段进行试验方案的设计。图8 说明了步骤S3的信息流。
步骤S31、制定试验场景;
试验场景是试验进行期间行动进程的简要描述,它描述试验事件进行时我方部队、敌方部队和环境是怎么行动/交互的。试验场景中的作战行动的主要目的是允许收集符合试验分析需求的数据。
在制定试验场景时,需要参考已经完成的试验的联合作战背景和逻辑靶场,联合作战背景提供试验参与者之间的关系信息,逻辑靶场则提供具体的试验参与者信息,如靶场内资源的实例化名称、组件类型、所属节点及IP地址等。
步骤S32、制定试验概念;
制定试验概念所进行的活动包括建立全局试验目标、建立试验目的和确定试验顺序,制定完成的试验概念将为后续的具体设计过程提供指导。
能力是在给定的标准和条件下,通过一系列手段或方式,具有完成一组任务,达到预期目标或效果的本领。武器装备体系能力的评估是从能力的角度出发对装备体系所进行的一种综合性的评价,能力是整个试验设计过程的核心,试验方案就是根据需要鉴定的能力来划分的。为了明确应针对哪些能力进行试验设计,以及设计完成的试验方案应如何执行,需要在试验设计开始之前进行一个总体规划。而试验概念就是指导整个试验的总体规划,试验概念包含两个部分,即试验目的和试验顺序,试验目的描述了应该针对哪些能力进行试验设计,试验顺序描述了设计出的这些试验方案到底应该怎样执行。试验概念的具体制定过程包括以下3个步骤:
步骤S321、建立全局试验目标
全局试验目标将试验聚焦于联合能力的特定子集和系统/体系对实现联合使命的贡献度中,从联合试验的角度阐明和细化了系统/体系能力。
建立全局试验目标的首要步骤是审查在步骤S12制定试验的联合作战背景中制定的JOC-T,其中记录了关于本次试验的联合任务目标和有助于联合任务成功的工作;其次,试验设计人员需要查看在步骤S13制定评估策略中制定的CCI,将有关的联合任务目标与这些可应用的CCI联系起来;最后将利益相关者、能力和相关系统/体系的联合任务目标整合到一个整体的试验目标中。试验设计人员应查看ICD和CDD,确保试验目标可以追溯到有文档记录的能力和关键能力指标。
步骤S322、建立试验目的
试验目的描述了试验的直接目的,并提供了更多的信息来描述联合作战能力及其为达到预期效果而做出的贡献度。试验目的进一步将全局试验目标集中在特定的CCI上,为后续制定试验片段提供指导。
为了建立试验目的,一是审查在上一步完成的试验目标,试验目的将从试验目标中分解出来;二是审查在步骤S13制定评估策略中制定的CCI,CCI 将作为试验目标分解的参考,每一个制定完成的试验目的都应基于一个特定 CCI。试验目标、试验目的和CCI的关系如图9所示。
由于时间资金等成本的限制,不可能对所有的试验目的进行试验设计并评估,所以需要将进行取舍,选出感兴趣的真正有必要进行试验的一部分,选出的这些试验目的即形成了试验目的列表,供试验设计人员在制定试验片段时作为参考。
步骤S323、确定试验顺序
试验目的列表建立完成后就确定了应该针对哪些能力进行试验设计,试验事件的个数和主题也随之确定,接下来就要确定什么时间应该执行哪一个试验事件,即确定试验顺序。
对于一个复杂的联合试验项目,会有大量的关键能力问题需要进行评估,同时就会产生大量的试验事件,联合试验时多个试验事件可以同时进行,这就要求有一个试验事件执行规划,规定什么时间执行哪几个试验事件,试验顺序将是试验执行期间的总体规划。
试验顺序的主要内容为试验事件执行的时间计划。试验设计人员对上一步完成的试验目的进行试验顺序的规划,也即完成了对其所代表的试验事件的时间规划。
步骤S33、根据试验概念和试验场景制定试验设计;
制定试验设计分析了之前完成的试验概念和试验场景的内容,以此制定试验设计的详细信息,其中包括试验片段、订购发布关系、数据采集方案以及实验样本的各个方面。
在试验概念和试验场景完成后,试验设计人员就可以开始着手设计具体的试验事件了,每一个试验事件都有一个对应的试验片段和试验目的。试验目的从试验目标依据CCI分解得来,它将作为分解试验场景为试验片段的参考。试验片段是试验场景的一个子集,它将包含运行一个试验事件的所有信息。可以将一个试验场景分解为多个试验片段,每个试验片段都代表了一个试验事件。试验的设计过程共包含以下4个步骤:
步骤S331、制定试验片段
试验片段需要依据试验场景来制定,它是试验场景的子集。试验片段其实也是一个试验场景,由参与者和他们之间的交互关系构成。可以认为试验片段是试验场景根据试验目的分解的产物。试验目的与关键能力问题相对应,关键能力问题是由四个关键要素组成的,即标准和条件、方法和手段、任务集、预期效果,因此试验设计人员可以根据关键能力问题中的任务元素,来分解试验场景。只要判断试验场景中哪些试验资源与该任务有关,那么这些试验资源即为试验片段中的一部分。在此过程中资源之间的交互关系都会被保留到试验片段中。由此试验片段制定完成。试验场景、试验片段、试验目标和试验目的之间的关系如图10所示。
在后续的设计过程中,试验设计人员将为试验片段添加其对应的订购发布关系信息、数据采集方案信息和实验样本信息。
步骤S332、配置订购发布关系
试验方案中的订购发布信息是中间件为组件进行数据传输的依据,描述组件之间订购方和发布方之间传递的对象模型,即是确定在试验运行过程中组件之间的数据传递关系。
在试验方案的设计过程中,订购发布关系是基于实体来描述的,实体是方案内试验参与者传输对象模型实例化后的产物,包括订购实体和发布实体两种类型。当订购实体和发布实体的所对应的对象模型类型一致时,两个实体可被建立成为一组订购发布关系。一条订购发布关系由订购参与者、发布参与者、订购实体、发布实体和订购方更新类型组成,其中当订购方和发布方分别为对象模型中的属性时,订购实体和发布实体部分替换为订购实体属性或事件和发布实体属性或事件。
订购参与者和发布参与者分别指的是订购方和发布方所属参与者的名称,它们由JOC-T中存在作战交互关系的试验资源信息确定。制定试验场景时已经完成了试验资源的实例化,因此在那个阶段就已经完成了接收方ID和传输方ID与订购方和发布方所属参与者的名称的对应。
订购实体和发布实体指的是订购参与者和发布参与者对应的实体名称,订购实体属性或事件和发布实体属性或事件名称分别指的是实体下对应的订购和发布的属性,一个实体就是由若干属性和若干子实体组成的。而订购发布方实体或属性是由数据交互矩阵中的传输数据类型来确定的。传输数据类型从本质上来说其实就是实体或属性的中文解释,只要建立数据类型与对象模型类型之间的语义映射表,就可以实现订购发布关系的自动生成。
订购方更新类型是指在试验运行过程中该条订购发布关系数据更新的方式,包括直接更新和变值更新两种模式,由试验设计人员根据本次试验的特点决定。
步骤S333、制定数据采集方案
试验设计人员根据当前试验片段对应的CCI的关键能力指标设计相应的数据采集方案。数据采集方案将确定何时、如何、以及由谁收集数据需求、记录媒体和格式以及收集和接受数据的标准。这一阶段要将数据收集需求映射成真正的数据采集方案,一条数据采集方案包含五个元素,即存储节点、参与者、实体名称、实体类型和采集方式。
存储节点即采集软件运行的节点,由试验设计人员根据实际情况进行配置;参与者即被采集参与者,已经伴随着试验资源实例化的完成而确定;实体名称和实体类型即要采集数据的名称和类型,由关键能力指标的数据元素来确定;采集方式即收集数据时所采用的采集方法,分为事件触发、变值触发和定时采集。事件触发是当整个试验方案中某一实体的某一属性等于某一个值时触发采集;变值触发是当某一属性数值发生改变时触发采集;定时采集是每隔一段时间进行一次采集。
步骤S334、设计实验样本
一次实验的时间、成本、人力物力等均十分巨大,为了减少实验需要的次数,降低试验成本,缩短整个试验的周期,需要设计正确的实验样本。为此,需要针对每一个试验片段设计其对应的实验样本,进行设计的过程及概念如下:
步骤S3341、选取参试试验对象,并设置参试属性及参数;
步骤S3342、从各参试试验对象中选取参试试验因子;
步骤S3343、根据步骤S331中的关键能力指标和数据采集方案为每一个参试试验因子设定试验水平数量和水平值;
步骤S3344、选择适合所选参试试验因子的试验设计方法;
步骤S3345、根据试验设计方法生成试验样本。
试验对象:参与试验的对象,如化学实验中的某一参与者,其属性可作为试验因子。
试验因子:参与实验并影响实验结果的参数,为某一对象的参数,如化学实验中的某一成分的含量。
因子水平数:试验因子的可变化值数量,因子水平数越大,意味着该因子可选择的值越多,将导致更多的实验样本生成。
因子水平值:试验因子在参与实验时的值,一个因子可有多个水平值。
实验样本:所有试验因子一个水平值的一种排列组合,对应于一次实验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种基于能力累积的武器装备联合试验设计方法,所述能力指在特定的标准和条件下通过各种方法和手段执行任务即可达到预期效果的本领;其特征在于,包括以下步骤:
步骤S1、对参加本次试验的初始能力进行描述,并根据所述初始能力组合要开发的能力,确定评估策略和试验的联合作战背景信息;
步骤S2、根据所述联合作战背景信息生成供联合试验支撑平台使用的逻辑靶场;
步骤S3、根据所述联合作战背景信息和所述逻辑靶场制定试验场景,对所述试验场景进行分解,并确定与所述试验场景对应的试验方案;
步骤S4、根据所述试验方案执行本次试验;
步骤S5、对本次试验的试验结果进行分析和评估,生成一个或多个针对本次试验的联合能力评估报告。
2.根据权利要求1所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S1包括:
步骤S11、制定能力信息和试验信息;所述能力信息为描述能力的信息;所述试验信息为描述试验的信息;
根据所述能力在整个试验设计阶段的转换方式分为初始能力、开发中的能力和输出能力;所述初始能力为试验初始阶段的试验主体依托于其所拥有的武器装备、系统或体系的已知组合而具备的联合能力;所述开发中的能力为试验规划阶段,试验主体依据上级作战指示划分形成的联合能力;所述输出能力为试验评估分析阶段实际输出的联合能力;
步骤S12、制定联合作战背景信息;
根据步骤S11中制定能力信息和试验信息从联合试验环境基础模型库中进行检索,筛选出适合本次试验的联合试验环境基础模型;
根据筛选出的联合试验环境基础模型选择要参加试验的装备资源模型和环境资源模型;
对参加试验的装备资源模型和环境资源模型之间添加作战交互关系,生成联合作战背景信息;
对生成的联合作战背景信息的一致性和完整性进行验证。
步骤S13、制定评估策略;
收集评估信息;
根据步骤S11中的能力信息,制定关键能力问题和关键作战问题;
建立评估策略框架。
3.根据权利要求2所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,所述装备资源模型包括一级平台模型和二级平台模型;所述环境资源模型包括物理环境和人文环境。
4.根据权利要求2所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S13中标方的评估信息包括评估主体、评估职能、评估区域、评估能力和评估能力等级;所述评估主体指在评估过程中,收集试验执行结果,并对试验执行结果定量和定性评价的设备、人员或机构;所述评估职能指所述评估主体在评估过程必须要履行的行为和执行的动作;所述评估区域指所述评估主体依据评估职能所划定的待评估作战试验区域;所述待评估能力指描述待评估的相关能力;所述能力等级指对即将评估的联合能力进行评价和划分的能力评价标准。
5.根据权利要求2所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S13中的关键能力问题为评估联合使命相关能力表现的分析性表述,其基本要素包括:任务集、使命预期效果、试验标准、试验条件、试验手段和试验方式;所述关键作战问题指设计作战效能和作战适应性的分析性表述;
所述评估策略框架根据测量的依赖性分为独立因子和依赖因子;所述独立因子包括:联合使命与任务、威胁与环境条件和系统配置选项;所述依赖因子包括:联合使命有效性测量、任务性能测量和系统属性测量。
6.根据权利要求2所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S2包括:
步骤S21、实例化试验资源:将联合试验环境基础模型中的试验资源选择其下属的组件进行实例化;
步骤S22、添加试验节点:根据实例化后的组件确定其运行的物理节点,使试验资源在正确的物理节点参加试验;
步骤S23、生成中间插件:根据逻辑靶场内的所有试验资源所对应的联合试验环境基础模型,生成动态链接库,实现试验资源之间的数据传输。
7.根据权利要求2所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S3包括:
步骤S31、制定试验场景;所述试验场景是对试验进行期间我方部队、敌方部队和环境之间的行动/交互关系的简要描述;
步骤S32、制定试验概念;所述制定试验概念包括建立全局试验目标、建立试验目的和确定试验顺序;
步骤S33、根据所述试验概念和所述试验场景制定试验设计;所述试验设计为试验运行时的具体方案。
8.根据权利要求7所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S32包括:
步骤S321、建立全局实验目标:根据步骤S12中的联合作战背景信息获取关于本次试验的联合任务目标;将可用的联合任务目标与步骤S13中可用的关键能力问题相关联;将利益相关者、能力和联合任务目标整合至一个整体的试验目标中;
步骤S322、制定试验目的:根据步骤S13中的关键能力问题将步骤S321中的全局试验目标分解出试验目的,每一个试验目的基于一个特定的关键能力问题;
步骤S323、确定试验顺序:进行根据优先级和时间对制定的试验目的进行排序。
9.根据权利要求7所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S33包括:
步骤S331、制定试验片段:
以步骤S32中的试验目的为参考,将步骤S31指定的试验场景分解为多个试验片段,作为试验运行时的试验事件;
步骤S332、配置订购发布关系:
为试验资源之间的作战交互关系添加订购发布关系,确定试验资源之间的数据传输关系及类型;
步骤S333、制定数据采集方案:
根据步骤S331中的试验片段和与其对应关键能力问题,确定当前试验片段所需采集的关键能力指标,并制定相应的数据采集方案;
步骤S334、设计试验样本:
根据步骤S331中的关键能力指标和数据采集方案对每个试验片段制定对应的试验样本。
10.根据权利要求9所述的一种基于能力累积的武器装备联合试验设计方法,其特征在于,步骤S334包括:
步骤S3341、选取参试试验对象,并设置参试属性及参数;
步骤S3342、从各参试试验对象中选取参试试验因子;
步骤S3343、根据步骤S331中的关键能力指标和数据采集方案为每一个参试试验因子设定试验水平数量和水平值;
步骤S3344、选择适合所选参试试验因子的试验设计方法;
步骤S3345、根据试验设计方法生成试验样本。
CN202010744470.4A 2020-07-29 2020-07-29 一种基于能力累积的武器装备联合试验设计方法 Pending CN111753443A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010744470.4A CN111753443A (zh) 2020-07-29 2020-07-29 一种基于能力累积的武器装备联合试验设计方法
US17/033,802 US11481309B2 (en) 2020-07-29 2020-09-27 Capability test method based on joint test support platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010744470.4A CN111753443A (zh) 2020-07-29 2020-07-29 一种基于能力累积的武器装备联合试验设计方法

Publications (1)

Publication Number Publication Date
CN111753443A true CN111753443A (zh) 2020-10-09

Family

ID=72712532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010744470.4A Pending CN111753443A (zh) 2020-07-29 2020-07-29 一种基于能力累积的武器装备联合试验设计方法

Country Status (2)

Country Link
US (1) US11481309B2 (zh)
CN (1) CN111753443A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114510876A (zh) * 2022-01-30 2022-05-17 中国人民解放军空军工程大学 基于共生搜索生物地理学优化的多平台武器目标分配方法
CN115438226A (zh) * 2022-09-01 2022-12-06 中国人民解放军92493部队试验训练总体研究所 一种基于作战想定生成试验方案的方法
CN116684301A (zh) * 2023-06-26 2023-09-01 北京永信至诚科技股份有限公司 一种跨靶场任务协同的实现方法、系统、设备和存储介质
CN116702453A (zh) * 2023-05-23 2023-09-05 中国舰船研究设计中心 一种无人装备虚实试验设计系统及方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112631577B (zh) * 2021-03-10 2021-05-28 北京瑞莱智慧科技有限公司 一种模型的调度方法、模型调度器以及模型安全测试平台
CN114329928B (zh) * 2021-12-14 2024-04-09 中国运载火箭技术研究院 一种装备模型的模块化组装与总体参数快速生成方法
CN115689305A (zh) * 2022-10-27 2023-02-03 江苏未来智慧信息科技有限公司 一种用于矿井建设智能化程度的评估方法及系统
CN117009303B (zh) * 2023-07-06 2024-02-13 苏州领威电子科技有限公司 一种芯片视觉测试数据的存储方法
CN117077288B (zh) * 2023-08-21 2024-03-29 浙江大学 一种航空飞行器元件的适应性设计分析方法及系统
CN117632615A (zh) * 2024-01-26 2024-03-01 中国人民解放军军事科学院系统工程研究院 一种用于软件无线电设备测试的中间件实现方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001025876A2 (en) * 1999-10-06 2001-04-12 Accenture Llp Method and estimator for providing capacity modeling and planning
CN108897591A (zh) * 2018-06-12 2018-11-27 哈尔滨工业大学 联合试验平台中间件插件及其试验资源信息交互的方法
CN110111025A (zh) * 2019-05-21 2019-08-09 上海烜翊科技有限公司 武器装备体系评估方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042471B2 (en) * 2017-08-25 2021-06-22 Oracle International Corporation System and method for providing a test manager for use with a mainframe rehosting platform

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001025876A2 (en) * 1999-10-06 2001-04-12 Accenture Llp Method and estimator for providing capacity modeling and planning
CN108897591A (zh) * 2018-06-12 2018-11-27 哈尔滨工业大学 联合试验平台中间件插件及其试验资源信息交互的方法
CN110111025A (zh) * 2019-05-21 2019-08-09 上海烜翊科技有限公司 武器装备体系评估方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
潘志雄: "联合试验评估策略制定与作战背景构建软件开发", 中国优秀硕士学位论文全文数据库工程科技Ⅱ辑, no. 2, 15 February 2020 (2020-02-15), pages 10 - 40 *
王灿: "联合试验平台试验方案设计软件开发", 中国优秀硕士学位论文全文数据库工程科技Ⅱ辑, no. 2, 15 February 2020 (2020-02-15), pages 9 - 22 *
薄中;冯策;孙超;潘志雄;: "美军联合任务环境下的能力试验方法分析", 中国电子科学研究院学报, no. 04, 20 August 2018 (2018-08-20) *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114510876A (zh) * 2022-01-30 2022-05-17 中国人民解放军空军工程大学 基于共生搜索生物地理学优化的多平台武器目标分配方法
CN114510876B (zh) * 2022-01-30 2024-03-29 中国人民解放军空军工程大学 基于共生搜索生物地理学优化的多平台武器目标分配方法
CN115438226A (zh) * 2022-09-01 2022-12-06 中国人民解放军92493部队试验训练总体研究所 一种基于作战想定生成试验方案的方法
CN115438226B (zh) * 2022-09-01 2024-01-09 中国人民解放军92493部队试验训练总体研究所 一种基于作战想定生成试验方案的方法
CN116702453A (zh) * 2023-05-23 2023-09-05 中国舰船研究设计中心 一种无人装备虚实试验设计系统及方法
CN116684301A (zh) * 2023-06-26 2023-09-01 北京永信至诚科技股份有限公司 一种跨靶场任务协同的实现方法、系统、设备和存储介质
CN116684301B (zh) * 2023-06-26 2024-01-30 北京永信至诚科技股份有限公司 一种跨靶场任务协同的实现方法、系统、设备和存储介质

Also Published As

Publication number Publication date
US20210019251A1 (en) 2021-01-21
US11481309B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
CN111753443A (zh) 一种基于能力累积的武器装备联合试验设计方法
Azizi et al. Fire Hawk Optimizer: A novel metaheuristic algorithm
CN112052608B (zh) 一种作战推演仿真与效能评估一体化集成方法
Hanratty et al. Knowledge elicitation to prototype the value of information
Jarnevich et al. Developing an expert elicited simulation model to evaluate invasive species and fire management alternatives
Morgan et al. Improving US Navy campaign analyses with big data
Volk et al. Ask the Right Questions: Requirements Engineering for the Execution of Big Data Projects.
Hernandez et al. Post wargame experimentation and analysis: re-examining executed computer-assisted wargames for new insights
Paracchini et al. Weighting and aggregation of indicators for sustainability impact assessment in the SENSOR context
MacCalman et al. Illuminating Tradespace Decisions Using Efficient Experimental Space-Filling Designs for the Engineered Resilient System Architecture
Muñoz-Avila et al. On the role of explanation for hierarchical case-based planning in real-time strategy games
CN115146486B (zh) 面向效能评估系统的评估方法及装置
Power et al. Applying model-based system engineering to modelling and simulation requirements for weapon analysis
Bordes et al. Fires Support Next
CN116257784A (zh) 面向卫星互联网的综合效能评估方法与系统
Bodt et al. An experimental testbed for battle planning
Hill et al. Genetic Algorithms for Model Optimization
Cornejo et al. Conceptual basis for an integrated system for the management of a protected area. Examples from its application in a mediterranean area
Miller et al. Modeling the US military intelligence process
Birkemo Is Norwegian long term defence planning risk based?
Lyons et al. A Practitioner's View of Verification and Validation
Webster et al. An ontology for evaluation of network enabled capability architectures
Lovell et al. An Agent-based Approach to Evaluating the Impact of Technologies on C2
Haupt et al. Modeling and simulation behavior validation methodology and extension to model validation for the individual soldier
McHugh et al. Evaluating a Maintenance Free Operating Period for Future Vertical Lift

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination