CN117494375A - 一种作战仿真模型运行验证系统 - Google Patents
一种作战仿真模型运行验证系统 Download PDFInfo
- Publication number
- CN117494375A CN117494375A CN202310737179.8A CN202310737179A CN117494375A CN 117494375 A CN117494375 A CN 117494375A CN 202310737179 A CN202310737179 A CN 202310737179A CN 117494375 A CN117494375 A CN 117494375A
- Authority
- CN
- China
- Prior art keywords
- parameters
- module
- node
- visual
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012795 verification Methods 0.000 title claims abstract description 52
- 238000004088 simulation Methods 0.000 title claims abstract description 41
- 230000000007 visual effect Effects 0.000 claims abstract description 73
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 63
- 238000000034 method Methods 0.000 claims description 57
- 238000004422 calculation algorithm Methods 0.000 claims description 42
- 230000004438 eyesight Effects 0.000 claims description 35
- 238000011156 evaluation Methods 0.000 claims description 28
- 230000007123 defense Effects 0.000 claims description 18
- 239000004570 mortar (masonry) Substances 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000006378 damage Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 230000014509 gene expression Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 7
- 208000027418 Wounds and injury Diseases 0.000 claims description 5
- 208000014674 injury Diseases 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 4
- 230000004304 visual acuity Effects 0.000 claims description 4
- 238000007726 management method Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 230000003068 static effect Effects 0.000 description 6
- 230000004888 barrier function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000005043 peripheral vision Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000003915 air pollution Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 208000001491 myopia Diseases 0.000 description 2
- 230000004297 night vision Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 241000134426 Ceratopogonidae Species 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 229910000174 eucryptite Inorganic materials 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 201000010041 presbyopia Diseases 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004256 retinal image Effects 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- Geometry (AREA)
- Development Economics (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开是关于一种作战仿真模型运行验证系统。该作战仿真模型运行验证系统包括可视化验证界面,该可视化验证界面包括目录区域、测绘区域、比例尺区域、功能区域和图像显示区域;多个作战功能模块,多个作战功能模块至少包括相互独立、相互协同的战场感知模块、战场机动模块和火力打击模块;每个作战功能模块均包括多个子模块;其中,多个所述作战功能模块与可视化验证界面连接;可视化验证界面,用于整合、演示和验证多个作战功能模块的信息。本公开所提作战仿真模型运行验证系统能够通过可靠的建模来解决军事仿真的验证问题。
Description
技术领域
本公开涉及作战仿真技术领域,尤其涉及一种作战仿真模型运行验证系统。
背景技术
元模型的概念最早来源于软件工程领域,它是比模型更高层次的抽象概念。元模型定义了模型要素之间的相互关系和语义,它的核心思想是按照需求定制特定领域的建模语言,生成该领域的建模语言工具。
目前很多领域都通过元建模技术建立了所属领域的相应的建模语言,但在军事领域,特别是针对作战任务方面,还缺乏相应的建模语言,即现有的针对军事仿真问题,无法通过可靠的模型建立来解决军事仿真模型的验证问题。
因此,有必要提出一种方案改善上述相关技术方案中存在的一个或者多个问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开实施例提供一种作战仿真模型运行验证系统,该作战仿真模型运行验证系统包括:
可视化验证界面,所述可视化界面至少包括目录区域、测绘区域、比例尺区域、功能区域和图像显示区域;
多个作战功能模块,多个所述作战功能模块至少包括相互独立、相互协同的战场感知模块、战场机动模块和火力打击模块;每个所述作战功能模块均包括多个子模块;
其中,多个所述作战功能模块均与所述可视化验证界面连接;所述可视化验证界面,用于整合、演示和验证多个所述作战功能模块的信息。
本公开的一示例性实施例中,所述目录区域至少包括搜索选项、主页选项、全屏选项、帮助选项和管理选项;
所述测绘区域至少包括标记绘制、地图绘制、重点目标、仿真模型、综合态势、战场推演、测量分析和国军标的多个功能选项;
所述功能区域至少包括模块参数、概念单元、数学逻辑单元、程序仿真单元和其他单元的多个功能选项;所述功能区域用于存储、整合和验证多个所述作战功能模块的相关信息。
本公开的一示例性实施例中,所述战场感知模块至少包括目视观察子模块和望远镜观察子模块,其中,
所述目视观察子模块对应的所述模块参数至少包括视力参数、目标参数、天气参数和遮挡参数;通过分析和计算所述目视观察子模块对应的所述模块参数后得到目视距离和目标概率;
所述目视观察子模块对应的所述数学逻辑单元包括:
根据统计数据,采用类比法,拟合出不同目标类型的可视距离;
分析和量化视力与可视距离的关系;
设置大气能见度等级;
刻画周围遮挡情况;
所述望远镜观察子模块对应的所述模块参数至少包括视力参数、目标参数、天气参数、遮挡参数和望远镜技术参数;通过分析和计算所述望远镜观察子模块对应的所述模块参数后得到目视距离和目标概率;
所述望远镜观察子模块对应的所述数学逻辑单元包括分析望远镜口径和倍率对观察距离的影响。
本公开的一示例性实施例中,所述战场机动模块至少包括人员机动子模块、巡逻车机动子模块和装甲车机动子模块。
本公开的一示例性实施例中,所述人员机动子模块对应的所述模块参数至少包括步速参数、地理信息参数、机动模式参数、天气参数、路线规划参数和路障参数;
所述巡逻车机动子模块对应的所述模块参数至少包括巡逻车性能参数、地理信息参数、路线规划参数、天气参数、路障参数;
所述装甲车机动子模块对应的所述模块参数至少包括装甲车性能参数、地理信息参数、路线规划参数、天气参数、路障参数。
本公开的一示例性实施例中,设置所述路线规划参数的方法包括可视图法、拓扑法和自由空间法;其中,
所述可视图法包括将机器人与障碍物、目标点与障碍物、以及各障碍物之间的顶点进行连接,形成可视线,再利用相应算法进行模拟计算,找到起点到终点之间的最优路径;
所述拓扑法包括将整个工作空间进行划分,形成若干子空间;基于各子空间之间的联系形成拓扑网;在所述拓扑网中寻找起点到终点的最优拓扑路径,并将所述最优拓扑路径转化为最优几何路径;
所述自由空间法包括以其中一个障碍物的定点为基础,连接其他障碍物的定点,形成多条连接线;去除多条所述连接线中多余的线段,使得多条所述连接线与各障碍物之间组成的面积达到最大,并将每条所述连接线的中点进行连接,形成机器人的运行空间。
本公开的一示例性实施例中,所述人员机动子模块、所述巡逻车机动子模块和所述装甲车机动子模块分别对应的所述数学逻辑单元均包括利用AStar算法进行路径规划的搜索和计算;所述AStar算法包括评价函数,所述评价函数的表达式包括:
F(n)=G(n)+H(n)(1)
其中,F(n)表示初始节点、中间节点和目标节点的评价函数;G(n)表示初始节点到某一中间节点的真实代价;H(n)表示当前的中间节点到目标节点的预算代价。
本公开的一示例性实施例中,所述AStar算法的执行过程包括开放列表的存储和关闭列表的存储;
所述开放列表的存储是以所述评价函数的值对应的最小节点扩展出与之相邻的节点和相应数据;
所述关闭列表的存储是从多个节点中进行多次搜索,每次搜索出拥有所述评价函数的值对应的所述最小节点;
所述AStar算法的程序编写步骤包括:
步骤1:构建第一队列,同时通过计算得出初始节点的所述评价函数,将所述评价函数归入所述第一队列,并分别设置对应的第一队列头的指针和第一队列尾的指针;
步骤2:对所述第一队列头进行节点选取,选取的节点为第一节点,若所述第一节点为所述目标节点,则直接输出最优路径,路径搜索结束;否则进行所述第一队列头的节点扩展,扩展的节点为第二节点;
步骤3:对所述第二节点进行检查,判断所述第二节点是否与所述第一队列中已经存在的其他节点相冲突;若冲突,且所述第二节点已无法再进行扩展,则舍弃;若所述第二节点与待扩展节点出现重复,则比较所述第二节点和所述待扩展节点的所述评价函数,并保留所述评价函数对应的较小的节点;同时更新所述指针,进入步骤5;
步骤4:若所述第二节点与所述待扩展节点没有出现重复,则依据所述第二节点和所述待扩展节点的代价值的大小,进行位置排列,得到新的第二队列;
步骤5:若所述第一队列头中的节点仍然可以扩展,则进入步骤2;否则将所述第一队列头的指针向下移动,同时执行步骤2。
本公开的一示例性实施例中,所述AStar算法能够应用于多种导航图,在不同导航图中的节点的表示各不相同;多种所述导航图包括多边形导航图、可视点导航图和栅格化导航图。
本公开的一示例性实施例中,所述火力打击模块至少包括步枪打击子模块、便携式防空导弹打击子模块、迫击炮打击子模块和榴弹发射器打击子模块,其中,
所述步枪打击子模块对应的所述模块参数包括地理信息参数、步枪参数、天气参数、目标参数和士兵参数;
所述便携式防空导弹打击子模块对应的所述模块参数至少包括地理信息参数、便携式防空导弹参数、天气参数、目标参数和士兵参数;
所述迫击炮打击子模块对应的所述模块参数至少包括地理信息参数、迫击炮参数、天气参数、目标参数和士兵参数;
所述榴弹发射器打击子模块对应的所述模块参数至少包括地理信息参数、榴弹发射器参数、天气参数、目标参数和士兵参数;
所述步枪打击子模块对应的所述数学逻辑单元至少包括计算步枪的能量释放、分析步枪的威力与使用弹药之间的关系;其中,所述步枪的能量释放的表达式包括:
E = 1/2*m*v1 2 - 1/2*m*v2 2 (2)
其中,E表示步枪的能量释放的值;m表示子弹的质量;v1表示子弹进入人体的速度;v2表示子弹穿出人体的速度;*表示相乘;
所述便携式防空导弹打击子模块对应的所述数学逻辑单元至少包括分析便携式防空导弹的制导精度、分析目标的易损性、分析引战配合问题;
所述迫击炮打击子模块对应的所述数学逻辑单元至少包括迫击炮攻击过程的随机试验、计算迫击炮对目标的毁伤概率;
所述榴弹发射器打击子模块对应的所述数学逻辑单元至少包括计算榴弹对人员目标的毁伤概率;人员目标的伤情判定。
本公开提出的一种作战仿真模型运行验证系统,该作战仿真模型运行验证系统通过建立可视化验证界面与多个作战功能模块的联系,通过多个相互独立、相互协同的作战功能模块提供相关信息,并通可视化验证界面对这些信息进行整合、演示和验证,从而实现通过可靠的模型建立解决军事仿真的验证问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见的,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开示例性实施例中作战仿真模型运行验证系统的结构框图;
图2示出本公开示例性实施例中可视化验证界面的示意图;
图3示出本公开示例性实施例中目视观察子模块的结构示意图;
图4示出本公开示例性实施例中望远镜观察子模块的结构示意图;
图5示出本公开示例性实施例中可视图法进行路径规划的示意图;
图6示出本公开示例性实施例中拓扑法进行路径规划的示意图;
图7示出本公开示例性实施例中多边形导航图中节点的结构示意图;
图8示出本公开示例性实施例中利用AStar算法在多边形导航图中进行路径搜索的执行过程的示意图;
图9示出本公开示例性实施例中利用栅格法进行信息编码时AI工作空间的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式第一方面提供了一种作战仿真模型运行验证系统,如图1所示,该作战仿真模型运行验证系统包括:
可视化验证界面,所述可视化界面包括目录区域、测绘区域、比例尺区域、功能区域和图像显示区域;
多个作战功能模块,多个所述作战功能模块至少包括相互独立、相互协同的战场感知模块、战场机动模块和火力打击模块;每个所述作战功能模块均包括多个子模块;
其中,多个所述作战功能模块均与所述可视化验证界面连接;所述可视化验证界面,用于整合、演示和验证多个所述作战功能模块的信息。
本公开实施方式提出的一种作战仿真模型运行验证系统,该作战仿真模型运行验证系统通过建立可视化验证界面与多个作战功能模块的联系,通过多个相互独立、相互协同的作战功能模块提供相关信息,并通可视化验证界面对这些信息进行整合、演示和验证,从而实现通过可靠的模型建立解决军事仿真的验证问题。
下面,将对本示例实施例中的作战仿真模型运行验证系统进行更详细的说明。
如图2所示,该可视化验证界面包括目录区域、测绘区域、比例尺区域、功能区域和图像显示区域。
目录区域包括搜索选项、主页选项、全屏选项、帮助选项和管理选项等多个选项。
比例尺区域用于调节显示的仿真画面的比例。
功能区域包括模块参数、概念单元、数学逻辑单元、程序仿真单元和其他单元等多个功能选项。功能区域用于存储、整合和验证多个作战功能模块的相关信息。其他单元的功能选项包括保存、下载、清空、等高线和装备军备等。
图像显示区域用于显示仿真画面。
测绘区域用于绘制仿真画面,添加标注等作用,包括了标记绘制、地图绘制、重点目标、仿真模型、综合态势、战场推演、测量分析和国军标等多个功能选项。
本公开实施方式中将三个作战功能模块分别进行概念单元、数学逻辑单元和仿真程序单元的建构,其中,三个作战功能模块负责概念单元和数学逻辑单元的建构,可视化验证界面负责仿真程序单元的建构。这三个作战功能模块分别为战场感知模块、战场机动模块和火力打击模块。下面分别予以说明:在本公开实施方式中,
战场感知模块包括目视观察子模块和望远镜观察子模块。在实际操作中,可根据观测需要,向作战仿真模型运行验证系统添加相应的观察子模块。
在作战场景中,对战场信息的感知主要有两个方面,一个是基于目视观察,另一个是基于设备观察,优选为望远镜观察,对这两种信息感知的方式分别有:
如图3所示,目视观察子模块,是指单兵观察通常采用目视的方式进行,单兵利用目力对一定区域和目标进行察看和监视。包括对地观察、对海观察和对空观察等。因此目视观察子模块对应的模块参数包括了:士兵的视力参数、被观察的目标参数(主要为目标类型、目标距离、目标状态等)、天气参数(主要为大气可见度),以及周边环境的遮挡参数(例如,山体等)。将这些参数向作战仿真模型运行验证系统进行输入,经过分析和计算,输出目视距离和目标概率。
进一步的,在目视观察子模块中,需要考虑的静态因素包括士兵的视力参数;需要考虑的动态因素包括被观察的目标参数、天气参数、以及周围环境的遮挡参数。
视力参数:正常人的眼睛视力在1.0以上,通常所说的视力是指眼睛的最小可分视力而不是最小可见视力,所以视力表反映被检者将注视目标两点分开来的最小视角,即最小可分视力,能代表被检者最佳视觉功能。
视力可分为远视力和近视力;眼识别远方物体或目标的能力称为远视力,识别近处细小对象或目标的能力称为近视力。在健康检查时,主要是检查远视力。在一定条件下,眼睛能分辨的物体越小,视觉的敏锐度就越大。视力的基本特征在于辨别两点之间距离的大小。视力也可分为静视力、动态视力和夜间视力。静视力是指人和观察对象都处于静止状态下检测的视力,动态视力是指眼睛在观察移动目标时,捕获影像、分解、感知移动目标影像的能力。在高速环境下行车,人体的生理状态也会有所改变,具体体现在眼睛的动态视力降低。夜间视力是指眼睛在夜间的识别能力。视力还可以分中心视力和周边视力。中心视力是反映视网膜黄斑部中心凹部功能,是人眼识别外界物体形态、大小的能力。周边视力也叫周边视野。
目标参数:主要是目标类型的区分。对不同类型的目标的感知是不一样的,其取决于目标的轮廓、色彩、对比度、对可见光的反射、背景等综合因素的影响。一般情况下,我们可以对常见目标进行分类,对目标轮廓的大小及其可分分辨性进行建构。根据具体的军事训练和任务执行场景,常见的目标类型包括:人脸特征、手关节、步兵火器的外部零件和装备、建筑物、门、窗等。
天气参数:主要是指大气可见度。可见度又称能见度,指观察者离物体多远时仍然可以清楚看见该物体。气象学中,能见度被定义为大气的透明度。能见度的单位一般为米(m)或千米(km),天气好的时候能见度高,数值大;天气不好时能见度低,数值小。
可见度它有两方面的内容:一是人观察远物的能力:在室外主要用人所能观察到的标准目标的距离来表示,它可由光亮度对比来确定,还与作业细节的大小,作业的光亮度及其对比度有关;二是人眼起作用的分辨能力,例如人眼对各种颜色(波长)的光波的分辨能力。例如黄色光波(555nm)的能见度比紫色光(400nm)的强。低能见度多出现于雨天、大雾时及有烟霞的日子。空气污染会严重降低能见度,因此不少地区以能见度为空气污染的指标之一。能见度对于航空、航海和驾驶汽车都非常重要。
遮挡参数:由于是目视观察,其观察的依据是可见光,因此,观察的距离不能有遮挡,如果是观察山脉等物体,还受到地球弧度等因素的影响。比如10公里的高度可以看到约714.19公里外,同样万米高的点距离是点对点直线距离。
数学逻辑单元使用数学表达方法、逻辑表达方法和数据来描述研究对象的本质属性及其运动特征。通常由数学解析式、逻辑表达式和逻辑图等组成。在目视观察子模块对应的数学逻辑单元中,包括:
根据统计数据,采用类比法,拟合出不同目标类型的可视距离;具体见表1目标类型观察数据表:
表1:目标类型观察数据表
表1给出了不同目标类型的可分辨观测距离。即通过表1中给出的不同目标类型,通过对目标类型和距离进行拟合,得到对应的可分辨观察距离。
分析和量化视力与可视距离的关系;
一般来说,人的视力各有不同,正常人的视力,明视距离为25cm,4km以外的景物不易被看到,在大于500m时,对景物存在模糊的形象,距离缩短到250~270m时,能看清景物的轮廓,如要花木种类的识别则要缩短到几十米之内。
白天晴朗天正常人裸视距离约8千米,指的是能看到这个距离上的另一个正常人。根据统计数据,肉眼可视距离一般为300~800米;正常人的可视距离为300~500米,而远视眼的人分辨距离可达到700~800米,并且人眼能自动对焦,适应并观察不同距离的物体。可视距离一般与视力有关,而视力的好坏则由视网膜分辨影像能力的大小来判定。
人的视力范围有一定限度,在空中看到一架战斗机的平均距离是8千米左右,这是天气晴朗时的平均值。有雾、雨天、黄昏时候,能见度很差,看见的距离要大为减小。而且每个人的视力差别很大,有的飞行员可在20千米以外看到飞机,有的近到8千米也看不见。此外,还与飞机大小有很大关系,对于轰炸机可以看得远一些。肉眼还有一个特点,如果已看到飞机,一直盯住让飞机逐渐飞远则可在10多千米后才看不见。相反,在天空中找飞机,有时已飞到5千米距离还找不到。8千米目前是一个一般公认(并无明文规定)的数值。两架飞机在这一距离内空战称为目视格斗空战。
设置大气能见度等级;
大气透明度,即大气能见度。一般用等级划分,它和太阳总辐射照度有关。我国将大气透明度分为1~6个等级,1级表示当地的大气透明度最大即太阳辐射照度最大,2~6等级依次递减。另外,目标物与衬托它的背景之间的亮度差异。差异愈大,能见距离愈大。
在该数学逻辑单元中,设置了大气能见度的等级,根据能见度等级作为输入参数。
刻画周围遮挡情况;
在任务场景中,用不透明遮挡立方体的形式对遮挡物进行刻画,在GIS场景中,对遮挡区域,比如建筑,可以定义其高程数据,基于高程数据实现对不透明遮挡立方体的描述。
在该数学逻辑单元中,不透明遮挡立方体所有凸定点的集合与眼睛视角的连线构成了遮挡区域,凡是在遮挡区域的物体、设施和人员,都不能被发现,其刻画方式可以基于GIS的通视模型进行刻画。
如图4所示,望远镜观察子模块对应的模块参数包括向所述作战仿真模型运行验证系统输入视力参数、目标参数、天气参数、遮挡参数和望远镜技术参数,通过所述作战仿真模型运行验证系统的分析和计算,得到目视距离和目标概率;
本示例中选用某型望远镜,该型望远镜是一种带分划板的高密封望远镜,具有视场清晰、高亮度、像质优良、景象颜色逼真、适应范围广等特点。主要用于侦查敌情、地形、搜索目标、观察射击效果及战场情况,并可利用境内分划概略量测目标的方向角、高低角和目标距离,校正设计偏差。
望远镜观察子模块对应的数学逻辑单元包括分析望远镜口径和倍率对观察距离的影响。
望远镜的口径越大,集光力越大。极限倍率影响望远镜能得到最大的有效放大倍率。一般我们认为极限倍率为望远镜口径的2倍。望远镜的倍率并不是越大越好。一旦倍率超出望远镜的极限倍率(有效放大倍率),反而会因为无效放大使像质变得模糊,细节缺失。望远镜的倍率计算方法:物镜焦距÷目镜焦距。
在本公开实施例中,战场机动模块包括人员机动子模块、巡逻车激动子模块和装甲车机动子模块。其中,
人员机动子模块对应的模块参数包括:
人员的步速参数:步速指行步的速度,普通人步行的速度大约是1.2m/s。普通人正常步行的速度约为4~4.5公里每小时,普通人快步走可以达到7公里每小时。
地理信息参数:这里主要指坡度。坡度是地表单元陡缓的程度,通常把坡面的垂直高度与水平方向的距离的比叫做坡度。等高线越密集,坡度越陡;等高线越稀疏,坡度越缓。等高线上疏下密表示凸形坡,上密下疏表示凹形坡。
比例尺和等高距相同的等高线地形图上,在相同的水平距离上等高线越密集,坡度越大;等高线越稀疏,坡度越小。
比例尺相同、等高距不同的等高线地形图上,在相同的水平范围内等高距越大,坡度越大;等高距越小,坡度越小。
在等高线稀疏程度相同,等高距相同的情况下,比例尺越大,坡度越大,反之,比例尺越小,坡度越小。
比例尺和等高距都不相同,坡度的大小就可以用等高距与比例尺的关系进行表示。
机动模式参数:这里主要指人员步行或跑步。身体健康的成年人正常行走速度约1.2m/s,平均跑动速度为走动速度的3~5倍。具体数值因体质差异和身高体重有一定的关系,没有固定的数值。
路线规划参数:该参数的设定可以通过可视图法、拓扑法和自由空间法等方法来进行路线寻优。
路障参数:主要是指基于GIS(地理信息系统)的路径规划设置的禁止规划区域,即路障。该参数影响人员的机动距离和速度。
以及天气参数。
巡逻车机动子模块对应的模块参数包括巡逻车性能参数、地理信息参数、路线规划参数、天气参数、路障参数等。
装甲车机动子模块对应的模块参数包括装甲车性能参数、地理信息参数、路线规划参数、天气参数、道路参数。
这里对路线规划参数设置进行具体说明:设置路线规划参数的方法包括可视图法、拓扑法和自由空间法。
如图5所示,可视图法包括将机器人与障碍物、目标点与障碍物、以及各障碍物之间的顶点进行连接,形成可视线,再利用相应算法进行模拟计算,找到起点到终点之间的最优路径。该方法将问题转化成了搜索这些可视线的最小距离。通过这样的方式可以有效地得到最优化路径,但是也存在一些问题,比如若智能机器人的个体太小,那么就有可能会使得机器人与障碍物之间产生接触,而如果过于强调机器人本体大小,那么则会增加规划运行的时间。
如图6所示,拓扑法包括将整个工作空间进行划分,形成若干子空间;基于各子空间之间的联系形成拓扑网;在拓扑网中寻找起点到终点的最优拓扑路径,并将最优拓扑路径转化为最优几何路径。
拓扑法的核心是降低维度。就是将三维的结合转化为二维的拓扑空间,进而寻找到最优化的路径,其优势就是降低了搜索的范围,同时障碍物个数是决定算法难易的重要条件。该方法无需对机器人所在位置进行定位,因而具有较好的鲁棒性。然而它依旧存在问题,也就是在构建拓扑网络过程中会存在困难,尤其是障碍物较多的情况下,对已存在的网络进行改善很困难。
自由空间法包括以其中一个障碍物的定点为基础,连接其他障碍物的定点,形成多条连接线;去除多条连接线中多余的线段,使得多条连接线与各障碍物之间组成的面积达到最大,并将每条连接线的中点进行连接,形成机器人的运行空间。这种方法的优势是工作比较灵活,起点与终点的变化并不会对连通图产生干扰。劣势是当障碍物较多时,构建工作空间就非常繁杂。
战场机动模块中的三个子模块(人员机动子模块、巡逻车机动子模块和装甲车机动子模块)分别对应的数学逻辑单元均包括利用AStar算法进行路径规划的搜索和计算。
AStar算法是一种启发式函数路径计算搜索算法,该算法通过设计合理的启发式函数能够很大程度上减少寻路过程中的计算量,提高计算效率。但估计不精确是启发式函数的特点,因此利用AStar算法计算的路径可能不是一般理解的最优路径,但AStar算法能够高效的提供一种在对抗训练中相对合理的路径。AStar算法通过将初始节点和中间节点的真实代价,以及当前的中间节点到目标节点的预算代价的启发式函数来分析当前的中间节点。该启发式函数为评价函数,该评价函数的表达式为:
F(n)=G(n)+H(n)(1)
其中,F(n)表示初始节点、中间节点和目标节点的评价函数;G(n)表示初始节点到某一中间节点的真实代价;H(n)表示当前的中间节点到目标节点的预算代价。
H(n)在评价函数中起关键性作用,决定了AStar算法的效率高低。
若H(n)=0,则只有G(n)有效果,那么AStar算法就变为迪杰斯特拉(dijkstra)算法,这样就能够寻找到最优路径。
若预算代价小于真实代价,则AStar算法同样能够搜索处最优路径。
H(n)越小,则AStar算法经过扩展得到的节点就会增加,那么运行速率就会降低。
若的预算代价与真实代价相等,那么AStar算法就可以更快寻找到最优路径,同时也不会进行额外扩展,此时的速率达到最快。
若预算代价大于真实代价,则无法寻找到最优路径。这里若预算代价比真实代价大的非常多,以至于真实代价可以基本被忽略,那么AStar算法就变成了BFS算法。
AStar算法的执行过程包括开放列表的存储和关闭列表的存储;开放列表的存储是以评价函数的值对应的最小节点扩展出与之相邻的节点和相应数据;关闭列表的存储是从多个节点中进行多次搜索,每次搜索出拥有评价函数的值对应的最小节点。
AStar算法的程序编写步骤包括:
步骤1:构建第一队列,同时通过计算得出初始节点的评价函数,将评价函数归入第一队列,并分别设置对应的第一队列头的指针和第一队列尾的指针;
步骤2:对第一队列头进行节点选取,选取的节点为第一节点,若第一节点为目标节点,则直接输出最优路径,路径搜索结束;否则进行第一队列头的节点扩展,扩展的节点为第二节点;
步骤3:对第二节点进行检查,判断第二节点是否与第一队列中已经存在的其他节点相冲突;若冲突,且第二节点已无法再进行扩展,则舍弃;若第二节点与待扩展节点出现重复,则比较第二节点和待扩展节点的评价函数,保留评价函数对应的较小的节点;同时更新指针,进入步骤5;
步骤4:若第二节点与待扩展节点没有出现重复,则依据第二节点和待扩展节点的代价值的大小,进行位置排列,得到新的第二队列;
步骤5:若第一队列头中的节点仍然可以扩展,则进入步骤2;否则将第一队列头的指针向下移动,同时执行步骤2。
节点是AStar算法计算的基本单位。AStar算法可以应用于多种导航图,在不同导航图中的节点的表示各不相同。这些导航图包括了多边形导航图、可视点导航图和栅格化导航图。
在可视点导航图中,关键可视点即算法的结点。优点是结点的设置自由灵活,可以通过权衡减少AStar算法中结点的数量,减少计算量;也可以根据设计要求快速调整。缺点是在比较大的地图中,如果设置的结点比较稀疏,得到的路径会显得死板生硬,造成不自然的视觉体验。而多边形导航图可以很大程度上避免上述问题。
在多边形导航图中,使用凸多边形作为结点,一方面可以大大减少结点的数量,另一方面可以更好的覆盖整个地形。此外,通过计算初始节点和目标节点之间的直线与多边形导航中网格相邻点的位置关系,就可以得出可否直接无障碍通过,这样能够避免像可视点导航图搜索路径出现的折返“Z”型路线,使角色产生多余的绕行。
利用AStar算法在多边形导航图中搜索的路径,是一些列相邻的多边形组成的通路。在很多情况下,多个多边形组成的行走区域是可以直接通过的,此时可将这些多边形合并,形成直线路径,只在必须拐弯的拐点处使路径转折,多边形的合并和拐点的寻找方法如下:
如图7所示,按照多边形导航图的生成规格,相邻的两个多边形之间只有一条共同边,该共同边上存在两个可能作为拐点的端点,从一个多边形到另一个多边形的两个端点分别记为左端点和右端点。节点到这两个端点的方向向量分别记为左向量Vleft和右向量Vright。根据多边形节点与这两个端点的坐标就可以分别计算出左向量和右向量,同样根据目标节点的坐标就可以计算出一个目标节点的方向向量,记为Vd。
如图8所示,利用AStar算法在多边形导航图中进行路径搜索的执行过程包括:
在图8a中,AStar算法维护一个拐点表P,用来表示路径优化后的关键点,将其作为AStar算法的运算结果。
在图8b中,首先,AStar算法将起始节点的代表点设置为多边形的中心点,并加入拐点表P;然后,分别计算到下一节点的左向量、右向量和目标节点的方向向量的夹角,该夹角较小方向上的端点设置为下一节点的代表点。
在图8c中,根据下一个节点的代表点、左端点和右端点分别计算左向量和右向量。若左向量和右向量都不为零,则执行和起始节点相同的操作。若左向量为零,说明代表点和左端点重合,将左端点记为一个拐点,并加入拐点表P。
在图8d中,直到到达目标节点时,将当前的代表点与目标节点先后一起加入拐点表P,AStar算法结束。
这里用到了拐点法。AStar算法路径经拐点法优化后,会出现沿导航图边界行走的情况,只要设置对抗训练校色的自身半径作为offset函数校正即可实现与导航图边界保持一定距离行进、避免与边界碰撞卡顿。
在栅格化导航图中,进行路径规划时使用栅格法相当于将AI的工作空间模拟成为栅格地图,从而对AI的工作空间进行数学模型的构建。在栅格地图中,AI的工作空间被转化为平面二维数组,且障碍物的位置与体积一经确定,将不会发生变化。
根据AI的大小,在栅格地图的构建中,首先设定单个网格的边长R,每一个网格的面积W=R2,W可看作是一个网格,那么所有W就被看成面积相同且边长为RL的正方形栅格工作空间。同时由于在每一个栅格上记录了AI的移动情况,因此栅格的属性就被确定下来。假设障碍物存在于某一栅格内,则此栅格被定义为障碍栅格。若任一栅格中没有任何障碍物,那么这样的栅格就是自由栅格,此时AI就能够通过栅格。当栅格之中存在障碍物时,不管障碍物是否占据整个栅格,都应该依据障碍物的栅格来进行区分。对起始位置的点Sstart当作AI的起点,将目标位置所在的点Sgoal定义为AI的目标栅格。
在栅格化导航图中,存在以下问题:
第一、栅格尺寸的选取
利用栅格法的实质应该是路径信息的离散化,所以在地图中的信息应该与实际路径存在一定的差别,所以难免会存在一些误差,而这种误差通常是由于地图的分辨率而导致,因而栅格可以说是通过分辨率来确定的。基于此,可以把栅格尺寸当作是评价一个地图质量高低的标尺。当栅格的尺寸比较小时,那么地图的精度就会提升,因而误差就会降低,地图表示与实际路径差别就会很小。不过如果环境为一个大型的场地,随着栅格的数量的增加,但是如果栅格变小了,那么此时网格的数目就会随之增多,此时所占的内存也会相应的增加,这就会导致搜索速度变慢,从而增加了路径搜索的时间。反之如果每个栅格的大小被设计的偏大,当地图构建后它的分辨率一定会偏低,因而会影响最终结果的精确度。基于此,可通过匹配了AI的体积来确定具体的工作空间,进而就可以针对性的设计具体的栅格尺寸。并将这种尺寸RL设定为AI能够运动的最小面积。综合实验区域等客观因素,确定栅格地图的行列数:M=R/RL,N=M=R/RL。栅格尺寸与数量的合理选取也使对精度的影响降到了最低。
第二、栅格的标识
利用栅格法描述工作空间,栅格的标识是必不可少的。本实施例中利用直角坐标系法和序号法为栅格标识。
第三、栅格的信息编码
如图9所示,当通过栅格法进行区域处理后,就可以进一步进行对应的编码工作。由于栅格与数组存在对应的联系,因而对矩阵进行行列分割能够实现栅格的存储。
数组矩阵之中,栅格的坐标是结构体的索引,任一栅格的信息都能够通过数组进行表示,结构体与地图中的栅格相对应。在直角坐标系中,栅格的坐标值用(X,Y)表示,障碍物的选择标记被赋予0和1两个值,如果是0,则该栅格为自由栅格,可以通行;如果是1,则该栅格为障碍栅格,不能通行。在此基础上,搜索过程中栅格地图就会显示出来。
根据具体路径信息,在栅格地图上添加静态障碍物,障碍物经过栅格化处理后以二维数组形式存储在工作空间。本实施例中选取两组不同栅格密度的工作空间10×10和30×30,两组工作空间中的静态障碍物均用红色圆圈表示。
在本实施例中,火力打击模块包括了步枪打击子模块、便携式防空导弹打击子模块、迫击炮打击子模块和榴弹发射器打击子模块。
步枪打击子模块对应的模块参数包括地理信息参数、步枪参数、天气参数、目标参数和士兵参数。
便携式防空导弹打击子模块对应的模块参数包括地理信息参数、便携式防空导弹参数、天气参数、目标参数和士兵参数。
我国的防空导弹有:远程防空导弹:红旗2、红旗9、S300、FT-2000;中程防空导弹:红旗61、KS-1、飞蠓80;近程/肩扛式防空导弹:红缨5、红缨6、红缨6B、前卫1、前卫2、前卫3、飞弩6等多种型号。
迫击炮打击子模块对应的模块参数包括地理信息参数、迫击炮参数、天气参数、目标参数和士兵参数。
榴弹发射器打击子模块对应的模块参数包括地理信息参数、榴弹发射器参数、天气参数、目标参数和士兵参数。
步枪打击子模块对应的数学逻辑单元包括计算步枪的能量释放、分析步枪的威力与使用弹药之间的关系;其中,步枪的能量释放的表达式为:
E = 1/2*m*v1 2 - 1/2*m*v2 2 (2)
其中,E表示步枪的能量释放的值;m表示子弹的质量;v1表示子弹进入人体的速度;v2表示子弹穿出人体的速度;*表示相乘。
便携式防空导弹打击子模块对应的数学逻辑单元包括分析便携式防空导弹的制导精度、分析目标的易损性、分析引战配合问题。
迫击炮打击子模块对应的数学逻辑单元包括迫击炮攻击过程的随机试验、计算迫击炮对目标的毁伤概率。
榴弹发射器打击子模块对应的数学逻辑单元包括计算榴弹对人员目标的毁伤概率;人员目标的伤情判定。
进一步的,人员目标的伤情判定见下表2所示:
表2:人员目标的伤情判定表
由表2可以看到,被击中人员呈现各种姿态时,身体各部位占该人员目标平均受弹面积的数值。可以通过随机抽取数对中弹部位进行模拟。
最后,这三个模块的相关信息通过代码实现过程,进入可视化验证界面加以整合、演示和验证。
应当注意,尽管在上文详细描述中提及了用于动作执行的系统的若干单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。可以根据实际的需要选择其中的部分或者全部单元来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种作战仿真模型运行验证系统,其特征在于,所述作战仿真模型运行验证系统包括:
可视化验证界面,所述可视化界面至少包括目录区域、测绘区域、比例尺区域、功能区域和图像显示区域;
多个作战功能模块,多个所述作战功能模块至少包括相互独立、相互协同的战场感知模块、战场机动模块和火力打击模块;每个所述作战功能模块均包括多个子模块;
其中,多个所述作战功能模块均与所述可视化验证界面连接;所述可视化验证界面,用于整合、演示和验证多个所述作战功能模块的信息。
2.根据权利要求1所述作战仿真模型运行验证系统,其特征在于,
所述目录区域至少包括搜索选项、主页选项、全屏选项、帮助选项和管理选项;
所述测绘区域至少包括标记绘制、地图绘制、重点目标、仿真模型、综合态势、战场推演、测量分析和国军标的多个功能选项;
所述功能区域至少包括模块参数、概念单元、数学逻辑单元、程序仿真单元和其他单元的多个功能选项;所述功能区域用于存储、整合和验证多个所述作战功能模块的相关信息。
3.根据权利要求2所述作战仿真模型运行验证系统,其特征在于,所述战场感知模块至少包括目视观察子模块和望远镜观察子模块,其中,
所述目视观察子模块对应的所述模块参数至少包括视力参数、目标参数、天气参数和遮挡参数;通过分析和计算所述目视观察子模块对应的所述模块参数后得到目视距离和目标概率;
所述目视观察子模块对应的所述数学逻辑单元包括:
根据统计数据,采用类比法,拟合出不同目标类型的可视距离;
分析和量化视力与可视距离的关系;
设置大气能见度等级;
刻画周围遮挡情况;
所述望远镜观察子模块对应的所述模块参数至少包括视力参数、目标参数、天气参数、遮挡参数和望远镜技术参数;通过分析和计算所述望远镜观察子模块对应的所述模块参数后得到目视距离和目标概率;
所述望远镜观察子模块对应的所述数学逻辑单元包括分析望远镜口径和倍率对观察距离的影响。
4.根据权利要求2所述作战仿真模型运行验证系统,其特征在于,所述战场机动模块至少包括人员机动子模块、巡逻车机动子模块和装甲车机动子模块。
5.根据权利要求4所述作战仿真模型运行验证系统,其特征在于,
所述人员机动子模块对应的所述模块参数至少包括步速参数、地理信息参数、机动模式参数、天气参数、路线规划参数和路障参数;
所述巡逻车机动子模块对应的所述模块参数至少包括巡逻车性能参数、地理信息参数、路线规划参数、天气参数、路障参数;
所述装甲车机动子模块对应的所述模块参数至少包括装甲车性能参数、地理信息参数、路线规划参数、天气参数、路障参数。
6.根据权利要求5所述作战仿真模型运行验证系统,其特征在于,设置所述路线规划参数的方法包括可视图法、拓扑法和自由空间法;其中,
所述可视图法包括将机器人与障碍物、目标点与障碍物、以及各障碍物之间的顶点进行连接,形成可视线,再利用相应算法进行模拟计算,找到起点到终点之间的最优路径;
所述拓扑法包括将整个工作空间进行划分,形成若干子空间;基于各子空间之间的联系形成拓扑网;在所述拓扑网中寻找起点到终点的最优拓扑路径,并将所述最优拓扑路径转化为最优几何路径;
所述自由空间法包括以其中一个障碍物的定点为基础,连接其他障碍物的定点,形成多条连接线;去除多条所述连接线中多余的线段,使得多条所述连接线与各障碍物之间组成的面积达到最大,并将每条所述连接线的中点进行连接,形成机器人的运行空间。
7.根据权利要求4所述作战仿真模型运行验证系统,其特征在于,所述人员机动子模块、所述巡逻车机动子模块和所述装甲车机动子模块分别对应的所述数学逻辑单元均包括利用AStar算法进行路径规划的搜索和计算;所述AStar算法包括评价函数,所述评价函数的表达式包括:
F(n)=G(n)+H(n) (1)
其中,F(n)表示初始节点、中间节点和目标节点的评价函数;G(n)表示初始节点到某一中间节点的真实代价;H(n)表示当前的中间节点到目标节点的预算代价。
8.根据权利要求7所述作战仿真模型运行验证系统,其特征在于,
所述AStar算法的执行过程包括开放列表的存储和关闭列表的存储;
所述开放列表的存储是以所述评价函数的值对应的最小节点扩展出与之相邻的节点和相应数据;
所述关闭列表的存储是从多个节点中进行多次搜索,每次搜索出拥有所述评价函数的值对应的所述最小节点;
所述AStar算法的程序编写步骤包括:
步骤1:构建第一队列,同时通过计算得出初始节点的所述评价函数,将所述评价函数归入所述第一队列,并分别设置对应的第一队列头的指针和第一队列尾的指针;
步骤2:对所述第一队列头进行节点选取,选取的节点为第一节点,若所述第一节点为所述目标节点,则直接输出最优路径,路径搜索结束;否则进行所述第一队列头的节点扩展,扩展的节点为第二节点;
步骤3:对所述第二节点进行检查,判断所述第二节点是否与所述第一队列中已经存在的其他节点相冲突;若冲突,且所述第二节点已无法再进行扩展,则舍弃;若所述第二节点与待扩展节点出现重复,则比较所述第二节点和所述待扩展节点的所述评价函数,并保留所述评价函数对应的较小的节点;同时更新所述指针,进入步骤5;
步骤4:若所述第二节点与所述待扩展节点没有出现重复,则依据所述第二节点和所述待扩展节点的代价值的大小,进行位置排列,得到新的第二队列;
步骤5:若所述第一队列头中的节点仍然可以扩展,则进入步骤2;否则将所述第一队列头的指针向下移动,同时执行步骤2。
9.根据权利要求8所述作战仿真模型运行验证系统,其特征在于,所述AStar算法能够应用于多种导航图,在不同导航图中的节点的表示各不相同;多种所述导航图包括多边形导航图、可视点导航图和栅格化导航图。
10.根据权利要求2所述作战仿真模型运行验证系统,其特征在于,所述火力打击模块至少包括步枪打击子模块、便携式防空导弹打击子模块、迫击炮打击子模块和榴弹发射器打击子模块,其中,
所述步枪打击子模块对应的所述模块参数包括地理信息参数、步枪参数、天气参数、目标参数和士兵参数;
所述便携式防空导弹打击子模块对应的所述模块参数至少包括地理信息参数、便携式防空导弹参数、天气参数、目标参数和士兵参数;
所述迫击炮打击子模块对应的所述模块参数至少包括地理信息参数、迫击炮参数、天气参数、目标参数和士兵参数;
所述榴弹发射器打击子模块对应的所述模块参数至少包括地理信息参数、榴弹发射器参数、天气参数、目标参数和士兵参数;
所述步枪打击子模块对应的所述数学逻辑单元至少包括计算步枪的能量释放、分析步枪的威力与使用弹药之间的关系;其中,所述步枪的能量释放的表达式包括:
E = 1/2*m*v1 2 - 1/2*m*v2 2 (2)
其中,E表示步枪的能量释放的值;m表示子弹的质量;v1表示子弹进入人体的速度;v2表示子弹穿出人体的速度;*表示相乘;
所述便携式防空导弹打击子模块对应的所述数学逻辑单元至少包括分析便携式防空导弹的制导精度、分析目标的易损性、分析引战配合问题;
所述迫击炮打击子模块对应的所述数学逻辑单元至少包括迫击炮攻击过程的随机试验、计算迫击炮对目标的毁伤概率;
所述榴弹发射器打击子模块对应的所述数学逻辑单元至少包括计算榴弹对人员目标的毁伤概率;人员目标的伤情判定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310737179.8A CN117494375A (zh) | 2023-06-20 | 2023-06-20 | 一种作战仿真模型运行验证系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310737179.8A CN117494375A (zh) | 2023-06-20 | 2023-06-20 | 一种作战仿真模型运行验证系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117494375A true CN117494375A (zh) | 2024-02-02 |
Family
ID=89680556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310737179.8A Pending CN117494375A (zh) | 2023-06-20 | 2023-06-20 | 一种作战仿真模型运行验证系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117494375A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117910284A (zh) * | 2024-03-20 | 2024-04-19 | 中国人民解放军战略支援部队航天工程大学 | 一种面向兵棋计算的对地观测迷雾模型 |
-
2023
- 2023-06-20 CN CN202310737179.8A patent/CN117494375A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117910284A (zh) * | 2024-03-20 | 2024-04-19 | 中国人民解放军战略支援部队航天工程大学 | 一种面向兵棋计算的对地观测迷雾模型 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109828592B (zh) | 一种障碍物检测的方法及设备 | |
CN107202982B (zh) | 一种基于无人机位姿计算的信标布置及图像处理方法 | |
CN107577241B (zh) | 一种基于避障系统的消防无人机航迹规划方法 | |
CN106826833A (zh) | 基于3d立体感知技术的自主导航机器人系统 | |
US20210327287A1 (en) | Uav path planning method and device guided by the safety situation, uav and storage medium | |
CN117494375A (zh) | 一种作战仿真模型运行验证系统 | |
CN101118622A (zh) | 在城市环境下微型飞行器三维轨迹仿真方法 | |
CN108801268A (zh) | 目标对象的定位方法、装置及机器人 | |
CN113781431B (zh) | 基于城市点云数据的绿视率计算方法 | |
CN103884281B (zh) | 一种基于主动结构光的巡视器障碍探测方法 | |
CN111275015A (zh) | 一种基于无人机的电力巡线电塔检测识别方法及系统 | |
CN109145474A (zh) | 一种适用于作战仿真的红外成像设备侦察效果模拟方法 | |
Browning et al. | 3D Mapping for high-fidelity unmanned ground vehicle lidar simulation | |
CN103761762B (zh) | 一种基于OpenGL着色器的红外成像仿真方法 | |
CN114841068A (zh) | 一种三维高仿真兵棋推演平台与方法 | |
CN104765930A (zh) | 空中红外目标对抗仿真系统 | |
CN104834913A (zh) | 基于深度图像的旗语识别方法及装置 | |
CN109858499A (zh) | 一种基于Faster R-CNN的坦克装甲目标检测方法 | |
CN103575272A (zh) | 森林环境中移动机器人自然路标提取方法 | |
CN117073455A (zh) | 海上射击训练辅助系统 | |
CN109359395B (zh) | 基于Petri网的红外制导导弹效能评价方法及系统 | |
Peot et al. | Planning sensing actions for UAVs in urban domains | |
Rao et al. | Recognition of Intent Using Light Detection and Ranging | |
Zimmermann | Flight test results of helicopter approaches with trajectory guidance based on in-flight acquired LIDAR data | |
Lang et al. | Semantic mapping for mobile outdoor robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |