CN114578710A - 基于多智能体的有无人协同体系的作战仿真系统及方法 - Google Patents
基于多智能体的有无人协同体系的作战仿真系统及方法 Download PDFInfo
- Publication number
- CN114578710A CN114578710A CN202210181523.5A CN202210181523A CN114578710A CN 114578710 A CN114578710 A CN 114578710A CN 202210181523 A CN202210181523 A CN 202210181523A CN 114578710 A CN114578710 A CN 114578710A
- Authority
- CN
- China
- Prior art keywords
- combat
- party
- battlefield
- battle
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B17/00—Systems involving the use of models or simulators of said systems
- G05B17/02—Systems involving the use of models or simulators of said systems electric
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种基于多智能体的有无人协同体系作战仿真方案,包括复杂战场环境模块、战场多方模块、协同控制模块、以及多方对抗推演模块;复杂战场环境模块用于自动生成战场环境;战场多方模块用于自动生成我方、敌方以及未知方作战编组,对每个作战编组的作战单元赋予兵力以及简单智能;协同控制模块将作战任务分配给我方不同的作战单元,使我方作战单元依靠环境感知自主地规划作战行为;多方对抗推演模块依靠对应指令,使各个作战单元执行作战行为。本发明解决了在未来高烈度战场环境下,智能化作战单元动态组合和重组的问题,为新质作战样式的能力生成机理提供了一种有效的验证方式。
Description
技术领域
本发明涉及人工智能和指挥控制领域,特别涉及基于多智能体的有无人协同体系作战仿真系统及方法。
背景技术
随着无人系统、物联网、高超声速装备的军事应用越来越广,智能化战争的已成为未来战争的必然趋势。在未来覆盖陆、海、空、天、网、电等实体和虚拟战场的体系作战中,智能将渗透到各作战环节,作战平台实现无人化和智能化,分布式部署于全战场纵深,融合于作战体系的每一单元和要素,使得网络体系具备更加透彻的感知、更加高效的指挥、更加精确的打击和更加自由的互联。
目前正处于从平台中心战到网络中心战的根本性转变之中,“全互联”面临着越来越多的挑战,人工智能、无人系统技术的军事应用必将催生新的作战样式,基于人工智能和无人技术的后网络中心战作战样式研究已经成为热点。基于智能、无人技术的新的制胜机制和作战概念来完成任务,其重点是比对手做出更快更好的决策,而不是与敌人进行消耗战。决策中心战允许指挥员做出更快、更有效的决策,同时降低对手决策的质量和速度。网络中心战假设战场具有高透明度和高控制力。然而,决策中心战充分考虑了军事冲突中的不透明性。为了实现分布式作战的概念,有必要设计一种新的指挥与控制体系结构,将人类指挥与人工智能机器相结合,从而使前线指挥员能够控制分布式部队,适应作战环境,执行军事任务。基于态势感知的协同控制在于指挥控制过程的改变和自主无人系统作战能力的生成。人类指挥员提供灵活和创造性的见解,而机器提供速度和可扩展性,更能为敌人制造多重困境。
未来战争的趋势将是一组由人类控制的各种功能的无人设备。士兵充当无人设备的“牧羊人”,为无人设备分配任务。在这种模式下,无名装备将获得比“忠诚作战伙伴”更多的自主权。无人设备将具有独立感知和受控决策功能,重点是任务完成。“牧羊人”摆脱了繁重的工作量,可以更加注重适应能力和创造力,更加注重应对其他不可预见的紧急情况。人机融合补充了有人和无人装备的优势,实现了无人装备的人控,有效提高了无人装备对作战环境的响应能力,拓宽了有人装备的感知和攻击边界,对提高未来作战能力是有效的。
对于新的作战样式的研究,从宏观到微观目前主要有三种研究方法,一是基于前沿技术的作战概念研究,如决策中心战、马赛克战等,二是基于模型的作战仿真,如兵棋推演等,三是面向典型作战样式的演习。然而目前的技术手段存在若干问题:作战概念研究往往偏于宏观,难以对制胜机理和组织运用模式提供有效的研究手段。作战仿真主要基于现有的装备数字化模型,信息流和指挥控制关系也主要基于现有装备模型,难以验证新质作战样式。作战演习难以验证足够丰富的边界条件。
作战仿真是以军事需求为牵引,以仿真为技术手段的军事问题特殊研究方法,作战仿真就是对作战过程、作战结果乃至对任何与作战直接相关事物的仿真,是指利用模型复现实际系统中发生的本质过程,并通过对系统模型的实验来研究存在的或设计中的系统。新型作战概念从提出到实战化应用往往是一个漫长的过程,其主要原因之一便是制胜机理无法验证。
应该注意,上面对技术背景的介绍只是为了方便对本申请的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本申请的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
本发明的目的是:针对上述背景技术中存在的不足,提供基于多智能体的有无人协同体系作战仿真系统及方法,面向作战编组构建智能体,定义各个智能体的状态、能力、交互关系,为新质作战样式的能力生成机理提供验证方式。
为了达到上述目的,本发明提供了基于多智能体的有无人协同体系作战仿真系统,包括复杂战场环境模块、战场多方模块、协同控制模块、以及多方对抗推演模块。
所述复杂战场环境模块用于自动生成战场环境,基于层叠模型对战场环境进行构建。
所述战场多方模块用于自动生成我方、敌方以及未知方作战编组,对每个作战编组的作战单元赋予兵力以及简单智能,以模拟作战。
所述协同控制模块基于对战场环境的感知与任务式指挥控制,将作战任务分配给我方不同的作战单元,使我方作战单元依靠环境感知自主地规划作战行为。
所述多方对抗推演模块依靠对应指令,使各个作战单元执行作战行为。
其中,所述复杂战场环境模块动态生成战场环境,包括障碍物和自然环境要素,以及物理约束模型。
其中,所述战场多方模块构建作战编组时,各作战单元均使用BDI模型架构实现自主,通过FIPA ACL协议传达信念。
其中,所述协同控制模块包括决策支持单元,竞标单元以及智能孪生体。具体的,
所述决策支持单元用于将指挥员的作战意图翻译成顶层作战方案,并结合战场态势与作战要素的监控资源及通信状态形成作战任务;所述竞标单元用于实现所述作战任务的分解与分发;所述智能孪生体用于实现对作战编组的资源抽象与管理、运行状态的提取与分析,向作战编组中各作战单元下达对应的作战指令,并评估分析该指令完成效果。
所述决策支持单元通过所述竞标单元与所述智能孪生体实现交互,所述智能孪生体综合所提取与分析的所述作战编组信息形成战场态势、作战要素的监控资源及通信状态,向所述决策支持单元输入。
进一步的,所述协同控制模块采用边端一体化设计融合边缘计算与作战平台,决策支持单元布置在核心云,智能孪生体布置在边缘云。
进一步的,所述协同控制模块内设有多个智能孪生体,每个所述智能孪生体对应作战编组内的不同编组。
本发明还提供了一种基于多智能体的有无人协同体系的作战仿真方法,包括如下步骤:
S1、环境初始化,同时初始化红方作战编组与目标任务。
S2、复杂环境构建,所构建的环境要素包括障碍物和自然环境,同时还包括物理约束模型,用于输入物理世界的实际约束。
S3、多方智能体构建,生成我方、敌方以及未知方作战编组,其中敌方和未知方根据战场环境自动生成,再赋予各作战编组的作战单元兵力以及简单智能。
S4、事件驱动的仿真推演。
进一步的,S3中构件作战编组时,作战单元均使用BDI模型架构实现自主,通过FIPA ACL协议传达信念。
进一步的,S4中我方依靠协同控制方法,基于对战场环境的感知与任务式指挥控制模式,将作战任务分配给不同作战编组的作战单元,作战单元通过环境感知自主地规划作战行为;敌方以分散的方式感知我方兵力和战场环境,在约束条件下随机地移动,自主地实行规避或者攻击行为;未知方中有一部分是和平的,一部分是敌方的伪装,和平性质的作战单元将也基于战场环境的约束条件下随意移动,不会发生对我方或敌方的攻击行为,而攻击性质的未知方,在发现我方的作战单元后将会执行攻击行为。
更进一步的,协同控制方法基于所述协同控制模块,包括如下子步骤:
S41、决策支持单元根据指挥员的作战意图提出任务;
S42、通过竞标单元以协商交互的方式向智能孪生体发布任务信息;
S43、智能孪生体结合自身状态、资源对接收到的任务进行评估,选择接受任务或拒绝任务;选择接受任务则执行步骤S44,拒绝任务则结束步骤;
S44、智能孪生体将实施方案的建议信息和自身状态、资源发送给决策支持单元;
S45、决策支持单元对智能孪生体所建议的实施方案进行评估,判断该智能孪生体是否有能力执行任务;判断有能力则执行步骤S46,判断无能力则结束步骤;
S46、决策支持单元将任务分配方案反馈至智能孪生体,由智能孪生体向作战编队中的作战单元发送指令;
S47、智能孪生体在作战编队执行任务的同时,结合所提取的战场态势、作战要素的监控资源及通信状态对任务执行效果进行评估,形成反馈信息发送至决策支持单元;
S48、决策支持单元根据反馈信息对作战任务的执行情况进行评估,形成新的任务信息,循环至步骤S42,直至任务完成。
本发明的上述方案有如下的有益效果:
本发明提供的作战仿真系统及方法,基于动态环境下作战编组的场景认知,建立人与机器皆能理解的态势共享机制,通过异构作战系统协同感知与控制模型,实现人机功能的动态分配和权限调节,依靠机器决策范围内的分布式多智能体不完全信息多目标协同决策方式,实现多智能体在临时局域网下的行为自同步与自学习,解决在未来高烈度战场环境下,智能化作战单元动态组合和重组的问题,为新质作战样式的能力生成机理提供了一种有效的验证方式。
本发明的协同控制模块能够满足无人作战编组在对抗环境中执行作战任务的需要,在通信不可靠条件下,决策支持单元通过竞标单元与各个智能孪生体进行交互,基于合同网络进行任务分解和评估实现任务的分解与分发,而智能孪生体适应指挥信息系统数字化发展的趋势,虚拟化了相应作战编组的资源,具备综合代理能力,依据所属作战编组的资源状态、健康状态、通信状态等与决策支持单元签署部分作战任务。
本发明的其它有益效果将在随后的具体实施方式部分予以详细说明。
附图说明
图1为本发明的实施例1中仿真系统的示意图;
图2为本发明的实施例1中复杂战场环境模块示意图;
图3为本发明的实施例1中协同控制模块示意图;
图4为本发明的实施例2中协同控制方法流程图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
为了简单说明,该方法或规则作为一系列操作来描绘或描述,其目的既不是对实验操作进行穷举,也不是对实验操作的次序加以限制。例如,实验操作可以各种次序进行和/或同时进行,并包括其他再次没有描述的实验操作。此外,所述的步骤不都是在此描述的方法和算法所必备的。本领域技术人员可以认识和理解,这些方法和算法可通过状态图或项目表示为一系列不相关的状态。
实施例1,如图1所示,本发明的实施例1提供了基于多智能体的有无人协同体系作战仿真系统,包括复杂战场环境模块、战场红蓝白三方模块、协同控制模块、以及红蓝白三方对抗推演模块。
同时如图2所示,复杂战场环境模块是一种基于层叠模型的战场自然环境构建模块,战场环境的自动生成可以模拟出较为真实的战场环境。战场环境具有多元化和互动性等特征,地理环境是战场环境的主要决定因素,而气候环境也会对战场环境产生较大影响。战场环境是由模块动态产生的,包括障碍物和自然环境要素,如山川、湖泊、河流以及桥梁。该模块设置了物理约束模型,用于输入物理世界的实际约束,如碰撞检测、限速、转向角限制等。
战场红蓝白三方模块设置了红蓝白三方,红色代表我方,蓝色代表敌方,白色代表未知方。其中,红方作战编组与目标任务在环境初始化时设置,然后根据战场环境自动生成蓝方和白方,再赋予三方兵力以简单智能,让其进行模拟作战。在构建三方作战单元时,作战人员、无人车、无人机等作战单元均使用BDI模型架构实现自主,通过FIPA ACL(AgentCommunication Language)协议传达信念,此时作战单元只了解所处的环境,严重依赖集群而不是自身(例如:他们可以相信车队在某个地方,但实际上从那时起它已经移动了很多,那么无人机可能会失联,除非另一架无人机更新其对车队新位置的看法)。作战兵力是模拟的核心,因为所有其他Agent都只是人类行为的模型,它们以分散的P2P方式进行交流,向同伴传达和重复他们的信念。在仿真中,白方单元可以是和平主义者,也可以具有攻击性,在具有攻击性时,他们会像敌方一样尝试射击无人机和汽车。在这种情况下,无人机将尝试通过行为检测公民的行为判断他们的身份性质:如果他们开始射击,或者他们是否拥有武器或有一个特定的巡逻计划(如他们在车队的路径上伏击),他们将被视为敌方。在一些情况下,无人机可能会充当诱饵,因为它们可能会试图挑衅白方,通过观测这些单元是否攻击无人机以判断目标对象是敌方还是无害的。
协同控制模块作为有无人作战编组的红方控制模块,包括决策支持单元,该单元与智能体之间采用合同网协议实现任务的分解分发,在该协议中,决策支持单元向多个数字化的智能孪生体发出一个任务,而每个智能孪生体根据其资源和能力提出一个实现方案。决策支持单元决定如何将任务分配给不同的智能孪生体,然后分配工作负载。任务分配协议中,决策支持单元提出任务,向智能孪生体发送任务信息,智能孪生体结合自身的状态和资源对任务进行评估,选择接受任务或者拒绝任务,如果接受,则将实施方案建议信息和自身状态信息发送给决策支持单元,决策支持单元对智能孪生体的建议做出评估,判断此智能孪生体是否有能力执行其所提出的任务,如果接受此方案则给出定量评估结果,并将任务分配方案反馈给智能孪生体。智能孪生体接收到任务分配方案之后,向所属作战编组中的作战要素发送指令,结合对所属作战编组的监控信息对任务执行效果进行评估,将评估信息反馈给决策支持单元,决策支持单元依据反馈信息对作战任务的执行情况进行评估。
红蓝白三方对抗推演模块提供的推演过程中,红方依靠有无人作战编组的协同控制模块,基于对战场环境的感知与任务式指挥控制模式,将作战任务分配给不同的作战单元,作战单元通过环境感知自主地规划作战行为。蓝方以分散的方式感知红方兵力和战场环境,在约束条件下随机地移动,自主地实行规避或者攻击行为。白方中有一定的比例是和平的,一部分是蓝方的伪装,和平性质的作战单元将也基于战场环境的约束条件下随意移动,不会发生对红方或蓝方的攻击行为,而攻击性质的白方,或者称为以白方自我伪装的蓝方在发现红方的作战单元后将会执行攻击行为。推演过程依靠相应指令执行。
在本实施例中,协同控制模块还包括竞标单元,决策支持单元用于将指挥员的作战意图翻译成顶层作战方案,并结合战场态势与作战要素的监控资源及通信状态形成作战任务。竞标单元用于实现作战任务的分解与分发。智能孪生体用于实现对作战编组的资源抽象与管理、运行状态的提取与分析,向作战编组中各作战单元下达对应的作战指令,并评估分析该指令完成效果。作战编组基于对环境的感知能力,通过异构无人装备的自适应协同,实现作战任务保障。
决策支持单元通过竞标单元与智能孪生体实现交互,智能孪生体综合所提取与分析的作战集群信息形成战场态势、作战要素的监控资源及通信状态向决策支持单元输入。
决策支持单元与智能孪生体之间通过合同网协议实现分解分发,决策支持单元将指挥员的意图翻译为作战命令,智能孪生体依据对应作战编组中不同作战单元的资源状态、健康状态、通信状态等与决策支持单元签署部分作战任务。
在本实施例中,协同控制模块采用边端一体化设计融合边缘计算与作战平台,决策支持单元布置在核心云,智能孪生体布置在边缘云。该模块具备边端一体的场景认知与响应能力,为算力受限的作战平台提供数据处理和智能代理能力,统一调度作战集群内各要素的资源。
作为优选的实施方式,该协同控制模块内设有两个或两个以上的智能孪生体,每个智能孪生体对应作战编组内的不同编组。智能孪生体适应指挥信息系统数字化发展的趋势,虚拟化了相应作战编组的资源,具备综合代理能力,代理了相应作战编组中的数字化资产、移动和通信等相应功能。
实施例2,本发明的实施例2提供了一种基于多智能体的有无人协同体系的作战仿真方法,具体包括:
S1、环境初始化,同时初始化红方作战编组与目标任务。
S2、复杂环境构建,所构建的环境要素包括障碍物和自然环境,如山川、湖泊、河流以及桥梁等,同时还包括了物理约束模型,用于输入物理世界的实际约束,如碰撞检测、限速、转向角限制等。
在该环境下,车队通过使用加权A*算法规划符合拓扑的路径来模拟人类行为。
S3、红蓝白三方智能体构建,其中红色代表我方,蓝色代表敌方,白色代表未知方,蓝方和白方根据战场环境自动生成,再赋予红蓝白三方兵力以简单智能,让其进行模拟作战。
在S3中构建三方作战单元时,作战单元均使用BDI模型架构实现自主,通过FIPAACL(Agent Communication Language)协议传达信念,此时作战单元只了解所处的环境,严重依赖集群而不是自身(例如:他们可以相信车队在某个地方,但实际上从那时起它已经移动了很多,那么无人机可能会失联,除非另一架无人机更新其对车队新位置的看法)。作战兵力是模拟的核心,因为所有其他Agent都只是人类行为的模型,它们以分散的P2P方式进行交流,向同伴传达和重复他们的信念。其中,白方单元可以是和平主义者,也可以具有攻击性,在具有攻击性时,他们会像敌方一样尝试射击无人机和汽车。在这种情况下,无人机将尝试通过行为检测公民的行为判断他们的身份性质:如果他们开始射击,或者他们是否拥有武器或有一个特定的巡逻计划(如他们在车队的路径上伏击),他们将被视为敌方。在一些情况下,无人机可能会充当诱饵,因为它们可能会试图挑衅白方,通过观测这些单元是否攻击无人机以判断目标对象是敌方还是无害的。
S4、事件驱动的仿真推演,红方依靠有无人作战编组的协同控制方法,基于对战场环境的感知与任务式指挥控制模式,将作战任务分配给不同的作战单元,作战单元通过环境感知自主地规划作战行为。蓝方以分散的方式感知红方兵力和战场环境,在约束条件下随机地移动,自主地实行规避或者攻击行为。白方中有一定的比例是和平的,一部分是蓝方的伪装,和平性质的作战单元将也基于战场环境的约束条件下随意移动,不会发生对红方或蓝方的攻击行为,而攻击性质的白方,或者称为以白方自我伪装的蓝方在发现红方的作战单元后将会执行攻击行为。推演过程通过相应指令执行。
其中,协同控制方法基于红方的、有无人作战编组的协同控制模块,请同时参阅图4,具体包括如下子步骤:
S41、决策支持单元根据指挥员的作战意图提出任务;
S42、通过竞标单元以协商交互的方式向智能孪生体发布任务信息;
S43、智能孪生体结合自身状态、资源对接收到的任务进行评估,选择接受任务或拒绝任务;选择接受任务则执行步骤S44,拒绝任务则结束步骤;
S44、智能孪生体将实施方案的建议信息和自身状态、资源发送给决策支持单元;
S45、决策支持单元对智能孪生体所建议的实施方案进行评估,判断该智能孪生体是否有能力执行任务;判断有能力则执行步骤S46,判断无能力则结束步骤;
S46.、决策支持单元将任务分配方案反馈至智能孪生体,由智能孪生体向作战编组中的作战单元发送指令;
S47、智能孪生体在作战编组执行任务的同时,结合所提取的战场态势、作战要素的监控资源及通信状态对任务执行效果进行评估,形成反馈信息发送至决策支持单元;
S48、决策支持单元根据反馈信息对作战任务的执行情况进行评估,形成新的任务信息,循环至步骤S42,直至任务完成。
实施例3,在实施例1、2的基础上,以复杂对抗场景中无人机、无人车协同实现作战物资的护航为例,进一步解释本发明的运用场景。
复杂对抗场景中无人机、无人车协同实现作战物资的护航常常需要解决基于场景认知的作战任务自主执行问题。该实施例提出一种基于无人机、无人车协同场景认知的假想场景,可能包括障碍物和自然元素,如山脉、湖泊、河流和桥梁,无人车辆在无人机护送下护送重要物资到达目的地。无人机具有部分感知能力,并以分布式方式进行管理。无人机的资源有限,且可能面临敌人的攻击,无人机燃油资源有限,并随着时间的推移逐渐消耗,在燃料无法保障任务的时候将返航回基地再次获取燃料。无人机和无人车的通信信号覆盖范围有限。在复杂对抗环境中,敌人将试图摧毁护航无人车,摧毁无人机并拦截补给物资,无人机需要避免这些损失。如果敌人拦截补给,任务将失败;如果材料能够到达目标,任务就成功完成。无人机必须足够近才能识别目标,这也可能是危险的,因此应控制无人机与未知目标之间的距离。在任务执行过程中,敌人可以是移动的,也可以是静态的。他们一看到无人机就会发起攻击,然后攻击车队,最后拦截补给。
系统在环境初始化、无人机与无人车护送编组与护送任务初始化后,进一步对复杂环境进行构建,包括山川、湖泊、河流以及桥梁等障碍物和自然元素,同时还包括了物理约束模型,如碰撞检测、无人机与无人车限速、限制无人机与无人车的转向角等。在该环境下,无人车队通过使用加权A*算法规划符合拓扑的路径来模拟人类行为。依据战场环境自动生成蓝方和白方,赋予三方兵力以简单智能,让其进行模拟作战。在构建三方作战单元时,作战人员、无人车、无人机均使用BDI模型架构实现自主,通过FIPA ACL(AgentCommunication Language)协议传达信念,此时作战单元只了解所处的环境,严重依赖集群而不是自身(例如:他们可以相信车队在某个地方,但实际上从那时起它已经移动了很多,那么无人机可能会失联,除非另一架无人机更新其对车队新位置的看法)。作战兵力是模拟的核心,因为所有其他Agent都只是人类行为的模型,它们以分散的P2P方式进行交流,向同伴传达和重复他们的信念。本实施例中,白方单元包括和平主义者以及具有攻击性的单元,在具有攻击性时,他们会像敌方一样尝试射击无人机和无人车。在这种情况下,无人机将尝试通过行为检测公民的行为判断他们的身份性质:如果他们开始射击,或者他们是否拥有武器或有一个特定的巡逻计划(如他们在车队的路径上伏击),他们将被视为敌方。在一些情况下,无人机可能会充当诱饵,因为它们可能会试图挑衅白方,通过观测这些单元是否攻击无人机以判断目标对象是敌方还是无害的。
红方依靠协同控制,在决策支持单元和智能孪生体之间采用合同网协议实现任务的分解分发。在该协议中,决策支持单元向多个智能孪生体发出护送任务,而每个智能孪生体根据其资源和能力提出一个实现方案。决策支持单元决定如何将任务分配给不同的智能孪生体,然后分配工作负载。在执行任务的过程中,决策支持单元结合战场态势与作战要素的监控资源及通信状态调整任务分配及工作负载,保持最优作战方案,直至完成任务目标。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.基于多智能体的有无人协同体系作战仿真系统,其特征在于,包括复杂战场环境模块、战场多方模块、协同控制模块、以及多方对抗推演模块;
所述复杂战场环境模块用于自动生成战场环境,基于层叠模型对战场环境进行构建;
所述战场多方模块用于自动生成我方、敌方以及未知方作战编组,对每个作战编组的作战单元赋予兵力以及简单智能,以模拟作战;
所述协同控制模块基于对战场环境的感知与任务式指挥控制,将作战任务分配给我方不同的作战单元,使我方作战单元依靠环境感知自主地规划作战行为;
所述多方对抗推演模块依靠对应指令,使各个作战单元执行作战行为。
2.根据权利要求1所述的基于多智能体的有无人协同体系作战仿真系统,其特征在于,所述复杂战场环境模块动态生成战场环境,包括障碍物和自然环境要素,以及物理约束模型。
3.根据权利要求1所述的基于多智能体的有无人协同体系作战仿真系统,其特征在于,所述战场多方模块构建作战编组时,各作战单元均使用BDI模型架构实现自主,通过FIPAACL协议传达信念。
4.根据权利要求1所述的基于多智能体的有无人协同体系作战仿真系统,其特征在于,所述协同控制模块包括决策支持单元,竞标单元以及智能孪生体;
所述决策支持单元用于将指挥员的作战意图翻译成顶层作战方案,并结合战场态势与作战要素的监控资源及通信状态形成作战任务;所述竞标单元用于实现所述作战任务的分解与分发;所述智能孪生体用于实现对作战编组的资源抽象与管理、运行状态的提取与分析,向作战编组中各作战单元下达对应的作战指令,并评估分析该指令完成效果;
所述决策支持单元通过所述竞标单元与所述智能孪生体实现交互,所述智能孪生体综合所提取与分析的所述作战编组信息形成战场态势、作战要素的监控资源及通信状态,向所述决策支持单元输入。
5.根据权利要求4所述的基于多智能体的有无人协同体系作战仿真系统,其特征在于,所述协同控制模块采用边端一体化设计融合边缘计算与作战平台,决策支持单元布置在核心云,智能孪生体布置在边缘云。
6.根据权利要求4所述的基于多智能体的有无人协同体系作战仿真系统,其特征在于,所述协同控制模块内设有多个智能孪生体,每个所述智能孪生体对应作战编组内的不同编组。
7.一种基于多智能体的有无人协同体系作战仿真方法,应用于如权利要求1-6任意一项所述的基于多智能体的有无人协同体系作战仿真系统,其特征在于,包括如下步骤:
S1、环境初始化,同时初始化红方作战编组与目标任务;
S2、复杂环境构建,所构建的环境要素包括障碍物和自然环境,同时还包括物理约束模型,用于输入物理世界的实际约束;
S3、多方智能体构建,生成我方、敌方以及未知方作战编组,其中敌方和未知方根据战场环境自动生成,再赋予各作战编组的作战单元兵力以及简单智能;
S4、事件驱动的仿真推演。
8.根据权利要求7所述的基于多智能体的有无人协同体系作战仿真方法,其特征在于,S3中构件作战编组时,作战单元均使用BDI模型架构实现自主,通过FIPA ACL协议传达信念。
9.根据权利要求7所述的一种基于多智能体的有无人协同体系作战仿真方法,其特征在于,S4中我方依靠协同控制方法,基于对战场环境的感知与任务式指挥控制模式,将作战任务分配给不同作战编组的作战单元,作战单元通过环境感知自主地规划作战行为;敌方以分散的方式感知我方兵力和战场环境,在约束条件下随机地移动,自主地实行规避或者攻击行为;未知方中有一部分是和平的,一部分是敌方的伪装,和平性质的作战单元将也基于战场环境的约束条件下随意移动,不会发生对我方或敌方的攻击行为,而攻击性质的未知方,在发现我方的作战单元后将会执行攻击行为。
10.根据权利要求9所述的一种基于多智能体的有无人协同体系作战仿真方法,其特征在于,所述协同控制方法基于所述协同控制模块,具体包括如下子步骤:
S41、决策支持单元根据指挥员的作战意图提出任务;
S42、通过竞标单元以协商交互的方式向智能孪生体发布任务信息;
S43、智能孪生体结合自身状态、资源对接收到的任务进行评估,选择接受任务或拒绝任务;选择接受任务则执行步骤S44,拒绝任务则结束步骤;
S44、智能孪生体将实施方案的建议信息和自身状态、资源发送给决策支持单元;
S45、决策支持单元对智能孪生体所建议的实施方案进行评估,判断该智能孪生体是否有能力执行任务;判断有能力则执行步骤S46,判断无能力则结束步骤;
S46、决策支持单元将任务分配方案反馈至智能孪生体,由智能孪生体向作战编队中的作战单元发送指令;
S47、智能孪生体在作战编队执行任务的同时,结合所提取的战场态势、作战要素的监控资源及通信状态对任务执行效果进行评估,形成反馈信息发送至决策支持单元;
S48、决策支持单元根据反馈信息对作战任务的执行情况进行评估,形成新的任务信息,循环至步骤S42,直至任务完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210181523.5A CN114578710B (zh) | 2022-02-25 | 2022-02-25 | 基于多智能体的有无人协同体系的作战仿真系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210181523.5A CN114578710B (zh) | 2022-02-25 | 2022-02-25 | 基于多智能体的有无人协同体系的作战仿真系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114578710A true CN114578710A (zh) | 2022-06-03 |
CN114578710B CN114578710B (zh) | 2022-09-06 |
Family
ID=81774629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210181523.5A Active CN114578710B (zh) | 2022-02-25 | 2022-02-25 | 基于多智能体的有无人协同体系的作战仿真系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114578710B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115237000A (zh) * | 2022-06-23 | 2022-10-25 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种有无人机编队协同对抗仿真试验平台及试验方法 |
CN115392476A (zh) * | 2022-07-07 | 2022-11-25 | 中国人民解放军军事科学院系统工程研究院 | 一种有无人协同作战体系中的智能孪生体 |
CN115630710A (zh) * | 2022-11-16 | 2023-01-20 | 清华大学 | 基于自组织群组的多智能体强化学习方法 |
CN116452306A (zh) * | 2023-03-03 | 2023-07-18 | 中国人民解放军军事科学院系统工程研究院 | 一种面向智能化作战任务的招投标分发方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5224860A (en) * | 1991-03-01 | 1993-07-06 | Electronics & Space Corp. | Hardware-in-the-loop tow missile system simulator |
CN101964019A (zh) * | 2010-09-10 | 2011-02-02 | 北京航空航天大学 | 基于Agent技术的对抗行为建模仿真平台及仿真方法 |
KR20170091977A (ko) * | 2016-02-02 | 2017-08-10 | 국방과학연구소 | 다수의 지상무인체계 임무통제와 통신기능 점검을 위한 개발용 시뮬레이터 구축방법 및 시스템 |
CN109544082A (zh) * | 2017-09-21 | 2019-03-29 | 成都紫瑞青云航空宇航技术有限公司 | 一种用于数字化战场对抗的系统和方法 |
CN112883586A (zh) * | 2021-03-15 | 2021-06-01 | 中国人民解放军国防科技大学 | 一种基于双逻辑层Agent的模拟仿真系统及方法 |
CN113805569A (zh) * | 2021-09-23 | 2021-12-17 | 北京理工大学 | 基于多智能体技术的对抗系统、方法、终端及存储介质 |
-
2022
- 2022-02-25 CN CN202210181523.5A patent/CN114578710B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5224860A (en) * | 1991-03-01 | 1993-07-06 | Electronics & Space Corp. | Hardware-in-the-loop tow missile system simulator |
CN101964019A (zh) * | 2010-09-10 | 2011-02-02 | 北京航空航天大学 | 基于Agent技术的对抗行为建模仿真平台及仿真方法 |
KR20170091977A (ko) * | 2016-02-02 | 2017-08-10 | 국방과학연구소 | 다수의 지상무인체계 임무통제와 통신기능 점검을 위한 개발용 시뮬레이터 구축방법 및 시스템 |
CN109544082A (zh) * | 2017-09-21 | 2019-03-29 | 成都紫瑞青云航空宇航技术有限公司 | 一种用于数字化战场对抗的系统和方法 |
CN112883586A (zh) * | 2021-03-15 | 2021-06-01 | 中国人民解放军国防科技大学 | 一种基于双逻辑层Agent的模拟仿真系统及方法 |
CN113805569A (zh) * | 2021-09-23 | 2021-12-17 | 北京理工大学 | 基于多智能体技术的对抗系统、方法、终端及存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115237000A (zh) * | 2022-06-23 | 2022-10-25 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种有无人机编队协同对抗仿真试验平台及试验方法 |
CN115237000B (zh) * | 2022-06-23 | 2023-08-04 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种有无人机编队协同对抗仿真试验平台及试验方法 |
CN115392476A (zh) * | 2022-07-07 | 2022-11-25 | 中国人民解放军军事科学院系统工程研究院 | 一种有无人协同作战体系中的智能孪生体 |
CN115630710A (zh) * | 2022-11-16 | 2023-01-20 | 清华大学 | 基于自组织群组的多智能体强化学习方法 |
CN116452306A (zh) * | 2023-03-03 | 2023-07-18 | 中国人民解放军军事科学院系统工程研究院 | 一种面向智能化作战任务的招投标分发方法 |
CN116452306B (zh) * | 2023-03-03 | 2023-10-10 | 中国人民解放军军事科学院系统工程研究院 | 一种面向智能化作战任务的招投标分发方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114578710B (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114578710B (zh) | 基于多智能体的有无人协同体系的作战仿真系统及方法 | |
US7765038B2 (en) | Mission planning system for vehicles with varying levels of autonomy | |
CN108680063B (zh) | 一种针对大规模无人机集群动态对抗的决策方法 | |
Ernest et al. | Genetic fuzzy trees and their application towards autonomous training and control of a squadron of unmanned combat aerial vehicles | |
CN114565268B (zh) | 基于态势感知的场景自适应协同指挥控制系统及方法 | |
CN105893656A (zh) | 一种面向平台级Agent交互仿真的陆军分队作战实验方法 | |
Théron et al. | When autonomous intelligent goodware will fight autonomous intelligent malware: A possible future of cyber defense | |
Oh et al. | Market-based distributed task assignment of multiple unmanned aerial vehicles for cooperative timing mission | |
CN115392476B (zh) | 一种有无人协同作战体系中的智能孪生体 | |
Liu et al. | Task assignment in ground-to-air confrontation based on multiagent deep reinforcement learning | |
Haque et al. | Multilevel coalition formation strategy for suppression of enemy air defenses missions | |
Chen et al. | Cooperative electronic attack for groups of unmanned air vehicles based on multi-agent simulation and evaluation | |
Lewis et al. | Scaling-up human control for large UAV teams | |
Ren et al. | A UAV UGV Collaboration paradigm based on situation awareness: framework and simulation | |
Zhang et al. | A dynamic resilience evaluation method for cross-domain swarms in confrontation | |
Niewood et al. | A new battle command architecture for multi-domain operations | |
Lau et al. | Closed-loop control in active target defense using machine learning | |
Song et al. | A cooperative aerial interception model based on multi-agent system for uavs | |
Hart et al. | Reducing swarming theory to practice for UAV control | |
Zhang et al. | The role of artificial intelligence and autonomous systems in the decision-making center of the US mosaic war | |
Liao et al. | Research on combat deduction platform technology for intelligent operational decision | |
Yu et al. | Intelligent Modes of Maritime Rights Safeguard Operations and Key Technology | |
Bai et al. | Design of Red-Blue Confrontation Module for UAV Swarm Simulation System | |
Cao | Optimization Design of Multi‐UAV Communication Network Based on Reinforcement Learning | |
Nurkin et al. | Emerging Technologies and the Future of US-Japan Defense Collaboration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |