CN108828948B - 基于深度学习的人工智能作战方法和机器人系统 - Google Patents

基于深度学习的人工智能作战方法和机器人系统 Download PDF

Info

Publication number
CN108828948B
CN108828948B CN201810774076.8A CN201810774076A CN108828948B CN 108828948 B CN108828948 B CN 108828948B CN 201810774076 A CN201810774076 A CN 201810774076A CN 108828948 B CN108828948 B CN 108828948B
Authority
CN
China
Prior art keywords
combat
intention
fighting
sample
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810774076.8A
Other languages
English (en)
Other versions
CN108828948A (zh
Inventor
朱定局
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daguo Innovation Intelligent Technology Dongguan Co ltd
Original Assignee
Daguo Innovation Intelligent Technology Dongguan Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daguo Innovation Intelligent Technology Dongguan Co ltd filed Critical Daguo Innovation Intelligent Technology Dongguan Co ltd
Priority to CN201810774076.8A priority Critical patent/CN108828948B/zh
Publication of CN108828948A publication Critical patent/CN108828948A/zh
Application granted granted Critical
Publication of CN108828948B publication Critical patent/CN108828948B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Abstract

基于深度学习的人工智能作战方法和机器人系统,包括:生成多个第一作战案例样本;根据所述第一作战案例样本对所述作战深度学习模型进行无监督训练;从多个所述第一作战案例样本中筛选出多个符合预设条件的所述第一作战案例样本,作为多个第二作战案例样本;根据所述第二作战案例样本对所述作战深度学习模型进行有监督训练。上述方法和系统通过作战案例样本自动生成,解决了作战案例样本少无法进行有效深度学习和辅助决策的问题,提高了深度学习的效果和作战辅助决策的能力,提高了深度学习模型的准确性和作战机器人的主观能动性和智能性。

Description

基于深度学习的人工智能作战方法和机器人系统
技术领域
本发明涉及信息技术领域,特别是涉及一种基于深度学习的人工智能作战方法和机器人系统。
背景技术
知识库是人工智能中的重要技术之一,知识库可以辅助人类进行决策。
辨证法分为思辨阶段、实证阶段、思辨和实证的统一阶段。实证阶段是对思辨阶段的结果进行检验。思辨和实证的统一阶段其实就是对经过实证阶段检验和筛选的思辨阶段的成果进行实践的阶段。
教学法中的常用教学阶段包括自学阶段、教学阶段、考试阶段。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:已有作战机器人只是将事先编写好的程序包括机器学习程序安装进机器人,而没有把机器人当成人一样去教育,也缺乏辩证哲学思想,从而使得机器人在实际战争中缺乏类似人的主观能动性和客观辩证性。已有基于人工智能的作战机器人都需要大量案例学习来实现智能,但实际上作战案例的样本数量严重不足,因为和平时期实战和作战演习都很少,而且作战演示成本也高,所以无法得到大量的作战案例样本,可是很多人工智能算法特别是深度学习算法都依赖于大量的案例样本才能实现有效的效果,这使得作战机器人难以发挥人工智能的作用和优势。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术中作战技术的缺陷或不足,提供基于深度学习的人工智能作战方法和机器人系统,以解决现有技术中作战案例样本不足、人工智能应用受限的缺点。
第一方面,本发明实施例提供一种作战方法,所述方法包括:
样本生成步骤:生成多个第一作战案例样本;
模型初始化步骤:初始化深度学习模型,作为作战深度学习模型;
无监督学习步骤:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一作战案例样本中筛选出多个符合预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
有监督学习步骤:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练。
优选地,其特征在于,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成步骤具体包括:
态势生成步骤:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成步骤:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成步骤:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选步骤具体包括:
作战模拟步骤:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配步骤:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断步骤:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
优选地,在所述有监督学习步骤之后还包括:
模型验证步骤:筛选出作战结果与作战意图的匹配度大于预设阈值的多个真实作战案例样本对所述作战深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤继续执行。
优选地,在所述验证判断步骤之后还包括:
决策生成步骤:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化步骤:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
优选地,在则所述作战深度学习模型通过验证的步骤之后还包括:使用所述真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。
第二方面,本发明实施例提供一种作战系统,所述系统包括:
样本生成模块:生成多个第一作战案例样本;
模型初始化模块:初始化深度学习模型,作为作战深度学习模型;
无监督学习模块:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选模块:从多个所述第一作战案例样本中筛选出多个符合预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
有监督学习模块:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练。
优选地,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成模块具体包括:
态势生成模块:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成模块:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成模块:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选模块具体包括:
作战模拟模块:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配模块:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断模块:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
优选地,所述系统还包括:
模型验证模块:筛选出作战结果与作战意图的匹配度大于预设阈值的多个真实作战案例样本对所述作战深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,将所述真实作战案例样本中的作战态势、作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练;将所述真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本,所述真实作战案例的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则转到样本生成模块继续执行。
优选地,所述系统还包括:
决策生成模块:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化模块:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
第三方面,本发明实施例提供一种机器人系统,所述机器人中分别配置有如第二方面所述的作战系统。
本发明实施例的有益效果:
本实施例提供的基于深度学习的人工智能作战方法和机器人系统,包括:生成多个第一作战案例样本;将所述第一作战案例样本中的作战态势、作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练;从多个所述第一作战案例样本中筛选出多个符合预设条件的所述第一作战案例样本,作为多个第二作战案例样本;将所述第二作战案例样本中的作战态势、作战意图作为所述作战深度学习模型的输入样本,所述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对所述作战深度学习模型进行有监督训练。上述方法和系统通过作战案例样本自动生成,解决了作战案例样本少无法进行有效深度学习和辅助决策的问题,提高了深度学习的效果和作战辅助决策的能力,提高了深度学习模型的准确性和作战机器人的主观能动性和智能性。
附图说明
图1为本发明的实施例1提供的作战方法的流程图;
图2为本发明的实施例2提供的作战方法的样本生成步骤的流程图;
图3为本发明的实施例2提供的作战方法的样本筛选步骤的流程图;
图4为本发明的实施例3提供的作战方法的流程图;
图5为本发明的实施例4提供的作战方法的流程图;
图6为本发明的实施例5提供的作战系统的原理框图;
图7为本发明的实施例6提供的作战系统的样本生成模块的原理框图;
图8为本发明的实施例6提供的作战系统的样本筛选模块的原理框图;
图9为本发明的实施例7提供的作战系统的原理框图;
图10为本发明的实施例8提供的作战系统的原理框图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
实施例1提供一种作战方法,如图1所示,所述方法包括步骤S110至步骤S150。
步骤S110至步骤S120:通过自学习产生作战案例样本和作战深度学习模型。在作战思辨阶段,让机器人进行作战态势和作战意图的理解,作战决策的思辨。这个阶段同时对应教学法的自学阶段,因为这个阶段主要是机器人自我学习而产生作战案例样本和作战深度学习模型。
样本生成步骤S110:生成多个第一作战案例样本,所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策。优选地,多个所述第一作战案例样本当数量很大时可以形成第一作战案例样本大数据。将多个所述第一作战案例样本加入第一作战案例知识库。具体地,将每一个所述第一作战案例样本中的所述作战态势、所述作战意图、所述作战决策作为作战案例知识库中的作战案例表的同一个案例的三个字段的具体数据,作战案例知识库中的数据表包括三个字段,分别是作战态势字段、作战意图字段、作战决策字段。
模型初始化步骤S120:初始化深度学习模型,作为作战深度学习模型。优选地,所述初始化深度学习模型的具体过程是:选取一个已有的深度学习模型,例如卷积神经网络模型,将该深度学习模型的输入变量设置为作战态势、作战意图,将该深度学习模型的输出变量设置为作战决策。
无监督学习步骤S130:通过所述第一作战案例样本对所述作战深度学习模型进行无监督训练。具体地,将所述第一作战案例样本中的作战态势、所述第一作战案例样本中的作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练。优选地,第一次无监督训练的作战深度学习模型是通过初始化得到的,第二次无监督训练的作战深度学习模型是通过第一次无监督训练得到的,第三次无监督训练的作战深度学习模型是通过第二次无监督训练得到的,如此类推。
样本筛选步骤S140:从多个所述第一作战案例样本中筛选出多个符合预设条件的第一作战案例样本,作为多个第二作战案例样本。优选地,所述预设条件包括作战结果与所述第一作战案例样本中的预设方作战意图的匹配度大于预设阈值。优选地,将所述第二作战案例样本加入第二作战案例知识库。优选地,多个第一作战案例样本是从所述第一作战案例知识库中获取的。所述可以理解的是,因为第一作战案例样本的量非常大,所以从中筛选出的第二作战案例样本的量也非常大,可以形成第二作战样本案例大数据。
有监督学习步骤S150:通过所述第二作战案例样本对所述作战深度学习模型进行有监督训练。具体地,将所述第二作战案例样本中的作战态势、所述第二作战案例样本中的作战意图作为所述作战深度学习模型的输入样本,所述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对所述作战深度学习模型进行有监督训练。优选地,从第二作战案例知识库中获取所述第二作战案例样本。第一次有监督训练的作战深度学习模型是通过无监督训练得到的,第二次有监督训练的作战深度学习模型是通过第一次有监督训练得到的,第三次有监督训练的作战深度学习模型是通过第二次有监督训练得到的,如此类推。
本实施例的好处是,则通过知识库自动生成的作战案例样本数据,而不是从实战案例中采集,这解决了在和平时期,实际战争很少、作战演习成本高,从而导致作战案例样本非常少,不足以用于形成大量作战案例样本的问题。通过系统自动生成作战深度学习模型的训练样本,实现了在只有很少甚至没有实战样本的情况下进行作战深度学习模型的无监督训练和有监督训练,因为自动生成的样本非常丰富,可以随机组合生成比实战更多的案例样本,从而为深度学习模型的有效训练提供了可能。
实施例2提供一种优选的作战方法,根据实施例1所述的作战方法,
如图2所示,样本生成步骤S110中具体生成的过程包括:
态势生成步骤S111:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势。优选地,作战态势知识库是预先构建好的,作战态势知识库中预先存储了作战态势构成规则子知识库、作战态势构成元素子知识库。作战态势构成规则子知识库包括敌方属性、敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的组合规则。作战态势构成元素子知识库包括属性知识表、能力知识表、实时状态知识表、等等相关作战态势构成元素的知识表。S111的具体过程是从属性知识表中随机获取属性的一个实例作为敌方属性,从能力知识表中随机获取能力的一个实例作为敌方能力,从实时状态知识表中随机获取实时状态的一个实例作为敌方实时状态,类似地,从相关作战态势构成元素知识表获取我方属性、我方能力、我方实时状态,然后组合形成包括敌方属性、敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的作战态势。
意图生成步骤S112:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图。优选地,作战意图知识库是预先构建好的,作战意图知识库中预先存储了作战意图构成规则子知识库、作战意图构成元素子知识库。作战意图构成规则子知识库包括我方作战意图、敌方作战意图的组合规则。作战意图构成元素子知识库包括作战意图构成元素知识表。具体作战意图构成元素例如进攻获胜、无损撤退、跟踪侦察敌机去向等等。S112的具体过程是从作战意图构成元素知识表中随机获取作战意图的一个实例作为敌方作战意图或以一定概率将敌方意图设置为未知,从作战意图构成元素知识表中随机获取作战意图的一个实例作为我方作战意图,然后组合形成包括我方作战意图、敌方作战意图的作战意图。其中,敌方作战意图也可以随机设置为未知,因为在实际战争中敌方意图是要靠情报或侦察获得的,而有时是不一定能获知敌方意图,所以敌方意图可以设置为未知。
决策生成步骤S113:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策。优选地,作战决策知识库是预先构建好的,作战决策知识库中预先存储了作战决策构成规则子知识库、作战决策构成元素子知识库。作战决策构成规则子知识库包括包括作战的类型、作战的时间、作战的地点、作战的目标的组合规则。作战决策构成元素子知识库包括作战类型知识表、作战时间知识表、作战地点知识表、作战目标知识表。作战的类型例如发射导弹,此时作战时间就是发射导弹的时间,作战地点就是发射导弹的地点,作战目标就是发射导弹的攻击目标。S113的具体过程是从作战类型知识表中随机获取作战类型的一个实例作为作战类型,从作战时间知识表中随机获取作战时间的一个实例作为作战时间,类似地获得作战地点、作战目标,然后组合形成预设方的作战决策。这里的预设方作战决策,一般指我方或友方的作战决策。
如图3所示,样本筛选步骤S140的具体过程是:
作战模拟步骤S141:在所述第一作战案例样本中的作战态势下对所述第一作战案例样本中的作战决策进行模拟执行,得到作战结果。优选地,所述作战态势下模拟执行所述作战决策可以通过现有的战争模拟软件来实现,并获取模拟的结果,例如作战态势是对方战机在我方战机前方30米、我方战机是X型战机、敌方战机是Y型战机,作战决策是我方战机发射炮弹,作战结果是击落了对方战机。其中,作战态势例如敌我双方战机的属性(例如飞机型号、所载导弹型号)、性能(例如飞行速度、所载导弹的射击准确度及射击速度)、飞行轨迹(例如敌我双方战机的实时轨迹)。作战决策例如在时间t1向敌机发射导弹。
结果匹配步骤S142:计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度。例如,作战结果是我方战机击落了对方战机,那么如果我方的作战意图也是击落对方战机,那么就会匹配成功。其中,预设方,一般指的是我方或友方。
匹配判断步骤S143:判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效。
本实施例的好处是通过系统自动生成作战案例样本,实现了无真实样本或只有少量真实样本情况下的深度学习学习,虽然没有样本,但可以随机组合成各种各样的样本,只要随机组合的次数足够多,就能生成比实战更多的案例样本,从而能形成比仅比实战案例更大量的作战案例样本。
实施例3提供一种优选的作战方法,根据实施例1或实施例2所述的作战方法,如图4所示,在所述步骤S150之后还包括步骤S210和步骤S220:
步骤S210至步骤S220属于作战实证阶段(本质上是对作战深度学习模型进行验证的阶段)。这个阶段同时对应教学法的教学阶段,因为这个阶段主要是通过真实作战案例来测试和改进在自学阶段生成的作战深度学习模型。
模型验证步骤S210:筛选出作战结果与作战意图的匹配度大于预设阈值的多个真实作战案例样本对所述作战深度学习模型进行验证。所述真实作战案例样本包括作战态势、作战意图、作战决策、作战结果。可以理解的真实作战案例样本是真实发生过的作战案例的样本,所以必然是有作战结果的。优选地,获取多个真实作战案例样本,从中选取作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图、预设方的作战决策,将所述选取的真实作战案例的作战态势、作战意图作为作战深度学习模型的输入,通过计算得到所述作战深度学习模型的输出作为预设方的作战决策,将所述输出的作战决策与所述选取的作战结果与作战意图的匹配度大于预设阈值的真实作战案例中的作战决策进行匹配,判断匹配度是否大于预设阈值:是,则测试成功;否,则测试失败。所述真实作战案例样本包括实战中或演习中的作战案例样本。
本实施例的好处是,则通过测试来判断生成的所述作战深度学习模型是否能通过真实作战案例的检验,因为真实作战案例是过去实际发生的,如果通过了测试,说明所述作战深度学习模型就能通过实践的检验。
验证判断步骤S220:判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤S110继续执行。具体过程包括:多次执行测试步骤,判断测试成功的次数占测试总次数是否大于或等于预设比例(例如预设比例为90%,那就能说明通过验证时该深度学习模型有90%的准确率):是,则验证通过;否,则验证不通过,回到样本生成步骤S110继续执行。优选地,在则所述作战深度学习模型通过验证的步骤之后,通过所述真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练,具体包括,将所述真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本,所述作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本中的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练。
本实施例的好处是,则如果测试成功,进一步利用真实作战案例对自学形成的作战深度学习模型进行无监督训练和有监督训练,进一步提高作战深度学习模型的准确度。所述多次执行测试步骤中的执行测试步骤的次数可以为真实作战案例中测试样本的个数,也可以是预设次数。
实施例4提供一种优选的作战方法,根据实施例3所述的作战方法,如图5所示,在所述步骤S220之后还包括步骤S310和步骤S320。
步骤S310至步骤S320属于作战统一阶段,本质上是对所述作战深度学习模型进行使用的阶段。这个阶段同时对应教学法的考试阶段,因为这个阶段主要是对经过自学和教学两个阶段产生的所述作战深度学习模型进行应用并在应用中进一步检验。
决策生成步骤S310:获取作战态势、预设方的作战意图,将作战态势、作战意图作为作战深度学习模型的输入,通过计算得到作战深度学习模型的输出作为预设方的作战决策;优选地,将所述预设方的作战决策推荐给预设方的作战员(例如以语音发送驾驶战机的战士)也可以通过物联网直接转化能够控制作战决策所涉及到预设方的作战装备的运行指令(例如导弹发射指令)。所述获取的作战态势、作战意图是作战演习时或实际作战时的作战态势、作战意图。
模型优化步骤S320:优选地,在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述预设方的作战意图的匹配度,判断匹配度是否大于预设阈值:是,则所述作战决策对于所述作战态势和作战意图有效,将所述作战态势、所述作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述作战态势、所述作战意图作为作战深度学习模型的输入样本,所述作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则所述作战决策对于所述作战态势和作战意图无效,回到样本生成步骤S110继续执行。可以理解的是,则如果所述作战决策失败了,说明所述作战深度学习模型需要继续改进,所以需要返回样本生成的步骤再次执行。
本实施例的好处是,通过作战深度学习模型来辅助作战决策,提高作战决策的效率和智能性。使得随着演习或实战的开展,利用演习或实战的作战案例对作战深度学习模型进一步进行无监督训练和有监督训练,进一步提高作战深度学习模型的准确度。同时,通过演习和实战来检验作战深度学习模型,如果无效,则重新优化作战深度学习模型。
实施例5、实施例6、实施例7、实施例8中的系统分别与实施例1、实施例2、实施例3、实施例4中的方法相对应和类似,所以其优选实施方式和有益效果不再赘述,只给出其主要模块。
实施例5提供一种作战系统,如图6所示,所述系统包括模块110至模块150。
样本生成模块110:生成多个第一作战案例样本,所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策。
模型初始化模块120:初始化深度学习模型,作为作战深度学习模型。
无监督学习模块130:通过所述第一作战案例样本对所述作战深度学习模型进行无监督训练。具体地,将所述第一作战案例样本中的作战态势、所述第一作战案例样本中的作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练。
样本筛选模块140:从多个所述第一作战案例样本中筛选出多个符合预设条件的第一作战案例样本,作为多个第二作战案例样本。
有监督学习模块150:通过所述第二作战案例样本对所述作战深度学习模型进行有监督训练。具体地,将所述第二作战案例样本中的作战态势、所述第二作战案例样本中的作战意图作为所述作战深度学习模型的输入样本,所述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对所述作战深度学习模型进行有监督训练。
实施例6提供一种优选的作战系统,根据实施例5所述的作战系统,
如图7所示,样本生成模块110中具体生成的过程包括:
态势生成模块111:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势。
意图生成模块112:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图。
决策生成模块113:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策。
如图8所示,样本筛选模块140的具体过程是:
作战模拟模块141:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果。
结果匹配模块142:计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度。
匹配判断模块143:判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效。
实施例7提供一种优选的作战系统,根据实施例5或实施例6所述的作战系统,如图9所示,在所述模块150之后还包括模块210和模块220:
模型验证模块210:筛选出作战结果与作战意图的匹配度大于预设阈值的多个真实作战案例样本对所述作战深度学习模型进行验证。
验证判断模块220:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,通过所述真实作战案例样本对所述作战深度学习模型进行无监督训练,通过作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本对所述作战深度学习模型进行有监督训练;否,则转到样本生成模块110继续执行。
实施例8提供一种优选的作战系统,根据实施例7所述的作战系统,如图10所示,在所述模块220之后还包括模块310和模块320。
决策生成模块310:获取作战态势、预设方的作战意图,将作战态势、作战意图作为作战深度学习模型的输入,通过计算得到作战深度学习模型的输出作为预设方的作战决策;
模型优化模块320:优选地,在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述预设方的作战意图的匹配度,判断匹配度是否大于预设阈值:是,则所述作战决策对于所述作战态势和作战意图有效,将所述作战态势、所述作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述作战态势、所述作战意图作为作战深度学习模型的输入样本,所述作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则所述作战决策对于所述作战态势和作战意图无效,回到样本生成模块110继续执行。
实施例9提供一种机器人系统,所述机器人系统中分别配置有如实施例5至8任一项所述的作战系统。
本发明实施例把机器人当成人一样去教育,从而使得机器人在实际战争中具备类似人的主观能动性。通过(自学阶段、思辩阶段)构建作战知识库,基于作战知识库自动生成作战样本来训练作战深度学习模型,然后通过(教学阶段、实证阶段)真实作战案例来对深度学习模型进行测试和改进,最后通过(考试阶段、统一阶段)实战或演习来检验和进一步改进作战深度学习模型。整个过程和教学过程一样,同时也是辩证发展的过程,这种组合拳,具备了在某个阶段单一使用深度学习不可能具备的效果,使得作战深度学习模型不再依赖于真实作战案例的样本,而是可以自动生成样本,然后基于真实作战案例的样本进行测试和改进作战深度学习模型,并最终进行应用到作战演习或实战,并能在演习和实战中进一步改进作战深度学习模型,使得作战深度学习模型能在实际战争演习和实战案例中不断改进和完善。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种作战方法,其特征在于,所述方法包括:
样本生成步骤:生成多个第一作战案例样本;所述第一作战案例样本包括根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;作战意图知识库中预先存储有作战意图构成规则子知识库、作战意图构成元素子知识库;作战意图生成过程包括:从作战意图构成元素知识表中随机获取作战意图的一个实例作为敌方作战意图或以一定概率将敌方意图设置为未知,从作战意图构成元素知识表中随机获取作战意图的一个实例作为我方作战意图,然后组合形成包括我方作战意图、敌方作战意图的作战意图;模型初始化步骤:初始化深度学习模型,作为作战深度学习模型;
无监督学习步骤:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一作战案例样本中筛选出多个符合预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
有监督学习步骤:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练。
2.根据权利要求1所述的作战方法,其特征在于,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成步骤具体包括:
态势生成步骤:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成步骤:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成步骤:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选步骤具体包括:
作战模拟步骤:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配步骤:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断步骤:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
3.根据权利要求1或2所述的作战方法,其特征在于,在所述有监督学习步骤之后还包括:
模型验证步骤:筛选出作战结果与作战意图的匹配度大于预设阈值的多个真实作战案例样本对所述作战深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤继续执行。
4.根据权利要求3所述的作战方法,其特征在于,在所述验证判断步骤之后还包括:
决策生成步骤:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化步骤:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
5.根据权利要求3所述的作战方法,其特征在于,在则所述作战深度学习模型通过验证的步骤之后还包括:使用所述真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。
6.一种作战系统,其特征在于,所述系统包括:
样本生成模块:生成多个第一作战案例样本;所述第一作战案例样本包括根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;作战意图知识库中预先存储有作战意图构成规则子知识库、作战意图构成元素子知识库;作战意图生成过程包括:从作战意图构成元素知识表中随机获取作战意图的一个实例作为敌方作战意图或以一定概率将敌方意图设置为未知,从作战意图构成元素知识表中随机获取作战意图的一个实例作为我方作战意图,然后组合形成包括我方作战意图、敌方作战意图的作战意图;
模型初始化模块:初始化深度学习模型,作为作战深度学习模型;
无监督学习模块:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选模块:从多个所述第一作战案例样本中筛选出多个符合预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
有监督学习模块:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练。
7.根据权利要求6所述的作战系统,其特征在于,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成模块具体包括:
态势生成模块:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成模块:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成模块:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选模块具体包括:
作战模拟模块:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配模块:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断模块:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
8.根据权利要求6或7所述的作战系统,其特征在于,所述系统还包括:
模型验证模块:筛选出作战结果与作战意图的匹配度大于预设阈值的多个真实作战案例样本对所述作战深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,使用所述真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块继续执行。
9.根据权利要求8所述的作战系统,其特征在于,所述系统还包括:
决策生成模块:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化模块:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
10.一种机器人系统,其特征在于,所述机器人系统中分别配置有如权利要求6至9任一项所述的作战系统。
CN201810774076.8A 2018-07-15 2018-07-15 基于深度学习的人工智能作战方法和机器人系统 Active CN108828948B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810774076.8A CN108828948B (zh) 2018-07-15 2018-07-15 基于深度学习的人工智能作战方法和机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810774076.8A CN108828948B (zh) 2018-07-15 2018-07-15 基于深度学习的人工智能作战方法和机器人系统

Publications (2)

Publication Number Publication Date
CN108828948A CN108828948A (zh) 2018-11-16
CN108828948B true CN108828948B (zh) 2021-06-18

Family

ID=64135978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810774076.8A Active CN108828948B (zh) 2018-07-15 2018-07-15 基于深度学习的人工智能作战方法和机器人系统

Country Status (1)

Country Link
CN (1) CN108828948B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737260B (zh) * 2019-08-29 2022-02-11 南京智慧光信息科技研究院有限公司 基于大数据和人工智能的自动作业方法和机器人系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157688A (zh) * 2016-08-25 2016-11-23 华南师范大学 基于深度学习和大数据的停车位检测方法和系统
CN106952014A (zh) * 2017-02-10 2017-07-14 南京航空航天大学 一种基于军事仿真器的作战方案优化方法
CN107256396A (zh) * 2017-06-12 2017-10-17 电子科技大学 基于卷积神经网络的船目标isar图像特征学习方法
CN107704888A (zh) * 2017-10-23 2018-02-16 大国创新智能科技(东莞)有限公司 一种基于联合聚类深度学习神经网络的数据识别方法
CN107798390A (zh) * 2017-11-22 2018-03-13 阿里巴巴集团控股有限公司 一种机器学习模型的训练方法、装置以及电子设备
CN108021754A (zh) * 2017-12-06 2018-05-11 北京航空航天大学 一种无人机自主空战决策框架及方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10817778B2 (en) * 2016-06-27 2020-10-27 International Business Machines Corporation Customized cooking utilizing deep learning neuromorphic computing of hyperspectral input
CN106489159A (zh) * 2016-06-29 2017-03-08 深圳狗尾草智能科技有限公司 一种基于深度神经网络的用户画像表示学习系统及方法
CN107843774B (zh) * 2017-11-08 2021-01-05 中国电子科技集团公司电子科学研究院 电磁态势的计算成像方法及电磁态势成像系统
CN108228820A (zh) * 2017-12-30 2018-06-29 厦门太迪智能科技有限公司 用户查询意图理解方法、系统及计算机终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157688A (zh) * 2016-08-25 2016-11-23 华南师范大学 基于深度学习和大数据的停车位检测方法和系统
CN106952014A (zh) * 2017-02-10 2017-07-14 南京航空航天大学 一种基于军事仿真器的作战方案优化方法
CN107256396A (zh) * 2017-06-12 2017-10-17 电子科技大学 基于卷积神经网络的船目标isar图像特征学习方法
CN107704888A (zh) * 2017-10-23 2018-02-16 大国创新智能科技(东莞)有限公司 一种基于联合聚类深度学习神经网络的数据识别方法
CN107798390A (zh) * 2017-11-22 2018-03-13 阿里巴巴集团控股有限公司 一种机器学习模型的训练方法、装置以及电子设备
CN108021754A (zh) * 2017-12-06 2018-05-11 北京航空航天大学 一种无人机自主空战决策框架及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于时序特征编码的目标战术意图识别算法;欧微等;《指挥控制与仿真》;20161231;第38卷(第6期);第36-41页 *

Also Published As

Publication number Publication date
CN108828948A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
CN109063845B (zh) 基于生成样本的深度学习方法和机器人系统
Low et al. Pressure training for performance domains: A meta-analysis.
CN109543933B (zh) 一种网安人员技能测评系统
Togelius How to run a successful game-based AI competition
US11850520B2 (en) Computer simulation skills training techniques
Luo et al. Design and evaluation of a data-driven scenario generation framework for game-based training
Nair et al. Automated assistants for analyzing team behaviors
Gombolay et al. Machine learning techniques for analyzing training behavior in serious gaming
CN108828948B (zh) 基于深度学习的人工智能作战方法和机器人系统
CN108958030B (zh) 基于知识库的人工智能作战方法和机器人系统
CN112561032B (zh) 一种基于种群训练的多智能体强化学习方法及系统
Yin et al. A data-driven approach for online adaptation of game difficulty
CN108985463B (zh) 基于知识库和深度学习的人工智能作战方法和作战系统
Hou et al. Advances in memetic automaton: Toward human-like autonomous agents in complex multi-agent learning problems
Goldblum et al. Wargames as experiments: The Project on Nuclear Gaming’s SIGNAL framework
Luo et al. Towards a data‐driven approach to scenario generation for serious games
Rood Scaling Reinforcement Learning Through Feudal Muti-Agent Hierarchy
Kalns et al. Predicting success in the tactical air combat party training pipeline
Floyd et al. An active approach to automatic case generation
Ferretti et al. Setting up a serious game for major incident in industrial plants management: investigation of the learning effect
CN114935893A (zh) 基于双层模型的作战场景中飞机的动作控制方法及装置
Pournelle The use of M&S and wargaming to address wicked problems
CN109756494A (zh) 一种负样本变换方法及装置
CN115346161B (zh) 足球比赛态势评估和预测方法、装置和电子设备
Oh et al. Testing reliability of replay-based imitation for StarCraft

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant