CN109063845A - 基于生成样本的深度学习方法和机器人系统 - Google Patents
基于生成样本的深度学习方法和机器人系统 Download PDFInfo
- Publication number
- CN109063845A CN109063845A CN201810774082.3A CN201810774082A CN109063845A CN 109063845 A CN109063845 A CN 109063845A CN 201810774082 A CN201810774082 A CN 201810774082A CN 109063845 A CN109063845 A CN 109063845A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- sample
- learning model
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
基于生成样本的深度学习方法和机器人系统,包括:生成多个第一样本;根据所述第一样本对所述深度学习模型进行无监督训练;从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;根据所述第二样本对所述深度学习模型进行有监督训练;获取多个用于训练的真实样本对所述深度学习模型进行无监督训练和有监督训练。上述方法和系统通过样本自动生成,结合真实样本,极大提高了深度学习的适用范围,提高了深度学习模型的通用性,实现了只有少量样本甚至无样本的情况下对深度学习模型的有效训练和使用,提高了深度学习模型的通用性,同时也通过自动生成样本来增加样本量,提高了深度学习模型的准确度。
Description
技术领域
本发明涉及信息技术领域,特别是涉及一种基于生成样本的深度学习方法 和机器人系统。
背景技术
知识库是人工智能中的重要技术之一,知识库可以辅助人类进行决策。
辨证法分为思辨阶段、实证阶段、思辨和实证的统一阶段。实证阶段是对 思辨阶段的结果进行检验。思辨和实证的统一阶段其实就是对经过实证阶段检 验和筛选的思辨阶段的成果进行实践的阶段。
教学法中的常用教学阶段包括自学阶段、教学阶段、考试阶段。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有深 度学习模型只是通过已有样本去学习,而没有把深度学习模型当成人一样去教 育,现有深度学习模型不具备自学的功能,也缺乏辩证哲学思想,从而使得深 度学习模型缺乏类似人的主观能动性和客观辩证性。现有深度学习技术主要依 赖于训练的样本,需要有大量的样本才能使得深度学习模型有效,但现实中在 有些情况下样本是很难采集到符合深度学习要求的数量,例如战争样本、地震 样本等等这些需要在特定时期或需要付出特别大的代价才会发生的事件的样 本,这些情况下,深度学习就无法发挥作用了。以作战深度学习模型为例,已有作战机器人只是将事先编写好的程序包括深度学习程序安装进机器人,而没 有把机器人当成人一样去教育,也缺乏辩证哲学思想,从而使得机器人在实际 战争中缺乏类似人的主观能动性和客观辩证性。已有基于人工智能的作战机器 人都需要大量案例学习来实现智能,但实际上作战案例的样本数量严重不足, 因为和平时期实战和作战演习都很少,而且作战演示成本也高,所以无法得到 大量的作战案例样本,可是很多深度学习算法依赖于大量的案例样本才能实现 有效的效果,这使得作战机器人难以发挥人工智能的作用和优势。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术中深度学习技术的缺陷或不足,提供基于生 成样本的深度学习方法和机器人系统,以解决现有技术中用于深度学习的样本 不足、深度学习应用受限、深度学习模型的通用性和准确率受样本量的制约的 缺点。
第一方面,本发明实施例提供一种深度学习方法,所述方法包括:
样本生成步骤:生成多个第一样本;
模型初始化步骤:初始化深度学习模型,作为深度学习模型;
生成样本无监督学习步骤:通过所述第一样本对所述深度学习模型进行无 监督训练;
样本筛选步骤:从多个所述第一样本中筛选出多个符合第一预设条件的所 述第一样本,作为多个第二样本;
生成样本有监督学习步骤:通过所述第二样本对所述深度学习模型进行有 监督训练;
优选地,
所述样本生成步骤具体包括:根据预设知识库生成多个所述第一样本;
所述样本筛选步骤具体包括:判断所述第一样本的输出是否与预期输出一 致:是,则将所述第一样本作为第二样本。
优选地,所述生成样本有监督学习步骤之后还包括:
真实样本无监督学习步骤:获取多个用于训练的真实样本,对所述深度学 习模型进行无监督训练;
真实样本有监督学习步骤:筛选出符合第二预设条件的多个用于训练的真 实样本,对所述深度学习模型进行有监督训练。
优选地,所述真实样本有监督学习步骤之后还包括:
模型验证步骤:筛选出输出与预期输出一致的多个用于测试的真实样本对 所述深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述深度学习模型通过验 证;否,则转到样本生成步骤继续执行。
优选地,所述验证判断步骤之后还包括:
输出生成步骤:获取输入数据作为所述深度学习模型的输入,通过计算得 到所述深度学习模型的输出;
模型优化步骤:判断所述输出是否与预期输出一致:否,则回到样本生成 步骤继续执行。
优选地,所述则所述深度学习模型通过验证的步骤之后还包括:通过所述 用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练。
第二方面,本发明实施例提供一种深度学习系统,所述系统包括:
样本生成模块:生成多个第一样本;
模型初始化模块:初始化深度学习模型,作为深度学习模型;
生成样本无监督学习模块:通过所述第一样本对所述深度学习模型进行无 监督训练;
样本筛选模块:从多个所述第一样本中筛选出多个符合第一预设条件的所 述第一样本,作为多个第二样本;
生成样本有监督学习模块:通过所述第二样本对所述深度学习模型进行有 监督训练;
优选地,
所述样本生成模块具体包括:根据预设知识库生成多个所述第一样本;
所述样本筛选模块具体包括:判断所述第一样本的输出是否与预期输出一 致:是,则将所述第一样本作为第二样本。
优选地,所述系统还包括:
真实样本无监督学习模块:获取多个用于训练的真实样本,对所述深度学 习模型进行无监督训练;
真实样本有监督学习模块:筛选出符合第二预设条件的多个用于训练的真 实样本,对所述深度学习模型进行有监督训练。
模型验证模块:筛选出输出与预期输出一致的多个用于测试的真实样本对 所述深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述深度学习模型通过验 证,通过所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监 督训练;否,则转到样本生成模块继续执行。
优选地,所述系统还包括:
输出生成模块:获取输入数据作为所述深度学习模型的输入,通过计算得 到所述深度学习模型的输出;
模型优化模块:判断所述输出是否与预期输出一致:否,则回到样本生成 模块继续执行。
第三方面,本发明实施例提供一种机器人系统,所述机器人中分别配置有 如第二方面所述的深度学习系统。
本发明实施例的有益效果:
本实施例提供的基于生成样本的深度学习方法和机器人系统,包括:生成 多个第一样本;根据所述第一样本对所述深度学习模型进行无监督训练;从多 个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第 二样本;根据所述第二样本对所述深度学习模型进行有监督训练;获取多个用 于训练的真实样本对所述深度学习模型进行无监督训练和有监督训练。上述方 法和系统通过样本自动生成,结合真实样本,极大提高了深度学习的适用范围, 提高了深度学习模型的通用性,实现了只有少量样本甚至无样本的情况下对深 度学习模型的有效训练和有效使用,提高了深度学习模型的通用性,同时也通 过自动生成样本来增加样本量,提高了深度学习模型的准确度。
附图说明
图1为本发明的实施例1提供的深度学习方法的流程图;
图2为本发明的实施例3提供的深度学习方法的流程图;
图3为本发明的实施例4提供的深度学习方法的流程图;
图4为本发明的实施例5提供的深度学习系统的原理框图;
图5为本发明的实施例7提供的深度学习系统的原理框图;
图6为本发明的实施例8提供的深度学习系统的原理框图;
图7为本发明的实施例9提供的深度学习系统的原理框图;
图8为本发明的实施例10提供的深度学习系统的原理框图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
实施例1提供一种深度学习方法,如图1所示,所述方法包括步骤S110 至步骤S150。
步骤S110至步骤S150:通过自学习产生深度学习模型。在思辨阶段,让 机器人进行样本的思辨。这个阶段同时对应教学法的自学阶段,因为这个阶段 主要是机器人自我学习而产生样本和深度学习模型。
在一个更具体的实施例12中,步骤S110至步骤S150通过自学习产生作 战案例样本和作战深度学习模型。在作战思辨阶段,让机器人进行作战态势和 作战意图的理解,作战决策的思辨。这个阶段同时对应教学法的自学阶段,因 为这个阶段主要是机器人自我学习而产生作战案例样本和作战深度学习模型。
样本生成步骤S110:生成多个第一样本。具体的生成方式很多,第1种方 式是随机生成数据,然后从数据中筛选出符合样本数据结构的数据作为样本; 第2种方式是根据样本的数据结构生成样本;第3种方式是根据样本组成规则 知识库和样本元素知识库生成样本,样本元素知识库中包含有样本的组成元素, 这样就能通过样本元素知识库中的样本元素结合样本组成规则知识库中的规则 进行组合来形成样本。
在所述更具体的实施例12中,生成多个第一作战案例样本,所述第一作战 案例样本包括作战态势、作战意图、预设方的作战决策。优选地,多个所述第 一作战案例样本的数量达到很多时可以形成第一作战案例样本大数据。将多个 所述第一作战案例样本加入第一作战案例知识库。具体地,将每一个所述第一 作战案例样本中的所述作战态势、所述作战意图、所述作战决策作为作战案例 知识库中的作战案例表的每一个案例的三个字段的具体数据,作战案例知识库 中的数据表包括三个字段,分别是作战态势字段、作战意图字段、作战决策字 段。
模型初始化步骤S120:初始化深度学习模型,作为深度学习模型。所述深 度学习模型的输入变量和输出变量的数据格式应与样本的数据结构一致。
在所述更具体的实施例12中,初始化深度学习模型,作为作战深度学习模 型。优选地,所述初始化深度学习模型的具体过程是:选取一个已有的深度学 习模型,例如卷积神经网络模型,将该深度学习模型的输入变量设置为作战态 势、作战意图,将该深度学习模型的输出变量设置为作战决策。
生成样本无监督学习步骤S130:通过所述第一样本对所述深度学习模型进 行无监督训练。具体地,将第一样本中的输入数据作为深度学习模型的输入数 据,对深度学习模型进行无监督训练。
在所述更具体的实施例12中,通过第一作战案例样本对所述作战深度学习 模型进行无监督训练。具体地:将所述第一作战案例样本中的作战态势、所述 第一作战案例样本中的作战意图作为所述作战深度学习模型的输入样本对所述 作战深度学习模型进行无监督训练。优选地,第一次无监督训练的作战深度学 习模型是通过初始化得到的,第二次无监督训练的作战深度学习模型是通过第 一次无监督训练得到的,第三次无监督训练的作战深度学习模型是通过第二次 无监督训练得到的,如此类推。
样本筛选步骤S140:从多个所述第一样本中筛选出多个符合第一预设条件 的所述第一样本,作为多个第二样本。所述第一预设条件为所述第一样本的输 出数据与预期输出数据一致。判断所述输出数据与预期输出数据是否一致的具 体方式是对输出数据与预期输出数据进行匹配,如果匹配度大于预设阈值则一 致,否则不一致。例如第一样本的输入是一个女人图像,第一样本的输出是女 性,则与预期输出女性一致,则符合第一预设条件,从而可以作为第二样本; 反之如果第一样本的输入是一个女人图像,第一样本的输出是男性,则与预期 输出女性不一致,则不符合第一预设条件,从而不可以作为第二样本。
在所述更具体的实施例12中,从多个所述第一作战案例样本中筛选出多个 符合第一预设条件的第一作战案例样本,作为多个第二作战案例样本。优选地, 所述预设条件包括作战结果与所述第一作战案例样本中的预设方作战意图一 致。优选地,将所述第二作战案例样本加入第二作战案例知识库。优选地,多 个第一作战案例样本是从所述第一作战案例知识库中获取的。所述可以理解的 是,则因为第一作战案例样本的量非常大,所以从中筛选出的第二作战案例样 本的量也非常大,可以形成第二作战样本案例大数据。
生成样本有监督学习步骤S150:通过所述第二样本对所述深度学习模型进 行有监督训练。具体地,将第二样本中的输入数据作为深度学习模型的输入数 据,将第二样本中的输出数据作为深度学习模型的输出数据,对深度学习模型 进行有监督训练。
在所述更具体的实施例12中,通过第二作战案例样本对所述作战深度学习 模型进行有监督训练。具体包括:将所述第二作战案例样本中的作战态势、所 述第二作战案例样本中的作战意图作为所述作战深度学习模型的输入样本,所 述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对 所述作战深度学习模型进行有监督训练。优选地,从第二作战案例知识库中获 取所述第二作战案例样本。第一次有监督训练的作战深度学习模型是通过无监 督训练得到的,第二次有监督训练的作战深度学习模型是通过第一次有监督训 练得到的,第三次有监督训练的作战深度学习模型是通过第二次有监督训练得 到的,如此类推。
本实施例的好处是,通过知识库自动生成的样本数据,而不是实际采集样 本数据,这解决了样本非常少,不足以用于形成大量样本情况的深度学习问题。 通过系统自动生成深度学习模型的训练样本,实现了在只有很少甚至没有样本 的情况下进行深度学习模型的无监督训练和有监督训练,因为自动生成的样本 非常丰富,可以随机组合生成比能采集到的样本更多的样本,从而为深度学习 模型的有效训练提供了可能。
实施例2提供一种优选的深度学习方法,根据实施例1所述的深度学习方 法,
样本生成步骤S110具体包括:根据预设知识库生成多个所述第一样本。优 选地,所述预设知识库一般为样本组成元素的知识库,样本组成元素的知识库 中列举出了样本的各种组成元素。例如如果样本是一个二进制数字,那么0和1 就是该样本的组成元素,通过0和1可以组成不同的样本。
在所述更具体的实施例中样本生成步骤S110具体包括:
态势生成步骤S111:根据预设作战态势知识库生成所述第一作战案例样本 中的作战态势。优选地,作战态势知识库是预先构建好的,作战态势知识库中 预先存储了作战态势构成规则子知识库、作战态势构成元素子知识库。作战态 势构成规则子知识库包括敌方属性、敌方能力、敌方实时状态、我方属性、我 方能力、我方实时状态的组合规则。作战态势构成元素子知识库包括属性知识 表、能力知识表、实时状态知识表、等等相关作战态势构成元素的知识表。S111 的具体过程是从属性知识表中随机获取属性的一个实例作为敌方属性,从能力 知识表中随机获取能力的一个实例作为敌方能力,从实时状态知识表中随机获 取实时状态的一个实例作为敌方实时状态,类似地,从相关作战态势构成元素 知识表获取我方属性、我方能力、我方实时状态,然后组合形成包括敌方属性、 敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的作战态势。
意图生成步骤S112:根据预设作战意图知识库生成所述第一作战案例样本 中的作战意图。优选地,作战意图知识库是预先构建好的,作战意图知识库中 预先存储了作战意图构成规则子知识库、作战意图构成元素子知识库。作战意 图构成规则子知识库包括我方作战意图、敌方作战意图的组合规则。作战意图 构成元素子知识库包括作战意图构成元素知识表。具体作战意图构成元素例如 进攻获胜、无损撤退、跟踪侦察敌机去向等等。S112的具体过程是从作战意图 构成元素知识表中随机获取作战意图的一个实例作为敌方作战意图或以一定概 率将敌方意图设置为未知,从作战意图构成元素知识表中随机获取作战意图的 一个实例作为我方作战意图,然后组合形成包括我方作战意图、敌方作战意图 的作战意图。其中,敌方作战意图也可以随机设置为未知,因为在实际战争中 敌方意图是要靠情报或侦察获得的,而有时是不一定能获知敌方意图,所以敌 方意图可以设置为未知。
决策生成步骤S113:根据预设作战决策知识库生成所述第一作战案例样本 中的作战决策。优选地,作战决策知识库是预先构建好的,作战决策知识库中 预先存储了作战决策构成规则子知识库、作战决策构成元素子知识库。作战决 策构成规则子知识库包括包括作战的类型、作战的时间、作战的地点、作战的 目标的组合规则。作战决策构成元素子知识库包括作战类型知识表、作战时间 知识表、作战地点知识表、作战目标知识表。作战的类型例如发射导弹,此时 作战时间就是发射导弹的时间,作战地点就是发射导弹的地点,作战目标就是 发射导弹的攻击目标。S113的具体过程是从作战类型知识表中随机获取作战类 型的一个实例作为作战类型,从作战时间知识表中随机获取作战时间的一个实 例作为作战时间,类似地获得作战地点、作战目标,然后组合形成预设方的作 战决策。这里的预设方作战决策,一般指我方或友方的作战决策。
样本筛选步骤S140的具体过程是:判断所述第一样本的输出是否与预期输 出一致:是,则将所述第一样本作为第二样本。可以理解的是,如果所述第一 样本的输出是否与预期输出一致,说明该第一样本是有着正确输出的样本,从 而可以被用于有监督学习。
在所述更具体的实施例中样本筛选步骤S140具体包括:
作战模拟步骤S141:在所述第一作战案例样本中的作战态势下对所述第一 作战案例样本中的作战决策进行模拟执行,得到作战结果。优选地,所述作战 态势下模拟执行所述作战决策可以通过现有的战争模拟软件来实现,并获取模 拟的结果,例如作战态势是对方战机在我方战机前方30米、我方战机是X型战 机、敌方战机是Y型战机,作战决策是我方战机发射炮弹,作战结果是击落了 对方战机。其中,作战态势例如敌我双方战机的属性(例如飞机型号、所载导 弹型号)、性能(例如飞行速度、所载导弹的射击准确度及射击速度)、飞行轨 迹(例如敌我双方战机的实时轨迹)。作战决策例如在时间t1向敌机发射导弹。
结果匹配步骤S142:计算所述作战结果与所述第一作战案例样本中的预设 方的作战意图的匹配度。例如,作战结果是我方战机击落了对方战机,那么如 果我方的作战意图也是击落对方战机,那么就会匹配成功。其中,预设方,一 般指的是我方或友方。
匹配判断步骤S143:判断所述匹配度是否大于预设阈值:是,则所述第一 作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第 一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案 例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决 策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战 意图无效。
本实施例的好处是通过知识库自动生成样本,可以随机组合成各种各样的 样本,只要随机组合的次数足够多,就能生成比实际采集到的样本更多的样本。
实施例3提供一种优选的深度学习方法,根据实施例1或实施例2所述的 深度学习方法,如图2所示,在所述步骤S150之后还包括步骤S160和步骤 S170:
真实样本无监督学习步骤S160:获取多个用于训练的真实样本,对所述深 度学习模型进行无监督训练。所述真实样本指的是在现实中采集到的样本,而 不是通过S110至S140生成的样本。
在所述更具体的实施例12中,获取多个用于训练的真实作战案例样本,对 所述作战深度学习模型进行无监督训练。具体包括:获取多个用于训练的真实 作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图作为作 战深度学习模型的输入样本对作战深度学习模型进行无监督训练。所述真实作 战案例样本包括实战中或演习中的作战案例样本。
真实样本有监督学习步骤S170:筛选出符合第二预设条件的多个用于训练 的真实样本,对所述深度学习模型进行有监督训练。所述第二预设条件包括用 于训练的真实样本的输出数据与预期输出数据一致。
在所述更具体的实施例12中,筛选出符合第二预设条件(优选地,第二预 设条件为作战结果与作战意图的匹配度大于预设阈值)的多个用于训练的真实 作战案例样本对所述作战深度学习模型进行有监督训练。优选地,具体包括: 获取多个用于训练的真实作战案例样本,从中选取作战结果与作战意图的匹配 度大于预设阈值的真实作战案例样本,提取所述选取的用于训练的真实作战案 例中的作战态势、作战意图、预设方的作战决策,将所述选取的用于训练的真 实作战案例的作战态势、作战意图作为作战深度学习模型的输入,将所述选取 的用于训练的真实作战案例的作战决策作为作战深度学习模型的输出样本,对 作战深度学习模型进行有监督训练。所述真实作战案例样本包括作战态势、作 战意图、作战决策、作战结果。可以理解的真实作战案例样本是真实发生过的 作战案例的样本,所以必然是有作战结果的。
本实施例的好处是利用用于训练的真实样本对自学形成的深度学习模型进 行无监督训练和有监督训练,进一步提高深度学习模型的准确度。
实施例4提供一种优选的深度学习方法,根据实施例3所述的深度学习方 法,如图3所示,在所述步骤S170之后还包括步骤S210和步骤S220:
步骤S210至步骤S220属于实证阶段(本质上是对深度学习模型进行验证 的阶段)。这个阶段同时对应教学法的教学阶段,因为这个阶段主要是通过真实 样本来测试和改进在自学阶段生成的深度学习模型。
在所述更具体的实施例12中,步骤S210至步骤S220属于作战实证阶段 (本质上是对作战深度学习模型进行验证的阶段)。这个阶段同时对应教学法的 教学阶段,因为这个阶段主要是通过真实作战案例来测试和改进在自学阶段生 成的作战深度学习模型。
模型验证步骤S210:筛选出输出与预期输出一致的多个用于测试的真实样 本对所述深度学习模型进行验证。可以理解的是,输出与预期输出一致的样本 才是输出正确的样本,用这样的样本来测试才能测试深度学习模型的正确性和 准确性。
在所述更具体的实施例12中,筛选出作战结果与作战意图的匹配度大于预 设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验 证。优选地,获取多个用于测试的真实作战案例样本,从中选取作战结果与作 战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的真实作战 案例中的作战态势、作战意图、预设方的作战决策,将所述选取的真实作战案 例的作战态势、作战意图作为作战深度学习模型的输入,通过计算得到所述作 战深度学习模型的输出作为预设方的作战决策,将所述输出的预设方的作战决 策与所述选取的真实作战案例中的作战决策进行匹配,判断匹配度是否大于预 设阈值:是,则测试成功;否,则测试失败。
验证判断步骤S220:判断所述验证是否通过:是,则所述深度学习模型通 过验证,优选地,通过所述用于测试的真实样本对所述深度学习模型进行无监 督训练和有监督训练;否,则转到样本生成步骤继续执行。
在所述更具体的实施例12中,判断所述验证是否通过:是,则所述作战深 度学习模型通过验证;否,则转到样本生成步骤S110继续执行。具体过程包括: 多次执行测试步骤,判断测试成功的次数占测试总次数是否大于或等于预设比 例:是,则验证通过;否,则验证不通过,回到样本生成步骤S110继续执行。 优选地,在则所述作战深度学习模型通过验证的步骤之后,通过所述用于测试 的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练, 具体地,将所述用于测试的真实作战案例样本中的作战态势、作战意图作为作 战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述用于 测试的真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输 入样本,所述用于测试的真实作战案例样本中的作战决策作为作战深度学习模 型的输出样本,对作战深度学习模型进行有监督训练。
本实施例的好处是,则通过测试来判断生成的所述作战深度学习模型是否 能通过真实作战案例的检验,因为真实作战案例是过去实际发生的,如果通过 了测试,说明所述作战深度学习模型就能通过实践的检验。如果测试成功,进 一步利用用于测试的真实样本对自学形成的深度学习模型进行无监督训练和有 监督训练,进一步提高深度学习模型的准确度。所述多次执行测试步骤中的执 行测试步骤的次数可以为用于测试的真实样本中测试样本的个数,也可以是预 设次数。
实施例5提供一种优选的深度学习方法,根据实施例4所述的深度学习方 法,如图4所示,在所述步骤S220之后还包括步骤S310和步骤S320。
步骤S310至步骤S320属于作战统一阶段,本质上是对所述深度学习模型 进行使用的阶段。这个阶段同时对应教学法的考试阶段,因为这个阶段主要是 对经过自学和教学两个阶段产生的所述深度学习模型进行应用并在应用中进一 步检验。
在所述更具体的实施例12中,步骤S310至步骤S320属于作战统一阶段, 本质上是对所述作战深度学习模型进行使用的阶段。这个阶段同时对应教学法 的考试阶段,因为这个阶段主要是对经过自学和教学两个阶段产生的所述作战 深度学习模型进行演习检验或作战检验。
决策生成步骤S310:获取输入数据作为所述深度学习模型的输入,通过计 算得到所述深度学习模型的输出。其中,输入数据指的是在应用中采集到的用 于所述深度学习模型输入的数据。优选地,将所述深度学习模型的输出发送给 用户。
在所述更具体的实施例12中,获取作战态势、预设方的作战意图,将作战 态势、作战意图作为作战深度学习模型的输入,通过计算得到作战深度学习模 型的输出作为预设方的作战决策;优选地,将所述预设方的作战决策推荐给预 设方的作战员(例如以语音发送驾驶战机的战士)也可以通过物联网直接转化 能够控制作战决策所涉及到预设方的作战装备的运行指令(例如导弹发射指 令)。所述获取的作战态势、作战意图是作战演习时或实际作战时的作战态势、 作战意图。
模型优化步骤S320:判断所述输出是否与预期输出一致:否,则回到样本 生成步骤继续执行。可以理解的是,如果所述输出与预期输出一致,则说明深 度学习模型输出的结果正确;如果所述输出与预期输出不一致,则说明深度学 习模型输出的结果不正确,所以要返回前面的步骤对所述深度学习模型进行改 进。
在所述更具体的实施例12中,在所述作战决策产生作战结果之后,获取所 述作战决策对应的作战结果,计算所述作战结果与所述预设方的作战意图的匹 配度,判断匹配度是否大于预设阈值:是,则所述作战决策对于所述作战态势 和作战意图有效,将所述作战态势、所述作战意图作为作战深度学习模型的输 入样本对作战深度学习模型进行无监督训练;将所述作战态势、所述作战意图 作为作战深度学习模型的输入样本,所述作战决策作为作战深度学习模型的输 出样本,对作战深度学习模型进行有监督训练;否,则所述作战决策对于所述 作战态势和作战意图无效,回到样本生成步骤S110继续执行。可以理解的是, 则如果所述作战决策失败了,说明所述作战深度学习模型需要继续改进,所以 需要返回样本生成的步骤再次执行。
本实施例的好处是,通过深度学习模型来辅助决策,提高决策的效率和智 能性。利用应用样本对深度学习模型进一步进行无监督训练和有监督训练,进 一步提高深度学习模型的准确度。同时,通过应用来检验深度学习模型,如果 无效,则重新优化深度学习模型。
实施例6、实施例7、实施例8、实施例9、实施例10中的系统分别与实 施例1、实施例2、实施例3、实施例4、实施例5中的方法相对应和类似,所 以其优选实施方式和有益效果不再赘述,只给出其主要模块。
实施例6提供一种深度学习系统,如图5所示,所述系统包括模块110至 模块150。
样本生成模块110:生成多个第一样本。
模型初始化模块120:初始化深度学习模型,作为深度学习模型。
生成样本无监督学习模块130:通过所述第一样本对所述深度学习模型进 行无监督训练。
样本筛选模块140:从多个所述第一样本中筛选出多个符合第一预设条件 的所述第一样本,作为多个第二样本。
生成样本有监督学习模块150:通过所述第二样本对所述深度学习模型进 行有监督训练。
实施例7提供一种优选的深度学习系统,根据实施例6所述的深度学习系 统,
样本生成模块110具体包括:根据预设知识库生成多个所述第一样本。
样本筛选模块140的具体过程是:判断所述第一样本的输出是否与预期输 出一致:是,则将所述第一样本作为第二样本。
实施例8提供一种优选的深度学习系统,根据实施例6或实施例7所述的 深度学习系统,如图6所示,在所述模块150之后还包括模块160和模块170:
真实样本无监督学习模块160:获取多个用于训练的真实样本,对所述深 度学习模型进行无监督训练。
真实样本有监督学习模块170:筛选出符合第二预设条件的多个用于训练 的真实样本,对所述深度学习模型进行有监督训练。
实施例9提供一种优选的深度学习系统,根据实施例8所述的深度学习系 统,如图7所示,在所述模块170之后还包括模块210和模块220:
模型验证模块210:筛选出输出与预期输出一致的多个用于测试的真实样 本对所述深度学习模型进行验证。
验证判断模块220:判断所述验证是否通过:是,则所述深度学习模型通 过验证,优选地,通过所述用于测试的真实样本对所述深度学习模型进行无监 督训练和有监督训练;否,则转到样本生成模块继续执行。
实施例10提供一种优选的深度学习系统,根据实施例9所述的深度学习系 统,如图8所示,在所述模块220之后还包括模块310和模块320。
决策生成模块310:获取输入数据作为所述深度学习模型的输入,通过计 算得到所述深度学习模型的输出。
模型优化模块320:判断所述输出是否与预期输出一致:否,则回到样本 生成模块继续执行。
实施例11提供一种机器人系统,所述机器人系统中分别配置有如实施例6 至9任一项所述的深度学习系统。
本发明实施例提供的基于样本生成的深度学习方法和机器人系统只要有少 量的真实样本进行测试即可。现实中在有些情况下很难采集到大量样本,例如 战争样本、地震样本等等这些需要在特定时期或需要付出特别大的代价才会发 生的事件的样本,这些情况下,本发明实施例就能发挥作用了。首先通过自我 生成样本来实现深度学习模型的训练,得到训练后的深度学习模型再通过采集 到的真实样本进行测试和进一步训练,从而能够得到有效的深度学习模型,从 而极大提高了深度学习的适用范围,提高了深度学习模型的通用性,实现了只 有少量样本甚至无样本的情况下对深度学习模型的有效训练和有效使用,无论 样本量有多少都能使用深度学习模型。同时也提高了深度学习模型的准确度,因为在样本量不足时,同样可以通过本发明实施例自动生成样本并进行训练。
以更为具体的实施例中的作战深度学习模型为例,把机器人当成人一样去 教育,从而使得机器人在实际战争中具备类似人的主观能动性。通过(自学阶 段、思辩阶段)构建作战知识库,基于作战知识库自动生成作战样本来训练作 战深度学习模型,然后通过(教学阶段、实证阶段)真实作战案例来对深度学 习模型进行训练、测试和改进,最后通过(考试阶段、统一阶段)实战或演习 来检验和进一步改进作战深度学习模型。整个过程和教学过程一样,同时也是 辩证发展的过程,这种组合拳,具备了在某个阶段单一使用深度学习不可能具 备的效果,使得作战深度学习模型不再依赖于真实作战案例的样本,而是可以自动生成样本,然后基于真实作战案例的样本进行训练、测试和改进作战深度 学习模型,并最终进行应用到作战演习或实战,并能在演习和实战中进一步改 进作战深度学习模型,使得作战深度学习模型能在实际战争演习和实战案例中 不断改进和完善。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细, 但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领 域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形 和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所 附权利要求为准。
Claims (10)
1.一种深度学习方法,其特征在于,所述方法包括:
样本生成步骤:生成多个第一样本;
模型初始化步骤:初始化深度学习模型,作为深度学习模型;
生成样本无监督学习步骤:使用所述第一样本对所述深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;
生成样本有监督学习步骤:使用所述第二样本对所述深度学习模型进行有监督训练。
2.根据权利要求1所述的深度学习方法,其特征在于,
所述样本生成步骤具体包括:根据预设知识库生成多个所述第一样本;
所述样本筛选步骤具体包括:判断所述第一样本的输出是否与预期输出一致:是,则将所述第一样本作为第二样本。
3.根据权利要求1或2所述的深度学习方法,其特征在于,所述生成样本有监督学习步骤之后还包括:
真实样本无监督学习步骤:获取多个用于训练的真实样本,对所述深度学习模型进行无监督训练;
真实样本有监督学习步骤:筛选出符合第二预设条件的多个用于训练的真实样本,对所述深度学习模型进行有监督训练。
4.根据权利要求3所述的深度学习方法,其特征在于,所述真实样本有监督学习步骤之后还包括:
模型验证步骤:筛选出输出与预期输出一致的多个用于测试的真实样本对所述深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述深度学习模型通过验证,使用所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练;否,则转到样本生成步骤继续执行。
5.根据权利要求4所述的深度学习方法,其特征在于,所述验证判断步骤之后还包括:
输出生成步骤:获取输入数据作为所述深度学习模型的输入,计算得到所述深度学习模型的输出;
模型优化步骤:判断所述输出是否与预期输出一致:否,则回到样本生成步骤继续执行。
6.一种深度学习系统,其特征在于,所述系统包括:
样本生成模块:生成多个第一样本;
模型初始化模块:初始化深度学习模型,作为深度学习模型;
生成样本无监督学习模块:使用所述第一样本对所述深度学习模型进行无监督训练;
样本筛选模块:从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;
生成样本有监督学习模块:使用所述第二样本对所述深度学习模型进行有监督训练。
7.根据权利要求6所述的深度学习系统,其特征在于,
所述样本生成模块具体包括:根据预设知识库生成多个所述第一样本;
所述样本筛选模块具体包括:判断所述第一样本的输出是否与预期输出一致:是,则将所述第一样本作为第二样本。
8.根据权利要求6或7所述的深度学习系统,其特征在于,所述系统还包括:
真实样本无监督学习模块:获取多个用于训练的真实样本,对所述深度学习模型进行无监督训练;
真实样本有监督学习模块:筛选出符合第二预设条件的多个用于训练的真实样本,对所述深度学习模型进行有监督训练;
模型验证模块:筛选出输出与预期输出一致的多个用于测试的真实样本对所述深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述深度学习模型通过验证,使用所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块继续执行。
9.根据权利要求8所述的深度学习系统,其特征在于,所述系统还包括:
输出生成模块:获取输入数据作为所述深度学习模型的输入,计算得到所述深度学习模型的输出;
模型优化模块:判断所述输出是否与预期输出一致:否,则回到样本生成模块继续执行。
10.一种机器人系统,其特征在于,所述机器人系统中分别配置有如权利要求6至9任一项所述的深度学习系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810774082.3A CN109063845B (zh) | 2018-07-15 | 2018-07-15 | 基于生成样本的深度学习方法和机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810774082.3A CN109063845B (zh) | 2018-07-15 | 2018-07-15 | 基于生成样本的深度学习方法和机器人系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109063845A true CN109063845A (zh) | 2018-12-21 |
CN109063845B CN109063845B (zh) | 2021-12-07 |
Family
ID=64816630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810774082.3A Active CN109063845B (zh) | 2018-07-15 | 2018-07-15 | 基于生成样本的深度学习方法和机器人系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109063845B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110737260A (zh) * | 2019-08-29 | 2020-01-31 | 南京智慧光信息科技研究院有限公司 | 基于大数据和人工智能的自动作业方法和机器人系统 |
CN110782038A (zh) * | 2019-09-27 | 2020-02-11 | 深圳蓝胖子机器人有限公司 | 自动标记训练样本的方法和系统及监督学习的方法和系统 |
US11823438B2 (en) | 2020-11-09 | 2023-11-21 | Industrial Technology Research Institute | Recognition system and image augmentation and training method thereof |
US11880747B2 (en) | 2019-11-15 | 2024-01-23 | Industrial Technology Research Institute | Image recognition method, training system for object recognition model and training method for object recognition model |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102498445A (zh) * | 2009-09-17 | 2012-06-13 | 西门子公司 | 用于机器状态监测的、使用规则生成的样本的监督故障学习 |
CN105096614A (zh) * | 2015-09-23 | 2015-11-25 | 南京遒涯信息技术有限公司 | 基于生成型深信度网络的新建路口交通流量预测方法 |
CN106529580A (zh) * | 2016-10-24 | 2017-03-22 | 浙江工业大学 | 结合edsvm的软件缺陷数据关联分类方法 |
US20170173262A1 (en) * | 2017-03-01 | 2017-06-22 | François Paul VELTZ | Medical systems, devices and methods |
CN107622276A (zh) * | 2017-08-21 | 2018-01-23 | 北京精密机电控制设备研究所 | 一种基于机器人仿真与物理采样结合的深度学习训练方法 |
CN107679566A (zh) * | 2017-09-22 | 2018-02-09 | 西安电子科技大学 | 一种融合专家先验知识的贝叶斯网络参数学习方法 |
CN107798390A (zh) * | 2017-11-22 | 2018-03-13 | 阿里巴巴集团控股有限公司 | 一种机器学习模型的训练方法、装置以及电子设备 |
CN107832353A (zh) * | 2017-10-23 | 2018-03-23 | 同济大学 | 一种社交媒体平台虚假信息识别方法 |
CN108021754A (zh) * | 2017-12-06 | 2018-05-11 | 北京航空航天大学 | 一种无人机自主空战决策框架及方法 |
CN108154148A (zh) * | 2018-01-22 | 2018-06-12 | 厦门美亚商鼎信息科技有限公司 | 训练样本的人工合成方法及基于该样本的验证码识别方法 |
-
2018
- 2018-07-15 CN CN201810774082.3A patent/CN109063845B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102498445A (zh) * | 2009-09-17 | 2012-06-13 | 西门子公司 | 用于机器状态监测的、使用规则生成的样本的监督故障学习 |
CN105096614A (zh) * | 2015-09-23 | 2015-11-25 | 南京遒涯信息技术有限公司 | 基于生成型深信度网络的新建路口交通流量预测方法 |
CN106529580A (zh) * | 2016-10-24 | 2017-03-22 | 浙江工业大学 | 结合edsvm的软件缺陷数据关联分类方法 |
US20170173262A1 (en) * | 2017-03-01 | 2017-06-22 | François Paul VELTZ | Medical systems, devices and methods |
CN107622276A (zh) * | 2017-08-21 | 2018-01-23 | 北京精密机电控制设备研究所 | 一种基于机器人仿真与物理采样结合的深度学习训练方法 |
CN107679566A (zh) * | 2017-09-22 | 2018-02-09 | 西安电子科技大学 | 一种融合专家先验知识的贝叶斯网络参数学习方法 |
CN107832353A (zh) * | 2017-10-23 | 2018-03-23 | 同济大学 | 一种社交媒体平台虚假信息识别方法 |
CN107798390A (zh) * | 2017-11-22 | 2018-03-13 | 阿里巴巴集团控股有限公司 | 一种机器学习模型的训练方法、装置以及电子设备 |
CN108021754A (zh) * | 2017-12-06 | 2018-05-11 | 北京航空航天大学 | 一种无人机自主空战决策框架及方法 |
CN108154148A (zh) * | 2018-01-22 | 2018-06-12 | 厦门美亚商鼎信息科技有限公司 | 训练样本的人工合成方法及基于该样本的验证码识别方法 |
Non-Patent Citations (2)
Title |
---|
姚庆锴 等: ""战场目标作战意图识别问题研究与展望"", 《指挥与控制学报》 * |
欧微 等: ""基于时序特征编码的目标战术意图识别算法"", 《指挥控制与仿真》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110737260A (zh) * | 2019-08-29 | 2020-01-31 | 南京智慧光信息科技研究院有限公司 | 基于大数据和人工智能的自动作业方法和机器人系统 |
CN110737260B (zh) * | 2019-08-29 | 2022-02-11 | 南京智慧光信息科技研究院有限公司 | 基于大数据和人工智能的自动作业方法和机器人系统 |
CN110782038A (zh) * | 2019-09-27 | 2020-02-11 | 深圳蓝胖子机器人有限公司 | 自动标记训练样本的方法和系统及监督学习的方法和系统 |
US11880747B2 (en) | 2019-11-15 | 2024-01-23 | Industrial Technology Research Institute | Image recognition method, training system for object recognition model and training method for object recognition model |
US11823438B2 (en) | 2020-11-09 | 2023-11-21 | Industrial Technology Research Institute | Recognition system and image augmentation and training method thereof |
Also Published As
Publication number | Publication date |
---|---|
CN109063845B (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109063845A (zh) | 基于生成样本的深度学习方法和机器人系统 | |
CN108489329B (zh) | 一种基于杀伤链的武器装备体系分析方法 | |
CN101964019A (zh) | 基于Agent技术的对抗行为建模仿真平台及仿真方法 | |
CN107766668A (zh) | 一种基于神经网络的复杂仿真模型验证方法 | |
CN109064821A (zh) | 一种基于虚拟现实的安保综合训练系统及方法 | |
CN110955592A (zh) | 一种飞行训练模拟器软件的测试方法及装置 | |
RU2761325C1 (ru) | Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности | |
Goldberg et al. | Developing models of expert performance for support in an adaptive marksmanship trainer | |
Fawkes | Developments in Artificial Intelligence: Opportunities and Challenges for Military Modeling and Simulation | |
Perla | Operations research, systems analysis, and wargaming: Riding the cycle of research | |
CN108828948A (zh) | 基于深度学习的人工智能作战方法和机器人系统 | |
CN108958030A (zh) | 基于知识库的人工智能作战方法和机器人系统 | |
CN108985463A (zh) | 基于知识库和深度学习的人工智能作战方法和机器人系统 | |
Mansikka et al. | Normative performance measurement in simulated air combat | |
Gombolay et al. | Learning to tutor from expert demonstrators via apprenticeship scheduling | |
Hoff et al. | Simulation in support of army structure analysis | |
CN112347699A (zh) | 多智能体对抗神经网络训练方法及装置 | |
Lin et al. | A new credibility assessment framework for training simulators | |
Merk et al. | Assessing behaviour of cognitive agents in a flight simulator with fighter pilots | |
Hoff et al. | Interactive simulation to support the transition of forces | |
Hinojosa et al. | Virtual Reality for Training in Bolivian Military Units | |
CN109756494A (zh) | 一种负样本变换方法及装置 | |
Stevens et al. | Measuring visual displays’ effect on novice performance in door gunnery | |
Jastrzembski et al. | Improving military readiness: Evaluation and prediction of performance to optimize training effectiveness | |
Murphy et al. | Developing interoperable data for training effectiveness assessment in Army marksmanship training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |