CN117574776A - 一种面向任务规划的模型自学习优化方法 - Google Patents
一种面向任务规划的模型自学习优化方法 Download PDFInfo
- Publication number
- CN117574776A CN117574776A CN202311663593.5A CN202311663593A CN117574776A CN 117574776 A CN117574776 A CN 117574776A CN 202311663593 A CN202311663593 A CN 202311663593A CN 117574776 A CN117574776 A CN 117574776A
- Authority
- CN
- China
- Prior art keywords
- task
- self
- data
- learning
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000005457 optimization Methods 0.000 title claims abstract description 23
- 238000007781 pre-processing Methods 0.000 claims abstract description 19
- 230000008859 change Effects 0.000 claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims abstract description 5
- 238000005538 encapsulation Methods 0.000 claims abstract description 4
- 238000013528 artificial neural network Methods 0.000 claims description 66
- 238000012549 training Methods 0.000 claims description 47
- 238000000605 extraction Methods 0.000 claims description 22
- 238000003062 neural network model Methods 0.000 claims description 18
- 230000014509 gene expression Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 230000003068 static effect Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 6
- 238000013499 data model Methods 0.000 claims description 6
- 238000013136 deep learning model Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000004140 cleaning Methods 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000005065 mining Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 238000010998 test method Methods 0.000 claims description 3
- 230000008094 contradictory effect Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 10
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种面向任务规划的模型自学习优化方法,任务规划动态调整自学习系统数据预处理包括实时环境数据、任务结果与初步评价;进行任务状态辨识与场景分类;再将辨识的结果作为场景分类的输入,将任务场景按照类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的任务场景;通过效能评分以及场景分类结果,对任务规划辅助生成自学习网络以及任务规划动态调整自学习网络在不同场景数据下的模型进行自学习优化以及封装,实现具有任务场景针对性的智能任务规划网络。本发明提升任务规划系统对于任务环境态势变化的适应能力,生成具有任务场景针对性的任务规划方案,提升任务规划模型对多种任务场景的适应性。
Description
技术领域
本发明涉及机器学习和人工智能技术领域,尤其涉及一种面向任务规划的模型自学习优化方法。
背景技术
智能任务规划和动态调整技术是基于数据驱动和算法优化的思想。首先,智能任务规划技术通过对任务目标、约束条件和资源需求等进行分析,生成初始任务规划方案。然后,动态调整技术通过实时监测任务执行情况,并与环境交互,获取实时数据和反馈信息。利用这些数据并运用机器学习、优化算法等方法,对任务规划方案进行动态调整,以适应环境变化和任务需求的变化。通过不断调整和改进,技术能够提高任务执行的效率、减少资源消耗,并实现任务目标的最优化。
现有智能任务规划和动态调整技术虽然取得了一定的进展,但缺少复杂情况下多目标任务规划动态调整自学习的相关研究,仍存在一些不足和缺点。首先,对于复杂多变的任务环境和需求,现有技术往往难以做出准确的预测和判断,导致任务规划的不准确性和动态调整的滞后性。其次,现有技术在处理大规模任务和复杂约束条件时,计算复杂度高,实时性较差,无法满足实时性要求较高的任务。此外,对于动态调整技术的参数选择和调整策略,缺乏系统的理论指导和评估方法,使得调整过程具有一定的盲目性和试错性。因此,进一步改进和完善现有智能任务规划和动态调整技术,提高其适应性、实时性和效率,是当前研究的重要方向。
发明内容
面向复杂多变的任务场景,针对单一行动任务规划模型无法实时进行调整,难以适应任务环境变化的弊端,本发明基于任务规划自学技术进行任务环境数据清洗与编码,获得任务环境基础特征信息,对任务场景进行分类,并在场景分类的基础上进行任务规划模型与动态调整任务规划模型的自学习,调整相关模型参数,更新相关任务分配模型,突破基于单一任务分配模型进行任务规划的局限,提升任务规划系统对于任务环境态势变化的适应能力,生成具有任务场景针对性的任务规划方案,提升任务规划模型对多种任务场景的适应性。
本发明的具体技术方案为:
一种面向任务规划的模型自学习优化方法,包含数据预处理与特征学习、任务场景辨识与分类和静动态任务规划自学习,还包括:利用聚类的方法针对实时更新的环境信息进行数据预处理,通过神经网络自编码进行特征提取。基于特征提取结果进行场景分类与辨识。利用实时更新的环境信息以及任务指挥人员调整后的任务规划方案作为学习样本,结合离线、在线自学习对多种场景下的任务规划静、动态调整自学习网络进行更新,优化规划网络参数,提升任务规划效能。
具体技术方案为:
一种面向任务规划的模型自学习优化方法,包括以下步骤:
S1:任务规划动态调整自学习系统数据预处理包括实时环境数据、任务结果与初步评价;数据预处理部分首先进行任务数据获取、任务数据结构化表达,对任务数据清洗得到满足数据质量要求的任务数据;在此基础上实现任务数据特征提取;
S2:经过数据预处理后根据环境和任务状态数据进行任务状态辨识与场景分类;首先进行任务状态辨识,得到任务执行节点与目标的分布信息以及目标的所属类型等任务状态;再将辨识的结果作为场景分类的输入,将任务场景按照类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的任务场景;任务场景分类的目的是为了训练适应不同任务场景的模型,以便在任务执行过程中,能够根据不同的任务场景及时选用恰当的模型;
S3:通过效能评分以及场景分类结果,对任务规划辅助生成自学习网络以及任务规划动态调整自学习网络在不同场景数据下的模型进行自学习优化以及封装,实现具有任务场景针对性的智能任务规划网络。
进一步的S1包括以下子步骤:
S1.1、设计一个适合任务规划且能够准确地描述任务的相关信息和属性数据模型;定义一个任务对象,包含任务的标识、名称、目标、约束条件、资源需求属性;从原始数据中抽取与任务相关的信息,从非结构化或半结构化数据中提取关键信息,并将其转换为结构化的属性-值对或关系型表示,将其转换为任务数据模型的结构化表达方式;
S1.2、根据每个变量的合理取值范围和相互关系进行一致性检查,检查数据是否合乎要求,是否存在重复数据、超出正常范围、逻辑上不合理或者相互矛盾的数据,对数据进行合理性审查;
S1.3、采用聚类的方法进行数据清洗,事先确定相关数据的阈值范围,若某些聚类簇的数据样本量比其他簇少得多,而且这个簇里的数据的特征也与其他簇差异很大,则将该簇里的大部分样本点视为异常点;
S1.4、将栈式稀疏降噪自编码网络作为任务数据特征提取的深度学习模型,通过神经网络自编码进行特征提取;对输入数据进行编码和解码,实现数据的压缩和重构,通过最小化重构误差来最优化压缩性能。
S1.4具体包括以下子步骤:
S1.4.1为实现复杂数据的特征提取,在神经网络中加入稀疏性限制;对若干个自编码器进行栈化堆叠,形成栈式自编码网络,令前一个自编码器的输出作为后一个自编码器的输入,使自编码器拥有多层神经网络的优良性能;
S1.4.2将栈式稀疏降噪自编码网络作为数据特征提取的深度学习模型;将网络层数设为三层;网络每层的节点数与数据的维度直接相关,输入层节点数与输入数据维度相同,输出层节点数代表输出数据的维度,根据特征提取效果调整设定隐含层每层的节点数;为实现特征检测的功能,设置隐含层神经元个数大于输入层神经元个数,提取完备的特征,第二、三层隐含层节点数则按逐层递减设置;输出层节点数通过计算原始数据集的本征维度确定;
S1.4.3激活函数选择常用的sigmoid函数;
S1.4.4进行特征数据深度学习与挖掘后,模型输出为相应的任务状态特征,并且满足任务分配神经网络的输入标准;其中包括动态属性特征、静态固有属性特征和环境关联属性特征;
动态属性特征包括目标实时位置、目标行为变化参数;静态固有属性特征包括目标类型、节点属性;环境关联属性特征包括是否偏离路径、目标与任务执行节点的相对位置。
S2包括以下子步骤:
S2.1、基于模板匹配进行任务状态辨识,具体包括以下子步骤:
S2.1.1根据历史任务经验和专家知识生成的先验模型生成模板,通过对任务执行计划进行详尽地描述,将一系列简单行为特征整合为任务事件,并将事件复合形成完整的任务状态模式,基于此辨识任务状态;
S2.1.2在模板匹配推理中,根据数据预处理提取的特征,即任务目标属性、目标类型、空间位置和运动特性,将特征聚类复合事件依次匹配验证,最终得到正确的任务状态辨识结果;
S2.1.3在将任务状态辨识结果输入用于场景分类的深度自适应神经网络前进行编码,作为神经网络的输入;
S2.2、模板匹配进行任务状态辨识后,采用深度自适应神经网络对任务场景进行分类,将任务场景按照任务类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的任务场景:
具体分类方法包括以下子步骤:
S2.2.1对于任务环境数据预处理后提取的众多特征,有四种特征属性是场景分类所关心的,包括:动态属性、静态固有属性;累计属性(任务执行时间、对目标的逼近或远离特点);环境关联属性(是否偏离路径、目标相对任务执行节点的方位);将这四种特征属性输入深度自适应神经网络,除此之外还将模板匹配辨识的结果作为深度自适应神经网络的输入;
累计属性包括任务执行时间、对目标的逼近或远离特点;环境关联属性包括是否偏离路径、目标相对任务执行节点的方位;
S2.2.2深度自适应神经网络的输出为按照任务类型分类的任务场景,包括简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的场景;
S2.2.3构造网络的隐层并初始化权重;根据经验公式对隐层节点数目进行初步确定,经验公式为:
其中NI表示输入节点数,NO表示输出节点数,NL表示所需要的隐层节点数;
S2.2.4采用多退出分支网络的深度自适应策略,动态调整隐层的结构以及深度,精简网络规模并减少过拟合;定义网络输入为一个张量X,由N个模块{f1,...,fN}级联组成一个深度为N的神经网络,其中fi表示第i个非线性模块,f由卷积、注意力模块或者全连接层构成;使用表示不同非线性模块间的连接关系,即/>网络最终的输出为Y,则一个N层级联神经网络表示为:
定义多退出分支网络在每一个深度处设置的输出模块为O,多退出分支网络表示为:
S2.2.5获得不同深度的输出后,对网络不同深度的特征进行融合;为了综合利用各层提取的特征,通过特征加权相加的方式来实现特征融合,得到融合提升的结果,从而达到不增加网络深度而提升网络整体或者部分的性能。
S3包括以下子步骤:
S3.1、采取“随机离线样本+带有遗忘因子的动态窗口样本”的组合方式实现任务规划辅助生成系统自学习,为提高任务规划辅助生成神经网络算法的自适应性,一部分样本从离线训练样本中随机选取,保证神经网络在历史任务中表现良好的能力,一部分样本采用当前任务状态得到的分类好的最近批量样本,形成带有遗忘因子的动态窗口样本,样本越新赋予的训练权重越大,以提高任务规划辅助生成系统的自适应性;
具体包括以下子步骤:
S3.1.1在每个加载步,从离线训练样本中随机选取若干样本加入到自学习训练样本中;
S3.1.2采用距离当前加载步最近的小批量样本作为自学习训练样本;
S3.1.3为降低历史样本湮没最新样本的风险,引入遗忘因子赋予最新的分类样本大的训练权重,而赋予较早的历史样本小的训练权重;
S3.1.4采用带有遗忘因子的滑动窗口样本训练神经网络以提高自学习任务规划辅助生成神经网络算法的自适应性和精度;所采用的滑动窗口包含当前步最近的L个小批量样本,当有新的分类样本输入时,早期的历史样本被剔除,试验子结构的样本数据按照先进先出的时间顺序进出滑动窗口,样本个数为L的滑动窗口表示为:
window=[(X1,Y1),...,(XL,YL)]
其中(XL,YL)是最新输入的已分类样本,(X1,Y1)是滑动窗口中最早的历史样本;利用当前的滑动窗口样本训练任务规划辅助生成自学习神经网络时,神经网络的目标函数为:
上式中,ei为滑动窗口样本中第i个样本的训练误差;wi为第i个样本集的训练权重系数;本方法中第i个样本的权重系数wi采用指数遗忘方式:
式中,μ为遗忘因子;
S3.1.5通过不断对已训练好的任务规划辅助生成自学习神经网络模型中加入新的任务样本,通过动态窗口法对网络进行训练,实现任务规划辅助生成网络的自学习任务;
S3.2、任务规划动态调整自学习采取“离线训练+在线微调”的两阶段试验方法架构,利用已有的数据离线训练任务规划动态调整自学习神经网络模型;然后在预训练的任务规划动态调整自学习神经网络模型的基础上,通过模型更新混合试验对不精确的任务规划动态调整自学习神经网络模型进行在线校正,保证任务规划动态调整自学习系统的稳定性,具体包括以下子步骤:
S3.2.1采用离线样本预训练任务规划动态调整自学习神经网络模型,以此提供一种神经网络初始化的方式,使得任务规划动态调整自学习神经网络的初始权值和阈值找到一个接近最优解的区域;
S3.2.2任务规划动态调整自学习神经网络的在线微调采用LM算法调整权值和阈值,LM算法的迭代公式为:
Wk+1=Wk-[JT(Wk)J(Wk)+χkI]-1JT(Wk)e(Wk)
上式中,Wk+1是k+1时刻的权值矩阵;J(Wk)为k时刻误差向量,e(Wk)是对权值矩阵Wk求导的雅克比矩;I是单位矩阵;χ为控制迭代步长的因子,当χ为0时,上式为高斯牛顿法,当χ→∞时,上式接近最速梯度下降法;
S3.2.3通过不断实时引入新的动态任务状态和环境数据,对任务规划动态调整自学习神经网络模型进行在线微调,实现模型的滚动优化,提升规划系统实时任务规划的准确性。
本发明提升任务规划系统对于任务环境变化的适应能力,生成具有任务场景针对性的任务规划方案。首先,结合数据结构化表达模块,对多维态势原始数据进行清洗,实现原始数据预处理,得到可供模型识别的数据输入量。再利用稀疏降噪自编码网络对任务状态数据进行特征提取与学习,获得任务特征分类。其次,利用模板推理模型进行任务场景辨识。基于场景辨识结果,通过神经网络对任务特征进行场景分类,利用分类结果对模板推理模型进行补偿,为模型自学习提供分类依据。最后,基于场景分类结果,对多种场景下的模型参数进行优化自学习。其中,任务规划辅助生成模型利用带有遗忘因子的环境样本数据以及任务指挥人员调整并采纳的历史任务规划方案作为学习样本,实现离线自学习。任务规划动态调整自学习利用实时更新的环境数据或任务指挥人员调整并采纳的任务规划方案作为学习样本,采用“离线训练+在线微调”的两阶段在线自学习方法实现网络模型实时更新。
附图说明
图1本发明的方法流程图。
具体实施方式
本发明提出了一种面向任务规划的模型自学习优化方法,该方法基于任务规划自学技术进行任务环境数据清洗与编码,获得任务基础特征信息。对任务场景进行分类,并在场景分类的基础上进行任务规划模型与动态调整任务规划模型的自学习,调整相关模型参数进而更新任务分配模型,实现任务场景实时分类。针对不同任务场景的任务规划反馈,在线学习任务规划和动态调整模型,提高任务规划方案对任务场景的适应性。
如图1所示,一种面向任务规划的模型自学习优化方法,包括以下步骤:
S1:任务规划动态调整自学习系统数据预处理包括实时环境数据、任务结果与初步评价。数据预处理部分首先进行任务数据获取、任务数据结构化表达,对任务数据清洗得到满足数据质量要求的任务数据。在此基础上实现任务数据特征提取,包括以下子步骤:
S1.1、设计一个适合任务规划且能够准确地描述任务的相关信息和属性数据模型。例如,定义一个任务对象,包含任务的标识、名称、目标、约束条件、资源需求等属性。从原始数据中抽取与任务相关的信息,从非结构化或半结构化数据中提取关键信息,并将其转换为结构化的属性-值对或关系型表示,将其转换为任务数据模型的结构化表达方式。
S1.2、根据每个变量的合理取值范围和相互关系进行一致性检查,检查数据是否合乎要求,是否存在重复数据、超出正常范围、逻辑上不合理或者相互矛盾的数据,对数据进行合理性审查。
S1.3、采用聚类的方法进行数据清洗,事先确定相关数据的阈值范围,若某些聚类簇的数据样本量比其他簇少得多,而且这个簇里的数据的特征也与其他簇差异很大,则将该簇里的大部分样本点视为异常点。
S1.4、将栈式稀疏降噪自编码网络作为任务数据特征提取的深度学习模型,通过神经网络自编码进行特征提取。对输入数据进行编码和解码,实现数据的压缩和重构,通过最小化重构误差来最优化压缩性能,具体包括以下子步骤:
S1.4.1为实现复杂数据的特征提取,在神经网络中加入稀疏性限制。对若干个自编码器进行栈化堆叠,形成栈式自编码网络,令前一个自编码器的输出作为后一个自编码器的输入,使自编码器拥有多层神经网络的优良性能。
S1.4.2将栈式稀疏降噪自编码网络作为数据特征提取的深度学习模型。为平衡提取抽象特征与网络过拟合的矛盾,将网络层数设为三层。网络每层的节点数与数据的维度直接相关,输入层节点数与输入数据维度相同,输出层节点数代表输出数据的维度,根据特征提取效果调整设定隐含层每层的节点数。为实现特征检测的功能,设置隐含层神经元个数大于输入层神经元个数,提取完备的特征,第二、三层隐含层节点数则按逐层递减设置。输出层节点数通过计算原始数据集的本征维度确定。
S1.4.3激活函数选择常用的sigmoid函数。
S1.4.4进行特征数据深度学习与挖掘后,模型输出为相应的任务状态特征,并且满足任务分配神经网络的输入标准。其中包括动态属性特征(目标实时位置、目标行为变化参数等)、静态固有属性特征(目标类型、节点属性等)和环境关联属性特征(是否偏离路径、目标与任务执行节点的相对位置等)。
S2:经过数据预处理后根据环境和任务状态数据进行任务状态辨识与场景分类。首先进行任务状态辨识,得到任务执行节点与目标的分布信息以及目标的所属类型等任务状态。再将辨识的结果作为场景分类的输入,将任务场景按照类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景等常见的任务场景。任务场景分类的目的是为了训练适应不同任务场景的模型,以便在任务执行过程中,能够根据不同的任务场景及时选用恰当的模型,包括以下子步骤:
S2.1、基于模板匹配进行任务状态辨识,具体包括以下子步骤:
S2.1.1根据历史任务经验和专家知识生成的先验模型生成模板,通过对任务执行计划进行详尽地描述,将一系列简单行为特征整合为任务事件,并将事件复合形成完整的任务状态模式,基于此辨识任务状态。
S2.1.2在模板匹配推理中,根据数据预处理提取的特征(任务目标属性、目标类型、空间位置和运动特性等),将特征聚类复合事件依次匹配验证,最终得到正确的任务状态辨识结果。
S2.1.3在将任务状态辨识结果输入用于场景分类的深度自适应神经网络前进行编码,作为神经网络的输入。
S2.2、模板匹配进行任务状态辨识后,采用深度自适应神经网络对任务场景进行分类,将任务场景按照任务类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景等常见的任务场景。具体分类方法包括以下子步骤:
S2.2.1对于任务环境数据预处理后提取的众多特征,有四种特征属性是场景分类所关心的,包括:动态属性(目标实时位置、目标状态变化参数等)、静态固有属性(目标类型、任务执行节点属性和目标属性等);累计属性(任务执行时间、对目标的逼近或远离特点等);环境关联属性(是否偏离路径、目标相对任务执行节点的方位等)。将这四种特征属性输入深度自适应神经网络,除此之外还将模板匹配辨识的结果作为深度自适应神经网络的输入。
S2.2.2深度自适应神经网络的输出为按照任务类型分类的任务场景,如简单且短时任务场景、复杂且长时任务场景、实时任务场景等常见的场景。
S2.2.3构造网络的隐层并初始化权重。根据经验公式对隐层节点数目进行初步确定,经验公式为:
其中NI表示输入节点数,NO表示输出节点数,NL表示所需要的隐层节点数。
S2.2.4相比单个隐层,多个隐层可以降低网络误差并提高数据分类精度,但场景分类网络有众多输入参数,使得网络结构趋于复杂,可能出现过拟合现象。针对这一问题,采用多退出分支网络的深度自适应策略,动态调整隐层的结构以及深度,精简网络规模并减少过拟合。定义网络输入为一个张量X,由N个模块{f1,...,fN}级联组成一个深度为N的神经网络,其中fi表示第i个非线性模块,f可以由卷积、注意力模块或者全连接层构成。为了方便表示,使用表示不同非线性模块间的连接关系,即/>网络最终的输出为Y,则一个N层级联神经网络可以表示为:
定义多退出分支网络在每一个深度处设置的输出模块为O,多退出分支网络表示为:
S2.2.5获得不同深度的输出后,对网络不同深度的特征进行融合。为了综合利用各层提取的特征,通过特征加权相加的方式来实现特征融合,得到融合提升的结果,从而达到不增加网络深度而提升网络整体或者部分的性能。
S3:通过效能评分以及场景分类结果,对任务规划辅助生成自学习网络以及任务规划动态调整自学习网络在不同场景数据下的模型进行自学习优化以及封装,实现具有任务场景针对性的智能任务规划网络,包括以下子步骤:
S3.1、本发明采取“随机离线样本+带有遗忘因子的动态窗口样本”的组合方式实现任务规划辅助生成系统自学习,为提高任务规划辅助生成神经网络算法的自适应性,一部分样本从离线训练样本中随机选取,保证神经网络在历史任务中表现良好的能力,一部分样本采用当前任务状态得到的分类好的最近批量样本,形成带有遗忘因子的动态窗口样本,样本越新赋予的训练权重越大,以提高任务规划辅助生成系统的自适应性,具体包括以下子步骤:
S3.1.1在每个加载步,从离线训练样本中随机选取若干样本加入到自学习训练样本中,保证任务规划辅助生成神经网络在历史任务中表现良好的能力。
S3.1.2采用距离当前加载步最近的小批量样本作为自学习训练样本。
S3.1.3为降低历史样本湮没最新样本的风险,引入遗忘因子赋予最新的分类样本较大的训练权重,而赋予较早的历史样本较小的训练权重。
S3.1.4采用带有遗忘因子的滑动窗口样本训练神经网络以提高自学习任务规划辅助生成神经网络算法的自适应性和精度。所采用的滑动窗口包含当前步最近的L个小批量样本,当有新的分类样本输入时,较早的历史样本被剔除,试验子结构的样本数据按照先进先出的时间顺序进出滑动窗口,样本个数为L的滑动窗口可以表示为:
window=[(X1,Y1),...,(XL,YL)]
其中(XL,YL)是最新输入的已分类样本,(X1,Y1)是滑动窗口中最早的历史样本。利用当前的滑动窗口样本训练任务规划辅助生成自学习神经网络时,神经网络的目标函数为:
上式中,ei为滑动窗口样本中第i个样本的训练误差;wi为第i个样本集的训练权重系数。本方法中第i个样本的权重系数wi采用指数遗忘方式:
式中,μ为遗忘因子。
S3.1.5通过不断对已训练好的任务规划辅助生成自学习神经网络模型中加入新的任务样本,通过动态窗口法对网络进行训练,实现任务规划辅助生成网络的自学习任务。
S3.2、任务规划动态调整自学习采取“离线训练+在线微调”的两阶段试验方法架构,利用已有的数据离线训练任务规划动态调整自学习神经网络模型。然后在预训练的任务规划动态调整自学习神经网络模型的基础上,通过模型更新混合试验对不精确的任务规划动态调整自学习神经网络模型进行在线校正,保证任务规划动态调整自学习系统的稳定性,具体包括以下子步骤:
S3.2.1本方法采用离线样本预训练任务规划动态调整自学习神经网络模型,以此提供一种神经网络初始化的方式,使得任务规划动态调整自学习神经网络的初始权值和阈值找到一个接近最优解的区域。
S3.2.2本方法中任务规划动态调整自学习神经网络的在线微调采用LM算法调整权值和阈值,基于近似二阶导数下降来调整权值和阈值,LM算法的迭代公式为:
Wk+1=Wk-[JT(Wk)J(Wk)+χkI]-1JT(Wk)e(Wk)
上式中,Wk+1是k+1时刻的权值矩阵;J(Wk)为k时刻误差向量,e(Wk)是对权值矩阵Wk求导的雅克比矩;I是单位矩阵;χ为控制迭代步长的因子,当χ为0时,上式为高斯牛顿法,当χ→∞时,上式接近最速梯度下降法。
S3.2.3通过不断实时引入新的动态任务状态和环境数据,对任务规划动态调整自学习神经网络模型进行在线微调,实现模型的滚动优化,提升规划系统实时任务规划的准确性。
Claims (5)
1.一种面向任务规划的模型自学习优化方法,其特征在于,包括以下步骤:
S1:任务规划动态调整自学习系统数据预处理包括实时环境数据、任务结果与初步评价;数据预处理部分首先进行任务数据获取、任务数据结构化表达,对任务数据清洗得到满足数据质量要求的任务数据;在此基础上实现任务数据特征提取;
S2:经过数据预处理后根据环境和任务状态数据进行任务状态辨识与场景分类;首先进行任务状态辨识,得到任务执行节点与目标的分布信息以及目标的所属类型等任务状态;再将辨识的结果作为场景分类的输入,将任务场景按照类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的任务场景;任务场景分类的目的是为了训练适应不同任务场景的模型,以便在任务执行过程中,能够根据不同的任务场景及时选用恰当的模型;
S3:通过效能评分以及场景分类结果,对任务规划辅助生成自学习网络以及任务规划动态调整自学习网络在不同场景数据下的模型进行自学习优化以及封装,实现具有任务场景针对性的智能任务规划网络。
2.根据权利要求1所述的一种面向任务规划的模型自学习优化方法,其特征在于,S1包括以下子步骤:
S1.1、设计一个适合任务规划且能够准确地描述任务的相关信息和属性数据模型;定义一个任务对象,包含任务的标识、名称、目标、约束条件、资源需求属性;从原始数据中抽取与任务相关的信息,从非结构化或半结构化数据中提取关键信息,并将其转换为结构化的属性-值对或关系型表示,将其转换为任务数据模型的结构化表达方式;
S1.2、根据每个变量的合理取值范围和相互关系进行一致性检查,检查数据是否合乎要求,是否存在重复数据、超出正常范围、逻辑上不合理或者相互矛盾的数据,对数据进行合理性审查;
S1.3、采用聚类的方法进行数据清洗,事先确定相关数据的阈值范围,若某些聚类簇的数据样本量比其他簇少得多,而且这个簇里的数据的特征也与其他簇差异很大,则将该簇里的大部分样本点视为异常点;
S1.4、将栈式稀疏降噪自编码网络作为任务数据特征提取的深度学习模型,通过神经网络自编码进行特征提取;对输入数据进行编码和解码,实现数据的压缩和重构,通过最小化重构误差来最优化压缩性能。
3.根据权利要求2所述的一种面向任务规划的模型自学习优化方法,其特征在于,S1.4具体包括以下子步骤:
S1.4.1为实现复杂数据的特征提取,在神经网络中加入稀疏性限制;对若干个自编码器进行栈化堆叠,形成栈式自编码网络,令前一个自编码器的输出作为后一个自编码器的输入,使自编码器拥有多层神经网络的优良性能;
S1.4.2将栈式稀疏降噪自编码网络作为数据特征提取的深度学习模型;将网络层数设为三层;网络每层的节点数与数据的维度直接相关,输入层节点数与输入数据维度相同,输出层节点数代表输出数据的维度,根据特征提取效果调整设定隐含层每层的节点数;为实现特征检测的功能,设置隐含层神经元个数大于输入层神经元个数,提取完备的特征,第二、三层隐含层节点数则按逐层递减设置;输出层节点数通过计算原始数据集的本征维度确定;
S1.4.3激活函数选择常用的sigmoid函数;
S1.4.4进行特征数据深度学习与挖掘后,模型输出为相应的任务状态特征,并且满足任务分配神经网络的输入标准;其中包括动态属性特征、静态固有属性特征和环境关联属性特征;
动态属性特征包括目标实时位置、目标行为变化参数;静态固有属性特征包括目标类型、节点属性;环境关联属性特征包括是否偏离路径、目标与任务执行节点的相对位置。
4.根据权利要求1所述的一种面向任务规划的模型自学习优化方法,其特征在于,S2包括以下子步骤:
S2.1、基于模板匹配进行任务状态辨识,具体包括以下子步骤:
S2.1.1根据历史任务经验和专家知识生成的先验模型生成模板,通过对任务执行计划进行详尽地描述,将一系列简单行为特征整合为任务事件,并将事件复合形成完整的任务状态模式,基于此辨识任务状态;
S2.1.2在模板匹配推理中,根据数据预处理提取的特征,即任务目标属性、目标类型、空间位置和运动特性,将特征聚类复合事件依次匹配验证,最终得到正确的任务状态辨识结果;
S2.1.3在将任务状态辨识结果输入用于场景分类的深度自适应神经网络前进行编码,作为神经网络的输入;
S2.2、模板匹配进行任务状态辨识后,采用深度自适应神经网络对任务场景进行分类,将任务场景按照任务类型分为简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的任务场景:
具体分类方法包括以下子步骤:
S2.2.1对于任务环境数据预处理后提取的众多特征,有四种特征属性是场景分类所关心的,包括:动态属性、静态固有属性;累计属性(任务执行时间、对目标的逼近或远离特点);环境关联属性(是否偏离路径、目标相对任务执行节点的方位);将这四种特征属性输入深度自适应神经网络,除此之外还将模板匹配辨识的结果作为深度自适应神经网络的输入;
累计属性包括任务执行时间、对目标的逼近或远离特点;环境关联属性包括是否偏离路径、目标相对任务执行节点的方位;
S2.2.2深度自适应神经网络的输出为按照任务类型分类的任务场景,包括简单且短时任务场景、复杂且长时任务场景、实时任务场景常见的场景;
S2.2.3构造网络的隐层并初始化权重;根据经验公式对隐层节点数目进行初步确定,经验公式为:
其中NI表示输入节点数,NO表示输出节点数,NL表示所需要的隐层节点数;
S2.2.4采用多退出分支网络的深度自适应策略,动态调整隐层的结构以及深度,精简网络规模并减少过拟合;定义网络输入为一个张量X,由N个模块{f1,...,fN}级联组成一个深度为N的神经网络,其中fi表示第i个非线性模块,f由卷积、注意力模块或者全连接层构成;使用表示不同非线性模块间的连接关系,即/>网络最终的输出为Y,则一个N层级联神经网络表示为:
定义多退出分支网络在每一个深度处设置的输出模块为O,多退出分支网络表示为:
S2.2.5获得不同深度的输出后,对网络不同深度的特征进行融合;为了综合利用各层提取的特征,通过特征加权相加的方式来实现特征融合,得到融合提升的结果,从而达到不增加网络深度而提升网络整体或者部分的性能。
5.根据权利要求1所述的一种面向任务规划的模型自学习优化方法,其特征在于,S3包括以下子步骤:
S3.1、采取“随机离线样本+带有遗忘因子的动态窗口样本”的组合方式实现任务规划辅助生成系统自学习,为提高任务规划辅助生成神经网络算法的自适应性,一部分样本从离线训练样本中随机选取,保证神经网络在历史任务中表现良好的能力,一部分样本采用当前任务状态得到的分类好的最近批量样本,形成带有遗忘因子的动态窗口样本,样本越新赋予的训练权重越大,以提高任务规划辅助生成系统的自适应性;
具体包括以下子步骤:
S3.1.1在每个加载步,从离线训练样本中随机选取若干样本加入到自学习训练样本中;
S3.1.2采用距离当前加载步最近的小批量样本作为自学习训练样本;
S3.1.3为降低历史样本湮没最新样本的风险,引入遗忘因子赋予最新的分类样本大的训练权重,而赋予较早的历史样本小的训练权重;
S3.1.4采用带有遗忘因子的滑动窗口样本训练神经网络以提高自学习任务规划辅助生成神经网络算法的自适应性和精度;所采用的滑动窗口包含当前步最近的L个小批量样本,当有新的分类样本输入时,早期的历史样本被剔除,试验子结构的样本数据按照先进先出的时间顺序进出滑动窗口,样本个数为L的滑动窗口表示为:
window=[(X1,Y1),...,(XL,YL)]
其中(XL,YL)是最新输入的已分类样本,(X1,Y1)是滑动窗口中最早的历史样本;利用当前的滑动窗口样本训练任务规划辅助生成自学习神经网络时,神经网络的目标函数为:
上式中,ei为滑动窗口样本中第i个样本的训练误差;wi为第i个样本集的训练权重系数;本方法中第i个样本的权重系数wi采用指数遗忘方式:
式中,μ为遗忘因子;
S3.1.5通过不断对已训练好的任务规划辅助生成自学习神经网络模型中加入新的任务样本,通过动态窗口法对网络进行训练,实现任务规划辅助生成网络的自学习任务;
S3.2、任务规划动态调整自学习采取“离线训练+在线微调”的两阶段试验方法架构,利用已有的数据离线训练任务规划动态调整自学习神经网络模型;然后在预训练的任务规划动态调整自学习神经网络模型的基础上,通过模型更新混合试验对不精确的任务规划动态调整自学习神经网络模型进行在线校正,保证任务规划动态调整自学习系统的稳定性,具体包括以下子步骤:
S3.2.1采用离线样本预训练任务规划动态调整自学习神经网络模型,以此提供一种神经网络初始化的方式,使得任务规划动态调整自学习神经网络的初始权值和阈值找到一个接近最优解的区域;
S3.2.2任务规划动态调整自学习神经网络的在线微调采用LM算法调整权值和阈值,LM算法的迭代公式为:
Wk+1=Wk-[JT(Wk)J(Wk)+χkI]-1JT(Wk)e(Wk)
上式中,Wk+1是k+1时刻的权值矩阵;J(Wk)为k时刻误差向量,e(Wk)是对权值矩阵Wk求导的雅克比矩;I是单位矩阵;χ为控制迭代步长的因子,当χ为0时,上式为高斯牛顿法,当χ→∞时,上式接近最速梯度下降法;
S3.2.3通过不断实时引入新的动态任务状态和环境数据,对任务规划动态调整自学习神经网络模型进行在线微调,实现模型的滚动优化,提升规划系统实时任务规划的准确性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311663593.5A CN117574776A (zh) | 2023-12-06 | 2023-12-06 | 一种面向任务规划的模型自学习优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311663593.5A CN117574776A (zh) | 2023-12-06 | 2023-12-06 | 一种面向任务规划的模型自学习优化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117574776A true CN117574776A (zh) | 2024-02-20 |
Family
ID=89864208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311663593.5A Pending CN117574776A (zh) | 2023-12-06 | 2023-12-06 | 一种面向任务规划的模型自学习优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117574776A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117877130A (zh) * | 2024-03-12 | 2024-04-12 | 唐山旭华智能科技有限公司 | 一种多场景下自适应边缘计算数据处理系统及方法 |
-
2023
- 2023-12-06 CN CN202311663593.5A patent/CN117574776A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117877130A (zh) * | 2024-03-12 | 2024-04-12 | 唐山旭华智能科技有限公司 | 一种多场景下自适应边缘计算数据处理系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112801404A (zh) | 一种基于自适应空间自注意力图卷积的交通预测方法 | |
CN106709820A (zh) | 一种基于深度置信网络的电力系统负荷预测方法及装置 | |
CN111988329B (zh) | 一种基于深度学习的网络入侵检测方法 | |
CN114444660B (zh) | 基于注意力机制和lstm的短期电力负荷预测方法 | |
CN111260124A (zh) | 一种基于注意力机制深度学习的混沌时间序列预测方法 | |
CN115016276B (zh) | 智能水分调节与环境参数物联网大数据系统 | |
CN114019370B (zh) | 基于灰度图像和轻量级cnn-svm模型的电机故障检测方法 | |
CN117574776A (zh) | 一种面向任务规划的模型自学习优化方法 | |
CN110717610A (zh) | 一种基于数据挖掘的风电功率预测方法 | |
CN112766537B (zh) | 一种短期电负荷预测方法 | |
CN114218872A (zh) | 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法 | |
CN113361803A (zh) | 基于生成对抗网络的超短期光伏功率预测方法 | |
CN110717581A (zh) | 一种基于温度模糊处理和dbn的短期负荷预测方法 | |
CN111275074B (zh) | 基于栈式自编码网络模型的电力cps信息攻击辨识方法 | |
CN114118596A (zh) | 一种光伏发电量预测方法和装置 | |
CN117458480A (zh) | 基于改进lof的光伏发电功率短期预测方法及系统 | |
CN112651519A (zh) | 一种基于深度学习理论的二次设备故障定位方法及系统 | |
CN106453294A (zh) | 基于模糊淘汰机制的小生境技术的安全态势预测方法 | |
CN109214500B (zh) | 一种基于混合智能算法的变压器故障识别方法 | |
CN109086887A (zh) | 深度rbf神经网络与基于熵权的ahp结合的预警方法 | |
CN113033898A (zh) | 基于k均值聚类与bi-lstm神经网络的电负荷预测方法及系统 | |
CN116167465A (zh) | 基于多变量时间序列集成学习的太阳辐照度预测方法 | |
Kanan et al. | Reduction of neural network training time using an adaptive fuzzy approach in real time applications | |
CN113807005B (zh) | 基于改进fpa-dbn的轴承剩余寿命预测方法 | |
CN114254828B (zh) | 一种基于混合卷积特征提取器和gru的电力负荷预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |