CN116822571A - 预测方法、模型的训练方法及装置、设备、存储介质 - Google Patents
预测方法、模型的训练方法及装置、设备、存储介质 Download PDFInfo
- Publication number
- CN116822571A CN116822571A CN202211369698.5A CN202211369698A CN116822571A CN 116822571 A CN116822571 A CN 116822571A CN 202211369698 A CN202211369698 A CN 202211369698A CN 116822571 A CN116822571 A CN 116822571A
- Authority
- CN
- China
- Prior art keywords
- prediction model
- trained
- network structure
- target prediction
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 104
- 238000012549 training Methods 0.000 title claims abstract description 69
- 241000544061 Cuculus canorus Species 0.000 claims abstract description 67
- 238000010845 search algorithm Methods 0.000 claims abstract description 58
- 235000005770 birds nest Nutrition 0.000 claims description 42
- 235000005765 wild carrot Nutrition 0.000 claims description 42
- 238000004422 calculation algorithm Methods 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 29
- 238000013528 artificial neural network Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 230000007787 long-term memory Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006403 short-term memory Effects 0.000 description 5
- 235000013601 eggs Nutrition 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000003071 parasitic effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 244000000626 Daucus carota Species 0.000 description 1
- 241000208422 Rhododendron Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本申请实施例公开了一种预测方法、模型的训练方法及装置、设备、存储介质,其中,所述训练方法包括:获取历史时序数据集;确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
Description
技术领域
本申请实施例涉及机器学习技术,涉及但不限于一种预测方法、模型的训练方法及装置、设备、存储介质。
背景技术
现有的容器集群仍然存在一些问题,比如何时对集群进行扩容,何时对集群进行缩容,当前容器集群是否存在资源利用不充分,以及是否存在容器资源过度供应等问题。如果存在过度供应的现象,虽然不会影响用户体验,但是对企业来说会导致资源浪费,增大了维护成本。如果存在供应不足的现象,则会引起服务质量下降,用户请求得不到及时响应,最终导致客户流失,收入降低。因此,需要尽可能的满足用户的资源需求。
Kubernetes在超过阈值的情况下,能够通过预警的方式来实现弹性伸缩,这显然是一种事后预警。当容器资源超过设定的阈值时,容器已经达到了高负载状态,而应用的服务质量已经开始下降。因此需要建立某种预测模型,能够准确预测未来容器资源的需求状况,合理安排扩容和缩容,提高集群的资源利用率。
发明内容
有鉴于此,本申请实施例提供一种预测方法、模型的训练方法及装置、设备、存储介质。
本申请实施例的技术方案是这样实现的:
第一方面,本申请实施例提供一种预测模型的训练方法,所述方法包括:获取历史时序数据集;确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
通过上述方式,能够基于自适应动态步长的布谷鸟搜索算法构建一种具有高预测精度的预测模型。
在一些实施例中,所述确定待训练的目标预测模型,包括:对原始预测模型的网络结构参数进行初始化;利用所述改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数;基于所述调整后的网络结构参数,确定待训练的目标预测模型。
在一些实施例中,在所述改进的布谷鸟搜索算法的鸟巢位置表示网络结构参数的参数值的情况下,所述利用所述改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数,包括:利用所述改进的布谷鸟搜索算法进行迭代,在每轮迭代时根据上一轮更新的网络结构参数设置原始预测模型的网络结构,并将所述原始预测模型的训练误差作为鸟巢位置的适应度;如果迭代次数达到预设的迭代次数,则停止迭代并确定出适应度最优的鸟巢位置;将所述适应度最优的鸟巢位置对应的参数值,作为调整后的网络结构参数的参数值。
在一些实施例中,在所述原始预测模型为长短期记忆神经网络模型的情况下,所述网络结构参数至少包括以下一种:时间步长、隐藏层中的前馈神经网络单元的数量、预测步长。
在一些实施例中,所述方法还包括:确定当前的迭代次数和预设的迭代次数;根据所述当前的迭代次数和所述预设的迭代次数,确定步长因子。
在一些实施例中,所述利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型,包括:按照预设的数据类型对所述历史时序数据集进行分类,得到N类历史时序数据子集;其中,所述N为大于等于1的自然数;利用所述N类历史时序数据子集中的每一类历史时序数据子集分别对所述待训练的目标预测模型进行训练,得到N个已训练的目标预测模型。
在一些实施例中,所述方法还包括:确定所述待训练的目标预测模型的网络结构参数;根据所述网络结构参数对所述历史时序数据集进行处理,以将所述历史时序数据集转化为对应的监督学习数据集。
第二方面,本申请实施例提供一种预测方法,所述方法包括:获取当前的时序数据;将所述当前的时序数据输入已训练的目标预测模型进行预测,得到预测的结果;其中,所述已训练的目标预测模型为基于前述的训练方法训练得到的。
通过上述方式,能够利用基于自适应动态步长的布谷鸟搜索算法构建的预测模型进行高精度的预测。
第三方面,本申请实施例提供一种预测模型的训练装置,所述装置包括:第一获取单元,用于获取历史时序数据集;模型确定单元,用于确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;模型训练单元,用于利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
第四方面,本申请实施例提供一种预测装置,所述装置包括:第二获取单元,用于获取当前的时序数据;预测单元,用于将所述当前的时序数据输入已训练的目标预测模型进行预测,得到预测的结果;其中,所述已训练的目标预测模型为基于前述的训练方法训练得到的。
第五方面,本申请实施例提供一种电子设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述训练方法中的步骤,或,实现上述预测方法中的步骤。
第六方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述训练方法中的步骤,或,实现上述预测方法中的步骤。
附图说明
图1为本申请实施例预测模型的训练方法的实现流程示意图一;
图2为本申请实施例预测模型的训练方法的实现流程示意图二;
图3为本申请实施例预测方法的实现流程示意图一;
图4A为本申请实施例步长因子随迭代次数变化的示意图;
图4B为本申请实施例网络结构参数的优化方法的流程示意图;
图4C为本申请实施例预测方法的实现流程示意图二;
图4D为本申请实施例四种预测模型最佳适应度的收敛对比图;
图4E为相关技术中SVM模型对CPU负载的预测结果示意图;
图4F为本申请实施例ADSCS_LSTM模型对于CPU负载的预测结果示意图;
图5为本申请实施例预测模型的训练装置的组成结构示意图;
图6为本申请实施例预测装置的组成结构示意图;
图7为本申请实施例电子设备的一种硬件实体示意图。
具体实施方式
下面结合附图和实施例对本申请的技术方案进一步详细阐述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本申请的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
需要指出,本申请实施例所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
基于此,本申请实施例提供一种预测模型的训练方法,所述方法应用于电子设备,该方法所实现的功能可以通过所述电子设备中的处理器调用程序代码来实现,当然程序代码可以保存在所述电子设备的存储介质中。图1为本申请实施例预测模型的训练方法的实现流程示意图一,如图1所示,所述方法包括:
步骤S101、获取历史时序数据集;
这里,所述电子设备可以为各种类型的具有信息处理能力的设备,例如导航仪、智能手机、平板电脑、可穿戴设备、膝上型便携计算机、一体机和台式计算机、服务器集群等。
本申请实施例中,所述历史时序数据集可以为机器学习领域常用的数据集,也可以为特定的数据集,本申请实施例对此并不做限制。其中,时序数据是指时间序列数据,时间序列数据是同一统一指标按时间顺序记录的数据列。
需要说明的是,该预测模型可以用于各种领域的预测,例如用于服务器、虚拟机、容器等的资源预测,或者用于物资的需求预测,或者用于股票预测等。本申请实施例对该预测模型的预测内容并不做限制。
步骤S102、确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;
这里,布谷鸟搜索算法也叫杜鹃搜索算法,该算法是通过模拟某些种属布谷鸟的寄生育雏,来有效地求解最优化问题的算法;同时,布谷鸟搜索算法也采用相关的Levy飞行搜索机制。
在现有的布谷鸟搜索算法(CS)中控制步长α可表示为为了降低相似鸟蛋的发现概率,步长α中α0通常设定为常量,例如值为0.01。进而Levy飞行公式为其中,/>表示第i个鸟巢在第h代时的鸟巢位置,表示第j个鸟巢在第h代时的鸟巢位置。
在上述现有的布谷鸟搜索算法中,在对算法参数进行设置时,步长因子α0=0.01是不变的,这样就导致在进行参数优化时,算法的收敛速度过于平缓,收敛效果差。
因此,本申请实施例提供一种改进的布谷鸟搜索算法(ADSCS),改进的布谷鸟搜索算法中的步长在早期足够大以保证算法的全局搜索能力和解的多样性,在后期足够小以提高局部搜索能力。其中,该步长通过以下方式实现:
通过设置动态变化的步长因子α0,可以使其随迭代次数的变化而变化,从而在提高收敛速度的同时又提升了搜索精度,改进后的动态步长因子α0可以通过下述公式(1)表示:
其中,h是当前迭代次数,hmax是最大迭代次数。将原始步长因子用公式(1)进行替换,生成如下公式(2)所示的新的Levy飞行公式:
这里,改进后的动态变化的步长因子在参数寻优开始时取值相对较大,搜索区域更大,收敛速度更快,不会陷入局部最优的困境。当迭代次数越来越多,步长因子也越来越小,相比于前期,后期的收敛速度逐渐趋于平缓,搜索精度逐渐提升,因此,改进后的自适应动态步长因子参数寻优的效果更快更好。
本申请实施例中,可以利用改进的布谷鸟搜索算法寻找目标预测模型的网络结构参数的最优解,从而利用该最优解构建所述目标预测模型的网络结构,进而提高该目标预测模型的预测精度。在一些实施例中,该目标预测模型可以是利用改进的布谷鸟搜索算法进行参数寻优后的LSTM模型,即ADSCS_LSTM模型。当然,还可以是除LSTM模型以外的其他时间循环神经网络,该其他的时间循环神经网络的网络结构参数也是利用改进的布谷鸟搜索算法确定。
步骤S103、利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
这里,通过上述步骤S101至步骤S103,能够基于自适应动态步长的布谷鸟搜索算法构建一种具有高预测精度的预测模型。
在一些实施例中,所述步骤S102、确定待训练的目标预测模型,可以通过以下步骤实现:
步骤S1021、对原始预测模型的网络结构参数进行初始化;
步骤S1022、利用所述改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数;
步骤S1023、基于所述调整后的网络结构参数,确定待训练的目标预测模型。
在一些实施例中,所述方法还包括:
步骤S11a、确定当前的迭代次数和预设的迭代次数;
这里,预设的迭代次数为停止迭代时的次数,即最大迭代次数。在改进的布谷鸟搜索算法中,如果当前迭代次数达到该预设的迭代次数则停止迭代,此时适应度最优的解即全局最优解。
步骤S12a、根据所述当前的迭代次数和所述预设的迭代次数,确定步长因子。
本申请实施例中,步长因子由当前的迭代次数和预设的迭代次数确定,例如,步长因子可以为其中,h是当前迭代次数,hmax是最大迭代次数。
基于前述的实施例,本申请实施例再提供一种预测模型的训练方法,所述方法应用于电子设备,所述方法包括:
步骤S111、获取历史时序数据集;
步骤S112、确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;
步骤S113、按照预设的数据类型对所述历史时序数据集进行分类,得到N类历史时序数据子集;其中,所述N为大于等于1的自然数;
举例来说,如果为资源预测,例如容器资源的预测,服务器资源的预测等,则可以将资源分为内存、CPU、网络带宽等几类,进而利用每一类对应的历史时序数据子集分别训练该目标预测模型,得到每一类对应的已训练的目标预测模型。在资源预测时该预设的数据类型就可以为内存类型、CPU类型、网络带宽类型等。
步骤S114、利用所述N类历史时序数据子集中的每一类历史时序数据子集分别对所述待训练的目标预测模型进行训练,得到N个已训练的目标预测模型。
这里,通过上述步骤S111至步骤S113,能够基于自适应动态步长的布谷鸟搜索算法构建多种数据类型的高精度预测模型。
在一些实施例中,所述方法还包括:
步骤S11b、确定所述待训练的目标预测模型的网络结构参数;
步骤S12b、根据所述网络结构参数对所述历史时序数据集进行处理,以将所述历史时序数据集转化为对应的监督学习数据集。
基于前述的实施例,本申请实施例再提供一种预测模型的训练方法,所述方法应用于电子设备,图2为本申请实施例预测模型的训练方法的实现流程示意图二,如图2所示,所述方法包括:
步骤S201、获取历史时序数据集;
步骤S202、对原始预测模型的网络结构参数进行初始化;
这里,原始预测模型为基础的时间循环网络模型,即未进行参数寻优的时间循环网络模型。在利用改进的布谷鸟搜索算法对原始预测模型的网络结构参数进行参数寻优前,需要对该原始预测模型的网络结构参数进行初始化,例如随机设定初始值,并给定参数范围。在一些实施例中,该原始预测模型可以为长短期记忆神经网络模型,进而长短期记忆神经网络模型的网络结构参数可以包括timesteps(时间步长)、units(隐藏层中的前馈神经网络单元的数量)和predictsteps(预测步长)。即,LSTM神经网络中timesteps、units和predictsteps这三个参数需要用户给出参数范围,ADSCS算法按照给定的范围进行参数寻优,寻找最优参数组合(timesteps,units,predictsteps)。
步骤S203、利用改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数;其中,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;
这里,利用改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整即参数寻优过程,寻找所述网络结构参数的最优参数值。进而利用该网络结构参数的最优参数值构建网络结构,得到待训练的目标预测模型。
步骤S204、基于所述调整后的网络结构参数,确定待训练的目标预测模型;
步骤S205、利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
这里,通过上述步骤S201至步骤S205,能够基于自适应动态步长的布谷鸟搜索算法调整网络结构参数,从而构建一种具有高预测精度的预测模型。
在一些实施例中,在所述改进的布谷鸟搜索算法的鸟巢位置表示网络结构参数的参数值的情况下,所述步骤S203、利用改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数,可以通过以下步骤实现:
步骤S2031、利用所述改进的布谷鸟搜索算法进行迭代,在每轮迭代时根据上一轮更新的网络结构参数设置原始预测模型的网络结构,并将所述原始预测模型的训练误差作为鸟巢位置的适应度;
这里,网络结构参数的参数值即改进的布谷鸟搜索算法的鸟巢位子,即改进的布谷鸟搜索算法需要寻优的参数。在一些实施例中,该网络结构参数包括timesteps、units和predictsteps,则鸟巢位置即(timesteps,units,predictsteps)的一组解。
步骤S2032、如果迭代次数达到预设的迭代次数,则停止迭代并确定出适应度最优的鸟巢位置;
步骤S2033、将所述适应度最优的鸟巢位置对应的参数值,作为调整后的网络结构参数的参数值。
这里,通过上述步骤S2031至步骤S2033,能够利用改进的布谷鸟搜索算法得到最优的网络结构参数,进而可以利用该最优的网络结构参数构建高精度的目标预测模型。
在一些实施例中,在所述原始预测模型为LSTM(Long Short-Term Memory,长短期记忆神经网络)的情况下,所述网络结构参数至少包括以下一种:时间步长、隐藏层中的前馈神经网络单元的数量、预测步长。
基于前述的实施例,本申请实施例提供一种预测方法,所述方法应用于电子设备,图3为本申请实施例预测方法的实现流程示意图一,如图3所示,所述方法包括:
步骤S301、获取当前的时序数据;
举例来说,可以利用HTTP请求实时获取集群中容器资源的使用数据,包括内存、CPU、网络带宽等资源的使用数据,并将获取到的信息存入时序数据库中。然后,将时序数据库中的时序数据集划分为训练集和测试集。
需要说明的是,本申请实施例中的预测方法可以用于各领域的预测,例如容器资源的预测、服务器资源的预测、交通流的预测等,本申请实施例对此并不做限制。
步骤S302、将所述当前的时序数据输入已训练的目标预测模型进行预测,得到预测的结果;其中,所述已训练的目标预测模型为基于上述的训练方法训练得到的。
这里,可以将当前的时序数据输入已训练的目标预测模型进行预测,得到未来一段时间的预测结果。
这里,通过上述步骤S301至步骤S302,能够利用基于自适应动态步长的布谷鸟搜索算法构建的预测模型进行高精度的预测。
基于前述的实施例,本申请实施例再提供一种预测方法,虽然Kubernetes作为著名的容器编排工具,但是其本身并没有“预知”的能力,只能在超过阈值的情况下,通过预警的方式来实现弹性伸缩,即增加或减少Pod数量。因此,本申请实施例中该预测方法主要是针对云计算中容器资源的预测,当然还可以针对其他领域的预测,本申请实施例对此并不做限制。
首先,对该预测方法涉及的一些现有技术进行说明:
第一、长短期记忆神经网络;
传统神经网络难以对时序数据进行分类和预测,而RNN(Recurrent NeuralNetwork,循环神经网络)作为一种深度神经网络,在对时序数据进行分类、预测等方面具有显著的优势,一般用于时序数据的建模。通过捕捉时序数据的前后关系,保存在记忆单元中,再将这些信息作为下一个记忆单元的部分输入,从而将同层的各个节点相互连接起来。
虽然RNN在预测时序数据方面表现很好,但是其在较长的时序数据的处理方面仍然有一定的缺陷,如梯度消失的问题,而LSTM在此基础上,通过记忆单元和门控机制有效地解决了该问题。因此,LSTM在语音识别、文本分类、风速预测等众多领域被广泛应用。
但是,在网络结构方面,LSTM相比于RNN要稍微复杂一点。在标准的RNN网络结构中存在一个简单的重复模块链,如RNN网络结构中的一个tanh层。而在LSTM网络结构中,虽然也有相似的链状结构,但其中的模块完全不同。其中,最为显著的变化是加入了门控循环单元,将遗忘门和输入门进行合并,形成了一个独立的更新门,这样就可以使神经网络在处理长期时序数据时具有更好的记忆能力。
第二、布谷鸟搜索算法;
布谷鸟搜索算法是一种元启发式优化算法,它是对布谷鸟繁殖行为的一种仿真模拟,其包含了如下的三条理想化规则:
1)、布谷鸟每次只生产1枚鸟蛋,并随机放置在一个巢穴中完成孵化。
2)、每一代中质量较优的鸟巢将在下一代中继续保留。
3)、寄生巢的数目总是不变的,寄生巢宿主发现巢穴被占领的几率为pa;其中,0≤pa≤1,倘若被发现,则该鸟巢将会被丢弃。
新生成的鸟巢位置将由下述的Levy飞行公式(3)决定:
其中,表示第i个鸟巢在第h代时的鸟巢位置,α的值与搜索域有关,通过对两个不同解进行差值计算来提升算法的搜索能力和收敛能力,因此,控制步长α可由下述公式(4)表示:
在公式(2)中,为了降低相似鸟蛋的发现概率,设定α0为常量,其值为0.01。同时,Levy分布的随机搜索路径与时间t的关系可以用下述公式(5)表示:
Levy~μ=t-β,(1<β≤3)………………(5);
该算法首先根据上述公式(1)生成下一代的鸟巢位置,并得出此时目标函数的适应度值(fitness)。倘若该值劣于上一代目标函数的适应度值,则保留原来鸟巢位置;若该值优于上一代目标函数的适应度值,则对原来鸟巢位置进行更新。然后,设定随机数K满足0~1的均匀分布,用随机数K与外来鸟蛋被寄生巢宿主发现的概率pa相比较,若K大于pa,则改变下一代的鸟巢位置反之不变。最后,判断此时的算法迭代次数,若大于或等于最大迭代次数,则不再迭代,保留鸟巢位置最佳的一组值,此时的值就是全局最优解;反之则继续迭代,寻找更优解。
其次,对本申请实施例中预测方法的实现过程进行详细地说明:
为了能够更好的预知未来一段时间的资源需求情况,提前对容器资源进行按需规划,本申请实施例将LSTM神经网络方法应用到容器资源预测中,提出了基于ADSCS_LSTM神经网络的容器资源预测模型。即,为了使LSTM模型得到更好的预测结果,本申请实施例提出了自适应动态步长的布谷鸟搜索算法(ADSCS,Adaptive Dynamic Step Cuckoo Search),并用其对LSTM容器资源预测模型进行智能调参,然后建立了基于ADSCS_LSTM神经网络的容器资源预测模型,最后通过实验验证了该模型预测精度高,能准确预测出未来一段时间的资源需求情况,有利于合理安排容器的资源分配,提高资源利用率。
1)、改进的布谷鸟搜索算法;
在原始的CS(Cuckoo Search,布谷鸟搜索算法)算法中,在对算法参数进行设置时,步长因子α0=0.01是不变的,这样就导致在进行参数优化时,算法的收敛速度过于平缓,收敛效果差。因此,对于步长而言,其值在早期应足够大,以保证算法的全局搜索能力和解的多样性,在后期应该足够小,以提高局部搜索能力。为此,本申请实施例提出了自适应动态步长的布谷鸟搜索算法(ADSCS),通过设置动态变化的步长因子α0,可以使其随迭代次数的变化而变化,在提高收敛速度的同时又提升了搜索精度。改进后的动态步长因子α0可以通过下述公式(6)表示:
其中,h是当前迭代次数,hmax是最大迭代次数。将原始步长因子用公式(6)进行替换,生成新的Levy飞行公式,即下述公式(7):
2)、利用ADSCS算法对LSTM模型进行参数寻优的过程;
图4A为本申请实施例步长因子随迭代次数变化的示意图,如图4A所示,横轴为迭代次数,纵轴为改进的布谷鸟搜索算法(ADSCS)中的步长因子,改进后的动态变化的步长因子在参数寻优开始时取值相对较大,搜索区域更大,收敛速度更快,不会陷入局部最优的困境。当迭代次数越来越多,步长因子也越来越小,相比于前期,后期的收敛速度逐渐趋于平缓,搜索精度逐渐提升。因此,改进后的自适应动态步长因子参数寻优的效果更快更好。
图4B为本申请实施例网络结构参数的优化方法的流程示意图,如图4B所示,所述优化方法包括:
步骤S401、获取样本数据;
这里,可以选择集群中资源使用量的样本数据,并进行异常值处理。
步骤S402、参数初始化,搜索上下界;
这里,需要对ADSCS算法中的参数进行初始化,并搜索上下界。即,给定LSTM神经网络中时间步长(timesteps)、隐藏层中的前馈神经网络单元的数量(units)、预测步长(predictsteps)等参数的范围,以及ADSCS算法中鸟巢个数m、解的维度d、丢弃概率pa和最大迭代次数t的数值。
本申请实施例中,首先需要初始化鸟巢位置,每个位置就是一组解,即LSTM的结构参数组合(timesteps,units,predictsteps)。
步骤S403、得到网络结构参数的参数值;
步骤S404、确定网络拓扑结构;
这里,可以利用上一步产生的一组解(timesteps,units,predictsteps)设置LSTM模型的网络结构,进行数据集划分,对不满足batch_size大小的数据进行丢弃,并开始网络训练。
步骤S405、LSTM网络模型初始化;
步骤S406、前向计算、误差计算,以及反向传播;
这里,进行LSTM模型的训练,包括前向计算、误差计算和反向传播等。
步骤S407、确定是否满足结束条件;
这里,如果满足结束条件则执行上述步骤S406;如果不满足结束条件则执行下述步骤S408。
本申请实施例中,提出的ADSCS算法是对LSTM的三个参数time、units和predictsteps进行寻优,因此当ADSCS得到一组参数经过LSTM算法后,若误差值RMSE满足条件,说明这个三个参数是符合要求的,因此可以继续执行LSTM算法,如果RMSE值不满足,说明需要ADSCS算法重新找到更优解,再用更优解进行LSTM训练。
步骤S408、返回训练得到的均方根误差RMSE;
这里,可以将时间序列数据进行模型训练后得到的RMSE(Root Mean SquaredError,均方根误差)设置为鸟巢位置的适应度值fitness。
步骤S409、将LSTM网络训练得到的误差作为适应度值;
步骤S410、确定之前是否存在适应度值;
这里,如果存在则执行下述步骤S411;如果不存在则执行下述步骤S417;
步骤S411、确定新的适应度值是否优于旧的适应度值;
这里,如果新的适应度值优于旧的适应度值则执行下述步骤S412;如果新的适应度值劣于旧的适应度值则执行下述步骤S413。
步骤S412、使用新解替换旧解;
这里,可以通过改进的Levy公式得到新的鸟巢位置,计算出其适应度值,并根据值的大小按照择优原则舍弃旧的鸟巢位置。
步骤S413、根据丢弃概率淘汰部分解,并生成新解进行替换;
这里,可以按照丢弃概率pa舍弃适应度值较劣的鸟巢位置,通过偏好随机游动产生新的鸟巢位置,从而得到相对较好的一组鸟巢位置。
步骤S414、计算各鸟巢适应度值,记录最优解;
步骤S415、确定迭代次数是否达到最大迭代次数;
这里,如果迭代次数达到最大迭代次数,则执行下述步骤S416;如果迭代次数未达到所述最大迭代次数,则执行下述步骤S417。
步骤S416、比较得出最优解;
这里,可以对当前的解进行适应度值比较,得到最优解。
本申请实施例中,如果满足终止条件则该解就是全局最优解,并建立ADSCS_LSTM的容器资源预测模型,反之继续优化鸟巢位置。
步骤S417、继续迭代,利用改进的Levy飞行公式更新鸟巢位置,得到新解。
本申请实施例中,鸟巢位置表示网络结构参数的参数值;因此适应度值最优的鸟巢位置即网络结构参数的参数值的最优解。
3)、基于ADSCS_LSTM容器资源预测模型进行资源预测的过程;
时序数据的预测已经在多个领域被广泛应用,但是由于使用场景不一,数据集特征不同,序列规则难以掌握等原因,给时序数据的预测带来了一定的困难。本申请实施例在上述通过ADSCS算法对LSTM模型中的结构参数进行了优化,提出了一种基于ADSCS_LSTM容器资源预测模型,通过对前一段时间的时序数据进行分析,预测出下一阶段所需要使用的资源情况,根据预测结果提前对容器资源进行合理分配,提高系统的资源利用率。
因此本申请实施例建立了基于ADSCS_LSTM神经网络容器资源预测模型,将获取到的容器资源使用信息进行分析、预测,得到下一个时间段的容器资源的使用情况。图4C为本申请实施例预测方法的实现流程示意图二,如图4C所示,所述方法包括:
步骤S421、将集群信息数据库中的数据划分为N类时间序列数据;
这里,可以从容器云平台中获取数据至集群信息数据库,然后将其分为N类时间序列数据。即,可以利用HTTP(Hyper Text Transfer Protocol,超文本传输协议)请求实时获取集群中容器资源的使用数据,包括内存、CPU(Central Processing Unit,中央处理器)、网络带宽等资源的使用数据,并将获取到的信息存入InfluxDB(时序数据库)中。
然后,将数据按照不同的资源类型进行导出,可以得到N类不同的时序数据,这里的N指容器的资源类型,例如内存、例如CPU等。
步骤S422、对数据进行预处理;
例如,避免原始数据太大或是太小没有统一的范围而导致ADSCS_LSTM在训练时难以收敛,可以以一个最小最大零一正规化方法对数据进行修正。
步骤S423、将时序问题转化为监督学习问题;
本申请实施例中,可以根据ADSCS算法得出timesteps、units和predictsteps三个参数的值,将时序问题转化为监督学习问题。
这里,时间序列数据集是按时间索引排序的一系列数字,而监督学习数据集由输入模式和输出模式组成,从输入模式里学习如何预测输出模式。因此,时序问题转化为监督学习问题主要包括三方面内容,一是如何创建一个函数能将时间序列数据集转化为监督学习数据集,二是如何转变单变量的时间序列数据集为机器学习所用,三是如何转变多变量的时间序列数据集为机器学习所用。
步骤S424、训练得到N个ADSCS_LSTM模型;
这里,可以对ADSCS_LSTM模型进行训练,得到N个模型,对其编号后进行存储。
步骤S425、利用当前资源时间序列数据进行资源预测;
这里,可以对现有的容器资源的时序数据进行分析,预测出将来某一时间段对应资源的使用情况。
步骤S426、还原数据,输出结果;
这里,可以还原数据,得到容器资源的预测结果。因为ADSCS_LSTM属于神经网络,所以还需要对数据进行归一化处理,同时为了可视化还需要将建模后的归一化数据进行还原。
步骤S427、接收针对预设时间段的资源预测请求;
步骤S428、输出所述预设时间段的容器资源序列数据。
例如,在L时刻提出获取L~L+M时间段的资源预测请求,输出该时间段的资源负载的时序数据。即,从预测结果中根据用户所请求的时间段输出对应时间段的预测结果。
4)、实验结果;
为了验证本申请实施例提出的ADSCS_LSTM容器资源预测模型的有效性,本申请实施例采用特定的资源数据集对该预测模型进行实验;其中,该特定的资源数据集包括CPU、内存、I/O(Input/Output,输入/输出)等资源的使用情况。
图4D为本申请实施例四种预测模型最佳适应度的收敛对比图,如图4D所示,横轴表示迭代次数,纵轴表示适应度值。该四种预测模型为相关技术中的PSO_LSTM(ParticleSwarm Optimization Long Short-Term Memory,基于粒子群优化算法的长短期记忆网络)、GA_LSTM(Genetic Algorithm Long Short-Term Memory,基于遗传算法的长短期记忆网络)、CS_LSTM(Cuckoo Search Long Short-Term Memory,基于布谷鸟搜索算法的长短期记忆网络),以及本申请实施例提出的ADSCS_LSTM。本次实验将ADSCS、CS、PSO和GA四种算法分别应用于LSTM神经网络模型的网络结构参数(timesteps,units,predictsteps)进行寻优,RMSE作为适应度值。从图4D的实验结果可以看出,GA_LSTM模型迭代了24次才能达到最佳收敛效果,PSO_LSTM模型迭代了21次达到了最佳收敛效果,CS_LSTM模型迭代了19次达到了最佳收敛效果,而ADSCS_LSTM模型只需迭代16次即可达到最佳收敛效果。
这是因为本申请实施例对原始CS算法的步长因子进行了改进,改进后的步长因子可以进行自适应动态变化,在参数寻优的前期,搜索步长较大,可以扩大搜索范围,缩短收敛时间。而在参数寻优的后期,搜索步长较小,提高了搜索的精度。如此,ADSCS算法的全局搜索能力和局部搜索能力都有所提升,相比于其他三种算法搜索速度更快,寻优效果更好。因此,可以通过ADSCS算法对LSTM神经网络的结构参数进行优化。
为了验证本申请实施例提出的ADSCS_LSTM模型对容器资源CPU、内存时间序列数据预测结果的有效性和准确性,本申请实施例将采用经典的SVM(Support VectorMachine,支持向量机)预测模型与ADSCS_LSTM模型进行对比实验。
图4E为相关技术中SVM模型对CPU负载的预测结果示意图,如图4E所示,横轴表示时间,纵轴表示CPU负载。由于CPU时间序列数据波动变化大且频繁,特别是波峰位置,SVM预测值偏小,在第15分至第120分时表现尤为明显,因此,SVM模型对于CPU频繁的波动情况下重叠度相对较低,拟合效果较差。图4F为本申请实施例ADSCS_LSTM模型对于CPU负载的预测结果示意图,如图4F所示,ADSCS_LSTM模型对于CPU负载的预测效果明显要好很多,预测出的需求量基本吻合于真实情况,拟合效果很好。同样地,经过实验发现ADSCS_LSTM模型对内存负载的预测效果也明显优于SVM模型。
可以看出,经过ADSCS算法对LSTM神经网络的重要参数timesteps、units和predictsteps的组合值进行寻优,再建立ADSCS_LSTM神经网络容器资源预测模型,能够更高效、更准确地预测出未来一段时间集群中容器资源的需求情况。即,本申请实施通过ADSCS算法对LSTM模型中的结构参数进行了优化,提出了一种基于ADSCS_LSTM容器资源预测模型,通过对前一段时间的时序数据进行分析,预测出下一阶段所需要使用的资源情况,根据预测结果提前对容器资源进行合理分配,并通过实验证明,ADSCS_LSTM模型的预测效果更好、更精确,更适用于CPU、内存等资源时间序列的预测,更能提高系统的资源利用率。
基于前述的实施例,本申请实施例提供一种预测模型的训练装置,该装置包括所包括的各单元、以及各单元所包括的各子单元和各模块、以及各模块所包括的各子模块和各部件,可以通过电子设备中的处理器来实现;当然也可通过具体的逻辑电路实现;在实施的过程中,处理器可以为CPU(Central Processing Unit,中央处理器)、MPU(Microprocessor Unit,微处理器)、DSP(Digital Signal Processing,数字信号处理器)或FPGA(Field Programmable Gate Array,现场可编程门阵列)等。
图5为本申请实施例预测模型的训练装置的组成结构示意图,如图5所示,所述训练装置500包括:
第一获取单元501,用于获取历史时序数据集;
模型确定单元502,用于确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;
模型训练单元503,用于利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
在一些实施例中,所述模型确定单元502,包括:
参数初始化模块,用于对原始预测模型的网络结构参数进行初始化;
参数调整模块,用于利用所述改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数;
模型确定模块,用于基于所述调整后的网络结构参数,确定待训练的目标预测模型。
在一些实施例中,在所述改进的布谷鸟搜索算法的鸟巢位置表示网络结构参数的参数值的情况下,所述参数调整模块,包括:
迭代部件,用于利用所述改进的布谷鸟搜索算法进行迭代,在每轮迭代时根据上一轮更新的网络结构参数设置原始预测模型的网络结构,并将所述原始预测模型的训练误差作为鸟巢位置的适应度;
最优鸟巢确定部件,用于如果迭代次数达到预设的迭代次数,则停止迭代并确定出适应度最优的鸟巢位置;
最优参数确定部件,用于将所述适应度最优的鸟巢位置对应的参数值,作为调整后的网络结构参数的参数值。
在一些实施例中,在所述原始预测模型为长短期记忆神经网络模型的情况下,所述网络结构参数至少包括以下一种:
时间步长、隐藏层中的前馈神经网络单元的数量、预测步长。
在一些实施例中,所述装置还包括:
迭代次数确定单元,用于确定当前的迭代次数和预设的迭代次数;
步长因子确定单元,用于根据所述当前的迭代次数和所述预设的迭代次数,确定步长因子。
在一些实施例中,所述模型训练单元503,包括:
数据集划分模块,用于按照预设的数据类型对所述历史时序数据集进行分类,得到N类历史时序数据子集;其中,所述N为大于等于1的自然数;
模型训练模块,用于利用所述N类历史时序数据子集中的每一类历史时序数据子集分别对所述待训练的目标预测模型进行训练,得到N个已训练的目标预测模型。
在一些实施例中,所述装置还包括:
参数确定单元,用于确定所述待训练的目标预测模型的网络结构参数;
转换单元,用于根据所述网络结构参数对所述历史时序数据集进行处理,以将所述历史时序数据集转化为对应的监督学习数据集。
基于前述的实施例,本申请实施例提供一种预测装置,该装置包括所包括的各单元、以及各单元所包括的各子单元和各模块、以及各模块所包括的各子模块和各部件,可以通过电子设备中的处理器来实现;当然也可通过具体的逻辑电路实现;在实施的过程中,处理器可以为CPU、MPU、DSP或FPGA等。
图6为本申请实施例预测装置的组成结构示意图,如图6所示,所述预测装置600包括:
第二获取单元601,用于获取当前的时序数据;
预测单元602,用于将所述当前的时序数据输入已训练的目标预测模型进行预测,得到预测的结果;
其中,所述已训练的目标预测模型为基于上述的训练方法训练得到的。
以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请装置实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
需要说明的是,本申请实施例中,如果以软件功能模块的形式实现上述的训练方法或预测方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、ROM(Read Only Memory,只读存储器)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本申请实施例不限制于任何特定的硬件和软件结合。
对应地,本申请实施例提供一种电子设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例中提供的训练方法中的步骤或预测方法中的步骤。
对应地,本申请实施例提供一种可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述训练方法中的步骤或上述预测方法中的步骤。
这里需要指出的是:以上存储介质和平台实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请存储介质和平台实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
需要说明的是,图7为本申请实施例电子设备的一种硬件实体示意图,如图7所示,该电子设备700的硬件实体包括:处理器701、通信接口702和存储器703,其中
处理器701通常控制电子设备700的总体操作。
通信接口702可以使电子设备700通过网络与其他服务器或电子设备或平台通信。
存储器703配置为存储由处理器701可执行的指令和应用,还可以缓存待处理器701以及电子设备700中各模块待处理或已经处理的数据(例如,图像数据、音频数据、语音通信数据和视频通信数据),可以通过FLASH(闪存)或RAM(Random Access Memory,随机访问存储器)实现;
其中,电子设备700中的各个硬件实体通过总线704耦合在一起。可理解,总线704用于实现这些硬件实体之间的连接通信。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (12)
1.一种预测模型的训练方法,其特征在于,所述方法包括:
获取历史时序数据集;
确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;
利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
2.根据权利要求1所述的方法,其特征在于,所述确定待训练的目标预测模型,包括:
对原始预测模型的网络结构参数进行初始化;
利用所述改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数;
基于所述调整后的网络结构参数,确定待训练的目标预测模型。
3.根据权利要求2所述的方法,其特征在于,在所述改进的布谷鸟搜索算法的鸟巢位置表示网络结构参数的参数值的情况下,所述利用所述改进的布谷鸟搜索算法对初始化后的所述网络结构参数进行调整,得到调整后的网络结构参数,包括:
利用所述改进的布谷鸟搜索算法进行迭代,在每轮迭代时根据上一轮更新的网络结构参数设置原始预测模型的网络结构,并将所述原始预测模型的训练误差作为鸟巢位置的适应度;
如果迭代次数达到预设的迭代次数,则停止迭代并确定出适应度最优的鸟巢位置;
将所述适应度最优的鸟巢位置对应的参数值,作为调整后的网络结构参数的参数值。
4.根据权利要求3所述的方法,其特征在于,在所述原始预测模型为长短期记忆神经网络模型的情况下,所述网络结构参数至少包括以下一种:
时间步长、隐藏层中的前馈神经网络单元的数量、预测步长。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述方法还包括:
确定当前的迭代次数和预设的迭代次数;
根据所述当前的迭代次数和所述预设的迭代次数,确定步长因子。
6.根据权利要求1至4任一项所述的方法,其特征在于,所述利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型,包括:
按照预设的数据类型对所述历史时序数据集进行分类,得到N类历史时序数据子集;其中,所述N为大于等于1的自然数;
利用所述N类历史时序数据子集中的每一类历史时序数据子集分别对所述待训练的目标预测模型进行训练,得到N个已训练的目标预测模型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
确定所述待训练的目标预测模型的网络结构参数;
根据所述网络结构参数对所述历史时序数据集进行处理,以将所述历史时序数据集转化为对应的监督学习数据集。
8.一种预测方法,其特征在于,所述方法包括:
获取当前的时序数据;
将所述当前的时序数据输入已训练的目标预测模型进行预测,得到预测的结果;
其中,所述已训练的目标预测模型为基于权利要求1至7任一项所述的方法训练得到的。
9.一种预测模型的训练装置,其特征在于,所述装置包括:
第一获取单元,用于获取历史时序数据集;
模型确定单元,用于确定待训练的目标预测模型;其中,所述目标预测模型的网络结构参数由改进的布谷鸟搜索算法确定,所述改进的布谷鸟搜索算法中步长因子的取值与迭代次数相关;
模型训练单元,用于利用所述历史时序数据集对所述待训练的目标预测模型进行训练,得到已训练的目标预测模型。
10.一种预测装置,其特征在于,所述装置包括:
第二获取单元,用于获取当前的时序数据;
预测单元,用于将所述当前的时序数据输入已训练的目标预测模型进行预测,得到预测的结果;
其中,所述已训练的目标预测模型为基于权利要求1至7任一项所述的方法训练得到的。
11.一种电子设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1至7任一项所述方法中的步骤,或,实现权利要求8所述方法中的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现权利要求1至7任一项所述方法中的步骤,或,实现权利要求8所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211369698.5A CN116822571A (zh) | 2022-11-03 | 2022-11-03 | 预测方法、模型的训练方法及装置、设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211369698.5A CN116822571A (zh) | 2022-11-03 | 2022-11-03 | 预测方法、模型的训练方法及装置、设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116822571A true CN116822571A (zh) | 2023-09-29 |
Family
ID=88124595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211369698.5A Pending CN116822571A (zh) | 2022-11-03 | 2022-11-03 | 预测方法、模型的训练方法及装置、设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116822571A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117112145A (zh) * | 2023-10-16 | 2023-11-24 | 之江实验室 | 训练模型分配方法、装置、计算机设备和存储介质 |
-
2022
- 2022-11-03 CN CN202211369698.5A patent/CN116822571A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117112145A (zh) * | 2023-10-16 | 2023-11-24 | 之江实验室 | 训练模型分配方法、装置、计算机设备和存储介质 |
CN117112145B (zh) * | 2023-10-16 | 2024-02-13 | 之江实验室 | 训练模型分配方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200364389A1 (en) | Generating integrated circuit floorplans using neural networks | |
WO2023035564A1 (zh) | 基于分位数梯度提升决策树的负荷区间预测方法及系统 | |
JP2022524662A (ja) | 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合 | |
US11159446B2 (en) | Cloud resource management using externally-sourced data | |
CN112052948B (zh) | 一种网络模型压缩方法、装置、存储介质和电子设备 | |
Chen et al. | Resource allocation with workload-time windows for cloud-based software services: a deep reinforcement learning approach | |
US20170316345A1 (en) | Machine learning aggregation | |
Zou et al. | A memory-based simulated annealing algorithm and a new auxiliary function for the fixed-outline floorplanning with soft blocks | |
CN116822571A (zh) | 预测方法、模型的训练方法及装置、设备、存储介质 | |
Dieye et al. | On achieving high data availability in heterogeneous cloud storage systems | |
Yao et al. | Clustering of typical wind power scenarios based on K-means clustering algorithm and improved artificial bee colony algorithm | |
Geng et al. | Interference-aware parallelization for deep learning workload in GPU cluster | |
WO2021213156A1 (zh) | 根据关系图卷积网络的任务标签生成方法及相关装置 | |
CN116057518A (zh) | 使用机器学习模型的自动查询谓词选择性预测 | |
CN116112563A (zh) | 一种基于流行度预测的双策略自适应缓存替换方法 | |
CN114692552A (zh) | 一种三维芯片的布局方法、装置及终端设备 | |
Zhou et al. | On the opportunities of green computing: A survey | |
Lee et al. | Carousel Memory: Rethinking the Design of Episodic Memory for Continual Learning | |
Taherizadeh et al. | Incremental learning from multi-level monitoring data and its application to component based software engineering | |
Tardivo et al. | Hierarchical parallel model for improving performance on differential evolution | |
Zheng et al. | Towards an adaptive human-centric computing resource management framework based on resource prediction and multi-objective genetic algorithm | |
Al Muktadir et al. | Prediction and dynamic adjustment of resources for latency-sensitive virtual network functions | |
Alfailakawi et al. | FPGA‐based implementation of cuckoo search | |
Zhou et al. | Distilling arbitration logic from traces using machine learning: A case study on NoC | |
Kong et al. | Serving MoE Models on Resource-constrained Edge Devices via Dynamic Expert Swapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |