CN117251295B - 一种资源预测模型的训练方法、装置、设备及介质 - Google Patents
一种资源预测模型的训练方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117251295B CN117251295B CN202311515251.9A CN202311515251A CN117251295B CN 117251295 B CN117251295 B CN 117251295B CN 202311515251 A CN202311515251 A CN 202311515251A CN 117251295 B CN117251295 B CN 117251295B
- Authority
- CN
- China
- Prior art keywords
- data
- sequence data
- preset
- determining
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 title claims abstract description 54
- 239000013598 vector Substances 0.000 claims abstract description 73
- 238000012512 characterization method Methods 0.000 claims abstract description 56
- 238000009826 distribution Methods 0.000 claims description 81
- 230000007774 longterm Effects 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 238000005096 rolling process Methods 0.000 claims description 4
- 230000001932 seasonal effect Effects 0.000 claims description 3
- 230000009469 supplementation Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 239000013589 supplement Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001502 supplementing effect Effects 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 101001095088 Homo sapiens Melanoma antigen preferentially expressed in tumors Proteins 0.000 description 1
- 102100037020 Melanoma antigen preferentially expressed in tumors Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种资源预测模型的训练方法、装置、设备及介质。该方法包括:获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;根据预设概率模型及历史分配序列数据,确定任务潜在表征向量;根据各任务潜在表征向量及各历史分配序列数据,生成训练样本;根据训练样本对预设原始资源预测模型进行训练,确定最终资源预测模型。通过预设概率模型确定历史分配序列数据的任务潜在表征向量,并结合历史分配序列数据生成训练样本,对预设原始资源预测模型进行训练,得到最终资源预测模型。通过任务潜在表征向量弥补了预设原始资源预测模型在抓取不同序列的共性而忽略各序列的特殊性的问题,提升了最终资源预测模型的准确率。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种资源预测模型的训练方法、装置、设备及介质。
背景技术
在云计算领域,典型的资源调度策略为当某个节点的工作负载增加到某个预设阈值时,则触发虚拟机迁移,当节点的工作负载降低到某个阈值时,则可以将资源重新分配给其他的应用程序,以实现资源的最优化利用,为能更有效的进行资源管理,一个有效的手段为开展节点负载预测,从而提前预判各个节点的资源消耗,从而能更有效的应对负载的变化,因为云计算常涉及大量的计算节点,其预测问题也是一个典型的多序列预测问题。
对于多序列预测问题,传统时间序列方法为各个单序列分别训练预测模型,因此对于K个序列就需要构建K个模型。近年来,随着深度学习技术在各领域的成功,其逐渐被引入到时间序列预测建模中来以提升预测精度,典型时序深度模型的例子包括DeepAR、LSTNet、NBeats、Informer等,这些模型也均为单序列预测问题设计。
但是,首先这种单序列建模方法需要对每个模型进行调参,因模型数量众多,因此调参工作量大、模型训练时间长,此外传统时间序列方法在预测精度的提升上也遭遇瓶颈。其次,由于深度模型的参数量通常较大,其训练对数据量的要求较高,对于具有大量数据采样点的数据,其直接在低频采样数据如月度、季度、年度数据的应用具有很大难度。
发明内容
本发明提供了一种一种资源预测模型的训练方法、装置、设备及介质,以实现对历史数据的补充,提高预测模型的准确率。
根据本发明的第一方面,提供了一种资源预测模型的训练方法,包括:
获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;
根据所述预设概率模型及所述历史分配序列数据,确定任务潜在表征向量;
根据各所述任务潜在表征向量及各所述历史分配序列数据,生成训练样本;
根据所述训练样本对所述预设原始资源预测模型进行训练,确定最终资源预测模型。
根据本发明的第二方面,提供了一种资源预测模型的训练装置,包括:
模型获取模块,用于获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;
向量确定模块,用于根据所述预设概率模型及所述历史分配序列数据,确定任务潜在表征向量;
样本生成模块,用于根据各所述任务潜在表征向量及各所述历史分配序列数据,生成训练样本;
模型确定模块,用于根据所述训练样本对所述预设原始资源预测模型进行训练,确定最终资源预测模型。
根据本发明的第三方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的资源预测模型的训练方法。
根据本发明的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的资源预测模型的训练方法。
本发明实施例的技术方案,通过获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;根据预设概率模型及历史分配序列数据,确定任务潜在表征向量;根据各任务潜在表征向量及各历史分配序列数据,生成训练样本;根据训练样本对预设原始资源预测模型进行训练,确定最终资源预测模型。通过预设概率模型确定历史分配序列数据的任务潜在表征向量,并结合历史分配序列数据生成训练样本,对预设原始资源预测模型进行训练,得到最终资源预测模型。通过任务潜在表征向量弥补了预设原始资源预测模型在抓取不同序列的共性而忽略各序列的特殊性的问题,提升了最终资源预测模型的准确率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种资源预测模型的训练方法的流程图;
图2是根据本发明实施例二提供的一种资源预测模型的训练方法的流程图;
图3是根据本发明实施例二提供的一种资源预测模型的训练方法中预设原始资源预测模型的结构示意图;
图4是根据本发明实施例三提供的一种资源预测模型的训练装置的结构示意图;
图5是实现本发明实施例的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供了一种资源预测模型的训练方法的流程图,本实施例可适用于对时序模型进行训练的情况,该方法可以由资源预测模型的训练装置来执行,该资源预测模型的训练装置可以采用硬件和/或软件的形式实现,该资源预测模型的训练装置可配置于电子设备中。如图1所示,该方法包括:
S110、获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型。
在本实施例中,计算节点可以理解为用于计算的节点。预测概率模型可以理解为用于确定概率分布的模型,如高斯过程隐变量模型。预设原始资源预测模型可以理解为用于对资源预测的网络模型,如可以选择MLP、卷积网络,或者使用经典的网络如NBeats等,其中资源预测模型中的损失函数可以选择MSE、MAE或MAPE等。
在本实施例中,历史分配序列数据可以理解为历史中每个计算节点的资源实际分配情况所形成的序列形式下的数据。
具体的,处理器可以在相应的存储介质中获取预先统计的各计算节点的历史分配序列数据,预先设定好的预设概率模型及预设原始资源预测模型。
S120、根据预设概率模型及历史分配序列数据,确定任务潜在表征向量。
在本实施例中,任务潜在表征向量可以理解为用于表征每个序列的特殊性的向量。
具体的,由于历史分配序列数据中可能有数据的质量较差或缺失等情况,首先处理器需要先对历史分配序列数据进行预处理,得到处理后的历史分配序列数据。处理器可以在固定长度的历史分配序列数据的基础上,增加代表序列特殊性的任务潜在表征向量,来表示整个预测任务的特点。处理器可以通过预设概率模型及处理后的历史分配序列数据来确定任务潜在表征向量。
S130、根据各任务潜在表征向量及各历史分配序列数据,生成训练样本。
在本实施例中,训练样本可以理解为用于训练模型而划分出的样本数据。
具体的,处理器可以按照对应的窗口形式将各任务潜在表征向量及各历史分配序列数据相结合,生成输入模型的输入数据,并确定出对应的输出数据,并根据输入数据及对应的输出数据作为训练数据,再对总体生成的训练数据进行切分,分成训练模型所需的训练集、验证集和测试集,以生成训练样本。
S140、根据训练样本对预设原始资源预测模型进行训练,确定最终资源预测模型。
在本实施例中,最终资源预测模型可以理解为最终得到的训练好的最优模型。
具体的,处理器可以按照预先选择好的优化算法及学习率等参数结合训练样本对预设原始资源预测模型进行训练,通过交叉验证开启参数优化,进而选择参数最佳的最优模型作为最终资源预测模型。
本发明实施例的技术方案,通过获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;根据预设概率模型及历史分配序列数据,确定任务潜在表征向量;根据各任务潜在表征向量及各历史分配序列数据,生成训练样本;根据训练样本对预设原始资源预测模型进行训练,确定最终资源预测模型。通过预设概率模型确定历史分配序列数据的任务潜在表征向量,并结合历史分配序列数据生成训练样本,对预设原始资源预测模型进行训练,得到最终资源预测模型。通过任务潜在表征向量弥补了预设原始资源预测模型在抓取不同序列的共性而忽略各序列的特殊性的问题,提升了最终资源预测模型的准确率。
作为本实施例一的第一可选实施例,在上述实施例的基础上,还包括:
获取各计算节点的资源消耗信息,将资源消耗信息输入最终资源预测模型,确定各计算节点的未来资源消耗信息。
在本实施例中,资源消耗信息可以理解为各计算节点在使用过程中已经消耗的资源所形成的信息。未来资源消耗信息可以理解为各计算节点预测出的未来要消耗的资源所形成的信息。
具体的,在确定出最终资源预测模型后,处理器可以获取各计算节点在使用过程中的资源消耗信息,进而将资源消耗信息输入至最终资源预测模型,对每个计算节点所消耗的资源进行预测,得到每个计算节点的未来资源消耗信息。
实施例二
图2为本发明实施例二提供的一种资源预测模型的训练方法的流程图,本实施例是在上述实施例的基础上的进一步细化。如图2所示,该方法包括:
S210、获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型。
S220、对历史分配序列数据进行预处理,确定中间分配序列数据。
在本实施例中,中间分配序列数据可以理解为预处理后的质量较好的分配序列数据。
具体的,针对于历史分配序列数据中出现的数据缺失及跳变等数据质量较差的情况,处理器可以对历史分配序列数据进行预处理,得到中间分配序列数据。
进一步地,在上述实施例的基础上,可以将对历史分配序列数据进行预处理,确定中间分配序列数据的步骤优化为:
对历史分配序列数据进行缺失值补充,得到第一分配序列数据;对第一分配序列数据进行异常点处理,得到第二分配序列数据;对第二分配序列数据进行季节校正,得到中间分配序列数据。
在本实施例中,第一分配序列数据可以理解为补充缺失值后的序列数据。第二序列数据可以理解为对异常点处理后的序列数据。
具体的,处理器可以按照设定好的算法对历史分配序列数据进行缺失值补充,将历史分配序列数据中缺失的部分进行补充,得到补充后的第一分配序列数据;再对第一分配序列数据进行异常点检测,检测出第一分配序列数据中的异常点并对异常点进行平滑处理,得到第二分配序列数据;再对第二分配序列数据通过相应的季节校正算法进行季节校正,得到中间分配序列数据。
S230、确定中间分配序列数据对应的长时统计特征。
在本实施例中,长时统计特征可以理解为表征着中间分配序列数据的趋势强度、谱熵及自相关系数等具有一定时间长度的特征。
具体的,如果将固定长度窗口的中间分配序列数据作为输入时,由于窗口长度有限,模型难以捕捉季节性及趋势性等长时特征,处理器可以通过相应的算法计算出中间分配序列数据对应的长时统计特征。
S240、根据预设概率模型及长时统计特征,确定历史分配序列数据所对应的任务潜在表征向量。
具体的,处理器可以根据预设概率模型及长时统计特征,确定历史分配序列数据所对应的任务潜在表征向量。
进一步地,在上述实施例的基础上,可以将根据预设概率模型及长时统计特征,确定历史分配序列数据所对应的任务潜在表征向量的步骤优化为:
将长时统计特征为均值的高斯分布作为先验概率分布;根据预设概率模型,确定历史分配序列数据的似然概率分布信息;根据似然概率分布信息及先验概率分布,确定任务潜在表征向量的后验分布信息;确定后验分布信息所对应的近似分布信息,并基于近似分布信息确定历史分配序列数据所对应的任务潜在表征向量的估计值。
在本实施例中,先验概率分布可以理解为试验之前的高斯先验分布信息。后验分布信息可以理解为在试验后得到的概率分布信息。似然概率分布信息可以理解为用于反映模型所得到的数据的拟合程度。
具体的,因为对于任务表征(task representation)来说,其不直接取决于任务的输入输出,而是取决于训练数据的概率分布,首先设置任务潜在表征向量的维度与长时统计特征的维度相同,并为任务潜在表征向量制定以长时统计特征为均值的高斯分布,将长时统计特征为均值的高斯分布作为先验概率分布,基于预设概率模型及长时统计特征结合贝叶斯变分法或蒙特卡洛方法近似,获取每个任务潜在表征向量对应的后验分布信息,再利用近似分布的一阶矩得到任务潜在表征向量。
示例性的,用k表示预测问题中的总序列数,以表示长度为L的第k条中间分配序列数据,处理器可以以hk来表示第k条中间分配序列数据的任务潜在表征向量,预设概率模型采用高斯过程隐变量模型,高斯过程隐变量模型的数据生成过程可表示为:
其中GP为Gaussian Process的缩写,根据上述生成过程可得出p(y1,…,yk|h1,…,hk)的似然概率分布,通用的做法是为每个hk指定一个标准分布N(0,I)作为先验分布,然而标准分布很多时候无法为具体的任务引入有效的先验知识,为了引导模型学出更有效的任务潜在表征,本发明提出:计算序列的时间序列长时统计特征featk,如趋势强度、谱熵及自相关系数等。引入长时统计特征的原因是基于深度学习的预测模型以一个固定长度窗口的的历史数据为输入,由于窗口长度有限,模型难以捕捉季节性、趋势性等长时特征,因此引入相关长时统计特征作为补充信息。设置hk向量的维度等于长时统计特征的维度,并为hk指定以长时统计特征为均值的高斯分布N(featk,I)作为先验分布,根据贝叶斯定理获取p(y1,…,yk|h1,…,hk)的后验分布,再利用贝叶斯变分法或者蒙特卡洛方法近似获取每个潜在表示hk的后验分布q(hk|y1,…,yk),最后利用近似分布q(hk|y1,…,yk)的一阶矩E(hk)作为序列k的任务潜在表征向量。此方法基于手工设计的长时统计特征作为初始信息,利用数据生成模型带来的补充信息来在长时统计特征基础上依据数据特点进行调整,进而获取最终的任务潜在表征。
S250、获取预设数据窗口长度及预设预测期数。
在本实施例中,预设数据窗口长度可以理解为预先设定的输入至原始分配预测模型中的数据长度。预设预测期数可以理解为设定的预测次数。
具体的,处理器可以从相应的存储介质中获取相关人员预先设定的预设数据窗口长度及预设预测期数。
S260、根据各历史分配序列数据、预设数据窗口长度、预设预测期数及各任务潜在表征向量,确定总数据样本。
在本实施例中,总数据样本可以理解为划分出输入及输出的数据样本。
具体的,处理器可以按照预设数据窗口长度及预设预测期数对各历史分配序列数据及各任务潜在表征向量进行输入样本及输出样本的确定,通过输入样本及输出样本来确定总数据样本。
进一步地,在上述实施例的基础上,可以将根据各历史分配序列数据、预设数据窗口长度、预设预测期数及各任务潜在表征向量,确定总数据样本的步骤优化为:
根据预设数据窗口长度及预设预测期数,确定窗口总长度;将各历史分配序列数据滚动形成窗口数据,窗口数据的窗口长度为窗口总长度;从窗口数据中提取与预设数据窗口长度相同的数据作为数据序列,并提取与预设预期数相同的数据作为输出样本;根据各数据序列及对应的各任务潜在表征向量,确定输入样本;将各输入样本及对应的各输出样本作为总数据样本。
在本实施例中,输入样本可以理解为输入至原始资源预测模型的样本。输出样本可以理解为输入样本所对应的输出结果。
具体的,处理器可以预设数据窗口长度为P,预设预测期数为H,则将K个原始长度为L的每个历史分配序列数据通过滚动形成(L-P-H+1)个长度为P+H的窗口数据。每个窗口数据的前P个数所构成的序列加上任务潜在表征向量共同构成模型的两个输入样本,后H个数为输出样本,输入样本及输出样本为一个数据样本,进而确定出总数据样本。
示例性的,为了更加直观的看出输入样本及输出样本,图3为本发明实施例二提供的一种资源预测模型的训练方法中预设原始资源预测模型的结构示意图,如图3所示,可以看出将窗口数据的前P个数据y及任务潜在表征向量h共同作为输入层的输入,而输出层则对应为H个数的输出。
S270、对总数据样本进行拆分,得到训练集、验证集及测试集。
在本实施例中,训练集可以理解为用于输入模型进行训练的样本集合。验证集可以理解为对模型输出结果进行验证的样本集合。测试集可以理解为用于对模型准确率进行测试的样本集合。
具体的,处理器可以按照设定的拆分比率对总数据样本进行拆分,得到训练集、验证集及测试集。
S280、将训练集、验证集及测试集作为训练样本。
具体的,处理器可以将训练集、验证集及测试集作为训练样本,以在不同需求时按照不同的集合对预设原始资源预测模型进行训练。
S290、根据训练样本对预设原始资源预测模型进行训练,确定最终资源预测模型。
本发明实施例的技术方案,通过对历史分配序列数据进行预处理,得到中间分配序列数据,提高了序列数据质量,进而为后续模型的训练提供基础。通过预设概率模型确定中间分配序列数据的任务潜在表征向量,并结合历史分配序列数据生成总数据样本,对总数据样本进行拆分生成训练集、验证集及测试集,得到训练样本,并基于训练样本对预设原始资源预测模型进行训练,得到最终资源预测模型。可以解决深度学习模型单序列训练数据量不足的问题,联合训练模型数量少,训练时间短,预测任务潜在表征学习以长时统计特征为先验值,并利用训练数据的统计分布进行信息补充,在弥补深度学习网络由于输入窗口有限难以抓取季节性、趋势性等长时信息的局限性的同时,提升手工特征的自适应性,任务潜在表征向量学习获取各个历史分配序列数据的特殊性,弥补了预设原始资源预测模型在抓取不同序列的共性而忽略各序列的特殊性的问题,提升了最终资源预测模型的准确率。
实施例三
图4为本发明实施例三提供的一种资源预测模型的训练装置的结构示意图。如图4所示,该装置包括:
模型获取模块41,用于获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;
向量确定模块42,用于根据所述预设概率模型及所述历史分配序列数据,确定任务潜在表征向量;
样本生成模块43,用于根据各所述任务潜在表征向量及各所述历史分配序列数据,生成训练样本;
模型确定模块44,用于根据所述训练样本对所述预设原始资源预测模型进行训练,确定最终资源预测模型。
本发明实施例的技术方案,通过获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;根据预设概率模型及历史分配序列数据,确定任务潜在表征向量;根据各任务潜在表征向量及各历史分配序列数据,生成训练样本;根据训练样本对预设原始资源预测模型进行训练,确定最终资源预测模型。通过预设概率模型确定历史分配序列数据的任务潜在表征向量,并结合历史分配序列数据生成训练样本,对预设原始资源预测模型进行训练,得到最终资源预测模型。通过任务潜在表征向量弥补了预设原始资源预测模型在抓取不同序列的共性而忽略各序列的特殊性的问题,提升了最终资源预测模型的准确率。
进一步地,向量确定模块42,包括:
第一确定单元,用于对所述历史分配序列数据进行预处理,确定中间分配序列数据;
第二确定单元,用于确定所述中间分配序列数据对应的长时统计特征;
第三确定单元,用于根据所述预设概率模型及所述长时统计特征,确定所述历史分配序列数据所对应的任务潜在表征向量。
其中,第一确定单元具体用于:
对所述历史分配序列数据进行缺失值补充,得到第一分配序列数据;
对所述第一分配序列数据进行异常点处理,得到第二分配序列数据;
对所述第二分配序列数据进行季节校正,得到中间分配序列数据。
其中,第三确定单元具体用于:
将所述长时统计特征为均值的高斯分布作为先验概率分布;
根据所述预设概率模型,确定所述历史分配序列数据的似然概率分布信息;
根据所述似然概率分布信息及所述先验概率分布,确定所述任务潜在表征向量的后验分布信息;
确定所述后验分布信息所对应的近似分布信息,并基于所述近似分布信息确定所述历史分配序列数据所对应的任务潜在表征向量的估计值。
进一步地,样本生成模块43包括:
信息获取单元,用于获取预设数据窗口长度及预设预测期数;
样本确定单元,用于根据各所述历史分配序列数据、所述预设数据窗口长度、所述预设预测期数及各所述任务潜在表征向量,确定总数据样本;
样本拆分单元,用于对所述总数据样本进行拆分,得到训练集、验证集及测试集;
样本确定单元,用于将所述训练集、所述验证集及所述测试集作为训练样本。
其中,样本确定单元具体用于:
根据所述预设数据窗口长度及所述预设预测期数,确定窗口总长度;
将各所述历史分配序列数据滚动形成窗口数据,所述窗口数据的窗口长度为所述窗口总长度;
从所述窗口数据中提取与预设数据窗口长度相同的数据作为数据序列,并提取与所述预设预期数相同的数据作为输出样本;
根据各所述数据序列及对应的各所述任务潜在表征向量,确定输入样本;
将各所述输入样本及对应的各所述输出样本作为所述总数据样本。
可选的,该装置,还包括:
节点确定模块,用于获取各所述计算节点的资源消耗信息,将所述资源消耗信息输入所述最终资源预测模型,确定各所述计算节点的未来资源消耗信息。
本发明实施例所提供的资源预测模型的训练装置可执行本发明任意实施例所提供的资源预测模型的训练方法,具备执行方法相应的功能模块和有益效果。
实施例四
图5示出了可以用来实施本发明的实施例的电子设备50的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,电子设备50包括至少一个处理器51,以及与至少一个处理器51通信连接的存储器,如只读存储器(ROM)52、随机访问存储器(RAM)53等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器51可以根据存储在只读存储器(ROM)52中的计算机程序或者从存储单元58加载到随机访问存储器(RAM)53中的计算机程序,来执行各种适当的动作和处理。在RAM 53中,还可存储电子设备50操作所需的各种程序和数据。处理器51、ROM 52以及RAM 53通过总线54彼此相连。输入/输出(I/O)接口55也连接至总线54。
电子设备50中的多个部件连接至I/O接口55,包括:输入单元56,例如键盘、鼠标等;输出单元57,例如各种类型的显示器、扬声器等;存储单元58,例如磁盘、光盘等;以及通信单元59,例如网卡、调制解调器、无线通信收发机等。通信单元59允许电子设备50通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器51可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器51的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器51执行上文所描述的各个方法和处理,例如资源预测模型的训练方法。
在一些实施例中,资源预测模型的训练方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元58。在一些实施例中,计算机程序的部分或者全部可以经由ROM 52和/或通信单元59而被载入和/或安装到电子设备50上。当计算机程序加载到RAM 53并由处理器51执行时,可以执行上文描述的资源预测模型的训练方法的一个或多个步骤。备选地,在其他实施例中,处理器51可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行资源预测模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (6)
1.一种资源预测模型的训练方法,其特征在于,包括:
获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;
根据所述预设概率模型及所述历史分配序列数据,确定任务潜在表征向量;
根据各所述任务潜在表征向量及各所述历史分配序列数据,生成训练样本;
根据所述训练样本对所述预设原始资源预测模型进行训练,确定最终资源预测模型;
其中,所述根据所述预设概率模型及所述历史分配序列数据,确定任务潜在表征向量,包括:
对所述历史分配序列数据进行预处理,确定中间分配序列数据;
确定所述中间分配序列数据对应的长时统计特征;
将所述长时统计特征为均值的高斯分布作为先验概率分布;
根据所述预设概率模型,确定所述历史分配序列数据的似然概率分布信息;
根据所述似然概率分布信息及所述先验概率分布,确定所述任务潜在表征向量的后验分布信息;
确定所述后验分布信息所对应的近似分布信息,并基于所述近似分布信息确定所述历史分配序列数据所对应的任务潜在表征向量的估计值;
其中,所述根据各所述任务潜在表征向量及各所述历史分配序列数据,生成训练样本,包括:
获取预设数据窗口长度及预设预测期数;
根据所述预设数据窗口长度及所述预设预测期数,确定窗口总长度;
将各所述历史分配序列数据滚动形成窗口数据,所述窗口数据的窗口长度为所述窗口总长度;
从所述窗口数据中提取与预设数据窗口长度相同的数据作为数据序列,并提取与所述预设预测期数相同的数据作为输出样本;
根据各所述数据序列及对应的各所述任务潜在表征向量,确定输入样本;
将各所述输入样本及对应的各所述输出样本作为总数据样本;
对所述总数据样本进行拆分,得到训练集、验证集及测试集;
将所述训练集、所述验证集及所述测试集作为训练样本。
2.根据权利要求1所述的方法,其特征在于,所述对所述历史分配序列数据进行预处理,确定中间分配序列数据,包括:
对所述历史分配序列数据进行缺失值补充,得到第一分配序列数据;
对所述第一分配序列数据进行异常点处理,得到第二分配序列数据;
对所述第二分配序列数据进行季节校正,得到中间分配序列数据。
3.根据权利要求1所述的方法,其特征在于,还包括:
获取各所述计算节点的资源消耗信息,将所述资源消耗信息输入所述最终资源预测模型,确定各所述计算节点的未来资源消耗信息。
4.一种资源预测模型的训练装置,其特征在于,包括:
模型获取模块,用于获取各计算节点的历史分配序列数据、预设概率模型及预设原始资源预测模型;
向量确定模块,用于根据所述预设概率模型及所述历史分配序列数据,确定任务潜在表征向量;
样本生成模块,用于根据各所述任务潜在表征向量及各所述历史分配序列数据,生成训练样本;
模型确定模块,用于根据所述训练样本对所述预设原始资源预测模型进行训练,确定最终资源预测模型;
进一步地,所述向量确定模块,包括:
第一确定单元,用于对所述历史分配序列数据进行预处理,确定中间分配序列数据;
第二确定单元,用于确定所述中间分配序列数据对应的长时统计特征;
第三确定单元,用于根据所述预设概率模型及所述长时统计特征,确定所述历史分配序列数据所对应的任务潜在表征向量;
其中,所述第三确定单元具体用于:
将所述长时统计特征为均值的高斯分布作为先验概率分布;
根据所述预设概率模型,确定所述历史分配序列数据的似然概率分布信息;
根据所述似然概率分布信息及所述先验概率分布,确定所述任务潜在表征向量的后验分布信息;
确定所述后验分布信息所对应的近似分布信息,并基于所述近似分布信息确定所述历史分配序列数据所对应的任务潜在表征向量的估计值;
进一步地,所述样本生成模块包括:
信息获取单元,用于获取预设数据窗口长度及预设预测期数;
样本确定单元,用于根据各所述历史分配序列数据、所述预设数据窗口长度、所述预设预测期数及各所述任务潜在表征向量,确定总数据样本;
样本拆分单元,用于对所述总数据样本进行拆分,得到训练集、验证集及测试集;
样本确定单元,用于将所述训练集、所述验证集及所述测试集作为训练样本;
其中,所述样本确定单元,具体用于:
根据所述预设数据窗口长度及所述预设预测期数,确定窗口总长度;
将各所述历史分配序列数据滚动形成窗口数据,所述窗口数据的窗口长度为所述窗口总长度;
从所述窗口数据中提取与预设数据窗口长度相同的数据作为数据序列,并提取与所述预设预测期数相同的数据作为输出样本;
根据各所述数据序列及对应的各所述任务潜在表征向量,确定输入样本;
将各所述输入样本及对应的各所述输出样本作为所述总数据样本。
5.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的资源预测模型的训练方法。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-3中任一项所述的资源预测模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311515251.9A CN117251295B (zh) | 2023-11-15 | 2023-11-15 | 一种资源预测模型的训练方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311515251.9A CN117251295B (zh) | 2023-11-15 | 2023-11-15 | 一种资源预测模型的训练方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117251295A CN117251295A (zh) | 2023-12-19 |
CN117251295B true CN117251295B (zh) | 2024-02-02 |
Family
ID=89137164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311515251.9A Active CN117251295B (zh) | 2023-11-15 | 2023-11-15 | 一种资源预测模型的训练方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117251295B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726865A (zh) * | 2018-12-27 | 2019-05-07 | 国网江苏省电力有限公司电力科学研究院 | 基于emd-qrf的用户负荷概率密度预测方法、装置和存储介质 |
CN110472798A (zh) * | 2019-08-22 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 时间序列数据的预测方法、装置及计算机可读存储介质 |
CN111506814A (zh) * | 2020-04-09 | 2020-08-07 | 苏州大学 | 一种基于变分自注意力网络的序列推荐方法 |
CN116542701A (zh) * | 2023-04-06 | 2023-08-04 | 华北电力大学 | 一种基于cnn-lstm组合模型的碳价预测方法及系统 |
CN116627630A (zh) * | 2023-03-31 | 2023-08-22 | 阿里巴巴(中国)有限公司 | 资源需求预测模型训练、需求预测和资源调度方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11538197B2 (en) * | 2020-09-15 | 2022-12-27 | Google Llc | Channel-wise autoregressive entropy models for image compression |
-
2023
- 2023-11-15 CN CN202311515251.9A patent/CN117251295B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726865A (zh) * | 2018-12-27 | 2019-05-07 | 国网江苏省电力有限公司电力科学研究院 | 基于emd-qrf的用户负荷概率密度预测方法、装置和存储介质 |
CN110472798A (zh) * | 2019-08-22 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 时间序列数据的预测方法、装置及计算机可读存储介质 |
CN111506814A (zh) * | 2020-04-09 | 2020-08-07 | 苏州大学 | 一种基于变分自注意力网络的序列推荐方法 |
CN116627630A (zh) * | 2023-03-31 | 2023-08-22 | 阿里巴巴(中国)有限公司 | 资源需求预测模型训练、需求预测和资源调度方法及系统 |
CN116542701A (zh) * | 2023-04-06 | 2023-08-04 | 华北电力大学 | 一种基于cnn-lstm组合模型的碳价预测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117251295A (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114065864A (zh) | 联邦学习方法、联邦学习装置、电子设备以及存储介质 | |
CN116307215A (zh) | 一种电力系统的负荷预测方法、装置、设备及存储介质 | |
CN115271218A (zh) | 基于电碳因子的碳排放量预测方法、装置、设备及介质 | |
CN117251295B (zh) | 一种资源预测模型的训练方法、装置、设备及介质 | |
CN117332897A (zh) | 人工智能驱动的新能源小时间尺度功率插值集成预测方法 | |
CN115388586B (zh) | 一种制冷控制模型、装置、电子设备及存储介质 | |
CN116230001A (zh) | 一种混合语音分离方法、装置、设备及存储介质 | |
CN115759283A (zh) | 一种模型解释方法、装置、电子设备以及存储介质 | |
CN115496157A (zh) | 分类模型训练方法、装置、电子设备及存储介质 | |
CN113657468A (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN115905021B (zh) | 一种模糊测试方法、装置、电子设备以及存储介质 | |
CN116484922B (zh) | 一种联邦学习方法、系统、设备及存储介质 | |
CN116776926B (zh) | 一种对话模型的优化部署方法、装置、设备及介质 | |
CN117667403A (zh) | 服务器资源占用情况的预测方法、装置、设备及介质 | |
CN117351934A (zh) | 流式语音合成方法、装置、电子设备和存储介质 | |
CN114612784A (zh) | 目标检测网络训练方法、装置、设备及存储介质 | |
CN116931083A (zh) | 一种方位角道集划分方案的确定方法 | |
CN115729957A (zh) | 一种基于最大信息系数的未知流特征选择方法及装置 | |
CN115859300A (zh) | 一种漏洞检测方法、装置、电子设备及存储介质 | |
CN116595361A (zh) | 一种噪声生成方法、装置、设备及介质 | |
CN117634659A (zh) | 一种智能取号方法、装置、设备及介质 | |
CN116628167A (zh) | 一种响应确定方法、装置、电子设备及存储介质 | |
CN115525774A (zh) | 一种图谱的生成方法、装置、电子设备和存储介质 | |
CN114626636A (zh) | 电网负荷预测方法、装置、建模方法、计算机设备及介质 | |
CN117634437A (zh) | 一种设备当前运行状态的描述方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |