CN110795246A - 资源利用率的预测方法及装置 - Google Patents

资源利用率的预测方法及装置 Download PDF

Info

Publication number
CN110795246A
CN110795246A CN201911025128.2A CN201911025128A CN110795246A CN 110795246 A CN110795246 A CN 110795246A CN 201911025128 A CN201911025128 A CN 201911025128A CN 110795246 A CN110795246 A CN 110795246A
Authority
CN
China
Prior art keywords
sequence
model
value
residual
sru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911025128.2A
Other languages
English (en)
Inventor
王振杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New H3C Big Data Technologies Co Ltd
Original Assignee
New H3C Big Data Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New H3C Big Data Technologies Co Ltd filed Critical New H3C Big Data Technologies Co Ltd
Priority to CN201911025128.2A priority Critical patent/CN110795246A/zh
Publication of CN110795246A publication Critical patent/CN110795246A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5019Workload prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供一种资源利用率的预测方法及装置,该方法包括:根据ARIMA模型对历史时间序列进行处理,得到所述历史时间序列对应的拟合时间序列和初级预测值;所述ARIMA模型是根据所述历史时间序列训练得到,所述历史时间序列包括按照时间顺序排序的多个历史资源利用率;根据所述历史时间序列和所述拟合时间序列获得残差序列;根据SRU模型对所述残差序列进行处理,得到所述残差序列对应的次级预测值;所述SRU模型是根据所述残差序列训练得到;根据所述初级预测值和所述次级预测值确定资源利用率的目标预测值。通过本申请的技术方案,能够基于ARIMA‑SRU模型实现资源利用率的预测,得到准确的目标预测值。

Description

资源利用率的预测方法及装置
技术领域
本申请涉及通信技术领域,尤其是涉及一种资源利用率的预测方法及装置。
背景技术
在云计算模式下,软件、硬件、平台等资源可以按需提供,以服务的方式提供给用户,用户可以通过互联网访问所租赁的资源。例如,将内存、I/O设备、存储和计算等资源整合成虚拟资源池,为用户提供虚拟资源池的各种资源。虚拟化技术是云计算的重要组成部分,通过在物理服务器部署虚拟机,将服务和应用部署在虚拟机,实现应用隔离、服务器整合、以及更好的资源复用。
云计算和虚拟化技术的应用,在为用户提供更好服务的同时,也带来一些问题。例如,数据中心部署的服务器数量不断增加,但是,服务器的CPU(Central Processing Unit,中央处理器)资源利用率较低,无法合理利用CPU资源。
为了实现计算资源的按需分配和虚拟机的合理化部署,需要提供准确的CPU资源预测方法,但是,传统方式并没有准确的CPU资源预测方法。
发明内容
本申请提供一种资源利用率的预测方法,所述方法包括:
根据ARIMA模型对历史时间序列进行处理,得到所述历史时间序列对应的拟合时间序列和初级预测值;其中,所述ARIMA模型是根据所述历史时间序列训练得到,所述历史时间序列包括按照时间顺序排序的多个历史资源利用率;
根据所述历史时间序列和所述拟合时间序列获得残差序列;
根据SRU模型对所述残差序列进行处理,得到所述残差序列对应的次级预测值;其中,所述SRU模型是根据所述残差序列训练得到;
根据所述初级预测值和所述次级预测值确定资源利用率的目标预测值。
本申请提供一种资源利用率的预测装置,所述装置包括:
第一处理模块,用于根据ARIMA模型对历史时间序列进行处理,得到所述历史时间序列对应的拟合时间序列和初级预测值;其中,所述ARIMA模型是根据所述历史时间序列训练得到,所述历史时间序列包括按照时间顺序排序的多个历史资源利用率;
获取模块,用于根据所述历史时间序列和所述拟合时间序列获得残差序列;
第二处理模块,用于根据SRU模型对所述残差序列进行处理,得到所述残差序列对应的次级预测值;其中,所述SRU模型是根据所述残差序列训练得到;
确定模块,用于根据所述初级预测值和所述次级预测值确定资源利用率的目标预测值。
基于上述技术方案,本申请实施例中,由于资源利用率的历史时间序列比较复杂,既有线性趋势又有非线性趋势,因此,根据ARIMA模型预测历史时间序列的线性部分,得到初级预测值。历史时间序列的非线性部分包含在ARIMA模型的误差部分,根据SRU模型对ARIMA模型的误差部分进行预测,得到次级预测值。根据ARIMA模型的初级预测值和SRU模型的次级预测值,可以得到目标预测值,目标预测值是准确的预测值。上述方式基于ARIMA-SRU模型实现资源利用率的预测,得到准确的目标预测值,根据目标预测值实现对资源的主动监测和智能化管理,实现计算资源的按需分配和虚拟机的合理化部署。
附图说明
为了更加清楚地说明本申请实施例或者现有技术中的技术方案,下面将对本申请实施例或者现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据本申请实施例的这些附图获得其他的附图。
图1是本申请一种实施方式中的资源利用率的预测过程的流程图;
图2A是本申请一种实施方式中的ARIMA模型的训练示意图;
图2B是本申请一种实施方式中的历史时间序列的示意图;
图2C是本申请一种实施方式中的ARIMA模型的训练示意图;
图3A是本申请一种实施方式中的SRU模型的训练示意图;
图3B是本申请一种实施方式中的目标网络参数值的确定示意图;
图3C是本申请一种实施方式中的SRU模型的网络结构示意图;
图4是本申请一种实施方式中的资源利用率的预测方法的流程图;
图5是本申请一种实施方式中的预测效果的示意图;
图6是本申请一种实施方式中的资源利用率的预测装置的结构图;
图7是本申请一种实施方式中的资源利用率的预测设备的硬件结构图。
具体实施方式
在本申请实施例使用的术语仅仅是出于描述特定实施例的目的,而非限制本申请。本申请和权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其它含义。还应当理解,本文中使用的术语“和/或”是指包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,此外,所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本申请实施例中提出一种资源利用率的预测方法,用于对资源利用率进行预测,例如,用于对物理服务器的CPU资源利用率进行预测,或者,用于对物理服务器的内存资源利用率进行预测。当然,CPU资源利用率和内存资源利用率只是两个示例,对此不做限制,后续以CPU资源利用率为例进行说明,关于内存资源利用率以及其它类型的资源利用率,实现方式与CPU资源利用率类似。
本实施例中的物理服务器,可以是云计算模式中用于提供各种资源的物理服务器,或者,用于部署多个虚拟机的物理服务器,对此不做限制。
在相关技术中,可以采用RNN(Recurrent Neural Network,循环神经网络)或LSTM(Long Short Term Memory,长短期记忆网络)对资源利用率进行预测。RNN是常用的时间序列处理方法,LSTM是改进的循环神经网络,是为了解决长期依赖问题而专门设计出来的,拥有精密设计的结构,这种结构包含很多门,这些门控制着流向隐层状态的信息,使得LSTM能记住较长时间的信息。
但是,RNN对于距离较远的信息,学习能力较弱。LSTM的网络结构复杂,耗费较多的训练时间,容易在反向传播过程中出现梯度消失。此外,RNN和LSTM比较复杂,每一个时刻的计算都依赖于上一时刻的输出,训练时间较长。
针对上述发现,本申请实施例中,可以基于ARIMA(Autoregressive IntegratedMoving Average,差分整合移动平均自回归)模型和SRU(Simple Recurrent Unit,简单循环单元)模型实现资源利用率的预测,得到准确的目标预测值。
其中,SRU模型是RNN的一种变体,通过改变循环体内部状态的计算方式来提高SRU模型的运算速度,将原来依赖上一时刻的输出转变成只依赖于当前时刻的输入,因此,SRU模型的计算过程可以在多个时间上并行处理。
其中,ARIMA模型是差分整合移动平均自回归模型,是一种常用的拟合时间序列的模型,ARIMA模型的主要参数可以为p、d、q,d用于表示使时间序列平稳需要进行的差分次数,p为自回归项数,q为滑动平均项数。p是AR(p)模型的阶数,q是MA(q)模型的阶数。示例性的,当d为0时,则ARIMA模型可以退化成ARMA(p,q)模型。此外,ARIMA模型可以细分为AR(p)模型、MA(q)模型、ARMA(p,q)模型,ARIMA(p,d,q)模型。
由于CPU资源利用率的历史时间序列比较复杂,既有线性趋势又有非线性趋势,使用单一的ARIMA模型或者SRU模型进行预测时,误差都会比较大,因此,本申请实施例中,参见图1所示的预测方法流程示意图,先根据ARIMA模型预测CPU资源利用率的历史时间序列的线性部分,得到初级预测值。
考虑到历史时间序列的非线性部分包含在ARIMA模型的误差部分,因此,可以根据SRU模型对ARIMA模型的误差部分进行预测,得到次级预测值。
然后,可以根据ARIMA模型的初级预测值和SRU模型的次级预测值,得到目标预测值,例如,可以对ARIMA模型的初级预测值和SRU模型的次级预测值进行求和运算,得到目标预测值,该目标预测值是较为准确的预测值。
上述方式可以基于ARIMA模型和SRU模型实现CPU资源利用率的预测,得到CPU资源利用率的目标预测值,从而根据目标预测值实现对CPU资源的主动监测和智能化管理,实现CPU资源的按需分配和虚拟机的合理化部署。
本申请实施例中提出的资源利用率的预测方法,可以先获取历史时间序列,并根据历史时间序列对ARIMA模型和SRU模型进行训练。基于已经完成训练的ARIMA模型和SRU模型,对该历史时间序列进行处理,得到资源利用率的目标预测值。示例性的,ARIMA模型和SRU模型是在线训练的模型,也就是说,先根据历史时间序列对ARIMA模型和SRU模型进行训练,然后基于已经完成训练的ARIMA模型和SRU模型对历史时间序列进行预测。
在上述过程中,涉及ARIMA模型的训练过程、SRU模型的训练过程、资源利用率的预测过程。其中,在ARIMA模型的训练过程中,可以根据历史时间序列建立ARIMA模型。在SRU模型的训练过程中,可以根据历史时间序列建立SRU模型。在资源利用率的预测过程中,可以根据已经完成训练的ARIMA模型和SRU模型对资源利用率(如CPU资源利用率)进行预测,得到资源利用率的目标预测值。以下结合具体的实施例,对ARIMA模型的训练过程、SRU模型的训练过程、资源利用率的预测过程进行详细说明。
ARIMA模型的训练过程:ARIMA模型是根据历史时间序列训练得到,该历史时间序列可以包括但不限于按照时间顺序排序的多个历史资源利用率。
参见图2A所示,为根据历史时间序列训练得到ARIMA模型的示意图。
步骤201,获取多个历史资源利用率,并根据多个历史资源利用率确定历史时间序列,该历史时间序列可以包括按照时间顺序排序的多个历史资源利用率。
在物理服务器的运行过程中,可以获取物理服务器在不同时间间隔的资源利用率,例如,可以获取物理服务器在n个时间间隔的历史资源利用率,n个时间间隔包括当前时间间隔以及当前时间间隔前面的多个时间间隔,该时间间隔的时长可以根据经验进行配置,如1分钟、5分钟、10分钟等,对此不做限制。n的取值可以根据经验进行配置,如300个、500个等,对此不做限制。
然后,按照历史资源利用率的时间从前到后的顺序,对这些历史资源利用率进行排序,得到历史时间序列(x1、x2、…、xn-1、xn)。x1表示第1个时间间隔的历史资源利用率,x2表示第2个时间间隔的历史资源利用率,…,xn-1表示第n-1个时间间隔的历史资源利用率,xn表示第n个时间间隔的历史资源利用率。
在一种可能的实施方式中,在物理服务器的实际运行过程中,可以对物理服务器的历史资源利用率进行监测,例如,获取物理服务器在当前时间间隔以及当前时间间隔前面的多个时间间隔的历史资源利用率。
在另一种可能的实施方式中,向物理服务器上部署的多个虚拟机发送请求消息,以使虚拟机对请求消息进行处理;其中,在不同时间间隔向同一虚拟机发送的请求消息数量相同或者不同,在同一时间间隔向不同虚拟机发送的请求消息数量相同或者不同。采集物理服务器在不同时间间隔的历史资源利用率。
例如,在物理服务器上部署多个虚拟机(如虚拟机1和虚拟机2),通过编写的测试程序,可以模拟一些动态变化的请求消息,并向物理服务器上部署的多个虚拟机并行发送动态变化的请求消息,对这些请求消息的类型不做限制,这些请求消息用于对虚拟机进行访问,是模拟真实用户产生的请求消息。
例如,在第1个时间间隔向虚拟机1发送100个请求消息,向虚拟机2发送100个请求消息,在第2个时间间隔向虚拟机1发送120个请求消息,向虚拟机2发送80个请求消息,在第3个时间间隔向虚拟机1发送120个请求消息,向虚拟机2发送110个请求消息,以此类推,对此发送过程不做限制。
物理服务器上部署的虚拟机在接收到这些请求消息后,可以对这些请求消息进行处理,对此处理过程不做限制,与请求消息的类型有关。
显然,在并发的请求在访问虚拟机时,会影响物理服务器的历史资源利用率。在不同时间间隔的并发请求数是动态变化的,且每个虚拟机的并发请求数之间无相似性,因此,在物理服务器的运行过程中,各个虛拟机对物理服务器的历史资源利用率的影响各不相同,即物理服务器的历史资源利用率不断变化。
综上所述,可以采集物理服务器在每个时间间隔的历史资源利用率,并按照每个历史资源利用率的时间从前到后的顺序,对这些历史资源利用率进行排序,得到历史时间序列(x1、x2、…、xn-1、xn)。例如,将1分钟作为一个时间间隔,选取300个时间间隔的历史资源利用率,则历史时间序列参见图2B所示,横坐标表示300个时间间隔,纵坐标表示每个时间间隔的历史资源利用率。
示例性的,在采集到物理服务器在多个时间间隔的历史资源利用率后,还可以对这些历史资源利用率进行预处理,对此预处理过程不做限制。
例如,可以从多个历史资源利用率中选取出无效的历史资源利用率,将无效的历史资源利用率删除,根据剩余的历史资源利用率确定历史时间序列。
又例如,若历史资源利用率出现丢失情况,如第50个时间间隔的历史资源利用率丢失,则可以通过均值法、中位数法和时间序列预测法等方式对丢失的历史资源利用率进行补全,根据补全后的历史资源利用率确定历史时间序列。
步骤202,根据历史时间序列确定ARIMA模型的差分次数、自回归项数和滑动平均项数。差分次数记为d、自回归项数记为p、滑动平均项数记为q。
其中,若历史时间序列(x1、x2、…、xn-1、xn)是平稳序列,则差分次数为0;若该历史时间序列不是平稳序列,则对该历史时间序列进行d次差分运算,直至得到平稳序列,则历史时间序列的差分次数为d,d为正整数。
以下对差分次数d、自回归项数p、滑动平均项数q的确定过程进行说明。
针对差分次数d的确定过程,可以采用如下方式确定差分次数d:
判断历史时间序列(x1、x2、…、xn-1、xn)是否为平稳序列,例如,可以使用ADF(Augmented Dickey-Fuller test,根检验法)判断该历史时间序列是否为平稳序列,当该历史时间序列的p_value小于阈值(如0.05等)时,则该历史时间序列是平稳序列,当该历史时间序列的p_value不小于该阈值时,则该历史时间序列不是平稳序列。如果该历史时间序列是平稳序列,则差分次数d为0。如果该历史时间序列不是平稳序列,则对历史时间序列进行差分运算,直至得到平稳序列,而对历史时间序列进行差分运算的次数,可以是差分次数d。
例如,假设历史时间序列(x1、x2、…、xn-1、xn)为(a1,a2,a3,a4,a5,a6,a7),在计算ARIMA模型的差分次数d时,可以先对历史时间序列(a1,a2,a3,a4,a5,a6,a7)进行平稳性检验,从而判断历史时间序列是否平稳。
若历史时间序列平稳,则表明历史时间序列不经过差分运算便会平稳,即欲使历史时间序列平稳而进行的差分运算的次数为0,此时d的取值为0。
若历史时间序列不平稳,则对历史时间序列进行第一次差分运算,得到(a2-a1),(a3-a2),(a4-a3),(a5-a4),(a6-a5),(a7-a6)。假设b1=(a2-a1),b2=(a3-a2),b3=(a4-a3),b4=(a5-a4),b5=(a6-a5),b6=(a7-a6),则历史时间序列进行过一次差分运算之后,可以得到b1,b2,b3,b4,b5,b6。对于进行过一次差分运算的历史时间序列(b1,b2,b3,b4,b5,b6)进行平稳性检验,判断其是否平稳。
若(b1,b2,b3,b4,b5,b6)平稳,则表明历史时间序列经过一次差分运算便会平稳,即欲使历史时间序列平稳而进行的差分运算的次数为1,此时d的取值为1。若(b1,b2,b3,b4,b5,b6)不平稳,则对(b1,b2,b3,b4,b5,b6)进行第二次差分运算,得到(b2-b1),(b3-b2),(b4-b3),(b5-b4),(b6-b5)。
假设c1=(b2-b1),c2=(b3-b2),c3=(b4-b3),c4=(b5-b4),c5=(b6-b5),则历史时间序列进行过两次差分运算之后,可以得到c1,c2,c3,c4,c5。
对于进行过两次差分运算的历史时间序列(c1,c2,c3,c4,c5)进行平稳性检验,判断(c1,c2,c3,c4,c5)是否平稳。若(c1,c2,c3,c4,c5)平稳,则表明历史时间序列经过两次差分运算便会平稳,即欲使历史时间序列平稳而进行的差分运算的次数为2,此时d的取值为2。若(c1,c2,c3,c4,c5)不平稳,则对(c1,c2,c3,c4,c5)进行第三次差分运算,以此类推。
在上述实施例中,在进行平稳性检验时,可以通过单位根检验(即ADF检验)的方式进行,单位根检验是指验证时间序列中是否存在单位根,若存在单位根,就是非平稳的时间序列;若不存在单位根,就是平稳的时间序列。可以理解,除了采用单位根检验来进行平稳性检验,也可通过其它方式来进行平稳性检验,例如,通过时序图检验来进行平稳性检验,即绘制出时间序列的时序图,若该时序图显示出明显的趋势性或周期性,则该时间序列为不平稳序列。
可以采用如下方式确定自回归项数p和滑动平均项数q:
在一种可能的实施方式中,p通过PACF(Partial Autocorrelation Function,偏自相关函数)确定,即通过PACF偏自相关图确定,具体方式不做限制,参见PACF实现原理。q通过ACF(Autocorrelation Function,自相关函数)确定,即通过ACF自相关图确定,具体方式不做限制,参见ACF实现原理。p为历史时间序列的偏自相关系数p阶截尾,q为历史时间序列的自相关系数q阶截尾。
在另一种可能的实施方式中,p和q均可以通过AIC(Akaike InformationCriterion,最小信息量准则)确定,具体方式不做限制,可以参见AIC准则的实现原理。或者,p和q均可以通过BIC(Bayesian InformationCriterion,贝叶斯信息准则)确定,具体方式不做限制,可以参见BIC准则的实现原理。
当然,上述只是确定自回归项数p和滑动平均项数q的两个示例,自回归项数p和滑动平均项数q也可以通过其它方式确定,在此不再赘述。
步骤203,根据差分次数、自回归项数和滑动平均项数建立ARIMA模型。
具体的,差分次数d、自回归项数p和滑动平均项数q是ARIMA模型的主要参数,在得到差分次数d、自回归项数p和滑动平均项数q后,就可以根据差分次数d、自回归项数p和滑动平均项数q建立ARIMA模型,对此ARIMA模型的建立过程不做限制,下面结合一个具体示例,对此建立过程进行说明。
示例性的,针对步骤203,如图2C所示,通过如下步骤建立ARIMA模型:
步骤2031,将历史时间序列代入ARIMA模型,获得预测时间序列的表达式。
例如,根据自回归项数p和滑动平均项数q,确定历史时间序列的预测时间序列的表达式的形式为:xt′=φ01xt-12xt-2+...+φpxt-pt1εt-12εt-2-...-θqεt-q。当然,上述只是一个示例,对此预测时间序列的表达式的形式不做限制。
其中,xt′为历史时间序列中t时间间隔的预测值,φ0为常数项,φi,i=1,2,...,p是实际值xi的权重,xt-i是历史时间序列中t时间间隔的实际值xt的i个数据之前的数据,也是历史时间序列中(t-i)时间间隔的实际值,θi,i=1,2,...,q是随机干扰εi的权重,εi,i=1,2,...,p是i时间间隔的随机干扰。
示例性的,随机干扰的计算方式可以包括但不限于:先计算历史时间序列中所有数值的均值,然后,以历史时间序列中某一时间间隔的具体值与上述均值相减,得到的便是该时间间隔的随机干扰。
为了方便描述,以p=2,q=2为例,则将历史时间序列代入ARIMA模型,获得预测时间序列的表达式的形式具体为:xt′=φ01xt-12xt-2t1εt-12εt-2
示例性的,ARIMA模型的主要参数为p、d、q,d用于表示使时间序列平稳需要进行的差分次数,即时间序列经d次差分运算之后变平稳。p为自回归项数,q为滑动平均项数。p是AR(p)模型的阶数,q是MA(q)模型的阶数。
ARIMA模型可以细分为AR(p)模型、MA(q)模型、ARMA(p,q)模型,ARIMA(p,d,q)模型。AR(p)模型是p阶自回归模型,其表达式的形式具体可以为:xt=φ01xt-12xt-2+...+φpxt-pt,φi,i=1,2,...,p是要学习的参数,εt是随机干扰。MA(q)模型是q阶移动平均模型,其表达式的形式具体可以为:xt=μ+εt1εt-12εt-2-...-θqεt-q,θi,i=1,2,...,q是要学习的参数,εt是t时间间隔的随机干扰,μ是常数均值,当μ=0时,称为去中心化的MA(q)模型。
ARIMA(p,q)模型是AR(p)模型和MA(q)模型的组合,其表达式的形式为:xt=φ01xt-12xt-2+...+φpxt-pt1εt-12εt-2-...-θqεt-q。当q=0时,ARMA模型退化成AR(p)模型,当p=0时,ARMA模型退化成MA(q)模型。
步骤2032,去除预测时间序列的表达式中的干扰项,得到带有欲估计参数的数据量组成的函数,也就是说,将预测时间序列的表达式转换为一个函数。
具体的,去除表达式xt′=φ01xt-12xt-2t1εt-12εt-2中的常数项φ0和εt,得到带有欲估计参数的数据量组成的函数Ft(β)=φ1xt-12xt-21εt-12εt-2
步骤2033,确定历史时间序列与该函数的差值的表达式。
具体的,可以将历史时间序列在t时间间隔的真实值(即历史时间序列中的真实值)与上述函数Ft(β)=φ1xt-12xt-21εt-12εt-2相减,得到历史时间序列的残差项的表达式:ξt=xt-Ft(β)。xt为历史时间序列在t时间间隔的真实值。
步骤2034,确定在差值的表达式满足预设约束条件时,函数中的欲估计参数的求解,根据求解获得ARIMA模型,即成功建立ARIMA模型。
具体的,在获得历史时间序列的残差项的表达式后,采用如下公式获得残差项的残差平方和:
Figure BDA0002248401810000111
利用迭代算法计算该残差平方和的最小值,当得到残差平方和最小时,差值的表达式满足预设约束条件,得到预测时间序列的表达式xt′=φ01xt-12xt-2t1εt-12εt-2中的欲估计参数φ1、φ2、θ1、θ2,从而得到ARIMA模型的预测时间序列的表达式。
可选地,可以利用梯度下降法求解Q(β)最小时的φt和θt,其中,t取1时,可获得欲估计参数φ1和θ1;t取2时,可获得欲估计参数φ2和θ2
当然,步骤2031-步骤2034只是建立ARIMA模型的示例,对此不做限制。
SRU模型的训练过程:SRU模型是根据残差序列训练得到,残差序列是根据ARIMA模型(即已经完成训练的ARIMA模型)对历史时间序列进行处理后得到的,历史时间序列包括按照时间顺序排序的多个历史资源利用率。
参见图3A所示,为根据历史时间序列训练得到SRU模型的示意图。
步骤301,根据ARIMA模型对历史时间序列进行处理,得到拟合时间序列。
具体的,基于已经完成训练的ARIMA模型,可以对历史时间序列(x1、x2、…、xn-1、xn)进行处理,得到拟合时间序列(x1’、x2’、…、xn-1’、xn’)。例如,在确定ARIMA模型的表达式xt′=φ01xt-12xt-2+...+φpxt-pt1εt-12εt-2-...-θqεt-q之后,可以将该历史时间序列(x1、x2、…、xn-1、xn)代入上述表达式中,得到拟合时间序列(x1’、x2’、…、xn-1’、xn’),对此过程不再赘述。
步骤302,根据历史时间序列和拟合时间序列获得残差序列。
具体的,可以将历史时间序列(x1、x2、…、xn-1、xn)与拟合时间序列(x1’、x2’、…、xn-1’、xn’)的差,作为残差序列(x1”、x2”、…、xn-1”、xn”)。
步骤303,根据残差序列确定SRU模型的目标网络参数值。示例性的,如图3B所示,可以通过如下步骤确定SRU模型的目标网络参数值:
步骤3031,构建初始SRU模型,初始SRU模型的网络参数为初始网络参数值,该初始网络参数值可以根据经验进行配置,也可以是上一个周期的目标网络参数值(即将上一个周期的目标网络参数值作为当前周期的初始网络参数值),对此初始网络参数值不做限制。
步骤3032,根据初始SRU模型对残差序列进行处理,得到预测序列。
示例性的,参见图3C所示,为SRU模型的网络结构的示意图,SRU模型的表达式可以包括但不限于:
Figure BDA0002248401810000121
ft=σ(Wfxt+bf);rt=σ(Wrxt+br);
Figure BDA0002248401810000122
ht=rt⊙g(ct)+(1-rt)⊙xt;yt=σ(Wo·ht)。在上述公式中,W、Wf、Wr、Wo可以为SRU模型的参数矩阵,bf、br可以为SRU模型的偏置单元向量,σ可以为预设权重值。预测输出为yt=σ(Wo·ht)。
示例性的,W、Wf、Wr、Wo、bf、br可以是SRU模型的网络参数,可以将这些网络参数的初始值作为初始网络参数值,对这些网络参数的初始值不做限制。在SRU模型的网络参数为初始网络参数值时,可以将该SRU模型称为初始SRU模型。而且,针对W、Wf、Wr、Wo、bf、br等网络参数,是需要优化的目标,也就是说,需要不断对网络参数值进行调整。
示例性的,针对残差序列中的每个残差值xt,可以将该残差值xt代入初始SRU模型的上述公式中,从而得到训练预测值yt。在将残差序列中的每个残差值xt代入初始SRU模型的上述公式后,可以得到每个残差值xt对应的训练预测值yt,而所有训练预测值yt组成的集合就是预测序列。
步骤3033,根据预测序列与残差序列确定预测损失值。
具体的,针对预测序列中的每个训练预测值,从该残差序列中确定与该训练预测值对应的实际残差值;根据该训练预测值和该实际残差值确定该训练预测值对应的误差值;根据每个训练预测值对应的误差值确定预测损失值。
例如,残差序列(x1”、x2”、…、xn-1”、xn”)中的残差值可以为x1”、x2”、…、xn-1”、xn”等,在将残差值x6”代入初始SRU模型的上述公式后,可以得到残差值x6”对应的训练预测值y6,而训练预测值y6是第7个时间间隔的预测值,因此,训练预测值y6与实际残差值x7”对应,可以将y6与x7”的差值的绝对值,作为y6对应的误差值。同理,训练预测值y7与实际残差值x8”对应,可以将y7与x8”的差值的绝对值,作为y7对应的误差值,以此类推。
综上所述,可以得到每个训练预测值对应的误差值,并根据每个训练预测值对应的误差值确定预测损失值。示例性的,可以通过如下公式确定预测损失值:
Figure BDA0002248401810000131
在上述公式中,Et用于表示预测损失值,n为残差序列中的残差值数量,yt为训练预测值,yd为真实值,即残差序列中与yt对应的实际残差值,yd与yt的差值,就是训练预测值yt对应的误差值。
步骤3034,判断该预测损失值是否符合约束条件。若该预测损失值不符合约束条件,调整初始SRU模型的初始网络参数值,并将调整后的网络参数值作为初始SRU模型的初始网络参数值,返回步骤3032。若该预测损失值符合约束条件,将当前网络参数值作为目标网络参数值,即训练得到目标网络参数值。
示例性的,优化目标是使预测损失值不大于阈值(阈值可以根据经验配置,如0、0.1等,对此不做限制,可以是大于或等于0,且接近0的数值)。当预测损失值越小时,则说明训练预测值与残差序列中的实际残差值之间的误差值越小,此时的网络参数越准确。基于上述原理,当预测损失值不大于该阈值时,则说明该预测损失值符合约束条件,可以将当前网络参数值作为目标网络参数值,当预测损失值大于该阈值时,则说明该预测损失值不符合约束条件,需要调整初始SRU模型的初始网络参数值,对此调整方式不做限制,如采用梯度下降法调整初始网络参数值,或者,采用其它算法调整初始网络参数值。
当然,预测损失值不大于该阈值,只是符合约束条件的一个示例,还可以将其它条件作为约束条件,例如,当迭代时长达到预设时长时,则确定该预测损失值符合约束条件,或者,当迭代次数达到预设次数时,则确定该预测损失值符合约束条件,对此约束条件不做限制。
综上所述,可以根据残差序列(x1”、x2”、…、xn-1”、xn”)对初始SRU模型的初始网络参数值进行优化,从而得到符合优化目标的目标网络参数值。
步骤304,根据目标网络参数值建立SRU模型,即成功建立SRU模型。
具体的,在SRU模型的网络参数为目标网络参数值时,可以将该SRU模型称为目标SRU模型,这个目标SRU模型也就是训练过程得到的SRU模型。
示例性的,针对W、Wf、Wr、Wo、bf、br等网络参数,是需要优化的目标,经过上述步骤,可以为这些网络参数设置目标网络参数值。
资源利用率的预测过程:可以根据ARIMA模型和SRU模型对资源利用率(如CPU资源利用率)进行预测,得到资源利用率的目标预测值。
参见图4所示,为资源利用率的预测方法的流程示意图,该方法包括:
步骤401,根据ARIMA模型(即已经完成训练的ARIMA模型)对历史时间序列进行处理,得到该历史时间序列对应的拟合时间序列和初级预测值。其中,该历史时间序列可以包括按照时间顺序排序的多个历史资源利用率。
具体的,在物理服务器的实际运行过程中,可以获取物理服务器在不同时间间隔的资源利用率(如CPU资源利用率),为了区分方便,将该资源利用率称为历史资源利用率,即得到物理服务器在多个时间间隔的历史资源利用率。
例如,可以获取物理服务器在当前时刻前的n个时间间隔的历史资源利用率,该时间间隔的时长和n的取值参见上述实施例。按照历史资源利用率的时间从前到后的顺序,对这些历史资源利用率进行排序,得到历史时间序列(x1、x2、…、xn-1、xn)。x1表示第1个时间间隔的历史资源利用率,x2表示第2个时间间隔的历史资源利用率,…,xn表示第n个时间间隔的历史资源利用率。
根据ARIMA模型对历史时间序列进行处理,得到拟合时间序列和初级预测值。具体的,基于已经完成训练的ARIMA模型,可以对历史时间序列(x1、x2、…、xn-1、xn)进行处理,得到拟合时间序列(x1’、x2’、…、xn-1’、xn’)和初级预测值。例如,确定ARIMA模型xt′=φ01xt-12xt-2+...+φpxt-pt1εt-12εt-2-...-θqεt-q之后,可以将该历史时间序列(x1、x2、…、xn-1、xn)代入上述表达式中,得到拟合时间序列(x1’、x2’、…、xn-1’、xn’)和初级预测值,对此过程不再赘述。
由上述的表达式可知,根据历史时间序列中(t-p)时间间隔的值xt-p至(t-1)时间间隔xt-1,以及,历史时间序列的(t-q)时间间隔的随机干扰εt-q至(t-1)时间间隔的随机干扰εt-1,可以得到t时间间隔的预测值xt′,对此过程不再详加赘述。可选地,随机干扰的计算方式为:计算历史时间序列中所有数值的均值,以历史时间序列某一时间间隔的具体值与该均值相减,得到该时间间隔的随机干扰。
若历史时间序列在t时间间隔存在已知值,则预测值xt′为拟合时间序列中的一个;若历史时间序列在t时间间隔不存在已知值,则预测值xt′为初级预测值中的一个。例如,若历史时间序列在t3、t4、t5时间间隔分别存在已知值,则根据ARIMA模型得到的数值,属于拟合时间序列。若历史时间序列在t6、t7、t8时间间隔均不存在已知值,则根据ARIMA模型得到的数值,属于初级预测值。
在预测某时间间隔的初级预测值时,若在历史时间序列中存在与该时间间隔对应的真实值,利用历史时间序列中的真实值进行预测;若在历史时间序列中不存在与该时间间隔对应的真实值,利用先前预测出的初级预测值进行预测。
步骤402,根据历史时间序列和拟合时间序列获得残差序列。
具体的,可以将历史时间序列(x1、x2、…、xn-1、xn)与拟合时间序列(x1’、x2’、…、xn-1’、xn’)的差,作为残差序列(x1”、x2”、…、xn-1”、xn”)。
当然,上述只是根据ARIMA模型对历史时间序列进行处理,得到该历史时间序列对应的拟合时间序列和初级预测值的示例,对此实现方式不做限制。
步骤403,根据SRU模型对残差序列进行处理,得到该残差序列对应的次级预测值,为区分方便,将根据SRU模型得到的预测值称为次级预测值。
具体的,基于已经完成训练的SRU模型,可以对残差序列进行处理,得到次级预测值。例如,SRU模型的表达式包括:
Figure BDA0002248401810000151
ft=σ(Wfxt+bf);rt=σ(Wrxt+br);
Figure BDA0002248401810000152
ht=rt⊙g(ct)+(1-rt)⊙xt;yt=σ(Wo·ht)。在上述SRU模型的训练过程中,已经为W、Wf、Wr、Wo、bf、br等网络参数设置目标网络参数值,可以将残差序列中的每个残差值代入SRU模型的上述表达式中,从而得到次级预测值,对此过程不再赘述。
在确定次级预测值的过程中,在预测某一具体时间间隔的次级预测值时,若在残差序列中存在与上述具体时间间隔对应的真实值,则可以利用残差序列中的真实值进行预测;若在残差序列中不存在与上述具体时间间隔对应的真实值,则可以利用先前预测出的次级预测值进行预测。
步骤404,根据初级预测值和次级预测值确定资源利用率的目标预测值,即预测物理服务器在未来一段时间内的资源利用率的目标预测值。具体的,可以将对应相同时间间隔的初级预测值与次级预测值进行相加,得到目标预测值。
例如,参见图5所示,可以利用300个时间间隔的资源利用率预测在未来30个时间间隔中物理服务器的资源利用率,从而得到准确的预测结果。
基于上述技术方案,本申请实施例中,由于资源利用率的历史时间序列比较复杂,既有线性趋势又有非线性趋势,因此,根据ARIMA模型预测历史时间序列的线性部分,得到初级预测值。历史时间序列的非线性部分包含在ARIMA模型的误差部分,根据SRU模型对ARIMA模型的误差部分进行预测,得到次级预测值。根据ARIMA模型的初级预测值和SRU模型的次级预测值,可以得到目标预测值,目标预测值是准确的预测值。上述方式基于ARIMA-SRU模型实现资源利用率的预测,得到准确的目标预测值,根据目标预测值实现对资源的主动监测和智能化管理,实现计算资源的按需分配和虚拟机的合理化部署。
基于与上述方法同样的申请构思,本申请实施例还提出一种资源利用率的预测装置,参见图6所示,所述资源利用率的预测装置可以包括:
第一处理模块61,用于根据ARIMA模型对历史时间序列进行处理,得到所述历史时间序列对应的拟合时间序列和初级预测值;其中,所述ARIMA模型是根据所述历史时间序列训练得到,所述历史时间序列包括按照时间顺序排序的多个历史资源利用率;
获取模块62,用于根据所述历史时间序列和所述拟合时间序列获得残差序列;
第二处理模块63,用于根据SRU模型对所述残差序列进行处理,得到所述残差序列对应的次级预测值;其中,所述SRU模型是根据所述残差序列训练得到;
确定模块64,用于根据所述初级预测值和所述次级预测值确定资源利用率的目标预测值。
所述获取模块62根据所述历史时间序列训练得到所述ARIMA模型时具体用于:
根据所述历史时间序列确定ARIMA模型的差分次数、自回归项数和滑动平均项数,并根据所述差分次数、所述自回归项数和所述滑动平均项数建立所述ARIMA模型;其中,若所述历史时间序列是平稳序列,则所述差分次数为0;若所述历史时间序列不是平稳序列,则对所述历史时间序列进行d次差分运算,直至得到平稳序列,所述差分次数为d,所述d为正整数。
在一个例子中,所述获取模块62根据所述残差序列训练得到所述SRU模型时具体用于:
根据所述残差序列确定SRU模型的目标网络参数值;
根据所述目标网络参数值建立所述SRU模型。
在一个例子中,所述获取模块62根据所述残差序列确定SRU模型的目标网络参数值时具体用于:
构建初始SRU模型,所述初始SRU模型的网络参数为初始网络参数值;
根据所述初始SRU模型对所述残差序列进行处理,得到预测序列;
根据所述预测序列与所述残差序列确定预测损失值;
若所述预测损失值不符合约束条件,则调整所述初始SRU模型的初始网络参数值,并将调整后的网络参数值作为所述初始SRU模型的初始网络参数值,返回执行根据所述初始SRU模型对所述残差序列进行处理的操作;
若所述预测损失值符合约束条件,将当前网络参数值作为目标网络参数值。
在一个例子中,所述获取模块62根据所述预测序列与所述残差序列确定预测损失值时具体用于:
针对预测序列中的每个训练预测值,从所述残差序列中确定与所述训练预测值对应的实际残差值;根据所述训练预测值和所述实际残差值确定所述训练预测值对应的误差值;根据每个训练预测值对应的误差值确定预测损失值。
本申请实施例提供的资源利用率的预测设备,从硬件层面而言,所述资源利用率的预测设备的硬件架构示意图可以参见图7所示,可以包括:机器可读存储介质和处理器,其中:所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令,所述处理器与机器可读存储介质通信,读取和执行机器可读存储介质中存储的所述指令代码,以实现上述的资源利用率的预测方法。
本申请实施例提供一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现上述资源利用率的预测方法。
这里,机器可读存储介质可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(RadomAccess Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可以由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其它可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其它可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
而且,这些计算机程序指令也可以存储在能引导计算机或其它可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或者多个流程和/或方框图一个方框或者多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其它可编程数据处理设备上,使得在计算机或者其它可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其它可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种资源利用率的预测方法,其特征在于,所述方法包括:
根据差分整合移动平均自回归ARIMA模型对历史时间序列进行处理,得到所述历史时间序列对应的拟合时间序列和初级预测值;其中,所述ARIMA模型是根据所述历史时间序列训练得到,所述历史时间序列包括按照时间顺序排序的多个历史资源利用率;
根据所述历史时间序列和所述拟合时间序列获得残差序列;
根据简单循环单元SRU模型对所述残差序列进行处理,得到所述残差序列对应的次级预测值;其中,所述SRU模型是根据所述残差序列训练得到;
根据所述初级预测值和所述次级预测值确定资源利用率的目标预测值。
2.根据权利要求1所述的方法,其特征在于,
根据所述历史时间序列训练得到所述ARIMA模型的过程,包括:
根据所述历史时间序列确定ARIMA模型的差分次数、自回归项数和滑动平均项数,并根据所述差分次数、所述自回归项数和所述滑动平均项数建立所述ARIMA模型;其中,若所述历史时间序列是平稳序列,则所述差分次数为0;若所述历史时间序列不是平稳序列,则对所述历史时间序列进行d次差分运算,直至得到平稳序列,所述差分次数为d,所述d为正整数。
3.根据权利要求1所述的方法,其特征在于,
根据所述残差序列训练得到所述SRU模型的过程,包括:
根据所述残差序列确定SRU模型的目标网络参数值;
根据所述目标网络参数值建立所述SRU模型。
4.根据权利要求3所述的方法,其特征在于,
所述根据所述残差序列确定SRU模型的目标网络参数值,包括:
构建初始SRU模型,所述初始SRU模型的网络参数为初始网络参数值;
根据所述初始SRU模型对所述残差序列进行处理,得到预测序列;
根据所述预测序列与所述残差序列确定预测损失值;
若所述预测损失值不符合约束条件,则调整所述初始SRU模型的初始网络参数值,并将调整后的网络参数值作为所述初始SRU模型的初始网络参数值,返回执行根据所述初始SRU模型对所述残差序列进行处理的操作;
若所述预测损失值符合约束条件,将当前网络参数值作为目标网络参数值。
5.根据权利要求4所述的方法,其特征在于,
所述根据所述预测序列与所述残差序列确定预测损失值,包括:
针对预测序列中的每个训练预测值,从所述残差序列中确定与所述训练预测值对应的实际残差值;根据所述训练预测值和所述实际残差值确定所述训练预测值对应的误差值;根据每个训练预测值对应的误差值确定预测损失值。
6.一种资源利用率的预测装置,其特征在于,所述装置包括:
第一处理模块,用于根据差分整合移动平均自回归ARIMA模型对历史时间序列进行处理,得到所述历史时间序列对应的拟合时间序列和初级预测值;其中,所述ARIMA模型是根据所述历史时间序列训练得到,所述历史时间序列包括按照时间顺序排序的多个历史资源利用率;
获取模块,用于根据所述历史时间序列和所述拟合时间序列获得残差序列;
第二处理模块,用于根据简单循环单元SRU模型对所述残差序列进行处理,得到所述残差序列对应的次级预测值;其中,所述SRU模型是根据所述残差序列训练得到;
确定模块,用于根据所述初级预测值和所述次级预测值确定资源利用率的目标预测值。
7.根据权利要求6所述的装置,其特征在于,所述获取模块根据所述历史时间序列训练得到所述ARIMA模型时具体用于:
根据所述历史时间序列确定ARIMA模型的差分次数、自回归项数和滑动平均项数,并根据所述差分次数、所述自回归项数和所述滑动平均项数建立所述ARIMA模型;其中,若所述历史时间序列是平稳序列,则所述差分次数为0;若所述历史时间序列不是平稳序列,则对所述历史时间序列进行d次差分运算,直至得到平稳序列,所述差分次数为d,所述d为正整数。
8.根据权利要求6所述的装置,其特征在于,
所述获取模块根据所述残差序列训练得到所述SRU模型时具体用于:
根据所述残差序列确定SRU模型的目标网络参数值;
根据所述目标网络参数值建立所述SRU模型。
9.根据权利要求8所述的装置,其特征在于,所述获取模块根据所述残差序列确定SRU模型的目标网络参数值时具体用于:
构建初始SRU模型,所述初始SRU模型的网络参数为初始网络参数值;
根据所述初始SRU模型对所述残差序列进行处理,得到预测序列;
根据所述预测序列与所述残差序列确定预测损失值;
若所述预测损失值不符合约束条件,则调整所述初始SRU模型的初始网络参数值,并将调整后的网络参数值作为所述初始SRU模型的初始网络参数值,返回执行根据所述初始SRU模型对所述残差序列进行处理的操作;
若所述预测损失值符合约束条件,将当前网络参数值作为目标网络参数值。
10.根据权利要求9所述的装置,其特征在于,所述获取模块根据所述预测序列与所述残差序列确定预测损失值时具体用于:
针对预测序列中的每个训练预测值,从所述残差序列中确定与所述训练预测值对应的实际残差值;根据所述训练预测值和所述实际残差值确定所述训练预测值对应的误差值;根据每个训练预测值对应的误差值确定预测损失值。
CN201911025128.2A 2019-10-25 2019-10-25 资源利用率的预测方法及装置 Pending CN110795246A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911025128.2A CN110795246A (zh) 2019-10-25 2019-10-25 资源利用率的预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911025128.2A CN110795246A (zh) 2019-10-25 2019-10-25 资源利用率的预测方法及装置

Publications (1)

Publication Number Publication Date
CN110795246A true CN110795246A (zh) 2020-02-14

Family

ID=69441370

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911025128.2A Pending CN110795246A (zh) 2019-10-25 2019-10-25 资源利用率的预测方法及装置

Country Status (1)

Country Link
CN (1) CN110795246A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523084A (zh) * 2020-04-09 2020-08-11 京东方科技集团股份有限公司 业务数据预测方法、装置、电子设备及计算机可读存储介质
CN111866931A (zh) * 2020-07-23 2020-10-30 中国联合网络通信集团有限公司 一种忙时资源利用率的确定方法和装置
CN112364077A (zh) * 2020-11-09 2021-02-12 光大理财有限责任公司 训练样本生成方法、机器学习模型训练方法及相关装置
CN112508283A (zh) * 2020-12-12 2021-03-16 广东电力信息科技有限公司 一种时间序列模型的构建方法、装置
CN112685187A (zh) * 2021-03-17 2021-04-20 北京海誉动想科技股份有限公司 云游戏资源调度方法与装置
CN112907622A (zh) * 2021-01-20 2021-06-04 厦门市七星通联科技有限公司 视频中目标物体的轨迹识别方法、装置、设备、存储介质
CN113190429A (zh) * 2021-06-03 2021-07-30 河北师范大学 服务器性能预测方法、装置及终端设备
CN113742158A (zh) * 2020-06-15 2021-12-03 北京沃东天骏信息技术有限公司 系统容量规划的方法和装置
CN117768469A (zh) * 2024-02-22 2024-03-26 广州宇中网络科技有限公司 一种基于大数据的云服务管理方法及系统
CN117768469B (zh) * 2024-02-22 2024-06-07 广州宇中网络科技有限公司 一种基于大数据的云服务管理方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180060771A1 (en) * 2016-08-25 2018-03-01 AXI System, Inc. Systems and methods for creating volume/market weighted average price benchmark indices for fresh foods
CN109684310A (zh) * 2018-11-22 2019-04-26 安徽继远软件有限公司 一种基于大数据分析的信息系统性能态势感知方法
CN109814937A (zh) * 2017-11-20 2019-05-28 广东欧珀移动通信有限公司 应用程序预测模型建立、预加载方法、装置、介质及终端
CN109873712A (zh) * 2018-05-18 2019-06-11 新华三信息安全技术有限公司 一种网络流量预测方法及装置
CN110149237A (zh) * 2019-06-13 2019-08-20 东北大学 一种Hadoop平台计算节点负载预测方法
CN110351123A (zh) * 2019-06-19 2019-10-18 新华三大数据技术有限公司 链路流量预测方法、装置及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180060771A1 (en) * 2016-08-25 2018-03-01 AXI System, Inc. Systems and methods for creating volume/market weighted average price benchmark indices for fresh foods
CN109814937A (zh) * 2017-11-20 2019-05-28 广东欧珀移动通信有限公司 应用程序预测模型建立、预加载方法、装置、介质及终端
CN109873712A (zh) * 2018-05-18 2019-06-11 新华三信息安全技术有限公司 一种网络流量预测方法及装置
CN109684310A (zh) * 2018-11-22 2019-04-26 安徽继远软件有限公司 一种基于大数据分析的信息系统性能态势感知方法
CN110149237A (zh) * 2019-06-13 2019-08-20 东北大学 一种Hadoop平台计算节点负载预测方法
CN110351123A (zh) * 2019-06-19 2019-10-18 新华三大数据技术有限公司 链路流量预测方法、装置及电子设备

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523084A (zh) * 2020-04-09 2020-08-11 京东方科技集团股份有限公司 业务数据预测方法、装置、电子设备及计算机可读存储介质
WO2021204176A1 (zh) * 2020-04-09 2021-10-14 京东方科技集团股份有限公司 业务数据预测方法、装置、电子设备及计算机可读存储介质
CN113742158A (zh) * 2020-06-15 2021-12-03 北京沃东天骏信息技术有限公司 系统容量规划的方法和装置
CN111866931A (zh) * 2020-07-23 2020-10-30 中国联合网络通信集团有限公司 一种忙时资源利用率的确定方法和装置
CN111866931B (zh) * 2020-07-23 2022-09-02 中国联合网络通信集团有限公司 一种忙时资源利用率的确定方法和装置
CN112364077A (zh) * 2020-11-09 2021-02-12 光大理财有限责任公司 训练样本生成方法、机器学习模型训练方法及相关装置
CN112508283A (zh) * 2020-12-12 2021-03-16 广东电力信息科技有限公司 一种时间序列模型的构建方法、装置
CN112907622A (zh) * 2021-01-20 2021-06-04 厦门市七星通联科技有限公司 视频中目标物体的轨迹识别方法、装置、设备、存储介质
CN112685187A (zh) * 2021-03-17 2021-04-20 北京海誉动想科技股份有限公司 云游戏资源调度方法与装置
CN113190429A (zh) * 2021-06-03 2021-07-30 河北师范大学 服务器性能预测方法、装置及终端设备
CN117768469A (zh) * 2024-02-22 2024-03-26 广州宇中网络科技有限公司 一种基于大数据的云服务管理方法及系统
CN117768469B (zh) * 2024-02-22 2024-06-07 广州宇中网络科技有限公司 一种基于大数据的云服务管理方法及系统

Similar Documents

Publication Publication Date Title
CN110795246A (zh) 资源利用率的预测方法及装置
Bhattacharjee et al. Barista: Efficient and scalable serverless serving system for deep learning prediction services
Ma et al. Real-time multiple-workflow scheduling in cloud environments
Ullah et al. Adaptive resource utilization prediction system for infrastructure as a service cloud
US11715033B2 (en) Dynamically scaled training fleets for machine learning
Wang et al. Integer-ordered simulation optimization using R-SPLINE: Retrospective search with piecewise-linear interpolation and neighborhood enumeration
US11663486B2 (en) Intelligent learning system with noisy label data
WO2021133253A1 (en) Method and apparatus for predicting energy consumption, and device and storage medium thereof
US11094008B2 (en) Debt resolution planning platform for accelerating charge off
US11928556B2 (en) Removing unnecessary history from reinforcement learning state
Li et al. Domain knowledge embedding regularization neural networks for workload prediction and analysis in cloud computing
CN113641445B (zh) 基于深度确定性策略的云资源自适应配置方法及系统
CN114297041A (zh) 网络异构计算平台测试方法、装置和计算机设备
CN111090401B (zh) 存储设备性能预测方法及装置
CN112258129A (zh) 配送路径预测网络训练、配送资源调度方法及装置
Song et al. Personalized federated learning with server-side information
CN116629612A (zh) 一种风险预测的方法、装置、存储介质及电子设备
Mohammadi et al. Machine learning assisted stochastic unit commitment: A feasibility study
Fauzan et al. Simulation of agent-based and discrete event for analyzing multi organizational performance
Zavvar et al. Measuring service quality in service-oriented architectures using a hybrid particle swarm optimization algorithm and artificial neural network (PSO-ANN)
Duong et al. Ra2: Predicting simulation execution time for cloud-based design space explorations
CN113296951A (zh) 一种资源配置方案确定方法及设备
Al‐Najjar et al. Scheduling of workflow jobs based on twostep clustering and lowest job weight
CN106790485B (zh) 混合云模式中的基于成本考虑的在线服务请求调度方法
CN116755866B (zh) 一种资源调度方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200214

RJ01 Rejection of invention patent application after publication