CN112181659A - 云仿真内存资源预测模型构建方法与内存资源预测方法 - Google Patents

云仿真内存资源预测模型构建方法与内存资源预测方法 Download PDF

Info

Publication number
CN112181659A
CN112181659A CN202011071850.2A CN202011071850A CN112181659A CN 112181659 A CN112181659 A CN 112181659A CN 202011071850 A CN202011071850 A CN 202011071850A CN 112181659 A CN112181659 A CN 112181659A
Authority
CN
China
Prior art keywords
model
trained
training
cloud simulation
memory resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011071850.2A
Other languages
English (en)
Other versions
CN112181659B (zh
Inventor
朱峰
姚益平
王帅
唐文杰
陈凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202011071850.2A priority Critical patent/CN112181659B/zh
Publication of CN112181659A publication Critical patent/CN112181659A/zh
Application granted granted Critical
Publication of CN112181659B publication Critical patent/CN112181659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及一种云仿真内存资源预测模型构建方法、装置、计算机设备及存储介质,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此,堆积上述三种模型得到的云仿真内存资源预测模型可以支持云仿真内存资源的准确预测。另外本申请还提供一种云仿真内存资源预测方法、装置、计算机设备及存储介质,其能够实现云仿真内存资源的准确预测。

Description

云仿真内存资源预测模型构建方法与内存资源预测方法
技术领域
本申请涉及计算机技术领域,特别是涉及一种云仿真内存资源预测模型构建方法、装置、计算机设备和存储介质以及内存资源预测方法、装置、计算机设备和存储介质。
背景技术
大规模复杂系统包含大量的组件,组件之间存在着复杂交互,如作战对抗,经济模型以及疾病传播模型等。复杂系统仿真为研究复杂系统提供了一个有效的方法。随着复杂系统仿真应用规模越来越大,实体交互越来越复杂,对仿真性能提出了较高的需求。另一方面,仿真应用中实体与实体之间交互的不确定性导致了变化的资源需求,传统的高性能计算环境难以支持复杂系统仿真应用的高效运行。云计算的发展为复杂系统仿真应用的部署运行提供了新的解决方案。云计算的可扩展性与灵活性为复杂系统仿真应用提供了动态可扩展的资源,满足了仿真应用的弹性资源需求。
在云环境中,复杂系统仿真应用包含的仿真实体都将会被分发到不同的组中,实体之间的交互产生了频繁的通信操作,这将导致大量的内存分配与回收操作。内存成为了限制复杂系统仿真应用性能的主要因素之一,处理器多达60%的时间花费在等待内存操作的完成。特别是对于使用乐观时间同步的仿真应用,如果分配内存资源过少,难以支持应用高效运行,如果分配内存资源过多,一方面会造成资源浪费,另一方面其运算性能可能反而下降,尤其是当工作负载不平衡时,这是因为内存资源的有限使用能够避免应用过度乐观的执行,从而避免过多的回退操作和性能下降。准确的分配仿真应用所需内存资源对于提高仿真应用性能,降低资源消耗具有重要意义。
可见,复杂系统仿真应用在云环境中的内存资源管理和分配是一个具有挑战性且开放的问题,有效的管理和分配内存资源需要准确的对内存资源进行预测。因此,目前急需一种预测准确的云仿真内存资源预测方案。
发明内容
基于此,有必要针对上述技术问题,提供一种支持云仿真内存资源准确预测的云仿真内存资源预测模型构建方法、装置、计算机设备和存储介质;以及提供一种能够准确预测的云仿真内存资源预测方法、装置、计算机设备和存储介质。
一种云仿真内存资源预测模型构建方法,方法包括:
获取云仿真应用内存数据的样本集,样本集包括训练集和验证集;
获取预设基模型,由训练集训练预设基模型,得到已训练的基模型,预设基模型基于BP神经网络和随机森林构建;
将验证集中输入数据输入至已训练的基模型,得到验证集预测结果;
根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。
在一个实施例中,获取预设基模型,由训练集训练预设基模型包括:
获取多个预设基模型,将训练集随机分为多个训练子集;
采用单个训练子集对单个预设基模型进行训练,得到多个初始已训练的基模型;
获取每个初始已训练的基模型的预测结果均方根误差;
基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合,已训练的基模型集合中包括多个已训练的基模型。
在一个实施例中,基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合包括:
获取初始已训练的基模型的数量N;
将每个初始已训练的基模型按照对应的预测结果均方根误差排序,得到排序队列;
根据排序队列依次选择不同数量i的初始已训练的基模型,计算均方根误差,直至数量i达到数量N,N大于等于2;
选取均方根误差最小对应的基模型集合,得到已训练的基模型集合。
在一个实施例中,将训练集随机分为多个训练子集包括:
采用bootstrap方法对训练集抽样,得到多个训练子集。
在一个实施例中,获取云仿真应用内存数据的样本集包括:
根据预设时间窗口,采集部署于云环境中仿真应用的内存数据集;
采用箱线图方式,查找内存数据集中异常值;
基于时间顺序定位异常值,并基于时间顺序使用异常值对应的上一样本和下一样本替代异常值,得到云仿真应用内存数据的样本集。
本申请还提供一种云仿真内存资源预测模型构建装置,装置包括:
样本获取模块,用于获取云仿真应用内存数据的样本集,样本集包括训练集和验证集;
基模型训练模块,用于获取预设基模型,由训练集训练预设基模型,得到已训练的基模型,预设基模型基于BP神经网络和随机森林构建;
验证模块,用于将验证集中输入数据输入至已训练的基模型,得到验证集预测结果;
元模型训练模块,用于根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
模型构建模块,用于根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。
本申请还提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,其特征在于,处理器执行计算机程序时实现如上述的方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如上述的方法的步骤。
上述云仿真内存资源预测模型构建方法、装置、计算机设备及存储介质,获取云仿真应用内存数据的样本集,以BP神经网络和随机森林构建的模型作为基模型,采用训练集训练基模型;以高斯回归模型作为元模型,使用基模型在验证集下输出的数据生成元模型的训练样本,得到已训练的元模型,结合基模型和远模型,得到最终的云仿真内存资源预测模型。整个过程中,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此,堆积上述三种模型得到的云仿真内存资源预测模型可以支持云仿真内存资源的准确预测。
另外,本申请还提供一种云仿真内存资源预测方法,包括:
采集云仿真应用状态信息;
将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,已训练的云仿真内存资源预测模型由上述方法构建;
获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
在一个实施例中,上述云仿真内存资源预测方法还包括:
监控分配至云仿真应用的内存资源;
根据上一时刻预测得到的云仿真应用内存资源预测结果和当前时刻的云仿真应用的内存资源,反馈更新已训练的云仿真内存资源预测模型。
另外,本申请还提供一种云仿真内存资源预测装置,包括:
数据采集模块,用于云仿真应用状态信息;
数据输入模块,用于将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,已训练的云仿真内存资源预测模型由上述方法构建;
预测模块,用于获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现如上述的方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如上述的方法的步骤。
上述云仿真内存资源预测方法、装置、计算机设备和存储介质,基于已训练的云仿真内存资源预测模型进行云仿真应用内存资源预测,已训练的云仿真内存资源预测模型基于BP神经网络、随机森林以及高斯线性回归三种网络堆积训练得到,其中,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此可以实现云仿真内存资源的准确预测。
附图说明
图1为一个实施例中云仿真内存资源预测模型构建方法的应用环境图;
图2为一个实施例中云仿真内存资源预测模型构建方法的流程示意图;
图3为BP神经网络结构示意图;
图4为随机森林流程示意图;
图5为另一个实施例中云仿真内存资源预测模型构建方法的流程示意图;
图6基于均方根误差的剪枝算法流程图;
图7为一个应用实例中云仿真内存资源预测模型构建方法的流程示意图;
图8为一个实施例中云仿真内存资源预测模型构建装置的结构示意图;
图9为一个实施例中云仿真内存资源预测方法的流程示意图;
图10为一个实施例中云仿真内存资源预测装置的结构示意图;
图11为一个应用实例中云仿真内存资源预测装置架构示意图;
图12为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的云仿真内存资源预测模型构建方法,可以应用于如图1所示的应用环境中。其中,服务器102通过网络与云系统104连接,服务器102在历史操作中采集云系统104中云仿真应用内存数据,服务器102将这些数据作为样本集,在该样本集中包括训练集和验证集;服务器102读取预存基于BP神经网络和随机森林构建的基模型,采用样本集训练该预设基模型;将验证集中输入数据输入至已训练的基模型,得到验证集预测结果;根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。其中服务器102可以是用于监控云系统运行的监控服务器设备,其可以用独立的服务器或者是多个服务器组成的服务器集群来实现。可以理解的是,上述云仿真内存资源预测模型构建方法还可以直接由云系统来执行。
另外本申请还提供一种云仿真内存资源预测方法,其同样可以应用于图1所示的应用环境中,服务器102基于上述云仿真内存资源预测模型构建方法加载有云仿真内存资源预测模型,服务器102通过监控云系统,采集云仿真应用状态信息;将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。可以理解的是,上述云仿真内存资源预测方法还可以直接由云系统来执行。
在一个实施例中,如图2所示,提供了一种云仿真内存资源预测模型构建方法,以该方法应用于图1中的服务器102为例进行说明,包括以下步骤:
S210:获取云仿真应用内存数据的样本集,样本集包括训练集和验证集。
云仿真应用内存数据的样本集可以是在历史记录中采集得到的云仿真应用状态数据以及所需内存资源得到的样本集,该样本集还可以是由第三方给予的标准样本数据。具体来说,若采用历史数据采集的方式,可以将仿真应用部署运行在云环境(云系统)中,以10s(可以根据实际需要调整)为一个窗口收集云仿真应用状态数据以及所需内存资源,采集一段时间之后,即可得到样本集。在该样本集中包含有训练集和验证集,其中训练集用于对模型进行训练,验证集用于对模型进行验证和测试,一般来说,训练集的数据量大于验证集的数据量,具体可以选择80%的样本集作为训练集、将20%的样本集作为验证集。
S220:获取预设基模型,由训练集训练预设基模型,得到已训练的基模型,预设基模型基于BP神经网络和随机森林构建。
预设基模型是基于BP神经网络和随机森林构建得到,可以理解为在该模型中有并行的BP神经网络和随机森林两个部分,在训练时,分别采用训练集对这两个部分进行训练。
具体来说,BP神经网络一般是指应用BP算法的多层前馈神经网络,在解决回归问题上表现优异。BP神经网络的结构如图3所示,典型的BP神经网络由三层组成,输入层,隐藏层,和输出层。对于每个训练样本,BP神经网络都会计算输出层的误差,然后将误差反向传播到隐藏层,最后根据误差调整权值和阈值,通过不断的迭代可以减少训练误差。随机森林采用bagging对决策树进行集成,进一步的在决策树的训练中加入了随机特征选择。换句话说,每颗独立的决策树训练在随机选择的样本与随机选择的特征。随机森林通过样本扰动和特征扰动增大了基模型的差异性,这就使得随机森林的泛化能力得到进一步提升。因此被广泛应用在分类和回归问题。对于回归问题,决策树集合的平均值作为随机森林的输出,随机森林回归流程如图4所示。
S230:将验证集中输入数据输入至已训练的基模型,得到验证集预测结果。
在S220已经得到已训练的基模型,将验证集中输入数据输入到已训练的基模型进行所需资源预测。如上验证集属于样本集中的一部分,简单来说,验证集中是包含云仿真应用状态数据以及所需内存资源两个部分的数据,其中云仿真应用状态数据属于其中的输入数据(简称X数据),所需内存资源属于输出数据(简称Y数据),将验证集中云仿真应用状态数据(X数据)输入至已训练的基模型,得到验证集预测结果,即得到预测的内存资源(简称Y1数据)。
S240:根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型。
采用S230得到的验证集预测结果生成新的训练样本,以对预设高斯过程回归模型进行训练,即将上述预测的内存资源(Y1数据)替换验证集中的输入数据(X数据),得到新的训练样本中包含有已训练基模型输出的预测的内存资源数据(Y1数据)以及验证集中的内存资源数据(Y数据),可以简单理解为得到(Y1,Y)的新的训练样本。使用该新的训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型。上述这个过程涉及stacking集成方式,采用stacking集成方式将基于BP神经网络和随机森林构建的基模型和基于高斯过程回归模型的元模型联系起来。具体来说,样本集集会被分为80%的训练集和20%的验证集。则第一层基模型会进行5折交叉验证,第一层基模型会输出验证集的预测结果,通过5次交叉检验,可以得到5*20%的验证集对应的内存资源预测结果,这个结果是第一层基模型的输出作为高斯过程回归的输入x,那么高斯过程回归的y也就是数据验证集的y,相当于将验证集里x替换为第一层基模型的输出,y不变。
具体来说,高斯过程回归是一种在贝叶斯框架下的概率预测模型,其模型的性质由均值函数m(x)与协方差函数cov(x,x′)所表示。具体如下所示:
f(x)~GP(m(x),cov(x,x′))
m(x)=E[f(x)]
cov(x,x′)=E[(f(x)-m(x))*(f(x′)-m(x′))]
在实际的回归问题中,需要考虑噪声的影响,因此考虑噪声的预测值可以被表示为:
y=f(x)+ε
ε~N(0,σ2)
考虑测试样本xt,其预测值为f(xt),则f(xt)与训练集观测值y的联合分布可以表示为:
Figure BDA0002715174000000081
k=cov(x,x)+σ2I
由上式可得f(xt)的后验分布可以表示为:
f(xt)|xy,xt~N(f(xt)′,cov(f(xt)))
f(xt)′=cov(xt,x)k-1y
cov(f(xt))=cov(xt,xt)-cov(xt,x)k-1cov(x,xt)
f(xt)′为高斯过程回归预测值,cov(f(xt))为高斯过程回归的预测值方差。因此,高斯过程回归常被用作概率预测模型。
S250:根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。
集成已训练的基模型以及已训练的元模型,即可构建得到云仿真内存资源预测模型。在该云仿真内存资源预测模型中集成有BP神经网络、随机森林以及高斯过程回归三种模型,在后续应用中通过该模型准确预测云仿真内存资源。非必要的,在得到云仿真内存资源预测模型之后,还可以再使用数据对其进行测试和验证,以进一步确保后续使用的准确性,具体可以在得到样本数据之后,将样本数据划分为样本集和额外测试集,同样可以按照80%的样本数据作为样本集,将20%的样本数据作为额外测试集。
上述云仿真内存资源预测模型构建方法,获取云仿真应用内存数据的样本集,以BP神经网络和随机森林构建的模型作为基模型,采用训练集训练基模型;以高斯回归模型作为元模型,使用基模型在验证集下输出的数据生成元模型的训练样本,得到已训练的元模型,结合基模型和远模型,得到最终的云仿真内存资源预测模型。整个过程中,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此,堆积上述三种模型得到的云仿真内存资源预测模型可以支持云仿真内存资源的准确预测。
如图5所示,在一个实施例中,S220包括:
S222:获取多个预设基模型,将训练集随机分为多个训练子集;
S224:采用单个训练子集对单个预设基模型进行训练,得到多个初始已训练的基模型;
S226:获取每个初始已训练的基模型的预测结果均方根误差;
S228:基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合,已训练的基模型集合中包括多个已训练的基模型。
为了提高集成模型的性能,需要选择基模型的最优子集以消除效果较差基模型的影响,在本实施例中提出了基于RMSE(均方根误差)的剪枝算法,以筛选出包含最优子集训练得到的基模型集合,在已训练的基模型集合中包括多个已训练的基模型。具体来说,首先,选择一定数量的预设基模型,这些预设基模型都是相同的初始模型,将训练集采集随机的方式分为多个训练子集,这些训练子集中包含的数据不同,具体可以通过bootstrap方法抽样以增大样本的扰动得到多个训练子集,训练子集的数量具体可以预设基模型的数量相同,采用单个训练子集训练单个预设基模型的方式进行训练,得到多个初始已训练的基模型,获取初始已训练的基模型的RMSE,具体可以就将同一组测试样本数据输入至多个初始已训练的基模型,计算得到初始已训练的基模型的RMSE,该组数据具体可以是从训练数据中抽取出来的数据,或者是额外导入的样本数据,其具体计算公式如下:
Figure BDA0002715174000000101
式中,yi和ypredictioni分别为样本i的真实值与预测值;n为该组样本的数量。在得到每个初始已训练的基模型的预测结果均方根误差之后,对多个初始已训练的基模型进行剪枝,最终得到已训练的基模型集合。
在一个实施例中,上述剪枝得到已训练的基模型集合包括:获取初始已训练的基模型的数量N;将每个初始已训练的基模型按照对应的预测结果均方根误差排序,得到排序队列;根据排序队列依次选择不同数量i的初始已训练的基模型,计算均方根误差,直至数量i达到数量N,N大于等于2;选取均方根误差最小对应的基模型集合,得到已训练的基模型集合。
简单来说,上述剪枝过程是需要选择由多个已训练基模型构成的基模型集合的均方根误差最小。具体来说,如图6所示,先获取到之前处理之后得到初始已训练的基模型的数量N,将每个初始已训练的基模型按照对应的预测结果均方根误差升序或降序方式排序(优选的选择升序的方式),得到排序队列,在该排序队列中依次选择不同数量i的初始已训练的基模型来构成基模型集合,分别计算这些基模型集合中均方根误差,可以理解i是从2开始逐个增加的,即i可以依次取值2、3、4、……、N可以得到包含不同数量初始已训练的基模型的基模型集合,计算每个基模型集合的均方根误差,选择均方根误差最小对应的基模型集合,得到已训练的基模型集合。
在一个实施例中,获取云仿真应用内存数据的样本集包括:根据预设时间窗口,采集部署于云环境中仿真应用的内存数据集;采用箱线图方式,查找内存数据集中异常值;基于时间顺序定位异常值,并基于时间顺序使用异常值对应的上一样本和下一样本替代异常值,得到云仿真应用内存数据的样本集。
在本实施例中,采用箱线图方式查找内存数据集中异常值,采用异常值对应的上一样本和下一样本替代异常值,实现对异常值的清洗与矫正,以使得到的样本集更加准确。
具体来说,本申请云仿真内存资源预测模型构建方法其中一个应用实例可以参见图7,如图7所示,为了准确的预测仿真应用所需内存资源,我们将仿真应用部署运行在云环境中,以10s为一个窗口收集其动态信息,将静态信息与动态信息结合生成仿真应用内存数据集。随后对所收集的数据进行清洗,我们使用箱线图的方式找到数据集中的异常值,将这些异常值用上一个样本与下一个样本的均值所替代。同时,为了消除量纲对结果造成的影响,我们对所有数据进行标准化处理。仿真应用内存数据集的80%样本作为数据训练集,20%作为数据测试集,数据训练集用作第一层基模型的数据集,数据训练集80%作为训练集,20%作为验证集。数据测试集用作内存资源预测模型的测试集。通过集成多个基模型可以提高复杂系统仿真应用内存预测准确性,可以解决单个模型泛化能力差的问题。因此我们选择将BP神经网络,随机森林与高斯过程回归三种预测模型以stacking方式集成。集成模型的性能主要包括两个因素,基模型的差异性与基模型的性能。为了提高基模型之间的差异性,我们使用bootstrap方法抽样以增大样本的扰动,为了提高集成模型的性能,我们需要选择基模型的最优子集以消除效果较差基模型的影响。因此,我们提出了基于RMSE的剪枝算法。该算法能根据RMSE指标选择出基模型的最优子集。将选择的最优基模型的输出作为高斯过程回归的输入,然后高斯过程回归作为第二层元模型预测仿真应用所需的内存资源,将神经网络,随机森林与高斯过程回归相结合构建云仿真内存资源预测模型,该云仿真内存资源预测模型可以准确地预测仿真应用所需内存资源。
如图8所示,本申请还提供一种云仿真内存资源预测模型构建装置,装置包括:
样本获取模块810,用于获取云仿真应用内存数据的样本集,样本集包括训练集和验证集;
基模型训练模块820,用于获取预设基模型,由训练集训练预设基模型,得到已训练的基模型,预设基模型基于BP神经网络和随机森林构建;
验证模块830,用于将验证集中输入数据输入至已训练的基模型,得到验证集预测结果;
元模型训练模块840,用于根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
模型构建模块850,用于根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。
上述云仿真内存资源预测模型构建装置,获取云仿真应用内存数据的样本集,以BP神经网络和随机森林构建的模型作为基模型,采用训练集训练基模型;以高斯回归模型作为元模型,使用基模型在验证集下输出的数据生成元模型的训练样本,得到已训练的元模型,结合基模型和远模型,得到最终的云仿真内存资源预测模型。整个过程中,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此,堆积上述三种模型得到的云仿真内存资源预测模型可以支持云仿真内存资源的准确预测。
在一个实施例中,基模型训练模块820还用于获取多个预设基模型,将训练集随机分为多个训练子集;采用单个训练子集对单个预设基模型进行训练,得到多个初始已训练的基模型;获取每个初始已训练的基模型的预测结果均方根误差;基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合,已训练的基模型集合中包括多个已训练的基模型。
在一个实施例中,基模型训练模块820还用于获取初始已训练的基模型的数量N;将每个初始已训练的基模型按照对应的预测结果均方根误差排序,得到排序队列;根据排序队列依次选择不同数量i的初始已训练的基模型,计算均方根误差,直至数量i达到数量N,N大于等于2;选取均方根误差最小对应的基模型集合,得到已训练的基模型集合。
在一个实施例中,基模型训练模块820还用于采用bootstrap方法对训练集抽样,得到多个训练子集。
在一个实施例中,样本获取模块810还用于根据预设时间窗口,采集部署于云环境中仿真应用的内存数据集;采用箱线图方式,查找内存数据集中异常值;基于时间顺序定位异常值,并基于时间顺序使用异常值对应的上一样本和下一样本替代异常值,得到云仿真应用内存数据的样本集。
另外,如图9所示,本申请还提供一种云仿真内存资源预测方法,包括:
S920:采集云仿真应用状态信息;
S940:将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,已训练的云仿真内存资源预测模型由上述方法构建;
S960:获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
上述云仿真内存资源预测方法,基于已训练的云仿真内存资源预测模型进行云仿真应用内存资源预测,已训练的云仿真内存资源预测模型基于BP神经网络、随机森林以及高斯线性回归三种网络堆积训练得到,其中,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此可以实现云仿真内存资源的准确预测。
在一个实施例中,上述云仿真内存资源预测方法还包括:
监控分配至云仿真应用的内存资源;根据上一时刻预测得到的云仿真应用内存资源预测结果和当前时刻的云仿真应用的内存资源,反馈更新已训练的云仿真内存资源预测模型。
在本实施例中,针对云仿真内存资源预测还引入迭代更新机制,即将上一时刻的预测值与当前时刻的云仿真应用的内存资源做比较进行反馈,采取反馈更新的机制来更新已训练的云仿真内存资源预测模型,以使云仿真内存资源预测模型预测越来越接近真实值,整个云仿真内存资源预测方案预测越来越准确。
另外,如图10所示,本申请还提供一种云仿真内存资源预测装置,包括:
数据采集模块970,用于云仿真应用状态信息;
数据输入模块980,用于将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,已训练的云仿真内存资源预测模型由上述方法构建;
预测模块990,用于获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
上述云仿真内存资源预测装置,基于已训练的云仿真内存资源预测模型进行云仿真应用内存资源预测,已训练的云仿真内存资源预测模型基于BP神经网络、随机森林以及高斯线性回归三种网络堆积训练得到,其中,随机森林需要调整的超参数较少,预测效果较好且非常稳定,BP神经网络可以很好的表示非线性关系并且耐噪声,高斯过程回归可以通过概率预测来量化预测中的不确定性,因此可以实现云仿真内存资源的准确预测。
如图11所示,本申请云仿真内存资源预测装置具体可以包括云资源模块、数据集模块以及内存资源预测模型模块三个部分。
云资源模块主要用于监视仿真应用状态与分配仿真应用所需内存资源。监控器会实时监控仿真应用运行状态,并将监控信息返回给数据集模块。分配器会根据内存预测模型所预测的内存资源与可提供的云资源,将仿真应用分发到相应的计算节点上。
数据集模块对仿真应用静态与动态信息进行收集与预处理。静态信息包括仿真实体数,仿真结束时间信息。动态信息包括仿真应用运行信息与云资源信息。仿真应用运行信息包括CPU利用率,内存利用率,仿真事件回滚数,仿真运行时间,网络时延,网络接收/发送消息。数据集模块会对收集到的数据进行标准化处理,以消除量纲的不一致,以供内存资源预测模型的训练与测试。
内存资源预测模型使用历史数据来训练集成模型,即形成了反馈环,解决了内存资源预测数据量不足的问题。我们选取了stacking集成策略来完成对内存资源的预测,该策略包括两层模型。集成模型的性能与各基模型的多样性有关,为了增加基模型之间的多样性,我们选取随机森林与BP神经网络作为第一层基模型,高斯过程回归作为第二层基模型来产生最终的概率预测。提出的集成模型能准确的预测仿真应用所需内存资源。最后将预测的结果输出到云资源模块中。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图上述流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
关于云仿真内存资源预测模型构建装置的具体限定可以参见上文中对于云仿真内存资源预测模型构建方法的限定,在此不再赘述。上述云仿真内存资源预测模型构建装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图12所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储历史样本数据或预设基模型等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种云仿真内存资源预测模型构建方法或云仿真内存资源预测方法。
本领域技术人员可以理解,图12中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取云仿真应用内存数据的样本集,样本集包括训练集和验证集;
获取预设基模型,由训练集训练预设基模型,得到已训练的基模型,预设基模型基于BP神经网络和随机森林构建;
将验证集中输入数据输入至已训练的基模型,得到验证集预测结果;
根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取多个预设基模型,将训练集随机分为多个训练子集;采用单个训练子集对单个预设基模型进行训练,得到多个初始已训练的基模型;获取每个初始已训练的基模型的预测结果均方根误差;基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合,已训练的基模型集合中包括多个已训练的基模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取初始已训练的基模型的数量N;将每个初始已训练的基模型按照对应的预测结果均方根误差排序,得到排序队列;根据排序队列依次选择不同数量i的初始已训练的基模型,计算均方根误差,直至数量i达到数量N,N大于等于2;选取均方根误差最小对应的基模型集合,得到已训练的基模型集合。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
采用bootstrap方法对训练集抽样,得到多个训练子集。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据预设时间窗口,采集部署于云环境中仿真应用的内存数据集;采用箱线图方式,查找内存数据集中异常值;基于时间顺序定位异常值,并基于时间顺序使用异常值对应的上一样本和下一样本替代异常值,得到云仿真应用内存数据的样本集。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
采集云仿真应用状态信息;
将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,已训练的云仿真内存资源预测模型由上述方法构建;
获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
监控分配至云仿真应用的内存资源;根据上一时刻预测得到的云仿真应用内存资源预测结果和当前时刻的云仿真应用的内存资源,反馈更新已训练的云仿真内存资源预测模型。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取云仿真应用内存数据的样本集,样本集包括训练集和验证集;
获取预设基模型,由训练集训练预设基模型,得到已训练的基模型,预设基模型基于BP神经网络和随机森林构建;
将验证集中输入数据输入至已训练的基模型,得到验证集预测结果;
根据验证集预测结果生成新的训练样本,并根据训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
根据已训练的基模型以及已训练的元模型,构建云仿真内存资源预测模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取多个预设基模型,将训练集随机分为多个训练子集;采用单个训练子集对单个预设基模型进行训练,得到多个初始已训练的基模型;获取每个初始已训练的基模型的预测结果均方根误差;基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合,已训练的基模型集合中包括多个已训练的基模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取初始已训练的基模型的数量N;将每个初始已训练的基模型按照对应的预测结果均方根误差排序,得到排序队列;根据排序队列依次选择不同数量i的初始已训练的基模型,计算均方根误差,直至数量i达到数量N,N大于等于2;选取均方根误差最小对应的基模型集合,得到已训练的基模型集合。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
采用bootstrap方法对训练集抽样,得到多个训练子集。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据预设时间窗口,采集部署于云环境中仿真应用的内存数据集;采用箱线图方式,查找内存数据集中异常值;基于时间顺序定位异常值,并基于时间顺序使用异常值对应的上一样本和下一样本替代异常值,得到云仿真应用内存数据的样本集。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
采集云仿真应用状态信息;
将云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,已训练的云仿真内存资源预测模型由上述方法构建;
获取已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
监控分配至云仿真应用的内存资源;根据上一时刻预测得到的云仿真应用内存资源预测结果和当前时刻的云仿真应用的内存资源,反馈更新已训练的云仿真内存资源预测模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种云仿真内存资源预测模型构建方法,其特征在于,所述方法包括:
获取云仿真应用内存数据的样本集,所述样本集包括训练集和验证集;
获取预设基模型,由所述训练集训练所述预设基模型,得到已训练的基模型,所述预设基模型基于BP神经网络和随机森林构建;
将所述验证集中输入数据输入至所述已训练的基模型,得到验证集预测结果;
根据所述验证集预测结果生成新的训练样本,并根据所述训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
根据所述已训练的基模型以及所述已训练的元模型,构建云仿真内存资源预测模型。
2.根据权利要求1所述的方法,其特征在于,所述获取预设基模型,由所述训练集训练所述预设基模型,得到已训练的基模型包括:
获取多个预设基模型,将所述训练集随机分为多个训练子集;
采用单个训练子集对单个所述预设基模型进行训练,得到多个初始已训练的基模型;
获取每个初始已训练的基模型的预测结果均方根误差;
基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合,所述已训练的基模型集合中包括多个已训练的基模型。
3.根据权利要求2所述的方法,其特征在于,所述基于每个初始已训练的基模型的预测结果均方根误差对多个初始已训练的基模型进行剪枝,得到已训练的基模型集合包括:
获取初始已训练的基模型的数量N;
将每个初始已训练的基模型按照对应的预测结果均方根误差排序,得到排序队列;
根据所述排序队列依次选择不同数量i的初始已训练的基模型,计算均方根误差,直至数量i达到数量N,所述N大于等于2;
选取均方根误差最小对应的基模型集合,得到已训练的基模型集合。
4.根据权利要求2所述的方法,其特征在于,所述将所述训练集随机分为多个训练子集包括:
采用bootstrap方法对所述训练集抽样,得到多个训练子集。
5.根据权利要求1所述的方法,其特征在于,所述获取云仿真应用内存数据的样本集包括:
根据预设时间窗口,采集部署于云环境中仿真应用的内存数据集;
采用箱线图方式,查找所述内存数据集中异常值;
基于时间顺序定位所述异常值,并基于时间顺序使用所述异常值对应的上一样本和下一样本替代所述异常值,得到云仿真应用内存数据的样本集。
6.一种云仿真内存资源预测方法,其特征在于,包括:
采集云仿真应用状态信息;
将所述云仿真应用状态信息输入至已训练的云仿真内存资源预测模型,所述已训练的云仿真内存资源预测模型由权利要求1-5任意一项所述方法构建;
获取所述已训练的云仿真内存资源预测模型输出数据,得到云仿真应用内存资源预测结果。
7.根据权利要求6所述的方法,其特征在于,还包括:
监控分配至云仿真应用的内存资源;
根据上一时刻预测得到的云仿真应用内存资源预测结果和当前时刻的云仿真应用的内存资源,反馈更新所述已训练的云仿真内存资源预测模型。
8.一种云仿真内存资源预测模型构建装置,其特征在于,所述装置包括:
样本获取模块,用于获取云仿真应用内存数据的样本集,所述样本集包括训练集和验证集;
基模型训练模块,用于获取预设基模型,由所述训练集训练所述预设基模型,得到已训练的基模型,所述预设基模型基于BP神经网络和随机森林构建;
验证模块,用于将所述验证集中输入数据输入至所述已训练的基模型,得到验证集预测结果;
元模型训练模块,用于根据所述验证集预测结果生成新的训练样本,并根据所述训练样本对预设高斯过程回归模型进行训练,得到已训练的元模型;
模型构建模块,用于根据所述已训练的基模型以及所述已训练的元模型,构建云仿真内存资源预测模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202011071850.2A 2020-10-09 2020-10-09 云仿真内存资源预测模型构建方法与内存资源预测方法 Active CN112181659B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011071850.2A CN112181659B (zh) 2020-10-09 2020-10-09 云仿真内存资源预测模型构建方法与内存资源预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011071850.2A CN112181659B (zh) 2020-10-09 2020-10-09 云仿真内存资源预测模型构建方法与内存资源预测方法

Publications (2)

Publication Number Publication Date
CN112181659A true CN112181659A (zh) 2021-01-05
CN112181659B CN112181659B (zh) 2023-07-18

Family

ID=73948901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011071850.2A Active CN112181659B (zh) 2020-10-09 2020-10-09 云仿真内存资源预测模型构建方法与内存资源预测方法

Country Status (1)

Country Link
CN (1) CN112181659B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268350A (zh) * 2021-06-07 2021-08-17 上海数禾信息科技有限公司 基于云的服务构建的资源分配方法、装置、计算机设备
CN113362218A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 数据处理方法、装置、电子设备及存储介质
CN113688989A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 深度学习网络加速方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10788900B1 (en) * 2017-06-29 2020-09-29 Snap Inc. Pictorial symbol prediction
CN109240929A (zh) * 2018-09-18 2019-01-18 百度在线网络技术(北京)有限公司 软件质量预测方法、装置、终端和计算机可读存储介质
CN110333991B (zh) * 2019-05-30 2022-11-25 武汉科技大学 云平台任务最大资源使用率预测方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113362218A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 数据处理方法、装置、电子设备及存储介质
CN113268350A (zh) * 2021-06-07 2021-08-17 上海数禾信息科技有限公司 基于云的服务构建的资源分配方法、装置、计算机设备
CN113268350B (zh) * 2021-06-07 2024-01-26 上海数禾信息科技有限公司 基于云的服务构建的资源分配方法、装置、计算机设备
CN113688989A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 深度学习网络加速方法、装置、设备及存储介质
CN113688989B (zh) * 2021-08-31 2024-04-19 中国平安人寿保险股份有限公司 深度学习网络加速方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN112181659B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
Nie et al. Network traffic prediction based on deep belief network in wireless mesh backbone networks
US10360517B2 (en) Distributed hyperparameter tuning system for machine learning
Chirkin et al. Execution time estimation for workflow scheduling
CN112181659B (zh) 云仿真内存资源预测模型构建方法与内存资源预测方法
Paliwal et al. Reinforced genetic algorithm learning for optimizing computation graphs
US9864807B2 (en) Identifying influencers for topics in social media
CN111258767B (zh) 复杂系统仿真应用的云计算资源智能分配方法与装置
CN110187990B (zh) 一种基于模式转移的虚拟机混合备用动态可靠性评估方法
CN112418482B (zh) 一种基于时间序列聚类的云计算能耗预测方法
CN113037877B (zh) 云边端架构下时空数据及资源调度的优化方法
CN106649479B (zh) 一种基于概率图的变压器状态关联规则挖掘方法
CN110858973A (zh) 小区网络流量预测方法及装置
CN111611488A (zh) 基于人工智能的信息推荐方法、装置、电子设备
CN110825522A (zh) Spark参数自适应优化方法及系统
Yamada et al. Feature-selection based data prioritization in mobile traffic prediction using machine learning
CN113282409A (zh) 边缘计算任务的处理方法、装置和计算机设备
CN113158435B (zh) 基于集成学习的复杂系统仿真运行时间预测方法与设备
Kalantari et al. Dynamic software rejuvenation in web services: a whale optimizationalgorithm-based approach
CN114461858A (zh) 一种因果关系分析模型构建及因果关系分析方法
US11977993B2 (en) Data source correlation techniques for machine learning and convolutional neural models
CN115001978A (zh) 一种基于强化学习模型的云租户虚拟网络智能映射方法
Iordache et al. Predicting service level agreement violations in cloud using machine learning techniques
CN116611506B (zh) 用户分析模型训练方法、用户标签确定方法和装置
CN115499305B (zh) 一种分布式集群存储设备的部署方法、装置及电子设备
CN113094899B (zh) 一种随机潮流计算方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant