CN114787776A - 云服务的防违反用户需求装置、防违反用户需求方法及程序 - Google Patents

云服务的防违反用户需求装置、防违反用户需求方法及程序 Download PDF

Info

Publication number
CN114787776A
CN114787776A CN201980102843.3A CN201980102843A CN114787776A CN 114787776 A CN114787776 A CN 114787776A CN 201980102843 A CN201980102843 A CN 201980102843A CN 114787776 A CN114787776 A CN 114787776A
Authority
CN
China
Prior art keywords
model
performance
resource
user
demand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980102843.3A
Other languages
English (en)
Inventor
吴超
堀内信吾
田山健一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of CN114787776A publication Critical patent/CN114787776A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5009Determining service level performance parameters or violations of service level contracts, e.g. violations of agreed response time or mean time between failures [MTBF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/501Performance criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5019Workload prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

即使在因违反用户需求而产生较大惩罚的可能性较高的情况下,也能够对资源设计的结果进行调整而降低容易导致违反用户需求的预测的比率。具有:需求指定功能部(11),其指定针对对象服务的用户需求;以及资源设计部(12),其通过机器学习而预测执行对象服务时的针对多种资源设定能够达成的性能,基于该预测结果而选择满足所指定的用户需求的资源设定,作为用于性能预测的模型,资源设计部(12)生成使用针对N模型加上了在实际性能比预测性能差的情况下成为有限值的函数得到的P模式损失函数的P模型,该N模型使用已有的N模式损失函数。

Description

云服务的防违反用户需求装置、防违反用户需求方法及程序
技术领域
本发明涉及云服务的防违反用户需求装置、防违反用户需求方法及程序。
背景技术
关于在云计算的方面进行执行各种信息处理的服务的云服务、虚拟网络功能VNF(Virtual Network Function),要求根据用户需求、特别是处理负荷(Workload)、性能需求等而能够自动地进行资源设计的技术(例如非专利文献1)。
非专利文献1:“Wu Chao and Shingo Horiuchi,“Intent-based Cloud ServiceManagement”,ICIN 2018,Paris,France,February 2018.”
发明内容
在提供云服务时,在根据用户需求而自动地设计云资源的情况下,即使违反了用户需求的情况下的惩罚不同,也无法调整资源的设计结果。即,无法调整针对违反用户需求的风险,特别是在违反用户需求的惩罚较大的情况下,也产生无法降低违反的风险而导致收益损失等的可能性。
本发明就是鉴于上述实际情形而提出的,其目的在于提供云服务的防违反用户需求装置、防违反用户需求方法及程序,即使在因违反用户需求而产生较大惩罚的可能性较高的情况下,也能够调整资源设计的结果而降低容易导致违反用户需求的预测的比率。
关于本发明的一个方式,具有:需求指定功能部,其指定针对对象服务的用户需求;以及资源设计部,其通过机器学习而预测执行对象服务时的、针对多种资源设定能够达成的性能,基于该预测结果而选择满足由所述需求指定功能部指定的用户需求的资源设定,作为用于性能的预测的模型,所述资源设计部生成使用针对第1模型而加上了在实际性能比预测性能差的情况下成为有限值的函数得到的第2损失函数的第2模型,该第1模型使用已有的第1损失函数。
发明的效果
根据本发明的一个方式,即使在因违反用户需求而产生较大的惩罚的可能性较高的情况下,也能够对资源设计的结果进行调整而降低容易导致违反用户需求的预测的比率。
附图说明
图1是表示本发明的一个实施方式所涉及的资源设计装置的概略功能结构的框图。
图2是表示与该实施方式所涉及的模型生成部的N模型和P模型的生成相关的处理内容的流程图。
图3是表示该实施方式所涉及的预测部的性能预测的处理内容的流程图。
图4是并列表示该实施方式所涉及的P模型和N模型的违反SLA风险VR的图。
图5是并列表示该实施方式所涉及的P模型和N模型的性能预测精度MAPE的图。
图6是整理该实施方式所涉及的图4及图5的结果而以数值表示的图。
具体实施方式
下面,对将本发明应用于作为通过云计算而提供服务的系统的一部分嵌入的资源设计装置的情况下的一个实施方式进行说明。
图1是表示该资源设计装置10的概略功能结构的框图。在该图中,资源设计装置10具有需求指定功能部11、预测部12、日志数据收集部13、模型生成部14以及判定部15。
需求指定功能部11根据包含资源设计装置10在内的云服务的利用者(下面称为“用户”)的操作而进行针对服务的需求的收集、用户需求向预测部12的输出、从预测部12获得的资源设计结果的接收和显示、安装的指示。
更具体而言,作为用户需求,需求指定功能部11指定处理的工作负荷的量、特征、能够容许的性能资源设计装置模式(N模式或P模式)。
作为性能预测模型,资源设计装置10能够设定为N模式(Normal模式)以及P模式(Protection模式:在同样条件下与N模式相比而违反SLA风险更低)。运用资源设计装置10的云服务系统的操作者(下面称为“系统管理者”)或者用户因违反SLA而根据惩罚(Penalty)指定P模式或者N模式。指定利用作为已有的损失函数的N模式损失函数的N模型、以及利用在服务的实际性能比针对该用户需求的预测性能差的情况下加上作为有限值的函数的P模式损失函数的P模型中的至少一者。
进而,在指定了利用P模式损失函数的P模型的性能预测模型的情况下,一并指定在P模式损失函数中使用的定义违反用户需求的惩罚的内容。
日志数据收集部13在相应的云应用程序中针对设想的任务而使机器学习模型的结构、根据处理量而配置的资源变动,收集该条件下的性能的日志数据并进行整形、整理、前处理等。
从日志数据收集部13将日志数据作为模型训练用数据而向模型生成部14送出。
模型生成部14将来自日志数据收集部12A的日志数据作为模型训练数据,在利用需求指定功能部11由用户指定的工作负荷进行处理时,生成对在相应的资源设定条件下能够达成的性能进行预测的N模型以及P模型的各性能预测模型并向预测部12送出。
预测部12利用在模型生成部14生成的N模型以及P模型的性能预测模型,预测在对指定处理量(工作负荷)进行处理时以相应的资源设定条件能够达成的各性能,将各自的预测结果向判定部15送出。
判定部15根据从预测部12获得的性能的预测结果而整理能够满足用户指定的需求的资源设定并选择为资源设计结果。
接下来,对本实施方式的动作进行说明。
接收到来自需求指定功能部11的用户需求的指定的模型生成部14分别生成在N模式以及P模式下预测性能的模型即N模型以及P模型。
这里,为了生成N模型以及P模型,使用下面所示的不同的损失函数,结果能够实现不同的预测趋势。
N模型中使用的N模型损失函数作为已有的损失函数而使用MAPE(Mean AbsolutePercentage Error)、MAE(Mean Absolute Error)等无预测偏差调整效果的函数。换言之,表示实际性能比预测性能好的概率、和实际性能比预测性能差的概率相同。例如在使用MAPE的情况下,该损失函数L可以由下式表示。
【数学式1】
Figure BDA0003685486750000041
式中,N表示用于生成模型的训练数据的数量,“pfmi”表示第i个训练数据中的实际性能,对“pfm”部分标注了伞状记号的“pfm”表示针对第i个训练数据的预测性能。
即,求出由实际性能除从实际性能减去预测性能后的差的绝对值所得的商作为训练数据的误差率,求出从该训练数据的误差率的第1位至第N位的总和,在此基础上,由训练数据的数量N除上述总和而求出平均值,将其结果设为损失函数L。
另外,P模型中使用的P模型损失函数LP可以由下式表示。
【数学式2】
Figure BDA0003685486750000042
在该P模型损失函数LP中,针对前述的N模型损失函数L而求出如下结果,即,针对对各第i位的误差率加上违反用户需求的惩罚“w×P”所得的结果,求出训练数据的误差率的第1位至第N位的总和,在此基础上,由训练数据的数量N除该结果而求出平均值。
这样,对N模式损失函数L加上违反用户需求的惩罚“w×P”,从而在模型生成部14生成模型时,使得预测误差以及违反用户需求的惩罚向最小的方向收敛。因此,违反用户需求的惩罚“w×P”作为相对于N模型损失函数L的有限值的函数而起作用。
违反用户需求的惩罚“w×P”是在用户利用需求指定功能部11指定P模式时一并作为定义惩罚的内容而输入、指定的,“w”设为多种常量,“P”能够如后述那样通过多种函数而设定。
下面,作为P而举出2个例子P1、P2。
【数学式3】
Figure BDA0003685486750000051
Figure BDA0003685486750000052
式中的P1在实际性能比预测性能差的情况下将其百分值的差值(误差率)作为惩罚而给出,另一方面,在并非如此的情况下是无惩罚的例子。
式中的P2在实际性能比预测性能差的情况下将常量1作为惩罚而给出,另一方面,在并非如此的情况下是无惩罚的例子。
图2是表示与利用模型生成部14的N模型和P模型的生成相关的处理内容的流程图。
首先,模型生成部14从日志数据收集部13读出训练数据(步骤S01)。
模型生成部14利用读出的训练数据,执行利用前述的N模式损失函数L的N模型的生成处理(步骤S02)。而且,对生成的N模型进行保存,并且向预测部12输出(步骤S03)。
模型生成部14与上述步骤S02、S03的处理并行地,通过读出的训练数据执行利用前述的P模式损失函数LP的P模型的生成处理(步骤S04)。而且,对生成的P模型进行保存,并且向预测部12输出(步骤S05)。
在结束步骤S03以及步骤S05这两者的处理的时刻,模型生成部14暂时结束模型生成的处理。
图3是表示在利用预测部12指定了仅选择性地执行N模型和P模型的性能预测中的一者的情况下,预测部12执行的处理内容的流程图。
预测部12首先根据用户或者系统管理者所指定的性能预测的模式是否为N模式而判断是否指定了N模式和P中的任一者(步骤S11)。
在判断为所指定的是N模式的性能预测的情况下(步骤S11的Yes),在预测部12中读出N模型(步骤S12),利用读出的N模型而执行性能预测的处理(步骤S13)。
预测部12将获取的N模型的性能预测结果向判定部15输出(步骤S16),如上,暂时结束性能预测的处理。
另外,在步骤S11中,在判断为所指定的不是N模式,而是包含违反用户需求的惩罚“w×P”在内的P模型的性能预测的情况下(步骤S11的No),在预测部12中读出P模型(步骤S14),利用读出的P模型而执行性能预测的处理(步骤S15)。
预测部12将获取的P模型的性能预测结果向判定部15输出(步骤S16),如上,暂时结束性能预测的处理。
此外,在图3的处理中,对预测部12选择性地指定了N模型和P模型的性能预测中的一者的情况下的动作进行说明,在指定了N模型和P模型的各性能预测这两者的情况下,并行地执行步骤S12、S13的处理和步骤S14、S15的处理,在步骤S16中整理N模型和P模型的各性能预测的预测结果并向判定部15输出。
判定部15为了评价违反用户需求的防止效果而使用下面所示的违反用户需求风险指标VR(Violation Risk)。
【数学式4】
Figure BDA0003685486750000061
Figure BDA0003685486750000062
违反用户需求风险指标VR表示在进行M次的性能预测时容易导致违反用户需求的预测次数的比率,VR的值越大,越容易产生违反用户需求。
下面,对通过N模型和P模型的性能预测而进行违反用户需求的风险评价的情况下的安装例进行说明。
这里,通过使用资源设计装置10的机器学习服务MLaaS(Machine Learning as aService)使用23,046组的日志数据,调整分别对N模型和P模型进行训练的结果。
在本实施方式中,利用5折交叉验证(5-fold cross-validation)(训练数据80%/验证数据20%)对P模式以及N模式的执行时间预测误差以及防违反用户需求风险进行评价。
图4是并列表示安装了多种w、P(w=1,10,100、P=P1,P2(参照数学式3))的P模型和N模型的、违反SLA风险VR的图。
这里,设为w=100、P=P2的P模型的违反SLA风险VR为最小的值。如图所示,可知P模型与N模型相比能够降低违反用户需求风险VR。进而,可知,在P模型中设定为不同的w、P而用户能够任意地调整违反用户需求风险VR。
图5是并列表示相同地安装了多种w、P(w=1,10,100、P=P1,P2(参照数学式3))的P模型和N模型的、性能预测精度MAPE的图。
这里,设为w=1、P=P2的P模型的性能预测精度为最大的值。如图所示,与N模型相比,P模型能够降低违反用户需求风险,但性能预测精度有可能略微改变。
图6是整理图4以及图5的结果而由数值表示的图。
在实际运用中,根据违反用户需求的惩罚的程度,考虑违反风险以及预测精度的平衡而选择N模式或者P模型,并且在选择了P模型的情况下适当地设定w、P。
如以上详细所述,根据本实施方式,即使在因违反用户需求而产生较大的惩罚的可能性较高的情况下,也能够对资源设计的结果进行调整而降低容易导致违反用户需求的预测的比率。
另外,在本实施方式中,用户能够任意地进行用于定义在P模型的机器学习性能预测中使用的P模式损失函数中的惩罚“w×P”的指定,因此能够选定为尽量避免违反用户需求。
并且,在本实施方式中,用户或者系统管理者能够选择指定N模式以及P模式的性能预测模型中的至少一者,因此能够适当地选定利用与状况相应的损失函数的性能预测模型。
本发明的装置还能够由计算机和程序实现,能够通过网络提供将程序记录于记录介质的方案。
除此以外,本申请发明并不限定于所述实施方式,在实施阶段能够在不脱离其主旨的范围内进行各种变形。另外,所述实施方式中包含各种阶段的发明,能够通过公开的多个技术特征的适当的组合而提炼出各种发明。例如,即使从实施方式所示的所有技术特征删除几个技术特征,也能够解决本发明要解决的问题一栏叙述的问题,在能够获得在发明的效果一栏叙述的效果的情况下,将删除了该技术特征的结构提炼为发明。
标号的说明
10…资源设计装置
11…需求指定功能部
12…预测部
13…日志数据收集部
14…模型生成部
15…判定部。

Claims (5)

1.一种云服务的防违反用户需求装置,其中,
所述云服务的防违反用户需求装置具有:
需求指定功能部,其指定针对对象服务的用户需求;以及
资源设计部,其通过机器学习而预测执行对象服务时的针对多种资源设定能够达成的性能,基于该预测结果而选择满足由所述需求指定功能部指定的用户需求的资源设定,
作为用于性能的预测的模型,所述资源设计部生成使用针对第1模型而加上了在实际性能比预测性能差的情况下成为有限值的函数得到的第2损失函数的第2模型,该第1模型使用已有的第1损失函数。
2.根据权利要求1所述的云服务的防违反用户需求装置,其中,
所述需求指定功能部指定成为所述有限值的函数的定义。
3.根据权利要求1或2所述的云服务的防违反用户需求装置,其中,
所述需求指定功能部指定所述第1模型以及第2模型中的至少一者的生成,
所述资源设计部基于由所述需求指定功能部指定的所述第1模型以及第2模型中的至少一者,通过机器学习对能够达成的性能进行预测。
4.一种云服务的防违反用户需求方法,其中,
所述云服务的防违反用户需求方法具有:
需求指定功能工序,指定针对对象服务的用户需求;以及
资源设计工序,通过机器学习对执行对象服务时的针对多种资源设定能够达成的性能进行预测,基于该预测结果而选择满足通过所述需求指定功能工序指定的用户需求的资源设定,
在所述资源设计工序中,作为用于性能的预测的模型,生成使用针对第1模型而加上了在实际性能比预测性能差的情况下成为有限值的函数得到的第2损失函数的第2模型,该第1模型使用已有的第1损失函数。
5.一种程序,其中,
所述程序使云服务的防违反用户需求装置的处理器执行权利要求1至3中任一项所述的云服务的防违反用户需求装置具有的各功能部的处理。
CN201980102843.3A 2019-12-09 2019-12-09 云服务的防违反用户需求装置、防违反用户需求方法及程序 Pending CN114787776A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/048025 WO2021117081A1 (ja) 2019-12-09 2019-12-09 クラウドサービスのユーザ要件違反防止装置、ユーザ要件違反防止方法及びプログラム

Publications (1)

Publication Number Publication Date
CN114787776A true CN114787776A (zh) 2022-07-22

Family

ID=76329888

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980102843.3A Pending CN114787776A (zh) 2019-12-09 2019-12-09 云服务的防违反用户需求装置、防违反用户需求方法及程序

Country Status (5)

Country Link
US (1) US20230009195A1 (zh)
EP (1) EP4075273A4 (zh)
JP (1) JP7315026B2 (zh)
CN (1) CN114787776A (zh)
WO (1) WO2021117081A1 (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8732291B2 (en) * 2012-01-13 2014-05-20 Accenture Global Services Limited Performance interference model for managing consolidated workloads in QOS-aware clouds
JP6763316B2 (ja) * 2017-02-02 2020-09-30 富士通株式会社 性能要件推定プログラム、性能要件推定装置、および性能要件推定方法
JP6922670B2 (ja) * 2017-11-08 2021-08-18 日本電信電話株式会社 リソース決定装置、リソース決定方法およびリソース決定処理プログラム

Also Published As

Publication number Publication date
JPWO2021117081A1 (zh) 2021-06-17
JP7315026B2 (ja) 2023-07-26
US20230009195A1 (en) 2023-01-12
EP4075273A1 (en) 2022-10-19
EP4075273A4 (en) 2023-07-26
WO2021117081A1 (ja) 2021-06-17

Similar Documents

Publication Publication Date Title
US10402225B2 (en) Tuning resources based on queuing network model
US8195800B2 (en) Computer resource distribution method based on prediction
JP4739472B2 (ja) 性能予測装置および方法、記録媒体
CN100485623C (zh) 用于动态资源分配的方法和系统
US7543060B2 (en) Service managing apparatus for keeping service quality by automatically allocating servers of light load to heavy task
US20110072253A1 (en) Method, system and program product for determining an optimal configuration and operational costs for implementing a capacity management service
US20090055834A1 (en) Virtualization planning system
US11789702B2 (en) Automatic derivation of software engineering artifact attributes
JP5121936B2 (ja) リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
Delgoshaei et al. An applicable method for modifying over-allocated multi-mode resource constraint schedules in the presence of preemptive resources
EP3722945B1 (en) Program operation system and program operation method
Al Hanbali et al. Approximations for the waiting-time distribution in an M/PH/c M/PH/c priority queue
US12014210B2 (en) Dynamic resource allocation in a distributed system
CN114787776A (zh) 云服务的防违反用户需求装置、防违反用户需求方法及程序
US12026554B2 (en) Query-response system for identifying application priority
CN115061811A (zh) 一种资源调度方法、装置、设备及存储介质
Talia et al. The grid backfilling: a multi-site scheduling architecture with data mining prediction techniques
EP3599547A1 (en) Elastic storage volume type selection and optimization engine for public cloud environments
WO2021171431A1 (ja) 仮想マシンの接続制御装置、仮想マシンの接続制御システム、仮想マシンの接続制御方法およびプログラム
Fan et al. Performance prediction of network-intensive systems in cloud environment: a Bayesian approach
Gorbunova et al. On Estimating the Average Response Time of High-Performance Computing Environments
CN118860812A (zh) 预测负载的方法、模型训练方法、装置及相关设备
CN117726225A (zh) 一种主网过程建设质量管控评估方法、装置、设备及介质
Antal et al. Self-adaptive task scheduler for dynamic allocation in energy efficient data centers
CN114020422A (zh) 一种任务处理方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination