CN115033377A - 基于集群服务器的服务资源预测方法、装置和电子设备 - Google Patents
基于集群服务器的服务资源预测方法、装置和电子设备 Download PDFInfo
- Publication number
- CN115033377A CN115033377A CN202210590438.4A CN202210590438A CN115033377A CN 115033377 A CN115033377 A CN 115033377A CN 202210590438 A CN202210590438 A CN 202210590438A CN 115033377 A CN115033377 A CN 115033377A
- Authority
- CN
- China
- Prior art keywords
- service
- server
- processed
- resource
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明属于计算机技术领域,提供一种基于集群服务器的服务资源预测方法、装置、电子设备,该方法包括:接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求;确定所述集群服务器可提供的服务中是否包括所述待处理服务;获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据;根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。本发明能够实现预测性动态调度,能够优化服务资源的调度过程,能够解决因压低高负载机器而扩增大量冗余机器等的问题。
Description
技术领域
本发明属于计算机技术领域,更具体的是涉及一种基于集群服务器的服务资源预测方法、装置和电子设备。
背景技术
目前,互联网领域中常规资源调度能力,例如基于k8s的调度器,或者是基于mesos的调度器,仅仅在创建服务的副本时声明了对服务器的资源要求,例如cpu,内存,存储等,尤其是对于服务本身存在周期性的资源使用波动表现或者是服务的资源要求和实际使用差距较大的场景,均没有考虑过去已使用的情况或者是未来可能的资源使用表现。
对于存在周期性的资源使用波动表现的服务,为了保持服务自身的稳定,会在低峰期进行更新或者维护等调度操作,如果服务的资源要求和高峰资源使用量一致,那么使用常规调度后,会带来低峰期间的资源浪费(服务器资源总量是固定的,服务创建之后对应的资源额度在整个服务生命周期期间被永久占用,直到服务被删除或者被从该服务器移除);如果服务的资源要求和高峰资源使用量不一致,那么使用常规调度后,大概率会出现多种存在同样周期的服务集中在同一组的服务器上,造成高峰期间,不同的服务器之间资源使用将会有高有低,产生不均衡的情况,而在常规手段下,想要解决这种问题,只能增加服务器数量来压低高资源使用率的服务器,来保证服务的稳定,但是这样就变相的降低了资源的密度和使用率。
因此,有必要提供一种更有效的服务资源预测方法。
发明内容
(一)要解决的技术问题
本发明旨在解决因周期性或服务资源要求和实际使用间存在差距的服务带来的服务器间资源使用不均衡的问题,进而解决如何有效避免因压低高负载机器而扩增大量冗余机器等的问题,以及如何有效提高资源使用密度等问题。
(二)技术方案
为解决上述技术问题,本发明的一方面提出一种基于集群服务器的服务资源预测方法,所述服务资源预测方法包括:接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求;确定所述集群服务器可提供的服务中是否包括所述待处理服务;获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据;根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
根据本发明的优选实施方式,所述获取所述集群服务器的指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量包括:确定所述集群服务器可提供的服务中包括所述待处理服务请求中的待处理服务,并确定计算参数;根据所确定的计算参数,计算所述集群服务器中各服务器在当前周期所提供服务的当前资源使用量:
其中,Zi是指第i个服务器的各服务的服务副本在当前周期(Ti)的资源使用量,其中,ceil()是取整函数,是指将()内的计算值向下取整后的整数值;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的CPU使用的最高峰值;CPU期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务内存使用的峰值;memory期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的峰值;日志i使用量是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的正常使用量;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的最高峰值;峰值响应延迟i使用量是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的正常使用量;α、β、γ、δ是与CPU、内存、日志吞吐量、响应时延相对应的权重因子。
根据本发明的优选实施方式,所述根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况包括:根据所确定的各服务器的当前资源使用量,生成各服务器的资源使用总量的多维矩阵,预测所述各服务器在下一周期(Ti+1)的资源使用总量。
根据本发明的优选实施方式,还包括:根据所预测的所述各服务器在下一周期(Ti+1)的资源使用总量和所确定的待处理服务的当前资源使用量,进行服务资源调度。
根据本发明的优选实施方式,包括:根据所获取的所述集群服务器的指定时间窗口的历史运行数据,对各服务在所述集群服务器中各服务器的资源使用量进行趋势拟合,以生成趋势图;根据所述趋势图,计算所述各服务器在下一周期(Ti+1)的资源使用总量,并根据所确定的待处理服务的资源使用需求量,进行服务资源调度。
根据本发明的优选实施方式,包括:使用深度神经网络算法,将所述历史运行数据作为参数进行训练,以得到训练好的服务资源使用模型;将所述待处理服务的资源需求量和服务类型输入所述训练好的服务资源使用模型,输出可提供服务的服务器列表。
根据本发明的优选实施方式,所述确定计算参数包括:根据待处理服务的类型,确定计算参数,所述计算参数包括分别与CPU、内存、日志吞吐量、响应时延的权重因子α、β、γ、δ。
可选地,所述待处理服务为周期性服务。
可选地,所述指定时间窗口为特定数量的自当前周期向前推算的指定数量的周期时间或指定时间内的周期时间。
可选地,基于所述各服务器的预测服务资源使用情况,向所述待处理服务请求的请求方返回相匹配的服务器列表。
本发明第二方面提出一种用于服务集群的服务资源预测装置,包括:接收模块,用于接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求;确定模块,用于确定所述集群服务器可提供的服务中是否包括所述待处理服务;获取处理模块,用于获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据;预测模块,根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
本发明第三方面提出一种电子设备,包括处理器和存储器,所述存储器用于存储计算机可执行程序,当所述计算机程序被所述处理器执行时,所述处理器执行所述的服务资源预测方法。
本发明第四方面提出一种计算机可读介质,存储有计算机可执行程序,所述计算机可执行程序被执行时,实现所述的服务资源预测方法。
(三)有益效果
与现有技术相比,本发明通过确定所述集群服务器可提供的服务中是否包括所述待处理服务,并确定可提供该待处理服务的服务器,由此,能够实时确定可提供该待处理服务的服务器,并能够快速且即时为后续服务资源预测提供精确的数据;通过获取所述集群服务器在指定时间窗口的历史运行数据,进行计算,能够精确确定所述集群服务器中各服务器所提供服务的当前资源使用量;根据所确定的各服务器的当前资源使用量,能够精确预测所述各服务器的服务资源使用情况;能够实现预测性动态调度,能够优化服务资源的调度过程,能够解决因压低高负载机器而扩增大量冗余机器等的问题。
进一步地,通过计算各服务器分数,并根据所计算的各服务器分数进行预测性动态调度,能够进一步优化服务资源的调度过程,能够进一步解决因压低高负载机器而扩增大量冗余机器等的问题,还能够更有效提高资源使用密度。
附图说明
图1是本发明的实施例1的基于集群服务器的服务资源预测方法的一示例的流程图;
图2是本发明的实施例1的基于集群服务器的服务资源预测方法的一应用场景的示意图;
图3是本发明的实施例1的基于集群服务器的服务资源预测方法的另一示例的流程图;
图4是本发明的实施例2的用于集群服务器的服务资源预测装置的一示例的结构示意框图;
图5是本发明的实施例2的用于集群服务器的服务资源预测装置的另一示例的结构示意框图;
图6是本发明的实施例2的用于集群服务器的服务资源预测装置的又一示例的示意图;
图7是本发明的一个实施例的电子设备的结构示意图;
图8是本发明的一个实施例的计算机可读记录介质的示意图。
具体实施方式
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理单元装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
鉴于上述问题,本发明提出了一种基于集群服务器的服务资源预测方法,该方法从服务的cpu、内存、磁盘等维度对服务器未来的资源使用情况进行预测,并进行资源使用量的预测计算,以从现有的服务器组中选出最优的服务器,将待处理服务分配在该服务器上,使得不同服务器之间的资源持续处于均衡的状态下,有效避免了因压低高负载机器而扩增大量冗余机器等的问题,还能够更有效提高资源使用密度。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
图1是本发明的实施例1的基于集群服务器的服务资源预测方法的一示例的流程图。
如图1所示,所述服务资源预测方法包括如下步骤:
步骤S101,接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求。
步骤S102,确定所述集群服务器可提供的服务中是否包括所述待处理服务。
步骤S103,获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据。
步骤S104,根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
图2是本发明的实施例1的基于集群服务器的服务资源预测方法的一应用场景的示意图。
在图2的应用场景中,所述集群服务器包括服务器1~服务器10(或者服务器A~G10个服务器),所述集群服务器与调度器、监控器可数据交互的调度器。具体地,所述调度器可获取所述集群服务器中各服务器的资源使用数据、可提供资源数据以及可提供的服务数据等。所述监控器对所述集群服务器中各服务器监控,并即时获取相应数据。
具体地,服务器1(或者服务器A)包括可提供服务的服务类型a、服务类型b,以及与各服务类型对应的副本。服务器2(或者服务器B)包括可提供服务的服务类型a、服务类型b和服务器d,以及与各服务类型对应的副本。此外,服务器10包括可提供服务的服务类型a、服务类型b、服务器d和服务器f,以及与各服务类型对应的副本。
下面将参照图1和图2,具体说明本发明的服务资源预测方法。
首先,在步骤S101,接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求。
具体地,例如通过调度器接收待处理服务请求,对该待处理服务请求进行识别分析,并确定所述待处理服务请求中的待处理服务的服务类型(包括是否为新增服务)、服务时间等。具体可参见图2中服务器1中虚线框内的新建服务类型c。
在一实施方式中,例如,服务器管理平台或者调度器接收相关业务人员创建服务副本的服务创建请求,记录创建副本所属的服务对服务器的资源需求量、资源使用时间、服务类型等,但是不限于此,在其他实施方式中,还包括且不限于对CPU、内存、网络等的其他需求或要求数据。
在另一实施方式中,调度器接收相关业务人员的服务更新请求,记录与服务更新相关的数据,例如更新时间、资源需求量、服务类型等。
需要说明的是,上述仅作为示例进行说明,不能理解成对本发明的限制。
接下来,在步骤S102中,确定所述集群服务器可提供的服务中是否包括所述待处理服务。
在一实施方式中,例如从所述监控器即时获取所述集群服务器中各服务器的监控信息,该监控信息例如包括可提供服务资源的服务器标识、服务器数量、可提供服务时间、可提供服务的服务类型等。
具体地,根据即时获取的各服务器的所述监控信息,实时确定所述集群服务器可提供的服务中是否包括所述待处理服务。
可选地,所述待处理服务为周期性服务。
在一实施方式中,在所述待处理服务请求为服务更新请求的情况下,确定所述集群服务器可提供的服务中包括所述待处理服务请求中的待处理服务。
具体地,图2所示的示例中,实时确定所述集群服务器可提供的服务中包括所述待处理服务(即待更新的服务),并且由服务器1~服务器5可提供所述待处理服务。例如,待处理服务为更新服务类型b。
在另一实施方式中,直接遍历整个集群的服务器列表,对于每个服务器,遍历该服务器上所有的服务,以确定是否包括所述待处理服务请求中的待处理服务。
通过确定所述集群服务器可提供的服务中是否包括所述待处理服务,并确定可提供该待处理服务的服务器,由此,能够实时确定可提供该待处理服务的服务器,并能够快速且即时为后续服务资源预测提供精确的数据。
需要说明的是,上述仅作为示例进行说明,不能理解成对本发明的限制。
接下来,在步骤S103中,获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据。
具体地,调用指定时间窗口的历史运行数据,其中,所述指定时间窗口为特定数量的自当前周期向前推算的指定数量的周期时间或指定时间内的周期时间。
进一步地,所述历史运行数据包括cpu使用率、内存、磁盘、响应速度、GPU(图形处理器)、资源执行服务的资源使用量或使用率、服务器标识(例如服务器IP)等信息数据。
需要说明的是,所述历史运行数据中服务资源使用是具备一定程度的规律性的,这个规律性例如为以天为单位,以6个小时、12小时或者一周等时间为单位。在本实施方式中,所述指定时间窗口为一天。
可选地,相关业务人员(例如运维人员)迪过查询监控器,调用指定时间窗口的历史运行数据。向监控器发送数据查询请求,在监控器接收到该数据查询请求时,调用相应的历史运行数据,并返回给所述相关业务人员。
具体地,根据待处理服务的类型,确定计算参数,所述计算参数包括分别与CPU、内存、日志吞吐量、响应时延对应的权重因子α、β、γ、δ。
需要说明的是,所述计算参数还包括磁盘等相关因素,且包括与磁盘相对应的权重因子。但是不限于此,上述仅作为可选示例进行说明,不能理解成对本发明的限制。
优选地,使用如下表达式(1),根据确定的计算参数,计算所述集群服务器中各服务器在当前周期所提供服务的当前资源使用量:
日志Ti-1最高峰值日志i使用量+δ*峰值响应延迟Ti-1最高峰值峰值响应延迟i使用量(1)
其中,Zi是指第i个服务器的各服务的服务副本在当前周期(Ti)的资源使用量,其中,ceil()是取整函数,是指将()内的计算值向下取整后的整数值;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的CPU使用的最高峰值;CPU期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务内存使用的峰值;memory期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的峰值;日志i使用量是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的正常使用量;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的最高峰值;峰值响应延迟i使用量是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的正常使用量;α、β、γ、δ分别是与CPU、内存、日志吞吐量、响应时延相对应的权重因子。
需要说明的是,在本实施方式中,在上述计算过程中,使用上一周期的历史运行数据,但是不限于此,还可以使用上一周期(Ti-1)、再上一周期(Ti-2)两个历史周期或两个历史周期以上的历史运行数据进行计算。上述仅作为可选示例进行说明,不能理解成对本发明的限制。对于ceil,ceil函数指向上取整,例:ceil(1.5)=2。
此外,权重因子α、β、γ、δ四个值,根据各个服务类型不同各有侧重,不同服务类型对应不同的α、β、γ、δ四个值,对于大数据类的服务,处理的数据量较大,所以memory资源对应的权重β就会比其他要高,这几个权重是可配置的,在本实施方式中,例如分别为7、7、24、7。再例如,服务类型a对应的α、β、γ、δ为α>β、γ>δ;服务类型b对应的α、β、γ、δ为α<β、γ>δ等。对于各参数的期望值,所述期望值是指,当上线一个服务的时候,运维人员会要求服务提供自己服务的资源预估和性能预估,就是大约使用多少资源量的预估,或者业务对该服务进行压测来提供这个资源使用预估值。
进一步地,所述根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
例如,在图2所示的示例中,根据所确定的服务器1~服务器5的当前资源使用量,预测服务器1~服务器5的服务资源使用情况。
因此,通过获取所述集群服务器在指定时间窗口的历史运行数据,进行计算,能够精确确定所述集群服务器中各服务器所提供服务的当前资源使用量。
需要说明的是,上述仅作为可选示例进行说明,不能理解成对本发明的限制
接下来,在步骤S104中,根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
具体地,根据所确定的各服务器(在本实施方式中,为服务器2和服务器5)的当前资源使用量,生成各服务器的资源使用总量的多维矩阵,预测所述各服务器在下一周期(Ti+1)的资源使用总量。
对于各服务器在下一周期(Ti+1)的资源使用总量的计算,例如,根据所获取的所述集群服务器的指定时间窗口的历史运行数据,对各服务在所述集群服务器中各服务器的资源使用量进行趋势拟合,以生成趋势图。
进一步地,根据所述趋势图,计算所述各服务器在下一周期(Ti+1)的资源使用总量,并根据所确定的待处理服务的资源使用需求量,进行服务资源调度。
更进一步地,根据所预测的所述各服务器在下一周期(Ti+1)的资源使用总量和所确定的待处理服务的当前资源使用量,进行服务资源调度。
可选地,使用深度神经网络算法,将所述历史运行数据作为参数进行训练,以得到训练好的服务资源使用模型。
具体地,将所述待处理服务的资源需求量和服务类型输入所述训练好的服务资源使用模型,输出可提供服务的服务器列表,并进一步根据所述服务器列表进行服务资源调度。例如所述服务器列表为服务器1、服务器3、服务器5、服务器2和服务器4。
在另一实施方式中,可以将上述表达式(1)拆成两个公式:1)计算可提供待处理服务的每个服务器上某个服务(服务类型a)在当前周期的资源使用量。2)可提供待处理服务的每个服务器上所有服务在当前资源周期、上一周期或者上几个周期内的资源使用量进行累,得到各服务器的资源使用总量。
在又一实施方式中,通过如下步骤计算可提供待处理服务的每个服务器的资源使用总量:
1)遍历服务集群中的服务拓扑关系,通过服务器IP的方式,查询该服务器上所有的服务副本,并将结果返回给用户(例如请求待处理服务的用户)。
2)遍历获取到的各服务器的服务副本列表,对于每个服务副本,获取所述服务副本的计算参数数据,生成所述服务器上每个服务副本和对应的二维矩阵
3)遍历所生成的记录各服务器上的每个服务副本和对应的二维矩阵或更多维矩阵,进行数据累计计算,即得到了各服务器的资源使用总量。
4)使用如下表达式(2),进一步计算各服务器的预测分数。
当前服务器的预测分数=c*(max-当前服务器的资源使用总量)/(max-min)(2)
其中,max是指所述服务器集群中所有服务器中资源使用总量的最高值;min是指所述服务器集群中所有服务器中资源使用总量的最低值;c为计算系数,该计算系数例如为10,还可以为100,或者10~100之间的任一数,根据具体服务类型和服务器等影响参数确定。
对于二维矩阵,例如,
|服务类型/服务器|服务器A|服务器B|服务器C|
|服务类型a|1|2|3|
|服务类型b|4|5|6|。
在上述示例中,获取各服务器服务副本和对应的二维矩阵,按照预设算法计算各服务器分数,并按照分数高低对服务器进行排序,将最高分数的服务器作为最优选择。
由此,根据所确定的各服务器的当前资源使用量,能够精确预测所述各服务器的服务资源使用情况。通过计算各服务器分数,并根据所计算的各服务器分数进行预测性动态调度,能够进一步优化服务资源的调度过程,能够进一步解决因压低高负载机器而扩增大量冗余机器等的问题,还能够更有效提高资源使用密度。
进一步地,将待处理服务分配给最高分数的服务器,并将这种待处理服务与被分配服务器的关联关系,进行记录,并存储到相应的数据存储模块。
更进一步地,对于数据存储过程:数据存储模块在将上述关联关系存储之前,先判断是否为新建服务副本或者先判断是否是新创建服务,具体将该服务对应的服务副本和服务器IP写入服务拓扑中。
需要说明的是,上述仅作为优选的示例进行说明,不能理解成对本发明的限制。上述方法的过程仅用于对本发明的说明,其中,步骤的顺序和数量没有特别的限制。此外,上述方法中的步骤还可以拆分成两个(例如将步骤S104拆分成步骤S104和步骤S201,即在步骤S104之后增加“计算各服务器分数,并根据所计算的各服务器分数进行预测性动态调度”的步骤S201,具体参见图3)、三个,或者有些步骤也可以合并成一个步骤,根据实际示例进行调整。
本领域技术人员可以理解,实现上述实施例的全部或部分步骤被实现为由计算机数据处理设备执行的程序(计算机程序)。在该计算机程序被执行时,可以实现本发明提供的上述方法。而且,所述的计算机程序可以存储于计算机可读存储介质中,该存储介质可以是磁盘、光盘、ROM、RAM等可读存储介质,也可以是多个存储介质组成的存储阵列,例如磁盘或磁带存储阵列。所述的存储介质不限于集中式存储,其也可以是分布式存储,例如基于云计算的云存储。
与现有技术相比,本发明通过确定所述集群服务器可提供的服务中是否包括所述待处理服务,并确定可提供该待处理服务的服务器,由此,能够实时确定可提供该待处理服务的服务器,并能够快速且即时为后续服务资源预测提供精确的数据;通过获取所述集群服务器在指定时间窗口的历史运行数据,进行计算,能够精确确定所述集群服务器中各服务器所提供服务的当前资源使用量;根据所确定的各服务器的当前资源使用量,能够精确预测所述各服务器的服务资源使用情况;能够实现预测性动态调度,能够优化服务资源的调度过程,能够解决因压低高负载机器而扩增大量冗余机器等的问题。
进一步地,通过计算各服务器分数,并根据所计算的各服务器分数进行预测性动态调度,能够进一步优化服务资源的调度过程,能够进一步解决因压低高负载机器而扩增大量冗余机器等的问题,还能够更有效提高资源使用密度。
实施例2
下面描述本发明的装置实施例,该装置可以用于执行本发明的方法实施例。对于本发明装置实施例中描述的细节,应视为对于上述方法实施例的补充;对于在本发明装置实施例中未披露的细节,可以参照上述方法实施例来实现。
参照图4~图6,将说明本发明的实施例2的用于服务集群的服务资源预测装置300。
如图4所示,所述服务资源预测装置300包括:接收模块301,用于接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求;确定模块302,用于确定所述集群服务器可提供的服务中是否包括所述待处理服务;获取处理模块303,用于获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据;预测模块304,根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
具体地,所述获取处理模303用于获取所述集群服务器的指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量。
更具体地,确定所述集群服务器可提供的服务中包括所述待处理服务请求中的待处理服务,并确定计算参数;
优选地,根据所确定的计算参数,计算所述集群服务器中各服务器在当前周期所提供服务的当前资源使用量:
其中,Zi是指第i个服务器的各服务的服务副本在当前周期(Ti)的资源使用量,其中,ceil()是取整函数,是指将()内的计算值向下取整后的整数值;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的CPU使用的最高峰值;CPU期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务内存使用的峰值;memory期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的峰值;日志i使用量是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的正常使用量;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的最高峰值;峰值响应延迟i使用量是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的正常使用量;α、β、γ、δ是与CPU、内存、日志吞吐量、响应时延相对应的权重因子。
需要说明的是,在本实施方式中,在上述计算过程中,使用上一周期的历史运行数据,但是不限于此,还可以使用上一周期(Ti-1)、再上一周期(Ti-2)两个历史周期或两个历史周期以上的历史运行数据进行计算。上述仅作为可选示例进行说明,不能理解成对本发明的限制。对于ceil,ceil函数指向上取整,例:ceil(1.5)=2。
此外,权重因子α、β、γ、δ四个值,根据各个服务类型不同各有侧重,不同服务类型对应不同的α、β、γ、δ四个值,对于大数据类的服务,处理的数据量较大,所以memory资源对应的权重β就会比其他要高,这几个权重是可配置的,在本实施方式中,例如分别为7、7、24、7。再例如,服务类型a对应的α、β、γ、δ为α>β、γ>δ;服务类型b对应的α、β、γ、δ为α<β、γ>δ等。对于各参数的期望值,所述期望值是指,当上线一个服务的时候,运维人员会要求服务提供自己服务的资源预估和性能预估,就是大约使用多少资源量的预估,或者业务对该服务进行压测来提供这个资源使用预估值。
进一步地,所述根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
可选地,根据所确定的各服务器的当前资源使用量,生成各服务器的资源使用总量的多维矩阵,预测所述各服务器在下一周期(Ti+1)的资源使用总量。
因此,通过获取所述集群服务器在指定时间窗口的历史运行数据,进行计算,能够精确确定所述集群服务器中各服务器所提供服务的当前资源使用量,并能够预测所述各服务器在下一周期(Ti+1)的资源使用总量。
具体地,根据所预测的所述各服务器在下一周期(Ti+1)的资源使用总量和所确定的待处理服务的当前资源使用量,进行服务资源调度。
在另一实施方式中,如图5所示,还包括拟合生成模块401,即将图4中的获取处理模块303拆分成获取处理模块303和拟合生成模块401。
具体地,所述所述拟合生成模块401根据所获取的所述集群服务器的指定时间窗口的历史运行数据,对各服务在所述集群服务器中各服务器的资源使用量进行趋势拟合,以生成趋势图。
进一步地,根据所述趋势图,计算所述各服务器在下一周期(Ti+1)的资源使用总量,并根据所确定的待处理服务的资源使用需求量,进行服务资源调度。
在另一实施方式中,使用深度神经网络算法,将所述历史运行数据作为参数进行训练,以得到训练好的服务资源使用模型。
具体地,将所述待处理服务的资源需求量和服务类型输入所述训练好的服务资源使用模型,输出可提供服务的服务器列表。
可选地,所述确定计算参数包括:根据待处理服务的类型,确定计算参数,所述计算参数包括分别与CPU、内存、日志吞吐量、响应时延的权重因子α、β、γ、δ。
具体地,所述待处理服务为周期性服务;
可选地,所述指定时间窗口为特定数量的自当前周期向前推算的指定数量的周期时间或指定时间内的周期时间。
在又一实施方式中,如图6所示,还包括调度模块501,即将图4中的预测模块304拆分成预测模块304和调度模块501。
具体地,所述调度模块501基于所述各服务器的预测服务资源使用情况,向所述待处理服务请求的请求方返回相匹配的服务器列表。
可选地,使用深度神经网络算法,将所述历史运行数据作为参数进行训练,以得到训练好的服务资源使用模型。
具体地,将所述待处理服务的资源需求量和服务类型输入所述训练好的服务资源使用模型,输出可提供服务的服务器列表,并进一步根据所述服务器列表进行服务资源调度。
可选地,可以将上述表达式(1)拆成两个公式:1)计算可提供待处理服务的每个服务器上某个服务(服务类型a)在当前周期的资源使用量。2)可提供待处理服务的每个服务器上所有服务在当前资源周期、上一周期或者上几个周期内的资源使用量进行累,得到各服务器的资源使用总量。
在又一实施方式中,通过如下步骤计算可提供待处理服务的每个服务器的资源使用总量:
1)遍历服务集群中的服务拓扑关系,通过服务器IP的方式,查询该服务器上所有的服务副本,并将结果返回给用户(例如请求待处理服务的用户)。
2)遍历获取到的各服务器的服务副本列表,对于每个服务副本,获取所述服务副本的计算参数数据,生成所述服务器上每个服务副本和对应的二维矩阵
3)遍历所生成的记录各服务器上的每个服务副本和对应的二维矩阵或更多维矩阵,进行数据累计计算,即得到了各服务器的资源使用总量。
4)使用如下表达式(2),进一步计算各服务器的预测分数。
当前服务器的预测分数=c*(max-当前服务器的资源使用总量)/(max-min)(2)
其中,max是指所述服务器集群中所有服务器中资源使用总量的最高值;min是指所述服务器集群中所有服务器中资源使用总量的最低值;c为计算系数,该计算系数例如为10,还可以为100,或者10~100之间的任一数,根据具体服务类型和服务器等影响参数确定。
对于二维矩阵,例如,
|服务类型/服务器|服务器A|服务器B|服务器C|
|服务类型a|1|2|3|
|服务类型b|4|5|6|。
在上述示例中,获取各服务器服务副本和对应的二维矩阵,按照预设算法计算各服务器分数,并按照分数高低对服务器进行排序,将最高分数的服务器作为最优选择。
由此,根据所确定的各服务器的当前资源使用量,能够精确预测所述各服务器的服务资源使用情况。通过计算各服务器分数,并根据所计算的各服务器分数进行预测性动态调度,能够进一步优化服务资源的调度过程,能够进一步解决因压低高负载机器而扩增大量冗余机器等的问题,还能够更有效提高资源使用密度。
进一步地,将待处理服务分配给最高分数的服务器,并将这种待处理服务与被分配服务器的关联关系,进行记录,并存储到相应的数据存储模块。
更进一步地,对于数据存储过程:数据存储模块在将上述关联关系存储之前,先判断是否为新建服务副本或者先判断是否是新创建服务,具体将该服务对应的服务副本和服务器IP写入服务拓扑中。
与现有技术相比,本发明通过确定所述集群服务器可提供的服务中是否包括所述待处理服务,并确定可提供该待处理服务的服务器,由此,能够实时确定可提供该待处理服务的服务器,并能够快速且即时为后续服务资源预测提供精确的数据;通过获取所述集群服务器在指定时间窗口的历史运行数据,进行计算,能够精确确定所述集群服务器中各服务器所提供服务的当前资源使用量;根据所确定的各服务器的当前资源使用量,能够精确预测所述各服务器的服务资源使用情况;能够实现预测性动态调度,能够优化服务资源的调度过程,能够解决因压低高负载机器而扩增大量冗余机器等的问题。
进一步地,通过计算各服务器分数,并根据所计算的各服务器分数进行预测性动态调度,能够进一步优化服务资源的调度过程,能够进一步解决因压低高负载机器而扩增大量冗余机器等的问题,还能够更有效提高资源使用密度。
实施例3
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图7是本发明的一个实施例的电子设备的结构示意图,该电子设备包括处理器和存储器,所述存储器用于存储计算机可执行程序,当所述计算机程序被所述处理器执行时,所述处理器执行图1的方法。
如图7所示,电子设备以通用计算设备的形式表现。其中处理器可以是一个,也可以是多个并且协同工作。本发明也不排除进行分布式处理,即处理器可以分散在不同的实体设备中。本发明的电子设备并不限于单一实体,也可以是多个实体设备的总和。
所述存储器存储有计算机可执行程序,通常是机器可读的代码。所述计算机可读程序可以被所述处理器执行,以使得电子设备能够执行本发明的方法,或者方法中的至少部分步骤。
所述存储器包括易失性存储器,例如随机存取存储单元(RAM)和/或高速缓存存储单元,还可以是非易失性存储器,如只读存储单元(ROM)。
可选的,该实施例中,电子设备还包括有I/O接口,其用于电子设备与外部的设备进行数据交换。I/O接口可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
应当理解,图7显示的电子设备仅仅是本发明的一个示例,本发明的电子设备中还可以包括上述示例中未示出的元件或组件。例如,有些电子设备中还包括有显示屏等显示单元,有些电子设备还包括人机交互元件,例如按扭、键盘等。只要该电子设备能够执行存储器中的计算机可读程序以实现本发明方法或方法的至少部分步骤,均可认为是本发明所涵盖的电子设备。
图8是本发明的一个实施例的计算机可读记录介质的示意图。如图8所示,计算机可读记录介质中存储有计算机可执行程序,所述计算机可执行程序被执行时,实现本发明上述方法。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
通过以上对实施方式的描述,本领域的技术人员易于理解,本发明可以由能够执行特定计算机程序的硬件来实现,例如本发明的系统,以及系统中包含的电子处理单元、服务器、客户端、手机、控制单元、处理器等。本发明也可以由执行本发明的方法的计算机软件来实现,例如由微处理器、电子控制单元,客户端、服务器端等执行的控制软件来实现。但需要说明的是,执行本发明的方法的计算机软件并不限于由一个或特定个的硬件实体中执行,其也可以是由不特定具体硬件的以分布式的方式来实现。对于计算机软件,软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中,也可以分布式存储于网络上,只要其能使得电子设备执行根据本发明的方法。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于集群服务器的服务资源预测方法,其特征在于,所述服务资源预测方法包括:
接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求;
确定所述集群服务器可提供的服务中是否包括所述待处理服务;
获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据;
根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
2.根据权利要求1所述的服务资源预测方法,其特征在于,所述获取所述集群服务器的指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量包括:
确定所述集群服务器可提供的服务中包括所述待处理服务请求中的待处理服务,并确定计算参数;
根据所确定的计算参数,计算所述集群服务器中各服务器在当前周期所提供服务的当前资源使用量:
其中,Zi是指第i个服务器的各服务的服务副本在当前周期(Ti)的资源使用量,其中,ceil( )是取整函数,是指将()内的计算值向下取整后的整数值;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的CPU使用的最高峰值;CPU期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务内存使用的峰值;memory期望是指各服务的正常申请量;是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的峰值;日志i使用量是指第i个服务器在上一周期(Ti-1)内各服务的日志吞吐量的正常使用量;是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的最高峰值;峰值响应延迟i使用量是指第i个服务器的各服务的服务副本在上一周期(Ti-1)的使用响应延迟时间或服务响应延迟时间的正常使用量;α、β、γ、δ是与CPU、内存、日志吞吐量、响应时延相对应的权重因子。
3.根据权利要求2所述的服务资源预测方法,其特征在于,所述根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况包括:
根据所确定的各服务器的当前资源使用量,生成各服务器的资源使用总量的多维矩阵,预测所述各服务器在下一周期(Ti+1)的资源使用总量。
4.根据权利要求3所述的服务资源预测方法,其特征在于,还包括:
根据所预测的所述各服务器在下一周期(Ti+1)的资源使用总量和所确定的待处理服务的当前资源使用量,进行服务资源调度。
5.根据权利要求4所述的服务资源预测方法,其特征在于,包括:
根据所获取的所述集群服务器的指定时间窗口的历史运行数据,对各服务在所述集群服务器中各服务器的资源使用量进行趋势拟合,以生成趋势图;
根据所述趋势图,计算所述各服务器在下一周期(Ti+1)的资源使用总量,并根据所确定的待处理服务的资源使用需求量,进行服务资源调度。
6.根据权利要求1述的服务资源预测方法,其特征在于,包括:
使用深度神经网络算法,将所述历史运行数据作为参数进行训练,以得到训练好的服务资源使用模型;
将所述待处理服务的资源需求量和服务类型输入所述训练好的服务资源使用模型,输出可提供服务的服务器列表。
7.根据权利要求2所述的服务资源预测方法,其特征在于,所述确定计算参数包括:
根据待处理服务的类型,确定计算参数,所述计算参数包括分别与CPU、内存、日志吞吐量、响应时延的权重因子α、β、γ、δ;
可选地,所述待处理服务为周期性服务;
可选地,所述指定时间窗口为特定数量的自当前周期向前推算的指定数量的周期时间或指定时间内的周期时间;
可选地,基于所述各服务器的预测服务资源使用情况,向所述待处理服务请求的请求方返回相匹配的服务器列表。
8.一种用于服务集群的服务资源预测装置,其特征在于,包括:
接收模块,用于接收待处理服务请求,确定所述待处理服务请求中的待处理服务,所述待处理服务请求包括服务更新请求、服务创建请求;
确定模块,用于确定所述集群服务器可提供的服务中是否包括所述待处理服务;
获取处理模块,用于获取所述集群服务器在指定时间窗口的历史运行数据,确定所述集群服务器中各服务器所提供服务的当前资源使用量,所述历史运行数据包括与所提供服务相对应的周期性数据;
预测模块,根据所确定的各服务器的当前资源使用量,预测所述各服务器的服务资源使用情况。
9.一种电子设备,包括处理器和存储器,所述存储器用于存储计算机可执行程序,其特征在于:
当所述计算机程序被所述处理器执行时,所述处理器执行如权利要求1-7中任一项所述的方法。
10.一种计算机可读介质,存储有计算机可执行程序,其特征在于,所述计算机可执行程序被执行时,实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210590438.4A CN115033377A (zh) | 2022-05-26 | 2022-05-26 | 基于集群服务器的服务资源预测方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210590438.4A CN115033377A (zh) | 2022-05-26 | 2022-05-26 | 基于集群服务器的服务资源预测方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115033377A true CN115033377A (zh) | 2022-09-09 |
Family
ID=83121775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210590438.4A Pending CN115033377A (zh) | 2022-05-26 | 2022-05-26 | 基于集群服务器的服务资源预测方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115033377A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117472589A (zh) * | 2023-12-27 | 2024-01-30 | 山东合能科技有限责任公司 | 一种园区网络服务管理方法及系统 |
-
2022
- 2022-05-26 CN CN202210590438.4A patent/CN115033377A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117472589A (zh) * | 2023-12-27 | 2024-01-30 | 山东合能科技有限责任公司 | 一种园区网络服务管理方法及系统 |
CN117472589B (zh) * | 2023-12-27 | 2024-03-12 | 山东合能科技有限责任公司 | 一种园区网络服务管理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mishra et al. | Towards characterizing cloud backend workloads: insights from google compute clusters | |
WO2021159638A1 (zh) | 集群队列资源的调度方法、装置、设备及存储介质 | |
US10191779B2 (en) | Application execution controller and application execution method | |
CN109614227B (zh) | 任务资源调配方法、装置、电子设备及计算机可读介质 | |
US20050091654A1 (en) | Autonomic method, system and program product for managing processes | |
GB2475897A (en) | Resource allocation using estimated time to complete jobs in a grid or cloud computing environment | |
US10565085B2 (en) | Two-stage distributed estimation system | |
Meyerson et al. | Online multidimensional load balancing | |
CN102063330A (zh) | 一种大规模并行程序性能数据采集方法 | |
JP5296669B2 (ja) | コンピュータ・システムのリソース消費の概算 | |
Li | An adaptive overload threshold selection process using Markov decision processes of virtual machine in cloud data center | |
CN115373835A (zh) | Flink集群的任务资源调整方法、装置及电子设备 | |
US8973000B2 (en) | Determining multiprogramming levels | |
CN115033377A (zh) | 基于集群服务器的服务资源预测方法、装置和电子设备 | |
Li et al. | PageRankVM: A pagerank based algorithm with anti-collocation constraints for virtual machine placement in cloud datacenters | |
Liu et al. | Time warp on the GPU: Design and assessment | |
CN116860419B (zh) | 一种服务器无感知数据分析的并行调度方法及系统 | |
Marinho et al. | LABAREDA: a predictive and elastic load balancing service for cloud-replicated databases | |
Kumar et al. | Load balancing algorithm to minimize the makespan time in cloud environment | |
Ismaeel et al. | A systematic cloud workload clustering technique in large scale data centers | |
JP2020129180A (ja) | ジョブ電力予測プログラム、ジョブ電力予測方法、およびジョブ電力予測装置 | |
Kumar et al. | Efficient Cloud Resource Scheduling with an Optimized Throttled Load Balancing Approach. | |
Han et al. | Virtual Machine Allocation Strategy Based on Statistical Machine Learning | |
CN112000478A (zh) | 作业运行资源分配方法及装置 | |
EP3929744A1 (en) | Method for placing a workload in a computing resource |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |