CN113760675A - 负载预测方法和装置、电子设备以及计算机可读存储介质 - Google Patents
负载预测方法和装置、电子设备以及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113760675A CN113760675A CN202110087665.0A CN202110087665A CN113760675A CN 113760675 A CN113760675 A CN 113760675A CN 202110087665 A CN202110087665 A CN 202110087665A CN 113760675 A CN113760675 A CN 113760675A
- Authority
- CN
- China
- Prior art keywords
- server
- service
- performance
- flow
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3409—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
- G06F11/3433—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Software Systems (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Computer Hardware Design (AREA)
- Debugging And Monitoring (AREA)
Abstract
本公开提供了一种负载预测方法和装置、电子设备和计算机可读存储介质,该负载预测方法包括:获取被测服务器的性能预测函数,其中,性能预测函数是利用性能指标数据进行拟合得到的函数,性能指标数据包括对被测服务器在不同的流量条件下进行服务测试得到的数据;获取基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数;通过流量预测函数,预测被测服务器的服务接口在未来目标时刻的流量预测值;以及将流量预测值输入性能预测函数,得到被测服务器的性能指标预测值。
Description
技术领域
本公开涉及计算机技术领域,更具体地,涉及一种负载预测方法和装置、电子设备和计算机可读存储介质。
背景技术
目前,大型电子商务应用中,由于用户量巨大,当网站进行集中促销时,面对海量用户请求,必须准确的预估各个服务器或者服务集群的负载,如果实际情况比预估较低,则会造成服务器或者集群资源的浪费,如果实际情况比预估值高,则有可能造成服务器或者集群不能承受用户流量,造成服务中断或者延时,严重影响用户体验,进一步影响促销活动的效果,使得促销的前期大量的资金投入遭到浪费。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:采用相关技术中的针对服务器或者服务集群的承载能力的预估方式,由于无法获得目标时刻服务器接口较为准确的流量预测值、以及无法获得在该预测流量条件下服务器较为准确的性能指标预测值,进而,无法实现对服务器负载的比较准确的预估,最终难以实现对服务器或者服务集群的资源进行合理的配置。
发明内容
有鉴于此,本公开提供了一种负载预测方法和装置、电子设备、计算机可读存储介质、以及计算机程序产品。
本公开的一个方面提供了一种负载预测方法,包括:
获取被测服务器的性能预测函数,其中,上述性能预测函数是利用性能指标数据进行拟合得到的函数,上述性能指标数据包括对上述被测服务器在不同的流量条件下进行服务测试得到的数据;获取基于上述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数;通过上述流量预测函数,预测上述被测服务器的服务接口在未来目标时刻的流量预测值;以及将上述流量预测值输入上述性能预测函数,得到上述被测服务器的性能指标预测值。
根据本公开的实施例,上述获取被测服务器的性能预测函数包括:获取上述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据;利用上述单服务测试得到的数据进行拟合,得到单服务性能预测函数;以及根据多个上述单服务性能预测函数得到上述被测服务器的性能预测函数。
根据本公开的实施例,上述根据多个上述单服务性能预测函数得到上述被测服务器的性能预测函数包括:将多个上述单服务性能预测函数进行叠加,得到上述被测服务器的性能预测函数。
根据本公开的实施例,上述获取上述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据包括:在单服务状态下,对上述被测服务器的服务接口进行不同流量条件测试;获得上述被测服务器在不同流量条件下的多个性能指标实测值;上述利用上述单服务测试得到的数据进行拟合,得到单服务性能预测函数包括:利用上述被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数。
根据本公开的实施例,在单服务状态下,对上述被测服务器的服务接口进行不同流量条件测试包括:通过瞬时加压、逐渐加压、梯度加压中的一种加压方式对上述被测服务器的服务接口进行不同流量条件测试。
根据本公开的实施例,上述获取基于上述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数包括:线上实时采样获得,多个时间节点中每个时间节点对应的上述被测服务器的服务接口流量的多个线上流量实测值;以及对上述多个时间节点、以及上述多个线上流量实测值进行拟合,获得上述流量预测函数。
根据本公开的实施例,上述拟合的方式为最小二乘法的线性回归拟合。
本公开的另一个方面提供了一种负载预测装置,包括:第一获取模块,用于获取被测服务器的性能预测函数,其中,上述性能预测函数是利用性能指标数据进行拟合得到的函数,上述性能指标数据包括对上述被测服务器在不同的流量条件下进行服务测试得到的数据;第二获取模块,用于获取基于上述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数;预测模块,用于通过上述流量预测函数,预测上述被测服务器的服务接口在未来目标时刻的流量预测值;第三获取模块,用于将上述流量预测值输入上述性能预测函数,得到上述被测服务器的性能指标预测值。
根据本公开的实施例,上述第一获取模块包括:第一获取单元,用于获取上述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据;第二获取单元,用于利用上述单服务测试得到的数据进行拟合,得到单服务性能预测函数;以及第三获取单元,根据多个上述单服务性能预测函数得到上述被测服务器的性能预测函数。
根据本公开的实施例,第三获取单元用于将多个上述单服务性能预测函数进行叠加,得到上述被测服务器的性能预测函数。
根据本公开的实施例,上述第一获取单元包括:第一测试子单元,用于在单服务状态下,对上述被测服务器的服务接口进行不同流量条件测试;第一获取子单元,用于获得上述被测服务器在不同流量条件下的多个性能指标实测值;上述第二获取单元包括:第二获取子单元,用于利用上述被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数。
根据本公开的实施例,第一测试子单元用于:通过瞬时加压、逐渐加压、梯度加压中的一种加压方式对上述被测服务器的服务接口进行不同流量条件测试。
根据本公开的实施例,上述第二获取模块包括;第四获取单元,用于线上实时采样,获得多个时间节点中每个时间节点对应的上述被测服务器的服务接口流量的多个线上流量实测值;以及第五获取单元,用于对上述多个时间节点、以及上述多个线上流量实测值进行拟合,获得上述流量预测函数。
根据本公开的实施例,上述拟合的方式为最小二乘法的线性回归拟合。
本公开的另一方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现如上述的负载预测方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,该指令在被执行时用于实现如上述的负载预测方法。
本公开的另一方面提供了一种计算机程序产品,该计算机程序产品包括计算机可执行指令,该计算机可执行指令在被执行时用于实现如上述的负载预测方法。
根据本公开的实施例,性能预测函数是利用被测服务器在不同的流量条件下进行服务测试得到的数据进行拟合得到的函数,流量预测函数是基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数,因此,该性能预测函数接近于服务器的真实性能函数,该流量预测函数接近于服务器的真实流量函数。进而,通过流量预测函数获取的未来目标时刻的流量预测值,更加接近真实的流量值,通过将该流量预测值输入性能预测函数获得的未来目标时刻服务器的性能指标值,更加接近于真实的服务器性能指标值,最终实现对服务器负载的比较准确的预估。因此,至少部分地克服了现有技术中,由于无法获得目标时刻服务器接口较为准确的流量预测值、以及无法获得在该预测流量条件下服务器较为准确的性能指标预测值,进而,无法实现对服务器负载的比较准确的预估,最终难以实现对服务器或者服务集群的资源进行合理的配置的问题。根据本公开的实施例的负载预测方法获得的对服务器负载的预估结果,可作为后续对被测服务器或者服务集群的资源进行配置的参考依据,从而节省不必要的服务器或者服务集群资源浪费,进一步地,通过合理配置后,由于服务器或者服务集群的资源配置与用户流量相匹配,不会造成服务中断或者延时,用户体验好,在网站促销活动中,可以达到比较好的促销效果,提高商家的促销收益。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了可以应用本公开的负载预测方法的示例性系统架构;
图2示意性示出了根据本公开实施例的负载预测方法的流程图;
图3示意性示出了根据本公开另一实施例的负载预测方法的流程图;
图4示意性示出了根据本公开实施例的瞬时加压方式的压力随时间变化曲线图;
图5示意性示出了根据本公开实施例的逐渐加压方式的压力随时间变化曲线图;
图6示意性示出了根据本公开实施例的梯度加压方式的压力随时间变化曲线图;
图7示意性示出了根据本公开实施例的负载预测装置的框图;以及
图8示意性示出了根据本公开实施例的用于实现负载预测方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在对本公开的实施例进行详细阐述之前,先对本公开实施例提供的负载预测方法所涉及的系统结构以及应用场景进行如下介绍。
图1示意性示出了可以应用本公开的负载预测方法的示例性系统架构。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,包括但不限于服务一、服务二、服务三、服务四等等,服务一、服务二、服务三、服务四例如可以是对用户利用终端设备101、102、103所浏览的网站提供支持的服务。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的负载预测方法一般可以由服务器105执行。相应地,本公开实施例所提供的负载预测装置一般可以设置于服务器105中。本公开实施例所提供的负载预测方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的计算机、服务器或服务器集群执行。相应地,本公开实施例所提供的负载预测装置700也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的计算机、服务器或服务器集群中。或者,本公开实施例所提供的负载预测方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本公开实施例所提供的负载预测装置也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。
根据本公开的实施例,终端设备101、102、或103针对服务器105发出请求,例如针对某个商品的查询请求、付款请求等,服务器105基于终端设备101、102、或103的具体请求做出相应的相应;服务器105可以在本地执行本公开实施例提供的负载预测方法,或者由接收该负载预测方法的其他终端设备、服务器、或服务器集群来执行本公开实施例所提供的负载预测方法。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
服务集群是一组协同工作的服务器集合,用来提供比单一服务更稳定、更高效、更具扩展性的服务平台。集群一般由两个或两个以上的服务器组建而成,每个服务器被称为一个集群节点,集群节点之间可以相互通信,一个集群可能提供多个服务。在实现本公开的过程中发现,针对服务集群的承载能力预估方式可采用下面几种方法:
方式一:通过单机或者小集群单服务进行压力测试(以下简称压测),评估整体集群性能极限,然后按照大促的力度进行评估;单个服务的压测,可以完全测试出集群提供某个服务的极限能力,但是集群一般提供多个服务,现实情况中,集群同时提供多个服务时,压力评估通常依靠经验处理,极易造成评估不准确。
方式二:通过单击或者小集群多服务同时压测,按照不同服务的通常的流量比例进行集群性能极限压测,然后按照大促的力度进行评估。采用该方式,统一集群多个服务按照日常或者促销的流量进行配比,模拟流量配比容易造成失真和误判。
有鉴于此,本公开的实施例提供了一种负载预测方法、负载预测装置、电子设备、计算机可读存储介质、以及计算机程序产品,以至少部分解决上述技术问题,下面进行具体介绍。
图2示意性示出了根据本公开实施例的负载预测方法的流程图。
如图2所示,该方法包括操作S201~S204。
在操作S201,获取被测服务器的性能预测函数,其中,性能预测函数是利用性能指标数据进行拟合得到的函数,进一步地,上述性能指标数据包括对上述被测服务器在不同的流量条件下进行服务测试得到的数据。
具体地,性能指标数据指上述被测服务器在不同流量条件下的对应的多个性能指标实测值;本公开的实施例中,性能指标实测值,指服务器的运行状态数据,例如包括但不限于CPU使用率、内存使用率、CPU负载、TCP连接数、线程数等等;不同流量条件指客户端或测试端对被测服务器发起的单位时间内不同数量的服务请求。
性能预测函数是指被测服务器的性能指标值随流量变化的预测函数,以下举例说明性能预测函数的具体含义。例如,针对于CPU使用率这一性能指标,服务器的真实性能函数:其中x为某个服务的流量,采样获得多个流量实测值,以及不同流量条件下的多个性能指标实测值,利用多个流量实测值以及多个性能指标实测值,通过曲线拟合的方式,得到近似的曲线即为被测服务器的性能预测函数。
在操作S202,获取基于上述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数。
在本公开的实施例中,流量预测函数指被测服务器的服务接口流量随时间变化的预测函数。例如,被测服务器的某一服务接口流量随时间变化的真实函数:Qi’=f(t)′,其中t为时间节点,采样记录多个时间节点,以及每个时间节点对应的被测服务器的服务接口流量实测值,对多个时间节点以及多个流量实测值通过曲线拟合的方式,得到近似的曲线Qi=f(t),即为服务器某一服务的流量预测函数。
在操作S203,通过上述流量预测函数,预测上述被测服务器的服务接口在未来目标时刻的流量预测值。
在操作S204,将上述流量预测值输入上述性能预测函数,得到上述被测服务器的性能指标预测值。
根据本公开的实施例,性能预测函数是利用被测服务器在不同的流量条件下进行服务测试得到的数据进行拟合得到的函数,流量预测函数是基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数,因此,该性能预测函数接近于服务器的真实性能函数,同理,该流量预测函数接近于服务器的真实流量函数。进而,通过流量预测函数获取的未来目标时刻的流量预测值,更加接近真实的流量值,通过将该流量预测值输入性能预测函数获得的未来目标时刻服务器的性能指标值,更加接近于真实的服务器性能指标值,最终实现对服务器负载的比较准确的预估。因此,至少部分地克服了现有技术中,由于无法获得目标时刻服务器接口较为准确的流量预测值、以及无法获得在该预测流量条件下服务器较为准确的性能指标预测值,进而,无法实现对服务器负载的比较准确的预估,最终难以实现对服务器或者服务集群的资源进行合理的配置的问题。根据本公开的实施例的负载预测方法获得的对服务器负载的预估结果,可作为后续对被测服务器或者服务集群的资源进行配置的参考依据,从而节省不必要的服务器或者服务集群资源浪费,进一步地,通过合理配置后,由于服务器或者服务集群的资源配置与用户流量相匹配,不会造成服务中断或者延时,用户体验好,在网站促销活动中,可以达到比较好的促销效果,提高商家的促销收益。
另外,本公开的实施例中,流量预测函数是基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数,即,该流量预测函数是服务器在实际运行过程中,通过线上实时采样流量数据获得的,进一步提高了流量预测函数的真实性、以及目标时刻流量预测值的精确性,最终进一步提高了服务器负载预估的准确性。
作为一种可选的实施例,在操作S204中得到被测服务器的性能指标预测值后,判别该性能指标预测值是否超过服务器配置的阈值,若超过服务器配置的阈值,进行报警提示,报警提示后继续从操作S202开始进行后续时刻的流量预测;若没有超过服务器配置的阈值,也继续从操作S202开始进行后续时刻的流量预测。增加报警提示,可以及时提醒服务器维护人员或工程师,便于及时调整被测服务器或者服务集群的资源配置。
作为一种可选的实施例,本公开的实施例提供的负载预测方法,可应用于单服务或多服务的场景(例如采用服务集群的场景),具体地,应用于多服务场景时,在获取被测服务器或服务集群的性能预测函数时,可采用的方法为:首先获取上述被测服务器或服务集群在不同的流量条件下,分别进行各个单服务测试得到的数据,然后,利用该单服务测试得到的数据进行拟合,得到单服务性能预测函数,以及根据多个上述单服务性能预测函数得到上述被测服务器或服务集群的性能预测函数。
作为一种可选的实施例,根据多个单服务性能预测函数得到被测服务器或服务集群的性能预测函数时,采用将多个上述单服务性能预测函数进行叠加,得到上述被测服务器或服务集群的性能预测函数。
本公开的实施例采用根据多个单服务性能预测函数得到被测服务器或服务集群的性能预测函数的方法,应用于服务集群负载预测时,具有更加明显的优势。本公开的实施例提供的负载预测方法,兼具单服务性能预测以及多服务性能预测的作用,因此,一方面可以检测服务集群中各个服务的服务质量,另一方面可以准确的评估每个服务的负载随流量变化的情况,便于综合服务集群中各个服务的情况,最终评估出服务集群实际的负载,可以在服务集群中各个服务不同流量配比的情况下,评估整体集群的性能极限,更准确的进行服务集群负载评估,减少评估不准确造成的损失,同时也可以作为实时进行集群调整的主要判定依据。
作为一种可选的实施例,在上述利用该单服务测试得到的数据进行拟合前,对是否完成全部单服务测试进行判断,若已经完成全部单服务测试,则利用该单服务测试得到的数据进行拟合;若还未完成全部单服务测试,则需要继续进行未完成的单服务测试。通过增加判断步骤,可确保服务器或者服务集群的全部单服务测试进行完毕,以免因漏测造成预测不准确的问题。
作为一种可选的实施例,获取上述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据包括:在单服务状态下,对上述被测服务器的服务接口进行不同流量条件测试,以获得上述被测服务器在不同流量条件下的多个性能指标实测值,之后,利用上述被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数。
作为一种可选的实施例,利用上述被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数的过程中,上述拟合的方式为最小二乘法曲线拟合,本公开的实施例中,上述拟合的方式不限于采用最小二乘法拟合方式,可以扩展到机器学习中的其他算法。
作为一种可选的实施例,在上述获取被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据过程中,对被测服务器的服务接口进行不同流量条件测试包括:通过瞬时加压、逐渐加压、梯度加压中的一种加压方式对上述被测服务器的服务接口进行不同流量条件测试。
图4示意性示出了根据本公开实施例的瞬时加压方式的压力随时间变化曲线图。
瞬时加压是指通过压测工具同时模拟大量的并发请求,同时将全部负载加压到目标服务器,考验服务器对突发流量的处理能力,主要应用场景是秒杀、抢购、抢红包等活动。
图5示意性示出了根据本公开实施例的逐渐加压方式的压力随时间变化曲线图。
逐渐加压是指模拟通用的线上压力曲线,通常是一条抛物线,例如在一个促销周期内,压力是随时间逐步变化,主要应用场景是日常的通用活动和促销。
图6示意性示出了根据本公开实施例的梯度加压方式的压力随时间变化曲线图。
梯度加压和逐渐加压类似,但是加压的目的不同,是为了更快的找到系统的最大的负载能力,即服务的响应时间在满足业务要求的情况下,系统最大的流量(吞吐量)和并发数。根据图6所示,可以看出,采用梯度加压的方式,每一流量值(或压力值)会稳定一段时间,不会出现瞬时上升或下降的情况,因此,在各个流量条件下获得的性能指标实测值相对比较准确;且流量值(或压力值)呈阶段化逐渐上升的趋势,会涵盖比较大的流量范围,流量值以及性能指标实测值的采样的范围更广,数据样本更丰富,因此,基于该流量值以及性能指标实测值拟合得到的性能预测函数也更加精确。
本公开的实施例中,对被测服务器的服务接口进行不同流量条件测试(即压测)的方式,不限于采用瞬时加压、逐渐加压、梯度加压的方式,也可以采用其他加压方式,只要能够获得被测服务器在不同流量条件下的多个性能指标实测值即可。
作为一种可选的实施例,上述获取基于上述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数包括:线上实时采样获得,多个时间节点中每个时间节点对应的上述被测服务器的服务接口流量的多个线上流量实测值;以及对上述多个时间节点、以及上述多个线上流量实测值进行拟合,获得上述流量预测函数。
作为一种可选的实施例,在对上述多个时间节点、以及上述多个线上流量实测值进行拟合,获得上述流量预测函数的过程中,上述拟合的方式为最小二乘法的线性回归拟合。本公开的实施例中,上述拟合的方式不限于采用最小二乘法拟合方式,可以扩展到机器学习中的其他算法;且,流量预测函数在采用最小二乘法进行拟合是也不限于采用线性回归方式,也可以采用最小二乘法的多次函数拟合。本公开的实施例中,上述拟合的方式为最小二乘法的线性回归拟合,原因在于,因流量预测函数为线上实时采样拟合获得的函数,考虑到实时预测的时效性,需要在很短的时间内运算拟合获得流量预测函数,基于线性回归拟合采用一次函数拟合,回归速度较快,可以快速完成流量预测,可以让研发和运维人员更快的了解未来可能的最大的流量,为服务器或服务集群和服务争取到宝贵的决策时间。
作为一种可选的实施例,采用该流量预测函数的预测结果应尽可能略高于实际值,以防产生误判,造成服务器或服务集群的服务异常。
图3示意性示出了根据本公开另一实施例的负载预测方法的流程图。
如图3所示,该方法包括操作S301~S310。在该方法中,S301~S304为测试阶段,测试阶段的目的是预先获得测服务器的性能预测函数;S305~S310为实施预测阶段,目的标是获得实际运行过程中被测服务器的性能指标预测值,并作出是否报警的处理。
在操作S301,在单服务状态下,对被测服务器的服务接口进行不同流量条件测试。
在操作S302,获得被测服务器在不同流量条件下的多个性能指标实测值。
在操作S303,判断是否完成全部服务的不同流量条件测试,若已完成全部服务的不同流量条件测试,进行操作S304;若未完成全部服务的不同流量条件测试,返回操作S301,继续对未完成的服务进行不同流量条件测试。
在操作S304,利用被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数,以及将多个上述单服务性能预测函数进行叠加,得到被测服务器的性能预测函数。
在操作S305,线上实时采样获得,多个时间节点中每个时间节点对应的被测服务器的服务接口流量的多个线上流量实测值。
在操作S306,对多个时间节点、以及多个线上流量实测值进行拟合,获得基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数。
在操作S307,通过上述流量预测函数,预测上测服务器的服务接口在未来目标时刻的流量预测值。
在操作S308,将流量预测值输入性能预测函数,得到被测服务器的性能指标预测值。
在操作S309,判断在操作S308得到的被测服务器的性能指标预测值是否超过服务器配置的阈值;若超过服务器配置的阈值,进行操作S310的报警提示,在操作S310的报警提示后继续从操作S305开始进行后续时刻的流量预测;若没有超过服务器配置的阈值,也继续从操作S305开始进行后续时刻的流量预测。
以下示例性说明采用图3所示出的负载预测方法获得测服务器的性能预测函数的具体过程:
例如,针对于CPU使用率这一性能指标,通过该负载预测方法获得未来目标时刻服务器集群的CPU使用率的预测值。具体操作如下:
在操作S301,在单服务状态下,对服务集群的各个服务接口进行不同流量条件测试。服务集群中部署有不同的多个服务,每个服务相对独立,每个服务的压力(流量)情况无明确的关系。其中,不同流量条件测试,即压力测试的方式,采用梯度加压的方式;
在操作S302,获得被测服务集群在不同流量条件下的多个性能指标实测值;
在操作S303,判断是否完成全部服务的不同流量条件测试,若已完成全部服务的不同流量条件测试,进行操作S304;若未完成全部服务的不同流量条件测试,返回操作S301,继续对未完成的服务进行不同流量条件测试;
在操作S304,针对被测服务集群,通过采样记录的多个流量实测值,以及不同流量条件下的多个性能指标实测值,采用最小二乘法多项式拟合的方式,得到拟合函数:(其中i为单个服务),即为该服务接口对应的单服务性能预测函数,其中,x为该服务的流量;
其中,最小二乘法多项式拟合方法如下:
当满足偏差平方和最小,即:
在操作S305,线上实时采样获得,多个时间节点中每个时间节点对应的被测服务集群的服务接口流量的多个线上流量实测值;
在操作S306,对采样记录的多个时间节点,以及每个时间节点对应的被测服务器的服务接口流量实测值,通过最小二乘法的线性回归拟合的方式,得到函数Qi=f(t),即为各个服务接口流量随时问变化的流量预测函数;
在操作S307,通过上述流量预测函数,预测上测服务集群的服务接口在未来目标时刻的流量预测值。即将未来目标时刻节点的数值输入流量预测函数Qi=f(t),输出流量预测值Qi;
在操作S309,判断在操作S308得到的被测服务集群的CPU使用率预测值是否超过服务集群配置的阈值;若超过服务集群配置的阈值,进行操作S310的报警提示,在操作S310的报警提示后继续从操作S305开始进行后续时刻的流量预测;若没有超过服务集群配置的阈值,也继续从操作S305开始进行后续时刻的流量预测。
图7示意性示出了根据本公开实施例的负载预测装置700的框图。
该负载预测装置700可以用来实现参考图2所示的方法。
如图7所示,负载预测装置700包括:第一获取模块710、第二获取模块720、预测模块730和第三获取模块740。
第一获取模块710,用于获取被测服务器的性能预测函数,其中,上述性能预测函数是利用性能指标数据进行拟合得到的函数,上述性能指标数据包括对上述被测服务器在不同的流量条件下进行服务测试得到的数据;第二获取模块720,用于获取基于上述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数;预测模块730,用于通过上述流量预测函数,预测上述被测服务器的服务接口在未来目标时刻的流量预测值;第三获取模块740,用于将上述流量预测值输入上述性能预测函数,得到上述被测服务器的性能指标预测值。
根据本公开的实施例,通过第一获取模块710得到的性能预测函数是利用被测服务器在不同的流量条件下进行服务测试得到的数据进行拟合得到的函数,通过第二获取模块720得到的流量预测函数是基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数,因此,该性能预测函数接近于服务器的真实性能函数,同理,该流量预测函数接近于服务器的真实流量函数。进而,通过流量预测函数获取的未来目标时刻的流量预测值,更加接近真实的流量值,通过将该流量预测值输入性能预测函数获得的未来目标时刻服务器的性能指标值,更加接近于真实的服务器性能指标值,最终实现对服务器负载的比较准确的预估。因此,至少部分地克服了现有技术中,由于无法获得目标时刻服务器接口较为准确的流量预测值、以及无法获得在该预测流量条件下服务器较为准确的性能指标预测值,进而,无法实现对服务器负载的比较准确的预估,最终难以实现对服务器或者服务集群的资源进行合理的配置的问题。根据本公开的实施例的负载预测方法获得的对服务器负载的预估结果,可作为后续对被测服务器或者服务集群的资源进行配置的参考依据,从而节省不必要的服务器或者服务集群资源浪费,进一步地,通过合理配置后,由于服务器或者服务集群的资源配置与用户流量相匹配,不会造成服务中断或者延时,用户体验好,在网站促销活动中,可以达到比较好的促销效果,提高商家的促销收益。
另外,本公开的实施例中,通过第二获取模块720得到的流量预测函数是基于被测服务器的服务接口的线上流量数据拟合得到的流量预测函数,即,该流量预测函数是服务器在实际运行过程中,通过第二获取模块720线上实时采样流量数据获得的,进一步提高了流量预测函数的真实性、以及目标时刻流量预测值的精确性,最终进一步提高了服务器负载预估的准确性。
作为一种可选的实施例,上述第一获取模块710包括:第一获取单元,用于获取上述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据;第二获取单元,用于利用上述单服务测试得到的数据进行拟合,得到单服务性能预测函数;以及第三获取单元,根据多个上述单服务性能预测函数得到上述被测服务器的性能预测函数。
作为一种可选的实施例,第三获取单元用于将多个上述单服务性能预测函数进行叠加,得到上述被测服务器的性能预测函数。
本公开的实施例,通过第一获取单元、第二获取单元、第三获取单元实现了根据多个单服务性能预测函数得到被测服务器或服务集群的性能预测函数的目的,应用于服务集群负载预测时,具有更加明显的优势。本公开的实施例提供的负载预测装置700中,第一获取单元、第二获取单元用于获取单服务性能预测函数,第三获取单元用于多服务的性能预测函数,负载预测装置700兼具单服务性能预测以及多服务性能预测的作用,因此,一方面可以检测服务集群中各个服务的服务质量,另一方面可以准确的评估每个服务的负载随流量变化的情况,便于综合服务集群中各个服务的情况,最终评估出服务集群实际的负载,可以在服务集群中各个服务不同流量配比的情况下,评估整体集群的性能极限,更准确的进行服务集群负载评估,减少评估不准确造成的损失,同时也可以作为实时进行集群调整的主要判定依据。
作为一种可选的实施例,上述第一获取单元包括:第一测试子单元,用于在单服务状态下,对上述被测服务器的服务接口进行不同流量条件测试;第一获取子单元,用于获得上述被测服务器在不同流量条件下的多个性能指标实测值;上述第二获取单元包括:第二获取子单元,用于利用上述被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数。
作为一种可选的实施例,第一测试子单元用于:通过瞬时加压、逐渐加压、梯度加压中的一种加压方式对被测服务器的服务接口进行不同流量条件测试。
本公开的实施例中,通过第一测试子单元可以实现,通过梯度加压的方式对被测服务器的服务接口进行不同流量条件测试;根据图6所示,可以看出,采用梯度加压的方式,每一流量值(或压力值)会稳定一段时间,不会出现瞬时上升或下降的情况,因此,在各个流量条件下获得的性能指标实测值相对比较准确;且流量值(或压力值)呈阶段化逐渐上升的趋势,会涵盖比较大的流量范围,流量值以及性能指标实测值的采样的范围更广,数据样本更丰富,因此,该负载预测装置700通过该流量值以及性能指标实测值拟合得到的性能预测函数也更加精确。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一获取模块710、第二获取模块720、预测模块730、以及第三获取模块740中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,第一获取模块710、第二获取模块720、预测模块730、以及第三获取模块740中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获取模块710、第二获取模块720、预测模块730、以及第三获取模块740中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
本公开实施例提供的电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现如上文描述的负载预测方法。
图8示意性示出了根据本公开实施例的适于实现上文描述的方法的电子设备的框图。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口808,输入/输出(I/O)接口808也连接至总线804。系统800还可以包括连接至I/O接口808的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口808。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,该指令在被执行时用于实现如上文描述的负载预测方法。该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
本公开的另一方面提供了一种计算机程序产品,该计算机程序产品包括计算机可执行指令,即用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备800上运行时,该程序代码用于使电子设备800实现本公开实施例所提供的负载预测方法。
在该计算机程序被处理器801执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分809被下载和安装,和/或从可拆卸介质811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (11)
1.一种负载预测方法,包括:
获取被测服务器的性能预测函数,其中,所述性能预测函数是利用性能指标数据进行拟合得到的函数,所述性能指标数据包括对所述被测服务器在不同的流量条件下进行服务测试得到的数据;
获取基于所述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数;
通过所述流量预测函数,预测所述被测服务器的服务接口在未来目标时刻的流量预测值;以及
将所述流量预测值输入所述性能预测函数,得到所述被测服务器的性能指标预测值。
2.根据权利要求1所述的负载预测方法,其中,所述获取被测服务器的性能预测函数包括:
获取所述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据;
利用所述单服务测试得到的数据进行拟合,得到单服务性能预测函数;以及
根据多个所述单服务性能预测函数得到所述被测服务器的性能预测函数。
3.根据权利要求2所述的负载预测方法,其中,所述根据多个所述单服务性能预测函数得到所述被测服务器的性能预测函数包括:
将多个所述单服务性能预测函数进行叠加,得到所述被测服务器的性能预测函数。
4.根据权利要求2所述的负载预测方法,其中,
所述获取所述被测服务器在不同的流量条件下,分别进行各个单服务测试得到的数据包括:
在单服务状态下,对所述被测服务器的服务接口进行不同流量条件测试;
获得所述被测服务器在不同流量条件下的多个性能指标实测值;
所述利用所述单服务测试得到的数据进行拟合,得到单服务性能预测函数包括:
利用所述被测服务器在不同流量条件下的多个性能指标实测值,进行拟合,得到单服务性能预测函数。
5.根据权利要求4所述的负载预测方法,其中,在单服务状态下,对所述被测服务器的服务接口进行不同流量条件测试包括:
通过瞬时加压、逐渐加压、梯度加压中的一种加压方式对所述被测服务器的服务接口进行不同流量条件测试。
6.根据权利要求1所述的负载预测方法,其中,所述获取基于所述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数包括:
线上实时采样获得,多个时间节点中每个时间节点对应的所述被测服务器的服务接口流量的多个线上流量实测值;以及
对所述多个时间节点、以及所述多个线上流量实测值进行拟合,获得所述流量预测函数。
7.根据权利要求6所述的负载预测方法,其中:
所述拟合的方式为最小二乘法的线性回归拟合。
8.一种负载预测装置,包括:
第一获取模块,用于获取被测服务器的性能预测函数,其中,所述性能预测函数是利用性能指标数据进行拟合得到的函数,所述性能指标数据包括对所述被测服务器在不同的流量条件下进行服务测试得到的数据;
第二获取模块,用于获取基于所述被测服务器的服务接口的线上流量数据拟合得到的流量预测函数;
预测模块,用于通过所述流量预测函数,预测所述被测服务器的服务接口在未来目标时刻的流量预测值;
第三获取模块,用于将所述流量预测值输入所述性能预测函数,得到所述被测服务器的性能指标预测值。
9.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至7中任一项所述的方法。
11.一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,所述指令在被执行时用于实现权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110087665.0A CN113760675A (zh) | 2021-01-22 | 2021-01-22 | 负载预测方法和装置、电子设备以及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110087665.0A CN113760675A (zh) | 2021-01-22 | 2021-01-22 | 负载预测方法和装置、电子设备以及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113760675A true CN113760675A (zh) | 2021-12-07 |
Family
ID=78786455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110087665.0A Pending CN113760675A (zh) | 2021-01-22 | 2021-01-22 | 负载预测方法和装置、电子设备以及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113760675A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114257521A (zh) * | 2021-12-17 | 2022-03-29 | 北京沃东天骏信息技术有限公司 | 流量预测方法、装置、电子设备和存储介质 |
CN114257521B (zh) * | 2021-12-17 | 2024-05-17 | 北京沃东天骏信息技术有限公司 | 流量预测方法、装置、电子设备和存储介质 |
-
2021
- 2021-01-22 CN CN202110087665.0A patent/CN113760675A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114257521A (zh) * | 2021-12-17 | 2022-03-29 | 北京沃东天骏信息技术有限公司 | 流量预测方法、装置、电子设备和存储介质 |
CN114257521B (zh) * | 2021-12-17 | 2024-05-17 | 北京沃东天骏信息技术有限公司 | 流量预测方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3964963A1 (en) | Method and apparatus for performing a stress test on a business system | |
CN114416512A (zh) | 测试方法、装置、电子设备和计算机存储介质 | |
CN110766185A (zh) | 用户量的确定方法和系统、计算机系统 | |
CN112506619A (zh) | 作业处理方法、装置、电子设备、存储介质和程序产品 | |
CN112965916B (zh) | 页面测试方法、页面测试装置、电子设备及可读存储介质 | |
CN113495825A (zh) | 线路告警的处理方法、装置、电子设备及可读存储介质 | |
CN116662193A (zh) | 页面测试方法和装置 | |
CN113760675A (zh) | 负载预测方法和装置、电子设备以及计算机可读存储介质 | |
CN115296905A (zh) | 一种基于移动终端的数据采集分析方法及系统 | |
CN114637809A (zh) | 同步延迟时间动态配置方法、装置、电子设备及介质 | |
CN114708081A (zh) | 信用风险预测方法及装置、电子设备和可读存储介质 | |
US11138537B2 (en) | Data volume-based server hardware sizing using edge case analysis | |
CN113127362A (zh) | 对象测试方法、对象测试装置、电子设备及可读存储介质 | |
CN113112352A (zh) | 风险业务检测模型训练方法、风险业务检测方法及装置 | |
CN115203178A (zh) | 数据质检方法、装置、电子设备及存储介质 | |
CN114218283A (zh) | 异常检测方法、装置、设备、介质 | |
CN113392010A (zh) | 公共组件测试方法、装置、电子设备及存储介质 | |
CN113656313A (zh) | 自动化测试处理方法及装置 | |
CN113656314A (zh) | 压力测试处理方法及装置 | |
CN113515271A (zh) | 服务代码生成方法、装置、电子设备及可读存储介质 | |
CN113032237A (zh) | 数据处理方法及装置、电子设备和计算机可读存储介质 | |
CN115190008B (zh) | 故障处理方法、故障处理装置、电子设备及存储介质 | |
CN115333871B (zh) | 防火墙的运维方法及装置、电子设备和可读存储介质 | |
CN112948269B (zh) | 信息处理方法、信息处理装置、电子设备及可读存储介质 | |
CN115048280A (zh) | 基于nmon性能监控工具的数据处理方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |