CN115633041B - 多集群的管理方法、装置、电子设备和可读存储介质 - Google Patents
多集群的管理方法、装置、电子设备和可读存储介质 Download PDFInfo
- Publication number
- CN115633041B CN115633041B CN202211347578.5A CN202211347578A CN115633041B CN 115633041 B CN115633041 B CN 115633041B CN 202211347578 A CN202211347578 A CN 202211347578A CN 115633041 B CN115633041 B CN 115633041B
- Authority
- CN
- China
- Prior art keywords
- load
- cluster
- service node
- clusters
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007726 management method Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 33
- 239000003990 capacitor Substances 0.000 claims description 3
- 230000008602 contraction Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 241000412611 Consul Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/101—Server selection for load balancing based on network conditions
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multi Processors (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明公开了一种多集群的管理方法、装置、电子设备和可读存储介质,属于信息处理技术领域。所述方法包括:获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数;根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数;获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重;根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配。
Description
技术领域
本发明属于信息处理技术领域,具体涉及一种多集群的管理方法、装置、电子设备和可读存储介质。
背景技术
随着云计算技术的发展,关于多集群之间的负载均衡问题受到业界广泛的关注。
现有技术中一般采用Nginx、域名系统(Domain Name System DNS)等软件来解决集群件网络流量的分发问题。具体而言,Nginx可同时支持四层、七层负载均衡,且支持轮询、加权轮询等多种策略。DNS域名解析服务器通过域名与IP地址(Internet ProtocolAddress)之间的映射关系实现负载均衡。但是上述方式进行负载均衡时,都需要通过手动配置文件指定具体的调度算法,无法根据服务负载的实际运行情况而进行自动调整。
发明内容
本发明实施例的目的是提供一种多集群的管理方法、装置、电子设备和可读存储介质,能够解决现有的多集群管理技术无法根据服务负载实际运行情况而进行自动调整的问题。
第一方面,本发明实施例提供了一种多集群的管理方法,所述方法包括:
获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数;
根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数;
获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重;
根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配。
可选地,所述根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数,包括:
获取所述N个集群中的可扩缩容集群;
在所述系统所需负载的总量小于或等于所述N个集群的负载容量之和的情况下,根据每个所述集群对应的集群系数之比等于每个所述集群对应的负载容量之比以及所述N个集群的集群系数之和等于1,确定每个所述集群对应的集群系数,其中,所述可扩缩容集群不进行负载容量的扩大或缩小;
在所述系统所需负载的总量大于所述N个集群的负载容量之和的情况下,对所述可扩缩容集群的负载容量进行扩大,根据所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的负载容量与所述系统所需负载的总量之比,确定所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的集群系数以及所述可扩缩容集群的集群系数,其中,所述N个集群的集群系数之和等于1。
可选地,所述获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重,包括:
根据所述负载信息,确定每个所述服务节点对应的负载承载强度;
根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重。
可选地,所述根据所述负载信息,确定每个所述服务节点对应的负载承载强度,包括:
获取待测服务节点的实际中央处理器CPU利用率、实际内存负载利用率和实际网络带宽利用率,所述待测服务节点为所述服务节点中的任一个;
获取所述待测服务节点的理论CPU利用率、理论内存负载分配率和理论网络带宽负载分配率;
基于所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,确定所述待测服务节点的负载承载强度。
可选地,所述根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重,包括:
确定待测服务节点所归属的集群,所述待测服务节点为任一服务节点;
根据所述待测服务节点所归属的集群,确定所述待测服务节点所对应的第一集群系数;
获取所述待测服务节点所对应的第一负载承载强度;
根据所述待测服务节点的所述第一集群系数、所述第一负载承载强度以及每个所述服务节点对应的负载承载强度和所述集群系数,确定所述待测服务节点的分配权重。
第二方面,本发明实施例提供了一种多集群的管理装置,所述装置包括:
获取模块,用于获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数;
第一确定模块,用于根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数;
第二确定模块,获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重;
分配模块,用于根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配。
可选地,所述第一确定模块包括:
获取子模块,用于获取所述N个集群中的可扩缩容集群;
计算子模块,用于在所述系统所需负载的总量小于或等于所述N个集群的负载容量之和的情况下,根据每个所述集群对应的集群系数之比等于每个所述集群对应的负载容量之比以及所述N个集群的集群系数之和等于1,确定每个所述集群对应的集群系数,其中,所述可扩缩容集群不进行负载容量的扩大或缩小;
所述计算子模块还用于,在所述系统所需负载的总量大于所述N个集群的负载容量之和的情况下,对所述可扩缩容集群的负载容量进行扩大,根据所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的负载容量与所述系统所需负载的总量之比,确定所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的集群系数以及所述可扩缩容集群的集群系数,其中,所述N个集群的集群系数之和等于1。
可选地,所述第二确定模块包括:
第一确定子模块,根据所述负载信息,确定每个所述服务节点对应的负载承载强度;
第二确定子模块,根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重。
可选地,所述第一确定子模块还用于:
获取待测服务节点的实际CPU利用率、实际内存负载利用率和实际网络带宽利用率,所述待测服务节点为所述服务节点中的任一个;
获取所述待测服务节点的理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率;
基于所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,确定所述待测服务节点的负载承载强度。
可选地,所述第二确定子模块还用于:
确定待测服务节点所归属的集群,所述待测服务节点为任一服务节点;
根据所述待测服务节点所归属的集群,确定所述待测服务节点所对应的第一集群系数;
获取所述待测服务节点所对应的第一负载承载强度;
根据所述待测服务节点的所述第一集群系数、所述第一负载承载强度以及每个所述服务节点对应的负载承载强度和所述集群系数,确定所述待测服务节点的分配权重。
第三方面,本发明实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的多集群的管理方法的步骤。
第四方面,本发明实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的多集群的管理方法的步骤。
在本发明实施例中,在系统接受到客户的服务请求时,实时获取系统中各集群的集群系数以及各服务节点的负载运行状况来确定每个服务节点对应的分配权重,合理地将客户的服务请求部署到各个服务节点上,无需操作人员手动配置具体的调度算法,提高了系统使用的便利性。
附图说明
图1为本发明实施例提供的多集群的管理方法的流程示意图;
图2为本发明实施例提供的多集群的管理方法中,获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重的流程示意图;
图3为本发明实施例提供的多集群的管理方法中,根据所述负载信息,确定每个所述服务节点对应的负载承载强度的流程示意图;
图4为本发明实施例提供的多集群的管理方法中,根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重的流程示意图;
图5为本发明实施例提供的多集群的管理方法的可选的应用场景示意图;
图6为图5所示的应用场景示意图中调度层与访问层、服务层之间交互关系示意图;
图7为本发明实施例提供的多集群的管理装置的结构示意图;
图8为本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本发明实施例提供的多集群的管理方法进行详细地说明。
如图1所示,本发明实施例提供的多集群的管理方法包括:
步骤S1,获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数,
集群是一组相互独立的、通过高速网络互联的计算机,构成了同一个组,并以单一系统的模式加以管理,可以理解为一个独立的服务器,这一独立的服务器中的服务节点为一台计算机。需要说明的是,本发明实施例所提供的方法针对系统中具备多个集群的情况。
步骤S2,根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数,
所述系统所需负载的总量由客户的服务请求决定,示例性的,当客户提出需要一定量的网络流量时,获取所述N个集群中每个集群所能提供的网络流量的理论值,根据每个集群所能提供的网络流量的理论值之比,可确定出每个集群所对应的集群系数,集群系数的数值影响每个集群的网络流量的分配关系。
步骤S3,获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重,
所述负载信息可以是计算机服务节点实时的内存负载情况、网络带宽负载情况等,结合负载信息和服务节点所属集群所对应的集群系数,可选地,将一个欲求出分配权重的服务节点对应的集群系数与对应的负载容量的乘积除以每个服务节点对应的集群系数与对应的负载容量的乘积之和,所得出的商的数值,与所述欲求出分配权重的服务节点的分配权重的数值一致。
步骤S4,根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配。
在客户发出服务请求时,系统所需负载的总量乘以每个所述服务节点对应的分配权重,得出值即为每个所述服务节点实际需要部署的服务负载的数量。
通过上述步骤,在系统接受到客户的服务请求时,实时获取系统中各集群的集群系数以及各服务节点的负载运行状况来确定每个服务节点对应的分配权重,合理地将客户的服务请求部署到各个服务节点上,无需操作人员手动配置具体的调度算法,提高了系统使用的便利性。
可选地,步骤S2,根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数,包括:
步骤S21,获取所述N个集群中的可扩缩容集群,
需要说明的是,在系统实际运行过程中,客户对系统所发出的服务请求的量即,所述系统所需负载的总量是不一定的,设置所述可扩缩容集群,当所述系统所需负载的总量小于或等于所述N个集群所能提供的负载的量,即所述N个集群的负载容量之和时,所述可扩缩容集群的负载容量缩小或者保持不变,当所述系统所需负载的总量大于所述N个集群所能提供的负载的量时,扩大所述可扩缩容集群的负载容量即可满足客户的服务请求。既节约了负载容量资源,又增强了负载容量资源的管理策略的灵活性。
步骤S22,在所述系统所需负载的总量小于或等于所述N个集群的负载容量之和的情况下,根据每个所述集群对应的集群系数之比等于每个所述集群对应的负载容量之比以及所述N个集群的集群系数之和等于1,确定每个所述集群对应的集群系数,其中,所述可扩缩容集群不进行负载容量的扩大或缩小,
下述以系统中存在集群C1、C2为例对上述步骤进行说明,其中,C1为可扩缩容集群,其初始容量为QPS1,对应的集群系数为n1,C2的负载容量恒定为QPS2,对应的集群系数为n2,系统所需负载的总量为QPSt。当QPSt≤QPS1+QPS2时,n1/n2=QPS1/QPS2,结合n1+n2=1,可求出n1和n2的值。
步骤S22,在所述系统所需负载的总量大于所述N个集群的负载容量之和的情况下,对所述可扩缩容集群的负载容量进行扩大,根据所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的负载容量与所述系统所需负载的总量之比,确定所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的集群系数以及所述可扩缩容集群的集群系数,其中,所述N个集群的集群系数之和等于1。
同样以系统中存在可扩缩容集群C1和负载容量恒定的集群C2为例对上述步骤进行说明,当QPSt>QPS1+QPS2时,扩大C1的负载容量,n2=QPS2/QPSt,结合n1+n2=1,可求出n1和n2的值。可以类比理解地,若系统中存在可扩缩容集群C1和负载容量恒定的集群C2、C3,集群C3对应的集群系数为n3当QPSt>QPS1+QPS2+QPS3时,n2=QPS2/QPSt,n3=QPS3/QPSt,结合n1+n2+n3=1,可分别求出n1、n2和n3的值。集群数量更多的情况,则进行类推,得出每个所述集群对应的集群系数。
根据客户所需负载的总量来判断可扩缩容集群是否需要扩大负载容量,再根据各个集群对应的负载容量来确定对应的集群系数,使得本发明实施例提供的多集群的管理方法在使用时更加灵活。
可选地,如图2所示,步骤S3,获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重,包括:
步骤S31,根据所述负载信息,确定每个所述服务节点对应的负载承载强度,
通过获取每个所述服务节点的负载信息,负载信息可以是计算机的磁盘使用率,内存使用率,网络占用率等,来确定每个所述服务节点对应的负载承载强度,负载承载强度用于表示每个所述服务节点在保持正常运行的情况下,能够部署的负载的量。
步骤S32,根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重。
根据每个所述服务节点对应的负载承载强度,以及上述步骤所得出的每个所述服务节点的集群系数,从而针对每个服务节点进行分配权重的配置,使得本发明实施例提供的多集群的管理方法更加地精确,保证了每个服务节点都能够正常运行且承载合理的负载量。
具体的,如图3所示,步骤S31,根据所述负载信息,确定每个所述服务节点对应的负载承载强度,包括:
步骤S311,获取待测服务节点的实际中央处理器(central processing unitCPU)利用率、实际内存负载利用率和实际网络带宽利用率,所述待测服务节点为所述服务节点中的任一个,
需要说明的是,在系统接收到客户的服务请求时,实时地获取所述待测服务节点,即待测计算机中参与完成客户所需服务请求的主要部件的利用率。实际CPU利用率为CPU实际运行工作量与最大理论运行工作量之比,实际内存负载利用率为内存实际运行工作量与最大理论运行工作量之比,同理,实际网络带宽利用率为网络带宽实际运行工作量与最大理论运行工作量之比。
步骤S312,获取所述待测服务节点的理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,
需要说明的是,负载分配率是指,待测计算机中参与完成客户所需服务请求的主要部件的运行工作量占所述客户所需服务请求的总工作量的比例。一般根据经验进行设置,如计算密集型任务,CPU需要完成50%的任务量,理论CPU负载分配率为0.5,内存需要完成30%的任务量,网络带宽需要完成20%的工作量,理论内存负载分配率和理论网络带宽负载分配率分别为0.3和0.2。
步骤S313,基于所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,确定所述待测服务节点的负载承载强度。
可选地,根据实际中央处理器CPU利用率lcpu,实际内存负载利用率lmem,实际网络带宽利用率lnet,理论CPU负载分配率K1,理论内存负载分配率K2,理论网络带宽负载分配率K3,得出所述待测服务节点的负载承载强度S1=K1/lcpu+K2/lmem+K3/lnet,从而判断所述待测服务节点能够部署的负载量。
本发明实施例通过获取所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率来判断服务节点的负载承载强度,保证了所得出的负载承载强度的准确性。
可选地,如图4所示,步骤S32,根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重,包括:
步骤S321,确定待测服务节点所归属的集群,所述待测服务节点为任一服务节点;
需要说明的是,在确定所述待测服务节点所归属的集群时,还确定所述N个集群中,与所述待测服务节点可用于客户所需的同一种服务请求的其余服务节点。
步骤S322,根据所述待测服务节点所归属的集群,确定所述待测服务节点所对应的第一集群系数,
可以理解的,所述待测服务节点所归属的集群所对应的集群系数,即所述待测服务节点所对应的第一集群系数。
步骤S323,获取所述待测服务节点所对应的第一负载承载强度,
所述待测服务节点所对应的负载承载强度为第一负载承载强度,所述第一负载承载强度的确定方式如步骤S31所示,在此不再赘述。
步骤S324,根据所述待测服务节点的所述第一集群系数、所述第一负载承载强度以及每个所述服务节点对应的负载承载强度和所述集群系数,确定所述待测服务节点的分配权重。
如图5所示,本发明实施例所应用的系统包括访问层、调度层、服务层。访问层通过Nginx服务器和流量监控器构成,客户向访问层发出服务请求,流量监控器用于获取所述系统所需负载的总量。
服务层包括两个集群,每个集群中包括系统监控器和若干服务节点。图5所示SRV(serve)A表示用于客户所需的服务请求A的服务节点,SRV B表示用于客户所需的服务请求B的服务节点。系统监控器用于获取每个集群的负载容量和集群中每个服务节点的负载信息。
调度层可以是由Fabio路由器、Consul组件和负载协调器构成。如图6所示,负载协调器包括负载管理模块、负载计算模块、负载监控模块和负载调度模块,流量监控器获取的所述系统所需负载的总量和系统监控器所获取的服务节点的负载信息都发送至负载监控模块,负载监控模块将信息发送至负载管理模块和负载计算模块,负载管理模块和负载计算模块用于执行上述步骤S31和S32的方法,负载调度模块将负载管理模块和负载计算模块计算得出的服务节点的分配权重信息发送至Consul组件,Consul组件根据分配权重信息更新Fabio路由器的路由表,Fabio路由器根据新的路由表转发请求,实现对每个服务节点的负载进行分配。
针对图5、图6所示的一种应用场景。所述待测服务节点为集群1中的一个SRV A节点,所述待测服务节点的分配权重:
其中x表示集群1中用于服务请求A的服务节点的数量,y表示在集群2中用于服务请求A的数量。SSRVA i表示,在集群1中用于服务请求A的服务节点对应的负载承载强度。SSRVA j表示,在集群2中用于服务请求A的服务节点对应的负载承载强度。调整上述公式中的分子项,将S1替换为在集群1中其余用于服务请求A的服务节点的负载承载强度,可得出集群1中每个用于服务请求A的服务节点的分配权重。将n1替换成n2,S1替换为集群2中其余用于服务请求A的服务节点对应的负载承载强度,可得出集群2中每个用于服务请求A的服务节点的分配权重。通过上述步骤,得出所有集群中,用于服务请求A的每个服务节点的分配权重。
可以理解地,将上述公式中,分子项和分母项的负载承载强度替换成用于服务请求B的服务节点的负载承载强度,可得出所有集群中,用于服务请求B的每个服务节点的分配权重。
本发明实施例提供的多集群的管理方法,执行主体可以为多集群的管理装置。本发明实施例中以多集群的关咯装置执行多集群的管理方法为例,并结合附图7说明本发明实施提供的多集群的管理装置700。所述装置包括:
获取模块701,用于获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数;
第一确定模块702,用于根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数;
第二确定模块703,获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重;
分配模块704,用于根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配。
可选地,所述第一确定模块包括:
获取子模块,用于获取所述N个集群中的可扩缩容集群;
计算子模块,用于在所述系统所需负载的总量小于或等于所述N个集群的负载容量之和的情况下,根据每个所述集群对应的集群系数之比等于每个所述集群对应的负载容量之比以及所述N个集群的集群系数之和等于1,确定每个所述集群对应的集群系数,其中,所述可扩缩容集群不进行负载容量的扩大或缩小;
所述计算子模块还用于,在所述系统所需负载的总量大于所述N个集群的负载容量之和的情况下,对所述可扩缩容集群的负载容量进行扩大,根据所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的负载容量与所述系统所需负载的总量之比,确定所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的集群系数以及所述可扩缩容集群的集群系数,其中,所述N个集群的集群系数之和等于1。
可选地,所述第二确定模块包括:
第一确定子模块,根据所述负载信息,确定每个所述服务节点对应的负载承载强度;
第二确定子模块,根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重。
可选地,所述第一确定子模块还用于:
获取待测服务节点的实际CPU利用率、实际内存负载利用率和实际网络带宽利用率,所述待测服务节点为所述服务节点中的任一个;
获取所述待测服务节点的理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率;
基于所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,确定所述待测服务节点的负载承载强度。
可选地,所述第二确定子模块还用于:
确定待测服务节点所归属的集群,所述待测服务节点为任一服务节点;
根据所述待测服务节点所归属的集群,确定所述待测服务节点所对应的第一集群系数;
获取所述待测服务节点所对应的第一负载承载强度;
根据所述待测服务节点的所述第一集群系数、所述第一负载承载强度以及每个所述服务节点对应的负载承载强度和所述集群系数,确定所述待测服务节点的分配权重。
本发明实施例提供的多集群的管理装置,能够在系统接受到客户的服务请求时,实时获取系统中各集群的集群系数以及各服务节点的负载运行状况来确定每个服务节点对应的分配权重,合理地将客户的服务请求部署到各个服务节点上,无需操作人员手动配置具体的调度算法,提高了系统使用的便利性。
需要说明的是,本发明实施例所提供的多集群的管理装置能够实现上述多集群的管理方法的全部技术过程,并能达到相同的技术效果,为避免重复,此处不再赘述。
本发明实施例中的多集群的管理装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备还可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本发明实施例不作具体限定。
可选地,如图8所示,本发明实施例还提供一种电子设备800,包括处理器801和存储器802,存储器802上存储有可在处理器801上运行的程序或指令,该程序或指令被处理器801执行时实现上述多集群的管理方法实施例的各个步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本发明实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
本发明实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述多集群的管理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本发明实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种多集群的管理方法,其特征在于,所述方法包括:
获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数;
根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数;
获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重;
根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配;
所述根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数,包括:
获取所述N个集群中的可扩缩容集群;
在所述系统所需负载的总量小于或等于所述N个集群的负载容量之和的情况下,根据每个所述集群对应的集群系数之比等于每个所述集群对应的负载容量之比以及所述N个集群的集群系数之和等于1,确定每个所述集群对应的集群系数,其中,所述可扩缩容集群不进行负载容量的扩大或缩小;
在所述系统所需负载的总量大于所述N个集群的负载容量之和的情况下,对所述可扩缩容集群的负载容量进行扩大,根据所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的负载容量与所述系统所需负载的总量之比,确定所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的集群系数以及所述可扩缩容集群的集群系数,其中,所述N个集群的集群系数之和等于1。
2.如权利要求1所述的多集群的管理方法,其特征在于,所述获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重,包括:
根据所述负载信息,确定每个所述服务节点对应的负载承载强度;
根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重。
3.如权利要求2所述的多集群的管理方法,其特征在于,所述根据所述负载信息,确定每个所述服务节点对应的负载承载强度,包括:
获取待测服务节点的实际中央处理器CPU利用率、实际内存负载利用率和实际网络带宽利用率,所述待测服务节点为所述服务节点中的任一个;
获取所述待测服务节点的理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率;
基于所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,确定所述待测服务节点的负载承载强度。
4.如权利要求3中所述的多集群的管理方法,其特征在于,所述根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重,包括:
确定待测服务节点所归属的集群,所述待测服务节点为任一服务节点;
根据所述待测服务节点所归属的集群,确定所述待测服务节点所对应的第一集群系数;
获取所述待测服务节点所对应的第一负载承载强度;
根据所述待测服务节点的所述第一集群系数、所述第一负载承载强度以及每个所述服务节点对应的负载承载强度和所述集群系数,确定所述待测服务节点的分配权重。
5.一种多集群的管理装置,其特征在于,所述装置包括:
获取模块,用于获取系统所需负载的总量、所述系统中N个集群的负载容量以及所述N个集群中全部服务节点各自对应的负载信息,N为大于1的整数;
第一确定模块,用于根据所述系统所需负载的总量和所述N个集群的负载容量,确定每个所述集群对应的集群系数;
第二确定模块,获取每个所述服务节点所对应的集群系数,结合所述负载信息,确定每个所述服务节点对应的分配权重;
分配模块,用于根据所述系统所需负载的总量和每个所述服务节点对应的分配权重,对每个所述服务节点进行负载的分配;
所述第一确定模块包括:
获取子模块,用于获取所述N个集群中的可扩缩容集群;
计算子模块,用于在所述系统所需负载的总量小于或等于所述N个集群的负载容量之和的情况下,根据每个所述集群对应的集群系数之比等于每个所述集群对应的负载容量之比以及所述N个集群的集群系数之和等于1,确定每个所述集群对应的集群系数,其中,所述可扩缩容集群不进行负载容量的扩大或缩小;
所述计算子模块还用于,在所述系统所需负载的总量大于所述N个集群的负载容量之和的情况下,对所述可扩缩容集群的负载容量进行扩大,根据所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的负载容量与所述系统所需负载的总量之比,确定所述N个集群中除所述可扩缩容集群之外的其余每个集群对应的集群系数以及所述可扩缩容集群的集群系数,其中,所述N个集群的集群系数之和等于1。
6.如权利要求5所述的多集群的管理装置,其特征在于,所述第二确定模块包括:
第一确定子模块,根据所述负载信息,确定每个所述服务节点对应的负载承载强度;
第二确定子模块,根据每个所述服务节点对应的负载承载强度和所述集群系数,确定每个所述服务节点对应的分配权重。
7.如权利要求6所述的多集群的管理装置,其特征在于,所述第一确定子模块还用于:
获取待测服务节点的实际CPU利用率、实际内存负载利用率和实际网络带宽利用率,所述待测服务节点为所述服务节点中的任一个;
获取所述待测服务节点的理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率;
基于所述实际CPU利用率、实际内存负载利用率、实际网络带宽利用率、理论CPU负载分配率、理论内存负载分配率和理论网络带宽负载分配率,确定所述待测服务节点的负载承载强度。
8.如权利要求7所述的多集群的管理装置,其特征在于,所述第二确定子模块还用于:
确定待测服务节点所归属的集群,所述待测服务节点为任一服务节点;
根据所述待测服务节点所归属的集群,确定所述待测服务节点所对应的第一集群系数;
获取所述待测服务节点所对应的第一负载承载强度;
根据所述待测服务节点的所述第一集群系数、所述第一负载承载强度以及每个所述服务节点对应的负载承载强度和所述集群系数,确定所述待测服务节点的分配权重。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至4中任一项所述的多集群的管理方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1至4中任一项所述的多集群的管理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211347578.5A CN115633041B (zh) | 2022-10-31 | 2022-10-31 | 多集群的管理方法、装置、电子设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211347578.5A CN115633041B (zh) | 2022-10-31 | 2022-10-31 | 多集群的管理方法、装置、电子设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115633041A CN115633041A (zh) | 2023-01-20 |
CN115633041B true CN115633041B (zh) | 2024-06-04 |
Family
ID=84908937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211347578.5A Active CN115633041B (zh) | 2022-10-31 | 2022-10-31 | 多集群的管理方法、装置、电子设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115633041B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116980425B (zh) * | 2023-06-21 | 2024-07-05 | 杭州瑞网广通信息技术有限公司 | 一种流媒体集群的弹性伸缩方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010100859A1 (ja) * | 2009-03-03 | 2010-09-10 | 株式会社日立製作所 | 分散システム |
CN106254470A (zh) * | 2016-08-08 | 2016-12-21 | 广州唯品会信息科技有限公司 | 分布式作业分片分配方法和装置 |
CN109617826A (zh) * | 2018-12-29 | 2019-04-12 | 南京航空航天大学 | 一种基于布谷鸟搜索的storm动态负载均衡方法 |
CN113110933A (zh) * | 2021-03-11 | 2021-07-13 | 浙江工业大学 | 一种具有Nginx负载均衡技术的系统 |
CN113938488A (zh) * | 2021-09-24 | 2022-01-14 | 浙江理工大学 | 一种基于动静态加权轮询的负载均衡方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7644137B2 (en) * | 2004-12-14 | 2010-01-05 | Sap Ag | Workload balancing in environments with multiple clusters of application servers |
-
2022
- 2022-10-31 CN CN202211347578.5A patent/CN115633041B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010100859A1 (ja) * | 2009-03-03 | 2010-09-10 | 株式会社日立製作所 | 分散システム |
CN106254470A (zh) * | 2016-08-08 | 2016-12-21 | 广州唯品会信息科技有限公司 | 分布式作业分片分配方法和装置 |
CN109617826A (zh) * | 2018-12-29 | 2019-04-12 | 南京航空航天大学 | 一种基于布谷鸟搜索的storm动态负载均衡方法 |
CN113110933A (zh) * | 2021-03-11 | 2021-07-13 | 浙江工业大学 | 一种具有Nginx负载均衡技术的系统 |
CN113938488A (zh) * | 2021-09-24 | 2022-01-14 | 浙江理工大学 | 一种基于动静态加权轮询的负载均衡方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115633041A (zh) | 2023-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109032801B (zh) | 一种请求调度方法、系统及电子设备和存储介质 | |
CN109618002B (zh) | 一种微服务网关优化方法、装置及存储介质 | |
CN107026907B (zh) | 一种负载均衡方法、负载均衡器及负载均衡系统 | |
US20200364608A1 (en) | Communicating in a federated learning environment | |
CN103391299B (zh) | 负载均衡方法和负载均衡系统 | |
CN110365748A (zh) | 业务数据的处理方法和装置、存储介质及电子装置 | |
US11049025B2 (en) | Systems and methods for compute node management protocols | |
CN110868465A (zh) | 一种容器云的负载均衡系统及方法 | |
CN110086886B (zh) | 动态会话保持方法及装置 | |
CN115633041B (zh) | 多集群的管理方法、装置、电子设备和可读存储介质 | |
CN113014611B (zh) | 一种负载均衡方法及相关设备 | |
CN109274710A (zh) | 网络负载均衡方法、装置及集群服务系统 | |
CN107835262A (zh) | 一种流媒体服务器负载动态分配方法 | |
CN110691042A (zh) | 资源分配方法及装置 | |
CN114168312A (zh) | 一种分布式集群负载均衡方法、装置及存储介质 | |
CN116633932B (zh) | 一种云计算资源池动态调度系统 | |
CN109413117B (zh) | 分布式数据计算方法、装置、服务器及计算机存储介质 | |
CN108111567A (zh) | 实现服务器负载均匀的方法及系统 | |
CN103281254B (zh) | 动态配置带宽的方法 | |
CN110933128B (zh) | 节点流量调度方法、装置、电子设备及存储介质 | |
CN113537909A (zh) | 设备资产管理方法及装置 | |
JP2004062686A (ja) | 並列処理システム、サーバ、並列処理方法、プログラム、及び、記録媒体 | |
CN110995802A (zh) | 任务的处理方法和装置、存储介质及电子装置 | |
CN115002117B (zh) | 内容分发网络动态调度方法、系统、设备及存储介质 | |
CN110636149A (zh) | 远程访问方法、装置、路由器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |