WO2012065426A1 - 一种分布式缓存系统中负荷分配方法、装置及服务器 - Google Patents

一种分布式缓存系统中负荷分配方法、装置及服务器 Download PDF

Info

Publication number
WO2012065426A1
WO2012065426A1 PCT/CN2011/075223 CN2011075223W WO2012065426A1 WO 2012065426 A1 WO2012065426 A1 WO 2012065426A1 CN 2011075223 W CN2011075223 W CN 2011075223W WO 2012065426 A1 WO2012065426 A1 WO 2012065426A1
Authority
WO
WIPO (PCT)
Prior art keywords
server node
server
node
load
temporary
Prior art date
Application number
PCT/CN2011/075223
Other languages
English (en)
French (fr)
Inventor
丁磊
郭斌
韩银俊
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2012065426A1 publication Critical patent/WO2012065426A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks

Definitions

  • the present invention relates to the field of cloud computing technologies, and in particular, to a load distribution method and a server in a cloud computing distributed cache system.
  • Cloud Computing is Grid Computing, Distributed Computing, Parallel Computing, Utility Computing, Network Storage Technologies, and Virtualization. And the integration of traditional computer technology and network technology such as Load Balance. Cloud computing aims to integrate multiple relatively low-cost computing entities into a system with powerful computing power through the network.
  • Distributed caching is an area in the field of cloud computing. Its role is to provide distributed storage services for massive data and high-speed read and write access.
  • the load distribution of server nodes is one of the key problems that are difficult to solve.
  • the distributed cache system is composed of multiple server nodes and clients connected to each other; the server is responsible for data storage; the client can perform data write, read, update, and delete operations on the server.
  • the written data cannot be stored only on a single server node (hereinafter referred to as "node"), but a copy of the same data is stored on multiple nodes, and copies of the data are mutually backed up.
  • An action such as writing, updating, and deleting a certain data is called a request.
  • the distributed cache system server will continuously receive different requests.
  • the path that sends the request to the server node is called Route.
  • the request arrives at the corresponding node according to the corresponding route.
  • the set of routes is called the Route Table. If the distributed cache system receives multiple request actions simultaneously or sequentially, it must perform corresponding processing operations on different nodes to ensure fast and accurate data writing, updating, and deletion, and give a response.
  • the distribution load generally adopts a virtual node (Virtual Node) solution, and the method includes: treating each server node as a carrier of one or more virtual nodes, and mapping the virtual node to 0 according to a certain rule. ⁇ 2 32 on the hash (Hash) ring.
  • the load carried by each virtual node is determined by the location of the virtual node on the Hash ring.
  • the client sends a request to the server, it finds the corresponding server based on the location of the requested data map on the ring.
  • the disadvantage of this method is that the load distribution is highly random, which is easy to cause the load of a certain node to be very high. In addition, if multiple nodes fail at the same time, the probability of partial routing failure is large.
  • the present invention provides a load distribution method in a distributed cache system, the method comprising: filtering a local server node list to generate a temporary server node list, where the temporary server node list includes a service providing capability Information of the server node; and assigning load weights to all server nodes in the temporary server node list according to state information and/or load processing capability of the nodes in the temporary server node list, and generating routing information according to load weights of each server node And indicating that each server node in the temporary server node list updates the local routing information.
  • the server node having the service capability includes: a link stable node, or a link stable node and a link unstable node, where the link stable node includes: a link stable and currently available node
  • the link instability node includes one or more of the following nodes: a node that is unstable but currently available, a node that is unstable and not currently available, and a link that temporarily disconnects the node that is being reconnected.
  • the information of the server node having the service capability in the temporary server node list includes: address information, link status, node type, load handling capacity, And load weights.
  • the weight of the link stable node is higher than the weight of the unstable node of the link; when the load weight is allocated according to the load processing capability, the weight of the node whose hardware configuration is higher than the predetermined first threshold is higher than the hardware configuration.
  • the weight of the node at the predetermined first threshold, and/or the weight of the node whose current hardware usage is higher than the predetermined second threshold is higher than the weight of the node whose hardware current usage is lower than the predetermined second threshold.
  • the method further includes: sending load weight information to all server nodes in the temporary server node list, where the load weight information includes: a current server The node weight value occupies the ratio of the sum of all server node weight values, or the load weight value of all server nodes.
  • the step of generating routing information according to the load weight of each server node comprises: determining the number of identifiers according to the number of server nodes in the temporary server node list, and generating an identifier sequence, wherein the identifier number is greater than or Equal to the number of server nodes; assign an identifier to each node according to the load weight of each server node; and combine the assigned identifier with the address information of the corresponding server node to obtain routing information, and write the routing information.
  • the step of indicating that each server node in the temporary server node list updates local routing information comprises: sending a routing update message or load weight information to all server nodes in the temporary server node list to indicate each server node
  • the list obtains routing information, where the load weight information includes: a ratio of a current server node weight value occupying a sum of all server node weight values, or a load weight value of all server nodes;
  • all the server nodes in the temporary server node list obtain the latest routing information from the default location, and update the local routing information.
  • the method further includes: after the server node in the temporary server node list receives the request sent by the client according to the local routing information, the If the request of the client does not meet the routing information of the server node, the client's request is forwarded to the corresponding server node according to the local routing information of the server node, and the local routing information of the server node is pushed to the client. The client saves the routing information.
  • the present invention also provides a device for load distribution in a distributed cache system, the device comprising: a first unit, and a second unit, wherein: the first unit is configured to: when performing load distribution, Filtering a local server node list to generate a temporary server node list, where the temporary server node list includes information of a server node having a service capability; and the second unit is configured to: according to state information of the node in the temporary server node list
  • the load processing capability allocates load weights to all server nodes in the temporary server node list, generates routing information according to load weights of the server nodes, and instructs each server node in the temporary server node list to update local routing information.
  • the second unit is configured to generate routing information according to load weights of each server node as follows: determining the number of identifiers according to the number of server nodes in the temporary server node list, and generating an identifier sequence, The number of the identifiers is greater than or equal to the number of server nodes; assigning an identifier to each node according to the load weight of each server node; and combining the assigned identifier with the address information of the corresponding server node to obtain routing information, and writing Routing table.
  • the second unit is configured to instruct each server node in the temporary server node list to update local routing information as follows: Sending a routing update message or load weight information to all the server nodes in the temporary server node list to indicate that each server node list obtains routing information, where the load weight information includes: the current server node weight value occupies the sum of all server node weight values The ratio, or the load weight value of all server nodes.
  • the present invention also provides a server for load distribution in a distributed cache system, including the apparatus as described above.
  • the invention provides an efficient and reliable solution for load distribution in a distributed cache system, and allocates corresponding load according to the current load state and processing capability of the service node.
  • the solution can analyze the existing load sharing situation of each node in advance and The current processing capability prevents some nodes from being unable to provide services due to excessive load sharing, so that the load to be processed can be automatically and reasonably dispatched to different processing nodes for efficient processing, thereby improving system availability. , operating efficiency and stability.
  • FIG. 1 is a structural diagram of a network element according to an embodiment of the present invention
  • FIG. 2 is a structural diagram of another network element according to an embodiment of the present invention
  • FIG. 3 is a flowchart of a load distribution operation performed by a service node according to an embodiment of the present invention
  • the load distribution method of the embodiment of the present invention includes: filtering a local server node list to generate a temporary server node list, where the temporary server node list includes information of a server node having a service capability; Allocating load weights to all server nodes in the temporary server node list according to state information and/or load processing capability of nodes in the temporary server node list, generating routing information according to load weights of each server node, indicating the temporary server Each server node in the node list updates the local routing information.
  • the above method can be implemented by a device, which can be located in a server node, as shown in the figure
  • Step 1 Filtering a local server node list to generate a temporary server node list, where the temporary server node list includes information of a server node having a service capability; if the server node performs the process, the server node may be in the system Any server node having a load distribution function, that is, a server node (hereinafter referred to as a first server node) including a load distribution device.
  • the console selects the server node having the load distribution function, and sends a load distribution operation instruction to the selected server node, and the server node performs load distribution after receiving the load distribution operation instruction.
  • the console can transmit a load distribution operation command to the load distribution device.
  • the console may send a load distribution operation instruction to a server node or a load distribution device having a load distribution function when detecting that the server node is increased or decreased.
  • the first server node or the load distribution device reads the local current server node list, determines whether the status of each server node in the current current server node list is normal, and filters from the local current server node list.
  • a server node that does not have the ability to provide services saves the filtered list of server nodes as a list of temporary server nodes; or a server node with normal status
  • the information is saved in a newly created list of server nodes. After the end of this load distribution, the list of temporary server nodes will be cleared.
  • the server node having the service capability includes: a link stable node, or a link stable node and a link unstable node.
  • a link-stabilized node is a node that is stable and currently available.
  • the link-unstable node includes one or more of the following nodes: A link that is unstable but currently available (such as poor network cable contact), chain Nodes that are unstable and are currently unavailable, link temporary Disconnect the node that is being reconnected.
  • Server nodes that do not have the ability to provide services include: permanent faulty nodes (hardware failure or exiting the cluster, etc.) and temporary faulty nodes (hardware failures such as bad network card being replaced).
  • the temporary server node list includes the following information of the server node that provides the service capability: address information (such as IP address), link state, node type, handleable load capacity, and Load weight.
  • address information such as IP address
  • link state such as IP address
  • node type such as IP address
  • handleable load capacity such as load capacity
  • Load weight the load capacity can be handled: Under the current conditions, the node can continue to handle the size of the newly added load, which is equivalent to the total capacity minus the used capacity.
  • the load weight indicates the ratio of the server node to the load carried by other server nodes. By changing the load weight value, the load of the server node can be increased or decreased.
  • the contents of the temporary server node list are the same as those in the server node list.
  • the load weights in the server node list of each node are the default values, and the weights of each server node are the same.
  • the load weight in the server node list is the load weight value assigned at the time of the last load allocation.
  • the load weight in the server node list of each node is still the default value or the last load weight value.
  • Step 2 allocating load weights to all server nodes in the temporary server node list according to state information and/or load processing capability of the nodes in the temporary server node list; assigning load weights according to node state information, including link stable nodes The weight is higher than the weight of the unstable link of the link, that is, the load is preferentially assigned to the link stable node.
  • the load is sequentially allocated to the node with unstable link but currently available.
  • the link is unstable and cannot be currently available.
  • the node used, the link temporarily disconnects the node that is being reconnected.
  • Allocating the load weight according to the load processing capability includes: considering the hardware configuration of the node and the current usage of the hardware to allocate the load, and the weight of the node whose hardware configuration is higher than the predetermined first threshold is higher than the weight of the node whose hardware configuration is lower than the predetermined first threshold. And/or, the weight of the node whose current hardware usage is higher than the predetermined second threshold is higher than the weight of the node whose hardware current usage is lower than the predetermined second threshold.
  • the hardware configuration can refer to one or more of the following parameters: CPU processing capacity, memory capacity, hard disk capacity, network card capacity, and network bandwidth.
  • For current hardware usage refer to one or more of the following parameters: CPU remaining processing capacity, memory remaining capacity, hard disk remaining capacity, and network card remaining capacity.
  • Nodes with strong processing power and/or better hardware current usage have higher weight values. It is also possible to combine the above two points, that is, to simultaneously determine the load weight value with reference to the node state information and the load processing capability. After allocating the load weight value to each node in the temporary server node list, the load weight in the temporary server node list in the first server node or the temporary server node in the load distribution device is updated with the newly assigned load weight value of each node. The load weight in the list. The first server node or load distribution device notifies the updated load weights to all nodes in the temporary server node list to cause the nodes to update the local server node list. This update operation can also be performed after step 3.
  • the server node can save the weight value in the following way: Save the ratio of the current server node weight value to the sum of all server node weight values, or save the weight values of all server nodes.
  • the weights of nodes A, B, and C are 1, 2, and 3, respectively, then the weight that can be saved for node A is 1/6, or 1:2:3.
  • the number of requests received by each node can be controlled according to the assigned weights, thereby avoiding overloaded nodes.
  • Step 3 Generate routing information according to load weights of each server node in the temporary server node list, and instruct each server node in the temporary server node list to update local routing information.
  • Generating routing information according to the load weight includes: determining the number of identifiers according to the number of each server node, and generating an identifier sequence; the number of identifiers may be the same as the number of server nodes, or greater than the number of server nodes (for example, server nodes) A multiple of the number); an identifier is assigned to each node according to the load weight of each server node; the assigned identifier is combined with the address information of the corresponding server node to obtain routing information.
  • the identifier assigned to each node may be continuous or discontinuous. For example, generate 100 identifiers, denoted by 1-100, there are three server nodes A, B, and C.
  • the weight ratio of the three nodes is 2:3:5, then 20 identifiers are assigned to node A. 30 identifiers are assigned to node B, and 50 identifiers are assigned to node C, that is, A: 1-20, B: 71-100, C: 21-70, written in the routing table, and the format is the identifier corresponding to the node. Add the IP address of the node, such as 1: 192.168.0.1.
  • the foregoing provides only one method for generating routing information, but is not limited to the implementation by the method, and may be implemented by other methods. Determining the number of identifiers can be determined by reference to the historical load.
  • each server node in the temporary server node list to update the local routing information includes: sending a routing update message to each server node; after receiving the routing update message, each server node is from the default location (may be the first server node, or other dedicated to The server node storing the routing information, or the load distribution device) acquires the latest routing information.
  • the first server node or the load distribution device needs to send the latest routing information to the server node, and then send a routing update message to the other server node, and each server node receives the routing update message from the server node.
  • the default server node gets the latest routing information.
  • the routing information is advertised by a server node to ensure that the routing information obtained by the remaining server nodes is the same, avoiding errors.
  • the first server node or the load distribution device may also send the updated load weight to each node at this time. After receiving the updated load weight, each node actively acquires the latest routing information from the default location. After the load weight and routing information of all nodes are updated, the load distribution process is completed.
  • the server node After the load distribution is completed, the server node receives the request sent by the client. At this time, the client sends the old routing table saved on the client, and the server node that receives the request finds that the client's request does not comply with the new routing table. Forwarding the client's request to the corresponding server node according to the latest routing table, and pushing the new routing table to the client, the client saves the latest routing table, and then sends a request to the corresponding server according to the new routing table. node.
  • the server node with strong load handling capability prioritizes the load, avoiding the load distribution being too dispersed and causing the load of a single point in the running process to be too high. Or because some nodes fail at the same time, some routes are invalid.
  • the calculation of server node status and weight values is automatically calculated according to a specific algorithm, without the need for additional intervention, in order to achieve efficient and fast purposes.
  • the server node load weight value can also be manually specified by the project maintenance personnel.
  • a distributed cache system composed of a server node and a client is shown in FIG. 1. Referring to FIG.
  • Step 3 the following method is described by taking the load distribution of the server node as an example, including the following steps: Pre-steps: Each server node in the distributed cache system establishes a connection with each other and the cluster can provide services; the console runs normally.
  • Step 1 A server node receives a load distribution operation instruction; Step 2, the server node reads a list of local service nodes; Step 3, automatically analyzes the state of the server node in the current server node list, and obtains the running status of the current service node; 4, the server node performs a server node list backup, and removes the server node that cannot provide the service in the backup table (that is, the temporary table);
  • Step 5 The current node calculates the backup table according to the server node status and load processing capability in the backup table.
  • the load weight value of each server node; the process of assigning the server node load weight value can also be manually completed by the project maintenance personnel; Step 6, the obtained load weight value is sent to each server node in the table; Step 7, generate routing information, write Into the routing table, the assignment is complete.
  • the embodiment further provides a load distribution device for implementing the above method, the device comprising: a first unit, and a second unit, wherein: the first unit is configured to: filter a local server node list generation when performing load distribution a temporary server node list, the temporary server node list includes information of a server node having a service capability; and the second unit is configured to: according to state information and/or load processing capability of the node in the temporary server node list All server nodes allocate load weights, generate routing information according to load weights of each server node, and indicate that each server node in the table updates local routing information.
  • the above apparatus may further comprise a third unit, the third unit being configured to: load weight Information is sent to all server nodes in the table.
  • the server node implementing the above method is a server node including the above device.
  • the invention proposes a series of measures, so that the final effect of the load distribution is based on the processing power of the current server node and the load that has been shared, and the received request is reasonably distributed to different server nodes for processing, bringing the system Increased stability, etc., to achieve performance improvements.
  • One of ordinary skill in the art will appreciate that all or a portion of the above steps may be accomplished by a program instructing the associated hardware, such as a read-only memory, a magnetic disk, or an optical disk. Alternatively, all or part of the steps of the above embodiments may also be implemented using one or more integrated circuits.
  • each module/unit in the above embodiment may be implemented in the form of hardware or in the form of a software function module.
  • the invention is not limited to any specific form of combination of hardware and software.
  • the above is only a preferred embodiment of the present invention, and the present invention is not intended to limit the present invention, and various modifications and changes can be made to the present invention. Any modifications, equivalent substitutions, improvements, etc. made within the spirit and scope of the present invention are intended to be included within the scope of the present invention.
  • the present invention proposes an efficient and reliable load distribution scheme in a distributed cache system, and allocates corresponding loads according to the current load state and processing capability of the service node, and the scheme can analyze the existing load of each node in advance.
  • the sharing situation and the current processing capability prevent some nodes from being unable to provide services due to excessive load sharing, so that the load to be processed can be automatically and reasonably assigned to different processing nodes for efficient processing, thereby improving System availability, operational efficiency and stability.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Description

一种分布式緩存系统中负荷分配方法、 装置及服务器
技术领域 本发明涉及云计算技术领域, 尤其涉及一种云计算分布式緩存系统中负 荷分配方法、 装置 务器。
背景技术
云计算( Cloud Computing )是网格计算( Grid Computing ) 、 分布式计 算( Distributed Computing )、并行计算( Parallel Computing )、效用计算( Utility Computing ) 、 网络存储 ( Network Storage Technologies ) 、 虚拟化 ( Virtualization ) 、 以及负载均衡( Load Balance )等传统计算机技术和网络 技术发展融合的产物。 云计算旨在通过网络把多个成本相对较低的计算实体 整合成一个具有强大计算能力的系统。 分布式緩存是云计算范畴中的一个领 域, 其作用是提供海量数据的分布式存储服务以及高速读写访问的能力。 在分布式緩存系统中, 服务器节点的负荷分配是比较难以解决的关键问 题之一。 分布式緩存系统是由多个服务器节点和客户端互相连接构成的; 月良 务器节点负责数据的存储; 客户端可以对服务器做数据的写入、读取、 更新、 以及删除等操作。 一般来说写入的数据不可能只保存在单个服务器节点(以下简称"节点" ) 上, 而是在多台节点上保存同一个数据的副本, 这些数据的副本互为备份。 对某个数据做写入、 更新、 以及删除等动作, 称为请求(Request ) 。 分布式 緩存系统服务端会不停地收到不同的请求。 将请求发至服务器节点的路径称 为路由 (Route ) , 请求会根据相应的路由 (Route )到达相应节点, 路由的 集合称为路由表( Route Table ) 。 如果分布式緩存系统同时或顺序收到多个请求动作时, 就要在不同的节 点上做相应的处理操作,从而保证数据的快速准确写入、 更新、 以及删除等, 并给出响应。 由于各个节点硬件配置以及网络吞吐能力等因素导致各个节点 当前的处理能力有所不同, 如何根据节点的当前状态将这些请求合理的分配 到不同的节点上, 这就是所述负荷分配问题。 现有技术方案中, 分配负荷一 般釆用虚节点 (Virtual Node ) 的解决方法, 该方法包括: 将每台服务器节点看作一个或多个虚节点的载体, 将虚节点按照一定规 则映射到 0 ~ 232的哈希 (Hash ) 环上。 每个虚节点承载的负荷由虚节点在 Hash环上的位置决定。 客户端向服务器端发送请求时, 根据请求的数据映射 在环上的位置找到相应服务器。 该方法的缺点是, 负荷的分配随机性很高, 容易造成某个节点的负荷非常高, 另外, 若多台节点同时故障, 造成部分路 由失效的概率较大。
发明内容 本发明要解决的技术问题是提供一种分布式緩存系统中负荷分配方法、 装置及服务器, 以提高系统的可用性、 运行效率以及稳定性。 为解决上述技术问题, 本发明提供了一种分布式緩存系统中负荷分配方 法, 该方法包括: 过滤本地的服务器节点列表生成临时服务器节点列表, 所述临时服务器 节点列表中包含具有提供服务能力的服务器节点的信息; 以及 根据所述临时服务器节点列表中的节点的状态信息和 /或负荷处理能力 为所述临时服务器节点列表中所有服务器节点分配负荷权重, 根据各服务器 节点的负荷权重生成路由信息, 指示所述临时服务器节点列表中各服务器节 点更新本地路由信息。 本发明的方法中, 所述具有提供服务能力的服务器节点包括: 链路稳定 节点, 或链路稳定节点和链路不稳定节点, 其中, 链路稳定节点包括: 链路 稳定且目前可用的节点; 链路不稳定节点包括以下节点中的一种或几种: 链 路不稳定但目前可用的节点, 链路不稳定且目前不可用的节点, 以及链路临 时断开正在重连的节点。 本发明的方法中, 所述临时服务器节点列表中的具有提供服务能力的服 务器节点的信息包括: 地址信息、 链路状态、 节点类型、 可处理负荷能力、 以及负荷权重。 本发明的方法中,根据状态信息和 /或负荷处理能力分配负荷权重的步骤 中,
根据节点的状态信息分配负荷权重时, 链路稳定节点的权重高于链路不 稳定节点的权重; 根据负荷处理能力分配负荷权重时, 硬件配置高于预定第一门限的节点 的权重高于硬件配置低于预定第一门限的节点的权重, 和 /或, 硬件当前使用 情况高于预定第二门限的节点的权重高于硬件当前使用情况低于预定第二门 限的节点的权重。 为所述临时服务器节点列表中所有服务器节点分配负荷权重的步骤之 后, 所述方法还包括: 将负荷权重信息发送给所述临时服务器节点列表中所有服务器节点, 所 述负荷权重信息包括: 当前服务器节点权重值占有所有服务器节点权重值总 和的比值, 或者所有服务器节点的负荷权重值。 本发明的方法中, 根据各服务器节点的负荷权重生成路由信息的步骤包 括: 根据临时服务器节点列表中服务器节点的个数确定标识符个数, 生成标 识符序列, 所述标识符个数大于或等于服务器节点个数; 根据各服务器节点的负荷权重为各节点分配标识符; 以及 将分配的标识符与相应的服务器节点的地址信息组合后得到路由信息, 写入路由表。 本发明的方法中, 指示所述临时服务器节点列表中各服务器节点更新本 地路由信息的步骤包括: 向所述临时服务器节点列表中的所有服务器节点发送路由更新消息或者 负荷权重信息以指示各服务器节点列表获取路由信息, 所述负荷权重信息包 括: 当前服务器节点权重值占有所有服务器节点权重值总和的比值, 或者所 有服务器节点的负荷权重值; 以及 所述临时服务器节点列表中的所有服务器节点收到所述路由更新消息或 者负荷权重信息后,从默认位置获取最新的路由信息,更新本地的路由信息。 所述临时服务器节点列表中各服务器节点更新本地路由信息的步骤之 后, 所述方法还包括: 所述临时服务器节点列表中各服务器节点接收到客户端根据本地路由信 息发送的请求后, 发现所述客户端的请求不符合该服务器节点本地的路由信 息, 则根据该服务器节点本地路由信息将该客户端的请求转发至相应的服务 器节点, 并将所述服务器节点本地路由信息推送给所述客户端, 所述客户端 保存所述路由信息。 为解决上述技术问题, 本发明还提供了一种分布式緩存系统中负荷分配 的装置, 该装置包括: 第一单元, 以及第二单元, 其中: 第一单元设置为: 在进行负荷分配时, 过滤本地的服务器节点列表生成 临时服务器节点列表, 所述临时服务器节点列表中包含具有提供服务能力的 服务器节点的信息; 第二单元设置为:根据所述临时服务器节点列表中的节点的状态信息和 / 或负荷处理能力为所述临时服务器节点列表中所有服务器节点分配负荷权 重, 根据各服务器节点的负荷权重生成路由信息, 指示所述临时服务器节点 列表中各服务器节点更新本地路由信息。 本发明的装置中, 所述第二单元是设置为按如下方式根据各服务器节点 的负荷权重生成路由信息: 根据临时服务器节点列表中服务器节点的个数确定标识符个数, 生成标 识符序列, 所述标识符个数大于或等于服务器节点个数; 根据各服务器节点的负荷权重为各节点分配标识符; 以及 将分配的标识符与相应的服务器节点的地址信息组合后得到路由信息, 写入路由表。 本发明的装置中, 所述第二单元是设置为按如下方式指示所述临时服务 器节点列表中各服务器节点更新本地路由信息: 向所述临时服务器节点列表中的所有服务器节点发送路由更新消息或者 负荷权重信息以指示各服务器节点列表获取路由信息, 所述负荷权重信息包 括: 当前服务器节点权重值占有所有服务器节点权重值总和的比值, 或者所 有服务器节点的负荷权重值。 为解决上述技术问题, 本发明还提供了一种分布式緩存系统中负荷分配 的服务器, 包括如上所述的装置。
本发明提出了一种高效而可靠的分布式緩存系统中负荷分配的方案, 根 据服务节点的当前负荷状态和处理能力分配相应负荷, 本方案可以提前分析 当前各节点的已有的负荷分担情况和当前的处理能力, 避免部分节点由于分 担负荷过重造成瘫痪而无法提供服务, 使得待处理的负荷能够自动的, 且合 理的分派到不同的处理节点上进行高效的处理, 从而提高了系统的可用性、 运行效率及稳定性。
附图概述 图 1是本发明实施例的一种网元结构图; 图 2是本发明实施例的另一种网元结构图; 图 3是本发明实施例服务节点进行负荷分配操作的流程图。
本发明的较佳实施方式 为使本发明的目的、 技术方案和优点更加清楚明白, 下文中将结合附图 对本发明的实施例进行详细说明。 需要说明的是, 在不冲突的情况下, 本申 请中的实施例及实施例中的特征可以相互任意组合。 本发明实施例的负荷分配方法包括: 过滤本地的服务器节点列表生成临时服务器节点列表, 所述临时服务器 节点列表中包含具有提供服务能力的服务器节点的信息; 以及 根据所述临时服务器节点列表中的节点的状态信息和 /或负荷处理能力 为所述临时服务器节点列表中所有服务器节点分配负荷权重, 根据各服务器 节点的负荷权重生成路由信息, 指示所述临时服务器节点列表中各服务器节 点更新本地路由信息。 上述方法可以通过一装置实现, 该装置可以位于一服务器节点中, 如图
1所示, 或者单独设置, 如图 2所示。 下面对上述方法进行详细说明。 步骤一, 过滤本地的服务器节点列表生成临时服务器节点列表, 所述临 时服务器节点列表中包含具有提供服务能力的服务器节点的信息; 如果由服务器节点来执行本流程, 则该服务器节点可以是系统中任一个 具有负荷分配功能的服务器节点, 即包含有负荷分配装置的服务器节点 (以 下简称第一服务器节点) 。 此时, 控制台选择具有负荷分配功能的服务器节 点, 并向选择的服务器节点发送负荷分配操作指令, 该服务器节点收到负荷 分配操作指令后, 进行负荷分配。 如果由单独设置的负荷分配装置来执行本 流程, 则控制台可将负荷分配操作指令发送至该负荷分配装置。 控制台可在 检测到服务器节点增加或者减少时, 向具有负荷分配功能的服务器节点或者 负荷分配装置发送负荷分配操作指令。 生成临时服务器节点列表时, 该第一服务器节点或负荷分配装置读取本 地当前的服务器节点列表, 判断本地当前的服务器节点列表中各服务器节点 的状态是否正常, 从本地当前的服务器节点列表中过滤掉不具有提供服务能 力的服务器节点, 例如: 严重存在问题且相对一段较长时间内无法提供服务 的故障节点, 将过滤后的服务器节点列表保存为临时服务器节点列表; 或者 将状态正常的服务器节点的信息保存在一个新建的服务器节点列表中。 在本 次负荷分配结束后, 该临时服务器节点列表将被清除。 具体地, 具有提供服务能力的服务器节点包括: 链路稳定节点, 或链路 稳定节点和链路不稳定节点。 链路稳定节点是指: 链路稳定且目前可用的节 点, 链路不稳定节点包括以下节点中的一种或几种: 链路不稳定但目前可用 的节点 (如网线接触不良等) , 链路不稳定且目前不可用的节点, 链路临时 断开正在重连的节点。 不具有提供服务能力的服务器节点包括: 永久故障节 点 (硬件故障或者退出集群等)和暂时故障节点 (硬件故障如网卡坏了正在 更换) 。
对于每个具有提供服务能力的服务器节点, 临时服务器节点列表中包括 该具有提供服务能力的服务器节点的以下信息: 地址信息(如 IP地址)、 链 路状态、 节点类型、 可处理负荷能力、 以及负荷权重。 其中, 可处理负荷能 力是指: 当前条件下该节点可以继续处理新增加负荷的大小, 相当于总能力 减去已使用的能力。 负荷权重表示该服务器节点相比其他服务器节点所承载 负荷的比值, 通过改变负荷权重值可以增加或减少该服务器节点的负荷。 临 时服务器节点列表中的内容与服务器节点列表中的内容相同。 在首次分配负 荷前, 各节点的服务器节点列表中的负荷权重为默认值, 每个服务器节点的 权重相同。 在第二次或之后再分配负荷时, 服务器节点列表中的负荷权重为 上一次负荷分配时分配的负荷权重值。 当负荷分配中途出现错误时, 各节点 的服务器节点列表中的负荷权重仍然为默认值或上一次的负荷权重值。 步骤二,根据所述临时服务器节点列表中的节点的状态信息和 /或负荷处 理能力为临时服务器节点列表中所有服务器节点分配负荷权重; 根据节点的状态信息分配负荷权重包括, 链路稳定节点的权重高于链路 不稳定节点的权重, 即将负荷优先分配给链路稳定节点, 在集群负荷仍然过 重时再考虑将负荷依次分配给链路不稳定但目前可用的节点, 链路不稳定且 目前不可用的节点, 链路临时断开正在重连的节点。 根据负荷处理能力分配负荷权重包括, 考虑节点的硬件配置以及硬件当 前使用情况来分配负荷, 硬件配置高于预定第一门限的节点的权重高于硬件 配置低于预定第一门限的节点的权重, 和 /或, 硬件当前使用情况高于预定第 二门限的节点的权重高于硬件当前使用情况低于预定第二门限的节点的权 重。 硬件配置可参考以下参数中的一种或几种: CPU处理能力、 内存容量、 硬盘容量、 网卡容量、 以及网络带宽。 硬件当前使用情况可参考以下参数中 的一种或几种: CPU剩余处理能力、 内存剩余容量、 硬盘剩余容量、 以及网 卡剩余容量。 处理能力强和 /或硬件当前使用情况较好的节点的权重值较高。 也可综合上述两点, 即同时参考节点状态信息和负荷处理能力确定负荷 权重值。 在为临时服务器节点列表中的各节点分配负荷权重值后, 用新分配的各 节点的负荷权重值更新第一服务器节点中的临时服务器节点列表中的负荷权 重或者负荷分配装置中的临时服务器节点列表中的负荷权重。 第一服务器节 点或负荷分配装置将更新的负荷权重通知给该临时服务器节点列表中的所有 节点, 以使该些节点更新本地服务器节点列表。 该更新操作也可在步骤三后 执行。 服务器节点可釆用以下方式保存权重值: 保存当前服务器节点权重值占 有所有服务器节点权重值总和的比值, 或者保存所有服务器节点的权重值。 例如: 节点 A、 B、 和 C的权重分别是 1、 2、 和 3 , 那么对于节点 A可以保 存的权重为 1/6, 或者是 1 :2:3。 根据分配的权重可以控制各节点接收到的请求数, 从而避免出现负荷过 重的节点。 假设有三个服务节点, (1 )如负荷权重为 1 : 1 :1 , 客户端总请求 数为 300时, 则实际到达每个节点的请求数为 100 , 若客户端总请求为 900 时, 则实际到达每个节点的请求数为 300; ( 2 )如负荷权重为 1 :2:1 , 在总 请求数为 300的情况下, 实际到达各节点的请求数为 75、 150、 75。 步骤三, 根据临时服务器节点列表中各服务器节点的负荷权重生成路由 信息, 并指示临时服务器节点列表中各服务器节点更新本地路由信息。 根据负荷权重生成路由信息包括: 根据各服务器节点的个数确定标识符 个数, 生成标识符序列; 标识符个数可以与服务器节点个数相同, 或者大于 服务器节点个数(例如是服务器节点个数的倍数) ; 根据各服务器节点的负 荷权重为各节点分配标识符; 将分配的标识符与相应的服务器节点的地址信 息组合后得到路由信息。 为各节点分配的标识符可以是连续的也可以是不连 续的。 例如, 生成 100个标识符, 用 1-100表示, 有三个 Λ良务器节点 A、 B、 以及 C, 三节点的权重比为 2:3:5 , 则将 20个标识符分给节点 A, 30个标识 符分给节点 B, 50个标识符分给节点 C, 即 A: 1-20, B: 71-100, C: 21-70, 写入路由表,格式为节点对应的标识符加该节点的 IP地址,如 1 : 192.168.0.1。 上述仅提供一种生成路由信息的方法, 但不限于釆用本方法实现, 也可以釆 用其他方法实现。 确定标识符个数可参考历史负荷确定。 客户端在发送请求时釆用与服务器相同的算法确定标识符, 按照标识符 查找到相应的 IP地址发送请求。 指示临时服务器节点列表中各服务器节点更新本地路由信息包括: 向各 服务器节点发送路由更新消息; 各服务器节点收到该路由更新消息后, 从默 认位置(可以是第一服务器节点,或其他专用于存储路由信息的服务器节点, 或负荷分配装置)获取最新的路由信息。 该默认位置为专用于存储路由信息 的服务器节点时, 第一服务器节点或负荷分配装置需先将最新的路由信息发 送至该服务器节点, 再向其他服务器节点发送路由更新消息, 各服务器节点 从该默认服务器节点获取最新的路由信息。 通过一个服务器节点发布路由信 息可以保证其余服务器节点获取的路由信息是相同的, 避免出错。 另外, 第 一服务器节点或者负荷分配装置也可在此时将更新的负荷权重发送给各节 点, 各节点收到更新的负荷权重后, 主动从默认位置获取最新的路由信息。 所有节点的负荷权重和路由信息更新完毕后, 负荷分配过程完成。 负荷分配完成后, 服务器节点收到客户端发送的请求, 此时客户端是按 照其上保存的旧的路由表发送的, 收到请求的服务器节点发现客户端的请求 不符合新的路由表, 则根据最新的路由表将该客户端的请求转发至相应的服 务器节点, 并将新的路由表推送给该客户端, 该客户端保存最新的路由表, 后续便按照新的路由表发送请求给相应服务器节点。 由于考虑当前服务器节点服务状态和 /或负荷处理能力等,并根据权重合 理分配, 负荷处理能力较强的服务器节点优先分配负荷, 避免负荷分配过于 分散造成运行过程中某单点的负荷过高, 或因多台节点同时故障, 造成部分 路由失效。服务器节点状态和权重值的计算是按照特定算法自动计算得到的, 无需人为额外干预, 以达到高效快速的目的。 另外, 服务器节点负荷权重值 也可由工程维护人员手动指定。 本实施例中,由服务器节点和客户端构成的分布式緩存系统如图 1所示。 结合图 3 , 下面以服务器节点进行负荷分配为例对上述方法进行说明, 包括 如下步骤: 前置步骤: 分布式緩存系统中各个服务器节点间互相建立连接并且集群 可提供服务; 控制台运行正常。 步骤 1 , 某服务器节点收到负荷分配操作指令; 步骤 2, 该服务器节点读取本地服务节点列表; 步骤 3 , 自动分析当前服务器节点列表中的服务器节点状态, 获取当前 服务节点的运行状态; 步骤 4, 该服务器节点进行服务器节点列表备份, 在该备份表(即临时 表) 中剔除无法提供服务的服务器节点; 步骤 5 , 当前节点根据备份表中的服务器节点状态和负荷处理能力, 计 算备份表中各服务器节点的负荷权重值; 服务器节点负荷权重值的分配过程也可由工程维护人员手动完成; 步骤 6, 将得到的负荷权重值发送给表中各服务器节点; 步骤 7 , 生成路由信息, 写入路由表, 分配完成。
本实施例还提供了一种实现上述方法的负荷分配装置, 该装置包括: 第 一单元, 以及第二单元, 其中: 第一单元设置为: 在进行负荷分配时, 过滤本地的服务器节点列表生成 临时服务器节点列表, 所述临时服务器节点列表中包含具有提供服务能力的 服务器节点的信息; 第二单元设置为:根据所述临时服务器节点列表中的节点的状态信息和 / 或负荷处理能力为表中所有服务器节点分配负荷权重, 根据各服务器节点的 负荷权重生成路由信息, 指示表中各服务器节点更新本地路由信息。 优选地, 上述装置还可包括第三单元, 该第三单元设置为: 将负荷权重 信息发送给表中所有服务器节点。 实现上述方法的服务器节点为包含上述装置的服务器节点。
本发明的目的在于, 在云计算领域分布式緩存系统中, 解决负荷分配问 题。 本发明提出一系列措施, 使得负荷分配的最终效果以当前服务器节点的 处理能力和已分担的负荷多少为依据, 合理的把收到的请求分配到不同的服 务器节点上进行处理, 带来系统的稳定性等的增加, 以达到性能提升。 本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序 来指令相关硬件完成, 所述程序可以存储于计算机可读存储介质中, 如只读 存储器、 磁盘或光盘等。 可选地, 上述实施例的全部或部分步骤也可以使用 一个或多个集成电路来实现。 相应地, 上述实施例中的各模块 /单元可以釆用 硬件的形式实现, 也可以釆用软件功能模块的形式实现。 本发明不限制于任 何特定形式的硬件和软件的结合。 以上仅为本发明的优选实施案例,且所述流程为配合本发明的描述之用, 并不用于限制本发明, 对于本领域的技术人员来说, 本发明可以有各种更改 和变化。 凡在本发明的精神和原则之内, 所作的任何修改、 等同替换、 改进 等, 均应包含在本发明的保护范围之内。
工业实用性 本发明提出了一种高效而可靠的分布式緩存系统中负荷分配的方案, 根 据服务节点的当前负荷状态和处理能力分配相应负荷, 本方案可以提前分析 当前各节点的已有的负荷分担情况和当前的处理能力, 避免部分节点由于分 担负荷过重造成瘫痪而无法提供服务, 使得待处理的负荷能够自动的, 且合 理的分派到不同的处理节点上进行高效的处理, 从而提高了系统的可用性、 运行效率及稳定性。

Claims

权 利 要 求 书
1、 一种分布式緩存系统中负荷分配方法, 该方法包括:
过滤本地的服务器节点列表生成临时服务器节点列表, 所述临时服务器 节点列表中包含具有提供服务能力的服务器节点的信息; 以及 根据所述临时服务器节点列表中的节点的状态信息和 /或负荷处理能力 为所述临时服务器节点列表中所有服务器节点分配负荷权重, 根据各服务器 节点的负荷权重生成路由信息, 指示所述临时服务器节点列表中各服务器节 点更新本地路由信息。
2、 如权利要求 1所述的方法, 其中: 所述具有提供服务能力的服务器节点包括: 链路稳定节点, 或链路稳定 节点和链路不稳定节点, 其中, 链路稳定节点包括: 链路稳定且目前可用的 节点; 链路不稳定节点包括以下节点中的一种或几种: 链路不稳定但目前可 用的节点, 链路不稳定且目前不可用的节点, 以及链路临时断开正在重连的 节点。
3、 如权利要求 1所述的方法, 其中: 所述临时服务器节点列表中的具有提供服务能力的服务器节点的信息包 括: 地址信息、 链路状态、 节点类型、 可处理负荷能力、 以及负荷权重。
4、 如权利要求 1所述的方法, 其中: 根据状态信息和 /或负荷处理能力分配负荷权重的步骤中, 根据节点的状态信息分配负荷权重时, 链路稳定节点的权重高于链路不 稳定节点的权重; 根据负荷处理能力分配负荷权重时, 硬件配置高于预定第一门限的节点 的权重高于硬件配置低于预定第一门限的节点的权重, 和 /或, 硬件当前使用 情况高于预定第二门限的节点的权重高于硬件当前使用情况低于预定第二门 限的节点的权重。
5、如权利要求 1-4中任一项所述的方法, 为所述临时服务器节点列表中 所有服务器节点分配负荷权重的步骤之后, 所述方法还包括: 将负荷权重信息发送给所述临时服务器节点列表中所有服务器节点, 所 述负荷权重信息包括: 当前服务器节点权重值占有所有服务器节点权重值总 和的比值, 或者所有服务器节点的负荷权重值。
6、 如权利要求 1-4中任一项所述的方法, 其中: 根据各服务器节点的负荷权重生成路由信息的步骤包括: 根据临时服务器节点列表中服务器节点的个数确定标识符个数, 生成标 识符序列, 所述标识符个数大于或等于服务器节点个数; 根据各服务器节点的负荷权重为各节点分配标识符; 以及 将分配的标识符与相应的服务器节点的地址信息组合后得到路由信息, 写入路由表。
7、 如权利要求 1-4中任一项所述的方法, 其中: 指示所述临时服务器节点列表中各服务器节点更新本地路由信息的步骤 包括:
向所述临时服务器节点列表中的所有服务器节点发送路由更新消息或者 负荷权重信息以指示各服务器节点列表获取路由信息, 所述负荷权重信息包 括: 当前服务器节点权重值占有所有服务器节点权重值总和的比值, 或者所 有服务器节点的负荷权重值; 以及 所述临时服务器节点列表中的所有服务器节点收到所述路由更新消息或 者负荷权重信息后,从默认位置获取最新的路由信息,更新本地的路由信息。
8、如权利要求 1-4中任一项所述的方法, 所述临时服务器节点列表中各 服务器节点更新本地路由信息的步骤之后, 所述方法还包括: 所述临时服务器节点列表中各服务器节点接收到客户端根据本地路由信 息发送的请求后, 发现所述客户端的请求不符合该服务器节点本地的路由信 息, 则根据该服务器节点本地路由信息将该客户端的请求转发至相应的服务 器节点, 并将所述服务器节点本地路由信息推送给所述客户端, 所述客户端 保存所述路由信息。
9、 一种分布式緩存系统中负荷分配的装置, 该装置包括: 第一单元, 以 及第二单元, 其中: 第一单元设置为: 在进行负荷分配时, 过滤本地的服务器节点列表生成 临时服务器节点列表, 所述临时服务器节点列表中包含具有提供服务能力的 服务器节点的信息; 第二单元设置为:根据所述临时服务器节点列表中的节点的状态信息和 / 或负荷处理能力为所述临时服务器节点列表中所有服务器节点分配负荷权 重, 根据各服务器节点的负荷权重生成路由信息, 指示所述临时服务器节点 列表中各服务器节点更新本地路由信息。
10、 如权利要求 9所述的装置, 其中, 所述第二单元是设置为按如下方式根据各服务器节点的负荷权重生成路 由信息: 根据临时服务器节点列表中服务器节点的个数确定标识符个数, 生成标 识符序列, 所述标识符个数大于或等于服务器节点个数; 根据各服务器节点的负荷权重为各节点分配标识符; 以及 将分配的标识符与相应的服务器节点的地址信息组合后得到路由信息, 写入路由表。
11、 如权利要求 9所述的装置, 其中, 所述第二单元是设置为按如下方式指示所述临时服务器节点列表中各服 务器节点更新本地路由信息: 向所述临时服务器节点列表中的所有服务器节点发送路由更新消息或者 负荷权重信息以指示各服务器节点列表获取路由信息, 所述负荷权重信息包 括: 当前服务器节点权重值占有所有服务器节点权重值总和的比值, 或者所 有服务器节点的负荷权重值。
12、 一种分布式緩存系统中负荷分配的服务器, 该服务器包括如权利要 求 9或 10或 11所述的装置。
PCT/CN2011/075223 2010-11-15 2011-06-02 一种分布式缓存系统中负荷分配方法、装置及服务器 WO2012065426A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201010543969.5 2010-11-15
CN2010105439695A CN101984632A (zh) 2010-11-15 2010-11-15 一种分布式缓存系统中负荷分配方法、装置及服务器

Publications (1)

Publication Number Publication Date
WO2012065426A1 true WO2012065426A1 (zh) 2012-05-24

Family

ID=43641803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2011/075223 WO2012065426A1 (zh) 2010-11-15 2011-06-02 一种分布式缓存系统中负荷分配方法、装置及服务器

Country Status (2)

Country Link
CN (1) CN101984632A (zh)
WO (1) WO2012065426A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103167555A (zh) * 2011-12-15 2013-06-19 中兴通讯股份有限公司 Mme负荷控制方法、系统及管理子系统
CN108737255A (zh) * 2018-05-31 2018-11-02 北京明朝万达科技股份有限公司 负载均衡方法、负载均衡装置及服务器

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984632A (zh) * 2010-11-15 2011-03-09 中兴通讯股份有限公司 一种分布式缓存系统中负荷分配方法、装置及服务器
CN102289508B (zh) * 2011-08-31 2015-02-04 上海西本网络科技有限公司 分布式缓存阵列及其数据查询方法
CN102595208B (zh) * 2012-01-13 2014-04-09 河海大学 云端控制网络化视频图像处理流媒体服务系统及方法
CN102664708B (zh) * 2012-04-20 2017-02-08 浪潮电子信息产业股份有限公司 一种提高云存储实际应用效率的方法
CN102984203B (zh) * 2012-10-31 2016-12-21 深圳市深信服电子科技有限公司 基于云计算的提高缓存设备利用率的方法、装置及系统
CN103220367A (zh) * 2013-05-13 2013-07-24 深圳市中博科创信息技术有限公司 数据复制方法及数据存储系统
CN104683422B (zh) * 2013-12-03 2019-01-29 腾讯科技(深圳)有限公司 数据传输方法及装置
CN103618804A (zh) * 2013-12-16 2014-03-05 北京航空航天大学 一种基于性能差异的分布式键值存储系统负载均衡方法
CN103929500A (zh) * 2014-05-06 2014-07-16 刘跃 一种分布式存储系统的数据分片方法
CN105320676A (zh) * 2014-07-04 2016-02-10 中国移动通信集团黑龙江有限公司 一种客户数据查询服务方法及装置
CN104320492A (zh) * 2014-11-11 2015-01-28 北京国双科技有限公司 网站服务器调度方法和装置
CN105306566A (zh) * 2015-10-22 2016-02-03 创新科存储技术(深圳)有限公司 一种云存储系统中选举主控节点的方法及系统
CN105554178B (zh) * 2015-12-31 2019-07-19 上海华为技术有限公司 一种地址分配的方法、网关及系统
CN107147576B (zh) * 2016-03-01 2021-01-15 上海朋熙半导体有限公司 一种路由计算方法及装置
US10116526B2 (en) * 2016-05-13 2018-10-30 Ivanti, Inc. Systems and methods for providing a self-electing service
CN107451254B (zh) * 2017-07-31 2020-08-07 广州市食蚁兽网络技术有限公司 一种生成数据库表数据唯一标识的方法
CN108809848A (zh) * 2018-05-28 2018-11-13 北京奇艺世纪科技有限公司 负载均衡方法、装置、电子设备及存储介质
CN109542629A (zh) * 2018-12-26 2019-03-29 苏州乐麟无线信息科技有限公司 一种基于分布式系统的数据的处理方法及装置
CN113453340A (zh) * 2020-03-24 2021-09-28 阿里巴巴集团控股有限公司 服务方法、服务器集群以及LoRaWAN网络系统
CN111459677A (zh) * 2020-04-01 2020-07-28 北京顺达同行科技有限公司 请求分配方法、装置、计算机设备和存储介质
CN112698941A (zh) * 2020-12-22 2021-04-23 浙江中控技术股份有限公司 一种基于动态负载均衡的实时数据库查询方法
CN114205361B (zh) * 2021-12-08 2023-10-27 聚好看科技股份有限公司 一种负载均衡方法以及服务器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1921479A (zh) * 2005-08-23 2007-02-28 中兴通讯股份有限公司 一种流媒体系统负荷分担方法及其系统
US20080195755A1 (en) * 2007-02-12 2008-08-14 Ying Lu Method and apparatus for load balancing with server state change awareness
CN101534244A (zh) * 2009-02-09 2009-09-16 华为技术有限公司 负载分发方法、装置和系统
CN101984632A (zh) * 2010-11-15 2011-03-09 中兴通讯股份有限公司 一种分布式缓存系统中负荷分配方法、装置及服务器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1921479A (zh) * 2005-08-23 2007-02-28 中兴通讯股份有限公司 一种流媒体系统负荷分担方法及其系统
US20080195755A1 (en) * 2007-02-12 2008-08-14 Ying Lu Method and apparatus for load balancing with server state change awareness
CN101534244A (zh) * 2009-02-09 2009-09-16 华为技术有限公司 负载分发方法、装置和系统
CN101984632A (zh) * 2010-11-15 2011-03-09 中兴通讯股份有限公司 一种分布式缓存系统中负荷分配方法、装置及服务器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103167555A (zh) * 2011-12-15 2013-06-19 中兴通讯股份有限公司 Mme负荷控制方法、系统及管理子系统
CN108737255A (zh) * 2018-05-31 2018-11-02 北京明朝万达科技股份有限公司 负载均衡方法、负载均衡装置及服务器

Also Published As

Publication number Publication date
CN101984632A (zh) 2011-03-09

Similar Documents

Publication Publication Date Title
WO2012065426A1 (zh) 一种分布式缓存系统中负荷分配方法、装置及服务器
US11445019B2 (en) Methods, systems, and media for providing distributed database access during a network split
JP6600373B2 (ja) トラフィックディレクタ環境におけるトラフィックのアクティブ−パッシブルーティングおよび制御のためのシステムおよび方法
US9143452B2 (en) Data processing
WO2018076765A1 (zh) 云计算系统的内容分发方法及装置、计算节点及系统
WO2014118938A1 (ja) 通信経路の管理方法
WO2018220708A1 (ja) 資源割当システム、管理装置、方法およびプログラム
CN112463366A (zh) 面向云原生的微服务自动扩缩容和自动熔断方法及系统
CN106713378B (zh) 实现多个应用服务器提供服务的方法和系统
CN108228393A (zh) 一种可扩展的大数据高可用的实现方法
JPWO2013146808A1 (ja) コンピュータシステム、及び通信経路変更方法
CN114844912B (zh) 数据链路分配方法、装置及分布式块存储系统
WO2023179786A1 (zh) 网络地址转换网关的扩容方法、设备及存储介质
CN111580753A (zh) 存储卷级联架构、批量作业处理系统和电子设备
KR101883671B1 (ko) 노드 분산 방법 및 이를 수행하는 관리 서버
JP2006100906A (ja) ネットワークシステムの運用管理方法及びストレージ装置
CN106909322B (zh) 一种虚拟化系统中支持存储灾备的路由方法及装置
CN111193607B (zh) 一种传输资源管理的方法、装置及存储介质
CN114900526A (zh) 负载均衡方法及系统、计算机存储介质、电子设备
KR101382177B1 (ko) 동적 메시지 라우팅 시스템 및 방법
CN110958182B (zh) 一种通信方法及相关设备
CN111586141B (zh) 作业处理方法、装置、系统和电子设备
JP2024067749A (ja) システム、制御装置、制御方法、およびプログラム
US10764168B1 (en) Adjusting communications parameters based on known characteristics
CN118041919A (zh) 一种部署方法、负载均衡方法、系统、设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11841385

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11841385

Country of ref document: EP

Kind code of ref document: A1