WO2014080994A1 - 輻輳制御システム、制御装置、輻輳制御方法およびプログラム - Google Patents

輻輳制御システム、制御装置、輻輳制御方法およびプログラム Download PDF

Info

Publication number
WO2014080994A1
WO2014080994A1 PCT/JP2013/081440 JP2013081440W WO2014080994A1 WO 2014080994 A1 WO2014080994 A1 WO 2014080994A1 JP 2013081440 W JP2013081440 W JP 2013081440W WO 2014080994 A1 WO2014080994 A1 WO 2014080994A1
Authority
WO
WIPO (PCT)
Prior art keywords
servers
server
rate
edge device
occurrence rate
Prior art date
Application number
PCT/JP2013/081440
Other languages
English (en)
French (fr)
Inventor
泰寛 宮尾
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US14/646,369 priority Critical patent/US20150304220A1/en
Priority to JP2014548620A priority patent/JPWO2014080994A1/ja
Publication of WO2014080994A1 publication Critical patent/WO2014080994A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1031Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/19Flow control; Congestion control at layers above the network layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1016IP multimedia subsystem [IMS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context

Definitions

  • the present invention is based on a Japanese patent application: Japanese Patent Application No. 2012-256358 (filed on November 22, 2012), and the entire description of the application is incorporated herein by reference.
  • the present invention relates to a congestion control system, a control device, a congestion control method, and a program, and more particularly, to a congestion control system, a control device, a congestion control method, and a program related to a plurality of geographically distributed servers.
  • Congestion refers to a state in which processing request traffic is added in excess of the maximum processing capacity of the system, and traffic that is effectively processed falls below the maximum processing capacity of the system. This occurs because part of the processing capacity of the system must be allocated to a request that cannot be completed.
  • congestion control in a specific system.
  • Non-Patent Document 1 In the fixed telephone network, as described in Non-Patent Document 1, when incoming calls are concentrated in a disaster occurrence area, congestion collapse occurs in the control system, making it difficult to connect the telephone. In order to prevent this, as described in Non-Patent Document 1, in a general telephone switching network, the control device monitors the state of the incoming side exchange as needed, and if a congestion state is detected, a restriction instruction is sent to the outgoing side exchange. put out.
  • Non-Patent Document 2 In a 3GPP (3rd Generation Generation Partnership Project) data communication network, as described in Non-Patent Document 2, there are a plurality of eNodeBs that terminate user terminals on a wireless line and distribute them to the core network, and a plurality of call processing device MMEs.
  • each eNodeB and each MME can be flexibly connected.
  • the MME can randomly select the connected wireless terminal aggregation device eNodeB and notify that it is in an overload state together with the restriction rate.
  • Non-Patent Document 3 it is described that an SIP server collectively called CSCF (Call Session Control Function) in IMS (IP Multimedia Subsystem) is used for VOIP call processing.
  • IMS IP Multimedia Subsystem
  • I-CSCF Interrrogating-CSCF
  • S-CSCF Serving-CSCF
  • Non-Patent Document 4 when the SIP server detects congestion, a congestion notification is transmitted to an upstream node and input restriction is performed there.
  • Such input restriction from the outside is a measure against the fact that internal control that returns an error response to a call processing request that cannot be processed by a general SIP server cannot fundamentally solve congestion collapse.
  • Non-Patent Document 6 includes a management device that not only provisions physical servers, but also can notify the load balancer of server information that can be used as a distribution destination. In addition, there is a mechanism for notifying the load balancer of an instruction to reduce or stop traffic to a specific server immediately before the specific server enters an abnormal state or a failure state.
  • Non-Patent Document 8 describes load distribution from one load distribution device or client to a plurality of servers. This measures the total delay including the processing delay at the network level in addition to the processing delay at the server, and uses the reciprocal as a proportional coefficient of the traffic amount to be distributed to each server.
  • Pillai "A distributed overload control algorithm for delay-bounded call setup," IEEE / ACM ToN, Vol.9, No.6, Dec. 2001, pp. 780-789.
  • A. Karakos, D. Patsas, A. Bornea, and S. Kontogiannis "Balancing HTTP traffic using dynamically updated weights, an implementation approach," the 10th Panhellenic Conference on Informatics, 2005- pp.
  • the nodes belonging to the control system and user data system are separated from the MME and S-gateway, especially in the mobile core, and the eNodeB can be connected to multiple MMEs. .
  • the eNodeB receives notification of its processing capacity or congestion status from each connected MME individually, but based on them, what input restriction value is set at what timing There is no specific method for using or restricting input.
  • the control system and the user system are separated, and the SIP (Session ⁇ Initiation Protocol) server is responsible for the control system.
  • SIP Session ⁇ Initiation Protocol
  • congestion collapse in addition to the method that the SIP server performs internally, a method that is externally performed by the previous SIP server is discussed in IETF (Internet Engineering Task Force).
  • the load balancer only assigns messages to available servers.
  • the server can perform local regulation by responding an error to a processing request message that cannot be processed normally.
  • the execution itself consumes resources wastefully, and congestion cannot be avoided if the load increases. Therefore, there has not been provided a mechanism for causing the load distribution device to perform input restriction on each server when the server group is overloaded.
  • the processing is executed for more processing requests with a smaller number of servers.
  • the integrated congestion control method is not yet known.
  • the object of the present invention is to perform integrated input regulation and server expansion in response to changes and increases in traffic, so that the total number of calls that have been connected within a certain period of time can be reduced compared to the case where each is performed independently. Is to maximize. Moreover, the control cost is reduced by using an input restriction value common to each server.
  • a control device is a control connected to a network by an edge device that aggregates service request messages from clients and distributes them to a server, and a plurality of servers that process service requests from the clients.
  • a program according to a fourth aspect of the present invention is a control device connected to a network by an edge device that aggregates service request messages from a client and distributes the messages to a server, and a plurality of servers that process the service requests from the client. Processing for acquiring the occurrence rate of the service request observed from the edge device for the computer provided in the computer, and determining the rate of regulating the service request message as the regulation rate based on the occurrence rate, and operating A process for determining the number of servers to be executed, and a control process for notifying the edge device of the restriction rate and for operating a new server or stopping a service of a running server based on the number of servers.
  • the program can be provided as a program product recorded on a non-transitory computer-readable storage medium.
  • the congestion control system includes a client 1, a front end network 2, an edge device 3, a control device 4, a back end network 5, and a server 6.
  • the front end network 2 is a network that connects the client 1 and the edge device 3.
  • the edge device 3 has a load distribution function of allocating a server 6 for use registration for a service received from a client, and then transferring a service request message received from the client to the already assigned server 6. Further, the edge device 3 performs input restriction on the service request message from the client 1 and reduces traffic applied to the server 6.
  • the control device 4 exchanges messages necessary for congestion control or load distribution control with the edge device 3 and the server 6.
  • the back-end network 5 is a network that connects the edge device 3, the control device 4, and the server 6.
  • the server 6 processes registration of the service received from the client 1 via the edge device 3 and a service request message received thereafter.
  • the control device 4 includes an input / output unit 7, a congestion control unit 8, a load distribution control unit 17, a provisioning unit 9, and a storage device 10.
  • the congestion control means 8 receives the performance information observed with respect to the service processing from each server 6, determines the restriction rate used in the edge device 3 based on the performance information, the number of necessary servers, etc. Perform resource management by notifying available servers.
  • the load distribution control means 17 receives the observation value of the delay at the network level from each edge device 3 to the server 6, receives the registered number of the clients 1 from each server 6, and based on that receives the maximum number of each server 6. An allowable occurrence rate is determined and notified to each edge device 3.
  • the provisioning unit 9 sends an instruction message for starting and allocating the server 6 to the server 6 designated by the congestion control unit 8.
  • the storage device 10 includes the address of the server 6 in operation and standby, the processing rate of the server 6 (the number of service requests that can be processed per unit time), each address of the edge device 3, and the observation performance of the server , An input restriction rate, a network level delay with each server 6 received from each edge device 3, and the like.
  • the edge device 3 includes resource management means 11, input / output means 12, input restriction means 13, load distribution means 14, a plurality of transfer queues 15, and reading means 16.
  • the following two methods can be considered for the input restriction method in the input restriction means 13.
  • One is based on the input restriction rate ⁇ , for example, a random number is assigned every time a service request message is received. If the value is less than ⁇ , the service request message is discarded or a request rejection message is returned, and the random number is If the value is greater than ⁇ , the service request message is processed.
  • the other is total volume regulation, which is regulated based on a leaky bucket algorithm that has a leak rate r and a bucket size B that represents fluctuations from the leak rate r as two parameters.
  • the leaky bucket is assumed to read data from a bucket of size B at a leak rate r, and if the size of the arrived message exceeds the free space of the bucket, it is discarded.
  • the load distribution unit 14 assigns the server 6 determined based on the assignment coefficient to the client 1. Once the server 6 is assigned, a message from the client 1 is transferred until the client 1 cancels the service use registration. Further, the service request message from the client 1 is distributed to the transfer queue 15 corresponding to the server 6 assigned to each client 1 in advance.
  • the load distribution unit 14 allocates, for example, a service use registration request from the client 1 to the server 6 according to an allocation coefficient. Thereafter, the message transferred thereafter from the client 1 is sent to the transfer queue 15 corresponding to the assigned server 6.
  • This service use registration is, for example, 3GPP Attach, SIP user-registration, and once assigned, all messages in between are sent to the same server 6.
  • the transfer queue 15 is set for each server.
  • the reading means 16 reads the service request message from the transfer queue 15 in the weighted fair queue format based on the distribution coefficient set by the resource management means 11 or is determined by (maximum allowable occurrence rate) / (number of edge devices). You may shape by rate.
  • a is the income obtained when one processing request is completed
  • b is the cost generated per unit time for one operating server. The cost specifically relates to the amount of power used, the number of server management tasks, and the like.
  • ⁇ O is service request traffic added to the entire edge device.
  • D n is the delay limit required at server n.
  • PG [ ⁇ , D] is a function that represents the processing completion rate that represents the probability that the service will be completed within the allowable time D when traffic with the occurrence rate ⁇ is added to one server.
  • (1- ⁇ ) ⁇ n is the traffic added to the server n after the input restriction in each edge device, and this is called throughput.
  • (1 ⁇ ) ⁇ n * PG [(1 ⁇ ) ⁇ n , D n ] indicates the number of service request messages to be processed per unit time in the server n, which is also called goodput.
  • the objective function of Equation (1) can be regarded as maximizing the total revenue per unit time.
  • ⁇ max is a value indicating that traffic with a higher occurrence rate should not be accepted in order to prevent congestion collapse because the goodput will be reduced if the server accepts traffic with a higher occurrence rate. It is. Therefore, ⁇ max is also called the maximum accommodation occurrence rate.
  • ⁇ n max is the maximum accommodation occurrence rate of server n.
  • the maximum traffic that can be accommodated by the entire server is defined as the following equation (8).
  • Equation (5) is ⁇ + N / ( ⁇ O / ⁇ max ) ⁇ 1. Therefore, the above optimization problem is a problem of maximizing a linear function in a linear space composed of the input restriction rate ⁇ and the number of servers N as described below.
  • FIG. 4A and FIG. 4B indicate the permissible areas that satisfy the constraints of the expressions (10), (4), and (7) on the plane (N, ⁇ ) described above by hatching.
  • the restriction rate ⁇ is set to 0, and the number of servers N is prepared as much as the minimum that can accommodate the traffic added thereto.
  • the server 6 operates the maximum N max that can be prepared, and the traffic exceeding the capacity is input-restricted.
  • the input restriction rate ⁇ indicates the proportion of restricted traffic with respect to a given number of servers. This becomes smaller as N max is larger. Therefore, if the processing capacity can be increased as compared with a system having a fixed processing capacity, an effect of reducing the traffic volume that is restricted by input or increasing the traffic volume to be communicated can be obtained.
  • the optimum value of the objective function can be calculated by putting the above values of N and ⁇ into equation (4) and further approximating that N can take a continuous number.
  • N can take a continuous number.
  • N max 1 must be set in order to maximize profit, and there is no point in adding more servers. This corresponds to straight lines L1 and L3 in FIGS. 4A and 4B, respectively.
  • the congestion control means 8 collects the observation values of the occurrence rates from the edge devices 3 at the end of each control section (step S1), the congestion control means 8 sums the occurrence rates received from the servers 6 and the edge devices 3 currently in operation. From the number, the number N of servers and the input restriction parameter (input restriction rate (discard rate) ⁇ or leak rate m) are determined based on the equations (11) and (12) and stored in the storage device (step S2).
  • the provisioning means 9 is instructed to start and end the server, and then the address of the server 6 in operation is updated on the storage device 10 (step S3). Then, the congestion control means 8 reads the input restriction parameter and the available server address from the storage device and notifies the edge device (step S4).
  • the server 6 that has received the termination instruction from the provisioning means 9 based on step S3 needs to transfer the already registered user to another server 6 before actually ending the operation.
  • the congestion control means 8 directly or indirectly instructs the server 6 which has been instructed to terminate, and prompts the client 1 registered in the server 6 to re-register with another server 6.
  • the operation is finished.
  • ⁇ n * PG [ ⁇ n , D ⁇ max e 1,.., E RTT e, n ].
  • the edge device 3 can calculate the distribution coefficient to the server n as follows.
  • the control device 4 newly adds a server 6 based on the congestion control method described with reference to FIG. 5 and sets an expansion mode when receiving a response of completion of addition from the provisioning means 9.
  • the maximum allowable occurrence rate for the new server 6 is, for example, 100, and the other servers 6 are notified to the edge device 3 as 0.
  • the control device 4 instructs the other server 6 directly or indirectly, and prompts the server 6 to re-register the client whose service has been registered in the newly installed server 6.
  • the concentrated assignment of the client 1 to the new server 6 is continued until, for example, the number of registered clients 1 to the new server 6 exceeds the average value of the number of client registrations in all other servers.
  • the control device 4 periodically accesses the server 6 and receives information on the number of registered clients.
  • the resource management means 11 of the edge device 3 performs the following operation. That is, the edge device 3 measures the round trip delay RTT at the network level by, for example, skipping IP pings to each server 6. If it changes significantly, the worst value vector of the RTT to each server 6 is transmitted to the control device 4.
  • step S11 When a server provisioning completion response is output from the provisioning means 9 (step S11), the expansion mode is set (step S12), and the process proceeds to step S16.
  • step S13 When an RTT is received from each edge device 3 after a certain time (step S13), the load distribution control means 17 checks whether or not it is in the expansion mode (step S14). If it is in the expansion mode (Yes in step S14), step 16 Transition to. If it is not the expansion mode in step 14 (No in step S14), the load distribution control means 17 calculates ⁇ max based on the RTT for each available server 6 and sends it to each edge device 3 together with the address of the available server. Notify (step S15) and return to step S13.
  • the registration of new clients 1 is distributed so that the total delay between each edge device 3 and each server 6 satisfies the allowable time. It becomes like this.
  • the present invention can be applied in 3GPP EPC by regarding eNodeB and MME as edge devices and servers, respectively. Further, the present invention can also be applied to a case where I-CSCF and S-CSCF are regarded as an edge device and a server, respectively, in VOIP in IMS using SIP.
  • the horizontal axis of FIG. 7 shows a time change. That is, it indicates that time has passed as the horizontal axis goes to the right.
  • the vertical axis on the left indicates the value of the input restriction rate ⁇ . Further, the right vertical axis indicates the value of ⁇ O.
  • L1 in FIG. 7 indicates that ⁇ O increases from time 0 to time T2 and decreases from time T2 to time T4.
  • a low load state is set from time 0 during which ⁇ O is increasing to time T1. Further, an overload state is set from time T1 to T2 when ⁇ O is increasing and from time T2 to T3 when ⁇ O is decreasing. Further, a low load state is set from time T3 to T4 when ⁇ O is decreasing.
  • L2 in FIG. 7 indicates the transition of the number of servers N. From time 0 to time T1, the number N of operating servers is increased as ⁇ O increases. Here, after the server number N that operates at time T2 reaches N max, until T3 is overloaded, the number of states server N is N max continues. From time T3 to T4, the number N of operating servers is also decreased as ⁇ O is decreased.
  • L3 in FIG. 7 indicates the value of the input restriction rate ⁇ .
  • the input restriction rate ⁇ is set to 0 from time 0 to T1. That is, until the time T1, the input restriction rate ⁇ is set to 0 to increase the number of servers that are in operation, thereby increasing traffic ⁇ O. After the number of servers N reaches N max at time T1, the amount of traffic transmitted to one server 6 is adjusted by increasing the input restriction rate ⁇ for the increasing traffic ⁇ O. Between the time T2 and the time T3, the input restriction rate ⁇ is also decreased with the decrease of the traffic ⁇ O. Between time T3 and time T4, the input restriction rate ⁇ is set to 0, and the number of servers N is reduced to correspond to the traffic ⁇ O that decreases.
  • the congestion control method according to the first aspect is as described above.
  • the server In the control step, in a state where the number of operating servers is less than the maximum allowable number, the server is operated or stopped according to the increase / decrease of the occurrence rate without performing input restriction based on the restriction rate, and the running server When the number reaches the maximum allowable number, input restriction based on the restriction rate may be performed according to the increase / decrease of the occurrence rate.
  • the edge device is an eNodeB compliant with 3GPP Evolved Packet System (EPS),
  • the plurality of servers may be MME (Mobility Management Entity) compliant with the EPS.
  • MME Mobility Management Entity
  • the edge device and the plurality of servers may be a call session control function (CSCF) compliant with 3GPP IMS (IP Multimedia Subsystem).
  • CSCF call session control function
  • 3GPP IMS IP Multimedia Subsystem
  • the edge device is an eNodeB compliant with 3GPP Evolved Packet System (EPS),
  • the plurality of servers may be MME (Mobility Management Entity) compliant with the EPS.
  • MME Mobility Management Entity
  • the edge device and the server may be a call session control function (CSCF) compliant with 3GPP IMS (IP Multimedia Subsystem).
  • CSCF call session control function
  • IP Multimedia Subsystem IP Multimedia Subsystem
  • the control means In a state where the number of operating servers is less than the maximum allowable number, the control means operates or stops the server according to the increase / decrease of the occurrence rate without performing input regulation based on the regulation rate, When the number reaches the maximum allowable number, the input restriction based on the restriction rate may be performed according to the increase / decrease of the occurrence rate.
  • the program is related to the fourth viewpoint.
  • the server In the control process, in a state where the number of operating servers is less than the maximum allowable number, the server is operated or stopped according to the increase / decrease of the occurrence rate without performing input regulation based on the regulation rate. When the number reaches the maximum allowable number, the input restriction based on the restriction rate may be performed according to the increase / decrease of the occurrence rate.
  • a congestion control system in which a plurality of edge devices that aggregate service request messages from a plurality of clients and distribute them to servers, a plurality of servers that process service requests from clients, and at least one control device are connected via a network.
  • a congestion control method used The control device acquires information on the occurrence rate of service requests observed from the edge device, and based on the information, determines at least a rate for regulating service request messages and a total number of servers to be operated, The congestion control method of notifying the edge device of information relating to the rate of restriction and operating a new server or stopping a service of an operating server based on the above.
  • a congestion control system in which multiple edge devices that aggregate service request messages from multiple clients and distribute them to servers, multiple servers that process service requests from clients, and at least one control device are connected via a network. There, The control device acquires information on the occurrence rate of service requests observed from the edge device, and based on the information, determines at least a rate for regulating service request messages and a total number of servers to be operated, A congestion control system that notifies the edge device of information relating to the rate of restriction and operates a new server or stops a service of an operating server based on the above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

 輻輳制御システムは、クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、クライアントからのサービス要求を処理する複数のサーバと、制御装置とを備え、制御装置は、エッジ装置から観測されたサービス要求の生起率を取得し、取得した生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定し、決定した規制率を前記エッジ装置に通知するとともに、決定したサーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う。サーバ増設に最大許容数があり、かつ輻輳崩壊が生じる可能性があるシステムにおいて、エッジ装置における入力規制とサーバ増設とを得られる収益が最大になるように統合的に制御する。

Description

輻輳制御システム、制御装置、輻輳制御方法およびプログラム
 [関連出願についての記載]
 本発明は、日本国特許出願:特願2012-256358号(2012年11月22日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、輻輳制御システム、制御装置、輻輳制御方法およびプログラムに関連し、特に、地理的に分散配置された複数のサーバに関する輻輳制御システム、制御装置、輻輳制御方法およびプログラムに関する。
<輻輳状態と輻輳制御>
 輻輳とは、システムの最大処理能力以上に処理要求のトラヒックが加わり、有効に処理されるトラヒックがシステムの最大処理能力を下回る状態をさす。これは、処理完了ができない要求に対してもシステムの処理能力の一部を割かなければならないことから発生する。以下では、具体的なシステムにおける輻輳制御について記述する。
<通信ネットワークにおける輻輳制御について>
 固定電話網では、非特許文献1にあるように、災害発生地域に着信呼が集中する場合に、制御系に輻輳崩壊が発生し、電話がつながり難くなる。これを防止するため、非特許文献1にあるように、一般的な電話交換網では着信側の交換機の状態を制御装置が随時監視して、輻輳状態を検出したら発信側の交換機に規制指示を出す。
 3GPP(3rd Generation Partnership Project)のデータ通信網では、非特許文献2にあるように、ユーザ端末を無線回線で終端して、コア網への振り分けを行うeNodeBと呼処理装置のMMEがそれぞれ複数ある場合、各eNodeBと各MMEの間は柔軟に接続できることが提案されている。この接続形態において、各MME(Mobility Management Entity)から通知を受けた相対容量に基づいてMMEの選択をすることで、複数あるMMEでの負荷バランスをとることができる。また、MMEは、つながっている無線終端集約装置eNodeBをランダムに選んで、規制率とともに過負荷状態であることを通知することができる。
 また、非特許文献3では、IMS(IP Multimedia Subsystem)においてCSCF(Call Session Control Function)と総称されるSIPサーバがVOIPの呼処理に使われることが述べられている。この場合、Interrrogating-CSCF(I-CSCF)は網の入り口に位置し、ユーザに対して最終的に呼処理を行うServing-CSCF(S-CSCF)を選択する。
 SIPサーバにおける輻輳制御については、非特許文献4にあるように、SIPサーバが輻輳を検知したら、輻輳通知を上流のノードに送信して、そこで入力規制を行う方法が示されている。こうした外部からの入力規制は、一般的なSIPサーバが処理できない呼処理要求に対してエラー応答を返す内部的な制御が輻輳崩壊を根本的に解決できないことへの対処である。
 入力規制の具体的な方法として、サーバに対して送信するサービス要求を一定の割合で廃棄するパーセント廃棄や、一定時間内にサービス要求を送信できる最大数を規制するレート制御がある。
<サーバ仮想化等における容量計画>
 非特許文献5にもあるように、計算機資源の設定が迅速にできるサーバ仮想化においては、制御装置があって、それがサーバの性能を監視した結果に基づいて必要となるサーバ数を算出し、新たにサーバを増設することができる。これは容量計画とも呼ばれる。
 なお、非特許文献6には物理サーバのプロビジョニングを行うのみならず、振分け先として利用可能なサーバ情報を負荷分散装置に通知できる管理装置がある。それはさらに、特定のサーバが異常状態もしくは障害状態になる直前の場合、そのサーバ向けへのトラヒックを削減もしくは停止する指示を負荷分散装置に通知する仕組みがある。
<ネットワークレベルの遅延を考慮したサーバへの負荷分散>
 一つの負荷分散装置もしくはクライアントから複数のサーバへの負荷分散が非特許文献8に記載されている。これはサーバでの処理遅延に加えてネットワークレベルの処理遅延も含めた総合遅延を測定し、その逆数を各サーバへ振り分けるトラヒック量の比例係数としている。
K. Mase and H. Yamamoto,"Advanced Traffic Control Methods for Network Management,"IEEE Communication Magazine, pp. 82-88, October 1990. 3GPP TS23.401 V11.1.0 (2012-03) TS 23.228 V11.4.0 (2012-03) 3GPP Technical Specification Group Services and System Aspects;  IP Multimedia Subsystem (IMS); Stage 2 (Release 11) IETF RFC6357 V. Hilt, E. Noel, C. Shen, and A. Abdelal, "Design consideration for Session Initiation Protocol (SIP) overload control" VMware vCenter Operations (2011) F5 iControl White paper (2009) R. R. Pillai, "A distributed overload control algorithm for delay-bounded call setup,"IEEE/ACM ToN, Vol.9, No.6, Dec. 2001, pp. 780-789. A. Karakos, D. Patsas, A. Bornea, and S. Kontogiannis,"Balancing HTTP traffic using dynamically updated weights, an implementation approach,"the 10th Panhellenic Conference on Informatics, 2005, pp. 873-878.
 なお、上記非特許文献の全開示内容はその引用をもって本書に繰込み記載する。以下の分析は、本発明の観点から与えられる。
一般的な固定電話網では、それを構成する交換機においては、制御系と通話路系が一体となって構成されており、容易に制御系の処理能力を増加させることができない。よって、過負荷状態では入力規制のみによって輻輳回避が行われる。
 3GPPのLTE(Long Term Evolution)においては、特にモバイルコアにおいて、制御系とユーザデータ系に属するノードがMMEおよびS-gatewayと分離され、eNodeBは複数のMMEと接続されることが可能になった。このような構成において、輻輳制御に関する動作としては、eNodeBは接続している各MMEから個別にその処理容量もしくは輻輳状態の通知を受けるが、それらに基づいて、どういうタイミングで、どんな入力規制値を用いて入力規制するかの具体的な方法は規定されていない。
 IMS/SIPにおいては、制御系とユーザ系は分離され、制御系はSIP(Session Initiation Protocol)サーバが担うことになっている。輻輳崩壊については、SIPサーバが自ら内部的に行う方法に加えて、前段のSIPサーバで外部から行う方法がIETF(Internet Engineering Task Force)等で議論されている。
 しかし、上述のようにLTEおよびIMS/SIPにおいては、制御系を担う装置がユーザデータ系から分離され、その資源を柔軟に増減させることが潜在的に可能となっているにも関わらず、それを上述の入力規制制御と統合化して、収容できるトラヒックをさらに増大化させる輻輳制御方法は知られていない。
 一方、IT系のサービスにおける物理サーバや仮想サーバの容量管理を行う制御装置においては、基本的にサーバ数の増減設と利用可能なサーバの負荷分散装置への通知を行うのみである。
 また、負荷分散装置とサーバ系の装置は異なるベンダーから提供されてきたことを背景に、負荷分散装置は、利用可能なサーバへのメッセージの割り振りを行うのみである。同一の背景で、サーバは、通常の処理ができない処理要求メッセージに対してはエラーを応答することでローカル規制を行うことができる。ただし、その実行自体がリソースを無駄に消費し、負荷が増大すると輻輳崩壊を免れないという問題がある。よって、サーバ群が過負荷になったときに各サーバへの入力規制を負荷分散装置において実行させるような仕組みは提供されてこなかった。
 トラヒックの増大に対して、上記のそれぞれで行われるエッジもしくは負荷分散装置での入力規制とサーバ増設とを効果的に統合できれば、より少ないサーバ数でより多くの処理要求に対してその処理を実行することが期待できるが、その統合的な輻輳制御方法はまだ知られていない。
 本発明の目的は、トラヒックの変化、増大に対して、入力規制およびサーバ増設を統合的に実行することで、それぞれ単独に行った場合に比べて、ある時間内で接続完了した呼の総数を最大させることである。また各サーバに共通の入力規制値を用いることで、制御コストを削減する。
 本発明の第1の視点に係る輻輳制御方法は、クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバとにネットワークで接続された制御装置が、前記エッジ装置から観測されたサービス要求の生起率を取得する工程と、前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する工程と、前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御工程と、を含む。
 本発明の第2の視点に係る輻輳制御システムは、クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバと、制御装置とを備え、前記制御装置は、前記エッジ装置から観測されたサービス要求の生起率を取得する手段と、前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する手段と、前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御手段と、を備える。
 本発明の第3の視点に係る制御装置は、クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバとにネットワークで接続された制御装置であって、前記エッジ装置から観測されたサービス要求の生起率を取得する手段と、前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する手段と、前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御手段と、を備える。
 本発明の第4の視点に係るプログラムは、クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバとにネットワークで接続された制御装置に設けられたコンピュータに対して、前記エッジ装置から観測されたサービス要求の生起率を取得する処理と、前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する処理と、前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御処理と、を実行させる。
 なお、プログラムは、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)に記録されたプログラム製品として提供することができる。
 サーバ増設に最大許容数があり、かつ輻輳崩壊が生じる可能性があるシステムにおいて、あるサービス完了できる客の総数(ある時間内における)から得られる収入からサーバ稼働によってかかるコストを引いて得られる収益をより増大させることができる。
 なぜなら、トラヒックが増加しつつある場合、サーバ増設が可能な限り規制率を0にしたまま、要求性能が満たされるようにサーバ数の増減を行い、サーバが増設限界に達したときは、要求性能が満たされるように規制率を増減するからである。
輻輳制御システムの構成を一例として示すブロック図である。 制御装置の構成を一例として示すブロック図である。 エッジ装置の構成を一例として示すブロック図である。 収益最大化の最適化問題の解法を説明する図である。 収益最大化の最適化問題の解法を説明する図である。 制御装置の輻輳制御手段における動作を一例として示す流れ図である。 制御装置の負荷分散制御手段における動作を一例として示す流れ図である。 実施形態における、トラヒック量の変動に対する、廃棄率、サーバ数の軌跡を一例として示すグラフである。
 まず、図1を用いて、輻輳制御システムの全体の構成について説明する。輻輳制御システムは、クライアント1、フロントエンド網2、エッジ装置3、制御装置4、バックエンド網5、および、サーバ6を備えている。
 クライアント1は、サービス利用登録をエッジ装置3によって割り当てられたサーバ6に対して行うとともに、そのサーバ6へ向けてサービスの要求を送信する。サービスの登録に先立ってクライアント1はエッジ装置3を別の何らかの手段で割り当てられる。
 フロントエンド網2はクライアント1とエッジ装置3を接続するネットワークである。エッジ装置3はクライアントから受け取ったサービスへの利用登録に対してサーバ6を割り当て、その後クライアントから受け取ったサービス要求メッセージをすでに割り当てられているサーバ6に転送するという負荷分散の機能を持つ。また、エッジ装置3は、クライアント1からのサービス要求メッセージに対する入力規制を行い、サーバ6に加わるトラヒックを削減する。制御装置4は、エッジ装置3、サーバ6との間で輻輳制御、あるいは負荷分散制御に必要となるメッセージをやり取りする。
 バックエンド網5は、エッジ装置3、制御装置4、サーバ6の間を接続するネットワークである。サーバ6はエッジ装置3を経由してクライアント1から受信したサービスへの登録、およびその後受信するサービス要求メッセージを処理する。
 次に、図2を用いて制御装置4の構成について説明する。制御装置4は、入出力手段7と、輻輳制御手段8と、負荷分散制御手段17と、プロビジョニング手段9と、記憶装置10とからなる。
 輻輳制御手段8は、各サーバ6からサービス処理に関して観測された性能情報を受取り、それに基づいてエッジ装置3で用いる規制率、必要なサーバ数等を決定し、各エッジ装置3に規制率や、使用可能なサーバを通知するという資源管理を行う。
 負荷分散制御手段17は、各エッジ装置3からサーバ6へのネットワークレベルの遅延の観測値を受信し、また各サーバ6からクライアント1の登録数を受信して、それに基づいて各サーバ6の最大許容生起率を決定して、各エッジ装置3に通知する。
 プロビジョニング手段9は、輻輳制御手段8から指定されたサーバ6に対して、サーバ6の起動、割当てを行うための指示メッセージをサーバ6に送る。
 記憶装置10は、稼働中および待機中のサーバ6のアドレスと、サーバ6の処理率(単位時間当たりのサービス要求の処理可能数)と、およびエッジ装置3の各アドレスと、サーバでの観測性能、入力規制率、各エッジ装置3から受信した各サーバ6との間のネットワークレベルの遅延等を保持している。
 次に、図3を用いて、エッジ装置3の構成について説明する。エッジ装置3は、資源管理手段11と、入出力手段12と、入力規制手段13と、負荷分散手段14と、複数の転送キュー15と、読み出し手段16とを備えている。
 資源管理手段11は、制御装置4から送られた規制値を入力規制手段13に設定する。また制御装置4から送られた各サーバ6の最大許容生起率から割当て係数を決定して、負荷分散手段14に設定する。さらに、読み出し手段16で各転送キュー15に対してシェイピングを行う場合は、そのレートとして前記(サーバの最大許容生起率)/(エッジ装置総数)を転送キュー15に設定する。
 入力規制手段13における入力規制の方法には次の2つが考えらえる。一つは、入力規制率φに基づいて、例えばサービス要求メッセージを受信するたびに乱数を振って、その値がφ未満の場合はそのサービス要求メッセージを廃棄もしくは要求拒否メッセージを返送し、乱数を振った値がφ以上のものはサービス要求メッセージの処理を行う。
 もうひとつは総量規制であり、リークレートrと、そこからの揺らぎを表すバケットサイズBを2つのパラメータにもつリーキーバケットアルゴリズムに基づいて規制を行う。リーキーバケットは、リークレートrでサイズBのバケツからデータを読み出すことを想定したもので、到着したメッセージのサイズがバケツの空き容量を超えた場合、それは廃棄される。
 負荷分散手段14は、クライアント1からサービス利用登録要求のメッセージが到来すると、割当て係数に基づいて決定されたサーバ6をそのクライアント1に割当てる。一度割り当てられたサーバ6は、クライアント1がサービス利用登録を解除するまでそのクライアント1からのメッセージが転送される。また、予め各クライアント1に割当てられたサーバ6に対応する転送キュー15にクライアント1からのサービス要求メッセージを振り分ける。
 負荷分散手段14は、例えば、クライアント1からのサービス利用登録要求を、割当て係数に従ってサーバ6に割り当てる。そしてその後、そのクライアント1からその後転送されるメッセージはその割り当てられたサーバ6に対応する転送キュー15に送る。このサービス利用登録は、例えば、3GPPのAttach、SIPのuser registrationであり、一度割り当てられたらその間のメッセージはすべて同一のサーバ6に送られる。転送キュー15はサーバ毎に設定される。
 読み出し手段16は、資源管理手段11から設定された振分け係数に基づいてweighted fair queue形式で、転送キュー15からサービス要求メッセージを読み出すか、あるいは(最大許容生起率)/(エッジ装置数)で決まるレートでシェイピングしてもよい。
[実施形態の動作)
 次に、制御装置4の輻輳制御手段8での動作について説明する。次のように与えられた目的関数を最適化するように決定する。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 いま、サーバのサービス要求メッセージの処理能力はすべて等しいものとする。先ず定数について説明する。aは一つの処理要求を処理完了できた場合に得られる収入、bは稼働中のサーバ1台で単位時間に発生するコストとする。コストは具体的には電力使用量やサーバ管理の手数等に係るものである。λOはエッジ装置全体に加わるサービス要求のトラヒックとする。Dnはサーバnにおいて要求される遅延限界である。
 PG[λ,D]は生起率λのトラヒックが、1台のサーバに加わったとき、許容時間D以内にサービスが完了する確率を表す処理完了率を表す関数である。
 次に、変数について説明する。λnはエッジ装置全体に加わるサービス要求のトラヒックのうちサーバnに加わる生起率、Nはサーバ数、φは各エッジ装置における共通の入力規制率を表す。
 次に、目的関数について説明する。(1-φ)λnは各エッジ装置における入力規制後、サーバnに加わるトラヒックであり、これをスループットと呼ぶ。
 そして、(1-φ)λn*PG[(1-φ)λn,Dn]はサーバnにおいて単位時間あたりに処理完了するサービス要求メッセージ数を示し、これはグッドプットとも呼ばれる。すると、目的関数において、a*Σn=1 N(1-φ)λn*PG[(1-φ)λn,Dn]は単位時間当たりのサーバ全体での総収入を表す。一方bNは単位時間あたりサーバ全体に発生するコストになるので、式(1)の目的関数は単位時間当たりの総収益を最大化するものとみなせる。
 ここで、式(1)はλnについて非線形関数となるため、これを線形近似して、上記最適化問題を容易に解けるようにする。すなわち与えられたdに対して、PG[λ,d]はλに関する減少関数となるので、λ*PG[λ,D]はλに関して最大値をもつ。非特許文献7によれば、生起率λ、処理率μ最大許容遅延DをパラメータにしたM/M/1の待ち行列システムでの処理完了率はPG[λ, D]=1-exp{-(μ-λ)D}で与えられる。そして与えられたDに対して、グッドプットλ* [1-exp{-(μ-λ)D}]の最大値を与えるλ=λmaxの値を示す表も与えられている。これはDが大きくなるほど大きくなることがわかる。また、一般にある待ち行列システムでのλmaxを求めるのは上記のように解析的に導出するだけでなく、サーバに擬似的なトラヒックを加えていって与えられたλに対する遅延分布を求め、さらに、与えられたDに対してλに対するグッドプットのグラフを、加えてグッドプット算出して求めることも可能である。
 λmaxはサーバにこれ以上の生起率を持つサービス要求のトラヒックを受け入れると、グッドプットが低下するので、輻輳崩壊を防ぐにはこれ以上の生起率を持つトラヒックを受け入れるべきではないことを示す値である。よって、λmaxを最大収容生起率とも呼ぶことにする。
 上記の議論に基づいて式(1)を線形近似するため、0≦λn(1-φ)≦λn maxの範囲ではPG[λn(1-φ),Dn]=1で近似する。これより式(1)、(2)から、
  Σn=1 Nλn(1-φ)*PG[λn(1-φ), Dn]
=(1-φ)Σn=1 Nλn
= (1-φ)λO
となる。したがって、上記の最適化問題は、次のように簡略化できる。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 λn maxはサーバnの最大収容生起率とする。サーバ全体で最大収容可能なトラヒックを、以下の式(8)と定義する。
Figure JPOXMLDOC01-appb-M000005
 すると、式(2)、(7)より、
Σn=1 Nλn (1-φ)=(1-φ)λO≦Σn=1 Nλn max=λ[N]、よって、これより新たな制約条件として、以下の式(9)を得る。
Figure JPOXMLDOC01-appb-M000006
 これにより、上記の最適化問題は、さらに次のように表すことができる。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 ここで、D1=,..,=DNであり、各サーバに振り分けられるサービス要求の生起率はすべて等しいとすれば、λ1 max=,...,=λN max≡λmaxが得られる。すると、式(8)はλ[N]=λmaxNとなり、式(5)はφ+N/(λOmax) ≧1となる。したがって、上記の最適化問題は、下記のように、入力規制率φとサーバ数Nから成る線形空間における線形関数の最大化問題となる。
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 図4Aおよび図4Bは、上記の(N、φ)の平面上で式(10)、(4)、(7)の制約条件を満たす許容領域を斜線で示す。
 いま、目的関数(6)の値をcと置いて、入力規制率φについて解くと、φ=-bN/(aλO)+(aλO-c)となってφ切片はaλO-cであるから、cを最大にするには、上記直線のφ切片を許容領域内で最小にすればよい。
 その際、以下に示す2つの場合に分けて考える必要がある。一つは、図4Aに示されている場合、すなわちλOmax<Nmaxならば、ceilを天井関数として、次の式(11)となる。
Figure JPOXMLDOC01-appb-M000011
 すなわち、エッジ装置3に加わるトラヒックがサーバ6側の最大容量を下回る場合は、規制率φは0にして、サーバ数Nは、そこに加わるトラヒックを収容できる最小分だけ用意する。
一方、許容領域が図4Bで示されている場合、すなわちλOmax≧Nmaxならば、次の式(12)となる。
Figure JPOXMLDOC01-appb-M000012
 すなわち、エッジ装置3に加わるトラヒックがサーバ6側の最大容量を上回る場合は、サーバ6は準備できる最大限Nmaxを稼働させ、それによる容量を上回る分のトラヒックは入力規制することになる。
 ここで、本実施形態によって得られる効果について述べておく。式(12)より、入力規制率φは与えられたサーバ台数に対して、規制されるトラヒックの割合を示している。これはNmaxが大きければ大きいほど小さくなる。よって、処理容量が固定であるシステムに比べて処理容量を増加させることができれば、入力規制されるトラヒック量を減少させる、あるいは疎通させるトラヒック量を増大させることができるという効果が得られる。
 また、目的関数の最適値は、上記のN,φの値を式(4)に入れ、さらにNが連続数を取ることができると近似するならば、
λOmax<Nmax の場合は a*λO-bλOmax=(a-b/λmax)λO、でλとともに増加し、
λOmax≧Nmax, の場合は (a*λmax-b)Nmax と一定になる。
 上記の収益の最大値より、パラメータa,b に関して次のことがわかる。すなわち、与えられたλOに対して収益が正の値をとるためには、aλmax>bである必要がある。これは、サーバを一台用意して最大得られる収入がそのコストを上回る必要があることを意味する。これは、図4Aおよび図4Bにおいて、それぞれ直線L2,L4に相当する。
 一方、a*λmax≦bの場合は、Nmaxを増やすと収益が減るので、収益最大化のためには、N max=1とせざるを得ず、サーバを増設することの意味がない。これは図4A及びBにおいてそれぞれ直線L1,L3に相当する。
 上記のように最適化問題を設定しその解に基づいて輻輳制御をするならば、各エッジ装置で観測して得られる生起率λeの総和から得られるλOe=1 Eλeに対して、式(11)または(12)からサーバ数Nと、各エッジ装置に共通の入力規制値であるφを決定するだけでよく、非特許文献2と違って、個別のサーバに対して輻輳検出してから個別に入力規制等の制御をかけるといったサーバ個別の対応を行う必要がなくなる。
 以上に基づいた制御装置4の輻輳制御手段8による動作を、図5の流れ図を用いて詳細に説明する。ここで、各サーバが最大収容可能なサービス要求の生起率は予め与えられているものとする。
 輻輳制御手段8は、各制御区間の終了時に各エッジ装置3から生起率の観測値を収集したら(ステップS1)、各サーバ6から受信した生起率の総和、および現在稼働中のエッジ装置3の数から、式(11)、(12)に基づいてサーバ数N、および入力規制パラメータ(入力規制率(廃棄率)φまたはリークレートm)を決定して記憶装置に格納し(ステップS2)、サーバを新たに増設する、もしくは既存サーバを減設する場合はサーバの起動、終了の指示をプロビジョニング手段9に指示してから、稼働中のサーバ6のアドレスを記憶装置10上で更新する(ステップS3)。そして、輻輳制御手段8は、入力規制パラメータと利用可能なサーバのアドレスを記憶装置から読み出してエッジ装置に通知する(ステップS4)。
 なお、ステップS3に基づいてプロビジョニング手段9から終了の指示を受けたサーバ6は、実際に稼働を終了する前に、すでに登録されているユーザを他のサーバ6に振り替える必要がある。そのために、輻輳制御手段8は直接もしくは間接的に、終了指示をうけたサーバ6に指示して、そのサーバ6に登録されたクライアント1に他のサーバ6への再登録を促す。そして、すべてのクライアント1の他のサーバ6への再登録が終了したら稼働を終了する。
 次に、エッジ装置3における負荷分散に関する動作について説明する。その前に、定量的なモデル化について説明する。いま、サーバnにおけるサービス完了はエッジ装置3からサーバ6へのネットワーク遅延も含む総合遅延がd以下であれば実現されるとする。
 いま、エッジ装置e(=1,..,E)からサーバnへのネットワークレベルでの往復遅延RTTe,nに加えてサーバ6での処理遅延tn srvを加えた総合時間te,n total=tn srv+RTTe,nが任意のエッジ装置3とサーバ6の組に対して共通のD以下であれば処理が完了したとみなす。すると、サーバnにおいて処理完了とみなせるためには、
 すべてのエッジ装置3に対してtn srv≦D-RTTe,n  for all e=1,..E、
 すなわち、tn srv≦D-maxe=1,..,ERTTe,n でなければならない。よって、サーバnにおける処理完了率Pはグッドプットを表す関数を用いて、PG[λn, D-maxe=1,..,ERTTe,n]と書けるので、サーバnにおけるグッドプットはλn*PG[λn,D-maxe=1,..,ERTTe,n]となる。ここで、先に述べたように、グッドプットGP[λ,τ]を最大化するためのλ=λmaxは、予めサーバに生起率λの擬似トラヒックを加えて遅延を計測して、λに対する遅延分布を算出し、そこから各τに関するλ=λmaxを求めて例えば表の形式で保持しておくことができる。
 上記のグッドプットを最大化するλn =λn maxを制御装置4でテーブルからひかせるためには、τnを算出する必要がある。
 これは、エッジ装置3とサーバ間6で測定したRTTを各エッジ装置から収集する。これより、τn=D-maxe=1,..,ERTTe,n  (n=1,..,N)、そしてτnより得られるλn max(n=1,..,N)をすべてのサーバ6についてエッジ装置3に通知すれば、エッジ装置3はサーバnへの振分け係数を次のように計算できる。
Figure JPOXMLDOC01-appb-M000013
 エッジ装置は総数がE台あるので、各エッジ装置3では、最大収容生起率がλn maxであるサーバnからのサービス要求トラヒックに対してピークレートをmnn max/E (n=1,..,N)の値でシェイピングするならば、サーバnには全エッジ装置から高々λn maxのトラヒックしか加わらないのでサーバnでの輻輳崩壊は防ぐことができる。
 なお、新規にサーバ6を増設した直後からは、接続要求の処理に関する負荷レベルを他のサーバ6と同等レベルにより早く持っていく必要がある。そこで新規クライアントの登録をそのサーバ6へ集中的に行わせるために次のように振分け係数のつけ方を通常とは違う方法にする。
 すなわち、制御装置4は、図5を用いて説明した輻輳制御方法に基づいて新規にサーバ6を増設して、プロビジョニング手段9から増設完了の応答を受けた場合は増設モードを設定する。そして新規サーバ6に対する最大許容生起率は例えば100、他のサーバ6については0として、エッジ装置3に通知する。もしくは制御装置4が他のサーバ6に直接もしくは間接的に指示して、そのサーバ6にサービス登録済みのクライアントを新設したサーバ6へ再登録するように促す。こうした新設サーバ6への集中的なクライアント1の割当ては、例えば、新規サーバ6へのクライアント1の登録数が他のサーバ全体でのクライアント登録数の平均値を超えるまで続ける。前記の平均値を算出するために、制御装置4はサーバ6に定期的にアクセスして登録されているクライアント数の情報を受信する。
 以上を考慮して、エッジ装置3の資源管理手段11は下記の動作を行う。すなわち、エッジ装置3は各サーバ6にIP pingを飛ばす等により、ネットワークレベルでの往復遅延RTTを測定する。そして、それが著しく変化した場合は、制御装置4に各サーバ6へのRTTの最悪値のベクトルを送信する。
 エッジ装置3は制御装置4から各サーバ6の最大許容生起率λmax=(λ1 max,..,λN max)を受信した場合は、そこから式(1)に基づいて割当て係数を算出して負荷分散手段14に設定し、またそれを直接転送キュー15のシェイピングレートに設定する。
 次に、制御装置4の負荷分散制御手段17における動作について、図6を用いて説明する。サーバプロビジョニング完了応答がプロビジョニング手段9から出力されたら(ステップS11)、増設モードを設定して(ステップS12)、ステップS16に遷移する。
 一定時間後に各エッジ装置3からRTTを受信したら(ステップS13)、負荷分散制御手段17は、増設モードであるかどうか調べ(ステップS14)、増設モードである場合(ステップS14のYes)、ステップ16に遷移する。ステップ14で増設モードでない場合(ステップS14のNo)、負荷分散制御手段17は利用可能な各サーバ6ついて、RTTに基づくλmaxを算出して、利用可能なサーバのアドレスとともに各エッジ装置3に通知し(ステップS15)して、ステップS13に戻る。
 負荷分散制御手段17は、ステップS16では、一定時間後に各サーバから登録クライアント数を取得し、次に、新規サーバのクライアント数が新規サーバ以外の平均クライアント数を超えたかどうか調べ(ステップS17)、超えた場合(ステップS17のYes)、増設モードを解除して最大許容生起率は先に説明したグッドプットを最大化するものに設定し(ステップS18)、ステップS13に遷移する。一方、ステップS17で超えない場合(ステップS17のNo)、新設された以外の既存サーバは最大許容生起率についてλn max=0を設定、新設されたサーバに対してはλn max=100を設定して(ステップS19)、ステップS16に遷移する。
 上記の動作により、サーバ増設された状態においては、他の既稼働のサーバと同等レベルまでクライアント数が0から増加するまで、そのサーバに集中して新規クライアントが登録されるので、より早く他のサーバとの負荷レベルを等しくすることができる。
 また、各サーバに登録されたクライアント数が平準化されている場合は、各エッジ装置3と各サーバ6との間の総合遅延がすべて許容時間を満たすように新たなクライアント1の登録が振り分けられるようになる。
 次に、本実施形態に基づく実施例について説明する。
 図6は、λOが時間的に変化したときの、制御変数である入力規制率φ、サーバ数Nの軌跡を表す。ただし、どのサーバ6の処理率も等しくμとし、エッジ装置3とサーバ6との間のネットワーク遅延はすべて等しいものとする。λOが増加するにしたがって、入力規制率φ=0のまま、サーバ数Nを増やす。N=Nmaxになっても、さらにλが増えていったら、今度は、N=Nmaxのままで、λOの増加とともにφを増加させる。
 一方、この状態からλが減少を始めると、入力規制率φも減少させる。そして、入力規制率φが0になったところさらにλOが減少すれば、入力規制率φ=0のまま、サーバ数Nが削減されることを示している。
 本発明は、3GPPのEPCにおいては、eNodeBとMMEをそれぞれエッジ装置とサーバとみなすことで、適用することができる。また、SIPを用いたIMSにおけるVOIPにおいて、I-CSCFとS-CSCFをそれぞれエッジ装置とサーバとみなした場合にも、本発明を適用することができる。
 次に、図7を用いて、複数のエッジ装置3全体に加わるトラヒックλOが時間的に変化したときの、制御変数である入力規制率φ及びサーバ数Nの値の軌跡を説明する。ただし、どのサーバの処理率も等しくμとし、エッジ装置3とサーバ6との間のネットワーク遅延はすべて等しいものとする。
 図7の横軸は、時間変化を示す。つまり、横軸を右に行くに従い時間が経過していることを示す。左側の縦軸は、入力規制率φの値を示す。さらに、右側の縦軸は、λOの値を示す。図7においては、サーバ数Nを示す軸は存在しないが、グラフの変化によりサーバ数が増減している様子を示す。
 図7のL1は、λOが時間0から時間T2まで増加し、時間T2から時間T4まで減少している様子を示している。λOが増加している時間0から時間T1までを低負荷状態とする。さらに、λOが増加している時間T1からT2及びλOが減少している時間T2からT3までを過負荷状態とする。さらに、λOが減少している時間T3からT4までを低負荷状態とする。
 図7のL2は、サーバ数Nの推移を示している。時間0から時間T1までは、λOが増加するに伴い、稼働するサーバ数Nを増加させている。ここで、時間T2において稼働するサーバ数NがNmaxに達した後、過負荷状態であるT3までは、サーバ数NがNmaxである状態が継続する。時間T3からT4までは、λOが減少するに伴い稼働するサーバ数Nも減少させる。
 図7のL3は、入力規制率φの値を示している。入力規制率φは、時間0からT1までは0に設定されている。つまり、時間T1までは、入力規制率φを0に設定して稼働するサーバ数を増加させることにより、増加するトラヒックλOに対応している。時間T1にサーバ数NがNmaxに達した後、増加するトラヒックλOに対して入力規制率φを増加させることにより、1台のサーバ6に送信されるトラヒックの量を調整する。時間T2から時間T3の間は、トラヒックλOの減少に伴い入力規制率φも減少させる。時間T3から時間T4の間は、入力規制率φを0に設定し、サーバ数Nを減少させることにより、減少するトラヒックλOに対応している。
 このようにして、本発明における輻輳制御では、増加するトラヒックに対して稼働させるサーバ数を増加させることができる間においては、トラヒックの入力規制は行わず、稼働させるサーバ数が上限に達した場合に、トラヒックの入力規制を行うように制御される。このように制御することにより、処理するサービス要求の数を増加させることができる。
 なお、本発明において、下記の形態が可能である。
[形態1]
 上記第1の視点に係る輻輳制御方法のとおりである。
[形態2]
 前記制御工程において、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行ようにしてもよい。
[形態3]
 前記エッジ装置は、3GPPのEvolved Packet System(EPS)に準拠したeNodeBであり、
 前記複数のサーバは、前記EPSに準拠したMME(Mobility Management Entity)であってもよい。
[形態4]
 前記エッジ装置および前記複数のサーバは、3GPPのIMS(IP Multimedia Subsystem)に準拠したCSCF(Call Session Control Function)であってもよい。
[形態5]
 上記第2の視点に係る輻輳制御システムのとおりである。
[形態6]
 前記制御手段は、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行うようにしてもよい。
[形態7]
 前記エッジ装置は、3GPPのEvolved Packet System(EPS)に準拠したeNodeBであり、
 前記複数のサーバは、前記EPSに準拠したMME(Mobility Management Entity)であってもよい。
[形態8]
 前記エッジ装置および前記サーバは、3GPPのIMS(IP Multimedia Subsystem)に準拠したCSCF(Call Session Control Function)であってもよい。
[形態9]
 上記第3の視点に係る制御装置のとおりである。
[形態10]
 前記制御手段は、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行うようにしてもよい。
[形態11]
 上記第4の視点に係るプログラムのとおりである。
[形態12]
 前記制御処理において、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行うようにしてもよい。
 また、本発明によると、以下に付記として記載する発明が提供される。
[付記1]
 複数のクライアントからのサービス要求メッセージを集約してサーバに振り分ける複数のエッジ装置と、クライアントからのサービス要求を処理する複数のサーバと、少なくとも一つの制御装置とがネットワークで接続された輻輳制御システムに用いられる輻輳制御方法であって、
 前記制御装置は、前記エッジ装置から観測されたサービス要求の生起率に関する情報を取得し、前記情報に基づいて、少なくとも、サービス要求メッセージを規制する割合および稼働すべきサーバの総数を決定し、それらに基づいて、前記エッジ装置に規制する割合に関する情報を通知し、新たなサーバの稼働、もしくは稼働中のサーバのサービス停止を行う、輻輳制御方法。
[付記2]
 稼働中のサーバ数が最大許容数未満である状態においては、入力規制はせずに生起率の増減に従ってサーバの稼働もしくは停止を行い、稼働中のサーバ数が最大許容数に達している場合は生起率の増減に従って入力規制を行う、付記1に記載の輻輳制御方法。
[付記3]
 前記エッジ装置は3GPPのEvolved Packet System(EPS)に準拠したeNodeBであり、サーバは前記EPSに準拠したMMEである、付記1または2に記載の輻輳制御方法。
[付記4]
 前記エッジ装置および前記サーバは3GPPのIMSに準拠したCSCFである、付記1または2に記載の輻輳制御方法。
[付記5]
 複数のクライアントからのサービス要求メッセージを集約してサーバに振り分ける複数のエッジ装置と、クライアントからのサービス要求を処理する複数のサーバと、少なくとも一つの制御装置とがネットワークで接続された輻輳制御システムであって、
 前記制御装置は、前記エッジ装置から観測されたサービス要求の生起率に関する情報を取得し、前記情報に基づいて、少なくとも、サービス要求メッセージを規制する割合および稼働すべきサーバの総数を決定し、それらに基づいて、前記エッジ装置に規制する割合に関する情報を通知し、新たなサーバの稼働、もしくは稼働中のサーバのサービス停止を行う、輻輳制御システム。
[付記6]
 稼働中のサーバ数が最大許容数未満である状態においては、規制率は0のまま生起率の増減に従ってサーバの稼働もしくは停止を行い、稼働中のサーバ数が最大許容数に達している場合は生起率の増減に従って規制率を増減させる、付記5に記載の輻輳制御システム。
[付記7]
 前記エッジ装置は3GPPのEvolved Packet System(EPS)に準拠したeNodeBであり、前記サーバは前記EPSに準拠したMMEである、付記5または6に記載の輻輳制御システム。
[付記8]
 前記エッジ装置および前記サーバは3GPPのIMSに準拠したCSCFである、付記5または6に記載の輻輳制御システム。
 なお、上記の非特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
 1 クライアント
 2 フロントエンド網
 3 エッジ装置
 4 制御装置
 5 バックエンド網
 6 サーバ
 7、12 入出力手段
 8 輻輳制御手段
 9 プロビジョニング手段
 10 記憶装置
 11 資源管理手段
 13 入力規制手段
 14 負荷分散手段
 15 転送キュー
 16 読出し手段
 17 負荷分散制御手段
 N サーバ数
 φ 入力規制率

Claims (12)

  1.  クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバとにネットワークで接続された制御装置が、
     前記エッジ装置から観測されたサービス要求の生起率を取得する工程と、
     前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する工程と、
     前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御工程と、を含む、輻輳制御方法。
  2.  前記制御工程において、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行う、請求項1に記載の輻輳制御方法。
  3.  前記エッジ装置は、3GPPのEvolved Packet System(EPS)に準拠したeNodeBであり、
     前記複数のサーバは、前記EPSに準拠したMME(Mobility Management Entity)である、請求項1または2に記載の輻輳制御方法。
  4.  前記エッジ装置および前記複数のサーバは、3GPPのIMS(IP Multimedia Subsystem)に準拠したCSCF(Call Session Control Function)である、請求項1または2に記載の輻輳制御方法。
  5.  クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバと、制御装置とを備え、
     前記制御装置は、前記エッジ装置から観測されたサービス要求の生起率を取得する手段と、
     前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する手段と、
     前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御手段と、を備える、輻輳制御システム。
  6.  前記制御手段は、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行う、請求項5に記載の輻輳制御システム。
  7.  前記エッジ装置は、3GPPのEvolved Packet System(EPS)に準拠したeNodeBであり、
     前記複数のサーバは、前記EPSに準拠したMME(Mobility Management Entity)である、請求項5または6に記載の輻輳制御システム。
  8.  前記エッジ装置および前記サーバは、3GPPのIMS(IP Multimedia Subsystem)に準拠したCSCF(Call Session Control Function)である、請求項5または6に記載の輻輳制御システム。
  9.  クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバとにネットワークで接続された制御装置であって、
     前記エッジ装置から観測されたサービス要求の生起率を取得する手段と、
     前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する手段と、
     前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御手段と、を備える、制御装置。
  10.  前記制御手段は、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行う、請求項9に記載の制御装置。
  11.  クライアントからのサービス要求メッセージを集約してサーバに振り分けるエッジ装置と、前記クライアントからのサービス要求を処理する複数のサーバとにネットワークで接続された制御装置に設けられたコンピュータに対して、
     前記エッジ装置から観測されたサービス要求の生起率を取得する処理と、
     前記生起率に基づいて、サービス要求メッセージを規制する割合を規制率として決定するとともに、稼働すべきサーバ数を決定する処理と、
     前記規制率を前記エッジ装置に通知するとともに、前記サーバ数に基づいて新たなサーバの稼働または稼働中のサーバのサービス停止を行う制御処理と、を実行させる、プログラム。
  12.  前記制御処理において、稼働中のサーバ数が最大許容数未満である状態においては、前記規制率に基づく入力規制を行うことなく前記生起率の増減に従ってサーバの稼働または停止を行い、稼働中のサーバ数が最大許容数に達している場合、前記生起率の増減に従って前記規制率に基づく入力規制を行う、請求項11に記載のプログラム。
PCT/JP2013/081440 2012-11-22 2013-11-21 輻輳制御システム、制御装置、輻輳制御方法およびプログラム WO2014080994A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/646,369 US20150304220A1 (en) 2012-11-22 2013-11-21 Congestion control system, control device, congestion control method and program
JP2014548620A JPWO2014080994A1 (ja) 2012-11-22 2013-11-21 輻輳制御システム、制御装置、輻輳制御方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-256358 2012-11-22
JP2012256358 2012-11-22

Publications (1)

Publication Number Publication Date
WO2014080994A1 true WO2014080994A1 (ja) 2014-05-30

Family

ID=50776171

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081440 WO2014080994A1 (ja) 2012-11-22 2013-11-21 輻輳制御システム、制御装置、輻輳制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20150304220A1 (ja)
JP (1) JPWO2014080994A1 (ja)
WO (1) WO2014080994A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014103637A (ja) * 2012-11-22 2014-06-05 Nec Corp 負荷分散制御方法およびシステム
JP2016184911A (ja) * 2015-03-27 2016-10-20 日本電気株式会社 ネットワーク認証システム、ネットワーク認証方法および認証サーバ
CN106471773A (zh) * 2014-06-30 2017-03-01 微软技术许可有限责任公司 集成式全局资源分配和负载平衡
JP2017046032A (ja) * 2015-08-24 2017-03-02 日本電信電話株式会社 トラフィック制御システムおよびトラフィック制御方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9832148B2 (en) * 2014-10-03 2017-11-28 At&T Intellectual Property I, L.P. System and method for attaching a remotely stored attachment to an email
US11132353B2 (en) * 2018-04-10 2021-09-28 Intel Corporation Network component, network switch, central office, base station, data storage, method and apparatus for managing data, computer program, machine readable storage, and machine readable medium
US11411925B2 (en) 2019-12-31 2022-08-09 Oracle International Corporation Methods, systems, and computer readable media for implementing indirect general packet radio service (GPRS) tunneling protocol (GTP) firewall filtering using diameter agent and signal transfer point (STP)
US11553342B2 (en) 2020-07-14 2023-01-10 Oracle International Corporation Methods, systems, and computer readable media for mitigating 5G roaming security attacks using security edge protection proxy (SEPP)
US11751056B2 (en) 2020-08-31 2023-09-05 Oracle International Corporation Methods, systems, and computer readable media for 5G user equipment (UE) historical mobility tracking and security screening using mobility patterns
US11825310B2 (en) 2020-09-25 2023-11-21 Oracle International Corporation Methods, systems, and computer readable media for mitigating 5G roaming spoofing attacks
US11832172B2 (en) 2020-09-25 2023-11-28 Oracle International Corporation Methods, systems, and computer readable media for mitigating spoofing attacks on security edge protection proxy (SEPP) inter-public land mobile network (inter-PLMN) forwarding interface
US11622255B2 (en) 2020-10-21 2023-04-04 Oracle International Corporation Methods, systems, and computer readable media for validating a session management function (SMF) registration request
US11528251B2 (en) * 2020-11-06 2022-12-13 Oracle International Corporation Methods, systems, and computer readable media for ingress message rate limiting
US11770694B2 (en) 2020-11-16 2023-09-26 Oracle International Corporation Methods, systems, and computer readable media for validating location update messages
US11818570B2 (en) 2020-12-15 2023-11-14 Oracle International Corporation Methods, systems, and computer readable media for message validation in fifth generation (5G) communications networks
US11812271B2 (en) 2020-12-17 2023-11-07 Oracle International Corporation Methods, systems, and computer readable media for mitigating 5G roaming attacks for internet of things (IoT) devices based on expected user equipment (UE) behavior patterns
US11700510B2 (en) 2021-02-12 2023-07-11 Oracle International Corporation Methods, systems, and computer readable media for short message delivery status report validation
US11516671B2 (en) 2021-02-25 2022-11-29 Oracle International Corporation Methods, systems, and computer readable media for mitigating location tracking and denial of service (DoS) attacks that utilize access and mobility management function (AMF) location service
US11689912B2 (en) 2021-05-12 2023-06-27 Oracle International Corporation Methods, systems, and computer readable media for conducting a velocity check for outbound subscribers roaming to neighboring countries
US12015923B2 (en) 2021-12-21 2024-06-18 Oracle International Corporation Methods, systems, and computer readable media for mitigating effects of access token misuse

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146005A (ja) * 2007-12-11 2009-07-02 Canon Inc 情報処理装置および情報処理方法
JP2010170168A (ja) * 2009-01-20 2010-08-05 Hitachi Ltd 流量制御方法およびシステム
JP2010171714A (ja) * 2009-01-22 2010-08-05 Hitachi Ltd 移動体通信システム、呼制御サーバ及びアクセスゲートウェイ装置
WO2012072407A1 (en) * 2010-11-30 2012-06-07 Koninklijke Kpn N.V. Dynamic assignment of a serving network node
JP2012198843A (ja) * 2011-03-23 2012-10-18 Fuji Xerox Co Ltd 仮想サーバ調整システム、仮想サーバ制御装置及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2389482B (en) * 2001-03-28 2004-05-05 Ericsson Telefon Ab L M Load distribution between nodes in communication networks
US8555287B2 (en) * 2006-08-31 2013-10-08 Bmc Software, Inc. Automated capacity provisioning method using historical performance data
GB2461500B (en) * 2008-06-18 2010-11-10 Motorola Inc Load management for a mobility management entity of a cellular communication system
EP2353337B1 (en) * 2008-11-17 2018-10-03 Cisco Technology, Inc. Dynamic load balancing in a communication network
US8331224B2 (en) * 2009-11-23 2012-12-11 Telefonaktiebolaget L M Ericsson (Publ) Self-management of mobility management entity (MME) pools
EP2604069B1 (en) * 2010-08-10 2018-10-10 Beijing Xiaomi Mobile Software Co., Ltd. Relay enhanced cellular telecommunication network
US8848516B2 (en) * 2010-09-15 2014-09-30 Telefonaktiebolaget L M Ericsson (Publ) Methods and apparatus for relocating and restoring connections through a failed serving gateway and traffic offloading
US9766947B2 (en) * 2011-06-24 2017-09-19 At&T Intellectual Property I, L.P. Methods and apparatus to monitor server loads
US9154549B2 (en) * 2011-10-27 2015-10-06 Cisco Technology, Inc. Dynamic server farms
US8914449B2 (en) * 2011-11-07 2014-12-16 Cellco Partnership Push messaging platform with high scalability and high availability
US20140325524A1 (en) * 2013-04-25 2014-10-30 Hewlett-Packard Development Company, L.P. Multilevel load balancing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146005A (ja) * 2007-12-11 2009-07-02 Canon Inc 情報処理装置および情報処理方法
JP2010170168A (ja) * 2009-01-20 2010-08-05 Hitachi Ltd 流量制御方法およびシステム
JP2010171714A (ja) * 2009-01-22 2010-08-05 Hitachi Ltd 移動体通信システム、呼制御サーバ及びアクセスゲートウェイ装置
WO2012072407A1 (en) * 2010-11-30 2012-06-07 Koninklijke Kpn N.V. Dynamic assignment of a serving network node
JP2012198843A (ja) * 2011-03-23 2012-10-18 Fuji Xerox Co Ltd 仮想サーバ調整システム、仮想サーバ制御装置及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014103637A (ja) * 2012-11-22 2014-06-05 Nec Corp 負荷分散制御方法およびシステム
CN106471773A (zh) * 2014-06-30 2017-03-01 微软技术许可有限责任公司 集成式全局资源分配和负载平衡
JP2016184911A (ja) * 2015-03-27 2016-10-20 日本電気株式会社 ネットワーク認証システム、ネットワーク認証方法および認証サーバ
US10003588B2 (en) 2015-03-27 2018-06-19 Nec Corporation Network authentication system, network authentication method and network authentication server
JP2017046032A (ja) * 2015-08-24 2017-03-02 日本電信電話株式会社 トラフィック制御システムおよびトラフィック制御方法

Also Published As

Publication number Publication date
JPWO2014080994A1 (ja) 2017-01-05
US20150304220A1 (en) 2015-10-22

Similar Documents

Publication Publication Date Title
WO2014080994A1 (ja) 輻輳制御システム、制御装置、輻輳制御方法およびプログラム
US9112809B2 (en) Method and apparatus for controlling utilization in a horizontally scaled software application
CN106452958B (zh) 一种流量控制方法、系统及集中控制器
US20190253930A1 (en) Resource management apparatus, resource management method, and program
US9065831B2 (en) Active load distribution for control plane traffic using a messaging and presence protocol
Prados-Garzon et al. Performance modeling of softwarized network services based on queuing theory with experimental validation
Ahn et al. Competitive partial computation offloading for maximizing energy efficiency in mobile cloud computing
US8335208B2 (en) Method, system and traffic node for measuring a load capacity in a management system
US20150222561A1 (en) Bandwidth control apparatus
CN109933431B (zh) 一种智能的客户端负载均衡方法及系统
US10404854B2 (en) Overload control for session setups
US20160269297A1 (en) Scaling the LTE Control Plane for Future Mobile Access
Samouylov et al. Analytical Modelling And Simulation For Performance Evaluation Of SIP Server With Hysteretic Overload Control.
KR101448413B1 (ko) Atca-기반 장비에서 통신 트래픽을 스케줄링하기 위한 방법 및 장치
JP6020088B2 (ja) 負荷分散制御方法およびシステム
Manfredi et al. Distributed management for load balancing in content delivery networks
CN103825963B (zh) 虚拟服务迁移方法
Shuai et al. A cost-based distributed algorithm for load balancing in content delivery network
Chakravarthy et al. Software-defined network assisted packet scheduling method for load balancing in mobile user concentrated cloud
WO2012175140A1 (en) Gateway selection for load balancing
US10104516B2 (en) Dynamic distribution in an offline charging system
Sharafeddine et al. Robust network dimensioning for realtime services over IP networks with traffic deviation
Tanabe et al. An optimal resource assignment for C/D-plane virtualized mobile core networks
JP5702232B2 (ja) サーバ連携互助システムならびにそのサーバおよびサーバ連携互助プログラム
Hamd et al. Multicellular 4G and load balancing over cloud computing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856259

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014548620

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14646369

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13856259

Country of ref document: EP

Kind code of ref document: A1