WO2004104852A1 - 負荷分散システム及び負荷分散方法 - Google Patents

負荷分散システム及び負荷分散方法 Download PDF

Info

Publication number
WO2004104852A1
WO2004104852A1 PCT/JP2004/007558 JP2004007558W WO2004104852A1 WO 2004104852 A1 WO2004104852 A1 WO 2004104852A1 JP 2004007558 W JP2004007558 W JP 2004007558W WO 2004104852 A1 WO2004104852 A1 WO 2004104852A1
Authority
WO
WIPO (PCT)
Prior art keywords
computer
load
computers
server
spare
Prior art date
Application number
PCT/JP2004/007558
Other languages
English (en)
French (fr)
Inventor
Hideaki Hirayama
Kenichi Mizoguchi
Original Assignee
Kabushiki Kaisha Toshiba
Toshiba Solutions Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Toshiba, Toshiba Solutions Corporation filed Critical Kabushiki Kaisha Toshiba
Priority to US10/558,237 priority Critical patent/US20070180452A1/en
Publication of WO2004104852A1 publication Critical patent/WO2004104852A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1017Server selection for load balancing based on a round robin mechanism

Definitions

  • the present invention relates to a load distribution system that distributes requests received from a plurality of client computers to a plurality of computers to process the load.
  • load distribution system that distributes these execution requests to a plurality of computers.
  • This type of load balancing system is, for example, R. Buyya, High Performance Cluster
  • the WEB server load distribution system is composed of a plurality of WEB server computers, load distribution devices and power.
  • a request (execution request) from a clean computer is sent to a load distribution device via an external network.
  • the request X-list is issued by a web browser or the like running on the client computer.
  • the load balancer receives a quest sent from the client computer and sends a request to a plurality of web servers. From among Select the total number to process the request.
  • the selection of a computer is made in such a way that only a specific supercomputer is not negatively affected.
  • the selection of the computer includes, for example, (1) the round-bin method 2) The nested round-bin method, or (3) at that time, a method of selecting the server computer with the least number of sashes.
  • the rac-bin method is a method of selecting each supercomputer uniformly in a standard manner.
  • the weighted round, ⁇ -bi is based on the round-mouth bin method, while A load balancer that changes the frequency at which each computer is selected according to the computing capacity is a load balancer that selects a received quest and sends it to a computer via an internal network.
  • the supercomputer on which the WEB server is running performs processing by the WEB server based on the request in accordance with the appropriate transmission method for which the transmission method was used.
  • the supercomputer sends the pull for the U-quest via the internal network to the load balancer.
  • the load-balancer sends the sent pull and the U-X X-cut.
  • the external computer is communicated to the remote computer via J &.
  • Tetsuo Kaneko, Goru Moriguchi, Class X Soft "Xa”', Kurashiba Review, Vol.54 No.12 (1999), p.18-21 (hereinafter referred to as “art literature”) describes a computer system called a cluster system.
  • a fault occurs in a running computer
  • the service (business) that was being executed can be taken over by another computer in the system (failover).
  • a computer in a standby state hot-shut-by state
  • a computer that takes over the services of the above is used as a computer that takes over the services of the above.
  • the number of WEB server computers that process requests from client computers is determined according to the amount of the request. ⁇ Wx-like.
  • the number of Internet users has risen to a large number, and as a result, the number of requests h far exceeding the expectations of WEB site operators tends to concentrate on the load balancing system. In this case, the following troubles often occur due to the so-called “spark phenomenon”.
  • the gist of the present invention is to provide a load distribution system and a load distribution method that can easily cope with a sudden spike phenomenon.
  • a plurality of server computers a load distribution device, a standby computer, a server configuration management unit, a standby computer management unit, and a start / stop unit for a standby computer.
  • Bird A setting change unit, and a load image selection unit are provided.
  • a plurality of server computers are provided from a plurality of client computers. Process the quest. The plurality of server computers are executed by the computer.
  • the operating system is divided into multiple server computers and managed according to different types of bootstraps.
  • the load distribution device is configured to distribute the requests from the plurality of client computers to a plurality of load distribution target computers including the plurality of server computers.
  • the f computer can be used as a load balancing target computer, and is started when it is used as the load balancing target computer.
  • the server configuration management unit divides each of the plurality of server computer groups into groups, and calculates the load amount of all the load balancing target computers including the server computers in the group among the plurality of server computers. On the basis of this, the number of spare computers to be newly started to be used as load-balanced computers or to be stopped to be used as load-balanced computers is determined.
  • the spare computer management unit is configured to manage the usage status of the preliminary computer, and is determined by the server configuration management unit in units of three groups. Determine the number of spare computers that should be used as load-balanced computers in the group or should be discontinued as shell load-balanced computers.
  • the unit is configured to start or stop the standby computer determined by the standby computer management unit.
  • the d setting change unit adds the spare computer determined by the BU unit spare computer management unit as ⁇ a load balancing target computer that is subject to load balancing by the i load balancing device. Are excluded from the target of load distribution by the load distribution device.
  • the m-selection menu selection unit is composed of the following types of images:
  • the preliminary computer determined by the preliminary computer management unit is used as a boot image for booting, and the determined preliminary computer power S starts to be used as the target computer for load distribution. It is configured to select a boo main that is specific to the server computer group to be used.
  • FIG. 1 is a block diagram showing a configuration of a load distribution system according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart showing the operation procedure of the first embodiment.
  • FIG. 3 is a block diagram showing a configuration of a load distribution system according to a second embodiment of the present invention.
  • FIG. 4 is a flowchart showing an operation procedure of the second embodiment.
  • FIG. 5 is a diagram showing an example of the data structure of the template 15a in FIG.
  • FIG. 6 is a diagram showing an example of a data structure of the table 25a in FIG.
  • FIG. 7 is a block diagram showing the configuration of the load distribution system according to the third embodiment of the present invention.
  • FIG. 8 is a flowchart showing the operation procedure of the third embodiment.
  • FIG. 9 is a block diagram showing a configuration of a load distribution system according to a fourth embodiment of the present invention.
  • FIG. 10 is a flowchart showing the operation procedure of the fourth embodiment.
  • Fig. 11 shows an example of data from table 35a in Fig. 7.
  • Fig. 12 shows an example of the table 45 1a in Fig. 9.
  • FIG. 13 is a diagram showing an example of the data structure of the table 470 in FIG. 9.
  • FIG. 14 is a table showing the table 470 in the state shown in FIG.
  • FIG. 15 is a block diagram showing a modified example of the fourth embodiment of the present invention.
  • FIG. 16 is a block diagram showing a configuration of a load distribution system according to a fifth embodiment of the present invention.
  • FIG. 17 is a flowchart illustrating the operation procedure of the WEB server in the fifth embodiment.
  • FIG. 18 shows the shared programs ⁇ , ⁇ , and ⁇ ⁇ ⁇ ⁇ in the fifth embodiment.
  • Bin hning Node h is a feature showing the operation procedure of the computer site h
  • Fig. 19 is a diagram showing an example of the structure of the record file 652a in Fig. 16.
  • FIG. 1 is a block diagram showing the configuration of a negative dispersion system according to the first embodiment of the present invention.
  • the system in Figure 1 is a number, an example For example, it is provided with six WEB server computers 11-1 to 11-6 and a load balancer 12.
  • the WEB server computers 1 1 -1 to 1 1 -6 and the load balancer 12 are interconnected by a network 13 inside the system (internal network).
  • the load balancer 12 is connected to a plurality of client computers (not shown) via a network (external network) 14 outside the system.
  • the WEB server computers 1 1 -1 to 1 1 -6 process requests from the client computers.
  • the load balancer 12 receives the request from the web server computers 11-1 to 11-6.
  • the load balancer 1 2 also sends a request from the client computer to the selected server computer. In other words, the load balancer 12 distributes requests from a large number of client computers to the WEB server computers 11-1 to 11-6 to process the load.
  • the load distribution device 12 includes a load information acquisition unit 120.
  • the load information acquisition unit 120 acquires information (computer load information) indicating the load state of each of the computers to be distributed by the load distribution device 12.
  • the load information of each load balancing target computer acquired by the load balancing device 12 includes information set between the load balancing target computer and the load balancing device 12 by the load balancing device 12. The number of sessions to be used is used.
  • the load balancing target machines are:
  • Binning node computers (hereinafter referred to as PN computers) 15-1 to 15-4 are spare computers that are normally powered off and not started.
  • the PN computers 15-1 to 15-4 are positioned as load distribution candidate candidates for eliminating a sudden “spike state” when the state occurs.
  • PN computers already subject to load balancing are excluded from candidates.
  • the ⁇ spy state J is a PN computer 15-1 to 15-4 which is regarded as a state where the load amount of the entire computer to be load-balanced exceeds a predetermined threshold. Is connected to the internal network 13
  • the internal network 13 has a management server computer 15 core.
  • the management server 15 On the management server computer 15, the management server 15
  • the management server 150 is realized by a CPU (not shown) in the management server computer 15 taking and executing a predetermined computer management program.
  • This computer management program is provided by a storage medium such as a CD-R0M, a flexible disk or a memo card.
  • a computer management program that is stored and used, for example, on a disk drive of the server computer 15 is managed via the external network 14 It is also possible to transfer to the server computer 15 and save it on the disk drive of the elevator 15
  • the management server 150 includes a server configuration management unit 151, a port management node (hereinafter, referred to as a PN management unit) 1502, a port bin, and a node. It includes the functional elements of the start / stop unit (hereinafter referred to as PN start Z stop unit) 153 and the setting change unit 154.
  • the server configuration management unit 151 has a function of managing a computer (a super computer) that operates as a WEB server.
  • server configuration management 1005 should be used (newly targeted for load distribution) or terminated (not required for load distribution). It has a function to determine the number. This determination is made based on the load state of the computer that is the target of load distribution by the load distribution device 12. Therefore, the server configuration management unit 151 holds the table 15a and traverses the table.
  • the table 15 1 a is composed of a threshold (load threshold) of the load amount of the entire load balancing target computer and the number of PN computers to be load balanced (the number of PN computers used in planning) corresponding to the threshold.
  • FIG. 5 shows an example of table 15a.
  • the table 1 5 1 a in the example of FIG. 5 stores three load threshold N S 1, N S 2 and N S number each of the three planned use PN computer and in association with each other. Threshold value N S 1, N S 2 and N S 3 are first respectively correspond to the second and third spikes state.
  • Table 15 1a is set in advance in the computer management program, and the management server computer 1 When 5 is started, it is loaded into the main memory (not shown) of the computer 15.
  • the PN management unit 152 has a function of managing the usage status of the PN computers 15-1 to 15-4. Also, when the number of PN computers to be started or stopped to be used is determined by the server configuration management unit 151, the PN management unit 15 2 Decide (select) the PN computer from 1 to 15 -4 to actually start using or to stop using.
  • PN start Z stop unit 15 3 is PN management unit 15
  • PN start Z stop X unit 15 3 starts / stops the PN computer as follows: Opening vision node start Z stop unit 15 3 uses Wakeon LAN (trademark) technology And start the PN calculator.
  • the provision node start / stop unit 15 3 sends a special packet designating the PN computer to be started to the internal network 13 to start the PN computer.
  • the MAC address of the LAN power (network power) used for the PN computer is used.
  • the LAN power implemented in each PN computer is the network power. It operates as a control circuit for connecting to a network (internal network 13). Its LAN capabilities monitor special packets flowing through the internal network 13.
  • the power supply of the PN computer When the power is off, the standby power is always supplied.
  • LAN Riichi when receiving a special packet in which his / her MAC address is specified (that is, a special packet addressed to itself), activates the PN computer in which it is mounted.
  • the bin node start / stop unit 15 3 has a function to stop the computer, which is used to stop the computer as follows.
  • the start of the Z-node The Z-stop unit 15 3 is connected to the stop PN computer via the internal network 13 with the shut-down specified as the power-off as an option. And send it out.
  • the provisional start-up Z-stop unit 153 stops the ⁇ N computer.
  • Eye Physically, for example, the operating system UNIX (trademark) Now, the init command that can use init "as the shutdown command is an op-
  • the setting change menu 1 5 4 is set to PN start Z stop
  • the setting change unit 15 4 4 has a function to control the load balancing apparatus 1 2, that is, the start / stop unit 15 3 Load balancing for P ⁇ computers started or stopped by (2) A function to give permission or suspension of distribution of quests to this word load distribution device (1) or (2)
  • the server configuration management unit 15 in 15 is a load balancer 1
  • step S1 the load information of each computer (load balancing target computer) including 11-1 to 11-5 (according to step S1, the load balancing target is stored in the PN computers 15-1 to 15-4). If there is a computer that is used as a computer, the load information of that computer is also obtained. The number of sessions determined between each client computer and the load balancing target computer is also obtained In step S1, the server configuration management unit 15 1 the load amount indicated by the computer load information for each load balancing target computer of the computer load information force ⁇ al, the entire load balancing target computer load ⁇ t N s the finding. this each load balancing target computer in this (Sesshiyo number down) in the tooth for adding the overall negative Nisato N s GaMotomu It is. In addition, weighting the load by the weight corresponding (e.g. reverse- proportional) to the processing capacity of each load balancing target computer, the sum of the weighted load may be a whole Sadanisato N S.
  • the server configuration management unit 15 1 refers to the table 15 1 a and, based on the contents of the table 15 1 a, The number of planned use PN computers corresponding to the load amount N s is determined (step S 2).
  • the contents of the table 15a are as shown in FIG. In this case, the server configuration management unit 15 1
  • the server configuration management unit 151 compares the determined planned number of used PN computers with the number of currently used PN computers managed by the PN management unit 152 (Step S).
  • the super configuration management unit 151 newly assigns the PN computer to the target computer for load distribution.
  • the server configuration management unit 15 (In other words, it is determined that it is not necessary to assign it as a computer that starts using it.) In this case, the server configuration management unit 15
  • step S4 After 1 waits for a certain time (step S4), the process is repeated from step S1.
  • the server configuration management unit 15 1 determines that it is necessary to assign a new PN computer as a target computer for load distribution. In this case, the server configuration management unit 15 1 Requests that the PN Management Unit 152 start using a new PN calculator. In response, the PN management unit 15 2
  • step S5 It is checked whether or not a machine exists (step S5). If there is no usable PN computer, that is, if all the PN computers 15-1 to 15-4 are already being used as load-balanced computers, this is indicated by the PN management unit 1. 52 notifies the server configuration management unit 15 1. Then, the server configuration management unit 151 waits for a predetermined time (step S4), and then repeats the process from step S1.
  • the PN management unit h152 is a computer that starts using the computer (a target computer for load distribution). Perform the process of assigning the PN computer (step S6). This processing is performed as follows based on the magnitude relationship between the number N of PN computers that can be used and the difference N d between the above two computations. First, if N> Nd, the PN management unit 152 selects the number of PN calculators that match the difference Nd from the available PN calculators, and starts using Also, if N ⁇ Nd, the server configuration management unit 1
  • 51 is not sufficient as the number of computers, it selects all N available PN computers and assigns them as computers to start using.
  • the information of this computer assignment is sent from the PN management unit 152 to the server configuration management unit 151, the PN start Z stop unit 153, and the setting change unit 154, respectively. Be notified
  • step S7 The PN calculator assigned (determined) to start use is started (step S7).
  • the setting change unit 15 4 controls the load balancer 1 2
  • Step S8 start / stop unit Vh 153 PN computer (started to be used by PN management unit 152) that is started by 153 is subject to load distribution by load distribution device 12
  • the server is added as a load balancing target computer (Steps S8 /.
  • the order of Steps S7 and S8 may be reversed.
  • the processing is repeated from step S1
  • step S3 the server configuration management unit 151 will calculate the difference Nd between the two computers. If it is determined that the use of the PN computer needs to be terminated, the server configuration management unit 15 1 issues a request to the PN management unit 15 2
  • the PN management unit 152 terminates the use of the PN computers currently in use.
  • the number of PN computers equal to the difference N d of the number of computers is determined (step S 9). Terminate use as determined by PN management unit 15 2
  • the load balancer 12 is controlled so that the P N ⁇ computer is not subject to load balance by the load balancer 12 (step S 1
  • step S11 the PN start / stop unit 153 stops the PN computer whose use has been determined by the PN management unit 152 (step S11).
  • steps S 10 and S are the steps S 10 and S.
  • step S4 the processing is repeated from step S1
  • Table 15 1 a is a table in which the use start / end conditions of the PN computer according to the load are defined.
  • a PN computer (a spare computer) is activated, and the activated PN computer is activated.
  • Load distribution is performed by the load distribution device 12 including the PN computer.
  • the PN computer is excluded from the load distribution and the PN computer is stopped. This makes it possible to respond to sudden spikes without having to keep many server computers running at all times. That is, in the present embodiment, the system (the WEB server computer 11-1 to
  • the management server 150 operates on the independent management server computer 15 .
  • the management server 150 may be operated on, for example, any one of the web server computers 11-1 to 11-6. In this case tube It is advisable to apply a configuration in which even if a failure occurs in the WEB server computer on which the management server 150 operates, the functions provided by the management server 150 need not be stopped. Specifically, at least
  • the WEB server computers 11-1 to 11-6 may constitute the class system described in the prior art document.
  • the management server 150 Function that is, the server configuration management unit h15 1 PN management unit 1522 PPN start Z stop unit 15h and the setting change unit 54
  • WEB server • The number of WEB servers and PN calculators that can be taken over by the computer, but not limited to the above embodiment WEB
  • At least one PN computer may be used.Also, a configuration may be adopted in which the load information acquisition unit 120 g in the load distribution device 1 obtains a negative energy NS.
  • FIG. 3 is a block diagram showing the configuration of the load distribution system according to the second embodiment of the present invention. Components equivalent to those in FIG. 1 are denoted by the same reference numerals.
  • the occupation of the system in FIG. 3 that differs from the system in FIG. 1 is that the load distribution 22 corresponding to the load distribution device 12 in FIG. 1 does not have a load information acquisition vault. Instead, the web server computers 2 1-1 to 2 -6 corresponding to the web server computers 1 1-1 to 1 1 -6 in FIG. Each has load information acquisition units F1 to F6.
  • the load information acquisition units F 1 to F 6 are different from the load information acquisition unit 120 in FIG. 1, and the corresponding web server computer 2
  • the computer load information acquired by the load information acquisition units F 1 to F 6 is not the number of sessions, but is, for example, a WEB server total. This is the usage rate of the CPU included in each of the calculators 21-1 to 21-6. If one WEB server computer has multiple CPs
  • the value obtained by adding the usage rates of the multiple CPUs is used as the negative information (computer load) of the WEB server computer.
  • the load reflects the processing of the request, it is possible to use not only the CPU usage rate but also the memory usage rate and the input / output device usage rate alone or in combination with the CPU usage rate. It is.
  • the server configuration management unit 251, including the server configuration management unit 251, differs from the server configuration management unit 151 in FIG. 1 in that the computers acquired from the load information acquisition unit in each of the load balancing target computers are different. On the basis of the load information, the load amount of the entire load balancing target computer is obtained. The load of the whole is referred to as N e. Therefore, in this embodiment, the backup load balancing In the positioned PN calculators 15-1 to 15-4, W
  • the server configuration management unit 251 holds the table 251a.
  • the table 251a stores the threshold value of the load amount of the entire load balancing target computer and the load distribution corresponding to the threshold value.
  • Table 6 shows an example of a table 2 51 a that stores the number of target PN computers in association with the number of PN computers used (planned number of PN computers). In the example of FIG. Three load thresholds N C 1
  • the thresholds Nci, N C2, and N C3 correspond to the load thresholds N s , N S2, and N S3 stored in the table 15a shown in FIG.
  • Steps 2 1 to S 3 1 are executed.
  • the main difference with the system of Fig. 1 is that step S2 (corresponding to step S1 in Fig. 2)
  • step S 21 the server configuration management unit 25 1 sends the WEB server n computer 2
  • FIG. 7 is a block diagram showing the configuration of the load distribution system according to the third embodiment of the present invention. Note that components equivalent to those in FIG. 1 or FIG. 3 are denoted by the same reference numerals.
  • the load balancer 12 shown in Fig. 1 is used as the shell distribution device, and the WEB server computers 21-1 to 21-6 shown in Fig. 3 are used as the WEB server computers.
  • Can be The feature of the system in Fig. 7 is that the load information acquisition queue in the load balancer 12 is
  • Load information acquisition units in each load balancing target computer including load information acquisition units F1 to F6, and load information acquisition units in the Web server computers 21-1-1 to 21-6
  • each load acquired by the load information acquisition unit 120 is used to determine the planned number of PN computers used. Both load information (information indicating the number of sessions) of the target computers and load information (information indicating cPU usage rate) obtained by the load information acquisition unit in each target computer are used. Is done.
  • the management server computer 35 is used instead of the management server computer 15 in FIG. 1 or the management server computer 25 in FIG. In the above, the management server 350 runs the management server 350.
  • the server configuration management unit 351 which includes the functional elements of 4, has both the functions of the server configuration management unit 151, shown in Fig. 1, and the server configuration management unit 251, shown in Fig. 3. That is, the server configuration management unit 35 1 obtains the load amount N s based on the computer load information obtained by the load information obtaining unit 120 in the load distribution device 12. The management unit 3 5 1 also collects load information in each load balancing target computer. Obtain 3 ⁇ 4Cali ⁇ C based on the computer load information obtained by the security unit
  • Table 3 5 1 a feature, a number of planned use PN computer, loading N s in the corresponding load threshold (this in this w S i ⁇ S 2 and N
  • the load balancing system of FIG. 7 corresponds to the step S 2 in the feature of FIG.
  • Steps S44 to S52 corresponding to 1 are executed
  • the server configuration management unit 351 is used to obtain the load information of each load distribution target computer acquired by the load information acquisition unit 120 in the load distribution device 12. With the (number of sessions a), the load of the entire negative-balanced computer is calculated] ⁇ S (Step S41)
  • the server configuration management unit 351 also calculates the load of each load-balanced computer. load information collected load information of the computer to be retriever by the resulting Yuni' Bok inner obtaining negative Nanisato N e of the overall load balancing target meter machine (CPU utilization) in city (step S 4 2)
  • step S43 the server configuration management unit 351 is a template. Referring to 35a, determine the planned number of PN computers used corresponding to the current load NS. Similarly, the server configuration management unit 351, based on the contents of the Planned use corresponding to the current negative star N C Cut 351 compares the number of PN calculators using the negative plan corresponding to the load area NS and NC, and selects the larger one as the number of PN calculators using the actual plan to use.
  • Ri to Re which towards 2 caries Chino high is selected as the planned use PN number of computers to be used for actual de pointes, said first and second using the number of PN computer determined from only towards the load Rin NS and N C
  • the spike state can be dealt with more effectively than the second embodiment.
  • FIG. 9 is a block diagram showing the configuration of the load distribution system according to the fourth embodiment of the present invention.
  • the same elements as those in Fig. 7 are given the same symbols.
  • the system in Fig. 9 describes the occupation that differs from the system in Fig. 7.
  • WEB server computer
  • the breakdown includes a small number of ⁇ and operating systems ( ⁇ S).
  • the boottime may include an application program that operates under the 0S in addition to the 0S.
  • ⁇ A boot main including S is used when a similar kind of spike load occurs.
  • B Server computers are managed in groups for each type of boot main executed on the computer./
  • the load used to determine the number of PN computers to be used is also calculated in group units.
  • the type of boo image used to boot the PN calculator used at that time differs depending on whether a spike-shaped load is generated in the group. Therefore P
  • the boo images applied in the system in Fig. 9 are boo images # 1, # 2 # 3
  • a group of computers also applies three kinds of According to the boot images # 1 to # 3, they are managed by being divided into three groups of WEB server computer groups 40-1 (# 1) to 40-3 (# 3).
  • WEB server computer group 40-1 (# 1) p WEB server computers 41-11 to 41-lp booted by the boot image # 1 belong.
  • WEB server computer group 40 -2 (# 2) q WEB server computers 4 1 -21 booted by boot image # 2 belong to 4 1-2 q.
  • (# 3) includes r WEB server computers 41-31 to 41-3r that are blocked in the boot image # 3.
  • a management server computer 4 5 equivalent to 5 is used. On this management server computer 45, the management server 450 operates.
  • the management server 450 includes a server configuration management unit 451, a PN management unit 152, a PN start / stop unit 153, and a setting change unit 154. , And each of the functional elements of the boot image selection unit 455.
  • the server configuration management unit 45 1
  • the server configuration management unit 451 holds a table 451a shown in FIG.
  • Table 4 5 1 a is a number of planned use PN computer, WEB server computer group # every 1 to # 3, the load threshold (this Kodewa N corresponding to the load weight N s Sll S12. S13 to N S31 N S32 N S33) ⁇ and the load threshold corresponding to the shell load NC (here, N cll , N C12 N C13 to N C31 N C32 N C33 ) are stored in association with both.
  • the load threshold this Kodewa N corresponding to the load weight N s Sll S12. S13 to N S31 N S32 N S33
  • the load threshold corresponding to the shell load NC here, N cll , N C12 N C13 to N C31 N C32 N C33
  • the boot image selection unit 45 5 is determined to be used by the PN management unit 152 as a result of a spike load occurring at the WEB server computer group 40-i (# i). T P
  • # i is a boot image used by the WEB server computer in group 40 -i (# i).
  • the setting of the boot image #i for the PN computer by the boot image selection unit 45 5 5 means that the PN computer and the boot image #i used to boot the computer are stored.
  • the obtained disk (disk drive) is associated with a table 470 described later. That is, the boot image selection unit 4 5 5 has a function of selecting a disk in which the boot image # i used for booting the PN computer is stored.
  • the image selection unit 45 5 is connected to the WEB server computers 4 1 -11 to 4 1-
  • the disk storing the boot image # 1 used in lp (the task D1 described later) is associated with the PN computer newly included in the group.
  • Boo Toy Image Selection When the load on the web server computer group 40-2 (# 2) is high, the slot 455 is used by the web server computers 4 1 -21 to 4 1 -2q belonging to the group.
  • the disk (disk D2 described later) in which the boo image # 2 is stored is associated with the PN computer newly incorporated in the group.
  • the booty main selection unit 455 is assigned to the WE and B server computers 4 1-31 to 4 1-Disk containing boot image # 3 used in 3r
  • D3 (To be described later, D3) is associated with the PN computer newly incorporated into the group.
  • the management server computer 45 and the PN computers 15-1 to 15-4 are connected to a storage area network (hereinafter referred to as a SAN) 46.
  • a storage device 47 is also connected to the SAN 46 of this embodiment.
  • the storage device 47 includes disks (disk drives) D1 to D3.
  • the disks D 1 to D 3 in the strainer device 47 are SAN 4
  • boot images # 1 to # 3 used by the WEB server computers in the WEB server computer groups 40-1 to 40-3 are stored in advance.
  • the storage device 47 stores data holding the table 470.
  • a table 470 having a base stores information in which disks D1 to D3 in the storage device 47 are associated with a computer that uses the disks D1 to D3 as a put disk.
  • the computer that uses the disk D i (i1,2,3) to be stored as a boot disk is a boot main stored in the disk D1 and a boot disk ( ⁇ i).
  • Figure 13 shows an example of a table 470 that can be booted by the boot computer.
  • the table 470 is the information of the disks (boot disks) D 1 to D 3 storing the boot images # 1 to # 3.
  • a disk identifier For example, a disk identifier and a computer (ie, disks D 1 to D 3) loaded by the toy images # 1 to # 3 stored in the disks D 1 to D 3.
  • the information (eg, computer identifier) of the computer used as the print disk is stored in association with the information.
  • the identifiers of the WEB server computers 4 1 -11 to 4 1 -lp are W S 11 to W S 1 P
  • the identifiers of the WEB super computers 4 1 -21 to 4 1 -2q are
  • the identifiers are WS21 to WS2Q and the identifiers of the WEB server computer 4: 1-31 to 41-3r are WS31 to W3r. It is also assumed that the identifiers of the PN computers 15 -1 to 15 -4 are P 1 to P 4.
  • the boot image selection unit 455 stores the boot image #i from the table 470 stored in the database in the storage device 47. Then, the boot image selecting unit 455 operates the table 470 to associate the disk Di identifier with the identifier (Di) of the disk Di. ., PN calculator 1
  • the PN calculator 15 -J * was logically connected as a boot disk. That is, a boot image used to boot the PN calculator 15 -j # Depending on which disk D i in which i is stored is selected.
  • ⁇ ⁇ P N calculator 15 -j is a P N start Z stop unit
  • the computer When the computer is started by 153, it retrieves its own computer identifier ( ⁇ J) from the table 470 held in the storage device 47 via the SAN 46. Then, the PN computer 15 -j is used to boot itself from the disk identifier (D i) associated with its computer identifier (P j) in the table 470.
  • Booty image here is booty image
  • the PN computer 15-j reads the boo message #i from the identified disk D j (that is, the disk D j associated with itself) and reads the boot message #i. Bullet itself with image #i.
  • disk D 1 is newly provided with two PN computers 15-1 and 1.
  • the computers 15-1 and 15-2 will share disk D 1 as a boot disk.
  • the PN calculators 15-1 and 15-2 are on disk D 1 Booted with boot image # 1 stored in # 3.
  • the server configuration management unit 451 sets a variable i for specifying the WEB server computer group to an initial value of 1 (step S61).
  • the load information (computer load information) of each computer (load distribution target computer) currently subject to load distribution is obtained, and the load amount N s of the entire group 40-i (#i) is obtained (step S 6 2).
  • the server configuration management unit 45 1 includes load information in each load balancing target computer including a load information acquisition unit in the web server computer belonging to the web server computer group 40 -i (# i).
  • the load information of the load balancing target computer is obtained from the obtaining unit, and the load amount Nc of the entire group 40-i (#i) is obtained (step S6).
  • step S 6 2 and S 6 3 Processing in step S 6 2 and S 6 3 are points for obtaining the load N s and the entire group # i which is specified by the variable i, the scan in FIG. 8 for determining the load N s and the entire system Different from steps S41 and S42.
  • step S64 the server configuration management unit 451 enters the end of the group 40-i (#i) in the table 451a.
  • the server configuration management unit 451 which determines the number n1 of planned use PN computers corresponding to the current load area NS of the group 40 0-i (#i) 5 1a group 4 0 -i (# i)
  • step S64 is almost the same as the operation after step S43 in FIG. However, in the present embodiment, the following operations are different.
  • the WEB server computer group 40 0 -i the WEB server computer group 40 0 -i
  • the spike load of (#i) occurs.
  • at least one PN computer is used as a PN computer to start using the PN management unit.
  • step S69 Assigned to the corresponding group 40-i (#i) by 152 (step S69). Then, in the present embodiment, control is passed from the PN management unit 152 to the boot image selection unit 45. In response to this, the boot image selection unit 455 converts the PN computer assigned to the group 40-i (#i) into a boot image specific to the group 40-i (#i). Associate i with the stored disk D i. In other words, the boot image selection unit 455 is a boot image that should boot the PN calculator assigned to the group 40-i (#i). # i (the disk D i in which the boot image # i is stored) is selected (step S70).
  • the PN start / stop unit 15 3 When # i is selected by the boot image selection unit 45, the PN start / stop unit 15 3 operates.
  • the PN start / stop unit 153 starts the PN computer assigned by the PN management unit 152 from among the PN computers 15-1 to 15-4 (step S71).
  • the activated PN computer is associated with the disk D i in which the boot image # i for booting the computer is stored by the table operation of the boot image selection unit 455. That is, the boot image #i to boot the activated PN computer is selected by the boot image selection unit 455.
  • the started PN computer reads the selected boot image #i from the disk Di and executes the boot.
  • the setting change unit 15 4 sets the started PN computer to belong to the WEB server computer group 40 -i (# i), and
  • the load balancer 12 is controlled so as to be a target computer for load distribution together with the other computers in the group 40-i (#i) (step S72).
  • the order of steps S71 and S72 may be reversed.
  • the server configuration management unit 451 after the target of load distribution by the load balancer 12 is changed by the control of the setting change unit 1554, waits for a certain period of time (step S66). , Processing Switch the target WEB server computer group (Step S66).
  • the WEB server computer group has three groups of groups # 1 to # 3. In this embodiment, if the current group is group # 1, the group is group # 2. If the current group is group 2, the group is group 2. Well 3 and group # 3 if group #
  • the WEB server computer is changed depending on the type of boot image executed by each WEB server computer in the system.
  • N computers can be started as load-balanced computers belonging to group 40-i (#i). Because of this, PN calculator 1
  • the fourth embodiment makes it possible to boot the PN computer 15-j with the boot image #i without using the disk D i in the storage unit 47.
  • a modification of the embodiment will be described with reference to a block diagram of FIG.
  • the components equivalent to Fig. 9 include
  • the WEB server computer 41-11 connected to the I / O bus (external I / O bus) 51-1 and 15-1 belongs to the WEB server computer group 40-1 (see Fig. 9). Although omitted in FIG. 15, server computers other than WEB server computers 4 1 -11 belonging to the WEB server computer group 40 -1 and other W computers
  • the computers 4 1 -11 and 15 -1 respectively have a CPU 52 a and 52 b, a local disk (local disk drive) 53 a and 53 b, and an input / output bus. (Internal I / O bus) 5
  • the password check 5 3a in the computer 4 1 -11 is specific to the WEB server computer group 40 -1 (# 1) used to block the computer 4 1 -11.
  • the toy image # 1 has been saved.
  • the CPU 52a and the local disk 53a are interconnected via an input / output bus 54a, and the CPU 52b and the local disk 53b are connected to each other.
  • the input / output buses 53a and 53b interconnected by the input / output bus 54b are connected to the input / output node 51.
  • the selection of the partition 455 shown in FIG. 9 is performed by any one of the web server computers 4 1 -11 to 4 1 -lp belonging to the group 40-1. For example, requesting a copy of the boot image to the PN computer 15-1 from the WEB server computer 41-11 is to boot the PN computer 15-1.
  • the web sites and computers 4 belonging to groups 40-1 are part of the web.
  • the CPU 52a in the WEB server computer 41-11 is stored on the local disk 53a in the computer 41-11 according to a copy request from the broadcast image selection unit 45.
  • CPU # 2 a in the web server computer 4 1 -11 which reads out the image # 1 from the server and reads it to the local disk 5 3b of the PN computer 15 -1 via the input / output bus 51. Due to the above-mentioned operation, the boot image # 1 can be copied to the low-power disc 53b of the PN computer 15-1 even when the PN computer 15-1 is not activated. Class evening calculation and Many of the server computers have such functions.
  • the PN start / stop unit 1553 shown in FIG. 9 starts the PN computer 15-1. Then, the PN computer 15-1 will boot the boot-time image copied to its own disc 53b.
  • the CPU 52b in the computer 15-1 sends the boot image # 1 copied from the local disk 53b to the disk 53b via the input / output bus 54b.
  • the input / output buses 54a and 54b are provided inside the computers 41-11 and 15-1 respectively, and the input / output buses are provided outside the computers 41-11 and 15-1.
  • An output bus 51 is provided.
  • such a bus configuration is an example.
  • the computer 4 1 -11 having the local disk 5 3 a in which the boot image is stored is compared with the local disk 53 b included in the computer 15--1 which is not running. All you need to do is copy the boot image (directly and indirectly) directly or indirectly.
  • FIG. 16 is a block diagram showing the configuration of the load distribution system according to the fifth embodiment of the present invention. Note that components equivalent to those in FIG. 9 are denoted by one symbol.
  • the feature of the system shown in FIG. 16 is that if there are a plurality of, for example, four different web sites (for example, different companies) 50-1 to 50-4, dh
  • a shared provisioning node computer site hereinafter referred to as a shared PN computer site
  • PN computer site which is a spare site that can be commonly used by the web server sites 50-1 to 50-4. It has a point.
  • the WEB server site 50-1 has the same configuration as the system in Fig. 9 except that the PN computers 15-1 to 15-4, the SAN 46, and the storage devices 47-1 to 47-3 are removed. It has the same elements as the elements. That is, the WEB server site 50-1 has a load balancer 12 and, for example, three WEB server computer groups 40-1 to
  • the management server 550 runs on the management server computer 55.
  • the management server 550 includes a server configuration management unit 551 and a setting change unit 154.
  • the remaining WEB server sites 50-2 through 50-4 also have the same configuration (not shown) as the WEB server site 50-1. Note that the number of WEB server computer groups, the number of WEB server computers in the group, and the like in each of the WEB server sites 50-1 to 50-4 are not necessarily equal. However, in this embodiment, in order to simplify the description, the web server site
  • Each WEB server computer group in 50 -1 to 50 -4 shall correspond to one of boot images # 1 to # 3.
  • the server configuration management unit 551 in the management server 550 is the same as the server configuration management unit 451 in FIG. 9, but the entire WEB server computer group 40-i (#i) Load N s and N Has the function to find C.
  • the server configuration management unit 551 includes a table 451 a having the data structure shown in FIG. 12 and the load amounts N s and N e. Has the function of determining the number of PN calculators to start or stop using based on
  • the server configuration management unit 551 further requests (starts) the management server 650 of the shared PN computer site 60 to start or stop using the number of PN computers determined by itself (request). It has a function to do.
  • the shared PN computer site 60 includes PN computers 15-1 to 15-4 and a storage device 47.
  • the storage device 47 has disks D1 to D3 storing boot images # 1 to # 3 and a database holding a table 470 as in the case of the system shown in FIG. Is provided.
  • the PN computers 15-1 to 15-4 and the storage device 47 are interconnected by SAN 46. With this configuration, any one of the PN calculators 15-1 to 15-4 can be booted with any of the boot images # 1 to # 3.
  • the PN computers 15 -1 to 15 -4 are connected to the load balancing device 12, the management server computer 55, and the web server computer provided at the web server site 50 -1 by the network 70.
  • Groups 40-1 to 40 -3 (each WEB server computer in the groups 40 -1 to 40 -3) are also connected.
  • the PN computers 15 -1 to 15 -4 are connected to the load balancing provided at the other web server sites 50 -2 to 50 -4 by the network 70. It is also connected to the device, management server computer, and WEB server computer group (all not shown). This allows any PN computer to be assigned as a load balancing computer belonging to any WEB server computer group within any WEB server site.
  • the shared PN computer site 60 is provided with a provisioning node use start request (use start request) and a use end request from the web server sites 50-1 to 50-4 of the respective operating mothers.
  • management server computer 65 for processing (use termination request) .
  • the management server computer 65 is also connected to the network.
  • the management server 650 on which the management server 650 having the function of processing the use start request and the end of use request of the binning node is operated is the PN management unit (provisioning node management unit). 6 5 2 PN start Z stop unit 1 5
  • the PN management unit 652 is a PN management unit 655 having a function of managing the use status of the PN computers 15-1 to 15-4.
  • the 2 also receives a request from the web server site 50-1 to 50-4 for the opening vision node, the use start request or the use end request, and the PN start / stop unit for processing the request.
  • the PN management cut 652 has the data structure shown in Figure 19 Holds 4 code files 6 5 2a.
  • This record file 652a stores records used by the PN computer. In each record, information indicating the usage status of the PN computer started in response to a request from the web site 50-1 to 50-4 is recorded.
  • the PN computer use record includes items (fields) 81 to 84. Item 81 records the time at which the PN computer was started (that is, the start time). Used for Item 82 is used to record the time when the PN computer was stopped (that is, the time when the PN computer was started) in gd.
  • the items 81 and 82 indicate the time during which the PN computer is running (starting time) by the fc operation start time and start end time that are not recorded in gd, respectively.
  • Item 83 identifies the PN computer Information, for example, the U identifier is used to record the identifier. ⁇ ⁇ 4 4 4 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ 4 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ 4 ⁇ ⁇ ⁇ ⁇ ⁇ sc ⁇ sc sc ⁇ ⁇ sc sc W ⁇ ⁇
  • various formats such as a recording format other than the format shown in FIG. 19 can be used for each record stored in the record file 652a. It is also possible to record the information of the start start time and the start end time as separate records. Also, instead of the time when the PN computer is running, the time during which the PN computer is stopped (when stopped) Information may be recorded
  • the server configuration management unit 551 which operates on the management server computer 55, performs the same processing (steps S81 to S85) as steps S61 to S65 in FIG. Execute. That is, the server configuration management unit 551 sets the variable i to the initial value 1 (step S81), and then sets the WEB server computer group 40-i (# i) determining the total load N s ⁇ beauty N c (step S 8 2, S 8 3) .
  • the server configuration management Yuni' preparative 5 5 1 refers to the table 4 5 1 a, Group 4 0 -i current load N s and N e their respective corresponding to the plan (# i)
  • the number of used PN calculators n 1 and n 2 is determined (step S83).
  • step S 8 3 server configuration management Yuni' preparative 5 5 1 load N s and the corresponding plan using PN computer number nl and n 2 caries Chi to N c, whichever number calculator often actually Select the number of PN calculators to be used.
  • the server configuration management unit 551 compares the selected planned number of used PN computers with the number of currently used PN computers (step S85). The number of PN computers currently in use is managed by the PN management unit 652 of the shared PN computer site 60.
  • step S86 the server configuration management unit 551 waits for a certain period of time (step S86), and then switches the WEB server computer group by operating the variable i (step S8). 7). As a result, the processing from step S82 is repeated for the web server computer group after the switching. On the other hand, if the number of planned PN computers is larger (Step S85), the server configuration management unit 551 is newly added.
  • the server configuration management cut 55 1 is provided to the management server 65 0 on the management server computer 65 for PN computer management provided at the shared PN computer site 60 and Request the start of use of the PN computer of the number Nd of computer differences via the network 70 (step S88) o
  • the server configuration management unit 551 will calculate the difference N between the two computers. Judge that it is necessary to terminate the use of some PN calculators. In this case, the server configuration management unit 551 sends to the management server 65 0 on the management server computer 65 a notification via the network 70 that the use of the Nd PN computers has ended. (Step S 9 1
  • Step S101 While waiting for a request (a request to start or stop using the PN computer) from the web server size 50-1 to 50-4, the PN management is performed in a state like (Step S101). Cut 0 5
  • the PN management unit 652 determines whether the type of the received request is a use start request or a use end request of the PN computer (Step S102). When requesting to start using the PN computer PN management The nit 652 checks whether or not there is a usable PN calculator among the PN calculators 15-1 to 15-4 (Step S).
  • the PN management 652 is assigned as a computer to start using the PN computer (step S104).
  • the boot image selection unit 45 5 in the management server 65 0 stores the PN computer assigned by the PN management unit 65 2 in the directory where the image # i is stored. In other words, the boot image selection unit 4 5 5
  • Step S10 Select the boot image # .i (the disk Di on which the boot image #i is stored) to boot the PN computer assigned by the PN management vault 6 52 (Step S10)
  • the PN start Z stop unit 153 in the management server 650 operates.
  • the PN start Z stop unit 153 starts the PN computer assigned by the PN management ⁇ .unit 652 from the PN computers 15-1 to 15-4 (step
  • the activated PN computer of S106 is required to boot the computer by the boot message selection menu Vh455.
  • Trim # i is associated with the disk D i stored, and the started PN calculator is the disk stored on the disk D i associated with the computer.
  • the P N management unit 6 52 is assigned as the computer to start using. ⁇ When the N computer is started, the record file 6
  • the start time which is the time at that time
  • the domain name of the WEB server site is used as the information indicating the WEB server site.
  • the domain name is associated with an IP (Internet Protocol) address by a DNS (Domain Name System) (not shown). '
  • step S107 the result of the processing for the request (request for starting use of the PN computer) from the management server 55 of the web server site 50-1 is performed. Is notified to the management server 550 via the network 70 (step S108).
  • the PN management unit 652 informs the requester of the start of use of the PN computer (WEB server site 50-1).
  • the management server 550 is notified (step S108).
  • the PN management unit 652 From the PN calculators currently in use, determine the PN calculator whose use is to be terminated (step S109).
  • the PN start / stop unit 1553 stops the PN computer whose use has been determined by the PN management unit 652 (step S110). Then, the PN management unit 652 stops from the record file 652a. Search for a record in which the identifier of the entered PN computer is recorded, and the item 82 of the start / end time is blank, and record the current time as the start / end time in the item 82 of the record.
  • Step S 1 1 the PN management unit 652 receives a request from the management server 550 of the WEB server site 50-1.
  • the management server 550 is notified of the result of the process for (the use termination request of the PN computer) via the network # 0 (step S108).
  • the server configuration management unit 551 in the management server 550 of the web server site 550-1 requests the management server 650 of the shared PN computer site 60 to start using the PN computer. In this case (step S88), the process waits for the notification of the processing result from the PN management unit 652 in the management server 650. Then, when the result of the PN computer use start request is notified, the server configuration management unit 551 determines whether the request was successful based on the result (step S89). If successful, the PN management unit 652 passes control to the configuration change unit h154.
  • the PN computer started in response to the request to start using the PN computer is subject to load distribution within the WEB server computer group 40-i (#i) Load balancing device, as added as a load balancing target computer
  • the WEB server sites 50 -1 to 50 -4 of the four different operating mothers use the PN computer of the shared PN computer site (spare site) 60. But it can.
  • the record file 652a can be applied to information such as billing for the operation base using the PN computer.
  • the DNS round-robin function is a function that applies DNS that associates domain names with IP addresses and distributes the load of servers with many accesses.
  • the present invention is not limited to the D5 embodiment as it is.
  • the constituent elements can be modified and embodied without departing from the scope of the invention.
  • Various inventions can be formed by appropriately combining the constituent elements. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the components in different embodiments may be appropriately combined.
  • a spare computer is started and used as a new target computer for load distribution, and is started when the spike phenomenon stops. Since the standby computer was stopped when it became out of the scope of load distribution, many server computers were started at all times, and it was easy to deal with sudden spikes that were difficult to predict. be able to

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer And Data Communications (AREA)
  • Multi Processors (AREA)

Abstract

サーバ構成管理ユニット(151)は、WEBサーバ計算機(11-1~11-6)を含む全ての負荷分散対象計算機の負荷量に基づいて、負荷分散対象計算機として使用開始すべき、または負荷分散対象計算機としての使用を終了すべきプロビジョニングノード(PN)計算機の台数を決定する。PN管理ユニット(152)は、PN計算機(15-1~15-4)の中から使用を開始または終了すべき計算機を決定する。PN起動/停止ユニット(153)は、決定された計算機を起動または停止する。設定変更ユニット(154)は、決定された計算機が、負荷分散装置(12)による負荷分散の対象計算機または対象外計算機となるように、当該負荷分散装置(12)を制御する。

Description

負荷分散システム及び負荷分散方法
技術分野
本発明はゝ 複数のク ラィァン ト計算機か ら受信したリ クェ ス トを複数の計算機に分配して処理する こ とで負荷分散を図 る負荷分散システムに係る 本発明は、 特に、 突然のスパィ 明
ク状態に対 するのに好 な負荷分散システム及び負荷分散 田
方法に関する 背景技術
多数のク ライ アン 卜計算機からの実行要求を効率的に処理 するために 、 これらの実行要求を複数の計算機に分配する負 荷分散システムが知られている 。 この種の負荷分散システム は 、 例 え は 、 R . Buyya, High Performance Cluster
Computing: Architecture and S yst ems Volume 1 &2 ) " 1
9 9 9 年, Prentice Hall、 或いは Tony B ourke 「サーバ負 荷分散技術 」 , 株式会社オラィ U一 ' ジャパン 2 0 0 1 年
1 2 月 1 3 日 に記載されている 負荷分散システム 、 例えば
W E Bサ一バの負荷分散システムは、 複数の W E Bサーバ計 算機と負荷分散装置と力ゝら構成され ·©。
W E Bサ一バの負荷分散システムにおいて、 ク ラィ ァン 計算機か らの リ クェス ト (実行要求) は、 外部ネッ 卜 ヮ ク を経由して負荷分散装置に送られる。 このリ ク Xス 卜は 、 ク ラィアン 卜計算機で動作する W E Bブラウザ等によ り発行さ れる 負荷分散装置はク ライァン 卜計算機から送られた ク ェス 卜を受信する と 、 複数の W E Bサーバ計算 の中から当 該リ クエス を処 すベさサ パ計 を選択す このサ
―バ計算機の選択は 、 特定のサ パ計算機だけに な負 がかか らないよ に考慮して行われる そのため バ計 算機選択には 、 例えば 、 ( 1 ) ラゥン ド Π ビン法 2 ) 重 み付きラゥン ドヽ Π ビン法 、 或いは ( 3 ) その時ハ占、、 ッ シ 3 ン数の最も少ないサ バ計算機を選択する方法 、 用され る。 ラクン Π ビン法は 、 各サ一パ計算機を ―定 番で均 等に選択する方法である 重み付ぎラゥン ド、 π ビ はゝ ラ ゥン ド 口ビン法を基本と しながら 、 各サ バ計算 能力に 応じて当該各計算機が選択される頻度を変える方 める 負荷分散装置は 、 受信した クェス 卜を選択し 一パ計 算機に内部ネッ 卜 7 クを経由して送る サ パ 機では
W E Bサーパが動いている サ パ計算機は 、 送機法がでたのンられてぎた 順サ大サ適セ法での ί リ クェス 卜に基づき 、 W E Bサ パによつて処理を行う そ してサ一パ計算機は 、 U クェス 卜に対する プラィ を内部ネ ッ 卜 ヮ一ク を経由 して 、 負荷分散装置に送る 負荷分散装置 は送られてさた プラィ を 、 U ク Xス 卜を送信したク ラィ ァ ン 卜計算機に 、 外部ネッ フ一クを J&由して 信する。 一方 、 金子哲夫 、 森良口戈 、 ク ラス夕ソ フ b卜 ゥ Xァ " '、 車 芝レビュ一 、 Vol .54 No . 12( 1 999)、 p . 1 8 -21 (以下、 先行技.術 文献と称する ) には、 ク ラスタシステムと呼ばれる計算機シ ステムが記載されている。 ク ラス夕システムにおいては、 稼 働状態にある計算機で障害が発生した場合、 その障害が発生 した計算機で実行されていたサービス (業務) を 、 システム 内の他の計算機に引き継がせる (フェイルオーバする) こ と ができる。 のサ ビスを引き継ぐ計算機には 例えば待機 状態 (ホッ 卜スィ夕ンバイ状 にある計算機が用いられる。
さて、 先に述ベた W E Bサ バの負荷分散システムにおい て、 クライ ァン 卜計算機からのリ クエス トを処理する W E B サーパ計算機の数は 当該 クェス トの量等に応じて決定さ れるのがー Wx的である 。 と ろが 近年はィ ン夕 ネッ 卜の 利用者数が 大な数に登つている このため W E Bサイ 卜 の運用者の予想をはるかに超えた数のリ クェス hが負荷分散 システムに集中しがちである の場合、 いわ る 「スパィ ク現象」 に起因した 次のよ うな 卜 ラブルがしばしば発生す ス Ό
( A ) リ クェス に対する応答時間が極めて亜く なる
( B ) W E Bサ ハ、計算機への接続が不可能になる
( C ) W E Bサ パ計算機がダゥンする
U クエス 卜 (ァクセス) の増大が 、 ある程度予想される場 合には、 W E Bサィ 卜の運用者は 例えば追加の W E Bサー バ計算機を レン夕ルする とで、 スパイ ク現象に対処す.る こ とができる しかし大抵の場口ゝ ァクセスの増大を予想する こ とは不可能であ り 対処も困難となっている
発明の開示
本発明の巨的は 突然のスパィ ク現象に容易に対処できる 負荷分散システム及び負荷分散方法を提供する とにある。
本発明の 1 つの観 占によれば、 複数のサー 計算機と、 負 荷分散装置と 予備計算機と 、 サ バ構成管理ュ二ッ 卜 と、 予備計算機管理 - ッ 卜 と 予備 算機起動 /停止ュニッ 卜 と、 設定変更ュニッ 卜 と、 ブ 卜ィ メ一ジ選択 二ッ 卜 とを 備えた負荷分散システムが提供される 刖記複数のサ一バ計 算機は、 複数のク ライアン 卜計算機か らの クェス 卜を処理 する。 前記複数のサーバ計算機は 、 当該サ一 計算機が実行
、ヽ、
するオペレーティ ングシステムを含むブ一 卜ィ メ ― ンの種類 の相異によ り複数のサーパ計算機ダル一プに分けて管理され
、- る。 前記負荷分散装置は 、 刖記複数のク ラィ ァン 卜計算機か らのリ クエス ト を前記複数のサ一バ計算機を含む複数の負荷 分散対象計算機に分配する う に構成されている 刖 sd ~f 備 計算機は、 負荷分散対象計算機として用いる し とが可能であ り 、 当該負荷分散対象計算機と して用レ られる際に起動され る。 サーバ構成管理ュニッ 卜は 、 刖記複数のサ バ計算機グ ループ各々のグループを単位に 、 前記複数のサ バ計算機の う ちの当該グループ内のサーバ計算機を含む全ての負荷分散 対象計算機の負荷量に基づいて 、 新たに負荷分散対象計算機 として使用を開始すべき 、 または負荷分散対象計算機として の使用を終了すべき予備計算機の台数を決定するよう に構成 されている。 前記予備計算機管理ュ二ッ 卜は 、 刖記予 fe rr算 機の使用状況を管理するよう に構成されており 、 刖 3己グルー プを単位に前記サーバ構成管理 二ッ 卜によ て決定された 台数の、 当該グループで新たに負荷分散対象 Γ算機として使 用を開始すべき、 または貝荷分散対象計算機と しての使用を 終了すべき予備計算機を決定する 刖記予備計算機起動 停 止ユニッ トは、 前記予備計算機管理ュ二ッ によつて決定さ れた予備計算機を起動または停止するよう に 冓成されている。 刖 d設定変更ュ ッ 卜は、 BU記予備計算機管理ュニッ ト によ つて決定された予備計算機を 、 刖 i負荷分散装置によ 負荷 分散の対象となる負荷分散対象計算機と して追加する 、 また は前記負荷分散装置による負荷分散の対象か ら除外するよ
に構成されている m目己ブ一卜ィ メ ン選択ュニッ 卜は、 刖 記複数種類のプ イ メージの中か -、
ら 、 刖記予備計算機管理 ニッ 卜によ て決定された予備計算機をブ一卜すべさブー 卜ィ メージと して 、 当該決定された予備計算機力 S 刖記負荷分 散対象計算機として使用を開始されるサ バ計算機グループ に固有のブー hィ メーンを 択するよう に構成されている。 図面の簡単な 明
図 1 は本発明の第 1 の実施形態に係る負荷分散システムの 構成を示すブ Π V ク図。
図 2 は同第 1 の実施形態の動作手順を示すフローチヤ一 卜。 図 3 は本発明の第 2 の実施形態に係る負荷分散システムの 構成を示すブ Π ッ ク図。
図 4 は同第 2 の実施形態の動作手順を示すフローチヤ一ト。 図 5 は図 1 中のテ一プル 1 5 1 a のデータ構造例を示す図。 図 6 は図 3 中のテ一ブル 2 5 1 aデータ構造例を示す図。 図 7 は本発明の第 3 の実施形態に係る負荷分散システムの 構成を示すブ Π V ク図。
図 8 は同第 3 の実施形態の動作手順を示すフローチャー ト。 図 9 は本発明の第 4 の実施形態に係る負荷分散システムの 構成を示すブ Π ッ ク図。
図 1 0 は同 4 の実施形態の動作手順を示すフローチヤ一 図 1 1 は図 7 中のテーブル 3 5 1 a のデ―夕 例を示す 図
図 1 2 は図 9 中のテーブル 4 5 1 aのデ 夕構 例を示す 図
図 1 3 は図 9 中のテーブル 4 7 0 のデ一夕構 例を示す図 図 1 4 は図 1 3 に示す状態のテープル 4 7 0 に 、 丁イ スク
D 、
1 の識別子 ( D 1 ) に対応付けて、 プロ ビン 3 ―ングノー 計算機 1 5 - 1 及び 1 5 -2 の識別子 ( P 1 及び P 2 ) が追 加された状態を示す図。
図 1 5 は本発明の第 4 の実施形態の変形例を示すプロ ック 構成図。
図 1 6 は本発明の第 5 の実施形態に係る負荷分散システム の構成を示すブ Π ック図。
図 1 7 は同第 5 の実施形態における W E Bサ一バサイ 卜の 動作手順を示すフ π —チヤ一 卜。
図 1 8 は同第 5 の実施形態における共有プ Π 、ヽ、
ビン a ニング ノー ド計算機サイ トの動作手順を示すフ Π一チャ h
図 1 9 は図 1 6 中のレコー ドフ アイル 6 5 2 aの丁一夕構 造例を示す図。
発明を実施するための最良の形態
以下、 本発明の実施の形態につき図 ¾を参照して説明する
[第 1 の実施形態 ]
図 1 は本発明の第 1 の実施形態に係る負 分散システムの 構成を示すブロ ッ ク図である。 図 1 のシステムは 、 数、 例 えば 6 台の W E Bサーバ計算機 1 1 -1 乃至 1 1 -6 と、 負荷 分散装置 1 2 と を備えている。 W E Bサーバ計算機 1 1 -1 乃至 1 1 -6 及び負荷分散装置 1 2 はシステム内部のネッ ト ワーク (内部ネッ ト ワーク) 1 3 によ り相互接続されている。 また負荷分散装置 1 2 はシステム外部のネッ ト ワーク (外部 ネッ ト ワーク) 1 4 を介して複数のク ライ アン ト計算機 (図 示せず) と接続されている。
W E Bサーバ計算機 1 1 -1 乃至 1 1 -6 は、 ク ライ アン ト 計算機からのリ クエス トを処理する。 負荷分散装置 1 2 は、 外部ネッ トワーク 1 4 を介してク ライ アン ト計算機からのリ クェス ト を受信した場合、 W E Bサーバ計算機 1 1 -1 乃至 1 1 -6 の中か ら 当該リ クエス ト を処理すべきサーバ計算機 を選択する の選択には、 例えば、 背景技術で述べた選択 方法 ( 1 ) 乃至 ( 3 ) のいずれかを用いる こ とができる。 負 荷分散装置 1 2 はまた、 選択したサーバ計算機にク ライアン ト計算機か らの クエス 卜を送る。 つま り負荷分散装置 1 2 は、 多数のク ラィ アン ト計算機からの リ クエス トを W E Bサ ーバ計算機 1 1 - 1 乃至 1 1 -6 に分配して処理させる こ とで、 負荷分散を図る
負荷分散装置 1 2 は、 負荷情報取得ユニッ ト 1 2 0 を含む。 負荷情報取得 一ッ ト 1 2 0 は、 負荷分散装置 1 2 による負 荷分散の対象となる計算機各々の負荷状態を示す情報 (計算 機負荷情報 ) を取得する。 こ こで、 負荷分散装置 1 2 によつ て取得される各負荷分散対象計算機の負荷情報には、 負荷分 散装置 1 2 によつて当該負荷分散対象計算機との間に設定さ れるセッ シヨ ンの数が用いられる。 負荷分散対象計寘機は、
W E Bサ バ計算機 1 1 - 1 乃至 1 1 -6、 及び次に述 るプロ ビジ 3 ングノー ド計算機 1 5 - 1 乃至 1 5 -4 の うちの負荷 . 分散対象として起動されている計算機である。
プ Π ビンョ ニングノー ド計算機 (以下、 P N計算機と称す る) 1 5 - 1 乃至 1 5 -4 は、 通常は電源オフ状態にあつて、 起動されていない予備の計算機である。 P N計算機 1 5 - 1 乃至 1 5 -4 は、 突然の 「スパイ ク状態」 が発生した場合に、 その状態を解消するための負荷分散対象候補として位置付け られている 。 但し、 既に負荷分散対象となっている P N計算 機は の候補から除かれる。 本実施形態では、 Γスパィク 状態 J は 負荷分散対象となっている計算機全体の負荷量が 予め定め られた閾値を超えた状態と して捉え られる P N計 算機 1 5 - 1 乃至 1 5 -4 は内部ネッ ト ワーク 1 3 に接 され ている
内部ネッ ト ワーク 1 3 には、 管理サーバ計算機 1 5 ち核 されている 。 管理サーバ計算機 1 5 上では、 管理サ バ 1 5
0 が動作する。 管理サーバ 1 5 0 は、 管理サーバ計算機 1 5 内の C P U (図示せず) が所定の計算機管理プログラムを み取 て実行する こ とによ り実現される。 この計算機管理プ 口グラムは 、 例えば C D — R 0 M、 フレキシブル丁ィ スクま たはメモ カー ド等の記憶媒体によ り提供される の記憶 媒体によ り提供される計算機管理プログラムは、 管理サ バ 計算機 1 5 の例えばディ スク ドライ ブに保存して用い られる 計算機管理プログラムを外部ネッ ト ワーク 1 4 を介して管理 サーバ計算機 1 5 に転送して、 当該計昇機 1 5 のディ スク ド ライ ブに保存するしとも可能である
管理サーバ 1 5 0 は 、 サーバ構成管理ュニッ ト 1 5 1 、 プ 口ビジョニングノ ドヽ管理ュ一 y (以下 、 P N管理ュニッ 卜 と称する) 1 5 2 、 プ口ビン 、ヽ、 3一ングノー ド起動/停止ュ ニッ ト (以下 、 P N起動 Z停止ュ一ッ 卜 と称する) 1 5 3、 及び設定変更ュ二ッ 1 5 4 の各機能要素を含む。
サーバ構成管理 一ッ h 1 5 1 は 、 W E Bサーバとして動 作する計算機 (サ一パ計算機 ) を管理する機能を有する。 ま たサーバ構成管理 一ヅ h 1 5 1 は 、 使用を開始すべき (新 たに負荷分散対象とす さ) 、 または使用を終了すべき (負 荷分散対象外とすベさ ) P N計算機の台数を決定する機能を 有する。 この決定は 、 負荷分散装置 1 2 による負荷分散対象 となっている計算機の負荷状態を とに行われる。 そのため サーバ構成管理ュ一ッ 卜 1 5 1 は 、 テープル 1 5 1 a を保持 してレゝる。 テ一ブル 1 5 1 aは 、 負荷分散対象計算機全体の 負荷量の閾値 (負荷閾値) と 、 その閾値に対応して負荷分散 対象とすべき P N計算機の数 (計画使用 P N計算機数) とを 対応付けて記憶する
テーブル 1 5 1 a の一例を図 5 に示す。 この図 5 の例では テーブル 1 5 1 a は、 3 種の負荷閾値 N S 1、 N S 2 及び N S 3 の各々 と計画使用 P N計算機数とを対応付けて記憶する。 閾 値 N S 1、 N S 2 及び N S 3 は、 それぞれ第 1 、 第 2 及び第 3 の スパイ ク状態に対応する。 テーブル 1 5 1 aは、 上記計算機 管理プログラムに予め設定されてお り 、 管理サーバ計算機 1 5 の起動時に、 当該計算機 1 5 の主メモリ (図示せず) に口 ー ドされる。
P N管理ュニッ ト 1 5 2 は、 P N計算機 1 5 -1 乃至 1 5 -4 の使用状況を管理する機能を有する。 また P N管理ユニッ ト 1 5 2 は、 サーバ構成管理ユニッ ト 1 5 1 によ り、 使用開始 すべき、 または使用を終了すべき P N計算機の台数が決定さ れた場合に、 P N計算機 1 5 -1 乃至 1 5 -4 の中から実際に 使用を開始すべき、 または使用を終了すべき P N計算機を決 定 (選択) する。
P N起動 Z停止ュ二ッ 卜 1 5 3 は P N管理ュ ッ 卜 1 5
2 によって決定された P N計算機を起動または停止する機能 を有する。 P N起動 Z停止: Xニッ 卜 1 5 3 は P N計算機の 起動/停止を次の う にして行う プ口 ビジョ二ングノー ド 起動 Z停止部 1 5 3 は、 W a k e o n L A N (商標) 技 術を利用 して P N計算機の起動をする 。 プロビジ a ングノ ー ド起動ノ停止部 1 5 3 は、 P N計算機を起動するために、 起動する P N計算機を指定した特殊なパケッ 卜を内部ネッ 卜 ワーク 1 3 に送出する 上記特殊なパケッ 卜において 、 起動 すべき P N計算機の指定には、 当該 P N計算機に実 されて いる L A N力 ド (ネッ 卜 ワーク力 ド) の M A Cァ ド レス が用い られる 各 P N計算機に実装された L A N力 ドは、. ネッ 卜ワーク ( では内部ネッ 卜ヮ ク 1 3 ) と接続する ための制御回路として動作する。 の L A N力 は 、 内部 ネッ 卜ワーク 1 3 を流れる特殊パケッ トを監視するた 機している。 そのため L A Nカー には、 P N計算機の電源 がォフされている状態において、 常時ス夕ンバイ電 が供給 されている 。 ; L A N力一 は 、 自分の M A Cァ ド レスが指定 されている特殊パケ (つま り 自身宛ての特殊 ケッ 卜 ) を受信した場合に 、 自分が実装されている P N計算機を起動
(ブ一卜 ) するための機能を持つ よた 、 プ口ビン 、、、 3 二ング ノ一ド起動 /停止部 1 5 3 は 、 Ρ Ν計算機の停止を次のよ に行う プ口 ビジ a 二ングノ一ド起動 Z停止部 1 5 3 は、 停 止させるベさ P N計算機に対し、 ォプシ a ンとして電源断を 指定したシャ ッ 卜ダゥン ン ドを内部ネ V 卜ヮ一ク 1 3 を 介して送出 る。 しのコマン ドの送出によ り 、 プ Πビジョ ― ングノ 起動 Z停止部 1 5 3 は 、 Ρ N計算機を停止させる 目 :体的には 、 例えばォぺレ一ティ ングシステム U N I X (商 標 ) では 、 シャ ツ ダウン マン ドとして i n i t " が使 える i n i t コマン には 、 m源断を指定するォプシ
3 ンがある 。 そこで 、 源断を指定したシャ V 卜ダゥンコマ ン を実行する と 、 電源 ラィバが呼び出され、 計算機の ¾ 源断まで行われる リモ一卜の計算機からシャ ッ ダゥン π マン を実行するには、 υモ一卜 シェル ( r S S ) 3マン を使えばよい。
設定変更ュニヅ 1 5 4は 、 P N起動 Z停止ュ ― V 卜 1 5
3 によ て起動または停止された P N計算機を負荷分散装置
1 2 に る負荷分散の対象または対象外とするよ う に 、 当該 負荷分散 置 1 2 を制御する機能を有する つま り設定変更 一ッ 卜 1 5 4 は 、 起動 /停止ュニッ 卜 1 5 3 によ て起動 または停止された P Ν計算機に対して負荷分散 1 2 から 2 クエス 卜を分配する こ との許可または停止を 、 当言亥負荷分 散 置 1 2 に対して与える機能を有する
次 1 の負荷分散システムの動作について 、 図 2 のフ π ―チヤ一 トを参照して説明する。 まず、 管理サ バ計算機
1 5 内のサーパ構成管理ユニッ ト 1 5 1 は 、 負荷分散装置 1
2 の負荷情報取得ュニッ 卜 1 2 0 力 ら 、 当該負荷分散装置 1
2 による負荷分散の対象となっている 、 W E Bサ一バ計算機
1 1 - 1 乃至 1 1 -5 を含む各計算機 (負荷分散対象計算機) の負荷情報を取得する (ステップ S 1 したがつて、 P N 計算機 1 5 - 1 乃至 1 5 -4 の中に負荷分散対象計算機と して 使用されている Ρ Ν計算機が存在する場合には 、 その計算機 の負荷情報も取得される。 こ こでは各貝 W分散対象計算機の 計算機負荷情報として 、 負荷分散装置 1 2 に て各ク ラィ ァン ト計算機と当該負荷分散対象計算機との間に 又定された セ Vシヨ ンの本数が取得される。 このステッ プ S 1 に いて、 サ一パ構成管理ュニッ 卜 1 5 1 は、 各負荷分散対象計算機の 計算機負荷情報力ゝ ら、 負荷分散対象計算機全体の負荷邏 t N s を求める。 こ こでは各負荷分散対象計算機の計算機負荷情報 の示す負荷量 (セッシヨ ン数) を加算する し とで 、 全体の負 荷里 N s が求め られる 。 なお、 各負荷分散対象計算機の処理 能力に対応 (例えば反比例) した重みで負荷量を重み付けし、 その重み付けされた負荷量の加算値を全体の貞荷里 N S とし て よい。
次にサーバ構成管理ユニッ ト 1 5 1 は、 テ一ブル 1 5 1 a を参照して 、 当該テーブル 1 5 1 aの内容を とに 、 現在の 負荷量 N s に対応する計画使用 P N計算機数を決定する (ス テツプ S 2 ) 。 本実施形態では、 テーブル 1 5 1 aの内容は 図 5 に示すよう になつている。 この場合、 サーバ構成管理ュ ニッ 卜 1 5 1 は、
NS< NS1 であれば、 計画使用 P N計算機数 = 0
NSi≤ Ns< NS2であれば、 計画使用 P N計算機数 = 2 NS2≤ N S< N S3 であれば、 計画使用 P N計算機数 = 4 NS≥ NS3 であれば、 計画使用 P N計算機数 = 6
のよう に決定する。
次にサーバ構成管理ュニッ ト 1 5 1 は、 決定した計画使用 P N計算機数と、 P N管理ユニッ ト 1 5 2 によ り管理されて いる現在使用 中の P N計算機数とを比較する (ステッ プ S
3 ) 。 もし、 両計算機数が等しいならば、 サ一パ構成管理ュ ニッ 卜 1 5 1 は、 新たに P N計算機を負荷分散の対象計算機
(つま り使用 を開始する計算機) として割り 当てる必要がな ものと判断する。 この場合 、 サーバ構成管理ュニッ h 1 5
1 は一定時間を待った後 (ステツプ S 4 ) 、 ステツプ S 1 か ら処理を繰り返す。
一方 、 計画使用 P N計算機数の方が多いなら ば (ステップ
S 3 ) 、 サーバ構成管理ュニッ 卜 1 5 1 は 、 新たに P N計算 機を負荷分散の対象計算機として割り 当てる必要がある と判 断する この場合、 サ一バ構成管理ュ二ッ h 1 5 1 は P N管 理ュニッ ト 1 5 2 に対し、 新たに P N計算機の使用を開始す る ことを要求する。 これを受けて P N管理 ニッ ト 1 5 2 は、
P N計算機 1 5 -1 乃至 1 5 4 の中に 、 使用可能な P N計算 機が存在するか否かを調べる (ステップ S 5 ) 。 もし、 使用 可能な P N計算機がない場合、 つま り P N計算機 1 5 - 1 乃 至 1 5 -4 が全て負荷分散対象計算機と して既に使用 中であ る場合 、 その旨が P N管理ュニッ 卜 1 5 2 からサーバ構成管 理ュニッ ト 1 5 1 に通知される 。 する とサーバ構成管理ュニ ッ 卜 1 5 1 は一定時間を待った後 (ステップ S 4 ) 、 ステツ プ S 1 から処理を繰り返す。
これに対し、 使用可能な P N計算機、 つま り現在使用 (起 s¾ ) されていない P N計算機があるならば 、 P N管理ュニッ h 1 5 2 は 、 使用 を開始する計算機 (負荷分散の対象計算 機) として P N計算機を割り 当てる処理 (ステップ S 6 ) を 行う。 しの処理は、 使用可能な P N計算機の数 Nと上記両計 算数の差分 N d との大小関係に基づいて次のよ う に行われる。 まず、 N > N dであるならば、 P N管理ュニッ 卜 1 5 2 は、 使用可能な P N計算機の中から、 当該差分 N d に一致する数 の P N計算機を選択して、 使用を開始する計算機として割り 当てる また 、 N < N dならば、 サーバ構成管理ュニッ 卜 1
5 1 は 、 計算機数と しては不十分ではある ものの、 使用可能 な N台の P N計算機を全て選択して、 使用を開始する計算機 として割 Ό 当てる。 この計算機割り 当ての情報は、 P N管理 ュニッ 卜 1 5 2 か らサーバ構成管理ュニッ ト 1 5 1 、 P N起 動 Z停止ュ一ッ ト 1 5 3及び設定変更ュニッ ト 1 5 4 にそれ ぞれ通知される
する と P N起動 /停止ユニッ ト 1 5 3 は、 P N計算機 1
5 - 1 乃至 1 . 5 ; -4 のう ち、 サーバ構成管理ユニッ ト 1 5 1 に 5 よって使用を開始する と して割 Ό 当てられた (決定さ れた) P N計算機を起動する (ステッ プ S 7 ) 。 このとき設 定変更 一ッ 卜 1 5 4 は、 負荷分散装置 1 2 を制御して、 P
N起動 /停止ュ二 V h 1 5 3 によつて起動された ( P N管理 ュニッ 卜 1 5 2 に て使用開始が決定された) P N計算機 を、 負荷分散装置 1 2 による負荷分散の対象となる負荷分散 対象計算機として追加させる (ステッ プ S 8 / 。 し し 、 ス テップ S 7及び S 8 の順番は逆でも構わない。 サーバ構成管 理ュニ V h 1 5 1 は 、 設定変更 二ッ 1 5 4 の制御によ り 負荷分散装置 1 2 による負荷分散の対象が変更される と、 一 定時間を待つた後 (スアツ ノ S 4 ) 、 ステッ プ S 1 カゝら処理 を繰り す
一方 、 計画使用 P N計算機数の方が現在使用中の P N計算 機の数よ り少ないならば (ステツプ S 3 ) 、 サ バ構成管理 ュニッ 1 5 1 は 、 両計算機数の差分 N d の数の P N計算機 の使用を終了させる必要がある と判断する しの場合 、 サー バ構成管理ュ二ッ 卜 1 5 1 は P N管理ュ一 ヽリ 卜 1 5 2 に対し、
N d台の P N計算機の使用を終了する ことを要求する し し を受けて P N管理ュ一ッ 卜 1 5 2 は、 現在使用中の P N計算 機の中か ら 、 使用を終了させる、 上 両計算機数の差分 N d に等しい数の P N計算機を決定する (ステップ S 9 ) 。 P N 管理ュ一ッ 卜 1 5 2 によって決定された 、 使用を終了させる
P N計算機の情報は 、 P N管理ュニッ 卜 1 5 2 か らサ一ハ、構 成管理 一 V 卜 1 5 1 、 P N起動/停止ュ二ッ 1 5 3及び 設定変 ッ 卜 1 5 4 にそれぞれ通知される 6 する と設定変更ユニッ ト 1 5 4 は、 使用終了が決定された
P N ρ Γ算機が負荷分散装置 1 2 による負荷分散の対象外とな るよう に、 当該負荷分散装置 1 2 を制御する (ステッ プ S 1
0 ) 一方、 P N起動/停止ュニッ 卜 1 5 3 は、 P N管理ュ 二ッ h 1 5 2 によって使用終了が決定された P N計算機を停 止する (ステッ プ S 1 1 ) 。 こ こで、 ステップ S 1 0 及び S
1 1 の順番は逆でも構わない。 サーバ構成管理ュニッ ト 1 5
1 は 上記差分 N dに等しい数の P N計算機が停止される と、 定時間を待つた後 (ステッ プ S 4 ) 、 ステップ S 1 から処 理を繰り返す
以上の説明から明らかなよう に、 図 5 に示したテープル 1
5 1 aが適用 される図 1 のシステムにおいては、 負荷邐 が負荷閾値 N S1 以上となったなら (但し N S< N S2) 2 台 の P N計算機が負荷分散対象計算機と して使用される。 この 状 で 、 負荷量 N s が負荷閾値 N S2 以上となっ たな ら (但 し Ν S< N S3) ' 、 更に 2 台の P N計算機が負荷分散対象計算 機として追加される。 この場合、 合計 4台の P N計算機 、 つ ま り システム内の全 P N計算機 1 5 -1 乃至 1 5 -4 が使用さ れる この状態で、 負荷量 N s が負荷閾値 N S3 以上となつ たなら 、 更に 2 台の P N計算機を負荷分散対象計算機として 追加しなければならない。 しかし、 この時点で、 既にシステ ム内の全 P N計算機 1 5 -1 乃至 1 5 -4 が使用中であ り 、 新 たに使用可能な P N計算機は存在しない。 したがって、 4台 を超える P N計算機の使用はない。
また、 P N計算機 1 5 -1 乃至 1 5 -4 が使用中の状態で、 荷里 N s が負荷閾値 N S2 を下回ったなったなら (但し N s
N S1 ) 2 台の P N計算機が負荷分散対象外と される の場合、 使用する P N計算機は 2 台となる。 この状態で 負荷里 N s が負荷閾値 N S1 を下回っ たなったな ら、 更に 2 台の P N計算機が負荷分散対象外とされる。 この場合、 P N 計算機の使用が止め られる。 このこ とから、 テーブル 1 5 1 aが 負荷に応じた P N計算機の使用開始/使用終了条件を 定義したテーブルである ことが理解される。
のよ う に、 本発明の第 1 の実施形態に係る負荷分散シス テムによれば、 スパイ ク状態の負荷が発生した場合、 P N計 算機 (予備の計算機) が起動され、 その起動された P N計算 機も含めて負荷分散装置 1 2 で負荷分散が行われる。 このよ な状態で、 負荷が低下した場合には、 P N計算機が負荷分 散の対象外とされて、 当該 P N計算機が停止される。 これに よ り 常時多く のサーバ計算機を起動させておく こ となぐ 突然のスパイ ク状態に対応する こ とができる。 即ち本実施形 態、においては、 システム ( W E Bサーバ計算機 1 1 -1 乃至
1 1 -6 を含むシステム) の運用者の予想をはるかに超えた 数の U クェス トが集中しても、 背景技術の欄で挙げた 「スパ ィ ク現象」 に起因する トラブル ( A) 乃至 ( C ) の発生を回 避する こ とができる。
なお 、 本実施形態では、 管理サーバ 1 5 0 が独立した管理 サ バ計算機 1 5 上で動作する構成を適用 している。 しかし、 管理サ ノ 1 5 0 を、 例えば W E Bサーバ計算機 1 1 - 1 乃 至 1 1 -6 のいずれかの上で動か してもよい。 この場合 管 理サ—バ 1 5 0 が動作している W E Bサーバ計算機で障害が 発生しても、 当該管理サーバ 1 5 0 の提供する機能が止ま ら ないで済む構成を適用する とよい。 具体的には、 少なく とも
W E Bサーバ計算機 1 1 - 1 乃至 1 1 -6 が、 前記先行技術文 献に記載されたク ラス夕システムを構成すればよい。 このク ラスタ システムを適用する こ とで、 W E Bサーバ計算機 1 1 - 1 乃至 1 1 - のうち管理サ バ 1 5 0 が動作している W E Bサーバ計算 で障害が発生しても 管理サーバ 1 5 0 の 機能 ( (つま りサ一バ構成管理ュ ッ h 1 5 1 P N管理 二 ッ 卜 1 5 22 PP N起動 Z停止ュ ヅ h 1 5 3及び設定変更ュ ニッ ト 5 4 の 作) を他の W E Bサ • ~バ計算機に引き継が せる ことがで る よた、 W E Bサ n計算機の台数及び P N計算 の台 上記実施形態に限る ものではな W E B
' バ計算機は少なく とも 2 台 ( ま り複数 ) あればよ
P N計算機は少なく と ¾ 1 台あればよい また、 負荷分散装 置 1 内の負荷情報取得ュ二ッ 1 2 0 g身が負何 里 N S を 取得 る構成と してもよい
[ 2 の実施形能 1
3 は本 明の第 2 の実施形 に係る負荷分散システムの 構成を示 ブ Π ック図である なお 図 1 と等価な構成要素 には同ー符号を付してある 。 図 3 のシステムが図 1 のシステ ムと相異する 占は 、 図 1 中の負荷分散装置 1 2 に相当する負 荷分散 2 2 が負荷情報取得 V 卜を持たないことであ る。 その代わ り に、 図 1 中の W E Bサーバ計算機 1 1 - 1 乃 至 1 1 -6 に相当する W E Bサーバ計算機 2 1 - 1 乃至 2 -6 が それぞれ負荷情報取得ュニッ ト F 1 乃至 F 6 を持っている。 負荷情報取得ユニッ ト F 1 乃至 F 6 は、 図 1 中の負荷情報取 得ュニッ ト 1 2 0 と異な り 、 対応する W E Bサ —バ計算機 2
1 - 1 乃至 2 1 -6 の負荷情報のみを取得する また、 負荷情 報取得ュニッ ト F 1 乃至 F 6 によって取得される計算機負荷 情報は 、 セッ ショ ン数ではなく て、 例えば 、 W E Bサーバ計 算機 2 1 - 1 乃至 2 1 -6 にそれぞれ含まれている C P Uの使 用率である。 も し、 1 台の W E Bサーバ計算機が複数の C P
Uを搭載している場合、 当該複数の C P Uの各々の使用率を 加算した値が、 当該" W E Bサーバ計算機の負何情報 (計算機 負荷) と して用い られる。 なお、 W E Bサ ハ、計算機でのリ クエス 卜の処理を反映した負荷であれば 、 C P U使用率に限 らず、 メモリ使用率、 入出力装置の使用率等を単独で、 或い は C P U使用率と組み合わせて用いる こ とも可能である。
また 、 図 3 のシステムでは、 図 1 中の管理サーバ計算機 1
5 に代えて管理サーバ計算機 2 5が用い られる 。 この管理サ 一バ計算機 2 5 上では、 管理サーバ 2 5 0 が動作する。 管理 サ一バ 2 5 0 は、 サーバ構成管理ュニッ 卜 2 5 1、 P N管理 二ッ ト 1 5 2、 P N起動 /停止ュニッ h 1 5 3 、 及び設定 変更ュニッ ト 1 5 4 の各機能要素を含む サ一パ構成管理ュ ニッ 卜 2 5 1 は、 図 1 中のサーバ構成管理ュ一ッ 卜 1 5 1 と 異なつて、 各負荷分散対象計算機内の負荷情報取得ュニッ ト よ り取得された計算機負荷情報をも とに 、 負荷分散対象計算 機全体の負荷量を求 る。 この全体の負荷量を N e と呼ぶ。 そのため本実施形態では、 予備の負荷分散対 計算機として 位置付けられている P N計算機 1 5 -1 乃至 1 5 - 4 にも、 W
E Bサ パ計算機 2 1 -1 乃至 2 ] L - 6 内の負荷情報取得ュ二 ッ 卜 F 1 乃至 F 6 に相当する負荷 m報
Figure imgf000022_0001
h (図示せ ず) が設けられているものとする
サ ―バ構成管理ュニッ ト 2 5 1 は テーブル 2 5 1 a を保 持している テ ブル 2 5 1 a は 、 負荷分散対象計算機全体 の負荷量の閾値と、 その閾値に対応して負荷分散対象とすベ さ P N計算機の数 (計画使用 P N計算機数) とを対応付けて 記憶す のテ ブル 2 5 1 aの 例を図 6 に示す この 図 6 の例では、 テーブル 2 5 l a は、 3 種の負荷閾値 N C 1
N C2 及び N C3 の各々 と計画使用 P N計算機数とを対 j¾、付け て記憶する。 閾値 Nci, NC2 及び NC3 は、 図 5 に示したテ ブル 1 5 1 a に記憶される負荷閾値 N s , N S2 及び N S3 に相当する。
次に、 図 3 の負荷分散システムの動作について、 図 1 のシ ステムと相異する点を中心に、 図 4 のフローチャ― を参照 して説明する。 図 3 の負荷分散システムでは 、 図 2 のフ Π チヤー ト中のステッ プ S 1 乃至 S 1 1 に相当するステップ S
2 1 乃至 S 3 1 が実行される。 図 1 のシステムとの主たる相 埕点は、 (図 2 中のステップ S 1 に相当する ) ステップ S 2
1 での負荷量の求め方である。 即ち、 ステツ プ S 2 1 におい てサーバ構成管理ュニッ 卜 2 5 1 は、 W E Bサ一 n計算機 2
1 -1 乃至 2 1 -6 内の負荷情報取得ュニッ ト F 1 乃至 F 6 を 含む、 現在負荷分散の対象となっている計算機 (負荷分散対 象計算機) 内の負荷情報取得ユニッ トから、 当該負荷分散対 象計算 の負荷情報を取得する。 そしてサーバ構成管理ュニ ッ 卜 2 5 1 は、 取得した各負荷分散対象計算機の負荷情報 (計算 負 ¾r情報) から、 全体の負、荷里 N c を求める では各 荷分散対象計算機の負荷情報の示す負荷 ( C P U の使用 ) の加算値が全体の負荷里 N C として求め られる。 なお、 各負荷分散対象計算機の処理能力 (例えば C P Uの処 理速度 ) に対応 (例えば比例) した重みで負荷 を重み付け し、 その重み付けされた負荷量の加算値を全体の負荷量 N e と して よい。 サーバ構成管理ュニッ ト 2 5 1 が負荷量 N r を求めた後の動作は、 負荷量が N s か ら N c に、 値が
N S 1 ' N S2 及び N S 3 力 ら N c i N C2 及び N C3
Figure imgf000023_0001
Όた 点を除ぎ、 刖 d第 1 の実施形態と同様である。
[第 3 の実施形態 ]
図 7 は本発明の第 3 の実施形態に係る負荷分散システムの 構成を示すブ口 ック図である。 なお、 図 1 または図 3 と等価 な構成要素には同一符号を付してある。 図 7 のシステムでは 貝何分散装置と して図 1 に示した負荷分散装置 1 2 が用い ら れる と共に W E Bサーバ計算機として図 3 に示した W E B サーバ計算機 2 1 - 1 乃至 2 1 - 6 が用い られる。 図 7 のシス テムの特徴は、 負荷分散装置 1 2 内の負荷情報取得ュ ―ッ
1 2 0 、 及び W E Bサーバ計算機 2 1 - 1 乃至 2 1 - 6 内の負 荷情報取得 二ッ 卜 F 1 乃至 F 6 を含む、 各負荷分散対象計 算機内の負荷情報取得ュニッ 卜をいずれも利用 している 占に ある 即ち図 7 のシステムでは 、 計画使用 P N計算機数の決 定に 負荷情報取得ュニッ 卜 1 2 0 によ り取得される各 荷 分散対象計算機の負荷情報 (セッンヨ ン数を示す情報) と、 各負荷分散対象計算機内の負荷情報取得 ニッ 卜 によ り取得 される負荷情報 ( c P U使用率を示す情報) との両方が利用 される。
そのため、 図 7 のシステムでは 、 図 1 中の管理サーバ計算 機 1 5 または図 3 中の管理サ バ計算機 2 5 に代えて管理サ ーバ計算機 3 5 が用い られる の管理サ一バ計算機 3 5上 では、 管理サーバ 3 5 0 が動作す 管理サーバ 3 5 0 は、 サーバ構成管理ュニッ 卜 3 5 1 P N管理ュニッ h 1 5 2
P N起動/停止ュニッ 卜 1 5 3 及び設定変更ュ ッ 卜 1 5
4 の各機能要素を含む サーバ構成管理ュニッ 卜 3 5 1 は、 図 1 中のサーバ構成管理ュ二ッ 卜 1 5 1 及び図 3 中のサーバ 構成管理ュニッ ト 2 5 1 の両者の機能を併せ持つ 即ちサー バ構成管理ュニッ 卜 3 5 1 は 、 負荷分散装置 1 2 内の負荷情 報取得ュニッ 卜 1 2 0 によ り取得された計算機負荷情報をも とに負荷量 N s を取得する サーパ構成管理ュ ヅ 卜 3 5 1 はまた、 各負荷分散対象計算機内の負荷情報取?守ュニッ 卜に よ り取得された計算機 荷情報をもとに ¾何里 Ν C を取得す
サーバ構成管理ュ 、 kッ h 3 5 1 は、 テ一ブル 3 5 1 a を保 持している。 このテ ブル 3 5 1 a の一例を図 1 1 に示す。 テーブル 3 5 1 a の特徴は、 計画使用 P N計算機数を、 負荷 量 N s に対応する負荷閾値 ( こ こ では w S i Ν S 2 及び N
S 3 ) 、 及び負荷量 N c に対応する負荷閾値 ( こ こでは N c^ , N C 2 及び N C 3 ) の両方と対応付けて記憶している点にある。 次に、 図 7 の員荷分散ンステムの 作について、 図 1 のシ ステムと相異する点を中心に、 図 8 のフ Π チャ 卜を参照 して説明する 図 7 の負 分散システムでは 、 図 2 のフロー チヤ 卜中のステ Vプ S 1 に相当するステ Vプ S 4 1 と、 図
4 のフ Π チャ V中のステッ プ S 2 1 に相当するスアツ ノ
S 4 2 とが実行される また、 図 7 の負荷分散システムでは、 図 2 のフ Π チャ 卜中のステップ S 2 に相当するスアツ ノ
S 4 3 と、 図 2 のフ Π チャ 中のステッ プ S 3 乃至 S 1
1 に相当するステ プ S 4 4乃至 S 5 2 とが実行される
即ち 、 図 7 の負荷分散システムにおいて サーバ構成管理 ュニッ h 3 5 1 は 負荷分散装置 1 2 内の負荷情報取得ュニ ッ 卜 1 2 0 によ り取得される各負荷分散対象計算機の負荷情 報 (セッ シ a ン数 ) を とに、 負 分散対象計算機全体の負 荷直 ] Νι S を求める (ステップ S 4 1 ) サ バ構成管理ュニ ッ 卜 3 5 1 はまた 各負荷分散対象計算機の内の負荷情報取 得ュニッ 卜によ り取 される当該計算機の負荷情報 ( C P U 使用率 ) を とに 荷分散対象計 機全体の負何里 N e を 求める (ステップ S 4 2 )
サーバ構成管理ュ ッ 卜 3 5 1 は負荷里 N s 及び N c ¾永 めると 、 ステッ プ S 4 3 に進む のステ V プ S 4 3 におい てサーバ構成管理 ッ 卜 3 5 1 は テ プル 3 5 1 a を参 照して 、 現在の負荷 N S に対応する計画使用 P N計算機数 を決定する 同様にサ バ構成管理ュ 卜 3 5 1 は 、 テ プル 3 5 1 a の内容を とに、 現在の負何星 N C に対応する 計画使用 P N計 機 ち決定する 次にサ バ構成管理ュニ ッ 卜 3 5 1 は 負荷里 N S 及び N C にそれぞれ対応する負計 画使用 P N計算機数を比較し 、 多い方を 実際に使用する計 画使用 P N計算機数として選択する 以降の動作は、 刖 己第
1 の実施形能と でめる
このよう に本実施形能においては 種類の異なる負词 a N
S 及び N C を とに その 伺 'm. N S 及び N C によつて表さ れるスパィ ク状態を低減するのに必要な P N計算機の数 n 1 及び n 2 が偭 に求められる 。 そして 計算機数 n 1 及び n
2 のう ちの多い方が 実ドポに使用する計画使用 P N計算機数 として選択される れに り 、 負荷厘 N S 及び N C の 方 だけから決定される P N計算機の数を用いる前記第 1 及び第
2 の実施形態に比ベて よ り効果的にスパィ ク状態に対処で さる。
[第 4 の実施形態 ]
図 9 は本発明の第 4の実施形態に係る負荷分散システムの 構成を示すブ口 ッ ク図である 。 なお 図 7 と等価な構成要素 には同 号を付してめる □ まず 図 9 のシステムが図 7 の システムと相 する 占に いて述ベる 図 7 のシステムでは 特に断らなかっ たが、 各 W E Bサーバ計算機
2 1 -6 ) が、 いずれも のブー 卜ィ メ ンを実行する と を刖提としている。 のことは、 第 1 及び第 2 の実施形 に おいても同様である □ ブ 卜ィ メ ンは、 少な < と ¾ォぺレ ティ ングシステム ( 〇 S ) を含む。 また ブー 卜ィ メ ン が 0 S以外に、 当該 0 S のも とで動作するァプリ ケ シ 3 ンプログラムを含む ともある このよ う に 各 W E Bサ バ計算機で される〇 S を含むブー 卜ィ メーンが同 類 の場 スパィ ク状態の負荷の発生時に使用される Ρ Ν計算 機に対し 当該計算機をブー ト (起動 ) するためのブー ィ メ ―ジを対応付けてお < こ とが可能である。
れに対し、 図 9 のシステムでは、 実行されるブー 卜ィ メ 一ジが W E Bサ バ計算機によって異 /よる では、 W E
Bサ バ計算機が当該計算機で実行されるブー 卜ィメーンの 種類毎にグループ分けして管理される よ / 使用する P N 計算機数の決定に用い られる負荷もグループ単位で求め られ る この場口 ゝ いずれのグル プでスパイ ク状台目 の負荷が発 生したかによつて 、 その際に使用される P N計算機をブ 卜 するためのブー ィ メ ジの種類は異なる。 したがつて P
N計算機に爭刖にブ イ メージを対応付けておく こ とはで さない。 なお、 グループ毎に P N計算機を用意するならば 当該計算機に事前にブ ―卜イ メージを対応付けて とは 可能である 。 しかし、 そのためには、 多数の P N計算機を用 しなければならず、 実用的でない。 例えば適用されるプ ィ メ ジの種類によつて、 P N計算機が 3 グル ―プに分け られる場 U 、 グループ毎に P N計算機を 4台用 するなら
Π計で 3 X 4 = 1 2 台の P N計算機が必要となる ο
そこで 図 9 のシステムでは、 P N計算機が いずれのブ
― ィメ ジでもブ 卜可能なよう に 、 以下に述ベる構成を 適用 している まず、 図 9 のシステムで適用されるブー ィ メ ジは ブー hィ メ ジ # 1 , # 2 # 3 の 3 種類である のため W E Bサーハ、計算機の群も 、 適用される 3 種類の ブー トイ メージ # 1 乃至 # 3 に応じて、 W E Bサーバ計算機 グループ 4 0 -1 ( # 1 ) 乃至 4 0 -3 ( # 3 ) の 3 グループに 分けて管理される。 W E Bサーバ計算機グループ 4 0 -1 ( # 1 ) には、 ブー トイメージ # 1 でブー トされている p台の W E Bサーバ計算機 4 1 -11 乃至 4 1 -lp が属する。 W E Bサ ーバ計算機グループ 4 0 -2 ( # 2 ) には、 ブー トイ メージ # 2 でブー トされている q台の W E Bサーバ計算機 4 1 -21 乃 至 4 1 - 2q が属する。 W E Bサーバ計算機グループ 4 0 -3
( # 3 ) には 、 ブ ― 卜ィ メージ # 3 でブ一卜されている r 台 の W E Bサ バ計算機 4 1 -31 乃至 4 1 - 3rが属する。
また 、 図 9 のシステムでは、 図 7 中の管理サーバ計算機 3
5 に相当する管理サーパ計算機 4 5 が用い られる。 この管理 サ一バ計算機 4 5上では 、 管理サ一バ 4 5 0 が動作する 。 管 理サーハ、 4 5 0 は 、 サ一バ構成管理ュニ V 卜 4 5 1、 P N管 理ュニ V 卜 1 5 2 、 P N起動/停止ュニッ ト 1 5 3 、 設定変 更ュニッ 1 5 4 、 及びブー 卜ィ メージ選択ユニッ ト 4 5 5 の各機能要素を含む。 サ一バ構成管理ュ一ッ 卜 4 5 1 は 、 W
E Bサ バ計算機ダル一プ # i ( i = 1 2, 3 ) 単位で負 荷裏] S 及び N C を求め 、 その負荷量 N S 及び Nc に応じて 当該グル 1 ~プ # i 単位で計画使用 P N計 機数を決定する機 能を有する。
サーバ構成管理ュニッ ト 4 5 1 は、 図 1 2 に示すテーブル 4 5 1 a を保持している。 このテーブル 4 5 1 a の特徴は、 計画使用 P N計算機数を、 W E Bサーバ計算機グループ # 1 乃至 # 3 毎に、 負荷量 N s に対応する負荷閾値 (こ こでは N Sll S12. S13 乃至 N S31 N S32 N S33) ゝ 及び貝荷 量 N C に対応する負荷閾値 ( こ こでは N c l l, N C 12 N C13 乃至 N C31 N C32 N C33) の両方と対応付けて記憶してい 点にあ
ブ ―卜ィ メージ選択ユニッ ト 4 5 5 は、 W E Bサーバ計算 機グル ―プ 4 0 -i ( # i ) でスパイ ク状態の負荷が発生した 結果 P N管理ュニッ ト 1 5 2 によって使用が決定された P
N計算機 ί
^ ≡1該グループ 4 0 -i ( # i ) に固有の種類のブ 卜ィ メ ジ # i を設定する機能を有する。 ブー トイ メージ
# i は グループ 4 0 -i ( # i ) 内の W E Bサーバ計算機で 使用されているブ 卜イ メージである。 このブー 卜イ メージ 選択 ッ 卜 4 5 5 による P N計算機に対するブー トィ メ一 ン # i の設定とは、 当該 P N計算機と、 当該計算機をブー ト するために使用されるブー トイ メージ # i が保存されたディ スク (デイ スク ドライ ブ) とを、 後述するテーブル 4 7 0 に よ り対応付ける こ とである。 つま り ブー トイ メージ選択ュニ ッ 卜 4 5 5 は、 P N計算機をブー 卜するために使用されるブ 卜ィ メ ジ # i が保存されたディ スクを選択する機能を有 する
ブ ィ メージ選択ユニッ ト 4 5 5 は、 W E Bサーバ計算 機グル ―プ 4 0 -1 ( # 1 ) の負荷が高い場合には、 当該ダル プに属する W E Bサーバ計算機 4 1 -11 乃至 4 1 -lp で使 用されているブ 卜イ メージ # 1 が保存されたディ スク (後 述するテイ スク D 1 ) を、 新たに当該グループに組み込まれ る P N計算機と対応付ける。 同様にブー トイ メージ選択ュニ ッ 卜 4 5 5 は、 W E Bサーバ計算機グループ 4 0 -2 ( # 2 ) の負荷が高い場合には 、 当該グループに属する W E Bサ ―バ 計算機 4 1 -21 乃至 4 1 -2q で使用 されているブー hィ メ一 ジ # 2 が保存された丁イ スク (後述するデイ スク D 2 ) を、 新たに当該グル一プに組み込まれる P N計算機と対応付ける。 同 にブー 卜ィ メーン選択ュニッ ト 4 5 5 は、 W E Bサ一パ 計算機グループ 4 0 -3 ( # 3 ) の負荷が高い場合には 当該 ダル プに属する W E , Bサーバ計算機 4 1 -31 乃至 4 1 - 3r で使用されているブー トイ メージ # 3 が保存されたディ スク
(後述する丁イ スク D 3 ) を、 新たに当該グループに組み込 まれる P N計算機と対応付ける。
本実施形 では、 W E Bサーバ計算機 4 1 -11 乃至 4 1 -lp と、 W E Bサーバ計算機 4 1 -21 乃至 4 1 -2q と、 WE Bサ ーバ計算機 4 1 -31 乃至 4 1 -3r と 、 管理サーバ計算機 4 5 と、 P N計算機 1 5 -1 乃至 1 5 -4 とは、 ス ト レージ · エリ ァ · ネッ 卜 ーク (以下、 S A Nと称する) 4 6 に接続され ている。 の S A N 4 6 には、 ス 卜 レージ装置 4 7 も接続さ れている ス ト レ一ジ装置 4 7 は、 ディ スク (ディ スク ドラ イ ブ) D 1 乃至 D 3 を備えている。 つま り 、 上記各計算機と
、ヽ、
ス 卜 レーン装置 4 7 内のディ スク D 1 乃至 D 3 とは S A N 4
6 で接続されている こ とになる。 デイ スク D l D 2及び D
3 には、 それぞれ W E Bサーバ計算機グループ 4 0 -1 乃至 4 0 -3 内の W E Bサーバ計算機で使用 されているブー トイ メージ # 1 乃至 # 3 が予め保存されている。
ス ト レ一ジ装置 4 7 は、 テーブル 4 7 0 を保持したデータ ベ一スを有する テーブル 4 7 0 は、 ス 卜 レージ装置 4 7 内 のディ スク D 1 乃至 D 3 と当該ディ スク D 1 乃至 D 3 をプ 卜ディ スク とする計算機とを対応付けた情報を記憶する 了 ィ スク D i ( i 1, 2 , 3 ) をブー トデイ スク とする計算 機とは 、 デイ スク D 1 に保存されているブー 卜ィ メ一ン 、ヾ i によつてブー 卜 (起動) されるブー 卜計算機のこ とでめる テ一ブル 4 7 0の一例を図 1 3 に示す。 この図 1 3の例で は、 テ一ブル 4 7 0 は、 ブー 卜イメージ # 1 乃至 # 3 を保存 しているデイ ス ク (ブー トディ スク) D 1 乃至 D 3 の情報
(例えばデイ スク識別子) と、 当該ディ スク D 1 乃至 D 3 に 保存されているブ — トイ メージ # 1乃至 # 3 によつてプ一卜 される計算機 (つま りディ スク D 1 乃至 D 3 をプ一卜丁ィ ス ク として使用する計算機) の情報 (例えば計算機識別子 ) と を対応付けて記憶する。 本実施形態では、 W E Bサーバ計算 機 4 1 -11 乃至 4 1 - lp の識別子は W S 1 1 乃至 W S 1 Pで あ り 、 W E Bサ一パ計算機 4 1 -21 乃至 4 1 -2q の識別子は
W S 2 1 乃至 W S 2 Qであ り 、 W E Bサ - -パ計算機 4 : 1 - 31 乃至 4 1 -3r の識別子は W S 3 1 乃至 W 3 r である ものとす る。 また、 P N計算機 1 5 -1 乃至 1 5 -4 の識別子は P 1 乃 至 P 4である ものとする。
図 9 のシステムでは、 P N計算機 1 5 - は 1 乃至 4の いずれか) をブー トイ メージ # i によ り ブー トするのに、 次 のような手順が用い られる。 まずブー トイ メージ選択ュニッ 卜 4 5 5は、 ス ト レージ装置 4 7内のデータベースに保持さ れているテーブル 4 7 0から、 ブ一 卜イ メージ # i が保存さ れているディ スク D i の識別子を検索する そしてブー 卜ィ メージ選択ュ一ッ 卜 4 5 5 はテーブル 4 7 0 を操作して、 デ イ スク D i の識別子 ( D i ) に対応付けて . 、 P N計算機 1
5 の 別子 ( P j ) を追加設疋— 9 る。 このブー 卜ィ メージ 選択ュ ―ッ 卜 4 5 5 のテープル操作によ り 、 ディ スク D i が
P N計算機 1 5 -J* のブー 卜デイ スク として師理的に接続 c れ たこ とになる つま り 、 P N計算機 1 5 -j をブー 卜するのに 使用されるブ ― hィ メ一ジ # i が保存されているディ スク D i が選択された とに /よる。
この場 αゝ P N計算機 1 5 -j は、 P N起動 Z停止ュニッ ト
1 5 3 によつて起動される と 、 S A N 4 6 を介してス 卜 レー ジ装置 4 7 に保持されているテーブル 4 7 0 から 自身の計算 機識別子 ( Ρ J ) を検索する 。 そして P N計算機 1 5 -j は、 テープル 4 7 0 内で自身の計算機識別子 ( P j ) と対応付け られているディ スクの識別子 ( D i ) から 、 自身をブー トす るのに使用すベきブ一卜ィメージ (こ こではブー 卜ィ メージ
# i ) を保存しているデイ スク D i を特定する。 そこで P N 計算機 1 5 -j はゝ 特定されたディ スク D j (つま り 自身と対 応付けられているディ スク D j ) か らブー hィ メ一ジ # i を 読み出して、 当該ブ一卜ィ メ一ジ # i で自身をブ一卜する。
したがつてテ ブル 4 7 0 上で、 例えば図 1 4 に示すよう に、 ディ スク D 1 が新たに 2 台の P N計算機 1 5 - 1 及び 1
5 -2 と対応付けられた場合、 当該計算機 1 5 - 1 及び 1 5 -2 はディ スク D 1 をブー トディ スク と して共有する こ とになる。 この場合、 P N計算機 1 5 - 1 及び 1 5 -2 は、 ディ スク D 1 3 に保存されているブー トイ メージ # 1 でブー 卜 される。
次に、 図 9 の負荷分散システムの動作について、 図 7 のシ ステムと相異する点を中心に、 図 1 0 のフローチャー ト を参 照して説明する。 まずサーバ構成管理ユニッ ト 4 5 1 は、 W E Bサーバ計算機グループを指定する変数 i を初期値 1 に設 定する (ステッ プ S 6 1 ) 。 次にサーバ構成管理ユニッ ト 4 5 1 は、 負荷分散装置 1 2 内の負荷情報取得ュニッ ト 1 2 0 から、 W E Bサーバ計算機グループ 4 0 -i ( # i ) に属する、 W E Bサーバ計算機を含む、 現在負荷分散の対象となってい る各計算機 (負荷分散対象計算機) の負荷情報 (計算機負荷 情報) を取得し、 当該グループ 4 0 -i ( # i ) 全体の負荷量 N s を求める (ステップ S 6 2 ) 。 またサーバ構成管理ュニ ッ ト 4 5 1 は、 W E Bサーバ計算機グループ 4 0 -i ( # i ) に属する、 W E Bサーバ計算機内の負荷情報取得ユニッ トを 含む、 各負荷分散対象計算機内の負荷情報取得ユニッ トから、 当該負荷分散対象計算機の負荷情報を取得し、 当該グループ 4 0 - i ( # i ) 全体の負荷量 N c を求める (ステッ プ S 6
3 ) 。 このステップ S 6 2及び S 6 3 の処理は、 変数 i で指 定されるグループ # i 全体の負荷量 N s 及び を求める点 で、 システム全体の負荷量 Ns 及び を求める図 8 中のス テツプ S 4 1 及び S 4 2 とは異なる。
サーバ構成管理ュニッ 卜 4 5 1 はグループ 4 0 -i ( # i ) 全体の負荷量 N s 及び Ne を求める と、 ステッ プ S 6 4 に進 む。 このステッ プ S 6 4 においてサーバ構成管理ュニッ ト 4 5 1 は、 テーブル 4 5 1 aのグループ 4 0 -i ( # i ) のェン U を参照して、 当該グループ 4 0 -i ( # i ) の現在の負荷 里 N S に対応する計画使用 P N計算機数 n 1 を決定する i 様にサーバ構成管理ユニッ ト 4 5 1 は、 テープル 4 5 1 aの グル ―プ 4 0 -i ( # i ) のエン ト リ 内容をも とに、 グループ
4 0 - i ( # i ) の現在の負荷量 に対応する計画使用 P N 計算機数 n 2 を決定する。 次にサーバ構成管理 ニッ ト 4 5
1 は グループ 4 0 -i ( # i ) の負荷量 N s 及び Ne にそれ ぞれ対応する計画使用 P N計算機数 n 1 及び n 2 を比較し、 多い方を、 実際に使用する計画使用 P N計算機数として選択 する
ステップ S 6 4以降の動作は、 図 8 中のステップ S 4 3 以 降の動作とほぼ同様である。 伹し、 本実施形態では、 以下の 動作が異なる。 まず、 W E Bサーバ計算機グループ 4 0 -i
( # i ) のスパイ ク状態の負荷が発生したものとする。 この 場 α その負荷を低減するために、 少なく と も 1 台の P N計 算機が 、 使用を開始する P N計算機と して P N管理ュニッ 卜
1 5 2 によって当該グループ 4 0 -i ( # i ) に割 り 当て られ る (ステツプ S 6 9 ) 。 する と本実施形態では P N管理ュ ニッ ト 1 5 2 か らブー トイ メージ選択ュニッ ト 4 5 5 に制御 が渡される。 これを受けてブー トイ メージ選択ュニッ 卜 4 5 5 は、 グループ 4 0 -i ( # i ) に割り 当てられた P N計算機 を、 当該グループ 4 0 -i ( # i ) に固有のブー トイ メージ # i が保存されているディ スク D i と対応付ける。 つま り ブー トイ メージ選択ュニッ ト 4 5 5 は、 グループ 4 0 -i ( # i ) に割り 当てられた P N計算機をブー トすべきブー トイ メージ # i (ブー トイ メージ # i が保存されているディ スク D i ) を選択する (ステップ S 7 0 ) 。
使用を開始する P N計算機をブー トすべきブー トイ メージ
# i が、 ブー トイ メージ選択ュニッ ト 4 5 5 によ り選択され る と、 P N起動/停止ユニッ ト 1 5 3 が動作する。 P N起動 /停止ユニッ ト 1 5 3 は、 P N計算機 1 5 -1 乃至 1 5 -4 の うち、 P N管理ュニッ ト 1 5 2 によって割り 当てられた P N 計算機を起動する (ステップ S 7 1 ) 。 この起動された P N 計算機は、 ブー トイ メージ選択ュニッ ト 4 5 5 のテーブル操 作によって、 当該計算機をブー トすべきブー トイ メージ # i が保存されたディ スク D i と対応付けられている。 つま り 、 起動された P N計算機をブー トすべきブー トイ メージ # i は、 ブー トイ メージ選択ユニッ ト 4 5 5 によって選択されている。 そこで、 起動された P N計算機は、 選択されたブ一 トイ メー ジ # i をディ スク D i か ら読み出してブー トを実行する。
P N起動/停止ュニッ ト 1 5 3 によって P N計算機が起動 される と、 設定変更ユニッ ト 1 5 4 は、 当該起動された P N 計算機が W E Bサーバ計算機グループ 4 0 -i ( # i ) に属し、 且つ当該グループ 4 0 -i ( # i ) 内の他の計算機と共に負荷 分散の対象計算機となるよう に、 負荷分散装置 1 2 を制御す る (ステップ S 7 2 ) 。 ここで、 ステップ S 7 1 及び S 7 2 の順番は逆でも構わない。
サーバ構成管理ュニッ ト 4 5 1 は、 設定変更ュニッ ト 1 5 4の制御によ り 負荷分散装置 1 2 による負荷分散の対象が変 更される と、 一定時間を待った後 (ステップ S 6 6 ) 、 処理 対象となる W E Bサーバ計算機グループを切り替 る (ステ
Vプ S 6 7 ) W E Bサーバ計算機グループがグル プ # 1 乃至 # 3 の 3 グループの本実施形態では、 現在のグループが グル —プ # 1 であればグループ # 2 に、 グループ 2 であれ ばグループ井 3 に、 そしてグループ # 3 であればグループ #
1 に 、 それぞれ切り替えられる。 そして、 切り替え後の W E
Bサーバ計算機グループを対象に、 ステツプ S 6 2 から処理 が繰り返される
のよう に本実施形態においては、 システム内の各 W E B サ バ計算機で実行されるブー トイ メージの種類によつて 当該 W E Bサーバ計算機が、 W E Bサーバ計算機グル プ 4
0 - 1 ( # 1 ) 乃至 4 0 -3 ( # 3 ) にグループ分けされる そ して 、 グループ 4 0 - 1 ( # 1 ) 乃至 4 0 - 3 ( # 3 ) のう ちの いずれかのグループ 4 0 - i ( # i ) でスパイ ク状 の負 が 発生した場合に、 P N計算機 1 5 - 1 乃至 1 5 -4 の中から 択された P N計算機に、 当該グループ 4 0 -i ( # i ) に固有 のブ トイ メ ジ # i (ブー トイ メージ # i が保存されたテ ィ スク D 1 ) が対応付けられる。 これによ り 、 選択された P
N計算機をグループ 4 0 -i ( # i ) に属する負荷分散対象計 算機として起動する ことができる。 このため、 P N計算機 1
5 - 1 乃至 1 5 -4 を有効に利用できる。
[第 4 の実施形態の変形例]
図 9 のシステムでは、 ス ト レージ装置 4 7 内のティ スク D i を使用 して P N計算機 1 5 -j をブー トィ メーン i でブ 卜する構成が適用されている。 しかし、 P N計算機 i 1 5 -j をブ―卜ィメ一ジ # 1 でブー 卜するのに、 ス ト レージ装 » 4
7 内の丁ィ スク D i は必ずしも必要でない。 そこで、 ス レ 一ジ 置 4 7 内のディ スク D i を使用 しなく ても 、 P N計算 機 1 5 - j をブー トイ メージ # i でブー トする こ とを可能とす る 、 第 4 の実施形態の変形例について、 図 1 5 のブ口 V ク構 成図を 照して説明する。 なお、 図 9 と等価な構成要素には
―符号を付してある。
図 1 5 では 、 W E Bサーバ計算機 4 1 -11 と、 P N計算機
1 5 - 1 とが入出力バス (外部入出力バス) 5 1 に接続され ている W E Bサーバ計算機 4 1 -11 は、 W E Bサーバ計算 機グル一プ 4 0 -1 に属する (図 9 参照) 。 図 1 5 では 略 されているが 、 W E Bサーバ計算機グループ 4 0 -1 に属す る W E Bサ一バ計算機 4 1 -11 以外のサーバ計算機、 他の W
E Bサ ―バ計算機グループ 4 0 -2 及び 4 0 -3 に属する各サ 一パ計算機 、 及び P N計算機 1 5 -1 以外の P N計算機 入 出力バス 5 1 に接続されている。
計算機 4 1 -11 及び 1 5 -1 は、 それぞれ、 C P U 5 2 a及 び 5 2 b と 、 ローカルディ ス ク (ローカルディ スク ドヽ ラィ ブ ) 5 3 a及び 5 3 b と、 入出力バス (内部入出カバス ) 5
4 a及び 5 4 b とを備えている。 計算機 4 1 -11 内の口一力 ル了ィ スク 5 3 a には、 当該計算機 4 1 -11 をブ一卜するの に用いられる 、 W E Bサーバ計算機グループ 4 0 -1 ( # 1 ) に固有のブ ―トイ メージ # 1 が保存されている。 C P U 5 2 a と Π一力ルディ スク 5 3 a とは入出力バス 5 4 a に て 相互接 され 、 C P U 5 2 b とローカルディ スク 5 3 b とは 入出力バス 5 4 b によって相互接続されている た a 力ルテイ スク 5 3 a及び 5 3 b は入出力ノ ス 5 1 と接 され ている 。 また、 入出力バス 5 4 a及び 5 4 b ¾入出力バス 5
1 と接続されている。
今 図 1 5 中の P N計算機 1 5 -1 が、 図 9 に示されてい る W E Bサーバ計算機グループ 4 0 -1 に割 り 当てられた のとする。 この場合、 図 9 に示されているブ 卜ィメ ン選 択 3. ッ ト 4 5 5 は、 グループ 4 0 - 1 に属する W E Bサ バ計算機 4 1 -11 乃至 4 1 -lp のう ちのいずれかのサ 計 算機 例えば W E Bサーバ計算機 4 1 -11 に対し、 P N計算 機 1 5 - 1 へのブー 卜イ メージのコ ピーを要求する の とは P N計算機 1 5 -1 をブー トするためのブ hィ メ ンと して、 グループ 4 0 - 1 に属する W E Bサ ハ、計算機 4
1 -11 内のローカルディ スク 5 3 a に保存されているブ h ィ メ ジ # 1 が選択されたこ とを表す。 このとぎ P N計算機
1 5 - 1 は未だ起動されていない。
W E Bサーバ計算機 4 1 -11 内の C P U 5 2 a は ブ 卜 ィ メ ジ選択ュニッ ト 4 5 5 か らのコ ピー要求に従い 当該 計算機 4 1 -11 内のローカルディ スク 5 3 a に保存されてい るブ トイ メージ # 1 を読み出して、 入出力バス 5 1 を介し て P N計算機 1 5 -1 のローカルディ スク 5 3 b に 3 ピ す る の W E Bサーバ計算機 4 1 -11 内の C P U 5 2 a の ピ 動作によって、 P N計算機 1 5 -1 が起動されていない 状況でも、 当該 P N計算機 1 5 -1 のロー力ルディ スク 5 3 b にブー トイ メージ # 1 をコ ピーできる。 ク ラス夕計算 や ブレ一 サーバ計算機の多く は、 このような機能を持つてい
さて 、 上述のブー トイ メージ # 1 のコ ピーが完了する と 、 図 9 に示されている P N起動/停止ユニッ ト 1 5 3 は P N計 算機 1 5 -1 を起動する。 する と P N計算機 1 5 -1 は、 自身 の Π一力ルディ スク 5 3 b にコ ピーされているブー トイ メ一
、ヽ、
ン # 1 を用いて自身をプ一 卜する。 更に詳細に述べるならば、
Ρ Ν計算機 1 5 -1 内の C P U 5 2 b は、 入出力バス 5 4 b を介して 、 ローカルディ スク 5 3 bから当該ディ スク 5 3 b にコ ピ されているブー トイ メージ # 1 を読み出してブ h する。 なお、 図 1 5では、 計算機 4 1 -11 及び 1 5 -1 の内部 にそれぞれ入出力バス 5 4 a及び 5 4 bが設けられる と共に、 計算機 4 1 -11 及び 1 5 -1 の外部に入出力バス 5 1 が設けら れている 。 しかし、 このようなバス構成は一例である。 要す るに、 ブー トイ メージが保存されたローカルディ スク 5 3 a を有する計算機 4 1 -11 が、 起動状態にない計算機 1 5 - -1 に 含まれている ローカルディ スク 5 3 b に対して、 ブー トィ メ ジ (丁一夕) を直接または間接にコ ピーできさえすればよ い、
[第 5 の実施形態]
図 1 6 は本発明の第 5 の実施形態に係る負荷分散システム の構成を示すブロ ック図である。 なお、 図 9 と等価な構成要 素には 一符号を付してある。 この図 1 6 のシステムの特徴 は 、 複数 、 例えば 4つの異なる運用母体 (例えば、 異なる 社) の W E Bサーバサイ ト 5 0 -1 乃至 5 0 -4 を備える と dh に、 当該 W E Bサーバサイ ト 5 0 -1 乃至 5 0 -4 で共通に利 用可能な予備のサイ トである共有プロビジョ ニングノー ド計 算機サイ ト (以下、 共有 P N計算機サイ ト と称する) 6 0 を 備えた点にある。
W E Bサーバサイ ト 5 0 -1 は、 図 9 のシステムか ら P N 計算機 1 5 -1 乃至 1 5 -4、 S A N 4 6及びス ト レ一ジ装置 4 7 -1 乃至 4 7 -3 を除いた構成要素と同様の要素を備えてい る。 即ち W E Bサーバサイ ト 5 0 -1 は、 負荷分散装置 1 2 と、 例えば 3 つの W E Bサーバ計算機グループ 4 0 -1 乃至
4 0 -3 と、 図 9 中の管理サーバ計算機 4 5 に相当する管理 サーバ計算機 5 5 とを備えている。 管理サーバ計算機 5 5 上 では管理サーバ 5 5 0 が動作する。 管理サーバ 5 5 0 は、 サ ーパ構成管理ュニッ ト 5 5 1 及び設定変更ュニッ ト 1 5 4 を 含む。 残 り の W E Bサーバサイ ト 5 0 -2 乃至 5 0 -4 も W E Bサーバサイ ト 5 0 -1 と同様の構成 (図示せず) を備えて いる。 なお、 各 W E Bサーバサイ ト 5 0 -1 乃至 5 0 -4 にお ける、 W E Bサーバ計算機グループの数、 当該グループ内の W E Bサーバ計算機の数等は等しいとは限らない。 但し、 本 実施形態では説明を簡略化するために、 W E Bサーバサイ ト
5 0 -1 乃至 5 0 -4 内の各 W E Bサーバ計算機グループは、 ブー トイ メージ # 1 乃至 # 3 のいずれかに対応するものとす る。
管理サーバ 5 5 0 内のサーバ構成管理ュニッ ト 5 5 1 は、 図 9 中のサ一バ構成管理ュニッ 卜 4 5 1 と同様に、 W E Bサ ーバ計算機グループ 4 0 -i ( # i ) 全体の負荷量 N s 及び N C を求める機能を有する。 またサーバ構成管理ュニッ ト 5 5 1 は、 図 9 中のサーバ構成管理ユニッ ト 4 5 1 と同様に、 図 1 2 に示したデータ構造のテーブル 4 5 1 a と負荷量 N s 及 び N e とに基づいて、 使用を開始または使用を停止すべき P N計算機の数を決定する機能を有する。 サーバ構成管理ュニ ッ ト 5 5 1 は更に、 自身が決定した数の P N計算機の使用開 始または使用停止を、 共有 P N計算機サイ ト 6 0 の後述する 管理サーバ 6 5 0 に依頼 (要求) する機能を有する。
一方、 共有 P N計算機サイ ト 6 0 は、 P N計算機 1 5 -1 乃至 1 5 -4 と、 ス ト レージ装置 4 7 とを備えている。 ス ト レージ装置 4 7 は、 図 9 のシステムで用い られる場合と同様 に、 ブー トイ メージ # 1 乃至 # 3 が保存されたディ スク D 1 乃至 D 3 と、 テーブル 4 7 0 を保持するデータベースとを備 えている。 P N計算機 1 5 -1 乃至 1 5 -4 とス ト レージ装置 4 7 とは S A N 4 6 によ り相互接続されている。 この構成に よ り、 P N計算機 1 5 -1 乃至 1 5 -4 のう ちの任意の P N計 算機を、 ブー トイ メージ # 1 乃至 # 3 のう ちのいずれかでブ — 卜できる。
P N計算機 1 5 -1 乃至 1 5 -4 は、 ネッ ト ワーク 7 0 によ り 、 W E Bサーバサイ ト 5 0 -1 に設けられた負荷分散装置 1 2、 管理サーバ計算機 5 5 、 及び W E Bサーバ計算機ダル —プ 4 0 - 1 乃至 4 0 -3 (グループ 4 0 -1 乃至 4 0 -3 内の各 W E Bサーバ計算機) とも接続されている。 また、 P N計算 機 1 5 -1 乃至 1 5 -4 は、 ネッ ト ワーク 7 0 によ り、 他の W E Bサーバサイ ト 5 0 -2 乃至 5 0 -4 に設けられた負荷分散 装置、 管理サーバ計算機及び W E Bサーバ計算機グループ (いずれも図示せず) とも接続されている。 これによ り 、 任 意の P N計算機を、 任意の W E Bサーバサイ ト内の任意の W E Bサーバ計算機グループに属する負荷分散対象計算機とし て割り 当てる こ ともできる。
そこで、 共有 P N計算機サイ ト 6 0 には、 各運用母体の W E Bサーバサイ 卜 5 0 - 1 乃至 5 0 -4 か らのプロ ビジョ ニン グノー ド使用開始依頼 (使用開始要求) 及び使用終了依頼
(使用終了要求 ) を処理するための管理サーバ計算機 6 5が 設けられている の管理サーバ計算機 6 5 もネッ ト ワーク
7 0及び S A N 4 6 に接続されている。 管理サーバ計算機 6
5 上では、 プ口 ビン ニングノー ド使用開始依頼及び使用終 了依頼を処理する機能を有する管理サーバ 6 5 0 が動作する 管理サーバ 6 5 0 は P N管理ュニッ 卜 (プロ ビジョニング ノー ド管理ュ ―ッ 卜 ) 6 5 2 P N起動 Z停止ュニッ ト 1 5
3 、 及びブ一 卜ィ メ ジ選択ュニッ 卜 4 5 5 の各機能要素を 含む。
P N管理ュ一ッ 6 5 2 は、 P N計算機 1 5 - 1 乃至 1 5 -4 の使用状況を管理する機能を有する P N管理ユニッ ト 6 5
2 はまた、 W E Bサ バサイ 卜 5 0 - 1 乃至 5 0 -4 か らのプ 口 ビジョ ニングノ ド、使用開始依頼または使用終了依頼を受 け付け、 その依頼を処理するために P N起動 停止ュニッ 卜
1 5 3 、 更にはブ ——卜イ メージ選択ユニッ ト 4 5 5 を制御す る機能を有する
P N管理ュ ッ 卜 6 5 2 は、 図 1 9 に示すデータ構造のレ 4 コー ド フ アイル 6 5 2 a を保持している。 このレコー ドフ ァ ィル 6 5 2 a には、 P N計算機利用 レコー ドが保存される。 各レコー ド には、 W E Bサ一パサイ 卜 5 0 - 1 乃至 5 0 -4 か らの要求で起動された P N計算機の利用状況を示す情報が記 録される。 具体的には、 P N計算機利用 レコー ドは、 項目 (フィ 一ル ド) 8 1 乃至 8 4 を含む 項目 8 1 は、 P N計算 機が起動された時刻 (つま Ό起動開始時刻) を記録するのに 用い られる 。 項目 8 2 は 、 P N計算機が停止された時刻 (つ ま り起動終了時刻) を gd録するのに用いられる 。 この項目 8 1 及び 8 2 にそれぞれ gd録さ な fc動開始時刻及び起動終了 時刻によ り 、 P N計算機が起動している時間 (起動時間) が 示される 項目 8 3 は 、 P N計算機を識別するための情報、 例えばプ U ビジ a 二ングノ ■ ~~ ド識別子を記録するのに用いら れる。 項巨 8 4 は、 項巨 8 3 に記録さ ·)し る s c別子で示される プ口 ビシ 3 二ングノ を使用 した W E Bサ ■ ~パサイ トの情 報を記録するのに用い られる /よお 、 レコー フ ァイル 6 5 2 a 保存される各レ 一 には、 図 1 9 に示した形式以外 にも、 グ形式等、 様々な形式を用いる こ とができる。 また 起動開始時刻と起動終了時刻の情報を 、 別のレコー ドとして 記録する し とも可能である また、 P N計算機が起動してい る時間の代わ り に、 P N計算機が停止している時間 (停止時 間) を す情報がレコ一 に記録される構成と してもよい。
次に 図 1 6 の負荷分散システムの動作について、 図 9 の システ と相異するハ占、、を中心に、 図 1 7 及び図 1 8 のフ ロー チヤ一 を参照 して説明する。 W E Bサーバサイ ト 5 0 - 1 の管理サーバ計算機 5 5上で動作するサーバ構成管理ュニッ ト 5 5 1 は、 まず図 1 0 中のステップ S 6 1 乃至 S 6 5 と同 様の処理 (ステップ S 8 1 乃至 S 8 5 ) を実行する。 即ちサ ーバ構成管理ユニッ ト 5 5 1 は、 変数 i を初期値 1 に設定し た後 (ステップ S 8 1 ) 、 当該変数 i によ り指定される W E Bサーバ計算機グループ 4 0 -i ( # i ) 全体の負荷量 N s 及 び N c を求める (ステップ S 8 2, S 8 3 ) 。 次にサーバ構 成管理ュニッ ト 5 5 1 は、 テーブル 4 5 1 a を参照して、 グ ループ 4 0 -i ( # i ) の現在の負荷量 N s 及び N e にそれぞ れ対応する計画使用 P N計算機数 n 1 及び n 2 を決定する (ステッ プ S 8 3 ) 。 このステップ S 8 3 において、 サーバ 構成管理ュニッ ト 5 5 1 は、 負荷量 N s 及び N c にそれぞれ 対応する計画使用 P N計算機数 n l 及び n 2 のう ち、 計算機 数が多い方を、 実際に使用する計画使用 P N計算機数と して 選択する。 次にサーバ構成管理ユニッ ト 5 5 1 は、 選択した 計画使用 P N計算機数と、 現在使用中の P N計算機数とを比 較する (ステッ プ S 8 5 ) 。 この現在使用中の P N計算機数 は、 共有 P N計算機サイ 卜 6 0 の P N管理ユニッ ト 6 5 2 に よって管理されている。
も し、 両計算機数が等しいならば、 サーバ構成管理ュニッ ト 5 5 1 は一定時間を待った後 (ステップ S 8 6 ) 、 変数 i を操作して W E Bサーバ計算機グループを切り替える (ステ ッ プ S 8 7 ) 。 これによ り、 切り替え後の W E Bサーバ計算 機グループを対象に、 ステップ S 8 2 から処理が繰り返され る。 これに対し、 計画使用 P N計算機数の方が多いならば (ス テツプ S 8 5 ) サーバ構成管理ュニッ ト 5 5 1 は 、 新たに
P N計算機を負荷分散の対象計算機として割り 当てる必要が ある と判断する。 の場合、 サーバ構成管理ュ ッ 卜 5 5 1 は、 共有 P N計算機サイ ト 6 0 に設けられた、 P N計算機管 理のための管理サ バ計算機 6 5上の管理サーパ 6 5 0 に、 上記両計算機数の差分 N dの数の P N計算機の使用開始をネ ッ 卜ワーク 7 0 を介して依頼する (ステッ プ S 8 8 ) o
また、 計画使用 P N計算機数の方が現在使用中の P N計算 機の数よ り少ないな らば (ステップ S 8 5 ) サ バ構成管 理ユニッ ト 5 5 1 は 、 両計算機数の差分 N の数の P N計算 機の使用を終了させる必要がある と判断する。 の場合、 サ ーバ構成管理ュニ V 卜 5 5 1 は、 管理サーバ計算機 6 5 上の 管理サーバ 6 5 0 に 、 上記 N d の数の P N計算機の使用終了 をネッ ト ワーク 7 0 を介して依頼する (ステツ プ S 9 1
さて、 管理サーパ 6 5 0 内の P N管理ュニッ 卜 6 5 2 は、
W E Bサーバサイ 5 0 - 1 乃至 5 0 -4 か らの依頼 ( P N計 算機の使用開始または使用終了の依頼) を待つている (ステ ップ S 1 0 1 ) のような状態で、 P N管理ュ ッ 卜 0 5
2 が、 例えば W E Bサーバサイ ト 5 0 - 1 に設け られた管理 サーバ計算機 5 5 上の管理サーバ 5 5 0 か らの依頼を受信し たものとする。 この場合、 P N管理ユニッ ト 6 5 2 は、 受信 した依頼の種類が P N計算機の使用開始依頼であるか、 或 いは使用終了依頼であるかを判別する (ステツ プ S 1 0 2 ) も し、 P N計算機の使用開始依頼である場合 P N管理ュ ニッ ト 6 5 2 は、 P N計算機 1 5 -1 乃至 1 5 -4 の中に、 使 用可能な P N計算機が存在するか否かを調べる (ステッ プ S
1 0 3 ) も し 、 使用可能な P N計算機が存在するならば、
P N管理 一ッ 6 5 2 は、 P N計算機を使用を開始する計 算機として割 Ό 当てる (ステップ S 1 0 4 ) 。
管理サ バ 6 5 0 内のブー トイ メージ選択ュニッ 卜 4 5 5 は、 P N管理 一ッ ト 6 5 2 によって割り 当てられた P N計 算機を、 ブ hィ メージ # i が保存されているディ スク D i と対応付ける つま り ブー トイ メージ選択ュニッ 卜 4 5 5は、
P N管理 V 卜 6 5 2 によって割り 当てられた P N計算機 をブー 卜すべきブー トイ メージ #.i (ブー トィ メージ # i が 保存されているデイ スク D i ) を選択する (ステツプ S 1 0
5 ) 。 する と、 管理サーバ 6 5 0 内の P N起動 Z停止ュニッ 卜 1 5 3が動作する。 P N起動 Z停止ユニッ ト 1 5 3は、 P N計算機 1 5 -1 乃至 1 5 -4 のう ち、 P N管理 α.二ッ 卜 6 5 2 によって割 り 当てられた P N計算機を起動する (ステッ プ
S 1 0 6 ) の起動された P N計算機は、 ブ ― 卜ィ メ一ジ 選択ュ一 V h 4 5 5 によって、 当該計算機をブ一 卜すベきブ
— 卜ィ メ ン # i が保存されたディ スク D i と対応付けられ ている そしで 、 起動された P N計算機は、 当該計算機と対 応付けられているディ スク D i に保存されたブ一 卜ィメ一ジ
# i を み出してブー ト を実行する。
P N管理 一ッ 卜 6 5 2は、 使用を開始する計算機と して 割り 当てた Ρ N計算機が起動される と、 レコー ドファィル 6
5 2 aに 、 その際の時刻である起動開始時刻と 、 起 ftされた P N計算機の識別子 (プロビジョ ニングノー ド識別子) と、 当該 P N計算機を使用する W E Bサーバサイ ト (こ こでは W E Bサーバサイ ト 5 0 -1) を示す情報とが記録されたレコー ドを保存する (ステップ S 1 0 7 ) 。 こ こで、 W E Bサーバ サイ トを示す情報には、 当該サイ 卜の ドメイ ン名が用いられ る。 この ド メイ ン名 と I P ( Internet Protocol) ア ド レス と は、 図示せぬ D N S ( Domain Name System) によって対応 付けられる。 '
P N管理ュニッ ト 6 5 2 はステッ プ S 1 0 7 を実行する と、 W E Bサーバサイ 卜 5 0 -1 の管理サ一バ 5 5 0 か らの依頼 ( P N計算機の使用開始依頼) に対する処理の結果を、 当該 管理サーバ 5 5 0 にネッ トワーク 7 0 を介して通知する (ス テツプ S 1 0 8 ) 。
一方、 使用可能な P N計算機が存在しないならば (ステツ プ S 1 0 3 ) 、 P N管理ユニッ ト 6 5 2 は、 その旨を、 P N 計算機の使用 開始の依頼元 (W E Bサーバサイ ト 5 0 -1 の 管理サーバ 5 5 0 ) に通知する (ステップ S 1 0 8 ) 。
また、 W E Bサーバサイ ト 5 0 - 1 の管理サーバ 5 5 0 か らの依頼が、 P N計算機の使用終了依頼であるならば (ステ ップ S 1 0 2 ) 、 P N管理ユニッ ト 6 5 2 は、 現在使用中の P N計算機の中から、 使用を終了させる P N計算機を決定す る (ステッ プ S 1 0 9 ) 。 P N起動 停止ユニッ ト 1 5 3 は、 P N管理ュニッ ト 6 5 2 によって使用終了が決定された P N 計算機を停止する (ステップ S 1 1 0 ) 。 する と P N管理ュ ニッ ト 6 5 2 は、 レコー ドフ ァイル 6 5 2 a の中から、 停止 された P N計算機の識別子が記録され、 且つ起動終了時刻の 項目 8 2 が空欄となっている レコー ドを検索し、 当該レコー ド中の項目 8 2 に現在時刻を起動終了時刻と して記録する
(ステップ S 1 1 1 ) 。 そして P N管理ユニッ ト 6 5 2 は、 W E Bサーバサイ ト 5 0 -1 の管理サーバ 5 5 0 か らの依頼
( P N計算機の使用終了依頼) に対する処理の結果を、 当該 管理サーバ 5 5 0 にネッ 卜ワーク Ί 0 を介して通知する (ス テツプ S 1 0 8 ) 。
W E Bサーバサイ ト 5 0 -1 の管理サーバ 5 5 0 内のサ一 バ構成管理ュニッ 卜 5 5 1 は、 共有 P N計算機サイ 6 0 の 管理サーバ 6 5 0 に対して P N計算機使用開始を依頼した場 合 (ステップ S 8 8 ) 、 当該管理サーバ 6 5 0 内の P N管理 ユニッ ト 6 5 2 か ら処理の結果が通知されるのを待 。 そし て、 P N計算機使用開始依頼に対する結果が通知される と、 サーバ構成管理ュニッ 卜 5 5 1 は、 その結果か ら依頼が成功 したか否かを判定する (ステツプ S 8 9 ) 。 もし 、 成功なら ば、 P N管理ュニッ 卜 6 5 2 は設定変更ュニッ h 1 5 4 に制 御を渡す。 する と設定変更ユニッ ト 1 5 4 は、 P N計算機使 用開始依頼に応じて起動された P N計算機が、 W E Bサ一バ 計算機グループ 4 0 - i ( # i ) 内での負荷分散の対象となる 負荷分散対象計算機として追加されるよう に、 負荷分散装置
1 2 を制御する (スアツ ノ S 9 0 ) 。
このよう に本実施形態においては、 4つの異なる運用母体 の W E Bサーバサイ ト 5 0 -1 乃至 5 0 -4 は、 共有 P N計算 機サイ ト (予備サイ ト) 6 0 の P N計算機を利用する こ とが できる。 また、 レコー ドファイル 6 5 2 a を、 P N計算機を 利用 した運用母体に対する課金等の情報に適用する こ とがで きる。
本実施形態では、 各 W E Bサーバサイ ト 5 0 -1 乃至 5 0 -4 内の複数の W E Bサーバ計算機が、 当該計算機で実行される ブー トイ メージの種類毎にグループ分けして管理される こと を前提と している。 しか し、 各 W E Bサーバサィ 卜 5 0 -1 乃至 5 0 -4 において、 当該サーバサイ ト内の全ての W E B サーバ計算機がいずれも同じ種類のブー トイ メ一ジを実行す る構成であっても構わない。 この場合、 各 W E Bサーパサイ 卜 5 0 -1 乃至 5 0 -4 内の W E Bサーバ計算機のダル ―プ分 けは不要となる。 また、 いずれの W E Bサーバサイ ト 5 0 -1 乃至 5 0 -4 の W E Bサーバ計算機も同じ種類のブ一 hィ メ ジを実行する構成であるな らば、 共有 P N計算機サイ h 6
0 内のス ト レージ装置 4 7及びブー トイメージ選択ュ一ッ 卜
4 5 5 も不要となる。 また、 専用の負荷分散装置 1 2 に代え て 、 D N S ( Domain Name System) のラウ ン 口 ビン機能 を負荷分散装置として利用する こ とも可能である しのこ と は 、 第 1 乃至第 4 の実施形態で適用された負荷分散装置につ いても同様である。 D N S ラウン ドロ ビン機能とは、 ドヽメィ ン名と I Pア ドレスを対応付ける D N S を応用 して、 ァクセ スの多いサーバの負荷分散を行う機能である。 具体的には、
1 つの ドメイ ン名に複数の I P ア ド レスを割り 当てて 、 問い 合わせがある度に順番に答える こ とによ り、 1 台の計算機へ アクセスが集中するのを防ぐ機能である。 なお 本発明 D 5¾施形態そのままに限定される の ではな < 、 実施段階ではその要旨を逸脱しなぃ範囲で構成要 素を変形して 体化できる 、 ρϋ実施形態に開示され ている複数の構成要素の適宜な組み合せによ り種々の発明を 形成できる。 例えば、 実施形態に示される全構成要素から幺¾ つかの構成要素を削除してもよい。 更に 異なる実施形能に 亘る構成要素を適宜組み合せてもよい。
産業上の利用可能性
本発明によれば、 突然のスパイ ク現象が発生しても 予備 の計算機が起動されて新たに負荷分散の対象計算機として使 用される た 、 スパイ ク現象が収まつた場合には 起動さ れていた予備計算機が負荷分散の対象外となる と に停止さ れる のため 、 常時多く のサーバ計算機を起動させてお < とな < 、 予測の困難な突然のスパイ ク現象に容易に対処す る こ とができる

Claims

求 の 範
1 . 貞荷分散システム、 lu d負荷分散ンステムは、 複数のク ラィァン 計算機からのリ クェス 卜を処理する複 数のサ一バ計算機でめつて、 当該サーパ計算機が実行するォ ペレーティ ングシステムを含むブー 卜ィ メ一ンの種類の相異 によ り複数のサ一パ計 機グル一プに分けて管理される複数 算
のサーバ計算機と、
m記 ¾数のク ラィァン 卜計算機からの U クェス 卜 を刖記 ¾ 数のサ一パ計算機を含む複数の負荷分散対 算機に分配す 象
るよう に構成された負荷分散装置と、
負荷分散対象計算機と して用いる こ とが可能な予備計算機 であって 、 当該負荷分散対象計算機として用い られる際に起 動される予備 算機と 、
刖記儍数のサ一パ計算機グループ各々 のグル プを単位に、 m ¾数のサ一バ計算機のう ちの当該グル一プ内のサ一バ計 算機を含む全ての負荷分散対象計算機の負荷量に基づいて、 新たに負荷分散対象計算機と して使用を開始すベさ、 または 負荷分散対象 η Γ算機としての使用を終了すべき予備計算機の 台数を決定するよう に構成されたサ一バ構成管理 α.二ッ 卜 と、 前記予備計算機の使用状況を管理するよう に構成された予 備計算機管理 二ッ 卜であつて、 前記グル一プを単位に前記 サ一バ構成管理ュ二 、ソ 卜によつて決定された台数の、 当該グ ル一プで新たに負荷分散対象計算機として使用を開始すべき、 または負荷分散対象計算機と しての使用を終了すベき予備計 算機を決や疋する予備計 機管理 ニッ 卜 と、 前記予備計算機管理ュニッ トによって決定された予備計算 機を起動または停止するよう に構成された予備計算機起動 Z 停止ュニッ 卜 と、
前記予備計算機管理ュニッ 卜 によって決定された予備計算 機を、 前記負荷分散装置による負荷分散の対象となる負荷分 散対象計算機として追加する、 または前記負荷分散装置によ る負荷分散の対象から除外するよう に構成された設定変更ュ ニッ ト と、
前記複数種類のブー トイメージの中から、 前記予備計算機 管理ュニッ 卜によって決定された予備計算機をブー トすべき ブー トイ メージとして、 当該決定された予備計算機が前記負 荷分散対象計算機として使用を開始されるサーバ計算機ダル —プに固有のブー トイ メージを選択するよう に構成されたブ 一卜イ メージ選択ュニッ ト と
を具備し、
前記予備計算機は、 前記予備計算機起動 Z停止ユニッ トに よって起動された場合、 前記ブー トイ メージ選択ユニッ トに よって選択されたブー トイメージでブー 卜される。
2 . 請求項 1 に従う負荷分散システムにおいて、 前記複数種類のブー トイメージをそれぞれ個別に記憶する 複数のブー 卜イ メージ記憶ュニッ 卜 と、
前記複数のブー 卜イメージ記憶ュニッ 卜の各々 と当該ブー トイ メージ記憶ュニッ ト に記憶されているブ一 卜イメージで ブー 卜 される計算機とを対応付ける情報を記憶する対応情報 記憶ュニッ ト と を更に具備し、
ύブ 卜ィ メ ン選択ュ ッ 卜は、 刖記複数のブー トイ メージ記憶ュ二ッ のう ち、 刖 d -f 備 §十算機管理ュニッ 卜に よって決定された予備計算機が刖 己負荷分散対象計算機とし て使用されるサーバ計算機グル プに固有のブー 卜イ メージ が記憶されたブ ィ メ ジ記憶 ニッ 卜に BU ci予備計 機管理ュ二ッ 卜によ て決定された予備計算機を、 前記対応 情報記憶 二ッ 卜によ て対応付ける こ とによ り 、 当該予備 計算機をブ 卜す きブ ― 卜ィ メージを選択し、
m 0己丁備計算機は 記予備計算機起動 /停止ュニッ 卜に よって起動された場 刖 ブ トイ メ ン選択ュニッ 卜に っ て選択されたブ ィメ ―ジである 前記対応情報記憶 ユニッ トによつて当該予備計算機と対応付けられているブー トイ メ一ジ 憶ュ ッ hからブ — 卜ィ メ ンを読み出して自 身をブー 卜する。
3 . 請求項 1 に従う負 W分散シス丁ムにおいて、 刖 B己複数のサーバ計算機及ぴ刖記予備計算機は、 それぞれ 自身をブ ― 卜するのに用レ られるブ ― ィ メージを記憶する ブー 卜 ィ メ ン 憶ュ二 V 卜 を有し
m記ブ 卜ィ メ ジ選択ュ ッ 卜は 刖記予備計算機管理 ユニッ トによつて決定された予備計算機が刖記負荷分散対象 計算機として使用を開始されるサ バ計算機グループ内の任 意のサーバ計算機に対し 、 当該任 の計算機が有する前記プ 卜ィ メ ―ジ し fe 二ッ 卜か ら刖記予備計算機管理ュニッ 卜 によって決定された 備計莨機へのブ 卜ィ メージのコ ピー を要求する こ とによ り、 当該予備計算機をブー 卜すべきブー 卜ィ メ ジを選択し、
刖 ø己複数のサーバ計算機の各々 は m記ブー 卜ィメージ 択ュニ V 卜によつてコ ピ が要求された場 当該ブー 卜ィ メージ選択ュニッ 卜によつて選択されたブ 卜ィ メージであ る、 自身が有する si己ブー ィ メ一ン B己憶ュ二ッ 卜に記憶さ れているブー 卜ィ メ ジを 刖 ed予備計算機管理ュニッ 卜に よって決定された卞備計算機が有す 刖記ブ 卜ィ メージ ci 憶ュニ V 卜にコ ピ一する
4 . 請求項 1 に従う負荷分散システムにおいて
刖記複数のサーバ計算機グループに分けて管理される前記 複数のサーバ計算機、 前記負荷分散装置 前記サ パ構成管 理ュニッ 卜及び刖 口し 又定変更ュ ニ ッ 卜の組をそれぞれ備えた 複数のサ —パサイ 卜 と
刖目 d予備計算機 、 刖記予備計算機管理ュ二ッ 卜 刖 B0予備 計算機起動 Z停止 二 V 卜 刖記ブ 卜ィ メ ジ選択:!ニッ 卜及び刖記複数のブー 卜ィ メージ記憶ュ ッ 卜の組を備えた 予備サイ 卜 と、
前記複数のサーバサイ 卜 と前記予備サイ ト とを接続するネ ッ トヮ一ク と
を更に具備し、
前記複数のサーバサイ トの各々 にそれぞれ含まれている前 記サーバ構成管理ユニッ トは、 前記グループを単位に、 新た に負荷分散対象計算機として使用を開始すべき、 または負荷 分散対象計算機としての使用を終了すべき予備計算機の台数 を決定した場合 当該グル プでの予備計 機の使用開始ま たは使用終了を 記予備サイ に刖 ; V 卜 7 ク を介して 要求し、
刖 ed予備サイ 卜内の前記予備計算機管理 ヅ 卜は 刖 己 サーバサイ 卜内の 記サーバ構成管理ュ ッ 卜からの予備計 算機の使用開始または使用終了の要求に応じて 当該サ バ 構成管理ュ二ッ 卜によって決定された台数の予備計算機であ つて、 当該サーバ構成管理ュ ―ッ hが存在するサ パサイ 卜 内の、 当該サーバ構成管理ュ ―ッ hから要求されたグループ で新たに負荷分散対象計算機と して使用を開始すベき また は負荷分散対象計算機と しての使用を終了すベさ予備計算機 を決定する
5 求項 4 に従う負荷分散システムにおいて
m記予備サイ 内の刖記予備計算機管理ュ ッ 卜は 前記 複数のサーパサイ 卜にそれぞれ含まれている刖 サ バ構成 管理ュニッ 卜によつて決定された台数の予備計算機が起動ま たは停止された場 a に、 当該予備計算機の起動時刻または停 止時刻を表す情報 当該予備計算機を表す情報及び当該サー パサイ トを表す情報の組を記録する
6 . 負荷分散システム、 刖記負荷分散システムは 複数のク ラィ ァン ト計算機か らの U クェス を処理する複 数のサーバ計算機と
刖 複数のク ラィ アン 卜計算機か らの クェス を刖 し 数のサーバ計算機を含む複数の 荷分散対象計算機に分配す るよう に構成された負荷分散壮置と 負荷分散対象計算機と して用いる ことが可能な予備計算機 であって 、 当該負荷分散対象計 機として用い られる際に起 動される予備計算機と、
刖 d複数のサ一バ計算機を含む全ての負荷分散対象計算機 の 荷虽に基づいて、 新たに負荷分散対象計算機として使用 を開始すベき 、 または負荷分散対象計算機としての使用を終 了すべき予備計算機の台数を決定するよう に構成されたサー バ構成管理 一ッ 卜 と、
刖 Ϊ5Π Τ備計算機の使用状況を管理するよう に構成された予 備計算機管理ュ一ッ 卜であつて 、 前記サーバ構成管理ュニッ 卜によつて決定された台数の 、 新たに負荷分散対象計算機と して使用を開始すベき、 または負荷分散対象計算機としての 使用を終了すベさ予備計算機を決定する予備計算機管理ュニ ッ 卜 と、
B己 -f 計算機管理ュニッ 卜によって決定された予備計算 機を起動または停止するよう に 成された予備計算機起動 m
停止ュニッ 卜 と、
刖記予備計算機管理ュニ、ソ によって決定された予備計算 機を、 前記負荷分散装置による負荷分散の対象となる負荷分 散対象計算機として追加する 、 または前記負荷分散装置によ る負荷分散の対象から除外するよう に構成.された設定変更ュ ニッ 卜 と
を具備する
に . BB求項 6 に従う負荷分散システムにおいて、 前記サ 一バ構成管理ュ二ッ 卜 と、 刖記予備計算機管理ュニッ 卜 と、 前記予備計算機起動/停止ュ 二 ッ 卜 と、 刖 s己 定変更ュ ニ ッ ト とカ 、 前記複数のサーバ p†算機及び前記予備計算機か ら独 立した管理サーバ計算機で動作する
8 . 請求項 6 に従う負荷分散システムにおいて、 前記複数のサーバ計算機は 、 当該複数のサ ―バ計算機のう ちのいずれかで障害が発生した場八口に、 その障害が発生した 計算機で実行されていた業務を他の何れかのサーバ計算機に 引き継ぐこ とが可能なク ラス夕システムを構成してお り、 前記サーパ構成管理ュ ニ 卜 と 、 刖 己丁備計算機管理ュニ ッ 卜 と、 刖 gd予備計算機起動 Z停止 ニ ッ 卜 と 、 刖 ΐ己設定変 更ュニッ 卜 とは、 前記ク ラス夕システム内の 記複数のサ一 バ計算機のう ちのいずれかの計算機で動作し 、 且つ当該計 機で障害が発生した場合に他のサ一バ計算機への引さ継ぎの 対象となる。
9 . 請求項 6 に従う負荷分散システムにおいて、 前記負荷分散装置は、 当該負荷分散装置によ ·©負荷分散の 対象となっている刖記複数のサーバ計算機を含む負荷分散対 象計算機で処理されている クェス トの数に対応した負荷量 を示す計算機負荷情報を取得するよう に構成された負荷情報 取得ュニッ 卜を含み、
前記サーバ構成管理ュニ 、ソ 卜は 、 刖 §6負荷分散装置に含ま れている前記負荷情報取得ュ二ッ 卜によ り取得された計算機 負荷情報から負荷分散対象計算機全体の負荷 .白- 求め 、 当該 負荷分散対象計算機全体の負 1¾ 里に基づいて 、 新たに負荷分 散対象計算機として使用を開始すベさ、 または負荷分散対象 計算機としての使用を終了すべき予備計算機の台数を決定す る。
1 0 - 求項 6 に従つ員 分散システムにおいて、 前記複数のサ バ計算機及び刖 ή子備計算機は それぞれ、 白身が実行している ク Xス 卜の処理に対応した負何里 示 す計算機負荷情報を取得するよ に構成された負荷情報取 : 1 ί寸旦 ュ二ッ hを含み
前記サ ―バ構成管理 ― V 卜は 、 刖記複数のサ バ計算機 及び前記予備計算機の ち 負荷分散対象計算機として前記 負荷分散衣置による負荷分散の対象となつている計算機に含 まれている刖記負荷情報取得ュ一ッ 卜によ り取得さ 1た 算 曰
機負荷情報から負荷分散対象計算機全体の負荷 を求め、 当 該負荷分散対象計算機全体の負荷里に づいて 新たに負荷 分散対象計算機と して使用を開始すべき または負荷分散対 象計算機と しての使用を終了すベき予備計算機の台数を決 する
1 1 • m求項 6 に従う負荷分散システムにおいて、 刖記負荷分散装置は 当該負荷分散装置による負荷分散の 対象となつている刖記複数のサ バ計算機を含む負荷分散対 象計算機で処理されている U クェス 卜の数に対応した負荷 を示す第 1 の計算機負荷情報を取得するよう に構成された第
1 の負荷情報取得 一 V を含み
刖 複数のサ バ計算機及び 記予備計算機は それぞれ、 白身が実行している U クェス 卜の処理に対応した負荷重を示 す第 2 の 翼機 荷情報を取得するよう に 成された第 2 の 負荷情報取得ュニッ トを含み、
前記サ一バ構成管理ュニッ 卜は 、 刖 、 記負荷分散装置に含ま れている刖 ΡΠ第 1 の負 情報取得ュ一ッ によ り取得された 刖 ΒΗ ¾ 1 の計算機負荷情報から負荷分散対象計算機全体の負 荷量を求めて、 新たに負荷分散対象計算機として使用を開始 すべき、 または負荷分散対象計算機としての使用を終了すベ き予備計算機の第 1 の台数を決定する とせ、に 、 前記複数のサ
—バ計算機及び m is己 τ備計算機の ち 、 負荷分散対象計算機 として前 D負荷分散装置による負荷分散対象となっている計 算機に含まれている刖記第 2 の負荷情報取得ュニッ トによ り 取得された刖記第 2 の計算機負荷情報から負荷分散対象計算 機全体の負荷量を求めて 、 新たに負荷分散対象計算機と して 使用を開始すべさ、 または負荷分散対象計算機と しての使用 を終了すべき予 ½ g† 機の第 2 の台数を決定し、 当該第 1 及 び第 2 の台数のう ちのいずれか一方をゝ 負荷分散対象計算機 として使用を開始すべさ 、 または負荷分散対象計算機と して の使用を終了すべき予備計算機の台数として選択する。
1 2 . 請求項 6 に従う負荷分散システムにおいて、 m ΰ 複数のサ一パ計算機、 前記負荷分散装置、 前記サーバ 广- 構成管理ュニッ 卜及び 目己 ¾c疋変更 ―ッ 卜の組をそれぞれ 備えた複数のサ一バサィ 卜 と、
m ø己 τ備計算機、 【J記予備計算機管理ュ一ッ ト及び前記予 備計算機起動 Ζ停止ュ一ッ 卜 の組を備えた予備サイ ト と、 刖 Bd複数のサ一パサイ 卜 と育 u記予備サイ 卜 とを接続するネ ッ 卜ワーク とを更に具備し、 前記複数のサ一パサイ 卜の各々にそれぞれ含まれている前 記サーバ構成管理ユニッ トは、 当該サーバサイ ト内の前記複 数のサーバ計算機を含む全ての負荷分散対象計算機の負荷量 に基づいて 、 当該サーバサイ 卜内で新たに負荷分散対象計算 機として使用を開始すべき、 または負荷分散対象計算機とし ての使用を終了すべき予備計算機の台数を決定し、
HU sd予備サイ ト内の前記予備計算機管理ュニッ トは、 刖記 サ―バ構成管理ュニッ 卜によって決定された台数の予備計算 機であつて 、 当該サーバ構成管理ュ一 V 卜が存在するサーバ サイ ト内で新たに負荷分散対象計算機として使用を開始すベ さ、 または負荷分散対象計算機としての使用を終了すべき予 備計算機を決定する。
1 3 . 請求項 1 2 に従う負荷分散システムにおいて、 刖 B己丁備サイ ト内の前記予備計算機管理ユニッ トは、 前記 複数のサ一バサィ 卜にそれぞれ含まれている前記サーバ構成 管理ュニッ 卜によって決定された台数の予備計算機が起動ま たは停止された場合に、 当該予備計算機の起動時刻または停 止時刻を表す情報、 当該予備計算機を表す情報及び当該サー バサイ トを表す情報の組を記録する
1 . 負荷分散システムに適用される負荷分散のための方 負荷分散システムは、 複数のク ライ アン ト計算機か らのリ クェス 卜 を処理する複数のサ パ計算機と、 前記複数 のク ライ ァン 卜計算機からのリ クェス を前記複数のサーバ 計算機を含む複数の負荷分散対象計算機に分配する負荷分散 装置と、 前記負荷分散対象計算機と して用いる こ とが可能な 予備計算機であつて 当 荷分散対 機として用い ら れる際に起動される予備計算機とを備えている 記方法は、 前記複数のサ ―バ計算機を含む全ての負荷分散対象計算機 の負荷量に基づいて 新たに負荷分散対象計算機として使用 を開始すべき、 または負荷分散対象計算機と しての使用を終 了すべき予備計算機の台数を決定する こ とと
使用を開始す さ予備計算機の台数が決定された場合 当 該決定された台数の 新たに負荷分散対象計算機として使用 を開始すべき予備計算機を決定する とと、
使用を開始すベさ予備 p Γ算機が決定された場 α 当該決定 された予備計算機を起動する とと
使用を開始すベさ予備計算機が決定された場合 当該決定 された予備計算機を 刖記負荷分散装置による負荷分散の対 象となる負荷分散対象 算機として追加する と と
使用を終了すベさ予備 算機の台数が決定された場合 当 該決定された台数の 負荷分散対象計算機としての使用を終 了すべき予備計算機を決定する こ とと
使用を終了す さ予備 卜算機が決定された場 α 当該決定 された予備計算機を停止する とと
使用を終了すベさ予備計算機が決定された場 α 当該決定 された予備計算機を 記負 分散装置による負荷分散の対 象か ら除外する ことと
を具備する。
1 5 . 請求項 1 4 に従つ方法において、
前記負荷分散システムは 刖記複数のサーパ計 機及び前 6 ( 記負荷分散装置の組をそれぞれ含む複数のサーバサイ ト と、 前記予備計算機を含む予備サイ 卜 と、 前記複数のサーバサイ 卜 と前記予備サイ 卜 とを接続するネッ ト ワーク とを備えてお り、
前記台数を決定する こ とは、 前記複数のサ一パサイ 卜 の 各々でそれぞれ実行され
前記予備計算機を決定する と 、 刖記予備計 を起動す る (_ と及び 記予備計算機を停止する こ とは刖記予備サイ 卜 で実行され
刖記方法は 刖記複数のサ ハ、サイ 卜の ちのいずれかの サーバサィ で 目 U記負荷分散対象計算機と して使用を開始 すベさ、 または刖 負荷分散対象計算機としての使用を終了 すべき予備計算機の台数が決 された士县 A 当該サーパサイ 卜内での当該決定された台数の予備計算機の使用開始または 使用終了を 刖記予備サイ に対して刖 ネッ 卜ヮークを介 して要求する とを更に旦備し
刖記予備計算機を決定する とは前記使用開始または使用 終了の要求に応じて実行される
1 6 . 負荷分散システムに適用される負何分散のための 方法 、 刖 PD負 分散システムは 複数のク ラィ ァン 卜計算機 からのリ ク .ェス 卜 を処理する複数のサ バ n J"算機であつて、 当該サ パ計算機が実行するォぺレ ティ ングシステムを含 むブー 卜ィ メ ンの種類の相異によ 複数のサ バ計算機グ ループに分けて管理される複数のサ パ計算機と 、 刖記複数 のク ライ アン 計算機からの U クェス 卜 を lu記 数のサ パ 6 計算機を含む t数の負荷分散対象 に分配する負荷分散 装置と、 記負荷分散対象計算機と して用いる とが可能な 予備計算機であ て 、 当該負荷分散対象計算機として用い ら れる際 起動される予備計算機とを備えている 刖記方法は、 刖記複数のサ 計算機ダル プ各々のグル プを単位に、 刖記複数のサ ハ、計算機のう ちの当該グル プに属するサー パ計算機を含む全ての負荷分散対象計算機の負荷里に基づい て 当該グル プ全体の負何里を求める と と
刖記複数のサ 計算機ダル プ各々のグル プを単位に、 当該ダル プ全体の負 1¾" が求められた場 当該負 量に 基づいて 当該グル プで新たに負荷分散対象計算機と して 使用を開始すベき または負荷分散対象計算機としての使用 を終了すベさ予備計算機の台数を決定する と と
刖記複数のサ ハ、計算機ダル プのう ちの 1 のグル プ での使用を開始すベき予備計算機の台数が決定された場合、 当該決定された台数の、 当該 1 のダル プで新たに負荷分 散対象計算機として使用を開始すべき予備計算機を決定する とと、
刖記 1 つのグル ―プでの使用を開始す ぎ予備計算機が決 定された場合 当該決定された予備計算機をブ 卜すべきブ ィ メ ンとして 、 刖記複数のサ バ 算機の う ち当該グ ル プに属するサ パ計算機で実行されている種超の当該グ ル プに固有のブ 卜ィ メ ジを選択する と と
記 1 のグル プでの使用を開始すベさ予備計算機が決 定され、 且つ当該グループに固有のブー 卜ィ メ ンが選択さ れた -¾7口 当該選択されたブー 卜ィ メ ンでブ 卜するよつ に 当該決定された予備計算機を起動する と と
記 1 つのグループでの使用を開始すベき予備計算機が決 定された場 a 、 当該決定された予備計算機を 刖記負荷分散 装置による当該グループ内での負荷分散の対象となる負荷分 散対象計算機として追加する こ とと、
記複数のサーバ計算機グループのうちの 1 つのグループ での使用を終了すべき予備計算機の台数が決疋された 口 、 当該決定された台数の、 当該 1 つのグル ―プでの使用を終了 すベき予備計算機を決定する こ とと、
前記 1 つのグループでの使用を終了すベき予備計算機が決 定された場 σ 、 当該決定された予備計算機を停止する ことと 刖記 1 つのグループでの使用を終了すベき予備計算機が決 定された場 α 、 当該決定された予備計算機を 前記負荷分散 置によるヽ 該グループ内での負荷分散の対象か ら除外する とと
を具備する
1 7 . m求項 1 6 に従う方法において
記負荷分散システムは、 前記複数のサ ハ、計算機及び m 記負荷分散装.置の組をそれぞれ含む複数のサ ■―パサイ 卜 と、 刖記予備計算機を含む予備サイ ト と、 前記複数のサーパサイ 卜 と刖 己 ττ備サイ 卜 とを接続するネッ hヮ ク とを 1履えてお り 、
前記負荷量を求める こ と及び前記台数を決定する こ とは、 前記複数のサーバサイ 卜の各々でそれぞれ実行され、 6 前記使用を開始すベさ予備計 を決定する こ と BIJ目己選 択する こ と HU記起動する と 、 刖記使用を終了すべき予備 計算機を決定する こ と 及び刖記停止する とは 刖 gd予備 サイ 卜 で実行され、
刖記方法は iij 3 f复数のサ バサィ 卜のう ちのいずれかの サーバサィ で、 前記複数のサ ハ、計算機グル プのう ちの
1 つのグル プでの使用を開始すべき、 または使用を終了す ベき予備計算機の台数が決疋された場合に 当該サ パサイ 卜内の当該 1 つ のダル プでの決定された台数の予備計算機 の使用開始または使用終了を刖記予備サイ に対して前記ネ ッ 卜ワークを介して要求する とを更に具備し
前記使用を開始すベき予備計算機を決定する とは前記使 用開始の要求に応じて実行され
記使用を終了すベさ予備計算機を決定する とは前記使 用終了の要求に応じて実行される
1 8 . 負荷分散システムに適用される負荷分散のための 方法 、 刖記負荷分散システムは 、 複数のク ラィ ァン ト計算機 からのリ クェス トを処理する複数のサ パ、計算機であって、 当該サ バ計算機が実行するォぺレ ティ ングシステムを含 むブー 卜ィ メ ジの種類の相異によ り複数のサ バ計算機グ ループに分けて管理される複数のサ バ計算機 及ぴ刖記複 数のク ライァン 卜計算機からの U クエス 卜を前記複数のサー バ計算機を含む複数の負荷分散対象計算機に分配する負荷分 散装置の組をそれぞれ含む複数のサ —パサイ と iu記負荷 分散対象計 機として用いる とが可能な予備計算機であつ て、 当該負荷分散対象計 として用い られる際に起動され る予備計算機を含む予備サイ 卜 と 刖記複数のサ ―パサイ 卜 と刖 己丁備サイ 卜 とを接 するネッ 卜ヮ ク とを備えている、 刖記方法は、
刖 P3 f¾数のサーバサイ 卜の各々 において 刖記複数のサ一 バ計算機グループ各々のダル ―プを単位に 前記複数のサー ハ、計算機のう ちの当該グループに属するサ バ計算機を含む 全ての負荷分散対象計算機の負何里に基づいて 当該グル プ全体の負荷量を求める こ とと
刖 己俊数のサーバサイ 卜の各々 において 記複数のサ一 バ計算機グループ各々のダル プを単位に 当該グループ全 体の負荷量が求め られた場合 当該負佣 虽に基づいて、 当該 サ パサイ 卜内の当該グループで新たに負荷分散対象計算機 と して使用を開始すべき 、 または負荷分散対象計算機として の使用を終了すべき予備計算機の台数を決定する とと、
m B己ゃ复数のサーバサイ 卜の各々 において 当該サーバサイ に属する前記複数のサ バ計算機グループ内の 1 つのグル プでの使用を開始すベき予備計算機の台数が決定された場 合 、 当該サーバサイ トか ら 19記予備サィ 卜 に対して 、 当該サ パサイ 卜内の当該 1 つのグループでの当該決定された台数 の予備計算機の使用開始 刖記ネッ 卜ヮ クを介して要求す る こ とと
前記予備サイ 卜に対する使用開始の要求に応じ 当該予備 サイ トにおいて、 要求元のサ パサイ 卜内の要求されたグル
―プで負荷分散対象計算機と して使用開始すベさ予備計算機 が決定されて、 当該決定された予備計算機が、 当該グループ に属するサーバ計算機で実行されている種類のブー トイ メー ジでブー トされたことが、 当該予備サイ トから前記要求元の サーバサイ 卜に通知された場合に、 当該通知された予備計算 機を、 前記負荷分散装置による当該グループ内での負荷分散 の対象となる負荷分散対象計算機として追加する こ と と、 前記予備サイ トに対する使用終了の要求に応じ、 当該予備 サイ 卜において、 要求元のサーバサイ 卜内の要求されたダル ープで負荷分散対象計算機と しての使用を終了すべき予備計 算機が決定されて、 当該決定された予備計算機が停止された こ とが、 当該予備サイ トか ら前記要求元のサーバサイ トに通 知された場合に、 当該通知された予備計算機を、 前記負荷分 散装置による当該グループ内での 荷分散の対象から除外す る こ とと
を具備する
1 9 - 負荷分散システムに 用される負荷分散のための 方法、 刖記負荷分散システムは 複数のク ラィ ァン 計算機 か らの U クェス トを処理する複数のサーパ計算機であつて、 当該サ バ計算機が実行するォぺレ ティ ングシステムを含 むブー 卜ィ メ —ジの種類の相異によ り複数のサ ― 計算機グ ループに分けて管理される複数のサ バ計算機 及び刖目 3儍 数のク ラィァン ト計算機か らの U クェス を刖記複数のサー バ計算機を含む複数の負荷分散対象計算機に分配する負荷分 散装置の組をそれぞれ含む複数のサ バサィ 卜 と ΰ負 1PJ 分散対象計箄機と して用いる とが可能な予備計算 であつ て、 当該負荷分散対象計算機として用い られる際に起動され る予備計算機を含む予備サイ 卜 と 、 m記複数のサ パサイ 卜 と前記予備サイ 卜 とを接続するネッ トヮ一ク とを備えている、 前記方法は 、
前記複数のサーバサイ トの各々 において、 刖記複数のサー バ計算機グループ各々のグル一プを単位に、 刖記複数のサー バ計算機のう ちの当該グル一プに属するサーハ、計算機を含む 全ての負荷分散対象計算機の負荷 に基づいて 、 当該サ一バ サイ ト内の当該グル一プで新たに負荷分散対象計算機として 使用を開始すべき 、 または負荷分散対象計算機と しての使用 を終了すベき予備計算機の台数が決定された 果 、 当該サー バサイ トから前記予備サイ ト に対して、 当該サ パサイ ト内 の当該 1 つのダループでの当該決定された台数の予備計算機 の使用開始が前記ネッ 卜 ヮーク を介して要求された場合に、 使用開始及び使用終了のいずれが要求されているかを判別す る こ と と、
前記使用開始が要求されている場合、 要求元のサーバサイ 卜で決定された台数の、 当該要求元のサーバサイ 卜内の要求 されたグループで負荷分散対象計算機として使用を開始すべ き予備計算機を決定する ことと、
HU記要求元のサーバサイ ト内の要求されたグル プで負荷 分散対象計算機として使用を開始すべき予備計算機が決定さ れた場合、 当該決定された予備計算機をブー 卜すベきブー 卜 イ メージとして、 当該要求元のサ一パサイ 卜内の当該グル一 プに属するサ一パ計算機で実行されている種類の当該グル一 プに固有のブー hィ メージを選択する とと、 前記要求元のサ一パサイ 卜内の要求されたグル一プで負荷 分散対象計算機として使用を開始すべき予備計算機が決定さ
れ且つ当該ダル プに固有のブ一 トイ メ一ンが選択された場 合、 当該選択されたブー トイ メージでブ一 卜するよう に、 当 該決定された予備計算機を起動する こ と と、
前記使用終了が要求されている場合 、 要求元のサ —パサイ 卜で決定された台数の、 当該要求元のサ ―バサィ 内の要求 されたグル一プで負荷分散対象計算機と しての使用を終了す べき予備計算機を決定する こ とと、
Bd ¾ 元のサ パサイ 卜内の要求されたグル一プで負荷 分散対象計算機としての使用を終了す き予備計算機が決定 された場合 、 当該決定された予備計算機 停止する こ とと、 而記予備サイ 卜から刖 5ΰ要求元のサ ―バサィ 卜に対し、 前
記使用開始または刖記使用終了に対する処理 口果を通知する こ とと
を具備する
PCT/JP2004/007558 2003-05-26 2004-05-26 負荷分散システム及び負荷分散方法 WO2004104852A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/558,237 US20070180452A1 (en) 2003-05-26 2004-05-26 Load distributing system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-148233 2003-05-26
JP2003148233 2003-05-26

Publications (1)

Publication Number Publication Date
WO2004104852A1 true WO2004104852A1 (ja) 2004-12-02

Family

ID=33475385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007558 WO2004104852A1 (ja) 2003-05-26 2004-05-26 負荷分散システム及び負荷分散方法

Country Status (3)

Country Link
US (1) US20070180452A1 (ja)
CN (1) CN100416542C (ja)
WO (1) WO2004104852A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8812578B2 (en) 2008-11-07 2014-08-19 International Business Machines Corporation Establishing future start times for jobs to be executed in a multi-cluster environment

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4939102B2 (ja) * 2006-04-21 2012-05-23 株式会社日立製作所 ネットワークブート計算機システムの高信頼化方法
US8225323B2 (en) * 2007-06-25 2012-07-17 Alaxala Networks Corporation Control device and control method for reduced power consumption in network device
CN101094237B (zh) * 2007-07-30 2010-06-16 中兴通讯股份有限公司 一种ip多媒体子系统中网元间的负荷分担方法
US8458324B2 (en) * 2009-08-25 2013-06-04 International Business Machines Corporation Dynamically balancing resources in a server farm
CN102118407B (zh) * 2009-12-31 2013-10-30 联想(北京)有限公司 一种降低集群作业系统运行功耗的方法、节点及系统
CN103309843B (zh) * 2012-03-06 2016-03-16 百度在线网络技术(北京)有限公司 服务器的配置方法和系统
WO2013154522A2 (en) 2012-04-09 2013-10-17 Empire Technology Development Llc Processing load distribution
JP6107218B2 (ja) * 2013-02-25 2017-04-05 富士通株式会社 制御装置,制御方法,および制御プログラム
CN103246262B (zh) * 2013-04-22 2015-06-03 湖南智卓创新金融电子有限公司 一种网络数据分析用综合服务系统
US9298518B2 (en) * 2014-07-09 2016-03-29 International Business Machine Corporation Safe consolidation and migration
CN108280007B (zh) * 2017-01-05 2021-08-13 中国移动通信集团福建有限公司 一种用于评估设备资源利用率的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH023828A (ja) * 1988-06-17 1990-01-09 Matsushita Electric Ind Co Ltd 計算機ネットワークシステム
JP2002091937A (ja) * 2000-07-27 2002-03-29 Hewlett Packard Co <Hp> スペアサーバを自動でアクティブにするサーバ
JP2002163241A (ja) * 2000-11-29 2002-06-07 Ntt Data Corp クライアントサーバシステム
JP2002183106A (ja) * 2000-12-11 2002-06-28 Hitachi Ltd サービス切替システム及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1206602C (zh) * 1999-06-17 2005-06-15 国际商业机器公司 因特网环境下综合负载分配和资源管理的系统和方法
US6779016B1 (en) * 1999-08-23 2004-08-17 Terraspring, Inc. Extensible computing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH023828A (ja) * 1988-06-17 1990-01-09 Matsushita Electric Ind Co Ltd 計算機ネットワークシステム
JP2002091937A (ja) * 2000-07-27 2002-03-29 Hewlett Packard Co <Hp> スペアサーバを自動でアクティブにするサーバ
JP2002163241A (ja) * 2000-11-29 2002-06-07 Ntt Data Corp クライアントサーバシステム
JP2002183106A (ja) * 2000-12-11 2002-06-28 Hitachi Ltd サービス切替システム及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8812578B2 (en) 2008-11-07 2014-08-19 International Business Machines Corporation Establishing future start times for jobs to be executed in a multi-cluster environment

Also Published As

Publication number Publication date
US20070180452A1 (en) 2007-08-02
CN100416542C (zh) 2008-09-03
CN1829986A (zh) 2006-09-06

Similar Documents

Publication Publication Date Title
US11500670B2 (en) Computing service with configurable virtualization control levels and accelerated launches
CN101118521B (zh) 跨越多个逻辑分区分布虚拟输入/输出操作的系统和方法
US11218364B2 (en) Network-accessible computing service for micro virtual machines
US10129333B2 (en) Optimization of computer system logical partition migrations in a multiple computer system environment
CN103999031B (zh) 云服务器的虚拟私有存储阵列服务
US8468548B2 (en) Multi-tenant, high-density container service for hosting stateful and stateless middleware components
JP5789640B2 (ja) 複数のコンピュータシステムによるプログラムの実行を管理するシステム
US7730205B2 (en) OS agnostic resource sharing across multiple computing platforms
CN102971724B (zh) 与数据中心环境内的基于单元式虚拟资源的管理有关的方法和装置
CN103744719B (zh) 锁管理方法及系统、锁管理系统的配置方法及装置
US20070256076A1 (en) System and method for separating multiple workloads processing in a single computer operating environment
US20210405902A1 (en) Rule-based provisioning for heterogeneous distributed systems
US10908940B1 (en) Dynamically managed virtual server system
JP2012142012A5 (ja)
KR20030019592A (ko) 동적 호스트 서비스 관리를 제공하기 위한 방법 및 시스템
JP2001331333A (ja) 計算機システム及び計算機システムの制御方法
EP4029197B1 (en) Utilizing network analytics for service provisioning
WO2004104852A1 (ja) 負荷分散システム及び負荷分散方法
US8356098B2 (en) Dynamic management of workloads in clusters
US10700925B2 (en) Dedicated endpoints for network-accessible services
JP2005100387A (ja) 計算機システム及びクラスタシステム用プログラム
JP2010066931A (ja) 負荷分散機能を有した情報処理装置
JP3782429B2 (ja) 負荷分散システム及び計算機管理プログラム
Fong et al. Dynamic resource management in an eutility
US11704145B1 (en) Infrastructure-based risk diverse placement of virtualized computing resources

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480021529.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
WWE Wipo information: entry into national phase

Ref document number: 10558237

Country of ref document: US

Ref document number: 2007180452

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10558237

Country of ref document: US