WO2006043309A1 - 運用管理プログラム、運用管理方法および運用管理装置 - Google Patents

運用管理プログラム、運用管理方法および運用管理装置 Download PDF

Info

Publication number
WO2006043309A1
WO2006043309A1 PCT/JP2004/015384 JP2004015384W WO2006043309A1 WO 2006043309 A1 WO2006043309 A1 WO 2006043309A1 JP 2004015384 W JP2004015384 W JP 2004015384W WO 2006043309 A1 WO2006043309 A1 WO 2006043309A1
Authority
WO
WIPO (PCT)
Prior art keywords
server
software
group
domain
resources
Prior art date
Application number
PCT/JP2004/015384
Other languages
English (en)
French (fr)
Inventor
Shigehiro Yoshikawa
Yoshinobu Hibi
Masayuki Naitou
Satoshi Iyoda
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to EP04792553A priority Critical patent/EP1811376A4/en
Priority to PCT/JP2004/015384 priority patent/WO2006043309A1/ja
Priority to JP2006542128A priority patent/JP4734259B2/ja
Publication of WO2006043309A1 publication Critical patent/WO2006043309A1/ja
Priority to US11/787,759 priority patent/US8224941B2/en
Priority to US13/473,436 priority patent/US20120233305A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5055Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering software capabilities, i.e. software resources associated or available to the machine

Definitions

  • the present invention relates to an operation management program, an operation management method, and an operation management apparatus for managing the operation of resources constituting an information processing system, and particularly in a large-scale information processing system having a large number of resources such as servers.
  • the present invention relates to an operation management program, an operation management method, and an operation management apparatus that enable an administrator to easily and efficiently change the use of resources.
  • Patent Document 1 discloses a multi-boot method for a system in which the contents of a startup program transferred from a startup disk is changed each time the server is started, and the server is operated in various environments.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-22190
  • Patent Document 1 As described above, when there are a plurality of servers to be used by changing their usage, it is difficult to manage switching of those usages. was there.
  • the present invention has been made in view of the above, and even in a large-scale information processing system having a large number of resources such as servers, an administrator can easily and efficiently change the use of resources. It is an object of the present invention to provide an operation management program, an operation management method, and an operation management apparatus that can be executed on a system.
  • the present invention is an operation management program for managing the operation of resources constituting an information processing system, and is a collection of resources using uniform software.
  • the present invention is an operation management method for managing the operation of resources constituting an information processing system, the group registration step of registering a resource group as a collection of resources using uniform software, and the group And a usage changing step of changing the usage of the resource by controlling switching of software used by the resources belonging to the resource group registered in the registration step.
  • the present invention is an operation management apparatus for managing the operation of the resources constituting the information processing system, the group registration means for registering a resource group as a collection of resources using uniform software, and the group And usage changing means for changing the usage of the resource by controlling switching of software used by the resources belonging to the resource group registered by the registration means.
  • resource duplication is registered as a collection of resources using uniform software, and switching of software used by resources belonging to the registered resource group is controlled. Even in a large number of large-scale information processing systems, managing resources in units of resource groups has the effect that an administrator can easily and efficiently change the usage of resources. . Brief Description of Drawings
  • FIG. 1 is a diagram showing a concept of resource operation management.
  • FIG. 2 is a diagram illustrating the concept of repurposing processing according to the present embodiment.
  • FIG. 3 is a diagram illustrating a functional configuration of the resource operation management system according to the present embodiment.
  • FIG. 4 is a flowchart showing a processing procedure for assigning a server to a business.
  • FIG. 5 is a diagram showing an example of site data for registering operation management server information.
  • FIG. 6 is a diagram showing an example of domain management server data for registering domain management server information.
  • FIG. 7 is a diagram showing an example of management subnet data for registering information on a subnet to be managed.
  • FIG. 8 is a diagram illustrating an example of middleware cooperation IF data storing commands for executing various processes in cooperation with middleware.
  • FIG. 9 is a diagram showing an example of server domain data storing information related to a server domain to which a server belongs.
  • FIG. 10 is a diagram showing an example of pool group data storing information related to a pool group.
  • FIG. 11 is a diagram showing an example of storage domain data storing information related to the storage domain.
  • FIG. 12 is an explanatory diagram for explaining a network domain and a network subdomain.
  • FIG. 13 is a diagram showing an example of network subdomain data storing information related to a network subdomain.
  • FIG. 14 is a diagram showing an example of network domain data storing information related to a network domain.
  • FIG. 15 is a diagram illustrating an example of load balancer data storing information related to the load balancer.
  • FIG. 16 is an explanatory diagram illustrating a configuration example of a network subgroup.
  • FIG. 17 is a diagram showing an example of network sub-dlap data storing information related to a network sub-group.
  • FIG. 18 is a diagram showing an example of link data between server domains storing information related to the correspondence between server domains.
  • FIG. 19 is a diagram showing an example of link data between server Z storage domains storing information related to the correspondence between server domains and storage domains.
  • FIG. 20 is a diagram illustrating an example of network boot server data storing information on servers to be network booted.
  • FIG. 21 is a diagram illustrating an example of managed server data in which data of servers to be managed is stored.
  • FIG. 22 is a diagram showing an example of provisioning configuration data in which information on a group to which a server belongs is stored.
  • FIG. 23 is a diagram showing an example of connection between a server and a storage device in which the connection state is uniform.
  • FIG. 24 is a diagram illustrating a connection uniformity check process based on WWPN.
  • FIG. 25 is a diagram showing an example of storage template data in which data related to a storage template is stored.
  • FIG. 26 is a diagram illustrating an example of server group data storing information relating to a server group.
  • FIG. 27 is a diagram showing an example of server Z storage group link data storing information on storage groups corresponding to server groups.
  • FIG. 28 is a diagram illustrating an example of link data between server groups storing information related to the correspondence relationship between server groups.
  • FIG. 29 is a diagram showing an example of load balancing group data storing group information of the load balancing device.
  • FIG. 30 is a diagram showing an example of network group data stored as information on network groups.
  • Fig.31 shows the procedure of the setting process to set the logical volume to the RAID device. It is a flowchart.
  • FIG. 32 is a diagram showing an example of a logical volume setting screen.
  • FIG. 33 is a diagram showing an example of RAID level setting data storing RAID level setting information.
  • FIG. 34 is a diagram showing an example of RAID device data storing information relating to a RAID device.
  • FIG. 35 is a diagram showing an example of provisioning configuration data in which storage subgroups are set.
  • FIG. 36 is a flowchart showing a processing procedure for logical volume setting processing for causing a server to recognize a logical volume.
  • FIG. 37 is an explanatory diagram for explaining the process of setting the logical volume built in the RAID device.
  • FIG. 38 is a diagram showing an example of the affiliation group data storing information relating to the affiliation group.
  • FIG. 39 is a diagram illustrating an example of multipath configuration data storing information related to a multipath configuration.
  • FIG. 40 is a diagram showing an example of mirror volume configuration data storing information relating to the configuration of the mirror volume.
  • FIG. 41 is a diagram showing an example of IP address management data in which information related to an IP address assigned to a server is stored.
  • FIG. 42 is a diagram illustrating an example of software image management data in which information relating to a software image is stored.
  • FIG. 43 is a diagram showing an example of software distribution image management data storing information related to a software distribution image.
  • FIG. 44 is a diagram illustrating an example of snapshot management data in which information related to a snapshot is stored.
  • FIG. 45 is a flowchart showing the processing procedure for adding a server to a server group.
  • FIG. 46 is a diagram showing an example of distribution management data storing information related to the distribution status of the software distribution image.
  • FIG. 47 is a flowchart for explaining the processing procedure of the pre-setting process related to the repurposing process.
  • FIG. 48 is a flowchart showing a processing procedure of repurposing processing.
  • FIG. 49 is a diagram showing an example of repurposing setting data storing information related to repurposing settings.
  • FIG. 50 is a diagram showing an example of repurposing operation data in which information related to a server state is stored.
  • FIG. 51 is a diagram showing an example of schedule setting data in which information relating to a schedule for executing a repurposing process is stored.
  • FIG. 52 is a diagram showing an example of repurposing setting data in which one or more server groups are set in each state.
  • FIG. 53 is a diagram showing a hardware configuration of a computer serving as the site management server shown in FIG. 3.
  • FIG. 54 is a diagram showing a hardware configuration of a computer serving as the domain management server shown in FIG. 3.
  • FIG. 55 is a diagram showing a hardware configuration of a computer serving as the server shown in FIG. 3.
  • FIG. 1 is a diagram illustrating the concept of operation management of resources such as servers and storages
  • FIG. 2 is a diagram illustrating the concept of repurposing processing according to the present embodiment.
  • the repurposing process is a process of automatically switching the usage of the server.
  • Figure 1 shows the Web server 4 AP (Application) server 5—
  • Information processing devices such as DB (Database) server 6—6 and storage 7—7 are used.
  • the case is shown.
  • the Web server 4 and the content browsed by the Web browser are connected to the Internet.
  • the server device is provided to the client device via the client.
  • DB Server 6-6 receives AP Server 5-5 Power Database Access Request
  • One 7 is a web server 4 AP server 5-5,
  • SAN Storage Area Network
  • a resource group such as a server or storage in which the physical connection state with other devices is uniform with each other.
  • a domain As a domain.
  • the server group used in business 1 and 2 is managed as Web domain 4, AP domain 5 and DB domain 6, and the storage group used in business 1 and 2 is Managed as storage domain 7.
  • the web server 4 belonging to the Web domain 4 is connected to other devices 4
  • the states are uniform to each other, with respect to other devices of AP server 5—5 belonging to AP domain 5.
  • connection status is uniform to each other, and other devices belonging to DB domain 6 DB server 6-6
  • connection status to the storage domain 7 is uniform to each other, and storage 7— 7 belonging to storage domain 7
  • connection condition for other devices is uniform with each other.
  • DB server 6 is used for business
  • FIG. 1 shows a case where a Web server 4 registered in pool 3 is newly added in Web domain 4 of business 2! /
  • the Web server 4 used in the operations 1 and 2 is used.
  • the load on the AP server 5—5 and DB servers 6 and 6 increases, and the storage capacity of the storage 7—7
  • Web servers 4, 4, 4, AP server 5—5, DB servers 6, 6 are installed.
  • storage 7-7 is excluded from the storage that can be used for operations 1 and 2, and is stored in pool 3.
  • the network settings for storage 7-7 are automatically set.
  • the storage 7-7 is excluded from the storage that can be used for business.
  • Fig. 1 shows a case where AP server 5 registered in pool 3 in AP domain 5 of business 2 is excluded from servers available for business and registered in pool 3.
  • server 5 registered in pool 3 is the server used for business 1
  • the usage of the server is automatically switched according to the time zone.
  • the servers 8c and 8c belonging to the pool group 8c are added to the DB server group 8a belonging to the DB domain during the daytime on weekdays.
  • the DB server gnole 8a is a group of servers that perform processing for storing data in a database in the DB domain.
  • the servers 8a and 8a added to the DB server group 8a are software for the DB server.
  • the servers 8a and 8a added to the DB server group 8a are at night or on holidays.
  • the batch server group 8b is a server that performs notch processing in the DB domain. It is a Gnolepe of a bar.
  • the servers 8b and 8b added to the batch server group 8b are the batch servers.
  • Network server from the batch server boot disks 9b and 9b that store the software for
  • the service is started by the mobile phone and provided to the business.
  • a server group is registered as a collection of servers using uniform software, and switching of software used by servers belonging to the registered server group is controlled. Therefore, even in a large-scale information processing system with a large number of servers, management of servers in units of server groups enables an administrator to easily and efficiently change server usage. .
  • FIG. 3 is a diagram illustrating a functional configuration of the resource operation management system according to the present embodiment.
  • the operation management client 10 the site management server 20, and the power FW (Firewall) 30 are connected via a network.
  • the site management server 20 and the domain management servers 50 and 60 are connected via the network via the force FW40.
  • the site management server 20 and the router 80 belonging to the edge domain 180 are connected via a network via the FW 40.
  • the site management server 20 the storage 160a-160c belonging to the storage domain 220, and the pooled storage 1
  • the domain management server 50 is connected to servers 110a to 110c belonging to FW90, SLB (Server Load Balancer) 100 and Web domain 190 via a network! RU
  • the domain management server 60 is connected to the FW 120, SLB 130, the servers 140a to 140c belonging to the AP domain 200, and the servers 150a to 150c belonging to the DB domain 210.
  • the storage 160a-160c belonging to the storage domain 220 and the pooled storage 160d are servers 110a-110c belonging to the Web domain 190, sano 140a-140c belonging to the AP domain 200, and DB Servers belonging to domain 210 15
  • the operation management client 10 also accepts various settings related to resource operation management processing, transmits the setting information to the site management server 20, and outputs various output results from the site management server 20. It is a client device that accepts and displays it on a monitor or the like.
  • the site management server 20 is a server device that executes resource operation management processing and repurposing processing as described in FIG. 1 and FIG. 2 in cooperation with the domain management servers 50 and 60.
  • the site management server 20 includes a system resource manager 21, a server RM (Resource Manager) 22, a software RM (Resource Manager) 23, a network RM (Resource Manager) 24, a storage RM (Resource Manager) 25, and a system resource DB (Database). 26 and AP (Application) Management Department 27.
  • the system resource manager 21 receives various setting information related to resource operation management processing from the operation management client 10, and in addition to the server RM22, software RM23, network RM24, storage RM25, It is a management unit that executes repurposing processing. In addition, the system resource manager 21 manages data exchange with the domain management servers 50 and 60.
  • the server RM22 is a management unit for starting and stopping each server 110a-110c, 140a-140c, and 150a-150c, collecting information about hardware, setting, and the like.
  • This server RM22 executes the above processing in cooperation with a server sub RM (Resource Manager) 52 of the domain management server 50 and a server RM agent 112a of the server 110a.
  • server sub RM Resource Manager
  • the software RM23 is a management unit that performs software installation, setting, and collection of software-related information on each of the servers 110a-110c, 140a-140c, and 150a-150c.
  • the software RM 23 executes the above-described processing in cooperation with a software sub RM (Resource Manager) 53 of the domain management server 50 and a software RM agent 11 3a of the server 110a.
  • the network RM 24 is a management unit that collects and sets information related to the network. This network RM 24 executes the above processing in cooperation with a network sub RM (Resource Manager) 54 of the domain management server 50 and a network RM agent 114a of the server 110a.
  • the storage RM 25 is a management unit that collects and sets information related to the storages 160a to 160c belonging to the storage domain 220 and the pooled storage 160d.
  • the storage RM 25 manages the storages 160a to 160c and the pooled storage 160d without going through the domain management servers 50 and 60.
  • the system resource DB (Database) 26 is a database that stores information on various resources managed by the system resource manager 21, the server RM22 2, the software RM23, the network RM24, and the storage RM25. Specific data stored here will be described in detail later.
  • the AP management supervision unit 27 is a processing unit that supervises and manages an AP (Application) management unit 116a. Specifically, the AP management unit 116a is requested to execute application installation processing and setting processing. The functions of the AP management control unit 27 are realized by executing middleware installed in the site management server 20.
  • the domain management servers 50 and 60 are server devices that manage resources in one or more domains.
  • the domain management server 50 includes functional units of a system resource domain manager 51, a server sub RM 52, a software sub RM 53, a network sub RM 54, and a domain resource DB (Database) 55.
  • domain management server 60 has the same functional units as the functional units of domain management server 50, the functional units of domain management server 60 are not shown and described in FIG.
  • the system resource domain manager 51 includes a server sub RM 52 and a software sub RM.
  • a management unit that performs information collection and setting processing of resources belonging to each domain in cooperation with the network sub RM54.
  • the system resource domain manager 51 includes the site management server 20, FW90,
  • the server sub RM 52 is a management unit that cooperates with the server RM 22 and the server RM agent 112a to start and stop the servers 110a to 110c, and to collect and set information related to hardware.
  • the software sub RM 53 is a management unit that performs software installation, setting, and collection of information related to software in each of the servers 110a to 110c in cooperation with the software RM 23 and the software RM agent 113a.
  • the network sub RM 54 is a management unit that collects and sets information related to the network in cooperation with the network RM 24 and the network RM agent 114a.
  • the domain resource DB55 is information acquired from the servers 110a to 110c when collecting and setting various information of the servers 110a to 110c that are managed by the server sub RM52, software sub RM53, and network sub RM54. It is a database that stores data obtained from system resource DB26.
  • the domain resource DB 55 is a temporary OS (Operating System) used when performing a network boot of the servers 110a to 110c.
  • the router 80 is a network device that performs data packet routing in data communication via the Internet 70.
  • FW30, 40, 90, 120 are network devices to prevent unauthorized access to various servers 11 Oa-110c, 140a-140c, 150a-150c.
  • the SLBs 100 and 130 are load distribution apparatuses that distribute and transfer information processing requests for the Sano 110a-110c, 140a-140c to a plurality of servers 110a-110c, 140a-140c.
  • the force to which the switch is further connected is omitted in FIG.
  • Sano 110a-110c, 140a-140c, 150a-150c are server devices that execute various types of information processing.
  • the server device 110a has functional units of a resource manager agent 11la, a server RM agent 112a, a software RM agent 113a, a network RM agent 114a, a storage RM agent 115a, and an AP management unit 116a.
  • Sano 110b, 140a, 140b, 150a, and 150b have the same functions as each of the Sano 110a machines, the sano 110b, 140a, 140b, 150a in FIG. , 150b is omitted from the illustration and description.
  • the servers 110c, 140c, and 150c are pooled servers. There are no function units of the resource manager agent 11 la, the server RM agent 112a, the software RM agent 113a, the network RM agent 114a, the storage RM agent 115a, and the AP management unit 116a.
  • each functional unit when they are set as servers that can be used for business, a computer program that implements each functional unit is installed and executed in the servers 110c, 140c, and 150c. Thus, each functional unit is realized.
  • the resource manager agent 11 la accepts an execution request such as information collection processing and setting processing of the server 110a from the system resource domain manager 51 of the domain management server 50, and handles these processing as server RM agent 112a and software RM agent. 113a, network RM agent 114a, and storage RM agent 115a.
  • the server RM agent 112a is an agent that executes start and stop of the server 110a, collection and setting of information related to hardware, and the like.
  • the software RM agent 1 13a is an agent that performs software installation, setting, and information collection regarding the software for the server 110a.
  • the network RM agent 114a is an agent that executes information collection and setting of the network to which the server 110a is connected.
  • the storage RM agent 115a is an agent that performs information collection and setting of storage connected to the server 110a.
  • the storages 160a-160c are storages used by the servers 110a-110c belonging to the Web domain 190, the servers 140a-140c belonging to the AP domain 200, and the servers 150a-1 50c belonging to the DB domain 210.
  • Storage 160d is pooled storage. These storages 160a to 160d are configured by RAID devices.
  • a network connecting the servers 110a to 110c belonging to the Web domain 190, the servers 140a to 140c belonging to the AP domain 200, and the servers 150a to 150c belonging to the DB domain 210 is not connected to a VLAN (Virtual Local Area Network).
  • VLAN Virtual Local Area Network
  • FIG. 4 is a flowchart showing the processing procedure for allocating servers to business. is there.
  • the site management server 20 includes a program for causing the site management server 20 to execute the functions of the system resource manager 21, the server RM22, the software RM23, the network RM24, the storage RM25, and the AP management unit 27. It will be introduced first.
  • the domain management servers 50 and 60 include a program that causes the domain management servers 50 and 60 to execute the functions of the system resource domain manager 51, the server sub RM52, the software sub RM53, and the network sub RM54. Let's introduce it.
  • each sano 110a, 110b, 140a, 140b, 150a, 150b [this resource manager agent 11 la, server RM agent 112a, software RM agent 1 13a, network RM agent 114a, storage RM Agent 115a, AP management ⁇ 116a each of Sano 110a, 110b, 140a, 140b, 150a, 150b [The program to be executed is preliminarily introduced.
  • the system resource manager 21 of the site management server 20 performs registration processing of the operation management server and the management LAN (step S101).
  • the operation management server and management LAN are the site management server 20 and domain management server 50 that are used to manage resources to be managed, such as servers 110a-110c, 140a-140c, 150a-150c, and SAN170. And LAN.
  • FIG. 5 is a diagram showing an example of the site data 300 for registering information of the operation management server.
  • This site data 300 records information on the site name, site management server name, and domain management server name.
  • the site name is identification information of a site having a resource to be managed.
  • the site management server name is identification information of the site management server 20 set to manage the site.
  • the domain management server name is identification information of the domain management servers 50 and 60 set to manage the domain set in the site.
  • FIG. 6 is a diagram illustrating an example of the domain management server data 310 for registering information of the domain management servers 50 and 60.
  • This domain management server data 310 is stored in the domain management server. Store the server name and management subnet name information.
  • the domain management server name is the same information as the domain management server name described in FIG.
  • the management subnet name is identification information of a subnet (management subnet) in which resources are managed by the domain management server.
  • FIG. 7 is a diagram illustrating an example of management subnet data 320 that registers information on a subnet to be managed.
  • This management subnet data 320 stores information on the management subnet name, network address, netmask, and default gateway.
  • the management subnet name is the same information as the management subnet name described in FIG.
  • the network address is a network address for identifying the management subnet.
  • a netmask is a netmask used to define what bits of an IP address are used as network addresses.
  • the default gateway is IP address information that identifies the default gateway used when sending data outside the management subnet.
  • step S101 the system resource manager 21 receives information on the site, the site management server, and the domain management server set by the user by operating the operation management client 10, and uses the site data shown in FIG. Register to 300.
  • system resource manager 21 receives the domain management server and management subnet information set by the user by operating the operation management client 10, and registers the information in the domain management server data 310 shown in FIG. .
  • the system resource manager 21 registers information on the network address, netmask, and default gateway corresponding to the management subnet described in FIG. 6 in the management subnet data 320 in FIG.
  • system resource manager 21 is realized by middleware.
  • FIG. 8 is a diagram illustrating an example of middleware cooperation IF data 330 storing commands for executing various processes in cooperation with middleware.
  • This middleware linkage IF data 330 Stores the middleware name, target event, timing, location, and execution command information.
  • the middleware name is information on middleware that is processed by the system resource manager 21 in cooperation.
  • the target event is information on an event that the system resource manager 21 issues an execution request to the middleware.
  • the timing is information on the timing (before and after processing of the target event) at which a process execution request is transmitted to the system resource manager 21 S middleware.
  • the location is information on a location (Manager or Agent) where the middleware command is executed.
  • Manager indicates the case where the command is executed on the management site server 20.
  • Agent indicates a case where a command is executed on the servers 110a-110c, 140a-140c, 150a-150c to be managed.
  • the execution command is command information for notifying middleware of the occurrence of various events.
  • step S102 the system resource manager 21 performs a domain creation process and a link process between the created domains.
  • step S102 the process performed in step S102 will be described in more detail.
  • FIG. 9 is a diagram showing an example of server domain data 340 storing information related to the server domain to which the servers 110a-110c, 140a-140c, 150a-150c belong.
  • the server domain data 340 stores information on the server domain name, server architecture name, and management subnet name.
  • the server domain name is identification information of a domain to which the servers 110a-110c, 140a-140c, 150a-150c to be managed belong.
  • the server architecture name is identification information of the CPU (Central Processing Unit) architecture of the servers 110a—110c, 140a, 140a, 150a—150c belonging to each server domain.
  • the management subnet name is the same information as the management subnet name shown in FIG.
  • step S 102 the system resource manager 21 receives information related to the server domain and server architecture settings made by the operation of the operation management client 10 by the user, and registers the information in the server domain data 340.
  • This server domain is In step S101, it is set for each management subnet set in step S101.
  • step S102 the system resource manager 21 sets a server group belonging to each server domain, and creates a pool group shared among the server groups and a dedicated pool group for a specific server group. Set.
  • the server group is a group of servers included in the same server domain divided into one or a plurality of groups.
  • a pool group is a pool of servers assigned to each server group.
  • FIG. 10 is a diagram showing an example of pool group data 350 stored as information on pool groups.
  • This pool group data 350 stores information on the pool group name, type, and server domain name.
  • the pool group name is the above-described server pool identification information.
  • the type is information indicating whether the pool group can be shared by a plurality of server groups, or whether the pool group is permitted to be used only by a specific server group.
  • the server domain name is the same information as the server domain name described in FIG.
  • the system resource manager 21 assigns a pool group to each server domain. In addition, when the server domain power has a plurality of server groups, the system resource manager 21 assigns a Punoregurepe dedicated to these server gnores.
  • the system resource manager 21 receives the storage domain information set by the user operating the operation management client 10, and registers the information in the system resource DB 26 as the storage domain data 360 described below. .
  • FIG. 11 is a diagram showing an example of the storage domain data 360 stored as information on storage domains.
  • This storage domain data 360 stores storage domain name and path multiplicity information.
  • the storage domain name is identification information for identifying the set storage domain.
  • the multiplicity of the path is information on the multiplicity of the data communication path in the SAN.
  • system resource manager 21 accepts the network subdomain information set by the user by operating the operation management client 10, and stores it in the system resource DB26. Is registered as network subdomain data 470 described below.
  • the network sub-domain is a sub-domain obtained by further dividing a network domain to which a plurality of network devices connecting servers belonging to different server domains belong.
  • FIG. 12 is an explanatory diagram for explaining a network domain and a network subdomain.
  • Figure 12 shows the switches 430a, 430b, 450a, 450b, and SLB460a, 460b that connect Sano 380a and 380e belonging to Web domain 370 and Sano 400a and 400e belonging to AP domain 390. .
  • switch 430a and switch 430b are "Web-Back" network subdomains
  • the switch 420a and the switch 450b constitute the “AP-Front” network subdomain 440! /.
  • FIG. 13 shows an example of network subdomain data 470 stored as information on network subdomains.
  • the network subdomain data 470 stores information on the network subdomain name, switch model, and switch management IP.
  • the network subdomain name is information for identifying the network subdomain described in FIG.
  • the switch model is information on the switch model belonging to the network subdomain.
  • the switch management IP is information on the IP address assigned to each switch for management.
  • system resource manager 21 receives information related to the network domain set by the user by operating the operation management client 10, and registers the information in the system resource DB 26 as network domain data 480 described below. .
  • FIG. 14 is a diagram showing an example of network domain data 480 stored as information on network domains.
  • This network domain data 480 stores information on network domain name, front network subdomain name, connection method, device name, back network subdomain name, and redundancy method! / Speak.
  • the network domain name is identification information for identifying the network domain described in FIG.
  • the front network subdomain name is an identification that identifies the network subdomain closer to the Internet 70 when it is divided into two network subdomains with the network domainers LB460a and 460b as the boundary. Information.
  • the connection method relates to a method for connecting a network device such as the switches 430a and 430b belonging to the front network subdomain and a network device such as the switch 45Oa and 450b belonging to the back network subdomain described later.
  • Information for example, this method includes a connection method using a load balancer and a connection method using a firewall.
  • the device name is identification information for identifying a network device.
  • the back network subdomain name is the network far from Internet 70 when the network domain is divided into two network subdomains with SL B460a and 460b as the boundary. This is identification information for identifying a subdomain.
  • the redundancy method is information indicating a redundancy method when the data communication path is made redundant in the network domain.
  • the system resource manager 21 receives information related to the connected devices in the network subdomain set by the user by operating the operation management client 10, and loads the information to the system resource DB 26 as described below. Register as device data 490.
  • the connected devices in the network subdomain are devices such as SLB 460a and 46 Ob described in FIG.
  • FIG. 15 is a diagram illustrating an example of the load balancer data 490 stored as information on the load balancer.
  • the load balancer data 490 stores information on the load balancer name, management IP, model name, SNMP community name, and IDZ password.
  • the load balancer name is a name for identifying a connected device in the network subdomain.
  • the management IP is information on the IP address assigned to each connected device for managing the connected device.
  • the model name is identification information of the model of the connected device.
  • the SNMP (Simple Network Management Protocol) community name is information for specifying the SNMP community to which the domain management servers 50 and 60 and the site management server 20 that manage the connected device and the connected device belong. Access ID / password to connected device ID and password information necessary to do this.
  • the system resource manager 21 receives network subgroup information set by the user operating the operation management client 10, and the system resource DB 26 stores the information as network subgroup data 660 described below. sign up.
  • the network subgroup is obtained by dividing a network connecting server groups belonging to different server domains into a plurality of networks when a server group is set for a server belonging to the server domain. .
  • FIG. 16 is an explanatory diagram illustrating a configuration example of a network subgroup.
  • FIG. 16 shows switches 590 and 610 and SLB 600a and 600b forces S that connect the servers 520a to 520e belonging to the Web domain 510 and the servers 560a to 560e belonging to the AP domain 550.
  • the Sano 520a and the Sano 520b constitute the “A—Web” server group 530
  • the Sano 520c and the Sano 520d constitute the “B—Web” server group 540 and the server 56 Oa.
  • the Sano 560b constitutes the “A_AP” server group 570
  • the server 560c and the server 560d constitute the “B_AP” server group 580! /.
  • A_Web_BackJ network subgroup 620 is configured, the network that connects “B_Web” server group 540 and SLB600b is configured as “B_Web_Back” network subgroup 630, and the network that connects SLB600a and “A_AP” server group 570 is “A_AP_FrontJ Network subgroup 640 is configured, and the network connecting SLB 600b and “B_AP” server group 580 forms “B_AP_Front” network subgroup 650.
  • FIG. 17 is a diagram showing an example of network sub-gnope data 660 stored as information on network sub-groups.
  • the network subgroup data 660 stores information on network subgroup names, network subdomain names, subnets, and redundant subnets.
  • the network subgroup name is identification information for identifying the network subgroup as described with reference to the example in FIG.
  • the network subdomain name is the network sub This is identification information for identifying the network subdomain to which the group belongs.
  • the subnet is information on the network address and subnet mask assigned to the network subgroup.
  • the redundancy subnet is information on the network address and subnet mask assigned to a network that also has extra data communication line power when a network belonging to the network subgroup is made redundant using a plurality of data communication lines. is there.
  • the system resource manager 21 receives information related to the correspondence relationship between the server domains set by the user by operating the operation management client 10, and sends the information to the system resource DB 26 to the server domain described below. Register as Inter-link data 670.
  • FIG. 18 is a diagram showing an example of inter-server domain link data 670 stored as information on the correspondence relationship between server domains.
  • This inter-server domain link data 670 contains information on the front server domain name, network domain name, and back server domain name.
  • the front server domain name is identification information for identifying a server domain closer to the Internet 70 among server domains sandwiching the network domain as shown in FIG.
  • the network domain name is identification information of the network domain described with reference to FIG.
  • the knock server domain name is information indicating a server domain located farther from the Internet 70 in the server domains sandwiching the network domain as shown in FIG.
  • system resource manager 21 receives information related to the correspondence relationship between the server domain and the storage domain set by the user by operating the operation management client 10, and stores the information in the system resource DB 26 as follows. Registered as link data 680 between the server and storage domain described in (1).
  • FIG. 19 is a diagram showing an example of server-storage domain link data 680 storing information related to the correspondence between the server domain and the storage domain.
  • This server / storage domain link data 680 stores server domain name and storage domain name information.
  • the server domain name is the same information as the server domain name shown in FIG.
  • the storage domain name is the same as the storage domain name shown in Figure 11. Information.
  • step S103 the system resource manager 21 registers server resources and storage resources to be managed.
  • step S103 the process performed in step S103 will be described in more detail.
  • the system resource manager 21 receives information on the management subnet selected by the user.
  • the system resource manager 21 receives from the operation management client 10 information on the server to be managed that is input by the user operating the operation management client 10, and receives the information in the domain resource DB 55 of the domain management server 50. And stored as network boot server data 690 described below.
  • the server registered here is registered as a server resource after a network boot is performed later and various server information is acquired.
  • FIG. 20 is a diagram illustrating an example of network boot server data 690 stored as information on servers on which a network boot is performed.
  • the network boot server data 690 stores MAC address, IP address, and host name information.
  • the MAC address is information on the MAC address of the server.
  • the IP address is information on the IP address assigned to the server.
  • the host name is information on the host name assigned to the server.
  • system resource manager 21 when the system resource manager 21 receives the MAC address information input by the user of the server that performs network boot, the system resource manager 21 assigns the IP address, the host name, and the server corresponding to the MAC address. Assign automatically.
  • the system resource manager 21 cooperates with the system resource domain manager 51 of the domain management server 50, and uses a temporary OS stored in the domain resource DB 55 of the domain management server 50 to use the IP address and host name. Performs a network boot on the server to which is assigned.
  • the server sub RM 52, the resource manager agent 11 la, and the server RM agent 112a cooperate to collect information related to the server hardware.
  • the collected information is transmitted to the system resource domain manager 51.
  • system resource manager 21 obtains information related to the server hardware from the system resource domain manager 51, and stores the information in the system resource DB 26 as managed server data 700 described below. .
  • the system resource manager 21 sets the setting information as to whether or not to perform a SAN boot for starting the server from the storage 160a-160d connected via the SAN 170 by the user operating the operation management client 10. If entered, the setting information is accepted and the setting information is registered in the managed server data 700.
  • FIG. 21 is a diagram showing an example of the management target server data 700 that stores data of servers to be managed.
  • the managed server data 700 stores server name, IP address, MAC address, server architecture name, model name, SAN boot, and status information.
  • the server name is a name for identifying a server to be managed.
  • the IP address is the IP address assigned to the server.
  • the MAC address is the server's MAC address.
  • the server architecture name is server CPU architecture identification information.
  • the model name is information indicating the server model.
  • the SAN boot is setting information for determining whether or not to perform a SAN boot for starting a server from the storage 160a-160d connected via the SAN 170.
  • the state is information indicating whether or not the server has an abnormality.
  • the user selects a server that performs a network boot by specifying a MAC address.
  • the server may be automatically selected. Specifically, when the user operates the operation management client 10 and sets information related to the number of servers to be automatically selected, the system resource manager 21 receives the setting information from the operation management client 10. Accept.
  • the system resource manager 21 selects the set number of servers, and registers the IP address and host name information of the selected servers in the network boot server data 690 shown in FIG.
  • the system resource manager 21 cooperates with the system resource domain manager 51 of the domain management server 50 and records it in the domain resource DB 55 of the domain management server 50.
  • a network boot of the server to which the IP address and the host name are assigned is performed using the stored temporary OS.
  • the server sub RM52, the resource manager agent 11 la, and the server RM agent 112a cooperate to collect information on each server's MAC address, server architecture, model, and status, and collect the collected information into the system. Sent to resource domain manager 51.
  • the system resource manager 21 obtains each server's MAC address, server architecture, model, and status information from the system resource domain manager 51, and stores the information in the system resource DB 26 as managed server data 700.
  • the system resource manager 21 obtains each server's MAC address, server architecture, model, and status information from the system resource domain manager 51, and stores the information in the system resource DB 26 as managed server data 700.
  • storage devices are devices such as FC (Fiber Channel) switches and RAID devices.
  • the system resource manager 21 manages and manages the IP address information of the storage to be registered as a management target when the user inputs it for each management subnet shown in Fig. 7. Accept from client 10. Then, the system resource manager 21 registers the storage device by storing the storage device information corresponding to the IP address in the system resource DB 26.
  • the system resource manager 21 performs a process of adding the server registered in the management target server data 700 of FIG. 21 to the server domain. Specifically, when the user operates the operation management client 10 to specify a server and a server domain to which the server is added, the system resource manager 21 sends the server and server domain information to the operation management client 10. Accept from.
  • the system resource manager 21 refers to the managed server data 700 shown in FIG. 21, and the server architecture of the server is the server architecture registered in the server domain data 340 shown in FIG. Check for a match.
  • the system resource manager 21 reads the managed server data 700 shown in Fig. 21 and checks that the server is set to perform SAN boot! [0154] Furthermore, the system resource manager 21 checks the network connection status of the server to be added to the server domain. Specifically, the system resource manager 21 reads the inter-server domain link data 670 shown in FIG. 18, and acquires information on the front server domain and the back server domain for the server domain.
  • the system resource manager 21 reads the network domain data 480 shown in FIG. 14, and acquires information on the front sub domain and the back sub domain corresponding to the network domain.
  • the system resource manager 21 reads the network subdomain data 470 shown in FIG. 13 and identifies the switches corresponding to the front subdomain and the back subdomain.
  • the system resource manager 21 requests the network RM 24 and the network sub RM 54 to check the connection between the server and the switch. Further, the network RM 24 and the network sub RM 54 request the network RM agent 114a to check the connection between the server and the switch, and obtain the check result.
  • system resource manager 21 associates the information related to the server with the pool group described in FIG. 10, and provides the provisioning configuration described below. Store as data 710 in system resource DB26.
  • FIG. 22 is a diagram showing an example of provisioning configuration data 710 storing information on groups to which the server belongs.
  • This provisioning configuration data 710 stores information on server name, pool group name, server group name, storage sub group name, and accessibility.
  • the server name is the same information as the server name described in FIG.
  • the pool group name is the same information as the pool group name described in FIG.
  • the server group name is group identification information when the servers included in the same server domain are divided into one or more groups. At this stage, the server group name information is not yet registered.
  • the storage subgroup name is one or more storages belonging to the storage domain. This is the group identification information assigned to each server when it is divided into several groups and assigned to each server belonging to the server group. At this stage, storage subgroup name information is not yet registered. Accessibility is information indicating whether or not the server is permitted to access the storage. At this stage, access permission information is not yet registered.
  • the system resource manager 21 After registering the server name and pool group in the provisioning configuration data 710, the system resource manager 21 registers the previously registered storage device in the storage domain.
  • the system resource manager 21 sends the information to the operation management client. Accept from 10.
  • the system resource manager 21 reads the server Z storage domain link data 680 shown in FIG. 19, and specifies the server domain corresponding to the storage domain.
  • the system resource manager 21 checks the uniformity of the connection between the servers belonging to the specified server domain and the storage devices belonging to the storage domain in cooperation with the storage RM25 and the storage RM agent 115a. To do.
  • FIG. 23 is a diagram showing an example of the connection between the server and the storage device in which the connection state is uniform.
  • the connection state of Sano 730a and 730bf3 ⁇ 4 is uniform.
  • connection status between the FC switches 750a, 750b and the RAID device 760a belonging to the storage domain 740 and the connection status between the FC switch 750a, 750b and the RAID device 760b belonging to the storage domain 740 are uniform. It has become.
  • the system resource manager 21 checks the uniformity of the connection based on WWPN (World Wide Port Name) information. At that time, the system resource manager 21 1 multiplexes the storage domain path from the storage domain data 360 shown in FIG. It reads the degree information and also checks the redundancy.
  • FIG. 24 is a diagram for explaining a connection uniformity check process based on WWPN.
  • FIG. 24 shows the RAID device WW PN data 770a, 770b stored in the RAID devices 760a, 760b shown in Fig. 23 and FC switch 750a, 750b.
  • Switch WW PN data 780a, 780b and Sano 730a, 730b will be listed! / Sano WWPN data 790a, 790b will be shown!
  • RAID device WWPN data 770a and 770b store CA (Channel Adapter) and WWPN information.
  • the CA is channel adapter identification information included in the RAID devices 760a and 760b.
  • the WWPN is information on the WWPN assigned to the channel adapter of the RAID devices 760a and 760b!
  • FC switch WWPN data 780a and 780b store information on port and partner WWPN.
  • port is identification information of the port of the FC switches 750a and 750b.
  • Destination W WPNi or FC switch 750a, 750b port [Connected! WWPN information assigned to channel adapter of RAID device 760a, 760 b, or port of FC switch 750a, 750b [This is the information of the WWPN assigned to the HBA (Host Bus Adapter) of the connected Sano 730a, 730b.
  • HBA Hyper Bus Adapter
  • Server WWPN data 790a and 790b store information on HBA and WWPN.
  • the HBA is identification information of the HBA that the servers 730a and 730b have.
  • the WWPN is information on the WWPN assigned to the HBA of the servos 730a and 730b.
  • the system resource manager 21 converts the RAID device WWPN data 770a, 770b, the FC switch WWPN data 780a, 780b, and the Sano WWPN data 790a, 790b into the RA ID devices 760a, 760b, FC switches 750a, 750b, and By collecting the Sano 730a and 730b forces and examining the correspondence between WWPNs, it is possible to check the uniformity of the connection state between the devices.
  • the system resource manager 21 executes the LUN (Logical
  • Step S104 the system resource manager 21 performs a server group creation process.
  • Step S104 the process performed in step S104 will be described in more detail.
  • the system resource manager 21 receives information related to the storage template set by the user by operating the operation management client 10, and registers the information in the system resource DB 26 as storage template data 800 described below.
  • the storage template is setting information related to the storage configuration for the server group created later.
  • FIG. 25 is a diagram showing an example of storage template data 800 that stores data related to the storage template.
  • the storage template data 800 stores storage template name, disk type, disk name, reliability requirement, load level, disk capacity, and boot disk information.
  • the storage template name is identification information for identifying the set storage template.
  • the disk type is information indicating the type of use of the disk belonging to the storage template.
  • root indicates that the disk is used to store system data
  • local indicates that the disk is used to store server-specific data
  • Shared indicates that the disk is used to store data shared between servers.
  • the disk name is a name for identifying a disk assigned to each disk.
  • the degree of reliability is reliability information required for the disk.
  • the degree of load is information on the degree of load on the disk.
  • the disk capacity is the storage capacity of the disk.
  • the boot disk is information indicating whether or not the disk is used for booting the system.
  • the system resource manager 21 receives server group information set by the user operating the operation management client 10, and stores the information in the system resource DB 26 as server group data 810 described below. .
  • FIG. 26 is a diagram showing an example of server group data 810 stored as information on server groups.
  • This server group data 810 includes a server group name, a server domain Store the in-name, software distribution image name, version number, storage template name, SAN boot and automatic recovery information.
  • the server group name is group identification information when servers included in the same server domain are divided into one or more groups.
  • the server domain name is identification information of the server domain to which the server group belongs.
  • the software distribution image name is information for identifying the software image file to be distributed to the servers belonging to the server group.
  • the version number is information on the version number of the software distribution image.
  • the storage template name is the same information as the storage template name described in FIG.
  • SAN boot is information indicating whether to perform SAN boot for servers belonging to the server group.
  • Automatic recovery is information indicating whether or not a server that has a scale-out configuration in which a plurality of servers operate in cooperation with each other fails to automatically execute a process for adding a server.
  • a storage group is a group of storages in the same storage domain divided into one or more groups.
  • FIG. 27 is a diagram illustrating an example of server Z storage group link data 820 stored as information on storage groups corresponding to server groups.
  • the server Z storage group link data 820 stores information on the server group name, storage group name, and storage domain name.
  • the server group name is the same information as the server group name shown in FIG.
  • the storage group name is storage group identification information generated for each server group.
  • the storage domain name is the unique U ⁇ blueprint for the storage domain to which the storage group belongs.
  • the system resource manager 21 When creating a storage group, the system resource manager 21 reads the storage template information associated with the server group from the server group data 810 shown in Fig. 26, and stores the storage template shown in Fig. 25.
  • Data 800 Read the disk type information corresponding to the storage template.
  • system resource manager 21 creates a storage group for each server group for each disk type, such as "root”, “local”, and “shared”, and sends that information to the server Z storage group. Register in link data 820.
  • system resource manager 21 reads the storage domain information corresponding to the server domain to which the server group belongs from the server Z storage domain link data shown in FIG. Register to data 820.
  • the system resource manager 21 transmits a command to the AP management unit 116a to make the AP management unit 116a recognize that the server group has been added. Specifically, the system resource manager 21 transmits “issvgrp & (1 (1”) shown in FIG. 8 to the eight? Management unit 116 &.
  • the system resource manager 21 receives information on the correspondence between server groups set by the user by operating the operation management client 10, and stores the information in the system resource DB 26 in the server group described below. Register as Inter-link data 830.
  • FIG. 28 is a diagram showing an example of inter-server group link data 830 stored as information on the correspondence relationship between server groups.
  • This inter-server group link data 830 stores information on the front server group name, network gnole name, and back server group name.
  • the front server group name is identification information for identifying a server group closer to the Internet 70 among server groups connected by a network group.
  • the network group is a group of networks in which the network subgroups described with reference to FIG. 16 are coupled to connect server groups.
  • the network group name is identification information for identifying the network group.
  • the back server group name is identification information for identifying a server group far from the Internet 70 among server groups connected by the network group. [0196] Thereafter, the system resource manager 21 stores information on the network group in the system resource DB 26 as network group data 850 described below.
  • the system resource manager 21 first reads the inter-server domain link data 670 shown in Fig. 18 and obtains information on the network domain set between the two server domains. .
  • the system resource manager 21 executes the network domain data shown in FIG.
  • Read 480 and get information about front subdomain, backsubdomain and device corresponding to network domain.
  • the system resource manager 21 reads the network subgroup data 660 shown in FIG. 17, searches the network subgroup data 660 for the network subdomain corresponding to the front subdomain and the knock subdomain, and performs the search. From the network subgroups corresponding to the network subdomain, extract unused network subgroups.
  • the network device corresponding to the device information read from 480 is divided into one or more duplications, and the information is stored in the system resource DB 26 as load distribution duplication data 840 described below.
  • FIG. 29 is a diagram illustrating an example of the load distribution group data 840 stored as group information of the load distribution device.
  • This load balancing group data 840 is the load balancing group name
  • the load balancing group name is information for identifying a group when the load balancer is divided into one or more groups.
  • the load balancer name is a name that identifies the load balancer.
  • the representative IP is information on the IP address assigned to each load balancing group.
  • the system resource manager 21 explains the information in the system resource DB 26 based on the correspondence information such as the network domain, network sub group, and load distribution group belonging to each network group described below.
  • Network Store as group data 850.
  • FIG. 30 is a diagram showing an example of network group data 850 stored as information on network groups.
  • the network group data 850 stores information on a network group name, a network domain name, a front network subgroup name, a load balancing loop name, and a back network subgroup name.
  • the network group name is the same information as the network group described in FIG.
  • the network domain name is the same information as the network domain described in FIG.
  • the front network subgroup name corresponds to the network subgroup name described in FIG. 17, and identifies the network subgroup on the Internet 70 side among the network subgroups across the load balancing group. Information.
  • the load distribution group name is the same information as the load distribution group name described in FIG.
  • the back network subgroup name corresponds to the network subgroup name described in FIG. 17, and is identification information for identifying the network subgroup further away from the Internet 70 among the network subgroups sandwiching the load balancing group. It is.
  • system resource manager 21 cooperates with the network RM 24 and the network sub RM 54 to set the VLAN of the network sub group for the switch registered in the network sub domain data 470 of FIG.
  • step S105 the system resource manager 21 adds a first server to the server group and performs a process of creating a software image of the software installed on the server.
  • step S105 the process performed in step S105 will be described in more detail.
  • the system resource manager 21 accepts server and server group information, Register the server with.
  • the system resource manager 21 reads the server group data 810 in Fig. 26, searches for the storage template corresponding to the server group, and stores the storage template.
  • the template setting conditions are acquired from the storage template data 800 in FIG.
  • the storage RM 25 sets a logical volume in the pooled storage so as to satisfy the setting conditions of the storage template acquired by the system resource manager 21, and the storage in which the logical volume is set is stored in the above server group. Perform the process assigned to.
  • FIG. 31 is a flowchart showing a processing procedure of setting processing for setting a logical volume in a RAID device.
  • the system resource manager 21 acquires information on the necessary conditions for the logical volume (step S 201).
  • the logical volume requirements are information on the necessity of reliability, the degree of load, and the disk capacity stored in the storage template data 800 of FIG.
  • FIG. 32 is a diagram showing an example of a logical volume setting screen.
  • Figure 32 shows the required condition output screen 860 that displays the logical volume requirements that the system resource manager 21 outputs to the operation management client 10, and the logical volume configuration output screen 880 after setting the logical volume. Is shown.
  • the necessary condition output screen 860 outputs three necessary conditions 870a-870c.
  • FIG. 33 is a diagram showing an example of RAID level setting data 940 stored with RAID level setting information.
  • This RAID level setting data 940 stores information on the necessity of reliability, the degree of load, and the RAID level.
  • the reliability level is the same information as the reliability level described in Figure 25.
  • the degree of load is the same information as the degree of load described in FIG.
  • the RAID level is a R AID Renore ⁇ blueprint determined by the need for reliability and the degree of load.
  • the system resource manager 21 determines the RAID device type from the total value of the required disk capacity (step S 203).
  • Figure 34 relates to a RAID device.
  • 5 is a diagram showing an example of RAID device data 950 stored as information stored therein.
  • FIG. 5 is a diagram showing an example of RAID device data 950 stored as information stored therein.
  • This RAID device data 950 includes the total required storage capacity, RAID device model name, data access speed, number of disk drives that make up the RAID group (in the case of RAID0 + 1), and disks that make up the RAID group. Stores information on the number of drives (for RAID5) and the maximum number of RAID groups.
  • the total storage capacity value is information on the total disk capacity required for the logical volume.
  • the model name of the RAID device is R which is suitable for securing the required total storage capacity.
  • the data access speed is information on the data access speed of the disk drive specified by the RAID device model name.
  • information on the three disk drive types “first”, “second”, and “third” is stored in order of increasing access speed.
  • the number of disk drives that make up a RAID group (in the case of RAID0 + 1) is information on the number of disk drives that make up a RAID group when the RAID level is RAID0 + 1.
  • the number of disk drives that make up a RAID group (for RAID5) is information on the number of disk drives that make up a RAID group when the RAID level is RAID5!
  • the maximum number of RAID groups is information on the maximum number of RAID groups to be created.
  • the system resource manager 21 acquires the specific information for each RAID device type from the RAID device data 950 described in Fig. 34 (step S204).
  • the specific information is the disk drive type that corresponds to the "first" data access speed, the number of disk drives that make up the RAID group (in the case of RAID0 + 1), and the disks that make up the RAI D group. Information on the number of drives (for RAID5) and the maximum number of RAID groups.
  • the storage RM 25 creates a logical volume (step S205). Specifically, the storage RM 25 creates a logical volume that satisfies each necessary condition for the logical volume, and sets the logical volume in the RAID device.
  • the logical volume configuration output screen 880 shown in Fig. 32 shows each necessary condition 900a-900c. Satisfied! ⁇ Physical volume 910a- 910d, 920a- 920e force The status set for RAID device 890 is shown.
  • the storage RM 25 creates a RAID group in which logical volumes having the same RAID level are grouped (step S206). Then, the storage RM25 assigns a logical volume to the created RAID group (step S207).
  • the logical volumes 9 10a to 910d satisfying the necessary condition 900a and the necessary condition 900b are grouped in the RAID group 930a because the RAID level is the same in RAID0 + 1.
  • the logical volumes 920a to 920e that satisfy the necessary condition 900c are grouped as a RAID group 930b because the RAID level is RAID5.
  • the storage RM25 sets the disk drive belonging to each RAID group to the disk drive type determined by the data access speed of the RAID device data 950 in FIG.
  • Storage RM25 configures the number of disk drives that make up the RAID group, the number of disk drives that make up the RAID group of RAID device data 950 in Figure 34 (in the case of RAID0 + 1), or the RAID group. Set to the number of disk drives determined by the number of disk drives (for RAID5).
  • the storage RM25 creates RAID groups so that the number of RAID groups is less than or equal to the maximum number of RAID groups of RAID device data 950 in Fig. 34.
  • the logical volume 910a-910d, 920a-920e which satisfies the requirements 900a-900c and is assigned to each RAID group 930a, 930b, corresponds to the corresponding requirement 900a.
  • the storage RM 25 creates a command file that reflects the configuration of the logical volume shown in FIG. 32 on the RAID device (step S208). Then, the storage RM 25 reflects the created logical volume on the real device based on the command file (step S209).
  • the system resource manager 21 corresponds to the server group to which each server belongs. Correspondingly, register the logical volume set in the RAID device as a storage subgroup, and set the access right for the server storage group. Specifically, the system resource manager 21 stores the server group name, storage subgroup name, and access permission information in the provisioning configuration data 710 shown in FIG.
  • FIG. 35 is a diagram showing an example of provisioning configuration data 960 in which storage subgroups are set.
  • provisioning configuration data 960 server group name, storage subgroup name, and accessibility information are added to the provisioning configuration data 710 shown in FIG.
  • the storage RM25 sets the logical volume in the following procedure.
  • FIG. 36 is a flowchart showing a processing procedure of logical volume setting processing for causing a server to recognize a logical volume.
  • the storage RM 25 groups the logical volumes of the R AID device and sets a facility group (step S301).
  • the utility group is information indicating the correspondence between the logical unit number (LUN, Logical Unit Number) recognized by the server and the logical volume (LV, Logical Volume) number in the RAID device. is there.
  • FIG. 37 is an explanatory diagram illustrating the setting process of the logical volume constructed in the RAID device.
  • Figure 37 shows a server group 970 consisting of sano “A” and server “B”, RAID device “ ⁇ ” with logical volumes “LV0”, “LV1”, “LV2”, “LV3” built, Also shown is a storage pool 980 that is also configured with the RAID device “j8” power on which the logical volumes “LV10”, “LV11”, “LV12”, “LV13” are built.
  • a storage group 990 to which LV0J and “LV1” and logical volumes “LV12” and “LV13” of the RAID device “ ⁇ ” are added is shown.
  • Logical volume “LV0” and RAID device “ ⁇ ” added to storage group 990 “LV1” is set to belong to the property group “AG0” and the property group “AG1”.
  • the logical volumes “LV12” and “LV13J” of the RAID device “ ⁇ ” are set to belong to the utility group “AG10” and the affiliate group “AG11”.
  • FIG. 38 shows the property group data 1010 stored as information on the property group.
  • This affinity group data 1010 stores information on the RAID device name, affinity group name, LUN and LV!
  • the RAID device name is identification information for identifying each RAID device.
  • the property group name is the identification information of the property group set in each RAID device.
  • LUN is identification information that identifies a logical volume when accessing server A or server B.
  • LV is identification information for identifying a logical volume.
  • the storage RM25 has redundant paths between servers “A” and Sano “B” and logical volumes “LV0”, “LV1”, “LV12”, and “LV13”. Check the and set the access path by selecting the path (step S302).
  • FIG. 39 is a diagram showing an example of multipath configuration data 1020 stored as information on multipath configurations.
  • the multipath configuration data 1020 stores information on multipath instance names and LUNs.
  • the multipath instance name is information for identifying a set multipath instance.
  • the LUN is information for identifying a logical unit corresponding to the set multipath instance and recognized by the server “A” or the server “B”.
  • the storage RM 25 registers the set multipath instance as a component of the mirror volume in the cluster resource of the server that performs clustering (step S304). Thereafter, the storage RM 25 uses the multipath instance registered in the cluster resource to set a mirror volume group that pairs volumes of different RAID devices (step S 305).
  • FIG. 37 shows an in-server storage configuration 1000 that is internally set in Sano “A” or Sano “B”.
  • this storage configuration 1000 multipath Set up a mirror volume “M0” consisting of stance r m plb0j and multipath instance “mplb2”, and a mirror volume “M1” consisting of mano retinos instance “mplbl” and mano retinos instance “mplb3” Being! RU
  • FIG. 40 shows mirror volume configuration data 1030 stored as information on the configuration of the mirror volume.
  • This mirror volume configuration data 1030 includes mirror volume and configuration RU
  • the mirror volume is identification information for identifying the set mirror volume.
  • Configuration The disk is identification information that identifies the logical units that make up the mirror volume.
  • the configuration disk identifies the LUN corresponding to the mirror volume by referring to the multi-node configuration data 1020, which is the power at which the multi-path instance information in the multi-path configuration data 1020 shown in FIG. 39 is stored. can do.
  • the property group data 1010 shown in FIG. 38 is stored in the system resource DB 26 and the RAID device by the storage RM25.
  • the multipath configuration data 1020 shown in FIG. 39 and the mirror volume configuration data 1030 shown in FIG. 40 are stored in the system resource DB 26 by the storage RM 25 and are managed by the storage RM agent 115a. Stored in a server.
  • the network RM 24 performs the network setting of the server registered in the server group.
  • the network RM 24 reads the information of the network group having the server group to which the server is added as the front server group and the back server group from the inter-server group link data 8 30 shown in FIG. .
  • the network RM 24 reads the network group data 850 shown in Fig. 30, and extracts the front network sub group and the back network sub group corresponding to the network group.
  • the network RM24 reads the network subgroup data 660 shown in FIG. 17, searches the network subgroup corresponding to the front network subgroup and the back network subgroup, and assigns them to the network subgroup. Assign an IP address to the server based on the specified subnet information.
  • FIG. 41 is a diagram showing an example of IP address management data 1040 stored as information on IP addresses assigned to servers. This IP address management data 1040 is stored in the system resource DB 26 by the system resource manager 21.
  • This IP address management data 1040 stores information on an IP address and an allocation destination.
  • the IP address is information on the IP address assigned to the server.
  • the assignment destination is information for identifying the server to which the IP address is assigned.
  • the network RM24 is represented by the network group corresponding to the server group to which the server is added based on the load distribution group data 840 shown in FIG. 29 and the network group data 850 shown in FIG. Assign a load balancing dup having an IP address. At this point, the load balancing function of the load balancer is in a stopped state.
  • the user installs software such as an OS to be installed on the server in the storage subgroup associated with the server to be added to the server group.
  • This storage subgroup is constructed using SAN technology.
  • the software sub RM53 is linked with the software RM23 and the software RM agent 113a to collect software such as OS, device driver, application software, etc. And store the created software image in the domain resource DB55.
  • the software RM23 reads the middleware cooperation IF data 330 shown in FIG. 8, and the software RM agent 113a sends a software image to the AP management unit 116a, which is a functional unit realized by the middleware. Send commands that need to be executed before collection.
  • the software RM agent 113a transmits a command for stopping the function of the AP management unit 116a, and stops the function of the AP management unit 116a.
  • the software sub RM 53 then shuts down the server system.
  • the software sub RM 53 performs network booting of the server using a temporary OS stored in the domain resource DB 55 of the domain management server 50 of the server.
  • the software sub RM 53 creates a software image of the software installed in the activated server.
  • the software RM 23 registers information related to the software image in the system resource DB 26 as software image management data 1050 described below.
  • FIG. 42 is a diagram showing an example of software image management data 1050 stored as information on software images.
  • the software image management data 1050 stores software image name, format, OS attribute, and software name information.
  • the software image name is a name of the software image.
  • the format is information indicating whether the software image is created in the archive format or the force patch format.
  • the OS attribute is information indicating whether or not the software image power is a software image of the OS.
  • the software name is the name of the software for which the software image was created.
  • the software sub RM 53 creates a software distribution image to be distributed to other servers based on the created software image. Specifically, the software sub RM 53 creates a software distribution image by combining software images of a plurality of software installed in the storage for the first server.
  • the system resource manager 21 stores information related to the software distribution image in the system resource DB 26 as software distribution image management data 1060 described below.
  • FIG. 43 is a diagram showing an example of software distribution image management data 1060 stored as information on software distribution images.
  • This software distribution image management data 106 0 stores information of software distribution image name, version number, server architecture name, and software image Z snapshot name!
  • the software distribution image name is the name of the software distribution image.
  • the version number is the version number of the software distribution image.
  • the server architecture name is identification information that identifies the CPU architecture of the server that is the distribution target of the software distribution image.
  • the software image Z snapshot name is identification information for identifying the software image or snapshot included in the software distribution image.
  • a snapshot is a software image of software installed on a server at a specific point in time.
  • the system resource manager 21 registers information related to the snapshot in the system resource DB 26 as snapshot management data 107 0 described below.
  • FIG. 44 is a diagram showing an example of snapshot management data 1070 stored as information on snapshots.
  • This snapshot management data 1070 stores snapshot name and software image name information.
  • the snapshot name is the name of the snapshot.
  • the software image name is identification information for identifying the software image included in the snapshot.
  • the software RM23 reads the middleware linkage IF data 330 shown in FIG. 8, and the software RM agent 113a collects software images from the AP management unit 116a, which is a functional unit realized by the middleware. Send a command that needs to be executed later.
  • the software RM agent 113a transmits a command for starting the AP management unit 116a that has been stopped, and starts the AP management unit 116a.
  • Network! ⁇ M24 sets the VLAN on the switch and connects the server to the VL AN, starts the load balancing function of the load balancer, and assigns the server as the target server to distribute the load.
  • the system resource manager 21 reads the middleware linkage IF data 330 shown in Fig. 8 and needs to be executed after creating the server group to the AP management control unit 27, which is a functional part realized by the middleware. The correct command.
  • the system resource manager 21 transmits a command for recognizing the addition of the server group to the AP management unit 27. Then, the AP management supervision unit 27 cooperates with the AP management unit 116a to install and set application programs on the server, and to set the server in a state that can be used for business.
  • FIG. 45 is a flowchart showing the processing procedure for adding a server to a server group. As shown in FIG. 45, first, the system resource manager 21 accepts server and server group information when the user operates the operation management client 10 and specifies a server and a server group for registering the server. (Step S401
  • the system resource manager 21 registers the server in the server group (step S402). Subsequently, the system resource manager 21 reads the managed server data 700 shown in FIG. 21 and the software distribution image management data 1060 shown in FIG. 43, and confirms whether the server architecture of the server can introduce the software image. Whether or not is checked (step S403). If the server architecture of the server is not capable of installing a software image (step S403, No), the process of adding the server to the server group is terminated.
  • the storage RM25 uses the same method as when the storage is configured on the first server.
  • the process to set storage for is performed (step S404). Specifically, the storage RM 25 executes the logical volume setting process described in FIG. 31 and FIG. 36 on the server.
  • the network RM24 performs network booting of the server registered in the server group using a temporary OS in the same way as when the network is set up on the first server, and the network of the server Make settings (step S405).
  • the software sub RM 53 expands the software distribution image created from the software installed on the first server to the storage sub group associated with the second server, and deploys the expanded software. To restart the server (step S406).
  • the software RM 23 stores information on the distributed software distribution image in the system resource DB 26.
  • FIG. 46 shows distribution management data storing information related to the distribution status of software distribution images.
  • This distribution management data 1080 stores server name, storage subgroup name, software distribution image name, version number, and status information.
  • the server name is information for identifying a server to which a storage subgroup is assigned.
  • the storage subgroup name is information for identifying the storage subgroup in which the software distribution image is deployed.
  • the software distribution image name is information for identifying the software distribution image deployed in the storage subgroup.
  • the version number is information on the version number of the distributed software distribution image.
  • the status is information indicating the distribution status of the software distribution image.
  • system resource manager 21 cooperates with the network RM 24 and the AP management unit 27 to perform the process of shifting the second server to the business mode (step S407). ).
  • the network RM 24 assigns an IP address to the second server based on the information of the subnet to which the first server belongs.
  • Information on the IP address assigned to the second server is stored by the system resource manager 21 in the IP address management data 1040 shown in FIG.
  • the network RM 24 sets a VLAN on the switch, connects the server to the VLAN, and causes the load balancer to register the server as a target server to distribute the load.
  • the system resource manager 21 transmits a command that causes the AP management management unit 27 to recognize the addition of the server group of the server to the AP management management unit 27. Then, the AP management supervision unit 27 cooperates with the AP management unit 116a to install and set an application program for the server, and to set the server in a usable state for business.
  • FIG. 48 is a flowchart showing the processing procedure of the repurposing process.
  • the system resource manager 21 receives information related to the repurposing setting set by the user operating the operation management client 10, and stores the information in the system resource DB 26 as follows.
  • the repurposing setting data 1090 and the schedule setting data 1110 to be described are registered (step S501).
  • FIG. 49 is a diagram showing an example of repurposing setting data 1 090 stored as information on repurposing settings.
  • the repurposing setting data 1090 stores information on the repurposing definition name, the number of used servers, state 1, state 2 and state 3.
  • the repurposing definition name is information on the repurposing definition name assigned to each repurposing setting.
  • the used server name is information on the number of servers used for repurposing processing.
  • State 1, State 2, and State 3 identify the server group to which the server belongs in each state when there are three states in which the server belongs to different server groups in the repurposing process. Information. In each of state 1, state 2 and state 3, the identification information of the server group to which the server belongs in the state is stored.
  • FIG. 50 is a diagram showing an example of repurposing operation data 1100 stored as information on the state of the server.
  • This repurposing operation data 1100 stores a repurposing definition name and information on the current state.
  • the repurposing definition name is the same information as the repurposing definition name described in FIG.
  • the current state is information that identifies the state of the server group to which the server currently belongs. In this current state, information relating to the state 1, state 2 or state 3 of the repurposing setting data 1090 in FIG. 49 is stored.
  • Fig. 51 is a diagram showing an example of schedule setting data 1110 stored as information on schedules for executing repurposing processing.
  • This schedule setting data 1110 Stores repurposing definition name, date and time, and operation information.
  • the repurposing definition name is the same information as the repurposing definition name described in FIG.
  • the date and time is information on the date and time when the repurposing process is executed.
  • the operation is information for identifying a switching source state and a switching destination state when switching the state described in FIG. 49 in the repurposing process.
  • the repurposing setting data 1090 shown in Fig. 49, the repurposing operation data 1100 shown in Fig. 50, and the schedule setting data 1110 shown in Fig. 51 include three states: state 1, state 2 or state 3
  • the number of information is not limited to three, and information on any number of states can be stored. In the following, for the sake of brevity, the repurposing process for switching between the two states, state 1 and state 2, will be described.
  • the system resource manager 21 determines that the server group whose status is to be switched belongs to a server group belonging to the same server domain, and that the server to be managed is a pool group. It is checked that the number of servers set in the number of servers in use exists (step S502).
  • the system resource manager 21 executes a server group check with reference to the server group data 810 shown in FIG. Further, the system resource manager 21 executes the pool group check with reference to the provisioning configuration data 710 shown in FIG.
  • the system resource manager 21 registers the server in the server group for switching corresponding to the state 1 shown in Fig. 49 (step S503). Then, the system resource manager 21 creates a storage subgroup for the server group in which the server is registered in cooperation with the storage RM 25 (step S504).
  • the system resource manager 21 cooperates with the storage RM25 to set a logical volume in the RAID device, and the storage template data 800 shown in FIG. 25 and the server shown in FIG. Referring to the group data 810, a storage subgroup corresponding to the server group is created as shown in FIG. In addition, the system resource manager 21 starts from the server for the created storage subgroup. Allow access.
  • the system resource manager 21 selects the software distribution image to be distributed to the server group in which the server is registered by referring to the server group data 810 shown in FIG. Then, the software sub RM 53 distributes and deploys the software distribution image to the storage sub group corresponding to the server group (step S505).
  • the system resource manager 21 cooperates with the network sub RM54 to set the storage subgroup access from the server corresponding to the storage subgroup to which the software distribution image is distributed to Disconnect the server from the server group (step S506). At that time, the system resource manager 21 does not delete the storage subgroup but stores it.
  • the system resource manager 21 registers the server disconnected from the server group in another server group for switching corresponding to the state 2 (step S507). Then, the system resource manager 21 creates a storage subgroup for the server group that has registered the server in cooperation with the storage RM25 (step S508).
  • the system resource manager 21 cooperates with the storage RM25 to set a logical volume in the RAID device, and the storage template data 800 shown in FIG. 25 and the server shown in FIG. Referring to the group data 810, a storage subgroup corresponding to the server group is created as shown in FIG. Furthermore, the system resource manager 21 permits access from the server to the created storage subgroup.
  • the system resource manager 21 selects a software distribution image to be distributed to the server group in which the server is registered by referring to the server group data 810 shown in FIG. Then, the software sub RM 53 distributes and deploys the software distribution image to the storage sub group corresponding to the server group (step S509), and ends this pre-setting process.
  • the server is One puka may be disconnected, and the processing from step S507 to step S509 and the processing for disconnecting the server group power may be repeatedly executed for the number of states.
  • the system resource manager 21 acquires information of the server group to be switched from the repurposing setting data 1090 shown in FIG. 49 (step S601). .
  • the system resource manager 21 stores the server group data 81 shown in FIG.
  • step S602 information on the software distribution image corresponding to the server group is acquired, and with reference to FIG. 46, it is checked that the software distribution image has already been distributed.
  • the system resource manager 21 cooperates with the network sub RM 54 to set access to the storage sub group from the server as non-permitted, thereby removing the server from the server group to which the server currently belongs. Detach and add to the pool group (step S603). At that time, the system resource manager 21 does not delete the storage subgroup but stores it.
  • the system resource manager 21 registers the server added to the pool group in the server group to be switched to (step S604), and creates the logical volume created in the storage subgroup corresponding to the registered server group. Access from the server is permitted (step S605).
  • the server RM22 starts up the server using the logical volume permitted to be accessed as a startup disk (step S606), and ends this repurposing process.
  • FIG. 52 is a diagram showing an example of repurposing setting data 1120 in which one or more server groups are set in each state.
  • the repurposing setting data 1120 stores information on a repurposing definition name, a used server name, state 1 and state 2.
  • the repurposing definition name is the same information as the repurposing definition name explained in Fig. 49. is there.
  • the number of used servers is the same information as the number of used servers described in FIG. State 1 and State 2 are information for identifying the server group to which the server belongs in each state when there are two states in which the server belongs to different usage server groups in the repurposing process. In the state 1 and the state 2, the identification information of the server group to which the server belongs in each state is stored.
  • state 1, state 2 and state 3 of repurposing setting data 1090 described in Fig. 49 is that one repurposing definition name has one or more server groups in each state. The point is that the software used by the servers belonging to the server group is switched to another software, and the usage of the servers belonging to the server group is changed to another usage.
  • the server group “A_DB” and the server group “B_DB” are registered for the state 1, and the server group “A_Batch” is registered for the state 2. Then, when the state is changed from state 1 to state 2, the servers belonging to server group “A_Batch” can be selected from the two uses of servers belonging to server group “A_DB” and server group “B_DB”. The server usage is changed to one usage.
  • the number of servers allocated to each server group may be set for each server group.
  • server group "A_DB” and server group “B_DB” are registered for status 1, and among the four servers specified by the number of used servers, server group "A_DB" One server is assigned, and three servers are assigned to the server group “B_DB”. In state 2, it is set to allocate 4 servers to the server loop “A_Batch”.
  • FIG. 53 is a diagram showing a hardware configuration of the computer 1200 serving as the site management server 20 shown in FIG.
  • the computer 1200 includes an input device 1210 that accepts input of data from a user, a monitor 1220, a medium reader 1230 that reads a program from a recording medium cover that records various programs, a ROM (Read Only Memory) 1240, and a network.
  • the network interface 1250, HDD (Hard Disk Drive) 1260, RAM (Random Access Memory) 1 270, and CPU (Central Processing Unit) 1280 that transfer data to and from other computers are connected via the bus 1290. Configured.
  • the HDD 1260 stores a program that exhibits the same function as the function of the site management server 20, that is, the system resource management program 1260b and the AP management management program 1260c shown in FIG. .
  • system resource management program 1260b and the AP management supervision program 1260c may be integrated or distributed as appropriate.
  • the CPU 1280 power system resource management program 1260b and the AP management overall program 1260c are also read out and executed by the HDD 1260 power, thereby functioning as the system resource management process 1280a and the AP management overall process 1280b.
  • This system resource management process 1280a corresponds to the system resource manager 21, server RM22, software RM23, network RM24, and storage RM25 shown in FIG.
  • AP management management process 1280b corresponds to AP management management department 27 shown in Fig. 3.
  • the HDD 1260 stores system resource data 1260a.
  • the system resource data 1260a corresponds to various types of data stored in the system resource DB 26 shown in FIG.
  • the CPU 1280 stores various data related to resource management as system resource data 1 260a, and reads the system resource data 1260a from the HDD 1260.
  • the data is stored in the RAM 1270, and various data processing is executed based on the system resource data 1270a stored in the RAM 1270.
  • FIG. 54 is a diagram showing a hardware configuration of the computer 1300 that becomes the domain management server 20 shown in FIG.
  • This computer 1300 includes an input device 1310 that accepts input of data from a user, a monitor 1320, a medium reading device that records various programs, a medium reader 1330 that reads the program, a ROM 1340, and another computer via a network.
  • Network interface 1350, HDD1 360, RAM1370, and CPU1380, which exchange data between the two, are connected via a bus 1390.
  • the HDD 1360 stores a program that exhibits the same function as the functions of the domain management servers 50 and 60, that is, the domain resource management program 1360b shown in FIG.
  • the domain resource management program 1360b may be stored in an integrated or distributed manner as appropriate.
  • the CPU 1380 power domain resource management program 1360b is read from the HDD 1360 and executed to function as the domain resource management process 1380a.
  • This domain resource management process 1380a corresponds to the system resource domain manager 51, server sub RM52, software sub RM53, and network sub RM54 shown in FIG.
  • the domain resource data 1360a is stored in the HDD 1360.
  • the domain resource data 1360a corresponds to various data stored in the domain resource DB 55 shown in FIG.
  • the CPU 1380 stores various data related to resource management in the domain as domain resource data 1360a, reads the domain resource data 1360a from the HDD 1360, stores it in the RAM 1370, and stores the domain resource data 1360a in the RAM 1370. Various data processing is executed based on the resource data 1370a.
  • FIG. 55 is a diagram showing a hardware configuration of a computer 1400 serving as the server 110a shown in FIG.
  • This computer 1400 is also equipped with an input device 1410 that accepts data input from a user, a monitor 1420, and a recording medium that records various programs.
  • a medium reader 1430, a RAM 1440, and a ROM 1450 for reading a program, a network interface 1460, an HDD 1470, and a CPU 1480 for transferring data to and from other computers via a network are connected by a bus 1490.
  • the HDD 1470 stores a program that exhibits the same function as that of the server 110a, that is, the agent resource management program 1470a and the AP management program 1470b shown in FIG. Note that the agent resource management program 1470a and the AP management program 1470b may be integrated or distributed as appropriate and stored.
  • the CPU 1480 power agent resource management program 1470a and the AP management program 1470b are read from the HDD 1470 and executed, thereby functioning as an age entry source management process 1480a and an AP management process 1480b.
  • This agent resource management process 1480a corresponds to the resource manager engine shown in FIG. 3, the Sano RM agent 112a, the software RM agent 113a, the network RM agent 114a, and the storage RM agent 115a.
  • the AP management process 1480b corresponds to the AP management unit 116a shown in FIG.
  • the system resource management program 1260b, the AP management supervision program 1260c, the domain resource management program 1360b, the agent resource management program 1470a and the AP management program 1470b are not necessarily stored in the HDD 1260, HDD 1360 or HDD 1470 from the beginning. There is no need to keep it.
  • a flexible disk inserted into the computer 1200, 1300, or 1400
  • FD compact disc
  • CD-ROM compact disc
  • MO disk compact disc
  • DVD digital versatile disk
  • HDD hard disk drives
  • Each program is stored in a “physical medium”, or in another computer (or server) connected to a computer 1200, 1300 or 1400 via a public line, Internet, LAN, WAN, etc. Let the computer 1200, 1300, or 1400 read and execute each of these programs too.
  • the system resource manager 21 registers a server group as a collection of servers using uniform software, and the registered server group. Since switching of software used by servers belonging to a loop is controlled, even in large-scale information processing systems with a large number of servers, management of server usage changes is managed by managing servers in server groups. Can execute easily and efficiently.
  • the system resource manager 21 registers a server domain as a collection of servers with uniform physical connections, and creates a server group as a collection of servers that use uniform software in the registered server domain. Because it is decided to register, in each server domain where the uniformity of physical connection is guaranteed, register the server group to which the server whose usage is to be switched belongs. Administrators can easily construct and change the usage of servers belonging to the constructed server group easily and efficiently.
  • the system resource manager 21 controls the server's access to the software stored in the RAID device connected to the server belonging to the server group via the SAN. Therefore, it is possible to easily switch the software and efficiently change the usage of the server group.
  • system resource manager 21 controls the switching of the software used by the servers belonging to the server group based on the schedule setting data 1110. Can be done systematically
  • the system resource manager 21 controls each software used by a plurality of servers belonging to a plurality of server groups to another software based on the repurposing setting data 1120, or 1
  • the software used by multiple servers belonging to one server group it was decided to change one or more uses of multiple servers to another use. Server usage can be changed flexibly and efficiently.
  • the system resource manager 21 performs repurposing setting data. Based on 1120, control to switch each software used by a specified number of resources belonging to multiple resource groups to another software, or specified software used by resources belonging to one resource group By controlling to switch to different software for each number of resources, we decided to change one or more uses of multiple resources to different uses, so the required number of servers for each use Can be distributed.
  • each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in an arbitrary unit according to various loads and usage conditions. ⁇ Can be integrated and configured.
  • each processing function performed in each device is realized by a program that is analyzed and executed by the CPU and the CPU, or as hardware by wired logic. Can be realized. Industrial applicability
  • the operation management program, the operation management method, and the operation management apparatus according to the present invention are useful for an operation management system that manages the operation of resources that constitute an information processing system.
  • an operation management system that requires an administrator to easily and efficiently change resource usage.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)

Abstract

 サイト管理サーバ(20)のシステムリソースマネージャ(21)が、物理結線が均一なサーバの集まりとしてサーバドメインを登録し、登録したサーバドメインにおいて均一のソフトウェアを利用するサーバの集まりとしてサーバグループを登録し、登録したサーバグループに属するサーバにSANを介して接続されているRAID装置に用途別に記憶され、当該サーバにより利用されるソフトウェアの切り替えを制御することによりサーバの用途を変更する。

Description

明 細 書
運用管理プログラム、運用管理方法および運用管理装置
技術分野
[0001] 本発明は、情報処理システムを構成するリソースの運用を管理する運用管理プログ ラム、運用管理方法および運用管理装置に関し、特に、サーバなどのリソースの数が 多い大規模な情報処理システムにおいても、リソースの用途の変更を管理者が容易 にかつ効率的に実行することができる運用管理プログラム、運用管理方法および運 用管理装置に関するものである。
背景技術
[0002] 従来、サーバなどのリソースがネットワークを介して接続されることにより構成される 情報処理システムにおいて、サーバを起動する際に、サーバに転送するソフトウェア を切り替えることによりサーバの用途を変更する技術が開発されている。
[0003] たとえば、特許文献 1には、サーバの起動ごとに起動ディスクから転送される起動プ ログラムの内容を変更し、サーバをさまざまな環境で運用するシステムのマルチブー ト方法が開示されている。
[0004] 特許文献 1 :特開 2003— 22190号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上述した特許文献 1に代表される従来技術では、用途を変更して利 用するサーバが複数ある場合に、それらの用途の切り替えを管理することが難しいと いう問題があった。
[0006] すなわち、それぞれのサーバに対してソフトウェアの切り替えを個々に実行する必 要があり、情報処理システムの管理者に負担力 Sかかるという問題があった。特に、情 報処理システムの規模が大きくなつて、サーバの数が多くなると、ソフトウェアの切り替 え処理の実行がますます困難になってくる。
[0007] このようなことから、サーバの数が多 、大規模な情報処理システムにお 、て、サー バの用途の変更を管理者がいかに容易にかつ効率的に実行することができるかが 重要な問題となっている。
[0008] 本発明は、上記に鑑みてなされたものであって、サーバなどのリソースの数が多い 大規模な情報処理システムにおいても、リソースの用途の変更を管理者が容易にか つ効率的に実行することができる運用管理プログラム、運用管理方法および運用管 理装置を提供することを目的とする。
課題を解決するための手段
[0009] 上述した課題を解決し、目的を達成するために、本発明は、情報処理システムを構 成するリソースの運用を管理する運用管理プログラムであって、均一のソフトウェアを 利用するリソースの集まりとしてリソースグループを登録するグループ登録手順と、前 記グループ登録手順により登録されたリソースグループに属するリソースが利用する ソフトウェアの切り替えを制御することによりリソースの用途を変更する用途変更手順 と、をコンピュータに実行させることを特徴とする。
[0010] また、本発明は、情報処理システムを構成するリソースの運用を管理する運用管理 方法であって、均一のソフトウェアを利用するリソースの集まりとしてリソースグループ を登録するグループ登録工程と、前記グループ登録工程により登録されたリソースグ ループに属するリソースが利用するソフトウェアの切り替えを制御することによりリソー スの用途を変更する用途変更工程と、を含んだことを特徴とする。
[0011] また、本発明は、情報処理システムを構成するリソースの運用を管理する運用管理 装置であって、均一のソフトウェアを利用するリソースの集まりとしてリソースグループ を登録するグループ登録手段と、前記グループ登録手段により登録されたリソースグ ループに属するリソースが利用するソフトウェアの切り替えを制御することによりリソー スの用途を変更する用途変更手段と、を備えたことを特徴とする。
発明の効果
[0012] 本発明によれば、均一のソフトウェアを利用するリソースの集まりとしてリソースダル ープを登録し、登録したリソースグループに属するリソースが利用するソフトウェアの 切り替えを制御することとしたので、リソースの数が多い大規模な情報処理システムに おいても、リソースをリソースグループ単位で管理することにより、リソースの用途の変 更を管理者が容易にかつ効率的に実行することができるという効果を奏する。 図面の簡単な説明
[図 1]図 1は、リソースの運用管理の概念を示す図である。
[図 2]図 2は、本実施例に係るリパーパシング処理の概念を説明する図である。
[図 3]図 3は、本実施例に係るリソース運用管理システムの機能構成を示す図である。
[図 4]図 4は、業務へのサーバの割当処理の処理手順を示すフローチャートである。
[図 5]図 5は、運用管理サーバの情報を登録するサイトデータの一例を示す図である
[図 6]図 6は、ドメイン管理サーバの情報を登録するドメイン管理サーバデータの一例 を示す図である。
[図 7]図 7は、管理対象となるサブネットの情報を登録する管理サブネットデータの一 例を示す図である。
[図 8]図 8は、ミドルウェアと連携して各種処理を実行するためのコマンドを記憶したミ ドルゥヱァ連携 IFデータの一例を示す図である。
[図 9]図 9は、サーバが属するドメインであるサーバドメインに係る情報を記憶したサー バドメインデータの一例を示す図である。
[図 10]図 10は、プールグループに係る情報を記憶したプールグループデータの一 例を示す図である。
[図 11]図 11は、ストレージドメインに係る情報を記憶したストレージドメインデータの一 例を示す図である。
[図 12]図 12は、ネットワークドメインおよびネットワークサブドメインを説明する説明図 である。
[図 13]図 13は、ネットワークサブドメインに係る情報を記憶したネットワークサブドメィ ンデータの一例を示す図である。
[図 14]図 14は、ネットワークドメインに係る情報を記憶したネットワークドメインデータ の一例を示す図である。
[図 15]図 15は、負荷分散装置に係る情報を記憶した負荷分散装置データの一例を 示す図である。
[図 16]図 16は、ネットワークサブグループの構成例を説明する説明図である。 [図 17]図 17は、ネットワークサブグループに係る情報を記憶したネットワークサブダル ープデータの一例を示す図である。
[図 18]図 18は、サーバドメイン間の対応関係に係る情報を記憶したサーバドメイン間 リンクデータの一例を示す図である。
[図 19]図 19は、サーバドメインとストレージドメインとの間の対応関係に係る情報を記 憶したサーバ Zストレージドメイン間リンクデータの一例を示す図である。
[図 20]図 20は、ネットワークブートがなされるサーバの情報を記憶したネットワークブ ートサーバデータの一例を示す図である。
[図 21]図 21は、管理対象となるサーバのデータを記憶した管理対象サーバデータの 一例を示す図である。
[図 22]図 22は、サーバが属するグループの情報を記憶したプロビジョユング構成デ ータの一例を示す図である。
[図 23]図 23は、結線状態が均一であるサーバとストレージ機器との結線の一例を示 す図である。
[図 24]図 24は、 WWPNに基づく結線の均一性チヱック処理を説明する図である。
[図 25]図 25は、ストレージテンプレートに係るデータを記憶したストレージテンプレー トデータの一例を示す図である。
[図 26]図 26は、サーバグループに係る情報を記憶したサーバグループデータの一 例を示す図である。
[図 27]図 27は、サーバグループに対応するストレージグループの情報を記憶したサ ーバ Zストレージグループリンクデータの一例を示す図である。
[図 28]図 28は、サーバグループ間の対応関係に係る情報を記憶したサーバグルー プ間リンクデータの一例を示す図である。
[図 29]図 29は、負荷分散装置のグループ情報を記憶した負荷分散グループデータ の一例を示す図である。
[図 30]図 30は、ネットワークグループに係る情報を記憶したネットワークグループデ ータの一例を示す図である。
[図 31]図 31は、論理ボリュームを RAID装置に設定する設定処理の処理手順を示す フローチャートである。
[図 32]図 32は、論理ボリュームの設定画面の一例を示す図である。
[図 33]図 33は、 RAIDレベルの設定情報を記憶した RAIDレベル設定データの一例 を示す図である。
[図 34]図 34は、 RAID装置に係る情報を記憶した RAID装置データの一例を示す図 である。
[図 35]図 35は、ストレージサブグループが設定されたプロビジョユング構成データの 一例を示す図である。
[図 36]図 36は、サーバに論理ボリュームを認識させる論理ボリュームの設定処理の 処理手順を示すフローチャートである。
圆 37]図 37は、 RAID装置に構築された論理ボリュームの設定処理を説明する説明 図である。
[図 38]図 38は、ァフィ-ティグループに係る情報を記憶したァフィ-ティグループデ ータの一例を示す図である。
[図 39]図 39は、マルチパスの構成に係る情報を記憶したマルチパス構成データの一 例を示す図である。
[図 40]図 40は、ミラーボリュームの構成に係る情報を記憶したミラーボリューム構成デ ータの一例を示す図である。
[図 41]図 41は、サーバに割り当てられた IPアドレスに係る情報を記憶した IPアドレス 管理データの一例を示す図である。
[図 42]図 42は、ソフトウェアイメージに係る情報を記憶したソフトウェアイメージ管理デ ータの一例を示す図である。
[図 43]図 43は、ソフトウェア配布イメージに係る情報を記憶したソフトウェア配布ィメ ージ管理データの一例を示す図である。
[図 44]図 44は、スナップショットに係る情報を記憶したスナップショット管理データの 一例を示す図である。
[図 45]図 45は、サーバをサーバグループに追加する処理の処理手順を示すフロー チャートである。 [図 46]図 46は、ソフトウェア配布イメージの配布状況に係る情報を記憶した配布管理 データの一例を示す図である。
[図 47]図 47は、リパーパシング処理に係る事前設定処理の処理手順を説明するフロ 一チャートである。
[図 48]図 48は、リパーパシング処理の処理手順を示すフローチャートである。
[図 49]図 49は、リパーパシングの設定に係る情報を記憶したリパーパシング設定デ ータの一例を示す図である。
[図 50]図 50は、サーバの状態に係る情報を記憶したリパーパシング運用データの一 例を示す図である。
[図 51]図 51は、リパーパシング処理を実行するスケジュールに係る情報を記憶したス ケジュール設定データの一例を示す図である。
[図 52]図 52は、各状態に 1つ以上のサーバグループを設定したリパーパシング設定 データの一例を示す図である。
[図 53]図 53は、図 3に示したサイト管理サーバとなるコンピュータのハードウェア構成 を示す図である。
[図 54]図 54は、図 3に示したドメイン管理サーバとなるコンピュータのハードウェア構 成を示す図である。
[図 55]図 55は、図 3に示したサーバとなるコンピュータのハードウェア構成を示す図 である。
符号の説明
1, 2 業務
3 プール
4 Webドメイン
4一 4 Webサーバ
1 9
5 APドメイン
5一 5 APサーバ
1 6
6 DBドメイン
6一 6 DBサーバ ストレージドメイン
一 7 ストレージ
1 9
a DBサーバグ /レープ
b バッチサーバグノレープc プールグループ
a , 8a , 8b , 8b , 8c , 8c サーノ
1 2 1 2 1 2
ストレージ
a , 9a DBサーバブートディスク
1 2
b, 9b バッチサーバブートディスク
1 2
運用管理クライアント
サイト管理サーバ
システムリソースマネージャ サーバ RM
ソフトウェア RM
ネットワーク RM
ストレージ RM
システムリソース DB
AP管理統括部
, 40, 90, 120 FW
, 60 ドメイン管理サーバ
システムリソースドメインマネージャ サーバサブ RM
ソフトウェアサブ RM
ネットワークサブ RM
ドメインリソース DB
インターネット
ルータ
, 130 SLB 110a, 110b, 110c サーバ
111a リソースマネージャエージェント
112a サーバ RMエージェント
113a ソフトウェア RMエージェント
114a ネットワーク RMエージェント
115a ストレージ RMエージェント
116a AP管理部
140a, 140b, 140c サーノ
150a, 150b, 150c サーバ
160a, 160b, 160c, 160d ス卜レージ
170 SAN
180 エッジドメイン
190 Webドメイン
200 APドメイン
210 DBドメイン
300 サイトデータ
310 ドメイン管理サーバデータ
320 管理サブネットデータ
330 ミドルウェア連携 IFデータ
340 サーバドメインデータ
350 プールグループデータ
360 ストレージドメインデータ
370 Webドメイン
380a, 380b, 380c, 380d, 380e サーバ 390 APドメイン
400a, 400b, 400c, 400d, 400e サーノ 410 Web— APネットワークドメイン
420 Web— Backネットワークサブドメイン 430a, 430b スィッチ
440 AP— Frontネットワークサブドメイ:ソ
450a, 450b スィッチ
460a, 460b SLB
470 ネットワークサブドメインデータ
480 ネットワークドメインデータ
490 負荷分散装置データ
510 Webドメイン
520a, 520b, 520c, 520d, 520e サ、 —ノ
530 A_Webサーバグループ
540 B_Webサーバグループ
550 APドメイン
560a, 560b, 560c, 560d, 560e サ、ーノく
570 A— APサーバグループ
580 B_APサーバグループ
590, 610 スィッチ
600a, 600b SLB
620 A_Web_Backネットワークサブダループ
630 B_Web_Backネットワークサブダル -プ
640 A_AP_Frontネットワークサブグルー -プ
650 B_AP_Frontネットワークサブグルー -プ
660 ネットワークサブグループデータ
670 サーバドメイン間リンクデータ
680 サーバ Zストレージドメイン間リンクデータ
690 ネットワークブートサーバデータ
700 管理対象サーバデータ
710 プロビジョニング構成データ
720 サーバドメイン 730a, 730b サーバ
740 ストレージドメイン
750a, 750b FCスィッチ
760a, 760b RAID装置
770a, 770b RAID装置 WWPNデ -タ
780a, 780b FCスィッチ WWPNデ -タ
790a, 790b サーバ WWPNデータ
800 ストレージテンプレートデータ
810 サーバグノレープデータ
820 サーバ zストレージグノレープリンクデータ
830 サーバグループ間リンクデータ
840 負荷分散グループデータ
850 ネットワークグノレープデータ
860 必要条件出力画面
870a, 870b, 870c 必要条件
880 論理ボリューム構成出力画面
890 RAID装置
900a, 900b, 900c 必要条件
910a, 910b, 910c, 910d 論理ボリ.ュ' ム
920a, 920b, 920c, 920d, 920e 論理ボリュ
930a, 930b RAIDグループ
940 RAIDレベル設定データ
950 RAID装置データ
960 プロビジョユング構成データ
970 サーバグノレープ
980 ストレージプ一/レ
990 ストレージグノレープ
00 サーバ内ストレージ構成 1010 ァフィ-ティグノレープデータ
1020 マルチパス構成データ
1030 ミラーボリューム構成データ
1040 IPアドレス管理データ
1050 ソフトウェアイメージ管理データ
1060 ソフトウェア配布イメージ管理データ
1070 スナップショット管理データ
1080 配布管理データ
1090 リパーパシング設定データ
1100 リパーパシング運用データ
1110 スケジュール設定データ
1120 リパーパシング設定データ
1200 コンピュータ
1210 入力装置
1220 モニタ
1230 媒体読取り装置
1240 ROM
1250 ネットワークインターフェース
1260 HDD
1260a システムリソースデータ
1260b システムリソース管理プログラム
1260c AP管理統括プログラム
1270 RAM
1270a システムリソースデータ
1280 CPU
1280a システムリソース管理プロセス
1280b AP管理統括プロセス 1300 コンピュータ
1310 入力装置
1320 モニタ
1330 媒体読取り装置
1340 ROM
1350 ネットワークインターフェース
1360 HDD
1360a ドメインリソースデータ
1360b ドメインリソース管理プログラム
1370 RAM
1370a ドメインリソースデータ
1380 CPU
1380a ドメインリソース管理プロセス
1390 ノ ス
1400 コンピュータ
1410 入力装置
1420 モニタ
1430 媒体読取り装置
1440 RAM
1450 ROM
1460 ネットワークインターフェース
1470 HDD
1470a エージェントリソース管理プログラム
1470b AP管理プログラム
1480 CPU
1480a エージェントリソース管理プロセス
1480b AP管理プロセス 発明を実施するための最良の形態
[0015] 以下に、本発明に係る運用管理プログラム、運用管理方法および運用管理装置の 実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定 されるものではない。
実施例
[0016] まず、本実施例に係るサーバ運用管理の概念について説明する。図 1は、サーバ やストレージなどのリソースの運用管理の概念を示す図であり、図 2は、本実施例に 係るリパーパシング処理の概念を説明する図である。ここで、リパーパシング処理とは 、サーバの用途を自動的に切り替える処理である。
[0017] 図 1には、各業務 1, 2において Webサーバ 4 AP (Application)サーバ 5—
1一 4や
9 1
5、 DB (Database)サーバ 6— 6、ストレージ 7— 7などの情報処理装置が利用され
6 1 3 1 9
る場合が示されている。
[0018] ここで、 Webサーバ 4 、 Webブラウザで閲覧されるコンテンツをインターネッ
1一 4は
9
トを介してクライアント装置に提供するサーバ装置である。 APサーバ 5— 5は、ユー
1 6 ザによる情報処理要求を受け付けた Webサーバ 4
1一 4から要求された情報処理の 9
実行を引き継ぐサーバ装置である。
[0019] DBサーバ 6— 6は、 APサーバ 5— 5力 データベースへのアクセス要求を受け
1 3 1 6
付けた場合に、データベースへのアクセスを管理するサーバ装置である。ストレージ
7一 7は、ネットワークを介して Webサーバ 4 APサーバ 5— 5、データべ
1 9 1一 4や
9 1 6 一 スサーバ 6— 6に接続され、 SAN (Storage Area Network)を構成する記憶装置で
1 3
ある。
[0020] 本発明に係るリソース運用管理処理では、 LAN (Local Area Network)や SANな どにおいて、他の装置との間の物理的な結線状態が互いに均一であるサーバやスト レージなどのリソース群をドメインとして管理する。
[0021] たとえば、図 1の場合には、業務 1, 2で利用されるサーバ群が、 Webドメイン 4、 AP ドメイン 5および DBドメイン 6として管理され、業務 1, 2で利用されるストレージ群が、 ストレージドメイン 7として管理されて 、る。
[0022] この場合、 Webドメイン 4に属する Webサーバ 4一 4の他の装置に対する結線状 態は互いに均一であり、 APドメイン 5に属する APサーバ 5— 5の他の装置に対する
1 6
結線状態は互いに均一であり、 DBドメイン 6に属する DBサーバ 6— 6の他の装置
1 3
に対する結線状態は互いに均一であり、ストレージドメイン 7に属するストレージ 7— 7
1
9の他の装置に対する結線状態は互いに均一となって 、る。
[0023] そして、このリソース運用管理処理では、未使用の Webサーバ 4
1一 4
9、 APサーバ 5 一 5、 DBサーバ 6 6およびストレージ 7 7をドメインごとにプール 3に登録して
1 6 1 3 1 9
おき、必要に応じて各業務 1, 2に Webサーバ 4
1一 4
9、 APサーバ 5 5
1 6、 DBサーバ
6
1一 6およびストレージ 7 7を割り当てる。
3 1 9
[0024] たとえば、図 1では、業務 1には、 Webサーバ 4
2, 4
3、 APサーバ 5
1、 DBサーバ 6
1、 ストレージ 7が割り当てられ、業務 2には、 Webサーバ 4
7 9、 APサーバ 5
2, 5
3、 DBサー バ 6、ストレージ 7, 7が割り当てられている。
2 8 9
[0025] そして、業務 1, 2に割り当てられた Webサーバ 4 , 4 , 4 , APサーバ 5
2 3 9 1, 5
2, 5 3、 D
Bサーバ 6 , 6の負荷が増大したり、ストレージ 7— 7の記憶容量が不足したような場
1 2 7 9
合に、プール 3に登録されている Webサーバ 4, 4一 4、 APサーバ 5 5
1 4 8 4 6、 DBサー ノ 6 ,ストレージ 7— 7を業務で利用可能なサーバとして追加する。
3 1 6
[0026] 具体的には、プール 3に登録されている Webサーバ 4 バ 5 5
1, 4
4一 4
8、 APサー
4 6
, DBサーバ 6に必要なソフトウェアを導入し、ネットワークの設定などを自動的におこ
3
なうことにより、 Webサーバ 4
1, 4
4一 4 5
8、 APサーバ 5
4 6, DBサーバ 6を業務で利
3
用可能なサーバとして追加する。
[0027] また、ストレージ 7— 7を追加する場合は、ストレージ 7— 7に対して論理ボリユー
1 6 1 6
ムの設定やネットワークの設定などを自動的におこなうことにより、当該ストレージ 7—
1
7を業務で利用可能なストレージ 7— 7として追加する。
6 1 6
[0028] たとえば、図 1には、業務 2の Webドメイン 4において、プール 3に登録されていた W ebサーバ 4が新たに追加される場合が示されて!/、る。
4
[0029] さらに、このリソース運用管理処理では、業務 1, 2で利用されている Webサーバ 4
2
, 4 , 4 , APサーバ 5 5
1 3, DBサーバ 6
1, 6またはストレージ 7 7が長期間使用
3 9 2 7 9
されていないような場合に、 Webサーバ 4 , 4 , 4 , APサーバ 5 5
2 3 9 1 3、 DBサーバ 6
1
, 6、または、ストレージ 7— 7を業務で利用可能なサーノくから除外し、プール 3に登
2 7 9 録する処理がおこなわれる。
[0030] ここでプール 3に登録された Webサーバ 4 , 4 , 4 、 APサーバ 5— 5 , DBサーバ
2 3 9 1 3
6 , 6 ,ストレージ 7— 7は、別の業務 1, 2で利用されている Webサーバ 4 , 4 , 4 、
1 2 7 9 2 3 9
APサーバ 5— 5 、 DBサーバ 6 , 6の負荷が増大したり、ストレージ 7— 7の記憶容
1 3 1 2 7 9 量が不足したような場合に再利用される。
[0031] 具体的には、 Webサーバ 4 , 4 , 4 、 APサーバ 5— 5 、 DBサーバ 6 , 6に導入さ
2 3 9 1 3 1 2 れているソフトウェアを削除し、ネットワークの設定の変更などを自動的におこなうこと により、 Webサーノ 4 , 4 , 4 、 APサーノ 5 一 5 , DBサーノ 6 , 6力業務 1, 2で禾 IJ
2 3 9 1 3 1 2
用可能なサーバから除外され、プール 3に登録される。
[0032] また、ストレージ 7— 7を業務 1, 2で利用可能なストレージから除外してプール 3に
7 9
登録する場合には、ストレージ 7— 7に対するネットワークの設定などを自動的にお
7 9
こなうこと〖こより、当該ストレージ 7— 7を業務で利用可能なストレージから除外し、プ
7 9
ール 3に登録する。
[0033] たとえば、図 1には、業務 2の APドメイン 5において、プール 3に登録されていた AP サーバ 5が業務で利用可能なサーバから除外され、プール 3に登録される場合が示
2
されている。また、プール 3に登録されたサーバ 5は、業務 1で利用されているサーバ
4
5の負荷が増大したような場合に再利用され、業務 1に新たに追加される。
1
[0034] そして、図 2に示すように、リパーパシング処理においては、サーバの用途が時間 帯によって自動的に切り替えられる。図 2には、プールグループ 8cに属するサーバ 8 c , 8c力 平日昼間には DBドメインに属する DBサーバグループ 8aに追加される。
1 2
ここで、 DBサーバグノレープ 8aとは、 DBドメインにおいて、データをデータベースに 記憶する処理をおこなうサーバのグループである。
[0035] DBサーバグループ 8aに追加されたサーバ 8a , 8aは、 DBサーバ用のソフトウェア
1 2
が記憶された DBサーバブートディスク 9a , 9a力 ネットワークブートにより起動され
1 2
、業務に提供される。
[0036] そして、 DBサーバグループ 8aに追加されたサーバ 8a , 8aは、夜間や休日になる
1 2
と、プールグループ 8cに返却され、さらにバッチサーバグループ 8bに追加される。こ こで、バッチサーバグループ 8bとは、 DBドメインにおいて、ノツチ処理をおこなうサ ーバのグノレープである。
[0037] その際、バッチサーバグループ 8bに追加されたサーバ 8b , 8bは、バッチサーバ
1 2
用のソフトウェアが記憶されたバッチサーバブートディスク 9b , 9bからネットワークブ
1 2
ートにより起動され、業務に提供される。
[0038] このように、リパーパシング処理にぉ 、ては、均一のソフトウェアを利用するサーバ の集まりとしてサーバグループを登録し、登録したサーバグループに属するサーバが 利用するソフトウェアの切り替えを制御することとしたので、サーバの数が多い大規模 な情報処理システムにお 、ても、サーバをサーバグループ単位で管理することにより 、サーバの用途の変更を管理者が容易にかつ効率的に実行することができる。
[0039] つぎに、本実施例に係るリソース運用管理システムの機能構成について説明する。
図 3は、本実施例に係るリソース運用管理システムの機能構成を示す図である。
[0040] 図 3に示すように、このリソース運用管理システムでは、運用管理クライアント 10と、 サイト管理サーバ 20と力 FW (Firewall) 30経由でネットワークを介して接続されてい る。また、サイト管理サーバ 20とドメイン管理サーバ 50, 60と力 FW40経由でネット ワークを介して接続されて 、る。
[0041] また、サイト管理サーバ 20と、エッジドメイン 180に属するルータ 80とが、 FW40経 由でネットワークを介して接続されている。さらに、サイト管理サーバ 20と、ストレージ ドメイン 220に属するストレージ 160a— 160c、および、プールされているストレージ 1
60dと力 FW40経由でネットワークを介して接続されている。
[0042] ドメイン管理サーバ 50は、 FW90、 SLB (Server Load Balancer) 100および Web ドメイン 190に属するサーバ 110a— 110cに、ネットワークを介して接続されて!、る。
[0043] また、ドメイン管理サーバ 60は、 FW120、 SLB130、 APドメイン 200に属するサー ノ 140a一 140c、および、 DBドメイン 210に属するサーノ 150a一 150cに、ネットヮ
—クを介して接続されて 、る 0
[0044] さらに、ストレージドメイン 220に属するストレージ 160a— 160c、および、プールさ れているストレージ 160dは、 Webドメイン 190に属するサーバ 110a— 110c、 APドメ イン 200に属するサーノ 140a— 140c、および、 DBドメイン 210に属するサーバ 15
0a— 150c【こ SAN 170を介して接続されて!ヽる。 [0045] ここで、運用管理クライアント 10は、リソース運用管理処理に係るさまざまな設定を ユーザ力も受け付けて、その設定情報をサイト管理サーバ 20に送信するとともに、サ イト管理サーバ 20からさまざまな出力結果を受け付けて、モニタ等に表示するクライ アント装置である。
[0046] サイト管理サーバ 20は、図 1および図 2で説明したようなリソース運用管理処理およ びリパーパシング処理を、ドメイン管理サーバ 50, 60と連携して実行するサーバ装置 である。このサイト管理サーバ 20は、システムリソースマネージャ 21、サーバ RM ( Resource Manager) 22、ソフトウェア RM (Resource Manager) 23、ネットワーク RM ( Resource Manager) 24、ストレージ RM (Resource Manager) 25、システムリソース D B (Database) 26および AP (Application)管理統括部 27の各機能部を有する。
[0047] システムリソースマネージャ 21は、運用管理クライアント 10からリソース運用管理処 理に係るさまざまな設定情報を受け付けるとともに、サーバ RM22、ソフトウェア RM2 3、ネットワーク RM24、ストレージ RM25と連携してリソースの設定処理およびリパー パシング処理を実行する管理部である。また、このシステムリソースマネージャ 21は、 ドメイン管理サーバ 50, 60との間のデータの授受を司る。
[0048] サーバ RM22は、各サーバ 110a— 110c, 140a— 140cおよび 150a— 150cの起 動、停止、ハードウェアに係る情報の収集、設定などをおこなう管理部である。このサ ーバ RM22は、ドメイン管理サーバ 50のサーバサブ RM (Resource Manager) 52お よびサーバ 110aのサーバ RMエージェント 112aと連携して上記処理を実行する。
[0049] ソフトウェア RM23は、各サーバ 110a— 110c, 140a— 140cおよび 150a— 150c に対するソフトウェアのインストール、設定、ソフトウェアに係る情報の収集などをおこ なう管理部である。このソフトウェア RM23は、ドメイン管理サーバ 50のソフトウェアサ ブ RM (Resource Manager) 53およびサーバ 110aのソフトウェア RMエージェント 11 3aと連携して上記処理を実行する。
[0050] ネットワーク RM24は、ネットワークに係る情報の収集や設定などをおこなう管理部 である。このネットワーク RM24は、ドメイン管理サーバ 50のネットワークサブ RM ( Resource Manager) 54およびサーバ 110aのネットワーク RMエージェント 114aと連 携して上記処理を実行する。 [0051] ストレージ RM25は、ストレージドメイン 220に属するストレージ 160a— 160c、およ び、プールされているストレージ 160dに係る情報の収集や設定などをおこなう管理 部である。ここでは、ストレージ RM25は、ドメイン管理サーバ 50, 60を介することなく 、ストレージ 160a— 160c、および、プールされているストレージ 160dを管理する。
[0052] システムリソース DB (Database) 26は、システムリソースマネージャ 21、サーバ RM2 2、ソフトウェア RM23、ネットワーク RM24およびストレージ RM25が管理するさまざ まなリソースの情報を記憶するデータベースである。ここに記憶される具体的なデー タについては、後に詳細に説明する。
[0053] AP管理統括部 27は、 AP (Application)管理部 116aを統括管理する処理部である 。具体的には、 AP管理部 116aにアプリケーションの組み込み処理や設定処理の実 行要求をおこなう。この AP管理統括部 27の機能は、サイト管理サーバ 20に導入さ れたミドルウェアが実行されることにより実現されるものである。
[0054] ドメイン管理サーバ 50, 60は、 1つまたは複数のドメイン内のリソースを管理するサ ーバ装置である。ドメイン管理サーバ 50は、システムリソースドメインマネージャ 51、 サーバサブ RM52、ソフトウェアサブ RM53、ネットワークサブ RM54およびドメインリ ソース DB (Database) 55の各機能部を有する。
[0055] なお、ドメイン管理サーバ 60は、ドメイン管理サーバ 50の各機能部と同様の機能部 を有しているため、図 3ではドメイン管理サーバ 60の各機能部の図示および説明を 省略する。
[0056] システムリソースドメインマネージャ 51は、サーバサブ RM52、ソフトウェアサブ RM
53、ネットワークサブ RM54と連携して各ドメインに属するリソースの情報収集や設定 処理などを実行する管理部である。
[0057] また、このシステムリソースドメインマネージャ 51は、サイト管理サーバ 20、 FW90や
SLB100などのネットワーク機器、また、管理対象であるサーバ 110a— 110cとの間 のデータの授受を司る。
[0058] サーバサブ RM52は、サーバ RM22およびサーバ RMエージェント 112aと連携し て、各サーバ 110a— 110cの起動、停止、ハードウェアに係る情報の収集、設定など をおこなう管理部である。 [0059] ソフトウェアサブ RM53は、ソフトウェア RM23およびソフトウェア RMエージェント 1 13aと連携して、各サーバ 110a— 110cに対するソフトウェアのインストール、設定、 ソフトウェアに係る情報の収集などをおこなう管理部である。
[0060] ネットワークサブ RM54は、ネットワーク RM24およびネットワーク RMエージェント 1 14aと連携して、ネットワークに係る情報の収集や設定などをおこなう管理部である。
[0061] ドメインリソース DB55は、サーバサブ RM52、ソフトウェアサブ RM53、ネットワーク サブ RM54が管理対象であるサーバ 110a— 110cの各種情報の収集や設定をおこ なう場合に、サーバ 110a— 110cから取得した情報や、システムリソース DB26から 取得したデータを記憶するデータベースである。また、ドメインリソース DB55は、サー バ 110a— 110cのネットワークブートをおこなう場合に用いる仮の OS (Operating System; 己'隐する。
[0062] ルータ 80は、インターネット 70を介したデータ通信においてデータパケットのルー ティングをおこなうネットワーク機器である。 FW30, 40, 90, 120は、各種サーバ 11 Oa— 110c, 140a— 140c, 150a— 150cへの不正アクセスを防止するためのネット ワーク機器である。
[0063] SLB100, 130は、サーノ 110a— 110c, 140a— 140cに対する情報処理要求を 複数のサーバ 110a— 110c, 140a— 140cに分散して転送する負荷分散装置であ る。なお、 SLB100, 130の前後には、さらにスィッチが接続されている力 図 3では スィッチの図示を省略して!/ヽる。
[0064] サーノ 110a— 110c, 140a— 140c, 150a— 150cは、さまざまな情報処理を実行 するサーバ装置である。サーバ装置 110aは、リソースマネージャエージェント 11 la、 サーバ RMエージェント 112a、ソフトウェア RMエージェント 113a、ネットワーク RMェ ージェント 114a、ストレージ RMエージェント 115aおよび AP管理部 116aの各機能 部を有する。
[0065] なお、サーノ 110b, 140a, 140b, 150a, 150bは、サーノ 110aの各機會咅と同 様の機會咅を有して ヽるため、図 3で ίまサーノ 110b, 140a, 140b, 150a, 150bの 各機能部の図示および説明を省略する。
[0066] また、サーバ 110c, 140c, 150cは、プールされているサーバであり、これらのサー ノ には、リソースマネージャエージェント 11 la、サーバ RMエージェント 112a、ソフト ウェア RMエージェント 113a、ネットワーク RMエージェント 114a、ストレージ RMエー ジェント 115aおよび AP管理部 116aの各機能部は存在しな 、。
[0067] これらのサーバ 110c, 140c, 150cにおいては、業務に利用可能なサーバとして 設定される場合に、各機能部を実現するコンピュータプログラムがサーバ 110c, 140 c, 150cに導入され実行されることにより各機能部が実現される。
[0068] リソースマネージャエージェント 11 laは、ドメイン管理サーバ 50のシステムリソース ドメインマネージャ 51からサーバ 110aの情報収集処理や設定処理などの実行要求 を受け付け、それらの処理をサーバ RMエージェント 112a、ソフトウェア RMエージェ ント 113a、ネットワーク RMエージェント 114a、ストレージ RMエージェント 115aと連 携して実行するエージェントである。
[0069] サーバ RMエージェント 112aは、サーバ 110aの起動、停止、ハードウェアに係る 情報の収集、設定などを実行するエージェントである。ソフトウェア RMエージェント 1 13aは、サーバ 110aに対するソフトウェアの導入、設定およびソフトウェアに係る情 報収集などをおこなうエージェントである。
[0070] ネットワーク RMエージェント 114aは、サーバ 110aが接続されているネットワークの 情報収集および設定などを実行するエージェントである。ストレージ RMエージェント 115aは、サーバ 110aに接続されたストレージの情報収集や設定などをおこなうエー ジェントである。
[0071] ストレージ 160a— 160cは、 Webドメイン 190に属するサーバ 110a— 110c、 APド メイン 200に属するサーバ 140a— 140c、 DBドメイン 210に属するサーバ 150a— 1 50cにより利用されるストレージである。また、ストレージ 160dは、プールされているス トレージである。これらのストレージ 160a— 160dは、 RAID装置により構成される。
[0072] なお、 Webドメイン 190に属するサーバ 110a— 110c、 APドメイン 200に属するサ ーノ 140a— 140c、および、 DBドメイン 210に属するサーバ 150a— 150c間を接続 するネットワークには VLAN (Virtual Local Area Network)を設定する。
[0073] つぎに、図 1で説明したような、業務へのサーバの割当処理の処理手順について 説明する。図 4は、業務へのサーバの割当処理の処理手順を示すフローチャートで ある。
[0074] ここで、サイト管理サーバ 20には、システムリソースマネージャ 21、サーバ RM22、 ソフトウェア RM23、ネットワーク RM24、ストレージ RM25、 AP管理統括部 27の各 機能をサイト管理サーバ 20に実行させるプログラムをあら力じめ導入しておくこととす る。
[0075] また、ドメイン管理サーバ 50, 60には、システムリソースドメインマネージャ 51、サー バサブ RM52、ソフトウェアサブ RM53、ネットワークサブ RM54の各機能をドメイン 管理サーバ 50, 60に実行させるプログラムをあら力じめ導入しておくこととする。
[0076] さら【こ、各サーノ 110a, 110b, 140a, 140b, 150a, 150b【こ ίま、リソースマネー ジャエージェント 11 la,サーバ RMエージェント 112a、ソフトウェア RMエージェント 1 13a、ネットワーク RMエージェント 114a、ストレージ RMエージェント 115a、 AP管理 咅 116aの各機會をサーノ 110a, 110b, 140a, 140b, 150a, 150b【こ実行させる プログラムをあら力じめ導入しておくこととする。
[0077] 図 4に示すように、まず、サイト管理サーバ 20のシステムリソースマネージャ 21は、 運用管理サーバおよび管理 LANの登録処理をおこなう(ステップ S101)。ここで、運 用管理サーバおよび管理 LANとは、サーバ 110a— 110c, 140a— 140c, 150a— 150cや SAN170などの管理対象となるリソースを管理するために用いられるサイト 管理サーバ 20やドメイン管理サーバ 50および LANのことである。
[0078] 以下に、ステップ S101でおこなわれる処理をさらに詳細に説明する。図 5は、運用 管理サーバの情報を登録するサイトデータ 300の一例を示す図である。このサイトデ ータ 300は、サイト名、サイト管理サーバ名およびドメイン管理サーバ名の情報を記 '1思して V、る。
[0079] サイト名は、管理対象となるリソースがあるサイトの識別情報である。サイト管理サー バ名は、そのサイトを管理するよう設定されたサイト管理サーバ 20の識別情報である 。ドメイン管理サーバ名は、そのサイトに設定されたドメインを管理するよう設定された ドメイン管理サーバ 50, 60の識別情報である。
[0080] また、図 6は、ドメイン管理サーバ 50, 60の情報を登録するドメイン管理サーバデー タ 310の一例を示す図である。このドメイン管理サーバデータ 310は、ドメイン管理サ ーバ名および管理サブネット名の情報を記憶して 、る。
[0081] ドメイン管理サーバ名は、図 5で説明したドメイン管理サーバ名と同様の情報である 。管理サブネット名は、ドメイン管理サーバによりリソースが管理されるサブネット (管 理サブネット)の識別情報である。
[0082] また、図 7は、管理対象となるサブネットの情報を登録する管理サブネットデータ 32 0の一例を示す図である。この管理サブネットデータ 320は、管理サブネット名、ネット ワークアドレス、ネットマスクおよびデフォルトゲートウェイの情報を記憶して 、る。
[0083] 管理サブネット名は、図 6で説明した管理サブネット名と同様の情報である。ネットヮ ークアドレスは、管理サブネットを識別するためのネットワークアドレスである。ネットマ スクは、 IPアドレスの何ビット目をネットワークアドレスとして使用するかを定義するた めに用いられるネットマスクである。デフォルトゲートウェイは、管理サブネット外にデ ータを送信する場合に用いられるデフォルトゲートウェイを特定する IPアドレスの情報 である。
[0084] ステップ S101において、システムリソースマネージャ 21は、ユーザが運用管理クラ イアント 10を操作して設定したサイト、サイト管理サーバおよびドメイン管理サーバの 情報を受け付け、その情報を図 5に示したサイトデータ 300に登録する。
[0085] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したドメイン管理サーバおよび管理サブネットの情報を受け付け、その情報を 図 6に示したドメイン管理サーバデータ 310に登録する。
[0086] 続いて、システムリソースマネージャ 21は、図 6で説明した管理サブネットに対応す るネットワークアドレス、ネットマスクおよびデフォルトゲートウェイの情報を、図 7の管 理サブネットデータ 320に登録する。
[0087] さらに、システムリソースマネージャ 21は、ミドルウェアによりその機能が実現される
AP管理統括咅 に、サーノ 110a一 110c, 140a— 140c, 150a一 150cの追カロや 削除などのイベントの発生を通知し、 AP管理統括部 27と連携して各種処理を実行 するためのコマンドを設定する。
[0088] 図 8は、ミドルウェアと連携して各種処理を実行するためのコマンドを記憶したミドル ウェア連携 IFデータ 330の一例を示す図である。このミドルウェア連携 IFデータ 330 は、ミドルウェア名、対象イベント、タイミング、場所、実行コマンドの情報を記憶してい る。
[0089] ミドルウェア名は、システムリソースマネージャ 21が連携して処理をおこなうミドルゥ エアの情報である。対象イベントは、システムリソースマネージャ 21がミドルウェアに実 行要求をおこなうイベントの情報である。タイミングは、システムリソースマネージャ 21 力 Sミドルウェアに処理の実行要求を送信するタイミング (対象イベントの処理の前後) の情報である。
[0090] 場所は、ミドルウェアのコマンドを実行する場所 (Managerあるいは Agent)の情報で ある。「Manager」は、管理サイトサーバ 20上でコマンドを実行する場合を示し、「
Agent」は、管理対象となるサーバ 110a— 110c, 140a— 140c, 150a— 150c上で コマンドを実行する場合を示している。実行コマンドは、ミドルウェアに対して各種ィ ベントの発生を通知するコマンドの情報である。
[0091] 図 4の説明に戻ると、システムリソースマネージャ 21は、ドメインの作成処理および 作成したドメイン間のリンク処理をおこなう(ステップ S102)。以下に、ステップ S 102 でおこなわれる処理をさらに詳細に説明する。
[0092] 図 9は、サーバ 110a— 110c, 140a— 140c, 150a— 150cが属するドメインである サーバドメインに係る情報を記憶したサーバドメインデータ 340の一例を示す図であ る。
[0093] このサーバドメインデータ 340は、サーバドメイン名、サーバアーキテクチャ名およ び管理サブネット名の情報を記憶している。サーバドメイン名は、管理対象となるサ ーノ 110a— 110c, 140a— 140c, 150a— 150cが属するドメインの識別情報であ る。
[0094] サーバアーキテクチャ名は、各サーバドメインに属するサーバ 110a— 110c, 140a 一 140c, 150a— 150cの CPU (Central Processing Unit)アーキテクチャの識別情 報である。管理サブネット名は、図 6に示した管理サブネット名と同様の情報である。
[0095] ステップ S102においては、システムリソースマネージャ 21は、ユーザが運用管理ク ライアント 10を操作しておこなったサーバドメインおよびサーバアーキテクチャの設定 に係る情報を受け付け、サーバドメインデータ 340に登録する。このサーバドメインは 、ステップ S101にお 、て設定された管理サブネット単位で設定される。
[0096] また、ステップ S 102においては、システムリソースマネージャ 21は、各サーバドメイ ンに属するサーバグループを設定し、サーバグループ間で共有されるプールグルー プおよび特定のサーバグループに専用のプールグループを設定する。
[0097] ここで、サーバグループとは、同一のサーバドメインに含まれるサーバを 1つまたは 複数のグループに分けたものである。また、プールグループとは、各サーバグループ に割り当てられたサーバのプールである。
[0098] 図 10は、プールグループに係る情報を記憶したプールグループデータ 350の一例 を示す図である。このプールグループデータ 350には、プールグループ名、種別、サ ーバドメイン名の情報が記憶されて 、る。
[0099] プールグループ名は、上述したサーバのプールの識別情報である。種別は、プー ルグループが複数のサーバグループに共用させるもの力、特定のサーバグループに のみ利用を許可するものかを示す情報である。サーバドメイン名は、図 9で説明した サーバドメイン名と同様の情報である。
[0100] ここで、システムリソースマネージャ 21は、各サーバドメインに対してプールグルー プを割り当てる。また、サーバドメイン力 複数のサーバグループを有する場合に、シ ステムリソースマネージャ 21は、それらのサーバグノレープ専用のプーノレグノレープを 割り当てる。
[0101] その後、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したストレージドメインの情報を受け付け、システムリソース DB26にその情 報を、以下に説明するストレージドメインデータ 360として登録する。
[0102] 図 11は、ストレージドメインに係る情報を記憶したストレージドメインデータ 360の一 例を示す図である。このストレージドメインデータ 360は、ストレージドメイン名および パスの多重度の情報を記憶している。ストレージドメイン名は、設定されたストレージド メインを識別する識別情報である。パスの多重度は、 SANにおけるデータ通信パス の多重度の情報である。
[0103] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したネットワークサブドメインの情報を受け付け、システムリソース DB26にそ の情報を、以下に説明するネットワークサブドメインデータ 470として登録する。
[0104] ここで、ネットワークサブドメインとは、異なるサーバドメインに属するサーバを接続 する複数のネットワーク機器が属するネットワークドメインをさらに分割したサブドメィ ンである。
[0105] 図 12は、ネットワークドメインおよびネットワークサブドメインを説明する説明図であ る。図 12には、 Webドメイン 370に属するサーノ 380a一 380eと、 APドメイン 390に 属するサーノ 400a一 400eとを接続するスィッチ 430a, 430b, 450a, 450b,およ び、 SLB460a, 460b力示されている。
[0106] ここで、スィッチ 430aおよびスィッチ 430bは、「Web-Back」ネットワークサブドメイン
420を構成し、スィッチ 450aおよびスィッチ 450bは、「AP- Front」ネットワークサブド メイン 440を構成して!/、る。
[0107] また、「Web-Back」ネットワークサブドメイン 420、「AP- Front」ネットワークサブドメィ ン 440、 SLB460a、および、 31^4601)が「\^1)- ?」ネットヮークドメィン410を構成 している。
[0108] 図 13は、ネットワークサブドメインに係る情報を記憶したネットワークサブドメインデ ータ 470の一例を示す図である。このネットワークサブドメインデータ 470は、ネットヮ ークサブドメイン名、スィッチ機種およびスィッチ管理 IPの情報を記憶して 、る。
[0109] ネットワークサブドメイン名は、図 12で説明したネットワークサブドメインを識別する 情報である。スィッチ機種は、ネットワークサブドメインに属するスィッチの機種の情報 である。スィッチ管理 IPは、管理用に各スィッチに割り当てられた IPアドレスの情報で ある。
[0110] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したネットワークドメインに係る情報を受け付け、システムリソース DB26にその 情報を、以下に説明するネットワークドメインデータ 480として登録する。
[0111] 図 14は、ネットワークドメインに係る情報を記憶したネットワークドメインデータ 480 の一例を示す図である。このネットワークドメインデータ 480は、ネットワークドメイン名 、フロントネットワークサブドメイン名、接続方式、機器名、バックネットワークサブドメィ ン名および冗長化方式の情報を記憶して!/ヽる。 [0112] ネットワークドメイン名は、図 12で説明したネットワークドメインを識別する識別情報 である。フロントネットワークサブドメイン名は、図 12に示したように、ネットワークドメイ ンカ LB460a, 460bを境として 2つのネットワークサブドメインに分割された場合に 、インターネット 70に近 、方のネットワークサブドメインを識別する識別情報である。
[0113] 接続方式は、フロントネットワークサブドメインに属するスィッチ 430a, 430bなどの ネットワーク機器と、後に説明するバックネットワークサブドメインに属するスィッチ 45 Oa, 450bなどのネットワーク機器との間を接続する方式に係る情報である。たとえば 、この方式には、ロードバランサにより接続する方式や、ファイアウォールにより接続 する方式などがある。機器名は、ネットワーク機器を識別する識別情報である。
[0114] バックネットワークサブドメイン名は、図 12に示したように、ネットワークドメインが SL B460a, 460bを境として 2つのネットワークサブドメインに分割された場合に、インタ 一ネット 70に遠 、方のネットワークサブドメインを識別する識別情報である。冗長化 方式は、ネットワークドメインにお ヽてデータ通信経路が冗長化されて ヽる場合の冗 長化の方式を示す情報である。
[0115] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したネットワークサブドメインの接続機器に係る情報を受け付け、システムリ ソース DB26にその情報を、以下に説明する負荷分散装置データ 490として登録す る。ここで、ネットワークサブドメインの接続機器とは、図 12で説明した SLB460a, 46 Obなどの機器のことである。
[0116] 図 15は、負荷分散装置に係る情報を記憶した負荷分散装置データ 490の一例を 示す図である。この負荷分散装置データ 490は、負荷分散装置名、管理 IP、機種名 、 SNMPコミュニティ名および IDZパスワードの情報を記憶して 、る。
[0117] 負荷分散装置名は、ネットワークサブドメインの接続機器を識別する名称である。管 理 IPは、接続機器の管理用に各接続機器に割り当てられた IPアドレスの情報である 。機種名は、接続機器の機種の識別情報である。
[0118] SNMP (Simple Network Management Protocol)コミュニティ名は、接続機器を管 理するドメイン管理サーバ 50, 60およびサイト管理サーバ 20と接続機器とが属する SNMPコミュニティを特定する情報である。 ID/パスワードは、接続機器にアクセス するために必要な IDおよびパスワードの情報である。
[0119] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したネットワークサブグループの情報を受け付け、システムリソース DB26にそ の情報を、以下に説明するネットワークサブグループデータ 660として登録する。
[0120] ここで、ネットワークサブグループとは、サーバドメインに属するサーバにサーバグ ループが設定されている場合に、異なるサーバドメインに属するサーバグループ間を 接続するネットワークを複数のネットワークに分割したものである。
[0121] 図 16は、ネットワークサブグループの構成例を説明する説明図である。図 16には、 Webドメイン 510に属するサーバ 520a— 520eと、 APドメイン 550に属するサーバ 5 60a— 560eとを接続するスィッチ 590, 610、および、 SLB600a, 600b力 S示されて いる。
[0122] ここで、サーノ 520aとサーノ 520bとは、「A— Web」サーバグループ 530を構成し、 サーノ 520cとサーノ 520dとは、「B— Web」サーバグループ 540を構成し、サーバ 56 Oaとサーノ 560bとは、「A_AP」サーバグループ 570を構成し、サーバ 560cとサーバ 560dとは、「B_AP」サーバグループ 580を構成して!/、る。
[0123] そして、「A_Web」サーバグループ 530と SLB600aとを接続するネットワークが「
A_Web_BackJネットワークサブグループ 620を構成し、「B_Web」サーバグループ 540 と SLB600bとを接続するネットワークが「B_Web_Back」ネットワークサブグループ 630 を構成し、 SLB600aと「A_AP」サーバグループ 570とを接続するネットワークが「 A_AP_FrontJネットワークサブグループ 640を構成し、 SLB600bと「B_AP」サーバグ ループ 580とを接続するネットワークが「B_AP_Front」ネットワークサブグループ 650を 構成している。
[0124] また、図 17は、ネットワークサブグループに係る情報を記憶したネットワークサブグ ノレープデータ 660の一例を示す図である。このネットワークサブグノレープデータ 660 は、ネットワークサブグループ名、ネットワークサブドメイン名、サブネットおよび冗長 化用サブネットの情報を記憶して 、る。
[0125] ネットワークサブグループ名は、図 16で例を挙げて説明したようなネットワークサブ グループを識別する識別情報である。ネットワークサブドメイン名は、ネットワークサブ グループが属するネットワークサブドメインを識別する識別情報である。
[0126] サブネットは、ネットワークサブグループに割り当てられるネットワークアドレスおよび サブネットマスクの情報である。冗長化用サブネットは、ネットワークサブグループに 属するネットワークが複数のデータ通信回線を用いて冗長化される場合に、余分に 追加されたデータ通信回線力もなるネットワークに割り当てられるネットワークアドレス およびサブネットマスクの情報である。
[0127] その後、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバドメイン間の対応関係に係る情報を受け付け、システムリソース D B26にその情報を、以下に説明するサーバドメイン間リンクデータ 670として登録す る。
[0128] 図 18は、サーバドメイン間の対応関係に係る情報を記憶したサーバドメイン間リンク データ 670の一例を示す図である。このサーバドメイン間リンクデータ 670は、フロン トサーバドメイン名、ネットワークドメイン名およびバックサーバドメイン名の情報を記 '1思して V、る。
[0129] フロントサーバドメイン名は、図 12に示したようなネットワークドメインを挟むサーバド メインのうち、よりインターネット 70側にあるサーバドメインを識別する識別情報である 。ネットワークドメイン名は、図 12で説明したネットワークドメインの識別情報である。 ノ ックサーバドメイン名は、図 12に示したようなネットワークドメインを挟むサーバドメ インのうち、よりインターネット 70から遠い側にあるサーバドメインを示す情報である。
[0130] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバドメインとストレージドメインとの間の対応関係に係る情報を受け 付け、システムリソース DB26にその情報を、以下に説明するサーバ Ζストレージドメ イン間リンクデータ 680として登録する。
[0131] 図 19は、サーバドメインとストレージドメインとの間の対応関係に係る情報を記憶し たサーバ Ζストレージドメイン間リンクデータ 680の一例を示す図である。このサーバ /ストレージドメイン間リンクデータ 680は、サーバドメイン名およびストレージドメイン 名の情報を記憶している。ここで、サーバドメイン名は、図 9に示したサーバドメイン名 と同様の情報である。ストレージドメイン名は、図 11に示したストレージドメイン名と同 様の情報である。
[0132] 図 4の説明に戻ると、システムリソースマネージャ 21は、管理対象となるサーバリソ ースおよびストレージリソースの登録をおこなう(ステップ S103)。以下に、ステップ S1 03でおこなわれる処理をさらに詳細に説明する。
[0133] まず、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て、サーバを登録する管理サブネットの選択をおこなった際、ユーザにより選択され た管理サブネットの情報を受け付ける。
[0134] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して入力した管理対象とするサーバの情報を運用管理クライアント 10から受け付け、 その情報をドメイン管理サーバ 50のドメインリソース DB55に、以下に説明するネット ワークブートサーバデータ 690として記憶する。ここで登録されたサーバは、後にネッ トワークブートがおこなわれ、サーバの各種情報が取得された後、サーバリソースとし て登録される。
[0135] 図 20は、ネットワークブートがなされるサーバの情報を記憶したネットワークブートサ ーバデータ 690の一例を示す図である。このネットワークブートサーバデータ 690は、 MACアドレス、 IPアドレスおよびホスト名の情報を記憶して 、る。
[0136] MACアドレスは、サーバの MACアドレスの情報である。 IPアドレスは、サーバに割 り当てられた IPアドレスの情報である。ホスト名は、サーバに割り当てられたホスト名の 情報である。
[0137] ここで、システムリソースマネージャ 21は、ネットワークブートをおこなうサーバのュ 一ザにより入力された MACアドレスの情報を受け付けた場合に、その MACアドレス に対応するサーバに、 IPアドレスとホスト名とを自動的に割り当てる。
[0138] そして、システムリソースマネージャ 21は、ドメイン管理サーバ 50のシステムリソース ドメインマネージャ 51と連携し、ドメイン管理サーバ 50のドメインリソース DB55に記 憶された仮の OSを用いて、 IPアドレスとホスト名とが割り当てられたサーバのネットヮ ークブートをおこなう。
[0139] そして、サーバサブ RM52、リソースマネージャエージェント 11 la、および、サーバ RMエージェント 112aが連携することにより、サーバのハードウェアに係る情報を収 集し、収集した情報をシステムリソースドメインマネージャ 51に送信する。
[0140] その後、システムリソースマネージャ 21は、システムリソースドメインマネージャ 51か らサーバのハードウェアに係る情報を取得して、システムリソース DB26にその情報を 、以下に説明する管理対象サーバデータ 700として記憶する。
[0141] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て、 SAN170を介して接続されるストレージ 160a— 160dからサーバを起動する SA Nブートをおこなうか否かの設定情報を入力した場合に、その設定情報を受け付け、 その設定情報を管理対象サーバデータ 700に登録する。
[0142] 図 21は、管理対象となるサーバのデータを記憶した管理対象サーバデータ 700の 一例を示す図である。この管理対象サーバデータ 700は、サーバ名、 IPアドレス、 M ACアドレス、サーバアーキテクチャ名、モデル名、 SANブートおよび状態の情報を 記憶している。
[0143] サーバ名は、管理対象となるサーバを識別する名称である。 IPアドレスは、サーバ に割り当てられた IPアドレスである。 MACアドレスは、サーバの MACアドレスである 。サーバアーキテクチャ名は、サーバの CPUアーキテクチャの識別情報である。モデ ル名は、サーバの型式を示す情報である。 SANブートは、 SAN170を介して接続さ れるストレージ 160a— 160dからサーバを起動する SANブートをおこなうか否かの設 定情報である。状態は、サーバに異常が発生している力否かを示す情報である。
[0144] なお、ここでは、ユーザが MACアドレスを指定してネットワークブートをおこなうサー バを選択することとして 、るが、サーバの選択を自動的におこなうようにしてもょ 、。 具体的には、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を 操作して、自動的に選択をおこなうサーバの台数に係る情報を設定した場合に、そ の設定情報を運用管理クライアント 10から受け付ける。
[0145] そして、システムリソースマネージャ 21は、設定された台数分のサーバを選択し、選 択したサーバの IPアドレスおよびホスト名の情報を、図 20に示したネットワークブート サーバデータ 690に登録する。
[0146] そして、システムリソースマネージャ 21は、ドメイン管理サーバ 50のシステムリソース ドメインマネージャ 51と連携し、ドメイン管理サーバ 50のドメインリソース DB55に記 憶された仮の OSを用いて、 IPアドレスとホスト名とが割り当てられたサーバのネットヮ ークブートをおこなう。
[0147] そして、サーバサブ RM52、リソースマネージャエージェント 11 la、および、サーバ RMエージェント 112aが連携することにより、各サーバの MACアドレス、サーバァー キテクチャ、モデル、状態の情報を収集し、収集した情報をシステムリソースドメインマ ネージャ 51に送信する。
[0148] その後、システムリソースマネージャ 21は、システムリソースドメインマネージャ 51か ら各サーバの MACアドレス、サーバアーキテクチャ、モデル、状態の情報を取得して 、その情報をシステムリソース DB26に管理対象サーバデータ 700として記憶する。
[0149] 続いて、システムリソースマネージャ 21は、管理対象となるストレージ機器の登録を おこなう。ここで、ストレージ機器とは、 FC (Fiber Channel)スィッチや RAID装置など の機器である。
[0150] 具体的には、システムリソースマネージャ 21は、管理対象として登録するストレージ の IPアドレスの情報が、図 7に示した管理サブネットごとにユーザにより入力された場 合に、その情報を運用管理クライアント 10から受け付ける。そして、システムリソース マネージャ 21は、 IPアドレスに対応するストレージ機器の情報をシステムリソース DB 26に記憶することによりストレージ機器を登録する。
[0151] その後、システムリソースマネージャ 21は、図 21の管理対象サーバデータ 700に 登録されたサーバをサーバドメインに追加する処理をおこなう。具体的には、システ ムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作してサーバとそ のサーバを追加するサーバドメインを指定した場合に、そのサーバおよびサーバドメ インの情報を運用管理クライアント 10から受け付ける。
[0152] そして、システムリソースマネージャ 21は、図 21に示した管理対象サーバデータ 70 0を参照し、サーバのサーバアーキテクチャが、図 9に示したサーバドメインデータ 34 0に登録されているサーバアーキテクチャと一致することをチェックする。
[0153] また、システムリソースマネージャ 21は、図 21に示した管理対象サーバデータ 700 を読み込み、サーバが SANブートをおこなうように設定されて!、ることをチェックする [0154] さらに、システムリソースマネージャ 21は、サーバドメインに追加するサーバのネット ワークの結線状態をチェックする。具体的には、システムリソースマネージャ 21は、図 18に示したサーバドメイン間リンクデータ 670を読み込み、サーバドメインに対するフ ロントサーバドメインおよびバックサーバドメインの情報を取得する。
[0155] そして、システムリソースマネージャ 21は、図 14に示したネットワークドメインデータ 480を読み込み、ネットワークドメインに対応するフロントサブドメインおよびバックサ ブドメインの情報を取得する。
[0156] その後、システムリソースマネージャ 21は、図 13に示したネットワークサブドメインデ ータ 470を読み込み、フロントサブドメインおよびバックサブドメインに対応するスイツ チを特定する。
[0157] そして、システムリソースマネージャ 21は、ネットワーク RM24およびネットワークサ ブ RM54に対して、サーバとスィッチ間の結線をチェックするよう要求する。さらに、ネ ットワーク RM24およびネットワークサブ RM54は、ネットワーク RMエージェント 114a にサーバとスィッチとの間の結線をチェックするよう要求し、チェック結果を取得する。
[0158] そして、システムリソースマネージャ 21は、サーバとスィッチとの間の結線に問題が ない場合、そのサーバに係る情報を図 10で説明したプールグループに対応付けて、 以下に説明するプロビジョユング構成データ 710としてシステムリソース DB26に記憶 する。
[0159] 図 22は、サーバが属するグループの情報を記憶したプロビジョユング構成データ 7 10の一例を示す図である。このプロビジョユング構成データ 710は、サーバ名、プー ルグループ名、サーバグループ名、ストレージサブグループ名、アクセス可否の情報 を記憶する。
[0160] サーバ名は、図 21で説明したサーバ名と同様の情報である。プールグループ名は 、図 10で説明したプールグループ名と同様の情報である。サーバグループ名は、同 一のサーバドメインに含まれるサーバを 1つまたは複数のグループに分けた場合のグ ループの識別情報である。この段階では、サーバグループ名の情報はまだ登録され ない。
[0161] ストレージサブグループ名は、ストレージドメインに属するストレージを 1つまたは複 数のグループに分け、サーバグループに属する各サーバに割り当てた場合に、各サ ーバに割り当てたグループの識別情報である。この段階では、ストレージサブグルー プ名の情報はまだ登録されない。アクセス可否は、サーバによるストレージへのァク セスを許可するか否かを示す情報である。この段階では、アクセス可否の情報はまだ 登録されない。
[0162] プロビジョユング構成データ 710にサーバ名およびプールグループを登録した後、 システムリソースマネージャ 21は、先に登録したストレージ機器をストレージドメインに 登録する。
[0163] 具体的には、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を 操作して、ストレージドメインとストレージドメインに登録するストレージ機器とを指定し た場合に、それらの情報を運用管理クライアント 10から受け付ける。
[0164] そして、システムリソースマネージャ 21は、図 19に示したサーバ Zストレージドメイ ン間リンクデータ 680を読み込んで、ストレージドメインに対応するサーバドメインを特 定する。
[0165] さらに、システムリソースマネージャ 21は、ストレージ RM25およびストレージ RMェ ージェント 115aと連携して、特定されたサーバドメインに属するサーバと、ストレージ ドメインに属するストレージ機器との間の結線の均一性をチェックする。
[0166] 図 23は、結線状態が均一であるサーバとストレージ機器との結線の一例を示す図 である。図 23に示すように、この例では、ストレージドメイン 740に属する FCスィッチ 7 50a、および、サーバドメイン 720に属するサーバ 730a, 730b間の結線状態と、スト レージドメイン 740【こ属する FCスィッチ 750b、および、サーノ 730a, 730bf¾の結 線状態とが均一になっている。
[0167] また、 FCスィッチ 750a, 750b,および、ストレージドメイン 740に属する RAID装置 760a間の結線状態と、 FCスィッチ 750a, 750b,および、ストレージドメイン 740に 属する RAID装置 760b間の結線状態が均一になっている。
[0168] システムリソースマネージャ 21は、上記結線の均一性のチェックを WWPN (World Wide Port Name)の情報を基にしておこなう。その際、システムリソースマネージャ 2 1は、図 11に示したストレージドメインデータ 360からストレージドメインのパスの多重 度の情報を読み込み、冗長度のチェックも併せておこなう。図 24は、 WWPNに基づ く結線の均一性チ ック処理を説明する図である。
[0169] 図 24には、図 23〖こ示した RAID装置 760a, 760bが記憶している RAID装置 WW PNデータ 770a, 770bと、 FCスィッチ 750a, 750b力記'隐して!/、る FCスィッチ WW PNデータ 780a, 780bと、サーノ 730a, 730b力記'隐して!/ヽるサーノ WWPNデー タ 790a, 790bと力示されて! /、る。
[0170] RAID装置 WWPNデータ 770a, 770bは、 CA (Channel Adapter)および WWPN の情報を記憶している。 CAは、 RAID装置 760a, 760bが有するチャネルアダプタ の識別情報である。 WWPNは、 RAID装置 760a, 760bが有するチャネルアダプタ に割り当てられて!/、る WWPNの情報である。
[0171] FCスィッチ WWPNデータ 780a, 780bは、 portおよび相手先 WWPNの情報を記 憶している。 portは、 FCスィッチ 750a, 750bのポートの識別情報である。相手先 W WPNiま、 FCスィッチ 750a, 750bのポー卜【こ接続されて!ヽる RAID装置 760a, 760 bのチャネルアダプタに割り当てられている WWPNの情報、または、 FCスィッチ 750 a, 750bのポート【こ接続されて!/、るサーノ 730a, 730bの HBA (Host Bus Adapter )に割り当てられた WWPNの情報である。
[0172] サーバ WWPNデータ 790a, 790bは、 HBAおよび WWPNの情報を記憶している 。 HBAは、サーバ 730a, 730bが有する HBAの識別情報である。 WWPNは、サー ノ 730a, 730bが有する HBAに割り当てられている WWPNの情報である。
[0173] システムリソースマネージャ 21は、 RAID装置 WWPNデータ 770a, 770b、 FCスィ ツチ WWPNデータ 780a, 780b,および、サーノ WWPNデータ 790a, 790bを RA ID装置 760a, 760b, FCスィッチ 750a, 750b,および、サーノ 730a, 730b力ら収 集し、 WWPNの対応関係を調べることにより、各装置間の結線状態の均一性をチヱ ックすることができる。
[0174] その後、システムリソースマネージャ 21は、あらかじめ設定されている LUN (Logical
Unit)の記憶領域と、 LUNが未設定の記憶領域とをプール用のストレージとして登 録する。
[0175] 続いて、システムリソースマネージャ 21は、サーバグループの作成処理をおこなう( ステップ S104)。以下に、ステップ S104でおこなわれる処理をさらに詳細に説明す る。
[0176] まず、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したストレージテンプレートに係る情報を受け付け、システムリソース DB26に その情報を、以下に説明するストレージテンプレートデータ 800として登録する。ここ で、ストレージテンプレートとは、後に作成されるサーバグループ用のストレージの構 成に係る設定情報である。
[0177] 図 25は、ストレージテンプレートに係るデータを記憶したストレージテンプレートデ ータ 800の一例を示す図である。このストレージテンプレートデータ 800は、ストレー ジテンプレート名、ディスク種別、ディスク名、信頼性の必要度、負荷の度合い、ディ スク容量およびブートディスクの情報を記憶している。
[0178] ストレージテンプレート名は、設定されたストレージテンプレートを識別する識別情 報である。ディスク種別は、ストレージテンプレートに属するディスクの用途の種別を 示す情報である。
[0179] たとえば、「root」は、そのディスクがシステムデータを記憶するために利用されること を示し、「local」は、そのディスクがサーバ個別のデータを記憶するために利用される ことを示し、「shared」は、そのディスクがサーバ間で共有されるデータを記憶するため に利用されることを示す。
[0180] ディスク名は、各ディスクに割り当てられたディスクを識別する名称である。信頼性 の必要度は、ディスクに必要とされる信頼性の情報である。負荷の度合いは、デイス クにかかる負荷の度合いの情報である。ディスク容量は、ディスクの記憶容量である。 ブートディスクは、そのディスクがシステムのブート用に利用されるものか否かを示す 情報である。
[0181] 続いて、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバグループの情報を受け付け、システムリソース DB26にその情報 を、以下に説明するサーバグループデータ 810として記憶する。
[0182] 図 26は、サーバグループに係る情報を記憶したサーバグループデータ 810の一例 を示す図である。このサーバグループデータ 810は、サーバグループ名、サーバドメ イン名、ソフトウェア配布イメージ名、版数、ストレージテンプレート名、 SANブートお よび自動リカバリの情報を記憶して!/、る。
[0183] サーバグループ名は、同一のサーバドメインに含まれるサーバを 1つまたは複数の グループに分けた場合のグループの識別情報である。サーバドメイン名は、サーバグ ループが属するサーバドメインの識別情報である。ソフトウェア配布イメージ名は、サ 一バグループに属するサーバに配布するソフトウェアのイメージファイルを識別する 情報である。
[0184] 版数は、ソフトウェア配布イメージの版数の情報である。ストレージテンプレート名は 、図 25で説明したストレージテンプレート名と同様の情報である。 SANブートは、サ 一バグループに属するサーバの SANブートをおこなうか否かを示す情報である。 自 動リカバリは、複数のサーバが連携して動作するスケールアウト構成のサーバが故障 した場合に、自動的にサーバを追加する処理を実行する力否かを示す情報である。
[0185] その後、システムリソースマネージャ 21は、システムリソース DB26に、サーバグノレ ープに対応するストレージグループの情報を、以下に説明するサーバ Zストレージグ ループリンクデータ 820として登録する。ここで、ストレージグループとは、同一のスト レージドメインに含まれるストレージを 1つまたは複数のグループに分けたものである
[0186] 図 27は、サーバグループに対応するストレージグループの情報を記憶したサーバ Zストレージグループリンクデータ 820の一例を示す図である。このサーバ Zストレー ジグループリンクデータ 820は、サーバグループ名、ストレージグループ名およびスト レージドメイン名の情報を記憶して 、る。
[0187] サーバグループ名は、図 26に示したサーバグループ名と同様の情報である。ストレ ージグループ名は、各サーバグループに対応して生成されたストレージグループの 識別情報である。ストレージドメイン名は、ストレージグループが属するストレージドメ インの識另 U†青報である。
[0188] ストレージグループを生成する際には、システムリソースマネージャ 21は、図 26に 示したサーバグループデータ 810から、サーバグループに対応付けられたストレージ テンプレートの情報を読み込み、図 25に示したストレージテンプレートデータ 800か らストレージテンプレートに対応するディスク種別の情報を読み込む。
[0189] そして、システムリソースマネージャ 21は、「root」や「local」、「shared」などのディスク 種別ごとに、ストレージグループを各サーバグループに対して生成し、その情報をサ ーバ Zストレージグループリンクデータ 820に登録する。
[0190] さらに、システムリソースマネージャ 21は、図 19に示したサーバ Zストレージドメイン 間リンクデータから、サーバグループが属するサーバドメインに対応するストレージド メインの情報を読み込み、その情報をサーバ Zストレージグループリンクデータ 820 に登録する。
[0191] その後、システムリソースマネージャ 21は、サーバグループを追加したことを AP管 理部 116aに認識させるコマンドを AP管理部 116aに送信する。具体的には、システ ムリソースマネージャ 21は、図 8に示した「issvgrp &(1(1」を八?管理部116&に送信す る。
[0192] 続いて、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバグループ間の対応関係の情報を受け付け、システムリソース DB 26にその情報を、以下に説明するサーバグループ間リンクデータ 830として登録す る。
[0193] 図 28は、サーバグループ間の対応関係に係る情報を記憶したサーバグループ間リ ンクデータ 830の一例を示す図である。このサーバグループ間リンクデータ 830は、 フロントサーバグループ名、ネットワークグノレープ名およびバックサーバグループ名 の情報を記憶している。
[0194] フロントサーバグループ名は、ネットワークグループにより連結されるサーバグルー プのうち、よりインターネット 70側にあるサーバグループを識別する識別情報である。 ここで、ネットワークグループとは、サーバグループ間を連結するよう図 16で説明した ネットワークサブグループを結合したネットワークのグループである。
[0195] ネットワークグループ名は、上記ネットワークグループを識別する識別情報である。
バックサーバグループ名は、ネットワークグループにより連結されるサーバグループ のうち、インターネット 70から遠 、側にあるサーバグループを識別する識別情報であ る。 [0196] その後、システムリソースマネージャ 21は、システムリソース DB26に、ネットワーク グループに係る情報を、以下に説明するネットワークグループデータ 850として記憶 する。
[0197] 具体的には、システムリソースマネージャ 21は、まず、図 18に示したサーバドメイン 間リンクデータ 670を読み込み、 2つのサーバドメインに挟まれて設定されているネッ トワークドメインの情報を取得する。
[0198] そして、システムリソースマネージャ 21は、図 14に示したネットワークドメインデータ
480を読み込み、ネットワークドメインに対応するフロントサブドメイン、バックサブドメ インおよび機器の情報を取得する。
[0199] さらに、システムリソースマネージャ 21は、図 17に示したネットワークサブグループ データ 660を読み込み、フロントサブドメイン、および、ノ ックサブドメインに対応する ネットワークサブドメインをネットワークサブグループデータ 660から検索し、検索した ネットワークサブドメインに対応するネットワークサブグループのうち、未使用のネット ワークサブグループを抽出する。
[0200] 続いて、システムリソースマネージャ 21は、図 14に示したネットワークドメインデータ
480から読み込んだ機器の情報に該当するネットワーク機器を 1つまたは複数のダル ープに分けて、システムリソース DB26にその情報を、以下に説明する負荷分散ダル ープデータ 840として記憶する。
[0201] 図 29は、負荷分散装置のグループ情報を記憶した負荷分散グループデータ 840 の一例を示す図である。この負荷分散グループデータ 840は、負荷分散グループ名
、ロードバランサ名および代表 IPの情報を記憶して 、る。
[0202] 負荷分散グループ名は、ロードバランサを 1つまたは複数のグループに分けた場合 のグループを識別する情報である。ロードバランサ名は、ロードバランサを識別する 名称である。代表 IPは、各負荷分散グループに割り当てられた IPアドレスの情報で ある。
[0203] その後、システムリソースマネージャ 21は、上記各ネットワークグループに属するネ ットワークドメインやネットワークサブグループ、負荷分散グループなどの対応関係の 情報に基づいて、システムリソース DB26にその情報を、以下に説明するネットワーク グループデータ 850として記憶する。
[0204] 図 30は、ネットワークグループに係る情報を記憶したネットワークグループデータ 8 50の一例を示す図である。このネットワークグループデータ 850は、ネットワークグル ープ名、ネットワークドメイン名、フロントネットワークサブグループ名、負荷分散ダル ープ名およびバックネットワークサブグループ名の情報を記憶して 、る。
[0205] ネットワークグループ名は、図 28で説明したネットワークグループと同様の情報であ る。ネットワークドメイン名は、図 18で説明したネットワークドメインと同様の情報である
[0206] フロントネットワークサブグループ名は、図 17で説明したネットワークサブグループ 名に対応するものであり、負荷分散グループを挟むネットワークサブグループのうち、 よりインターネット 70側にあるネットワークサブグループを識別する識別情報である。
[0207] 負荷分散グループ名は、図 29で説明した負荷分散グループ名と同様の情報であ る。バックネットワークサブグループ名は、図 17で説明したネットワークサブグループ 名に対応するものであり、負荷分散グループを挟むネットワークサブグループのうち、 よりインターネット 70から遠い側にあるネットワークサブグループを識別する識別情報 である。
[0208] さらに、システムリソースマネージャ 21は、ネットワーク RM24およびネットワークサ ブ RM54と連携し、図 13のネットワークサブドメインデータ 470に登録されたスィッチ に対して、ネットワークサブグループの VLANの設定をおこなう。
[0209] 続いて、システムリソースマネージャ 21は、サーバグループに一台目のサーバを追 カロして、そのサーバに導入されたソフトウェアのソフトウェアイメージを作成する処理を おこなう(ステップ S105)。以下に、ステップ S105でおこなわれる処理をさらに詳細 に説明する。
[0210] まず、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て、サーバとそのサーバを登録するサーバグループを指定した場合に、サーバおよ びサーバグループの情報を受け付け、サーバグループにサーバを登録する。
[0211] そして、システムリソースマネージャ 21は、図 26のサーバグループデータ 810を読 み込んでサーバグループに対応するストレージテンプレートを検索し、そのストレージ テンプレートの設定条件を図 25のストレージテンプレートデータ 800から取得する。
[0212] さらに、ストレージ RM25は、システムリソースマネージャ 21により取得されたストレ ージテンプレートの設定条件を満足するようプールされたストレージに論理ボリューム を設定し、論理ボリュームが設定されたストレージを上記サーバグループに割り当て る処理をおこなう。
[0213] 図 31は、論理ボリュームを RAID装置に設定する設定処理の処理手順を示すフロ 一チャートである。図 31に示すように、まず、システムリソースマネージャ 21は、論理 ボリュームの必要条件の情報を取得する (ステップ S 201)。ここで、論理ボリュームの 必要条件とは、図 25のストレージテンプレートデータ 800に記憶された信頼性の必 要度、負荷の度合い、および、ディスク容量の情報である。
[0214] 図 32は、論理ボリュームの設定画面の一例を示す図である。図 32には、システムリ ソースマネージャ 21が、運用管理クライアント 10に対して出力する論理ボリュームの 必要条件を表示した必要条件出力画面 860と、論理ボリューム設定後の論理ボリュ ーム構成出力画面 880とが示されて 、る。
[0215] 図 32の例では、 3つの必要条件を満足する 3つの論理ボリュームを作成するよう要 求された場合が示されている。そして、必要条件出力画面 860には、 3つの必要条件 870a— 870c力出力される。
[0216] 図 31の説明に戻ると、システムリソースマネージャ 21は、信頼性の必要度および負 荷の度合いに応じて、 RAID装置の RAIDレベルを決定する(ステップ S 202)。図 33 は、 RAIDレベルの設定情報を記憶した RAIDレベル設定データ 940の一例を示す 図である。
[0217] この RAIDレベル設定データ 940は、信頼性の必要度、負荷の度合 、および RAI Dレベルの情報を記憶している。信頼性の必要度は、図 25で説明した信頼性の必要 度と同様の情報である。負荷の度合いは、図 25で説明した負荷の度合いと同様の情 報である。 RAIDレベルは、信頼性の必要度および負荷の度合いにより決定される R AIDレべノレの†青報である。
[0218] 図 31の説明に戻ると、システムリソースマネージャ 21は、必要とされるディスク容量 の合計値から、 RAID装置種を決定する (ステップ S 203)。図 34は、 RAID装置に係 る情報を記憶した RAID装置データ 950の一例を示す図である。
[0219] この RAID装置データ 950は、必要な記憶容量合計値、 RAID装置の型名、デー タアクセススピード、 RAIDグループを構成するディスクドライブ数 (RAID0+ 1の場 合)、 RAIDグループを構成するディスクドライブ数 (RAID5の場合)および RAIDグ ループの最大数の情報を記憶して 、る。
[0220] 必要な記憶容量合計値は、論理ボリュームに必要とされるディスク容量の合計値の 情報である。 RAID装置の型名は、必要な記憶容量合計値を確保するのに適した R
AID装置の型名の情報である。
[0221] データアクセススピードは、 RAID装置の型名により特定されるディスクドライブのデ ータのアクセススピードの情報である。このデータアクセススピードには、アクセススピ ードが速い順に、「一番目」、「二番目」、「三番目」の 3つのディスクドライブ種の情報 が記憶されている。
[0222] RAIDグループを構成するディスクドライブ数 (RAID0+ 1の場合)は、 RAIDレべ ルが RAID0+ 1の場合において、 RAIDグループを構成するディスクドライブの数の 情報である。 RAIDグループを構成するディスクドライブ数 (RAID5の場合)は、 RAI Dレベルが RAID5の場合にお!、て、 RAIDグループを構成するディスクドライブの数 の情報である。 RAIDグループの最大数は、作成する RAIDグループの最大数の情 報である。
[0223] 図 31の説明に戻ると、システムリソースマネージャ 21は、図 34で説明した RAID装 置データ 950から、 RAID装置種ごとの特有情報を取得する (ステップ S 204)。
[0224] ここで、特有情報とは、データアクセススピードのうち、「一番目」に該当するディスク ドライブ種、 RAIDグループを構成するディスクドライブ数 (RAID0+ 1の場合)、 RAI Dグループを構成するディスクドライブ数 (RAID5の場合)および RAIDグループの 最大数の情報である。
[0225] そして、ストレージ RM25は、論理ボリュームを作成する(ステップ S 205)。具体的 には、ストレージ RM25は、論理ボリュームの各必要条件を満足する論理ボリューム を作成し、 RAID装置に論理ボリュームを設定する。
[0226] 図 32に示した論理ボリューム構成出力画面 880には、各必要条件 900a— 900cを 満足する!^理ボリューム 910a— 910d, 920a— 920e力 RAID装置 890に設定さ れた状況が示されている。
[0227] 図 31の説明に戻ると、ストレージ RM25は、 RAIDレベルが同一である論理ボリュ ームをグループ化した RAIDグループを作成する(ステップ S206)。そして、ストレー ジ RM25は、作成した RAIDグループに論理ボリュームを割り当てる(ステップ S207
) o
[0228] 図 32の例では、必要条件 900aおよび必要条件 900bを満足する論理ボリューム 9 10a— 910dは、 RAIDレベルが RAID0+ 1で同じであるので、 RAIDグループ 930 aにグループィ匕されている。また、必要条件 900cを満足する論理ボリューム 920a— 920eは、 RAIDレベルが RAID5であるので、 RAIDグループ 930bとしてグループ 化されている。
[0229] RAIDグループを作成する際には、ストレージ RM25は、各 RAIDグループに属す るディスクドライブを、図 34の RAID装置データ 950のデータアクセススピードにより 決定されるディスクドライブ種に設定する。
[0230] また、ストレージ RM25は、 RAIDグループを構成するディスクドライブ数を、図 34 の RAID装置データ 950の RAIDグループを構成するディスクドライブ数 (RAID0 + 1の場合)、または、 RAIDグループを構成するディスクドライブ数 (RAID5の場合)に より決定されるディスクドライブ数に設定する。
[0231] さらに、ストレージ RM25は、 RAIDグループの数が図 34の RAID装置データ 950 の RAIDグループの最大数以下になるよう RAIDグループを作成する。
[0232] 図 32の論理ボリューム構成出力画面 880では、必要条件 900a— 900cを満足し、 各 RAIDグループ 930a, 930bに割り当てられた論理ボリューム 910a— 910d, 920 a— 920eが、対応する必要条件 900a— 900cと線で結合されて表示されて 、る。
[0233] 図 31の説明に戻ると、ストレージ RM25は、図 32に示した論理ボリュームの構成を RAID装置に反映させるコマンドファイルを作成する(ステップ S208)。そして、ストレ ージ RM25は、そのコマンドファイルに基づいて、作成した論理ボリュームを実装置 に反映させる (ステップ S 209)。
[0234] その後、システムリソースマネージャ 21は、各サーバが属するサーバグループに対 応付けて、 RAID装置に設定された論理ボリュームをストレージサブグループとして 登録し、サーバのストレージグループに対するアクセス権を設定する。具体的には、 システムリソースマネージャ 21は、図 22に示したプロビジョユング構成データ 710に サーバグループ名、ストレージサブグループ名およびアクセス可否の情報を記憶す る。
[0235] 図 35は、ストレージサブグループが設定されたプロビジョユング構成データ 960の 一例を示す図である。このプロビジョユング構成データ 960には、図 22に示したプロ ビジョユング構成データ 710にサーバグループ名、ストレージサブグループ名および アクセス可否の情報が追加されて 、る。
[0236] RAID装置に構築された論理ボリュームをサーバに認識させ、ストレージサブダル ープとして登録する場合には、ストレージ RM25は、以下のような手順で論理ボリユー ムの設定をおこなう。
[0237] 図 36は、サーバに論理ボリュームを認識させる論理ボリュームの設定処理の処理 手順を示すフローチャートである。図 36に示すように、まず、ストレージ RM25は、 R AID装置の論理ボリュームをグループィ匕し、ァフィ-ティグループを設定する (ステツ プ S301)。
[0238] ここで、ァフィ-ティグループとは、サーバが認識する論理ユニット番号 (LUN, Logical Unit Number)と RAID装置における論理ボリューム(LV, Logical Volume)番号との間の対応関係を示す情報である。
[0239] 図 37は、 RAID装置に構築された論理ボリュームの設定処理を説明する説明図で ある。図 37には、サーノ 「A」およびサーバ「B」から構成されるサーバグループ 970と 、論理ボリューム「LV0」、 「LV1」、 「LV2」、 「LV3」が構築された RAID装置「 α」、およ び、論理ボリューム「LV10」、 「LV11」、 「LV12」、 「LV13」が構築された RAID装置「 j8 」力も構成されるストレージプール 980とが示されて!/、る。
[0240] さらに、図 37には、ストレージプール 980から RAID装置「α」の論理ボリューム「
LV0Jおよび「LV1」と、 RAID装置「 β」の論理ボリューム「LV12」および「LV13」とが追 加されたストレージグループ 990が示されている。
[0241] ストレージグループ 990に追加された RAID装置「 α」の論理ボリューム「LV0」およ び「LV1」は、ァフィ-ティグループ「AG0」およびァフィ-ティグループ「AG1」に属す るように設定されて 、る。また、 RAID装置「 β」の論理ボリューム「LV12」および「 LV13Jは、ァフィ-ティグループ「AG10」およびァフィ-ティグループ「AG11」に属す るように設定されている。
[0242] 図 38は、ァフィ-ティグループに係る情報を記憶したァフィ-ティグループデータ 1 010である。このァフィ二ティグループデータ 1010は、 RAID装置名、ァフィ-ティグ ループ名、 LUNおよび LVの情報を記憶して!/、る。
[0243] RAID装置名は、各 RAID装置を識別する識別情報である。ァフィ-ティグループ 名は、各 RAID装置において設定されたァフィ-ティグループの識別情報である。 L UNは、サーバ Aまたはサーバ B力 アクセスする際に論理ボリュームを識別する識 別情報である。 LVは、論理ボリュームを識別する識別情報である。
[0244] 図 36の説明に戻ると、ストレージ RM25は、サーバ「A」およびサーノ 「B」と、論理ボ リューム「LV0」, 「LV1」, 「LV12」, 「LV13」との間の冗長パスをチェックし、パスを選択 することによりアクセスパスを設定する (ステップ S302)。
[0245] そして、ストレージ RM25は、論理ユニットに対するマルチパスの設定をおこなう(ス テツプ S303)。図 39は、マルチパスの構成に係る情報を記憶したマルチパス構成デ ータ 1020の一例を示す図である。
[0246] このマルチパス構成データ 1020は、マルチパスインスタンス名および LUNの情報 を記憶している。マルチパスインスタンス名は、設定されたマルチパスのインスタンス を識別する情報である。 LUNは、設定されたマルチパスインスタンスに対応し、サー バ「A」またはサーバ「B」により認識される論理ユニットを識別する情報である。
[0247] そして、ストレージ RM25は、設定したマルチパスインスタンスをミラーボリュームの 構成要素としてクラスタリングをおこなうサーバのクラスタリソースに登録する (ステップ S304)。その後、ストレージ RM25は、クラスタリソースに登録されたマルチパスイン スタンスを用いて異なる RAID装置のボリュームどうしをペアとするミラーボリュームグ ループを設定する (ステップ S 305)。
[0248] 図 37には、サーノ 「A」またはサーノ 「B」において内部設定されるサーバ内ストレー ジ構成 1000が示されている。このストレージ構成 1000においては、マルチパスイン スタンス rmplb0jおよびマルチパスインスタンス「mplb2」とから構成されるミラーボリュ ーム「M0」と、マノレチノ スインスタンス「mplbl」およびマノレチノ スインスタンス「mplb3」 とから構成されるミラーボリューム「M1」とが設定されて!、る。
[0249] 図 40は、ミラーボリュームの構成に係る情報を記憶したミラーボリューム構成データ 1030である。このミラーボリューム構成データ 1030は、ミラーボリュームおよび構成
Figure imgf000047_0001
、る。
[0250] ミラーボリュームは、設定されたミラーボリュームを識別する識別情報である。構成 ディスクは、ミラーボリュームを構成する論理ユニットを識別する識別情報である。ここ で、構成ディスクには、図 39に示したマルチパス構成データ 1020におけるマルチパ スインスタンスの情報が記憶されている力、マルチノ ス構成データ 1020を参照する ことにより、ミラーボリュームに対応する LUNを特定することができる。
[0251] 図 38に示したァフィ-ティグループデータ 1010は、ストレージ RM25によりシステ ムリソース DB26および RAID装置内に記憶される。また、図 39に示したマルチパス 構成データ 1020、および、図 40に示したミラーボリューム構成データ 1030は、ストレ ージ RM25によりシステムリソース DB26に記憶されるとともに、ストレージ RMエージ ェント 115aにより管理対象であるサーバ内に記憶される。
[0252] 図 4に示すステップ S105におけるソフトウェアイメージの作成処理の説明に戻ると、 ネットワーク RM24は、サーバグループに登録したサーバのネットワークの設定をつ ぎにおこなう。
[0253] 具体的には、ネットワーク RM24は、図 28に示したサーバグループ間リンクデータ 8 30力ら、サーバを追加したサーバグループをフロントサーバグループおよびバックサ 一バグループとして有するネットワークグループの情報を読み込む。
[0254] さらに、ネットワーク RM24は、図 30に示したネットワークグループデータ 850を読 み込み、ネットワークグループに対応するフロントネットワークサブグループおよびバ ックネットワークサブグループを抽出する。
[0255] その後、ネットワーク RM24は、図 17に示したネットワークサブグループデータ 660 を読み込み、フロントネットワークサブグループおよびバックネットワークサブグループ に対応するネットワークサブグループを検索し、ネットワークサブグループに割り当て られたサブネットの情報を基にして、サーバに IPアドレスを割り当てる。
[0256] 図 41は、サーバに割り当てられた IPアドレスに係る情報を記憶した IPアドレス管理 データ 1040の一例を示す図である。この IPアドレス管理データ 1040は、システムリ ソースマネージャ 21により、システムリソース DB26に記憶される。
[0257] この IPアドレス管理データ 1040は、 IPアドレスおよび割当先の情報を記憶している 。 IPアドレスは、サーバに割り当てられた IPアドレスの情報である。割当先は、 IPアド レスの割当先であるサーバを識別する情報である。
[0258] 続いて、ネットワーク RM24は、図 29に示した負荷分散グループデータ 840および 図 30に示したネットワークグループデータ 850を基にして、サーバが追加されたサー バグループに対応するネットワークグループに代表 IPアドレスを有する負荷分散ダル ープを割り当てる。なお、この時点では、ロードバランサの負荷分散機能は停止状態 にある。
[0259] その後、ユーザは、サーバに導入する OSなどのソフトウェアを、サーバグループに 追加するサーバに対応付けられたストレージサブグループにインストールする。この ストレージサブグループは、 SANの技術を用いて構成されたものである。
[0260] そして、インストールの終了後、ソフトウェアサブ RM53は、ソフトウェア RM23およ びソフトウェア RMエージェント 113aと連携して、 OS、デバイスドライノく、アプリケーシ ヨンソフトウェアなどのソフトウェアの集合体力 構成されるソフトウェアイメージを作成 し、作成したソフトウェアイメージをドメインリソース DB55に記憶する。
[0261] 具体的には、ソフトウェア RM23は、図 8に示したミドルウェア連携 IFデータ 330を 読み込み、ソフトウェア RMエージェント 113aは、ミドルウェアにより実現される機能部 である AP管理部 116aに対して、ソフトウェアイメージ採取前に実行が必要なコマンド を送信する。
[0262] すなわち、ソフトウェア RMエージェント 113aは、 AP管理部 116aの機能を停止さ せるコマンドを送信し、 AP管理部 116aの機能を停止させる。そして、ソフトウェアサ ブ RM53は、サーバのシステムをシャットダウンする。さら〖こ、ソフトウェアサブ RM53 は、サーバのドメイン管理サーバ 50のドメインリソース DB55に記憶された仮の OSを 用いてサーバのネットワークブートをおこなう。 [0263] その後、ソフトウェアサブ RM53は、起動したサーバに導入されているソフトウェアの ソフトウェアイメージを作成する。そして、ソフトウェア RM23は、システムリソース DB2 6にソフトウェアイメージに係る情報を、以下に説明するソフトウェアイメージ管理デー タ 1050として登録する。
[0264] 図 42は、ソフトウェアイメージに係る情報を記憶したソフトウェアイメージ管理データ 1050の一例を示す図である。このソフトウェアイメージ管理データ 1050は、ソフトゥ エアイメージ名、形式、 OS属性およびソフトウェア名の情報を記憶している。
[0265] ソフトウェアイメージ名は、ソフトウェアイメージの名称である。形式は、ソフトウェアィ メージがアーカイブ形式で作成されたものであるの力 パッチ形式で作成されたもの であるのかを示す情報である。 OS属性は、ソフトウェアイメージ力 OSのソフトウェア イメージである力否かを示す情報である。ソフトウェア名は、ソフトウェアイメージが作 成されたソフトウェアの名称である。
[0266] さらに、ソフトウェアサブ RM53は、作成したソフトウェアイメージを基にして、他のサ ーバ用に配布するソフトウェア配布イメージを作成する。具体的には、ソフトウェアサ ブ RM53は、一台目のサーバ用にストレージに導入された複数のソフトウェアのソフト ウェアイメージを組にしたソフトウェア配布イメージを作成する。
[0267] そして、システムリソースマネージャ 21は、システムリソース DB26にソフトウェア配 布イメージに係る情報を、以下に説明するソフトウェア配布イメージ管理データ 1060 として記憶する。
[0268] 図 43は、ソフトウェア配布イメージに係る情報を記憶したソフトウェア配布イメージ管 理データ 1060の一例を示す図である。このソフトウェア配布イメージ管理データ 106 0は、ソフトウェア配布イメージ名、版数、サーバアーキテクチャ名およびソフトウェア イメージ Zスナップショット名の情報を記憶して!、る。
[0269] ソフトウェア配布イメージ名は、ソフトウェア配布イメージの名称である。版数は、ソフ トウエア配布イメージの版数である。サーバアーキテクチャ名は、ソフトウェア配布ィメ ージの配布対象となるサーバの CPUアーキテクチャを識別する識別情報である。ソ フトウェアイメージ Zスナップショット名は、ソフトウェア配布イメージに含まれるソフトゥ エアイメージまたはスナップショットを識別する識別情報である。 [0270] ここでスナップショットとは、ある特定の時点でサーバに導入されているソフトウェア のソフトウェアイメージである。システムリソースマネージャ 21は、システムリソース DB 26にスナップショットに係る情報を、以下に説明するスナップショット管理データ 107 0として登録する。
[0271] 図 44は、スナップショットに係る情報を記憶したスナップショット管理データ 1070の 一例を示す図である。このスナップショット管理データ 1070は、スナップショット名お よびソフトウェアイメージ名の情報を記憶している。スナップショット名は、スナップショ ットの名称である。ソフトウェアイメージ名は、スナップショットに含まれるソフトウェアィ メージを識別する識別情報である。
[0272] その後、ソフトウェア RM23は、図 8に示したミドルウェア連携 IFデータ 330を読み 込み、ソフトウェア RMエージェント 113aは、ミドルウェアにより実現される機能部であ る AP管理部 116aに対して、ソフトウェアイメージ採取後に実行が必要なコマンドを送 信する。
[0273] 具体的には、ソフトウェア RMエージェント 113aは、停止していた AP管理部 116a を始動させるコマンドを送信し、 AP管理部 116aを始動させる。そして、ネットワーク!^ M24は、スィッチに VLANの設定をおこなってサーバを VL ANに接続するとともに、 ロードバランサの負荷分散機能を始動させ、負荷を分散させる対象サーバとして当 該サーバを割り当てる。
[0274] その後、システムリソースマネージャ 21は、図 8に示したミドルウェア連携 IFデータ 3 30を読み込み、ミドルゥヱァにより実現される機能部である AP管理統括部 27に対し て、サーバグループ作成後に実行が必要なコマンドを送信する。
[0275] 具体的には、システムリソースマネージャ 21は AP管理統括部 27に対して、サーバ グループの追加を認識させるコマンドを送信する。そして、 AP管理統括部 27は、 AP 管理部 116aと連携して、サーバに対してアプリケーションプログラムの導入および設 定などをおこない、サーバを業務で利用可能な状態に設定する。
[0276] 図 4の説明に戻ると、システムリソースマネージャ 21は、二台目以降のサーバをサ 一バグループに追加する処理をおこなう(ステップ S106)。以下に、ステップ S106で おこなわれる処理をさらに詳細に説明する。 [0277] 図 45は、サーバをサーバグループに追加する処理の処理手順を示すフローチヤ ートである。図 45に示すように、まず、システムリソースマネージャ 21は、ユーザが運 用管理クライアント 10を操作して、サーバとそのサーバを登録するサーバグループを 指定した場合に、サーバおよびサーバグループの情報を受け付ける (ステップ S401
) o
[0278] そして、システムリソースマネージャ 21は、サーバグループにサーバを登録する(ス テツプ S402)。続いて、システムリソースマネージャ 21は、図 21に示した管理対象サ ーバデータ 700および図 43に示したソフトウェア配布イメージ管理データ 1060を読 み込んで、サーバのサーバアーキテクチャがソフトウェアイメージを導入可能なものか 否かを調べる(ステップ S403)。サーバのサーバアーキテクチャがソフトウェアィメー ジを導入可能なものでない場合には (ステップ S403, No)、当該サーバのサーバグ ループへの追加処理を終了する。
[0279] サーバのサーバアーキテクチャがソフトウェアイメージを導入可能なものである場合 には(ステップ S403, Yes)、ストレージ RM25は、一台目のサーバにストレージを設 定した場合と同様の方法で、サーバに対してストレージを設定する処理をおこなう(ス テツプ S404)。具体的には、ストレージ RM25は、図 31および図 36で説明した論理 ボリュームの設定処理を当該サーバに対して実行する。
[0280] 続いて、ネットワーク RM24は、一台目のサーバにネットワークを設定した場合と同 様の方法で、サーバグループに登録したサーバのネットワークブートを仮の OSを用 いておこない、サーバのネットワークの設定をおこなう(ステップ S405)。
[0281] その後、ソフトウェアサブ RM53は、一台目のサーバに導入されたソフトウェアから 作成されたソフトウェア配布イメージを二台目のサーバに対応付けられたストレージ サブグループに展開し、展開されたソフトウェアを用いてサーバを再起動させる (ステ ップ S406)。
[0282] ソフトウェア配布イメージをサーバに対応付けられたストレージサブグループに展開 した場合には、ソフトウェア RM23は、システムリソース DB26に、配布したソフトウェア 配布イメージに係る情報を記憶する。
[0283] 図 46は、ソフトウェア配布イメージの配布状況に係る情報を記憶した配布管理デー タ 1080の一例を示す図である。この配布管理データ 1080は、サーバ名、ストレージ サブグループ名、ソフトウェア配布イメージ名、版数および状態の情報を記憶してい る。
[0284] サーバ名は、ストレージサブグループが割り当てられて 、るサーバを識別する情報 である。ストレージサブグループ名は、ソフトウェア配布イメージが展開されるストレー ジサブグループを識別する情報である。ソフトウェア配布イメージ名は、ストレージサ ブグループに展開されたソフトウェア配布イメージを識別する情報である。版数は、配 布されたソフトウェア配布イメージの版数の情報である。状態は、ソフトウェア配布ィメ ージの配布状況を示す情報である。
[0285] 図 45の説明に戻ると、システムリソースマネージャ 21は、ネットワーク RM24および AP管理統括部 27と連携して、二台目のサーバを業務モードに移行させる処理をお こなう(ステップ S407)。
[0286] 具体的には、ネットワーク RM24は、サーバの再起動時に、一台目のサーバが属す るサブネットの情報に基づいて、二台目のサーバに IPアドレスを割り当てる。二台目 のサーバに割り当てられた IPアドレスの情報は、システムリソースマネージャ 21により 、図 41に示した IPアドレス管理データ 1040に記憶される。
[0287] 続いて、ネットワーク RM24は、スィッチに VLANの設定をおこなってサーバを VL ANに接続するとともに、ロードバランサに対して、負荷を分散させる対象サーバとし て当該サーバを登録させる。
[0288] その後、システムリソースマネージャ 21は、 AP管理統括部 27に対して、サーバの サーバグループの追加を AP管理統括部 27に認識させるコマンドを送信する。そし て、 AP管理統括部 27は、 AP管理部 116aと連携して、サーバに対してアプリケーシ ヨンプログラムの導入および設定などをおこない、サーバを業務で利用可能な状態に 設定する。
[0289] 三台目以降のサーバをサーバグループに追加する場合には、図 45で説明したサ ーバの追加処理を繰り返す。
[0290] つぎに、図 2で説明したリパーパシング処理の処理手順を図 47および図 48を用い て説明する。図 47は、リパーパシング処理に係る事前設定処理の処理手順を説明 するフローチャートであり、図 48は、リパーパシング処理の処理手順を示すフローチ ヤートである。
[0291] 図 47に示すように、まず、システムリソースマネージャ 21は、ユーザが運用管理クラ イアント 10を操作して設定したリパーパシングの設定に係る情報を受け付け、システ ムリソース DB26にその情報を、以下に説明するリパーパシング設定データ 1090お よびスケジュール設定データ 1110として登録する(ステップ S501)。
[0292] 図 49は、リパーパシングの設定に係る情報を記憶したリパーパシング設定データ 1 090の一例を示す図である。このリパーパシング設定データ 1090は、リパーパシン グ定義名、使用サーバ数、状態 1、状態 2および状態 3の情報を記憶している。
[0293] リパーパシング定義名は、リパーパシングの各設定に対して付与されたリパーパシ ングの定義名の情報である。使用サーバ名は、リパーパシング処理に使用するサー バの台数の情報である。状態 1、状態 2および状態 3は、リパーパシング処理におい て、用途が異なるサーバグループにサーバが属する状態が 3つある場合に、それぞ れの状態においてサーバがどのサーバグループに帰属するのかを識別する情報で ある。この状態 1、状態 2および状態 3には、それぞれ状態において、サーバが帰属 するサーバグループの識別情報が記憶される。
[0294] ここで、サーバが現在どのサーバグループに属しているかの状態に係る情報は、シ ステムリソースマネージャ 21により、以下に説明するリパーパシング運用データ 1100 としてシステムリソース DB26に登録されている。図 50は、サーバの状態に係る情報 を記憶したリパーパシング運用データ 1100の一例を示す図である。
[0295] このリパーパシング運用データ 1100は、リパーパシング定義名および現在の状態 の情報を記憶している。リパーパシング定義名は、図 49で説明したリパーパシング定 義名と同様の情報である。現在の状態は、サーバが現在どのサーバグループに属し ているかの状態を識別する情報である。この現在の状態には、図 49のリパーパシン グ設定データ 1090の状態 1、状態 2または状態 3のいずれかの状態に係る情報が記 憶される。
[0296] 図 51は、リパーパシング処理を実行するスケジュールに係る情報を記憶したスケジ ユール設定データ 1110の一例を示す図である。このスケジュール設定データ 1110 は、リパーパシング定義名、 日時および動作の情報を記憶している。
[0297] リパーパシング定義名は、図 49で説明したリパーパシング定義名と同様の情報で ある。 日時は、リパーパシング処理を実行する日時の情報である。動作は、リパーパ シング処理において、図 49で説明した状態を切り替える場合の切り替え元の状態お よび切り替え先の状態を識別する情報である。
[0298] なお、図 49に示したリパーパシング設定データ 1090、図 50に示したリパーパシン グ運用データ 1100および図 51に示したスケジュール設定データ 1110には、状態 1 、状態 2または状態 3の 3つの状態に係る情報が記憶されるが、その数は 3つに限定 されるものではなぐ任意の数の状態に係る情報を記憶することができる。以下では、 簡略ィヒのため、状態 1および状態 2の 2つの状態を切り替えるリパーパシング処理を おこなう場合にっ 、て説明することとする。
[0299] 図 47の説明に戻ると、システムリソースマネージャ 21は、状態の切り替えをおこなう サーバグループが同一のサーバドメインに属するサーバグループに属すること、また 、プールグループに管理対象となるサーバが図 49の使用サーバ数に設定された台 数存在することをチヱックする(ステップ S502)。
[0300] 具体的には、システムリソースマネージャ 21は、サーバグループのチェックを図 26 に示したサーバグループデータ 810を参照して実行する。また、システムリソースマネ ージャ 21は、プールグループのチェックを図 22に示したプロビジョユング構成データ 710を参照して実行する。
[0301] そして、システムリソースマネージャ 21は、図 49に示した状態 1に対応する切り替え 用のサーバグループにサーバを登録する(ステップ S503)。そして、システムリソース マネージャ 21は、ストレージ RM25と連携して、サーバを登録したサーバグループに 対するストレージサブグループを作成する(ステップ S 504)。
[0302] 具体的には、システムリソースマネージャ 21は、ストレージ RM25と連携することに より、 RAID装置に論理ボリュームを設定し、図 25に示したストレージテンプレートデ ータ 800および図 26に示したサーバグループデータ 810を参照して、図 35に示した ように、サーバグループに対応するストレージサブグループを作成する。さらに、シス テムリソースマネージャ 21は、作成したストレージサブグループに対するサーバから のアクセスを許可する。
[0303] 続いて、システムリソースマネージャ 21は、図 26に示したサーバグループデータ 81 0を参照することにより、サーバを登録したサーバグループに配信すべきソフトウェア 配布イメージを選択する。そして、ソフトウェアサブ RM53は、サーバグループに対応 するストレージサブグループにそのソフトウェア配布イメージを配信して展開する(ス テツプ S505)。
[0304] その後、システムリソースマネージャ 21は、ネットワークサブ RM54と連携して、ソフ トウエア配布イメージを配信したストレージサブグループに対応するサーバからのスト レージサブグループに対するアクセスを不許可に設定することにより、当該サーバを サーバグループから切り離す (ステップ S506)。その際、システムリソースマネージャ 21は、ストレージサブグループの削除はおこなわず、保存しておく。
[0305] 続いて、システムリソースマネージャ 21は、サーバグループから切り離されたサーバ を、状態 2に対応する切り替え用の別のサーバグループに登録する (ステップ S507) 。そして、システムリソースマネージャ 21は、ストレージ RM25と連携して、サーバを登 録したサーバグループに対するストレージサブグループを作成する(ステップ S508)
[0306] 具体的には、システムリソースマネージャ 21は、ストレージ RM25と連携することに より、 RAID装置に論理ボリュームを設定し、図 25に示したストレージテンプレートデ ータ 800および図 26に示したサーバグループデータ 810を参照して、図 35に示した ように、サーバグループに対応するストレージサブグループを作成する。さらに、シス テムリソースマネージャ 21は、作成したストレージサブグループに対するサーバから のアクセスを許可する。
[0307] その後、システムリソースマネージャ 21は、図 26に示したサーバグループデータ 81 0を参照することにより、サーバを登録したサーバグループに配信すべきソフトウェア 配布イメージを選択する。そして、ソフトウェアサブ RM53は、サーバグループに対応 するストレージサブグループにそのソフトウェア配布イメージを配信して展開し (ステツ プ S509)、この事前設定処理を終了する。
[0308] なお、状態数が 3以上である場合には、ステップ S509の後、サーバをサーバダル 一プカも切り離し、状態の数だけステップ S507からステップ S509の処理およびサー バをサーバグループ力 切り離す処理を繰り返し実行すればよい。
[0309] つぎに、図 48に示すように、リパーパシング処理においては、システムリソースマネ ージャ 21は、切り替え先のサーバグループの情報を、図 49に示したリパーパシング 設定データ 1090から取得する(ステップ S601)。
[0310] そして、システムリソースマネージャ 21は、図 26に示したサーバグループデータ 81
0を参照して、サーバグループに対応するソフトウェア配布イメージの情報を取得し、 さらに、図 46を参照して、そのソフトウェア配布イメージが配信済であることをチェック する(ステップ S602)。
[0311] その後、システムリソースマネージャ 21は、ネットワークサブ RM54と連携して、サー ノくからのストレージサブグループに対するアクセスを不許可に設定することにより、サ ーバが現在属するサーバグループから当該サーバを切り離し、プールグループに追 加する(ステップ S603)。その際、システムリソースマネージャ 21は、ストレージサブグ ループの削除はおこなわず、保存しておく。
[0312] 続いて、システムリソースマネージャ 21は、プールグループに追加されたサーバを 、切り替え先のサーバグループに登録し (ステップ S604)、登録したサーバグループ に対応するストレージサブグループに作成された論理ボリュームに対するサーバから のアクセスを許可する(ステップ S605)。
[0313] そして、サーバ RM22は、サーバサブ RM52と連携して、アクセスが許可された論 理ボリュームを起動ディスクとしてサーバを起動し (ステップ S606)、このリパーパシン グ処理を終了する。
[0314] なお、上記リパーパシング処理では、図 49に示したように、各状態に対して 1つの サーバグループを設定している力 各状態に対して 1つ以上のサーバグループを設 定することとしてもよい。
[0315] 図 52は、各状態に 1つ以上のサーバグループを設定したリパーパシング設定デー タ 1120の一例を示す図である。このリパーパシング設定データ 1120は、リパーパシ ング定義名、使用サーバ名、状態 1および状態 2の情報を記憶している。
[0316] リパーパシング定義名は、図 49で説明したリパーパシング定義名と同様の情報で ある。使用サーバ数は、図 49で説明した使用サーバ数と同様の情報である。状態 1 および状態 2は、リパーパシング処理において、用途の異なるサーバグループにサ ーバが属する状態が 2つある場合に、それぞれの状態においてサーバがどのサーバ グループに帰属するのか識別する情報である。この状態 1および状態 2には、それぞ れ状態において、サーバが帰属するサーバグループの識別情報が記憶される。
[0317] ここで、図 49で説明したリパーパシング設定データ 1090の状態 1、状態 2および状 態 3と異なる点は、 1つのリパーパシング定義名に対して、各状態に 1つ以上のサー バグループを設定して、サーバグループに属するサーバが利用するソフトウェアを別 のソフトウェアに切り替え、サーバグループに属するサーバの用途を別の用途に変更 する点である。
[0318] 図 52の例では、状態 1に対して、サーバグループ「A_DB」とサーバグループ「B_DB 」とが登録され、状態 2に対して、サーバグループ「A_Batch」が登録されている。そし て、状態 1から状態 2へと状態が変更される場合には、サーバグループ「A_DB」とサー バグループ「B_DB」とに属するサーバの 2つの用途から、サーバグループ「A_Batch」 に属するサーバの 1つの用途にサーバの用途が変更される。
[0319] また、状態 2から状態 1へと状態が変更される場合には、サーバグループ「A_Batch」 に属するサーバの 1つの用途から、サーバグループ「A_DB」とサーバグループ「B_DB 」とに属するサーバの 2つの用途にサーバの用途が変更される。また、状態 1および 状態 2のそれぞれに複数のサーバグループが登録された場合には、各サーバダル ープに属するサーバの複数の用途力 別の複数の用途にサーバの用途が変更され る。
[0320] また、各サーバグループには、各サーバグループに割り当てるサーバ数を設定す ることとしてもよい。図 52の例では、状態 1に対して、サーバグループ「A_DB」とサー バグループ「B_DB」とが登録され、使用サーバ数により指定される 4台のサーバのうち 、サーバグループ「A_DB」に対しては 1台のサーバを、サーバグループ「B_DB」に対 しては 3台のサーバを割り当てるよう設定されている。状態 2においては、サーバダル ープ「A_Batch」に対して、 4台のサーバを割り当てるよう設定されている。
[0321] 上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをコンビュ ータで実行することによって実現することができる。そこで、以下では、図 53から図 55 を用いて、上記各種処理を実現するプログラムを実行するコンピュータの一例につい て説明する。
[0322] 図 53は、図 3に示したサイト管理サーバ 20となるコンピュータ 1200のハードウェア 構成を示す図である。このコンピュータ 1200は、ユーザからのデータの入力を受け 付ける入力装置 1210、モニタ 1220、各種プログラムを記録した記録媒体カもプログ ラムを読み取る媒体読取り装置 1230、 ROM (Read Only Memory) 1240、ネットヮ ークを介して他のコンピュータとの間でデータの授受をおこなうネットワークインターフ エース 1250、 HDD (Hard Disk Drive) 1260、 RAM (Random Access Memory) 1 270および CPU (Central Processing Unit) 1280をバス 1290で接続して構成され る。
[0323] そして、 HDD1260には、サイト管理サーバ 20の機能と同様の機能を発揮するプロ グラム、つまり、図 53に示すシステムリソース管理プログラム 1260bおよび AP管理統 括プログラム 1260cが記憶されて!、る。
[0324] なお、システムリソース管理プログラム 1260bおよび AP管理統括プログラム 1260c につ 、ては、適宜統合または分散して記憶することとしてもよ!、。
[0325] そして、 CPU1280力 システムリソース管理プログラム 1260bおよび AP管理統括 プログラム 1260cを HDD1260力も読み出して実行することにより、システムリソース 管理プロセス 1280aおよび AP管理統括プロセス 1280bとして機能するようになる。
[0326] このシステムリソース管理プロセス 1280aは、図 3に示したシステムリソースマネージ ャ 21、サーバ RM22、ソフトウェア RM23、ネットワーク RM24、ストレージ RM25に 対応する。また、 AP管理統括プロセス 1280bは、図 3に示した AP管理統括部 27に 対応する。
[0327] また、 HDD1260には、システムリソースデータ 1260aが記憶される。なお、このシ ステムリソースデータ 1260aは、図 3に示したシステムリソース DB26に記憶される各 種データに対応する。
[0328] そして、 CPU1280は、リソースの管理に係る各種データをシステムリソースデータ 1 260aとして記憶するとともに、システムリソースデータ 1260aを HDD1260から読み 出して RAM1270に格納し、 RAM 1270に格納されたシステムリソースデータ 1270 aに基づ ヽて各種データ処理を実行する。
[0329] 図 54は、図 3に示したドメイン管理サーバ 20となるコンピュータ 1300のハードゥエ ァ構成を示す図である。このコンピュータ 1300は、ユーザからのデータの入力を受 け付ける入力装置 1310、モニタ 1320、各種プログラムを記録した記録媒体力もプロ グラムを読み取る媒体読取り装置 1330、 ROM1340、ネットワークを介して他のコン ピュータとの間でデータの授受をおこなうネットワークインターフェース 1350、 HDD1 360、 RAM1370および CPU1380をバス 1390で接続して構成される。
[0330] そして、 HDD1360には、ドメイン管理サーバ 50, 60の機能と同様の機能を発揮 するプログラム、つまり、図 54に示すドメインリソース管理プログラム 1360bが記憶さ れている。なお、ドメインリソース管理プログラム 1360bについては、適宜統合または 分散して記憶することとしてもょ 、。
[0331] そして、 CPU1380力 ドメインリソース管理プログラム 1360bを HDD1360から読 み出して実行することにより、ドメインリソース管理プロセス 1380aとして機能するよう になる。
[0332] このドメインリソース管理プロセス 1380aは、図 3に示したシステムリソースドメインマ ネージャ 51、サーバサブ RM52、ソフトウェアサブ RM53、ネットワークサブ RM54に 対応する。
[0333] また、 HDD1360には、ドメインリソースデータ 1360aが記憶される。なお、このドメ インリソースデータ 1360aは、図 3に示したドメインリソース DB55に記憶される各種デ ータに対応する。
[0334] そして、 CPU1380は、ドメインにおけるリソースの管理に係る各種データをドメイン リソースデータ 1360aとして記憶するとともに、ドメインリソースデータ 1360aを HDD1 360から読み出して RAM 1370に格納し、 RAM 1370に格納されたドメインリソース データ 1370aに基づいて各種データ処理を実行する。
[0335] また、図 55は、図 3に示したサーバ 110aとなるコンピュータ 1400のハードウェア構 成を示す図である。このコンピュータ 1400は、ユーザからのデータの入力を受け付 ける入力装置 1410、モニタ 1420、各種プログラムを記録した記録媒体力もプロダラ ムを読み取る媒体読取り装置 1430、 RAM 1440, ROM1450、ネットワークを介し て他のコンピュータとの間でデータの授受をおこなうネットワークインターフェース 146 0、 HDD1470および CPU1480をバス 1490で接続して構成される。
[0336] そして、 HDD1470には、サーバ 110aの機能と同様の機能を発揮するプログラム、 つまり、図 55に示すエージェントリソース管理プログラム 1470aおよび AP管理プログ ラム 1470bが記憶されている。なお、エージェントリソース管理プログラム 1470aおよ び AP管理プログラム 1470bについては、適宜統合または分散して記憶することとし てもよい。
[0337] そして、 CPU1480力 エージェントリソース管理プログラム 1470aおよび AP管理 プログラム 1470bを HDD1470から読み出して実行することにより、エージエントリソ ース管理プロセス 1480aおよび AP管理プロセス 1480bとして機能するようになる。
[0338] このエージェントリソース管理プロセス 1480aは、図 3に示したリソースマネージヤエ 一ジェン卜 l l la、サーノ RMエージェント 112a、ソフトウェア RMエージェント 113a、 ネットワーク RMエージェント 114aおよびストレージ RMエージェント 115aに対応する 。また、 AP管理プロセス 1480bは、図 3に示した AP管理部 116aに対応する。
[0339] ところで、システムリソース管理プログラム 1260b、 AP管理統括プログラム 1260c、 ドメインリソース管理プログラム 1360b、エージェントリソース管理プログラム 1470aお よび AP管理プログラム 1470bについては、必ずしも最初から HDD1260、 HDD 13 60または HDD1470に記憶させておく必要はない。
[0340] たとえば、コンピュータ 1200、 1300または 1400に挿入されるフレキシブルディスク
(FD) , CD-ROM, MOディスク、 DVDディスク、光磁気ディスク、 ICカードなどの「 可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライ ブ (HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、 LAN, WANなどを介してコンピュータ 1200、 1300または 1400〖こ接続される「他のコンビ ユータ(またはサーバ)」などに各プログラムを記憶しておき、コンピュータ 1200、 130 0または 1400がこれら力も各プログラムを読み出して実行するようにしてもょ 、。
[0341] 上述してきたように、本実施例では、システムリソースマネージャ 21が、均一のソフト ウェアを利用するサーバの集まりとしてサーバグループを登録し、登録したサーバグ ループに属するサーバが利用するソフトウェアの切り替えを制御することとしたので、 サーバの数が多い大規模な情報処理システムにおいても、サーバをサーバグループ 単位で管理することにより、サーバの用途の変更を管理者が容易にかつ効率的に実 行することができる。
[0342] また、本実施例では、システムリソースマネージャ 21が、物理結線が均一なサーバ の集まりとしてサーバドメインを登録し、登録したサーバドメインにおいて均一のソフト ウェアを利用するサーバの集まりとしてサーバグループを登録することとしたので、物 理結線の均一性が保証された各サーバドメインにおいて、用途を切り替えるサーバ が属するサーバグループを登録することにより、用途を変更して利用するサーバのサ 一バグループを管理者が容易に構築し、構築したサーバグループに属するサーバ の用途の変更を容易にかつ効率的におこなうことができる。
[0343] また、本実施例では、システムリソースマネージャ 21が、サーバグループに属する サーバに S ANを介して接続された RAID装置に記憶されているソフトウェアに対する サーノくからのアクセスを制御することによりサーバが利用するソフトウェアの切り替え を制御することとしたので、ソフトウェアの切り替えを容易に実行し、サーバ群の用途 変更処理を効率的におこなうことができる。
[0344] また、本実施例では、システムリソースマネージャ 21が、スケジュール設定データ 1 110に基づいて、サーバグループに属するサーバが利用するソフトウェアの切り替え を制御することとしたので、サーバの用途の切り替えを計画的におこなうことができる
[0345] また、本実施例では、システムリソースマネージャ 21が、リパーパシング設定データ 1120に基づいて、複数のサーバグループに属する複数のサーバがそれぞれ利用 する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのサーバグルー プに属する複数のサーバが利用するソフトウェアを別の複数のソフトウェアに切り替え る制御をおこなうことにより、複数のサーバの 1つまたは複数の用途を別の用途に変 更することとしたので、サーバの用途の変更を柔軟かつ効率的におこなうことができ る。
[0346] また、本実施例では、システムリソースマネージャ 21が、リパーパシング設定データ 1120に基づいて、複数のリソースグループに属する指定された数のリソースがそれ ぞれ利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのリソ ースグループに属するリソースが利用するソフトウェアを指定された数のリソースごと に別の複数のソフトウェアに切り替える制御をおこなうことにより、複数のリソースの 1 つまたは複数の用途を別の用途に変更することとしたので、各用途に対して必要な 数のサーバを分配することができる。
[0347] さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以 外にも、請求の範囲に記載した技術的思想の範囲内において種々の異なる実施例 にて実施されてもょ 、ものである。
[0348] また、本実施例において説明した各処理のうち、自動的におこなわれるものとして 説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的に おこなわれるものとして説明した処理の全部または一部を公知の方法で自動的にお こなうことちでさる。
[0349] この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種の データやパラメータを含む情報については、特記する場合を除いて任意に変更する ことができる。
[0350] また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に 図示のように構成されていることを要しない。すなわち、各装置の分散'統合の具体 的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況な どに応じて、任意の単位で機能的または物理的に分散 ·統合して構成することができ る。
[0351] さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、 CP Uおよび当該 CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤー ドロジックによるハードウェアとして実現され得る。 産業上の利用可能性
[0352] 以上のように、本発明にかかる運用管理プログラム、運用管理方法および運用管理 装置は、情報処理システムを構成するリソースの運用を管理する運用管理システム に有用であり、特に、サーバなどのリソースの数が多い大規模な情報処理システムに おいても、リソースの用途の変更を管理者が容易にかつ効率的に実行することが必 要な運用管理システムに適して 、る。

Claims

請求の範囲
[1] 情報処理システムを構成するリソースの運用を管理する運用管理プログラムであつ て、
均一のソフトウェアを利用するリソースの集まりとしてリソースグループを登録するグ ループ登録手順と、
前記グループ登録手順により登録されたリソースグループに属するリソースが利用 するソフトウェアの切り替えを制御することによりリソースの用途を変更する用途変更 手順と、
をコンピュータに実行させることを特徴とする運用管理プログラム。
[2] 物理結線が均一なリソースの集まりとしてリソースドメインを登録するドメイン登録手 順をさらにコンピュータに実行させ、前記グループ登録手順は、前記ドメイン登録手 順により登録されたリソースドメインにおいて均一のソフトウェアを利用するリソースの 集まりとしてリソースグループを登録することを特徴とする請求項 1に記載の運用管理 プログラム。
[3] 前記用途変更手順は、リソースグループに属するリソースにネットワークを介して接 続された記憶装置に記憶されているソフトウェアに対するリソース力ものアクセスを制 御することによりリソースが利用するソフトウェアの切り替えを制御することを特徴とす る請求項 1に記載の運用管理プログラム。
[4] 前記用途変更手順は、あら力じめ定められたスケジュールに基づいて、リソースグ ループに属するリソースが利用するソフトウェアの切り替えを制御することを特徴とす る請求項 1に記載の運用管理プログラム。
[5] 前記用途変更手順は、複数のリソースグループに属する複数のリソースがそれぞれ 利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのリソースグ ループに属する複数のリソースが利用するソフトウェアを別の複数のソフトウェアに切 り替える制御をおこなうことにより、複数のリソースの 1つまたは複数の用途を別の用 途に変更することを特徴とする請求項 1に記載の運用管理プログラム。
[6] 前記用途変更手順は、ソフトウェアの切り替えをおこなうリソースの数に係るあらかじ め定められた情報に基づいて、複数のリソースグループに属する指定された数のリソ ースがそれぞれ利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、
1つのリソースグループに属するリソースが利用するソフトウェアを指定された数のリソ ースごとに別の複数のソフトウェアに切り替える制御をおこなうことにより、複数のリソ ースの 1つまたは複数の用途を別の用途に変更することを特徴とする請求項 5に記載 の運用管理プログラム。
[7] 情報処理システムを構成するリソースの運用を管理する運用管理方法であって、 均一のソフトウェアを利用するリソースの集まりとしてリソースグループを登録するグ ループ登録工程と、
前記グループ登録工程により登録されたリソースグループに属するリソースが利用 する
ソフトウェアの切り替えを制御することによりリソースの用途を変更する用途変更工程 と、
を含んだことを特徴とする運用管理方法。
[8] 物理結線が均一なリソースの集まりとしてリソースドメインを登録するドメイン登録ェ 程をさらに含み、前記グループ登録工程は、前記ドメイン登録工程により登録された リソースドメインにおいて均一のソフトウェアを利用するリソースの集まりとしてリソース グループを登録することを特徴とする請求項 7に記載の運用管理方法。
[9] 前記用途変更工程は、リソースグループに属するリソースにネットワークを介して接 続された記憶装置に記憶されているソフトウェアに対するリソース力ものアクセスを制 御することによりリソースが利用するソフトウェアの切り替えを制御することを特徴とす る請求項 7に記載の運用管理方法。
[10] 前記用途変更工程は、あら力じめ定められたスケジュールに基づいて、リソースグ ループに属するリソースが利用するソフトウェアの切り替えを制御することを特徴とす る請求項 7に記載の運用管理方法。
[11] 前記用途変更工程は、複数のリソースグループに属する複数のリソースがそれぞれ 利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのリソースグ ループに属する複数のリソースが利用するソフトウェアを別の複数のソフトウェアに切 り替える制御をおこなうことにより、複数のリソースの 1つまたは複数の用途を別の用 途に変更することを特徴とする請求項 7に記載の運用管理方法。
[12] 前記用途変更工程は、ソフトウェアの切り替えをおこなうリソースの数に係るあらかじ め定められた情報に基づいて、複数のリソースグループに属する指定された数のリソ ースがそれぞれ利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのリソースグループに属するリソースが利用するソフトウェアを指定された数のリソ ースごとに別の複数のソフトウェアに切り替える制御をおこなうことにより、複数のリソ ースの 1つまたは複数の用途を別の用途に変更することを特徴とする請求項 11に記 載の運用管理方法。
[13] 情報処理システムを構成するリソースの運用を管理する運用管理装置であって、 均一のソフトウェアを利用するリソースの集まりとしてリソースグループを登録するグ ループ登録手段と、
前記グループ登録手段により登録されたリソースグループに属するリソースが利用 するソフトウェアの切り替えを制御することによりリソースの用途を変更する用途変更 手段と、
を備えたことを特徴とする運用管理装置。
[14] 物理結線が均一なリソースの集まりとしてリソースドメインを登録するドメイン登録手 段をさらに備え、前記グループ登録手段は、前記ドメイン登録手段により登録された リソースドメインにおいて均一のソフトウェアを利用するリソースの集まりとしてリソース グループを登録することを特徴とする請求項 13に記載の運用管理装置。
[15] 前記用途変更手段は、リソースグループに属するリソースにネットワークを介して接 続された記憶装置に記憶されているソフトウェアに対するリソース力ものアクセスを制 御することによりリソースが利用するソフトウェアの切り替えを制御することを特徴とす る請求項 13に記載の運用管理装置。
[16] 前記用途変更手段は、あら力じめ定められたスケジュールに基づいて、リソースグ ループに属するリソースが利用するソフトウェアの切り替えを制御することを特徴とす る請求項 13に記載の運用管理装置。
[17] 前記用途変更手段は、複数のリソースグループに属する複数のリソースがそれぞれ 利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのリソースグ ループに属する複数のリソースが利用するソフトウェアを別の複数のソフトウェアに切 り替える制御をおこなうことにより、複数のリソースの 1つまたは複数の用途を別の用 途に変更することを特徴とする請求項 13に記載の運用管理装置。
前記用途変更手段は、ソフトウェアの切り替えをおこなうリソースの数に係るあらかじ め定められた情報に基づいて、複数のリソースグループに属する指定された数のリソ ースがそれぞれ利用する各ソフトウェアを別のソフトウェアに切り替える制御、または、 1つのリソースグループに属するリソースが利用するソフトウェアを指定された数のリソ ースごとに別の複数のソフトウェアに切り替える制御をおこなうことにより、複数のリソ ースの 1つまたは複数の用途を別の用途に変更することを特徴とする請求項 17に記 載の運用管理装置。
PCT/JP2004/015384 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置 WO2006043309A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP04792553A EP1811376A4 (en) 2004-10-18 2004-10-18 PROGRAM, METHOD AND INSTALLATION FOR OPERATIONAL MANAGEMENT
PCT/JP2004/015384 WO2006043309A1 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置
JP2006542128A JP4734259B2 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置
US11/787,759 US8224941B2 (en) 2004-10-18 2007-04-17 Method, apparatus, and computer product for managing operation
US13/473,436 US20120233305A1 (en) 2004-10-18 2012-05-16 Method, apparatus, and computer product for managing operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/015384 WO2006043309A1 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/787,759 Continuation US8224941B2 (en) 2004-10-18 2007-04-17 Method, apparatus, and computer product for managing operation

Publications (1)

Publication Number Publication Date
WO2006043309A1 true WO2006043309A1 (ja) 2006-04-27

Family

ID=36202734

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/015384 WO2006043309A1 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置

Country Status (4)

Country Link
US (2) US8224941B2 (ja)
EP (1) EP1811376A4 (ja)
JP (1) JP4734259B2 (ja)
WO (1) WO2006043309A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10330596A1 (de) * 2003-07-07 2005-02-03 Siemens Ag Zuordnung von Stationsadressen zu Kommunikationsteilnehmern in einem Bussystem
WO2006043307A1 (ja) * 2004-10-18 2006-04-27 Fujitsu Limited 運用管理プログラム、運用管理方法および運用管理装置
DE602004027424D1 (de) 2004-10-18 2010-07-08 Fujitsu Ltd Operationsverwaltungsprogramm, operationsverwaltun
KR100677145B1 (ko) * 2004-10-28 2007-02-02 삼성전자주식회사 네트워크 주소를 자동으로 설정하는 방법 및 장치
US7797288B2 (en) * 2004-12-27 2010-09-14 Brocade Communications Systems, Inc. Use of server instances and processing elements to define a server
US7873946B2 (en) * 2006-03-23 2011-01-18 Oracle America, Inc. Scalable vector graphics, tree and tab as drag and drop objects
US9922198B2 (en) * 2006-09-07 2018-03-20 Hewlett Packard Enterprise Development Lp Methods, apparatus and computer systems that enable hardware module use rights owned by one server to be claimed for use by another server in a common share group
US8005014B2 (en) * 2007-04-27 2011-08-23 Hewlett-Packard Development Company, L.P. Method of choosing nodes in a multi-network
JP5050118B1 (ja) * 2011-06-30 2012-10-17 株式会社東芝 情報処理装置、情報処理方法およびプログラム
US9917905B2 (en) * 2013-05-13 2018-03-13 International Business Machines Corporation Location-based domain name system service discovery
JP6273866B2 (ja) * 2014-01-29 2018-02-07 富士通株式会社 制御プログラム、制御装置および制御方法
US9928149B2 (en) 2014-08-29 2018-03-27 Cynny Space Srl Systems and methods to maintain data integrity and redundancy in a computing system having multiple computers
US10114664B1 (en) * 2015-09-21 2018-10-30 Veritas Technologies Llc Systems and methods for automated delivery and identification of virtual drives

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278769A (ja) * 2001-03-19 2002-09-27 Toshiba Corp 自動osインストール方法及び計算機ネットワークシステム
JP2004508616A (ja) * 2000-06-20 2004-03-18 テラスプリング・インコーポレーテッド 拡張可能コンピューティングシステムの制御方法および装置
JP2004110791A (ja) * 2002-09-16 2004-04-08 Hewlett-Packard Development Co Lp ブレードアーキテクチャのための動的適応サーバプロビジョニング
JP2004355624A (ja) * 2003-05-29 2004-12-16 Internatl Business Mach Corp <Ibm> ストレージ・エリア・ネットワーク上でのブート、保守、またはインストール操作の方法、装置、およびプログラム

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107680B2 (ja) 1986-10-22 1995-11-15 株式会社日立製作所 並列プロセッサのプロセッサ間データ転送装置
JPH05160876A (ja) 1991-12-09 1993-06-25 Oki Electric Ind Co Ltd 通信制御プロセッサの管理方法
US5400325A (en) * 1993-06-29 1995-03-21 Synoptics Communications, Inc. Method and apparatus providing for hunt groups in an ATM network of the like
JPH07121395A (ja) 1993-10-27 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 予備装置優先選択方法
US5675723A (en) 1995-05-19 1997-10-07 Compaq Computer Corporation Multi-server fault tolerance using in-band signalling
JPH0916521A (ja) 1995-06-30 1997-01-17 N T T Data Tsushin Kk 並列バッチ処理方式
JPH09297692A (ja) 1996-05-07 1997-11-18 Pfu Ltd 多重化システム
US5996086A (en) 1997-10-14 1999-11-30 Lsi Logic Corporation Context-based failover architecture for redundant servers
US6163856A (en) 1998-05-29 2000-12-19 Sun Microsystems, Inc. Method and apparatus for file system disaster recovery
EP0987630B1 (en) 1998-09-08 2005-09-14 Fujitsu Services Limited Resilience in a multi-computer system
US6453426B1 (en) 1999-03-26 2002-09-17 Microsoft Corporation Separately storing core boot data and cluster configuration data in a server cluster
JP3252832B2 (ja) 1999-06-09 2002-02-04 日本電気株式会社 通信システムおよび方法
US6535998B1 (en) 1999-07-26 2003-03-18 Microsoft Corporation System recovery by restoring hardware state on non-identical systems
US6597956B1 (en) 1999-08-23 2003-07-22 Terraspring, Inc. Method and apparatus for controlling an extensible computing system
US7127518B2 (en) * 2000-04-17 2006-10-24 Circadence Corporation System and method for implementing application functionality within a network infrastructure
JP2002007174A (ja) 2000-06-27 2002-01-11 Hitachi Ltd 記憶装置のデータ管理システム
JP2004519749A (ja) * 2000-07-17 2004-07-02 ギャラクティック・コンピューティング・コーポレイション 離隔するアカウント/サイトを越えて動的にホストサービス管理を提供する方法及びシステム
US7844513B2 (en) * 2000-07-17 2010-11-30 Galactic Computing Corporation Bvi/Bc Method and system for operating a commissioned e-commerce service prover
US6907395B1 (en) 2000-10-24 2005-06-14 Microsoft Corporation System and method for designing a logical model of a distributed computer system and deploying physical resources according to the logical model
US7313614B2 (en) 2000-11-02 2007-12-25 Sun Microsystems, Inc. Switching system
JP3693938B2 (ja) * 2000-11-07 2005-09-14 信佳 酒谷 情報配信システム、広告配信システム、情報配信プログラム、サーバ、情報配信サーバ、広告情報配信方法、およびセーバページ表示方法
US6901446B2 (en) * 2001-02-28 2005-05-31 Microsoft Corp. System and method for describing and automatically managing resources
US20030130832A1 (en) 2002-01-04 2003-07-10 Peter Schulter Virtual networking system and method in a processing system
US6898705B2 (en) * 2001-05-31 2005-05-24 International Business Machines Corporation Automatic appliance server re-provision/re-purposing method
US6687733B2 (en) * 2001-06-01 2004-02-03 Intergenix Method and system for automatically configuring a client-server network
US8126959B2 (en) * 2001-06-28 2012-02-28 International Business Machines Corporation Method and system for dynamic redistribution of remote computer boot service in a network containing multiple boot servers
JP2003022190A (ja) 2001-07-09 2003-01-24 Hitachi Ltd 計算機システムのマルチブート方法、および、マルチブートプログラム
JP2003067351A (ja) * 2001-08-28 2003-03-07 Nec System Technologies Ltd 分散型コンピュータの構成制御システム
JP4199444B2 (ja) 2001-08-30 2008-12-17 日本電気株式会社 パーティション構成変更方式、パーティション構成変更方法およびパーティション構成変更用プログラム
US7093124B2 (en) 2001-10-30 2006-08-15 Intel Corporation Mechanism to improve authentication for remote management of a computer system
US7213065B2 (en) * 2001-11-08 2007-05-01 Racemi, Inc. System and method for dynamic server allocation and provisioning
CA2363411A1 (en) 2001-11-21 2003-05-21 Platespin Canada Inc. System and method for provisioning software
US20030126242A1 (en) 2001-12-28 2003-07-03 Chang Albert H. Network boot system and method using remotely-stored, client-specific boot images created from shared, base snapshot image
JP2003271429A (ja) * 2002-03-15 2003-09-26 Hitachi Ltd 記憶装置資源管理方法、記憶資源管理プログラム、該プログラムを記録した記録媒体、及び記憶資源管理装置
GB0213073D0 (en) * 2002-06-07 2002-07-17 Hewlett Packard Co Method of maintaining availability of requested network resources
US7822810B2 (en) 2002-09-17 2010-10-26 Hewlett-Packard Development Company, L.P. Method and system for peer to peer common channel collaboration
US7124322B1 (en) 2002-09-24 2006-10-17 Novell, Inc. System and method for disaster recovery for a computer network
US20040068667A1 (en) * 2002-10-03 2004-04-08 International Business Machines Corporation Method and apparatus for securing and managing cluster computing in a network data processing system
US7870241B2 (en) 2002-11-27 2011-01-11 International Business Machines Corporation Automated power control policies based on application-specific redundancy characteristics
JP3737810B2 (ja) 2003-05-09 2006-01-25 株式会社東芝 計算機システム及び故障計算機代替制御プログラム
US7287186B2 (en) 2003-06-02 2007-10-23 Surgient Inc. Shared nothing virtual cluster
US20050015471A1 (en) * 2003-07-18 2005-01-20 Zhang Pu Paul Secure cluster configuration data set transfer protocol
US7389411B2 (en) 2003-08-29 2008-06-17 Sun Microsystems, Inc. Secure transfer of host identities
DE102004005128B3 (de) 2004-02-02 2005-01-05 Fujitsu Siemens Computers Gmbh Anordnung mehrerer Rechner und Verfahren zum Betreiben einer Anordnung mehrerer Rechner bei einem Rechnerausfall
US7478275B1 (en) 2004-03-29 2009-01-13 Symantec Operating Corporation Method and apparatus for performing backup storage of checkpoint data within a server cluster
US7930377B2 (en) * 2004-04-23 2011-04-19 Qlogic, Corporation Method and system for using boot servers in networks
US7325156B1 (en) * 2004-10-07 2008-01-29 Hewlett-Packard Development Company, L.P. Methods and apparatus for backing up data in a data center
EP1811397A4 (en) 2004-10-12 2011-08-17 Fujitsu Ltd PROGRAM, METHOD AND INSTALLATION FOR OPERATIONAL MANAGEMENT
EP1832976A4 (en) 2004-10-12 2009-04-29 Fujitsu Ltd SOFTWARE UPDATE PROGRAM, SOFTWARE UPDATE DEVICE, AND SOFTWARE UPDATE METHOD
WO2006043307A1 (ja) 2004-10-18 2006-04-27 Fujitsu Limited 運用管理プログラム、運用管理方法および運用管理装置
DE602004027424D1 (de) 2004-10-18 2010-07-08 Fujitsu Ltd Operationsverwaltungsprogramm, operationsverwaltun
JP4462024B2 (ja) 2004-12-09 2010-05-12 株式会社日立製作所 ディスク引き継ぎによるフェイルオーバ方法
US7797288B2 (en) * 2004-12-27 2010-09-14 Brocade Communications Systems, Inc. Use of server instances and processing elements to define a server
US7363514B1 (en) * 2005-02-01 2008-04-22 Sun Microsystems, Inc. Storage area network(SAN) booting method
JP4544146B2 (ja) 2005-11-29 2010-09-15 株式会社日立製作所 障害回復方法
JP4923990B2 (ja) 2006-12-04 2012-04-25 株式会社日立製作所 フェイルオーバ方法、およびその計算機システム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508616A (ja) * 2000-06-20 2004-03-18 テラスプリング・インコーポレーテッド 拡張可能コンピューティングシステムの制御方法および装置
JP2002278769A (ja) * 2001-03-19 2002-09-27 Toshiba Corp 自動osインストール方法及び計算機ネットワークシステム
JP2004110791A (ja) * 2002-09-16 2004-04-08 Hewlett-Packard Development Co Lp ブレードアーキテクチャのための動的適応サーバプロビジョニング
JP2004355624A (ja) * 2003-05-29 2004-12-16 Internatl Business Mach Corp <Ibm> ストレージ・エリア・ネットワーク上でのブート、保守、またはインストール操作の方法、装置、およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FUJITSU LTD.: "Resource Seigyo Catalog", FUJITSU LTD., November 2004 (2004-11-01), XP002999313, Retrieved from the Internet <URL:http://systemwalker.fujitsu.com/jp/rc/catalog/pdf/resource.pdf> *
FUJITSU LTD.: "Systemwalker Resource Coordinator Kino Goshokai", FUJITSU LTD., November 2004 (2004-11-01), XP002999314, Retrieved from the Internet <URL:http://systemwalker.fujitsu.com/jp/rc/catalog/pdf/rc_f.pdf> *
FUJITSU LTD: "Systemwalker Resource Coordinator Goshokai", FUJITSU LTD, November 2004 (2004-11-01), XP002999312, Retrieved from the Internet <URL:http://systemwalker.fujitsu.com/jp/rc/catalog/pdf/rc_i.pdf> *
See also references of EP1811376A4 *

Also Published As

Publication number Publication date
EP1811376A4 (en) 2007-12-26
JPWO2006043309A1 (ja) 2008-05-22
EP1811376A1 (en) 2007-07-25
US20070233872A1 (en) 2007-10-04
US20120233305A1 (en) 2012-09-13
US8224941B2 (en) 2012-07-17
JP4734259B2 (ja) 2011-07-27

Similar Documents

Publication Publication Date Title
EP1806657B1 (en) Operation management program, operation management method, and operation management device
JP5976842B2 (ja) 計算機システム、及び、計算機システムの仮想サーバ移行制御方法
JP5142678B2 (ja) デプロイ方法およびシステム
US7574491B2 (en) Virtual data center for network resource management
US7203730B1 (en) Method and apparatus for identifying storage devices
US7549076B2 (en) Fail over method through disk take over and computer system having fail over function
US7376726B2 (en) Storage path control method
WO2007077600A1 (ja) 運用管理プログラム、運用管理方法および運用管理装置
JP4515314B2 (ja) 計算機システムの構成再現方法
US8387013B2 (en) Method, apparatus, and computer product for managing operation
US8224941B2 (en) Method, apparatus, and computer product for managing operation
JP4414961B2 (ja) 管理サーバによる管理方法、管理サーバ、計算機システムおよび管理プログラム
US20070237162A1 (en) Method, apparatus, and computer product for processing resource change
JP5182350B2 (ja) 運用管理プログラム、運用管理方法および運用管理装置
Guide VMware, Inc.
Free Visit PassLeader and Download Full Version 70-417 Exam Dumps

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006542128

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11787759

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2004792553

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004792553

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11787759

Country of ref document: US

WWW Wipo information: withdrawn in national office

Ref document number: 2004792553

Country of ref document: EP