WO2006043307A1 - 運用管理プログラム、運用管理方法および運用管理装置 - Google Patents

運用管理プログラム、運用管理方法および運用管理装置 Download PDF

Info

Publication number
WO2006043307A1
WO2006043307A1 PCT/JP2004/015382 JP2004015382W WO2006043307A1 WO 2006043307 A1 WO2006043307 A1 WO 2006043307A1 JP 2004015382 W JP2004015382 W JP 2004015382W WO 2006043307 A1 WO2006043307 A1 WO 2006043307A1
Authority
WO
WIPO (PCT)
Prior art keywords
server
software
domain
network
resource
Prior art date
Application number
PCT/JP2004/015382
Other languages
English (en)
French (fr)
Inventor
Satoshi Iyoda
Yoshinobu Hibi
Masayuki Naitou
Shigehiro Yoshikawa
Toshihiro Abe
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to EP15201759.6A priority Critical patent/EP3079061A1/en
Priority to PCT/JP2004/015382 priority patent/WO2006043307A1/ja
Priority to JP2006542126A priority patent/JP4734258B2/ja
Priority to EP04792551A priority patent/EP1814027A4/en
Publication of WO2006043307A1 publication Critical patent/WO2006043307A1/ja
Priority to US11/787,758 priority patent/US8387013B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0806Configuration setting for initial configuration or provisioning, e.g. plug-and-play
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/04Network management architectures or arrangements
    • H04L41/046Network management architectures or arrangements comprising network management agents or mobile agents therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements

Definitions

  • the present invention relates to an operation management program, an operation management method, and an operation management apparatus that manage the operation of resources constituting an information processing system.
  • the present invention relates to an operation management program, an operation management method, and an operation management apparatus that can alleviate problems.
  • Patent Document 1 when a server is newly added to the information processing system, the network address of the server is notified to all communication devices, and a new communication device is added.
  • a communication system for notifying all servers of the network address of the communication device is disclosed.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2000-354062
  • the present invention has been made in view of the above, and an operation management program, an operation management method, and an operation that can reduce the labor required for resource setting work performed by an administrator of the information processing system An object is to provide a management apparatus.
  • the present invention is an operation management program for managing the operation of resources constituting an information processing system, and is a collection of resources with uniform physical connections.
  • a computer is configured to execute a domain registration procedure for registering a resource domain and a software installation procedure for installing software used by resources belonging to the resource domain registered by the domain registration procedure.
  • the present invention is an operation management method for managing the operation of resources constituting an information processing system, the domain registration step of registering a resource domain as a collection of resources having uniform physical connection, and the domain And a software introduction step for introducing software used by resources belonging to the resource domain registered in the registration step.
  • the present invention is an operation management apparatus that manages the operation of resources constituting an information processing system, the domain registration means for registering a resource domain as a collection of resources having uniform physical connections, and the domain And software introduction means for executing software introduction used by the resource belonging to the resource domain registered by the registration means.
  • a resource domain is registered as a collection of resources with uniform physical connections.
  • FIG. 1 is a diagram showing a concept of resource operation management according to the present invention.
  • FIG. 2 is a diagram illustrating a functional configuration of the resource operation management system according to the present embodiment.
  • FIG. 3 is a flowchart showing a processing procedure for assigning a server to a business.
  • FIG. 4 is a diagram showing an example of site data for registering operation management server information.
  • FIG. 5 is a diagram showing an example of domain management server data for registering domain management server information.
  • FIG. 6 is a diagram showing an example of management subnet data for registering information on a subnet to be managed.
  • FIG. 7 is a diagram showing an example of middleware cooperation IF data storing commands for executing various processes in cooperation with middleware.
  • FIG. 8 is a diagram showing an example of server domain data storing information related to a server domain to which a server belongs.
  • FIG. 9 is a diagram showing an example of pool group data in which information related to a pool group is stored.
  • FIG. 10 is a diagram showing an example of storage domain data in which information related to a storage domain is stored.
  • FIG. 11 is an explanatory diagram for explaining a network domain and a network subdomain.
  • FIG. 12 is a diagram showing an example of network subdomain data storing information related to a network subdomain.
  • FIG. 13 is a diagram showing an example of network domain data storing information related to a network domain.
  • FIG. 14 is a diagram illustrating an example of load balancer data storing information related to the load balancer.
  • FIG. 15 is an explanatory diagram illustrating a configuration example of a network subgroup.
  • FIG. 16 is a diagram showing an example of network sub-drupt data storing information related to a network sub-group.
  • FIG. 17 is a diagram illustrating an example of link data between server domains in which information related to the correspondence relationship between server domains is stored.
  • FIG. 18 is a diagram illustrating an example of link data between server Z and storage domains in which information related to the correspondence between server domains and storage domains is stored.
  • FIG. 19 is a diagram illustrating an example of network boot server data in which information on servers to be network booted is stored.
  • FIG. 20 is a diagram illustrating an example of managed server data in which data of servers to be managed is stored.
  • FIG. 21 is a diagram showing an example of provisioning configuration data in which information on a group to which a server belongs is stored.
  • FIG. 22 is a diagram showing an example of a connection between a server and a storage device having a uniform connection state.
  • FIG. 23 is a diagram for explaining a connection uniformity check process based on WWPN.
  • FIG. 24 is a diagram showing an example of storage template data in which data related to a storage template is stored.
  • FIG. 25 is a diagram illustrating an example of server group data storing information relating to a server group.
  • FIG. 26 is a diagram illustrating an example of server Z storage group link data storing information on storage groups corresponding to server groups.
  • FIG. 27 is a diagram illustrating an example of link data between server groups in which information related to the correspondence between server groups is stored.
  • FIG. 28 is a diagram showing an example of load balancing group data storing group information of the load balancing device.
  • FIG. 29 is a diagram showing an example of network group data in which information related to a network group is stored.
  • FIG. 30 is a flowchart showing a processing procedure for setting processing for setting a logical volume in a RAID device.
  • FIG. 31 is a diagram showing an example of a logical volume setting screen.
  • FIG. 32 is a diagram showing an example of RAID level setting data in which RAID level setting information is stored.
  • FIG. 33 is a diagram showing an example of RAID device data storing information related to a RAID device.
  • FIG. 34 is a diagram showing an example of provisioning configuration data in which storage subgroups are set.
  • FIG. 35 is a flowchart showing a processing procedure for logical volume setting processing for causing a server to recognize a logical volume.
  • FIG. 36 is an explanatory diagram for explaining the setting processing of the logical volume constructed in the RAID device.
  • FIG. 37 is a diagram showing an example of the affiliation group data storing information relating to the affiliation group.
  • FIG. 38 is a diagram illustrating an example of multipath configuration data in which information related to a multipath configuration is stored.
  • FIG. 39 is a diagram showing an example of mirror volume configuration data storing information related to the configuration of the mirror volume.
  • FIG. 40 is a diagram showing an example of IP address management data in which information related to an IP address assigned to a server is stored.
  • FIG. 41 is a diagram showing an example of software image management data in which information related to software images is stored.
  • FIG. 42 is a diagram showing an example of software distribution image management data storing information related to a software distribution image.
  • FIG. 43 is a diagram showing an example of snapshot management data storing information related to snapshots.
  • FIG. 44 is a flowchart showing a processing procedure of processing for adding a server to a server group.
  • FIG. 45 is a diagram showing an example of distribution management data storing information related to the distribution status of software distribution images.
  • FIG. 46 is a flowchart for explaining the processing procedure of server deletion processing for deleting a server from a server group.
  • FIG. 47 is an example of a resource allocation output screen showing the allocation of resources to be managed.
  • FIG. 48 is a diagram showing an example of a resource arrangement setting screen for accepting user-related settings relating to resource arrangement.
  • FIG. 49 is a diagram showing an example of a server group list screen for outputting a list of server groups belonging to the server domain.
  • FIG. 50 is a diagram showing an example of a server list screen for outputting a list of servers belonging to a server group.
  • FIG. 51 is a diagram showing an example of a storage list screen for outputting a list of storages belonging to a storage group.
  • FIG. 52 is a diagram showing a hardware configuration of a computer serving as the site management server shown in FIG. 2.
  • FIG. 53 is a diagram showing a hardware configuration of a computer serving as the domain management server shown in FIG. 2.
  • FIG. 54 is a diagram showing a hardware configuration of a computer serving as the server shown in FIG. 2.
  • FIG. 1 is a diagram showing the concept of resource operation management according to the present invention.
  • Figure 1 shows that for each business 1 and 2, Web Sano 4-4, AP (Application) server 5—5, DB (Database) server 6—6
  • the Web server 4-1 4 transmits the content browsed by the Web browser to the Internet.
  • the server device is provided to the client device via the client.
  • 1 6 is the information processing requested by the Web server 4 that received the information processing request by the user.
  • DB server 6-6 receives AP server 5-5 power database access request.
  • One 7 is a Web server 4 by SAN (Storage Area Network).
  • SAN Storage Area Network
  • a resource group such as server storage in which a physical connection state with other devices is uniform in a LAN (Local Area Network) or SAN. As a domain.
  • LAN Local Area Network
  • SAN Storage Area Network
  • the server group used in business 1 and 2 is managed as Web domain 4, AP domain 5 and DB domain 6, and the storage group used in business 1 and 2 is Managed as storage domain 7.
  • the states are uniform to each other, with respect to other devices of AP server 5 5 belonging to AP domain 5
  • connection status is uniform with each other, and other devices of DB server 6 6 belonging to DB domain 6
  • connection status to the storage domain 7 is uniform to each other, and storage 7— 7 belonging to storage domain 7
  • connection condition for other devices is uniform with each other.
  • business server 1 includes Web servers 4 and 4
  • DB server 6 and storage 7-7 are added as servers that can be used for business.
  • DB server 6 is used for business
  • FIG. 1 shows a case where a Web server 4 registered in pool 3 is newly added in Web domain 4 of business 2! /
  • Web servers 4, 4, 4, AP server 55, DB servers 6, 6 or storage 7 7 used in business 1 and 2 are used for a long time.
  • Storage 7-7 is excluded from the storage that can be used for operations 1 and 2, and is stored in pool 3.
  • the network settings for storage 7-7 are automatically set.
  • the storage 7-7 is excluded from the storage that can be used for business.
  • FIG. 1 shows a case where AP server 5 registered in pool 3 in AP domain 5 of business 2 is excluded from servers available for business and registered in pool 3.
  • server 5 registered in pool 3 is the server used for business 1
  • FIG. 2 is a diagram illustrating a functional configuration of the resource operation management system according to the present embodiment.
  • the operation management client 10 and the site management server 20 are connected via a network via a power FW (Firewall) 30.
  • the site management server 20 and the domain management servers 50 and 60 are connected via the network via the force FW40.
  • the site management server 20 and the router 80 belonging to the edge domain 180 are connected via a network via the FW 40.
  • the site management server 20 the storage 160a-160c belonging to the storage domain 220, and the pooled storage 1
  • the domain management server 50 is connected to servers 110a to 110c belonging to FW90, SLB (Server Load Balancer) 100, and Web domain 190 via a network! RU
  • the domain management server 60 is connected to the FW 120, SLB 130, the servers 140a to 140c belonging to the AP domain 200, and the servers 150a to 150c belonging to the DB domain 210.
  • storage 160a-160c belonging to storage domain 220 and pooled storage 160d are servers 110a-110c belonging to Web domain 190, sano 140a-140c belonging to AP domain 200, and DB. Servers belonging to domain 210 15 Oa—150c [Connected via SAN 170!
  • the operation management client 10 also accepts various settings related to resource operation management processing, transmits the setting information to the site management server 20, and outputs various output results from the site management server 20. It is a client device that accepts and displays it on a monitor or the like.
  • the site management server 20 is a server device that executes the resource operation management processing as described in FIG. 1 in cooperation with the domain management servers 50 and 60.
  • This site management server 20 includes a system resource manager 21, a server RM (Resource Manager) 22, software! ⁇ M (Resource Manager) 23, a network RM (Resource Manager) 24, a storage RM (Resource Manager) 25, a system resource DB ( Database) 26 and AP (
  • the system resource manager 21 receives various setting information related to the resource operation management processing from the operation management client 10, and performs resource setting processing in cooperation with the server RM22, software RM23, network RM24, and storage RM25. It is the management part to execute. In addition, the system resource manager 21 manages data exchange with the domain management servers 50 and 60.
  • the server RM22 is a management unit that starts and stops each server 110a-110c, 140a-140c, and 150a-150c, and collects and sets information related to hardware. This server RM22 executes the above processing in cooperation with a server sub RM (Resource Manager) 52 of the domain management server 50 and a server RM agent 112a of the server 110a.
  • server sub RM Resource Manager
  • the software RM23 is a management unit that performs software installation, setting, and collection of software-related information on each of the servers 110a-110c, 140a-140c, and 150a-150c.
  • the software RM 23 executes the above-described processing in cooperation with a software sub RM (Resource Manager) 53 of the domain management server 50 and a software RM agent 11 3a of the server 110a.
  • the network RM 24 is a management unit that collects and sets information related to the network. This network RM 24 executes the above processing in cooperation with a network sub RM (Resource Manager) 54 of the domain management server 50 and a network RM agent 114a of the server 110a.
  • the storage RM 25 is a management unit that collects and sets information related to the storages 160a to 160c belonging to the storage domain 220 and the pooled storage 160d.
  • the storage RM 25 manages the storages 160a to 160c and the pooled storage 160d without going through the domain management servers 50 and 60.
  • the system resource DB (Database) 26 is a database that stores information on various resources managed by the system resource manager 21, the server RM22 2, the software RM23, the network RM24, and the storage RM25. Specific data stored here will be described in detail later.
  • the AP management supervision unit 27 is a processing unit that supervises and manages the AP (Application) management unit 116a. Specifically, the AP management unit 116a is requested to execute application installation processing and setting processing. The functions of the AP management control unit 27 are realized by executing middleware installed in the site management server 20.
  • the domain management servers 50 and 60 are server devices that manage resources in one or more domains.
  • the domain management server 50 includes functional units of a system resource domain manager 51, a server sub RM 52, a software sub RM 53, a network sub RM 54, and a domain resource DB (Database) 55.
  • domain management server 60 has the same functional units as the functional units of domain management server 50, the functional units of domain management server 60 are not shown and described in FIG.
  • the system resource domain manager 51 is a management unit that executes information collection and setting processing of resources belonging to each domain in cooperation with the server sub RM 52, the software sub RM 53, and the network sub RM 54.
  • system resource domain manager 51 is connected to the site management server 20, network devices such as FW90 and SLB100, and servers 110a to 110c to be managed. The exchange of data.
  • the server sub RM 52 is a management unit that cooperates with the server RM 22 and the server RM agent 112a to start and stop the servers 110a to 110c, and to collect and set information related to hardware.
  • Software sub RM53 is software RM23 and software RM agent 1
  • a management unit that performs software installation, setting, and collection of software related information on each server 110a-110c.
  • the network sub RM54 includes the network RM24 and the network RM agent 1
  • the domain resource DB 55 is information acquired from the servers 110a to 110c when collecting and setting various information of the servers 110a to 110c that are managed by the server sub RM52, software sub RM53, and network sub RM54. It is a database that stores data obtained from system resource DB26.
  • the domain resource DB55 is a temporary OS (Operating OS) used when performing network boot of the servers 110a-110c.
  • the router 80 is a network device that performs data packet routing in data communication via the Internet 70.
  • FW30, 40, 90, 120 are network devices to prevent unauthorized access to various servers 11 Oa-110c, 140a-140c, 150a-150c.
  • the SLBs 100 and 130 are load balancers that distribute and transfer information processing requests for the Sano 110a-110c, 140a-140c to a plurality of servers 110a-110c, 140a-140c.
  • the force to which the switch is further connected is omitted in FIG.
  • Sano 110a-110c, 140a-140c, 150a-150c are server devices that execute various types of information processing.
  • the server device 110a has functional units of a resource manager agent 11la, a server RM agent 112a, a software RM agent 113a, a network RM agent 114a, a storage RM agent 115a, and an AP management unit 116a.
  • Sano 110b, 140a, 140b, 150a, and 150b have the same functions as each of Sano 110a, Sano 110b, 140a, 140b, 150a in FIG. , 150b is omitted from the illustration and description.
  • Servers 110c, 140c, and 150c are pooled servers. These servers include resource manager agent 11 la, server RM agent 112a, software RM agent 113a, network RM agent 114a, Each functional part of storage RM agent 115a and AP management part 116a does not exist.
  • each functional unit when they are set as servers that can be used for business, a computer program that implements each functional unit is installed and executed in the servers 110c, 140c, and 150c. Thus, each functional unit is realized.
  • the resource manager agent 11 la accepts execution requests such as information collection processing and setting processing of the server 110a from the system resource domain manager 51 of the domain management server 50, and processes these processing as server RM agent 112a and software RM agent. 113a, network RM agent 114a, and storage RM agent 115a.
  • the server RM agent 112a is an agent that executes start and stop of the server 110a, collection and setting of information related to hardware, and the like.
  • the software RM agent 1 13a is an agent that performs software installation, setting, and information collection regarding the software for the server 110a.
  • the network RM agent 114a is an agent that executes information collection and setting of the network to which the server 110a is connected.
  • the storage RM agent 115a is an agent that performs information collection and setting of storage connected to the server 110a.
  • the storages 160a-160c are storages used by the servers 110a-110c belonging to the Web domain 190, the servers 140a-140c belonging to the AP domain 200, and the servers 150a-1 50c belonging to the DB domain 210.
  • Storage 160d is pooled storage. These storages 160a to 160d are configured by RAID devices.
  • VLAN 140 Virtual Local Area Network
  • FIG. 3 is a flowchart showing a processing procedure for assigning a server to a business.
  • the site management server 20 includes a program for causing the site management server 20 to execute the functions of the system resource manager 21, the server RM22, the software RM23, the network RM24, the storage RM25, and the AP management unit 27. It will be introduced first.
  • the domain management servers 50 and 60 include a program that causes the domain management servers 50 and 60 to execute the functions of the system resource domain manager 51, server sub RM52, software sub RM53, and network sub RM54. Let's introduce it.
  • each sano 110a, 110b, 140a, 140b, 150a, 150b [this resource, resource manager agent 11 la, server RM agent 112a, software RM agent 1 13a, network RM agent 114a, storage RM Agent 115a, AP management ⁇ 116a each of Sano 110a, 110b, 140a, 140b, 150a, 150b [The program to be executed is preliminarily introduced.
  • the system resource manager 21 of the site management server 20 performs registration processing of the operation management server and the management LAN (step S101).
  • the operation management server and management LAN are the site management server 20 and domain management server 50 that are used to manage resources to be managed, such as servers 110a-110c, 140a-140c, 150a-150c, and SAN170. And LAN.
  • FIG. 4 is a diagram showing an example of the site data 300 for registering information of the operation management server.
  • This site data 300 records information on the site name, site management server name, and domain management server name.
  • the site name is identification information of a site having a resource to be managed.
  • the site management server name is identification information of the site management server 20 configured to manage the site.
  • the domain management server name is identification information of the domain management servers 50 and 60 set to manage the domain set in the site.
  • FIG. 5 is a diagram showing an example of the domain management server data 310 for registering information of the domain management servers 50 and 60.
  • the domain management server data 310 stores information on the domain management server name and the management subnet name.
  • the domain management server name is the same information as the domain management server name described in FIG.
  • the management subnet name is identification information of a subnet (management subnet) in which resources are managed by the domain management server.
  • FIG. 6 is a diagram showing an example of management subnet data 320 that registers information on subnets to be managed.
  • This management subnet data 320 stores information on the management subnet name, network address, netmask, and default gateway.
  • the management subnet name is the same information as the management subnet name described in FIG.
  • the network address is a network address for identifying the management subnet.
  • a netmask is a netmask used to define what bits of an IP address are used as network addresses.
  • the default gateway is IP address information that identifies the default gateway used when sending data outside the management subnet.
  • step S101 the system resource manager 21 receives information on the site, site management server, and domain management server set by the user by operating the operation management client 10, and stores the information in the site data shown in FIG. Register to 300.
  • system resource manager 21 receives the domain management server and management subnet information set by the user by operating the operation management client 10, and registers the information in the domain management server data 310 shown in FIG. .
  • the system resource manager 21 registers the network address, netmask, and default gateway information corresponding to the management subnet described in FIG. 5 in the management subnet data 320 of FIG.
  • system resource manager 21 is realized by middleware.
  • FIG. 7 is a diagram illustrating an example of middleware cooperation IF data 330 that stores commands for executing various processes in cooperation with middleware.
  • This middleware cooperation IF data 330 stores information on middleware name, target event, timing, location, and execution command.
  • the middleware name is information on middleware that the system resource manager 21 performs processing in cooperation with.
  • the target event is information on an event that the system resource manager 21 issues an execution request to the middleware.
  • the timing is information on the timing (before and after processing of the target event) at which a process execution request is transmitted to the system resource manager 21 S middleware.
  • the location is information on a location (Manager or Agent) where the middleware command is executed.
  • Manager indicates the case where the command is executed on the management site server 20.
  • Agent indicates a case where a command is executed on the servers 110a-110c, 140a-140c, 150a-150c to be managed.
  • the execution command is command information for notifying middleware of the occurrence of various events.
  • step S102 the system resource manager 21 performs a domain creation process and a link process between the created domains.
  • step S102 the process performed in step S102 will be described in more detail.
  • FIG. 8 is a diagram showing an example of server domain data 340 storing information related to the server domain to which the servers 110a-110c, 140a-140c, 150a-150c belong.
  • the server domain data 340 stores information on a server domain name, a server architecture name, and a management subnet name.
  • the server domain name is identification information of a domain to which the servers 110a-110c, 140a-140c, 150a-150c to be managed belong.
  • the server architecture name is the identification information of the CPU (Central Processing Unit) architecture of the servers 110a—110c, 140a, 140a, 150a—150c belonging to each server domain. It is news.
  • the management subnet name is the same information as the management subnet name shown in FIG.
  • step S102 the system resource manager 21 receives information related to the server domain and server architecture settings made by the user operating the operation management client 10, and registers the information in the server domain data 340.
  • This server domain is
  • step S101 it is set for each management subnet set in step S101.
  • step S102 the system resource manager 21 sets a server group belonging to each server domain, and creates a pool group shared among the server groups and a dedicated pool group for a specific server group. Set.
  • the server group is a group of servers included in the same server domain divided into one or more groups.
  • a pool group is a pool of servers assigned to each server group.
  • FIG. 9 is a diagram illustrating an example of pool group data 350 stored as information on pool groups.
  • This pool group data 350 stores information on the pool group name, type, and server domain name.
  • the pool group name is the above-described server pool identification information.
  • the type is information indicating whether the pool group can be shared by a plurality of server groups, or whether the pool group is permitted to be used only by a specific server group.
  • the server domain name is the same information as the server domain name described in FIG.
  • the system resource manager 21 assigns a pool group to each server domain. In addition, when the server domain power has a plurality of server groups, the system resource manager 21 assigns a Punoregurepe dedicated to these server gnores.
  • the system resource manager 21 receives information on the storage domain set by the user by operating the operation management client 10, and registers the information in the system resource DB 26 as storage domain data 360 described below. .
  • FIG. 10 is a diagram showing an example of storage domain data 360 stored as information on storage domains.
  • This storage domain data 360 stores storage domain name and path multiplicity information.
  • the storage domain name is the storage domain that has been set. This is identification information for identifying the main.
  • the multiplicity of the path is information on the multiplicity of the data communication path in the SAN.
  • system resource manager 21 receives information on the network subdomain set by the user by operating the operation management client 10, and the system resource DB 26 stores the information as network subdomain data 470 described below. sign up.
  • the network subdomain is a subdomain obtained by further dividing a network domain to which a plurality of network devices that connect servers belonging to different server domains belong.
  • FIG. 11 is an explanatory diagram for explaining a network domain and a network subdomain.
  • Figure 11 shows the switches 430a, 430b, 450a, 450b, and SLB460a, 460b that connect Sano 380a and 380e belonging to Web domain 370 and Sano 400a and 400e belonging to AP domain 390. .
  • switch 430a and switch 430b are "Web-Back" network subdomains
  • the switch 420a and the switch 450b constitute the “AP-Front” network subdomain 440! /.
  • FIG. 12 is a diagram showing an example of network subdomain data 470 stored as information on network subdomains.
  • the network subdomain data 470 stores information on the network subdomain name, switch model, and switch management IP.
  • the network subdomain name is information for identifying the network subdomain described in FIG.
  • the switch model is information on the switch model belonging to the network subdomain.
  • the switch management IP is information on the IP address assigned to each switch for management.
  • the system resource manager 21 receives information related to the network domain set by the user by operating the operation management client 10, and registers the information in the system resource DB 26 as network domain data 480 described below.
  • FIG. 13 is a diagram showing an example of network domain data 480 stored as information on network domains. This network domain data 480 stores information on network domain name, front network subdomain name, connection method, device name, back network subdomain name, and redundancy method! / Speak.
  • the network domain name is identification information for identifying the network domain described in FIG. As shown in Fig. 11, the front network subdomain name is an identification that identifies the network subdomain closer to the Internet 70 when it is divided into two network subdomains with the network domainers LB460a and 460b as the boundary. Information.
  • the connection method relates to a method of connecting between network devices such as switches 430a and 430b belonging to the front network subdomain and network devices such as switches 45Oa and 450b belonging to the back network subdomain described later.
  • Information For example, this method includes a connection method using a load balancer and a connection method using a firewall.
  • the device name is identification information for identifying a network device.
  • the back network subdomain name is the network far from Internet 70 when the network domain is divided into two network subdomains with SL B460a and 460b as the boundary. This is identification information for identifying a subdomain.
  • the redundancy method is information indicating a redundancy method when the data communication path is made redundant in the network domain.
  • the system resource manager 21 receives information related to the connected device in the network subdomain set by the user by operating the operation management client 10, and loads the information to the system resource DB 26 as described below. Register as device data 490.
  • the connected devices in the network subdomain are devices such as SLB 460a and 46 Ob described in FIG.
  • FIG. 14 is a diagram illustrating an example of the load balancer data 490 stored as information on the load balancer.
  • the load balancer data 490 stores information on the load balancer name, management IP, model name, SNMP community name, and IDZ password.
  • the name of the load balancer is a name for identifying the connected device in the network subdomain.
  • Management IP is information on the IP address assigned to each connected device for managing the connected device.
  • the model name is identification information of the model of the connected device.
  • the SNMP (Simple Network Management Protocol) community name is information for specifying the SNMP community to which the domain management servers 50 and 60 and the site management server 20 that manage the connected device and the connected device belong.
  • ID / password is the ID and password information necessary to access the connected device.
  • the system resource manager 21 receives network subgroup information set by the user operating the operation management client 10, and the system resource DB 26 stores the information as network subgroup data 660 described below. sign up.
  • the network subgroup is obtained by dividing a network connecting server groups belonging to different server domains into a plurality of networks when a server group is set for a server belonging to the server domain. .
  • FIG. 15 is an explanatory diagram for explaining a configuration example of a network subgroup.
  • FIG. 15 shows switches 590 and 610 and SLB 600a and 600b forces S connecting the servers 520a to 520e belonging to the Web domain 510 and the servers 560a to 560e belonging to the AP domain 550.
  • the Sano 520a and the Sano 520b constitute the “A—Web” server group 530
  • the Sano 520c and the Sano 520d constitute the “B—Web” server group 540 and the server 560a.
  • the Sano 560b constitutes the “A_AP” server group 570
  • the server 560c and the server 560d constitute the “B_AP” server group 580! /.
  • A_Web_BackJ network subgroup 620 is configured, the network that connects “B_Web” server group 540 and SLB600b is configured as “B_Web_Back” network subgroup 630, and the network that connects SLB600a and “A_AP” server group 570 is “A_AP_FrontJ Network subgroup 640 is configured, and the network connecting SLB 600b and “B_AP” server group 580 forms “B_AP_Front” network subgroup 650.
  • FIG. 16 is a diagram showing an example of network sub-gnope data 660 stored as information on network sub-groups.
  • This network subgnole data 660 Stores information on network subgroup names, network subdomain names, subnets, and redundant subnets.
  • the network subgroup name is identification information for identifying the network subgroup as described with reference to the example in FIG.
  • the network sub domain name is identification information for identifying the network sub domain to which the network sub group belongs.
  • the subnet is information on the network address and subnet mask assigned to the network subgroup.
  • the redundancy subnet is information on the network address and subnet mask assigned to a network that also has extra data communication line power when a network belonging to the network subgroup is made redundant using a plurality of data communication lines. is there.
  • the system resource manager 21 receives information related to the correspondence relationship between the server domains set by the user by operating the operation management client 10, and sends the information to the system resource DB 26 to the server domain described below. Register as Inter-link data 670.
  • FIG. 17 is a diagram showing an example of inter-server domain link data 670 stored as information on the correspondence relationship between server domains.
  • This inter-server domain link data 670 contains information on the front server domain name, network domain name, and back server domain name.
  • the front server domain name is identification information for identifying the server domain closer to the Internet 70 among the server domains sandwiching the network domain as shown in FIG.
  • the network domain name is identification information of the network domain described in FIG.
  • the knock server domain name is information indicating a server domain farther from the Internet 70 among server domains sandwiching the network domain as shown in FIG.
  • system resource manager 21 receives information related to the correspondence relationship between the server domain and the storage domain set by the user by operating the operation management client 10, and stores the information in the system resource DB 26 as follows. Registered as link data 680 between the server and storage domain described in (1).
  • FIG. 18 stores information related to the correspondence between the server domain and the storage domain.
  • FIG. 10 is a diagram showing an example of link data 680 between servers Z storage domains.
  • This server / storage domain link data 680 stores server domain name and storage domain name information.
  • the server domain name is the same information as the server domain name shown in FIG.
  • the storage domain name is the same information as the storage domain name shown in FIG.
  • step S103 the system resource manager 21 registers server resources and storage resources to be managed.
  • step S103 the process performed in step S103 will be described in more detail.
  • the system resource manager 21 receives information on the management subnet selected by the user.
  • system resource manager 21 receives from the operation management client 10 the server information to be managed that the user has input by operating the operation management client 10, and sends the information to the domain resource DB 55 of the domain management server 50. And stored as network boot server data 690 described below.
  • the server registered here is registered as a server resource after a network boot is performed later and various server information is acquired.
  • FIG. 19 is a diagram showing an example of network boot server data 690 stored as information on servers to be network booted.
  • the network boot server data 690 stores MAC address, IP address, and host name information.
  • the MAC address is information on the MAC address of the server.
  • the IP address is information on the IP address assigned to the server.
  • the host name is information on the host name assigned to the server.
  • system resource manager 21 when the system resource manager 21 receives the MAC address information input by the user of the server that performs network booting, the system resource manager 21 assigns the IP address, the host name, and the server corresponding to the MAC address. Assign automatically.
  • the system resource manager 21 cooperates with the system resource domain manager 51 of the domain management server 50 and records it in the domain resource DB 55 of the domain management server 50.
  • a network boot of the server to which the IP address and the host name are assigned is performed using the stored temporary OS.
  • the server sub RM52, the resource manager agent 11 la, and the server RM agent 112a cooperate to collect information related to the server hardware, and send the collected information to the system resource domain manager 51. To do.
  • system resource manager 21 acquires information related to the server hardware from the system resource domain manager 51, and stores the information in the system resource DB 26 as managed server data 700 described below. .
  • system resource manager 21 sets the setting information as to whether or not to perform SAN boot for starting the server from the storage 160a-160d connected via the SAN 170 by the user operating the operation management client 10. If entered, the setting information is accepted and the setting information is registered in the managed server data 700.
  • FIG. 20 is a diagram illustrating an example of the management target server data 700 stored as data of servers to be managed.
  • the managed server data 700 stores server name, IP address, MAC address, server architecture name, model name, SAN boot, and status information.
  • the server name is a name for identifying a server to be managed.
  • the IP address is the IP address assigned to the server.
  • the MAC address is the server's MAC address.
  • the server architecture name is server CPU architecture identification information.
  • the model name is information indicating the server model.
  • the SAN boot is setting information for determining whether or not to perform a SAN boot for starting a server from the storage 160a-160d connected via the SAN 170.
  • the state is information indicating whether or not the server has an abnormality.
  • the user selects a server that performs a network boot by specifying a MAC address.
  • the server may be automatically selected. Specifically, when the user operates the operation management client 10 and sets information related to the number of servers to be automatically selected, the system resource manager 21 receives the setting information from the operation management client 10. Accept.
  • the system resource manager 21 selects servers for the set number and selects them.
  • the IP address and host name information of the selected server is registered in the network boot server data 690 shown in FIG.
  • the system resource manager 21 cooperates with the system resource domain manager 51 of the domain management server 50, and uses the temporary OS stored in the domain resource DB 55 of the domain management server 50, and uses the IP address and host name. Performs a network boot on the server to which is assigned.
  • the server sub RM52, the resource manager agent 11 la, and the server RM agent 112a cooperate to collect information on each server's MAC address, server architecture, model, and status, and collect the collected information into the system. Sent to resource domain manager 51.
  • the system resource manager 21 acquires the MAC address, server architecture, model, and status information of each server from the system resource domain manager 51, and stores the information in the system resource DB 26 as the managed server data 700.
  • the system resource manager 21 acquires the MAC address, server architecture, model, and status information of each server from the system resource domain manager 51, and stores the information in the system resource DB 26 as the managed server data 700.
  • storage devices are devices such as FC (Fiber Channel) switches and RAID devices.
  • the system resource manager 21 manages the information. Accept from client 10. Then, the system resource manager 21 registers the storage device by storing the storage device information corresponding to the IP address in the system resource DB 26.
  • the system resource manager 21 performs processing for adding a server registered in the managed server data 700 in FIG. 20 to the server domain. Specifically, when the user operates the operation management client 10 to specify a server and a server domain to which the server is added, the system resource manager 21 sends the server and server domain information to the operation management client 10. Accept from.
  • system resource manager 21 refers to the managed server data 700 shown in FIG. 20, and the server architecture of the server is the server domain data 34 shown in FIG. Check that it matches the server architecture registered in 0.
  • the system resource manager 21 reads the managed server data 700 shown in Fig. 20 and checks that the server is set to perform SAN boot!
  • the system resource manager 21 checks the network connection status of the server to be added to the server domain. Specifically, the system resource manager 21 reads the inter-server domain link data 670 shown in FIG. 17, and acquires information on the front server domain and the back server domain for the server domain.
  • the system resource manager 21 reads the network domain data 480 shown in FIG. 13, and acquires information on the front sub domain and the back sub domain corresponding to the network domain.
  • the system resource manager 21 reads the network subdomain data 470 shown in FIG. 12, and identifies the switches corresponding to the front subdomain and the back subdomain.
  • the system resource manager 21 requests the network RM 24 and the network sub RM 54 to check the connection between the server and the switch. Further, the network RM 24 and the network sub RM 54 request the network RM agent 114a to check the connection between the server and the switch, and obtain the check result.
  • system resource manager 21 associates the information related to the server with the pool group described in FIG. 9 and provides the provisioning described below.
  • FIG. 21 is a diagram showing an example of provisioning configuration data 710 stored with information on servers belonging to the pool group.
  • This provisioning configuration data 710 stores information on server name, punoregle name, server group name, storage subgroup name, and accessibility.
  • the server name is the same information as the server name described in FIG.
  • the pool group is the same information as the pool group described in FIG. Server group name must be the same This is group identification information when the servers included in the server domain are divided into one or more groups. At this stage, server group name information is not yet registered.
  • the storage subgroup name is the identification information of the group assigned to each server when the storage belonging to the storage domain is divided into one or more groups and assigned to each server belonging to the server group. .
  • storage subgroup name information is not yet registered.
  • Accessibility is information indicating whether or not the server is permitted to access the storage.
  • access permission information is not yet registered.
  • the system resource manager 21 After registering the server name and pool group in the provisioning configuration data 710, the system resource manager 21 registers the previously registered storage device in the storage domain.
  • the system resource manager 21 sends the information to the operation management client. Accept from 10.
  • the system resource manager 21 reads the server / storage domain link data 680 shown in FIG. 18, and identifies the server domain corresponding to the storage domain.
  • the system resource manager 21 checks the uniformity of the connection between the servers belonging to the specified server domain and the storage devices belonging to the storage domain in cooperation with the storage RM25 and the storage RM agent 115a. To do.
  • FIG. 22 is a diagram illustrating an example of the connection between the server and the storage device in which the connection state is uniform.
  • the connection state of Sano 730a and 730bf3 ⁇ 4 is uniform.
  • connection status between the RAID devices 760a belonging to the FC switches 750a and 750b and the storage domain 740, and the FC switches 750a and 750b and the storage domain 740 is uniform.
  • the system resource manager 21 checks the uniformity of the connection based on the information of WWPN (World Wide Port Name). At that time, the system resource manager 21 reads the information on the multiplicity of the storage domain path from the storage domain data 360 shown in FIG. 10, and also checks the redundancy.
  • FIG. 23 is a diagram for explaining a connection uniformity check process based on WWPN.
  • FIG 23 shows the RAID devices WW PN data 770a and 770b stored in the RAID devices 760a and 760b shown in Fig. 22 and FC switches 750a and 750b.
  • Switch WW PN data 780a, 780b and Sano 730a, 730b will be listed! / Sano WWPN data 790a, 790b will be shown!
  • the RAID device WWPN data 770a and 770b store CA (Channel Adapter) and WWPN information.
  • the CA is channel adapter identification information included in the RAID devices 760a and 760b.
  • the WWPN is information on the WWPN assigned to the channel adapter of the RAID devices 760a and 760b!
  • FC switch WWPN data 780a and 780b store information on port and partner WWPN.
  • port is identification information of the port of the FC switches 750a and 750b.
  • Destination W WPNi or FC switch 750a, 750b port [Connected! WWPN information assigned to channel adapter of RAID device 760a, 760 b, or port of FC switch 750a, 750b [This is the information of the WWPN assigned to the HBA (Host Bus Adapter) of the connected Sano 730a, 730b.
  • HBA Hyper Bus Adapter
  • Server WWPN data 790a and 790b store information on HBA and WWPN.
  • the HBA is identification information of the HBA that the servers 730a and 730b have.
  • the WWPN is information on the WWPN assigned to the HBA of the servos 730a and 730b.
  • the system resource manager 21 uses the RAID device WWPN data 770a, 770b, the FC switch WWPN data 780a, 780b, and the Sano WWPN data 790a, 790b as RA ID devices 760a, 760b, FC switches 750a, 750b, and By collecting the Sano 730a and 730b forces and examining the correspondence between WWPNs, it is possible to check the uniformity of the connection state between the devices. [0168] After that, the system resource manager 21 registers a storage area of a LUN (Logical Unit) that is set in advance and a storage area in which a LUN is not set as pool storage.
  • LUN Logical Unit
  • step S104 the system resource manager 21 performs a server group creation process.
  • step S104 the process performed in step S104 will be described in more detail.
  • the system resource manager 21 receives information related to the storage template set by the user by operating the operation management client 10, and registers the information in the system resource DB 26 as storage template data 800 described below.
  • the storage template is setting information related to the storage configuration for the server group created later.
  • FIG. 24 is a diagram showing an example of storage template data 800 that stores data related to the storage template.
  • the storage template data 800 stores storage template name, disk type, disk name, reliability requirement, load level, disk capacity, and boot disk information.
  • the storage template name is identification information for identifying the set storage template.
  • the disk type is information indicating the type of use of the disk belonging to the storage template.
  • root indicates that the disk is used to store system data
  • local indicates that the disk is used to store server-specific data
  • Shared indicates that the disk is used to store data shared between servers.
  • the disk name is a name for identifying a disk assigned to each disk.
  • the degree of reliability is reliability information required for the disk.
  • the degree of load is information on the degree of load on the disk.
  • the disk capacity is the storage capacity of the disk.
  • the boot disk is information indicating whether or not the disk is used for booting the system.
  • the system resource manager 21 operates the operation management client 10 by the user.
  • the server group information set as described above is received, and the information is stored in the system resource DB 26 as server group data 810 described below.
  • FIG. 25 is a diagram showing an example of server group data 810 stored as information on server groups.
  • This server group data 810 stores information on server group name, server domain name, software distribution image name, version number, storage template name, SAN boot and automatic recovery!
  • the server group name is group identification information when servers included in the same server domain are divided into one or more groups.
  • the server domain name is identification information of the server domain to which the server group belongs.
  • the software distribution image name is information for identifying the software image file to be distributed to the servers belonging to the server group.
  • the version number is information on the version number of the software distribution image.
  • the storage template name is the same information as the storage template name described in FIG.
  • SAN boot is information indicating whether to perform SAN boot for servers belonging to the server group.
  • Automatic recovery is information indicating whether or not a server that has a scale-out configuration in which a plurality of servers operate in cooperation with each other fails to automatically execute a process for adding a server.
  • a storage group is a group of storages in the same storage domain divided into one or more groups.
  • FIG. 26 is a diagram showing an example of server Z storage group link data 820 stored as information on storage groups corresponding to server groups.
  • the server Z storage group link data 820 stores information on the server group name, storage group name, and storage domain name.
  • the server group name is the same information as the server group name shown in FIG.
  • the storage group name is storage group identification information generated for each server group.
  • the storage domain name is the storage domain to which the storage group belongs. Inn's knowledge IJ ⁇ Blue News.
  • the system resource manager 21 When creating the storage group, the system resource manager 21 reads the storage template information associated with the server group from the server group data 810 shown in FIG. 25, and stores the storage template shown in FIG. Read disk type information corresponding to the storage template from data 800.
  • system resource manager 21 creates a storage group for each server group for each disk type, such as "root”, “local”, and “shared”, and sends the information to the server Z storage group. Register in link data 820.
  • the system resource manager 21 reads the storage domain information corresponding to the server domain to which the server group belongs from the server Z storage domain link data shown in Fig. 18, and uses that information as the server Z storage group link. Register to data 820.
  • the system resource manager 21 transmits a command for causing the AP management unit 116a to recognize that the server group has been added, to the AP management unit 116a. Specifically, the system resource manager 21 transmits “issvgrp & (1 (1”) shown in FIG. 7 to the eight? Management unit 116 &.
  • the system resource manager 21 receives information on the correspondence relationship between the server groups set by the user by operating the operation management client 10, and stores the information in the system resource DB 26 in the server group described below. Register as Inter-link data 830.
  • FIG. 27 is a diagram showing an example of inter-server group link data 830 stored as information on the correspondence relationship between server groups.
  • This inter-server group link data 830 stores information on the front server group name, network gnole name, and back server group name.
  • the front server group name is identification information for identifying a server group closer to the Internet 70 among server groups connected by a network group.
  • the network group is a group of networks in which the network subgroups described with reference to FIG. 15 are coupled to connect server groups.
  • the network group name is identification information for identifying the network group.
  • the back server group name is identification information for identifying a server group far from the Internet 70 among server groups connected by the network group.
  • the system resource manager 21 stores information on the network group in the system resource DB 26 as network group data 850 described below.
  • the system resource manager 21 first reads the inter-server domain link data 670 shown in Fig. 17 and obtains information on the network domain set between the two server domains. .
  • the system resource manager 21 performs the network domain data shown in FIG.
  • Read 480 and get information about front subdomain, backsubdomain and device corresponding to network domain.
  • the system resource manager 21 reads the network subgroup data 660 shown in FIG. 16, searches the network subgroup data 660 for the network subdomain corresponding to the front subdomain and the knock subdomain, and searches for the network subgroup data 660. From the network subgroups corresponding to the network subdomain, extract unused network subgroups.
  • system resource manager 21 performs network domain data shown in FIG.
  • the network device corresponding to the device information read from 480 is divided into one or more duplications, and the information is stored in the system resource DB 26 as load distribution duplication data 840 described below.
  • FIG. 28 is a diagram illustrating an example of the load distribution group data 840 stored as group information of the load distribution device.
  • This load balancing group data 840 is the load balancing group name
  • the load balancing group name is information for identifying a group when the load balancer is divided into one or more groups.
  • the load balancer name is a name that identifies the load balancer.
  • the representative IP is the IP address information assigned to each load balancing group. is there.
  • the system resource manager 21 describes the information in the system resource DB 26 based on the correspondence information such as the network domain, network sub group, and load distribution group belonging to each network group described below. Store as network group data 850.
  • FIG. 29 is a diagram showing an example of network group data 850 stored as information on network groups.
  • the network group data 850 stores information on a network group name, a network domain name, a front network subgroup name, a load balancing loop name, and a back network subgroup name.
  • the network group name is the same information as the network group described in FIG.
  • the network domain name is the same information as the network domain described in FIG.
  • the front network subgroup name corresponds to the network subgroup name explained in Fig. 16, and identifies the network subgroup on the Internet 70 side among the network subgroups across the load balancing group. Information.
  • the load distribution group name is the same information as the load distribution group name described in FIG.
  • the back network subgroup name corresponds to the network subgroup name described with reference to FIG. 16, and is identification information for identifying the network subgroup further away from the Internet 70 among the network subgroups sandwiching the load balancing group. It is.
  • system resource manager 21 cooperates with the network RM 24 and the network sub RM 54 to set the VLAN of the network sub group for the switch registered in the network sub domain data 470 of FIG.
  • step S105 the system resource manager 21 adds the first server to the server group and performs a process of creating a software image of the software installed on the server.
  • step S105 the process performed in step S105 will be described in more detail.
  • the system resource manager 21 operates the operation management client 10 by the user. If a server and a server group to register that server are specified, the server and server group information is accepted and the server is registered in the server group.
  • the system resource manager 21 reads the server group data 810 in Fig. 25, searches for the storage template corresponding to the server group, and obtains the setting conditions of the storage template from the storage template data 800 in Fig. 24. To do.
  • the storage RM 25 sets a logical volume in the pooled storage so as to satisfy the setting condition of the storage template acquired by the system resource manager 21, and sets the storage in which the logical volume is set to the above server group. Perform the process assigned to.
  • FIG. 30 is a flowchart showing a processing procedure for setting processing for setting a logical volume in a RAID device.
  • the system resource manager 21 acquires information on the necessary conditions for the logical volume (step S 201).
  • the logical volume requirements are information on the necessity of reliability, degree of load, and disk capacity stored in the storage template data 800 of FIG.
  • FIG. 31 is a diagram showing an example of a logical volume setting screen.
  • the system resource manager 21 displays the necessary condition output screen 860 that displays the necessary conditions for the logical volume that is output to the operation management client 10, and the logical volume configuration output screen 880 after the logical volume is set up. Is shown.
  • the necessary condition output screen 860 outputs three necessary conditions 870a-870c.
  • the system resource manager 21 determines the RAID level of the RAID device according to the degree of reliability and the degree of load (step S202).
  • FIG. 32 shows an example of RAID level setting data 940 stored with RAID level setting information.
  • This RAID level setting data 940 stores information on necessity of reliability, degree of load, and RAI D level.
  • the level of reliability is the same information as the level of reliability described in Fig. 24.
  • the degree of load is the same information as the degree of load described in FIG. It is news.
  • RAID level is determined by the need for reliability and the degree of load R
  • FIG. 33 is a diagram showing an example of RAID device data 950 stored as information on RAID devices.
  • This RAID device data 950 includes the total required storage capacity, RAID device model name, data access speed, number of disk drives that make up the RAID group (in the case of RAID0 + 1), and disks that make up the RAID group. Stores information on the number of drives (for RAID5) and the maximum number of RAID groups.
  • the required total storage capacity value is information on the total disk capacity required for the logical volume.
  • the model name of the RAID device is R which is suitable for securing the required total storage capacity.
  • the data access speed is information on the data access speed of the disk drive specified by the RAID device model name.
  • information on the three disk drive types “first”, “second”, and “third” is stored in order of increasing access speed.
  • the number of disk drives that make up a RAID group (in the case of RAID0 + 1) is information on the number of disk drives that make up a RAID group when the RAID level is RAID0 + 1.
  • the number of disk drives that make up a RAID group (for RAID5) is information on the number of disk drives that make up a RAID group when the RAID level is RAID5!
  • the maximum number of RAID groups is information on the maximum number of RAID groups to be created.
  • the system resource manager 21 acquires unique information for each RAID device type from the RAID device data 950 described in Fig. 33 (step S204).
  • the specific information is the disk drive type that corresponds to the "first" data access speed, the number of disk drives that make up the RAID group (in the case of RAID0 + 1), and the disks that make up the RAI D group. Information on the number of drives (for RAID5) and the maximum number of RAID groups.
  • the storage RM 25 creates a logical volume (step S205). Specifically, the storage RM 25 creates a logical volume that satisfies each necessary condition for the logical volume, and sets the logical volume in the RAID device.
  • the storage RM 25 creates a RAID group in which logical volumes having the same RAID level are grouped (step S206). Then, the storage RM25 assigns a logical volume to the created RAID group (step S207).
  • the logical volumes 9 10a to 910d that satisfy the necessary condition 900a and the necessary condition 900b are grouped in the RAID group 930a because the RAID level is the same in RAID0 + 1.
  • the logical volumes 920a to 920e that satisfy the necessary condition 900c are grouped as a RAID group 930b because the RAID level is RAID5.
  • the storage RM25 sets the disk drive belonging to each RAID group to the disk drive type determined by the data access speed of the RAID device data 950 in FIG.
  • Storage RM25 configures the number of disk drives that make up the RAID group, the number of disk drives that make up the RAID group of RAID device data 950 in Figure 33 (in the case of RAID0 + 1), or the RAID group. Set to the number of disk drives determined by the number of disk drives (for RAID5).
  • the storage RM25 creates RAID groups so that the number of RAID groups is less than or equal to the maximum number of RAID groups of RAID device data 950 in Fig. 33.
  • the logical volume 910a-910d, 920a-920e which satisfies the necessary condition 900a-900c and is assigned to each RAID group 930a, 930b, corresponds to the necessary condition 900a.
  • the storage RM25 reconfigures the logical volume configuration shown in Fig. 31.
  • a command file to be reflected in the RAID device is created (step S208).
  • the storage RM 25 reflects the created logical volume on the real device based on the command file (step S209).
  • the system resource manager 21 registers the logical volume set in the RAID device as a storage subgroup in association with the server group to which each server belongs, and sets the access right to the storage group of the server. Specifically, the system resource manager 21 stores the server group name, storage sub group name, and access permission information in the provisioning configuration data 710 shown in FIG.
  • FIG. 34 is a diagram showing an example of provisioning configuration data 960 in which storage subgroups are set.
  • provisioning configuration data 960 server group name, storage subgroup name, and accessibility information are added to the provisioning configuration data 710 shown in FIG.
  • the storage RM25 sets the logical volume in the following procedure.
  • FIG. 35 is a flowchart showing a processing procedure of logical volume setting processing for causing a server to recognize a logical volume.
  • the storage RM 25 groups the logical volumes of the R AID device and sets the affinity group (step S301).
  • the utility group is information indicating the correspondence between the logical unit number (LUN, Logical Unit Number) recognized by the server and the logical volume (LV, Logical Volume) number in the RAID device. is there.
  • FIG. 36 is an explanatory diagram for explaining the processing for setting a logical volume built in the RAID device.
  • Figure 36 shows a server group 970 consisting of sano “A” and server “B”, and a RAID device “ ⁇ ” in which logical volumes “LV0”, “LV1”, “LV2”, “LV3” are constructed,
  • a storage pool 980 that is also configured with the RAID device “j8” power on which the logical volumes “LV10”, “LV11”, “LV12”, “LV13” are built.
  • the logical volume “RAID” of the RAID device “ ⁇ ” from the storage pool 980 is shown.
  • a storage group 990 to which LV0J and “LV1” and logical volumes “LV12” and “LV13” of the RAID device “ ⁇ ” are added is shown.
  • the logical volumes “LV0” and “LV1” of the RAID device “ ⁇ ” added to the storage group 990 are set to belong to the property group “AG0” and the property group “AG1”. It has been.
  • the logical volumes “LV12” and “LV13J” of the RAID device “ ⁇ ” are set to belong to the utility group “AG10” and the affiliate group “AG11”.
  • FIG. 37 shows the property group data 1010 stored as information on the property group.
  • This affinity group data 1010 stores information on the RAID device name, affinity group name, LUN and LV!
  • the RAID device name is identification information for identifying each RAID device.
  • the property group name is the identification information of the property group set in each RAID device.
  • LUN is identification information that identifies a logical volume when accessing server A or server B.
  • LV is identification information for identifying a logical volume.
  • the storage RM25 uses redundant paths between Sano “A” and Sano “B” and logical volumes “LV0”, “LV1”, “LV12”, “LV13”. Check the and set the access path by selecting the path (step S302).
  • FIG. 38 is a diagram of an example of multipath configuration data 1020 stored as information on multipath configurations.
  • This multipath configuration data 1020 stores the multipath instance name and LUN information.
  • the multipath instance name is information for identifying a set multipath instance.
  • the LUN is information for identifying a logical unit corresponding to the set multipath instance and recognized by the server “A” or the server “B”.
  • the storage RM 25 registers the set multipath instance as a component of the mirror volume in the cluster resource of the server that performs clustering (step S304). After that, the storage RM25 Using a stance, set a mirror volume group that pairs volumes of different RAID devices (step S 305).
  • FIG. 36 shows an in-server storage configuration 1000 that is internally set in Sano “A” or Sano “B”.
  • This storage configuration 1000 consists of a mirror volume “M0” consisting of a multipath instance r m plbOj and a multipath instance “mplb2”, a manoretino instance “mplbl”, and a manoretino instance “mplb3”.
  • Mirror volume “M1” is set! RU
  • FIG. 39 shows mirror volume configuration data 1030 stored as information on the configuration of the mirror volume.
  • This mirror volume configuration data 1030 includes mirror volume and configuration RU
  • the mirror volume is identification information for identifying the set mirror volume.
  • Configuration The disk is identification information that identifies the logical units that make up the mirror volume.
  • the LUN that corresponds to the mirror volume is identified by referring to the multi-node configuration data 1020 and the multi-path instance data stored in the multi-path configuration data 1020 shown in FIG. can do.
  • the property group data 1010 shown in FIG. 37 is stored in the system resource DB 26 and the RAID device by the storage RM 25. Also, the multipath configuration data 1020 shown in FIG. 38 and the mirror volume configuration data 1030 shown in FIG. 39 are stored in the system resource DB 26 by the storage RM 25 and are managed by the storage RM agent 115a. Stored in a server.
  • the network RM 24 performs the network settings of the servers registered in the server group.
  • the network RM 24 reads the information of the network group having the server group to which the server is added as the front server group and the back server group, such as link data between server groups 8 30 shown in FIG. .
  • the network RM24 reads the network group data 850 shown in FIG. 29, and the front network subgroup and the bar corresponding to the network group are read. Network network subgroups.
  • the network RM24 reads the network subgroup data 660 shown in FIG. 16, searches the network subgroup corresponding to the front network subgroup and the back network subgroup, and sets the subnet assigned to the network subgroup. Based on the information, assign an IP address to the server.
  • FIG. 40 is a diagram showing an example of IP address management data 1040 stored as information on IP addresses assigned to servers. This IP address management data 1040 is stored in the system resource DB 26 by the system resource manager 21.
  • This IP address management data 1040 stores information on an IP address and an allocation destination.
  • the IP address is information on the IP address assigned to the server.
  • the assignment destination is information for identifying the server to which the IP address is assigned.
  • the network RM24 is represented by the network group corresponding to the server group to which the server is added based on the load balancing group data 840 shown in FIG. 28 and the network group data 850 shown in FIG. Assign a load balancing dup having an IP address. At this point, the load balancing function of the load balancer is in a stopped state.
  • the user installs software such as an OS to be installed on the server in the storage subgroup associated with the server to be added to the server group.
  • This storage subgroup is constructed using SAN technology.
  • the software sub RM53 is linked with the software RM23 and the software RM agent 113a, and the software image that is composed of software such as the OS, device driver, and application software. And store the created software image in the domain resource DB55.
  • the software RM23 reads the middleware cooperation IF data 330 shown in FIG. 7, and the software RM agent 113a sends a software image to the AP management unit 116a, which is a functional unit realized by the middleware. Send commands that need to be executed before collection.
  • the software RM agent 113a stops the function of the AP management unit 116a. To stop the function of the AP management unit 116a. The software sub RM 53 then shuts down the server system. Furthermore, the software sub RM 53 performs network booting of the server using a temporary OS stored in the domain resource DB 55 of the domain management server 50 of the server.
  • the software sub RM 53 creates a software image of the software installed in the activated server. Then, the software RM 23 registers information related to the software image in the system resource DB 26 as software image management data 1050 described below.
  • FIG. 41 is a diagram showing an example of software image management data 1050 stored as information on software images.
  • the software image management data 1050 stores software image name, format, OS attribute, and software name information.
  • the software image name is the name of the software image.
  • the format is information indicating whether the software image is created in the archive format or the force patch format.
  • the OS attribute is information indicating whether or not the software image power is a software image of the OS.
  • the software name is the name of the software for which the software image was created.
  • the software sub RM 53 creates a software distribution image to be distributed to other servers based on the created software image. Specifically, the software sub RM 53 creates a software distribution image by combining software images of a plurality of software installed in the storage for the first server.
  • the system resource manager 21 stores information related to the software distribution image in the system resource DB 26 as software distribution image management data 1060 described below.
  • FIG. 42 is a diagram showing an example of software distribution image management data 1060 stored as information on software distribution images.
  • This software distribution image management data 106 0 stores information of software distribution image name, version number, server architecture name, and software image Z snapshot name!
  • the software distribution image name is the name of the software distribution image.
  • the version number is Sof This is the version number of the software distribution image.
  • the server architecture name is identification information that identifies the CPU architecture of the server that is the distribution target of the software distribution image.
  • the software image Z snapshot name is identification information for identifying the software image or snapshot included in the software distribution image.
  • a snapshot is a software image of software installed on a server at a specific point in time.
  • the system resource manager 21 registers information related to the snapshot in the system resource DB 26 as snapshot management data 107 0 described below.
  • FIG. 43 is a diagram showing an example of snapshot management data 1070 stored as information on snapshots.
  • This snapshot management data 1070 stores snapshot name and software image name information.
  • the snapshot name is the name of the snapshot.
  • the software image name is identification information for identifying the software image included in the snapshot.
  • the software RM23 reads the middleware linkage IF data 330 shown in FIG. 7, and the software RM agent 113a collects software images from the AP management unit 116a, which is a functional unit realized by the middleware. Send a command that needs to be executed later.
  • the software RM agent 113a transmits a command for starting the AP management unit 116a that has been stopped, and starts the AP management unit 116a.
  • Network! ⁇ M24 sets the VLAN on the switch and connects the server to the VL AN, starts the load balancing function of the load balancer, and assigns the server as the target server to distribute the load.
  • the system resource manager 21 reads the middleware linkage IF data 330 shown in Fig. 7 and needs to be executed after creating the server group to the AP management control unit 27, which is a functional part realized by the middleware. The correct command.
  • the system resource manager 21 transmits a command for recognizing the addition of the server group to the AP management unit 27.
  • the AP management supervision unit 27 then cooperates with the AP management unit 116a to install and set application programs on the server. Set the server in a usable state for business.
  • step S106 the system resource manager 21 performs processing for adding the second and subsequent servers to the server group. In the following, the process performed in step S106 will be described in more detail.
  • FIG. 44 is a flowchart showing the processing procedure for adding a server to a server group.
  • the system resource manager 21 accepts server and server group information when the user operates the operation management client 10 and specifies a server and a server group for registering the server. (Step S401
  • the system resource manager 21 registers the server in the server group (step S402).
  • the system resource manager 21 reads the managed server data 700 shown in FIG. 20 and the software distribution image management data 1060 shown in FIG. 42, and confirms whether the server architecture of the server can introduce the software image. Whether or not is checked (step S403). If the server architecture of the server is not capable of installing a software image (step S403, No), the process of adding the server to the server group is terminated.
  • the storage RM25 uses the same method as when storage is configured on the first server.
  • the process to set storage for is performed (step S404). Specifically, the storage RM 25 executes the logical volume setting process described in FIG. 30 and FIG. 35 on the server.
  • the network RM24 performs network booting of the server registered in the server group using a temporary OS in the same way as when the network is set up on the first server, and the network of the server Make settings (step S405).
  • the software sub RM 53 expands the software distribution image created from the software installed on the first server to the storage sub group associated with the second server, and deploys the expanded software. To restart the server (step S406).
  • the software RM 23 stores information related to the distributed software distribution image in the system resource DB 26.
  • FIG. 45 is a diagram showing an example of distribution management data 1080 stored as information on the distribution status of the software distribution image.
  • This distribution management data 1080 stores server name, storage subgroup name, software distribution image name, version number, and status information.
  • the server name is information for identifying a server to which a storage subgroup is allocated.
  • the storage subgroup name is information for identifying the storage subgroup in which the software distribution image is deployed.
  • the software distribution image name is information for identifying the software distribution image deployed in the storage subgroup.
  • the version number is information on the version number of the distributed software distribution image.
  • the status is information indicating the distribution status of the software distribution image.
  • system resource manager 21 cooperates with the network RM 24 and the AP management unit 27 to perform the process of shifting the second server to the business mode (step S407). ).
  • the network RM 24 assigns an IP address to the second server based on the information of the subnet to which the first server belongs.
  • Information on the IP address assigned to the second server is stored by the system resource manager 21 in the IP address management data 1040 shown in FIG.
  • the network RM 24 sets a VLAN on the switch, connects the server to the VLAN, and causes the load balancer to register the server as a target server to distribute the load.
  • the system resource manager 21 transmits a command for causing the AP management management unit 27 to recognize the addition of the server group of the server to the AP management management unit 27. Then, the AP management supervision unit 27 cooperates with the AP management unit 116a to install and set an application program for the server, and to set the server in a usable state for business. [0283] When adding the third and subsequent servers to the server group, the server addition processing described in Fig. 44 is repeated.
  • FIG. 46 is a flowchart for explaining the server deletion processing procedure for deleting a server group power server.
  • the network RM 24 disconnects the VLAN set in the server in cooperation with the network sub RM 54 (step S501). Then, the network RM24 changes the load balancer setting in cooperation with the network sub RM54, and excludes the server from the target servers for distributing the load (step S502).
  • the network RM 24 returns the IP address assigned to the server (step S503). Further, the software sub RM 53 restarts the server by network boot using the temporary OS stored in the domain resource DB 55 of the domain management server 50 (step S504).
  • the storage RM 25 deletes the disk assigned to the server to be deleted from the server group (step S505). After that, the storage RM25 changes the SAN zone that is the logical connection relationship between the server and the storage set for the server, and the SAN zone between the server and the storage that excludes the server. Is set (step S506).
  • FIG. 47 is an example of a resource allocation output screen 1090 showing the allocation of resources to be managed.
  • this resource allocation output screen 1090 shows how various servers belonging to the Web domain 1100, AP domain 1110, and DB domain 1120 are connected to storage belonging to the storage domain 1130. It is structured so that the user can grasp at a glance whether or not!
  • FIG. 48 is a diagram showing an example of a resource arrangement setting screen 1140 for accepting settings relating to the arrangement of resources by the user.
  • the parts pallet 1140a is output, and various icons such as domain, sano, and storage in the parts pallet are output.
  • the user can determine the placement of various resources by placing the computer by operating the mouse.
  • FIG. 49 is a diagram showing an example of a server group list screen 1150 for outputting a list of server groups belonging to the server domain.
  • this server group list screen 1150 when a server domain is specified by a user's operation with a mouse or the like, a list of server groups belonging to the server domain and pooled servers that can be added to the server group are output.
  • FIG. 50 is a diagram showing an example of a server list screen 1160 for outputting a list of servers belonging to the server group.
  • a server list screen 1160 for outputting a list of servers belonging to the server group.
  • a server group is specified by the user's operation of the mouse, etc.
  • a list of servers belonging to the server group and pooled servers that can be added to the server group is output. .
  • this server list screen 1160 when a pooled server is specified by the user's operation of the mouse or the like and the add button is clicked, the process of adding the specified server to the server group is performed. An execution request is sent to the system resource manager 21 to execute additional processing for the server.
  • this server list screen 1160 when a server belonging to a server group is specified by a user's operation with a mouse or the like and the delete button is clicked, the process of deleting the specified server from the server group is performed. An execution request is sent to the system resource manager 21 and the server is deleted.
  • FIG. 51 is a diagram showing an example of a storage list screen 1170 for outputting a list of storages belonging to the storage group.
  • the storage list screen 1170 as in the server list screen 1160 shown in FIG. 50, when a storage group is specified by a user operation with a mouse or the like, additional storage is added to the storage and storage group belonging to the storage group. A list of possible pooled storages is output.
  • FIG. 52 is a diagram showing a hardware configuration of the computer 1200 serving as the site management server 20 shown in FIG.
  • the computer 1200 includes an input device 1210 that accepts input of data from a user, a monitor 1220, a medium reader 1230 that reads a program from a recording medium cover that records various programs, a ROM (Read Only Memory) 1240, and a network.
  • the network interface 1250, HDD (Hard Disk Drive) 1260, RAM (Random Access Memory) 1 270, and CPU (Central Processing Unit) 1280 that transfer data to and from other computers are connected via the bus 1290. Configured.
  • the HDD 1260 stores a program that exhibits the same function as that of the site management server 20, that is, the system resource management program 1260b and the AP management management program 1260c shown in FIG. .
  • system resource management program 1260b and the AP management supervision program 1260c may be integrated or distributed as appropriate.
  • the CPU 1280 power system resource management program 1260b and the AP management overall program 1260c are also read out and executed by the HDD 1260 power, thereby functioning as the system resource management process 1280a and the AP management overall process 1280b.
  • This system resource management process 1280a corresponds to the system resource manager 21, server RM22, software RM23, network RM24, and storage RM25 shown in FIG.
  • AP management management process 1280b corresponds to AP management management department 27 shown in Fig.2.
  • the HDD 1260 stores system resource data 1260a. Note that this The system resource data 1260a corresponds to various types of data stored in the system resource DB 26 shown in FIG.
  • the CPU 1280 stores various data related to resource management as system resource data 1260a, reads the system resource data 1260a from the HDD 1260, stores it in the RAM 1270, and stores the system resource data stored in the RAM 1270. Various data processing is executed based on 1270a.
  • FIG. 53 is a diagram showing a hardware configuration of the computer 1300 that becomes the domain management server 20 shown in FIG.
  • This computer 1300 includes an input device 1310 that accepts data input from a user, a monitor 1320, a medium reading device that records various programs, a medium reading device 1330 that reads the program, a ROM 1340, and another computer via a network.
  • the network interface 1350, HDD1 360, RAM1370, and CPU1380, which exchange data between them, are connected by a bus 1390.
  • the HDD 1360 stores a program that exhibits the same function as the functions of the domain management servers 50 and 60, that is, the domain resource management program 1360b shown in FIG.
  • the domain resource management program 1360b may be stored in an integrated or distributed manner as appropriate.
  • the CPU 1380 power domain resource management program 1360b is read from the HDD 1360 and executed to function as the domain resource management process 1380a.
  • This domain resource management process 1380a corresponds to the system resource domain manager 51, server sub RM52, software sub RM53, and network sub RM54 shown in FIG.
  • domain resource data 1360a is stored in the HDD 1360.
  • the domain resource data 1360a corresponds to various data stored in the domain resource DB 55 shown in FIG.
  • the CPU 1380 stores various data related to resource management in the domain as domain resource data 1360a, reads the domain resource data 1360a from the HDD1 360, stores it in the RAM 1370, and stores the domain resource data 1360a in the RAM 1370. resource Various data processing is executed based on the data 1370a.
  • FIG. 54 is a diagram showing a hardware configuration of a computer 1400 serving as the server 110a shown in FIG.
  • This computer 1400 includes an input device 1410 that accepts data input from a user, a monitor 1420, a medium reading device that records various programs, a medium reader 1430 that reads the program, RAM 1440, ROM 1450, and other devices via the network.
  • the network interface 1460, the HDD 1470, and the CPU 1480 that exchange data with a computer are connected by a bus 1490.
  • the HDD 1470 stores a program that exhibits the same function as that of the server 110a, that is, an agent resource management program 1470a and an AP management program 1470b shown in FIG. Note that the agent resource management program 1470a and the AP management program 1470b may be integrated or distributed as appropriate and stored.
  • the CPU 1480 power agent resource management program 1470a and the AP management program 1470b are read from the HDD 1470 and executed, thereby functioning as the age entry source management process 1480a and the AP management process 1480b.
  • This agent resource management process 1480a corresponds to the resource manager engine shown in FIG. 2, the Sano RM agent 112a, the software RM agent 113a, the network RM agent 114a, and the storage RM agent 115a.
  • the AP management process 1480b corresponds to the AP management unit 116a shown in FIG.
  • system resource management program 1260b, AP management supervision program 1260c, domain resource management program 1360b, agent resource management program 1470a and AP management program 1470b are not necessarily stored in HDD1260, HDD 1360 or HDD1470 from the beginning. There is no need to keep it.
  • FD compact disc
  • CD-ROM compact disc
  • MO disk compact disc
  • DVD digital versatile disk
  • HDD hard disk drives
  • the system resource manager 21 registers the server domain as a collection of servers with uniform physical connections, and the software RM23 and software sub RM53 cooperate to register the registered server. Since the software used by the servers belonging to the domain is installed, the labor required for the server configuration work performed by the administrator can be reduced.
  • the network RM24 and the network sub RM53 cooperate to perform settings related to the network of the server that uses the software, and the software RM 23 and the software sub RM53 cooperate to use the server. Since the installation of the software to be executed is executed, it is possible to further reduce the labor required for the server setting work performed by the administrator by setting the network.
  • software RM23 and software sub RM53 cooperate to introduce software used by a server to a RAID device that is connected to the server via SAN and accessed by the server. Therefore, a flexible configuration such as sharing a RAID device among multiple servers can be adopted.
  • the system resource manager 21 registers the server domain as a server domain consisting of a plurality of server groups to which the server belongs, and software! ⁇ M23 and software sub RM53 are registered in cooperation.
  • the software used by the servers belonging to each server group in the server domain is to be installed, so the administrator is burdened with the setting work to execute different information processing on the servers belonging to each server group. Can be executed easily without any problems.
  • the software required for servers to be added to a server group is installed in a storage connected via SAN, and the server boots from that storage. Introducing the built-in disk, you can also boot the server with the built-in disk power! /.
  • each component of each illustrated device is functionally conceptual, and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in an arbitrary unit according to various loads and usage conditions.
  • Can be integrated and configured.
  • each processing function performed in each device is realized by a program that is analyzed and executed by the CPU and the CPU, or as hardware by wired logic. Can be realized. Industrial applicability
  • the operation management program, the operation management method, and the operation management apparatus according to the present invention are useful for an operation management system that manages the operation of resources constituting the information processing system, and in particular, the information processing system. It is suitable for an operation management system that needs to reduce the labor required for resource setting work performed by other administrators.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Hardware Redundancy (AREA)
  • Multi Processors (AREA)

Abstract

 サイト管理サーバ(20)のシステムリソースマネージャ(21)が、物理結線が均一なサーバの集まりとしてサーバドメインを登録し、サイト管理サーバ(20)のソフトウェアRM(23)、および、ドメイン管理サーバ(50)のソフトウェアサブRM(53)が連携して、登録されたサーバドメインに属するサーバにより利用されるソフトウェアをSAN(170)を介して接続されたストレージ(160a)~(160c)に導入し、導入したソフトウェアをサーバに利用させる。

Description

明 細 書
運用管理プログラム、運用管理方法および運用管理装置
技術分野
[0001] 本発明は、情報処理システムを構成するリソースの運用を管理する運用管理プログ ラム、運用管理方法および運用管理装置に関し、特に、情報処理システムの管理者 がおこなうリソースの設定作業に要する労力を軽減させることができる運用管理プロ グラム、運用管理方法および運用管理装置に関するものである。
背景技術
[0002] 従来、サーバなどのリソースがネットワークを介して接続されることにより構成される 情報処理システムにお 、て新たなリソースを追加する場合に、情報処理システムの 管理者の労力を軽減するため、追加するリソースのネットワークアドレスを自動的に登 録する技術が開発されている。
[0003] たとえば、特許文献 1には、サーバが新たに情報処理システムに追加された場合に 、サーバのネットワークアドレスをすベての通信機器に通知し、また、新たな通信機器 が追加された場合に当該通信機器のネットワークアドレスをすベてのサーバに通知 する通信システムが開示されている。
[0004] 特許文献 1:特開 2000— 354062号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上記特許文献 1に代表される従来技術では、新たに追加されたリソ ースのネットワークアドレスを単に通知するだけであり、リソースの追カ卩時に管理者が おこなう必要がある一連の設定作業の労力を軽減させることが難 、と 、う問題があ つた o
[0006] すなわち、管理者は、ネットワークアドレスだけでなぐリソース間の結線やソフトゥェ ァの導入など、リソースを稼動させるためのさまざまな設定作業をおこなう必要がある 力 そのうちのごく一部の作業に係る労力を軽減するのみであり、管理者の負担は依 然大き!/ヽままであると!/ヽぅ問題があった。 [0007] 本発明は、上記に鑑みてなされたものであって、情報処理システムの管理者がおこ なうリソースの設定作業に要する労力を軽減させることができる運用管理プログラム、 運用管理方法および運用管理装置を提供することを目的とする。
課題を解決するための手段
[0008] 上述した課題を解決し、目的を達成するために、本発明は、情報処理システムを構 成するリソースの運用を管理する運用管理プログラムであって、物理結線が均一なリ ソースの集まりとしてリソースドメインを登録するドメイン登録手順と、前記ドメイン登録 手順により登録されたリソースドメインに属するリソースにより利用されるソフトウェアの 導入を実行するソフトウェア導入手順と、をコンピュータに実行させることを特徴とする
[0009] また、本発明は、情報処理システムを構成するリソースの運用を管理する運用管理 方法であって、物理結線が均一なリソースの集まりとしてリソースドメインを登録するド メイン登録工程と、前記ドメイン登録工程により登録されたリソースドメインに属するリ ソースにより利用されるソフトウェアの導入を実行するソフトウェア導入工程と、を含ん だことを特徴とする。
[0010] また、本発明は、情報処理システムを構成するリソースの運用を管理する運用管理 装置であって、物理結線が均一なリソースの集まりとしてリソースドメインを登録するド メイン登録手段と、前記ドメイン登録手段により登録されたリソースドメインに属するリ ソースにより利用されるソフトウェアの導入を実行するソフトウェア導入手段と、を備え たことを特徴とする。
発明の効果
[0011] 本発明によれば、物理結線が均一なリソースの集まりとしてリソースドメインを登録し
、登録したリソースドメインに属するリソースにより利用されるソフトウェアの導入を実行 することとしたので、情報処理システムの管理者がおこなうリソースの設定作業に要す る労力を軽減させることができるという効果を奏する。
図面の簡単な説明
[0012] [図 1]図 1は、本発明に係るリソースの運用管理の概念を示す図である。
[図 2]図 2は、本実施例に係るリソース運用管理システムの機能構成を示す図である。 [図 3]図 3は、業務へのサーバの割当処理の処理手順を示すフローチャートである。
[図 4]図 4は、運用管理サーバの情報を登録するサイトデータの一例を示す図である
[図 5]図 5は、ドメイン管理サーバの情報を登録するドメイン管理サーバデータの一例 を示す図である。
[図 6]図 6は、管理対象となるサブネットの情報を登録する管理サブネットデータの一 例を示す図である。
[図 7]図 7は、ミドルウェアと連携して各種処理を実行するためのコマンドを記憶したミ ドルゥヱァ連携 IFデータの一例を示す図である。
[図 8]図 8は、サーバが属するドメインであるサーバドメインに係る情報を記憶したサー バドメインデータの一例を示す図である。
[図 9]図 9は、プールグループに係る情報を記憶したプールグループデータの一例を 示す図である。
[図 10]図 10は、ストレージドメインに係る情報を記憶したストレージドメインデータの一 例を示す図である。
[図 11]図 11は、ネットワークドメインおよびネットワークサブドメインを説明する説明図 である。
[図 12]図 12は、ネットワークサブドメインに係る情報を記憶したネットワークサブドメィ ンデータの一例を示す図である。
[図 13]図 13は、ネットワークドメインに係る情報を記憶したネットワークドメインデータ の一例を示す図である。
[図 14]図 14は、負荷分散装置に係る情報を記憶した負荷分散装置データの一例を 示す図である。
[図 15]図 15は、ネットワークサブグループの構成例を説明する説明図である。
[図 16]図 16は、ネットワークサブグループに係る情報を記憶したネットワークサブダル ープデータの一例を示す図である。
[図 17]図 17は、サーバドメイン間の対応関係に係る情報を記憶したサーバドメイン間 リンクデータの一例を示す図である。 [図 18]図 18は、サーバドメインとストレージドメインとの間の対応関係に係る情報を記 憶したサーバ Zストレージドメイン間リンクデータの一例を示す図である。
[図 19]図 19は、ネットワークブートがなされるサーバの情報を記憶したネットワークブ ートサーバデータの一例を示す図である。
[図 20]図 20は、管理対象となるサーバのデータを記憶した管理対象サーバデータの 一例を示す図である。
[図 21]図 21は、サーバが属するグループの情報を記憶したプロビジョユング構成デ ータの一例を示す図である。
[図 22]図 22は、結線状態が均一であるサーバとストレージ機器との結線の一例を示 す図である。
[図 23]図 23は、 WWPNに基づく結線の均一性チヱック処理を説明する図である。
[図 24]図 24は、ストレージテンプレートに係るデータを記憶したストレージテンプレー トデータの一例を示す図である。
[図 25]図 25は、サーバグループに係る情報を記憶したサーバグループデータの一 例を示す図である。
[図 26]図 26は、サーバグループに対応するストレージグループの情報を記憶したサ ーバ Zストレージグループリンクデータの一例を示す図である。
[図 27]図 27は、サーバグループ間の対応関係に係る情報を記憶したサーバグルー プ間リンクデータの一例を示す図である。
[図 28]図 28は、負荷分散装置のグループ情報を記憶した負荷分散グループデータ の一例を示す図である。
[図 29]図 29は、ネットワークグループに係る情報を記憶したネットワークグループデ ータの一例を示す図である。
[図 30]図 30は、論理ボリュームを RAID装置に設定する設定処理の処理手順を示す フローチャートである。
[図 31]図 31は、論理ボリュームの設定画面の一例を示す図である。
[図 32]図 32は、 RAIDレベルの設定情報を記憶した RAIDレベル設定データの一例 を示す図である。 [図 33]図 33は、 RAID装置に係る情報を記憶した RAID装置データの一例を示す図 である。
[図 34]図 34は、ストレージサブグループが設定されたプロビジョユング構成データの 一例を示す図である。
[図 35]図 35は、サーバに論理ボリュームを認識させる論理ボリュームの設定処理の 処理手順を示すフローチャートである。
圆 36]図 36は、 RAID装置に構築された論理ボリュームの設定処理を説明する説明 図である。
[図 37]図 37は、ァフィ-ティグループに係る情報を記憶したァフィ-ティグループデ ータの一例を示す図である。
[図 38]図 38は、マルチパスの構成に係る情報を記憶したマルチパス構成データの一 例を示す図である。
[図 39]図 39は、ミラーボリュームの構成に係る情報を記憶したミラーボリューム構成デ ータの一例を示す図である。
[図 40]図 40は、サーバに割り当てられた IPアドレスに係る情報を記憶した IPアドレス 管理データの一例を示す図である。
[図 41]図 41は、ソフトウェアイメージに係る情報を記憶したソフトウェアイメージ管理デ ータの一例を示す図である。
[図 42]図 42は、ソフトウェア配布イメージに係る情報を記憶したソフトウェア配布ィメ ージ管理データの一例を示す図である。
[図 43]図 43は、スナップショットに係る情報を記憶したスナップショット管理データの 一例を示す図である。
[図 44]図 44は、サーバをサーバグループに追加する処理の処理手順を示すフロー チャートである。
[図 45]図 45は、ソフトウェア配布イメージの配布状況に係る情報を記憶した配布管理 データの一例を示す図である。
[図 46]図 46は、サーバグループからサーバを削除するサーバ削除処理の処理手順 を説明するフローチャートである。 [図 47]図 47は、管理対象となるリソースの配置を示すリソース配置出力画面の一例 である。
[図 48]図 48は、リソースの配置に係る設定をユーザ力 受け付けるリソース配置設定 画面の一例を示す図である。
[図 49]図 49は、サーバドメインに属するサーバグループの一覧を出力するサーバグ ループ一覧画面の一例を示す図である。
[図 50]図 50は、サーバグループに属するサーバの一覧を出力するサーバ一覧画面 の一例を示す図である。
[図 51]図 51は、ストレージグループに属するストレージの一覧を出力するストレージ 一覧画面の一例を示す図である。
[図 52]図 52は、図 2に示したサイト管理サーバとなるコンピュータのハードウェア構成 を示す図である。
[図 53]図 53は、図 2に示したドメイン管理サーバとなるコンピュータのハードウェア構 成を示す図である。
[図 54]図 54は、図 2に示したサーバとなるコンピュータのハードウェア構成を示す図 である。
符号の説明
1, 2 業務
3 プール
4 Webドメイン
4一 4 Webサーバ
1 9
5 APドメイン
5一 5 APサーバ
1 6
6 DBドメイン
6一 6 DBサーバ
1 3
7 ストレージドメイン
7一 7 ストレージ
1 9
10 運用管理クライアント サイト管理サーバ
システムリソースマネージャ サーバ RM
ソフトウェア RM
ネットワーク!^
ストレージ RM
システムリソース DB
AP管理統括部
, 40, 90, 120 FW
, 60 ドメイン管理サーバ
システムリソースドメインマネージャ サーバサブ RM
ソフトウェアサブ RM
ネットワークサブ RM
ドメインリソース DB
インターネット
ルータ
, 130 SLB
a, 110b, 110c サーノ
a リソースマネージャエージェントa サーバ RMエージェントa ソフトウェア RMエージェントa ネットワーク RMエージェントa ストレージ RMエージェントa AP管理部
a, 140b, 140c サーノ
a, 150b, 150c サーノ
a, 160b, 160c, 160d ス卜レージ 170 SAN
180 エッジドメイン
190 Webドメイン
200 APドメイン
210 DBドメイン
300 サイトデータ
310 ドメイン管理サーバデータ
320 管理サブネットデータ
330 ミドルウェア連携 IFデータ
340 サーバドメインデータ
350 プーノレグノレープデータ
360 ストレージドメインデータ
370 Webドメイン
380a, 380b, 380c, 380d, 380e サ —バ
390 APドメイン
400a, 400b, 400c, 400d, 400e サ —ノ
410 Web— APネットワークドメイン
420 Web— Backネットワークサブド. Mlノ
430a, 430b スィッチ
440 AP— Frontネットワークサブド イン
450a, 450b スィッチ
460a, 460b SLB
470 ネットワークサブドメインデータ
480 ネットワークドメインデータ
490 負荷分散装置データ
510 Webドメイン
520a, 520b, 520c, 520d, 520e サ -バ
530 A_Webサーバグループ 540 B_Webサーバグループ
550 APドメイン
560a, 560b, 560c, 560d, 560e サーノ
570 A— APサーバグループ
580 B—APサーバグループ
590, 610 スィッチ
600a, 600b SLB
620 A— Web— Backネットワークサブグループ
630 B— Web— Backネットワークサブグループ
640 A— AP— Frontネットワークサブグループ
650 B_AP_Frontネットワークサブグループ
660 ネットワークサブグループデータ
670 サーバドメイン間リンクデータ
680 サーバ zストレージドメイン間リンクデータ
690 ネットワークブートサーバデータ
700 管理対象サーバデータ
710 プロビジョニング構成データ
720 サーバドメイン
730a, 730b サーバ
740 ストレージドメイン
750a, 750b FCスィッチ
760a, 760b RAID装置
770a, 770b RAID装置 WWPNデータ
780a, 780b FCスィッチ WWPNデータ
790a, 790b サーバ WWPNデータ
800 ストレージテンプレートデータ
810 サーバグループデータ
820 サーバ zストレージグノレープリンクデータ 830 サーバグループ間リンクデータ
840 負荷分散グループデータ
850 ネットワークグノレープデータ
860 必要条件出力画面
870a, 870b, 870c 必要条件
880 論理ボリューム構成出力画面
890 RAID装置
900a, 900b, 900c 必要条件
910a, 910b, 910c, 910d 論理ボリューム
920a, 920b, 920c, 920d, 920e 論理ポジ:
930a, 930b RAIDグノレープ
940 RAIDレべノレ設定データ
950 RAID装置データ
960 プロビジョユング構成データ
970 サーバグノレープ
980 ストレージプーノレ
990 ストレージグループ
1000 サーバ内ストレージ構成
1010 ァフィ-ティグループデータ
1020 マルチパス構成データ
1030 ミラーボリューム構成データ
1040 IPアドレス管理データ
1050 ソフトウェアイメージ管理データ
1060 ソフトウェア配布イメージ管理データ 1070 スナップショット管理データ
1080 配布管理データ
1090 リソース配置出力画面
1100 Webドメイン 1110 APドメイン
1120 DBドメイン
1130 ストレージドメイン
1140 リソース配置設定画面
1140a 部品パレット
1150 サーノ グノレープ一覧画面
1160 サーバ一覧画面
1170 ストレージ一覧画面
1200 コンピュータ
1210 入力装置
1220 モニタ
1230 媒体読取り装置
1240 ROM
1250 ネットワークインターフェース
1260 HDD
1260a システムリソースデータ
1260b システムリソース管理プログラム
1260c AP管理統括プログラム
1270 RAM
1270a システムリソースデータ
1280 CPU
1280a システムリソース管理プロセス
1280b AP管理統括プロセス
1290 パス
1300 コンピュータ
1310 入力装置
1320 モニタ
1330 媒体読取り装置 1340 ROM
1350 ネットワークインターフェース
1360 HDD
1360a ドメインリソースデータ
1360b ドメインリソース管理プログラム
1370 RAM
1370a ドメインリソースデータ
1380 CPU
1380a ドメインリソース管理プロセス
1390 ノ ス
1400 コンピュータ
1410 入力装置
1420 モニタ
1430 媒体読取り装置
1440 RAM
1450 ROM
1460 ネットワークインターフェース
1470 HDD
1470a エージェントリソース管理プログラム
1470b AP管理プログラム
1480 CPU
1480a エージェントリソース管理プロセス
1480b AP管理プロセス
1490 パス
発明を実施するための最良の形態
以下に、本発明に係る運用管理プログラム、運用管理方法および運用管理装置の 実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定 されるものではない。 実施例
[0015] まず、本発明に係るリソースの運用管理の概念について説明する。図 1は、本発明 に係るリソースの運用管理の概念を示す図である。図 1には、各業務 1, 2において W ebサーノ 4一 4や AP ( Application)サーバ 5— 5 , DB (Database)サーバ 6— 6
1 9 1 6 1 3、 ストレージ 7— 7などの情報処理装置が利用される場合が示されている。
1 9
[0016] ここで、 Webサーバ 4一 4は、 Webブラウザで閲覧されるコンテンツをインターネッ
1 9
トを介してクライアント装置に提供するサーバ装置である。 APサーバ 5— 5
1 6は、ユー ザによる情報処理要求を受け付けた Webサーバ 4 から要求された情報処理の
1一 4
9
実行を引き継ぐサーバ装置である。
[0017] DBサーバ 6— 6は、 APサーバ 5— 5力 データベースへのアクセス要求を受け
1 3 1 6
付けた場合に、データベースへのアクセスを管理するサーバ装置である。ストレージ
7一 7は、 SAN (Storage Area Network)により Webサーバ 4
1一 4や APサーバ 5
1 9 9 1 一 5、データベースサーバ 6— 6に接続される記憶装置である。
6 1 3
[0018] 本発明に係るリソースの運用管理処理では、 LAN (Local Area Network)や SAN などにおいて、他の装置との間の物理的な結線状態が互いに均一であるサーバゃス トレージなどのリソース群をドメインとして管理する。
[0019] たとえば、図 1の場合には、業務 1, 2で利用されるサーバ群が、 Webドメイン 4、 AP ドメイン 5および DBドメイン 6として管理され、業務 1, 2で利用されるストレージ群が、 ストレージドメイン 7として管理されて 、る。
[0020] この場合、 Webドメイン 4に属する Webサーバ 4
1一 4の他の装置に対する結線状 9
態は互いに均一であり、 APドメイン 5に属する APサーバ 5 5の他の装置に対する
1 6
結線状態は互いに均一であり、 DBドメイン 6に属する DBサーバ 6 6の他の装置
1 3
に対する結線状態は互いに均一であり、ストレージドメイン 7に属するストレージ 7— 7
1
9の他の装置に対する結線状態は互いに均一となって 、る。
[0021] そして、このリソース割当管理処理では、未使用の Webサーバ 4
1一 4
9、 APサーバ 5 一 5、 DBサーバ 6 6およびストレージ 7 7をドメインごとにプール 3に登録して
1 6 1 3 1 9
おき、必要に応じて各業務 1, 2に Webサーバ 4
1一 4
9、 APサーバ 5 5
1 6、 DBサーバ
6一 6およびストレージ 7 7を割り当てる。 [0022] たとえば、図 1では、業務 1には、 Webサーバ 4 , 4
2 3、 APサーバ 5
1、 DBサーバ 6
1、 ストレージ 7が割り当てられ、業務 2には、 Webサーバ 4
7 9、 APサーバ 5 , 5
2 3、 DBサー ノ 6、ストレージ 7 , 7が割り当てられている。
2 8 9
[0023] そして、業務 1, 2に割り当てられた Webサーバ 4 , 4, 4、 APサーバ 5 , 5 , 5、 D
2 3 9 1 2 3
Bサーバ 6 , 6の負荷が増大したり、ストレージ 7— 7の記憶容量が不足したような場
1 2 7 9
合に、プール 3に登録されている Webサーバ 4
1, 4
4一 4
8、 APサーバ 5 5
4 6、 DBサー ノ 6 ,ストレージ 7— 7を業務で利用可能なサーバとして追加する。
3 1 6
[0024] 具体的には、プール 3に登録されている Webサーバ 4
1, 4
4一 4
8、 APサーバ 5 5
4 6
, DBサーバ 6に必要なソフトウェアを導入し、ネットワークの設定などを自動的におこ
3
なうことにより、 Webサーバ 4, 4一 4 5 5
8、 APサーバ
4 6, DBサーバ 6を業務で利
1 4 3
用可能なサーバとして追加する。
[0025] また、ストレージ 7— 7を追加する場合は、ストレージ 7— 7に対して論理ボリユー
1 6 1 6
ムの設定やネットワークの設定などを自動的におこなうことにより、当該ストレージ 7—
1
7を業務で利用可能なストレージ 7— 7として追加する。
6 1 6
[0026] たとえば、図 1には、業務 2の Webドメイン 4において、プール 3に登録されていた W ebサーバ 4が新たに追加される場合が示されて!/、る。
4
[0027] さらに、このリソースの運用管理処理では、業務 1, 2で利用されている Webサーバ 4, 4, 4、 APサーバ 5 5, DBサーバ 6, 6またはストレージ 7 7が長期間使
2 3 9 1 3 1 2 7 9
用されていないような場合に、 Webサーバ 4 , 4, 4, APサーバ 5 5
2 3 9 1 3、 DBサーバ
6 , 6、または、ストレージ 7— 7を業務で利用可能なサーバから除外し、プール 3に
1 2 7 9
登録する処理がおこなわれる。
[0028] ここでプール 3に登録された Webサーバ 4 , 4, 4
2 3 9、 APサーバ 5— 5 , DBサーバ
1 3
6 , 6 ,ストレージ 7— 7は、別の業務 1, 2で利用されている Webサーバ 4 , 4, 4
1 2 7 9 2 3 9、
APサーバ 5— 5
1 3、 DBサーバ 6 , 6の負荷が増大したり、ストレージ 7— 7の記憶容
1 2 7 9 量が不足したような場合に再利用される。
[0029] 具体的には、 Webサーバ 4 , 4, 4
2 3 9、 APサーバ 5— 5
1 3、 DBサーバ 6 , 6に導入さ
1 2 れているソフトウェアを削除し、ネットワークの設定の変更などを自動的におこなうこと により、 Webサーノ 4 , 4, 4、 APサーノ 5一 5 , DBサーノ 6 , 6力業務 1, 2で禾 IJ 用可能なサーバから除外され、プール 3に登録される。
[0030] また、ストレージ 7— 7を業務 1, 2で利用可能なストレージから除外してプール 3に
7 9
登録する場合には、ストレージ 7— 7に対するネットワークの設定などを自動的にお
7 9
こなうこと〖こより、当該ストレージ 7— 7を業務で利用可能なストレージから除外し、プ
7 9
ール 3に登録する。
[0031] たとえば、図 1には、業務 2の APドメイン 5において、プール 3に登録されていた AP サーバ 5が業務で利用可能なサーバから除外され、プール 3に登録される場合が示
2
されている。また、プール 3に登録されたサーバ 5は、業務 1で利用されているサーバ
4
5の負荷が増大したような場合に再利用され、業務 1に新たに追加される。
1
[0032] このように、このリソースの運用管理処理にお!、ては、物理結線が均一なサーバの 集まりとしてドメインを管理し、ドメインに属するサーバが必要とするソフトウェアの導入 をおこなうこととしたので、管理者がサーバの運用時におこなうサーバの設定作業に 要する労力を軽減させることができる。
[0033] つぎに、本実施例に係るリソース運用管理システムの機能構成について説明する。
図 2は、本実施例に係るリソース運用管理システムの機能構成を示す図である。
[0034] 図 2に示すように、このリソース運用管理システムでは、運用管理クライアント 10と、 サイト管理サーバ 20と力 FW (Firewall) 30経由でネットワークを介して接続されてい る。また、サイト管理サーバ 20とドメイン管理サーバ 50, 60と力 FW40経由でネット ワークを介して接続されて 、る。
[0035] また、サイト管理サーバ 20と、エッジドメイン 180に属するルータ 80とが、 FW40経 由でネットワークを介して接続されている。さらに、サイト管理サーバ 20と、ストレージ ドメイン 220に属するストレージ 160a— 160c、および、プールされているストレージ 1
60dと力 FW40経由でネットワークを介して接続されている。
[0036] ドメイン管理サーバ 50は、 FW90、 SLB (Server Load Balancer) 100および Web ドメイン 190に属するサーバ 110a— 110cに、ネットワークを介して接続されて!、る。
[0037] また、ドメイン管理サーバ 60は、 FW120、 SLB130、 APドメイン 200に属するサー ノ 140a一 140c、および、 DBドメイン 210に属するサーノ 150a一 150cに、ネットヮ
—クを介して接続されて 、る 0 [0038] さらに、ストレージドメイン 220に属するストレージ 160a— 160c、および、プールさ れているストレージ 160dは、 Webドメイン 190に属するサーバ 110a— 110c、 APドメ イン 200に属するサーノ 140a— 140c、および、 DBドメイン 210に属するサーバ 15 Oa— 150c【こ SAN 170を介して接続されて!ヽる。
[0039] ここで、運用管理クライアント 10は、リソース運用管理処理に係るさまざまな設定を ユーザ力も受け付けて、その設定情報をサイト管理サーバ 20に送信するとともに、サ イト管理サーバ 20からさまざまな出力結果を受け付けて、モニタ等に表示するクライ アント装置である。
[0040] サイト管理サーバ 20は、図 1で説明したようなリソース運用管理処理を、ドメイン管 理サーバ 50, 60と連携して実行するサーバ装置である。このサイト管理サーバ 20は 、システムリソースマネージャ 21、サーバ RM (Resource Manager) 22、ソフトウェア!^ M (Resource Manager) 23、ネットワーク RM (Resource Manager) 24、ストレージ R M (Resource Manager) 25、システムリソース DB (Database) 26および AP (
Application)管理統括部 27の各機能部を有する。
[0041] システムリソースマネージャ 21は、運用管理クライアント 10からリソース運用管理処 理に係るさまざまな設定情報を受け付けるとともに、サーバ RM22、ソフトウェア RM2 3、ネットワーク RM24、ストレージ RM25と連携してリソースの設定処理を実行する 管理部である。また、このシステムリソースマネージャ 21は、ドメイン管理サーバ 50, 6 0との間のデータの授受を司る。
[0042] サーバ RM22は、各サーバ 110a— 110c, 140a— 140cおよび 150a— 150cの起 動、停止、ハードウェアに係る情報の収集、設定などをおこなう管理部である。このサ ーバ RM22は、ドメイン管理サーバ 50のサーバサブ RM (Resource Manager) 52お よびサーバ 110aのサーバ RMエージェント 112aと連携して上記処理を実行する。
[0043] ソフトウェア RM23は、各サーバ 110a— 110c, 140a— 140cおよび 150a— 150c に対するソフトウェアのインストール、設定、ソフトウェアに係る情報の収集などをおこ なう管理部である。このソフトウェア RM23は、ドメイン管理サーバ 50のソフトウェアサ ブ RM (Resource Manager) 53およびサーバ 110aのソフトウェア RMエージェント 11 3aと連携して上記処理を実行する。 [0044] ネットワーク RM24は、ネットワークに係る情報の収集や設定などをおこなう管理部 である。このネットワーク RM24は、ドメイン管理サーバ 50のネットワークサブ RM ( Resource Manager) 54およびサーバ 110aのネットワーク RMエージェント 114aと連 携して上記処理を実行する。
[0045] ストレージ RM25は、ストレージドメイン 220に属するストレージ 160a— 160c、およ び、プールされているストレージ 160dに係る情報の収集や設定などをおこなう管理 部である。ここでは、ストレージ RM25は、ドメイン管理サーバ 50, 60を介することなく 、ストレージ 160a— 160c、および、プールされているストレージ 160dを管理する。
[0046] システムリソース DB (Database) 26は、システムリソースマネージャ 21、サーバ RM2 2、ソフトウェア RM23、ネットワーク RM24およびストレージ RM25が管理するさまざ まなリソースの情報を記憶するデータベースである。ここに記憶される具体的なデー タについては、後に詳細に説明する。
[0047] AP管理統括部 27は、 AP (Application)管理部 116aを統括管理する処理部である 。具体的には、 AP管理部 116aにアプリケーションの組み込み処理や設定処理の実 行要求をおこなう。この AP管理統括部 27の機能は、サイト管理サーバ 20に導入さ れたミドルウェアが実行されることにより実現されるものである。
[0048] ドメイン管理サーバ 50, 60は、 1つまたは複数のドメイン内のリソースを管理するサ ーバ装置である。ドメイン管理サーバ 50は、システムリソースドメインマネージャ 51、 サーバサブ RM52、ソフトウェアサブ RM53、ネットワークサブ RM54およびドメインリ ソース DB (Database) 55の各機能部を有する。
[0049] なお、ドメイン管理サーバ 60は、ドメイン管理サーバ 50の各機能部と同様の機能部 を有しているため、図 2ではドメイン管理サーバ 60の各機能部の図示および説明を 省略する。
[0050] システムリソースドメインマネージャ 51は、サーバサブ RM52、ソフトウェアサブ RM 53、ネットワークサブ RM54と連携して各ドメインに属するリソースの情報収集や設定 処理などを実行する管理部である。
[0051] また、このシステムリソースドメインマネージャ 51は、サイト管理サーバ 20、 FW90や SLB100などのネットワーク機器、また、管理対象であるサーバ 110a— 110cとの間 のデータの授受を司る。
[0052] サーバサブ RM52は、サーバ RM22およびサーバ RMエージェント 112aと連携し て、各サーバ 110a— 110cの起動、停止、ハードウェアに係る情報の収集、設定など をおこなう管理部である。
[0053] ソフトウェアサブ RM53は、ソフトウェア RM23およびソフトウェア RMエージェント 1
13aと連携して、各サーバ 110a— 110cに対するソフトウェアのインストール、設定、 ソフトウェアに係る情報の収集などをおこなう管理部である。
[0054] ネットワークサブ RM54は、ネットワーク RM24およびネットワーク RMエージェント 1
14aと連携して、ネットワークに係る情報の収集や設定などをおこなう管理部である。
[0055] ドメインリソース DB55は、サーバサブ RM52、ソフトウェアサブ RM53、ネットワーク サブ RM54が管理対象であるサーバ 110a— 110cの各種情報の収集や設定をおこ なう場合に、サーバ 110a— 110cから取得した情報や、システムリソース DB26から 取得したデータを記憶するデータベースである。また、ドメインリソース DB55は、サー バ 110a— 110cのネットワークブートをおこなう場合に用いる仮の OS (Operating
System; 己'隐する。
[0056] ルータ 80は、インターネット 70を介したデータ通信においてデータパケットのルー ティングをおこなうネットワーク機器である。 FW30, 40, 90, 120は、各種サーバ 11 Oa— 110c, 140a— 140c, 150a— 150cへの不正アクセスを防止するためのネット ワーク機器である。
[0057] SLB100, 130は、サーノ 110a— 110c, 140a— 140cに対する情報処理要求を 複数のサーバ 110a— 110c, 140a— 140cに分散して転送する負荷分散装置であ る。なお、 SLB100, 130の前後には、さらにスィッチが接続されている力 図 2では スィッチの図示を省略して!/ヽる。
[0058] サーノ 110a— 110c, 140a— 140c, 150a— 150cは、さまざまな情報処理を実行 するサーバ装置である。サーバ装置 110aは、リソースマネージャエージェント 11 la、 サーバ RMエージェント 112a、ソフトウェア RMエージェント 113a、ネットワーク RMェ ージェント 114a、ストレージ RMエージェント 115aおよび AP管理部 116aの各機能 部を有する。 [0059] なお、サーノ 110b, 140a, 140b, 150a, 150bは、サーノ 110aの各機會咅と同 様の機會咅を有して ヽるため、図 2で ίまサーノ 110b, 140a, 140b, 150a, 150bの 各機能部の図示および説明を省略する。
[0060] また、サーバ 110c, 140c, 150cは、プールされているサーバであり、これらのサー ノ には、リソースマネージャエージェント 11 la、サーバ RMエージェント 112a、ソフト ウェア RMエージェント 113a、ネットワーク RMエージェント 114a、ストレージ RMエー ジェント 115aおよび AP管理部 116aの各機能部は存在しな 、。
[0061] これらのサーバ 110c, 140c, 150cにおいては、業務に利用可能なサーバとして 設定される場合に、各機能部を実現するコンピュータプログラムがサーバ 110c, 140 c, 150cに導入され実行されることにより各機能部が実現される。
[0062] リソースマネージャエージェント 11 laは、ドメイン管理サーバ 50のシステムリソース ドメインマネージャ 51からサーバ 110aの情報収集処理や設定処理などの実行要求 を受け付け、それらの処理をサーバ RMエージェント 112a、ソフトウェア RMエージェ ント 113a、ネットワーク RMエージェント 114a、ストレージ RMエージェント 115aと連 携して実行するエージェントである。
[0063] サーバ RMエージェント 112aは、サーバ 110aの起動、停止、ハードウェアに係る 情報の収集、設定などを実行するエージェントである。ソフトウェア RMエージェント 1 13aは、サーバ 110aに対するソフトウェアの導入、設定およびソフトウェアに係る情 報収集などをおこなうエージェントである。
[0064] ネットワーク RMエージェント 114aは、サーバ 110aが接続されているネットワークの 情報収集および設定などを実行するエージェントである。ストレージ RMエージェント 115aは、サーバ 110aに接続されたストレージの情報収集や設定などをおこなうエー ジェントである。
[0065] ストレージ 160a— 160cは、 Webドメイン 190に属するサーバ 110a— 110c、 APド メイン 200に属するサーバ 140a— 140c、 DBドメイン 210に属するサーバ 150a— 1 50cにより利用されるストレージである。また、ストレージ 160dは、プールされているス トレージである。これらのストレージ 160a— 160dは、 RAID装置により構成される。
[0066] なお、 Webドメイン 190に属するサーバ 110a— 110c、 APドメイン 200に属するサ ーノ 140a— 140c、および、 DBドメイン 210に属するサーバ 150a— 150c間を接続 するネットワークには VLAN (Virtual Local Area Network)を設定する。
[0067] つぎに、図 1で説明したような、業務へのサーバの割当処理の処理手順について 説明する。図 3は、業務へのサーバの割当処理の処理手順を示すフローチャートで ある。
[0068] ここで、サイト管理サーバ 20には、システムリソースマネージャ 21、サーバ RM22、 ソフトウェア RM23、ネットワーク RM24、ストレージ RM25、 AP管理統括部 27の各 機能をサイト管理サーバ 20に実行させるプログラムをあら力じめ導入しておくこととす る。
[0069] また、ドメイン管理サーバ 50, 60には、システムリソースドメインマネージャ 51、サー バサブ RM52、ソフトウェアサブ RM53、ネットワークサブ RM54の各機能をドメイン 管理サーバ 50, 60に実行させるプログラムをあら力じめ導入しておくこととする。
[0070] さら【こ、各サーノ 110a, 110b, 140a, 140b, 150a, 150b【こ ίま、リソースマネー ジャエージェント 11 la,サーバ RMエージェント 112a、ソフトウェア RMエージェント 1 13a、ネットワーク RMエージェント 114a、ストレージ RMエージェント 115a、 AP管理 咅 116aの各機會をサーノ 110a, 110b, 140a, 140b, 150a, 150b【こ実行させる プログラムをあら力じめ導入しておくこととする。
[0071] 図 3に示すように、まず、サイト管理サーバ 20のシステムリソースマネージャ 21は、 運用管理サーバおよび管理 LANの登録処理をおこなう(ステップ S101)。ここで、運 用管理サーバおよび管理 LANとは、サーバ 110a— 110c, 140a— 140c, 150a— 150cや SAN170などの管理対象となるリソースを管理するために用いられるサイト 管理サーバ 20やドメイン管理サーバ 50および LANのことである。
[0072] 以下に、ステップ S101でおこなわれる処理をさらに詳細に説明する。図 4は、運用 管理サーバの情報を登録するサイトデータ 300の一例を示す図である。このサイトデ ータ 300は、サイト名、サイト管理サーバ名およびドメイン管理サーバ名の情報を記 '1思して V、る。
[0073] サイト名は、管理対象となるリソースがあるサイトの識別情報である。サイト管理サー バ名は、そのサイトを管理するよう設定されたサイト管理サーバ 20の識別情報である 。ドメイン管理サーバ名は、そのサイトに設定されたドメインを管理するよう設定された ドメイン管理サーバ 50, 60の識別情報である。
[0074] また、図 5は、ドメイン管理サーバ 50, 60の情報を登録するドメイン管理サーバデー タ 310の一例を示す図である。このドメイン管理サーバデータ 310は、ドメイン管理サ ーバ名および管理サブネット名の情報を記憶して 、る。
[0075] ドメイン管理サーバ名は、図 4で説明したドメイン管理サーバ名と同様の情報である 。管理サブネット名は、ドメイン管理サーバによりリソースが管理されるサブネット (管 理サブネット)の識別情報である。
[0076] また、図 6は、管理対象となるサブネットの情報を登録する管理サブネットデータ 32 0の一例を示す図である。この管理サブネットデータ 320は、管理サブネット名、ネット ワークアドレス、ネットマスクおよびデフォルトゲートウェイの情報を記憶して 、る。
[0077] 管理サブネット名は、図 5で説明した管理サブネット名と同様の情報である。ネットヮ ークアドレスは、管理サブネットを識別するためのネットワークアドレスである。ネットマ スクは、 IPアドレスの何ビット目をネットワークアドレスとして使用するかを定義するた めに用いられるネットマスクである。デフォルトゲートウェイは、管理サブネット外にデ ータを送信する場合に用いられるデフォルトゲートウェイを特定する IPアドレスの情報 である。
[0078] ステップ S101において、システムリソースマネージャ 21は、ユーザが運用管理クラ イアント 10を操作して設定したサイト、サイト管理サーバおよびドメイン管理サーバの 情報を受け付け、その情報を図 4に示したサイトデータ 300に登録する。
[0079] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したドメイン管理サーバおよび管理サブネットの情報を受け付け、その情報を 図 5に示したドメイン管理サーバデータ 310に登録する。
[0080] 続いて、システムリソースマネージャ 21は、図 5で説明した管理サブネットに対応す るネットワークアドレス、ネットマスクおよびデフォルトゲートウェイの情報を、図 6の管 理サブネットデータ 320に登録する。
[0081] さらに、システムリソースマネージャ 21は、ミドルウェアによりその機能が実現される
AP管理統括咅 に、サーノ 110a一 110c, 140a— 140c, 150a一 150cの追カロや 削除などのイベントの発生を通知し、 AP管理統括部 27と連携して各種処理を実行 するためのコマンドを設定する。
[0082] 図 7は、ミドルウェアと連携して各種処理を実行するためのコマンドを記憶したミドル ウェア連携 IFデータ 330の一例を示す図である。このミドルウェア連携 IFデータ 330 は、ミドルウェア名、対象イベント、タイミング、場所、実行コマンドの情報を記憶してい る。
[0083] ミドルウェア名は、システムリソースマネージャ 21が連携して処理をおこなうミドルゥ エアの情報である。対象イベントは、システムリソースマネージャ 21がミドルウェアに実 行要求をおこなうイベントの情報である。タイミングは、システムリソースマネージャ 21 力 Sミドルウェアに処理の実行要求を送信するタイミング (対象イベントの処理の前後) の情報である。
[0084] 場所は、ミドルウェアのコマンドを実行する場所 (Managerあるいは Agent)の情報で ある。「Manager」は、管理サイトサーバ 20上でコマンドを実行する場合を示し、「
Agent」は、管理対象となるサーバ 110a— 110c, 140a— 140c, 150a— 150c上で コマンドを実行する場合を示している。実行コマンドは、ミドルウェアに対して各種ィ ベントの発生を通知するコマンドの情報である。
[0085] 図 3の説明に戻ると、システムリソースマネージャ 21は、ドメインの作成処理および 作成したドメイン間のリンク処理をおこなう(ステップ S102)。以下に、ステップ S 102 でおこなわれる処理をさらに詳細に説明する。
[0086] 図 8は、サーバ 110a— 110c, 140a— 140c, 150a— 150cが属するドメインである サーバドメインに係る情報を記憶したサーバドメインデータ 340の一例を示す図であ る。
[0087] このサーバドメインデータ 340は、サーバドメイン名、サーバアーキテクチャ名およ び管理サブネット名の情報を記憶している。サーバドメイン名は、管理対象となるサ ーノ 110a— 110c, 140a— 140c, 150a— 150cが属するドメインの識別情報であ る。
[0088] サーバアーキテクチャ名は、各サーバドメインに属するサーバ 110a— 110c, 140a 一 140c, 150a— 150cの CPU (Central Processing Unit)アーキテクチャの識別情 報である。管理サブネット名は、図 5に示した管理サブネット名と同様の情報である。
[0089] ステップ S102においては、システムリソースマネージャ 21は、ユーザが運用管理ク ライアント 10を操作しておこなったサーバドメインおよびサーバアーキテクチャの設定 に係る情報を受け付け、サーバドメインデータ 340に登録する。このサーバドメインは
、ステップ S101にお 、て設定された管理サブネット単位で設定される。
[0090] また、ステップ S 102においては、システムリソースマネージャ 21は、各サーバドメイ ンに属するサーバグループを設定し、サーバグループ間で共有されるプールグルー プおよび特定のサーバグループに専用のプールグループを設定する。
[0091] ここで、サーバグループとは、同一のサーバドメインに含まれるサーバを 1つまたは 複数のグループに分けたものである。また、プールグループとは、各サーバグループ に割り当てられたサーバのプールである。
[0092] 図 9は、プールグループに係る情報を記憶したプールグループデータ 350の一例 を示す図である。このプールグループデータ 350には、プールグループ名、種別、サ ーバドメイン名の情報が記憶されて 、る。
[0093] プールグループ名は、上述したサーバのプールの識別情報である。種別は、プー ルグループが複数のサーバグループに共用させるもの力、特定のサーバグループに のみ利用を許可するものかを示す情報である。サーバドメイン名は、図 8で説明した サーバドメイン名と同様の情報である。
[0094] ここで、システムリソースマネージャ 21は、各サーバドメインに対してプールグルー プを割り当てる。また、サーバドメイン力 複数のサーバグループを有する場合に、シ ステムリソースマネージャ 21は、それらのサーバグノレープ専用のプーノレグノレープを 割り当てる。
[0095] その後、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したストレージドメインの情報を受け付け、システムリソース DB26にその情 報を、以下に説明するストレージドメインデータ 360として登録する。
[0096] 図 10は、ストレージドメインに係る情報を記憶したストレージドメインデータ 360の一 例を示す図である。このストレージドメインデータ 360は、ストレージドメイン名および パスの多重度の情報を記憶している。ストレージドメイン名は、設定されたストレージド メインを識別する識別情報である。パスの多重度は、 SANにおけるデータ通信パス の多重度の情報である。
[0097] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したネットワークサブドメインの情報を受け付け、システムリソース DB26にそ の情報を、以下に説明するネットワークサブドメインデータ 470として登録する。
[0098] ここで、ネットワークサブドメインとは、異なるサーバドメインに属するサーバを接続 する複数のネットワーク機器が属するネットワークドメインをさらに分割したサブドメィ ンである。
[0099] 図 11は、ネットワークドメインおよびネットワークサブドメインを説明する説明図であ る。図 11には、 Webドメイン 370に属するサーノ 380a一 380eと、 APドメイン 390に 属するサーノ 400a一 400eとを接続するスィッチ 430a, 430b, 450a, 450b,およ び、 SLB460a, 460b力示されている。
[0100] ここで、スィッチ 430aおよびスィッチ 430bは、「Web-Back」ネットワークサブドメイン
420を構成し、スィッチ 450aおよびスィッチ 450bは、「AP- Front」ネットワークサブド メイン 440を構成して!/、る。
[0101] また、「Web-Back」ネットワークサブドメイン 420、「AP- Front」ネットワークサブドメィ ン 440、 SLB460a、および、 31^4601)が「\^1)- ?」ネットヮークドメィン410を構成 している。
[0102] 図 12は、ネットワークサブドメインに係る情報を記憶したネットワークサブドメインデ ータ 470の一例を示す図である。このネットワークサブドメインデータ 470は、ネットヮ ークサブドメイン名、スィッチ機種およびスィッチ管理 IPの情報を記憶して 、る。
[0103] ネットワークサブドメイン名は、図 11で説明したネットワークサブドメインを識別する 情報である。スィッチ機種は、ネットワークサブドメインに属するスィッチの機種の情報 である。スィッチ管理 IPは、管理用に各スィッチに割り当てられた IPアドレスの情報で ある。
[0104] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したネットワークドメインに係る情報を受け付け、システムリソース DB26にその 情報を、以下に説明するネットワークドメインデータ 480として登録する。 [0105] 図 13は、ネットワークドメインに係る情報を記憶したネットワークドメインデータ 480 の一例を示す図である。このネットワークドメインデータ 480は、ネットワークドメイン名 、フロントネットワークサブドメイン名、接続方式、機器名、バックネットワークサブドメィ ン名および冗長化方式の情報を記憶して!/ヽる。
[0106] ネットワークドメイン名は、図 11で説明したネットワークドメインを識別する識別情報 である。フロントネットワークサブドメイン名は、図 11に示したように、ネットワークドメイ ンカ LB460a, 460bを境として 2つのネットワークサブドメインに分割された場合に 、インターネット 70に近 、方のネットワークサブドメインを識別する識別情報である。
[0107] 接続方式は、フロントネットワークサブドメインに属するスィッチ 430a, 430bなどの ネットワーク機器と、後に説明するバックネットワークサブドメインに属するスィッチ 45 Oa, 450bなどのネットワーク機器との間を接続する方式に係る情報である。たとえば 、この方式には、ロードバランサにより接続する方式や、ファイアウォールにより接続 する方式などがある。機器名は、ネットワーク機器を識別する識別情報である。
[0108] バックネットワークサブドメイン名は、図 11に示したように、ネットワークドメインが SL B460a, 460bを境として 2つのネットワークサブドメインに分割された場合に、インタ 一ネット 70に遠 、方のネットワークサブドメインを識別する識別情報である。冗長化 方式は、ネットワークドメインにお ヽてデータ通信経路が冗長化されて ヽる場合の冗 長化の方式を示す情報である。
[0109] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したネットワークサブドメインの接続機器に係る情報を受け付け、システムリ ソース DB26にその情報を、以下に説明する負荷分散装置データ 490として登録す る。ここで、ネットワークサブドメインの接続機器とは、図 11で説明した SLB460a, 46 Obなどの機器のことである。
[0110] 図 14は、負荷分散装置に係る情報を記憶した負荷分散装置データ 490の一例を 示す図である。この負荷分散装置データ 490は、負荷分散装置名、管理 IP、機種名 、 SNMPコミュニティ名および IDZパスワードの情報を記憶して 、る。
[0111] 負荷分散装置名は、ネットワークサブドメインの接続機器を識別する名称である。管 理 IPは、接続機器の管理用に各接続機器に割り当てられた IPアドレスの情報である o機種名は、接続機器の機種の識別情報である。
[0112] SNMP (Simple Network Management Protocol)コミュニティ名は、接続機器を管 理するドメイン管理サーバ 50, 60およびサイト管理サーバ 20と接続機器とが属する SNMPコミュニティを特定する情報である。 ID/パスワードは、接続機器にアクセス するために必要な IDおよびパスワードの情報である。
[0113] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したネットワークサブグループの情報を受け付け、システムリソース DB26にそ の情報を、以下に説明するネットワークサブグループデータ 660として登録する。
[0114] ここで、ネットワークサブグループとは、サーバドメインに属するサーバにサーバグ ループが設定されている場合に、異なるサーバドメインに属するサーバグループ間を 接続するネットワークを複数のネットワークに分割したものである。
[0115] 図 15は、ネットワークサブグループの構成例を説明する説明図である。図 15には、 Webドメイン 510に属するサーバ 520a— 520eと、 APドメイン 550に属するサーバ 5 60a— 560eとを接続するスィッチ 590, 610、および、 SLB600a, 600b力 S示されて いる。
[0116] ここで、サーノ 520aとサーノ 520bとは、「A— Web」サーバグループ 530を構成し、 サーノ 520cとサーノ 520dとは、「B— Web」サーバグループ 540を構成し、サーバ 56 0aとサーノ 560bとは、「A_AP」サーバグループ 570を構成し、サーバ 560cとサーバ 560dとは、「B_AP」サーバグループ 580を構成して!/、る。
[0117] そして、「A_Web」サーバグループ 530と SLB600aとを接続するネットワークが「
A_Web_BackJネットワークサブグループ 620を構成し、「B_Web」サーバグループ 540 と SLB600bとを接続するネットワークが「B_Web_Back」ネットワークサブグループ 630 を構成し、 SLB600aと「A_AP」サーバグループ 570とを接続するネットワークが「 A_AP_FrontJネットワークサブグループ 640を構成し、 SLB600bと「B_AP」サーバグ ループ 580とを接続するネットワークが「B_AP_Front」ネットワークサブグループ 650を 構成している。
[0118] また、図 16は、ネットワークサブグループに係る情報を記憶したネットワークサブグ ノレープデータ 660の一例を示す図である。このネットワークサブグノレープデータ 660 は、ネットワークサブグループ名、ネットワークサブドメイン名、サブネットおよび冗長 化用サブネットの情報を記憶して 、る。
[0119] ネットワークサブグループ名は、図 15で例を挙げて説明したようなネットワークサブ グループを識別する識別情報である。ネットワークサブドメイン名は、ネットワークサブ グループが属するネットワークサブドメインを識別する識別情報である。
[0120] サブネットは、ネットワークサブグループに割り当てられるネットワークアドレスおよび サブネットマスクの情報である。冗長化用サブネットは、ネットワークサブグループに 属するネットワークが複数のデータ通信回線を用いて冗長化される場合に、余分に 追加されたデータ通信回線力もなるネットワークに割り当てられるネットワークアドレス およびサブネットマスクの情報である。
[0121] その後、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバドメイン間の対応関係に係る情報を受け付け、システムリソース D B26にその情報を、以下に説明するサーバドメイン間リンクデータ 670として登録す る。
[0122] 図 17は、サーバドメイン間の対応関係に係る情報を記憶したサーバドメイン間リンク データ 670の一例を示す図である。このサーバドメイン間リンクデータ 670は、フロン トサーバドメイン名、ネットワークドメイン名およびバックサーバドメイン名の情報を記 '1思して V、る。
[0123] フロントサーバドメイン名は、図 11に示したようなネットワークドメインを挟むサーバド メインのうち、よりインターネット 70側にあるサーバドメインを識別する識別情報である
。ネットワークドメイン名は、図 11で説明したネットワークドメインの識別情報である。 ノ ックサーバドメイン名は、図 11に示したようなネットワークドメインを挟むサーバドメ インのうち、よりインターネット 70から遠い側にあるサーバドメインを示す情報である。
[0124] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバドメインとストレージドメインとの間の対応関係に係る情報を受け 付け、システムリソース DB26にその情報を、以下に説明するサーバ Ζストレージドメ イン間リンクデータ 680として登録する。
[0125] 図 18は、サーバドメインとストレージドメインとの間の対応関係に係る情報を記憶し たサーバ Zストレージドメイン間リンクデータ 680の一例を示す図である。このサーバ /ストレージドメイン間リンクデータ 680は、サーバドメイン名およびストレージドメイン 名の情報を記憶している。ここで、サーバドメイン名は、図 8に示したサーバドメイン名 と同様の情報である。ストレージドメイン名は、図 10に示したストレージドメイン名と同 様の情報である。
[0126] 図 3の説明に戻ると、システムリソースマネージャ 21は、管理対象となるサーバリソ ースおよびストレージリソースの登録をおこなう(ステップ S103)。以下に、ステップ S1 03でおこなわれる処理をさらに詳細に説明する。
[0127] まず、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て、サーバを登録する管理サブネットの選択をおこなった際、ユーザにより選択され た管理サブネットの情報を受け付ける。
[0128] さらに、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して入力した管理対象とするサーバの情報を運用管理クライアント 10から受け付け、 その情報をドメイン管理サーバ 50のドメインリソース DB55に、以下に説明するネット ワークブートサーバデータ 690として記憶する。ここで登録されたサーバは、後にネッ トワークブートがおこなわれ、サーバの各種情報が取得された後、サーバリソースとし て登録される。
[0129] 図 19は、ネットワークブートがなされるサーバの情報を記憶したネットワークブートサ ーバデータ 690の一例を示す図である。このネットワークブートサーバデータ 690は、 MACアドレス、 IPアドレスおよびホスト名の情報を記憶して 、る。
[0130] MACアドレスは、サーバの MACアドレスの情報である。 IPアドレスは、サーバに割 り当てられた IPアドレスの情報である。ホスト名は、サーバに割り当てられたホスト名の 情報である。
[0131] ここで、システムリソースマネージャ 21は、ネットワークブートをおこなうサーバのュ 一ザにより入力された MACアドレスの情報を受け付けた場合に、その MACアドレス に対応するサーバに、 IPアドレスとホスト名とを自動的に割り当てる。
[0132] そして、システムリソースマネージャ 21は、ドメイン管理サーバ 50のシステムリソース ドメインマネージャ 51と連携し、ドメイン管理サーバ 50のドメインリソース DB55に記 憶された仮の OSを用いて、 IPアドレスとホスト名とが割り当てられたサーバのネットヮ ークブートをおこなう。
[0133] そして、サーバサブ RM52、リソースマネージャエージェント 11 la、および、サーバ RMエージェント 112aが連携することにより、サーバのハードウェアに係る情報を収 集し、収集した情報をシステムリソースドメインマネージャ 51に送信する。
[0134] その後、システムリソースマネージャ 21は、システムリソースドメインマネージャ 51か らサーバのハードウェアに係る情報を取得して、システムリソース DB26にその情報を 、以下に説明する管理対象サーバデータ 700として記憶する。
[0135] また、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て、 SAN170を介して接続されるストレージ 160a— 160dからサーバを起動する SA Nブートをおこなうか否かの設定情報を入力した場合に、その設定情報を受け付け、 その設定情報を管理対象サーバデータ 700に登録する。
[0136] 図 20は、管理対象となるサーバのデータを記憶した管理対象サーバデータ 700の 一例を示す図である。この管理対象サーバデータ 700は、サーバ名、 IPアドレス、 M ACアドレス、サーバアーキテクチャ名、モデル名、 SANブートおよび状態の情報を 記憶している。
[0137] サーバ名は、管理対象となるサーバを識別する名称である。 IPアドレスは、サーバ に割り当てられた IPアドレスである。 MACアドレスは、サーバの MACアドレスである 。サーバアーキテクチャ名は、サーバの CPUアーキテクチャの識別情報である。モデ ル名は、サーバの型式を示す情報である。 SANブートは、 SAN170を介して接続さ れるストレージ 160a— 160dからサーバを起動する SANブートをおこなうか否かの設 定情報である。状態は、サーバに異常が発生している力否かを示す情報である。
[0138] なお、ここでは、ユーザが MACアドレスを指定してネットワークブートをおこなうサー バを選択することとして 、るが、サーバの選択を自動的におこなうようにしてもょ 、。 具体的には、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を 操作して、自動的に選択をおこなうサーバの台数に係る情報を設定した場合に、そ の設定情報を運用管理クライアント 10から受け付ける。
[0139] そして、システムリソースマネージャ 21は、設定された台数分のサーバを選択し、選 択したサーバの IPアドレスおよびホスト名の情報を、図 19に示したネットワークブート サーバデータ 690に登録する。
[0140] そして、システムリソースマネージャ 21は、ドメイン管理サーバ 50のシステムリソース ドメインマネージャ 51と連携し、ドメイン管理サーバ 50のドメインリソース DB55に記 憶された仮の OSを用いて、 IPアドレスとホスト名とが割り当てられたサーバのネットヮ ークブートをおこなう。
[0141] そして、サーバサブ RM52、リソースマネージャエージェント 11 la、および、サーバ RMエージェント 112aが連携することにより、各サーバの MACアドレス、サーバァー キテクチャ、モデル、状態の情報を収集し、収集した情報をシステムリソースドメインマ ネージャ 51に送信する。
[0142] その後、システムリソースマネージャ 21は、システムリソースドメインマネージャ 51か ら各サーバの MACアドレス、サーバアーキテクチャ、モデル、状態の情報を取得して 、その情報をシステムリソース DB26に管理対象サーバデータ 700として記憶する。
[0143] 続いて、システムリソースマネージャ 21は、管理対象となるストレージ機器の登録を おこなう。ここで、ストレージ機器とは、 FC (Fiber Channel)スィッチや RAID装置など の機器である。
[0144] 具体的には、システムリソースマネージャ 21は、管理対象として登録するストレージ の IPアドレスの情報が、図 6に示した管理サブネットごとにユーザにより入力された場 合に、その情報を運用管理クライアント 10から受け付ける。そして、システムリソース マネージャ 21は、 IPアドレスに対応するストレージ機器の情報をシステムリソース DB 26に記憶することによりストレージ機器を登録する。
[0145] その後、システムリソースマネージャ 21は、図 20の管理対象サーバデータ 700に 登録されたサーバをサーバドメインに追加する処理をおこなう。具体的には、システ ムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作してサーバとそ のサーバを追加するサーバドメインを指定した場合に、そのサーバおよびサーバドメ インの情報を運用管理クライアント 10から受け付ける。
[0146] そして、システムリソースマネージャ 21は、図 20に示した管理対象サーバデータ 70 0を参照し、サーバのサーバアーキテクチャが、図 8に示したサーバドメインデータ 34 0に登録されているサーバアーキテクチャと一致することをチェックする。
[0147] また、システムリソースマネージャ 21は、図 20に示した管理対象サーバデータ 700 を読み込み、サーバが SANブートをおこなうように設定されて!、ることをチェックする
[0148] さらに、システムリソースマネージャ 21は、サーバドメインに追加するサーバのネット ワークの結線状態をチェックする。具体的には、システムリソースマネージャ 21は、図 17に示したサーバドメイン間リンクデータ 670を読み込み、サーバドメインに対するフ ロントサーバドメインおよびバックサーバドメインの情報を取得する。
[0149] そして、システムリソースマネージャ 21は、図 13に示したネットワークドメインデータ 480を読み込み、ネットワークドメインに対応するフロントサブドメインおよびバックサ ブドメインの情報を取得する。
[0150] その後、システムリソースマネージャ 21は、図 12に示したネットワークサブドメインデ ータ 470を読み込み、フロントサブドメインおよびバックサブドメインに対応するスイツ チを特定する。
[0151] そして、システムリソースマネージャ 21は、ネットワーク RM24およびネットワークサ ブ RM54に対して、サーバとスィッチ間の結線をチェックするよう要求する。さらに、ネ ットワーク RM24およびネットワークサブ RM54は、ネットワーク RMエージェント 114a にサーバとスィッチとの間の結線をチェックするよう要求し、チェック結果を取得する。
[0152] そして、システムリソースマネージャ 21は、サーバとスィッチとの間の結線に問題が な 、場合、そのサーバに係る情報を図 9で説明したプールグループに対応付けて、 以下に説明するプロビジョユング構成データ 710としてシステムリソース DB26に記憶 する。
[0153] 図 21は、プールグループに属するサーバの情報を記憶したプロビジョユング構成 データ 710の一例を示す図である。このプロビジョユング構成データ 710は、サーバ 名、プーノレグノレープ名、サーバグノレープ名、ストレージサブグノレープ名、アクセス可 否の情報を記憶する。
[0154] サーバ名は、図 20で説明したサーバ名と同様の情報である。プールグループは、 図 9で説明したプールグループと同様の情報である。サーバグループ名は、同一の サーバドメインに含まれるサーバを 1つまたは複数のグループに分けた場合のグルー プの識別情報である。この段階では、サーバグループ名の情報はまだ登録されない
[0155] ストレージサブグループ名は、ストレージドメインに属するストレージを 1つまたは複 数のグループに分け、サーバグループに属する各サーバに割り当てた場合に、各サ ーバに割り当てたグループの識別情報である。この段階では、ストレージサブグルー プ名の情報はまだ登録されない。アクセス可否は、サーバによるストレージへのァク セスを許可するか否かを示す情報である。この段階では、アクセス可否の情報はまだ 登録されない。
[0156] プロビジョユング構成データ 710にサーバ名およびプールグループを登録した後、 システムリソースマネージャ 21は、先に登録したストレージ機器をストレージドメインに 登録する。
[0157] 具体的には、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を 操作して、ストレージドメインとストレージドメインに登録するストレージ機器とを指定し た場合に、それらの情報を運用管理クライアント 10から受け付ける。
[0158] そして、システムリソースマネージャ 21は、図 18に示したサーバ/ストレージドメイ ン間リンクデータ 680を読み込んで、ストレージドメインに対応するサーバドメインを特 定する。
[0159] さらに、システムリソースマネージャ 21は、ストレージ RM25およびストレージ RMェ ージェント 115aと連携して、特定されたサーバドメインに属するサーバと、ストレージ ドメインに属するストレージ機器との間の結線の均一性をチェックする。
[0160] 図 22は、結線状態が均一であるサーバとストレージ機器との結線の一例を示す図 である。図 22に示すように、この例では、ストレージドメイン 740に属する FCスィッチ 7 50a、および、サーバドメイン 720に属するサーバ 730a, 730b間の結線状態と、スト レージドメイン 740【こ属する FCスィッチ 750b、および、サーノ 730a, 730bf¾の結 線状態とが均一になっている。
[0161] また、 FCスィッチ 750a, 750b,および、ストレージドメイン 740に属する RAID装置 760a間の結線状態と、 FCスィッチ 750a, 750b,および、ストレージドメイン 740に 属する RAID装置 760b間の結線状態が均一になっている。
[0162] システムリソースマネージャ 21は、上記結線の均一性のチェックを WWPN (World Wide Port Name)の情報を基にしておこなう。その際、システムリソースマネージャ 2 1は、図 10に示したストレージドメインデータ 360からストレージドメインのパスの多重 度の情報を読み込み、冗長度のチェックも併せておこなう。図 23は、 WWPNに基づ く結線の均一性チ ック処理を説明する図である。
[0163] 図 23には、図 22〖こ示した RAID装置 760a, 760bが記憶している RAID装置 WW PNデータ 770a, 770bと、 FCスィッチ 750a, 750b力記'隐して!/、る FCスィッチ WW PNデータ 780a, 780bと、サーノ 730a, 730b力記'隐して!/ヽるサーノ WWPNデー タ 790a, 790bと力示されて! /、る。
[0164] RAID装置 WWPNデータ 770a, 770bは、 CA (Channel Adapter)および WWPN の情報を記憶している。 CAは、 RAID装置 760a, 760bが有するチャネルアダプタ の識別情報である。 WWPNは、 RAID装置 760a, 760bが有するチャネルアダプタ に割り当てられて!/、る WWPNの情報である。
[0165] FCスィッチ WWPNデータ 780a, 780bは、 portおよび相手先 WWPNの情報を記 憶している。 portは、 FCスィッチ 750a, 750bのポートの識別情報である。相手先 W WPNiま、 FCスィッチ 750a, 750bのポー卜【こ接続されて!ヽる RAID装置 760a, 760 bのチャネルアダプタに割り当てられている WWPNの情報、または、 FCスィッチ 750 a, 750bのポート【こ接続されて!/、るサーノ 730a, 730bの HBA (Host Bus Adapter )に割り当てられた WWPNの情報である。
[0166] サーバ WWPNデータ 790a, 790bは、 HBAおよび WWPNの情報を記憶している 。 HBAは、サーバ 730a, 730bが有する HBAの識別情報である。 WWPNは、サー ノ 730a, 730bが有する HBAに割り当てられている WWPNの情報である。
[0167] システムリソースマネージャ 21は、 RAID装置 WWPNデータ 770a, 770b、 FCスィ ツチ WWPNデータ 780a, 780b,および、サーノ WWPNデータ 790a, 790bを RA ID装置 760a, 760b, FCスィッチ 750a, 750b,および、サーノ 730a, 730b力ら収 集し、 WWPNの対応関係を調べることにより、各装置間の結線状態の均一性をチヱ ックすることができる。 [0168] その後、システムリソースマネージャ 21は、あらかじめ設定されている LUN (Logical Unit)の記憶領域と、 LUNが未設定の記憶領域とをプール用のストレージとして登 録する。
[0169] 続いて、システムリソースマネージャ 21は、サーバグループの作成処理をおこなう( ステップ S104)。以下に、ステップ S104でおこなわれる処理をさらに詳細に説明す る。
[0170] まず、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て設定したストレージテンプレートに係る情報を受け付け、システムリソース DB26に その情報を、以下に説明するストレージテンプレートデータ 800として登録する。ここ で、ストレージテンプレートとは、後に作成されるサーバグループ用のストレージの構 成に係る設定情報である。
[0171] 図 24は、ストレージテンプレートに係るデータを記憶したストレージテンプレートデ ータ 800の一例を示す図である。このストレージテンプレートデータ 800は、ストレー ジテンプレート名、ディスク種別、ディスク名、信頼性の必要度、負荷の度合い、ディ スク容量およびブートディスクの情報を記憶している。
[0172] ストレージテンプレート名は、設定されたストレージテンプレートを識別する識別情 報である。ディスク種別は、ストレージテンプレートに属するディスクの用途の種別を 示す情報である。
[0173] たとえば、「root」は、そのディスクがシステムデータを記憶するために利用されること を示し、「local」は、そのディスクがサーバ個別のデータを記憶するために利用される ことを示し、「shared」は、そのディスクがサーバ間で共有されるデータを記憶するため に利用されることを示す。
[0174] ディスク名は、各ディスクに割り当てられたディスクを識別する名称である。信頼性 の必要度は、ディスクに必要とされる信頼性の情報である。負荷の度合いは、デイス クにかかる負荷の度合いの情報である。ディスク容量は、ディスクの記憶容量である。 ブートディスクは、そのディスクがシステムのブート用に利用されるものか否かを示す 情報である。
[0175] 続いて、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバグループの情報を受け付け、システムリソース DB26にその情報 を、以下に説明するサーバグループデータ 810として記憶する。
[0176] 図 25は、サーバグループに係る情報を記憶したサーバグループデータ 810の一例 を示す図である。このサーバグループデータ 810は、サーバグループ名、サーバドメ イン名、ソフトウェア配布イメージ名、版数、ストレージテンプレート名、 SANブートお よび自動リカバリの情報を記憶して!/、る。
[0177] サーバグループ名は、同一のサーバドメインに含まれるサーバを 1つまたは複数の グループに分けた場合のグループの識別情報である。サーバドメイン名は、サーバグ ループが属するサーバドメインの識別情報である。ソフトウェア配布イメージ名は、サ 一バグループに属するサーバに配布するソフトウェアのイメージファイルを識別する 情報である。
[0178] 版数は、ソフトウェア配布イメージの版数の情報である。ストレージテンプレート名は 、図 24で説明したストレージテンプレート名と同様の情報である。 SANブートは、サ 一バグループに属するサーバの SANブートをおこなうか否かを示す情報である。 自 動リカバリは、複数のサーバが連携して動作するスケールアウト構成のサーバが故障 した場合に、自動的にサーバを追加する処理を実行する力否かを示す情報である。
[0179] その後、システムリソースマネージャ 21は、システムリソース DB26に、サーバグノレ ープに対応するストレージグループの情報を、以下に説明するサーバ Zストレージグ ループリンクデータ 820として登録する。ここで、ストレージグループとは、同一のスト レージドメインに含まれるストレージを 1つまたは複数のグループに分けたものである
[0180] 図 26は、サーバグループに対応するストレージグループの情報を記憶したサーバ Zストレージグループリンクデータ 820の一例を示す図である。このサーバ Zストレー ジグループリンクデータ 820は、サーバグループ名、ストレージグループ名およびスト レージドメイン名の情報を記憶して 、る。
[0181] サーバグループ名は、図 25に示したサーバグループ名と同様の情報である。ストレ ージグループ名は、各サーバグループに対応して生成されたストレージグループの 識別情報である。ストレージドメイン名は、ストレージグループが属するストレージドメ インの識另 IJ†青報である。
[0182] ストレージグループを生成する際には、システムリソースマネージャ 21は、図 25に 示したサーバグループデータ 810から、サーバグループに対応付けられたストレージ テンプレートの情報を読み込み、図 24に示したストレージテンプレートデータ 800か らストレージテンプレートに対応するディスク種別の情報を読み込む。
[0183] そして、システムリソースマネージャ 21は、「root」や「local」、「shared」などのディスク 種別ごとに、ストレージグループを各サーバグループに対して生成し、その情報をサ ーバ Zストレージグループリンクデータ 820に登録する。
[0184] さらに、システムリソースマネージャ 21は、図 18に示したサーバ Zストレージドメイン 間リンクデータから、サーバグループが属するサーバドメインに対応するストレージド メインの情報を読み込み、その情報をサーバ Zストレージグループリンクデータ 820 に登録する。
[0185] その後、システムリソースマネージャ 21は、サーバグループを追加したことを AP管 理部 116aに認識させるコマンドを AP管理部 116aに送信する。具体的には、システ ムリソースマネージャ 21は、図 7に示した「issvgrp &(1(1」を八?管理部116&に送信す る。
[0186] 続いて、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作 して設定したサーバグループ間の対応関係の情報を受け付け、システムリソース DB 26にその情報を、以下に説明するサーバグループ間リンクデータ 830として登録す る。
[0187] 図 27は、サーバグループ間の対応関係に係る情報を記憶したサーバグループ間リ ンクデータ 830の一例を示す図である。このサーバグループ間リンクデータ 830は、 フロントサーバグループ名、ネットワークグノレープ名およびバックサーバグループ名 の情報を記憶している。
[0188] フロントサーバグループ名は、ネットワークグループにより連結されるサーバグルー プのうち、よりインターネット 70側にあるサーバグループを識別する識別情報である。 ここで、ネットワークグループとは、サーバグループ間を連結するよう図 15で説明した ネットワークサブグループを結合したネットワークのグループである。 [0189] ネットワークグループ名は、上記ネットワークグループを識別する識別情報である。 バックサーバグループ名は、ネットワークグループにより連結されるサーバグループ のうち、インターネット 70から遠 、側にあるサーバグループを識別する識別情報であ る。
[0190] その後、システムリソースマネージャ 21は、システムリソース DB26に、ネットワーク グループに係る情報を、以下に説明するネットワークグループデータ 850として記憶 する。
[0191] 具体的には、システムリソースマネージャ 21は、まず、図 17に示したサーバドメイン 間リンクデータ 670を読み込み、 2つのサーバドメインに挟まれて設定されているネッ トワークドメインの情報を取得する。
[0192] そして、システムリソースマネージャ 21は、図 13に示したネットワークドメインデータ
480を読み込み、ネットワークドメインに対応するフロントサブドメイン、バックサブドメ インおよび機器の情報を取得する。
[0193] さらに、システムリソースマネージャ 21は、図 16に示したネットワークサブグループ データ 660を読み込み、フロントサブドメイン、および、ノ ックサブドメインに対応する ネットワークサブドメインをネットワークサブグループデータ 660から検索し、検索した ネットワークサブドメインに対応するネットワークサブグループのうち、未使用のネット ワークサブグループを抽出する。
[0194] 続いて、システムリソースマネージャ 21は、図 13に示したネットワークドメインデータ
480から読み込んだ機器の情報に該当するネットワーク機器を 1つまたは複数のダル ープに分けて、システムリソース DB26にその情報を、以下に説明する負荷分散ダル ープデータ 840として記憶する。
[0195] 図 28は、負荷分散装置のグループ情報を記憶した負荷分散グループデータ 840 の一例を示す図である。この負荷分散グループデータ 840は、負荷分散グループ名
、ロードバランサ名および代表 IPの情報を記憶して 、る。
[0196] 負荷分散グループ名は、ロードバランサを 1つまたは複数のグループに分けた場合 のグループを識別する情報である。ロードバランサ名は、ロードバランサを識別する 名称である。代表 IPは、各負荷分散グループに割り当てられた IPアドレスの情報で ある。
[0197] その後、システムリソースマネージャ 21は、上記各ネットワークグループに属するネ ットワークドメインやネットワークサブグループ、負荷分散グループなどの対応関係の 情報に基づいて、システムリソース DB26にその情報を、以下に説明するネットワーク グループデータ 850として記憶する。
[0198] 図 29は、ネットワークグループに係る情報を記憶したネットワークグループデータ 8 50の一例を示す図である。このネットワークグループデータ 850は、ネットワークグル ープ名、ネットワークドメイン名、フロントネットワークサブグループ名、負荷分散ダル ープ名およびバックネットワークサブグループ名の情報を記憶して 、る。
[0199] ネットワークグループ名は、図 27で説明したネットワークグループと同様の情報であ る。ネットワークドメイン名は、図 17で説明したネットワークドメインと同様の情報である
[0200] フロントネットワークサブグループ名は、図 16で説明したネットワークサブグループ 名に対応するものであり、負荷分散グループを挟むネットワークサブグループのうち、 よりインターネット 70側にあるネットワークサブグループを識別する識別情報である。
[0201] 負荷分散グループ名は、図 28で説明した負荷分散グループ名と同様の情報であ る。バックネットワークサブグループ名は、図 16で説明したネットワークサブグループ 名に対応するものであり、負荷分散グループを挟むネットワークサブグループのうち、 よりインターネット 70から遠い側にあるネットワークサブグループを識別する識別情報 である。
[0202] さらに、システムリソースマネージャ 21は、ネットワーク RM24およびネットワークサ ブ RM54と連携し、図 12のネットワークサブドメインデータ 470に登録されたスィッチ に対して、ネットワークサブグループの VLANの設定をおこなう。
[0203] 続いて、システムリソースマネージャ 21は、サーバグループに一台目のサーバを追 カロして、そのサーバに導入されたソフトウェアのソフトウェアイメージを作成する処理を おこなう(ステップ S105)。以下に、ステップ S105でおこなわれる処理をさらに詳細 に説明する。
[0204] まず、システムリソースマネージャ 21は、ユーザが運用管理クライアント 10を操作し て、サーバとそのサーバを登録するサーバグループを指定した場合に、サーバおよ びサーバグループの情報を受け付け、サーバグループにサーバを登録する。
[0205] そして、システムリソースマネージャ 21は、図 25のサーバグループデータ 810を読 み込んでサーバグループに対応するストレージテンプレートを検索し、そのストレージ テンプレートの設定条件を図 24のストレージテンプレートデータ 800から取得する。
[0206] さらに、ストレージ RM25は、システムリソースマネージャ 21により取得されたストレ ージテンプレートの設定条件を満足するようプールされたストレージに論理ボリューム を設定し、論理ボリュームが設定されたストレージを上記サーバグループに割り当て る処理をおこなう。
[0207] 図 30は、論理ボリュームを RAID装置に設定する設定処理の処理手順を示すフロ 一チャートである。図 30に示すように、まず、システムリソースマネージャ 21は、論理 ボリュームの必要条件の情報を取得する (ステップ S 201)。ここで、論理ボリュームの 必要条件とは、図 24のストレージテンプレートデータ 800に記憶された信頼性の必 要度、負荷の度合い、および、ディスク容量の情報である。
[0208] 図 31は、論理ボリュームの設定画面の一例を示す図である。図 31には、システムリ ソースマネージャ 21が、運用管理クライアント 10に対して出力する論理ボリュームの 必要条件を表示した必要条件出力画面 860と、論理ボリューム設定後の論理ボリュ ーム構成出力画面 880とが示されて 、る。
[0209] 図 31の例では、 3つの必要条件を満足する 3つの論理ボリュームを作成するよう要 求された場合が示されている。そして、必要条件出力画面 860には、 3つの必要条件 870a— 870c力出力される。
[0210] 図 30の説明に戻ると、システムリソースマネージャ 21は、信頼性の必要度および負 荷の度合いに応じて、 RAID装置の RAIDレベルを決定する(ステップ S 202)。図 32 は、 RAIDレベルの設定情報を記憶した RAIDレベル設定データ 940の一例を示す 図である。
[0211] この RAIDレベル設定データ 940は、信頼性の必要度、負荷の度合いおよび RAI Dレベルの情報を記憶している。信頼性の必要度は、図 24で説明した信頼性の必要 度と同様の情報である。負荷の度合いは、図 24で説明した負荷の度合いと同様の情 報である。 RAIDレベルは、信頼性の必要度および負荷の度合いにより決定される R
AIDレべノレの†青報である。
[0212] 図 30の説明に戻ると、システムリソースマネージャ 21は、必要とされるディスク容量 の合計値から、 RAID装置種を決定する (ステップ S 203)。図 33は、 RAID装置に係 る情報を記憶した RAID装置データ 950の一例を示す図である。
[0213] この RAID装置データ 950は、必要な記憶容量合計値、 RAID装置の型名、デー タアクセススピード、 RAIDグループを構成するディスクドライブ数 (RAID0+ 1の場 合)、 RAIDグループを構成するディスクドライブ数 (RAID5の場合)および RAIDグ ループの最大数の情報を記憶して 、る。
[0214] 必要な記憶容量合計値は、論理ボリュームに必要とされるディスク容量の合計値の 情報である。 RAID装置の型名は、必要な記憶容量合計値を確保するのに適した R
AID装置の型名の情報である。
[0215] データアクセススピードは、 RAID装置の型名により特定されるディスクドライブのデ ータのアクセススピードの情報である。このデータアクセススピードには、アクセススピ ードが速い順に、「一番目」、「二番目」、「三番目」の 3つのディスクドライブ種の情報 が記憶されている。
[0216] RAIDグループを構成するディスクドライブ数 (RAID0+ 1の場合)は、 RAIDレべ ルが RAID0+ 1の場合において、 RAIDグループを構成するディスクドライブの数の 情報である。 RAIDグループを構成するディスクドライブ数 (RAID5の場合)は、 RAI Dレベルが RAID5の場合にお!、て、 RAIDグループを構成するディスクドライブの数 の情報である。 RAIDグループの最大数は、作成する RAIDグループの最大数の情 報である。
[0217] 図 30の説明に戻ると、システムリソースマネージャ 21は、図 33で説明した RAID装 置データ 950から、 RAID装置種ごとの特有情報を取得する (ステップ S 204)。
[0218] ここで、特有情報とは、データアクセススピードのうち、「一番目」に該当するディスク ドライブ種、 RAIDグループを構成するディスクドライブ数 (RAID0+ 1の場合)、 RAI Dグループを構成するディスクドライブ数 (RAID5の場合)および RAIDグループの 最大数の情報である。 [0219] そして、ストレージ RM25は、論理ボリュームを作成する(ステップ S 205)。具体的 には、ストレージ RM25は、論理ボリュームの各必要条件を満足する論理ボリューム を作成し、 RAID装置に論理ボリュームを設定する。
[0220] 図 31に示した論理ボリューム構成出力画面 880には、各必要条件 900a— 900cを 満足する!^理ボリューム 910a— 910d, 920a— 920e力 RAID装置 890に設定さ れた状況が示されている。
[0221] 図 30の説明に戻ると、ストレージ RM25は、 RAIDレベルが同一である論理ボリュ ームをグループ化した RAIDグループを作成する(ステップ S206)。そして、ストレー ジ RM25は、作成した RAIDグループに論理ボリュームを割り当てる(ステップ S207
) o
[0222] 図 31の例では、必要条件 900aおよび必要条件 900bを満足する論理ボリューム 9 10a— 910dは、 RAIDレベルが RAID0+ 1で同じであるので、 RAIDグループ 930 aにグループィ匕されている。また、必要条件 900cを満足する論理ボリューム 920a— 920eは、 RAIDレベルが RAID5であるので、 RAIDグループ 930bとしてグループ 化されている。
[0223] RAIDグループを作成する際には、ストレージ RM25は、各 RAIDグループに属す るディスクドライブを、図 33の RAID装置データ 950のデータアクセススピードにより 決定されるディスクドライブ種に設定する。
[0224] また、ストレージ RM25は、 RAIDグループを構成するディスクドライブ数を、図 33 の RAID装置データ 950の RAIDグループを構成するディスクドライブ数 (RAID0 + 1の場合)、または、 RAIDグループを構成するディスクドライブ数 (RAID5の場合)に より決定されるディスクドライブ数に設定する。
[0225] さらに、ストレージ RM25は、 RAIDグループの数が図 33の RAID装置データ 950 の RAIDグループの最大数以下になるよう RAIDグループを作成する。
[0226] 図 31の論理ボリューム構成出力画面 880では、必要条件 900a— 900cを満足し、 各 RAIDグループ 930a, 930bに割り当てられた論理ボリューム 910a— 910d, 920 a— 920eが、対応する必要条件 900a— 900cと線で結合されて表示されて 、る。
[0227] 図 30の説明に戻ると、ストレージ RM25は、図 31に示した論理ボリュームの構成を RAID装置に反映させるコマンドファイルを作成する(ステップ S208)。そして、ストレ ージ RM25は、そのコマンドファイルに基づいて、作成した論理ボリュームを実装置 に反映させる (ステップ S 209)。
[0228] その後、システムリソースマネージャ 21は、各サーバが属するサーバグループに対 応付けて、 RAID装置に設定された論理ボリュームをストレージサブグループとして 登録し、サーバのストレージグループに対するアクセス権を設定する。具体的には、 システムリソースマネージャ 21は、図 21に示したプロビジョユング構成データ 710に サーバグループ名、ストレージサブグループ名およびアクセス可否の情報を記憶す る。
[0229] 図 34は、ストレージサブグループが設定されたプロビジョユング構成データ 960の 一例を示す図である。このプロビジョユング構成データ 960には、図 21に示したプロ ビジョユング構成データ 710にサーバグループ名、ストレージサブグループ名および アクセス可否の情報が追加されて 、る。
[0230] RAID装置に構築された論理ボリュームをサーバに認識させ、ストレージサブダル ープとして登録する場合には、ストレージ RM25は、以下のような手順で論理ボリユー ムの設定をおこなう。
[0231] 図 35は、サーバに論理ボリュームを認識させる論理ボリュームの設定処理の処理 手順を示すフローチャートである。図 35に示すように、まず、ストレージ RM25は、 R AID装置の論理ボリュームをグループィ匕し、ァフィ-ティグループを設定する (ステツ プ S301)。
[0232] ここで、ァフィ-ティグループとは、サーバが認識する論理ユニット番号 (LUN, Logical Unit Number)と RAID装置における論理ボリューム(LV, Logical Volume)番号との間の対応関係を示す情報である。
[0233] 図 36は、 RAID装置に構築された論理ボリュームの設定処理を説明する説明図で ある。図 36には、サーノ 「A」およびサーバ「B」から構成されるサーバグループ 970と 、論理ボリューム「LV0」、「LV1」、「LV2」、「LV3」が構築された RAID装置「 α」、およ び、論理ボリューム「LV10」、「LV11」、「LV12」、「LV13」が構築された RAID装置「 j8 」力も構成されるストレージプール 980とが示されて!/、る。 [0234] さらに、図 36には、ストレージプール 980から RAID装置「α」の論理ボリューム「
LV0Jおよび「LV1」と、 RAID装置「 β」の論理ボリューム「LV12」および「LV13」とが追 加されたストレージグループ 990が示されている。
[0235] ストレージグループ 990に追加された RAID装置「 α」の論理ボリューム「LV0」およ び「LV1」は、ァフィ-ティグループ「AG0」およびァフィ-ティグループ「AG1」に属す るように設定されて 、る。また、 RAID装置「 β」の論理ボリューム「LV12」および「 LV13Jは、ァフィ-ティグループ「AG10」およびァフィ-ティグループ「AG11」に属す るように設定されている。
[0236] 図 37は、ァフィ-ティグループに係る情報を記憶したァフィ-ティグループデータ 1 010である。このァフィ二ティグループデータ 1010は、 RAID装置名、ァフィ-ティグ ループ名、 LUNおよび LVの情報を記憶して!/、る。
[0237] RAID装置名は、各 RAID装置を識別する識別情報である。ァフィ-ティグループ 名は、各 RAID装置において設定されたァフィ-ティグループの識別情報である。 L UNは、サーバ Aまたはサーバ B力 アクセスする際に論理ボリュームを識別する識 別情報である。 LVは、論理ボリュームを識別する識別情報である。
[0238] 図 35の説明に戻ると、ストレージ RM25は、サーノ 「A」およびサーノ 「B」と、論理ボ リューム「LV0」, 「LV1」, 「LV12」, 「LV13」との間の冗長パスをチェックし、パスを選択 することによりアクセスパスを設定する (ステップ S302)。
[0239] そして、ストレージ RM25は、論理ユニットに対するマルチパスの設定をおこなう(ス テツプ S303)。図 38は、マルチパスの構成に係る情報を記憶したマルチパス構成デ ータ 1020の一例を示す図である。
[0240] このマルチパス構成データ 1020は、マルチパスインスタンス名および LUNの情報 を記憶している。マルチパスインスタンス名は、設定されたマルチパスのインスタンス を識別する情報である。 LUNは、設定されたマルチパスインスタンスに対応し、サー バ「A」またはサーバ「B」により認識される論理ユニットを識別する情報である。
[0241] そして、ストレージ RM25は、設定したマルチパスインスタンスをミラーボリュームの 構成要素としてクラスタリングをおこなうサーバのクラスタリソースに登録する (ステップ S304)。その後、ストレージ RM25は、クラスタリソースに登録されたマルチパスイン スタンスを用いて異なる RAID装置のボリュームどうしをペアとするミラーボリュームグ ループを設定する (ステップ S 305)。
[0242] 図 36には、サーノ 「A」またはサーノ 「B」において内部設定されるサーバ内ストレー ジ構成 1000が示されている。このストレージ構成 1000においては、マルチパスイン スタンス rmplbOjおよびマルチパスインスタンス「mplb2」とから構成されるミラーボリュ ーム「M0」と、マノレチノ スインスタンス「mplbl」およびマノレチノ スインスタンス「mplb3」 とから構成されるミラーボリューム「M1」とが設定されて!、る。
[0243] 図 39は、ミラーボリュームの構成に係る情報を記憶したミラーボリューム構成データ 1030である。このミラーボリューム構成データ 1030は、ミラーボリュームおよび構成
Figure imgf000046_0001
、る。
[0244] ミラーボリュームは、設定されたミラーボリュームを識別する識別情報である。構成 ディスクは、ミラーボリュームを構成する論理ユニットを識別する識別情報である。ここ で、構成ディスクには、図 38に示したマルチパス構成データ 1020におけるマルチパ スインスタンスの情報が記憶されている力、マルチノ ス構成データ 1020を参照する ことにより、ミラーボリュームに対応する LUNを特定することができる。
[0245] 図 37に示したァフィ-ティグループデータ 1010は、ストレージ RM25によりシステ ムリソース DB26および RAID装置内に記憶される。また、図 38に示したマルチパス 構成データ 1020、および、図 39に示したミラーボリューム構成データ 1030は、ストレ ージ RM25によりシステムリソース DB26に記憶されるとともに、ストレージ RMエージ ェント 115aにより管理対象であるサーバ内に記憶される。
[0246] 図 3に示すステップ S105におけるソフトウェアイメージの作成処理の説明に戻ると、 ネットワーク RM24は、サーバグループに登録したサーバのネットワークの設定をつ ぎにおこなう。
[0247] 具体的には、ネットワーク RM24は、図 27に示したサーバグループ間リンクデータ 8 30力ら、サーバを追加したサーバグループをフロントサーバグループおよびバックサ 一バグループとして有するネットワークグループの情報を読み込む。
[0248] さらに、ネットワーク RM24は、図 29に示したネットワークグループデータ 850を読 み込み、ネットワークグループに対応するフロントネットワークサブグループおよびバ ックネットワークサブグループを抽出する。
[0249] その後、ネットワーク RM24は、図 16に示したネットワークサブグループデータ 660 を読み込み、フロントネットワークサブグループおよびバックネットワークサブグループ に対応するネットワークサブグループを検索し、ネットワークサブグループに割り当て られたサブネットの情報を基にして、サーバに IPアドレスを割り当てる。
[0250] 図 40は、サーバに割り当てられた IPアドレスに係る情報を記憶した IPアドレス管理 データ 1040の一例を示す図である。この IPアドレス管理データ 1040は、システムリ ソースマネージャ 21により、システムリソース DB26に記憶される。
[0251] この IPアドレス管理データ 1040は、 IPアドレスおよび割当先の情報を記憶している 。 IPアドレスは、サーバに割り当てられた IPアドレスの情報である。割当先は、 IPアド レスの割当先であるサーバを識別する情報である。
[0252] 続いて、ネットワーク RM24は、図 28に示した負荷分散グループデータ 840および 図 29に示したネットワークグループデータ 850を基にして、サーバが追加されたサー バグループに対応するネットワークグループに代表 IPアドレスを有する負荷分散ダル ープを割り当てる。なお、この時点では、ロードバランサの負荷分散機能は停止状態 にある。
[0253] その後、ユーザは、サーバに導入する OSなどのソフトウェアを、サーバグループに 追加するサーバに対応付けられたストレージサブグループにインストールする。この ストレージサブグループは、 SANの技術を用いて構成されたものである。
[0254] そして、インストールの終了後、ソフトウェアサブ RM53は、ソフトウェア RM23およ びソフトウェア RMエージェント 113aと連携して、 OS、デバイスドライノく、アプリケーシ ヨンソフトウェアなどのソフトウェアの集合体力 構成されるソフトウェアイメージを作成 し、作成したソフトウェアイメージをドメインリソース DB55に記憶する。
[0255] 具体的には、ソフトウェア RM23は、図 7に示したミドルウェア連携 IFデータ 330を 読み込み、ソフトウェア RMエージェント 113aは、ミドルウェアにより実現される機能部 である AP管理部 116aに対して、ソフトウェアイメージ採取前に実行が必要なコマンド を送信する。
[0256] すなわち、ソフトウェア RMエージェント 113aは、 AP管理部 116aの機能を停止さ せるコマンドを送信し、 AP管理部 116aの機能を停止させる。そして、ソフトウェアサ ブ RM53は、サーバのシステムをシャットダウンする。さら〖こ、ソフトウェアサブ RM53 は、サーバのドメイン管理サーバ 50のドメインリソース DB55に記憶された仮の OSを 用いてサーバのネットワークブートをおこなう。
[0257] その後、ソフトウェアサブ RM53は、起動したサーバに導入されているソフトウェアの ソフトウェアイメージを作成する。そして、ソフトウェア RM23は、システムリソース DB2 6にソフトウェアイメージに係る情報を、以下に説明するソフトウェアイメージ管理デー タ 1050として登録する。
[0258] 図 41は、ソフトウェアイメージに係る情報を記憶したソフトウェアイメージ管理データ 1050の一例を示す図である。このソフトウェアイメージ管理データ 1050は、ソフトゥ エアイメージ名、形式、 OS属性およびソフトウェア名の情報を記憶している。
[0259] ソフトウェアイメージ名は、ソフトウェアイメージの名称である。形式は、ソフトウェアィ メージがアーカイブ形式で作成されたものであるの力 パッチ形式で作成されたもの であるのかを示す情報である。 OS属性は、ソフトウェアイメージ力 OSのソフトウェア イメージである力否かを示す情報である。ソフトウェア名は、ソフトウェアイメージが作 成されたソフトウェアの名称である。
[0260] さらに、ソフトウェアサブ RM53は、作成したソフトウェアイメージを基にして、他のサ ーバ用に配布するソフトウェア配布イメージを作成する。具体的には、ソフトウェアサ ブ RM53は、一台目のサーバ用にストレージに導入された複数のソフトウェアのソフト ウェアイメージを組にしたソフトウェア配布イメージを作成する。
[0261] そして、システムリソースマネージャ 21は、システムリソース DB26にソフトウェア配 布イメージに係る情報を、以下に説明するソフトウェア配布イメージ管理データ 1060 として記憶する。
[0262] 図 42は、ソフトウェア配布イメージに係る情報を記憶したソフトウェア配布イメージ管 理データ 1060の一例を示す図である。このソフトウェア配布イメージ管理データ 106 0は、ソフトウェア配布イメージ名、版数、サーバアーキテクチャ名およびソフトウェア イメージ Zスナップショット名の情報を記憶して!、る。
[0263] ソフトウェア配布イメージ名は、ソフトウェア配布イメージの名称である。版数は、ソフ トウエア配布イメージの版数である。サーバアーキテクチャ名は、ソフトウェア配布ィメ ージの配布対象となるサーバの CPUアーキテクチャを識別する識別情報である。ソ フトウェアイメージ Zスナップショット名は、ソフトウェア配布イメージに含まれるソフトゥ エアイメージまたはスナップショットを識別する識別情報である。
[0264] ここでスナップショットとは、ある特定の時点でサーバに導入されているソフトウェア のソフトウェアイメージである。システムリソースマネージャ 21は、システムリソース DB 26にスナップショットに係る情報を、以下に説明するスナップショット管理データ 107 0として登録する。
[0265] 図 43は、スナップショットに係る情報を記憶したスナップショット管理データ 1070の 一例を示す図である。このスナップショット管理データ 1070は、スナップショット名お よびソフトウェアイメージ名の情報を記憶している。スナップショット名は、スナップショ ットの名称である。ソフトウェアイメージ名は、スナップショットに含まれるソフトウェアィ メージを識別する識別情報である。
[0266] その後、ソフトウェア RM23は、図 7に示したミドルウェア連携 IFデータ 330を読み 込み、ソフトウェア RMエージェント 113aは、ミドルウェアにより実現される機能部であ る AP管理部 116aに対して、ソフトウェアイメージ採取後に実行が必要なコマンドを送 信する。
[0267] 具体的には、ソフトウェア RMエージェント 113aは、停止していた AP管理部 116a を始動させるコマンドを送信し、 AP管理部 116aを始動させる。そして、ネットワーク!^ M24は、スィッチに VLANの設定をおこなってサーバを VL ANに接続するとともに、 ロードバランサの負荷分散機能を始動させ、負荷を分散させる対象サーバとして当 該サーバを割り当てる。
[0268] その後、システムリソースマネージャ 21は、図 7に示したミドルウェア連携 IFデータ 3 30を読み込み、ミドルゥヱァにより実現される機能部である AP管理統括部 27に対し て、サーバグループ作成後に実行が必要なコマンドを送信する。
[0269] 具体的には、システムリソースマネージャ 21は AP管理統括部 27に対して、サーバ グループの追加を認識させるコマンドを送信する。そして、 AP管理統括部 27は、 AP 管理部 116aと連携して、サーバに対してアプリケーションプログラムの導入および設 定などをおこない、サーバを業務で利用可能な状態に設定する。
[0270] 図 3の説明に戻ると、システムリソースマネージャ 21は、二台目以降のサーバをサ 一バグループに追加する処理をおこなう(ステップ S106)。以下に、ステップ S106で おこなわれる処理をさらに詳細に説明する。
[0271] 図 44は、サーバをサーバグループに追加する処理の処理手順を示すフローチヤ ートである。図 44に示すように、まず、システムリソースマネージャ 21は、ユーザが運 用管理クライアント 10を操作して、サーバとそのサーバを登録するサーバグループを 指定した場合に、サーバおよびサーバグループの情報を受け付ける (ステップ S401
) o
[0272] そして、システムリソースマネージャ 21は、サーバグループにサーバを登録する(ス テツプ S402)。続いて、システムリソースマネージャ 21は、図 20に示した管理対象サ ーバデータ 700および図 42に示したソフトウェア配布イメージ管理データ 1060を読 み込んで、サーバのサーバアーキテクチャがソフトウェアイメージを導入可能なものか 否かを調べる(ステップ S403)。サーバのサーバアーキテクチャがソフトウェアィメー ジを導入可能なものでない場合には (ステップ S403, No)、当該サーバのサーバグ ループへの追加処理を終了する。
[0273] サーバのサーバアーキテクチャがソフトウェアイメージを導入可能なものである場合 には(ステップ S403, Yes)、ストレージ RM25は、一台目のサーバにストレージを設 定した場合と同様の方法で、サーバに対してストレージを設定する処理をおこなう(ス テツプ S404)。具体的には、ストレージ RM25は、図 30および図 35で説明した論理 ボリュームの設定処理を当該サーバに対して実行する。
[0274] 続いて、ネットワーク RM24は、一台目のサーバにネットワークを設定した場合と同 様の方法で、サーバグループに登録したサーバのネットワークブートを仮の OSを用 いておこない、サーバのネットワークの設定をおこなう(ステップ S405)。
[0275] その後、ソフトウェアサブ RM53は、一台目のサーバに導入されたソフトウェアから 作成されたソフトウェア配布イメージを二台目のサーバに対応付けられたストレージ サブグループに展開し、展開されたソフトウェアを用いてサーバを再起動させる (ステ ップ S406)。 [0276] ソフトウェア配布イメージをサーバに対応付けられたストレージサブグループに展開 した場合には、ソフトウェア RM23は、システムリソース DB26に、配布したソフトウェア 配布イメージに係る情報を記憶する。
[0277] 図 45は、ソフトウェア配布イメージの配布状況に係る情報を記憶した配布管理デー タ 1080の一例を示す図である。この配布管理データ 1080は、サーバ名、ストレージ サブグループ名、ソフトウェア配布イメージ名、版数および状態の情報を記憶してい る。
[0278] サーバ名は、ストレージサブグループが割り当てられて 、るサーバを識別する情報 である。ストレージサブグループ名は、ソフトウェア配布イメージが展開されるストレー ジサブグループを識別する情報である。ソフトウェア配布イメージ名は、ストレージサ ブグループに展開されたソフトウェア配布イメージを識別する情報である。版数は、配 布されたソフトウェア配布イメージの版数の情報である。状態は、ソフトウェア配布ィメ ージの配布状況を示す情報である。
[0279] 図 44の説明に戻ると、システムリソースマネージャ 21は、ネットワーク RM24および AP管理統括部 27と連携して、二台目のサーバを業務モードに移行させる処理をお こなう(ステップ S407)。
[0280] 具体的には、ネットワーク RM24は、サーバの再起動時に、一台目のサーバが属す るサブネットの情報に基づいて、二台目のサーバに IPアドレスを割り当てる。二台目 のサーバに割り当てられた IPアドレスの情報は、システムリソースマネージャ 21により 、図 40に示した IPアドレス管理データ 1040に記憶される。
[0281] 続いて、ネットワーク RM24は、スィッチに VLANの設定をおこなってサーバを VL ANに接続するとともに、ロードバランサに対して、負荷を分散させる対象サーバとし て当該サーバを登録させる。
[0282] その後、システムリソースマネージャ 21は、 AP管理統括部 27に対して、サーバの サーバグループの追加を AP管理統括部 27に認識させるコマンドを送信する。そし て、 AP管理統括部 27は、 AP管理部 116aと連携して、サーバに対してアプリケーシ ヨンプログラムの導入および設定などをおこない、サーバを業務で利用可能な状態に 設定する。 [0283] 三台目以降のサーバをサーバグループに追加する場合には、図 44で説明したサ ーバの追加処理を繰り返す。
[0284] つぎに、サーバグループに追加されたサーバをサーバグループから削除する処理 について説明する。図 46は、サーバグループ力 サーバを削除するサーバ削除処 理の処理手順を説明するフローチャートである。
[0285] 図 46に示すように、まず、ネットワーク RM24は、ネットワークサブ RM54と連携して 、サーバに設定された VLANを切断する(ステップ S501)。そして、ネットワーク RM2 4は、ネットワークサブ RM54と連携して、ロードバランサの設定を変更し、負荷を分 散させる対象サーバから当該サーバを除外する (ステップ S502)。
[0286] 続いて、ネットワーク RM24は、サーバに割り当てられた IPアドレスを返却する(ステ ップ S503)。さらに、ソフトウェアサブ RM53は、ドメイン管理サーバ 50のドメインリソ ース DB55に記憶された仮の OSを用いて、ネットワークブートによりサーバの再起動 をおこなう(ステップ S504)。
[0287] そして、ストレージ RM25は、サーバグループから削除するサーバに割り当てられ たディスクを削除する(ステップ S505)。その後、ストレージ RM25は、サーバに対し て設定されたサーバとストレージとの間の論理的な接続関係である SANゾ一二ング を変更し、当該サーバを除外したサーバとストレージとの間の SANゾーユングを設定 する(ステップ S 506)。
[0288] つぎに、システムリソースマネージャ 21が、リソース割当管理処理において、運用管 理クライアント 10に出力する各種出力画面について説明する。図 47は、管理対象と なるリソースの配置を示すリソース配置出力画面 1090の一例である。
[0289] 図 47に示すように、このリソース配置出力画面 1090は、 Webドメイン 1100、 APド メイン 1110、 DBドメイン 1120に属する各種サーバと、ストレージドメイン 1130に属 するストレージとがどのように接続されて!、るかをユーザが一目で把握できるように構 成されている。
[0290] 図 48は、リソースの配置に係る設定をユーザ力 受け付けるリソース配置設定画面 1140の一例を示す図である。このリソース配置設定画面 1140では、部品パレット 11 40aが出力され、この部品パレットにあるドメインやサーノ 、ストレージなどの各種アイ コンをユーザがマウス等を操作して配置していくことにより、各種リソースの配置を決 定することができる。
[0291] 図 49は、サーバドメインに属するサーバグループの一覧を出力するサーバグルー プ一覧画面 1150の一例を示す図である。このサーバグループ一覧画面 1150では 、ユーザによるマウス等の操作により、サーバドメインが指定されると、そのサーバドメ インに属するサーバグループおよびサーバグループに追加可能な、プールされたサ ーバの一覧が出力される。
[0292] 図 50は、サーバグループに属するサーバの一覧を出力するサーバ一覧画面 1160 の一例を示す図である。このサーバ一覧画面 1160では、ユーザによるマウス等の操 作により、サーバグループが指定されると、そのサーバグループに属するサーバおよ びサーバグループに追加可能な、プールされたサーバの一覧が出力される。
[0293] さらに、このサーバ一覧画面 1160では、ユーザによるマウス等の操作により、プー ルされたサーバが指定され、追加ボタンがクリックされると、指定されたサーバをサー バグループに追加する処理の実行要求がシステムリソースマネージャ 21に送信され 、当該サーバの追加処理が実行される。
[0294] また、このサーバ一覧画面 1160では、ユーザによるマウス等の操作により、サーバ グループに属するサーバが指定され、削除ボタンがクリックされると、指定されたサー バをサーバグループから削除する処理の実行要求がシステムリソースマネージャ 21 に送信され、当該サーバの削除処理が実行される。
[0295] 図 51は、ストレージグループに属するストレージの一覧を出力するストレージ一覧 画面 1170の一例を示す図である。このストレージ一覧画面 1170においても、図 50 に示したサーバ一覧画面 1160と同様、ユーザによるマウス等の操作により、ストレー ジグループが指定されると、そのストレージグループに属するストレージおよびストレ ージグループに追カ卩可能な、プールされたストレージの一覧が出力される。
[0296] そして、ストレージ一覧画面 1170では、ユーザによるマウス等の操作により、プー ルされたストレージが指定され、追加ボタンがクリックされると、指定されたストレージ をストレージグループに追加する処理の実行要求がシステムリソースマネージャ 21に 送信され、当該ストレージの追加処理が実行される。 [0297] また、このストレージ一覧画面 1170では、ユーザによるマウス等の操作により、スト レージグループに属するストレージが指定され、削除ボタンがクリックされると、指定さ れたストレージをストレージグループから削除する処理の実行要求がシステムリソース マネージャ 21に送信され、当該ストレージの削除処理が実行される。
[0298] 上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをコンビュ ータで実行することによって実現することができる。そこで、以下では、図 52から図 54 を用いて、運用管理プログラムを実行するコンピュータの一例を説明する。
[0299] 図 52は、図 2に示したサイト管理サーバ 20となるコンピュータ 1200のハードウェア 構成を示す図である。このコンピュータ 1200は、ユーザからのデータの入力を受け 付ける入力装置 1210、モニタ 1220、各種プログラムを記録した記録媒体カもプログ ラムを読み取る媒体読取り装置 1230、 ROM (Read Only Memory) 1240、ネットヮ ークを介して他のコンピュータとの間でデータの授受をおこなうネットワークインターフ エース 1250、 HDD (Hard Disk Drive) 1260、 RAM (Random Access Memory) 1 270および CPU (Central Processing Unit) 1280をバス 1290で接続して構成され る。
[0300] そして、 HDD1260には、サイト管理サーバ 20の機能と同様の機能を発揮するプロ グラム、つまり、図 52に示すシステムリソース管理プログラム 1260bおよび AP管理統 括プログラム 1260cが記憶されて!、る。
[0301] なお、システムリソース管理プログラム 1260bおよび AP管理統括プログラム 1260c につ 、ては、適宜統合または分散して記憶することとしてもよ!、。
[0302] そして、 CPU1280力 システムリソース管理プログラム 1260bおよび AP管理統括 プログラム 1260cを HDD1260力も読み出して実行することにより、システムリソース 管理プロセス 1280aおよび AP管理統括プロセス 1280bとして機能するようになる。
[0303] このシステムリソース管理プロセス 1280aは、図 2に示したシステムリソースマネージ ャ 21、サーバ RM22、ソフトウェア RM23、ネットワーク RM24、ストレージ RM25に 対応する。また、 AP管理統括プロセス 1280bは、図 2に示した AP管理統括部 27に 対応する。
[0304] また、 HDD1260には、システムリソースデータ 1260aが記憶される。なお、このシ ステムリソースデータ 1260aは、図 2に示したシステムリソース DB26に記憶される各 種データに対応する。
[0305] そして、 CPU1280は、リソースの管理に係る各種データをシステムリソースデータ 1 260aとして記憶するとともに、システムリソースデータ 1260aを HDD1260から読み 出して RAM1270に格納し、 RAM 1270に格納されたシステムリソースデータ 1270 aに基づ ヽて各種データ処理を実行する。
[0306] 図 53は、図 2に示したドメイン管理サーバ 20となるコンピュータ 1300のハードゥエ ァ構成を示す図である。このコンピュータ 1300は、ユーザからのデータの入力を受 け付ける入力装置 1310、モニタ 1320、各種プログラムを記録した記録媒体力もプロ グラムを読み取る媒体読取り装置 1330、 ROM1340、ネットワークを介して他のコン ピュータとの間でデータの授受をおこなうネットワークインターフェース 1350、 HDD1 360、RAM1370および CPU1380をバス 1390で接続して構成される。
[0307] そして、 HDD1360には、ドメイン管理サーバ 50, 60の機能と同様の機能を発揮 するプログラム、つまり、図 53に示すドメインリソース管理プログラム 1360bが記憶さ れている。なお、ドメインリソース管理プログラム 1360bについては、適宜統合または 分散して記憶することとしてもょ 、。
[0308] そして、 CPU1380力 ドメインリソース管理プログラム 1360bを HDD1360から読 み出して実行することにより、ドメインリソース管理プロセス 1380aとして機能するよう になる。
[0309] このドメインリソース管理プロセス 1380aは、図 2に示したシステムリソースドメインマ ネージャ 51、サーバサブ RM52、ソフトウェアサブ RM53、ネットワークサブ RM54に 対応する。
[0310] また、 HDD1360には、ドメインリソースデータ 1360aが記憶される。なお、このドメ インリソースデータ 1360aは、図 2に示したドメインリソース DB55に記憶される各種デ ータに対応する。
[0311] そして、 CPU1380は、ドメインにおけるリソースの管理に係る各種データをドメイン リソースデータ 1360aとして記憶するとともに、ドメインリソースデータ 1360aを HDD1 360から読み出して RAM 1370に格納し、 RAM 1370に格納されたドメインリソース データ 1370aに基づいて各種データ処理を実行する。
[0312] また、図 54は、図 2に示したサーバ 110aとなるコンピュータ 1400のハードウェア構 成を示す図である。このコンピュータ 1400は、ユーザからのデータの入力を受け付 ける入力装置 1410、モニタ 1420、各種プログラムを記録した記録媒体力もプロダラ ムを読み取る媒体読取り装置 1430、 RAM 1440, ROM1450、ネットワークを介し て他のコンピュータとの間でデータの授受をおこなうネットワークインターフェース 146 0、 HDD1470および CPU1480をバス 1490で接続して構成される。
[0313] そして、 HDD1470には、サーバ 110aの機能と同様の機能を発揮するプログラム、 つまり、図 54に示すエージェントリソース管理プログラム 1470aおよび AP管理プログ ラム 1470bが記憶されている。なお、エージェントリソース管理プログラム 1470aおよ び AP管理プログラム 1470bについては、適宜統合または分散して記憶することとし てもよい。
[0314] そして、 CPU1480力 エージェントリソース管理プログラム 1470aおよび AP管理 プログラム 1470bを HDD1470から読み出して実行することにより、エージエントリソ ース管理プロセス 1480aおよび AP管理プロセス 1480bとして機能するようになる。
[0315] このエージェントリソース管理プロセス 1480aは、図 2に示したリソースマネージヤエ 一ジェン卜 l l la、サーノ RMエージェント 112a、ソフトウェア RMエージェント 113a、 ネットワーク RMエージェント 114aおよびストレージ RMエージェント 115aに対応する 。また、 AP管理プロセス 1480bは、図 2に示した AP管理部 116aに対応する。
[0316] ところで、システムリソース管理プログラム 1260b、 AP管理統括プログラム 1260c、 ドメインリソース管理プログラム 1360b、エージェントリソース管理プログラム 1470aお よび AP管理プログラム 1470bについては、必ずしも最初から HDD1260、 HDD 13 60または HDD1470に記憶させておく必要はない。
[0317] たとえば、コンピュータ 1200、 1300または 1400に挿入されるフレキシブルディスク
(FD) , CD-ROM, MOディスク、 DVDディスク、光磁気ディスク、 ICカードなどの「 可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライ ブ (HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、 LAN, WANなどを介してコンピュータ 1200、 1300または 1400〖こ接続される「他のコンビ ユータ(またはサーバ)」などに各プログラムを記憶しておき、コンピュータ 1200、 130 0または 1400がこれら力も各プログラムを読み出して実行するようにしてもょ 、。
[0318] 上述してきたように、本実施例では、システムリソースマネージャ 21が、物理結線が 均一なサーバの集まりとしてサーバドメインを登録し、ソフトウェア RM23およびソフト ウェアサブ RM53が連携して、登録されたサーバドメインに属するサーバにより利用 されるソフトウェアの導入を実行することとしたので、管理者がおこなうサーバの設定 作業に要する労力を軽減させることができる。
[0319] また、本実施例では、ネットワーク RM24およびネットワークサブ RM53が連携して 、ソフトウェアを利用するサーバのネットワークに係る設定をおこない、ソフトウェア RM 23およびソフトウェアサブ RM53が連携して、当該サーバにより利用されるソフトゥェ ァの導入を実行することとしたので、ネットワークに係る設定をおこなうことにより、管 理者がおこなうサーバの設定作業に要する労力をさらに軽減させることができる。
[0320] また、本実施例では、サーバが利用するソフトウェアが導入された後、ソフトウェア!^ M23およびソフトウェアサブ RM53が連携して、導入されたソフトウェアとは異なるソ フトウェアの導入を実行することとしたので、サーバがおこなう情報処理の変更を管理 者に負担をかけることなく容易に実行することができる。
[0321] また、本実施例では、ソフトウェア RM23およびソフトウェアサブ RM53が連携して、 サーバにより利用されるソフトウェアを、当該サーバに S ANを介して接続され、当該 サーバによりアクセスされる RAID装置に導入することとしたので、 RAID装置を複数 のサーバで共有するなど柔軟な構成を採用することができる。
[0322] また、本実施例では、システムリソースマネージャ 21が、サーバドメインをサーバが 帰属する複数のサーバグループからなるサーバドメインとして登録し、ソフトウェア!^ M23およびソフトウェアサブ RM53が連携して、登録されたサーバドメインの各サー バグループに属するサーバにより利用されるソフトウェアの導入を実行することとした ので、各サーバグループに属するサーバに異なる情報処理を実行させるための設定 作業を管理者に負担をかけることなく容易に実行することができる。
[0323] さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以 外にも、請求の範囲に記載した技術的思想の範囲内において種々の異なる実施例 にて実施されてもょ 、ものである。
[0324] たとえば、本実施例では、サーバグループに追加するサーバに必要なソフトウェア を SANにより接続されたストレージに導入し、そのストレージからサーバをブートする 場合を示した力 必要なソフトウェアを各サーバが有する内蔵ディスクに導入し、内蔵 ディスク力もサーバをブートすることとしてもよ!/、。
[0325] また、本実施例において説明した各処理のうち、自動的におこなわれるものとして 説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的に おこなわれるものとして説明した処理の全部または一部を公知の方法で自動的にお こなうことちでさる。
[0326] この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種の データやパラメータを含む情報については、特記する場合を除いて任意に変更する ことができる。
[0327] また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に 図示のように構成されていることを要しない。すなわち、各装置の分散'統合の具体 的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況な どに応じて、任意の単位で機能的または物理的に分散 ·統合して構成することができ る。
[0328] さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、 CP Uおよび当該 CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤー ドロジックによるハードウェアとして実現され得る。 産業上の利用可能性
[0329] 以上のように、本発明にかかる運用管理プログラム、運用管理方法および運用管理 装置は、情報処理システムを構成するリソースの運用を管理する運用管理システム に有用であり、特に、情報処理システムの管理者がおこなうリソースの設定作業に要 する労力を軽減させることが必要な運用管理システムに適している。

Claims

請求の範囲
[1] 情報処理システムを構成するリソースの運用を管理する運用管理プログラムであつ て、
物理結線が均一なリソースの集まりとしてリソースドメインを登録するドメイン登録手 順と、
前記ドメイン登録手順により登録されたリソースドメインに属するリソースにより利用さ れるソフトウェアの導入を実行するソフトウェア導入手順と、
をコンピュータに実行させることを特徴とする運用管理プログラム。
[2] 前記ソフトウェア導入手順は、ソフトウェアを利用するリソースのネットワークに係る 設定をおこない、当該リソースにより利用されるソフトウェアの導入を実行することを特 徴とする請求項 1に記載の運用管理プログラム。
[3] 前記ソフトウェア導入手順によりソフトウェアが導入された後、導入されたソフトゥェ ァとは異なるソフトウェアの導入を実行するソフトウェア再導入手順をさらにコンビユー タに実行させることを特徴とする請求項 1に記載の運用管理プログラム。
[4] 前記ソフトウェア導入手順は、リソースにより利用されるソフトウェアを当該リソースに ネットワークを介して接続され、当該リソースによりアクセスされる記憶装置に導入する ことを特徴とする請求項 1に記載の運用管理プログラム。
[5] 前記ドメイン登録手順は、リソースドメインを前記リソースが帰属する複数のグルー プカもなるリソースドメインとして登録し、前記ソフトウェア導入手順は、前記ドメイン登 録手順により登録されたリソースドメインの各グループに属するリソースにより利用さ れるソフトウェアの導入を実行することを特徴とする請求項 1に記載の運用管理プロ グラム。
[6] 情報処理システムを構成するリソースの運用を管理する運用管理方法であって、 物理結線が均一なリソースの集まりとしてリソースドメインを登録するドメイン登録ェ 程と、
前記ドメイン登録工程により登録されたリソースドメインに属するリソースにより利用さ れるソフトウェアの導入を実行するソフトウェア導入工程と、
を含んだことを特徴とする運用管理方法。
[7] 前記ソフトウェア導入工程は、ソフトウェアを利用するリソースのネットワークに係る 設定をおこない、当該リソースにより利用されるソフトウェアの導入を実行することを特 徴とする請求項 6に記載の運用管理方法。
[8] 前記ソフトウェア導入工程によりソフトウェアが導入された後、導入されたソフトゥェ ァとは異なるソフトウェアの導入を実行するソフトウェア再導入工程をさらに含んだこと を特徴とする請求項 6に記載の運用管理方法。
[9] 前記ソフトウェア導入工程は、リソースにより利用されるソフトウェアを当該リソース にネットワークを介して接続され、当該リソースによりアクセスされる記憶装置に導入 することを特徴とする請求項 6に記載の運用管理方法。
[10] 前記ドメイン登録工程は、リソースドメインを前記リソースが帰属する複数のグルー プカもなるリソースドメインとして登録し、前記ソフトウェア導入工程は、前記ドメイン登 録工程により登録されたリソースドメインの各グループに属するリソースにより利用さ れるソフトウェアの導入を実行することを特徴とする請求項 6に記載の運用管理方法
[11] 情報処理システムを構成するリソースの運用を管理する運用管理装置であって、 物理結線が均一なリソースの集まりとしてリソースドメインを登録するドメイン登録手 段と、
前記ドメイン登録手段により登録されたリソースドメインに属するリソースにより利用さ れるソフトウェアの導入を実行するソフトウェア導入手段と、
を備えたことを特徴とする運用管理装置。
[12] 前記ソフトウェア導入手段は、ソフトウェアを利用するリソースのネットワークに係る 設定をおこない、当該リソースにより利用されるソフトウェアの導入を実行することを特 徴とする請求項 11に記載の運用管理装置。
[13] 前記ソフトウェア導入手段によりソフトウェアが導入された後、導入されたソフトゥェ ァとは異なるソフトウェアの導入を実行するソフトウェア再導入手段をさらに備えたこと を特徴とする請求項 11に記載の運用管理装置。
[14] 前記ソフトウェア導入手段は、リソースにより利用されるソフトウェアを当該リソースに ネットワークを介して接続され、当該リソースによりアクセスされる記憶装置に導入する ことを特徴とする請求項 11に記載の運用管理装置。
前記ドメイン登録手段は、リソースドメインを前記リソースが帰属する複数のグルー プカ なるリソースドメインとして登録し、前記ソフトウェア導入手段は、前記ドメイン登 録手段により登録されたリソースドメインの各グループに属するリソースにより利用さ れるソフトウェアの導入を実行することを特徴とする請求項 11に記載の運用管理装 置。
PCT/JP2004/015382 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置 WO2006043307A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP15201759.6A EP3079061A1 (en) 2004-10-18 2004-10-18 Operation management program, operation management method, and operation management apparatus
PCT/JP2004/015382 WO2006043307A1 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置
JP2006542126A JP4734258B2 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置
EP04792551A EP1814027A4 (en) 2004-10-18 2004-10-18 PROGRAM, METHOD AND INSTALLATION FOR OPERATIONAL MANAGEMENT
US11/787,758 US8387013B2 (en) 2004-10-18 2007-04-17 Method, apparatus, and computer product for managing operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/015382 WO2006043307A1 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/787,758 Continuation US8387013B2 (en) 2004-10-18 2007-04-17 Method, apparatus, and computer product for managing operation

Publications (1)

Publication Number Publication Date
WO2006043307A1 true WO2006043307A1 (ja) 2006-04-27

Family

ID=36202732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/015382 WO2006043307A1 (ja) 2004-10-18 2004-10-18 運用管理プログラム、運用管理方法および運用管理装置

Country Status (4)

Country Link
US (1) US8387013B2 (ja)
EP (2) EP3079061A1 (ja)
JP (1) JP4734258B2 (ja)
WO (1) WO2006043307A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186698A (ja) * 2013-03-25 2014-10-02 Hitachi Systems Ltd 負荷分散システムおよび負荷分散システムデータ共有方法ならびに負荷分散システムデータ共有プログラム
CN112887158A (zh) * 2021-03-19 2021-06-01 中国电子科技集团公司第三十研究所 一种基于域模式的设备通信规则配置方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004027424D1 (de) 2004-10-18 2010-07-08 Fujitsu Ltd Operationsverwaltungsprogramm, operationsverwaltun
EP1811376A4 (en) * 2004-10-18 2007-12-26 Fujitsu Ltd PROGRAM, METHOD AND INSTALLATION FOR OPERATIONAL MANAGEMENT
US8200694B1 (en) 2007-07-23 2012-06-12 Google Inc. Identification of implicitly local queries
US9178848B1 (en) * 2007-07-23 2015-11-03 Google Inc. Identifying affiliated domains
US8788490B1 (en) 2008-06-27 2014-07-22 Google Inc. Link based locale identification for domains and domain content
US8930511B1 (en) * 2008-07-07 2015-01-06 Cisco Technology, Inc. Physical resource life-cycle in a template based orchestration of end-to-end service provisioning
US20140258537A1 (en) * 2013-03-11 2014-09-11 Coraid, Inc. Storage Management of a Storage System
JP2015153266A (ja) * 2014-02-18 2015-08-24 日本電気株式会社 ファームウェア管理システム、方法、及び、プログラム
US10110441B2 (en) 2014-03-28 2018-10-23 International Business Machines Corporation Network identifier translation
US10476743B2 (en) * 2014-10-13 2019-11-12 Cisco Technology, Inc. Automatic creation and management of a community of things for Internet of Things (IoT) applications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278769A (ja) * 2001-03-19 2002-09-27 Toshiba Corp 自動osインストール方法及び計算機ネットワークシステム
JP2004508616A (ja) * 2000-06-20 2004-03-18 テラスプリング・インコーポレーテッド 拡張可能コンピューティングシステムの制御方法および装置
JP2004110791A (ja) * 2002-09-16 2004-04-08 Hewlett-Packard Development Co Lp ブレードアーキテクチャのための動的適応サーバプロビジョニング
JP2004355624A (ja) * 2003-05-29 2004-12-16 Internatl Business Mach Corp <Ibm> ストレージ・エリア・ネットワーク上でのブート、保守、またはインストール操作の方法、装置、およびプログラム

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107680B2 (ja) 1986-10-22 1995-11-15 株式会社日立製作所 並列プロセッサのプロセッサ間データ転送装置
JPH05160876A (ja) 1991-12-09 1993-06-25 Oki Electric Ind Co Ltd 通信制御プロセッサの管理方法
US5400325A (en) * 1993-06-29 1995-03-21 Synoptics Communications, Inc. Method and apparatus providing for hunt groups in an ATM network of the like
JPH07121395A (ja) 1993-10-27 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 予備装置優先選択方法
US5675723A (en) * 1995-05-19 1997-10-07 Compaq Computer Corporation Multi-server fault tolerance using in-band signalling
JPH0916521A (ja) 1995-06-30 1997-01-17 N T T Data Tsushin Kk 並列バッチ処理方式
JPH09297692A (ja) 1996-05-07 1997-11-18 Pfu Ltd 多重化システム
US5996086A (en) * 1997-10-14 1999-11-30 Lsi Logic Corporation Context-based failover architecture for redundant servers
US6163856A (en) * 1998-05-29 2000-12-19 Sun Microsystems, Inc. Method and apparatus for file system disaster recovery
EP0987630B1 (en) 1998-09-08 2005-09-14 Fujitsu Services Limited Resilience in a multi-computer system
US6453426B1 (en) * 1999-03-26 2002-09-17 Microsoft Corporation Separately storing core boot data and cluster configuration data in a server cluster
JP3252832B2 (ja) 1999-06-09 2002-02-04 日本電気株式会社 通信システムおよび方法
US6535998B1 (en) * 1999-07-26 2003-03-18 Microsoft Corporation System recovery by restoring hardware state on non-identical systems
US6597956B1 (en) * 1999-08-23 2003-07-22 Terraspring, Inc. Method and apparatus for controlling an extensible computing system
WO2001080033A2 (en) 2000-04-17 2001-10-25 Circadence Corporation System and method for implementing application -independent functionality within a network infrastructure
JP2002007174A (ja) 2000-06-27 2002-01-11 Hitachi Ltd 記憶装置のデータ管理システム
US7844513B2 (en) * 2000-07-17 2010-11-30 Galactic Computing Corporation Bvi/Bc Method and system for operating a commissioned e-commerce service prover
CA2415770C (en) 2000-07-17 2010-04-27 Galactic Computing Corporation Method and system for providing dynamic hosted service management
US6775230B1 (en) * 2000-07-18 2004-08-10 Hitachi, Ltd. Apparatus and method for transmitting frames via a switch in a storage area network
US6907395B1 (en) * 2000-10-24 2005-06-14 Microsoft Corporation System and method for designing a logical model of a distributed computer system and deploying physical resources according to the logical model
US7313614B2 (en) * 2000-11-02 2007-12-25 Sun Microsystems, Inc. Switching system
JP3693938B2 (ja) * 2000-11-07 2005-09-14 信佳 酒谷 情報配信システム、広告配信システム、情報配信プログラム、サーバ、情報配信サーバ、広告情報配信方法、およびセーバページ表示方法
US6901446B2 (en) * 2001-02-28 2005-05-31 Microsoft Corp. System and method for describing and automatically managing resources
US20030130832A1 (en) * 2002-01-04 2003-07-10 Peter Schulter Virtual networking system and method in a processing system
US6898705B2 (en) * 2001-05-31 2005-05-24 International Business Machines Corporation Automatic appliance server re-provision/re-purposing method
US6687733B2 (en) * 2001-06-01 2004-02-03 Intergenix Method and system for automatically configuring a client-server network
US8126959B2 (en) * 2001-06-28 2012-02-28 International Business Machines Corporation Method and system for dynamic redistribution of remote computer boot service in a network containing multiple boot servers
JP2003022190A (ja) 2001-07-09 2003-01-24 Hitachi Ltd 計算機システムのマルチブート方法、および、マルチブートプログラム
JP2003067351A (ja) 2001-08-28 2003-03-07 Nec System Technologies Ltd 分散型コンピュータの構成制御システム
JP4199444B2 (ja) * 2001-08-30 2008-12-17 日本電気株式会社 パーティション構成変更方式、パーティション構成変更方法およびパーティション構成変更用プログラム
US7093124B2 (en) * 2001-10-30 2006-08-15 Intel Corporation Mechanism to improve authentication for remote management of a computer system
US7213065B2 (en) * 2001-11-08 2007-05-01 Racemi, Inc. System and method for dynamic server allocation and provisioning
CA2363411A1 (en) * 2001-11-21 2003-05-21 Platespin Canada Inc. System and method for provisioning software
US20030126242A1 (en) * 2001-12-28 2003-07-03 Chang Albert H. Network boot system and method using remotely-stored, client-specific boot images created from shared, base snapshot image
JP2003271429A (ja) * 2002-03-15 2003-09-26 Hitachi Ltd 記憶装置資源管理方法、記憶資源管理プログラム、該プログラムを記録した記録媒体、及び記憶資源管理装置
GB0213073D0 (en) * 2002-06-07 2002-07-17 Hewlett Packard Co Method of maintaining availability of requested network resources
US7822810B2 (en) * 2002-09-17 2010-10-26 Hewlett-Packard Development Company, L.P. Method and system for peer to peer common channel collaboration
US7124322B1 (en) * 2002-09-24 2006-10-17 Novell, Inc. System and method for disaster recovery for a computer network
US20040068667A1 (en) * 2002-10-03 2004-04-08 International Business Machines Corporation Method and apparatus for securing and managing cluster computing in a network data processing system
US7870241B2 (en) * 2002-11-27 2011-01-11 International Business Machines Corporation Automated power control policies based on application-specific redundancy characteristics
JP3737810B2 (ja) * 2003-05-09 2006-01-25 株式会社東芝 計算機システム及び故障計算機代替制御プログラム
US7287186B2 (en) * 2003-06-02 2007-10-23 Surgient Inc. Shared nothing virtual cluster
US20050015471A1 (en) * 2003-07-18 2005-01-20 Zhang Pu Paul Secure cluster configuration data set transfer protocol
US7389411B2 (en) * 2003-08-29 2008-06-17 Sun Microsystems, Inc. Secure transfer of host identities
DE102004005128B3 (de) * 2004-02-02 2005-01-05 Fujitsu Siemens Computers Gmbh Anordnung mehrerer Rechner und Verfahren zum Betreiben einer Anordnung mehrerer Rechner bei einem Rechnerausfall
US7478275B1 (en) * 2004-03-29 2009-01-13 Symantec Operating Corporation Method and apparatus for performing backup storage of checkpoint data within a server cluster
US7930377B2 (en) * 2004-04-23 2011-04-19 Qlogic, Corporation Method and system for using boot servers in networks
US7325156B1 (en) * 2004-10-07 2008-01-29 Hewlett-Packard Development Company, L.P. Methods and apparatus for backing up data in a data center
WO2006040810A1 (ja) * 2004-10-12 2006-04-20 Fujitsu Limited ソフトウェア更新プログラム、ソフトウェア更新装置およびソフトウェア更新方法
EP1811397A4 (en) * 2004-10-12 2011-08-17 Fujitsu Ltd PROGRAM, METHOD AND INSTALLATION FOR OPERATIONAL MANAGEMENT
DE602004027424D1 (de) * 2004-10-18 2010-07-08 Fujitsu Ltd Operationsverwaltungsprogramm, operationsverwaltun
EP1811376A4 (en) * 2004-10-18 2007-12-26 Fujitsu Ltd PROGRAM, METHOD AND INSTALLATION FOR OPERATIONAL MANAGEMENT
JP4462024B2 (ja) * 2004-12-09 2010-05-12 株式会社日立製作所 ディスク引き継ぎによるフェイルオーバ方法
US7797288B2 (en) * 2004-12-27 2010-09-14 Brocade Communications Systems, Inc. Use of server instances and processing elements to define a server
US7363514B1 (en) * 2005-02-01 2008-04-22 Sun Microsystems, Inc. Storage area network(SAN) booting method
JP4544146B2 (ja) * 2005-11-29 2010-09-15 株式会社日立製作所 障害回復方法
JP4923990B2 (ja) * 2006-12-04 2012-04-25 株式会社日立製作所 フェイルオーバ方法、およびその計算機システム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508616A (ja) * 2000-06-20 2004-03-18 テラスプリング・インコーポレーテッド 拡張可能コンピューティングシステムの制御方法および装置
JP2002278769A (ja) * 2001-03-19 2002-09-27 Toshiba Corp 自動osインストール方法及び計算機ネットワークシステム
JP2004110791A (ja) * 2002-09-16 2004-04-08 Hewlett-Packard Development Co Lp ブレードアーキテクチャのための動的適応サーバプロビジョニング
JP2004355624A (ja) * 2003-05-29 2004-12-16 Internatl Business Mach Corp <Ibm> ストレージ・エリア・ネットワーク上でのブート、保守、またはインストール操作の方法、装置、およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FUJITSU LTD.: "Resource Seigyo Catalog", FUJITSU LTD., November 2004 (2004-11-01), XP002999313, Retrieved from the Internet <URL:http://systemwalker.fujitsu.com/jp/rc/catalog/pdf/resource.pdf> *
FUJITSU LTD.: "Systemwalker Resource Coordinator Goshokai", FUJITSU LTD., November 2004 (2004-11-01), XP002999312, Retrieved from the Internet <URL:http://systemwalker.fujitsu.com/jp/rc/catalog/pdf/rc_i.pdf> *
FUJITSU LTD.: "Systemwalker Resource Coordinator Kino Goshokai", FUJITSU LTD., November 2004 (2004-11-01), XP002999314, Retrieved from the Internet <URL:http://systemwalker.fujitsu.com/jp/rc/catalog/pdf/rc_f.pdf> *
See also references of EP1814027A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186698A (ja) * 2013-03-25 2014-10-02 Hitachi Systems Ltd 負荷分散システムおよび負荷分散システムデータ共有方法ならびに負荷分散システムデータ共有プログラム
CN112887158A (zh) * 2021-03-19 2021-06-01 中国电子科技集团公司第三十研究所 一种基于域模式的设备通信规则配置方法
CN112887158B (zh) * 2021-03-19 2022-02-08 中国电子科技集团公司第三十研究所 一种基于域模式的设备通信规则配置方法

Also Published As

Publication number Publication date
JPWO2006043307A1 (ja) 2008-05-22
US20070234351A1 (en) 2007-10-04
EP3079061A1 (en) 2016-10-12
US8387013B2 (en) 2013-02-26
EP1814027A4 (en) 2009-04-29
EP1814027A1 (en) 2007-08-01
JP4734258B2 (ja) 2011-07-27

Similar Documents

Publication Publication Date Title
EP1806657B1 (en) Operation management program, operation management method, and operation management device
JP5976842B2 (ja) 計算機システム、及び、計算機システムの仮想サーバ移行制御方法
JP6208207B2 (ja) オブジェクト・ストレージ・システムにアクセスするコンピュータ・システム
JP4815449B2 (ja) 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法
US7203730B1 (en) Method and apparatus for identifying storage devices
JPWO2007077600A1 (ja) 運用管理プログラム、運用管理方法および運用管理装置
US7657613B1 (en) Host-centric storage provisioner in a managed SAN
US8387013B2 (en) Method, apparatus, and computer product for managing operation
US7574491B2 (en) Virtual data center for network resource management
JP4414961B2 (ja) 管理サーバによる管理方法、管理サーバ、計算機システムおよび管理プログラム
US20060143498A1 (en) Fail over method through disk take over and computer system having fail over function
US20060230103A1 (en) Method for reproducing configuration of a computer system in a remote site
US8224941B2 (en) Method, apparatus, and computer product for managing operation
JP2006195703A (ja) ディスクレス計算機の運用管理システム
US20070237162A1 (en) Method, apparatus, and computer product for processing resource change
JP2009122963A (ja) デプロイ方法およびシステム
JP5182350B2 (ja) 運用管理プログラム、運用管理方法および運用管理装置
Guide VMware, Inc.
Beichter et al. IBM System z I/O discovery and autoconfiguration
Free Visit PassLeader and Download Full Version 70-417 Exam Dumps
Lopez Best Practices and Performance Characteristics of Running Oracle® RAC 11g with Dell EqualLogic™ on Oracle VM

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006542126

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11787758

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2004792551

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004792551

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11787758

Country of ref document: US