WO2012105035A1 - コンピュータシステムの管理装置及び管理方法 - Google Patents

コンピュータシステムの管理装置及び管理方法 Download PDF

Info

Publication number
WO2012105035A1
WO2012105035A1 PCT/JP2011/052332 JP2011052332W WO2012105035A1 WO 2012105035 A1 WO2012105035 A1 WO 2012105035A1 JP 2011052332 W JP2011052332 W JP 2011052332W WO 2012105035 A1 WO2012105035 A1 WO 2012105035A1
Authority
WO
WIPO (PCT)
Prior art keywords
endpoint
wwn
pair
computer
server
Prior art date
Application number
PCT/JP2011/052332
Other languages
English (en)
French (fr)
Inventor
俊彦 村上
小川 祐紀雄
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2011/052332 priority Critical patent/WO2012105035A1/ja
Publication of WO2012105035A1 publication Critical patent/WO2012105035A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources

Definitions

  • the present invention relates to a computer system management apparatus and management method.
  • the identifier of the end point (for example, server or storage device) is used for access restriction.
  • Examples of the endpoint identifier include WWN or WWPN (World Port Name) and iSCSI name.
  • the WWN is usually set by a manufacturer before shipping a product in a communication port (hereinafter referred to as a port) of a server HBA (Host Bus Adapter) or a port of a storage device.
  • SAN Storage Area Network
  • LUN Logical Unit Number
  • zoning function implemented on the SAN switch side
  • the LUN masking function is also called a LUN security function.
  • the LUN masking function designates a communication port of a server that can access the volume for each volume that is a logical storage area of the storage apparatus.
  • Volume is identified by logical unit number.
  • the server port is identified by WWN.
  • Zoning function is used together with LUN masking function.
  • the zoning function defines the relationship between volumes and server ports as zones. On the SAN, data is exchanged only within the zone, and no data flows outside the zone. That is, communication is possible only between the volume included in the zone and the server port. By setting a zone, it is possible to prevent devices in the zone from being discovered by devices outside the zone.
  • the time and labor required for setting the LUN masking function and the zoning function increase. That is, the management man-hour increases. As management man-hours increase, the possibility of human error increases.
  • Patent Document 1 a first conventional technique that collects WWN information from each device and manages the settings of the LUN masking function and the zoning function based on the collected WWN information.
  • Patent Document 2 a second prior art is also known in which a history of setting operation or changing operation for each device is recorded, the cause analysis is performed when there is an error in the setting, and the cause analysis result is notified to the SAN administrator.
  • the conventional technology cannot deal with a virtualized complex computer system. Furthermore, since the conventional technique is based on the premise that the WWN is fixedly set before factory shipment, the WWN generation method and the setting change method are not considered at all.
  • the present invention provides a management apparatus and a management method for a computer system that can reduce management man-hours.
  • the present invention provides a management apparatus and a management method for a computer system that can automatically set access control information by generating and managing endpoint identifiers constituting a pair in advance.
  • a management apparatus for a computer system is a management apparatus for managing a computer system, and the computer system includes a plurality of computer apparatuses that are communicably connected to each other.
  • the management device includes a memory that stores a management program, a processor that executes the management program, and a communication interface circuit that communicates with each computer device.
  • the microprocessor executes the management program by executing the management program.
  • a first endpoint identifier for identifying a first endpoint of the first computer device among the computer devices, and a second for identifying a second endpoint of the second computer device of the computer devices. Pair with endpoint identifier Generated and managed, and transmits the first endpoint identifier to the first computer device is set to the first endpoint, it is set to the second endpoint sending a second endpoint identifier to the second computer device.
  • the first endpoint identifier and the second endpoint identifier may each include pair information for identifying a pair constituted by the first endpoint identifier and the second endpoint identifier.
  • the microprocessor executes the management program to generate access control information for setting the first endpoint accessible to the second endpoint based on the first endpoint identifier and the second endpoint identifier. You can also.
  • the first computer device specifies a second endpoint identifier that forms a pair with the first endpoint identifier based on the pair information included in the first endpoint identifier that is set for the first endpoint.
  • the access control information can also be generated by associating the second endpoint identifier with the first endpoint identifier.
  • the present invention can also be grasped as a method. Furthermore, at least a part of the present invention may be configured as a computer program. The features of the invention described in the examples could be combined freely.
  • FIG. 1 is an overall view showing a physical configuration example of a computer system according to FC-SAN (Fibre Channel-Storage Area Network).
  • FIG. 2 is an overall view showing a logical configuration example of the computer system.
  • FIG. 3 shows a schematic configuration example of the WWN format.
  • FIG. 4 shows a configuration example of one WWN format.
  • FIG. 5 shows a configuration example of the WWN format according to the embodiment.
  • FIG. 6 illustrates an initial state of a table for managing WWN pairs.
  • FIG. 7 illustrates an operation state of a table for managing WWN pairs.
  • FIG. 8 is a flowchart illustrating an example of processing for generating a WWN pair.
  • FIG. 9 shows a configuration example of a table for managing WWN groups.
  • FIG. 10 shows a configuration example of a table for managing WWN pairs, and each WWN also includes information for identifying a group.
  • FIG. 11 is a flowchart illustrating an example of processing for generating a WWN pair including information for identifying a group.
  • FIG. 12 is a flowchart illustrating an example of processing executed by the integrated management program of the management server.
  • FIG. 13 shows a configuration example of the LUN mapping table.
  • FIG. 14 shows a configuration example of the LUN masking table.
  • FIG. 15 shows a configuration example of a VM (Virtual Machine) mapping table.
  • FIG. 16 relates to the second embodiment and shows a configuration example of a name table included in the SAN switch.
  • FIG. 17 shows a zoning table configuration example of the SAN switch.
  • FIG. 11 is a flowchart illustrating an example of processing for generating a WWN pair including information for identifying a group.
  • FIG. 12 is a flowchart illustrating an example of processing executed
  • FIG. 18 is a flowchart illustrating an example of processing for automatically generating a zoning table.
  • FIG. 19 is an overall view showing a logical configuration example of a computer system according to the third embodiment and conforming to IP-SAN (Internet Protocol-SAN).
  • FIG. 20 shows an example of an iSCSI name format according to the IQN (iSCSI Qualified Name) format.
  • FIG. 21 shows an example of an iSCSI name format according to the EUI (ExtendedExUnique Identifier) format.
  • FIG. 22 shows an example of an iSCSI name format according to the NAA (Network Address Authority) format.
  • FIG. 23 shows a configuration example of a table for managing WWN pairs.
  • FIG. 24 shows a configuration example of the LUN mapping table.
  • FIG. 20 shows an example of an iSCSI name format according to the IQN (iSCSI Qualified Name) format.
  • FIG. 21 shows an example of an iSCSI name format according to the EUI (Extended
  • FIG. 25 shows a configuration example of the LUN masking table.
  • FIG. 26 shows a configuration example of the VM mapping table.
  • FIG. 27 shows a configuration example of a name table of an iSNS (Internet Storage Name Service) server according to the fourth embodiment.
  • FIG. 28 shows a configuration example of a discovery domain table included in the iSNS server.
  • FIG. 29 is an overall diagram showing a logical configuration example of a computer system according to the FC-SAN according to the fifth embodiment.
  • FIG. 30 shows a configuration example of a table for managing WWN groups.
  • FIG. 31 shows a configuration example of a table for managing WWN pairs.
  • FIG. 32 shows a configuration example of the LUN mapping table.
  • FIG. 33 shows a configuration example of the LUN masking table.
  • FIG. 34 shows a configuration example of the VM mapping table.
  • FIG. 35 shows a configuration example of the name table of the SAN switch.
  • FIG. 36 shows a configuration example of a zoning table
  • the management device 4 includes a first endpoint identifier to be set in the first computer device (for example, storage control device) 1 and a second computer device (for example, server) 2.
  • a pair with the second endpoint identifier to be set is generated in advance, and the generated WWN pair is registered and managed in the table T6.
  • the management apparatus 4 transmits the first endpoint identifier to the first computer apparatus 1, and the first endpoint (port) 106 of the first computer apparatus 1 is transmitted.
  • the management device 4 transmits the second endpoint identifier to the second computer device 2 and causes the second endpoint (HBA) 113 of the second computer device 2 to set the second endpoint identifier.
  • the first computer device 1 holds an endpoint identifier generation rule. Therefore, the first computer apparatus 1 can identify the second endpoint identifier that forms a pair with the first endpoint identifier based on the first endpoint identifier received from the management server 4.
  • the first computer apparatus 1 creates a LUN mapping table by associating the first endpoint 106 set with the first endpoint identifier with the LUN. Further, the first computer apparatus 1 creates a LUN masking table by associating the first endpoint identifier with the second endpoint identifier.
  • the second computer device 2 also knows the endpoint identifier generation rules. Therefore, the second computer apparatus 2 can also identify the first endpoint identifier that forms a pair with the second endpoint identifier based on the second endpoint identifier received from the management server 4.
  • the second computer apparatus 2 creates a VM mapping table by associating the VM (virtual machine or virtual server) with the second endpoint 113 in which the second endpoint identifier is set. As a result, only a predetermined VM can use a predetermined logical volume via the predetermined HBA 113 and the predetermined port 106.
  • the management server 4 can also cause the switch device 3 to transmit a first endpoint identifier and a second endpoint identifier that constitute a pair and create a zoning table (zoning information).
  • the switch device 3 generates a zone including the received first endpoint identifier and second endpoint identifier, and registers the zone in the zoning table.
  • the first endpoint identifier and the second endpoint identifier to be paired are generated and managed in advance, and the first endpoint identifier is set to the first endpoint to be paired. And the second endpoint identifier is set to the second endpoint to be paired.
  • access control information such as a LUN masking table can be automatically generated. This is because the endpoint identifiers of the corresponding endpoints are known. Conventionally, access control information and zoning information cannot be created unless the respective endpoint identifiers are acquired from the corresponding endpoints. On the other hand, in this embodiment, it is possible to automatically set access control information and the like.
  • access control information and zoning information can be taken over even when a virtualized port or a virtualized server moves within the computer system. Furthermore, by using a WWN pair in a preset group, it is possible to easily cope with movement within a computer system. Therefore, the user's management man-hour is reduced.
  • the first computer apparatus 1 is the storage apparatus 1 that is a storage control apparatus and the second computer apparatus 2 is the server 2 that is a server computer will be mainly described. Not limited to.
  • the copy source storage device when data is copied from a copy source storage device to a copy destination storage device, the copy source storage device may be the second computer device and the copy destination storage device may be the first storage device.
  • parenthesized numbers are attached to the same type of configuration such as servers 2 (1) and 2 (2) and SAN switches 3 (1) and 3 (2).
  • the server 2 and the SAN switch 3 are used.
  • the integrated management program P7 of the management server 4 generates a paired WWN (hereinafter also referred to as a WWN pair).
  • the paired WWN can include pair information and group information, as will be described later.
  • the integrated management program P7 communicates with management agents P8, P9, and P10 that the devices 1, 2, and 3 have.
  • the management agent P8 of the storage apparatus 1 as the “first computer apparatus” sets the storage WWN received from the integrated management program P7 to the port 106 designated by the integrated management program P7. Furthermore, the management agent P8 associates the designated LUN 201 (see FIG. 2) with the designated port 106. Furthermore, the management agent P8 associates the received storage WWN (first endpoint identifier) with the server WWN (second endpoint identifier) and performs LUN masking processing.
  • the management agent P9 of the server 2 as the “second computer device” sets the server WWN received from the integrated management program P7 in the HBA (Host Bus Adapter) 113 designated by the integrated management program P7. Furthermore, the management agent P9 associates the designated VM 211 (see FIG. 2) with the designated HBA 113.
  • the SAN switch 3 as a “switch device” can automatically set a zone based on the storage WWN and server WWN received from the management server 4.
  • FIG. 1 shows the overall physical system configuration of a SAN using FC (referred to as FC-SAN).
  • a SAN connects a storage device 1 that is a storage control device and a server 2 via a SAN switch 3.
  • the server 2 and the storage apparatus 1 may be connected via two or more paths.
  • a configuration in which the server 2 and the storage apparatus 1 are connected via a plurality of paths is called a multipath configuration.
  • the server 2 (1) and the storage apparatus 1 are connected by SAN switches 3 (1) and 3 (2) to form a multipath configuration.
  • the storage device 1, the server 2, and the SAN switch 3 are connected to the management network 11.
  • a management server 4 is further connected to the management network 11 for integrated management of the devices 1, 2, and 3.
  • the integrated management program P7 of the management server 4 manages, via the management network 11, the storage management agent P8 of the storage device 1, the server management agent P9 of the server 2, the switch management agent P10 of the SAN switch 3, and the management Exchange for.
  • the storage device 1 is a computer device for providing the server 2 with a volume that is a logical storage area.
  • the storage device 1 includes a plurality of controllers 5 and a plurality of storage devices 110. When high reliability is not required, the storage apparatus 1 may include only one controller 5.
  • One controller 5 includes, for example, a CPU (Central Processing Unit) 101 (1), a memory 102 (1), a memory controller 103, a cache memory 104, a front end interface circuit 105, and a back end interface circuit 108. Is provided.
  • a storage management agent P8 for example, a storage management agent P8, a LUN mapping table T13, and a LUN masking table T14 are stored.
  • the memory 102 also stores an I / O (Input / Output) processing program for processing a command from the server 2 and the like.
  • the CPU 101 executes a computer program stored in the memory 102 to realize a predetermined function.
  • the memory controller 103 is a circuit that connects the CPU 101, the cache memory 104, the front-end interface circuit 105, and the back-end interface circuit 108 to each other.
  • the cache memory 104 stores data received from the server 2 and data read from the storage device 110.
  • the front end interface circuit 105 is a communication control circuit for communicating with the server 2.
  • the front end interface circuit 105 includes a plurality of communication ports 106.
  • the back-end interface circuit 108 is a communication control circuit for communicating with each storage device 110 via the communication port 109.
  • the storage device 110 for example, various devices capable of reading and writing data such as a hard disk device, a semiconductor memory device, and an optical disk device can be used.
  • FC Fibre Channel
  • SCSI Serial Advanced Technology Attachment
  • SAS Serial Attached SCSI
  • flash memory FeRAM (Ferroelectric Random Access Memory), MRAM (Magnetoresistive Random Access)
  • FeRAM Feroelectric Random Access Memory
  • MRAM Magneticoresistive Random Access
  • Various storage devices such as “Memory”, phase change memory (Ovonic Unified Memory), and RRAM (Resistance RAM) can also be used.
  • a configuration in which different types of storage devices such as flash memory devices and hard disk drives are mixed in the storage device 1 may be used.
  • a plurality of storage devices 110 can be grouped to form a RAID (Redundant Arrays of Independent Disks) group 111.
  • RAID Redundant Arrays of Independent Disks
  • One or a plurality of logical volumes can be generated based on the physical storage area grouped by the RAID group 111.
  • the server 2 can use the logical volume.
  • the RAID group 111 can be accessed from each of the controllers 5 (1) and 5 (2).
  • the server 2 executes the application program using the logical volume of the storage device 1.
  • the execution result of the application program is transmitted to a client terminal not shown.
  • the server 2 includes, for example, a CPU 102 (2), a memory 102 (2), a bridge circuit 112, and an HBA 113.
  • the memory 102 stores a server management agent P9. Although an application program, an operating system, etc. are memorize
  • the HBA 113 is a circuit for communicating with the port 116 of the storage apparatus 1.
  • the CPU 101 (2) and the HBA 113 are connected via an internal bus such as PCIe (Peripheral Component Interconnect Express) and the bridge 112 (1).
  • PCIe Peripheral Component Interconnect Express
  • the SAN switch 3 relays communication between the storage device 1 and the server 2.
  • the SAN switch 3 includes, for example, a CPU 101 (3), a memory 102 (3), a communication port 114, and a switching fabric 115.
  • a switch management agent P10 for example, a switch management agent P10, a name table T16, and a zoning table T17 are stored. Further, a switch control program (not shown) is also stored in the memory 102 (3).
  • the port 114 communicates with the port 106 of the storage apparatus 1 and the HBA 113 of the server 2.
  • the port 114 that has received the frame is connected via the switching fabric 115 to the port 114 corresponding to the destination of the frame.
  • the management server 4 is a computer for managing the computer system.
  • the management server 4 can include, for example, a CPU (Central Processing Unit) 101 (4), a memory 102 (4), a bridge circuit 112 (4), and a NIC (Network Interface Card) 116.
  • a CPU Central Processing Unit
  • memory 102 (4)
  • bridge circuit 112 (4)
  • NIC Network Interface Card
  • the management server 4 need not be configured as a single computer, and may be configured from a plurality of computers.
  • a management terminal for inputting / outputting information to / from the management server 4 may be prepared, and the management terminal and the management server 4 may be connected.
  • the management server 4 may be provided with a user interface unit for exchanging information with the user.
  • a configuration in which the function of the management server is incorporated in any one of the storage device 1, the server 2, and the switch 3 may be employed.
  • the NIC 116 is a circuit for communicating with each of the devices 1, 2, 3 via the management network 11.
  • the NIC 116 is connected to the CPU 101 (4) via the bridge circuit 112 (4) and the internal bus.
  • FIG. 2 shows a logical overall configuration of the FC-SAN according to the present embodiment. Differences from FIG. 1 will be described.
  • the storage apparatus 1 in FIG. 2 associates the virtual HBA 202 (1) with the port 204 (1) and further associates the LUN 201 (1) with the virtual HBA 202 (1).
  • the WWPN 203 (1) different from the WWPN 107 (1) of the port 204 (1) is set in the virtual HBA 202 (1).
  • WWN World Wide Node Name
  • WWPN World Wide Node Name
  • WWNN World Wide Node Name
  • WWN, WWPN, and WWNN are used as endpoint identifiers for identifying the endpoints in the SAN.
  • the server 2 is provided with a virtual operating system P212, a VM management program P213, and a VM mapping table T15 for the VM 211. Further, the WWPN 203 (2) different from the WWPN 107 (2) of the port 204 (2) is set in the virtual HBA 202 (2).
  • the virtual operating system P212 and the VM management program P213 communicate with the server management agent P9.
  • the VM management program P213 of each server 2 communicates with each other for VM resource management and VM migration control.
  • a WWN pair including group information and pair information is generated.
  • the LUN masking of the storage apparatus is automatically set using the generated WWN pair.
  • FIG. 3 shows an outline of the WWN format T3.
  • WWN includes FC-FS (Fibre) of ANSI T11 (The American National Standards Institute T11 technical committee) committee. NAA (Network Address Authority) Name Identifier defined by Channel-Framing and Signaling) is used.
  • FC-FS Fibre
  • NAA Network Address Authority
  • the upper 4 bits field C32 indicates the type of NAA.
  • the remaining fields are divided into a first field C33 and a second field C34.
  • the first field C33 has a 12-bit length, and its value is set to zero.
  • the second field C34 is 48 bits long, and a MAC (Media (Access Control) address is used as its value (L31).
  • the first field C33 has a 12-bit length, and vendor-specific information is set as its value. Further, the second field C34 is 48 bits long, and a MAC address is used as its value.
  • the first field C33 is 24 bits long, and a vendor identifier is set as its value. Further, the second field C34 has a 36-bit length, and vendor-specific information is set as its value.
  • the first field C33 is 24 bits long, and a vendor identifier is set as its value.
  • the second field C34 has a length of 100 bits, and vendor-specific information is set as its value.
  • any type of WWN of NAA1, NAA2, or NAA5 that is 64 bits long is used.
  • FIG. 4 shows an example of the WWN format T4 used in this embodiment.
  • the NAA5 type described with reference to FIG. 3 is used.
  • the vendor identifier (COMPANY ID (Identifier)) is 20 bits long, and the vendor-specific information is 40 bits long.
  • Vendor-specific information is divided into five 8-bit length fields in total.
  • the first field is a group ID field C43.
  • the second field is a pair ID field C44.
  • the third field is a system ID field C45.
  • the fourth field is a serial number field C46.
  • the fifth field is a virtualization ID field C47.
  • the information in the system ID field C45, the information in the serial number field C46, and the information in the virtualization ID field C47 are information for uniquely identifying the virtualized endpoint within the vendor. Furthermore, in order to simplify the description, the WWN format T5 shown in FIG. 5 is used.
  • FIG. 5 shows a further simplified example of the WWN format T5.
  • the WWN format T5 is based on the type of NAA5.
  • the vendor identifier C52 is 20 bits long.
  • Vendor-specific information (C53 to C55) is 40 bits long.
  • a value of “0: 12: 34h” is used for the vendor identifier C52 throughout the embodiment.
  • “H” indicates a hexadecimal number, and “:” indicates a delimiter for each byte.
  • Vendor-specific information is divided into three fields.
  • the first field is a 16-bit long group ID field C53.
  • the second field is a 16-bit long pair ID field C54.
  • the third field is an 8-bit system type field C55. When “1” is set in the system type field C55, this indicates that the system type is used for storage. When “2” is set in the system type field C55, it indicates that the server type is used.
  • the WWN formats T4 and T5 shown in FIGS. 4 and 5 are merely examples, and the present invention is not limited to the illustrated WWN formats.
  • the length of each field may be a length other than the illustrated value, and the type of NAA is not limited to NAA5.
  • FIG. 6 shows a WWN pair table T6 for managing WWNs constituting a pair.
  • FIG. 6 shows the configuration of the initial state of the WWN pair table.
  • the WWN pair table T6 has, for example, a pair ID field C61, a status flag field C62, a server WWN field C63, and a storage WWN field C64 as one entry L61.
  • the pair ID is information for identifying each WWN pair.
  • the status flag indicates whether the WWN pair has been generated (GENERATED) and whether the WWN pair has been assigned (ASSIGNED).
  • the symbol before “/” is a generation flag indicating whether a WWN pair has been generated. After “/” is an allocation flag indicating whether or not a WWN pair is allocated (whether or not it is used).
  • the status flag C62 is “0/0”, it indicates that a WWN pair is not generated and a WWN pair is not allocated (not used).
  • the status flag C62 is “1/0”, it indicates that a WWN pair has been generated but not assigned.
  • the status flag C62 is “1/1”, it indicates that a WWN pair has been generated and that the WWN pair has been allocated.
  • FIG. 7 shows a state during operation of the WWN pair table T6.
  • the contents of the entries L71 to L74 are generated by the WWN pair generation process described in FIG.
  • the configuration of the WWN will be described using the value “50: 12: 33: 00: 00: 00: 01: 02” stored in the entry L71 of the server WWN field C63.
  • the leading “5” indicates that the type is NAA5.
  • the subsequent “0:12:34” is a vendor identifier (company ID) for identifying the vendor that is the WWN issuer, as described above.
  • vendor identifier company ID
  • a device that has received the WWN including the vendor identifier is notified that the WWN has been generated according to a specific generation rule. That is, the vendor identifier also serves as notification information for notifying the storage device 1, the server 2, and the SAN switch 3 that the WWN including the vendor identifier is a characteristic WWN.
  • “00:00” following the vendor identifier is a group identifier for identifying the group to which the WWN belongs. In the example of FIG. 7, no group identifier is set. An example of the WWN for setting the group identifier will be described later.
  • “00:01” following the group identifier is a pair identifier for identifying a pair.
  • the last “02” indicates the type of the device to which the WWN is set. As described above, “01” is set in the storage device 1 and “02” is set in the server 2.
  • each processing described below is realized by the microprocessor reading and executing each program stored in the memory. Therefore, the subject of each process below may be a program or a microprocessor. Alternatively, the subject of each of the following processes can be described as a controller or a server. For convenience, the management server 4 will be described as a subject instead of the integrated management program P7.
  • the management server 4 determines a WWN pair generation condition (S10). There are two generation conditions: creation of a new pair and deletion of an existing pair. When creating a new pair, the management server 4 determines whether or not there is an unused pair ID in the WWN pair table T6 (1) (S11).
  • the management server 4 creates a server WWN and a storage WWN that are paired with each other using the extracted unused pair ID (S13).
  • the server WWN is “50: 12: 33: 00: 00: 01: 02”.
  • the storage WWN differs from the server WWN only in the value of the system type. That is, the storage WWN is generated as “50: 12: 33: 00: 00: 01: 01”.
  • the management server 4 stores the two generated WWNs in the WWN pair table T6, sets the status flag C62 to “1/0” (S14), and ends the process.
  • the management server 4 ends the process. This is because a server WWN and storage WWN pair cannot be generated.
  • the management server 4 selects a pair ID to be deleted (S15).
  • the management server 4 sets the status flag C62 of the entry L61 having the pair ID to be deleted to “0/0” (S16), and ends the process. Thereby, the selected pair ID returns to the unused state.
  • deleting an existing pair it is not necessary to delete the value of the server WWN field C63 and the value of the storage WWN field C64. However, for example, all 0 may be set as the values of the storage WWN and the server WWN.
  • FIG. 9 is a configuration diagram of the WWN group table T9 for managing the group to which the WWN belongs.
  • the WWN group table T9 includes, for example, a group ID field C91, an assigned number (ASSIGNED) field C92, and a field C93 indicating a pair ID constituting the group as one entry L91 and L92.
  • the allocated number indicates the number of WWN pairs belonging to the group. 0 is set when there is no pair in the group, 1 is set when there is one pair, and 2 is set when there are two pairs.
  • FIG. 10 shows the configuration of the WWN pair table T6 (3) corresponding to the WWN group table T9 shown in FIG.
  • FIG. 10 shows the result of executing the processing of FIG. 11 so that the contents of the table of FIG. 9 are realized.
  • the management server 4 determines a WWN pair generation condition (S20). There are the following four generation conditions.
  • Condition (1) Add a pair to a new group Condition (2): Add a pair to an existing group Condition (3): Delete a pair from an existing group Condition (4): Delete an existing group Create a new group
  • the management server 4 determines whether there is an unused group ID in the WWN group table T9 (S21). When there is an unused group ID (S21: YES), the management server 4 extracts one unused group ID (S22). The management server 4 associates the pair ID with the unused group ID (S23).
  • the management server 4 adds 1 to the value “0” of the assigned number field C92 having the group ID “1” to set it to “1”, and further configures the group.
  • the pair ID value “1” is registered in the field C93 indicating the pair ID to be set.
  • the management server 4 updates the generated server WWN and storage WWN using the group ID (S24). That is, when the pair ID is selected, the server WWN and the storage WWN can be automatically generated according to the generation rule described above.
  • the generated server WWN and storage WWN are registered in the WWN pair table T6 (3).
  • the management server 4 updates the server WWN and the storage WWN so that the group ID is included (S24).
  • the management server 4 sets “1” in the group ID area included in the generated server WWN (C63) in the entry L101 in which the pair ID of the WWN pair table T6 (3) is “1”. In other words, the value of the group ID is changed from “00:00” to “00:01”. Similarly, the management server 4 sets “1” in the group ID area of the storage WWN (C64).
  • the value of the server WWN (C63) is “50: 12: 33: 00: 01: 00: 01: 02” as shown in the entry L101 of the WWN pair table T6 (3).
  • the value of the storage WWN (C64) is “50: 12: 33: 00: 01: 00: 01: 01”.
  • the management server 4 sets “1/0” in the status flag C62 of the updated WWN pair (S25).
  • the management server 4 ends the process. This is because a new group cannot be created.
  • the management server 4 When deleting a pair from an existing group (condition (3)), the management server 4 selects a specified pair ID to be deleted (S27). The management server 4 determines whether or not the pair ID to be deleted is a pair ID registered in the WWN group table T9 (S28).
  • the management server 4 sets the status flag C62 corresponding to the pair ID to be deleted to “0/0” in the WWN pair table T6 (3). (S29). Further, the management server 4 deletes the pair ID to be deleted from the field C93 of the WWN group table T9, and subtracts 1 from the value of the assigned number field C92 (S30).
  • the management server 4 ends the process.
  • the management server 4 determines whether a pair ID is registered in the specified deletion target group (S26). Specifically, the management server 4 determines whether or not the value of the allocated number C92 corresponding to the group ID to be deleted is greater than zero. When the value of the assigned number C92 is larger than 0 (S26: YES), the pair ID remains in the deletion target group. Therefore, the management server 4 executes the same processes S27 to S30 as when deleting a pair from an existing group.
  • the management server 4 ends the process. Since no pair ID exists in the group to be deleted, it is equivalent to deleting the group ID. It is not necessary to delete the group ID itself to be deleted from the WWN group table T9.
  • the management program P7 extracts one pair from the WWN pair table T6 (S40), and sets “1/1” in the status flag C62 (S41). That is, the management server 4 sets “1” in the portion indicating whether or not the status flag C62 has been allocated.
  • the management program P7 accesses the storage management agent P8 (S42), subsequently accesses the server management agent P9 (S46), and finally accesses the switch management agent P10 (S49).
  • S42, S46, and S49 will be described first because they use the LUN mapping table T13, the LUN masking table T14, and the VM mapping table T15 shown in FIGS.
  • FIG. 13 is a configuration diagram of the LUN mapping table T13.
  • the LUN mapping table T13 has a table configuration in which, for example, the port ID field C131, the VHBA field C132, the WWPN field C133, and the LUN mapping field C134 are one entry L131-L133.
  • Each entry L131-L133 of the LUN mapping table T13 shows the relationship between the port 204 (1), the virtual HBA 202 (1) and its WWPN 203 (1), and the LUN 201 of the storage apparatus 1 shown in FIG.
  • VHBA is a virtually provided HBA.
  • a plurality of virtual HBAs can be provided in one port 204 (1). Then, at least one LUN 201 can be associated with the virtual HBA.
  • FIG. 14 is a configuration diagram of the LUN masking table T14.
  • the LUN masking table T14 has a table configuration in which, for example, the port ID field C141, the VHBA field C142, the WWPN field C143, and the LUN masking field C144 are one entry L141 to L143.
  • the correspondence relationship between the LUN 201 and the virtual HBA (2) is determined by storing the WWPN 203 (2) set in the virtual HBA 202 (2) of the server 2 in the LUN masking field C144.
  • the fields C141 to C143 of the LUN masking table T14 are the same as the fields C131 to C133 of the LUN mapping table T13. Therefore, the field C144 of the LUN masking table T14 may be merged with the LUN mapping table T13. That is, a configuration in which LUN mapping and LUN masking are managed by one table may be used.
  • FIG. 15 is a configuration diagram of the VM mapping table T15.
  • the VM mapping table T15 has a table configuration in which, for example, the port ID field C151, the VHBA field C152, the WWPN field C153, and the VM mapping field C154 are one entry L151 to L154.
  • the VM mapping table T15 defines the correspondence between the virtual HBA 202 (2) of the server 2 and the VM 211 shown in FIG.
  • the storage management agent P8 sets the storage WWPN (C64) extracted from the WWN pair table T6 in the virtual HBA 202 (1) of the storage device 1 (S43).
  • the storage management agent P8 sets corresponding values in the fields C132 and C133 of the LUN mapping table T13 and the fields C142 and C143 of the LUN masking table T14, respectively, and further corresponds to the virtual HBA 202 (1).
  • the LUN is set in the LUN mapping field C134 (S44).
  • the storage management agent P8 sets the server WWPN (C63) that forms a pair with the storage WWPN set in S43 in the LUN masking field C144 of the LUN masking table T14 (S45).
  • the storage management agent P8 can automatically obtain the server WWPN (server WWN) from the storage WWPN (storage WWN) without referring to the WWN pair table T6.
  • WWN pairs characteristic of this embodiment are created according to a predetermined generation rule as described in FIG. Further, by analyzing the configuration of the vendor identifier, it can be determined whether or not the WWN including the vendor identifier is a half-break of the WWN pair. Therefore, the storage management agent P8 can automatically identify the server WWN from the storage WWN, and can create a LUN masking table using the identified server WWN.
  • the server management agent P9 sets the server WWPN (C63) extracted from the WWN pair table T6 in the virtual HBA 202 (2) of the server 2 (S47).
  • the server management agent P9 creates a VM mapping table via the VM management program P213.
  • the VM management program P213 sets values corresponding to the fields C152 and C153 of the VM mapping table T15, respectively, and registers the VM corresponding to the virtual HBA 202 (2) in the VM mapping field C154 (S48).
  • the switch management agent P10 creates a zone having the storage WWPN (C64) and the server WWPN (C63) extracted from the WWN pair table T6 as members (S50).
  • a pair of server WWNs and storage WWNs are generated and managed in advance, and when an endpoint (VHBA, port) to be paired is designated, the WWN Set each pair to each endpoint.
  • the storage apparatus 1 can automatically create the LUN mapping table T13 and the LUN masking table T14, and the SAN switch 3 can perform the zoning table (FIG. 17). Can be created automatically. Therefore, it is possible to reduce management man-hours for access control and communication control.
  • the storage apparatus 1 can immediately specify the server WWN corresponding to the storage WWN based on the storage WWN. Therefore, the storage apparatus 1 can automatically create a LUN masking table without referring to the WWN pair table T6.
  • the SAN switch 3 can immediately specify another WWN that forms a pair with the WWN. That is, if either one of the storage apparatus 1 or the server 2 is logged in to the fabric, the zoning table can be created even if the other is not logged in to the fabric.
  • a second embodiment will be described with reference to FIGS.
  • This embodiment corresponds to a modification of the first embodiment. Therefore, the difference from the first embodiment will be mainly described.
  • zoning is set in the SAN switch 3 using a WWN including group information and pair information.
  • FIG. 16 is a configuration diagram of the name table T16 that the SAN switch 3 has.
  • the name table T16 includes, for example, a port ID field C161, an FC ID field C162, a WWPN field C163, a WWNN field C164, an FC-4 FEATURES field C165, a zone ID field C166, and one entry L161-L166. This is the table configuration.
  • the port ID shown in the port 114 of the SAN switch 3 shown in FIG. 2 is set in the port ID field C161.
  • the FC ID field C162 an address used in the FC-SAN is set.
  • FLOGI fabric login
  • FC IDs are distributed to the port 204 of the storage apparatus 1, the virtual HBA 202, the port 204 of the server 2, and the WWPN of the virtual HBA 202.
  • the device that has received the FC ID registers its WWPN, WWNN, and FC-4 FEATURES in the name table T16.
  • FC-4 FEATURES is a function of the upper layer in FC.
  • the storage apparatus 1 has a TARGET function
  • the server 2 has an INITIATOR function.
  • SCSI-FCP Fibre Channel Protocol
  • FC-4 FEATURES is a function of the upper layer in FC.
  • the storage apparatus 1 has a TARGET function
  • the server 2 has an INITIATOR function.
  • SCSI-FCP Fibre Channel Protocol
  • zone ID field C166 a zone ID of a zoning table T17 described below is set.
  • FIG. 17 is a configuration diagram of the zoning table T17 included in the SAN switch 3.
  • the zoning table T17 has a table configuration in which, for example, a zone ID field C171, a zone name field C172, a zone member list field C173, and a CONFIG field C174 are one entry L171-L173.
  • Zone ID is information for identifying each zone.
  • the name of each zone is set in the zone name field C172.
  • the zone name may be set manually by the user or may be set automatically. The user can set or change the zone name using the integrated management program P7 or the switch management agent P10.
  • the real HBA or the virtual HBA WWPN is set.
  • a type for generating a zone is set.
  • AUTO is set.
  • MANUAL is set.
  • the user can set or change the zone using the integrated management program P7 or the switch management agent P10.
  • the zoning function also has a function of setting a group whose members are zones. This function is called zone SET.
  • the switch management agent P10 may be the subject.
  • the SAN switch 3 determines whether or not to automatically generate a zone (S60). When the zone is automatically generated (S60: AUTO), the SAN switch 3 searches the name table T16, the vendor identifier in the WWPN (C163) is “0:12:34” h, and the zone ID is not yet set. It is determined whether there is a registered entry (S61).
  • the SAN switch 3 When an entry that is a WWPN having a predetermined vendor identifier “0:12:34” and whose zone ID is not registered is found (S61: YES), the SAN switch 3 extracts the entry (S62). ). The SAN switch 3 creates a zone for each pair ID of the extracted entry (S63). The SAN switch 3 sets “AUTO” in the CONFIG field C174 (S64).
  • the SAN switch 3 registers the zone ID registered in the zoning table T17 in the zone ID field C166 of the name table T16 (S65).
  • the SAN switch 3 returns to S61, and searches the name table T16 again to determine whether there is an entry that is a WWPN (C163) including a predetermined vendor identifier and whose zone ID is not registered (S61). .
  • the entries L161-L164 of the name table T16 (1) have a WWPN including a predetermined vendor identifier “0:12:34”. Accordingly, the SAN switch 3 extracts the entries L161-L164.
  • the pair IDs included in the extracted WWPN are “1” and “2”.
  • the SAN switch 3 selects a zone ID in which a zone having the first pair as a member is to be registered.
  • zone ID 1
  • the SAN switch 3 sets the WWPN of the entry L161 and the WWPN of L162 of the name table T16 in the zone member list field C173 of the entry L171 having the zone ID “1”.
  • the SAN switch 3 sets “AUTO” in the CONFIG field C174.
  • the SAN switch 3 sets the WWPN of the entry L163 and the WWPN of L164 of the name table T16 in the zone member list field C173 of the entry L172 whose zone ID is “2”. Further, the SAN switch 3 sets “AUTO” in the CONFIG field C174.
  • the SAN switch 3 searches the name table T16 and determines whether there is an entry whose zone ID is not registered (S66).
  • the SAN switch 3 sets a zone in the zoning table T17 as instructed by the user (S67).
  • a user can set a zone in the SAN switch 3 by using the integrated management program P7 or the switch management agent P10.
  • the SAN switch 3 sets “MANUAL” in the CONFIG field C174 (S68).
  • the SAN switch 3 registers the zone ID registered in the zoning table T17 in the zone ID field C166 of the name table T16 (S69). Thereafter, the SAN switch 3 returns to S66.
  • the SAN switch 3 can automatically set the zone by analyzing the contents of the name table T16 (1), so that the time and labor required for the zone setting can be saved and management man-hours can be reduced. it can.
  • LUN masking is automatically set in the storage apparatus 1 using an iSCSI name including group information and pair information.
  • FIG. 19 shows a logical overall configuration of a SAN (referred to as IP-SAN) using iSCSI according to the present embodiment. Differences from FIG. 2 are listed below.
  • the iSNS server 193 can have the same physical configuration as the management server 4. Although not shown, the iSNS server 193 includes, for example, a CPU, a memory, a NIC, and the like. In the configuration of the IP-SAN shown in FIG. 19, an iSCSI name as an “endpoint identifier” is used instead of the WWN or WWPN used in the FC-SAN.
  • the iSCSI name format will be described with reference to FIGS.
  • the iSCSI name is defined by RFC3720 (http://www.ietf.org/rfc/rfc3720.txt) of IETF (Internet Engineering Task Force).
  • FIG. 20 is a configuration diagram of the iSCSI name format T20 in the IQN (iSCSI Qualified Name) format.
  • the entire length of the iSCSI name format T20 is 255 bytes.
  • the iSCSI name format T20 includes a type field C201, a DATE field C202, a domain name field C203, and an option field C204.
  • Vendor-specific information can be used in the option field C204.
  • group ID group information
  • pair information pair information
  • system type storage or server
  • FIG. 21 is a configuration diagram of an iSCSI name format T21 in an EUI (Enterprise Extended Unique Identifier) format.
  • the EUI iSCSI name format T21 includes a type field C211 and 64-bit information C212 that is automatically generated from a MAC (Media Access Control) address. In the type field C211, the characters “eui.” Are used.
  • FIG. 22 is a block diagram of the iSCSI name format T22 in the NAA format.
  • the NAA format iSCSI name field T22 includes a type field C221 and NAA format information C222 used in the WWN.
  • the type field C221 the characters “naa.” Are used.
  • the value described in the first embodiment can be used as it is for the NAA format information C222.
  • the IQN format shown in FIG. 20 and the NAA format shown in FIG. 22 are used as iSCSI names including group information and pair information.
  • An entry L201 in FIG. 20 and an entry L221 in FIG. 22 respectively show examples of iSCSI names of storage devices whose pair information is “1”.
  • FIG. 23 shows the WWN pair table T6 (4) of the present embodiment.
  • the WWN pair table T6 (4) has the same structure as the WWN pair table T6 (1) shown in FIG. However, the iSCSI name is used in place of WWPN in the WWN pair table T6 (4) of this embodiment.
  • Entries L231 and L232 show examples in which iSCSI names in IQN format are stored.
  • Entries L233 and L234 show an example of storing an iSCSI name in NAA format.
  • the process for generating the WWN pair table T6 (4) of this embodiment is the same as the generation process shown in FIG. Note that the underlined value in the WWN pair table T6 (4) indicates the value of the pair ID. For example, “0001” indicates that the pair ID is “1”, and “0002” indicates that the pair ID is “2”.
  • FIG. 24 shows the LUN mapping table T13 (2) of this embodiment.
  • the LUN mapping table T13 (2) has the same structure as the LUN mapping table T13 (1) shown in FIG. However, in the LUN mapping table T13 (2) in FIG. 24, the iSCSI name is used instead of WWPN.
  • the value of the iSCSI name field C242 of the entries L241 to L243 the value of the storage iSCSI name (C64) of the entries L231 to L233 of the WWN pair table T6 (4) is used.
  • FIG. 25 shows the LUN masking table T14 (2) according to this embodiment.
  • This LUN masking table T14 (2) has the same structure as the LUN masking table T14 (1) shown in FIG. However, in the LUN masking table T14 (2) in FIG. 25, the iSCSI name is used instead of WWPN.
  • the value of the LUN masking field C144 of the entries L251-L253 the value of the server iSCSI name (C63) of the entries L231-L233 of the WWN pair table T6 (4) is used.
  • FIG. 26 shows a VM mapping table T15 (2) according to this embodiment.
  • the VM mapping table T15 (2) has the same structure as the VM mapping table T15 (1) shown in FIG. However, the VM mapping table T15 (2) in FIG. 26 uses an iSCSI name instead of WWPN.
  • the value of the iSCSI name field C263 of the entries L261-L264 the value of the server iSCSI name (C63) of the entries L231-L234 of the WWN pair table T6 (4) is used.
  • each table in FIGS. 24 to 26 are generated by the same processing as the integrated management program P7 shown in FIG. Then, as a processing result of the integrated management program P7, the iSCSI name (ISN) 192 (1) is set in the virtual NIC 191 (1) of the storage apparatus 1, and the iSCSI name (ISN) is set in the virtual NIC 191 (2) of the server 2. 192 (2) is set.
  • This embodiment configured as described above also has the same effect as the first embodiment and the second embodiment.
  • a discovery domain (hereinafter also referred to as DD) is set in the iSNS server using an iSCSI name including group information and pair information.
  • DD is similar to the zone of the zoning process in the FC-SAN switch, and device discovery and device information collection are permitted only between members in the DD (by WWPN or iSCSI name).
  • Zoning has a function to check communication permission for each frame in the FC switch 3.
  • DD is realized only by the iSNS server 193. Therefore, the LAN switch 195 does not check whether communication is possible for each frame.
  • FIG. 27 is a configuration diagram of the name table T26 that the iSNS server 193 has.
  • the name table T26 has a structure similar to the name table T16 (1) of the SAN switch 3 shown in FIG.
  • the FC ID field C162 is changed to the IP address field C272.
  • the WWPN field C163 is changed to the iSCSI name field C273.
  • the zone ID field C166 is changed to the DD ID field C276.
  • a TCP (Transmission Control Protocol) port number may be set in the IP address field C272.
  • the IP address may have a different subnet.
  • the version of the IP address may be set by either IPv4 or IPv6. Normally, when a device such as a server or storage is connected to the IP-SAN, the IP address, TCP port number, iSCSI name, and FC-4 FEATURES of the device itself are registered in the iSNS server 193.
  • FIG. 28 is a configuration diagram of the discovery domain table T27 that the iSNS server 193 has.
  • the DD table T27 has a configuration similar to the zoning table T17 of the SAN switch 3 shown in FIG.
  • the difference between the DD table T27 in FIG. 28 and the zoning table T17 in FIG. 17 is as follows.
  • the zone ID field C171 is changed to the DD ID field C281.
  • the zone name field C172 is changed to the DD name field C282.
  • the zone member list field C173 is changed to the DD member list field C283.
  • the underlined domain name is handled as a vendor identifier in the name table T16. That is, when an iSCSI name including a predetermined domain name set in advance is detected, the iSCSI name is generated based on a predetermined generation rule, and there is another iSCSI name as a pair. It turns out.
  • a fifth embodiment will be described with reference to FIGS.
  • a WWN including group information and pair information is used on the premise of the first embodiment and the second embodiment.
  • group information is used, setting changes for LUN masking and zoning are not required even if VMs are migrated.
  • FIG. 29 shows the logical configuration of the computer system. Differences from the configuration shown in FIG. 2 will be described.
  • the VM 211 (1) is not connected to the virtual HBA 202 (2) displayed as “VHBAa21” for the sake of simplicity. That is, the VM 211 (1) is not mapped to VHBAa21.
  • FIG. 29 shows a state in which the VM 211 (1) of the server 2 (1) moves to the position of the VM 211 (4) of the server 2 (2).
  • the migration of the VM is performed by the virtual operating systems P212 (1) and P212 (2) and the VM management programs P213 (1) and P213 (2).
  • FIG. 30 shows the WWN group table T9 (2) of this embodiment.
  • the WWN group table T9 (2) has the same structure as the WWN group table T9 described in FIG. However, in the WWN group table T9 (2) of FIG. 30, only 1 is used as the group ID.
  • FIG. 31 shows the WWN pair table T6 (5).
  • a WWN pair table T6 (5) in FIG. 31 is a generation result of the WWN pair table T6 when the WWN pair generation process in FIG. 11 is performed so as to be the contents of the WWN group table T9 shown in FIG. .
  • the underlined value (00:01) in the WWN pair table T6 (5) is the group ID value.
  • a plurality of server WWPNs can be associated with one storage WWPN by adding a predetermined process.
  • all the server WWPNs (C63) in the same group are extracted from the WWN pair table T6 (5) of FIG. 31, and these server WWPNs are set in the LUN masking field C144 of the LUN masking table T14 (3). To do.
  • the VM mapping table T15 (3) in FIG. 34 includes a virtual HBA 202 (2) (VHBAa11) that maps the VM of the server 2 (1) and a virtual HBA 202 (2) (for mapping the VM of the server 2 (2) ( WWPN including the same group ID is set in VHBAb11).
  • the WWPN set in the WWPN field C153 has the same group ID (00:01).
  • the VM 211 (1) (VMa1) is movable from the position in the server 2 (1) to the position of the VM 211 (4) in the server 2 (2).
  • FIG. 35 is a name table T16 (2) of this embodiment.
  • the name table T16 (2) has the same structure as the name table T16 (1) described in FIG. However, in order to simplify the explanation, FIG. 35 shows only information related to the VM (VMa1) shown in FIG.
  • the storage apparatus 1 and the server 2 register in the name table T16 of the SAN switch 3 based on the entries L331 and L332 of the LUN masking table T14 (3) in FIG.
  • the registration result is shown in entries L351 and L353 of the name table T16 (2) in FIG.
  • FIG. 36 shows the zoning table T17 (3) of this embodiment.
  • the zoning table T17 (3) has the same structure as the zoning table T17 described in FIG.
  • the zoning table T17 (3) in FIG. 36 can be created by partially changing the zoning table automatic generation process shown in FIG. That is, the zoning table T17 (3) of this embodiment is created by changing the process of creating a zone for each entry pair ID (S63) to the process of creating a zone for each group ID of the extracted entry. it can.
  • a step of generating a zone for each group ID may be added to the flowchart of FIG. In that case, a zone for each pair ID and a zone for each group ID exist in the zoning table T17.
  • the integrated management program P7 may be executed by the SAN switch 3.
  • the management network 11 may be realized by in-band communication on the FC-SAN.
  • the configuration of the iSNS server 193 shown in FIG. 19 may be provided in the LAN switch 194. Furthermore, the WWN or iSCSI name including group information and pair information shown in FIGS. 4, 5, 20, and 22 is a WWN or iSCSI name including only group information, or a WWN or iSCSI name including only pair information. It may be.
  • the server WWN shown in FIG. 7, FIG. 10, FIG. 23, and FIG. 31 may be used as an initiator WWN when data is copied between storage devices.
  • the server WWN may be set to the port of the copy source storage apparatus, and the storage WWN that forms a pair with the server WWN may be set to the port of the copy destination storage apparatus.
  • the endpoint identifiers shown in FIGS. 5 and 20 are displayed in a form that allows humans to understand the group ID field and the pair ID field.
  • the endpoint identifier may be converted into an unreadable (unintelligible) or difficult-to-read (unintelligible) form by a reversible function. Thereby, confidentiality can be improved.
  • the present invention can be grasped as a switch device or an iSCSI name server as follows.
  • Viewpoint 1 A switch device used in a storage area network, wherein a detection function for detecting that an endpoint identifier registered in a name server is a predetermined endpoint identifier including pair information, and a plurality of the pair information including the pair information
  • a switch device comprising a zone setting function for setting a zone for each pair with the predetermined endpoint identifier as one group.
  • Viewpoint 2 The switch device according to aspect 1, wherein the predetermined endpoint identifier further includes group information in which a pair of endpoints is grouped, and the zone setting function includes the endpoint including the group information as one group. Switch device that sets a zone for each group.
  • a detection function for detecting that an endpoint identifier registered in the name server is a predetermined endpoint identifier including pair information, and a plurality of the predetermined endpoint identifiers including the pair information.
  • An iSCSI name server having a discovery domain setting function for setting a discovery domain for each pair as a group.
  • Viewpoint 4 The iSCSI name server according to aspect 3, wherein the predetermined endpoint identifier further includes group information that groups endpoint pairs, and the discovery domain setting function includes an endpoint identifier that includes the group information.
  • An iSCSI name server that sets a discovery domain for each pair as one group.
  • Storage device 1: Storage device, 2: Server, 3: SAN switch, 4: Management server, 193: iSNS server, 195: LAN switch, 211: Virtual machine, P7: Integrated management program

Abstract

 LUNマスキング及びゾーニングの設定の手間を省くこと。 統合管理プログラムは、サーバのポートを識別するためのサーバ用WWNと、ストレージ装置のポートを識別するためのストレージ用WWNとを、ペアで生成して管理する。サーバは、サーバ用WWNをポートに設定する。ストレージ装置は、ストレージ用WWNをポートに設定する。ストレージ装置は、各WWNに基づいてLUNマスキングを自動的に設定できる。スイッチは、ゾーニングを自動的に設定できる。

Description

コンピュータシステムの管理装置及び管理方法
 本発明は、コンピュータシステムの管理装置及び管理方法に関する。
 FC(Fibre Channel)やiSCSI(internet Small Computer System Interface)を使用するコンピュータシステムでは、各コンピュータ装置(サーバ、ストレージ、スイッチ)のアクセス制限は、装置毎に設定される。従って、装置台数が多いコンピュータシステムでは、アクセス制限を設定したり、アクセス制限を変更したりするための、管理工数が増大する。
 アクセス制限には、エンドポイント(例えばサーバ、ストレージ装置)の識別子が使用される。エンドポイント識別子としては、WWNまたはWWPN(World Wide Port Name)、iSCSIネームがある。WWNは、通常、サーバのHBA(Host Bus Adapter)の通信ポート(以下、ポート)またはストレージ装置のポートに、メーカが製品出荷前に設定する。
 SAN(Storage Area Network)管理におけるアクセス制限には、ストレージ装置側で実施するLUN(Logical Unit Number)マスキング機能と、SANスイッチ側で実施されるゾーニング機能とが知られている。
 LUNマスキング機能は、LUNセキュリティ機能とも呼ばれる。LUNマスキング機能は、ストレージ装置の有する論理的記憶領域であるボリューム単位に、そのボリュームにアクセスできるサーバの通信ポートを指定する。
 ボリュームは、論理ユニット番号により識別される。サーバのポートは、WWNにより識別される。論理ユニット番号とWWNとの対応を管理することで、ボリュームにアクセス可能なサーバのポートを制限できる。これにより、複数サーバが共通のボリュームに同時にアクセスしてボリュームに記憶されたデータが破壊されたり、または、ボリュームに記憶されたデータが漏洩したりするのを防止できる。
 ゾーニング機能は、LUNマスキング機能と共に利用される。ゾーニング機能は、ボリュームとサーバのポートとの関係をゾーンとして定義する。SAN上では、ゾーン内でのみデータがやり取りされ、ゾーン外部にデータは流れない。つまり、ゾーンに含まれるボリュームとサーバのポートの間でのみ通信可能である。ゾーンを設定することにより、ゾーン内の装置がゾーン外部の装置に発見されるのを防止できる。
 SANに接続されるサーバ及びストレージ装置の台数が増加したり、ストレージ装置のボリューム数が増加したりすると、LUNマスキング機能とゾーニング機能との設定に要する時間及び手間が増大する。つまり、管理工数が増大する。管理工数が増大するほど、人為的ミスが発生する可能性も高くなる。
 そのため、各装置からWWN情報を収集し、収集したWWN情報に基づいて、LUNマスキング機能及びゾーニング機能の設定を管理する、第1従来技術が知られている(特許文献1)。
 さらに、各装置に対する設定操作または変更操作の履歴を記録し、設定に間違いがあった場合にその原因解析を行い、原因解析結果をSAN管理者へ通知する、第2従来技術も知られている(特許文献2)。
米国特許第7,103,653号明細書 米国特許第7,349,961号明細書
 近年では、処理すべきデータ量がますます増大しており、これに伴い、仮想化の需要が増大している。つまり、物理的なサーバ上に仮想的なサーバを複数設けたり、ストレージ装置内に仮想的なボリュームを複数設けたりすることが、求められている。
 しかし、従来技術では、WWNの変更はできないことを前提としている。従って、従来技術では、仮想化された複雑なコンピュータシステムには対応することができない。さらに、従来技術は、工場出荷前にWWNが固定的に設定されることを前提とするため、WWNの生成方法及び設定変更方法については全く考慮されていない。
 本発明は、管理工数を低減することができるコンピュータシステムの管理装置及び管理方法を提供する。本発明は、ペアを構成するエンドポイント識別子を予め生成して管理することにより、アクセス制御情報を自動的に設定できるようにしたコンピュータシステムの管理装置及び管理方法を提供する。
 上記課題を解決するため、一つの観点に係るコンピュータシステムの管理装置は、コンピュータシステムを管理するための管理装置であって、コンピュータシステムは、互いに通信可能に接続される複数のコンピュータ装置を備えており、管理装置は、管理プログラムを記憶するメモリと、管理プログラムを実行するプロセッサと、各コンピュータ装置と通信するための通信インターフェース回路とを備えており、マイクロプロセッサは、管理プログラムを実行することにより、各コンピュータ装置のうち第1コンピュータ装置の有する第1エンドポイントを識別するための第1エンドポイント識別子と、各コンピュータ装置のうち第2コンピュータ装置の有する第2エンドポイントを識別するための第2エンドポイント識別子とを、ペアで生成して管理し、第1エンドポイント識別子を第1コンピュータ装置に送信して第1エンドポイントに設定させ、第2エンドポイント識別子を第2コンピュータ装置に送信して第2エンドポイントに設定させる。
 第1エンドポイント識別子及び第2エンドポイント識別子には、第1エンドポイント識別子と第2エンドポイント識別子により構成されるペアを識別するためのペア情報がそれぞれ含まれてもよい。
 マイクロプロセッサは、管理プログラムを実行することにより、第1エンドポイント識別子及び第2エンドポイント識別子に基づいて、第2エンドポイントにアクセス可能な第1エンドポイントを設定するためのアクセス制御情報を生成させることもできる。
 第1コンピュータ装置は、第1エンドポイントに設定される第1エンドポイント識別子に含まれるペア情報に基づいて、第1エンドポイント識別子とペアを構成する第2エンドポイント識別子を特定し、その特定された第2エンドポイント識別子と第1エンドポイント識別子とを対応付けてアクセス制御情報を生成することもできる。
 本発明は、方法として把握することもできる。さらに、本発明の少なくとも一部は、コンピュータプログラムとして構成してもよい。実施例に記載される本発明の複数の特徴は、自在に組み合わせることもできるであろう。
図1は、FC-SAN(Fibre Channel-Storage Area Network)に従うコンピュータシステムの物理的な構成例を示す全体図である。 図2は、コンピュータシステムの論理的な構成例を示す全体図である。 図3は、WWNフォーマットの概略構成例を示す。 図4は、一つのWWNフォーマットの構成例を示す。 図5は、実施形態に係るWWNフォーマットの構成例を示す。 図6は、WWNのペアを管理するテーブルの初期状態を例示する。 図7は、WWNのペアを管理するテーブルの運用状態を例示する。 図8は、WWNのペアを生成する処理例を示すフローチャートである。 図9は、WWNのグループを管理するテーブルの構成例を示す。 図10は、WWNのペアを管理するテーブルの構成例を示し、各WWNはグループを識別するための情報も含む。 図11は、グループを識別するための情報を含むWWNのペアを生成する処理の例を示すフローチャートである。 図12は、管理サーバの統合管理プログラムにより実行される処理の例を示すフローチャートである。 図13は、LUNマッピングテーブルの構成例を示す。 図14は、LUNマスキングテーブルの構成例を示す。 図15は、VM(Virtual Machine)マッピングテーブルの構成例を示す。 図16は、第2実施例に係り、SANスイッチの有するネームテーブルの構成例を示す。 図17は、SANスイッチの有するゾーニングテーブル構成例を示す。 図18は、ゾーニングテーブルを自動的に生成するための処理の例を示すフローチャート。 図19は、第3実施例に係り、IP-SAN(Internet Protocol-SAN)に従うコンピュータシステムの論理的な構成例を示す全体図である。 図20は、IQN(iSCSI Qualified Name)形式に従うiSCSIネームのフォーマットの例を示す。 図21は、EUI(Extended Unique Identifier)形式に従うiSCSIネームのフォーマットの例を示す。 図22は、NAA(Network Address Authority )形式に従うiSCSIネームのフォーマットの例を示す。 図23は、WWNのペアを管理するテーブルの構成例を示す。 図24は、LUNマッピングテーブルの構成例を示す。 図25は、LUNマスキングテーブルの構成例を示す。 図26は、VMマッピングテーブルの構成例を示す。 図27は、第4実施例に係り、iSNS(Internet Storage Name Service)サーバの有するネームテーブルの構成例を示す。 図28は、iSNSサーバの有するディスカバリドメインテーブルの構成例を示す。 図29は、第5実施例に係り、FC-SANに従うコンピュータシステムの論理的構成例を示す全体図である。 図30は、WWNのグループを管理するテーブルの構成例を示す。 図31は、WWNのペアを管理するテーブルの構成例を示す。 図32は、LUNマッピングテーブルの構成例を示す。 図33は、LUNマスキングテーブルの構成例を示す。 図34は、VMマッピングテーブルの構成例を示す。 図35は、SANスイッチの有するネームテーブルの構成例を示す。 図36は、SANスイッチの有するゾーニングテーブルの構成例を示す。
 以下、図面を参照して、本発明の実施の形態を説明する。本実施形態では、以下に述べるように、管理装置4は、第1コンピュータ装置(例えば、記憶制御装置)1に設定されるべき第1エンドポイント識別子と、第2コンピュータ装置(例えば、サーバ)2に設定されるべき第2エンドポイント識別子とのペアを予め生成し、生成されたWWNのペアをテーブルT6に登録して管理する。関連付けたい2つのエンドポイント106,113が選択されると、管理装置4は、第1コンピュータ装置1に第1エンドポイント識別子を送信し、第1コンピュータ装置1の有する第1エンドポイント(ポート)106に第1エンドポイント識別子を設定させる。さらに、管理装置4は、第2コンピュータ装置2に第2エンドポイント識別子を送信し、第2コンピュータ装置2の有する第2エンドポイント(HBA)113に第2エンドポイント識別子を設定させる。
 第1コンピュータ装置1は、エンドポイント識別子の生成規則を保持している。従って、第1コンピュータ装置1は、管理サーバ4から受領した第1エンドポイント識別子に基づいて、その第1エンドポイント識別子とペアを構成する第2エンドポイント識別子を特定できる。
 第1コンピュータ装置1は、第1エンドポイント識別子の設定された第1エンドポイント106とLUNとを対応付けてLUNマッピングテーブルを作成する。さらに、第1コンピュータ装置1は、第1エンドポイント識別子と第2エンドポイント識別子とを対応付けて、LUNマスキングテーブルを作成する。
 第2コンピュータ装置2も、エンドポイント識別子の生成規則を知っている。従って、第2コンピュータ装置2も、管理サーバ4から受領した第2エンドポイント識別子に基づいて、その第2エンドポイント識別子とペアを構成する第1エンドポイント識別子を特定することができる。
 第2コンピュータ装置2は、第2エンドポイント識別子の設定される第2エンドポイント113にVM(仮想マシン、または仮想サーバ)を対応付けて、VMマッピングテーブルを作成する。これにより、所定のVMのみが所定のHBA113及び所定のポート106を介して、所定の論理ボリュームを使用することができる。
 管理サーバ4は、スイッチ装置3に、ペアを構成する第1エンドポイント識別子及び第2エンドポイント識別子を送信し、ゾーニングテーブル(ゾーニング情報)を作成させることもできる。スイッチ装置3は、受信した第1エンドポイント識別子及び第2エンドポイント識別子を含むゾーンを生成して、ゾーニングテーブルに登録する。
 このように、本実施形態では、ペアとなる第1エンドポイント識別子と第2エンドポイント識別子とを予め生成して管理しておき、ペアとなるべき第1エンドポイントに第1エンドポイント識別子を設定させ、かつ、ペアとなるべき第2エンドポイントに第2エンドポイント識別子を設定させる。
 従って、本実施形態では、LUNマスキングテーブル等のアクセス制御情報を自動的に生成することができる。対応するエンドポイントがそれぞれ有するエンドポイント識別子は既知だからである。従来は、対応するエンドポイントからそれぞれのエンドポイント識別子を取得した後でなければ、アクセス制御情報及びゾーニング情報を作成することはできない。これに対し、本実施形態では、アクセス制御情報等の設定を自動的に行うことができる。
 さらに、本実施形態では、仮想化されたポートまたは仮想化されたサーバがコンピュータシステム内を移動した場合でも、アクセス制御情報及びゾーニング情報を引き継ぐことができる。さらに、予め設定されるグループ内でWWNのペアを使用することにより、コンピュータシステム内での移動にも簡単に対応できる。従って、ユーザの管理工数が低減する。
 なお、実施形態では、第1コンピュータ装置1を記憶制御装置であるストレージ装置1とし、第2コンピュータ装置2をサーバコンピュータであるサーバ2とする場合を中心に説明するが、本発明は、その構成に限られない。
 例えば、コピー元のストレージ装置からコピー先のストレージ装置にデータコピーする場合、コピー元のストレージ装置を第2コンピュータ装置とし、コピー先のストレージ装置を第1ストレージ装置としてもよい。
 図中、サーバ2(1)及び2(2)、SANスイッチ3(1)及び3(2)のように同種の構成に括弧付きの数字を添える。特に区別する必要が無い場合には、サーバ2、SANスイッチ3のように表現する。
 管理サーバ4の統合管理プログラムP7は、ペアとなるWWN(以下、WWNペアとも呼ぶ)を生成する。ペアとなるWWNは、後述のように、ペア情報及びグループ情報を含むことができる。さらに、統合管理プログラムP7は、各装置1,2,3の有する管理エージェントP8,P9,P10と通信する。
 「第1コンピュータ装置」としてのストレージ装置1の管理エージェントP8は、統合管理プログラムP7から受領したストレージ用WWNを、統合管理プログラムP7から指定されたポート106に設定する。さらに、管理エージェントP8は、指定されたポート106に指定されたLUN201(図2参照)を対応付ける。さらに、管理エージェントP8は、受領したストレージ用WWN(第1エンドポイント識別子)と、サーバ用WWN(第2エンドポイント識別子)とを対応付けて、LUNマスキング処理を実施する。
 「第2コンピュータ装置」としてのサーバ2の管理エージェントP9は、統合管理プログラムP7から受領したサーバ用WWNを、統合管理プログラムP7から指定されたHBA(Host Bus Adapter)113に設定する。さらに、管理エージェントP9は、指定されたHBA113に指定されたVM211(図2参照)を対応付ける。
 「スイッチ装置」としてのSANスイッチ3は、管理サーバ4から受領したストレージ用WWN及びサーバ用WWNに基づいて、ゾーンを自動的に設定することができる。
 図1は、FCを使用したSAN(FC-SANと称す)の物理的な全体システム構成を示す。SANは、一般的に、記憶制御装置であるストレージ装置1と、サーバ2とを、SANスイッチ3を介して接続する。さらに、高信頼化のために、サーバ2とストレージ装置1との間は、2つ以上のパスを介して接続してもよい。サーバ2とストレージ装置1とを複数パスを介して接続する構成を、マルチパス構成と呼ぶ。図1では、サーバ2(1)とストレージ装置1との間を、SANスイッチ3(1)と3(2)とで接続し、マルチパス構成としている。
 ストレージ装置1、サーバ2、SANスイッチ3は、管理ネットワーク11に接続されている。管理ネットワーク11には、さらに各装置1,2,3を統合管理するための、管理サーバ4が接続される。
 後述のように、管理サーバ4の統合管理プログラムP7は、管理ネットワーク11を介して、ストレージ装置1のストレージ管理エージェントP8、サーバ2のサーバ管理エージェントP9、SANスイッチ3のスイッチ管理エージェントP10と、管理のためのやりとりを行う。
 ストレージ装置1は、論理的な記憶領域であるボリュームをサーバ2に提供するためのコンピュータ装置である。ストレージ装置1は、複数のコントローラ5と、複数の記憶装置110とを備える。高い信頼性が不要な場合、ストレージ装置1は、一つのコントローラ5のみを備えてもよい。
 一つのコントローラ5は、例えば、CPU(Central Processing Unit)101(1)と、メモリ102(1)と、メモリコントローラ103と、キャッシュメモリ104と、フロントエンドインターフェース回路105と、バックエンドインターフェース回路108とを備える。
 メモリ102には、例えば、ストレージ管理エージェントP8と、LUNマッピングテーブルT13及びLUNマスキングテーブルT14とが記憶される。なお、図示を省略するが、メモリ102には、サーバ2からのコマンドを処理するためのI/O(Input/Output)処理プログラム等も格納される。CPU101は、メモリ102に格納されたコンピュータプログラムを実行して所定の機能を実現する。
 メモリコントローラ103は、CPU101と、キャッシュメモリ104と、フロントエンドインターフェース回路105と、バックエンドインターフェース回路108とを互いに接続する回路である。
 キャッシュメモリ104は、サーバ2から受領したデータ及び記憶装置110から読み出されたデータを記憶する。
 フロントエンドインターフェース回路105は、サーバ2と通信するための通信制御回路である。フロントエンドインターフェース回路105は、複数の通信ポート106を備える。バックエンドインターフェース回路108は、通信ポート109を介して各記憶装置110と通信するための通信制御回路である。
 記憶装置110としては、例えば、ハードディスク装置、半導体メモリ装置、光ディスク装置等のデータを読み書き可能な種々の装置を利用可能である。
 ハードディスク装置を用いる場合、例えば、FC(Fibre Channel)ディスク、SCSI(Small Computer System Interface)ディスク、SATA(Serial Advanced Technology Attachment)ディスク、SAS(Serial Attached SCSI)ディスク等を用いることができる。
 また、例えば、フラッシュメモリ、FeRAM(Ferroelectric Random Access Memory)、MRAM(Magnetoresistive Random Access
Memory)、相変化メモリ(Ovonic Unified Memory)、RRAM(Resistance RAM)」等の種々の記憶装置を用いることもできる。さらに、例えば、フラッシュメモリデバイスとハードディスクドライブのように、種類の異なる記憶装置をストレージ装置1内に混在させる構成でもよい。
 複数の記憶装置110をグループ化して、RAID(Redundant Arrays of Independent Disks)グループ111を構成することができる。RAIDグループ111によりまとめられた物理的記憶領域に基づいて、一つまたは複数の論理ボリュームを生成できる。論理ボリュームにLUNを設定し、さらにサーバ2との通信経路を設定することにより、サーバ2は、論理ボリュームを使用することができる。RAIDグループ111には、各コントローラ5(1),5(2)からそれぞれアクセスすることができる。
 サーバ2は、ストレージ装置1の論理ボリュームを利用して、アプリケーションプログラムを実行する。アプリケーションプログラムの実行結果は、図外のクライアント端末に送信される。
 サーバ2は、例えば、CPU102(2)と、メモリ102(2)と、ブリッジ回路112と、HBA113とを備える。メモリ102には、サーバ管理エージェントP9が記憶される。メモリ102には、アプリケーションプログラム及びオペレーティングシステム等も記憶されるが、図示を省略する。
 HBA113は、ストレージ装置1のポート116と通信するための回路である。CPU101(2)とHBA113の間は、例えば、PCIe(Peripheral Component Interconnect Express)のような内部バスと、ブリッジ112(1)とを介して接続される。
 SANスイッチ3は、ストレージ装置1とサーバ2との通信を中継する。SANスイッチ3は、例えば、CPU101(3)と、メモリ102(3)と、通信ポート114と、スイッチングファブリック115と、を備える。
 メモリ102(3)には、例えば、スイッチ管理エージェントP10と、ネームテーブルT16及びゾーニングテーブルT17とが格納される。さらに、メモリ102(3)には、スイッチ制御プログラム(図示せず)も記憶される。
 ポート114は、ストレージ装置1のポート106及びサーバ2のHBA113と通信する。フレームを受領したポート114は、スイッチングファブリック115を介して、そのフレームの宛先に対応するポート114に接続される。
 管理サーバ4は、コンピュータシステムを管理するためのコンピュータである。管理サーバ4は、例えば、CPU(Central Processing Unit)101(4)と、メモリ102(4)と、ブリッジ回路112(4)と、NIC(Network Interface Card)116とを備えることができる。
 なお、管理サーバ4は、一つのコンピュータとして構成される必要はなく、複数のコンピュータから構成してもよい。例えば、管理サーバ4に対して情報を入出力するための管理端末を用意し、管理端末と管理サーバ4とを接続する構成でもよい。または、管理サーバ4に、ユーザとの間で情報を交換するためのユーザインターフェース部を設ける構成でもよい。さらに、管理サーバの機能を、ストレージ装置1,サーバ2,スイッチ3のいずれかに内蔵させる構成でもよい。
 メモリ102(4)には、例えば、統合管理プログラムP7と、WWNペアテーブルT6とが格納される。NIC116は、管理ネットワーク11を介して各装置1,2,3と通信するための回路である。NIC116は、ブリッジ回路112(4)及び内部バスを介して、CPU101(4)と接続される。
 図2は、本実施形態に係るFC-SANの論理的な全体構成を示す。図1との相違を説明する。図2のストレージ装置1は、ポート204(1)に仮想HBA202(1)を対応付け、さらに、仮想HBA202(1)にLUN201(1)を対応付けている。仮想HBA202(1)には、ポート204(1)のWWPN107(1)とは別の、WWPN203(1)が設定される。
 ここで、WWNとWWPN及びWWNN(World Wide Node Name)とは、本質的には同一である。詳しくは、ポートに設定されるWWNをWWPNと呼び、ノードに設定されるWWNをWWNNと呼ぶ。WWN、WWPN、WWNNは、SANにおいてエンドポイントを識別するためのエンドポイント識別子として用いられる。
 サーバ2には、VM211のために、仮想オペレーティングシステムP212と、VM管理プログラムP213と、VMマッピングテーブルT15と、が設けられる。さらに、仮想HBA202(2)には、ポート204(2)のWWPN107(2)とは別の、WWPN203(2)が設定される。
 仮想オペレーティングシステムP212とVM管理プログラムP213とは、サーバ管理エージェントP9と通信する。各サーバ2のVM管理プログラムP213は、VMのリソース管理及びVM移動制御のために、互いに通信する。
 図3-図15を参照して第1実施例を説明する。本実施例では、グループ情報及びペア情報を含むWWNのペアを生成する。本実施例では、生成されたWWNのペアを用いて、ストレージ装置のLUNマスキングを自動的に設定させる。
 図3は、WWNフォーマットT3の概略を示す。WWNには、ANSI T11(The American National Standards Institute T11 technical committee)委員会のFC-FS(Fibre
Channel - Framing and Signaling )で規定されているNAA(Network Address Authority)のName Identifierが使用される。
 上位4bitのフィールドC32は、NAAのタイプを示す。残りのフィールドは、第1フィールドC33と第2フィールドC34に分かれる。エントリL31に示すように、NAA1のタイプの場合、第1フィールドC33は、12bit長となり、その値は0に設定される。さらに、第2フィールドC34は、48bit長であり、その値としてMAC(Media Access Control)アドレスが使用される(L31)。
 NAA2のタイプの場合、エントリL32に示すように、第1フィールドC33は、12bit長であり、その値としてベンダ独自の情報が設定される。さらに、第2フィールドC34は、48bit長であり、その値としてMACアドレスが使用される。
 NAA5のタイプの場合、エントリL33に示すように、第1フィールドC33は、24bit長であり、その値としてベンダ識別子が設定される。さらに、第2フィールドC34は、36bit長であり、その値としてベンダ独自の情報が設定される。
 NAA6のタイプの場合、エントリL34に示すように、第1フィールドC33は、24bit長であり、その値としてベンダ識別子が設定される。第2フィールドC34は、100bit長であり、その値としてベンダ独自の情報が設定される。
 通常は、64bit長となる、NAA1またはNAA2またはNAA5のいずれかのタイプのWWNが使用される。
 図4は、本実施例で使用するWWNフォーマットT4の例を示す。本実施例では、図3で説明したNAA5のタイプを使用する。説明を簡単にするため、ベンダ識別子(COMPANY ID(Identifier))は20bit長とし、さらに、ベンダ独自の情報を40bit長としている。
 ベンダ独自の情報は、合計5つの8bit長フィールドに区切っている。1番目のフィールドは、グループIDフィールドC43である。2番目のフィールドは、ペアIDフィールドC44である。3番目のフィールドは、システムIDフィールドC45である。4番目のフィールドは、シリアル番号フィールドC46である。5番目のフィールドは、仮想化IDフィールドC47である。
 システムIDフィールドC45の情報とシリアル番号フィールドC46の情報と仮想化IDフィールドC47の情報とは、仮想化されたエンドポイントをベンダ内で一意に識別するための情報である。さらに、説明を簡単にするために、図5に示すWWNフォーマットT5を使用する。
 図5は、WWNフォーマットT5のさらに簡略化された一例を示す。WWNフォーマットT5は、NAA5のタイプに基づいている。ここでは、ベンダ識別子C52を20bit長とする。ベンダ独自の情報(C53からC55まで)を40bit長とする。
 ベンダ識別子C52には、実施形態の全体を通じて、"0:12:34h"の値を使用する。「h」は16進数であることを示し、「:」は1バイト毎の区切りを示す。ベンダ独自の情報は3つのフィールドに区切られている。1番目のフィールドは、16bit長のグループIDフィールドC53である。2番目のフィールドは、16bit長のペアIDフィールドC54である。3番目のフィールドは、8bit長のシステムタイプフィールドC55である。システムタイプフィールドC55に"1"が設定された場合は、ストレージ用であることを示す。システムタイプフィールドC55に"2"が設定された場合は、サーバ用であることを示す。
 図4及び図5に示すWWNフォーマットT4,T5は、一例を示しているに過ぎず、本発明は、図示されたWWNフォーマットに限定されない。例えば、各フィールドの長さは図示された値以外の長さでもよく、NAAのタイプもNAA5に限定されない。
 図6は、ペアを構成するWWNを管理するためのWWNペアテーブルT6を示す。図6には、WWNペアテーブルの初期状態の構成が示されている。
 WWNペアテーブルT6は、例えば、ペアIDフィールドC61と、状態フラグフィールドC62と、サーバ用WWNフィールドC63と、ストレージ用WWNフィールドC64とを一つのエントリL61とする構成である。
 ペアIDは、各WWNペアを識別するための情報である。状態フラグは、WWNペアが生成済み(GENERATED)であるか否かと、WWNペアが割当済み(ASSIGNED)であるか否かを示す。
 "/"の前は、WWNペアが生成されているか否かを示す生成フラグである。"/"の後は、WWNペアが割り当てられているか否か(使用されているか否か)を示す割当フラグである。状態フラグC62が"0/0"の場合は、WWNペアが生成されておらず、かつ、WWNペアが割り当てられていない(使用されていない)ことを示す。状態フラグC62が"1/0"の場合は、WWNペアは生成されているが、割り当てられていないことを示す。状態フラグC62が"1/1"の場合は、WWNペアが生成されており、かつ、そのWWNペアが割当済みであることを示す。
 図7は、WWNペアテーブルT6の運用時の状態を示す。エントリL71-L74の内容は、図8で述べるWWNペアの生成処理により生成される。
 サーバ用WWNフィールドC63のエントリL71に格納されている値"50:12:34:00:00:00:01:02"を用いて、WWNの構成を説明する。先頭の"5"は、NAA5のタイプであることを示す。
 それに続く"0:12:34"は、上述の通り、WWNの発行元であるベンダを識別するためのベンダ識別子(カンパニーID)である。本実施例では、ベンダ識別子をこのように構成することにより、ベンダ識別子を含むWWNを受領した装置に対して、そのWWNは特定の生成規則に従って生成されたものであることを通知する。つまり、ベンダ識別子は、そのベンダ識別子を含むWWNが特徴的なWWNであることをストレージ装置1、サーバ2、SANスイッチ3に知らせるための、通知情報を兼ねている。
 ベンダ識別子に続く"00:00"は、WWNの属するグループを識別するためのグループ識別子である。図7の例では、グループ識別子は設定されていない。グループ識別子を設定するWWNの例は、後述する。
 グループ識別子に続く"00:01"は、ペアを識別するためのペア識別子である。最後の"02"は、そのWWNが設定される装置のタイプを示す。上述の通り、ストレージ装置1には"01"が設定され、サーバ2には"02"が設定される。
 図8を参照して、WWNペアテーブルT6の生成処理を説明する。以下に述べる各処理は、メモリに記憶された各プログラムをマイクロプロセッサが読み込んで実行することにより実現される。従って、以下の各処理の主語は、プログラムであってもよいし、マイクロプロセッサであってもよい。あるいは、以下の各処理の主語をコントローラまたはサーバとして、説明することもできる。便宜上、統合管理プログラムP7に代えて、管理サーバ4を主語として説明する。
 まず、管理サーバ4は、WWNペアの生成条件を判定する(S10)。生成条件には、ペアの新規作成と、既存ペアの削除との2つがある。新規のペアを作成する場合、管理サーバ4は、WWNペアテーブルT6(1)において未使用のペアIDがあるか否かを判定する(S11)。
 未使用のペアIDがある場合(S11:YES)、即ち、状態フラグC62の値が"0/0"のエントリL61が存在する場合、管理サーバ4は、その未使用ペアIDを1つ抽出する(S12)。
 管理サーバ4は、抽出された未使用ペアIDを用いて、互いにペアとなる、サーバ用WWNとストレージ用WWNとを作成する(S13)。
 仮に、その未使用ペアIDの値を"1"とすると、サーバ用WWNは、NAA=5、ベンダ識別子=0:12:34h、グループID=0、ペアID=1、システムタイプ=2(サーバ)として生成される。サーバ用WWNは、"50:12:34:00:00:00:01:02"となる。ストレージ用WWNは、サーバ用WWNとは、システムタイプの値だけが異なる。つまり、ストレージ用WWNは、"50:12:34:00:00:00:01:01"として生成される。
 管理サーバ4は、生成された2つのWWNをWWNペアテーブルT6に格納し、状態フラグC62を"1/0"に設定し(S14)、処理を終了する。
 WWNペアテーブルT6(1)に未使用のペアIDが無い場合(S11:NO)、管理サーバ4は、処理を終了する。サーバ用WWNとストレージ用WWNのペアを生成できないためである。
 WWNペアの生成条件が既存ペアの削除である場合、管理サーバ4は、削除対象のペアIDを選択する(S15)。管理サーバ4は、削除対象のペアIDを有するエントリL61の状態フラグC62を"0/0"に設定し(S16)、処理を終了する。これにより、選択されたペアIDは、未使用状態に戻る。なお、既存ペアを削除する場合、サーバ用WWNフィールドC63の値とストレージ用WWNフィールドC64の値とを消去する必要はない。しかし、例えば、ストレージ用WWN及びサーバ用WWNの値として、全て0を設定してもよい。
 図9は、WWNの属するグループを管理するためのWWNグループテーブルT9の構成図である。WWNグループテーブルT9は、例えば、グループIDのフィールドC91と、割り当て済み数(ASSIGNED)のフィールドC92と、グループを構成するペアIDを示すフィールドC93とを、1エントリL91、L92とする。
 割り当て済み数とは、グループに所属するWWNペアの数を示す。グループにペアが存在しない場合は0が、1つのペアが存在する場合は1が、2つのペアが存在する場合は2が、それぞれ設定される。図9の場合は、エントリL91に示すように、グループID=1のグループには、2つのペアID(1,2)が属している。従って、割当済み数には"2"が設定される。さらに、エントリL92に示すように、グループID=2のグループにも、2つのペアID(3,4)が属している。従って、割当済み数には"2"が設定される。
 図10は、図9に示すWWNグループテーブルT9に対応する、WWNペアテーブルT6(3)の構成を示す。図9のテーブル内容が実現されるように図11の処理を実行した結果が、図10に示されている。図10のエントリL101に示すように、ペアID=1(00:01)を有するサーバ用WWN及びストレージ用WWNは、グループID=1(00:01)を含んでいる。同様に、エントリL102に示すように、ペアID=2(00:02)を有するサーバ用WWN及びストレージ用WWNも、グループID=1(00:01)を含む。
 エントリL103に示すように、ペアID=3(00:03)を有するサーバ用WWN及びストレージ用WWNは、グループID=2(00:02)を含む。同様に、エントリL104に示すように、ペアID=4(00:04)を有するサーバ用WWN及びストレージ用WWNも、グループID=2(00:02)を含む。
 図11のフローチャートを参照して、グループIDを含むWWNペアを生成するための処理を説明する。管理サーバ4は、WWNペアの生成条件を判定する(S20)。生成条件には、以下の4つがある。
 条件(1):新規グループにペアを追加する
 条件(2):既存グループにペアを追加する
 条件(3):既存グループからペアを削除する
 条件(4):既存グループを削除する
 新規グループを作成して、その新規グループにペアを追加する場合(条件(1))、管理サーバ4は、WWNグループテーブルT9に未使用のグループIDがあるか否かを判定する(S21)。未使用のグループIDがある場合(S21:YES)、管理サーバ4は、その未使用グループIDを1つ抽出する(S22)。管理サーバ4は、未使用グループIDにペアIDを対応付ける(S23)。
 仮に、未使用グループIDを"1"、追加するペアIDを"1"として、具体例を説明する。この場合、管理サーバ4は、WWNグループテーブルT9において、グループIDが"1"である割り当て済み数のフィールドC92の値"0"に1を加算して、"1"とし、さらに、グループを構成するペアIDを示すフィールドC93にペアIDの値である"1"を登録する。
 次に、管理サーバ4は、グループIDを用いて、生成済みのサーバ用WWN及びストレージ用WWNをそれぞれ更新する(S24)。つまり、ペアIDが選択された時点で、サーバ用WWNとストレージ用WWNとは上述の生成規則に従って自動的に生成することができる。生成されたサーバ用WWN及びストレージ用WWNは、WWNペアテーブルT6(3)に登録される。管理サーバ4は、グループIDが決定された場合、そのグループIDが含まれるように、サーバ用WWN及びストレージ用WWNをそれぞれ更新させる(S24)。
 上記の例で説明する。管理サーバ4は、WWNペアテーブルT6(3)のペアIDが"1"のエントリL101において、生成済みのサーバ用WWN(C63)に含まれるグループIDの領域に"1"を設定する。換言すれば、グループIDの値を"00:00"から"00:01"に変更する。同様に、管理サーバ4は、ストレージ用WWN(C64)のグループIDの領域に"1"を設定する。
 上記の更新処理の結果として、WWNペアテーブルT6(3)のエントリL101に示すように、サーバ用WWN(C63)の値は、"50:12:34:00:01:00:01:02"となり、ストレージ用WWN(C64)の値は、"50:12:34:00:01:00:01:01"となる。
 管理サーバ4は、更新されたWWNペアの状態フラグC62に"1/0"を設定する(S25)。
 一方、WWNグループテーブルT9に未使用のグループIDが無い場合(S21:NO)、管理サーバ4は、処理を終了する。新規グループを作成できないためである。
 既存グループにペアを新たに追加する場合(条件(2))。管理サーバ4は、S21及びS22をスキップしてS23を実行する。
 例えば、グループID=1のグループに、ペアID=2のWWNペアを追加する場合を説明する。この場合、管理サーバ4は、WWNグループテーブルT9において、グループIDが"1"である割り当て済み数のフィールドC92の値"1"に1を加算して"2"とする。さらに、管理サーバ4は、グループを構成するペアIDを示すフィールドC93にペアID=2を登録する。その結果は、図9のエントリL91と、図10のエントリL102のようになる。
 既存グループからペアを削除する場合(条件(3))、管理サーバ4は、指定された削除対象のペアIDを選択する(S27)。管理サーバ4は、削除対象のペアIDがWWNグループテーブルT9に登録済みのペアIDであるか否か判定する(S28)。
 WWNグループテーブルT9に登録済みのペアIDである場合(S28:YES)、管理サーバ4は、WWNペアテーブルT6(3)において、削除対象のペアIDに対応する状態フラグC62を"0/0"に設定する(S29)。さらに、管理サーバ4は、WWNグループテーブルT9のフィールドC93から削除対象のペアIDを削除し、割り当て済み数のフィールドC92の値から1を減算する(S30)。
 なお、WWNグループテーブルT9に登録済みのペアIDではない場合(S28:NO)、管理サーバ4は、処理を終了する。
 既存グループを削除する場合(条件(4))、管理サーバ4は、指定された削除対象グループにペアIDが登録されているか否かを判定する(S26)。具体的には、管理サーバ4は、削除対象のグループIDに対応する割り当て済み数C92の値が0よりも大きいか否かを判定する。割当済み数C92の値が0よりも大きい場合(S26:YES)、削除対象のグループ内にペアIDが残っている。そこで、管理サーバ4は、既存グループからペアを削除する場合と同様の処理S27-S30を実行する。
 削除対象グループの割り当て済み数C92の値が0の場合(S26:NO)、管理サーバ4は、処理を終了する。削除対象のグループ内にペアIDが一つも存在しないため、グループIDを削除したに等しい。WWNグループテーブルT9から、削除対象のグループID自体を削除する必要はない。
 図12を参照して、統合管理プログラムP7の処理を説明する。ここでは、動作の主体を管理プログラムP7とする。
 管理プログラムP7は、WWNペアテーブルT6から1つのペアを抽出し(S40)、状態フラグC62に"1/1"を設定する(S41)。即ち、管理サーバ4は、状態フラグC62のうち割り当て済みか否かを示す部分に"1"を設定する。
 その後、管理プログラムP7は、ストレージ管理エージェントP8にアクセスし(S42)、続いて、サーバ管理エージェントP9にアクセスし(S46)、最後にスイッチ管理エージェントP10にアクセスする(S49)。これらの処理S42,S46,S49は、図13-図15に示すLUNマッピングテーブルT13と、LUNマスキングテーブルT14及びVMマッピングテーブルT15を使用するため、先に説明する。
 図13は、LUNマッピングテーブルT13の構成図である。LUNマッピングテーブルT13は、例えば、ポートIDフィールドC131と、VHBAフィールドC132と、WWPNフィールドC133と、LUNマッピングフィールドC134とを、1エントリL131-L133とするテーブル構成である。
 図2で示したストレージ装置1のポート204(1)と、仮想HBA202(1)及びそのWWPN203(1)と、LUN201との関係を、LUNマッピングテーブルT13の各エントリL131-L133は示している。
 VHBAは、仮想的に設けられるHBAである。一つのポート204(1)に複数の仮想HBAを設けることができる。そして、仮想HBAには、少なくとも一つのLUN201を対応付けることができる。
 図14は、LUNマスキングテーブルT14の構成図である。LUNマスキングテーブルT14は、例えば、ポートIDフィールドC141と、VHBAフィールドC142と、WWPNフィールドC143と、LUNマスキングフィールドC144とを1エントリL141-L143とするテーブル構成である。
 図2に示す通り、サーバ2の仮想HBA202(2)に設定されるWWPN203(2)が、LUNマスキングフィールドC144に格納されることで、LUN201と仮想HBA(2)との対応関係が定まる。
 なお、LUNマスキングテーブルT14のフィールドC141-C143は、LUNマッピングテーブルT13のフィールドC131-C133と同じである。従って、LUNマッピングテーブルT13に、LUNマスキングテーブルT14のフィールドC144をマージしてもよい。つまり、一つのテーブルで、LUNマッピング及びLUNマスキングを管理する構成でもよい。
 図15は、VMマッピングテーブルT15の構成図である。VMマッピングテーブルT15は、例えば、ポートIDフィールドC151と、VHBAフィールドC152と、WWPNフィールドC153と、VMマッピングフィールドC154とを1エントリL151-L154とするテーブル構成である。
 このようにVMマッピングテーブルT15は、図2で示したサーバ2の仮想HBA202(2)とVM211との対応関係を規定する。
 図12に戻り、ストレージ管理エージェントP8、サーバ管理エージェントP9、VM管理プログラムP213、スイッチ管理エージェントP10の処理を説明する。
 ストレージ管理エージェントP8は、WWNペアテーブルT6から抽出されたストレージ用WWPN(C64)を、ストレージ装置1の仮想HBA202(1)に設定する(S43)。
 続いて、ストレージ管理エージェントP8は、LUNマッピングテーブルT13のフィールドC132及びC133と、LUNマスキングテーブルT14のフィールドC142及びC143とに、それぞれ対応する値を設定し、さらに、仮想HBA202(1)に対応するLUNをLUNマッピングフィールドC134に設定する(S44)。
 ストレージ管理エージェントP8は、S43で設定されたストレージ用WWPNとペアを構成するサーバ用WWPN(C63)を、LUNマスキングテーブルT14のLUNマスキングフィールドC144に設定する(S45)。
 ここで、ストレージ管理エージェントP8は、WWNペアテーブルT6を参照しなくても、ストレージ用WWPN(ストレージ用WWN)からサーバ用WWPN(サーバ用WWN)を自動的に得ることができる。
 本実施例に特徴的なWWNペアは、図7で述べたように所定の生成規則に従って作成される。さらに、ベンダ識別子の構成を解析することにより、そのベンダ識別子を含むWWNがWWNペアの片割れであるか否かを判定できる。従って、ストレージ管理エージェントP8は、ストレージ用WWNからサーバ用WWNを自動的に特定でき、特定されたサーバ用WWNを用いてLUNマスキングテーブルを作成できる。
 サーバ管理エージェントP9の動作を説明する。サーバ管理エージェントP9は、WWNペアテーブルT6から抽出されたサーバ用WWPN(C63)を、サーバ2の仮想HBA202(2)に設定する(S47)。
 サーバ管理エージェントP9は、VM管理プログラムP213を介して、VMマッピングテーブルを作成させる。VM管理プログラムP213は、VMマッピングテーブルT15のフィールドC152及びC153に対応する値をそれぞれ設定し、仮想HBA202(2)に対応するVMをVMマッピングフィールドC154に登録する(S48)。
 スイッチ管理エージェントP10は、WWNペアテーブルT6から抽出されたストレージ用WWPN(C64)とサーバ用WWPN(C63)をメンバとするゾーンを作成する(S50)。
 このように構成される本実施例では、ペアとなるサーバ用WWN及びストレージ用WWNを予め生成して管理しておき、ペアとなるべきエンドポイント(VHBA、ポート)が指定された場合に、WWNのペアを各エンドポイントに設定する。
 従って、本実施例では、従来技術のように、対応付けるべき2つのエンドポイントを選択し、選択された各エンドポイントからWWNを取得し、取得した各WWNを対応付けるという手間がかからない。本実施例では、予めWWNのペアを生成しておけば、対応付けるべき2つのエンドポイントを選択して、ペアを構成するWWNを各エンドポイントに設定させるだけで設定が完了する。従って、多数の装置を含むコンピュータシステムにおいて、WWNを設定するための管理工数を低減でき、使い勝手が向上する。
 さらに、本実施例では、予めWWNのペアが生成されているので、ストレージ装置1はLUNマッピングテーブルT13及びLUNマスキングテーブルT14を自動的に作成することができ、SANスイッチ3はゾーニングテーブル(図17参照)を自動的に作成できる。従って、アクセス制御及び通信制御のための管理工数も低減できる。
 さらに、本実施例では、WWNのペアを生成する規則が既知であるから、ストレージ装置1は、ストレージ用WWNに基づいて、そのストレージ用WWNに対応するサーバ用WWNを直ちに特定できる。従って、ストレージ装置1は、WWNペアテーブルT6を参照せずに、LUNマスキングテーブルを自動的に作成できる。
 同様に、SANスイッチ3は、ストレージ用WWNまたはサーバ用WWNのいずれか一方を取得した時点で、そのWWNとペアを構成する他のWWNを直ちに特定することができる。つまり、ストレージ装置1またはサーバ2のいずれか一方がファブリックにログインしていれば、他方がファブリックにログインしていなくても、ゾーニングテーブルを作成することができる。
 図16-図18を参照して第2実施例を説明する。本実施例は第1実施例の変形例に該当する。従って、第1実施例との相違を中心に説明する。本実施例では、第1実施例を前提とし、グループ情報及びペア情報を含むWWNを使用して、SANスイッチ3にゾーニングを設定する。
 図16は、SANスイッチ3の有するネームテーブルT16の構成図である。ネームテーブルT16は、例えば、ポートIDフィールドC161と、FC IDフィールドC162と、WWPNフィールドC163と、WWNNフィールドC164と、FC-4 FEATURESフィールドC165と、ゾーンIDフィールドC166とを、1エントリL161-L166とするテーブル構成である。
 ポートIDフィールドC161には、図2で示したSANスイッチ3のポート114に示しているポートIDが設定される。FC IDフィールドC162には、FC-SANで使用されるアドレスが設定される。通常、FC-SANに接続する場合、ファブリックログイン(FLOGI)という処理が行われる。その処理により、ストレージ装置1のポート204、仮想HBA202、サーバ2のポート204、仮想HBA202のWWPNに対して、FC IDがそれぞれ配布される。FC IDを受領した装置は、ネームテーブルT16に対して、自分のWWPNと、WWNNと、FC-4 FEATURESとを登録する。
 FC-4 FEATURESとは、FCにおける上位レイヤが持つ機能である。具体的には、ストレージ装置1はTARGET機能となり、サーバ2はINITIATOR機能となる。SCSI-FCP(Fibre Channel Protocol)とは、FC上にSCSIプロトコルを流すためのプロトコルである。
 ゾーンIDフィールドC166には、次で説明するゾーニングテーブルT17のゾーンIDが設定される。
 図17は、SANスイッチ3の有するゾーニングテーブルT17の構成図である。ゾーニングテーブルT17は、例えば、ゾーンIDフィールドC171と、ゾーン名フィールドC172と、ゾーンメンバリストフィールドC173と、CONFIGフィールドC174とを、1エントリL171-L173とするテーブル構成である。
 ゾーンIDは、各ゾーンを識別するための情報である。ゾーン名フィールドC172には、各ゾーンの名称が設定される。ゾーン名は、ユーザが手動で設定してもよいし、または自動的に設定される構成でもよい。ユーザは、統合管理プログラムP7またはスイッチ管理エージェントP10を使用して、ゾーン名を設定したり変更したりできる。
 ゾーンメンバリストフィールドC173には、実HBAまたは仮想HBAのWWPNが設定される。
 CONFIGフィールドC174には、ゾーンを生成する種別が設定される。ゾーンが自動的に生成された場合は、"AUTO"と設定される。ユーザが手動で設定した場合は、"MANUAL"と設定される。ユーザは、統合管理プログラムP7またはスイッチ管理エージェントP10を使用して、ゾーンを設定したり変更したりできる。なお、ゾーニング機能には、ゾーンをメンバとするグループを設定する機能もある。この機能は、ゾーンSETと呼ばれる。
 図18のフローチャートを参照して、ゾーニングテーブルT17を自動的に生成する処理を説明する。以下の説明では、便宜上、動作の主体をSANスイッチ3とする。スイッチ管理エージェントP10を主語としてもよい。
 SANスイッチ3は、ゾーンを自動生成するか否かを判定する(S60)。ゾーンを自動生成する場合(S60:AUTO)、SANスイッチ3は、ネームテーブルT16を検索し、WWPN(C163)中のベンダ識別子が"0:12:34"hであり、かつ、ゾーンIDが未登録のエントリがあるか否かを判定する(S61)。
 所定のベンダ識別子"0:12:34"を有するWWPNであって、かつ、ゾーンIDが未登録のエントリが発見されると(S61:YES)、SANスイッチ3は、そのエントリを抽出する(S62)。SANスイッチ3は、抽出したエントリのペアID毎にゾーンを作成する(S63)。SANスイッチ3は、CONFIGフィールドC174に"AUTO"を設定する(S64)。
 最後に、SANスイッチ3は、ネームテーブルT16のゾーンIDフィールドC166に、ゾーニングテーブルT17に登録したゾーンIDを登録する(S65)。SANスイッチ3は、S61に戻り、ネームテーブルT16を再び検索して、所定のベンダ識別子を含むWWPN(C163)であって、ゾーンIDが未登録のエントリがあるか否かを判定する(S61)。
 具体的に説明する。図16において、ゾーンIDが未登録の状態を仮定する。ネームテーブルT16(1)のエントリL161-L164は、所定のベンダ識別子"0:12:34"を含むWWPNを有している。従って、SANスイッチ3は、エントリL161-L164を抽出する。
 抽出されたWWPN(C163)が含んでいるペアIDは、"1"と"2"である。SANスイッチ3は、1つめのペアをメンバとするゾーンを登録すべきゾーンIDを選択する。ここでは、ゾーンID=1にゾーンを登録する場合を説明する。
 SANスイッチ3は、ゾーンIDが"1"のエントリL171のゾーンメンバリストフィールドC173に、ネームテーブルT16のエントリL161のWWPNとL162のWWPNとを設定する。SANスイッチ3は、CONFIGフィールドC174に"AUTO"と設定する。
 SANスイッチ3は、ゾーンIDが"2"のエントリL172のゾーンメンバリストフィールドC173に、ネームテーブルT16のエントリL163のWWPNとL164のWWPNを設定する。さらに、SANスイッチ3は、CONFIGフィールドC174に"AUTO"と設定する。
 S60において、ゾーンを手動設定すると判定された場合(S60:MANUAL)、SANスイッチ3は、ネームテーブルT16を検索し、ゾーンIDが未登録のエントリがあるか否かを判定する(S66)。
 ゾーンIDが未登録のエントリがある場合(S66:YES)、SANスイッチ3は、ゾーニングテーブルT17に、ユーザからの指示通りにゾーンを設定する(S67)。ユーザは、統合管理プログラムP7またはスイッチ管理エージェントP10を用いて、SANスイッチ3にゾーンを設定できる。
 SANスイッチ3は、CONFIGフィールドC174に"MANUAL"と設定する(S68)。SANスイッチ3は、ネームテーブルT16のゾーンIDフィールドC166に、ゾーニングテーブルT17に登録したゾーンIDを登録する(S69)。その後、SANスイッチ3は、S66に戻る。
 所定のベンダ識別子"0:12:34"を含むWWPNを有し、かつ、ゾーンIDが未登録のエントリが無い場合(S61:NO)、処理はS66に移行する。
 なお、上述の説明では、ゾーニングテーブルT17(1)に、ペアID毎にゾーンを作成する場合を述べた(S63)。これに限らず、グループID毎にゾーンを作成してもよいし、または、ペアID毎及びグループID毎にゾーンを作成してもよい。
 このように構成される本実施例も第1実施例と同様の効果を奏する。特に本実施例では、SANスイッチ3は、ネームテーブルT16(1)の内容を解析して自動的にゾーンを設定することができるため、ゾーン設定に要する手間を省くことができ、管理工数を低減できる。
 図19-26を参照して第3実施例を説明する。本実施例では、グループ情報及びペア情報を含むiSCSIネームを使用して、ストレージ装置1にLUNマスキングを自動的に設定する。
 図19は、本実施例に係るiSCSIを使用したSAN(IP-SANと称す)の論理的な全体構成を示す。図2との相違点を以下に列挙する。
 (相違1)ストレージ装置1のポート204(1)とサーバ2のポート204(2)にWWPN107(1),107(2)が設定されていない、
 (相違2)仮想HBA202(1),202(2)が仮想NIC(Network Interface Card)191(1),191(2)に変更されている、
 (相違3)仮想HBA202(1),202(2)には、WWPN203(1),203(2)に代えて、ISN(iSCSI Name)192(1),191(2)が設定されている、
 (相違4)スイッチ装置は、FC-SANスイッチ3に代えて、LANスイッチ195に変更されている、
 (相違5)管理サーバ4は、WWNペアテーブルT6に代えて、ISNペアテーブルT23を備える、
 (相違6)iSNS(Internet Storage Name Server)サーバ193がコンピュータシステムに追加されている。
 iSNSサーバ193は、管理サーバ4と同様な物理構成を備えることができる。図示しないが、iSNSサーバ193は、例えば、CPU、メモリ、NIC等を備える。図19に示すIP-SANの構成では、FC-SANで使用されたWWNまたはWWPNに代えて、「エンドポイント識別子」としてのiSCSIネームが使用される。
 図20-図22を参照して、iSCSIネームのフォーマットを説明する。iSCSIネームは、IETF(Internet Engineering Task Force)のRFC3720(http://www.ietf.org/rfc/rfc3720.txt)で規定されている。
 図20は、IQN(iSCSI Qualified Name)形式のiSCSIネームフォーマットT20の構成図である。iSCSIネームフォーマットT20の全体の長さは255バイトである。iSCSIネームフォーマットT20は、タイプフィールドC201と、DATEフィールドC202と、ドメイン名フィールドC203と、オプションフィールドC204とから構成されている。
 各フィールド間では、ドット「.」が使用される。タイプフィールドC201には「iqn」という文字が使用される。DATEフィールドC202では、ドメイン名を取得した日付が使用される。ドメイン名フィールドC203では、通常のドメイン名をドット単位で逆順にしたものが使用される。例えば、"example.com"という通常のドメイン名は、ドメイン名フィールドC203において"com.example"と設定される。
 オプションフィールドC204では、ベンダ独自の情報を使用できる。本実施例は、図5で説明したように、グループ情報(グループID)とペア情報(ペアID)及びシステムタイプ(ストレージかサーバか)を考慮した文字を、オプションフィールドC204で使用する。具体例として、最初はコロン「:」の文字を使用し、次にシステムタイプとして「storage」または「server」、そしてコロン、次にグループID、次にハイフン「-」、最後にペアIDの文字を使用する。従って、":storage:groupid-pairid"のように設定される。
 図21は、EUI(Enterprise or Extended Unique Identifier)形式のiSCSIネームフォーマットT21の構成図である。EUI形式のiSCSIネームフォーマットT21は、タイプフィールドC211と、MAC(Media Access Control)アドレスから自動生成する64bitの情報C212とから構成される。タイプフィールドC211には「eui.」という文字を使用する。
 図22は、NAA形式のiSCSIネームフォーマットT22の構成図である。NAA形式のiSCSIネームフィールドT22は、タイプフィールドC221と、WWNで使用したNAA形式の情報C222とから構成される。タイプフィールドC221には「naa.」という文字を使用する。NAA形式の情報C222には、第1実施例で説明した値をそのまま使用できる。
 本実施例では、グループ情報及びペア情報を含むiSCSIネームとして、図20のIQN形式と図22のNAA形式とを使用する。図20のエントリL201と図22のエントリL221とは、ペア情報が"1"であるストレージ装置のiSCSIネームの例をそれぞれ示している。
 図23は、本実施例のWWNペアテーブルT6(4)を示す。WWNペアテーブルT6(4)は、図6で示したWWNペアテーブルT6(1)と同一構造を備える。しかし、本実施例のWWNペアテーブルT6(4)では、WWPNに代えて、iSCSIネームを使用する。
 エントリL231とL232とは、IQN形式のiSCSIネームを格納した例を示している。エントリL233とL234とは、NAA形式のiSCSIネームを格納した例を示している。本実施例のWWNペアテーブルT6(4)を生成するための処理は、図8で示した生成処理と同様であるため、省略する。なお、WWNペアテーブルT6(4)内の下線部の値が、ペアIDの値を示す。例えば"0001"はペアIDが"1"であることを示し、"0002"はペアIDが"2"であることを示す。
 図24は、本実施例のLUNマッピングテーブルT13(2)である。LUNマッピングテーブルT13(2)は、図13で示したLUNマッピングテーブルT13(1)と同一構造を備える。但し、図24のLUNマッピングテーブルT13(2)では、WWPNに代えて、iSCSIネームを使用している。エントリL241-L243のiSCSIネームフィールドC242の値には、WWNペアテーブルT6(4)のエントリL231-L233のストレージ用iSCSIネーム(C64)の値を使用している。
 図25は、本実施例によるLUNマスキングテーブルT14(2)を示す。このLUNマスキングテーブルT14(2)は、図14で示したLUNマスキングテーブルT14(1)と同一構造を備える。但し、図25のLUNマスキングテーブルT14(2)では、WWPNに代えて、iSCSIネームを使用している。エントリL251-L253のLUNマスキングフィールドC144の値には、WWNペアテーブルT6(4)のエントリL231-L233のサーバ用iSCSIネーム(C63)の値を使用している。
 図26は、本実施例によるVMマッピングテーブルT15(2)を示す。VMマッピングテーブルT15(2)は、図15で示したVMマッピングテーブルT15(1)と同一構造を備える。但し、図26のVMマッピングテーブルT15(2)は、WWPNに代えて、iSCSIネームを使用している。エントリL261-L264のiSCSIネームフィールドC263の値には、WWNペアテーブルT6(4)のエントリL231-L234のサーバ用iSCSIネーム(C63)の値を使用している。
 図24-図26の各テーブルの内容は、図12で示した統合管理プログラムP7と同様な処理により生成される。そして、統合管理プログラムP7の処理結果として、ストレージ装置1の仮想NIC191(1)にiSCSIネーム(ISN)192(1)が設定され、かつ、サーバ2の仮想NIC191(2)にiSCSIネーム(ISN)192(2)が設定される。
 このように構成される本実施例も第1実施例,第2実施例と同様の効果を奏する。
 図27,図28を参照して第4実施例を説明する。本実施例では、第3実施例を前提とし、グループ情報及びペア情報を含むiSCSIネームを使用して、iSNSサーバにディスカバリドメイン(以下、DDとも呼ぶ)を設定する。
 DDとは、FC-SANスイッチにおけるゾーニング処理のゾーンと同様なものであり、DD内のメンバ(WWPNまたはiSCSIネームによる)間でのみ、装置発見及び装置の情報収集が許可される。
 ゾーニングでは、FCスイッチ3においてフレーム毎に通信の許可をチェックする機能がある。DDは、iSNSサーバ193だけで実現される。従って、LANスイッチ195は、フレーム毎の通信可否をチェックしない。
 図27は、iSNSサーバ193が有するネームテーブルT26の構成図である。ネームテーブルT26は、図16で示したSANスイッチ3のネームテーブルT16(1)に似た構造を備える。
 図27のテーブルT26と図16のテーブルT16(1)との違いを述べる。テーブルT26では、FC IDフィールドC162がIPアドレスフィールドC272に変更されている。さらに、テーブルT26では、WWPNフィールドC163がiSCSIネームフィールドC273に変更されている。さらに、テーブルT26では、ゾーンIDフィールドC166がDD IDフィールドC276に変更されている。
 IPアドレスフィールドC272には、IPアドレスの他に、TCP(Transmission Control Protocol)のポート番号を設定してもよい。IPアドレスは、サブネットが異なっていてもよい。IPアドレスのバージョンは、IPv4とIPv6のいずれで設定してもよい。通常、サーバまたはストレージ等の装置は、IP-SANに接続すると、自装置のIPアドレスとTCPポート番号とiSCSIネームとFC-4 FEATURESとを、iSNSサーバ193に登録する。
 図28は、iSNSサーバ193の有するディスカバリドメインテーブルT27の構成図である。DDテーブルT27は、図17で示したSANスイッチ3のゾーニングテーブルT17と似た構成を備える。
 図28のDDテーブルT27と図17のゾーニングテーブルT17との相違は次の通りである。DDテーブルT27では、ゾーンIDフィールドC171がDD IDフィールドC281に変更されている。DDテーブルT27では、ゾーン名フィールドC172がDD名フィールドC282に変更されている。DDテーブルT27では、ゾーンメンバリストフィールドC173がDDメンバリストフィールドC283に変更されている。
 図28のテーブルの内容は、図18で示したゾーニングテーブルT17の自動生成処理と同様な処理により生成される。なお、ネームテーブルT26のiSCSIネーム(C273)では、下線を引いたドメイン名を、ネームテーブルT16におけるベンダ識別子として扱う。つまり、予め設定される所定のドメイン名を含むiSCSIネームを検出すると、そのiSCSIネームは、所定の生成規則に基づいて生成されたものであることと、ペアとなる他のiSCSIネームが存在することとが判明する。
 このように構成される本実施例も前記第3実施例と同様の効果を奏する。
 図29-図36を参照して第5実施例を説明する。本実施例では、第1実施例及び第2実施例を前提とし、グループ情報及びペア情報を含むWWNを使用する。本実施例では、VMをマイグレーションさせる場合を説明する。本実施例では、グループ情報を利用するため、VMをマイグレーションさせても、LUNマスキング及びゾーニングの、設定変更は不要となる。
 図29は、コンピュータシステムの論理的構成を示す。図2に示す構成との相違を説明する。図29では、説明を簡単にするために、VM211(1)は、"VHBAa21"と表示されている仮想HBA202(2)とは接続されていない。つまり、VM211(1)は、VHBAa21にマッピングされていない。
 図29に示す破線の矢印は、サーバ2(1)のVM211(1)が、サーバ2(2)のVM211(4)の位置へ移動する様子を示している。VMの移動は、仮想オペレーティングシステムP212(1),P212(2)とVM管理プログラムP213(1),P213(2)とが実施する。
 図30は、本実施例のWWNグループテーブルT9(2)を示す。WWNグループテーブルT9(2)は、図9で説明したWWNグループテーブルT9と同一構造を有する。但し、図30のWWNグループテーブルT9(2)では、グループIDは1しか使用されていない。エントリL301には、グループID=1のグループを、ペアIDが"1"及び"2"の2つのペアで構成する例を示している。
 図31は、WWNペアテーブルT6(5)を示す。図31のWWNペアテーブルT6(5)は、図30に示すWWNグループテーブルT9の内容となるように、図11のWWNペアの生成処理を実施した場合の、WWNペアテーブルT6の生成結果である。WWNペアテーブルT6(5)内の下線部の値(00:01)が、グループIDの値である。
 図32-図34は、図12で説明した統合管理プログラムP7の処理を実施した場合の生成結果を示している。第1実施例との相違点を述べる。
 図32のLUNマッピングテーブルT13(3)では、エントリL323のLUNマッピングフィールドC134にLUNが設定されていない。さらに、図33のLUNマスキングテーブルT14(3)では、エントリL331において、一つのストレージ用WWPNに対して、そのストレージ用WWPNと共通のグループIDを有する複数のサーバ用WWPNを設定している。
 図12で示したストレージ管理エージェントP9の処理(S45)において、所定の処理を追加することで、一つのストレージ用WWPNに複数のサーバ用WWPNを対応付けることができる。所定の処理は、図31のWWNペアテーブルT6(5)から、同一グループのサーバ用WWPN(C63)を全て抽出し、それらサーバ用WWPNをLUNマスキングテーブルT14(3)のLUNマスキングフィールドC144に設定する。
 図34のVMマッピングテーブルT15(3)は、サーバ2(1)のVMをマッピングする仮想HBA202(2)(VHBAa11)と、サーバ2(2)のVMをマッピングするための仮想HBA202(2)(VHBAb11)とに、同一グループIDを含むWWPNを設定している。
 具体的にはエントリL341とL344に示すように、WWPNフィールドC153に設定されるWWPNは、同じグループID(00:01)を有する。図29に破線矢印で示すように、VM211(1)(VMa1)は、サーバ2(1)内の位置から、サーバ2(2)内のVM211(4)の位置へ移動可能である。
 図35及び図36を参照して、SANスイッチ3にゾーニングを設定する方法について説明する。図35は、本実施例のネームテーブルT16(2)である。ネームテーブルT16(2)は、図16で説明したネームテーブルT16(1)と同一構造を有する。但し、説明を簡単にするため、図35では、図29に示すVM(VMa1)に関係する情報のみ示す。
 ストレージ装置1とサーバ2とが、図33のLUNマスキングテーブルT14(3)のエントリL331とL332に基づいて、SANスイッチ3のネームテーブルT16に登録する。その登録結果は、図35のネームテーブルT16(2)のエントリL351とL353とに示されている。
 図36は、本実施例のゾーニングテーブルT17(3)である。ゾーニングテーブルT17(3)は、図17で説明したゾーニングテーブルT17と同一構造を備える。図36のゾーニングテーブルT17(3)は、図18で示したゾーニングテーブル自動生成処理を一部変更することにより、作成できる。つまり、エントリのペアID毎にゾーンを作成する処理(S63)を、抽出したエントリのグループID毎にゾーンを作成するという処理に変更することで、本実施例のゾーニングテーブルT17(3)を作成できる。
 なお、S63の処理内容を変更するのではなく、グループID毎にゾーンを生成するステップを図18のフローチャート追加する構成でもよい。その場合、ペアID毎のゾーンとグループID毎のゾーンとが、ゾーニングテーブルT17に存在することになる。
 なお、本発明は、上述した実施形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。例えば、第5実施例は、第3実施例及び第4実施例にも適用できる。
 さらに、例えば、統合管理プログラムP7は、SANスイッチ3で実施してもよい。管理ネットワーク11は、FC-SAN上のインバンドの通信で実現してもよい。
 図19で示したiSNSサーバ193の機能を、LANスイッチ194内に設ける構成でもよい。さらに、図4、図5、図20、図22で示したグループ情報及びペア情報を含むWWNまたはiSCSIネームは、グループ情報だけを含むWWNまたはiSCSIネーム、あるいは、ペア情報だけを含むWWNまたはiSCSIネームにしてもよい。
 図7、図10、図23、図31に示したサーバ用WWNは、ストレージ装置間でデータコピーをする場合に、イニシエータ用のWWNとして利用してもよい。つまり、コピー元のストレージ装置のポートにサーバ用WWNを設定し、そのサーバ用WWNとペアを構成するストレージ用WWNを、コピー先ストレージ装置のポートに設定してもよい。
 また、図5、図20に示したエンドポイントの識別子は、表示上、グループIDフィールドとペアIDフィールドとを人間が理解できる形態にしている。これに代えて、例えば、可逆な関数により、エンドポイント識別子を可読不能(理解不能)または可読困難(理解困難)な形態に変換してもよい。これにより、秘匿性を高めることができる。
 さらに、本発明は、以下のように、スイッチ装置またはiSCSIネームサーバとして把握することもできる。
 観点1.ストレージエリアネットワークに使用されるスイッチ装置であって、ネームサーバに登録されるエンドポイント識別子が、ペア情報を含む所定のエンドポイント識別子であることを検出する検出機能と、前記ペア情報を含む複数の前記所定のエンドポイント識別子を1グループとして、ペア毎にゾーンを設定するゾーン設定機能とを備えるスイッチ装置。
 観点2.観点1に記載のスイッチ装置であって、前記所定のエンドポイント識別子は、エンドポイントのペアをグループとするグループ情報をさらに含み、前記ゾーン設定機能は、前記グループ情報を含むエンドポイントを1グループとして、グループ毎にゾーンを設定するスイッチ装置。
 観点3.iSCSIネームサーバであって、ネームサーバに登録されるエンドポイント識別子が、ペア情報を含む所定のエンドポイント識別子であることを検出する検出機能と、前記ペア情報を含む複数の前記所定のエンドポイント識別子を1グループとしてペア毎にディスカバリドメインを設定するディスカバリドメイン設定機能とを、有するiSCSIネームサーバ。
 観点4.観点3に記載のiSCSIネームサーバであって、前記所定のエンドポイント識別子は、エンドポイントのペアをグループとするグループ情報をさらに含み、前記ディスカバリドメイン設定機能は、前記グループ情報を含むエンドポイント識別子を1グループとしてペア毎にディスカバリドメインを設定するiSCSIネームサーバ。
 1:ストレージ装置、2:サーバ、3:SANスイッチ、4:管理サーバ、193:iSNSサーバ、195:LANスイッチ、211:仮想マシン、P7:統合管理プログラム

Claims (14)

  1.  コンピュータシステムを管理するための管理装置であって、
     前記コンピュータシステムは、互いに通信可能に接続される複数のコンピュータ装置を備えており、
     前記管理装置は、管理プログラムを記憶するメモリと、前記管理プログラムを実行するプロセッサと、前記各コンピュータ装置と通信するための通信インターフェース回路とを備えており、
     前記マイクロプロセッサは、前記管理プログラムを実行することにより、
      前記各コンピュータ装置のうち第1コンピュータ装置の有する第1エンドポイントを識別するための第1エンドポイント識別子と、前記各コンピュータ装置のうち第2コンピュータ装置の有する第2エンドポイントを識別するための第2エンドポイント識別子とを、ペアで生成して管理し、
      前記第1エンドポイント識別子を前記第1コンピュータ装置に送信して前記第1エンドポイントに設定させ、
      前記第2エンドポイント識別子を前記第2コンピュータ装置に送信して前記第2エンドポイントに設定させる、
    コンピュータシステムの管理装置。
     
  2.  前記第1エンドポイント識別子及び前記第2エンドポイント識別子には、前記第1エンドポイント識別子と前記第2エンドポイント識別子により構成されるペアを識別するためのペア情報がそれぞれ含まれている、
    請求項1に記載のコンピュータシステムの管理装置。
     
  3.  前記マイクロプロセッサは、前記管理プログラムを実行することにより、
      前記第1エンドポイント識別子及び前記第2エンドポイント識別子に基づいて、前記第2エンドポイントにアクセス可能な前記第1エンドポイントを設定するためのアクセス制御情報を生成させる、
    請求項2に記載のコンピュータシステムの管理装置。
     
  4.  前記アクセス制御情報は前記第2コンピュータ装置により生成される、
    請求項3に記載のコンピュータシステムの管理装置。
     
  5.  前記第1コンピュータ装置は、前記第1エンドポイントに設定される前記第1エンドポイント識別子に含まれる前記ペア情報に基づいて、前記第1エンドポイント識別子とペアを構成する前記第2エンドポイント識別子を特定し、その特定された第2エンドポイント識別子と前記第1エンドポイント識別子とを対応付けて前記アクセス制御情報を生成する、請求項4に記載のコンピュータシステムの管理装置。
     
  6.  前記マイクロプロセッサは、前記管理プログラムを実行することにより、
      互いに通信可能な前記第1エンドポイントと前記第2エンドポイントとのグループを設定するためのゾーニング情報を、前記第1エンドポイントと前記第2エンドポイントとの間に設けられるスイッチ装置により生成させる、
    請求項1または請求項5のいずれかに記載のコンピュータシステムの管理装置。
     
  7.  前記第1エンドポイント識別子と前記第2エンドポイント識別子には、前記ペア情報と、前記ペア情報が属するグループを識別するためのグループ情報とがそれぞれ含まれている、
    請求項2に記載のコンピュータシステムの管理装置。
     
  8.  前記第1エンドポイント識別子と前記第2エンドポイント識別子には、前記ペア情報が含まれていることを示すための通知情報が含まれている、
    請求項2に記載のコンピュータシステムの管理装置。
     
  9.  前記第1エンドポイント識別子と前記第2エンドポイント識別子には、設定先のエンドポイントの種類を示すタイプ情報が含まれている、
    請求項8に記載のコンピュータシステムの管理装置。
     
  10.  前記第1エンドポイント及び前記第2エンドポイントは、物理的な通信ポート、または、前記物理的なポート上に設けられる仮想的な通信ポートのいずれかである、
    請求項1に記載のコンピュータシステムの管理装置。
     
  11.  前記第2エンドポイントは命令を発行するためのエンドポイントであり、前記第1エンドポイントは前記命令を受領するためのエンドポイントである、
    請求項1に記載のコンピュータシステムの管理装置。
     
  12.  前記第1エンドポイント識別子と前記第2エンドポイント識別子は、WWN(World Wide Name)またはiSCSI(internet Small Computer System Interface)のいずれかとして構成される、
    請求項1に記載のコンピュータシステムの管理装置。
     
  13.  コンピュータシステムを管理装置で管理するための管理方法であって、
     前記コンピュータシステムは、互いに通信可能に接続される複数のコンピュータ装置を備えており、
     前記管理装置は、
      前記各コンピュータ装置のうち第1コンピュータ装置の有する第1エンドポイントを識別するための第1エンドポイント識別子と、前記各コンピュータ装置のうち第2コンピュータ装置の有する第2エンドポイントを識別するための第2エンドポイント識別子とを、ペアで生成して管理し、
      前記第1エンドポイント識別子を前記第1コンピュータ装置に送信して前記第1エンドポイントに設定させ、
      前記第2エンドポイント識別子を前記第2コンピュータ装置に送信して前記第2エンドポイントに設定させる、
    コンピュータシステムの管理方法。
     
  14.  コンピュータを、コンピュータシステムを管理するための管理装置として動作させるためのコンピュータプログラムであって、
     前記コンピュータシステムは、互いに通信可能に接続される複数のコンピュータ装置を備えており、
     前記各コンピュータ装置のうち第1コンピュータ装置の有する第1エンドポイントを識別するための第1エンドポイント識別子と、前記各コンピュータ装置のうち第2コンピュータ装置の有する第2エンドポイントを識別するための第2エンドポイント識別子とを、ペアで生成して管理するための機能と、
      前記第1エンドポイント識別子を前記第1コンピュータ装置に送信して前記第1エンドポイントに設定させる機能と、
      前記第2エンドポイント識別子を前記第2コンピュータ装置に送信して前記第2エンドポイントに設定させる機能と、
    を前記コンピュータに実現させて、前記コンピュータを前記管理装置として動作させるコンピュータプログラム。
PCT/JP2011/052332 2011-02-04 2011-02-04 コンピュータシステムの管理装置及び管理方法 WO2012105035A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/052332 WO2012105035A1 (ja) 2011-02-04 2011-02-04 コンピュータシステムの管理装置及び管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/052332 WO2012105035A1 (ja) 2011-02-04 2011-02-04 コンピュータシステムの管理装置及び管理方法

Publications (1)

Publication Number Publication Date
WO2012105035A1 true WO2012105035A1 (ja) 2012-08-09

Family

ID=46602276

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/052332 WO2012105035A1 (ja) 2011-02-04 2011-02-04 コンピュータシステムの管理装置及び管理方法

Country Status (1)

Country Link
WO (1) WO2012105035A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014087544A1 (ja) * 2012-12-07 2014-06-12 株式会社日立製作所 計算機システム、管理計算機及び管理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063063A (ja) * 2000-06-05 2002-02-28 Fujitsu Ltd ストレージエリア・ネットワーク管理システム
US20080177871A1 (en) * 2007-01-19 2008-07-24 Scalent Systems, Inc. Method and system for dynamic binding in a storage area network
JP2010097596A (ja) * 2008-10-17 2010-04-30 Hitachi Ltd リソースプロビジョニングのための方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063063A (ja) * 2000-06-05 2002-02-28 Fujitsu Ltd ストレージエリア・ネットワーク管理システム
US20080177871A1 (en) * 2007-01-19 2008-07-24 Scalent Systems, Inc. Method and system for dynamic binding in a storage area network
JP2010097596A (ja) * 2008-10-17 2010-04-30 Hitachi Ltd リソースプロビジョニングのための方法および装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014087544A1 (ja) * 2012-12-07 2014-06-12 株式会社日立製作所 計算機システム、管理計算機及び管理方法
JPWO2014087544A1 (ja) * 2012-12-07 2017-01-05 株式会社日立製作所 計算機システム、管理計算機及び管理方法
US9875143B2 (en) 2012-12-07 2018-01-23 Hitachi, Ltd. Computer system, management computer and management method

Similar Documents

Publication Publication Date Title
US11012293B2 (en) System and method for defining virtual machine fabric profiles of virtual machines in a high-performance computing environment
US7996560B2 (en) Managing virtual ports in an information processing system
US9766833B2 (en) Method and apparatus of storage volume migration in cooperation with takeover of storage area network configuration
US8549240B2 (en) Apparatus and methods for an appliance to recover data from a storage device
US8402534B2 (en) Management system, program recording medium, and program distribution apparatus
US8024773B2 (en) Integrated guidance and validation policy based zoning mechanism
JP4620776B2 (ja) ネットワークに付属する物理的なポートの仮想インスタンスを管理するための方法およびシステム
US10701151B2 (en) Methods and systems for accessing virtual storage servers in a clustered environment
CN107078974B (zh) 网络交换机、由网络交换机执行的方法以及存储器资源
US10025502B2 (en) Fibre channel initiator alias/port suggestion and autocomplete
KR101454954B1 (ko) 스토리지 에어리어 네트워크(san)의 구성
JP4965743B2 (ja) オペレーティング・システムの移行の際におけるストレージ・エリア・ネットワーク(「san」)アクセス権の保持
US20160080255A1 (en) Method and system for setting up routing in a clustered storage system
JP5953109B2 (ja) 管理サーバおよび検証方法
JP2007087059A (ja) 記憶制御システム
JP2004318741A (ja) ネットワーク管理プログラム、管理計算機及び管理方法
Halabi Hyperconverged Infrastructure Data Centers: Demystifying HCI
WO2012105035A1 (ja) コンピュータシステムの管理装置及び管理方法
JP4485875B2 (ja) ストレージ接続変更方法、ストレージ管理システム及びプログラム
US20060075470A1 (en) Storage network system and access control method
Khalil Storage Implementation in VSphere 5.0

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11857823

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11857823

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP