WO2009142282A1 - 計算機システム並びに管理サーバ及び構成情報取得方法 - Google Patents

計算機システム並びに管理サーバ及び構成情報取得方法 Download PDF

Info

Publication number
WO2009142282A1
WO2009142282A1 PCT/JP2009/059394 JP2009059394W WO2009142282A1 WO 2009142282 A1 WO2009142282 A1 WO 2009142282A1 JP 2009059394 W JP2009059394 W JP 2009059394W WO 2009142282 A1 WO2009142282 A1 WO 2009142282A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage device
host computer
configuration information
performance
management server
Prior art date
Application number
PCT/JP2009/059394
Other languages
English (en)
French (fr)
Inventor
永井崇之
篠原大輔
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to EP09750644A priority Critical patent/EP2287745A4/en
Publication of WO2009142282A1 publication Critical patent/WO2009142282A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0632Configuration or reconfiguration of storage systems by initialisation or re-initialisation of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/085Retrieval of network configuration; Tracking network configuration history
    • H04L41/0853Retrieval of network configuration; Tracking network configuration history by actively collecting configuration information or by backing up configuration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/085Retrieval of network configuration; Tracking network configuration history
    • H04L41/0859Retrieval of network configuration; Tracking network configuration history by keeping history of different configuration generations or by rolling back to previous configuration versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/091Measuring contribution of individual network components to actual service level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold

Definitions

  • the present invention is suitable for application to a management server that manages a storage system used in a computer system.
  • the storage device In a computer system consisting of multiple host computers and storage devices, the storage device is often the bottleneck of the entire system. For this reason, various performance index values are obtained in the system construction phase and operation phase so that the storage device can produce as high performance as possible, and analysis is performed to determine whether a predetermined performance value has been obtained. It is important to do.
  • I / O processing from multiple servers is duplicated for a specific resource in the storage device, resulting in serious problems. May cause excessive performance degradation.
  • the tools provided by the storage device allow you to view and analyze the amount of IO being processed by specific resources in the storage device.
  • the cause of the IZO contention performance problem caused by the configuration of the host computer connected to the storage device i.e., specifically, the I / O It was difficult to identify the parts that were the bottleneck of the performance of the host computers with an O load.
  • Patent Document 1 is a technology that facilitates the identification of parts that are the bottleneck in performance of host computers that are causing competition for I / O.
  • Patent Document 1 Japanese Patent Laid-Open No. 2 0 0 5-0 0 6 2 9 4 1
  • the management server's system performance management software monitors the configuration and performance of multiple host computers and storage devices when executed on a processor. Specifically, the performance and internal configuration of components such as ports, controllers, caches, volumes, and RAID groups inside the storage device, and the performance and connection destination storage port of the logical volume on the host computer. Information such as data is periodically acquired and stored in an internal database. Configuration information and performance information exist as information that the system performance management software acquires from the storage device and host computer.
  • the configuration information is the mutual connection relationship between the internal components of the storage device and the host computer, and various setting information for the internal components of the storage device and the host computer.
  • the performance information is a list of internal parts of the host computer and storage device, and their performance values.
  • the system performance management software acquires configuration information that is relatively infrequent in order to reduce the processor load inside the storage device. Implement less frequently than obtaining information. The reason is that excessive acquisition of configuration information increases the processor load inside the storage device, which may affect the IO performance of business data in the storage device.
  • the number of connected host computers will increase, and the access to the storage device will increase rapidly. Even if the number of parts in the storage exceeds the threshold, the configuration information of the management server will remain unchanged. Because it is information, even if it shows which host computer is using the internal parts of the storage device that exceeded the threshold, the newly added host is not displayed as the connection destination. As a result, the administrator cannot take corrective measures for exceeding the threshold.
  • a possible countermeasure is to acquire configuration information at the same time as performance information. However, in that case, the frequency of acquiring configuration information increases, and the storage device is overloaded. It is the subject of this patent to prevent the events described above.
  • the present invention has been made in consideration of the above points, and proposes a computer system, a management server, and a configuration information acquisition method that can significantly improve the operation efficiency.
  • a storage device including a volume, which is a storage area configured by a plurality of components and used by a host computer, and the storage device.
  • the host A management server that is connected to the computer via a network and manages configuration information and performance information of the storage device and the host computer, and the management server includes the storage device and the host.
  • An acquisition unit that acquires computer configuration information and performance information at different timings, and when an external configuration change is instructed to the storage device, the storage device in which the configuration change has been performed
  • a comparison unit that compares a performance value of the component and a performance value of a component that is connected to the component, and the acquisition unit has a certain difference or more in the performance value compared by the comparison unit In this case, it is determined that an unknown part has been added to the storage device, and the configuration information is obtained again from the storage device.
  • the management server when the system administrator changes the configuration of the storage device via the storage management server that exists separately from the management server, the management server changes the configuration. Detects automatically and obtains configuration information from the storage device.
  • the management server when the system administrator changes the configuration of the storage device via a storage management server that exists separately from the management server, the management server automatically changes the configuration. Detection of the storage device and the host computer that uses the storage device and acquisition of configuration information.
  • the management server when a system administrator changes the configuration of a storage device via a storage management server that exists separately from the management server, the management server automatically detects the configuration change, and the identifier management server Acquire the address of the host computer connected to the storage device using, and obtain the configuration information from the storage device and the host computer using the storage device.
  • the management server is connected to a storage device and a host computer via a network, and manages configuration information and performance information of the storage device and the host computer.
  • the acquisition unit that acquires the configuration information and performance information of the storage device and the host computer at different timings, and when the configuration change to the storage device is instructed from the outside, the configuration change is performed.
  • a comparison unit that compares a performance value of a component in the storage device and a performance value of a component connected to the component, and the acquisition unit compares the performance value of the component with the comparison unit. When there is a certain difference in the storage device, it is determined that an unknown part has been added to the storage device, and the storage device To acquire La configuration information again.
  • a management server that is connected to a storage device and a host computer via a network, and manages configuration information and performance information of the storage device and the host computer.
  • the acquisition unit acquires the configuration information and performance information of the storage device and the host computer at different timings, and the comparison unit externally stores the storage device.
  • a second step of comparing a performance value of a component in the storage device in which the configuration change has been performed with a performance value of a component connected to the component The acquisition unit compares in the second step.
  • the acquisition of configuration information is limited to the timing when a configuration change is detected in the storage device, the frequency of acquiring the configuration information is increased, and the situation that the storage device is overloaded is effective.
  • the composition information can be updated to the latest.
  • the configuration information of the storage device can be accurately displayed to the administrator via the management server, and the administrator can detect an error in the storage device. Correct measures can be taken.
  • FIG. 1 is a diagram showing a schematic configuration example of a computer system according to the present invention.
  • FIG. 2 is a diagram showing a detailed configuration example of the host computer according to the present invention.
  • FIG. 3 is a diagram showing a detailed configuration example of the storage apparatus according to the present invention.
  • FIG. 4 is a diagram showing a detailed configuration example of the management server in the present invention.
  • FIG. 5 is a diagram showing a detailed configuration example of the storage management server in the present invention.
  • FIG. 6 is a diagram showing a detailed configuration example of the iSNS server according to the present invention.
  • FIG. 7 is a diagram showing a configuration example of a logical volume management table provided in the host computer in the present invention.
  • FIG. 8 is a diagram showing a configuration example of a volume management table provided in the storage device in the present invention.
  • FIG. 9 is a diagram showing a configuration example of a RAID group management table provided in the storage device in the present invention.
  • FIG. 10 is a diagram showing a configuration example of a port management table provided in the storage device in the present invention.
  • FIG. 11 is a diagram showing a configuration example of an iSCS I target management table provided in the storage device according to the present invention.
  • FIG. 12 is a diagram showing a configuration example of a device performance management table provided in the management server in the present invention.
  • FIG. 13 is a diagram showing a configuration example of a device connection management table provided in the management server in the present invention.
  • FIG. 14 is a diagram showing a configuration example of a device detection target management table provided in the management server in the present invention.
  • FIG. 15 is a diagram showing a configuration example of a monitoring target device management table provided in the management server in the present invention.
  • FIG. 16 is a diagram showing a configuration example of an iSCS Iname management table provided in an iSNS server in the present invention. ,is there.
  • FIG. 17 is an example of a screen displayed by the management server in the present invention.
  • FIG. 18 is a flowchart illustrating an example of an overall flow of device information update processing performed by the management server in the first embodiment.
  • FIG. 19 is a flowchart showing an example of the overall flow of the configuration information update process performed by the management server in the first embodiment.
  • Figure 20 shows an example of the overall flow of performance information update processing performed by the management server in Example 1.
  • Fig. 21 is a flowchart showing an example of the overall flow of device detection processing performed by the management server in the first embodiment.
  • Figure 22 shows the overall flow of the configuration information acquisition process performed by the management server in the first example.
  • Fig. 23 is a flowchart showing an example of the overall flow of performance information acquisition processing performed by the management server in the first embodiment.
  • Fig. 24 is a flowchart showing an example of the overall flow of additional component detection processing performed by the management server in the first embodiment.
  • FIG. 25 is a flowchart showing an example of the overall flow of additional component detection processing performed by the management server in the second embodiment.
  • FIG. 26 is a flowchart showing an example of the overall flow of additional component detection processing performed by the management server in the second embodiment.
  • FIG. 27 is a flowchart showing an example of the overall flow of additional component detection processing performed by the management server in the third embodiment.
  • FIG. 28 is a flowchart showing an example of the overall flow of additional component detection processing performed by the management server in the third embodiment.
  • the management server automatically detects a configuration change and acquires configuration information from the storage device.
  • 1 to 6 show the configuration of the computer system 1 and the configuration of the devices connected to the computer system 1.
  • 7 to 16 show the management information provided in each device.
  • FIG. 1 shows the configuration of computer system 1.
  • the computer system 1 includes a host computer 2, a storage device 3, a management server 4, a storage management server 5, and an iSNS (Internet Storage Name Service) server 6 on a network 7. Connected by.
  • a host computer 2 a storage device 3
  • a management server 4 a storage management server 5
  • iSNS Internet Storage Name Service
  • FIG. 1 shows the configuration of computer system 1.
  • the computer system 1 includes a host computer 2, a storage device 3, a management server 4, a storage management server 5, and an iSNS (Internet Storage Name Service) server 6 on a network 7. Connected by.
  • iSNS Internet Storage Name Service
  • FIG. 2 shows the detailed configuration of the host computer 2.
  • Host computer 2 is connected to storage device 3 and iSNS server 6 via network 7, and is connected to management server 4 via network 7.
  • a port 1 2, a processor 1 3, and a memory 1 4 are connected to each other via a circuit such as an internal bus.
  • the memory 14 stores a business application 15, an operating system 16, and a logical volume management table 17.
  • the business application 15 uses the storage area provided by the operating system and performs data input / output (hereinafter referred to as IZO) to the storage area.
  • IZO data input / output
  • the operating system 16 allows the application to recognize the logical volume on the storage device connected to the host computer via the storage network as a storage area.
  • FIG. 3 shows a detailed configuration example of the storage device 3.
  • the storage device 3 is connected to the host computer 2 and the i SN via the network 7.
  • I / O port 2 1 for connecting to S server 6, management port 2 2 for connecting to management server 4 and storage management server 5 via network 7, and various management information Management memory 2 3 for storing, Redundant Arrays of Inexpensive Disks (RAID) group 2 4 for storing data, and controller 2 for controlling management information in data and management memory 2
  • RAID Redundant Arrays of Inexpensive Disks
  • Management memory 2 3 includes storage device 3 management program 2 6, volume management table 2 7, RAID group management table 2 8, port management table 2 9, i S and SI ( Internet Small and omputer .system Interlace) Stores target management table 30.
  • the RA ID group 24 is composed of one or more magnetic disks 3 1. In the case of being constituted by a plurality of magnetic disks 3 1, these magnetic disks may have a R A ID configuration.
  • the RA ID group 24 is logically divided into a plurality of volumes 32.
  • the controller 25 has a processor 33 for controlling the storage device 3 and a cache memory 34 for temporarily storing data exchanged with the host computer 2.
  • the controller 25 is interposed between the IZO port 21 and the magnetic disk 31 (RA ID group 24), and exchanges data between them.
  • FIG. 4 shows a detailed configuration of the management server 4.
  • the management server 4 includes a management port 4 1 for connecting to the host computer 2, the storage device 3 and the iSNS server 6 via the network 7, a processor 4 2, and an acquisition information repository. 4 3, memory 4 4, output unit 4 5 such as a display device for outputting processing results to be described later, and storage manager Has an input section 4 6 such as a keyboard for inputting instructions, and these are connected to each other via a circuit such as an internal bus.
  • the acquired information repository 43 stores a device performance management table 47, a device connection management table 48, a device detection target management table 49, and a monitoring target device management table 50.
  • the acquired information repository 43 stores configuration information acquired from each monitored device, such as the volume management table 27 on the storage device 3.
  • the device performance management table 47 stores the performance information of the devices that make up the monitored device and the thresholds assigned to the devices.
  • the memory 44 stores a control program 51, an information acquisition program 52, a device detection program 53, and a GUI (Graphical User Interface) display processing program 54.
  • a control program 51 an information acquisition program 52, a device detection program 53, and a GUI (Graphical User Interface) display processing program 54.
  • the control program 51 instructs the information acquisition program 52 to periodically acquire configuration information and performance information from the host computer 2 and the storage device 3 in the computer system 1.
  • the control program 51 regularly instructs the device detection program 53 to detect the host computer 2 and the storage device 3 added to the computer system 1.
  • the information acquisition program 5 2 acquires configuration information and performance information from the host computer 2 and the storage device 3 and stores them in the device performance management table 47 and the device connection management table 48.
  • the device detection program 5 3 detects (searches) the host computer 2 and storage device 3 connected to the network 7, and newly detects the host computer 2 and storage device connected to the network 7. If the storage device 3 is detected, the information acquisition program 52 is instructed to acquire configuration information and performance information from the corresponding host computer 2 and storage device 3.
  • the GUI display processing program 54 displays the acquired configuration information and performance information via the output unit 45 in response to a request from the administrator via the input unit 46.
  • FIG. 5 shows a detailed configuration of the storage management server 5.
  • the storage management server 5 outputs a management port 6 1, a processor 6 2, a memory 6 3, and a processing result described later, for connection to the storage device 3 via the network 7.
  • the circuit such as an internal bus.
  • a device management program 6 6 and a device configuration management table 6 7 are stored in the memory 63.
  • the device management program 66 acquires configuration information from the storage device 3 in response to a request from the administrator, and displays it to the user via the output unit 45. Further, the device management program 66 stores the acquired configuration information in the device configuration management table 67.
  • FIG. 6 shows a detailed configuration of the iSNS server 6.
  • i SNS server 6 is connected to host computer 2, storage device 3 and i SNS server 6 via network 7, management port 7 1, processor 7 2, memory 7 3, an output unit 7 4 such as a display device for outputting processing results to be described later, and an input unit 7 5 such as a keyboard for the storage manager to input instructions.
  • a circuit such as an internal bus.
  • the memory 73 stores an iSNS program 7 6 and an iS C S I name management table 7 7.
  • i SNS program 7 6 stores information on IP—SAN devices on network 7 in i SCSI name management table 7 7 and is stored in i SCSI name management table 7 7 according to requests from IP—SAN devices. Returns the IP address corresponding to the iSCSI name.
  • FIG. 7 shows the configuration of the logical volume management table 17 included in the host computer 2.
  • Logical volume management table 17 contains field 17 A for registering the logical volume ID that is the identifier of each logical volume in host computer 2, and the existence of the logical volume.
  • FIG. 7 shows an example of specific values of the logical volume management table 17 that the host computer 2 has.
  • the logical volume on host computer 2 “E: J is“ com. Hitachi.svl ”and I / O port 1 1 on host computer 2 indicated by the iSCSI initiator name.
  • "Com. Hitachi.stol” and connected to storage device 3 via I ZO port 2 1 on storage device 3 indicated by the storage iSCSI target name.
  • the storage device 3 has the LUN ID of the logical volume.
  • FIG. 8 shows the configuration of the volume management table 27 provided in the storage device 3.
  • the volume management table 2 7 includes a field 2 7 A for registering a volume ID as an identifier of each volume 3 2 in the storage device 3 and a field for registering the capacity of each volume 3 2.
  • 2 7 B and fields 2 7 C for registering the RAID group ID that is the identifier of RAID group 2 4 where each volume 3 2 exists and the identifier of the i SCSI target that the I ZO port 2 1 has Field for registering the target ID And the LUN ID that registers the logical volume identifier of host computer 2 in storage device 3
  • FIG. 8 shows an example of specific values of the volume management table 27 that the storage device 3 has.
  • “V0L1J” which is volume 3 2 on storage device 3
  • the i SCSI target indicated by the target ID “” is subordinate, and the LUN ID of the logical volume “0”.
  • FIG. 9 shows the configuration of the R A ID group management table 28 provided in the storage device 3.
  • the RAID group management table 2 8 contains the fields 2 8 A for registering the RAID group ID that is the identifier of each RAID group 2 4 in the storage device 3 and the fields for registering the RAID level of the RAID group 2 4. From 2 8 B and the field 2 8 C for registering the disk ID that constitutes the identifier of the magnetic disk 3 1 constituting the RAID group 2 4 and the field 2 8 D for registering the capacity of each RA ID group 2 4 It is configured.
  • FIG. 9 shows an example of specific values of the RA ID group management table 28 provided in the storage device 3.
  • “RG1”, which is RAID group 2 4 on storage device 3 consists of “DISK1, DISK2J” and magnetic disk 3 1 indicated by the component disk ID, and has a RAID level of rRAIDl J and capacity. Is "100GBJ.
  • FIG. 10 shows the configuration of the port management table 29 provided in the storage device 3.
  • the port management table 29 contains the field 29 A for registering the port ID that is the identifier of each I / O port 21 in the storage device 3, and the I / O It consists of field 29 B for registering the target ID that is the identifier of the iSCSI target that port 21 has.
  • FIG. 10 shows an example of specific values of the port management table 29 provided in the storage device 3.
  • P0RT1 which is the I 0 port 2 1 on the storage device 3
  • FIG. 11 shows the configuration of the i S C S I target management table 30 provided in the storage device 3.
  • the iSCSI target management table 30 contains the field 30 A for registering the target ID that is the identifier of the iSCSI target in the storage device 3, and the iSCSI target that each iSCSI target has. This is the identifier of the IZO port 11 on the host computer 2 that is allowed to access the field 30 B for registering the target name and the volume 32 belonging to each iSCSI target.
  • i Field for registering the SCSI initiator name.
  • FIG. 11 shows an example of specific values of the iSCSI target management table 30 provided in the storage device 3.
  • “TG1”, which is the iSCSI target on storage device 3 has “icom target name” com.
  • Cora. Hitachi. Svllj allows access from I / O port 1 1 on host computer 2.
  • FIG. 12 shows the configuration of the device performance management table 47 included in the management server 4.
  • Device performance management table 47 contains field 4 7 A for registering the device ID that is the identifier of storage device 3 to which the device to be managed (managed device) belongs, and the device that is the identifier of the managed device.
  • the field 4 7 B for registering the ID, the field 4 7 C for storing the metric name of the performance information of the managed device, and the performance value (IOPS (Input Output Per Second)) of the managed device Acquired from storage device 3 and rated
  • the field 4 7 D to be stored and the field 4 7 E to store the threshold for alert execution are configured.
  • the management server 4 when the IZO amount per unit time of the management target device exceeds a predetermined threshold, the management server 4 notifies the user of an alert by means such as e-mail.
  • FIG. 12 shows an example of specific values of the device performance management table 47 included in the management server 4.
  • the storage unit 3 “RG1” in the R A ID group 2 4 in “SYS 1” has a unit time IO amount of “200” at the present time.
  • the management server 4 notifies the user of an alert.
  • the performance value of the managed device managed by the management server 4 is taken as an example of the I / O amount and operation rate per unit time.
  • the performance value managed by the management server 4 The value may be other than this.
  • FIG. 13 shows the configuration of the device connection management table 48 provided in the management server 4.
  • the device connection management table 48 stores a field ID for registering a device ID that serves as an identifier for the storage device 3, and a volume ID that serves as an identifier for the volume 32 included in the storage device 3.
  • Register the identifier of 4 Field 4 8 D, Field 4 8 E to register the identifier of host computer 2 to which volume 3 2 is connected
  • FIG. 13 shows an example of specific values of the device connection management table 48 included in the management server 4.
  • storage device 3 “SYS 0 J volume 3 2“ V0L1 ”is RAID group 2 4“ RG1 ”.
  • H0ST1 that is host computer 2 via “P0RT 1” that is I / O port 1 1, and the connected drive is recognized as “E:” on host computer 2 Has been.
  • FIG. 14 shows the configuration of the device detection target management table 49 included in the management server 4.
  • the device detection target management table 4 9 accesses the field 4 9 A for registering the detection target address to be accessed by the device detection program 53 and the equipment existing on the detection target address. It consists of a field 49 B for registering a user name used at the time and a field 49 C for registering a password used together with the user name.
  • FIG. 14 shows an example of specific values of the device detection target management table 49 provided in the management server 4.
  • the device detection program 53 in the management server 4 has an IP address of “192.168.5.1”.
  • the device detection program 53 uses “user” as the user name and “pwd” as the nosword.
  • FIG. 15 shows the configuration of the monitoring target device management table 50 of the management server 4.
  • the monitored device management table 50 includes a field 50 0 A for registering the network address of the host computer 2 or the storage device 3 detected by the device detection program 53, and devices existing on the network address. Is a host computer 2 or storage device 3 field 50 B for registering a user name used to access a device existing on the network address 50 C and a field 50 D for registering a password used for the user name.
  • FIG. 15 shows an example of specific values of the monitoring target device management table 50 included in the management server 4.
  • the information acquisition program 5 2 included in the management server 4 is a host computer whose IP address is “192.168.5.5”. Access computer 2 and obtain information.
  • the information acquisition program 52 uses “user” as the user name and “pwd” as the password.
  • FIG. 16 shows the configuration of the iSCNS I name management table 7 7 provided in the iSNS server 6.
  • i SCSI Name Management Table 7 7 shows the field for registering the i SCSI name that is the identifier of the i SCSI initiator and i SCSI target 7 7 A and the field for registering the corresponding IP address 7 7 B and field 7 7 C for registering whether it is an iSCSI initiator or an iSCSI target.
  • FIG. 16 shows an example of specific values of the i S C S I name management table 77 included in the i S NS server 6.
  • the i S C S I initiator on the device whose IP address is indicated by “192.168.5.2J” has the name “cora. Hitachi. Svlj and the i S C S I name.
  • Figure 17 shows the configuration information displayed by the management server 4 to the system administrator for the resources in the storage device 3 where the performance problem occurred and the configuration of the host computer 2 that uses the resources.
  • the threshold exceeded warning screen 8 1 which is a display example of a repo that has been narrowed down to only, is shown.
  • FIG. 18 shows a configuration executed by the control program 51 of the management server 4 and a flowchart of device detection processing in this embodiment.
  • the control program 51 executes the device detection process for the device detection program 53 when the program is started or every time a fixed time elapses (step SP 1).
  • step SP 2 executes the process (step SP 2).
  • FIG. 19 shows a configuration executed by the control program 51 of the management server 4 and a flow chart of the configuration information acquisition process in this embodiment.
  • the control program 5 1 executes the configuration information acquisition process for the information acquisition program 52 at the time of starting the program or whenever a fixed time elapses from the previous configuration information acquisition process (step AP 1 1). Repeat the process instructing execution (step SP 1 2).
  • FIG. 20 shows a configuration executed by the control program 51 of the management server 4 and a flowchart of performance information acquisition processing in this embodiment.
  • the control program 51 repeats the following series of processing at the time of starting the program or whenever a fixed time elapses from the previous performance information acquisition processing (step SP21).
  • the control program 51 instructs the information acquisition program 52 to execute the performance information acquisition process (step SP22).
  • the control program 5 1 executes an additional part detection process (step S P 2 3).
  • FIG. 21 shows a flowchart of device detection processing executed by the device detection program 53 of the management server 4 in this embodiment.
  • the device detection program 53 repeats the following series of processing for the IP addresses within the detection target address range defined in the device detection target management table 49 (step S P 3 1).
  • the device detection program 53 logs into the device on the IP address defined in the device detection target management table 49 using the user name and password defined in the table, and stores the storage device configuration information. (Step SP 3 2).
  • the configuration information to be acquired may be arbitrary information.
  • the device detection program 53 determines whether a storage device configuration information response has been received from a device on the IP address defined in the device detection target management table 49 (step SP 3). 3). When there is a response from the device to the storage device configuration information (step SP 33: YES), the device detection program 53 determines that the device is the storage device 3, and returns a response. The received IP address is stored in the monitoring target device management table 50 (SP 3 4), and the process moves to the next IP address (steps SP 31 to SP 37). At that time, the device detection program 53 registers “storage” as the device type, and the user name and password used when the configuration information transmission request to the storage device 3 is executed.
  • the device detection program 53 is defined in the same table for the device on the IP address defined in the device detection target management table 49. Enter the user name and password, and instruct them to send the host computer configuration information (step SP 3 5).
  • the configuration information to be acquired may be arbitrary information.
  • the device detection program 53 determines whether there is a response of the host computer configuration information from the device on the IP address defined in the device detection target management table 49 (step SP 3 6). )
  • the device detection program 53 determines that the device is host computer 2 and responds.
  • the IP address is stored in the monitoring target device management table 50 (step SP 3 7), and the processing for the next IP address is started (steps 3 to 31 to 3 37).
  • the device detection program 53 registers “host” as the device type, and the user name and password used when the configuration information transmission request to the host computer 2 is executed.
  • FIG. 22 shows a flowchart of the configuration information acquisition process performed by the information acquisition program 52 of the management server 4 in this embodiment.
  • the information acquisition program 52 repeats the following series of processes for each monitoring target device defined in the device detection target management table 49 (step SP 41).
  • the information acquisition program 52 logs in to the device on the IP address defined in the device detection target management table 49 using the user name and password defined in the table, and sends the configuration information. (Step SP 4 2).
  • the information acquisition program 52 confirms the device type of each IP address, and if the device type is the host computer 2, it acquires the information in the logical volume management table 17 as the configuration information. .
  • the information acquisition program 52 is a volume management table 27, a RA ID group management table 28, a port management table 29, and an iSCSI target. Information in the management table 30 as configuration information.
  • the information acquisition program 52 determines whether a configuration information response has been received from the device on the IP address defined in the device detection target management table 49 (step S P 43).
  • the information acquisition program 52 stores the acquired configuration information in the acquisition information repository 43 (step SP44).
  • step S P 4 3 NO
  • the information acquisition program 52 moves to processing for the next device to be monitored (steps S P 4 1 to S P 4 4).
  • the information acquisition program 52 refers to the configuration information stored in the acquisition information repository 43, The device connection management table 48 is updated (step SP 45).
  • the procedure for updating the device connection management table 48 is described below.
  • the information acquisition program 5 2 refers to the volume management table 27 stored in the acquisition information repository 4 3, and confirms the RAID duplex 2 4 connected to the volume 3 2. Register in Device Connection Management Table 48.
  • the information acquisition program 5 2 refers to the port management table 29 and confirms the relationship between the volume 3 2 and the i SCSI target and the I ZO port 2 1. Confirm I ⁇ port 2 1 in connection relation and register it in device connection management table 48.
  • the information acquisition program 52 stores the iSCSI target management table 30 and the logical volume management table 17
  • volume 3 2 and the i S C S I target and the relationship between the host computer 2 side drive and the connected i S C S I target.
  • the information acquisition program 52 detects a pair of a volume 3 2 and a drive having the same iSCSI target and the same LUN ID, the device connection management is assumed to be connected to each other. Register in Table 48.
  • FIG. 23 shows a flowchart of performance information acquisition processing executed by the information acquisition program 52 of the management server 4 in this embodiment.
  • the information acquisition program 52 repeats the following series of processing for each monitored device defined in the monitored device management table 48 (step S P 5 1) o
  • the information acquisition program 52 uses the user name and password defined in the monitored device management table 48 to instruct the device on the IP address to send performance information (step SP). 5 2).
  • the information acquisition program 52 determines whether or not there is a response of performance information from the device on the IP address defined in the device detection target management table 49 (step SP 53). When there is a response of performance information from the device (step SP 53: YES), the information acquisition program 52 stores the acquired performance information in the device performance management table 47 (step 54).
  • step SP 53: N0 If there is no performance information response from the device (step SP 53: N0), the information acquisition program 52 moves to processing for the next device to be monitored (steps SP5:! To SP54) .
  • FIG. 24 shows a flowchart of additional component detection processing executed by the control program 51 of the management server 4 in this embodiment.
  • the control program 51 repeats the following processing for each storage device 3 managed by the management server 4 (step P 6 1).
  • the control program 51 repeats the following processing for the RA ID group 24 in the storage device 3 defined in the RA ID group management table 28 (step SP 62).
  • the control program 51 refers to the device performance management table 47 and obtains the current IOPS value of each RAID group 24 (step SP63).
  • the control program 51 refers to the volume management table 27 and detects a list of volumes 32 belonging to each RA ID group 24 (step SP 6 4).
  • control program 51 refers to the device performance management table 47, and adds the current I OPS values of the detected volume 32 (step 65). Thereafter, the control program 51 divides the summed value by the IOPS value of the RAID group 24 to check whether or not the value exceeds a predetermined threshold (step SP 6 6 ).
  • control program 51 determines whether or not a value obtained by dividing the sum by the IOPS value of the RAID group 24 exceeds a predetermined threshold (step SP 67). )
  • step SP67: NO If the value does not exceed the threshold (step SP67: NO), the control program 51 moves to the next RA ID group 24 (process Tapes SP 6 2 to SP 6 7). If the threshold value is exceeded (step SP 67: YES), the control program 51 determines that there are unknown parts in the storage device 3, and the information acquisition program 52 An instruction is given to obtain the configuration information of the storage device 3 in which the corresponding RAID group 2 4 exists (step SP 68). At that time, the control program 5 1 uses the storage device 3 to manage the volume management table 2 7, the RA ID group management table 2 8, the port management table 2 9, and the iSCSI target management table 3. 0 information is acquired as configuration information.
  • the information acquisition program 52 overwrites the acquired configuration information on the acquired information repository 43 (step SP68) and ends the process.
  • the IOPS of the volume 3 2 connected to each RAID group 2 4 were added up and compared with the IOPS of the RA ID group 2 4.
  • Use another part that is connected to volume 3 2 (such as I / O port 2 1) for comparison purposes.
  • parts (such as the magnetic disk 3 1) having a many-to-one relationship with the RA ID group 2 4 may be used in the comparison.
  • I ⁇ PS was used as an example of the performance value to be added and compared, but other performance metrics may be used. The above is the additional component detection processing in the present embodiment.
  • the system administrator when the configuration change of the storage device 3 is performed via the storage management server 5, the system administrator can perform the additional component detection process. Even after the configuration change of the storage device 3 is performed via the storage management server 5 shown in FIG. 5, the configuration information of the storage device 3 is sent from the management server 4 to the system administrator. It can be displayed accurately.
  • the management server 4 changes the configuration. A method of automatically detecting the storage device 3 and detecting the storage device 3 and the host computer 2 using the storage device 3 and acquiring the configuration information will be described.
  • FIG. 25 and FIG. 26 show a flowchart of additional component detection processing executed by the control program 51 of the management server 4 in this embodiment.
  • the processing from step S P 7 1 to step S P 78 is the same as that in the first embodiment, and will be omitted.
  • the information acquisition program 52 compares the volume management table 27 newly acquired from the storage device 3 with the volume management table 27 before update, and the newly detected volume management table 27. Switch the new addition flag for volume 3 2 to “Yes” (step SP79).
  • control program 51 checks the volume management table 27 to check whether or not there is a volume 32 whose new addition flag is “YesJ” (step SP 80).
  • control program 51 determines whether or not there is a volume 32 whose new addition flag is “Yes” (step SP81). Applicable If the volume 3 2 does not exist (step SP 81: NO), the control program 51 finishes the process.
  • control program 5 1 refers to the i SCSI target management table 30 and the i SCSI that can be connected from the corresponding volume 3 2. Detect the initiator name.
  • control program 51 refers to the logical volume management table 17 and detects the host computer 2 having the iSCSI initiator name (step SP 8 2).
  • control program 51 instructs the information acquisition program 52 to re-acquire configuration information to the host computer 2 that can be connected from the relevant volume 32 (step SP83).
  • the information acquisition program 52 acquires the configuration information, overwrites the acquired configuration information on the acquired information repository 43, and updates the device connection management table 48 (step SP84).
  • control program 51 determines whether or not the host computer 2 (connection destination host) that is the connection destination of the corresponding volume 3 2 has been found as a result of the reacquisition (step SP 85). .
  • the control program 51 ends the process.
  • step SP 85: NO If the host computer 2 that is the connection destination is not found (step SP 85: NO), the control program 51 instructs the device detection program 53 to execute automatic detection processing (step SP 8). 6).
  • the control program 5 1 determines whether or not a new host computer 2 has been detected by performing automatic detection processing of the host computer 2 by the device detection program 5 3. (Step SP 87) If the new host computer 2 is not detected by the device detection program 53 (step SP87: NO), the control program 51 ends the process. If a new host computer 2 is detected by the device detection program 53 (step SP87: YES), the control program 51 stores the configuration information in the information acquisition program 52 for the detected host computer 2. The acquisition of information is instructed (step SP88). The information acquisition program 52 acquires configuration information from the host computer 2, overwrites the acquired configuration information with the acquired information repository 43, and updates the device connection management table 48 (step SP). 8 9).
  • the additional component detection process is performed, for example, monitoring. If the performance value of a component exceeds the threshold value in the target storage device 3 and the system administrator refers to the threshold value warning screen 8 1 shown in Figure 17, the storage management server shown in Figure 5
  • the configuration of the host computer 2 using the components in the storage device 3 in which the performance problem has occurred even immediately after the configuration change of the storage device 3 is performed via Information can be displayed accurately.
  • the management server 4 when the system administrator changes the configuration of the storage device 3 via the storage management server 5 that exists separately from the management server 4, the management server 4 The configuration change is automatically detected, and the address of the host computer 2 connected to the storage device 3 is acquired using the iSNS server 6, and the storage device 3 and the storage device are acquired. A method for acquiring configuration information from the host computer 2 using 3 is explained.
  • FIG. 27 and FIG. 28 show a flowchart of the additional component detection process executed by the control program 51 of the management server 4 in this embodiment. Ste Since the processing up to step SP 1 0 1 is the same as that in the first embodiment, the description thereof is omitted.
  • the control program 51 refers to the iSCSI target management table 30 and detects the iSCSI initiator name that can be connected from the corresponding volume 32 (step S P 100 2).
  • the control program 5 1 makes an inquiry to the iSNS server 6 and obtains an IP address corresponding to the iSCSI initiator name (step S P 1 0 3).
  • the control program 51 instructs the information acquisition program 52 to acquire configuration information for the acquired IP address (step S P 10 04).
  • the information acquisition program 52 acquires configuration information from the host computer 2 on the IP address, overwrites the acquired configuration information on the acquisition information repository 43, and updates the device connection management table 48. Implement (Step SP 1 0 5).
  • the additional component detection process is performed, for example, monitoring. If the performance value of a component exceeds the threshold value in the target storage device 3 and the system administrator refers to the threshold value warning screen 8 1 shown in Figure 17, the storage management server shown in Figure 5
  • the configuration of the host computer 2 using the components in the storage device 3 in which the performance problem has occurred even immediately after the configuration change of the storage device 3 is performed via Information can be displayed accurately.
  • the load on the management server 4 and the network 7 is reduced by limiting the number of host computers 2 that the management server 4 accesses when the additional component detection process is performed. can do.
  • the configuration information and performance information of the storage device 3 and the host computer 2 are stored in the management server.
  • the configuration information is acquired again from the storage device 3.
  • the configuration information of the storage device 3 can be updated to the latest.
  • the configuration information of the storage device 3 can be accurately displayed to the administrator via the management server 4, and the administrator can manage the storage device. It is possible to take corrective measures for the abnormality of device 3.
  • the present invention can be widely applied to management servers that manage storage systems used in computer systems.

Abstract

本発明は、運用効率を格段に向上させ得る計算機システムを提案する。 本発明は、複数の部品により構成され、ホストコンピュータによって使用される記憶領域であるボリュームを有するストレージ装置と、ス トレージ装置およびホストコンピュータにネットワークを介して接続され、ストレージ装置およびホストコンピュータの構成情報及び性能 情報を管理する管理サーバとを備え、管理サーバは、ストレージ装置およびホストコンピュータの構成情報及び性能情報をそれぞれ異なる タイミングで取得する取得部と、外部からストレージ装置への構成変更が指示された際、構成変更が実施されたストレージ装置内の部品の 性能値と、部品と接続関係にある部品の性能値とを比較する比較部とを備え、取得部は、比較部により比較された性能値に一定以上の差異 が存在するときに、ストレージ装置内に未知の部品が追加されたものと判断して、ストレージ装置から構成情報を再度取得する。

Description

明 細 書 計算機システム並びに管理サーバ及び構成情報取得方法 技術分野
本発明は、 計算機システムに用いられるス ト レージシステムを管理す る管理サーバに適用して好適なものである。
背景技術
複数台のホス トコンピュータおよびス ト レージ装置から構成されるコ ンピュータシステムにおいて、 しばしば、 ス ト レージ装置がシステム全 体のボ トルネック となることがある。 このため、 ス ト レージ装置ができ るだけ高い性能を出せるよ う、 システムの構築フェーズや、 運用フエ一 ズで、 各種性能指標値を取得し、 所定の性能値が得られているかなどを 分析することは重要である。
単一のス ト レージ装置を複数のサーバで共有して利用するよ うな構成 では、 ス ト レージ装置内の特定のリ ソースに対して複数サーバからの I / O処理が重複し、 その結果深刻な性能劣化を引き起こす場合がある。
ス ト レージ装置が提供しているツールによ り 、 ス ト レージ装置内の特 定のリ ソースが処理している I O量を閲覧し分析することができる。 しかしながら、 この方法では、 ス ト レージ装置に.接続するホス トコンピ ユータの構成によって引き起こされる I Z O競合性能問題の原因の特定、 すなわち、 具体的にはス ト レージ装置内の特定のリ ソースに I / O負荷 をかけているホス トコンピュータ群ゃ性能のボ トルネック となっている 部品を特定することは困難であった。
そこで、 特定のス ト レージ装置内のリ ソースを利用しているホス トコ ンピュータ群を、 ス ト レージ装置とホス トコンピュータ間のマッピング 情報から検索して検出し、 そのホス ト コンピュータ群の性能データのみ に絞り込んだ ΐ Ζ ο競合のレポー トを作成してシステム管理者に提示す ることで、 ス ト レージ装置内のリ ソース上で I ノ οの競合を引き起こ し ているホス トコンピュータ群ゃ性能のボ トルネック となっている部品の 特定を容易にする技術と して、特許文献 1 に開示されている技術がある。
先行技術文献
特許文献
特許文献 1 特開 2 0 0 5— 0 6 2 9 4 1 号公報
発明の概要
発明が解決しよ う とする課題
管理サーバのシステム性能管理ソフ トウェアは、 プロセッサに実行さ れることによ り、 複数のホス ト コンピュータ.、 ス ト レージ装置の構成お よび性能を監視する。 具体的には、 ス ト レージ装置内部のポー ト、 コン トローラ、 キャ ッシュ、 ボリ ューム、 R A I Dグループといった部品の 性能および内部構成や、 ホス トコンピュータ上の論理ボリ ユームの性能 および接続先ス ト レージポー トといった情報を定期的に取得し、 内部の データベースに保持する。 システム性能管理ソフ トウエアがス ト レージ装置およびホス ト コンピ ユータから取得する情報と して、 構成情報と性能情報が存在する。 構成 情報は、 ス ト レージ装置およびホス トコンピュータの内部部品の相互接 続関係、 ス ト レージ装置およびホス トコンピュータ内部部品に対する各 種設定情報である。 性能情報は、 ホス トコンピュータおよびス ト レージ 装置の内部部品の一覧と、 その性能値である。
システム性能管理ソフ トウエアは、 ス ト レージ装置内部のプロセッサ 負荷を軽減するため、 比較的変更頻度の少ない構成情報の取得を、 性能 情報の取得に比べて低い頻度で実施する。 なぜなら、 構成情報の取得が 過剰に行われると、 ス ト レージ装置内部のプロセッサ負荷が増大し、 ス ト レージ装置における業務データの I O性能に影響を及ぼしう るから である。
しかし、 ス ト レージ装置に新しいボリ ュームが、 計算機システムに前 記ボリ ユームに接続するホス トコンピュータがそれぞれ追加され、 運用 を開始した直後にス ト レージ性能障害が発生した場合、 追加のタイ ミン グによっては管理サーバの持つ構成情報が更新されないまま性能情報の みが更新されること となる。
その場合、 接続するホス トコンピュータの増加によ りス ト レージ装置 へのアクセスが急増し、 ス ト レージ内の部品が閾値を超えても、 管理サ ーバの持つ構成情報が構成変更前の情報であるため、 閾値超過したス ト レ一ジ装置の内部部品がどのホス トコンピュータから利用されているか を表示しても、新規追加ホス トが接続先と して表示されない。その結果、 管理者は閾値超過に対し正しい対策をとることができない。
その対策と しては、 性能情報の取得と同時に構成情報の取得を実施す る方法が考えられる。 しかし、 その場合、構成情報の取得頻度が上がり、 ス トレージ装置に過重な負荷がかかるという問題が発生する。 以上に述 ベた事象を防ぐことが、 本特許の課題である。
本発明は以上の点を考慮してなされたもので、 運用効率を格段に向上 させ得る計算機システム並びに管理サーバ及び構成情報取得方法を提案 するものである。 課題を解決するための手段
かかる課題を解決するために本発明においては、 複数の部品によ り構 成され、 ホス トコンピュータによって使用される記憶領域であるボリ ュ ームを有するス ト レージ装置と、 前記ス ト レージ装置および前記ホス ト コンピュータにネッ トワークを介して接続され、 前記ス トレージ装置お よび前記ホス トコンピュータの構成情報及び性能情報を管理する管理サ 一バとを備え、 前記管理サーバは、 前記ス トレージ装置および前記ホス トコンピュータの構成情報及び性能情報をそれぞれ異なるタイ ミングで 取得する取得部と、 外部から前記ス ト レージ装置への構成変更が指示さ れた際、 前記構成変更が実施されたス ト レージ装置内
の部品の性能値と、 前記部品と接続関係にある部品の性能値とを比較す る比較部とを備え、 前記取得部は、 前記比較部により比較された性能値 に一定以上の差異が存在するときに、 前記ス ト レージ装置内に未知の部 品が追加されたものと判断して、 前記ス ト レージ装置から構成情報を再 度取得する。
すなわち、 本実施例の計算機システムでは、 システム管理者が管理サ ーバとは別に存在するス ト レージ管理サーバを介して該ス ト レージ装置 の構成変更を実施したとき、 管理サーバが構成変更を自動的に検知し、 当該ス ト レージ装置からの構成情報の取得を実施する。 また、 別の実施 例の計算機システムでは、 システム管理者が管理サーバとは別に存在す るス トレージ管理サーバを介して該ス トレージ装置の構成変更を実施し たとき、 管理サーバが構成変更を自動的に検知し、 当該ス ト レージ装置 および当該ス ト レージ装置を利用しているホス トコンピュータの検出お よび構成情報の取得を実施する。 また、 別の実施例の
計算機システムでは、 システム管理者が管理サーバとは別に存在するス トレージ管理サーバを介して該ス トレージ装置の構成変更を実施したと き、 管理サーバが構成変更を自動的に検知し、 識別子管理サーバを利用 して当該ス トレージ装置に接続するホス トコンピュータのァ ドレスを取 得すると ともに、 当該ス ト レージ装置および当該ス ト レージ装置を利用 しているホス ト コンピュータからの構成情報の取得を実施する。 また、 本発明においては、 ス ト レージ装置およびホス ト コンピュータ にネッ トワークを介して接続され、 前記ス ト レージ装置および前記ホス トコンピュータの構成情報及び性能情報を管理する管理サーバであって、 前記ス ト レージ装置および前記ホス トコンピュータの構成情報及び性能 情報をそれぞれ異なるタイ ミ ングで取得する取得部と、 外部から前記ス トレージ装置への構成変更が指示された際、 前記構成変更が実施された ス ト レージ装置内の部品の性能値と、 前記部品と接続関係にある部品の 性能値とを比較する比較部とを備え、 前記取得部は、 前記比較部によ り 比較された性能値に一定以上の差異が存在するときに、 前記ス ト レージ 装置内に未知の部品が追加されたものと判断して、 前記ス ト レージ装置 から構成情報を再度取得する。
さらに、 本発明においては、 ス ト レージ装置およびホス ト コンビユー タにネッ トワークを介して接続され、 前記ス ト レージ装置および前記ホ ス ト コンピュータの構成情報及び性能情報を管理する管理サーバであつ て、 取得部が、 前記ス ト レージ装置および前記ホス トコンピュータの構 成情報及び性能情報をそれぞれ異なるタイ ミ ングで取得する第 1 のステ ップと、 比較部が、 外部から前記ス ト レージ装置への構成変更が指示さ れた際、前記構成変更が実施されたス ト レージ装置内の部品の性能値と、 前記部品と接続関係にある部品の性能値とを比較する第 2のステップと、 前記取得部が、 前記第 2のステップにおいて比較
した性能値に一定以上の差異が存在するときに、 前記ス ト レージ装置内 に未知の部品が追加されたものと判断して、 前記ス ト レ一ジ装置から構 成情報を再度取得する第 3のステップとを備える。
従って、 構成情報の取得をス ト レージ装置における構成変更を検知し たタイ ミングに限定するため、 構成情報の取得頻度が上がり、 ス ト レー ジ装置に過重な負荷がかかるという事態を未然かつ有効に防止しつつ、 性能値に一定以上の差異が存在するときは必ず当該ス ト レージ装置の構 成情報を最新のものに更新することができる。 これにより、 構成変更を 実施した直後であっても、 当該ス ト レージ装置の構成情報を管理サーバ を介して管理者に対し正確に表示することができ、 管理者がス ト レージ 装置の異常に対して正しい対策をとることができる。 発明の効果
本発明によれば、 運用効率を格段に向上させ得る計算機システム並び に管理サーバ及び構成情報取得方法を実現することができる。 図面の簡単な説明
図 1は、 本発明における計算機システムの概略の構成例を示す図であ る。
図 2は、 本発明におけるホス トコンピュータの詳細な構成例を示す図 である。
図 3は、 本発明におけるス トレージ装置の詳細な構成例を示す図であ る。
図 4は、 本発明における管理サーバの詳細な構成例を示す図である。 図 5は、 本発明におけるス トレージ管理サーバの詳細な構成例を示す 図である。
図 6は、 本発明における i S N Sサーバの詳細な構成例を示す図であ る。
図 7は、 本発明においてホス トコンピュータが具備する論理ボリュー ム管理表の構成例を示す図である。
図 8は、 本発明においてス ト レージ装置が具備するボリ ユーム管理表 の構成例を示す図である。
図 9は、 本発明においてス トレージ装置が具備する R A I Dグループ 管理表の構成例を示す図である。 図 1 0は、 本発明においてス トレージ装置が具備するポー ト管理表の 構成例を示す図である。
図 1 1は、 本発明においてス ト レージ装置が具備する i S C S I ター ゲッ ト管理表の構成例を示す図である。
図 1 2は、 本発明において管理サーバが具備する装置性能管理表の構 成例を示す図である。
図 1 3は、 本発明において管理サーバが具備するデバイス接続管理表 の構成例を示す図である。
図 1 4は、 本発明において管理サーバが具備する装置検出対象管理表 の構成例を示す図である。
図 1 5は、 本発明において管理サーバが具備する監視対象装置管理表 の構成例を示す図である。
図 1 6は、 本発明において i S N Sサーバが具備する i S C S Iネー ム管理表の構成例を示す図 。、ある。
図 1 7は、 本発明においてにおいて管理サーバが表示する画面の一例 でめ ·ο。
図 1 8は、 実施例 1において管理サーバが実施する装置情報更新処 理の全体フロー例を示すフローチャートである。
図 1 9は、 実施例 1において管理サーバが実施する構成情報更新処理 の全体フロー例を示すフ口一チヤ一卜である。
図 2 0は、 実施例 1において管理サーバが実施する性能情報更新処理 の全体フロー例
を示すフローチャートであ Ο
図 2 1は、 実施例 1において管理サーバが実施する装置検出処理の全 体フロー例を示すフローチヤートである
図 2 2は、 実施例 1において管理サーバが実施する構成情報取得処理 の全体フロー例を示すフ口一チヤ一卜でめる。 図 2 3は、 実施例 1 において管理サーバが実施する性能情報取得処理 の全体フロー例を示すフローチヤ一 トである。
図 2 4は、 実施例 1 において管理サーバが実施する追加部品検出処理 の全体フロー例を示すフローチヤ一トである。
図 2 5は、 実施例 2において管理サーバが実施する追加部品検出処理 の全体フロー例を示すフローチヤ一トである。
図 2 6は、 実施例 2において管理サーバが実施する追加部品検出処理 の全体フロー例を示すフローチヤ一トである。
図 2 7は、 実施例 3において管理サーバが実施する追加部品検出処理 の全体フロー例を示すフローチャー トである。
図 2 8は、 実施例 3において管理サーバが実施する追加部品検出処理 の全体フロー例を示すフローチヤ一トである。
符号の説明
1……計算機システム, 2……ホス ト ンピュータ, 3……ス ト レージ 装置, 4……管理サーバ, 5……ス ト レージ管理サーバ, 6…… i S N S サーバ, 4 2……プロセッサ, 4 7……装置性能管理表, 4 8……デバイ ス接続管理表, 4 9……装置検出対象管理表, 5 0……監視対象装置管理 表, 5 1 ……制御プログラム, 5 2 1青報取得プログラム, 5 3……装 置検出プログラム, 5 4…… G U I 表示処理プログラム 発明を実施するための形態
以下、 本発明の一実施の形態を、 図面を参照して詳細に説明する。 な お、 これによ り本発明が限定されるものではない。
( 1 ) 実施例 1 について
実施例 1では、 システム管理者が管理サーバとは別に存在するス ト レ ージ管理サーバを介して該ス ト レージ装置の構成変更を実施したとき、 管理サーバが構成変更を自動的に検知し、 該ス ト レージ装置からの構成 情報の取得を実施する方法について説明する。
図 1から図 6は、 計算機システム 1 の構成および計算機システム 1 に 接続される装置の構成を示している。 また、 図 7から図 1 6は、 各装置 に具備される管理情報を示している。
図 1は、計算機システム 1 の構成を示している。計算機システム 1 は、 ホス ト コンピュータ 2 と、 ス ト レージ装置 3 と、 管理サーバ 4 と、 ス ト レージ管理サーバ 5 と、 i S N S ( Internet Storage Name Serv i ce) サ ーバ 6が、 ネッ トワーク 7によって接続されている。 なお、 以下におい ては、 各プログラムを実行する各装置のプロセッサの処理内容を明確化 するため、 各種処理の処理主体をプログラムと して説明するが、 実際上 は、 そのプロダラムに基づいて対応するプロセッサがその処理を実行す ることは言うまでもない。
図 2は、 ホス トコンピュータ 2の詳細な構成を示している。 ホス トコ ンピュータ 2は、 ネッ トワーク 7を介してス ト レージ装置 3および i S N Sサーバ 6に接続するための 1 〇ポー ト 1 1 と、 ネッ トワーク 7を 介して管理サーバ 4に接続するための管理ポー ト 1 2 と、 プロセッサ 1 3 と、 メモリ 1 4 とを有し、 これらが内部バス等の回路を介して相互に 接続される。 メモ リ 1 4には、 業務アプリ ケーシヨ ン 1 5 と、 オペレー ティングシステム 1 6 と、 論理ボリ ユ ーム管理表 1 7が格納される。 業務アプリ ケーショ ン 1 5は、 オペレーティ ングシステムから提供さ れた記憶領域を使用し、 記憶領域に対しデータ入出力 (以下、 I Z Oと 表記) を行う。 オペレーティ ングシステム 1 6は、 ス ト レージネッ トヮ ークを介してホス トコンピュータに接続されたス ト レージ装置上の論理 ボリ ユ ームを記憶領域と してアプリ ケーショ ンに認識させる。
図 3は、 ス ト レージ装置 3 の詳細な構成例を示している。 ス ト レージ 装置 3は、 ネッ トワーク 7を介してホス トコンピュータ 2および i S N Sサーバ 6に接続するための I /Oポー ト 2 1 と、 ネッ トワーク 7を介 して管理サーバ 4およびス ト レージ管理サーバ 5に接続するための管理 ポー ト 2 2 と、 各種管理情報を格納するための管理メモ リ 2 3 と、 デー タを格納するための R A I D (Redundant Arrays of Inexpensive Disks) グループ 2 4 と、 データや管理メモ リ 内の管理情報を制御するためのコ ン ト ローラ 2 5を有し、 これらが内部バス等の回路を介して相互に接続 される。
管理メモ リ 2 3には、 ス ト レージ装置 3の管理プログラム 2 6 と、 ボ リ ューム管理表 2 7 と、 R A I Dグループ管理表 2 8 と、 ポー ト管理表 2 9 と、 i Sし S I ( Internet Small し omputer .system Interlace) タ ーゲッ ト管理表 3 0が格納される。
RA I Dグループ 2 4は、 1つまたは複数の磁気デイ スク 3 1 によつ て構成されている。 複数の磁気ディスク 3 1 によって構成されている場 合、 それらの磁気ディスクは、 R A I D構成を組んでいてもよい。 また、 RA I Dグループ 2 4は、 論理的に複数のボリ ューム 3 2に分割されて いる。
コン トローラ 2 5は、 ス ト レージ装置 3内の制御を行うプロセッサ 3 3や、 ホス ト コンピュータ 2 との間でやり と りするデータを一時的に記 憶するキャ ッシュメモリ 3 4を内部に持つ。 コン ト ローラ 2 5は、 I Z Oポー ト 2 1 と磁気ディスク 3 1 (RA I Dグループ 2 4 ) との間に介 在し、 両者の間でデータの受け渡しを行う。
図 4は、 管理サーバ 4の詳細な構成を示している。 管理サーバ 4は、 ネッ トワーク 7を介してホス トコンピュータ 2、 ス ト レージ装置 3およ び i S N Sサーバ 6に接続するための管理ポー ト 4 1 と、 プロセッサ 4 2 と、 取得情報リ ポジト リ 4 3 と、 メモ リ 4 4 と、 後述する処理結果を 出力するためのディ スプレイ装置等の出力部 4 5 と、 ス ト レージ管理者 が指示を入力するためのキーボー ド等の入力部 4 6 とを有し、 これらが 内部バス等の回路を介して相互に接続される。
取得情報リ ポジト リ 4 3には、 装置性能管理表 4 7 と、 デバイス接続 管理表 4 8 と、 装置検出対象管理表 4 9 と、 監視対象装置管理表 5 0が 格納される。
取得情報リ ポジ ト リ 4 3には、 ス ト レージ装置 3上のボリ ューム管理 表 2 7など、 監視対象の各装置から取得した構成情報が格納される。 装置性能管理表 4 7には、 監視対象装置を構成するデバイスの性能情 報や、 デバイスに付与した閾値が格納される。
メモリ 4 4には、制御プログラム 5 1 と、情報取得プログラム 5 2 と、 装置検出プログラム 5 3 と、 G U I ( Graph i cal User Int erface) 表示 処理プログラム 5 4が格納される。
制御プログラム 5 1 は、 情報取得プログラム 5 2に対し、 計算機シス テム 1 内のホス トコンピュータ 2およびス トレージ装置 3から、 構成情 報および性能情報を定期的に取得するよ う指示する。 また、 制御プログ ラム 5 1 は、 装置検出プログラム 5 3に対し、 計算機システム 1 に追加 されたホス トコンピュータ 2およびス ト レージ装置 3 を検出するよ ぅ定 期的に指示する。
情報取得プロ グラム 5 2 は、 ホス ト コンピュータ 2およびス ト レージ 装置 3から構成情報および性能情報を取得して、 装置性能管理表 4 7 と デバイス接続管理表 4 8に格納する。
装置検出プログラム 5 3は、 ネッ トワーク 7に接続しているホス トコ ンピュータ 2およびス ト レージ装置 3を検出 (検索) し、 ネッ トワーク 7に新たに接続されたホス トコンピュータ 2およぴス ト レージ装置 3が 検出されれば、 情報取得プログラム 5 2に対し該当するホス トコンビュ ータ 2およびス ト レージ装置 3からの構成情報および性能情報取得を指 示する。 G U I表示処理プログラム 5 4は、 入力部 4 6 を介した管理者からの 要求に応じ、 取得した構成情報および性能情報を、 出力部 4 5を介して 表示する。
図 5は、 ス ト レージ管理サーバ 5の詳細な構成を示している。 ス ト レ ージ管理サーバ 5は、 ネッ トワーク 7を介してス ト レージ装置 3に接続 するための管理ポー ト 6 1 と、 プロセッサ 6 2 と、 メモリ 6 3 と、 後述 する処理結果を出力するためのディスプレイ装置等の出力部 6 4 と、 ス トレージ管理者が指示を入力するためのキーボー ド等の入力部 6 5 とを 有し、 これらが内部バス等の回路を介して相互に接続される。
メモリ 6 3には、 装置管理プログラム 6 6 と、 装置構成管理表 6 7が 格納される。 装置管理プログラム 6 6は、 ス ト レージ装置 3から、 構成 情報を管理者からの要求に応じて取得し、 出力部 4 5を介してユーザに 表示する。 また、 装置管理プログラム 6 6は、 取得した構成情報を装置 構成管理表 6 7に格納する。
図 6は、 i S N Sサーバ 6の詳細な構成を示す。 i S N Sサ一ノく 6は、 ネッ トワーク 7を介してホス トコンピュータ 2、 ス ト レージ装置 3およ び i S N Sサーバ 6に接続するための管理ポー ト 7 1 と、 プロセッサ 7 2 と、 メモリ 7 3 と、 後述する処理結果を出力するためのディスプレイ 装置等の出力部 7 4 と、 ス ト レージ管理者が指示を入力するためのキー ボー ド等の入力部 7 5 とを有し、 これらが内部バス等の回路を介して相 互に接続される。
メモリ 7 3には、 i S N Sプログラム 7 6 と、 i S C S I ネーム管理 表 7 7が格納される。
i S N Sプログラム 7 6は、 ネッ トワーク 7上の I P— S AN機器の 情報を i S C S I ネーム管理表 7 7へ格納し、 I P— S AN機器からの 要求に従って i S C S I ネーム管理表 7 7に格納された i S C S I ネー ムに対応する I Pァ ドレスを返答する。 図 7は、 ホス トコンピュータ 2の具備する論理ボリ ユ ーム管理表 1 7 の構成を示している。 論理ボリ ユ ーム管理表 1 7は、 ホス トコンビユ ー タ 2で各論理ボリ ユ ームの識別子となる論理ボリ ユ ーム I Dを登録する フィール ド 1 7 Aと、 論理ボリ ユームの実体が存在するス ト レージ装置 3 との通信の際に用いるホス トコンピュータ 2上の I /Oポー ト 1 1の 識別子となる i S C S I イニシエータ名を登録するフィール ド 1 7 B と、 論理ボリ ユームの実体が存在するス ト レージ装置 3 との通信の際に用い るス ト レージ装置 3上の I ZOポー ト 2 1 の識別子となる接続先 i S C S I ターゲッ トを登録するフィール ド 1 7 Cと、 ス ト レージ装置 3にお いて論理ボリ ュームの識別子となる L U N I Dを登録するフィールド 1 7 Dから構成されている。
図 7には、 ホス トコンピュータ 2の具備する論理ボリ ユ ーム管理表 1 7の具体的な値の一例が示されている。 つまり、 ホス ト コンピュータ 2 上の論理ボリ ュームである 「E:J は、 「com. hitachi. svl」 とレヽぅ i S C S I イニシエータ名で示されるホス トコンピュータ 2上の I /Oポー ト 1 1 と、 「com. hitachi. stol」 とレヽぅ i S C S I ターゲッ ト名で示され るス ト レージ装置 3上の I ZOポー ト 2 1 を介してス ト レージ装置 3 と 接続しており 「0」 とレヽぅ論理ボリ ュームの L UN I Dをス ト レージ装置 3上で持つ。
図 8は、 ス ト レージ装置 3の具備するボリ ューム管理表 2 7の構成を 示している。 ボリ ューム管理表 2 7は、 ス ト レージ装置 3内で各ボリ ュ ーム 3 2の識別子となるボリ ューム I Dを登録するフィールド 2 7 Aと、 各ボリ ューム 3 2の容量を登録するフィール ド 2 7 B と、 各ボリ ューム 3 2が存在する R A I Dグループ 2 4の識別子となる R A I Dグループ I Dを登録するフィール ド 2 7 Cと、 I ZOポー ト 2 1が配下に持つ i S C S I ターゲッ 卜の識別子となるターゲッ ト I Dを登録するフィール ド 2 7 Dと、 ス ト レージ装置 3においてホス トコンピュータ 2の論理ボ リ ユ ームの識別子となる L UN I Dを登録するフィ
ールド 2 7 E と、 制御プログラム 5 1が実施する追加部品検出処理が使 用する新規追加フラグ 2 7 Fから構成されている。
図 8には、 ス ト レージ装置 3の具備するボリ ューム管理表 2 7の具体 的な値の一例が示されている。 つま り、 ス ト レージ装置 3上のボリ ユー ム 3 2である 「V0L1J は、 「RG1」 とレヽぅ R A I Dグループ I Dで示され る R A I Dグループ 2 4上の 「20GBJ の記憶領域からなり、 「TG1」 とい うターゲッ ト I Dで示される i S C S I ターゲッ トを配下に持ち、 「0」 という論理ボリ ュームの L UN I Dを持つ。
図 9は、 ス ト レージ装置 3の具備する R A I Dグループ管理表 2 8の 構成を示している。 R A I Dグループ管理表 2 8は、 ス ト レージ装置 3 内で各 R A I Dグループ 2 4の識別子となる R A I Dグループ I Dを登 録するフィール ド 2 8 Aと、 R A I Dグループ 2 4の R A I Dレベルを 登録するフィール ド 2 8 B と、 R A I Dグループ 2 4を構成する磁気デ イスク 3 1の識別子となる構成ディスク I Dを登録するフィールド 2 8 Cと、 各 RA I Dグループ 2 4の容量を登録するフィール ド 2 8 Dから 構成されている。
図 9には、 ス ト レージ装置 3の具備する RA I Dグループ管理表 2 8 の具体的な値の一例が示されている。 つま り、 ス ト レージ装置 3上の R A I Dグループ 2 4である 「RG1」 は、 「DISK1, DISK2J とレ、う構成ディ スク I Dで示される磁気デイスク 3 1からなり、 R A I Dレベルが rRAIDl J で容量が 「100GBJ である。
図 1 0は、 ス ト レージ装置 3の具備するポー ト管理表 2 9の構成を示 している。 ポー ト管理表 2 9は、 ス ト レージ装置 3内で各 I /Oポー ト 2 1の識別子となるポー ト I Dを登録するフィール ド 2 9 Aと、 I /O ポー ト 2 1が配下に持つ i S C S I ターゲッ トの識別子となるターゲッ ト I Dを登録するフィール ド 2 9 Bから構成されている。
図 1 0には、 ス ト レージ装置 3の具備するポー ト管理表 2 9の具体的 な値の一例が示されている。 つま り、 ス ト レージ装置 3上の I 0ポー ト 2 1 である 「P0RT1」 は、 ターゲッ ト I D力 S 「TG1」 および 「TG2」 で示 される i S C S I ターゲッ トを配下に持つ。
図 1 1 は、 ス ト レージ装置 3の具備する i S C S I ターゲッ ト管理表 3 0の構成を示す。 i S C S I ターゲッ ト管理表 3 0は、 ス ト レージ装 置 3内で i S C S I ターゲッ 卜の識別子となるターゲッ ト I Dを登録す るフィール ド 3 0 Aと、 各 i S C S I ターゲッ トが持つ i S C S I ター ゲッ ト名を登録するフィール ド 3 0 B と、 各 i S C S I ターゲッ トに属 するボリ ユ ーム 3 2に対しアクセスが許可されたホス トコンピュータ 2 上の I ZOポー ト 1 1 の識別子となる i S C S I イニシエータ名を登録 するフィール ド 3 0 Cから構成されている。
図 1 1 には、 ス ト レージ装置 3の具備する i S C S I タ一ゲッ ト管理 表 3 0の具体的な値の一例が示されている。 つま り、 ス ト レージ装置 3 上の i S C S I ターゲッ トである 「TG1」 は、 「com. hitachi. stolj とレ、 う i S C S I ターゲッ ト名を持ち、 i S C S I イニシエータ名が 「com. hitachi. svl」 も しく は 「cora. hitachi. svllj であるホス 卜コンビ ユ ータ 2上の I /Oポー ト 1 1 からのアクセスを許可している。
図 1 2は、 管理サーバ 4の具備する装置性能管理表 4 7の構成を示し ている。 装置性能管理表 4 7は、 管理対象となるデバイ ス (管理対象デ バイス) が属するス ト レージ装置 3の識別子となる装置 I Dを登録する フィールド 4 7 Aと、 管理対象デバイスの識別子であるデバイス I Dを 登録するフィール ド 4 7 B と、 管理対象デバィスの性能情報のメ ト リ ツ ク名称を格納するフィール ド 4 7 Cと、 管理対象デバィスの性能値 ( I O P S (Input Output Per Second) ) をス ト レージ装置 3 よ り取得し格 納するフィール ド 4 7 Dと、 ァラー ト実行のための閾値を格納するフィ —ル ド 4 7 Eカゝら構成されている。
管理サーバ 4は、 例えば、 管理対象デバイスの単位時間当たりの I Z O量が所定の閾値を超えた場合、 ユーザに対しメール等の手段によって ァラー トを通知する。
図 1 2には、 管理サーバ 4が具備する装置性能管理表 4 7 の具体的な 値の一例が示されている。 つまり、 ス ト レージ装置 3である 「SYS 1」 内 の R A I Dグループ 2 4である 「RG2」 は、 単位時間 I O量が現時点で 「200」 である。 また、 「RG2」 の単位時間 1 0量が 「500」 を超えた場 合、 管理サーバ 4は、 ユーザに対しアラートを通知する。
なお、 こ こでは、 管理サーバ 4が管理する管理対象デバイスの性能値 と して単位時間当たりの I / Ο量や動作率を例と して挙げたが、 管理サ ーバ 4が管理する性能値はこれ以外でも良い。
図 1 3は、 管理サーバ 4の具備ずるデバイス接続管理表 4 8の構成を 示している。 デバイス接続管理表 4 8は、 ス ト レージ装置 3の識別子と なる装置 I Dを登録するフィールド 4 8 Αと、 前記ス トレージ装置 3が 具備するボリ ューム 3 2 の識別子となるボリ ユーム I Dを登録するフィ ールド 4 8 Bと、 前記ボリ ユーム 3 2がホス ト コンピュータ 2 との通信 の際用いる Iノ Oポート 1 1 の識別子を登録するフィール ド 4 8 Cと、 前記ボリ ユーム 3 2が属する R A I Dグループ 2 4の識別子を登録する フィールド 4 8 Dと、 前記ボリ ューム 3 2が接続するホス トコンピュー タ 2の識別子を登録するフィール ド 4 8 Eと、 前記ボ
リューム 3 2が実体となるホス トコンピュータ 2の ドライブの名称を登 録するフィール ド 4 8 Fから構成されている。
図 1 3には、 管理サーバ 4の具備するデバイス接続管理表 4 8 の具体 的な値の一例が示されている。 つまり、 ス ト レージ装置 3である 「SYS 1 J のボリ ューム 3 2である 「 V0L1」 は、 R A I Dグループ 2 4である 「 RG1」 に属し、 I / Oポー ト 1 1 である 「P0RT 1」 を介してホス トコンピュータ 2である 「H0ST1」 と接続し、 ホス トコンピュータ 2上で接続先ドライブ が 「E:」 と して認識されている。
図 1 4は、 管理サーバ 4 の具備する装置検出対象管理表 4 9の構成を 示している。 装置検出対象管理表 4 9は、 装置検出プロ グラム 5 3がァ クセス対象とする検出対象ァ ドレスを登録するフィール ド 4 9 Aと、 前 記検出対象ァ ドレス上に存在する機器に対しアクセスする際に用いるュ 一ザ名を登録するフィール ド 4 9 B と、 前記ユーザ名と と もに用いるパ スヮー ドを登録するフィールド 4 9 Cから構成されている。
図 1 4には、 管理サーバ 4 の具備する装置検出対象管理表 4 9 の具体 的な値の一例が示されている。 つま り、 管理サーバ 4が具備する装置検 出プログラム 5 3は、 I Pア ドレスが 「192. 168. 5. 1」 から
「192. 168. 5. 255」 までの範囲内にある機器にアクセス し、 新しい機器が 追加されていないか確かめる。 その際、 装置検出プロ グラム 5 3は、 ュ 一ザ名に 「user」 、 ノ スワー ドに 「pwd」 を用レ、る。
図 1 5は、 管理サーバ 4 の具備する監視対象装置管理表 5 0の構成を 示している。 監視対象装置管理表 5 0は、 装置検出プログラム 5 3が検 出したホス トコンピュータ 2またはス ト レージ装置 3のネッ トワークァ ドレスを登録するフィールド 5 0 Aと、 前記ネッ トワークァ ドレス上に 存在する機器がホス トコンピュータ 2またはス ト レージ装置 3 のいずれ であるかを登録するフィールド 5 0 Bと、 前記ネッ トワークァ ドレス上 に存在する機器に対しアクセスする際に用いるユーザ名を登録するフィ ールド 5 0 Cと、 前記ユーザ名と と もに用いるパスヮー ドを登録するフ ィールド 5 0 Dから構成されている。
図 1 5には、 管理サーバ 4 の具備する監視対象装置管理表 5 0 の具体 的な値の一例が示されている。 つま り、 管理サーバ 4が具備する情報取 得プログラム 5 2 は、 I Pア ドレスが 「 192. 168. 5. 5」 にあるホス ト コン ピュータ 2にアクセス し、 情報取得を行う。 その際、 情報取得プロダラ ム 5 2は、 ユーザ名に 「user」 、 パスワー ドに 「pwd」 を用いる。
図 1 6は、 i S N Sサーバ 6の具備する i S C S I ネーム管理表 7 7 の構成を示している。 i S C S I ネーム管理表 7 7は、 i S C S Iィニ シエータおよび i S C S I ターゲッ トの識別子である i S C S I ネーム を登録するフィール ド 7 7 Aと、 それに対応する I Pァ ドレスを登録す るフィール ド 7 7 B と、 i S C S I イニシエータおよび i S C S I ター ゲッ トのうちどちらであるかを登録するフィール ド 7 7 Cから構成され ている。
図 1 6には、 i S N Sサーバ 6の具備する i S C S I ネーム管理表 7 7の具体的な値の一例が示されている。 つま り、 I Pア ドレスが 「 192.168.5.2J で示される装置上の i S C S I イニシエータは、 「cora. hitachi. svlj とレヽ ぅ i S C S I ネームを持つ。
図 1 7は、 管理サーバ 4がシステム管理者に対し表示する、 性能問題 の発生しているス ト レージ装置 3内のリ ソースと、 そのリ ソースを利用 しているホス トコンピュータ 2の構成情報のみに絞り込んだレポ一卜の 表示例である閾値超過警告画面 8 1 を示している。
閾値超過警告画面 8 1 には、 性能問題の発生しているス ト レ一ジ装置 3内のリ ソースの詳細情報 (テーブル 8 1 A) と、 前記リ ソースを利用 しているホス トコンピュータ 2のみに絞り込んだ詳細情報 (テーブル 8 1 B) とが表示される。
図 1 8は、 本実施例における、 管理サーバ 4の制御プログラム 5 1が 実施する構成、 装置検出処理のフローチャー トを示している。 制御プロ グラム 5 1は、 プロ グラムの起動時、 も しく は前回の装置検出処理から —定時間経過するたびに(ステップ S P 1 )、 装置検出プログラム 5 3対 し、 装置検出処理を実行するよ う指示する(ステップ S P 2 )処理を繰り 返す。 図 1 9は、 本実施例における、 管理サーバ 4 の制御プログラム 5 1が 実施する構成、 構成情報取得処理のフローチャー トを示している。 制御 プログラム 5 1 は、 プログラムの起動時、 もしく は前回の構成情報取得 処理から一定時間経過するたびに(ステ ップ A P 1 1 )、 情報取得プログ ラム 5 2に対し、構成情報取得処理を実行するよ う指示する(ステップ S P 1 2 )処理を繰り返す。
図 2 0は、 本実施例における、 管理サーバ 4の制御プログラム 5 1が 実施する構成、 性能情報取得処理のフローチャー トを示している。 制御 プログラム 5 1 は、 プログラムの起動時、 も しく は前回の性能情報取得 処理から一定時間経過するたびに(ステップ S P 2 1 )、 以下の一連の処 理を繰り返す。制御プログラム 5 1 は、情報取得プログラム 5 2に対し、 性能情報取得処理を実行するよ う指示する(ステ ップ S P 2 2 )。 次に、 制御プログラム 5 1 は、 追加部品検出処理を実行する(ステップ S P 2 3 )。
図 2 1 は、 本実施例における、 管理サーバ 4 の装置検出プログラム 5 3が実施する装置検出処理のフローチャー トを示している。 装置検出プ ログラム 5 3は、 装置検出対象管理表 4 9に定義された検出対象ァ ドレ ス範囲内の I Pァ ドレスについて、以下の一連の処理を繰り返す(ステツ プ S P 3 1 )。
装置検出プログラム 5 3は、 装置検出対象管理表 4 9に定義された I Pア ドレス上の装置に対し、 同表に定義されたユーザ名とパスワー ドを 用いてログインし、 ス ト レージ装置構成情報を送信するよ う指示する(ス テツプ S P 3 2 )。 取得する構成情報は、 任意の情報でよい。
次に、 装置検出プログラム 5 3は、 装置検出対象管理表 4 9に定義さ れた I Pア ドレス上の装置からス ト レージ装置構成情報の応答があった か否かを判断する (ステップ S P 3 3 ) 。 当該装置からス ト レージ装置構成情報の応答があった場合(ステップ S P 3 3 : Y E S )、 装置検出プログラム 5 3は、 その装置がス ト レ一ジ 装置 3であるものと判断し、 応答のあった I Pァ ドレスを監視対象装置 管理表 5 0に格納し ( S P 3 4 ) 、 次の I Pア ドレスに対する処理へ移 る(ステップ S P 3 1〜 S P 3 7 )。その際、装置検出プログラム 5 3は、 装置種別と して 「ス ト レージ」 、 ユーザ名とパスワー ドと してス ト レー ジ装置 3への構成情報送信要求実施時に用いたものを登録する。
当該装置からス ト レージ装置構成情報の応答がなかった場合、 装置検 出プログラム 5 3は、 装置検出対象管理表 4 9に定義された I Pァ ドレ ス上の装置に対し、 同表に定義されたユーザ名とパス ワー ドを用いて口 グィンし、ホス トコンピュータ構成情報を送信するよ う指示する(ステツ プ S P 3 5 )。 取得する構成情報は、 任意の情報でよい。
次に、 装置検出プログラム 5 3は、 装置検出対象管理表 4 9に定義さ れた I Pア ドレス上の装置からホス トコンピュータ構成情報の応答があ つたか否かを判断する (ステップ S P 3 6 ) 。
当該装置からホス トコンピュータ構成情報の応答があった場合(ステ ップ S P 3 6 : Y E S ), 装置検出プログラム 5 3は、 その装置がホス ト コンピュータ 2であるものと判断し、 応答のあった I Pア ドレスを監視 対象装置管理表 5 0に格納し (ステップ S P 3 7 ) 、 次の I Pア ドレス に対する処理へ移る(ステップ3 ? 3 1〜 3 3 7 )。 その際、 装置検出 プログラム 5 3は、 装置種別と して 「ホス ト」 、 ユーザ名とパスワー ド と してホス トコンピュータ 2への構成情報送信要求実施時に用いたもの を登録する。
当該装置からホス トコンピュータ構成情報の応答がなかった場合(ス テツプ S P 3 6 : NO), 装置検出プログラム 5 3は、 次の I Pア ドレス に対する処理へ移る(ステップ3 ? 3 1〜 3 ? 3 7 )。 図 2 2は、 本実施例における、 管理サーバ 4の情報取得プログラム 5 2が実施する構成情報取得処理のフローチヤ一トを示す。 情報取得プロ グラム 5 2は、 装置検出対象管理表 4 9に定義された監視対象の各装置 に対し、 以下の一連の処理を繰り返す(ステップ S P 4 1 )。
情報取得プログラム 5 2は、 装置検出対象管理表 4 9に定義された I Pア ドレス上の装置に対し、 同表に定義されたユーザ名とパス ワー ドを 用いてログインし、 構成情報を送信するよ う指示する(ステップ S P 4 2 )。
その際、 情報取得プログラム 5 2は、 各 I Pァ ドレスの装置種別を確 認し、 装置種別がホス トコンピュータ 2であれば、 論理ボリ ューム管理 表 1 7の情報を構成情報と して取得する。 また、 情報取得プログラム 5 2は、装置種別がス ト レージ装置 3であれば、ボリ ユーム管理表 2 7 と、 RA I Dグループ管理表 2 8 と、 ポー ト管理表 2 9 と、 i S C S I ター ゲッ ト管理表 3 0の情報を構成情報と して取得する。
次に、 情報取得プログラム 5 2は、 装置検出対象管理表 4 9に定義さ れた I Pァ ドレス上の装置から構成情報の応答があつたか否かを判断す る (ステップ S P 4 3 ) 。
当該装置から構成情報の応答があった場合(ステップ S P 4 3 : Y E S)、 情報取得プログラム 5 2は、 取得した構成情報を取得情報リポジ ト リ 4 3に格納する(ステップ S P 4 4 )。
当該装置から構成情報の応答がなかった場合(ステップ S P 4 3 : N O)、 情報取得プログラム 5 2は、 次の監視対象の装置に対する処理へ移 る(ステップ S P 4 1〜S P 4 4 )。
装置検出対象管理表 4 9に定義された監視対象の全装置に対して上記 の処理が終了した後、 情報取得プログラム 5 2は、 取得情報リポジト リ 4 3に格納された構成情報を参照し、 デバイス接続管理表 4 8を更新す る(ステップ S P 4 5 )。 デバイス接続管理表 4 8を更新する手順を以下に述べる。 まず、 情報 取得プログラム 5 2は、 取得情報リ ポジト リ 4 3に格納されたボリ ュー ム管理表 2 7を参照し、 ボリ ューム 3 2 と接続関係にある R A I Dダル ープ 2 4を確認してデバイス接続管理表 4 8に登録する。 次に、 情報取 得プログラム 5 2は、 ポー ト管理表 2 9を参照し、 ボリ ューム 3 2 と i S C S I ターゲッ ト、 および I ZOポー ト 2 1 との関係を確認し、 ボリ ユーム 3 2 と接続関係にある I ΖΟポー ト 2 1 を確認してデバイス接続 管理表 4 8に登録する。 次に、 情報取得プログラム 5 2は、 i S C S I タ一ゲッ ト管理表 3 0 と論理ボリ ユーム管理表 1 7を
参照し、 ボリ ューム 3 2 と i S C S I ターゲッ ト、 およびホス ト コンビ ユータ 2側の ドライブと接続先 i S C S I ターゲッ ト との関係を確認す る。 そして、 情報取得プログラム 5 2は、 同じ i S C S I ターゲッ トを 持ち、 かつ L UN I Dが等しいボリ ユーム 3 2 と ドライブの対を検出し た場合、 相互に接続関係にあるものと してデバイス接続管理表 4 8に登 録する。
図 2 3は、 本実施例における、 管理サーバ 4の情報取得プログラム 5 2が実施する性能情報取得処理のフローチャー トを示す。
情報取得プログラム 5 2は、 監視対象装置管理表 4 8に定義された監 視対象の各装置に対し、 以下の一連の処理を繰り返す(ステップ S P 5 1 )o
情報取得プログラム 5 2は、 監視対象装置管理表 4 8に定義されたュ 一ザ名とパスヮー ドを用いて、 I Pァ ドレス上の装置に対し、 性能情報 を送信するよ う指示する(ステップ S P 5 2 )。
次に、 情報取得プログラム 5 2は、 装置検出対象管理表 4 9に定義さ ' れた I Pァ ドレス上の装置から性能情報の応答があつたか否かを判断す る (ステップ S P 5 3 ) 。 当該装置から性能情報の応答があった場合(ステップ S P 5 3 : Y E S)、 情報取得プログラム 5 2は、 取得した性能情報を装置性能管理表 4 7に格納する(ステップ 5 4 )。
当該装置から性能情報の応答がなかった場合(ステップ S P 5 3 : N 0)、 情報取得プログラム 5 2は、 次の監視対象の装置に対する処理へ移 る (ステップ S P 5 :!〜 S P 5 4 )。
図 2 4は、 本実施例における、 管理サーバ 4の制御プログラム 5 1が 実施する追加部品検出処理のフローチヤ一 トを示す。 制御プログラム 5 1 は、 ス ト レージ管理サーバ 5を介してス ト レージ装置 3の構成変更を 実施したときに、管理サーバ 4が管理する各ス ト レージ装置 3について、 以下の処理を繰り返す(ステップ P 6 1 )。 制御プログラム 5 1 は、 RA I Dグループ管理表 2 8に定義された、 前記ス ト レージ装置 3内の RA I Dグループ 2 4に対し、 以下の処理を繰り返す(ステップ S P 6 2 )。 制御プログラム 5 1 は、 装置性能管理表 4 7 を参照し、 各 R A I Dグ ループ 2 4の現在の I O P Sの値を取得する(ステップ S P 6 3 )。次に、 制御プログラム 5 1 は、 ボリ ューム管理表 2 7を参照し、 各 RA I Dグ ループ 2 4に属するボリ ユーム 3 2の一覧を検出する(ステップ S P 6 4 )。 次に、 制御プログラム 5 1 は、 装置性能管理表 4 7を参照し、 前記 検出したボリ ユーム 3 2の現在の I O P Sの値を合算する(ステップ 6 5 )。 その後、 制御プログラム 5 1 は、 前記合算した値を、 前記 R A I D グループ 2 4の I O P S値で除算し、 当該値が予め定められた閾値を超 過しているか否かを確認する(ステップ S P 6 6 )。
次に、 制御プログラム 5 1 は、 前記合算した値を前記 R A I Dグルー プ 2 4の I O P S値で除算した値が、 予め定められた閾値を超過してい るか否かを判断する (ステップ S P 6 7 ) 。
当該値が閾値を超過していない場合 (ステップ S P 6 7 : NO) 、 制 御プログラム 5 1 は、次の RA I Dグループ 2 4に対する処理に移る(ス テツプ S P 6 2〜 S P 6 7 )。 当該閾値を超過している場合(ステップ S P 6 7 : Y E S ), 制御プログラム 5 1 は、 ス ト レージ装置 3内に未知の 部品が存在しう ると判断し、 情報取得プログラム 5 2に対し、 該当する R A I Dグループ 2 4が存在するス ト レージ装置 3の構成情報の取得を 指示する(ステップ S P 6 8 )。 その際、 制御プログラム 5 1 は、 ス ト レ ージ装置 3 よ りボリ ユーム管理表 2 7 と、 RA I Dグループ管理表 2 8 と、 ポー ト管理表 2 9 と、 i S C S I ターゲッ ト管理表 3 0の情報を構 成情報と して取得する。
次に、 情報取得プログラム 5 2は、 取得した構成情報を取得情報リポ ジト リ 4 3に上書き して (ステップ S P 6 8 )、 処理を終了する。
以下に、 ステップ S P 6 1から S P 6 6に示す値の算出方法の具体例 を述べる。 図 8のボリ ューム管理表 2 7によると、 R A I Dグループ 2 4である 「RG1」 と接続しているボリ ューム 3 2は、
「V0L1, V0L2, V0L3, V0L4」 の 4つである。 図 1 2の装置性能管理表 4 7に よると、 「RG1J の I O P Sは 「600」 であり、 「V0L1, V0L2, V0L3, V0L4J の I O P Sの総和は 「130」 である。 よって、 ボリ ューム 3 2の I O P S の合算値を RA I Dグループ 2 4の I O P S値で除算すると、
「130/600^0.22」 である。 予め定められた閾値が 「0.8」 であった場合、 算出値は、 閾値を下回ること となる。
なお、 本実施例では、 各 R A I Dグループ 2 4 と接続関係にあるボリ ユーム 3 2の I O P Sを合算し、 RA I Dグループ 2 4の I O P S と比 較したが、 RA I Dグループ 2 4に代わって複数のボリ ューム 3 2 と接 続関係にある別の部品 ( I /Oポー ト 2 1 など) を合算 ' 比較の際に用 いてよレ、。 逆に、 本実施例では、 ボリ ューム 3 2に代わって RA I Dグ ループ 2 4 と多対一の関係にある部品 (磁気ディスク 3 1 など) を合算 ' 比較の際に用いてよい。 また、 本実施例では、 合算 · 比較する性能値と して I ◦ P Sを例に挙げたが、 他の性能メ ト リ ックを用いてもよレ、。 以上が、 本実施例における追加部品検出処理である。
以上、 本実施例の計算機システム 1では、 ス ト レージ管理サーバ 5を 介してス ト レージ装置 3 の構成変更を実施したときに、 追加部品検出処 理を実施することによ り、 システム管理者が図 5に示すス ト レージ管理 サーバ 5を介してス ト レージ装置 3 の構成変更を実施した直後であって も、 該ス ト レージ装置 3 の構成情報を管理サーバ 4からシステム管理者 に対し正確に表示することができる。
( 2 ) 実施例 2について
実施例 2 の計算機システム 1 では、 システム管理者が管理サーバ 4 と は別に存在するス ト レージ管理サーバ 5を介して該ス ト レージ装置 3 の 構成変更を実施したとき、 管理サーバ 4が構成変更を自動的に検知し、 該ス ト レージ装置 3および該ス トレージ装置 3を利用しているホス トコ ンピュータ 2の検出および構成情報の取得を実施する方法について説明 する。
図 2 5および図 2 6は、 本実施例における、 管理サーバ 4の制御プロ グラム 5 1が実施する追加部品検出処理のフローチャー トを示す。 ステ ップ S P 7 1 からステップ S P 7 8までの処理は、 実施例 1 と同じであ るので省略する。
情報取得プログラム 5 2は、 ス ト レージ装置 3 よ り新たに取得したボ リ ユ ーム管理表 2 7 と、 更新前のボリ ユ ーム管理表 2 7を比較し、 新た に検知されたボリ ューム 3 2 の新規追加フラグを「Yes」に切り替える(ス テツプ S P 7 9 )。
処理の終了後、制御プログラム 5 1 は、ボリ ューム管理表 2 7を調べ、 新規追加フラグが 「YesJ であるボリ ュ一ム 3 2が存在するか否かを確認 する(ステップ S P 8 0 )。
次に、 制御プログラム 5 1 は、 新規追加フラグが 「Yes」 であるボリ ュ ーム 3 2が存在するか否かを判断する (ステップ S P 8 1 ) 。 該当する ボリ ューム 3 2が存在しなければ (ステップ S P 8 1 : NO) 、 制御プ ログラム 5 1は、 処理を終了する。
該当するボリ ューム 3 2が存在すれば(ステップ S P 8 1 : Y E S), 制御プログラム 5 1 は、 i S C S I ターゲッ ト管理表 3 0を参照し、 該 当するボリ ューム 3 2から接続可能な i S C S I ィニシエータ名を検出 する。 次に、 制御プロ グラム 5 1 は、 論理ボリ ューム管理表 1 7を参照 し、 前記 i S C S I イニシエータ名を持つホス トコ ンピュータ 2を検出 する(ステップ S P 8 2 )。
次に、 制御プログラム 5 1 は、 情報取得プログラム 5 2に、 該当する ボリ ューム 3 2から接続可能なホス トコンピュータ 2に対し構成情報を 再取得するよ う指示する(ステップ S P 8 3 )。 情報取得プログラム 5 2 は、 構成情報を取得し、 取得した構成情報を取得情報リポジト リ 4 3に 上書き し、 デバイス接続管理表 4 8を更新する(ステップ S P 8 4 )。
次に、 制御プログラム 5 1 は、 再取得の結果、 該当するボリ ューム 3 2の接続先であるホス トコンピュータ 2 (接続先ホス ト) が判明したか 否かを判断する (ステップ S P 8 5 ) 。 再取得の結果、 該当するボリ ュ ーム 3 2の接続先であるホス トコンピュータ 2が判明した場合 (ステツ プ S P 8 5 : Y E S ) 、 制御プログラム 5 1は、 処理を終了する。
接続先であるホス ト コ ンピュータ 2が判明されなかった場合 (ステツ プ S P 8 5 : N O) 、 制御プログラム 5 1 は、 装置検出プログラム 5 3 に対し自動検出処理の実施を指示する(ステップ S P 8 6 )。
次に、 制御プログラム 5 1 は、 装置検出プログラム 5 3は、 装置検出 プログラム 5 3によ りホス トコンピュータ 2の自動検出処理を実施して、 新しいホス トコンピュータ 2が検出されたか否かを判断する (ステップ S P 8 7 ) 。 装置検出プログラム 5 3によ り新しいホス トコンピュータ 2が検出されなかった場合 (ステップ S P 8 7 : N O) 、 制御プロダラ ム 5 1 は、 処理を終了する。 装置検出プログラム 5 3によ り新しいホス トコンピュータ 2が検出さ れた場合 (ステップ S P 8 7 : Y E S ) 、 制御プログラム 5 1 は、 検出 したホス ト コンピュータ 2について、 情報取得プログラム 5 2に構成情 報の取得を指示する(ステップ S P 8 8 )。 情報取得プログラム 5 2は、 ホス ト コンピュータ 2から構成情報を取得し、 取得した構成情報を取得 情報リポジ ト リ 4 3に上書き して、 デバイス接続管理表 4 8 の更新を実 施する(ステップ S P 8 9 )。
以上が、 本実施例における追加部品検出処理である。
以上、 本実施例の計算機システム 1 では、 ス ト レージ管理サーバ 5を 介してス ト レージ装置 3 の構成変更を実施したときに、 追加部品検出処 理を実施することによ り、 例えば、 監視対象のス ト レージ装置 3内にて 部品の性能値が閾値を超過し、 図 1 7に示す閾値超過警告画面 8 1 をシ ステム管理者が参照した場合、 図 5に示すス ト レージ管理サーバ 5を介 して該ス ト レージ装置 3の構成変更を実施した直後であっても、 性能問 題の発生しているス ト レージ装置 3内の部品を利用しているホス トコン ピュータ 2の構成情報を正確に表示することができる。
( 3 ) 実施例 3について
実施例 3 の計算機システム 1 では、 システム管理者が管理サーバ 4 と は別に存在するス ト レ一ジ管理サーバ 5を介して該ス ト レージ装置 3の 構成変更を実施したとき、 管理サーバ 4が構成変更を自動的に検知し、 i S N Sサーバ 6 を利用して該ス ト レージ装置 3に接続するホス トコン ピュータ 2のア ドレスを取得すると ともに、 該ス ト レージ装置 3および 該ス ト レージ装置 3を利用しているホス トコンピュータ 2からの構成情 報の取得を実施する方法について説明する。
図 2 7および図 2 8は、 本実施例における、 管理サーバ 4 の制御プロ グラム 5 1が実施する追加部品検出処理のフローチャー トを示す。 ステ ップ S P 9 1 力、らステップ S P 1 0 1 までの処理は、 実施例 1 と同じで あるので省略する。
制御プログラム 5 1は、 i S C S I ターゲッ ト管理表 3 0を参照し、 該当するボリ ユ ーム 3 2から接続可能な i S C S I イニシエータ名を検 出する(ステップ S P 1 0 2 )。 次に、 制御プログラム 5 1 は、 i S N S サーバ 6に問い合わせ、 前記 i S C S I ィニシエータ名に対応する I P ァ ドレスを取得する(ステップ S P 1 0 3 )。 次に、 制御プログラム 5 1 は、 取得した I Pァ ドレスについて、 情報取得プログラム 5 2に構成情 報の取得を指示する(ステップ S P 1 0 4 )。情報取得プログラム 5 2は、 前記 I Pァ ドレス上のホス ト コンピュータ 2から構成情報を取得し、 取 得した構成情報を取得情報リポジト リ 4 3に上書き し、 デバイス接続管 理表 4 8の更新を実施する(ステップ S P 1 0 5 )。
以上が、 本実施例における追加部品検出処理である。
以上、 本実施例の計算機システム 1では、 ス ト レージ管理サーバ 5 を 介してス ト レージ装置 3 の構成変更を実施したときに、 追加部品検出処 理を実施することによ り、 例えば、 監視対象のス ト レージ装置 3内にて 部品の性能値が閾値を超過し、 図 1 7に示す閾値超過警告画面 8 1 をシ ステム管理者が参照した場合、 図 5に示すス ト レージ管理サーバ 5を介 して該ス ト レージ装置 3の構成変更を実施した直後であっても、 性能問 題の発生しているス ト レージ装置 3内の部品を利用しているホス トコン ピュータ 2の構成情報を正確に表示することができる。
また、 本実施例の計算機システム 1では、 追加部品検出処理実施時に 管理サーバ 4がアクセスするホス トコンピュータ 2の数を限定すること によ り、 管理サーバ 4およびネッ トワーク 7にかかる負荷を小さ くする ことができる。
このよ うにして、 計算機システム 1 では、 管理サーバにおいて、 ス ト レージ装置 3およびホス トコンピュータ 2の構成情報及び性能情報をそ れぞれ異なるタイ ミ ングで取得し、 ス ト レージ管理サーバ 5を介してス ト レージ装置 3 の構成変更を実施したときに、 構成変更が実施されたス トレージ装置 3内の部品の性能値と、 当該部品と接続関係にある部品の 性能値とを比較して、 当該性能値に一定以上の差異が存在するときに、 ス ト レージ装置 3内に未知の部品が追加されたものと判断して、 ス ト レ ージ装置 3から構成情報を再度取得する。
従って、 構成情報の取得をス ト レージ装置 3における構成変更を検知 したタイ ミングに限定するため、 構成情報の取得頻度が上がり 、 ス ト レ ージ装置 3に過重な負荷がかかるという事態を未然かつ有効に防止しつ つ、 性能値に一定以上の差異が存在するときは必ず当該ス ト レージ装置 3の構成情報を最新のものに更新することができる。
これにより、 構成変更を実施した直後であっても、 当該ス ト レージ装 置 3の構成情報を管理サーバ 4を介して管理者に対し正確に表示するこ とができ、 管理者がス ト レージ装置 3の異常に対して正しい対策をとる ことができる。
本発明は、 計算機システムに用いられるス トレージシステムを管理す る管理サーバに広く適用することができる。

Claims

請求の範囲
1 . 複数の部品によ り構成され、ホス トコンピュータによつて使用され る記憶領域であるボリ ユームを有するス ト レージ装置と、
前記ス ト レージ装置および前記ホス トコンピュータにネッ トワークを 介して接続され、 前記ス ト レージ装置および前記ホス トコンピュータの 構成情報及び性能情報を管理する管理サーバと、
を備え、
前記管理サーバは、
前記ス ト レージ装置および前記ホス ト コンピュータの構成情報及び性 能情報をそれぞれ異なるタイ ミ ングで取得する取得部と、
外部から前記ス ト レージ装置への構成変更が指示された際、 前記構成 変更が実施されたス ト レージ装置内の部品の性能値と、 前記部品と接続 関係にある部品の性能値とを比較する比較部と、
を備え、
前記取得部は、 前記比較部によ り比較された性能値に一定以上の差異 が存在するときに、 前記ス ト レージ装置内に未知の部品が追加されたも のと判断して、 前記ス ト レージ装置から構成情報を再度取得することを 特徴とする計算機システム。
2 . 前記比較部は、
前記ス ト レージ装置の各 R A I Dグループの現在の性能値を取得し、 各 R A I Dグループに属するボリ ユ ームの一覧を検出して当該ボリ ユ ー ムの現在の性能値を合算して、 前記合算した値を前記 R A I Dグループ の性能値で除算した値が、 予め定められた閾値を超過しているか否かを 確認することを特徴とする請求項 1 に記載の計算機システム。
3 . 前記取得部は、前記ス ト レ ジ装置の記憶領域を利用しているホス ト コンピュータを前記ネッ ト ヮ ク上から検出し、 当該ホス ト コンビュ —タから構成情報を取得する とを特徴とする請求項 1 に記載の計算 機システム。
4 . 前記取得部は、前記ス トレージ装置の記憶領域を利用しているホス トコンピュータを前記ネッ トワーク上から検出できなかったときに、 前 記ネッ トワーク上に接続している新たなホス トコンピュータを検索した 後、 前記ス ト レージ装置の記憶領域を利用しているホス トコンピュータ を前記ネッ トワーク上から検出することを特徴とする請求項 3に記載の 計算機システム。
5 . 前記ホス トコンピュータが前記ス ト レージ装置に接続する際に用 いる識別子と、 当該ホス ト コンピュータのネッ トワーク上のア ドレスを 管理する識別子管理サーバを備え、
前記取得部は、 前記ス ト レージ装置の記憶領域を利用しているホス ト コンピュータのァ ドレスを前記識別子管理サーバに問い合わせ、 当該ホ ス トコンピュータから構成情報を取得することを特徴とする請求項 1 に 記載の計算機システム。
6 . ス ト レージ装置およびホス ト コンピュータにネ ッ ト ワークを介し て接続され、 前記ス ト レージ装置および前記ホス ト コンピュータの構成 情報及び性能情報を管理する管理サーバであって、
前記ス トレージ装置および前記ホス トコンピュータの構成情報及び性 能情報をそれぞれ異なるタイ ミ ングで取得する取得部と、 外部から前記 ス ト レージ装置への構成変更が指示された際、 前記構成変更が実施され たス ト レージ装置内の部品の性能値と、 前記部品と接続関係にある部品 の性能値とを比較する比較部とを備え、
前記取得部は、 前記比較部によ り比較された性能値に一定以上の差異 が存在するときに、 前記ス ト レージ装置内に未知の部品が追加されたも のと判断して、 前記ス ト レージ装置から構成情報を再度取得することを 特徴とする管理サーバ。
7 . 前記比較部は、前記ス ト レージ装置の各 R A I Dグループの現在の 性能値を取得し、 各 R A I Dグループに属するボリ ュームの一覧を検出 して当該ボリ ュームの現在の性能値を合算して、 前記合算した値を前記 R A I Dグループの性能値で除算した値が、 予め定められた閾値を超過 しているか否かを確認する
ことを特徴とする請求項 6に記載の管理サーバ。
8 . 前記取得部は、前記ス ト レージ装置の記憶領域を利用しているホス トコンピュータを前記ネッ トワーク上から検出し、 当該ホス トコンピュ —タから構成情報を取得することを特徴とする請求項 6に記載の管理サ 一/く。
9 . 前記取得部は、前記ス ト レージ装置の記憶領域を利用しているホス トコンピュータを前記ネッ トワーク上から検出できなかったときに、 前 記ネッ トワーク上に接続している新たなホス トコンピュータを検索した 後、 前記ス ト レ一ジ装置の記憶領域を利用しているホス トコンピュータ を前記ネッ トワーク上から検出することを特徴とする請求項 8に記載の 管理サーバ。
1 0 . 前記取得部は、前記ス トレージ装置の記憶領域を利用しているホ ス ト コンピュータのァ ドレスを、 前記ホス ト コンピュータが前記ス ト レ ージ装置に接続する際に用いる識別子と、 当該ホス トコンピュータのネ ッ トワーク上のァ ドレスを管理する識別子管理サーバに問い合わせ、 当 該ホス トコンピュータから構成情報を取得することを特徴とする請求項 6に記載の管理サーバ。
1 1 . ス ト レージ装置およびホス トコンピュータにネッ トワークを介 して接続され、 前記ス ト レージ装置および前記ホス トコ ンピュータの構 成情報及び性能情報を管理する管理サーバであって、
取得部が、 前記ス トレージ装置および前記ホス トコンピュータの構成 情報及び性能情報をそれぞれ異なるタイ ミ ングで取得する第 1 のステツ プと、
比較部が、外部から前記ス トレージ装置への構成変更が指示された際、 前記構成変更が実施されたス ト レージ装置内の部品の性能値と、 前記部 品と接続関係にある部品の性能値とを比較する第 2のステップと、 前記取得部が、 前記第 2 のステップにおいて比較した性能値に一定以 上の差異が存在するときに、 前記ス トレージ装置内に未知の部品が追加 されたものと判断して、 前記ス ト レ一ジ装置から構成情報を再度取得す る第 3 のステップと
を備えることを特徴とする構成情報取得方法。
1 2 . 前記第 2 のステツプでは、前記ス トレージ装置の各 R A I Dダル ープの現在の性能値を取得し、 各 R A I Dグループに属するボリ ューム の一覧を検出して当該ボリュームの現在の性能値を合算して、 前記合算 した値を前記 R A I Dグループの性能値で除算した値が、 予め定められ た閾値を超過しているか否かを確認することを特徴とする請求項 1 1 に 記載の構成情報取得方法。
1 3 . 前記第 3 のステツプでは、前記ス 卜 レージ装置の記憶領域を利用 しているホス ト コンピュータを前記ネッ ト ワーク上から検出し、 当該ホ ス ト コンピュータから構成情報を取得することを特徴とする請求項 1 1 に記載の構成情報取得方法。
1 4 . 前記第 3のステップでは、前記ス ト レージ装置の記憶領域を利用 しているホス トコンピュータを前記ネッ トワーク上から検出できなかつ たときに、 前記ネッ トワーク上に接続している新たなホス トコンピュー タを検索した後、 前記ス ト レージ装置の記憶領域を利用しているホス ト コンピュータを前記ネッ トワーク上から検出することを特徴とする請求 項 1 3に記載の構成情報取得方法。
1 5 . 前記第 3 のステツプでは、前記ス ト レージ装置の記憶領域を利用 しているホス トコンピュータのァ ドレスを、 前記ホス トコンピュータが 前記ス トレージ装置に接続する際に用いる識別子と、 当該ホス ト コンビ ユ ータのネッ トワーク上のァ ドレスを管理する識別子管理サーバに問い 合わせ、 当該ホス ト コンピュータから構成情報を取得することを特徴と する請求項 1 1 に記載の構成情報取得方法。
PCT/JP2009/059394 2008-05-20 2009-05-15 計算機システム並びに管理サーバ及び構成情報取得方法 WO2009142282A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP09750644A EP2287745A4 (en) 2008-05-20 2009-05-15 COMPUTER SYSTEM, ADMINISTRATIVE SERVER AND CONFIGURATION INFORMATION COLLECTION PROCEDURE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-132274 2008-05-20
JP2008132274A JP5081718B2 (ja) 2008-05-20 2008-05-20 計算機システム並びに管理サーバ及び構成情報取得方法

Publications (1)

Publication Number Publication Date
WO2009142282A1 true WO2009142282A1 (ja) 2009-11-26

Family

ID=41340209

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059394 WO2009142282A1 (ja) 2008-05-20 2009-05-15 計算機システム並びに管理サーバ及び構成情報取得方法

Country Status (4)

Country Link
US (1) US8903982B2 (ja)
EP (1) EP2287745A4 (ja)
JP (1) JP5081718B2 (ja)
WO (1) WO2009142282A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073942B2 (en) * 2009-10-20 2011-12-06 Dell Products, Lp System and method for storage discovery in a storage area network using device domains under control of a storage device
US8819220B2 (en) 2010-09-09 2014-08-26 Hitachi, Ltd. Management method of computer system and management system
JP5470594B2 (ja) * 2010-09-16 2014-04-16 株式会社日立製作所 計算機システム及びストレージ・ボリューム管理方法
US8549361B2 (en) * 2010-12-21 2013-10-01 Netapp, Inc. System and method for construction, fault isolation, and recovery of cabling topology in a storage area network
WO2012137252A1 (en) * 2011-04-06 2012-10-11 Hitachi, Ltd. Storage apparatus and its data processing method
WO2015104811A1 (ja) * 2014-01-09 2015-07-16 株式会社日立製作所 計算機システム及び計算機システムの管理方法
US10382272B1 (en) * 2016-09-30 2019-08-13 Juniper Networks, Inc. Translating configuration information for network devices
US10764367B2 (en) 2017-03-15 2020-09-01 Hewlett Packard Enterprise Development Lp Registration with a storage networking repository via a network interface device driver
JP2020009202A (ja) * 2018-07-09 2020-01-16 株式会社日立製作所 ストレージ装置、ストレージシステム、および性能評価方法
US10732873B1 (en) * 2019-04-18 2020-08-04 Microsoft Technology Licensing, Llc Timeout mode for storage devices

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863298A (ja) * 1994-08-18 1996-03-08 Hitachi Ltd ディスクアレイ装置
JP2003108420A (ja) * 2001-09-27 2003-04-11 Hitachi Ltd データストレージシステム及びこの制御方法
JP2004246852A (ja) * 2002-12-20 2004-09-02 Hitachi Ltd 論理ボリュームコピー先性能調整方法及び装置
JP2004318741A (ja) * 2003-04-21 2004-11-11 Hitachi Ltd ネットワーク管理プログラム、管理計算機及び管理方法
JP2005062941A (ja) 2003-08-12 2005-03-10 Hitachi Ltd 性能情報分析方法
JP2005157933A (ja) * 2003-11-28 2005-06-16 Hitachi Ltd ストレージネットワークの性能情報を収集する方法およびプログラム
JP2009020703A (ja) * 2007-07-12 2009-01-29 Fujitsu Ltd ストレージ装置、ストレージ管理装置、ストレージ管理方法、およびストレージ管理プログラム
JP2009087020A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 計算機システム並びに管理装置及び管理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6802062B1 (en) * 1997-04-01 2004-10-05 Hitachi, Ltd. System with virtual machine movable between virtual machine systems and control method
US7194538B1 (en) * 2002-06-04 2007-03-20 Veritas Operating Corporation Storage area network (SAN) management system for discovering SAN components using a SAN management server
US7886031B1 (en) * 2002-06-04 2011-02-08 Symantec Operating Corporation SAN configuration utility
JP4244319B2 (ja) * 2003-12-17 2009-03-25 株式会社日立製作所 計算機システム管理プログラム,記録媒体,ならびに計算機システム管理システムおよびそのための管理装置および記憶装置
JP2005190106A (ja) * 2003-12-25 2005-07-14 Hitachi Ltd 論理ボリュームを管理する記憶制御サブシステム
JP2005275829A (ja) * 2004-03-25 2005-10-06 Hitachi Ltd ストレージシステム
US7555548B2 (en) * 2004-04-07 2009-06-30 Verizon Business Global Llc Method and apparatus for efficient data collection
US7769849B2 (en) * 2004-10-25 2010-08-03 Lsi Corporation Method for detecting changes in a storage area network without external tools and hardware
US7844701B2 (en) * 2005-08-01 2010-11-30 Network Appliance, Inc. Rule-based performance analysis of storage appliances
JP4782100B2 (ja) * 2007-12-11 2011-09-28 株式会社日立製作所 ストレージシステムの性能を監視する管理計算機、その管理計算機を含む計算機システム、及び、その制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863298A (ja) * 1994-08-18 1996-03-08 Hitachi Ltd ディスクアレイ装置
JP2003108420A (ja) * 2001-09-27 2003-04-11 Hitachi Ltd データストレージシステム及びこの制御方法
JP2004246852A (ja) * 2002-12-20 2004-09-02 Hitachi Ltd 論理ボリュームコピー先性能調整方法及び装置
JP2004318741A (ja) * 2003-04-21 2004-11-11 Hitachi Ltd ネットワーク管理プログラム、管理計算機及び管理方法
JP2005062941A (ja) 2003-08-12 2005-03-10 Hitachi Ltd 性能情報分析方法
JP2005157933A (ja) * 2003-11-28 2005-06-16 Hitachi Ltd ストレージネットワークの性能情報を収集する方法およびプログラム
JP2009020703A (ja) * 2007-07-12 2009-01-29 Fujitsu Ltd ストレージ装置、ストレージ管理装置、ストレージ管理方法、およびストレージ管理プログラム
JP2009087020A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 計算機システム並びに管理装置及び管理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2287745A4

Also Published As

Publication number Publication date
US20090292789A1 (en) 2009-11-26
EP2287745A1 (en) 2011-02-23
EP2287745A4 (en) 2013-01-23
JP5081718B2 (ja) 2012-11-28
JP2009282626A (ja) 2009-12-03
US8903982B2 (en) 2014-12-02

Similar Documents

Publication Publication Date Title
WO2009142282A1 (ja) 計算機システム並びに管理サーバ及び構成情報取得方法
US9294338B2 (en) Management computer and method for root cause analysis
US11811619B2 (en) Emulating a local interface to a remotely managed storage system
US11249857B2 (en) Methods for managing clusters of a storage system using a cloud resident orchestrator and devices thereof
US7890645B2 (en) Monitoring-target-apparatus management system, management server, and monitoring-target-apparatus management method
US8260986B2 (en) Methods and apparatus for managing virtual ports and logical units on storage systems
US8271492B2 (en) Computer for identifying cause of occurrence of event in computer system having a plurality of node apparatuses
US7930583B1 (en) System and method for domain failure analysis of a storage area network
US9081594B1 (en) Managing data storage systems in virtual systems based on storage awareness
US9852007B2 (en) System management method, management computer, and non-transitory computer-readable storage medium
US9854060B2 (en) Methods and systems for monitoring network storage system resources by an API server
US10902126B2 (en) Verification of a boot loader program at a control unit to be provided to a host system to load an operating system
US9881056B2 (en) Monitor system and monitor program
US11218391B2 (en) Methods for monitoring performance of a network fabric and devices thereof
US11941030B2 (en) Methods for hierarchical propagation in tree structures and devices thereof
JP2018055467A (ja) 管理装置、情報処理システムおよび管理プログラム
US8959287B1 (en) Managing caches for reporting storage system information
WO2015019488A1 (ja) 管理システム及びその管理システムによるイベント解析方法
WO2010116539A1 (en) File detection device and method
JP2023130723A (ja) 情報機器の管理システム及び管理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09750644

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2009750644

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009750644

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE