WO2014049718A1 - 管理装置及び管理方法 - Google Patents

管理装置及び管理方法 Download PDF

Info

Publication number
WO2014049718A1
WO2014049718A1 PCT/JP2012/074702 JP2012074702W WO2014049718A1 WO 2014049718 A1 WO2014049718 A1 WO 2014049718A1 JP 2012074702 W JP2012074702 W JP 2012074702W WO 2014049718 A1 WO2014049718 A1 WO 2014049718A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage device
path
access path
logical volume
port
Prior art date
Application number
PCT/JP2012/074702
Other languages
English (en)
French (fr)
Inventor
尚志 馬庭
草間 隆人
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to EP12885479.1A priority Critical patent/EP2835742A4/en
Priority to PCT/JP2012/074702 priority patent/WO2014049718A1/ja
Priority to JP2014537897A priority patent/JP5801968B2/ja
Priority to US14/399,324 priority patent/US9417817B2/en
Publication of WO2014049718A1 publication Critical patent/WO2014049718A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0664Virtualisation aspects at device level, e.g. emulation of a storage device or system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Definitions

  • the present invention relates to a management apparatus and a management method, manages storage areas provided by a plurality of storage apparatuses as a logical pool across the plurality of storage apparatuses, and provides a virtual volume associated with the logical pool to a host computer.
  • the present invention is suitable for application to a management computer that performs performance management of a computer system that dynamically allocates storage areas from a logical pool to a virtual volume.
  • Patent Document 1 a virtual logical volume (hereinafter referred to as a virtual logical volume) is applied to a host computer, and the virtual logical volume is assigned to the virtual logical volume according to the data write status from the host computer to the virtual logical volume.
  • a thin provisioning technique that dynamically allocates a physical storage area from a storage apparatus is disclosed.
  • a storage apparatus that has received an I / O request determines whether the I / O request is a request for a storage area in the own storage apparatus, and a storage area in another storage apparatus.
  • a technology for transferring the I / O request to the other storage device is disclosed.
  • Patent Document 3 discloses a technology that enables pools in different storage apparatuses to be integrated by incorporating a storage area of a pool existing in another storage apparatus into a storage area used by a pool constructed in the storage apparatus. Is disclosed.
  • Patent Document 4 discloses a technique for diagnosing whether or not the access path from the host computer to the storage device is optimal. According to this technique, it is possible to display an optimum access path from the host computer to the storage apparatus, or to switch the path from the host computer to the storage apparatus to the optimum access path.
  • the storage area of one virtual logical volume is distributed and arranged in a plurality of storage devices, and the I / O request from the host computer is stored in its own storage.
  • the I / O request from the host computer is stored in its own storage.
  • an optimum path that takes into account I / O requests and data transfer between storage devices is identified as the access path used when the host computer accesses the virtual logical volume, and the identified path is used. If the access path can be changed, it is considered that the access speed can be improved and the access performance from the host computer in the computer system to the data stored in the virtual logical volume can be improved.
  • the present invention has been made in view of the above points, and intends to propose a management apparatus and a management method capable of improving data access performance.
  • a plurality of storage devices are connected to each other, and a storage area provided by each of the first storage device and the second storage device included in the plurality of storage devices is stored in a plurality of storage devices.
  • Managed as a logical pool across devices provides a virtual logical volume associated with the logical pool to a host computer, and dynamically stores from the logical volume to the virtual logical volume according to the usage status of the virtual logical volume
  • the first storage Access to the second storage device via a second path connecting between the first storage device and the second storage device if the second storage device is present, It is determined whether or not the ratio of the access amount using the second path exceeds a predetermined ratio, and when the ratio of the access amount exceeds the predetermined ratio, the virtual logic is sent from the host computer.
  • An access path diagnosis unit that determines that there is a problem with the access path to the volume, and a third path that connects between the host computer and the second storage device when it is determined that there is a problem with the access path
  • the change destination path specifying unit for specifying the access path change destination and the third path specified by the change destination path specifying unit as the first path. Te, it was provided and an access path changing unit for executing a predetermined control processing for changing the part of the access path from the host computer to said virtual logical volume.
  • a plurality of storage devices are connected to each other, and a storage area provided by each of the first storage device and the second storage device included in the plurality of storage devices is straddled across the plurality of storage devices.
  • a computer system that provides a virtual logical volume associated with the logical pool to a host computer and dynamically allocates a storage area from the logical volume to the virtual logical volume according to the usage status of the virtual logical volume The host computer is connected to the first storage device via a first path and connected to the virtual logical volume via the first path.
  • the access target data is in the first storage device, the first Accessing a storage device, and if there is in the second storage device, accessing the second storage device via a second path connecting the first storage device and the second storage device;
  • the access path can be changed so that the data transfer between the storage apparatuses can be further reduced. It is possible to effectively prevent a decrease in the access speed to the virtual logical volume.
  • reference numeral 1 denotes a computer system according to this embodiment as a whole.
  • the computer system 1 includes a host computer 2, a plurality of physical storage devices 3, a management computer 4, and a management client 5.
  • the host computer 2 and the plurality of physical storage devices 3 are connected via a host communication network 6, and the physical storage devices 3 are connected to each other via an inter-device communication network 7.
  • the host computer 2, the plurality of physical storage devices 3, the management computer 4, and the management client 5 are connected via a management network 8.
  • the host communication network 6 is composed of a SAN (Storage Area Network).
  • the host computer 2 sends and receives various commands such as I / O requests and various data to the physical storage device 3 via the host communication network 6.
  • the inter-device communication network 7 is also composed of a SAN. Each physical storage device 3 transfers an I / O request from the host computer 2 to another physical storage device 3 via this inter-device communication network 7, or sends and receives data between the physical storage devices 3. To do.
  • the host communication network 6 and the inter-device communication network 7 may be separate networks as shown in FIG. 1 or the same network.
  • the management network 8 is composed of a LAN (Local Area Network).
  • the management computer 4 collects information from the host computer 2 and each physical storage device 3 via the management network 8 and performs various settings for the host computer 2 and each physical storage device 3.
  • the management computer 4 communicates with the management client 5 via the management network 8.
  • FIG. 2 shows a schematic configuration of the host computer 2.
  • the host computer 2 includes a CPU (Central Processing Unit) 10 and a memory 11, one or a plurality of SAN ports 12 and a LAN port 13, and an internal connection between the CPU 10, the memory 11, the SAN port 12 and the LAN port 13. And a bus 14.
  • CPU Central Processing Unit
  • the CPU 10 is a processor that controls operation of the entire host computer 2.
  • the memory 11 is used to hold various programs and various data.
  • the memory 11 is used to manage one or more application programs 15, a multipath management program 16 that manages a plurality of paths connecting the host computer 2 and each physical storage device 3, and such paths.
  • a path management table 17 is stored.
  • the SAN port 12 is a port for the host communication network 6 and is given a unique network address (for example, WWN (World Wide Name)) on the host communication network 6.
  • the LAN port 13 is a port for the management network 8 and is given a unique network address (for example, an IP (Internet Protocol address) address) on the management network 8.
  • FIG. 3 shows the internal configuration of the physical storage device 3.
  • the physical storage apparatus 3 includes a CPU 20, a memory 21, a cache memory 22, one or a plurality of physical storage devices 23, first and second SAN ports 24 A and 24 B, and a LAN port 25, which are connected via an internal bus 26. Are connected to each other.
  • the CPU 20 is a processor that controls the operation of the entire physical storage device 3, reads a program stored in the physical storage device 23 into the memory 21, and executes the read program as necessary.
  • the memory 21 is used not only for storing various programs read from the physical storage device 23 but also as a work memory for the CPU 20.
  • the cache memory 22 is mainly used for temporarily storing data to be read from and written to the physical storage device 23.
  • the first SAN port 24A is a port for the host communication network 6, and the second SAN port 24B is a port for the inter-device communication network 7. Further, the LAN port 25 is a port for the management network 8. These ports are given unique identifiers (for example, WWN and IP address) in each network.
  • the first SAN port 24A will be referred to as a front end port 24A and the second SAN port will be referred to as a back end port 24B as appropriate.
  • the physical storage device 23 is composed of an expensive disk device such as a SCSI (Small Computer System Interface) disk or an inexpensive disk device such as a SATA (Serial AT Attachment) disk or an optical disk.
  • SCSI Serial Computer System Interface
  • SATA Serial AT Attachment
  • One or a plurality of logical volumes VOL are set on the storage areas provided by these physical storage devices 23, respectively.
  • the physical storage device 23 can be replaced with a RAID (Redundant Arrays of Inexpensive Disks) group.
  • a RAID group refers to an aggregate of a plurality of storage devices that have the same physical characteristics such as disk rotation speed.
  • the CPU 20 manages a storage area provided by a plurality of physical storage devices 23 constituting one RAID group as a storage area provided by one logical storage device, and one or a plurality of logical areas are stored on the storage area. Set the volume VOL.
  • FIG. 4 shows a schematic configuration of the management computer 4.
  • the management computer 4 includes a CPU 30, a memory 31, and a LAN port 32.
  • the CPU 30 is a processor that controls operation of the entire management computer 4.
  • the memory 31 is mainly used for storing various programs and various data.
  • a control program 40 and control data 41, which will be described later, are also stored and held in the memory 31.
  • the CPU 30 executes the control program 40 stored in the memory 31, various processes as described below as the management computer 4 as a whole are executed.
  • the LAN port 32 is a port for the management network 8 and is given a unique network address (for example, an IP address) on the management network 8.
  • the management client 5 is a computer device used by a system administrator, and is composed of, for example, a personal computer, a workstation, or a main frame.
  • the management client 5 includes a display device composed of a liquid crystal panel and an input device composed of a mouse and / or a keyboard.
  • FIG. 5 shows the logical configuration of the computer system 1.
  • one virtual storage device VST is constructed by a plurality of physical storage devices 3 connected via an inter-device communication network 7.
  • a logical volume VOL is created in the storage area provided by the physical storage device 23 in each physical storage device 3, and one logical volume VOL spans between the physical storage devices 3. It is managed as a logical pool (device crossing pool) PL.
  • the virtual storage apparatus VST one or a plurality of virtual logical volumes VVOL straddling a plurality of physical storage apparatuses 3 constituting the virtual storage apparatus VST are created, and the virtual logical volume VVOL is provided to the host computer 2.
  • the host computer 2 recognizes a plurality of physical storage devices 3 connected via the inter-device communication network 7 as one virtual storage device VST, and the virtual logical volume VVOL is a logical volume provided by the virtual storage device VST. recognize. At this time, the host computer 2 selects any one path as an access path from among a plurality of paths set between the plurality of physical storage apparatuses 3 constituting the virtual storage apparatus VST. Thereafter, the host computer 2 sends and receives read requests and write requests to the virtual logical volume VVOL, and data transmission and reception for these read requests and write requests to and from a specific physical storage device 3 via this access path. Do.
  • a logical storage area (hereinafter referred to as “this”) from any of the logical volumes VOL constituting the cross-device pool PL. Is called a logical page).
  • the logical page LP is associated with a physical storage area (hereinafter referred to as a physical page) PP having a predetermined size in the physical storage apparatus 3 in which the logical volume VOL exists.
  • the physical page PP is allocated to the virtual logical volume VVOL by the required number according to the size of the write target data, and the target data is stored in the physical page PP.
  • the target data is stored in the physical page PP.
  • the write request is issued from the physical storage device 3 to which the access path is connected.
  • the page PP is transferred to the physical storage device 3 to which the page PP is allocated via the inter-device communication network 7 and stored in the physical page PP.
  • the read request is transmitted from the physical storage device 3 directly connected to the host computer 2 to the inter-device communication. Is transferred to the physical storage device 3 in which the target data exists via the network 7.
  • the read target data read from the physical storage device 3 is transmitted to the physical storage device 3 directly connected to the host computer 2 via the inter-device communication network 7, and the data Data is transmitted to the host computer 2 that issued the read request via the above-described access path.
  • the management computer 4 moves the data with high access frequency to the physical storage device 3 to which the access path to the host computer 2 is connected, and transfers the data with low access frequency to the host.
  • a hierarchical data management function for controlling each physical storage device that configures the virtual storage device VST is mounted so that the access path to the computer 2 is moved to a physical storage device 3 that is not connected.
  • the management computer 4 constantly monitors the access frequency to the data held by each physical storage device 3, and the access frequency to the data held by the physical storage device 3 to which the access path to the host computer 2 is not connected. Is greater than or equal to a predetermined threshold value, the physical storage device 3 is controlled to move the data to the physical storage device 3 to which the access path between the host computer 2 and the host computer 2 is connected. When the access frequency to the data held by the physical storage device 3 to which no access path is connected is less than a predetermined threshold, the host computer 2 and the host computer 2 are moved to move the data to another physical storage device 3. The physical storage device 3 to which the access path is connected is controlled.
  • the response performance to the I / O request from the host computer 2 can be improved while reducing the occurrence of data transfer between the physical storage devices 3.
  • FIG. 6 shows a detailed configuration of the above-described control program 40 (FIG. 4) and control data 41 (FIG. 4) stored in the memory 31 of the management computer 4.
  • each rectangle represents a program module constituting the control program 40
  • each columnar shape represents a management table or information constituting the control data 41.
  • control program 40 includes a host computer information collection unit 50, a storage device information collection unit 51, a data bias threshold setting unit 52, an exclusion target volume designation unit 53, a data bias calculation unit 54, a remaining balance.
  • Band corrected port information creation unit 55 front end port search unit 56, back end port pair search unit 57, front end port change control unit 58, back end port change control unit 59, access path diagnosis unit 60, access path search unit 61 and an access path display unit 62.
  • the control data 41 includes a path management table 70, a virtual logical volume management table 71, a page management table 72, a port management table 73, a port pair management table 74, a data bias threshold management table 75, an exclusion target volume management table 76, and data bias information. 77, remaining bandwidth corrected port information 78, changeable front end port information 79, change target front end port information 80, and change target back end port pair information 81.
  • the host computer information collection unit 50 is activated at a predetermined timing (for example, periodically by a timer according to the scheduling setting) or is activated by a request from the management client 5, and the host computer 2 and each physical storage device Information about paths between the three is collected from the host computer 2 and the collected information is stored in the path management table 70.
  • the storage device information collection unit 51 is activated at a predetermined timing (for example, periodically by a timer according to a scheduling setting) or is activated by a request from the management client 5, and each virtual storage device 3 receives a virtual Information on each virtual logical volume VVOL created in the storage apparatus VST (hereinafter referred to as virtual logical volume information) is collected, and the collected virtual logical volume information is stored in the virtual logical volume management table 71.
  • the storage device information collection unit 51 also receives information on each logical page LP in each virtual logical volume VVOL (hereinafter referred to as page information) from each physical storage device 3 and information on the port of the physical storage device 3. (Hereinafter referred to as port information) and information related to paths between physical storage devices 3 (hereinafter referred to as port pair information) are collected.
  • the storage device information collection unit 51 stores the collected page information in the page management table 72, stores the port information in the port management table 73, and stores the port pair information in the port pair management table 74.
  • the data bias threshold value setting unit 52 acquires the data bias threshold value and the port free bandwidth threshold value set by the system administrator using the management client 5 from the management client 5, and the acquired data bias threshold value and the port free bandwidth threshold value are obtained. Stored in the data bias threshold management table 75.
  • the “data bias threshold” is the amount of data stored in the physical storage device 3 directly connected to the host computer 2 via the access path with respect to the total amount of data stored in one virtual logical volume VVOL. Refers to the lower limit of the percentage. As will be described later, when the ratio of the amount of data stored in the physical storage device 3 directly connected to the host computer 2 via the access path is less than this data bias threshold, it is stored in the corresponding virtual logical volume VVOL. Since the stored data is considered to be distributed to physical storage devices 3 other than the physical storage device 3, it is determined that there is a problem in the access path from the currently set host computer 2 to the virtual logical volume VVOL. .
  • the “port free bandwidth threshold” refers to the lower limit value of the free bandwidth of each port in the physical storage device 3. As will be described later, when the remaining bandwidth of the port of the physical storage device 3 is less than this port free bandwidth threshold, it is determined that there is a problem in the access path from the currently set host computer 2 to the virtual logical volume VVOL.
  • the exclusion target volume designating unit 53 is a virtual logical volume to be excluded from access path diagnosis processing (FIG. 20) and access path automatic update processing (FIG. 27) described later, which is set by the system administrator using the management client 5.
  • An identifier (virtual logical volume ID) of the VVOL (hereinafter referred to as an exclusion target volume) is acquired from the management client 5, and the acquired virtual logical volume ID of the exclusion target volume VVOL is stored in the exclusion target volume management table 76.
  • the data bias calculation unit 54 stores each piece of data stored in the target virtual logical volume VVOL. A biased state of distribution to the physical storage device 3 is detected, and data bias information 77 representing the biased state is generated.
  • the remaining bandwidth corrected port information creation unit 55 corrects the remaining bandwidth indicating the remaining bandwidth of each port of each physical storage device 3 when there is no data input / output to the target virtual logical volume VVOL at that time. Port information 78 is generated.
  • the front end port search unit 56 includes the host computer 2 and the virtual storage device VST among the front end ports 24A (FIG. 3) of each physical storage device 3.
  • a front end port 24A having a remaining bandwidth that can be the access path change destination is searched, and changeable front end port information 79 including a list of such front end ports 24A is generated.
  • the back-end port pair search unit 57 selects another physical among the back-end ports 24B (FIG. 3) of each physical storage device 3.
  • a set of back-end ports 24B (hereinafter referred to as a back-end port pair) connected to a path that can be a change destination of a path (access path) used for communication with the storage apparatus 3 is searched, and such back
  • the change target back-end port pair information 81 including a list of end port pairs is generated.
  • the front end port change control unit 58 uses the access path display unit 62 to indicate the connection destination of the access path used when the host computer 2 accesses the virtual logical volume VVOL based on the changeable front end port information 79 described later.
  • the host computer 2 is controlled to change to the front end port 24A designated by the access path display unit 62 in the designated physical storage device 3, and the path management table 70 is updated accordingly.
  • the back-end port change control unit 59 accesses the back-end port 24B used when each physical storage device 3 communicates with another physical storage device 3 based on the change-target back-end port pair information 81 described later. Each physical storage device 3 is controlled to change to the back-end port 24B designated by the path display unit 62.
  • the access path diagnosis unit 60 is activated by a request from the management client 5 according to the operation of the system administrator, and based on the virtual logical volume management table 71, the data bias threshold information 75, and the exclusion target volume management table 76, at that time Whether there is a problem in the access path from the target host computer (hereinafter referred to as the target host computer) 2 to the target virtual logical volume (hereinafter referred to as the target virtual logical volume) VVOL Diagnose. Then, the access path diagnosis unit 60 displays the diagnosis result on the display device of the management client 5 as an access path diagnosis result screen 90 or an access path diagnosis result detail screen 100 described later.
  • the access path search unit 61 is activated in response to a request from the management client 5 according to the operation of the system administrator, and the data stored in the target virtual logical volume VVOL is transferred to each physical storage device 3 according to the degree of bias.
  • the computer 2 specifies the path to be changed to the access path used when accessing the data stored in the target virtual logical volume VVOL, and notifies the access path display unit 62 of the specified result.
  • the access path display unit 62 specifies the access path specified when the target host computer 2 accesses the target virtual logical volume VVOL specified by the access path search unit 61.
  • the path to be changed is displayed on the management client 5 as an access path change screen 110 described later.
  • the access path display unit 62 controls the front-end port change control unit 58 and the back-end port change control unit 59 in accordance with an operation input by the system administrator using the access path change screen 110, so that the target host The access path when the computer 2 accesses the data stored in the target virtual logical volume VVOL is changed to the path displayed on the access path change screen 110 (that is, the path specified by the access path search unit 61).
  • the path management table 70 is a table used for managing all paths that can be used when the host computer 2 accesses the virtual logical volume VVOL in the virtual storage apparatus VST, as shown in FIG. Are composed of a virtual logical volume ID column 70A, a host computer ID column 70B, a host computer port ID column 70C, a physical storage device ID column 70D, a physical storage device port ID column 70E, a LUN column 70F, and an access path information column 70G. .
  • the virtual logical volume ID column 70A stores the virtual logical volume ID assigned to each virtual logical volume VVOL set in the virtual storage device VST, and the host computer ID column 70B stores the corresponding virtual logical volume. Stores the identifier (host computer ID) of the host computer 2 that uses the VVOL.
  • the host computer port ID column 70C stores the identifier (host computer port ID) of the port on the host computer 2 side to which the path corresponding to the entry (row) is connected.
  • the physical storage device ID column 70D stores the identifier (physical storage device ID) of the physical storage device 3 to which the path corresponding to the entry is connected
  • the physical storage device port ID column 70E stores the physical storage device.
  • 3 stores the port ID of the front end port 24A (FIG. 3) in the physical storage apparatus 3 to which the path in FIG. 3 is connected.
  • the LUN column 70F stores the identification number (LUN: Logical Unit Number) of the corresponding virtual logical volume VVOL recognized by the corresponding host computer 2, and the access path information column 70G contains the path corresponding to the entry.
  • Information indicating whether the corresponding host computer 2 is an access path for accessing the corresponding virtual logical volume VVOL (hereinafter referred to as access path information) is stored.
  • the access path information column 70G stores “true” when the corresponding path is an access path, and stores “false” when the corresponding path is not an access path.
  • the virtual logical volume management table 71 is a table used for managing the virtual logical volume VVOL created in the virtual storage apparatus VST. As shown in FIG. 8, the virtual logical volume ID column 71A, the host computer ID It consists of a column 71B, a transfer amount column 71C and a capacity column 71D.
  • the virtual logical volume ID column 71A stores the volume IDs of all virtual logical volumes VVOL created in the virtual storage apparatus VST, and the corresponding virtual logical volume VVOL can be used in the host computer ID column 71B.
  • the host computer ID of the host computer 2 is stored.
  • the transfer amount column 71C stores the data amount per unit time (for example, 1 second) of data input to and output from the corresponding virtual logical volume VVOL (hereinafter referred to as transfer amount), and the capacity column.
  • transfer amount data amount per unit time (for example, 1 second) of data input to and output from the corresponding virtual logical volume VVOL (hereinafter referred to as transfer amount), and the capacity column.
  • the capacity of the corresponding virtual logical volume VVOL is stored in 71D.
  • the page management table 72 is used to manage from which physical storage device 3 the physical page PP is allocated to each logical page LP (FIG. 5) of the virtual logical volume VVOL created in the virtual storage device VST.
  • a pool ID column 72A, a virtual logical volume ID column 72B, a logical page ID column 72C, a physical storage device ID column 72D, a transfer amount column 72E, a capacity column 72F, and a physical storage device It consists of a port ID column 72G.
  • the pool ID column 72A stores identifiers (pool IDs) assigned to the respective device crossing pools PL (FIG. 5) created in the virtual storage device VST, and the virtual logical volume ID column 72B contains the identifiers (pool IDs).
  • the virtual logical volume ID of the virtual logical volume VVOL created on the cross-device pool PL is stored.
  • the page ID column 72C stores an identifier (logical page ID) assigned to each logical page LP in the corresponding virtual logical volume VVOL, and the physical storage device ID column 72D stores the corresponding virtual logical volume VVOL.
  • the identifier (physical storage device ID) of the physical storage device 3 to which the physical page PP is assigned is stored in the corresponding logical page LP.
  • the transfer amount column 72E stores the transfer amount per unit time of data input to and output from the corresponding logical page LP of the corresponding virtual logical volume VVOL
  • the capacity column 72F stores the capacity of the corresponding logical page LP. Is stored.
  • the physical storage device port ID column 72G stores the port ID of the port connected to the corresponding virtual logical volume VVOL among the ports (front end port 24A or back end port 24B) in the corresponding physical storage device 3. Is done.
  • the port management table 73 is a table used for managing each port (front-end port 24A or back-end port 24B) of each physical storage device 3 constituting the virtual storage device VST, as shown in FIG. , A physical storage device ID column 73A, a physical storage device port ID column 73B, a port name column 73C, a remaining bandwidth column 73D, and a backend port information column 73E.
  • the physical storage device ID column 73A stores the physical storage device ID of each physical storage device 3 constituting the virtual storage device VST, and the physical storage device port ID column 73B stores each physical storage device 3 in the corresponding physical storage device 3. Stores the port ID of the port.
  • the port name column 73C stores the port name of the port displayed on the access path diagnosis result screen 90 (FIG. 17), which will be described later, and the remaining bandwidth column 73D displays the usable bandwidth of the corresponding port. Stores the current remaining bandwidth minus the bandwidth in use.
  • backend port information information indicating whether or not the corresponding port is the backend port 24B (hereinafter referred to as backend port information) is stored in the backend port information column 73E.
  • the back-end port information column 73E stores “true” when the corresponding port is the back-end port 24B, and stores “false” when the port is not the back-end port 24B.
  • the port pair management table 74 includes a set of a port of one physical storage device 3 and a port of the other physical storage device 3 to which paths connecting the physical storage devices 3 are connected, and a path in the physical storage device 3.
  • 11 is a table used for managing a back-end port pair composed of a set of ports connected via the physical storage device ID-A column 74A, physical storage device port ID- A column 74B, physical storage device ID-B column 74C, physical storage device port ID-B column 74D, inter-physical storage device port pair information column 74E, access path information column 74F, virtual logical volume ID column 74G, and host computer ID column 74H Consists of
  • the physical storage device ID-A column 74A and the physical storage device port ID-A column 74B the physical storage device ID of one physical storage device 3 to which the path corresponding to the entry (row) is connected, and The port ID of the port to which the path in the physical storage device 3 is connected is stored, and the physical storage device ID-B column 74C and the physical storage device port ID-B column 74D each have the other connected to the path.
  • the physical storage device ID of the physical storage device 3 and the port ID of the port connected to the path in the physical storage device 3 are stored.
  • inter-physical storage device port pair information column 74E information indicating whether or not the corresponding path is a path connecting the physical storage devices 3 is stored. Specifically, in the inter-physical storage device port pair information column 74E, “true” is stored when the path is a path connecting the physical storage devices 3, and the path connects the physical storage devices 3. When it is not a path (that is, when the path is a path connecting one port and another port in the same physical storage device 3), “false” is stored.
  • the virtual logical volume ID column 74G stores the volume ID of the virtual logical volume VVOL to which the corresponding path is connected
  • the host computer ID column 74H stores the host of the host computer 2 that can access the virtual logical volume VVOL.
  • a computer ID is stored.
  • the access path information column 74F stores information indicating whether or not the corresponding path is an access path. Specifically, the access path information column 74F stores “true” when the corresponding path is an access path, and stores “false” when the path is not an access path.
  • the access path refers to a path used when the host computer 2 accesses data stored in the corresponding virtual logical volume VVOL.
  • the data bias threshold management table 75 is a table used for managing the above-mentioned data bias threshold and the port free bandwidth threshold set by the system administrator, and includes a data bias threshold column and a port free bandwidth threshold column.
  • the data bias threshold column stores the data bias threshold
  • the port free bandwidth threshold column stores the port free bandwidth threshold.
  • the exclusion target volume management table 76 is a table used by the system administrator to manage the virtual logical volume VVOL that should be excluded from the access path diagnosis process (FIG. 20) and the access path automatic change process (FIG. 27).
  • the virtual logical volume ID of the virtual logical volume VVOL to be excluded from the access path diagnosis process and the access path automatic change process set in advance by the system administrator is stored.
  • the data bias information 77 is information used for managing the biased state of data distribution to each physical storage device 3 constituting the virtual logical volume VVOL, and will be described later with access path diagnosis processing (FIGS. 20A and 20B). ) Or access path search processing (FIG. 22), the virtual logical volume VVOL that is the target at that time is created.
  • the data bias information 77 includes a physical storage device ID column 77A, a total transfer amount column 77B, a transfer amount ratio column 77C, and an access path information column 77D.
  • the physical storage device ID column 77A stores the physical storage device IDs of all physical storage devices 3 constituting the target virtual logical volume VVOL, and the total transfer amount column 77B stores the virtual logical volume VVOL.
  • the total amount of data transferred to the corresponding physical storage device 3 among all the data transferred to (1) is stored (hereinafter referred to as the total transfer amount).
  • the corresponding physical storage device 3 for all the data transferred to the target virtual logical volume VVOL (corresponding to the total transfer amount of each entry of the data bias information 77). Stores the ratio of the amount of data transferred to the other physical storage device 3 via the inter-device communication network 7.
  • access path information indicating whether or not the path from the host computer 2 to the corresponding physical storage device 3 is an access path.
  • the access path information column 77D “true” is stored when the path from the host computer 2 to the corresponding physical storage device 3 is an access path, and when the path is not an access path, “true” is stored. “false” is stored.
  • the remaining bandwidth corrected port information 78 is information used for managing the remaining bandwidth of each port in each physical storage device 3 when there is no data transfer with the corresponding virtual logical volume VVOL. Yes, it is created in an access path search process (FIG. 22) described later. As shown in FIG. 13, the remaining bandwidth corrected port information 78 includes a physical storage device ID column 78A, a physical storage device port ID column 78B, a port name column 78C, a remaining bandwidth column 78D, and a backend port information column 78E. Composed.
  • the physical storage device ID column 78A the physical storage device ID of each physical storage device 3 constituting the corresponding virtual logical volume VVOL is stored.
  • the physical storage device port ID column 78B stores the port ID of the port (front-end port 24A or back-end port 24B) in the physical storage device 3 connected to the virtual logical volume VVOL, and the port name column 78C.
  • the port name of the port displayed on the access path diagnosis result screen 90 (FIG. 17) and the like described later is stored.
  • the remaining bandwidth column 78D stores the remaining bandwidth of the corresponding port when it is assumed that there is no data transfer to the corresponding virtual logical volume VVOL
  • the back-end port information column 78E stores the port's remaining bandwidth.
  • Information indicating whether the port is an end port is stored. Specifically, “true” is stored in the back-end port information column 78E when the corresponding port is a back-end port, and “false” is stored when the port is not a back-end port.
  • the changeable front-end port information 79 is a list of front-end ports 24A (FIG. 3) having a remaining bandwidth that can be a new access path to the host computer 2, and a front-end port search process described later with reference to FIG. Created in. As shown in FIG. 14, the changeable front-end port information 79 includes a physical storage ID column 79A, a physical storage device port ID column 79B, a port name column 79C, and a remaining bandwidth column 79D.
  • the access path change destination with the host computer 2 among the front end ports 24A (FIG. 3) in the physical storage device 3 constituting the corresponding virtual logical volume VVOL is displayed.
  • the port ID of the front end port 24A having the remaining bandwidth to be obtained is stored, and the physical storage device ID of the physical storage device 3 including the front end port 24A is stored in the physical storage device ID column 79A.
  • the port name column 79C stores the port name of the front end port 24A displayed on the access path diagnosis result screen 90 and the like described later with reference to FIG. 17, and the remaining bandwidth column 79D stores the corresponding virtual logical volume VVOL. The remaining bandwidth of the corresponding front-end port 24A when it is assumed that there is no data input / output to is stored.
  • the change-target front-end port information 80 is the same between the host computer 2 and the virtual storage system VST even when considering the remaining bandwidth of the back-end port 24B among the front-end ports 24A registered in the changeable front-end port information 79. Is a list of front-end ports 24A to which paths that can be changed destinations of access paths for connecting are connected. In the change target front-end port information 80, one front-end port 24A is registered for one virtual logical volume VVOL. The change target front-end port information 80 is created in an access path search process described later with reference to FIG.
  • the change target front-end port information 80 includes a physical storage device ID column 80A, a physical storage device port ID column 80B, a port name column 80C, a remaining bandwidth column 80D, a host computer ID column 80E, and a virtual logical It consists of a volume ID column 80F.
  • the physical storage device port ID column 80B stores the port ID of the front-end port 24A to which the path that can be changed is connected, and the physical storage device ID column 80A contains the physical with the corresponding front-end port 24A.
  • the physical storage device ID of the storage device 3 is stored.
  • the port name column 80C stores the port name of the front end port 24A displayed on the access path diagnosis result screen 90 and the like described later with reference to FIG. 17, and the remaining bandwidth column 80D stores the corresponding front end port 24A. Is stored.
  • the host computer ID column 80E stores the host computer ID of the host computer 2 connected to the corresponding front-end port 24A, and the virtual logical volume ID column 80F can be accessed via the front-end port 24A. Stores the volume ID of the virtual logical volume VVOL.
  • the back-end port pair information 81 to be changed includes one physical to which a back-end path that can be an access path change destination is connected among paths connecting the physical storage devices 3 (hereinafter referred to as a back-end path). It is a list of groups of back end ports 24B of the storage apparatus 3 and back end ports 3 of the other physical storage apparatus 3 (hereinafter referred to as back end port pairs). In the back-end port pair information 81 to be changed, one back-end port pair is registered for each physical storage device 3. The change-target back-end port pair information 81 is created in the back-end port pair search process described later with reference to FIG.
  • the change-target back-end port pair information 81 includes a physical storage device ID-A column 81A, a physical storage device port ID-A column 81B, a physical storage device ID-B column 81C, and a physical storage device port ID. -B column 81D, host computer ID column 81E, and virtual logical volume ID column 81F.
  • the physical storage device ID-A column 81A and the physical storage device port ID-A column 81B the physical storage device ID of one physical storage device 3 to which the back-end path corresponding to the entry (row) is connected, respectively. And the port ID of the port to which the back-end path in the physical storage device 3 is connected, respectively, and the physical storage device ID-B column 81C and the physical storage device port ID-B column 81D respectively.
  • the physical storage device ID of the other physical storage device 3 to which the end path is connected and the port ID of the port to which the back end path of the physical storage device 3 is connected are stored.
  • the host computer ID column 81E stores the host computer ID of the host computer 2 that uses the corresponding back-end path as an access path.
  • the virtual logical volume ID column 81F stores the host computer ID via the back-end path. 2 stores the volume ID of the virtual logical volume VVOL accessible by 2.
  • FIG. 17 shows a configuration example of an access path diagnosis result screen 90 that can be displayed on the management client 5 by a predetermined operation.
  • This access path diagnosis result screen 90 displays the operating status of the access path used when the host computer 2 accesses the virtual logical volume VVOL, detected by the access path diagnosis process described later with reference to FIGS. 20A and 20B. This is a GUI screen.
  • the access path diagnosis result screen 90 includes an access path operating status list 91 and a close button 92.
  • the access path operation status list 91 is a list of diagnosis results for the operation status of each access path from the host computer 2 to each virtual logical volume VVOL, and is composed of a diagnosis result column 91A, a host name column 91B, and a virtual logical volume column 91C. Is done.
  • the host name column 91B displays the name (host name) of the host computer 2 to which the corresponding access path is connected, and the virtual logical volume column 91C can be accessed by the host computer 2 via the access path.
  • the virtual logical volume ID of the virtual logical volume VVOL is displayed.
  • diagnosis result column 91A the diagnosis result for the corresponding access path is displayed.
  • the diagnostic results include “warning” and “normal”.
  • Warning indicates that it is determined that there is a problem with the access path as a result of diagnosing the corresponding access path.
  • “there is a problem in the access path” means that the front end port 24A (see FIG. 4) to which the access path in the physical storage device 3 directly connected to the host computer 2 via the access path is connected.
  • “Normal” indicates that it is determined that there is no problem in the access path as a result of diagnosing the corresponding access path.
  • “no problem in access path” means that the remaining bandwidth of the front-end port 24A (FIG. 3) of the physical storage device 3 to which the access path is connected is equal to or greater than the port free bandwidth threshold.
  • the remaining bandwidth of all the back-end ports 24B in these physical storage devices 3 to which the back-end path used as an access path from the physical storage device 3 to another physical storage device 3 is connected is the port.
  • the amount of data larger than the data bias threshold The state where the data of is stored.
  • the system administrator clicks the character string 91AA representing the diagnosis result ("warning" or "normal") displayed in the desired diagnosis result column 91A of the access path operating state list 91, thereby accessing the access path diagnosis result screen.
  • an access path diagnosis result detail screen 100 as shown in FIG. 18 can be displayed.
  • clicking a close button 92 the access path diagnosis result screen 90 can be closed.
  • the access path diagnosis result detail screen 100 is a GUI screen for displaying details of an access path diagnosis result designated on the access path diagnosis result screen 90 (clicking on the character string 91AA representing the diagnosis result). As shown in FIG. 18, the access path diagnosis result detail screen 100 includes a diagnosis result detail display field 101, a search button 102, and a close button 103.
  • the host computer 2 and a pictorial symbol 101A schematically representing each physical storage device 3 constituting the corresponding virtual logical volume VVOL in the virtual storage device VST, and a virtual symbol from the host computer 2 are displayed.
  • a representing line 101C and the like are displayed.
  • Information indicating the I / O ratio (“direct I / O ratio”) 101D and information indicating the remaining bandwidth of the front-end port 24A (FIG. 3) or back-end port 24B to which the corresponding access path is connected ( “Remaining bandwidth”) 101E and the like are displayed.
  • a warning mark 101F indicating this is displayed at a problem location.
  • the data corresponding to the data amount less than the data bias threshold is stored among the data stored in the corresponding virtual logical volume VVOL. If not, a warning mark 101F is displayed in the host computer 2.
  • the remaining bandwidth of the front end port 24A (FIG. 3) to which the access path is connected in the physical storage device 3 directly connected to the host computer 2 via the access path is less than the port free bandwidth threshold described above.
  • a warning mark 101F is displayed in the vicinity of the line 101B representing the access path connecting the host computer 2 and the physical storage device 3.
  • the remaining bandwidth of one of the back-end ports 24B in the physical storage device 3 to which the back-end path used as an access path from the physical storage device 3 to another physical storage device 3 is connected is described above. If it is less than the port available bandwidth threshold, a warning mark 101F is displayed near the line 101C representing the access path connecting these physical storage apparatuses 3.
  • the system administrator can close the access path diagnosis result detail screen 100 by clicking the close button 103, and can search for the optimum access path as the access path switching destination by clicking the search button 102. It is possible to cause the management computer 4 to execute the access path search process (FIG. 22).
  • FIG. 19 shows the access path displayed on the management client 5 as the processing result of the access path search process instead of the access path diagnosis result detail screen 100 after the above access path search process is executed in the management computer 4.
  • the structural example of the change screen 110 is shown.
  • the access path change screen 110 includes a pre-update state display field 111, a post-update state display field 112, a change button 113, and a close button 114.
  • the contents displayed in the diagnosis result detail display field 101 of the immediately preceding access path diagnosis result detail screen 100 are displayed as they are.
  • the post-update state display field 112 the optimum access path between the host computer 2 and the physical storage device 3, the inside of the physical storage device 3, and between the physical storage devices 3 detected by the access path search process is displayed before the update. It is displayed in the same display form as the status display field 111.
  • the pre-update status display field 111 and post-update status display field 112 are directly connected to the access path from the host computer 2 among the I / Os issued from the host computer 2 to the corresponding virtual logical volume VVOL.
  • Information (“direct I / O ratio”) 111D, 112D, the front end port 24A (FIG. 3) or the back end port to which the corresponding access path is connected Information indicating the remaining bandwidth of 24B (“remaining bandwidth”) 111E, 112E, etc. is displayed. Further, the above-mentioned warning mark 111F is also displayed in the diagnosis result detail display field at a problem location.
  • the system administrator desires to change the access path from the host computer 2 to the virtual logical volume VVOL to the state displayed in the post-update state display field 112, the system administrator clicks the change button 113.
  • the access path from the host computer 2 to the virtual logical volume VVOL is changed to the access path displayed in the post-update status display field 112.
  • the system administrator can close this access path change screen 110 by clicking the close button 114 without changing the access path from the host computer 2 to the virtual logical volume VVOL.
  • the access path diagnosis unit 60 When the access path diagnosis unit 60 receives the access path diagnosis request from the management client 5, the access path diagnosis unit 60 starts the access path diagnosis process shown in FIGS. 20A and 20B.
  • the access path diagnosis unit 60 first acquires a data bias threshold and a port free bandwidth threshold from the data bias threshold management table 75 (SP1), and thereafter, all entries of the virtual logical volume management table 71 (FIG. 8). Information is acquired (SP2).
  • the access path diagnosis unit 60 selects one entry that has not been processed in steps SP3 to SP9 from the entries whose information has been acquired in step SP2 (SP3), and the virtual logical volume corresponding to the entry. It is determined whether or not the VVOL is a virtual logical volume VVOL to be excluded from access path diagnosis processing (SP4). Specifically, the access path diagnosis unit 60 registers the virtual logical volume ID stored in the virtual logical volume ID column 71A (FIG. 8) of the entry selected in step SP3 in the exclusion target volume management table 76 in step SP4. It is judged whether it is done.
  • step SP4 When the access path diagnosis unit 60 obtains a positive result in step SP4, it returns to step SP3, and thereafter repeats the loop of step SP3-step SP4-step SP3 until a positive result is obtained in step SP4.
  • the access path diagnosis unit 60 obtains a negative result in step SP4, it calls the data deviation calculation unit 54 (FIG. 6), and the virtual logical volume of the entry of the virtual logical volume management table 71 selected in step SP3.
  • the virtual logical volume ID stored in the ID column 71A and the host computer ID stored in the host computer ID column 71B are given as arguments to the data bias calculation unit 54 (SP5).
  • a data bias calculation process (FIG. 21), which will be described later, is executed by the data bias calculator 54, and data bias information 77 (FIG. 12) for the virtual logical volume VVOL corresponding to the entry selected in step SP3 is created.
  • the access path diagnosis unit 60 based on the data bias information 77 created by the data bias calculation unit 54 in step SP5, and the data bias threshold and the port free bandwidth threshold acquired in step SP1, from the host computer 2 It is then determined whether there is a problem in the access path to the target virtual logical volume VVOL (SP6). This determination is used for data transfer between the physical storage devices 3 among the paths connecting the physical storage device 3 directly connected to the host computer 2 via the access path and the other physical storage devices 3. The ratio of the current used bandwidth (access amount) to the maximum bandwidth of the path is
  • the access path diagnosis unit 60 determines whether or not the target virtual logical volume VVOL satisfies at least one of the following conditions (A) to (C).
  • the physical storage device corresponding to the entry in which “true” is stored in the access path information column 77D that is, the physical storage directly connected to the host computer 2 via the access path
  • the maximum usable bandwidth of the front end port 24A to which the access path to the host computer 2 is connected (hereinafter referred to as the maximum bandwidth).
  • the ratio of the remaining bandwidth of the front end port 24A with respect to the call) is smaller than the port free bandwidth threshold acquired in step SP1.
  • condition (A) described above is a condition for detecting a bias in data input / output to / from physical storage devices 3 other than the physical storage device 3 directly connected to the host computer 2 via an access path.
  • the access path diagnosis unit 60 obtains a positive result in the determination at step SP6 (when at least one of the above three conditions is satisfied), there is a problem with the target virtual logical volume VVOL in the access path.
  • a warning virtual logical volume representing a certain virtual logical volume VVOL is classified (SP7).
  • the access path diagnosis unit 60 accesses the target virtual logical volume VVOL.
  • the virtual logical volume VVOL having no path problem is classified as a normal virtual logical volume (SP8).
  • the access path diagnosis unit 60 determines whether or not the processing of step SP4 to step SP8 has been executed for all entries of the virtual logical volume management table 71 (SP9). If the access path diagnosis unit 60 obtains a negative result in this determination, it returns to step SP3, and thereafter repeats the processing of step SP3 to step SP9 until an affirmative result is obtained in step SP9.
  • the access path diagnosis unit 60 When the access path diagnosis unit 60 eventually classifies all the virtual logical volumes VVOL registered in the virtual logical volume management table 71 into warning virtual logical volumes or normal virtual logical volumes, it obtains a positive result in step SP9. , The access path of the virtual logical volume ID, host name, and attribute information indicating whether it is a warning virtual logical volume or a normal virtual logical volume of all virtual logical volumes VVOL registered in the virtual logical volume management table 71 As diagnosis result information, it is transmitted to the management client 5 together with a display command of the access path diagnosis result screen 90 (FIG. 17) (SP10).
  • SP10 display command of the access path diagnosis result screen 90
  • the management client 5 that has received the display command and the access path diagnosis result information displays the access path diagnosis result screen 90 described above with reference to FIG. 17 based on the access path diagnosis result information.
  • the management client 5 sets the warning virtual logical volume in the access path in the diagnosis result column 91A (FIG. 17) of the corresponding entry in the diagnosis result list 91 (FIG. 17) in the access path diagnosis result screen 90.
  • a character string 91AA (FIG. 17), which is information indicating that there is a problem, is displayed.
  • the “normal” character string 91AA which is information to be displayed, is displayed.
  • the access path diagnosis unit 60 stores the “warning” or “normal” character string 91AA stored in the close button 92 of the access path diagnosis result screen 90 or the diagnosis result column 91A of the diagnosis result list 91. Waiting for a click (SP11, SP12).
  • the access path diagnosis unit 60 instructs the management client 5 to close the access path diagnosis result screen 90 (SP17), and thereafter ends this access path diagnosis process.
  • the access path diagnosis unit 60 described above with reference to FIG.
  • the display instruction of the access path diagnosis result detail screen 100 and various information necessary for display of the access path diagnosis result detail screen 100 are transmitted to the management client 5 (SP13).
  • the access path diagnosis result detail screen 100 is displayed by the management client 5.
  • the access path diagnosis unit 60 waits for the close button 103 or the search button 102 on the access path diagnosis result detail screen 100 to be clicked (SP14, SP15). Then, when the close button 103 is clicked, the access path diagnosis unit 60 instructs the management client 5 to close the access path diagnosis result detail screen 100 (SP17), and thereafter ends this access path diagnosis process. .
  • the access path diagnosis unit 60 calls the access path search unit 61 (FIG. 6) and makes the access path search unit 61 the target virtual logical volume at that time. After giving the virtual logical volume ID of the VVOL, the host computer ID of the host computer 2, and the access path search processing execution command (SP16), the access path diagnosis processing is terminated.
  • FIG. 21 is executed by the data bias calculation unit 54 (FIG. 6) called by the access path diagnosis unit 60 in step SP5 of the access path diagnosis processing (FIGS. 20A and 20B) described above.
  • the processing procedure of the data bias calculation process to be performed is shown.
  • the data bias calculation unit 54 When the data bias calculation unit 54 receives an access path search process execution command from the access path diagnosis unit 60, the data bias calculation unit 54 starts the data bias calculation process shown in FIG. ), The virtual logical volume ID of the target virtual logical volume VVOL and the host computer ID of the host computer 2 are sequentially received (SP20, SP21).
  • the data bias calculation unit 54 has the same virtual logical volume ID as the virtual logical volume ID of the target virtual logical volume VVOL received in step SP20 among the entries of the page management table 72 (FIG. 9). Information of all entries (rows) stored in 72B (FIG. 9) is acquired (SP22).
  • the data bias calculation unit 54 temporarily creates data bias information 77 (FIG. 6) by executing the following (A) to (C) based on the information acquired in step SP22 (SP23).
  • the data bias calculation unit 54 among the entries of the path management table 70 (FIG. 7), the virtual logical volume ID stored in the virtual logical volume ID column 70A (FIG. 7) and the host computer ID column 70B (FIG. 7). 7)
  • the host computer ID stored in 7) is searched for the same entry as the virtual logical volume ID and host computer ID received in step SP20 and step SP21, respectively.
  • the entry information is acquired from the path management table 70 (SP24).
  • the data bias calculation unit 54 is directly connected to the host computer 2 among the plurality of physical storage devices 3 constituting the target virtual logical volume VVOL based on the information acquired in step SP24.
  • the physical storage device 3 is identified, “true” is stored in the access path information column 77D (FIG. 12) of the entry corresponding to the physical storage device 3 among the entries of the data bias information 77, and other entries “False” is stored in the access path information column 77D (SP25).
  • Data bias information 77 is completed by the above processing. Then, the data bias calculation unit 54 thereafter ends this data bias calculation process.
  • the access path search unit 61 that has received the access path search instruction searches for a path that can be an access path change destination when the target host computer 2 accesses the target virtual logical volume VVOL according to the processing procedure shown in FIG. .
  • the access path search unit 61 starts the access path search process shown in FIG. 22 when called by the access path diagnosis unit 60.
  • the virtual path of the target virtual logical volume VVOL given from the access path diagnosis unit 60 is started.
  • the logical volume ID and the host computer ID of the target host computer 2 are received (SP30, SP31).
  • the access path search unit 61 calls the data bias calculation unit 54 (FIG. 6) using the virtual logical volume ID and host computer ID received in step SP30 and step SP31 as arguments (SP32).
  • the data bias calculation unit 54 called by the access path search unit 61 executes the data bias calculation process described above with reference to FIG. 21, thereby obtaining the data bias information 77 (FIG. 12) corresponding to the target virtual logical volume VVOL. create.
  • the access path search unit 61 calls the remaining bandwidth corrected port information creation unit 55 using the virtual logical volume ID and host computer ID received in step SP30 and step SP31 as arguments (SP33).
  • the remaining bandwidth corrected port information creation unit 55 called by the access path search unit 61 executes the remaining bandwidth corrected port information creation process described later with reference to FIG. 23, thereby transferring data to the target virtual logical volume VVOL.
  • the remaining bandwidth of each port of each physical storage device 3 constituting the target virtual logical volume VVOL is calculated, and the remaining bandwidth corrected port information 78 (corresponding to the target virtual logical volume VVOL based on the calculation result) FIG. 13) is created.
  • the access path search unit 61 calls the front end port search unit 56 (FIG. 6) (SP34).
  • the front-end port search unit 56 called by the access path search unit 61 executes the front-end port search process described later with reference to FIG. 24, whereby each of the physical storage devices 3 constituting the target virtual logical volume VVOL.
  • the front end port 24A From the front end port 24A, the front end port 24A to which the front end path that can change the access path with the host computer 2 is searched, and the target virtual logical volume VVOL is supported based on the search result.
  • the changeable front end port information 79 (FIG. 14) is created.
  • the access path search unit 61 performs the processing of steps SP36 to SP39 from the front end port 24A registered in the changeable front end port information 79 created by the front end port search unit 56 in step SP34.
  • One front-end port 24A of the physical storage device 3 that has not been executed yet and has the largest total transfer amount is selected (SP35).
  • the access path search unit 61 calls the back end port pair search unit 57 using the physical storage device ID of the physical storage device 3 including the front end port 24A selected in step SP35 as an argument (SP36).
  • SP36 the back-end port pair search unit 57 called by the access path search unit 61 executes a back-end port pair search process described later with reference to FIG.
  • the access path search unit 61 determines whether or not the return value from the backend port pair search unit 57 is “false” (SP37). If the access path search unit 61 obtains an affirmative result in this determination, it returns to step SP35. Thereafter, the access path search unit 61 sequentially switches the entry selected in step SP35 to one having a small total transfer amount, while step SP35 to step SP38. Repeat the process.
  • the access path search unit 61 When the access path search unit 61 obtains a negative result in the determination at step SP37, it receives the front end port 24A corresponding to the entry of the changeable front end port information 79 selected at step SP35 at step SP30. Front-end port information 80 to be changed as a front-end port that can be used to change the access path between the host computer 2 and the physical storage device 3 used when accessing the virtual logical volume VVOL to which the virtual logical volume ID is assigned (see FIG. 15).
  • the physical storage device 3 (that is, the target virtual logical volume) having a larger total transfer amount of data input to and output from the target virtual logical volume VVOL. Even when considering the remaining bandwidth of the back end port 24B from the front end port 24A of the physical storage device 3) allocating the most storage area to the VVOL, the host computer 2 and the virtual storage device VST are connected. The front end port 24A to which the path that can be the access path change destination is connected is selected, and this is registered in the change target front end port information 80.
  • the access path search unit 61 calls the access path display unit 62 with information necessary for displaying the access path change screen 110 described above with reference to FIG. 19 as an argument (SP40).
  • the access path display unit 62 displays the access path change screen 110 in which the change content recommended as the access path change content is described in the post-update status display field 112 based on the information given as an argument.
  • the access path search unit 61 thereafter ends this access path search process.
  • the access path search unit 61 executes the processing of step SP35 to step SP38 for all the front end ports 24A registered in the changeable front end port information 79, but does not obtain an affirmative result in step SP37.
  • the management client 5 displays information indicating that there is no option that can improve the performance by changing the access path. Incidentally, information indicating how much data stored in the corresponding virtual logical volume VVOL is distributed to the physical storage devices 3 other than the physical storage device 3 directly connected to the host computer 2 via the access path is managed. In addition to displaying on the client 5, the user is asked how much data should be concentrated on the physical storage device 3 directly connected to the host computer 2 via the access path, and the data is moved based on the user's response. Also good.
  • data movement may be automatically executed based on a predetermined condition.
  • the access path option cannot be selected due to a lack of remaining bandwidth of the front-end port or the back-end port
  • information recommending that the port of the physical storage device 3 be added is sent to the management client 5. You may make it display.
  • the access path search unit 61 thereafter ends this access path search process.
  • FIG. 23 shows the remaining bandwidth corrected port information creation unit 55 called by the access path search unit 61 in step SP33 of the access path retrieval processing (FIG. 22). The specific processing procedure of the remaining bandwidth corrected port information creation processing to be executed is shown.
  • the remaining band corrected port information creating unit 55 When called by the access path search unit 61, the remaining band corrected port information creating unit 55 starts this remaining band corrected port information creating process, and first duplicates the port management table 73 (FIG. 10) to copy the remaining band.
  • the corrected port information 78 (FIG. 13) is temporarily created (SP50). Further, the remaining bandwidth corrected port information creation unit 55 acquires information of all entries from the page management table 72 (FIG. 9) (SP51).
  • the remaining bandwidth corrected port information creation unit 55 sends the virtual logical volume ID of the target virtual logical volume VVOL given as an argument from the call source (here, the access path search unit 61), and the host computer of the target host computer 2 ID is received (SP52), and thereafter, one entry (logical page LP) is selected from each entry of the page management table 72 for which information has been acquired in step SP52 (SP53).
  • the remaining bandwidth corrected port information creating unit 55 fills the physical storage device port ID column 72G (FIG. 9) of the entry selected in step SP53 among the entries of the remaining bandwidth corrected port information 78 provisionally created in step SP50.
  • An entry in which the same port ID as the stored port ID is stored in the physical storage device port ID column 78B (FIG. 13) is searched and stored in the remaining bandwidth column 78D (FIG. 13) of the entry detected by the search.
  • the transfer amount stored in the transfer amount column 72E (FIG. 9) of the entry selected in step SP53 is added to the remaining bandwidth that has been set (SP54).
  • the corresponding physical storage apparatus 3 when there is no data input / output to / from the target logical page (referred to as the logical page corresponding to the entry selected in step SP53) LP of the target virtual logical volume VVOL at that time.
  • the remaining bandwidth of the corresponding port is calculated.
  • the remaining bandwidth corrected port information creation unit 55 among the entries of the remaining bandwidth corrected port information 78 temporarily created in step SP50, the physical storage device port ID column 72G of the entry selected in step SP53 (FIG. 9). Whether or not “true” is stored in the back-end information column 78E (FIG. 13) of the entry in which the same port ID as the port ID stored in is stored in the physical storage device port ID column 78B (FIG. 13) Is determined (SP55).
  • step SP53 to obtain a negative result in this determination means that the data stored in the logical page corresponding to the entry selected in step SP53 is held in the physical storage device 3 in which the host computer 2 and the access path are directly connected. Means that Thus, at this time, the remaining band corrected port information creation unit 55 proceeds to step SP58.
  • obtaining a positive result in the determination in step SP55 means that the data stored in the logical page corresponding to the entry selected in step SP53 is the physical storage device in which the host computer 2 and the access path are directly connected. It means that it is held in a physical storage device 3 other than 3.
  • the remaining bandwidth corrected port information creation unit 55 refers to the port pair management table 74 (FIG. 11) and is stored in the physical storage device port ID column 72G (FIG. 9) of the entry selected in step SP53.
  • a port ID of a port constituting a back-end port pair with a port to which a given port ID is assigned (hereinafter referred to as a target port) is acquired (SP56).
  • the port ID acquired at this time is the back end port 24B connected to the target port via the access path among the ports of the physical storage device 3 directly connected to the host computer 2 via the access path. Port ID.
  • the remaining bandwidth corrected port information creation unit 55 searches the port pair management table 74 for an entry satisfying all the following conditions (A) to (E), and the physical storage of the entry detected by the search: Of the port IDs stored in the device port ID-A column 74B (FIG. 11) and the physical storage device port ID-B column 74D (FIG. 11), the physical storage device port ID column 72G ( A port ID different from the port ID stored in FIG. 9) is acquired.
  • the remaining bandwidth corrected port information creation unit 55 is connected to the host computer 2 via the access path among the ports of the physical storage device 3 including the back-end port 24B to which the port ID obtained in step SP56 is assigned.
  • the port ID of the designated port is acquired (SP57).
  • the port ID acquired at this time is the front-end port 24A to which the access path is connected among the ports of the physical storage device 3 directly connected to the host computer 2 via the access path.
  • the remaining bandwidth corrected port information creation unit 55 searches the port pair management table 74 (FIG. 11) for an entry that satisfies all the following conditions (A) to (D), and detects the entry by the search.
  • the physical storage device port of the entry selected in step SP53 A port ID different from the port ID stored in the ID column 72G (FIG. 9) is acquired.
  • the same port ID as the port ID acquired in step SP56 is stored in either the physical storage device port ID-A column 74B or the physical storage device port ID-B column 74D.
  • “true” is stored in the access path information column 74F (FIG. 11).
  • C) The same virtual logical volume ID as the virtual logical volume ID received in step SP52 is stored in the virtual logical volume ID column 74G (FIG. 11).
  • D) The same host computer ID as the host computer ID received in step SP52 is stored in the host computer ID column 74H (FIG. 11).
  • the remaining bandwidth corrected port information creation unit 55 has the same port ID as the port ID acquired in step SP56 among the entries of the remaining bandwidth corrected port information 78 (FIG. 13).
  • the entry stored in FIG. 13) is searched, and the transfer amount column 72E of the entry selected in step SP53 is added to the remaining bandwidth stored in the remaining bandwidth column 78D of the entry detected by the search (FIG. 9). Is added to the transfer amount (SP58).
  • the remaining bandwidth corrected port information creation unit 55 has the same port ID as the port ID acquired in step SP57 among the entries of the remaining bandwidth corrected port information 78 (FIG. 13).
  • the entry stored in (FIG. 13) is searched, and the transfer amount column 72E of the entry selected in step SP53 (FIG. 9) is added to the remaining bandwidth stored in the remaining bandwidth column 78D of the entry detected by the search.
  • the transfer amount stored in () is added (SP58).
  • the remaining bandwidth corrected port information creation unit 55 determines whether or not the processing of step SP53 to step SP58 has been executed for all entries of the page management table 72 (FIG. 9) (SP59). When the remaining band corrected port information creation unit 55 obtains a negative result in this determination, it returns to step SP53, and then sequentially switches the entry of the page management table 72 selected in step SP53 to another unprocessed entry. The processing from step SP53 to step SP59 is repeated until a positive result is obtained in step SP59.
  • the remaining bandwidth corrected port information 78 in which the remaining bandwidth of each port of each physical storage device 3 when there is no data input / output with respect to the target virtual logical volume VVOL can be completed.
  • step SP59 When the remaining band corrected port information creation unit 55 eventually obtains a positive result in step SP59 by completing the processing of step SP53 to step SP58 for all entries in the page management table 72, this remaining band corrected port is obtained.
  • FIG. 24 shows a front end port search process executed by the front end port search unit 56 called by the access path search unit 61 in step SP34 of the access path search process (FIG. 22). The specific processing procedure of is shown.
  • the front end port search unit 56 When called by the access path search unit 61, the front end port search unit 56 starts this front end port search process. First, the data bias information 77 (FIG. 12), the remaining band corrected port information 78 (FIG. 13) and The data bias threshold and the port free bandwidth threshold stored in the data bias threshold management table 75 are sequentially acquired (SP60 to SP62).
  • the front-end port search unit 56 selects one entry from the entries of the data bias information 77 acquired in step SP60 (SP63), and among the entries of the remaining bandwidth corrected port information 78, in step SP63.
  • the entry corresponding to each front end port 24A of the physical storage device 3 corresponding to the selected entry is searched, and the information of all corresponding entries is acquired from the remaining bandwidth corrected port information 78 (SP64).
  • the front end port search unit 56 searches the entries of the remaining bandwidth corrected port information 78 for entries that satisfy both of the following conditions (A) and (B), and information on all corresponding entries: Is acquired from the remaining band corrected port information 78.
  • A The same physical storage device ID as the physical storage device ID stored in the physical storage device ID column 77A (FIG. 12) of the entry of the data bias information 77 selected in step SP63 is the physical storage device ID column 78A (FIG. 13).
  • “false” is stored in the back-end port information column 78E (FIG. 13).
  • the front-end port search unit 56 selects one entry from the entries of the remaining bandwidth corrected port information 78 detected by the search in step SP64 (SP65).
  • the front-end port search unit 56 sets the total transfer amount of the physical storage device 3 corresponding to the entry of the data bias information 77 selected in step SP63 as the entry of the remaining bandwidth corrected port information 78 selected in step SP65. It is determined whether or not the value subtracted from the remaining bandwidth of the corresponding front end port 24A is equal to or greater than the port free bandwidth threshold (SP66). This determination is made by acquiring the total transfer amount stored in the total transfer amount column 77B (FIG. 12) of the entry of the data bias information 77 selected in step SP63, and using the acquired total transfer amount in the entry selected in step SP65. This is performed by subtracting from the remaining bandwidth stored in the remaining bandwidth column 78D (FIG. 13) and determining whether the subtraction result is equal to or greater than the port free bandwidth threshold.
  • SP66 port free bandwidth threshold
  • the front-end port search unit 56 determines whether or not the processing of step SP66 has been executed for all the entries detected in the search of step SP64 (SP67). Further, when the front end port search unit 56 obtains a negative result in this determination, it returns to step SP65, and thereafter repeats the processing of step SP65 to step SP67 until a positive result is obtained in step SP66 or step SP67.
  • step SP66 If the front end port search unit 56 does not obtain a positive result in step SP66 for the front end port 24A corresponding to each entry detected by the search in step SP64 but obtains a positive result in step SP67, the process proceeds to step SP69. .
  • the front end port search unit 56 obtains a positive result in the determination at step SP66 for any one of the front end ports 24A corresponding to each entry detected by the search at step SP64. Then, the front end port 24A is registered in the changeable front end port information 79 (FIG. 14) (SP68), and then the process proceeds to step SP69.
  • the front-end port search unit 56 determines whether or not the processing of steps SP63 to SP68 has been executed for all entries of the data bias information 77 (SP69). If the front end port search unit 56 obtains a negative result in this determination, it returns to step SP63, and thereafter, the entry selected in step SP63 is sequentially switched to another unprocessed entry, and the processing of step SP63 to step SP69 is performed. repeat.
  • Front end port information 79 will be sequentially registered.
  • step SP63 finishes executing the processing of step SP63 to step SP68 for all entries of the data bias information 77, and obtains a positive result in step SP69, the front end port search processing ends. .
  • FIG. 25 shows the backend port executed by the backend port pair search unit 57 called by the access path search unit 61 in step SP36 of the access path search process (FIG. 22). A specific processing procedure of the pair search processing is shown.
  • the back-end port pair search unit 57 creates a copy of the data bias information 77 (FIG. 12) (SP71), and among the entries in the created copy of the data bias information 77, the physical received in step SP70.
  • the back-end port pair search unit 57 acquires the remaining band corrected port information 78 (SP73).
  • the back-end port pair search unit 57 refers to the port pair management table 74 (FIG. 11) and relates to the back-end port 24B (FIG. 3) of the physical storage device 3 to which the physical storage device ID received in step SP70 is assigned.
  • the entry is searched on the port pair management table 74, and information on all entries detected by the search is acquired (SP74).
  • the back-end port search unit 57 acquires information on entries that satisfy both of the following two conditions among the entries in the port pair management table 74.
  • step SP70 The same physical storage device ID as the physical storage device ID received in step SP70 is stored in either the physical storage device port ID-A column 74B or the physical storage device port-B column 74D.
  • B “true” is stored in the physical storage device port pair information column 74E (FIG. 11).
  • the back-end port pair search unit 57 obtains the port free bandwidth threshold from the data bias threshold management table 75 (SP75), and then selects one of the entries in the port pair management table 74 detected by the search at step SP74. One entry is selected (SP76).
  • the back-end port pair search unit 57 sets the physical storage device ID received in step SP70 for the two back-end ports 24B (FIG. 3) constituting the back-end port pair corresponding to the entry selected in step SP76.
  • the assigned physical storage device 3 is directly connected to the host computer 2, it is determined whether or not the remaining bandwidths of these two back-end ports 24B are both equal to or larger than the port free bandwidth value threshold value (SP77).
  • the back-end port pair search unit 57 uses the physical storage device for the entry of the port pair management table 74 selected in step SP76 among the entries of the remaining bandwidth corrected port information 78 (FIG. 13) acquired in step SP73.
  • the entry in which the port ID is stored in the physical storage device ID column 78A (FIG. 13) and the physical storage device port ID column 78B (FIG. 13) is searched and stored in the remaining bandwidth column 78D (FIG. 13) of the entry. Get the remaining bandwidth that is being used.
  • the back-end port pair search unit 57 stores the entry in the physical storage device ID-A column 74A (FIG. 11) from among the duplicate entries of the data bias information 77 from which the information of one entry has been deleted in step SP72.
  • the entry in which the physical storage device ID is stored in the physical storage device ID column 77A (FIG. 12) is searched, and the total transfer amount stored in the total transfer amount column 77B (FIG. 12) of the entry is acquired.
  • the back-end port pair search unit 57 subtracts the total transfer amount from the remaining bandwidth, and determines whether the subtraction result is equal to or greater than the port free bandwidth threshold (first determination).
  • the back-end port pair search unit 57 uses the physical storage device ID for the entry of the port pair management table 74 selected in step SP76 among the entries of the remaining bandwidth corrected port information 78 (FIG. 13) acquired in step SP73.
  • the entry whose ID is stored in the physical storage device ID column 78A (FIG. 13) and the physical storage device port ID column 78B (FIG. 13) is searched, and stored in the remaining bandwidth column 78D (FIG. 13) of the entry. Get the remaining bandwidth.
  • the back-end port pair search unit 57 stores the entry in the physical storage device ID-B column 74C (FIG. 11) from among the duplicate entries of the data bias information 77 from which the information of one entry has been deleted in step SP72.
  • the entry in which the physical storage device ID is stored in the physical storage device ID column 77A (FIG. 12) is searched, and the total transfer amount stored in the total transfer amount column 77B (FIG. 12) of the entry is acquired.
  • the back-end port pair search unit 57 subtracts the total transfer amount from the remaining bandwidth, and determines whether the subtraction result is equal to or greater than the port free bandwidth threshold (second determination).
  • the back-end port pair search unit 57 If the back-end port pair search unit 57 obtains a negative result in at least one of the first and second determinations (SP77: NO), the back-end port pair search unit 57 returns to step SP76 and thereafter selects the entry selected in step SP76. Steps SP76 and after are repeated while sequentially switching to other entries.
  • the back-end port pair search unit 57 corresponds to the entry selected in step SP76.
  • the back-end port pair is additionally registered in the change-target back-end port pair information 81 (FIG. 16) (SP78).
  • the back-end port pair search unit 57 deletes the entry corresponding to the back-end port pair from the copy of the data bias information 77 (SP79). Specifically, the back-end port pair search unit 57 selects the physical storage device ID-A column 74A (FIG. 11) and physical storage device ID- of the entry selected in step SP76 from the duplicate entries of the data bias information 77. The entry in which the same physical storage device ID as the physical storage device ID stored in any of the B column 74C (FIG. 11) is stored in the physical storage device ID column 77A (FIG. 12) is deleted.
  • the back-end port pair search unit 57 determines whether or not the processing of step SP76 to step SP79 has been executed for all entries detected by the search of step SP74 (SP80). Then, when the backend port pair search unit 57 obtains a negative result in this determination, it returns to step SP76, and thereafter, the entry selected in step SP76 is sequentially switched to other unprocessed entries, while an affirmative result is obtained in step SP80. The processing from step SP76 to step SP80 is repeated until it is obtained.
  • step SP80 When the back-end port pair search unit 57 finally obtains a positive result in step SP80 by completing the processing of steps SP76 to SP79 for all entries detected by the search in step SP74, the data bias information 77 is empty. It is determined whether or not (SP81).
  • obtaining a negative result in the determination at step SP81 means that there is no back-end port pair registered in the change-target back-end port pair information 81.
  • the back-end port pair search unit 57 returns “false” to the call source access path search unit 61 (SP83), and thereafter ends this back-end port pair search process.
  • FIG. 26 shows access path display executed by the access path display unit 62 (FIG. 6) called by the access path search unit 61 in step SP40 of the access path search processing (FIG. 22). A specific processing procedure of the processing is shown.
  • the access path display unit 62 When called by the access path search unit 61, the access path display unit 62 starts this access path display process. First, the change target front-end port information 80 (FIG. 15) and the change target back-end port pair information 81 (FIG. 16). ) Is transmitted to the management client 5 for displaying the access path change screen 110 described above with reference to FIG. Thus, the access path change screen 110 based on this data is displayed on the management client 5.
  • the access path display unit 62 waits for the close button 114 (FIG. 19) or the change button 113 (FIG. 19) on the access path change screen 110 to be clicked (SP91, SP92). Then, the access path display unit 62 gives an instruction to the management client 5 to close the access path change screen 110 when the close button 114 is clicked, and then ends this access path display process.
  • the access path display unit 62 changes the access path from the host computer 2 to the corresponding virtual logical volume VVOL, and the access path displayed on the management client 5 at that time.
  • An instruction is given to the front-end port change control unit 58 (FIG. 6) to switch to the access path displayed in the post-update status display field 112 (FIG. 19) (SP93).
  • the front-end port change control unit 58 that has received such an instruction sets the access destination when accessing the corresponding virtual logical volume VVOL as the physical storage device of the corresponding entry in the change-target front-end port information 80 (FIG. 15).
  • the host computer 2 is instructed to change to the front-end port 24A to which the physical storage device port ID stored in the port ID column 80B (FIG. 15) is assigned, and the path management table 70 (FIG. 7) is updated. .
  • the host computer 2 changes the access destination when accessing the virtual logical volume VVOL to the front-end port 24A to which the physical storage device port ID is assigned.
  • FIG. 2) is updated.
  • the access path display unit 62 displays the access path between the physical storage apparatuses 3 for the corresponding virtual logical volume VVOL, and the updated status display field 112 of the access path change screen 110 displayed on the management client 5 at that time.
  • An instruction is given to the backend port change control unit 59 to switch to the access path displayed in FIG. 19 (SP94).
  • the back-end port change control unit 59 that has received such an instruction corresponds to the access path between each physical storage device 3 in the corresponding back-end port pair information 81 (FIG. 16) for the corresponding virtual logical volume VVOL.
  • To the corresponding physical storage device 3 to change to the path to be connected, and the path management table 70 (FIG. 7) is updated.
  • each physical storage device 3 that has received such an instruction automatically changes the access path to the other physical storage device 3 to the back-end port 24B to which the designated port ID is assigned according to this instruction.
  • the path management table 17 (not shown) in the apparatus is updated.
  • the access path display unit thereafter ends this access path display process.
  • FIG. 27 shows a processing procedure of access path automatic change processing executed by the access path diagnosis unit 60 (FIG. 6) of the management computer 4 when such access path automatic change mode is set in the management computer 4. .
  • the access path diagnosis unit 60 is started at a predetermined timing (for example, periodically by a timer according to the scheduling setting), or the host computer information collection unit 50 is After collecting necessary information from the host computer 2 or after the storage device information collection unit 51 collects necessary information from each physical storage device, the virtual machine having a problem with the access path from the host computer 2 is firstly started.
  • a warning virtual logical volume search process for searching for a logical volume (warning virtual logical volume) VVOL is executed (SP100).
  • the access path diagnosis unit 60 determines whether or not the warning virtual logical volume VVOL has been detected by the search in step SP100 (SP101). If the access path diagnosis unit 60 obtains a negative result in this determination, it terminates this access path automatic change process.
  • the access path diagnosis unit 60 obtains a positive result in the determination at step SP101, it selects one warning virtual logical volume VVOL from the warning virtual logical volumes VVOL detected by the search at step SP100 (SP102). .
  • the access path diagnosis unit 60 then accesses the virtual logical volume ID of the warning virtual logical volume VVOL selected in step SP102 and the host computer ID of the host computer 2 that can access the warning virtual logical volume VVOL as arguments.
  • the path search unit 61 (FIG. 6) is called (SP103).
  • the access path search unit 61 called by the access path diagnosis unit 60 accesses the access path between the host computer 2 and the physical storage device 3 and the access path in the physical storage device 3 and between the physical storage devices 3 optimally. Execute access path change processing to change to a path.
  • the access path diagnosis unit 60 determines whether or not the processing in step SP103 has been executed for all the warning virtual logical volumes VVOL detected by the search in step SP100 (SP104). If the access path diagnosis unit 60 obtains a negative result in this determination, the access path diagnosis unit 60 returns to step SP102. Thereafter, the access path diagnosis unit 60 sequentially switches the warning virtual logical volume VVOL selected in step SP102 to another unprocessed warning virtual logical volume VVOL. The processing from SP102 to step SP104 is repeated.
  • step SP104 When the access path diagnosis unit 60 eventually obtains a positive result in step SP104 by completing the process of step SP103 for all the warning virtual logical volumes VVOL detected by the search in step SP100, this access path automatic change process Exit.
  • FIG. 28 shows a specific processing procedure of the warning virtual logical volume search process executed by the access path diagnosis unit 60 in step SP100 of the access path automatic change process (FIG. 27). Since the processing from step SP110 to step SP118 of this warning virtual logical volume search processing is the same as the processing from step SP1 to step SP9 of the access path diagnosis processing described above with reference to FIG. 20A, detailed description thereof will be omitted.
  • FIG. 29 shows a specific processing procedure of the access path change process executed by the access path search unit 61 called by the access path diagnosis unit 60 in step SP103 of the access path automatic change process (FIG. 27).
  • the access path search unit 61 When called by the access path diagnosis unit 60 in a state where the access path automatic change mode is set, the access path search unit 61 starts the access path change process shown in FIG. 29, and performs the processes of steps SP120 to SP128. , The same processing as step SP30 to step SP38 of the access path search processing described above with reference to FIG. Thereby, the changeable front-end port information 79 (FIG. 14) in which the front-end port 24A that can be the access path change destination from the host computer 2 is registered, and within the physical storage device 3 and between the physical storage devices 3 Change target backend port pair information 81 (FIG. 16) in which a pair of backend ports 24B (backend port pair) to which a backend path that can be an access path change destination is connected is registered.
  • the changeable front-end port information 79 (FIG. 14) in which the front-end port 24A that can be the access path change destination from the host computer 2 is registered
  • Change target backend port pair information 81 (FIG
  • the access path search unit 61 performs the processing of step SP130 and step SP131 in the same manner as step SP93 and step SP94 of the access path display processing described above with reference to FIG.
  • the access path between the host computer 2 and the physical storage device 3 and the physical storage device 3 is switched.
  • a virtual logical volume VVOL having a problem with an access path is transferred from the host computer 2 to the virtual logical volume VVOL.
  • the physical storage device having a larger total transfer amount of data input / output to / from the virtual logical volume VVOL (that is, a larger storage area is allocated to the virtual logical volume VVOL and stored in the virtual logical volume VVOL). It is possible to change to a path connected to the physical storage device 3 that holds more data.
  • the access path diagnosis unit that determines whether or not the ratio of the access amount using the path connecting the physical storage apparatuses 3 exceeds a predetermined ratio, and the ratio of the access amount When the number exceeds the predetermined ratio, the path specified by the change destination path specifying unit for specifying the access path change destination and the path specified by the change destination path specifying unit are transferred from the host computer 2 to the virtual logical volume VVOL.
  • An access path changing unit for executing predetermined control processing for changing to a part of the access path of the host, and an access path from the host computer 2 including the path specified by the change destination path specifying unit to the virtual logical volume VVOL is displayed.
  • an access path display unit to be displayed on other devices by various program modules of the management computer 4 and the CPU 30.
  • the present invention is not limited to this, and the access path diagnosis unit, the change destination path identification unit, the access path change unit, and the access path display unit are configured by different devices. May be.
  • the host computer 2 responds when at least one of the three conditions (A) to (C) described above is satisfied with respect to step SP6 of the access path diagnosis process (FIGS. 20A and 20B).
  • step SP6 of the access path diagnosis process FIGGS. 20A and 20B.
  • the present invention is not limited to this, for example, access using a path in the data bias threshold table 75 (FIG. 6).
  • An amount ratio threshold value may be stored, and when the access amount using the path exceeds the threshold value, it may be determined that there is a problem with the access path from the host computer 2 to the virtual logical volume VVOL. .
  • all the configurations of the present embodiment described above can be applied to configurations other than this.
  • the management computer 4 causes the management client 5 to display the access path diagnosis result screen, the access path diagnosis result details screen, and the access path change screen has been described.
  • these screens may be displayed by the management computer 4 or may be displayed on a device other than the management client 5.
  • the present invention manages storage areas provided by each of a plurality of storage devices as a logical pool, provides a virtual volume associated with the logical pool to a host computer, and dynamically allocates a storage area from the logical pool to the virtual volume. It can be widely applied to computer systems.
  • SYMBOLS 1 ... Computer system, 2 ... Host computer, 3 ... Physical storage apparatus, 4 ... Management computer, 5 ... Management client, 6 ... SAN for host communication, 7 ... SAN for inter-device communication, 24A ... ... SAN port (front end port), 24B ... SAN port (back end port), 23 ... Physical storage device, 30 ... CPU, 31 ... Memory, 40 ... Control program, 41 ... Control data, 90 ... access path diagnosis result screen, 100 ... access path diagnosis result details screen, 110 ... access path change screen, PL ... cross-device pool, VOL ... logical volume, VVOL ... virtual logical volume.

Abstract

【課題】 データへのアクセス性能を向上させ得る管理装置及び管理方法を提案する。 【解決手段】 第1及び第2のストレージ装置がそれぞれ提供する記憶領域から構成される論理プールと対応付けられた仮想論理ボリュームをホスト計算機に提供し、当該仮想論理ボリュームに論理ボリュームから動的に記憶領域を割り当てる計算機システムにおいて、ホスト計算機及び第1のストレージ装置がアクセスパスを構成する第1のパスを介して接続され、第1及び第2のストレージ装置間を接続する第2のパスを使用するアクセス量の割合が予め定められた割合を超える場合に、ホスト計算機から仮想論理ボリュームまでのアクセスパスに問題があると判定し、ホスト計算機及び第2のストレージ装置間を接続する第3のパスを、アクセスパスの変更先として特定し、特定した第3のパスを、ホスト計算機から仮想論理ボリュームまでのアクセスパスの一部に変更するようにした。

Description

管理装置及び管理方法
 本発明は、管理装置及び管理方法に関し、複数のストレージ装置がそれぞれ提供する記憶領域を当該複数のストレージ装置を跨る論理プールとして管理し、論理プールと対応付けられた仮想ボリュームをホスト計算機に提供し、論理プールから仮想ボリュームに動的に記憶領域を割り当てる計算機システムの性能管理を行う管理計算機に適用して好適なものである。
 近年、ストレージ装置に関連する技術として種々の技術が提案されている。例えば、特許文献1には、ホスト計算機に仮想的な論理ボリューム(以下、これを仮想論理ボリュームと呼ぶ)を適用し、ホスト計算機から仮想論理ボリュームに対するデータの書き込み状況に応じて当該仮想論理ボリュームにストレージ装置から物理的な記憶領域を動的に割り当てるシンプロビジョニング技術が開示されている。
 また特許文献2には、I/O要求を受領したストレージ装置が、I/O要求が当該自ストレージ装置内の記憶領域に対する要求であるか否かを判断し、他のストレージ装置内の記憶領域に対するものであった場合には、当該I/O要求を当該他のストレージ装置に転送する技術が開示されている。
 さらに特許文献3には、ストレージ装置内に構築したプールが使用する記憶領域に、他のストレージ装置内に存在するプールの記憶領域を組み込むことにより、異なるストレージ装置内のプールを統合可能とする技術が開示されている。
 一方、特許文献4には、ホスト計算機からストレージ装置までのアクセスパスが最適であるか否かを診断する技術が開示されている。この技術によれば、ホスト計算機からストレージ装置までの最適なアクセスパスを表示し、又は、ホスト計算機からストレージ装置までのパスを当該最適なアクセスパスに切り替えることが可能となる。
特開2003-15915号公報 特開2008-65561号公報 米国特許出願公開第2011/60885号明細書 特開2003-167794号公報
 上述した特許文献1~特許文献3に開示された技術を組み合せることによって、1つの仮想論理ボリュームの記憶領域を複数のストレージ装置に分散配置すると共に、ホスト計算機からのI/O要求が自ストレージ装置に対するものでないときには、当該I/O要求を対応するストレージ装置に転送する計算機システムを構築することが可能となる。
 この場合において、このような計算機システムでは、ホスト計算機が仮想論理ボリュームにアクセスする際、ホスト計算機とアクセスパスを介して接続されたストレージ装置上にI/O先となる記憶領域が存在しないときには、I/O要求が対応するストレージ装置に転送されるため、その分、ホスト計算機からその記憶領域へのアクセス速度が低くなるという問題がある。
 従って、かかる計算機システムにおいて、ホスト計算機が仮想論理ボリュームにアクセスする際に利用するアクセスパスについて、ストレージ装置間のI/O要求やデータの転送を加味した最適なパスを特定し、特定したパスにアクセスパスを変更することができれば、アクセス速度を向上させて、計算機システムにおけるホスト計算機から仮想論理ボリュームに格納されたデータへのアクセス性能を向上させ得るものと考えられる。
 本発明は以上の点を考慮してなされたもので、データへのアクセス性能を向上させ得る管理装置及び管理方法を提案しようとするものである。
 かかる課題を解決するため本発明においては、複数のストレージ装置が相互に接続され、前記複数のストレージ装置に含まれる第1のストレージ装置及び第2のストレージ装置がそれぞれ提供する記憶領域を複数のストレージ装置を跨る論理プールとして管理し、前記論理プールと対応付けられた仮想論理ボリュームをホスト計算機に提供し、前記仮想論理ボリュームの利用状況に応じて前記論理ボリュームから前記仮想論理ボリュームに動的に記憶領域を割り当てる計算機システムを管理する管理装置であって、前記ホスト計算機は、前記第1のストレージ装置と第1のパスを介して接続され、前記第1のパスを介して前記仮想論理ボリュームにアクセスし、アクセス対象のデータが前記第1のストレージ装置にあれば前記第1のストレージ装置にアクセスし、前記第2のストレージ装置にあれば前記第1のストレージ装置及び前記第2のストレージ装置間を接続する第2のパスを介して前記第2のストレージ装置にアクセスし、前記第2のパスを使用するアクセス量の割合が予め定められた割合を超えるか否かを判断し、当該アクセス量の割合が当該予め定められた割合を超える場合に、前記ホスト計算機から前記仮想論理ボリュームまでのアクセスパスに問題があると判定するアクセスパス診断部と、前記アクセスパスに問題があると判定されたときに、前記ホスト計算機及び前記第2のストレージ装置間を接続する第3のパスを、前記アクセスパスの変更先として特定する変更先パス特定部と、変更先パス特定部により特定された前記第3のパスを、前記第1のパスに代えて、前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部に変更するための所定の制御処理を実行するアクセスパス変更部とを設けるようにした。
 また本発明においては、複数のストレージ装置が相互に接続され、前記複数のストレージ装置に含まれる第1のストレージ装置及び第2のストレージ装置がそれぞれ提供する記憶領域を複数のストレージ装置を跨る論理プールとして管理し、前記論理プールと対応付けられた仮想論理ボリュームをホスト計算機に提供し、前記仮想論理ボリュームの利用状況に応じて前記論理ボリュームから前記仮想論理ボリュームに動的に記憶領域を割り当てる計算機システムを管理する管理装置において実行される管理方法であって、前記ホスト計算機は、前記第1のストレージ装置と第1のパスを介して接続され、前記第1のパスを介して前記仮想論理ボリュームにアクセスし、アクセス対象のデータが前記第1のストレージ装置にあれば前記第1のストレージ装置にアクセスし、前記第2のストレージ装置にあれば前記第1のストレージ装置及び前記第2のストレージ装置間を接続する第2のパスを介して前記第2のストレージ装置にアクセスし、前記管理装置が、前記第2のパスを使用するアクセス量の割合が予め定められた割合を超えるか否かを判断する第1のステップと、前記管理装置が、当該アクセス量の割合が当該予め定められた割合を超える場合に、前記ホスト計算機から前記仮想論理ボリュームまでのアクセスパスに問題があると判定し、前記ホスト計算機及び前記第2のストレージ装置間を接続する第3のパスを、前記アクセスパスの変更先として特定する第2のステップと、前記管理装置が、特定した前記第3のパスを、前記第1のパスに代えて、前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部に変更するための所定の制御処理を実行する第3のステップとを設けるようにした。
 本発明による管理装置又は管理方法を適用した計算機システムでは、ストレージ装置間のデータ転送をより低減し得るようにアクセスパスを変更することができるため、ストレージ装置間のデータ転送に起因するホスト計算機から仮想論理ボリュームへのアクセス速度の低下を有効に防止することができる。
 本発明によれば、データへのアクセス性能を向上させ得る管理装置及び管理方法を実現できる。
本実施の形態による計算機システムの全体構成を示すブロック図である。 ホスト計算機の概略構成を示すブロック図である。 物理ストレージ装置の概略構成を示すブロック図である。 管理計算機の概略構成を示すブロック図である。 計算機システムの論理構成を示す概念図である。 管理計算機の制御プログラム及び制御データの説明に供するブロックである。 パス管理テーブルの説明に供する概念図である。 仮想論理ボリューム管理テーブルの説明に供する概念図である。 ページ管理テーブルの説明に供する概念図である。 ポート管理テーブルの説明に供する概念図である。 ポートペア管理テーブルの説明に供する概念図である。 データ偏り情報の説明に供する概念図である。 残帯域補正済みポート情報の説明に供する概念図である。 変更可能フロントエンドポート情報の説明に供する概念図である。 変更対象フロントエンドポート情報の説明に供する概念図である。 変更対象バックエンドポートペア情報の説明に供する概念図である。 アクセスパス診断結果画面の構成を略線的に示す略線図である。 アクセスパス診断結果詳細画面の構成を略線的に示す略線図である。 アクセスパス変更画面の構成を略線的に示す略線図である。 アクセスパス診断処理の処理手順を示すフローチャートである。 アクセスパス診断処理の処理手順を示すフローチャートである。 データ偏り算出処理の処理手順を示すフローチャートである。 アクセスパス検索処理の処理手順を示すフローチャートである。 残帯域補正済みポート情報作成処理の処理手順を示すフローチャートである。 フロントエンドポート検索処理の処理手順を示すフローチャートである。 バックエンドポートペア検索処理の処理手順を示すフローチャートである。 アクセスパス表示処理の処理手順を示すフローチャートである。 アクセスパス自動変更処理の処理手順を示すフローチャートである。 警告仮想論理ボリューム検索処理の処理手順を示すフローチャートである。 アクセスパス変更処理の処理手順を示すフローチャートである。
 以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態による計算機システムの構成
 図1において、1は全体として本実施の形態による計算機システムを示す。この計算機システム1は、ホスト計算機2、複数の物理ストレージ装置3、管理計算機4及び管理クライアント5を備えて構成される。ホスト計算機2及び複数の物理ストレージ装置3は、ホスト通信用ネットワーク6を介して接続されると共に、物理ストレージ装置3間は、装置間通信用ネットワーク7を介して相互に接続されている。またホスト計算機2、複数の物理ストレージ装置3、管理計算機4及び管理クライアント5は、管理用ネットワーク8を介して接続されている。
 ホスト通信用ネットワーク6は、SAN(Storage Area Network)から構成される。ホスト計算機2は、このホスト通信用ネットワーク6を介して物理ストレージ装置3に対してI/O要求等の各種コマンドや各種データを送受する。装置間通信用ネットワーク7もSANから構成される。各物理ストレージ装置3は、この装置間通信用ネットワーク7を介して、ホスト計算機2からのI/O要求を他の物理ストレージ装置3に転送したり、物理ストレージ装置3間でデータを送受したりする。なお、ホスト通信用ネットワーク6及び装置間通信用ネットワーク7は、図1のように別々のネットワークであっても、また同一のネットワークでも良い。
 管理用ネットワーク8は、LAN(Local Area Network)から構成される。管理計算機4は、この管理用ネットワーク8を介してホスト計算機2や各物理ストレージ装置3から情報を収集し、これらホスト計算機2や各物理ストレージ装置3に対する各種設定を行う。また管理計算機4は、管理用ネットワーク8を介して管理クライアント5との間の通信を行う。
 図2は、ホスト計算機2の概略構成を示す。ホスト計算機2は、CPU(Central Processing Unit)10及びメモリ11と、1又は複数のSANポート12及びLANポート13と、これらCPU10、メモリ11、SANポート12及びLANポート13間を相互に接続する内部バス14とを備えて構成される。
 CPU10は、ホスト計算機2全体の動作制御を司るプロセッサである。メモリ11は、各種プログラム及び各種データを保持するために利用される。このメモリ11には、1以上のアプリケーションプログラム15と、ホスト計算機2及び各物理ストレージ装置3間を接続する複数のパスを管理するマルチパス管理プログラム16と、かかるパスを管理するために利用されるパス管理テーブル17とが格納される。
 SANポート12は、ホスト通信用ネットワーク6に対するポートであり、ホスト通信用ネットワーク6上で固有のネットワークアドレス(例えばWWN(World Wide Name))が付与される。またLANポート13は、管理用ネットワーク8に対するポートであり、管理用ネットワーク8上で固有のネットワークアドレス(例えばIP(Internet Protocol address)アドレス)が付与される。
 図3は、物理ストレージ装置3の内部構成を示す。物理ストレージ装置3は、CPU20、メモリ21、キャッシュメモリ22、1又は複数の物理記憶デバイス23、第1及び第2のSANポート24A,24B並びにLANポート25を備え、これらが内部バス26を介して相互に接続されている。
 CPU20は、物理ストレージ装置3全体の動作制御を司るプロセッサであり、物理記憶デバイス23に格納されたプログラムをメモリ21に読み込み、読み込んだプログラムを必要に応じて実行する。
 メモリ21は、物理記憶デバイス23から読み込まれた各種プログラムを記憶するために用いられるほか、CPU20のワークメモリとしても利用される。キャッシュメモリ22は、主として物理記憶デバイス23に読み書きされるデータを一時的に記憶するために利用される。
 第1のSANポート24Aは、ホスト通信用ネットワーク6に対するポートであり、第2のSANポート24Bは、装置間通信用ネットワーク7に対するポートである。さらに、LANポート25は、管理用ネットワーク8に対するポートである。これらのポートには、各ネットワーク中で固有の識別子(例えばWWNやIPアドレス)が付与される。なお、以下においては、適宜、第1のSANポート24Aをフロントエンドポート24Aと呼び、第2のSANポートをバックエンドポート24Bと呼ぶ。
 物理記憶デバイス23は、例えばSCSI(Small Computer System Interface)ディスク等の高価なディスクデバイス、又はSATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクデバイスなどから構成される。これらの物理記憶デバイス23が提供する記憶領域上にそれぞれ1又は複数の論理ボリュームVOL(図5参照)が設定される。
 なお、物理記憶デバイス23は、RAID(Redundant Arrays of Inexpensive Disks)グループに置き換えることができる。RAIDグループとは、ディスク回転数などの物理的な特性が同種である複数の記憶デバイスの集合体を指す。この場合CPU20は、1つのRAIDグループを構成する複数の物理記憶デバイス23が提供する記憶領域を1つの論理的な記憶デバイスが提供する記憶領域として管理し、当該記憶領域上に1又は複数の論理ボリュームVOLを設定する。
 図4は、管理計算機4の概略構成を示す。管理計算機4は、CPU30、メモリ31及びLANポート32を備えて構成される。
 CPU30は、管理計算機4全体の動作制御を司るプロセッサである。またメモリ31は、主として各種プログラムや各種データを記憶するために利用される。後述する制御プログラム40及び制御データ41もこのメモリ31に格納されて保持される。メモリ31に格納された制御プログラム40をCPU30が実行することにより、管理計算機4全体としての後述のような各種処理が実行される。LANポート32は、管理用ネットワーク8に対するポートであり、管理用ネットワーク8上で固有のネットワークアドレス(例えばIPアドレス)が付与される。
 管理クライアント5は、システム管理者が利用するコンピュータ装置であり、例えばパーソナルコンピュータ、ワークステーション又はメインフレームなどから構成される。管理クライアント5は、液晶パネルなどから構成される表示装置と、マウス及び又はキーボードなどから構成される入力装置とを備える。
 図5は、計算機システム1の論理構成を示す。本計算機システム1においては、装置間通信用ネットワーク7を介して接続された複数の物理ストレージ装置3により1つの仮想ストレージ装置VSTが構築される。
 仮想ストレージ装置VSTでは、上述のように各物理ストレージ装置3内の物理記憶デバイス23がそれぞれ提供する記憶領域上に論理ボリュームVOLが作成され、これら論理ボリュームVOLが物理ストレージ装置3間を跨る1つの論理プール(装置横断プール)PLとして管理される。また仮想ストレージ装置VST内には、当該仮想ストレージ装置VSTを構成する複数の物理ストレージ装置3に跨った1又は複数の仮想論理ボリュームVVOLが作成され、この仮想論理ボリュームVVOLがホスト計算機2に提供される。
 ホスト計算機2は、装置間通信用ネットワーク7を介して接続された複数の物理ストレージ装置3を1つの仮想ストレージ装置VSTとして認識し、仮想論理ボリュームVVOLを当該仮想ストレージ装置VSTが提供する論理ボリュームとして認識する。この際、ホスト計算機2は、仮想ストレージ装置VSTを構成する複数の物理ストレージ装置3と間に設定された複数のパスの中からいずれか1つのパスをアクセスパスとして選択する。そしてホスト計算機2は、この後、仮想論理ボリュームVVOLに対するリード要求やライト要求、並びに、これらリード要求やライト要求に対するデータの送受を、このアクセスパスを介して特定の物理ストレージ装置3との間で行う。
 仮想ストレージ装置VST側では、ホスト計算機2から仮想論理ボリュームVVOLに対するライト要求を受信した場合、装置横断プールPLを構成するいずれかの論理ボリュームVOLから所定大きさの論理的な記憶領域(以下、これを論理ページと呼ぶ)LPを割り当てる。論理ページLPは、当該論理ボリュームVOLが存在する物理ストレージ装置3中の所定の大きさの物理的な記憶領域(以下、これを物理ページと呼ぶ)PPに対応付けられる。物理ページPPは、ライト対象のデータのサイズに応じて、必要数分だけ仮想論理ボリュームVVOLに割り当てられ、この物理ページPPに対象データが格納される。
 ホスト計算機2からのライト要求に対し、上述のアクセスパスを介してホスト計算機2と直接接続された物理ストレージ装置3に物理ページPPが割り当てられた場合、当該物理ページPPに対象データが格納される。一方、ホスト計算機2とアクセスパスを介して直接接続されていない物理ストレージ装置3に物理ページPPが割り当てられた場合には、当該ライト要求は、アクセスパスが接続された物理ストレージ装置3から当該物理ページPPが割り当てられた物理ストレージ装置3へ装置間通信用ネットワーク7を介して転送され、当該物理ページPPに格納される。
 リード対象のデータが、アクセスパスがホスト計算機2から直接接続されていない物理ストレージ装置3に存在する場合、当該リード要求は、ホスト計算機2と直接アクセスパスが接続された物理ストレージ装置3から装置間通信用ネットワーク7を介して対象データが存在する物理ストレージ装置3へ転送される。そして、このリード要求に従って、その物理ストレージ装置3から読み出されたリード対象のデータが装置間通信用ネットワーク7を介してホスト計算機2と直接アクセスパスが接続された物理ストレージ装置3に送信され、当該データが上述のアクセスパスを介してリード要求の発行元のホスト計算機2に送信される。
 加えて、本計算機システム1の場合、管理計算機4には、アクセス頻度の高いデータをホスト計算機2との間のアクセスパスが接続された物理ストレージ装置3に移動させ、アクセス頻度の低いデータをホスト計算機2との間のアクセスパスが接続されていない物理ストレージ装置3に移動させるように仮想ストレージ装置VSTを構成する各物理ストレージ装置を制御する階層型データ管理機能が搭載されている。
 管理計算機4は、各物理ストレージ装置3が保持するデータに対するアクセス頻度を常時監視しており、ホスト計算機2との間のアクセスパスが接続されていない物理ストレージ装置3が保持するデータへのアクセス頻度が所定の閾値以上である場合には、そのデータをホスト計算機2との間のアクセスパスが接続された物理ストレージ装置3に移動させるようその物理ストレージ装置3を制御する一方、ホスト計算機2との間のアクセスパスが接続されていない物理ストレージ装置3が保持するデータへのアクセス頻度が所定の閾値未満である場合には、そのデータを他の物理ストレージ装置3に移動させるよう、ホスト計算機2との間のアクセスパスが接続された物理ストレージ装置3を制御する。
 これにより本計算機システム1においては、物理ストレージ装置3間におけるデータ転送の発生を低減させながら、ホスト計算機2からのI/O要求に対する応答性能を向上させ得るようになされている。
(2)制御プログラム及び制御データの構成
 図6は、管理計算機4のメモリ31に格納された上述の制御プログラム40(図4)及び制御データ41(図4)の詳細構成を示す。図中、各長方形は、それぞれ制御プログラム40を構成するプログラムモジュールを示し、各円柱形は、それぞれ制御データ41を構成する管理テーブル又は情報を示す。
 この図6からも明らかなように、制御プログラム40は、ホスト計算機情報収集部50、ストレージ装置情報収集部51、データ偏り閾値設定部52、除外対象ボリューム指定部53、データ偏り算出部54、残帯域補正済みポート情報作成部55、フロントエンドポート検索部56、バックエンドポートペア検索部57、フロントエンドポート変更制御部58、バックエンドポート変更制御部59、アクセスパス診断部60、アクセスパス検索部61及びアクセスパス表示部62から構成される。
 また制御データ41は、パス管理テーブル70、仮想論理ボリューム管理テーブル71、ページ管理テーブル72、ポート管理テーブル73、ポートペア管理テーブル74、データ偏り閾値管理テーブル75、除外対象ボリューム管理テーブル76、データ偏り情報77、残帯域補正済みポート情報78、変更可能フロントエンドポート情報79、変更対象フロントエンドポート情報80及び変更対象バックエンドポートペア情報81から構成される。
 ホスト計算機情報収集部50は、所定のタイミングで(例えば、スケジューリング設定に従い、タイマによって定期的に)起動されるか、あるいは、管理クライアント5からの要求によって起動され、ホスト計算機2及び各物理ストレージ装置3間のパスに関する情報を当該ホスト計算機2から収集し、収集した情報をパス管理テーブル70に格納する。
 ストレージ装置情報収集部51は、所定のタイミングで(例えば、スケジューリング設定に従い、タイマによって定期的に)起動されるか、あるいは、管理クライアント5からの要求によって起動され、各物理ストレージ装置3から、仮想ストレージ装置VST内に作成された各仮想論理ボリュームVVOLに関する情報(以下、これを仮想論理ボリューム情報と呼ぶ)を収集し、収集した仮想論理ボリューム情報を仮想論理ボリューム管理テーブル71に格納する。
 またストレージ装置情報収集部51は、各物理ストレージ装置3から、各仮想論理ボリュームVVOL内の各論理ページLPに関する情報(以下、これをページ情報と呼ぶ)と、その物理ストレージ装置3のポートに関する情報(以下、これをポート情報と呼ぶ)と、物理ストレージ装置3間のパスに関する情報(以下、これをポートペア情報と呼ぶ)とを収集する。そしてストレージ装置情報収集部51は、収集したページ情報をページ管理テーブル72に格納し、ポート情報をポート管理テーブル73に格納し、ポートペア情報をポートペア管理テーブル74に格納する。
 データ偏り閾値設定部52は、システム管理者が管理クライアント5を用いて設定したデータ偏り閾値及びポート空き帯域閾値を当該管理クライアント5から取得し、取得したこれらのデータ偏り閾値及びポート空き帯域閾値をデータ偏り閾値管理テーブル75に格納する。
 ここで、「データ偏り閾値」とは、1つの仮想論理ボリュームVVOLに格納された全データ量に対する、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3に格納されるデータ量の割合の下限値を指す。後述のように、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3に格納されているデータ量の割合がこのデータ偏り閾値未満の場合には、対応する仮想論理ボリュームVVOLに格納されたデータが当該物理ストレージ装置3以外の物理ストレージ装置3に分散されていると考えられるため、現在設定されているホスト計算機2から仮想論理ボリュームVVOLへのアクセスパスに問題があると判断される。
 また「ポート空き帯域閾値」とは、物理ストレージ装置3内の各ポートの空き帯域の下限値を指す。後述のように物理ストレージ装置3のポートの残帯域幅がこのポート空き帯域閾値未満のときには、現在設定されているホスト計算機2から仮想論理ボリュームVVOLへのアクセスパスに問題があると判断される。
 除外対象ボリューム指定部53は、システム管理者が管理クライアント5を用いて設定した、後述するアクセスパス診断処理(図20)及びアクセスパス自動更新処理(図27)の除外対象とすべき仮想論理ボリューム(以下、これを除外対象ボリュームと呼ぶ)VVOLの識別子(仮想論理ボリュームID)を管理クライアント5から取得し、取得した除外対象ボリュームVVOLの仮想論理ボリュームIDを除外対象ボリューム管理テーブル76に格納する。
 データ偏り算出部54は、パス管理テーブル70に格納されたパス情報と、ページ管理テーブル72に格納されたページ情報とに基づいて、そのとき対象としている仮想論理ボリュームVVOLに格納されたデータの各物理ストレージ装置3への分散の偏り状態を検出し、当該偏り状態を表すデータ偏り情報77を生成する。
 残帯域補正済みポート情報作成部55は、そのとき対象としている仮想論理ボリュームVVOLへのデータの入出力がないとした場合の各物理ストレージ装置3の各ポートの残帯域幅を表す残帯域補正済みポート情報78を生成する。
 フロントエンドポート検索部56は、データ偏り情報77及び残帯域補正済みポート情報78に基づいて、各物理ストレージ装置3のフロントエンドポート24A(図3)のうち、ホスト計算機2と仮想ストレージ装置VSTとの間のアクセスパスの変更先となり得る残帯域幅を有するフロントエンドポート24Aを検索し、そのようなフロントエンドポート24Aの一覧でなる変更可能フロントエンドポート情報79を生成する。
 バックエンドポートペア検索部57は、ポートペア管理テーブル74、データ偏り情報77及び残帯域補正済みポート情報78に基づいて、各物理ストレージ装置3のバックエンドポート24B(図3)のうち、他の物理ストレージ装置3との通信に使用するパス(アクセスパス)の変更先となり得るパスが接続されたバックエンドポート24Bの組(以下、これをバックエンドポートペアと呼ぶ)を検索し、そのようなバックエンドポートペアの一覧でなる変更対象バックエンドポートペア情報81を生成する。
 フロントエンドポート変更制御部58は、後述する変更可能フロントエンドポート情報79に基づいて、ホスト計算機2が仮想論理ボリュームVVOLにアクセスする際に利用するアクセスパスの接続先を、アクセスパス表示部62により指定された物理ストレージ装置3内の当該アクセスパス表示部62により指定されたフロントエンドポート24Aに変更するようホスト計算機2を制御すると共に、これに応じてパス管理テーブル70を更新する。
 バックエンドポート変更制御部59は、後述する変更対象バックエンドポートペア情報81に基づいて、各物理ストレージ装置3が他の物理ストレージ装置3と通信を行う際に利用するバックエンドポート24Bを、アクセスパス表示部62により指定されたバックエンドポート24Bに変更するよう各物理ストレージ装置3を制御する。
 アクセスパス診断部60は、システム管理者の操作に応じた管理クライアント5からの要求により起動され、仮想論理ボリューム管理テーブル71、データ偏り閾値情報75及び除外対象ボリューム管理テーブル76に基づいて、そのとき対象としているホスト計算機(以下、これを対象ホスト計算機と呼ぶ)2からそのとき対象としている仮想論理ボリューム(以下、これを対象仮想論理ボリュームと呼ぶ)VVOLへのアクセスパスに問題があるか否かを診断する。そしてアクセスパス診断部60は、かかる診断結果を、後述するアクセスパス診断結果画面90や、アクセスパス診断結果詳細画面100として管理クライアント5の表示装置に表示させる。
 アクセスパス検索部61は、システム管理者の操作に応じた管理クライアント5からの要求により起動され、対象仮想論理ボリュームVVOLに格納されたデータの各物理ストレージ装置3へ偏り具合に応じて、対象ホスト計算機2が対象仮想論理ボリュームVVOLに格納されたデータにアクセスする際に利用するアクセスパスの変更先とすべきパスを特定し、特定結果をアクセスパス表示部62に通知する。
 アクセスパス表示部62は、アクセスパス検索部61からの通知に基づいて、当該アクセスパス検索部61により特定された、対象ホスト計算機2が対象仮想論理ボリュームVVOLにアクセスする際に利用するアクセスパスの変更先とすべきパスを、後述するアクセスパス変更画面110として管理クライアント5に表示させる。またアクセスパス表示部62は、このアクセスパス変更画面110を用いたシステム管理者の操作入力に応じて、フロントエンドポート変更制御部58及びバックエンドポート変更制御部59を制御することにより、対象ホスト計算機2が対象仮想論理ボリュームVVOLに格納されたデータにアクセスする際のアクセスパスを、アクセスパス変更画面110に表示されたパス(つまりアクセスパス検索部61により特定されたパス)に変更させる。
 一方、パス管理テーブル70は、ホスト計算機2が仮想ストレージ装置VST内の仮想論理ボリュームVVOLにアクセスする際に利用可能なすべてのパスを管理するために利用されるテーブルであり、図7に示すように、仮想論理ボリュームID欄70A、ホスト計算機ID欄70B、ホスト計算機ポートID欄70C、物理ストレージ装置ID欄70D、物理ストレージ装置ポートID欄70E、LUN欄70F及びアクセスパス情報欄70Gから構成される。
 そして仮想論理ボリュームID欄70Aには、仮想ストレージ装置VST内に設定された各仮想論理ボリュームVVOLにそれぞれ付与された仮想論理ボリュームIDが格納され、ホスト計算機ID欄70Bには、対応する仮想論理ボリュームVVOLを利用するホスト計算機2の識別子(ホスト計算機ID)が格納される。またホスト計算機ポートID欄70Cには、そのエントリ(行)に対応するパスが接続されたホスト計算機2側のポートの識別子(ホスト計算機ポートID)が格納される。
 さらに物理ストレージ装置ID欄70Dには、そのエントリに対応するパスが接続された物理ストレージ装置3の識別子(物理ストレージ装置ID)が格納され、物理ストレージ装置ポートID欄70Eには、かかる物理ストレージ装置3内のかかるパスが接続された物理ストレージ装置3内のフロントエンドポート24A(図3)のポートIDが格納される。
 さらにLUN欄70Fには、対応するホスト計算機2が認識する対応する仮想論理ボリュームVVOLの識別番号(LUN:Logical Unit Number)が格納され、アクセスパス情報欄70Gには、そのエントリに対応するパスが、対応するホスト計算機2が対応する仮想論理ボリュームVVOLにアクセスする際のアクセスパスであるか否かを表す情報(以下、これをアクセスパス情報と呼ぶ)が格納される。具体的に、アクセスパス情報欄70Gには、対応するパスがアクセスパスである場合には「true」が格納され、対応するパスがアクセスパスでない場合には「false」が格納される。
 仮想論理ボリューム管理テーブル71は、仮想ストレージ装置VST内に作成された仮想論理ボリュームVVOLを管理するために利用されるテーブルであり、図8に示すように、仮想論理ボリュームID欄71A、ホスト計算機ID欄71B、転送量欄71C及び容量欄71Dから構成される。
 そして仮想論理ボリュームID欄71Aには、仮想ストレージ装置VST内に作成されたすべての仮想論理ボリュームVVOLのボリュームIDが格納され、ホスト計算機ID欄71Bには、対応する仮想論理ボリュームVVOLを利用可能なホスト計算機2のホスト計算機IDが格納される。
 また転送量欄71Cには、対応する仮想論理ボリュームVVOLに対して入出力されるデータの単位時間(例えば1秒)当たりのデータ量(以下、これを転送量と呼ぶ)が格納され、容量欄71Dには、対応する仮想論理ボリュームVVOLの容量が格納される。
 ページ管理テーブル72は、仮想ストレージ装置VST内に作成された仮想論理ボリュームVVOLの各論理ページLP(図5)にそれぞれどの物理ストレージ装置3から物理ページPPが割り当てられているかを管理するために利用されるテーブルであり、図9に示すように、プールID欄72A、仮想論理ボリュームID欄72B、論理ページID欄72C、物理ストレージ装置ID欄72D、転送量欄72E、容量欄72F及び物理ストレージ装置ポートID欄72Gから構成される。
 そしてプールID欄72Aには、仮想ストレージ装置VST内に作成された各装置横断プールPL(図5)にそれぞれ付与された識別子(プールID)が格納され、仮想論理ボリュームID欄72Bには、その装置横断プールPL上に作成された仮想論理ボリュームVVOLの仮想論理ボリュームIDが格納される。
 またページID欄72Cには、対応する仮想論理ボリュームVVOL内の各論理ページLPにそれぞれ付与された識別子(論理ページID)が格納され、物理ストレージ装置ID欄72Dには、対応する仮想論理ボリュームVVOLの対応する論理ページLPに物理ページPPを割り当てている物理ストレージ装置3の識別子(物理ストレージ装置ID)が格納される。
 また転送量欄72Eには、対応する仮想論理ボリュームVVOLの対応する論理ページLPに入出力されるデータの単位時間当たりの転送量が格納され、容量欄72Fには、対応する論理ページLPの容量が格納される。さらに物理ストレージ装置ポートID欄72Gには、対応する物理ストレージ装置3内のポート(フロントエンドポート24A又はバックエンドポート24B)のうち、対応する仮想論理ボリュームVVOLと接続されたポートのポートIDが格納される。
 ポート管理テーブル73は、仮想ストレージ装置VSTを構成する各物理ストレージ装置3の各ポート(フロントエンドポート24A又はバックエンドポート24B)を管理するために利用されるテーブルであり、図10に示すように、物理ストレージ装置ID欄73A、物理ストレージ装置ポートID欄73B、ポート名欄73C、残帯域幅欄73D及びバックエンドポート情報欄73Eから構成される。
 そして物理ストレージ装置ID欄73Aには、仮想ストレージ装置VSTを構成する各物理ストレージ装置3の物理ストレージ装置IDが格納され、物理ストレージ装置ポートID欄73Bには、対応する物理ストレージ装置3内の各ポートのポートIDが格納される。またポート名欄73Cには、後述するアクセスパス診断結果画面90(図17)等において表示されるそのポートのポート名が格納され、残帯域幅欄73Dには、対応するポートの使用可能帯域から使用中の帯域を差し引いた現在の残帯域幅が格納される。
 さらにバックエンドポート情報欄73Eには、対応するポートがバックエンドポート24Bであるか否かを表す情報(以下、これをバックエンドポート情報と呼ぶ)が格納される。具体的に、バックエンドポート情報欄73Eには、対応するポートがバックエンドポート24Bである場合には「true」が格納され、当該ポートがバックエンドポート24Bでない場合には「false」が格納される。
 ポートペア管理テーブル74は、物理ストレージ装置3間を接続するパスがそれぞれ接続された一方の物理ストレージ装置3のポートと、他方の物理ストレージ装置3のポートとの組や、物理ストレージ装置3内のパスを介して接続されたポートの組などでなるバックエンドポートペアを管理するために利用されるテーブルであり、図11に示すように、物理ストレージ装置ID-A欄74A、物理ストレージ装置ポートID-A欄74B、物理ストレージ装置ID-B欄74C、物理ストレージ装置ポートID-B欄74D、物理ストレージ装置間ポートペア情報欄74E、アクセスパス情報欄74F、仮想論理ボリュームID欄74G及びホスト計算機ID欄74Hから構成される。
 そして物理ストレージ装置ID-A欄74A及び物理ストレージ装置ポートID-A欄74Bには、それぞれそのエントリ(行)に対応するパスが接続された一方の物理ストレージ装置3の物理ストレージ装置IDと、当該物理ストレージ装置3内の当該パスが接続されたポートのポートIDとが格納され、物理ストレージ装置ID-B欄74C及び物理ストレージ装置ポートID-B欄74Dには、それぞれかかるパスが接続された他方の物理ストレージ装置3の物理ストレージ装置IDと、当該物理ストレージ装置3内の当該パスが接続されたポートのポートIDとが格納される。
 また物理ストレージ装置間ポートペア情報欄74Eには、対応するパスが物理ストレージ装置3間を接続するパスであるか否かを表す情報が格納される。具体的に、物理ストレージ装置間ポートペア情報欄74Eには、かかるパスが物理ストレージ装置3間を接続するパスである場合には「true」が格納され、かかるパスが物理ストレージ装置3間を接続するパスでない場合(つまりそのパスが同一物理ストレージ装置3内の一のポート及び他のポート間を接続するパスである場合)には「false」が格納される。
 さらに仮想論理ボリュームID欄74Gには、対応するパスが接続された仮想論理ボリュームVVOLのボリュームIDが格納され、ホスト計算機ID欄74Hには、その仮想論理ボリュームVVOLにアクセス可能なホスト計算機2のホスト計算機IDが格納される。
 さらにアクセスパス情報欄74Fには、対応するパスがアクセスパスであるか否かを表す情報が格納される。具体的に、アクセスパス情報欄74Fには、対応するパスがアクセスパスである場合には「true」が格納され、当該パスがアクセスパスでない場合には「false」が格納される。なお、ここでいうアクセスパスとは、ホスト計算機2が対応する仮想論理ボリュームVVOLに格納されたデータにアクセスする際に利用するパスを指す。
 データ偏り閾値管理テーブル75は、システム管理者により設定された上述のデータ偏り閾値及びポート空き帯域閾値を管理するために利用されるテーブルであり、データ偏り閾値欄及びポート空き帯域閾値欄から構成される。そしてデータ偏り閾値欄には、かかるデータ偏り閾値が格納され、ポート空き帯域閾値欄には、かかるポート空き帯域閾値が格納される。
 除外対象ボリューム管理テーブル76は、システム管理者によりアクセスパス診断処理(図20)及びアクセスパス自動変更処理(図27)の除外対象とすべき仮想論理ボリュームVVOLを管理するために利用されるテーブルであり、予めシステム管理者によって設定された、かかるアクセスパス診断処理及びアクセスパス自動変更処理の除外対象とすべき仮想論理ボリュームVVOLの仮想論理ボリュームIDが格納される。
 データ偏り情報77は、仮想論理ボリュームVVOLを構成する各物理ストレージ装置3へのデータの分散の偏り状態を管理するために利用される情報であり、後述するアクセスパス診断処理(図20A,図20B)や、アクセスパス検索処理(図22)において、そのとき対象としている仮想論理ボリュームVVOLについて作成される。このデータ偏り情報77は、図12に示すように、物理ストレージ装置ID欄77A、合計転送量欄77B、転送量割合欄77C及びアクセスパス情報欄77Dから構成される。
 そして物理ストレージ装置ID欄77Aには、そのとき対象としている仮想論理ボリュームVVOLを構成するすべての物理ストレージ装置3の物理ストレージ装置IDが格納され、合計転送量欄77Bには、その仮想論理ボリュームVVOLに転送される全データのうちの対応する物理ストレージ装置3に転送されるデータの合計量(以下、これを合計転送量と呼ぶ)が格納される。
 また転送量割合欄77Cには、そのとき対象としている仮想論理ボリュームVVOLに転送される全データ(データ偏り情報77の各エントリの合計転送量の合計値に相当)に対する、対応する物理ストレージ装置3が装置間通信用ネットワーク7を介して他の物理ストレージ装置3に転送したデータ量の割合が格納される。
 さらにアクセスパス情報欄77Dには、ホスト計算機2から対応する物理ストレージ装置3へのパスがアクセスパスであるか否かを表す情報(アクセスパス情報)が格納される。具体的に、アクセスパス情報欄77Dには、ホスト計算機2から対応する物理ストレージ装置3へのパスがアクセスパスである場合には「true」が格納され、当該パスがアクセスパスでない場合には「false」が格納される。
 残帯域補正済みポート情報78は、対応する仮想論理ボリュームVVOLとの間のデータ転送がないとした場合の各物理ストレージ装置3内の各ポートの残帯域幅を管理するために利用される情報であり、後述するアクセスパス検索処理(図22)において作成される。この残帯域補正済みポート情報78は、図13に示すように、物理ストレージ装置ID欄78A、物理ストレージ装置ポートID欄78B、ポート名欄78C、残帯域幅欄78D及びバックエンドポート情報欄78Eから構成される。
 そして物理ストレージ装置ID欄78Aには、対応する仮想論理ボリュームVVOLを構成する各物理ストレージ装置3の物理ストレージ装置IDが格納される。また物理ストレージ装置ポートID欄78Bには、その仮想論理ボリュームVVOLと接続されたその物理ストレージ装置3内のポート(フロントエンドポート24A又はバックエンドポート24B)のポートIDが格納され、ポート名欄78Cには、後述するアクセスパス診断結果画面90(図17)等において表示されるそのポートのポート名が格納される。
 さらに残帯域幅欄78Dには、対応する仮想論理ボリュームVVOLへのデータ転送がないと仮定した場合における対応するポートの残帯域幅が格納され、バックエンドポート情報欄78Eには、そのポートがバックエンドポートであるか否かを表す情報(バックエンドポート情報)が格納される。具体的に、バックエンドポート情報欄78Eには、対応するポートがバックエンドポートである場合には「true」が格納され、当該ポートがバックエンドポートでない場合には「false」が格納される。
 変更可能フロントエンドポート情報79は、ホスト計算機2との間の新たなアクセスパスとなり得る残帯域幅を有するフロントエンドポート24A(図3)の一覧であり、図24について後述するフロントエンドポート検索処理において作成される。この変更可能フロントエンドポート情報79は、図14に示すように、物理ストレージID欄79A、物理ストレージ装置ポートID欄79B、ポート名欄79C及び残帯域幅欄79Dから構成される。
 そして物理ストレージ装置ポートID欄79Bには、対応する仮想論理ボリュームVVOLを構成する物理ストレージ装置3内のフロントエンドポート24A(図3)のうち、ホスト計算機2との間のアクセスパスの変更先となり得る残帯域幅を有するフロントエンドポート24AのポートIDが格納され、物理ストレージ装置ID欄79Aには、そのフロントエンドポート24Aを備える物理ストレージ装置3の物理ストレージ装置IDが格納される。
 またポート名欄79Cには、図17について後述するアクセスパス診断結果画面90等において表示されるそのフロントエンドポート24Aのポート名が格納され、残帯域幅欄79Dには、対応する仮想論理ボリュームVVOLへのデータの入出力がないと仮定した場合における対応するフロントエンドポート24Aの残帯域幅が格納される。
 変更対象フロントエンドポート情報80は、変更可能フロントエンドポート情報79に登録されたフロントエンドポート24Aのうち、バックエンドポート24Bの残帯域幅まで考慮した場合にもホスト計算機2及び仮想ストレージ装置VST間を接続するアクセスパスの変更先となり得るパスが接続されたフロントエンドポート24Aの一覧である。変更対象フロントエンドポート情報80では、1つの仮想論理ボリュームVVOLに対して1つのフロントエンドポート24Aが登録される。この変更対象フロントエンドポート情報80は、図22について後述するアクセスパス検索処理において作成される。
 変更対象フロントエンドポート情報80は、図15に示すように、物理ストレージ装置ID欄80A、物理ストレージ装置ポートID欄80B、ポート名欄80C、残帯域幅欄80D、ホスト計算機ID欄80E及び仮想論理ボリュームID欄80Fから構成される。
 そして物理ストレージ装置ポートID欄80Bには、かかる変更先となり得るパスが接続されたフロントエンドポート24AのポートIDが格納され、物理ストレージ装置ID欄80Aには、対応するフロントエンドポート24Aを備える物理ストレージ装置3の物理ストレージ装置IDが格納される。
 またポート名欄80Cには、図17について後述するアクセスパス診断結果画面90等において表示されるそのフロントエンドポート24Aのポート名が格納され、残帯域幅欄80Dには、対応するフロントエンドポート24Aの残帯域幅が格納される。
 さらにホスト計算機ID欄80Eには、対応するフロントエンドポート24Aと接続されたホスト計算機2のホスト計算機IDが格納され、仮想論理ボリュームID欄80Fには、そのフロントエンドポート24Aを介してアクセス可能な仮想論理ボリュームVVOLのボリュームIDが格納される。
 変更対象バックエンドポートペア情報81は、物理ストレージ装置3間を接続するパス(以下、これをバックエンドパスと呼ぶ)のうち、アクセスパスの変更先となり得るバックエンドパスが接続された一方の物理ストレージ装置3のバックエンドポート24Bと、他方の物理ストレージ装置3のバックエンドポート3との組(以下、これをバックエンドポートペアと呼ぶ)の一覧である。変更対象バックエンドポートペア情報81では、各物理ストレージ装置3間について1つのバックエンドポートペアが登録される。この変更対象バックエンドポートペア情報81は、図25について後述するバックエンドポートペア検索処理において作成される。
 変更対象バックエンドポートペア情報81は、図16に示すように、物理ストレージ装置ID-A欄81A、物理ストレージ装置ポートID-A欄81B、物理ストレージ装置ID-B欄81C、物理ストレージ装置ポートID-B欄81D、ホスト計算機ID欄81E及び仮想論理ボリュームID欄81Fから構成される。
 そして物理ストレージ装置ID-A欄81A及び物理ストレージ装置ポートID-A欄81Bには、それぞれそのエントリ(行)に対応するバックエンドパスが接続された一方の物理ストレージ装置3の物理ストレージ装置IDと、当該物理ストレージ装置3内の当該バックエンドパスが接続されたポートのポートIDとがそれぞれ格納され、物理ストレージ装置ID-B欄81C及び物理ストレージ装置ポートID-B欄81Dには、それぞれかかるバックエンドパスが接続された他方の物理ストレージ装置3の物理ストレージ装置IDと、当該物理ストレージ装置3における当該バックエンドパスが接続されたポートのポートIDとがそれぞれ格納される。
 またホスト計算機ID欄81Eには、対応するバックエンドパスをアクセスパスとして利用するホスト計算機2のホスト計算機IDが格納され、仮想論理ボリュームID欄81Fには、そのバックエンドパスを介してそのホスト計算機2がアクセス可能な仮想論理ボリュームVVOLのボリュームIDが格納される。
(3)各種画面の構成
 次に、管理クライアントに表示される各種GUI(Graphical User Interface)画面の構成について、図17~図19を参照して説明する。
 図17は、所定操作により管理クライアント5に表示させ得るアクセスパス診断結果画面90の構成例を示す。このアクセスパス診断結果画面90は、図20A及び図20Bについて後述するアクセスパス診断処理により検出された、ホスト計算機2が仮想論理ボリュームVVOLにアクセスする際に利用するアクセスパスの稼働状態を表示するためのGUI画面である。
 このアクセスパス診断結果画面90は、アクセスパス稼働状態一覧91と、閉じるボタン92とから構成される。アクセスパス稼働状態一覧91は、ホスト計算機2から各仮想論理ボリュームVVOLまでの各アクセスパスの稼働状態に対する診断結果の一覧であり、診断結果欄91A、ホスト名欄91B及び仮想論理ボリューム欄91Cから構成される。
 そしてホスト名欄91Bには、対応するアクセスパスが接続されたホスト計算機2の名称(ホスト名)が表示され、仮想論理ボリューム欄91Cには、そのアクセスパスを介してホスト計算機2がアクセス可能な仮想論理ボリュームVVOLの仮想論理ボリュームIDが表示される。
 また診断結果欄91Aには、対応するアクセスパスに対する診断結果が表示される。この場合、かかる診断結果としては、「警告」及び「正常」などがある。
 ここで、「警告」は、対応するアクセスパスを診断した結果、当該アクセスパスに問題があると判定されたことを表す。本実施の形態の場合、「アクセスパスに問題がある」場合とは、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3における当該アクセスパスが接続されたフロントエンドポート24A(図3)の残帯域幅、若しくは、当該物理ストレージ装置3から他の物理ストレージ装置3へのアクセスパスとして利用されているバックエンドパスが接続されたこれら物理ストレージ装置3内のいずれかのバックエンドポート24Bの残帯域幅が上述したポート空き帯域閾値未満の場合、又は、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3に、対応する仮想論理ボリュームVVOLに格納されたデータのうち、上述したデータ偏り閾値未満のデータ量分のデータしか格納されていない状態を指す。
 また「正常」は、対応するアクセスパスを診断した結果、当該アクセスパスに問題がないと判定されたことを表す。本実施の形態の場合、「アクセスパスに問題がない」とは、かかるアクセスパスが接続された物理ストレージ装置3のフロントエンドポート24A(図3)の残帯域幅がポート空き帯域閾値以上であり、かつ、当該物理ストレージ装置3から他の物理ストレージ装置3へのアクセスパスとして利用されているバックエンドパスが接続されたこれら物理ストレージ装置3内のすべてのバックエンドポート24Bの残帯域幅がポート空き待機閾値以上であり、さらにホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3に、対応する仮想論理ボリュームVVOLに格納されたデータのうち、データ偏り閾値よりも多いデータ量分のデータが格納されている状態を指す。
 そしてシステム管理者は、アクセスパス稼働状態一覧91の所望する診断結果欄91Aに表示された診断結果(「警告」又は「正常」)を表す文字列91AAをクリックすることによって、アクセスパス診断結果画面90に代えて図18に示すようなアクセスパス診断結果詳細画面100を表示させることができ、閉じるボタン92をクリックすることによってこのアクセスパス診断結果画面90を閉じることができる。
 アクセスパス診断結果詳細画面100は、アクセスパス診断結果画面90において指定された(診断結果を表す文字列91AAをクリックした)アクセスパスの診断結果の詳細を表示するためのGUI画面である。このアクセスパス診断結果詳細画面100は、図18に示すように、診断結果詳細表示フィールド101と、検索ボタン102及び閉じるボタン103とから構成される。
 そして診断結果詳細表示フィールド101には、ホスト計算機2、仮想ストレージ装置VST内の対応する仮想論理ボリュームVVOLを構成する各物理ストレージ装置3をそれぞれ模式的に表す絵記号101Aと、ホスト計算機2から仮想ストレージ装置VSTまでのアクセスパスを表す線101Bと、仮想ストレージ装置VST内に存在する対応するアクセスパス(物理ストレージ装置3間の対応するアクセスパスや、物理ストレージ装置3内の対応するアクセスパス)を表す線101Cとなどが表示される。
 また診断結果詳細表示フィールド101には、ホスト計算機2から対応する仮想論理ボリュームVVOLに対して発行するI/Oのうちの、当該ホスト計算機2からのアクセスパスが直接接続された物理ストレージ装置3へのI/Oの割合を表す情報(「直接I/O比率」)101Dや、対応するアクセスパスが接続されたフロントエンドポート24A(図3)又はバックエンドポート24Bの残帯域幅を表す情報(「残帯域幅」)101Eなどが表示される。
 さらに診断結果詳細表示フィールド101には、問題がある箇所に、これを表す警告マーク101Fが表示される。例えば、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3に、対応する仮想論理ボリュームVVOLに格納されたデータのうち、上述したデータ偏り閾値未満のデータ量分のデータしか格納されていない場合には、ホスト計算機2内に警告マーク101Fが表示される。またホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3における当該アクセスパスが接続されたフロントエンドポート24A(図3)の残帯域幅が上述したポート空き帯域閾値未満の場合には、ホスト計算機2及び当該物理ストレージ装置3間を接続するアクセスパスを表す線101Bの近傍に警告マーク101Fが表示される。さらに、この物理ストレージ装置3から他の物理ストレージ装置3へのアクセスパスとして利用されているバックエンドパスが接続されたこれら物理ストレージ装置3内のいずれかのバックエンドポート24Bの残帯域幅が上述したポート空き帯域閾値未満の場合には、これら物理ストレージ装置3間を接続するアクセスパスを表す線101Cの近傍に警告マーク101Fが表示される。
 そしてシステム管理者は、閉じるボタン103をクリックすることによってこのアクセスパス診断結果詳細画面100を閉じることができ、検索ボタン102をクリックすることによって、かかるアクセスパスの切替え先として最適なアクセスパスを検索するアクセスパス検索処理(図22)を管理計算機4に実行させることができる。
 図19は、かかる管理計算機4において上述のアクセスパス検索処理が実行された後に、アクセスパス診断結果詳細画面100に代えて、かかるアクセスパス検索処理の処理結果として管理クライアント5に表示されるアクセスパス変更画面110の構成例を示す。この図19からも明らかなように、アクセスパス変更画面110は、更新前状態表示フィールド111、更新後状態表示フィールド112、変更ボタン113及び閉じるボタン114から構成される。
 そして更新前状態表示フィールド111には、直前のアクセスパス診断結果詳細画面100の診断結果詳細表示フィールド101に表示されていた内容がそのまま表示される。また更新後状態表示フィールド112には、かかるアクセスパス検索処理により検出されたホスト計算機2及び物理ストレージ装置3間、物理ストレージ装置3内部、並びに、物理ストレージ装置3間の最適なアクセスパスが更新前状態表示フィールド111と同様の表示形態で表示される。
 実際上、更新前状態表示フィールド111及び更新後状態表示フィールド112には、ホスト計算機2、仮想ストレージ装置VST内の対応する仮想論理ボリュームVVOLを構成する各物理ストレージ装置3をそれぞれ模式的に表す絵記号111A,112Aと、ホスト計算機2から仮想ストレージ装置VSTまでのアクセスパスを表す線111B,112Bと、仮想ストレージ装置VST内に存在する対応するアクセスパス(物理ストレージ装置3間の対応するアクセスパスや、物理ストレージ装置3内の対応するアクセスパス)を表す線111C,112Cとなどが表示される。
 また更新前状態表示フィールド111及び更新後状態表示フィールド112には、ホスト計算機2から対応する仮想論理ボリュームVVOLに対して発行するI/Oのうちの、当該ホスト計算機2からのアクセスパスが直接接続された物理ストレージ装置3へのI/Oの割合を表す情報(「直接I/O比率」)111D,112Dや、対応するアクセスパスが接続されたフロントエンドポート24A(図3)又はバックエンドポート24Bの残帯域幅を表す情報(「残帯域幅」)111E,112Eなどが表示される。さらに診断結果詳細表示フィールドには、問題がある箇所に上述の警告マーク111Fも表示される。
 かくしてシステム管理者は、ホスト計算機2から仮想論理ボリュームVVOLへのアクセスパスを、更新後状態表示フィールド112に表示された状態に変更することを所望する場合には変更ボタン113をクリックする。この結果、管理計算機4の制御のもとに、ホスト計算機2から仮想論理ボリュームVVOLへのアクセスパスが、更新後状態表示フィールド112に表示されたアクセスパスに変更される。またシステム管理者は、閉じるボタン114をクリックすることによって、ホスト計算機2から仮想論理ボリュームVVOLへのアクセスパスを変更することなく、このアクセスパス変更画面110を閉じることができる。
(4)各種処理
 次に、上述のようなアクセスパスの診断や、最適なアクセスパスの検索、及び、検索結果に基づくアクセスパスの変更に関連して実行される各種処理の具体的な処理内容について説明する。なお、以下においては、各種処理の処理主体を管理計算機4(図4)の制御プログラム40(図4)のプログラムモジュールとして説明するが、実際上は、そのプログラムモジュールに基づいて管理計算機4のCPU30(図4)がその処理を実行することは言うまでもない。
(4-1)アクセスパス診断処理
 管理クライアント5が操作されてアクセスパスの診断を実行すべき指示が入力された場合、管理クライアント5から管理計算機4にアクセスパス診断要求が与えられる。図20A及び図20Bは、このアクセスパス診断要求が管理計算機4に与えられた場合にアクセスパス診断部60(図6)により実行されるアクセスパス診断処理の処理内容を示す。
 アクセスパス診断部60は、管理クライアント5からかかるアクセスパス診断要求が与えられると、この図20A及び図20Bに示すアクセスパス診断処理を開始する。そしてアクセスパス診断部60は、まず、データ偏り閾値管理テーブル75からデータ偏り閾値及びポート空き帯域閾値を取得し(SP1)、この後、仮想論理ボリューム管理テーブル71(図8)のすべてのエントリの情報を取得する(SP2)。
 続いて、アクセスパス診断部60は、ステップSP2において情報を取得したエントリのうち、ステップSP3~ステップSP9の処理が未処理の1つのエントリを選択し(SP3)、そのエントリに対応する仮想論理ボリュームVVOLがアクセスパス診断処理の除外対象の仮想論理ボリュームVVOLであるか否かを判断する(SP4)。具体的に、アクセスパス診断部60は、ステップSP4において、ステップSP3において選択したエントリの仮想論理ボリュームID欄71A(図8)に格納されている仮想論理ボリュームIDが除外対象ボリューム管理テーブル76に登録されているか否かを判断する。
 そしてアクセスパス診断部60は、ステップSP4において肯定結果を得ると、ステップSP3に戻り、この後、ステップSP4において肯定結果を得るまでステップSP3-ステップSP4-ステップSP3のループを繰り返す。
 これに対してアクセスパス診断部60は、ステップSP4において否定結果を得ると、データ偏り算出部54(図6)を呼び出すと共に、ステップSP3において選択した仮想論理ボリューム管理テーブル71のエントリの仮想論理ボリュームID欄71Aに格納されている仮想論理ボリュームIDと、ホスト計算機ID欄71Bに格納されているホスト計算機IDとをデータ偏り算出部54に引数として与える(SP5)。この結果、データ偏り算出部54により後述するデータ偏り算出処理(図21)が実行されて、ステップSP3において選択したエントリに対応する仮想論理ボリュームVVOLについてのデータ偏り情報77(図12)が作成される。
 次いで、アクセスパス診断部60は、ステップSP5においてデータ偏り算出部54により作成されたデータ偏り情報77と、ステップSP1において取得したデータ偏り閾値及びポート空き帯域閾値とに基づいて、ホスト計算機2からそのとき対象としている仮想論理ボリュームVVOLへのアクセスパスに問題があるか否かを判定する(SP6)。かかる判定は、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3と、他の物理ストレージ装置3とを接続するパスのうち、これら物理ストレージ装置3間においてデータ転送に利用されるパスの最大の帯域幅に対する現在の使用帯域幅(アクセス量)の割合が、
 具体的に、アクセスパス診断部60は、対象仮想論理ボリュームVVOLが次の(A)~(C)の条件の少なくとも1つを満たすか否かを判断する。
(A)ステップSP5において作成されたデータ偏り情報77のエントリのうち、アクセスパス情報欄77D(図12)に「true」が格納されているエントリ(つまりホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3に対応するエントリ)の転送量割合欄77C(図12)に格納されている転送量割合がステップSP1において取得したデータ偏り閾値よりも小さい。
(B)データ偏り情報77のエントリのうち、アクセスパス情報欄77Dに「true」が格納されているエントリに対応する物理ストレージ装置(つまりホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3)内のフロントエンドポート24A(図3)のうち、ホスト計算機2との間のアクセスパスが接続されたフロントエンドポート24Aの使用可能な最大の帯域幅(以下、これを最大帯域幅と呼ぶ)に対する当該フロントエンドポート24Aの残帯域幅の割合が、ステップSP1において取得したポート空き帯域閾値よりも小さい。
(C)すべての物理ストレージ装置3において、他の物理ストレージ装置3との間のアクセスパスが接続されたいずれのバックエンドポート24B(図3)の最大帯域幅に対する当該バックエンドポート24Bの残帯域幅の割合がステップSP1において取得したポート空き帯域閾値よりも小さい。
 なお上述の(A)の条件は、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3以外の物理ストレージ装置3へのデータの入出力の偏りを検出するための条件である。
 そしてアクセスパス診断部60は、ステップSP6の判断で肯定結果を得ると(上述の3つの条件のうちの少なくとも1つの条件を満たす場合には)、対象仮想論理ボリュームVVOLを、アクセスパスに問題がある仮想論理ボリュームVVOLを表す警告仮想論理ボリュームに分類する(SP7)。
 これに対して、アクセスパス診断部60は、ステップSP6の判断で否定結果を得ると(上述の3つの条件のうちの1つの条件も満たさない場合には)、対象仮想論理ボリュームVVOLを、アクセスパスに問題がない仮想論理ボリュームVVOLとして、正常仮想論理ボリュームに分類する(SP8)。
 続いて、アクセスパス診断部60は、仮想論理ボリューム管理テーブル71のすべてのエントリについてステップSP4~ステップSP8の処理を実行し終えたか否かを判断する(SP9)。そしてアクセスパス診断部60は、この判断で否定結果を得るとステップSP3に戻り、この後、ステップSP9において肯定結果を得るまでステップSP3~ステップSP9の処理を繰り返す。
 そしてアクセスパス診断部60は、やがて仮想論理ボリューム管理テーブル71に登録されたすべての仮想論理ボリュームVVOLをすべて警告仮想論理ボリューム又は正常仮想論理ボリュームに分類し終えることによりステップSP9において肯定結果を得ると、仮想論理ボリューム管理テーブル71に登録されたすべての仮想論理ボリュームVVOLの仮想論理ボリュームIDと、ホスト名と、警告仮想論理ボリューム及び正常仮想論理ボリュームのいずれであるかを表す属性情報とをアクセスパス診断結果情報として、アクセスパス診断結果画面90(図17)の表示命令と共に管理クライアント5に送信する(SP10)。
 かくして、かかる表示命令及びアクセスパス診断結果情報を受信した管理クライアント5は、当該アクセスパス診断結果情報に基づいて図17について上述したアクセスパス診断結果画面90を表示する。この際、管理クライアント5は、警告仮想論理ボリュームについては、アクセスパス診断結果画面90内の診断結果一覧91(図17)における対応するエントリの診断結果欄91A(図17)内に、アクセスパスに問題があることを示す情報である「警告」の文字列91AA(図17)を表示し、正常仮想論理ボリュームについては、対応するエントリの診断結果欄91A内に、アクセスパスに問題がないことを示す情報である「正常」の文字列91AAを表示する。
 この後、アクセスパス診断部60は、アクセスパス診断結果画面90の閉じるボタン92又は診断結果一覧91のいずれかの診断結果欄91A内に格納された「警告」又は「正常」の文字列91AAがクリックされるのを待ち受ける(SP11,SP12)。
 そしてアクセスパス診断部60は、閉じるボタン92がクリックされた場合にはアクセスパス診断結果画面90を閉じるよう管理クライアント5に指示を与え(SP17)、この後、このアクセスパス診断処理を終了する。
 これに対して、アクセスパス診断部60は、診断結果一覧91のいずれかの診断結果欄91A内に格納された「警告」又は「正常」の文字列91AAがクリックされると、図18について上述したアクセスパス診断結果詳細画面100の表示指示と、当該アクセスパス診断結果詳細画面100の表示に必要な各種情報とを管理クライアント5に送信する(SP13)。これにより、かかるアクセスパス診断結果詳細画面100が管理クライアント5により表示される。
 この後、アクセスパス診断部60は、アクセスパス診断結果詳細画面100の閉じるボタン103又は検索ボタン102がクリックされるのを待ち受ける(SP14,SP15)。そしてアクセスパス診断部60は、閉じるボタン103がクリックされた場合にはアクセスパス診断結果詳細画面100を閉じるよう管理クライアント5に指示を与え(SP17)、この後、このアクセスパス診断処理を終了する。
 これに対して、アクセスパス診断部60は、検索ボタン102がクリックされた場合には、アクセスパス検索部61(図6)を呼び出し、当該アクセスパス検索部61にそのとき対象としている仮想論理ボリュームVVOLの仮想論理ボリュームID及びホスト計算機2のホスト計算機IDと、アクセスパス検索処理の実行命令とを与えた後(SP16)、このアクセスパス診断処理を終了する。
(4-2)データ偏り算出処理
 図21は、上述したアクセスパス診断処理(図20A及び図20B)のステップSP5においてアクセスパス診断部60により呼び出されたデータ偏り算出部54(図6)が実行するデータ偏り算出処理の処理手順を示す。
 データ偏り算出部54は、アクセスパス診断部60からのアクセスパス検索処理の実行命令を受信すると、この図21に示すデータ偏り算出処理を開始し、まず、呼出し元(ここではアクセスパス診断部60)から与えられた対象仮想論理ボリュームVVOLの仮想論理ボリュームID及びホスト計算機2のホスト計算機IDを順次受領する(SP20,SP21)。
 続いて、データ偏り算出部54は、ページ管理テーブル72(図9)のエントリのうち、ステップSP20において受領した対象仮想論理ボリュームVVOLの仮想論理ボリュームIDと同じ仮想論理ボリュームIDが仮想論理ボリュームID欄72B(図9)に格納されているすべてのエントリ(行)の情報を取得する(SP22)。
 次いで、データ偏り算出部54は、ステップSP22において取得した情報に基づいて、以下の(A)~(C)を実行することにより、データ偏り情報77(図6)を仮作成する(SP23)。
(A)ステップSP22において情報を取得した各エントリのうち、物理ストレージ装置ID欄72Dに格納された物理ストレージ装置IDが同一の各エントリの転送量欄72Eにそれぞれ格納されている転送量を合算する。この合算処理を物理ストレージ装置ID欄72Dに格納されたすべての種類の物理ストレージ装置IDについて実行する。これにより、対象仮想論理ボリュームVVOLを構成する各物理ストレージ装置3において、当該対象仮想論理ボリュームVVOLがあることにより発生する単位時間当たりのデータ転送量の合計値(合計転送量)を算出することができる。
(B)上述の合算処理時に検出した対象仮想論理ボリュームVVOLを構成する各物理ストレージ装置3の物理ストレージ装置IDをそれぞれデータ偏り情報77の異なるエントリの物理ストレージ装置ID欄77A(図12)に格納すると共に、各エントリの合計転送量欄77B(図12)に、上述のようにして算出した対応する合計転送量をそれぞれ格納する。
(C)データ偏り情報77の各エントリの合計転送量欄77Bに格納されているすべての合計転送量を合算することにより、対象仮想論理ボリュームVVOLを対象とするデータの全転送量を算出すると共に、この全転送量に対する各合計転送量の割合(転送量割合)をそれぞれ算出し、算出した各転送量割合をそれぞれデータ偏り情報77の対応するエントリの対応する転送量割合欄77C(図12)に格納する。
 続いて、データ偏り算出部54は、パス管理テーブル70(図7)のエントリのうち、仮想論理ボリュームID欄70A(図7)に格納された仮想論理ボリュームIDと、ホスト計算機ID欄70B(図7)に格納されたホスト計算機IDとが、ステップSP20及びステップSP21においてそれぞれ受領した仮想論理ボリュームID及びホスト計算機IDといずれも同一のエントリを検索し、当該検索により検出したすべてのエントリについて、そのエントリの情報をパス管理テーブル70から取得する(SP24)。
 次いで、データ偏り算出部54は、ステップSP24において取得した情報に基づいて、対象仮想論理ボリュームVVOLを構成する複数の物理ストレージ装置3の中から、ホスト計算機2との間のアクセスパスが直接接続された物理ストレージ装置3を特定し、データ偏り情報77のエントリのうちのその物理ストレージ装置3に対応するエントリのアクセスパス情報欄77D(図12)に「true」を格納すると共に、他のエントリのアクセスパス情報欄77Dに「false」を格納する(SP25)。
 以上の処理によりデータ偏り情報77が完成する。そしてデータ偏り算出部54は、この後、このデータ偏り算出処理を終了する。
(4-3)アクセスパス検索処理
 アクセスパス診断結果詳細画面20の検索ボタン102がクリックされた場合、管理クライアント5からアクセスパス検索要求が管理計算機4のアクセスパス診断部60に与えられる。そしてアクセスパス診断部60は、このアクセスパス検索要求を受領すると、アクセスパス検索部61を呼び出し、このアクセスパス検索部61にアクセスパス検索指示と、対象とすべき仮想論理ボリューム(対象仮想論理ボリューム)VVOLの仮想論理ボリュームIDと、対象とすべきホスト計算機(対象ホスト計算機)2のホスト計算機IDとを引数として与える。
 かくして、アクセスパス検索指示を受領したアクセスパス検索部61は、図22に示す処理手順に従って、対象ホスト計算機2が対象仮想論理ボリュームVVOLにアクセスする際のアクセスパスの変更先となり得るパスを検索する。
 実際上、アクセスパス検索部61は、アクセスパス診断部60により呼び出されるとこの図22に示すアクセスパス検索処理を開始し、まず、アクセスパス診断部60から与えられた対象仮想論理ボリュームVVOLの仮想論理ボリュームIDと、対象ホスト計算機2のホスト計算機IDとを受領する(SP30,SP31)。
 続いて、アクセスパス検索部61は、ステップSP30及びステップSP31において受領した仮想論理ボリュームID及びホスト計算機IDを引数としてデータ偏り算出部54(図6)を呼び出す(SP32)。かくして、アクセスパス検索部61に呼び出されたデータ偏り算出部54は、図21について上述したデータ偏り算出処理を実行することにより、対象仮想論理ボリュームVVOLに対応するデータ偏り情報77(図12)を作成する。
 次いで、アクセスパス検索部61は、ステップSP30及びステップSP31において受領した仮想論理ボリュームID及びホスト計算機IDを引数として残帯域補正済みポート情報作成部55を呼び出す(SP33)。かくして、アクセスパス検索部61に呼び出された残帯域補正済みポート情報作成部55は、図23について後述する残帯域補正済みポート情報作成処理を実行することにより、対象仮想論理ボリュームVVOLに対するデータ転送がない場合における、対象仮想論理ボリュームVVOLを構成する各物理ストレージ装置3の各ポートの残帯域幅をそれぞれ算出し、算出結果に基づいて対象仮想論理ボリュームVVOLに対応する残帯域補正済みポート情報78(図13)を作成する。
 さらにアクセスパス検索部61は、フロントエンドポート検索部56(図6)を呼び出す(SP34)。かくして、アクセスパス検索部61により呼び出されたフロントエンドポート検索部56は、図24について後述するフロントエンドポート検索処理を実行することにより、対象仮想論理ボリュームVVOLを構成する各物理ストレージ装置3の各フロントエンドポート24Aの中から、ホスト計算機2との間のアクセスパスの変更先となり得るフロントエンドパスが接続されたフロンドエンドポート24Aを検索し、検索結果に基づいて対象仮想論理ボリュームVVOLに対応する変更可能フロントエンドポート情報79(図14)を作成する。
 この後、アクセスパス検索部61は、ステップSP34においてフロントエンドポート検索部56により作成された変更可能フロントエンドポート情報79に登録されたフロントエンドポート24Aの中から、ステップSP36~ステップSP39の処理が未だ実行されておらず、かつ合計転送量が最も大きい物理ストレージ装置3のフロントエンドポート24Aを1つ選択する(SP35)。
 続いて、アクセスパス検索部61は、ステップSP35において選択したフロントエンドポート24Aを備える物理ストレージ装置3の物理ストレージ装置IDを引数としてバックエンドポートペア検索部57を呼び出す(SP36)。かくして、アクセスパス検索部61に呼び出されたバックエンドポートペア検索部57は、図25について後述するバックエンドポートペア検索処理を実行する。
 このバックエンドポート検索処理により、対象ホスト計算機2から対象仮想論理ボリュームVVOLへのアクセスパスの接続先を、ステップSP35において選択したフロントエンドポート24Aを備える物理ストレージ装置3に切り替えた場合に、その物理ストレージ装置3から他の物理ストレージ装置3へのアクセスパスとして利用可能な物理ストレージ装置間のバックエンドパスに接続されたバックエンドポートペアが存在するか否かが検出される。そして、そのようなバックエンドポートペアが存在する場合には、バックエンドポートペア検索部57からアクセスパス検索部61に「true」が返却され、そのようなバックエンドポートペアが存在しない場合にはバックエンドポートペア検索部57からアクセスパス検索部61に「false」が返却される。
 続いて、アクセスパス検索部61は、バックエンドポートペア検索部57からの返却値が「false」であるか否かを判断する(SP37)。そしてアクセスパス検索部61は、この判断で肯定結果を得た場合にはステップSP35に戻り、この後、ステップSP35において選択するエントリを合計転送量が小さいものに順次切り替えながら、ステップSP35~ステップSP38の処理を繰り返す。
 またアクセスパス検索部61は、ステップSP37の判断で否定結果を得た場合には、ステップSP35において選択した変更可能フロントエンドポート情報79のエントリに対応するフロントエンドポート24Aを、ステップSP30において受領した仮想論理ボリュームIDが付与された仮想論理ボリュームVVOLにアクセスする際に利用するホスト計算機2及び物理ストレージ装置3間のアクセスパスの変更先となり得るフロントエンドポートとして、変更対象フロントエンドポート情報80(図15)に登録する。
 以上までの処理により、対応する仮想論理ボリュームVVOLを構成する物理ストレージ装置3のうち、対象仮想論理ボリュームVVOLに入出力されるデータの合計転送量がより多い物理ストレージ装置3(つまり対象仮想論理ボリュームVVOLに最も多く記憶領域を割り当てている物理ストレージ装置3)のフロントエンドポート24Aの中から、バックエンドポート24Bの残帯域幅まで考慮した場合にもホスト計算機2及び仮想ストレージ装置VST間を接続するアクセスパスの変更先となり得るパスが接続されたフロントエンドポート24Aが選択され、これが変更対象フロントエンドポート情報80に登録されることになる。
 そしてアクセスパス検索部61は、この後、図19について上述したアクセスパス変更画面110を表示するのに必要な情報を引数としてアクセスパス表示部62を呼び出す(SP40)。かくして、アクセスパス表示部62は、引数として与えられたかかる情報に基づいて、アクセスパスの変更内容として推奨する変更内容が更新後状態表示フィールド112に記述されたアクセスパス変更画面110を管理クライアント5に表示させる。そしてアクセスパス検索部61は、この後、このアクセスパス検索処理を終了する。
 なおアクセスパス検索部61は、変更可能フロントエンドポート情報79に登録されたすべてのフロントエンドポート24AについてステップSP35~ステップSP38の処理を実行しても、ステップSP37において肯定結果を得られなかった場合には、アクセスパス変更により性能を改善できる選択肢がないことを示す情報を管理クライアント5に表示させる。因みに、対応する仮想論理ボリュームVVOLに格納されたデータがどの程度、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3以外の物理ストレージ装置3に分散しているかを示す情報を管理クライアント5に表示すると共に、ホスト計算機2とアクセスパスを介して直接接続された物理ストレージ装置3にどの程度データを集中させるかをユーザに問い合わせ、ユーザの応答に基づいてデータの移動を実行してもよい。また予め定められた条件に基づいて自動的にデータの移動を実行してもよい。さらに、フロントエンドポート又はバックエンドポートの残帯域が不足していることによりアクセスパスの選択肢を選択できなかった場合には、物理ストレージ装置3のポートを追加することを勧める情報を管理クライアント5に表示させるようにしてもよい。
そしてアクセスパス検索部61は、この後、このアクセスパス検索処理を終了する。
(4-4)残帯域補正済みポート情報作成処理
 図23は、上述したアクセスパス検索処理(図22)のステップSP33においてアクセスパス検索部61により呼び出された残帯域補正済みポート情報作成部55により実行される残帯域補正済みポート情報作成処理の具体的な処理手順を示す。
 残帯域補正済みポート情報作成部55は、アクセスパス検索部61により呼び出されるとこの残帯域補正済みポート情報作成処理を開始し、まず、ポート管理テーブル73(図10)を複製することにより残帯域補正済みポート情報78(図13)を仮作成する(SP50)。また、残帯域補正済みポート情報作成部55は、ページ管理テーブル72(図9)からすべてのエントリの情報を取得する(SP51)。
 続いて、残帯域補正済みポート情報作成部55は、呼出し元(ここではアクセスパス検索部61)から引数として与えられた対象仮想論理ボリュームVVOLの仮想論理ボリュームIDと、対象ホスト計算機2のホスト計算機IDとを受領し(SP52)、この後、ステップSP52において情報を取得したページ管理テーブル72の各エントリの中から1つのエントリ(論理ページLP)を選択する(SP53)。
 次いで、残帯域補正済みポート情報作成部55は、ステップSP50において仮作成した残帯域補正済みポート情報78のエントリのうち、ステップSP53において選択したエントリの物理ストレージ装置ポートID欄72G(図9)に格納されたポートIDと同一のポートIDが物理ストレージ装置ポートID欄78B(図13)に格納されているエントリを検索し、当該検索により検出したエントリの残帯域幅欄78D(図13)に格納されている残帯域幅に、ステップSP53において選択したエントリの転送量欄72E(図9)に格納されている転送量を加算する(SP54)。これにより対象仮想論理ボリュームVVOLのそのとき対象としている論理ページ(ステップSP53において選択したエントリに対応する論理ページと呼ぶ)LPへのデータの入出力がなかったとした場合における、対応する物理ストレージ装置3の対応するポートの残帯域幅が算出されることになる。
 この後、残帯域補正済みポート情報作成部55は、ステップSP50において仮作成した残帯域補正済みポート情報78のエントリのうち、ステップSP53において選択したエントリの物理ストレージ装置ポートID欄72G(図9)に格納されたポートIDと同一のポートIDが物理ストレージ装置ポートID欄78B(図13)に格納されているエントリのバックエンド情報欄78E(図13)に「true」が格納されているか否かを判断する(SP55)。
 ここで、この判断において否定結果を得ることは、ステップSP53において選択したエントリに対応する論理ページに格納されたデータが、ホスト計算機2とアクセスパスが直接接続された物理ストレージ装置3内に保持されていることを意味する。かくして、このとき残帯域補正済みポート情報作成部55は、ステップSP58に進む。
 これに対して、ステップSP55の判断において肯定結果を得ることは、スステップSP53において選択したエントリに対応する論理ページに格納されたデータが、ホスト計算機2とアクセスパスが直接接続された物理ストレージ装置3以外の物理ストレージ装置3内に保持されていることを意味する。
 かくして、このとき残帯域補正済みポート情報作成部55は、ポートペア管理テーブル74(図11)を参照して、ステップSP53において選択したエントリの物理ストレージ装置ポートID欄72G(図9)に格納されているポートIDが付与されたポート(以下、これを対象ポートと呼ぶ)とバックエンドポートペアを構成するポートのポートIDを取得する(SP56)。なお、このとき取得されるポートIDは、ホスト計算機2とアクセスパスを介して直接接続されている物理ストレージ装置3のポートのうち、対象ポートとアクセスパスを介して接続されたバックエンドポート24BのポートIDである。
 具体的に、残帯域補正済みポート情報作成部55は、ポートペア管理テーブル74上で以下の(A)~(E)のすべての条件を満たすエントリを検索し、当該検索により検出したエントリの物理ストレージ装置ポートID-A欄74B(図11)及び物理ストレージ装置ポートID-B欄74D(図11)に格納されているポートIDのうち、ステップSP53において選択したエントリの物理ストレージ装置ポートID欄72G(図9)に格納されているポートIDとは異なるポートIDを取得する。
(A)物理ストレージ装置ポートID-A欄74B又は物理ストレージ装置ポートID-B欄74Dのいずれかに、ステップSP53において選択したエントリの物理ストレージ装置ポートID欄72Gに格納されているポートIDと同一のポートIDが格納されている。
(B)物理ストレージ装置間ポートペア情報欄74E(図11)に「true」が格納されている。
(C)アクセスパス情報欄74F(図11)に「true」が格納されている。
(D)ステップSP52において受領した仮想論理ボリュームIDと同一の仮想論理ボリュームIDが仮想論理ボリュームID欄74G(図11)に格納されている。
(E)ステップSP52において受領したホスト計算機IDと同一のホスト計算機IDがホスト計算機ID欄74H(図11)に格納されている。
 続いて、残帯域補正済みポート情報作成部55は、ステップSP56において取得したポートIDが付与されたバックエンドポート24Bを備える物理ストレージ装置3のポートのうち、ホスト計算機2とアクセスパスを介して接続されたポートのポートIDを取得する(SP57)。なお、このとき取得されるポートIDは、ホスト計算機2とアクセスパスを介して直接接続されている物理ストレージ装置3のポートのうち、当該アクセスパスが接続されたフロントエンドポート24Aである。
 具体的に、残帯域補正済みポート情報作成部55は、ポートペア管理テーブル74(図11)上で以下の(A)~(D)のすべての条件を満たすエントリを検索し、当該検索により検出したエントリの物理ストレージ装置ポートID-A欄74B(図11)及び物理ストレージ装置ポートID-B欄74D(図11)に格納されているポートIDのうち、ステップSP53において選択したエントリの物理ストレージ装置ポートID欄72G(図9)に格納されているポートIDとは異なるポートIDを取得する。
(A)物理ストレージ装置ポートID-A欄74B又は物理ストレージ装置ポートID-B欄74Dのいずれかに、ステップSP56において取得したポートIDと同一のポートIDが格納されている。
(B)アクセスパス情報欄74F(図11)に「true」が格納されている。
(C)ステップSP52において受領した仮想論理ボリュームIDと同一の仮想論理ボリュームIDが仮想論理ボリュームID欄74G(図11)に格納されている。
(D)ステップSP52において受領したホスト計算機IDと同一のホスト計算機IDがホスト計算機ID欄74H(図11)に格納されている。
 次いで、残帯域補正済みポート情報作成部55は、残帯域補正済みポート情報78(図13)のエントリのうち、ステップSP56において取得したポートIDと同一のポートIDが物理ストレージ装置ポートID欄78B(図13)に格納されているエントリを検索し、当該検索により検出したエントリの残帯域幅欄78Dに格納されている残帯域幅に、ステップSP53において選択したエントリの転送量欄72E(図9)に格納されている転送量を加算する(SP58)。これにより、対象論理ページLPへのデータの入出力がなかったとした場合における、ホスト計算機2とアクセスパスを介して接続された物理ストレージ装置3のポートのうちの対象ポートと接続されたバックエンドポート24Bの残帯域幅が算出されることになる。
 同様に、残帯域補正済みポート情報作成部55は、残帯域補正済みポート情報78(図13)のエントリのうち、ステップSP57において取得したポートIDと同一のポートIDが物理ストレージ装置ポートID欄78B(図13)に格納されているエントリを検索し、当該検索により検出したエントリの残帯域幅欄78Dに格納されている残帯域幅に、ステップSP53において選択したエントリの転送量欄72E(図9)に格納されている転送量を加算する(SP58)。これにより、対象論理ページLPへのデータの入出力がなかったとした場合における、ホスト計算機2とアクセスパスを介して接続された物理ストレージ装置3のポートのうちの当該アクセスパスが接続されたフロントエンドポート24Aの残帯域幅が算出されることになる。
 この後、残帯域補正済みポート情報作成部55は、ページ管理テーブル72(図9)のすべてのエントリについてステップSP53~ステップSP58の処理を実行し終えたか否かを判断する(SP59)。そして残帯域補正済みポート情報作成部55は、この判断で否定結果を得るとステップSP53に戻り、この後、ステップSP53において選択するページ管理テーブル72のエントリを未処理の他のエントリに順次切り替えながら、ステップSP59において肯定結果を得るまでステップSP53~ステップSP59の処理を繰り返す。
 以上の処理により、対象仮想論理ボリュームVVOLに対するデータの入出力がない場合の各物理ストレージ装置3の各ポートの残帯域幅が登録された残帯域補正済みポート情報78を完成することができる。
 そして残帯域補正済みポート情報作成部55は、やがてページ管理テーブル72のすべてのエントリについてステップSP53~ステップSP58の処理を実行し終えることによりステップSP59で肯定結果を得ると、この残帯域補正済みポート情報作成処理を終了する。
(4-5)フロントエンドポート検索処理
 図24は、アクセスパス検索処理(図22)のステップSP34においてアクセスパス検索部61により呼び出されたフロントエンドポート検索部56により実行されるフロントエンドポート検索処理の具体的な処理手順を示す。
 フロントエンドポート検索部56は、アクセスパス検索部61により呼び出されるとこのフロントエンドポート検索処理を開始し、まず、データ偏り情報77(図12)、残帯域補正済みポート情報78(図13)及びデータ偏り閾値管理テーブル75に格納されたデータ偏り閾値及びポート空き帯域閾値を順次取得する(SP60~SP62)。
 続いて、フロントエンドポート検索部56は、ステップSP60において取得したデータ偏り情報77のエントリの中から1つのエントリを選択し(SP63)、残帯域補正済みポート情報78のエントリのうち、ステップSP63において選択したエントリに対応する物理ストレージ装置3の各フロントエンドポート24Aにそれぞれ対応するエントリを検索し、対応するすべてのエントリの情報を残帯域補正済みポート情報78から取得する(SP64)。
 具体的に、フロントエンドポート検索部56は、残帯域補正済みポート情報78のエントリのうち、以下の(A)及び(B)の条件を共に満たすエントリを検索し、対応するすべてのエントリの情報を残帯域補正済みポート情報78から取得する。
(A)ステップSP63において選択したデータ偏り情報77のエントリの物理ストレージ装置ID欄77A(図12)に格納されている物理ストレージ装置IDと同一の物理ストレージ装置IDが物理ストレージ装置ID欄78A(図13)に格納されている。
(B)バックエンドポート情報欄78E(図13)に「false」が格納されている。
 次いで、フロントエンドポート検索部56は、ステップSP64の検索により検出した残帯域補正済みポート情報78のエントリの中から1つのエントリを選択する(SP65)。
 そしてフロントエンドポート検索部56は、この後、ステップSP63において選択したデータ偏り情報77のエントリに対応する物理ストレージ装置3の合計転送量をステップSP65において選択した残帯域補正済みポート情報78のエントリに対応するフロントエンドポート24Aの残帯域幅から差し引いた値がポート空き帯域閾値以上であるか否かを判断する(SP66)。この判断は、ステップSP63において選択したデータ偏り情報77のエントリの合計転送量欄77B(図12)に格納された合計転送量を取得すると共に、取得した合計転送量を、ステップSP65において選択したエントリの残帯域幅欄78D(図13)に格納された残帯域幅から減算し、減算結果がポート空き帯域閾値以上であるか否かを判定することにより行われる。
 フロントエンドポート検索部56は、この判断で否定結果を得ると、ステップSP64の検索において検出したすべてのエントリについてステップSP66の処理を実行し終えたか否かを判断する(SP67)。またフロントエンドポート検索部56は、この判断で否定結果を得るとステップSP65に戻り、この後、ステップSP66又はステップSP67において肯定結果を得るまでステップSP65~ステップSP67の処理を繰り返す。
 そしてフロントエンドポート検索部56は、ステップSP64の検索により検出した各エントリとそれぞれ対応するフロントエンドポート24AについてステップSP66において肯定結果を得られずにステップSP67において肯定結果を得ると、ステップSP69に進む。
 これに対して、フロントエンドポート検索部56は、ステップSP64の検索により検出した各エントリとそれぞれ対応するフロントエンドポート24Aのうちのいずれかのフロントエンドポート24AについてステップSP66の判断で肯定結果を得ると、変更可能フロントエンドポート情報79(図14)にそのフロントエンドポート24Aを登録し(SP68)、この後ステップSP69に進む。
 フロントエンドポート検索部56は、ステップSP69に進むと、データ偏り情報77のすべてのエントリについてステップSP63~ステップSP68の処理を実行し終えたか否かを判断する(SP69)。そしてフロントエンドポート検索部56は、この判断で否定結果を得るとステップSP63に戻り、この後、ステップSP63において選択するエントリを順次未処理の他のエントリに切り替えながら、ステップSP63~ステップSP69の処理を繰り返す。
 以上の処理により、対象仮想論理ボリュームVVOLを構成する各物理ストレージ装置3の各フロントエンドポート24Aのうち、アクセスパスを変更先となり得る残帯域幅を有するフロントエンドポート24Aが変更可能フロントエンドポート情報79に順次登録されてゆくことになる。
 そしてフロントエンドポート検索部56は、データ偏り情報77のすべてのエントリについてステップSP63~ステップSP68の処理を実行し終えることにより、ステップSP69において肯定結果を得ると、このフロントエンドポート検索処理を終了する。
(4-6)バックエンドポートペア検索処理
 図25は、アクセスパス検索処理(図22)のステップSP36においてアクセスパス検索部61により呼び出されたバックエンドポートペア検索部57により実行されるバックエンドポートペア検索処理の具体的な処理手順を示す。
 バックエンドポートペア検索部57は、アクセスパス検索部に61より呼び出されるとこのバックエンドポートペア検索処理を開始し、まず、呼出し元(ここではアクセスパス検索部61)から引数として与えられた物理ストレージ装置IDを受領する(SP70)。
 続いて、バックエンドポートペア検索部57は、データ偏り情報77(図12)の複製を作成すると共に(SP71)、作成したデータ偏り情報77の複製内のエントリのうち、ステップSP70において受領した物理ストレージ装置IDと同一の物理ストレージ装置IDが物理ストレージ装置ID欄77A(図12)に格納されているエントリを削除する(SP72)。
 この後、バックエンドポートペア検索部57は、残帯域補正済みポート情報78を取得する(SP73)。またバックエンドポートペア検索部57は、ポートペア管理テーブル74(図11)を参照して、ステップSP70において受領した物理ストレージ装置IDが付与された物理ストレージ装置3のバックエンドポート24B(図3)に関するエントリをポートペア管理テーブル74上で検索し、当該検索により検出したすべてのエントリの情報を取得する(SP74)。具体的に、バックエンドポート検索部57は、ポートペア管理テーブル74のエントリのうち、以下の2つの条件を共に満たすエントリの情報を取得する。
(A)ステップSP70において受領した物理ストレージ装置IDと同一の物理ストレージ装置IDが物理ストレージ装置ポートID-A欄74B及び物理ストレージ装置ポート-B欄74Dのいずれかに格納されている。
(B)物理ストレージ装置間ポートペア情報欄74E(図11)に「true」が格納されている。
 続いて、バックエンドポートペア検索部57は、データ偏り閾値管理テーブル75からポート空き帯域閾値を取得し(SP75)、この後、ステップSP74の検索により検出したポートペア管理テーブル74のエントリの中から1つのエントリを選択する(SP76)。
 続いて、バックエンドポートペア検索部57は、ステップSP76において選択したエントリに対応するバックエンドポートペアを構成する2つのバックエンドポート24B(図3)について、ステップSP70において受領した物理ストレージ装置IDが付与された物理ストレージ装置3をホスト計算機2に直接接続した場合にこれら2つのバックエンドポート24Bの残帯域幅が何れもポート空き帯域値閾値以上となるか否かを判定する(SP77)。
 具体的に、バックエンドポートペア検索部57は、ステップSP73において取得した残帯域補正済みポート情報78(図13)のエントリのうち、ステップSP76において選択したポートペア管理テーブル74のエントリについて、物理ストレージ装置ID-A欄74A(図11)及び物理ストレージ装置ポートID-A欄74B(図11)にそれぞれ格納されている物理ストレージ装置ID及び物理ストレージ装置ポートIDと同一の物理ストレージ装置ID及び物理ストレージ装置ポートIDが物理ストレージ装置ID欄78A(図13)及び物理ストレージ装置ポートID欄78B(図13)にそれぞれ格納されているエントリを検索し、そのエントリの残帯域幅欄78D(図13)に格納されている残帯域幅を取得する。またバックエンドポートペア検索部57は、ステップSP72において1つのエントリの情報を削除したデータ偏り情報77の複製の各エントリの中から、上述の物理ストレージ装置ID-A欄74A(図11)に格納された物理ストレージ装置IDが物理ストレージ装置ID欄77A(図12)に格納されたエントリを検索し、そのエントリの合計転送量欄77B(図12)に格納されている合計転送量を取得する。そしてバックエンドポートペア検索部57は、かかる残帯域幅からかかる合計転送量を減算し、その減算結果がポート空き帯域閾値以上であるか否かを判定(第1の判定)する。
 同様に、バックエンドポートペア検索部57は、ステップSP73において取得した残帯域補正済みポート情報78(図13)のエントリのうち、ステップSP76において選択したポートペア管理テーブル74のエントリについて、物理ストレージ装置ID-B欄74C(図11)及び物理ストレージ装置ポートID-B欄74D(図11)にそれぞれ格納されている物理ストレージ装置ID及び物理ストレージ装置ポートIDと同一の物理ストレージ装置ID及び物理ストレージ装置ポートIDが物理ストレージ装置ID欄78A(図13)及び物理ストレージ装置ポートID欄78B(図13)にそれぞれ格納されているエントリを検索し、そのエントリの残帯域幅欄78D(図13)に格納されている残帯域幅を取得する。またバックエンドポートペア検索部57は、ステップSP72において1つのエントリの情報を削除したデータ偏り情報77の複製の各エントリの中から、上述の物理ストレージ装置ID-B欄74C(図11)に格納された物理ストレージ装置IDが物理ストレージ装置ID欄77A(図12)に格納されたエントリを検索し、そのエントリの合計転送量欄77B(図12)に格納されている合計転送量を取得する。そしてバックエンドポートペア検索部57は、かかる残帯域幅からかかる合計転送量を減算し、その減算結果がポート空き帯域閾値以上であるか否かを判定(第2の判定)する。
 そしてバックエンドポートペア検索部57は、かかる第1及び第2の判定の少なくとも一方において否定結果を得た場合には(SP77:NO)、ステップSP76に戻り、この後、ステップSP76において選択するエントリを順次他のエントリに切り替えながら、ステップSP76以降の処理を繰り返す。
 これに対して、バックエンドポートペア検索部57は、かかる第3及び第4の判定のいずれにおいても肯定結果を得られた場合には(SP77:YES)、ステップSP76において選択したエントリに対応するバックエンドポートペアを変更対象バックエンドポートペア情報81(図16)に追加登録する(SP78)。
 この後、バックエンドポートペア検索部57は、データ偏り情報77の複製からそのバックエンドポートペアに対応するエントリを削除する(SP79)。具体的に、バックエンドポートペア検索部57は、データ偏り情報77の複製のエントリの中から、ステップSP76において選択したエントリの物理ストレージ装置ID-A欄74A(図11)及び物理ストレージ装置ID-B欄74C(図11)のいずれかに格納された物理ストレージ装置IDと同一の物理ストレージ装置IDが物理ストレージ装置ID欄77A(図12)に格納されているエントリを削除する。
 さらにバックエンドポートペア検索部57は、ステップSP74の検索により検出したすべてのエントリについてステップSP76~ステップSP79の処理を実行し終えたか否かを判断する(SP80)。そしてバックエンドポートペア検索部57は、この判断で否定結果を得るとステップSP76に戻り、この後、ステップSP76において選択するエントリを未処理の他のエントリに順次切り替えながら、ステップSP80において肯定結果を得るまでステップSP76~ステップSP80の処理を繰り返す。
 以上までの処理により、変更可能フロントエンドポート情報79に登録されたフロントエンドポート24Aを備える物理ストレージ装置3のバックエンドポート24Bが構成するバックエンドポートペアのうち、ホスト計算機2との間のアクセスパスをその物理ストレージ装置3のそのフロントエンドポート24Aに変更した場合においても、当該物理ストレージ装置3のバックエンドポート24Bの残帯域幅と、当該バックエンドポート24Bと共にバックエンドポートペアを構成する他の物理ストレージ装置3のバックエンドポート24Bの残帯域幅とがいずれもポート空き帯域閾値以上のバックエンドポートペアが順次変更対象バックエンドポートペア情報81に登録されてゆくことになる。
 そしてバックエンドポートペア検索部57は、やがてステップSP74の検索により検出したすべてのエントリについてステップSP76~ステップSP79の処理を実行し終えることによりステップSP80において肯定結果を得ると、データ偏り情報77が空になったか否かを判断する(SP81)。
 この判断で肯定結果を得ることは、変更対象バックエンドポートペア情報81に登録されたバックエンドポートペアが存在することを意味する。かくして、このときバックエンドポートペア検索部57は、呼出し元のアクセスパス検索部61に「true」を返却し(SP82)、この後、このバックエンドポートペア検索処理を終了する。
 これに対して、ステップSP81の判断で否定結果を得ることは、変更対象バックエンドポートペア情報81に登録されたバックエンドポートペアが存在しないことを意味する。かくして、このときバックエンドポートペア検索部57は、呼出し元のアクセスパス検索部61に「false」を返却し(SP83)、この後、このバックエンドポートペア検索処理を終了する。
(4-7)アクセスパス表示処理
 図26は、アクセスパス検索処理(図22)のステップSP40においてアクセスパス検索部61により呼び出されたアクセスパス表示部62(図6)により実行されるアクセスパス表示処理の具体的な処理手順を示す。
 アクセスパス表示部62は、アクセスパス検索部61により呼び出されるとこのアクセスパス表示処理を開始し、まず、変更対象フロントエンドポート情報80(図15)及び変更対象バックエンドポートペア情報81(図16)に基づいて図19について上述したアクセスパス変更画面110を表示するのに必要なデータを管理クライアント5に送信する。かくして、このデータに基づくアクセスパス変更画面110が管理クライアント5に表示される。
 続いて、アクセスパス表示部62は、アクセスパス変更画面110上の閉じるボタン114(図19)又は変更ボタン113(図19)がクリックされるのを待ち受ける(SP91,SP92)。そしてアクセスパス表示部62は、閉じるボタン114がクリックされるとアクセスパス変更画面110を閉じるよう管理クライアント5に指示を与えた後、このアクセスパス表示処理を終了する。
 これに対して、アクセスパス表示部62は、変更ボタン113がクリックされると、ホスト計算機2から対応する仮想論理ボリュームVVOLまでのアクセスパスを、そのとき管理クライアント5に表示されているアクセスパス変更画面110の更新後状態表示フィールド112(図19)に表示したアクセスパスに切り替えるようフロントエンドポート変更制御部58(図6)に指示を与える(SP93)。
 かくして、かかる指示を受領したフロントエンドポート変更制御部58は、対応する仮想論理ボリュームVVOLにアクセスする際のアクセス先を、変更対象フロントエンドポート情報80(図15)の対応するエントリの物理ストレージ装置ポートID欄80B(図15)に格納されている物理ストレージ装置ポートIDが付与されたフロントエンドポート24Aに変更するようホスト計算機2に指示を与えると共に、パス管理テーブル70(図7)を更新する。またホスト計算機2は、この指示に従って、かかる仮想論理ボリュームVVOLにアクセスする際のアクセス先をかかる物理ストレージ装置ポートIDが付与されたフロントエンドポート24Aに変更するよう自装置内のパス管理テーブル17(図2)を更新する。
 続いてアクセスパス表示部62は、対応する仮想論理ボリュームVVOLについて、各物理ストレージ装置3間のアクセスパスを、そのとき管理クライアント5に表示されているアクセスパス変更画面110の更新後状態表示フィールド112(図19)に表示したアクセスパスに切り替えるようバックエンドポート変更制御部59に指示を与える(SP94)。
 かくして、かかる指示を受領したバックエンドポート変更制御部59は、対応する仮想論理ボリュームVVOLについて、各物理ストレージ装置3間のアクセスパスを、変更対象バックエンドポートペア情報81(図16)の対応するエントリの物理ストレージ装置ポートID-A欄81Bに格納されたポートIDが付与されたバックエンドポート24Bと、物理ストレージ装置ポートID-A欄81Dに格納されたポートIDが付与されたバックエンドポート24Bとを接続するパスに変更するよう対応する物理ストレージ装置3に指示を与えると共に、パス管理テーブル70(図7)を更新する。また、かかる指示を受領した各物理ストレージ装置3は、この指示に従って、他の物理ストレージ装置3との間のアクセスパスを、指定されたポートIDが付与されたバックエンドポート24Bに変更するよう自装置内の図示しないパス管理テーブル17を更新する。
 そしてアクセスパス表示部は、この後、このアクセスパス表示処理を終了する。
(4-8)アクセスパス自動変更処理
 図20A~図26について上述した各種処理は、システム管理者の操作に応じてアクセスパスを変更するものであるが、本実施の形態による計算機システム1には、かかるアクセスパスの変更をI/O傾向の変化に応じて自動的に行う動作モード(以下、これをアクセスパス自動変更モードと呼ぶ)が設けられている。
 図27は、かかるアクセスパス自動変更モードが管理計算機4に設定されている場合に、当該管理計算機4のアクセスパス診断部60(図6)により実行されるアクセスパス自動変更処理の処理手順を示す。
 アクセスパス診断部60は、アクセスパス自動変更モードが設定されている場合、所定のタイミングで(例えば、スケジューリング設定に従い、タイマによって定期的に)起動されるか、あるいは、ホスト計算機情報収集部50がホスト計算機2から必要な情報を収集した後、若しくは、ストレージ装置情報収集部51が各物理ストレージ装置から必要な情報を収集した後に起動され、まず、ホスト計算機2からのアクセスパスに問題がある仮想論理ボリューム(警告仮想論理ボリューム)VVOLを検索する警告仮想論理ボリューム検索処理を実行する(SP100)。
 続いて、アクセスパス診断部60は、ステップSP100の検索により警告仮想論理ボリュームVVOLを検出し得たか否かを判断する(SP101)。そしてアクセスパス診断部60は、この判断で否定結果を得ると、このアクセスパス自動変更処理を終了する。
 これに対してアクセスパス診断部60は、ステップSP101の判断で肯定結果を得ると、ステップSP100の検索により検出した警告仮想論理ボリュームVVOLの中から1つの警告仮想論理ボリュームVVOLを選択する(SP102)。
 そしてアクセスパス診断部60は、この後、ステップSP102において選択した警告仮想論理ボリュームVVOLの仮想論理ボリュームIDと、当該警告仮想論理ボリュームVVOLにアクセス可能なホスト計算機2のホスト計算機IDとを引数としてアクセスパス検索部61(図6)を呼び出す(SP103)。かくして、アクセスパス診断部60に呼び出されたアクセスパス検索部61は、ホスト計算機2及び物理ストレージ装置3間のアクセスパスや、物理ストレージ装置3内及び物理ストレージ装置3間のアクセスパスを最適なアクセスパスに変更するアクセスパス変更処理を実行する。
 そしてアクセスパス診断部60は、この後、ステップSP100の検索により検出したすべての警告仮想論理ボリュームVVOLについてステップSP103の処理を実行し終えたか否かを判断する(SP104)。そしてアクセスパス診断部60は、この判断で否定結果を得るとステップSP102に戻り、この後、ステップSP102において選択する警告仮想論理ボリュームVVOLを未処理の他の警告仮想論理ボリュームVVOLに順次切り替えながらステップSP102~ステップSP104の処理を繰り返す。
 そしてアクセスパス診断部60は、やがて、ステップSP100の検索により検出したすべての警告仮想論理ボリュームVVOLについてステップSP103の処理を実行し終えることによりステップSP104において肯定結果を得ると、このアクセスパス自動変更処理を終了する。
 なお、かかるアクセスパス自動変更処理(図27)のステップSP100においてアクセスパス診断部60により実行される警告仮想論理ボリューム検索処理の具体的な処理手順を図28に示す。この警告仮想論理ボリューム検索処理のステップSP110~ステップSP118の処理は、図20Aについて上述したアクセスパス診断処理のステップSP1~ステップSP9と同様であるため、その詳細の説明は省略する。
 また、かかるアクセスパス自動変更処理(図27)のステップSP103においてアクセスパス診断部60により呼び出されたアクセスパス検索部61により実行されるアクセスパス変更処理の具体的な処理手順を図29に示す。
 アクセスパス検索部61は、アクセスパス自動変更モードが設定されている状態においてアクセスパス診断部60により呼び出されると、この図29に示すアクセスパス変更処理を開始し、ステップSP120~ステップSP128の処理を、図22について上述したアクセスパス検索処理のステップSP30~ステップSP38と同様に処理する。これにより、ホスト計算機2からのアクセスパスの変更先となり得るフロントエンドポート24Aが登録された変更可能フロントエンドポート情報79(図14)と、物理ストレージ装置3内、及び、物理ストレージ装置3間のアクセスパスの変更先となり得るバックエンドパスが接続されたバックエンドポート24Bのペア(バックエンドポートペア)が登録された変更対象バックエンドポートペア情報81(図16)とが作成される。
 続いて、アクセスパス検索部61は、ステップSP130及びステップSP131の処理を図26について上述したアクセスパス表示処理のステップSP93及びステップSP94と同様に処理する。これによりステップSP120~ステップSP128において作成された変更可能フロントエンドポート情報79及び変更対象バックエンドポートペア情報81に基づいて、ホスト計算機2及び物理ストレージ装置3間のアクセスパスや、物理ストレージ装置3内、及び、物理ストレージ装置3間のアクセスパスが切り替えられる。
(5)本実施の形態の効果
 以上のように構成された本実施の形態の計算機システム1によれば、アクセスパスに問題がある仮想論理ボリュームVVOLについて、ホスト計算機2からその仮想論理ボリュームVVOLへのアクセスパスを、その仮想論理ボリュームVVOLに入出力されるデータの合計転送量がより多い物理ストレージ装置(つまりその仮想論理ボリュームVVOLにより多くの記憶領域を割り当て、当該仮想論理ボリュームVVOLに格納されたデータをより多く保持している物理ストレージ装置)3に接続されたパスに変更することができる。
 従って、ホスト計算機2から仮想論理ボリュームVVOLへのアクセスパスをそのような物理ストレージ装置3に変更することによって、ホスト計算機2から仮想論理ボリュームVVOLにアクセスする際の物理ストレージ装置3間のデータ転送を低減することができるため、ホスト計算機2から仮想論理ボリュームVVOLにアクセスする際のアクセス速度を向上させることができ、かくして計算機システム1におけるホスト計算機2から仮想論理ボリュームVVOLに格納されたデータへのアクセス性能を向上させることができる。
(6)他の実施の形態
 なお上述の実施の形態においては、管理計算機4及び管理クライアント5を別個に設けるようにした場合について述べたが、本発明はこれに限らず、これらを1つの装置として構成するようにしても良い。
 また上述の実施の形態においては、物理ストレージ装置3間を接続するパスを使用するアクセス量の割合が予め定められた割合を超えるか否かを判断するアクセスパス診断部と、当該アクセス量の割合が当該予め定められた割合を超える場合に、アクセスパスの変更先のパスを特定する変更先パス特定部と、変更先パス特定部により特定されたパスを、ホスト計算機2から仮想論理ボリュームVVOLまでのアクセスパスの一部に変更するための所定の制御処理を実行するアクセスパス変更部と、変更先パス特定部により特定されたパスを含むホスト計算機2から仮想論理ボリュームVVOLまでのアクセスパスを表示し又は他の機器に表示させるアクセスパス表示部とを管理計算機4の各種プログラムモジュール及びCPU30により構成するようにした場合について述べたが、本発明はこれに限らず、これらアクセスパス診断部、変更先パス特定部、アクセスパス変更部及びアクセスパス表示部をそれぞれ異なる別個の装置により構成するようにしても良い。
 さらに上述の実施の形態においては、アクセスパス診断処理(図20A及び図20B)のステップSP6について上述した(A)~(C)の3つの条件の少なくとも1つを満たす場合にホスト計算機2から対応する仮想論理ボリュームVVOLへのアクセスパスに問題があると判定するようにした場合について述べたが、本発明はこれに限らず、例えば、データ偏り閾値テーブル75(図6)にパスを使用するアクセス量の割合の閾値を格納しておき、当該パスを使用するアクセス量が当該閾値を超える場合に、ホスト計算機2から仮想論理ボリュームVVOLまでのアクセスパスに問題があると判定するようにしてもよい。この場合、これ以外の構成については、上述した本実施の形態の構成をすべて適用することができる。
 さらに上述の実施の形態においては、管理計算機4がアクセスパス診断結果画面や、アクセスパス診断結果詳細画面及びアクセスパス変更画面を管理クライアント5に表示させるようにした場合について述べたが、本発明はこれに限らず、例えば、これらの画面を管理計算機4が自ら表示したり、又は、管理クライアント5以外の機器に表示させるようにしても良い。
 本発明は、複数のストレージ装置がそれぞれ提供する記憶領域を論理プールとして管理し、論理プールと対応付けられた仮想ボリュームをホスト計算機に提供し、論理プールから仮想ボリュームに動的に記憶領域を割り当てる計算機システムに広く適用することができる。
 1……計算機システム、2……ホスト計算機、3……物理ストレージ装置、4……管理計算機、5……管理クライアント、6……ホスト通信用SAN、7……装置間通信用SAN、24A……SANポート(フロントエンドポート)、24B……SANポート(バックエンドポート)、23……物理記憶デバイス、30……CPU、31……メモリ、40……制御プログラム、41……制御データ、90……アクセスパス診断結果画面、100……アクセスパス診断結果詳細画面、110……アクセスパス変更画面、PL……装置横断プール、VOL……論理ボリューム、VVOL……仮想論理ボリューム。

Claims (10)

  1.  複数のストレージ装置が相互に接続され、前記複数のストレージ装置に含まれる第1のストレージ装置及び第2のストレージ装置がそれぞれ提供する記憶領域を複数のストレージ装置を跨る論理プールとして管理し、前記論理プールと対応付けられた仮想論理ボリュームをホスト計算機に提供し、前記仮想論理ボリュームの利用状況に応じて前記論理ボリュームから前記仮想論理ボリュームに動的に記憶領域を割り当てる計算機システムを管理する管理装置であって、
     前記ホスト計算機は、
     前記第1のストレージ装置と第1のパスを介して接続され、前記第1のパスを介して前記仮想論理ボリュームにアクセスし、
     アクセス対象のデータが前記第1のストレージ装置にあれば前記第1のストレージ装置にアクセスし、前記第2のストレージ装置にあれば前記第1のストレージ装置及び前記第2のストレージ装置間を接続する第2のパスを介して前記第2のストレージ装置にアクセスし、
     前記第2のパスを使用するアクセス量の割合が予め定められた割合を超えるか否かを判断し、当該アクセス量の割合が当該予め定められた割合を超える場合に、前記ホスト計算機から前記仮想論理ボリュームまでのアクセスパスに問題があると判定するアクセスパス診断部と、
     前記アクセスパスに問題があると判定されたときに、前記ホスト計算機及び前記第2のストレージ装置間を接続する第3のパスを、前記アクセスパスの変更先として特定する変更先パス特定部と、
     変更先パス特定部により特定された前記第3のパスを、前記第1のパスに代えて、前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部に変更するための所定の制御処理を実行するアクセスパス変更部と
     を備えることを特徴とする管理装置。
  2.  前記変更先パス特定部は、
     前記アクセスパスの変更先として、前記仮想論理ボリュームに入出力するデータの合計転送量がより多い前記第2のストレージ装置に接続された前記第3のパスに特定する
     ことを特徴とする請求項1に記載の管理装置。
  3.  前記第1のストレージ装置及び前記第2のストレージ装置間を接続する前記第2のパスが複数存在し、
     前記変更先パス特定部は、
     前記アクセスパス特定部により特定された前記第3のパスを前記アクセスパスの一部に変更した場合における各前記第2のパスの残帯域幅に基づいて、当該第2のパスの中から1つの前記第2のパスを前記アクセスパスの変更先として特定し、
     前記アクセスパス変更部は、
     前記変更先パス特定部により特定された前記第2のパスを、前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部に変更するための所定の制御処理を実行する
     ことを特徴とする請求項1に記載の管理装置。
  4.  前記変更先パス特定部により特定された前記第2及び第3のパスを含む前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスを表示し又は他の機器に表示させるアクセスパス表示部を備える
     ことを特徴とする請求項3に記載の管理装置。
  5.  前記アクセスパス表示部は、
     前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部を前記アクセスパス特定部により特定された前記第2及び第3のパスに変更した場合における、対応する前記第2のストレージ装置内の当該第3のパスが接続された第1のポートの残帯域幅と、当該第2のストレージ装置内の当該第2のパスが接続された第2のポートの残帯域幅とを、前記アクセスパスと併せて表示し又は前記他の機器に表示させる
     ことを特徴とする請求項4に記載の管理装置。
  6.  複数のストレージ装置が相互に接続され、前記複数のストレージ装置に含まれる第1のストレージ装置及び第2のストレージ装置がそれぞれ提供する記憶領域を複数のストレージ装置を跨る論理プールとして管理し、前記論理プールと対応付けられた仮想論理ボリュームをホスト計算機に提供し、前記仮想論理ボリュームの利用状況に応じて前記論理ボリュームから前記仮想論理ボリュームに動的に記憶領域を割り当てる計算機システムを管理する管理装置において実行される管理方法であって、
     前記ホスト計算機は、
     前記第1のストレージ装置と第1のパスを介して接続され、前記第1のパスを介して前記仮想論理ボリュームにアクセスし、
     アクセス対象のデータが前記第1のストレージ装置にあれば前記第1のストレージ装置にアクセスし、前記第2のストレージ装置にあれば前記第1のストレージ装置及び前記第2のストレージ装置間を接続する第2のパスを介して前記第2のストレージ装置にアクセスし、
     前記管理装置が、前記第2のパスを使用するアクセス量の割合が予め定められた割合を超えるか否かを判断する第1のステップと、
     前記管理装置が、当該アクセス量の割合が当該予め定められた割合を超える場合に、前記ホスト計算機から前記仮想論理ボリュームまでのアクセスパスに問題があると判定し、前記ホスト計算機及び前記第2のストレージ装置間を接続する第3のパスを、前記アクセスパスの変更先として特定する第2のステップと、
     前記管理装置が、特定した前記第3のパスを、前記第1のパスに代えて、前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部に変更するための所定の制御処理を実行する第3のステップと
     を備えることを特徴とする管理方法。
  7.  前記第2のステップにおいて、前記管理装置は、
     前記アクセスパスの変更先として、前記仮想論理ボリュームに入出力するデータの合計転送量がより多い前記第2のストレージ装置に接続された前記第3のパスに特定する
     ことを特徴とする請求項6に記載の管理方法。
  8.  前記第1のストレージ装置及び前記第2のストレージ装置間を接続する前記第2のパスが複数存在し、
     前記第2のステップにおいて、前記管理装置は、
     特定した前記第3のパスを前記アクセスパスの一部に変更した場合における各前記第2のパスの残帯域幅に基づいて、当該第2のパスの中から1つの前記第2のパスを前記アクセスパスの変更先として特定し、
     前記第3のステップにおいて、前記管理装置は、
     特定した前記第2のパスを、前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部に変更するための所定の制御処理を実行する
     ことを特徴とする請求項6に記載の管理方法。
  9.  前記第2のステップにおいて、前記管理装置は、
     特定した前記第2及び第3のパスを含む前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスを表示し又は他の機器に表示させる
     ことを特徴とする請求項8に記載の管理方法。
  10.  前記第2のステップにおいて、前記管理装置は、
     前記ホスト計算機から前記仮想論理ボリュームまでの前記アクセスパスの一部を前記アクセスパス特定部により特定された前記第2及び第3のパスに変更した場合における、対応する前記第2のストレージ装置内の当該第3のパスが接続された第1のポートの残帯域幅と、当該第2のストレージ装置内の当該第2のパスが接続された第2のポートの残帯域幅とを、前記アクセスパスと併せて表示し又は前記他の機器に表示させる
     ことを特徴とする請求項9に記載の管理方法。
PCT/JP2012/074702 2012-09-26 2012-09-26 管理装置及び管理方法 WO2014049718A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12885479.1A EP2835742A4 (en) 2012-09-26 2012-09-26 ADMINISTRATIVE APPROACH AND ADMINISTRATIVE PROCEDURE
PCT/JP2012/074702 WO2014049718A1 (ja) 2012-09-26 2012-09-26 管理装置及び管理方法
JP2014537897A JP5801968B2 (ja) 2012-09-26 2012-09-26 管理装置及び管理方法
US14/399,324 US9417817B2 (en) 2012-09-26 2012-09-26 Management apparatus and management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/074702 WO2014049718A1 (ja) 2012-09-26 2012-09-26 管理装置及び管理方法

Publications (1)

Publication Number Publication Date
WO2014049718A1 true WO2014049718A1 (ja) 2014-04-03

Family

ID=50387184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/074702 WO2014049718A1 (ja) 2012-09-26 2012-09-26 管理装置及び管理方法

Country Status (4)

Country Link
US (1) US9417817B2 (ja)
EP (1) EP2835742A4 (ja)
JP (1) JP5801968B2 (ja)
WO (1) WO2014049718A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099560A (ja) * 2019-12-20 2021-07-01 株式会社日立製作所 ストレージシステム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6519208B2 (ja) * 2015-02-02 2019-05-29 富士通株式会社 ストレージシステム
US10565178B1 (en) * 2015-03-11 2020-02-18 Fair Isaac Corporation Efficient storage and retrieval of XML data
US9996463B2 (en) * 2015-11-10 2018-06-12 International Business Machines Corporation Selection and placement of volumes in a storage system using stripes
US11163485B2 (en) * 2019-08-15 2021-11-02 International Business Machines Corporation Intelligently choosing transport channels across protocols by drive type
US11050825B1 (en) * 2020-01-30 2021-06-29 EMC IP Holding Company LLC Storage system port usage information sharing between host devices

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312126A (ja) * 2001-04-18 2002-10-25 Hitachi Ltd 磁気ディスク装置間結合装置
JP2003015915A (ja) 2001-07-05 2003-01-17 Hitachi Ltd 記憶装置の容量自動拡張方法
JP2003167794A (ja) 2001-11-29 2003-06-13 Hitachi Ltd Sanのアクセスパスの診断システム
JP2004302751A (ja) * 2003-03-31 2004-10-28 Hitachi Ltd 計算機システムの性能管理方法、および、記憶装置の性能を管理する計算機システム
JP2005217815A (ja) * 2004-01-30 2005-08-11 Hitachi Ltd パス制御方法
JP2008065561A (ja) 2006-09-06 2008-03-21 Hitachi Ltd ストレージシステムおよびストレージシステムの制御方法
US20110060885A1 (en) 2009-04-23 2011-03-10 Hitachi, Ltd. Computing system and controlling methods for the same

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4518887B2 (ja) * 2004-09-10 2010-08-04 株式会社日立製作所 ストレージエリアネットワーク管理システム及び管理装置とボリューム割当て方法並びにコンピュータ・ソフトウエア
JP4806556B2 (ja) * 2005-10-04 2011-11-02 株式会社日立製作所 ストレージシステム及び構成変更方法
JP4367406B2 (ja) * 2005-12-12 2009-11-18 株式会社日立製作所 コンピュータ割り当て方法
JP2009043030A (ja) 2007-08-09 2009-02-26 Hitachi Ltd ストレージシステム
US8347031B2 (en) * 2009-04-14 2013-01-01 Hitachi, Ltd. Storage system and control method for managing the input and output of data in a network to avoid congestion
US8151033B2 (en) * 2009-05-28 2012-04-03 Red Hat, Inc. Mechanism for virtual logical volume management
US8762668B2 (en) * 2010-11-18 2014-06-24 Hitachi, Ltd. Multipath switching over multiple storage systems

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312126A (ja) * 2001-04-18 2002-10-25 Hitachi Ltd 磁気ディスク装置間結合装置
JP2003015915A (ja) 2001-07-05 2003-01-17 Hitachi Ltd 記憶装置の容量自動拡張方法
JP2003167794A (ja) 2001-11-29 2003-06-13 Hitachi Ltd Sanのアクセスパスの診断システム
JP2004302751A (ja) * 2003-03-31 2004-10-28 Hitachi Ltd 計算機システムの性能管理方法、および、記憶装置の性能を管理する計算機システム
JP2005217815A (ja) * 2004-01-30 2005-08-11 Hitachi Ltd パス制御方法
JP2008065561A (ja) 2006-09-06 2008-03-21 Hitachi Ltd ストレージシステムおよびストレージシステムの制御方法
US20110060885A1 (en) 2009-04-23 2011-03-10 Hitachi, Ltd. Computing system and controlling methods for the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2835742A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099560A (ja) * 2019-12-20 2021-07-01 株式会社日立製作所 ストレージシステム
JP7348056B2 (ja) 2019-12-20 2023-09-20 株式会社日立製作所 ストレージシステム

Also Published As

Publication number Publication date
US9417817B2 (en) 2016-08-16
JP5801968B2 (ja) 2015-10-28
US20150074299A1 (en) 2015-03-12
EP2835742A1 (en) 2015-02-11
EP2835742A4 (en) 2015-12-30
JPWO2014049718A1 (ja) 2016-08-22

Similar Documents

Publication Publication Date Title
JP5801968B2 (ja) 管理装置及び管理方法
US10838620B2 (en) Efficient scaling of distributed storage systems
JP5121161B2 (ja) 記憶システム、パス管理方法及びパス管理装置
EP2667569B1 (en) Fabric-distributed resource scheduling
WO2014041591A1 (ja) 管理装置及び管理方法
US8473678B1 (en) Managing multi-tiered storage pool provisioning
EP1818795A2 (en) Storage system, data processing method and storage apparatus
US8046446B1 (en) System and method for providing availability using volume server sets in a storage environment employing distributed block virtualization
JP5603941B2 (ja) 計算機システム及びデータ移行方法
US9442765B2 (en) Identifying shared physical storage resources having possibility to be simultaneously used by two jobs when reaching a high load
WO2013046254A1 (en) Management server and data migration method
US20160162371A1 (en) Supporting multi-tenancy through service catalog
US20150242134A1 (en) Method and computer system to allocate actual memory area from storage pool to virtual volume
JP5244831B2 (ja) 計算機システム及びストレージ統合管理方法
US7839788B2 (en) Systems and methods for load balancing storage system requests in a multi-path environment based on transfer speed of the multiple paths
JP2009282800A (ja) ストレージ装置及びその制御方法
US9304875B2 (en) Dynamically tracking logical units moving between input/output ports of a storage area network target
US8151048B1 (en) Managing storage pool provisioning
JP2009230367A (ja) 情報処理装置及び情報処理方法
JP2013535721A (ja) ストレージ装置及びその管理方法
US9940073B1 (en) Method and apparatus for automated selection of a storage group for storage tiering
JP2011197792A (ja) 管理装置及び管理方法
JP2008059089A (ja) 記憶システム及びデータ管理移行方法
WO2013076779A1 (en) Storage apparatus and its method for selecting a location where storing differential data based on detection of snapshot deletion behaviour
US20200249970A1 (en) Associating storage system performance objectives with virtual machines

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12885479

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014537897

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012885479

Country of ref document: EP

Ref document number: 14399324

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE