WO2013103003A1 - 計算機システムの管理装置及び管理方法 - Google Patents

計算機システムの管理装置及び管理方法 Download PDF

Info

Publication number
WO2013103003A1
WO2013103003A1 PCT/JP2012/050061 JP2012050061W WO2013103003A1 WO 2013103003 A1 WO2013103003 A1 WO 2013103003A1 JP 2012050061 W JP2012050061 W JP 2012050061W WO 2013103003 A1 WO2013103003 A1 WO 2013103003A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
relocation
computer
resource
logical volume
Prior art date
Application number
PCT/JP2012/050061
Other languages
English (en)
French (fr)
Inventor
光 白須
内山 靖文
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2012/050061 priority Critical patent/WO2013103003A1/ja
Priority to US13/393,468 priority patent/US20130179636A1/en
Publication of WO2013103003A1 publication Critical patent/WO2013103003A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • G06F3/0649Lifecycle management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays

Definitions

  • the present invention relates to a computer system management apparatus and management method.
  • a technology for using hierarchical storage in units of pages is known for more efficient storage management.
  • a plurality of storage tiers having different performances are defined in a logical pool, and each time a virtual logical volume is used by a host computer, a storage area in the pool is allocated to the virtual logical volume.
  • pages with a high access frequency by a host computer are arranged in a relatively high-performance storage hierarchy, and pages with a low access frequency are arranged in a relatively low-performance storage hierarchy (Patent Document 1).
  • Patent Document 2 As a second conventional technique, there is known a technique in which when a bottleneck is detected on an access path from a host computer to a logical volume, an alternative path path is switched in consideration of influence on other applications.
  • pages with high access frequency are arranged in a high-performance storage hierarchy to improve response performance.
  • a bottleneck exists on the access path from the host computer to the logical volume, there is a high possibility that the response performance will not be improved even if pages with a high access frequency are arranged in a high-performance storage hierarchy.
  • the usage rate of the CPU (Central Processing Unit) of the host computer is high, data processing cannot be performed at high speed when the host computer accesses a page arranged in a high-performance storage hierarchy. Further, for example, when the CPU usage rate of the switch connecting the host computer and the storage system is high, the host computer cannot quickly access the data of the page arranged in the high-performance storage hierarchy.
  • the CPU usage rate of the switch connecting the host computer and the storage system is high, the host computer cannot quickly access the data of the page arranged in the high-performance storage hierarchy.
  • the bottleneck can be avoided by switching to the alternative path.
  • it is necessary to change not only the storage system but also the settings of the entire computer system including the host computer and the switch. Therefore, the work of switching to an alternative path takes time and effort, and the work burden on the user is large.
  • the user cannot easily determine whether the bottleneck on the access route is temporary or occurs constantly.
  • a computer system such as a data center in which a large number of host computers, a large number of switches, and a large number of storage systems coexist, it is difficult to distinguish them.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a computer system management apparatus and management method capable of improving the performance of the computer system. Another object of the present invention is to provide a user with information related to the suppression of the rearrangement process, which can effectively use the storage area of the storage system by preventing the execution of the unnecessary rearrangement process. Accordingly, it is an object of the present invention to provide a computer system management apparatus and a management method that can support user judgment regarding a configuration change of a computer system.
  • a management apparatus that manages a computer system including a host computer and a storage system, and the storage system includes a virtual logical volume to be provided to the host computer, and a plurality of virtual logical volumes.
  • a plurality of logical storage areas comprising a plurality of storage hierarchies based on the frequency of access to each logical storage area by the host computer.
  • the resource monitoring unit Based on the monitoring result of the resource monitoring unit, the resource monitoring unit that monitors the status of the resource related to the virtual logical volume, and executes the rearrangement process for associating with the storage area in the storage hierarchy
  • a relocation availability determination unit for determining whether to perform relocation processing for a virtual logical volume, Provided.
  • the resource monitoring unit is a predetermined resource existing on a communication path from the host computer to the virtual logical volume, and can monitor the state of a plurality of predetermined resources including the host computer and the storage system.
  • the relocation availability determination unit determines to suppress the relocation processing for the virtual logical volume when the state of a plurality of predetermined resources monitored by the resource monitoring unit satisfies a predetermined predetermined deterrence condition Can do.
  • a relocation instruction unit for instructing the storage system to execute the relocation process based on the determination by the relocation availability determination unit may be provided.
  • the relocation availability determination unit performs relocation processing for a virtual logical volume when the state of at least one of the predetermined resources satisfies a predetermined deterrence condition set in advance for the predetermined resource.
  • the deterrence may be determined.
  • each logical storage area of the virtual logical volume is relocated to a higher storage tier than the current storage tier among the respective storage tiers. Arrangement can be prohibited.
  • the features of the present invention described above can be combined in various ways other than those explicitly described. Furthermore, the present invention can be grasped as a computer program.
  • the computer program is installed in the computer via a communication medium or a recording medium.
  • FIG. 2 is an explanatory diagram showing the overall configuration of a computer system.
  • Explanatory drawing which shows the relationship between a virtual volume, a pool, and a storage device.
  • Explanatory drawing which shows the relationship between a computer program and a table of a management computer.
  • 3 is a configuration example of a network topology management table.
  • the flowchart which shows the whole flow of operation
  • the flowchart which shows a threshold value setting process. Sample screen for setting the threshold.
  • 10 is a flowchart of processing for monitoring resources and collecting configuration information.
  • 10 is a flowchart of processing for instructing the storage system to execute rearrangement processing.
  • the flowchart of a warning process An example of a warning pop-up screen.
  • An example of a network topology display screen that includes the resource that caused the suppression of relocation processing.
  • the state of resources related to the virtual logical volume is monitored, and whether or not the relocation processing for the virtual logical volume can be executed is determined based on the monitoring result. Furthermore, in this embodiment, the history when the execution of the rearrangement process is suppressed is managed, and the relationship between the bottleneck on the communication path and the suppression of the rearrangement process is visualized and provided to the user.
  • xxx table various types of information may be described using the expression “xxx table”, but the various types of information may be expressed using a data structure other than a table. In order to show that it does not depend on the data structure, the “xxx table” can be called “xxx information”.
  • the process may be described using “program” as the subject.
  • the program is executed by a processor (for example, a CPU (Central Processing Unit)) to execute a predetermined process while appropriately using a storage resource such as a memory and a communication interface device such as a communication port. Therefore, the subject of processing may be a processor.
  • the processor may have dedicated hardware in addition to the CPU.
  • the computer program may be installed in the computer from a program source.
  • the program source may be, for example, a program distribution server or a storage medium.
  • each element such as a pool volume can be identified by an identifier (ID), a number, a name, and the like.
  • ID identifier
  • a number a number
  • a name a name
  • Fig. 1 shows the overall configuration of the computer system.
  • the computer system includes, for example, at least one host computer (hereinafter referred to as a host) 10, at least one switch 20, at least one storage system 30, and one management computer 40.
  • the host 10 and the storage system 30 are connected via the switch 20.
  • the host 10, the switch 20, and the storage system 30 are connected to be capable of bidirectional communication via a communication network CN 1 such as an IP-SAN (Internet Protocol_SAN) or FC-SAN (Fibre Channel-Storage Area Network). .
  • IP-SAN Internet Protocol_SAN
  • FC-SAN Fibre Channel-Storage Area Network
  • the management computer 40 which is an example of a “management device”, is capable of bidirectional communication with the host 10, the switch 20, and the storage system 30 via a management communication network CN2, such as a LAN (Local Area Network). Connected to.
  • a management communication network CN2 such as a LAN (Local Area Network). Connected to.
  • the communication networks CN1 and CN2 may be configured as one LAN.
  • the host 10 is configured as a computer such as a server computer or a main frame machine, for example.
  • the host 10 includes, for example, a microprocessor (CPU) 11, a memory 12, an FC port 13, and a LAN port 14.
  • the memory 12 stores an application program (hereinafter referred to as application) P10 in addition to an operating system (not shown).
  • application an application program
  • the CPU 11 performs predetermined data processing by executing the application P10.
  • the FC port 13 is a communication circuit for connecting to the communication network CN1.
  • the LAN port 14 is a communication circuit for connecting to the communication network CN2.
  • the switch 20 manages communication between the host 10 and the storage system 30.
  • the switch 20 includes, for example, a CPU 21, a memory 22, a plurality of FC ports 23, and a LAN port 24.
  • the memory 22 stores a microprogram P20 for controlling the operation of the switch 20.
  • the storage system 30 is a device that provides a storage area to the host 10.
  • the storage system 30 includes, for example, an FC controller 31, a virtual volume 32, a plurality of logical volumes 35 (see FIG. 2), a CPU 36, a memory 37, an FC port 38, and a LAN port 39.
  • the memory 37 stores, for example, a program P30 that manages a virtual volume, a program P31 that manages a pool 34 (see FIG. 2), and a program P32 that performs page rearrangement.
  • the virtual volume is denoted as VVOL.
  • the virtual volume management program P30 allocates a physical page 330 (see FIG. 2) in the pool 34 to the virtual volume 32 in response to an access from the host 10.
  • the virtual volume management program P30 manages the correspondence relationship between the logical page 320 (see FIG. 2) constituting the virtual volume 32 and the physical page 330 in the pool 34.
  • the pool management program P31 manages the configuration of the pool 34. Based on the access frequency (I / O amount) to the logical page 320, the rearrangement program P32 determines a physical page 330 that stores data of the logical page 320. As will be described later, the relocation program P32 does not perform the relocation processing for the virtual volume 32 for which the execution of the relocation processing is suppressed from the management computer 40.
  • the FC controller 32 controls communication between the storage system 30 and the host 10 and the switch 20.
  • the FC controller 32 is connected to the communication network CN1 via the FC port 38.
  • the FC controller 32 is managed as a predetermined resource on the communication path for accessing the virtual volume 32, similarly to the host 10 and the switch 20.
  • the usage rate of the CPU 310 of the FC controller 32 is one of performance monitoring targets by the management computer 40.
  • the management computer 40 includes, for example, a CPU 41, a memory 42, a LAN port 43, and a user interface unit 44.
  • the memory 42 stores a plurality of computer programs P40 to P46 and a plurality of management tables T40 to T45. Details of the programs P40 to P46 and the tables T40 to T45 will be described later.
  • the user interface unit 44 includes an information output device that outputs information to the user and an information input device that receives an input from the user.
  • Examples of the information output device include a display device, a printer, and an audio output device.
  • Examples of the information input device include a keyboard switch, a pointing device, a pen tablet, and a voice input device.
  • the management computer 40 and the user interface unit 44 may be configured separately.
  • a configuration in which a management terminal for operating the management computer 40 is provided and information is displayed on the display device of the management terminal, or information is input to the management computer 40 via a keyboard or the like of the management terminal may be used.
  • a management terminal can be configured as a personal computer, a mobile phone, or a portable information terminal, for example.
  • FIG. 2 is an explanatory diagram schematically showing the relationship between the virtual volume 32, the pool 34, and the logical volume 35.
  • the storage system 30 can include a plurality of storage devices.
  • various devices capable of reading and writing data such as a hard disk drive, a semiconductor memory drive, a flash memory device (SSD: Solid State Drive), and an optical disk drive can be used.
  • a hard disk drive for example, a FC (Fibre Channel) disk, a SCSI (Small Computer System Interface) disk, a SATA disk, an ATA (AT Attachment) disk, a SAS (Serial Attached SCSI) disk, or the like can be used.
  • FC Fibre Channel
  • SCSI Serial Computer System Interface
  • SATA Serial Attachment
  • SAS Serial Attached SCSI
  • various storage devices such as flash memory, FeRAM (Ferroelectric Random Access Memory), MRAM (Magnetoresistive Random Access Memory), phase change memory (Ovonic Unified Memory), RRAM (Resistance RAM: registered trademark) may be used. it can. Further, for example, a configuration in which different types of storage devices such as a flash memory device and a hard disk drive are mixed may be used.
  • One or a plurality of logical volumes 35A to 35C are created using the redundant storage area.
  • the logical volume 35A is generated using a storage area of a relatively high-performance storage device (for example, SSD).
  • the logical volume 35B is generated using a storage area of a medium performance storage device (for example, SAS).
  • the logical volume 35C is generated using a storage area (for example, SATA) of a low-performance storage device. It should be noted that one or a plurality of logical volumes can be created using a storage area of one storage device. When the logical volumes 35A to 35C are not particularly distinguished, they are called logical volumes 35.
  • the pool 34 includes a plurality of storage tiers 33A, 33B, and 33C having different performances.
  • the first storage hierarchy 33A is the highest performance hierarchy.
  • a high-performance logical volume 35A is registered in the first storage hierarchy 33A.
  • a medium performance logical volume 35B is registered in the second storage hierarchy 33B.
  • a low-performance logical volume 35C is registered in the third storage hierarchy 33C.
  • the storage system 30 can be provided with a plurality of virtual volumes 32 as virtual logical volumes.
  • the first virtual volume 32A is used by the first host 10A.
  • the second virtual volume 32B is used by the second host 10B.
  • the third virtual volume 32C is used by the third host 10C.
  • the hosts 10A to 10C are called the host 10 and the virtual volumes 32A to 32C are called the virtual volume 32.
  • the logical storage area of the virtual volume 32 is composed of a plurality of logical pages 320.
  • the physical page 330 is associated with the logical page 320.
  • a physical storage area of the storage device is divided by a plurality of physical pages (or segments) 330.
  • a relatively large number of physical pages 330A in the high-performance storage hierarchy 33A are allocated to the virtual volume 32A.
  • a physical page 330B in the medium performance storage tier 33B is allocated to the virtual volume 32B.
  • a physical page 330C in the low-performance storage tier 33C is allocated to the virtual volume 32C.
  • the physical page 330 having higher performance than the currently allocated physical page 330 is allocated to the logical page 320 having a high access frequency.
  • a physical page 330 having a lower performance than the currently allocated physical page 330 is allocated to the logical page 320 having a low access frequency.
  • FIG. 3 is an explanatory diagram showing the relationship between the computer programs P40 to P46 of the management computer 40 and the management tables T40 to T45.
  • a solid line arrow in FIG. 3 means update or output.
  • a dotted arrow in FIG. 3 means reference or acquisition.
  • the resource monitoring program P40 and the configuration information collection program P46 acquire performance information and configuration information from the host 10, the switch 20, and the storage system 30, and use the acquired information to manage the resource management table T40, the network topology management table T41, and the resource performance history.
  • the management table T42 is updated.
  • the resource monitoring program P40 and the configuration information collection program P46 are shown together, but in practice they can be configured as different programs. Further, since the paper surface is small, the switch 20 is omitted in FIG.
  • the asset management server 50 is a computer that manages at least a part (for example, an installation location and an administrator) of information about each resource (host 10, switch 20, storage system 30) in the computer system.
  • the rearrangement availability determination program P41 determines whether to permit page rearrangement based on the resource information management table T40, the network topology management table T41, and the resource performance history management table T42.
  • the lines connecting the relocation permission determination program P41 and the tables T40 to T43 are omitted in FIG.
  • the rearrangement availability determination program P41 determines whether page rearrangement is possible for each virtual volume, and stores the result in the page management table T44 and the rearrangement suppression history management table T45.
  • the relocation instruction program P42 notifies the storage system 30 of the availability of relocation processing based on the determination of the relocation availability determination program P41. Although omitted in FIG. 3, the rearrangement instruction program P42 can refer to the page management table T44.
  • the warning program P43 refers to the resource information management table T40, the page management table T44, and the rearrangement suppression history management table T45, and determines whether or not a warning to the user is necessary. If it is determined that a warning is necessary, the warning program P43 presents a pop-up screen G30, which is a simple warning screen, to the user.
  • the analysis result output program P44 refers to the resource monitoring program P40, the network topology management table T41, the resource performance history management table T42, the page management table T44, and the rearrangement suppression history management table T45. Is analyzed.
  • the analysis result output program P44 presents the analysis result to the user via the analysis result display screens G40, G50, and G60. The user can determine whether or not the communication path in the computer system needs to be changed based on the analysis result.
  • the setting program P45 stores the values input from the user via the setting screens G10 and G20 in the resource information management table T40 and the warning management table T43.
  • each management table will be described.
  • the configuration of each table described below is merely an example, and may be different from the illustrated configuration.
  • each table may include items other than the illustrated items, and some of the plurality of illustrated items may be removed.
  • the illustrated table may be divided into a plurality of tables, or the plurality of illustrated tables may be combined into one table.
  • FIG. 4 shows the configuration of the resource management table T40.
  • the resource management table T40 is a table for managing information about each resource in the computer system. At least a part of the resource management table T40 can be created based on data stored in the asset management server 50, for example.
  • the resource management table T40 manages, for example, a resource identifier C400, a resource name C401, a resource type C402, an installation location C403, an administrator name C404, and a rearrangement suppression threshold C405 in association with each other.
  • the resource identifier C400 is information for identifying the host 10, the switch 20, and the storage system 30 that are each resource in the computer system.
  • the resource name C401 is the name of each resource. The user can set a name that is easy for the user to understand for the resource.
  • Resource type C402 is information indicating the type of resource.
  • the installation location C403 is information for specifying the location where the resource is installed.
  • the manager name C404 is the name of the person responsible for managing the resource.
  • the rearrangement suppression threshold value C405 is a threshold value set in advance to suppress the execution of the rearrangement process.
  • the rearrangement suppression threshold C405 can be set for the CPU usage rate for each resource type.
  • the resource type when the resource type is an FC controller, when the usage rate of the CPU 310 is 80% or more, the relocation processing of the virtual volume 32 related to the FC controller is suppressed.
  • the resource type when the resource type is a switch, when the usage rate of the CPU 21 is 85% or more, the relocation processing of the virtual volume 32 related to the FC switch is suppressed.
  • the resource type when the resource type is a host and the usage rate of the CPU 11 is 90% or more, the relocation processing of the virtual volume 32 related to the host is suppressed.
  • the above threshold values are examples, and are not limited to them. Further, instead of setting the rearrangement suppression threshold C405 for each resource type, a configuration may be used in which the rearrangement suppression threshold C405 is set for each resource. A configuration may be adopted in which a threshold value defined in advance for each resource type is set as an initial value of the relocation suppression threshold value C405, and the user manually adjusts the initial value individually.
  • FIG. 5 shows the configuration of the table T41 for managing the network topology.
  • the network topology management table T41 manages, for example, a virtual volume identifier C410, a storage system identifier C411, and connection configuration information C412 in association with each other.
  • the virtual volume identifier C410 is information for identifying each virtual volume 32.
  • the storage system identifier (storage system number) C411 is information for identifying the storage system 30.
  • the connection configuration information C 412 is information indicating the connection order of each resource existing on the communication path for the host 10 to access the virtual volume 32 in the storage system 30.
  • R-0000 in the figure indicates the FC controller 31.
  • R-0001 and “R-0002” indicate the switch 20.
  • R-0003 indicate the host 10.
  • R-0000, R-0001, R-0003 is described in the connection configuration information C412, the FC volume (R-0000) and the switch (R) are included in the virtual volume 32 specified by the virtual volume identifier C410. This means that the host (R-0003) is connected via -0001).
  • FIG. 6 shows the configuration of the table T42 for managing the performance history of resources.
  • the resource performance history management table T42 manages the date and time C420, the resource identifier C421, and the usage rate C422 in association with each other.
  • the date and time C420 indicates the date and time when the resource performance information is acquired.
  • the usage rate C422 indicates a CPU usage rate as resource performance information.
  • FIG. 7 shows the configuration of the table T43 that manages threshold values for warning.
  • the warning management table T43 manages, for example, a warning identifier C430, a type C431, a threshold value C432 of the number of suppressed volumes, and a continuous number C433.
  • the warning identifier C430 is information for identifying a warning to the user.
  • the type C431 indicates the type of warning.
  • An example of the warning type is “day”. “Day” is a warning issued when relocation processing is suppressed for a predetermined date (C433) or more in a predetermined number (C432) or more of virtual volumes.
  • the suppression volume number threshold C432 is a part of a warning condition for issuing a warning, and indicates the number of virtual volumes 32 whose rearrangement processing is suppressed.
  • the continuous number C433 constitutes a warning condition together with the suppressed volume number threshold C432, and indicates the number of consecutive days when the number of virtual volumes whose relocation processing has been suppressed becomes equal to or greater than the threshold C432.
  • a warning is output to the user when one or more virtual volumes for which rearrangement processing has been suppressed exist for three consecutive days. Not only when the relocation processing is suppressed for three consecutive days for the same virtual volume, but also when the relocation processing is suppressed for different virtual volumes every day and the state continues for three days, a warning is issued to the user. .
  • FIG. 8 shows a configuration of a table T44 for managing each logical page 320 of the virtual volume 32.
  • the page management table T44 manages a virtual volume identifier C440, a storage system identifier C441, a start page number C442, an end page number C443, and a relocation permission flag C444 in association with each other.
  • the start page number C442 is information for specifying the first logical page 320 among the logical pages 320 constituting the virtual volume 32 specified by the virtual volume identifier C440.
  • the end page number C443 is information for specifying the last logical page 320 among the logical pages 320 constituting the virtual volume 32.
  • the rearrangement availability flag C444 is information that defines whether or not page rearrangement is possible. For example, “YES” is set when the rearrangement is permitted, and “NO” is set when the rearrangement is inhibited.
  • one relocation availability flag C444 is commonly applied to each logical page 320 of the virtual volume 32.
  • a configuration may be adopted in which a relocation permission flag can be set for each logical page.
  • FIG. 9 shows the configuration of the table T45 that manages the relocation processing suppression history.
  • the relocation suppression history management table T45 manages, for example, a virtual volume identifier C450, a storage system identifier C451, a cause resource identifier C452, and a date C453 in association with each other.
  • the cause resource identifier C452 is information that identifies the resource that caused the cause when the suppression of the rearrangement process is determined for the virtual volume 32 specified by the virtual volume identifier C450 and the storage system identifier C451.
  • a date C453 indicates the date and time when the suppression of the rearrangement process is determined.
  • FIG. 10 is a flowchart showing the flow of the entire operation by the management computer 40.
  • the management computer 40 determines whether a predetermined timing set in advance has arrived (S10), and if the predetermined timing has arrived (S10: YES), it determines whether hierarchical control of the pool 34 is being performed (S11). That is, when each virtual volume 32 is managed by automatic tiering, which is the premise of this embodiment, the following processes are performed.
  • the predetermined timing in step S10 is, for example, (T1) before execution of relocation processing by the storage system, (T2) when the time specified by the user arrives (T3) the load of a plurality of predetermined resources is monitored When the monitoring start threshold value for starting is reached, a selection can be made from among them.
  • the management computer 40 executes the processing shown in FIG. 10 before the periodic relocation processing by the storage system 30 is executed.
  • the management computer 40 executes the process shown in FIG. 10 when the date and time designated in advance by the user arrives.
  • the management computer 40 has the load (for example, CPU usage rate) of any one resource among the resources related to the virtual volume 32 reach a preset monitoring start threshold value.
  • the monitoring start threshold is set as a value smaller than the value described in the rearrangement suppression threshold C405 of the resource management table T40. For example, set the monitoring start threshold to 75% for FC controllers, set the monitoring start threshold to 80% for switches, and set the monitoring start threshold to 85% for hosts. May be.
  • the above timings can also be used in appropriate combination.
  • the management computer 40 When the management computer 40 combines the timing T1 and the timing T2, for example, after the date and time designated by the user arrives and before the relocation processing by the storage system 30 is executed, the management computer 40 is shown in FIG. Execute the process.
  • the management computer 40 may be configured to execute the processing shown in FIG. 10 when any one of the timings T1, T2, and T3 arrives.
  • the management computer 40 When the predetermined timing has arrived (S10: YES) and the hierarchical control of the pool 34 is being executed (S11: YES), the management computer 40 performs threshold setting processing (S30), resource monitoring and configuration information. The collection process (S40) is executed.
  • management computer 40 executes a rearrangement determination process (S50) and a rearrangement instruction process (S60). Furthermore, the management computer 40 executes warning processing (S70) and analysis result output processing (S80). Details of each process will be described below.
  • FIG. 11 is a flowchart showing a process for setting a threshold value. This process shows the details of step S30 in FIG.
  • the management computer 40 determines whether or not a threshold value for inhibiting rearrangement is set in the item C405 of the resource management table T40 (S300).
  • the rearrangement suppression threshold may be indicated as “ThP”.
  • the rearrangement suppression threshold value may be abbreviated as “suppression threshold value”.
  • the management computer 40 When the rearrangement suppression threshold is not set (S300: NO), the management computer 40 creates and displays the threshold setting screen G10 shown in FIG. 12A (S301). The user can set a threshold for suppressing the rearrangement process for each resource type via the threshold setting screen G10 shown in FIG.
  • the management computer 40 determines whether or not the setting button B10 in the threshold setting screen G10 has been pressed (S302). When the setting button B10 is pressed (S302: YES), the management computer 40 determines whether a CPU usage rate (threshold value) is input for each resource type on the threshold value setting screen G10 (S303).
  • the management computer 40 registers the input value in the item C405 of the resource management table T40 (S304).
  • the management computer 40 registers 100% as an initial value in the item C405 of the resource management table T40. (S305).
  • the management computer 40 determines whether a warning threshold value is set in the warning management table T43 (S306). If the relocation suppression threshold is set in the resource management table T40 (S300: YES), steps S301 to S305 are skipped and the process proceeds to step S306.
  • the management computer 40 ends this process.
  • the management computer 40 displays a warning threshold value setting screen G20 shown in FIG. 12B (S307). The user inputs the number of consecutive days and the number of suppressed virtual volumes as a warning condition via the warning threshold setting screen G20.
  • the management computer 40 determines whether the setting button B20 in the warning threshold setting screen G20 has been pressed (S308). When the setting button B20 is pressed by the user (S308: YES), the management computer 40 determines whether the number of suppressed volumes and the number of consecutive days are input as warning conditions (S309).
  • the management computer 40 registers the input values in the warning management table T43 (S310).
  • the management computer 40 registers an initial value prepared in advance in the warning management table T43 (S310).
  • FIG. 13 is a flowchart of processing for collecting resource monitoring and configuration information.
  • FIG. 13 shows details of step S40 in FIG.
  • the management computer 40 acquires configuration information from the host 10, the switch 20, and the storage system 30 via the management communication network CN2 (S400). Further, the management computer 40 acquires the installation location and administrator name of each resource from the asset management server 50 (S401). The management computer 40 creates a resource management table T40 based on the information acquired in steps S400 and S401 (S402). As described above, the warning threshold value is registered in the resource management table T40 by the process shown in FIG.
  • the management computer 40 creates a network topology management table T41 based on the configuration information acquired in step S400 (S403).
  • the management computer 40 acquires performance information from the host 10, the switch 20, and the storage system 30 (S404), and generates a resource performance history management table T42 (S405).
  • FIG. 14 is a flowchart of processing for determining whether or not relocation is possible. The process of FIG. 14 shows the details of step S50 in FIG.
  • the management computer 40 executes the following steps S501 to S506 for all virtual volumes 32 described in the page management table T44 (S500).
  • the management computer 40 selects one virtual volume as a target volume from the virtual volumes described in the page management table T44, and acquires information on resources related to the target volume from the network topology management table T41 (S501).
  • the resource related to the target volume means a resource that exists on the access path to the virtual volume 32 to be processed, and is also referred to as a related resource hereinafter.
  • the management computer 40 executes the following steps S503 to S506 for all the extracted related resources (S502).
  • the management computer 40 acquires the CPU usage rate Lr of the related resource (S503).
  • the management computer 40 determines whether the CPU usage rate Lr of the related resource is equal to or greater than the rearrangement suppression threshold ThP (S504). When the CPU usage rate Lr is equal to or greater than the rearrangement suppression threshold ThP (S504: YES), the management computer 40 sets “NO” in the rearrangement availability flag for the target volume 32 (S505). On the other hand, when the CPU usage rate Lr is less than the rearrangement suppression threshold ThP (S504: NO), the management computer 40 sets “YES” in the rearrangement availability flag for the target volume 32 (S506).
  • FIG. 15 is a flowchart showing a process for instructing the storage system 30 about the rearrangement process. This process is the detail of step S60 in FIG.
  • the management computer 40 executes the following steps S601 to S604 for all virtual volumes 32 described in the page management table T44 (S600).
  • the management computer 40 selects one virtual volume 32 from the page management table T44 as a processing target volume.
  • the management computer 40 determines whether “YES” is set in the relocation possibility flag for the target volume (S601). If “YES” is set in the relocation permission flag (S602), the management computer 40 instructs the storage system 30 to execute the relocation processing of the target volume (S603).
  • the management computer 40 instructs the storage system 30 to inhibit execution of the relocation processing of the target volume (S603).
  • the management computer 40 prohibits the data of the target volume from being rearranged to a higher hierarchy (higher-performance hierarchy) than the hierarchy to which the current volume belongs, and the hierarchy lower than the hierarchy to which the data of the target volume currently belongs Relocation to (lower performance tier) is allowed.
  • the management computer 40 updates the rearrangement suppression history management table T45 based on the instruction to suppress the rearrangement process in step S603 (S604).
  • FIG. 16 is a flowchart showing a process for issuing a warning to the user.
  • the process of FIG. 16 is the details of step S70 in FIG.
  • the management computer 40 refers to the rearrangement suppression history management table T45 (S700), and determines whether or not the warning condition registered in the warning management table T43 is satisfied (S701).
  • the management computer 40 determines whether the rearrangement process has been suppressed for a predetermined time or more for a predetermined number or more of the virtual volumes 32. In the example of FIG. 7, when the relocation processing for three consecutive days is suppressed for the same virtual volume, or when the relocation processing for different virtual volumes is suppressed for three consecutive days, the warning condition is It is filled.
  • the management computer 40 displays a warning pop-up screen G30 (S702).
  • the warning pop-up screen G30 includes, for example, a region GP31 for displaying a warning message, a confirmation button B31, and an OK button B32.
  • the management computer 40 warns the user that there is a possibility that the system performance has deteriorated by presenting the pop-up screen G30 to the user.
  • the management computer 40 determines whether the confirmation button B31 has been pressed by the user (S703).
  • the confirmation button B31 is pressed (S703: confirmation)
  • the management computer 40 refers to the rearrangement suppression history management table T45 and determines the number of virtual volumes 32 whose rearrangement processing is suppressed within a predetermined display target period. Calculate (S704).
  • the management computer 40 creates and displays a rearrangement suppression statistics screen G40 shown in FIG. 18 (S705).
  • a screen G40 shown in FIG. 18 shows statistics about suppression of rearrangement, period specifying units GP41 and GP42 for specifying a display target period of the statistics, a graph display unit GP43 for displaying the statistics as a graph, and an overview display A part GP44 and a detail button B40 are provided.
  • the display target period can be designated by a display cycle such as one month, one week, one day, etc. (GP41), or a specific date can be designated (GP42).
  • the vertical axis of the graph display part GP43 indicates the number of virtual volumes for which the rearrangement process has been suppressed
  • the horizontal axis indicates the display target period designated by either the designation part GP41 or GP42.
  • the resolution of the memory on the horizontal axis varies depending on the length of the display target period. For example, when a change over a long period such as one month is displayed, it is displayed on a daily basis. On the other hand, when a change for a certain day is displayed, a change for every predetermined time is displayed like every hour or every three hours.
  • an overview of the bar graph is displayed.
  • the summary can include, for example, an identifier of a virtual volume whose relocation processing has been suppressed.
  • the number of virtual volumes for which the rearrangement process is suppressed which is a warning target, is surrounded by a thick line.
  • the graph display part GP43 can also display a suppression volume (a virtual volume for which the rearrangement process is suppressed) that does not satisfy the warning condition.
  • a virtual volume that does not satisfy these warning conditions but whose relocation processing is suppressed is indicated by being surrounded by a dotted line.
  • the management computer 40 determines whether the detail button B40 has been pressed by the user (S706).
  • the management computer 40 executes an analysis result output process (S707).
  • the period to be analyzed may be the entire warning target period, or the user may select a period on the screen.
  • FIG. 19 is a flowchart of a process for outputting the analysis result. This process is the detail of step S80 in FIG.
  • the management computer 40 calculates the number of virtual volumes for which the rearrangement process is suppressed (S801) for all the cause resources that have been the cause of suppressing the rearrangement process during the analysis target period (S800).
  • the management computer 40 creates and displays the deterrence cause resource list screen G50 shown in FIG. 20 by rearranging the cause resources in the descending order of the number of virtual volumes for which the relocation processing is inhibited (S802).
  • the screen G50 shown in FIG. 20 shows a list of resources that cause the rearrangement process to be suppressed during the analysis target period.
  • the screen G50 includes, for example, a display unit GP51 that displays an analysis target period, a display unit GP52 that displays the total number of virtual volumes whose relocation processing has been suppressed within the analysis target period, a list display unit GP53, and a detail button B51 is provided.
  • the list display unit GP53 displays, for example, an influence level GP530, a resource name GP531, a CPU usage rate GP532, an administrator name GP533, an installation location GP534, and a suppression cause GP535.
  • the influence degree GP 530 indicates the influence of resources on the cumulative number of virtual volumes whose relocation processing is suppressed within the analysis target period. For example, with reference to FIG. 21, a case will be described where relocation processing is suppressed for a total of six virtual volumes within the analysis target period.
  • FIG. 21 shows the relationship between the resource that caused the suppression of the rearrangement process and the virtual volume whose rearrangement process was suppressed by the resource.
  • the virtual volume (00:00:00) is connected to the host (R-0003) via the FC controller (R-0000) and the switch (R-0001).
  • another virtual volume (00:00:01) is connected to another host (R-0004) via an FC controller (R-00000) and a switch (R-0001).
  • Still another virtual volume (00:00:02) is connected to the host (R-0005) via the FC controller (R-0000) and another switch (R-0002).
  • the CPU usage rate of the host (R-0003) on May 10 is the CPU usage rate of the switch (R-0001) on May 11, and the FC controller (R It is assumed that the CPU usage rate of ⁇ 0000) exceeds the inhibition threshold value. Assume that the current date is May 12th.
  • the relocation processing is suppressed when the CPU usage rate of the host (R-0003) exceeds the suppression threshold. .
  • the virtual volume (00:00:00) includes the first day of May 10th, the second day of May 11th, and the third day of May 12th.
  • the rearrangement process is suppressed.
  • three virtual volumes (00:00:00) occupy three.
  • the switch (R-0001) is connected to the virtual volume (00:00:00) and the virtual volume (00:00:01).
  • the CPU usage rate of the switch (R-0001) exceeds the suppression threshold value, the relocation processing of the virtual volumes (00:00:00) and (00:00:01) is suppressed.
  • the relocation process is suppressed for two virtual volumes as of May 11, and the relocation process is also suppressed for two virtual volumes on May 12, the next day.
  • the FC controller (R-0000) is connected to the virtual volume (00:00:00), the virtual volume (00:00:01), and the virtual volume (00:00:02).
  • the management computer 40 determines whether the user has pressed the detail button B51 in the screen G50 (S803). When the detail button B51 is pressed (S803: YES), the management computer 40 creates and displays the inhibition resource network screen G60 shown in FIG. 22 (S804).
  • the inhibition resource network screen G60 shown in FIG. 22 shows the relationship between the virtual volume 32 in which the rearrangement process is inhibited and the resource that has caused the rearrangement process as a network connection configuration diagram GP61.
  • a summary display part GP62 for displaying the summary is associated with the resource that caused the suppression.
  • the user can easily grasp which virtual volume 32 has been suppressed from the reallocation process and what resource has caused the reallocation process to be suppressed.
  • the following effects can be obtained.
  • it is monitored whether or not there is a resource (cause resource) that is a bottleneck with a high CPU usage rate among resources existing on the access path to the virtual volume 32.
  • the relocation processing for the virtual volume 32 related to the cause resource is suppressed. Therefore, it is possible to prevent a wasteful rearrangement process in which response performance cannot be improved even if rearrangement is performed.
  • the storage area of the relocation destination tier can be allocated to data of other virtual volumes, and the response performance of the entire storage system 30 can be improved.
  • the warning screen when the suppression of the rearrangement process is determined, the warning screen is not used when the determination of the suppression of the rearrangement process satisfies the warning condition, instead of notifying the user immediately. G30 is presented to the user.
  • this embodiment it is not necessary to notify the user of the occurrence of the suppression of the rearrangement process due to a temporary phenomenon, and the usability of the user is improved. For example, in a relatively large computer system such as a data center, a large number of warnings are issued to the user every day. In such a situation, it is troublesome for the user to notify the user about the suppression of the rearrangement process due to a minor failure. On the other hand, in this embodiment, only when the warning condition is satisfied, the user is notified that the rearrangement process has been suppressed, so that the usability is improved.
  • the user when the user is warned about the suppression of the rearrangement process, the past rearrangement process suppression that does not satisfy the warning condition is also presented to the user. Therefore, the user can determine whether the rearrangement process is suppressed due to a temporary phenomenon or whether the rearrangement process is suppressed due to a relatively steady phenomenon.
  • the suppression of the rearrangement process is sporadic over a relatively long period, the user can infer that there is a problem to be improved in the computer system.
  • the relationship between the virtual volume for which the rearrangement process has been suppressed and the resource that has caused the suppression of the rearrangement process is analyzed and displayed as a suppressed resource network screen G60. Therefore, the user can guess where the problem is in the computer system, and can determine the necessity of changing the configuration of the computer system.
  • this embodiment it is possible to monitor the status of each resource of the computer system and prevent execution of useless rearrangement processing in advance, and further present a suppression history of rearrangement processing to the user, thereby providing a computer system. It can support user judgment about. As a result, in this embodiment, the performance of the entire computer system can be improved, and user convenience can be improved.
  • the present invention can be expressed as a computer program invention as follows.
  • a computer program for managing a computer system including a host computer and a storage system by a computer
  • the storage system includes a virtual logical volume for providing to the host computer and a pool having a plurality of storage hierarchies, and a plurality of logical storage areas constituting the virtual logical volume are stored in the host
  • a relocation process for associating with a storage area in any one of the plurality of storage tiers is performed,
  • 10 host computer
  • 20 switch
  • 30 storage system
  • 31 controller
  • 40 management computer

Abstract

 計算機システムの性能向上および管理者の使い勝手を改善すること。 ストレージシステム30は、ホスト計算機10に仮想理ボリューム32を提供する。ストレージシステムは、アクセス頻度に基づいて、仮想ボリュームの論理的記憶領域のデータを、複数の記憶階層のいずれかに再配置させる。管理計算機は、仮想ボリュームに関連するリソース(ホスト計算機、スイッチ、ストレージシステムのコントローラ)の状態を監視し、その監視結果に基づいて、仮想ボリュームの再配置処理を許可するか抑止するかを決定する。管理計算機は、決定内容をストレージシステムに通知する。

Description

計算機システムの管理装置及び管理方法
 本発明は、計算機システムの管理装置及び管理方法に関する。
 より効率的なストレージ管理のために、階層化されたストレージをページ単位で利用する技術が知られている。第1の従来技術では、論理的プール内に性能の異なる複数の記憶階層を定義し、仮想的論理ボリュームがホスト計算機によって使用されるたびに、プール内の記憶領域を仮想的論理ボリュームに割り当てる。第1の従来技術では、ホスト計算機によるアクセス頻度の大きいページを比較的高性能の記憶階層に配置し、アクセス頻度の小さいページを比較的低性能の記憶階層に配置する(特許文献1)。
 第2の従来技術として、ホスト計算機から論理ボリュームへのアクセス経路上にボトルネックが検出された場合に、他のアプリケーションへの影響を考慮した上で、代替パス経路に切り替える技術が知られている(特許文献2)。
国際公開第2011/077489号パンフレット 特開2007-233783号公報
 第1の従来技術では、アクセス頻度の大きいページを高性能の記憶階層に配置して、応答性能の向上を図る。しかし、ホスト計算機から論理ボリュームまでのアクセス経路上にボトルネックが存在する場合は、アクセス頻度の大きいページを高性能の記憶階層に配置しても、応答性能は改善しない可能性が高い。
 例えば、ホスト計算機のCPU(Central Processing Unit)の使用率が高い場合、そのホスト計算機が、高性能の記憶階層に配置されたページにアクセスしたところで、データ処理を高速に行うことはできない。また、例えば、ホスト計算機とストレージシステムとを繋ぐスイッチのCPU使用率が高い場合も同様に、ホスト計算機は、高性能の記憶階層に配置されたページのデータに速やかにアクセスすることはできない。
 従って、論理ボリュームへのアクセス経路上にボトルネックが有る場合は、その論理ボリュームのページのデータを高性能の記憶階層内のページに配置させても、無駄に終わる可能性がある。この結果、高性能の記憶階層内のページを有効に使用できず、ストレージシステムの応答性能を向上させることができない。
 ところで、第2の従来技術によれば、代替パスに切り替えることで、ボトルネックを回避することができる。しかし、通常のアクセス経路から代替パスに切り替えるためには、ストレージシステムだけでなく、ホスト計算機及びスイッチなども含めて計算機システム全体の設定を変更する必要がある。従って、代替パスに切り替える作業は手間及び時間がかかり、ユーザの作業負担が大きい。
 さらに、ユーザは、アクセス経路上のボトルネックが一時的なものなのか、それとも定常的に発生するものなのかを容易には判別できない。特に、データセンタ等のような、多数のホスト計算機、多数のスイッチ、多数のストレージシステムが混在する計算機システムでは、その判別は困難である。
 本発明は、上記の課題に鑑みてなされたもので、その目的は、計算機システムの性能を向上できる計算機システムの管理装置及び管理方法を提供することにある。本発明の他の目的は、無駄な再配置処理の実行を未然に抑止してストレージシステムの記憶領域を有効に利用することができ、かつ、再配置処理の抑止に関する情報をユーザに提供することで、計算機システムの構成変更についてのユーザ判断を支援できるようにした、計算機システムの管理装置及び管理方法を提供することにある。
 上記課題を解決すべく、本発明に従う管理装置は、ホスト計算機及びストレージシステムを含む計算機システムを管理する管理装置であって、ストレージシステムは、ホスト計算機に提供するための仮想的論理ボリュームと、複数の記憶階層を有するプールとを備え、かつ、仮想的論理ボリュームを構成する複数の論理的記憶領域を、ホスト計算機による各論理的記憶領域へのアクセス頻度に基づいて、複数の記憶階層のうちいずれかの記憶階層内の記憶領域に対応付けるための再配置処理を実行するようになっており、仮想的論理ボリュームに関連するリソースの状態を監視するリソース監視部と、リソース監視部の監視結果に基づいて、仮想的論理ボリュームについての再配置処理の実行の可否を決定するための再配置可否決定部を、を備える。
 リソース監視部は、ホスト計算機から仮想的論理ボリュームに至るまでの通信経路上に存在する所定リソースであって、ホスト計算機及びストレージシステムを含む複数の所定リソースの状態を監視することができる。再配置可否決定部は、リソース監視部により監視される複数の所定リソースの状態が、予め設定される所定の抑止条件を満たす場合に、仮想的論理ボリュームについての再配置処理の抑止を決定することができる。さらに、再配置可否決定部による決定に基づいて、ストレージシステムに対し、再配置処理の実行について指示するための再配置指示部を備えてもよい。
 再配置可否決定部は、複数の所定リソースのうち少なくともいずれか一つの所定リソースの状態が、当該所定リソースについて予め設定される所定の抑止条件を満たす場合に、仮想的論理ボリュームについての再配置処理の抑止を決定してもよい。
 再配置可否決定部による、仮想的論理ボリュームについての再配置処理の抑止の決定として、仮想的論理ボリュームの各論理的記憶領域が各記憶階層のうち現在の記憶階層よりも上位の記憶階層に再配置されることを禁止することができる。
 上述した本発明の特徴は、明示された以外に種々組合せることができる。さらに、本発明は、コンピュータプログラムとして把握することもできる。コンピュータプログラムは、通信媒体または記録媒体を介して、コンピュータにインストールされる。
計算機システムの全体構成を示す構成説明図。 仮想ボリュームとプール及び記憶装置との関係を示す説明図。 管理計算機の、コンピュータプログラムとテーブルの関係を示す説明図。 リソース管理テーブルの構成例。 ネットワークトポロジ管理テーブルの構成例。 リソース性能の履歴を管理するテーブルの構成例。 警告を管理するテーブルの構成例。 ページ管理テーブルの構成例。 再配置処理の抑止履歴を管理するテーブルの構成例。 管理計算機の動作の全体の流れを示すフローチャート。 しきい値設定処理を示すフローチャート。 しきい値を設定するための画面例。 リソースの監視及び構成情報を収集する処理のフローチャート。 再配置処理の可否を決定する処理のフローチャート。 再配置処理の実行についてストレージシステムに指示する処理のフローチャート。 警告処理のフローチャート。 警告ポップアップ画面の例。 抑止された再配置処理の統計を示す画面の例。 解析結果を出力する処理のフローチャート。 再配置処理の抑止の原因となったリソースの一覧を示す画面例。 再配置処理の抑止の原因となったリソースと仮想ボリュームとの関係を模式的に示す説明図。 再配置処理の抑止の原因となったリソースを含むネットワークトポロジの表示画面の例。
 以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態では、後述のように、仮想的論理ボリュームに関連するリソースの状態を監視し、その監視結果に基づいて、仮想的論理ボリュームについての再配置処理の実行の可否を決定する。さらに、本実施形態では、再配置処理の実行が抑止された場合の履歴を管理し、通信経路上のボトルネックと再配置処理の抑止との関係を可視化してユーザに提供する。
 なお、以下の説明では、「xxxテーブル」の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていても良い。データ構造に依存しないことを示すために「xxxテーブル」を「xxx情報」と呼ぶことができる。
 以後の説明では、「プログラム」を主語として処理を説明する場合がある。プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、メモリ等の記憶資源及び通信ポート等の通信インタフェース装置を適宜用いながら実行する。従って、処理の主語は、プロセッサでも良い。プロセッサは、CPUの他に専用ハードウェアを有していても良い。コンピュータプログラムは、プログラムソースから計算機にインストールされても良い。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアであっても良い。
 例えば、プールボリューム等の各要素は、識別子(ID)、番号、名前等で識別可能である。
 以下、図を用いて、本発明の一実施例を説明する。本発明が以下に述べる実施例に制限されることは無く、本発明の思想に合致するあらゆる応用例が本発明の技術的範囲に含まれる。また、特に限定しない限り、各構成要素は複数でも単数でも構わない。
 図1は、計算機システムの全体構成を示す。計算機システムは、例えば、少なくとも一つのホスト計算機(以下、ホスト)10と、少なくとも一つのスイッチ20と、少なくとも一つのストレージシステム30と、一つの管理計算機40を含む。
 ホスト10とストレージシステム30とは、スイッチ20を介して接続される。ホスト10とスイッチ20及びストレージシステム30は、例えば、IP-SAN(Internet Protocol_SAN)またはFC-SAN(Fibre Channel-Storage Area Network)のような通信ネットワークCN1を介して、双方向通信可能に接続される。
 「管理装置」の一例である管理計算機40は、例えば、LAN(Local Area Network)のような、管理用の通信ネットワークCN2を介して、ホスト10とスイッチ20及びストレージシステム30に、双方向通信可能に接続される。
 なお、例えば、iSCSI(internet Small Computer System Interface)を用いる場合、通信ネットワークCN1及びCN2を、一つのLANとして構成してもよい。
 ホスト10は、例えば、サーバコンピュータまたはメーンフレームマシンのような計算機として構成される。ホスト10は、例えば、マイクロプロセッサ(CPU)11と、メモリ12と、FCポート13と、LANポート14とを備える。
 メモリ12には、図示せぬオペレーティングシステム等に加えて、アプリケーションプログラム(以下、アプリケーション)P10が記憶されている。CPU11は、アプリケーションP10を実行することで、所定のデータ処理を行う。FCポート13は、通信ネットワークCN1に接続するための通信回路である。LANポート14は、通信ネットワークCN2に接続するための通信回路である。
 スイッチ20は、ホスト10とストレージシステム30との間の通信を管理する。スイッチ20は、例えば、CPU21と、メモリ22と、複数のFCポート23と、LANポート24とを備える。メモリ22には、スイッチ20の動作を制御するためのマイクロプログラムP20が格納されている。
 ストレージシステム30は、ホスト10に記憶領域を提供する装置である。ストレージシステム30は、例えば、FCコントローラ31と、仮想ボリューム32と、複数の論理ボリューム35(図2参照)と、CPU36と、メモリ37と、FCポート38と、LANポート39を備える。
 メモリ37には、例えば、仮想ボリュームを管理するプログラムP30と、プール34(図2参照)を管理するプログラムP31と、ページ再配置を行うプログラムP32とが格納される。図中では、仮想ボリュームをVVOLと表記する。
 仮想ボリューム管理プログラムP30は、ホスト10からのアクセスに応じて、プール34内の物理ページ330(図2参照)を仮想ボリューム32に割り当てる。仮想ボリューム管理プログラムP30は、仮想ボリューム32を構成する論理ページ320(図2参照)と、プール34内の物理ページ330との対応関係を管理する。
 プール管理プログラムP31は、プール34の構成を管理する。再配置プログラムP32は、論理ページ320へのアクセス頻度(I/O量)に基づいて、その論理ページ320のデータを記憶する物理ページ330を決定する。後述のように、管理計算機40から再配置処理の実行が抑止された仮想ボリューム32については、再配置プログラムP32は、再配置処理を行わない。
 FCコントローラ32は、ストレージシステム30とホスト10及びスイッチ20との通信を制御する。FCコントローラ32は、FCポート38を介して、通信ネットワークCN1に接続される。
 FCコントローラ32は、ホスト10及びスイッチ20と同様に、仮想ボリューム32にアクセスするための通信経路上の所定リソースとして管理される。FCコントローラ32のCPU310の使用率は、管理計算機40による性能監視対象の一つである。
 管理計算機40は、例えば、CPU41と、メモリ42と、LANポート43と、ユーザインターフェース部44を備える。メモリ42には、複数のコンピュータプログラムP40~P46と、複数の管理テーブルT40~T45とが格納されている。各プログラムP40~P46及び各テーブルT40~T45の詳細は、後述する。
 ユーザインターフェース部44は、ユーザに向けて情報を出力する情報出力装置と、ユーザからの入力を受け取る情報入力装置とを備える。情報出力装置には、例えば、ディスプレイ装置、プリンタ、音声出力装置等がある。情報入力装置としては、例えば、キーボードスイッチ、ポインティングデバイス、ペンタブレット、音声入力装置等がある。
 管理計算機40とユーザインターフェース部44とは、別々に構成してもよい。例えば、管理計算機40を操作するための管理端末を設け、管理端末のディスプレイ装置に情報を表示したり、管理端末のキーボード等を介して管理計算機40に情報を入力したりする構成でもよい。そのような管理端末は、例えば、パーソナルコンピュータ、携帯電話、携帯情報端末のように構成することができる。
 図2は、仮想ボリューム32と、プール34及び論理ボリューム35の関係を模式的に示す説明図である。
 ストレージシステム30は、複数の記憶装置を備えることができる。記憶装置としては、例えば、ハードディスクドライブ、半導体メモリドライブ、フラッシュメモリデバイス(SSD:Solid State Drive)、光ディスクドライブ等のデータを読み書き可能な種々のデバイスを利用可能である。ハードディスクドライブを用いる場合、例えば、FC(Fibre Channel)ディスク、SCSI(Small Computer System Interface)ディスク、SATAディスク、ATA(AT Attachment)ディスク、SAS(Serial Attached SCSI)ディスク等を用いることができる。
 また、例えば、フラッシュメモリ、FeRAM(Ferroelectric Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)、相変化メモリ(Ovonic Unified Memory)、RRAM(Resistance RAM:登録商標)等の種々の記憶装置を用いることもできる。さらに、例えば、フラッシュメモリデバイスとハードディスクドライブのように、種類の異なる記憶装置を混在させる構成でもよい。
 複数の記憶装置から一つのパリティグループを形成し、各記憶装置の有する物理的記憶領域を一つの冗長記憶領域としてまとめることもできる。その冗長化された記憶領域を用いて、一つまたは複数の論理ボリューム35A~35Cが作成される。
 論理ボリューム35Aは、比較的高性能な記憶装置(例えば、SSD)の記憶領域を用いて生成される。論理ボリューム35Bは、中性能の記憶装置(例えば、SAS)の記憶領域を用いて生成される。論理ボリューム35Cは、低性能の記憶装置の記憶領域(例えば、SATA)を用いて生成される。なお、一つの記憶装置の有する記憶領域を用いて、一つまたは複数の論理ボリュームを作成することもできる。各論理ボリューム35A~35Cを特に区別しない場合、論理ボリューム35と呼ぶ。
 プール34は、それぞれ性能の異なる複数の記憶階層33A、33B、33Cを備えている。第1記憶階層33Aは、最も性能の高い階層である。第1記憶階層33Aには、高性能の論理ボリューム35Aが登録される。第2記憶階層33Bには、中性能の論理ボリューム35Bが登録される。第3記憶階層33Cには、低性能の論理ボリューム35Cが登録される。
 ストレージシステム30には、仮想的論理ボリュームとしての仮想ボリューム32を複数設けることができる。図2の例では、第1の仮想ボリューム32Aは、第1のホスト10Aにより使用される。第2の仮想ボリューム32Bは、第2のホスト10Bにより使用される。第3の仮想ボリューム32Cは、第3のホスト10Cにより使用される。特に区別しない場合、ホスト10A~10Cをホスト10と、仮想ボリューム32A~32Cを仮想ボリューム32と、呼ぶ。
 仮想ボリューム32の有する論理的な記憶領域は、複数の論理ページ320から構成される。ホスト10からのライトアクセスに応じて、論理ページ320に物理ページ330が対応付けられる。記憶装置の有する物理的記憶領域は、複数の物理ページ(またはセグメント)330により区切られている。論理ページ320に物理ページ330が割り当てられることで、その論理ページ320にデータを書き込むことができる。
 図2の例では、仮想ボリューム32Aには、高性能の記憶階層33A内の物理ページ330Aが比較的多く割り当てられている。仮想ボリューム32Bには、中性能の記憶階層33B内の物理ページ330Bが割り当てられている。仮想ボリューム32Cには、低性能の記憶階層33C内の物理ページ330Cが割り当てられている。
 ページ再配置の概要を説明する。第1の仮想ボリューム32A内の或る論理ページ320A1のデータが、最初は、第2の記憶階層33B内の物理ページ330B1に格納されていたと仮定する。ホスト10Aがその論理ページ320A1に頻繁にアクセスすると、ストレージシステム30は、物理ページ330B1に代えて、第1の記憶階層33Aの論理ページ330A1を、論理ページ320A1のデータを格納するための物理ページとして選択する。図中、点線矢印で示すように、ストレージシステム30は、物理ページ330B1から物理ページ330A1に、論理ページ320A1のデータをコピーする。ストレージシステム30は、論理ページ320A1と物理ページ330A1との対応付けを記憶する。
 このように、アクセス頻度の多い論理ページ320には、現在割り当てられている物理ページ330よりも性能の高い物理ページ330が割り当てられる。これとは逆に、アクセス頻度の小さい論理ページ320には、現在割り当てられている物理ページ330よりも性能の低い物理ページ330が割り当てられる。アクセス頻度の多い論理ページ320のデータが既に最上位階層33Aに配置されている場合、それ以上アクセス頻度が増加した場合でも、その論理ページ320のデータは、その階層33Aに留まる。アクセス頻度の少ない論理ページ320のデータが最下位の階層33Cに配置されている場合、さらにアクセス頻度が低下した場合でも、その論理ページ320のデータは、その階層33Cに留まる。
 図3は、管理計算機40の有するコンピュータプログラムP40~P46と管理テーブルT40~T45の関係を示す説明図である。図3中の実線矢印は、更新または出力を意味する。図3中の点線矢印は、参照または取得を意味する。
 リソース監視プログラムP40及び構成情報収集プログラムP46は、ホスト10、スイッチ20及びストレージシステム30から、性能情報及び構成情報を取得し、取得した情報でリソース管理テーブルT40とネットワークトポロジ管理テーブルT41及びリソース性能履歴管理テーブルT42を更新する。なお、図3では、説明の便宜上、リソース監視プログラムP40と、構成情報収集プログラムP46をひとつにまとめて示しているが、実際にはそれぞれ異なるプログラムとして構成できる。また、紙面が小さいため、スイッチ20を図3では省略している。
 資産管理サーバ50は、計算機システム内の各リソース(ホスト10、スイッチ20、ストレージシステム30)についての情報の少なくとも一部(例えば、設置場所及び管理者等)を管理するコンピュータである。
 再配置可否決定プログラムP41は、リソース情報管理テーブルT40、ネットワークトポロジ管理テーブルT41、リソース性能履歴管理テーブルT42に基づいて、ページの再配置を許可するか否かを判定する。再配置可否決定プログラムP41と、各テーブルT40~T43とを結ぶ線は、図3では省略されている。
 再配置可否決定プログラムP41は、仮想ボリューム単位で、ページ再配置の可否を決定し、その結果をページ管理テーブルT44及び再配置抑止履歴管理テーブルT45に記憶させる。
 再配置指示プログラムP42は、再配置可否決定プログラムP41の決定に基づいて、ストレージシステム30に再配置処理の可否を通知する。図3では省略されているが、再配置指示プログラムP42は、ページ管理テーブルT44を参照できる。
 警告プログラムP43は、リソース情報管理テーブルT40、ページ管理テーブルT44、再配置抑止履歴管理テーブルT45を参照して、ユーザへの警告が必要か否かを判断する。警告が必要であると判断した場合、警告プログラムP43は、簡易警告画面であるポップアップ画面G30を、ユーザに提示する。
 解析結果出力プログラムP44は、リソース監視プログラムP40、ネットワークトポロジ管理テーブルT41、リソース性能履歴管理テーブルT42、ページ管理テーブルT44、再配置抑止履歴管理テーブルT45を参照して、再配置処理が抑止された原因を解析する。解析結果出力プログラムP44は、解析結果表示画面G40、G50、G60を介して、ユーザに解析結果を提示する。ユーザは、その解析結果に基づいて、計算機システム内の通信経路の変更等が必要か否かを判断することができる。
 設定プログラムP45は、設定画面G10、G20を介してユーザから入力された値を、リソース情報管理テーブルT40及び警告管理テーブルT43に記憶させる。
 次に、各管理テーブルについて説明する。以下に述べる各表の構成は一例に過ぎず、図示した構成とは異なる構成でもよい。例えば、各テーブルは、図示された項目以外の項目を含んでもよいし、図示された複数の項目のうちの一部の項目が除去されてもよい。さらに、図示されたテーブルを、複数のテーブルに分割してもよいし、図示された複数のテーブルを一つのテーブルにまとめる構成でもよい。
 図4は、リソース管理テーブルT40の構成を示す。リソース管理テーブルT40は、計算機システム内の各リソースについての情報を管理するテーブルである。リソース管理テーブルT40の少なくとも一部は、例えば、資産管理サーバ50に記憶されているデータに基づいて作成することができる。
 リソース管理テーブルT40は、例えば、リソース識別子C400と、リソース名C401と、リソース種別C402と、設置場所C403と、管理者名C404と、再配置抑止しきい値C405とを対応付けて管理する。
 リソース識別子C400は、計算機システム内の各リソースである、ホスト10、スイッチ20及びストレージシステム30を識別するための情報である。リソース名C401は、各リソースの名称である。ユーザは、ユーザ自身にとって分かり易い名称をリソースに設定することができる。
 リソース種別C402は、リソースの種別を示す情報である。設置場所C403は、リソースの設置されている場所を特定するための情報である。管理者名C404は、リソースを管理する責任者の名前である。
 再配置抑止しきい値C405は、再配置処理の実行を抑止するために予め設定されるしきい値である。再配置抑止しきい値C405は、各リソースの種別毎に、CPU使用率について設定することができる。
 例えば、リソース種別がFCコントローラである場合、CPU310の使用率が80%以上になると、そのFCコントローラに関連する仮想ボリューム32の再配置処理が抑止される。例えば、リソース種別がスイッチの場合、CPU21の使用率が85%以上になると、そのFCスイッチに関連する仮想ボリューム32の再配置処理が抑止される。例えば、リソース種別がホストの場合、CPU11の使用率が90%以上になると、そのホストに関連する仮想ボリューム32の再配置処理が抑止される。
 以上のしきい値は例示であって、それらに限定されない。また、リソース種別毎に再配置抑止しきい値C405を設定するのではなく、リソース毎に再配置抑止しきい値C405を設定する構成でもよい。リソース種別毎に予め定義されているしきい値を再配置抑止しきい値C405の初期値として設定し、ユーザが初期値を個別に手動で調整する構成でもよい。
 図5は、ネットワークトポロジを管理するテーブルT41の構成である。ネットワークトポロジ管理テーブルT41は、例えば、仮想ボリューム識別子C410と、ストレージシステム識別子C411と、接続構成情報C412とを対応付けて管理する。
 仮想ボリューム識別子C410は、各仮想ボリューム32を識別する情報である。ストレージシステム識別子(ストレージシステム番号)C411は、ストレージシステム30を識別する情報である。接続構成情報C412とは、ホスト10がストレージシステム30内の仮想ボリューム32にアクセスするための通信経路上に存在する、各リソースの接続順序を示す情報である。
 例えば、図中、「R-0000」は、FCコントローラ31を示す。「R-0001」及び「R-0002」は、スイッチ20を示す。「R-0003」、「R-0004」及び「R-0005」は、ホスト10を示す。接続構成情報C412に「R-0000、R-0001、R-0003」と記載されている場合、仮想ボリューム識別子C410で特定される仮想ボリューム32には、FCコントローラ(R-0000)及びスイッチ(R-0001)を介して、ホスト(R-0003)が接続されていることを意味する。
 図6は、リソースの性能履歴を管理するテーブルT42の構成である。リソース性能履歴管理テーブルT42は、例えば、日時C420と、リソース識別子C421と、使用率C422とを対応付けて管理する。日時C420は、リソースの性能情報が取得された日時を示す。使用率C422は、リソースの性能情報としての、CPU使用率を示す。
 図7は、警告用のしきい値を管理するテーブルT43の構成である。警告管理テーブルT43は、例えば、警告識別子C430と、種別C431と、抑止ボリューム数のしきい値C432と、連続数C433を対応付けて管理する。
 警告識別子C430は、ユーザに対する警告を識別する情報である。種別C431は、警告の種類を示す。警告の種類としては、例えば、「day」がある。「day」とは、所定数(C432)以上の仮想ボリュームにおいて、再配置処理が所定日(C433)以上抑止された場合に発せられる警告である。
 抑止ボリューム数しきい値C432は、警告を発するための警告条件の一部であり、再配置処理が抑止された仮想ボリューム32の数を示す。連続数C433は、抑止ボリューム数しきい値C432と共に警告条件を構成し、再配置処理の抑止された仮想ボリュームの数がしきい値C432以上になった連続日数を示す。
 なお、「日」に代えて、例えば、3時間、6時間、12時間、一週間、一ヶ月等の所定の単位時間の連続数または累計数として設定してもよい。図7に示す例では、再配置処理の抑止された仮想ボリュームが3日間連続して1個以上存在した場合に、ユーザに警告が出力される。同一の仮想ボリュームについて3日間連続して再配置処理が抑止された場合に限らず、毎日異なる仮想ボリュームについて再配置処理が抑止され、その状態が3日間連続した場合も、ユーザに警告が発せられる。
 図8は、仮想ボリューム32の各論理ページ320を管理するテーブルT44の構成を示す。ページ管理テーブルT44は、例えば、仮想ボリューム識別子C440と、ストレージシステム識別子C441と、開始ページ番号C442と、終了ページ番号C443と、再配置可否フラグC444とを対応付けて管理する。
 開始ページ番号C442は、仮想ボリューム識別子C440で特定される仮想ボリューム32を構成する各論理ページ320のうち、先頭の論理ページ320を特定するための情報である。終了ページ番号C443は、その仮想ボリューム32を構成する各論理ページ320のうち、最後の論理ページ320を特定するための情報である。
 再配置可否フラグC444は、ページ再配置の可否について規定する情報である。例えば、再配置が許可された場合は「YES」が設定され、再配置が抑止された場合は「NO」が設定される。
 本実施例では、再配置可否フラグC444に「NO」が設定された場合、上位階層への再配置のみを抑止し、下位階層への再配置は許可する。
仮想ボリューム32に関連するリソースに性能上の問題が生じている状況下では、論理ページ320のデータを、現在属する階層33よりも上位の階層へ移動させたところで、応答性能の向上は期待できない。しかし、現在属する階層よりも下位の階層に移動させることで、現在の配置先の階層に空きを作ることができる。その空き領域に、他の仮想ボリューム32の論理ページ320のデータを記憶させれば、ストレージシステム30の全体としての応答性能を改善できる。
 なお、本実施例では、仮想ボリューム32の各論理ページ320について、一つの再配置可否フラグC444が共通に適用される。これに代えて、論理ページ毎に、それぞれ再配置可否フラグを設定できる構成としてもよい。
 図9は、再配置処理の抑止履歴を管理するテーブルT45の構成である。再配置抑止履歴管理テーブルT45は、例えば、仮想ボリューム識別子C450と、ストレージシステム識別子C451と、原因リソース識別子C452と、日付C453とを対応付けて管理する。
 原因リソース識別子C452は、仮想ボリューム識別子C450及びストレージシステム識別子C451で特定される仮想ボリューム32について再配置処理の抑止が決定された場合に、その原因となったリソースを特定する情報である。日付C453は、再配置処理の抑止が決定された日時を示す。
 図10は、管理計算機40による全体動作の流れを示すフローチャートである。管理計算機40は、予め設定された所定タイミングが到来したかを判定し(S10)、所定タイミングが到来した場合(S10:YES)、プール34の階層制御を行っているかを判定する(S11)。即ち、本実施例の前提となる自動階層化によって各仮想ボリューム32を管理している場合に、以下の各処理を実施する。
 ステップS10における所定のタイミングは、例えば、(T1)ストレージシステムによる再配置処理の実行前、(T2)ユーザにより指定された時刻が到来した場合、(T3)複数の所定リソースの負荷が、監視を開始するための監視開始用しきい値に達した場合、の中から選択することができる。
 (T1)の場合、管理計算機40は、ストレージシステム30による定期的な再配置処理が実行されるよりも前に、図10に示す処理を実行する。
 (T2)の場合、管理計算機40は、予めユーザにより指定された日時が到来すると、図10に示す処理を実行する。
 (T3)の場合、管理計算機40は、仮想ボリューム32に関連する各リソースのうち、いずれか一つのリソースの負荷(例えば、CPU使用率)が、予め設定された監視開始用しきい値に達した場合に、図10に示す処理を実行する。監視開始用しきい値は、リソース管理テーブルT40の再配置抑止しきい値C405に記載の値よりも小さい値として設定される。例えば、FCコントローラの場合は監視開始用しきい値を75%に、スイッチの場合は監視開始用しきい値を80%に、ホストの場合は監視開始用しきい値を85%に、設定してもよい。
 前記各タイミングを適宜組み合わせて使用することもできる。管理計算機40は、タイミングT1とタイミングT2を組み合わせる場合、例えば、ユーザにより指定された日時が到来した後であって、かつ、ストレージシステム30による再配置処理が実行される前に、図10に示す処理を実行する。
 または、管理計算機40は、タイミングT1、T2、T3のいずれか一つが到来した場合に、図10に示す処理を実行する構成でもよい。
 所定タイミングが到来し(S10:YES)、かつ、プール34の階層制御が実行されている場合(S11:YES)、管理計算機40は、しきい値設定処理(S30)と、リソース監視及び構成情報収集処理(S40)とを実行する。
 さらに、管理計算機40は、再配置可否決定処理(S50)と、再配置指示処理(S60)を実行する。さらに、管理計算機40は、警告処理(S70)及び解析結果出力処理(S80)を実行する。以下、各処理の詳細を説明する。
 図11は、しきい値を設定するための処理を示すフローチャートである。本処理は、図10中のステップS30の詳細を示す。
 まず最初に、管理計算機40は、リソース管理テーブルT40の項目C405に、再配置を抑止するためのしきい値が設定されているかを判定する(S300)。図中、再配置抑止しきい値を、「ThP」として示す場合がある。また、図中では、再配置抑止しきい値を、「抑止しきい値」と略記することがある。
 再配置抑止しきい値が設定されていない場合(S300:NO)、管理計算機40は、図12(a)に示すしきい値設定画面G10を作成して、表示する(S301)。ユーザは、図12(a)に示すしきい値設定画面G10を介して、リソースの種別毎に、再配置処理を抑止するためのしきい値をそれぞれ設定することができる。
 管理計算機40は、しきい値設定画面G10内の設定ボタンB10が押されたかを判定する(S302)。設定ボタンB10が押された場合(S302:YES)、管理計算機40は、しきい値設定画面G10において、リソース種別毎にCPU使用率(しきい値)が入力されているか判定する(S303)。
 しきい値設定画面G10の各入力欄に0以外の数値が入力されている場合(S303:YES)、管理計算機40は、その入力値をリソース管理テーブルT40の項目C405に登録する(S304)。
 これに対し、しきい値設定画面G10に数値が入力されていない空欄がある場合(S303:NO)、管理計算機40は、初期値としての100%を、リソース管理テーブルT40の項目C405に登録する(S305)。
 続いて、管理計算機40は、警告管理テーブルT43に警告しきい値が設定されているかを判定する(S306)。再配置抑止しきい値がリソース管理テーブルT40に設定されている場合(S300:YES)、ステップS301~S305はスキップされて、ステップS306に移る。
 管理計算機40は、警告しきい値が設定されている場合(S306:YES)、本処理を終了する。警告しきい値が設定されていない場合(S306:NO)、管理計算機40は、図12(b)に示す警告しきい値設定画面G20を表示する(S307)。ユーザは、警告しきい値設定画面G20を介して、警告条件としての、連続日数及び抑止された仮想ボリューム数を入力する。
 管理計算機40は、警告しきい値設定画面G20内の設定ボタンB20が押されたかを判定する(S308)。ユーザにより設定ボタンB20が押された場合(S308:YES)、管理計算機40は、警告条件としての、抑止ボリューム数及び連続日数が入力されているか判定する(S309)。
 抑止ボリューム数及び連続日数が入力されている場合(S309:YES)、管理計算機40は、その入力値を警告管理テーブルT43に登録する(S310)。
 抑止ボリューム数または連続日数の少なくともいずれか一方が入力されていない場合(S309:NO)、管理計算機40は、予め用意されている初期値を警告管理テーブルT43に登録する(S310)。初期値は、例えば、「抑止ボリューム数=1、連続日数=3日」のように予め定義されている。
 図13は、リソース監視及び構成情報を収集する処理のフローチャートである。図13は、図10中のステップS40の詳細を示す。
 管理計算機40は、管理用通信ネットワークCN2を介して、ホスト10、スイッチ20、ストレージシステム30から構成情報を取得する(S400)。さらに、管理計算機40は、資産管理サーバ50から、各リソースの設置場所及び管理者名を取得する(S401)。管理計算機40は、各ステップS400、S401で取得した情報に基づいて、リソース管理テーブルT40を作成する(S402)。なお、警告しきい値は、上述の通り、図11に示す処理でリソース管理テーブルT40に登録される。
 管理計算機40は、ステップS400で取得した構成情報に基づいて、ネットワークトポロジ管理テーブルT41を作成する(S403)。
 さらに、管理計算機40は、ホスト10、スイッチ20及びストレージシステム30から、性能情報を取得し(S404)、リソース性能履歴管理テーブルT42を生成する(S405)。
 図14は、再配置の可否を決定する処理のフローチャートである。図14の処理は、図10中のステップS50の詳細を示す。
 管理計算機40は、ページ管理テーブルT44に記載された全ての仮想ボリューム32について、以下のステップS501~S506を実行する(S500)。
 管理計算機40は、ページ管理テーブルT44に記載された仮想ボリュームから一つの仮想ボリュームを対象ボリュームとして選択し、ネットワークトポロジ管理テーブルT41から、対象ボリュームに関連するリソースの情報を取得する(S501)。対象ボリュームに関連するリソースとは、処理対象の仮想ボリューム32へのアクセス経路上に存在するリソースを意味し、以下、関連リソースとも呼ぶ。
 管理計算機40は、抽出された全ての関連リソースについて、以下のステップS503~S506を実行する(S502)。管理計算機40は、関連リソースのCPU使用率Lrを取得する(S503)。
 管理計算機40は、関連リソースのCPU使用率Lrが再配置抑止しきい値ThP以上であるか判定する(S504)。CPU使用率Lrが再配置抑止しきい値ThP以上の場合(S504:YES)、管理計算機40は、対象ボリューム32についての再配置可否フラグに「NO」を設定する(S505)。これに対し、CPU使用率Lrが再配置抑止しきい値ThP未満の場合(S504:NO)、管理計算機40は、対象ボリューム32についての再配置可否フラグに「YES」を設定する(S506)。
 図15は、ストレージシステム30に再配置処理について指示するための処理を示すフローチャートである。本処理は、図10中のステップS60の詳細である。
 管理計算機40は、ページ管理テーブルT44に記載されている全ての仮想ボリューム32について、以下のステップS601~S604を実行する(S600)。管理計算機40は、ページ管理テーブルT44から一つの仮想ボリューム32を、処理対象のボリュームとして選択する。
 管理計算機40は、対象ボリュームについての再配置可否フラグに「YES」が設定されているか判定する(S601)。再配置可否フラグに「YES」が設定されている場合(S602)、管理計算機40は、ストレージシステム30に対して、対象ボリュームの再配置処理の実行を指示する(S603)。
 再配置可否フラグに「NO」が設定されている場合(S601:NO)、管理計算機40は、ストレージシステム30に対して、対象ボリュームの再配置処理の実行抑止を指示する(S603)。
 管理計算機40は、対象ボリュームのデータが現在所属する階層よりも上位の階層(より高性能の階層)に再配置されることを禁止し、対象ボリュームのデータが現在所属する階層よりも下位の階層(より低性能の階層)に再配置されることは許可する。管理計算機40は、ステップS603での再配置処理の抑止の指示に基づいて、再配置抑止履歴管理テーブルT45を更新する(S604)。
 図16は、ユーザに警告を発する処理を示すフローチャートである。図16の処理は、図10中のステップS70の詳細である。
 管理計算機40は、再配置抑止履歴管理テーブルT45を参照し(S700)、警告管理テーブルT43に登録されている警告条件を満たすか否か判定する(S701)。管理計算機40は、所定数以上の仮想ボリューム32について所定時間以上、再配置処理が抑止されたかを判定する。図7の例では、同一の仮想ボリュームについて連続3日間再配置処理が抑止された場合、または、連続する3日間で、それぞれ異なる仮想ボリュームについての再配置処理が抑止された場合に、警告条件が満たされる。
 警告条件が満たされた場合(S701:YES)、管理計算機40は、警告用のポップアップ画面G30を表示する(S702)。図17に示すように、警告用のポップアップ画面G30は、例えば、警告メッセージを表示する領域GP31と、確認ボタンB31とOKボタンB32を備える。管理計算機40は、ポップアップ画面G30をユーザに提示することで、システム性能が劣化している可能性をユーザに警告する。
 図16に戻る。管理計算機40は、ユーザにより確認ボタンB31が押されたか判定する(S703)。確認ボタンB31が押された場合(S703:確認)、管理計算機40は、再配置抑止履歴管理テーブルT45を参照し、所定の表示対象期間内において再配置処理が抑止された仮想ボリューム32の数を算出する(S704)。管理計算機40は、図18に示す再配置抑止統計画面G40を作成し、表示出力する(S705)。
 図18に示す画面G40は、再配置の抑止についての統計を示しており、統計の表示対象期間を指定する期間指定部GP41、GP42と、統計をグラフとして表示するグラフ表示部GP43と、概要表示部GP44と、詳細ボタンB40を備える。表示対象の期間は、例えば、一ヶ月、一週間、一日等のように表示周期で指定することもできるし(GP41)、または、特定の日付を指定することもできる(GP42)。
 グラフ表示部GP43の縦軸は、再配置処理が抑止された仮想ボリュームの数を示し、横軸は指定部GP41、GP42のいずれかで指定された表示対象期間を示す。横軸のメモリの分解能は、表示対象期間の長さによって異なる。例えば、一ヶ月間等のように長い期間での変化を表示する場合、一日単位で表示される。これに対し、或る一日の変化を表示する場合、1時間毎または3時間毎のように、所定時間毎の変化が表示される。ユーザが所望の棒グラフを選択すると、その棒グラフの概要が表示される。概要には、例えば、再配置処理が抑止された仮想ボリュームの識別子などを含めることができる。
 図18では、警告対象となっている、再配置処理が抑止された仮想ボリューム数を太い線で囲んで示す。さらに、グラフ表示部GP43には、警告条件を満たしていない、抑止ボリューム(再配置処理が抑止された仮想ボリューム)も表示させることができる。それらの警告条件を満たしていないが再配置処理が抑止された仮想ボリュームを、点線で囲んで示す。
 図16に戻る。管理計算機40は、ユーザにより詳細ボタンB40が押されたかを判定する(S706)。詳細ボタンB40が押された場合(S706:YES)、管理計算機40は、解析結果出力処理を実行する(S707)。解析対象とする期間については、警告対象の期間全てとしても良いし、ユーザが画面上で期間を選択できるようにしても良い。
 警告条件を満たす仮想ボリュームが一つも存在しない場合(S701:NO)、画面G30の確認ボタンB31が押されなかった場合(S703:OK)、または、画面G40の詳細ボタンB41が押されなかった場合(S706:NO)、本処理は終了する。
 図19は、解析結果を出力する処理のフローチャートである。本処理は、図10中のステップS80の詳細である。
 管理計算機40は、解析対象期間に再配置処理を抑止する原因となった全ての原因リソースについて(S800)、再配置処理が抑止された仮想ボリュームの数を算出する(S801)。
 管理計算機40は、再配置処理が抑止された仮想ボリュームの数が多い順番で、原因リソースを並べ替えることで、図20に示す抑止原因リソース一覧画面G50を作成し、表示する(S802)。
 図20に示す画面G50は、解析対象期間に再配置処理が抑止される原因となったリソースの一覧を示している。この画面G50は、例えば、解析対象期間を表示する表示部GP51と、解析対象期間内において再配置処理が抑止された仮想ボリュームの総数を表示する表示部GP52と、一覧表示部GP53と、詳細ボタンB51を備える。
 一覧表示部GP53は、例えば、影響度GP530と、リソース名GP531と、CPU使用率GP532と、管理者名GP533と、設置場所GP534と、抑止原因GP535とを対応付けて表示する。
 影響度GP530とは、解析対象期間内に再配置処理が抑止された仮想ボリュームの累計数に対する、リソースの影響を示す。例えば、図21を参照して、解析対象期間内に累計6個の仮想ボリュームについて再配置処理が抑止された場合を説明する。
 図21は、再配置処理の抑止原因となったリソースと、そのリソースによって再配置処理が抑止された仮想ボリュームの関係を示す。
 図21では、仮想ボリューム(00:00:00)は、FCコントローラ(R-0000)及びスイッチ(R-0001)を介して、ホスト(R-0003)に接続される。同様に、他の仮想ボリューム(00:00:01)は、FCコントローラ(R-00000)及びスイッチ(R-0001)を介して、他のホスト(R-0004)に接続されている。さらに別の仮想ボリューム(00:00:02)は、FCコントローラ(R-0000)及び他のスイッチ(R-0002)を介して、ホスト(R-0005)に接続されている。
 図21では、5月10日にホスト(R-0003)のCPU使用率が、5月11日にスイッチ(R-0001)のCPU使用率が、5月12日にストレージシステムのFCコントローラ(R-0000)のCPU使用率が、それぞれ抑止しきい値を超えたものと仮定する。現在の日付は5月12日であると仮定する。
 仮想ボリューム(00:00:00)は、ホスト(R-0003)により使用されているので、ホスト(R-0003)のCPU使用率が抑止しきい値を超えると、再配置処理が抑止される。
 従って、仮想ボリューム(00:00:00)は、第1日目である5月10日と、第2日目である5月11日、及び、第3日目である5月12日との3日間で、それぞれ再配置処理が抑止される。再配置処理が抑止された仮想ボリュームの累計数6個のうち、仮想ボリューム(00:00:00)が3個を占めることになる。このため、ホスト(R-0003)が、解析対象期間内における再配置処理の抑止に与えた影響度は、50%(=3/6)となる。
 スイッチ(R-0001)は、仮想ボリューム(00:00:00)と仮想ボリューム(00:00:01)とに接続されている。スイッチ(R-0001)のCPU使用率が抑止しきい値を超えると、それら仮想ボリューム(00:00:00)、(00:00:01)の再配置処理が抑止される。5月11日の時点で2個の仮想ボリュームについて再配置処理が抑止され、翌日の5月12日にも2個の仮想ボリュームについて再配置処理が抑止される。スイッチ(R-0001)は、累計4個の仮想ボリュームについて再配置処理の抑止原因となっている。従って、スイッチ(R-0001)が、解析対象期間内における再配置処理の抑止に与えた影響度は、約67%(=4/6)となる。
 FCコントローラ(R-0000)は、仮想ボリューム(00:00:00)と、仮想ボリューム(00:00:01)及び仮想ボリューム(00:00:02)に接続されている。5月12日にFCコントローラ(R-0000)のCPU使用率が抑止しきい値を超えると、それにより合計3個の仮想ボリュームについて再配置処理が抑止される。従って、FCコントローラ(R-0000)が、解析対象期間内における再配置処理の抑止に与えた影響度は、50%(=3/6)となる。
 図19に戻る。管理計算機40は、ユーザによって画面G50内の詳細ボタンB51が押されたか判定する(S803)。詳細ボタンB51が押された場合(S803:YES)、管理計算機40は、図22に示す抑止リソースネットワーク画面G60を作成して表示する(S804)。
 図22に示す抑止リソースネットワーク画面G60は、再配置処理の抑止された仮想ボリューム32と、その再配置処理を抑止する原因となったリソースとの関係を、ネットワーク接続構成図GP61として示す。
 抑止原因となったリソースには、その概要を表示するための概要表示部GP62が対応付けられる。ユーザは、画面G60を見ることで、再配置処理が抑止された仮想ボリューム32がどれで、どのリソースのどのような原因で再配置処理が抑止されたのかを、容易に把握することができる。
 このように構成される本実施例によれば、以下の効果を奏する。本実施例では、仮想ボリューム32へのアクセス経路上に存在するリソースの中に、CPU使用率の高いボトルネックとなっているリソース(原因リソース)が有るか否かを監視する。本実施例では、原因リソースが発見されると、その原因リソースに関連する仮想ボリューム32についての再配置処理を抑止する。従って、再配置しても応答性能の向上が見込めない無駄な再配置処理が行われるのを未然に防止できる。さらに、再配置先の階層の記憶領域を、他の仮想ボリュームのデータに割り当てることができ、ストレージシステム30全体としての応答性能を向上できる。
 さらに、本実施例では、現在の階層よりも性能の高い階層への再配置を禁止し、現在の階層よりも性能の低い階層への再配置を許可する。従って、アクセス経路上に原因リソースが存在する仮想ボリューム32は、そのアクセス頻度が少ない場合、現在の階層よりも性能の低い階層に再配置される。その結果、その仮想ボリュームが存在していた階層に空き領域ができ、その空いた領域に他の仮想ボリュームを配置することができる。従って、ストレージシステム30の記憶資源を有効に利用して、ストレージシステム30全体としての応答性能を改善できる。
 さらに、本実施例では、再配置処理の抑止が決定された場合に、そのことを直ちにユーザに通知するのではなく、再配置処理の抑止の決定が警告条件を満たす場合に、警告用の画面G30をユーザに提示する。
 従って、本実施例では、一時的な現象による再配置処理の抑止の発生をユーザに通知せずに済み、ユーザの使い勝手が向上する。例えば、データセンタ等のような比較的大規模な計算機システムでは、日々多数の警告がユーザに向けて発せられる。そのような状況の中で、軽微な障害による再配置処理の抑止について、一々ユーザに通知したのでは、ユーザにとって煩わしい。これに対し、本実施例では、警告条件を満たす場合にのみ、再配置処理が抑止されたことをユーザに通知するため、使い勝手が向上する。
 さらに、本実施例では、再配置処理の抑止についてユーザに警告する際に、警告条件を満たさない過去の再配置処理の抑止についても、ユーザに提示する。従って、ユーザは、一時的な現象によって再配置処理が抑止されたのか、それとも、比較的定常的な現象によって再配置処理が抑止されたのかを、判断することができる。再配置処理の抑止が比較的長い期間にわたって散発しているような場合、ユーザは、計算機システムに何らかの改善すべき問題が生じていると推測することができる。
 さらに、本実施例では、再配置処理の抑止された仮想ボリュームと、再配置処理の抑止原因となったリソースとの関係を解析し、抑止リソースネットワーク画面G60として表示する。従って、ユーザは、計算機システムのどこに問題があるのかを推測することができ、計算機システムの構成変更の必要性等について判断することができる。
 このように本実施例では、計算機システムの各リソースの状況を監視して無駄な再配置処理の実行を未然に抑止でき、さらに、再配置処理の抑止履歴をユーザに提示することで、計算機システムについてのユーザ判断を支援できる。この結果、本実施例では、計算機システム全体の性能を改善でき、かつ、ユーザの使い勝手を向上できる。
 なお、本発明は、上述の実施形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。
 例えば、本発明は以下のようにコンピュータプログラムの発明として表現できる。
 「ホスト計算機及びストレージシステムを含む計算機システムを、コンピュータにより管理させるためのコンピュータプログラムであって、
 前記ストレージシステムは、前記ホスト計算機に提供するための仮想的論理ボリュームと、複数の記憶階層を有するプールとを備え、かつ、前記仮想的論理ボリュームを構成する複数の論理的記憶領域を、前記ホスト計算機による前記各論理的記憶領域へのアクセス頻度に基づいて、前記複数の記憶階層のうちいずれかの記憶階層内の記憶領域に対応付けるための再配置処理を実行するようになっており、
 前記ホスト計算機から前記仮想的論理ボリュームに至るまでの通信経路上に存在する所定リソースであって、前記ホスト計算機及び前記ストレージシステムの制御部を含む複数の所定リソースの状態を監視する、監視ステップと、
 前記監視ステップにより監視される複数の前記所定リソースの状態が、予め設定される所定の抑止条件を満たす場合に、前記仮想的論理ボリュームについての前記再配置処理の抑止を決定する、可否決定ステップと、
 前記可否決定ステップによる決定に基づいて、前記ストレージシステムに対し、前記再配置処理の実行について指示する指示ステップと、を
前記コンピュータに実行させるためのコンピュータプログラム。」
 10:ホスト計算機、20:スイッチ、30:ストレージシステム、31:コントローラ、40:管理計算機。

Claims (13)

  1.  ホスト計算機及びストレージシステムを含む計算機システムを管理する管理装置であって、
     前記ストレージシステムは、前記ホスト計算機に提供するための仮想的論理ボリュームと、複数の記憶階層を有するプールとを備え、かつ、前記仮想的論理ボリュームを構成する複数の論理的記憶領域を、前記ホスト計算機による前記各論理的記憶領域へのアクセス頻度に基づいて、前記複数の記憶階層のうちいずれかの記憶階層内の記憶領域に対応付けるための再配置処理を実行するようになっており、
     前記仮想的論理ボリュームに関連するリソースの状態を監視するためのリソース監視部と、
     前記リソース監視部の監視結果に基づいて、前記仮想的論理ボリュームについての前記再配置処理の実行の可否を決定するための再配置可否決定部を、
    を備える、計算機システムの管理装置。
  2.  前記リソース監視部は、前記ホスト計算機から前記仮想的論理ボリュームに至るまでの通信経路上に存在する所定リソースであって、前記ホスト計算機及び前記ストレージシステムを含む複数の所定リソースの状態を監視し、
     前記再配置可否決定部は、前記リソース監視部により監視される複数の前記所定リソースの状態が、予め設定される所定の抑止条件を満たす場合に、前記仮想的論理ボリュームについての前記再配置処理の抑止を決定し、
     前記再配置可否決定部による決定に基づいて、前記ストレージシステムに対し、前記再配置処理の実行について指示するための再配置指示部をさらに備える、
    請求項1に記載の計算機システムの管理装置。
  3.  前記再配置可否決定部は、複数の前記所定リソースのうち少なくともいずれか一つの所定リソースの状態が、当該所定リソースについて予め設定される所定の抑止条件を満たす場合に、前記仮想的論理ボリュームについての前記再配置処理の抑止を決定する、
    請求項2に記載の計算機システムの管理装置。
  4.  前記再配置可否決定部による、前記仮想的論理ボリュームについての前記再配置処理の抑止の決定として、前記仮想的論理ボリュームの前記各論理的記憶領域が前記各記憶階層のうち現在の記憶階層よりも上位の記憶階層に再配置されることを禁止する、
    請求項3に記載の計算機システムの管理装置。
  5.  前記仮想的論理ボリュームについて前記再配置処理の抑止が決定された場合でも、前記ストレージシステムは、前記各論理的記憶領域を、現在の記憶階層よりも下位の記憶階層に再配置させることができる、
    請求項4に記載の計算機システムの管理装置。
  6.  前記再配置可否決定部による前記再配置処理の抑止の決定が、予め設定される所定の警告条件を満たす場合に、ユーザに警告するための警告画面を出力する警告部をさらに備える、
    請求項5に記載の計算機システムの管理装置。
  7.  前記再配置可否決定部により決定された前記再配置処理の抑止に関する情報を履歴として管理するテーブルをさらに備え、
     前記警告画面には、予め指定される期間内に、前記再配置可否決定部により前記再配置処理が抑止された全ての仮想的論理ボリュームに関する情報を表示できる、
    請求項6に記載の計算機システムの管理装置。
  8.  前記抑止条件を満たす前記所定リソースと前記再配置処理が抑止された前記仮想的論理ボリュームとの関連ついて解析し、解析結果を示す解析結果画面を出力するための解析結果出力部をさらに備える、
    請求項7に記載の計算機システムの管理装置。
  9.  予め設定される所定のタイミングが到来した場合に、前記再配置可否決定部は、前記リソース監視部の監視結果に基づいて、前記仮想的論理ボリュームについての前記再配置処理の実行の可否を決定する、
    請求項1に記載の計算機システムの管理装置。
  10.  前記所定のタイミングは、前記ストレージシステムによる前記再配置処理の実行前、または、ユーザにより指定された時刻が到来した場合、または、複数の前記所定リソースの負荷が、監視を開始するための監視開始用しきい値に達した場合、の少なくともいずれかの場合である、
    請求項1に記載の計算機システムの管理装置。
  11.  ホスト計算機及びストレージシステムを含む計算機システムを、管理装置により管理するための方法であって、
     前記ストレージシステムは、前記ホスト計算機に提供するための仮想的論理ボリュームと、複数の記憶階層を有するプールとを備え、かつ、前記仮想的論理ボリュームを構成する複数の論理的記憶領域を、前記ホスト計算機による前記各論理的記憶領域へのアクセス頻度に基づいて、前記複数の記憶階層のうちいずれかの記憶階層内の記憶領域に対応付けるための再配置処理を実行するようになっており、
     前記ホスト計算機から前記仮想的論理ボリュームに至るまでの通信経路上に存在する所定リソースであって、前記ホスト計算機及び前記ストレージシステムの制御部を含む複数の所定リソースの状態を監視する、監視ステップと、
     前記監視ステップにより監視される複数の前記所定リソースの状態が、予め設定される所定の抑止条件を満たす場合に、前記仮想的論理ボリュームについての前記再配置処理の抑止を決定する、可否決定ステップと、
     前記可否決定ステップによる決定に基づいて、前記ストレージシステムに対し、前記再配置処理の実行について指示する指示ステップと、を
    前記管理装置で実行する、
    計算機システムの管理方法。
  12.  前記可否決定ステップによる、前記仮想的論理ボリュームについての前記再配置処理の抑止の決定は、前記仮想的論理ボリュームの前記各論理的記憶領域が前記各記憶階層のうち現在の記憶階層よりも上位の記憶階層に再配置されることを禁止するものである、
    請求項11に記載の計算機システムの管理方法。
  13.  前記可否決定ステップが前記再配置処理の抑止を、予め設定される所定回数以上連続して決定した場合に、ユーザに警告するための警告画面を出力する警告ステップをさらに備える、
    請求項12に記載の計算機システムの管理方法。
PCT/JP2012/050061 2012-01-05 2012-01-05 計算機システムの管理装置及び管理方法 WO2013103003A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2012/050061 WO2013103003A1 (ja) 2012-01-05 2012-01-05 計算機システムの管理装置及び管理方法
US13/393,468 US20130179636A1 (en) 2012-01-05 2012-01-05 Management apparatus and management method of computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/050061 WO2013103003A1 (ja) 2012-01-05 2012-01-05 計算機システムの管理装置及び管理方法

Publications (1)

Publication Number Publication Date
WO2013103003A1 true WO2013103003A1 (ja) 2013-07-11

Family

ID=48744768

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/050061 WO2013103003A1 (ja) 2012-01-05 2012-01-05 計算機システムの管理装置及び管理方法

Country Status (2)

Country Link
US (1) US20130179636A1 (ja)
WO (1) WO2013103003A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235071B2 (en) 2016-11-29 2019-03-19 Kabushiki Kaisha Toshiba Tiered storage system, storage controller and tiering control method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747005B1 (en) * 2013-03-11 2017-08-29 Workday, Inc. Adaptive user interface
US9043569B2 (en) * 2013-05-31 2015-05-26 International Business Machines Corporation Memory data management
US9513968B1 (en) 2015-12-04 2016-12-06 International Business Machines Corporation Dynamic resource allocation based on data transferring to a tiered storage
US10037156B1 (en) * 2016-09-30 2018-07-31 EMC IP Holding Company LLC Techniques for converging metrics for file- and block-based VVols
US10372503B2 (en) 2017-06-08 2019-08-06 International Business Machines Corporation Bidirectional feedback with an enhanced transmission selection enabled switch
US10630554B1 (en) 2018-10-29 2020-04-21 International Business Machines Corporation Input/output (I/O) performance of hosts through bi-directional bandwidth feedback optimization

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115140A (ja) * 2005-10-21 2007-05-10 Hitachi Ltd ストレージシステム、及びストレージスシステムの制御方法
US7693983B1 (en) * 2005-05-27 2010-04-06 Symantec Operating Corporation System and method providing application redeployment mappings using filtered resource usage data
WO2010127365A1 (en) * 2009-05-01 2010-11-04 Citrix Systems, Inc. Systems and methods for establishing a cloud bridge between virtual storage resources
JP2011186794A (ja) * 2010-03-09 2011-09-22 Hitachi Ltd ストレージシステム内のデータの配置を制御する管理システム、及び、データ配置制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038665A (en) * 1996-12-03 2000-03-14 Fairbanks Systems Group System and method for backing up computer files over a wide area computer network
JP4520755B2 (ja) * 2004-02-26 2010-08-11 株式会社日立製作所 データ移行方法およびデータ移行装置
JP2008112293A (ja) * 2006-10-30 2008-05-15 Hitachi Ltd 管理計算機及び電源制御方法並びに計算機システム
JP5117120B2 (ja) * 2007-06-18 2013-01-09 株式会社日立製作所 ストレージ装置のボリュームを管理する計算機システム、方法及びプログラム
JP2010086049A (ja) * 2008-09-29 2010-04-15 Hitachi Ltd 管理計算機及びその運用方法
US8171337B2 (en) * 2009-03-30 2012-05-01 The Boeing Company Computer architectures using shared storage
JP5801189B2 (ja) * 2009-04-23 2015-10-28 株式会社日立製作所 計算機システム及びその制御方法
CN102483683B (zh) * 2009-12-24 2014-12-10 株式会社日立制作所 提供虚拟卷的存储系统
US8429346B1 (en) * 2009-12-28 2013-04-23 Emc Corporation Automated data relocation among storage tiers based on storage load
US20110320754A1 (en) * 2010-02-23 2011-12-29 Hitachi, Ltd Management system for storage system and method for managing storage system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693983B1 (en) * 2005-05-27 2010-04-06 Symantec Operating Corporation System and method providing application redeployment mappings using filtered resource usage data
JP2007115140A (ja) * 2005-10-21 2007-05-10 Hitachi Ltd ストレージシステム、及びストレージスシステムの制御方法
WO2010127365A1 (en) * 2009-05-01 2010-11-04 Citrix Systems, Inc. Systems and methods for establishing a cloud bridge between virtual storage resources
JP2011186794A (ja) * 2010-03-09 2011-09-22 Hitachi Ltd ストレージシステム内のデータの配置を制御する管理システム、及び、データ配置制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235071B2 (en) 2016-11-29 2019-03-19 Kabushiki Kaisha Toshiba Tiered storage system, storage controller and tiering control method

Also Published As

Publication number Publication date
US20130179636A1 (en) 2013-07-11

Similar Documents

Publication Publication Date Title
WO2013103003A1 (ja) 計算機システムの管理装置及び管理方法
JP5981563B2 (ja) 情報記憶システム及び情報記憶システムの制御方法
JP5427630B2 (ja) 動的ページ再割当てストレージシステムにおけるアプリケーション及び階層構成の管理
JP5793196B2 (ja) 仮想ボリュームに割り当てられた要求性能に基づく制御を行うストレージシステムの管理システム及び管理方法
JP4438817B2 (ja) ストレージ装置およびストレージ装置の省電力制御方法
JP6270827B2 (ja) データ・マイグレーションのための方法、システム、およびコンピュータ・プログラム
WO2014064756A1 (ja) ストレージプールから実記憶領域を仮想ボリュームへ割り当てる方法及び計算機システム
WO2014073045A1 (ja) 計算機システム、ストレージ管理計算機及びストレージ管理方法
JP6151795B2 (ja) 管理計算機および計算機システムの管理方法
JP2007058637A (ja) ストレージシステム、管理計算機及びデータ移動方法
JP2006301820A (ja) ストレージシステム及びストレージシステムのデータ移行方法
US9152331B2 (en) Computer system, storage management computer, and storage management method
US10417195B2 (en) Management system for managing information system
JP2010079626A (ja) 計算機システムの負荷分散方法及びシステム
JP2009238114A (ja) ストレージ管理方法、ストレージ管理プログラム、ストレージ管理装置およびストレージ管理システム
JP2008059315A (ja) 負荷分散方法及び計算機システム
WO2013098960A1 (ja) 計算機システム、ファイル管理方法及び記憶媒体
JP2006285808A (ja) ストレージシステム
WO2014155555A1 (ja) 管理システム及び管理プログラム
JPWO2014184893A1 (ja) 計算機システム及びリソース管理方法
JP2006293459A (ja) 負荷分散コンピュータシステム、経路設定プログラム及びその方法
JP2010250446A (ja) ファイル制御システムおよびそれに用いるファイル制御計算機
JP2009223863A (ja) コンピュータシステム及びコマンド実行頻度制御方法
JP4723361B2 (ja) 仮想化処理機能を有する情報処理装置
JP2011070464A (ja) 計算機システム及び計算機システムの性能管理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 13393468

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12864221

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12864221

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP