WO2017154127A1 - ストレージ装置の性能管理方法及び装置 - Google Patents

ストレージ装置の性能管理方法及び装置 Download PDF

Info

Publication number
WO2017154127A1
WO2017154127A1 PCT/JP2016/057302 JP2016057302W WO2017154127A1 WO 2017154127 A1 WO2017154127 A1 WO 2017154127A1 JP 2016057302 W JP2016057302 W JP 2016057302W WO 2017154127 A1 WO2017154127 A1 WO 2017154127A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
storage
volume
storage device
pool
Prior art date
Application number
PCT/JP2016/057302
Other languages
English (en)
French (fr)
Inventor
佐藤 和哉
秀雄 大畑
裕辰 坂田
勝隆 井上
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2016/057302 priority Critical patent/WO2017154127A1/ja
Priority to JP2018503909A priority patent/JPWO2017154127A1/ja
Priority to US15/744,613 priority patent/US10282095B2/en
Publication of WO2017154127A1 publication Critical patent/WO2017154127A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes

Definitions

  • the present invention relates to a performance management method and apparatus for a storage apparatus in which two or more types of storage media having different rewrite lifetimes and response performances are mounted.
  • storage media having different rewrite lifetimes and response performances
  • flash drives having different memory cell structures, flash drives and hard disk drives, and the like. It is suitable to be applied to a performance management method and apparatus for a storage apparatus that can stratify the above combinations and move data between layers according to response performance.
  • the present invention has been made in view of the above points, and in a storage apparatus that uses a combination of different types of drive devices with different lifetimes and a storage medium as a storage medium, problems that may occur in the future when the drive devices reach the end of their lives. It is an object of the present invention to propose a storage apparatus performance management method and apparatus that can systematically cope with the problem.
  • the present invention provides a performance management apparatus for a storage apparatus comprising two or more types of storage media having different rewrite lifetime and response performance, the storage apparatus being a host connected to the storage apparatus
  • a virtual volume that constitutes a virtual logical volume is provided to the computer using the two or more types of storage media, and a write request is issued from the host computer to an unwritten address of the virtual volume
  • the storage apparatus writes data corresponding to the write request to a storage area that is unused in any one of the two or more types of storage media and has not reached the write life, and the storage apparatus Depending on the IO load by the host computer in each storage area of more than one type of storage medium.
  • the storage location of the data is moved to a storage area that has not reached the write life among the lower storage media, and the performance management device has a storage capacity that accompanies the end of the rewrite life for each of the two or more types of storage media.
  • a performance impact estimator that estimates a decrease and estimates the performance impact on the virtual volume and its occurrence time; and a performance impact display that displays information related to the estimated performance impact and the time of occurrence. I did it.
  • a performance management method by a performance management device for managing the performance of a storage device comprising two or more types of storage media having different rewrite lifetime and response performance, wherein the storage device is connected to the storage device.
  • a virtual volume constituting a virtual logical volume is provided to the host computer using the two or more types of storage media, and a write request is issued from the host computer to an unwritten address of the virtual volume.
  • the storage device writes data corresponding to the write request to a storage area that is unused in any of the two or more types of storage media and has not reached the write life, and the storage device , I by the host computer in each storage area of each of the two or more types of storage media Depending on the amount of load, from a storage area of a storage medium with lower response performance to a storage area with a higher response performance that has not reached the write life, or a storage area of a storage medium with higher response performance From the storage medium having a lower response performance to a storage area that has not reached the write life, and the performance management method includes: A performance impact estimation step for estimating a decrease in storage capacity due to the reaching of the rewrite life, estimating a performance impact on the virtual volume and its occurrence time, and the performance management device comprising the estimated performance impact and its occurrence And a performance influence display step for displaying information related to the time.
  • a storage apparatus that uses a combination of different types of drive devices with different lifetimes as storage media, it is possible to systematically cope with problems that may occur in the future when the drive devices reach the end of their lives.
  • a performance management method and apparatus can be realized.
  • aaa table such as “aaa list”, “aaaDB”, “aaa queue”, etc.
  • these information include tables, lists, DBs, queues, etc. It may be expressed other than the data structure. Therefore, “aaa table”, “aaa list”, “aaaDB”, “aaa queue”, etc. may be referred to as “aaa information” to indicate that they are not dependent on the data structure.
  • program is the subject, but the program is executed by the processor, and the processing determined by using the memory, disk device, and communication device is used as the subject. It is good also as explanation. Further, the processing disclosed with the program as the subject may be processing performed by a computer such as a management server or an information processing apparatus. Further, part or all of the program may be realized by dedicated hardware.
  • Various programs may be installed in each computer by a program distribution server or a storage medium that can be read by the computer.
  • the program distribution server includes a CPU and storage resources, and the storage resources further store a distribution program and a program to be distributed.
  • the distribution program is executed by the CPU, the CPU of the program distribution server distributes the distribution target program to other computers.
  • FIG. 1 shows a configuration example of a computer system 1 according to this embodiment.
  • the computer system 1 one or a plurality of host computers 2, one or a plurality of storage apparatuses 3, a management computer 4, and a storage management client 5 are connected to each other via a management LAN (Local Area Network) 6.
  • the host computer 2, the storage device 3, and the management computer 4 are connected to each other via one or a plurality of SAN (Storage Area Network) switches 7.
  • SAN Storage Area Network
  • the host computer 2 is a computer device that executes various processes according to user operations, and includes a processor, a memory, a disk device, and a communication device (not shown).
  • the processor is hardware that controls the operation of the entire host computer 2.
  • the memory is mainly used for storing various programs and also used as a work memory for the processor.
  • Business software which is application software for executing user business, and an OS (Operating System) are also stored and held in this memory.
  • the disk device is a large-capacity storage device that is used to hold various programs and various data for a long period of time, and includes, for example, a hard disk device.
  • the communication device performs protocol control during communication with the storage apparatus 3 and the management computer 4 performed via the management LAN 6 and the SAN switch 7.
  • the storage device 3 is a large-capacity storage device that provides a virtual logical volume (hereinafter referred to as a virtual volume or simply a volume) to the host computer 2.
  • the storage apparatus 3 includes one or a plurality of storage devices 20 and a controller 21 that controls data input / output with respect to the storage devices 20.
  • the storage device 20 is composed of two or more storage media having different rewrite lifetimes and response performances.
  • Examples of the storage device 20 include flash drives (SSD (Solid State Drive)) using flash memories having different memory cell structures, or a combination of a flash drive and a hard disk drive.
  • SSD Solid State Drive
  • the controller 21 has one or more processors, a memory, and one or more cache memories.
  • the processor is hardware that controls the operation of the entire storage apparatus 3.
  • the memory is used mainly for storing various programs and also used as a work memory for the processor. Further, the memory stores a virtual environment control program for performing control according to a read request or a write request issued from the host computer 2 to the virtual volume.
  • the cache memory is used to temporarily hold data input / output to / from the storage device 20.
  • the management computer 4 is a computer device that manages the entire computer system 1 and includes a processor 30, a memory 31, a disk device 32, and a communication device 33.
  • the processor 30 is hardware having a function of controlling the operation of the entire management computer 4.
  • the memory 31 is used mainly for storing various programs and also used as a work memory for the processor 30.
  • storage management software 34 is stored.
  • the storage management software 34 has a function of collecting configuration information and performance information of the SAN environment and analyzing performance problems based on the collected information.
  • the disk device 32 is a large-capacity storage device used to hold various programs and various data for a long period of time, and includes, for example, a hard disk device.
  • the communication device 33 performs protocol control during communication with the host computer 2 and the storage apparatus 3 performed via the management LAN 6 and the SAN switch 7.
  • Management computer 4 has input / output devices.
  • the input / output device at least one of a display, a keyboard, and a pointer device can be considered, but other devices may be used.
  • a serial interface (or Ethernet interface) may be employed as an alternative to the input / output device.
  • a set of one or more computers that manage the computer system 1 and display display information may be referred to as a management system.
  • the management computer 4 displays display information
  • the management computer 4 is a management system
  • a combination of the management computer 4 and the display computer is also a management system.
  • a plurality of computers may realize processing equivalent to that of the management computer 4.
  • the plurality of computers in the case where the display computer performs display, display is performed).
  • Management computer is the management system.
  • the storage management client 5 is a communication terminal device that provides the user interface of the storage management software 34 stored in the memory 31 of the management computer 4 as described above.
  • the storage management client 5 has at least an input device and an output device not shown.
  • the input device is hardware for a user to perform various inputs, and is, for example, at least one of a keyboard, a mouse, and a touch panel.
  • the output device is a display device that displays various GUIs (Graphical User Interface) and the like, and includes, for example, a liquid crystal panel.
  • the storage management client 5 communicates with the storage management software 34 of the management computer 4 via the management LAN 6.
  • FIG. 2 is a conceptual diagram showing an example of a hierarchical storage system using Tier.
  • the hierarchical storage method is a management method for moving data between a high-performance (and therefore relatively high-cost) storage medium and a low-performance (relatively low-cost) storage medium according to a predetermined policy.
  • pools created using storage devices 20 such as flash drives of different types or flash drives and hard disk drives (hereinafter also referred to as “hierarchical pools”) are used.
  • hierarchical pools which performance (hierarchy) storage device 20 is allocated is determined based on the access load in units of pages for the virtual volumes belonging to the hierarchical pool. Specifically, for example, a drive with high performance is assigned to a page with a high access load, while a drive with low performance is assigned to a page with a low access load.
  • the two host computers 2 with the names “Host A” and “Host B” can access the volumes of the volume IDs “VOL1” to “VOL7” in the storage apparatus 3 via the SAN switch 7, respectively. It is configured.
  • Volumes with volume IDs “VOL1” to “VOL3” are assigned to a pool with pool ID “PoolA”
  • volumes with volume IDs “VOL4” and “VOL5” are assigned to a pool with pool ID “PoolB”
  • Volumes with volume IDs “VOL6” and “VOL7” are assigned to a pool with pool ID “PoolC”.
  • tier IDs In each pool, two pools with pool IDs “Pool A” and “Pool B” are stratified into, for example, three tiers of Tier 1 to Tier 3, while a pool with a pool ID “Pool C” For example, it is hierarchized into two hierarchies, Tier 1 and Tier 2. Here, in order to distinguish these tiers Tier 1 to Tier 3 from each other, these are referred to as tier IDs.
  • the storage device 20 of the flash drive A11, the flash drive A12, and the like (not shown in the drawing, the same applies hereinafter) is assigned to the tier with the tier ID “Tier1”.
  • the storage device 20 such as the flash drive A21 or the like is assigned to the hierarchy of “”
  • the storage device 20 such as the hard disk drive A31 is assigned to the hierarchy of the hierarchy ID “Tier3”.
  • the storage device 20 such as the flash drive B11 is assigned to the hierarchy with the hierarchy ID “Tier1”, and the storage device 20 such as the flash drive B21 is assigned to the hierarchy with the hierarchy ID “Tier2”. Is assigned, and the storage device 20 such as the hard disk drive B31 is assigned to the layer of the layer ID “Tier3”.
  • the storage device 20 such as the flash drive C11 and the flash drive C12 is assigned to the hierarchy of the hierarchy ID “Tier1”, and the hard disk drive C21 etc. is assigned to the hierarchy of the hierarchy ID “Tier2”. Storage device 20 is allocated.
  • FIG. 3 is a block diagram mainly showing a configuration example of the management computer 4 according to the present embodiment.
  • an arrow indicates the flow of information, and information stored in a table arranged at the rear end of the arrow is used by the processing unit arranged at the tip of the arrow. This indicates that the processing unit to be arranged stores information obtained as a processing result in a table arranged at the tip of the arrow.
  • the management computer 4 includes, for example, an analysis condition setting unit 102, a drive flash count upper limit arrival time estimation unit 104, a page placement destination hierarchy specifying unit 105, a volume Response performance deterioration time estimation unit 106, volume response performance estimation unit 107, volume target response performance unachieved time estimation unit 108, analysis mode I processing unit 109, analysis mode II processing unit 110, analysis result display unit 111, and analysis result table 112
  • an analysis condition setting unit 102 for example, a drive flash count upper limit arrival time estimation unit 104, a page placement destination hierarchy specifying unit 105, a volume Response performance deterioration time estimation unit 106, volume response performance estimation unit 107, volume target response performance unachieved time estimation unit 108, analysis mode I processing unit 109, analysis mode II processing unit 110, analysis result display unit 111, and analysis result table 112
  • the storage device information collection unit 100 constantly collects storage information to be described later from the storage device 3 and stores it in the storage device information storage unit 101.
  • the drive flash count upper limit arrival time estimation unit 104 and the like use the storage device information in the storage device information storage unit 101 to perform analysis processing as will be described in detail later.
  • the analysis result display unit 111 displays the analysis result based on the analysis result table 112 including such an analysis result.
  • the management computer 4 includes, as part of the table group, an analysis condition table 200, a flush count upper limit arrival time table 201, a tier capacity estimation table 202, a page placement destination tier table 203, a page load estimation table 204, response performance degradation.
  • a volume table 205, a volume response performance table 206, a target unachieved volume table 207, a required additional capacity table 208, and a volume migration plan table 209 are included. These are part of the table group as described above, and the description including the remaining table group will be described later.
  • the management computer 4 determines, for example, the volume response performance deterioration timing or target response performance caused by a decrease in the total capacity of the storage device 20 such as a flash drive, based on the combination of the tables as described above.
  • As a countermeasure to display the time when the system cannot be achieved hereinafter also referred to as “unachieved time” or to extend the period during which the target response performance of the volume can be achieved (hereinafter also referred to as “target achievement period”)
  • target achievement period information on the capacity of the drive that needs to be added and information on the migration destination pool are displayed.
  • FIG. 4 shows an example of a data input screen for setting analysis conditions.
  • FIG. 5 shows an example of a result output screen showing the result of analysis based on the input analysis condition.
  • the analysis condition setting screen 300 shown in FIG. 4 is displayed by the analysis condition setting unit 102 (see FIG. 3).
  • the common input field 310, the analysis mode I input field 320, the analysis mode II input field 330, An analysis mode III input field 340 and an analysis execution button 350 are provided.
  • the analysis condition setting unit 102 displays the analysis condition setting screen 300 based on the information already stored in the storage device information storage unit 101 described above, and the analysis conditions input on the analysis condition setting screen are displayed in the analysis condition table 200. sign up.
  • several analysis modes are prepared as analysis methods for future volume performance degradation. Details of each analysis mode will be described later.
  • the common input field 310 is an item field for setting common input items in each analysis mode.
  • the common input field 310 includes a storage device input field 311, a pool input field 312, and a target response performance input field 313.
  • the storage device input field 311 is an input field in a pull-down menu format (not shown), and by selecting a storage device ID of a desired storage device 3 from a plurality of storage device IDs listed in the pull-down menu, The storage device 3 to be analyzed is selected, and the storage device ID corresponding to the selected storage device 3 is input.
  • the storage device ID listed in the pull-down menu is the storage device ID of all the storage devices 3 to be managed by the tube computer 4. In the illustrated example, “Storage A”, for example, is selected as the storage device ID.
  • the pool input field 312 is an input field in a pull-down menu format (not shown), selects a pool ID of a desired pool from a plurality of pool IDs listed in the pull-down menu, and corresponds to the selected pool. A pool ID is entered.
  • the pool IDs listed in the pull-down menu are the pool IDs of all the pools constructed in the storage device 3 of the storage device ID selected in the storage device input field 311. In the illustrated example, for example, “Pool A” is selected as the pool ID.
  • the target response performance input column 313 is a column in which response performance to be targeted (hereinafter referred to as “target response performance”) is input.
  • target response performance response performance to be targeted
  • the volume IDs of all the volumes assigned to the pool with the pool ID selected in the pool input field 312 are listed together with the host IDs of the host computer 2 accessing the volume.
  • a desired target response performance can be input to each volume.
  • the target response performance for a volume that does not have the desired target response performance is represented by a value “not set”.
  • “0.5 [ms] is set as the target response performance for the volume with the volume ID“ VOL 1 ”accessed by the host computer 2 with the host ID“ Host A ”at the top. "Is set.
  • the analysis condition setting screen 300 includes a radio button 321 that enables input to the analysis mode I input field 320, a radio button 331 that allows input to the analysis mode II input field 330, and an analysis mode III input.
  • the input field 340 includes a radio button 341 that enables input.
  • the last day of the target achievement maintenance period can be set for the analysis mode I that displays the capacity that needs to be expanded.
  • the last day of the target achievement maintenance period can be set for the analysis mode II displaying the volume migration plan.
  • an expansion capacity can be set for each tier of each tier ID as a planned expansion capacity for analysis mode III for displaying the target unachieved volume.
  • the analysis execution button 350 is an operation button for causing the later-described analysis to be performed based on the analysis conditions input as described above.
  • the analysis result screen 400 shown in FIG. 5 has an analysis result main display column 410, an expansion capacity display column 420, and a volume migration plan display column 430.
  • the analysis result display unit 111 described above displays the analysis result based on the analysis result table 112.
  • the analysis result main display column 410 displays, for each period, the volume ID of the volume in which the response performance has deteriorated due to the decrease in the total capacity of the storage device 20 such as the flash drive and the volume for which the target response performance has not yet reached.
  • the volume ID is displayed.
  • the expansion capacity display field 420 displays the analysis result only when the analysis mode I is selected on the data input screen.
  • the additional capacity and the extension time limit are displayed for each tier of each tier ID of the pool with the pool ID constructed in the storage apparatus with the storage apparatus ID.
  • the volume migration plan display field 430 displays the analysis result only when the analysis mode II is selected on the data input screen.
  • the pool ID is displayed.
  • FIG. 6 shows an example of the analysis condition table 200.
  • An example of the analysis condition is managed in the analysis condition table 200, and as described above, a new analysis condition is registered or the registered analysis condition is updated by the analysis condition setting unit 102.
  • the storage device ID is “Storage A” and the pool ID is “Pool A”, and the analysis mode I is applied to perform analysis for the analysis target. ing.
  • FIGS. 7 to 9 are diagrams showing examples of the volume target response performance table 220, the target maintenance deadline table 221 and the additional capacity table 222, respectively.
  • the analysis conditions in the volume target response performance table 220, the target retention period table 221 and the expansion capacity table 222, the target response performance input field 313, the analysis mode I input field 320, and the analysis mode II input field of the analysis condition setting screen 300 330 and an example of the analysis conditions input in the analysis mode III input field 340 are managed, and a new analysis condition is registered or the registered analysis condition is updated by the analysis condition setting unit 102.
  • the volume target response performance table 220 manages the target response performance 220B for the volume ID 220A assigned to each volume.
  • a deadline (hereinafter also referred to as “target maintenance deadline”) 221A required to maintain achievement of the performance target is managed.
  • a capacity 222B that can be expanded to a tier corresponding to each tier ID 222A (for example, Tier 1 and Tier 2) is managed in a pool that is tiered to each tier in order to extend the time limit for maintaining achievement of the performance target. Yes.
  • FIG. 10 to 18 show an example of a group of tables constituting information acquired from the plurality of storage devices 3 by the storage device information storage unit 101 and stored in the storage device information storage unit 101.
  • FIG. These are the storage device table 230, pool table 231, pool configuration hierarchy table 232, volume table 233, volume capacity information table 234, flash drive table 235, drive flush count table 236, page table 237, and page load table 238, respectively. An example is shown.
  • the storage device table 230 storage device IDs of all storage devices 3 to be managed by the management computer 4 are registered.
  • the pool table 231 the storage device ID of the storage device 3 in which the pool of each pool ID 231A is constructed is registered.
  • the pool configuration tier table 232 for each pool ID 232B of the pool to which the tier of each tier ID 232A belongs and the storage device ID 232C of the storage device, the response time 232D and the assigned capacity 232E of the storage device 20 assigned to that tier are registered. Has been.
  • volume table 233 for each volume ID 233A, the storage device ID 233B of the storage device to which the volume is assigned, the pool ID 233C of the pool, and the connection destination host ID 233D of the host computer 2 that accesses the volume are registered. ing.
  • volume capacity information table 2344 year / month 234A, volume ID 234B, storage device ID 234C, pool ID 234D, allocated capacity 234E, and used capacity 234F are registered.
  • a drive ID 235A In the flash drive table 235, a drive ID 235A, a storage device ID 235B, an allocation pool ID 235C, a capacity 235D, an allocation hierarchy ID 235E, and a flash limit count 235F are registered.
  • a drive ID 236A, a storage device ID 236B, a time 236C, and a flash count 236D are registered.
  • a page ID 237A, a tier ID 237B, a pool ID 237C, a storage device ID 237D, a volume ID 237E, and a page size 237F are registered.
  • year / month 238A, page ID 238B, pool ID 238C, storage device ID 238D, and IOPS 238E are registered.
  • 19 to 24 are examples of the flush count upper limit arrival time table 201, the tier capacity estimation table 202, the page load estimation table 204, the page placement destination tier table 203, the response performance degradation volume table 205, and the volume response performance table 206, respectively. Represents.
  • the flash count upper limit arrival time table 201 manages the flash count upper limit reach timing 201B for each drive ID 201A, and the above-described drive flash count upper limit reach timing estimation unit 104 updates the flash count upper limit reach timing 201B for each drive ID 201A.
  • the tier capacity estimation table 202 manages the capacity of each tier for each year / month 202A, for example, the Tier 1 capacity 202B and the Tier 2 capacity 202C.
  • the page load estimation table 204 manages the year / month 204A, the page ID 204B, and the IOPS 204C, and manages the IOPS (number of I / Os per second) of each page in a certain year / month.
  • the page arrangement destination hierarchy table 203 manages the year / month 203A, the page ID 203B, and the hierarchy ID 203C, and the page arrangement destination hierarchy specifying unit 105 updates or adds the year / month 203A, the page ID 203B, and the hierarchy ID 203C.
  • the response performance degradation volume table 205 manages the year / month 205A and the volume ID 205B.
  • the total capacity of the storage device 20 such as the flash drive for each tier decreases, and the pages constituting the volume
  • the volume that is estimated to start degrading the response performance due to the transition of the assigned tier to the low-performance tier is managed.
  • the volume response performance deterioration time estimation unit 106 updates or adds the year 205A and the volume ID 205B.
  • the volume response performance table 206 manages the year / month 206A, the volume ID 206B, and the response performance 206C, and manages the volume response performance in a certain year / month by these.
  • the volume response performance estimation unit 107 updates or adds the year / month 206A, the volume ID 206B, and the response performance 206C.
  • 25 to 28 show examples of the target unachieved volume table 207, the analysis result table 240, the required additional capacity table 208, and the volume migration plan table 209, respectively.
  • the target unachieved volume table 207 manages the year / month 207A and the volume ID 207B, and in a certain year / month, the total capacity of the storage device 20 such as the flash drive for each layer decreases, and the allocation hierarchy of pages constituting the volume The volume that is estimated that the response performance does not satisfy the target response performance due to the transition to the low performance tier is managed.
  • the year / month 207A and the volume ID 207B are updated or added by the volume target response performance unachieved time estimation unit.
  • the analysis result table 240 manages the year / month 240A, the performance deterioration volume 240B, and the target unachieved volume 240C, and the volume and the response performance estimated that the response performance starts to deteriorate in a certain year / month are the targets.
  • the volume that is estimated to be unachievable is managed.
  • the required additional capacity table 208 manages the tier ID 208A, the required additional capacity 208B, and the extension time limit 208C, and manages the required additional capacity and the time limit that must be added in a tier with a pool.
  • the analysis mode I processing unit 109 updates or adds the layer ID 208A, the required additional capacity 208B, and the extension time limit 208C.
  • the volume migration plan table 209 manages the volume ID 209A, the migration destination storage apparatus ID 209B, and the migration destination pool ID 209C, and manages the volume migration plan.
  • the volume ID 209A, migration destination storage device ID 209B, and migration destination pool ID 209C are updated or added by the analysis mode II processing unit 110.
  • FIG. 30 shows an example of storage device information acquisition processing that is constantly executed.
  • the storage device information collection unit 100 collects the latest configuration information, capacity information, and performance information from each storage device 3 (step S1).
  • the storage device information collection unit 100 registers the collected storage device information in the storage device information storage unit 101.
  • the storage device information collection unit 100 repeatedly executes steps S1 and S2 as described above for each storage device 3.
  • FIG. 29 is a flowchart showing an example of information collection / estimation / result display processing.
  • FIG. 31 is a flowchart showing an example of the analysis condition setting process S1000 shown in FIG.
  • FIG. 32 is a flowchart showing an example of the volume response performance analysis process S2000 shown in FIG. 33 to 39 are flowcharts specifically showing the respective processes (S2100, S2200, S2220, S2230, S2300, S2400, and S2500) shown in FIG. 32 and FIG.
  • the processor 30 executes analysis condition setting processing (S1000).
  • the processor 30 stores the storage apparatus ID acquired from the storage apparatus ID 230A of the storage apparatus table 230 in the pull-down menu list of the storage apparatus input field 311 of the common input field 310 in the analysis condition setting screen shown in FIG. Is set (step S1101 in FIG. 31).
  • “Storage A” is displayed in the storage device input field 311 as a state after the user selects a storage device ID from the pull-down menu list.
  • the processor 30 acquires the pool ID related to the storage device ID designated in the storage device input field 311 from the pool table 231 (see FIG. 11), and sets it in the pull-down menu list in the pool input field 312 (step). S1102).
  • the processor 30 acquires the volume ID and connection destination host ID of the volume related to the pool ID specified in the pool input field 312 from the volume table 233 (see FIG. 13), and displays the list (step S1103).
  • step S1104 when detecting that the analysis execution button 350 has been pressed (step S1104), the processor 30 analyzes the analysis target storage device ID, pool ID, and analysis mode input to the analysis condition setting screen shown in FIG. Registration is made in the condition table 200 (see FIG. 6) (step S1105).
  • the processor 30 registers the volume target response performance input to the analysis condition setting screen in the volume target response performance table 220 (see FIG. 7) in association with the volume ID (step S1106).
  • the processor 30 divides and executes processing as follows according to the analysis mode. That is, when the analysis mode is I or II, the processor 30 registers the target maintenance deadline input on the analysis condition setting screen in the target maintenance deadline table 221 (see FIG. 8) (step S1108) and ends. When the analysis mode is III, the processor 30 registers the additional capacity input on the analysis condition setting screen in the additional capacity table 222 (see FIG. 9) (step S1109), and ends. On the other hand, when the analysis mode is not selected, the processor 30 ends the process.
  • the processor 30 performs a drive flush number upper limit arrival time estimation process S2100 and a page placement destination hierarchy specifying process S2200 as shown in FIG. Then, a volume response performance deterioration time estimation process S2300, a volume response performance analysis process S2400, and a volume target response performance unachieved time estimation process S2500 are executed.
  • the processor 30 first selects the drive IDs of the drives belonging to the pool with the pool ID specified as the analysis condition from among the drives corresponding to the drive IDs registered in the slash drive table 235 (see FIG. 15). Extract (step S2101).
  • the processor 30 selects the flash limit number registered in the flash drive table 235 (see FIG. 15) for the flash drive of the selected drive ID, and the drive. Based on the number of flashes at two or more times registered in the flash number table 236 (see FIG. 16), a time when the upper limit of the flash number will be reached in the future (hereinafter also referred to as “flash time upper limit time”) is estimated. (Step S2102). Specifically, assuming that the number of flashes at two times T1 and T2 is F1 and F2, respectively, and the flash limit number is Fx, an estimated value Tx of the flash number upper limit arrival time is obtained by the following equation (1).
  • a least square method or another estimation method may be used.
  • the processor 30 registers the estimated flash count upper limit reaching time in the flash count upper limit reaching time table 201 (see FIG. 19) (step S2103).
  • the processor 30 repeatedly executes step S2102 and step S2103 as described above for all the drives extracted in step S2101 (step S2104).
  • the processor 30 ends the processing when the analysis mode is not III, while when the analysis mode is III, the processor 30 flashes the flash drive table based on the information registered in the additional capacity table 222 (see FIG. 9). Data for additional registration in 235 (see FIG. 15) is created (step S2105).
  • the drive ID is arbitrarily set within a unique range. The same number of flash as the number of drives belonging to the same hierarchical ID is set.
  • the processor 30 additionally registers the created data in the flash drive table 235 (step S2106).
  • the processor 30 executes the above-described page arrangement destination layer specifying process.
  • the processor 30 selects one of the flash drives registered in the flush count upper limit arrival time table 201 in order from the earliest flash count upper limit reach timing, and then selects one in the pool configuration hierarchy table 232 (see FIG. 12).
  • the capacity of the drive is subtracted from the allocated capacity of the tier to which the drive belongs in the pool configuration tier, and is associated with the flush count upper limit arrival time and registered in the tier capacity estimation table 202 (see FIG. 20) (step S2210).
  • the allocation capacity of the tier to which the drive does not belong is the allocation capacity of the tier to which the drive belongs among the pool configuration tiers registered in the pool configuration tier table 232 (see FIG.
  • the processor 30 repeats the above-described step S2210 for all the flash drives registered in the flash count upper limit arrival time table 201 in order from the earliest flash count upper limit reach timing.
  • the processor 30 executes an increase page estimation process shown in FIG. 34 (step S2220). Specifically, as shown in FIG. 35, the processor 30 determines from the history of the volume usage rate (the ratio between the used capacity and the allocated capacity) in the volume capacity information table 234 (refer to FIG. 14) from the volume generation time point. The average value of the capacity usage rate for each hour is calculated (step S2221).
  • the volume that is the target range for calculating the average value may be all the volumes registered in the volume capacity information table 234, or may be narrowed down to a common volume in the following viewpoints (A) to (C). Good.
  • the processor 30 refers to the volume table 233 shown in FIG. 13 and narrows down the volumes belonging to the pool with the pool ID to be analyzed.
  • volume performance information read count, write count, etc.
  • the processor 30 periodically collects volume performance information and stores it in the storage device information storage unit 101.
  • the performance information is narrowed down to the volume with the most recent value or the average value for a predetermined period.
  • Businesses that use volumes (mail servers, online transaction processing business servers, batch processing business servers, etc.)
  • the processor 30 stores information indicating the business type of the connection destination host in the storage device information storage unit 101. The volume is narrowed down based on this business type information.
  • the processor 30 estimates the future capacity of each volume based on the average value of the capacity usage rate for each elapsed time from the time of volume generation, and divides the volume by a single page capacity to determine which future capacity for the volume. It is estimated how many pages are newly allocated at the time, and a page ID is arbitrarily set within a range unique to these pages to be added in the future (step S2222).
  • the processor 30 calculates an average value of loads (IOPS and the like) for each elapsed time from the time when the page is generated based on the history of page loads (IOPS and the like) registered in the page load table 238.
  • a load (IOPS or the like) after the addition of each page estimated to be added in the future in step S2222 is estimated (step S2223).
  • the processor 30 registers each page estimated to be added in the future in step S2222 in the hierarchical capacity estimation table 202 (see FIG. 20) among the loads (IOPS and the like) estimated in step S2223.
  • the value for each year and month is registered in the page load estimation table 204 (see FIG. 21) (step S2224).
  • the processor 30 executes the page load increase estimation process shown in FIG. 34 (step S2230). Specifically, as shown in FIG. 36, the processor 30 first selects one of the years and months registered in the hierarchical capacity estimation table 202 (see FIG. 20) in order from the oldest. Next, any one of the page IDs registered in the page table 237 (see FIG. 17) is selected, and the page of the page at two or more times registered in the page load table 238 (see FIG. 18) is selected. Based on the load (IOPS, etc.), the load (IOPS, etc.) of the page in the current month is estimated (step S2231). Specifically, the estimation is performed using a least square method or another estimation method. Next, the processor 30 registers the estimated load (IOPS or the like) in the page load estimation table 204 (see FIG. 21) in association with the year and month and the page ID (step S2232).
  • the processor 30 registers the estimated load (IOPS or the like) in the page load estimation table 204 (see FIG. 21) in association
  • the processor 30 repeatedly executes steps S2231 and S2232 as described above for all pages registered in the page table 237 (see FIG. 17). Further, the processor further performs steps S2231 and S2232 repeatedly executed for the pages registered in the page table 237 (see FIG. 17), and all the years in the year / month column 202A registered in the hierarchical capacity estimation table 202. Repeat for the month in order from the oldest.
  • the processor 30 selects one of the year and month registered in the tier capacity estimation table 202 (see FIG. 20) in order from the oldest, and each pool configuration tier in that year and month. Is allocated (step S2240).
  • the processor 30 selects one of the pool configuration layers in order from the upper layer, and calculates the number of pages that can be arranged in the pool configuration layer by dividing the allocated capacity of the pool configuration layer by the page size. (Step S2250).
  • the processor 30 sorts each row corresponding to the year and month registered in the page load estimation table 204 (see FIG. 21) in descending order by IOPS, and the number of pages that can be arranged in the hierarchy calculated above from the first page.
  • step S2260 Only the minutes are acquired (step S2260). However, pages that have already been acquired in this repetitive process are not included.
  • the processor 30 associates the acquired page with the pool configuration hierarchy in the year and month, and registers them in the page arrangement destination hierarchy table 203 (see FIG. 22) (step S2270).
  • the processor 30 repeatedly executes the above steps S2250 to S2270 in order from the upper layer for all the layers of the pool configuration layer.
  • the processor 30 includes the above-described step S2240 in order from the oldest for all years registered in the tier capacity estimation table 202 (see FIG. 20), and thus for all tiers of the pool configuration tier. As described above, repeatedly executing Steps S2250 to S2270 is repeatedly executed.
  • the processor 30 executes the volume response performance deterioration time estimation process S2300 shown in FIG. 32 as shown in FIG.
  • the processor 30 selects one of the years and months registered in the page arrangement destination hierarchy table 203 (see FIG. 22) in order from the oldest, and sets the page ID of each page in that year and month to the corresponding hierarchy ID. Obtained from the placement destination hierarchy table 203 (see FIG. 22) (step S2301).
  • the processor 30 acquires from the page placement destination hierarchy table 203 (see FIG. 22) the hierarchy ID corresponding to the page ID of each page in the year after the current month (step S2302).
  • the processor 30 compares the information acquired as described above in steps S2301 and S2302, and selects and takes out the page having the same page ID and the changed hierarchy ID (step S2303).
  • the processor 30 refers to the page table 237 (see FIG. 17), and specifies the volume ID of the volume to which the page selected and extracted in step S2303 belongs (step S2304).
  • the processor 30 associates the volume ID identified in step S2304 with the year and month and registers it in the response performance degradation volume table 205 (see FIG. 23) (step S2305).
  • the processor 30 repeatedly executes steps S2301 to S2305 as described above in order from the oldest for all years registered in the page arrangement destination hierarchy table 203 (see FIG. 22).
  • the processor 30 executes the volume response performance analysis process S2400 shown in FIG. 32 as shown in FIG.
  • the processor 30 selects one of the volumes registered in the response performance deterioration volume table 205 (see FIG. 23), and refers to the page table 237 (see FIG. 17), and pages of all pages belonging to the volume.
  • the ID is acquired, and the IOPS for each year of all pages belonging to the volume is acquired with reference to the page load estimation table 204 (FIG. 21) (step S2401).
  • the processor 30 refers to the page arrangement destination hierarchy table 203 (see FIG. 22) and specifies the hierarchy in which each page acquired in step S2401 is arranged (step S2402).
  • the processor 30 refers to the pool configuration tier table 232 (see FIG. 12) and acquires the response performance of the tier identified in step S2402 (step S2403).
  • the processor 30 uses the following equation (2) to calculate the response time of the hierarchy to which the page belongs for all pages belonging to the volume by weighted averaging with the IOPS of the page, and thereby for each year of the volume.
  • Response performance is estimated (step S2404).
  • the processor 30 associates the estimated response performance of the volume with the volume ID and the year and month, and registers them in the volume response performance table 206 (see FIG. 24) (step S2405).
  • the processor 30 repeatedly executes steps S2401 to S2405 as described above for all the volumes registered in the response performance deterioration volume table 205 (see FIG. 23).
  • the processor 30 executes a volume target response performance unachieved time estimation process S2500 shown in FIG. 32 as shown in FIG.
  • the processor 30 selects one of the rows registered in the volume response performance table 206 (see FIG. 24) in order from the oldest, and the response performance of the volume in the row is the volume target response performance table 220 ( It is determined whether or not the target response performance registered in (see FIG. 7) has not been achieved (step S2501).
  • the processor 30 determines whether or not the volume is registered in the target unachieved volume table 207 (see FIG. 25). (Step S2502) If not registered, the volume ID of the volume and the date of the line are registered in the target unreachable volume table 207 (see FIG. 25) (Step S2503).
  • the processor 30 registers the volume ID of the volume of the row and the year and month of the row in the target unreachable volume table 207 (see FIG. 25) in step S2503, the response performance of the volume is determined in step S2501.
  • the volume response performance table 206 includes the case where the target response performance is satisfied, or the case where the volume of the row is registered in the target unachieved volume table 207 (see FIG. 25) in step S2503. Steps S2501 to S2503 as described above are repeatedly executed in order from the oldest year for all registered rows.
  • step S2000 when each process included in the volume response performance analysis process (step S2000) shown in FIG. 29 is completed as described above, the type of analysis mode is next determined (step S3000). In the case of the analysis mode III or when the analysis mode is not selected, an analysis result display process is executed (step S4000).
  • the processor 30 is registered in the response performance deterioration volume table 205 (see FIG. 23) and the target unachieved volume table 207 (see FIG. 25).
  • the rows are scanned in order of early year and month, and the corresponding year and month and volume ID are registered in the analysis result table 240 (see FIG. 26) (step S4001).
  • the processor 30 displays a screen for the data registered in the analysis result table 240 (step S4002), and ends the process.
  • the analysis mode I processing unit 109 executes the analysis mode I process under the control of the processor 30 (step S5000 in FIG. 29).
  • the analysis mode I processing unit 109 first determines whether or not there is a volume whose target performance has not been reached in the years before the target maintenance deadline (specifically, Determines whether or not the year and month before the target maintenance deadline registered in the target maintenance deadline table 221 is registered in the target unachieved volume table 207 (step S5001), and the target unachieved volume does not exist
  • the analysis mode I process ends, if there is a target unachieved volume, the following process is repeatedly executed for the pool configuration hierarchy belonging to the pool of the pool ID in the analysis condition table 200.
  • the analysis mode I processing unit 109 calculates each pool configuration tier when a capacity corresponding to the minimum pool allocated capacity (for example, a capacity for an arbitrary number of storage devices allocated to the tier) is added to the pool configuration tier. (Step S5002). Next, based on the calculated information, the analysis mode I processing unit 109 creates data to be additionally registered in the flash drive table 235 (see FIG. 15) for the number of storage devices corresponding to the pool minimum allocated capacity. (Step S5003). The drive ID is arbitrarily set within a unique range, while the flash limit number is set to the same value as that of drives belonging to the same hierarchical ID. Thereafter, the analysis mode I processing unit 109 registers the created data in the flash drive table 235 (step S5004).
  • a capacity corresponding to the minimum pool allocated capacity for example, a capacity for an arbitrary number of storage devices allocated to the tier
  • step S2400 the above-described volume response performance analysis process is executed (step S2400).
  • the analysis mode I processing unit 109 manages the data of each table storing the analysis result as an analysis result in the configuration in which the pool configuration hierarchy is added in association with the capacity of each pool configuration hierarchy (step S5005). .
  • the analysis mode I processing unit 109 repeatedly executes steps S5002 to S5005 as described above for the pool configuration hierarchy belonging to the pool with the pool ID in the analysis condition table 200 as described above.
  • the analysis mode I processing unit 109 determines whether there is a configuration in which all the volumes can achieve the target among the analysis results after the expansion (specifically, the analysis mode I processing unit 109 is registered in the target maintenance period table 221). It is determined whether there is a configuration in which the year and month before the target maintenance deadline are not registered in the target unachieved volume table 207 (step S5006). If the analysis mode I processing unit 109 determines that it does not exist, the process returns to the process of repeatedly executing steps S5002 to S5005 for the pool configuration tier belonging to the pool with the pool ID in the analysis condition table 200. The following processing is executed.
  • the analysis mode I processing unit 109 calculates the difference capacity between the capacity of each pool configuration tier in the configuration and the capacity of each pool configuration tier in the initial configuration (prior to the allocation of the capacity corresponding to the minimum pool allocation capacity in step S5002).
  • the initial configuration the oldest one of the years registered in the target volume table 207 (see FIG. 25) is registered in the required additional capacity table 208 (see FIG. 27) in association with the year and month one month before. (Step S5007), the process ends.
  • the analysis result display unit 111 executes the above-described analysis result display process (step S4000), and then executes an additional capacity display process (step S7000).
  • the analysis result display unit 111 first determines whether or not the number of registrations in the required additional capacity table 208 (see FIG. 27) is one or more (steps). S7001). The analysis result display unit 111 outputs a message indicating that expansion is not necessary when the number of registrations is not one or more (step S7003), whereas when the number of registrations is one or more, the required expansion capacity table A screen display is performed by associating the tier ID, the required additional capacity, and the extension time limit registered in 208 (see FIG. 27) with the storage apparatus ID and pool ID of the analysis condition table 200 (step S7002).
  • the analysis mode II processing unit 110 executes the analysis mode II processing shown in FIG. .
  • This analysis mode II processing unit 110 uses the target unachieved volume (specifically, the volume registered in the target unachieved volume table 207 and the date before the target maintenance deadline registered in the target maintenance deadline table 221). The following processing is repeatedly executed.
  • the analysis mode II processing unit 110 selects one pool ID registered in the pool table 231 (see FIG. 11) and one other than the pool ID registered in the analysis condition table 200.
  • the following steps S6001, S6002, S2400 and S6003 are repeatedly executed.
  • the analysis mode II processing unit 110 reflects the configuration when the target destination unallocated volume allocation destination pool is changed to the pool with the pool ID in each table configuring the storage device information storage unit 101 (Ste S6001).
  • the analysis mode II processing unit 110 sets the pool as an analysis target pool (step S6002) and executes the above-described volume response performance analysis process (see FIG. 32) (step S2400).
  • the analysis mode II processing unit 110 determines whether or not the target unachieved volume exists in the year and months before the target maintenance deadline (step S6003), and if there is no target unachieved volume, executes from step S6004 described later.
  • Steps S6001, S6002, S2400, and S6003 are repeatedly executed.
  • step S6004 the analysis mode II processing unit 110 registers the volume ID of the target unachieved volume and the pool ID in the volume migration plan table 209 (see FIG. 28).
  • step S6005 the analysis mode II processing unit 110 sets the pool with the pool ID registered in the analysis condition table 200 (see FIG. 6) as an analysis target pool (step S6005).
  • a performance analysis process (see FIG. 32) is executed (step S2400).
  • step S6006 determines whether or not the target unachieved volume exists in the year and month before the target maintenance deadline (step S6006), and terminates the processing when the target unachieved volume does not exist.
  • step S6006 the above processing is repeatedly executed from step S6001 for the target unachieved volume.
  • the analysis result display unit 111 executes the above-described analysis result display process (step S4000), and then executes a volume migration plan display process (step S8000).
  • the analysis result display unit 111 first determines whether or not the number of registrations in the volume migration plan table 209 (see FIG. 28) is one or more ( Step S8001).
  • the analysis result display unit 111 displays the volume ID, migration destination storage ID, and migration destination pool ID registered in the volume migration plan table 209 as the storage device ID and pool ID of the analysis condition table 200. Are displayed in association with each other (step S8002), and if the number of registrations is not one or more, a message indicating that migration is unnecessary is output (step S8003).
  • an example of a performance management apparatus in the storage apparatus 3 including two or more types of storage devices 20 having different rewrite lifetimes and response performances.
  • the storage device 3 is unused in any one of the two or more types of storage devices 20, and The data corresponding to the write request is written in the storage area that has not reached the write life, and the storage apparatus 3 responds to the IO load amount by the host computer 2 in each storage area of the two or more types of storage devices 20.
  • the storage device with higher response performance From the storage area of the storage device 20 with lower response performance, the storage device with higher response performance From a storage area of the storage device 20 that has not reached the write life or from a storage area of the storage device 20 having a higher response performance to a storage area that has not reached the write life of the storage device 20 having a lower response performance.
  • the management computer 4 has the following characteristic configuration.
  • the management computer 4 further estimates a decrease in storage capacity associated with the reaching of the rewrite life for each of the two or more types of storage devices 20, and estimates a performance impact on the virtual volume and a generation timing thereof.
  • the analysis mode I processing unit 109, the analysis mode II processing unit 110, and the like while the analysis result as an example of the performance influence display unit that displays information related to the estimated performance influence and the generation time thereof A display unit 111 is provided.
  • the analysis result display unit 111 displays the time when the response performance deterioration of the volume starts in the future. In this way, based on the time when the response performance deterioration of the volume estimated due to the decrease in the storage capacity due to the reaching of the life of each storage medium of two or more types of storage devices 20 having different rewrite life and response performance begins, It is possible to support the formulation of an expansion plan for the storage device 20.
  • the analysis result display unit 111 displays the time when the volume does not satisfy the target response performance. In this case, based on the time when the volume estimated due to the decrease in storage capacity due to the end of the life of each storage medium of two or more types of storage devices 20 having different rewrite lifetimes and response performances does not satisfy the target response performance. Therefore, it is possible to support the creation of an expansion plan for the storage device 20.
  • the analysis result display unit 111 displays the capacity of the additional flash drive necessary for extending the target achievement period to a preset time. By doing so, until the time when the target achievement period is set in advance, which is estimated due to a decrease in the storage capacity due to the end of the life of each storage medium of two or more types of storage devices 20 having different rewrite life and response performance Based on the capacity of the additional flash drive necessary for the extension, it is possible to support the formulation of the expansion plan for the storage device 20.
  • the analysis result display unit 111 displays the volume target achievement period based on the capacity of the designated additional flash drive.
  • the analysis result display unit 111 displays a volume pool migration plan necessary for extending the target achievement period to a preset time.
  • the pool migration plan of the volume estimated based on the decrease in storage capacity due to the end of the life of each storage medium of two or more types of storage devices 20 having different rewrite lifetime and response performance, It is possible to support the formulation of an expansion plan for the storage device 20.
  • management computer 4 having the storage performance analysis function and the storage management client 5 operated by the user are configured separately is described.
  • the management computer 4 and the storage management client 5 may be configured by one computer (for example, a computer device).
  • management computer 4 with the storage performance analysis function and the storage device 3 are configured separately, but the present invention is not limited to this, and the management computer is not limited thereto. 4 may be integrated with any one of the storage devices 3.
  • the present invention can be widely applied to a performance management method and apparatus for a storage apparatus in which two or more types of storage media having different rewrite lifetimes and response performances are hierarchized and data can be moved between layers according to the response performance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】互いに寿命の異なるとともに異なる種類のドライブ装置の組み合わせを記憶媒体とするストレージ装置において、ドライブ装置が寿命に到達することにより将来発生し得る問題に計画的に対処する性能管理方法及び装置を提案する。 【解決手段】書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を階層化し応答性能に応じてデータを各層間において移動し得る前提において、性能管理装置が、2種以上の記憶媒体各々について書き換え寿命の到達に伴う記憶容量の減少分を推定する一方、仮想ボリュームに対する性能影響とその発生時期を推定してその推定による性能影響及びその発生時期に関連する情報を表示する。

Description

ストレージ装置の性能管理方法及び装置
 本発明は、書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を搭載するストレージ装置の性能管理方法及び装置に関し、特に、例えば、メモリセル構造の異なるフラッシュドライブ同士やフラッシュドライブとハードディスクドライブとの組み合わせを階層化し応答性能に応じてデータを各層間において移動し得るストレージ装置の性能管理方法及び装置に適用して好適なものである。
 従来、フラッシュメモリドライブとハードディスクドライブとの組み合わせを記憶媒体とするストレージ装置において、記憶媒体ごとに使用状況に関する情報を取得し、一方の種類の記憶媒体の使用状況に関する情報が第1の閾値を超え、かつ、他方の種類の記憶媒体の使用状況に関する情報が第2の閾値を超えていない場合、前者の記憶媒体のデータを後者の記憶媒体に移行する(例えば、特許文献1参照)。これにより、低消費電力の実現と高性能の維持とを両立し得ることができる。
特開2007-115232号公報
 ところが、このような従来技術においては、現在のストレージ装置を構成するフラッシュメモリドライブとハードディスクドライブのみを前提にした事後的な対処しか考慮されておらず、フラッシュドライブ装置が寿命に到達することにより将来発生し得る問題に対し、ドライブを事前に増設する等、計画的に対処することについては考慮されていない。
 本発明は以上の点を考慮してなされたもので、互いに寿命の異なるとともに異なる種類のドライブ装置の組み合わせを記憶媒体とするストレージ装置において、ドライブ装置が寿命に到達することにより将来発生し得る問題に計画的に対処することができるストレージ装置の性能管理方法及び装置を提案しようとするものである。
 かかる課題を解決するため本発明においては、書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を備えるストレージ装置の性能管理装置であって、前記ストレージ装置は、前記ストレージ装置と接続されたホスト計算機に対し、前記2種以上の記憶媒体を用いて仮想的な論理ボリュームを構成する仮想ボリュームを提供し、前記ホスト計算機から前記仮想ボリュームの未書き込みアドレスに対しライト要求が発行されると、前記ストレージ装置が、前記2種以上の記憶媒体のうちいずれかにおいて未使用であり、かつ、書き込み寿命に到達していない記憶領域に当該ライト要求に応じたデータを書き込み、前記ストレージ装置が、前記2種以上の記憶媒体各々の記憶領域ごとにおける前記ホスト計算機によるIO負荷量に応じて、応答性能がより低い記憶媒体の記憶領域から、応答性能がより高い記憶媒体のうち書き込み寿命に到達していない記憶領域に、又は、応答性能がより高い記憶媒体の記憶領域から、応答性能がより低い記憶媒体のうち書き込み寿命に到達していない記憶領域に、データの格納場所を移行し、前記性能管理装置は、前記2種以上の記憶媒体各々について書き換え寿命の到達に伴う記憶容量の減少分を推定し、前記仮想ボリュームに対する性能影響とその発生時期を推定する性能影響推定部と、前記推定された性能影響及びその発生時期に関連する情報を表示する性能影響表示部と、を有するようにした。
 また本発明においては、書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を備えるストレージ装置の性能を管理する性能管理装置による性能管理方法であって、前記ストレージ装置は、前記ストレージ装置と接続されたホスト計算機に対し、前記2種以上の記憶媒体を用いて仮想的な論理ボリュームを構成する仮想ボリュームを提供し、前記ホスト計算機から前記仮想ボリュームの未書き込みアドレスに対しライト要求が発行されると、前記ストレージ装置が、前記2種以上の記憶媒体のうちいずれかにおいて未使用であり、かつ、書き込み寿命に到達していない記憶領域に当該ライト要求に応じたデータを書き込み、前記ストレージ装置が、前記2種以上の記憶媒体各々の記憶領域ごとにおける前記ホスト計算機によるIO負荷量に応じて、応答性能がより低い記憶媒体の記憶領域から、応答性能がより高い記憶媒体のうち書き込み寿命に到達していない記憶領域に、又は、応答性能がより高い記憶媒体の記憶領域から、応答性能がより低い記憶媒体のうち書き込み寿命に到達していない記憶領域に、データの格納場所を移行し、前記性能管理方法は、前記性能管理装置が、前記2種以上の記憶媒体各々について書き換え寿命の到達に伴う記憶容量の減少分を推定し、前記仮想ボリュームに対する性能影響とその発生時期を推定する性能影響推定ステップと、前記性能管理装置が、前記推定された性能影響及びその発生時期に関連する情報を表示する性能影響表示ステップと、を有するようにした。
 本発明によれば、互いに寿命の異なるとともに異なる種類のドライブ装置の組み合わせを記憶媒体とするストレージ装置において、ドライブ装置が寿命に到達することにより将来発生し得る問題に計画的に対処することができる性能管理方法及び装置を実現することができる。
本実施の形態による計算機システムの全体構成の一例を示すブロック図である。 計算機システムのリソース構成及びリソースの関連性の一例を示す図である。 主として管理計算機のストレージ性能分析機能に関する論理構成の一例を示すブロック図である。 分析条件の設定画面の一例を示す図である。 分析結果を表す画面の一例を示す図である。 分析条件テーブルの一例を示す図である。 ボリューム目標応答性能テーブルの一例を示す図である。 目標維持期限テーブルの一例を示す図である。 増設容量テーブルの一例を示す図である。 ストレージ装置テーブルの一例を示す図である。 プールテーブルの一例を示す図である。 プール構成階層テーブルの一例を示す図である。 ボリュームテーブルの一例を示す図である。 ボリューム容量情報テーブルの一例を示す図である。 フラッシュドライブテーブルの一例を示す図である。 ドライブフラッシュ回数テーブルの一例を示す図である。 ページテーブルの一例を示す図である。 ページ負荷テーブルの一例を示す図である。 フラッシュ回数上限到達時期テーブルの一例を示す図である。 階層容量推定テーブルの一例を示す図である。 ページ負荷推定テーブルの一例を示す図である。 ページ配置先階層テーブルの一例を示す図である。 応答性能劣化ボリュームテーブルの一例を示す図である。 ボリューム応答性能テーブルの一例を示す図である。 目標未達ボリュームテーブルの一例を示す図である。 分析結果テーブルの一例を示す図である。 所要増設容量テーブルの一例を示す図である。 ボリューム移行プランテーブルの一例を示す図である。 情報収集・推定・結果表示処理の一例を示すフローチャートである。 ストレージ装置情報取得処理の一例を示すフローチャートである。 分析条件設定処理の一例を示すフローチャートである。 ボリューム応答性能分析処理の一例を示すフローチャートである。 ドライブフラッシュ回数上演到達時期推定処理の一例を示すフローチャートである。 ページ配置先階層特定処理の一例を示すフローチャートである。 増加ページ推定処理の一例を示すフローチャートである。 ページ負荷推定処理の一例を示すフローチャートである。 ボリューム応答性能劣化時期推定処理の一例を示すフローチャートである。 ボリューム応答性能分析処理の一例を示すフローチャートである。 ボリューム目標応答性能未達時期推定処理の一例を示すフローチャートである。 分析結果表示処理の一例を示すフローチャートである。 分析モードI処理の一例を示すフローチャートである。 分析モードII処理の一例を示すフローチャートである。 増設容量表示処理の一例を示すフローチャートである。 ボリューム移行プラン表示処理の一例を示すフローチャートである。
 以下図面について、本発明の一実施の形態を詳述する。
 なお、以後の説明では「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等の表現にて本発明の情報を説明するが、これら情報はテーブル、リスト、DB、キュー等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等について「aaa情報」と呼ぶことがある。
 さらに、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。
 以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ、ディスクデバイス及び通信デバイスを用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。また、プログラムの一部又は全ては専用ハードウェアによって実現されてもよい。
 また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。この場合、プログラム配布サーバはCPUと記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムを記憶している。そして、配布プログラムをCPUが実行することで、プログラム配布サーバのCPUは配布対象のプログラムを他の計算機に配布する。
(1)本実施の形態による計算機システムの構成
 図1は、本実施の形態による計算機システム1の構成例を示す。本計算機システム1においては、1又は複数のホスト計算機2、1又は複数のストレージ装置3、管理計算機4及びストレージ管理クライアント5が管理用LAN(Local Area Network)6を介して相互に接続されている一方、ホスト計算機2、ストレージ装置3及び管理計算機4が1又は複数のSAN(Storage Area Network)スイッチ7を介して相互に接続されている。
 ホスト計算機2は、ユーザ業務に応じた各種処理を実行するコンピュータ装置であり、図示しないが、プロセッサ、メモリ、ディスクデバイス及び通信デバイスを備えている。プロセッサは、ホスト計算機2全体の動作制御を行うハードウェアである。またメモリは、主として各種プログラムを記憶するために利用されほか、プロセッサのワークメモリとしても利用される。ユーザ業務を実行するアプリケーションソフトウェアである業務ソフトウェアや、OS(Operating System)もこのメモリに格納されて保持される。ディスクデバイスは、各種プログラムや各種データを長期間保持するために利用される大容量の記憶デバイスであり、例えばハードディスク装置などから構成される。また通信デバイスは、管理用LAN6及びSANスイッチ7を介して行われるストレージ装置3や管理計算機4との間の通信時におけるプロトコル制御を行う。
 ストレージ装置3は、ホスト計算機2に対して仮想的な論理ボリューム(以下、これを仮想ボリューム又は単にボリュームと呼ぶ)を提供する大容量の記憶装置である。ストレージ装置3は、1又は複数の記憶デバイス20と、記憶デバイス20に対するデータの入出力を制御するコントローラ21とを備えている。
 記憶デバイス20は、書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体によって構成されている。記憶デバイス20は、例えばメモリセル構造の異なるフラッシュメモリを利用したフラッシュドライブ(SSD(Solid State Drive))同士、又は、フラッシュドライブとハードディスクドライブとの組み合わせを例示することができる。
 コントローラ21は、1又は複数のプロセッサと、メモリと、1又は複数のキャッシュメモリとを有する。プロセッサは、ストレージ装置3全体の動作制御を行うハードウェアである。メモリは、主として各種プログラムを記憶するために利用されるほか、プロセッサのワークメモリとしても利用される。さらに、このメモリには、ホスト計算機2から仮想ボリュームに対して発行されるリード要求やライト要求に応じた制御を行う仮想環境制御プログラムが格納されている。キャッシュメモリは、記憶デバイス20に入出力されるデータを一時的に保持するために利用される。
 管理計算機4は、本計算機システム1全体を管理するコンピュータ装置であり、プロセッサ30、メモリ31、ディスクデバイス32及び通信デバイス33を有する。
 プロセッサ30は、管理計算機4全体の動作制御を行う機能を有するハードウェアである。メモリ31は、主として各種プログラムを記憶するために利用されるほか、プロセッサ30のワークメモリとしても利用される。このメモリ31には、ストレージ管理ソフトウェア34が格納されている。このストレージ管理ソフトウェア34は、SAN環境の構成情報及び性能情報を収集したり、収集したこれらの情報に基づいて性能問題を分析する機能を有する。
 ディスクデバイス32は、各種プログラムや各種データを長期間保持するために利用される大容量の記憶デバイスであり、例えばハードディスク装置を含んでいる。通信デバイス33は、管理用LAN6及びSANスイッチ7を介して行われるホスト計算機2やストレージ装置3との間の通信時におけるプロトコル制御を行う。
 管理計算機4は入出力デバイスを有する。入出力デバイスの例としては、ディスプレイ、キーボード及びポインタデバイスの少なくとも1つが考えられるが、これ以外のデバイスであってもよい。入出力デバイスの代替としてシリアルインターフェース(或いはイーサーネットインターフェース)を採用しても良い。当該インターフェースにディスプレイ又はキーボード及びポインタデバイスの少なくとも1つを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることにより、入出力デバイスでの入力及び表示を代替してもよい。
 以後、計算機システム1を管理し、表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理計算機4が表示用情報を表示する場合は管理計算機4が管理システムである、また、管理計算機4と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機4と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。
 ストレージ管理クライアント5は、上述のように管理計算機4のメモリ31に格納されたストレージ管理ソフトウェア34のユーザインタフェースを提供する通信端末装置である。ストレージ管理クライアント5は、少なくとも図示しない入力デバイス及び出力デバイスを有する。入力デバイスは、ユーザが各種入力を行うためのハードウェアであり、例えばキーボード、マウス及びタッチパネルの少なくとも1つである。一方、出力デバイスは、各種GUI(Graphical User Interface)などを表示する表示装置であり、例えば液晶パネルなどから構成される。ストレージ管理クライアント5は、管理用LAN6を介して管理計算機4のストレージ管理ソフトウェア34と通信を行う。
 (2)Tierを用いた階層化ストレージ方式
 図2は、Tierを用いた階層化ストレージ方式の一例を示す概念図である。階層化ストレージ方式は、所定のポリシーに従って、高性能(従って比較的高コスト)のストレージメディアと低性能(比較的低コスト)のストレージメディアとの間でデータを移動する管理手法である。ここでは、種類の異なるフラッシュドライブ同士或いはフラッシュドライブとハードディスクドライブといった記憶デバイス20を用いて作成したプール(以下「階層化プール」とも呼ぶ)を用いている。階層化プールでは、階層化プールに属する仮想ボリュームに対するページ単位のアクセス負荷を基にして、どの性能(階層)の記憶デバイス20を割り当てるかが決定される。具体的には、例えば、アクセス負荷の高いページに対しては性能の高いドライブを割り当てる一方、アクセス負荷の低いページに対して性能の低いドライブを割り当てる。
 「HostA」「HostB」の名称が付された2台のホスト計算機2は、それぞれ、SANスイッチ7を経由してストレージ装置3におけるボリュームID「VOL1」~「VOL7」のボリュームにアクセスし得るように構成されている。
 ボリュームID「VOL1」~「VOL3」のボリュームはプールID「PoolA」のプールに割り当てられており、ボリュームID「VOL4」及び「VOL5」のボリュームはプールID「PoolB」のプールに割り当てられており、ボリュームID「VOL6」及び「VOL7」のボリュームはプールID「PoolC」のプールに割り当てられている。
 各プールにおいては、プールIDが「PoolA」及び「PoolB」である2つのプールは、それぞれ、例えば、Tier1~Tier3の3階層に階層化されている一方、プールIDが「PoolC」であるプールは、例えば、Tier1及びTier2の2階層に階層化されている。ここで、これら階層Tier1~Tier3を各々区別するのに、これらを階層IDと呼び区別するものとする。
 プールID「PoolA」のプールにおいては、階層ID「Tier1」の階層にはフラッシュドライブA11及びフラッシュドライブA12等(図では略示。以下同様)の記憶デバイス20が割り当てられており、階層ID「Tier2」の階層にはフラッシュドライブA21等の記憶デバイス20が割り当てられており、階層ID「Tier3」の階層にはハードディスクドライブA31等の記憶デバイス20が割り当てられている。
 プールID「PoolB」のプールにおいては、階層ID「Tier1」の階層にはフラッシュドライブB11等の記憶デバイス20が割り当てられており、階層ID「Tier2」の階層にはフラッシュドライブB21等の記憶デバイス20が割り当てられており、階層ID「Tier3」の階層にはハードディスクドライブB31等の記憶デバイス20が割り当てられている。
 プールID「PoolC」のプールにおいては、階層ID「Tier1」の階層にはフラッシュドライブC11及びフラッシュドライブC12等の記憶デバイス20が割り当てられており、階層ID「Tier2」の階層にはハードディスクドライブC21等の記憶デバイス20が割り当てられている。
 これらの対応関係は、後述する図10~図17に示す各テーブルにおいて管理されており、これらのテーブルを用いた処理の詳細については後述する。
 (3)管理計算機
 図3は、主として、本実施の形態による管理計算機4の構成例を示すブロック図である。なお、図示の例では、矢印が情報の流れを表しており、矢印の後端に配置するテーブルに格納されている情報がその矢印の先端に配置する処理部で用いられ、矢印の後端に配置する処理部が処理結果として得た情報をその矢印の先端に配置するテーブルに格納することを表している。
 管理計算機4は、ストレージ装置情報収集部100及びストレージ装置情報記憶部101の他にも、例えば、分析条件設定部102、ドライブフラッシュ回数上限到達時期推定部104、ページ配置先階層特定部105、ボリューム応答性能劣化時期推定部106、ボリューム応答性能推定部107、ボリューム目標応答性能未達時期推定部108、分析モードI処理部109、分析モードII処理部110、分析結果表示部111及び分析結果テーブル112を有する。
 ストレージ装置情報収集部100は、恒常的にストレージ装置3から後述するストレージ情報を収集し、ストレージ装置情報記憶部101に格納している。ドライブフラッシュ回数上限到達時期推定部104などは、ストレージ装置情報記憶部101のストレージ装置情報を用いて、詳細は後述するように分析処理を行う。分析結果表示部111は、そのような分析結果を含む分析結果テーブル112に基づいて分析結果を表示させる。
 その他にも管理計算機4は、テーブル群の一部として、分析条件テーブル200、フラッシュ回数上限到達時期テーブル201、階層容量推定テーブル202、ページ配置先階層テーブル203、ページ負荷推定テーブル204、応答性能劣化ボリュームテーブル205、ボリューム応答性能テーブル206、目標未達ボリュームテーブル207、所要増設容量テーブル208及びボリューム移行プランテーブル209を有する。なお、これらは、上述したようにテーブル群の一部であり、残りのテーブル群を含めた説明についてはまとめて後述する。
 本実施の形態では、管理計算機4が、以上のような各テーブルの組み合わせに基づいて、例えば、フラッシュドライブなどの記憶デバイス20の総容量減少によって発生するボリュームの応答性能劣化の時期や目標応答性能が達成できなくなる時期(以下「未達時期」とも呼ぶ)を表示したり、例えば、ボリュームの目標応答性能を達成可能な期間(以下「目標達成期間」とも呼ぶ)を延長するための対応措置として、増設が必要なドライブの容量や移行先プールに関する情報を表示したりする構成としている。以下、画面例を用いつつさらに具体的に説明する。
 (4)画面例
 図4は、分析条件の設定のためのデータ入力画面の一例を示している。図5は、入力された分析条件に基づく分析の結果を表す結果出力画面の一例を示している。図4に示す分析条件設定画面300は、分析条件設定部102(図3参照)によって表示されており、例えば、共通入力欄310、分析モードI用入力欄320、分析モードII用入力欄330、分析モードIII用入力欄340及び分析実行ボタン350を有する。
 この分析条件設定部102は、既に説明したストレージ装置情報記憶部101に格納済みの情報に基づいて分析条件設定画面300を表示し、分析条件設定画面において入力された分析条件を分析条件テーブル200に登録する。ここで、本実施の形態においては、将来的なボリュームの性能劣化に関する分析方法として、いくつかの分析モードが用意されている。各分析モードの詳細については後述する。
 上述した分析条件設定画面において共通入力欄310は、各分析モードにおいて共通する入力項目を設定するための項目欄である。共通入力欄310は、ストレージ装置入力欄311、プール入力欄312及び目標応答性能入力欄313を有する。
 ストレージ装置入力欄311は、プルダウンメニュー形式(図示せず)の入力欄であり、プルダウンメニューに掲載された複数のストレージ装置IDの中から所望のストレージ装置3のストレージ装置IDを選択することによって、分析の対象とするストレージ装置3を選択し、その選択したストレージ装置3に対応するストレージ装置IDが入力される。プルダウンメニューに掲載されるストレージ装置IDは、管計算機4が管理対象とするすべてのストレージ装置3のストレージ装置IDである。図示の例においては、ストレージ装置IDとして、例えば「Storage A」が選択されている。
 プール入力欄312は、プルダウンメニュー形式(図示せず)の入力欄であり、プルダウンメニューに掲載された複数のプールIDの中から所望のプールのプールIDを選択し、その選択したプールに対応するプールIDが入力される。プルダウンメニューに掲載されるプールIDは、ストレージ装置入力欄311で選択したストレージ装置IDのストレージ装置3内に構築されているすべてのプールのプールIDである。図示の例においては、プールIDとして、例えば「Pool A」が選択されている。
 目標応答性能入力欄313は、目標とすべき応答性能(以下「目標応答性能」と呼ぶ)が入力される欄である。目標応答性能入力欄313には、プール入力欄312で選択されたプールIDのプールに割り当てられているすべてのボリュームのボリュームIDが同ボリュームにアクセスするホスト計算機2のホストIDとともに一覧表示されるので、各ボリュームに対して所望の目標応答性能が入力可能となっている。尚、所望の目標応答性能がないボリュームに対する目標応答性能は「未設定」という値で表す。この目標応答性能入力欄313は、最上段において、例えば、ホストID「Host A」のホスト計算機2がアクセスするボリュームID「VOL 1」のボリュームに対して目標応答性能として「0.5[ms]」と設定されている。
 一方、この分析条件設定画面300は、分析モードI用入力欄320に入力を可能とするラジオボタン321、分析モードII用入力欄330に入力を可能とするラジオボタン331、及び、分析モードIII用入力欄340に入力を可能とするラジオボタン341を含んでいる。
 分析モードI用入力欄320は、増設が必要な容量を表示する分析モードIに関して目標達成維持期間の最終日が設定可能となっている。分析モードII用入力欄330は、ボリューム移行プランを表示する分析モードIIに関して目標達成維持期間の最終日が設定可能となっている。分析モードIII用入力欄340は、目標未達ボリュームを表示する分析モードIIIに関して増設予定容量として各階層IDの階層ごとに増設容量を設定可能となっている。
 分析実行ボタン350は、上述のように入力された分析条件に基づいて後述する分析を行わせるための操作ボタンである。
 一方、図5に示す分析結果画面400は、分析結果主表示欄410、増設容量表示欄420及びボリューム移行プラン表示欄430を有する。この分析結果画面では、既述の分析結果表示部111が分析結果テーブル112に基づいて分析結果を表示する。
 分析結果画面において分析結果主表示欄410は、時期ごとに、フラッシュドライブなどの記憶デバイス20の総容量減少によって応答性能劣化が発生したボリュームのボリュームID及び目標応答性能が未達となったボリュームのボリュームIDが表示される。増設容量表示欄420は、上記データ入力画面において分析モードIが選択された場合にのみ分析結果が表示される。この増設容量表示欄420には、ストレージ装置IDのストレージ装置内に構築されたプールIDのプールの各階層IDの階層ごとに増設容量及び増設期限が表示される。
 ボリューム移行プラン表示欄430は、上記データ入力画面において分析モードIIが選択された場合にのみ分析結果が表示される。このボリューム移行プラン表示欄430には、ストレージ装置IDのストレージ装置内に構築されたプールIDのプールに割り当てられているボリュームIDのボリュームを移行すべき移行先ストレージ装置のストレージ装置ID及び移行先プールのプールIDが表示される。
 図6は、分析条件テーブル200の一例を示している。分析条件テーブル200では分析条件の一例が管理されており、既に説明したように分析条件設定部102によって新たな分析条件が登録されたり登録済みの分析条件が更新される。図示の例では、例えば、ストレージ装置IDが「Storage A」であり、かつ、プールIDが「Pool A」に設定された分析対象に関して分析モードIを適用して分析を行う設定であることを表している。
 図7~図9は、それぞれ、ボリューム目標応答性能テーブル220、目標維持期限テーブル221及び増設容量テーブル222の一例を示す図である。ボリューム目標応答性能テーブル220、目標維持期限テーブル221及び増設容量テーブル222では分析条件のうち、分析条件設定画面300の目標応答性能入力欄313、分析モードI用入力欄320、分析モードII用入力欄330及び分析モードIII用入力欄340にて入力された分析条件の一例が管理されており、分析条件設定部102によって新たな分析条件が登録されたり登録済みの分析条件が更新される。ボリューム目標応答性能テーブル220では各ボリュームに割り当てたボリュームID220Aに対する目標応答性能220Bが管理されている。
 目標維持期限テーブル221では、性能目標の達成を維持することが要求される期限(以下「目標維持期限」とも呼ぶ)221Aが管理されている。増設容量テーブル222では、性能目標の達成を維持できる期限を延長するために各階層に階層化されたプールにおいて各階層ID222A(例えばTier1、Tier2)に対応する階層に増設できる容量222Bが管理されている。
 図10~図18は、ストレージ装置情報記憶部101によって複数のストレージ装置3から取得されストレージ装置情報記憶部101に格納される情報を構成するテーブル群の一例を表している。これらは、それぞれ、ストレージ装置テーブル230、プールテーブル231、プール構成階層テーブル232、ボリュームテーブル233、ボリューム容量情報テーブル234、フラッシュドライブテーブル235、ドライブフラッシュ回数テーブル236、ページテーブル237及びページ負荷テーブル238の一例を表している。
 ストレージ装置テーブル230には、管理計算機4が管理対象とするすべてのストレージ装置3のストレージ装置IDが登録されている。プールテーブル231には、各プールID231Aのプールが構築されているストレージ装置3のストレージ装置IDが登録されている。プール構成階層テーブル232には、各階層ID232Aの階層が所属するプールのプールID232Bとストレージ装置のストレージ装置ID232Cごとに、その階層に割り当てられている記憶デバイス20の応答時間232D及び割当容量232Eが登録されている。
 ボリュームテーブル233には、各ボリュームID233Aのボリュームごとに、そのボリュームが割り当てられているストレージ装置のストレージ装置ID233BとプールのプールID233C、並びにそのボリュームにアクセスするホスト計算機2の接続先ホストID233Dが登録されている。ボリューム容量情報テーブル234には、年月234A、ボリュームID234B、ストレージ装置ID234C、プールID234D、割当容量234E及び使用済み容量234Fが登録されている。
 フラッシュドライブテーブル235には、ドライブID235A、ストレージ装置ID235B、割当プールID235C、容量235D、割当階層ID235E及びフラッシュ限界回数235Fが登録されている。
 ドライブフラッシュ回数テーブル236には、ドライブID236A、ストレージ装置ID236B、時刻236C及びフラッシュ回数236Dが登録されている。ページテーブル237には、ページID237A、階層ID237B、プールID237C、ストレージ装置ID237D、ボリュームID237E及びページサイズ237Fが登録されている。ページ負荷テーブル238では、年月238A、ページID238B、プールID238C、ストレージ装置ID238D及びIOPS238Eが登録されている。
 図19~図24は、それぞれ、フラッシュ回数上限到達時期テーブル201、階層容量推定テーブル202、ページ負荷推定テーブル204、ページ配置先階層テーブル203、応答性能劣化ボリュームテーブル205及びボリューム応答性能テーブル206の一例を表している。
 フラッシュ回数上限到達時期テーブル201は、ドライブID201Aごとにフラッシュ回数上限到達時期201Bを管理しており、上述したドライブフラッシュ回数上限到達時期推定部104によってドライブID201Aごとにフラッシュ回数上限到達時期201Bが更新されたり追加される。階層容量推定テーブル202では、年月202Aごとにおける各階層の容量、例えばTier1の容量202B及びTier2の容量202Cが管理されている。
 ページ負荷推定テーブル204は、年月204A、ページID204B及びIOPS204Cを管理しており、ある年月における各ページのIOPS(1秒ごとのI/O回数)を管理している。
 ページ配置先階層テーブル203は、年月203A、ページID203B及び階層ID203Cを管理しており、ページ配置先階層特定部105によってこれら年月203A、ページID203B及び階層ID203Cが更新されたり追加される。
 応答性能劣化ボリュームテーブル205は、年月205A及びボリュームID205Bを管理しており、年月205Aの年月において、階層ごとのフラッシュドライブなどの記憶デバイス20の総容量が減少し、ボリュームを構成するページの割り当て階層が低性能の階層に移行することによって応答性能が劣化し始めると推定されたボリュームを管理している。この応答性能劣化ボリュームテーブル205は、ボリューム応答性能劣化時期推定部106によってこれら年月205A及びボリュームID205Bが更新されたり追加される。
 ボリューム応答性能テーブル206は、年月206A、ボリュームID206B及び応答性能206Cを管理しており、これらによってある年月におけるボリュームの応答性能を管理している。このボリューム応答性能テーブル206は、ボリューム応答性能推定部107によってこれら年月206A、ボリュームID206B及び応答性能206Cが更新されたり追加される。
 図25~図28は、それぞれ、目標未達ボリュームテーブル207、分析結果テーブル240、所要増設容量テーブル208及びボリューム移行プランテーブル209の一例を表している。
 目標未達ボリュームテーブル207は、年月207A及びボリュームID207Bを管理しており、ある年月において、階層ごとのフラッシュドライブなどの記憶デバイス20の総容量が減少し、ボリュームを構成するページの割り当て階層が低性能の階層に移行することによって応答性能が目標応答性能を満たさなくなると推定されたボリュームを管理している。この目標未達ボリュームテーブル207は、ボリューム目標応答性能未達時期推定部108によってこれら年月207A及びボリュームID207Bが更新されたり追加される。
 分析結果テーブル240は、年月240A、性能劣化ボリューム240B及び目標未達ボリューム240Cを管理しており、ある年月において、応答性能が劣化し始めると推定されたボリューム、及び、応答性能が目標を達成できなくなると推定されたボリュームを管理している。
 所要増設容量テーブル208は、階層ID208A、所要増設容量208B及び増設期限208Cを管理しており、プールのある階層において必要な増設容量及び、増設しなければならない期限を管理している。この所要増設容量テーブル208は、分析モードI処理部109によってこれら階層ID208A、所要増設容量208B及び増設期限208Cが更新されたり追加される。
 ボリューム移行プランテーブル209は、ボリュームID209A、移行先ストレージ装置ID209B及び移行先プールID209Cを管理しており、ボリュームの移行プランを管理している。このボリューム移行プランテーブル209は、分析モードII処理部110によってボリュームID209A、移行先ストレージ装置ID209B及び移行先プールID209Cが更新されたり追加される。
(5)性能分析方法
(5-1)ストレージ装置情報取得処理
 図30は、恒常的に実行されているストレージ装置情報取得処理の一例を示している。このストレージ装置情報取得処理では、まず、ストレージ装置情報収集部100が各ストレージ装置3から最新の構成情報、容量情報及び性能情報を収集する(ステップS1)。次にストレージ装置情報収集部100は、収集したストレージ装置情報をストレージ装置情報記憶部101に登録する。このストレージ装置情報取得処理では、ストレージ装置情報収集部100がストレージ装置3ごとに、以上のようなステップS1,S2を繰り返し実行している。
(5-2)情報収集・推定・結果表示処理
 図29は、情報収集・推定・結果表示処理の一例を示すフローチャートである。図31は、図29に示す分析条件設定処理S1000の一例を示すフローチャートである。図32は、図29に示すボリューム応答性能分析処理S2000の一例を示すフローチャートである。図33~39は、それぞれ、図32に及び図34示す各処理(S2100、S2200、S2220、S2230、S2300、S2400及びS2500)を具体的に表したフローチャートである。
 管理計算機4では、プロセッサ30が分析条件設定処理を実行する(S1000)。この分析条件設定処理では、プロセッサ30が、図4に示す分析条件設定画面における共通入力欄310のストレージ装置入力欄311のプルダウンメニューリストに、ストレージ装置テーブル230のストレージ装置ID230Aから取得したストレージ装置IDを設定する(図31のステップS1101)。図4においては、プルダウンメニューリストの中からユーザがストレージ装置IDを選択した後の状態として、ストレージ装置入力欄311に、例えば「Storage A」と表示されている。
 次にプロセッサ30は、そのストレージ装置入力欄311で指定されたストレージ装置IDに関連するプールIDをプールテーブル231(図11参照)から取得し、プール入力欄312のプルダウンメニューリストに設定する(ステップS1102)。
 次にプロセッサ30は、プール入力欄312で指定されたプールIDに関連するボリュームのボリュームIDと接続先ホストIDをボリュームテーブル233(図13参照)から取得し、一覧表示する(ステップS1103)。
 次にプロセッサ30は、分析実行ボタン350が押下されたことを検知すると(ステップS1104)、図4に示す分析条件設定画面に入力された、分析対象のストレージ装置ID、プールID及び分析モードを分析条件テーブル200(図6参照)に登録する(ステップS1105)。
 次にプロセッサ30は、その分析条件設定画面に入力された、ボリュームの目標応答性能をボリュームIDと対応付けてボリューム目標応答性能テーブル220(図7参照)に登録する(ステップS1106)。
 次にプロセッサ30は、分析モードに応じて次のように処理を分けて実行する。即ち、プロセッサ30は、分析モードがI又はIIの場合、その分析条件設定画面に入力された目標維持期限を目標維持期限テーブル221(図8参照)に登録し(ステップS1108)、終了する。プロセッサ30は、分析モードがIIIの場合、その分析条件設定画面に入力された増設容量を増設容量テーブル222(図9参照)に登録し(ステップS1109)、終了する。一方、プロセッサ30は、分析モードが選択されていない場合、処理を終了する。
 次に管理計算機4ではプロセッサ30が、図29に示すボリューム応答性能分析処理S2000の具体的な処理として、図32に示すようにドライブフラッシュ回数上限到達時期推定処理S2100、ページ配置先階層特定処理S2200、ボリューム応答性能劣化時期推定処理S2300、ボリューム応答性能分析処理S2400及びボリューム目標応答性能未達時期推定処理S2500を実行する。
 具体的には、プロセッサ30が、まず、スラッシュドライブテーブル235(図15参照)に登録されたドライブIDに対応するドライブのうち、分析条件として指定されたプールIDのプールに属するドライブのドライブIDを抽出する(ステップS2101)。
 次にプロセッサ30は、ステップS2101で抽出したドライブIDのうち1つを選択した後、選択したドライブIDのフラッシュドライブについてフラッシュドライブテーブル235(図15参照)に登録されているフラッシュ限界回数と、ドライブフラッシュ回数テーブル236(図16参照)に登録されている2点以上の時刻におけるフラッシュ回数に基づいて、将来、フラッシュ回数の上限に到達する時期(以下「フラッシュ回数上限到達時期」とも呼ぶ)を推定する(ステップS2102)。具体的には、2時刻T1及びT2におけるフラッシュ回数をそれぞれF1及びF2、フラッシュ限界回数をFxとすると、フラッシュ回数上限到達時期の推定値Txは次式(1)で求められる。
Figure JPOXMLDOC01-appb-I000001
 また、3点以上の時刻におけるフラッシュ回数が利用できる場合、最小二乗法その他の推定手法を用いてもよい。
 次にプロセッサ30は、推定したフラッシュ回数上限到達時期を、フラッシュ回数上限到達時期テーブル201(図19参照)に登録する(ステップS2103)。プロセッサ30は、ステップS2101で抽出したすべてのドライブについて、以上のようなステップS2102及びステップS2103を繰り返し実行する(ステップS2104)。
 次にプロセッサ30は、分析モードがIIIでない場合には処理を終了する一方、分析モードがIIIである場合には、増設容量テーブル222(図9参照)に登録した情報を基に、フラッシュドライブテーブル235(図15参照)に追加登録するためのデータを作成する(ステップS2105)。なお、ドライブIDは、一意となる範囲で任意に設定される。フラッシュ限界回数は、同一階層IDに属するドライブと同じ値が設定される。
 次にプロセッサ30は、作成したデータをフラッシュドライブテーブル235に追加登録する(ステップS2106)。
 次にプロセッサ30は、既述のページ配置先階層特定処理を実行する。プロセッサ30は、フラッシュ回数上限到達時期テーブル201に登録されているフラッシュドライブのうちフラッシュ回数上限到達時期が早いものから順に1つを選択した後、プール構成階層テーブル232(図12参照)に登録されているプール構成階層のうち当該ドライブが属する階層の割当容量から当該ドライブの容量を減算し、フラッシュ回数上限到達時期と対応付け、階層容量推定テーブル202(図20参照)に登録する(ステップS2210)。このとき、当該ドライブが属さない階層の割当容量は、繰り返しの最初においては、プール構成階層テーブル232(図12参照)に登録されているプール構成階層のうち当該ドライブが属する階層の割当容量を、また、それ以降は直前の繰り返しにおいて登録された割当容量を階層容量推定テーブル202(図20参照)に登録するものとする。プロセッサ30は、フラッシュ回数上限到達時期テーブル201に登録されているすべてのフラッシュドライブについて、以上のようなステップS2210をフラッシュ回数上限到達時期が早い順に繰り返す。
 次にプロセッサ30は、図34に示す増加ページ推定処理を実行する(ステップS2220)。具体的には、プロセッサ30は、図35に示すように、ボリューム容量情報テーブル234(図14参照)の容量使用率(使用済み容量と割当容量の比率)の履歴から、ボリューム生成時点からの経過時間ごとの容量使用率の平均値を算出する(ステップS2221)。ここで、平均値を算出する対象範囲となるボリュームは、ボリューム容量情報テーブル234に登録されているすべてのボリュームとしてもよいし、以下の観点(A)~(C)で共通するボリュームに絞り込んでもよい。
(A)ボリューム割当先プール
 管理計算機4ではプロセッサ30が、図13に示すボリュームテーブル233を参照し、分析対象であるプールIDのプールに所属するボリュームに絞り込む。
(B)ボリュームの性能情報(読み取り回数、書き込み回数など)
 プロセッサ30は、ボリュームの性能情報を定期的に収集し、ストレージ装置情報記憶部101に格納する。その性能情報の直近の値または所定の期間の平均値が類似するボリュームに絞り込む。
(C)ボリュームを使用している業務(メールサーバ、オンライントランザクション処理業務サーバ、バッチ処理業務サーバなど)
 プロセッサ30は、ボリュームテーブル233の接続先ホストIDに加え、接続先ホストの業務種別を表す情報をストレージ装置情報記憶部101に格納する。この業務種別情報をもとにボリュームを絞り込む。
 次にプロセッサ30は、ボリューム生成時点からの経過時間ごとの容量使用率の平均値を基に、各ボリュームの将来の容量を推定し、単一ページ容量で割ることにより、当該ボリュームに対し将来どの時点でいくつのページが新たに割り当てられるかを推定し、これら将来追加されるページに対し一意となる範囲で任意にページIDを設定する(ステップS2222)。次にプロセッサ30は、ページ負荷テーブル238に登録されたページの負荷(IOPS等)の履歴に基づき、ページが生成された時点からの経過時間ごとの負荷(IOPS等)の平均値を算出し、ステップS2222で将来追加されることが推定された各ページの追加後の負荷(IOPS等)を推定する(ステップS2223)。次にプロセッサ30は、ステップS2222で将来追加されることが推定された各ページについて、ステップS2223で推定された負荷(IOPS等)のうち階層容量推定テーブル202(図20参照)に登録されている各年月における値をページ負荷推定テーブル204(図21参照)に登録する(ステップS2224)。
 次にプロセッサ30は、図34に示すページ負荷増加推定処理を実行する(ステップS2230)。具体的には、プロセッサ30は、図36に示すように、まず、階層容量推定テーブル202(図20参照)に登録されている年月のうち古いものから順に1つを選択する。次にページテーブル237(図17参照)に登録されているページIDのうち任意の1つを選択し、ページ負荷テーブル238(図18参照)に登録されている2点以上の時刻における当該ページの負荷(IOPS等)に基づいて、当該年月における当該ページの負荷(IOPS等)を推定する(ステップS2231)。具体的には、最小二乗法その他の推定手法を用いて推定する。次にプロセッサ30は、推定した負荷(IOPS等)を、当該年月、ページIDと対応付けてページ負荷推定テーブル204(図21参照)に登録する(ステップS2232)。
 プロセッサ30は、以上のようなステップS2231,S2232を、ページテーブル237(図17参照)に登録されているすべてのページについて、繰り返し実行する。さらにプロセッサは、このようにページテーブル237(図17参照)に登録されているページについて繰り返し実行したステップS2231,S2232をさらに、階層容量推定テーブル202に登録されている年月欄202Aのすべての年月について古いものから順に繰り返し実行する。
 次にプロセッサ30は、図34に示すように、階層容量推定テーブル202(図20参照)に登録されている年月のうち古いものから順に1つを選択し、当該年月における各プール構成階層の割当容量を取得する(ステップS2240)。次にプロセッサ30は、プール構成階層のうち上位の階層から順に1つを選択し、当該プール構成階層の割当容量をページサイズで割ることにより、当該プール構成階層に配置可能なページ数を算出する(ステップS2250)。次にプロセッサ30は、ページ負荷推定テーブル204(図21参照)に登録されている当該年月に対応する各行をIOPSで降順ソートし、先頭ページから上記で算出した当該階層に配置可能なページ数分だけ取得する(ステップS2260)。ただし、本繰り返し処理にて取得済みのページは対象外とする。次にプロセッサ30は、当該年月に、当該取得したページとプール構成階層とを対応付け、ページ配置先階層テーブル203(図22参照)に登録する(ステップS2270)。プロセッサ30は、プール構成階層のすべての階層について上位の階層から順に、以上のようなステップS2250~S2270を繰り返し実行する。
 さらに、プロセッサ30は、階層容量推定テーブル202(図20参照)に登録されているすべての年月について古いものから順に、既述のステップS2240を含め、そのようにプール構成階層のすべての階層について以上のようにステップS2250~S2270を繰り返し実行することを繰り返し実行する。
 次に、プロセッサ30は、図32に示すボリューム応答性能劣化時期推定処理S2300を図37に示すように実行する。プロセッサ30は、ページ配置先階層テーブル203(図22参照)に登録されている年月のうち古いものから順に1つを選択し、当該年月における各ページのページIDと対応する階層IDをページ配置先階層テーブル203(図22参照)から取得する(ステップS2301)。次にプロセッサ30は、当該年月の次の年月における各ページのページIDと対応する階層IDをページ配置先階層テーブル203(図22参照)から取得する(ステップS2302)。次にプロセッサ30は、ステップS2301とステップS2302にて上述のように取得したそれぞれの情報を比較し、同一ページIDで階層IDが変更となったページを選択して取り出す(ステップS2303)。
 次にプロセッサ30は、ページテーブル237(図17参照)を参照し、ステップS2303で選択して取り出したページが属するボリュームのボリュームIDを特定する(ステップS2304)。次にプロセッサ30は、ステップS2304で特定したボリュームIDを当該年月と対応付けて、応答性能劣化ボリュームテーブル205(図23参照)に登録する(ステップS2305)。プロセッサ30は、ページ配置先階層テーブル203(図22参照)に登録されているすべての年月について古いものから順に、以上のようなステップS2301~ステップS2305を繰り返し実行する。
 次に、プロセッサ30は、図32に示すボリューム応答性能分析処理S2400を図38に示すように実行する。プロセッサ30は、応答性能劣化ボリュームテーブル205(図23参照)に登録されているボリュームのうち1つを選択し、ページテーブル237(図17参照)を参照して当該ボリュームに属するすべてのページのページIDを取得し、ページ負荷推定テーブル204(図21)を参照して当該ボリュームに属するすべてのページの各年月におけるIOPSを取得する(ステップS2401)。次にプロセッサ30は、ページ配置先階層テーブル203(図22参照)を参照して、ステップS2401で取得した各ページを配置する階層を特定する(ステップS2402)。次にプロセッサ30は、プール構成階層テーブル232(図12参照)を参照して、ステップS2402で特定した階層の応答性能を取得する(ステップS2403)。
 次にプロセッサ30は、次式(2)を用いて、当該ボリュームに属する全ページについて、ページが属する階層の応答時間を、ページのIOPSで加重平均することにより、当該ボリュームの各年月ごとの応答性能を推定する(ステップS2404)。
Figure JPOXMLDOC01-appb-I000002
 次にプロセッサ30は、推定した当該ボリュームの応答性能を、ボリュームID及び当該年月と対応付け、ボリューム応答性能テーブル206(図24参照)に登録する(ステップS2405)。
 プロセッサ30は、応答性能劣化ボリュームテーブル205(図23参照)に登録されているすべてのボリュームについて、以上のようなステップS2401~ステップS2405を繰り返し実行する。
 次にプロセッサ30は、図32に示すボリューム目標応答性能未達時期推定処理S2500を図39に示すように実行する。プロセッサ30は、ボリューム応答性能テーブル206(図24参照)に登録されている行のうち年月が古いものから順に1つを選択し、当該行のボリュームの応答性能がボリューム目標応答性能テーブル220(図7参照)に登録されている目標応答性能を未達であるか否かを判定する(ステップS2501)。
 プロセッサ30は、当該行のボリュームの応答性能がその目標応答性能を未達である場合には、目標未達ボリュームテーブル207(図25参照)に当該ボリュームが登録済みであるか否かを判定し(ステップS2502)、登録済みでない場合には当該ボリュームのボリュームIDと当該行の年月を目標未達ボリュームテーブル207(図25参照)に登録する(ステップS2503)。
 プロセッサ30は、このようにステップS2503において当該行のボリュームのボリュームIDと当該行の年月を目標未達ボリュームテーブル207(図25参照)に登録した場合、ステップS2501において当該ボリュームの応答性能がその目標応答性能を満たしている場合、又は、ステップS2503において目標未達ボリュームテーブル207(図25参照)に当該行のボリュームが登録済みである場合を含め、ボリューム応答性能テーブル206(図24参照)に登録されているすべての行について年月が古いものから順に、以上のようなステップS2501~ステップS2503を繰り返し実行する。
 一方、図29に示すボリューム応答性能分析処理(ステップS2000)に含まれる各処理が以上のように終了すると、次に分析モードの種類が判定される(ステップS3000)。分析モードIIIである場合又は分析モードが選択されていない場合には、分析結果表示処理が実行される(ステップS4000)。
 この分析結果表示処理では、図40に示すように、管理計算機4ではプロセッサ30が、応答性能劣化ボリュームテーブル205(図23参照)及び目標未達ボリュームテーブル207(図25参照)に登録されている行を年月の早い順に走査し、対応する年月とボリュームIDを分析結果テーブル240(図26参照)に登録する(ステップS4001)。
 次に管理計算機4ではプロセッサ30が、その分析結果テーブル240に登録したデータについて画面表示を行い(ステップS4002)、処理を終了する。
 一方、分析モードIである場合、管理計算機4では、分析モードI処理部109がプロセッサ30の制御によって、分析モードI処理を実行する(図29のステップS5000)。この分析モードI処理では、分析モードI処理部109が、図41に示すように、まず、目標維持期限以前の年月に目標性能が未達となるボリュームが存在するか否か(具体的には、目標維持期限テーブル221に登録されている目標維持期限以前の年月が目標未達ボリュームテーブル207に登録されているか否か)を判定し(ステップS5001)、目標未達ボリュームが存在しない場合には当該分析モードI処理を終了する一方、目標未達ボリュームが存在する場合には、分析条件テーブル200のプールIDのプールに属するプール構成階層について、次のような処理を繰り返し実行する。
 即ち、分析モードI処理部109は、当該プール構成階層にプール最小割当容量分の容量(例えば、当該階層に割り当てられる記憶デバイスの任意台数分の容量)を増設した場合の各プール構成階層を算出する(ステップS5002)。次に分析モードI処理部109は、算出した情報を基に、フラッシュドライブテーブル235(図15参照)に追加登録するためのデータを、プール最小割当容量に相当する記憶デバイスの台数分だけ作成する(ステップS5003)。なお、ドライブIDは、一意となる範囲で任意に設定する一方、フラッシュ限界回数は、同一階層IDに属するドライブと同じ値を設定する。その後、分析モードI処理部109は、作成したデータをフラッシュドライブテーブル235に登録する(ステップS5004)。
 次に、既述のボリューム応答性能分析処理が実行される(ステップS2400)。
 さらに分析モードI処理部109は、上記分析結果を格納した各テーブルのデータを、当該プール構成階層を増設した構成における分析結果として、各プール構成階層の容量と対応付けて管理する(ステップS5005)。分析モードI処理部109は、既述のように分析条件テーブル200のプールIDのプールに属するプール構成階層について、以上のようなステップS5002~ステップS5005を繰り返し実行する。
 ここで、分析モードI処理部109は、増設後の各分析結果のうち、全ボリュームが目標を達成し得る構成が存在するか否か(具体的には、目標維持期限テーブル221に登録されている目標維持期限以前の年月が目標未達ボリュームテーブル207に登録されていない構成が存在するか否か)を判定する(ステップS5006)。分析モードI処理部109は、存在しないと判定した場合、分析条件テーブル200のプールIDのプールに属するプール構成階層についてステップS5002~ステップS5005を繰り返し実行する処理に戻る一方、存在すると判定した場合、次のような処理を実行する。即ち、分析モードI処理部109は、当該構成における各プール構成階層の容量と、(ステップS5002でプール最小割当容量分の容量を割り当てる以前の)初期構成における各プール構成階層の容量の差分容量を、初期構成における目標未達ボリュームテーブル207(図25参照)に登録されている年月のうち最も古いものの1ヶ月前の年月と対応付けて所要増設容量テーブル208(図27参照)に登録し(ステップS5007)、当該処理を終了する。
 さらに、以上のような分析モードI処理が終了すると、分析結果表示部111が、上述した分析結果表示処理を実行した後(ステップS4000)、増設容量表示処理を実行する(ステップS7000)。
 この増設容量表示処理では、分析結果表示部111が、図43に示すように、まず、所要増設容量テーブル208(図27参照)の登録件数が1件以上であるか否かを判定する(ステップS7001)。分析結果表示部111は、登録件数が1件以上でない場合には増設が不要である旨のメッセージを出力させる一方(ステップS7003)、登録件数が1件以上である場合には、所要増設容量テーブル208(図27参照)に登録した階層ID、所要増設容量及び増設期限を、分析条件テーブル200のストレージ装置ID及びプールIDと対応付けて画面表示を行う(ステップS7002)。
 一方、図29に示すステップS3000において分析モードがIIであると判定された場合、管理計算機4では、分析モードII処理部110がプロセッサ30の制御によって、図42に示す分析モードII処理を実行する。この分析モードII処理部110は、目標未達ボリューム(具体的には、目標未達ボリュームテーブル207に登録されているボリュームで、目標維持期限テーブル221に登録されている目標維持期限以前の年月を有するもの)のうち1つを選択した後、以下のような処理を繰り返し実行する。
 まず、分析モードII処理部110は、プールテーブル231(図11参照)に登録されているプールIDで、かつ、分析条件テーブル200に登録されているプールID以外のものを1つ選択した後、次のようなステップS6001,S6002,S2400及びS6003を繰り返し実行する。
 具体的には、分析モードII処理部110は、当該目標未達ボリュームの割り当て先プールを当該プールIDのプールへ変更した場合の構成をストレージ装置情報記憶部101を構成する各テーブルに反映する(ステップS6001)。次に分析モードII処理部110は、当該プールを分析対象プールとして(ステップS6002)上述したボリューム応答性能分析処理(図32参照)を実行する(ステップS2400)。分析モードII処理部110は、目標維持期限以前の年月に目標未達ボリュームが存在するか否かを判定し(ステップS6003)、目標未達ボリュームが存在しない場合には後述するステップS6004から実行する一方、目標未達ボリュームが存在する場合には、プールテーブル231(図11参照)に登録されているプールIDで、かつ、分析条件テーブル200に登録されているプールIDを除くすべてのプールIDについて、これらステップS6001,S6002,S2400及びS6003を繰り返し実行する。
 上述のように目標未達ボリュームが存在しない場合には、分析モードII処理部110がステップS6004を実行する。このステップS6004では、分析モードII処理部110が、当該目標未達ボリュームのボリュームID及び当該プールIDをボリューム移行プランテーブル209(図28参照)に登録する。次に分析モードII処理部110は、分析条件テーブル200(図6参照)に登録されているプールIDのプールを分析対象プールとして(ステップS6005)分析モードII処理部110は、既に説明したボリューム応答性能分析処理(図32参照)を実行する(ステップS2400)。次に分析モードII処理部110は、目標維持期限以前の年月に目標未達ボリュームが存在するか否かを判定し(ステップS6006)、目標未達ボリュームが存在しない場合には処理を終了する一方、目標未達ボリュームが存在する場合には、目標未達ボリュームについて、以上のような処理をステップS6001から繰り返し実行する。
 以上のように分析モードII処理が終了すると、分析結果表示部111が、上述した分析結果表示処理を実行した後(ステップS4000)、ボリューム移行プラン表示処理を実行する(ステップS8000)。このボリューム移行プラン表示処理では、分析結果表示部111が、図44に示すように、まず、ボリューム移行プランテーブル209(図28参照)の登録件数が1件以上であるか否かを判定する(ステップS8001)。
 分析結果表示部111は、登録件数が1件以上である場合、ボリューム移行プランテーブル209に登録したボリュームID、移行先ストレージID及び移行先プールIDを、分析条件テーブル200のストレージ装置ID及びプールIDと対応付けて画面表示させる一方(ステップS8002)、登録件数が1件以上でない場合、移行が不要である旨のメッセージを出力させる(ステップS8003)。
(6)本実施の形態の効果等
 以上のように本実施の形態の計算機システム1では、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20を備えるストレージ装置3における性能管理装置の一例としての管理計算機4において、ホスト計算機2から仮想ボリュームの未書き込みアドレスに対しライト要求が発行されると、ストレージ装置3が、2種以上の記憶デバイス20のうちいずれかにおいて未使用であり、かつ、書き込み寿命に到達していない記憶領域に当該ライト要求に応じたデータを書き込み、ストレージ装置3が、それら2種以上の記憶デバイス20各々の記憶領域ごとにおけるホスト計算機2によるIO負荷量に応じて、応答性能がより低い記憶デバイス20の記憶領域から、応答性能がより高い記憶デバイス20のうち書き込み寿命に到達していない記憶領域に、又は、応答性能がより高い記憶デバイス20の記憶領域から、応答性能がより低い記憶デバイス20のうち書き込み寿命に到達していない記憶領域に、データの格納場所を移行することを前提とし、管理計算機4は次のような特徴的な構成を備えている。
 即ち、さらに管理計算機4は、それら2種以上の記憶デバイス20各々について書き換え寿命の到達に伴う記憶容量の減少分を推定するとともにその仮想ボリュームに対する性能影響とその発生時期を推定する性能影響推定部の一例として分析モードI処理部109及び分析モードII処理部110等を備えている一方、当該推定された性能影響及びその発生時期に関連する情報を表示する性能影響表示部の一例としての分析結果表示部111を備えている。
 このような構成によれば、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20の各記憶媒体の寿命到達による記憶容量の減少に起因して推定された将来的な性能影響とその発生時期に基づき、当該記憶デバイス20の増設計画の策定を支援することができる。
 以上のように本実施の形態では、分析結果表示部111が、将来、ボリュームの応答性能劣化が始まる時期を表示している。このようにすると、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20の各記憶媒体の寿命到達による記憶容量の減少に起因して推定されたボリュームの応答性能劣化が始まる時期に基づき、当該記憶デバイス20の増設計画の策定を支援することができる。
 以上のように本実施の形態では、分析結果表示部111が、ボリュームが目標応答性能を満たさなくなる時期を表示している。このようにすると、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20の各記憶媒体の寿命到達による記憶容量の減少に起因して推定されたボリュームが目標応答性能を満たさなくなる時期に基づき、当該記憶デバイス20の増設計画の策定を支援することができる。
 以上のように本実施の形態では、分析結果表示部111が、目標達成期間を予め設定した時期まで延長するために必要な増設フラッシュドライブの容量を表示している。このようにすると、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20の各記憶媒体の寿命到達による記憶容量の減少に起因して推定された、上記目標達成期間を予め設定した時期まで延長するために必要な増設フラッシュドライブの容量に基づき、当該記憶デバイス20の増設計画の策定を支援することができる。
 以上のように本実施の形態では、分析結果表示部111が、指定された増設フラッシュドライブの容量を基に、ボリュームの目標達成期間を表示している。このようにすると、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20の各記憶媒体の寿命到達による記憶容量の減少に起因して推定されたボリュームの応答性能劣化が始まる時期、又は、ボリュームが目標応答性能を満たさなくなる時期が、指定された増設フラッシュドライブの容量に応じてどの時期まで延長されるかという情報に基づき、当該記憶デバイス20の増設計画の策定を支援することができる。
 以上のように本実施の形態では、分析結果表示部111が、目標達成期間を予め設定した時期まで延長するために必要なボリュームのプール移行プランを表示している。このようにすると、書き換え寿命および応答性能が互いに異なる2種以上の記憶デバイス20の各記憶媒体の寿命到達による記憶容量の減少に起因して推定された、上記ボリュームのプール移行プランに基づき、当該記憶デバイス20の増設計画の策定を支援することができる。
(7)他の実施の形態
 なお上述の実施の形態においては、本発明を、図1のように構成された計算機システム1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成の計算機システムに広く適用することができる。例えば、上述の実施の形態においてはストレージ装置3が2~3台である場合について述べたが、ストレージ装置3が1台又は4台以上の場合にも本発明を適用することができる。
 また上述の実施の形態においては、ストレージ性能分析機能が搭載された管理計算機4と、ユーザが操作するストレージ管理クライアント5とを別体として構成するようにした場合について述べたが、本発明はこれに限らず、管理計算機4及びストレージ管理クライアント5を1つの計算機(例えばコンピュータ装置)により構成するようにしても良い。
 また上述の実施の形態においては、ストレージ性能分析機能が搭載された管理計算機4とストレージ装置3とを別体として構成するようにした場合について述べたが、本発明はこれに限らず、管理計算機4をストレージ装置3のうちいずれか1台と一体化した構成としても良い。
 本発明は、書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を階層化し応答性能に応じてデータを各層間において移動し得るストレージ装置の性能管理方法及び装置に広く適用することができる。
 1……計算機システム、2……ホスト計算機、3……ストレージ装置、4……管理計算機、5……ストレージ管理クライアント、20……記憶デバイス、30……プロセッサ、31……メモリ。

Claims (12)

  1.  書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を備えるストレージ装置の性能管理装置であって、
     前記ストレージ装置は、前記ストレージ装置と接続されたホスト計算機に対し、前記2種以上の記憶媒体を用いて仮想的な論理ボリュームを構成する仮想ボリュームを提供し、
     前記ホスト計算機から前記仮想ボリュームの未書き込みアドレスに対しライト要求が発行されると、前記ストレージ装置が、前記2種以上の記憶媒体のうちいずれかにおいて未使用であり、かつ、書き込み寿命に到達していない記憶領域に当該ライト要求に応じたデータを書き込み、
     前記ストレージ装置が、前記2種以上の記憶媒体各々の記憶領域ごとにおける前記ホスト計算機によるIO負荷量に応じて、応答性能がより低い記憶媒体の記憶領域から、応答性能がより高い記憶媒体のうち書き込み寿命に到達していない記憶領域に、又は、応答性能がより高い記憶媒体の記憶領域から、応答性能がより低い記憶媒体のうち書き込み寿命に到達していない記憶領域に、データの格納場所を移行し、
     前記性能管理装置は、
     前記2種以上の記憶媒体各々について書き換え寿命の到達に伴う記憶容量の減少分を推定し、前記仮想ボリュームに対する性能影響とその発生時期を推定する性能影響推定部と、
     前記推定された性能影響及びその発生時期に関連する情報を表示する性能影響表示部と、
     を有することを特徴とするストレージ装置の性能管理装置。
  2.  前記性能影響表示部は、ボリュームの応答性能劣化が始まる時期を表示する請求項1に記載のストレージ装置の性能管理装置。
  3.  前記性能影響表示部は、ボリュームが目標応答性能を満たさなくなる時期を表示する請求項1のストレージ装置の性能管理装置。
  4.  前記性能影響表示部は、目標達成期間を予め設定した時期まで延長するために必要な増設フラッシュドライブの容量を表示する請求項1に記載のストレージ装置の性能管理装置。
  5.  前記性能影響表示部は、指定された増設フラッシュドライブの容量を基に、ボリュームの目標達成期間を表示する請求項1に記載のストレージ装置の性能管理装置。
  6.  前記性能影響表示部は、目標達成期間を予め設定した時期まで延長するために必要なボリュームのプール移行プランを表示する請求項1に記載のストレージ装置の性能管理装置。
  7.  書き換え寿命および応答性能が互いに異なる2種以上の記憶媒体を備えるストレージ装置の性能を管理する性能管理装置による性能管理方法であって、
     前記ストレージ装置は、前記ストレージ装置と接続されたホスト計算機に対し、前記2種以上の記憶媒体を用いて仮想的な論理ボリュームを構成する仮想ボリュームを提供し、
     前記ホスト計算機から前記仮想ボリュームの未書き込みアドレスに対しライト要求が発行されると、前記ストレージ装置が、前記2種以上の記憶媒体のうちいずれかにおいて未使用であり、かつ、書き込み寿命に到達していない記憶領域に当該ライト要求に応じたデータを書き込み、
     前記ストレージ装置が、前記2種以上の記憶媒体各々の記憶領域ごとにおける前記ホスト計算機によるIO負荷量に応じて、応答性能がより低い記憶媒体の記憶領域から、応答性能がより高い記憶媒体のうち書き込み寿命に到達していない記憶領域に、又は、応答性能がより高い記憶媒体の記憶領域から、応答性能がより低い記憶媒体のうち書き込み寿命に到達していない記憶領域に、データの格納場所を移行し、
     前記性能管理方法は、
     前記性能管理装置が、前記2種以上の記憶媒体各々について書き換え寿命の到達に伴う記憶容量の減少分を推定し、前記仮想ボリュームに対する性能影響とその発生時期を推定する性能影響推定ステップと、
     前記性能管理装置が、前記推定された性能影響及びその発生時期に関連する情報を表示する性能影響表示ステップと、
     を有することを特徴とするストレージ装置の性能管理方法。
  8.  前記性能影響表示ステップでは、前記性能管理装置が、ボリュームの応答性能劣化が始まる時期を表示する請求項7に記載のストレージ装置の性能管理方法。
  9.  前記性能影響表示ステップでは、前記性能管理装置が、ボリュームが目標応答性能を満たさなくなる時期を表示する請求項7のストレージ装置の性能管理方法。
  10.  前記性能影響表示ステップでは、前記性能管理装置が、目標達成期間を予め設定した時期まで延長するために必要な増設フラッシュドライブの容量を表示する請求項7に記載のストレージ装置の性能管理方法。
  11.  前記性能影響表示ステップでは、前記性能管理装置が、指定された増設フラッシュドライブの容量を基に、ボリュームの目標達成期間を表示する請求項7に記載のストレージ装置の性能管理方法。
  12.  前記性能影響表示ステップでは、前記性能管理装置が、目標達成期間を予め設定した時期まで延長するために必要なボリュームのプール移行プランを表示する請求項7に記載のストレージ装置の性能管理方法。
PCT/JP2016/057302 2016-03-09 2016-03-09 ストレージ装置の性能管理方法及び装置 WO2017154127A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/057302 WO2017154127A1 (ja) 2016-03-09 2016-03-09 ストレージ装置の性能管理方法及び装置
JP2018503909A JPWO2017154127A1 (ja) 2016-03-09 2016-03-09 ストレージ装置の性能管理方法及び装置
US15/744,613 US10282095B2 (en) 2016-03-09 2016-03-09 Method and device for managing performance of storage apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/057302 WO2017154127A1 (ja) 2016-03-09 2016-03-09 ストレージ装置の性能管理方法及び装置

Publications (1)

Publication Number Publication Date
WO2017154127A1 true WO2017154127A1 (ja) 2017-09-14

Family

ID=59789129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057302 WO2017154127A1 (ja) 2016-03-09 2016-03-09 ストレージ装置の性能管理方法及び装置

Country Status (3)

Country Link
US (1) US10282095B2 (ja)
JP (1) JPWO2017154127A1 (ja)
WO (1) WO2017154127A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474366B2 (en) * 2016-12-28 2019-11-12 Sandisk Technologies Llc Non-volatile storage system with in-drive data analytics
US10795583B2 (en) * 2017-07-19 2020-10-06 Samsung Electronics Co., Ltd. Automatic data placement manager in multi-tier all-flash datacenter
US10496541B2 (en) 2017-11-29 2019-12-03 Samsung Electronics Co., Ltd. Dynamic cache partition manager in heterogeneous virtualization cloud cache environment
US10733108B2 (en) * 2018-05-15 2020-08-04 Intel Corporation Physical page tracking for handling overcommitted memory
US11221782B1 (en) * 2019-03-27 2022-01-11 Amazon Technologies, Inc. Customizable progressive data-tiering service
US10810054B1 (en) * 2019-07-29 2020-10-20 Hitachi, Ltd. Capacity balancing for data storage system
EP4085594A1 (en) * 2020-01-02 2022-11-09 Level 3 Communications, LLC Systems and methods for storing content items in secondary storage
US11928516B2 (en) * 2021-04-27 2024-03-12 EMC IP Holding Company LLC Greener software defined storage stack

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115232A (ja) * 2005-09-22 2007-05-10 Hitachi Ltd 低消費電力記憶装置とその制御方法
WO2015029102A1 (ja) * 2013-08-26 2015-03-05 株式会社日立製作所 ストレージ装置及び階層制御方法
WO2015145532A1 (ja) * 2014-03-24 2015-10-01 株式会社日立製作所 ストレージシステム及びデータ処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115232A (ja) * 2005-09-22 2007-05-10 Hitachi Ltd 低消費電力記憶装置とその制御方法
WO2015029102A1 (ja) * 2013-08-26 2015-03-05 株式会社日立製作所 ストレージ装置及び階層制御方法
WO2015145532A1 (ja) * 2014-03-24 2015-10-01 株式会社日立製作所 ストレージシステム及びデータ処理方法

Also Published As

Publication number Publication date
US10282095B2 (en) 2019-05-07
US20180210656A1 (en) 2018-07-26
JPWO2017154127A1 (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
WO2017154127A1 (ja) ストレージ装置の性能管理方法及び装置
AU2019213340B2 (en) Dynamic configuration of data volumes
US20090150639A1 (en) Management apparatus and management method
JP4686305B2 (ja) ストレージ管理システムおよびその方法
US8458424B2 (en) Storage system for reallocating data in virtual volumes and methods of the same
US8069326B2 (en) Relocation system and a relocation method
JP6084685B2 (ja) ストレージシステム
US8572319B2 (en) Method for calculating tier relocation cost and storage system using the same
US8402214B2 (en) Dynamic page reallocation storage system management
US7895161B2 (en) Storage system and method of managing data using same
US9086947B2 (en) Management method and management system for computer system
US9477407B1 (en) Intelligent migration of a virtual storage unit to another data storage system
JP6510635B2 (ja) ストレージシステム及びデータ制御方法
CN102099794B (zh) 控制备份操作中的资源分配
JP2007042034A (ja) 計算機システム、管理計算機及び論理記憶領域の管理方法
CN102483684A (zh) 提供虚拟卷的存储系统
US20170359221A1 (en) Method and management system for calculating billing amount in relation to data volume reduction function
CN103827970A (zh) 对固态驱动器再配置数据的存储装置、存储控制器以及方法
US8156281B1 (en) Data storage system and method using storage profiles to define and modify storage pools
JP6842447B2 (ja) リソース割当ての最適化を支援するシステム及び方法
US8261038B2 (en) Method and system for allocating storage space
JP5183363B2 (ja) 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機
US11650731B2 (en) Embedded dynamic user interface item segments
US9317224B1 (en) Quantifying utilization of a data storage system by a virtual storage unit
CN111158595A (zh) 企业级异构存储资源调度方法及系统

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018503909

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15744613

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16893459

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16893459

Country of ref document: EP

Kind code of ref document: A1