WO2017141408A1 - 方法、媒体及び計算機システム - Google Patents

方法、媒体及び計算機システム Download PDF

Info

Publication number
WO2017141408A1
WO2017141408A1 PCT/JP2016/054767 JP2016054767W WO2017141408A1 WO 2017141408 A1 WO2017141408 A1 WO 2017141408A1 JP 2016054767 W JP2016054767 W JP 2016054767W WO 2017141408 A1 WO2017141408 A1 WO 2017141408A1
Authority
WO
WIPO (PCT)
Prior art keywords
volume
bandwidth
server device
cache
function
Prior art date
Application number
PCT/JP2016/054767
Other languages
English (en)
French (fr)
Inventor
林 真一
有時 高田
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2016/054767 priority Critical patent/WO2017141408A1/ja
Publication of WO2017141408A1 publication Critical patent/WO2017141408A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers

Definitions

  • the method comprises the following.
  • a volume is provided using the first storage device.
  • the access program for accessing the volume is executed using the first server device connected to the first storage device.
  • the first data transfer rate between the access program and the volume is measured. It is assumed that a function related to access to a volume from an access program using the first server device but not applied to the first server device and the first storage device is applied by the first server device and the first storage device.
  • speed information indicating the data transfer speed between the access program and the volume is calculated.
  • the first data transfer speed and speed information are acquired from the first server device. Based on the first data transfer speed and the speed information, the necessary bandwidth between the access program and the volume when the access program and the volume are respectively transferred to the second server apparatus and the second storage apparatus to which the function is applied. A certain required bandwidth is calculated.
  • the structural example of the structure estimation function 1245 is shown.
  • the structural example of the compression rate information 1500 is shown.
  • An example of the input screen 1241 is shown.
  • An example of the output screen 1242 is shown
  • An example of a compression effect estimation instruction 1900 is shown.
  • An example of compression rate order information 2000 is shown.
  • the example of the flowchart of a path allocation process is shown.
  • “function” or “program” may be used as the subject.
  • “Function” indicates a function realized by the processor executing a program. The executed program performs processing determined by being executed by the processor using the memory and the communication port (communication control device). For this reason, it is good also as the description which made the subject a function or a processor. Further, part or all of the program may be realized by dedicated hardware.
  • a method in which the AP server device caches data in the cache area when accessing the storage device is referred to as a write-back method, and a method in which the AP server device directly accesses the storage device without caching data. Is called the write-through method.
  • FIG. 1 shows an example of the configuration of a computer system according to the first embodiment.
  • the computer system includes a first subsystem that includes an application program (AP) server device 100 and a storage device 120a, a second subsystem that includes an AP server device 160 and a storage device 120b, and a management server device 140.
  • AP server apparatus 100 may be referred to as the first server 100 and the storage apparatus 120a may be referred to as the first storage 120a.
  • the AP server device 160 may be referred to as the second server 160, and the storage device 120b may be referred to as the second storage 120b.
  • the management server 140 is connected to the first server 100, the first storage 120a, the second server 160, and the second storage 120b via the management network 2.
  • the management network 2 is, for example, a LAN (Local Area Network), but is not limited to this.
  • the management interface 103a is an interface for connecting to the management network 2.
  • the first server 100 communicates with the management server 140, the second server 160, the second storage 120b, and the first storage 120a via the management interface 103a.
  • the server interfaces 104a to 104d are interfaces for communicating with the first storage 120a.
  • the communication standard used by each server interface 104a to 104d is, for example, Fiber Channel, Ethernet (registered trademark), PCI Express, InfiniBand, etc., but is not limited to this.
  • the controller 121a provides one or more volumes based on the physical storage device to the AP 101a of the first server 100.
  • the controller 121a may configure a RAID (Redundant Arrays of Inexpensive (or Independent) Disks) using the SSD 122a and the HDD 123a.
  • An area of one SSD 122a or HDD 123a, or an area obtained by integrating or dividing an area of a plurality of SSDs 122a or HDD 123a is referred to as a volume here.
  • a path is formed between the AP 101a and the volume provided to the AP 101a.
  • the second server 160 includes a processor (CPU) 50, a memory 60, an SSD 163, a management interface 103c, and a plurality of server interfaces 104e, 104f, 104g, and 104h. These elements in the second server 160 are connected to each other via an internal bus. Various programs and information are stored in the memory 60. The CPU 50 implements various functions of the second server 160 by executing these programs using these pieces of information.
  • CPU processor
  • the management interface 103 d is an interface for connecting to the management network 2.
  • the second server 160 communicates with the management server 140, the first server 100, the first storage 120a, and the second storage 120b via the management interface 103d.
  • the SSD 163 is a storage device that provides a cache memory that caches data flowing between the second server 160 and the second storage 120b. Note that the storage device that provides the cache memory is not limited to the SSD 163.
  • the management interface 103e is an interface for connecting to the management network 2.
  • the storage interfaces 124e to 124h are interfaces for communicating with the second server 160.
  • Storage interfaces 124e, 124f, 124g and 124h are connected to the server interfaces 104e, 104f, 104g and 104h, respectively. Thereby, a plurality of communication paths are formed between the second server 160 and the second storage 120b.
  • the controller 121b provides one or more volumes based on the physical storage device to the APs 101b and 101c in the second server 100.
  • the controller 121b may configure RAID using the SSD 122b and the HDD 123b.
  • An area of one SSD 122b or HDD 123b, or an area obtained by integrating or dividing an area of a plurality of SSDs 122b or HDD 123b is referred to as a volume here.
  • the controller 121b controls I / O between the second server 160 and the second storage 120b.
  • the controller 121b reads data based on the read instruction from the second server 160 from the SSD 122b and the HDD 123b corresponding to the volume specified by the read instruction, and transmits the data to the second server 160.
  • the controller 121b writes data based on the write instruction from the second server 160 to the SSD 122b and the HDD 123b corresponding to the volume specified by the write instruction.
  • the second subsystem has a cache function for caching data in the second server.
  • the data transfer rate between the application and the volume after the transition to the second subsystem is estimated by the first subsystem having the first server having no cache function.
  • FIG. 2 is a diagram for explaining functions of the computer system according to the first embodiment.
  • the first server 100 is a server on which an application program operates.
  • the first server 100 includes an AP 101a, an I / O acquisition function 102a, a cache effect estimation function 105a, and a performance information acquisition function 108a.
  • the AP 101a is an application program such as a database management system that is executed by the CPU 10, for example.
  • an example in which one AP 101a is executed on the first server 100 will be described.
  • a plurality of APs may be executed on the first server 100.
  • two volumes are provided to the first server 100 and the AP 101a uses the two volumes.
  • the present invention is not limited to this.
  • AP 101a accesses the volume in the first storage. That is, the AP 101a reads data from the volume and writes data such as calculation results to the volume in the storage system 120a.
  • the I / O acquisition function 102a performs I / O log access between the AP 101a and the first storage 120a periodically or irregularly according to an instruction from the cache effect estimation function 105a or according to a set schedule. This is a function of recording as (not shown).
  • I / O log for example, I / O for a predetermined time such as one day or one hour may be recorded, or may be recorded constantly, or an I / O in a range corresponding to an instruction is recorded. May be.
  • the I / O list includes I / O issue time, I / O type (read access or write access), I / O destination volume number and address in the volume, I / O data length, etc. A list in which O information is recorded.
  • the cache effect estimation function 105a includes a cache algorithm 106a and cache management information 107a.
  • the cache algorithm 106a is an algorithm that simulates the operation of the cache function. By operating the cache algorithm 106a, it is possible to estimate the effect when it is assumed that the cache function is applied to the first server 100. Specifically, for example, based on the I / O log, information regarding the data transfer rate between the AP 101a and the volume when the cache function is applied to the first server 100 can be calculated. As a result of this estimation, cache management information 107a is generated.
  • the performance information acquisition function 108a is a function for acquiring the performance information of the first subsystem. For example, the performance information acquisition function 108a acquires the data transfer rate between the first server 100 and the first storage 120a for each volume from each of the server interfaces 104a to 104d and notifies the management server 140 of the data transfer rate.
  • the LPARs 161a and 161b are logical partitions realized by the CPU 50 executing the hypervisor.
  • the second server 160 includes a plurality of types of resources such as the CPU 50, the memory 60, the server interfaces 104e to 104h, and the management interface 103d.
  • Each LPAR 161a (161b) occupies at least a part of each resource of the second server 160.
  • AP 101b (101c) is executed on each LPAR 161a (161b).
  • two LPARs 161a and 161b are realized, but the number of LPARs is not limited to two.
  • an example is described in which one AP 101b (101c) is executed on each LPAR 161a (161b), but a plurality of APs may be executed on the LPAR.
  • AP 101b (101c) accesses the volume in the second storage 120b. That is, the AP 101b (101c) reads data from the volume and writes data such as calculation results to the second volume.
  • the I / O acquisition function 102b performs I / O between the APs 101b and 101c and the second storage 120b periodically or irregularly according to an instruction from the cache effect estimation function 105a or according to a set schedule. This is a function for recording as / O log (not shown). Details thereof are the same as those of the I / O acquisition function 102a, and thus description thereof is omitted.
  • the cache effect estimation function 105b has a cache algorithm and cache management information (not shown), similar to the cache effect estimation function 105a in the first server 100.
  • the second server 160 is a server having a cache function. For this reason, the same algorithm as the cache function 162 is applied as the cache algorithm.
  • the cache effect estimation function 105b operates a cache algorithm based on the I / O log, thereby generating cache management information that is a result of estimating the effect of the cache function. Note that the cache effect estimation function 105b may generate cache management information as an actual measurement result in cooperation with the cache function 162.
  • the management server 140 Based on the information acquired from the first server 100 or the second server 160, the management server 140 estimates the data transfer speed between the volumes accessed by the AP and AP when the cache function is applied, and determines the appropriate number of paths. Based on the determined number of paths, the second server 160 is instructed to allocate a path. Also, the management server 140 adjusts the data transfer rate by optimizing the cache capacity of the cache memory corresponding to the volume in order to determine an appropriate number of paths.
  • the management server 140 has an input screen 141, an output screen 142, a performance information reception function 144, a configuration estimation function 145, a cache capacity optimization function 146, and a path allocation function 147.
  • the cache list 210 is a list of data that is assumed to be cached in the cache memory based on the cache algorithm 106a. Each entry has a volume 211 and an address 212 indicating the number of the volume that is the storage destination of the data, and a write 213 in which a flag indicating whether or not the data is written to the volume is set.
  • Each entry has a volume 211 and an address 212 indicating the number of the volume that is the storage destination of the data, and a write 213 in which a flag indicating whether or not the data is written to the volume is set.
  • “X” is set in the write 213 as a flag indicating that this data has not been written to the volume for data that has been cached in the cache memory and has not been written to the volume. .
  • “X” set in the write 213 is released. In the case of the write-through method, nothing is set for the write 213.
  • the number of entries according to the cache capacity is set. An entry is added to the head according to the I / O. When I / O is transmitted to the same storage area as the cached data, a cache hit occurs. Therefore, the entry including the destination address of the I / O moves to the top. If the number of entries is insufficient due to the addition of entries, the last entry is deleted. If the write 213 “X” of the tail entry is set, this data has been written to the volume.
  • the data length may be a fixed length such as 8 KB, and the number of entries corresponding to the cache capacity may be set in advance, or the data length may be variable, and the number of entries may be adjusted according to the data length. Also good.
  • FIG. 4 shows an example of performance information 700.
  • the performance information 700 is information acquired by the performance information acquisition functions 108a and 108b and notified to the performance information reception function 144.
  • Each entry of the performance information 700 has a volume 701, a read bandwidth 702, and a write bandwidth 703.
  • Volume 701 indicates the volume number of the volume.
  • the read bandwidth 702 is a bandwidth for read access to the volume.
  • the write band 703 is a band for write access to the volume.
  • the read bandwidth 702 and the write bandwidth 702 may be preset values, or may be the transfer rates for each volume measured by each server interface 104 or storage interface 124.
  • FIG. 5 shows an example of a cache hit rate estimation instruction 500.
  • the cache hit rate estimation instruction 500 is an instruction when the cache capacity optimization function 146 instructs the cache effect estimation function 105 to estimate the cache effect.
  • the cache hit rate of the target volume is estimated.
  • a volume 501 and a cache capacity 502 are specified.
  • the volume 501 indicates the volume number of the target volume for which the cache effect is estimated.
  • the cache capacity 502 indicates the capacity (cache capacity) of the cache memory corresponding to the target volume.
  • the cache effect estimation function 105 calculates the read hit rate and the write hit rate of each target volume as the cache hit rate information 600 based on the cache effect information 220.
  • the read hit rate 603 is a ratio of the read hit amount 223 to the read hit amount 223 of the cache effect information 220.
  • the write hit rate 604 is a ratio of the write hit amount 225 to the write hit amount 225 of the cache effect information 220.
  • FIG. 7 shows a configuration example of the configuration estimation function 145.
  • the configuration estimation function 145 is based on the performance information acquired from the first server 100 or the second server 160 and the information acquired from the cache effect estimation function 105, for each volume when each volume is migrated to the second subsystem. This function estimates the required bandwidth and the number of paths.
  • the configuration estimation function 145 sets and stores the path bandwidth information 300, the configuration estimation information 310, the server path information 320, and the storage path information 330 based on the acquired information.
  • the configuration estimation information 310 holds information necessary for path estimation and a path estimation result.
  • Each entry of the configuration estimation information 310 includes a volume 311, a read bandwidth 312, a write bandwidth 313, a read hit rate 314, a write hit rate 315, a required bandwidth 316, and a required number of paths 317.
  • the volume 311, the read band 312 and the write band 313 are information included in the performance information 700 acquired by the performance information reception function 144 from the performance information acquisition functions 108 a and 108.
  • the read hit rate 314 and the write hit rate 315 are information included in the cache hit rate information 600 acquired from the cache effect estimation function 105.
  • the cache hit rate information 600 may be calculated by the configuration estimation function 145 based on the cache effect information 220.
  • the required bandwidth 316 is calculated by the configuration estimation function 145 based on the read bandwidth 312, the write bandwidth 313, the read hit rate 314, and the write hit rate 315.
  • the required number of paths 317 is calculated by the configuration estimation function 145 based on the required bandwidth 316 and the path bandwidth information 300.
  • the required bandwidth 316 of each VOL is calculated as read bandwidth ⁇ (1 ⁇ read hit rate) + write bandwidth ⁇ (1 ⁇ write hit rate).
  • the required number of paths 317 of each VOL is a value obtained by rounding up the value calculated by the required bandwidth / path bandwidth.
  • the server path information 320 is path information between the second server 160 and the second storage 120b as viewed from the second server 160 side.
  • the server path information 320 has an entry for each path. Each entry has a server ID 321, a port ID 322, a storage ID 323, a storage port ID 324, and an LPAR ID 326.
  • the server ID 321 and the port ID 322 indicate the identification numbers of the connection source server and server interface of the path.
  • the storage ID 323 and the storage port ID 324 indicate the identification number of the storage interface connected to the path and the storage interface.
  • the LPAR ID 326 indicates an identification number of the LPAR assigned to the path. For example, the figure shows that paths are allocated to port 1 of the second server (server 2), port 1 of the second storage (storage 2), and LPAR1.
  • the storage path information 330 is path information between the two servers 160 and the second storage 120b as viewed from the second storage 120b side.
  • the storage path information 330 has an entry for each path. Each entry has a storage ID 331, a port ID 332, a server ID 333, a server port ID 334, and a volume ID 336.
  • the path allocation state 335 “Done” is set when a path is set, and “Not” is set when a path is not set.
  • the volume ID 336 indicates the identification number of the volume assigned to the path. For example, the figure shows that paths are allocated to port 1 of the storage 2, port 1 of the server 2, and VolA.
  • FIG. 8 shows an example of the cache capacity optimization function 146.
  • a cache capacity optimizing function 146 is a function that calculates the surplus bandwidth and the number of paths to the volume and optimizes the cache capacity of the cache memory associated with the volume as necessary.
  • the cache capacity optimization function 146 has surplus bandwidth information 410 and surplus bandwidth threshold information 420.
  • FIG. 9 shows an example of the input screen 141.
  • the input screen 141 is displayed on a display device (not shown), and is a screen for an administrator to input information necessary for path allocation.
  • the input screen 141 includes a cache method input screen 810 and a performance requirement input screen 820.
  • the cache method input screen 810 is a screen for selecting the cache method 811 of the second server 160 that is the transfer destination of the AP.
  • the administrator selects either the write-through method or the write-back method as the cache method 811 on the cache method input screen 810. That is, when the write-through method is selected, the communication speed and the number of paths for each volume when the cache function is not applied to the AP server apparatus are estimated. When the write back method is selected, the communication speed and the number of paths for each volume when the cache function is applied to the AP server device can be estimated.
  • the performance requirement input screen 820 is a screen for inputting performance requirements necessary for estimating the cache effect.
  • the administrator inputs the performance requirement for each volume to be migrated into each entry of the performance requirement input screen 820.
  • Each entry has, for example, a migration source server ID 821, a migration destination server ID 822, an optimization server ID 823, a volume 824, a read bandwidth requirement 825, a write bandwidth requirement 826, and a cache capacity 827.
  • FIG. 10 shows an example of the output screen 142.
  • the output screen 142 is a screen displayed on a display device (not shown) for the administrator.
  • the output screen 142 has an estimation result output screen 910.
  • the estimation result output screen 910 is a screen that displays the result of the cache effect estimation process.
  • a server ID 911, a volume 912, a required bandwidth 913, a number of paths 914, an allocated bandwidth 915, a surplus bandwidth 916, and a cache bandwidth 917 are displayed.
  • step (S) 1001 input information is input to the input screen 141 of the management server 140.
  • the management server 140 outputs the input screen 141 to a display device (not shown).
  • the administrator inputs the cache method of the second server 160 and the performance requirements described above on the input screen 141 (see FIG. 9). In this example, the write back method is selected.
  • the performance information reception function 144 acquires the performance information 700 of the target volume from the performance information acquisition function 108a of the first server 160 and passes it to the configuration estimation function 145.
  • the configuration estimation function 145 sets the read bandwidth and write bandwidth of the target volume in the configuration estimation information 310 based on the performance information 700, and passes the processing to the cache capacity optimization function 146.
  • the cache effect estimation function 105a executes a cache effect estimation process.
  • the cache management information 107 and the cache hit rate information 600 are generated. Details of this processing will be described later.
  • the cache effect estimation function 105a transmits the cache hit rate information 600 to the configuration estimation function 145.
  • the cache capacity optimization function 146 determines whether there is a volume in which the surplus bandwidth calculated in S1008 exceeds the threshold value 421 set in the surplus bandwidth threshold information 420 among the target volumes.
  • the cache capacity optimization function 146 advances the processing to S1010.
  • the cache capacity optimization function 146 passes the processing to the path allocation function 147 (S1011).
  • the cache capacity optimization function 146 changes the cache capacity of the volume that has exceeded the threshold, and passes the processing to S1003.
  • a ratio or amount to be changed may be set in advance, for example, by increasing the current cache capacity by 10%.
  • the cache capacity optimization function 146 may cause the administrator to input a cache capacity change value by notifying the input screen 141 that the cache capacity needs to be changed.
  • the cache capacity optimization function 146 transmits a cache hit rate estimation instruction 500 including a cache capacity change value to the cache effect estimation function 105a.
  • the cache capacity is changed, and the target volume cache effect estimation process (S1005) is performed again based on the changed value, and S1006 to 1009 are performed. Repeat the process.
  • the cache capacity can be optimized by repeating the cache capacity change and the cache effect estimation process until the surplus bandwidth of the target volume falls below the threshold.
  • optimizing the cache capacity it is possible to adjust the necessary bandwidth of data between the application and the volume, reduce the surplus bandwidth, and set an appropriate number of paths according to the necessary bandwidth. Also, by optimizing the cache capacity, the cache hit rate can be improved and faster access can be achieved.
  • the path allocation function 147 allocates a path between the target volume and the target AP that accesses the target volume. Specifically, for example, the path allocation function 147 uses the server path information 320 and the storage path information 330 to set a set (entry) of interfaces (ports) to which a path between the second server and the second storage is not allocated. Search for. When an entry to which no path is assigned is found, the path assignment function 147 displays an estimation result output screen 910 corresponding to the searched port set on the display device as the output screen 142. The estimation result output screen 910 outputs an estimation result for each target volume (see FIG. 10).
  • the bandwidth required for VolA (required bandwidth 913) is “3.6 GB”, and the path (number of paths 914) currently allocated to VolA is “3” indicates that the bandwidth (allocated bandwidth 915) is “4.8 GB”.
  • the bandwidth that is currently allocated to VolA and not used (remaining bandwidth 916) is “1.2 GB”, and the required bandwidth is reduced by “1.4 GB” by applying the cache function. (Cache bandwidth 917).
  • the administrator checks the estimated result output screen 910, and when it is determined that there is no problem, the administrator confirms the displayed information using a confirmation button (not shown). Thereby, the path allocation function 147 sets “already” in the path allocation status (325, 335) for the entries of the server path information 320 and the storage path information 330 corresponding to the information confirmed on the estimation result output screen 910. To do.
  • the path allocation function 147 instructs the second server 160 to create an LPAR.
  • the LPAR created here becomes the migration destination of the target AP 101a executed by the first server 100. Further, the path allocation function 147 sets the identification number of the LPAR instructed to create in the LPARID 326 field of the corresponding entry of the server path information 320.
  • the second server 160 creates an LPAR based on the instruction, and moves the target AP 101a into the created LPAR. As a result, the target volume can be accessed from the target AP 101a.
  • the path allocation function 147 transmits an instruction to apply the cache function 162 to the migrated AP 101a to the second server 160.
  • the instruction includes a cache capacity allocated to the target volume.
  • the cache capacity is a value included in the most recent cache effect estimation instruction 500 (S1003).
  • the estimation process is a process executed by the cache effect estimation function 105a of the first server 100 in S1005 in the path allocation process (FIG. 11).
  • the cache effect estimation function 105a performs the following processing for simulating the cache function by executing the cache algorithm 106a for each I / O information in the I / O list acquired in S1004.
  • the I / O information to be processed is referred to as target I / O information.
  • this I / O means a cache hit.
  • the cache effect estimation function 105a advances the process to S1104.
  • the cache effect estimation function 105a determines in S1102 whether or not the cache method is a write-back method.
  • the cache effect estimation function 105a advances the process to S1104.
  • the cache effect estimation function 105a deletes the last entry in the I / O list and advances the process to S1104.
  • the cache effect estimation function 105a adds the I / O data length of the deleted entry to the write amount 224 of the cache effect information 220.
  • the number of entries is set in the I / O list according to the cache capacity. For this reason, when the last entry is an empty entry or an entry including the destination volume number and address, the cache effect estimation function 105a proceeds to S1104 without performing S1103.
  • the cache effect estimation function 105a updates the cache list 210. Specifically, for example, this entry is moved or added to the head of the cache list 210.
  • the cache effect estimation function 105a updates the cache effect information 220. Specifically, when this I / O is a read and cache hit, the cache effect estimation function 105a adds the data length of this I / O to the read hit amount 223, and this I / O reads and caches. In the case of a miss, this I / O data length is added to the read amount 222, and when this I / O is a write-through write, this I / O data length is added to the write amount 224. If this I / O is a write-back write and a cache hit, the data length of this I / O is added to the write hit amount 225. Note that if this I / O is a write-back write and a cache miss, the cache effect estimation function 105a does not update the cache effect information 220.
  • the cache effect estimation function 105a determines whether or not the steps of S1101 to S1105 have been completed for all the I / O information included in the I / O log. If not completed (S1106; No), the cache effect estimation function 105a returns the process to S1101. On the other hand, when completed (S1106; Yes), the cache effect estimation function 105a calculates the I / O log read hit rate and write hit rate as a result based on the cache effect information 220, and generates the cache hit rate information 600. (S1107), and the process ends.
  • the management server 140 uses the first subsystem to which the cache function is not applied as a function, and the target application and target volume operating in the first subsystem are applied to the second subsystem to which the cache function is applied.
  • the necessary bandwidth can be calculated during this period. Thereby, it is possible to estimate in advance the bandwidth allocated to the target volume after migration without using the second subsystem.
  • the management server 140 can move between the target application and the target volume after moving to the second subsystem.
  • the number of paths can be estimated in advance.
  • the cache capacity can be changed to improve the cache hit rate. As a result, the amount of I / O data between the target application and the target volume can be reduced.
  • the I / O log between the target application and the volume acquired by the I / O acquisition function 102a is associated with the cache memory having the specified cache capacity.
  • the read hit rate and the write hit rate can be accurately calculated.
  • the cache effect estimation function 105a calculates the read speed, the read hit speed, the write speed, and the write hit speed for each volume as the cache effect information. These values are the read amount for a certain time, It may be a read hit amount, a write amount, or a write hit amount.
  • the management server 140 has various functions such as the configuration estimation function 145, acquires the performance information 700 and the cache management information from the first server 100, and acquires the path bandwidth information 300 from the second server.
  • the configuration estimation information 310 was calculated.
  • other servers such as the second server 160 may have various functions that the management server 140 has.
  • the programs for realizing the various functions of the management server 140 and the cache effect estimation function 105 may be installed in an AP server device or other computer stored in a storage medium.
  • the computer system may perform the path allocation process for the second server 160 after the target application and the target volume are migrated to the second subsystem.
  • the administrator inputs the second server to the optimization server ID 823 instead of inputting the migration source server ID 821 and the migration destination server ID 822.
  • the target volume is input to the volume 824.
  • the read bandwidth requirement 825 and the write bandwidth requirement 826 a bandwidth necessary for accessing the target volume is input.
  • the current read bandwidth and write bandwidth may be measured and those values may be set.
  • the cache capacity 827 the capacity of the cache allocated to each volume is input.
  • Various functions of the management server 140 are linked with the various functions of the second server 160 in place of the various functions of the first server 100 to optimize the cache capacity of the cache memory corresponding to the target volume. Adjust the required bandwidth and number of paths between volumes.
  • the performance information reception function 144 acquires the performance information 700 from the performance information acquisition function 108b of the second server 160 and passes it to the configuration estimation function (S1002). Also, the cache capacity optimization function 146 transmits a cache hit estimation instruction 500 to the cache effect estimation function 105b of the second server 160 (S1003).
  • the cache effect estimation function 105b instructs the I / O acquisition function 102b to acquire an I / O log in response to the cache hit rate estimation instruction 500.
  • the I / O acquisition function 102b acquires the I / O log and notifies the cache effect estimation function 105b (S1004).
  • the cache effect estimation function 105b executes a cache effect estimation process (S1005).
  • the cache effect estimation function 105b transmits the cache hit rate information 600 to the configuration estimation function 145 (S1006).
  • the I / O acquisition function 102b may acquire an I / O log in cooperation with the cache function 162. Accordingly, the I / O log may store the amount of each read data and write data and the presence or absence of a cache hit.
  • the cache effect estimation function 105a may acquire the read hit speed and the write hit speed based on the cache hit amount in the cache effect estimation processing based on the I / O log.
  • the various functions of the management server 140 can cooperate with the cache effect estimation function 105b on the second server 160 to adjust the necessary bandwidth and the number of paths between the target application and the target volume.
  • the cache capacity is changed, and the cache effect estimation process is performed again for the changed cache capacity until the surplus bandwidth falls below the threshold.
  • a multipath function may be set in the LPAR 161a. Thereby, when changing the number of paths based on the result of the estimation process, the number of paths can be increased or decreased without stopping the AP 101b.
  • the compressed data storage function is applied to the second sub storage.
  • the compressed data storage function includes a compression function in which the storage 120 compresses uncompressed data received from the AP server device and writes the compressed data to the volume, and a decompression function in which the AP server device decompresses the compressed data read from the volume. .
  • FIG. 13 shows a configuration example of a computer system according to the second embodiment.
  • the first server 1200, the second server 1260, the second storage 1220b, and the management server b 1240 have functions different from those in the first embodiment. The explanation will focus on the different functions.
  • the first subsystem includes a first server 1200, a first storage 1220a, a management server 1240, a second server 1260, and a second storage 1220b.
  • the first server 1200 is a server on which an application program operates, and reads and writes data to the second storage 1220b.
  • the AP servers 1200 and 1260 differ from the first embodiment in that each AP server 1200 and 1260 has a compression effect estimation function 1205 instead of or in addition to the cache effect estimation function 105.
  • the second server 1260 is different from the first embodiment in that the second server 1260 has a decompression function instead of or in addition to the cache function.
  • Other configurations and functions of the AP server apparatus are the same as those of the AP server apparatus of the first embodiment.
  • the compression function 1223b is a function that, when writing into the SSD 1222b, divides the data into fixed lengths such as 512 bytes and compresses the compression method according to the compression method. Note that a plurality of compression methods may be selected. As the compression method, for example, any method such as a dictionary method or a Huffman method may be used. Although description about a specific compression method is abbreviate
  • the management server 1240 holds compression rate rank information 2000 described later (FIG. 20).
  • the controller 1221b transfers the data transmitted from the second server 1260 to the SSD 1222b, and the SSD 1222b compresses the data transmitted using the compression function 1223b, and writes the compressed data to the internal storage area. To do.
  • the controller 1221b In response to a read instruction from the second server 1260, the controller 1221b reads the compressed data from the SSD 1222b and transmits it to the second server 1260.
  • the second server 1260 receives the compressed data, decompresses the compressed data using the decompression function 1262 to the original size, and passes the decompressed data to the AP 101b.
  • the second servers 1200 and 1260 have a compression effect estimation function 1205.
  • the compression effect estimation function 1205 has a compression algorithm 1206 and compression management information 1207.
  • the compression effect estimation function 1205 executes the compression algorithm 1206 using the I / O list acquired by the I / O acquisition function 102a in response to an instruction from the management server 1240, and determines the effect of the compressed data storage function on the compression management information. Estimate as 1207a and notify the management server 140 of the estimation result.
  • the management server 1240 has an input screen 1241, an output screen 1242, a performance information reception function 144, a configuration estimation function 1245, a compression method optimization function 1246, and a path allocation function 147.
  • the input screen 1241 is a screen for the administrator to input information necessary for path allocation.
  • the output screen 1242 is a screen for displaying the configuration of the number of paths to be assigned to the administrator.
  • the configuration estimation function 1245 is a function that estimates a path configuration based on performance information and information from the compression estimation function 1205.
  • the compression method optimization function 1246 is a function for optimizing the compression method.
  • FIG. 14 shows an example of the compression management information 1207.
  • the compression management information 1207 is information generated by the compression effect estimation function 1205.
  • the compression management information 1207 is information indicating the effect of the compressed data storage function for each volume.
  • the compression management information 1207 includes compression effect information 1310.
  • FIG. 15 shows a configuration example of the configuration estimation function 1245.
  • the configuration estimation information 1410 is a function for estimating a path configuration based on performance information acquired from the first server 100 or the second server 160 and information acquired from the compression effect estimation function 1205.
  • Information included in the configuration estimation information 1410 is different from the configuration estimation information 310 of the first embodiment.
  • the configuration estimation function 145 calculates the required bandwidth 1415 of each volume as read bandwidth ⁇ (1 ⁇ read compression rate) + write bandwidth. For example, the configuration estimation function 145 calculates the required number of paths 317 of each volume as a value obtained by rounding up the required bandwidth / path bandwidth.
  • FIG. 16 shows a configuration example of the compression rate information 1500.
  • the compression rate information 1500 is an estimation result acquired by the compression effect estimation function 1205 by an estimation process described later and notified to the configuration estimation function 145.
  • FIG. 18 shows an example of the output screen 1242.
  • the output screen 1242 is a screen displayed on a display device (not shown) in order to display the configuration of path allocation including the number of paths to the administrator.
  • the output screen 1242 has an estimation result output screen 1710.
  • the estimation result output screen 1710 is a screen that displays an estimation result of the effect of the compressed data storage function.
  • the estimation result output screen 1710 includes, for example, the server ID 1711 of the AP server device to be estimated, the volume 1712 indicating the number of the target volume to be estimated, and the required bandwidth 1713 indicating the bandwidth required for the path to the target volume.
  • a compression rate 1717 is displayed.
  • FIG. 21 shows an example of a flowchart of the path assignment process.
  • the path allocation process in this example is performed in order to migrate the target application executed in the first subsystem and the target volume used by the target application to the second subsystem.
  • information is input to the input screen 1241 of the management server 1240.
  • the management server 1240 outputs an input screen 1241 to a display device (not shown). Then, the administrator inputs the compression method applied by the compression function of the second subsystem and the above-described performance requirements to the input screen 1241 (see FIG. 17).
  • the first server (server 1) is input to the migration source server ID 1611
  • the second server (server 2) is input to the migration destination server ID 1612.
  • VolA and VolB are input to the volume 824 as target volumes to be migrated from the first storage to the second storage.
  • a bandwidth applied to the target volume may be input, or may be automatically set without being input.
  • a compression method for the target volume is input to the compression method 1617.
  • the performance information reception function 144 acquires the performance information 700 of the target volume from the performance information acquisition function 108a of the first server 1200a and passes it to the configuration estimation function 1245.
  • the configuration estimation function 1245 sets the read bandwidth and write bandwidth of the target volume in the configuration estimation information 1410 based on the performance information 700, and passes the processing to the compression method optimization function 1246.
  • the compression effect estimation function 1205a acquires the I / O log to the I / O acquisition function 102a in response to the compression rate estimation instruction 1900.
  • the compression effect estimation function 1205a executes a compression effect estimation process.
  • compression management information 1207 and compression rate information 1500 are generated.
  • the estimation process of the compression effect is performed as follows, for example.
  • the compression effect estimation function 1205a generates compression effect information 1310 for each I / O information in the I / O list. For example, when the I / O type is read for each I / O information, the compression effect estimation function 1205a adds the data length before compression for the target volume to the read amount 1312 of the compression effect information 1310 and compresses the compression. The compressed data length is estimated using the compression algorithm 1206 of the compression method specified by the rate estimation instruction 1900, and the compressed data length is added to the compressed read amount 1313. For example, when the I / O type is write for each I / O information, the compression effect estimation function 1205a adds the data length for the target volume to the write amount 1314 of the compression effect information 1310. In this example, the value added to the read amount, the compressed read amount, and the write amount is the amount (speed) per unit time. However, if the relationship with time is known, it is simply as described above. Each amount may be added.
  • the data based on each I / O information is divided into predetermined fixed lengths such as 512 bytes such as 512 bytes, and the divided data is The data length after compression is estimated using the compression algorithm 1206 of the designated compression method. Further, when the data length becomes longer than the data length before the compression, the compression may not be performed.
  • the compression effect estimation function 1205a generates the compression rate information 1500 of the target volume based on the compression effect information 1310.
  • the compression rate 1502 of each volume is the ratio of the compressed read amount 1313 to the read amount 1312.
  • the compression effect estimation function 1205 a transmits the compression rate information 1500 to the configuration estimation function 1245.
  • the configuration estimation function 1245 sets the read compression rate 1414 of the target volume in the configuration estimation information 1410 based on the received compression rate information 1500.
  • the configuration estimation function 1245 calculates the necessary bandwidth of the target volume based on the configuration estimation information 1410, estimates the number of paths allocated to the target volume, and passes the processing to the compression method optimization function 1246.
  • the calculation method of the necessary bandwidth and the number of paths is as described in FIG.
  • the compression method optimization function 1246 calculates the surplus bandwidth of the target volume based on the path bandwidth 301 and the configuration estimation information 1410, and sets the surplus bandwidth information.
  • the surplus bandwidth information is the same as the surplus bandwidth information 410 described above.
  • the calculation method of the allocated bandwidth and the surplus bandwidth is as described above.
  • the compression method optimization function 1246 determines whether there is a volume in which the surplus bandwidth calculated in S1808 exceeds the threshold set in the surplus bandwidth threshold information among the target volumes.
  • the surplus bandwidth threshold information is the same as the surplus bandwidth threshold information 420 described above.
  • the compression method optimization function 1246 changes the compression method of the volume that exceeds the threshold among the target volumes, and returns the process to S1803. In this case, it is desirable to set a compression method having a lower compression rate (that is, better compression efficiency) than the current compression method.
  • the compression method when the surplus bandwidth of the target volume exceeds the threshold, the compression method is changed, and the compression effect estimation process for the target volume is performed again based on the compression method after the change (S1805). The processing up to 1809 is repeated.
  • the compression method can be optimized by repeating the compression method change and the cache effect estimation process until the surplus bandwidth of the target volume falls below the threshold.
  • optimizing the compression method it is possible to set the appropriate number of paths according to the necessary bandwidth by reducing the necessary bandwidth and the surplus bandwidth of the data between the application and the volume. Also, by optimizing the compression method, the compression rate can be reduced and faster access can be achieved.
  • the path assignment function 147 assigns a path to the target volume. Since this step is the same as that of the first embodiment, description thereof is omitted.
  • the output screen 1242 that the path allocation function 147 displays on the display device as the estimation result for each target volume is the estimation result output screen 1710 (see FIG. 18).
  • the path assignment function 147 transmits an instruction to the LPAR including the migrated AP 101a to apply the extension function 1262 to the second server 160.
  • the assignment process is performed using the management server 1240 connected to the first server 1200 and the second server 1260, but the present invention is not limited to this.
  • the functions of the management server 1240 may be included in the first server 1200 or the second server 1260.
  • the cache function described in the first embodiment may be applied to the second server 1260 of the second subsystem described in the present embodiment.
  • the assignment process of the first embodiment and the assignment process of the second embodiment may be combined.
  • the management server 140 uses the first subsystem to which the compressed data storage function is not applied as a function, and the second subsystem to which the compressed data storage function is applied is the target that operates in the first subsystem.
  • the necessary bandwidth required for I / O during this time can be calculated. Thereby, it is possible to estimate in advance the bandwidth allocated to the target volume after migration without using the second subsystem.
  • the management server 140 can move between the target application and the target volume after moving to the second subsystem.
  • the number of paths can be estimated in advance.
  • the compression method can be designated for the compression effect estimation function 1205a of the first server 1200.
  • the compression effect estimation function 1205a can predict the data compression rate by I / O between the target application and the target volume. Accordingly, the necessary bandwidth between the target application and the target volume when the compressed data storage function of the designated compression method is applied can be calculated in the second subsystem.
  • the compression method can be changed to reduce the compression rate (that is, improve the compression efficiency). As a result, the amount of I / O data between the target application and the target volume can be reduced.
  • the necessary bandwidth and the number of paths between the target application and the target volume when the compression rate is reduced can be estimated again. Then, by repeating this estimation process until the surplus bandwidth is equal to or less than the threshold value, an estimate is obtained by reducing the required bandwidth and the number of paths between the target application and the target volume by the compressed data storage function of the appropriate compression method. Can do.
  • the compressed data storage function of the designated compression method is provided between the target application and the volume. It is possible to accurately calculate the lead compression rate when it is assumed to be used.
  • the compression effect estimation function 1205 calculates the values of the read speed, the compression read speed, and the write speed for each volume as the compression effect information 1310. These values are read for a certain time. It may be an amount, a compressed read amount, or a write amount.
  • the management server 1240 has various functions such as the configuration estimation function 1245, acquires the performance information 700 and compression management information from the first server 1200, and acquires the path bandwidth information 300 from the second server.
  • the configuration estimation information 1510 is calculated.
  • other servers such as the second server 1260 may have various functions that the management server 1240 has.
  • the programs for realizing the various functions of the management server 1240 and the compression effect estimation function 1205 may be installed in an AP server device or other computer stored in a storage medium.
  • the computer system may perform a path allocation process for the second server 1260 after the target application and the target volume are migrated to the second subsystem.
  • the administrator inputs the second server to the optimization server ID 1613 instead of inputting the migration source server ID 1611 and the migration destination server ID 1612.
  • the target volume is input to the volume 1614.
  • the read bandwidth requirement 1615 and the write bandwidth requirement 1616 a bandwidth necessary for accessing the target volume is input.
  • the compression method 1617 is input with a data compression method.
  • the following steps are basically the same as the path allocation process of the second embodiment described above.
  • the various functions of the management server 1240 are linked with the various functions of the second server 1260 in place of the various functions of the first server 1200 to optimize the cache capacity of the cache memory corresponding to the target volume. Adjust the required bandwidth and number of paths between volumes.
  • the I / O acquisition function 102b may acquire an I / O log in cooperation with the decompression function 1262. Therefore, the I / O log may store the data amount of each read data and write data and the compressed read amount. In this case, the compression effect estimation function 105 may acquire the read compression speed based on the compression read amount and the read data amount in the cache effect estimation processing based on the I / O log.
  • various functions of the management server 140 can cooperate with the compression effect estimation function 1205b on the second server 1260 and the like, thereby adjusting the necessary bandwidth and the number of paths between the target application and the target volume.
  • the compression method is changed, and the compression effect estimation process is repeated for the compression method after the change until the surplus bandwidth falls below the threshold. This makes it possible to optimize the compression method and adjust the necessary bandwidth and the number of paths between the target application and the target volume. Also, by using an appropriate compression method, the compression rate can be reduced and more data can be stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

第1サーバ装置を用いて、第1サーバ装置が実行するアクセスプログラム及びアクセスプログラムに提供されるボリュームの間の第1データ転送速度を測定する。第1サーバ装置を用いて、アクセスプログラムからボリュームに対するアクセスに関する機能であって第1サーバ装置及び第1ストレージ装置に適用されていない機能が第1サーバ装置及び第1ストレージ装置により適用されると仮定した場合のアクセスプログラム及びボリュームの間のデータ転送速度を示す速度情報を算出する。第1データ転送速度及び速度情報を第1サーバ装置から取得する。第1データ転送速度及び速度情報に基づいて、機能が適用されている第2サーバ装置及び第2ストレージ装置にアクセスプログラム及びボリュームをそれぞれ移行した場合の、アクセスプログラム及びボリュームの間に必要な帯域である必要帯域を算出する。

Description

方法、媒体及び計算機システム
 本発明は、計算機を管理する方法に関する。
 データのキャッシュ機能を有するサーバ装置とストレージ装置を備える計算機システムがある。このサーバ装置がストレージ装置にデータアクセスを行う際に、このサーバ装置は、自身が有するキャッシュメモリにデータをキャッシュすることで、サーバ装置及びストレージ装置間のデータアクセスを高速化できる。データアクセス時に宛先のデータがキャッシュメモリにキャッシュされていることをキャッシュヒットと呼ぶ。この場合、サーバ装置はストレージ装置へのデータアクセスは不要となる。
 特許文献1によれば、I/O(Input or Output)特性が既知の場合はサーバ装置のキャッシュヒット率を推定できる。また、計算機システムをリプレースする際に、移行元システムの稼働状況に基づき、移行先のリソース量を見積もることができる。
 また、特許文献2によれば、クエリごとに必要となるCPU (Central Processing Unit)やI/Oの量を見積もることができる。
特開2005-339198号公報 米国特許第7769735号明細書
 上述のキャッシュ機能など、計算機システムに有益な機能がある。このような機能を有さない計算機システムを用いて、サーバ装置及びストレージ装置間のデータ転送速度を測定した場合、機能が考慮されない。このため、その測定されたデータ転送速度を、機能を有する別の計算機システムのデータ転送速度として判断してしまうことは適切でない。
 例えば、機能を有さない第1計算機システムで実行されるアプリケーションを、機能を有する第2計算機システムに移行しようとする場合、第1計算機システムで測定されたデータ転送速度を用いて、アプリケーションが使用するリソース量を算出するとすれば、過剰なリソース量を算出してしまうおそれがある。
 方法は、以下を備える。第1ストレージ装置を用いて、ボリュームを提供する。第1ストレージ装置に接続される第1サーバ装置を用いて、ボリュームにアクセスするアクセスプログラムを実行する。第1サーバ装置を用いて、アクセスプログラム及びボリュームの間の第1データ転送速度を測定する。第1サーバ装置を用いて、アクセスプログラムからボリュームに対するアクセスに関する機能であって第1サーバ装置及び第1ストレージ装置に適用されていない機能が第1サーバ装置及び第1ストレージ装置により適用されると仮定した場合のアクセスプログラム及びボリュームの間のデータ転送速度を示す速度情報を算出する。第1データ転送速度及び速度情報を第1サーバ装置から取得する。第1データ転送速度及び速度情報に基づいて、機能が適用されている第2サーバ装置及び第2ストレージ装置にアクセスプログラム及びボリュームをそれぞれ移行した場合の、アクセスプログラム及びボリュームの間に必要な帯域である必要帯域を算出する。
 機能が適用されていない第1サーバ装置及び第1ストレージ装置を用いて、この機能が適用されているとした場合のプログラム及びプログラムがアクセスするボリュームの間に必要な必要帯域を推定できる。
実施例1に係る計算機システムの構成の例を示す。 実施例1に係る計算機システムの機能を説明する図である。 キャッシュ管理情報107の例を示す。 性能情報700の例を示す。 キャッシュヒット率見積り指示500の例を示す。 キャッシュヒット率情報600の例を示す。 構成見積り機能145の構成例を示す。 キャッシュ容量適正化機能146の例を示す。 入力画面141の例を示す。 出力画面142の例を示す。 パス割当て処理のフローチャート例を示す。 キャッシュ効果の見積り処理のフローチャートの例を示す。 、実施例2に係る計算機システムの構成例を示す。 圧縮管理情報1207の例を示す。 構成見積り機能1245の構成例を示す。 圧縮率情報1500の構成例を示す。 入力画面1241の例を示す。 出力画面1242の例を示す 圧縮効果見積り指示1900の例を示す。 圧縮率順位情報2000の例を示す。 パス割当て処理のフローチャートの例を示す。
 なお、以後の説明では「aaa情報」等の表現にてテーブル構造等の本発明の情報を説明するが、これらの情報はデータ構造以外で表現されていてもよい。
 さらに、各情報の内容を説明する際に、「識別情報」、「識別子」、「番号」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。
 以後の説明では「機能」又は「プログラム」を主語として説明を行う場合がある。「機能」は、プロセッサがプログラムを実行することによって実現する機能を示す。また、実行されたプログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御デバイス)を用いながら行う。このため、機能又はプロセッサを主語とした説明としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。
 また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって記憶装置にインストールされてもよい。
 また、管理サーバ装置は、一以上の計算機で構成されて良い。例えば、管理サーバ装置が情報を表示する場合、或いは、管理サーバ装置が表示用情報を別の計算機に送信する場合、一つの計算機が管理サーバ装置である。また、例えば、複数の計算機で管理サーバ装置と同等の機能が実現されている場合は、当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機を含んで良い)が、管理サーバ装置である。
 また、以降の説明では、同種の要素を区別しないで説明する場合には、参照符号のうちの共通符号のみを用いることとし、同種の要素を区別して説明する場合には、参照符号(共通符号と個別符号の組合せ)を用いることがある。
 以降の説明では、APサーバ装置が、ストレージ装置へのアクセスにおいてキャッシュ領域にデータをキャッシュする方式をライトバック方式といい、APサーバ装置が、データをキャッシュせず、ダイレクトにストレージ装置にアクセスする方式をライトスルー方式という。
 以降の説明では、図を用いて計算機システムの一例を示すが、計算機システムの構成は図示例に限定されない。例えば、サブシステム及び管理サーバの数、各サブシステムが有するAPサーバ装置及びストレージシステムの数は、各APサーバ装置及びストレージシステム内の各構成要素の数は、図示例に限定されない。
 図1は、実施例1に係る計算機システムの構成の例を示す。
 計算機システムは、AP(Application Program)サーバ装置100及びストレージ装置120aを含む第1サブシステムと、APサーバ装置160及びストレージ装置120bを含む第2サブシステムと、管理サーバ装置140と、を有する。以下の説明では、APサーバ装置100を第1サーバ100、ストレージ装置120aを第1ストレージ120aという場合がある。また、以下の説明では、APサーバ装置160を第2サーバ160、ストレージ装置120bを第2ストレージ120bという場合がある。
 管理サーバ140は、第1サーバ100と、第1ストレージ120aと、第2サーバ160と、第2ストレージ120bと、に管理ネットワーク2を介して接続される。管理ネットワーク2は、例えば、LAN(Local Area Network)であるが、これに限定されるものではない。
 第1サブシステムについて説明する。第1サーバ100は、プロセッサ(CPU)10と、メモリ(Memory)20と、管理インタフェース103aと、複数のサーバインタフェース104a、104b、104c及び104dと、を有する。第1サーバ100内のこれらの要素は、内部バスを介して互いに接続される。メモリ20には、各種プログラム及び情報が記憶される。CPU10が、これらの情報を用いて、これらのプログラムを実行することにより第1サーバ100の各種機能を実現する。
 管理インタフェース103aは、管理ネットワーク2に接続するためのインタフェースである。第1サーバ100は、管理インタフェース103aを介して、管理サーバ140、第2サーバ160、第2ストレージ120b及び第1ストレージ120aと通信する。
 サーバインタフェース104a~104dは、第1ストレージ120aと通信するためのインタフェースである。各サーバインタフェース104a~104dが使用する通信規格は、例えばファイバーチャネル、イーサネット(登録商標)、PCI Express、InfiniBandなどであるが、これに限定されるものではない。
 第1ストレージ120aは、第1サーバ100が使用するデータを格納するストレージシステムである。第1ストレージ120aは、管理インタフェース103bと、ストレージインタフェース124a、124b、124c及び124dと、コントローラ121と、物理記憶デバイスと、を有する。物理記憶デバイスは、例えば、図示したように、SSD(Solid State Drive)122a及びHDD(Hard Disk Drive)123a等であるが、いずれか一方であってもよい。また、物理記憶デバイスの種類は、これに限定されるものではない。
 管理インタフェース103bは、管理ネットワーク2に接続するためのインタフェースである。ストレージインタフェース124a~124dは、第1サーバ100と通信するためのインタフェースである。ストレージインタフェース124a、124b、124c及び124dが、サーバインタフェース104a、104b、104c及び104dにそれぞれ接続される。これにより、第1サーバ100及び第1ストレージ120aの間に、複数の通信路が形成される。
 コントローラ121aは、第1サーバ100のAP101aに対して、物理記憶デバイスに基づく1つ以上のボリュームを提供する。例えば、コントローラ121aはSSD122a、HDD123aを用いてRAID (Redundant Arrays of Inexpensive (またはIndependent) Disks)を構成してもよい。1つのSSD122a又はHDD123aの領域、又は複数のSSD122a又はHDD123aの領域を統合または分割した領域をここではボリュームという。AP101aと、AP101aに提供されたボリュームとの間には、パスが形成される。
 コントローラ121aは、第1サーバ100及び第1ストレージ120a間のI/Oを制御する。コントローラ121aは、第1サーバ100からのボリュームを指定したリード指示に基づき、指定された第1ボリュームに対応するSSD122a又はHDD123aからデータをリードし、第1サーバ100に送信する。また、コントローラ121aは、第1サーバ100からの第1ボリュームを指定したライト指示に基づくデータを、指定された第1ボリュームに対応するSSD122a、HDD123aにライトする。
 第2サブシステムについて説明する。第2サーバ160は、プロセッサ(CPU)50と、メモリ(Memory)60と、SSD163と、管理インタフェース103cと、複数のサーバインタフェース104e、104f、104g及び104hと、を有する。第2サーバ160内のこれらの要素は、内部バスを介して互いに接続される。メモリ60には、各種プログラム及び情報が記憶される。CPU50が、これらの情報を用いて、これらのプログラムを実行することにより第2サーバ160の各種機能を実現する。
 管理インタフェース103dは、管理ネットワーク2に接続するためのインタフェースである。第2サーバ160は、管理インタフェース103dを介して、管理サーバ140、第1サーバ100、第1ストレージ120a及び第2ストレージ120bと通信する。
 サーバインタフェース104e~104hは、第2ストレージ120bと通信するためのインタフェースである。各サーバインタフェース104e~104hが使用する通信規格は、例えばファイバーチャネル、イーサネット(登録商標)、PCI Express、InfiniBandなどであるが、これに限定されるものではない。
 SSD163は、第2サーバ160及び第2ストレージ120bの間を流れるデータをキャッシュするキャッシュメモリを提供する記憶デバイスである。なお、キャッシュメモリを提供する記憶デバイスは、SSD163に限られない。
 第2ストレージ120bは、第2サーバ160が使用するデータを格納するストレージシステムである。第2ストレージ120bは、管理インタフェース103dと、ストレージインタフェース124e、124f、124g及び124hと、コントローラ121bと、SSD 122bと、HDD123bと、を有する。
 管理インタフェース103eは、管理ネットワーク2に接続するためのインタフェースである。ストレージインタフェース124e~124hは、第2サーバ160と通信するためのインタフェースである。ストレージインタフェース124e、124f、124g及び124hが、サーバインタフェース104e、104f、104g及び104hにそれぞれ接続される。これにより、第2サーバ160及び第2ストレージ120bの間に、複数の通信路が形成される。
 コントローラ121bは、第2サーバ100内のAP101b、101cに対して、物理記憶デバイスに基づく1つ以上のボリュームを提供する。例えば、コントローラ121bはSSD122b、HDD123bを用いてRAIDを構成してもよい。1つのSSD122b又はHDD123bの領域、又は複数のSSD122b又はHDD123bの領域を統合または分割した領域を、ここではボリュームという。
 コントローラ121bは、第2サーバ160及び第2ストレージ120bの間のI/Oを制御する。コントローラ121bは、第2サーバ160からリード指示に基づくデータを、リード指示で指定されたボリュームに対応するSSD122b、HDD123bからリードし、第2サーバ160に送信する。また、コントローラ121bは、第2サーバ160からのライト指示に基づくデータを、ライト指示で指定されたボリュームに対応するSSD122b、HDD123bにライトする。
 この例では、第1サーバ100が実行するAPと、第1ストレージ120aがAPに提供するボリュームとを、第2サーバ160及び第2ストレージ120bに移行するために、アプリケーション及びボリューム間に必要な必要帯域及びパス数を見積る。この例では、第2サブシステムは、第2サーバ内にデータをキャッシュするキャッシュ機能有する。第2サブシステムに移行した後のアプリケーション及びボリュームの間のデータ転送速度を、キャッシュ機能を持たない第1サーバを有する第1サブシステムで推定する。
なお、以下では、第1及び第2サブシステムが有する各通信路に、1つのパスが設定されている例を説明する。しかし、通信路に設定されるパスの数は1つには限られない。
 図2は、実施例1に係る計算機システムの機能を説明する図である。第1サーバ100は、アプリケーションプログラムが動作するサーバである。第1サーバ100は、AP 101aと、I/O取得機能102aと、キャッシュ効果見積り機能105aと、性能情報取得機能108aと、を有する。
 AP 101aは、例えば、CPU10により実行される、データベース管理システム等のアプリケーションプログラムである。この例では、第1サーバ100上で1つのAP101aが実行される例を説明するが、第1サーバ100上で実行されるAPは複数であってもよい。また、以下では、第1サーバ100に2つのボリュームが提供され、AP101aが、2つのボリュームを利用する例を説明するが、これに限定されるものではない。
 AP 101aは、第1ストレージ内のボリュームに対してアクセスを行う。つまり、AP101aは、ボリュームからデータをリードし、計算結果等のデータをストレージシステム120a内のボリュームにライトする。
 I/O取得機能102aは、キャッシュ効果見積り機能り105aからの指示に応じて又は設定されたスケジュールに従って定期的に又は不定期に、AP 101aと第1ストレージ120aの間のアクセスをI/Oログ(図示なし)として記録する機能である。I/Oログとしては、例えば、1日間や1時間などの所定時間分のI/Oが記録されてもよいし、常時記録されてもよいし、指示に応じた範囲のI/Oが記録されてもよい。I/Oリストは、I/O発行時刻、I/O種別(リードアクセスまたはライトアクセス)、I/O先のボリューム番号及びボリューム内のアドレス、I/Oのデータ長等、アクセス毎のI/O情報を記録したリストである。
 キャッシュ効果見積り機能105aは、サブシステムに適用可能な、アプリケーション及びボリュームの間のアクセスの高速化するための機能の一例であるキャッシュ機能の効果(以下、キャッシュ効果という場合もある。)を見積もるための機能である。キャッシュ効果見積り機能105aは、管理サーバ140からの指示に応じて稼働する機能である。キャッシュ効果見積り機能105aは、I/O取得機能102aから取得したI/Oログに含まれる各I/O情報に基づいて、第1サーバ100にキャッシュ機能が適用されたと仮定する場合のキャッシュ機能の効果を見積もり、見積もり結果を管理サーバ140に通知する機能である。
 キャッシュ効果見積り機能105aは、キャッシュアルゴリズム106a及びキャッシュ管理情報107aを有する。キャッシュアルゴリズム106aは、キャッシュ機能の動作をシミュレートするアルゴリズムである。キャッシュアルゴリズム106aが動作することにより、第1サーバ100にキャッシュ機能を適用すると仮定した場合の効果を見積ることができる。具体的には、例えば、I/Oログに基づき、第1サーバ100にキャッシュ機能を適用した場合のAP101a及びボリューム間のデータ転送速度に関する情報を算出できる。なお、この見積りの結果として、キャッシュ管理情報107aが生成される。
 性能情報取得機能108aは、第1サブシステムの性能情報を取得する機能である。例えば、性能情報取得機能108aは、各サーバインタフェース104a~104dから、ボリューム毎の第1サーバ100及び第1ストレージ120a間のデータ転送速度を取得し、管理サーバ140に通知する。
 第2サーバ160は、アプリケーションプログラムが動作するサーバである。第2サーバ160は、LPAR (Logical Partition)161a、161bと、AP101b、101cと、キャッシュ機能162と、SSD163と、I/O取得機能102bと、キャッシュ効果見積り機能105bと、性能情報取得機能108bと、を有する。
 LPAR 161a、161bは、CPU50がハイパーバイザを実行することにより実現される論理区画である。上述の通り、第2サーバ160は、例えば、CPU50、メモリ60、サーバインタフェース104e~104h、管理インタフェース103d等の複数種のリソースを含む。各LPAR161a(161b)は、第2サーバ160が有する各リソースの少なくとも一部をそれぞれ占有する。各LPAR161a(161b)上で、AP101b(101c)が実行される。なお、図では2つのLPAR161a、161bが実現されているが、LPARの数は2つには限られない。この例では、各LPAR161a(161b)上でそれぞれ1つのAP101b(101c)が実行さる例を説明するが、LPAR上で実行されるAPの数は、複数でもよい。
 AP 101b(101c)は、第2ストレージ120b内のボリュームに対してアクセスを行う。つまり、AP 101b(101c)は、ボリュームからデータをリードし、計算結果等のデータを第2ボリュームにライトする。
 I/O取得機能102bは、キャッシュ効果見積り機能105aからの指示に応じて又は設定されたスケジュールに従って定期的に又は不定期に、AP 101b、101cと第2ストレージ120bの間のI/OをI/Oログ(図示なし)として記録する機能である。詳細については、I/O取得機能102aと同様であるため説明を省略する。
 性能情報取得機能108bは、第2サブシステムの性能情報を取得する機能である。例えば、性能情報取得機能108bは、各サーバインタフェース104e~104hから、第2サーバ160及び第2ストレージ120b間のボリューム毎のデータ転送速度を取得し、管理サーバ140に通知する。
 SSD163は、AP101b、101cに第2ストレージ120b内のボリュームに対応するキャッシュメモリを提供する。キャッシュ機能162は、第2ストレージ120bからリードしたデータ、または、第2ストレージ120bにライトするデータを、キャッシュメモリにキャッシュする機能である。
 キャッシュ効果見積もり機能105bは、管理サーバ140からの指示に従い稼働する機能である。キャッシュ効果見積り機能105bは、I/O取得機能102bが取得したI/Oログに含まれる各I/O情報に基づいて、第2サーバ160に適用されるキャッシュ機能の効果を見積もり、見積もり結果を管理サーバ140に通知する機能である。
 キャッシュ効果見積り機能105bは、第1サーバ100内のキャッシュ効果見積り機能105aと同様に、キャッシュアルゴリズム、キャッシュ管理情報を有する(図示なし)。なお、第2サーバ160は、キャッシュ機能を有するサーバである。このため、キャッシュアルゴリズムは、キャッシュ機能162と同様のアルゴリズムを適用している。キャッシュ効果見積り機能105bが、I/Oログに基づき、キャッシュアルゴリズムを動作することで、キャッシュ機能の効果の見積もり結果であるキャッシュ管理情報が生成される。なお、キャッシュ効果見積もり機能105bは、キャッシュ機能162と連携することで、実測結果としてのキャッシュ管理情報を生成してもよい。
 管理サーバ140は、第1サーバ100又は第2サーバ160から取得した情報に基づき、キャッシュ機能を適用した場合のAP及APがアクセスするボリュームの間のデータ転送速度を見積って適切なパス数を決定し、決定したパス数に基づいて、第2サーバ160にパス割当てを指示する。また、管理サーバ140は、適切なパス数を決定するために、ボリュームに対応するキャッシュメモリのキャッシュ容量を適正化し、データ転送速度を調整する。
 管理サーバ140は、入力画面141と、出力画面142と、性能情報受信機能144と、構成見積り機能145と、キャッシュ容量適正化機能146と、パス割当て機能147と、を有する。
 入力画面141及び出力画面142は、管理サーバ140の図示しないディスプレイ装置に表示される画面である。性能情報受信機能144は、第1サーバ100及び第2サーバ160から性能情報を取得する機能である。構成見積り機能145は、第1サブシステム及び第2サブシステムから情報を取得し、取得した情報に基づき、キャッシュ機能を適用した場合のAP及APがアクセスするボリュームの間のデータ転送速度を見積って適切なパス数を決定する機能である。キャッシュ容量適正化機能146は、データ転送速度及びパス数を調整するために、例えば、ボリュームに対応するキャッシュメモリのキャッシュ容量を適正化する。パス割当て機能147は、決定したデータ転送速度及びパス数に基づき、第2サーバ160にパスの割当てを指示する機能である。
 図3は、キャッシュ管理情報107の例を示す。キャッシュ管理情報107は、キャッシュ効果見積り機能105aにより生成される情報である。キャッシュ管理情報107は、キャッシュリスト210と、キャッシュ効果情報220と、を有する。
 キャッシュリスト210は、キャッシュアルゴリズム106aに基づき、キャッシュメモリにキャッシュされると想定されるデータのリストである。各エントリは、当該データの格納先であるボリュームの番号を示すボリューム211及びアドレス212と、当該データがボリュームにライトされたか否かのフラグが設定されるライト213と、を有する。なお、
 キャッシュ方式がライトバック方式の場合、キャッシュメモリにキャッシュされ、ボリュームにライトされていないデータについては、このデータが未だボリュームにライトされていないことを示すフラグとしてライト213に「X」が設定される。そして、キャッシュメモリ内のデータがボリュームにライトされたとき、当該ライト213に設定された「X」が解除される。なお、ライトスルー方式の場合は、ライト213には何も設定されない。
 キャッシュリスト210には、キャッシュ容量に応じたエントリ数が設定される。I/Oに応じてエントリが先頭に追加される。キャッシュされているデータと同じ記憶領域にI/Oが送信された場合、キャッシュヒットとなる。このため、そのI/Oの宛先のアドレス含まれるエントリが、先頭に移動する。エントリの追加により、エントリ数が不足する場合は、末尾のエントリが削除される。末尾のエントリのライト213「X」が設定されている場合、このデータがボリュームに書き込まれたことになる。例えば、データの長さは8KB等の固定長としてキャッシュ容量に応じたエントリ数を予め設定してもよいし、データの長さ可変長とし、データの長さに応じてエントリ数を調整してもよい。
 キャッシュ効果情報220は、ボリューム毎のキャッシュ機能の効果を示す情報である。キャッシュ効果情報220は、ボリューム毎のエントリを有する。各エントリは、ボリューム221と、リード量222と、リードヒット量223と、ライト量224と、ライトヒット量225と、を有する。ボリューム221は、ボリュームの番号を示す。リード量222は、当該ボリュームからリードされるデータの単位時間当たりのデータ量(つまり速度)を示す。リードヒット量223は、当該ボリュームへのリードアクセスのうち、キャッシュヒットしたデータの速度を示す。ライト量224は、当該ボリュームへライトされるデータの速度を示す。ライトヒット量225は、当該ボリュームへのライトアクセスのうち、キャッシュヒットしたデータの速度を示す。
 図4は、性能情報700の例を示す。性能情報700は、性能情報取得機能108a、108bが取得し、性能情報受信機能144に通知する情報である。性能情報700の各エントリは、ボリューム701と、リード帯域702と、ライト帯域703と、を有する。ボリューム701は、当該ボリュームのボリューム番号を示す。リード帯域702は、当該ボリュームに対するリードアクセスのための帯域である。ライト帯域703は、当該ボリュームに対するライトアクセスのための帯域である。例えば、リード帯域702及びライト帯域は702、予め設定された値であってもよいし、各サーバインタフェース104又はストレージインタフェース124で実測された、各ボリュームに対する転送速度であってもよい。
 図5は、キャッシュヒット率見積り指示500の例を示す。キャッシュヒット率見積り指示500は、キャッシュ効果見積り機能105に対して、キャッシュ容量適正化機能146がキャッシュ効果の見積りを指示するときの命令である。この例では、キャッシュ効果の一例として、対象となるボリュームのキャッシュヒット率を見積もる。キャッシュヒット率見積り指示500には、ボリューム501とキャッシュ容量502とが指定される。ボリューム501は、キャッシュ効果を見積もる対象ボリュームのボリューム番号を示す。キャッシュ容量502は、対象ボリュームに対応するキャッシュメモリの容量(キャッシュ容量)を示す。
 図6は、キャッシュヒット率情報600の例を示す。キャッシュヒット率情報600は、キャッシュ効果見積り機能105が後述の見積り処理により取得する情報である。
 キャッシュヒット率情報600は、ボリューム毎のエントリを有する。各エントリは、ボリューム601と、キャッシュ容量602と、リードヒット率603と、ライトヒット率604と、を含む。ボリューム601は、当該ボリュームのボリューム番号を示す。キャッシュ容量602は、対象ボリュームに対応するキャッシュメモリのキャッシュ容量を示す。リードヒット率603は、当該ボリュームにリードアクセスされたデータのキャッシュヒット率を示す。ライトヒット率604は、当該ボリュームにライトアクセスされたデータのキャッシュヒット率を示す。
 キャッシュ効果見積り機能105は、キャッシュ効果情報220に基づき、キャッシュヒット率情報600として、各対象ボリュームのリードヒット率及びライトヒット率を算出する。リードヒット率603は、キャッシュ効果情報220のリードヒット量223に対するリードヒット量223の割合である。また、ライトヒット率604は、キャッシュ効果情報220のライトヒット量225に対するライトヒット量225の割合である。
 図7は、構成見積り機能145の構成例を示す。構成見積り機能145は、第1サーバ100又は第2サーバ160から取得した性能情報と、キャッシュ効果見積り機能105から取得した情報に基づき、第2サブシステムに各ボリュームを移行した場合の、ボリューム毎の必要帯域及びパス数を見積る機能である。構成見積り機能145は、取得した各情報に基づき、パス帯域情報300と、構成見積もり情報310と、サーバパス情報320と、ストレージパス情報330と、を設定し記憶する。
 パス帯域情報300は、パス帯域301が設定される。例えば、パス帯域301は、第2サーバ160及び第2ストレージ120bの間の各パスの帯域を示す。この例では、1のパスが1の通信路に設定されているので、パス帯域301は、第2サブシステムの1組のサーバインタフェース104及びストレージインタフェース124の間の通信路の帯域である。
 構成見積もり情報310は、パスの見積りに必要な情報及びパスの見積り結果を保持する。構成見積り情報310の各エントリは、ボリューム311と、リード帯域312と、ライト帯域313と、リードヒット率314と、ライトヒット率315と、必要帯域316と、必要パス数317と、を有する。
 ボリューム311、リード帯域312及びライト帯域313は、性能情報取得機能108a、108から性能情報受信機能144が取得した性能情報700に含まれる情報である。リードヒット率314及びライトヒット率315は、キャッシュ効果見積り機能105から取得したキャッシュヒット率情報600に含まれる情報である。なお、キャッシュヒット率情報600は構成見積り機能145が、キャッシュ効果情報220に基づき算出してもよい。
 必要帯域316は、リード帯域312、ライト帯域313、リードヒット率314及びライトヒット率315に基づき、構成見積り機能145が算出する。必要パス数317は、必要帯域316及びパス帯域情報300に基づき、構成見積り機能145が算出する。
 具体的には、例えば、各VOLの必要帯域316は、リード帯域×(1-リードヒット率)+ライト帯域×(1-ライトヒット率)のように算出される。また、例えば、各VOLの必要パス数317は、必要帯域/パス帯域で算出された値を切り上げた値である。
 サーバパス情報320は、第2サーバ160側から見た、第2サーバ160及び第2ストレージ120bの間のパス情報である。サーバパス情報320は、パス毎のエントリを有する。各エントリは、サーバID321と、ポートID322と、ストレージID323と、ストレージポートID324と、LPAR ID326と、を有する。
 サーバID321及びポートID322は、当該パスの接続元のサーバ及びサーバインタフェースの識別番号を示す。ストレージID323及びストレージポートID324は、当該パスの接続先のストレージ及びのストレージインタフェースの識別番号を示す。
 パス割当て状態325には、当該パスが各ポートに割り当てられている場合に「済」が設定され、パスが割り当てられていない場合に「未」が設定される。LPAR ID326は、パスに割り当てられるLPARの識別番号を示す。例えば、図では、第2サーバ(サーバ2)のポート1と、第2ストレージ(ストレージ2)のポート1と、LPAR1と、にパスが割当てられていることを示す。
 ストレージパス情報330は、第2ストレージ120b側から見た、2サーバ160及び第2ストレージ120bの間のパス情報である。ストレージパス情報330は、パス毎のエントリを有する。各エントリは、ストレージID331と、ポートID332と、サーバID333と、サーバポートID334と、ボリュームID336と、を有する。
 ストレージID331及びポートID332は、当該パスの接続元のストレージ及びのストレージインタフェースの識別番号を示す。サーバID333及びサーバポートID334は、当該パスの接続先のサーバ及びサーバインタフェースの識別番号を示す。
 パス割当て状態335には、パスが設定された場合に「済」が設定され、パスが設定されていない場合に「未」が設定される。ボリュームID336は、パスに割り当てられるボリュームの識別番号を示す。例えば、図では、ストレージ2のポート1と、サーバ2のポート1と、VolAと、にパスが割り当てられていることを示す。
 図8は、キャッシュ容量適正化機能146の例を示す。キャッシュ容量適正化機能146、ボリュームへのパスの剰余帯域及びパス数を算出し、必要に応じてボリュームに対応づけるキャッシュメモリのキャッシュ容量を適正化する機能である。キャッシュ容量適正化機能146は、剰余帯域情報410及び剰余帯域閾値情報420を有する。
 キャッシュ容量適正化機能146は、構成見積り機能145から取得した情報に基づき、剰余帯域情報410を設定する。剰余帯域情報410は、ボリューム毎のエントリを有する。各エントリは、ボリューム411と、必要帯域412と、割当て帯域413と、剰余帯域414と、を有する。
 ボリューム411は、ボリュームの識別番号を示す。必要帯域412には、構成見積もり情報310の必要帯域316と同値が設定される。割当て帯域413には、ボリュームに現状割り当てられている帯域が設定される。具体的には、割当て帯域413には、構成見積もり情報310の必要パス数317とパス帯域情報300のパス帯域301の積が設定される。剰余帯域414には、ボリュームに現状割り当てられている帯域のうち、使われていない帯域が設定される。具体的には、剰余帯域414には、割当て帯域413に対する必要帯域412の差分が設定される。剰余帯域閾値情報420には、閾値421として、剰余帯域の上限値が設定される。
 図9は、入力画面141の例を示す。入力画面141は、ディスプレイ装置(図示なし)上に表示され、管理者がパスの割当てに必要な情報を入力するための画面である。入力画面141は、キャッシュ方式入力画面810と、性能要件入力画面820と、を有する。
 キャッシュ方式入力画面810は、APの移行先となる第2サーバ160のキャッシュ方式811を選択する画面である。管理者は、キャッシュ方式811として、ライトスルー方式又はライトバック方式のいずれかを、キャッシュ方式入力画面810にて選択する。つまり、ライトスルー方式選択した場合、APサーバ装置にキャッシュ機能を適用しない場合の、ボリューム毎のパスの通信速度及びパス数が見積もられる。また、ライトバック方式を選択した場合、APサーバ装置にキャッシュ機能を適用した場合の、ボリューム毎の通信速度及びパス数が見積もられる。
 性能要件入力画面820は、キャッシュ効果の見積りに必要な性能要件を入力する画面である。管理者は、移行するボリューム毎の性能要件を、性能要件入力画面820の各エントリに入力する。各エントリは、例えば、移行元サーバID821と、移行先サーバID822と、適正化サーバID823と、ボリューム824と、リード帯域要件825と、ライト帯域要件826と、キャッシュ容量827と、を有する。
 図10は、出力画面142の例を示す。出力画面142は、管理者に対して、ディスプレイ装置(図示なし)上に表示される画面である。出力画面142は、見積もり結果出力画面910を有する。見積もり結果出力画面910は、キャッシュ効果見積り処理の結果を表示する画面である。見積り結果出力画面910には、例えば、サーバID911と、ボリューム912と、必要帯域913と、パス数914と、割当て帯域915と、剰余帯域916と、キャッシュ帯域917と、が表示される。
 サーバID 911は、処理の対象のサーバの識別子を示す。ボリューム912は、処理の対象ボリュームの番号を示す。必要帯域913は、対象ボリュームに必要な帯域を示す。パス数914は、対象ボリュームに割当てられているパスの数を示す。割当て帯域915は、対象ボリュームに現状割り当てられている帯域を示す。剰余帯域916は、対象ボリュームに現状割り当てられている帯域のうち、使われていない帯域を示す。
 図11は、パス割当て処理のフローチャート例を示す。以下、計算機システムが実行するパス割当処理を説明する。
 ステップ(S)1001において、管理サーバ140の入力画面141に、入力情報が入力される。例えば、管理者からの要求に応じ、管理サーバ140が入力画面141をディスプレイ装置(図示なし)に出力する。管理者により、入力画面141に、第2サーバ160のキャッシュ方式と、前述の性能要件と、が入力される(図9参照)。この例では、ライトバック方式が選択される。
 また、性能要件入力画面820において、移行元サーバID821には、第1サーバ(サーバ1)が入力され、移行先サーバID822には、第2サーバ(サーバ2)が入力される。ボリューム824には、第1ストレージから第2ストレージに移行する対象ボリュームとして、VolA及びVolBが入力される。リード帯域要件825及びライト帯域要件826には、VolBのように対象ボリュームに割当てる帯域が入力できる。また、VolAのようにリード帯域要件825及びライト帯域要件826に帯域を設定しなくてもよい。この場合、パス割当て処理において、当該ボリュームに割当てる帯域が自動的に設定されてもよい。キャッシュ容量827には、当該ボリュームに対応するキャッシュ容量が入力される。
 S1002において、性能情報受信機能144は、対象ボリュームの性能情報700を、第1サーバ160の性能情報取得機能108aから取得し、構成見積り機能145に渡す。構成見積り機能145は、性能情報700に基づき、対象ボリュームのリード帯域及びライト帯域を構成見積もり情報310に設定し、キャッシュ容量適正化機能146に処理を渡す。
 S1003において、キャッシュ容量適正化機能146は、キャッシュ効果見積り機能105aに対して、キャッシュヒット率見積り指示500を送信する。キャッシュヒット率見積り指示500は、性能要件に基づく指示である。キャッシュヒット率見積り指示500は、対象ボリューム及び対象ボリュームに割り当てるキャッシュ領域のキャッシュ容量を含む(図5参照)。
 S1004において、キャッシュ効果見積り機能105aは、キャッシュヒット率見積り指示500に応じて、I/O取得機能102aから、I/Oログを取得する。例えば、I/O取得機能102aは、AP 101aが一定期間発行したI/OのI/Oログを、キャッシュ効果見積り機能105aに渡す。
 S1005において、キャッシュ効果見積り機能105aは、キャッシュ効果の見積り処理を実行する。見積り処理により、キャッシュ管理情報107及びキャッシュヒット率情報600が生成される。この処理の詳細は、後述する。
 S1006において、キャッシュ効果見積り機能105aは、構成見積り機能145に対してキャッシュヒット率情報600を送信する。
 S1007において、構成見積り機能145は、キャッシュヒット率情報600に基づき、構成見積り情報310に、対象ボリュームのリードヒット率及びライトヒット率を設定する。そして、構成見積り機能145は、構成見積り情報310に基づき、対象ボリュームの必要帯域を算出し、対象ボリュームに割り当てるパス数を見積もり、キャッシュ容量適正化機能146に処理を渡す。必要帯域及びパス数の算出方法は、図7で説明した通りである。
 S1008において、キャッシュ容量適正化機能146は、パス帯域301及び構成見積り情報310に基づき、対象ボリュームの割当て帯域413及び剰余帯域414を算出し、剰余帯域情報410に設定する。割当て帯域413及び剰余帯域414の算出方法は、上述した通りである。
 S1009において、キャッシュ容量適正化機能146は、対象ボリュームうち、S1008で算出した剰余帯域が、剰余帯域閾値情報420に設定された閾値421を超過しているボリュームがあるか否かを判定する。
 判定の結果、剰余帯域が閾値を超過しているボリュームがある場合(S1009;Yes)、キャッシュ容量適正化機能146は、S1010に処理を進める。一方、判定の結果、対象ボリュームの剰余帯域が全て閾値以内の場合(S1009;No)、キャッシュ容量適正化機能146は、パス割当て機能147に処理を渡す(S1011)。
 S1010において、キャッシュ容量適正化機能146は、閾値を超過したボリュームのキャッシュ容量を変更し、S1003に処理を渡す。キャッシュ容量は、例えば、現状のキャッシュ容量を10%増加させるなど、予め変更する割合又は量を設定しておいてもよい。また、キャッシュ容量適正化機能146は、キャッシュ容量の変更が必要な旨を入力画面141に通知することで、管理者にキャッシュ容量の変更値を入力させてもよい。
 S1003において、キャッシュ容量適正化機能146は、キャッシュ効果見積り機能105aに対して、キャッシュ容量の変更値を含むキャッシュヒット率見積り指示500を送信する。
 このように、対象ボリュームの剰余帯域が閾値を超過した場合には、キャッシュ容量を変更し、その変更値をもとに、再び対象ボリュームのキャッシュ効果見積り処理(S1005)を行い、S1006~1009までの処理を繰り返す。このように、キャッシュ容量の変更及びキャッシュ効果見積り処理を、対象ボリュームの剰余帯域を閾値以下になるまで繰り返すことで、キャッシュ容量を適正化できる。キャッシュ容量を適正化することで、アプリケーション及びボリュームの間のデータの必要帯域を調整し、剰余帯域を低減させて、必要帯域に応じた適切なパス数を設定できる。また、キャッシュ容量を適正化することにより、キャッシュヒット率を向上させ、より高速なアクセスが可能となる。
 S1011において、パス割当て機能147は、対象ボリュームと対象ボリュームにアクセスする対象APとの間にパスを割り当てる。具体的には、例えば、パス割当て機能147は、サーバパス情報320とストレージパス情報330を用いて、第2サーバ及び第2ストレージ間のパスが割り当てられていないインタフェース(ポート)の組(エントリ)を検索する。パスが割当てられていないエントリ見つかった場合、パス割当て機能147は、出力画面142として、検索されたポートの組に対応する見積り結果出力画面910をディスプレイ装置に表示する。見積り結果出力画面910には、対象ボリューム毎の見積もり結果が出力される(図10参照)。
 対象ボリュームのうち、VolAの見積もりの結果を例にとると、VolAに必要な帯域(必要帯域913)は「3.6GB」であり、現状、VolAに割当てられているパス(パス数914)は「3」本で、その帯域(割当て帯域915)は、「4.8GB」であることが示される。また、現状、VolAに割当てられている帯域であって、使用されていない帯域(剰余帯域916)は「1.2GB」あり、キャッシュ機能を適用したことにより必要帯域が「1.4GB」削減されたこと(キャッシュ帯域917)がわかる。
 管理者は、見積り結果出力画面910を確認し、問題ないと判断した場合に、図示しない確認ボタン等により、表示された情報を確定する。これにより、パス割当て機能147は、見積り結果出力画面910で確認された情報に該当する、サーバパス情報320とストレージパス情報330のエントリについて、パス割当て状態(325、335)に「済」を設定する。
 パス割当て機能147は、第2サーバ160に対して、LPARの作成を指示する。ここで作成されるLPARが、第1サーバ100で実行されている対象AP101aの移行先となる。また、パス割当て機能147は、サーバパス情報320の該当エントリのLPARID326の欄に、作成指示したLPARの識別番号を設定する。
 第2サーバ160は、指示基づき、LPARを作成し、作成したLPAR内に対象AP101aを移行する。これにより、対象AP101aから対象ボリュームに対して、アクセス可能となる。
 S1012において、パス割当て機能147は、第2サーバ160に対して、移行したAP101aにキャッシュ機能162を適用する指示を送信する。このとき、指示には、対象ボリュームに割り当てるキャッシュ容量が含まれる。キャッシュ容量は、直近のキャッシュ効果見積り指示500(S1003)に含まれる値である。
 図12は、キャッシュ効果の見積り処理のフローチャートの例を示す。
 見積り処理は、パス割当て処理(図11)において、S1005で、第1サーバ100のキャッシュ効果見積り機能105aが実行する処理である。
 キャッシュ効果見積り機能105aは、S1004で取得したI/Oリストの各I/O情報について、キャッシュアルゴリズム106aを実行することで、キャッシュ機能をシミュレートする以下の処理が行われる。処理の対象となるI/O情報を、対象I/O情報という。
 S1101において、キャッシュ効果見積り機能105aは、対象I/O情報に含まれる、I/Oの宛先のボリューム番号及びアドレスを含むエントリが、キャッシュリスト210に存在するか否かを判定する。
 宛先のボリューム番号及びアドレスを含むエントリが存在する場合(S1101;Yes)、このI/Oはキャッシュヒットしたことを意味する。この場合、キャッシュ効果見積り機能105aは、S1104に処理を進める。
 一方、宛先のボリューム番号及びアドレスを含むエントリが存在しない場合(S1101;No)、このI/Oは、キャッシュミスしたことを意味する。この場合、キャッシュ効果見積り機能105aは、S1102において、キャッシュ方式がライトバック方式であるか否かを判定する。
 ライトバック方式でない場合(S1102;No)、キャッシュ効果見積り機能105aは、S1104に処理を進める。一方、ライトバック方式の場合(S1102;Yes)、S1103において、キャッシュ効果見積り機能105aは、I/Oリストの末尾のエントリを削除し、S1104に処理を進める。
 このとき、削除したエントリのライト213が「X」の場合には、キャッシュ効果見積り機能105aは、キャッシュ効果情報220のライト量224に削除したエントリのI/Oのデータ長を追加する。また、前述の通り、I/Oリストは、キャッシュ容量に合わせてエントリ数を設定している。このため、末尾のエントリが、空のエントリ又は宛先のボリューム番号及びアドレスを含むエントリの場合、キャッシュ効果見積り機能105aは、S1103を行わずS1104に処理を進める。
 S1104において、キャッシュ効果見積り機能105aは、キャッシュリスト210を更新する。具体的には、例えば、このエントリをキャッシュリスト210の先頭に移動又は追加する。
 S1105において、キャッシュ効果見積り機能105aは、キャッシュ効果情報220を更新する。具体的には、キャッシュ効果見積り機能105aは、このI/Oがリードかつキャッシュヒットの場合には、このI/Oのデータ長をリードヒット量223に追加し、このI/Oがリードかつキャッシュミスの場合には、このI/Oのデータ長をリード量222に追加し、このI/Oがライトスルー方式でのライトの場合には、このI/Oのデータ長をライト量224に追加し、このI/Oがライトバック方式でのライトでかつキャッシュヒットの場合には、このI/Oのデータ長をライトヒット量225に追加する。なお、このI/Oがライトバック方式のライトでかつキャッシュミスの場合には、キャッシュ効果見積り機能105aは、キャッシュ効果情報220の更新を行わない。
 S1106において、キャッシュ効果見積り機能105aは、I/Oログに含まれる全てのI/O情報について、S1101~S1105のステップを完了したか否かを判定する。完了していない場合(S1106;No)、キャッシュ効果見積り機能105aは、S1101に処理を戻す。一方、完了した場合(S1106;Yes)、キャッシュ効果見積り機能105aは、キャッシュ効果情報220に基づく結果として、I/Oログのリードヒット率及びライトヒット率を算出し、キャッシュヒット率情報600を生成し(S1107)、処理を終了する。
 上記処理により、管理サーバ140は、機能としてキャッシュ機能が適用されていない第1サブシステムを用いて、キャッシュ機能を適用される第2サブシステムに、第1サブシステムで稼働する対象アプリケーション及び対象ボリュームを移行した場合の、この間に必要な必要帯域を算出できる。これにより、第2サブシステムを用いることなく、移行後の対象ボリュームに割当てる帯域を予め見積もることができる。
 また、第2サブシステムの第2サーバ160及び第2ストレージ120bの間のパス帯域301を取得することで、管理サーバ140は、第2サブシステムに移行した後の、対象アプリケーション及び対象ボリュームの間のパスの数を予め見積もることができる。
 また、第1サーバ100のキャッシュ効果見積り機能105aに対して、キャッシュ容量を指定できる。これにより、キャッシュ効果見積り機能105aが、対象アプリケーション及び対象ボリュームの間のI/Oによるデータのキャッシュヒット率を予測できる。従って、第2サブシステムにおいて、指定したキャッシュ容量を使用した場合の、対象アプリケーション及び対象ボリュームの間に必要な必要帯域を算出できる。
 また、対象ボリュームに割当てられている帯域(割当て帯域)と、対象ボリュームの必要帯域と、対象アプリケーション及び対象ボリュームの間のパスの数と、に基づいて、対象ボリュームが使用していない剰余帯域を算出できる。剰余帯域が閾値を超えるか否かを判定することで、対象ボリュームに適切な数のパスが割当てられているかどうかを判定できる。適切な数のパスが割当てられている場合、移行先の第2サーバにそのパス数とキャッシュ容量を通知することで、パスを効率よく利用できる。
 また、適切な数のパスが割当てられていないと判定された場合には、キャッシュ容量を変更して、キャッシュヒット率を向上させることができる。これにより、対象アプリケーション及び対象ボリュームの間のI/Oのデータ量を削減することができる。
 また、変更したキャッシュ容量について、再度キャッシュ効果の見積処理を行うことで、キャッシュヒット率を向上させた場合の対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を再度見積もることができる。そして、剰余帯域が閾値以下になるまでこの見積処理を繰り返すことで、適正なキャッシュ容量による、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を削減させた見積り結果を取得できる。
 さらに、この例では、I/O取得機能102aが取得した対象のアプリケーション及びのボリュームの間のI/Oログを用いることで、対象ボリュームに指定されたキャッシュ容量のキャッシュメモリを対応づけると仮定した場合の、リードヒット率、ライトヒット率を精度よく算出できる。
 なお、キャッシュ効果見積り機能105aは、キャッシュ効果情報として、ボリューム毎に、リード速度、リードヒット速度、ライト速度、ライトヒット速度の値を算出したが、これらの値は、一定時間分のリード量、リードヒット量、ライト量、ライトヒット量であってもよい。
 上記では、管理サーバ140が、構成見積り機能145等の各種機能を有しており、第1サーバ100から性能情報700及びキャッシュ管理情報を取得し、第2サーバからパス帯域情報300を取得して、構成見積り情報310を算出していた。しかし、管理サーバ140が有する各種機能を例えば第2サーバ160等、他のサーバが有していてもよい。また、管理サーバ140が有する各種機能及びキャッシュ効果見積り機能105を実現するプログラムは、記憶媒体に記憶される、APサーバ装置又は他の計算機にインストールされるようにしてもよい。
 また、計算機システムは、対象アプリケーション及び対象ボリュームを第2サブシステムに移行した後、第2サーバ160を対象にパス割当て処理を行ってもよい。
 以下では、変形例として、移行後の対象アプリケーション及び対象ボリュームにおける、第2サーバ160でのパス割当て処理を説明する。この例では、入力画面141においては、管理者が、移行元サーバID821及び移行先サーバID822の入力に代えて、適正化サーバID823に第2サーバを入力する。また、ボリューム824には、対象ボリュームを入力する。リード帯域要件825及びライト帯域要件826には、対象ボリュームへのアクセスに必要な帯域を入力する。なお、リード帯域要件825とライト帯域要件826を入力しない場合は(なし)、現状のリード帯域とライト帯域を計測し、それらの値が設定されてもよい。キャッシュ容量827には、各ボリュームに割り当てるキャッシュの容量を入力する。
 以下のステップについては、上述した実施例1のパス割当て処理と基本的に同様である。管理サーバ140の各種機能は、第1サーバ100の各種機能に代えて第2サーバ160の各種機能と連携して対象ボリュームに対応するキャッシュメモリのキャッシュ容量を適正化することで、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を調整する。
 例えば、性能情報受信機能144は、性能情報700を第2サーバ160の性能情報取得機能108bから取得し構成見積り機能に渡す(S1002)。また、キャッシュ容量適正化機能146は、第2サーバ160のキャッシュ効果見積り機能105bに対して、キャッシュヒット見積り指示500を送信する(S1003)。キャッシュ効果見積り機能105bは、キャッシュヒット率見積り指示500に応じて、I/O取得機能102bに対して、I/Oログの取得を指示する。I/O取得機能102bは、I/Oログを取得し、キャッシュ効果見積り機能105bに通知する(S1004)。キャッシュ効果見積り機能105bは、キャッシュ効果の見積り処理を実行する(S1005)。キャッシュ効果見積り機能105bは、構成見積り機能145に対してキャッシュヒット率情報600を送信する(S1006)。
 なお、I/O取得機能102bは、キャッシュ機能162と連携してI/Oログを取得してもよい。従って、I/Oログには、各リードデータ及びライトデータのデータ量と、キャッシュヒットの有無が記憶されてよい。この場合、キャッシュ効果見積り機能105aは、I/Oログに基づくキャッシュ効果の見積り処理において、キャッシュヒット量に基づきリードヒット速度及びライトヒット速度を取得するようにしてもよい。
 上記処理により、管理サーバ140の各種機能が、第2サーバ160上のキャッシュ効果見積り機能105b等と連携することで、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を調整できる。
 具体的には、剰余帯域が閾値を超過した場合にキャッシュ容量を変更し、変更後のキャッシュ容量について、再度キャッシュ効果見積り処理を行うことを、剰余帯域が閾値以下になるまで繰り返す。これにより、キャッシュ容量を適正化し、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を調整できる。また、キャッシュ容量を適正化することにより、キャッシュヒット率を向上させ、より高速なアクセスが可能となる。
 また、キャッシュ効果の見積処理にキャッシュ効果見積機能を用いることにより、通常のI/O処理とは別に、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を見積ることができる。さらに、LPAR161a内にマルチパス機能を設定するようにしてもよい。これにより、見積り処理の結果に基づき、パス数を変更する場合に、AP101bを停止させずにパス数を増減できる。
 実施例2を説明する。その際、実施例1との相違点を主に説明し、実施例1との共通点については説明を省略或いは簡略する。本実施例では、第2サブストレージに圧縮データ格納機能を適用する。圧縮データ格納機能は、ストレージ120がAPサーバ装置から受信した非圧縮データを圧縮してボリュームにライトする圧縮機能と、APサーバ装置が、ボリュームからがリードした圧縮データ伸張する伸張機能とが含まれる。
 以下では、圧縮データ格納機能が適用されない第1サブシステムによって、圧縮データ格納機能が適用される第2サブシステムのAP及びボリュームの間の必要帯域及びパス数を見積る例を説明する。
 図13は、実施例2に係る計算機システムの構成例を示す。本実施例では、第1サーバ1200、第2サーバ1260、第2ストレージ1220b及び管理サーb1240が実施例1とは異なる機能を有する。異なる機能を中心に説明する。
 第1サブシステムは、第1サーバ1200、第1ストレージ1220a、管理サーバ1240、第2サーバ1260、第2ストレージ1220bを有する。
 第1サーバ1200は、アプリケーションプログラムが動作するサーバであり、第2ストレージ1220bに対してデータをリード及びライトする。各APサーバ1200、1260は、キャッシュ効果見積り機能105に代えて又は加えて圧縮効果見積り機能1205を有する点が、実施例1と異なる。また、第2サーバ1260は、キャッシュ機能に代えて又は加えて伸張機能を有する点が、実施例1と異なる。その他のAPサーバ装置の構成及び機能は、実施例1のAPサーバ装置と同様である。
 第2ストレージ1220bには、第2サーバ1260が使用するデータが格納される。第2ストレージ1220bは、物理記憶デバイスとして、受信したデータを圧縮してライトする圧縮機能1223bを持つSSD122bを有する点が、第1ストレージ1220aと異なる。
 圧縮機能1223bは、SSD1222b内にライトするときに、そのデータを、例えば512バイト等の固定長に区切り、圧縮方式に従う圧縮方法圧縮する機能である。なお、圧縮方式は、複数の方式が選択できるようにされてもよい。圧縮方式は、例えば、辞書式やハフマン式等どのような方式を用いてもよい。具体的な圧縮方式についての説明は省略するが、圧縮方式によりデータの圧縮率が異なる。管理サーバ1240は、後述の圧縮率順位情報2000を保持する(図20)。
 コントローラ1221bは、第2サーバ1260から送信されたデータをSSD 1222bに転送し、SSD 1222bは、圧縮機能1223bを用いて送信されたデータを圧縮し、その内部の記憶領域に圧縮されたデータをライトする。
 コントローラ1221bは、第2サーバ1260からのリード指示に応じて、SSD1222bから圧縮されたデータをリードし、第2サーバ1260に送信する。第2サーバ1260は、圧縮データを受信し、伸張機能1262を用いて圧縮されたデータをもとの大きさに伸張し、伸張したデータをAP101bに渡す。
 第2サーバ1200、1260は、圧縮効果見積り機能1205を有する。圧縮効果見積り機能1205は、圧縮アルゴリズム1206、圧縮管理情報1207を有する。圧縮効果見積り機能1205は、管理サーバ1240からの指示に応じて、I/O取得機能102aが取得したI/Oリストを用いて圧縮アルゴリズム1206を実行し、圧縮データ格納機能の効果を圧縮管理情報1207aとして見積もり、その見積り結果を管理サーバ140に通知する。
 管理サーバ1240は、第1サーバ1200又は第2サーバ1260から取得した情報に基づき、圧縮データ格納機能を有する第2サブシステムにおける対象アプリケーション及び対象ボリュームとの間の必要帯域を算出し、必要帯域及びパス帯域に基づいてパス数を決定し、第2サーバ1260にパス割当てを指示する。
 管理サーバ1240は、入力画面1241、出力画面1242、性能情報受信機能144、構成見積り機能1245、圧縮方式適正化機能1246、パス割当て機能147を有する。入力画面1241は管理者がパス割当てに必要な情報を入力する画面である。出力画面1242は、割り当てるパス数の構成を管理者に表示するための画面である。構成見積り機能1245は、性能情報と圧縮見積り機能1205からの情報に基づき、パス構成を見積もる機能である。圧縮方式適正化機能1246は、圧縮方式を適正化するための機能である。
 図14は、圧縮管理情報1207の例を示す。圧縮管理情報1207は、圧縮効果見積り機能1205により生成される情報である。圧縮管理情報1207は、ボリューム毎の圧縮データ格納機能の効果を示す情報である。圧縮管理情報1207は、圧縮効果情報1310を有する。
 圧縮効果情報1310は、ボリューム毎のエントリを有する。各エントリは、ボリューム1311と、リード量1312と、圧縮リード量1313と、ライト量1314と、圧縮方式1315と、を有する。圧縮リード量1313は、当該ボリュームからリードされるデータが圧縮データである場合のデータ転送通信速度を示す。圧縮方式1315は、当該ボリュームに適用される圧縮機能の方式を示す。その他の欄は、キャッシュ効果情報220と同じであるため説明を省略する。
 図15は、構成見積り機能1245の構成例を示す。構成見積り情報1410は、第1サーバ100又は第2サーバ160から取得した性能情報と、圧縮効果見積り機能1205から取得した情報に基づき、パスの構成を見積る機能である。構成見積もり情報1410に含まれる情報が、実施例1の構成見積り情報310とは異なる。
 構成見積り情報1410は、パスの見積りに必要な情報及びパスの見積り結果を保持する。構成見積り情報1410の各エントリは、ボリューム1411と、リード帯域1412と、ライト帯域1413と、リード圧縮率1414と、必要帯域1415と、必要パス数1416と、を有する。
 リード帯域1412及びライト帯域1413は、性能情報取得機能108a、108bを通じて性能情報受信機能144が取得した性能情報700から取得した情報である。リード圧縮率1414は圧縮効果見積り機能1205から取得した圧縮率情報1500に基づく情報である。なお、圧縮率情報1500は構成見積り機能1245が、圧縮管理情報1207に基づき算出してもよい。
 必要帯域1415は、リード帯域1412、ライト帯域1413及びリード圧縮率1414に基づき、構成見積り機能145によって算出された値である。必要パス数1416は、必要帯域1415及びパス帯域情報300に基づき、構成見積り機能145によって算出された値である。
 具体的には、例えば、構成見積り機能145は、各ボリュームの必要帯域1415を、リード帯域×(1-リード圧縮率)+ライト帯域のように算出する。また、例えば、構成見積り機能145は、各ボリュームの必要パス数317を、必要帯域/パス帯域を切り上げた値として算出する。
 図16は、圧縮率情報1500の構成例を示す。圧縮率情報1500は、圧縮効果見積り機能1205が後述の見積り処理により取得し、構成見積り機能145に通知する見積り結果である。
 圧縮率情報1500は、ボリューム毎のエントリを有する。各エントリは、見積りの対象ボリュームの番号を示すボリューム1501と、当該ボリュームにライトされたデータの圧縮率1502と、当該データを圧縮する圧縮方式1503と、を含む。
 図17は、入力画面1241の例を示す。本実施例では、実施例1の入力画面141に代えて又は加えて入力画面1241が図示しないディスプレイ装置上に表示される。入力画面1241は、性能要件入力画面1610を有する。性能要件入力画面1610は、圧縮データ格納機能の効果の見積りに必要な性能要件を入力する画面である。
 管理者は、移行するボリューム毎の性能要件を、性能要件入力画面1610の各エントリに入力する。各エントリは、例えば、移行元サーバID1611と、移行先サーバID1612と、適正化サーバID1613と、ボリューム1614と、リード帯域要件1615と、ライト帯域要件1616と、圧縮方式1617と、を有する。
 図18は、出力画面1242の例を示す。出力画面1242は、管理者に対して、パス数を含むパスの割当ての構成を表示するためにディスプレイ装置(図示なし)上に表示される画面である。出力画面1242は、見積もり結果出力画面1710を有する。
  見積もり結果出力画面1710は、圧縮データ格納機能の効果の見積り結果を表示する画面である。見積もり結果出力画面1710は、例えば、見積りの対象となるAPサーバ装置のサーバID 1711と、見積りの対象ボリュームの番号を示すボリューム1712と、対象ボリュームへのパスに必要な帯域を示す必要帯域1713と、対象ボリュームに必要なパス数1714と、現状、対象ボリュームに割当てられている帯域を示す割当て帯域1715と、割当て帯域と必要帯域の差分を示す剰余帯域1716と、対象ボリュームにライトされたデータの圧縮率1717と、が表示される。
 図19は、圧縮効果見積り指示1900の例を示す。圧縮効果見積り機能1205に対して、圧縮方式適正化機能1246が圧縮率の見積りを指示するときの命令の一例である。圧縮効果見積り指示1900には、圧縮率を見積もる対象のボリュームの番号を示すボリューム1901と、対象のボリュームの圧縮方式1902とが、指定される。
 図20は、圧縮率順位情報2000の例を示す。圧縮率順位情報2000には、圧縮方式によるボリュームの圧縮率の順位が示される。圧縮率順位情報2000は、例えば、圧縮率順位2001として、圧縮率の低い順に圧縮方式2002が示される。
 次に、実施例2のパス割当て処理を説明する。図21は、パス割当て処理のフローチャートの例を示す。以下、計算機システムが実行するパス割当て処理を説明する。この例のパス割当て処理は、第1サブシステムで実行される対象アプリケーション及び対象アプリケーションが使用する対象ボリュームを、第2サブシステムに移行するために行われる。
 S1801において、管理サーバ1240の入力画面1241に情報が入力される。例えば、管理者からの要求に応じ、管理サーバ1240が入力画面1241をディスプレイ装置(図示なし)に出力する。そして、管理者により、入力画面1241に、第2サブシステムの圧縮機能が適用する圧縮方式と、前述の性能要件と、が入力される(図17参照)。
 例えば、性能要件入力画面1610において、移行元サーバID1611には、第1サーバ(サーバ1)が入力され、移行先サーバID1612には、第2サーバ(サーバ2)が入力される。ボリューム824には、第1ストレージから第2ストレージに移行する対象ボリュームとして、VolA及びVolBが入力される。リード帯域要件1615及びライト帯域要件1616には、対象ボリュームに適用する帯域を入力してもよいし、入力せず自動設定するようにしてもよい。圧縮方式1617には、対象ボリュームの圧縮方式が入力される。
 S1002において、性能情報受信機能144は、対象ボリュームの性能情報700を、第1サーバ1200aの性能情報取得機能108aから取得し、構成見積り機能1245に渡す。構成見積り機能1245は、性能情報700に基づき、対象ボリュームのリード帯域及びライト帯域を構成見積もり情報1410に設定し、圧縮方式適正化機能1246に処理を渡す。
 S1803において、圧縮方式適正化機能1246は、圧縮効果見積り機能1205aに対して、圧縮率見積り指示1900を送信する。圧縮率見積り指示1900は、対象ボリュームの圧縮方式を含む(図19参照)。
 S1004において、圧縮効果見積り機能1205aは、圧縮率見積り指示1900に応じて、I/O取得機能102aに対して、I/Oログを取得する。
 S1805において、圧縮効果見積り機能1205aは、圧縮効果の見積り処理を実行する。見積り処理の結果、圧縮管理情報1207及び圧縮率情報1500が生成される。圧縮効果の見積り処理は、例えば以下のように行われる。
 まず、圧縮効果見積り機能1205aは、I/Oリストの各I/O情報について、圧縮効果情報1310を生成する。例えば、圧縮効果見積り機能1205aは、各I/O情報について、I/O種別がリードの場合には、対象ボリュームに対する圧縮前のデータ長を圧縮効果情報1310のリード量1312に加算するとともに、圧縮率見積り指示1900で指定された圧縮方式の圧縮アルゴリズム1206を用いて圧縮後のデータ長を推定し、その圧縮後のデータ長を圧縮リード量1313に加算する。また、例えば、圧縮効果見積り機能1205aは、各I/O情報について、I/O種別がライトの場合には、対象ボリュームに対するデータ長を圧縮効果情報1310のライト量1314に加算する。なお、この例では、リード量、圧縮リード量、ライト量に加算された値は、単位時間当たりの量(速度)とされているが、時間との関係がわかれば、上記のように単純に各量を加算してもよい。
 なお、圧縮後のデータ長の推定をする場合、各I/O情報に基づくデータを、512バイト等の予め定められた512バイト等の固定長に区切った上で、区切られたそれぞれのデータを、指定された圧縮方式の圧縮アルゴリズム1206を用いて、圧縮後のデータ長を推定する。また、圧縮により圧縮前のデータ長より大きくなる場合には、圧縮をしないようにしてもよい。
 次に、圧縮効果見積り機能1205aは、圧縮効果情報1310に基づき、対象ボリュームの圧縮率情報1500を生成する。なお、各ボリュームの圧縮率1502は、リード量1312に対する圧縮リード量1313の割合とする。
 S1806において、圧縮効果見積り機能1205aは、構成見積り機能1245に対し、圧縮率情報1500を送信する。
 S1807において、構成見積り機能1245は、受信した圧縮率情報1500に基づき、構成見積り情報1410に、対象ボリュームのリード圧縮率1414を設定する。そして、構成見積り機能1245は、構成見積り情報1410に基づき、対象ボリュームの必要帯域を算出し、対象ボリュームに割り当てるパス数を見積もり、圧縮方式適正化機能1246に処理を渡す。必要帯域及びパス数の算出方法は、図15で説明した通りである。
 S1808において、圧縮方式適正化機能1246は、パス帯域301及び構成見積り情報1410に基づき、対象ボリュームの剰余帯域を算出し、剰余帯域情報に設定する。剰余帯域情報は、上述の剰余帯域情報410と同様である。また、割当て帯域及び剰余帯域の算出方法は、上述した通りである。
 S1809において、圧縮方式適正化機能1246は、対象ボリュームうち、S1808で算出した剰余帯域が、剰余帯域閾値情報に設定された閾値を超過しているボリュームがあるか否かを判定する。なお、剰余帯域閾値情報は上述の剰余帯域閾値情報420と同様である。
 判定の結果、剰余帯域が閾値を超過しているボリュームがある場合(S1809;Yes)、圧縮方式適正化機能1246は、S1810に処理を進める。一方、判定の結果、対象ボリュームの剰余帯域が全て閾値以内の場合(S1809;No)、圧縮方式適正化機能1246は、パス割当て機能147に処理を渡す(S1811)。
 S1810において、圧縮方式適正化機能1246は、対象ボリュームのうち閾値を超過したボリュームの圧縮方式を変更し、S1803に処理を戻す。この場合、現状の圧縮方式よりも圧縮率の低い(つまり圧縮効率のよい)圧縮方式を設定するのが望ましい。
 このように、対象ボリュームの剰余帯域が閾値を超過した場合には、圧縮方式を変更し、変更後の圧縮方式をもとに、改めて対象ボリュームの圧縮効果見積り処理(S1805)を行い、S1806~1809までの処理を繰り返す。このように、圧縮方式の変更及びキャッシュ効果見積り処理を、対象ボリュームの剰余帯域を閾値以下になるまで繰り返すことで、圧縮方式を適正化できる。圧縮方式を適正化することで、アプリケーション及びボリュームの間のデータの必要帯域を及び剰余帯域を低減して、必要帯域に応じた適切なパス数を設定できる。また、圧縮方式を適正化することにより、圧縮率を低減し、より高速なアクセスが可能となる。
 S1011において、パス割当て機能147は、対象ボリュームにパスを割り当てる。このステップは、実施例1と同様であるため説明を省略する。なお、本実施例では、パス割当て機能147が、対象ボリューム毎の見積り結果としてディスプレイ装置に表示する出力画面1242は、見積り結果出力画面1710である(図18参照)。
 S1812において、パス割当て機能147は、第2サーバ160に対して、移行したAP101aを含むLPARが伸張機能1262を適用する指示を送信する。
 本実施例では、第1サーバ1200及び第2サーバ1260に接続された管理サーバを1240用いて割当て処理を行っていたが、これに限られない。管理サーバ1240が有する機能を、第1サーバ1200又は第2サーバ1260が有するようにしてもよい。
 また、本実施例で説明した第2サブシステムの第2サーバ1260に、実施例1で説明したキャッシュ機能を適用するようにしてもよい。この場合、実施例1の割当て処理と実施例2の割り当て処理を組み合わせておこなってもよい。
 上記処理により、管理サーバ140は、機能として圧縮データ格納機能が適用されていない第1サブシステムを用いて、圧縮データ格納機能を適用される第2サブシステムに、第1サブシステムで稼働する対象アプリケーション及び対象ボリュームを移行した場合の、この間のI/Oに必要な必要帯域を算出できる。これにより、第2サブシステムを用いることなく、移行後の対象ボリュームに割当てる帯域を予め見積もることができる。
 また、第2サブシステムの第2サーバ160及び第2ストレージ120bの間のパス帯域301を取得することで、管理サーバ140は、第2サブシステムに移行した後の、対象アプリケーション及び対象ボリュームの間のパスの数を予め見積もることができる。
 また、第1サーバ1200の圧縮効果見積り機能1205aに対して、圧縮方式を指定できる。これにより、圧縮効果見積り機能1205aが、対象アプリケーション及び対象ボリュームの間のI/Oによるデータの圧縮率を予測できる。従って、第2サブシステムにおいて、指定した圧縮方式の圧縮データ格納機能を適用した場合の、対象アプリケーション及び対象ボリュームの間に必要な必要帯域を算出できる。
 また、対象ボリュームに割当てられている帯域(割当て帯域)と、対象ボリュームの必要帯域と、対象アプリケーション及び対象ボリュームの間のパスの数と、に基づいて、対象ボリュームが使用していない剰余帯域を算出できる。剰余帯域が閾値を超えるか否かを判定することで、対象ボリュームにて適切な数のパスが割当てられているかどうかを判定できる。適正な数のパスが割当てられている場合、移行先の第2サーバにそのパス数と圧縮方式を通知することで、パスを効率よく利用できる。
 また、適正なパスが割当てられていないと判定された場合には、圧縮方式を変更して、圧縮率を低減(つまり、圧縮効率を向上)させることができる。これにより、対象アプリケーション及び対象ボリュームの間のI/Oのデータ量を削減することができる。
 また、圧縮方式を変更した値で、再度圧縮効果の見積処理を行うことで、圧縮率を低減させた場合の対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を再度見積もることができる。そして、剰余帯域が閾値以下になるまでこの見積処理を繰り返すことで、適正な圧縮方式の圧縮データ格納機能による、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を削減させた見積を取得するができる。
 さらに、この例では、I/O取得機能102aが取得した対象のアプリケーション及びのボリュームの間のI/Oログを用いることで、対象のアプリケーション及びボリュームの間に指定圧縮方式の圧縮データ格納機能を用いると仮定した場合の、リード圧縮率を精度よく算出できる。
 なお、この例では、圧縮効果見積り機能1205は、圧縮効果情報1310として、ボリューム毎に、リード速度、圧縮リード速度、ライト速度、の値を算出したが、これらの値は、一定時間分のリード量、圧縮リード量、ライト量であってもよい。
 上述の例は、管理サーバ1240が、構成見積り機能1245等の各種機能を有しており、第1サーバ1200から性能情報700及び圧縮管理情報を取得し、第2サーバからパス帯域情報300を取得して、構成見積り情報1510を算出していた。しかし、管理サーバ1240が有する各種機能を例えば第2サーバ1260等、他のサーバが有していてもよい。また、管理サーバ1240が有する各種機能及び圧縮効果見積り機能1205を実現するプログラムは、記憶媒体に記憶される、APサーバ装置又は他の計算機にインストールされるようにしてもよい。
 また、計算機システムは、対象アプリケーション及び対象ボリュームを第2サブシステムに移行した後、第2サーバ1260を対象にパス割当て処理を行ってもよい。
 以下では、変形例として、移行後の対象アプリケーション及び対象ボリュームにおける、第2サーバ160でのパス割当て処理を説明する。この例では、入力画面1241においては、管理者が、移行元サーバID1611及び移行先サーバID1612の入力に代えて、適正化サーバID1613に第2サーバを入力する。また、ボリューム1614には、対象ボリュームを入力する。リード帯域要件1615及びライト帯域要件1616には、対象ボリュームへのアクセスに必要な帯域を入力する。なお、リード帯域要件1615とライト帯域要件1616の入力は省略されてよいことは上述の通りである。圧縮方式1617には、データの圧縮方式を入力する。
 以下のステップについては、上述した実施例2のパス割当て処理と基本的に同様である。管理サーバ1240の各種機能は、第1サーバ1200の各種機能に代えて第2サーバ1260の各種機能と連携して対象ボリュームに対応するキャッシュメモリのキャッシュ容量を適正化することで、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を調整する。
 例えば、性能情報受信機能144は、性能情報700を第2サーバ160の性能情報取得機能108bから取得し構成見積り機能に渡す(S1002)。また、圧縮方式適正化機能1246は、第2サーバ160のキャッシュ効果見積り機能1205bに対して、圧縮効果見積り指示1900を送信する(S1803)。圧縮効果見積り機能1205bは、圧縮効果見積り指示1900に応じて、I/O取得機能102bに対して、I/Oログの取得を指示する。I/O取得機能102bは、I/Oログを取得し、圧縮効果見積り機能1205bに通知する(S1004)。圧縮効果見積り機能1205bは、圧縮効果の見積り処理を実行する(S1805)。圧縮効果見積り機能1205bは、構成見積り機能145に対して圧情率情報1500を送信する(S1806)。
 なお、I/O取得機能102bは、伸張機能1262と連携してI/Oログを取得してもよい。従って、I/Oログには、各リードデータ及びライトデータのデータ量と、圧縮リード量が記憶されてよい。この場合、圧縮効果見積り機能105は、I/Oログに基づくキャッシュ効果の見積り処理において、圧縮リード量及びリードデータ量に基づきリード圧縮速度を取得するようにしてもよい。
 上記処理により、管理サーバ140の各種機能が、第2サーバ1260上の圧縮効果見積り機能1205b等と連携することで、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を調整できる。
 具体的には、剰余帯域が閾値を超過した場合に圧縮方式を変更し、変更後の圧縮方式について、再度圧縮効果見積り処理を行うことを、剰余帯域が閾値以下になるまで繰り返す。これにより、圧縮方式を適正化し、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を調整できる。また、適正な圧縮方式にすることにより、圧縮率を低減させ、より多くのデータを格納できる。
 また、圧縮効果の見積処理に圧縮効果見積り機能を用いることにより、通常のI/O処理とは別に、対象アプリケーション及び対象ボリュームの間の必要帯域及びパス数を見積ることができる。さらに、LPAR161a内にマルチパス機能を設定するようにしてもよい。これにより、見積り処理の結果に基づき、パス数を変更する場合に、AP101bを停止させずにパス数を増減できる。
100…APサーバ装置、120a…ストレージシステム、140…管理サーバ装置、160…APサーバ装置、120b…ストレージシステム

Claims (15)

  1.  計算機を管理するための方法であって、
     第1ストレージ装置を用いて、ボリュームを提供し、
     前記第1ストレージ装置に接続される第1サーバ装置を用いて、前記ボリュームにアクセスするアクセスプログラムを実行し、
     前記第1サーバ装置を用いて、前記アクセスプログラム及び前記ボリュームの間の第1データ転送速度を測定し、
     前記第1サーバ装置を用いて、前記アクセスプログラムから前記ボリュームに対するアクセスに関する機能であって前記第1サーバ装置及び前記第1ストレージ装置に適用されていない前記機能が前記第1サーバ装置及び第1ストレージ装置により適用されると仮定した場合の前記アクセスプログラム及び前記ボリュームの間のデータ転送速度を示す速度情報を算出し、
     前記第1データ転送速度及び前記速度情報を前記第1サーバ装置から取得し、
     前記第1データ転送速度及び前記速度情報に基づいて、前記機能が適用されている第2サーバ装置及び第2ストレージ装置に前記アクセスプログラム及び前記ボリュームをそれぞれ移行した場合の、前記アクセスプログラム及び前記ボリュームの間に必要な帯域である必要帯域を算出する、
    ことを備える方法。
  2.  前記第2サーバ装置及び前記第2ストレージ装置の間の複数の通信路のそれぞれの通信帯域を取得し、
     前記必要帯域及び前記通信帯域に基づいて、前記アクセスプログラム及び前記ボリュームを前記移行した場合の前記アクセスプログラム及び前記ボリュームの間に必要な通信路数を算出する、
    ことを備える請求項1に記載の方法。
  3.  前記速度情報の算出は、前記アクセスのログを取得し、前記ログに基づいて、前記プログラム及び前記ボリュームの間のデータ転送速度を示す速度情報を算出する、
    ことを備える請求項2に記載の方法。
  4.  前記機能は、前記アクセスプログラム及び前記ボリュームの間にデータをキャッシュするキャッシュ機能であり、
     前記第1サーバ装置に対して、キャッシュ容量を示す情報を前記第1サーバ装置へ送信し、
     前記速度情報は、前記第1サーバ装置が、前記アクセスに前記キャッシュ容量のキャッシュメモリを使用すると仮定した場合の、前記キャッシュメモリのキャッシュヒット率であり、
     前記必要帯域の算出は、前記第1データ転送速度及び前記キャッシュヒット率に基づいて、前記必要帯域を算出する、
    ことを備える請求項3に記載の方法。
  5.  前記通信路数の通信路の合計帯域から前記必要帯域を減ずることで剰余帯域を算出し、
     前記剰余帯域の値が、予め設定された閾値よりも大きいか否かを判定し、
     前記剰余帯域が前記閾値以下の場合に、前記第2サーバ装置に対して、前記通信路数及び前記キャッシュ容量を割り当てることを指示する、
    ことを備える請求項4に記載の方法。
  6.  前記剰余帯域の値が前記閾値よりも大きい場合に、前記キャッシュ容量を変更し、前記変更後のキャッシュ容量を示す情報を前記第1サーバ装置へ送信し、前記変更後のキャッシュ容量でのキャッシュヒット率の取得と、必要帯域の算出と、通信路及び剰余帯域の算出と、を前記閾値以下になるまで繰り返す、
    ことを備える請求項5に記載の方法。
  7.  前記機能は、前記第1ストレージ装置が前記第1サーバ装置からの非圧縮データを前記ボリュームに圧縮してライトすることと、前記第1サーバ装置が前記ボリュームからリードした圧縮データを伸張することを含む圧縮データ格納機能であり、
     前記第1サーバ装置に対して、データの圧縮方式を指定し、
     前記速度情報は、前記圧縮方式を用いた圧縮データ格納機能を前記第1ストレージ装置及び前記第1サーバ装置に適用すると仮定した場合の、前記圧縮データと非圧縮データの比を示す圧縮率であり、
     前記必要帯域の算出は、前記第1データ転送速度及び前記圧縮率に基づいて、前記必要帯域を算出する、
    ことを備える請求項4に記載の方法。
  8.  前記通信路数の通信路の合計帯域から前記必要帯域を減ずることで剰余帯域を算出し、
     前記剰余帯域の値が、予め設定された閾値よりも大きいか否かを判定し、
     前記剰余帯域が前記閾値以下の場合に、前記第2サーバ装置に対して、前記通信路数及び前記圧縮方式を割り当てることを指示する、
    ことを備える請求項7に記載の方法。
  9.  前記剰余帯域の値が前記閾値よりも大きい場合に、前記圧縮方式を変更し、前記変更後の圧縮方式を示す情報を前記第1サーバ装置へ送信し、前記変更後の圧縮方式での圧縮率の取得と、必要帯域の算出と、通信路数及び剰余帯域の算出と、を前記閾値いかになるまで繰り返す、
    ことを備える請求項8に記載の方法。
  10.  プロセスをコンピュータに実行させるプログラムを記憶するコンピュータ読み可能な記憶媒体であって、
     前記プロセスは、
     第1ストレージ装置がボリュームを提供し、第1サーバ装置が前記ボリュームにアクセスするアクセスプログラムを実行する場合、前記アクセスプログラム及び前記ボリュームの間の第1データ転送速度を測定することを、前記第1サーバ装置に実行させ、
     前記アクセスプログラム及び前記ボリュームの間のデータ転送に関する機能であって前記第1サーバ装置及び前記第1ストレージ装置に適用されていない前記機能が前記第1サーバ装置及び前記第1ストレージ装置により適用されると仮定した場合のデータ転送速度を示す速度情報を算出することを、前記第1サーバ装置に実行させ、
     前記第1データ転送速度及び前記速度情報を前記第1サーバ装置から取得し、
     前記第1データ転送速度及び前記速度情報に基づいて、前記機能が適用されている第2サーバ装置及び第2ストレージ装置に前記アクセスプログラム及び前記ボリュームをそれぞれ移行した場合の前記アクセスプログラム及び前記ボリュームの間に必要な帯域である必要帯域を算出する、
    記憶媒体。
  11.  前記プロセスは、
     前記第2サーバ装置及び前記第2ストレージ装置の間の複数の通信路のそれぞれの通信帯域を取得し、
     前記必要帯域及び前記通信帯域に基づいて、前記アクセスプログラム及び前記ボリュームを前記移行した場合の、前記アクセスプログラム及び前記ボリュームの間に必要な通信路数を算出する、
    ことを備える請求項10に記載の記憶媒体。
  12.  第1ストレージ装置に接続される第1サーバ装置に接続される第2サーバ装置と、
     前記第2サーバ装置に接続される第2ストレージ装置と、
    を有し、
     前記第2サーバ装置は、
     前記第1ストレージ装置がボリュームを提供し、前記第1サーバ装置が前記ボリュームにアクセスするアクセスプログラムを実行する場合、前記アクセスプログラム及び前記ボリュームの間の第1データ転送速度を測定することを、前記第1サーバ装置に実行させ、  前記アクセスプログラムから前記ボリュームに対するアクセスに関する機能であって前記第1サーバ装置及び前記第1ストレージ装置に適用されていない前記機能が前記第1サーバ装置及び前記第1ストレージ装置により適用されると仮定した場合の前記アクセスプログラム及び前記ボリュームの間のデータ転送速度を示す速度情報を算出することを、前記第1サーバ装置に実行させ、
      前記第1データ転送速度及び前記速度情報を前記第1サーバ装置から取得し、
      前記第1データ転送速度及び前記速度情報に基づいて、前記機能が適用されている第2サーバ装置及び第2ストレージ装置に前記アクセスプログラム及び前記ボリュームをそれぞれ移行した場合の、前記アクセスプログラム及び前記ボリュームの間に必要な帯域である必要帯域を算出する、
    計算機システム。
  13.  前記第2サーバ装置は、
     前記第2サーバ装置及び前記第2ストレージ装置の間の複数の通信路のそれぞれの通信帯域を取得し、
     前記必要帯域及び前記通信帯域に基づいて、前記アクセスプログラム及び前記ボリュームを前記移行した場合の前記アクセスプログラム及び前記ボリュームの間に必要な通信路数を算出する、
    ことを備える請求項12に記載の計算機システム。
  14.  前記速度情報の算出は、前記第2サーバ装置が、前記第1サーバ装置を用いて、前記アクセスプログラム及び前記ボリュームの間のアクセスのログを取得し、前記ログに基づいて、前記アクセスプログラム及び前記ボリュームの間のデータ転送速度を測定する、
    ことを備える請求項13に記載の計算機システム。
  15.  前記機能は、前記アクセスプログラム及び前記ボリュームの間にデータをキャッシュするキャッシュ機能であり、
     前記第2サーバ装置は、キャッシュ容量を示す情報を前記第1サーバ装置へ送信し、
     前記速度情報は、前記第1サーバ装置が、前記アクセスに前記キャッシュ容量のキャッシュメモリを使用すると仮定した場合の、前記キャッシュメモリのキャッシュヒット率であり、
     前記必要帯域の算出は、前記第2サーバ装置が、前記第1データ転送速度及び前記キャッシュヒット率に基づいて、前記必要帯域を算出する、
    ことを備える請求項14に記載の計算機システム。

     
PCT/JP2016/054767 2016-02-18 2016-02-18 方法、媒体及び計算機システム WO2017141408A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/054767 WO2017141408A1 (ja) 2016-02-18 2016-02-18 方法、媒体及び計算機システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/054767 WO2017141408A1 (ja) 2016-02-18 2016-02-18 方法、媒体及び計算機システム

Publications (1)

Publication Number Publication Date
WO2017141408A1 true WO2017141408A1 (ja) 2017-08-24

Family

ID=59624876

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/054767 WO2017141408A1 (ja) 2016-02-18 2016-02-18 方法、媒体及び計算機システム

Country Status (1)

Country Link
WO (1) WO2017141408A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295790A (ja) * 2003-03-28 2004-10-21 Hitachi Ltd 記憶装置のキャッシュ管理方法
JP2007299161A (ja) * 2006-04-28 2007-11-15 Hitachi Ltd San管理方法およびsan管理システム
JP2014529774A (ja) * 2011-10-28 2014-11-13 株式会社日立製作所 計算機システム及びその管理システム
WO2015087442A1 (ja) * 2013-12-13 2015-06-18 株式会社日立製作所 ストレージシステムの移行方式および移行方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295790A (ja) * 2003-03-28 2004-10-21 Hitachi Ltd 記憶装置のキャッシュ管理方法
JP2007299161A (ja) * 2006-04-28 2007-11-15 Hitachi Ltd San管理方法およびsan管理システム
JP2014529774A (ja) * 2011-10-28 2014-11-13 株式会社日立製作所 計算機システム及びその管理システム
WO2015087442A1 (ja) * 2013-12-13 2015-06-18 株式会社日立製作所 ストレージシステムの移行方式および移行方法

Similar Documents

Publication Publication Date Title
KR102457611B1 (ko) 터넌트-어웨어 스토리지 쉐어링 플랫폼을 위한 방법 및 장치
US10853139B2 (en) Dynamic workload management based on predictive modeling and recommendation engine for storage systems
US10296255B1 (en) Data migration techniques
US8566550B2 (en) Application and tier configuration management in dynamic page reallocation storage system
US20180349030A1 (en) Storage control device, storage control program, and storage system
JP4631301B2 (ja) 記憶装置のキャッシュ管理方法
US9710383B1 (en) Caching techniques
US8782335B2 (en) Latency reduction associated with a response to a request in a storage system
US9323463B2 (en) Storage system and cache control method
US8966143B2 (en) Method for controlling storages and storage control apparatus
JP6260407B2 (ja) ストレージ管理装置、性能調整方法及び性能調整プログラム
US20150154227A1 (en) Method for processing input/output request, host, server, and virtual machine
GB2536514A (en) Storage device and method for controlling storage device
CN114860163B (zh) 一种存储系统、内存管理方法和管理节点
US20190087268A1 (en) Storage array comprising a host-offloaded storage function
WO2015015550A1 (ja) 計算機システム及び制御方法
US10127156B1 (en) Caching techniques
US11644978B2 (en) Read and write load sharing in a storage array via partitioned ownership of data blocks
US20170315924A1 (en) Dynamically Sizing a Hierarchical Tree Based on Activity
CN111949210A (zh) 分布式存储系统中元数据存储方法、系统及存储介质
JP2023553316A (ja) ストレージシステム最適化を使用したアプリケーション性能の強化
US11842051B2 (en) Intelligent defragmentation in a storage system
US10101917B1 (en) Evaluating and selecting data caching techniques
US9933952B1 (en) Balancing allocated cache pages among storage devices in a flash cache
US9811380B1 (en) Dynamic allocation of CPU resources based on system load trends

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16890549

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16890549

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP