WO2017094077A1 - ストレージシステムおよびストレージシステムの制御方法 - Google Patents
ストレージシステムおよびストレージシステムの制御方法 Download PDFInfo
- Publication number
- WO2017094077A1 WO2017094077A1 PCT/JP2015/083629 JP2015083629W WO2017094077A1 WO 2017094077 A1 WO2017094077 A1 WO 2017094077A1 JP 2015083629 W JP2015083629 W JP 2015083629W WO 2017094077 A1 WO2017094077 A1 WO 2017094077A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- storage device
- storage
- disk device
- path
- host computer
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000008569 process Effects 0.000 claims abstract description 100
- 230000004044 response Effects 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 54
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 14
- 238000013500 data storage Methods 0.000 abstract description 2
- 230000006866 deterioration Effects 0.000 abstract 1
- 238000007726 management method Methods 0.000 description 98
- 230000008707 rearrangement Effects 0.000 description 19
- 238000002360 preparation method Methods 0.000 description 16
- 238000012546 transfer Methods 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
Definitions
- the present invention relates to a storage system.
- a storage system including a primary disk device and a secondary disk device is known.
- the primary disk device and the secondary disk device are connected to each other.
- Each of the primary disk device and the secondary disk device is connected to the host computer via a network.
- the host computer transmits an I / O request to the primary disk device using the optimal path.
- the user sets the optimum path between the host computer and the secondary disk unit for the host computer. As a result, the host computer transmits an I / O request to the secondary disk device using the optimum path.
- Patent Document 1 when a data replication instruction is issued in a storage system, the A device transfers data having a high read usage frequency from the A device to the B device based on the statistical value of the data read frequency. It is described to do.
- the I / O performance may deteriorate due to the load on the secondary disk device.
- a storage system includes a first storage device connected to a host computer, a second storage device connected to the host computer and the first storage device, Is provided.
- the first storage device provides a first volume to the host computer
- the second storage device provides a second volume as the first volume to the host computer, and the host computer and the first volume
- the first storage device When one I / O request is received, first I / O processing is performed based on the first I / O request, and first storage location information indicating a data storage location based on the first I / O processing
- the first storage device detects a state in which the I / O performance of the first storage device may be degraded
- the first storage device When the second storage device receives the first storage location information, the second storage device executes a first process based on the first storage location information, and sends the location information to the second storage device.
- summary of embodiment is shown.
- the hardware configuration of a storage system is shown.
- the logical configuration of the storage system is shown.
- 10 shows an LU management table 420 according to the first embodiment.
- a path management table 440 is shown.
- the data address management table 430 is shown.
- the cooperation process of Example 1 is shown. Switching event detection processing is shown.
- the cash table sending process is shown.
- the pre-staging process is shown.
- the path switching process is shown. Indicates cache release processing.
- 22 shows an LU management table 420 according to the second embodiment.
- a tier management table 450 is shown.
- An access frequency table 460 is shown.
- the cooperation process of Example 2 is shown. Data relocation processing is shown.
- xxx table information may be described using the expression “xxx table”, but the information may be expressed in any data structure. That is, “xxx table” can be referred to as “xxx information” to indicate that the information does not depend on the data structure.
- xxx information information may be described using the expression “xxx table”, but the information may be expressed in any data structure. That is, “xxx table” can be referred to as “xxx information” to indicate that the information does not depend on the data structure.
- the configuration of each table is an example, and one table may be divided into two or more tables, or all or part of the two or more tables may be a single table. Good.
- an ID is used as element identification information, but other types of identification information may be used instead of or in addition thereto.
- a reference number or a common number in the reference number is used, and when a description is made by distinguishing the same type of element, the reference number of the element is used.
- an ID assigned to the element may be used instead of the reference code.
- an I / O (Input / Output) request is a write request or a read request, and may be referred to as an access request.
- the process may be described using “program” as a subject.
- the program is executed by a processor (for example, a CPU (Central Processing Unit)), so that a predetermined processing is appropriately performed. Since processing is performed using a storage resource (for example, a memory) and / or an interface device (for example, a communication port), the subject of processing may be a processor.
- the process described with the program as the subject may be a process or system performed by a processor or an apparatus having the processor.
- the processor may include a hardware circuit that performs a part or all of the processing.
- the program may be installed in a computer-like device from a program source.
- the program source may be, for example, a storage medium that can be read by a program distribution server or a computer.
- the program distribution server may include a processor (for example, a CPU) and a storage resource, and the storage resource may further store a distribution program and a program to be distributed. Then, the processor of the program distribution server executes the distribution program, so that the processor of the program distribution server may distribute the distribution target program to other computers.
- a processor for example, a CPU
- the storage resource may further store a distribution program and a program to be distributed. Then, the processor of the program distribution server executes the distribution program, so that the processor of the program distribution server may distribute the distribution target program to other computers.
- two or more programs may be realized as one program, or one program may be realized as two or more programs.
- the management system may include one or more computers.
- the management computer displays information (specifically, for example, the management computer displays information on its own display device, or the management computer displays display information in a remote display computer)
- Management computer is the management system.
- the plurality of computers may include a display computer when the display computer performs display
- the management computer (eg, management system) may include an interface device connected to the I / O system including the display system, a storage resource (eg, memory), and a processor connected to the interface device and the storage resource.
- the display system may be a display device included in the management computer or a display computer connected to the management computer.
- the I / O system may be an I / O device (for example, a keyboard and a pointing device or a touch panel) included in the management computer, a display computer connected to the management computer, or another computer.
- “Displaying display information” by the management computer means displaying the display information on the display system, which may be displaying the display information on a display device included in the management computer.
- the management computer may transmit display information to the display computer (in the latter case, the display information is displayed by the display computer).
- the management computer inputting / outputting information may be inputting / outputting information to / from an I / O device of the management computer, or a remote computer connected to the management computer (for example, a display) Information may be input / output to / from the computer.
- the information output may be a display of information.
- FIG. 1 shows an outline of the embodiment.
- the storage system includes a primary disk device 10a and a secondary disk device 10b. When there is no need to distinguish between the primary disk device 10a and the secondary disk device 10b, each may be referred to as a disk device. Each of the primary disk device 10 a and the secondary disk device 10 b is connected to the host computer 20.
- the disk device includes a control unit 310, a cache memory 140, and a disk chassis 160.
- the disk chassis 160 includes a plurality of disks 161.
- the cache memory 140 includes a data cache 410 that stores user data and storage location information 400.
- the control unit 310 of the primary disk device 10 a creates a volume A using the disk 161.
- the control unit 310 of the secondary disk device 10b creates a volume B using the disk 161.
- the primary disk device 10a and the secondary disk device 10b create a pair of volume A and volume B, and perform synchronous copy with each other. That is, when the primary disk device 10 a receives write data to the volume A from the host computer 20, it writes the write data to the volume A and volume B and responds to the host computer 20. Similarly, when the secondary disk device 10b receives write data from the host computer 20 to volume B, it writes the write data to volume B and volume A and responds to the host computer 20. As a result, the host computer 20 can access the same data regardless of whether the volume A or the volume B is accessed.
- the host computer 20 includes a path management unit 21.
- the path management unit 21 sets one of the path to the primary disk device 10a and the path to the secondary disk device 10b as an optimum path and the other as a non-optimal path based on input from the user in advance. .
- the path to the primary disk device 10a is set as the optimal path
- the path to the secondary disk device 10b is set as the non-optimal path.
- the path management unit 21 transmits an I / O request using the optimum path.
- the path management unit 21 sets the path to the volume A as the optimal path and sets the path to the volume B as the optimal path in advance according to the input from the user.
- the primary disk device 10a When the primary disk device 10a detects a specific state in which the I / O performance of the primary disk device 10a may be degraded, the primary disk device 10a transmits the storage location information 400 to the secondary disk device 10b.
- the secondary disk device 10b receives the storage location information 400, the secondary disk device 10b performs a first process involving disk access based on the storage location information 400.
- the first processing includes staging from the disk 161 to the data cache 410, data relocation for moving data between the disks 161, and the like.
- the path management unit 21 of the host computer 20 receives information indicating path switching in response to an I / O request to the primary disk device 10a, and based on the information, determines the optimum path from the primary disk device 10a. Switch to the secondary disk device 10b. Thereafter, the path management unit 21 transmits an I / O request to the secondary disk device 10b. Upon receiving the I / O request, the secondary disk device 10b executes I / O processing.
- the secondary disk device 10b executes the I / O process while the primary disk device 10a is in the specified state
- the primary disk device 10a in the specified state executes the I / O process.
- I / O performance can be improved.
- the logical storage areas Volume A and Volume B are synchronized, but the physical storage areas such as the data cache 410 and storage tier assigned to these volumes are not synchronized with each other. . Therefore, before the host computer 20 switches the path, the storage location information 400 can be used to synchronize the physical storage area of the secondary disk device 10b with the physical storage area of the primary disk device 10a.
- the contents of the data cache 410 of the secondary disk device 10b differ from the contents of the data cache 410 of the primary disk device 10a. O performance may deteriorate.
- the primary disk device 10a detects a specific state
- the cache table indicating the data stored in the data cache 410 is transmitted to the secondary disk device 10b as the storage location information 400, and the secondary disk The device 10b performs staging based on the cache table before switching the optimum path.
- Fig. 2 shows the hardware configuration of the storage system.
- the disk device includes a channel control unit 110 (CHA), a processor 120, a connection unit 130 (switch), a cache memory 140, a disk control unit 150, and a disk chassis 160.
- CHA channel control unit 110
- processor 120 processor 120
- connection unit 130 switch
- cache memory 140 cache memory
- disk control unit 150 disk control unit 150
- disk chassis 160 disk chassis 160
- the channel control unit 110, the processor 120, the cache memory 140, and the disk control unit 150 are connected to the connection unit 130.
- the channel control unit 110 includes a port 112 connected to the host computer 20 and other disk devices, and a data transfer circuit 111 that performs data transfer with the host computer 20 and other disk devices.
- the disk control unit 150 includes a data transfer circuit 151 that performs data transfer with the disk chassis 160.
- the disk chassis 160 includes a plurality of disks 161.
- the disk 161 is an HDD (Hard Disk Drive), SSD (Solid Disk Disk), or the like.
- the cache memory 140 stores programs and data.
- the processor 120 executes processing according to a program stored in the cache memory 140.
- the host computer 20 is connected to the primary disk device 10a and the secondary disk device 10b via a communication network such as a SAN (Storage Area Network).
- a communication network such as a SAN (Storage Area Network).
- the specific channel control unit 110 of the primary disk device 10a and the specific channel control unit 110 of the secondary disk device 10b are connected by an inter-disk device path.
- FIG. 3 shows the logical configuration of the storage system.
- the cache memory 140 stores a program for the control unit 310, a program for the performance monitor unit 320, performance statistics information 321, a program for the failure monitor unit 330, and error count information 340.
- the cache memory 140 further stores a data cache 410, an LU management table 420, a data address management table 430, a path management table 440, a tier management table 450, and an access frequency table 460.
- the cache memory 140 may not store the Tier management table 450 and the access frequency table.
- the control unit 310 controls the disk device.
- the performance monitor unit 320 monitors the performance of the disk device and stores the result as performance statistical information 321.
- the failure monitor unit 330 monitors the failure of the disk device and stores the result as error count information 340.
- the data cache 410 is an area for storing user data.
- the LU management table 420 manages LUs.
- the data address management table 430 is created for each LU and manages the address of each page in the LU.
- a page is a logical storage area having a predetermined page size. The page size may be the size of another storage area such as a block, slot, or segment.
- the path management table 440 is created for each LU, and manages the path between the host computer 20 and the LU.
- the cache memory 140 may further store a table indicating an association between a page and a physical page (physical storage area) in the disk 161.
- a physical page may be referred to as a device area.
- the primary disk device 10a creates a volume A as an LU (Logical Unit) using the disk 161.
- the secondary disk device 10b creates volume B as an LU that uses the disk 161.
- the primary disk device 10a and the secondary disk device 10b perform synchronous copying between the volume A and the volume B, thereby reflecting the update to one volume on the other volume.
- the secondary disk device 10b creates a virtual primary disk device 10aa having the same identification information as the identification information of the primary disk device 10a, and provides it to the host computer 20. Further, the secondary disk device 10 b uses the volume B to create a virtual volume A having the same identification information as the identification information of the volume A in the virtual primary disk device 10 aa and provides it to the host computer 20. As a result, the host computer 20 can access the virtual primary disk device 10aa in the same manner as the primary disk device 10a by switching the path, and can access the virtual volume A in the same manner as the volume A. it can.
- the host computer 20 sets a path to the primary disk device 10a as an optimal path and sets a path to the secondary disk device 10b as a non-optimal path. As a result, the host computer 20 transmits an I / O request to the primary disk device 10a.
- the disk device may create a PG (Parity Group or RAID Group) using a plurality of disks 161 and create an LU using the PG. Further, the disk device may create a pool volume that uses a PG and create a virtual volume that uses the pool volume as an LU. Further, the disk device allocates a plurality of types of disks 161 to a plurality of tiers, creates a virtual volume using the plurality of tiers as an LU, and rearranges data between the tiers at a preset start timing. You may go.
- PG Policy Group or RAID Group
- FIG. 4 shows the LU management table 420 of the first embodiment.
- the LU management table 420 has an entry for each LU.
- One LU entry includes an LU number 421 indicating the LU, a data address management table pointer 422 indicating the data address management table 430 of the LU on the cache memory 140, and a path management table of the LU on the cache memory 140.
- a path management table pointer 423 indicating 440 and a switching determination 424 indicating a determination result as to whether or not to switch the path are included.
- LU-specific identification information such as a virtual volume ID, LUN, or WWN may be used.
- FIG. 5 shows the path management table 440.
- the path management table 440 is created for each LU.
- the path management table 440 for one LU has an entry for each path.
- One path entry includes an LU number 441 indicating the LU, a disk device number 442 indicating the disk device including the LU, a port ID 443 indicating the port 112 used for the path, and the current path attribute of the path.
- Current path attribute 444 and next path attribute 445 which is the next path attribute of the path.
- the path attribute indicates one of an optimal path (Active / Optimized) and a non-optimal path (Active / Non-optimized).
- a plurality of paths may be set for one LU and one disk device. In this case, the plurality of paths correspond to the plurality of ports 112, respectively.
- FIG. 6 shows the data address management table 430.
- the data address management table 430 is created for each LU.
- the data address management table 430 of one LU has an entry for each page in the LU.
- One page entry includes an LU number 431 indicating the LU, a data address 432 indicating the page in the LU, a cache address 433 indicating a cache area corresponding to the page in the cache memory 140, and the page.
- the last access time 434 to the page includes a sequential (Seq) determination 435 indicating a determination result of whether or not the write to the page is a sequential write, and a status 436 of the data of the page.
- the status 436 indicates Dirty that indicates data that has not been destaged, Clean that indicates data that has been destaged, and Read that indicates data that has been staged from the disk 161.
- a page ID may be used instead of the data address 432.
- a slot ID may be used instead of the data address management table 430.
- FIG. 7 shows the cooperation process of the first embodiment.
- This sequence shows the operation of the primary disk device 10a and the secondary disk device 10b.
- the path from the host computer 20 to the primary disk device 10a is set to an optimum path
- the path from the host computer 20 to the secondary disk device 10b is set to a non-optimal path.
- the primary-side disk device 10a performs a switching trigger detection process. Thereafter, in S1120, the primary disk device 10a determines whether or not an event has been detected as a result of the switching trigger detection process.
- the event is a state where there is a possibility that the I / O performance of the primary side disk device 10a may be lowered due to a preset failure or overload, and it is preferable to switch the path to the secondary side disk device 10b.
- the events are disk blockage, disk blockage prediction, data relocation in storage tier virtualization, backend high load, and the like.
- a load is applied to the primary disk device 10 a such as copying data from the predicted disk 161 to a spare disk in another disk 161.
- the primary disk device 10a performs a cache table sending process.
- the primary disk device 10a creates a cache table indicating information necessary for staging for the target LU related to the event, and transmits the cache table to the secondary disk device 10b.
- the secondary disk device 10b that has received the cache table performs a pre-staging process in S1140.
- the secondary disk device 10b performs staging of the data of the target LU based on the cache table.
- the secondary disk device 10b transmits a preparation completion report to the primary disk device 10a.
- the primary disk device 10a that has received the preparation completion report and the secondary disk device 10b that has transmitted the preparation completion report perform path switching processing.
- the host computer 20, the primary disk device 10a, and the secondary disk device 10b switch the optimum path (host access path) of the target LU from the primary disk device 10a to the secondary disk device 10b.
- the primary disk device 10a performs a cache release process and ends this sequence.
- the primary disk device 10a releases the cache of the target LU.
- the storage system can suppress a decrease in I / O performance due to a specific state.
- FIG. 8 shows a switching trigger detection process
- the failure monitor unit 330 performs a disk failure check.
- the failure monitor unit 330 detects a failure of the disk 161.
- the failure monitor unit 330 determines whether a failure has occurred based on the result of the disk failure check.
- the control unit 310 detects this failure as an event, determines that path switching is valid, and targets related to the detected event The LU is specified, the target LU switching determination in the LU management table 420 is set to ON, and this flow ends.
- the failure monitor unit 330 acquires ORM (Online Read Margin) information in S1230.
- ORM Online Read Margin
- the failure monitor unit 330 is connected to the S.I. M.M. A. R.
- An ORM value indicating the state of the disk 161 is acquired using T (Self-Monitoring, “Analysis” and “Reporting Technology”), and stored as error count information 340.
- the ORM value is, for example, the number of accumulated read errors or the number of retries.
- the failure monitoring unit 330 determines whether or not the ORM value is greater than a preset ORM threshold.
- the control unit 310 detects a state in which the disk 161 is likely to be closed as an event, and shifts the processing to S1270.
- the performance monitor unit 320 collects the performance statistical information 321 of the primary disk device 10a.
- the performance statistical information 321 indicates, for example, a back-end load.
- the back-end load indicates, for example, the ratio of the IOPS indicating the back-end load to the upper limit.
- the performance monitoring unit 320 determines whether or not the backend load is overloaded based on the performance statistical information 321. For example, the performance monitoring unit 320 determines that the back-end load is overloaded when the back-end load is greater than a preset back-end load threshold.
- control unit 310 When it is determined that the backend load is overloaded (S1260: Y), the control unit 310 detects this backend high load as an event, and shifts the processing to S1270.
- control unit 310 ends this flow.
- the primary disk device 10a can detect an event that requires the optimal path to be switched to the secondary disk device 10b.
- the primary disk device 10a may execute S1270 when another event is detected.
- the primary disk device 10a issues a health check request to the secondary disk device 10b, and the response indicates that the same phenomenon as the event has not occurred in the secondary disk device 10b. If indicated, it may be determined that the path switching is effective. As a result, the storage system can prevent path switching when performance merit is not obtained even when the optimum path of the target LU is switched to the secondary disk device 10b.
- the secondary disk device 10b that has received the health check request determines whether any of a plurality of preset phenomena has occurred, and transmits the determination result as a response to the primary disk device 10a.
- the plurality of phenomena include, for example, the following.
- a disk failure check similar to S1210 detects that a failure has occurred in the disk in the PG assigned to the target LU.
- -The target LU is being relocated.
- -The usage rate of the PG including the target LU is higher than a preset PG usage rate threshold.
- the usage rate of the processor in charge of the target LU is higher than a preset processor usage rate threshold.
- the WritePending rate of the data cache 410 is higher than a preset WP rate threshold.
- the primary disk device 10a can detect whether or not there is a possibility that the I / O performance of the secondary disk device 10b is reduced, and the I / O performance of the secondary disk device 10b is reduced. When it is determined that there is no possibility, the next cache table sending process is performed.
- FIG. 9 shows the cache table sending process.
- the primary disk device 10a refers to the entry of the target LU in the LU management table 420. Thereafter, in S1320, the primary disk device 10a refers to the current path attribute of the primary disk device 10a in the path management table 440 of the target LU based on the path management table pointer of the target LU. Thereafter, in S1330, the primary disk device 10a determines whether or not the current path attribute of the primary disk device 10a in the target LU is an optimal path.
- the primary disk device 10a determines whether to switch the target LU in the LU management table 420 in S1340. Set to OFF, and this flow ends.
- the primary disk device 10a updates the path management table 440 of the target LU.
- the primary disk device 10a changes the next path attribute of the primary disk device 10a to a non-optimal path and changes the next path attribute of the secondary disk device 10b to an optimal path in the target LU path management table 440. .
- the primary disk device 10a refers to the data address management table 430 of the target LU based on the data address management table pointer of the target LU. Thereafter, in S1370, the primary disk device 10a acquires reference data from the data address management table 430 of the target LU. For example, the reference data includes the LU number, data address, last access time, and sequential determination of each entry in the data address management table 430 of the target LU. Thereafter, in S1380, the primary disk device 10a transfers the reference data to the secondary disk device 10b as a cache table. The cache table has an entry of reference data for each page. Thereafter, in S 1390, the primary disk device 10 a sets the target LU switching determination in the LU management table 420 to OFF, and ends this flow.
- the primary disk device 10a sets the target LU switching determination in the LU management table 420 to OFF, and ends this flow.
- the cache table may have only the reference data of the entry whose cache address is valid in the data address management table 430 of the target LU. In other words, the cache table may have only the reference data of the entry of only the page stored in the data cache 410 in the data address management table 430 of the target LU.
- the state of the data cache 410 of the primary disk device 10a can be transmitted to the secondary disk device 10b.
- FIG. 10 shows the pre-staging process.
- the secondary disk device 10b identifies the target LU by referring to the LU number of the target LU from the received cache table. Thereafter, in S1420, the secondary disk device 10b synchronizes the path management table 440 of the target LU with the path management table 440 of the primary disk device 10a.
- the secondary-side disk device 10b refers to the target LU path management table 440 based on the target LU entry in the LU management table 420, and in the target LU path management table 440, in the same way as S1350 described above, The next path attribute of the disk device 10a is changed to a non-optimal path, and the next path attribute of the secondary disk device 10b is changed to an optimum path.
- the secondary-side disk device 10b sequentially refers to the entries in the cache table and stages the data based on the referenced entries.
- the secondary disk device 10b refers to the data address of the entry and reads data from the data address of the disk 161 to the data cache 410. Further, the secondary disk device 10b sets the cache address to the staged cache address and sets the status to Read in the corresponding entry in the data address management table 430 of the target LU. Further, the secondary disk device 10b sets the last access time of the entry referenced in the cache table to the last access time of the corresponding entry in the data address management table 430 of the target LU.
- the secondary disk device 10b determines whether or not the sequential determination of the entry is ON.
- the secondary disk device 10b sets the sequential determination of the data address management table 430 to ON, and the process proceeds to S1460. .
- the secondary disk device 10b determines whether or not all entries in the cache table have been referenced. When it is determined that all entries in the cache table have not been referred to yet (S1460: N), the secondary disk device 10b returns the process to S1430 and refers to the next entry. If it is determined that all entries in the cache table have been referenced (S1460: Y), the secondary-side disk device 10b ends this flow.
- the secondary disk device 10b can match the data in the data cache 410 with the data cache 410 of the primary disk device 10a before the host computer 20 switches the path. Thereby, the cache hit rate in the secondary disk device 10b can be increased.
- the secondary disk device 10b may execute the pre-staging process according to the policy, or may change the policy according to an instruction from the user. For example, in the first policy, the secondary disk device 10b transmits a preparation completion report to the primary disk device 10a in S1150 after completion of the pre-staging process. For example, in the second policy, the secondary disk device 10b transmits a preparation completion report to the primary disk device 10a in S1150 after the start of the pre-staging process. As a result, the time required to switch the optimum path to the secondary disk device 10b can be shortened, and the I / O performance of the storage system may be improved.
- the secondary disk device 10b transmits a preparation completion report to the primary disk device 10a in S1150 after the start of the pre-staging process.
- the last access time in the cache table is Browse from the new entry in order.
- FIG. 11 shows the path switching process.
- the host computer 20, the primary disk unit 10a, and the secondary disk unit 10b use ALUA (Asymmetric Logical Unit Unit Access) in communication for path switching processing.
- ALUA Asymmetric Logical Unit Unit Access
- the host computer 20 transmits a host I / O (I / O request) to the primary disk device 10a based on information on the optimal path set in advance. Thereafter, in S1520, the primary disk device 10a receives the host I / O and performs I / O processing according to the host I / O. In step S1530, the primary disk device 10a responds to the host computer 20 with path information indicating the next path attributes of the primary disk device 10a and the secondary disk device 10b in the target LU path management table 440, and the path of the target LU. The value of the next path attribute is set to the current path attribute of the primary disk device 10a and the secondary disk device 10b in the management table 440.
- the host computer 20 that has received the path information sets the path to the secondary disk device 10b as the optimum path by performing path switching according to the path information, and sets the path to the primary disk device 10a. Set as a non-optimal path.
- the host computer 20 transmits the host I / O to the secondary disk device 10b based on the updated optimal path information.
- the secondary disk device 10b receives the host I / O and performs I / O processing according to the host I / O.
- the secondary disk device 10b changes the path management table 440 to synchronize the path management table 440 with the path management table 440 of the primary disk device 10a, and ends this flow.
- the secondary disk device 10b sets the value of the next path attribute to the current path attribute of the primary disk device 10a and the secondary disk device 10b in the path management table 440 of the target LU.
- the host computer 20, the primary disk device 10a, and the secondary disk device 10b can cooperate to switch the optimal path. it can.
- the host computer 20 may transmit host I / O to the secondary disk device 10b.
- the secondary disk device 10b transmits the path information to the host computer 20 and updates the path management table 440.
- the secondary disk device 10b may notify the primary disk device 10a of path switching, and the primary disk device 10a may update the path management table 440 according to the notification.
- FIG. 12 shows the cache release process
- the primary disk device 10a sequentially refers to the entries in the data address management table 430 of the target LU, and refers to the status of the entry.
- the primary disk device 10a determines whether or not the referenced status is Dirty.
- the primary disk device 10a destages the data stored in the cache address of the entry to the data address of the entry. After that, in S1640, the primary disk device 10a changes the status of the entry to Clean, and shifts the processing to S1650.
- the primary disk device 10a releases the slot corresponding to the entry in the data cache 410. Thereafter, in S1660, the primary disk device 10a determines whether or not all entries in the data address management table 430 of the target LU have been referenced. When it is determined that all entries have not been referred to yet (S1660: N), the primary disk device 10a returns the process to S1610 and refers to the next entry. When it is determined that all entries have been referred to (S1660: Y), the primary disk device 10a ends this flow.
- the primary disk device 10a can release the cache area of the target LU that is not accessed by the path switching processing. As a result, the primary disk device 10a can quickly use the data cache 410 when the next optimal path is reached.
- the storage system After the cooperation processing, the storage system performs return processing for returning the optimum path to the primary disk device 10a.
- FIG. 13 shows the return process
- This sequence shows the operation of the primary disk device 10a and the secondary disk device 10b.
- the primary disk device 10a confirms the state of the event detected in the cooperation process. Thereafter, in S1720, the primary disk device 10a determines whether or not the event has ended as a result of the confirmation.
- the primary disk device 10a transmits a switching request to the secondary disk device 10b.
- the secondary disk device 10b that has received the switching request performs a cache table sending process in the reverse direction to S1130 described above.
- the secondary disk device 10b transmits to the primary disk device 10a a cache table based on the data address management table 430 of the target LU of the secondary disk device 10b.
- the primary disk device 10a that has received the cache table performs a pre-staging process in the reverse direction to S1140 described above.
- the primary disk device 10a performs staging of the data of the target LU based on the cache table.
- the primary disk device 10a transmits a quasi-book completion report to the secondary disk device 10b.
- the secondary disk device 10b that has received the preparation completion report and the primary disk device 10a that has transmitted the preparation completion report perform path switching processing.
- the host computer 20, the primary disk device 10a, and the secondary disk device 10b switch the optimum path of the target LU from the secondary disk device 10b to the primary disk device 10a.
- the primary disk device 10a performs a cache release process and ends this sequence.
- the primary disk device 10a releases the cache of the target LU.
- the event is a prediction of disk blockage, and when the primary disk device 10a performs dynamic sparing, it is divided into a case with copy back and a case without copy back.
- dynamic sparing data of a deteriorated disk determined to be deteriorated by ORM information is copied to a spare disk.
- the primary disk device 10a performs copy back to copy the data of the spare disk to the new disk connected by replacement of the deteriorated disk after the data is written to the spare disk.
- the secondary disk device 10b determines that the event has ended when the copy back is completed.
- the primary disk device 10a When there is no copy back, the primary disk device 10a does not perform copy back after data is written to the spare disk, uses the spare disk instead of the deteriorated disk, and uses the new disk as a spare disk. In this case, in S1720 described above, the secondary-side disk device 10b determines that the event has ended when data is written to the spare disk.
- the secondary disk device 10b determines that the event has ended when the replacement of the blocked disk and the parity regeneration in the PG after the replacement have ended.
- the secondary disk device 10b determines that the event has ended when the data relocation is completed.
- the secondary disk device 10b determines that the average of the backend load from the past to the present during the preset measurement time is equal to or less than the backend load threshold. It is determined that the event has ended.
- the optimum path can be returned to the primary disk device 10a having higher performance than the secondary disk device 10b. Thereby, the I / O performance of the storage system can be improved.
- the host computer 20 or a management computer connected to the storage system via a network may transmit disk device setting information.
- the setting information of the switching trigger detection process indicates an event condition in the switching trigger detection process such as a back-end load threshold.
- the setting information of the pre-staging process indicates a policy.
- the primary disk unit 10a When the primary disk device 10a detects the blockage of the disk 161 and performs the recovery process, the primary disk unit 10a receives a response from the host computer 20 during the recovery process by reducing the copy speed from the disk 161 to the other disk 161. Priority can be given to processing of I / O requests. However, in this case, the recovery process takes a long time. According to the present embodiment, it is possible to suppress the recovery processing time and to suppress the decrease in I / O performance.
- each of the primary disk device 10a and the secondary disk device 10b performs storage tier virtualization.
- the I / O performance of the disk device deteriorates. Therefore, in this embodiment, a disk device different from the disk device that is executing the data rearrangement process executes the I / O process.
- FIG. 14 shows the LU management table 420 of the second embodiment.
- one LU entry in the LU management table 420 of the second embodiment has an access frequency table pointer 425 instead of the data address management table pointer 422.
- the access frequency table pointer 425 points to the access frequency table 460 of the LU on the cache memory 140.
- FIG. 15 shows a Tier management table 450.
- the Tier management table 450 is created for each LU.
- the tier management table 450 of one LU has an entry for each page.
- the entry of one page includes an LU number 451 indicating the LU, a page ID 452 indicating the page, and a current Tier 453 indicating the current Tier of the page.
- FIG. 16 shows an access frequency table 460.
- the access frequency table 460 is created for each LU.
- the access frequency table 460 for one LU has an entry for each page.
- One page entry includes an LU number 461 indicating the LU, a page ID 462 indicating the page, a random write frequency 463 (IOPS) measured for the page, and a sequential measured for the page.
- the write frequency 464 (IOPS), the random read frequency 465 (IOPS) measured for the page, the sequential read frequency 466 (IOPS) measured for the page, and the page are determined.
- next tier 467 indicating the next tier.
- the control unit 310 manages the LU for each page of a predetermined size for storage tier virtualization. Further, the control unit 310 determines the type of I / O (random write, sequential write, random read, sequential read) for each page, measures the access frequencies 463 to 466 for each type, and displays the measurement results in the access frequency table. Save to 460. Further, the control unit 310 determines the next Tier 467 based on the measurement result.
- I / O random write, sequential write, random read, sequential read
- control unit 310 performs data rearrangement processing according to a schedule set in advance by the user.
- FIG. 17 shows the cooperation process of the second embodiment.
- This sequence shows the operation of the primary disk device 10a and the secondary disk device 10b.
- the primary disk device 10a performs a data rearrangement detection process instead of the switching trigger detection process.
- the primary disk device 10a detects a data rearrangement event indicating that it is time to start the data rearrangement process based on the schedule of the data rearrangement process.
- the primary disk device 10a determines whether or not a data rearrangement event has been detected as a result of the data rearrangement detection process.
- the primary disk device 10a performs an access frequency table sending process.
- the primary disk device 10a transmits the access frequency table 460 of the target LU of the data relocation process to the secondary disk device 10b instead of S1360 to S1380.
- the primary disk device 10a may transmit only the entries in the access frequency table 460 that have different current tiers and next tiers to the secondary disk device 10b. Further, the primary disk device 10a may transmit the LU number, page ID, and next tier in the access frequency table 460 to the secondary disk device 10b.
- the secondary disk device 10b that has received the access frequency table 460 performs data relocation processing in S2140.
- the secondary disk device 10b performs data movement (promotion or demotion) between the storage tiers based on the access frequency table 460.
- the secondary disk device 10b that has completed the data relocation processing transmits a preparation completion report to the primary disk device 10a in S2150.
- the primary disk device 10a that has received the preparation completion report and the secondary disk device 10b that has transmitted the preparation completion report perform path switching processing in S2160.
- the secondary disk device 10b changes the next path attribute of the secondary disk device 10b to the non-optimal path in the path management table 440 of the target LU, contrary to the above S1350, and the primary disk device 10a. Change the next path attribute to the optimal path.
- the primary disk device 10a that has completed the data relocation processing transmits a preparation completion report to the secondary disk device 10b in S2230.
- the secondary disk device 10b that has received the preparation completion report and the primary disk device 10a that has transmitted the preparation completion report perform path switching processing in S2240 and terminate this sequence.
- the secondary disk device 10b executes the data relocation processing, and then switches the optimum path to the secondary disk device 10b, so that the secondary disk device 10b performs I during the data relocation processing. It is possible to prevent the / O process from being executed. Thereafter, while the secondary disk device 10b is executing I / O processing, the primary disk device 10a executes data relocation processing, and then switches the optimum path to the primary disk device 10a. It is possible to prevent the side disk device 10a from executing the I / O process during the data rearrangement process. As a result, it is possible to prevent a decrease in I / O performance of the storage system due to data relocation processing. Further, the primary disk device 10a transmits the next tier to the secondary disk device 10b, so that the secondary disk device 10b can quickly execute an appropriate data rearrangement process.
- FIG. 18 shows the data rearrangement process.
- the disk device confirms the LU number to be subject to data relocation processing.
- the secondary disk device 10b confirms the LU number of the received access frequency table 460.
- the primary disk device 10a confirms the LU number in the access frequency table 460 of the target LU of the data rearrangement process.
- the disk device synchronizes the target LU path management table 440 with the target LU path management table 440 in the other disk devices.
- the secondary disk device 10b changes the next path attribute of the primary disk device 10a to a non-optimal path, and the next path of the secondary disk device 10b. Change the attribute to the optimal path.
- the primary disk device 10a changes the next path attribute of the secondary disk device 10b to a non-optimal path, and the next path attribute of the primary disk device 10a. To the best path.
- the disk device sequentially selects the target LU page, confirms the current Tier of the page from the target LU Tier management table 450, and confirms the next Tier of the page from the target LU access frequency table 460. .
- the disk device moves the data of the page in the current tier to the next tier, and next time to the current tier of the page in the tier management table 450 Save the Tier value.
- the disk device determines whether all pages in the target LU have been selected. When it is determined that not all pages have been selected yet (S2350: N), the disk device returns the process to S2330 and selects the next page. If it is determined that all pages have been selected (S2350: Y), the disk device ends this flow.
- the secondary disk device 10b can relocate data to the Tier determined by the primary disk device 10a. Thereafter, the primary disk device 10a can relocate data to the Tier determined by the primary disk device 10a.
- Examples 1 and 2 may be combined.
- the first storage device may be the primary disk device 10a.
- the second storage device may be the secondary disk device 10b.
- the first volume may be volume A.
- the second volume may be volume B.
- Each of the first storage location information and the second storage location information may be a cache table or an access frequency table 460.
- Each of the first process and the second process may be a pre-staging process or a data rearrangement process.
- Each of the first notification and the second notification may be a preparation completion report.
- Each of the first storage device and the second storage device may be a disk 161.
- 10a Primary disk device
- 10b Secondary disk device
- 20 Host computer, 110 ... Channel control unit, 120 ... Processor, 130 ... Connection unit, 140 ... Cache memory, 150 ... Disk control unit, 160 ... Disk chassis, 161: Disc
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
最適パスの切り替えによるI/O性能の低下を抑える。 第一ストレージ装置は、第一I/O処理に基づいて、データの格納位置を示す第一格納位置情報を決定し、第一ストレージ装置は、第一ストレージ装置のI/O性能が低下する可能性がある状態を検出すると、第一ストレージ装置は、第一格納位置情報を第二ストレージ装置へ送信し、第二ストレージ装置は、第一格納位置情報を受信すると、第一格納位置情報に基づいて第一処理を実行し、第一ストレージ装置へ第一通知を送信し、第一ストレージ装置は、第一通知の受信後に、ホスト計算機からI/O要求を受信すると、第二パスが最適パスであることを示す第一応答を、ホスト計算機へ送信する。
Description
本発明は、ストレージシステムに関する。
正側(primary)ディスク装置と副側(secondary)ディスク装置を含むストレージシステムが知られている。正側ディスク装置と副側ディスク装置は、互いに接続されている。また、正側ディスク装置と副側ディスク装置の夫々は、ネットワークを介してホスト計算機に接続されている。ホスト計算機と正側ディスク装置の間を最適パスとして設定されている場合、ホスト計算機は、最適パスにより、正側ディスク装置へI/O要求を送信する。
正側ディスク装置に障害等の性能劣化が発生した場合、ユーザは、ホスト計算機に対し、ホスト計算機と副側ディスク装置の間を最適パスとして設定する。これにより、ホスト計算機は、最適パスにより、副側ディスク装置へI/O要求を送信する。
特許文献1には、ストレージシステムにおいて、データのレプリケーション指示が行われたとき、A装置が、データのリード頻度の統計値に基づいて、リードの利用頻度の高いデータをA装置からB装置へ転送することが記載されている。
最適パスを正側ディスク装置から副側ディスク装置へ切り替えた後、副側ディスク装置の負荷により、I/O性能が劣化する場合がある。
上記課題を解決するために、本発明の一態様であるストレージシステムは、ホスト計算機に接続される第一ストレージ装置と、前記ホスト計算機及び前記第一ストレージ装置に接続される第二ストレージ装置と、を備える。前記第一ストレージ装置は、第一ボリュームを前記ホスト計算機へ提供し、前記第二ストレージ装置は、第二ボリュームを前記第一ボリュームとして前記ホスト計算機へ提供し、前記ホスト計算機と前記第一ボリュームの間の第一パスが最適パスとして設定され、且つ前記ホスト計算機と前記第二ボリュームの間の第二パスが非最適パスとして設定されている場合、前記第一ストレージ装置は、前記ホスト計算機から第一I/O要求を受信すると、前記第一I/O要求に基づいて第一I/O処理を行い、前記第一I/O処理に基づいて、データの格納位置を示す第一格納位置情報を決定し、前記第一ストレージ装置は、前記第一ストレージ装置のI/O性能が低下する可能性がある状態を検出すると、前記第一ストレージ装置は、前記第一格納位置情報を前記第二ストレージ装置へ送信し、前記第二ストレージ装置は、前記第一格納位置情報を受信すると、前記第一格納位置情報に基づいて第一処理を実行し、前記第一ストレージ装置へ第一通知を送信し、前記第一ストレージ装置は、前記第一通知の受信後に、前記ホスト計算機からI/O要求を受信すると、前記第二パスが最適パスであることを示す第一応答を、前記ホスト計算機へ送信する。
最適パスの切り替えによるI/O性能の低下を抑えることができる。
以下、図面を参照して本発明の実施形態を説明する。
以下の説明では、「×××テーブル」の表現にて情報を説明することがあるが、情報は、どのようなデータ構造で表現されていてもよい。すなわち、情報がデータ構造に依存しないことを示すために、「×××テーブル」を「×××情報」と呼ぶことができる。また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部又は一部が1つのテーブルであってもよい。
また、以下の説明では、要素の識別情報として、IDが使用されるが、それに代えて又は加えて他種の識別情報が使用されてもよい。
また、以下の説明では、同種の要素を区別しないで説明する場合には、参照符号又は参照符号における共通番号を使用し、同種の要素を区別して説明する場合は、その要素の参照符号を使用又は参照符号に代えてその要素に割り振られたIDを使用することがある。
また、以下の説明では、I/O(Input/Output)要求は、ライト要求又はリード要求であり、アクセス要求と呼ばれてもよい。
また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)及び/又はインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主語がプロセッサとされてもよい。プログラムを主語として説明された処理は、プロセッサあるいはそのプロセッサを有する装置が行う処理又はシステムとしてもよい。また、プロセッサは、処理の一部または全部を行うハードウェア回路を含んでもよい。プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサ(例えばCPU)と記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムとを記憶してよい。そして、プログラム配布サーバのプロセッサが配布プログラムを実行することで、プログラム配布サーバのプロセッサは配布対象のプログラムを他の計算機に配布してよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
また、以下の説明では、管理システムは、一以上の計算機を含んでいてもよい。具体的には、例えば、管理計算機が情報を表示する場合(具体的には、例えば、管理計算機が自分の表示デバイスに情報を表示する、或いは、管理計算機が表示用情報を遠隔の表示用計算機に送信する場合)、管理計算機が管理システムである。また、例えば、複数の計算機で管理計算機と同等の機能が実現されている場合は、当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機を含んでよい)が、管理システムである。管理計算機(例えば管理システム)は、表示システムを含むI/Oシステムに接続されたインタフェースデバイスと、記憶資源(例えばメモリ)と、インタフェースデバイス及び記憶資源に接続されたプロセッサとを有してよい。表示システムは、管理計算機が有する表示デバイスでもよいし、管理計算機に接続された表示用計算機でもよい。I/Oシステムは、管理計算機が有するI/Oデバイス(例えばキーボード及びポインティングデバイス、タッチパネル)でもよいし、管理計算機に接続された表示用計算機又は別の計算機でもよい。管理計算機が「表示用情報を表示する」ことは、表示システムに表示用情報を表示することであり、これは、管理計算機が有する表示デバイスに表示用情報を表示することであってもよいし、管理計算機が表示用計算機に表示用情報を送信することであってもよい(後者の場合は表示用計算機によって表示用情報が表示される)。また、管理計算機が情報を入出力するとは、管理計算機が有するI/Oデバイスとの間で情報の入出力を行うことであってもよいし、管理計算機に接続された遠隔の計算機(例えば表示用計算機)との間で情報の入出力を行うことであってもよい。情報の出力は、情報の表示であってもよい。
図1は、実施形態の概要を示す。
ストレージシステムは、正側ディスク装置10aと、副側ディスク装置10bとを含む。正側ディスク装置10aと副側ディスク装置10bを区別する必要がない場合、夫々をディスク装置と呼ぶことがある。正側ディスク装置10a及び副側ディスク装置10bの夫々は、ホスト計算機20に接続されている。ディスク装置は、制御部310と、キャッシュメモリ140と、ディスクシャーシ160とを含む。ディスクシャーシ160は、複数のディスク161を含む。キャッシュメモリ140は、ユーザデータを格納するデータキャッシュ410と、格納位置情報400とを含む。
正側ディスク装置10aの制御部310は、ディスク161を用いてボリュームAを作成する。副側ディスク装置10bの制御部310は、ディスク161を用いてボリュームBを作成する。正側ディスク装置10aと副側ディスク装置10bは、ボリュームAとボリュームBのペアを作成し、互いに同期コピーを行う。即ち、正側ディスク装置10aは、ホスト計算機20からボリュームAへのライトデータを受信すると、ライトデータをボリュームAとボリュームBへ書き込み、ホスト計算機20へ応答する。同様に、副側ディスク装置10bは、ホスト計算機20からボリュームBへのライトデータを受信すると、ライトデータをボリュームBとボリュームAへ書き込み、ホスト計算機20へ応答する。これにより、ホスト計算機20は、ボリュームAとボリュームBの何れにアクセスしても、同一のデータにアクセスすることができる。
ホスト計算機20は、パス管理部21を含む。パス管理部21は、予めユーザからの入力により、正側ディスク装置10aへのパスと、副側ディスク装置10bへのパスとの、一方を最適パスに設定し、他方を非最適パスに設定する。ここでは、正側ディスク装置10aへのパスが最適パスに設定され、副側ディスク装置10bへのパスが非最適パスに設定されている。パス管理部21は、最適パスを用いてI/O要求を送信する。
ここでは、正側ディスク装置10aがホスト計算機20と同じサイトにあり、副側ディスク装置10bがホスト計算機20と異なるサイトにある等、ボリュームAへのアクセスの性能がボリュームBへのアクセスの性能より高いとする。この場合、パス管理部21は、予めユーザからの入力に従って、ボリュームAへのパスを最適パスとして設定し、ボリュームBへのパスを最適パスとして設定する。
正側ディスク装置10aは、正側ディスク装置10aのI/O性能が低下する可能性がある特定状態を検出すると、格納位置情報400を副側ディスク装置10bへ送信する。副側ディスク装置10bは、格納位置情報400を受信すると、格納位置情報400に基づいて、ディスクアクセスを伴う第一処理を行う。第一処理は、ディスク161からデータキャッシュ410へのステージングや、ディスク161間でデータを移動させるデータ再配置等である。
その後、ホスト計算機20のパス管理部21は、正側ディスク装置10aへのI/O要求に対し、パス切替を示す情報を受信し、その情報に基づいて、最適パスを正側ディスク装置10aから副側ディスク装置10bへ切り替える。その後、パス管理部21は、I/O要求を副側ディスク装置10bへ送信する。副側ディスク装置10bは、I/O要求を受信すると、I/O処理を実行する。
このように、正側ディスク装置10aの特定状態中に、副側ディスク装置10bがI/O処理を実行することにより、特定状態中の正側ディスク装置10aがI/O処理を実行する場合に比べて、I/O性能を改善することができる。また、同期コピーにより、論理記憶領域であるボリュームAとボリュームBは同期しているが、それらのボリュームに夫々割り当てられている、データキャッシュ410やストレージ階層等の物理記憶領域同士は同期していない。そこで、ホスト計算機20がパスを切り替える前に、格納位置情報400を用いて、副側ディスク装置10bの物理記憶領域を、正側ディスク装置10aの物理記憶領域に同期させることができる。
最適パスを正側ディスク装置10aから副側ディスク装置10bへ切り替えると、副側ディスク装置10bのデータキャッシュ410の内容が正側ディスク装置10aのデータキャッシュ410の内容と異なるため、キャッシュミスによりI/O性能が劣化する場合がある。本実施例では、正側ディスク装置10aが、特定状態を検出すると、データキャッシュ410に格納されているデータを示すキャッシュテーブルを格納位置情報400として、副側ディスク装置10bへ送信し、副側ディスク装置10bは、最適パスの切り替え前に、キャッシュテーブルに基づいてステージングを行う。
まず、ストレージシステムの構成について説明する。
図2は、ストレージシステムのハードウェア構成を示す。
ディスク装置は、チャネル制御部110(CHA)と、プロセッサ120と、接続部130(スイッチ)と、キャッシュメモリ140と、ディスク制御部150と、ディスクシャーシ160とを含む。
チャネル制御部110とプロセッサ120とキャッシュメモリ140とディスク制御部150は、接続部130に接続されている。チャネル制御部110は、ホスト計算機20や他のディスク装置等に接続されるポート112と、ホスト計算機20や他のディスク装置とのデータ転送を行うデータ転送回路111とを含む。ディスク制御部150は、ディスクシャーシ160とのデータ転送を行うデータ転送回路151を含む。ディスクシャーシ160は、複数のディスク161を含む。ディスク161は、HDD(Hard Disk Drive)やSSD(Solid State Disk)等である。
キャッシュメモリ140は、プログラムおよびデータを格納する。プロセッサ120は、キャッシュメモリ140に格納されたプログラムに従って処理を実行する。
ホスト計算機20は、SAN(Storage Area Network)等の通信ネットワークを介して、正側ディスク装置10aおよび副側ディスク装置10bに接続される。
正側ディスク装置10aの特定のチャネル制御部110と、副側ディスク装置10bの特定のチャネル制御部110との間は、ディスク装置間パスにより接続されている。
図3は、ストレージシステムの論理構成を示す。
キャッシュメモリ140は、制御部310のためのプログラムと、性能モニタ部320のためのプログラムと、性能統計情報321と、障害モニタ部330のためのプログラムと、エラーカウント情報340とを格納する。キャッシュメモリ140は更に、データキャッシュ410と、LU管理テーブル420と、データアドレス管理テーブル430と、パス管理テーブル440と、Tier管理テーブル450と、アクセス頻度テーブル460とを格納する。本実施例において、ディスク装置がストレージ階層仮想化の機能を持たない場合、キャッシュメモリ140は、Tier管理テーブル450及びアクセス頻度テーブルを格納していなくてもよい。
制御部310は、ディスク装置の制御を行う。性能モニタ部320は、ディスク装置の性能をモニタし、その結果を性能統計情報321として保存する。障害モニタ部330は、ディスク装置の障害をモニタし、その結果をエラーカウント情報340として保存する。
データキャッシュ410は、ユーザデータを格納する領域である。LU管理テーブル420は、LUを管理する。データアドレス管理テーブル430は、LU毎に作成され、LU内の各ページのアドレスを管理する。ページは、所定のページサイズの論理記憶領域である。ページサイズは、ブロック、スロット、セグメント等、他の記憶領域の大きさであってもよい。パス管理テーブル440は、LU毎に作成され、ホスト計算機20とLUの間のパスを管理する。
キャッシュメモリ140は更に、ページと、ディスク161内の物理ページ(物理記憶領域)との関連付けを示すテーブルを格納していてもよい。物理ページを、デバイス領域と呼ぶことがある。
正側ディスク装置10aは、ディスク161を用いるLU(Logical Unit)として、ボリュームAを作成する。副側ディスク装置10bは、ディスク161を用いるLUとして、ボリュームBを作成する。正側ディスク装置10a及び副側ディスク装置10bは、ボリュームAとボリュームBの間で互いに同期コピーを行うことにより、一方のボリュームへの更新を他方のボリュームに反映する。
副側ディスク装置10bは、正側ディスク装置10aの識別情報と同一の識別情報を有する仮想正側ディスク装置10aaを作成し、ホスト計算機20へ提供する。更に副側ディスク装置10bは、ボリュームBを用いて、ボリュームAの識別情報と同一の識別情報を有する仮想ボリュームAを、仮想正側ディスク装置10aaに作成し、ホスト計算機20へ提供する。これにより、ホスト計算機20は、パスを切り替えることにより、正側ディスク装置10aと同様にして仮想正側ディスク装置10aaにアクセスすることができ、ボリュームAと同様にして仮想ボリュームAにアクセスすることができる。
ホスト計算機20は、正側ディスク装置10aとの間のパスを最適パスとして設定し、副側ディスク装置10bとの間のパスを非最適パスとして設定する。これにより、ホスト計算機20は、正側ディスク装置10aへI/O要求を送信する。
ディスク装置は、複数のディスク161を用いるPG(Parity GroupまたはRAID Group)を作成し、PGを用いるLUを作成してもよい。また、ディスク装置は、PGを用いるプールボリュームを作成し、プールボリュームを用いる仮想ボリュームをLUとして作成してもよい。また、ディスク装置は、複数の種類のディスク161を複数の階層に夫々割り当て、複数の階層を用いる仮想ボリュームをLUとして作成し、予め設定された開始タイミングで複数の階層の間でデータ再配置を行ってもよい。
図4は、実施例1のLU管理テーブル420を示す。
LU管理テーブル420は、LU毎のエントリを有する。一つのLUのエントリは、当該LUを示すLU番号421と、キャッシュメモリ140上で当該LUのデータアドレス管理テーブル430を指すデータアドレス管理テーブルポインタ422と、キャッシュメモリ140上で当該LUのパス管理テーブル440を指すパス管理テーブルポインタ423と、パスを切り替えるか否かの判定結果を示す切替判定424とを含む。なお、LU番号421の代わりに、仮想ボリュームIDやLUNやWWN等、LU固有の識別情報が用いられてもよい。
図5は、パス管理テーブル440を示す。
パス管理テーブル440は、LU毎に作成される。一つのLUのパス管理テーブル440は、パス毎のエントリを有する。一つのパスのエントリは、当該LUを示すLU番号441と、当該LUを含むディスク装置を示すディスク装置番号442と、当該パスに用いられるポート112を示すポートID443と、当該パスの現在のパス属性である現在パス属性444と、当該パスの次回のパス属性である次回パス属性445とを含む。パス属性は、最適パス(Active/Optimized)及び非最適パス(Active/Non-optimized)の何れか一つを示す。一つのLUと一つのディスク装置に対して、複数のパスが設定されていてもよい。この場合の複数のパスは、複数のポート112に夫々対応する。
図6は、データアドレス管理テーブル430を示す。
データアドレス管理テーブル430は、LU毎に作成される。一つのLUのデータアドレス管理テーブル430は、LU内のページ毎のエントリを有する。一つのページのエントリは、当該LUを示すLU番号431と、当該LU内で当該ページを示すデータアドレス432と、キャッシュメモリ140内で当該ページに対応するキャッシュ領域を示すキャッシュアドレス433と、当該ページへの最終アクセス時刻434と、当該ページへのライトがシーケンシャルライトであるか否かの判定結果を示すシーケンシャル(Seq)判定435と、当該ページのデータのステータス436とを含む。ステータス436は、デステージされていないデータを示すDirtyと、デステージ済みのデータを示すCleanと、ディスク161からステージングされたデータを示すReadを示す。データアドレス432の代わりに、ページIDが用いられてもよい。キャッシュアドレス433の代わりに、スロットIDが用いられてもよい。制御部310は、データアドレス管理テーブル430を用いることにより、キャッシュヒットの判定や、キャッシュミスの場合のディスク161からのデータの読み出し等を行うことができる。
以下、ストレージシステムの動作について説明する。
図7は、実施例1の連携処理を示す。
このシーケンスは、正側ディスク装置10aと副側ディスク装置10bの動作を示す。対象LUに対し、ホスト計算機20から正側ディスク装置10aへのパスは、最適パスに設定されており、ホスト計算機20から副側ディスク装置10bへのパスは、非最適パスに設定されている。
まず、S1110において正側ディスク装置10aは、切り替え契機検知処理を行う。その後、S1120において正側ディスク装置10aは、切り替え契機検知処理の結果、イベントを検知したか否かを判定する。イベントは、予め設定された障害や過負荷等、正側ディスク装置10aのI/O性能が低下する可能性がある状態であり、パスを副側ディスク装置10bへ切り替えたほうが好ましい状態である。例えば、イベントは、ディスク閉塞、ディスク閉塞の予測、ストレージ階層仮想化におけるデータ再配置、バックエンド高負荷等である。例えば、イベントがディスク閉塞の予測である場合、予測されたディスク161から、他のディスク161の中のスペアディスクへデータをコピーする等、正側ディスク装置10aに負荷が掛かる。
イベントを検知していないと判定された場合(S1120:N)、正側ディスク装置10aは、処理をS1110へ戻す。
イベントを検知したと判定された場合(S1120:Y)、S1130において正側ディスク装置10aは、キャッシュテーブル送付処理を行う。ここで正側ディスク装置10aは、イベントに関連する対象LUに対し、ステージングに必要な情報を示すキャッシュテーブルを作成し、キャッシュテーブルを副側ディスク装置10bへ送信する。
キャッシュテーブルを受信した副側ディスク装置10bは、S1140において、事前ステージング処理を行う。ここで副側ディスク装置10bは、キャッシュテーブルに基づいて、対象LUのデータのステージングを行う。
その後、S1150において副側ディスク装置10bは、準備完了報告を正側ディスク装置10aへ送信する。
その後、S1160において、準備完了報告を受信した正側ディスク装置10aと、準備完了報告を送信した副側ディスク装置10bとは、パス切り替え処理を行う。ここでホスト計算機20、正側ディスク装置10a、及び副側ディスク装置10bは、対象LUの最適パス(ホストアクセスパス)を正側ディスク装置10aから副側ディスク装置10bへ切り替える。
その後、S1180において正側ディスク装置10aは、キャッシュ解放処理を行い、このシーケンスを終了する。ここで正側ディスク装置10aは、対象LUのキャッシュを解放する。
以上の連携処理によれば、ストレージシステムは、特定状態によるI/O性能の低下を抑えることができる。
次に、前述のS1110における正側ディスク装置10aの切り替え契機検知処理の詳細について説明する。
図8は、切り替え契機検知処理を示す。
まず、S1210において障害モニタ部330は、ディスク障害チェックを行う。ここで障害モニタ部330は、ディスク161の障害を検出する。その後、S1220において障害モニタ部330は、ディスク障害チェックの結果に基づいて障害が発生しているか否かを判定する。
障害が発生していると判定された場合(S1220:Y)、S1270において制御部310は、この障害をイベントとして検出し、パス切り替えが有効であると判定し、検出されたイベントに関連する対象LUを特定し、LU管理テーブル420中の対象LUの切替判定をONに設定し、このフローを終了する。
障害が発生していないと判定された場合(S1220:N)、S1230において障害モニタ部330は、ORM(Online Read Margin)情報取得を行う。ここで障害モニタ部330は、S.M.A.R.T(Self-Monitoring, Analysis and Reporting Technology)等を用いて、ディスク161の状態を示すORM値を取得し、エラーカウント情報340として保存する。ORM値は例えば、蓄積している読み出しエラー数やリトライ数等である。その後、S1240において障害モニタ部330は、ORM値が予め設定されたORM閾値より大きいか否かを判定する。
ORM値がORM閾値より大きいと判定された場合(S1240:Y)、制御部310は、ディスク161が閉塞しそうな状態をイベントとして検出し、処理をS1270へ移行させる。
ORM値がORM閾値以下であると判定された場合(S1240:N)、S1250において性能モニタ部320は、正側ディスク装置10aの性能統計情報321を採取する。ここで性能統計情報321は例えば、バックエンド負荷を示す。バックエンド負荷は例えば、バックエンドの負荷を示すIOPSの、上限に対する割合を示す。その後、S1260において性能モニタ部320は、性能統計情報321に基づいて、バックエンド負荷が過負荷であるか否かを判定する。例えば、性能モニタ部320は、バックエンド負荷が、予め設定されたバックエンド負荷閾値より大きい場合、バックエンド負荷が過負荷であると判定する。
バックエンド負荷が過負荷であると判定された場合(S1260:Y)、制御部310は、このバックエンド高負荷をイベントとして検出し、処理をS1270へ移行させる。
バックエンド負荷が過負荷でないと判定された場合(S1260:N)、制御部310は、このフローを終了する。
以上の切り替え契機検知処理によれば、正側ディスク装置10aは、最適パスを副側ディスク装置10bに切り替える必要があるイベントを検出することができる。
なお、切り替え契機検知処理において正側ディスク装置10aは、他のイベントを検出した場合に、S1270を実行してもよい。
また、切り替え契機検知処理のS1270において正側ディスク装置10aは、副側ディスク装置10bへヘルスチェック要求を発行し、その応答が副側ディスク装置10bでイベントと同様の現象が発生していないことを示す場合、パス切り替えが有効であると判定してもよい。これにより、ストレージシステムは、対象LUの最適パスを副側ディスク装置10bに切り替えても性能メリットが得られない場合の、パス切り替えを防ぐことができる。
ヘルスチェック要求を受領した副側ディスク装置10bは、予め設定された複数の現象の何れかが発生しているか否かを判定し、判定結果を応答として、正側ディスク装置10aへ送信する。
複数の現象は例えば、次のことを含む。
・S1210と同様のディスク障害チェックにより、対象LUに割り当てられているPG内のディスクに障害が発生していることが検出された。
・S1230と同様のORM情報取得により、対象LUに割り当てられているPG内に閉塞しそうなディスクがあることが検出された。
・対象LUがデータ再配置中である。
・対象LUを含むPGの使用率が、予め設定されたPG使用率閾値より高い。
・対象LUの担当プロセッサの使用率が、予め設定されたプロセッサ使用率閾値より高い。
・データキャッシュ410のWritePending率が、予め設定されたWP率閾値より高い。
・S1210と同様のディスク障害チェックにより、対象LUに割り当てられているPG内のディスクに障害が発生していることが検出された。
・S1230と同様のORM情報取得により、対象LUに割り当てられているPG内に閉塞しそうなディスクがあることが検出された。
・対象LUがデータ再配置中である。
・対象LUを含むPGの使用率が、予め設定されたPG使用率閾値より高い。
・対象LUの担当プロセッサの使用率が、予め設定されたプロセッサ使用率閾値より高い。
・データキャッシュ410のWritePending率が、予め設定されたWP率閾値より高い。
これにより、正側ディスク装置10aは、副側ディスク装置10bのI/O性能が低下する可能性があるか否かを検出することができ、副側ディスク装置10bのI/O性能が低下する可能性がないと判定された場合に、次のキャッシュテーブル送付処理を行う。
次に、前述のS1120における正側ディスク装置10aのキャッシュテーブル送付処理の詳細について説明する。
図9は、キャッシュテーブル送付処理を示す。
まず、S1310において、正側ディスク装置10aは、LU管理テーブル420における対象LUのエントリを参照する。その後、S1320において、正側ディスク装置10aは、対象LUのパス管理テーブルポインタに基づいて、対象LUのパス管理テーブル440における正側ディスク装置10aの現在パス属性を参照する。その後、S1330において、正側ディスク装置10aは、対象LUにおける正側ディスク装置10aの現在パス属性が最適パスであるか否かを判定する。
対象LUにおける正側ディスク装置10aの現在パス属性が非最適パスであると判定された場合(S1330:N)、S1340において、正側ディスク装置10aは、LU管理テーブル420における対象LUの切替判定をOFFに設定し、このフローを終了する。
対象LUにおける正側ディスク装置10aの現在パス属性が最適パスであると判定された場合(S1330:Y)、S1350において、正側ディスク装置10aは、対象LUのパス管理テーブル440を更新する。ここで正側ディスク装置10aは、対象LUのパス管理テーブル440において、正側ディスク装置10aの次回パス属性を非最適パスに変更し、副側ディスク装置10bの次回パス属性を最適パスに変更する。
その後、S1360において、正側ディスク装置10aは、対象LUのデータアドレス管理テーブルポインタに基づいて、対象LUのデータアドレス管理テーブル430を参照する。その後、S1370において、正側ディスク装置10aは、対象LUのデータアドレス管理テーブル430から参照データを取得する。例えば、参照データは、対象LUのデータアドレス管理テーブル430の各エントリの、LU番号と、データアドレスと、最終アクセス時刻と、シーケンシャル判定とを含む。その後、S1380において、正側ディスク装置10aは、参照データをキャッシュテーブルとして副側ディスク装置10bへ転送する。キャッシュテーブルは、各ページの参照データのエントリを有する。その後、S1390において、正側ディスク装置10aは、LU管理テーブル420における対象LUの切替判定をOFFに設定し、このフローを終了する。
なお、キャッシュテーブルは、対象LUのデータアドレス管理テーブル430のうち、キャッシュアドレスが有効であるエントリの参照データのみを有していてもよい。言い換えれば、キャッシュテーブルは、対象LUのデータアドレス管理テーブル430のうち、データキャッシュ410に格納されているページのみのエントリの参照データのみを有していてもよい。
以上のキャッシュテーブル送付処理によれば、正側ディスク装置10aのデータキャッシュ410の状態を、副側ディスク装置10bへ伝えることができる。
次に、前述のS1140における副側ディスク装置10bの事前ステージング処理の詳細について説明する。
図10は、事前ステージング処理を示す。
まず、S1410において、副側ディスク装置10bは、受信されたキャッシュテーブルから対象LUのLU番号を参照することで、対象LUを特定する。その後、S1420において、副側ディスク装置10bは、対象LUのパス管理テーブル440を、正側ディスク装置10aのパス管理テーブル440に同期させる。ここで副側ディスク装置10bは、LU管理テーブル420における対象LUのエントリに基づいて、対象LUのパス管理テーブル440を参照し、前述のS1350と同様、対象LUのパス管理テーブル440において、正側ディスク装置10aの次回パス属性を非最適パスに変更し、副側ディスク装置10bの次回パス属性を最適パスに変更する。
その後、S1430において、副側ディスク装置10bは、キャッシュテーブルのエントリを順次参照し、参照されたエントリに基づいてデータをステージングする。ここで副側ディスク装置10bは、当該エントリのデータアドレスを参照し、ディスク161のデータアドレスからデータキャッシュ410へデータを読み出す。更に副側ディスク装置10bは、対象LUのデータアドレス管理テーブル430の対応するエントリにおいて、キャッシュアドレスを、ステージングされたキャッシュアドレスに設定し、ステータスをReadに設定する。更に副側ディスク装置10bは、キャッシュテーブルの参照されたエントリの最終アクセス時刻を、対象LUのデータアドレス管理テーブル430の対応するエントリの最終アクセス時刻へ設定する。
その後、S1440において、副側ディスク装置10bは、当該エントリのシーケンシャル判定がONであるか否かを判定する。
当該エントリのシーケンシャル判定がOFFであると判定された場合(S1440:N)、副側ディスク装置10bは、処理をS1460へ移行させる。
当該エントリのシーケンシャル判定がONであると判定された場合(S1440:Y)、S1450において、副側ディスク装置10bは、データアドレス管理テーブル430のシーケンシャル判定をONに設定し、処理をS1460へ移行させる。
その後、S1460において、副側ディスク装置10bは、キャッシュテーブルの全てのエントリを参照したか否かを判定する。未だキャッシュテーブルの全てのエントリを参照していないと判定された場合(S1460:N)、副側ディスク装置10bは、処理をS1430に戻し、次のエントリを参照する。キャッシュテーブルの全てのエントリを参照したと判定された場合(S1460:Y)、副側ディスク装置10bは、このフローを終了する。
以上の事前ステージング処理によれば、副側ディスク装置10bは、ホスト計算機20がパスを切り替える前に、データキャッシュ410内のデータを、正側ディスク装置10aのデータキャッシュ410に合わせることができる。これにより、副側ディスク装置10bにおけるキャッシュヒット率を高めることができる。
なお、副側ディスク装置10bは、ポリシーに従って事前ステージング処理を実行してもよいし、ユーザからの指示に応じてポリシーを変更してもよい。例えば、第一のポリシーにおいて、副側ディスク装置10bは、事前ステージング処理の完了後に、S1150において準備完了報告を正側ディスク装置10aへ送信する。例えば、第二のポリシーにおいて、副側ディスク装置10bは、事前ステージング処理の開始後、S1150において準備完了報告を正側ディスク装置10aへ送信する。これにより、最適パスを副側ディスク装置10bに切り替えるまでの時間を短縮することができ、ストレージシステムのI/O性能を高められる場合がある。例えば、第三のポリシーにおいて、副側ディスク装置10bは、事前ステージング処理の開始後、S1150において準備完了報告を正側ディスク装置10aへ送信し、事前ステージング処理において、キャッシュテーブルのうち最終アクセス時刻が新しいエントリから順に参照する。これにより、事前ステージング処理中に最適パスが副側ディスク装置10bに切り替えられた場合でも、副側ディスク装置10bにおけるキャッシュヒット率を高めることができる。
次に、前述のS1160におけるパス切り替え処理の詳細について説明する。
図11は、パス切り替え処理を示す。
このシーケンスは、正側ディスク装置10aが、前述のS1150の準備完了報告を副側ディスク装置10bから受信した後の、ホスト計算機20と、正側ディスク装置10aと、副側ディスク装置10bとの動作を示す。例えば、ホスト計算機20と、正側ディスク装置10aと、副側ディスク装置10bは、パス切り替え処理の通信において、ALUA(Asymmetric Logical Unit Access)を用いる。
まず、S1510においてホスト計算機20は、予め設定された最適パスの情報に基づいて、ホストI/O(I/O要求)を正側ディスク装置10aへ送信する。その後、S1520において、正側ディスク装置10aは、ホストI/Oを受領し、ホストI/Oに従ってI/O処理を行う。S1530において、正側ディスク装置10aは、対象LUのパス管理テーブル440における正側ディスク装置10a及び副側ディスク装置10bの次回パス属性を示すパス情報を、ホスト計算機20へ応答し、対象LUのパス管理テーブル440における正側ディスク装置10a及び副側ディスク装置10bの現在パス属性へ、次回パス属性の値を設定する。その後、S1540において、パス情報を受信したホスト計算機20は、パス情報に従ってパス切り替えを実施することで、副側ディスク装置10bへのパスを最適パスとして設定し、正側ディスク装置10aへのパスを非最適パスとして設定する。
その後、S1550においてホスト計算機20は、更新された最適パスの情報に基づいて、ホストI/Oを副側ディスク装置10bへ送信する。その後、S1560において、副側ディスク装置10bは、ホストI/Oを受領し、ホストI/Oに従ってI/O処理を行う。S1570において副側ディスク装置10bは、パス管理テーブル440を変更することで、パス管理テーブル440を正側ディスク装置10aのパス管理テーブル440に同期させ、このフローを終了する。ここで副側ディスク装置10bは、対象LUのパス管理テーブル440における正側ディスク装置10a及び副側ディスク装置10bの現在パス属性へ、次回パス属性の値を設定する。
以上のパス切り替え処理によれば、ユーザがパス切替の操作をしなくても、ホスト計算機20と、正側ディスク装置10aと、副側ディスク装置10bとが連携して、最適パスを切り替えることができる。
なお、S1510においてホスト計算機20が副側ディスク装置10bへホストI/Oを送信する場合がある。この場合、副側ディスク装置10bがパス情報をホスト計算機20へ送信し、パス管理テーブル440を更新する。副側ディスク装置10bが正側ディスク装置10aへパスの切り替えを通知し、正側ディスク装置10aがその通知に応じてパス管理テーブル440を更新してもよい。
次に、前述のS1180における正側ディスク装置10aのキャッシュ解放処理の詳細について説明する。
図12は、キャッシュ解放処理を示す。
まず、S1610において正側ディスク装置10aは、対象LUのデータアドレス管理テーブル430におけるエントリを順次参照し、当該エントリのステータスを参照する。
その後、S1620において正側ディスク装置10aは、参照されたステータスがDirtyであるか否かを判定する。
ステータスがDirtyでないと判定された場合(S1620:N)、正側ディスク装置10aは、処理をS1650へ移行させる。
ステータスがDirtyであると判定された場合(S1620:Y)、S1630において正側ディスク装置10aは、当該エントリのキャッシュアドレスに格納されているデータを、当該エントリのデータアドレスへデステージする。その後、S1640において正側ディスク装置10aは、当該エントリのステータスをCleanに変更し、処理をS1650へ移行させる。
その後、S1650において正側ディスク装置10aは、データキャッシュ410において当該エントリに対応するスロットを解放する。その後、S1660において正側ディスク装置10aは、対象LUのデータアドレス管理テーブル430における全エントリを参照したか否かを判定する。未だ全エントリを参照していないと判定された場合(S1660:N)、正側ディスク装置10aは、処理をS1610へ戻し、次のエントリを参照する。全エントリを参照したと判定された場合(S1660:Y)、正側ディスク装置10aは、このフローを終了する。
以上のキャッシュ解放処理によれば、正側ディスク装置10aは、パス切り替え処理によりアクセスされなくなる対象LUのキャッシュ領域を、解放することができる。これにより、正側ディスク装置10aは、次に最適パスになったときに、迅速にデータキャッシュ410を使用することができる。
連携処理の後、ストレージシステムは、最適パスを正側ディスク装置10aへ戻す復帰処理を行う。
図13は、復帰処理を示す。
このシーケンスは、正側ディスク装置10aと副側ディスク装置10bの動作を示す。
まず、S1710において正側ディスク装置10aは、連携処理で検出されたイベントの状態を確認する。その後、S1720において正側ディスク装置10aは、確認の結果、イベントが終了したか否かを判定する。
イベントが終了していないと判定された場合(S1720:N)、正側ディスク装置10aは、処理をS1710へ戻す。
イベントが終了したと判定された場合(S1720:Y)、S1730において正側ディスク装置10aは、切替要求を副側ディスク装置10bへ送信する。
S1740において、切替要求を受信した副側ディスク装置10bは、前述のS1130と逆方向のキャッシュテーブル送付処理を行う。ここで副側ディスク装置10bは、副側ディスク装置10bの対象LUのデータアドレス管理テーブル430に基づくキャッシュテーブルを、正側ディスク装置10aへ送信する。
S1750において、キャッシュテーブルを受信した正側ディスク装置10aは、前述のS1140と逆方向の事前ステージング処理を行う。ここで正側ディスク装置10aは、キャッシュテーブルに基づいて、対象LUのデータのステージングを行う。
その後、S1760において正側ディスク装置10aは、準簿完了報告を副側ディスク装置10bへ送信する。その後、S1770において、準備完了報告を受信した副側ディスク装置10bと、準備完了報告を送信した正側ディスク装置10aとは、パス切り替え処理を行う。ここでホスト計算機20、正側ディスク装置10a、及び副側ディスク装置10bは、対象LUの最適パスを副側ディスク装置10bから正側ディスク装置10aへ切り替える。
その後、S1780において正側ディスク装置10aは、キャッシュ解放処理を行い、このシーケンスを終了する。ここで正側ディスク装置10aは、対象LUのキャッシュを解放する。
前述のS1720におけるイベントの終了の例について説明する。
イベントがディスク閉塞の予測であり、正側ディスク装置10aがダイナミックスペアリングを行う場合、コピーバック有りの場合と、コピーバック無しの場合とに、分けられる。ダイナミックスペアリングは、ORM情報により劣化したと判定された劣化ディスクのデータをスペアディスクへコピーする。コピーバック有りの場合、正側ディスク装置10aは、スペアディスクへデータが書き込まれた後、スペアディスクのデータを、劣化ディスクの交換により接続された新ディスクへコピーするコピーバックを行う。この場合、前述のS1720において、副側ディスク装置10bは、コピーバックが終了すると、イベントが終了したと判定する。コピーバック無しの場合、正側ディスク装置10aは、スペアディスクにデータが書き込まれた後、コピーバックを行わず、スペアディスクを劣化ディスクの代わりに使用し、新ディスクをスペアディスクとして用いる。この場合、前述のS1720において、副側ディスク装置10bは、スペアディスクにデータが書き込まれると、イベントが終了したと判定する。
イベントがディスク閉塞である場合、前述のS1720において、副側ディスク装置10bは、閉塞したディスクのリプレースと、リプレース後のPGにおけるパリティ再生成とが終了すると、イベントが終了したと判定する。
イベントがデータ再配置である場合、前述のS1720において、副側ディスク装置10bは、データ再配置が終了すると、イベントが終了したと判定する。
イベントがバックエンド高負荷である場合、前述のS1720において、副側ディスク装置10bは、予め設定された計測時間だけ過去から現在までのバックエンド負荷の平均がバックエンド負荷閾値以下になった場合、イベントが終了したと判定する。
以上の復帰処理によれば、正側ディスク装置10aの性能が低下するイベントが終了すると、副側ディスク装置10bより性能が高い正側ディスク装置10aへ最適パスを戻すことができる。これにより、ストレージシステムのI/O性能を高めることができる。
ホスト計算機20や、ネットワークを介してストレージシステムに接続される管理計算機は、ディスク装置の設定情報を送信してもよい。例えば、切り替え契機検知処理の設定情報は、バックエンド負荷閾値等、切り替え契機検知処理におけるイベントの条件を示す。また、例えば、事前ステージング処理の設定情報は、ポリシーを示す。
なお、正側ディスク装置10aは、ディスク161の閉塞等を検出し、復旧処理を行う場合、ディスク161から他のディスク161へのコピー速度を抑える等により、復旧処理中に、ホスト計算機20からのI/O要求の処理を優先することもできる。しかし、この場合、復旧処理の時間が長くなる。本実施例によれば、復旧処理の時間を抑えると共に、I/O性能の低下を抑えることができる。
本実施例において、正側ディスク装置10a及び副側ディスク装置10bの夫々は、ストレージ階層仮想化を行う。ストレージ階層仮想化のデータ再配置処理の間、ディスク装置のI/O性能が低下する。そこで、本実施例では、データ再配置処理を実行しているディスク装置と異なるディスク装置が、I/O処理を実行する。
図14は、実施例2のLU管理テーブル420を示す。
実施例1のLU管理テーブル420と比較すると、実施例2のLU管理テーブル420における一つのLUのエントリは、データアドレス管理テーブルポインタ422の代わりに、アクセス頻度テーブルポインタ425を有する。アクセス頻度テーブルポインタ425は、キャッシュメモリ140上で当該LUのアクセス頻度テーブル460を指す。
図15は、Tier管理テーブル450を示す。
Tier管理テーブル450は、LU毎に作成される。一つのLUのTier管理テーブル450は、ページ毎のエントリを有する。一つのページのエントリは、当該LUを示すLU番号451と、当該ページを示すページID452と、当該ページの現在のTierを示す現在Tier453とを含む。
図16は、アクセス頻度テーブル460を示す。
アクセス頻度テーブル460は、LU毎に作成される。一つのLUのアクセス頻度テーブル460は、ページ毎のエントリを有する。一つのページのエントリは、当該LUを示すLU番号461と、当該ページを示すページID462と、当該ページに対して計測されたランダムライト頻度463(IOPS)と、当該ページに対して計測されたシーケンシャルライト頻度464(IOPS)と、当該ページに対して計測されたランダムリード頻度465(IOPS)と、当該ページに対して計測されたシーケンシャルリード頻度466(IOPS)と、当該ページに対して判定された次回のTierを示す次回Tier467とを含む。
制御部310は、ストレージ階層仮想化のために、LUを所定のサイズのページ毎に管理する。更に制御部310は、各ページに対するI/Oの種類(ランダムライト、シーケンシャルライト、ランダムリード、シーケンシャルリード)を判定し、種類毎のアクセス頻度463~466を計測し、その計測結果をアクセス頻度テーブル460に保存する。更に制御部310は、計測結果に基づいて、次回Tier467を判定する。
また、制御部310は、予めユーザにより設定されたスケジュールで、データ再配置処理を行う。
図17は、実施例2の連携処理を示す。
このシーケンスは、正側ディスク装置10aと副側ディスク装置10bの動作を示す。
まず、S2110において正側ディスク装置10aは、切り替え契機検知処理の代わりに、データ再配置検知処理を行う。ここで正側ディスク装置10aは、データ再配置処理のスケジュールに基づいて、データ再配置処理を開始するタイミングになったことを示すデータ再配置イベントを検出する。その後、S2120において正側ディスク装置10aは、データ再配置検知処理の結果、データ再配置イベントを検知したか否かを判定する。
データ再配置イベントを検知していないと判定された場合(S2120:N)、正側ディスク装置10aは、処理をS2110へ戻す。
データ再配置イベントを検知したと判定された場合(S2120:Y)、S2130において正側ディスク装置10aは、アクセス頻度テーブル送付処理を行う。
アクセス頻度テーブル送付処理は、実施例1のキャッシュテーブル送付処理と同様であるため、相違点を説明する。アクセス頻度テーブル送付処理において正側ディスク装置10aは、S1360~S1380の代わりに、データ再配置処理の対象LUのアクセス頻度テーブル460を副側ディスク装置10bへ送信する。なお、正側ディスク装置10aは、アクセス頻度テーブル460のうち、現在Tierと次回Tierが異なるエントリのみを、副側ディスク装置10bへ送信してもよい。また、正側ディスク装置10aは、アクセス頻度テーブル460のうち、LU番号とページIDと次回Tierとを、副側ディスク装置10bへ送信してもよい。
アクセス頻度テーブル460を受信した副側ディスク装置10bは、S2140において、データ再配置処理を行う。ここで副側ディスク装置10bは、アクセス頻度テーブル460に基づいて、ストレージ階層間でデータの移動(プロモーション又はデモーション)を行う。
その後、データ再配置処理を完了した副側ディスク装置10bは、S2150において、準備完了報告を正側ディスク装置10aへ送信する。
その後、準備完了報告を受信した正側ディスク装置10aと、準備完了報告を送信した副側ディスク装置10bとは、S2160において、パス切り替え処理を行う。
その後、S2210において副側ディスク装置10bは、前述のS1350と逆に、対象LUのパス管理テーブル440において、副側ディスク装置10bの次回パス属性を非最適パスに変更し、正側ディスク装置10aの次回パス属性を最適パスに変更する。
その後、S2220において正側ディスク装置10aは、データ再配置処理を行う。
その後、データ再配置処理を完了した正側ディスク装置10aは、S2230において、準備完了報告を副側ディスク装置10bへ送信する。
その後、準備完了報告を受信した副側ディスク装置10bと、準備完了報告を送信した正側ディスク装置10aとは、S2240において、パス切り替え処理を行い、このシーケンスを終了する。
以上の連携処理によれば、副側ディスク装置10bがデータ再配置処理を実行し、その後、最適パスを副側ディスク装置10bへ切り替えることで、副側ディスク装置10bがデータ再配置処理中にI/O処理を実行することを防ぐことができる。その後、副側ディスク装置10bがI/O処理を実行している間に、正側ディスク装置10aがデータ再配置処理を実行し、その後、最適パスを正側ディスク装置10aへ切り替えることで、正側ディスク装置10aがデータ再配置処理中にI/O処理を実行することを防ぐことができる。これにより、データ再配置処理によるストレージシステムのI/O性能の低下を防ぐことができる。また、正側ディスク装置10aが次回Tierを副側ディスク装置10bへ送信することで、副側ディスク装置10bは適切なデータ再配置処理を迅速に実行することができる。
次に、前述のS2140及びS2220における各ディスク装置のデータ再配置処理について説明する。
図18は、データ再配置処理を示す。
まず、S2310においてディスク装置は、データ再配置処理の対象のLU番号を確認する。ここで、副側ディスク装置10bによるデータ再配置処理(S2140)において、副側ディスク装置10bは、受信されたアクセス頻度テーブル460のLU番号を確認する。また、正側ディスク装置10aによるデータ再配置処理(S2220)において、正側ディスク装置10aは、データ再配置処理の対象LUのアクセス頻度テーブル460のLU番号を確認する。
その後、S2320においてディスク装置は、対象LUのパス管理テーブル440を、他のディスク装置における対象LUのパス管理テーブル440に同期させる。ここで、副側ディスク装置10bによるデータ再配置処理(S2140)において、副側ディスク装置10bは、正側ディスク装置10aの次回パス属性を非最適パスに変更し、副側ディスク装置10bの次回パス属性を最適パスに変更する。また、正側ディスク装置10aによるデータ再配置処理(S2220)において、正側ディスク装置10aは、副側ディスク装置10bの次回パス属性を非最適パスに変更し、正側ディスク装置10aの次回パス属性を最適パスに変更する。
その後、S2330においてディスク装置は、対象LUのページを順次選択し、対象LUのTier管理テーブル450から当該ページの現在Tierを確認し、対象LUのアクセス頻度テーブル460から当該ページの次回Tierを確認する。
その後、S2340においてディスク装置は、当該ページの次回Tierが、当該ページの現在Tierと異なる場合、現在Tierにおける当該ページのデータを次回Tierへ移動し、Tier管理テーブル450における当該ページの現在Tierへ次回Tierの値を保存する。
その後、S2350においてディスク装置は、対象LU内の全てのページを選択したか否かを判定する。未だ全てのページを選択していないと判定された場合(S2350:N)、ディスク装置は、処理をS2330へ戻し、次のページを選択する。全てのページを選択したと判定された場合(S2350:Y)、ディスク装置は、このフローを終了する。
以上のデータ再配置処理によれば、副側ディスク装置10bは、正側ディスク装置10aにより判定されたTierへデータを再配置することができる。その後、正側ディスク装置10aは、正側ディスク装置10aにより判定されたTierへデータを再配置することができる。
なお、実施例1及び2は、組み合わせられてもよい。
本発明の表現のための用語について説明する。第一ストレージ装置は、正側ディスク装置10aであってもよい。第二ストレージ装置は、副側ディスク装置10bであってもよい。第一ボリュームは、ボリュームAであってもよい。第二ボリュームは、ボリュームBであってもよい。第一格納位置情報及び第二格納位置情報の夫々は、キャッシュテーブルであってもよいし、アクセス頻度テーブル460であってもよい。第一処理及び第二処理の夫々は、事前ステージング処理であってもよいし、データ再配置処理であってもよい。第一通知及び第二通知の夫々は、準備完了報告であってもよい。第一記憶デバイス及び第二記憶デバイスの夫々は、ディスク161であってもよい。
以上、本発明の実施形態を説明したが、これは本発明の説明のための例示であって、本発明の範囲を上記構成に限定する趣旨ではない。本発明は、他の種々の形態でも実施する事が可能である。
10a…正側ディスク装置、 10b…副側ディスク装置、 20…ホスト計算機、 110…チャネル制御部、 120…プロセッサ、 130…接続部、 140…キャッシュメモリ、 150…ディスク制御部、 160…ディスクシャーシ、 161…ディスク
Claims (13)
- ホスト計算機に接続される第一ストレージ装置と、
前記ホスト計算機及び前記第一ストレージ装置に接続される第二ストレージ装置と、
を備え、
前記第一ストレージ装置は、第一ボリュームを前記ホスト計算機へ提供し、
前記第二ストレージ装置は、第二ボリュームを前記第一ボリュームとして前記ホスト計算機へ提供し、
前記ホスト計算機と前記第一ボリュームの間の第一パスが最適パスとして設定され、且つ前記ホスト計算機と前記第二ボリュームの間の第二パスが非最適パスとして設定されている場合、前記第一ストレージ装置は、前記ホスト計算機から第一I/O要求を受信すると、前記第一I/O要求に基づいて第一I/O処理を行い、前記第一I/O処理に基づいて、データの格納位置を示す第一格納位置情報を決定し、
前記第一ストレージ装置は、前記第一ストレージ装置のI/O性能が低下する可能性がある状態を検出すると、前記第一格納位置情報を前記第二ストレージ装置へ送信し、
前記第二ストレージ装置は、前記第一格納位置情報を受信すると、前記第一格納位置情報に基づいて第一処理を実行し、前記第一ストレージ装置へ第一通知を送信し、
前記第一ストレージ装置は、前記第一通知の受信後に、前記ホスト計算機からI/O要求を受信すると、前記第二パスが最適パスであることを示す第一応答を、前記ホスト計算機へ送信する、
ストレージシステム。 - 前記第一ストレージ装置は、前記ホスト計算機から第一ライトデータを受信すると、前記第一ボリュームへ前記第一ライトデータを書き込み、前記第一ライトデータを前記第二ボリュームへ書き込み、前記ホスト計算機へ応答を送信し、
前記第二ストレージ装置は、前記ホスト計算機から第二ライトデータを受信すると、前記第二ボリュームへ前記第二ライトデータを書き込み、前記第二ライトデータを前記第一ボリュームへ書き込み、前記ホスト計算機へ応答を送信する、
請求項1に記載のストレージシステム。 - 前記第一ストレージ装置は、前記第一パスに対し、最適パスであるか非最適パスであるかを示す第一パス情報を格納し、
前記第二ストレージ装置は、前記第二パスに対し、最適パスであるか非最適パスであるかを示す第二パス情報を格納し、
前記第一ストレージ装置は、前記第一通知の受信後に、前記ホスト計算機からI/O要求を受信すると、前記第一パス情報へ非最適パスを設定し、
前記第二ストレージ装置は、前記第一通知の送信後に、前記ホスト計算機からI/O要求を受信すると、前記第二パス情報へ最適パスを設定し、
請求項2に記載のストレージシステム。 - 前記第一ストレージ装置は、前記状態の終了を検出すると、第二処理を実行し、
前記第一ストレージ装置は、前記第二ストレージ装置へ第二通知を送信し、
前記第二ストレージ装置は、前記第二通知の受信後に、前記ホスト計算機からI/O要求を受信すると、前記第一パスが最適パスであることを示す第一応答を、前記ホスト計算機へ送信する、
請求項3に記載のストレージシステム。 - 前記第一ストレージ装置は、第一キャッシュメモリと、第一記憶デバイスとを含み、
前記第二ストレージ装置は、第二キャッシュメモリと、第二記憶デバイスとを含み、
前記第一ストレージ装置は、前記第一ボリューム内の論理記憶領域を、第一キャッシュメモリ内のキャッシュ領域と、第一記憶デバイス内のデバイス領域とに関連付け、
前記第二ストレージ装置は、前記第一ボリューム内の論理記憶領域を、第二キャッシュメモリ内のキャッシュ領域と、第二記憶デバイス内のデバイス領域とに関連付け、
前記第一格納位置情報は、前記第一キャッシュメモリ内のキャッシュ領域に関連付けられた、前記第一ボリューム内の論理記憶領域を示し、
前記第一処理は、前記第二記憶デバイスのうち、前記第一格納位置情報に示されている論理記憶領域に対応するデバイス領域から、前記第二キャッシュメモリへステージングする、
請求項4に記載のストレージシステム。 - 前記第一ストレージ装置は、前記第一応答の送信後、前記第一キャッシュメモリのうち、前記第一記憶デバイスに格納されているデータを格納しているキャッシュ領域を解放する、
請求項5に記載のストレージシステム。 - 前記第二ストレージ装置は、前記ホスト計算機から第二I/O要求を受信すると、前記第二I/O要求に基づいて第二I/O処理を行い、前記第二I/O処理に基づいて、第二格納位置情報を決定し、
前記第二格納位置情報は、前記第二キャッシュメモリ内のキャッシュ領域に関連付けられた、前記第一ボリューム内の論理記憶領域を示し、
前記第一ストレージ装置は、前記状態の終了を検出すると、終了通知を前記第二ストレージ装置へ送信し、
前記第二ストレージ装置は、前記終了通知を受信すると、前記第二格納位置情報を前記第一ストレージ装置へ送信し、
前記第一ストレージ装置は、前記第二格納位置情報を受信すると、前記第二処理を実行し、
前記第二処理は、前記第二格納位置情報に基づいて、前記第一記憶デバイス内で各論理記憶領域に対応するデバイス領域から、前記第一キャッシュメモリへステージする、
請求項6に記載のストレージシステム。 - 前記第二ストレージ装置は、前記第一処理の完了時点と、前記第一処理の開始時点とのうち、予め設定された時点で、前記第一通知を前記第一ストレージ装置へ送信する、
請求項7に記載のストレージシステム。 - 前記第一格納位置情報は、前記第一キャッシュメモリ内の複数のキャッシュ領域に夫々関連付けられた、前記第一ボリューム内の複数の論理記憶領域と、各論理記憶領域の最終アクセス時刻とを示し、
前記第二ストレージ装置は、前記第一処理の開始時に、前記第一通知を前記第一ストレージ装置へ送信し、
前記第二ストレージ装置は、前記複数の論理記憶領域に対し、最終アクセス時刻の降順に、各論理記憶領域に対応するデバイス領域から、前記第二キャッシュメモリへステージする、
請求項7に記載のストレージシステム。 - 前記第一ストレージ装置は、複数のストレージ階層に夫々対応する、複数の第一記憶デバイスを含み、
前記第二ストレージ装置は、前記複数のストレージ階層に夫々対応する、複数の第二記憶デバイスを含み、
前記第一ストレージ装置は、前記第一ストレージ装置内の仮想記憶領域に対し、前記複数のストレージ階層の中の第一ストレージ階層を割り当て、前記仮想記憶領域のデータを前記第一ストレージ階層に対応する第二記憶デバイスに格納し、前記仮想記憶領域のアクセス頻度を計測し、前記アクセス頻度に基づいてデータ再配置のための第二ストレージ階層を決定し、
前記第一ストレージ装置は、前記データ再配置に対して予め設定された開始タイミングを検出することで、前記状態を検出し、
前記第一格納位置情報は、前記決定されたストレージ階層を示し、
前記第一処理は、前記第一格納位置情報に基づいて、前記第一ストレージ階層に対応する第二記憶デバイス内の、前記仮想記憶領域に対応するデータを、前記第二ストレージ階層に対応する第二記憶デバイスへ移動させる、
請求項4に記載のストレージシステム。 - 前記第二ストレージ装置は、前記第一処理の完了後、前記第一ストレージ装置へ前記第一通知を送信し、
前記第一ストレージ装置は、前記第一通知を受信することで、前記状態の終了を検出し、
前記第二処理は、前記第一格納位置情報に基づいて、前記第一ストレージ階層に対応する第一記憶デバイス内の、前記仮想記憶領域に対応するデータを、前記第二ストレージ階層に対応する第一記憶デバイスへ移動させ、
前記第一ストレージ装置は、前記第二処理の完了後、前記第二ストレージ装置へ前記第二通知を送信する、
請求項10に記載のストレージシステム。 - 前記第一ストレージ装置は、前記状態を検出すると、前記第二ストレージ装置のI/O性能が低下する可能性があるか否かを判定し、前記第二ストレージ装置のI/O性能が低下する可能性がないと判定された場合、前記第一格納位置情報を前記第二ストレージ装置へ送信する、
請求項4に記載のストレージシステム。 - ホスト計算機に接続される第一ストレージ装置と、前記ホスト計算機及び前記第一ストレージ装置に接続される第二ストレージ装置と、を含むストレージシステムの制御方法であって、
前記第一ストレージ装置を用いて、第一ボリュームを前記ホスト計算機へ提供し、
前記第二ストレージ装置を用いて、第二ボリュームを前記第一ボリュームとして前記ホスト計算機へ提供し、
前記ホスト計算機と前記第一ボリュームの間の第一パスが最適パスとして設定され、且つ前記ホスト計算機と前記第二ボリュームの間の第二パスが非最適パスとして設定されている場合、前記第一ストレージ装置が、前記ホスト計算機から第一I/O要求を受信すると、前記第一ストレージ装置を用いて、前記第一I/O要求に基づいて第一I/O処理を行い、前記第一I/O処理に基づいて、データの格納位置を示す第一格納位置情報を作成し、
特定イベントの開始に応じて、前記第一ストレージ装置を用いて、前記第一格納位置情報を前記第二ストレージ装置へ送信し、
前記第二ストレージ装置が、前記第一格納位置情報を受信すると、前記第二ストレージ装置を用いて、前記第一格納位置情報に基づいて第一処理を実行し、前記第一ストレージ装置へ第一通知を送信し、
前記第一ストレージ装置が、前記第一通知の受信後に、前記ホスト計算機からI/O要求を受信すると、前記第一ストレージ装置を用いて、前記第二パスが最適パスであることを示す第一応答を、前記ホスト計算機へ送信する、
ことを備える制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/083629 WO2017094077A1 (ja) | 2015-11-30 | 2015-11-30 | ストレージシステムおよびストレージシステムの制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/083629 WO2017094077A1 (ja) | 2015-11-30 | 2015-11-30 | ストレージシステムおよびストレージシステムの制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017094077A1 true WO2017094077A1 (ja) | 2017-06-08 |
Family
ID=58796500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/083629 WO2017094077A1 (ja) | 2015-11-30 | 2015-11-30 | ストレージシステムおよびストレージシステムの制御方法 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2017094077A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007018236A (ja) * | 2005-07-07 | 2007-01-25 | Hitachi Ltd | ストレージ管理システム |
JP2007115019A (ja) * | 2005-10-20 | 2007-05-10 | Hitachi Ltd | ストレージのアクセス負荷を分散する計算機システム及びその制御方法 |
JP2012531654A (ja) * | 2009-10-09 | 2012-12-10 | 株式会社日立製作所 | ストレージシステム及びストレージシステムの通信パス管理方法 |
-
2015
- 2015-11-30 WO PCT/JP2015/083629 patent/WO2017094077A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007018236A (ja) * | 2005-07-07 | 2007-01-25 | Hitachi Ltd | ストレージ管理システム |
JP2007115019A (ja) * | 2005-10-20 | 2007-05-10 | Hitachi Ltd | ストレージのアクセス負荷を分散する計算機システム及びその制御方法 |
JP2012531654A (ja) * | 2009-10-09 | 2012-12-10 | 株式会社日立製作所 | ストレージシステム及びストレージシステムの通信パス管理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5965541B2 (ja) | ストレージ装置及びストレージ装置の制御方法 | |
EP2799973B1 (en) | A method for layered storage of enterprise data | |
JP4876187B2 (ja) | データ記憶ライブラリのための重複排除プロトコルを選択する装置および方法 | |
WO2014087441A1 (en) | Computer system and method of controlling computer system | |
US20190129971A1 (en) | Storage system and method of controlling storage system | |
CN104583930B (zh) | 数据迁移的方法、控制器和数据迁移装置 | |
US20080282047A1 (en) | Methods and apparatus to backup and restore data for virtualized storage area | |
US9323682B1 (en) | Non-intrusive automated storage tiering using information of front end storage activities | |
JP6511795B2 (ja) | ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム | |
US10168945B2 (en) | Storage apparatus and storage system | |
WO2013153581A1 (en) | Storage apparatus and data management method | |
US10789007B2 (en) | Information processing system, management device, and control method | |
US10225158B1 (en) | Policy based system management | |
JP5853734B2 (ja) | 仮想ストレージ装置,制御装置及び制御プログラム | |
WO2016181479A1 (ja) | ストレージシステムおよび記憶制御方法 | |
JP2007188341A (ja) | 記憶デバイス制御装置 | |
US20120317366A1 (en) | Computer system management apparatus and management method | |
US8738880B2 (en) | Throttling storage initialization for data destage | |
CN108431815B (zh) | 在处理器网格中的分布式数据的去重复数据 | |
CN109753223B (zh) | 用于检测存储系统中的慢存储设备操作的方法和系统 | |
US20140279967A1 (en) | Data compression using compression blocks and partitions | |
US10067682B1 (en) | I/O accelerator for striped disk arrays using parity | |
JP2008250458A (ja) | ストレージシステム及びストレージシステムの管理方法 | |
JP2013515292A (ja) | 複数のマイクロプロセッサを有するストレージシステム、及び、そのストレージシステムにおける処理分担方法 | |
CN110703995B (zh) | 存储系统架构及其访问数据的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15909707 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15909707 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |