WO2005006174A1 - Disc system - Google Patents

Disc system Download PDF

Info

Publication number
WO2005006174A1
WO2005006174A1 PCT/JP2003/008769 JP0308769W WO2005006174A1 WO 2005006174 A1 WO2005006174 A1 WO 2005006174A1 JP 0308769 W JP0308769 W JP 0308769W WO 2005006174 A1 WO2005006174 A1 WO 2005006174A1
Authority
WO
WIPO (PCT)
Prior art keywords
redundancy
stripe
disk
data
disk system
Prior art date
Application number
PCT/JP2003/008769
Other languages
French (fr)
Japanese (ja)
Inventor
Hidejiro Daikokuya
Mikio Ito
Kazuhiko Ikeuchi
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP2003/008769 priority Critical patent/WO2005006174A1/en
Priority to PCT/JP2004/009814 priority patent/WO2005006176A1/en
Publication of WO2005006174A1 publication Critical patent/WO2005006174A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1096Parity calculation or recalculation after configuration or reconfiguration of the system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device

Definitions

  • the present invention relates to a disk system.
  • R AID 5 is common.
  • FIG. 1 is a diagram showing a configuration of a disk system of the RAID 5.
  • the host 10 sends the host access data sequence to the channel adapter CA of the RAI D5 system.
  • a state in which D1 to D4 are arranged in a row is shown as a host access data string.
  • This is sent to the center module CM, temporarily stored in the cache, and then sent to the device adapter DA.
  • the device adapter DA controls R AID 5 for the received host access data sequence. That is, the data sequence is divided into stripes D1 to D4, and a process of adding a parity (represented as P in the figure) is performed. Then, the data sequence controlled by the R AID 5 is stored in four physical disks connected to the device adapter D A. As shown in the lower part of Fig. 1, the data should be stored so that D1 to D4, which are one data string, are evenly arranged on four physical disks. In addition, the parity is also stored on the distributed physical disk.
  • a system as shown in Fig. 3 exists as a countermeasure. That is,
  • Figure 4 is a diagram explaining the problems when rebuilding when many disks are connected.
  • the R AID 5 is configured using 16 physical disks.
  • rebuilding redundancy restoration processing
  • data is read from 15 disks, XOR is performed, parity is generated, and then data is written to the spare disk HS. Therefore, as more disks are connected, the number of disks that need to be read during rebuilding increases, and the process of rebuilding becomes slower.
  • Patent Literature 1 As conventional disk systems, there are systems such as those described in Patent Literature 1, Patent Literature 2, Patent Literature 3, and Patent Literature 4.
  • Patent Literature 1 discloses a newly-built built-in cache via technology when a processor of a channel adapter and a processor of a disk adapter access a shared memory.
  • Patent Document 2 discloses a technique in which a host adapter, a disk adapter, and a cache memory for temporary storage are connected to a common path and are commonly connected.
  • Patent Document 3 discloses a technique for performing a spindle / block write-back restoration in an array disk processing device.
  • Patent Document 4 discloses a technique in which a disk array is provided with a cache memory that functions as a virtual disk that holds the contents of a disk drive.
  • Patent Document 1
  • Patent Document 2
  • JP 7-200190A Disclosure of the Invention An object of the present invention is to provide a disk system which is excellent in scalability and can efficiently realize redundancy when a failure occurs.
  • the disk system of the present invention is a disk system adopting a redundancy configuration, and a stripe processing management means for managing stripes of data columns according to a setting as to whether a data column from a host is divided into stripes, Redundancy management means for providing data redundancy and storing the data on a plurality of physical disks based on the setting of whether or not to perform redundancy management on the data from the stripe processing management means; By separating the functions of management and redundancy management, disk systems of various configurations can be configured.
  • each of the center module and the device adapter has a function of managing the striping and a function of managing the redundancy, which are all conventionally performed by the device adapter.
  • Various disk systems can be easily constructed by combining them.
  • by receiving a plurality of device adapters DA as redundancy management means it is possible to easily expand the capacity of the disk system and to improve the performance by distributed processing.
  • the effects such as the write penalty that occurred in the conventional RAID 5 are closed within one device driver (redundancy management means), the effects can be prevented from affecting the entire disk system.
  • FIG. 1 is a diagram showing a configuration of a disk system of the RAID 5.
  • FIG. 5 is a configuration diagram of the disk system according to the embodiment of the present invention.
  • FIG. 6 is a diagram showing a state of mapping between a RAID group and a physical disk in the embodiment of the present invention.
  • FIG. 7 is a diagram showing a configuration of the RLU information table.
  • FIG. 8 is a configuration example of the DLU information table.
  • FIG. 9 is a flowchart showing the operation of the center module CM.
  • FIG. 10 is a flowchart showing the operation of the device adapter DA.
  • FIG. 11 is a diagram for explaining the configuration of R AID 1 when the disk system according to the embodiment of the present invention is used.
  • FIG. 12 is a diagram for explaining the configuration of R AID 0 + 1 when the disk system according to the embodiment of the present invention is used.
  • FIG. 13 is a view for explaining the configuration of R AID 5 when the disk system according to the embodiment of the present invention is used.
  • FIG. 14 is a diagram illustrating the configuration of R AID 0 + 5 when the disk system according to the embodiment of the present invention is used.
  • FIG. 15 is a diagram for explaining R AID 0 + 5.
  • FIG. 16 is a diagram for explaining rebuilding in the disk system according to the embodiment of the present invention.
  • FIG. 5 is a configuration diagram of the disk system according to the embodiment of the present invention.
  • the host 10 sends a host access data string.
  • the data stream is received by the channel adapter C A and transferred to the center module C M.
  • the center module CM performs only the stripe control and distributes the data string to the two device adapters DA.
  • Each device adapter DA performs RAI D5 control, generates parity, and stores each stripe on four physical disks connected to the device adapter DA.
  • the center module CM Stripe control is performed by considering the four physical disks connected to the device adapter DA as virtual disks, and then RAID 5 control, which is a control for redundancy, is performed at the device adapter DA corresponding to each virtual disk Like that.
  • Performance improvement by distributed processing can be expected by using multiple device adapters DA that perform R AID 5 control.
  • FIG. 6 is a diagram showing a state of mapping between a RAID group and a physical disk in the embodiment of the present invention.
  • the uppermost layer shows the entire disk system and is called the RAI D group.
  • stripe management is performed and data is distributed to virtual logical units.
  • redundancy management is performed, and each data stripe is mapped to a physical disk.
  • stripe management is to manage simple striping without redundancy.
  • Redundancy management refers to management of mirroring in RAID 1 and stripes including parity in RAID 5.
  • RAIDO the function of performing only stripe management that manages simple striping without redundancy.
  • various types of disk systems can be configured according to the presence / absence of stripe management, the presence / absence of redundancy management, and, in the redundancy management, mirror processing or stripe processing including parity. .
  • R RAA II DD 00 + + 55 Yes Stripe including parity The terms used in the following description are defined as follows.
  • RLB A is the LBA (Logical Buffer Address) of the RLU.
  • PLU means a physical disk alone.
  • PLBA is LBA of PLU.
  • DLU is logically an LU (logical unit) intermediate between RLU and PLU. It is a division of stripes from RLU, and the redundancy of PLU is considered.
  • DLBA is the LBA of DLU.
  • FIG. 7 is a diagram showing a configuration of the RLU information table.
  • the RLU information table is a table that holds information in RLU units. This table is mainly held by the center module CM, and a necessary part of the table is copied by the channel adapter CA and the device adapter DA.
  • RLUN is the RLU number. Status is the status of the RLU.
  • CM Module ID is the module ID of the CM in the configuration responsible for the R LU.
  • the Current CM Module ID is the module ID of the CM currently in charge of the R LU.
  • Raid Level indicates the RAID level of the RLU, RA ID 0 and RA ID 5 are set.
  • RLBAcount is the number of LBAs of the RLU.
  • Stripe Depth is the length of one stripe when striping.
  • the Stripe Size is, for example, the total length of the four stripes when one stripe is allocated to each of the four physical disks. That is, the total length of the stripes for the physical disk. Others are not so involved in the description of the embodiment of the present invention, and thus the description is omitted.
  • FIG. 8 is a configuration example of the DLU information table.
  • DLUN is the DLU number.
  • Stats is the status of the DLU.
  • RLUN is the RLU number to which the DLU belongs.
  • the Member Disk Number is a number indicating the order of the DLU constituting the stripe.
  • Start DLBA is the first LBA of DLU.
  • Block Count is the total number of blocks of the DLU. Stripe Depth and Stripe Size are as described above.
  • Member Disk Count is the number of disks used in the DLU.
  • DA ID XX is the module ID of DA connected to the D LU.
  • FIG. 9 is a flowchart showing the operation of the center module CM.
  • step S10 the presence or absence of stripe management is determined. If it is determined in step S10 that there is no stripe management, in step S11, the spectrum traprocessor is divided. Then, using the RLU information tape, the set of RL UN and RLB A is converted into a corresponding set of DLUN and DL BA at least equal to or greater than tar. If it is determined in step S10 that there is stripe management, in step S12 the RLU information table is Using the set of 1 111 ⁇ and 1 8, a corresponding one-to-one conversion is performed to the corresponding 111 [and] 38.
  • step S13 the type of redundancy management is determined.
  • step S13 when it is determined that there is no redundancy management, in step S16, the pair of DLUN and DLB A is used for the corresponding P LUN and PLB A using the DLU information table. One-to-one conversion into pairs is performed, and the process proceeds to step S17.
  • step S15 If it is determined in step S13 that the redundancy management is mirroring, mirroring is considered in step S15.
  • the pair of DLUN and DLBA is converted into two corresponding pairs of P LUN and PLBA, and the process proceeds to step S17.
  • step S13 if it is determined that the redundancy management is a stripe including parity, in step S14, the device adapter DA functions by designating a pair of DL UN and DLB A. to perform processing. finish.
  • step S17 a pair of a P LUN and a PLB A is specified for the device adapter DA, activated, and the processing is terminated.
  • FIG. 10 is a flowchart showing the operation of the device adapter DA.
  • step S20 the type of the designated LUN is determined. If it is determined in step S20 that the type is a pair of P LUN and PLB A, then in step S21, the disk is processed according to the specified pair of P LUN and PLB A. (Read, write, etc.) and terminate the process. If it is determined that the type in step S20 is a pair of DLUN and DLBA, in step S22, the conventional RAID 5 is controlled. In the process of controlling RA ID 5, the set of 0 1; ⁇ 1 and 018 is converted into at least one set of PL UN and P LB A corresponding to the set using the DLU information table. Executes reading and writing to the disk, and ends the processing.
  • FIG. 11 is a diagram for explaining the configuration of RAID 1 when the disk system according to the embodiment of the present invention is used.
  • FIG. 12 is a diagram illustrating the configuration of R AID 0 + 1 when the disk system according to the embodiment of the present invention is used.
  • FIG. 12 is a diagram showing how data is stored. There are four DLUs, # 0 to # 3, each of which is associated with two PLUs. The data is divided by striking and DO, D1, ..., D15 from the top. These are stored one by one in the horizontal direction, that is, in the direction of different virtual logical units.
  • FIG. 13 is a diagram for explaining the configuration of RAID 5 when the disk system according to the embodiment of the present invention is used.
  • the correspondence between the RA ID group RLU and the virtual logical unit DLU is one-to-one.
  • the correspondence between the DLU and the physical disk PLU is one-to-many (in this case, one-to-four), and the DLU performs RA ID 5 control.
  • redundancy control is performed on a data string divided into stripes, and data is stored on each physical disk along with parity.
  • FIG. 14 is a diagram illustrating the configuration of R AID 0 + 5 when the disk system according to the embodiment of the present invention is used.
  • two virtual logical units DLU correspond to the RAID group RLU, and during this time, mapping is performed by striping. Between the DLU and the physical disk PLU, four PLUs correspond to one DLU and are mapped by RAID5 control. As shown in the lower part of FIG. 14, data is first divided into two DLUs by striping, and these are divided into four physical disks by RAID5 control. At this time, parity is generated because the RAID 5 control performs redundancy management. Also, the Stripe Size of the DLU information table and the Stripe Depth of the RLU information table are equal.
  • FIG. 15 is a diagram for explaining RA ID 0 + 5.
  • the CM performs stripe control and maps data to four DAs. Each DA performs redundancy management and maps data to four physical disks. In the above example, the CM maps to two DAs. However, the CM can be added in units of DAs and the physical disks under the DAs, so that the performance can be improved by distributed processing. Further, as described above, in the disk system according to the embodiment of the present invention, a disk system having various configurations other than RA ID 0 + 5 can be configured. And DA that performs RA ID 5 control.
  • FIG. 16 is a diagram for explaining rebuilding in the disk system according to the embodiment of the present invention. If DA has 4 FC ports, RAI D0 + 5 is formed by combining 4 physical disks connected to different FC ports, so that when rebuilding any DLU, up to 3 disks are read. Limited, read / write is possible even when 1 FC loop loop down occurs. Industrial applicability
  • the present invention provides a disk system as a storage device of a computer system that has excellent scalability, has a large degree of freedom in configuration, and can limit the influence of performance degradation to maintain the performance of the entire system. Can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)

Abstract

An access data string transmitted from a host (10) is sent to a center module (CM) via a channel adapter (CA). Here, it is decided whether to perform striping management. If the striping management is performed and the data is divided into stripes, the plurality of the stripes are sent to a plurality of device adapters (DA). In the device adapters (DA), it is possible to set a type of control of an RAID (5), whether to perform mirroring, or to perform nothing. If control of the RAID (5) is performed, a parity is added to the data which has been divided into stripes and the data is stored in a physical disc connected to the device adapter (DA).

Description

明細書 ディスクシステム 技術分野  Description Disc system Technical field
本発明は、 ディスクシステムに関する。 背景技術  The present invention relates to a disk system. Background art
現在では、 さまざまなディスクシステムが実用化されているが、 その中でも R A I D 5は一般的である。  At present, various disk systems are in practical use, and among them, R AID 5 is common.
図 1は、 R A I D 5のディスクシステムの構成を示す図である。  FIG. 1 is a diagram showing a configuration of a disk system of the RAID 5.
ホスト 1 0から、 R A I D 5システムのチャネルアダプタ C Aにホストのァ クセスデータ列が送信される。 同図では、 D 1〜D 4がー列に配列された様子 がホストのアクセスデータ列として示されている。 これは、 センタモジュール C Mに送られ、 キヤッシュに一旦格納された後、 デバイスアダプタ D Aに送ら れる。デバイスアダプタ D Aでは、受信したホストアクセスデータ列について、 R A I D 5の制御を行う。 すなわち、 データ列を D 1〜D 4のそれぞれのスト ライプに分割し、 パリティ (同図では、 Pと表されている) を付加する処理を 行う。 そして、 R A I D 5制御されたデ一タ列は、 デバイスアダプタ D Aに接 続される 4つの物理ディスクに格納される。 格納の仕方は、 図 1の下に記載さ れているように、 1つのデータ列であった D 1〜D 4が 4つの物理ディスクに 均等に配置されるようにする。 また、 パリティも同様にして分配された物理デ イスクに格納される。  The host 10 sends the host access data sequence to the channel adapter CA of the RAI D5 system. In the figure, a state in which D1 to D4 are arranged in a row is shown as a host access data string. This is sent to the center module CM, temporarily stored in the cache, and then sent to the device adapter DA. The device adapter DA controls R AID 5 for the received host access data sequence. That is, the data sequence is divided into stripes D1 to D4, and a process of adding a parity (represented as P in the figure) is performed. Then, the data sequence controlled by the R AID 5 is stored in four physical disks connected to the device adapter D A. As shown in the lower part of Fig. 1, the data should be stored so that D1 to D4, which are one data string, are evenly arranged on four physical disks. In addition, the parity is also stored on the distributed physical disk.
図 2〜図 4は、 従来の R A I D 5の問題点を説明する図である。  2 to 4 are diagrams for explaining the problems of the conventional RAID5.
図 2に示すように、 従来の R A I D 5システムでは、 —台のディスクの故障 が原因でループダウンが発生し、 そのディスクを含む F C (Fiber Channel) ル一プ上のデイスクが全て見えなくなる障害が生じる。 つまり、 従来の R A IAs shown in Figure 2, in a traditional RAID 5 system,-one disk failed As a result, a loop-down occurs, and all the disks on the FC (Fiber Channel) loop including the disk become invisible. In other words, the traditional RAI
D 5のディスクの組み方では、 虽一の F C
Figure imgf000004_0001
In the way of assembling the disk of D5,
Figure imgf000004_0001
5を組んでいたため、 ループダゥンによって R A I Dグループを構成する複数 のディスクへのアクセスができなくなることがあり、 その結果、 リード/ライ トといった通常の入出力の処理が不可能になる場合があった。  In this case, multiple disks in the RAID group could not be accessed due to loop-down due to the loop-down configuration, and as a result, normal I / O processing such as read / write could not be performed. .
そこで、 その対策として、 図 3のようなシステムが存在する。 すなわち、 デ
Figure imgf000004_0002
Therefore, a system as shown in Fig. 3 exists as a countermeasure. That is,
Figure imgf000004_0002
続されるループに 1つずつのディスクを接続するものである。 この場合、 異な るループに接続される合計 4つのディスクで 1つの R A I Dグループを構成す るようにする。 従って、 図 3の 4つのディスクが 1組となる。 ここで、 4つの ディスクの内、 1つが故障したとしても、 他の 3つのディスクはアクセスが可 能である。 従って、 パリティを使用して、 故障したディスクに格納されていた データを復帰することが可能となる。 It connects one disk at a time to the following loop. In this case, a total of four disks connected to different loops make up one RAID group. Therefore, the four disks in Fig. 3 form a set. Here, if one of the four disks fails, the other three disks are still accessible. Therefore, the data stored on the failed disk can be restored using the parity.
図 4は、 多くのディスクが接続されている場合にリビルドを実行するときの 問題点を説明する図である。  Figure 4 is a diagram explaining the problems when rebuilding when many disks are connected.
図 4の構成は、 1 6個の物理デイスクを用いて R A I D 5を構成したもので ある。 リビルド (冗長性の復元処理) においては、 1 5個のディスクからデー タを読み込み、 X O Rを行って、 パリティを生成してから、 データの書き込み をスペアディスク H Sに行う。従って、多くのディスクが接続されているほど、 リビルドにおいて、 読み込みを行う必要のあるディスクが増え、 リビルドの処 理が遅くなるという問題がある。  In the configuration of FIG. 4, the R AID 5 is configured using 16 physical disks. In rebuilding (redundancy restoration processing), data is read from 15 disks, XOR is performed, parity is generated, and then data is written to the spare disk HS. Therefore, as more disks are connected, the number of disks that need to be read during rebuilding increases, and the process of rebuilding becomes slower.
また、同様な問題としてライト時の時、処理遅延が生じるという問題がある。 例えば、 R A I D 5において、 ライ トバックをする場合、 R A I Dグループが ディスク故障等により冗長性を失った状態でライ トを行う場合、 特に、 データ が書き込まれるべきディスクが故障していた場合には、 パリティを除く全ての ディスクから読み込んだデータとライトバックすべきデータから XORし、 パ リティを作成し、 これをパリティのディスクに書き込む。 従って、 全てのディ スクに対してリードあるいはライトを行うため、 処理が遅延しやすい。 Further, as a similar problem, there is a problem that a processing delay occurs at the time of writing. For example, in RAID 5, when writing back, when writing in a state in which the RAID group has lost redundancy due to a disk failure, etc. If the disk to which data is to be written has failed, XOR is performed on the data read from all disks except parity and the data to be written back, a parity is created, and this is written to the parity disk. Therefore, processing is liable to be delayed because all disks are read or written.
従来のディスクシステムとしては、 特許文献 1、 特許文献 2、 特許文献 3、 特許文献 4に記載されたようなシステムが存在する。  As conventional disk systems, there are systems such as those described in Patent Literature 1, Patent Literature 2, Patent Literature 3, and Patent Literature 4.
特許文献 1においては、 チャネルアダプタのプロセッサとディスクァダプタ のプロセッサが共有メモリにアクセスする際には、 新たに設けられた内蔵でキ ャッシュを経由させる技術が開示されている。 特許文献 2においては、 ホスト アダプタ、 ディスクアダプタ及ぴ一時記憶用キャッシュメモリがコモンパスに 接続される共通して接続される技術が開示されている。特許文献 3においては、 ァレイディスク処理装置において、 スピンドル/プロック書き戻し復元を行う ようにした技術が開示されている。 特許文献 4においては、 ディスクアレイに おいて、 ディスクドライブの内容を保持する仮想デイスクとして働くキヤッシ' ュメモリを設ける技術が開示されている。  Patent Literature 1 discloses a newly-built built-in cache via technology when a processor of a channel adapter and a processor of a disk adapter access a shared memory. Patent Document 2 discloses a technique in which a host adapter, a disk adapter, and a cache memory for temporary storage are connected to a common path and are commonly connected. Patent Document 3 discloses a technique for performing a spindle / block write-back restoration in an array disk processing device. Patent Document 4 discloses a technique in which a disk array is provided with a cache memory that functions as a virtual disk that holds the contents of a disk drive.
特許文献 1 Patent Document 1
特開 2001 -306265号公報 JP 2001-306265 A
特許文献 2 Patent Document 2
特開平 7— 20994号公報 JP-A-7-20994
特許文献 3 Patent Document 3
特開平 1 1一 66693号公報 JP-A-11-66693
特許文献 4 Patent Document 4
特開平 7— 200190号公報 発明の開示 本発明の課題は、 拡張性に優れ、 かつ、 障害が生じたときの冗長性を効率よ く実現することができるディスクシステムを提供することである。 JP 7-200190A Disclosure of the Invention An object of the present invention is to provide a disk system which is excellent in scalability and can efficiently realize redundancy when a failure occurs.
本発明のディスクシステムは、 冗長性構成を採用したディスクシステムであ つて、 ホストからのデータ列をストライプに分割するか否かの設定に従ってデ ータ列のストライプ管理を行うストライプ処理管理手段と、 該ストライプ処理 管理手段からのデータに冗長性管理を行うか否かの設定に基づいて、 データに 冗長性を与えて複数の物理ディスクにデータを格納する冗長性管理手段とを備 え、 ストライビング管理と冗長性管理の機能を分離することにより、 さまざま な構成のデイスクシステムを構成可能としたことを特徴とする。  The disk system of the present invention is a disk system adopting a redundancy configuration, and a stripe processing management means for managing stripes of data columns according to a setting as to whether a data column from a host is divided into stripes, Redundancy management means for providing data redundancy and storing the data on a plurality of physical disks based on the setting of whether or not to perform redundancy management on the data from the stripe processing management means; By separating the functions of management and redundancy management, disk systems of various configurations can be configured.
本発明によれば、 従来デバイスアダプタで全て行われていたストライビング の管理と冗長性の管理の機能をセンタモジュールとデバイスァダプタのそれぞ れが別々に有するようにしたので、 これらの機能の組み合わせによりさまざま なディスクシステムを簡単に構築できる。 また、 冗長性管理手段であるデバィ スアダプタ D Aを複数も受けることによって、 ディスクシステムの容量を容易 に拡張し、 しかも、 分散処理による性能向上を図ることができる。 また、 従来 の R A I D 5で生じていたライトペナルティなどの影響は、 1つのデバイスド ライパ (冗長性管理手段) 内で閉じるので、 影響がディスクシステム全体に及 ぶのを防ぐことができる。 図面の簡単な説明  According to the present invention, each of the center module and the device adapter has a function of managing the striping and a function of managing the redundancy, which are all conventionally performed by the device adapter. Various disk systems can be easily constructed by combining them. Also, by receiving a plurality of device adapters DA as redundancy management means, it is possible to easily expand the capacity of the disk system and to improve the performance by distributed processing. In addition, since the effects such as the write penalty that occurred in the conventional RAID 5 are closed within one device driver (redundancy management means), the effects can be prevented from affecting the entire disk system. Brief Description of Drawings
図 1は、 R A I D 5のディスクシステムの構成を示す図である。  FIG. 1 is a diagram showing a configuration of a disk system of the RAID 5.
図 2〜図 4は、 従来の R A I D 5の問題点を説明する図である。  2 to 4 are diagrams for explaining the problems of the conventional RAID5.
図 5は、 本発明の実施形態に従ったディスクシステムの構成図である。 図 6は、 本発明の実施形態における R A I Dグループと物理ディスクとのマ ッビングの様子を示した図である。 図 7は、 R L U情報テーブルの構成を示す図である。 FIG. 5 is a configuration diagram of the disk system according to the embodiment of the present invention. FIG. 6 is a diagram showing a state of mapping between a RAID group and a physical disk in the embodiment of the present invention. FIG. 7 is a diagram showing a configuration of the RLU information table.
図 8は、 D L U情報テーブルの構成例である。  FIG. 8 is a configuration example of the DLU information table.
図 9は、 センタモジュール CMの動作を示すフローチヤ一トである。  FIG. 9 is a flowchart showing the operation of the center module CM.
図 1 0は、 デバイスアダプタ D Aの動作を示すフローチャートである。  FIG. 10 is a flowchart showing the operation of the device adapter DA.
図 1 1は、 本発明の実施形態に従ったデイスクシステムを用いた場合の R A I D 1の構成を説明する図である。  FIG. 11 is a diagram for explaining the configuration of R AID 1 when the disk system according to the embodiment of the present invention is used.
図 1 2は、 本発明の実施形態に従つたデイスクシステムを用いた場合の R A I D 0 + 1の構成を説明する図である。  FIG. 12 is a diagram for explaining the configuration of R AID 0 + 1 when the disk system according to the embodiment of the present invention is used.
図 1 3は、 本発明の実施形態に従ったディスクシステムを用いた場合の R A I D 5の構成を説明する図である。  FIG. 13 is a view for explaining the configuration of R AID 5 when the disk system according to the embodiment of the present invention is used.
図 1 4は、 本発明の実施形態のディスクシステムを用いた場合の R A I D 0 + 5の構成を説明する図である。  FIG. 14 is a diagram illustrating the configuration of R AID 0 + 5 when the disk system according to the embodiment of the present invention is used.
図 1 5は、 R A I D 0 + 5について説明する図である。  FIG. 15 is a diagram for explaining R AID 0 + 5.
図 1 6は、 本発明の実施形態のディスクシステムにおけるリビルドについて 説明する図である。 発明を実施するための最良の形態  FIG. 16 is a diagram for explaining rebuilding in the disk system according to the embodiment of the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
図 5は、 本発明の実施形態に従ったディスクシステムの構成図である。  FIG. 5 is a configuration diagram of the disk system according to the embodiment of the present invention.
まず、ホスト 1 0からホストのアクセスデータ列が送出される。データ列は、 チャネルアダプタ C Aによって受信され、センタモジユール C Mに転送される。 センタモジュール CMは、 ストライプ制御のみを行い、 データ列を 2つのデバ イスアダプタ D Aに振り分ける。 各デバイスアダプタ D Aでは、 R A I D 5制 御を行い、 パリティを生成して、 デバイスアダプタ D Aに接続されている 4つ の物理ディスクに各ストライプを格納する。  First, the host 10 sends a host access data string. The data stream is received by the channel adapter C A and transferred to the center module C M. The center module CM performs only the stripe control and distributes the data string to the two device adapters DA. Each device adapter DA performs RAI D5 control, generates parity, and stores each stripe on four physical disks connected to the device adapter DA.
図 5より明らかなように、 本発明の実施形態では、 センタモジュール CMが デバイスアダプタ D Aに接続されている 4つの物理デイスク群を仮想デイスク とみなして、 ストライプ制御を行い、 その後、 各仮想ディスクに対応するデバ イスアダプタ D Aにおいて、 冗長化の制御である R A I D 5制御を行うように している。 As is clear from FIG. 5, in the embodiment of the present invention, the center module CM Stripe control is performed by considering the four physical disks connected to the device adapter DA as virtual disks, and then RAID 5 control, which is a control for redundancy, is performed at the device adapter DA corresponding to each virtual disk Like that.
以上の本発明の実施形態によれば、  According to the above embodiment of the present invention,
1 ) ストライプ制御を行うセンタモジュール C Mと R A I D 5制御を行うデバ イスアダプタ D Aとに役割を分担したので、構成の自由度が以上に大きくなる。 1) The roles are divided between the center module CM that performs stripe control and the device adapter DA that performs R AID 5 control, so the degree of freedom in configuration is further increased.
2 ) R A I D 5制御を行うデバイスアダプタ D Aを複数使用することで、 分散 処理による性能改善が期待できる。 2) Performance improvement by distributed processing can be expected by using multiple device adapters DA that perform R AID 5 control.
3 ) 一般的に R A I D 5は、 構成するディスク数が多いほどディスク故障時に おけるライトペナルティによる使用ディスク数が多くなるが、 本発明の実施形 態においては、 仮想デイスク内だけにライトペナルティの影響があるだけで、 影響範囲が小さくて済む。  3) In general, in RAID 5, as the number of configured disks increases, the number of disks used due to a write penalty in the event of a disk failure increases.However, in the embodiment of the present invention, the effect of the write penalty is limited only to the virtual disk. Just having a small area of influence is enough.
という利点がある。 There is an advantage.
図 6は、 本発明の実施形態における R A I Dグループと物理ディスクとのマ ッピングの様子を示した図である。  FIG. 6 is a diagram showing a state of mapping between a RAID group and a physical disk in the embodiment of the present invention.
まず、 最上位の層では、 ディスクシステム全体を示しており、 R A I Dダル ープと呼ぶ。 次の段階で、 ストライプ管理を行い、 仮想論理ユニットにデータ を振り分ける処理を行う。 次に、 冗長性管理を行い、 物理ディスクに各データ のストライプをマッピングする。  First, the uppermost layer shows the entire disk system and is called the RAI D group. At the next stage, stripe management is performed and data is distributed to virtual logical units. Next, redundancy management is performed, and each data stripe is mapped to a physical disk.
ここで、 ストライプ管理とは、 冗長性を伴わない、 単純なストライビングを 管理するものである。 また、 冗長性管理とは、 R A I D 1におけるミラーリン グゃ、 R A I D 5におけるパリティを含むストライプを管理するものである。 ここで、 冗長性を伴わない、 単純なストライビングの管理をするストライプ管 理のみを行う機能のことを R A I D Oと呼ぶことにする。 本発明の実施形態のディスクシステムにおいては、ストライプ管理の有無と、 冗長性管理の有無及び、 冗長性管理において、 ミラーリングかパリティを含む ストライプ処理かによってさまざまな形態のディスクシステムを構成すること ができる。 Here, stripe management is to manage simple striping without redundancy. Redundancy management refers to management of mirroring in RAID 1 and stripes including parity in RAID 5. Here, the function of performing only stripe management that manages simple striping without redundancy is referred to as RAIDO. In the disk system according to the embodiment of the present invention, various types of disk systems can be configured according to the presence / absence of stripe management, the presence / absence of redundancy management, and, in the redundancy management, mirror processing or stripe processing including parity. .
ストライプ管理 冗長性管理  Stripe management Redundancy management
RA I D 0 有り 無し  RA I D 0 Yes No
RA I D 1 無し ミラーリング  RA I D 1 None Mirroring
RA I D 0 + 1 有り ミラ一リンク"  RA I D 0 + 1 Yes Mira link "
RA I D 5 無し パリティを含むストライプ RA I D 5 None Stripe with parity
R RAA II DD 00 + + 55 有り パリティを含むストライプ なお、 以下の説明において使用する用語を以下のように定義する。 まず、 R LUとは一つの RA I Dグループをあらわすこととする。 RLB Aは RLUの LBA (論理バッファァドレス) のこととする。 P L Uとは物理デイスク単体 をあらわすこととする。 PLBAは、 P LUの LB Aのこととする。 DLUと は論理上、 RLUと PLUの中間に位置する LU (論理ユニット) で、 RLU からストライプの分割を行つたものであり、 P LUについて冗長性を考慮した ものとする。 DLBAは、 DLUの LBAのこととする。 R RAA II DD 00 + + 55 Yes Stripe including parity The terms used in the following description are defined as follows. First, an R LU represents one RA ID group. RLB A is the LBA (Logical Buffer Address) of the RLU. PLU means a physical disk alone. PLBA is LBA of PLU. DLU is logically an LU (logical unit) intermediate between RLU and PLU. It is a division of stripes from RLU, and the redundancy of PLU is considered. DLBA is the LBA of DLU.
図 7は、 R L U情報テーブルの構成を示す図である。  FIG. 7 is a diagram showing a configuration of the RLU information table.
RLU情報テ一ブルは、 R L U単位の情報を保持するテーブルである。 この テーブルは、 主に、 センタモジュール CMが有し、 そのうち、 必要な部分のコ ピ一をチヤネルァダプタ C Aゃデバイスァダプタ D Aが有する。 RLUNは、 RLUの番号である。 S t a t u sは、 R LUのステータスである。 Define CM Module ID は、 当該 R LUを担当する構成上の CMのモジュール I D である。 Current CM Module IDは、 現在、 当該 R LUを担当する CMの モジュール I Dである。 Raid Levelは、当該 R L Uの R A I Dレベルを示し、 RA I D 0や RA I D 5などが設定される。 RLBA c o un tは、 当該 R LUの LB A数である。 Stripe Depthは、 ストライビングするときの 1つの ストライプの長さである。 Stripe Sizeは、 例えば、 4つの物理ディスクにそ れぞれ 1つずっストライプを割り当てたときの、 4つのストライプの合計の長 さである。 すなわち、 物理ディスク分のストライプの合計の長さである。 その 他は、 本発明の実施形態の説明にあまり関与しないので説明を省略する。 The RLU information table is a table that holds information in RLU units. This table is mainly held by the center module CM, and a necessary part of the table is copied by the channel adapter CA and the device adapter DA. RLUN is the RLU number. Status is the status of the RLU. Define CM Module ID is the module ID of the CM in the configuration responsible for the R LU. The Current CM Module ID is the module ID of the CM currently in charge of the R LU. Raid Level indicates the RAID level of the RLU, RA ID 0 and RA ID 5 are set. RLBAcount is the number of LBAs of the RLU. Stripe Depth is the length of one stripe when striping. The Stripe Size is, for example, the total length of the four stripes when one stripe is allocated to each of the four physical disks. That is, the total length of the stripes for the physical disk. Others are not so involved in the description of the embodiment of the present invention, and thus the description is omitted.
図 8は、 D L U情報テーブルの構成例である。  FIG. 8 is a configuration example of the DLU information table.
これは、 DLU単位の情報を保持するテ一ブルである。 このテーブルは、 主 に、 センタモジュール CMが有し、 そのうち、 必要な部分のコピーをチャネル アダプタ C Aやデバイスアダプタ D Aが有する。 DLUNは、 DLU番号。 S t a t u sは D LUのステータス。 RLUNは、 当該 D L Uが属する R L U番 号。 Member Disk Numberは、 当該 D LUがストライプを構成する何番目の DLUであるかを表す数である。 Start DLBAは、 DLUの先頭 LBA。 Block Countは、 当該 D LUの総ブロック数。 Stripe Depthと Stripe Sizeは、 前 述の通りである。 Member Disk Countは、 当該 D L Uで使用するディスク の個数。 DA ID XXは、 当該 D LUにつながる D Aのモジュール I D。 PLU in Use xxは、現在の D L Uを構成している PLU番号。 Defined PLU xx は、 DLUを構成する構成上の P LU番号である。  This is a table holding information in DLU units. This table is mainly held by the center module CM, and a necessary part of the table is copied by the channel adapter CA and the device adapter DA. DLUN is the DLU number. Stats is the status of the DLU. RLUN is the RLU number to which the DLU belongs. The Member Disk Number is a number indicating the order of the DLU constituting the stripe. Start DLBA is the first LBA of DLU. Block Count is the total number of blocks of the DLU. Stripe Depth and Stripe Size are as described above. Member Disk Count is the number of disks used in the DLU. DA ID XX is the module ID of DA connected to the D LU. PLU in Use xx is the PLU number that makes up the current DLU. Defined PLU xx is the PLU number in the configuration that makes up the DLU.
図 9は、 センタモジュール CMの動作を示すフローチャートである。  FIG. 9 is a flowchart showing the operation of the center module CM.
まず、 ステップ S 10において、 ストライプ管理の有無を判断する。 ステツ プ S 10において、 ストライプ管理無しと判断された場合には、 ステップ S 1 1において、 スぺク トルトラプロセッサを分割する。 そして、 RLU情報テー プルを用いて、 R L UNと RLB Aの組をこれに対応する少なくともー靼以上 の DLUNと DL B Aの組に変換する。 ステップ S 10において、 ストライプ 管理があると判断された場合には、 ステップ S 12で、 RLU情報テーブルを 用いて、 1 111^と1 8 の組をこれに対応する0し111[と]3 8 の糸且に —対一の変換をする。 First, in step S10, the presence or absence of stripe management is determined. If it is determined in step S10 that there is no stripe management, in step S11, the spectrum traprocessor is divided. Then, using the RLU information tape, the set of RL UN and RLB A is converted into a corresponding set of DLUN and DL BA at least equal to or greater than tar. If it is determined in step S10 that there is stripe management, in step S12 the RLU information table is Using the set of 1 111 ^ and 1 8, a corresponding one-to-one conversion is performed to the corresponding 111 [and] 38.
ステップ S 1 3では、 冗長性管理の種類を判断する。 ステップ S 1 3におい て、 冗長性管理がないと判断された場合には、 ステップ S 16において、 DL U情報テーブルを用いて、 DLUNと DLB Aの組をこれに対応する P LUN と PLB Aの組に一対一変換し、 ステップ S 1 7に進む。  In step S13, the type of redundancy management is determined. In step S13, when it is determined that there is no redundancy management, in step S16, the pair of DLUN and DLB A is used for the corresponding P LUN and PLB A using the DLU information table. One-to-one conversion into pairs is performed, and the process proceeds to step S17.
ステップ S 1 3において、 冗長性管理がミラーリングであると判断された-場 合には、 ステップ S 1 5において、 ミラーリングを考慮する。 DLU情報テー ブルを用いて、 DLUNと DLBAの組をこれに対応する二組の P LUNと P LBAの組に変換し、 ステップ S 1 7に進む。  If it is determined in step S13 that the redundancy management is mirroring, mirroring is considered in step S15. Using the DLU information table, the pair of DLUN and DLBA is converted into two corresponding pairs of P LUN and PLBA, and the process proceeds to step S17.
ステップ S 1 3において、 冗長性管理がパリティを含むストライプであると 判断された場合には、 ステップ S 14において、 デバイスアダプタ DAに DL UNと D L B A.の組を指定して機能し、 処理を終了する。  In step S13, if it is determined that the redundancy management is a stripe including parity, in step S14, the device adapter DA functions by designating a pair of DL UN and DLB A. to perform processing. finish.
ステップ S 1 7では、 デバイスアダプタ DAに P LUNと P LB Aの組を指 定して起動し、 処理を終了する。  In step S17, a pair of a P LUN and a PLB A is specified for the device adapter DA, activated, and the processing is terminated.
図 10は、 デバイスアダプタ DAの動作を示すフローチャートである。 ステップ S 20において、 指定された L UNの種別を判 fする。 ステップ S 20の判断で、種別が、 P LUNと P LB Aの組であると判断された場合には、 ステップ S 21において、 指定された P LUNと P LB Aの組に従ってデイス クへの処理 (リード、 ライト等) を実行し、 処理を終了する。 ステップ S 20 の種別が、 D L U Nと D L B Aの組であると判断された場合には、 ステップ S 22において、 従来技術である R A I D 5の制御を行う。 RA I D 5の制御の 過程において、 DLU情報テーブルを用いて、 0 1;^1と01 8 の組をこれ に対応する少なくとも一組以上の P L UNと P LB Aの組に変換し、 個々のデ イスクへのリード、 ライトを実行し、 処理を終了する。 図 1 1は、 本発明の実施形態に従ったディスクシステムを用いた場合の R A I D 1の構成を説明する図である。 FIG. 10 is a flowchart showing the operation of the device adapter DA. In step S20, the type of the designated LUN is determined. If it is determined in step S20 that the type is a pair of P LUN and PLB A, then in step S21, the disk is processed according to the specified pair of P LUN and PLB A. (Read, write, etc.) and terminate the process. If it is determined that the type in step S20 is a pair of DLUN and DLBA, in step S22, the conventional RAID 5 is controlled. In the process of controlling RA ID 5, the set of 0 1; ^ 1 and 018 is converted into at least one set of PL UN and P LB A corresponding to the set using the DLU information table. Executes reading and writing to the disk, and ends the processing. FIG. 11 is a diagram for explaining the configuration of RAID 1 when the disk system according to the embodiment of the present invention is used.
LUNは、ストライプがないため R L U Nに対応する D L U Nは一つのみで、 ミラーリングでは、 2ディスクを使うので DL UNは 2つ設けられる。 LBA は、 ストライプがないため、 RLB A = DLB Aとなる。 ミラーリングでは両 ディスクに同じ情報が書き込まれるだけなので、 DLBA=PLBAとなる。 図 1 1では、 RA I Dグループ RLUが仮想論理ュ-ット DLUと一対一の 関係にあり、 仮想論理ュニット D L Uが 2つの物理ディスク PLUにミラーリ ングを行って、 データを格納する。  Since a LUN does not have a stripe, there is only one DLUN corresponding to RLUN. In mirroring, two DLUNs are provided because two disks are used. Since LBA has no stripe, RLB A = DLB A. Since mirroring only writes the same information to both disks, DLBA = PLBA. In FIG. 11, the RAID group RLU has a one-to-one relationship with the virtual logical unit DLU, and the virtual logical unit DLU mirrors two physical disks PLU to store data.
図 12は、 本発明の実施形態に従ったディスクシステムを用いた場合の R A I D 0 + 1の構成を説明する図である。  FIG. 12 is a diagram illustrating the configuration of R AID 0 + 1 when the disk system according to the embodiment of the present invention is used.
RA I Dブループ RLUには、 4つの仮想論理ュニット DLUがマッピング される。 このマッピングはストライビングを行うことによって実現される。 そ して、 仮想論理ュニット D L Uのそれぞれには、 物理ディスク PLUが 2つず つ与えられ、 ミラーリングを行ってデータを格納する。 図 12の下の図は、 デ ータがどのように格納されるかを示した図である。 DLUは、 # 0〜 # 3の 4 つがあり、 それぞれに P L Uが 2つずつ対応付けられている。 データは、 スト ライビングにより分割され、先頭から DO、 D 1、…、 D 1 5となっている。 これらが、 横方向、 すなわち、 異なる仮想論理ユエットの方向に 1ストライプ ずつ格納されている。  Four virtual logical unit DLUs are mapped to the RAID group RLU. This mapping is realized by performing striping. Each of the virtual logical units DLU is provided with two physical disks PLU, and stores data by performing mirroring. The diagram below FIG. 12 is a diagram showing how data is stored. There are four DLUs, # 0 to # 3, each of which is associated with two PLUs. The data is divided by striking and DO, D1, ..., D15 from the top. These are stored one by one in the horizontal direction, that is, in the direction of different virtual logical units.
図 13は、 本発明の実施形態に従ったディスクシステムを用いた場合の RA I D 5の構成を説明する図である。  FIG. 13 is a diagram for explaining the configuration of RAID 5 when the disk system according to the embodiment of the present invention is used.
図 13の左に記載されているように、 RA I Dグループ RLUと仮想論理ュ ニット DLUの対応は一対一である。 また、 DLUと物理ディスク P LUの対 応は、 1対複数 (今の場合、 1対 4) であり、 DLUは、 RA I D 5制御を行 つて、 図 1 3の右に記載されているように、 データ列をストライプに分割した ものに冗長性制御を行って、 パリティと共に、 データを各物理ディスクに格納 する。 As described on the left side of FIG. 13, the correspondence between the RA ID group RLU and the virtual logical unit DLU is one-to-one. The correspondence between the DLU and the physical disk PLU is one-to-many (in this case, one-to-four), and the DLU performs RA ID 5 control. Then, as shown on the right of FIG. 13, redundancy control is performed on a data string divided into stripes, and data is stored on each physical disk along with parity.
図 14は、 本発明の実施形態のディスクシステムを用いた場合の R A I D 0 + 5の構成を説明する図である。  FIG. 14 is a diagram illustrating the configuration of R AID 0 + 5 when the disk system according to the embodiment of the present invention is used.
図 14の上に記載されているように、 RA I Dグループ RLUには、 2つの 仮想論理ユニット DLUが対応し、 この間は、 ストライビングによってマツピ ングされる。 DLUと物理ディスク P LUの間は、 1つの DLUに対し、 4つ の P LUが対応し、 RA I D 5制御によってマツビングされている。 図 14下 に示されるように、 データは、 まず、 2つの DLUにストライビングによって 分けられ、 これらが、 RA I D 5制御によって、 それぞれ 4つずつの物理ディ スクに分けられる。 このとき、 RA I D 5制御は、 冗長性管理を行うので、 パ リティが生成されている。 また、 D L U情報テーブルの Stripe Sizeと RLU 情報テ一ブルの Stripe Depthは等しくなっている。  As shown in the upper part of FIG. 14, two virtual logical units DLU correspond to the RAID group RLU, and during this time, mapping is performed by striping. Between the DLU and the physical disk PLU, four PLUs correspond to one DLU and are mapped by RAID5 control. As shown in the lower part of FIG. 14, data is first divided into two DLUs by striping, and these are divided into four physical disks by RAID5 control. At this time, parity is generated because the RAID 5 control performs redundancy management. Also, the Stripe Size of the DLU information table and the Stripe Depth of the RLU information table are equal.
図 15は、 RA I D 0 + 5について説明する図である。  FIG. 15 is a diagram for explaining RA ID 0 + 5.
CMは、 ストライプ制御を行い、 4つの DAにデータをマッピングする。 各 DAは、 それぞれ冗長性管理を行って、 4つの物理ディスクにデータをマッピ ングする。 前述の例では、 CMは、 2つの DAにマッピングを行っていたが、 D Aとその配下の物理デイスクを単位として増設することができるので、 分散 処理による性能改善を行うことができる。 また、 前述したように、 本発明の実 施形態に従つたディスクシステムでは、 RA I D 0 + 5以外にも、 さまざまな 構成のデイスクシステムが構成可能であるが、 これは、 ストライプ制御を行う CMと RA I D 5制御を行う DAとにや区割り分担したことによる。  The CM performs stripe control and maps data to four DAs. Each DA performs redundancy management and maps data to four physical disks. In the above example, the CM maps to two DAs. However, the CM can be added in units of DAs and the physical disks under the DAs, so that the performance can be improved by distributed processing. Further, as described above, in the disk system according to the embodiment of the present invention, a disk system having various configurations other than RA ID 0 + 5 can be configured. And DA that performs RA ID 5 control.
図 1 6は、 本発明の実施形態のディスクシステムにおけるリビルドについて 説明する図である。 DAに FCポートが 4つある場合、 異なる FCポートに接続された物理ディ スクを 4つ組み合わせて R A I D0 + 5を組むことで、 どの DLUについても リビルドするときにリードするディスクが 3個までに限られ、 1 FCループの ループダゥン発生時でもリード ライトが可能となる。 産業上の利用可能性 FIG. 16 is a diagram for explaining rebuilding in the disk system according to the embodiment of the present invention. If DA has 4 FC ports, RAI D0 + 5 is formed by combining 4 physical disks connected to different FC ports, so that when rebuilding any DLU, up to 3 disks are read. Limited, read / write is possible even when 1 FC loop loop down occurs. Industrial applicability
本発明は、 コンピュータシステムの記憶装置として、 拡張性に優れ、 構成の 自由度が大きく、 性能低下の要因の影響を限定的にして、 全体のシステムとし ては性能を維持できるようなディスクシステムを提供することができる。  The present invention provides a disk system as a storage device of a computer system that has excellent scalability, has a large degree of freedom in configuration, and can limit the influence of performance degradation to maintain the performance of the entire system. Can be provided.

Claims

請求の範囲 The scope of the claims
1 . 冗長性構成を採用したディスクシステムであって、 1. A disk system with a redundant configuration,
ホストからのデータ列をストライプに分割するか否かの設定に従ってデータ 列のストライプ管理を行うストライプ処理管理手段と、  Stripe processing management means for performing stripe management of the data string according to the setting as to whether the data string from the host is divided into stripes,
該ストライプ処理管理手段からのデータに冗長性管理を行う力否かの設定に 基づいて、 データに冗長性を与えて複数の物理ディスクにデータを格納する冗 長性管理手段とを備えることを特徴とするディスクシステム。  A redundancy management means for giving redundancy to the data and storing the data on a plurality of physical disks based on a setting as to whether or not to perform redundancy management on the data from the stripe processing management means. And disk system.
2 . 前記冗長性管理手段は、 複数設けられることを特徴とする請求項 1に記載 のディスクシステム。 2. The disk system according to claim 1, wherein a plurality of said redundancy management means are provided.
3 . 前記冗長管理手段の数と、 該冗長管理手段に接続される物理ディスクの数 を増設することによって、 前記ディスクシステムの容量を増大することを特徴 とする請求項 1に記載のディスクシステム。 3. The disk system according to claim 1, wherein the capacity of the disk system is increased by increasing the number of the redundancy management means and the number of physical disks connected to the redundancy management means.
4 . 前記冗長管理手段は、 冗長性管理の方法として、 R A I D 5の処理を実行 することを特徴とする請求項 1に記載のディスクシステム。 4. The disk system according to claim 1, wherein the redundancy management means executes a RAID 5 process as a redundancy management method.
5 . 前記ストライプ処理管理手段は、 冗長性管理の方法の設定を行うことによ つて、 前記冗長性管理手段に冗長性管理の方法を通知することを特徴とする請 求項 1に記載のディスクシステム。 5. The disk according to claim 1, wherein the stripe processing management means notifies the redundancy management method of the redundancy management method by setting a redundancy management method. system.
6 . 前記冗長性管理の方法には、 パリティを含むストライプの制御、 ミラーリ ングを含むことを特徴とする請求項 5に記載のディスクシステム。 6. The disk system according to claim 5, wherein the redundancy management method includes control of a stripe including parity and mirroring.
7 . 前記ストライプ管理は、 ストライプのサイズと深さを指定することによつ て行われることを特徴とする請求項 1に記載のディスクシステム。 7. The disk system according to claim 1, wherein the stripe management is performed by designating a size and a depth of the stripe.
8 . 冗長性構成を採用したディスクシステムの構成方法であって、 8. A method of configuring a disk system employing a redundancy configuration,
ホストからのデータ列をストライプに分割するか否かの設定に従ってデータ 列のストライプ管理を行うストライプ処理管理手段を設けるステップと、 該ストライプ処理管理手段からのデータに冗長性管理を行うか否かの設定に 基づいて、 データに冗長性を与えて複数の物理ディスクにデータを格納する冗 長性管理手段を設けるステップとを備えることを特徴とするディスクシステム の構成方法。  Providing a stripe processing management means for performing stripe management of the data string in accordance with the setting as to whether or not to divide the data string from the host into stripes; and determining whether or not to perform redundancy management on the data from the stripe processing management means. Providing redundancy management means for storing data on a plurality of physical disks by providing data redundancy based on the setting.
9 . 前記冗長性管理手段は、 複数設けられることを特徴とする請求項 8に記載 のディスクシステムの構成方法。 9. The method according to claim 8, wherein a plurality of the redundancy management units are provided.
1 0 . 前記冗長管理手段の数と、 該冗長管理手段に接続される物理ディスクの 数を増設することによって、 前記ディスクシステムの容量を増大することを特 徴とする請求項 8に記載のディスクシステムの構成方法。 10. The disk according to claim 8, wherein the capacity of the disk system is increased by increasing the number of the redundancy management means and the number of physical disks connected to the redundancy management means. How to configure the system.
1 1 . 前記冗長管理手段は、 冗長性管理の方法として、 R A I D 5の処理を実 行することを特徴とする請求項 8に記載のディスクシステムの構成方法。 11. The disk system configuration method according to claim 8, wherein said redundancy management means executes a RAID 5 process as a redundancy management method.
1 2 . 前記ストライプ処理管理手段は、 冗長性管理の方法の設定を行うことに よって、 前記冗長性管理手段に冗長性管理の方法を通知することを特徴とする 請求項 8に記載のディスクシステムの構成方法。 12. The disk system according to claim 8, wherein the stripe processing management means notifies the redundancy management means of the redundancy management method by setting a redundancy management method. Configuration method.
13. 前記冗長性管理の方法には、 パリティを含むストライプの制御、 ミラー リングを含むことを特徴とする請求項 12に記載のディスクシステムの構成方 法。 13. The disk system configuration method according to claim 12, wherein the redundancy management method includes control of a stripe including parity and mirroring.
14. 前記ストライプ管理は、 ストライプのサイズと深さを指定することによ つて行われるこ.とを特徴とする請求項 8に記載のディスクシステムの構成方法。 14. The method according to claim 8, wherein the stripe management is performed by designating a size and a depth of the stripe.
PCT/JP2003/008769 2003-07-10 2003-07-10 Disc system WO2005006174A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2003/008769 WO2005006174A1 (en) 2003-07-10 2003-07-10 Disc system
PCT/JP2004/009814 WO2005006176A1 (en) 2003-07-10 2004-07-09 Disc system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/008769 WO2005006174A1 (en) 2003-07-10 2003-07-10 Disc system

Publications (1)

Publication Number Publication Date
WO2005006174A1 true WO2005006174A1 (en) 2005-01-20

Family

ID=34044607

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2003/008769 WO2005006174A1 (en) 2003-07-10 2003-07-10 Disc system
PCT/JP2004/009814 WO2005006176A1 (en) 2003-07-10 2004-07-09 Disc system

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/009814 WO2005006176A1 (en) 2003-07-10 2004-07-09 Disc system

Country Status (1)

Country Link
WO (2) WO2005006174A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816328A (en) * 1994-06-28 1996-01-19 Mitsubishi Electric Corp Disk array system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816328A (en) * 1994-06-28 1996-01-19 Mitsubishi Electric Corp Disk array system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WATANABE, M. (NSP KEKNKYUSHO): "RAID system no Saishin Jijo", INTEROP MAGAZINE, vol. 10, no. 2, 1 February 2000 (2000-02-01), pages 103 - 107, XP002984644 *

Also Published As

Publication number Publication date
WO2005006176A1 (en) 2005-01-20

Similar Documents

Publication Publication Date Title
US7386666B1 (en) Global sparing of storage capacity across multiple storage arrays
US6675318B1 (en) Two-dimensional storage array with prompt parity in one dimension and delayed parity in a second dimension
JP5444464B2 (en) Storage system
JP5285610B2 (en) Optimized method to restore and copy back a failed drive when a global hot spare disk is present
JP4516846B2 (en) Disk array system
US8819365B2 (en) Flexible data storage system
US9542101B2 (en) System and methods for performing embedded full-stripe write operations to a data volume with data elements distributed across multiple modules
US7650480B2 (en) Storage system and write distribution method
US8539194B2 (en) Storage system and method for storage capacity change of host-device-specified device
US7506187B2 (en) Methods, apparatus and controllers for a raid storage system
CN102122235B (en) RAID4 (redundant array of independent disks) system and data reading and writing method thereof
US8392678B2 (en) Storage system and data management method
US20140304469A1 (en) Data storage
JP5285611B2 (en) Optimized method to restore and copy back a disconnected drive when there is a global hot spare disk
US20090198887A1 (en) Storage system
JP4441929B2 (en) Disk device and hot swap method
JP2000207136A (en) Multi-drive fault-tolerance raid algorithm
US20200285551A1 (en) Storage system, data management method, and data management program
US8402213B2 (en) Data redundancy using two distributed mirror sets
US8375187B1 (en) I/O scheduling for flash drives
US7962690B2 (en) Apparatus and method to access data in a raid array
WO2020261023A1 (en) Dynamic logical storage capacity adjustment for storage drives
CN114415968A (en) Storage system and data writing method thereof
WO2005006174A1 (en) Disc system
JPH0675707A (en) Array type storage system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP