JP4426939B2 - Storage device - Google Patents

Storage device Download PDF

Info

Publication number
JP4426939B2
JP4426939B2 JP2004297118A JP2004297118A JP4426939B2 JP 4426939 B2 JP4426939 B2 JP 4426939B2 JP 2004297118 A JP2004297118 A JP 2004297118A JP 2004297118 A JP2004297118 A JP 2004297118A JP 4426939 B2 JP4426939 B2 JP 4426939B2
Authority
JP
Japan
Prior art keywords
drive
unit
raid group
redundancy
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004297118A
Other languages
Japanese (ja)
Other versions
JP2005293547A (en
Inventor
政弘 新井
育哉 八木沢
陽一 水野
直人 松並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004297118A priority Critical patent/JP4426939B2/en
Publication of JP2005293547A publication Critical patent/JP2005293547A/en
Application granted granted Critical
Publication of JP4426939B2 publication Critical patent/JP4426939B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、RAIDを構成するストレージ装置に関し、特に複数のドライブを一つのユ
ニットとし、該ユニットを複数実装したディスクアレイ装置に関する。
The present invention relates to a storage apparatus that constitutes a RAID, and more particularly to a disk array apparatus in which a plurality of drives are used as one unit and a plurality of such units are mounted.

省スペースでドライブを高密度実装する方法として、複数の物理ドライブを一つのユニ
ット(ディスクブレード)に搭載し、このユニットを複数実装するディスクアレイ装置が
提案されている(例えば、特許文献1参照。)。
As a method for mounting drives in high density in a space-saving manner, a disk array device has been proposed in which a plurality of physical drives are mounted on one unit (disk blade) and a plurality of these units are mounted (for example, see Patent Document 1). ).

特開平9−16343号公報JP-A-9-16343

前述した従来のディスクアレイ装置では一つのユニット内の複数のドライブを一つのド
ライブとして見せていた。しかし、このような構成では1ユニットを1ドライブとして取
り扱うため、1ユニット上に複数のRAIDグループを構成することができず、構成の自
由度が低いという問題があった。
In the conventional disk array apparatus described above, a plurality of drives in one unit are shown as one drive. However, in such a configuration, since one unit is handled as one drive, a plurality of RAID groups cannot be configured on one unit, and there is a problem that the degree of freedom of configuration is low.

さらに、1ユニット上に複数のRAIDグループを構成することは技術的には可能であ
るが、ユニットとユニット内のドライブとの関係を管理することは考慮されていなかった
ので、障害発生時にユニットを交換すると、他のRAIDグループにどのような影響が生
じるかが分からず、ユニットの保守交換が困難であった。
Furthermore, although it is technically possible to configure a plurality of RAID groups on one unit, management of the relationship between the units and the drives in the units has not been taken into account. It is difficult to know how the other RAID groups will be affected by the replacement, and the maintenance and replacement of the unit is difficult.

本発明は、ユニット内の複数のドライブを別々に取り扱い、自由にRAIDグループを
構成しても、ユニットを容易に交換することができるストレージ装置を提供することを目
的とする。
An object of the present invention is to provide a storage apparatus that can easily replace a unit even if a plurality of drives in the unit are handled separately and a RAID group is freely configured.

本発明は、複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含み、複数の前記ユニットに搭載されたディスクによってRAIDが構成されるストレージ装置において、前記ディスク制御部は、前記ドライブの状態を記録するドライブ状態管理テーブルと、前記RAIDグループの状態を記録するRAIDグループ状態管理テーブルと、RAIDによるデータ再構築処理中か及びドライブ間のデータ複製処理中か否かを示すバックグラウンド処理数管理テーブルと、を保持し、前記ドライブの障害が検出されると、前記ドライブ状態管理テーブルの当該障害ドライブの状態を「障害」に変更し、前記RAIDグループ状態管理テーブルの当該障害ドライブが属するRAIDグループの状態を「障害」に変更する障害検出部と、当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定すると共に、当該障害ドライブが搭載されたユニットに搭載された他のドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定する判定部と、当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上であれば、当該障害ドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「再構築」に変更し、当該スペアドライブに当該障害ドライブのデータを再構築し、この再構築処理中は前記バックグラウンド処理数管理テーブルに前記スペアドライブの状態を反映するデータ再構築部と、当該他のドライブが属するRAIDグループの冗長度が設定される1以上の要求値よりも小さく、かつ0以上であれば、当該他のドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「退避」に変更し、当該スペアドライブに当該他のドライブのデータを複製し、このデータ複製処理中は前記バックグラウンド処理数管理テーブルに前記スペアドライブの状態を反映するデータ複製部と、前記バックグラウンド処理数管理テーブルに基づいて前記データ再構築部及び前記データ複製部による処理が終了したか否かを判定し、これらの処理が終了すると、当該障害ドライブが搭載されたユニット及び当該障害ドライブが交換可能になったことを報知する交換指示部と、を有する。 The present invention is seen containing a plurality of drive housing unit in which a plurality of drives are mounted detachably is plural detachably mounting a controller housing to the disk control unit is provided, a plurality In the storage apparatus in which the RAID is configured by the disks mounted on the unit, the disk control unit includes a drive status management table that records the status of the drive and a RAID group status management table that records the status of the RAID group. And a background processing number management table indicating whether or not data reconstruction processing by RAID and data replication processing between drives are in progress, and when a failure of the drive is detected, the drive status management table Change the status of the failed drive to “failed” and manage the RAID group status The failure detection unit for changing the status of the RAID group to which the failed drive of the table belongs to “failure”, and the redundancy of the RAID group to which the failed drive belongs is smaller than the set request value of 1 or more and 0 or more And whether or not the redundancy of the RAID group to which the other drive mounted in the unit in which the failed drive is mounted is smaller than the set request value of 1 or more and 0 or more is set. If the redundancy of the RAID group to which the failed drive belongs is smaller than the set request value of 1 or more and 0 or more, the unit other than the unit in which the failed drive is mounted Change the status of the found spare drive to "Rebuild", rebuild the data of the failed drive in the spare drive, and rebuild this During processing, the data reconstruction unit that reflects the status of the spare drive in the background processing number management table, and the redundancy of the RAID group to which the other drive belongs is smaller than one request value that is set, and If it is 0 or more, the status of the spare drive retrieved from the unit other than the unit in which the other drive is mounted is changed to “Evacuated”, and the data of the other drive is copied to the spare drive. During the replication process, the data replication unit reflecting the status of the spare drive in the background processing number management table, and the processing by the data reconstruction unit and the data replication unit based on the background processing number management table are completed. When these processes are completed, the unit in which the failed drive is mounted and the It has a change instruction unit which defective drives notifying that became interchangeable, the.

本発明によると、一つのユニットに搭載された複数の物理ドライブを別々に取り扱うこ
とができ、自由にRAIDグループを組むことができる。また、ユニット毎の取り外し、
交換が容易になる。
According to the present invention, a plurality of physical drives mounted on one unit can be handled separately, and a RAID group can be freely formed. Moreover, the removal for every unit,
Exchange becomes easy.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態のディスクアレイ装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a disk array device according to an embodiment of the present invention.

本発明の実施の形態のディスクアレイ装置1は、複数のドライブ筐体10a、10b、
コントローラ筐体19を含んで構成されている。ディスクアレイ装置1は、管理用LAN
5を介して管理用端末装置2に接続されている。また、ディスクアレイ装置1は、SAN
4を介して複数のSANホスト3に接続されている。
The disk array device 1 according to the embodiment of the present invention includes a plurality of drive housings 10a, 10b,
A controller housing 19 is included. The disk array device 1 is a management LAN
5 is connected to the management terminal device 2 via 5. The disk array device 1 is a SAN
4 is connected to a plurality of SAN hosts 3.

ドライブ筐体10aには、複数のユニット(ディスクブレード)101、102、10
3、104・・・が実装されている。各ディスクブレードには複数(本実施の形態では4
台)のドライブが搭載されている。例えば、ディスクブレード101には、ディスクA0
〜A3が搭載されている。ディスクブレード101等によってドライブ筐体10に実装さ
れたディスクA0等は接続インターフェース180に接続され、ディスクアレイコントロ
ーラ191等との間でデータを送受信することができる。この接続インターフェース18
0には、ATA(AT Attachment)、SAS(Serial Attached SCSI)、ファイバチャネル等のインターフェースを用いることができる。
The drive housing 10a includes a plurality of units (disk blades) 101, 102, 10
3, 104... Are implemented. Each disk blade has a plurality (4 in this embodiment).
Drive). For example, the disk A 101 includes a disk A 0.
-A3 is mounted. The disk A0 or the like mounted on the drive housing 10 by the disk blade 101 or the like is connected to the connection interface 180, and data can be transmitted to or received from the disk array controller 191 or the like. This connection interface 18
For 0, an interface such as ATA (AT Attachment), SAS (Serial Attached SCSI), or Fiber Channel can be used.

コントローラ筐体19には、ディスクアレイコントローラ191、192が設けられて
いる。ディスクアレイコントローラ191等では制御プログラムが動作しており、ディス
クA0等に対するデータの入出力を制御する。また、ディスクアレイ装置1に実装された
ディスクA0等によって構成されるRAIDの構成を管理する。また、コントローラ筐体
19には、ディスクアレイコントローラ191、192が複数設けられており、SAN4
との間で同時に多くのデータを入出力できるようにしている。
The controller housing 19 is provided with disk array controllers 191 and 192. In the disk array controller 191 or the like, a control program is operating to control data input / output with respect to the disk A0 or the like. Further, it manages a RAID configuration constituted by the disk A0 and the like mounted on the disk array device 1. The controller housing 19 is provided with a plurality of disk array controllers 191 and 192, and the SAN 4
A lot of data can be input and output at the same time.

なお、装置構成によっては、ディスクアレイコントローラ191は単数でもよいし、ま
たコントローラ筐体19とドライブ筐体10aとが一つの筐体となっていてもよい。
Depending on the device configuration, a single disk array controller 191 may be provided, or the controller housing 19 and the drive housing 10a may be a single housing.

管理用端末装置2は、CPU、メモリ、記憶装置、インターフェース、入力装置及び表
示装置が備わるコンピュータ装置である。管理用端末装置2では管理プログラムが動作し
ており、該管理プログラムによってディスクアレイ装置1の動作状態を把握し、ディスク
アレイ装置1の動作を制御する。なお、管理用端末装置2ではwebブラウザ等のクライ
アントプログラムが動作しており、ディスクアレイ装置1から供給される管理プログラム
(Common Gateway InterfaceやJava(登録商標)等)によってディスクアレイ装置1の動作を制御するようにしてもよい。
The management terminal device 2 is a computer device that includes a CPU, a memory, a storage device, an interface, an input device, and a display device. A management program is running on the management terminal device 2. The management program grasps the operating state of the disk array device 1 and controls the operation of the disk array device 1. The management terminal device 2 operates a client program such as a web browser, and the operation of the disk array device 1 is controlled by a management program (Common Gateway Interface, Java (registered trademark), etc.) supplied from the disk array device 1. You may make it control.

SANホスト3は、CPU、メモリ、記憶装置及びインターフェースが備わるコンピュ
ータ装置であり、ディスクアレイ装置1から提供されるデータを利用して、データベース
サービスやウェブサービス等を利用可能にする。
The SAN host 3 is a computer device having a CPU, a memory, a storage device, and an interface, and makes it possible to use a database service, a web service, and the like by using data provided from the disk array device 1.

SAN4は、例えばファイバチャネルプロトコルのような、データの転送に適するプロ
トコルで通信可能なネットワークである。
The SAN 4 is a network that can communicate with a protocol suitable for data transfer, such as a fiber channel protocol.

管理用LAN5は、例えば、TCP/IPプロトコルによって、コンピュータ間でデー
タや制御情報を通信可能であり、例えばイーサネット(登録商標、以下同じ)が用いられ
る。
The management LAN 5 can communicate data and control information between computers using, for example, the TCP / IP protocol. For example, Ethernet (registered trademark, the same applies hereinafter) is used.

図2は、本発明の実施の形態のディスクアレイ装置の構成を示す外観図である。   FIG. 2 is an external view showing the configuration of the disk array device according to the embodiment of the present invention.

本実施の形態のディスクアレイ装置1は、19インチラック内に収容されており、ディ
スクアレイ装置1の上部には、ディスクを搭載したディスクブレードを複数収めたドライ
ブ筐体(エンクロージャ)が複数段設けられている。ドライブ筐体10a〜10iの背面
側には当該筐体内のドライブに電力を供給する電源ユニット(図示省略)と、接続インタ
ーフェース180が収められている。接続インターフェース180と各ディスクブレード
は、筐体内部に設けられた配線基板(バックプレーン)を介して物理的に接続され、図1
に示すように、ディスクアレイコントローラ191等や、ドライブ筐体10a等と接続さ
れる。
The disk array device 1 of the present embodiment is housed in a 19-inch rack, and a plurality of stages of drive housings (enclosures) containing a plurality of disk blades on which disks are mounted are provided on the top of the disk array device 1. It has been. On the back side of the drive housings 10a to 10i, a power supply unit (not shown) for supplying power to the drives in the housing and a connection interface 180 are housed. The connection interface 180 and each disk blade are physically connected via a wiring board (back plane) provided inside the housing.
As shown in FIG. 4, the disk array controller 191 or the like, the drive housing 10a or the like is connected.

ドライブ筐体の下方には、ディスクアレイコントローラ191、192を収めたコント
ローラ筐体19、及び、当該ディスクアレイコントローラを冷却するための冷却用ファン
ユニットが設けられている。
Below the drive housing, a controller housing 19 containing the disk array controllers 191 and 192 and a cooling fan unit for cooling the disk array controller are provided.

図3は、本発明の実施の形態のディスクアレイ装置を構成するドライブ筐体10aの斜
視図である。
FIG. 3 is a perspective view of the drive housing 10a constituting the disk array device according to the embodiment of the present invention.

ドライブ筐体10aには複数のディスクブレード101〜113が装着可能である。こ
のディスクブレードはドライブ筐体に設けられたレールに沿ってスライドすることによっ
てドライブ筐体に収められる。
A plurality of disk blades 101 to 113 can be mounted on the drive housing 10a. The disk blade is accommodated in the drive casing by sliding along a rail provided in the drive casing.

ディスクブレード101〜113の上部のドライブ筐体10aには、ユニット交換指示
LED121〜133が設けられている。ディスクブレードが取り外し可能な状態となっ
たときに、ディスクブレードに対応するユニット交換指示LEDが点灯してその旨を報知
し、保守交換作業を容易にしている。
Unit replacement instruction LEDs 121 to 133 are provided on the drive housing 10a above the disk blades 101 to 113. When the disk blade is ready for removal, the unit replacement instruction LED corresponding to the disk blade is lit to notify the user, thereby facilitating maintenance and replacement work.

図4は、本発明の実施の形態のディスクアレイ装置を構成するディスクブレード101
の構成を説明する図である。
FIG. 4 shows a disk blade 101 constituting the disk array device according to the embodiment of the present invention.
FIG.

ディスクブレード101には、複数のドライブ2010〜2040が取り付けられてい
る。このドライブ2010〜2040は、ディスクブレード101に着脱可能な保持枠(
キャニスター)に取り付けられており、キャニスターと共にディスクブレード101から
取り外せるように構成されている。ドライブ2010〜2040の後端にはコネクタが設
けられている。このコネクタはディスクブレード101に設けられたコネクタ2110と
嵌合して、ドライブ2010〜2040とディスクブレード101との間を接続する。
A plurality of drives 2010 to 2040 are attached to the disk blade 101. The drives 2010 to 2040 have a holding frame that can be attached to and detached from the disk blade 101 (
The canister is attached to the disk blade 101 together with the canister. A connector is provided at the rear end of the drives 2010 to 2040. This connector is engaged with a connector 2110 provided on the disk blade 101 to connect between the drives 2010 to 2040 and the disk blade 101.

ディスクブレード101にはドライブ交換指示LED2210が設けられている。ドラ
イブ(キャニスター)2010〜2040が取り外し可能な状態となったときに、ドライ
ブに対応するドライブ交換指示LED2210が点灯してその旨を報知し、保守交換作業
を容易にしている。ドライブ交換指示LED2210はLED制御回路2300によって
駆動されている。LED制御回路2300は、ディスクアレイコントローラ191、19
2からの指示に基づいてドライブ交換指示LED2210を点灯させる。
The disk blade 101 is provided with a drive replacement instruction LED 2210. When the drive (canister) 2010 to 2040 is in a removable state, the drive replacement instruction LED 2210 corresponding to the drive is lit to notify the user, thereby facilitating maintenance replacement work. The drive replacement instruction LED 2210 is driven by the LED control circuit 2300. The LED control circuit 2300 includes disk array controllers 191, 19
2, the drive replacement instruction LED 2210 is turned on.

また、ドライブ交換指示LED2210は、ディスクブレード101をドライブ筐体1
0aから取り外した後も(すなわち、ディスクアレイ装置1からの電源の供給が途絶した
後も)点灯可能となっている。このため、LED制御回路2300は、ディスクアレイコ
ントローラ191、192からの指示を維持する記憶回路(例えば、フリップフロップ)
、及び、ドライブ交換指示LED2210に印加する電源を供給する電源回路(例えば、
二次電池、蓄電器)を備えている。このように、ディスクブレード101をドライブ筐体
10aから取り外した後もドライブ交換LED2210が点灯するので、ディスクブレー
ド101をドライブ筐体10aから取り外した後も交換すべきドライブを確認することが
できる。
In addition, the drive replacement instruction LED 2210 indicates that the disk blade 101 is connected to the drive housing 1
Even after being removed from 0a (that is, after the supply of power from the disk array device 1 is interrupted), it can be lit. For this reason, the LED control circuit 2300 is a storage circuit (for example, flip-flop) that maintains instructions from the disk array controllers 191 and 192.
And a power supply circuit that supplies power to be applied to the drive replacement instruction LED 2210 (for example,
Secondary battery, battery). In this way, the drive replacement LED 2210 is lit even after the disk blade 101 is removed from the drive housing 10a, so that the drive to be replaced can be confirmed even after the disk blade 101 is removed from the drive housing 10a.

ディスクブレード101の奥端にはコネクタ2400が取り付けられており、このコネ
クタ2400がバックプレーンに設けられたコネクタと嵌合することによって、ディスク
ブレード101とバックプレーンとが接続される。
A connector 2400 is attached to the back end of the disk blade 101, and the disk blade 101 and the backplane are connected by fitting the connector 2400 with a connector provided on the backplane.

ディスクブレード101にはロータリースイッチ2500が設けられている。このロー
タリースイッチ2500を用いてユニットIDを設定することによって、同じドライブ筐
体内に装着されたディスクブレードを電気的に識別することができる。このようにロータ
リースイッチ2500はユニットID設定部として機能する。
The disk blade 101 is provided with a rotary switch 2500. By setting the unit ID using this rotary switch 2500, the disk blades mounted in the same drive housing can be electrically identified. Thus, the rotary switch 2500 functions as a unit ID setting unit.

図5は、本発明の実施の形態のディスクアレイコントローラ191の構成を示すブロッ
ク図である。
FIG. 5 is a block diagram showing a configuration of the disk array controller 191 according to the embodiment of this invention.

ディスクアレイコントローラ191には、CPU1901、メモリ1902、データ転
送コントローラ1904、フロントエンド接続インターフェースコントローラ1905、
バックエンド接続インターフェースコントローラ1906、データバッファ1907、及
びLANインターフェースコントローラ1908が設けられている。
The disk array controller 191 includes a CPU 1901, a memory 1902, a data transfer controller 1904, a front-end connection interface controller 1905,
A back-end connection interface controller 1906, a data buffer 1907, and a LAN interface controller 1908 are provided.

メモリ1902には制御プログラム1903(図6参照)が記憶されており、CPU1
901が制御プログラム1903を呼び出して実行することによって各種処理が行われる。
The memory 1902 stores a control program 1903 (see FIG. 6), and the CPU 1
Various processes are performed by the 901 calling and executing the control program 1903.

データ転送コントローラ1904は、CPU1901、フロントエンド接続インターフ
ェースコントローラ1905、バックエンド接続インターフェースコントローラ1906
、及びデータバッファ1907の間でデータを転送する。
The data transfer controller 1904 includes a CPU 1901, a front-end connection interface controller 1905, and a back-end connection interface controller 1906.
And data is transferred between the data buffers 1907.

フロントエンド接続インターフェースコントローラ1905は、SAN4に対するイン
ターフェースであって、例えば、ファイバチャネルプロトコルによって、SANホスト3
との間でデータや制御信号を送受信する。
The front-end connection interface controller 1905 is an interface to the SAN 4 and is, for example, a SAN host 3 according to a fiber channel protocol.
Send and receive data and control signals to and from

バックエンド接続インターフェースコントローラ1906は、接続インターフェース1
09に対するインターフェースであって、例えば、ATA、SAS、ファイバチャネル等
のインターフェースによって、ディスクとの間でデータや制御信号を送受信する。
The back-end connection interface controller 1906 is connected interface 1
For example, data and control signals are transmitted to and received from the disk via an interface such as ATA, SAS, or fiber channel.

データバッファ1907には、フロントエンド接続インターフェースコントローラ19
05とバックエンド接続インターフェースコントローラ1906との間で送受信されるデ
ータが一時的に記憶されるキャッシュが設けられている。
The data buffer 1907 includes a front end connection interface controller 19.
A cache is provided in which data transmitted and received between 05 and the back-end connection interface controller 1906 is temporarily stored.

すなわち、データ転送コントローラ1904は、SAN4を介してディスクに読み書き
されるデータをインターフェース1905、1906間で転送する。さらに、これらのデ
ィスクに読み書きされるデータをデータバッファ1907に転送している。
That is, the data transfer controller 1904 transfers data read / written to / from the disk via the SAN 4 between the interfaces 1905 and 1906. Further, data read / written to / from these disks is transferred to the data buffer 1907.

LAN接続インターフェースコントローラ1908は、管理用LAN5に対するインタ
ーフェースであって、例えば、イーサネットプロトコルによって、管理用端末装置2との
間でデータや制御信号を送受信することができる。
The LAN connection interface controller 1908 is an interface to the management LAN 5 and can transmit and receive data and control signals to and from the management terminal device 2 by, for example, the Ethernet protocol.

図6は、本発明の実施の形態の制御プログラム1903の説明図である。   FIG. 6 is an explanatory diagram of the control program 1903 according to the embodiment of this invention.

RAIDグループ設定プログラム1911、RAIDグループ管理プログラム1912
、障害処理プログラム1913、及びI/O制御プログラム1914によって構成されて
いる。またこれらのプログラムの動作のために、ドライブ設定保持テーブル1915、ド
ライブ状態管理テーブル1916、RAIDグループ状態管理テーブル1917、及びバ
ックグラウンド処理数管理テーブル1918が記憶されている。
RAID group setting program 1911, RAID group management program 1912
, A failure processing program 1913, and an I / O control program 1914. For the operation of these programs, a drive setting holding table 1915, a drive state management table 1916, a RAID group state management table 1917, and a background processing number management table 1918 are stored.

RAIDグループ設定プログラム1911は、ディスクアレイ装置1に実装されたドラ
イブによってRAIDを設定する処理を実行する(例えば、図13参照)。
The RAID group setting program 1911 executes a process for setting a RAID by a drive mounted on the disk array device 1 (see, for example, FIG. 13).

RAIDグループ管理プログラム1912は、RAIDグループ設定プログラム191
1によって設定されRAIDを維持管理する。
The RAID group management program 1912 is a RAID group setting program 191.
The RAID set by 1 is maintained.

障害処理プログラム1913は、ディスクアレイ装置1に実装されたドライブに発生す
る障害を監視し、障害が発生したドライブ及び当該障害ドライブと同じユニットに搭載さ
れたドライブに関する処理を行う(例えば、図14、図15、図16参照)。
The failure processing program 1913 monitors a failure that occurs in a drive installed in the disk array device 1, and performs processing related to the drive in which the failure has occurred and a drive mounted in the same unit as the failed drive (for example, FIG. (Refer FIG. 15, FIG. 16).

I/O制御プログラム1914は、ディスクアレイ装置1に実装されたドライブからの
データの読み出し、これらのドライブに対するデータの書き込みに関する処理を行う。
The I / O control program 1914 performs processing related to reading data from drives mounted in the disk array device 1 and writing data to these drives.

次に、制御プログラムの動作時に用いられる各種テーブルについて説明する。   Next, various tables used during operation of the control program will be described.

図7は、本発明の実施の形態のディスクアレイ装置1に装着されたディスクによって生
成されたRAIDの構成の説明図である。
FIG. 7 is an explanatory diagram of a configuration of a RAID generated by a disk mounted on the disk array device 1 according to the embodiment of this invention.

例えば、RAIDグループ1は、ドライブA0(ユニットIDがA、ドライブ番号が0
番のドライブ)、ドライブA1、ドライブB1、ドライブB2及びドライブC2の5個の
ドライブによって、レベル5のRAIDが構成されている。また、RAIDグループ4は
、ドライブA3、ドライブB3、ドライブC3、ドライブD3、ドライブE3及びドライ
ブF3の6個のドライブによって、レベル6のRAIDが構成されている。
For example, RAID group 1 has a drive A0 (unit ID is A, drive number is 0.
No. drive), drive A1, drive B1, drive B2, and drive C2 constitute a RAID of level 5. In RAID group 4, RAID of level 6 is configured by six drives, drive A3, drive B3, drive C3, drive D3, drive E3, and drive F3.

図8は、本発明の第1の実施の形態のドライブ設定内容保持テーブル1915の説明図
である。
FIG. 8 is an explanatory diagram of the drive setting content holding table 1915 according to the first embodiment of this invention.

ドライブ設定内容保持テーブル1915には、ディスクブレードに搭載されたドライブ
に設定された状態が、ドライブ毎に記録されている。具体的には、ドライブの記憶容量と
、そのドライブの使用状態(「使用中」か、未使用の「スペア」か)と、そのドライブが
属するRAIDの番号が記録されている。具体的には、ドライブA0、ドライブA1、ド
ライブB1、ドライブB2及びドライブC2の5個のドライブのRAID番号欄には「1
」が記録されているので、これらのドライブはRAIDグループ1に属する。
In the drive setting content holding table 1915, the state set for the drive mounted on the disk blade is recorded for each drive. Specifically, the storage capacity of the drive, the use status of the drive (whether “used” or unused “spare”), and the RAID number to which the drive belongs are recorded. Specifically, the RAID number column of five drives, drive A0, drive A1, drive B1, drive B2, and drive C2, is “1”.
”Is recorded, these drives belong to the RAID group 1.

図9は、本発明の第1の実施の形態のドライブ状態管理テーブル1916の説明図であ
る。
FIG. 9 is an explanatory diagram of the drive status management table 1916 according to the first embodiment of this invention.

ドライブ状態管理テーブル1916には、ディスクブレードに搭載されたドライブの現
在の状態がドライブ毎に記録されている。具体的には、ドライブの記憶容量と、そのドラ
イブの状態(「使用中」か、「障害」が発生しているか、「再構築」処理を実行中か、「退避」処理を実行中か、未使用の「スペア」か)と、そのドライブが属するRAIDの番号が記録されている。例えば、ドライブB0はRAIDグループ2に属するドライブであるが、ドライブB0には障害が発生している。
The drive status management table 1916 records the current status of the drive mounted on the disk blade for each drive. Specifically, the storage capacity of the drive and the status of the drive (whether “in use” or “failure” has occurred, “rebuild” processing is being executed, “evacuation” processing is being executed, (Unused “spare”) and the RAID number to which the drive belongs. For example, drive B0 is a drive belonging to RAID group 2, but a failure has occurred in drive B0.

図10は、本発明の第1の実施の形態のRAIDグループ状態管理テーブル1917の
説明図である。
FIG. 10 is an explanatory diagram of the RAID group state management table 1917 according to the first embodiment of this invention.

RAIDグループ状態管理テーブル1917には、設定されたRAIDグループ毎に、
総記憶容量、RAIDレベル(どの種類のRAIDが構成されているか)、正常時の冗長
度、現在の冗長度、このRAIDを構成するドライブの識別記号、及びRAIDの状態が
記録されている。
In the RAID group status management table 1917, for each set RAID group,
The total storage capacity, RAID level (which type of RAID is configured), normal redundancy, current redundancy, the identification symbols of the drives constituting this RAID, and the RAID status are recorded.

例えば、RAIDグループ1を構成するドライブはA0、A1、B1、B2及びC2の
5個のドライブであり、これらのドライブは(すなわち、RAIDグループ1は)正常に
動作している。一方、RAIDグループ2を構成するドライブはB0、C0、D0、E0
及びF0の5個のドライブであるが、ドライブ状態管理テーブル1916(図9)に示す
ように、ドライブB0に障害が発生しているので、このRAIDグループ2は「障害」状
態となっている。これによってRAIDグループ2は正常時の冗長度が1であるのに対し
、現在の冗長度が0に低下している。
For example, the drives configuring RAID group 1 are five drives A0, A1, B1, B2, and C2, and these drives are operating normally (that is, RAID group 1). On the other hand, the drives constituting RAID group 2 are B0, C0, D0, E0.
And F0, as shown in the drive status management table 1916 (FIG. 9), a failure has occurred in the drive B0, so this RAID group 2 is in the “failure” state. As a result, the normal redundancy of RAID group 2 is 1, whereas the current redundancy is reduced to 0.

図11は、本発明の第1の実施の形態のバックグラウンド処理数管理テーブル1918
の説明図である。
FIG. 11 shows the background processing count management table 1918 according to the first embodiment of this invention.
It is explanatory drawing of.

バックグラウンド処理数管理テーブル1918には、ディスクブレード(ユニットID
)と、そのディスクブレードに搭載されたディスクにおいて実行されているバックグラウ
ンド処理数を示す。すなわち、後述するように、バックグラウンド処理数は、ディスクに
障害が発生したときの再構築処理の開始時に加算され(図14のS130)、再構築処理
の終了時に減算されて(図15のS167)、更新される。また、ディスクに障害が発生
したときのデータコピー処理の開始時に加算され(図14のS141)、データコピー処
理の終了時に減算されて(図16のS176)、更新される。また、図14のS145に
おいて、バックグラウンド処理数管理テーブル1918は、ユニットを取り外してもよい
かの判定にも用いられる(すなわち、バックグラウンド処理が継続しているユニットは取り外すことができない)。
The background processing count management table 1918 includes a disk blade (unit ID).
) And the number of background processes executed on the disk mounted on the disk blade. That is, as will be described later, the number of background processes is added at the start of the rebuild process when a failure occurs in the disk (S130 in FIG. 14) and subtracted at the end of the rebuild process (S167 in FIG. 15). ), Updated. Further, it is added at the start of the data copy process when a failure occurs in the disk (S141 in FIG. 14), and is subtracted at the end of the data copy process (S176 in FIG. 16) to be updated. In S145 of FIG. 14, the background processing number management table 1918 is also used to determine whether or not a unit may be removed (that is, a unit for which background processing is continuing cannot be removed).

図12は、本発明の第1の実施の形態の管理用端末装置2に表示されるRAIDグルー
プ管理画面の説明図である。
FIG. 12 is an explanatory diagram of a RAID group management screen displayed on the management terminal device 2 according to the first embodiment of this invention.

このRAIDグループ管理画面は、RAIDグループを選択することによって表示され
る。選択されたRAIDグループは、RAIDグループ管理画面の左下に設けられた「選
択グループ情報」欄に表示される。RAIDグループ管理画面には、各ディスクブレード
に搭載されたディスク毎にその状態が表示される。
This RAID group management screen is displayed by selecting a RAID group. The selected RAID group is displayed in a “selected group information” column provided at the lower left of the RAID group management screen. The RAID group management screen displays the status of each disk mounted on each disk blade.

そして、管理者は、RAIDグループを構成するドライブを選択することによってRA
IDグループを構成することができる。また、選択したドライブを、RAIDグループを構成しない「スペア」として設定することもできる。
The administrator then selects the drives that make up the RAID group and
ID groups can be configured. The selected drive can also be set as a “spare” that does not constitute a RAID group.

図13は、本発明の第1の実施の形態のRAIDグループ作成処理のフローチャートで
あり、RAIDグループ設定プログラム1911によって実行される。
FIG. 13 is a flowchart of the RAID group creation processing according to the first embodiment of this invention, and is executed by the RAID group setting program 1911.

RAIDグループ設定プログラム1911は、管理用端末装置2からRAIDグループ
作成要求を受け付けると(S101)と、ドライブの設定内容保持テーブル1915、ド
ライブ状態管理テーブル1916及びRAIDグループ状態管理テーブル1917に要求
があったRAIDグループを仮に登録する(S102)。
When the RAID group setting program 1911 receives a RAID group creation request from the management terminal device 2 (S101), there is a request for the drive setting content holding table 1915, the drive state management table 1916, and the RAID group state management table 1917. A RAID group is temporarily registered (S102).

その後、ドライブの設定内容保持テーブル1915に最初に記載されているユニットを
参照して(S103)、当該ユニット内でスペアとなっているドライブ数sを取得する(
S104)。そして、当該ユニット内の使用ドライブ台数aが最も大きいRAIDグルー
プnを検索する(S105)。その後、RAIDグループ状態管理テーブル1917を参
照して、当該検索されたRAIDグループnの冗長度rを取得する(S106)。
After that, referring to the unit first described in the drive setting content holding table 1915 (S103), the number s of drives that are spares in the unit is acquired (
S104). Then, the RAID group n having the largest number of used drives a in the unit is searched (S105). Thereafter, the RAID group state management table 1917 is referenced to obtain the redundancy r of the searched RAID group n (S106).

その後、当該ユニット取り外し処理に要するドライブ数(a−r+1)と、当該ユニット取り外し処理で使用可能スペアドライブ残数(全スペアドライブ数−s)とを比較して、ユニットを取り外した時に最小限の冗長性を保つために必要なドライブ数がスペアとして残っているか否かを判定する(S107)。すなわち、ディスクに障害が発生した際、当該障害発生ユニットを取り外し、障害ディスクを交換することが可能であるか否かの判定を行う。   Thereafter, the number of drives required for the unit removal process (a−r + 1) is compared with the remaining number of spare drives that can be used in the unit removal process (total number of spare drives−s). It is determined whether or not the number of drives necessary for maintaining redundancy remains as a spare (S107). That is, when a failure occurs on a disk, it is determined whether or not the failure unit can be removed and the failed disk can be replaced.

その判定の結果、処理に要するドライブ数が使用可能スペアドライブ残数より多ければ、ユニットを取り外した時には最小限の冗長性を保つために必要なスペアドライブが不足するため、ディスク障害発生時の交換が不可能であると判定し、スペアドライブ不足による作成エラーを通知する(S111)。そして、ステップS102で作成した各管理テーブルの仮登録を削除する(S112)。   If the number of drives required for processing is greater than the remaining number of available spare drives, the spare drive required to maintain the minimum redundancy will be insufficient when the unit is removed. Is determined to be impossible, and a creation error due to a shortage of spare drives is notified (S111). Then, the temporary registration of each management table created in step S102 is deleted (S112).

一方、処理に要するドライブ数が利用可能スペアドライブ残数以下であれば、ユニットを取り外した時にも最小限の冗長性を保つために必要なスペアドライブが足りている、すなわち障害発生時にディスク交換が可能であると判定する。そして、この調査を全ユニットに対して行った否かを判定する(S108)。   On the other hand, if the number of drives required for processing is less than the remaining number of available spare drives, there are enough spare drives to maintain the minimum redundancy even when the unit is removed. Determine that it is possible. Then, it is determined whether or not this investigation has been performed for all units (S108).

その結果、全ユニットの調査が終了していなければ、ステップS113に移行し、次に
調査するユニットを選択して、当該ユニットを取り外した時の影響を調査する(S104
〜S107)。
As a result, if all the units have not been checked, the process proceeds to step S113, the next unit to be checked is selected, and the influence when the unit is removed is checked (S104).
To S107).

一方、全ユニットの調査が終了していれば、ステップS102で作成した各管理テーブ
ルの仮登録を、各テーブルに正式に登録する(S109)。そして、管理用端末装置2に
RAIDグループの作成成功を通知する(S110)。
On the other hand, if all the units have been examined, the temporary registration of each management table created in step S102 is formally registered in each table (S109). Then, the management terminal device 2 is notified of the successful creation of the RAID group (S110).

図14は、本発明の第1の実施の形態のドライブ障害発生時のユニット交換処理のフロ
ーチャートであり、障害処理プログラム1913によって実行される。
FIG. 14 is a flowchart of unit replacement processing when a drive failure occurs according to the first embodiment of this invention, and is executed by the failure processing program 1913.

ドライブの障害が検出されると(S121)、ドライブ状態管理テーブル1916を参
照して、障害ドライブのユニットID(α)、ドライブ番号k、所属RAIDグループ番
号nを取得する(S122)。そして、ドライブ状態管理テーブル1916に記録された
ドライブkの状態を「障害」に変更し、RAIDグループ状態管理テーブル1917に記
録されたRAIDグループnの状態を「障害」に変更する(S123)。そして、RAI
Dグループ状態管理テーブル1917のRAIDグループnのRAIDグループの現冗長
度から1を減じる(S124)。
When a drive failure is detected (S121), the drive status management table 1916 is referenced to obtain the unit ID (α), drive number k, and assigned RAID group number n of the failed drive (S122). Then, the state of the drive k recorded in the drive state management table 1916 is changed to “failure”, and the state of the RAID group n recorded in the RAID group state management table 1917 is changed to “failure” (S123). And RAI
1 is subtracted from the current redundancy of the RAID group of RAID group n in the D group state management table 1917 (S124).

そして、RAIDグループnの現冗長度が1より小さいか(すなわち、0になったか)
否かを判定する(S125)。
Whether the current redundancy of the RAID group n is smaller than 1 (that is, 0)
It is determined whether or not (S125).

その結果、RAIDグループnの現冗長度が1以上であれば、最低限必要な冗長度は維
持されていると判定して、障害ドライブと同じユニットに搭載されているドライブについ
て調査するために、ドライブ番号の変数iを初期化する(S132)。一方、RAIDグ
ループnの現冗長度が1より小さければ、ステップS126へ進む。
As a result, if the current redundancy of RAID group n is 1 or more, it is determined that the minimum required redundancy is maintained, and in order to investigate the drive mounted in the same unit as the failed drive, The drive number variable i is initialized (S132). On the other hand, if the current redundancy of RAID group n is less than 1, the process proceeds to step S126.

ステップS126では、RAIDグループnの現冗長度が0より小さいか(すなわち、
負の数になったか)否かを判定する。
In step S126, whether the current redundancy of RAID group n is less than 0 (ie,
Whether or not it is a negative number).

その結果、RAIDグループnの現冗長度が0より小さければ、RAIDが構成されて
おらずデータが消失している可能性がある旨をユーザに通知する(S151)。
As a result, if the current redundancy of RAID group n is smaller than 0, the user is notified that RAID is not configured and data may be lost (S151).

一方、RAIDグループnの現冗長度が0以上であれば、ユニットIDがα以外のユニ
ットからスペアとなっているドライブを検索する(S127)。この検索の結果、スペア
ドライブが検索されなければ(S128)、スペアドライブを追加するようユーザに通知
する(S152)。一方、スペアドライブが検索されたならば(S128)、ドライブ状
態管理テーブル1916のこのスペアドライブの状態を「再構築」に変更する。また、R
AIDグループ状態管理テーブル1917の構成ドライブ情報へ障害ドライブに代わり当
該ドライブを加える(S129)。そして、バックグラウンド処理数管理テーブル191
8に記録されるユニットIDがαのバックグラウンド処理数に1を加算する(S130)
。その後、バックグラウンド処理にてRAIDグループnのデータ再構築を実行する(S
131)。そして、ステップS132に進み、ドライブ番号の変数iを初期化する。
On the other hand, if the current redundancy of the RAID group n is 0 or more, a drive that is a spare from a unit whose unit ID is other than α is searched (S127). If no spare drive is found as a result of this search (S128), the user is notified to add a spare drive (S152). On the other hand, if a spare drive is found (S128), the status of this spare drive in the drive status management table 1916 is changed to “rebuild”. R
Instead of the failed drive, the drive is added to the configuration drive information in the AID group status management table 1917 (S129). And the background processing number management table 191
1 is added to the number of background processes whose unit ID is recorded in 8 (S130).
. After that, data reconstruction of RAID group n is executed in the background process (S
131). In step S132, the drive number variable i is initialized.

ステップS132において変数iの初期設定がされると、変数iとステップS122で
取得した障害ドライブのドライブ番号kとを比較する(S133)。その結果、i=kで
あれば、このドライブは障害が発生したドライブであると判定し、ステップS131に進
み、ドライブ番号の変数iに1を加算して、次のドライブに進む。一方、i≠kであれば
、このドライブは障害が発生したドライブではないと判定し、ドライブαi(ユニットI
Dがα、ドライブ番号がiのドライブ)の所属RAIDグループ番号mを取得する(S1
34)。そして、RAIDグループ状態管理テーブル1917のRAIDグループ番号m
のRAIDグループの現冗長度から1を減じる(S135)。
When the variable i is initially set in step S132, the variable i is compared with the drive number k of the failed drive acquired in step S122 (S133). As a result, if i = k, it is determined that this drive is a failed drive, the process proceeds to step S131, 1 is added to the drive number variable i, and the process proceeds to the next drive. On the other hand, if i ≠ k, it is determined that this drive is not a failed drive, and drive αi (unit I
The assigned RAID group number m of D is α and the drive number is i is acquired (S1).
34). The RAID group number m in the RAID group status management table 1917
1 is subtracted from the current redundancy of the RAID group (S135).

そして、RAIDグループmの現冗長度が1より小さいか(すなわち、0になったか)
否かを判定する(S136)。
Whether the current redundancy of RAID group m is less than 1 (that is, 0)
It is determined whether or not (S136).

その判定の結果、RAIDグループmの現冗長度が1以上であれば、最低限必要な冗長
度は維持されていると判定して、次のドライブについて調査するために、ドライブ番号の
変数iに1を加算する(S143)。一方、RAIDグループnの現冗長度が1より小さ
ければ、ステップS137へ進む。
As a result of the determination, if the current redundancy of the RAID group m is 1 or more, it is determined that the minimum required redundancy is maintained, and the drive number variable i is set to investigate the next drive. 1 is added (S143). On the other hand, if the current redundancy of the RAID group n is less than 1, the process proceeds to step S137.

ステップS137では、RAIDグループmの現冗長度が0より小さいか(すなわち、
負の数になったか)否かを判定する。
In step S137, whether the current redundancy of the RAID group m is less than 0 (ie,
Whether or not it is a negative number).

このS136、S137の処理によって、ユニットIDがαのユニット上に搭載された
ドライブによるRAIDの状態の変化を推定することができる。すなわち、ユニットID
がαのユニットを取り外したときの、障害発生ドライブ以外のドライブが属するRAID
グループへの影響を推定する。
By the processing of S136 and S137, it is possible to estimate the change in the RAID state due to the drive mounted on the unit whose unit ID is α. That is, the unit ID
RAID to which a drive other than the failed drive belongs when the unit with α is removed
Estimate the impact on the group.

この結果、RAIDグループmの現冗長度が0より小さければ、RAIDが構成されて
おらずデータが消失している可能性がある旨をユーザに通知する(S151)。
As a result, if the current redundancy of the RAID group m is smaller than 0, the user is notified that RAID is not configured and data may be lost (S151).

一方、RAIDグループmの現冗長度が0以上であれば、ユニットIDがα以外のユニ
ットからスペアとなっているドライブを検索する(S138)。この検索の結果、スペア
ドライブが検索されなければ(S139)、スペアドライブを追加するようユーザに通知
する(S152)。一方、この検索の結果、スペアドライブが検索されたならば(S13
9)、ドライブ状態管理テーブル1916に記録されている当該スペアドライブの状態を
「退避」に変更する(S140)。そして、バックグラウンド処理数管理テーブル191
8に記録されるユニットIDがαのバックグラウンド処理数に1を加算する(S141)
。その後、バックグラウンド処理にてドライブαiのデータコピーを実行する(S142
)。そして、ステップS143に進み、ドライブ番号の変数iに1を加算する。
On the other hand, if the current redundancy of the RAID group m is 0 or more, a spare drive is searched for from units other than the unit ID α (S138). If no spare drive is found as a result of this search (S139), the user is notified to add a spare drive (S152). On the other hand, if a spare drive is found as a result of this search (S13).
9) The status of the spare drive recorded in the drive status management table 1916 is changed to “save” (S140). And the background processing number management table 191
8 is added to the number of background processes whose unit ID is α recorded in 8 (S141).
. Thereafter, the data copy of the drive αi is executed in the background process (S142).
). In step S143, 1 is added to the variable i of the drive number.

ステップS143において変数iが更新されると、変数iがドライブ番号の最大値を超
えているか否かを判定する(S144)。その結果、変数iがドライブ番号の最大値より
小さければ、ステップS132に戻り次のドライブについて調査する。一方、変数iがド
ライブ番号の最大値を超えていれば、全てのドライブについての調査が終了したので、バ
ックグラウンド処理数管理テーブル1918を参照してユニットIDがαのバックグラウ
ンド処理数が0であるか否かを判定する(S145)。その結果、ユニットIDがαのバ
ックグラウンド処理数が0でなければ、ユニットIDがαのユニットに関するバックグラ
ウンド処理が継続しているので、一定時間の経過を待ち(S146)、再度、ステップS
145の判定を行う。一方、ユニットIDがαのバックグラウンド処理数が0であれば、
ユニットIDがαのユニットに関するバックグラウンド処理が行われていないので、ステ
ップS147に進む。
When the variable i is updated in step S143, it is determined whether or not the variable i exceeds the maximum value of the drive number (S144). As a result, if the variable i is smaller than the maximum value of the drive number, the process returns to step S132 to investigate the next drive. On the other hand, if the variable i exceeds the maximum value of the drive number, the investigation for all the drives is completed, so the background processing number with unit ID α is 0 with reference to the background processing number management table 1918. It is determined whether or not there is (S145). As a result, if the number of background processes whose unit ID is α is not 0, the background process related to the unit whose unit ID is α is continuing, so that a predetermined time has elapsed (S146), and step S is performed again.
The determination of 145 is performed. On the other hand, if the number of background processes whose unit ID is α is 0,
Since the background process related to the unit having the unit ID α is not performed, the process proceeds to step S147.

ステップS147では、ドライブ状態管理テーブル1916に記録されている、ユニッ
トIDがαの障害が発生していないドライブの状態を「未使用」に変更する(S147)
。そして、ユニットIDがαのユニットのユニット交換指示LEDを点灯させ(S148
)、ドライブIDがαkのドライブのドライブ交換指示LEDを点灯させる(S149)
。その後、ユニットIDがαのユニットの交換をユーザに指示する(S150)。
In step S147, the drive status recorded in the drive status management table 1916 and having no failure with the unit ID α is changed to “unused” (S147).
. Then, the unit replacement instruction LED of the unit whose unit ID is α is turned on (S148).
), The drive replacement instruction LED of the drive whose drive ID is αk is turned on (S149).
. Thereafter, the user is instructed to replace the unit whose unit ID is α (S150).

図15は、本発明の第1の実施の形態のRAIDグループのデータ再構築処理のフロー
チャートであり、障害処理プログラム1913によって実行される。また、図14のステ
ップS131にて開始し、バックグラウンドにおいて実行される。
FIG. 15 is a flow chart for RAID group data reconstruction processing according to the first embodiment of this invention, which is executed by the failure processing program 1913. Moreover, it starts in step S131 of FIG. 14 and is executed in the background.

RAIDグループnを構成する全ての正常なドライブからデータを読み出す(S161
)。そして、これら読み出したデータのパリティ(排他的論理和)を計算することによっ
て、障害が発生したドライブに記憶されていたものと同じデータを算出し、データを復元
する(S162)。そして、図14のステップS127において検索されたスペアドライ
ブに、復元したデータを書き込む(S163)。
Data is read from all normal drives constituting the RAID group n (S161).
). Then, by calculating the parity (exclusive OR) of these read data, the same data as that stored in the failed drive is calculated, and the data is restored (S162). Then, the restored data is written in the spare drive searched in step S127 of FIG. 14 (S163).

そして、全てのデータを書き込んだか否かを判定する(S164)。その結果、全ての
データの書き込みが終了していなければ、ステップS161に戻り、さらに、RAIDグ
ループnを構成する全ての正常なドライブからデータを読み出してデータの再構築を行う
。一方、全てのデータの書き込みが終了していれば、ドライブ状態管理テーブル1916
に記録されている当該スペアドライブの状態を「使用中」に変更する。そして、RAID
グループ状態管理テーブル1917に記録されたドライブの構成を更新し、RAIDグル
ープnの状態を「正常」に変更する(S165)。そして、RAIDグループ状態管理テ
ーブル1917のRAIDグループ番号nのRAIDグループの現冗長度に1を加算する
(S166)。さらに、バックグラウンドにおけるデータ再構築処理が終了したので、バ
ックグラウンド処理数管理テーブル1918に記録されるユニットIDがαのバックグラ
ウンド処理数から1を減算する(S167)。
Then, it is determined whether all data has been written (S164). As a result, if writing of all data has not been completed, the process returns to step S161, and data is read from all normal drives constituting the RAID group n to reconstruct data. On the other hand, if all the data has been written, the drive status management table 1916
The status of the spare drive recorded in is changed to “in use”. And RAID
The drive configuration recorded in the group status management table 1917 is updated, and the status of the RAID group n is changed to “normal” (S165). Then, 1 is added to the current redundancy of the RAID group with the RAID group number n in the RAID group state management table 1917 (S166). Further, since the data reconstruction process in the background is completed, 1 is subtracted from the number of background processes whose unit ID is α recorded in the background process number management table 1918 (S167).

図16は、本発明の第1の実施の形態のドライブのデータコピー処理のフローチャート
であり、障害処理プログラム1913によって実行される。また、図14のステップS1
42にて開始し、バックグラウンドにおいて実行される。
FIG. 16 is a flowchart of drive data copy processing according to the first embodiment of this invention, which is executed by the failure processing program 1913. Further, step S1 in FIG.
It starts at 42 and runs in the background.

まず、ドライブαN(ユニットIDがα、ドライブ番号がNのドライブ)からデータを
読み出す(S171)。そして、図14のステップS138において検索されたスペアド
ライブに、読み出したデータを書き込む(S172)。
First, data is read from the drive αN (drive whose unit ID is α and drive number is N) (S171). Then, the read data is written in the spare drive searched in step S138 of FIG. 14 (S172).

そして、全てのデータを書き込んだか否かを判定する(S173)。その結果、全ての
データの書き込みが終了していなければ、ステップS171に戻り、さらに、データを読
み出してデータコピーを行う。一方、全てのデータの書き込みが終了していれば、ドライ
ブ状態管理テーブル1916に記録されている構成ドライブを更新し、当該スペアドライ
ブの状態を「使用中」に変更する(S174)。そして、RAIDグループ状態管理テー
ブル1917のRAIDグループ番号nのRAIDグループの現冗長度に1を加算する(
S175)。さらに、バックグラウンドにおけるデータコピー処理が終了したので、バッ
クグラウンド処理数管理テーブル1918に記録されるユニットID(α)のバックグラ
ウンド処理数から1を減算する(S176)。
Then, it is determined whether all data has been written (S173). As a result, if writing of all data is not completed, the process returns to step S171, and further data is read and data is copied. On the other hand, if all the data has been written, the configuration drive recorded in the drive status management table 1916 is updated, and the status of the spare drive is changed to “in use” (S174). Then, 1 is added to the current redundancy of the RAID group with the RAID group number n in the RAID group state management table 1917 (
S175). Further, since the data copy process in the background is completed, 1 is subtracted from the background process number of the unit ID (α) recorded in the background process number management table 1918 (S176).

図17は、本発明の第1の実施の形態の交換ユニット挿入時処理のフローチャートであ
る。
FIG. 17 is a flowchart of processing when the replacement unit is inserted according to the first embodiment of this invention.

ディスクブレードの挿入が確認されると(S181)、挿入されたディスクブレードに
設定されたユニットIDが正しいかによって、正しいユニットが挿入されたかを判定する
(S182)。具体的には、挿入されたディスクブレードに設定されたユニットIDが取
り外されたディスクブレードに設定されていたユニットのIDと等しいかや、挿入された
ディスクブレードに設定されたユニットIDが既に実装済みの他のユニットのIDと重複
しないか等の方法によって確認することができる。
If the insertion of the disk blade is confirmed (S181), it is determined whether the correct unit has been inserted based on whether the unit ID set in the inserted disk blade is correct (S182). Specifically, the unit ID set for the inserted disk blade is equal to the ID of the unit set for the removed disk blade, or the unit ID set for the inserted disk blade is already mounted. It can be confirmed by a method such as not overlapping with the IDs of other units.

正しいユニットであることが確認できたら、挿入されたユニットのユニット交換指示L
EDを消灯させる(S183)。
If it is confirmed that the unit is correct, the unit replacement instruction for the inserted unit L
The ED is turned off (S183).

そして、ドライブ設定内容保持テーブル1915を参照して、挿入されたユニットのド
ライブが属していたRAIDグループnを選択する(S184)。
Then, the RAID group n to which the drive of the inserted unit belongs is selected with reference to the drive setting content holding table 1915 (S184).

その後、RAIDグループ状態管理テーブル1917を参照して、RAIDグループn
の正常時の冗長度と、現在の冗長度とを取得する(S185)。そして、正常時冗長度と
現冗長度を比較する(S186)。その結果、現冗長度が正常時冗長度より小さければ、
RAIDグループnを構成するドライブの数が正常時より不足しているので、再構築後の
データを書き込むドライブを選択し、ドライブ状態管理テーブル1916に記録されてい
る当該ドライブの状態を「再構築」に変更する。その後、バックグラウンド処理にてRA
IDグループnのデータ再構築を実行する(S187)。
Thereafter, referring to the RAID group state management table 1917, the RAID group n
The normal redundancy and the current redundancy are acquired (S185). Then, the normal redundancy and the current redundancy are compared (S186). As a result, if the current redundancy is smaller than the normal redundancy,
Since the number of drives constituting the RAID group n is less than normal, the drive to which the reconstructed data is to be written is selected, and the status of the drive recorded in the drive status management table 1916 is set to “Rebuild”. Change to After that, in background processing RA
Data reconstruction of ID group n is executed (S187).

その後、挿入されたユニットのドライブが属していた全てのRAIDグループについて
の調査が終了したか否かを判定する(S188)。その結果、全てのRAIDグループに
ついての調査が終了していなければ、次のRAIDグループを選択し(S189)、ステ
ップS185に戻り、さらにRAIDグループの冗長度を調査する。一方、全てのRAI
Dグループについての調査が終了していれば、未使用ドライブ(すなわち、ステップS1
87でデータ再構築に使用されなかったドライブ)の状態を「スペア」に変更する(S1
90)。
Thereafter, it is determined whether or not the investigation for all RAID groups to which the drives of the inserted units belong has been completed (S188). As a result, if all the RAID groups have not been checked, the next RAID group is selected (S189), the process returns to step S185, and the redundancy of the RAID group is further checked. On the other hand, all RAI
If the investigation on the D group has been completed, the unused drive (ie, step S1)
In 87, the status of the drive that was not used for data reconstruction is changed to “spare” (S1).
90).

図18から図29は、ドライブB0に障害が発生し、ユニットBが交換されるまでの、
ドライブ状態管理テーブル1916の変化を示す。
FIGS. 18 to 29 show how the drive B0 fails and unit B is replaced.
A change in the drive status management table 1916 is shown.

ドライブB0(ユニットIDがB、ドライブ番号が0番のドライブ)に障害が発生する
前は、ドライブB0の状態は「使用中」である(図18)。
Before a failure occurs in drive B0 (drive with unit ID B and drive number 0), the state of drive B0 is “in use” (FIG. 18).

ドライブB0に障害が発生すると、ドライブB0の状態は「障害」になる(図14のS
123)。そして、検索されたスペアドライブA2の状態を「再構築」に変更し(図14
のS129)、スペアドライブA2にドライブB0のデータの再構築を開始する(図14
のS131)。このドライブB0のデータ再構築中の状態を図19に示す。そして、デー
タ再構築が終了すると、ドライブA2の状態は「使用中」に変更され、ドライブA2はR
AIDグループ2を構成するドライブとして使用される(図20)。
When a failure occurs in the drive B0, the state of the drive B0 becomes “failure” (S in FIG. 14).
123). Then, the state of the searched spare drive A2 is changed to “rebuild” (FIG. 14).
S129), the spare drive A2 starts to reconstruct the data of the drive B0 (FIG. 14).
S131). FIG. 19 shows a state during data reconstruction of the drive B0. When the data reconstruction is completed, the state of the drive A2 is changed to “in use” and the drive A2 is changed to R
Used as a drive constituting the AID group 2 (FIG. 20).

障害ドライブのデータ再構築処理の後(または、この処理と並行して)、ドライブB1
〜B3のデータ退避処理が行われる。ドライブB1はRAIDグループ1に属し、RAI
Dグループ1のRAIDレベルはRAID5なので、その冗長度は1である。よって、ド
ライブB1を取り除くと冗長度が0になってしまうので、ドライブB1のデータを退避す
るコピー処理を開始する。
After data reconstruction processing of the failed drive (or in parallel with this processing), drive B1
Data save processing of .about.B3 is performed. Drive B1 belongs to RAID group 1 and has a RAI
Since the RAID level of D group 1 is RAID 5, its redundancy is 1. Therefore, since the redundancy becomes 0 when the drive B1 is removed, the copy process for saving the data in the drive B1 is started.

すなわち、検索されたスペアドライブD2の状態を「退避」に変更し(図14のS14
0)、スペアドライブD2にドライブB1のデータのコピーを開始する(図14のS14
2)。このドライブB1のデータ退避の状態を図21に示す。そして、データコピーが終
了すると、ドライブD2の状態は「使用中」に変更され、ドライブD2はRAIDグルー
プ1を構成するドライブとして使用される(図22)。
In other words, the state of the searched spare drive D2 is changed to “save” (S14 in FIG. 14).
0), copying of data of the drive B1 to the spare drive D2 is started (S14 in FIG. 14).
2). FIG. 21 shows the data save state of the drive B1. When the data copy is completed, the state of the drive D2 is changed to “in use”, and the drive D2 is used as a drive constituting the RAID group 1 (FIG. 22).

次にドライブB2のデータ退避処理が行われる。ドライブB2はRAIDグループ1に
属する。よって、ドライブB2を取り除くと冗長度が0になってしまうので、ドライブB
2のデータを退避するコピー処理を開始する。具体的には、検索されたスペアドライブE
2の状態を「退避」に変更し(図14のS140)、スペアドライブE2にドライブB2
のデータのコピーを開始する(図14のS142)。このドライブB2のデータ退避中の
状態を図23に示す。そして、データコピーが終了すると、ドライブE2の状態は「使用
中」に変更され、ドライブE2はRAIDグループ1を構成するドライブとして使用され
る(図24)。
Next, the data saving process of the drive B2 is performed. The drive B2 belongs to the RAID group 1. Therefore, if drive B2 is removed, the redundancy will be 0, so drive B
The copy process for saving the second data is started. Specifically, the searched spare drive E
2 is changed to “evacuation” (S140 in FIG. 14), and the spare drive E2 is changed to the drive B2.
Starts copying the data (S142 in FIG. 14). FIG. 23 shows a state where data is being saved in the drive B2. When the data copy is completed, the state of the drive E2 is changed to “in use”, and the drive E2 is used as a drive constituting the RAID group 1 (FIG. 24).

次にドライブB3のデータ退避処理が行われる。ドライブB3はRAIDグループ4に
属し、RAIDグループ4のRAIDレベルはRAID6なので、その冗長度は2である
。よって、ドライブB3を取り除いても冗長度は1が維持されるので、ドライブB3のデ
ータを退避する必要はないと判断する(図14のS136)。このドライブB3のデータ
退避中の状態を図25に示す。
Next, the data saving process of the drive B3 is performed. The drive B3 belongs to the RAID group 4, and since the RAID level of the RAID group 4 is RAID 6, its redundancy is 2. Therefore, even if the drive B3 is removed, the redundancy is maintained at 1, so it is determined that there is no need to save the data in the drive B3 (S136 in FIG. 14). FIG. 25 shows a state in which data is being saved in the drive B3.

なお、退避処理中に書き込みが発生した場合、書き込みデータは退避元ドライブと退避
先ドライブの両方に書き込まれる。このため、退避処理中にデータの書き込みが発生して
も、退避元ドライブと退避先ドライブの内容が異なることはない。
If writing occurs during the save process, the write data is written to both the save source drive and the save destination drive. Therefore, even if data is written during the save process, the contents of the save source drive and the save destination drive do not differ.

以上の処理によって、ユニットBの全てのドライブの処理が終了したので、ユニット交
換処理(図14)が終了する。この状態を図26に示す。
With the above processing, since the processing of all the drives in unit B is completed, the unit replacement processing (FIG. 14) is completed. This state is shown in FIG.

その後、ユニットBが取り外され、新たなディスクブレードが取り付けられると、ユニ
ットBに搭載された全てのドライブの状態は「未使用」となる(図27)。その後、再構
築されたデータが書き込まれるドライブB3の状態は「再構築」に変更され、データの再
構築が開始する(図28)。再構築が終了すると、再構築されたデータが書き込まれたド
ライブB3の状態は「使用中」に変更され、未使用ドライブ(B0〜B2)の状態が「ス
ペア」に変更される(図29)。
Thereafter, when the unit B is removed and a new disk blade is attached, the state of all the drives mounted on the unit B becomes “unused” (FIG. 27). Thereafter, the state of the drive B3 to which the reconstructed data is written is changed to “reconstruction”, and the data reconstruction starts (FIG. 28). When the reconstruction is completed, the state of the drive B3 in which the reconstructed data is written is changed to “in use”, and the state of the unused drives (B0 to B2) is changed to “spare” (FIG. 29). .

以上説明したように第1の実施の形態では、ユニット(ディスクブレード)を取り外す
際に、当該ユニットに関係するRAIDグループの最低限の冗長度が維持されるようにデ
ータ再構築及びデータコピーを行う。そして、これらの処理の終了後にユニット及びドラ
イブの交換を指示するので、容易にユニットを交換することができる。
As described above, in the first embodiment, when a unit (disk blade) is removed, data reconstruction and data copying are performed so that the minimum redundancy of the RAID group related to the unit is maintained. . Then, since replacement of the unit and the drive is instructed after completion of these processes, the unit can be easily replaced.

次に、本発明の第2の実施の形態について説明する。第2の実施の形態では、RAID
グループ毎に保証冗長度を設定することによって、ドライブに障害が発生しても、そのR
AIDグループの冗長度が保証冗長度より低下しないように制御する。なお、第2の実施
の形態では前述した第1の実施の形態と異なる処理のみを説明し、第1の実施の形態と共
通する処理の説明は省略する。
Next, a second embodiment of the present invention will be described. In the second embodiment, RAID
By setting guaranteed redundancy for each group, even if a drive failure occurs, the R
Control is performed so that the redundancy of the AID group does not fall below the guaranteed redundancy. In the second embodiment, only processes different from those of the first embodiment described above will be described, and description of processes common to the first embodiment will be omitted.

図30は、本発明の第2の実施の形態のRAIDグループ状態管理テーブル1917b
の説明図である。
FIG. 30 illustrates a RAID group state management table 1917b according to the second embodiment of this invention.
It is explanatory drawing of.

RAIDグループ状態管理テーブル1917bには、第1の実施の形態のRAIDグル
ープ状態管理テーブル1917と同じデータ(RAIDグループ番号、総記憶容量、RA
IDレベル、正常時の冗長度、現在の冗長度、構成ドライブ識別記号、及びRAIDの状
態)の他、保証冗長度が記録されている。保証冗長度は、そのRAIDグループにおいて
保証される最低の冗長度であって、そのRAIDグループに属するドライブに障害が発生
しても、そのRAIDグループの冗長度が保証冗長度より小さくならないように制御して
いる。なお、第1の実施の形態のRAIDグループ状態管理テーブル1917と同じデー
タの説明は省略する。
The RAID group state management table 1917b includes the same data (RAID group number, total storage capacity, RAID) as the RAID group state management table 1917 of the first embodiment.
In addition to the ID level, normal redundancy, current redundancy, constituent drive identification symbol, and RAID status), guaranteed redundancy is recorded. The guaranteed redundancy is the minimum redundancy guaranteed in the RAID group, and control is performed so that the redundancy of the RAID group does not become smaller than the guaranteed redundancy even if a drive belonging to the RAID group fails. is doing. A description of the same data as the RAID group state management table 1917 of the first embodiment is omitted.

図31は、本発明の第2の実施の形態のRAIDグループ管理画面の説明図である。   FIG. 31 is an explanatory diagram of a RAID group management screen according to the second embodiment of this invention.

この第2の実施の形態のRAIDグループ管理画面は、前述した第1の実施の形態のR
AIDグループ管理画面(図12)と異なり、「冗長度ポリシー」ボタンが設けられてい
る。この「冗長度ポリシー」ボタンが操作されると、図31(b)に示す冗長度ポリシー
設定画面が開く。冗長度ポリシー設定画面では、RAIDグループ毎に、常に完全な冗長
性を維持するか、最低限の冗長性を維持するか、ユニット交換時は一時的な冗長性の欠落
を許容するか、を選択することができる。
The RAID group management screen of the second embodiment is the same as the R of the first embodiment described above.
Unlike the AID group management screen (FIG. 12), a “redundancy policy” button is provided. When this “redundancy policy” button is operated, a redundancy policy setting screen shown in FIG. On the redundancy policy setting screen, for each RAID group, select whether to always maintain complete redundancy, to maintain the minimum redundancy, or to allow temporary lack of redundancy when replacing units can do.

図32は、本発明の第2の実施の形態の保証冗長度設定処理のフローチャートであり、
RAIDグループ設定プログラム1911において実行される。
FIG. 32 is a flowchart of guaranteed redundancy setting processing according to the second embodiment of this invention.
This is executed in the RAID group setting program 1911.

まず、「常に完全な冗長性を維持」することが選択された場合には(S261)、RA
IDグループ状態管理テーブル1917bの保証冗長度には正常時の冗長度と同じ値が設
定される(S262)。また、「最低限の冗長性を維持」することが選択された場合には
(S263)、RAIDグループ状態管理テーブル1917bの保証冗長度には1が設定
される(S264)。また、ユニット交換時は「一時的な冗長性の欠落を許容」すること
が選択された場合には(S265)、RAIDグループ状態管理テーブル1917bの保
証冗長度には0が設定される(S266)。
First, when “always maintain complete redundancy” is selected (S261), RA
The guaranteed redundancy of the ID group state management table 1917b is set to the same value as the normal redundancy (S262). If “maintain minimum redundancy” is selected (S263), the guaranteed redundancy of the RAID group state management table 1917b is set to 1 (S264). Further, when “to allow temporary loss of redundancy” is selected at the time of unit replacement (S265), 0 is set as the guaranteed redundancy in the RAID group state management table 1917b (S266). .

図33は、本発明の第2の実施の形態のRAIDグループ作成処理のフローチャートで
あり、RAIDグループ設定プログラム1911によって実行される。この第2の実施の
形態のRAIDグループ作成処理は、S206を除いて第1の実施の形態のRAIDグル
ープ作成処理(図13)と同じであり、これと同一の処理の説明は省略する。
FIG. 33 is a flowchart of the RAID group creation processing according to the second embodiment of this invention, and is executed by the RAID group setting program 1911. The RAID group creation processing of the second embodiment is the same as the RAID group creation processing (FIG. 13) of the first embodiment except for S206, and the description of the same processing is omitted.

ステップS105において当該ユニット内の使用ドライブ台数aが最も大きいRAID
グループnを検索した後、RAIDグループ状態管理テーブル1917を参照して、当該
検索されたRAIDグループnの保証冗長度rを取得する(S206)。
In step S105, the RAID with the largest number of used drives a in the unit
After searching for the group n, the guaranteed redundancy r of the searched RAID group n is obtained by referring to the RAID group state management table 1917 (S206).

その後、当該ユニット取り外し処理に要するなドライブ数(a−r+1)と、当該ユニット取り外し処理時に利用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較して、ユニットを取り外した時に最小限の冗長性を保つために必要なドライブ数がスペアとして残っているかを判定する(S107)。すなわち、ディスクに障害が発生した際、当該障害発生ユニットを取り外し、障害ディスクを交換することが可能であるか否かの判定を行う。   Then, the number of drives required for the unit removal process (a−r + 1) is compared with the remaining number of spare drives available for the unit removal process (total number of spare drives−s). It is determined whether the number of drives necessary for maintaining the limited redundancy remains as a spare (S107). That is, when a failure occurs on a disk, it is determined whether or not the failure unit can be removed and the failed disk can be replaced.

その判定の結果、処理に必要なドライブ数が使用可能スペアドライブ残数より多ければ、ユニットを取り外した時にはRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが不足すると判定し、スペアドライブ不足による作成エラーを通知する(S111)。そして、ステップS102で作成した各管理テーブルの仮登録を削除する(S112)。   As a result of the determination, if the number of drives required for processing is larger than the remaining number of available spare drives, it is determined that there are not enough spare drives required to maintain the guaranteed redundancy r set for RAID group n when the unit is removed. Then, a creation error due to a shortage of spare drives is notified (S111). Then, the temporary registration of each management table created in step S102 is deleted (S112).

一方、処理に要するドライブ数が使用可能スペアドライブ残数以下であれば、ユニットを取り外した時にもRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが足りていると判定する。   On the other hand, if the number of drives required for processing is less than or equal to the remaining number of available spare drives, it is determined that there are enough spare drives to maintain the guaranteed redundancy r set in RAID group n even when the unit is removed. To do.

図34は、本発明の第2の実施の形態のドライブ障害発生時のユニット交換処理のフロ
ーチャートであり、障害処理プログラム1913によって実行される。この第2の実施の
形態のユニット交換処理は、S225、S236を除いて第1の実施の形態のユニット交
換処理(図14)と同じであり、これと同一の処理の説明は省略する。
FIG. 34 is a flowchart of unit replacement processing when a drive failure occurs according to the second embodiment of this invention, which is executed by the failure processing program 1913. The unit replacement process of the second embodiment is the same as the unit replacement process (FIG. 14) of the first embodiment except for S225 and S236, and the description of the same process is omitted.

ステップS124においてRAIDグループ状態管理テーブル1917のRAIDグル
ープnのRAIDグループの現冗長度から1を減じた後、RAIDグループnの現冗長度
が保証冗長度より小さいか否かを判定する(S225)。
In step S124, after subtracting 1 from the current redundancy of the RAID group of RAID group n in the RAID group state management table 1917, it is determined whether or not the current redundancy of RAID group n is smaller than the guaranteed redundancy (S225).

その判定の結果、RAIDグループnの現冗長度が保証冗長度以上であれば、ドライブ
番号の変数iを初期化する(S132)。一方、RAIDグループnの現冗長度が1より
小さければ、ステップS126へ進む。ステップS126では、RAIDグループnの現
冗長度が0より小さいか否かを判定する。
As a result of the determination, if the current redundancy of the RAID group n is equal to or greater than the guaranteed redundancy, the drive number variable i is initialized (S132). On the other hand, if the current redundancy of RAID group n is less than 1, the process proceeds to step S126. In step S126, it is determined whether the current redundancy of RAID group n is less than zero.

また、ステップS135においてRAIDグループ状態管理テーブル1917のRAI
Dグループ番号mのRAIDグループの現冗長度から1を減じた後、RAIDグループm
の現冗長度が保証冗長度より小さいか否かを判定する(S236)。
In step S135, the RAI of the RAID group state management table 1917 is also displayed.
After subtracting 1 from the current redundancy of the RAID group with D group number m, RAID group m
It is determined whether the current redundancy is smaller than the guaranteed redundancy (S236).

その判定の結果、RAIDグループmの現冗長度が保証冗長度以上であれば、ドライブ
番号の変数iに1を加算する(S143)。一方、RAIDグループnの現冗長度が1よ
り小さければ、ステップS137へ進む。ステップS137では、RAIDグループmの
現冗長度が0より小さいか否かを判定する。このS236、S137の処理によって、ユ
ニットIDがαのユニット上に搭載されたドライブによるRAIDの状態の変化を推定す
ることができる。すなわち、ユニットIDがαのユニットを取り外したときの、障害発生
ドライブ以外のドライブが属するRAIDグループへの影響を推定する。
As a result of the determination, if the current redundancy of the RAID group m is equal to or greater than the guaranteed redundancy, 1 is added to the variable i of the drive number (S143). On the other hand, if the current redundancy of the RAID group n is less than 1, the process proceeds to step S137. In step S137, it is determined whether or not the current redundancy of the RAID group m is smaller than zero. By the processing in S236 and S137, it is possible to estimate the change in the RAID state due to the drive mounted on the unit whose unit ID is α. That is, the influence on the RAID group to which the drive other than the failed drive when the unit with the unit ID α is removed is estimated.

以上説明したように第2の実施の形態では、RAIDグループ毎に保証冗長度を設定し
、ドライブに障害が発生しても当該RAIDグループの冗長度が保証冗長度より低下しな
いように制御するので、RAIDグループ毎の要求性能(すなわち、保存されるデータの
重要性)に応じて冗長度を管理することができる。
As described above, in the second embodiment, a guaranteed redundancy is set for each RAID group, and even if a drive failure occurs, control is performed so that the redundancy of the RAID group does not fall below the guaranteed redundancy. The redundancy can be managed according to the required performance (that is, the importance of stored data) for each RAID group.

次に、本発明の第3の実施の形態について説明する。第3の実施の形態では、ドライブ
の保守情報を提供するものであり、前述した第1及び第2の実施の形態に附加的に適用す
ることができる。
Next, a third embodiment of the present invention will be described. In the third embodiment, drive maintenance information is provided and can be additionally applied to the first and second embodiments described above.

図35は、本発明の第3の実施の形態のRAIDグループ管理画面の説明図である。第
3の実施の形態のRAIDグループ管理画面は、ドライブの保守情報の表示欄が画面下部
に設けられている。
FIG. 35 is an explanatory diagram of a RAID group management screen according to the third embodiment of this invention. In the RAID group management screen of the third embodiment, a display field for drive maintenance information is provided at the bottom of the screen.

図36は、本発明の第3の実施の形態の保守緊急度通知判断処理のフローチャートであ
り、RAIDグループ管理画面に表示されるドライブの保守情報を選択する。
FIG. 36 is a flowchart of the maintenance urgent notification determination process according to the third embodiment of this invention, and selects drive maintenance information displayed on the RAID group management screen.

その後、ドライブの設定内容保持テーブル1915に最初に記載されているユニットを
参照して(S301)、当該ユニット内でスペアとなっているドライブ数sを取得する(
S302)。そして、当該ユニット内の使用ドライブ台数aが最も大きいRAIDグルー
プnを検索する(S303)。その後、RAIDグループ状態管理テーブル1917を参
照して、当該検索されたRAIDグループnに設定された保証冗長度rを取得する(S3
04)。
Thereafter, referring to the unit first described in the drive setting content holding table 1915 (S301), the number s of drives that are spares in the unit is acquired (
S302). Then, the RAID group n having the largest number of used drives a in the unit is searched (S303). Thereafter, the guaranteed redundancy r set for the searched RAID group n is obtained by referring to the RAID group state management table 1917 (S3).
04).

その後、当該ユニット取り外し処理に要するなドライブ数(a−r+1)と、当該ユニット取り外し処理に使用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較して、ユニットを取り外した時に最小限の冗長性を保つために必要なドライブ数がスペアとして残っているかを判定する(S305)。すなわち、ディスクに障害が発生した際、当該障害発生ユニットを取り外し、障害ディスクを交換することが可能であるか否かの判定を行う。   Thereafter, the number of drives required for the unit removal process (a−r + 1) is compared with the remaining number of spare drives available for the unit removal process (total number of spare drives−s), and the minimum value is obtained when the unit is removed. It is determined whether the number of drives necessary to maintain the limited redundancy remains as a spare (S305). That is, when a failure occurs on a disk, it is determined whether or not the failure unit can be removed and the failed disk can be replaced.

その判定の結果、処理に要するドライブ数が使用可能スペアドライブ残数より多ければ、ドライブに故障が発生すると保証冗長度を維持できないので、ドライブ障害発生時にもRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが不足すると判定し、保守緊急度は高い旨(速やかに障害ドライブの交換や、ドライブの追加をする必要がある旨)を通知する(S309)。   As a result of the determination, if the number of drives required for processing is larger than the remaining number of available spare drives, the guaranteed redundancy cannot be maintained if a drive failure occurs. Therefore, the guaranteed redundancy set for RAID group n even when a drive failure occurs It is determined that there are not enough spare drives to maintain r, and a notice that the maintenance urgency level is high (a failure drive needs to be replaced or a drive needs to be added quickly) is notified (S309).

一方、処理に要するドライブ数が使用可能スペアドライブ残数以下であれば、ユニットを取り外した時にもRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが足りていると判定する。そして、全ユニットを調べたか否かを判定する(S306)。   On the other hand, if the number of drives required for processing is less than or equal to the remaining number of available spare drives, it is determined that there are enough spare drives to maintain the guaranteed redundancy r set in RAID group n even when the unit is removed. To do. Then, it is determined whether or not all units have been examined (S306).

その結果、全ユニットの調査が終了していなければ、ステップS307に移行し、次に
調査するユニットを選択して、ステップS302に戻り次のユニットの調査を継続する。
As a result, if all the units have not been checked, the process proceeds to step S307, the next unit to be checked is selected, the flow returns to step S302, and the next unit is continuously checked.

一方、全ユニットの調査が終了していれば、1台のドライブに故障が生じても保証冗長
度を維持することができるので保守緊急度は低い旨を通知する(S308)。
On the other hand, if all the units have been investigated, it is possible to maintain the guaranteed redundancy even if a failure occurs in one drive, so that the maintenance urgency is low (S308).

以上説明した第3の実施の形態の保守緊急度通知判断処理は、前述した第2の実施の形
態に適用可能なものであるが、ステップS304、S305において保証冗長度ではなく
、RAIDグループnの現冗長度を用いることによって、第1の実施の形態に適用するこ
とができる。
The maintenance urgency level notification determination process of the third embodiment described above is applicable to the second embodiment described above. However, in steps S304 and S305, not the guaranteed redundancy but the RAID group n. By using the current redundancy, it can be applied to the first embodiment.

以上説明したように第3の実施の形態では、RAIDグループの冗長度を維持するため
のドライブ保守情報を提供するので、RAIDグループの冗長度が期待の値より低下する
ことを未然に防ぐことができる。また、緊急度判定によって、緊急度が低い保守の実施を
割愛できるので、従来ならば複数回行わなければならなかった保守を一度にまとめて実施
することができ、保守に要していたコストや時間を低減することができる。
As described above, in the third embodiment, since drive maintenance information for maintaining the redundancy of the RAID group is provided, it is possible to prevent the redundancy of the RAID group from lowering than expected. it can. In addition, since it is possible to omit maintenance with low urgency by urgency determination, maintenance that had to be performed multiple times in the past can be performed all at once. Time can be reduced.

本発明の実施の形態のディスクアレイ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the disk array apparatus of embodiment of this invention. 本発明の実施の形態のディスクアレイ装置の構成を示す外観図である。It is an external view which shows the structure of the disk array apparatus of embodiment of this invention. 本発明の実施の形態のディスクアレイ装置を構成するドライブ筐体の斜視図である。1 is a perspective view of a drive housing constituting a disk array device according to an embodiment of the present invention. 本発明の実施の形態のディスクアレイ装置を構成するディスクブレードの構成図である。It is a block diagram of the disk blade which comprises the disk array apparatus of embodiment of this invention. 本発明の実施の形態のディスクアレイコントローラの構成を示すブロック図である。It is a block diagram which shows the structure of the disk array controller of embodiment of this invention. 本発明の実施の形態の制御プログラムの説明図である。It is explanatory drawing of the control program of embodiment of this invention. 本発明の実施の形態のRAID構成の説明図である。It is explanatory drawing of the RAID structure of embodiment of this invention. 本発明の第1の実施の形態のドライブ設定内容保持テーブルの説明図である。It is explanatory drawing of the drive setting content holding table of the 1st Embodiment of this invention. 本発明の第1の実施の形態のドライブ状態管理テーブルの説明図である。It is explanatory drawing of the drive status management table of the 1st Embodiment of this invention. 本発明の第1の実施の形態のRAIDグループ状態管理テーブルの説明図である。It is explanatory drawing of the RAID group state management table of the 1st Embodiment of this invention. 本発明の第1の実施の形態のバックグラウンド処理数管理テーブルの説明図である。It is explanatory drawing of the background processing number management table of the 1st Embodiment of this invention. 本発明の第1の実施の形態の管理用端末装置に表示されるRAIDグループ管理画面の説明図である。It is explanatory drawing of the RAID group management screen displayed on the management terminal device of the 1st Embodiment of this invention. 本発明の第1の実施の形態のRAIDグループ作成処理のフローチャートである。5 is a flowchart of RAID group creation processing according to the first embodiment of this invention. 本発明の第1の実施の形態のユニット交換処理のフローチャートでである。It is a flowchart of the unit exchange process of the 1st Embodiment of this invention. 本発明の第1の実施の形態のRAIDグループのデータ再構築処理のフローチャートである。6 is a flowchart of a data reconstruction process for a RAID group according to the first embodiment of this invention. 本発明の第1の実施の形態のドライブのデータコピー処理のフローチャートである。It is a flowchart of the data copy process of the drive of the 1st Embodiment of this invention. 本発明の第1の実施の形態の交換ユニット挿入時処理のフローチャートである。It is a flowchart of the process at the time of insertion of the exchange unit of the 1st Embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(障害発生前)の説明図である。It is explanatory drawing of the drive status management table (before failure occurrence) of embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データ再構築中)の説明図である。It is explanatory drawing of the drive state management table (during data reconstruction) of an embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データ再構築後)の説明図である。It is explanatory drawing of the drive status management table (after data reconstruction) of embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データコピー中)の説明図である。It is explanatory drawing of the drive status management table (during data copy) of embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データ退避後)の説明図である。It is explanatory drawing of the drive state management table (after data saving) of an embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データコピー中)の説明図である。It is explanatory drawing of the drive status management table (during data copy) of embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データ退避後)の説明図である。It is explanatory drawing of the drive state management table (after data saving) of an embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(退避処理中)の説明図である。It is explanatory drawing of the drive state management table (during the save process) of the embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(ユニット交換処理終了後)の説明図である。It is explanatory drawing of the drive status management table (after completion | finish of unit replacement | exchange process) of embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(ユニット交換後)の説明図である。It is explanatory drawing of the drive status management table (after unit replacement | exchange) of embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データ再構築中)の説明図である。It is explanatory drawing of the drive state management table (during data reconstruction) of an embodiment of this invention. 本発明の実施の形態のドライブ状態管理テーブル(データ再構築後)の説明図である。It is explanatory drawing of the drive status management table (after data reconstruction) of embodiment of this invention. 本発明の第2の実施の形態のRAIDグループ状態管理テーブルの説明図である。It is explanatory drawing of the RAID group state management table of the 2nd Embodiment of this invention. 本発明の第2の実施の形態のRAIDグループ管理画面の説明図である。It is explanatory drawing of the RAID group management screen of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の保証冗長度設定処理のフローチャートである。It is a flowchart of the guaranteed redundancy setting process of the 2nd Embodiment of this invention. 本発明の第2の実施の形態のRAIDグループ作成処理のフローチャートである。10 is a flowchart of RAID group creation processing according to the second embodiment of this invention. 本発明の第2の実施の形態のユニット交換処理のフローチャートである。It is a flowchart of the unit exchange process of the 2nd Embodiment of this invention. 本発明の第3の実施の形態のRAIDグループ管理画面の説明図である。It is explanatory drawing of the RAID group management screen of the 3rd Embodiment of this invention. 本発明の第3の実施の形態の保守緊急度通知判断処理のフローチャートである。It is a flowchart of the maintenance emergency level notification judgment process of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1 ディスクアレイ装置
2 管理用端末装置
3 SANホスト
4 SAN
5 管理用LAN
10a〜10i ドライブ筐体
19 コントローラ筐体
101〜113 ドライブブレード
121〜133 ユニット交換指示LED
191 ディスクアレイコントローラ
1901 CPU
1902 メモリ
1903 制御プログラム
1904 データ転送コントローラ
1905 フロントエンド接続インターフェースコントローラ
1906 バックエンド接続インターフェースコントローラ
1907 データバッファ
1908 LANインターフェースコントローラ
1911 RAIDグループ設定プログラム
1912 RAIDグループ管理プログラム
1913 障害処理プログラム
1914 I/O制御プログラム
1915 ドライブ設定保持テーブル
1916 ドライブ状態管理テーブル
1917 RAIDグループ状態管理テーブル
1918 バックグラウンド処理数管理テーブル
2010、2020、2030、2040 ドライブ(キャニスター)
2110、2120、2130、2140 コネクタ
2210、2220、2230、2240 ドライブ交換指示LED
2400 コネクタ
2500 ロータリースイッチ(ID設定部)
1 disk array device 2 management terminal device 3 SAN host 4 SAN
5 Management LAN
10a to 10i Drive housing 19 Controller housing 101 to 113 Drive blade 121 to 133 Unit replacement instruction LED
191 Disk array controller 1901 CPU
1902 Memory 1903 Control program 1904 Data transfer controller 1905 Front end connection interface controller 1906 Back end connection interface controller 1907 Data buffer 1908 LAN interface controller 1911 RAID group setting program 1912 RAID group management program 1913 Fault processing program 1914 I / O control program 1915 Drive Setting holding table 1916 Drive state management table 1917 RAID group state management table 1918 Background processing number management table 2010, 2020, 2030, 2040 Drive (canister)
2110, 2120, 2130, 2140 Connector 2210, 2220, 2230, 2240 Drive replacement instruction LED
2400 Connector 2500 Rotary switch (ID setting part)

Claims (10)

複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含み、複数の前記ユニットに搭載されたディスクによってRAIDが構成されるストレージ装置において、
前記ディスク制御部は、
前記ドライブの状態を記録するドライブ状態管理テーブルと、前記RAIDグループの状態を記録するRAIDグループ状態管理テーブルと、RAIDによるデータ再構築処理中か及びドライブ間のデータ複製処理中か否かを示すバックグラウンド処理数管理テーブルと、を保持し、
前記ドライブの障害が検出されると、前記ドライブ状態管理テーブルの当該障害ドライブの状態を「障害」に変更し、前記RAIDグループ状態管理テーブルの当該障害ドライブが属するRAIDグループの状態を「障害」に変更する障害検出部と、
当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定すると共に、当該障害ドライブが搭載されたユニットに搭載された他のドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定する判定部と、
当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上であれば、当該障害ドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「再構築」に変更し、当該スペアドライブに当該障害ドライブのデータを再構築し、この再構築処理中は前記バックグラウンド処理数管理テーブルに前記スペアドライブの状態を反映するデータ再構築部と、
当該他のドライブが属するRAIDグループの冗長度が設定される1以上の要求値よりも小さく、かつ0以上であれば、当該他のドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「退避」に変更し、当該スペアドライブに当該他のドライブのデータを複製し、このデータ複製処理中は前記バックグラウンド処理数管理テーブルに前記スペアドライブの状態を反映するデータ複製部と、
前記バックグラウンド処理数管理テーブルに基づいて前記データ再構築部及び前記データ複製部による処理が終了したか否かを判定し、これらの処理が終了すると、当該障害ドライブが搭載されたユニット及び当該障害ドライブが交換可能になったことを報知する交換指示部と、を有するストレージ装置。
Includes a plurality of drive housings in which a plurality of units in which a plurality of drives are detachably mounted are detachably mounted, and a controller housing in which a disk control unit is provided. In a storage device in which a RAID is configured by the created disk,
The disk controller is
A drive status management table for recording the status of the drive, a RAID group status management table for recording the status of the RAID group, and a back indicating whether data reconstruction processing using RAID and data replication processing between drives are in progress A ground processing number management table, and
When a failure of the drive is detected, the state of the failed drive in the drive state management table is changed to “failure”, and the state of the RAID group to which the failed drive belongs in the RAID group state management table is changed to “failure”. A fault detection unit to be changed;
It is determined whether the redundancy of the RAID group to which the failed drive belongs is smaller than the set request value of 1 or more and 0 or more, and other drives mounted in the unit in which the failed drive is mounted A determination unit for determining whether or not the redundancy of the RAID group to which the group belongs is smaller than the set one or more required values and 0 or more;
If the redundancy of the RAID group to which the failed drive belongs is smaller than the set request value of 1 or more and 0 or more, the status of the spare drive retrieved from a unit other than the unit in which the failed drive is mounted Is changed to “rebuild”, the data of the failed drive is rebuilt in the spare drive, and during this rebuild process, a data rebuilding unit that reflects the status of the spare drive in the background processing number management table ; ,
If the redundancy of the RAID group to which the other drive belongs is smaller than the set request value of 1 or more and 0 or more, the spare drive retrieved from a unit other than the unit in which the other drive is installed The status is changed to “evacuation”, the data of the other drive is duplicated to the spare drive, and the data duplication unit that reflects the status of the spare drive in the background processing number management table during the data duplication processing,
Based on the background processing number management table , it is determined whether or not the processing by the data reconstruction unit and the data replication unit is completed, and when these processes are completed, the unit on which the failed drive is mounted and the fault A replacement instruction unit for notifying that the drive can be replaced.
前記データ再構築部は、前記ユニットが装着された際に、前記ユニットに搭載されたドライブが属すべきRAIDグループの冗長度が正常時冗長度より小さければ、当該装着されたユニットに搭載されたドライブに当該RAIDグループのデータを再構築し、前記交換指示部は、前記データ再構築処理に伴って、当該挿入されたユニットに関する交換可能報知を停止する請求項1に記載のストレージ装置。   The data reconstruction unit, when the unit is mounted, if the redundancy of the RAID group to which the drive mounted in the unit should belong is smaller than the normal redundancy, the drive mounted in the mounted unit The storage apparatus according to claim 1, wherein the data of the RAID group is reconstructed, and the exchange instructing unit stops exchangeable notification regarding the inserted unit in accordance with the data reconstruction processing. 記ディスク制御部は、前記複数ディスクによってRAIDを作成するRAIDグループ作成部を有し
前記RAIDグループ作成部は、
前記ユニット内の使用されていないスペアドライブ数s、当該RAIDグループに属する当該ユニット内のドライブ数a、及び当該RAIDグループの冗長度rを取得する情報取得部と、
当該ユニット取り外し処理に要するドライブ数(a−r+1)と当該ユニット取り外し処理に使用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較することによって、当該ユニットが取り外された場合にスペアドライブが不足するか否かを判定し、障害発生時のディスク交換可否を、ディスク交換を実行する前に判定する判定部と、を有し、
さらに前記ディスク制御部は、前記判定部によって前記スペアドライブが不足すると判定された場合に、その旨を報知する報知部を有する請求項2に記載のストレージ装置。
Before SL disk control unit includes a RAID group creation unit for creating a RAID by said multiple disks,
The RAID group creation unit
An information acquisition unit that acquires the number of unused spare drives s in the unit, the number of drives a in the unit belonging to the RAID group, and the redundancy r of the RAID group;
By comparing the number of drives required for the unit removal process (a−r + 1) with the remaining number of spare drives available for the unit removal process (total number of spare drives−s), the spare is removed when the unit is removed. A determination unit that determines whether or not a drive is insufficient, and determines whether or not a disk can be replaced when a failure occurs, before performing disk replacement;
The storage apparatus according to claim 2, wherein the disk control unit further includes a notification unit that notifies the fact when the determination unit determines that the spare drive is insufficient.
記ディスク制御部は、
前記複数ディスクによってRAIDを作成するRAIDグループ作成部と、
前記ユニットの交換の際に、前記ユニットに搭載されたディスクのデータを再構築又は複製することによって、当該ユニットが交換可能になったことを報知する交換指示部と、
を有する請求項2に記載のストレージ装置。
Before Symbol disk control unit,
A RAID group creation unit for creating a RAID with the plurality of disks;
When replacing the unit, by reconstructing or duplicating the data of the disk mounted on the unit, a replacement instruction unit for notifying that the unit can be replaced;
The storage apparatus according to claim 2, comprising:
前記判定部は、前記ユニットの交換時に、障害が検出されている前記ユニット内のドライブが属するRAIDグループの冗長度が所定値を維持しているか否かを判定し、
前記データ再構築部は、当該障害ドライブが属するRAIDグループの冗長度が所定値を維持していなければ、当該障害ドライブが搭載されたユニット以外のユニットから検索された空きドライブに当該障害ドライブのデータを再構築する請求項4に記載のストレージ装置。
The determination unit determines whether the redundancy of a RAID group to which a drive in the unit in which a failure is detected belongs maintains a predetermined value when replacing the unit ;
If the redundancy of the RAID group to which the failed drive belongs does not maintain a predetermined value , the data reconstruction unit stores the data of the failed drive in a free drive retrieved from a unit other than the unit in which the failed drive is mounted. the storage device according to Motomeko 4 to rebuild the.
前記データ再構築部は、前記ユニットが装着された際に、前記ユニットに搭載されたドライブが属すべきRAIDグループの冗長度が正常時冗長度より小さければ、当該装着されたユニットに搭載されたドライブに当該RAIDグループのデータを再構築する請求項5に記載のストレージ装置。   The data reconstruction unit, when the unit is mounted, if the redundancy of the RAID group to which the drive mounted in the unit should belong is smaller than the normal redundancy, the drive mounted in the mounted unit The storage apparatus according to claim 5, wherein the data of the RAID group is reconstructed. 前記判定部は、前記ユニットの交換時に、障害が検出されていない前記ユニット内のドライブが属するRAIDグループの冗長度が所定値を維持しているか否かを判定し、
前記データ複製部は、当該ドライブが属するRAIDグループの冗長度が所定値を維持していなければ、当該他のドライブが搭載されたユニット以外のユニットから検索された空きドライブに当該他のドライブのデータを複製する請求項4に記載のストレージ装置。
The determination unit determines whether or not the redundancy of a RAID group to which a drive in the unit in which no failure has been detected maintains a predetermined value when replacing the unit ;
If the redundancy of the RAID group to which the drive belongs does not maintain a predetermined value , the data duplicating unit stores the data of the other drive in an empty drive searched from a unit other than the unit in which the other drive is mounted. the storage device according to Motomeko 4 replicate.
前記判定部は、
RAIDグループ作成時に、前記ユニット内の使用されていないスペアドライブ数、当該RAIDグループに属する当該ユニット内のドライブ数、及び当該RAIDグループの冗長度に基づいて、当該ユニットが取り外された場合にスペアドライブが不足するか否かを判定する請求項4に記載のストレージ装置。
The determination unit
When a RAID group is created, a spare drive is removed if the unit is removed based on the number of unused spare drives in the unit, the number of drives in the unit belonging to the RAID group, and the redundancy of the RAID group. There the storage device according to Motomeko 4 you determine whether insufficient.
記ドライブ状態管理テーブル及び前記RAIDグループ状態管理テーブルに基づいて、前記ドライブの状態及び前記RAIDグループの状態を表示するための情報を出力する情報出力部を有する請求項4に記載のストレージ装置。 Before SL based on the drive state management table and the RAID group state management table storage device according to claim 4 having an information output unit that outputs information for displaying the status of and the RAID group of the drive. 前記交換指示部は、
前記ユニットに搭載されたドライブが交換可能になったことを報知するドライブ交換指示表示部と、
前記ドライブ交換指示表示部の表示を制御するドライブ交換指示部と、
前記ユニットが前記ストレージ装置から取り外されても、前記ドライブ交換指示表示部及び前記ドライブ交換指示部の動作に必要な電源を供給する電源部と、を前記ユニットに備える請求項4に記載のストレージ装置。
The exchange instruction unit
A drive replacement instruction display unit for notifying that the drive mounted on the unit can be replaced;
A drive replacement instruction unit for controlling display of the drive replacement instruction display unit;
5. The storage apparatus according to claim 4, further comprising: a power supply unit that supplies power necessary for the operation of the drive replacement instruction display unit and the drive replacement instruction unit even when the unit is removed from the storage apparatus. .
JP2004297118A 2004-03-11 2004-10-12 Storage device Expired - Fee Related JP4426939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004297118A JP4426939B2 (en) 2004-03-11 2004-10-12 Storage device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004068348 2004-03-11
JP2004297118A JP4426939B2 (en) 2004-03-11 2004-10-12 Storage device

Publications (2)

Publication Number Publication Date
JP2005293547A JP2005293547A (en) 2005-10-20
JP4426939B2 true JP4426939B2 (en) 2010-03-03

Family

ID=35326368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004297118A Expired - Fee Related JP4426939B2 (en) 2004-03-11 2004-10-12 Storage device

Country Status (1)

Country Link
JP (1) JP4426939B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7404104B2 (en) * 2005-11-16 2008-07-22 International Business Machines Corporation Apparatus and method to assign network addresses in a storage array
JP4939154B2 (en) 2006-09-14 2012-05-23 株式会社日立製作所 Storage apparatus and configuration setting method
JP5057741B2 (en) * 2006-10-12 2012-10-24 株式会社日立製作所 Storage device
US8385061B2 (en) * 2006-10-24 2013-02-26 Lsi Corporation System and method for implementing a meta-disk aggregation model for storage controllers
JP2008108019A (en) * 2006-10-25 2008-05-08 Hitachi Ltd Blade server system
JP5022803B2 (en) * 2006-12-13 2012-09-12 株式会社日立製作所 Storage controller
JP5046305B2 (en) * 2008-07-30 2012-10-10 Kddi株式会社 Redundancy calculation method, RAID device, and program in tiered redundant storage system
JP4881938B2 (en) * 2008-11-12 2012-02-22 株式会社日立製作所 Storage controller
JP2010146463A (en) * 2008-12-22 2010-07-01 Nec Corp Disk array device, disk array control method, and program
JP6212934B2 (en) * 2013-05-07 2017-10-18 富士通株式会社 Storage system, information processing apparatus control program, and storage system control method
JP6213130B2 (en) * 2013-10-09 2017-10-18 富士通株式会社 Storage control device, storage control program, and storage control method
JP6497891B2 (en) * 2014-10-31 2019-04-10 株式会社バッファロー Disk control device, disk control method, and program
JP2019168928A (en) * 2018-03-23 2019-10-03 株式会社富士通エフサス Urgency determination device, urgency determination method, and urgency determination program
KR102136710B1 (en) * 2019-01-07 2020-07-22 공주대학교 산학협력단 Method for displaying status of soft-RAID using homepage
CN114415979B (en) * 2022-03-29 2022-07-15 浙江大华技术股份有限公司 Storage device processing method, computer equipment and storage device

Also Published As

Publication number Publication date
JP2005293547A (en) 2005-10-20

Similar Documents

Publication Publication Date Title
EP1574957B1 (en) Disk array including plural exchangeable magnetic disk unit
JP4426939B2 (en) Storage device
US11132256B2 (en) RAID storage system with logical data group rebuild
US7028216B2 (en) Disk array system and a method of avoiding failure of the disk array system
US7418622B2 (en) Storage control system and storage control method
US20170177440A1 (en) Distributed Object Storage System
US6892276B2 (en) Increased data availability in raid arrays using smart drives
JP5052193B2 (en) Storage control device and storage control method
JP4884885B2 (en) Storage controller and storage controller failure recovery method
US7587631B2 (en) RAID controller, RAID system and control method for RAID controller
US8386840B2 (en) Distributed object storage system
US7073017B2 (en) Efficient update of firmware in a disk-type storage device
JPWO2006123416A1 (en) Disk failure recovery method and disk array device
US8589726B2 (en) System and method for uncovering data errors
US8327184B2 (en) Storage control system and storage control method
JP2005222404A (en) Storage control subsystem having virtual storage unit
US7653831B2 (en) Storage system and data guarantee method
US20070234107A1 (en) Dynamic storage data protection
US20090063770A1 (en) Storage control apparatus, storage control program, and storage control method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060913

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091211

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees