JP2005293547A - ストレージ装置 - Google Patents
ストレージ装置 Download PDFInfo
- Publication number
- JP2005293547A JP2005293547A JP2004297118A JP2004297118A JP2005293547A JP 2005293547 A JP2005293547 A JP 2005293547A JP 2004297118 A JP2004297118 A JP 2004297118A JP 2004297118 A JP2004297118 A JP 2004297118A JP 2005293547 A JP2005293547 A JP 2005293547A
- Authority
- JP
- Japan
- Prior art keywords
- drive
- unit
- raid group
- data
- redundancy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含むストレージ装置において、前記ディスク制御部は、前記複数ディスクによってRAIDを作成するRAIDグループ作成部と、前記ユニットの交換の際に、前記ユニットに搭載されたディスクのデータを再構築又は複製することによって、当該ユニットが交換可能になったことを報知する交換指示部と、を有する。
【選択図】 図1
Description
ニットとし、該ユニットを複数実装したディスクアレイ装置に関する。
ット(ディスクブレード)に搭載し、このユニットを複数実装するディスクアレイ装置が
提案されている(例えば、特許文献1参照。)。
ライブとして見せていた。しかし、このような構成では1ユニットを1ドライブとして取
り扱うため、1ユニット上に複数のRAIDグループを構成することができず、構成の自
由度が低いという問題があった。
るが、ユニットとユニット内のドライブとの関係を管理することは考慮されていなかった
ので、障害発生時にユニットを交換すると、他のRAIDグループにどのような影響が生
じるかが分からず、ユニットの保守交換が困難であった。
構成しても、ユニットを容易に交換することができるストレージ装置を提供することを目
的とする。
れている複数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、
を含むストレージ装置において、前記ディスク制御部は、前記複数ディスクによってRA
IDを作成するRAIDグループ作成部と、前記ユニットの交換の際に、前記ユニットに
搭載されたディスクのデータを再構築又は複製することによって、当該ユニットが交換可
能になったことを報知する交換指示部と、を有する。
とができ、自由にRAIDグループを組むことができる。また、ユニット毎の取り外し、
交換が容易になる。
コントローラ筐体19を含んで構成されている。ディスクアレイ装置1は、管理用LAN
5を介して管理用端末装置2に接続されている。また、ディスクアレイ装置1は、SAN
4を介して複数のSANホスト3に接続されている。
3、104・・・が実装されている。各ディスクブレードには複数(本実施の形態では4
台)のドライブが搭載されている。例えば、ディスクブレード101には、ディスクA0
〜A3が搭載されている。ディスクブレード101等によってドライブ筐体10に実装さ
れたディスクA0等は接続インターフェース180に接続され、ディスクアレイコントロ
ーラ191等との間でデータを送受信することができる。この接続インターフェース18
0には、ATA(AT Attachment)、SAS(Serial Attached SCSI)、ファイバチャネル等のインターフェースを用いることができる。
いる。ディスクアレイコントローラ191等では制御プログラムが動作しており、ディス
クA0等に対するデータの入出力を制御する。また、ディスクアレイ装置1に実装された
ディスクA0等によって構成されるRAIDの構成を管理する。また、コントローラ筐体
19には、ディスクアレイコントローラ191、192が複数設けられており、SAN4
との間で同時に多くのデータを入出力できるようにしている。
たコントローラ筐体19とドライブ筐体10aとが一つの筐体となっていてもよい。
示装置が備わるコンピュータ装置である。管理用端末装置2では管理プログラムが動作し
ており、該管理プログラムによってディスクアレイ装置1の動作状態を把握し、ディスク
アレイ装置1の動作を制御する。なお、管理用端末装置2ではwebブラウザ等のクライ
アントプログラムが動作しており、ディスクアレイ装置1から供給される管理プログラム
(Common Gateway InterfaceやJava(登録商標)等)によってディスクアレイ装置1の動作を制御するようにしてもよい。
ータ装置であり、ディスクアレイ装置1から提供されるデータを利用して、データベース
サービスやウェブサービス等を利用可能にする。
トコルで通信可能なネットワークである。
タや制御情報を通信可能であり、例えばイーサネット(登録商標、以下同じ)が用いられ
る。
スクアレイ装置1の上部には、ディスクを搭載したディスクブレードを複数収めたドライ
ブ筐体(エンクロージャ)が複数段設けられている。ドライブ筐体10a〜10iの背面
側には当該筐体内のドライブに電力を供給する電源ユニット(図示省略)と、接続インタ
ーフェース180が収められている。接続インターフェース180と各ディスクブレード
は、筐体内部に設けられた配線基板(バックプレーン)を介して物理的に接続され、図1
に示すように、ディスクアレイコントローラ191等や、ドライブ筐体10a等と接続さ
れる。
ローラ筐体19、及び、当該ディスクアレイコントローラを冷却するための冷却用ファン
ユニットが設けられている。
視図である。
のディスクブレードはドライブ筐体に設けられたレールに沿ってスライドすることによっ
てドライブ筐体に収められる。
LED121〜133が設けられている。ディスクブレードが取り外し可能な状態となっ
たときに、ディスクブレードに対応するユニット交換指示LEDが点灯してその旨を報知
し、保守交換作業を容易にしている。
の構成を説明する図である。
る。このドライブ2010〜2040は、ディスクブレード101に着脱可能な保持枠(
キャニスター)に取り付けられており、キャニスターと共にディスクブレード101から
取り外せるように構成されている。ドライブ2010〜2040の後端にはコネクタが設
けられている。このコネクタはディスクブレード101に設けられたコネクタ2110と
嵌合して、ドライブ2010〜2040とディスクブレード101との間を接続する。
イブ(キャニスター)2010〜2040が取り外し可能な状態となったときに、ドライ
ブに対応するドライブ交換指示LED2210が点灯してその旨を報知し、保守交換作業
を容易にしている。ドライブ交換指示LED2210はLED制御回路2300によって
駆動されている。LED制御回路2300は、ディスクアレイコントローラ191、19
2からの指示に基づいてドライブ交換指示LED2210を点灯させる。
0aから取り外した後も(すなわち、ディスクアレイ装置1からの電源の供給が途絶した
後も)点灯可能となっている。このため、LED制御回路2300は、ディスクアレイコ
ントローラ191、192からの指示を維持する記憶回路(例えば、フリップフロップ)
、及び、ドライブ交換指示LED2210に印加する電源を供給する電源回路(例えば、
二次電池、蓄電器)を備えている。このように、ディスクブレード101をドライブ筐体
10aから取り外した後もドライブ交換LED2210が点灯するので、ディスクブレー
ド101をドライブ筐体10aから取り外した後も交換すべきドライブを確認することが
できる。
クタ2400がバックプレーンに設けられたコネクタと嵌合することによって、ディスク
ブレード101とバックプレーンとが接続される。
タリースイッチ2500を用いてユニットIDを設定することによって、同じドライブ筐
体内に装着されたディスクブレードを電気的に識別することができる。このようにロータ
リースイッチ2500はユニットID設定部として機能する。
ク図である。
送コントローラ1904、フロントエンド接続インターフェースコントローラ1905、
バックエンド接続インターフェースコントローラ1906、データバッファ1907、及
びLANインターフェースコントローラ1908が設けられている。
901が制御プログラム1903を呼び出して実行することによって各種処理が行われる。
ェースコントローラ1905、バックエンド接続インターフェースコントローラ1906
、及びデータバッファ1907の間でデータを転送する。
ターフェースであって、例えば、ファイバチャネルプロトコルによって、SANホスト3
との間でデータや制御信号を送受信する。
09に対するインターフェースであって、例えば、ATA、SAS、ファイバチャネル等
のインターフェースによって、ディスクとの間でデータや制御信号を送受信する。
05とバックエンド接続インターフェースコントローラ1906との間で送受信されるデ
ータが一時的に記憶されるキャッシュが設けられている。
されるデータをインターフェース1905、1906間で転送する。さらに、これらのデ
ィスクに読み書きされるデータをデータバッファ1907に転送している。
ーフェースであって、例えば、イーサネットプロトコルによって、管理用端末装置2との
間でデータや制御信号を送受信することができる。
、障害処理プログラム1913、及びI/O制御プログラム1914によって構成されて
いる。またこれらのプログラムの動作のために、ドライブ設定保持テーブル1915、ド
ライブ状態管理テーブル1916、RAIDグループ状態管理テーブル1917、及びバ
ックグラウンド処理数管理テーブル1918が記憶されている。
イブによってRAIDを設定する処理を実行する(例えば、図13参照)。
1によって設定されRAIDを維持管理する。
る障害を監視し、障害が発生したドライブ及び当該障害ドライブと同じユニットに搭載さ
れたドライブに関する処理を行う(例えば、図14、図15、図16参照)。
データの読み出し、これらのドライブに対するデータの書き込みに関する処理を行う。
成されたRAIDの構成の説明図である。
番のドライブ)、ドライブA1、ドライブB1、ドライブB2及びドライブC2の5個の
ドライブによって、レベル5のRAIDが構成されている。また、RAIDグループ4は
、ドライブA3、ドライブB3、ドライブC3、ドライブD3、ドライブE3及びドライ
ブF3の6個のドライブによって、レベル6のRAIDが構成されている。
である。
に設定された状態が、ドライブ毎に記録されている。具体的には、ドライブの記憶容量と
、そのドライブの使用状態(「使用中」か、未使用の「スペア」か)と、そのドライブが
属するRAIDの番号が記録されている。具体的には、ドライブA0、ドライブA1、ド
ライブB1、ドライブB2及びドライブC2の5個のドライブのRAID番号欄には「1
」が記録されているので、これらのドライブはRAIDグループ1に属する。
る。
在の状態がドライブ毎に記録されている。具体的には、ドライブの記憶容量と、そのドラ
イブの状態(「使用中」か、「障害」が発生しているか、「再構築」処理を実行中か、「退避」処理を実行中か、未使用の「スペア」か)と、そのドライブが属するRAIDの番号が記録されている。例えば、ドライブB0はRAIDグループ2に属するドライブであるが、ドライブB0には障害が発生している。
説明図である。
総記憶容量、RAIDレベル(どの種類のRAIDが構成されているか)、正常時の冗長
度、現在の冗長度、このRAIDを構成するドライブの識別記号、及びRAIDの状態が
記録されている。
5個のドライブであり、これらのドライブは(すなわち、RAIDグループ1は)正常に
動作している。一方、RAIDグループ2を構成するドライブはB0、C0、D0、E0
及びF0の5個のドライブであるが、ドライブ状態管理テーブル1916(図9)に示す
ように、ドライブB0に障害が発生しているので、このRAIDグループ2は「障害」状
態となっている。これによってRAIDグループ2は正常時の冗長度が1であるのに対し
、現在の冗長度が0に低下している。
の説明図である。
)と、そのディスクブレードに搭載されたディスクにおいて実行されているバックグラウ
ンド処理数を示す。すなわち、後述するように、バックグラウンド処理数は、ディスクに
障害が発生したときの再構築処理の開始時に加算され(図14のS130)、再構築処理
の終了時に減算されて(図15のS167)、更新される。また、ディスクに障害が発生
したときのデータコピー処理の開始時に加算され(図14のS141)、データコピー処
理の終了時に減算されて(図16のS176)、更新される。また、図14のS145に
おいて、バックグラウンド処理数管理テーブル1918は、ユニットを取り外してもよい
かの判定にも用いられる(すなわち、バックグラウンド処理が継続しているユニットは取り外すことができない)。
プ管理画面の説明図である。
る。選択されたRAIDグループは、RAIDグループ管理画面の左下に設けられた「選
択グループ情報」欄に表示される。RAIDグループ管理画面には、各ディスクブレード
に搭載されたディスク毎にその状態が表示される。
IDグループを構成することができる。また、選択したドライブを、RAIDグループを構成しない「スペア」として設定することもできる。
あり、RAIDグループ設定プログラム1911によって実行される。
作成要求を受け付けると(S101)と、ドライブの設定内容保持テーブル1915、ド
ライブ状態管理テーブル1916及びRAIDグループ状態管理テーブル1917に要求
があったRAIDグループを仮に登録する(S102)。
参照して(S103)、当該ユニット内でスペアとなっているドライブ数sを取得する(
S104)。そして、当該ユニット内の使用ドライブ台数aが最も大きいRAIDグルー
プnを検索する(S105)。その後、RAIDグループ状態管理テーブル1917を参
照して、当該検索されたRAIDグループnの冗長度rを取得する(S106)。
調査するユニットを選択して、当該ユニットを取り外した時の影響を調査する(S104
〜S107)。
ルの仮登録を、各テーブルに正式に登録する(S109)。そして、管理用端末装置2に
RAIDグループの作成成功を通知する(S110)。
ーチャートであり、障害処理プログラム1913によって実行される。
照して、障害ドライブのユニットID(α)、ドライブ番号k、所属RAIDグループ番
号nを取得する(S122)。そして、ドライブ状態管理テーブル1916に記録された
ドライブkの状態を「障害」に変更し、RAIDグループ状態管理テーブル1917に記
録されたRAIDグループnの状態を「障害」に変更する(S123)。そして、RAI
Dグループ状態管理テーブル1917のRAIDグループnのRAIDグループの現冗長
度から1を減じる(S124)。
否かを判定する(S125)。
持されていると判定して、障害ドライブと同じユニットに搭載されているドライブについ
て調査するために、ドライブ番号の変数iを初期化する(S132)。一方、RAIDグ
ループnの現冗長度が1より小さければ、ステップS126へ進む。
負の数になったか)否かを判定する。
おらずデータが消失している可能性がある旨をユーザに通知する(S151)。
ットからスペアとなっているドライブを検索する(S127)。この検索の結果、スペア
ドライブが検索されなければ(S128)、スペアドライブを追加するようユーザに通知
する(S152)。一方、スペアドライブが検索されたならば(S128)、ドライブ状
態管理テーブル1916のこのスペアドライブの状態を「再構築」に変更する。また、R
AIDグループ状態管理テーブル1917の構成ドライブ情報へ障害ドライブに代わり当
該ドライブを加える(S129)。そして、バックグラウンド処理数管理テーブル191
8に記録されるユニットIDがαのバックグラウンド処理数に1を加算する(S130)
。その後、バックグラウンド処理にてRAIDグループnのデータ再構築を実行する(S
131)。そして、ステップS132に進み、ドライブ番号の変数iを初期化する。
取得した障害ドライブのドライブ番号kとを比較する(S133)。その結果、i=kで
あれば、このドライブは障害が発生したドライブであると判定し、ステップS131に進
み、ドライブ番号の変数iに1を加算して、次のドライブに進む。一方、i≠kであれば
、このドライブは障害が発生したドライブではないと判定し、ドライブαi(ユニットI
Dがα、ドライブ番号がiのドライブ)の所属RAIDグループ番号mを取得する(S1
34)。そして、RAIDグループ状態管理テーブル1917のRAIDグループ番号m
のRAIDグループの現冗長度から1を減じる(S135)。
否かを判定する(S136)。
度は維持されていると判定して、次のドライブについて調査するために、ドライブ番号の
変数iに1を加算する(S143)。一方、RAIDグループnの現冗長度が1より小さ
ければ、ステップS137へ進む。
負の数になったか)否かを判定する。
ドライブによるRAIDの状態の変化を推定することができる。すなわち、ユニットID
がαのユニットを取り外したときの、障害発生ドライブ以外のドライブが属するRAID
グループへの影響を推定する。
おらずデータが消失している可能性がある旨をユーザに通知する(S151)。
ットからスペアとなっているドライブを検索する(S138)。この検索の結果、スペア
ドライブが検索されなければ(S139)、スペアドライブを追加するようユーザに通知
する(S152)。一方、この検索の結果、スペアドライブが検索されたならば(S13
9)、ドライブ状態管理テーブル1916に記録されている当該スペアドライブの状態を
「退避」に変更する(S140)。そして、バックグラウンド処理数管理テーブル191
8に記録されるユニットIDがαのバックグラウンド処理数に1を加算する(S141)
。その後、バックグラウンド処理にてドライブαiのデータコピーを実行する(S142
)。そして、ステップS143に進み、ドライブ番号の変数iに1を加算する。
えているか否かを判定する(S144)。その結果、変数iがドライブ番号の最大値より
小さければ、ステップS132に戻り次のドライブについて調査する。一方、変数iがド
ライブ番号の最大値を超えていれば、全てのドライブについての調査が終了したので、バ
ックグラウンド処理数管理テーブル1918を参照してユニットIDがαのバックグラウ
ンド処理数が0であるか否かを判定する(S145)。その結果、ユニットIDがαのバ
ックグラウンド処理数が0でなければ、ユニットIDがαのユニットに関するバックグラ
ウンド処理が継続しているので、一定時間の経過を待ち(S146)、再度、ステップS
145の判定を行う。一方、ユニットIDがαのバックグラウンド処理数が0であれば、
ユニットIDがαのユニットに関するバックグラウンド処理が行われていないので、ステ
ップS147に進む。
トIDがαの障害が発生していないドライブの状態を「未使用」に変更する(S147)
。そして、ユニットIDがαのユニットのユニット交換指示LEDを点灯させ(S148
)、ドライブIDがαkのドライブのドライブ交換指示LEDを点灯させる(S149)
。その後、ユニットIDがαのユニットの交換をユーザに指示する(S150)。
チャートであり、障害処理プログラム1913によって実行される。また、図14のステ
ップS131にて開始し、バックグラウンドにおいて実行される。
)。そして、これら読み出したデータのパリティ(排他的論理和)を計算することによっ
て、障害が発生したドライブに記憶されていたものと同じデータを算出し、データを復元
する(S162)。そして、図14のステップS127において検索されたスペアドライ
ブに、復元したデータを書き込む(S163)。
データの書き込みが終了していなければ、ステップS161に戻り、さらに、RAIDグ
ループnを構成する全ての正常なドライブからデータを読み出してデータの再構築を行う
。一方、全てのデータの書き込みが終了していれば、ドライブ状態管理テーブル1916
に記録されている当該スペアドライブの状態を「使用中」に変更する。そして、RAID
グループ状態管理テーブル1917に記録されたドライブの構成を更新し、RAIDグル
ープnの状態を「正常」に変更する(S165)。そして、RAIDグループ状態管理テ
ーブル1917のRAIDグループ番号nのRAIDグループの現冗長度に1を加算する
(S166)。さらに、バックグラウンドにおけるデータ再構築処理が終了したので、バ
ックグラウンド処理数管理テーブル1918に記録されるユニットIDがαのバックグラ
ウンド処理数から1を減算する(S167)。
であり、障害処理プログラム1913によって実行される。また、図14のステップS1
42にて開始し、バックグラウンドにおいて実行される。
読み出す(S171)。そして、図14のステップS138において検索されたスペアド
ライブに、読み出したデータを書き込む(S172)。
データの書き込みが終了していなければ、ステップS171に戻り、さらに、データを読
み出してデータコピーを行う。一方、全てのデータの書き込みが終了していれば、ドライ
ブ状態管理テーブル1916に記録されている構成ドライブを更新し、当該スペアドライ
ブの状態を「使用中」に変更する(S174)。そして、RAIDグループ状態管理テー
ブル1917のRAIDグループ番号nのRAIDグループの現冗長度に1を加算する(
S175)。さらに、バックグラウンドにおけるデータコピー処理が終了したので、バッ
クグラウンド処理数管理テーブル1918に記録されるユニットID(α)のバックグラ
ウンド処理数から1を減算する(S176)。
る。
設定されたユニットIDが正しいかによって、正しいユニットが挿入されたかを判定する
(S182)。具体的には、挿入されたディスクブレードに設定されたユニットIDが取
り外されたディスクブレードに設定されていたユニットのIDと等しいかや、挿入された
ディスクブレードに設定されたユニットIDが既に実装済みの他のユニットのIDと重複
しないか等の方法によって確認することができる。
EDを消灯させる(S183)。
ライブが属していたRAIDグループnを選択する(S184)。
の正常時の冗長度と、現在の冗長度とを取得する(S185)。そして、正常時冗長度と
現冗長度を比較する(S186)。その結果、現冗長度が正常時冗長度より小さければ、
RAIDグループnを構成するドライブの数が正常時より不足しているので、再構築後の
データを書き込むドライブを選択し、ドライブ状態管理テーブル1916に記録されてい
る当該ドライブの状態を「再構築」に変更する。その後、バックグラウンド処理にてRA
IDグループnのデータ再構築を実行する(S187)。
の調査が終了したか否かを判定する(S188)。その結果、全てのRAIDグループに
ついての調査が終了していなければ、次のRAIDグループを選択し(S189)、ステ
ップS185に戻り、さらにRAIDグループの冗長度を調査する。一方、全てのRAI
Dグループについての調査が終了していれば、未使用ドライブ(すなわち、ステップS1
87でデータ再構築に使用されなかったドライブ)の状態を「スペア」に変更する(S1
90)。
ドライブ状態管理テーブル1916の変化を示す。
前は、ドライブB0の状態は「使用中」である(図18)。
123)。そして、検索されたスペアドライブA2の状態を「再構築」に変更し(図14
のS129)、スペアドライブA2にドライブB0のデータの再構築を開始する(図14
のS131)。このドライブB0のデータ再構築中の状態を図19に示す。そして、デー
タ再構築が終了すると、ドライブA2の状態は「使用中」に変更され、ドライブA2はR
AIDグループ2を構成するドライブとして使用される(図20)。
〜B3のデータ退避処理が行われる。ドライブB1はRAIDグループ1に属し、RAI
Dグループ1のRAIDレベルはRAID5なので、その冗長度は1である。よって、ド
ライブB1を取り除くと冗長度が0になってしまうので、ドライブB1のデータを退避す
るコピー処理を開始する。
0)、スペアドライブD2にドライブB1のデータのコピーを開始する(図14のS14
2)。このドライブB1のデータ退避の状態を図21に示す。そして、データコピーが終
了すると、ドライブD2の状態は「使用中」に変更され、ドライブD2はRAIDグルー
プ1を構成するドライブとして使用される(図22)。
属する。よって、ドライブB2を取り除くと冗長度が0になってしまうので、ドライブB
2のデータを退避するコピー処理を開始する。具体的には、検索されたスペアドライブE
2の状態を「退避」に変更し(図14のS140)、スペアドライブE2にドライブB2
のデータのコピーを開始する(図14のS142)。このドライブB2のデータ退避中の
状態を図23に示す。そして、データコピーが終了すると、ドライブE2の状態は「使用
中」に変更され、ドライブE2はRAIDグループ1を構成するドライブとして使用され
る(図24)。
属し、RAIDグループ4のRAIDレベルはRAID6なので、その冗長度は2である
。よって、ドライブB3を取り除いても冗長度は1が維持されるので、ドライブB3のデ
ータを退避する必要はないと判断する(図14のS136)。このドライブB3のデータ
退避中の状態を図25に示す。
先ドライブの両方に書き込まれる。このため、退避処理中にデータの書き込みが発生して
も、退避元ドライブと退避先ドライブの内容が異なることはない。
換処理(図14)が終了する。この状態を図26に示す。
ットBに搭載された全てのドライブの状態は「未使用」となる(図27)。その後、再構
築されたデータが書き込まれるドライブB3の状態は「再構築」に変更され、データの再
構築が開始する(図28)。再構築が終了すると、再構築されたデータが書き込まれたド
ライブB3の状態は「使用中」に変更され、未使用ドライブ(B0〜B2)の状態が「ス
ペア」に変更される(図29)。
際に、当該ユニットに関係するRAIDグループの最低限の冗長度が維持されるようにデ
ータ再構築及びデータコピーを行う。そして、これらの処理の終了後にユニット及びドラ
イブの交換を指示するので、容易にユニットを交換することができる。
グループ毎に保証冗長度を設定することによって、ドライブに障害が発生しても、そのR
AIDグループの冗長度が保証冗長度より低下しないように制御する。なお、第2の実施
の形態では前述した第1の実施の形態と異なる処理のみを説明し、第1の実施の形態と共
通する処理の説明は省略する。
の説明図である。
ープ状態管理テーブル1917と同じデータ(RAIDグループ番号、総記憶容量、RA
IDレベル、正常時の冗長度、現在の冗長度、構成ドライブ識別記号、及びRAIDの状
態)の他、保証冗長度が記録されている。保証冗長度は、そのRAIDグループにおいて
保証される最低の冗長度であって、そのRAIDグループに属するドライブに障害が発生
しても、そのRAIDグループの冗長度が保証冗長度より小さくならないように制御して
いる。なお、第1の実施の形態のRAIDグループ状態管理テーブル1917と同じデー
タの説明は省略する。
AIDグループ管理画面(図12)と異なり、「冗長度ポリシー」ボタンが設けられてい
る。この「冗長度ポリシー」ボタンが操作されると、図31(b)に示す冗長度ポリシー
設定画面が開く。冗長度ポリシー設定画面では、RAIDグループ毎に、常に完全な冗長
性を維持するか、最低限の冗長性を維持するか、ユニット交換時は一時的な冗長性の欠落
を許容するか、を選択することができる。
RAIDグループ設定プログラム1911において実行される。
IDグループ状態管理テーブル1917bの保証冗長度には正常時の冗長度と同じ値が設
定される(S262)。また、「最低限の冗長性を維持」することが選択された場合には
(S263)、RAIDグループ状態管理テーブル1917bの保証冗長度には1が設定
される(S264)。また、ユニット交換時は「一時的な冗長性の欠落を許容」すること
が選択された場合には(S265)、RAIDグループ状態管理テーブル1917bの保
証冗長度には0が設定される(S266)。
あり、RAIDグループ設定プログラム1911によって実行される。この第2の実施の
形態のRAIDグループ作成処理は、S206を除いて第1の実施の形態のRAIDグル
ープ作成処理(図13)と同じであり、これと同一の処理の説明は省略する。
グループnを検索した後、RAIDグループ状態管理テーブル1917を参照して、当該
検索されたRAIDグループnの保証冗長度rを取得する(S206)。
ーチャートであり、障害処理プログラム1913によって実行される。この第2の実施の
形態のユニット交換処理は、S225、S236を除いて第1の実施の形態のユニット交
換処理(図14)と同じであり、これと同一の処理の説明は省略する。
ープnのRAIDグループの現冗長度から1を減じた後、RAIDグループnの現冗長度
が保証冗長度より小さいか否かを判定する(S225)。
番号の変数iを初期化する(S132)。一方、RAIDグループnの現冗長度が1より
小さければ、ステップS126へ進む。ステップS126では、RAIDグループnの現
冗長度が0より小さいか否かを判定する。
Dグループ番号mのRAIDグループの現冗長度から1を減じた後、RAIDグループm
の現冗長度が保証冗長度より小さいか否かを判定する(S236)。
番号の変数iに1を加算する(S143)。一方、RAIDグループnの現冗長度が1よ
り小さければ、ステップS137へ進む。ステップS137では、RAIDグループmの
現冗長度が0より小さいか否かを判定する。このS236、S137の処理によって、ユ
ニットIDがαのユニット上に搭載されたドライブによるRAIDの状態の変化を推定す
ることができる。すなわち、ユニットIDがαのユニットを取り外したときの、障害発生
ドライブ以外のドライブが属するRAIDグループへの影響を推定する。
、ドライブに障害が発生しても当該RAIDグループの冗長度が保証冗長度より低下しな
いように制御するので、RAIDグループ毎の要求性能(すなわち、保存されるデータの
重要性)に応じて冗長度を管理することができる。
の保守情報を提供するものであり、前述した第1及び第2の実施の形態に附加的に適用す
ることができる。
3の実施の形態のRAIDグループ管理画面は、ドライブの保守情報の表示欄が画面下部
に設けられている。
り、RAIDグループ管理画面に表示されるドライブの保守情報を選択する。
参照して(S301)、当該ユニット内でスペアとなっているドライブ数sを取得する(
S302)。そして、当該ユニット内の使用ドライブ台数aが最も大きいRAIDグルー
プnを検索する(S303)。その後、RAIDグループ状態管理テーブル1917を参
照して、当該検索されたRAIDグループnに設定された保証冗長度rを取得する(S3
04)。
調査するユニットを選択して、ステップS302に戻り次のユニットの調査を継続する。
度を維持することができるので保守緊急度は低い旨を通知する(S308)。
態に適用可能なものであるが、ステップS304、S305において保証冗長度ではなく
、RAIDグループnの現冗長度を用いることによって、第1の実施の形態に適用するこ
とができる。
のドライブ保守情報を提供するので、RAIDグループの冗長度が期待の値より低下する
ことを未然に防ぐことができる。また、緊急度判定によって、緊急度が低い保守の実施を
割愛できるので、従来ならば複数回行わなければならなかった保守を一度にまとめて実施
することができ、保守に要していたコストや時間を低減することができる。
2 管理用端末装置
3 SANホスト
4 SAN
5 管理用LAN
10a〜10i ドライブ筐体
19 コントローラ筐体
101〜113 ドライブブレード
121〜133 ユニット交換指示LED
191 ディスクアレイコントローラ
1901 CPU
1902 メモリ
1903 制御プログラム
1904 データ転送コントローラ
1905 フロントエンド接続インターフェースコントローラ
1906 バックエンド接続インターフェースコントローラ
1907 データバッファ
1908 LANインターフェースコントローラ
1911 RAIDグループ設定プログラム
1912 RAIDグループ管理プログラム
1913 障害処理プログラム
1914 I/O制御プログラム
1915 ドライブ設定保持テーブル
1916 ドライブ状態管理テーブル
1917 RAIDグループ状態管理テーブル
1918 バックグラウンド処理数管理テーブル
2010、2020、2030、2040 ドライブ(キャニスター)
2110、2120、2130、2140 コネクタ
2210、2220、2230、2240 ドライブ交換指示LED
2400 コネクタ
2500 ロータリースイッチ(ID設定部)
Claims (10)
- 複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複
数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含み、複
数の前記ユニットに搭載されたディスクによってRAIDが構成されるストレージ装置に
おいて、
前記ディスク制御部は、
前記ドライブの状態を記録するドライブ状態管理テーブルと、前記RAIDグループの
状態を記録するRAIDグループ状態管理テーブルと、RAIDによるデータ再構築処理
中か及びドライブ間のデータ複製処理中か否かを示すバックグラウンド処理数と、を保持
し、
前記ドライブの障害が検出されると、前記ドライブ状態管理テーブルの当該障害ドライ
ブの状態を「障害」に変更し、前記RAIDグループ状態管理テーブルの当該障害ドライ
ブが属するRAIDグループの状態を「障害」に変更する障害検出部と、
当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定すると共に、当該障害ドライブが搭載されたユニットに搭載された他のドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定する判定部と、
当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上であれば、当該障害ドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「再構築」に変更し、当該スペアドライブに当該障害ドライブのデータを再構築し、この再構築処理中は前記バックグラウンド処理数に1を加算するデータ再構築部と、
当該他のドライブが属するRAIDグループの冗長度が設定される1以上の要求値よりも小さく、かつ0以上であれば、当該他のドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「退避」に変更し、当該スペアドライブに当該他のドライブのデータを複製し、このデータ複製処理中は前記バックグラウンド処理数に1を加算するデータ複製部と、
前記バックグラウンド処理数に基づいて前記データ再構築部及び前記データ複製部によ
る処理が終了したか否かを判定し、これらの処理が終了すると、当該障害ドライブが搭載
されたユニット及び当該障害ドライブが交換可能になったことを報知する交換指示部と、
を有するストレージ装置。 - 前記データ再構築部は、前記ユニットが装着された際に、前記ユニットに搭載されたド
ライブが属すべきRAIDグループの冗長度が正常時冗長度より小さければ、当該装着さ
れたユニットに搭載されたドライブに当該RAIDグループのデータを再構築し、
前記交換指示部は、前記データ再構築処理に伴って、当該挿入されたユニットに関する
交換可能報知を停止する請求項1に記載のストレージ装置。 - 複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複
数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含み、複
数の前記ユニットに搭載されたディスクによってRAIDが構成されるストレージ装置に
おいて、
前記ディスク制御部は、前記複数ディスクによってRAIDを作成するRAIDグルー
プ作成部を有し
前記RAIDグループ作成部は、
前記ユニット内の使用されていないスペアドライブ数s、当該RAIDグループに属す
る当該ユニット内のドライブ数a、及び当該RAIDグループの冗長度rを取得する情報
取得部と、
当該ユニット取り外し処理に要するドライブ数(a−r+1)と当該ユニット取り外し処理に使用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較することによって、当該ユニットが取り外された場合にスペアドライブが不足するか否かを判定し、障害発生時のディスク交換可否を、ディスク交換を実行する前に判定する判定部と、を有し、
さらに前記ディスク制御部は、前記判定部によって前記スペアドライブが不足すると判
定された場合に、その旨を報知する報知部を有するストレージ装置。 - 複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複
数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含むスト
レージ装置において、
前記ディスク制御部は、
前記複数ディスクによってRAIDを作成するRAIDグループ作成部と、
前記ユニットの交換の際に、前記ユニットに搭載されたディスクのデータを再構築又は
複製することによって、当該ユニットが交換可能になったことを報知する交換指示部と、
を有するストレージ装置。 - 前記ディスク制御部は、
前記ユニットの交換時に、障害が検出されている前記ユニット内のドライブが属するR
AIDグループの冗長度が所定値を維持しているか否かを判定する判定部と、
当該障害ドライブが属するRAIDグループの冗長度が所定値を維持していなければ、
当該障害ドライブが搭載されたユニット以外のユニットから検索された空きドライブに当
該障害ドライブのデータを再構築するデータ再構築部と、を有する請求項4に記載のスト
レージ装置。 - 前記データ再構築部は、前記ユニットが装着された際に、前記ユニットに搭載されたド
ライブが属すべきRAIDグループの冗長度が正常時冗長度より小さければ、当該装着さ
れたユニットに搭載されたドライブに当該RAIDグループのデータを再構築する請求項
5に記載のストレージ装置。 - 前記ディスク制御部は、
前記ユニットの交換時に、障害が検出されていない前記ユニット内のドライブが属する
RAIDグループの冗長度が所定値を維持しているか否かを判定する判定部と、
当該ドライブが属するRAIDグループの冗長度が所定値を維持していなければ、当該
他のドライブが搭載されたユニット以外のユニットから検索された空きドライブに当該他
のドライブのデータを複製するデータ複製部と、を有する請求項4に記載のストレージ装
置。 - 前記ディスク制御部は、
RAIDグループ作成時に、前記ユニット内の使用されていないスペアドライブ数、当
該RAIDグループに属する当該ユニット内のドライブ数、及び当該RAIDグループの
冗長度に基づいて、当該ユニットが取り外された場合にスペアドライブが不足するか否か
を判定する判定部を有する請求項4に記載のストレージ装置。 - 前記ディスク制御部は、
前記ドライブの状態を記録するドライブ状態管理テーブルと、前記RAIDグループの
状態を記録するRAIDグループ状態管理テーブルと、を保持し、
前記ドライブ状態管理テーブル及び前記RAIDグループ状態管理テーブルに基づいて
、前記ドライブの状態及び前記RAIDグループの状態を表示するための情報を出力する
情報出力部を有する請求項4に記載のストレージ装置。 - 前記交換指示部は、
前記ユニットに搭載されたドライブが交換可能になったことを報知するドライブ交換指
示表示部と、
前記ドライブ交換指示表示部の表示を制御するドライブ交換指示部と、
前記ユニットが前記ストレージ装置から取り外されても、前記ドライブ交換指示表示部
及び前記ドライブ交換指示部の動作に必要な電源を供給する電源部と、を前記ユニットに
備える請求項4に記載のストレージ装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004297118A JP4426939B2 (ja) | 2004-03-11 | 2004-10-12 | ストレージ装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004068348 | 2004-03-11 | ||
JP2004297118A JP4426939B2 (ja) | 2004-03-11 | 2004-10-12 | ストレージ装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005293547A true JP2005293547A (ja) | 2005-10-20 |
JP4426939B2 JP4426939B2 (ja) | 2010-03-03 |
Family
ID=35326368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004297118A Expired - Fee Related JP4426939B2 (ja) | 2004-03-11 | 2004-10-12 | ストレージ装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4426939B2 (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007141229A (ja) * | 2005-11-16 | 2007-06-07 | Internatl Business Mach Corp <Ibm> | ストレージ・アレイ内でネットワーク・アドレスを割り当てるための装置および方法 |
JP2008071104A (ja) * | 2006-09-14 | 2008-03-27 | Hitachi Ltd | ストレージ装置及び構成設定方法 |
JP2008097318A (ja) * | 2006-10-12 | 2008-04-24 | Hitachi Ltd | ストレージ装置 |
JP2008108019A (ja) * | 2006-10-25 | 2008-05-08 | Hitachi Ltd | ブレードサーバシステム |
JP2008171386A (ja) * | 2006-12-13 | 2008-07-24 | Hitachi Ltd | 記憶制御装置 |
JP2010033395A (ja) * | 2008-07-30 | 2010-02-12 | Kddi Corp | 階層型冗長ストレージシステムにおける冗長度算出方法、raid装置及びプログラム |
JP2010117850A (ja) * | 2008-11-12 | 2010-05-27 | Hitachi Ltd | 記憶制御装置 |
JP2010146463A (ja) * | 2008-12-22 | 2010-07-01 | Nec Corp | ディスクアレイ装置、ディスクアレイ制御方法、及び、プログラム |
JP2013041606A (ja) * | 2006-10-24 | 2013-02-28 | Lsi Corp | 記憶制御装置用にメタ・ディスク集合モデルを実装するシステム及び方法 |
JP2014219787A (ja) * | 2013-05-07 | 2014-11-20 | 富士通株式会社 | ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法 |
JP2015075965A (ja) * | 2013-10-09 | 2015-04-20 | 富士通株式会社 | ストレージ制御装置、ストレージ制御プログラム及びストレージ制御方法 |
JP2016091164A (ja) * | 2014-10-31 | 2016-05-23 | 株式会社バッファロー | ディスク制御装置、ディスク制御方法、及びプログラム |
JP2019168928A (ja) * | 2018-03-23 | 2019-10-03 | 株式会社富士通エフサス | 緊急性判定装置、緊急性判定方法および緊急性判定プログラム |
KR20200085516A (ko) * | 2019-01-07 | 2020-07-15 | 공주대학교 산학협력단 | 홈페이지를 이용한 소프트-raid의 상태표시방법 |
CN114415979A (zh) * | 2022-03-29 | 2022-04-29 | 浙江大华技术股份有限公司 | 存储装置的处理方法、计算机设备及存储装置 |
-
2004
- 2004-10-12 JP JP2004297118A patent/JP4426939B2/ja not_active Expired - Fee Related
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007141229A (ja) * | 2005-11-16 | 2007-06-07 | Internatl Business Mach Corp <Ibm> | ストレージ・アレイ内でネットワーク・アドレスを割り当てるための装置および方法 |
US8291163B2 (en) | 2006-09-14 | 2012-10-16 | Hitachi, Ltd. | Storage apparatus and configuration setting method |
JP2008071104A (ja) * | 2006-09-14 | 2008-03-27 | Hitachi Ltd | ストレージ装置及び構成設定方法 |
JP2008097318A (ja) * | 2006-10-12 | 2008-04-24 | Hitachi Ltd | ストレージ装置 |
JP2013041606A (ja) * | 2006-10-24 | 2013-02-28 | Lsi Corp | 記憶制御装置用にメタ・ディスク集合モデルを実装するシステム及び方法 |
JP2008108019A (ja) * | 2006-10-25 | 2008-05-08 | Hitachi Ltd | ブレードサーバシステム |
JP2008171386A (ja) * | 2006-12-13 | 2008-07-24 | Hitachi Ltd | 記憶制御装置 |
JP2010033395A (ja) * | 2008-07-30 | 2010-02-12 | Kddi Corp | 階層型冗長ストレージシステムにおける冗長度算出方法、raid装置及びプログラム |
JP2010117850A (ja) * | 2008-11-12 | 2010-05-27 | Hitachi Ltd | 記憶制御装置 |
JP2010146463A (ja) * | 2008-12-22 | 2010-07-01 | Nec Corp | ディスクアレイ装置、ディスクアレイ制御方法、及び、プログラム |
JP2014219787A (ja) * | 2013-05-07 | 2014-11-20 | 富士通株式会社 | ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法 |
JP2015075965A (ja) * | 2013-10-09 | 2015-04-20 | 富士通株式会社 | ストレージ制御装置、ストレージ制御プログラム及びストレージ制御方法 |
JP2016091164A (ja) * | 2014-10-31 | 2016-05-23 | 株式会社バッファロー | ディスク制御装置、ディスク制御方法、及びプログラム |
JP2019168928A (ja) * | 2018-03-23 | 2019-10-03 | 株式会社富士通エフサス | 緊急性判定装置、緊急性判定方法および緊急性判定プログラム |
KR20200085516A (ko) * | 2019-01-07 | 2020-07-15 | 공주대학교 산학협력단 | 홈페이지를 이용한 소프트-raid의 상태표시방법 |
KR102136710B1 (ko) * | 2019-01-07 | 2020-07-22 | 공주대학교 산학협력단 | 홈페이지를 이용한 소프트-raid의 상태표시방법 |
CN114415979A (zh) * | 2022-03-29 | 2022-04-29 | 浙江大华技术股份有限公司 | 存储装置的处理方法、计算机设备及存储装置 |
CN114415979B (zh) * | 2022-03-29 | 2022-07-15 | 浙江大华技术股份有限公司 | 存储装置的处理方法、计算机设备及存储装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4426939B2 (ja) | 2010-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1574957B1 (en) | Disk array including plural exchangeable magnetic disk unit | |
JP4426939B2 (ja) | ストレージ装置 | |
US11132256B2 (en) | RAID storage system with logical data group rebuild | |
US20170177440A1 (en) | Distributed Object Storage System | |
JP4758666B2 (ja) | 記憶制御システム及び記憶制御方法 | |
US8386840B2 (en) | Distributed object storage system | |
US7028216B2 (en) | Disk array system and a method of avoiding failure of the disk array system | |
JP5052193B2 (ja) | 記憶制御装置および記憶制御方法 | |
US6892276B2 (en) | Increased data availability in raid arrays using smart drives | |
US7073017B2 (en) | Efficient update of firmware in a disk-type storage device | |
US7558988B2 (en) | Storage system and control method thereof | |
US7587631B2 (en) | RAID controller, RAID system and control method for RAID controller | |
JP4583150B2 (ja) | ストレージシステム、及びストレージシステムにおけるスナップショットデータ作成方法 | |
US20110078379A1 (en) | Storage control unit and data management method | |
JPWO2006123416A1 (ja) | ディスク故障復旧方法及びディスクアレイ装置 | |
JP2007086972A (ja) | ストレージシステム、二重化制御方法、及びプログラム | |
US8327184B2 (en) | Storage control system and storage control method | |
US20090063770A1 (en) | Storage control apparatus, storage control program, and storage control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060913 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090127 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090908 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091211 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |