JP2005293547A - ストレージ装置 - Google Patents

ストレージ装置 Download PDF

Info

Publication number
JP2005293547A
JP2005293547A JP2004297118A JP2004297118A JP2005293547A JP 2005293547 A JP2005293547 A JP 2005293547A JP 2004297118 A JP2004297118 A JP 2004297118A JP 2004297118 A JP2004297118 A JP 2004297118A JP 2005293547 A JP2005293547 A JP 2005293547A
Authority
JP
Japan
Prior art keywords
drive
unit
raid group
data
redundancy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004297118A
Other languages
English (en)
Other versions
JP4426939B2 (ja
Inventor
Masahiro Arai
政弘 新井
Ikuya Yagisawa
育哉 八木沢
Yoichi Mizuno
陽一 水野
Naoto Matsunami
直人 松並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004297118A priority Critical patent/JP4426939B2/ja
Publication of JP2005293547A publication Critical patent/JP2005293547A/ja
Application granted granted Critical
Publication of JP4426939B2 publication Critical patent/JP4426939B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】ユニット内の複数のドライブを別々に取り扱い、自由にRAIDグループを構成しても、ユニットを容易に交換することができるストレージ装置を提供する。
【解決手段】複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含むストレージ装置において、前記ディスク制御部は、前記複数ディスクによってRAIDを作成するRAIDグループ作成部と、前記ユニットの交換の際に、前記ユニットに搭載されたディスクのデータを再構築又は複製することによって、当該ユニットが交換可能になったことを報知する交換指示部と、を有する。
【選択図】 図1

Description

本発明は、RAIDを構成するストレージ装置に関し、特に複数のドライブを一つのユ
ニットとし、該ユニットを複数実装したディスクアレイ装置に関する。
省スペースでドライブを高密度実装する方法として、複数の物理ドライブを一つのユニ
ット(ディスクブレード)に搭載し、このユニットを複数実装するディスクアレイ装置が
提案されている(例えば、特許文献1参照。)。
特開平9−16343号公報
前述した従来のディスクアレイ装置では一つのユニット内の複数のドライブを一つのド
ライブとして見せていた。しかし、このような構成では1ユニットを1ドライブとして取
り扱うため、1ユニット上に複数のRAIDグループを構成することができず、構成の自
由度が低いという問題があった。
さらに、1ユニット上に複数のRAIDグループを構成することは技術的には可能であ
るが、ユニットとユニット内のドライブとの関係を管理することは考慮されていなかった
ので、障害発生時にユニットを交換すると、他のRAIDグループにどのような影響が生
じるかが分からず、ユニットの保守交換が困難であった。
本発明は、ユニット内の複数のドライブを別々に取り扱い、自由にRAIDグループを
構成しても、ユニットを容易に交換することができるストレージ装置を提供することを目
的とする。
本発明は、複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装さ
れている複数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、
を含むストレージ装置において、前記ディスク制御部は、前記複数ディスクによってRA
IDを作成するRAIDグループ作成部と、前記ユニットの交換の際に、前記ユニットに
搭載されたディスクのデータを再構築又は複製することによって、当該ユニットが交換可
能になったことを報知する交換指示部と、を有する。
本発明によると、一つのユニットに搭載された複数の物理ドライブを別々に取り扱うこ
とができ、自由にRAIDグループを組むことができる。また、ユニット毎の取り外し、
交換が容易になる。
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の実施の形態のディスクアレイ装置の構成を示すブロック図である。
本発明の実施の形態のディスクアレイ装置1は、複数のドライブ筐体10a、10b、
コントローラ筐体19を含んで構成されている。ディスクアレイ装置1は、管理用LAN
5を介して管理用端末装置2に接続されている。また、ディスクアレイ装置1は、SAN
4を介して複数のSANホスト3に接続されている。
ドライブ筐体10aには、複数のユニット(ディスクブレード)101、102、10
3、104・・・が実装されている。各ディスクブレードには複数(本実施の形態では4
台)のドライブが搭載されている。例えば、ディスクブレード101には、ディスクA0
〜A3が搭載されている。ディスクブレード101等によってドライブ筐体10に実装さ
れたディスクA0等は接続インターフェース180に接続され、ディスクアレイコントロ
ーラ191等との間でデータを送受信することができる。この接続インターフェース18
0には、ATA(AT Attachment)、SAS(Serial Attached SCSI)、ファイバチャネル等のインターフェースを用いることができる。
コントローラ筐体19には、ディスクアレイコントローラ191、192が設けられて
いる。ディスクアレイコントローラ191等では制御プログラムが動作しており、ディス
クA0等に対するデータの入出力を制御する。また、ディスクアレイ装置1に実装された
ディスクA0等によって構成されるRAIDの構成を管理する。また、コントローラ筐体
19には、ディスクアレイコントローラ191、192が複数設けられており、SAN4
との間で同時に多くのデータを入出力できるようにしている。
なお、装置構成によっては、ディスクアレイコントローラ191は単数でもよいし、ま
たコントローラ筐体19とドライブ筐体10aとが一つの筐体となっていてもよい。
管理用端末装置2は、CPU、メモリ、記憶装置、インターフェース、入力装置及び表
示装置が備わるコンピュータ装置である。管理用端末装置2では管理プログラムが動作し
ており、該管理プログラムによってディスクアレイ装置1の動作状態を把握し、ディスク
アレイ装置1の動作を制御する。なお、管理用端末装置2ではwebブラウザ等のクライ
アントプログラムが動作しており、ディスクアレイ装置1から供給される管理プログラム
(Common Gateway InterfaceやJava(登録商標)等)によってディスクアレイ装置1の動作を制御するようにしてもよい。
SANホスト3は、CPU、メモリ、記憶装置及びインターフェースが備わるコンピュ
ータ装置であり、ディスクアレイ装置1から提供されるデータを利用して、データベース
サービスやウェブサービス等を利用可能にする。
SAN4は、例えばファイバチャネルプロトコルのような、データの転送に適するプロ
トコルで通信可能なネットワークである。
管理用LAN5は、例えば、TCP/IPプロトコルによって、コンピュータ間でデー
タや制御情報を通信可能であり、例えばイーサネット(登録商標、以下同じ)が用いられ
る。
図2は、本発明の実施の形態のディスクアレイ装置の構成を示す外観図である。
本実施の形態のディスクアレイ装置1は、19インチラック内に収容されており、ディ
スクアレイ装置1の上部には、ディスクを搭載したディスクブレードを複数収めたドライ
ブ筐体(エンクロージャ)が複数段設けられている。ドライブ筐体10a〜10iの背面
側には当該筐体内のドライブに電力を供給する電源ユニット(図示省略)と、接続インタ
ーフェース180が収められている。接続インターフェース180と各ディスクブレード
は、筐体内部に設けられた配線基板(バックプレーン)を介して物理的に接続され、図1
に示すように、ディスクアレイコントローラ191等や、ドライブ筐体10a等と接続さ
れる。
ドライブ筐体の下方には、ディスクアレイコントローラ191、192を収めたコント
ローラ筐体19、及び、当該ディスクアレイコントローラを冷却するための冷却用ファン
ユニットが設けられている。
図3は、本発明の実施の形態のディスクアレイ装置を構成するドライブ筐体10aの斜
視図である。
ドライブ筐体10aには複数のディスクブレード101〜113が装着可能である。こ
のディスクブレードはドライブ筐体に設けられたレールに沿ってスライドすることによっ
てドライブ筐体に収められる。
ディスクブレード101〜113の上部のドライブ筐体10aには、ユニット交換指示
LED121〜133が設けられている。ディスクブレードが取り外し可能な状態となっ
たときに、ディスクブレードに対応するユニット交換指示LEDが点灯してその旨を報知
し、保守交換作業を容易にしている。
図4は、本発明の実施の形態のディスクアレイ装置を構成するディスクブレード101
の構成を説明する図である。
ディスクブレード101には、複数のドライブ2010〜2040が取り付けられてい
る。このドライブ2010〜2040は、ディスクブレード101に着脱可能な保持枠(
キャニスター)に取り付けられており、キャニスターと共にディスクブレード101から
取り外せるように構成されている。ドライブ2010〜2040の後端にはコネクタが設
けられている。このコネクタはディスクブレード101に設けられたコネクタ2110と
嵌合して、ドライブ2010〜2040とディスクブレード101との間を接続する。
ディスクブレード101にはドライブ交換指示LED2210が設けられている。ドラ
イブ(キャニスター)2010〜2040が取り外し可能な状態となったときに、ドライ
ブに対応するドライブ交換指示LED2210が点灯してその旨を報知し、保守交換作業
を容易にしている。ドライブ交換指示LED2210はLED制御回路2300によって
駆動されている。LED制御回路2300は、ディスクアレイコントローラ191、19
2からの指示に基づいてドライブ交換指示LED2210を点灯させる。
また、ドライブ交換指示LED2210は、ディスクブレード101をドライブ筐体1
0aから取り外した後も(すなわち、ディスクアレイ装置1からの電源の供給が途絶した
後も)点灯可能となっている。このため、LED制御回路2300は、ディスクアレイコ
ントローラ191、192からの指示を維持する記憶回路(例えば、フリップフロップ)
、及び、ドライブ交換指示LED2210に印加する電源を供給する電源回路(例えば、
二次電池、蓄電器)を備えている。このように、ディスクブレード101をドライブ筐体
10aから取り外した後もドライブ交換LED2210が点灯するので、ディスクブレー
ド101をドライブ筐体10aから取り外した後も交換すべきドライブを確認することが
できる。
ディスクブレード101の奥端にはコネクタ2400が取り付けられており、このコネ
クタ2400がバックプレーンに設けられたコネクタと嵌合することによって、ディスク
ブレード101とバックプレーンとが接続される。
ディスクブレード101にはロータリースイッチ2500が設けられている。このロー
タリースイッチ2500を用いてユニットIDを設定することによって、同じドライブ筐
体内に装着されたディスクブレードを電気的に識別することができる。このようにロータ
リースイッチ2500はユニットID設定部として機能する。
図5は、本発明の実施の形態のディスクアレイコントローラ191の構成を示すブロッ
ク図である。
ディスクアレイコントローラ191には、CPU1901、メモリ1902、データ転
送コントローラ1904、フロントエンド接続インターフェースコントローラ1905、
バックエンド接続インターフェースコントローラ1906、データバッファ1907、及
びLANインターフェースコントローラ1908が設けられている。
メモリ1902には制御プログラム1903(図6参照)が記憶されており、CPU1
901が制御プログラム1903を呼び出して実行することによって各種処理が行われる。
データ転送コントローラ1904は、CPU1901、フロントエンド接続インターフ
ェースコントローラ1905、バックエンド接続インターフェースコントローラ1906
、及びデータバッファ1907の間でデータを転送する。
フロントエンド接続インターフェースコントローラ1905は、SAN4に対するイン
ターフェースであって、例えば、ファイバチャネルプロトコルによって、SANホスト3
との間でデータや制御信号を送受信する。
バックエンド接続インターフェースコントローラ1906は、接続インターフェース1
09に対するインターフェースであって、例えば、ATA、SAS、ファイバチャネル等
のインターフェースによって、ディスクとの間でデータや制御信号を送受信する。
データバッファ1907には、フロントエンド接続インターフェースコントローラ19
05とバックエンド接続インターフェースコントローラ1906との間で送受信されるデ
ータが一時的に記憶されるキャッシュが設けられている。
すなわち、データ転送コントローラ1904は、SAN4を介してディスクに読み書き
されるデータをインターフェース1905、1906間で転送する。さらに、これらのデ
ィスクに読み書きされるデータをデータバッファ1907に転送している。
LAN接続インターフェースコントローラ1908は、管理用LAN5に対するインタ
ーフェースであって、例えば、イーサネットプロトコルによって、管理用端末装置2との
間でデータや制御信号を送受信することができる。
図6は、本発明の実施の形態の制御プログラム1903の説明図である。
RAIDグループ設定プログラム1911、RAIDグループ管理プログラム1912
、障害処理プログラム1913、及びI/O制御プログラム1914によって構成されて
いる。またこれらのプログラムの動作のために、ドライブ設定保持テーブル1915、ド
ライブ状態管理テーブル1916、RAIDグループ状態管理テーブル1917、及びバ
ックグラウンド処理数管理テーブル1918が記憶されている。
RAIDグループ設定プログラム1911は、ディスクアレイ装置1に実装されたドラ
イブによってRAIDを設定する処理を実行する(例えば、図13参照)。
RAIDグループ管理プログラム1912は、RAIDグループ設定プログラム191
1によって設定されRAIDを維持管理する。
障害処理プログラム1913は、ディスクアレイ装置1に実装されたドライブに発生す
る障害を監視し、障害が発生したドライブ及び当該障害ドライブと同じユニットに搭載さ
れたドライブに関する処理を行う(例えば、図14、図15、図16参照)。
I/O制御プログラム1914は、ディスクアレイ装置1に実装されたドライブからの
データの読み出し、これらのドライブに対するデータの書き込みに関する処理を行う。
次に、制御プログラムの動作時に用いられる各種テーブルについて説明する。
図7は、本発明の実施の形態のディスクアレイ装置1に装着されたディスクによって生
成されたRAIDの構成の説明図である。
例えば、RAIDグループ1は、ドライブA0(ユニットIDがA、ドライブ番号が0
番のドライブ)、ドライブA1、ドライブB1、ドライブB2及びドライブC2の5個の
ドライブによって、レベル5のRAIDが構成されている。また、RAIDグループ4は
、ドライブA3、ドライブB3、ドライブC3、ドライブD3、ドライブE3及びドライ
ブF3の6個のドライブによって、レベル6のRAIDが構成されている。
図8は、本発明の第1の実施の形態のドライブ設定内容保持テーブル1915の説明図
である。
ドライブ設定内容保持テーブル1915には、ディスクブレードに搭載されたドライブ
に設定された状態が、ドライブ毎に記録されている。具体的には、ドライブの記憶容量と
、そのドライブの使用状態(「使用中」か、未使用の「スペア」か)と、そのドライブが
属するRAIDの番号が記録されている。具体的には、ドライブA0、ドライブA1、ド
ライブB1、ドライブB2及びドライブC2の5個のドライブのRAID番号欄には「1
」が記録されているので、これらのドライブはRAIDグループ1に属する。
図9は、本発明の第1の実施の形態のドライブ状態管理テーブル1916の説明図であ
る。
ドライブ状態管理テーブル1916には、ディスクブレードに搭載されたドライブの現
在の状態がドライブ毎に記録されている。具体的には、ドライブの記憶容量と、そのドラ
イブの状態(「使用中」か、「障害」が発生しているか、「再構築」処理を実行中か、「退避」処理を実行中か、未使用の「スペア」か)と、そのドライブが属するRAIDの番号が記録されている。例えば、ドライブB0はRAIDグループ2に属するドライブであるが、ドライブB0には障害が発生している。
図10は、本発明の第1の実施の形態のRAIDグループ状態管理テーブル1917の
説明図である。
RAIDグループ状態管理テーブル1917には、設定されたRAIDグループ毎に、
総記憶容量、RAIDレベル(どの種類のRAIDが構成されているか)、正常時の冗長
度、現在の冗長度、このRAIDを構成するドライブの識別記号、及びRAIDの状態が
記録されている。
例えば、RAIDグループ1を構成するドライブはA0、A1、B1、B2及びC2の
5個のドライブであり、これらのドライブは(すなわち、RAIDグループ1は)正常に
動作している。一方、RAIDグループ2を構成するドライブはB0、C0、D0、E0
及びF0の5個のドライブであるが、ドライブ状態管理テーブル1916(図9)に示す
ように、ドライブB0に障害が発生しているので、このRAIDグループ2は「障害」状
態となっている。これによってRAIDグループ2は正常時の冗長度が1であるのに対し
、現在の冗長度が0に低下している。
図11は、本発明の第1の実施の形態のバックグラウンド処理数管理テーブル1918
の説明図である。
バックグラウンド処理数管理テーブル1918には、ディスクブレード(ユニットID
)と、そのディスクブレードに搭載されたディスクにおいて実行されているバックグラウ
ンド処理数を示す。すなわち、後述するように、バックグラウンド処理数は、ディスクに
障害が発生したときの再構築処理の開始時に加算され(図14のS130)、再構築処理
の終了時に減算されて(図15のS167)、更新される。また、ディスクに障害が発生
したときのデータコピー処理の開始時に加算され(図14のS141)、データコピー処
理の終了時に減算されて(図16のS176)、更新される。また、図14のS145に
おいて、バックグラウンド処理数管理テーブル1918は、ユニットを取り外してもよい
かの判定にも用いられる(すなわち、バックグラウンド処理が継続しているユニットは取り外すことができない)。
図12は、本発明の第1の実施の形態の管理用端末装置2に表示されるRAIDグルー
プ管理画面の説明図である。
このRAIDグループ管理画面は、RAIDグループを選択することによって表示され
る。選択されたRAIDグループは、RAIDグループ管理画面の左下に設けられた「選
択グループ情報」欄に表示される。RAIDグループ管理画面には、各ディスクブレード
に搭載されたディスク毎にその状態が表示される。
そして、管理者は、RAIDグループを構成するドライブを選択することによってRA
IDグループを構成することができる。また、選択したドライブを、RAIDグループを構成しない「スペア」として設定することもできる。
図13は、本発明の第1の実施の形態のRAIDグループ作成処理のフローチャートで
あり、RAIDグループ設定プログラム1911によって実行される。
RAIDグループ設定プログラム1911は、管理用端末装置2からRAIDグループ
作成要求を受け付けると(S101)と、ドライブの設定内容保持テーブル1915、ド
ライブ状態管理テーブル1916及びRAIDグループ状態管理テーブル1917に要求
があったRAIDグループを仮に登録する(S102)。
その後、ドライブの設定内容保持テーブル1915に最初に記載されているユニットを
参照して(S103)、当該ユニット内でスペアとなっているドライブ数sを取得する(
S104)。そして、当該ユニット内の使用ドライブ台数aが最も大きいRAIDグルー
プnを検索する(S105)。その後、RAIDグループ状態管理テーブル1917を参
照して、当該検索されたRAIDグループnの冗長度rを取得する(S106)。
その後、当該ユニット取り外し処理に要するドライブ数(a−r+1)と、当該ユニット取り外し処理で使用可能スペアドライブ残数(全スペアドライブ数−s)とを比較して、ユニットを取り外した時に最小限の冗長性を保つために必要なドライブ数がスペアとして残っているか否かを判定する(S107)。すなわち、ディスクに障害が発生した際、当該障害発生ユニットを取り外し、障害ディスクを交換することが可能であるか否かの判定を行う。
その判定の結果、処理に要するドライブ数が使用可能スペアドライブ残数より多ければ、ユニットを取り外した時には最小限の冗長性を保つために必要なスペアドライブが不足するため、ディスク障害発生時の交換が不可能であると判定し、スペアドライブ不足による作成エラーを通知する(S111)。そして、ステップS102で作成した各管理テーブルの仮登録を削除する(S112)。
一方、処理に要するドライブ数が利用可能スペアドライブ残数以下であれば、ユニットを取り外した時にも最小限の冗長性を保つために必要なスペアドライブが足りている、すなわち障害発生時にディスク交換が可能であると判定する。そして、この調査を全ユニットに対して行った否かを判定する(S108)。
その結果、全ユニットの調査が終了していなければ、ステップS113に移行し、次に
調査するユニットを選択して、当該ユニットを取り外した時の影響を調査する(S104
〜S107)。
一方、全ユニットの調査が終了していれば、ステップS102で作成した各管理テーブ
ルの仮登録を、各テーブルに正式に登録する(S109)。そして、管理用端末装置2に
RAIDグループの作成成功を通知する(S110)。
図14は、本発明の第1の実施の形態のドライブ障害発生時のユニット交換処理のフロ
ーチャートであり、障害処理プログラム1913によって実行される。
ドライブの障害が検出されると(S121)、ドライブ状態管理テーブル1916を参
照して、障害ドライブのユニットID(α)、ドライブ番号k、所属RAIDグループ番
号nを取得する(S122)。そして、ドライブ状態管理テーブル1916に記録された
ドライブkの状態を「障害」に変更し、RAIDグループ状態管理テーブル1917に記
録されたRAIDグループnの状態を「障害」に変更する(S123)。そして、RAI
Dグループ状態管理テーブル1917のRAIDグループnのRAIDグループの現冗長
度から1を減じる(S124)。
そして、RAIDグループnの現冗長度が1より小さいか(すなわち、0になったか)
否かを判定する(S125)。
その結果、RAIDグループnの現冗長度が1以上であれば、最低限必要な冗長度は維
持されていると判定して、障害ドライブと同じユニットに搭載されているドライブについ
て調査するために、ドライブ番号の変数iを初期化する(S132)。一方、RAIDグ
ループnの現冗長度が1より小さければ、ステップS126へ進む。
ステップS126では、RAIDグループnの現冗長度が0より小さいか(すなわち、
負の数になったか)否かを判定する。
その結果、RAIDグループnの現冗長度が0より小さければ、RAIDが構成されて
おらずデータが消失している可能性がある旨をユーザに通知する(S151)。
一方、RAIDグループnの現冗長度が0以上であれば、ユニットIDがα以外のユニ
ットからスペアとなっているドライブを検索する(S127)。この検索の結果、スペア
ドライブが検索されなければ(S128)、スペアドライブを追加するようユーザに通知
する(S152)。一方、スペアドライブが検索されたならば(S128)、ドライブ状
態管理テーブル1916のこのスペアドライブの状態を「再構築」に変更する。また、R
AIDグループ状態管理テーブル1917の構成ドライブ情報へ障害ドライブに代わり当
該ドライブを加える(S129)。そして、バックグラウンド処理数管理テーブル191
8に記録されるユニットIDがαのバックグラウンド処理数に1を加算する(S130)
。その後、バックグラウンド処理にてRAIDグループnのデータ再構築を実行する(S
131)。そして、ステップS132に進み、ドライブ番号の変数iを初期化する。
ステップS132において変数iの初期設定がされると、変数iとステップS122で
取得した障害ドライブのドライブ番号kとを比較する(S133)。その結果、i=kで
あれば、このドライブは障害が発生したドライブであると判定し、ステップS131に進
み、ドライブ番号の変数iに1を加算して、次のドライブに進む。一方、i≠kであれば
、このドライブは障害が発生したドライブではないと判定し、ドライブαi(ユニットI
Dがα、ドライブ番号がiのドライブ)の所属RAIDグループ番号mを取得する(S1
34)。そして、RAIDグループ状態管理テーブル1917のRAIDグループ番号m
のRAIDグループの現冗長度から1を減じる(S135)。
そして、RAIDグループmの現冗長度が1より小さいか(すなわち、0になったか)
否かを判定する(S136)。
その判定の結果、RAIDグループmの現冗長度が1以上であれば、最低限必要な冗長
度は維持されていると判定して、次のドライブについて調査するために、ドライブ番号の
変数iに1を加算する(S143)。一方、RAIDグループnの現冗長度が1より小さ
ければ、ステップS137へ進む。
ステップS137では、RAIDグループmの現冗長度が0より小さいか(すなわち、
負の数になったか)否かを判定する。
このS136、S137の処理によって、ユニットIDがαのユニット上に搭載された
ドライブによるRAIDの状態の変化を推定することができる。すなわち、ユニットID
がαのユニットを取り外したときの、障害発生ドライブ以外のドライブが属するRAID
グループへの影響を推定する。
この結果、RAIDグループmの現冗長度が0より小さければ、RAIDが構成されて
おらずデータが消失している可能性がある旨をユーザに通知する(S151)。
一方、RAIDグループmの現冗長度が0以上であれば、ユニットIDがα以外のユニ
ットからスペアとなっているドライブを検索する(S138)。この検索の結果、スペア
ドライブが検索されなければ(S139)、スペアドライブを追加するようユーザに通知
する(S152)。一方、この検索の結果、スペアドライブが検索されたならば(S13
9)、ドライブ状態管理テーブル1916に記録されている当該スペアドライブの状態を
「退避」に変更する(S140)。そして、バックグラウンド処理数管理テーブル191
8に記録されるユニットIDがαのバックグラウンド処理数に1を加算する(S141)
。その後、バックグラウンド処理にてドライブαiのデータコピーを実行する(S142
)。そして、ステップS143に進み、ドライブ番号の変数iに1を加算する。
ステップS143において変数iが更新されると、変数iがドライブ番号の最大値を超
えているか否かを判定する(S144)。その結果、変数iがドライブ番号の最大値より
小さければ、ステップS132に戻り次のドライブについて調査する。一方、変数iがド
ライブ番号の最大値を超えていれば、全てのドライブについての調査が終了したので、バ
ックグラウンド処理数管理テーブル1918を参照してユニットIDがαのバックグラウ
ンド処理数が0であるか否かを判定する(S145)。その結果、ユニットIDがαのバ
ックグラウンド処理数が0でなければ、ユニットIDがαのユニットに関するバックグラ
ウンド処理が継続しているので、一定時間の経過を待ち(S146)、再度、ステップS
145の判定を行う。一方、ユニットIDがαのバックグラウンド処理数が0であれば、
ユニットIDがαのユニットに関するバックグラウンド処理が行われていないので、ステ
ップS147に進む。
ステップS147では、ドライブ状態管理テーブル1916に記録されている、ユニッ
トIDがαの障害が発生していないドライブの状態を「未使用」に変更する(S147)
。そして、ユニットIDがαのユニットのユニット交換指示LEDを点灯させ(S148
)、ドライブIDがαkのドライブのドライブ交換指示LEDを点灯させる(S149)
。その後、ユニットIDがαのユニットの交換をユーザに指示する(S150)。
図15は、本発明の第1の実施の形態のRAIDグループのデータ再構築処理のフロー
チャートであり、障害処理プログラム1913によって実行される。また、図14のステ
ップS131にて開始し、バックグラウンドにおいて実行される。
RAIDグループnを構成する全ての正常なドライブからデータを読み出す(S161
)。そして、これら読み出したデータのパリティ(排他的論理和)を計算することによっ
て、障害が発生したドライブに記憶されていたものと同じデータを算出し、データを復元
する(S162)。そして、図14のステップS127において検索されたスペアドライ
ブに、復元したデータを書き込む(S163)。
そして、全てのデータを書き込んだか否かを判定する(S164)。その結果、全ての
データの書き込みが終了していなければ、ステップS161に戻り、さらに、RAIDグ
ループnを構成する全ての正常なドライブからデータを読み出してデータの再構築を行う
。一方、全てのデータの書き込みが終了していれば、ドライブ状態管理テーブル1916
に記録されている当該スペアドライブの状態を「使用中」に変更する。そして、RAID
グループ状態管理テーブル1917に記録されたドライブの構成を更新し、RAIDグル
ープnの状態を「正常」に変更する(S165)。そして、RAIDグループ状態管理テ
ーブル1917のRAIDグループ番号nのRAIDグループの現冗長度に1を加算する
(S166)。さらに、バックグラウンドにおけるデータ再構築処理が終了したので、バ
ックグラウンド処理数管理テーブル1918に記録されるユニットIDがαのバックグラ
ウンド処理数から1を減算する(S167)。
図16は、本発明の第1の実施の形態のドライブのデータコピー処理のフローチャート
であり、障害処理プログラム1913によって実行される。また、図14のステップS1
42にて開始し、バックグラウンドにおいて実行される。
まず、ドライブαN(ユニットIDがα、ドライブ番号がNのドライブ)からデータを
読み出す(S171)。そして、図14のステップS138において検索されたスペアド
ライブに、読み出したデータを書き込む(S172)。
そして、全てのデータを書き込んだか否かを判定する(S173)。その結果、全ての
データの書き込みが終了していなければ、ステップS171に戻り、さらに、データを読
み出してデータコピーを行う。一方、全てのデータの書き込みが終了していれば、ドライ
ブ状態管理テーブル1916に記録されている構成ドライブを更新し、当該スペアドライ
ブの状態を「使用中」に変更する(S174)。そして、RAIDグループ状態管理テー
ブル1917のRAIDグループ番号nのRAIDグループの現冗長度に1を加算する(
S175)。さらに、バックグラウンドにおけるデータコピー処理が終了したので、バッ
クグラウンド処理数管理テーブル1918に記録されるユニットID(α)のバックグラ
ウンド処理数から1を減算する(S176)。
図17は、本発明の第1の実施の形態の交換ユニット挿入時処理のフローチャートであ
る。
ディスクブレードの挿入が確認されると(S181)、挿入されたディスクブレードに
設定されたユニットIDが正しいかによって、正しいユニットが挿入されたかを判定する
(S182)。具体的には、挿入されたディスクブレードに設定されたユニットIDが取
り外されたディスクブレードに設定されていたユニットのIDと等しいかや、挿入された
ディスクブレードに設定されたユニットIDが既に実装済みの他のユニットのIDと重複
しないか等の方法によって確認することができる。
正しいユニットであることが確認できたら、挿入されたユニットのユニット交換指示L
EDを消灯させる(S183)。
そして、ドライブ設定内容保持テーブル1915を参照して、挿入されたユニットのド
ライブが属していたRAIDグループnを選択する(S184)。
その後、RAIDグループ状態管理テーブル1917を参照して、RAIDグループn
の正常時の冗長度と、現在の冗長度とを取得する(S185)。そして、正常時冗長度と
現冗長度を比較する(S186)。その結果、現冗長度が正常時冗長度より小さければ、
RAIDグループnを構成するドライブの数が正常時より不足しているので、再構築後の
データを書き込むドライブを選択し、ドライブ状態管理テーブル1916に記録されてい
る当該ドライブの状態を「再構築」に変更する。その後、バックグラウンド処理にてRA
IDグループnのデータ再構築を実行する(S187)。
その後、挿入されたユニットのドライブが属していた全てのRAIDグループについて
の調査が終了したか否かを判定する(S188)。その結果、全てのRAIDグループに
ついての調査が終了していなければ、次のRAIDグループを選択し(S189)、ステ
ップS185に戻り、さらにRAIDグループの冗長度を調査する。一方、全てのRAI
Dグループについての調査が終了していれば、未使用ドライブ(すなわち、ステップS1
87でデータ再構築に使用されなかったドライブ)の状態を「スペア」に変更する(S1
90)。
図18から図29は、ドライブB0に障害が発生し、ユニットBが交換されるまでの、
ドライブ状態管理テーブル1916の変化を示す。
ドライブB0(ユニットIDがB、ドライブ番号が0番のドライブ)に障害が発生する
前は、ドライブB0の状態は「使用中」である(図18)。
ドライブB0に障害が発生すると、ドライブB0の状態は「障害」になる(図14のS
123)。そして、検索されたスペアドライブA2の状態を「再構築」に変更し(図14
のS129)、スペアドライブA2にドライブB0のデータの再構築を開始する(図14
のS131)。このドライブB0のデータ再構築中の状態を図19に示す。そして、デー
タ再構築が終了すると、ドライブA2の状態は「使用中」に変更され、ドライブA2はR
AIDグループ2を構成するドライブとして使用される(図20)。
障害ドライブのデータ再構築処理の後(または、この処理と並行して)、ドライブB1
〜B3のデータ退避処理が行われる。ドライブB1はRAIDグループ1に属し、RAI
Dグループ1のRAIDレベルはRAID5なので、その冗長度は1である。よって、ド
ライブB1を取り除くと冗長度が0になってしまうので、ドライブB1のデータを退避す
るコピー処理を開始する。
すなわち、検索されたスペアドライブD2の状態を「退避」に変更し(図14のS14
0)、スペアドライブD2にドライブB1のデータのコピーを開始する(図14のS14
2)。このドライブB1のデータ退避の状態を図21に示す。そして、データコピーが終
了すると、ドライブD2の状態は「使用中」に変更され、ドライブD2はRAIDグルー
プ1を構成するドライブとして使用される(図22)。
次にドライブB2のデータ退避処理が行われる。ドライブB2はRAIDグループ1に
属する。よって、ドライブB2を取り除くと冗長度が0になってしまうので、ドライブB
2のデータを退避するコピー処理を開始する。具体的には、検索されたスペアドライブE
2の状態を「退避」に変更し(図14のS140)、スペアドライブE2にドライブB2
のデータのコピーを開始する(図14のS142)。このドライブB2のデータ退避中の
状態を図23に示す。そして、データコピーが終了すると、ドライブE2の状態は「使用
中」に変更され、ドライブE2はRAIDグループ1を構成するドライブとして使用され
る(図24)。
次にドライブB3のデータ退避処理が行われる。ドライブB3はRAIDグループ4に
属し、RAIDグループ4のRAIDレベルはRAID6なので、その冗長度は2である
。よって、ドライブB3を取り除いても冗長度は1が維持されるので、ドライブB3のデ
ータを退避する必要はないと判断する(図14のS136)。このドライブB3のデータ
退避中の状態を図25に示す。
なお、退避処理中に書き込みが発生した場合、書き込みデータは退避元ドライブと退避
先ドライブの両方に書き込まれる。このため、退避処理中にデータの書き込みが発生して
も、退避元ドライブと退避先ドライブの内容が異なることはない。
以上の処理によって、ユニットBの全てのドライブの処理が終了したので、ユニット交
換処理(図14)が終了する。この状態を図26に示す。
その後、ユニットBが取り外され、新たなディスクブレードが取り付けられると、ユニ
ットBに搭載された全てのドライブの状態は「未使用」となる(図27)。その後、再構
築されたデータが書き込まれるドライブB3の状態は「再構築」に変更され、データの再
構築が開始する(図28)。再構築が終了すると、再構築されたデータが書き込まれたド
ライブB3の状態は「使用中」に変更され、未使用ドライブ(B0〜B2)の状態が「ス
ペア」に変更される(図29)。
以上説明したように第1の実施の形態では、ユニット(ディスクブレード)を取り外す
際に、当該ユニットに関係するRAIDグループの最低限の冗長度が維持されるようにデ
ータ再構築及びデータコピーを行う。そして、これらの処理の終了後にユニット及びドラ
イブの交換を指示するので、容易にユニットを交換することができる。
次に、本発明の第2の実施の形態について説明する。第2の実施の形態では、RAID
グループ毎に保証冗長度を設定することによって、ドライブに障害が発生しても、そのR
AIDグループの冗長度が保証冗長度より低下しないように制御する。なお、第2の実施
の形態では前述した第1の実施の形態と異なる処理のみを説明し、第1の実施の形態と共
通する処理の説明は省略する。
図30は、本発明の第2の実施の形態のRAIDグループ状態管理テーブル1917b
の説明図である。
RAIDグループ状態管理テーブル1917bには、第1の実施の形態のRAIDグル
ープ状態管理テーブル1917と同じデータ(RAIDグループ番号、総記憶容量、RA
IDレベル、正常時の冗長度、現在の冗長度、構成ドライブ識別記号、及びRAIDの状
態)の他、保証冗長度が記録されている。保証冗長度は、そのRAIDグループにおいて
保証される最低の冗長度であって、そのRAIDグループに属するドライブに障害が発生
しても、そのRAIDグループの冗長度が保証冗長度より小さくならないように制御して
いる。なお、第1の実施の形態のRAIDグループ状態管理テーブル1917と同じデー
タの説明は省略する。
図31は、本発明の第2の実施の形態のRAIDグループ管理画面の説明図である。
この第2の実施の形態のRAIDグループ管理画面は、前述した第1の実施の形態のR
AIDグループ管理画面(図12)と異なり、「冗長度ポリシー」ボタンが設けられてい
る。この「冗長度ポリシー」ボタンが操作されると、図31(b)に示す冗長度ポリシー
設定画面が開く。冗長度ポリシー設定画面では、RAIDグループ毎に、常に完全な冗長
性を維持するか、最低限の冗長性を維持するか、ユニット交換時は一時的な冗長性の欠落
を許容するか、を選択することができる。
図32は、本発明の第2の実施の形態の保証冗長度設定処理のフローチャートであり、
RAIDグループ設定プログラム1911において実行される。
まず、「常に完全な冗長性を維持」することが選択された場合には(S261)、RA
IDグループ状態管理テーブル1917bの保証冗長度には正常時の冗長度と同じ値が設
定される(S262)。また、「最低限の冗長性を維持」することが選択された場合には
(S263)、RAIDグループ状態管理テーブル1917bの保証冗長度には1が設定
される(S264)。また、ユニット交換時は「一時的な冗長性の欠落を許容」すること
が選択された場合には(S265)、RAIDグループ状態管理テーブル1917bの保
証冗長度には0が設定される(S266)。
図33は、本発明の第2の実施の形態のRAIDグループ作成処理のフローチャートで
あり、RAIDグループ設定プログラム1911によって実行される。この第2の実施の
形態のRAIDグループ作成処理は、S206を除いて第1の実施の形態のRAIDグル
ープ作成処理(図13)と同じであり、これと同一の処理の説明は省略する。
ステップS105において当該ユニット内の使用ドライブ台数aが最も大きいRAID
グループnを検索した後、RAIDグループ状態管理テーブル1917を参照して、当該
検索されたRAIDグループnの保証冗長度rを取得する(S206)。
その後、当該ユニット取り外し処理に要するなドライブ数(a−r+1)と、当該ユニット取り外し処理時に利用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較して、ユニットを取り外した時に最小限の冗長性を保つために必要なドライブ数がスペアとして残っているかを判定する(S107)。すなわち、ディスクに障害が発生した際、当該障害発生ユニットを取り外し、障害ディスクを交換することが可能であるか否かの判定を行う。
その判定の結果、処理に必要なドライブ数が使用可能スペアドライブ残数より多ければ、ユニットを取り外した時にはRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが不足すると判定し、スペアドライブ不足による作成エラーを通知する(S111)。そして、ステップS102で作成した各管理テーブルの仮登録を削除する(S112)。
一方、処理に要するドライブ数が使用可能スペアドライブ残数以下であれば、ユニットを取り外した時にもRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが足りていると判定する。
図34は、本発明の第2の実施の形態のドライブ障害発生時のユニット交換処理のフロ
ーチャートであり、障害処理プログラム1913によって実行される。この第2の実施の
形態のユニット交換処理は、S225、S236を除いて第1の実施の形態のユニット交
換処理(図14)と同じであり、これと同一の処理の説明は省略する。
ステップS124においてRAIDグループ状態管理テーブル1917のRAIDグル
ープnのRAIDグループの現冗長度から1を減じた後、RAIDグループnの現冗長度
が保証冗長度より小さいか否かを判定する(S225)。
その判定の結果、RAIDグループnの現冗長度が保証冗長度以上であれば、ドライブ
番号の変数iを初期化する(S132)。一方、RAIDグループnの現冗長度が1より
小さければ、ステップS126へ進む。ステップS126では、RAIDグループnの現
冗長度が0より小さいか否かを判定する。
また、ステップS135においてRAIDグループ状態管理テーブル1917のRAI
Dグループ番号mのRAIDグループの現冗長度から1を減じた後、RAIDグループm
の現冗長度が保証冗長度より小さいか否かを判定する(S236)。
その判定の結果、RAIDグループmの現冗長度が保証冗長度以上であれば、ドライブ
番号の変数iに1を加算する(S143)。一方、RAIDグループnの現冗長度が1よ
り小さければ、ステップS137へ進む。ステップS137では、RAIDグループmの
現冗長度が0より小さいか否かを判定する。このS236、S137の処理によって、ユ
ニットIDがαのユニット上に搭載されたドライブによるRAIDの状態の変化を推定す
ることができる。すなわち、ユニットIDがαのユニットを取り外したときの、障害発生
ドライブ以外のドライブが属するRAIDグループへの影響を推定する。
以上説明したように第2の実施の形態では、RAIDグループ毎に保証冗長度を設定し
、ドライブに障害が発生しても当該RAIDグループの冗長度が保証冗長度より低下しな
いように制御するので、RAIDグループ毎の要求性能(すなわち、保存されるデータの
重要性)に応じて冗長度を管理することができる。
次に、本発明の第3の実施の形態について説明する。第3の実施の形態では、ドライブ
の保守情報を提供するものであり、前述した第1及び第2の実施の形態に附加的に適用す
ることができる。
図35は、本発明の第3の実施の形態のRAIDグループ管理画面の説明図である。第
3の実施の形態のRAIDグループ管理画面は、ドライブの保守情報の表示欄が画面下部
に設けられている。
図36は、本発明の第3の実施の形態の保守緊急度通知判断処理のフローチャートであ
り、RAIDグループ管理画面に表示されるドライブの保守情報を選択する。
その後、ドライブの設定内容保持テーブル1915に最初に記載されているユニットを
参照して(S301)、当該ユニット内でスペアとなっているドライブ数sを取得する(
S302)。そして、当該ユニット内の使用ドライブ台数aが最も大きいRAIDグルー
プnを検索する(S303)。その後、RAIDグループ状態管理テーブル1917を参
照して、当該検索されたRAIDグループnに設定された保証冗長度rを取得する(S3
04)。
その後、当該ユニット取り外し処理に要するなドライブ数(a−r+1)と、当該ユニット取り外し処理に使用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較して、ユニットを取り外した時に最小限の冗長性を保つために必要なドライブ数がスペアとして残っているかを判定する(S305)。すなわち、ディスクに障害が発生した際、当該障害発生ユニットを取り外し、障害ディスクを交換することが可能であるか否かの判定を行う。
その判定の結果、処理に要するドライブ数が使用可能スペアドライブ残数より多ければ、ドライブに故障が発生すると保証冗長度を維持できないので、ドライブ障害発生時にもRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが不足すると判定し、保守緊急度は高い旨(速やかに障害ドライブの交換や、ドライブの追加をする必要がある旨)を通知する(S309)。
一方、処理に要するドライブ数が使用可能スペアドライブ残数以下であれば、ユニットを取り外した時にもRAIDグループnに設定された保証冗長度rを保つために必要なスペアドライブが足りていると判定する。そして、全ユニットを調べたか否かを判定する(S306)。
その結果、全ユニットの調査が終了していなければ、ステップS307に移行し、次に
調査するユニットを選択して、ステップS302に戻り次のユニットの調査を継続する。
一方、全ユニットの調査が終了していれば、1台のドライブに故障が生じても保証冗長
度を維持することができるので保守緊急度は低い旨を通知する(S308)。
以上説明した第3の実施の形態の保守緊急度通知判断処理は、前述した第2の実施の形
態に適用可能なものであるが、ステップS304、S305において保証冗長度ではなく
、RAIDグループnの現冗長度を用いることによって、第1の実施の形態に適用するこ
とができる。
以上説明したように第3の実施の形態では、RAIDグループの冗長度を維持するため
のドライブ保守情報を提供するので、RAIDグループの冗長度が期待の値より低下する
ことを未然に防ぐことができる。また、緊急度判定によって、緊急度が低い保守の実施を
割愛できるので、従来ならば複数回行わなければならなかった保守を一度にまとめて実施
することができ、保守に要していたコストや時間を低減することができる。
本発明の実施の形態のディスクアレイ装置の構成を示すブロック図である。 本発明の実施の形態のディスクアレイ装置の構成を示す外観図である。 本発明の実施の形態のディスクアレイ装置を構成するドライブ筐体の斜視図である。 本発明の実施の形態のディスクアレイ装置を構成するディスクブレードの構成図である。 本発明の実施の形態のディスクアレイコントローラの構成を示すブロック図である。 本発明の実施の形態の制御プログラムの説明図である。 本発明の実施の形態のRAID構成の説明図である。 本発明の第1の実施の形態のドライブ設定内容保持テーブルの説明図である。 本発明の第1の実施の形態のドライブ状態管理テーブルの説明図である。 本発明の第1の実施の形態のRAIDグループ状態管理テーブルの説明図である。 本発明の第1の実施の形態のバックグラウンド処理数管理テーブルの説明図である。 本発明の第1の実施の形態の管理用端末装置に表示されるRAIDグループ管理画面の説明図である。 本発明の第1の実施の形態のRAIDグループ作成処理のフローチャートである。 本発明の第1の実施の形態のユニット交換処理のフローチャートでである。 本発明の第1の実施の形態のRAIDグループのデータ再構築処理のフローチャートである。 本発明の第1の実施の形態のドライブのデータコピー処理のフローチャートである。 本発明の第1の実施の形態の交換ユニット挿入時処理のフローチャートである。 本発明の実施の形態のドライブ状態管理テーブル(障害発生前)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データ再構築中)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データ再構築後)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データコピー中)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データ退避後)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データコピー中)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データ退避後)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(退避処理中)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(ユニット交換処理終了後)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(ユニット交換後)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データ再構築中)の説明図である。 本発明の実施の形態のドライブ状態管理テーブル(データ再構築後)の説明図である。 本発明の第2の実施の形態のRAIDグループ状態管理テーブルの説明図である。 本発明の第2の実施の形態のRAIDグループ管理画面の説明図である。 本発明の第2の実施の形態の保証冗長度設定処理のフローチャートである。 本発明の第2の実施の形態のRAIDグループ作成処理のフローチャートである。 本発明の第2の実施の形態のユニット交換処理のフローチャートである。 本発明の第3の実施の形態のRAIDグループ管理画面の説明図である。 本発明の第3の実施の形態の保守緊急度通知判断処理のフローチャートである。
符号の説明
1 ディスクアレイ装置
2 管理用端末装置
3 SANホスト
4 SAN
5 管理用LAN
10a〜10i ドライブ筐体
19 コントローラ筐体
101〜113 ドライブブレード
121〜133 ユニット交換指示LED
191 ディスクアレイコントローラ
1901 CPU
1902 メモリ
1903 制御プログラム
1904 データ転送コントローラ
1905 フロントエンド接続インターフェースコントローラ
1906 バックエンド接続インターフェースコントローラ
1907 データバッファ
1908 LANインターフェースコントローラ
1911 RAIDグループ設定プログラム
1912 RAIDグループ管理プログラム
1913 障害処理プログラム
1914 I/O制御プログラム
1915 ドライブ設定保持テーブル
1916 ドライブ状態管理テーブル
1917 RAIDグループ状態管理テーブル
1918 バックグラウンド処理数管理テーブル
2010、2020、2030、2040 ドライブ(キャニスター)
2110、2120、2130、2140 コネクタ
2210、2220、2230、2240 ドライブ交換指示LED
2400 コネクタ
2500 ロータリースイッチ(ID設定部)

Claims (10)

  1. 複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複
    数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含み、複
    数の前記ユニットに搭載されたディスクによってRAIDが構成されるストレージ装置に
    おいて、
    前記ディスク制御部は、
    前記ドライブの状態を記録するドライブ状態管理テーブルと、前記RAIDグループの
    状態を記録するRAIDグループ状態管理テーブルと、RAIDによるデータ再構築処理
    中か及びドライブ間のデータ複製処理中か否かを示すバックグラウンド処理数と、を保持
    し、
    前記ドライブの障害が検出されると、前記ドライブ状態管理テーブルの当該障害ドライ
    ブの状態を「障害」に変更し、前記RAIDグループ状態管理テーブルの当該障害ドライ
    ブが属するRAIDグループの状態を「障害」に変更する障害検出部と、
    当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定すると共に、当該障害ドライブが搭載されたユニットに搭載された他のドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上か否かを判定する判定部と、
    当該障害ドライブが属するRAIDグループの冗長度が、設定される1以上の要求値よりも小さく、かつ0以上であれば、当該障害ドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「再構築」に変更し、当該スペアドライブに当該障害ドライブのデータを再構築し、この再構築処理中は前記バックグラウンド処理数に1を加算するデータ再構築部と、
    当該他のドライブが属するRAIDグループの冗長度が設定される1以上の要求値よりも小さく、かつ0以上であれば、当該他のドライブが搭載されたユニット以外のユニットから検索されたスペアドライブの状態を「退避」に変更し、当該スペアドライブに当該他のドライブのデータを複製し、このデータ複製処理中は前記バックグラウンド処理数に1を加算するデータ複製部と、
    前記バックグラウンド処理数に基づいて前記データ再構築部及び前記データ複製部によ
    る処理が終了したか否かを判定し、これらの処理が終了すると、当該障害ドライブが搭載
    されたユニット及び当該障害ドライブが交換可能になったことを報知する交換指示部と、
    を有するストレージ装置。
  2. 前記データ再構築部は、前記ユニットが装着された際に、前記ユニットに搭載されたド
    ライブが属すべきRAIDグループの冗長度が正常時冗長度より小さければ、当該装着さ
    れたユニットに搭載されたドライブに当該RAIDグループのデータを再構築し、
    前記交換指示部は、前記データ再構築処理に伴って、当該挿入されたユニットに関する
    交換可能報知を停止する請求項1に記載のストレージ装置。
  3. 複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複
    数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含み、複
    数の前記ユニットに搭載されたディスクによってRAIDが構成されるストレージ装置に
    おいて、
    前記ディスク制御部は、前記複数ディスクによってRAIDを作成するRAIDグルー
    プ作成部を有し
    前記RAIDグループ作成部は、
    前記ユニット内の使用されていないスペアドライブ数s、当該RAIDグループに属す
    る当該ユニット内のドライブ数a、及び当該RAIDグループの冗長度rを取得する情報
    取得部と、
    当該ユニット取り外し処理に要するドライブ数(a−r+1)と当該ユニット取り外し処理に使用可能なスペアドライブ残数(全スペアドライブ数−s)とを比較することによって、当該ユニットが取り外された場合にスペアドライブが不足するか否かを判定し、障害発生時のディスク交換可否を、ディスク交換を実行する前に判定する判定部と、を有し、
    さらに前記ディスク制御部は、前記判定部によって前記スペアドライブが不足すると判
    定された場合に、その旨を報知する報知部を有するストレージ装置。
  4. 複数のドライブが着脱可能に搭載されたユニットが複数個着脱可能に実装されている複
    数のドライブ筐体と、ディスク制御部が設けられているコントローラ筐体と、を含むスト
    レージ装置において、
    前記ディスク制御部は、
    前記複数ディスクによってRAIDを作成するRAIDグループ作成部と、
    前記ユニットの交換の際に、前記ユニットに搭載されたディスクのデータを再構築又は
    複製することによって、当該ユニットが交換可能になったことを報知する交換指示部と、
    を有するストレージ装置。
  5. 前記ディスク制御部は、
    前記ユニットの交換時に、障害が検出されている前記ユニット内のドライブが属するR
    AIDグループの冗長度が所定値を維持しているか否かを判定する判定部と、
    当該障害ドライブが属するRAIDグループの冗長度が所定値を維持していなければ、
    当該障害ドライブが搭載されたユニット以外のユニットから検索された空きドライブに当
    該障害ドライブのデータを再構築するデータ再構築部と、を有する請求項4に記載のスト
    レージ装置。
  6. 前記データ再構築部は、前記ユニットが装着された際に、前記ユニットに搭載されたド
    ライブが属すべきRAIDグループの冗長度が正常時冗長度より小さければ、当該装着さ
    れたユニットに搭載されたドライブに当該RAIDグループのデータを再構築する請求項
    5に記載のストレージ装置。
  7. 前記ディスク制御部は、
    前記ユニットの交換時に、障害が検出されていない前記ユニット内のドライブが属する
    RAIDグループの冗長度が所定値を維持しているか否かを判定する判定部と、
    当該ドライブが属するRAIDグループの冗長度が所定値を維持していなければ、当該
    他のドライブが搭載されたユニット以外のユニットから検索された空きドライブに当該他
    のドライブのデータを複製するデータ複製部と、を有する請求項4に記載のストレージ装
    置。
  8. 前記ディスク制御部は、
    RAIDグループ作成時に、前記ユニット内の使用されていないスペアドライブ数、当
    該RAIDグループに属する当該ユニット内のドライブ数、及び当該RAIDグループの
    冗長度に基づいて、当該ユニットが取り外された場合にスペアドライブが不足するか否か
    を判定する判定部を有する請求項4に記載のストレージ装置。
  9. 前記ディスク制御部は、
    前記ドライブの状態を記録するドライブ状態管理テーブルと、前記RAIDグループの
    状態を記録するRAIDグループ状態管理テーブルと、を保持し、
    前記ドライブ状態管理テーブル及び前記RAIDグループ状態管理テーブルに基づいて
    、前記ドライブの状態及び前記RAIDグループの状態を表示するための情報を出力する
    情報出力部を有する請求項4に記載のストレージ装置。
  10. 前記交換指示部は、
    前記ユニットに搭載されたドライブが交換可能になったことを報知するドライブ交換指
    示表示部と、
    前記ドライブ交換指示表示部の表示を制御するドライブ交換指示部と、
    前記ユニットが前記ストレージ装置から取り外されても、前記ドライブ交換指示表示部
    及び前記ドライブ交換指示部の動作に必要な電源を供給する電源部と、を前記ユニットに
    備える請求項4に記載のストレージ装置。
JP2004297118A 2004-03-11 2004-10-12 ストレージ装置 Expired - Fee Related JP4426939B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004297118A JP4426939B2 (ja) 2004-03-11 2004-10-12 ストレージ装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004068348 2004-03-11
JP2004297118A JP4426939B2 (ja) 2004-03-11 2004-10-12 ストレージ装置

Publications (2)

Publication Number Publication Date
JP2005293547A true JP2005293547A (ja) 2005-10-20
JP4426939B2 JP4426939B2 (ja) 2010-03-03

Family

ID=35326368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004297118A Expired - Fee Related JP4426939B2 (ja) 2004-03-11 2004-10-12 ストレージ装置

Country Status (1)

Country Link
JP (1) JP4426939B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141229A (ja) * 2005-11-16 2007-06-07 Internatl Business Mach Corp <Ibm> ストレージ・アレイ内でネットワーク・アドレスを割り当てるための装置および方法
JP2008071104A (ja) * 2006-09-14 2008-03-27 Hitachi Ltd ストレージ装置及び構成設定方法
JP2008097318A (ja) * 2006-10-12 2008-04-24 Hitachi Ltd ストレージ装置
JP2008108019A (ja) * 2006-10-25 2008-05-08 Hitachi Ltd ブレードサーバシステム
JP2008171386A (ja) * 2006-12-13 2008-07-24 Hitachi Ltd 記憶制御装置
JP2010033395A (ja) * 2008-07-30 2010-02-12 Kddi Corp 階層型冗長ストレージシステムにおける冗長度算出方法、raid装置及びプログラム
JP2010117850A (ja) * 2008-11-12 2010-05-27 Hitachi Ltd 記憶制御装置
JP2010146463A (ja) * 2008-12-22 2010-07-01 Nec Corp ディスクアレイ装置、ディスクアレイ制御方法、及び、プログラム
JP2013041606A (ja) * 2006-10-24 2013-02-28 Lsi Corp 記憶制御装置用にメタ・ディスク集合モデルを実装するシステム及び方法
JP2014219787A (ja) * 2013-05-07 2014-11-20 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法
JP2015075965A (ja) * 2013-10-09 2015-04-20 富士通株式会社 ストレージ制御装置、ストレージ制御プログラム及びストレージ制御方法
JP2016091164A (ja) * 2014-10-31 2016-05-23 株式会社バッファロー ディスク制御装置、ディスク制御方法、及びプログラム
JP2019168928A (ja) * 2018-03-23 2019-10-03 株式会社富士通エフサス 緊急性判定装置、緊急性判定方法および緊急性判定プログラム
KR20200085516A (ko) * 2019-01-07 2020-07-15 공주대학교 산학협력단 홈페이지를 이용한 소프트-raid의 상태표시방법
CN114415979A (zh) * 2022-03-29 2022-04-29 浙江大华技术股份有限公司 存储装置的处理方法、计算机设备及存储装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141229A (ja) * 2005-11-16 2007-06-07 Internatl Business Mach Corp <Ibm> ストレージ・アレイ内でネットワーク・アドレスを割り当てるための装置および方法
US8291163B2 (en) 2006-09-14 2012-10-16 Hitachi, Ltd. Storage apparatus and configuration setting method
JP2008071104A (ja) * 2006-09-14 2008-03-27 Hitachi Ltd ストレージ装置及び構成設定方法
JP2008097318A (ja) * 2006-10-12 2008-04-24 Hitachi Ltd ストレージ装置
JP2013041606A (ja) * 2006-10-24 2013-02-28 Lsi Corp 記憶制御装置用にメタ・ディスク集合モデルを実装するシステム及び方法
JP2008108019A (ja) * 2006-10-25 2008-05-08 Hitachi Ltd ブレードサーバシステム
JP2008171386A (ja) * 2006-12-13 2008-07-24 Hitachi Ltd 記憶制御装置
JP2010033395A (ja) * 2008-07-30 2010-02-12 Kddi Corp 階層型冗長ストレージシステムにおける冗長度算出方法、raid装置及びプログラム
JP2010117850A (ja) * 2008-11-12 2010-05-27 Hitachi Ltd 記憶制御装置
JP2010146463A (ja) * 2008-12-22 2010-07-01 Nec Corp ディスクアレイ装置、ディスクアレイ制御方法、及び、プログラム
JP2014219787A (ja) * 2013-05-07 2014-11-20 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法
JP2015075965A (ja) * 2013-10-09 2015-04-20 富士通株式会社 ストレージ制御装置、ストレージ制御プログラム及びストレージ制御方法
JP2016091164A (ja) * 2014-10-31 2016-05-23 株式会社バッファロー ディスク制御装置、ディスク制御方法、及びプログラム
JP2019168928A (ja) * 2018-03-23 2019-10-03 株式会社富士通エフサス 緊急性判定装置、緊急性判定方法および緊急性判定プログラム
KR20200085516A (ko) * 2019-01-07 2020-07-15 공주대학교 산학협력단 홈페이지를 이용한 소프트-raid의 상태표시방법
KR102136710B1 (ko) * 2019-01-07 2020-07-22 공주대학교 산학협력단 홈페이지를 이용한 소프트-raid의 상태표시방법
CN114415979A (zh) * 2022-03-29 2022-04-29 浙江大华技术股份有限公司 存储装置的处理方法、计算机设备及存储装置
CN114415979B (zh) * 2022-03-29 2022-07-15 浙江大华技术股份有限公司 存储装置的处理方法、计算机设备及存储装置

Also Published As

Publication number Publication date
JP4426939B2 (ja) 2010-03-03

Similar Documents

Publication Publication Date Title
EP1574957B1 (en) Disk array including plural exchangeable magnetic disk unit
JP4426939B2 (ja) ストレージ装置
US11132256B2 (en) RAID storage system with logical data group rebuild
US20170177440A1 (en) Distributed Object Storage System
JP4758666B2 (ja) 記憶制御システム及び記憶制御方法
US8386840B2 (en) Distributed object storage system
US7028216B2 (en) Disk array system and a method of avoiding failure of the disk array system
JP5052193B2 (ja) 記憶制御装置および記憶制御方法
US6892276B2 (en) Increased data availability in raid arrays using smart drives
US7073017B2 (en) Efficient update of firmware in a disk-type storage device
US7558988B2 (en) Storage system and control method thereof
US7587631B2 (en) RAID controller, RAID system and control method for RAID controller
JP4583150B2 (ja) ストレージシステム、及びストレージシステムにおけるスナップショットデータ作成方法
US20110078379A1 (en) Storage control unit and data management method
JPWO2006123416A1 (ja) ディスク故障復旧方法及びディスクアレイ装置
JP2007086972A (ja) ストレージシステム、二重化制御方法、及びプログラム
US8327184B2 (en) Storage control system and storage control method
US20090063770A1 (en) Storage control apparatus, storage control program, and storage control method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060913

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091211

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees