JP4985647B2 - 修復プログラム、修復装置および修復方法 - Google Patents
修復プログラム、修復装置および修復方法 Download PDFInfo
- Publication number
- JP4985647B2 JP4985647B2 JP2008537325A JP2008537325A JP4985647B2 JP 4985647 B2 JP4985647 B2 JP 4985647B2 JP 2008537325 A JP2008537325 A JP 2008537325A JP 2008537325 A JP2008537325 A JP 2008537325A JP 4985647 B2 JP4985647 B2 JP 4985647B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- raid
- read
- disk
- raid disk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/08—Error detection or correction by redundancy in data representation, e.g. by using checking codes
- G06F11/10—Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
- G06F11/1076—Parity data used in redundant arrays of independent storages, e.g. in RAID systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2094—Redundant storage or storage space
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B19/00—Driving, starting, stopping record carriers not specifically of filamentary or web form, or of supports therefor; Control thereof; Control of operating function ; Driving both disc and head
- G11B19/02—Control of operating function, e.g. switching from recording to reproducing
- G11B19/04—Arrangements for preventing, inhibiting, or warning against double recording on the same blank or against other recording or reproducing malfunctions
- G11B19/041—Detection or prevention of read or write errors
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/18—Error detection or correction; Testing, e.g. of drop-outs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2211/00—Indexing scheme relating to details of data-processing equipment not covered by groups G06F3/00 - G06F13/00
- G06F2211/10—Indexing scheme relating to G06F11/10
- G06F2211/1002—Indexing scheme relating to G06F11/1076
- G06F2211/1045—Nested RAID, i.e. implementing a RAID scheme in another RAID scheme
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2211/00—Indexing scheme relating to details of data-processing equipment not covered by groups G06F3/00 - G06F13/00
- G06F2211/10—Indexing scheme relating to G06F11/10
- G06F2211/1002—Indexing scheme relating to G06F11/1076
- G06F2211/1059—Parity-single bit-RAID5, i.e. RAID 5 implementations
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/18—Error detection or correction; Testing, e.g. of drop-outs
- G11B20/1816—Testing
- G11B2020/1826—Testing wherein a defect list or error map is generated
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/40—Combinations of multiple record carriers
- G11B2220/41—Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
- G11B2220/415—Redundant array of inexpensive disks [RAID] systems
Description
このようなRAID装置ではデータに冗長性を持たせて保持させることで、障害が起こってもデータを修復することを可能にしている。しかし、そのRAID装置の冗長度を超える障害が発生すると、データを修復することができずに失われてしまう。
本発明はこのような点に鑑みてなされたものであり、データ修復量を減らすことができる修復プログラム、修復装置および修復方法を提供することを目的とする。
まず、実施の形態に適用される発明の概要について説明し、その後、実施の形態の具体的な内容を説明する。
コンピュータ1は、コンピュータ7に直接的または間接的に接続されている。
第1のRAIDディスク2は、データの格納単位を構成するブロックを複数備える分散データを複数のディスク2a、2b、2c、2dに分けて記憶する。分散データは、例えばサーバ(図示せず)が1つのデータを分散して書き込んだデータである。
このようなシステム検出プログラムによれば、障害検出手段3により、第1のRAIDディスク2のブロックの読み出し障害が、読み出し障害が生じたブロックを含む所定領域毎に検出される。この際、要求手段4により、第1のRAIDディスク2内で修復できないブロックの補完が、コンピュータ6に要求される。そしてコンピュータ6からのブロックを受け取ると、上書き手段7により、読み出し障害が生じたブロックに受け取ったブロックが上書きされる。
図2は、実施の形態のシステム構成を示す図である。
モジュール100a、100b(複数のモジュール)は、それぞれ複数のストレージデバイスを有している。モジュール100a、100bには、共通のデータが略同時に書き込まれるよう構成されており、一方が予備としてプールされ、他方がサーバで使用される。すなわち、モジュール100aとモジュール100bとがRAID(Redundant Array of Inexpensive Disks)レベル1(以下、RAID#1という)を構成している。
モジュール100aは、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス105を介してRAM(Random Access Memory)102、ノード103、および通信インタフェース104が接続されている。
図4は、ノードの構造を示す図である。
ノード103のRAIDディスク1031は、例えば1TB程度の記憶容量を有している。RAIDディスク1031は、RAIDレベル5(以下、RAID#5という)を構成する複数のHDD103a、103b、103c、103dを有している。HDD103a、103b、103c、103dのそれぞれ先頭から例えば10MBの領域には論理ボリュームRB1が構成されている。
図5に示すストライプSt1は、複数のブロックを有している。各ブロックの容量は、例えば512B程度である。データのリード/ライトは、ブロック単位で行われる。すなわち、各分散データの格納単位であるストライプの対応するブロック毎にリード/ライトが行われる。
RAID#5は、HDDの故障時にデータを再生成する機能を有している。
例えばCPUからの命令により分散データD11、D12、D13を取り出すときに、分散データD12が壊れている場合は、パリティデータP1によって分散データD12が復活する。このように、パリティデータを利用し、故障したHDDの分散データを他のディスクのデータを使用して再生成することで、システムの停止を回避することができる。
図6は、サーバのハードウェア構成例を示す図である。
このようなハードウェア構成をそれぞれ有するシステムにおいてデータの修復処理を行うために、モジュール100a、100b内には、以下のような機能が設けられる。
モジュール100aは、RAIDディスク110と、RAIDディスク120と、障害検出部(障害検出手段)15と、論理ボリューム特定部16と、変換テーブル記憶部17と、インタフェース部18と応答データ処理部19とを有している。
変換テーブル記憶部17には、変換テーブルが格納されている。
インタフェース部18は、要求データを受け取るとサーバ200に送信する。
図8は、他方のモジュールの機能を示すブロック図である。
ディスク11b、12b、13b、14b、15b、16bにはディスク11、12、13に格納されているデータと同一のデータがそれぞれ二重化(ミラーリング)されて格納されている。詳しくは、ディスク11bのストライプSt21およびディスク14bのストライプSt24にはそれぞれ分散データD11が格納されている。ディスク12bのストライプSt22およびディスク15bのストライプSt25にはそれぞれ分散データD12が格納されている。ディスク13bのストライプSt23およびディスク16bのストライプSt26にはそれぞれ分散データD13が格納されている。
変換テーブル記憶部17、17bには、ノード内の変換テーブルであるノード内変換テーブルとRAIDディスク内の変換テーブルであるRAIDディスク内変換テーブルとが設けられている。
ノード内変換テーブル171aは、RAIDディスク単位で論理ボリュームの管理(割当)がなされている。
論理ボリュームの欄には、RAIDディスクの欄に格納されたRAIDディスク名に対応する論理ボリュームが設定される。図6の例では、論理ボリュームAがRAIDディスク120に対応づけられており、論理ボリュームBがRAIDディスク110に対応づけられている。
図10は、RAIDディスク内変換テーブルを示す図である。
RAIDディスクの欄には、モジュール100a内のRAIDディスク名が設定されている。
一方、モジュール100bの変換テーブル記憶部17bにも同様の構成を有するノード内変換テーブルおよびRAIDディスク内変換テーブルが設けられている。
次に、モジュール100aのRAIDディスク110に読み出し障害が発生した場合のシステムにおける修復処理の概要について説明する。
RAIDディスク110にて読み出し障害が発生した場合、モジュール100aが要求データを生成する(ステップS11)。
次に、サーバ200が、受信した要求データをモジュール100bに送信する(ステップS13)。
次に、モジュール100bが、生成した応答データをサーバ200に送信する(ステップS15)。
次に、モジュール100aが、受信した応答データを用いて復旧処理を行う(ステップS17)。
次に、修復処理におけるモジュール100a側の処理について詳しく説明する。
図12は、一方のモジュールの修復処理を示すフローチャートである。
次に、インタフェース部18が、要求データをサーバ200に送信する(ステップS25)。
次に、修復処理におけるモジュール100b側の処理について詳しく説明する。
図13は、他方のモジュールの修復処理を示すフローチャートである。
以上で修復処理におけるモジュール100b側の処理を終了する。
図14は、復旧処理を示すフローチャートである。
まず、RAIDディスク110内の読み出し障害が発生したブロックのストライプと、パリティデータが格納されているストライプ以外の全てのディスクにおける読み出し障害が発生したブロックに対応するブロックが格納されているストライプを読み出す(ステップS261)。
次に、システムにおける修復処理を、具体例を用いて説明する。
なお、以下では一例として分散データD13のブロックB13とブロックB13を修復するためのパリティデータP1の該当ブロックとに読み出し障害が同時に発生し、RAIDディスク110内での自己修復ができない場合の修復処理について説明する。
インタフェース部18が応答データを受信すると、応答データ処理部19がディスク11、12に格納されている分散データD11、D12を読み出す。そして読み出した分散データD11、D12のブロックB11、B12と、応答データから取り出したブロックB13とから新たなパリティデータP1を作成する。次に、作成したパリティデータP1をディスク14に上書きして、パリティデータを更新する。また、分散データD13を読み出し障害が発生したディスク13の読み出し障害が生じた領域に上書きする。
以上述べたように、本実施の形態のシステムによれば、読み出し障害が発生した場合に、モジュール100aとモジュール100bとの間の冗長構成を利用して修復すべきデータを構築し、それを障害が発生した箇所に上書きすることで容易にデータを修復することができる。これにより、大幅にデータ修復量を低減させることができる。また、データ修復中の記憶手段への他のアクセスの影響を抑制することができる。よってシステムの信頼性を向上させることができる。
以下、第2の実施の形態のシステムについて、前述した第1の実施の形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
図16は、第2の実施の形態のシステムの管理単位を示す図である。
次に、第2の実施の形態の変換テーブル記憶部17に格納されているノード内変換テーブルについて説明する。
ノード内変換テーブル173aは、セグメント単位で論理ボリュームが分散されて管理(割当)がなされている。
論理ボリュームの欄には、論理ボリューム名およびこの論理ボリューム名のセグメント名が設定される。
次に、第2の実施の形態のシステムの修復処理について説明する。
論理ボリューム特定部16は、障害が生じたブロックの位置情報、RAIDディスク内変換テーブル172aおよびセグメントサイズを参照することにより読み出し障害が発生したRAIDディスクのセグメントを特定する。さらにノード内変換テーブル173aを参照することにより読み出し障害が発生したブロックを含む論理ボリュームおよびセグメントを特定する。
インタフェース部18bが要求データを受信した場合、要求データ処理部20bが変換テーブル記憶部17b内のノード内変換テーブルを参照することにより、読み出し障害が発生したブロックを含むRAIDディスクおよびセグメントを特定する。さらに、RAIDディスク内変換テーブルを参照することにより障害が生じたブロックを特定する。次に、要求データ処理部20bが、特定したブロックを含む応答データを生成する。次に、インタフェース部18bが応答データをサーバ200に送信する。
この第2の実施の形態のシステムによれば、前述した第1の実施の形態のシステムと同様の効果が得られる。
以下、第3の実施の形態のシステムについて、前述した第1の実施の形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
第3の実施の形態のシステムは、モジュール100cとモジュール100dを有している。
図18に示すように、モジュール100cは、モジュール100aに比べさらに要求データ処理部20bと同機能の要求データ処理部20cを有している。
図19に示すように、モジュール100dは、モジュール100bに比べさらに障害検出部15dと、論理ボリューム特定部16dと、応答データ処理部19dと、要求データ処理部20dとを有している。
要求データ処理部20dは、要求データ処理部20bと同機能を有している。すなわち、インタフェース部18bから要求データを受け取ると、ノード内変換テーブルおよびRAIDディスク内変換テーブルを参照して、対応するディスクを特定し、そのディスクからブロックを取り出す。そして、取り出したブロックを含む応答データを生成するとともに、障害検出部15dに検出依頼を送る。その後、論理ボリューム特定部16dから要求データを受け取ると、応答データに要求データを付加した応答要求データを生成してインタフェース部18bに送る。検出依頼を送って所定時間要求データの送信がなければ要求データはないものとして応答データをインタフェース部18bに送る。
次に、読み出し障害が発生した場合の第3の実施の形態のシステムの修復処理について説明する。
ステップS41〜S44は、それぞれ第1の実施の形態のシステムのステップS11〜S14と同様の動作を行う。
次に、サーバ200が、受信した応答要求データをモジュール100cに送信する(ステップS48)。
次に、モジュール100cが、受信した応答要求データの要求データの部分に基づいて応答データを生成する(ステップS50)。
次に、サーバ200が、受信した応答データをモジュール100dに送信する(ステップS52)。
以上で修復処理を終了する。
図21および図22は、第3の実施の形態の一方のモジュールの修復処理を示すフローチャートである。
次に、インタフェース部18が、応答データを受信したか否かを判断する(ステップS66)。応答データを受信した場合(ステップS66のYes)。応答データ処理部19が、復旧処理を行う(ステップS67)。そしてモジュール100cの修復処理を終了する。一方、応答データを受信していない場合(ステップS66のNo)、インタフェース部18が、応答要求データを受信したか否かを判断する(ステップS68)。応答要求データを受信していない場合(ステップS68のNo)、ステップS66に移行し、処理を継続する。一方、応答要求データを受信した場合(ステップS68のYes)、応答データ処理部19が、復旧処理を行う(図22のステップS69)。その後、応答要求データを要求データ処理部20cに渡す。
以上で、モジュール100cの修復処理を終了する。
図23は、第3の実施の形態の他方のモジュールの修復処理を示すフローチャートである。
一方、モジュール100cに送信すべき要求データが存在する場合(ステップS83のYes)、要求データ処理部20dが、要求応答データを生成する(ステップS86)。
次に、インタフェース部18bが、ステップS87で送信した応答要求データに対する応答データを受信したか否かを判断する(ステップS88)。応答データを受信していない場合(ステップS88のNo)、応答データを待機する。一方、応答データを受信した場合(ステップS88のYes)、応答データ処理部19が、復旧処理を行う(ステップS89)。
次に、第3の実施の形態のシステムの修復処理について具体例を用いて説明する。本実施の形態では、一例としてモジュール100cのディスク13の分散データD13のブロックB13とブロックB13を修復するためのパリティデータPの該当ブロックとモジュール100dのディスク11bの分散データD11のブロックB11とディスク14bの分散データD11のブロックB11とに読み出し障害が発生した場合について説明する。
モジュール100cのインタフェース部18が応答要求データを受信すると、応答データ処理部19がディスク11、12に格納されている分散データD11、D12を読み出す。そして読み出した分散データD11、D12のブロックB11、B12と、応答要求データから取り出したブロックB13とから新たなパリティデータP1を作成する。次に、作成したパリティデータP1をディスク14に上書きして、パリティデータを更新する。また、ディスク13の読み出し障害が生じた領域に分散データD13を上書きする。その後、応答要求データを要求データ処理部20に渡す。そして、要求データ処理部20が、ノード内変換テーブル171aおよびRAIDディスク内変換テーブル172aを参照することによりディスク11bを特定する。そして、要求データ処理部20が算出した分散データD11内のブロックB11をディスク11bから取り出し、応答データを生成する。そして、インタフェース部18bが応答データをサーバ200に送信する。
インタフェース部18bが応答データを受信すると、応答データ処理部19dがディスク11b、14bの各ブロックB11を上書きする。以上で修復処理が終了する。
そして、第3の実施形態のシステムによれば、モジュール100cとモジュール100dの双方に読み出し障害が発生した場合においても、ノード間での冗長構成と、ノード内での冗長構成とを協調させて動作させることにより、容易かつ確実に所望のデータを修復させることができる。
なお、前述した各実施の形態では、ブロック単位でデータのやり取りを行ったが、本発明ではこれに限らず、例えばストライプ単位でデータのやり取りを行ってもよい。この場合例えば障害検出部15は、読み出し障害の検出は、ストライプ単位で行うようにしてもよい。
2 第1のRAIDディスク
2a、2a、2b、2c、11、11b、12、12b、13、13b、14、14b、15b、16b、21、22 ディスク
3 障害検出手段
4 要求手段
5 第2のRAIDディスク
7 上書き手段
15、15d 障害検出部
16、16d 論理ボリューム特定部
17、17b 変換テーブル記憶部
18、18b インタフェース部
19、19d 応答データ処理部
20、20b、20c、20d 要求データ処理部
100a、100b、100c、100d モジュール
103a、103b、103c、103d HDD
110、120、1031、1032 RAIDディスク
171a、172a、173a 変換テーブル
200 サーバ
St1、St11〜St14、St21〜St26 ストライプ
Claims (7)
- RAIDディスクに格納された一部のデータについて読み出し障害が発生した場合に修復処理を行う修復プログラムにおいて、
データが複数のRAIDディスクに冗長構成で記憶されるシステムにおける前記複数のRAIDディスクのうち第1のRAIDディスクに接続されるコンピュータに、
前記第1のRAIDディスクで発生したデータの読み出し障害を検出し、
前記読み出し障害が前記第1のRAIDディスク内で修復できない場合に、前記読み出し障害が発生したデータの補完要求を、前記読み出し障害が発生したデータに対応する冗長データを記憶する第2のRAIDディスクに接続される他のコンピュータに送信し、
前記他のコンピュータから前記補完要求に応じた第2のデータを受信すると、前記読み出し障害が発生した前記第1のRAIDディスクの読み出し障害が発生した領域に、受信した前記第2のデータを上書きする、
処理を実行させることを特徴とする修復プログラム。 - 前記読み出し障害を検出する処理は、前記読み出し障害が生じたブロック単位に検出することを特徴とする請求項1記載の修復プログラム。
- 前記読み出し障害を検出する処理は、前記読み出し障害が生じたブロックをストライプ単位に検出することを特徴とする請求項1記載の修復プログラム。
- 前記読み出し障害を検出する処理は、前記読み出し障害を、前記第1のRAIDディスクの論理ボリュームの一部に対応づけられているセグメント単位に検出することを特徴とする請求項1記載の修復プログラム。
- 前記コンピュータに、さらに前記第2のRAIDディスクで生じたブロックの読み出し障害による前記他のコンピュータからの前記ブロックの補完要求を受信し、
前記ブロックの前記補完要求を受信した場合、前記補完要求に対応する前記ブロックを前記第1のRAIDディスクから取り出し、
取り出した前記ブロックを、前記他のコンピュータに送信する、
処理を実行させることを特徴とする請求項2記載の修復プログラム。 - RAIDディスクに格納された一部のデータについて読み出し障害が発生した場合に修復処理を行う修復装置において、
前記修復装置は、
データが複数のRAIDディスクに冗長構成で記憶されるシステムにおける前記複数のRAIDディスクのうち第1のRAIDディスクに接続され、
前記第1のRAIDディスクで発生したデータの読み出し障害を検出する障害検出部と、
前記読み出し障害が前記第1のRAIDディスク内で修復できない場合に、前記読み出し障害が発生したデータの補完要求を、前記読み出し障害が発生したデータに対応する冗長データを記憶する第2のRAIDディスクに接続される他の装置に送信する送信部と、
前記他の装置から前記補完要求に応じた第2のデータを受信すると、前記読み出し障害が発生した前記第1のRAIDディスクの読み出し障害が発生した領域に、受信した前記第2のデータを上書きする上書き部と、
を有することを特徴とする修復装置。 - RAIDディスクに格納された一部のデータについて読み出し障害が発生した場合に修復処理を行う修復方法において、
データが複数のRAIDディスクに冗長構成で記憶されるシステムにおける前記複数のRAIDディスクのうち第1のストレージデバイスに接続されるコンピュータが、
前記第1のRAIDディスクで発生したデータの読み出し障害を検出し、
前記読み出し障害が前記第1のRAIDディスク内で修復できない場合に、前記読み出し障害が発生したデータの補完要求を、前記読み出し障害が発生したデータに対応する冗長データを記憶する第2のRAIDディスクに接続される他のコンピュータに送信し、
前記他のコンピュータから前記補完要求に応じた第2のデータを受信すると、前記読み出し障害が発生した前記第1のRAIDディスクの読み出し障害が発生した領域に、受信した前記第2のデータを上書きする、
ことを特徴とする修復方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2006/319411 WO2008041267A1 (fr) | 2006-09-29 | 2006-09-29 | Programme, dispositif et procédé de gestion de système |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2008041267A1 JPWO2008041267A1 (ja) | 2010-01-28 |
JP4985647B2 true JP4985647B2 (ja) | 2012-07-25 |
Family
ID=39268134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008537325A Expired - Fee Related JP4985647B2 (ja) | 2006-09-29 | 2006-09-29 | 修復プログラム、修復装置および修復方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8276017B2 (ja) |
JP (1) | JP4985647B2 (ja) |
WO (1) | WO2008041267A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8392813B2 (en) * | 2009-12-22 | 2013-03-05 | Intel Corporation | Redundant file system |
CN108733518B (zh) * | 2017-04-17 | 2021-07-09 | 伊姆西Ip控股有限责任公司 | 用于管理存储系统的方法、设备和计算机可读介质 |
WO2021017009A1 (en) * | 2019-08-01 | 2021-02-04 | Advanced New Technologies Co., Ltd. | Shared blockchain data storage based on error correction code |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744322A (ja) * | 1991-07-03 | 1995-02-14 | Internatl Business Mach Corp <Ibm> | Dasdアレイの階層を管理する方法および装置 |
JPH0816328A (ja) * | 1994-06-28 | 1996-01-19 | Mitsubishi Electric Corp | ディスクアレイシステム |
JPH09305327A (ja) * | 1996-05-20 | 1997-11-28 | Pfu Ltd | ディスク装置 |
JPH11224166A (ja) * | 1998-02-05 | 1999-08-17 | Toshiba Corp | ログ書き込み方式のディスク記憶装置に於ける記憶領域の障害回避方法、及びディスク記憶装置、同装置に用いられるコンピュータ読込み可能な記憶媒体 |
JP2000076207A (ja) * | 1998-08-28 | 2000-03-14 | Nippon Telegr & Teleph Corp <Ntt> | 分散記憶方法及び分散記憶システム及び分散記憶プログラムを記録した記録媒体 |
JP2001307410A (ja) * | 2000-04-26 | 2001-11-02 | Matsushita Electric Ind Co Ltd | 磁気ディスク装置、データ記録方法、およびデータ再生方法 |
JP2005293119A (ja) * | 2004-03-31 | 2005-10-20 | Toshiba Solutions Corp | ディスクアレイ制御装置、同装置に適用されるデータ欠損検出時の処理方法及びプログラム |
JP2005346212A (ja) * | 2004-05-31 | 2005-12-15 | Toshiba Corp | ディスクアレイコントローラおよび情報処理装置 |
JP2006505035A (ja) * | 2002-11-01 | 2006-02-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ディスク・アレイ内に多重従属故障または任意の二重ディスク故障があっても使用することができる方法および手段 |
JP2006065773A (ja) * | 2004-08-30 | 2006-03-09 | Toshiba Corp | 計算機システム及び同システムに適用される論理ユニット切り替え方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5581690A (en) * | 1993-06-29 | 1996-12-03 | Digital Equipment Corporation | Method and apparatus for preventing the use of corrupt data in a multiple disk raid organized storage system |
US6195761B1 (en) * | 1997-12-31 | 2001-02-27 | Emc Corporation | Method and apparatus for identifying and repairing mismatched data |
US6941490B2 (en) * | 2000-12-21 | 2005-09-06 | Emc Corporation | Dual channel restoration of data between primary and backup servers |
JP2004265567A (ja) * | 2003-02-14 | 2004-09-24 | Ricoh Co Ltd | 情報記録再生装置とディスク装置とプログラムとコンピュータ読み取り可能な記録媒体と欠陥領域交替方法 |
GB0320494D0 (en) * | 2003-09-02 | 2003-10-01 | Ibm | Methods apparatus and controllers for a raid storage system |
US20050283654A1 (en) * | 2004-05-24 | 2005-12-22 | Sun Microsystems, Inc. | Method and apparatus for decreasing failed disk reconstruction time in a raid data storage system |
-
2006
- 2006-09-29 WO PCT/JP2006/319411 patent/WO2008041267A1/ja active Application Filing
- 2006-09-29 JP JP2008537325A patent/JP4985647B2/ja not_active Expired - Fee Related
-
2009
- 2009-03-12 US US12/403,166 patent/US8276017B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744322A (ja) * | 1991-07-03 | 1995-02-14 | Internatl Business Mach Corp <Ibm> | Dasdアレイの階層を管理する方法および装置 |
JPH0816328A (ja) * | 1994-06-28 | 1996-01-19 | Mitsubishi Electric Corp | ディスクアレイシステム |
JPH09305327A (ja) * | 1996-05-20 | 1997-11-28 | Pfu Ltd | ディスク装置 |
JPH11224166A (ja) * | 1998-02-05 | 1999-08-17 | Toshiba Corp | ログ書き込み方式のディスク記憶装置に於ける記憶領域の障害回避方法、及びディスク記憶装置、同装置に用いられるコンピュータ読込み可能な記憶媒体 |
JP2000076207A (ja) * | 1998-08-28 | 2000-03-14 | Nippon Telegr & Teleph Corp <Ntt> | 分散記憶方法及び分散記憶システム及び分散記憶プログラムを記録した記録媒体 |
JP2001307410A (ja) * | 2000-04-26 | 2001-11-02 | Matsushita Electric Ind Co Ltd | 磁気ディスク装置、データ記録方法、およびデータ再生方法 |
JP2006505035A (ja) * | 2002-11-01 | 2006-02-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ディスク・アレイ内に多重従属故障または任意の二重ディスク故障があっても使用することができる方法および手段 |
JP2005293119A (ja) * | 2004-03-31 | 2005-10-20 | Toshiba Solutions Corp | ディスクアレイ制御装置、同装置に適用されるデータ欠損検出時の処理方法及びプログラム |
JP2005346212A (ja) * | 2004-05-31 | 2005-12-15 | Toshiba Corp | ディスクアレイコントローラおよび情報処理装置 |
JP2006065773A (ja) * | 2004-08-30 | 2006-03-09 | Toshiba Corp | 計算機システム及び同システムに適用される論理ユニット切り替え方法 |
Also Published As
Publication number | Publication date |
---|---|
US8276017B2 (en) | 2012-09-25 |
US20090177917A1 (en) | 2009-07-09 |
WO2008041267A1 (fr) | 2008-04-10 |
JPWO2008041267A1 (ja) | 2010-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11163472B2 (en) | Method and system for managing storage system | |
US10365983B1 (en) | Repairing raid systems at per-stripe granularity | |
CN101571815B (zh) | 信息系统及i/o处理方法 | |
JP4767139B2 (ja) | ストレージ管理プログラム、ストレージ管理装置、およびストレージ管理方法 | |
JP4821448B2 (ja) | Raidコントローラおよびraid装置 | |
CN102024044B (zh) | 分布式文件系统 | |
JP4958739B2 (ja) | 障害の発生した記憶装置に記憶されているデータを修復するストレージシステム | |
US20090150629A1 (en) | Storage management device, storage system control device, storage medium storing storage management program, and storage system | |
JP2010015195A (ja) | 記憶制御装置及び記憶制御方法 | |
CN103534688A (zh) | 数据恢复方法、存储设备和存储系统 | |
JP2010282324A (ja) | ストレージ制御装置、ストレージシステムおよびストレージ制御方法 | |
JP4985647B2 (ja) | 修復プログラム、修復装置および修復方法 | |
US7529776B2 (en) | Multiple copy track stage recovery in a data storage system | |
US20090177916A1 (en) | Storage system, controller of storage system, control method of storage system | |
JP2006285527A (ja) | ストレージ装置およびプログラム。 | |
JP2004213470A (ja) | ディスクアレイ装置及びディスクアレイ装置におけるデータ書き込み方法 | |
JP4460596B2 (ja) | ディスク管理方法、ディスク管理装置およびストレージシステム | |
JP4143040B2 (ja) | ディスクアレイ制御装置、同装置に適用されるデータ欠損検出時の処理方法及びプログラム | |
US8578206B2 (en) | Disk controller and disk control method | |
JP2014119831A (ja) | ストレージ装置、制御方法及び制御プログラム | |
JP6175771B2 (ja) | ディスクアレイ装置、バッドセクタ修復方法および修復プログラム | |
US8930748B2 (en) | Storage apparatus and controller | |
CN107122261B (zh) | 一种存储设备的数据读写方法及装置 | |
JP2007128551A (ja) | ストレージエリアネットワークシステム | |
JP2007293738A (ja) | ストレージシステムおよびストレージシステムの情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110527 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120308 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120416 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150511 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |