JP2021174463A - Raid制御装置、raid制御方法及びプログラム - Google Patents

Raid制御装置、raid制御方法及びプログラム Download PDF

Info

Publication number
JP2021174463A
JP2021174463A JP2020080632A JP2020080632A JP2021174463A JP 2021174463 A JP2021174463 A JP 2021174463A JP 2020080632 A JP2020080632 A JP 2020080632A JP 2020080632 A JP2020080632 A JP 2020080632A JP 2021174463 A JP2021174463 A JP 2021174463A
Authority
JP
Japan
Prior art keywords
storage device
raid
copy
data
update management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020080632A
Other languages
English (en)
Other versions
JP7088567B2 (ja
Inventor
和幸 南雲
Kazuyuki Nagumo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2020080632A priority Critical patent/JP7088567B2/ja
Publication of JP2021174463A publication Critical patent/JP2021174463A/ja
Application granted granted Critical
Publication of JP7088567B2 publication Critical patent/JP7088567B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)

Abstract

【課題】第1の記憶装置に障害が発生した場合であっても、RAIDを早期に復旧させるとともに、第1の記憶装置が記憶するデータの更新が連続して発生する場合であっても、第1の記憶装置が記憶するデータを第2の記憶装置にコピーする処理の負荷を小さくするRAID制御装置、RAID制御方法及びプログラムを提供する。【解決手段】RAID制御装置は、所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーする処理部を備える。【選択図】図1

Description

本発明は、RAID制御装置、RAID制御方法及びプログラムに関する。
特許文献1では、第1の記憶装置と、その第1の記憶装置のバックアップを記憶する第2の記憶装置を備えるストレージシステムについて開示されている。この特許文献1では、第1の記憶装置が記憶するデータを、第2の記憶装置にコピーしておくことにより、第1の記憶装置に障害が発生した場合であっても、第2の記憶装置にコピーされたデータを用いて、ストレージシステムの機能を維持することについて開示されている。
また、特許文献2でも、第1の記憶装置と、その第1の記憶装置のバックアップを記憶する第2の記憶装置を備えるストレージシステムについて開示されている。この特許文献2では、第1の記憶装置のデータの更新要求を受けた場合であって、第1の記憶装置のデータが、第2の記憶装置にコピーされていない場合には、第1の記憶装置のデータを、優先的に、第2の記憶装置にコピーすることについて開示されている。
特開2012−185575号公報 特開2007−310701号公報
しかし、特許文献1や特許文献2では、第1の記憶装置が記憶するデータの更新が連続して発生する場合には、何度も、第1の記憶装置が記憶するデータを、第2の記憶装置にコピーする必要があり、そのコピーの処理の負荷が大きくなる。
そこで、この発明は、上述の課題を解決するRAID制御装置、RAID制御方法及びプログラムを提供することを目的としている。
本発明の第1の態様は、所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーする処理部を備えるRAID制御装置である。
また、本発明の第2の態様は、所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーするRAID制御方法である。
また、本発明の第3の態様は、RAID制御装置のコンピュータを、所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーする処理手段として機能させるプログラムである。
本発明によれば、第1の記憶装置に障害が発生した場合であっても、RAIDを早期に復旧させることができるとともに、第1の記憶装置が記憶するデータの更新が連続して発生する場合であっても、第1の記憶装置が記憶するデータを第2の記憶装置にコピーする処理の負荷を小さくすることができる。
第1の実施形態におけるストレージ装置のハードウェア構成等を示す図である。 第1の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第1の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第1の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第1の実施形態におけるコピーマップが記憶するコピーステート値について説明する図である。 第1の実施形態におけるストレージ装置の初期状態を示す図である。 図4に示す状態から、RAIDが記憶するデータが更新される場合について説明する図である。 図5に示す状態から、データの更新が発生するとともに、定期チェックが行われる場合について説明する図である。 図6に示す状態から、コピー部によるコピー処理が実行される場合について説明する図である。 図7に示す状態から、RAIDを構成する物理ディスクが縮退した場合に、スペアディスクである物理ディスクを使用して、RAIDの修復処理を行う場合について説明する図である。 第1の実施形態における更新管理部によるデータ更新処理を示すフローチャートである。 第1の実施形態における更新管理部による更新管理テーブルチェック処理を示すフローチャートである。 第1の実施形態におけるコピー部によるコピー処理を示すフローチャートである。 第1の実施形態におけるコピー部によるRAID修復処理を示すフローチャートである。 第2の実施形態におけるストレージ装置のハードウェア構成等を示す図である。 第2の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第2の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第2の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第2の実施形態における制御用メモリが記憶するデータの一例を示す図である。 第2の実施形態におけるストレージ装置の初期状態を示す図である。 図15に示す状態から、RAIDが記憶するデータが更新される場合について説明する図である。 図16に示す状態から、データの更新が発生するとともに、定期チェックが行われる場合について説明する図である。 図17に示す状態から、コピー部によるコピー処理が実行される場合について説明する図である。 図18に示す状態から、RAIDを構成する物理ディスクが縮退した場合に、スペアディスクである物理ディスクを使用して、RAIDの修復処理を行う場合について説明する図である。 第2の実施形態における更新管理部による更新管理テーブルチェック処理を示すフローチャートである。 第2の実施形態におけるコピー部によるコピー処理を示すフローチャートである。 第2の実施形態におけるコピー部によるRAID修復処理を示すフローチャートである。 最小構成を有するストレージ装置の構成を示すブロック図である。 最小構成を有するストレージ装置の処理を示すフローチャートである。
以下、本発明のいくつかの実施形態を、図面を参照して説明する。
[第1の実施形態]
始めに、第1の実施形態について説明する。
図1は、第1の実施形態におけるストレージ装置100aのハードウェア構成等を示す図である。
ストレージ装置100a(RAID制御装置とも称する)は、インタフェース制御部110と、マイクロプロセッサ120a(処理部とも称する)と、制御用メモリ130aと、RAID(Redundant Arrays of Inexpensive Disks)制御部140と、物理ディスク15−1〜15−M(Mは自然数)により構成されている。ストレージ装置100aは、インタフェース制御部110を介してホストコンピュータ160と接続される。
RAID制御部140は、物理ディスク15−1〜15−Mと接続され、RAIDの構成を管理する。また、RAID制御部140は、マイクロプロセッサ120aのデータ入出力指示に基づき、インタフェース制御部110と情報のやり取りを行う。
マイクロプロセッサ120aは、更新管理部121aおよびコピー部122aを備える。更新管理部121aは、RAIDへのデータ更新が発生した際に、後述する更新管理テーブル131とコピーマップ132の更新を行う。また、更新管理部121aは、定期的に更新管理テーブル131の確認を行い、コピーマップ132の更新を行う。
コピー部122aは、コピーマップ132を定期的にチェックし、必要に応じてRAIDからスペアディスクへのコピーを行う。また、コピー部122aは、RAID修復時にもコピーマップ132をチェックしながら、RAIDからスペアディスクへのコピーを行う。
制御用メモリ130aは、更新管理テーブル131と、コピーマップ132と、RAID対応テーブル133を記憶する。更新管理テーブル131では、RAIDの該当領域にデータ更新が発生したタイミングが記憶される。コピーマップ132では、RAIDとスペアディスク間でのコピー要否の状態が管理される。RAID対応テーブル133では、RAIDとスペアディスクの対応関係が記憶される。
図2A〜図2Cは、第1の実施形態における制御用メモリ130aが記憶するデータの一例を示す図である。第1の実施形態では、制御用メモリ130aは、更新管理テーブル131と、コピーマップ132と、RAID対応テーブル133を記憶する。
図2Aに示す更新管理テーブル131は、ストレージ装置100a内に構成されたRAIDグループ#0〜#N(Nは、自然数)と、物理ディスクが有する記憶領域であるStrip#0〜Strip#P(Pは、自然数)のそれぞれの組み合わせごとに、ユニークID(unique ID)を記憶する。例えば、図2Aでは、更新管理テーブル131は、RAIDグループ#0と、Strip#0の組み合わせとして、ユニークID“1800”を記憶している場合を示している。
図2Bに示すコピーマップ132は、物理ディスクを示すPD#0〜PD#M(Mは、自然数)と、物理ディスクが有する記憶領域であるStrip#0〜Strip#Pのそれぞれの組み合わせごとに、コピーステート値を記憶する。コピーステート値は、“0”、“1”、“2”のいずれかの値をとる。例えば、図2Bでは、コピーマップ132は、PD#0と、Strip#0の組み合わせとして、コピーステート値“0”を記憶している場合を示している。
図2Cに示すRAID対応テーブル133は、ストレージ装置100a内に構成されたRAIDグループ#0〜#Nと、ディスク(物理ディスク、スペアディスク)との関係を記憶している。例えば、図2Cでは、RAID対応テーブル133は、RAIDグループ#0が、物理ディスク15−1及び15−2であるPD#0及びPD#1(第1の記憶装置とも称する)と、スペアディスクとして機能する物理ディスク15−3であるPD#2(第2の記憶装置とも称する)から構成されることを示している。第1の実施形態では、RAIDグループ#0が用いられる場合について説明する。
図3は、第1の実施形態におけるコピーマップ132が記憶するコピーステート値について説明する図である。図3において、コピーステート値“0”は、「RAIDとスペアディスクでデータが不一致であり、コピー対象外の領域」であることを意味している。
また、コピーステート値“1”は、「RAIDからスペアディスクへのコピーが必要な領域」であることを意味している。
また、コピーステート値“2”は、「RAIDとスペアディスクでデータが一致している領域」であることを意味している。
図4は、第1の実施形態におけるストレージ装置100aの初期状態を示す図である。図4では、更新管理部121aには、ユニークIDとして“400”が設定されており、閾値として“1200”が設定されている。
更新管理部121aは、更新管理テーブル131、コピーマップ132を制御する。また、コピー部122aは、RAID400、物理ディスク15−3、コピーマップ132を制御する。
ここでは、物理ディスク15−1および物理ディスク15−2を使用し、ミラーリング(RAID1とも呼ばれる)で作成されたRAID400が構築されている。物理ディスク15−1、物理ディスク15−2は、コピーマップ132(図2B参照)およびRAID対応テーブル133(図2C参照)におけるPD#0、PD#1に対応する。
RAID400を構成する物理ディスク15−1および物理ディスク15−2の記憶領域には、それぞれ、データ“A0”、“B0”、“C0”、“D0”、“E0”、“F0”が記憶されている。例えば、データ“A0”、“B0”、“C0”、“D0”、“E0”、“F0”は、更新管理テーブル131(図2A参照)およびコピーマップ132(図2B参照)におけるStrip#0〜#5に記憶される。
第1の実施形態では、RAID400に対し、物理ディスク15−3をスペアディスクとして用いる。物理ディスク15−3は、コピーマップ132(図2B参照)およびRAID対応テーブル133(図2C参照)におけるPD#2に対応する。
RAID400に対応する更新管理テーブル131を用い、スペアディスクである物理ディスク15−3に対してコピーマップ132を用いる。更新管理テーブル131およびコピーマップ132には、初期値としてコピーステート値“0”が設定されている。更新管理部121aは、図2Bのコピーマップ132が記憶するユニークIDを管理し、定期的にユニークIDをカウントアップする。例えば、更新管理部121aは、現在時刻を使用して、所定時間が経過する度に、ユニークIDをカウントアップしたり、ストレージ装置100aが起動してからの経過時間を使用してユニークIDをカウントアップしたりする。ここでは、ストレージ装置100aが起動してからの秒数をユニークIDとして使用する場合について説明する。
図5は、図4に示す状態から、RAID400が記憶するデータが更新される場合について説明する図である。図5では、更新管理部121aには、ユニークIDとして“600”が設定されており、閾値として“1200”が設定されている。
図4において物理ディスク15−1および物理ディスク15−2に記憶されていたデータ“C0”が、図5では、データ“C1”に更新される。
ディスクアレイ装置であるRAID400にデータの更新が発生すると、更新管理部121aは、現在のユニークIDを更新管理テーブル131に書き込み、どのタイミングでデータ更新が発生したかを記憶する。また、更新管理部121aは、コピーマップ132にコピーステート値“0”を書き込むことにより、RAID400と、スペアディスクである物理ディスク15−3との間でデータが不一致であり、コピー対象外の領域であることを記憶させる。
図6は、図5に示す状態から、データの更新が発生するとともに、定期チェックが行われる場合について説明する図である。図6では、更新管理部121aには、ユニークIDとして“4000”が設定されており、閾値として“1200”が設定されている。
ここでは、ユニークIDが、“1200”、“1800”、“2400”、“3000”、“3600”の時に、“B1”、“E1”、“A1”、“D1”、“F1”のデータ更新が発生する場合について説明する。また、ユニークIDが“4000”の時に、更新管理部121aの定期チェックが行われる場合について説明する。
更新管理部121aが定期的に更新管理テーブル131のチェックを行う際には、更新管理部121aは、現在のユニークIDと、更新管理テーブル131に記憶されている値との差分をとり、その差分が閾値を越えているかをチェックする。もし閾値を越えていた場合は、更新管理部121aは、コピーマップ132のコピーステート値を、“0”から、RAID400からスペアディスクへのコピーが必要な事を示す値“1”に変更する。
図6では、データ“A1”の領域については、現在のユニークIDとの差分が“1600”(=4000−2400)であり、閾値である“1200”を超えているので、更新管理部121aは、コピーマップ132の値を、“0”から“1”に変更する。データ“D1”の領域については、現在のユニークIDとの差分が“1000”(=4000−3000)であり、閾値である“1200”を超えていないので、更新管理部121aは、コピーマップ132のコピーステート値は変更しない。
図7は、図6に示す状態から、コピー部122aによるコピー処理が実行される場合について説明する図である。図7では、更新管理部121aには、ユニークIDとして“4000”が設定されており、閾値として“1200”が設定されている。
コピー部122aは、コピーマップ132のコピーステート値を確認し、コピーステート値が“1”の領域を見つけると、RAID400からスペアディスク(つまり、物理ディスク15−3)にデータのコピーを行う。その後、コピー部122aは、コピーマップ132のコピーステート値を、RAID400とスペアディスクでデータが一致していることを示す値である“2”に変更する。
ここで、コピー部122aがスペアディスクへのコピーを完了する前に新たなデータ更新処理を受け取った場合(例えば図6において、データ“A1”が“A2”に更新された場合)は、更新管理部121aによってコピーマップ132のコピーステート値が“0”に更新されるため、RAID400からスペアディスクへのコピー対象から除外される。
図8は、図7に示す状態から、RAID400を構成する物理ディスク15−1が縮退した場合に、スペアディスクである物理ディスク15−3を使用して、RAID400の修復処理を行う場合について説明する図である。図8では、更新管理部121aには、ユニークIDとして“4100”が設定されており、閾値として“1200”が設定されている。
RAID400の状態を維持するためには、RAID400を構成している物理ディスク15−2のデータと、スペアディスクである物理ディスク15−3のデータを一致させる必要がある。コピー部122aは、コピーマップ132を参照し、コピーステート値が“0”または“1”である場合は、物理ディスク15−2から物理ディスク15−3へデータのコピーを行う。コピーマップ132の値が“2”である場合は、すでに物理ディスク15−2と物理ディスク15−3のデータは一致している状態なので、データのコピーは不要となる。
図9は、第1の実施形態における更新管理部121aによるデータ更新処理を示すフローチャートである。
始めに、更新管理部121aは、インタフェース制御部110を介してホストコンピュータ160から、データ更新要求を受信したか否かについて判定する(ステップS901)。データ更新要求を受信していない場合には(ステップS901でNo)、更新管理部121aは、所定時間の経過後に、再度、ステップS901の処理を行う。
一方、データ更新要求を受信した場合には(ステップS901でYes)、更新管理部121aは、RAID制御部140を介して、RAID400を構成する物理ディスク15−1および物理ディスク15−2のデータの更新を行う(ステップS902)。
次に、更新管理部121aは、更新管理テーブル131に現在のユニークIDの値を登録する(ステップS903)。
次に、更新管理部121aは、コピーマップ132のコピーステート値を“0”に更新し(ステップS904)、図9のフローチャートによる処理を終了する。
図10は、第1の実施形態における更新管理部121aによる更新管理テーブルチェック処理を示すフローチャートである。
始めに、更新管理部121aは、どの領域に対して更新管理テーブル131のチェックを行うか決定する(ステップS1001)。例えば、更新管理部121aは、RAID400の若いアドレスから順に検索しながら、チェックを行う領域を決定する。
次に、更新管理部121aは、更新管理テーブル131に記憶されている値と、更新管理部121aが記憶している現在のユニークIDの値の差分を計算する(ステップS1002)。
次に、更新管理部121aは、ステップS1002で計算した差分が、更新管理部121aが記憶している閾値を越えているか否かを判定する(ステップS1003)。計算した差分が閾値を越えていると判定した場合には(ステップS1003でYes)、更新管理部121aは、コピーマップ132のコピーステート値を、“0”から“1”に更新し(ステップS1004)、ステップS1005の処理を行う。
一方、計算した差分が閾値を越えていないと判定した場合にも(ステップS1003でNo)、更新管理部121aは、ステップS1005の処理を行う。
つまり、更新管理部121aは、更新管理テーブル131の全領域のチェックが終了したか否かについて判定する(ステップS1005)。更新管理テーブル131の全領域のチェックが終了したと判定した場合には(ステップS1005でYes)、更新管理部121aは、図10に示すフローチャートの処理を終了する。
一方、更新管理テーブル131の全領域のチェックが終了していないと判定した場合には(ステップS1005でNo)、更新管理部121aは、ステップS1001の処理を再度行うことにより、更新管理テーブル131の次の領域のチェックを行う。
図11は、第1の実施形態におけるコピー部122aによるコピー処理を示すフローチャートである。
始めに、コピー部122aは、コピーマップ132のどの領域に対してチェックを行うか決定する(ステップS1101)。例えば、コピー部122aは、図2Bのコピーマップ132において、Strip#PのPの数字が小さい順に、チェックを行う。
次に、コピー部122aは、ステップS1101でチェックを行うと決定した領域におけるコピーマップ132のコピーステート値が“1”であるか否かについて判定する(ステップS1102)。ステップS1101でチェックを行うと決定した領域におけるコピーマップ132のコピーステート値が“1”ではないと判定した場合には(ステップS1102でNo)、コピー部122aは、後述するステップS1105の処理を行う。
一方、ステップS1101でチェックを行うと決定した領域におけるコピーマップ132のコピーステート値が“1”であると判定した場合には(ステップS1102でYes)、コピー部122aは、RAID400のデータを、スペアディスクである物理ディスク15−3にコピーする(ステップS1103)。
次に、コピー部122aは、ステップS1101でチェックを行うと決定した領域におけるコピーマップ132のコピーステート値を“2”に設定し(ステップS1104)、ステップS1105の処理を行う。
つまり、コピー部122aは、コピーマップ132の全領域のチェックが終了したか否かについて判定する(ステップS1105)。コピーマップ132の全領域のチェックが終了したと判定した場合には(ステップS1105でYes)、コピー部122aは、図11に示すフローチャートの処理を終了する。
一方、コピーマップ132の全領域のチェックが終了していないと判定した場合には(ステップS1105でNo)、コピー部122aは、ステップS1101の処理を再度行うことにより、コピーマップ132の次の領域のチェックを行う。
図12は、第1の実施形態におけるコピー部122aによるRAID修復処理を示すフローチャートである。
始めに、コピー部122aは、コピーマップ132のどの領域に対してチェックを行うかを決定する(ステップS1201)。例えば、コピー部122aは、図2Bのコピーマップ132において、Strip#PのPの数字が小さい順に、チェックを行う。
次に、コピー部122aは、コピーマップ132のコピーステート値が“2”であるか判定する(ステップS1202)。コピーマップ132のコピーステート値が“2”である場合には(ステップS1202でYes)、コピー部122aは、後述するステップS1204の処理を行う。
一方、コピーマップ132のコピーステート値が“2”ではない場合には(ステップS1202でNo)、コピー部122aは、RAID400から、スペアディスクである物理ディスク15−3にデータをコピーし(ステップS1203)、ステップS1204の処理を行う。
つまり、コピー部122aは、コピーマップ132の全領域のチェックが終了したか否かについて判定する(ステップS1204)。コピーマップ132の全領域のチェックが終了したと判定した場合には(ステップS1204でYes)、コピー部122aは、図12に示すフローチャートの処理を終了する。
一方、コピーマップ132の全領域のチェックが終了していないと判定した場合には(ステップS1204でNo)、コピー部122aは、ステップS1201の処理を再度行うことにより、コピーマップ132の次の領域のチェックを行う。
第1の実施形態によれば、事前に(つまり、RAID400に縮退などの異常が生じる前に)、スペアディスクである物理ディスク15−3に、RAID400のデータをコピーしておくことで、RAID400の修復を行う際の時間を短くすることができる。
この時、コピー部122aは、スペアディスクへのコピーを、ホストI/O(Input/Output)とは非同期に実行するため、ホストI/Oへの影響を抑えることができる。
また、コピー部122aは、スペアディスクへのコピーを、RAID400の更新頻度が少ない領域に対してのみ行うことで、RAID400を構成する物理ディスク15−1および15−2や、スペアディスクである物理ディスク15−3へのアクセス負荷を抑えることができる。
第1の実施形態によれば、RAID400を構成する物理ディスクに縮退などの障害が発生した場合に、RAID400から、スペアディスクに全てのデータをコピーするのではなく、スペアディスクに保存されていないデータのみを、RAID400からスペアディスクに保存するようにすることにより、RAID400からスペアディスクにコピーするデータの量を少なくすることができ、RAID400を早期に復旧することができる。
また、RAID400を構成する物理ディスクが記憶するデータの更新が連続して発生する場合であっても、RAID400からスペアディスクである物理ディスク15−3へのデータのコピーは、所定の条件が満たされた場合(つまり、図12のステップS1202でNoと判定された場合)に行われるため、RAID400のデータが更新される度に、そのデータを、スペアディスクにコピーする必要が無くなり、RAID400を構成する物理ディスクからスペアディスクへデータをコピーする処理の負荷を小さくすることができる。
[第2の実施形態]
次に、第2の実施形態について説明する。
図13は、第2の実施形態におけるストレージ装置100bのハードウェア構成等を示す図である。第2の実施形態におけるストレージ装置100bは、マイクロプロセッサ120b、制御用メモリ130bを備える点において、マイクロプロセッサ120a、制御用メモリ130aを備える第1の実施形態におけるストレージ装置100a(図1参照)とは異なる。
第2の実施形態によるストレージ装置100bが、第1の実施形態によるストレージ装置100a(図1参照)と同様の構成を有する部分については、それらの説明を省略する。
ストレージ装置100bは、複数のRAIDと、スペアディスクを用いる。
第1の実施形態によるストレージ装置100aは、制御用メモリ130aを備えていたが、第2の実施形態によるストレージ装置100bは、制御用メモリ130bを備えている。
制御用メモリ130bは、更新管理テーブル141と、RAID対応コピーマップ142と、RAID対応テーブル143と、スペア対応テーブル144を記憶する。RAID対応コピーマップ142は、第1の実施形態で用いたコピーマップ132(図2B)を拡張したものであり、コピー要否の状態管理に加えて、コピー元のRAID情報も管理する。スペア対応テーブル144は、スペアディスクとRAIDの対応関係を記憶する。
図14A〜図14Dは、第2の実施形態における制御用メモリ130bが記憶するデータの一例を示す図である。第2の実施形態では、制御用メモリ130bは、更新管理テーブル141と、RAID対応コピーマップ142と、RAID対応テーブル143と、スペア対応テーブル144を記憶する。
図14Aに示す更新管理テーブル141は、ストレージ装置100b内に構成されたRAIDグループ#0〜#Nと、物理ディスクが有する記憶領域であるStrip#0〜Strip#Pのそれぞれの組み合わせごとに、ユニークIDを記憶する。例えば、図14Aでは、更新管理テーブル141は、RAIDグループ#0と、Strip#0の組み合わせとして、ユニークID“1800”を記憶している場合を示している。
図14Bに示すRAID対応コピーマップ142は、物理ディスクを示すPD#0〜PD#Mと、物理ディスクが有する記憶領域であるStrip#0〜Strip#Pのそれぞれの組み合わせごとに、RAIDの種類と、コピーステート値を記憶する。コピーステート値は、第1の実施形態と同様に、“0”、“1”、“2”のいずれかの値をとる。例えば、図14Bでは、RAID対応コピーマップ142は、PD#2と、Strip#0の組み合わせとして、“RAID0”と、コピーステート値“1”を記憶している場合を示している。
図14Cに示すRAID対応テーブル143は、ストレージ装置100b内に構成されたRAIDグループ#0〜#Nと、ディスク(物理ディスク、スペアディスク)との関係を記憶している。例えば、図14Cでは、RAID対応テーブル143は、RAIDグループ#0が、物理ディスクであるPD#0(例えば、図13の物理ディスク15−1)及びPD#1(例えば、図13の物理ディスク15−2)と、スペアディスクPD#2(例えば、図13の物理ディスク15−3)から構成されることを示している。
第2の実施形態では、RAIDグループ#0およびRAIDグループ#1が用いられる場合について説明する。
図14Dに示すスペア対応テーブル144は、物理ディスクを示すPD#0〜PD#Mと、対応RAIDの関係を記憶している。例えば、図14Dでは、スペア対応テーブル144は、物理ディスクPD#2の対応RAIDが、RAIDグループ#0およびRAIDグループ#1であることを示している。
図15は、第2の実施形態におけるストレージ装置100bの初期状態を示す図である。図15では、更新管理部121bには、ユニークIDとして“400”が設定されており、閾値として“1200”が設定されている。
更新管理部121bは、RAID400aを管理する更新管理テーブル141aと、RAID400bを管理する更新管理テーブル141bと、スペアディスクである物理ディスク15−3を管理するRAID対応コピーマップ142を制御する。なお、更新管理テーブル141aおよび141bは、図14Aで説明した更新管理テーブル141と同様のテーブルである。
また、コピー部122bは、RAID400aと、物理ディスク15−3と、RAID対応コピーマップ142を制御する。
第2の実施形態では、物理ディスク15−1および物理ディスク15−2を使用し、ミラーリングで作成されたRAID400a(RAIDグループ#0)が構築されている。RAID400aを構成する物理ディスク15−1および15−2には、データ“A0”、“B0”、“C0”、“D0”、“E0”、“F0”が記憶されている。
また、物理ディスク15−4および物理ディスク15−5を使用し、ミラーリングで作成されたRAID400b(RAIDグループ#1)が構築されている。RAID400bを構成する物理ディスク15−4および15−5には、“G0”、“H0”、“I0”、“J0”、“K0”、“L0”のデータが記憶されている。
RAID400aとRAID400bに対し、物理ディスク15−3をスペアディスクとして用いる。これらの関係性を、RAID対応コピーマップ142と、スペア対応テーブル144とで管理する。
図16は、図15に示す状態から、RAID400aが記憶するデータが更新される場合について説明する図である。図16では、更新管理部121bには、ユニークIDとして“600”が設定されており、閾値として“1200”が設定されている。
図15において物理ディスク15−1および物理ディスク15−2に記憶されていたデータ“C0”が、図16では、データ“C1”に更新される。
ディスクアレイ装置であるRAID400aにデータの更新が発生すると、更新管理部121bは、現在のユニークIDを更新管理テーブル141に書き込み、どのタイミングでデータ更新が発生したかを記憶する。また、更新管理部121bは、RAID対応コピーマップ142に、対応RAIDが不定であることを示す“−”と、コピーステート値“0”を書き込むことにより、RAID400aと、スペアディスクである物理ディスク15−3との間でデータが不一致であり、コピー対象外の領域であることを記憶させる。
図17は、図16に示す状態から、データの更新が発生するとともに、定期チェックが行われる場合について説明する図である。図17では、更新管理部121bには、ユニークIDとして“4000”が設定されており、閾値として“1200”が設定されている。
ここでは、ユニークIDが、“1200”、“1800”、“2400”、“3000”、“3600”の時に、RAID400aを構成する物理ディスク15−1および15−2に、“B1”、“E1”、“A1”、“D1”、“F1”のデータ更新が発生する場合について説明する。また、ユニークIDが、“900”、“1500”、“1800”、“2600”、“3300”、“3900”の時に、RAID400bを構成する物理ディスク15−3および15−4に、“H1”、“K1”、“I1”、“G1”、“J1”、“L1”のデータ更新が発生する場合について説明する。また、ユニークIDが“4200”の時に、更新管理部121bの定期チェックが行われる場合について説明する。
更新管理部121bは、まず今回チェックを行うスペアディスクを決定し、続いてスペア対応テーブル144よりチェックが必要なRAIDを決定する。その後、現在のユニークIDと、更新管理テーブル141の差分をとり、その差分が閾値を越えているかをチェックする。チェック対象の複数のRAIDにおいて、閾値を越えているものが複数ある場合は、差分が一番多いRAIDを今回のコピーの対象とする。
図17では、更新管理部121bが記憶するユニークIDと、RAID400aのデータ“A1”の領域のユニークIDとの差分は1600(=4000−2400)である。また、更新管理部121bが記憶するユニークIDと、RAID400bのデータ“G1”の領域のユニークIDとの差分は1400(=4000−2600)である。
よって、更新管理部121bは、コピー対象のRAIDは、差分が大きいRAID400aであると決定する。閾値を越えた領域を見つけた場合、RAID対応コピーマップ142にコピー対象のRAID番号とコピーステート値である“1”を登録し、RAIDからスペアディスクへのコピーが必要なことを登録する。
図18は、図17に示す状態から、コピー部122bによるコピー処理が実行される場合について説明する図である。図18では、更新管理部121bには、ユニークIDとして“4200”が設定されており、閾値として“1200”が設定されている。
コピー部122bは、RAID対応コピーマップ142のコピーステート値を確認し、コピーステート値が“1”の領域を見つけると、登録されたRAID番号のRAIDからスペアディスクにデータのコピーを行い、RAID対応コピーマップ142のコピーステート値を、登録されたRAIDとスペアディスクでデータが一致していることを示す値である“2”に変更する。
コピー部122bが、スペアディスクへのコピーを完了する前に新たなデータ更新処理を受け取った場合(例えば図18において、データ“A1”が“A2”に更新された場合)は、更新管理部121bによってRAID対応コピーマップ142の値が初期値に更新されるため、RAIDからスペアディスクへのコピー対象から外れる。
図19は、図18に示す状態から、RAID400bを構成する物理ディスク15−4が縮退した場合に、スペアディスクである物理ディスク15−3を使用して、RAID400bの修復処理を行う場合について説明する図である。図19では、更新管理部121bには、ユニークIDとして“4400”が設定されており、閾値として“1200”が設定されている。
RAID400bの状態を維持するためには、RAID400bを構成している物理ディスク15−5のデータと、スペアディスクである物理ディスク15−3のデータを一致させる必要がある。コピー部122bは、RAID対応コピーマップ142を参照し、登録されているRAID番号がRAID400bと一致している場合であって、コピーステート値が“2”である場合は、RAID400bからスペアディスクへのコピーは行わない。その他の場合は、コピー部122bは、物理ディスク15−5から、スペアディスクである物理ディスク15−3へデータのコピーを行う。
第2の実施形態における更新管理部121bによるデータ更新処理は、第1の実施形態における更新管理部121aによるデータ更新処理(図9)と同様であるため、第2の実施形態におけるデータ更新処理の説明は省略する。
図20は、第2の実施形態における更新管理部121bによる更新管理テーブルチェック処理を示すフローチャートである。
始めに、更新管理部121bは、スペア対応テーブル144を参照し、今回チェック対象となっているスペアディスクが、どのRAIDと関連づけられているかを確認する(ステップS2001)。
次に、更新管理部121bは、どの領域に対して更新管理テーブル141のチェックを行うか決定する(ステップS2002)。
次に、更新管理部121bは、更新管理テーブル141に記憶されている値と、更新管理部121bが記憶している現在のユニークIDの値の差分の計算を、ステップS2001で見つかったチェック対象のRAIDに対して行う(ステップS2003)。ここで、複数のRAIDが閾値を越えていた場合は、更新管理部121bは、一番差分が大きいRAIDを今回の対象RAIDとする。
次に、更新管理部121bは、ステップS2003で計算した差分が、更新管理部121bが保有する閾値を越えているかを判定する(ステップS2004)。ステップS2003で計算した差分が、更新管理部121bが保有する閾値を越えていると判定した場合は(ステップ2004でYes)、更新管理部121bは、RAID対応マップテーブル142に、更新対象のRAID番号を登録するとともに、コピーステート値を“0”から“1”に更新し(ステップS2005)、ステップS2006の処理を行う。
一方、ステップS2003で計算した差分が、更新管理部121bが保有する閾値を越えていないと判定した場合は(ステップ2004でNo)、更新管理部121bは、ステップS2006の処理を行う。
つまり、更新管理部121bは、更新管理テーブル141の全領域のチェックが終了したか否かについて判定する(ステップS2006)。更新管理テーブル141の全領域のチェックが終了したと判定した場合には(ステップS2006でYes)、更新管理部121bは、図20に示すフローチャートの処理を終了する。
一方、更新管理テーブル141の全領域のチェックが終了していないと判定した場合には(ステップS2006でNo)、更新管理部121bは、ステップS2002の処理を再度行うことにより、更新管理テーブル141の次の領域のチェックを行う。
図21は、第2の実施形態におけるコピー部122bによるコピー処理を示すフローチャートである。
始めに、コピー部122bは、RAID対応コピーマップ142のどの領域に対してチェックを行うか決定する(ステップ2101)。
次に、コピー部122bは、RAID対応コピーマップ142のコピーステート値が“1”であるか否かについて判定する(ステップS2102)。RAID対応コピーマップ142のコピーステート値が“1”ではないと判定した場合には(ステップS2102でNo)、コピー部122bは、後述するステップS2105の処理を行う。
一方、RAID対応コピーマップ142のコピーステート値が“1”であると判定した場合には(ステップS2102でYes)、コピー部122bは、RAID対応コピーマップ142に登録してあるRAIDのデータを、スペアディスクである物理ディスク15−3にコピーし(ステップS2103)、RAID対応コピーマップ142のコピーステート値を“2”に設定し(ステップS2104)、ステップS2105の処理を行う。
次に、コピー部122bは、RAID対応コピーマップ142の全領域のチェックが終了したか否かについて判定する(ステップS2105)。RAID対応コピーマップ142の全領域のチェックが終了したと判定した場合には(ステップS2105でYes)、コピー部122bは、図21に示すフローチャートの処理を終了する。
一方、RAID対応コピーマップ142の全領域のチェックが終了していないと判定した場合には(ステップS2105でNo)、コピー部122bは、ステップS2101の処理を再度行うことにより、RAID対応コピーマップ142の次の領域のチェックを行う。
図22は、第2の実施形態におけるコピー部122bによるRAID修復処理を示すフローチャートである。
始めに、コピー部122bは、RAID対応コピーマップ142のどの領域に対してチェックを行うかを決定する(ステップS2201)。
次に、コピー部122bは、今回復旧対象のRAIDがRAID対応コピーマップ142に登録されているかどうかを判定する(ステップS2202)。今回復旧対象のRAIDがRAID対応コピーマップ142に登録されていないと判定した場合には(ステップS2202でNo)、コピー部122bは、後述するステップS2204の処理を行う。
一方、今回復旧対象のRAIDがRAID対応コピーマップ142に登録されていると判定した場合には(ステップS2202でYes)、コピー部122bは、RAID対応コピーマップ142の値が“2”であるか否かについて判定する(ステップS2203)。RAID対応コピーマップ142の値が“2”であると判定した場合には(ステップS2203でYes)、コピー部122bは、後述するステップS2205の処理を行う。
一方、RAID対応コピーマップ142の値が“2”ではないと判定した場合には(ステップS2203でNo)、コピー部122bは、RAIDのデータをスペアディスクにコピーし(ステップS2204)、ステップS2205の処理を行う。
次に、コピー部122bは、RAID対応コピーマップ142の全領域のチェックが終了したか否かについて判定する(ステップS2205)。RAID対応コピーマップ142の全領域のチェックが終了したと判定した場合には(ステップS2205でYes)、コピー部122bは、図22に示すフローチャートの処理を終了する。
一方、RAID対応コピーマップ142の全領域のチェックが終了していないと判定した場合には(ステップS2205でNo)、コピー部122bは、ステップS2201の処理を再度行うことにより、RAID対応コピーマップ142の次の領域のチェックを行う。
第2の実施形態においても、第1の実施形態で得られる効果を得ることができる。
また、ストレージ装置100bが、複数のRAID(例えば、RAID0およびRAID1)を用いる場合であって、複数のRAIDのいずれかに縮退などの異常が発生した場合であっても、早急に、RAIDを復旧することができるとともに、RAIDからスペアディスクのデータのコピーに要する負荷を低くすることができる。
[最小構成]
図23は、最小構成を有するストレージ装置100cの構成を示すブロック図である。このストレージ装置100cは、処理部120cを備える。
図24は、最小構成を有するストレージ装置100cの処理を示すフローチャートである。
始めに、処理部120cは、所定の条件を満たした場合(例えば、図10のステップS1003でYesの場合)に、RAIDを構成する第1の記憶装置(例えば、図1の物理ディスク15−1および15−2)のデータを、スペア用の第2の記憶装置(例えば、図1の物理ディスク15−3)にコピーする(ステップS2401)。
次に、処理部120cは、第1の記憶装置に異常(例えば、縮退)が発生した場合に、第1の記憶装置から第2の記憶装置にコピーされていないデータのみを、第1の記憶装置から第2の記憶装置にコピーする(ステップS2402)。
なお、図1、図13、図23における各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の機能を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWW(World Wide Web)システムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM(Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
本発明は、RAIDやスペアディスクを利用するディスクアレイ装置などに適用することができる。
15−1〜15−M・・・物理ディスク
100a、100b、100c・・・ストレージ装置
110・・・インタフェース制御部
120a、120b・・・マイクロプロセッサ
120c・・・処理部
121a、121b・・・更新管理部
122a、122b・・・コピー部
130a、130b・・・制御用メモリ
140・・・RAID制御部
160・・・ホストコンピュータ

Claims (9)

  1. 所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーする処理部を備える
    RAID制御装置。
  2. 前記処理部は、
    前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされているデータについては、前記第1の記憶装置から前記第2の記憶装置にコピーしない
    請求項1に記載のRAID制御装置。
  3. 前記第1の記憶装置の所定の領域に割り当てられる値が、閾値を超えた場合に、前記処理部は、前記所定の条件が満たされたと判定する
    請求項1又は2に記載のRAID制御装置。
  4. 前記処理部は、前記第1の記憶装置の所定の領域に割り当てられる値を、現在時刻を使用してカウントアップする
    請求項1から3までのいずれか1項に記載のRAID制御装置。
  5. 前記処理部は、前記第1の記憶装置の所定の領域に割り当てられる値を、前記RAID制御装置が起動してからの経過時間を使用してカウントアップする
    請求項1から3までのいずれか1項に記載のRAID制御装置。
  6. 更新管理テーブル、コピーマップ、RAID対応テーブルを記憶する記憶部を更に備え、
    前記処理部は、前記更新管理テーブル、前記コピーマップ、前記RAID対応テーブルを用いて、前記第1の記憶装置から前記第2の記憶装置にデータをコピーする
    請求項1から5までのいずれか1項に記載のRAID制御装置。
  7. 更新管理テーブル、RAID対応コピーマップ、RAID対応テーブル、スペア対応テーブルを記憶する記憶部を更に備え、
    前記処理部は、前記更新管理テーブル、前記RAID対応コピーマップ、前記RAID対応テーブル、前記スペア対応テーブルを用いて、前記第1の記憶装置から前記第2の記憶装置にデータをコピーする
    請求項1から5までのいずれか1項に記載のRAID制御装置。
  8. 所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、
    前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーする
    RAID制御方法。
  9. RAID制御装置のコンピュータを、
    所定の条件を満たした場合に、RAID(Redundant Arrays of Inexpensive Disks)を構成する第1の記憶装置のデータを、スペア用の第2の記憶装置にコピーし、前記第1の記憶装置に異常が発生した場合に、前記第1の記憶装置から前記第2の記憶装置にコピーされていないデータのみを、前記第1の記憶装置から前記第2の記憶装置にコピーする処理手段
    として機能させるプログラム。
JP2020080632A 2020-04-30 2020-04-30 Raid制御装置、raid制御方法及びプログラム Active JP7088567B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080632A JP7088567B2 (ja) 2020-04-30 2020-04-30 Raid制御装置、raid制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080632A JP7088567B2 (ja) 2020-04-30 2020-04-30 Raid制御装置、raid制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021174463A true JP2021174463A (ja) 2021-11-01
JP7088567B2 JP7088567B2 (ja) 2022-06-21

Family

ID=78279781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080632A Active JP7088567B2 (ja) 2020-04-30 2020-04-30 Raid制御装置、raid制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7088567B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165486A (ja) * 2003-12-01 2005-06-23 Sony Corp ファイル管理装置、ストレージ管理システム、ストレージ管理方法、プログラム及び記録媒体
JP2005346219A (ja) * 2004-06-01 2005-12-15 Dainippon Printing Co Ltd データバックアップ装置
JP2006164162A (ja) * 2004-12-10 2006-06-22 Fujitsu Ltd コピー制御装置および方法
JP2007213345A (ja) * 2006-02-09 2007-08-23 Hitachi Ltd ストレージシステム及びその制御方法
JP2008009767A (ja) * 2006-06-29 2008-01-17 Hitachi Ltd データ処理システム及びその方法並びにストレージ装置
JP2009276820A (ja) * 2008-05-12 2009-11-26 Denso Corp 電子機器及びプログラム
JP2010182087A (ja) * 2009-02-05 2010-08-19 Fujitsu Ltd ディスクアレイ装置、データ分散管理方法、およびデータ分散管理プログラム
JP2013186857A (ja) * 2012-03-12 2013-09-19 Nec Corp ストレージ装置、データ復旧方法およびプログラム
JP2018197922A (ja) * 2017-05-23 2018-12-13 株式会社アイ・オー・データ機器 外部記憶装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165486A (ja) * 2003-12-01 2005-06-23 Sony Corp ファイル管理装置、ストレージ管理システム、ストレージ管理方法、プログラム及び記録媒体
JP2005346219A (ja) * 2004-06-01 2005-12-15 Dainippon Printing Co Ltd データバックアップ装置
JP2006164162A (ja) * 2004-12-10 2006-06-22 Fujitsu Ltd コピー制御装置および方法
JP2007213345A (ja) * 2006-02-09 2007-08-23 Hitachi Ltd ストレージシステム及びその制御方法
JP2008009767A (ja) * 2006-06-29 2008-01-17 Hitachi Ltd データ処理システム及びその方法並びにストレージ装置
JP2009276820A (ja) * 2008-05-12 2009-11-26 Denso Corp 電子機器及びプログラム
JP2010182087A (ja) * 2009-02-05 2010-08-19 Fujitsu Ltd ディスクアレイ装置、データ分散管理方法、およびデータ分散管理プログラム
JP2013186857A (ja) * 2012-03-12 2013-09-19 Nec Corp ストレージ装置、データ復旧方法およびプログラム
JP2018197922A (ja) * 2017-05-23 2018-12-13 株式会社アイ・オー・データ機器 外部記憶装置

Also Published As

Publication number Publication date
JP7088567B2 (ja) 2022-06-21

Similar Documents

Publication Publication Date Title
US9395925B2 (en) Grouping of tracks for copy source to target destage on global mirror secondary
US7721143B2 (en) Method for reducing rebuild time on a RAID device
JP4516846B2 (ja) ディスク・アレイ・システム
JP5285610B2 (ja) グローバルホットスペアディスクが存在するときに、故障したドライブを復元、及びコピーバックする最適化された方法
US20110238936A1 (en) Method and system for efficient snapshotting of data-objects
KR100697761B1 (ko) 디스크 어레이 장치와 그 데이터의 리커버리 방법 및 데이터 리커버리 프로그램을 기록한 기록 매체
US7698591B2 (en) Method and apparatus for ensuring data integrity in redundant mass storage systems
JP2013041455A (ja) ストレージシステム、ストレージ制御装置およびストレージ制御方法
KR101285900B1 (ko) 컨트롤러, 기억 장치, 및 컴퓨터 판독 가능한 매체
JP2010503941A (ja) グローバルホットスペアディスクが存在するときに、切断されたドライブを復元、及びコピーバックする最適化された方法
CN110737394B (zh) 管理缓存的方法、装置和计算机程序产品
US11429498B2 (en) System and methods of efficiently resyncing failed components without bitmap in an erasure-coded distributed object with log-structured disk layout
US11188258B2 (en) Distributed storage system
US20180314609A1 (en) Apparatus and method to suppress data accesses caused by change in distributed data layout of storages
CN110046065A (zh) 一种存储阵列重建方法、装置、设备及存储介质
JP7088567B2 (ja) Raid制御装置、raid制御方法及びプログラム
US7293193B2 (en) Array controller for disk array, and method for rebuilding disk array
JP2001043031A (ja) 分散パリティ生成機能を備えたディスクアレイ制御装置
JP5365236B2 (ja) ストレージシステム
JP2006178926A (ja) 複数のオブジェクトベースのストレージ装置を使用したストレージ装置、システム、および方法
CN110431538B (zh) 存储系统控制
US11379318B2 (en) System and method of resyncing n-way mirrored metadata on distributed storage systems without requiring checksum in the underlying storage
JP7056874B2 (ja) 制御装置、ディスクアレイ装置、制御方法、及びプログラム
JP3766079B2 (ja) ディスクアレイ装置およびプログラム
JP2009075675A (ja) 整合性チェック方法及び整合性チェックシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220401

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220411

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220602

R150 Certificate of patent or registration of utility model

Ref document number: 7088567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150