JP2015222454A - Raid障害自己修復装置 - Google Patents

Raid障害自己修復装置 Download PDF

Info

Publication number
JP2015222454A
JP2015222454A JP2012204272A JP2012204272A JP2015222454A JP 2015222454 A JP2015222454 A JP 2015222454A JP 2012204272 A JP2012204272 A JP 2012204272A JP 2012204272 A JP2012204272 A JP 2012204272A JP 2015222454 A JP2015222454 A JP 2015222454A
Authority
JP
Japan
Prior art keywords
failure
storage
raid
storage device
function unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012204272A
Other languages
English (en)
Inventor
鈴木 清彦
Kiyohiko Suzuki
清彦 鈴木
渡邊 啓嗣
Keiji Watanabe
啓嗣 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012204272A priority Critical patent/JP2015222454A/ja
Priority to PCT/JP2013/069517 priority patent/WO2014045691A1/ja
Priority to TW102127915A priority patent/TW201423378A/zh
Publication of JP2015222454A publication Critical patent/JP2015222454A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0727Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a storage system, e.g. in a DASD or network based storage system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0766Error or fault reporting or storing
    • G06F11/0775Content or structure details of the error report, e.g. specific table structure, specific error fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】予備のストレージ装置を用いることなく、障害の発生したストレージ装置の修復可能性を判断し、当該ストレージ装置の修復が完了した後にRAID装置をデグレード状態から自動復帰させる。【解決手段】デグレード通知に基づく障害発生履歴から、ストレージ装置4の修復可能性を判断する障害統計管理機能部51と、障害統計管理機能部51により修復可能であると判断された場合に、ストレージ装置4の修復状況を監視するストレージ状態監視機能部52と、障害統計管理機能部51またはストレージ状態監視機能部52により修復不可能であると判断された場合に、ストレージ装置4の故障を通知する異常状態通知機能部53と、ストレージ状態監視機能部52により修復処理が完了したと判断された場合に、ストレージ装置4をRAID装置に復帰させるRAID復帰処理機能部54とを備えた。【選択図】図1

Description

この発明は、複数のストレージ装置をまとめて一台の装置として管理するRAID(Redundant Arrays of Inexpensive Disks)技術に関し、いずれかのストレージ装置において修復処理が発生した場合に、修復処理を終えたストレージ装置を自動でRAID装置に復帰させるRAID障害自己修復装置に関するものである。
RAIDとは、複数のストレージ装置(例えばHDD(Hard Disk Drive)など)を仮想的に一台のストレージ装置として運用する技術であり、ストレージ装置に保存したデータの冗長性の向上を目的とする。RAID装置としては、例えば、図14に示すように、OS(Operating System)がS/W(SoftWare)的に機能を提供する構成(S/W−RAID)や、図15に示すように、専用H/W(HardWare)により実現する構成(H/W−RAID)がある。
なお、RAIDは、ストレージ装置の構成に応じてRAID0、RAID1やRAID5などいくつかの種類が存在するが、以下では特に断りなき場合、「RAID」とはRAID1を示すものとする。
そして、現在のストレージ装置は、ストレージ装置内部にて読込み処理や書込み処理の異常が発生すると、この異常を検知してセクタ再配置などの修復処理を実行する。しかしストレージ装置の修復処理では再配置先セクタの検索などを要するため、修復完了までに要する時間を事前に知ることはできない。また、修復処理はストレージ装置内部のマイコンが実施しており、修復処理中はマザーボードとの通信処理を停止するストレージ装置が一般的である。
一方、ストレージ装置の接続に用いられる通信規格(例えばSerial ATAなど)では書込み完了割込みの応答時間が規定されている。一例として、SATA通信規格によるストレージ装置への書込み処理通信では、ストレージ装置外部からストレージ装置へ書込み要求を発行した後、30秒以内にストレージ装置から書込み完了割込みが戻る必要がある。
しかしながら、修復処理中のストレージ装置に書込み処理を行った場合、ストレージ装置の修復処理により書込み完了割込みが規定時間を超過する場合がある。この場合、ストレージ装置通信は通信規格上の途絶と扱われる。
RAID運用時、RAID装置のストレージアクセス処理は、RAID装置を構成する全てのストレージ装置から書込み完了割込みが返ることで完了する。すなわち、1台でも書込み完了割込みを返さないストレージ装置が存在すると、図16に示すように、RAID装置のストレージアクセスは遅滞状態となる。RAID装置では、速やかにストレージアクセスを復帰させる必要がある。
そこで、書込み完了割込みが規定時間内に戻らなかったストレージ装置を速やかにRAID装置から切り離し、図17に示すようにデグレード状態でRAID運用を継続する。
ここで、デグレード状態とはデータの冗長性が低下している状態であるが、RAID装置がストレージアクセスを遅滞し続けるよりも健全である。
一方、RAID装置から切り離されたストレージ装置は、その通信途絶の理由が修復処理であった場合、修復処理が完了すると健全な状態になる。しかしながら、このストレージ装置は、既にRAID装置から切り離された状態である。その結果、最終的には全てのストレージ装置が健全な状態となっているものの、RAID装置はデグレード状態で運用されてしまうという課題がある。
そこで、上記課題を解決するために従来から以下のような方法が用いられている。
まず、第1の方法は、RAID装置を保守する作業員(保守員)によってストレージ装置をRAID装置に復帰させる方法である。すなわち、保守員が、RAID装置のデグレード状態を確認し、代替ストレージ装置または修復処理を終えたストレージ装置を手動でRAID装置に復帰させる。
第2の方法は、一定時間で修復処理を中断する機能を備えたストレージ装置を用いる方法である。この機能の呼称はストレージ装置の製造各社で異なる(例えば、Western Digital社ではTLER(Time Limited Error Recovery)、Samsung社やHitachi社ではCCTL(Command Completion Time Limit)と呼ばれる)が、非特許文献1に開示されるように機能自体は同様であり、非特許文献2に機能の詳細が述べられている。この機能ではストレージ装置の修復処理を原因とする通信途絶が回避でき、これに伴うRAIDデグレードを回避することが可能となる。
第3の方法は、予め余分にストレージ装置を接続しておく方法である。例えばRAID1運用の場合、通常は2台のストレージ装置を要するが、装置には3台のストレージ装置を接続しておき、1台を予備として扱う。これにより、RAID装置のデグレード状態を回避することが可能となる。
なお、特許文献1のように、ストレージ装置の通信状況及び障害発生頻度を監視してRAID装置からのストレージ装置の切り離しを判断する方式も考案されている。この方式はストレージ装置が故障する予兆を捉えて故障前にRAID装置からストレージ装置を切り離すことに貢献する。しかしながら、特許文献1に記載の障害値がしきい値を超えるまでストレージ装置の切り離しを行わないため、RAID装置がストレージアクセスを遅滞し続ける可能性を有する。また本方式はストレージを切り離す判断に関するものであり、デグレード状態からの復帰には寄与しない。
特開平10−275060号公報
Wikipedia、「Error recovery control」、http://en.wikipedia.org/wiki/Error_recovery_control Western Digita社著、「Time−Limited Error Recovery(TLER)」、http://www.wdc.com/en/library/sata/2579−001098.pdf(2012年7月12日現在リンク先消失)
しかしながら、上記第1の方法では、保守員が装置の設置された現地まで出向いてRAID装置を修復する必要があるため、保守員の人件費を要するという課題がある。また、この方法では、保守員が現地へ到着するまでデータの冗長性が損なわれた状態であるという課題もある。
また、上記第2の方法では、ストレージ装置内部の修復処理が打ち切られるため、ストレージ装置が異常を抱えたままRAID運用が継続されるという課題がある。この場合、エラーが生じた際のデータの再配置はS/W側が行うためデータの冗長状態は継続されるが、ストレージ装置の内部故障自体は修復されないままである。
また、上記第3の方法では、予備のストレージ装置を要するため、装置の費用が高価となるという課題がある。
この発明は、上記のような課題を解決するためになされたもので、予備のストレージ装置を用いることなく、障害が発生したストレージ装置の修復可能性を判断し、当該ストレージ装置の修復が完了した場合にRAID装置をデグレード状態から自動復帰させることができるRAID障害自己修復装置を提供することを目的としている。
この発明に係るRAID障害自己修復装置は、複数のストレージ装置からなるRAID装置において障害が発生したストレージ装置が切り離された旨を示すデグレード通知を受けることで、当該デグレード通知に基づく障害発生履歴から、当該障害が発生したストレージ装置の修復可能性を判断する障害統計管理機能部と、障害統計管理機能部によりストレージ装置が修復可能であると判断された場合に、当該ストレージ装置の修復状況を監視するストレージ状態監視機能部と、障害統計管理機能部またはストレージ状態監視機能部によりストレージ装置が修復不可能であると判断された場合に、当該ストレージ装置の故障を外部に通知する異常状態通知機能部と、ストレージ状態監視機能部によりストレージ装置の修復処理が完了したと判断された場合に、当該ストレージ装置をRAID装置に復帰させるRAID復帰処理機能部とを備えたものである。
この発明によれば、上記のように構成したので、予備のストレージ装置を用いることなく、障害が発生したストレージ装置の修復可能性を判断し、当該ストレージ装置の修復が完了した場合にRAID装置をデグレード状態から自動復帰させることができる。
この発明の実施の形態1に係るRAID障害自己修復装置が適用されたRAID装置の構成を示す図である。 この発明の実施の形態1における障害統計管理機能部の動作を示すフローチャートである。 この発明の実施の形態1における障害統計管理テーブルの構造を示す図である。 この発明の実施の形態1におけるストレージ状態監視機能部の動作を示すフローチャートである。 この発明の実施の形態1におけるストレージ状態監視テーブルの構造を示す図である。 この発明の実施の形態3における障害統計管理機能部の動作を示すフローチャートである。 この発明の実施の形態3における障害統計管理テーブルの構造を示す図である。 この発明の実施の形態6における障害統計管理機能部の動作を示すフローチャートである。 この発明の実施の形態6における障害統計管理テーブルの構造を示す図である。 この発明の実施の形態7における障害統計管理機能部の動作を示すフローチャートである。 この発明の実施の形態7における障害統計管理テーブルの構造を示す図である。 この発明の実施の形態8におけるRAID0の構成例を示す図である。 この発明の実施の形態8におけるRAID5の構成例を示す図である。 従来のRAID装置の構成例(S/W−RAID)を示す図である。 従来のRAID装置の構成例(H/W−RAID)を示す図である。 従来のRAID装置において、修復処理中のストレージ装置が存在する場合の状態を示す図である。 従来のRAID装置におけるデグレード動作を示す図である。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係るRAID障害自己修復装置5が適用されたRAID装置の構成を示す図である。なお図1では、S/W実装のRAID装置(S/W−RAID)を示し、また、ストレージ装置4bに障害が発生してRAID装置から切り離された状態を示している。
RAID装置は、図1に示すように、アプリケーション1、RAID管理S/W(RAID管理機構)2、ストレージドライバ3a,3b、ストレージ装置4a,4bおよびRAID障害自己修復装置5から構成されている。なお以下において、特に区別する必要がない場合には、ストレージドライバ3a,3bおよびストレージ装置4a,4bを単にストレージドライバ3およびストレージ装置4と称す。
アプリケーション1は、RAID管理S/W2に対してストレージ装置4へのデータ書込み要求を行い、それに対する応答(データ書込み応答)を受けるものである。また、アプリケーション1は、ストレージ故障通知機能部11を有している。ストレージ故障通知機能部11は、RAID障害自己修復装置5からのストレージ故障通知を受けて、該当するストレージ装置4の故障を外部(例えば保守員)に通知するものである。
RAID管理S/W2は、アプリケーション1からの要求に応じて、ストレージドライバ3にデータ書込みを指示するものである。そして、ストレージドライバ3から完了通知を受けた場合には、データ書込み応答をアプリケーション1に出力する。また、RAID管理S/W2は、ストレージ装置4に障害が発生し、RAIDデグレードを行ってストレージドライバ3をRAID管理S/W2から切り離した場合、その旨をRAID障害自己修復装置5へ通知する機能を有している(デグレード通知)。さらに、RAID障害自己修復装置5のストレージ復帰処理によりストレージ装置4がRAID装置に復帰した後、RAID管理S/W2は当該ストレージ装置4に対するRAID同期を開始する。
ストレージドライバ3は、RAID管理S/W2からの指示に応じて、ストレージ装置4に対してデータ書込みを指示するものである。そして、ストレージ装置4から書込み完了割込みを受けた場合には、完了通知をRAID管理S/W2に出力する。
ストレージ装置4は、ストレージドライバ3からの要求に応じて、データ書込みを行うものである。そして、上記処理が完了した後、完了割込みをストレージドライバ3に通知する。
RAID障害自己修復装置5は、RAID管理S/W2からのデグレード通知に基づいて、障害が発生したストレージ装置4の修復可能性を判断し、当該ストレージ装置4の修復処理が完了した場合にRAID装置に自動的に復帰させる機能も有している。このRAID障害自己修復装置5は、障害統計管理機能部51、ストレージ状態監視機能部52、異常状態通知機能部53およびRAID復帰処理機能部54から構成されている。
障害統計管理機能部51は、RAID管理S/W2からデグレード通知を受けることで、当該デグレード通知に基づくストレージ装置4の障害発生履歴から、障害が発生したストレージ装置4の修復可能性を判断するものである。
ストレージ状態監視機能部52は、障害統計管理機能部51によりストレージ装置4が修復可能であると判断された場合に、当該ストレージ装置4の修復状況を監視するものである。
異常状態通知機能部53は、障害統計管理機能部51またはストレージ状態監視機能部52によりストレージ装置4が修復不可能であると判断された場合に、予め定められた手段によって、当該ストレージ装置4の故障を示すストレージ故障通知をストレージ故障通知機能部11に出力するものである。
RAID復帰処理機能部54は、ストレージ状態監視機能部52によりストレージ装置4の修復処理が完了したと判断された場合に、予め定められた手段によって、当該ストレージ装置4をRAID装置に復帰させるものである。
次に、上記のように構成されたRAID障害自己修復装置5の動作について説明する。なお以下では、S/W−RAIDにてRAID1運用中に、1台のストレージ装置4にて修復処理が発生した場合を示す。
あるストレージ装置4に障害が発生すると、RAID管理S/W2はRAIDデグレードを行って、対応するストレージドライバ3を切り離すとともにその旨を示すデグレード通知をRAID障害自己修復装置5に出力する。なお、このデグレード通知には、障害が発生してRAID装置から切り離されたストレージ装置4の名称およびデグレードの発生時刻(障害の発生時刻)を示す情報が含まれている。そして、RAID障害自己修復装置5は、上記デグレード通知を受け取ると、まず、障害統計管理機能部51による処理を実行する。
この障害統計管理機能部51の動作について、図2,3を参照しながら説明する。なお、図3は、障害統計管理機能部51が保持する障害統計管理テーブル511の構造を示す図である。この障害統計管理テーブル511には、図3に示すように、ストレージ装置4ごとに、障害が発生した時刻(障害情報)が記録される。
障害統計管理機能部51の動作では、図2に示すように、まず、RAID管理S/W2からデグレード通知を受信したかを判断する(ステップST201)。このステップST201において、デグレード通知を受信していない場合には、シーケンスはステップST201に戻り、待機状態となる。
一方、ステップST201において、デグレード通知を受信した場合には、障害統計管理テーブル511全体から所定期間(例えば24時間)以上経過したエントリ(障害情報)を削除する(ステップST202)。
次いで、デグレード通知の内容に基づいて、障害統計管理テーブル511に障害情報を登録する(ステップST203)。すなわち、デグレード通知に示されたストレージ装置4の障害発生時刻を、障害統計管理テーブル511に記録する。
次いで、障害統計管理テーブル511のうち、障害が発生したストレージ装置4に対応するエントリが所定数(例えば10エントリ)に達したかを判断する(ステップST204)。
このステップST204において、障害が発生したストレージ装置4に対応するエントリが10エントリに達したと判断した場合には、当該ストレージ装置4は故障停止する直前であり修復不可能であると判断し、ストレージ異常通知を異常状態通知機能部53に出力する(ステップST205)。その後、シーケンスはステップST201に戻る。
なお、異常状態通知機能部53では、上記ストレージ異常通知をアプリケーション1のストレージ故障通知機能部11に出力し、ストレージ故障通知機能部11は、この通知を受けて、該当するストレージ装置4の故障を外部(例えば保守員)に通知する。
一方、ステップST204において、障害が発生したストレージ装置4に対応するエントリが10エントリに達していないと判断した場合には、当該ストレージ装置4は修復可能であると判断し、デグレード通知をストレージ状態監視機能部52に出力する(ステップST206)。その後、シーケンスはステップST201に戻る。
次に、ストレージ状態監視機能部52の動作について、図4,5を参照しながら説明する。なお、図5は、ストレージ状態監視機能部52が保持するストレージ状態監視テーブル531の構造を示す図である。このストレージ状態監視テーブル531には、図5に示すように、ストレージ装置4ごとに、ストレージ状態監視機能部52が監視を開始した時刻(状態監視開始時刻)が記録される。
ストレージ状態監視機能部52の動作では、図4に示すように、まず、障害統計管理機能部51からデグレード通知を受信したかを判断する(ステップST401)。このステップST401において、デグレード通知を受信していない場合には、シーケンスはステップST401に戻り、待機状態となる。
一方、ステップST401において、デグレード通知を受信した場合には、障害が発生したストレージ装置4に対応するストレージドライバ情報を取得する(ステップST402)。
次いで、ストレージ状態監視テーブル531に状態監視開始時刻を格納する(ステップST403)。
次いで、ポーリングを実施して、該当するストレージドライバ3に対してストレージ装置4への書込み処理(write処理)を発行する(ステップST404)。その後、当該ストレージドライバ3から書込み処理に対する応答(完了通知)が帰ってくることを期待する。
次いで、所定期間(例えば30秒)以内にストレージドライバ3から応答を受けられたかを判断する(ステップST405)。
このステップST405において、30秒以内に応答を受けられなかった場合、ストレージ状態監視テーブル531を参照して、状態監視開始から所定期間(例えば200秒)を超えたかを判断する(ステップST406)。
このステップST406において、状態監視開始から200秒を超えていないと判断した場合には、シーケンスはステップST404に戻り、再度ポーリングを実施する。
一方、ステップST406において、状態監視開始から200秒を超えたと判断した場合には、当該ストレージ装置4は修復不可能である可能性が高いため、ストレージ異常通知を異常状態通知機能部53に出力する(ステップST407)。その後、シーケンスはステップST401に戻る。
なお、異常状態通知機能部53では、上記ストレージ異常通知をアプリケーション1のストレージ故障通知機能部11に出力し、ストレージ故障通知機能部11は、この通知を受けて、該当するストレージ装置4の故障を外部(例えば保守員)に通知する。
一方、ステップST405において、30秒以内に応答を受け取れた場合、当該ストレージ装置4の修復処理が完了したと判断し、復帰処理開始通知をRAID復帰処理機能部54に出力する(ステップST408)。その後、シーケンスはステップST401に戻る。
そして、RAID復帰処理機能部54では、ストレージ状態監視機能部52からの復帰処理開始通知に応じ、予め定められたRAID復帰手続きをRAID管理S/W2に実行することで、修復処理が完了したストレージ装置4をRAID装置に復帰させることを実現する。なお、ストレージ装置4がRAID装置に復帰すると、RAID管理S/W2は当該ストレージ装置4に対するRAID同期を開始する。
なお、ストレージ状態監視機能部52にて、ポーリングであるwrite処理を実行する際、writeを発行する領域はRAID管理領域であれば何処でもよく、またwriteするデータも任意でよい。ここで、write処理が完了するとストレージ装置4内のデータを変えてしまうことになるが、write処理が完了するならば当該ストレージ装置4はRAID装置に復帰することになるため、復帰後にRAID管理S/W2が行うRAID同期処理によりストレージ装置4内のデータは正しいデータに置き換わる。
以上のように、この実施の形態1によれば、デグレード通知に基づくストレージ装置4の障害発生履歴から当該ストレージ装置4の修復可能性を判断し、また、ストレージ装置4の修復状況を監視し、修復不可能であると判断した場合には外部にストレージ装置4の故障を通知し、修復が完了した場合には、RAID装置に復帰させるように構成したので、予備のストレージ装置4を用いることなく、障害が発生したストレージ装置4の修復可能性を判断し、当該ストレージ装置4の修復が完了した場合にRAID装置をデグレード状態から自動復帰させることができる。
その結果、保守員の現地派遣回数低減による人件費の削減を図ることができる。また、自動でRAID装置をデグレード状態から復帰させることができるため、デグレード状態での運用時間を短縮することによるデータ冗長性の向上を図ることができる。また、ストレージ装置4の修復処理が完了した後に、RAID装置への復帰を行うため、ストレージ装置4の健全性の向上と、これに伴うストレージ装置4の長寿命化を図ることができる。さらに、予備のストレージ装置4を不要とすることによる装置コストの低減を図ることができる。
なお、RAID障害自己修復装置5に替えて、各ストレージドライバ3にリトライ機能を実装することも考えられる。しかしこの方式の場合、RAID管理S/W2では、ストレージドライバ3がリトライ処理を実施している期間中はRAIDデグレード状態に移行できず、RAID装置のストレージアクセスが復帰できない(図16,17参照)。その結果、正常なストレージ装置4へのデータ書込みもできなくなるため、write待ちデータの滞留を引き起こす。したがって、ストレージドライバ3へのリトライ機能の実装は好ましくない。
実施の形態2.
実施の形態1では、ストレージ状態監視機能部52において、ストレージ装置4が修復不可能と判断するまでの期間を固定値(例えば200秒など)とする場合について示した。それに対して、実施の形態2では、ストレージ装置4の容量に応じて上記期間を調整する場合について示す。
一般的に、ストレージ装置4内部の修復処理ではストレージ装置4内部で代替箇所を探索するシーク処理が行われる。このシーク処理に要する時間は、ストレージ装置4の容量に比例して増加する。このことから、ストレージ装置4が修復処理に要する時間の最悪値は、その容量に比例して増加する。よって、ストレージ装置4の容量に比例して、修復不可能と判断するまでの秒数を長めに調整できる。
以上のように、この実施の形態2によれば、ストレージ状態監視機能部52において、ストレージ装置4の容量に応じて、ストレージ装置4の修復不可能と判断するまでの期間を調整するように構成しても、実施の形態1と同様の効果を得ることができる。
なお、実施の形態2では、実施の形態1の構成を元に説明を行ったが、以下の実施の形態3〜8の構成に対しても同様に適用可能である。
実施の形態3.
実施の形態1では、障害統計管理機能部51において、過去24時間内に発生した障害発生回数を管理する場合について示した。それに対して、実施の形態3では、各ストレージ装置4の仕様に記載された代替セクタ数に基づく統計情報を管理する場合について示す。
一例として、1セクタ512Byteのストレージ装置4にて代替セクタ数が160セクタ存在する場合、装置からストレージ装置4へのデータブロックの転送量が4098Byteであれば、1回の転送では8セクタ分のデータが転送される。データの転送ごとにストレージ装置4内部にて修復処理の要否が判定されることから、障害統計管理機能部51では、代替セクタ数に基づく障害対応残数として(160×512)/(4098)=20という数値を初期値(障害発生可能回数)とする。以降、デグレード通知を受信する度に、通信途絶したストレージ装置4ごとに1ずつ減算処理を行う。そして、この値が0となったストレージ装置4は代替セクタが枯渇した可能性が高いため、ストレージ状態監視機能部52へ処理を移行せず、異常状態通知機能部53に異常を通知する。
したがって、本実施の形態では、障害統計管理テーブル512において、時間に基づく何らかの管理は不要であり、ストレージ装置4に対して累積的に統計情報が管理される。
次に、上記のように構成された障害統計管理機能部51の動作について、図6,7を参照しながら説明する。なお、図7は、障害統計管理機能部51が保持する障害統計管理テーブル512の構造を示す図である。この障害統計管理テーブル512には、図5に示すように、ストレージ装置4ごとに、障害対応残数(障害発生可能回数から障害発生回数を差し引いた値)が記録される。
障害統計管理機能部51の動作では、図6に示すように、まず、RAID管理S/W2からデグレード通知を受信したかを判断する(ステップST601)。このステップST601において、デグレード通知を受信していない場合には、シーケンスはステップST601に戻り、待機状態となる。
一方、ステップST601において、デグレード通知を受信した場合には、障害統計管理テーブル512のうち、障害が発生したストレージ装置4に対応する障害対応残数が0であるかを判断する(ステップST602)。
このステップST602において、障害が発生したストレージ装置4の障害対応残数が0ではないと判断した場合には、当該障害対応残数から1を減算する(ステップST603)。
次いで、デグレード通知をストレージ状態監視機能部52に出力する(ステップST604)。その後、シーケンスはステップST601に戻る。
一方、ステップST602において、障害が発生したストレージ装置4の障害対応残数が0であると判断した場合には、ストレージ異常通知を異常状態通知機能部53に出力する(ステップST605)。その後、シーケンスはステップST601に戻る。
以上のように、この実施の形態3によれば、障害統計管理機能部51において、ストレージ装置4が有する代替セクタ数に基づいて障害発生可能回数を算出し、デグレード通知に基づいて、ストレージ装置4の障害発生回数が障害発生可能回数を超過した場合には、当該ストレージ装置4は修復不可能であると判断し、障害発生可能回数内である場合には、当該ストレージ装置4は修復可能であると判断するように構成しても、実施の形態1と同様の効果を得ることができる。
なお、本実施の形態における減算処理を行う形態は一例であり、故障回数の加算処理でもよい。その場合、代替セクタ数に基づく故障対応残数は加算の上限値として用いられる。
実施の形態4.
実施の形態1では、RAID障害自己修復装置5をS/W−RAIDにて実装する場合を示したが、H/W−RAIDにて実装することも考えられる。なお、本発明に係るRAID障害自己修復装置5は、RAID装置から切り離されたストレージ装置4に対してポーリングできる必要があるため、H/W−RAIDにて実装する場合には図15に示すRAID管理H/W600の内部に実装される。
実施の形態5.
実施の形態4では、RAID障害自己修復装置5をH/W−RAIDにて実装する場合について示した。それに対して、RAID装置から切り離されたストレージ装置4の通信機能が復帰したことをS/W側から知る手段が提供されるならば、本発明に係るRAID障害自己修復装置5を、RAID管理H/W600の内部ではなくS/W実装によって実現することも可能である。例えば、RAID管理H/W600が、RAID装置から切り離したストレージ装置4へのS/W側からのアクセスを許可する場合に可能である。
実施の形態6.
RAID装置がパーティション構成であっても本方式は有効である。以下では、実施の形態1に係るRAID装置において、ストレージ装置4がパーティション構造である場合について示す。
この場合、RAID管理S/W2からのデグレード通知には、障害が発生してRAID装置から切り離されたストレージ装置4の名称、デグレードの発生時刻(障害の発生時刻)および当該ストレージ装置4内の当該障害が発生したパーティションの番号を示す情報が含まれているものとする。
また、障害統計管理機能部51では、図3に示すようにストレージ装置4ごとに統計情報を管理したことに替えて、ストレージ装置4のパーティションごとに統計情報を管理する。
次に、上記のように構成された障害統計管理機能部51の動作について、図8,9を参照しながら説明する。なお、図9は、障害統計管理機能部51が保持する障害統計管理テーブル513の構造を示す図である。この障害統計管理テーブル513には、図9に示すように、ストレージ装置4のパーティションごとに、障害が発生した時刻(障害情報)が記録される。
障害統計管理機能部51の動作では、図8に示すように、まず、RAID管理S/W2からデグレード通知を受信したかを判断する(ステップST801)。このステップST801において、デグレード通知を受信していない場合には、シーケンスはステップST801に戻り、待機状態となる。
一方、ステップST801において、デグレード通知を受信した場合には、障害統計管理テーブル513全体から24時間以上経過したエントリ(障害情報)を削除する(ステップST802)。
次いで、デグレード通知の内容に基づいて、障害統計管理テーブル513に障害情報を登録する(ステップST803)。すなわち、デグレード通知に示されたストレージ装置4のパーティション単位での障害発生時刻を、障害統計管理テーブル513に記録する。
次いで、障害統計管理テーブル513のうち、ストレージ装置4の当該障害が発生したパーティションに対応するエントリが10エントリに達したかを判断する(ステップST804)。
このステップST804において、ストレージ装置4の障害が発生したパーティションに対応するエントリが10エントリに達したと判断した場合には、当該ストレージ装置4は故障停止する直前であり修復不可能であると判断し、ストレージ異常通知を異常状態通知機能部53に出力する(ステップST805)。その後、シーケンスはステップST801に戻る。
一方、ステップST804において、ストレージ装置4の障害が発生したパーティションに対応するエントリが10エントリに達していないと判断した場合には、当該ストレージ装置4は修復可能であると判断し、デグレード通知をストレージ状態監視機能部52に出力する(ステップST806)。その後、シーケンスはステップST801に戻る。
以上のように、この実施の形態6によれば、ストレージ装置4のパーティション単位で障害発生回数を管理するように構成しても、実施の形態1と同様の効果が得られる。
実施の形態7.
RAID装置がパーティション構成である場合において、実施の形態6に替えて、実施の形態3に係る障害統計管理機能部51を適用した構成としてもよい。
ここで、障害統計管理機能部51の動作について、図10,11を参照しながら説明する。なお、図11は、障害統計管理機能部51が保持する障害統計管理テーブル514の構造を示す図である。この障害統計管理テーブル514には、図11に示すように、ストレージ装置4のパーティションごとに、障害対応残数(障害発生可能回数から障害発生回数を差し引いた値)が記録される。
障害統計管理機能部51の動作では、図10に示すように、まず、RAID管理S/W2からデグレード通知を受信したかを判断する(ステップST1001)。このステップST1001において、デグレード通知を受信していない場合には、シーケンスはステップST1001に戻り、待機状態となる。
一方、ステップST1001において、デグレード通知を受信した場合には、障害統計管理テーブル514のうち、ストレージ装置4の障害が発生したパーティションに対応する障害対応残数が0であるかを判断する(ステップST1002)。
このステップST1002において、ストレージ装置4の障害が発生したパーティションに対応する障害対応残数が0ではないと判断した場合には、当該障害対応残数から1を減算する(ステップST1003)。
次いで、デグレード通知をストレージ状態監視機能部52に出力する(ステップST1004)。その後、シーケンスはステップST1001に戻る。
一方、ステップST1002において、ストレージ装置4の障害が発生したパーティションに対応する障害対応残数が0であると判断した場合には、ストレージ異常通知を異常状態通知機能部53に出力する(ステップST1005)。その後、シーケンスはステップST1001に戻る。
以上のように、この実施の形態7によれば、代替セクタ数を用いて、ストレージ装置4のパーティション単位で障害発生の統計情報を管理するように構成しても、実施の形態1と同様の効果が得られる。
実施の形態8.
実施の形態1では、RAIDとして、RAID1を用いて説明を行ったが、これに限るものではなく、RAID0以外のRAIDに対しても有効である。以下に例として、RAID0,RAID5の構成に付いて示す。
まず、RAID0の構成について図12を参照しながら説明する。
図12に示すように、RAID0では、書込みを行うデータは2つのデータ(データ1,データ2)に分割され、別々のストレージ装置4に格納される。よって、RAID0ではデータの冗長性が無く、故障確立も増加するが、ストレージアクセス速度が高速となり、またストレージサイズも各ストレージ装置4の合計値となる。
そして、RAID0では、その機能上デグレード状態は発生しない(いずれか1つのストレージ装置4の故障であってもデータの整合性が保てない)ため、本発明に係るRAID障害自己修復装置5を適用することに意味が無い。
次に、RAID5の構成について図13を参照しながら説明する。
図13に示すように、RAID5では、書込みを行うデータ(例えばデータA)が2つのデータ(例えばデータA1,データA2)と1つのパリティ(例えばパリティA)に分割され、別々のストレージ装置4に格納される。よって、いずれか1つのストレージ装置4が故障してもパリティからデータを復元することが可能である。
そして、RAID5では、デグレード状態が発生しえるため、本発明に係るRAID障害自己修復装置5を適用することが有効である。
以上のように、この実施の形態8によれば、RAID障害自己修復装置5をRAID0以外のRAIDに適用する構成としても、実施の形態1と同様の効果を得ることができる。
実施の形態9.
本発明に係るRAID障害自己修復装置5が適用可能なストレージ装置4としては、磁気ディスクを用いた記録媒体(例えば、ハードディスク)のみに限らない。一例として、不揮発メモリを用いた記録媒体(例えばSolid State Driveなど)などであってもよい。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 アプリケーション、2 RAID管理S/W、3,3a,3b ストレージドライバ、4,4a,4b ストレージ装置、5 RAID障害自己修復装置、11 ストレージ故障通知機能部、51 障害統計管理機能部、52 ストレージ状態監視機能部、53 異常状態通知機能部、54 RAID復帰処理機能部、511〜514 障害統計管理テーブル、531 ストレージ状態監視テーブル。

Claims (7)

  1. 複数のストレージ装置からなるRAID装置において障害が発生した前記ストレージ装置が切り離された旨を示すデグレード通知を受けることで、当該デグレード通知に基づく障害発生履歴から、当該障害が発生したストレージ装置の修復可能性を判断する障害統計管理機能部と、
    前記障害統計管理機能部により前記ストレージ装置が修復可能であると判断された場合に、当該ストレージ装置の修復状況を監視するストレージ状態監視機能部と、
    前記障害統計管理機能部または前記ストレージ状態監視機能部により前記ストレージ装置が修復不可能であると判断された場合に、当該ストレージ装置の故障を外部に通知する異常状態通知機能部と、
    前記ストレージ状態監視機能部により前記ストレージ装置の修復処理が完了したと判断された場合に、当該ストレージ装置を前記RAID装置に復帰させるRAID復帰処理機能部と
    を備えたRAID障害自己修復装置。
  2. 前記デグレード通知には、前記障害が発生したストレージ装置および当該障害が発生した時刻を示す情報が含まれ、
    前記障害統計管理機能部は、前記デグレード通知に基づいて、前記ストレージ装置の障害発生回数が所定期間内に所定回数以上である場合には、当該ストレージ装置は修復不可能であると判断し、前記所定期間内に所定回数未満である場合には、当該ストレージ装置は修復可能であると判断する
    ことを特徴とする請求項1記載のRAID障害自己修復装置。
  3. 前記障害統計管理機能部は、前記ストレージ装置が有する代替セクタ数に基づいて障害発生可能回数を算出し、前記デグレード通知に基づいて、前記ストレージ装置の障害発生回数が前記障害発生可能回数を超過した場合には、当該ストレージ装置は修復不可能であると判断し、前記障害発生可能回数内である場合には、当該ストレージ装置は修復可能であると判断する
    ことを特徴とする請求項1記載のRAID障害自己修復装置。
  4. 前記デグレード通知には、前記障害が発生したストレージ装置内の当該障害が発生したパーティションを示す情報が含まれ、
    前記障害統計管理機能部は、前記パーティション単位で前記ストレージ装置が修復可能であるかを判断する
    ことを特徴とする請求項2または請求項3記載のRAID障害自己修復装置。
  5. 前記ストレージ状態監視機能部は、監視対象のストレージ装置に対して書込み処理を実行し、所定期間経過しても当該ストレージ装置から前記書込み処理に対する応答がない場合には、当該ストレージ装置は修復不可能であると判断し、前記所定期間内に前記応答があった場合には、当該ストレージ装置は修復処理が完了したと判断する
    ことを特徴とする請求項1から請求項4のうちのいずれか1項記載のRAID障害自己修復装置。
  6. 前記ストレージ状態監視機能部は、前記ストレージ装置のデータ記憶容量に応じて、前記所定期間を調整する
    ことを特徴とする請求項5記載のRAID障害自己修復装置。
  7. 前記各機能部は、ソフトウェア、ハードウェハまたはその両方を組み合わせて実装される
    ことを特徴とする請求項1から請求項6のうちのいずれか1項記載のRAID障害自己修復装置。
JP2012204272A 2012-09-18 2012-09-18 Raid障害自己修復装置 Pending JP2015222454A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012204272A JP2015222454A (ja) 2012-09-18 2012-09-18 Raid障害自己修復装置
PCT/JP2013/069517 WO2014045691A1 (ja) 2012-09-18 2013-07-18 Raid障害自己修復装置
TW102127915A TW201423378A (zh) 2012-09-18 2013-08-05 獨立磁碟備援陣列(raid)故障的自我修復裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012204272A JP2015222454A (ja) 2012-09-18 2012-09-18 Raid障害自己修復装置

Publications (1)

Publication Number Publication Date
JP2015222454A true JP2015222454A (ja) 2015-12-10

Family

ID=50341017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012204272A Pending JP2015222454A (ja) 2012-09-18 2012-09-18 Raid障害自己修復装置

Country Status (3)

Country Link
JP (1) JP2015222454A (ja)
TW (1) TW201423378A (ja)
WO (1) WO2014045691A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6539974B2 (ja) * 2014-10-06 2019-07-10 日本電気株式会社 障害通報装置、障害通報方法及び障害通報プログラム
CN110088023B (zh) * 2016-12-26 2020-09-04 三菱电机大楼技术服务株式会社 电梯控制系统
TWI820814B (zh) * 2022-07-22 2023-11-01 威聯通科技股份有限公司 儲存系統與其硬碟恢復方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3063666B2 (ja) * 1997-03-31 2000-07-12 日本電気株式会社 アレイディスク制御装置
JPH1195933A (ja) * 1997-09-19 1999-04-09 Hitachi Ltd ディスクアレイ装置
JP3184171B2 (ja) * 1998-02-26 2001-07-09 日本電気株式会社 ディスクアレイ装置、そのエラー制御方法、ならびにその制御プログラムを記録した記録媒体
JP2000003255A (ja) * 1998-06-12 2000-01-07 Nec Corp ディスクアレイ装置
JP3841595B2 (ja) * 1999-09-02 2006-11-01 富士通株式会社 記憶装置の交代処理時間判定試験方法
JP2001265538A (ja) * 2000-03-16 2001-09-28 Matsushita Electric Ind Co Ltd ディスク装置の故障を予測する故障予測装置、媒体、および情報集合体
JP2004171373A (ja) * 2002-11-21 2004-06-17 Nec Corp ディスクアレイ装置

Also Published As

Publication number Publication date
TW201423378A (zh) 2014-06-16
WO2014045691A1 (ja) 2014-03-27

Similar Documents

Publication Publication Date Title
TWI450087B (zh) 複數個磁碟陣列系統之資料儲存方法及資料儲存系統
US8392752B2 (en) Selective recovery and aggregation technique for two storage apparatuses of a raid
JP4303187B2 (ja) プログラム、記憶制御方法及び記憶装置
JP2005100259A (ja) ドライブの2重障害を防止するアレイ型ディスク装置、プログラム、及び方法
CN110058791B (zh) 存储系统以及相应的方法和计算机可读介质
WO2015058542A1 (zh) 独立冗余磁盘阵列的重构方法及装置
JP2011170589A (ja) ストレージ制御装置、ストレージ装置およびストレージ制御方法
JP2005276196A (ja) ドライブ故障に続いてドライブリカバリを行うためのシステムおよび方法
JP5910444B2 (ja) 情報処理装置、起動プログラム、および起動方法
US7861112B2 (en) Storage apparatus and method for controlling the same
WO2014045691A1 (ja) Raid障害自己修復装置
CN103049407B (zh) 数据存储方法、装置及系统
KR20220008237A (ko) 임시 스토리지에 대한 데이터 복원을 위한 시스템 및 장치
WO2021088367A1 (zh) 数据恢复方法及相关设备
US7457990B2 (en) Information processing apparatus and information processing recovery method
JPH1195933A (ja) ディスクアレイ装置
JP2006164304A (ja) ドライブの2重障害を防止するアレイ型ディスク装置、プログラム、及び方法
JP5505329B2 (ja) ディスクアレイ装置及びその制御方法
US20110055475A1 (en) Storage control device and storage system
TW201512830A (zh) 資料儲存系統及其控制方法
CN115206406A (zh) 管理独立磁盘冗余阵列的方法和装置
JP2009169469A (ja) 計算機システム
JP2014041523A (ja) データ管理装置、及び、データ管理方法
JP2016066286A (ja) 情報処理装置、情報処理方法、及び、プログラム
CN113868000B (zh) 一种链路故障修复方法、系统及相关组件