JP3597349B2 - Storage subsystem and fault recovery method thereof - Google Patents
Storage subsystem and fault recovery method thereof Download PDFInfo
- Publication number
- JP3597349B2 JP3597349B2 JP24152197A JP24152197A JP3597349B2 JP 3597349 B2 JP3597349 B2 JP 3597349B2 JP 24152197 A JP24152197 A JP 24152197A JP 24152197 A JP24152197 A JP 24152197A JP 3597349 B2 JP3597349 B2 JP 3597349B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- storage subsystem
- physical
- primary
- physical volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Techniques For Improving Reliability Of Storages (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、記憶サブシステムおよびその障害回復技術に関し、特に、遠隔地に設置され、各々が冗長記憶構成を採る複数の記憶サブシステムにて構成されるデータ二重化記憶サブシステム等に適用して有効な技術に関する。
【0002】
【従来の技術】
中央処理装置と周辺記憶装置とからなる情報処理システムでは、情報量の膨大化とともに取り扱うデータに対する信頼性への要求が強まる中で、従来より記憶媒体や記憶装置の物理的な障害に対する信頼性向上策として、複数個の記憶媒体にデータを二重に保持することによって、障害に伴うデータ消失に対しバックアップデータからのデータ回復を図るデータ二重化記憶サブシステムが実用化されている。
【0003】
一方、個々の記憶サブシステムとしては、データを複数個の記憶媒体に分割して配置し、更に幾つかのデータを一単位としてパリティデータに代表される冗長データを生成および分散記憶する事によって、あるデータの記憶媒体の障害時に、冗長データと当該一単位内の他データとからデータ回復を行なうRAID記憶装置も実用化されている。
【0004】
ところが銀行等のオンラインシステムに代表されるように、広域に渡って情報処理システムが機能し、多くの情報処理システムが連動しているようなシステムにおいては、これらのデータ信頼性向上技術は、一つの記憶サブシステム内でデータを多重に保持したり冗長化を図るものであり、その記憶サブシステム全体の障害や、中央処理装置をも含む情報処理システム全体が例えば建物全体の停電・火災等によって動作しなくなった場合、その被害が広域のシステム全体に影響を及ぼすばかりでなく、データ消失に伴う被害度は甚大なものになってしまう。この様な懸念に対し、遠隔地においてデータを二重に保持するデータ二重管理システムが実用化されている。しかしながらこの遠隔データ二重化においては、遠隔の情報処理システム間のデータの通信を中央処理装置間の通信機能によって処理しているため、データ処理や演算等を行なう中央処理装置の負荷が大きく、この中央処理装置の負荷を軽減する事が、遠隔データ二重化システムの課題とされている。
【0005】
この様な課題の対策として、遠隔地にあるそれぞれの情報処理システム間を、記憶制御装置に制御装置間で通信およびデータ転送を行なう機能を設け、通信・データ転送パスで制御装置同士を接続する事により、データ二重化に掛かる負荷を記憶制御装置に持たせ中央処理装置の負荷を軽減するシステムも実用化されている。この遠隔データ二重化記憶サブシステムでは、主業務を行なう情報処理システムをプライマリシステムとし、それぞれ第1の中央処理装置、第1の記憶サブシステムおよび第1の記憶制御装置とする。また、バックアップ側の情報処理システムをセカンダリシステムとし、それぞれ第2の中央処理装置、第2の記憶サブシステムおよび第2の記憶制御装置とする。第1、第2のそれぞれの記憶制御装置は不揮発化機構を備えた大容量のキャッシュメモリ(ディスクキャッシュ)を備えている場合が一般的である。第1と第2の記憶制御装置間を1本ないしは複数本のデータ転送パスで接続し、データの一単位毎(例えばボリューム毎)に正・副のペアボリュームの関係を定義する。正側のデータをマスタデータ(マスタボリューム)と呼び、副側データをリモートデータ(リモートボリューム)と呼ぶ。プライマリシステムでの記憶サブシステムへのライト要求(I/O)においては、第1の中央処理装置から第1の記憶サブシステムへの書き込みデータを、自配下の記憶装置に書き込むだけでなく、第2の記憶制御装置のホストとして第2の記憶サブシステムにデータライトI/Oを発行し、データの二重化を図る。この様にしてデータファイルの二重化の運用を行なっている最中に、プライマリシステム側で障害が発生し、業務の継続が不可能になった場合には、即座にセカンダリシステムに業務を切替え、二重化されている第2の記憶サブシステムのデータを元に業務を継続する。このような技術の一例として、米国特許第5,155,845号に開示された技術があげられる。
【0006】
また、既に第1の記憶サブシステム上に存在するデータボリュームを新たに遠隔二重化ボリュームとして定義し二重化ペアを新規に作成する場合(これを初期コピーと呼ぶ)には、第1の記憶制御装置は、第1の記憶サブシステムの当該ボリュームのデータを順次に記憶装置からキャッシュメモリに読み出し、第1の記憶制御装置から第2の記憶サブシステムにライトI/Oを発行する事によって、ボリュームデータの複写を行なう。この時のデータ複写の一単位はデータ格納単位の一単位(トラック)毎であっても良いし、複数個のデータ単位(例えば、シリンダ)毎であっても構わない。更に、第1の記憶サブシステムは、初期コピー処理のI/Oを実行しながら、同時に第1の中央処理装置からの更新I/Oを受ける事も可能である。初期コピー実行中のボリューム上のデータに対する更新においては、第1の記憶制御装置は、その更新範囲が、初期コピー処理が実施済み(第2の記憶サブシステムへの複写が完了済み)の領域に対する更新の場合には、同期または非同期の方式において第2の記憶サブシステムへの更新データの反映を行なう。
【0007】
第1および第2の記憶サブシステムは、以下に述べるようなRAID方式のデータ格納方式であっても良い。本技術は、D.A,Patterson,et al.”Introduction to Redundant Arraysof Inexpensive Disks(RAID)”,spring COMPCON’89,pp.112−117,Feb.1989の論文にて述べられている技術である。RAID方式とは、記憶サブシステムをn+m個の記憶装置を一つのデータ格納単位とし、データのある一単位(例えば、記憶媒体上の1トラック)毎に、n個の記憶装置に分割して格納する。さらにn個のデータ単位を1グループとしてパリティデータと呼ばれる冗長データを作成する。冗長データ数はその冗長度に応じて定まり、冗長度がmの場合はm個の冗長データを作成する。冗長データそのものも当該冗長データを構成するデータグループの格納記憶媒体とは異なる記憶媒体に格納する。このn個のデータ単位とそのm個の冗長データから構成されるデータ群を冗長化グループと呼ぶ。このことにより、一つの記憶装置が障害により読み出し不能に陥ったとしても、当該冗長化グループの他のn―1個のデータとm個の冗長データからデータの再生が可能であり、また同様に障害によって書き込み不能に陥った場合でもm個の冗長データを更新しておくことで論理的にデータの格納がなされる。このようにして記憶媒体やディスク媒体の障害に対しデータの信頼性を高めている。
【0008】
従来の、RAID方式を用いている遠隔データ二重化記憶サブシステムにおいては、第1の記憶サブシステムで記憶媒体の障害により冗長性が失われた場合、第1の記憶サブシステム内で、障害が発生した記憶媒体以外の第1の記憶サブシステム内の記憶媒体に格納されたn−1個のデータおよびm個の冗長データを用い、障害が発生した記憶媒体のデータを復元し再び第1の記憶サブシステム内の前記記憶媒体に記録させ、完全に冗長性およびn個のデータを復元させた後、前記第2の記憶サブシステムからのデータ複写を完了させて初めて前記第2の記憶サブシステムとの二重化システムとして運用可能である。この種の技術として例えば特開平06−266508号公報がある。
【0009】
しかし、この技術では前記第1の記憶サブシステム内の完全なる冗長性およびデータの回復がなされるまで、RAIDの遠隔データ二重化記憶サブシステムとしての機能が制限される事になる。
【0010】
【発明が解決しようとする課題】
上記で述べたRAID方式の場合、論理ボリュームと物理ボリュームが1:1に対応していない場合があり(特にRAID5など)、冗長データの作成単位(以下、ECCグループとする)内に複数の論理ボリュームが含まれる事がある。この時、ECCグループ内で複数の物理記憶媒体に障害が発生すると、そのECCグループは冗長性を失い、ECCグループ内のデータへのアクセスが不可能(ECCグループの閉塞)となるが、このECCグループの閉塞によりそのECCグループ内の全論理ボリューム内データへのアクセスが不可能になってしまうという技術的課題がある。
【0011】
一方、上記で述べた遠隔データ二重化記憶サブシステムにRAID方式を用いている場合には、このように第1の記憶サブシステム内のある1ECCグループが閉塞したとしても、そのECCグループ内のデータに対するアクセス時はそのデータを二重化している第2の記憶サブシステム内の物理記憶媒体にアクセスすることでデータのリード・ライト処理を実行することができる。
【0012】
しかしこの状態では、中央処理装置からのリード・ライト要求は第2の記憶サブシステム内のデータのみを用いて処理することになり、データは二重化状態にない。従って、この状態が長く続くと第2の記憶サブシステムに障害が発生し、セカンダリシステムがダウンすることでデータ損失を引き起こす危険性が高くなる。そこで閉塞したECCグループを直ちに回復する処理が必要である。
【0013】
ここで、閉塞したECCグループを回復させるには、障害の発生した物理記憶媒体内のデータが二重化されている第2の記憶サブシステム内の物理記憶媒体内のデータを第1の記憶サブシステム内の予備の物理記憶媒体内に複写しデータを復元するとともに、閉塞したECCグループの冗長データを回復する処理が必要である。
【0014】
しかし、閉塞したECCグループに含まれる全論理ボリュームの複写をするには多大な処理時間を要し、ECCグループの回復が遅れる上、サブシステム内の各資源を占有する時間も増大し、中央処理装置からのリード・ライト要求の処理性能を劣化させる恐れがある。また、従来の遠隔データ二重化技術では、二重化はあくまでも論理ボリューム単位であり、物理ボリュームの二重化という意識はない。従って、冗長データの複写は行われず、閉塞したECCグループの冗長性を回復させることが出来ない。もし、冗長データも回復させようとするならば、閉塞したECCグループ内の冗長データを除く全データを第1の記憶サブシステムに回復した後、それらのデータを元に冗長データを作成して冗長データの回復を行なう必要がある。これもやはり、閉塞したECCグループの回復に時間がかかってしまう。
【0015】
そこで、第1の記憶サブシステム内のECCグループ内の複数の記憶媒体に障害が発生し冗長性がなくなった場合、即座にECCグループを再構成し、データの冗長性を復元させ遠隔のデータ二重化状態に戻すための手段が必要である。
【0016】
本発明の目的は、冗長記憶構成の記憶サブシステムにおいて障害によって失われた冗長性を、システムを停止させることなく迅速に回復することが可能な記憶サブシステムおよびその障害回復技術を提供することにある。
【0017】
本発明の他の目的は、冗長記憶構成の記憶サブシステムにおいて障害によって失われた冗長性およびデータ二重化状態の回復を、システムを停止させることなく迅速に行うことが可能な記憶サブシステムおよびその障害回復技術を提供することにある。
【0018】
【課題を解決するための手段】
本発明の記憶サブシステムの障害回復方法は、
複数のデータと当該複数のデータから生成した冗長データを、正側記憶サブシステムの複数の記憶媒体に分散して格納するステップと、
複数のデータと冗長データとを、副側記憶サブシステムの複数の記憶媒体に複写するステップと、
冗長データの冗長度を超えるデータの障害が正側記憶サブシステムに発生した場合に、正側記憶サブシステムの複数の記憶媒体に格納されている正常なデータと、副側記憶サブシステムの複数の記憶媒体に格納してあるデータから障害データを復元するステップと、を有するものである。
また、本発明の記憶サブシステムの障害回復方法は、
複数のデータと当該複数のデータから生成した冗長データとで冗長グループを作成するステップと、
複数のデータと冗長データを正側記憶サブシステムの複数の記憶媒体に分散して格納するステップと、
複数のデータと冗長データとを、副側記憶サブシステムの複数の記憶媒体に複写するステップと、
正側記憶サブシステムの記憶媒体に冗長データの冗長度を超える障害が発生した場合に、正側記憶サブシステムの正常な記憶媒体に格納されているデータと、障害記憶媒体に対応する副側記憶サブシステムの記憶媒体に複写されているデータにより別の冗長グループを作成するステップと、を有するものである。
また、本発明の記憶サブシステムの障害回復方法は、
複数のデータと当該複数のデータから生成した冗長データを、正側記憶サブシステムの複数の記憶媒体に分散して格納するステップと、
複数のデータと冗長データとを、副側記憶サブシステムの複数の記憶媒体に複写するステップと、
正側記憶サブシステムの正側記憶手段のみで構成される冗長グループG1において、冗長データの冗長度を超える障害が発生した場合に、冗長グループG1に属する障害が発生していない正側記憶手段と、障害が発生した正側記憶手段に対応するデータを保持する副側記憶手段との間で冗長グループG2を構成するステップと、
正側記憶サブシステムの正側予備記憶手段に、障害が発生した正側記憶手段に対応するデータを保持する副側記憶手段の保持する内容を複写するステップと、冗長グループG1に属する障害が発生していない正側記憶手段と、正側予備記憶手段との間で冗長グループG3を構成するステップと、を有するものである。
また、本発明の記憶サブシステムの障害回復方法は、
複数のデータと当該複数のデータから生成した冗長データを、正側記憶サブシステムの複数の記憶媒体に分散して格納するステップと、
複数のデータと冗長データとを、副側記憶サブシステムの複数の記憶媒体に複写するステップと、
正側記憶サブシステムの正側記憶手段のみで構成される冗長グループG1において、冗長データの冗長度を超える障害が発生した場合に、冗長グループG1に属する障害が発生していない正側記憶手段と、障害が発生した正側記憶手段に対応するデータを保持する副側記憶手段との間で冗長グループG2を構成するステップと、
正側記憶サブシステムの正側予備記憶手段に、障害が発生した正側記憶手段に対応するデータを保持する副側記憶手段の保持する内容を複写するステップと、障害が発生した正側記憶手段の数が、正側予備記憶手段の数を上回る場合に、冗長グループG1に属する障害が発生していない正側記憶手段と、正側予備記憶手段、および障害が発生した正側記憶手段に対応するデータを保持する副側記憶手段との間で冗長グループG4を構成するステップと、を有するものである。
また、本発明の記憶サブシステムは、更新データを他の記憶サブシステムに備わる記憶手段との間で多重に保持する記憶手段を備え、
記憶手段は、冗長グループを構成する複数のデータ、および当該データから生成した冗長データ、を複数個の記憶媒体に分散して格納する記憶サブシステムであって、
記憶サブシステムの記憶手段で構成される冗長グループG1において、冗長データの冗長度を超える障害が発生した場合に、冗長グループG1に属する障害が発生していない記憶手段と、障害が発生した記憶手段に対応するデータを保持する他の記憶サブシステムに備わる記憶手段との間で冗長グループG2を構成するものである。
【0019】
より具体的には、一例として、データ二重化記憶サブシステムにおいて、正側記憶サブシステム内の第1の冗長データグループG1内でm個(m>1)の記憶媒体に障害が発生し、正側記憶サブシステム内の記憶媒体だけで冗長性を保証する冗長データグループの構成が不可能となった場合、障害の発生したm個の記憶媒体の二重化データを保有している副側記憶サブシステム内の記憶媒体と、正側記憶サブシステム内の第1の冗長データグループG1内の障害の発生した記憶媒体以外の正常な記憶媒体とから第2の冗長データグループG2を構成して、障害が発生した第1の冗長データグループG1内のデータの冗長性を保証し、上位装置からのリード・ライト要求の処理を可能とする手段を備えたものである。
また、障害が発生している記憶媒体のうちの(m―1)個のデータは副側記憶サブシステムから正側記憶サブシステム内の予備の記憶媒体にデータを複写することで第1の冗長データグループG1を第3の冗長データグループG3に再構成してデータの冗長性を復元し、残りの一つの障害の発生している記憶媒体内のデータについては、障害の発生した第1の冗長データグループG1内のデータおよび冗長データを用いて正側記憶サブシステム内の予備の記憶媒体内に復元し、データ二重化状態に戻す手段を備えたものである。
【0020】
また、障害の発生したm個の記憶媒体内のデータを冗長データグループ作成単位に副側記憶サブシステムから正側記憶サブシステム内の予備の記憶媒体に復元して障害が発生している記憶媒体を含む第1の冗長データグループG1を第3の冗長データグループG3に再構成し、第3の冗長データグループG3の再構成が終了した範囲に対する上位装置からのリード・ライト要求は、再構成した第3の冗長データグループG3内のデータを用いて処理し、データの複写が済んでおらず、第3の冗長データグループG3が再構成されていない範囲に対する上位装置からのリード・ライト要求は、上述の第2の冗長データグループG2内のデータを用いて処理し、データの複写による第1の冗長データグループG1の第3の冗長データグループG3への再構成終了後、データ二重化状態に戻す手段を備えたものである。
【0021】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照しながら詳細に説明する。
【0022】
図1は、本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムを含む情報処理システムの構成の一例を示す概念図であり、図2、図3および図4は、本実施の形態のデータ二重化記憶サブシステムにて用いられる制御情報の一例を示す説明図、図5は、本実施の形態のデータ二重化記憶サブシステムの作用の一例を示す概念図、図6は、本実施の形態のデータ二重化記憶サブシステムの作用の一例を示すフローチャートである。また、図7は、本実施の形態のデータ二重化記憶サブシステムの変形例の作用の一例を示す概念図である。
【0023】
本実施の形態の情報処理システムは、中央処理装置1と、記憶制御装置2、ディスク装置3、記憶制御装置4、ディスク装置5からからなるデータ二重化記憶サブシステムとで構成されている。データ二重化記憶サブシステムの記憶制御装置2は中央処理装置1とデータ転送パス61により接続されているが、記憶制御装置4は中央処理装置1には接続されておらず、記憶制御装置2とデータ転送パス62で接続されている。
【0024】
ディスク装置3およびディスク装置5の各々には、それぞれ複数の物理ドライブ3a(正側記憶手段)および複数の物理ドライブ5a(副側記憶手段)が配置されており、データの記憶にはRAID5の冗長記憶構成を用いている。すなわち、外部から受領したデータは複数のデータ単位に分割され、さらに当該データ単位群からはパリティ等の冗長データ(群)が生成され、これらのデータ単位群および対応する冗長データ(群)が、異なる物理ドライブ3a(物理ドライブ5a)に分散して格納される。
【0025】
ディスク装置3およびディスク装置5の各々には、予備の物理ドライブ3a(SPARE−VOL)および予備の物理ドライブ5a(SPARE−VOL)が配置されており、後述のように、必要に応じて、障害の発生した物理ドライブの代替として用いられる。
【0026】
なお、以下の説明では、中央処理装置1に接続される記憶制御装置2とディスク装置3からなる記憶サブシステムを正側記憶サブシステム、記憶制御装置4とディスク装置5からなる記憶サブシステムを副側記憶サブシステムとする。
【0027】
まず、正側記憶サブシステムの構成の一例について説明する。
【0028】
チャネル制御部22は中央処理装置1と記憶制御装置2とのインターフェース機能を有し、中央処理装置1が発行するディスク装置3内のデータに対する入出力要求を受け付ける。ホストコマンド処理部24は、チャネル制御部22が受け付けた要求を実行する。ドライブ制御部27はドライブパス63を介して接続された記憶制御装置2とディスク装置3とのインタフェース機能を有し、ディスク装置3と記憶制御装置2とのデータ転送の制御を行なう。
【0029】
制御メモリ25は論理ボリュームと物理ボリュームとの相互の変換を行うための論理・物理VOL変換テーブル201、正側記憶サブシステム内のボリュームと副側記憶サブシステム内のボリュームの二重化の状態を示すペア状態管理テーブル202と、物理VOL状態管理テーブル203を格納している。これらの詳細については必要に応じて後述する。
【0030】
キャッシュメモリ26は中央処理装置1とディスク装置3とのデータ転送時に一時的にデータを格納するためのバッファメモリである。物理ドライブ障害復旧部28は、ディスク装置3内の物理ドライブ3aに障害が発生した場合の復旧処理を制御する。この詳細については必要に応じて後述する。データ転送制御部21は、データ転送パス62を介して接続された記憶制御装置2と記憶制御装置4とのインタフェース機能を有し、データ転送の制御を行なう。リモートI/O制御部23は、ディスク装置5内のデータに対する入出力要求を発行する処理を行なう。
【0031】
次に副側記憶サブシステムの構成の一例について説明する。
【0032】
チャネル制御部41は、データ転送パス62を介して接続された記憶制御装置2と記憶制御装置4とのインターフェース機能を有し、記憶制御装置2が発行するディスク装置5内のデータに対する入出力要求を受け付ける。ホストコマンド処理部42は、チャネル制御部41が受け付けた要求を実行する。ドライブ制御部45は、ドライブパス64を介して接続された記憶制御装置4とディスク装置5とのインタフェース機能を有し、ディスク装置5と記憶制御装置4とのデータ転送の制御を行なう。制御メモリ43は論理ボリュームと物理ボリュームとの相互の変換を行う論理・物理VOL変換テーブル401を格納している。この詳細については必要に応じて後述する。キャッシュメモリ44は記憶制御装置2とディスク装置5とのデータ転送時に一時的にデータを格納するためのバッファメモリである。物理ドライブリード・ライト処理部46は物理ドライブ5aの単位にディスク装置5内のデータのリード・ライト処理を実行する。
【0033】
次に正側記憶サブシステムと副側記憶サブシステムのデータの二重化について説明する。
【0034】
まず、正側記憶サブシステム内の論理VOLおよび物理VOLはそれぞれ副側記憶サブシステム内の論理VOLおよび物理VOLと二重化のペア状態を形成する。このペア状態はペア状態管理テーブル202に格納されている。このペア形成のためのコピーを形成コピーと呼ぶ。形成コピーは形成コピー制御部29がディスク装置3内のデータをリードし、リモートI/O制御部23からディスク装置5内のペアVOLに対しライト要求を発行してデータを書き込むことでデータの二重化を図っている。
【0035】
次に中央処理装置1からのデータの流れを説明する前に、RAID5におけるデータの更新時の処理の概要について説明する。RAID5では、データは複数のドライブによって分割され格納される。また、あるデータ単位に対し、冗長データ(以下パリティデータとする)を持っている。このパリティデータを作成する単位のデータ群およびパリティデータの列をストライプ列といい、パリティデータを作成する単位をError Correction Codeグループ(以下、ECCグループとする)という。今、あるデータに対し更新要求があった場合、更新前の旧データおよびそのストライプ列の旧パリティデータと更新データより、更新後の新パリティデータを割り出し、更新データおよび新パリティデータをドライブに書き込む。この処理をリード・モディファイ・ライト処理という。
【0036】
次に中央処理装置1からディスク装置3内のデータに対するライト要求があった場合のデータの流れについて説明する。中央処理装置1から発行されたライト要求はチャネル制御部22によって受け付けられ、ホストコマンド処理部24によってキャッシュメモリ26にライトデータが格納される。一方、ドライブ制御部27により、ディスク装置3内の更新範囲の更新前旧データおよびそのストライプ列の旧パリティデータをリードし、キャッシュメモリ26に格納する。そしてキャッシュメモリ26に格納されている旧データ、旧パリティデータおよび更新データから新パリティデータを作成し、ライトデータおよび新パリティデータをディスク装置3へライトする。
【0037】
一方、リモートI/O制御部23は、副側記憶サブシステムの記憶制御装置4に対し、ディスク装置3内のライトデータと二重化対象となっているディスク装置5内のペアの物理ドライブ5a上データにライト要求を発行し、中央処理装置1からのライトデータを転送する。記憶制御装置4では記憶制御装置2からのライト要求をチャネル制御部41で受け付け、ホストコマンド処理部42がキャッシュメモリ44にライトデータを格納する。
【0038】
一方、ドライブ制御部27は上記のライトデータと更新前データおよびそのストライプ列の旧パリティデータから新パリティデータを求め、ライトデータとともにディスク装置5へライトする。これらのライト処理が全て完結した時点で記憶制御装置2は中央処理装置1に対し、ライト処理の終了報告を行なう。
【0039】
次に、制御メモリ25内の各テーブルについて説明する。
【0040】
論理・物理VOL変換テーブル201は、論理VOLと物理VOLの変換を行なうためのテーブルであり、上位からある論理VOLに対するリード・ライト要求があった場合、それがどの物理VOLに対応するものかを示す情報が格納されている。図2は、この論理・物理VOL変換テーブル201の構成の一例示す説明図である。論理VOL番号201aと、物理VOL番号201bとが対応付けて格納され、一つの物理VOL内に複数の論理VOLが設定される場合には、必要に応じて、物理VOL内使用シリンダ範囲201cの情報も設定される。なお、特に図示しないが、副側記憶サブシステムの制御メモリ43における論理・物理VOL変換テーブル401も同様の構成となっている。
【0041】
図3は、ペア状態管理テーブル202の内容の一例を示す説明図である。このテーブルは論理VOLペア状態管理テーブル2001と物理VOLペア状態管理テーブル2002から構成されている。
【0042】
論理VOLペア状態管理テーブル2001は正側記憶サブシステム内の論理VOLと副側記憶サブシステム内の論理VOLの二重化の対応関係を示す情報が格納されている。具体的には、一例として、正側論理VOL番号2001a、副側論理VOL番号2001b、ペア状態フラグ2001c、当該VOL内の二重完のデータ範囲を示す有効範囲ポインタ2001d、等の情報が設定される。
【0043】
物理VOLペア状態管理テーブル2002は正側記憶サブシステム内の物理VOLと副側記憶サブシステム内の物理VOLの二重化の対応関係を示す情報が格納されている。具体的には、一例として、正側物理VOL番号2002a、副側物理VOL番号2002b、ペア状態フラグ2002c、当該VOL内の二重完のデータ範囲を示す有効範囲ポインタ2002d、等の情報が設定される。
【0044】
なお、ペア状態フラグ2001cおよびペア状態フラグ2002cは、一例として、“0”:非二重化、“1”:二重化、“2”:二重化構築中、“3”:正側障害、“4”:副側障害、等の情報が必要に応じて設定される。
【0045】
図4は、物理VOL状態管理テーブル203の構成の一例を示す説明図である。複数のECCグループを識別するためのECCグループ番号203aと、ECCグループ状態フラグ203bと、当該ECCグループを構成する物理VOL群を示す構成物理VOL番号203c、当該ECCグループを構成する各物理VOLの状態を示す物理VOL状態フラグ203d等で構成されている。
【0046】
ECCグループ状態フラグ203bは、“0”:正常、“1”:コレクション動作不可、“2”:コレクション動作中、“3”:副ボリューム使用によるコレクション動作中、“4”:SPARE−VOL復旧中、“5”:SPARE−VOL使用によるコレクション動作中、等の情報が必要に応じて設定される。
【0047】
また、物理VOL状態フラグ203dは、“0”:正常、“1”:障害、“2”:副側物理VOL使用、“3”:SPARE−VOL使用、等の各情報が必要に応じて設定される。
【0048】
さて、次に1ECCグループ内で1つの物理ドライブに障害が発生した場合の動作について説明する。1ECCグループ内の1つの物理ドライブが故障し、その故障したドライブ内のデータに対し、中央処理装置1からリード・ライト要求があった場合、そのリード・ライト要求範囲を含むストライプ列のデータおよびパリティデータから障害が発生してリード・ライト不可となった範囲のデータを復元し、リード・ライト処理を実行する処理をコレクションリード・ライト処理という。また、コレクションリード処理によって障害が発生したドライブ内の全データを復元しスペアドライブに反映することで、ECCグループを再構成する処理をコレクションコピー処理という。
【0049】
本実施の形態では、正側記憶サブシステムの1ECCグループ内で2つ以上の物理ドライブ3aに障害が発生し、上記で述べたコレクション処理が不可能となった場合には、副側記憶サブシステムの対応するデータを用いてECCグループの再構成を行う方法の一例について述べる。以下、これについて説明する。
【0050】
上述のようにRAID5の場合、1ECCグループ内で2つ以上の物理ドライブ3aに障害が発生するとコレクション処理が不可能となり、そのECCグループ内のデータは冗長性を失う。この時、物理VOL状態管理テーブル203のECCグループ状態フラグ203bには当該ECCグループは使用不可を示す情報(“1”:コレクション動作不可)が記憶される。この場合、本実施の形態のデータ二重化記憶サブシステムでは副側記憶サブシステムを利用して正側記憶サブシステム内の障害が発生したECCグループを再構成し、そのECCグループを復旧することが可能である。
【0051】
この方法の一つを図5を用いて説明する。
【0052】
まず、正側記憶サブシステム内のあるECCグループ内でM個(M>1)の物理ドライブ3aに障害が発生したとする。この時のECCグループを第1のECCグループG1とする。まず物理VOL状態管理テーブル203のECCグループ状態フラグ203bには当該ECCグループの使用不可の情報(“1”:コレクション動作不可)が記憶される。そして、物理ドライブ障害復旧部28が、障害が発生した正側の物理ドライブ3aとペア状態にある副側記憶サブシステム内の物理ドライブ5aを障害発生した正側記憶サブシステム内の物理ドライブの代りにECCグループの構成要素とし、図5のように第2のECCグループG2を構成する。この第2のECCグループG2内のデータに対し、中央処理装置1からライト要求があった場合、データ更新後に作成された冗長データは第2のECCグループG2内のパリティドライブ(P)および、第1のECCグループG1内のパリティドライブ(P)の両方に書き込む。これにより、第1および第2のECCグループG2内の冗長性を保証しつつ、中央処理装置1からのリード・ライト要求を処理できる。
【0053】
このように第2のECCグループG2を構成すれば、ECCグループ内のデータの冗長性は保証され、中央処理装置1からのリード・ライト処理は正常に処理できる。この状態で、障害が発生した物理ドライブ3a内のデータ(D)を復元してもよいし、最終的に正側記憶サブシステム内で図5のように、予備の物理ドライブ3a(S)を用いた第3のECCグループG3を形成して二重化状態に復帰してもよい。
【0054】
次に、障害が発生した物理ドライブ内のデータの復元方法について述べる。
【0055】
正側記憶サブシステム内の1ECCグループ内でM個の物理ドライブ3aに障害が発生した場合、障害が発生した(M−1)個の物理ドライブ内のデータに関しては、物理ドライブ障害復旧部28が物理VOLペア状態管理テーブル2002を参照し、障害が発生した物理ドライブ3aと二重化のペア状態にある副側記憶サブシステム内の各物理VOL#(物理ドライブ5a)を算出する。そしてその物理VOL#単位にその物理VOL内のデータに対してリモートI/O制御部23がリード要求を発行し、正側記憶サブシステム内のスペアボリューム(S)に副側記憶サブシステムからデータをコピーすることで障害が発生している(M−1)個の物理ドライブ3a内のデータを復元させる。これにより、障害が発生した物理ドライブ3aを含むECCグループはコレクション動作が可能となり、物理VOL状態管理テーブル203のECCグループ状態フラグ203bには当該ECCグループ使用可の情報(“5”:SPARE−VOL使用によるコレクション動作中)が書き込まれる。
【0056】
データの複写の途中で、正側記憶サブシステム内のコレクション動作が不可能なECCグループに対し、中央処理装置1からのリード・ライト要求があった場合は図5に示した第2のECCグループG2のように、障害が発生した物理ドライブ3aとペア状態にある副側記憶サブシステム内の物理ドライブ5aを構成要素としたECCグループを再構成し、この再構成したECCグループ内のデータを用いて処理する。データの複写が完了し、障害が発生しているECCグループでコレクション動作が可能となった後、残りの一つの障害が発生している物理ドライブ内のデータについては、コレクションコピー処理によって正側記憶サブシステム内のスペアドライブ(S)にデータを復元する。なお、データが復元されたスペアボリュームは新たに物理VOLペア状態管理テーブル2002(の正側物理VOL番号2002a)に登録され、正側記憶サブシステム内の物理VOLと副側記憶サブシステム内の物理VOLの二重化ペア状態を維持する。
【0057】
また、1ECCグループ内でM個(M>1)の物理ドライブ3aの障害が発生し、論理VOLペア状態管理テーブル2001上の障害が発生した物理ドライブ3aを含む論理VOLのペア状態が解除状態になった場合は、上記のデータ復元後に論理VOLペア状態管理テーブル2001上のペア状態を自動的に二重化ペア状態に戻す手段があってもよい。以上のような処理シーケンスを示したフローチャートを図6に示す。
【0058】
また、障害が発生した物理ドライブが1ECCグループ内でM個(M>1)の場合、図7に示す方法でデータを復旧してもよい。
【0059】
すなわち、1ECCグループ内でM個の物理ドライブ3aに障害が発生すると、そのECCグループは使用不能という情報(“1”:コレクション動作不可)が物理VOL状態管理テーブル203のECCグループ状態フラグ203bに記憶される。この復旧はまず、物理ドライブ障害復旧部28が物理VOLペア状態管理テーブル2002を参照し、M個の障害が発生した物理ドライブ3aと二重化のペア状態にある副側のサブシステム内の各物理VOL#(物理ドライブ5a)を算出する。そして、算出した各物理VOL#内のデータをストライプ列単位にリモートI/O制御部23がリード要求を発行し、正側記憶サブシステム内のスペアドライブ(S)にデータを複写する。データの複写が終了した範囲は論理VOLペア状態管理テーブル2001および物理VOLペア状態管理テーブル2002内の有効範囲を示すポインタ(有効範囲ポインタ2001d、有効範囲ポインタ2002d)で記憶しておく。データの複写が終了した範囲は、その範囲でECCグループを再構成し(図7中のECCグループG5)、複写完了済の範囲に対する中央処理装置1からのリード・ライト要求は、正側記憶サブシステムでリード・モディファイ・ライト処理を行なうとともに、ライト要求時はライトデータを副側記憶サブシステムにも書き込み、データの二重化を維持する。
【0060】
一方、ストライプ列単位のデータ複写が済んでいない範囲に対し中央処理装置1からリード・ライト要求があった場合は、図7に示したECCグループG4(副側記憶サブシステムの一部の物理ドライブ5aのデータを障害の物理ドライブ3aの代替として使用)内のデータを用いて処理する。また、ECCグループ内でM個(M>1)の物理ドライブ3aの障害が発生し、論理VOLペア状態管理テーブル2001上の障害が発生した物理ドライブ3aを含む論理VOLのペア状態が解除状態になった場合は、上記のデータ復元後に論理VOLペア状態管理テーブル2001上のペア状態を自動的に二重化ペア状態に戻す手段があってもよい。
【0061】
以上説明したように、本実施の形態に例示されたデータ二重化記憶サブシステムを用いれば、正側記憶サブシステム内の一つのECCグループ内の物理ドライブ3aが、冗長度を越えて(本実施の形態の場合2台以上)故障し、当該ECCグループ内でのコレクション動作が不能となった場合でも、当該故障で使用不能となったデータに対応した副側記憶サブシステム内の正常なデータや物理ドライブ5aを用いてECCグループを再構成することで、即座に、データの冗長性を回復することができ、情報処理システムを止めることなく、データの冗長性を維持した稼働を継続でき、遠隔でデータの二重化を行なっている記憶サブシステムの信頼性を向上させることができる。
【0062】
また、中央処理装置1との間のオンライン処理中に障害の発生した物理ドライブ3a内のデータ復元が可能であり、情報処理システム全体の運用効率や可用性が向上する。またデータの復元後、再び遠隔でのデータ二重化を実現することが可能である。
【0063】
以上本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
【0064】
【発明の効果】
本発明の記憶サブシステムおよびその障害回復方法によれば、冗長記憶構成の記憶サブシステムにおいて障害によって失われた冗長性を、システムを停止させることなく迅速に回復することができる、という効果が得られる。
【0065】
また、冗長記憶構成の記憶サブシステムにおいて障害によって失われた冗長性およびデータ二重化状態の回復を、システムを停止させることなく迅速に行うことができる、という効果が得られる。
【図面の簡単な説明】
【図1】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムを含む情報処理システムの構成の一例を示す概念図である。
【図2】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムにて用いられる制御情報の一例を示す説明図である。
【図3】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムにて用いられる制御情報の一例を示す説明図である。
【図4】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムにて用いられる制御情報の一例を示す説明図である。
【図5】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムの作用の一例を示す概念図である。
【図6】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムの作用の一例を示すフローチャートである。
【図7】本発明の一実施の形態である障害回復方法を実施する記憶サブシステムにて構成されるデータ二重化記憶サブシステムの変形例の作用の一例を示す概念図である。
【符号の説明】
1…中央処理装置、2…記憶制御装置、21…データ転送制御部、22…チャネル制御部、23…リモートI/O制御部、24…ホストコマンド処理部、25…制御メモリ、26…キャッシュメモリ、27…ドライブ制御部、28…物理ドライブ障害復旧部、29…形成コピー制御部、3…ディスク装置、3a…物理ドライブ(正側記憶手段)、4…記憶制御装置、41…チャネル制御部、42…ホストコマンド処理部、43…制御メモリ、44…キャッシュメモリ、45…ドライブ制御部、46…物理ドライブリード・ライト処理部、401…論理・物理VOL変換テーブル、5…ディスク装置、5a…物理ドライブ(副側記憶手段)、61…データ転送パス、62…データ転送パス、63…ドライブパス、64…ドライブパス、201…論理・物理VOL変換テーブル、201a…論理VOL番号、201b…物理VOL番号、201c…物理VOL内使用シリンダ範囲、202…ペア状態管理テーブル、2001…論理VOLペア状態管理テーブル、2001a…正側論理VOL番号、2001b…副側論理VOL番号、2001c…ペア状態フラグ、2001d…有効範囲ポインタ、2002…物理VOLペア状態管理テーブル、2002a…正側物理VOL番号、2002b…副側物理VOL番号、2002c…ペア状態フラグ、2002d…有効範囲ポインタ、203…物理VOL状態管理テーブル、203a…ECCグループ番号、203b…ECCグループ状態フラグ、203c…構成物理VOL番号、203d…物理VOL状態フラグ、G1〜G3…ECCグループ、G4〜G5…ECCグループ。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a storage subsystem and a failure recovery technique thereof, and is particularly effective when applied to, for example, a data redundant storage subsystem which is installed in a remote location and includes a plurality of storage subsystems each having a redundant storage configuration. Technology.
[0002]
[Prior art]
In an information processing system consisting of a central processing unit and a peripheral storage device, as the amount of information has increased and the demand for reliability of data to be handled has increased, the reliability of storage media and storage devices against physical failure has been improved. As a countermeasure, a data duplication storage subsystem has been put to practical use for recovering data from backup data in the event of data loss due to a failure by holding data twice in a plurality of storage media.
[0003]
On the other hand, as individual storage subsystems, by dividing data into a plurality of storage media and arranging them, and further generating and distributing redundant data represented by parity data with some data as one unit, A RAID storage device that recovers data from redundant data and other data in the unit when a storage medium of certain data fails has been put into practical use.
[0004]
However, in systems in which information processing systems function over a wide area and many information processing systems are linked, as typified by on-line systems such as banks, these data reliability improvement technologies are not suitable. Data is stored in multiple storage subsystems in a redundant manner and redundancy is achieved.If a failure occurs in the entire storage subsystem or the entire information processing system including the central processing unit fails due to, for example, a power outage or fire in the entire building, If the system stops operating, the damage not only affects the entire system in a wide area, but also the damage caused by the data loss becomes enormous. In response to such a concern, a data duplication management system that duplicates data in a remote place has been put to practical use. However, in this remote data duplication, since the data communication between the remote information processing systems is processed by the communication function between the central processing units, the load on the central processing unit for performing data processing, arithmetic, and the like is large. Reducing the load on the processing unit has been an issue for remote data duplication systems.
[0005]
As a countermeasure against such a problem, a function for performing communication and data transfer between the control devices is provided in the storage control device between the remote information processing systems, and the control devices are connected via a communication / data transfer path. As a result, a system for reducing the load on the central processing unit by assigning a load for data duplication to the storage control device has been put to practical use. In this remote data redundant storage subsystem, an information processing system that performs a main task is defined as a primary system, and is defined as a first central processing unit, a first storage subsystem, and a first storage control device, respectively. In addition, the information processing system on the backup side is referred to as a secondary system, and is referred to as a second central processing unit, a second storage subsystem, and a second storage control device, respectively. In general, each of the first and second storage control devices includes a large-capacity cache memory (disk cache) having a nonvolatile mechanism. The first and second storage controllers are connected by one or more data transfer paths, and the relationship between the primary and secondary pair volumes is defined for each unit of data (for example, for each volume). The primary data is called master data (master volume), and the secondary data is called remote data (remote volume). In the write request (I / O) to the storage subsystem in the primary system, the write data from the first central processing unit to the first storage subsystem is written not only to the storage device under its control but also to the first storage subsystem. As a host of the second storage controller, it issues a data write I / O to the second storage subsystem to achieve data duplication. If a failure occurs on the primary system during the operation of data file duplication in this way and business cannot be continued, the business is immediately switched to the secondary system and duplication is performed. The business is continued based on the data of the second storage subsystem that has been set. An example of such a technique is the technique disclosed in US Pat. No. 5,155,845.
[0006]
When a data volume already existing on the first storage subsystem is newly defined as a remote duplex volume and a duplex pair is newly created (this is called an initial copy), the first storage control device The data of the volume of the first storage subsystem is sequentially read from the storage device to the cache memory, and the first storage control device issues a write I / O to the second storage subsystem, so that the volume data is Make a copy. One unit of data copying at this time may be one unit (track) of the data storage unit, or may be one unit of a plurality of data units (eg, cylinders). Further, the first storage subsystem can execute the I / O of the initial copy processing, and at the same time, receive the updated I / O from the first central processing unit. In updating data on a volume on which an initial copy is being executed, the first storage controller updates the update range of an area whose initial copy processing has been performed (copying to the second storage subsystem has been completed). In the case of updating, the update data is reflected on the second storage subsystem in a synchronous or asynchronous manner.
[0007]
The first and second storage subsystems may be a RAID data storage method as described below. This technology is described in D. A, Patternson, et al. "Introduction to Redundant Arrays of Inexpensive Disks (RAID)", spring COMPCON '89, pp. 146-64. 112-117, Feb. This is a technique described in a 1989 paper. In the RAID system, the storage subsystem is composed of n + m storage devices as one data storage unit, and is divided into n storage devices for each unit of data (for example, one track on a storage medium) and stored. I do. Further, redundant data called parity data is created with n data units as one group. The number of redundant data is determined according to the degree of redundancy. When the degree of redundancy is m, m pieces of redundant data are created. The redundant data itself is also stored in a storage medium different from the storage medium of the data group constituting the redundant data. A data group including the n data units and the m redundant data is called a redundancy group. As a result, even if one storage device becomes unreadable due to a failure, data can be reproduced from the other n-1 data and m redundant data in the redundancy group, and similarly, Even in the case where writing becomes impossible due to a failure, data is logically stored by updating the m pieces of redundant data. In this way, data reliability is improved in the event of a failure in a storage medium or a disk medium.
[0008]
In a conventional remote data duplication storage subsystem using a RAID system, when redundancy is lost due to a failure of a storage medium in the first storage subsystem, a failure occurs in the first storage subsystem. Using the (n-1) data and the m redundant data stored in the storage medium in the first storage subsystem other than the storage medium thus restored, the data in the storage medium in which the failure has occurred is restored and the first storage is performed again. After recording on the storage medium in the subsystem and completely restoring the redundancy and n data, the second storage subsystem and the second storage subsystem are not copied until data copying from the second storage subsystem is completed. Can be operated as a redundant system. For example, Japanese Patent Application Laid-Open No. 06-266508 discloses this type of technology.
[0009]
However, this technique will limit the RAID's ability to function as a remote data duplicate storage subsystem until complete redundancy and data recovery within the first storage subsystem is achieved.
[0010]
[Problems to be solved by the invention]
In the case of the above-described RAID system, there is a case where a logical volume and a physical volume do not correspond one-to-one (particularly, RAID5 or the like), and a plurality of logical volumes are created in a unit of creating redundant data (hereinafter referred to as an ECC group). May include volume. At this time, if a failure occurs in a plurality of physical storage media in the ECC group, the ECC group loses redundancy and access to data in the ECC group becomes impossible (blockage of the ECC group). There is a technical problem that access to data in all logical volumes in the ECC group becomes impossible due to blockage of the group.
[0011]
On the other hand, in the case where the above-described RAID system is used for the remote data redundant storage subsystem, even if one ECC group in the first storage subsystem is closed in this way, the data in the ECC group is not At the time of access, data read / write processing can be executed by accessing a physical storage medium in the second storage subsystem that duplicates the data.
[0012]
However, in this state, the read / write request from the central processing unit is processed using only the data in the second storage subsystem, and the data is not in a duplicated state. Therefore, if this state continues for a long time, a failure occurs in the second storage subsystem, and the risk of causing data loss due to the secondary system going down increases. Therefore, a process for immediately recovering the closed ECC group is required.
[0013]
Here, in order to recover the closed ECC group, the data in the physical storage medium in the second storage subsystem in which the data in the physical storage medium in which the failure has occurred is duplicated is stored in the first storage subsystem. It is necessary to perform a process of copying the data in the spare physical storage medium to restore the data and recovering the redundant data of the closed ECC group.
[0014]
However, copying all the logical volumes included in the closed ECC group requires a large amount of processing time, delays recovery of the ECC group, increases the time occupying each resource in the subsystem, and increases the central processing. The processing performance of the read / write request from the device may be degraded. Further, in the conventional remote data duplication technology, the duplication is performed in units of logical volumes, and there is no awareness of duplication of physical volumes. Therefore, the redundant data is not copied, and the redundancy of the closed ECC group cannot be restored. If the redundant data is to be recovered, all data except the redundant data in the closed ECC group is recovered to the first storage subsystem, and then the redundant data is created based on those data. You need to recover the data. This also takes time to recover the closed ECC group.
[0015]
Therefore, when a failure occurs in a plurality of storage media in the ECC group in the first storage subsystem and redundancy is lost, the ECC group is immediately reconfigured to restore data redundancy and remote data duplication. Means are needed to return to the state.
[0016]
An object of the present invention is to provide a storage subsystem capable of quickly recovering redundancy lost due to a failure in a storage subsystem having a redundant storage configuration without stopping the system, and a failure recovery technique thereof. is there.
[0017]
Another object of the present invention is to provide a storage subsystem capable of quickly recovering redundancy and a data duplication state lost due to a failure in a storage subsystem having a redundant storage configuration without stopping the system, and a failure in the storage subsystem. It is to provide a recovery technique.
[0018]
[Means for Solving the Problems]
The storage subsystem failure recovery method of the present invention comprises:
Storing a plurality of data and redundant data generated from the plurality of data in a plurality of storage media of the primary storage subsystem in a distributed manner;
Copying the plurality of data and the redundant data to the plurality of storage media of the secondary storage subsystem;
When a data failure exceeding the redundancy of the redundant data occurs in the primary storage subsystem, the normal data stored in the multiple storage media of the primary storage subsystem and the multiple data in the secondary storage subsystem Restoring the fault data from the data stored in the storage medium.
Further, the storage subsystem failure recovery method of the present invention includes:
Creating a redundancy group with the plurality of data and the redundancy data generated from the plurality of data;
Distributing and storing a plurality of data and redundant data in a plurality of storage media of the primary storage subsystem;
Copying the plurality of data and the redundant data to the plurality of storage media of the secondary storage subsystem;
When a failure exceeding the redundancy of the redundant data occurs in the storage medium of the primary storage subsystem, the data stored in the normal storage medium of the primary storage subsystem and the secondary storage corresponding to the failed storage medium Creating another redundancy group from the data copied to the storage medium of the subsystem.
Further, the storage subsystem failure recovery method of the present invention includes:
Storing a plurality of data and redundant data generated from the plurality of data in a plurality of storage media of the primary storage subsystem in a distributed manner;
Copying the plurality of data and the redundant data to the plurality of storage media of the secondary storage subsystem;
When a failure exceeding the redundancy of redundant data occurs in the redundancy group G1 including only the primary storage means of the primary storage subsystem, the primary storage means having no failure belonging to the redundancy group G1 Configuring a redundant group G2 with the secondary storage unit that holds data corresponding to the primary storage unit in which a failure has occurred;
Copying the contents held by the secondary storage means holding data corresponding to the failed primary storage means to the primary spare storage means of the primary storage subsystem; And a step of configuring a redundant group G3 between the primary storage means that has not been performed and the primary spare storage means.
Further, the storage subsystem failure recovery method of the present invention includes:
Storing a plurality of data and redundant data generated from the plurality of data in a plurality of storage media of the primary storage subsystem in a distributed manner;
Copying the plurality of data and the redundant data to the plurality of storage media of the secondary storage subsystem;
When a failure exceeding the redundancy of redundant data occurs in the redundancy group G1 including only the primary storage means of the primary storage subsystem, the primary storage means having no failure belonging to the redundancy group G1 Configuring a redundant group G2 with the secondary storage unit that holds data corresponding to the primary storage unit in which a failure has occurred;
Copying the contents held by the secondary storage means for holding data corresponding to the failed primary storage means to the primary spare storage means of the primary storage subsystem; Is greater than the number of primary spare storage means, the primary storage means belonging to the redundancy group G1 in which no failure has occurred, the primary spare storage means, and the primary storage means in which the failure has occurred. Configuring a redundant group G4 with the secondary storage means for storing data to be stored.
Further, the storage subsystem of the present invention includes storage means for holding update data in multiplex with storage means provided in another storage subsystem,
The storage unit is a storage subsystem that stores a plurality of data constituting a redundancy group and redundant data generated from the data in a distributed manner on a plurality of storage media,
When a failure exceeding the redundancy of redundant data occurs in the redundancy group G1 configured by the storage unit of the storage subsystem, a storage unit in which no failure belongs to the redundancy group G1 and a storage unit in which the failure has occurred A redundant group G2 is configured with storage means provided in another storage subsystem that holds data corresponding to.
[0019]
More specifically, as an example, in the data redundancy storage subsystem, a failure occurs in m (m> 1) storage media in the first redundant data group G1 in the primary storage subsystem, and If it becomes impossible to form a redundant data group that guarantees redundancy using only the storage medium in the storage subsystem, the secondary storage subsystem holding the duplicated data of the m failed storage media A second redundant data group G2 is configured from the storage medium of the first storage subsystem and a normal storage medium other than the failed storage medium in the first redundant data group G1 in the primary storage subsystem, and a failure occurs. Means for guaranteeing the redundancy of the data in the first redundant data group G1 and enabling processing of a read / write request from a higher-level device.
The (m-1) pieces of data in the failed storage medium are copied from the secondary storage subsystem to a spare storage medium in the primary storage subsystem to perform first redundancy. The data group G1 is reconfigured into the third redundant data group G3 to restore the data redundancy, and the remaining data in the failed storage medium is replaced with the failed first redundant data. There is provided means for restoring the data in the spare storage medium in the primary storage subsystem using the data in the data group G1 and the redundant data, and returning the data to the data duplex state.
[0020]
In addition, the data in the m storage media in which the failure occurred is restored from the secondary storage subsystem to the spare storage medium in the primary storage subsystem in units of creating a redundant data group, and Is reconfigured into a third redundant data group G3, and a read / write request from a higher-level device for the range in which the reconfiguration of the third redundant data group G3 has been completed is reconfigured. Processing is performed using the data in the third redundant data group G3, and a read / write request from a higher-level device for a range in which data has not been copied and the third redundant data group G3 has not been reconfigured is Processing is performed using the data in the above-described second redundant data group G2, and the third redundant data group G3 of the first redundant data group G1 is copied by copying the data. After completion reconfiguration, those having a means for returning the data duplication state.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0022]
FIG. 1 is a conceptual diagram showing an example of the configuration of an information processing system including a data duplication storage subsystem configured by a storage subsystem that executes a failure recovery method according to an embodiment of the present invention. 3 and 4 are explanatory diagrams showing an example of control information used in the data duplication storage subsystem of the present embodiment, and FIG. 5 is an example of an operation of the data duplication storage subsystem of the present embodiment. FIG. 6 is a flowchart showing an example of the operation of the data duplication storage subsystem of the present embodiment. FIG. 7 is a conceptual diagram showing an example of the operation of a modification of the data redundancy storage subsystem of the present embodiment.
[0023]
The information processing system according to the present embodiment includes a
[0024]
In each of the
[0025]
A spare
[0026]
In the following description, the storage subsystem composed of the
[0027]
First, an example of the configuration of the primary storage subsystem will be described.
[0028]
The
[0029]
The
[0030]
The
[0031]
Next, an example of the configuration of the secondary storage subsystem will be described.
[0032]
The
[0033]
Next, data duplication of the primary storage subsystem and the secondary storage subsystem will be described.
[0034]
First, the logical VOL and the physical VOL in the primary storage subsystem form a duplex pair state with the logical VOL and the physical VOL in the secondary storage subsystem, respectively. This pair status is stored in the pair status management table 202. This copy for forming a pair is called a formed copy. As for the formation copy, the formation
[0035]
Next, before describing the flow of data from the
[0036]
Next, the flow of data when a write request for data in the
[0037]
On the other hand, the remote I /
[0038]
On the other hand, the
[0039]
Next, each table in the
[0040]
The logical / physical VOL conversion table 201 is a table for performing conversion between a logical VOL and a physical VOL, and when a read / write request is issued to a certain logical VOL from the upper level, which logical VOL corresponds to which physical VOL. Information is stored. FIG. 2 is an explanatory diagram showing an example of the configuration of the logical / physical VOL conversion table 201. The
[0041]
FIG. 3 is an explanatory diagram showing an example of the contents of the pair status management table 202. This table includes a logical VOL pair status management table 2001 and a physical VOL pair status management table 2002.
[0042]
The logical VOL pair status management table 2001 stores information indicating a correspondence relationship between a logical VOL in the primary storage subsystem and a logical VOL in the secondary storage subsystem. Specifically, as an example, information such as a primary
[0043]
The physical VOL pair status management table 2002 stores information indicating the correspondence between the physical VOL in the primary storage subsystem and the duplication of the physical VOL in the secondary storage subsystem. Specifically, as an example, information such as a primary
[0044]
The
[0045]
FIG. 4 is an explanatory diagram showing an example of the configuration of the physical VOL status management table 203. An ECC group number 203a for identifying a plurality of ECC groups, an ECC
[0046]
The ECC
[0047]
The physical
[0048]
Next, an operation when a failure occurs in one physical drive in one ECC group will be described. When one physical drive in one ECC group fails and a read / write request is issued from the
[0049]
In the present embodiment, if two or more
[0050]
As described above, in the case of
[0051]
One of the methods will be described with reference to FIG.
[0052]
First, assume that a failure has occurred in M (M> 1)
[0053]
By configuring the second ECC group G2 in this way, the redundancy of the data in the ECC group is guaranteed, and the read / write processing from the
[0054]
Next, a method of restoring data in a failed physical drive will be described.
[0055]
When a failure occurs in the M
[0056]
If a read / write request is issued from the
[0057]
Further, when a failure of M (M> 1)
[0058]
If the number of failed physical drives is M (M> 1) in one ECC group, the data may be recovered by the method shown in FIG.
[0059]
That is, when a failure occurs in M
[0060]
On the other hand, when there is a read / write request from the
[0061]
As described above, by using the data duplex storage subsystem exemplified in the present embodiment, the
[0062]
Further, data recovery in the
[0063]
Although the invention made by the present inventor has been specifically described based on the embodiment, the present invention is not limited to the above embodiment, and various changes can be made without departing from the gist of the invention. Needless to say.
[0064]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to the storage subsystem of this invention and its failure recovery method, the effect that the redundancy lost by the failure in the storage subsystem of the redundant storage configuration can be quickly recovered without stopping the system is obtained. Can be
[0065]
Further, an effect is obtained that the redundancy and the data duplication state lost due to the failure in the storage subsystem having the redundant storage configuration can be quickly restored without stopping the system.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram illustrating an example of a configuration of an information processing system including a data duplication storage subsystem configured by a storage subsystem that executes a failure recovery method according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of control information used in a data duplication storage subsystem configured by a storage subsystem that performs a failure recovery method according to an embodiment of the present invention;
FIG. 3 is an explanatory diagram showing an example of control information used in a data duplication storage subsystem configured by a storage subsystem that performs a failure recovery method according to an embodiment of the present invention;
FIG. 4 is an explanatory diagram showing an example of control information used in a data duplication storage subsystem configured by a storage subsystem that executes a failure recovery method according to an embodiment of the present invention;
FIG. 5 is a conceptual diagram illustrating an example of an operation of a data duplication storage subsystem configured by a storage subsystem that performs a failure recovery method according to an embodiment of the present invention;
FIG. 6 is a flowchart illustrating an example of an operation of a data duplication storage subsystem configured by a storage subsystem that executes a failure recovery method according to an embodiment of the present invention;
FIG. 7 is a conceptual diagram showing an example of an operation of a modified example of the data duplication storage subsystem configured by the storage subsystem that performs the failure recovery method according to the embodiment of the present invention;
[Explanation of symbols]
DESCRIPTION OF
Claims (5)
前記複数のデータと前記冗長データとを、前記正側記憶サブシステムとは遠隔に配置された副側記憶サブシステムの複数の物理ボリュームに複写するステップと、
前記正側記憶サブシステムが、前記副側記憶サブシステムの物理ボリュームペア状態管理情報を蓄積して、管理するステップと、
前記冗長データの冗長度を超えるデータの障害が前記正側記憶サブシステムに発生した場合に、前記物理ボリュームペア状態管理情報に基づいて、前記副側記憶サブシステムの複数の物理ボリュームに格納してあるデータを読み取り、前記正側記憶サブシステムの複数の物理ボリュームに格納されている正常なデータと、前記副側記憶サブシステムの複数の物理ボリュームに格納してあるデータから別の冗長グループを作成し、前記障害データを復元するステップと、を有する記憶サブシステムの障害回復方法。 The data sent from the higher-level device to the target logical volume of the read / write request is distributed to a plurality of physical volumes of the primary storage subsystem as a plurality of data and redundant data generated from the plurality of data. Storing and storing;
Copying the plurality of data and the redundant data to a plurality of physical volumes of a secondary storage subsystem remote from the primary storage subsystem;
The primary storage subsystem accumulates and manages physical volume pair status management information of the secondary storage subsystem;
When a failure of data exceeding the redundancy of the redundant data occurs in the primary storage subsystem, the data is stored in a plurality of physical volumes of the secondary storage subsystem based on the physical volume pair status management information. reads certain data, create a normal data stored in the plurality of physical volumes, another redundancy group from data stored in a plurality of physical volumes of the secondary storage subsystem of the primary storage subsystem And restoring the failure data.
前記複数のデータと前記冗長データを正側記憶サブシステムの複数の物理ボリュームに分散して格納するステップと、
前記複数のデータと前記冗長データとを、前記正側記憶サブシステムとは遠隔に配置された副側記憶サブシステムの複数の物理ボリュームに複写するステップと、
前記正側記憶サブシステムが、前記副側記憶サブシステムの物理ボリュームペア状態管理情報を蓄積して、管理するステップと、
前記正側記憶サブシステムの物理ボリュームに前記冗長データの冗長度を超える障害が発生した場合に、前記物理ボリュームペア状態管理情報に基づいて、前記障害物理ボリュームに対応する前記副側記憶サブシステムの前記物理ボリュームに複写されているデータを読み取り、前記正側記憶サブシステムの正常な前記物理ボリュームに格納されているデータと、前記障害物理ボリュームに対応する前記副側記憶サブシステムの前記物理ボリュームに複写されているデータにより別の冗長グループを作成するステップと、を有する記憶サブシステムの障害回復方法。The method comprising the data sent from the host device to the logical volume to be read-write request, and the generated redundant data from said plurality of data and a plurality of data to create a redundancy group,
Distributing and storing the plurality of data and the redundant data in a plurality of physical volumes of a primary storage subsystem;
Copying the plurality of data and the redundant data to a plurality of physical volumes of a secondary storage subsystem remote from the primary storage subsystem;
The primary storage subsystem accumulates and manages physical volume pair status management information of the secondary storage subsystem;
If a failure exceeding the redundancy of the redundant data in the physical volume of the primary storage subsystem occurs, on the basis of the physical volume pair status management information, the secondary storage subsystem corresponding to the failed physical volume read data that is copied to the physical volumes, the data stored in the normal the physical volume of the primary storage subsystem, the physical volume of the secondary storage subsystem corresponding to the failed physical volume Creating another redundancy group based on the data being duplicated.
前記複数のデータと前記冗長データとを、前記正側記憶サブシステムとは遠隔に配置された副側記憶サブシステムの複数の物理ボリュームに複写するステップと、
前記正側記憶サブシステムが、前記副側記憶サブシステムの物理ボリュームペア状態管理情報を蓄積して、管理するステップと、
前記正側記憶サブシステムの正側物理ボリュームで構成される冗長グループG1において、前記冗長データの冗長度を超える障害が発生した場合に、前記物理ボリュームペア状態管理情報に基づいて、障害が発生した前記正側物理ボリュームに対応する前記副側物理ボリュームのデータを読み取り、前記冗長グループG1に属する障害が発生していない前記正側物理ボリュームと、障害が発生した前記正側物理ボリュームに対応するデータを保持する前記副側物理ボリュームとの間で冗長グループG2を構成するステップと、
前記正側記憶サブシステムの正側予備物理ボリュームに、前記障害が発生した前記正側物理ボリュームに対応するデータを保持する前記副側物理ボリュームの保持する内容を複写するステップと、
前記冗長グループG1に属する障害が発生していない前記正側物理ボリュームと、前記正側予備物理ボリュームとの間で冗長グループG3を構成するステップと、を有する記憶サブシステムの障害回復方法。 The data sent from the higher-level device to the target logical volume of the read / write request is distributed to a plurality of physical volumes of the primary storage subsystem as a plurality of data and redundant data generated from the plurality of data. Storing and storing;
Copying the plurality of data and the redundant data to a plurality of physical volumes of a secondary storage subsystem remote from the primary storage subsystem;
The primary storage subsystem accumulates and manages physical volume pair status management information of the secondary storage subsystem;
When a failure exceeding the redundancy of the redundant data occurs in the redundancy group G1 including the primary physical volumes of the primary storage subsystem, a failure occurs based on the physical volume pair status management information. the read data in the secondary physical volume, and the primary physical volume disorders belonging to the redundancy group G1 has not occurred, the data corresponding to the primary physical volume failed corresponding to the primary physical volume Configuring a redundancy group G2 with the secondary physical volume that holds
Copying the content held by the secondary physical volume holding data corresponding to the failed primary physical volume to the primary spare physical volume of the primary storage subsystem,
Wherein said primary physical volume not faulted belonging to the redundant group G1, the failure recovery method of a storage subsystem and a step of configuring the redundancy group G3 between the primary spare physical volume.
上位装置からリード・ライト要求の対象となる論理ボリュームに対して送られたデータを、前記物理ボリュームは、冗長グループを構成する複数のデータ、および前記データから生成した冗長データとして、複数個の物理ボリュームに分散して格納する記憶サブシステムであって、
前記記憶サブシステムが、前記他の記憶サブシステムの物理ボリュームペア状態管理情報を前記管理テーブルに蓄積して、管理し、
前記記憶サブシステムの前記物理ボリュームで構成される冗長グループG1において、前記冗長データの冗長度を超える障害が発生した場合に、前記管理テーブルに蓄積された前記物理ボリュームペア状態管理情報に基づいて、障害が発生した物理ボリュームに対応する前記他の記憶サブシステムのデータを読み取り、前記冗長グループG1に属する障害が発生していない前記物理ボリュームと、障害が発生した物理ボリュームに対応するデータを保持する前記他の記憶サブシステムに備わる物理ボリュームとの間で冗長グループG2を構成する記憶サブシステム。Has a physical volume that holds the multiple between the physical volume included the update data to other storage subsystem that is remotely located, the management table for storing the physical volume pair status management information of said other storage subsystem And a control memory,
The physical volume receives data sent from a higher-level device to a logical volume to be a target of a read / write request, as a plurality of data constituting a redundancy group and a plurality of physical data as redundant data generated from the data. A storage subsystem that is distributed and stored in a volume ,
The storage subsystem accumulates and manages physical volume pair status management information of the other storage subsystem in the management table,
When a failure exceeding the redundancy of the redundant data occurs in the redundancy group G1 configured by the physical volumes of the storage subsystem, based on the physical volume pair status management information stored in the management table, reads data of the other storage subsystem that corresponds to the physical volume of a failure to hold the said disorder belonging to the redundant group G1 does not occur physical volumes, data corresponding to a physical volume of a failure A storage subsystem forming a redundancy group G2 with a physical volume provided in the another storage subsystem.
前記複数のデータと前記冗長データとを、前記正側記憶サブシステムとは遠隔に配置された副側記憶サブシステムの複数の物理ボリュームに複写するステップと、
前記正側記憶サブシステムが、前記副側記憶サブシステムの物理ボリュームペア状態管理情報を蓄積して、管理するステップと、
前記冗長データの冗長度を超えるデータの障害が前記正側記憶サブシステムに発生した場合に、前記正側記憶サブシステムの複数の物理ボリュームに格納されている正常なデータと、前記副側記憶サブシステムの複数の物理ボリュームに格納してあるデータから前記障害データを復元するステップと、を有する記憶サブシステムの障害回復方法。 The data sent from the higher-level device to the target logical volume of the read / write request is distributed to a plurality of physical volumes of the primary storage subsystem as a plurality of data and redundant data generated from the plurality of data. Storing and storing;
Copying the plurality of data and the redundant data to a plurality of physical volumes of a secondary storage subsystem remote from the primary storage subsystem;
The primary storage subsystem accumulates and manages physical volume pair status management information of the secondary storage subsystem;
When a failure of data exceeding the redundancy of the redundant data occurs in the primary storage subsystem, normal data stored in a plurality of physical volumes of the primary storage subsystem and the secondary storage subsystem Restoring the failed data from data stored in a plurality of physical volumes of the system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24152197A JP3597349B2 (en) | 1997-09-05 | 1997-09-05 | Storage subsystem and fault recovery method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24152197A JP3597349B2 (en) | 1997-09-05 | 1997-09-05 | Storage subsystem and fault recovery method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1185410A JPH1185410A (en) | 1999-03-30 |
JP3597349B2 true JP3597349B2 (en) | 2004-12-08 |
Family
ID=17075589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24152197A Expired - Fee Related JP3597349B2 (en) | 1997-09-05 | 1997-09-05 | Storage subsystem and fault recovery method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3597349B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030073982A (en) * | 2002-03-14 | 2003-09-19 | 한국전자통신연구원 | Coherence preservation method of duplicated data in raid subsystems |
JP2004302713A (en) * | 2003-03-31 | 2004-10-28 | Hitachi Ltd | Storage system and its control method |
JP4754852B2 (en) * | 2005-03-15 | 2011-08-24 | 富士通株式会社 | Storage control apparatus and method |
JP5022803B2 (en) * | 2006-12-13 | 2012-09-12 | 株式会社日立製作所 | Storage controller |
JP2008197894A (en) * | 2007-02-13 | 2008-08-28 | Nec Corp | Data backup system, data backup method and program |
US8812779B2 (en) * | 2009-02-26 | 2014-08-19 | Hitachi, Ltd. | Storage system comprising RAID group |
JP6233086B2 (en) * | 2014-02-20 | 2017-11-22 | 富士通株式会社 | Storage control device, storage system, and control program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0616258B2 (en) * | 1987-11-02 | 1994-03-02 | 株式会社日立製作所 | Duplex disk control method |
JP3021955B2 (en) * | 1992-05-13 | 2000-03-15 | 富士通株式会社 | Duplicate file system operation method |
JP3078972B2 (en) * | 1993-11-05 | 2000-08-21 | 富士通株式会社 | Disk array device |
KR0128271B1 (en) * | 1994-02-22 | 1998-04-15 | 윌리암 티. 엘리스 | Remote data duplexing |
-
1997
- 1997-09-05 JP JP24152197A patent/JP3597349B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1185410A (en) | 1999-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100275900B1 (en) | Method for implement divideo parity spare disk in raid sub-system | |
AU710907B2 (en) | Expansion of the number of drives in a raid set while maintaining integrity of migrated data | |
US9122410B2 (en) | Storage system comprising function for changing data storage mode using logical volume pair | |
US6883112B2 (en) | Storage device, backup and fault tolerant redundant method and computer program code of plurality storage devices | |
US7398354B2 (en) | Achieving data consistency with point-in-time copy operations in a parallel I/O environment | |
US6886075B2 (en) | Memory device system and method for copying data in memory device system | |
JPH08249132A (en) | Disk array device | |
WO2006123416A1 (en) | Disk failure recovery method and disk array device | |
JP2006252126A (en) | Disk array device and its reconstruction method | |
WO2001040925A1 (en) | Disk array system and method of expanding storage capacity | |
JP3832223B2 (en) | Disk array disk failure recovery method | |
WO1998012621A1 (en) | Disk array subsystem | |
JP3597349B2 (en) | Storage subsystem and fault recovery method thereof | |
JPH07261945A (en) | Disk array device and disk array dividing method | |
JP2005099995A (en) | Disk sharing method and system of magnetic disk unit | |
JP4398596B2 (en) | Disk array device | |
JP2006260376A (en) | Storage device and media error restoring method | |
JPH07306758A (en) | Disk array device and its control method | |
JP5032620B2 (en) | Disk array device and logical disk reconfiguration method applied to the disk array device | |
JP2004102815A (en) | Method for copying data between logical disks, program for copying data between logical disks, and disk controller | |
JPH09265435A (en) | Storage device system | |
JP2007334913A (en) | Storage device system and data copying method for the same | |
JPH0962461A (en) | Automatic data restoring method for disk array device | |
JP2002175157A (en) | Disk array device | |
JP3597086B2 (en) | Disk array controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040330 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040528 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20040602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040908 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070917 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080917 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080917 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090917 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |