JPH09171479A - データ格納システム - Google Patents

データ格納システム

Info

Publication number
JPH09171479A
JPH09171479A JP7330765A JP33076595A JPH09171479A JP H09171479 A JPH09171479 A JP H09171479A JP 7330765 A JP7330765 A JP 7330765A JP 33076595 A JP33076595 A JP 33076595A JP H09171479 A JPH09171479 A JP H09171479A
Authority
JP
Japan
Prior art keywords
data
disk
failure
storage
data storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7330765A
Other languages
English (en)
Other versions
JP2853624B2 (ja
Inventor
Yoshihide Kikuchi
芳秀 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7330765A priority Critical patent/JP2853624B2/ja
Publication of JPH09171479A publication Critical patent/JPH09171479A/ja
Application granted granted Critical
Publication of JP2853624B2 publication Critical patent/JP2853624B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Techniques For Improving Reliability Of Storages (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】ディスク装置の読み書きを制御するディスク制
御装置に障害が生じとき、これに代わって読み書きを行
う他のディスク制御装置の負担の増加を軽減することの
できるデータ格納システムを提供する。 【解決手段】第1単位サーバ31の通常用記憶装置17
に格納されているデータと同一のデータを、他の単位サ
ーバ22、25、28の障害用記憶装置23、26、2
9に分散して格納する。同様した各単位サーバの通常用
記憶装置に格納されているデータの複製を他の単位サー
バの障害用記憶装置に分散して作成する。1つの単位サ
ーバの通常用記憶装置またはディスク制御装置12〜1
5に障害が起きたときは、他の複数の単位サーバの障害
用記憶装置に分散されたデータを読み出す。障害の起き
た記憶装置のデータは他の複数のサーバに分散されてい
るので、他の単位サーバのディスク制御装置の負担が大
幅に増加しない。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ディスク装置など
の記憶装置を用いて各種データを格納するデータ格納シ
ステムに係わり、特に1つの記憶装置に記憶されている
データの複製を他の記憶装置に記憶することによりシス
テムの障害に備えるデータ格納システムに関する。
【0002】
【従来の技術】ディスク装置などの記憶装置にデータを
格納するシステムでは、記憶装置に障害が発生したとき
でも格納されているデータが失われないようにデータを
冗長構成にして記憶することが行われる。従来、ディス
ク装置の障害対策として、データを冗長構成にして複数
のディスク装置に格納するものには、RAID(Redund
and Array of Inexpensive Disks) と呼ばれるものがあ
る。RAIDはレベル1からレベル5までが一般的に知
られている。
【0003】レベル1は、通常運用されるディスク装置
に格納する内容と同一の内容を障害用のディスク装置に
格納するものであり、ミラー方式と呼ばれている。ミラ
ー方式のデータ格納システムでは、通常運用するための
通常用ディスク装置と、障害対策用のミラーディスク装
置を備えている。ホストコンピュータからデータを書き
込むときは、通常用ディスク装置と同一のデータをミラ
ーディスク装置にも格納するようになっている。通常用
ディスク装置に障害が生じたときは、ミラーディスク装
置から読み出すことにより、データが読み出せなくなる
という事態を回避している。
【0004】レベル2〜レベル5では、パリティ情報を
生成し、1つのディスク装置に障害が生じたとき他のデ
ィスク装置とパリティ情報を用いて障害の生じたディス
ク装置に格納されている内容を復元するものである。
【0005】特開平−318640号公報には、パリテ
ィ情報を用いたRAID方式によって障害の生じたディ
スク装置の記憶内容を復元するデータ格納システムが開
示されている。パリティ情報を用いる場合、通常は、た
とえば4台のディスク装置のうちの3台のディスク装置
にデータを格納し、残りのディスク装置に他の3台のデ
ィスク装置に格納したデータに対応するパリティ情報を
格納する。このようにデータとそのパリティ情報を格納
しているディスク装置をECCグループと呼ぶことにす
る。データを格納している3台のうちの1台が故障した
ときは、残り2台の正常なディスク装置のデータとパリ
ティ情報とを基にして障害の生じたディスク装置のデー
タが復元される。
【0006】ディスク装置の台数が8台の場合には、こ
れを4台ずつのECCグループに分けると、障害の生じ
たディスク装置のデータを復元するための負荷がそのE
CCグループ内に集中し、効率良く復元作業を行うこと
ができない。そこで特開平─318640号に開示され
ている先行技術では、各ディスク装置の記憶領域を複数
のブロックに分割し、ブロックごとに互いに異なる4台
のディスク装置によってECCグループを形成するよう
にしている。これにより1台分のディスク装置のデータ
を復元する際の負荷を残りの7台のディスク装置に分散
することができる。
【0007】パリティ情報を用いたデータ格納システム
では、ディスク装置の記憶内容を更新するごとにパリテ
ィ情報を計算して求めなければならず、高速な書き込み
処理を行うことが難しい。またディスク装置に障害が生
じたとき、そのデータの復元作業を行う必要があり、デ
ータが読み出されるまでの時間が長くかかり、高速な読
み出しに対応できない場合がある。これに対してミラー
方式では、冗長度が大きいので障害対策用に用意すべき
ディスク装置の容量が大きくなるが、高速なアクセスが
可能になるという利点がある。
【0008】図8は、従来から使用されているミラー方
式を用いたデータ格納システムの構成の概要を表わした
ものである。通常時に運用されるディスク装置301と
障害対策用のディスク装置302はバス303を通じて
ディスク制御装置304にそれぞれ接続されている。デ
ィスク制御装置304は、バスを通じて各ディスク装置
とデータを入出力するための図示しないインターフェイ
ス回路と、データの読み書きを制御するためのこれまた
図示しないCPU(中央処理装置)を備えている。ディ
スク制御装置304から通常用ディスク装置301へ書
き込み命令が出されると、書き込まれるデータは、通常
用ディスク装置301に格納されると同時に障害用ディ
スク装置302にも書き込まれる。
【0009】このように同一のデータを2つのディスク
装置に書き込むことにより、通常用ディスク装置301
の内容と障害用ディスク装置302の記憶内容は同一に
なる。通常用ディスク装置301と同一内容のデータを
障害用ディクスク装置302が保持していることから、
ディスク装置302はミラーディスクと呼ばれている。
通常用ディスク装置301に障害が生じると、ディスク
制御装置304は障害用ディスク装置302からデータ
を読み出すことで障害に対応するようになっている。
【0010】図8に示したデータ格納システムは、ディ
スク装置で生じる障害を対象としたものであるが、障害
がディスク装置へのデータの読み書きを制御するディス
ク制御装置に発生することにより、通常用および障害用
の双方のディスク装置の内容が読み出せなくなる場合も
ある。
【0011】図9は、ディスク制御装置の障害に対応す
ることのできるデータ格納システムの構成の概要を表わ
したものである。このシステムでは、第1の通常用ディ
スク装置311および第1の障害用ディスク装置312
はバス313によって第1のディスク制御装置314と
接続されている。また、ディスク装置311、312は
バス315を通じて第2のディスク制御装置316にも
接続されている。同様に、第2の通常用ディスク装置3
21および第2の障害用ディスク装置322はバス32
3によって第2のディスク制御装置316に接続される
とともに、バス324により第1のディスク制御装置3
14にも接続されている。また、第1および第2のディ
スク制御装置314、316はネットワーク325を介
して互いに接続されている。さらにネットワーク325
には、データの読み出し要求や書き込み要求を行うホス
トコンピュータ326が接続されている。ディスク制御
装置はサーバとして、またホストコンピュータはクライ
アントとして機能する。
【0012】第1のディスク制御装置314によってデ
ータを第1の通常用ディスク装置311に書き込む際、
同じ内容のデータが第1のディスク制御装置314によ
り第1の障害用ディスク装置312にも書き込まれる。
同様に第2のディスク制御装置316によってデータを
第2の通常用ディスク装置321に書き込む際、同じ内
容のデータが第2のディスク制御装置316により第2
の障害用ディスク装置323にも書き込まれる。このよ
うにして、第1の通常用ディスク装置311と第1の障
害用ディスク装置312は互いに同じ内容を保持する。
また第2の通常用ディスク装置321と第2の障害用デ
ィスク装置322も互いに同じ内容を保持するようにな
っている。
【0013】今、ネットワーク325に接続されている
統括管理用のホストコンピュータ326から第1の通常
用ディスク装置311に格納されているデータの読み出
し要求があったものとする。システムが正常なときは第
1の通常用ディスク装置311の内容はバス313を通
じて第1のディスク制御装置314によって読み出さ
れ、ネットワーク325を通じてホストコンピュータ3
26に転送される。第1の通常用ディスク装置311に
障害が発生しているときは、第1のディスク制御装置3
14は第1の通常用ディスク装置311と同一の内容を
格納している第1の障害用ディスク装置312から読み
出し要求のあったデータをバス313を通じて読み出
す。そしてこれをネットワーク325を介してホストコ
ンピュータ326に転送する。
【0014】一方、第1のディスク制御装置314に障
害が起きた場合は、第1の通常用ディスク装置311の
内容はバス315を通じて第2のディスク制御装置31
6から読み出され、ネットワーク325を介してホスト
コンピュータ326に転送される。このようにしてディ
スク制御装置に障害が発生した場合でも、格納されてい
るデータを読み出すことができる。このシステムと同様
にディスク装置の障害とディスク制御装置の障害の双方
に対応することができ、かつバスの構成をより簡易にし
たデータ格納システムもある。
【0015】図10は、ディスク装置の障害およびディ
スク制御装置の障害の双方に対応することのできるバス
構成の簡易なデータ格納システムの概要を表わしたもの
である。第1のディスク制御装置331には、第1の通
常用ディスク装置332と第1の障害用ディスク装置3
33がバス334を通じて接続されている。また、第2
のディスク制御装置341には、第2の通常用ディスク
装置342と第2の障害用ディスク装置343がバス3
44を通じて接続されている。第1のディスク制御装置
331と第2のディスク制御装置341は互いにネット
ワーク351を通じて接続されている。さらにネットワ
ーク351には、データの読み出しおよび書き込み要求
を行うホストコンピュータ352が接続されている。
【0016】このシステムでは、第1のディスク制御装
置331に接続されている第1の通常用ディスク装置3
32に対応するミラーディスク装置は、第2のディスク
制御装置341のバス344に接続されている第2の障
害用ディスク装置343を用いる。また第2のディスク
制御装置341に接続されている第2の通常用ディスク
装置342に対応するミラーディスク装置は、第1のデ
ィスク制御装置331に接続されている第1の障害用デ
ィスク装置333を用いる。
【0017】第1の通常用ディスク装置332に書き込
むデータと同一のデータは、ネットワーク351および
第2のディスク制御装置341を通じて第2の障害用デ
ィスク装置343にも書き込まれる。また、第2の通常
用ディスク装置342に書き込むデータと同一のデータ
は、第1のディスク制御装置331を通じて第1の障害
用ディスク装置333にも書き込まれる。第1のディス
ク制御装置331に障害が発生したときは、第1の通常
用ディスク332の内容は第2の障害用ディスク装置3
43にも格納されているので、第2のディスク制御装置
341を通じて第2の障害用ディスク装置から読み出す
ようになっている。
【0018】
【発明が解決しようとする課題】このように1つのディ
スク制御装置に接続されている通常運用されるディスク
装置の内容を他の1つのディスク制御装置に接続されて
いる障害用のディスク装置に複製しておけば、ディスク
装置とディスク制御装置のいずれに障害が発生してもデ
ータの読み出しを行うことができる。しかしながら、デ
ィスク制御装置に障害が発生した場合は、障害の起きた
ディスク制御装置に接続されているディスク装置に対応
するミラーディスク装置を有する他のディスク制御装置
の負荷が倍になってしまうという問題がある。図10の
例では、第1のディスク制御装置に障害が生じると、第
1の通常用ディスク装置の内容はこれと同一内容を保持
している第2の障害用ディスク装置から第2のディスク
制御装置を通じて読み出すことになる。第2のディスク
制御装置は第2の通常用ディスク装置の内容を読み出す
役割も負っているため、これら2台分の読み出しを行な
わなければならずその負荷が倍になる。その結果、デー
タの読み出し処理に時間がかかるという問題がある。
【0019】そこで本発明の目的は、ディスク装置の読
み書きを制御するディスク制御装置に障害が生じとき、
これに代わって読み書きを行う他のディスク制御装置の
負担の増加を軽減することのできるデータ格納システム
を提供することにある。
【0020】
【課題を解決するための手段】請求項1記載の発明で
は、データを蓄積するための第1および第2のデータ記
憶手段と、これらデータ記憶手段に入出力すべきデータ
を所定のネットワークとの間で送受信する通信手段と、
この通信手段によりネットワークを通じて第1のデータ
記憶手段に記憶すべきデータを受信したときこれを第1
のデータ記憶手段に書き込む第1の書き込み手段と、こ
の第1の書き込み手段によって第1のデータ記憶手段に
データが書き込まれたときこれと同一のデータをネット
ワークを通じて予め定められた複数の転送先に分散して
送出する分散送出手段と、ネットワークを通じて他の装
置の分散送出手段から送出されたデータを受信したとき
これを第2のデータ記憶手段に書き込む第2の書き込み
手段とをそれぞれ有する複数の単位サーバと、これら単
位サーバの障害の有無を検出する障害検出手段と、この
障害検出手段によって障害の有ることが検出された単位
サーバの有する第1のデータ記憶手段に記憶されている
データを読み出すときこれと同一のデータをその第2の
データ記憶手段に格納している単位サーバから対応する
データを読み出す障害用読出手段とをデータ格納システ
ムに具備させている。
【0021】すなわち請求項1記載の発明では、通常の
運用で用いられる第1のデータ記憶装置に記憶された内
容を他の複数の単位サーバの第2のデータ記憶装置に分
散して記憶している。そして、障害の有る単位サーバの
第1のデータ記憶手段に格納されているデータを読み出
すとき、これと同一のデータをその第2のデータ記憶手
段に格納している単位サーバから、必要なデータを読み
出している。第1のデータ記憶手段の記憶内容が他の複
数の単位サーバの第2のデータ記憶手段に分散して格納
されているので、1つの単位サーバに障害が起きたとき
でも、他の単位サーバの負担が大幅に増大することがな
い。
【0022】請求項2記載の発明では、第1のデータ記
憶手段にはファイルを単位としてデータが書き込まれ、
分散送出手段は、第1のデータ記憶手段に書き込まれた
ファイルを単位として予め定められた複数の転送先に第
1のデータ記憶手段の記憶内容を分散させている。
【0023】すなわち請求項2記載の発明では、第1の
データ記憶手段の記憶内容をファイル単位に他の複数の
単位サーバに分散している。
【0024】請求項3記載の発明では、第1のデータ記
憶手段の記憶領域は複数のブロックに分割されており、
分散送出手段はこのブロックを単位として予め定められ
た複数の転送先に第1のデータ記憶手段の記憶内容を分
散させている。
【0025】すなわち請求項3記載の発明では、第1の
データ記憶手段の記憶領域を複数のブロックに分割し、
このブロックを単位の第1のデータ記憶手段の記憶内容
を複数の単位サーバに分散して格納している。
【0026】請求項4記載の発明では、複数の単位サー
バは、それぞれ複数の単位サーバから構成された2以上
のグループに分割されており、予め定められた複数の転
送先は各グループ内における他の単位サーバに設定され
ている。
【0027】すなわち請求項4記載の発明では、各単位
サーバの有する第1のデータ記憶手段に記憶されたもの
と同一のデータは、その単位サーバの属するグループ内
における他の複数の単位サーバの第2のデータ記憶手段
に分散されて格納される。これにより、各グループ内で
1つの単位サーバの障害をリカバすることができるの
で、データ格納システム全体として2以上の単位サーバ
の障害に対応することができる。
【0028】請求項5記載の発明では、複数の単位サー
バは、それぞれ複数の単位サーバから構成された2以上
のグループに分割されており、予め定められた複数の転
送先はそれぞれ他のグループの単位サーバに設定されて
いる。
【0029】すなわち請求項5記載の発明では、各単位
サーバの有する第1のデータ記憶手段に記憶されたもの
と同一のデータは、その単位サーバの属する以外のグル
ープの単位サーバの第2のデータ記憶手段に格納され
る。
【0030】
【発明の実施の形態】
【0031】
【実施例】図1は、本発明の一実施例におけるデータ格
納システムの構成の概要を表わしたものである。このシ
ステムでは、ネットワーク11を通じて第1〜第4のデ
ィスク制御装置12〜15が接続されている。第1のデ
ィスク制御装置12にはバス16を通じて通常の運用に
用いられるディスク装置としての第1の通常用記憶装置
17と、障害対策用に設けられたディスク装置としての
第1の障害用記憶装置18が接続されている。同様に第
2のディスク制御装置13には、バス21を通じて第2
の通常用記憶装置22と第2の障害用記憶装置23が接
続されている。また第3のディスク制御装置14にはバ
ス24を通じて第3の通常用記憶装置25および第3の
障害用記憶装置26が、第4のディスク制御装置15に
はバス27を通じて第4の通常用記憶装置28および第
4の障害用記憶装置29がそれぞれ接続されている。
【0032】ディスク装置への読み書きを制御するディ
スク制御装置とこれにバスを介して接続されている通常
用記憶装置および障害用記憶装置をまとめて単位サーバ
と呼ぶ。また、複数の単位サーバがネットワークに接続
されたものをクラスタと呼ぶ。ここでは、第1〜第4の
単位サーバ31〜34によってクラスタが構成されてい
る。図1に示したシステムでは通常用記憶装置および障
害用記憶装置としてハードディスク装置を用いている。
このほか、フロッピーディスク装置、シリコンディスク
装置などを用いることができる。また書き込み動作が必
要なければ、CD−ROMを用いることも可能である。
【0033】各ディスク制御装置に接続されているバス
は、SCSI(Small Computer System Interface)バス
を用いている。これ以外にも、ファイバーチャネル等の
シリアルバスあるいはATM(Asynchronous Transfer M
ode)等のネットワークを用いることも可能である。クラ
スタを構成する単位サーバの数は3つ以上であれば良い
が、本実施例では、4台の単位サーバがネットワークに
接続されたクラスタを示してある。
【0034】第1の通常用記憶装置17の記憶内容と同
一内容のデータは、これの属する第1の単位サーバ31
以外の第2〜第4の単位サーバ32〜34に属する障害
用記憶装置23、26、29に分散して格納されるよう
になっている。第2の通常用記憶装置22の記憶内容の
コピーは、第2の単位サーバ32以外の単位サーバ3
1、33、34の障害用記憶装置18、26、29に分
散して格納される。同様に第3の通常用記憶装置25の
記憶内容のコピーは、第1、第2および第4の障害用記
憶装置18、23、29に、また第4の通常用記憶装置
28の記憶内容のコピーは、第1〜第3の障害用記憶装
置18、23、26にそれぞれ分散して格納される。こ
のように、各通常用記憶装置の内容は、その通常用記憶
装置の属する単位サーバ以外の単位サーバに属する障害
用記憶装置に分散して格納される。
【0035】図2は、単位サーバの有するディスク制御
装置の構成の概要を表わしたものである。ディスク制御
装置41は、読み書きの制御の中枢的機能を果たすCP
U(中央処理装置)42を備えている。CPU42には
バス43を介して各種回路装置が接続されている。この
うちROM(リード・オンリ・メモリ)44は各種プロ
グラムや固定的データの格納された読み出し専用メモリ
である。RAM(ランダム・アクセス・メモリ)45
は、プログラムを実行する上で一時的に必要となる各種
データを記憶するためのメモリである。ネットワーク制
御装置46は、ネットワークとの間で各種のデータやコ
マンドの入出力を行うための回路装置である。SCSI
コントローラ47は、通常用記憶装置48および障害用
記憶装置49との間でデータの転送を行うための制御回
路である。SCSIコントローラ47から出力されてい
るSCSIバス上に通常用記憶装置48および障害用記
憶装置49は接続されている。
【0036】図3は、図1に示したデータ格納システム
の各記憶装置の記憶内容の一例を模式的に表わしたもの
である。図1と同一部分には同一の符号を付してありそ
れらの説明を適宜省略する。ここでは、通常用記憶装置
に格納されるデータのコピーは、他の3つの単位サーバ
の障害用記憶装置に分散して格納されるので、各通常用
記憶装置の記憶領域をコピーを格納する障害用記憶装置
の数に対応して3つに分割している。すなわち、単位サ
ーバの数(ディスク制御装置の数)より1つ少ない個数
の分割記憶領域に分割してある。そして分割されたそれ
ぞれに分割領域にその識別名称を割り当てている。
【0037】第1の通常用記憶装置17の第1の分割領
域51には“D1−1”と、第2の分割領域52には
“D1−1”と、また第3の分割領域53には“D1−
3”の識別名称を付与している。また、第2の通常用記
憶装置22の第1〜第3の分割領域54〜56には“D
2−1”、“D2−2”“D2−3”の識別名称を与え
ている。第3の通常用記憶装置25の第1〜第3の分割
領域57〜59には“D3−1”、“D3−2”“D3
−3”を、第4の通常用記憶装置28の第1〜第3の分
割領域61〜63には“D3−1”、“D3−2”“D
3−3”をそれぞれ識別名称として割り当てている。同
様に第1〜第4の障害用記憶装置18、23、26、2
9の記憶領域もそれぞれ3つに分割されている。
【0038】第1の通常用記憶装置17にデータを書き
込む場合、書き込み先の分割領域が“D1−1”(5
1)ならば、第1の通常用記憶装置17の領域“D1−
1”に書き込むと同時に、ネットワーク11を通して同
一のデータが第2のディスク制御装置13にも渡され
る。第2のディスク制御装置13は、受け取ったデータ
を第2の障害用記憶装置23の第1の分割領域67に書
き込む。同様にして、第1の通常用記憶装置17の分割
領域“D1−2”(52)に書き込むデータは、第3の
ディスク制御装置14に転送され、第3の障害用記憶装
置26の第1の分割領域71に書き込まれる。第1の通
常用記憶装置17の分割領域“D1−3”(53)に書
き込むときは、同一のデータが第4の障害用記憶装置2
9の第1の分割領域74にも転送されて書き込まれる。
【0039】このようにして、第1の通常用記憶装置1
7に格納されるデータは、第1の通常通常用記憶装置1
7に書き込まれると同時に第2〜第4の障害用記憶装置
23、26、29に分散して格納される。図3では、各
記憶装置の記憶領域をSCSIで用いられる論理ブロッ
クを単位に分割した場合を示してある。通常用記憶装置
および障害用記憶装置の記憶容量はそれぞれ同一であ
り、各記憶装置の記憶領域はそれぞれ“N”個の論理ブ
ロックに分割されている。
【0040】このとき、N≧3n−1となる最大のnを
選び、各論理ブロックに“0”〜“3n−1”の番号を
割り付けてある。そして、各記憶装置の論理ブロックの
番号が“0”〜“n−1”の範囲を第1の分割領域に、
論理ブロックの番号が“n”〜“2n−1”の範囲を第
2の分割領域にそれぞれ対応させている。さらに論理ブ
ロックの番号が“2n”〜“3n−1”の範囲を第3の
分割領域に対応させている。
【0041】第1の通常用記憶装置17の第1の分割領
域(51)“D1−1”に格納されるものと同一のデー
タは第2の障害用記憶装置23の第1の分割領域67に
格納される。したがって、第1の通常用記憶装置17の
“0”〜“n−1”の論理ブロックに格納されるデータ
は、第2の障害用記憶装置23の“0”〜“n−1”の
論理ブロックにその複製が作成される。同様にして第1
の通常用記憶装置17の第2の分割領域52としての
“n”〜“2n−1”の論理ブロックに格納されるデー
タは、第3の障害用記憶装置26の“0”〜“n−1”
の論理ブロックにその複製が作成されている。このよう
に論理ブロック番号によってコピー先の障害用記憶装置
およびその記憶領域を対応付けることができる。このよ
うな対応関係は、各単位サーバのディスク制御装置の有
するROMあるいはRAMに登録される。
【0042】図3のようにデータの格納されているデー
タ格納システムにおいて、通常用記憶装置もしくはディ
スク制御装置に障害が生じた場合の動作を説明する。
【0043】図3に示したシステムでは、各通常用記憶
装置のそれぞれの分割領域とそのコピー先となる障害用
記憶装置およびその障害用記憶装置内における格納領域
との対応関係が、他の単位サーバのディスク制御装置に
予め通知されている。たとえば、第1の通常用記憶装置
17の第1の分割領域51、すなわち“0”〜“n−
1”の論理ブロックのコピー先が第2の障害用記憶装置
23の第1の分割領域67(“0”〜“n−1”の論理
ブロック)であることが他の単位サーバのディスク制御
装置に通知されている。データの要求元となるホストコ
ンピュータ77はネットワーク11につながれている。
【0044】ホストコンピュータ77には、ディスク制
御装置12に障害が起きた場合はその代替としてディス
ク制御装置13と通信すること、またディスク制御装置
13に障害が起きたときは代替としてディスク制御装置
14と通信することが予め設定されている。さらに、デ
ィスク制御装置14に障害が起きたときは代替としてデ
ィスク制御装置15と、ディスク制御装置15に障害が
発生したときはその代替としてディスク制御装置12と
それぞれ通信することが予め設定されている。
【0045】各単位サーバのディスク制御装置は、他の
単位サーバから送られてくる情報を基にして、自身のバ
スに接続されている障害用記憶装置の各記憶領域に格納
されるデータのコピー元の通常用記憶装置を自身の有す
るRAMに記憶するようになっている。また、データの
読出要求の送出元となるホストコンピュータ77は、各
単位サーバのディスク制御装置に障害が生じているか否
かを示した情報をホストコンピュータ77の有するRA
Mに記憶する。また障害が起きたときにその代替となる
ディスク制御装置を内部のメモリに記憶するようになっ
ている。
【0046】今、第1のディスク制御装置12に障害が
起きたものとする。データの要求元となるホストコンピ
ュータ77は第1のディスク制御装置12の障害発生を
検出した以後は、第1の通常用記憶装置17のデータを
読み出す場合は、読出要求を第1のディスク制御装置1
2の代替として設定されている第2のディスク制御装置
13へ送る。読み出すべき領域は第1の通常用記憶装置
17における論理ブロックの番号で表わされている。
【0047】第2のディスク制御装置13では、ホスト
コンピュータ77から送られてきた読出要求から論理ブ
ロック番号を計算する。計算された論理ブロック番号が
“0”〜“n−1”の範囲内であれば第2のディスク制
御装置13のバスに接続されている第2の障害用記憶装
置23に読み出すべきデータのコピーが格納されている
と判別する。そこで、第2のディスク制御装置13は自
身のバス21に接続されている第2の障害用記憶装置2
3から対応するデータを読み出し、ホストコンピュータ
77にネットワーク11を通じて送信する。
【0048】一方、読み出しの要求された論理ブロック
の番号が“n”〜“2n−1”の範囲であれば第2のデ
ィスク制御装置13は第3のディスク制御装置14にネ
ットワーク11を通じて読出要求を転送する。第3のデ
ィスク制御装置14は、受信した読出要求を基にして自
身のバス24に接続されている第3の障害用記憶装置2
6から該当するデータを読み出しホストコンピュータ7
7にネットワーク11を介して送信する。同様に論理ブ
ロック番号が“2n”〜“3n−1”の範囲であれば、
第2のディスク制御装置13は第4のディスク制御装置
15に読出要求を転送する。これにより読出要求の転送
された第4のディスク制御装置15によって第4の障害
用記憶装置29から該当するデータが読み出されホスト
コンピュータ77に送られる。
【0049】通常用記憶装置に障害が発生したことの検
出は次のようにして行われる。第1〜第4のディスク制
御装置12〜15は自身のバスに接続されている通常用
記憶装置に対してデータの読出要求を出す。そして読出
要求の送出先の通常用記憶装置から一定時間内に応答の
到来しないタイムアウトエラーが生じたり、応答が無い
ときはその通常用記憶装置に障害が発生したものと判別
する。
【0050】単位サーバのディスク制御装置に障害が発
生したことは次のようにして検出している。クラスタを
構成してる単位サーバのディスク制御装置は、次の単位
サーバのディスク制御装置に対して一定時間毎に自己が
正常に動作していることを表わした動作確認メッセージ
を送る。1つ手前のディスク制御装置から一定時間以上
に渡って動作確認メッセージが届かないときは、2つ手
前のディスク制御装置へ正常動作を確認するための問い
合わせを行う。2つ手前のディスク制御装置から問い合
わせに対する応答が無いときはさらにその1つ手前のデ
ィスク制御装置に動作確認の問い合わせを行う。このよ
うに応答が得られるまで、次々と遡って正常動作を確認
するための問い合わせを行う。そして問い合わせを始め
たディスク制御装置から応答の帰ってきたディスク制御
装置までの間のディスク制御装置に障害が生じたものと
判別する。
【0051】障害用記憶装置へのデータの分散の仕方
は、データを格納した通常用記憶装置の属している単位
サーバ以外の単位サーバに属している障害用記憶装置に
格納すれば良く、格納される順序やその領域については
図3に示した例に限定されるものではない。
【0052】その一例として通常用記憶装置の記憶領域
を物理的に分割し、それぞれの領域を他の単位サーバに
属する障害用記憶装置に振り分けて割り当てることがで
きる。また、通常用記憶装置に書き込むファイルを単位
にして、障害用記憶装置を割り当てても良い。
【0053】論理ブロック番号を用いてい障害用記憶装
置を割り当てる場合、先に説明したように論理ブロック
を所定数連続するように割り当てるほか、隣り合う論理
ブロックを互いに異なる障害用記憶装置に割り当てるこ
ともできる。すなわち、SCSIで用いる論理ブロック
を単位に障害用記憶装置を割り振る場合に、通常用記憶
装置にデータを書き込んだ論理ブロックの番号を、分散
する障害用記憶装置の数で割った余りの値を基準に割り
振る。
【0054】たとえば、1つの通常用記憶装置の記憶内
容を3つの障害用記憶装置に分散して格納する場合、論
理ブロックの番号を“3”で割った余りを基準に格納す
べき障害用記憶装置を割り振る。この場合、余りは
“0”〜“2”の3つの値をとるので、これらの値にそ
れぞれ障害用記憶装置を予め割り当てることにより、デ
ータをコピー先に論理ブロック単位で分散して格納する
ことができる。
【0055】また、単位サーバに接続されている通常用
記憶装置が複数台ある場合、それぞれの通常用記憶装置
をこれまで説明した記憶装置の分割領域として扱うこと
も可能である。たとえば、第1〜第4の単位サーバによ
ってクラスタが構成されており、それぞれの単位サーバ
に第1〜第3の通常用記憶装置が接続されているものと
する。このとき第1の単位サーバの第1の通常用記憶装
置の内容を第2の単位サーバの障害用記憶装置にコピー
する。また、第1の単位サーバの第2の通常用記憶装置
の内容を第3の単位サーバの障害用記憶装置にコピー
し、第1の単位サーバの第3の通常用記憶装置の内容を
第4の単位サーバの障害用記憶装置にコピーする。
【0056】第1の変形例
【0057】これまで説明した実施例では、各単位サー
バの通常用記憶装置の記憶内容を他の全ての単位サーバ
の障害用記憶装置に分散して格納しているが、第1の変
形例では、一部の単位サーバに分散して格納するように
なっている。
【0058】図4は、本発明の第1の変形例におけるデ
ータ格納システムの構成の概要を表わしたものである。
このシステムでは、第1〜第6のディスク制御装置81
〜86がネットワーク87に接続されている。それぞれ
のディスク制御装置81〜86には、バス91〜96を
介して通常用記憶装置101〜106と障害用記憶装置
111〜116が接続されている。第1の変形例におけ
るデータ格納システムでは、これらを第1の部分クラス
タ121と、第2の部分クラスタ122に分割してい
る。それぞれの部分クラスタにおいて実施例と同様にデ
ータが分散して格納される。すなわち、第1の部分クラ
スタ121では、第1のディスク制御装置81に接続さ
れている通常用記憶装置101の内容のコピーは、同一
の部分クラスタ121に属する第2および第3のディス
ク制御装置82、83に接続されている障害用記憶装置
112、113に分散されて記憶される。
【0059】これにより、実施例ではクラスタ全体で1
つの単位サーバの障害しか許されないのに対し、第1の
変形例では各部分クラスタ内で1つまでの単位サーバの
障害に対応することが可能となる。もちろん、部分クラ
スタの数は2つに限らず、これ以上の数であっても同様
の効果が得られる。
【0060】第2の変形例
【0061】図5は、第2の変形例におけるデータ格納
システムの構成の概要を表わしたものである。図4と同
一の部分には同一の符号を付してありそれらの説明を適
宜省略する。第2の変形例も第1の変形例と同様に第1
および第2の部分クラスタ121、122にクラスタが
分割されている。第1の変形例では、各部分クラスタ内
の通常用記憶装置の記憶内容のコピーは同じ部分クラス
タ内の障害用記憶装置に分散されて格納されている。こ
れに対して第2の変形例では、各部分クラスタに属する
通常用記憶装置の記憶内容のコピーは、他の部分クラス
タに属する障害用記憶装置に作成されるようになってい
る。
【0062】第1の部分クラスタ121に属する第1〜
第3の通常用記憶装置101〜103で構成される第1
の通常用記憶装置クラスタ131の記憶内容は、第2の
部分クラスタ122に属する第4〜第6の障害用記憶装
置114〜116で構成される第2の障害用記憶装置ク
ラスタ132にコピーされる。同様に第2の各部分クラ
スタ122に属する第4〜第6の通常用記憶装置104
〜106で構成される第2の通常用記憶装置クラスタ1
33の記憶内容は、第1の部分クラスタ121に属する
第1〜第3の障害用記憶装置111〜113で構成され
る第1の障害用記憶装置クラスタ134にコピーされ
る。
【0063】このように1つの部分クラスタに属する通
常用記憶装置の記憶内容を他の1つの部分クラスタに属
する障害用記憶装置に分散して格納することにより、複
数の部分クラスタから構成されるクラスタ内で複数の単
位サーバの故障に対応することが可能となる。図5に示
したように部分クラスタの数が3つ以下の場合は、複数
のクラスタで同時に障害が起きると回復できないが、部
分クラスタの数が4つ以上の場合には、複数の単位サー
バの障害に対応することができる。
【0064】図6は、4つの部分クタスタから構成され
るデータ格納システムの概要を表わしたものである。こ
のシステムでは、第1〜第12のディスク制御装置14
1〜153がネットワーク154に接続されている。そ
れぞれのディスク制御装置141〜153には、バス1
61〜173を介して通常用記憶装置181〜193と
障害用記憶装置201〜213が接続されている。ネッ
トワーク154を介して構成されるクラスタは、第1〜
第4の部分クラスタ221〜225に分割されている。
【0065】ここでは、第1の部分クラスタ221に属
する通常用記憶装置181〜183で構成された第1の
通常用記憶装置クラスタ231の記憶内容は第2の部分
クタスタ222に属する障害用記憶装置204〜206
で構成された第2の障害用記憶装置クラスタ232に分
散されてい格納される。また、第2の部分クラスタ22
2に属する通常用記憶装置184〜186で構成された
第2の通常用記憶装置クラスタ233の記憶内容は第3
の部分クタスタ223に属する障害用記憶装置207〜
209で構成された第3の障害用記憶装置クラスタ23
4に分散されてい格納される。
【0066】同様に第3の部分クラスタ223に属する
第3の通常用記憶装置クラスタ235の記憶内容は、第
4の部分クラスタ224に属する第4の障害用記憶装置
クラスタ236に分散されて格納される。また、第4の
部分クラスタ224に属する第4の通常用記憶装置クラ
スタ237の記憶内容は、第1の部分クラスタ221に
属する第1の障害用記憶装置クラスタ238に分散され
て格納される。このように各部分クラスタの通常用記憶
装置クラスタの記憶内容のコピー先を次の部分クラスタ
の障害用記憶装置クラスタにすることで、制限はあるも
のの複数の部分クラスタにおいて障害が起きる場合に対
応できる。すなわち、隣り合わない部分クラスタで同時
に障害が起きても対応可能となる。
【0067】たとえば、第1の部分クラスタ221と第
3の部分クラスタ223で同時に障害が起きた場合に対
応可能になる。この場合には、第1の部分クラスタ22
1の内容を第2の部分クラスタ222の障害用記憶装置
クラスタ232から読み出し、第3の部分クラスタ22
3の内容を第4の部分クラスタ224の障害用記憶装置
クラスタ236から読み出すことができる。同様に第2
の部分クラスタ222と第4の部分クラスタ224で同
時に障害が起きた場合には、第1および第3の部分クラ
スタ221、223の障害用記憶装置クラスタ238、
234を用いて障害を回復することができる。
【0068】第3の変形例
【0069】図7は、第3の変形例におけるデータ格納
システムの構成の概要を表わしたものである。第3の変
形例では、部分クラスタのようなグループ分けを行わ
ず、各単位サーバの通常用記憶装置の内容を他の任意数
の単位サーバの障害用記憶装置に分散してコピーするよ
うになっている。このシステムでは、第1〜第9のディ
スク制御装置241〜249がネットワーク251に接
続されている。それぞれのディスク制御装置241〜2
49には、バス261〜269を介して通常用記憶装置
271〜279と障害用記憶装置281〜289が接続
されている。
【0070】各単位サーバの通常用記憶装置の記憶内容
のコピーを格納する障害用記憶装置は、各単位サーバの
通常用記憶装置毎に設定される。例えば、通常用記憶装
置271に格納されているデータのコピー先として、障
害用記憶装置282〜284を割り当てている。各通常
用記憶装置毎にばらばらに設定すると管理が複雑になる
ため、ここでは、通常用記憶装置の属する単位サーバの
次の単位サーバから連続する3台の障害用記憶装置をコ
ピー先としている。もちろんコピー先は連続する必要は
無く、ばらばらであっても構わない。
【0071】以上説明した実施例および第1〜第3の変
形例では、通常用記憶装置と障害用記憶装置は物理的に
別々の装置を用いたが、同一の記憶装置内を通常用記憶
装置としての記憶領域と障害用記憶装置用の記憶領域に
分割して用いることもできる。また、ディスク制御装置
は、ワークステーションやホストコンピュータを用いる
こともできる。
【0072】
【発明の効果】このように請求項1記載の発明によれ
ば、各単位サーバの第1のデータ記憶手段の記憶内容の
複製が他の複数の単位サーバの第2のデータ記憶手段に
分散して作成されるので、1つの単位サーバに障害が起
きたときでも、他の単位サーバの負担が大幅に増大する
ことがない。また単位サーバの有する第1のデータ記憶
手段に障害が生じた場合に限らず、第1の書き込み手段
などの単位サーバの他の回路部分に障害が生じたときで
も、障害の生じた単位サーバの第1のデータ記憶手段に
記憶されているものと同一のデータを他の単位サーバか
ら読み出すことができる。
【0073】また請求項2記載の発明によれば、ファイ
ル単位に他の複数の単位サーバに分散しているので、デ
ータの分散や、分散されたデータの読み出しを容易に管
理することができる。
【0074】さらに請求項3記載の発明によれば、第1
のデータ記憶装置の記憶領域を複数に分割したブロック
ごとに同一のデータの転送先が割り振られているので、
データの分散や、分散されたデータの読み出しを容易に
管理することができる。
【0075】また請求項4記載の発明によれば、各単位
サーバの有する第1のデータ記憶手段に記憶されたもの
と同一のデータは、その単位サーバの属するグループ内
における他の複数の単位サーバの第2のデータ記憶手段
に分散された格納される。これにより、各グループ内で
1つの単位サーバの障害をリカバすることができ、デー
タ格納システム全体として2以上の単位サーバの障害に
対応することができる。
【0076】さらに請求項5記載の発明によれば、各単
位サーバの有する第1のデータ記憶手段に記憶されたも
のと同一のデータは、その単位サーバの属する以外のグ
ループの単位サーバの第2のデータ記憶手段に格納され
る。たとえば、4以上のグループに分ければ、2以上の
グループの単位サーバの障害に対応することができる。
【図面の簡単な説明】
【図1】本発明の一実施例におけるデータ格納システム
の構成の概要を表わしたシステム構成図である。
【図2】図1に示したディスク制御装置の回路構成の概
要を表わしたブロック図である。
【図3】図1に示したデータ格納システムの各記憶装置
の記憶内容の一例を模式的に表わした説明図である。
【図4】本発明の第1の変形例におけるデータ格納シス
テムの構成の概要を表わしたシステム構成図である。
【図5】本発明の第2の変形例におけるデータ格納シス
テムの構成の概要を表わしたシステム構成図である。
【図6】4つの部分クタスタから構成されるデータ格納
システムの概要を表わしたシステム構成図である。
【図7】本発明の第3の変形例におけるデータ格納シス
テムの構成の概要を表わしたシステム構成図である。
【図8】従来から使用されているミラー方式を用いたデ
ータ格納システムの構成の概要を表わしたシステム構成
図である。
【図9】従来から使用されているディスク制御装置の障
害に対応することのできるデータ格納システムの構成の
概要を表わしたシステム構成図である。
【図10】従来から使用されているディスク装置の障害
およびディスク制御装置の障害の双方に対応することの
できるバス構成の簡易なデータ格納システムの概要を表
わしたシステム構成図である。
【符号の説明】
11、87、154、251 ネットワーク 12〜15、41、81〜86、141〜153、24
1〜249 ディスク制御装置 16、21、24、27、91〜96、261〜269
バス 17、22、25、28、48、101〜106、18
1〜193、271〜279 通常用記憶装置 18、23、26、29、49、111〜116、20
1〜213、281〜289 障害用記憶装置 31〜34 単位サーバ 42 CPU 43 CPUバス 44 ROM 45 RAM 46 ネットワーク制御装置 47 SCSIコントローラ 51〜59、61〜69、71〜76 分割領域 77 ホストコンピュータ 121、122、221〜224 部分クラスタ 131、133、231、233、235、237 通
常用記憶装置クラスタ 132、134、232、234、236、238 障
害用記憶装置クラスタ

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 データを蓄積するための第1および第2
    のデータ記憶手段と、これらデータ記憶手段に入出力す
    べきデータを所定のネットワークとの間で送受信する通
    信手段と、この通信手段により前記ネットワークを通じ
    て前記第1のデータ記憶手段に記憶すべきデータを受信
    したときこれを第1のデータ記憶手段に書き込む第1の
    書き込み手段と、この第1の書き込み手段によって前記
    第1のデータ記憶手段にデータが書き込まれたときこれ
    と同一のデータを前記ネットワークを通じて予め定めら
    れた複数の転送先に分散して送出する分散送出手段と、
    前記ネットワークを通じて他の装置の前記分散送出手段
    から送出されたデータを受信したときこれを第2のデー
    タ記憶手段に書き込む第2の書き込み手段とをそれぞれ
    有する複数の単位サーバと、 これら単位サーバの障害の有無を検出する障害検出手段
    と、 この障害検出手段によって障害の有ることが検出された
    単位サーバの有する前記第1のデータ記憶手段に記憶さ
    れているデータを読み出すときこれと同一のデータをそ
    の第2のデータ記憶手段に格納している単位サーバから
    対応するデータを読み出す障害用読出手段とを具備する
    ことを特徴とするデータ格納システム。
  2. 【請求項2】 前記第1のデータ記憶手段にはファイル
    を単位としてデータが書き込まれ、前記分散送出手段
    は、第1のデータ記憶手段に書き込まれたファイルを単
    位として前記予め定められた複数の転送先に第1のデー
    タ記憶手段の記憶内容を分散させることを特徴とする請
    求項1記載のデータ格納システム。
  3. 【請求項3】 前記第1のデータ記憶手段の記憶領域は
    複数のブロックに分割されており、前記分散送出手段は
    このブロックを単位として前記予め定められた複数の転
    送先に第1のデータ記憶手段の記憶内容を分散させるこ
    とを特徴とする請求項1記載のデータ格納システム。
  4. 【請求項4】 前記複数の単位サーバは、それぞれ複数
    の単位サーバから構成された2以上のグループに分割さ
    れており、前記予め定められた複数の転送先は各グルー
    プ内における他の単位サーバであることを特徴とする請
    求項1記載のデータ格納システム。
  5. 【請求項5】 前記複数の単位サーバは、それぞれ複数
    の単位サーバから構成された2以上のグループに分割さ
    れており、前記予め定められた複数の転送先はそれぞれ
    他のグループの単位サーバであることを特徴とする請求
    項1記載のデータ格納システム。
JP7330765A 1995-12-19 1995-12-19 データ格納システム Expired - Fee Related JP2853624B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7330765A JP2853624B2 (ja) 1995-12-19 1995-12-19 データ格納システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7330765A JP2853624B2 (ja) 1995-12-19 1995-12-19 データ格納システム

Publications (2)

Publication Number Publication Date
JPH09171479A true JPH09171479A (ja) 1997-06-30
JP2853624B2 JP2853624B2 (ja) 1999-02-03

Family

ID=18236295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7330765A Expired - Fee Related JP2853624B2 (ja) 1995-12-19 1995-12-19 データ格納システム

Country Status (1)

Country Link
JP (1) JP2853624B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182141A (ja) * 2009-02-06 2010-08-19 Nec Corp データ処理装置及びデータ処理方法
US8239621B2 (en) 2007-02-20 2012-08-07 Nec Corporation Distributed data storage system, data distribution method, and apparatus and program to be used for the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187101A (ja) * 1992-09-09 1994-07-08 Hitachi Ltd ディスクアレイ
JPH0736760A (ja) * 1993-07-20 1995-02-07 Nippon Telegr & Teleph Corp <Ntt> 装置多重化機能とモジュール間共用機能を併用した外部記憶装置の高信頼化方法
JPH07302217A (ja) * 1994-04-30 1995-11-14 Nec Corp 分散処理システムにおけるファイルの障害復旧方式

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187101A (ja) * 1992-09-09 1994-07-08 Hitachi Ltd ディスクアレイ
JPH0736760A (ja) * 1993-07-20 1995-02-07 Nippon Telegr & Teleph Corp <Ntt> 装置多重化機能とモジュール間共用機能を併用した外部記憶装置の高信頼化方法
JPH07302217A (ja) * 1994-04-30 1995-11-14 Nec Corp 分散処理システムにおけるファイルの障害復旧方式

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8239621B2 (en) 2007-02-20 2012-08-07 Nec Corporation Distributed data storage system, data distribution method, and apparatus and program to be used for the same
JP2010182141A (ja) * 2009-02-06 2010-08-19 Nec Corp データ処理装置及びデータ処理方法
US8812530B2 (en) 2009-02-06 2014-08-19 Nec Corporation Data processing device and data processing method

Also Published As

Publication number Publication date
JP2853624B2 (ja) 1999-02-03

Similar Documents

Publication Publication Date Title
CA1321845C (en) File system for a plurality of storage classes
US6154853A (en) Method and apparatus for dynamic sparing in a RAID storage system
US6571354B1 (en) Method and apparatus for storage unit replacement according to array priority
EP1624376B1 (en) Storage system and data processing system
US5845061A (en) Redundant client server system
US6308284B1 (en) Method and apparatus for maintaining data coherency
US5657439A (en) Distributed subsystem sparing
US7318138B1 (en) Preventing undesired trespass in storage arrays
US5479653A (en) Disk array apparatus and method which supports compound raid configurations and spareless hot sparing
US6910098B2 (en) Method and apparatus for maintaining data coherency
US6360306B1 (en) Relocation of suspended data to a remote site in a distributed storage system
US8166241B2 (en) Method of improving efficiency of capacity of volume used for copy function and apparatus thereof
US6279138B1 (en) System for changing the parity structure of a raid array
JPH11506556A (ja) データベースフラグメントレプリカの共通部分が最小の複数のノードのグループを有する連続的に使用可能なデータベースサーバ
CN101221484A (zh) 数据存储系统及其管理方法
JPH09146842A (ja) 記憶サブシステム
JP2000207136A (ja) 複数ドライブ故障トレラントraidアルゴリズム
JP2006227964A (ja) ストレージシステム、処理方法及びプログラム
JPH09269871A (ja) ディスクアレイ装置におけるデータ再冗長化方式
JP3736134B2 (ja) 分散記憶方法及び分散記憶システム及び分散記憶プログラムを記録した記録媒体
JPH07261945A (ja) ディスクアレイ装置およびディスクアレイの区分け方法
US20080168224A1 (en) Data protection via software configuration of multiple disk drives
JP2853624B2 (ja) データ格納システム
JPH09297663A (ja) ディスクアレイ装置
JP2008225643A (ja) サーバ間ミラーディスクコントローラ、拡張カード

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071120

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081120

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081120

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091120

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091120

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101120

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111120

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111120

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131120

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees