JP2986880B2 - アレイディスク - Google Patents

アレイディスク

Info

Publication number
JP2986880B2
JP2986880B2 JP2247134A JP24713490A JP2986880B2 JP 2986880 B2 JP2986880 B2 JP 2986880B2 JP 2247134 A JP2247134 A JP 2247134A JP 24713490 A JP24713490 A JP 24713490A JP 2986880 B2 JP2986880 B2 JP 2986880B2
Authority
JP
Japan
Prior art keywords
data
disk
stored
area
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2247134A
Other languages
English (en)
Other versions
JPH04127224A (ja
Inventor
仁 角田
善久 加茂
良史 高本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2247134A priority Critical patent/JP2986880B2/ja
Publication of JPH04127224A publication Critical patent/JPH04127224A/ja
Application granted granted Critical
Publication of JP2986880B2 publication Critical patent/JP2986880B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はコンピュータシステムに係り、特に高性能な
入出力動作を可能とするディスクファイルシステムに関
する。
〔従来の技術〕
現在のコンピュータシステムにおいては、CPU等の上
位側が必要とするデータは2次記憶装置に格納され、CP
Uが必要とする時に応じ2次記憶装置に対してデータの
書込み、読みだしを行っている。
近年高度情報化に伴い、コンピュータシステムにおい
て、2次記憶装置の高性能化が要求されてきた。その一
つの解として、多数の比較的容量の小さな磁気ディスク
により構成されるアレイディスクが考えられている。こ
のアレイディスクには以下の2つのタイプがある。ま
ず、一つは、CPUから転送されてくるデータを分割し、
複数の磁気ディスクに同時に格納し、読み出す場合は逆
に各各の磁気ディスクから同時に読み込んできてCPUへ
高速に転送するパラレル処理を行うアレイディスクであ
る。もう一つの方法は個々のデータを分割せずに独立に
扱い、多数の磁気ディスクに分散して格納する。
現在、一般に使用されている汎用大型コンピュータシ
ステムの2次記憶装置では、他のI/Oに当該磁気ディス
クが使用されているため、その磁気ディスクを使用でき
ずに待たされることが多く発生した。しかし、このよう
に分散して格納することにより、この待ち時間を減少す
るアレイディスクが考えられている。これらのアレイデ
ィスクでは、現在一般に使用されている汎用大型コンピ
ュータシステムと同様、2次記憶装置内では、個個のデ
ータの格納場所(アドレス)は予め指定したアドレスに
固定され、CPUから当該データへ読みだしまたは書込み
する場合、この固定されたアドレスへアクセスすること
になっている。この2次記憶装置としては一般に不揮発
な記憶媒体が使用され、代表的なものとして磁気ディス
ク、光ディスクなどがあげられる。
ディー.パターソン,ジー.ギブソン,アンドアー
ル.エイチ.カーツ;ア ケース フォー レダンダン
ト アレイズ オブ インエクスペンシブ ディスクス
(D.Patterson,G.Gibson,and R.H.Kartz;A Case for Re
dundant Arrays of Inexpensive Disks)(RAID)にお
いて、データを分割してパラレルに処理を行うアレイデ
ィスクとデータを分散して、独立に扱うアレイディスク
について、その性能および信頼性の検討結果が報告され
ている。現在この論文に書かれている方式が最も一般的
なアレイディスクと考えられている。
まず、データを分割してパラレルに処理を行うアレイ
ディスクについて説明する。アレイディスクは多数の比
較的容量の小さな磁気ディスクにより構成される。そこ
で、第11図の(b)に示すようにCPUから転送されてき
たデータを分割し、複数の磁気ディスク4に同時にパラ
レルに格納する。また、読み出す場合は逆に各々の磁気
ディスク4から同時にパラレルに読み込んできてCPUへ
転送する。このアレイディスクでは信頼性を向上させる
ため、分割したデータからパリティを作成しパリティ格
納用の磁気ディスク5に格納しておく。このパリティは
分割したデータを格納した磁気ディスクの中の1台に障
害が発生し、データが読み出せなくなった場合、残りの
磁気ディスク内のデータとパリティから、障害が発生し
た磁気ディスク内のデータを復元するためのものであ
る。アレイディスクのような多数の磁気ディスクにより
構成される装置では、信頼性の向上を図るため、このよ
うにパリティを用意する必要がある。
このようなシステムについてはストリッジ コンセプ
ト社等の企業から製品発表等されている。
次に、データを分散して、独立に扱うアレイディスク
について説明する。第11図の(a)に示すように個々の
データを分割せずに独立に扱い、多数の比較的容量の小
さな磁気ディスク4に分散して格納するものである。こ
のアレイディスクではデータを分散して格納してあるた
め、アレイディスクの一部の使用にとどまっており、残
りの磁気ディスクへのI/Oがまたされることは無い。ま
た、このアレイディスクにおいても信頼性の向上を図る
ためパリティを用意する。このパリティも先に述べたよ
うに、データを格納した磁気ディスクに障害が発生した
場合、その障害ディスク内のデータを復元するためのも
のである。
〔発明が解決しようとする課題〕
現在の汎用大型計算機システム等では2次記憶装置内
は、個々のデータの格納場所(アドレス)が予め指定し
たアドレスに固定され、CPUから当該データへ読みだし
または書込む場合は、この固定されたアドレスへアクセ
スすることになる。これは、アレイディスクにおいても
同じである。第11(b)図のようにデータを分割してパ
ラレルに処理を行うアレイディスクではこのようにアド
レスを固定しても影響は無いが、第11(a)図のように
データを分散して、独立に扱うアレイディスクでは書込
み時に大きな時間が必要になる。以下それについて説明
する。
第12図は公知例で示したパターソンらが提案したRAID
に述べられている、データを分散して、独立に扱うアレ
イディスク内部のデータアドレス(1.1),(1.2),
(1.3)…を示している。この各アドレスにあるデータ
は1I/Oでアクセスされる単位で、個々のデータは独立し
ている。また、このシステムではデータに対するアドレ
スは固定されている。このようなシステムでは、信頼性
を向上するためパリティを設定することが不可欠であ
る。本システムでは各データディスク内の同一アドレス
のデータによりパリティが作成される。すなわち、デー
タディスク#1から4までのアドレス(1.1)のデータ
によりパリティが作成され、パリティディスクの(1.
1)に格納される。本システムではI/O処理は現在の汎用
大型計算機システムと同様に各ディスクに対し当該デー
タをアクセスする。このようなアレイディスクにおい
て、例えばデータディスク#3のアドレス(2.2)のデ
ータを書き替える場合、まず、書き替える前のデータデ
ィスク#3の(2.2)のデータとパリティディスクの
(2.2)のパリティを読みだし(1)、これらと書き替
えるデータとで排他的論理和をとり、新たなパリティを
作成する(2)。パリティの作成完了後、書き替えるデ
ータをデータディスク#3の(2.2)に、新パリティを
パリティディスクの(2.2)に格納する(3)。
第13図に示すように現在の汎用大型計算機システムで
はパリティを作成する必要がないため、ディスクを平均
1/2回転待つだけで書き込める。しかし、このようにア
レイディスクでは、データディスク、パリティディスク
から古いデータとパリティを読みだすため、ディスクを
平均1/2回転待ち、それから読みだしてパリティを作成
しパリティを格納するため、データを書き替える場合最
低で1.5回転待たなければならない。磁気ディスクにお
いては1.5回転ディスクの回転を待つということは非常
に大きなオーバヘッドとなる。
〔課題を解決するための手段〕
以上の課題を解決するため、本発明では書き替え時に
は書き替えデータを一端バッファに溜め、パリティを作
成することが可能な量の書き替えデータが溜り次第パリ
ティを作成し、データとパリティをデータディスク、パ
リティディスクのそれぞれに一度に格納する。さらに、
分割データ、パリティをデータディスク、パリティディ
スクに格納する際、一度にパラレルに格納するため、も
とのアドレスに格納するのではなく別の場所に格納す
る。具体的には、例えば第12図においてデータディスク
#1の(1.1)のデータ、データディスク#2の(3.2)
のデータ、データディスク#3の(2.2)のデータ、デ
ータディスク#4の(1.3)のデータへ順に書き替え要
求が発行されたとする。これらの4データがバッファに
溜まるとパリティが作成可能となる。このようにパリテ
ィの作成が可能になり次第パリティを作成する。各デー
タディスク、パリティディスクにおいて(3.3)が全て
空いているとすると、これらのデータを各データディス
クの(3.3)に、またパリティをパリティディスクの
(3.3)に一度にパラレルに格納する。
〔作用〕
上記手段により、書き替え前のデータ、パリティを読
みださずにパリティを作成でき、書き替えのための旧デ
ータ、旧パリティの読み出しが不要となった。これによ
りアレイディスクにおいても現在の汎用大型計算機と同
様にディスクを1/2回転待つのみで書き込める。
〔実施例〕
実施例1 以下本発明の一実施例を第1図により説明する。本実
施例はCPU1、アレイ ディスク コントローラ(以下AD
C)2,アレイ ディスク ユニット(以下ADU)7により
構成される。ADU7は複数の論理グループ6により構成さ
れ,個々の論理グループ6はライト バッファ ユニッ
ト(以下WBU)3と4台のデータディスク4、1台のパ
リティディスク5により構成される。なお,このデータ
ディスク4,パリティディスク5の数は本発明と効果を得
るには、特に制限は無い。この論理グループはパリティ
を作成する単位であり,本実施例では個々のデータディ
スク4内のデータにより1つのパリティが作成される。
次にWBU3の内部構成について第2図を用いて説明す
る。WBU3はR/W判定部8,データ アドレス テーブル
(以下DAT)9,ライト バッアァ(以下WB)10,パリティ
ジェネレータ(以下PG)11,論理グループ管理部(以
下LGC)12により構成される。なお,DAT9,WB10はバッテ
リバックアップ等により不揮発化された半導体メモリで
ある。このDAT9には第4図に示すように論理グループ6
内の全てのデータディスク4について,それぞれに格納
されているデータのアドレスおよび、WBフラグ、無効フ
ラグが,テーブル上に管理されている。システムの電源
をオンした時に、論理グループ6内の各データディスク
4から、その中に格納されているデータのアドレステー
ブルがDAT9内に読み込まれる。一方,電源をオフする時
はDAT9内のアドレステーブルを、読み込んできた各デー
タディスク4内の,所定の場所に格納する。また、LGC1
2は論理グループ内のデータ管理を行う。
以上のような構成のシステムでの具体的なI/O処理に
ついて第1図、第2図を用いて説明する。
CPU1より発行されたI/O要求はADC2により解読され,
当該データディスク4が属する論理グループ6に発行さ
れる。論理グループ6ではADC2より発行されてきたI/O
要求が,第2図に示すWBU3内のR/W判定部8で読み出し
要求が書き込み要求かを判定し,またDAT9により当該デ
ータが格納されているアドレスを見つける。読み出し時
では当該データがWB10にあるかをDAT9内のWBフラグで調
べる。WB10内に格納されている場合はWB10から当該デー
タを読みだし,WB10内に無い場合は当該データディスク
4内の当該データを読みだす。一方書き込み時は以下の
ように処理される。
第3図は本発明によるデータ格納の一例を示す。
第3図に示すようにデータディスク#1のデータ#1
に対して更新命令が発行され,次にデータディスク#2
のデータ#2,次にデータディスク#3のデータ#3,次に
データディスク#4のデータ#4の更新命令が発行され
たとする。まず、第2図に示すDAT9内の当該データアド
レスのWBフラグをオンにし、WB10にデータ#1から4ま
でを格納する。なお、WB10内に溜めているデータに対し
更新要求が発行された場合は、WB10内のデータを書き替
える。WB10に溜めたWriteデータは第3図に示すように
データ#1から#4までが揃いパリティの作成可能な量
が溜り次第,PG11によりパリティを作成し、各データデ
ィスク4とパリティディスク5に並列にしかも一度に格
納する。データ#5,#6,#7のようにパリティー作成不
可の場合は次のデータを待つ。格納する場所は第3図に
示すように更新前のデータが格納されているアドレスで
はなく,別のアドレスとする。例えば、データディスク
#1のアドレス1に格納されているデータ#1を更新す
る場合、データディスク#1内のアドレスnに格納す
る。同様に、データディスク#2のアドレス2のデータ
#2、データディスク#3のアドレス3のデータ#3、
データディスク#4のアドレス4のデータ#4をそれぞ
れ更新する場合、各々のデータディスクのアドレスnに
格納する。
このように書き込みデータを格納するため、本システ
ムでは論理グループ内の各データディスク4とパリティ
ディスク5の回転を全て同期させる方が望ましい。な
お、更新するデータをデータディスク4に格納する際に
は、第4図にアドレステーブルの例を示すようにDAT9の
更新するデータアドレスの無効フラグをオンにし,新た
に格納するアドレスを当該データディスクのテーブルの
最後に付け足す。将来,ユーザがこのデータに読み出し
要求を発行した場合は前のアドレスにはアクセスせず新
しく格納されたアドレスにアクセスすることになる。
以上述べたように,本実施例では同一データディスク
4内において,書き込みデータについてはダイナミック
にアドレスを更新し格納していく。このようにした場
合、第5図に論理グループ内のデータの状態を示すよう
にデータ格納効率(データディスクに格納可能なデータ
容量に対する、実際に格納するデータ容量の割合)が低
下する。本発明では第5図に示すように、論理グループ
を構成する各データディスクの同一アドレスのデータに
ついてパリティが作成される。具体的には、データディ
スク#1から4までの各データディスク内のアドレス
(n,m)のデータによりパリティが作成され、そのパリ
ティはパリティディスク5内のアドレス(n,m)に格納
される。論理グループ6内のデータディスクに障害が発
生した場合、障害ディスクを除いた残りのデータディス
ク4内のデータと、このパリティにより障害ディスク内
のデータを復元することが可能となる。この時、各デー
タディスク4内のデータについては、DAT9内の無効フラ
グを無視し無効フラグがオンになっているデータも読み
だして復元する。このことから、本発明では、無効フラ
グがオンになったデータはユーザにとっては不必要なデ
ータであるが、システムにとっては障害発生時にデータ
復元のため必要となるデータである。
以上のことをふまえ、次にデータディスク4内でのデ
ータ管理方法について説明する。
まず、データ格納領域について説明する。本実施例で
はデータディスク4内で実際に格納するデータの量はデ
ータディスクに格納可能な最大容量の1/Vとする。これ
は、書き込みデータのアドレスをダイナミックに書き替
えるため、書き替え先の領域(書き替え領域)が必要と
なるからである。つまり、データディスクに書込み可能
な最大容量のデータを格納してしまうと、後に書き込み
要求が発行された場合、書き込もうとしても書き込む場
所が無くなってしまうためである。そこで、予め後の書
き込み要求のために書き替え領域を確保しておく(書き
替え領域の割合は、(V−1)/V)。この予め確保して
おく書き替え領域の割合は、ランダムなアドレスにアク
セスするI/Oが多い場合は1/Vの値を小さくする。またWB
10から早くデータディスク4に格納し,比較的同じよう
なアドレスにアクセスするI/Oが多い場合は1/Vの値を大
きくしてWB10内になるべく長い時間格納しておく。この
制御には2つの方法がある。一つは、ユーザが格納する
データについて,ランダムなアクセスの量を予め認識
し,格納するデータの量(1/V)を決める。例えば、同
じデータに対して次々と書き換えを行なうアクセスの割
合が、全アクセスに対して約30%程度なら、1/V=1/2程
度に設定し、データディスク4に格納可能なデータ量の
1/2のみデータを格納しておく。
もう一つは、アクセスされたアドレスを記録し,その
データからランダムなアクセスの割合を求め、ADC3が格
納するデータの割合(1/V)を自動的に割り当てる。し
かし、このように予め書き替え領域を確保しておいて
も、一データディスク4内に格納できるデータの容量は
有限であるため、書き替えを繰り返した場合、格納され
たデータの量がデータディスクの格納最大容量となり、
書き替え領域が無くなる。そこで、データディスク4内
のデータを詰め変え、新たに書き替え領域を作成する方
法について次に説明する。
第6図は各データディスク4内の同一アドレスのデー
タを抜き出したものである。論理グループ6内における
各データディスクの同一アドレス(同一行)のデータに
より、パリティが作成される。例えば第1行のアドレス
を考えると、データディスク#1のデータ1、データデ
ィスク#2のデータ#5、データディスク#3のデータ
9、データディスク#4のデータ13によりパリティ1が
作成される。第6図では第1行のデータグループ内にお
いて無効フラグがオフのデータはデータ9のみである。
斜線で示す、データ1,5,13は障害発生時の障害ディスク
内のデータ復元用データとして残されている。第2行に
ついては無効フラグがオフのデータはデータ10,14の2
個で、第3行ではデータ3,7,15の3個、第4行はデータ
4,8,12,16と全て無効フラグがオフとなっている。第2
図に示すLGC12は論理グループ内のデータを管理する。L
GC12はDAT9を常に監視しており、同一行内において予め
設定しておいた数より多くの無効フラグがオンになる
と、詰め変えを行う。例えば、第6図の第1行のよう
に、無効フラグが3個オンになると詰め変えを行うよう
に設定しておいた場合、LGC12は第1行について詰め変
えを行う。具体的には、データ9をWB10に吸い上げWB10
内に溜め、書き込みデータまたは同様に他の行から吸い
上げられたデータと新たにパリティを作成し、データを
データディスク4、パリティをパリティディスク5のそ
れぞれの書き替え領域に格納する。なお、データ9をWB
10に吸い上げた段階で、DAT9内のWBフラグをオンにす
る。
また、別の詰め変え方法としては、上述したように詰
め変えるための時間を特別にとるのではなく、データ9
に読み出し要求が発行され、データディスク4から読み
出された時に、上位にデータを転送すると同時にWB10内
に溜め、書き込みデータまたは同様に他の行から吸い上
げられたデータと新たにパリティを作成し、データをデ
ータディスク4、パリティをパリティディスク5のそれ
ぞれの書き替え領域に格納する方法が考えられる。な
お、書き替え領域に格納する段階で書き込み時と同様に
DAT9内の無効フラグをオン、WBフラグをオフにし、DAT9
内に新たにアドレスを付け足す。このようにして行内の
全てのデータの無効フラグがオンになると、その行を書
き替え領域とする。この詰め変えは、論理グループ6に
発行されるI/Oが比較的少ない時、特に書き込みが少な
い時に行うとシステムのI/O処理効率の低下が少なく効
果的である。
本実施例ではパリティを作成する単位は、論理グルー
プ6を構成する各データディスク4、パリティディスク
5について、第7図に示すように同一アドレス(シリン
ダアドレス、ヘッドアドレス、レコードアドレスが全て
等しい)とした。しかし、データ格納効率を向上させる
ため、同一アドレスに限定せず、インデックスからの距
離が等しければ(レコードアドレスが等しい)シリンダ
アドレス、ヘッドアドレスは異なっていてもパリティを
作成できる。このようにしても本実施例の動作は可能と
なる。
実施例2 本実施例では第8図に示すように、実施例1の論理グ
ループを複数個集め、それを大論理グループ13と定義す
る。システム構成は実施例1の第1図と同じである。
CPU1より発行されたI/O要求はADC2により解読され,
当該データディスク4が属する大論理グループ13内の各
論理グループ6に発行される。各論理グループ6ではAD
C2より発行されてきたI/O要求が,第2図に示すWBU3内
のR/W判定部8で読み出し要求か書き込み要求かを判定
する。読み出し時はDAT9により当該データが格納されて
いるアドレスを探す。この時、当該データが格納されて
いるアドレスが見つかった場合は、その論理グループ6
内に当該データディスク4が含まれているとし、アドレ
スが見つからない場合は当該データディスク4が論理グ
ループ内に無いとし、その論理グループを解放する。こ
のようにしてアドレスを見つけた後、当該データが含ま
れている論理グループ6において、実施例1と同様な方
法により読みだす。一方、書き込み時は、読み出しと同
様にDAT9により当該データが格納されているアドレスを
探す。しかし、実際に格納する場所は、大論理グループ
13内のI/O要求が発行されておらず、書き替え領域があ
る任意の論理グループ6内のWB10内とする。本実施例で
も実施例1と同様に、WB10に書き込みデータを格納して
溜めていく。このWB10に溜めた書き込みデータは、パリ
ティの作成が可能な量が溜り次第、PG11によりパリティ
を作成し各データディスク4とパリティディスク5に並
列にしかも一度に格納する。この時に更新前のデータが
格納されている当該論理グループ6内のDAT9上の、当該
データアドレスの無効フラグをオンにする。さらに、新
たに格納する論理グループ6内のDAT9上の、当該データ
ディスク4のテーブルの最後に新しいアドレスを付け足
す。
このように書き込みデータを格納するため、本システ
ムでは論理グループ内の各データディスク4とパリティ
ディスク5は全て回転を同期させる方が望ましい。
また、本実施例においても実施例1と同様な方法によ
り詰め変えを行うものとする。
なお、第1図では各論理グループ6においてWBU3が付
いているが、第9図に示すようにこのWBU3を大論理グル
ープ13について1ヶ所にまとめておく方が望ましい。こ
のようにまとめておくことによりDAT9の一括管理が行
え、当該データが格納されているアドレスを探す場合、
WBU3内のDAT9を調べることにより即座に見つけることが
可能となり、また、書き込み時は、同時に更新前の無効
フラグをオンにし、新たなアドレスを付け足すことが可
能となる。
実施例3 本実施例では第1図の構成で、論理グループ6内の各
データディスク4にデータを分割して格納し並列に転送
するものと、実施例1、2に示したように各々のデータ
ディスク4が独立に動くものが混在した構成となってい
る。第10図はADU7の内部構成を示している。4台のデー
タディスク4と1台のパリティディスク5により論理グ
ループ6が構成され、複数の論理グループ6により領域
を決定する。この領域設定は論理グループ6を最小単位
として自由に変えられる。第11図に示すように第10図の
領域1は、実施例1で述べた、一つの独立したデータを
一台のデータディスク4に格納し、読み出し時は個々の
データディスク4に対し独立にアクセスするような、論
理グループ6により構成される。また、領域2は一つの
独立したデータを分割し、各データディスク4に格納
し、読み出す場合は各データディスク4より分割された
データを一度に並列に読みだすような論理グループ6に
より構成される。この領域2では各論理グループ6はあ
たかも一台のディスクのように上位からは見える。
領域3は実施例2で述べたように複数の論理グループ
6により大論理グループ13により構成される。本発明で
は、このようにADU7の内部を領域に分け、高速転送を要
求するデータに対しては領域2にデータを格納し、単位
時間当りに多くI/Oを処理したいデータの場合は領域1
または3にデータを格納する。このようにすることによ
り自由度の高いシステムにすることが可能となる。
なお、本実施例1から3は、磁気ディスクについて述
べてきたが、光ディスク、フロッピディスクなどの記憶
装置においても成り立つ。
〔発明の効果〕
以上説明したように、本発明では書き込み処理を高速
に行えるため、単位時間当りのI/O処理件数を増加させ
ることが可能となる。
【図面の簡単な説明】
第1図は本発明の全体構成図、第2図はライトバッファ
ユニットの内部構成図、第3図は本発明のデータ格納
方法の説明図、第4図はアドレステーブルの説明図、第
5図は論理グループ内のデータの状態説明図、第6図は
本発明の詰め替え動作説明図、第7図は本発明のデータ
ディスク、パリティディスクの内部アドレス説明図、第
8図は本発明の第2の実施例の構成図、第9図は本発明
の第2の実施例の構成図、第10図は本発明の第3の実施
例の内部構成図、第11図は本発明の第3の実施例の領域
説明図、第12図は従来のアレイディスクの説明図、第13
図は従来技術の書込み時間の比較図。 1……CPU、2……アレイ ディスク コントローラ(A
DC)、3……ラント バッアァ ユニット(WBU)、4
……データディスク、5……パリティ ディスク、6…
…論理グループ、7……アレイ ディスク ユニット
(ADU)、8……R/W判定部、9……データ アドレス
テーブル(DAT)、10……ライト バッファ(WB)、11
……パリティ ジェネレータ(PG)、12……論理グルー
プ管理部(LGC)、13……大論理グループ。
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−176822(JP,A) 特開 平1−108627(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06F 3/06 G11B 20/10

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】上位装置からのデータの入出力要求に対す
    る、当該データを格納してある、又は格納するディスク
    装置と、該ディスク装置を管理する制御装置からなるシ
    ステムにおいて、 該ディスク装置は複数のディスクドライブにより構成さ
    れ、上記上位装置から転送されてきたデータを1回に入
    出力する単位で分散して格納するアレイディスクシステ
    ムであり、 このアレイディスク内に格納されている格納データを読
    み出す場合に、当該ディスクドライブ1台から読み出す
    手段と、 このアレイディスクシステムに格納されている格納デー
    タを書き替える場合に、書き替えるデータを一旦バッフ
    ァに溜め、この溜めた書き替えデータから誤り訂正デー
    タを作成し、これらの書替えるデータと新しく作成した
    誤り訂正データを、一度に並列に複数のディスクドライ
    ブに書き込む手段とを有し、 ここで、バッファに溜めた書き替えるデータをディスク
    ドライブに格納する際、格納データが格納されている領
    域に書き込まず、別の使用されていない領域に書き込む
    手段を有する特徴とするアレイディスクシステム。
  2. 【請求項2】システム内に格納されているデータについ
    てのテーブルを備え、 データを書き替える際はこの管理テーブル内の格納デー
    タのアドレスを無効とし、置き換えるデータを格納する
    アドレスを管理テーブルに新たに付け足す手段とを有す
    ることを特徴とする特許請求の範囲第1項記載のアレイ
    ディスクシステム。
  3. 【請求項3】各ディスクドライブ内において、各ディス
    ク面上の同一位置に設定されているインデックスからの
    距離が等しければ、シリンダアドレス、ヘッドアドレス
    が異なっていても誤り訂正データを作成する手段を有す
    ることを特徴とする特許請求の範囲第1項記載のアレイ
    ディスクシステム。
  4. 【請求項4】書き替えるデータを格納する領域を、ディ
    スクドライブ間にまたがって設定する手段を有すること
    を特徴とする特許請求の範囲第1項記載のアレイディス
    クシステム。
  5. 【請求項5】書き替えるデータを格納する領域を、ディ
    スクドライブ間にまたがって設定する手段と、 該ディスクドライブ間にまたがって設定された格納領域
    を含めたグループに対し、1箇所にある、データの管理
    テーブルを有することを特徴とする特許請求の範囲第1
    項記載のアレイディスクシステム。
  6. 【請求項6】データを分割し並列に転送する領域と、個
    々のデータを独立に扱う領域を、誤り訂正データを作成
    するディスクドライブのグループの単位として、一つの
    システム内に共存させる手段を有することを特徴とする
    特許請求の範囲第1項記載のアレイディスクシステム。
  7. 【請求項7】データを分割し並列に転送する領域と、個
    々のデータを独立に扱う領域の指定を変える手段を有す
    ることを特徴とする特許請求の範囲第1項記載のアレイ
    ディスクシステム。
  8. 【請求項8】データ供給源から入力されるデータから誤
    り訂正用データを形成する手段と、該複数のデータと誤
    り訂正用データを1つのグループとして複数のディスク
    装置の空き領域に格納する手段と、当該データを格納し
    た領域を管理するテーブルを有効化する手段と、該複数
    のデータが上記複数の記録済みのデータの更新データを
    含む場合に当該記録済データを格納した領域を管理する
    テーブルを無効化する手段とを有するデータの処理方
    法。
JP2247134A 1990-09-19 1990-09-19 アレイディスク Expired - Fee Related JP2986880B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2247134A JP2986880B2 (ja) 1990-09-19 1990-09-19 アレイディスク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2247134A JP2986880B2 (ja) 1990-09-19 1990-09-19 アレイディスク

Publications (2)

Publication Number Publication Date
JPH04127224A JPH04127224A (ja) 1992-04-28
JP2986880B2 true JP2986880B2 (ja) 1999-12-06

Family

ID=17158942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2247134A Expired - Fee Related JP2986880B2 (ja) 1990-09-19 1990-09-19 アレイディスク

Country Status (1)

Country Link
JP (1) JP2986880B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6874101B2 (en) 1991-01-31 2005-03-29 Hitachi, Ltd. Storage unit subsystem
JP3409859B2 (ja) 1991-01-31 2003-05-26 株式会社日立製作所 制御装置の制御方法
US5579474A (en) 1992-12-28 1996-11-26 Hitachi, Ltd. Disk array system and its control method
JPH08329021A (ja) * 1995-03-30 1996-12-13 Mitsubishi Electric Corp クライアントサーバシステム
JPH11119922A (ja) 1997-10-17 1999-04-30 Fujitsu Ltd データ記憶システム及び冗長データ書き込み制御方法
JP3592640B2 (ja) 2001-01-09 2004-11-24 株式会社東芝 ディスク制御システムおよびディスク制御方法
JP2007122167A (ja) * 2005-10-25 2007-05-17 Fujitsu Ltd データ転送プログラム、データ転送方法およびデータ転送装置

Also Published As

Publication number Publication date
JPH04127224A (ja) 1992-04-28

Similar Documents

Publication Publication Date Title
JP3431972B2 (ja) 仮想ディスクシステム
JP3697149B2 (ja) キャッシュ・メモリを管理する方法
US6256749B1 (en) Disk array system and its control method
US7111134B2 (en) Subsystem and subsystem processing method
JP3371044B2 (ja) ディスクアレイのための領域割り当て方法およびディスクアレイアクセス方法
US5802345A (en) Computer system with a reduced number of command end interrupts from auxiliary memory unit and method of reducing the number of command end interrupts
JP3176157B2 (ja) ディスクアレイ装置及びそのデータ更新方法
US6604171B1 (en) Managing a cache memory
US6397348B1 (en) Redundant array of disk drives with asymmetric mirroring and asymmetric mirroring data processing method
EP0572564A4 (ja)
JPH02176822A (ja) ディスクファイルシステム
JP2000010738A (ja) ディスクアレイシステム、同システムに適用される記憶容量拡張方法および記録媒体
JPH10105344A (ja) データ記録装置システム及びそのデータ書込方法
JP2986880B2 (ja) アレイディスク
JPH09288547A (ja) アレイ型記憶装置
JP3687111B2 (ja) 記憶装置システムおよび記憶装置の制御方法
US8006049B2 (en) Export of logical volumes by pools
US6934803B2 (en) Methods and structure for multi-drive mirroring in a resource constrained raid controller
JP3236166B2 (ja) キャッシュ制御方法および情報処理装置
JP3256329B2 (ja) ディスクアレイ装置及びその制御方法
JP3785165B2 (ja) ディスクアレイ装置および筐体内レプリケーション方法
JP2733189B2 (ja) ディスクアレイ装置の入出力制御方法
JP2000285022A (ja) ディスク制御装置
JPH10240450A (ja) 記憶装置システム
JPH1031563A (ja) 記憶装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081001

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091001

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees