JPH04102148A - データ処理装置 - Google Patents

データ処理装置

Info

Publication number
JPH04102148A
JPH04102148A JP2218909A JP21890990A JPH04102148A JP H04102148 A JPH04102148 A JP H04102148A JP 2218909 A JP2218909 A JP 2218909A JP 21890990 A JP21890990 A JP 21890990A JP H04102148 A JPH04102148 A JP H04102148A
Authority
JP
Japan
Prior art keywords
data
disk
processing
buffer
disk device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2218909A
Other languages
English (en)
Inventor
Hirofumi Inomata
宏文 猪股
Hiroyuki Kitajima
北嶋 弘行
Akira Yamamoto
彰 山本
Hiroharu Arai
弘治 荒井
Akira Kurano
倉野 昭
Takao Sato
孝夫 佐藤
Kiyoshi Kuno
久野 潔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2218909A priority Critical patent/JPH04102148A/ja
Publication of JPH04102148A publication Critical patent/JPH04102148A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はデータ処理装置に係り、特に記憶装置およびそ
の制御装置に関する。
〔従来の技術〕
従来、以下のような機能を有するデータ処理装置が知ら
れている。
[二重書き機能] 特開昭61−249132号公報に記載のように、CP
U(中央処理装置)からの1回のデータ書込み命令に対
応して、CPUからのデータをディスク制御装置に内蔵
するディスクキャッシュメモリへ格納する。そして、デ
ィスクキャッシュメモリに格納したデータを第1のディ
スク装置と、第2のディスク装置へと、順次、書込む。
第1のディスク装置へのデータ書込みの処理は、第2の
ディスク装置へのデータ書込みの処理よりも、優先して
行われる。
[コピー機能] 特開昭55−159263号公報に記載のように、ディ
スク制御装置は、少なくとも1トラック分のデータを格
納するバッファを内蔵する。そして、ディスク制御装置
が、第1のディスク装置からデータをバッファに読み出
し、バッファからデータを第2のディスク装置へ置き込
む制御を行う。以上によって、第1のディスク装置のデ
ータを第2のディスク装置へコピーを行う。
[コピー処理中のCPUからの入出力要求の受付機能] 特開昭61−240320号公報に記載のように、磁気
ディスク制御装置内に、複写中の磁気ディスク装置内ア
ドレスを記憶するアドレスカウンタを設ける。第1の磁
気ディスク装置から第2の磁気ディスク装置への複写(
コピー)処理中に、CPUから二重書指令(要求)を受
け取ると、二重書指令の対象となる磁気ディスク装置内
アドレスを前記アドレスカウンタと比較する。この比較
結果によって、CPUからのデータを第1の磁気ディス
ク装置のみに書込むか、2台とも書込むかを制御する。
〔発明が解決しようとする課題〕
上記従来技術は、1つのデータブロックのコピーの処理
に、2回のデータ転送が必要となるという問題があった
本発明は、1つのデータブロックのコピーの処理を、1
回のデータ転送で行う記憶装置およびその制御装置を提
供する。
〔課題を解決するための手段〕
上記目的を達成するために、記憶装置の制御装置および
記憶装置の両方に、 (1)装置全体の動作の制御と、データの処理とを行う
制御部(例えば、マイクロプロセッサ、等)、(2)制
御部からの指示で、他装置とのデータ転送を行うデータ
転送インタフェース部、 (3)データを格納するためのバッファ。
(4)障害の発生したデータを回復するために必要なデ
ータが格納されている1台以上の記憶装置の識別子を記
憶する構成情報管理部、 とを設けたものである。さらに、記憶装置には、(5)
記憶装置の記憶媒体のアクセス時にデータの障害を検出
する障害検出部 とを設けたものである。
〔作用〕
(1)記憶装置の制御装置 (a)  構成情報登録の処理 制御部は、外部データ処理システムからの要求もしくは
オペレータ指示によって、データの障害を回復するため
に必要となるデータが格納されている1台以上の記憶装
置の識別子を構成情報管理部に記憶する。
(b)  入出力要求の処理 制御部は、外部データ処理システムから入出力要求を受
け取ると、データ転送インタフェース部に指示を出し、
構成情報管理部に記憶されている複数の記憶装置とバッ
ファとの間でデータ転送するように動作する。さらに、
制御部は、外部データ処理システムからのデータを、1
台の記憶装置のデータを他の1台以上の記憶装置のデー
タから回復できるように加工し、それぞれの記憶装置に
分割して格納する。例えば、同一のデータを他の記憶装
置に格納すること、冗長データを加え分割したデータを
それぞれの記憶装置に格納すること、等である。
(2)記憶装置 (a)  構成情報の登録処理 制御部は、制御装置から指示された1台以上の記憶装置
の識別子を構成情報管理部に記憶する。
(b)  入出力要求の処理 制御部は、制御装置もしくは記憶装置から、入出力要求
を受け取ると、データ転送インタフェース部に指示を出
して、相手装置とバッファとの間でデータ転送を行うよ
う動作する。ただし、 (i)  ライト要求の場合 相手装置とのデータ転送後に、バッファから記憶装置の
記憶媒体にライトデータを書き込む。
(ii)  リート要求の場合 相手装置とのデータ転送前に、記憶装置の記憶媒体から
バッファにリードデータを読み出す。
(c)データの回復処理 制御部は、障害検出部でデータの障害が検出されると、
このデータを回復するため、データ転送インタフェース
部に指示を出し、構成情報管理部に記憶されている複数
の記憶装置とデータ転送を行う。そして、障害回復用の
データがバッファに格納されると、これらのデータから
障害の発生したデータを回復する。
以上によって、記憶装置は、データの障害を検出し、他
の記憶装置とデータ転送を行って、データの障害を回復
するよう制御を行うことができる。
〔実施例〕
(実施例1) (1)実施例の概要 (a)  適用 本実施例は、ディスク装置のデータを多重化するための
制御を、ディスク制御装置とディスク装置が行うデータ
処理システムに適用したものである。ディスク装置のデ
ータを多重化するためには、 (i)  多重書き機能、つまり、CPUからの1回の
ライト要求に対応して、ライトデータを複数台のディス
ク装置へ転送する機能と、 (ii)  コピー(回復)機能、つまり、もともと内
容の一致していない複数台のディスク装置のそれぞれの
内容を一致させる機能とが、必要である。
本実施例は、多重書き機能と、コピー機能とを、実現す
るための装置および制御方法に関する。
(b)  装置の概要 第1図によって、本実施例のデータ処理システムの装置
の概要を説明する。
本データ処理システムは、CPU14と、ディスク制御
装置10と、複数台のディスク装置12.13と、デー
タバス151がら153とから成る。データバス151
は、CPU14とディスク制御装置10とを接続する。
データバス152と153のそれぞれは、ディスク制御
装置10とディスク装置12.13とを接続する。ディ
スク制御装置10とディスク装@12゜13は、それぞ
れバッファ101,121゜131を有する。ディスク
装置12.13は、それぞれ構成情、報管理部126,
136を有する。
(c)  処理の概要 第1図によって、本実施例の処理の概要を説明する。
(i)  多重書き機能の多環 CP U−14からライト要求が発行されると、ライト
データを、データ流れ161に従って、CPU14から
バッファ101へ転送する。
バッファ101に転送されたライトデータを、データ流
れ162に従って、バッファ101からディスク装置1
2.13のバッファ121゜123へ同時に転送する。
(ii)  コピー機能の処理 ディスク装置12は、構成情報管理部126に登録され
ているディスク装置13との内容の不一致を検出(デー
タ障害を検出)すると。
ディスク装置13にリード要求を発行する。
リード要求を受け取ったディスク装置13は、リードデ
ータをバッファ131へ格納する。
データ流れ163に従って、バッファ131からバッフ
ァ121へ、リードデータを転送する。ディスク装置1
2は、バッファ121のリードデータを用いて、ディス
ク装置13と内容を一致させる。
(2)従来技術 第2図によって、従来技術を説明する。
前記本発明の実施例とは、制御方法で異なる。
(a)  多重書き機能の処理 CPU14からライト要求が発行され、ライトデータが
バッファ101へ転送されると、バッファ101にある
ライトデータをデータ流れ1621.1622に従フて
、個別に、ディスク装置12.13へ転送する。
(b)  コピー機能の処理 ディスク制御装置10は、ディスク装置12と13との
間に内容の不一致を検出すると、ディスク装置13ヘリ
ード要求を発行し、データ流れ1631に従って、ディ
スク装置13からバッファ101ヘリードデータを転送
する。この後、ディスク制御装置10は、データ流れ1
632に従って、バッファ101がらディスク装置12
ヘリードデータを転送する。
以上のように、従来技術が、1機能の実行に2回のデー
タ転送を必要とするのと比べ、本実施例では、1回のデ
ータ転送で済む。
(3)データ転送インタフェース (a)  ディスク制御装置とディスク装置第3図によ
って、説明する。
(i)  ディスク制御装置1oがら、複数台のディス
ク装置12.13へ、同一データを転送する場合、ディ
スク制御装置1oは、ライト要求を矢印1711.17
12に従って、逐次1発行する。この後、ディスク制御
装W10は、ライトデータをデータバス152へ送信す
る。ライト要求を受け取ったディスク装置12.13は
、データバス152からライトデータを受信し、それぞ
れ、バッファ121,131にライトデータを格納する
。エラーが発生した場合は、ディスク装置12もしくは
13は、ディスク制御装置i10ヘエラー報告を行う。
(ii)  ディスク装置12もしくは13からディス
ク制御装置10ヘデータを転送する場合、ディスク制御
装置1oは、リード要求を、矢印1711もしくは17
12に従って、ディスク装置!12もしくは13へ発行
する6リード要求を受け取ったディスク装置12もしく
は13は、それぞれ、バッファ121,123にリード
データを格納する。この後、ディスク装置12もしくは
13は、データバス152ヘリードデータを送信する。
ディスク制御装置10は、データバス152よりリード
データを受信する。エラーが発生した場合、ディスク装
置12もしくは13は、ディスク制御装置10ヘエラー
報告を行う。
(b)ディスク装置同士 第4図によって説明する。ディスク装置13からディス
ク装置12ヘデータを転送する場合、ディスク装置12
は、ディスク装置13へ、矢印172に従って、リード
要求を発行する。リード要求を受け取ったディスク装置
13は、リードデータをバッファ131に格納し、デー
タバス153へ送信する。ディスク装置12は、データ
バス153より、リードデータを受信し、バッファ12
1へ格納する。エラーが発生した場合、ディスク装置i
13は、ディスク装置i12ヘエラー報告を行う。
(4)実施例の詳細 (a)  装置の詳細 本発明の一実施例のデータ処理システムの全体構成につ
いては第1図によって、説明済みである。以下、第6図
によって、ディスク制御装置10とディスク装置12の
構成について、説明する。
(i)  ディスク制御装置の構成 ディスク制御装置10は、下記6項から成る。
■ バッファ101は、CPU14からのデータもしく
はディスク装置12もしくは13からのデータを格納す
るメモリである。
■ ホストインタフェース部102は、CPU14から
の要求を受け取り、この要求を制御部104へ報告する
処理を行う。また、制御部104からの指示によって、
CPU14ヘエラー報告を行う処理と、CP U’l 
4からのデータをバッファ101へ転送する処理と、バ
ッファ 101からデータをCPU14へ転送する処理を行う。
G データ転送インタフェース部103は、制御部10
4からの要求を、ディスク装置12もしくは13へ報告
する処理と、ディスク装置12もしくは13からのエラ
ー報告を受取り制御部104へ報告する処理を行う。ま
た、制御部104からの指示によって、バッファ101
からデータをディスク装置12もしくは13へ転送する
処理と、ディスク装置12もしくは13からのデータを
バッファ101へ転送する処理を行う。
■ 制御部104は、ディスク制御装置10の処理を実
行するマイクロプロセッサである。
■ バッファ管理部105は、バッファ101に格納し
たデータの格納アドレスと、このデータのセクタアドレ
スの組を、登録し記憶する処理と、この登録を検索する
処理と、この登録を削除する処理とを行うためのテーブ
ルを格納するメモリである。
■ 構成情報管理部106は、多重化の対象となるディ
スク装置の識別子を組(ディスクグループ)にして登録
し記録する処理と、この登録を検索する処理と、この登
録を削除する処理を行うためのテーブルを格納するメモ
リである。
(it)  ディスク装置の構成 ディスク装置12は、下記11項から成る。
■ バッファ121は、ディスク制御装置10からのデ
ータもしくはディスクドライブ1211からのデータを
格納するメモリである。
■ データ転送インタフェース部122は。
ディスク制御装置10もしくは他のディスク装W13か
らの要求もしくはエラー報告を受け取り、この要求を制
御部124へ報告する処理と、制御部124からの要求
を他のディスク装置13へ報告する処理と、制御部12
4からのエラー報告を、ディスク制御装置10もしくは
他のディスク装置13へ行う処理を行う。また、制御部
124からの指示によって、ディスク制御装置10から
のデータをバッファ121へ転送する処理と、バッファ
121からデータをディスク制御装置10へ転送する処
理とを行う。
■ ディスクドライブインタフェース部123は、制御
部124の指示により、バッファ121のデータをディ
スクドライブ1211へ転送する処理と、ディスクドラ
イブ1211のデータをバッファ121へ転送する処理
とを持つ。
■ 制御部124は、ディスク装置12の各処理を実行
するマイクロプロセッサである。
■ バッファ管理部125は、バッファ121に格納し
たデータの格納アドレスと、このデータのセクタアドレ
スの組を。
登録し記憶する処理と、この登録を検索する処理と、こ
の登録を削除する処理とを行うためのテーブルを格納す
るメモリである。
■ 構成情報管理部126は、多重化の対象となるディ
スク装置の識別子を組にして登録し記憶する処理と、こ
の登録を検索する処理と、この登録を削除する処理を行
うためのテーブルを格納するメモリである。
■ カレントポインタ管理部127は、どこまでコピー
(回復)処理が終わったかを示すセクタアドレスを記憶
するメモリである。
■ 回復可能領域管理部128は、制御部124が指示
したセクタアドレスを登録し記憶する処理と、この登録
を検索する処理と、この登録を削除する処理を行うため
のテーブルを格納するメモリである。
■、回復不能領域管理部129は、回復可能領域管理部
128と同じ仕様のテーブルを格納するメモリである。
■)障害検出部1210は、ディスク装置12内の障害
を検出し、制御部124ヘエラー報告を行う処理を行う
(b)  処理の詳細 (1)制御の基本的な考え方 第7図によって、本実施例のデータ処理システムの制御
の基本的な考え方について、説明する。
まず、ディスク装置12が、ディスク制御装置10から
受取ったデータと、そのセクタアドレスとの組に対して
、下記3状態を定義する。
■ 正常状態71は、ディスク制御装置10から受け取
ったデータが、ディスク装置112内から消失してない
状態とする。
■ 回復可能状態、72は、ディスク制御装[10から
受け取ったデータが、ディスク装置12内から消失した
状態とする。
■ 回復不能状態73は、CPU14からディスク制御
装置10が受け取ったデータについて、ディスク制御装
置10およびディスクグループ内の全てのディスク装置
12.13から消失した状態とする。
次に、各状態間の遷移について、説明する。
この状態遷移は、ディスク制御装置10とディスク装置
12.13の処理によって、発生するものとする。状態
遷移は、大きく分けて、下記4項とする。
■ 状態遷移712は、ディスクドライブ1211のデ
ータが読み出せなくなる障害(セクタ障害、等)もしく
はディスクグループの設定を受け他のディスク装置と内
容を一致させる必要が、生じた場合に起こる。
■ 状態遷移721は、ディスク装置12が、新たにデ
ィスク制御装置10からデータを受け取ったときに起き
、正常終了すれば、正常状態71へ遷移する。異常終了
した場合は、回復可能状態へ戻る。
■ 状態遷移741は、ディスク装置12が、他のディ
スク装置からデニタを受け取って、データを回復(コピ
ー)したときに正常状態71へ遷移する。この回復処理
が異常終了した場合、回復不能状態73へ遷移する。
■ 状態遷移731は、ディスク装置12が、新たにデ
ィスク制御装置10がらデータを受け取ったときに起き
、正常終了すれば、正常状態71へ遷移する。異常終了
した場合は、回復可能状態72へ遷移する。
以上において、制御の目的は、ディスク装置12の利用
許可領域内の状態を全て正常状態にすることである。
次に、第8図によって、ディスク装置12゜13間で行
うコピー処理(回復処理)と、CPU14がらの入呂カ
要求の処理との基本的関係について、説明する。
回復処理と、CPU14からの入出力要求の処理とは、
並行動作もできる。ディスク装置12がコピー処理を行
っている場合を説明する。
ディスク装置12は、内部にカレントポインタ805(
どこまで回復を行ったかを示すセクタアドレス値)を、
カレントポインタ管理部127(第6図参照)に記憶す
るか、もしくは、回復の終了していない領域のセクタア
ドレスは、回復可能領域管理部128に記憶する。これ
により、回復処理は、カレントポンタの値805を参照
して、順次、処理を行う。一方、CPU14からの入出
力要求の処理は、回復処理が終了し、正常状態71にあ
る領域に対応して、リード要求もしくはライト要求を受
付ける。回復処理が終了していない領域に対応して、リ
ード要求を受け付けない。以上の制御によって、回復処
理とCPU14からの入出力要求の処理との並行動作を
行う。
(1i)  ディスク制御装置の処理 第9図から第12図によって、ディスク制御装置10の
制御部104の処理を説明する。
まず、第9図の処理9011で、CPU14から要求を
受け取る。処理9012から9014で、CPU14か
らの要求を、ディスクグループ設定要求、ライト要求、
リード要求とに判別し、それぞれに対応し、処理9o1
5から9017の1つを実行し終了する。
(ディスク設定親処理) CPU14からディスクグループの設定要求を受け取る
と、処理9015で、ディスクグループ設定親処理を実
行する。第10図で、この処理を説明する。
まず、処理9031で、CPU14から指示されたディ
スクグループを構成情報管理部126へ登録する。次に
、処理9032で、CPU14から指示されるディスク
グループ内の全てのディスク装置へ、ディスクグループ
設定要求を発行する。このとき、回復(コピー)を必要
とするディスク装置には、回復状態の指示も発行する。
以上で、ディスクグループ設定親処理を終了する。
(ライト親処理) 次に、CPU14からライト要求を受け取ると、処理9
016で、ライト親処理を実行する。第11図で、この
処理を説明する。
まず、処理9051は、CPU14から指示されるディ
スク装置を含むディスクグループを、構成情報管理部1
26で検索する0次に、処理9052は、検索されたデ
ィスクグループ内のディスク装置へライト要求を発行し
、CPU14からのライトデータをディスク装置へ転送
する。処理9053で、エラー報告をしたディスク台数
と許容数(定数もしくはCPU14の指示)を比較する
。この比較で、許容数を越えた場合、処理9054にて
、CPU14へエラー報告をして終了する。以上で、ラ
イト親処理の処理を終了する。
(リード親処理) 次に、CPU14からリード要求を受け取ると、処理9
017で、リード親処理を実行する。第12図で、この
処理を説明する。
まず、処理9081は、CPU14から指示されるディ
スクグループを構成情報管理部126で検索する1次に
、処理9082は、検索されたディスクグループ内のす
くなくとも1台のディスク装置を選択する。ここでエラ
ーカウンタをクリアする。そして、処理9083は、選
択されたディスク装置へリード要求を発行する。
次に、処理9084は、ディスク装置からのエラー報告
があった場合、回復可能エラー報告であれば、処理90
88へ行く。
回復可能エラー報告でなければ、処理9085で判定さ
れ、処理9087へ行く、エラー報告がなければ、処理
9086へ行き、ディスク装置からCPU14ヘデータ
転送を行う。
処理9088ではエラーカウンタが許容数を越えていな
いか判定し、越えていれば、処理9087へ行く。越え
ていなければ、処理9089へ行き、ディスクグループ
内の別のディスク装置を選択して、ここでエラーカウン
タに1を加算し、処理9083へ行く。以上で、リード
親処理を終了する。
(ni)  ディスク装置の処理 第13図から第23図によって、ディスク装置12の制
御部124の処理を説明する。
■ ディスク制御装置からの要求の処理まず、第13図
の処理9021で、ディスク制御装置10からの要求を
受け取る。
処理9022から9024にて、ディスク制御装置10
からの要求を、ディスクグループの設定要求、ライト要
求、リード要求とに判別し、それぞれに対応して、処理
9025から9027の1つを実行し終了する。
(ディスクグループ設定子処理) ディスク制御装置10からディスクグ ループ設定要求を受け取ると、処理9025で、ディス
クグループ設定処理を実行する。第14図によって、こ
の処理を説明する。
まず、処理9041で、ディスク制御 装置から指示された状態が回復状態であるか判定する。
回復状態と判定されると、処理9043へ行く。回復状
態でなければ、処理9042へ行き、ディスク制御装置
10から指示されたディスクグループを構成情報管理部
126へ登録して終了する。
一方、処理9043は、カレントポイ ンタ管理部127で、カレントポインタ値を初期化する
。次に、処理9044は、回復不能領域管理部129の
全ての登録を削除する。そして、処理9045は、回復
可能領域管理部128に、利用許可領域を登録し、処理
9046へ行く。処理9046は、ディスク制御装置1
0から指示されたディスクグループを構成情報管理部1
26へ登録する。
そして、処理9047は、ボリューム 回復処理(コピー処理)を起動する。このボリューム回
復処理は、ディスク制御装置10からの要求の処理(第
13図から第18図までの処理)と、並行もしくは並列
に実行しても良い。
(ライト子処理) 次に、ディスク制御装置10からライ ト要求を受け取ると、処理9026で、ライト子処理を
実行する。第15図および第16図によって、この処理
を説明する。
まず、第15図の処理9o61は、デ ィスク制御装置10から指示されたセクタアドレスをバ
ッファ管理部125で検索する。この検索結果を、処理
9062で判定し、登録されていれば、処理9066へ
行く。登録されていなければ、処理 9063Δ行く。処理9066は、ディスク制御装置1
4からのデータを、バッファ121の格納領域へ転送し
、処理 9064へ行く。処理9063は、ディスク制御装置1
0からのデータをバッファ121へ転送し、バッファ管
理部125へ登録する。
次に、処理9064は5回復可能領域 管理部128に対象セクタアドレスの登録があれば、こ
の登録を削除する。そして、処理9065は1回復不能
領域管理部129に対象セクタアドレスの登録があれば
、この登録を削除する。
次に、第16図の処理9071は、バ ッファ121内のデータをディスクドライブ1211へ
転送する。そして、障害検出部1210で検出したエラ
ーを処理9072から9074で判別して、エラーが発
生していないときは終了する。セクタ障害(記憶媒体の
部分的障害)が発生した場合、処理9077で、交代セ
クタを割り付けて、処理9071へ行く。
リトライ可能なエラーが発生した場合は、処理9071
へ行く。リトライ不可能なエラーが発生した場合は、処
理9o75へ行く。
処理9075は、回復可能領域管理部 128へ対象セクタアドレスを登録し、処理9076へ
行く。処理9076は、ディスク制御装置10ヘエラー
を報告し、終了する。以上で、ライト子処理を終了する
(リード子処理) 次に、ディスク制御装置10からリー ド要求を受け取ると、処理9027で、リード子処理を
実行する。第17図および第18図によって、この処理
を説明する。
まず、第17図の処理9091は、デ ィスク制御装置10から指示されたセクタアドレスを、
回復可能領域管理部128もしは回復不能領域管理部1
29で検索をする。この結果を処理9092から 9093で判別し、回復可能領域管理部129に登録さ
れていれば、処理9095へ行く。回復不能領域管理部
129に登録されていれば、処理9096へ行く。その
他の場合は、処理9094へ行く。処理9095は、デ
ィスク制御装置10へ回復可能エラーを報告して終了す
る。処理9096は、ディスク制御装置1oへ回復不能
エラーを報告して終了する。
処理9094は、対象セクタアドレス をバッファ管理部125で検索する。そして、第18図
の処理91o1で、この検索結果を判定する。
登録があれば、処理9105へ行く。
登録がなければ、処理9102へ行く。
処理9102は、ディスクドライブ1211からデータ
をバッファ121へ転送する。
そして、障害検出部1210が検出するエラーを、処理
91o3で判定し、エラーが発生していれば、処理91
06へ行く。エラーが発生していなければ、処理910
4へ行く。処理9104は、バッファ管理部125へ対
象セクタアドレスを登録する。次に、処理9105は、
バッファ121からディスク制御装置10ヘデータを転
送して終了する。一方、処理9106は、対象セクタア
ドレスを回復可能領域管理部128に登録する。そして
、処理9107で、交代セクタを割り付ける。次に、処
理9108は、ディスク制御装置10へ回復可能エラー
を報告して終了する。
■ データ回復の処理 回復の処理には、ボリューム回復処理と、回復可能領域
回復処理の2つある。ボリューム回復処理は、ボリュー
ム全体のデータを他のディスク装置のデータから回復す
るための処理で、ディスク制御装置1110がらのディ
スクグループ設定要求の処理から起動する。一方、回復
可能領域回復処理は、セクタ単位に個別に、他のディス
ク装置のデータからデータを回復する処理である。
この処理の起動は、制御部124が、回復可能領域管理
部128に登録の存在を認識した時(例えば、定期的に
回復可能領域管理部128を検索して、登録を検出した
時、ディスク制御装置から指示された時、等)とする。
(ボリューム回復処理) 第19図によって、ボリューム回復処 理(コピー処理の1つ)の説明をする。
まず、処理9111は、処理の起動時 に指示されたディスク装置(自ディスク装置)を含むデ
ィスクグループを構成情報管理部126で検索する。処
理9112は、カレントポインタ管理部127からカレ
ントポインタ値を読み出し、この値を対象セクタアドレ
スとする。処理9113は、対象セクタアドレスが利用
許可領域内か判定し、領域外であれば、ボリューム回復
処理を終了する。領域内であれば、処理9114へ行く
処理9114は、対象セクタアドレス を回復可能領域管理部128で検索する。
そして、処理9115は、この検索結果を判定し、登録
があれば、処理9116へ行く。登録がなければ、処理
9117へ行く。処理9116は、セクタ回復処理(後
で説明する)を実行し、処理9117へ行く。処理91
17は、カレントポインタ管理部127のカレントポイ
ンタ値を次のセクタアドレスに更新し、この更新したア
ドレスを対象セクタアドレスとして、処理9113へ行
く。
(回復可能領域回復処理) 第20図によって、回復可能領域回復 処理(コピー処理の1つ)を説明する。
まず、処理9121は、カレントポインタ管理部127
からカレントポインタ値を読み出す。そして、処理91
22は、カレントポインタ値からボリューム回復処理の
終了した領域を求め、この領域にあって1回復可能領域
管理部128へ登録されているセクタアドレスを検索す
る。
そして、検索したセクタアドレスを対象セクタアドレス
とする。次に、処理9123では、処理9122の検索
で、登録がないか判定し、登録がなければ、終了する。
登録があれば、処理9124で、セクタ回復処理を実行
し、終了する。
(セクタ回復処理) 第21図から第23図によって、セク タ回復処理を説明する。
まず、第21図の処理9131は、対 象セクタアドレスをバッファ管理部125で検索する。
そして、処理9132で、この検索結果を判定し、登録
があれば、終了する。登録がなければ、処理9133へ
行く。処理9133は、ディスクグループから他のディ
スク装置を、すくなくとも1台、選択する。そして、エ
ラーカウンタをクリアする。
次に、第22図の処理9141へ行く。
処理9141は、選択したディスク装置へリード要求を
発行する。ディスク装置からエラー報告があれば、処理
9142から9143で判定し、回復可能エラーの報告
があれば、処理9145へ行く。
回復不能エラーであれば、処理9148へ行く。エラー
がなければ、処理9144へ行く。処理9145は、エ
ラーカウンタへ1を加算する。
次に、処理9146で、エラーカウン タが許容数を越えているかを判定し、越えていれば、処
理9148へ行く。越えていなければ、処理9147へ
行く。処理9147は、ディスクグループの別のディス
ク装置を選択し直し、処理9141へ戻る。
処理9148は、対象セクタアドレス の登録を、回復可能領域管理部128から削除する。そ
して、処理9149は、対象セクタアドレスを、回復不
能領域管理部129へ登録して、終了する。
処理9144では、選択されたディス ク装置からバッファ121ヘデータを転送し、バッファ
管理部125へ登録する。
次に、第23図の処理9151は、バッファ121のデ
ータをディスクドライブ1211へ転送する。障害検出
部1210からのエラー報告があれば、処理9152か
ら9154で判定され、エラーがなければ、処理915
6へ行く。セクタ障害が発生していれば、処理9155
へ行く。
リトライ可能エラーであれば、処理9151へ戻る。リ
トライ不可能なエラーであれば、終了する。処理915
5は、交代セクタの割り付けを行い、処理9151へ戻
る。
処理9156は、対象セクタアドレス の登録を回復可能領域管理部128から削除して、終了
する。
(iv)各管理部の処理 各管理部は、テーブル情報を格納するためのメモリであ
る。実際の処理は、制御部104もしくは124(マイ
クロプロセッサ)の副プログラムで行う。以下、各管理
部で行う制御部の各処理について、説明する。
■ バッファ管理部の処理 第34図のテーブル構造図と第38図乃至第40図のフ
ローチャート図によって、バッファ管理部105,12
5の各処理(登録、検索、削除)を説明する。ただし、
バッファ管理部125は、バッファ管理部105と同じ
仕様とするので、処理の説明は、バッファ管理部105
についてのみ行う。
(登録処理) 処理9311で、ポインタ1053の 値mをインデクスとする配列1o52の要素の値(例で
は、13217)を、対象入出力データのバッファ内格
納アドレスとする。対象セクタアドレス値nをインデク
スとする配列1501の要素に、このバッファ内格納ア
ドレスを代入する。
そして、処理9312で、ポインタ1053の値mから
1を減算する。
(検索処理) 処理9313で、対象セクタアドレス 値nをインデクスとする配列15o1の要素に値につい
て、無を示す値(例えば、バッファ容量以上のアドレス
値)か否かを判定する。空を示す値であれば、バッファ
に対象入出力データが格納されていないことを示す。無
を示す値でなければ、対象入出力データがバッファに格
納されているアドレス値(例では、13217)を示す
(削除処理) 処理9134で、ポインタ1053の 値mに1を加算する。処理9135で、対象セクタアド
レス値nをインデクスとする配列1051の要素の値(
例では、13217)を、ポインタ1053の値mをイ
ンデクスとする配列1052の要素に代入する。処理9
136で、値nをインデクスとする配列1o51の要素
に、無を示す値を代入する。
■ 構成情報管理部の処理 第35図のテーブル構造図と第41図乃至第43図のフ
ローチャート図によって、構成情報管□理部106,1
26の各処理(登録、検索、削除)を説明する。ただし
、構成情報管理部106と構成情報管理部126は、同
じ仕様にするので、構成情報管理部106の処理につい
てのみ説明する。
(登録処理) 処理9321で、指示された複数のデ ィスク装置の識別子(例では番号で、 01.08、等)を、順次、配列1061に代入する。
処理9322で、配列1061の未使用の要素に、無を
示す値を代入する6(検索処理) 処理9323で、配列1061の先頭 の要素から、無を示す値が現れるまで読み出す。
(削除処理) 処理9324で、配列1061の全て の要素に、無を示す値を代入する。
■ カレントポインタ管理部の処理 第36図のテーブル構成図と第44図のフローチャート
図によって、カレントポインタ管理部127の処理を説
明する。処理9331で、セクタアドレス1271の値
りに1を加算する。
■ 回復可能領域管理部と回復不能領域管理部の処理 第37図のテーブル構造図と、第45図から第47図の
フローチャート図によって、回復可能領域管理部128
と回復不能領域管理部129の各処理(登録、検索、削
除)を説明する。ただし、回復可能領域管理部128と
回復不能領域管理部129は、同し仕様とするので1回
復可能領域管理部128の処理についてのみ説明する。
(登録処理) 処理9341で、対象セクタアドレス の値をビットアドレスとするビットマツプテーブル12
81のビットに1を代入する。
(検索処理) 処理9342で、対象セクタアドレス の値をビットアドレスとするビットマツプテーブル12
81のビットの値が、1であるか否かを判定する。値が
1であれば、登録されていることを示す。
(削除処理) 処理9343で、対象セクタアドレス の値をビットアドレスとするビットマツプテーブル12
81のビットに0を代入する。
本実施例は、正論理と負論理の選択に 依存せず、施行できる。
(5)実施例での効果 本実施例によれば、ディスク制御装置のデータを多重化
するデータ処理システムの性能向上の効果ある。
(実施例2) (1)  実施例の概要 (a)  適用 本実施例は、1回のCPU (中央処理装W)からの入
出力要求に対応してCPUとの人出カデータに冗長デー
タを加え、複数のディスク装置へ分割し記憶するための
制御を、ディスク制御装置とディスク装置が行うデータ
処理システム(ディスクアレイシステム)に適用したも
のである。データブロックを複数のディスク装置へ分割
し、記憶するためには5次の機能が必要とされる。
(i)  ディスクアレイへのアクセス機能、つまり、
CPUからのライトデータに冗長データを加え、複数の
データブロックに分割し、それぞれを個別のディスク装
置へ書き込む機能と、複数のディスク装置へ分割され、
記憶されているデータブロックを、それぞれ読み出して
結合し、冗長データを取り除いてCPUへのり一ドデー
タとする機能。
(ii)  データ回復機能、つまり、CPUとの入出
力データが分割されて記憶されている複数のディスク装
置のうち、何台かその格納しているデータに障害が発生
した場合、他の正常なディスク装置に記憶されているデ
ータブロックから障害を起したデータを回復する機能。
本実施例は、ディスアレイへのアクセス機能と、データ
回復機能とを、実現するための装置および制御方法に関
する。
(b)  装置の概要 第24図によって、本実施例のデータ処理システムの概
要を説明する。本データ処理システムは、CPU14と
、ディスク制御装置10と、複数台のディスク装置12
から13と、データバス154から157とより成る。
データバス154.155,156は、それぞれ、ディ
スク装置13,11.12をディスク制御装置へ接続す
る。データバス157は、ディスク装置11から13と
ディスク制御装置1oとを接続する。また、ディスク制
御装置10.ディスク装置11から13は、それぞれ、
バッファ101゜111.121,131を有する。デ
ィスク装置11から13は、それぞれ、構成情報管理部
116.126,136を有する。
(c)  装置の概要 第24図によって、本実施例の処理の概要を説明する。
(i)  ディスクアレイへのアクセス機能(CPUか
らのライト要求の処理) CPU14からのライト要求が発行されると、ライトデ
ータをデータ流れ161に従って、CPU14からバッ
ファ101へ転送する。バッファ101のデータは、デ
ィスク制御装置10によって冗長データが付は加えられ
、分割される。分割されたデータを、それぞれ、データ
流れ164から166に従って、それぞれのディスク装
置13.11.12のバッファ131,111゜121
へ転送する。
(CP Uからのリード要求の処理) CPU14からリード要求が発行されると、データ流れ
164から166に従って、それぞれのディスク装置1
3,11.12から分割されたデータをバッファ101
へ転送する。この後、バッファ101のデータを結合し
、冗長データを取り除き、データ流161に従って、バ
ッファ101からCPU14ヘデータを転送する。
(ii)  データ回復機能 例えば、ディスク装置12にデータの障害が発生した場
合で説明する。ディスク装置12は、構成情報管理部1
26に登録されているディスク装置11.12から、そ
れぞれデータ流れ1691.1692に従って、データ
回復に必要なデータをバッファ121に転送する。この
後、バッファ121のデータによって、データ回復を行
う。
(2)従来技術 第25図によって、従来技術を説明する。本実施例とは
、データ回復の制御方法で異なる。
(データ回復処理) 従来例におけるディスク装置12のデータに障害が発生
した場合を説明する。ディスク制御装置10は、データ
流れ167から168に従って、ディスク装置11.1
3からバッファ101ヘデータを転装する。バッファ1
01のデータを用いて、ディスク制御装W10は、ディ
スク装置12の障害の発生したデータを回復する。回復
したデータを、データ流169に従って、ディスク制御
装置10からディスク装置12へ転送する。
以上により、データ回復処理に要するデータ転送の回数
が、従来技術と比べ1本実施例では少なくて済む。
(3)データ転送インタフェース 本実施例においては、前記実施例1の第3図と第4図の
インタフェースに、第5図に示すデータ装置同士のデー
タ転送インタフェースを加える。
第5図によって追加のデータ転送インタフェースを説明
する。
ディスク装置12が、複数台のディスク装置11.13
のデータを必要とする場合、まず、ディスク装置12は
、複数台のディスク装W11゜13へ、矢印1731,
1732に従って、リード要求を発行する。リード要求
を受け取ったディスク装[11,13は、エラーが発生
すればエラー報告を、エラーでなければデータを、各々
、データ流れ1691.1692に従って、ディスク装
置11.13のそれぞれのバッファ111゜113から
ディスク装置12のバッファ121へ転送する。
(4)実施例の詳細 (a)  装置の詳細 第24図によって、本発明の一実施例のデータ処理シス
テムの全体構成について、説明済みである。
また、ディスク制御装置110およびディスク装置12
の構成は、前記実施例の第6図で、説明したものと同じ
である。
(b)  処理の詳細 (i)  制御の基本的な考え方 前記実施例の第7図および第8図の説明と同様である。
(ii)  ディスク制御装置の処理 第9図、第10図および第26図乃至第29図によって
、ディスク制御装置10の制御部104の処理を説明す
る。第9図、第10図の説明は、前記実施例と同様であ
る。
以下、第26図から第29図について説明する。
(ライト親処理) 第26図によって、ライト親処理を説明する。
処理9231は、CPUより指示されたディスク装置を
含むディスクグループを、構成情報管理部106で検索
する。そして、処理9232は、CPU14よりライト
データをバッファ101へ受け取り、加工(冗長データ
の追加、等)した後、複数のデータブロックに分割する
。次に、処理9233は、ディスクグループ内の全ての
ディスク装置へライト要求を発行する。そして、バッフ
ァ101内の分割されたデータブロックのそれぞれを、
ディスクグループ内の別々のディスク装置へ転送する。
次に、処理9234は、エラー報告をしてきたディスク
台数が許容数(定数。
CPU14からの指示、等)を越えているか判定する。
許容数を越えていれば、処理9235へ行く。越えてい
なければ、終了となる。処理9235は、CPU14へ
エラー報告を行い、終了する。以上で、ライト親処理を
終了する。
(リード親処理) 第27図乃至第29図によって、リード親処理を説明す
る。
まず、第27図の処理9241は、 CPU14から指示されたディスク装置を含むディスク
グループを構成情報管理部106で検索する。そして、
処理9242は、ディスクグループ内の全てのディスク
装置へリード要求を発行する。ここで、エラーカウンタ
をクリアする。
次に、第28図の処理9251は、ディスク装置からエ
ラー報告があれば受け取る。
そして、処理9252.9253で、エラー報告を判定
し、回復可能エラーであれば、処理9256へ行く。回
復不能エラーと判定されると、処理9258へ行く。エ
ラー報告がなければ、処理9254へ行く。
処理9256は、エラーカウンタへ1を加算する。そし
て、処理9257は、エラーカウンタが許容数を越えて
いるか判定し、越えていれば、処理9258へ行く。越
えていなければ、処理9251へ戻る。処理9258は
、CPU14ヘエラー報告を行って、終了する。
処理9254は、ディスク装置から送られてくるデータ
を、順次、バッファ101へ転送する。そして、処理9
255は、ディスクグループ内の全てのディスク装置か
ら、データもしくはエラー報告を受け取ったかを判定す
る。
受け取ってなければ、処理9251へ戻る。受け取って
いれば、第29図の処理9261へ行く。処理9261
は、バッファ101内のデータを結合し、加工(冗長デ
ータの取除、等)を行う。そして、処理9262は、バ
ッファ101のデータをCPU14へ転送する。以上で
、リード親処理を終了する。
(ni)  ディスク装置の処理 第13図乃至第20図、第30乃至第32図によってデ
ィスク装置12の制御部124の処理を説明する。第1
3図から第20図までの説明は、前記実施例と同様であ
る。以下、第30図から第32図を説明する。
(セクタ回復処理) 第30図から第32図によって、セクタ回復処理を説明
する。
まず、第30図の処理92o1は、バッファ管理部12
5で、対象セクタアドレスを検索する。そして、処理9
2o2は、この検索結果を判定し、登録があれば、終了
とする。登録がなければ、処理92o3へ行く。処理9
203は、ディスクグループ内に全てのディスク装置へ
リート要求を発行する。ここで、エラーカウンターをク
リアする。
そして、第31図の処理9211は、ディスク装置から
のエラー報告があれば受け取る。処理9212.921
3は、受取ったエラー報告を判定し、エラー報告がなけ
れば、処理9214へ行く。回復可能エラーの報告があ
れば、処理9216へ行く。
回復不能エラーの報告があれば、処理9218へ行く。
処理9216は、エラーカウンタへ1を加算する。そし
て、処理9217は、エラーカウンタが許容数を越えて
いるか判定し、越えていれば、処理9218へ行く。越
えていなければ、処理9211へ戻る。処理9218は
、対象セクタアドレスの登録を回復可能領域管理部12
8から削除する。
そして、処理9219は、対象セクタアドレスを回復不
能領域管理部129へ登録して、終了する。
処理9214は、ディスク装置から送られてくるデータ
を、順次、バッファ121へ転送する。そして、処理9
215は、ディスクグループ内の全てのディスク装置か
ら、データもしくはエラー報告を受け取ったかを判定し
、受け取っていなければ、処理9211へ戻る。受け取
っていれば、第32図の処理9221へ行く。処理92
21は、バッファ121のデータを結合し、加工(冗長
データによるデータ回復)を行って、障害の発生したデ
ータを回復する。
次に、処理9222は、バッファ101のデータをディ
スクドライブ1211へ転送する。そして、処理922
3から9225で、障害検出部1210からのエラー報
告を判定する。エラー報告がなければ、処理9227へ
行く。セクタ障害であれば、処理9226へ行く。リト
ライ可能なエラーであれば、処理9222へ戻る。処理
9226は、交代セクタを割り付けて、処理9222へ
戻る。
処理9227は、対象セクタアドレスの登録を回復可能
領域管理部128から削除して、終了する。以上で、セ
クタ回復処理を終了する。
(iv)  各管理部の処理 各管理部の処理は、第1の実施例と同様であるので、説
明を省略する。
(5)実施例での効果 本実施例によれば、CPUとの入出力データを、複数の
データブロックに分割し、別々のディスク装置に記憶す
るデータ処理システムの性能向上の効果がある。
(実施例3) 第2の実施例のデータ処理システムにおいて、複数のデ
ィスクグループを同時に設定する場合、第33図に示す
構成を取っても良い。
第33図によって、本実施例のデータ処理システムを説
明する。複数本のデータバス154から159を格子状
に配置したときに、複数台のディスク装置11から13
.15から20が、格子点を形成する2本のデータバス
に、各々、接続される。複数のデータバス154から1
59の一部もしくは全てを、ディスク制御装置10と接
続する。
本実施例によれば、1本のディスクパスが障害によって
、使用できなくなっても、別のデータバスで、正常な処
理が行える。また、1台のディスク装置が障害によって
、使用できなくなっても、他のディスクグループへのア
クセスの性能に影響を与えず、障害の発生したディスク
装置の交換もしくはデータ障害の回復ができる。
(実施例4) 第1から第3の実施例において、各々の記憶装置は、同
種である必要はない。異種の記憶装置でも、なんら問題
はなく、本発明は、実施できる。
〔発明の効果〕
本発明によれば、1つの処理に必要となるデータ転送の
回数を減少させ、データ処理システムは、効率的なデー
タバスを利用できるようになる。これによって、データ
処理システムの性能向上を図ることができる。
【図面の簡単な説明】
第1図、第6図、第24図、第33図は、本発明の実施
例のデータ処理システムの構成図である。 第2図、第25図は、従来技術を説明するためのデータ
処理システムの構成図である。第3図から第5図、第7
図、第8図は5本発明の実施例のデータ処理システムの
処理を説明するための模式図である。第9図から第23
図、第26図から第32図は1本発明の実施例のデータ
処理システムの処理を説明するフローチャート図である
。第34図から第37図までは、本発明の実施例の各管
理部のテーブル構造図である。第38図から第47図は
1本発明の実施例の各管理部の処理を説明するフローチ
ャート図である。 10・・・ディスク制御装置、11〜13’、15〜2
0・・・ディスク装置、14・・CPU。

Claims (1)

  1. 【特許請求の範囲】 1、バッファを有する複数台の記憶装置と、外部からの
    1回の書き込み要求に対応して、複数台の該記憶装置を
    アクセスするよう制御を行う該記憶装置の制御装置とを
    有してなるデータ処理装置において、該記憶装置同士の
    間で、該記憶装置内のデータの障害を回復するよう制御
    を行うことを特徴とするデータ処理装置。 2、該記憶装置に格納されているデータの障害を回復す
    るために必要となるデータを格納する1台以上の他の記
    憶装置の識別子を記憶する手段を設けたことを特徴とす
    る請求項第1項記載のデータ処理装置。 3、該記憶装置に及格納されたデータについて障害を検
    出する手段を設け、 (a)該記憶装置のデータの障害を検出した場合、 (b)該データの障害回復に必要なデータを1台以上の
    他の該記憶装置に要求し、 (c)該要求に対応するデータを受け取り、(d)障害
    を検出した該データを回復するよう制御を行うこと、 とを特徴とするデータ処理装置。 4、請求項第3項記載のデータ処理装置における該記憶
    装置の制御装置であって、 (1)外部データ処理システムからアクセスの要求を受
    け取り、 (2)1台以上の該記憶装置とデータ転送を行い、(3
    )データ転送が成功した該記憶装置の台数が、既定台数
    未満であれば、外部データ処理システムに該要求の異常
    報告を行う よう制御することを特徴とする記憶装置の制御装置。 5、外部データ処理システムからの1回の書き込み要求
    に対応して、データを複数の該記憶装置に放送する制御
    を行うことを特徴とする請求項第4項記載の記憶装置の
    制御装置。 6、記憶装置と、記憶装置のデータの障害回復に必要な
    データを格納している1台以上の他の記憶装置とで、共
    用する1本以上のデータバスを設けたことを特徴とする
    データ処理装置。
JP2218909A 1990-08-22 1990-08-22 データ処理装置 Pending JPH04102148A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2218909A JPH04102148A (ja) 1990-08-22 1990-08-22 データ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2218909A JPH04102148A (ja) 1990-08-22 1990-08-22 データ処理装置

Publications (1)

Publication Number Publication Date
JPH04102148A true JPH04102148A (ja) 1992-04-03

Family

ID=16727218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2218909A Pending JPH04102148A (ja) 1990-08-22 1990-08-22 データ処理装置

Country Status (1)

Country Link
JP (1) JPH04102148A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764870A (ja) * 1993-08-23 1995-03-10 Internatl Business Mach Corp <Ibm> デジタル情報のデータ・ブロックを記憶する方法及びそのためのディスク記憶装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764870A (ja) * 1993-08-23 1995-03-10 Internatl Business Mach Corp <Ibm> デジタル情報のデータ・ブロックを記憶する方法及びそのためのディスク記憶装置

Similar Documents

Publication Publication Date Title
US5155835A (en) Multilevel, hierarchical, dynamically mapped data storage subsystem
US5632012A (en) Disk scrubbing system
EP0405926B1 (en) Method and apparatus for managing a shadow set of storage media
US5089958A (en) Fault tolerant computer backup system
US7120768B2 (en) Snapshot acquisition method, storage system and disk apparatus
US5210866A (en) Incremental disk backup system for a dynamically mapped data storage subsystem
US5568628A (en) Storage control method and apparatus for highly reliable storage controller with multiple cache memories
US5404500A (en) Storage control system with improved system and technique for destaging data from nonvolatile memory
JP3741609B2 (ja) 複製されたデータに独立してアクセスできるようにするためのデータプロセッシングの方法及び装置
US6009481A (en) Mass storage system using internal system-level mirroring
KR0131554B1 (ko) 고장 허용 디스크 저장 서브시스템 및 그 서브시스템의 컴퓨터시스템으로부터 수신된 디지탈 정보의 데이타 블럭 저장방법
US5124987A (en) Logical track write scheduling system for a parallel disk drive array data storage subsystem
US5987566A (en) Redundant storage with mirroring by logical volume with diverse reading process
US6604171B1 (en) Managing a cache memory
US6859888B2 (en) Data storage array apparatus storing error information without delay in data access, and method, program recording medium, and program for the same
US6961818B1 (en) Method, system and computer program product for managing data in a mirrored cache using an access balancing technique
US7424639B2 (en) Disk array system and failure recovering control method
JP3561002B2 (ja) ディスク装置
US20060077726A1 (en) Data transfer method, storage apparatus and computer-readable storage medium
JP2007334593A (ja) Raidコントローラおよびraid装置
EP0303856B1 (en) Method and apparatus for maintaining duplex-paired devices by means of a dual copy function
EP0351109A2 (en) Reducing resources in a high reliability data storage subsystem
JPH10254642A (ja) 記憶装置システム
JPH04102148A (ja) データ処理装置
JPH04107750A (ja) ファイル管理方式