JPH11102262A - Disk subsystem and remote backup system by magnetic tape library device - Google Patents

Disk subsystem and remote backup system by magnetic tape library device

Info

Publication number
JPH11102262A
JPH11102262A JP9262026A JP26202697A JPH11102262A JP H11102262 A JPH11102262 A JP H11102262A JP 9262026 A JP9262026 A JP 9262026A JP 26202697 A JP26202697 A JP 26202697A JP H11102262 A JPH11102262 A JP H11102262A
Authority
JP
Japan
Prior art keywords
data
disk
volume
magnetic tape
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9262026A
Other languages
Japanese (ja)
Other versions
JP3490266B2 (en
Inventor
Yasuaki Nakamura
泰明 中村
Akinobu Shimada
朗伸 島田
Hisashi Takamatsu
久司 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP26202697A priority Critical patent/JP3490266B2/en
Publication of JPH11102262A publication Critical patent/JPH11102262A/en
Application granted granted Critical
Publication of JP3490266B2 publication Critical patent/JP3490266B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To preserve data on a disk subsystem to be the object of direct access from a host into a magnetic tape library device installed away from the disk subsystem while multiplexing these data against the fault of the disk subsystem caused by a disaster or the like. SOLUTION: This backup system is a computer system provided with a disk subsystem 3 for recording data from a host computer 1 and a magnetic tape library device 5 installed away from the disk subsystem 3. In this case, the disk subsystem 3 and the magnetic tape library device 5 are connected through a remote server 6 provided separately from the host computer 1, and data transfer is executed for multiplexing the data from the disk subsystem 3 to the magnetic tape library device 5 without through the host computer 1 under the control of the remote server 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はコンピュータシステ
ムにおいて、ホストから直接アクセス対象となる一台な
いし複数のディスクサブシステム上のデータを、災害等
で発生する前記ディスクサブシステムの障害に備えて、
当該ディスクサブシステムから離れた場所に設置した、
ホストから直接アクセス対象とならない一台ないし複数
の磁気テープライブラリ装置へ多重化して保存するため
のシステムに関するものである。
The present invention relates to a computer system, which prepares data on one or a plurality of disk subsystems directly accessed by a host in preparation for a failure of the disk subsystem caused by a disaster or the like.
Installed away from the disk subsystem,
The present invention relates to a system for multiplexing and storing data in one or more magnetic tape library devices which are not directly accessed by a host.

【0002】[0002]

【従来の技術】通常の業務処理を行うコンピュータセン
タ(以下プライマリセンタ)内のディスクサブシステム
上のデータを災害等によって生じる障害から保護する対
策として、従来より次に示すような大きく分けて2つの
方式が採られてきた。
2. Description of the Related Art As a measure for protecting data on a disk subsystem in a computer center (hereinafter referred to as a "primary center") which performs normal business processing from a failure caused by a disaster or the like, there are roughly two types of measures as described below. The scheme has been adopted.

【0003】第1の方式は、プライマリセンタと同一の
システム構成を、プライマリセンタとは遠隔地に存在す
るセカンダリセンタに設け、両センタのホストを回線で
接続し、プライマリセンタで発生するトランザクション
をセカンダリセンタに伝送し、両センタで同一のトラン
ザクション処理を実行することでシステム全体を完全に
2重化する方法である。また上記方法によるセカンダリ
センタへのトランザクション送付方法は、プライマリセ
ンタ内の磁気テープ装置等にトランザクションの履歴情
報であるジャーナルとして一旦記録し、これをファイル
転送か搬送によってセカンダリセンタ側で履歴情報をも
とにトランザクション処理を再実行(リラン)する手段
もある。
In the first method, the same system configuration as that of the primary center is provided in a secondary center located at a remote location from the primary center, and the hosts of both centers are connected by a line, and transactions generated in the primary center are transferred to the secondary center. This is a method in which the entire system is completely duplicated by transmitting the same transaction to both centers and executing the same transaction processing in both centers. In the method of sending a transaction to the secondary center according to the above method, a journal which is transaction history information is temporarily recorded on a magnetic tape device or the like in the primary center, and this is recorded on the secondary center based on the history information by file transfer or transport. There is also a means to re-execute (re-run) transaction processing.

【0004】第2の方式は、2台またはそれ以上のディ
スクサブシステム同士をホストを介さず直接接続し、デ
ィスクサブシステム側の機能によりディスクサブシステ
ム上の重要データのみを2重化する方法であり、最近各
社より発表され、既に製品化されている。IBM社が3
990−6ディスク制御装置で実現しているPPRC
(Pier to Pier Remote Cop
y)機能、EMC社がSymmetrixディスクサブ
システムで実現しているSRDF(Symmetrix
Remote Data Facility)機能等
がそれに相当する。何れの機能もプライマリセンタ側の
ディスクサブシステムとセカンダリセンタ側のディスク
サブシステムとを直接接続して、プライマリセンタ側の
ディスクボリューム上のデータの複製をバックアップ側
のディスクボリュームに作成しデータの2重化を行う機
能である。
A second method is a method in which two or more disk subsystems are directly connected to each other without using a host, and only important data on the disk subsystems is duplicated by a function of the disk subsystem. Yes, recently announced by various companies and already commercialized. IBM is 3
PPRC realized by 990-6 disk controller
(Pier to Pier Remote Cop
y) Function, SRDF (Symmetric
A Remote Data Facility function or the like corresponds to this. Both functions directly connect the disk subsystem on the primary center side and the disk subsystem on the secondary center side, duplicate the data on the disk volume on the primary center side on the disk volume on the backup side, and duplicate the data. It is a function to perform conversion.

【0005】また特開平06−214853号公報で
は、上記PPRC、SRDFと同様のリモートコピー機
能について、システム構成、実現方式が詳細に記載され
ている。それによると、2台のディスクサブシステムは
それぞれのディスクサブシステム同士を接続し、一方の
サブシステムが正サブシステムとしてホストに接続され
る構成を採っている。
Japanese Patent Application Laid-Open No. 06-214853 describes in detail a system configuration and a realization method for a remote copy function similar to the above-mentioned PPRC and SRDF. According to this, two disk subsystems connect the respective disk subsystems, and one of the subsystems is connected to the host as a primary subsystem.

【0006】[0006]

【発明が解決しようとする課題】前記第1の方式は、セ
カンダリセンタにプライマリセンタと同一のシステム構
成を採る必要があるため、当該システムを実現するため
に負担するコストは大きい。またトランザクション転送
処理は、プライマリセンタ内のホストが負担するため、
プライマリセンタのホスト負荷が高くなり、通常の業務
処理の性能への影響が懸念される。
In the first method, since the secondary center needs to adopt the same system configuration as that of the primary center, the cost of implementing the system is large. Also, since the transaction transfer processing is borne by the host in the primary center,
There is a concern that the host load on the primary center will increase, which will affect the performance of normal business processing.

【0007】これに対して第2による方式は、ディスク
サブシステムのみ2重化となるため、第1の方式に比べ
安価にシステム構成を組むことができる。しかしディス
クサブシステムはコンピュータシステムの外部記憶装置
の中では最も高価であり、依然としてユーザへのコスト
負担は少なくない。また第2の方式は、ホストを経由せ
ずディスクサブシステム同士でデータをやり取りするた
め、第1の方式と比してホスト負荷は低減される。しか
しディスクサブシステム側の機能で実現しているので、
プライマリセンタ及びセカンダリセンタのディスクサブ
システムに相互でデータをやり取りする機能を付加しな
くてはならず、バックアップを行う当該システムでは専
用装置を購入しなければならないことから、結局コスト
は増大する。
On the other hand, in the second system, since only the disk subsystem is duplicated, the system configuration can be constructed at a lower cost than in the first system. However, the disk subsystem is the most expensive external storage device of the computer system, and the cost burden to the user is not small. Further, in the second method, data is exchanged between disk subsystems without passing through the host, so that the host load is reduced as compared with the first method. However, since it is realized by the function of the disk subsystem,
The disk subsystems of the primary center and the secondary center must be provided with a function of exchanging data with each other, and a dedicated device must be purchased in the backup system, which eventually increases costs.

【0008】そこで本発明の目的は、災害対策のバック
アップシステムを低コストで実現する手段を提供するこ
とにある。また本発明の第2の目的は、バックアップシ
ステムをホストコンピュータに負荷を与えず実現するこ
とにある。
An object of the present invention is to provide means for implementing a low-cost backup system for disaster countermeasures. A second object of the present invention is to realize a backup system without imposing a load on a host computer.

【0009】[0009]

【課題を解決するための手段】前記課題を解決するため
に、本発明は主として次のような構成を採用する。
In order to solve the above problems, the present invention mainly employs the following configuration.

【0010】ホストコンピュータからのデータを記録す
るディスクサブシステムと、前記ディスクサブシステム
から遠隔位置または近接位置に設置された磁気テープラ
イブラリ装置と、を備えたコンピュータシステムであっ
て、前記ディスクサブシステムと前記磁気テープライブ
ラリ装置とを前記ホストコンピュータを経由させること
なく直接に接続して、前記ディスクサブシステムから前
記磁気テープライブラリ装置へのデータ多重化のための
データ転送を実行するリモートバックアップシステム。
A computer system comprising: a disk subsystem for recording data from a host computer; and a magnetic tape library installed at a position remote or close to the disk subsystem. A remote backup system that directly connects the magnetic tape library device without passing through the host computer and executes data transfer for data multiplexing from the disk subsystem to the magnetic tape library device.

【0011】また、前記リモートバックアップシステム
において、前記多重化のための転送データは、前記ディ
スクサブシステム内のディスクボリュームの情報と、前
記情報に対する更新履歴情報と、から構成され、前記デ
ィスクサブシステム内の任意のディスクボリュームの全
情報を、前記磁気テープライブラリ装置の1台または複
数台のテープボリュームにコピーし、前記更新履歴情報
は、前記ディスクサブシステム内のディスクボリューム
に記憶されているレコード単位のデータの更新処理が発
生した場合に、前記更新処理されたデータに、前記ディ
スクボリュームの識別番号、前記レコードが記憶されて
いる位置付け情報、更新処理が発生した時刻情報を付加
したものであって、前記磁気テープライブラリ装置内の
任意のテープボリュームに、更新が発生した順番に記録
されるリモートバックアップシステム。
In the remote backup system, the transfer data for multiplexing comprises information on a disk volume in the disk subsystem and update history information on the information, and Copy all information of any disk volume to one or a plurality of tape volumes of the magnetic tape library device, and the update history information is a record unit of a record stored in a disk volume in the disk subsystem. When data update processing has occurred, the updated data is added to the disk volume identification number, the positioning information where the record is stored, and the time information at which the update processing occurred, Any tape cartridge in the magnetic tape library device The over arm, the remote backup system, which is recorded in the order in which the update occurred.

【0012】また、直前に記載のリモートバックアップ
システムにおいて、前記ディスクサブシステム全体また
は一部のディスクボリュームに障害が発生した場合、前
記ディスクボリューム全体のコピーされた情報と、前記
テープボリュームの更新履歴情報とを組み合わせ、前記
ディスクサブシステム内の障害の発生していない別ボリ
ュームまたは別に設置されたサブシステム内のディスク
ボリュームへ、前記障害が発生したディスクボリューム
の全データを障害直前の状態に復元するリモートバック
アップシステム。
In the remote backup system described immediately above, when a failure occurs in the entire disk subsystem or a part of the disk volume, the copied information of the entire disk volume and the update history information of the tape volume are provided. A remote that restores all data of the failed disk volume to the state immediately before the failure to another failed volume in the disk subsystem or to a disk volume in a separately installed subsystem in the disk subsystem Backup system.

【0013】[0013]

【発明の実施の形態】以下、図面を参照しながら本発明
を汎用コンピュータシステムに適用した場合の一例につ
いて説明する。図1は本発明を汎用コンピュータシステ
ムの災害バックアップシステムに適用した場合の構成例
であり、プライマリセンタ側のディスクサブシステムと
セカンダリセンタ側の磁気テープライブラリ装置(Ma
gnetic Tape Library;MTL)を
CPUを介さず、CPUとは異なる制御機構を有するリ
モート・サーバ経由で接続することで、両装置間におい
てデータを2重化する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an example in which the present invention is applied to a general-purpose computer system will be described with reference to the drawings. FIG. 1 shows an example of a configuration in which the present invention is applied to a disaster backup system of a general-purpose computer system, in which a disk subsystem on a primary center side and a magnetic tape library device (Ma) on a secondary center side are shown.
By connecting a magnetic tape library (MTL) via a remote server having a control mechanism different from that of the CPU without using a CPU, data is duplicated between the two devices.

【0014】図1において、1は中央処理装置であるC
PU、3はCPU1とインタフェースケーブル2を介し
て接続され、CPU1からの直接参照及び更新の対象と
なるデータが格納されるディスクサブシステム(以下D
ISK)、5はインタフェースケーブル4及び後述する
リモート・サーバ(以下RS)6を介して3に接続さ
れ、3に格納されているデータの複製が格納される磁気
テープライブラリ装置MTLである。7はDISK3に
おいて、データの読みだし及び書き込みを行うための制
御部であるディスク制御装置(以下DKC)であり、8
は実際にデータが格納されCPU1から直接読みだし及
び書き込みの対象となるディスクボリューム(以下LD
EVと称する)9−1〜nが複数収納されるディスク駆
動装置(以下DKU)である。
In FIG. 1, 1 is a central processing unit C
The PU 3 is connected to the CPU 1 via the interface cable 2 and stores a disk subsystem (hereinafter referred to as D) that stores data to be directly referenced and updated from the CPU 1.
ISK) and 5 are magnetic tape library devices MTL that are connected to 3 via an interface cable 4 and a remote server (hereinafter referred to as RS) 6 to be described later and store a copy of data stored in 3. Reference numeral 7 denotes a disk controller (hereinafter referred to as a DKC) which is a control unit for reading and writing data in the DISK 3.
Is a disk volume (hereinafter referred to as LD) to which data is actually stored and is directly read and written from the CPU 1.
This is a disk drive (hereinafter referred to as DKU) in which a plurality of EVs 9-1 to 9-1-n are stored.

【0015】次にDISK3におけるDKC7及びMT
L5それぞれの内部構成について説明する。DKC7に
おいて、10はCPU1及びRS6との間のデータ及び
データの読み出し/書き込み指示等の制御情報のやり取
りを制御するチャネルインタフェース制御部(以下CH
D)、11はCPU1及びRS6とLDEV9との間で
データの読み/書きを行う際、一旦データをバッファリ
ングするために利用するキャッシュメモリ(以下キャッ
シュ)、12はLDEV9からキャッシュ11へのデー
タの読み込み処理及びキャッシュ11から論理ボリュー
ム(logical Device)LDEV9へのデ
ータの書き込み処理を制御するディスクインタフェース
制御部(以下DID)である。
Next, DKC 7 and MT in DISK 3
The internal configuration of each L5 will be described. In the DKC 7, reference numeral 10 denotes a channel interface control unit (hereinafter referred to as CH) for controlling the exchange of control information such as data and data read / write instructions between the CPU 1 and the RS 6.
D) and 11 are cache memories (hereinafter referred to as caches) used to temporarily buffer data when data is read / written between the CPU 1 and the RS 6 and the LDEV 9, and 12 is a cache memory used for data transfer from the LDEV 9 to the cache 11. A disk interface control unit (DID) controls read processing and data write processing from the cache 11 to the logical volume (logical device) LDEV 9.

【0016】MTL5において、13は上位装置(RS
6)へテープ上に記録されたデータの読みだし及びRS
6から転送されたデータの書き込みを行うための磁気テ
ープ装置すなわちレコーダ(以下MT)、14はテープ
ボリューム15/16/17とそれを収納する収納棚1
8、テープボリューム15/16/17をMT13にマ
ウント/デマウント処理するためのアクセッサロボット
から成るライブラリ装置である。テープボリューム1
5、16、17は前記ダンプデータを格納するテープボ
リューム15−1〜n、前記ログデータを格納するテー
プボリューム16ー1〜n及びセカンダリセンタの業務
で使用するテープボリューム17−1〜nの3種に論理
的に分類され管理される(以下論理グループ)。本実施
形態では、レコーダ、アクセッサロボット、テープボリ
ューム等からなる磁気テープライブラリ装置について以
下説明するが、これ以外の磁気テープ記憶装置について
も本発明は適用できるものである。
In the MTL 5, 13 is a higher-level device (RS
6) Reading of data recorded on the tape and RS
6, a magnetic tape device for writing the data transferred from the device 6, ie, a recorder (hereinafter referred to as MT), and a tape volume 15/16/17 and a storage shelf 1 for storing the same.
8. A library device including an accessor robot for mounting / demounting the tape volume 15/16/17 on the MT13. Tape volume 1
Reference numerals 5, 16, and 17 denote tape volumes 15-1 to 15-n for storing the dump data, tape volumes 16-1 to n for storing the log data, and tape volumes 17-1 to 17-n used in the operations of the secondary center. They are logically classified and managed by species (hereinafter referred to as logical groups). In the present embodiment, a magnetic tape library device including a recorder, an accessor robot, a tape volume, and the like will be described below. However, the present invention can be applied to other magnetic tape storage devices.

【0017】RS6はDISK3とMTL5の間に介在
するCPU1以外の制御機構であって、CPU1からの
指示を受けることなく、DISK3のデータをインタフ
ェースケーブル4を介してMTL5へ転送する機能を有
するものである。またRS6内20は、CPU1から更
新指示のあったLDEVとそれに対応するテープボリュ
ーム15、16の対応づけを管理するための管理テーブ
ル等の制御情報を格納するためのメモリである。またR
S6が図1では制御機構として独立した構成を採ってい
るが、MTL5に組み込まれていても構わない。
The RS 6 is a control mechanism other than the CPU 1 interposed between the DISK 3 and the MTL 5, and has a function of transferring data of the DISK 3 to the MTL 5 via the interface cable 4 without receiving an instruction from the CPU 1. is there. The RS 6 20 is a memory for storing control information such as a management table for managing the association between the LDEV for which an update instruction has been issued from the CPU 1 and the tape volumes 15 and 16 corresponding thereto. Also R
Although S6 has an independent configuration as a control mechanism in FIG. 1, it may be incorporated in the MTL 5.

【0018】以上が本発明における機能を実現するため
のシステム構成となるが、図1中の予備DISK21と
当該DISK内のLDEV9’及びCPU22は本実施
形態においてプライマリセンタの障害時、セカンダリセ
ンタ側にデータを回復する際に使用するものである。
The system configuration for realizing the functions of the present invention has been described above. The spare DISK 21 and the LDEV 9 'and CPU 22 in the DISK shown in FIG. It is used when recovering data.

【0019】次に図2、図3を使用して本実施形態にお
ける災害バックアップシステムの機能と運用の概略を説
明する。通常(災害が発生していない状態)運用時に使
用される機能概要を図2に示す。通常の業務では定期的
に図中aの様にDISK3内のLDEV9の全データを
MTL5のテープボリューム15へダンプする処理と、
図中b−1の様にCPU1よりDISK3内のLDEV
9に記録されているレコードが更新される毎に、図中b
−2の様に当該更新データを更新履歴情報(ログ情報)
としてMTL5内のテープボリューム16に記録する処
理を行う。
Next, an outline of functions and operations of the disaster backup system according to the present embodiment will be described with reference to FIGS. FIG. 2 shows an outline of functions used during normal operation (when no disaster has occurred). In a normal operation, a process of periodically dumping all data of the LDEV 9 in the disk 3 to the tape volume 15 of the MTL 5 as shown in FIG.
LDEV in DISK3 from CPU1 as shown by b-1 in the figure.
Every time the record recorded in No. 9 is updated, b
-2 Update history information (log information)
To perform recording on the tape volume 16 in the MTL 5.

【0020】ダンプ取得中もLDEV9への更新処理は
発生しうるため、ダンプ処理とログ取得処理は同時に併
行して行われる。以降ダンプデータを格納するためのテ
ープボリューム15−1〜nの論理グループをダンププ
ール、同様にテープボリューム16−1〜nをログプー
ル、テープボリューム17−1〜nをセカンダリセンタ
業務用プールと呼ぶこととする。
Since the update process to the LDEV 9 can occur during the dump acquisition, the dump process and the log acquisition process are performed simultaneously. Hereinafter, a logical group of tape volumes 15-1 to 15-n for storing dump data is referred to as a dump pool, similarly, tape volumes 16-1 to n are referred to as a log pool, and tape volumes 17-1 to 17-n are referred to as a secondary center business pool. It shall be.

【0021】次にプライマリセンタにおける災害発生時
の機能/運用の概要を図3に示す。本実施形態では前述
の様にプライマリセンタのLDEV9のデータをセカン
ダリセンタの予備ディスク21のLDEV9’に回復す
る場合の例(セカンダリセンタの予備ディスク21を用
いる代わりに、ディスクサブシステム3に備わっている
不図示の予備ディスクを用いて回復処理することも可能
である)を説明する。まず初めに図中aの様に回復の対
象となるLDEV9のダンプデータが格納されているM
TL5のダンププール内にあるテープボリューム15の
データを予備DISK21のLDEV9’にコピーす
る。
FIG. 3 shows an outline of functions / operations in the event of a disaster in the primary center. In this embodiment, as described above, an example in which the data of the LDEV 9 of the primary center is recovered to the LDEV 9 ′ of the spare disk 21 of the secondary center (the disk subsystem 3 is provided instead of using the spare disk 21 of the secondary center) (It is also possible to perform a recovery process using a spare disk not shown).) First, as shown in a in the figure, the M in which the dump data of the LDEV 9 to be recovered is stored.
The data of the tape volume 15 in the dump pool of the TL 5 is copied to the LDEV 9 ′ of the spare DISK 21.

【0022】次に図中bの様にログプール内のテープボ
リューム16中に記録されている更新ログの内、当該L
DEV9の最新のダンプデータ取得時直前に取得したロ
グデータから災害発生直前までのログデータを使用し予
備DISK上のDISKボリュームを障害直前の最新状
態まで更新する。これにより、LDEV9’上の障害直
前データが予備DISK上に回復される。
Next, among the update logs recorded in the tape volume 16 in the log pool as shown in FIG.
Using the log data obtained immediately before the latest dump data of the DEV 9 and the log data immediately before the occurrence of the disaster, the DISK volume on the spare DISK is updated to the latest state immediately before the failure. As a result, the data immediately before the failure on the LDEV 9 'is recovered on the spare DISK.

【0023】以降では上記通常運用時のダンプ、ログ処
理及び災害発生時のリカバリ処理の詳細について説明す
る。始めに図4を参照しながら、ダンプ処理の流れにつ
いて説明する。ダンプ処理実行に先立ち、予めユーザ側
でダンプ開始時刻の設定、ダンプ対象LDEV番号、対
象LDEV毎にダンプ処理に使用するMT13のテープ
デッキのアドレスの指定をRS6より初期設定する。
The details of the above-described dump and log processing during normal operation and recovery processing when a disaster occurs will be described below. First, the flow of the dump process will be described with reference to FIG. Prior to the execution of the dump process, the user initially sets the dump start time, the number of the LDEV to be dumped, and the address of the tape deck of the MT 13 used for the dump process for each target LDEV from the RS 6 in advance.

【0024】また、本実施形態では前述の様にMTL5
内のテープボリュームを、ダンププール、ログプール、
セカンダリセンタ業務用プールと呼ぶ3つのプールに分
けて管理する。このテープボリュームとプールの対応関
係の管理は、一般の大形汎用コンピュータ向けテープラ
イブラリ装置が持っているテープ属性管理の機能を利用
する。
In this embodiment, as described above, the MTL5
Tape pools in the dump pool, log pool,
It is managed by dividing into three pools called secondary center business pools. The management of the correspondence between the tape volume and the pool utilizes the function of the tape attribute management of a general tape library device for large general-purpose computers.

【0025】本機能は予めユーザがテープボリュームの
ボリューム識別番号(以下VSN:ボリュームシリアル
ナンバ)毎に属性No.を指定しておくことで、以降の
テープボリュームのテープデッキへの投入(マウント)
は属性No.を指定するだけで、テープライブラリが指
定属性を持つ任意のテープボリュームを自動的に選択す
るものである。
In this function, the user sets in advance the attribute No. for each volume identification number (hereinafter, VSN: volume serial number) of the tape volume. Is specified, the subsequent tape volume can be loaded into the tape deck (mount).
Is the attribute number. , The tape library automatically selects an arbitrary tape volume having the specified attribute.

【0026】また、各テープボリュームの属性はユーザ
及びソフトウェアが自由に変更できる。本例ではダンプ
プール、ログプール内のテープボリュームをさらに使用
済と未使用に分類し、ダンプ取得済テープボリュームを
属性D1、同空テープの属性をD0、ログ取得済テープ
ボリュームを属性L1、同空テープの属性をL0として
管理する。これによりRS6がダンプ取得やログ取得時
にテープボリュームのマウント指示をする場合はD0又
はL0属性を指定することでダンプ取得テープへの不当
な上書きを防止できる。
The attributes of each tape volume can be freely changed by the user and software. In this example, the tape volumes in the dump pool and the log pool are further classified into used and unused, and the dumped tape volume has the attribute D1, the empty tape attribute has the attribute D0, the log acquired tape volume has the attribute L1, and the same. The attribute of the empty tape is managed as L0. In this way, when the RS 6 issues a tape volume mount instruction at the time of dump acquisition or log acquisition, specifying the D0 or L0 attribute can prevent unauthorized overwriting on the dump acquisition tape.

【0027】従ってユーザは前記初期設定に加え、RS
6に対してダンプ用として使用するテープボリュームの
属性を全てD0に設定する様に指示する必要がある。R
S6はこれを受けてMTL5に対し、当該テープボリュ
ームのD0属性設定を指示し、MTLはこれを受け属性
を設定する。ユーザより初期設定されたLDEV N
o.とテープデッキアドレスはRS6内の図5に示すメ
モリ20に格納されているダンプ管理テーブルに登録さ
れる。
Therefore, in addition to the initial setting, the user can select RS
6 must be instructed to set all the attributes of the tape volume used for dumping to D0. R
S6 receives this and instructs the MTL 5 to set the D0 attribute of the tape volume, and the MTL receives this and sets the attribute. LDEV N initialized by user
o. The tape deck address is registered in the dump management table stored in the memory 20 shown in FIG.

【0028】初期設定終了後、RS6は指定されたダン
プ開始時刻を契機に、ダンプ管理テーブルを参照し、ダ
ンプ対象のサブシステムNo.及びLDEV No.の
昇順に各LDEV9に指定されたアドレスのテープデッ
キに対し、D0属性が指定されたテープボリューム15
の投入(以下マウント)を行うコマンドを発行する。
After completion of the initial setting, the RS 6 refers to the dump management table at the designated dump start time and refers to the subsystem No. to be dumped. And LDEV No. In the ascending order, the tape volume of the D0 attribute is designated for the tape deck of the address designated to each LDEV 9.
Issue a command to input (hereafter, mount).

【0029】尚、複数のLDEV No.に対し同一ア
ドレスのテープデッキが指定されている場合は、最も若
いNo.のLDEV以外は当該LDEVのダンプ処理終
了までマウントコマンド発行は行われない。マウントコ
マンドを受けたMTL5側では、アクセッサロボット1
9がD0属性を指定されたテープボリューム15の中か
ら任意のテープボリュームをマウントし、RS6へ当該
テープボリュームVSNと伴にマウント完了報告を行
う。RS6は当該VSNをメモリ20に一旦格納する。
Note that a plurality of LDEV Nos. If a tape deck having the same address is designated for the For other than the LDEV, the mount command is not issued until the dump processing of the LDEV is completed. On the MTL5 side receiving the mount command, the accessor robot 1
9 mounts an arbitrary tape volume from among the tape volumes 15 designated with the D0 attribute, and reports a mount completion to the RS 6 together with the tape volume VSN. The RS 6 temporarily stores the VSN in the memory 20.

【0030】次にRS6は、メモリ20内に一時的にダ
ンプ開始時刻(現在時刻)を記憶し、DISK3のCH
D10に対しダンプ取得対象LDEVのデータを読み出
すためのREADコマンド(以下RD)を発行する。R
DはLDEV9からのデータの読み出しを要求するコマ
ンドである。RDコマンドを受領したDISK3のDI
D12は指定LDEV9のデータをキャッシュ11へ読
み出し、CHD10は当該データをキャッシュからRS
6へ転送する。
Next, the RS 6 temporarily stores the dump start time (current time) in the memory 20, and stores the CH
A READ command (hereinafter referred to as RD) for reading the data of the dump acquisition target LDEV is issued to D10. R
D is a command for requesting data reading from the LDEV 9. DI of DISK3 that received the RD command
D12 reads the data of the specified LDEV 9 to the cache 11, and CHD10 reads the data from the cache to the RS.
Transfer to 6.

【0031】ここで、要求データが既にキャッシュ上に
存在する場合は、CHD10が直接当該データをキャッ
シュ11からRS6へ転送する。読み出し完了後CHD
10がRS6へREAD処理完了報告を行う。次に完了
報告を受領したRS6はMTL5のMT13に対しWR
ITEコマンド(以下WR)を発行する。ここでWRは
テープボリュームにデータを書き込む指示と書き込みデ
ータそのものを転送するためのコマンドである。
If the requested data already exists in the cache, the CHD 10 directly transfers the data from the cache 11 to the RS 6. CHD after reading is completed
10 reports the completion of the READ process to RS6. Next, upon receipt of the completion report, RS6 sends WR to MT13 of MTL5.
Issue an ITE command (hereinafter WR). Here, WR is an instruction for writing data to the tape volume and a command for transferring the write data itself.

【0032】WRコマンドを受領したMT13は、先に
マウント済のテープボリューム15に転送されたデータ
を書き込む。このDISK3からのデータの読みだし、
テープボリューム15へのデータの書き込みを行う単位
はLDEV9側のレコード単位、トラック単位と任意で
あり、ダンプ対象LDEV最終データまで繰り返し行
う。ダンプ対象LDEVの最終データ検出報告をDIS
K3がRS6へ報告後、RS6はダンプ終了時刻(現在
時刻)をメモリ20内に一旦記憶し、MTL5に対し当
該テープボリュームのデマウントコマンドを発行する。
The MT 13 that has received the WR command writes the data transferred to the tape volume 15 already mounted. Read the data from DISK3,
The unit for writing data to the tape volume 15 is arbitrary, such as a record unit and a track unit on the LDEV 9 side, and is repeated until the last LDEV data to be dumped. DIS report last data detection report of LDEV to be dumped
After K3 reports to RS6, RS6 temporarily stores the dump end time (current time) in memory 20 and issues a demount command for the tape volume to MTL5.

【0033】MTL5はテープボリュームのデマウント
指示受領後、アクセッサロボット19がMT13のテー
プデッキからテープボリュームのデマウントを行ない、
収納棚のマウント前にあった位置(以下ホームセル)に
搬送しデマウント完了の報告を行う。報告を受けたRS
6はMTL5に対し当該テープボリュームの属性をD0
からD1に変更する様に指示し、MTL5は属性変更を
行う。
After the MTL 5 receives the tape volume demount instruction, the accessor robot 19 demounts the tape volume from the tape deck of the MT 13, and
The shelves are transported to the position before the mounting of the storage shelf (hereafter, home cell) and the completion of demounting is reported. RS that received the report
6 indicates the attribute of the tape volume as D0 for MTL5.
To D1 and the MTL 5 changes the attribute.

【0034】MTL5より属性変更完了の報告を受ける
と、RS6はダンプ管理テーブルを参照し、当該LDE
Vの格納テープボリュームのVSNが記録されている場
合は当該VSN(旧ダンプデータ格納VSN)の属性を
D1からD0に変更する様にMTL5に指示する。VS
N No.が格納されていない場合又はMTL5よりD
1からD0への属性変更完了の報告を受けた場合、RS
6は先にメモリ20に記憶していたVSN(新ダンプデ
ータ格納VSN)、ダンプ終了時刻をダンプ管理テーブ
ルの当該LDEVの各項目に書き込みテーブル情報を更
新する。
Upon receipt of the attribute change completion report from the MTL 5, the RS 6 refers to the dump management table and
When the VSN of the V storage tape volume is recorded, the MTL 5 is instructed to change the attribute of the VSN (old dump data storage VSN) from D1 to D0. VS
N No. Is not stored or MTL5 indicates
When the report of the attribute change from 1 to D0 is received, RS
Reference numeral 6 updates the VSN (new dump data storage VSN) and the dump end time stored in the memory 20 in the respective items of the LDEV in the dump management table to update the table information.

【0035】次に図6を参照しながら、DISK3のL
DEV9内のデータにCPU1から更新指示があった場
合の更新ログ取得処理の流れについて説明する。本実施
形態では1台のディスクサブシステムを更新ログ取得単
位とし、当該サブシステムに発生した更新情報を、更新
が発生した順番に同一のテープボリューム16へ記録す
る。
Next, referring to FIG.
A description will be given of the flow of an update log acquisition process when an update instruction is issued from the CPU 1 to data in the DEV 9. In this embodiment, one disk subsystem is used as an update log acquisition unit, and the update information generated in the subsystem is recorded on the same tape volume 16 in the order in which the updates occurred.

【0036】ログを取得する前の初期設定では、RS6
にてログ対象サブシステム毎に使用するデッキのアドレ
スを指定する。またダンプ処理と同様にログ取得用テー
プボリューム16もログ取得済属性(L1)と空き属性
(L0)にてログプールを管理するため、ユーザはRS
6に対しログ取得用に使用するテープボリューム16の
VSNの属性を全てL0に変更する指定をし、RS6は
これを受けMTL5に対し当該テープボリュームの属性
変更を指示する。MTL5は指定ボリュームの属性を変
更しRS6に対して完了報告を行う。
In the initial setting before the log is acquired, RS6
Specify the address of the deck to be used for each subsystem to be logged. Similarly to the dump processing, the log volume of the log volume of the tape volume 16 is managed by the log acquired attribute (L1) and the empty attribute (L0).
6 specifies that all the attributes of the VSN of the tape volume 16 used for log acquisition are changed to L0, and the RS 6 instructs the MTL 5 to change the attribute of the tape volume. The MTL 5 changes the attribute of the designated volume and reports the completion to the RS 6.

【0037】初期設定が終了するとRS6はログ取得開
始前に、MTL5に対しL0属性のテープボリューム1
6のマウントコマンドを発行する。MTL5がL0属性
のテープボリュームの中から任意1ボリュームをMT1
3にマウントしマウント完了報告とともに当該テープボ
リュームのVSNを報告するとRS6はメモリ20のロ
グ管理テーブルに当該VSNを書き込む。
When the initialization is completed, the RS 6 sends the tape volume 1 having the L0 attribute to the MTL 5 before starting the log acquisition.
6 is issued. MTL5 is any volume from tape volume with L0 attribute to MT1
3 and reports the VSN of the tape volume together with the mount completion report, the RS 6 writes the VSN in the log management table of the memory 20.

【0038】図7に示す様にログ管理テーブルは障害回
復の際、前記ダンプデータとの時間の整合性をとるため
に使用する。以上よりログ取得可能状態となる。CPU
1においてDISK3内のLDEV9へのデータ更新処
理が発生すると、CPU1はデータ書き込み用のWRコ
マンドをCHD10に対し発行する。DISK3は、W
Rコマンドにより送られてきた更新データをキャッシュ
11上に一旦格納し、書き込み完了報告を行う。
As shown in FIG. 7, the log management table is used for time consistency with the dump data at the time of recovery from a failure. Thus, the log can be obtained. CPU
When the data update processing to the LDEV 9 in the DISK 3 occurs at 1, the CPU 1 issues a WR command for writing data to the CHD 10. DISK3 is W
The update data sent by the R command is temporarily stored in the cache 11, and a write completion report is made.

【0039】次にCHD10は当該WRデータに制御情
報を付加しログデータとしてキャッシュ11上のログ用
領域に書き込む。このログデータは図8に示す様に、当
該更新データ自体にLDEV9障害発生時の復旧に必要
な情報となる更新発生時刻、当該データを格納したLD
EVの番号及び当該データ(レコード)のシリンダ、ト
ラック、レコード番号(CCHHR)から成る位置付け
情報を付加したデータであり、更新データとは別領域に
格納する。
Next, the CHD 10 adds control information to the WR data and writes the control information as log data in a log area on the cache 11. As shown in FIG. 8, the log data includes, in the update data itself, an update occurrence time serving as information necessary for recovery when an LDEV9 failure occurs, and an LD storing the data.
This is data to which positioning information including the EV number and the cylinder, track, and record number (CCHHR) of the data (record) is added, and is stored in an area different from the update data.

【0040】キャッシュ11からLDEV9への更新デ
ータの反映は、CPU1からDISK3に対する複数の
更新データにより、キャッシュ11上にある程度データ
が溜まるとDID12がLDEV9に複数データをまと
めて反映(デステージング)する。
When the update data is reflected from the cache 11 to the LDEV 9, the DID 12 collectively reflects (destages) the plurality of data in the LDEV 9 when a certain amount of data is accumulated in the cache 11 by the plurality of update data from the CPU 1 to the DISK 3.

【0041】本機能は一般的なキャッシュディスクサブ
システムのI/O処理の効率化を狙った機能であるが、
本例では本デステージング処理に同期してCHD10が
RS6に対してログデータの読み出し要求を出す。これ
によりログデータもキャッシュ11上にある程度溜まっ
た後、まとめてRS6に読み出されることとなり、ログ
データ読み出しを効率化できる。
This function is a function aimed at increasing the efficiency of I / O processing of a general cache disk subsystem.
In this example, the CHD 10 issues a log data read request to the RS 6 in synchronization with the destaging process. As a result, the log data also accumulates to some extent in the cache 11 and is collectively read out to the RS 6, so that the log data readout can be made more efficient.

【0042】ログデータ読み出し要求を受領したRS6
は、DISK3のCHD10に対しログデータ読み出し
のためのRDコマンドを発行する。CHD10はキャッ
シュ11内のログ用領域から、CPU1により更新され
た順にログデータを転送する。RS6はログデータを受
け取るとログ管理テーブルの当該テープボリュームの更
新発生時刻をチェックし時刻が記録されていない場合
は、最初のログデータ中の更新発生時刻をログ管理テー
ブルのログ取得開始時刻に記録する。
RS6 which received the log data read request
Issues an RD command for reading log data to CHD10 of DISK3. The CHD 10 transfers log data from the log area in the cache 11 in the order updated by the CPU 1. When receiving the log data, the RS 6 checks the update occurrence time of the tape volume in the log management table, and if the time is not recorded, records the update occurrence time in the first log data in the log acquisition start time of the log management table. I do.

【0043】次に本実施形態では、RS6はMTL5の
先にログ取得用テープボリュームをマウントしたMT1
3に対してDISK3よりデータを受け取った順番にロ
グデータの書き込みを指示する。当該ログデータをMT
L5のテープボリューム16に書き込む時のフォーマッ
トを図8に示す。テープボリューム始端から順に、まず
ログ取得対象となるサブシステム番号と先頭データの更
新発生時刻を記録する。本時刻はログ管理テーブルに記
録したものと同様である。これら情報は、何等かの理由
でログ管理テーブルの情報が消失した際、当該テープボ
リュームの当該情報以降に続いて記録されるCPU1か
らレコード単位に更新されるログ情報を識別するために
有効な情報となる。
Next, in this embodiment, the RS 6 is the MT 1 on which the tape volume for log acquisition is mounted before the MTL 5.
3 is instructed to write log data in the order in which the data was received from DISK3. MT of the log data
FIG. 8 shows a format when writing to the L5 tape volume 16. First, the subsystem number for which a log is to be acquired and the time at which the first data is updated are recorded in order from the beginning of the tape volume. This time is the same as that recorded in the log management table. When the information in the log management table is lost for some reason, the information is effective information for identifying log information updated in record units from the CPU 1 recorded subsequently to the information on the tape volume. Becomes

【0044】次にMT13はRS6から受け取った複数
のログデータを、RS6から受け取った順にテープボリ
ューム16へ記録する。またMT13はログデータを書
き込みする間に、テープボリュームの終端情報を検出し
た場合は、当該テープボリュームへログデータを反映す
る処理を終了するため、MTL5はRS6へテープボリ
ューム終端の検出を報告する。
Next, the MT 13 records a plurality of log data received from the RS 6 on the tape volume 16 in the order received from the RS 6. When the MT 13 detects the end information of the tape volume while writing the log data, the MTL 5 reports the end of the tape volume to the RS 6 to end the process of reflecting the log data on the tape volume.

【0045】これを受領したRS6は、1回のまとめ書
き分のログデータを当該テープボリューム16に書き込
んだ後、MTL5のMT13に対しテープボリュームの
デマウント指示を行う。MTL5は前記ダンプにおける
デマウント処理と同様の要領でデマウント処理を実行す
る。デマウントが完了するとMTL5はデマウント完了
報告をRS6に返す。
After receiving this, the RS 6 writes log data for one batch write to the tape volume 16 and then instructs the MT 13 of the MTL 5 to demount the tape volume. The MTL 5 executes the demount processing in the same manner as the demount processing in the dump. When the demount is completed, the MTL 5 returns a demount completion report to the RS 6.

【0046】次にRS6は当該テープボリュームに最後
に書き込んだログレコードの更新発生時刻をログ管理テ
ーブルに書き込み、属性をL1に変更すると同時に、M
TL5に対し当該テープボリュームの属性をL1に変更
する指示を出す。MTL5は属性を変更後、完了報告を
RS6に返す。MTL5より属性変更完了の報告を受け
ると、RS6は当該ログデータを格納したログ管理テー
ブルと同一のサブシステムのダンプデータを格納してい
るダンプ管理テーブルを参照し、当該ダンプ管理テーブ
ルの各LDEVの中における最も若いダンプ開始時刻と
当該ログ管理テーブルに記録した最終ログデータ更新発
生時刻を比較して、ダンプ開始時刻より古いログデータ
を持つVSNがある場合は、RS6はMTL5に対し該
当するテープボリュームの属性をL0に変更する指示を
出す。MTL5は属性を変更後、完了報告をRS6に返
す。
Next, the RS 6 writes the update occurrence time of the log record last written to the tape volume in the log management table, changes the attribute to L1, and simultaneously sets
An instruction to change the attribute of the tape volume to L1 is issued to TL5. After changing the attribute, the MTL 5 returns a completion report to the RS 6. Upon receiving the attribute change completion report from the MTL 5, the RS 6 refers to the dump management table storing the dump data of the same subsystem as the log management table storing the log data, and checks the LDEV of each LDEV of the dump management table. By comparing the youngest dump start time among them with the last log data update occurrence time recorded in the log management table, if there is a VSN having log data older than the dump start time, the RS6 sends the corresponding tape volume to the MTL5. Is changed to the attribute of L0. After changing the attribute, the MTL 5 returns a completion report to the RS 6.

【0047】次にRS6は当該MTL5に対してL0属
性のテープボリュームの指定デッキへのマウント要求を
発行する。マウントが完了するとMTL5はRS6に対
してマウント完了報告を行う。このマウント完了までの
間でのログデータのWRコマンドに対しては、MT13
がマウント未完了の応答を返すため、RS6はマウント
完了までWRコマンド発行を待つこととなる。
Next, the RS 6 issues a mount request to the MTL 5 to mount the L0 attribute tape volume on the designated deck. When the mounting is completed, the MTL 5 notifies the RS 6 of the completion of mounting. For the WR command of the log data until the completion of the mounting, MT13
Returns a response indicating that the mount has not been completed, so that the RS 6 waits for the WR command to be issued until the mount is completed.

【0048】次にディスクサブシステム全体または一部
のLDEVに障害発生した場合、前記ダンプデータとロ
グデータを組み合わせ、別サブシステム内のLDEV
へ、障害が発生したボリュームの全データを回復する例
を図9を参照しながら説明する。
Next, when a failure occurs in the entire disk subsystem or a part of the LDEV, the dump data and the log data are combined, and the LDEV in another subsystem is combined.
An example of recovering all data of a failed volume will be described with reference to FIG.

【0049】データ回復に先立ちユーザよりRS6に対
し、回復の対象とするLDEV毎に使用するMT13の
テープデッキのアドレス及び当該LDEVデータの回復
先LDEV9’のアドレスを指定する。ユーザからの指
定を受け、RS6はメモリ20内のダンプ管理テーブル
を参照しリストア対象LDEVのダンプデータが格納さ
れているテープボリューム15のVSNを得る。
Prior to data recovery, the user specifies to the RS 6 the address of the tape deck of the MT 13 used for each LDEV to be recovered and the address of the recovery destination LDEV 9 ′ for the LDEV data. In response to the designation from the user, the RS 6 refers to the dump management table in the memory 20 and obtains the VSN of the tape volume 15 in which the dump data of the LDEV to be restored is stored.

【0050】次にRS6は回復対象LDEV毎に指定さ
れたアドレスのデッキに対し、先に得たリストア対象L
DEVのVSNのテープボリューム15のマウントを指
示するマウントコマンドをMTL5に発行する。RS6
がテープボリュームのマウント完了を確認すると、指定
したVSNのテープボリュームからデータを読み出すた
め、RDコマンドをMTL5に発行する。
Next, the RS 6 sends the restore target L obtained previously to the deck of the address designated for each recovery target LDEV.
A mount command for instructing mounting of the tape volume 15 of the DEV VSN is issued to the MTL 5. RS6
Confirms that the mounting of the tape volume has been completed, issues an RD command to the MTL 5 in order to read data from the tape volume of the designated VSN.

【0051】MTL5がRDコマンドを受領すると、当
該テープボリュームよりリストア対象LDEVのダンプ
データの読み出しを行う。次にRS6は、予備DISK
21の対象LDEVの回復先LDEV’に先程MTL5
より読み出したリストア対象LDEVデータを書き込む
ためのWRコマンドを発行し、予備DISK21は当該
データをLDEV9’に書き込んだ後、書き込み完了を
RS6に報告する。
When the MTL 5 receives the RD command, it reads the dump data of the LDEV to be restored from the tape volume. Next, RS6 is the backup DISK
MTL5 was added to the recovery target LDEV 'of the 21 target LDEVs.
After issuing a WR command for writing the read LDEV data to be restored, the spare DISK 21 writes the data to the LDEV 9 ′, and then reports completion of the writing to the RS 6.

【0052】以上のテープボリューム15からデータの
読み出し、予備DISK21のLDEV9’への書き込
みを任意の単位でテープボリューム15に格納されてい
るダンプデータの全ての読み出し/書き込みが終了する
まで繰り返し行う。また回復対象LDEVが複数指定さ
れている場合は、LDEV No.の昇順に指定数分だ
け上記の処理を繰り返す。または回復処理に使用可能な
MT13のテーフ゜デッキが複数確保でき、且つ回復先
の予備DISK21のLDEV9’が複数確保できる場
合は、複数LDEV分の回復処理を並列実行することも
できる。
The reading of data from the tape volume 15 and the writing to the LDEV 9 'of the spare DISK 21 are repeated in arbitrary units until all the reading / writing of the dump data stored in the tape volume 15 is completed. When a plurality of LDEVs to be recovered are specified, LDEV No. The above processing is repeated for the specified number of times in ascending order of. Alternatively, when a plurality of tape decks of the MT 13 that can be used for the recovery processing can be secured and a plurality of LDEVs 9 ′ of the recovery destination spare disk 21 can be secured, the recovery processing for a plurality of LDEVs can be executed in parallel.

【0053】次にRS6は指定されたLDEV9のダン
プデータのコピーが全て終了した後、ログ管理テーブル
を参照し回復対象LDEVが存在するサブシステム毎の
ログデータが格納されているVSNの内、先頭更新発生
時刻の最も古いVSNのテープボリュームのマウントコ
マンドをMTL5に発行する。RS6は当該テープボリ
ュームのマウント完了を確認した後、当該テープボリュ
ームに格納されている先頭ログデータの読み出しのた
め、RDコマンドをMTL5に発行する。RDコマンド
を受領したMTL5は、当該テープボリュームに格納さ
れた当該対象LDEV9の回復先であるDISK21の
LDEV9’へログレコードをRS6へ転送する。
Next, after all the copying of the dump data of the specified LDEV 9 is completed, the RS 6 refers to the log management table and reads the top of the VSN in which the log data of each subsystem in which the recovery target LDEV exists is stored. A mount command for the tape volume of the VSN with the oldest update occurrence time is issued to the MTL 5. After confirming that the mounting of the tape volume has been completed, the RS 6 issues an RD command to the MTL 5 in order to read the leading log data stored in the tape volume. The MTL 5 that has received the RD command transfers the log record to the LDEV 9 ′ of the disk 21, which is the recovery destination of the target LDEV 9 stored in the tape volume, to the RS 6.

【0054】RS6は転送されたログレコードを解析
し、LDEVNo.及び位置付け情報(CCHHR)を
得る。当該LDEVNo.が回復対象LDEVか否かを
判断し、回復対象の場合は当該ログレコードの中から実
データを取り出し当該データをDISK21の回復先L
DEV9’の中の当該CCHHRへ書き込むため、WR
コマンドをDISK21へ発行し、当該データの書き込
みを行う。当該LDEVNo.が回復対象LDEVでは
ない場合、RS6は当該レコードをメモリ20上から消
去する。
The RS 6 analyzes the transferred log record and determines the LDEV No. And positioning information (CCHHR). The LDEV No. Is determined to be a recovery target LDEV, and if it is a recovery target, actual data is extracted from the log record and the data is transferred to the recovery destination LDEV of the DISK 21.
In order to write to the CCHHR in DEV9 ', WR
A command is issued to the disk 21 to write the data. The LDEV No. Is not the recovery target LDEV, the RS 6 deletes the record from the memory 20.

【0055】RS6は以降順次ログレコードを読み出し
回復対象LDEVのログレコード中の実データのみを回
復先LDEVへ書き込んでいく。当該テープボリューム
終端までログレコードの読み出し/データのLDEV’
への書き込みが終了すると、RS6は当該テープボリュ
ームのデマウントをMTL5に指示し、MTLからのデ
マウント完了報告を受けて引き続き先頭更新発生時刻の
2番目に古いテープボリュームのVSNをログ管理テー
ブルから選択し、当該テープボリュームのマウント指示
をMTL5に対して出す。
Thereafter, the RS 6 sequentially reads out the log records and writes only the actual data in the log records of the recovery target LDEV to the recovery destination LDEV. Log record read / data LDEV 'to end of tape volume
When the writing to the tape volume is completed, the RS 6 instructs the MTL 5 to demount the tape volume, and, upon receiving the demount completion report from the MTL, continuously selects the VSN of the second oldest tape volume of the head update occurrence time from the log management table. , And issues an instruction to mount the tape volume to the MTL 5.

【0056】マウント完了後は1番目のテープボリュー
ムと同様にログレコードの反映処理を行っていく。以上
の処理を障害発生直前に取得したログデータまで繰り返
し行ない、回復対象LDEV9のデータをDISK21
のLDEV9’へ障害発生直前の状態まで回復する。
After the mounting is completed, the log record reflection processing is performed similarly to the first tape volume. The above processing is repeated until the log data obtained immediately before the occurrence of the failure, and the data of the recovery target LDEV 9 is
To the LDEV 9 'to the state immediately before the occurrence of the failure.

【0057】以上のようなコンピュータシステムのリモ
ートバックアップにおいて、ディスクサブシステム3と
リモートサーバ6、磁気テープライブラリ装置5とリモ
ートサーバ6との間のデータ転送制御上のやり取りは、
一般のホストコンピュータとディスクサブシステム及び
磁気テープライブラリ装置との間のデータ転送制御時の
使用される命令語(コマンド)と同様のコマンドを使用
して行うものである。
In the remote backup of the computer system as described above, the data transfer control exchange between the disk subsystem 3 and the remote server 6 and the magnetic tape library device 5 and the remote server 6 are as follows.
This is performed by using a command similar to a command used in controlling data transfer between a general host computer, a disk subsystem, and a magnetic tape library device.

【0058】更に、コンピュータシステムのリモートバ
ックアップにおいて、ディスクサブシステム3のデータ
をテープボリューム15,16に記録する際、ホスト1
のオペレーティングシステムによって既定されたフォー
マット(標準ラベル)と同一フォーマットでデータを記
録し、ダンプデータをホスト1からも直接読みだすこと
が可能であるようにシステムを構成することもできる。
Further, in the remote backup of the computer system, when the data of the disk subsystem 3 is recorded on the tape volumes 15 and 16, the host 1
It is also possible to configure the system so that data can be recorded in the same format (standard label) as the format defined by the operating system, and the dump data can be directly read from the host 1.

【0059】また、図1におけるCPU1とCPU22
とを接続することによって、どちらのCPU側からでも
ディスクサブシステム3と磁気テープライブラリ装置と
にアクセスすることも可能となる。
The CPU 1 and the CPU 22 shown in FIG.
, It is also possible to access the disk subsystem 3 and the magnetic tape library device from either CPU.

【0060】以上説明したように、本発明は、その主要
な構成として、セカンダリセンタ側に磁気テープライブ
ラリ装置を置き、これとプライマリセンタ側のディスク
サブシステムをホストを介さず接続し、当該ディスクサ
ブシステムの全て、又は任意のディスクボリュームの全
データのコピー(ダンプ;dump)と各ボリュームの
更新履歴(ログ)を当該磁気テープライブラリ装置に取
得するものであり、災害等によりプライマリセンタ側の
ディスクサブシステムに障害が発生した場合は、当該磁
気テープライブラリ装置で取得したダンプデータとログ
データを組み合わせることで回復を行うことのできるも
のである。
As described above, according to the present invention, as a main configuration, a magnetic tape library device is placed on the secondary center side, and this is connected to the disk subsystem on the primary center side without going through a host. A copy (dump) of all data of the entire system or an arbitrary disk volume and an update history (log) of each volume are acquired by the magnetic tape library device. When a failure occurs in the system, recovery can be performed by combining dump data and log data acquired by the magnetic tape library device.

【0061】更に、本発明は、請求項に記載の発明以外
にも次のような構成を採用し得るものである。
Further, the present invention can adopt the following constitution other than the invention described in the claims.

【0062】ディスクサブシステム全体または一部のデ
ィスクボリュームに障害が発生した場合、ディスクサブ
システムと磁気テープライブラリ装置とを、ホストコン
ピュータとは異なる制御機構を介して接続し、当該制御
機構の制御によりホストを経由せずディスクボリューム
全体のデータコピーと当該ボリュームのログを組み合わ
せ、当該サブシステム内の別ボリュームまたは別サブシ
ステム内のディスクボリュームへ、障害が発生したボリ
ュームの全データを障害直前の状態に復元(リストア)
するリモートバックアップシステム。
When a failure occurs in the entire disk subsystem or a part of the disk volume, the disk subsystem and the magnetic tape library device are connected via a control mechanism different from the host computer, and controlled by the control mechanism. By combining the data copy of the entire disk volume and the log of the relevant volume without passing through the host, all data of the failed volume can be transferred to another volume in the relevant subsystem or a disk volume in another subsystem to the state immediately before the failure. Restore
Remote backup system.

【0063】[0063]

【発明の効果】本発明により、災害バックアップシステ
ムにおけるディスクサブシステムのバックアップシステ
ムとして、セカンダリセンタ側の外部記憶装置に、ディ
スクサブシステムより安価な磁気テープライブラリ装置
を使用することができ、CPUを含めたシステム自体の
2重化やディスクサブシステム同士の2重化による災害
バックアップシステムに比べシステム構築コストを大幅
に削減できる。
According to the present invention, as a backup system for a disk subsystem in a disaster backup system, a magnetic tape library device that is less expensive than a disk subsystem can be used for an external storage device on the secondary center side. The system construction cost can be greatly reduced as compared with a disaster backup system in which the system itself is duplicated or the disk subsystems are duplicated.

【0064】ディスクサブシステムと磁気テープライブ
ラリ装置をホストを介さず、ホスト以外の制御機構であ
るリモート・サーバ経由で接続し、当該制御機構が両者
データの2重化の処理を担うことにより、少なくともセ
カンダリセンタ側の磁気テープライブラリ装置には、専
用機能を必要としないため、既存の装置が流用できる等
のメリットもある。
The disk subsystem and the magnetic tape library device are connected not via the host but via a remote server which is a control mechanism other than the host, and the control mechanism is responsible for duplicating both data. Since the magnetic tape library device on the secondary center side does not require a dedicated function, there is an advantage that an existing device can be used.

【0065】さらにデータの2重化に伴う処理について
は、ホスト側のリソースは一切使用されず、災害バック
アップシステム構築によるCPUの業務処理能力低下を
招くこともない。
Further, regarding the processing accompanying the data duplication, no resources on the host side are used at all, and there is no reduction in the business processing capacity of the CPU due to the construction of the disaster backup system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態におけるリモートバックア
ップ機能のシステム構成を示す図である。
FIG. 1 is a diagram showing a system configuration of a remote backup function according to an embodiment of the present invention.

【図2】本発明における通常業務の運用時におけるダン
プデータ及びログデータ取得方法を示す図である。
FIG. 2 is a diagram illustrating a method of acquiring dump data and log data during normal business operation according to the present invention.

【図3】本発明におけるプライマリセンタの障害発生時
におけるデータの復元(リストア)の方法を示す図であ
る。
FIG. 3 is a diagram showing a method of restoring (restoring) data when a failure occurs in a primary center according to the present invention.

【図4】図2に示す通常運用時におけるダンプ処理の詳
細なフローチャートを示す図である。
FIG. 4 is a diagram showing a detailed flowchart of a dump process in a normal operation shown in FIG. 2;

【図5】図2に示す通常運用時のダンプ処理におけるダ
ンプ管理テーブルを示す図である。
FIG. 5 is a diagram showing a dump management table in the dump processing during normal operation shown in FIG. 2;

【図6】図2に示す通常運用時におけるログ処理の詳細
なフローチャートを示す図である。
6 is a diagram showing a detailed flowchart of log processing during normal operation shown in FIG. 2;

【図7】通常運用時のログ処理におけるログ管理テーブ
ルを示す図である。
FIG. 7 is a diagram showing a log management table in log processing during normal operation.

【図8】ログ取得におけるテープボリューム内のフォー
マットを示す図である。
FIG. 8 is a diagram showing a format in a tape volume in log acquisition.

【図9】障害発生時におけるデータ回復処理の詳細なフ
ローチャートを示す図である。
FIG. 9 is a diagram showing a detailed flowchart of a data recovery process when a failure occurs.

【符号の説明】[Explanation of symbols]

1 CPU 2 インタフェースケーブル 3 ディスクサブシステム 4 インタフェースケーブル 5 磁気テープライブラリ装置 6 リモート・サーバ 7 ディスク制御装置 8 ディスク駆動装置 9 ディスクボリューム 10 チャネルインタフェース制御部 11 キャッシュメモリ 12 ディスクインタフェース制御部 13 磁気テープ装置 14 ライブラリ装置 15,16,17 テープボリューム 18 収納棚 19 アクセッサロボット 20 メモリ 21 予備ディスクサブシステム 22 CPU DESCRIPTION OF SYMBOLS 1 CPU 2 Interface cable 3 Disk subsystem 4 Interface cable 5 Magnetic tape library device 6 Remote server 7 Disk control device 8 Disk drive device 9 Disk volume 10 Channel interface control unit 11 Cache memory 12 Disk interface control unit 13 Magnetic tape device 14 Library device 15, 16, 17 Tape volume 18 Storage shelf 19 Accessor robot 20 Memory 21 Spare disk subsystem 22 CPU

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ホストコンピュータからのデータを記録
するディスクサブシステムと、前記ディスクサブシステ
ムから遠隔位置または近接位置に設置された磁気テープ
ライブラリ装置と、を備えたコンピュータシステムであ
って、 前記ディスクサブシステムと前記磁気テープライブラリ
装置とを前記ホストコンピュータを経由させることなく
直接に接続して、前記ディスクサブシステムから前記磁
気テープライブラリ装置へのデータ多重化のためのデー
タ転送を実行することを特徴とするリモートバックアッ
プシステム。
1. A computer system comprising: a disk subsystem for recording data from a host computer; and a magnetic tape library device installed at a position remote or close to the disk subsystem. Connecting the system and the magnetic tape library device directly without passing through the host computer, and executing data transfer for data multiplexing from the disk subsystem to the magnetic tape library device. Remote backup system.
【請求項2】 請求項1に記載のリモートバックアップ
システムにおいて、 前記多重化のための転送データは、前記ディスクサブシ
ステム内のディスクボリュームの情報と、前記情報に対
する更新履歴情報と、から構成され、 前記ディスクサブシステム内の任意のディスクボリュー
ムの全情報を、前記磁気テープライブラリ装置の1台ま
たは複数台のテープボリュームにコピーし、 前記更新履歴情報は、前記ディスクサブシステム内のデ
ィスクボリュームに記憶されているレコード単位のデー
タの更新処理が発生した場合に、前記更新処理されたデ
ータに、前記ディスクボリュームの識別番号、前記レコ
ードが記憶されている位置付け情報、更新処理が発生し
た時刻情報を付加したものであって、前記磁気テープラ
イブラリ装置内の任意のテープボリュームに、更新が発
生した順番に記録されることを特徴とするリモートバッ
クアップシステム。
2. The remote backup system according to claim 1, wherein the transfer data for multiplexing comprises information on a disk volume in the disk subsystem and update history information on the information. Copying all information of any disk volume in the disk subsystem to one or more tape volumes of the magnetic tape library device, the update history information is stored in a disk volume in the disk subsystem. In the case where the update processing of the data in the unit of record has occurred, the identification number of the disk volume, the positioning information in which the record is stored, and the time information when the update processing occurred are added to the updated data. Any of the tapes in the magnetic tape library device. A remote backup system characterized in that updates are recorded in the order in which the updates occurred in the backup volume.
【請求項3】 請求項2に記載のリモートバックアップ
システムにおいて、 前記ディスクサブシステム全体または一部のディスクボ
リュームに障害が発生した場合、前記ディスクボリュー
ム全体のコピーされた情報と、前記テープボリュームの
更新履歴情報とを組み合わせ、 前記ディスクサブシステム内の障害の発生していない別
ボリュームまたは別に設置されたサブシステム内のディ
スクボリュームへ、前記障害が発生したディスクボリュ
ームの全データを障害直前の状態に復元することを特徴
とするリモートバックアップシステム。
3. The remote backup system according to claim 2, wherein when a failure occurs in the entire disk subsystem or a part of the disk volume, the copied information of the entire disk volume and the update of the tape volume are updated. Restores all data of the failed disk volume to the state immediately before the failure in a separate volume where no failure has occurred in the disk subsystem or a disk volume in a separately installed subsystem by combining with the history information A remote backup system characterized by:
【請求項4】 ホストコンピュータからのデータを記録
するディスクサブシステムと、前記ディスクサブシステ
ムから遠隔位置または近接位置に設置された磁気テープ
ライブラリ装置と、を備えたコンピュータシステムであ
って、 前記ディスクサブシステムと前記磁気テープライブラリ
装置とを、前記ホストコンピュータと別設の制御機構を
介して接続し、 前記制御機構の制御により前記ホストコンピュータを経
由させることなく前記ディスクサブシステムから前記磁
気テープライブラリ装置へのデータ多重化のためのデー
タ転送を実行することを特徴とするリモートバックアッ
プシステム。
4. A computer system comprising: a disk subsystem for recording data from a host computer; and a magnetic tape library device located at a position remote or close to the disk subsystem. A system and the magnetic tape library device are connected to the host computer via a control mechanism provided separately from the host computer, and from the disk subsystem to the magnetic tape library device without passing through the host computer under the control of the control mechanism. A remote backup system for executing data transfer for data multiplexing.
【請求項5】 請求項4に記載のリモートバックアップ
システムにおいて、 前記多重化のための転送データは、前記ディスクサブシ
ステム内のディスクボリュームの情報と、前記情報に対
する更新履歴情報と、から構成され、 前記ディスクサブシステム内の任意のディスクボリュー
ムの全情報を、前記制御機構の制御によって、前記磁気
テープライブラリ装置の1台または複数台のテープボリ
ュームにコピーし、 前記更新履歴情報は、前記ディスクサブシステム内のデ
ィスクボリュームに記憶されているレコード単位のデー
タの更新処理が発生した場合に、前記制御機構の制御に
よって、前記更新処理されたデータに前記ディスクボリ
ュームの識別番号、前記レコードが記憶されている位置
付け情報、更新処理が発生した時刻情報を付加されて、
前記磁気テープライブラリ装置内の任意のテープボリュ
ームに更新が発生した順番に記録されることを特徴とす
るリモートバックアップシステム。
5. The remote backup system according to claim 4, wherein the transfer data for multiplexing includes information on a disk volume in the disk subsystem and update history information on the information. All information of any disk volume in the disk subsystem is copied to one or more tape volumes of the magnetic tape library device under the control of the control mechanism, and the update history information is stored in the disk subsystem. When the update processing of the record unit stored in the disk volume in the storage unit occurs, the identification number of the disk volume and the record are stored in the updated data under the control of the control mechanism. Positioning information and time information when the update process occurred are added. hand,
A remote backup system wherein information is recorded in an arbitrary tape volume in the magnetic tape library device in the order of occurrence of the update.
JP26202697A 1997-09-26 1997-09-26 Backup system and backup method using disk system and magnetic tape library device Expired - Fee Related JP3490266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26202697A JP3490266B2 (en) 1997-09-26 1997-09-26 Backup system and backup method using disk system and magnetic tape library device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26202697A JP3490266B2 (en) 1997-09-26 1997-09-26 Backup system and backup method using disk system and magnetic tape library device

Publications (2)

Publication Number Publication Date
JPH11102262A true JPH11102262A (en) 1999-04-13
JP3490266B2 JP3490266B2 (en) 2004-01-26

Family

ID=17370001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26202697A Expired - Fee Related JP3490266B2 (en) 1997-09-26 1997-09-26 Backup system and backup method using disk system and magnetic tape library device

Country Status (1)

Country Link
JP (1) JP3490266B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2380596A (en) * 2001-07-07 2003-04-09 Hewlett Packard Co Data backup using a tape drive and a non-volatile memory
JP2003122509A (en) * 2001-08-08 2003-04-25 Hitachi Ltd Remote copy control method, storage sub-system using it, and wide area data storage system using them
JP2003536157A (en) * 2000-06-06 2003-12-02 サンライト・インコーポレイテッド Data storage systems and processes
JP2005196618A (en) * 2004-01-09 2005-07-21 Hitachi Ltd Storage device and its control method
JP2006004147A (en) * 2004-06-17 2006-01-05 Hitachi Ltd Disaster recovery system, program and method for recovering database
JP2006023889A (en) * 2004-07-07 2006-01-26 Hitachi Ltd Remote copy system and storage system
JP2006107450A (en) * 2004-09-30 2006-04-20 Emc Corp Triangular asynchronous replication
JP2007219756A (en) * 2006-02-15 2007-08-30 Fujitsu Ltd Update log backup method
JP2008065503A (en) * 2006-09-06 2008-03-21 Hitachi Ltd Storage system, and back-up/recovery method
US7509527B2 (en) 2004-10-04 2009-03-24 Fujitsu Limited Collection of operation information when trouble occurs in a disk array device
WO2011083507A1 (en) 2010-01-05 2011-07-14 Hitachi,Ltd. Replication system and its control method
US9032144B2 (en) 2007-09-28 2015-05-12 Fujitsu Limited Virtual tape device, virtual library system, and virtual tape control method
JP2015185056A (en) * 2014-03-26 2015-10-22 日本電気株式会社 Storage system, and control method and control program thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01137343A (en) * 1987-11-25 1989-05-30 Hitachi Ltd File back-up system
JPH04223520A (en) * 1990-12-26 1992-08-13 Nec Eng Ltd Magnetic disk device backup method
JPH06214853A (en) * 1992-12-02 1994-08-05 Internatl Business Mach Corp <Ibm> Method and system for backup and restoration of database
JPH07244597A (en) * 1994-02-22 1995-09-19 Internatl Business Mach Corp <Ibm> Method and related system for forming consistent group for providing disaster restoration function
JPH08509565A (en) * 1993-04-23 1996-10-08 イーエムシー コーポレーション Remote data mirroring

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01137343A (en) * 1987-11-25 1989-05-30 Hitachi Ltd File back-up system
JPH04223520A (en) * 1990-12-26 1992-08-13 Nec Eng Ltd Magnetic disk device backup method
JPH06214853A (en) * 1992-12-02 1994-08-05 Internatl Business Mach Corp <Ibm> Method and system for backup and restoration of database
JPH08509565A (en) * 1993-04-23 1996-10-08 イーエムシー コーポレーション Remote data mirroring
JPH07244597A (en) * 1994-02-22 1995-09-19 Internatl Business Mach Corp <Ibm> Method and related system for forming consistent group for providing disaster restoration function

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003536157A (en) * 2000-06-06 2003-12-02 サンライト・インコーポレイテッド Data storage systems and processes
GB2380596B (en) * 2001-07-07 2005-07-27 Hewlett Packard Co Data backup
GB2380596A (en) * 2001-07-07 2003-04-09 Hewlett Packard Co Data backup using a tape drive and a non-volatile memory
JP4689137B2 (en) * 2001-08-08 2011-05-25 株式会社日立製作所 Remote copy control method and storage system
JP2003122509A (en) * 2001-08-08 2003-04-25 Hitachi Ltd Remote copy control method, storage sub-system using it, and wide area data storage system using them
JP2005196618A (en) * 2004-01-09 2005-07-21 Hitachi Ltd Storage device and its control method
JP4629342B2 (en) * 2004-01-09 2011-02-09 株式会社日立製作所 Storage apparatus and control method thereof
JP2006004147A (en) * 2004-06-17 2006-01-05 Hitachi Ltd Disaster recovery system, program and method for recovering database
JP2006023889A (en) * 2004-07-07 2006-01-26 Hitachi Ltd Remote copy system and storage system
JP2006107450A (en) * 2004-09-30 2006-04-20 Emc Corp Triangular asynchronous replication
US7509527B2 (en) 2004-10-04 2009-03-24 Fujitsu Limited Collection of operation information when trouble occurs in a disk array device
JP2007219756A (en) * 2006-02-15 2007-08-30 Fujitsu Ltd Update log backup method
JP2008065503A (en) * 2006-09-06 2008-03-21 Hitachi Ltd Storage system, and back-up/recovery method
US9032144B2 (en) 2007-09-28 2015-05-12 Fujitsu Limited Virtual tape device, virtual library system, and virtual tape control method
WO2011083507A1 (en) 2010-01-05 2011-07-14 Hitachi,Ltd. Replication system and its control method
US8219768B2 (en) 2010-01-05 2012-07-10 Hitachi, Ltd. System and method for establishing a copy pair relationship between source and destination volumes
JP2015185056A (en) * 2014-03-26 2015-10-22 日本電気株式会社 Storage system, and control method and control program thereof

Also Published As

Publication number Publication date
JP3490266B2 (en) 2004-01-26

Similar Documents

Publication Publication Date Title
US7577788B2 (en) Disk array apparatus and disk array apparatus control method
US7065620B2 (en) Systems and methods for backing up data
US6199074B1 (en) Database backup system ensuring consistency between primary and mirrored backup database copies despite backup interruption
JP3726559B2 (en) Direct backup method and storage system
US6304980B1 (en) Peer-to-peer backup system with failure-triggered device switching honoring reservation of primary device
US8234449B2 (en) Storage subsystem that connects fibre channel and supports online backup
US7152184B2 (en) Storage device, backup method and computer program code of this storage device
JP3655963B2 (en) Storage controller, data storage system including the same, and dual pair suppression method
US5375232A (en) Method and system for asynchronous pre-staging of backup copies in a data processing storage subsystem
US7360019B2 (en) Disk array device and data processing method thereof
US6886075B2 (en) Memory device system and method for copying data in memory device system
US7013371B2 (en) Data transfer control system
JP3230645B2 (en) Data processing method, system and device
JP3490266B2 (en) Backup system and backup method using disk system and magnetic tape library device
US20050273650A1 (en) Systems and methods for backing up computer data to disk medium
JP2000187608A (en) Storage device sub-system
US7529966B2 (en) Storage system with journaling
JPH06139027A (en) Data backup method for disk driver and disk array device and data storage system and disk array system
JP3882467B2 (en) Snapshot management method for storage system
JP2002278706A (en) Disk array device
JP2003050675A (en) Data multiplexing system
US20090063770A1 (en) Storage control apparatus, storage control program, and storage control method
JPH09265435A (en) Storage device system
JPH06242888A (en) Disk array device, computer system, and data storage device
JPH08212014A (en) Semiconductor storage subsystem

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091107

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees