JPH07311659A - Cache incorporated disk array device - Google Patents

Cache incorporated disk array device

Info

Publication number
JPH07311659A
JPH07311659A JP6128392A JP12839294A JPH07311659A JP H07311659 A JPH07311659 A JP H07311659A JP 6128392 A JP6128392 A JP 6128392A JP 12839294 A JP12839294 A JP 12839294A JP H07311659 A JPH07311659 A JP H07311659A
Authority
JP
Japan
Prior art keywords
data
block
write
cache memory
cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6128392A
Other languages
Japanese (ja)
Inventor
Hiroyuki Yasuda
浩之 保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP6128392A priority Critical patent/JPH07311659A/en
Publication of JPH07311659A publication Critical patent/JPH07311659A/en
Pending legal-status Critical Current

Links

Landscapes

  • Techniques For Improving Reliability Of Storages (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Detection And Correction Of Errors (AREA)

Abstract

PURPOSE:To improve the throughput by shortening the operation time of writing-back operation. CONSTITUTION:New data after a writing process by a host system 100 are stored in a cache memory part 2 and managed and when old data before the writing-back operation to a magnetic disk device are left on the cache memory part 2, the old data are also managed by a cache management table part 1. For example, a block A'5 on the cache memory part 2 is indicated with a block address 11 of a table a' and the old block C'7 corresponding to it is indicated with a block address 13 of the table a'. Before the block A'5 is written back, a D flag 10 is set to '1' and the presence of the old block C'7 is represented by setting a B flag 12 to '1'. Then a disk array control part 16 uses the old block C'7 to generate new parity when the block A'5 is written back.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、キャッシュメモリを内
蔵するディスクアレイ装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a disk array device incorporating a cache memory.

【0002】[0002]

【従来の技術】ディスクアレイ装置とは、カリフォルニ
ア大学バークレー校において考案された「RAIDアー
キテクチャ」を用いた、複数の磁気ディスク装置を内蔵
するファイル装置である。このようなディスクアレイ装
置では、n台の磁気ディスク装置のうちのn−1台に各
データブロックを分散して格納し、残りの1台にパリテ
ィを格納する。そして、これらの磁気ディスク装置は、
ホストシステムに対してはあたかも1台であるかのよう
に動作し、各磁気ディスク装置の並列動作によりアクセ
ス動作時間を短縮する。このようなディスクアレイ装置
でも、アクセス動作を更に高速化するため、キャッシュ
メモリが設けられる。そして、このキャッシュメモリに
も、ライトバック方式が用いられる。
2. Description of the Related Art A disk array device is a file device incorporating a plurality of magnetic disk devices using the "RAID architecture" devised at the University of California, Berkeley. In such a disk array device, each data block is distributed and stored in n-1 of the n magnetic disk devices, and parity is stored in the remaining one. And, these magnetic disk devices,
The host system operates as if it were one unit, and the access operation time is shortened by the parallel operation of the magnetic disk devices. Even in such a disk array device, a cache memory is provided in order to further speed up the access operation. The write-back method is also used for this cache memory.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来のキャッシュ内蔵ディスクアレイ装置には、次の
ような課題があった。即ち、ライトバック時には、キャ
ッシュメモリ上の最新のデータと磁気ディスク装置から
読み出した古いデータ及び古いパリティから新しいパリ
ティを生成し、磁気ディスク装置に新しいデータ及び新
しいパリティを書き込まなければならなかった。つま
り、ライトバック時には、磁気ディスク装置に対して、
古いデータ及び古いパリティに対する2回のリードアク
セスが必要であり、また、新しいデータ及び新しいパリ
ティについての2回のライトアクセスが必要である。そ
して、ホストシステムから短い間隔で多数のライトアク
セスが発生するようなアプリケーション環境では、装置
内部でライトバック動作を行いながらホストシステムか
らのアクセス要求を処理する必要がある。このため、装
置内部のスループットが大幅に低下し、ホストシステム
に対する見掛け上のアクセスタイムをキャッシングを行
わない場合に比べてあまり短縮することができなくなる
という問題があった。
However, the above-described conventional disk array device with a built-in cache has the following problems. That is, at the time of write back, new parity must be generated from the latest data on the cache memory, old data read from the magnetic disk device and old parity, and new data and new parity must be written to the magnetic disk device. In other words, when writing back,
Two read accesses to old data and old parity are required, and two write accesses to new data and new parity. In an application environment in which a large number of write accesses are generated from the host system at short intervals, it is necessary to process the access request from the host system while performing the write back operation inside the device. For this reason, there is a problem that the throughput inside the device is significantly reduced, and the apparent access time to the host system cannot be shortened as compared with the case where the caching is not performed.

【0004】[0004]

【課題を解決するための手段】本発明は以上の点に着目
してなされたもので、以下の点を特徴とするものであ
る。 ホストシステムによるライト処理の終了後、磁気ディ
スク装置に書き込まれる前の新しいデータを一時的に格
納するライトバック方式のキャッシュメモリ部を備え
る。 当該キャッシュメモリ部上にホストシステムがライト
処理をする前の古いデータが存在するか否かを管理する
とともに、その古いデータが存在する場合にその古いデ
ータが格納されているキャッシュメモリ部上のアドレス
を管理するキャッシュ管理テーブル部を備える。 キャッシュメモリ部に格納されている新しいデータを
磁気ディスク装置にライトバックする際、当該キャッシ
ュ管理テーブル部を参照し、そのライトバックすべき領
域の古いデータが存在すると判定した場合は、その古い
データを用いて対応する領域の新たなパリティを生成す
るディスクアレイ制御部を備える。
The present invention has been made in view of the above points and is characterized by the following points. A write-back type cache memory unit is provided for temporarily storing new data before being written to the magnetic disk device after the write processing by the host system is completed. It manages whether or not old data before the host system performs write processing exists in the cache memory unit, and when the old data exists, the address in the cache memory unit where the old data is stored. A cache management table unit for managing When writing back new data stored in the cache memory unit to the magnetic disk device, refer to the cache management table unit, and if it is determined that there is old data in the area to be written back, write the old data. A disk array control unit for generating a new parity of the corresponding area by using the disk array control unit is provided.

【0005】[0005]

【作用】キャッシュ内蔵のRAID5ディスクアレイ装
置において、ホストシステムによるライト処理後の新し
いデータのキャッシュメモリ部に格納して管理するとと
もに、磁気ディスク装置にライトバックする前の古いデ
ータがキャッシュメモリ部上に残っている場合にはその
古いデータもキャッシュ管理テーブル部で管理する。こ
の結果、新しいパリティを生成する際に古いデータがキ
ャッシュメモリ部上に残っていればそれを用いることが
でき、磁気ディスク装置から古いデータを読み出す必要
がない。従って、ライトバック時に新しいパリティを生
成するために必要な古いデータを内蔵の磁気ディスク装
置から実際に読み込む回数を削減し、これによってディ
スクアレイ装置のスループットを向上させることができ
る。
In the RAID5 disk array device with a built-in cache, new data after write processing by the host system is stored and managed in the cache memory unit, and old data before being written back to the magnetic disk device is stored in the cache memory unit. If it remains, the old data is also managed by the cache management table section. As a result, when the new parity is generated, if the old data remains in the cache memory unit, it can be used, and it is not necessary to read the old data from the magnetic disk device. Therefore, it is possible to reduce the number of times the old data necessary for generating new parity at the time of write back is actually read from the built-in magnetic disk device, and thereby to improve the throughput of the disk array device.

【0006】[0006]

【実施例】以下、本発明を図示の実施例を用いて詳細に
説明する。図1は、本発明によるディスクアレイ装置内
蔵のキャッシュメモリの管理方式の一例を示したもので
ある。図1の装置は、キャッシュ管理テーブル部1、キ
ャッシュメモリ部2、ディスクアレイ制御部16を備え
ている。キャッシュ管理テーブル部1は、複数のテーブ
ルa′、b′等から成る。各テーブルには、従来と同様
に、Vフラグ8、Dフラグ10、論理アドレス表示部
9、LRU前方/後方リンクポインタ14および15、
及び最新データを格納するブロックアドレス11が格納
される。そして、これらに加えて、ライト前の古いデー
タ(以下、「旧データ」という。)がキャッシュメモリ
部2上に存在することを示すBフラグ12と旧データが
存在する場合のそのブロックアドレス13が格納され
る。
The present invention will be described in detail below with reference to the illustrated embodiments. FIG. 1 shows an example of a management system of a cache memory incorporated in a disk array device according to the present invention. The apparatus of FIG. 1 includes a cache management table unit 1, a cache memory unit 2, and a disk array control unit 16. The cache management table unit 1 is composed of a plurality of tables a'and b '. In each table, as in the conventional case, the V flag 8, the D flag 10, the logical address display unit 9, the LRU forward / backward link pointers 14 and 15,
Also, a block address 11 for storing the latest data is stored. In addition to these, the B flag 12 indicating that old data before writing (hereinafter referred to as “old data”) exists in the cache memory unit 2 and its block address 13 when old data exists Is stored.

【0007】本発明のディスクアレイ装置について説明
する前に、従来のディスクアレイ装置の構成の詳細を説
明し、本発明の利点を明らかにする。図2は、従来のR
AID5ディスクアレイ装置の代表的な構成を示したも
のである。図示のディスクアレイ装置は、ディスクアレ
イ制御部38と、磁気ディスク装置39〜43とで構成
されている。ディスクアレイ制御部38と、各磁気ディ
スク装置39〜43とは、ディスクインタフェース44
〜48を介して接続されている。そして、このディスク
アレイ装置は、ホストインタフェース49によってホス
トシステムと接続される。内蔵する磁気ディスク装置3
9〜43の台数はRAIDアーキテクチャでは規定され
ていないが、以後は最も一般的な図2に示す5台構成を
例として説明する。
Before describing the disk array device of the present invention, the details of the configuration of the conventional disk array device will be described to clarify the advantages of the present invention. Figure 2 shows the conventional R
1 shows a typical configuration of an AID5 disk array device. The illustrated disk array device comprises a disk array controller 38 and magnetic disk devices 39 to 43. The disk array controller 38 and each of the magnetic disk devices 39 to 43 are connected by a disk interface 44.
Through 48. The disk array device is connected to the host system by the host interface 49. Built-in magnetic disk device 3
Although the numbers of 9 to 43 are not specified in the RAID architecture, the most common five unit configuration shown in FIG. 2 will be described below as an example.

【0008】この5台構成のRAID5ディスクアレイ
装置における、データブロックの配置例を示したのが図
3である。ここで、データブロックとは、内蔵する磁気
ディスク装置上のセクタ容量の整数倍の大きさ(通常は
数KByte 〜数十KByte )であり、ディスクアレイ装置上
でのデータ管理の基本単位である。通常、この大きさは
ホストシステムから最も高い頻度でアクセスされる単位
に近い大きさに設定される。ディスクアレイ装置は、一
般的にはホストシステムに対してあたかも1台の磁気デ
ィスク装置であるかのように振舞うが、図3に示すよう
にホストシステムから見たこの装置のディスクアドレス
(以後論理アドレスと呼ぶ)上で連続するデータブロッ
ク50〜53とそれらのブロック内のデータを全ての排
他的論理和をとることにより生成したパリティブロック
54は、実際にはそれぞれ別個の内蔵磁気ディスク装置
上に配置される。即ち、n台構成のディスクアレイ装置
の場合では連続するn−1ブロック毎に、それぞれのデ
ータブロックとそれから生成したパリティブロックをn
台の内蔵磁気ディスク装置に分散して配置する。
FIG. 3 shows an example of the arrangement of data blocks in this RAID5 disk array device having five units. Here, the data block is an integral multiple of the sector capacity on the built-in magnetic disk device (usually several KBytes to several tens of KBytes), and is a basic unit of data management on the disk array device. Normally, this size is set close to the unit most frequently accessed by the host system. The disk array device generally behaves as if it were one magnetic disk device to the host system, but as shown in FIG. The data blocks 50 to 53 that are continuous above and the parity block 54 generated by taking the exclusive OR of all the data in these blocks are actually arranged on separate internal magnetic disk devices. To be done. That is, in the case of a disk array device of n units, each data block and a parity block generated from it are n
It is distributed and arranged in the built-in magnetic disk unit of the stand.

【0009】n−1ブロックにつき1つのパリティブロ
ックを生成するため、n台の磁気ディスク装置を内蔵し
ているにもかかわらず、ホストシステムから見えるRA
ID5ディスクアレイ装置の容量は、1台の磁気ディス
ク装置の容量×(n−1)である。しかし、パリティブ
ロックを生成して格納しておくことにより、内蔵磁気デ
ィスク装置が1台故障した場合でも残りの磁気ディスク
装置上のデータから故障した磁気ディスク装置上の全て
のデータを生成することが可能である。このため、磁気
ディスク装置単体の場合よりも装置全体としてのデータ
の信頼性を非常に高くすることができる。また、ホスト
システムからのリード要求に対して、内蔵する複数の磁
気ディスク装置に並列にデータをアクセスすることがで
きるため、高いスループットを達成することができる。
Since one parity block is generated for every (n-1) block, the RA which can be seen from the host system is built even though n magnetic disk devices are incorporated.
The capacity of the ID5 disk array device is the capacity of one magnetic disk device × (n−1). However, by generating and storing the parity block, even if one built-in magnetic disk device fails, all the data on the failed magnetic disk device can be generated from the data on the remaining magnetic disk device. It is possible. Therefore, the reliability of the data of the entire device can be made much higher than that of the magnetic disk device alone. Further, in response to a read request from the host system, data can be accessed in parallel to a plurality of built-in magnetic disk devices, so that high throughput can be achieved.

【0010】これに対し、ホストシステムからのライト
要求に対してはパリティデータの生成とその書き込みが
必要となるためスループットが低下する。このRAID
5ディスクアレイ装置でのライト時の動作の手順を図4
に示す。図4において、ディスクアレイ装置は、ディス
クアレイ制御部55、ライト対象となるデータブロック
の格納領域62を持つ内蔵の磁気ディスク装置56、そ
のデータブロックのパリティブロックの格納領域63を
持つ内蔵の磁気ディスク装置57から成る。ホストシス
テムからのライト要求で転送されたライトデータは、
まずディスクアレイ制御部55上の記憶部58に格納さ
れる。更に、磁気ディスク装置56上の領域62から
ライトされる前のデータブロックを読み出して記憶部5
9に格納すると共に、′磁気ディスク装置57上の領
域63からパリティブロックを読み出して記憶部60に
格納する。そして、記憶部58、59、60のデータ
全ての排他的論理和を記憶部61に格納する。こうして
生成された記憶部61上のデータが新たなパリティブロ
ックである。
On the other hand, in response to the write request from the host system, it is necessary to generate and write the parity data, so that the throughput is lowered. This RAID
Figure 5 shows the procedure of the write operation in a 5-disk array device.
Shown in. In FIG. 4, the disk array device includes a disk array controller 55, a built-in magnetic disk device 56 having a storage area 62 of a data block to be written, and a built-in magnetic disk having a storage area 63 of a parity block of the data block. It comprises a device 57. The write data transferred by the write request from the host system is
First, it is stored in the storage unit 58 on the disk array control unit 55. Furthermore, the data block before being written is read from the area 62 on the magnetic disk device 56, and the storage unit 5
9, the parity block is read from the area 63 on the magnetic disk device 57 and stored in the storage unit 60. Then, the exclusive OR of all the data in the storage units 58, 59, 60 is stored in the storage unit 61. The data on the storage unit 61 thus generated is a new parity block.

【0011】即ち、ライト前のデータブロックをdi、
パリティブロックをdpとし、このパリティブロックの
元となった残りのデータブロックをそれぞれdj,d
k,dl,dmとすると、ライト前には以下の関係が成
立している。 dp=di EXOR dj EXOR dk EXOR dl EXOR dm …(式1) そして、ライトデータをdi′、新しいパリティデータ
をdp′とすると、以下の関係を満たさなくてはならな
い。 dp′=di′ EXOR dj EXOR dk EXOR dl EXOR dm …(式2) ここで、d EXOR d=0、0 EXOR d=dであるから、
式2の右辺を変形すると、
That is, the data block before writing is di,
The parity block is dp, and the remaining data blocks that are the source of this parity block are dj and d, respectively.
Assuming k, dl, and dm, the following relationships are established before writing. dp = di EXOR dj EXOR dk EXOR dl EXOR dm (Equation 1) Then, assuming that the write data is di ′ and the new parity data is dp ′, the following relations must be satisfied. dp '= di' EXOR dj EXOR dk EXOR dl EXOR dm (Equation 2) Here, since d EXOR d = 0 and 0 EXOR d = d,
When the right side of Equation 2 is transformed,

【0012】 dp′=(di′ EXOR dj EXOR dk EXOR dl EXOR dm) EXOR 0 =di′ EXOR dj EXOR dk EXOR dl EXOR dm EXOR di EXOR di =(di EXOR dj EXOR dk EXOR dl EXOR dm) EXOR di EXO R di′ =dp EXOR di EXOR di′ …(式3) これにより、図4に示す手順に従って、記憶部61上に
生成したデータが新たなパリティブロックであることが
証明できる。こうして新パリティデータを生成した後、
記憶部58のライトデータを磁気ディスク装置56上
の領域62へ、′記憶部61の新パリティデータを磁
気ディスク装置57上の領域63にそれぞれ書き出すこ
とによりRAID5ディスクアレイ装置としての実際の
ライト動作が完了する。
Dp '= (di' EXOR dj EXOR dk EXOR dl EXOR dm) EXOR 0 = di 'EXOR dj EXOR kk EXOR dl EXOR dm EXOR di EXOR di = (di EXOR dj EXOR kk EXOR dl EXOR dm EXOR dm EXOR dm EXOR dm EXOR dm EXOR dm R di ′ = dp EXOR di EXOR di ′ (Equation 3) This makes it possible to prove that the data generated on the storage unit 61 is a new parity block according to the procedure shown in FIG. After generating new parity data in this way,
By writing the write data of the storage unit 58 to the area 62 on the magnetic disk device 56 and the new parity data of the storage unit 61 to the area 63 on the magnetic disk device 57, the actual write operation as the RAID5 disk array device can be performed. Complete.

【0013】ホストシステムからのライト要求が十分長
い領域にまたがっていて新しいパリティデータが(式
1)によりライトデータ自身から生成することができる
場合は必ずしも磁気ディスク装置からライト前のデータ
を読み出す必要はない。しかし、RAID5ディスクア
レイ装置のブロックサイズは、ホストシステムから最も
高い頻度でアクセスされる単位に合わせて設定されるこ
とが多いことから、そのようなことは希であると言え
る。以上説明したように、RAID5ディスクアレイ装
置では、ホストシステムからの1回のライト要求に対し
て、装置内部では通常2回のリードアクセスと2回のラ
イトアクセスを行うことが必要であり、リード時に比べ
て極端に装置内部のスループットが低下するという問題
がある。
If the write request from the host system spans a sufficiently long area and new parity data can be generated from the write data itself by (Equation 1), it is not always necessary to read the data before writing from the magnetic disk device. Absent. However, since the block size of the RAID5 disk array device is often set in accordance with the unit most frequently accessed by the host system, such a case can be said to be rare. As described above, in the RAID5 disk array device, it is usually necessary to perform two read accesses and two write accesses inside the device in response to one write request from the host system. Compared with this, there is a problem that the throughput inside the apparatus is extremely reduced.

【0014】この問題を回避するため、ディスクアレイ
制御部にキャッシュメモリを内蔵するという手法がとら
れることが多い。図5にキャッシュメモリを内蔵したデ
ィスクアレイ装置の制御部の構成とそのライト時の動作
の一例を示す。図5の装置においては、ディスクアレイ
制御部64内にキャッシュメモリ部66と、キャッシュ
管理テーブル部65が設けられている。キャッシュメモ
リ部66は、通常ディスクアレイ装置上のデータブロッ
クの大きさを基本単位とし、その大きさにキャッシュメ
モリ部66を分割してできたキャッシュブロック毎にキ
ャッシュ管理テーブル部65により管理される。
In order to avoid this problem, a technique of incorporating a cache memory in the disk array controller is often used. FIG. 5 shows an example of the configuration of a control unit of a disk array device having a built-in cache memory and its write operation. In the device of FIG. 5, a cache memory unit 66 and a cache management table unit 65 are provided in the disk array control unit 64. The cache memory unit 66 normally uses the size of a data block on the disk array device as a basic unit, and is managed by the cache management table unit 65 for each cache block formed by dividing the cache memory unit 66 into the size.

【0015】図5(a)は、ライト対象となる領域のデ
ータがキャッシュメモリ部66上に存在した場合(以
後、これをライトヒットと呼ぶ)の動作を示したもので
ある。この場合、ホストシステムからのライトデータ
68をキャッシュメモリ部66上の該当する領域67に
格納し、これが終了した時点でホストシステムにライト
終了を通知する。このように実際にライトデータとそれ
に対応するパリティデータを実際に磁気ディスク装置に
書き出す前にライト終了を通知するため、見掛け上のア
クセスタイムを大幅に短縮することができる。
FIG. 5A shows an operation when the data of the area to be written exists in the cache memory unit 66 (hereinafter, this is called a write hit). In this case, the write data 68 from the host system is stored in the corresponding area 67 on the cache memory unit 66, and the write completion is notified to the host system when this is completed. In this way, the write end is notified before actually writing the write data and the parity data corresponding thereto to the magnetic disk device, so that the apparent access time can be greatly shortened.

【0016】そして、図5(b)は、ライト対象となる
データがキャッシュメモリ部66上に存在しなかった場
合(以後、これをライトミスと呼ぶ)の動作の一例であ
る。この場合は′該当する領域のデータが格納されて
いる磁気ディスク装置69からデータを読み出してキャ
ッシュメモリ部66上に割り当てた領域71に格納した
後、′ライトデータ70を領域71に格納する。ここ
でライト対象領域のデータをキャッシュメモリ部66に
読み込むのは、キャッシュメモリ部66の管理は通常ブ
ロック単位で管理されるのに対してホストシステムから
のライトアクセスの単位がこれに一致するとは限らない
ため、ブロック上のライト対象でない残りの領域にも有
効なデータを格納する必要があるからである。
FIG. 5B shows an example of the operation when the data to be written does not exist in the cache memory unit 66 (hereinafter referred to as a write miss). In this case, 'the data is read from the magnetic disk device 69 in which the data of the corresponding area is stored and stored in the allocated area 71 on the cache memory unit 66, and then the'write data 70 is stored in the area 71. Here, the data in the write target area is read into the cache memory unit 66 because the management of the cache memory unit 66 is normally managed in block units, but the unit of write access from the host system does not always match this. This is because there is no valid data and it is necessary to store valid data in the remaining area on the block that is not the write target.

【0017】無論、ホストシステムからのライトアクセ
スの領域がキャッシュメモリ部66上のブロックに一致
した場合はライトデータをキャッシュメモリ部66上に
直接書き込むだけでよく、この時はライトヒット時と同
等のアクセスタイムを達成できる。また、キャッシュブ
ロック内でセクタ毎にデータの有効/無効を管理する場
合には、ライトミス時には割り当てたキャッシュブロッ
クにライトデータを格納しそのブロック内でライトされ
た領域だけを有効セクタとして登録すればよい。そうす
れば、多少キャッシュ管理が複雑になるもののライト前
のデータの読み出し動作を不要とすることができる。
Of course, if the area of the write access from the host system coincides with the block on the cache memory unit 66, the write data need only be written directly on the cache memory unit 66. Access time can be achieved. Further, when managing the validity / invalidity of data for each sector in a cache block, at the time of a write miss, write data is stored in the allocated cache block and only the area written in that block is registered as a valid sector. Good. By doing so, although the cache management becomes a little complicated, the read operation of the data before the write can be made unnecessary.

【0018】図6は、キャッシュメモリ部の管理方式の
一例を示したものである。この図に示すように、キャッ
シュ管理テーブル72により、キャッシュメモリ部73
が管理される。キャッシュメモリ部73は、ブロック単
位に分割して管理され、その有効ブロック1つに対応し
てキャッシュ管理テーブル72上のテーブルa、bが存
在する。このテーブルは、そのテーブル自体の有効/無
効を示すフラグ(以後Vフラグと呼ぶ)78、対応する
キャッシュブロック上に格納されているデータの論理ア
ドレスを示す論理アドレス表示部79、対応するキャッ
シュブロック上にライトデータを格納したときにセット
し実際に磁気ディスク装置への書き出しを終えたときに
リセットするフラグ(以後Dフラグと呼ぶ)80、対応
するキャッシュブロックのアドレスを示すブロックアド
レス表示部81、及び各ブロックを最も最近にアクセス
された順(以後これをLRU順位と呼ぶ。LRUは、Le
ast Recently Used の略)にリンクするための前方リン
クポインタ82、後方リンクポインタ83からなる。
FIG. 6 shows an example of the management system of the cache memory unit. As shown in this figure, the cache management table 72 allows the cache memory unit 73 to
Is managed. The cache memory unit 73 is managed by being divided into blocks, and tables a and b on the cache management table 72 exist for each valid block. This table includes a flag (hereinafter referred to as a V flag) 78 indicating validity / invalidity of the table itself, a logical address display unit 79 indicating a logical address of data stored in a corresponding cache block, and a corresponding cache block. A flag (hereinafter referred to as a D flag) 80 which is set when the write data is stored in and is reset when the writing to the magnetic disk device is actually completed, a block address display section 81 which indicates the address of the corresponding cache block, and The blocks are accessed most recently (hereinafter referred to as LRU order. LRU is Le
It is composed of a forward link pointer 82 and a backward link pointer 83 for linking to "ast recently used".

【0019】図6では、例としてキャッシュメモリ部7
3上の2つのブロック、ブロックA76とブロックB7
7、そしてそれぞれに対応するキャッシュ管理テーブル
上のテーブルa74、テーブルb75を示している。図
6で、テーブルa74のDフラグが1であることから、
ブロックA76には内蔵の磁気ディスク装置にまだ書き
出していないホストシステムからのライトデータを保持
していることがわかる。それに対し、ブロックB77上
のデータは、テーブルb75のDフラグが0であること
から磁気ディスク装置上のデータのコピーとなっている
ことがわかる。そして、テーブルa74、テーブルb7
5とも、有効なデータブロックを表示していることから
Vフラグは1である。
In FIG. 6, the cache memory unit 7 is used as an example.
2 blocks on block 3, block A76 and block B7
7 and table a74 and table b75 on the cache management table corresponding to each of them. In FIG. 6, since the D flag of the table a74 is 1,
It can be seen that block A76 holds write data from the host system that has not yet been written to the built-in magnetic disk device. On the other hand, the data on the block B77 is a copy of the data on the magnetic disk device because the D flag of the table b75 is 0. Then, the table a74 and the table b7
In V, the V flag is 1 because a valid data block is displayed.

【0020】このようなキャッシュメモリを内蔵するデ
ィスクアレイ装置は、通常は定期的にキャッシュ管理テ
ーブル72を参照し、Dフラグが“1”であるブロック
が存在するならば最も最近アクセスされていない、即ち
LRUリンクの最も下方に位置するものから順に選択し
てテーブル上の論理アドレスに対応する磁気ディスク装
置の該当領域へのデータの書き出し(これをライトバッ
クと呼ぶ)を行う。こうして十分な時間が経過した後に
は、ホストシステムからのライトデータは全て内蔵の磁
気ディスク装置に反映されるようになる。
A disk array device incorporating such a cache memory normally refers to the cache management table 72 on a regular basis, and if there is a block whose D flag is "1", it has not been accessed most recently. That is, the lowest one of the LRU links is selected in order, and the data is written to the corresponding area of the magnetic disk device corresponding to the logical address on the table (this is called write back). After a sufficient time elapses in this way, all write data from the host system is reflected in the built-in magnetic disk device.

【0021】次に、本発明のキャッシュ内蔵ディスクア
レイ装置について説明する。図1に示すように、本発明
では、装置全体の基本的な構成とデータブロックの配置
はそれぞれ図2、図3に示す従来のものと同様であり、
キャッシュ管理テーブル部1の各テーブルに、このBフ
ラグ12と旧データのブロックアドレス13のフィール
ドを追加していることのみが異なる。図1では、テーブ
ルa′3ではDフラグが1であることからブロックA′
5にはまだライトバックされていないホストシステムか
らのライトデータが格納されており、更にBフラグが1
であることからライト前の古いデータがブロックC′7
に格納されていることがわかる。また、テーブルb′4
はDフラグが0であることからブロックB′6に格納さ
れているデータは内蔵する磁気ディスク装置上のデータ
のコピーであることがわかる。
Next, a disk array device with a cache according to the present invention will be described. As shown in FIG. 1, according to the present invention, the basic configuration of the entire device and the arrangement of data blocks are the same as those of the conventional device shown in FIGS. 2 and 3, respectively.
The only difference is that the fields of the B flag 12 and the block address 13 of the old data are added to each table of the cache management table unit 1. In FIG. 1, since the D flag is 1 in the table a'3, the block A '
5 stores write data from the host system that has not been written back, and the B flag is set to 1
Therefore, the old data before writing is block C'7.
You can see that it is stored in. Also, the table b'4
Since the D flag is 0, it can be seen that the data stored in the block B'6 is a copy of the data on the built-in magnetic disk device.

【0022】本発明によるキャッシュ内蔵のディスクア
レイ装置の制御部の構成とそのライト時の動作の一例を
示したものが図7である。この図7で、ディスクアレイ
装置は、ディスクアレイ制御部16、キャッシュ管理テ
ーブル部17、キャッシュメモリ部18から成る。図7
(a)はライトヒット時の動作を示したものである。図
7(a)の場合、ホストシステムからのライトデータ
21をキャッシュメモリ部18上に新たに割り当てたブ
ロック19に格納する。また、ホストシステムからのラ
イトデータ21ではブロック全体を満たすことができな
い場合は、ライト前のデータを格納しているブロック
20から残りの部分のデータをキャッシュメモリ上でブ
ロック19にコピーする。そして、これらの動作が終了
した時点でホストシステムにライト終了を通知する。
FIG. 7 shows an example of the configuration of the control unit of the disk array device with a built-in cache according to the present invention and its write operation. In FIG. 7, the disk array device comprises a disk array control unit 16, a cache management table unit 17, and a cache memory unit 18. Figure 7
(A) shows the operation at the time of a write hit. In the case of FIG. 7A, the write data 21 from the host system is stored in the newly allocated block 19 on the cache memory unit 18. If the entire block cannot be filled with the write data 21 from the host system, the remaining part of the data is copied to the block 19 on the cache memory from the block 20 in which the data before writing is stored. Then, when these operations are completed, the write completion is notified to the host system.

【0023】ライトデータ、旧データともキャッシュメ
モリ部上のデータはブロック単位で管理するためにライ
トヒット時にキャッシュメモリ部上でデータをコピーす
ることが必要となる場合が発生する。ところが、キャッ
シュメモリ部上でデータをコピーするのに要する時間は
磁気ディスク装置をアクセスする時間に比べれば非常に
短いため従来の方式に対してアクセスタイムの増加は小
さいものである。また、キャッシュブロック内でセクタ
毎にデータの有効/無効を管理する場合には、ライトデ
ータを格納した領域だけを有効セクタとして登録すれ
ば、このデータコピー動作は不要となり従来と変わらな
いアクセスタイムを達成することが可能である。
Since both the write data and the old data are managed in the cache memory unit in block units, it may be necessary to copy the data in the cache memory unit at the time of a write hit. However, since the time required to copy data on the cache memory unit is much shorter than the time required to access the magnetic disk device, the increase in access time is small compared to the conventional method. Further, when managing the validity / invalidity of data for each sector in the cache block, if only the area storing the write data is registered as a valid sector, this data copy operation becomes unnecessary and the access time is the same as before. It is possible to achieve.

【0024】図7(b)はライトミス時の動作の一例で
あり、この場合、′該当する領域のデータが格納され
ている磁気ディスク装置22からデータを読み出してキ
ャッシュメモリ部18上に割り当てたブロック25に格
納し、′ライトデータ23を別に割り当てたブロック
24に格納する。また、必要な場合は、′ライト前の
データを格納しているブロック25から有効データが格
納されていない残りの部分の領域に対してキャッシュメ
モリ部上でブロック24にデータをコピーし、この後ホ
ストシステムにライト終了を通知する。このときも、キ
ャッシュブロック内でセクタ毎にデータの有効/無効を
管理すればライトヒット時と同様にキャッシュメモリ部
上のデータコピー動作を省くことができる。その場合は
必ずしもこの時点でライト前のデータを磁気ディスク装
置から読み込む必要は無く、ライトバックを行う時点で
初めてライト前のデータを読み込むようにしてもよい。
どちらの方法でも従来の方式に対して、せいぜいキャッ
シュメモリ部上でデータをコピーする時間が増加するだ
けでありアクセスタイムの増加はわずかである。
FIG. 7B shows an example of the operation at the time of a write miss. In this case, 'the data is read from the magnetic disk device 22 in which the data of the corresponding area is stored and allocated on the cache memory unit 18. It is stored in the block 25, and the'write data 23 is stored in the separately allocated block 24. Further, if necessary, the data is copied from the block 25 storing the data before the write to the block 24 on the cache memory portion to the remaining area where the valid data is not stored. Notify the host system of the end of writing. Also at this time, if the validity / invalidity of data is managed for each sector in the cache block, the data copy operation on the cache memory unit can be omitted as in the case of the write hit. In that case, it is not always necessary to read the data before writing from the magnetic disk device at this time, and the data before writing may be read for the first time at the time of performing write back.
In either method, the time required for copying the data on the cache memory unit is increased at most and the access time is slightly increased compared with the conventional method.

【0025】ライトヒット時にキャッシュ管理テーブル
を更新する様子を図8及び図9に示す。図8は更新前の
状態であり、キャッシュ管理テーブル部1上のテーブル
a12(Vフラグ8が1であるためこのテーブルは有効
である。)を参照することによって論理アドレス表示部
9で示される領域のデータがブロックアドレス11で示
すアドレスのキャッシュメモリ部2上のブロックA27
に格納されていることがわかる。そして、更にDフラグ
が0であることからキャッシュメモリ部上のこのデータ
は内蔵する磁気ディスク装置上のデータのコピーとなっ
ていることがわかる。この時点ではDフラグ10が0で
あるためBフラグ12は“0”であり、旧データの格納
ブロックを指すブロックアドレス13は無効である。
8 and 9 show how the cache management table is updated at the time of a write hit. FIG. 8 shows a state before update, and an area indicated by the logical address display unit 9 by referring to the table a12 (the V flag 8 is 1 and this table is valid) on the cache management table unit 1. Of the block A27 in the cache memory unit 2 having the address indicated by the block address 11
You can see that it is stored in. Further, since the D flag is 0, it can be seen that this data on the cache memory unit is a copy of the data on the built-in magnetic disk device. At this time, the D flag 10 is 0, so the B flag 12 is "0", and the block address 13 pointing to the storage block of the old data is invalid.

【0026】このブロックA27上の領域がライトヒッ
トして、ライトデータが新たに割り当てられたブロック
B28に格納された後の状態を示したものが図9であ
る。ライトヒットしたことによりブロックA27上のデ
ータはライト前の古いデータということになる。このた
め、テーブルa26の旧データの格納ブロックを指すブ
ロックアドレス13にそのブロックアドレスがセットさ
れると共に、Bフラグ12が“1”にセットされる。ま
た、最新データの格納ブロックを指すブロックアドレス
11にはブロックB28のアドレスがセットされ、Dフ
ラグ10が“1”にセットされる。以上のようにキャッ
シュ管理テーブルを操作することにより、キャッシュメ
モリ部上でライト後のデータとライト前の古いデータを
管理することが可能となる。
FIG. 9 shows a state after the area on the block A27 is write-hit and the write data is stored in the newly allocated block B28. Due to the write hit, the data on the block A27 is the old data before the write. Therefore, the block address is set to the block address 13 indicating the old data storage block of the table a26, and the B flag 12 is set to "1". Further, the address of the block B28 is set to the block address 11 indicating the storage block of the latest data, and the D flag 10 is set to "1". By operating the cache management table as described above, it is possible to manage the data after writing and the old data before writing in the cache memory unit.

【0027】次に、キャッシュメモリ部上にその両方の
データが存在した場合のライトバック時の動作を図10
に示す。図10において、ディスクアレイ装置は、ディ
スクアレイ制御部29、ライトバック対象となるデータ
ブロックの格納領域36を持つ内蔵の磁気ディスク装置
30、そのデータブロックのパリティブロックの格納領
域37を持つ内蔵の磁気ディスク装置31から成る。ホ
ストシステムからのライト要求で転送されたライトデ
ータは制御部29上のキャッシュメモリ部のブロック3
2に格納されている。そして、磁気ディスク装置30上
の領域36のデータ(旧データ)のコピーは既にキャッ
シュメモリ部のブロック33に格納されているものとす
る。
Next, FIG. 10 shows the operation at the time of write back when both data are present in the cache memory unit.
Shown in. In FIG. 10, the disk array device includes a disk array controller 29, a built-in magnetic disk device 30 having a storage area 36 of a data block to be written back, and a built-in magnetic disk device having a storage area 37 of a parity block of the data block. It is composed of a disk device 31. The write data transferred by the write request from the host system is the block 3 of the cache memory unit on the control unit 29.
Stored in 2. Then, it is assumed that a copy of the data (old data) in the area 36 on the magnetic disk device 30 is already stored in the block 33 of the cache memory unit.

【0028】そこで、まず′磁気ディスク装置31上
の領域37からパリティブロックを読み出してキャッシ
ュメモリ部上に割り当てた領域34に格納する。そし
て、次にキャッシュメモリ部上のブロック32、3
3、34のデータの全ての排他的論理和をとって生成し
た新パリティをキャッシュブロック35に格納する。こ
うして新パリティを生成した後、ブロック32のライ
トデータを磁気ディスク装置30上の領域36に書き出
し、′ブロック35の新パリティを磁気ディスク装置
31上の領域37にそれぞれ書き出す。これにより、R
AID5ディスクアレイ装置としての実際のライト動作
が完了する。
Therefore, first, the parity block is read from the area 37 on the magnetic disk device 31 and stored in the allocated area 34 on the cache memory unit. Then, the blocks 32 and 3 on the cache memory unit are next.
The new parity generated by taking the exclusive OR of all the data of 3 and 34 is stored in the cache block 35. After the new parity is generated in this way, the write data of the block 32 is written to the area 36 on the magnetic disk device 30, and the new parity of the block 35 is written to the area 37 on the magnetic disk device 31. This gives R
The actual write operation as the AID5 disk array device is completed.

【0029】以上のように本発明の方式では、ライト前
の古いデータがキャッシュメモリ部上に存在した場合は
ライトバック時に必要な内蔵の磁気ディスク装置へのア
クセスはリードアクセスが1回、ライトアクセスが2回
となって従来の方式に比べて実際の磁気ディスク装置へ
のアクセスを1回分削減することができ、装置内部のス
ループットを向上させることが可能となる。特に、ライ
トデータのキャッシングと共にリードミス時に磁気ディ
スク装置上の該当する領域のデータをキャッシュメモリ
部にロードする通常のリードデータのキャッシングを行
っている場合に、以前リードされてキャッシュメモリ部
上にロードされている領域にライトヒットした場合、ま
たは既にライトバックを終えてキャッシュメモリ部上の
データが磁気ディスク装置上のデータと一致した状態と
なっている領域に再びライトが発生した場合には、必ず
スループット向上の効果を発揮できる。
As described above, according to the method of the present invention, when old data before writing exists in the cache memory unit, the read access is performed once for accessing the built-in magnetic disk device required for write back. 2 times, the actual access to the magnetic disk device can be reduced by one time compared to the conventional method, and the throughput inside the device can be improved. In particular, when normal read data caching is performed, in which the data in the corresponding area on the magnetic disk device is loaded into the cache memory unit at the time of a read miss, as well as the caching of write data, when previously read and loaded into the cache memory unit. If a write hit occurs in an area that has been written, or if a write occurs again in an area in which the data in the cache memory unit has already been written back and the data in the cache memory unit matches the data in the magnetic disk device, the throughput is guaranteed. The improvement effect can be exhibited.

【0030】そのため、リードアクセス後に同じ領域に
ライトアクセスが発生する頻度が高い場合、または比較
的狭い領域に対する多数のライトアクセスが発生するよ
うな場合に効果が大きい。そして、このような状況はR
AID5ディスクアレイ装置が適しているとされるオン
ライントランザクション処理環境では発生する頻度が比
較的高く、十分な効果が期待できる。何故なら、そもそ
もオンライントランザクション処理では単位時間当りの
アクセス回数が非常に多く、特にライトアクセスの頻度
が高いからである。さらには、オンライントランザクシ
ョン処理に使用されるデータベース管理システムの多く
は主記憶装置上で独自のキャッシュメモリを管理し、こ
のため、データの更新時には一旦そのデータを含む領域
を読み出した後にライトすることが多く、その上データ
の更新ログを残すために更新毎に比較的小容量のログフ
ァイルにデータをライトする必要があるからである。
Therefore, the effect is great when a write access frequently occurs in the same area after a read access or when a large number of write accesses occur in a relatively narrow area. And this situation is R
In the online transaction processing environment in which the AID5 disk array device is suitable, the frequency of occurrence is relatively high, and a sufficient effect can be expected. This is because the number of accesses per unit time is very large and the frequency of write access is particularly high in online transaction processing. Furthermore, most database management systems used for online transaction processing manage their own cache memory on the main storage device. Therefore, when updating data, it is possible to write once after reading the area containing the data. This is because it is necessary to write data to a log file having a relatively small capacity for each update in order to keep an update log of data.

【0031】ライトバック後にキャッシュ管理テーブル
を更新する様子を図11及び図12に示す。図11はラ
イトバック前のキャッシュ管理テーブルの状態であり、
図9のライトヒット後の状態に等しい。そして、図12
がライトバック後の様子を示したものである。ライトバ
ックを終えたため、ライト前の旧データは不要となって
ブロックA27は無効化されその領域は開放される。そ
してDフラグ10とBフラグ12はもとの“0”にリセ
ットされ、旧データの格納されるブロックアドレス13
は無効となる。こうして、ライトバック後には内蔵の磁
気ディスク装置上のデータのコピーが格納されている状
態である図8と同様の状態に移行する。
11 and 12 show how the cache management table is updated after write back. FIG. 11 shows the state of the cache management table before write back.
This is equivalent to the state after the write hit in FIG. And FIG.
Shows the state after the write back. Since the write-back is completed, the old data before the write is no longer necessary and the block A27 is invalidated and the area is released. Then, the D flag 10 and the B flag 12 are reset to the original "0", and the block address 13 where the old data is stored is stored.
Is invalid. In this way, after the write back, the same state as in FIG. 8 in which a copy of the data on the built-in magnetic disk device is stored is entered.

【0032】尚、本発明は上述した実施例に限定される
ものではなく、種々の変形が可能であることはもちろん
である。例えば、上述した実施例においては、RAID
5レベルのディスクアレイ装置の場合について説明した
が、本発明はこれに限らず、RAID4レベルのディス
クアレイ装置についても適用することができる。
The present invention is not limited to the above-mentioned embodiments, and it goes without saying that various modifications can be made. For example, in the embodiment described above, RAID
Although the case of a 5-level disk array device has been described, the present invention is not limited to this and can be applied to a RAID 4-level disk array device.

【0033】[0033]

【発明の効果】以上詳細に説明してきたように、本発明
ではキャッシュ内蔵のディスクアレイ装置において、そ
のキャッシュメモリ上でホストシステムからのライトデ
ータと共にライト前の古いデータの両方を保持できるキ
ャッシュ管理方式を導入し、かつ、ライトバック時には
新しいパリティを生成する際にキャッシュメモリ上のそ
のライト前の古いデータを使用する。これにより、ライ
トバック時の内蔵磁気ディスク装置への実際のアクセス
回数を1回分削減することが可能となる。このため、ホ
ストシステムから短い間隔で多数のライトアクセスが発
生するようなアプリケーション環境で装置内部でライト
バック動作を行いながらホストシステムからのアクセス
要求を処理する状況となっても、従来の方式に比べて装
置内部のスループット低下の割合を小さくすることがで
きる。従って、ホストシステムに対する見掛け上のアク
セス時間を従来より短縮することができる。
As described above in detail, according to the present invention, in a disk array device having a cache, a cache management system capable of holding both write data from the host system and old data before writing in the cache memory thereof. In addition, when writing back, the old data before writing in the cache memory is used when generating new parity. This makes it possible to reduce the number of times of actual access to the built-in magnetic disk device at the time of write back by one. Therefore, even if the access request from the host system is processed while the write-back operation is performed inside the device in the application environment where a large number of write accesses are generated from the host system at short intervals, compared to the conventional method. The rate of decrease in throughput inside the device can be reduced. Therefore, the apparent access time to the host system can be shortened as compared with the conventional case.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のキャッシュ内蔵ディスクアレイ装置の
一実施例のブロック図である。
FIG. 1 is a block diagram of an embodiment of a disk array device with a cache according to the present invention.

【図2】RAID5ディスクアレイ装置の代表的な構成
を示すブロック図である。
FIG. 2 is a block diagram showing a typical configuration of a RAID 5 disk array device.

【図3】RAID5ディスクアレイ装置におけるデータ
ブロックの配置例の説明図である。
FIG. 3 is an explanatory diagram of an arrangement example of data blocks in a RAID 5 disk array device.

【図4】RAID5ディスクアレイ装置におけるライト
時の動作の説明図である。
FIG. 4 is an explanatory diagram of a write operation in the RAID5 disk array device.

【図5】キャッシュ内蔵ディスクアレイ装置の制御部の
構成とそのライト時の動作の説明図である。
FIG. 5 is an explanatory diagram of a configuration of a control unit of the disk array device with a cache and its write operation.

【図6】従来のキャッシュメモリ部の管理方式の説明図
である。
FIG. 6 is an explanatory diagram of a conventional cache memory unit management system.

【図7】本発明のキャッシュ内蔵ディスクアレイ装置の
制御部の構成とそのライト時の動作の説明図である。
FIG. 7 is an explanatory diagram of a configuration of a control unit of a disk array device with a cache according to the present invention and its write operation.

【図8】ライト前のキャッシュ管理テーブルの状態の説
明図である。
FIG. 8 is an explanatory diagram of a state of a cache management table before writing.

【図9】ライト後のキャッシュ管理テーブルの状態の説
明図である。
FIG. 9 is an explanatory diagram of a state of a cache management table after writing.

【図10】本発明のキャッシュ内蔵ディスクアレイ装置
のライトバック時の動作の説明図である。
FIG. 10 is an explanatory diagram of the write-back operation of the disk array device with cache according to the present invention.

【図11】ライトバック前のキャッシュ管理テーブルの
状態の説明図である。
FIG. 11 is an explanatory diagram of a state of a cache management table before write back.

【図12】ライトバック後のキャッシュ管理テーブルの
状態の説明図である。
FIG. 12 is an explanatory diagram of a state of the cache management table after write back.

【符号の説明】[Explanation of symbols]

1 キャッシュ管理テーブル部 2 キャッシュメモリ部 16 ディスクアレイ制御部 100 ホストシステム 1 cache management table unit 2 cache memory unit 16 disk array control unit 100 host system

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ホストシステムによるライト処理の終了
後、磁気ディスク装置に書き込まれる前の新しいデータ
を一時的に格納するライトバック方式のキャッシュメモ
リ部と、 当該キャッシュメモリ部上に前記ホストシステムがライ
ト処理をする前の古いデータが存在するか否かを管理す
るとともに、その古いデータが存在する場合にその古い
データが格納されている前記キャッシュメモリ部上のア
ドレスを管理するキャッシュ管理テーブル部と、 前記キャッシュメモリ部に格納されている新しいデータ
を前記磁気ディスク装置にライトバックする際、当該キ
ャッシュ管理テーブル部を参照し、そのライトバックす
べき領域の古いデータが存在すると判定した場合は、そ
の古いデータを用いて対応する領域の新たなパリティを
生成するディスクアレイ制御部とから成ることを特徴と
するキャッシュ内蔵ディスクアレイ装置。
1. A write-back type cache memory unit for temporarily storing new data before being written to a magnetic disk device after a write process by the host system is completed, and the host system writes on the cache memory unit. A cache management table unit that manages whether or not old data before processing exists and manages an address on the cache memory unit where the old data is stored when the old data exists, When new data stored in the cache memory unit is written back to the magnetic disk device, the cache management table unit is referred to, and if it is determined that there is old data in the area to be written back, the old data is deleted. A disk that uses the data to generate new parity for the corresponding area. Cache internal disk array device characterized by consisting of an array controller.
JP6128392A 1994-05-18 1994-05-18 Cache incorporated disk array device Pending JPH07311659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6128392A JPH07311659A (en) 1994-05-18 1994-05-18 Cache incorporated disk array device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6128392A JPH07311659A (en) 1994-05-18 1994-05-18 Cache incorporated disk array device

Publications (1)

Publication Number Publication Date
JPH07311659A true JPH07311659A (en) 1995-11-28

Family

ID=14983680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6128392A Pending JPH07311659A (en) 1994-05-18 1994-05-18 Cache incorporated disk array device

Country Status (1)

Country Link
JP (1) JPH07311659A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766400B2 (en) 2000-07-10 2004-07-20 Nec Corporation Disk array apparatus and interrupt execution method of the same
US9128846B2 (en) 2011-12-13 2015-09-08 Fujitsu Limited Disk array device, control device and data write method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766400B2 (en) 2000-07-10 2004-07-20 Nec Corporation Disk array apparatus and interrupt execution method of the same
US9128846B2 (en) 2011-12-13 2015-09-08 Fujitsu Limited Disk array device, control device and data write method

Similar Documents

Publication Publication Date Title
JP2902970B2 (en) System and associated method for writing data to a disk array
US6542960B1 (en) System and method for parity caching based on stripe locking in raid data storage
CN107102955B (en) Association and atomic write-back cache system and method for storage subsystems
JP3697149B2 (en) How to manage cache memory
US5895485A (en) Method and device using a redundant cache for preventing the loss of dirty data
JP3505093B2 (en) File management system
US5379391A (en) Method and apparatus to access data records in a cache memory by multiple virtual addresses
US6877065B2 (en) Advanced read cache management
US5884098A (en) RAID controller system utilizing front end and back end caching systems including communication path connecting two caching systems and synchronizing allocation of blocks in caching systems
JP3422370B2 (en) Disk cache controller
US9921973B2 (en) Cache management of track removal in a cache for storage
US5996047A (en) Method and apparatus for caching file control information corresponding to a second file block in a first file block
US6286080B1 (en) Advanced read cache emulation
US20080055323A1 (en) Systems and methods for reducing latency for accessing compressed memory using stratified compressed memory architectures and organization
JPH06236322A (en) Cache system for disk array
US7552282B1 (en) Method, computer readable medium, and data storage system for selective data replication of cached data
US7047390B2 (en) Method, system, and program for managing a relationship between one target volume and one source volume
JP3065518B2 (en) Cache memory management method and system using multiple hash functions
US6304946B1 (en) System and method for optimizing cache write backs to disks
US6782444B1 (en) Digital data storage subsystem including directory for efficiently providing formatting information for stored records
CN116194900A (en) Cache technology
US6629199B1 (en) Digital data storage system including directory for efficiently providing formatting information for stored records and utilization of a check value for verifying that a record is from a particular storage location
US7047378B2 (en) Method, system, and program for managing information on relationships between target volumes and source volumes when performing adding, withdrawing, and disaster recovery operations for the relationships
US5900009A (en) System and method for accessing records in a cache slot which are associated with a current owner storage element or at least one previous owner storage element
US7945724B1 (en) Non-volatile solid-state memory based adaptive playlist for storage system initialization operations