JP2002149492A - Method for controlling cache memory and storage sub- system - Google Patents

Method for controlling cache memory and storage sub- system

Info

Publication number
JP2002149492A
JP2002149492A JP2000341054A JP2000341054A JP2002149492A JP 2002149492 A JP2002149492 A JP 2002149492A JP 2000341054 A JP2000341054 A JP 2000341054A JP 2000341054 A JP2000341054 A JP 2000341054A JP 2002149492 A JP2002149492 A JP 2002149492A
Authority
JP
Japan
Prior art keywords
data
management information
cache memory
priority
cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000341054A
Other languages
Japanese (ja)
Inventor
Masaru Tsukada
大 塚田
Toshinori Sakaki
豪紀 榊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000341054A priority Critical patent/JP2002149492A/en
Publication of JP2002149492A publication Critical patent/JP2002149492A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To maintain the hit rate of specified prior data highly regardless of the rate of a cache memory capacity to the data capacity of a whole storage device. SOLUTION: In a disk sub-system 102 interposed between a central processing unit 101 and a disk drive 103, a priority queue area 108 whose capacity is made variable and set to an upper limit value 111 and a general queue area 109 are set in a queue management table 107 of a cache control part 106 which manages the cache memory 105, and the management of the priority data whose priority is high in the cache memory 105 is operated in a priority queue area 108, and the management of the other general data is operated in the general queue area 109 so that the residence time of the priority data in the cache memory 105 can be made longer than that of the general data. Thus, it is possible to maintain the hit rate of the priority data highly regardless of the rate of the storage capacity of a disk drive 103.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、キャッシュメモリ
の制御技術および記憶サブシステムに関し、特に、キャ
ッシュメモリを備えた記憶サブシステムやデータ処理シ
ステム等に適用して有効な技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control technique for a cache memory and a storage subsystem, and more particularly to a technique effective when applied to a storage subsystem or a data processing system having a cache memory.

【0002】[0002]

【従来の技術】たとえば、中央処理装置の配下で稼働す
る外部記憶装置の一種であるディスクサブシステムに於
いては、データ転送性能の向上のためにキャッシュメモ
リを備えることが一般的になっており、データ処理性能
はキャッシュ・ミスによるディスクドライブへのアクセ
スが発生することにより大きく低下する。データ処理性
能向上には、キャッシュ・ヒット率向上が一手段として
挙げられる。また、キャッシュ・ヒット率向上を実現す
るための手段として、キャッシュメモリの増設が挙げら
れる。しかし、近年、データ処理システムの記憶容量が
飛躍的に増加しているのに比べ、システムに実装出来る
キャッシュメモリ容量の増加率は低く、システム容量に
対するキャッシュメモリ容量の割合は低下してきてい
る。また今後もこの割合は低下していくものと思われ
る。
2. Description of the Related Art For example, a disk subsystem, which is a kind of external storage device operated under the control of a central processing unit, is generally provided with a cache memory for improving data transfer performance. In addition, data processing performance is greatly reduced due to access to a disk drive due to a cache miss. One way to improve data processing performance is to improve the cache hit ratio. Further, as a means for realizing an improvement in the cache hit ratio, an increase in a cache memory can be mentioned. However, in recent years, while the storage capacity of the data processing system has increased dramatically, the rate of increase in the cache memory capacity that can be implemented in the system is low, and the ratio of the cache memory capacity to the system capacity is decreasing. It is expected that this percentage will decrease in the future.

【0003】現在、キャッシュメモリ上のデータは一般
的には、LRU(Least Recently Us
ed)方式を用いた一つの管理テーブルによって管理さ
れている。
At present, data in a cache memory is generally stored in LRU (Least Recently Used).
ed) It is managed by one management table using the method.

【0004】[0004]

【発明が解決しようとする課題】しかし、この一つの管
理テーブルによるLRU管理方式での中央処理装置から
アクセス要求されたデータのキャッシュ・ヒット率は、
アクセス頻度に比例した値にしかならない。しかも、前
述した様なシステム全体の大容量化による処理データ量
の増加に伴い、データ間でのキャッシュメモリの使用競
争率が高くなることにより、アクセス頻度の高いデータ
でも容易にキャッシュメモリ上から消えてしまい、キャ
ッシュ・ミスによるデータ処理性能の低下を招く恐れが
ある。
However, the cache hit ratio of data requested to be accessed by the central processing unit in the LRU management system using this one management table is as follows.
The value can only be proportional to the access frequency. In addition, as the processing data amount increases due to the increase in the capacity of the entire system as described above, the competition rate of use of the cache memory between data increases, so that even frequently accessed data can easily be erased from the cache memory. This may cause a reduction in data processing performance due to a cache miss.

【0005】また特開平6−168075号公報の様
に、ディスクアレイ装置の記憶領域の一部に、いわゆる
ライトペナルティなしで高速なデータ書き込みが可能な
単純二重書きのための特定領域を確保するとともに、指
定された高速処理を必要とする当該特定領域のデータ容
量と同サイズの特定領域をキャッシュメモリ上に確保
し、その領域を指定データ専用とすることで、指定デー
タを常に100%のキャッシュ・ヒット率で処理するこ
とを目的とした制御方式の提案がされている。
Further, as disclosed in Japanese Patent Application Laid-Open No. Hei 6-168075, a specific area for simple double writing capable of high-speed data writing without a so-called write penalty is secured in a part of a storage area of a disk array device. At the same time, a specified area having the same size as the data capacity of the specified area that requires the specified high-speed processing is secured in the cache memory, and the area is exclusively used for the specified data. -There has been proposed a control method for processing at a hit rate.

【0006】しかし、この方式ではキャッシュメモリ上
の特定領域容量と高速処理を必要とするデータ容量は、
1:1に限定されるため、100%のキャッシュ・ヒッ
ト率が得られるものの、指定出来るデータ容量は実装キ
ャッシュメモリサイズにより制限されてしまう。
However, in this method, the capacity of a specific area on the cache memory and the data capacity requiring high-speed processing are:
Since it is limited to 1: 1, a cache hit ratio of 100% can be obtained, but the data capacity that can be specified is limited by the mounted cache memory size.

【0007】本発明の目的は、データ総量に対するキャ
ッシュメモリ容量の相対的な減少に影響されることな
く、優先度の高いデータの高いキャッシュ・ヒット率を
維持することで、キャッシュメモリを備えたシステムの
データ処理性能を向上させることにある。
An object of the present invention is to maintain a high cache hit ratio of high-priority data without being affected by a relative decrease in the cache memory capacity with respect to the total amount of data. To improve the data processing performance.

【0008】本発明の他の目的は、処理の優先度の異な
るデータ毎に優先度に応じた最適なキャッシュ・ヒット
率を実現することにある。
Another object of the present invention is to realize an optimum cache hit ratio according to the priority for each data having a different processing priority.

【0009】本発明の他の目的は、高速データ処理を必
要とするデータを長期間キャッシュメモリ上に保持する
様にキャッシュメモリを管理することでキャッシュ・ヒ
ット率の向上を図り、キャッシュ・ミスに因るデータ処
理性能の低下を最小限に抑えることにより高速データ処
理を実現することにある。
Another object of the present invention is to improve the cache hit ratio by managing the cache memory so that data requiring high-speed data processing is retained in the cache memory for a long period of time, thereby improving the cache hit rate. An object of the present invention is to realize high-speed data processing by minimizing a decrease in data processing performance due to the above.

【0010】本発明の他の目的は、キャッシュメモリ上
の優先データ容量と高速データ処理を必要とするデータ
容量を1:1〜1:Nの間で可変に実現することによ
り、可用性の高い大容量データ処理システムの構築を実
現することにある。
Another object of the present invention is to realize a high-availability large data capacity by variably realizing a priority data capacity in a cache memory and a data capacity requiring high-speed data processing between 1: 1 and 1: N. It is to realize construction of a capacity data processing system.

【0011】[0011]

【課題を解決するための手段】本発明は、第1装置と第
2装置との間に介在し、第1装置と第2装置との間で授
受されるデータが一時的に格納されるキャッシュメモリ
の制御方法において、キャッシュメモリを管理するキャ
ッシュ管理情報を少なくとも二つの第1および第2管理
情報に区分し、データの優先度の高低に応じて、複数の
第1および第2管理情報を使い分けることで、より優先
度の高いデータのキャッシュメモリ内における滞在時間
をより長くするものである。
According to the present invention, there is provided a cache which is interposed between a first device and a second device and temporarily stores data transmitted and received between the first device and the second device. In the memory control method, cache management information for managing a cache memory is divided into at least two pieces of first and second management information, and a plurality of pieces of first and second management information are selectively used according to the priority of data. Thereby, the staying time of the higher priority data in the cache memory is made longer.

【0012】また、本発明は、記憶装置と、記憶装置と
上位装置との間におけるデータの授受を制御するととも
に、データが一時的に格納されるキャッシュメモリを備
えた記憶制御装置と、を含む記憶サブシステムにおい
て、キャッシュメモリを管理するキャッシュ管理情報を
少なくとも二つの第1および第2管理情報に区分し、デ
ータの優先度の高低に応じて、複数の第1および第2管
理情報を使い分けることで、より優先度の高いデータの
キャッシュメモリ内における滞在時間をより長くする制
御論理を備えたものである。
Further, the present invention includes a storage device, and a storage control device which controls transmission and reception of data between the storage device and a higher-level device and has a cache memory for temporarily storing data. In the storage subsystem, the cache management information for managing the cache memory is divided into at least two pieces of first and second management information, and a plurality of pieces of the first and second management information are selectively used according to the priority of data. And a control logic for extending the staying time of higher priority data in the cache memory.

【0013】より具体的には、一例として、本発明で
は、システム利用者によって設定された優先データに対
し中央処理装置からディスクサブシステム等の記憶サブ
システムにアクセス要求があると、ディスクサブシステ
ムのキャッシュ制御部内にあるキュー管理テーブル全体
を対象としてアクセス要求された優先データのキャッシ
ュ・ヒット/ミス判定をした後、判定に基づいたデータ
転送処理を行い、また同時に優先データのセグメント位
置情報をキャッシュ制御部内の優先キューエリアへLR
U方式により登録する。一方、一般データへのアクセス
要求に対しては、キャッシュ制御部内のキュー管理テー
ブル内の一般キューエリアのみを対象としてキャッシュ
・ヒット/ミス判定をした後、判定に基づいたデータ転
送処理を行い、また同時に一般データのセグメント位置
情報をキャッシュ制御部内のキュー管理テーブル内の一
般キューエリアへLRU方式により登録する。
More specifically, as an example, according to the present invention, when there is an access request from the central processing unit to the storage subsystem such as the disk subsystem for the priority data set by the system user, the disk subsystem After performing a cache hit / miss determination of priority data requested to be accessed for the entire queue management table in the cache control unit, a data transfer process based on the determination is performed, and at the same time, the segment position information of the priority data is cache-controlled. LR to priority queue area in department
Register by U method. On the other hand, in response to an access request to general data, a cache hit / miss determination is performed only for the general queue area in the queue management table in the cache control unit, and a data transfer process based on the determination is performed. At the same time, the segment position information of the general data is registered in the general queue area in the queue management table in the cache control unit by the LRU method.

【0014】また、システム利用者により優先基準が設
定された場合においては、ディスクサブシステム内のキ
ャッシュ制御部により、キャッシュ・ヒットした優先基
準を満たすデータのアクセス周期を元に中央処理装置か
ら要求されるデータの中からアクセス頻度の高いデータ
を抽出し、優先データとして当該データのセグメント位
置情報を優先キューエリアにLRU方式により登録する
ことでキャッシュ・ヒット率の向上を図り、高速データ
処理可能なデータ処理システムを実現する。
When a priority standard is set by the system user, the cache control unit in the disk subsystem requests the cache processing unit from the central processing unit based on an access cycle of data satisfying the priority standard. Data that can be accessed at high frequency is extracted from the data that has high access frequency, and the segment position information of the data is registered as priority data in the priority queue area by the LRU method, thereby improving the cache hit rate and enabling high-speed data processing. Implement a processing system.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照しながら詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0016】図1は、本発明の一実施の形態であるキャ
ッシュメモリの制御方法を実施する記憶サブシステムの
一例であるディスクサブシステムを含むデータ処理シス
テムの構成の一例を示す概念図である。
FIG. 1 is a conceptual diagram showing an example of the configuration of a data processing system including a disk subsystem which is an example of a storage subsystem for implementing a cache memory control method according to an embodiment of the present invention.

【0017】本実施の形態のデータ処理システムは、デ
ータ処理を行うとともに入出力インタフェース制御部1
01aを介して外部装置とのデータ入出力を行う中央処
理装置(CPU)101、このCPU101と配下のデ
ィスクドライブ103との間におけるデータ転送処理の
制御を行うディスクサブシステム102とを含んでい
る。
The data processing system according to the present embodiment performs data processing and performs input / output interface control 1
The CPU 101 includes a central processing unit (CPU) 101 for inputting / outputting data to / from an external device via an external device 01a, and a disk subsystem 102 for controlling data transfer processing between the CPU 101 and a subordinate disk drive 103.

【0018】ディスクサブシステム102は、入出力イ
ンタフェース制御部101a、チャネルI/F制御部1
04aを介したCPU101からディスクドライブ10
3へのデータ転送要求を処理するデータ処理制御部10
4、ディスクドライブ103とCPU101との間で授
受されるデータを一時的に保持するキャッシュメモリ1
05、及び、キャッシュメモリ105へのデータ入出力
を制御するキャッシュ制御部106で構成されている。
The disk subsystem 102 includes an input / output interface control unit 101a, a channel I / F control unit 1
04a to the disk drive 10
Data processing control unit 10 that processes a data transfer request to
4. Cache memory 1 for temporarily storing data exchanged between disk drive 103 and CPU 101
05, and a cache control unit 106 that controls data input / output to / from the cache memory 105.

【0019】また、キャッシュ制御部106には、キャ
ッシュメモリ105に格納されるデータを管理するため
のキュー管理テーブル107とスロット情報管理テーブ
ル110が含まれている。
The cache control unit 106 includes a queue management table 107 for managing data stored in the cache memory 105 and a slot information management table 110.

【0020】本実施の形態の場合、キュー管理テーブル
107内には優先キューエリア108と一般キューエリ
ア109が設けられており、各エリアは別々にキュー管
理され、LRU方式により、キャッシュメモリ105へ
のデータの入出力を制御している。また、システム利用
者により優先データ容量の上限値111が設定されるま
では、キャッシュメモリ105は一般キューエリア10
9で管理される。
In the case of the present embodiment, a priority queue area 108 and a general queue area 109 are provided in the queue management table 107, and each area is separately queue-managed. Controls data input / output. Until the system user sets the upper limit value 111 of the priority data capacity, the cache memory 105 stores the general queue area 10.
9 is managed.

【0021】すなわち、図5のフローチャートに例示さ
れるように、ディスクサブシステム102を外部から制
御する図示しないサービスプロセッサや、CPU101
から発行される優先使用指定コマンドを当該ディスクサ
ブシステム102が受領すると(ステップ501)、当
該コマンドに優先データ容量の上限値111を指定する
データが含まれているか否かを判別し(ステップ50
2)、含まれている場合には、優先データ容量の上限値
111を設定あるいは更新する(ステップ503)。こ
の時、優先データ容量の上限値111をゼロにすれば、
優先キューエリア108の容量はゼロとなり、一般キュ
ーエリア109のみによる通常のキャッシュ制御が行わ
れることとなり、ゼロ以外であれば、優先キューエリア
108が有効となって、後述のような優先データのキャ
ッシュメモリ105での滞在時間を長くしてヒット率を
より高く維持する制御が行われることになる。
That is, as shown in the flowchart of FIG. 5, a service processor (not shown) for controlling the disk subsystem 102 from the outside, a CPU 101
When the disk subsystem 102 receives the preferential use designation command issued from (step 501), it is determined whether or not the command includes data designating the upper limit value 111 of the preferential data capacity (step 50).
2) If it is included, the upper limit value 111 of the priority data capacity is set or updated (step 503). At this time, if the upper limit value 111 of the priority data capacity is set to zero,
The capacity of the priority queue area 108 becomes zero, and normal cache control is performed only by the general queue area 109. If the capacity is other than zero, the priority queue area 108 becomes effective and the priority data cache Control is performed to increase the stay time in the memory 105 and maintain the hit rate higher.

【0022】さらに、当該コマンドに優先データの指定
情報が含まれているか否か判別し(ステップ504)、
含まれている場合には、優先データとして扱うべきデー
タが格納されているディスクドライブ103の特定のド
ライブ番号、論理アドレス範囲、等の指定情報を、キャ
ッシュ制御部106の図示しない制御メモリに記憶し
(ステップ505)、CPU101からのアクセス要求
のデータが当該条件に合致するか否かで、後述のような
優先データか一般データかを判別する処理が行われる。
Further, it is determined whether or not the command includes information for designating priority data (step 504).
If it is included, the specific information such as the specific drive number and logical address range of the disk drive 103 storing the data to be handled as priority data is stored in a control memory (not shown) of the cache control unit 106. (Step 505) Processing is performed to determine whether the data is priority data or general data, as described below, based on whether the data of the access request from the CPU 101 matches the condition.

【0023】まず初めに、システム利用者が優先データ
を設定した場合のデータ転送処理の概略を図1を用いて
説明する。
First, an outline of data transfer processing when a system user sets priority data will be described with reference to FIG.

【0024】CPU101からの優先データ要求に対し
てデータ処理制御部104はキャッシュ制御部106内
のキュー管理テーブル107内を検索し、キャッシュ・
ヒットの場合においては、データ処理制御部104はキ
ャッシュメモリ105上のデータを用いてデータ転送処
理を行い、同時にキュー管理テーブル107の優先キュ
ーエリア108へセグメント位置情報をLRU方式によ
り登録する。キャッシュ・ミスの場合においては、要求
のあった優先データをディスクドライブ103からロー
ディングして、キャッシュメモリ105に書き込み、優
先キューエリア108へセグメント位置情報をLRU方
式により登録する。
In response to a priority data request from the CPU 101, the data processing control unit 104 searches the queue management table 107 in the cache control unit 106 and
In the case of a hit, the data processing control unit 104 performs data transfer processing using the data in the cache memory 105, and simultaneously registers the segment position information in the priority queue area 108 of the queue management table 107 by the LRU method. In the case of a cache miss, the requested priority data is loaded from the disk drive 103, written to the cache memory 105, and the segment position information is registered in the priority queue area 108 by the LRU method.

【0025】CPU101からの一般データ要求に対し
てデータ処理制御部104はキャッシュ制御部106内
のキュー管理テーブル107内の一般キューエリア10
9を検索し、キャッシュ・ヒットの場合においては、デ
ータ処理制御部104はキャッシュメモリ105上のデ
ータを用いてデータ転送処理を行い、同時にセグメント
位置情報を一般キューエリア109へLRU方式により
登録する。キャッシュ・ミスにおいては、キャッシュメ
モリ105に空きセグメントがあるかチェックし、空き
セグメントがある場合に於いては、一般キューエリア1
09へセグメント位置情報をLRU方式により登録し、
空きセグメントがない場合に於いては、キャッシュメモ
リ105上から破棄するデータのセグメント位置情報を
一般キューエリアからLRU方式により選別・破棄し、
その後、要求された一般データをディスクドライブ10
3からキャッシュメモリ105上にローディング(複
写)し、セグメント位置情報を一般キューエリア109
へLRU方式により登録する。
In response to a general data request from the CPU 101, the data processing control unit 104 operates the general queue area 10 in the queue management table 107 in the cache control unit 106.
In the case of a cache hit, the data processing control unit 104 performs data transfer processing using the data in the cache memory 105, and simultaneously registers the segment position information in the general queue area 109 by the LRU method. In the case of a cache miss, it is checked whether there is an empty segment in the cache memory 105. If there is an empty segment, the general queue area 1
09, the segment position information is registered by the LRU method,
If there is no empty segment, the segment position information of the data to be discarded from the cache memory 105 is selected and discarded from the general queue area by the LRU method,
Thereafter, the requested general data is transferred to the disk drive 10.
3 is loaded (copied) onto the cache memory 105, and the segment position information is stored in the general queue area 109.
Is registered by the LRU method.

【0026】本実施の形態における、優先データ要求時
のキャッシュ・ヒット/ミス時の処理の流れ及び、キュ
ー遷移を、図3のフローチャートを用いて説明する。な
お、この場合、優先データか否かの判別は、予めシステ
ム利用者が設定した条件(たとえば、そのデータのディ
スクドライブ103における格納論理アドレスが指定の
アドレス範囲か否か、特定のディスクドライブに格納さ
れているデータか否か等)に当該データが合致するか否
かによって判別される。
The flow of processing at the time of a cache hit / miss at the time of a priority data request and the transition of a queue in this embodiment will be described with reference to the flowchart of FIG. In this case, whether the data is priority data or not is determined by a condition set in advance by the system user (for example, whether the storage logical address of the data in the disk drive 103 is within a specified address range, whether the data is stored in a specific disk drive). Is determined based on whether or not the data matches the data.

【0027】CPU101からの優先データ要求(ステ
ップ301)を受けて、キャッシュ・ヒット/ミス判定
(ステップ302)が行われ、キャッシュ・ヒットの場
合に於いては、一般キューエリア109または優先キュ
ーエリア108のどちらでのキャッシュ・ヒットかの判
定が行われ(ステップ310)、優先キューエリア10
8でのキャッシュ・ヒットの場合に於いては、優先キュ
ーエリア108に要求された優先データのセグメント位
置情報をLRU方式により登録し(ステップ311)、
一般キューエリア109でのキャッシュ・ヒットの場合
においては、さらに優先キューエリア108に空きがあ
るかの判定を行い(ステップ307)、空きがある場合
においては、優先キューエリア108に要求された優先
データのセグメント位置情報をLRU方式により登録し
(ステップ311)、優先キューエリア108に空きが
ない場合においては、一般キューエリア109へ移動す
るデータのセグメント位置情報を優先キューエリア10
8からLRU方式により選別し(ステップ308)、一
般キューエリア109の先頭へ登録し(ステップ30
9)、優先キューエリア108に、要求された優先デー
タのセグメント位置情報をLRU方式により登録し(ス
テップ311)、データ転送処理(ステップ312)を
行って処理終了となる。
In response to a priority data request (step 301) from the CPU 101, a cache hit / miss determination (step 302) is performed. In the case of a cache hit, the general queue area 109 or the priority queue area 108 (Step 310), and the priority queue area 10
8, in the case of a cache hit, the segment position information of the requested priority data is registered in the priority queue area 108 by the LRU method (step 311).
In the case of a cache hit in the general queue area 109, it is further determined whether or not there is free space in the priority queue area 108 (step 307). Is registered by the LRU method (step 311). If there is no free space in the priority queue area 108, the segment position information of the data to be moved to the general queue area 109 is stored in the priority queue area 10 (step 311).
8 is selected by the LRU method (step 308) and registered at the head of the general queue area 109 (step 30).
9) The segment position information of the requested priority data is registered in the priority queue area 108 by the LRU method (step 311), and the data transfer processing (step 312) is performed, and the processing is completed.

【0028】キャッシュ・ミスの場合においては、キャ
ッシュメモリ105に空きセグメントがあるかを判定し
(ステップ303)、空きセグメントがある場合におい
ては、要求された優先データをディスクドライブ103
からローディングし、キャッシュメモリ105に書き込
む(ステップ306)。しかし、キャッシュメモリ10
5に空きセグメントがない場合においては、キャッシュ
メモリ105上から破棄するデータを一般キューエリア
109からLRU方式により選別し(ステップ30
4)、選別したデータのセグメント位置情報を一般キュ
ーエリア109から削除し(ステップ305)、要求さ
れた優先データをディスクドライブ103からローディ
ングし、キャッシュメモリ105上に書き込む(ステッ
プ306)。同時に、優先キューエリア108に空きが
あるかの判定を行い(ステップ307)、空きがある場
合においては、優先キューエリア108に要求された優
先データのセグメント位置情報をLRU方式により登録
し(ステップ311)、優先キューエリア108に空き
がない場合においては、一般キューエリア109へ移動
するデータのセグメント位置情報を優先キューエリア1
08からLRU方式により選別(ステップ308)し
て、一般キューエリア109の先頭に移動し(ステップ
309)、優先キューエリア108に要求された優先デ
ータのセグメント位置情報をLRU方式により登録し
(ステップ311)、データ転送処理(ステップ31
2)を行って処理終了となる。
In the case of a cache miss, it is determined whether there is an empty segment in the cache memory 105 (step 303). If there is an empty segment, the requested priority data is transferred to the disk drive 103.
, And writes it to the cache memory 105 (step 306). However, the cache memory 10
In the case where there is no empty segment in No. 5, data to be discarded from the cache memory 105 is selected from the general queue area 109 by the LRU method (step 30).
4) The segment position information of the selected data is deleted from the general queue area 109 (step 305), the requested priority data is loaded from the disk drive 103, and written on the cache memory 105 (step 306). At the same time, it is determined whether there is a free space in the priority queue area 108 (step 307). If there is a free space, the segment position information of the requested priority data in the priority queue area 108 is registered by the LRU method (step 311). If there is no free space in the priority queue area 108, the segment position information of the data to be moved to the general queue area 109 is stored in the priority queue area 1
08 is selected by the LRU method (step 308), moved to the head of the general queue area 109 (step 309), and the segment position information of the requested priority data is registered in the priority queue area 108 by the LRU method (step 311). ), Data transfer processing (step 31)
2) is performed, and the process ends.

【0029】次に、本実施の形態のディスクサブシステ
ムが、優先データを自動的に判断する場合についてのデ
ータ処理の概略を図1、及び図2を用いて説明する。図
2は、キャッシュ制御部106内のスロット情報管理テ
ーブル201のデータ構造の一例を示しており、スロッ
ト(セグメント)に対応した数のスロット情報202を
持つ。また、スロット情報202は、タイムエリア20
3とカウントエリア204の情報を持つ。
Next, an outline of data processing when the disk subsystem of this embodiment automatically determines priority data will be described with reference to FIGS. 1 and 2. FIG. FIG. 2 shows an example of the data structure of the slot information management table 201 in the cache control unit 106, which has a number of slot information 202 corresponding to the number of slots (segments). Further, the slot information 202 includes the time area 20
3 and information of the count area 204.

【0030】優先キューエリア108が優先データ容量
の上限値111に達していない場合においては、CPU
101からアクセス要求のあったデータ(以下、要求デ
ータ)のセグメント位置情報は、キャッシュ・ヒット/
ミスに関わらず、優先キューエリア108の先頭に登録
され、優先データとして扱われる。さらに登録されたセ
グメント位置に対応するスロット情報管理テーブル20
1内のスロット情報202のタイムエリア203に現在
時刻を表す値を入れ、カウントエリア204の値(カウ
ント値204a)をゼロクリアする。上記処理は、優先
キューエリア108が優先データ容量の上限値111に
達するまで繰り返される。
If the priority queue area 108 has not reached the upper limit 111 of the priority data capacity, the CPU
The segment position information of the data for which an access request has been made from 101 (hereinafter referred to as “request data”) has a cache hit /
Regardless of the mistake, it is registered at the head of the priority queue area 108 and is treated as priority data. Further, the slot information management table 20 corresponding to the registered segment positions
The value indicating the current time is put in the time area 203 of the slot information 202 in 1 and the value of the count area 204 (the count value 204a) is cleared to zero. The above process is repeated until the priority queue area 108 reaches the upper limit value 111 of the priority data capacity.

【0031】優先キューエリア108が優先データ容量
の上限値111に達している場合に於いて、要求データ
が一般キューエリア109でキャッシュ・ヒットした場
合においては、要求データに対応するスロット情報20
2内のカウントエリア204のカウント値204aをイ
ンクリメントし、このカウント値204aと優先データ
閾値N(以下、閾値)とを比較する。
When the requested data hits the cache in the general queue area 109 when the priority queue area 108 has reached the upper limit value 111 of the priority data capacity, the slot information 20 corresponding to the requested data is obtained.
The count value 204a of the count area 204 in 2 is incremented, and this count value 204a is compared with a priority data threshold N (hereinafter, threshold).

【0032】カウント値204aが閾値を超える場合に
おいては、スロット情報202内のタイムエリア203
の値と現在時刻、カウント値204aからアクセス周期
(T)を求め、さらに優先キューエリア108から一般
キューエリア109に移動する予定の優先データをLR
U方式により選別し、この優先データに対応するスロッ
ト情報202から前述処理同様にアクセス周期(t)を
求めて比較し、要求データのアクセス周期(T)が優先
データのアクセス周期(t)よりも短い場合において
は、要求データのセグメント位置情報を優先キューエリ
ア108にLRU方式により登録し、先程選別された優
先データのセグメント位置情報を一般キューエリア10
9へLRU方式により登録する。また、一般キューエリ
ア109に登録したセグメント位置情報に対応するスロ
ット情報202のタイムエリア203には現在時刻を表
す値を入れ、カウント値204aをゼロクリアする。逆
に、要求データのアクセス周期(T)が優先データのア
クセス周期(t)よりも長い場合においては、要求デー
タのセグメント位置情報を一般キューエリア109へL
RU方式により登録し、対応するスロット情報のタイム
エリア203に現在時刻を表す値を入れ、カウント値2
04aをゼロクリアする。
When the count value 204a exceeds the threshold value, the time area 203 in the slot information 202
, The current time, and the count value 204a to determine the access period (T), and furthermore, the priority data scheduled to be moved from the priority queue area 108 to the general queue area 109 is LR.
In the U method, the access period (t) is obtained from the slot information 202 corresponding to the priority data and the access period (t) is obtained and compared in the same manner as described above. In the short case, the segment position information of the request data is registered in the priority queue area 108 by the LRU method, and the segment position information of the priority data selected earlier is stored in the general queue area 10.
9 by the LRU method. Also, a value indicating the current time is entered in the time area 203 of the slot information 202 corresponding to the segment position information registered in the general queue area 109, and the count value 204a is cleared to zero. Conversely, when the access period (T) of the request data is longer than the access period (t) of the priority data, the segment position information of the request data is transferred to the general queue area 109 by the L.
Registered by the RU method, a value indicating the current time is put in the time area 203 of the corresponding slot information, and the count value 2
04a is cleared to zero.

【0033】カウント値204aが閾値以下である場合
においては、要求データのセグメント位置情報を一般キ
ューエリア109へLRU方式により登録する。
When the count value 204a is equal to or less than the threshold value, the segment position information of the request data is registered in the general queue area 109 by the LRU method.

【0034】要求データが優先キューエリア108でキ
ャッシュ・ヒットした場合においては、スロット情報2
02のカウント値204aをインクリメントし、セグメ
ント位置情報を優先キューエリア108へLRU方式に
より登録する。
If the request data has a cache hit in the priority queue area 108, the slot information 2
The count value 204a of 02 is incremented, and the segment position information is registered in the priority queue area 108 by the LRU method.

【0035】キャッシュ・ミスの場合においては、セグ
メント位置情報を一般キューエリア109へLRU方式
により登録し、対応するスロット情報202のタイムエ
リア203に現在時刻を表す値を入れ、カウント値20
4aをゼロクリアする。
In the case of a cache miss, the segment position information is registered in the general queue area 109 by the LRU method, the value indicating the current time is entered in the time area 203 of the corresponding slot information 202, and the count value 20
4a is cleared to zero.

【0036】また、優先キューエリア108のセグメン
ト位置情報に対応したスロット情報202は、周期Tで
タイムエリア203を更新しカウント値204aをゼロ
クリアすることにより、優先データのアクセス周期情報
をアクセス状況の変化に対応させることが出来る。
The slot information 202 corresponding to the segment position information of the priority queue area 108 updates the time area 203 at the cycle T and clears the count value 204a to zero, thereby changing the access cycle information of the priority data to the change of the access state. Can be made to correspond.

【0037】上述のような優先データの自動判別処理の
詳細例を、図4のフローチャートに示す。以下、図4の
フローチャートについて簡単に説明をする。
A detailed example of the above-described automatic determination processing of priority data is shown in the flowchart of FIG. Hereinafter, the flowchart of FIG. 4 will be briefly described.

【0038】要求データを受領した時、優先データ容量
の上限値111がゼロ以外で優先キューエリア108が
存在し、優先データの自動判別処理をすべきか否かを判
定し(ステップ401)、優先データを自動判別処理し
ない場合においては一般キューエリア109へセグメン
ト位置情報を格納し(ステップ402)、データ転送処
理(ステップ428)を行い処理終了となる。
When the request data is received, it is determined whether or not the upper limit value 111 of the priority data capacity is other than zero and the priority queue area 108 exists, and whether or not the priority data should be automatically determined (step 401). Is not automatically discriminated, the segment position information is stored in the general queue area 109 (step 402), the data transfer process (step 428) is performed, and the process ends.

【0039】優先データ容量の上限値111がゼロ以外
で優先キューエリア108が有効に設定され、優先デー
タを自動判別して処理すべき場合において、要求データ
のキャッシュ・ヒット/ミス判定(ステップ403)に
よりキャッシュ・ミスとなった場合においては、要求デ
ータは一般データであると判断し、要求データをキャッ
シュメモリ105にローディング(ステップ404)し
た後、スロット情報202のタイムエリア203に現在
時刻を表す値を入れ(ステップ405)、カウントエリ
ア204のカウント値204aをクリアし(ステップ4
06)、優先キューエリア108の空き状態により(ス
テップ407)、優先キューエリア108または一般キ
ューエリア109にセグメント位置情報を登録し(ステ
ップ408、ステップ409)、データ転送処理を行う
(ステップ428)。
When the upper limit value 111 of the priority data capacity is not zero and the priority queue area 108 is set to be valid and priority data is to be automatically determined and processed, a cache hit / miss determination of request data (step 403). In the case where a cache miss has occurred, the request data is determined to be general data, the request data is loaded into the cache memory 105 (step 404), and the value indicating the current time is stored in the time area 203 of the slot information 202. Is entered (step 405), and the count value 204a of the count area 204 is cleared (step 4).
06), the segment position information is registered in the priority queue area 108 or the general queue area 109 according to the empty state of the priority queue area 108 (step 407) (steps 408 and 409), and the data transfer processing is performed (step 428).

【0040】キャッシュ・ヒットした場合においては、
キャッシュ・ヒットしたキューエリアを判定し(ステッ
プ410)、優先キューエリア108でキャッシュ・ヒ
ットした場合においては、スロット情報202のカウン
トエリア204のカウント値204aをインクリメント
し(ステップ426)、優先キューエリア108をLR
U方式により更新した後(ステップ427)、データ転
送処理を行う(ステップ428)。
In the case of a cache hit,
The queue area in which a cache hit has occurred is determined (step 410). If a cache hit has occurred in the priority queue area 108, the count value 204a of the count area 204 of the slot information 202 is incremented (step 426), and the priority queue area 108 To LR
After updating by the U method (step 427), a data transfer process is performed (step 428).

【0041】一般キューエリア109でキャッシュ・ヒ
ットした場合においては、スロット情報202のカウン
ト値204aをインクリメントし(ステップ415)、
このカウント値(a)が閾値を超えるかの判定を行い
(ステップ416)、超えない場合は一般キューエリア
109にセグメント位置情報を登録し(ステップ42
5)、データ転送処理を行う(ステップ428)。
When a cache hit occurs in the general queue area 109, the count value 204a of the slot information 202 is incremented (step 415).
It is determined whether or not the count value (a) exceeds the threshold value (step 416). If not, the segment position information is registered in the general queue area 109 (step 42).
5) Perform data transfer processing (step 428).

【0042】超えた場合は、更にタイムエリアの値と現
在時刻とカウント値204aからアクセス周期(T)を
求め(ステップ417)、さらに優先キューエリア10
8からLRU方式により破棄予定の優先データ(b)を
選別し(ステップ418)、選別した優先データ(b)
のアクセス周期(t)を上記と同様に求める(ステップ
419)。求めたこの二つのアクセス周期を比較し(ス
テップ420)、優先データ(b)のアクセス周期
(t)の方が短かった場合は、要求データのスロット情
報202のタイムエリア203に現在時刻を表す値を入
れ(ステップ423)、カウントエリア204のカウン
ト値204aをゼロクリアし(ステップ424)、セグ
メント位置情報を一般キューエリア109に登録し(ス
テップ425)、データ転送処理を行う(ステップ42
8)。
If it exceeds, the access cycle (T) is further obtained from the value of the time area, the current time and the count value 204a (step 417), and the priority queue area 10
8, priority data (b) to be discarded is selected by the LRU method (step 418), and the selected priority data (b)
Is obtained in the same manner as described above (step 419). The two access periods thus obtained are compared (step 420). If the access period (t) of the priority data (b) is shorter, a value indicating the current time is stored in the time area 203 of the slot information 202 of the request data. (Step 423), the count value 204a of the count area 204 is cleared to zero (step 424), the segment position information is registered in the general queue area 109 (step 425), and the data transfer process is performed (step 42).
8).

【0043】要求データのアクセス周期(T)の方が短
かった場合は、優先キューエリア108に要求データの
セグメント位置情報を登録し(ステップ421)、先程
選別した優先データ(b)のセグメント位置情報を一般
キューエリア109に登録し(ステップ422)、デー
タ転送処理を行う(ステップ428)。
If the access period (T) of the request data is shorter, the segment position information of the request data is registered in the priority queue area 108 (step 421), and the segment position information of the priority data (b) selected earlier is registered. Is registered in the general queue area 109 (step 422), and data transfer processing is performed (step 428).

【0044】以上説明したように、本実施の形態によれ
ば、キャッシュメモリ105の管理を行うキュー管理テ
ーブル107に、優先キューエリア108と、一般キュ
ーエリア109を区別して設定し、より高速処理が必要
とされる優先データは優先キューエリア108にて管理
することで滞在時間がより長くなるので、たとえば、デ
ィスクドライブ103の全体のデータ記憶容量と、キャ
ッシュメモリ105の容量との比率に影響されることな
く、特定の優先データのキャッシュメモリ105におけ
るヒット率を、他の一般データよりも高く維持できる。
換言すれば、データの優先度に応じて多様なヒット率の
維持管理を実現できる。
As described above, according to the present embodiment, the priority queue area 108 and the general queue area 109 are separately set in the queue management table 107 for managing the cache memory 105, so that higher-speed processing can be performed. The required priority data is managed in the priority queue area 108, so that the stay time becomes longer. For example, the ratio is affected by the ratio of the entire data storage capacity of the disk drive 103 to the capacity of the cache memory 105. Thus, the hit rate of the specific priority data in the cache memory 105 can be maintained higher than other general data.
In other words, various hit rates can be maintained and managed according to the priority of data.

【0045】この結果、ディスクサブシステムにおける
ディスクドライブ103の全体の記憶容量に対しキャッ
シュメモリ105の記憶容量が少ない場合や、大量のデ
ータ処理を行うシステムにおいても、システム利用者が
望むデータや、アクセス頻度の高いデータに対してのキ
ャッシュ・ヒット率を高めることが可能になる。
As a result, even when the storage capacity of the cache memory 105 is smaller than the entire storage capacity of the disk drive 103 in the disk subsystem, or in a system that performs a large amount of data processing, data desired by the system It is possible to increase the cache hit ratio for frequently-used data.

【0046】また、キャッシュメモリ105上の優先デ
ータ容量と高速データ処理を必要とするデータ容量比を
1:1〜1:Nの間で自由に設定することができ、可用
性の高い高性能大容量のディスクサブシステムを構築す
ることが可能となる。
Further, the ratio of the priority data capacity on the cache memory 105 to the data capacity requiring high-speed data processing can be freely set between 1: 1 and 1: N, and the high performance and large capacity with high availability Can be constructed.

【0047】本願の特許請求の範囲に記載された発明を
見方を変えて表現すれば以下の通りである。
The invention described in the claims of the present application is expressed in another way as follows.

【0048】<1> 中央処理装置とディスクサブシス
テムから構成されるデータ処理システムに於いて、中央
処理装置と接続され、中央処理装置からのアクセス要求
のあるデータを一時的に保持するキャッシュメモリとそ
れを制御するキャッシュ制御部と、データを格納するデ
ィスクドライブとで構成されるディスクサブシステムに
於いて、中央処理装置からアクセス要求されたデータの
中で、高速データ処理が求められるデータ(優先デー
タ)とその他のデータ(一般データ)のキャッシュメモ
リ上での管理をキャッシュ制御部で別々に行うことで、
優先データのキャッシュメモリ上での長期間保持を実現
することによりキャッシュ・ヒット率向上を図り、キャ
ッシュ・ミスによるディスクドライブへのアクセスを減
らすことで、高速データ処理を行なう機能を有すること
を特徴とするデータ処理システム。
<1> In a data processing system composed of a central processing unit and a disk subsystem, a cache memory which is connected to the central processing unit and temporarily holds data requested to be accessed by the central processing unit; In a disk subsystem composed of a cache control unit for controlling the data and a disk drive for storing data, of data requested to be accessed by the central processing unit, data requiring high-speed data processing (priority data) ) And other data (general data) on the cache memory are managed separately by the cache control unit.
It has a function to perform high-speed data processing by improving cache hit ratio by realizing long-term retention of priority data in cache memory and reducing access to disk drives due to cache misses. Data processing system.

【0049】<2> システム利用者により優先データ
が設定され、その設定された優先データが格納されてい
るキャッシュメモリ内の位置(セグメント位置)情報
を、キュー管理テーブル内の優先データのキュー管理エ
リア(優先キューエリア)で管理することを特徴とする
項目<1>に記載のデータ処理システム。
<2> The priority data is set by the system user, and the position (segment position) in the cache memory where the set priority data is stored is stored in the queue management area of the priority data in the queue management table. (1) The data processing system according to item <1>, wherein the data processing system is managed in (priority queue area).

【0050】<3> 中央処理装置から要求されるデー
タの中から、システム利用者の指定する優先基準に従い
要求頻度の高いデータをディスクサブシステムが自動的
に判断し、そのセグメント位置情報を優先キューエリア
に登録することを特徴とする項目<1>に記載のデータ
処理システム。
<3> Among the data requested from the central processing unit, the disk subsystem automatically determines data having a high request frequency according to the priority criteria specified by the system user, and stores the segment position information in the priority queue. The data processing system according to item <1>, wherein the data processing system is registered in an area.

【0051】<4> キャッシュメモリ容量に占める優
先データ容量の上限値をシステム利用者が決定すること
を特徴とする項目<1>に記載のデータ処理システム。
<4> The data processing system according to item <1>, wherein the system user determines an upper limit of the priority data capacity occupying the cache memory capacity.

【0052】<5> 設定された優先データ容量が優先
データ容量の上限値を超える場合に於いて、LRU方式
により優先キューから破棄される優先データのセグメン
ト位置情報を一般データのキュー管理エリア(一般キュ
ーエリア)の先頭に登録することを特徴とする項目<1
>に記載のデータ処理システム。
<5> When the set priority data capacity exceeds the upper limit of the priority data capacity, the segment position information of the priority data to be discarded from the priority queue by the LRU method is transferred to the general data queue management area (general data). Item <1 characterized by being registered at the head of the queue area)
> The data processing system described in the above.

【0053】以上本発明者によってなされた発明を実施
の形態に基づき具体的に説明したが、本発明は前記実施
の形態に限定されるものではなく、その要旨を逸脱しな
い範囲で種々変更可能であることはいうまでもない。
The invention made by the inventor has been specifically described based on the embodiments. However, the invention is not limited to the above-described embodiments, and can be variously modified without departing from the gist of the invention. Needless to say, there is.

【0054】たとえば、上述の説明では、キャッシュメ
モリにおけるデータの優先度を優先キューエリアと一般
キューエリアの2段階で管理する場合を例示したが、3
段階以上のキューエリアの設定および管理も本発明に含
まれる。
For example, in the above description, the case where the priority of data in the cache memory is managed in two stages of the priority queue area and the general queue area has been described.
The present invention includes the setting and management of the queue area at more than one stage.

【0055】[0055]

【発明の効果】本発明によれば、データ総量に対するキ
ャッシュメモリ容量の相対的な減少に影響されることな
く、優先度の高いデータの高いキャッシュ・ヒット率を
維持することで、キャッシュメモリを備えたシステムの
データ処理性能を向上させることができる、という効果
が得られる。
According to the present invention, a cache memory is provided by maintaining a high cache hit ratio of high-priority data without being affected by a relative decrease in the cache memory capacity with respect to the total data amount. And the data processing performance of the system can be improved.

【0056】本発明によれば、処理の優先度の異なるデ
ータ毎に優先度に応じた最適なキャッシュ・ヒット率を
実現することができる、という効果が得られる。
According to the present invention, an effect is obtained that an optimum cache hit ratio can be realized according to the priority for each data having different processing priority.

【0057】本発明によれば、高速データ処理を必要と
するデータを長期間キャッシュメモリ上に保持する様に
キャッシュメモリを管理することでキャッシュ・ヒット
率の向上を図り、キャッシュ・ミスに因るデータ処理性
能の低下を最小限に抑えることにより高速データ処理を
実現することができる、という効果が得られる。
According to the present invention, the cache hit rate is improved by managing the cache memory so that data requiring high-speed data processing is retained in the cache memory for a long period of time. An effect is obtained that high-speed data processing can be realized by minimizing a decrease in data processing performance.

【0058】本発明によれば、キャッシュメモリ上の優
先データ容量と高速データ処理を必要とするデータ容量
を1:1〜1:Nの間で可変に実現することにより、可
用性の高い大容量データ処理システムの構築を実現する
ことができる、という効果が得られる。
According to the present invention, the priority data capacity in the cache memory and the data capacity requiring high-speed data processing are variably realized in the range of 1: 1 to 1: N, so that large-capacity data with high availability can be obtained. The effect that the construction of the processing system can be realized is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態であるキャッシュメモリ
の制御方法を実施する記憶サブシステムの一例であるデ
ィスクサブシステムを含むデータ処理システムの構成の
一例を示す概念図である。
FIG. 1 is a conceptual diagram illustrating an example of a configuration of a data processing system including a disk subsystem as an example of a storage subsystem that implements a cache memory control method according to an embodiment of the present invention.

【図2】本発明の一実施の形態であるキャッシュメモリ
の制御方法を実施する記憶サブシステムにて持つ制御情
報の一例を示す概念図である。
FIG. 2 is a conceptual diagram showing an example of control information held in a storage subsystem that executes a cache memory control method according to an embodiment of the present invention.

【図3】本発明の一実施の形態であるキャッシュメモリ
の制御方法を実施する記憶サブシステムの作用の一例を
示すフローチャートである。
FIG. 3 is a flowchart illustrating an example of an operation of a storage subsystem that executes a cache memory control method according to an embodiment of the present invention;

【図4】本発明の一実施の形態であるキャッシュメモリ
の制御方法を実施する記憶サブシステムの作用の一例を
示すフローチャートである。
FIG. 4 is a flowchart illustrating an example of an operation of a storage subsystem that executes a cache memory control method according to an embodiment of the present invention;

【図5】本発明の一実施の形態であるキャッシュメモリ
の制御方法を実施する記憶サブシステムの作用の一例を
示すフローチャートである。
FIG. 5 is a flowchart illustrating an example of an operation of a storage subsystem that implements a cache memory control method according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101…中央処理装置(CPU)(第1装置)、102
…ディスクサブシステム(記憶サブシステム)、103
…ディスクドライブ(第2装置)、104…データ処理
制御部、105…キャッシュメモリ、106…キャッシ
ュ制御部、107…キュー管理テーブル、108…優先
キューエリア(第1管理情報)、109…一般キューエ
リア(第2管理情報)、110…スロット情報管理テー
ブル、111…優先データ容量上限値、201…スロッ
ト情報管理テーブル、202…スロット情報、203…
スロット情報内タイムエリア、204…スロット情報内
カウントエリア。
101 central processing unit (CPU) (first device), 102
... Disk subsystem (storage subsystem) 103
··· Disk drive (second device) · 104 · Data processing control unit · 105 · Cache memory · 106 · Cache control unit · 107 · Queue management table · 108 · Priority queue area (first management information) · 109 · General queue area (Second management information), 110: slot information management table, 111: upper limit of priority data capacity, 201: slot information management table, 202: slot information, 203:
Time area in slot information, 204: count area in slot information.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 第1装置と第2装置との間に介在し、前
記第1装置と前記第2装置との間で授受されるデータが
一時的に格納されるキャッシュメモリの制御方法であっ
て、 前記キャッシュメモリを管理するキャッシュ管理情報を
少なくとも二つの第1および第2管理情報に区分し、前
記データの優先度の高低に応じて、複数の前記第1およ
び第2管理情報を使い分けることで、より優先度の高い
前記データの前記キャッシュメモリ内における滞在時間
をより長くすることを特徴とするキャッシュメモリの制
御方法。
1. A method of controlling a cache memory interposed between a first device and a second device and temporarily storing data exchanged between the first device and the second device. Partitioning the cache management information for managing the cache memory into at least two pieces of first and second management information, and selectively using a plurality of the first and second management information according to the priority of the data. Wherein the staying time of the data having higher priority in the cache memory is made longer.
【請求項2】 請求項1記載のキャッシュメモリの制御
方法において、 より前記優先度の高い第1データを前記第1管理情報に
て管理し、より前記優先度の低い第2データを前記第2
管理情報にて管理し、前記キャッシュ管理情報における
前記第1管理情報と前記第2管理情報との比率を変化さ
せることで、前記キャッシュメモリに占める前記第1デ
ータの量を変化させることを特徴とするキャッシュメモ
リの制御方法。
2. The cache memory control method according to claim 1, wherein the higher priority first data is managed by the first management information, and the lower priority second data is managed by the second management data.
The amount of the first data occupying in the cache memory is changed by managing with management information and changing a ratio of the first management information and the second management information in the cache management information. How to control the cache memory to use.
【請求項3】 請求項1または2記載のキャッシュメモ
リの制御方法において、 外部からの指示にて、前記キャッシュ管理情報における
前記第1管理情報と前記第2管理情報との比率を設定す
る第1の操作、 外部から指示された判別方法にて、前記優先度のより高
い前記第1データを識別する第2の操作、 要求頻度のより高い前記データを自動的に判別し、当該
データを前記優先度のより高い前記第1データとして取
り扱う第3の操作、 前記第1管理情報にて管理される特定の前記第1データ
が前記キャッシュメモリから追い出される時、前記第1
管理情報の当該第1データに関するキャッシュ管理情報
を前記第2管理情報の最も優先度の高い位置に引き継が
せることで、当該第1データを前記第2データとして前
記キャッシュメモリ内に滞在させる第4の操作、 の少なくとも一つの操作を行うことを特徴とするキャッ
シュメモリの制御方法。
3. The cache memory control method according to claim 1, wherein a ratio between the first management information and the second management information in the cache management information is set by an external instruction. Operation, a second operation for identifying the first data having the higher priority according to a determination method instructed from outside, automatically determining the data having a higher request frequency, and assigning the data to the priority A third operation to be treated as the first data having a higher degree; when the specific first data managed by the first management information is evicted from the cache memory, the first operation is performed.
By causing the cache management information relating to the first data of the management information to be passed to the highest priority position of the second management information, the fourth data that causes the first data to stay in the cache memory as the second data A method of controlling a cache memory, wherein at least one of the following operations is performed.
【請求項4】 記憶装置と、前記記憶装置と上位装置と
の間におけるデータの授受を制御するとともに、前記デ
ータが一時的に格納されるキャッシュメモリを備えた記
憶制御装置と、を含む記憶サブシステムであって、 前記キャッシュメモリを管理するキャッシュ管理情報を
少なくとも二つの第1および第2管理情報に区分し、前
記データの優先度の高低に応じて、複数の前記第1およ
び第2管理情報を使い分けることで、より優先度の高い
前記データの前記キャッシュメモリ内における滞在時間
をより長くする制御論理を備えたことを特徴とする記憶
サブシステム。
4. A storage sub-unit comprising: a storage device; and a storage control device having a cache memory for controlling transmission and reception of data between the storage device and a host device and for temporarily storing the data. In the system, the cache management information for managing the cache memory is divided into at least two pieces of first and second management information, and a plurality of pieces of the first and second management information are determined according to the priority of the data. A storage logic comprising a control logic for making the staying time of the data having higher priority in the cache memory longer by selectively using the data.
【請求項5】 請求項4記載の記憶サブシステムにおい
て、 前記制御論理は、 より前記優先度の高い第1データを前記第1管理情報に
て管理し、より前記優先度の低い第2データを前記第2
管理情報にて管理し、前記キャッシュ管理情報における
前記第1管理情報と前記第2管理情報との比率を変化さ
せることで、前記キャッシュメモリに占める前記第1デ
ータの量を変化させる第1の機能、 外部からの指示にて、前記キャッシュ管理情報における
前記第1管理情報と前記第2管理情報との比率を設定す
る第2の機能、 外部から指示された判別方法にて、前記優先度のより高
い前記第1データを識別する第3の機能、 要求頻度のより高い前記データを自動的に判別し、当該
データを前記優先度のより高い前記第1データとして取
り扱う第4の機能、 前記第1管理情報にて管理される特定の前記第1データ
が前記キャッシュメモリから追い出される時、前記第1
管理情報の当該第1データに関するキャッシュ管理情報
を前記第2管理情報の最も優先度の高い位置に引き継が
せることで、当該第1データを前記第2データとして前
記キャッシュメモリ内に滞在させる第5の機能、 の少なくとも一つ機能を備えたことを特徴とする記憶サ
ブシステム。
5. The storage subsystem according to claim 4, wherein the control logic manages the higher priority first data by the first management information, and stores the lower priority second data. The second
A first function of managing the management information and changing a ratio of the first management information and the second management information in the cache management information to change an amount of the first data occupying the cache memory; A second function of setting a ratio between the first management information and the second management information in the cache management information in response to an instruction from the outside; A third function of identifying the first data having a higher priority; a fourth function of automatically determining the data having a higher request frequency and treating the data as the first data having a higher priority; When the specific first data managed by the management information is evicted from the cache memory, the first
Fifth, causing the first data to stay in the cache memory as the second data by causing the cache management information relating to the first data of the management information to be passed to the highest priority position of the second management information. A storage subsystem having at least one function of:
JP2000341054A 2000-11-08 2000-11-08 Method for controlling cache memory and storage sub- system Withdrawn JP2002149492A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000341054A JP2002149492A (en) 2000-11-08 2000-11-08 Method for controlling cache memory and storage sub- system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000341054A JP2002149492A (en) 2000-11-08 2000-11-08 Method for controlling cache memory and storage sub- system

Publications (1)

Publication Number Publication Date
JP2002149492A true JP2002149492A (en) 2002-05-24

Family

ID=18815854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000341054A Withdrawn JP2002149492A (en) 2000-11-08 2000-11-08 Method for controlling cache memory and storage sub- system

Country Status (1)

Country Link
JP (1) JP2002149492A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7039785B2 (en) 2004-02-24 2006-05-02 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
WO2014125559A1 (en) * 2013-02-12 2014-08-21 株式会社日立製作所 Storage control device and method for controlling storage control device
CN106598495A (en) * 2016-12-07 2017-04-26 深圳市深信服电子科技有限公司 Mixed storage service quality control method and control apparatus
JP2017146919A (en) * 2016-02-19 2017-08-24 日本電気株式会社 Control device, storage system, control method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7039785B2 (en) 2004-02-24 2006-05-02 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US7136983B2 (en) 2004-02-24 2006-11-14 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US7278007B2 (en) 2004-02-24 2007-10-02 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US7555622B2 (en) 2004-02-24 2009-06-30 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US7725676B2 (en) 2004-02-24 2010-05-25 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US7917721B2 (en) 2004-02-24 2011-03-29 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US8112599B2 (en) 2004-02-24 2012-02-07 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
US8392688B2 (en) 2004-02-24 2013-03-05 Hitachi, Ltd. Method and apparatus for increasing an amount of memory on demand when monitoring remote mirroring performance
WO2014125559A1 (en) * 2013-02-12 2014-08-21 株式会社日立製作所 Storage control device and method for controlling storage control device
US9563574B2 (en) 2013-02-12 2017-02-07 Hitachi, Ltd. Storage control device and method of controlling storage control device
JP2017146919A (en) * 2016-02-19 2017-08-24 日本電気株式会社 Control device, storage system, control method and program
CN106598495A (en) * 2016-12-07 2017-04-26 深圳市深信服电子科技有限公司 Mixed storage service quality control method and control apparatus

Similar Documents

Publication Publication Date Title
US4571674A (en) Peripheral storage system having multiple data transfer rates
US8225044B2 (en) Storage system which utilizes two kinds of memory devices as its cache memory and method of controlling the storage system
US5958040A (en) Adaptive stream buffers
US6948033B2 (en) Control method of the cache hierarchy
KR101443231B1 (en) Cache memory capable of adjusting burst length of write-back data in write-back operation
EP0568231A1 (en) Methods and apparatus for providing multiple outstanding operations in a cache consistent multiple processor computer system
JP2003131946A (en) Method and device for controlling cache memory
JP2000090009A (en) Method and device for replacing cache line of cache memory
JPS5873085A (en) Control of memory hierarchy
JP2003330792A (en) Disc system and cache control method
US6748494B1 (en) Device for controlling access to units of a storage device
KR101472967B1 (en) Cache memory and method capable of write-back operation, and system having the same
JP2002149492A (en) Method for controlling cache memory and storage sub- system
JP2005339299A (en) Method for cache control of storage device
JPH06202951A (en) Cash memory system
JP2021135538A (en) Storage control apparatus and storage control program
JPH05189316A (en) Disk cache control method
JPH07129464A (en) Information processor
US7805572B2 (en) Cache pollution avoidance
JPH11224164A (en) Magnetic disk sub system
JP2636470B2 (en) Data transfer path selection method
JP2854667B2 (en) Disk cache control method
JP2854668B2 (en) Disk cache control method
JP3083530B2 (en) Cache memory data management method and cache control device
JP2005166073A (en) Control device and control method of storage device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070912

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090601