JP2004030090A - Cache memory management method - Google Patents
Cache memory management method Download PDFInfo
- Publication number
- JP2004030090A JP2004030090A JP2002183805A JP2002183805A JP2004030090A JP 2004030090 A JP2004030090 A JP 2004030090A JP 2002183805 A JP2002183805 A JP 2002183805A JP 2002183805 A JP2002183805 A JP 2002183805A JP 2004030090 A JP2004030090 A JP 2004030090A
- Authority
- JP
- Japan
- Prior art keywords
- cache memory
- cache
- data
- divided
- host computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Memory System Of A Hierarchy Structure (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、キャッシュメモリのヒット率を高めるディスクアレイ装置におけるキャッシュメモリ管理方法に関する。
【0002】
【従来の技術】
従来、キャッシュメモリを管理し、アクセス時間を向上する方法として、例えば、特開平10−269028号公報および特開平8−263380号公報に記載のものが知られている。
【0003】
特開平10−269028号公報に記載のものは、キャッシュメモリからデータを廃棄する方法である。これは、蓄積データごとに使用頻度とLRU(Least Recently Used)情報を有し、ある蓄積データがアクセスされるとそのアクセスされた蓄積データのLRU情報を0としその他の蓄積データのLRU情報を1つインクリメントし、新しい使用頻度を前回の使用頻度と、連続してアクセスされなかった回数である前回のLRU情報との平均値とし、データ廃棄のさいは使用頻度の低い蓄積データから廃棄するものである。
【0004】
また、特開平8−263380号公報に記載のものは、キャッシュメモリ上に保持しないデータを指定するものである。これは、キャッシュメモリ上に保持しないデータのタイプを記録しておくことにより、その他のデータをキャッシュ上に長くとどめておく方法である。
【0005】
【発明が解決しようとする課題】
しかし、特開平10−269028号公報に記載の技術は、キャッシュメモリの使用効率を向上しているものの、キャッシュメモリ上に存在するデータタイプが特定のものに偏り、キャッシュメモリ上に保持されていないデータタイプに関してはヒット率が劣り、アクセス速度が向上しないという問題がある。
【0006】
また、特開平8−263380号公報に記載の技術も同様に、特定のデータタイプを指定して、それ以外のデータタイプに対してはヒット率が向上するものの、キャッシュメモリ上に保持されるデータタイプは単一に偏り、キャッシュメモリ上に保持されていないデータタイプに関してはヒット率が劣るという問題がある。
【0007】
本発明の目的は、データタイプによらずデータをキャッシュメモリに保持しておくことにより、どのデータタイプのデータに対してもキャッシュメモリのヒット率を向上させ、さらに、ホスト計算機からの使用法に応じデータタイプの指定と分割キャッシュ数と分割キャッシュメモリのサイズを指定することにより最適なキャッシュを行うキャッシュメモリ管理方法を提供することにある。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明は、ディスクアレイ装置が有する複数のパーティションに分割されたキャッシュメモリと、その分割数と分割サイズを変更し管理するキャッシュメモリ管理手段と、分割されたキャッシュメモリ上の各パーティションごとに保持するデータのデータタイプを指定し管理するキャッシュメモリ管理手段とを備える。
【0009】
さらに、本発明は、キャッシュメモリの分割数と分割サイズと分割された各パーティションごとの指定データタイプをオペレーティングシステムからも指定し管理する。
【0010】
また、本発明は、キャッシュメモリ管理データをネットワーク上のキャッシュ管理データベースサーバ上にも保持し、複数のホスト計算機で情報を共有し利用する。
【0011】
【発明の実施の形態】
以下、本発明の一実施の形態を、図面を参照して詳細に説明する。
【0012】
図1は、本発明のシステム構成のブロック図である。
【0013】
キャッシュメモリ管理システムは、図1において、ホスト計算機1と、そのホスト計算機1に備えられたキャッシュメモリ容量内容調整機能2と、キャッシュメモリの管理情報を表示する利用者端末画面3と、キャッシュメモリの内容をネットワークに送信、受信するキャッシュ自動制御情報送受信機能4と、ホスト計算機1に接続されているディスクアレイ管理装置5と、そのキャッシュメモリ6と、キャッシュメモリの分割パーティションを管理するキャッシュ自動制御情報管理テーブル7と、データを格納する記録媒体8と、複数のキャッシュ情報をネットワーク上で管理するキャッシュ管理データベースサーバ9および他ホスト計算機10、11で構成されている。
【0014】
図2は、キャッシュ自動制御情報管理テーブル7の詳細を示す図である。
【0015】
キャッシュ自動制御情報管理テーブル7には、使用形態、キャッシュサイズ、分割数を示すキーデータと、キャッシュタイプ別の分割サイズを示す設定データと、キャッシュタイプ別のヒット率、平均発生トランザクション数/秒、平均データ量/トランザクション、平均レスポンス/トランザクション、平均処理トランザクション数/秒等を示す性能データが格納されている。
【0016】
図3は、キャッシュメモリ6の分割例を示すとともに、それぞれの分割されたキャッシュメモリの分割領域の変動性を示した図である。
【0017】
図4は、キャッシュメモリ容量内容指定の処理を示すフローチャートである。
【0018】
図4においては、ホスト計算機1に備えられたキャッシュメモリ容量内容調整機能2が、ディスクアレイ管理装置5のキャッシュ自動制御情報管理テーブル7に登録する内容と、キャッシュメモリ6の分割を指定する一連の流れを示している。
【0019】
最初に、キャッシュメモリ容量内容調整機能2が起動されると、ディスクアレイ装置のキャッシュメモリ総サイズと、キャッシュ自動制御情報管理テーブル7から使用形態と分割数と各分割キャッシュメモリのサイズと各分割パーティションのキャッシュタイプを取得し、利用者端末画面3に表示する(ステップ401)。このとき、キャッシュ自動制御情報管理テーブル7に記載されているデータが実際のキャッシュ分割内容と不一致がないかを確認し、差異がある場合は、実際のキャッシュ分割内容でキャッシュ自動制御情報管理テーブル7の内容を書替えるとともに、実際のキャッシュ分割内容を利用者端末画面3に表示する。
【0020】
次に、ホスト計算機1をどのような形態で使用するのかを指定する(ステップ402)。
【0021】
そして、キャッシュメモリをいくつのパーティションに分けて管理するのかを自動もしくは手動で指定する(ステップ403)。自動で分割数を設定する場合は、ステップ402で指定した使用形態とキャッシュメモリサイズを元に、キャッシュ自動制御情報送受信機能4からキャッシュ管理データベースサーバ9にアクセスして最適なデータを取得し、キャッシュメモリ分割数とその各分割キャッシュメモリの格納タイプとサイズを設定する(ステップ405)。分割数を手動で設定する場合は、さらにキャッシュメモリ分割サイズを自動もしくは手動で設定し(ステップ406)、手動で設定する場合(ステップ407)は、分割するキャッシュメモリに格納するタイプをステップ402で指定した使用形態に対応したタイプで設定する(ステップ408)。このときの分類タイプは利用者の使用方法に応じ、複数の分類タイプを1つの分割パーティションで管理するよう指定することも可能である。キャッシュメモリ分割サイズを自動で設定した場合は、キャッシュ自動制御情報送受信機能4からキャッシュ管理データベースサーバ9にアクセスし、ステップ402、403で設定した内容を元に最適なデータを取得し、キャッシュメモリの格納タイプとサイズを設定する(ステップ409)。
【0022】
終了要求であれば次ステップにすすみ、分割キャッシュメモリすべての設定が終わっていなければ、キャッシュメモリ分割サイズ指定処理と、分割キャッシュメモリ格納タイプ設定処理を全分割キャッシュメモリに対して行う(ステップ410)。
【0023】
次にキャッシュ容量内容設定処理について説明する。
【0024】
図5は、キャッシュ容量内容設定処理を示すフローチャートである。
【0025】
各分割キャッシュメモリサイズと各データタイプを現在使用されているディスクアレイ管理装置5のキャッシュ自動制御情報管理テーブル7に格納されている各分割キャッシュメモリサイズと各データタイプとの比較を行う。まず、各分割キャッシュメモリのデータタイプを比較し(ステップ501)、異なっている、もしくは現時点と新規設定値とでキャッシュメモリ分割数に差があり、どちらかが設定されないような場合は、キャッシュメモリをフラッシュしてキャッシュメモリの初期化を行う(ステップ502)。
【0026】
次に、データタイプが同じである場合、新規キャッシュメモリ設定サイズと現時点での設定サイズとを比較し、新規キャッシュメモリ設定サイズの方が小さい場合(ステップ503)は、分割パーティションのキャッシュメモリ空き容量を計算し(ステップ504)、指定容量に余裕がない場合(ステップ505)は、キャッシュメモリがないので、アクセス頻度の低いデータをフラッシュして指定サイズまで容量小さくしても問題が発生しないようにする(ステップ506)。指定容量に余裕がある場合は、そのまま分割キャッシュサイズを指定サイズまで容量を小さくすることが可能である。逆に、新規キャッシュメモリ設定サイズの方が現時点でのキャッシュメモリ設定サイズより大きい場合は、拡張するキャッシュメモリに残っているキャッシュデータをフラッシュして破棄する(ステップ507)。
【0027】
次に、設定領域のキャッシュメモリが確保できたので、分割キャッシュメモリサイズの変更処理を行う(ステップ508)。
【0028】
次に、指定した分割キャッシュメモリサイズ、データタイプをディスクアレイ管理装置5のキャッシュ自動制御情報12の設定データに書込みする(ステップ509)。
【0029】
これらステップ501からステップ509までの処理を新規分割キャッシュ数についてすべて行う。まだすべての分割キャッシュメモリに対して処理が行われていない場合は、再度これらの処理を行う(ステップ510)。
【0030】
キャッシュメモリに対して分割処理とキャッシュ自動制御情報12の設定データに書込みがすべて終わった場合、キャッシュ自動制御情報12のキーデータを書込み、キャッシュメモリ内容を取得して利用者端末画面3に新規分割キャッシュ情報を表示する(ステップ511)。
【0031】
次に、ホスト計算機1からデータの書込み処理を行う処理について説明する。
【0032】
ホスト計算機1からデータの書込み処理が発生した場合は、キャッシュメモリ6と記録媒体8の両方に書込みを行う。
【0033】
キャッシュメモリに書込みを行う場合、どのキャッシュメモリ分割パーティションにデータを書込むのかを判定するため、キャッシュ自動制御情報12の設定データ領域を利用し、この情報から該当の分割パーティションにデータの書込みを行う。キャッシュメモリに十分な空き容量がない場合は、LRU方式、もしくはFIFO(First In First Out)方式によってデータの廃棄を行う。
【0034】
次に、ホスト計算機1からデータの読取り処理を行う処理について説明する。
【0035】
ホスト計算機1からデータの読取り要求があった場合は、まずキャッシュ自動制御情報12を参照し、該当データタイプがキャッシュメモリのどのパーティションにデータがキャッシュされているのかを判断し、該当キャッシュアドレスから対応したデータの検索を行う。該当データがキャッシュメモリにない場合は、記録媒体8へ参照しに行く。
【0036】
次に、キャッシュ自動制御情報12の管理とキャッシュ分割変動機能について説明する。
【0037】
キャッシュ自動制御情報12のキーデータと設定データは、前述のように利用者管理端末画面3で設定したデータが記録されており、現在のキャッシュメモリの分割内容を示している。そして、現時点の分割内容での性能データを計算し、それぞれの分割パーティションごとのヒット率や平均発生トランザクション数/秒や平均データ量/トランザクションや平均レスポンス/トランザクションや平均処理トランザクション数/秒などをキャッシュ自動制御情報12に登録し、現在の設定情報と共にデータをキャッシュ自動制御情報送受信機能4からネットワーク上のキャッシュ管理データベースサーバ9に登録する。この動作を定期的に行うことによって、現在の利用者のアクセス性能をキャッシュ管理データベースサーバ9から取得できるようにしておくことが可能となる。
【0038】
なお、図3で示したように、各分割キャッシュメモリに適当なサイズの調整マージンを設け、運用中の性能データをもとにフレキシブルに変動させる。そして、変動したことによってより良いアクセス性能が得られた場合は、このときの設定データと性能データをキャッシュ自動制御情報12の設定データ領域と性能データ領域にそれぞれ書込むと同時に、キャッシュ管理データベースサーバ9にその内容を登録する。
【0039】
さらに、定期的にキャッシュ管理データベースサーバ9の情報にアクセスし、使用形態が同じ他ホスト計算機10、11や同一処理を複数のホスト計算機で分散して処理している他ホスト計算機情報を参照し、他ホスト計算機のほうが性能が良い場合は他ホスト計算機の情報で自ホスト計算機のキャッシュ自動制御情報12にそのデータを書込み、自ホスト計算機のキャッシュメモリを再調整する。
【0040】
本実施の形態によれば、キャッシュメモリを分割して各分割パーティションごとに異なるデータタイプを保持することにより、ほかのデータタイプに影響されて破棄されることなくキャッシュメモリ上に格納しておくので、データタイプに左右されずに、キャッシュメモリのヒット率を上げてアクセス時間を短くすることができる。
【0041】
また、分割するキャッシュメモリサイズと分割数を手動もしくは自動で設定することが可能で、それぞれ独自の利用環境に応じてキャッシュメモリの分割を行い管理することが可能となり、その分割状態でのアクセスデータがネットワーク上のキャッシュ管理データベースサーバ上に保持され、複数のホスト計算機で情報を共有し、同一使用形態の場合や複数のホスト計算機で分散して処理を行っている場合に、他ホスト計算機のほうがより良い性能データの場合は、このデータで自ホスト計算機のキャッシュメモリを分割することでさらにアクセス性能を向上するさせることができる。
【0042】
また、分割するキャッシュメモリサイズとキャッシュメモリの分割数と各分割キャッシュメモリに格納するデータタイプはオペレーティングシステムからインターフェースを介すことで操作可能となり、ホスト計算機上でディスクアレイコントローラ上のキャッシュメモリの分割操作をすることができる。
【0043】
さらに、各分割キャッシュメモリに格納するデータタイプは、利用者が分類したい項目で分類することができる。
【0044】
【発明の効果】
以上、説明したように、本発明によれば、キャッシュメモリを分割して各分割パーティションごとに異なるデータタイプを保持することにより、ほかのデータタイプに影響されて破棄されることなくキャッシュメモリ上に格納しておくので、データタイプに左右されずに、キャッシュメモリのヒット率を上げてアクセス時間を短くすることが可能となるという効果がある。
【0045】
また、分割するキャッシュメモリサイズと分割数を手動もしくは自動で設定することが可能で、それぞれ独自の利用環境に応じてキャッシュメモリの分割を行い管理することが可能となり、その分割状態でのアクセスデータがネットワーク上のキャッシュ管理データベースサーバ上に保持され、複数のホスト計算機で情報を共有し、同一使用形態の場合や複数のホスト計算機で分散して処理を行っている場合に、他ホスト計算機のほうがより良い性能データの場合は、このデータで自ホスト計算機のキャッシュメモリを分割することでさらにアクセス性能を向上することが可能となるという効果がある。
【図面の簡単な説明】
【図1】本発明のシステム構成のブロック図
【図2】キャッシュ自動制御情報の内容を示す図
【図3】キャッシュメモリの分割例と、それぞれの分割されたキャッシュメモリの分割領域の稼動性を示す図
【図4】キャッシュメモリ容量内容指定の処理を示すフローチャート
【図5】キャッシュ容量内容設定処理のフローチャート
【符号の説明】
1 ホスト計算機、
2 キャッシュメモリ容量内容調整機能、
3 利用者端末画面、
4 キャッシュ自動制御情報送受信機能、
5 ディスクアレイ管理装置、
6 キャッシュメモリ、
7 キャッシュ自動制御情報管理テーブル、
8 記録媒体、
9 キャッシュ管理データベースサーバ、
10、11 他ホスト計算機。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a cache memory management method in a disk array device that increases a cache memory hit rate.
[0002]
[Prior art]
Conventionally, as a method of managing the cache memory and improving the access time, for example, the methods described in JP-A-10-269028 and JP-A-8-263380 are known.
[0003]
Japanese Patent Application Laid-Open No. 10-269028 discloses a method of discarding data from a cache memory. This has usage frequency and LRU (Least Recently Used) information for each stored data, and when certain stored data is accessed, the LRU information of the accessed stored data is set to 0 and the LRU information of the other stored data is set to 1 The new usage frequency is defined as the average value of the previous usage frequency and the previous LRU information indicating the number of times the data was not accessed consecutively. Data is discarded from the less frequently used accumulated data. is there.
[0004]
Further, Japanese Patent Application Laid-Open No. 8-263380 specifies data that is not stored in a cache memory. This is a method in which the type of data that is not held in the cache memory is recorded, and other data is kept in the cache for a long time.
[0005]
[Problems to be solved by the invention]
However, although the technology described in Japanese Patent Application Laid-Open No. 10-269028 improves the use efficiency of the cache memory, the data type existing in the cache memory is biased toward a specific data type and is not stored in the cache memory. The data type has a problem that the hit rate is inferior and the access speed is not improved.
[0006]
Similarly, in the technique described in Japanese Patent Application Laid-Open No. 8-263380, although a specific data type is designated and the hit rate is improved for other data types, the data held in the cache memory is also improved. There is a problem that the type is biased to one, and the hit rate is inferior for data types not held in the cache memory.
[0007]
An object of the present invention is to improve the hit rate of a cache memory for data of any data type by storing data in a cache memory regardless of the data type, and to further improve the usage from a host computer. An object of the present invention is to provide a cache memory management method for performing an optimum cache by designating a corresponding data type, a number of divided caches, and a size of a divided cache memory.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a cache memory divided into a plurality of partitions of a disk array device, cache memory management means for changing and managing the number of divisions and the division size, and a divided cache memory. Cache memory management means for designating and managing the data type of the data held for each of the above partitions.
[0009]
Further, according to the present invention, the number of divisions and the division size of the cache memory and the designated data type of each divided partition are designated and managed from the operating system.
[0010]
In the present invention, cache memory management data is also held on a cache management database server on a network, and information is shared and used by a plurality of host computers.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0012]
FIG. 1 is a block diagram of the system configuration of the present invention.
[0013]
In FIG. 1, the cache memory management system includes a host computer 1, a cache memory capacity adjustment function 2 provided in the host computer 1, a user terminal screen 3 for displaying management information of the cache memory, and a cache memory management system. Automatic cache control information transmission / reception function 4 for transmitting and receiving contents to and from the network, a disk array management device 5 connected to the host computer 1, its cache memory 6, and automatic cache control information for managing the partitions of the cache memory It comprises a management table 7, a recording medium 8 for storing data, a cache management database server 9 for managing a plurality of cache information on a network, and other host computers 10, 11.
[0014]
FIG. 2 is a diagram showing the details of the cache automatic control information management table 7.
[0015]
The cache automatic control information management table 7 includes key data indicating a use mode, a cache size, and the number of divisions, setting data indicating a division size for each cache type, a hit rate for each cache type, an average number of transactions / second, Performance data indicating an average data amount / transaction, an average response / transaction, an average number of processed transactions / sec, and the like are stored.
[0016]
FIG. 3 is a diagram showing an example of division of the cache memory 6 and showing the variability of the divided areas of each divided cache memory.
[0017]
FIG. 4 is a flowchart showing the process of specifying the cache memory capacity content.
[0018]
In FIG. 4, the cache memory capacity content adjusting function 2 provided in the host computer 1 has a series of contents registered in the cache automatic control information management table 7 of the disk array management device 5 and a series of designations for dividing the cache memory 6. Shows the flow.
[0019]
First, when the cache memory capacity adjustment function 2 is activated, the total size of the cache memory of the disk array device, the usage pattern, the number of divisions, the size of each divided cache memory, and each divided partition are obtained from the cache automatic control information management table 7. Is acquired and displayed on the user terminal screen 3 (step 401). At this time, it is checked whether or not the data described in the cache automatic control information management table 7 does not match the actual cache division contents. Is rewritten, and the actual cache division contents are displayed on the user terminal screen 3.
[0020]
Next, in what form the host computer 1 is to be used is specified (step 402).
[0021]
Then, the number of partitions into which the cache memory is managed is specified automatically or manually (step 403). To automatically set the number of divisions, the cache automatic control information transmission / reception function 4 accesses the cache management database server 9 to obtain optimal data based on the usage pattern and the cache memory size specified in
[0022]
If it is an end request, the process proceeds to the next step. If all the divided cache memories have not been set, the cache memory division size designation processing and the divided cache memory storage type setting processing are performed for all divided cache memories (step 410). .
[0023]
Next, the cache capacity content setting process will be described.
[0024]
FIG. 5 is a flowchart showing the cache capacity content setting processing.
[0025]
Each divided cache memory size and each data type are compared with each divided cache memory size stored in the cache automatic control information management table 7 of the disk array management device 5 currently used and each data type. First, the data types of the divided cache memories are compared (step 501). If the data types are different, or if there is a difference in the number of divided cache memories between the present time and the new set value, and either of them is not set, the cache memory is set. To initialize the cache memory (step 502).
[0026]
Next, if the data types are the same, the new cache memory setting size is compared with the current setting size. If the new cache memory setting size is smaller (step 503), the cache memory free space of the divided partition is used. Is calculated (Step 504). If there is no margin in the designated capacity (Step 505), there is no cache memory, so that no problem occurs even if the infrequently accessed data is flushed to reduce the capacity to the designated size. (Step 506). If there is room in the designated capacity, it is possible to reduce the capacity of the divided cache size to the designated size as it is. Conversely, if the new cache memory setting size is larger than the current cache memory setting size, the cache data remaining in the cache memory to be expanded is flushed and discarded (step 507).
[0027]
Next, since the cache memory of the setting area has been secured, the divided cache memory size is changed (step 508).
[0028]
Next, the specified divided cache memory size and data type are written in the setting data of the cache
[0029]
The processes from step 501 to step 509 are all performed for the new divided cache number. If the processing has not been performed on all the divided cache memories yet, these processings are performed again (step 510).
[0030]
When the division processing and the writing of the setting data of the cache
[0031]
Next, a process of performing a data write process from the host computer 1 will be described.
[0032]
When data write processing occurs from the host computer 1, data is written to both the cache memory 6 and the recording medium 8.
[0033]
When writing data to the cache memory, the setting data area of the cache
[0034]
Next, a process of reading data from the host computer 1 will be described.
[0035]
When there is a data read request from the host computer 1, first, it refers to the cache
[0036]
Next, the management of the automatic
[0037]
The key data and the setting data of the automatic
[0038]
As shown in FIG. 3, an adjustment margin of an appropriate size is provided in each divided cache memory, and the divided cache memories are flexibly changed based on performance data during operation. If a better access performance is obtained due to the change, the setting data and the performance data at this time are written in the setting data area and the performance data area of the cache
[0039]
Further, it periodically accesses the information of the cache management database server 9 and refers to other host computers 10 and 11 having the same usage form and other host computer information in which the same processing is distributed and processed by a plurality of host computers. If the performance of the other host computer is better, the data is written to the cache
[0040]
According to the present embodiment, by dividing the cache memory and holding different data types for each divided partition, the data is stored in the cache memory without being affected by other data types and discarded. The access time can be shortened by increasing the hit rate of the cache memory regardless of the data type.
[0041]
In addition, it is possible to manually or automatically set the size of the cache memory to be divided and the number of divisions, and it is possible to divide and manage the cache memory according to each unique use environment, and access data in the divided state Is held on the cache management database server on the network, the information is shared by multiple host computers, and in the case of the same usage pattern or when the processing is performed in a distributed manner by multiple host computers, the other host computers In the case of better performance data, access performance can be further improved by dividing the cache memory of the host computer by this data.
[0042]
The size of the cache memory to be divided, the number of divisions of the cache memory, and the data type to be stored in each divided cache memory can be operated from the operating system via an interface, and the division of the cache memory on the disk array controller on the host computer is performed. Can operate.
[0043]
Further, the data type stored in each divided cache memory can be classified by an item that the user wants to classify.
[0044]
【The invention's effect】
As described above, according to the present invention, by dividing a cache memory and holding different data types for each of the divided partitions, the cache memory can be stored in the cache memory without being affected by other data types and discarded. Since the data is stored, it is possible to increase the hit rate of the cache memory and shorten the access time regardless of the data type.
[0045]
In addition, it is possible to manually or automatically set the size of the cache memory to be divided and the number of divisions, and it is possible to divide and manage the cache memory according to each unique use environment, and access data in the divided state Is held on the cache management database server on the network, the information is shared by multiple host computers, and in the case of the same usage pattern or when the processing is performed in a distributed manner by multiple host computers, the other host computers In the case of better performance data, dividing the cache memory of the host computer with this data has the effect that the access performance can be further improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of the system configuration of the present invention. FIG. 2 is a diagram showing the contents of automatic cache control information. FIG. 3 is a diagram showing an example of division of a cache memory and the operability of each divided region of the cache memory. FIG. 4 is a flowchart showing a cache memory capacity content designation process. FIG. 5 is a flowchart of a cache capacity content setting process.
1 host computer,
2 Cache memory capacity adjustment function,
3 user terminal screen,
4 Cache automatic control information transmission / reception function,
5 Disk array management device,
6 cache memory,
7 cache automatic control information management table,
8 recording media,
9 cache management database server,
10, 11 Other host computers.
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002183805A JP4095840B2 (en) | 2002-06-25 | 2002-06-25 | Cache memory management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002183805A JP4095840B2 (en) | 2002-06-25 | 2002-06-25 | Cache memory management method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004030090A true JP2004030090A (en) | 2004-01-29 |
JP4095840B2 JP4095840B2 (en) | 2008-06-04 |
Family
ID=31179849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002183805A Expired - Fee Related JP4095840B2 (en) | 2002-06-25 | 2002-06-25 | Cache memory management method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4095840B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005276198A (en) * | 2004-03-23 | 2005-10-06 | Internatl Business Mach Corp <Ibm> | System and method for balancing multiple memory buffer sizes |
JP2005285058A (en) * | 2004-03-31 | 2005-10-13 | Hitachi Ltd | Cache management method for storage device |
JP2007102762A (en) * | 2005-10-05 | 2007-04-19 | Hitachi Ltd | Resource management method in logically partition divisioned storage system |
CN102323908A (en) * | 2011-08-03 | 2012-01-18 | 浪潮(北京)电子信息产业有限公司 | Method and system for data caching in large volume data synchronization process on disk |
WO2012090239A1 (en) | 2010-12-27 | 2012-07-05 | Hitachi, Ltd. | Storage system and management method of control information therein |
CN103999062A (en) * | 2011-10-26 | 2014-08-20 | 惠普发展公司,有限责任合伙企业 | Segmented caches |
CN112737975A (en) * | 2020-12-25 | 2021-04-30 | 珠海西山居移动游戏科技有限公司 | Buffer capacity adjusting method and device |
-
2002
- 2002-06-25 JP JP2002183805A patent/JP4095840B2/en not_active Expired - Fee Related
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005276198A (en) * | 2004-03-23 | 2005-10-06 | Internatl Business Mach Corp <Ibm> | System and method for balancing multiple memory buffer sizes |
JP2005285058A (en) * | 2004-03-31 | 2005-10-13 | Hitachi Ltd | Cache management method for storage device |
JP4631301B2 (en) * | 2004-03-31 | 2011-02-16 | 株式会社日立製作所 | Cache management method for storage device |
JP2007102762A (en) * | 2005-10-05 | 2007-04-19 | Hitachi Ltd | Resource management method in logically partition divisioned storage system |
JP2013532862A (en) * | 2010-12-27 | 2013-08-19 | 株式会社日立製作所 | Storage system and control method thereof |
WO2012090239A1 (en) | 2010-12-27 | 2012-07-05 | Hitachi, Ltd. | Storage system and management method of control information therein |
US8539150B2 (en) | 2010-12-27 | 2013-09-17 | Hitachi, Ltd. | Storage system and management method of control information using a cache memory with multiple cache partitions |
US9081690B2 (en) | 2010-12-27 | 2015-07-14 | Hitachi, Ltd. | Storage system and management method of control information therein |
CN102323908A (en) * | 2011-08-03 | 2012-01-18 | 浪潮(北京)电子信息产业有限公司 | Method and system for data caching in large volume data synchronization process on disk |
CN103999062A (en) * | 2011-10-26 | 2014-08-20 | 惠普发展公司,有限责任合伙企业 | Segmented caches |
JP2014534520A (en) * | 2011-10-26 | 2014-12-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Segmented cache |
US9697115B2 (en) | 2011-10-26 | 2017-07-04 | Hewlett-Packard Development Company, L.P. | Segmented caches |
CN112737975A (en) * | 2020-12-25 | 2021-04-30 | 珠海西山居移动游戏科技有限公司 | Buffer capacity adjusting method and device |
CN112737975B (en) * | 2020-12-25 | 2023-05-09 | 珠海西山居数字科技有限公司 | Buffer capacity adjustment method and device |
Also Published As
Publication number | Publication date |
---|---|
JP4095840B2 (en) | 2008-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8225044B2 (en) | Storage system which utilizes two kinds of memory devices as its cache memory and method of controlling the storage system | |
US10126964B2 (en) | Hardware based map acceleration using forward and reverse cache tables | |
US6848034B2 (en) | Dense server environment that shares an IDE drive | |
JP2571342B2 (en) | System and method for storing data in cache memory | |
US7613870B2 (en) | Efficient memory usage in systems including volatile and high-density memories | |
US7136966B2 (en) | Method and apparatus for using a solid state disk device as a storage controller cache | |
CN110226157A (en) | Dynamic memory for reducing row buffering conflict remaps | |
US20100106935A1 (en) | Pretranslating Input/Output Buffers In Environments With Multiple Page Sizes | |
US20020156980A1 (en) | Designing a cache with adaptive reconfiguration | |
US20020194432A1 (en) | Designing a cache using an LRU-LFU array | |
JP2003150447A (en) | Cache buffer control method and controller | |
CN106569732B (en) | Data migration method and device | |
JPH1063578A (en) | Information recording and reproducing device | |
JP3178809B2 (en) | Accessing portable recording media | |
US7246202B2 (en) | Cache controller, cache control method, and computer system | |
CN117632043B (en) | CXL memory module, control chip, data processing method, medium and system | |
JP4095840B2 (en) | Cache memory management method | |
CN117389914B (en) | Cache system, cache write-back method, system on chip and electronic equipment | |
US5983313A (en) | EDRAM having a dynamically-sized cache memory and associated method | |
CN110737607A (en) | Method and device for managing HMB memory, computer equipment and storage medium | |
JPH08137754A (en) | Disk cache device | |
US5761710A (en) | Information apparatus with cache memory for data and data management information | |
JPH08101783A (en) | File system | |
US9009426B1 (en) | Methods, computer readable media, and systems for optimizing cache utilization | |
CN115563029A (en) | Caching method and device based on two-layer caching structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040929 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060512 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071009 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080310 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4095840 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120314 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |