JP2000259499A - Method for mapping distributing type cache memory - Google Patents

Method for mapping distributing type cache memory

Info

Publication number
JP2000259499A
JP2000259499A JP2000019307A JP2000019307A JP2000259499A JP 2000259499 A JP2000259499 A JP 2000259499A JP 2000019307 A JP2000019307 A JP 2000019307A JP 2000019307 A JP2000019307 A JP 2000019307A JP 2000259499 A JP2000259499 A JP 2000259499A
Authority
JP
Japan
Prior art keywords
memory
cacheable
cache
tag
bits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000019307A
Other languages
Japanese (ja)
Other versions
JP3841998B2 (en
Inventor
瑾 ▲頼▼
Jiin Lai
Chien-Yu Chen
倩瑜 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Via Technologies Inc
Original Assignee
Via Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Via Technologies Inc filed Critical Via Technologies Inc
Publication of JP2000259499A publication Critical patent/JP2000259499A/en
Application granted granted Critical
Publication of JP3841998B2 publication Critical patent/JP3841998B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0888Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using selective caching, e.g. bypass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve system efficiency by setting the uppermost and lowermost parts of a system memory where an operating system most frequently accesses to cache possible ranges. SOLUTION: This mapping method selects a set of bits in an address bit string and uses it to correspond to a tag mapping table. The possible combinations of the values of selected specific bits make a system memory where the corresponding tag mapping table are mapped a cache possible area or a cache impossible area according to user definition. And the uppermost and lowermost layer parts of the system memory where access is frequency performed are simultaneously defined as cache possible parts. These areas can be defined as a cache possible area or a cache impossible area in accordance with user's needs. For this reason, the cache possible areas of the memory is not continuous distributions but necessary scattered distribution.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明はメモリーの読取方
式の技術に関し、特にキャッシュメモリーのマッピング
方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for reading a memory, and more particularly to a mapping method for a cache memory.

【0002】[0002]

【従来の技術】図1は従来のキャッシュメモリー装置の
ブロック図である。キャッシュメモリー装置110は主
にキャッシュメモリー111とキャッシュ制御回路11
2により構成される。キャッシュ制御回路112はキャ
ッシュメモリー111を制御して、キャッシュメモリー
装置110全体の動作を担う。キャッシュメモリー11
1は更にデータメモリー113とタグメモリー(tag RA
M)114とを含む。データメモリー(data RAM)11
3はシステムメモリー140に対応したデータを保存し
て、タグメモリー114はシステムメモリー140に対
応するアドレスデータを保存する。並びにビットをダー
ティービット(dirty bit)にして、データメモリー1
13中のデータが更新されたかどうか識別する。
2. Description of the Related Art FIG. 1 is a block diagram of a conventional cache memory device. The cache memory device 110 mainly includes a cache memory 111 and a cache control circuit 11.
2. The cache control circuit 112 controls the cache memory 111 and performs the operation of the entire cache memory device 110. Cache memory 11
1 further includes a data memory 113 and a tag memory (tag RA).
M) 114). Data memory (data RAM) 11
3 stores data corresponding to the system memory 140, and the tag memory 114 stores address data corresponding to the system memory 140. In addition, the bit is set to a dirty bit and the data memory 1
13 is updated.

【0003】図2(A)はキャッシュメモリーとシステ
ムメモリーと間の対応状況を示したものである。キャッ
シュメモリーにはシステムメモリーの一部分のデータだ
けが保存できるため、実際にはシステムメモリーに対応
するデータをデータメモリーに保存して、データメモリ
ーが保存したデータのシステムメモリーにおけるアドレ
スの一部分に対応するビット列をタグメモリー中に保存
する。そのためデータメモリーのインデックスアドレス
とタグメモリー中のビット列とを組み合わせたものが、
図2(B)が示すように、システムメモリーの実際アド
レスに等しい。システムメモリー中の各データのアドレ
スは、キャッシュメモリー全てが位置とデータのアドレ
ス対応を有し、この種のキャッシュメモリー構造は直接
マッピング(direct mapped)で、システムメモリーの
各位置は全てキャッシュメモリー中のある位置にマッピ
ングされる。
FIG. 2A shows the correspondence between a cache memory and a system memory. Since only a part of the system memory data can be stored in the cache memory, the data corresponding to the system memory is actually stored in the data memory, and the bit string corresponding to a part of the address in the system memory of the data stored in the data memory In the tag memory. Therefore, the combination of the index address of the data memory and the bit string in the tag memory is
As shown in FIG. 2B, it is equal to the actual address of the system memory. As for the address of each data in the system memory, all the cache memories have a location and data address correspondence, and this kind of cache memory structure is a direct mapping. Maps to a location.

【0004】キャッシュメモリーには、システムメモリ
ーの一部分だけのデータを保存することができ、CPU
動作時、主にキャッシュメモリーに対して読み書きを行
う。そのためキャッシュ装置はCPUの読み書きデータ
要求を処理する時、必ずキャッシュメモリーに命中した
かどうか、或いは新しくシステムメモリーのデータをメ
モリーへ送るかどうか判断しなければならない。命中の
判断方法は、CPUが送出した読み要求或いは書き要求
を受け取った時、CPU送出のアドレスとタグメモリー
の内容を比較して、同じだと命中とする。キャッシュメ
モリーはタグマッピングの方法により、メモリーをキャ
ッシュ可能(cachable)に設定する。即ちこれは前述の
命中である。一般のタグビットには限界があり、一般的
には8ビット或いは7ビットだけのため、メモリーがタ
グビットの影響を受けて、キャッシュ可能部分とキャッ
シュ不可能部分(non-cachable)とに分けられる。
In the cache memory, data of only a part of the system memory can be stored.
During operation, it mainly reads and writes to the cache memory. Therefore, when processing a read / write data request from the CPU, the cache device must determine whether the cache memory has been hit or whether new data in the system memory should be sent to the memory. In the hit determination method, when a read request or a write request sent by the CPU is received, the address sent from the CPU is compared with the contents of the tag memory, and if they are the same, a hit is determined. The cache memory is set to be cacheable (cachable) by a tag mapping method. This is the hit mentioned above. Since the general tag bit has a limit and is generally only 8 bits or 7 bits, the memory is divided into a cacheable part and a non-cachable part due to the influence of the tag bit. .

【0005】仮にシステムメモリーのサイズが256
M、キャッシュメモリーが512Kで8ビットのタグを
有する場合を例にとると、それはマッピング(mappin
g)できる最大キャッシュ可能(cachable)範囲がタグ
ビットサイズの制限を受ける。それは図3が示すように
512Kの28倍、即ち128Mである。従来のキャッ
シュメモリーのマッピング方法は、キャッシュ可能メモ
リーの範囲を連続させて、図3の256Mシステムメモ
リー(system memory)の第一部分200aが示すよう
に、0Mから128Mの範囲がキャッシュ部分で、12
8Mから256Mの範囲のメモリーはキャッシュ可能制
御器(cachable controller)により不可能キャッシュ
(non-cachable)メモリーの範囲に設定される。上述し
たことからわかるように、従来のキャッシュメモリーの
タグマッピング方式はメモリーを単純に二つの部分に分
けて、一部分を下層のキャッシュ可能メモリー200
a、もう一部分を上層のキャッシュ不可能メモリー20
0bに分けた。オペレーティングシステム(operating
system, OS)は一般的に上層のメモリーを利用してスタ
ック(stack)或いは状態維持(status keeping)をつ
くり、例えば256Mのアドレスから下方向へスタック
或いは0Mのアドレスから上方向へスタックを開始す
る。従来のキャッシュ可能範囲のタグマッピング方法で
はメモリーの下層部分200a、0〜128Mしかキャ
ッシュ可能範囲にすることができなかったため、オペレ
ーティングシステムの効率はとても悪かった。そのた
め、システムメモリーの最上層200bと最下層200
aをどのようにキャッシュ可能範囲にするかがキャッシ
ュメモリーの課題であった。
If the size of the system memory is 256
M, for example, when the cache memory has an 8-bit tag at 512K, it is mapped (mappin
g) The maximum possible cacheable range is limited by the tag bit size. It 2 8 times 512K As shown in FIG. 3, i.e., 128M. The conventional method of mapping a cache memory is to make the range of cacheable memory contiguous, as shown in the first part 200a of the 256M system memory in FIG.
Memory in the range of 8M to 256M is set by a cacheable controller to the range of non-cachable memory. As can be seen from the above description, the conventional cache memory tag mapping scheme simply divides the memory into two parts, one part of the lower cacheable memory 200.
a, another part of which is upper non-cacheable memory 20
0b. Operating system
The system (OS) generally uses the upper memory to create a stack or status keeping, for example, to start stacking downward from a 256M address or starting upward from a 0M address. . With the conventional tag mapping method of the cacheable range, only the lower part 200a of the memory, 0 to 128M, could be set to the cacheable range, so that the efficiency of the operating system was very poor. Therefore, the uppermost layer 200b and the lowermost layer 200 of the system memory
How to make a into the cacheable range is a problem of the cache memory.

【0006】[0006]

【発明が解決しようとする課題】上述したことをまとめ
ると、従来のキャッシュメモリーのタグマッピング方法
では1つの連続したキャッシュ可能メモリー領域、つま
りシステムメモリーの下層部分までしかマッピングでき
なかったために、オペレーティングシステムが頻繁にア
クセスする最上層部分メモリーをキャッシュメモリー可
能範囲にすることができなかったために、システム全体
の効率が悪かった。
To summarize the above, the conventional cache memory tag mapping method can map only one continuous cacheable memory area, that is, the lower layer of the system memory. The system was inefficient because the top-level memory that was frequently accessed could not be made available in cache memory.

【0007】本発明の目的は分散式キャッシュメモリー
のマッピング方法を提供して、システムメモリーの最上
層部分と最下層部分とをキャッシュ可能なメモリーにす
ることである。本発明の次なる目的は分散式キャッシュ
メモリーのマッピング方法を提供して、システムメモリ
ーのキャッシュ可能範囲分散の必要性に合わせて、連続
メモリー領域に限定する必要をなくす。本発明の更なる
目的は分散式キャッシュメモリーのマッピング方法を提
供して、オペレーティングシステムのアクセスが最も頻
繁なシステムメモリー部分をキャッシュ可能範囲に設定
して、システム効率を高めることである。
It is an object of the present invention to provide a method of mapping a distributed cache memory so that the top and bottom layers of the system memory are cacheable memories. A further object of the present invention is to provide a distributed cache memory mapping method, which eliminates the need to limit to a contiguous memory area to meet the need to distribute the cacheable range of system memory. It is a further object of the present invention to provide a method of mapping distributed cache memory to increase the system efficiency by setting a portion of the system memory most frequently accessed by the operating system to a cacheable range.

【0008】[0008]

【課題を解決するための手段】上記とその他の目的を達
成するために、本発明は分散式キャッシュメモリーのマ
ッピング方法を提供して、簡単に述べると下記の通りと
なる。本明細書掲載の分散式キャッシュメモリーのマッ
ピング方法は、アドレスビット列中で一組のアドレスビ
ットを選んで、タグマッピング表との対応に用いる。選
び出された特定アドレスビットの値の可能組合せは使用
者の定義により、その相対応するタグマッピングテーブ
ルがマッピングしたシステムメモリーをキャッシュ可能
領域またはキャッシュ不可能領域にする。なぜならタグ
マッピング表がマッピングしたシステムメモリーをキャ
ッシュ可能領域またはキャッシュ不可能領域にするの
は、使用者が特定アドレスビットを加えて定義すること
によるため、システムメモリーの最上層部分と最下層部
分は同時にキャッシュ部分に定義することができる。或
いは使用者の要求に合わせて、それら領域をキャッシュ
可能範囲あるいはキャッシュ不可能範囲にして、メモリ
ーのキャッシュ可能範囲は連続分布ではなく、必要に合
わせた分散(scatter)分布とする。
SUMMARY OF THE INVENTION To achieve the above and other objects, the present invention provides a method for mapping a distributed cache memory, briefly described as follows. In the distributed cache memory mapping method described in this specification, a set of address bits is selected from an address bit string and used for correspondence with a tag mapping table. The possible combinations of the selected specific address bit values make the system memory mapped by the corresponding tag mapping table a cacheable area or a non-cacheable area according to the definition of the user. Because the tag mapping table makes the mapped system memory a cacheable area or a non-cacheable area, the user defines it by adding specific address bits. Can be defined in the cache part. Alternatively, in accordance with a user's request, those areas are set to a cacheable range or a non-cacheable range, and the cacheable range of the memory is not a continuous distribution but a scatter distribution according to need.

【0009】使用者は本発明が提出するマッピング方法
により、オペレーティングシステムが頻繁にアクセスす
るシステムメモリーの最上層領域と最下層領域をキャッ
シュ可能範囲にして、システムの効率を高める。本発明
の上記の目的、特徴、および長所をより明らかにするた
めに、比較的良い実施形態を次に記し、図面と合わせ
て、詳しい説明を行う。
According to the mapping method proposed by the present invention, the user increases the efficiency of the system by setting the uppermost area and the lowermost area of the system memory frequently accessed by the operating system to the cacheable range. In order to make the above objects, features and advantages of the present invention more apparent, a better embodiment is described below and is described in detail with reference to the drawings.

【0010】[0010]

【発明の実施の形態】本発明の分散式キャッシュメモリ
ーのマッピング方法は、システムが頻繁にアクセスする
メモリー領域をキャッシュ可能メモリーにして、システ
ムアクセスメモリーの効率を高める。アドレスを示すビ
ット列(アドレスビット列)中で、比較的上位のビット
位置の一組のビットを選んでタグマッピング表(tag ma
pping table)と対応するのに使用する。一組のビット
の値の可能組合せを選んで使用者が定義して、その相対
応するタグマッピング表がマッピングしたシステムメモ
リーをキャッシュ可能領域またはキャッシュ不可能領域
にする。タグマッピング表がマッピングしてシステムメ
モリーをキャッシュ可能領域またはキャッシュ不可能領
域にするのは、使用者がビットを加えて定義する。その
ためシステムメモリーの最上層部分と最下層部分を同時
にキャッシュ可能部分にすることができる。或いは使用
者のニーズにより、それらの領域をキャッシュ可能範囲
或いはキャッシュ不可能範囲として、メモリーのキャッ
シュ可能範囲を連続分布ではなく、分散(scatter)分
布とする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The distributed cache memory mapping method of the present invention increases the efficiency of system access memory by making memory areas frequently accessed by the system cacheable. In a bit string indicating an address (address bit string), a set of bits at a relatively higher bit position is selected and a tag mapping table (tag ma) is selected.
pping table). The user selects and selects a possible combination of bit values to make the system memory mapped by the corresponding tag mapping table a cacheable area or a non-cacheable area. The tag mapping table maps the system memory into a cacheable area or a non-cacheable area, and the bit is defined by the user. Therefore, the uppermost layer and the lowermost layer of the system memory can be simultaneously made cacheable. Alternatively, depending on the needs of the user, those areas are set as a cacheable range or a non-cacheable range, and the cacheable range of the memory is not a continuous distribution but a scatter distribution.

【0011】図4は本発明の分散式キャッシュメモリー
のマッピング方法で、タグマッピング表とメモリーと間
の対応関係を示し、本発明の操作方式とその機能を説明
する。アドレスビット列中で、比較的上位のビット位置
の一組のビットをタグビットと対応するアドレスにし
て、このビットはエンコード方法を経る。エンコード後
のビットがタグビットと一致した時、メモリーはキャッ
シュ可能部分となり、これによりメモリーのキャッシュ
可能範囲を分散式とし、従来一般の連続分布のタイプと
はしない。
FIG. 4 shows a mapping method of a distributed cache memory according to the present invention, showing a correspondence between a tag mapping table and a memory, and explaining an operation method and its function of the present invention. A set of bits in a relatively high order bit position in the address bit string is used as an address corresponding to a tag bit, and this bit is subjected to an encoding method. When the encoded bits match the tag bits, the memory becomes a cacheable part, thereby making the cacheable range of the memory a distributed type, not a conventional continuous distribution type.

【0012】例によると、アドレスビット列中のビット
A[22:20]をタグと相対応するビットにして、三個のビ
ットの組合せによるタグマッピング表が対応するキャッ
シュ可能メモリー部分を決定する。ここではメモリー容
量を8Mとしたものを例とする。キャッシュメモリーサ
イズは512K、タグ(tag)は三桁の数の場合、タグ
がマッピングするキャッシュ可能メモリーのサイズは5
12Kの23倍、即ち4Mのサイズである。これは即
ち、8Mのメモリー中の4Mがキャッシュ可能というこ
とである。
According to an example, the bits A [22:20] in the address bit string are set to bits corresponding to the tag, and a tag mapping table by a combination of three bits determines a corresponding cacheable memory portion. Here, the memory capacity is assumed to be 8M. When the cache memory size is 512K and the tag is a three-digit number, the size of the cacheable memory mapped by the tag is 5
2 3 times the 12K, that is, the size of 4M. This means that 4M in 8M memory is cacheable.

【0013】A[22:20]のアドレスビット合計が8種類
の異なる組合せで、例えば図4が示す(000)から
(111)の順番で、其れはそれぞれメモリーの8個の
部分、8M〜7M、7M〜6M、…、2M〜1Mおよび
1M〜0Mなどの8個のメモリー領域に対応する。この
実施形態では、メモリーを八等分に分ける。
The total address bits of A [22:20] are eight different combinations, for example, in the order from (000) to (111) shown in FIG. .. Corresponds to eight memory areas such as 7M, 7M to 6M,..., 2M to 1M, and 1M to 0M. In this embodiment, the memory is divided into eight equal parts.

【0014】なぜならオペレーティングシステムは、一
般的に上層のメモリーを利用してスタック或いは状態の
維持をつくる。そのためその領域のメモリーは頻繁にア
クセスされるので、最上層部分と最下層部分を予めキャ
ッシュ可能範囲に設定する。図4の8M〜7Mと1M〜
0Mの二つの部分のサイズは2Mである。残りの2Mの
範囲はニーズに合わせて設定することができる。最後に
メモリー中のキャッシュ可能範囲は図が示すように、分
散式分布を呈して、並びにシステムアクセスが最も頻繁
な最上層と最下層(例えば8M〜7Mと1M〜0Mの二
つの部分)をキャッシュ可能部分に設定する。このよう
にしてシステムアクセスメモリーの効率を大幅に高め
る。
[0014] The operating system generally uses the upper memory to create a stack or state maintenance. Therefore, since the memory in that area is frequently accessed, the uppermost layer and the lowermost layer are set in advance as a cacheable range. 8M-7M and 1M- of FIG.
The size of the two parts of 0M is 2M. The remaining 2M range can be set to suit your needs. Finally, as shown in the figure, the cacheable range in the memory exhibits a distributed distribution, and caches the uppermost layer and the lowermost layer (for example, two portions of 8M to 7M and 1M to 0M) where system access is most frequent. Set as possible. In this way, the efficiency of the system access memory is greatly increased.

【0015】図5が示すのは、A[22:20]が(011)の状
況で、エンコード方法を経てタグコードを(01)にす
る。また対応するメモリー範囲が5M〜4Mの対応図で
ある。このため、キャッシュメモリーが512Kを有
し、8ビットのタグを有する時、キャッシュ可能メモリ
ーのサイズは128Mである。8Mを一単位として、上
述の方法によると、選択したアドレスとエンコード方法
はタグビットをメモリーキャッシュ可能範囲に向けて分
散して、メモリー上層と下層部分等の、範囲システムが
よく使用する範囲をキャッシュ可能メモリーにしてシス
テム効率を高める。
FIG. 5 shows that in the situation where A [22:20] is (011), the tag code is set to (01) via the encoding method. FIG. 4 is a correspondence diagram in which a corresponding memory range is 5M to 4M. Thus, when the cache memory has 512K and has an 8-bit tag, the size of the cacheable memory is 128M. According to the above method, with the 8M as a unit, the selected address and encoding method distributes the tag bits toward the memory cacheable range and caches the range frequently used by the range system, such as the upper and lower layers of the memory. Increase system efficiency with available memory.

【0016】[0016]

【発明の効果】そのため、本発明の特徴はアドレスビッ
ト列中の特定のビットをタグビット対応のビットにし
て、この特定ビットはエンコード方法を経て、タグビッ
トと一致するとき、メモリーをキャッシュ可能部分に変
化させて、メモリーのキャッシュ可能範囲を分散式にし
て、従来一般の連続分布と異なるタイプとする。本発明
のもう一つの特徴は、システムメモリーの最上層と最下
層部分をキャッシュ可能範囲にすることである。この部
分はオペレーティングシステムのアクセスが最も頻繁な
部分なため、これによりシステムアクセスメモリーの効
率は大幅に高まる。本発明の更なる特徴はシステムメモ
リーのキャッシュ可能範囲を自由に設定できるため、従
来の連続分布タイプに限定されないことである。
Therefore, a feature of the present invention is that a specific bit in an address bit string is set to a bit corresponding to a tag bit, and when this specific bit matches the tag bit through an encoding method, the memory is stored in a cacheable portion. By changing the range, the cacheable range of the memory is set to a distributed type, which is different from the conventional continuous distribution. Another feature of the present invention is that the uppermost and lowermost parts of the system memory are cacheable. This greatly increases the efficiency of system access memory, as this is the most frequently accessed part of the operating system. A further feature of the present invention is that it is not limited to the conventional continuous distribution type because the cacheable range of the system memory can be freely set.

【0017】この発明を好適な実施形態により開示した
が、もとよりこの発明を限定するためのものではなく、
この技術に習熟したものであれば明らかであるように、
この発明の技術思想の範囲において、適当な変更ならび
に修正が当然なされうるものであるから、その特許権保
護の範囲は特許請求の範囲および、それと均等な領域を
基準として定めなければならない。
Although the present invention has been disclosed by preferred embodiments, it is not intended to limit the present invention.
As will be apparent to those skilled in this technology,
Since appropriate changes and modifications can naturally be made within the scope of the technical concept of the present invention, the scope of patent protection must be determined based on the claims and equivalent areas.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 従来のキャッシュメモリー装置のブロック
図。
FIG. 1 is a block diagram of a conventional cache memory device.

【図2】 (A)はキャッシュメモリーとシステムメモ
リーと間の対応状況を示す図であり、(B)はキャッシ
ュメモリーのアドレス設定方法を示す図。
FIG. 2A is a diagram illustrating a correspondence state between a cache memory and a system memory, and FIG. 2B is a diagram illustrating a method of setting an address of the cache memory.

【図3】 従来のシステムメモリーのキャッシュ可能範
囲とキャッシュ不可能範囲を示す図。
FIG. 3 is a diagram showing a cacheable range and a non-cacheable range of a conventional system memory.

【図4】 本発明のタグマッピング表とメモリー間の対
応関係を示す図。
FIG. 4 is a diagram showing a correspondence between a tag mapping table and a memory according to the present invention.

【図5】 図4のアドレス対応実施形態の図。FIG. 5 is a diagram of the address corresponding embodiment of FIG. 4;

【符号の説明】[Explanation of symbols]

110 キャッシュメモリー装置(cache memory d
evice) 111 キャッシュメモリー(cache memory) 112 キャッシュ制御回路(cache memory contr
ol circuit) 113 データメモリー(data RAM) 114 タグメモリー(tag RAM) 120 中央処理装置(central processing uni
t) 140 システムメモリー(system memory) 150 バス 200a キャッシュ可能範囲のメモリー 200b キャッシュ不可能範囲のメモリー
110 cache memory device
evice) 111 cache memory (cache memory) 112 cache control circuit (cache memory contr)
ol circuit) 113 data memory (data RAM) 114 tag memory (tag RAM) 120 central processing unit (central processing uni)
t) 140 system memory 150 bus 200a memory in cacheable range 200b memory in non-cacheable range

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 メモリーのキャッシュ可能範囲を設定す
る方法が、 アドレスビット列中の比較的上位のアドレスビットの複
数個のビットをタグビット対応のビットにして、 ビットをエンコード方法によりコード化して、そしてエ
ンコード後のビットとタグビットが一致した時、メモリ
ーはキャッシュ可能部分であり、そのうちこれらビット
に対応するメモリーの最上層と最下層範囲を、予めキャ
ッシュ可能範囲に設定することを特徴とする分散式キャ
ッシュメモリーのマッピング方法。
1. A method of setting a cacheable range of a memory, comprising: converting a plurality of relatively high-order address bits in an address bit string into bits corresponding to tag bits; encoding the bits by an encoding method; When the encoded bit and the tag bit match, the memory is a cacheable portion, and the uppermost and lowermost layer ranges of the memory corresponding to these bits are set to the cacheable range in advance. How to map cache memory.
【請求項2】 メモリーのキャッシュ可能範囲を設定す
る方法が、 アドレスビット列中の比較的上位のアドレスビットの複
数個のビットをタグビット対応のビットにして、 ビットをエンコード方法によりコード化して、そしてエ
ンコード後のビットとタグビットが一致した時、メモリ
ーはキャッシュ可能部分であることを特徴とする分散式
キャッシュメモリーのマッピング方法。
2. A method of setting a cacheable range of a memory, comprising: converting a plurality of relatively high-order address bits in an address bit string into bits corresponding to tag bits; encoding the bits by an encoding method; A method for mapping a distributed cache memory, wherein when the encoded bit and the tag bit match, the memory is a cacheable part.
【請求項3】 エンコード後のビットとタグビットの一
致がシステムにより設定されることを特徴とする請求項
2記載の分散式キャッシュメモリーのマッピング方法。
3. The mapping method for a distributed cache memory according to claim 2, wherein the coincidence between the encoded bit and the tag bit is set by the system.
【請求項4】 メモリーに対応するビットがシステムに
より最も頻繁に使用される範囲を予めキャッシュ可能範
囲に設定することを特徴とする請求項2記載の分散式キ
ャッシュメモリーのマッピング方法。
4. The method according to claim 2, wherein a range in which bits corresponding to the memory are most frequently used by the system is set in advance as a cacheable range.
JP2000019307A 1999-03-03 2000-01-27 Distributed cache memory mapping method Expired - Lifetime JP3841998B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW88103217 1999-03-03
TW88103217A TW417048B (en) 1999-03-03 1999-03-03 Mapping method of distributed cache memory

Publications (2)

Publication Number Publication Date
JP2000259499A true JP2000259499A (en) 2000-09-22
JP3841998B2 JP3841998B2 (en) 2006-11-08

Family

ID=21639846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000019307A Expired - Lifetime JP3841998B2 (en) 1999-03-03 2000-01-27 Distributed cache memory mapping method

Country Status (3)

Country Link
JP (1) JP3841998B2 (en)
DE (1) DE19957810A1 (en)
TW (1) TW417048B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028537A (en) * 2009-07-27 2011-02-10 Buffalo Inc Method to speed up access to external storage device and external storage system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10101552A1 (en) * 2001-01-15 2002-07-25 Infineon Technologies Ag Cache memory and addressing method
DE10158393A1 (en) 2001-11-28 2003-06-12 Infineon Technologies Ag Memory for the central unit of a computer system, computer system and method for synchronizing a memory with the main memory of a computer system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028537A (en) * 2009-07-27 2011-02-10 Buffalo Inc Method to speed up access to external storage device and external storage system
US8312213B2 (en) 2009-07-27 2012-11-13 Buffalo Inc. Method to speed up access to an external storage device and an external storage system

Also Published As

Publication number Publication date
DE19957810A1 (en) 2000-09-07
JP3841998B2 (en) 2006-11-08
TW417048B (en) 2001-01-01

Similar Documents

Publication Publication Date Title
KR100797325B1 (en) Unified memory and controller
EP2510444B1 (en) Hierarchical translation tables control
US7519754B2 (en) Hard disk drive cache memory and playback device
US5864876A (en) DMA device with local page table
JP2008507019A (en) Memory management system
CN105830059A (en) Fine pitch connector socket
US6766424B1 (en) Computer architecture with dynamic sub-page placement
US20110161597A1 (en) Combined Memory Including a Logical Partition in a Storage Memory Accessed Through an IO Controller
WO1995016962A1 (en) Dynamic allocation of page sizes in virtual memory
CN102150147A (en) Memory server
US5749093A (en) Enhanced information processing system using cache memory indication during DMA accessing
US5132927A (en) System for cache space allocation using selective addressing
JP3605205B2 (en) Data processing device and processing method
US20070204129A1 (en) Address converting apparatus
JP2000259499A (en) Method for mapping distributing type cache memory
US6279083B1 (en) Circuit and method of controlling cache memory
JPH1063432A (en) File controller
JP5224959B2 (en) Cash system
JPS5918786B2 (en) Hierarchical memory system
CN110704338A (en) Address conversion device, artificial intelligence chip and electronic equipment
JP7048650B2 (en) Memory device and method
JPH03232034A (en) Cache controller
JPH09259041A (en) Cache memory control system
JPS5953588B2 (en) Memory interleave control method
JPH01106149A (en) Information processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060411

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060809

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3841998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110818

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110818

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120818

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120818

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130818

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term