JPH0561769A - Memory access method - Google Patents

Memory access method

Info

Publication number
JPH0561769A
JPH0561769A JP3281833A JP28183391A JPH0561769A JP H0561769 A JPH0561769 A JP H0561769A JP 3281833 A JP3281833 A JP 3281833A JP 28183391 A JP28183391 A JP 28183391A JP H0561769 A JPH0561769 A JP H0561769A
Authority
JP
Japan
Prior art keywords
memory
address
cache memory
main memory
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3281833A
Other languages
Japanese (ja)
Inventor
Hiroyuki Ikegami
裕之 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP3281833A priority Critical patent/JPH0561769A/en
Publication of JPH0561769A publication Critical patent/JPH0561769A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To accelerate data transfer from a cache memory to a main memory by allocating the row address of the main memory in the index range of the cache memory and obtaining continuity in the index. CONSTITUTION:Among addresses outputted from a processor 1, the high-order address is allocated to the tag address of an external cache memory 3 and the column address of a main memory 4, and the low-order address is allocated to the index of the external cache memory 3 and the row address of the main memory 4. Therefore, concerning the external cache memory 3, the index as the low-order address is made continuous, and the tag address as the high-order address is made discontinuous. In this case, after the index is generated, a row address strobe signal can be asserted without waiting for the generation of the tag address and the start of access to the main memory 4 can be accelerated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明はプロセッサによるメモ
リ・アクセス所要時間を短縮するために設けられたキャ
ッシュ・メモリの内容をメイン・メモリに書込むととも
にメイン・メモリの内容の一部をキャッシュ・メモリに
読出すメモリ・アクセス方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention writes the contents of a cache memory provided in order to reduce the time required for memory access by a processor to a main memory and also partially writes the contents of the main memory to the cache memory. The present invention relates to a memory access method for reading data in a memory.

【0002】[0002]

【従来の技術】従来からプロセッサによるメモリ・アク
セス所要時間を短縮するためにキャッシュ・メモリを設
けることが一般化しつつある。このようなシステムにお
いては、メイン・メモリをDRAM(ダイナミック・ラ
ンダム・アクセス・メモリ)で構成し、キャッシュ・メ
モリをDRAMよりも高速アクセス可能なメモリで構成
することによりプロセッサによるメモリ・アクセス所要
時間を短縮し、しかもメモリ全体としてのコストアップ
を抑制する構成が採用される。
2. Description of the Related Art Conventionally, it has been generalized to provide a cache memory in order to reduce the time required for memory access by a processor. In such a system, the main memory is composed of a DRAM (dynamic random access memory), and the cache memory is composed of a memory which can be accessed at a higher speed than the DRAM so that the memory access time required by the processor is reduced. A configuration is adopted that shortens the cost and suppresses an increase in the cost of the entire memory.

【0003】そして、メモリ・アクセスのためのアドレ
スのうち、上位アドレスがキャッシュ・メモリのタグ・
アドレスおよびメイン・メモリのロー・アドレスに割当
てられ、下位アドレスがキャッシュ・メモリのインデッ
クスおよびメイン・メモリのコラム・アドレスに割当て
られている。したがって、上位アドレスおよび下位アド
レスを適宜設定することによりキャッシュ・メモリから
メイン・メモリへのデータの書込みおよびメイン・メモ
リからキャッシュ・メモリへのデータの読出しを行なう
ことができ、しかも、キャッシュ・メモリに該当するデ
ータが存在している場合にメイン・メモリに対するアク
セスに代えてキャッシュ・メモリに対するアクセスを行
なうことによりプロセッサによるメモリ・アクセス所要
時間を大巾に短縮できる。
Of the addresses for memory access, the upper address is the tag of the cache memory.
Addresses and main memory row addresses are assigned, and lower addresses are assigned to cache memory indexes and main memory column addresses. Therefore, data can be written from the cache memory to the main memory and data can be read from the main memory to the cache memory by appropriately setting the upper address and the lower address. By accessing the cache memory instead of accessing the main memory when the corresponding data exists, the time required for memory access by the processor can be greatly shortened.

【0004】[0004]

【発明が解決しようとする課題】上記従来のメモリ・ア
クセス方法においては、シングル・プロセッサ・システ
ムが殆どであり、このシステムにおいてはプロセッサに
よるメモリ・アクセス所要時間が短縮できればよいので
あるから、キャッシュ・メモリからメイン・メモリへの
データの書込みおよびメイン・メモリからキャッシュ・
メモリへのデータの読出しを高速化しなければならない
という要求は殆どなかった。しかし、マルチ・プロセッ
サ・システムにおいては、アプリケーション・プログラ
ムによってはキャッシュ・メモリからメイン・メモリに
対して一度にデータを転送しなければならない場合が生
じるが、キャッシュ・メモリの性格上、タグ・アドレス
(上位アドレス)に連続性がないのであるから、DRA
Mで構成されたメイン・メモリに対する書込みアクセス
において高速アクセス・モードを採用することができ
ず、上記データ転送に必要な時間が著しく長くなってし
まい、この間に他のプロセッサを強制的にウェイトさせ
ることになるという不都合がある。また、メイン・メモ
リに対するパイプライン的なアクセスを行なうことも不
可能であるため、上記データ転送に必要な時間が著しく
長くなってしまい、同様に他のプロセッサをウェイトさ
せてしまうという不都合がある。
Most of the conventional memory access methods described above are single-processor systems. In this system, it is sufficient if the time required for memory access by the processor can be shortened. Write data from memory to main memory and cache from main memory
There was almost no demand that the reading of data from the memory should be speeded up. However, in a multi-processor system, depending on the application program, data may have to be transferred from the cache memory to the main memory at once, but due to the nature of the cache memory, the tag address ( DRA because there is no continuity in the upper address)
The fast access mode cannot be adopted in the write access to the main memory configured by M, and the time required for the above data transfer becomes remarkably long, and other processors are forced to wait during this time. There is an inconvenience that Further, since it is not possible to perform pipeline access to the main memory, the time required for the data transfer becomes extremely long, and there is a disadvantage that another processor is also put in a wait state.

【0005】さらに、キャッシュ・メモリにインデック
スを与え、それによりタグ・アドレスが出力されてから
メイン・メモリに対するアクセスが開始する{ロー・ア
ドレス・ストローブ信号(以下、RASと略称する)お
よびコラム・アドレス・ストローブ信号(以下、CAS
と略称する)のアサートを行なう}ことになるのである
から(図5参照)、メイン・メモリに対するアクセスが
開始されるまでの所要時間が長くなり、この結果、メモ
リ・アクセスに必要な時間が一層長くなってしまい、同
様に他のプロセッサをウェイトさせてしまうというとい
う不都合がある。
Further, an index is given to the cache memory so that the access to the main memory is started after the tag address is output (a row address strobe signal (hereinafter abbreviated as RAS) and a column address).・ Strobe signal (hereinafter referred to as CAS
Will be asserted) (see FIG. 5) (see FIG. 5), the time required until the access to the main memory is started becomes longer, and as a result, the time required for memory access is further increased. There is an inconvenience that it becomes long and similarly causes other processors to wait.

【0006】尚、以上にはマルチ・プロセッサ・システ
ムに適用した場合についてのみ説明したが、シングル・
プロセッサ・システムにおいてもプロセッサのウェイト
時間が長くなることに起因してシステム全体としての処
理能力が低下するという不都合がある。
In the above description, only the case of application to a multi-processor system has been described.
Also in the processor system, there is a disadvantage that the processing capacity of the entire system is lowered due to the long wait time of the processor.

【0007】[0007]

【発明の目的】この発明は上記の問題点に鑑みてなされ
たものであり、キャッシュ・メモリを有するメモリ・シ
ステムにおいてキャッシュ・メモリからメイン・メモリ
へのデータ転送を行なうためのメモリ・アクセス所要時
間を大巾に短縮できる新規なメモリ・アクセス方法を提
供することを目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and a memory access time required for transferring data from a cache memory to a main memory in a memory system having a cache memory. It is an object of the present invention to provide a new memory access method capable of significantly shortening the memory size.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めの、請求項1のメモリ・アクセス方法は、メイン・メ
モリのロー・アドレスをキャッシュ・メモリのインデッ
クスの範囲で割当て、コラム・アドレスをキャッシュ・
メモリのタグ・アドレスおよびロー・アドレスで使用し
なかったインデックスに割当てる方法である。
To achieve the above object, a memory access method according to claim 1 allocates a row address of a main memory within a range of an index of a cache memory and a column address. cache·
This is a method of assigning to an index that has not been used for the tag address and row address of the memory.

【0009】[0009]

【作用】請求項1のメモリ・アクセス方法であれば、メ
イン・メモリよりも高速アクセス可能なキャッシュ・メ
モリのインデックスが連続性を有している。そして、こ
のインデックスをメイン・メモリのロー・アドレスに割
当てているのであるからアドレスの先出しが可能にな
り、メイン・メモリに対するパイプライン的なアクセス
を達成できるので、キャッシュ・メモリの内容を一度に
メイン・メモリに転送する場合における高速転送を達成
でき、メモリ・アクセス所要時間を大巾に短縮できる。
According to the memory access method of the first aspect, the index of the cache memory that can be accessed faster than the main memory has continuity. Since this index is assigned to the low address of the main memory, it is possible to preempt the address, and pipeline access to the main memory can be achieved. -High-speed transfer can be achieved when transferring to memory, and the time required for memory access can be greatly shortened.

【0010】また、キャッシュ・メモリを複数セット有
しているとともにメイン・メモリがDRAMで構成され
ているメモリ・システムにおいては、ある1つのインデ
ックスに対して複数のタグ・アドレスが存在するのであ
るが、インデックスをロー・アドレスに割当てているの
であるから、キャッシュ・メモリからメイン・メモリへ
のデータ転送を行なう場合にDRAMの高速アクセス・
モード(例えば、高速ページ・モード)を採用でき、キ
ャッシュ・メモリの内容を一度にメイン・メモリに転送
する場合における高速転送を達成でき、メモリ・アクセ
ス所要時間を大巾に短縮できる。
Further, in a memory system having a plurality of sets of cache memory and a main memory composed of a DRAM, a plurality of tag addresses exist for a certain index. Since the index is assigned to the low address, high-speed access to the DRAM is possible when data is transferred from the cache memory to the main memory.
A mode (for example, high speed page mode) can be adopted, high speed transfer can be achieved when the contents of the cache memory are transferred to the main memory at once, and the memory access time can be greatly shortened.

【0011】さらに、キャッシュ・メモリに対するアク
セスを行なう場合にはアドレスに関してインデックスの
次にタグ・アドレスが与えられるのであり、メイン・メ
モリに対するアクセスを行なう場合にはアドレスに関し
てロー・アドレスの次にコラム・アドレスが与えられる
のである。そして、この発明においては、キャッシュ・
メモリに与える下位アドレスがインデックスであり、し
かもメイン・メモリのロー・アドレスが下位アドレスと
して割当てられているのであるから、両メモリに対する
アクセスを行なう場合のアドレスの順序が一致し、メモ
リ・アクセスの高速化およびタイミング的なマージンの
確保を簡単に達成でき、メモリ・アクセス所要時間を大
巾に短縮できる。
Further, when the cache memory is accessed, the tag address is given next to the address with respect to the address, and when the main memory is accessed, the row address is followed by the column address with respect to the address. The address is given. In the present invention, the cache
Since the lower address given to the memory is the index and the low address of the main memory is assigned as the lower address, the order of the addresses when accessing both memories is the same, and high-speed memory access is possible. It is possible to easily achieve high efficiency and secure timing margin, and it is possible to greatly reduce the time required for memory access.

【0012】[0012]

【実施例】以下、実施例を示す添付図面によって詳細に
説明する。図1はこの発明のメモリ・アクセス方法が実
施されるメモリ・アクセス・システムの一実施例を示す
ブロック図であり、プロセッサ1とメモリ・コントロー
ラ2と、外部キャッシュ・メモリ3と、DRAMからな
るメイン・メモリ4とを有している。そして、プロセッ
サ1から出力されるアドレスのうち、上位アドレスを外
部キャッシュ・メモリ3のタグ・アドレスおよびメイン
・メモリ4のコラム・アドレスに割当てているととも
に、下位アドレスを外部キャッシュ・メモリ3のインデ
ックスおよびメイン・メモリ4のロー・アドレスに割当
てている。但し、より正確には、外部キャッシュ・メモ
リ3のインデックスの範囲内においてメイン・メモリ4
のロー・アドレスを下位アドレスに割当てている。
Embodiments will now be described in detail with reference to the accompanying drawings showing embodiments. FIG. 1 is a block diagram showing an embodiment of a memory access system in which the memory access method of the present invention is implemented. A main unit including a processor 1, a memory controller 2, an external cache memory 3 and a DRAM. -Has memory 4. Of the addresses output from the processor 1, the upper address is assigned to the tag address of the external cache memory 3 and the column address of the main memory 4, and the lower address is assigned to the index of the external cache memory 3 and It is assigned to the low address of the main memory 4. However, more accurately, within the range of the index of the external cache memory 3, the main memory 4
Row address is assigned to the lower address.

【0013】以上のように上位アドレスと下位アドレス
とを割当てれば、外部キャッシュ・メモリ3に関して、
下位アドレスとしてのインデックスが連続性を有し、上
位アドレスとしてのタグ・アドレスが不連続になる。上
記メモリ・アクセス方法によるメモリ・アクセス動作を
図2に示すタイミングチャートを参照しながら説明す
る。
By allocating the upper address and the lower address as described above, the external cache memory 3 becomes
The index as the lower address has continuity, and the tag address as the upper address becomes discontinuous. The memory access operation according to the above memory access method will be described with reference to the timing chart shown in FIG.

【0014】上記メモリ・アクセス・システムにおいて
は、外部キャッシュ・メモリに対するインデックス(図
2(A)参照)が下位アドレスに割当てられているので
あるから、インデックスが発生した後はタグ・アドレス
の発生を待つことなくRASをアサートできる(図2
(B)(C)参照)。そして、タグ・アドレスが発生し
た後にCASをアサートしてメイン・メモリ4に対する
アクセスを開始できるのであるから、インデックスおよ
びタグ・アドレスが共に発生した後にRASおよびCA
Sをこの順にアサートする従来方法と比較してメイン・
メモリ4に対するアクセス開始を早めることができ、メ
モリ・アクセスの高速化、タイミング的な余裕の確保を
達成できる。
In the above memory access system, since the index (see FIG. 2A) for the external cache memory is assigned to the lower address, the tag address is not generated after the index is generated. RAS can be asserted without waiting (Fig. 2
(See (B) and (C)). Since CAS can be asserted after the tag address is generated and access to the main memory 4 can be started, RAS and CA are generated after both the index and the tag address are generated.
Compared with the conventional method that asserts S in this order,
It is possible to speed up the start of access to the memory 4, speed up memory access, and secure a timing margin.

【0015】[0015]

【実施例2】図3はNウェイ・セットのキャッシュ構成
を有する外部キャッシュ・メモリ3を有しているメモリ
・アクセス・システムを概略的に説明する図であり、1
つのインデックスに対してN個のタグTag1,Tag
2,・・・TagNを持っている。
Second Embodiment FIG. 3 is a diagram schematically illustrating a memory access system having an external cache memory 3 having an N-way set cache configuration.
N tags Tag1, Tag for one index
2, ... I have TagN.

【0016】この場合において、各タグはタグ情報、ス
テートおよびデータ、インストラクションを含んでいる
のであるからタグ・アドレスには連続性がない。したが
って、タグ・アドレスを下位アドレスとする従来方法に
おいては、上記インデックス値に対応するキャッシュ・
データをメイン・メモリ4に書込む場合に、各タグ毎に
RASおよびCASをアサートしなければならず、全体
としてキャッシュ・データ書込み所要時間が著しく長く
なってしまう。
In this case, since each tag includes tag information, state and data, and instruction, the tag address has no continuity. Therefore, in the conventional method that uses the tag address as the lower address, the cache address corresponding to the index value is
When writing data to the main memory 4, RAS and CAS must be asserted for each tag, and the time required for writing cache data becomes extremely long as a whole.

【0017】しかし、この実施例においては、N個のタ
グに共通のインデックス値がロー・アドレスに割当てら
れているのであるから、RASを1回アサートした後に
CASをN回アサートするだけでよく、DRAMに対す
るアクセスにおいて公知の高速ページ・モードが適用で
きるのであるから、全体としてキャッシュ・データ書込
み所要時間を著しく短縮できる。
However, in this embodiment, since the index value common to the N tags is assigned to the row address, it is only necessary to assert RAS once and then CAS CAS N times. Since the known fast page mode can be applied to the access to the DRAM, the time required for writing the cache data can be remarkably shortened as a whole.

【0018】[0018]

【実施例3】図4はこの発明のメモリ・アクセス方法を
実施するメモリ・アクセス・システムの他の実施例を示
すブロック図であり、メイン・メモリ4が2つのメイン
・メモリ4a,4bに区分されている。そして、アドレ
ス・ジェネレータ5から出力される2種類のアドレスを
セレクタ6を介して外部キャッシュ・メモリ3にインデ
ックスとして供給しているとともに、該当するアドレス
・バスを介して該当するメイン・メモリのアドレス端子
にロー・アドレスとして供給している。また、外部キャ
ッシュ・メモリ3から出力されるタグ・アドレスをメイ
ン・メモリ4a,4bのアドレス端子にコラム・アドレ
スとして供給しているとともに外部キャッシュ・メモリ
3から出力されるデータをデータ端子に供給している。
さらに、メイン・メモリ4a,4bのそれぞれにRAS
がアサートされるようにしている。尚、上記2種類のア
ドレスは、例えば偶数アドレスと奇数アドレスであるこ
とが好ましい。
[Third Embodiment] FIG. 4 is a block diagram showing another embodiment of the memory access system for implementing the memory access method of the present invention, in which the main memory 4 is divided into two main memories 4a and 4b. Has been done. Then, two kinds of addresses output from the address generator 5 are supplied to the external cache memory 3 as an index through the selector 6, and at the same time, an address terminal of the corresponding main memory is supplied through the corresponding address bus. As a low address. Further, the tag address output from the external cache memory 3 is supplied to the address terminals of the main memories 4a and 4b as a column address, and the data output from the external cache memory 3 is supplied to the data terminal. ing.
Further, RAS is provided in each of the main memories 4a and 4b.
Is to be asserted. The two types of addresses are preferably even addresses and odd addresses, for example.

【0019】この実施例の作用は次のとおりである。外
部キャッシュ・メモリ3からタグ・データを呼び出すた
めのアドレスとして例えばa0およびa0+1を出力す
る。この場合に、セレクタ6はアドレスa0を最初に選
択する。そして、アドレスa0が確定した後に、メイン
・メモリ4aに対するRASをアサートし、外部キャッ
シュ・メモリ3から出力されるタグ・アドレスおよびデ
ータが確定した時点でメイン・メモリ4aに対する書込
みアクセスを行なう。また、メイン・メモリ4aに対す
る書込みアクセスを行なっている間にメイン・メモリ4
bに対するRASをアサートしておく。
The operation of this embodiment is as follows. For example, a0 and a0 + 1 are output as addresses for calling the tag data from the external cache memory 3. In this case, the selector 6 first selects the address a0. Then, after the address a0 is determined, RAS is asserted for the main memory 4a, and when the tag address and data output from the external cache memory 3 are determined, the write access to the main memory 4a is performed. While the main memory 4a is being accessed for writing, the main memory 4a
Assert RAS for b.

【0020】次いで、メイン・メモリ4aに対する書込
みアクセス完了後にセレクタ6を切換え動作させてアド
レスa0+1を選択し、アドレス・ジェネレータ5は次
のアドレスa0+2を発生する。そして、アドレスa0
+1が確定し、外部キャッシュ・メモリ3から出力され
るタグ・アドレスおよびデータが確定した時点でメイン
・メモリ4bに対する書込みアクセスを行なう。また、
メイン・メモリ4bに対する書込みアクセスを行なって
いる間にメイン・メモリ4aに対するRASをアサート
しておく。
After completion of the write access to the main memory 4a, the selector 6 is switched to select the address a0 + 1, and the address generator 5 generates the next address a0 + 2. And the address a0
When +1 is determined and the tag address and data output from the external cache memory 3 are determined, write access to the main memory 4b is performed. Also,
The RAS for the main memory 4a is asserted while the write access for the main memory 4b is being performed.

【0021】以下、上記動作を反復することにより外部
キャッシュ・メモリ3からメイン・メモリ4a,4bへ
のデータ書込みをパイプライン的に行ない、全体として
キャッシュ・データ書込み所要時間を著しく短縮でき
る。以上の各実施例は外部キャッシュ・メモリ3からメ
イン・メモリ4,4a,4bに対してデータを転送する
場合についてのみ説明したが、メイン・メモリ4,4
a,4bから外部キャッシュ・メモリ3に対してデータ
を転送する場合についても以下のようにして従来方法と
同様のメモリ・アクセス速度を達成できる。
By repeating the above operation, the data writing from the external cache memory 3 to the main memories 4a and 4b is performed in a pipeline manner, and the time required for writing the cache data can be remarkably shortened. The above embodiments have been described only with respect to the case of transferring data from the external cache memory 3 to the main memories 4, 4a and 4b.
Also in the case of transferring data from a and 4b to the external cache memory 3, the same memory access speed as the conventional method can be achieved as follows.

【0022】即ち、従来はタグ・アドレスをロー・アド
レスに割当て、外部キャッシュ・メモリ3の1ラインを
複数ワードにしている場合におけるワード・アドレスを
示すビットとインデックスとをコラム・アドレスとして
割当て、両アドレスに基づいて外部キャッシュ・メモリ
3に対するアクセスを行なっている。したがって、タグ
・アドレスをロー・アドレスとして高速ページ・モード
等により高速アクセスを達成できる。これに対して、こ
の発明においては、インデックスのみをロー・アドレス
として割当て、タグ・アドレスおよび上記ワード・アド
レスを示すビットをコラム・アドレスとして割当て、両
アドレスに基づいて外部キャッシュ・メモリ3に対する
アクセスを行なう。したがって、インデックスをロー・
アドレスとして高速ページ・モード等により高速アクセ
スを達成できる。
That is, conventionally, a tag address is assigned to a row address, and a bit and an index indicating a word address when one line of the external cache memory 3 is set to a plurality of words are assigned as column addresses. The external cache memory 3 is accessed based on the address. Therefore, high-speed access can be achieved by using the tag address as a low address in a high-speed page mode or the like. On the other hand, in the present invention, only the index is assigned as the row address, the tag address and the bit indicating the word address are assigned as the column address, and the external cache memory 3 is accessed based on both addresses. To do. Therefore, the index
High-speed access can be achieved by using the high-speed page mode as an address.

【0023】[0023]

【発明の効果】以上のように請求項1の発明は、両メモ
リに対するアクセスを行なう場合のアドレスの順序が一
致し、メモリ・アクセスの高速化およびタイミング的な
マージンの確保を簡単に達成してメモリ・アクセス所要
時間を大巾に短縮でき、また、メイン・メモリに対する
パイプライン的なアクセスを達成でき、さらに、キャッ
シュ・メモリからメイン・メモリへのデータ転送を行な
う場合にDRAMの高速アクセス・モードを採用でき、
キャッシュ・メモリの内容を一度にメイン・メモリに転
送する場合における高速転送を達成でき、メモリ・アク
セス所要時間を大巾に短縮できるという特有の効果を奏
する。
As described above, according to the first aspect of the present invention, the order of addresses when accessing both memories is the same, and it is possible to easily achieve high-speed memory access and secure timing margin. Memory access time can be greatly shortened, pipeline access to main memory can be achieved, and DRAM high-speed access mode can be used when data is transferred from cache memory to main memory. Can be adopted,
High-speed transfer can be achieved in the case of transferring the contents of the cache memory to the main memory at one time, and the memory access required time can be greatly shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明のメモリ・アクセス方法が実施される
メモリ・アクセス・システムの一実施例を示すブロック
図である。
FIG. 1 is a block diagram showing an embodiment of a memory access system in which a memory access method of the present invention is implemented.

【図2】この発明のメモリ・アクセス方法によるメモリ
・アクセス動作を説明するタイミングチャートである。
FIG. 2 is a timing chart illustrating a memory access operation according to the memory access method of the present invention.

【図3】Nウェイ・セットのキャッシュ構成を有する外
部キャッシュ・メモリを有しているメモリ・アクセス・
システムを概略的に説明する図である。
FIG. 3 is a memory access with external cache memory having an N-way set cache configuration.
It is a figure which illustrates a system roughly.

【図4】この発明のメモリ・アクセス方法を実施するメ
モリ・アクセス・システムの他の実施例を示すブロック
図である。
FIG. 4 is a block diagram showing another embodiment of a memory access system for implementing the memory access method of the present invention.

【図5】従来のメモリ・アクセス方法によるメモリ・ア
クセス動作を説明するタイミングチャートである。
FIG. 5 is a timing chart illustrating a memory access operation according to a conventional memory access method.

【符号の説明】[Explanation of symbols]

1 プロセッサ 3 外部キャッシュ・メモリ 4,4a,4b メイン・メモリ 1 processor 3 external cache memory 4, 4a, 4b main memory

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 メイン・メモリ(4)(4a)(4b)
の内容の一部をキャッシュ・メモリ(3)に読出してお
き、キャッシュ・メモリ(3)に該当するデータが存在
する場合にプロセッサ(1)からキャッシュ・メモリ
(3)に対してアクセスを行ない、必要に応じてキャッ
シュ・メモリ(3)の内容をメイン・メモリ(4)(4
a)(4b)に書込むとともに、メイン・メモリ(4)
(4a)(4b)の該当箇所の内容をキャッシュ・メモ
リ(3)に読出すメモリ・アクセス方法において、メイ
ン・メモリ(4)(4a)(4b)のロー・アドレスを
キャッシュ・メモリ(3)のインデックスの範囲で割当
て、コラム・アドレスをキャッシュ・メモリ(3)のタ
グ・アドレスおよびロー・アドレスで使用しなかったイ
ンデックスに割当てることを特徴とするメモリ・アクセ
ス方法。
1. Main memory (4) (4a) (4b)
A part of the contents of the above is read into the cache memory (3), and when the corresponding data exists in the cache memory (3), the processor (1) accesses the cache memory (3), If necessary, the contents of the cache memory (3) are transferred to the main memory (4) (4
a) (4b) and the main memory (4)
In the memory access method of reading the contents of the corresponding portions of (4a) and (4b) into the cache memory (3), the row address of the main memory (4) (4a) (4b) is set to the cache memory (3). Memory access method, wherein the column address is allocated to the index not used in the tag address and row address of the cache memory (3).
JP3281833A 1991-09-02 1991-09-02 Memory access method Pending JPH0561769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3281833A JPH0561769A (en) 1991-09-02 1991-09-02 Memory access method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3281833A JPH0561769A (en) 1991-09-02 1991-09-02 Memory access method

Publications (1)

Publication Number Publication Date
JPH0561769A true JPH0561769A (en) 1993-03-12

Family

ID=17644646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3281833A Pending JPH0561769A (en) 1991-09-02 1991-09-02 Memory access method

Country Status (1)

Country Link
JP (1) JPH0561769A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0694844A1 (en) * 1994-07-28 1996-01-31 Sun Microsystems, Inc. Reduced memory pin addressing for cache and main memory
US7305587B2 (en) 2003-02-27 2007-12-04 Denso Corporation Electronic control unit for monitoring a microcomputer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0694844A1 (en) * 1994-07-28 1996-01-31 Sun Microsystems, Inc. Reduced memory pin addressing for cache and main memory
US7305587B2 (en) 2003-02-27 2007-12-04 Denso Corporation Electronic control unit for monitoring a microcomputer

Similar Documents

Publication Publication Date Title
US4937791A (en) High performance dynamic ram interface
US4803621A (en) Memory access system
US5265231A (en) Refresh control arrangement and a method for refreshing a plurality of random access memory banks in a memory system
US5555528A (en) Dynamic random access memory persistent page implemented as processor register sets
JP2968486B2 (en) Memory, memory subsystem, memory device, and memory system address method
JPH087718B2 (en) Computer memory system
JP2004536417A (en) Memory device for performing addressing with different burst order in read and write operations
US6381686B1 (en) Parallel processor comprising multiple sub-banks to which access requests are bypassed from a request queue when corresponding page faults are generated
US5732236A (en) Circuit and method for controlling access to paged DRAM banks with request prioritization and improved precharge schedule
JPH07248963A (en) Dram controller
KR100298955B1 (en) Data processing system
US6433786B1 (en) Memory architecture for video graphics environment
JPH0561769A (en) Memory access method
JPH10143428A (en) Memory control system for power saving and memory control circuit
KR100417548B1 (en) Integrated cache memory and how to provide data to memory devices in digital memory
US5249277A (en) Optimized performance memory method and system
KR940001590B1 (en) Method and device for shortening memory access time in reading and writing
JPH01195552A (en) Memory access control system
JP3243996B2 (en) Memory control method and device
JPH1091527A (en) Storage device and storage medium
JPH08227376A (en) Computer system and its operating method
JPH0525331B2 (en)
JP3314395B2 (en) Memory controller
JPH047761A (en) Memory access method
JPH0784866A (en) Memory control circuit