JPS6398749A - Data processor - Google Patents

Data processor

Info

Publication number
JPS6398749A
JPS6398749A JP61245938A JP24593886A JPS6398749A JP S6398749 A JPS6398749 A JP S6398749A JP 61245938 A JP61245938 A JP 61245938A JP 24593886 A JP24593886 A JP 24593886A JP S6398749 A JPS6398749 A JP S6398749A
Authority
JP
Japan
Prior art keywords
cache
sram
memory
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61245938A
Other languages
Japanese (ja)
Inventor
Osamu Yamamoto
治 山本
Yoshiaki Kikko
橘高 義明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP61245938A priority Critical patent/JPS6398749A/en
Publication of JPS6398749A publication Critical patent/JPS6398749A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To attain an access to a memory at a high speed by allocating an address area to which continuous accesses estimated to a special cache memory. CONSTITUTION:When it is previously known that the data stored in a certain area of an address space is used continuously or frequently like in the case of the table processing, etc., an instruction is put into a program to allocate the memory space of said area to a special cache SRAM 2. When this instruction is executed, a CPU produces a load request signal. Receiving this load request signal, a DMA transfer device 6 uses an interleaving system, for example, to store a large quantity of data in a certain area of a DRAM into the SRAM 2 at a high speed via data buses 7 and 8. An access is always given to a designated area via the SRAM 2 after the relevant instruction is carried out. Thus the cache hit rate is increased.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、特にキャッシュメモリ分持つ。[Detailed description of the invention] [Industrial application field] This invention especially has a cache memory.

データ処理装置に関するものである。The present invention relates to a data processing device.

〔従来の仮術〕[Traditional Karijutsu]

第3図1&1は、従来のキャッシュメモリの中でも、最
も簡単な構成のダイレクト・マツブト・キャッシュに必
要なハードフェアのブロック・ダイアグラムである。図
において1121はCPU(中央処理装置)、輪は王メ
モリ(一般にダイナミックRAMが使用される。以下D
RAMと略す。)%11+はキャッシュメモリ(一般に
スタティックRAMが使用される。以下SRAMと略す
。)であり、タグ13RAMとデータ8RAMから構成
されている。(21はCPUからのタグ(アドレス上位
ピット)とタグSRAM内に俗納されている(liiと
t−Jtflするコンパレータであり、間はキャッシュ
コントロールである。また、渠2図11)lは物理アド
レスを示しており、図にお−て、物理アドレスは8つの
フィールドに分かれている。Q4ハタグフィールドであ
り、−バインデックスフイールドである・ 48図のような構成の従来のキャッシュメモリを用いた
データ処理装置においては、キャッシュSRAM…は、
データSRAMとタグSRAMに分かれており、データ
SRAMは、キャッシュに格納されるメモリ・ロケーシ
ョンの内容を含み、インデックスフィールトリーのアド
レスを受ける。タグSRAMは、インデックスフィール
ド(lυのアドレスを受け、DRAl13iの上位アド
レスビットに対応するタグフィールドIを格納する・c
paH)が本ダイレクト・マツブト・キャッシュにアク
セスする際は、常にタグSRAMのアドレスにインデッ
クスフィールド051が使われ、タグSRAMの内容が
、CPUタグフィールドと比較される。一致すると、キ
ャッシュはアクセスされたロケーションのデータを、デ
ータSRAM内に含んでいる。このことは“キャツシュ
ヒツト”を意味し、読み出しデータはキャッシュSRA
M…の外に単に読み出される。一致しない場合、“キャ
ッシュミス”を意味し、データを取得するため、DRA
Mアクセス金実行する。通常、読み出しキャッシュミス
に関してi、DRAMデータはCPUIIりに返される
だけでなく、キャッシュSRAM内口にも入れられる。
Figure 3 1 & 1 is a block diagram of the hardware required for the Direct Matsubuto Cache, which has the simplest configuration among conventional cache memories. In the figure, 1121 is the CPU (central processing unit), and the ring is the main memory (dynamic RAM is generally used. Hereinafter, D
Abbreviated as RAM. ) %11+ is a cache memory (generally a static RAM is used; hereinafter abbreviated as SRAM), which is composed of 13 tag RAMs and 8 data RAMs. (21 is a comparator that connects the tag (address upper pit) from the CPU and the tag (lii and t-Jtfl) commonly stored in the SRAM, and the space between is a cache control. In addition, l is the physical In the figure, the physical address is divided into eight fields: the Q4 tag field, and the bind index field. In data processing devices, cache SRAM...
It is divided into a data SRAM and a tag SRAM, the data SRAM containing the contents of the memory locations stored in the cache and receiving the addresses of the index fields. The tag SRAM receives the address of the index field (lυ and stores the tag field I corresponding to the upper address bits of DRAl13i.
When the paH) accesses this direct Matsubuto cache, the index field 051 is always used for the address of the tag SRAM, and the contents of the tag SRAM are compared with the CPU tag field. If there is a match, the cache contains the data for the accessed location in the data SRAM. This means "cache hit", and the read data is cached in the cache SRA.
M... is simply read out. If they do not match, it means a “cache miss” and the DRA
Execute M access money. Normally, upon a read cache miss, the DRAM data is not only returned to the CPU II, but also placed inside the cache SRAM.

このように、CPUと大型の王メモリ(一般的にD R
A M)の間に高速で比較的小型のメモリ(一般的にS
RAM )を配置することKより、大規模上メモリすべ
てtlあたかも高速なSRAMで構成したかのように、
高速に応答できる。
In this way, the CPU and large memory (generally D R
A fast and relatively small memory (generally S
By arranging RAM), all the memory on a large scale is as if it were composed of high-speed SRAM,
Able to respond quickly.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記のようなキャッシュシステムでハ、例工ば、連続的
に、ある領域内の大量のテ゛−夕をアクセスする場合、
その領域内のデータがキャッシュSRAMIIIK格納
されていなければ、データをアクセスする毎 に、DR
AMアクセスを実行しなければならず、メモリにアクセ
スする時のロスタイムが大きくなってしまう。
In a cache system such as the one described above, for example, when accessing a large number of data in a certain area continuously,
If the data in that area is not stored in the cache SRAM IIIK, each time the data is accessed, the DR
AM access must be performed, which increases loss time when accessing the memory.

この発明は、かかる問題を解決するためになされたもの
で、例えばテーブル処理等のようにアドレス空間のある
領域内のテ°−夕を、連続的に、又は瑣繁に使用する事
がわかっている場合でも、メモリに高速にアクセスでき
るデータ処理装置?得ることを目的とする。
This invention was made to solve this problem, and it is known that a table in a certain area of address space is used continuously or frequently, for example, in table processing. A data processing device that can access memory quickly even when there is? The purpose is to obtain.

〔問題点を解決するための手段〕[Means for solving problems]

この発明に係るデータ処理装置は、キャッシュメモリを
ソックエア的に論理アドレス空間の任意の領域に割りつ
ける手段を備えたものである。
A data processing device according to the present invention is equipped with means for allocating a cache memory to an arbitrary area of a logical address space in a sock-air manner.

〔作用〕[Effect]

この発明においては、特別なキャッシュメモリに、テー
ブル処理などのようにこれから連続してアクセスするこ
とが予想されるアドレス領域を4」り当てることにより
、メモリへのアクセスタイム倉短かくする。
In this invention, memory access time is shortened by allocating address areas that are expected to be accessed continuously in the future, such as in table processing, to a special cache memory.

〔実施例〕〔Example〕

第1図はこの発明の一実施例を示すブロックダイアダラ
ムでろり、…はタグ8RAMとデータ8RAMで構成さ
れたキャッシュ8RAMである。(21は、データを格
納するデータ8RAMと、タグのIii’に格納するタ
グレジスタからなる特別なキャッシュSRAMでろp、
+31は、アドレスバスのタグ(アドレスバスの上位ピ
ット]とキャッシュS RA M 111のタグとを比
較するコンパレータ、141はアドレスバス上のタグと
特別なキャッシュS RA M Illの夕、グとを比
較するコンパレータである。(6)はDRAM内のある
連続した領域を特別なキャッシュSRAM内に一度にロ
ードすることができるDMA転送装置]6)(ダイレク
ト・メモリ・アクセス転送装置)であり、111+は従
来のものより、ロードリクエスト信号t101と、キャ
ッシュS RA M illと特別なキャッシュS R
A M +21とkm択するキャッシュセレクト信号+
51 トが加わったキャッシュコントロールテする。
FIG. 1 shows a block diagram showing an embodiment of the present invention, and . . . is a cache 8RAM composed of 8 tag RAMs and 8 data RAMs. (21 is a special cache SRAM consisting of data 8RAM that stores data and a tag register that stores data in Iii' of the tag.
+31 is a comparator that compares the tag on the address bus (upper pit of the address bus) and the tag on the cache SRAM 111; 141 is a comparator that compares the tag on the address bus with the tag on the special cache SRAM Ill; (6) is a DMA transfer device]6) (direct memory access transfer device) that can load a certain contiguous area in DRAM into a special cache SRAM at once, and 111+ is a direct memory access transfer device. Compared to the conventional one, load request signal t101, cache S RAM ill and special cache S R
Cache select signal + to select A M +21 and km
51 Added cache control text.

上記のように構成されたデータ処理装置においては、C
PUはキャッシュS RA M Illに従来通りアク
セスすることができる。また、キャッシュセレクト信号
(6)倉出いることによって特別なキャッシュS RA
 M Illにも従来通りアクセスできる。しかし、タ
グの更trニ行なわない。ここで例えば、テーブル処理
等のように、アドレス空間のある領域内のデータを連続
的または頂繁に文月することがあらかじめわかっている
場合、プログラム中に、この領域のメモリ空間を特別な
キャッシュS RA M +21に削り当てる命令を入
れておく。この命令が実行されると、CPtrはロード
リクエスト信号を発し、それを受けたDMA転送装置(
6)は、例えばインターリーブ方式を使って、データバ
ス+71 t8) t’介して特別な中ヤツシュS R
A M +21にDRAM内のある領域内のデータを大
量にかつ高速に格納する。
In the data processing device configured as above, C
The PU can access the cache S RAM Ill as usual. In addition, a special cache SRA is activated by the cache select signal (6)
MIll can also be accessed as before. However, the tag is not updated. For example, if it is known in advance that data in a certain area of the address space will be processed continuously or frequently, such as in table processing, the memory space of this area is stored in a special cache during the program. Insert a command to cut down on S RAM +21. When this instruction is executed, CPtr issues a load request signal, and the DMA transfer device (
6) For example, using an interleaving scheme, the data bus +71 t8) t' can be connected to
A large amount of data in a certain area in DRAM is stored in A M +21 at high speed.

この命令の実行後は、指定場れた領域へのアクセスは必
ずキャッシュメモリになされるため、キャツシュヒツト
率は高くなる。
After this instruction is executed, the cache memory is always accessed to the specified area, so the cache hit rate becomes high.

〔発明の効果〕〔Effect of the invention〕

この発明は、以上説明した通り、特別なキャッシュメモ
リを設け、そのキャッシュメモリに格納するデータの領
域を連続とし、また、その領域の指定をソツトクエアで
行うことによって特別なキャッシュメモリを自由に五メ
モリ内に割り当てることができる。そのため、例えばテ
ーブル処理等のように、アドレス空間のある領域内のデ
ータを連続的に1または、瑣繁に使用する仁とが、あら
かじめわかっている場合、データ処理を行う時のアクセ
スタイムを短くすることができる。
As explained above, this invention provides a special cache memory, makes the area of data stored in the cache memory contiguous, and specifies the area using a software square, so that the special cache memory can be freely stored in five memories. can be assigned within. Therefore, if it is known in advance that data in a certain area of the address space will be used continuously or infrequently, as in table processing, the access time during data processing can be shortened. can do.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例を示すブロック・ダイアダ
ラム、第2図+&lは従来のデータ処理装置を示すブロ
ック・ダイアダラム、第2図(blはアドレスバス構成
概念図である。 図において、111はキャッシュS RA M 、 +
21は特別なキャッシュメモリである。 なお、6図中同−符号は、同−筐たは相当部分を示す。
FIG. 1 shows a block diadarum showing an embodiment of the present invention, FIG. 2+&l shows a block diadarum showing a conventional data processing device, and FIG. is cache S RAM, +
21 is a special cache memory. Note that the same reference numerals in Figure 6 indicate the same casings or corresponding parts.

Claims (2)

【特許請求の範囲】[Claims] (1)主メモリと、少なくとも1つのキャッシュメモリ
と、少なくも1つの特別なキャッシュメモリと、前記特
別なキャッシュメモリの任意のアドレス領域に前記主メ
モリの任意のアドレス領域を固定する手段と、前記の手
段を実行させる命令とを備えたことを特徴とするデータ
処理装置。
(1) a main memory, at least one cache memory, at least one special cache memory, means for fixing an arbitrary address area of the main memory to an arbitrary address area of the special cache memory; A data processing device characterized by comprising: an instruction for executing the means.
(2)前記特別なキャッシュメモリの固定を解除する手
段と解除する手段を実行させる命令とを備えたことを特
徴とする特許請求の範囲第1項記載のデータ処理装置。
(2) The data processing device according to claim 1, further comprising means for unfixing the special cache memory and an instruction for executing the unfixing means.
JP61245938A 1986-10-16 1986-10-16 Data processor Pending JPS6398749A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61245938A JPS6398749A (en) 1986-10-16 1986-10-16 Data processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61245938A JPS6398749A (en) 1986-10-16 1986-10-16 Data processor

Publications (1)

Publication Number Publication Date
JPS6398749A true JPS6398749A (en) 1988-04-30

Family

ID=17141090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61245938A Pending JPS6398749A (en) 1986-10-16 1986-10-16 Data processor

Country Status (1)

Country Link
JP (1) JPS6398749A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675856A (en) * 1993-03-12 1994-03-18 Toshiba Corp Cache memory system
US6378050B1 (en) 1998-04-23 2002-04-23 Fujitsu Limited Information processing apparatus and storage medium
JP2002527825A (en) * 1998-10-14 2002-08-27 株式会社日立製作所 Data Streamer
US6507894B1 (en) 1998-12-10 2003-01-14 Nec Corporation Information processing apparatus and process
JP2004310739A (en) * 2003-03-26 2004-11-04 Matsushita Electric Ind Co Ltd Semiconductor device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675856A (en) * 1993-03-12 1994-03-18 Toshiba Corp Cache memory system
US6378050B1 (en) 1998-04-23 2002-04-23 Fujitsu Limited Information processing apparatus and storage medium
JP2002527825A (en) * 1998-10-14 2002-08-27 株式会社日立製作所 Data Streamer
US6507894B1 (en) 1998-12-10 2003-01-14 Nec Corporation Information processing apparatus and process
JP2004310739A (en) * 2003-03-26 2004-11-04 Matsushita Electric Ind Co Ltd Semiconductor device

Similar Documents

Publication Publication Date Title
KR930004430B1 (en) Apparatus for maintaining consistency in a multiprocessor computer system using caching
US3761881A (en) Translation storage scheme for virtual memory system
EP0208428B1 (en) Direct input/output in a virtual memory system
US4173783A (en) Method of accessing paged memory by an input-output unit
US5694567A (en) Direct-mapped cache with cache locking allowing expanded contiguous memory storage by swapping one or more tag bits with one or more index bits
US5404476A (en) Multiprocessing system having a single translation lookaside buffer with reduced processor overhead
US5860144A (en) Addressing method and system for providing access of a very large size physical memory buffer to a number of processes
JPH0628262A (en) Look-aside buffer and method for high-speed translation of virtual address for physical address
TW376488B (en) Virtual memory system with local and global virtual address translation
US5179675A (en) Data processing system with cache memory addressable by virtual and physical address
US5293622A (en) Computer system with input/output cache
JPS6398749A (en) Data processor
JPH0519176B2 (en)
GB2214336A (en) Cache memory apparatus
EP0474356A1 (en) Cache memory and operating method
KR960008320B1 (en) System equipped with processor and method of converting addresses in the said system
GB1233792A (en)
JP2659007B2 (en) Information processing method and apparatus
JP2002041358A (en) Processor system
CN117971716A (en) Cache management method, equipment, device and storage medium
JPH02226447A (en) Computer system and memory access therefor
JPH02101552A (en) Address conversion buffer processing system
JPH04205535A (en) Copy on write system
JPH03127146A (en) Information processor
JPH01309153A (en) Information processor