JPH01315849A - Information processor - Google Patents

Information processor

Info

Publication number
JPH01315849A
JPH01315849A JP63148961A JP14896188A JPH01315849A JP H01315849 A JPH01315849 A JP H01315849A JP 63148961 A JP63148961 A JP 63148961A JP 14896188 A JP14896188 A JP 14896188A JP H01315849 A JPH01315849 A JP H01315849A
Authority
JP
Japan
Prior art keywords
data
bus
data bus
main memory
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63148961A
Other languages
Japanese (ja)
Inventor
Mitsuyuki Yamanaka
光之 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63148961A priority Critical patent/JPH01315849A/en
Publication of JPH01315849A publication Critical patent/JPH01315849A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To transfer data from a main memory to a cache memory without being restricted with the bus width of the data bus of a central processor by connecting the main memory to the cache memory by means of the extended data bus at the broader width than that of the data bus to send the data to the central processor. CONSTITUTION:The data stored into a main memory 3 and a cache memory 2 are read through a data bus 6 at an (n) bit width by a central processor 1, and the main memory 3 is connected to the cache memory 2 by an extended data bus 7 at an (m) bit width (m>n). For example, the bus width of the data bus 6 is of 32 bits, and the bus width of the extended data bus 7 is of 64 bits. A multiplexer 4 extracts the data at 32 bits required by the central processor 1 out of the data at 64 bits on the extended data bus 7 by a control signal 102 from a controller 5, and sends them through the data bus 6 to the central processor 1. Thus, without being restricted by the bus width of the data bus 6 of the central processor 1, the data can be transferred from the main memory 3 to the cache memory 2.

Description

【発明の詳細な説明】 反丘立ヱ 本発明は情報処理装置に関し、特に中央処理装置と主記
憶およびキャッシュとの間のデータ転送方式に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an information processing device, and more particularly to a data transfer method between a central processing unit and a main memory and cache.

え股玖迷 従来、この種の情報処理装置においては、第2図に示す
ように、中央処理装置1とキャッシュ2とメインメモリ
3とが夫々データバス6により接続されている。
Conventionally, in this type of information processing apparatus, a central processing unit 1, a cache 2, and a main memory 3 are connected by a data bus 6, respectively, as shown in FIG.

中央処理装置1がメインメモリ3に格納されたデータを
読出す場合には、まずキャッシュ2に目的とするデータ
が格納されているかがチエツクされ、キャッシュ2に目
的とするデータが格納されていればキャツシュヒツトと
なってキャッシュ2から目的とするデータが直接読出さ
れる。このとき、中央処理装置1からメインメモリ3へ
のアクセスは行われない。
When the central processing unit 1 reads data stored in the main memory 3, it first checks whether the target data is stored in the cache 2, and if the target data is stored in the cache 2, it is checked. The target data is read directly from the cache 2 as a cache hit. At this time, the central processing unit 1 does not access the main memory 3.

また、キャッシュ2に目的とするデータか格納されてい
なければ、キャッシュミスヒツトとなってメインメモリ
3から目的とするデータが読出され、同時にこのメイン
メモリ3から読出されたデータがキャッシュ2に書込ま
れる。
Furthermore, if the target data is not stored in cache 2, a cache miss occurs and the target data is read from main memory 3, and at the same time, the data read from main memory 3 is written to cache 2. It will be done.

このような従来の情報処理装置では、キャッシュミスヒ
ツトになるとメインメモリ3から読出されたデータがキ
ャッシュ2に書込まれているが、メインメモリ3からの
1回のデータ転送でキャッシュ2に書込まれるデータは
データバス6のバス幅により制限され、さらにデータバ
ス6のバス幅は中央処理装置1のデータバスのバス幅に
よって制限されるという欠点がある。
In such conventional information processing devices, when a cache miss occurs, data read from main memory 3 is written to cache 2; There is a drawback that the data that can be stored is limited by the bus width of the data bus 6, and furthermore, the bus width of the data bus 6 is limited by the bus width of the data bus of the central processing unit 1.

発明の目的 本発明は上記のような従来のものの欠点を除去すべくな
されたもので、中央処理装置のデータバスのバス幅によ
って制限されることなく、主記憶からキャッシュメモリ
へのデータ転送を行うことができる情報処理装置の提O
I−を目的とする。
OBJECTS OF THE INVENTION The present invention has been made to eliminate the drawbacks of the conventional ones as described above, and is to transfer data from the main memory to the cache memory without being limited by the bus width of the data bus of the central processing unit. Proposal of an information processing device that can
Aiming at I-.

発明の構成 本発明による情報処理装置は、主記憶およびキャッシュ
メモリに格納されたデータがnビット幅(nは正の整数
)のデータバスを介して中央処理装置により読出される
情報処理装置であって、前記主記憶と前記キャッシュメ
モリとを接続するmビット幅(mは正の整数で、m>n
)の拡張データバスと、前記中央処理装置からの制御信
号に応じて前記拡張データバス上のmビットのデータか
らnビットのデータを抽出して前記中央処理装置に転送
する抽出手段とを有することを特徴とする。
Structure of the Invention An information processing device according to the present invention is an information processing device in which data stored in a main memory and a cache memory is read out by a central processing unit via a data bus having a width of n bits (n is a positive integer). m bit width (m is a positive integer, m>n
), and extraction means for extracting n-bit data from m-bit data on the extended data bus and transferring it to the central processing unit in response to a control signal from the central processing unit. It is characterized by

尺旌ヨ 次に、本発明の一実施例について図面を参照して説明す
る。
Next, one embodiment of the present invention will be described with reference to the drawings.

第1図は本発明の一実施例の構成を示すブロック図であ
る6図において、本発明の一実施例による情報処理装置
は、中央処理装置1と、キャッシュ2と、メインメモリ
3と、マルチプレクサ4と、コントローラ5とを含んで
構成されている。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. In FIG. 6, an information processing device according to an embodiment of the present invention includes a central processing unit 1, a cache 2, a main memory 3, and a multiplexer. 4 and a controller 5.

中央処理装置1はデータバス6とマルチプレクサ4とを
介して、拡張データバス7により相互に接続されたキャ
ッシュ2およびメインメモリ3に接続されている。ここ
で、データバス6のバス幅は32ビツトであり、拡張デ
ータバス7のバス幅は64ビツトである。
Central processing unit 1 is connected via data bus 6 and multiplexer 4 to cache 2 and main memory 3, which are interconnected by expansion data bus 7. Here, the bus width of the data bus 6 is 32 bits, and the bus width of the extended data bus 7 is 64 bits.

マルチプレクサ4はコントローラ5からの制御信号10
2により拡張データバス7上の64ビツトのデータから
中央処理装置1が必要とする32ビツトのデータを抽出
し、この32ビツトのデータをデータバス6を介して中
央処理装置1に送出する。
Multiplexer 4 receives control signal 10 from controller 5
2 extracts the 32-bit data required by the central processing unit 1 from the 64-bit data on the extended data bus 7, and sends this 32-bit data to the central processing unit 1 via the data bus 6.

コントローラ5は中央処理装置1からのステータス信号
101をデコードし、中央処理装置1が必要とする32
ビツトのデータのみを拡張データバス7からデータバス
6上に取込むための制御信号102をマルチプレクサ4
に出力する。
The controller 5 decodes the status signal 101 from the central processing unit 1 and decodes the 32 status signals required by the central processing unit 1.
A control signal 102 for loading only bit data from the expansion data bus 7 onto the data bus 6 is sent to the multiplexer 4.
Output to.

中央処理装置1がメインメモリ3の0番地から4バイト
(32ビツト)のデータを読出そうとした場合に、キャ
ッシュ2でキャッシュミスヒツトが発生すると、キャッ
シュ2によるメインメモリ3へのアクセスにより、メイ
ンメモリ3の0番地から64ビツトのデータが読出され
る。
When the central processing unit 1 attempts to read 4 bytes (32 bits) of data from address 0 of the main memory 3, if a cache miss occurs in the cache 2, the access to the main memory 3 by the cache 2 causes the main 64-bit data is read from address 0 of memory 3.

ここで、メインメモリ3にデータの読出しアクセスが行
われる場合には、メインメモリ3からは常に64ビツト
のデータが出力されるものとする。
Here, it is assumed that when main memory 3 is accessed to read data, 64-bit data is always output from main memory 3.

すなわち、メインメモリ3においては各番地に1バイト
のデータが格納されているので、メインメモリ3からは
常に連続する8番地分のデータが出力されることになる
That is, since 1 byte of data is stored at each address in the main memory 3, the main memory 3 always outputs data for 8 consecutive addresses.

キャッシュ2にはメインメモリ3から読出された0番地
からの64ビツトのデータが拡張データバス7を介して
書込まれる。このとき、コントローラ5は中央処理装置
1からのステータス信号101をデコードして制御信号
102をマルチプレクサ4に出力するので、マルチプレ
クサ4では拡張データバス7上の64ビツトのデータか
ら中央処理装置1が必要とする32ビツトのデータ(メ
インメモリ3の0番地からの32ビツトのデータ)をデ
ータバス6上に取込み、この32ビツトのデータがデー
タバス6を介して中央処理装置1に送出される。よって
、中央処理装置1は必要なデータのみを読込むことがで
きる。
64-bit data from address 0 read from main memory 3 is written into cache 2 via expansion data bus 7. At this time, the controller 5 decodes the status signal 101 from the central processing unit 1 and outputs the control signal 102 to the multiplexer 4. Therefore, the multiplexer 4 needs to input the 64-bit data on the expansion data bus 7 to the central processing unit 1. 32-bit data (32-bit data from address 0 of main memory 3) is taken onto data bus 6, and this 32-bit data is sent to central processing unit 1 via data bus 6. Therefore, the central processing unit 1 can read only necessary data.

また、中央処理装置tが次の読出しサイクルでメインメ
モリ3の4番地から32ビツトのデータを読出そうとす
ると、このメインメモリ3の4番地からの32ビツトの
データは既にキャッシュ2に書込まれているため、キャ
ッシュ2でキャツシュヒツトどなってメインメモリ3の
0番地からの64ビツトのデータが拡張データバス7上
に出力される。
Furthermore, when central processing unit t attempts to read 32-bit data from address 4 of main memory 3 in the next read cycle, the 32-bit data from address 4 of main memory 3 has already been written to cache 2. Therefore, the cache 2 generates a cache hit and 64-bit data from address 0 of the main memory 3 is output onto the expansion data bus 7.

この拡張データバス7上の64ビツトのデータは、コン
トローラ5からの制御信号102が入力されたマルチプ
レクサ4によって中央処理装置1が必要とする32ビツ
トのデータ(メインメモリ3の4番地からの32ビツト
のデータ)がデータバス6上に取込まれ、この32ビツ
トのデータがデータバス6を介して中央処理装置1に送
出される。
The 64-bit data on the expansion data bus 7 is converted into 32-bit data (32-bit data from address 4 of the main memory 3) required by the central processing unit 1 by the multiplexer 4 to which the control signal 102 from the controller 5 is input. data) is taken onto the data bus 6, and this 32-bit data is sent to the central processing unit 1 via the data bus 6.

よって、中央処理装置1はメインメモリ3の4番地から
の32ビツトのデータのみを読込むことができる。
Therefore, the central processing unit 1 can read only 32-bit data from address 4 of the main memory 3.

このように、中央処理装置1のデータバスのバス幅(3
2ビツト)の2倍のバス幅(64ビツト)を有する拡張
データバス7によりキャッシュ2とメインメモリ3とを
接続し、この拡張データバス7上の64ビツトのデータ
から中央処理装置1が必要とする32ビツトのデータの
みをマルチプレクサ4によって抽出するようにすること
によって、中央処理装置1のデータバスのバス幅によっ
て制限されることなく、メインメモリ3からキャッシュ
2へのデータ転送を行うことができる。
In this way, the bus width (3
The cache 2 and the main memory 3 are connected by an expansion data bus 7 having a bus width (64 bits) twice that of the 64-bit data bus (64 bits). By allowing the multiplexer 4 to extract only the 32-bit data to be processed, data can be transferred from the main memory 3 to the cache 2 without being limited by the bus width of the data bus of the central processing unit 1. .

よって、キャッシュ2におけるキャッシュミスヒツト時
に、中央処理装置1がアクセスすることができるデータ
バスのバス幅の2倍のデータを1回のアクセスでキャッ
シュ2に書込むことができ、これにより中央処理装置1
がメインメモリ3の連続したアドレスからデータを読出
す場合には、キャッシュ2においては次の読出しサイク
ルで必ずキャツシュヒツトとなるため、中央処理袋で1
の処理効率を向上させることができる。
Therefore, in the event of a cache miss in the cache 2, data that is twice the bus width of the data bus that the central processing unit 1 can access can be written to the cache 2 in one access. 1
When reading data from consecutive addresses in the main memory 3, the cache 2 will always receive a cash hit in the next read cycle, so the central processing
processing efficiency can be improved.

また、メインメモリ3からブロック毎に続出されたデー
タがキャッシュ2に書込まれるような場合には、拡張デ
ータバス7のデータバス幅が広い分だけ、キャッシュ2
がメインメモリ3からブロック毎に読出されたデータを
引取るのに要する時間を短縮することができる。
In addition, when data sequentially output from the main memory 3 block by block is written to the cache 2, the data bus width of the expansion data bus 7 is wide enough to
The time required for data read out block by block from the main memory 3 can be reduced.

尚、本発明の一実施例では拡張データバス7のバス幅を
データバス6のバス幅の2倍としたが、これはデータバ
ス6のバス幅よりも広ければ何倍でらよく、これに限定
されない。
In one embodiment of the present invention, the bus width of the extended data bus 7 is twice the bus width of the data bus 6, but it may be any number of times wider than the bus width of the data bus 6. Not limited.

九肌二夏盟 以上説明したように本発明によれば、主記憶およびキャ
ッシュメモリに格納されたデータを中央処理装置に送出
するためのnビット幅(nは正の整数)のデータバスよ
りも広いmビット幅(mは正の整数で、m>n)の拡張
データバスで主記憶とキャッシュメモリとを接続し、こ
の拡張データバス上のmビットのデータからnビットの
データを抽出して中央処理装置に送出するようにするこ
とによって、中央処理装置のデータバスのバス幅によっ
て制限されることなく、主記憶からキャッシュメモリへ
のデータ転送を行うことができるという効果がある。
As explained above, according to the present invention, a data bus with a width of n bits (n is a positive integer) for sending data stored in the main memory and cache memory to the central processing unit is used. The main memory and cache memory are connected by a wide m-bit width (m is a positive integer, m>n) expansion data bus, and n-bit data is extracted from the m-bit data on this expansion data bus. By sending the data to the central processing unit, data can be transferred from the main memory to the cache memory without being limited by the bus width of the data bus of the central processing unit.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の構成を示すブロック図、第
2図は従来例の構成を示すブロック図である。 主要部分の符号の説明 1・・・・・・中央処理装置 2・・・・・・キャッシュ 3・・・・・・メインメモリ 4・・・・・・マルチプレクサ 5・・・・・・コントローラ 6・・・・・・データバス 7・・・・・・拡張データバス
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention, and FIG. 2 is a block diagram showing the configuration of a conventional example. Explanation of symbols of main parts 1...Central processing unit 2...Cache 3...Main memory 4...Multiplexer 5...Controller 6 ...Data bus 7...Extension data bus

Claims (1)

【特許請求の範囲】[Claims] (1)主記憶およびキャッシュメモリに格納されたデー
タがnビット幅(nは正の整数)のデータバスを介して
中央処理装置により読出される情報処理装置であって、
前記主記憶と前記キャッシュメモリとを接続するmビッ
ト幅(mは正の整数で、m>n)の拡張データバスと、
前記中央処理装置からの制御信号に応じて前記拡張デー
タバス上のmビットのデータからnビットのデータを抽
出して前記中央処理装置に転送する抽出手段とを有する
ことを特徴とする情報処理装置。
(1) An information processing device in which data stored in a main memory and a cache memory is read by a central processing unit via an n-bit wide data bus (n is a positive integer),
an m-bit wide (m is a positive integer, m>n) expansion data bus that connects the main memory and the cache memory;
An information processing apparatus characterized by having an extraction means for extracting n-bit data from m-bit data on the expansion data bus and transmitting the extracted data to the central processing unit in response to a control signal from the central processing unit. .
JP63148961A 1988-06-16 1988-06-16 Information processor Pending JPH01315849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63148961A JPH01315849A (en) 1988-06-16 1988-06-16 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63148961A JPH01315849A (en) 1988-06-16 1988-06-16 Information processor

Publications (1)

Publication Number Publication Date
JPH01315849A true JPH01315849A (en) 1989-12-20

Family

ID=15464532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63148961A Pending JPH01315849A (en) 1988-06-16 1988-06-16 Information processor

Country Status (1)

Country Link
JP (1) JPH01315849A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756813A (en) * 1993-08-02 1995-03-03 Internatl Business Mach Corp <Ibm> Data processing system and data storage method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756813A (en) * 1993-08-02 1995-03-03 Internatl Business Mach Corp <Ibm> Data processing system and data storage method

Similar Documents

Publication Publication Date Title
JP2836321B2 (en) Data processing device
US5297231A (en) Digital signal processor interface for computer system
KR0154533B1 (en) Data processor
US6205509B1 (en) Method for improving interrupt response time
US20020083256A1 (en) System and method for increasing the count of outstanding split transactions
JPH10171750A (en) Inter-memory data transfer system
US4914573A (en) Bus master which selectively attempts to fill complete entries in a cache line
JP3604548B2 (en) Address match detection device, communication control system, and address match detection method
JPH01315849A (en) Information processor
JPH01224851A (en) Data processor
JPH05250310A (en) Data processor
KR100346268B1 (en) Data bus control system
JPS5936359B2 (en) data buffer device
JPH01234962A (en) Bus control system
KR890002468B1 (en) Main storage fallure address control system in a data processing system
USH1342H (en) Effectuating full duplex digital data transfer
JPH03209544A (en) Memory control circuit
JPH05128048A (en) Information processor
JPH01158554A (en) Data processing system providing dma device
EP0369935A2 (en) Multiple posting cache memory
JPH08166932A (en) Multiprocessor system
JPS61214047A (en) Memory data transfer circuit
KR20000014522A (en) Direct memory access controller having a compression function
JPH04112251A (en) Microcomputer
JPH0315217B2 (en)