JPH11167522A - Data access method for information processor and semiconductor integrated circuit - Google Patents

Data access method for information processor and semiconductor integrated circuit

Info

Publication number
JPH11167522A
JPH11167522A JP9331470A JP33147097A JPH11167522A JP H11167522 A JPH11167522 A JP H11167522A JP 9331470 A JP9331470 A JP 9331470A JP 33147097 A JP33147097 A JP 33147097A JP H11167522 A JPH11167522 A JP H11167522A
Authority
JP
Japan
Prior art keywords
baa
memory cell
block address
information processing
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9331470A
Other languages
Japanese (ja)
Inventor
Osamu Onodera
修 小野寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP9331470A priority Critical patent/JPH11167522A/en
Publication of JPH11167522A publication Critical patent/JPH11167522A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the performance of an information processor by giving the main storage accesses issued by plural processors which can operate independently of each other to a single cache storage that is shared by the processors. SOLUTION: A CPU #0110 and a CPU #1111 operate independently of each other and separately send the main storage access requests and the main storage addresses to a BAA #0130 and a BAA #1131 included in a cache storage unit via the signal lines 193 and 194 respectively. Every CPU sends independently the write data to a cache storage 140 via a signal line 191 against a write access. A signal showing the presence or absence of a BAA entry based on the results of BAA entry index operations of both BAA #0130 and and BAA #1131 is sent to the storage 140 via a signal line 191. Then the contents of the BAA entry if exists and the main storage address are also sent to the storage 140 via a signal line 196.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置のデ
ータアクセス方法および半導体集積回路に係わり、特に
複数個のプロセッサがキャッシュ記憶を共用する場合の
データアクセス技術とこの技術を実現する際に適用する
メモリ混載マルチプロセッサシステムLSIの半導体集
積回路に有効な技術に関する
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data access method for an information processing apparatus and a semiconductor integrated circuit, and more particularly to a data access technique in a case where a plurality of processors share a cache memory and an application to realize this technique. Technology effective for semiconductor integrated circuits in multiprocessor system LSI with embedded memory

【0002】[0002]

【従来の技術】従来の情報処理装置において、プロセッ
サがキャッシュ記憶を使用する際、1つのプロセッサに
対して、それぞれ1組のキャッシュ記憶を内蔵する形態
が一般的であった。更に、情報処理装置を複数のプロセ
ッサで構成するマルチプロセッサシステムを実現する場
合、それぞれのプロセッサ毎に1組のキャッシュ記憶を
内蔵させ、該複数のプロセッサを相互に接続して且つ1
組の共用主記憶をアクセスして運用する形態が一般的で
あった。
2. Description of the Related Art In a conventional information processing apparatus, when a processor uses a cache memory, it is common that one processor incorporates one set of cache memory. Further, when implementing a multiprocessor system in which the information processing apparatus is constituted by a plurality of processors, one set of cache storage is provided for each processor, and the plurality of processors are connected to each other.
It was common to access and operate a set of shared main memories.

【0003】この様な運用形態のマルチプロセッサシス
テムにおいて、共用主記憶内の同一データの写しが異な
るプロセッサに内蔵されている別々のキャッシュ記憶に
存在する事態はごく頻繁に発生する。この場合マルチプ
ロセッサシステムを正常に動作させるためには、異なる
プロセッサに内蔵されている別々のキャッシュ記憶内の
共用主記憶内の同一データの写しの一致性を保証する必
要がある。
In a multiprocessor system of such an operation form, a situation in which copies of the same data in a shared main memory are present in separate cache memories built in different processors occurs very frequently. In this case, in order to operate the multiprocessor system normally, it is necessary to guarantee the consistency of copies of the same data in the shared main memory in different cache memories incorporated in different processors.

【0004】前述の同一データの写しの一致性を保証す
る一般的手段として、前述のデータの一致性が崩れる事
象が発生した時点で、この事象を生成または検出したプ
ロセッサが、他のプロセッサまたはプロセッサ群に一致
性が崩れたデータのキャンセル要求を出し、他のプロセ
ッサまたはプロセッサ群が不一致となった前記のデータ
を使用しないよう制御することで一致性の保証を行って
いる。
[0004] As a general means for guaranteeing the consistency of the above-mentioned copy of the same data, when an event occurs in which the consistency of the data is lost, the processor which has generated or detected this event is replaced by another processor or processor. A cancel request is issued for the data whose consistency has been lost to the group, and the other processors or the processor group are controlled so as not to use the data which has become inconsistent, thereby guaranteeing the consistency.

【0005】この一致性の保証を行う従来技術として
は、例えば特許第943867号がある。また、この一
致性の保証を行う他の従来技術としては、例えば、Da
vidA.PattersonとJohn L. He
nnessy著、Morgan Kaufmann P
ublishers,Inc発行“ComputerAr
chitecture A Quantitative
ApproachSecond Edition”に
その詳細が記述されている。
[0005] As a conventional technique for guaranteeing the coincidence, there is Japanese Patent No. 943867, for example. Other conventional techniques for guaranteeing the consistency include, for example, Da
vidA. Patterson and John L. He
Nesssy, Morgan Kaufmann P
published by Publishers, Inc. “ComputerAr
ticket A Quantitative
The details are described in “Approach Second Edition”.

【0006】更に、1チップの半導体集積回路内に複数
のマイクロプロセッサを搭載し、前記マイクロプロセッ
サの各々に専用の一次キャッシュ記憶を接続した従来技
術としては、例えば特開平5−61768号公報に示さ
れた技術があり、プロセッサとダイナミックランダムア
クセスメモリ(DRAM)を1チップに集積した従来技
術としては、例えば特開平8−212185号公報に示
された技術がある。
Further, as a prior art in which a plurality of microprocessors are mounted in a one-chip semiconductor integrated circuit and a dedicated primary cache memory is connected to each of the microprocessors, for example, Japanese Patent Application Laid-Open No. 5-61768 discloses the prior art. As a conventional technique in which a processor and a dynamic random access memory (DRAM) are integrated in one chip, there is a technique disclosed in, for example, Japanese Patent Application Laid-Open No. 8-212185.

【0007】[0007]

【発明が解決しようとする課題】前記の従来技術で開示
されているプロセッサ毎に専用のキャッシュ記憶を接続
させ、該プロセッサを複数接続したマルチプロセッサシ
ステムを構築すると、前述の如くデータの写しの一致性
を保証する手段を設ける必要があり、この手段を設ける
ことはプロセッサの制御用論理回路の増大を招き、そし
て、プロセッサが前記手段を機能させるための処理を実
行することは、プロセッサがキャッシュ記憶をアクセス
する際のアクセス時間のオーバヘッド増大に直結し、こ
れは情報処理装置の性能向上を図る上で無視しえない問
題であった。
When a dedicated cache memory is connected to each processor disclosed in the above-mentioned prior art and a multiprocessor system in which a plurality of processors are connected is constructed, as described above, coincidence of data copying is achieved. It is necessary to provide a means for ensuring the performance of the processor. Providing this means causes an increase in the number of control logic circuits of the processor, and executing the processing for causing the processor to function by the processor requires that the processor This leads directly to an increase in access time overhead when accessing the information processing device, which is a problem that cannot be ignored in improving the performance of the information processing apparatus.

【0008】本発明の目的は、前記従来技術の問題点を
解決すべく、独立に動作可能な複数個のプロセッサから
発行される主記憶アクセスを、複数個のプロセッサから
共用される単一のキャッシュ記憶に対して行うことによ
り、前記のキャッシュ記憶をアクセスする際のアクセス
時間のオーバヘッド増大の問題を除去することができる
情報処理装置のデータアクセス方法および半導体集積回
路を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems of the prior art by using a single cache shared by a plurality of processors for a main memory access issued from a plurality of independently operable processors. An object of the present invention is to provide a data access method and a semiconductor integrated circuit of an information processing apparatus, which can eliminate the problem of an increase in access time overhead when accessing the cache storage by performing the above operation on storage.

【0009】ここで、前述の従来技術である特許第94
3867号公報及びDavid A.Patterso
nとJohn L. Hennessy著、Morga
nKaufmann Publishers,Inc発行
“Computer Architecture A
Quantitative Approach Sec
ond Edition”には、1チップ内に集積した
複数個のプロセッサから共用される単一のキャッシュ記
憶に関する開示は無く、そして、前述の他の従来技術で
ある特開平5−61768号公報には、1チップ内に集
積した複数個のプロセッサからアクセスされる専用キャ
ッシュ記憶に関する開示はあるが、複数個のプロセッサ
から共用される単一のキャッシュ記憶に関する開示は無
く、そして、前述の他の従来技術である特開平8−21
2185号公報には、1チップ内に集積した複数個のプ
ロセッサからアクセスされる一般的なDRAMに関する
開示はあるが、複数個のプロセッサから共用される単一
のキャッシュ記憶に関する開示は無い。
[0009] Here, the above-mentioned prior art No. 94
3867 and David A. Patterso
n and John L. Hennessy, Morga
Published by nKaufmann Publishers, Inc. “Computer Architecture A
Quantitative Approach Sec
On Edition "does not disclose a single cache memory shared by a plurality of processors integrated in one chip, and the above-mentioned other prior art, Japanese Patent Application Laid-Open No. Hei 5-61768, discloses: Although there is a disclosure about a dedicated cache storage accessed by a plurality of processors integrated in one chip, there is no disclosure about a single cache storage shared by a plurality of processors, and in the above-mentioned other prior arts. JP-A-8-21
Japanese Patent No. 2185 discloses a general DRAM accessed by a plurality of processors integrated in one chip, but does not disclose a single cache memory shared by a plurality of processors.

【0010】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述および添付図面から明らかに
なるであろう。
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、独立に動作可能な複数個のプロセッサと
独立にアクセス可能な複数個のメモリが同一チップに集
積され、前記複数個のメモリは、プロセッサからのデー
タアクセスの対象となるデータを一時的に保持するキャ
ッシュ記憶から構成され、前記キャッシュ記憶は、前記
複数個のプロセッサから送出されるデータアドレスとキ
ャッシュ記憶アドレスとの対応をとるエントリを複数保
持し、概エントリはプロセッサから送出されるデータブ
ロックアドレスを保持するブロックアドレス記憶部と対
応するキャッシュ記憶アドレスを保持するキャッシュア
ドレス記憶部とからなる1つまたは複数のブロックアド
レスアレイと主記憶データの写しを保持するキャッシュ
記憶とからなり、前記キャッシュ記憶は、前記独立に動
作可能な複数のプロセッサから共用アクセスされる単一
のキャッシュ記憶装置として接続構成され、前記キャッ
シュ記憶装置は、複数個のプロセッサに対し唯一のブロ
ックアドレスアレイを持ち、前記唯一のブロックアドレ
スアレイは、前記複数個のプロセッサからアクセスされ
たデータアドレスとキャッシュ記憶アドレスの対応エン
トリを全てのプロセッサについて保持し、前記複数のプ
ロセッサからのデータアクセス要求によって共通して使
用する手段を持つことを特徴とする。
In order to achieve the above-mentioned object, the present invention provides a plurality of independently operable processors and a plurality of independently accessible memories integrated on the same chip. The memory includes a cache storage for temporarily storing data to be accessed by the processor, and the cache storage corresponds to a data address transmitted from the plurality of processors and a cache storage address. One or more block address arrays, each of which has a plurality of entries, and generally includes one or more block address arrays each including a block address storage unit for holding a data block address sent from the processor and a cache address storage unit for holding a corresponding cache storage address. It consists of a cache memory that holds a copy of the stored data, The cache storage is connected and configured as a single cache storage device commonly accessed by the plurality of independently operable processors, the cache storage device having a unique block address array for a plurality of processors, The unique block address array holds the entries corresponding to the data addresses accessed by the plurality of processors and the cache storage addresses for all the processors, and includes means for commonly using the data access requests from the plurality of processors. It is characterized by having.

【0012】あるいは、前記キャッシュ記憶は、前記複
数のプロセッサのそれぞれに対応づけられた複数個のブ
ロックアドレスアレイを持ち、それぞれのブロックアド
レスアレイは、前記複数のプロセッサのそれぞれからの
アクセスに対応したデータアドレスとキャッシュ記憶ア
ドレスの対応エントリを個別に保持し、前記複数のプロ
セッサからのデータアクセス要求をプロセッサ対応に処
理する手段を持つこともでき、ここで、本発明による複
数個のプロセッサから共用してアクセス可能な前記キャ
ッシュ記憶は、前記複数個のプロセッサのそれぞれに対
応づけて複数個のブロックアドレスアレイを持ち、前記
それぞれのブロックアドレスアレイは、前記複数個のプ
ロセッサからアクセスされたデータアドレスとキャッシ
ュ記憶アドレスの対応エントリの全てのを保持し、前記
複数個のプロセッサからのからのデータアクセス要求を
プロセッサ対応に処理する手段を持ち、あるいは、前記
キャッシュ記憶は、前記複数個のプロセッサのそれぞれ
に対応づけて複数個のブロックアドレスアレイを持ち、
それぞれのブロックアドレスアレイは、前記複数個のプ
ロセッサからのそれぞれのアクセスに対応したデータア
ドレスとキャッシュ記憶アドレスの対応エントリを保持
し、前記複数個のプロセッサからのデータアクセス要求
をプロセッサ対応に処理し、プロセッサからのデータア
クセス要求に対応したデータアドレスとキャッシュ記憶
アドレスの対応エントリが、このプロセッサに対応した
ブロックアドレスアレイに存在しない場合、他のプロセ
ッサに対応したブロックアドレスアレイをアクセスする
手段を持つこともでき、あるいは、前記キャッシュ記憶
は、前記複数のプロセッサのそれぞれに対応づけた複数
個のブロックアドレスアレイを複数組持ち、それぞれの
複数組のブロックアドレスアレイは、前記複数のプロセ
ッサからのアクセスのそれぞれに対応したデータアドレ
スとキャッシュ記憶アドレスの対応エントリを保持し、
前記複数組のブロックアドレスアレイの一つは、前記複
数個のプロセッサのうちの対応する1つのプロセッサか
らのデータアクセス要求を処理し、前記複数組の他のブ
ロックアドレスアレイは、前記複数個のプロセッサのう
ちの他のプロセッサからのデータアクセス要求を処理す
る手段を持つこともできる。
Alternatively, the cache memory has a plurality of block address arrays respectively associated with the plurality of processors, and each block address array stores data corresponding to an access from each of the plurality of processors. It is also possible to have means for separately holding entries corresponding to addresses and cache storage addresses and processing data access requests from the plurality of processors corresponding to the processors. The accessible cache memory has a plurality of block address arrays corresponding to each of the plurality of processors, and each of the block address arrays stores a data address accessed from the plurality of processors and a cache memory. Address Means for storing all of the corresponding entries and processing means for processing data access requests from the plurality of processors corresponding to the processors, or the cache memory is provided in correspondence with each of the plurality of processors. Block address arrays,
Each block address array holds a corresponding entry of a data address and a cache storage address corresponding to each access from the plurality of processors, processes a data access request from the plurality of processors corresponding to the processor, If the corresponding entry of the data address and the cache storage address corresponding to the data access request from the processor does not exist in the block address array corresponding to this processor, the processor may have means for accessing the block address array corresponding to another processor. Alternatively, the cache memory has a plurality of sets of a plurality of block address arrays respectively associated with the plurality of processors, and each of the plurality of sets of the block address arrays is accessed by the plurality of processors. And holding the corresponding entry in the data address and the cache memory address corresponding to each
One of the plurality of sets of block address arrays processes a data access request from a corresponding one of the plurality of processors, and the plurality of sets of other block address arrays include the plurality of processors. May have means for processing data access requests from other processors.

【0013】以上の手段により、独立に動作可能な複数
個のプロセッサから発行される主記憶アクセスに伴うデ
ータアクセスを、複数個のプロセッサから共用される単
一のキャッシュ記憶に対して行うことが可能となり、そ
の結果、前述のごとくのデータの写しの一致性を保証す
る手段を設ける必要を無くし、その結果、前記のキャッシ
ュ記憶をアクセスする際のアクセス時間のオーバヘッド
増大の問題を除去することができる。
By the above means, data access accompanying main memory access issued from a plurality of independently operable processors can be performed on a single cache memory shared by the plurality of processors. As a result, there is no need to provide a means for ensuring the consistency of data copying as described above, and as a result, the problem of an increase in access time overhead when accessing the cache memory can be eliminated. .

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。なお、実施の形態を説明す
る全図面において同一の装置や部材には同一の符号を付
し、その繰り返しの説明は省略する場合がある。
Embodiments of the present invention will be described below in detail with reference to the drawings. Note that the same devices and members are denoted by the same reference numerals throughout the drawings for describing the embodiments, and the repeated description thereof may be omitted.

【0015】図1は、本発明の情報処理装置のデータア
クセス方法および半導体集積回路の実施の形態を示すブ
ロック図であり、特に、プロセッサがキャッシュ記憶を
経由して主記憶データをアクセスするケースに関係する
部分の構成を示したものである。
FIG. 1 is a block diagram showing an embodiment of a data access method and a semiconductor integrated circuit of an information processing apparatus according to the present invention. In particular, FIG. 1 shows a case where a processor accesses main storage data via cache storage. It shows the configuration of related parts.

【0016】図1において、プロセッサ(以下、CPU
という)は2ユニットから構成され、それぞれプロセッ
サ#0(以下、CPU#0という)110とプロセッサ
#1(以下、CPU#1という)111からなる。この
CPU#0110とCPU#1111は、それぞれから
共通のキャッシュ記憶ユニット120に接続されてい
る。CPU#0110とCPU#1111は、信号線1
91を介して相互に接続されると共にキャッシュ記憶ユ
ニット120を構成するキャッシュ記憶140と接続さ
れており、更に信号線193と信号線194を介してキ
ャッシュ記憶ユニット120内のブロックアドレスアレ
イ(以下、BAAという)であるBAA#0130とB
AA#1131にそれぞれ接続されている。
In FIG. 1, a processor (hereinafter referred to as a CPU)
) Is composed of two units, each including a processor # 0 (hereinafter, referred to as CPU # 0) 110 and a processor # 1 (hereinafter, referred to as CPU # 1) 111. The CPU # 0110 and the CPU # 1111 are connected to a common cache storage unit 120, respectively. CPU # 0110 and CPU # 1111 are connected to signal line 1
The block address array (hereinafter referred to as BAA) in the cache storage unit 120 is connected to the cache storage 140 constituting the cache storage unit 120 via a signal line 193 and a signal line 193. BAA # 0130 and B
AA # 1131.

【0017】キャッシュ記憶ユニット120は、前記C
PU#0110とCPU#1111から送出されるデー
タアドレスとキャッシュ記憶アドレスとの対応をとるエ
ントリ(以下、BAAエントリという)を複数保持する
2つのBAAと実際にCPUが使用するデータを保持す
るキャッシュ記憶とからなる。2つのBAAは、それぞ
れBAA#0130とBAA#1131であり、キャッ
シュ記憶140とでキャッシュ記憶ユニット120を構
成する。BAA#0130とBAA#1131は、信号
線192を介して相互に接続されており、更に信号線1
93と信号線194を介してCPU#0110とCPU
#1にそれぞれ接続されており、更に信号線195と信
号線196を介してキャッシュ記憶140に接続されて
いる。キャッシュ記憶140は、信号線191を介して
CPU#0110とCPU#1にそれぞれ接続されてお
り、更に信号線195と信号線196を介してそれぞれ
BAA#0130とBAA#1131に接続されてお
り、更に、信号線197を介して主記憶(以下、MSと
いう)150に接続されている。
The cache storage unit 120 stores the C
Two BAAs holding a plurality of entries (hereinafter referred to as BAA entries) for associating data addresses sent from PU # 0110 and CPU # 1111 with cache storage addresses, and cache storage holding data actually used by the CPU. Consists of The two BAAs are respectively BAA # 0130 and BAA # 1131, and the cache storage 140 constitutes the cache storage unit 120. BAA # 0130 and BAA # 1131 are connected to each other via a signal line 192.
CPU # 0110 and CPU via signal line 93 and signal line 194
# 1 and further connected to the cache memory 140 via signal lines 195 and 196. The cache memory 140 is connected to the CPU # 0110 and the CPU # 1 via a signal line 191 respectively, and further connected to the BAA # 0130 and the BAA # 1131 via a signal line 195 and a signal line 196, respectively. Further, it is connected to a main memory (hereinafter, referred to as MS) 150 via a signal line 197.

【0018】MS150は、本発明の情報処理装置のデ
ータを保持する主記憶ユニットである。
The MS 150 is a main storage unit for storing data of the information processing apparatus according to the present invention.

【0019】次に、図1を用いてCPU#0110とC
PU#1111がMS150をアクセスする動作につい
て説明する。
Next, referring to FIG.
An operation in which PU # 1111 accesses MS 150 will be described.

【0020】CPU#0110及びCPU#1111は
それぞれ独立に動作しており、それぞれ独立に主記憶ア
クセス要求と主記憶アドレスを信号線193及び信号線
194を介してキャッシュ記憶ユニット120内のBA
A#0130とBAA#1131に送出する。書き込み
アクセスであれば信号線191を介してキャッシュ記憶
140に書き込みデータをそれぞれのCPUから区別し
て送出する。この区別には、信号線191がそれぞれの
CPUからの共用パスであればCPU識別番号を付加し
てデータを送出することで実現する。 CPU#0110及びCPU#1111から主記憶アク
セス要求と主記憶アドレスを受け取ったキャッシュ記憶
ユニット120内のBAA#0130とBAA#113
1は、それぞれのBAAエントリの索引動作を実行する
と共に他方のBAAに対しても信号線192を介してB
AAエントリの索引要求を送出する。ついでBAA#0
130及びBAA#1131のBAAエントリ索引動作
の結果、該当BAAエントリが存在したか否かの信号と
概BAAエントリが存在した場合にはそのエントリの内
容そして前記主記憶アドレスを信号線195と信号線1
96を介してキャッシュ記憶140にそれぞれを区別し
て送出する。
The CPU # 0110 and the CPU # 1111 operate independently of each other, and independently transmit a main memory access request and a main memory address via a signal line 193 and a signal line 194 in the cache memory unit 120.
A # 0130 and BAA # 1131. In the case of write access, write data is sent to the cache memory 140 via the signal line 191 while being distinguished from each CPU. This distinction is realized by adding a CPU identification number and transmitting data if the signal line 191 is a shared path from each CPU. BAA # 0130 and BAA # 113 in the cache storage unit 120 which received the main storage access request and the main storage address from the CPU # 0110 and the CPU # 1111.
1 executes the indexing operation of each BAA entry and also outputs B to the other BAA via the signal line 192.
Send index request for AA entry. Then BAA # 0
As a result of the BAA entry indexing operation of 130 and BAA # 1131, a signal indicating whether or not the corresponding BAA entry exists, and if there is an approximate BAA entry, the contents of the entry and the main storage address are indicated by a signal line 195 and a signal line 195. 1
The data is sent to the cache memory 140 via the discrimination device 96.

【0021】キャッシュ記憶140は、信号線195と
信号線196を介して送られて来たそれぞれのBAAエ
ントリの索引結果と前記主記憶アドレスを受け取り、該
当BAAエントリが存在する場合には前記エントリから
取り出したキャッシュ記憶アドレスを用いてキャッシュ
記憶140をアクセスし、該当BAAエントリが存在し
ない場合にはキャッシュ記憶140をアクセスせず、前
記主記憶アドレスと主記憶アクセス要求をMS150に
送出する。
The cache memory 140 receives the index result of each BAA entry sent via the signal line 195 and the signal line 196 and the main memory address, and, if the corresponding BAA entry exists, from the entry, The cache storage 140 is accessed using the extracted cache storage address. If the corresponding BAA entry does not exist, the cache storage 140 is not accessed, and the main storage address and the main storage access request are sent to the MS 150.

【0022】キャッシュ記憶140は、更に該当BAA
エントリが存在する場合にはCPUからの主記憶アクセ
ス要求が読み出し要求であれば、当該データを読み出し
て信号線191を介して要求元CPUへ区別し送出し、
前記要求が書き込み要求であれば、信号線191を介し
て送られて来ている書き込みデータをキャッシュ記憶1
40に書き込む。該当BAAエントリが存在しない場合
には、通常のMSアクセスを行う。
The cache memory 140 further stores the corresponding BAA.
If the entry exists, if the main memory access request from the CPU is a read request, the data is read out and transmitted to the requesting CPU via the signal line 191 in a distinguished manner.
If the request is a write request, the write data sent via the signal line 191 is stored in the cache memory 1.
Write to 40. If there is no corresponding BAA entry, normal MS access is performed.

【0023】以上、本発明の情報処理装置のデータアク
セス方法および半導体集積回路の実施の形態の構成を図
1に基づいて説明した。
The configuration of the embodiment of the data access method and the semiconductor integrated circuit of the information processing apparatus according to the present invention has been described with reference to FIG.

【0024】次に、図1に基づいた本発明の情報処理装
置のデータアクセス方法および半導体集積回路の実施の
形態を図面に基づいて詳細に説明する。
Next, an embodiment of a data access method and a semiconductor integrated circuit of an information processing apparatus according to the present invention based on FIG. 1 will be described in detail with reference to the drawings.

【0025】(実施の形態1)図2は、本発明の実施の
形態1である情報処理装置のデータアクセス方法および
半導体集積回路の構成を示す図、図3は、本発明の実施
の形態1である情報処理装置の半導体集積回路の概略配
置図、図4と図5および図6は、本発明の実施の形態1
における変形例の半導体集積回路の概略配置図である。
(Embodiment 1) FIG. 2 is a diagram showing a configuration of a data access method and a semiconductor integrated circuit of an information processing apparatus according to Embodiment 1 of the present invention. FIG. 3 is a diagram showing Embodiment 1 of the present invention. FIG. 4, FIG. 5, and FIG. 6 are schematic layout diagrams of a semiconductor integrated circuit of an information processing apparatus according to a first embodiment of the present invention.
13 is a schematic layout diagram of a semiconductor integrated circuit according to a modification example of FIG.

【0026】まず、図2により本実施の形態1である情
報処理装置のデータアクセス方法の概略構成を説明す
る。
First, a schematic configuration of the data access method of the information processing apparatus according to the first embodiment will be described with reference to FIG.

【0027】図2において、CPUは2ユニットから構
成され、それぞれCPU#0210とCPU#1211
からなる。このCPU#0210とCPU#1211
は、それぞれ信号線293と信号線294を介して共通
のBAA230に接続されている。CPU#0210と
CPU#1211は、信号線291を介して相互に接続
されており、更に信号線298と信号線299を介して
キャッシュ記憶240にそれぞれ接続されている。
In FIG. 2, the CPU comprises two units, CPU # 0210 and CPU # 1211, respectively.
Consists of This CPU # 0210 and CPU # 1211
Are connected to a common BAA 230 via signal lines 293 and 294, respectively. The CPU # 0210 and the CPU # 1211 are connected to each other via a signal line 291 and further connected to the cache memory 240 via a signal line 298 and a signal line 299.

【0028】BAAは、本実施の形態1ではCPU#0
210とCPU#1211の双方からその全てのBAA
エントリが使用される共用BAAを示している。つま
り、CPU#0210から発行される主記憶アクセスに
伴って生成されるBAAエントリと、CPU#1211
から発行される主記憶アクセスに伴って生成されるBA
Aエントリとが混在して登録され、この混在して登録さ
れたBAAエントリは、CPU#0210とCPU#1
211の双方からのキャッシュ記憶240のアクセスに
使用される。BAA230は、信号線293と信号線2
94を介してCPU#0210とCPU#1211にそ
れぞれ接続され、更に、信号線295を介してキャッシ
ュ記憶240に接続されている。
In the first embodiment, BAA corresponds to CPU # 0.
210 and CPU # 1211 both of them
Indicates the shared BAA in which the entry is used. That is, the BAA entry generated with the main memory access issued from the CPU # 0210 and the CPU # 1211
Generated with main memory access issued from
A entries are registered in a mixed manner, and the BAA entries registered in a mixed manner are CPU # 0210 and CPU # 1.
It is used for accessing the cache storage 240 from both of the 211. BAA 230 includes signal line 293 and signal line 2
It is connected to the CPU # 0210 and the CPU # 1211 via the respective 94, and further connected to the cache memory 240 via the signal line 295.

【0029】キャッシュ記憶240は、信号線298と
信号線299を介してCPU#0210とCPU#1に
それぞれ接続されており、更に信号線295を介してB
AA230に接続されており、更に、図示はしていない
がMSにも接続されている。
The cache memory 240 is connected to the CPUs # 0210 and # 1 via signal lines 298 and 299, respectively.
It is connected to the AA 230 and is also connected to the MS (not shown).

【0030】次に、図2を用いて本実施の形態1である
CPU#0210とCPU#1211が主記憶アクセス
をする動作と作用について説明する。
Next, the operation and operation of the main memory access performed by CPUs # 0210 and # 1211 according to the first embodiment will be described with reference to FIG.

【0031】CPU#0210及びCPU#1211は
それぞれ独立に動作しており、それぞれ独立に主記憶ア
クセス要求と主記憶アドレスを信号線293及び信号線
294を介してBAA230に送出する。書き込みアク
セスであれば信号線298及び信号線299を介してキ
ャッシュ記憶240に書き込みデータをそれぞれのCP
Uごとに独立して送出する。この書き込みデータを独立
して送出する場合のデータの所属の区別には、信号線1
98と信号線299がそれぞれのCPUからの共用パス
であればCPU識別番号を用いる。 CPU#0210及びCPU#1211から主記憶アク
セス要求と主記憶アドレスを受け取ったBAA230
は、BAAエントリの索引動作をそれぞれの要求ごとに
独立して実行する。ついでBAA230のBAAエント
リ索引動作の結果、該当BAAエントリが存在したか否
かの信号と概BAAエントリが存在した場合にはそのエ
ントリの内容そして前記主記憶アドレスを信号線295
を介してキャッシュ記憶240にそれぞれの要求ごとに
独立して送出する。
The CPUs # 0210 and # 1211 operate independently of each other, and independently transmit a main memory access request and a main memory address to the BAA 230 via the signal lines 293 and 294. In the case of a write access, the write data is transferred to the cache memory 240 via the signal lines 298 and 299 and the respective CPs
It is transmitted independently for each U. The distinction of the data affiliation when the write data is transmitted independently is determined by the signal line 1
If the path 98 and the signal line 299 are shared paths from the respective CPUs, the CPU identification numbers are used. BAA 230 receiving main memory access request and main memory address from CPU # 0210 and CPU # 1211
Performs the indexing operation of the BAA entry independently for each request. Next, as a result of the BAA entry indexing operation of the BAA 230, a signal indicating whether or not the corresponding BAA entry exists and, if an approximate BAA entry exists, the contents of the entry and the main storage address are indicated by a signal line 295.
And sends the request to the cache storage 240 independently for each request.

【0032】キャッシュ記憶240は、信号線295と
信号線296を介して送られて来たそれぞれのBAAエ
ントリの索引結果と前記主記憶アドレスを受け取り、該
当BAAエントリが存在する場合には前記エントリから
取り出したキャッシュ記憶アドレスを用いてキャッシュ
記憶240をアクセスし、該当BAAエントリが存在し
ない場合にはキャッシュ記憶240をアクセスせず、前
記主記憶アドレスと主記憶アクセス要求を送出する。
The cache memory 240 receives the index result of each BAA entry sent via the signal line 295 and the signal line 296 and the main memory address, and, if the corresponding BAA entry exists, from the entry, The cache storage 240 is accessed using the extracted cache storage address. If the corresponding BAA entry does not exist, the cache storage 240 is not accessed, and the main storage address and the main storage access request are transmitted.

【0033】キャッシュ記憶240は、更に該当BAA
エントリが存在する場合にはCPUからの主記憶アクセ
ス要求が読み出し要求であれば、当該データを読み出し
て信号線298及び信号線299を介して要求元CPU
へ区別して送出し、前記要求が書き込み要求であれば、
信号線291を介して送られて来ている書き込みデータ
をキャッシュ記憶240に書き込む。該当BAAエント
リが存在しない場合には、通常の主記憶アクセスを行
う。
The cache memory 240 further stores the corresponding BAA.
When the entry exists, if the main memory access request from the CPU is a read request, the data is read and the requesting CPU is read via the signal lines 298 and 299.
And if the request is a write request,
The write data sent via the signal line 291 is written to the cache memory 240. If the corresponding BAA entry does not exist, normal main memory access is performed.

【0034】次に、本実施の形態1であるBAA230
のBAAエントリの索引動作をそれぞれのCPUの要求
ごとに独立して実行するいくつかの実施の形態について
説明する。この形態は、2つのCPUから同一のBAA
を共用する形態である。
Next, the BAA 230 according to the first embodiment is used.
Some embodiments will be described in which the index operation of the BAA entry is executed independently for each request of each CPU. In this mode, the same BAA is sent from two CPUs.
Is shared.

【0035】BAA230のBAAエントリの索引動作
をそれぞれのCPUの要求ごとに独立してかつ同時に実
行する場合の例として、まずそれぞれのCPUから送出
される主記憶アクセス要求信号送出サイクルの半分のサ
イクル時間でBAA230が前記要求信号を受け付け、
且つBAAエントリの索引動作も前記サイクル時間の半
分のサイクル時間で動作させる方法がある。つまり、B
AA230の受付ける第1のサイクルでCPU#021
0からの前記要求信号を受け付け、次に前記受付ける第
2のサイクルでCPU#1211からの前記要求信号を
受け付け、以降この繰り返しで受け付け動作を行い、こ
の受け付け動作に同期してBAAエントリの索引動作も
1サイクルづつCPUを切り換えながら動作させる。
As an example in which the index operation of the BAA entry of the BAA 230 is executed independently and simultaneously for each request of each CPU, first, a cycle time which is a half of a main memory access request signal transmission cycle transmitted from each CPU. The BAA 230 accepts the request signal,
In addition, there is a method in which the index operation of the BAA entry is operated in a cycle time that is half the cycle time. That is, B
CPU # 021 in the first cycle accepted by AA230
0, the request signal is received from the CPU # 1211 in the second cycle of receiving the request signal, and the receiving operation is repeatedly performed thereafter. The indexing operation of the BAA entry is performed in synchronization with the receiving operation. Also operates while switching the CPU one cycle at a time.

【0036】この方法では、2つのCPUのそれぞれが
BAAを占有しながら動作しているのと等価の効果が得
られ、更に、同一のBAAを2つのCPUからほぼ完全
に共用できるのでBAAの使用効率が良く、BAAの物
理容量を小さくすることができるという特徴がある。
According to this method, an effect equivalent to operating each of the two CPUs while occupying the BAA can be obtained. Further, since the same BAA can be almost completely shared by the two CPUs, the use of the BAA There is a feature that the efficiency is high and the physical capacity of the BAA can be reduced.

【0037】BAA230のBAAエントリの索引動作
をそれぞれのCPUの要求ごとに独立してかつ同時に実
行する場合の他の例として、まずそれぞれのCPUから
送出される主記憶アクセス要求信号送出のサイクル時間
と同じサイクル時間でBAA230が前記要求信号を受
け付け、且つBAAエントリの索引動作も前記サイクル
時間と同じサイクル時間で動作させる方法がある。つま
り、BAA230は、CPU#0210からの前記要求
信号とCPU#1211からの前記要求信号を同じサイ
クル時間で受け付け、更、この受け付け動作に同期して
BAAエントリの索引動作も同じサイクル時間で動作さ
せる。この例では、両方のCPUからの主記憶アクセス
要求信号が同時に送られてくる場合が生ずるが、この場
合は、片方のCPUの主記憶アクセス要求に対応するB
AAエントリの索引動作は1サイクル待たせて動作させ
る。
As another example in which the indexing operation of the BAA entry of the BAA 230 is executed independently and simultaneously for each request of each CPU, first, the cycle time of the main memory access request signal transmitted from each CPU and There is a method in which the BAA 230 receives the request signal in the same cycle time and the index operation of the BAA entry is operated in the same cycle time as the cycle time. That is, the BAA 230 receives the request signal from the CPU # 0210 and the request signal from the CPU # 1211 in the same cycle time, and further operates the BAA entry indexing operation in the same cycle time in synchronization with the receiving operation. . In this example, a case may occur in which the main memory access request signals from both CPUs are sent at the same time.
The index operation of the AA entry is made to operate after waiting for one cycle.

【0038】この方法では、両方のCPUからの主記憶
アクセス要求信号が同時に送られて来た場合、片方のC
PUの主記憶アクセス要求に対応するBAAエントリの
索引動作が1サイクル待たされるが、2つのCPUのそ
れぞれがBAAを占有しながら動作しているのとほぼ等
価の効果が得られ、更に、同一のBAAを2つのCPU
から共用するのでBAAの使用効率が良く、BAAの物
理容量を小さくすることができるという特徴がある。
In this method, when the main memory access request signals from both CPUs are sent simultaneously, one C
The index operation of the BAA entry corresponding to the main memory access request of the PU is waited for one cycle, but an effect substantially equivalent to the operation of each of the two CPUs while occupying the BAA is obtained. BAA with two CPUs
, The BAA is used efficiently and the physical capacity of the BAA can be reduced.

【0039】更に、BAA230のBAAエントリの索
引動作をそれぞれのCPUの要求ごとに独立してかつ同
時に実行する場合の他の例として、複数のBAAエント
リを主記憶アドレスの一部からポイントされる複数のカ
ラムとロウから構成するBAAを複数の独立動作可能な
記憶バンクで構成し、それぞれのCPUから送出される
主記憶アクセス要求信号送出のサイクル時間と同じサイ
クル時間でBAA230が前記要求信号を受け付け、且
つBAAエントリの索引動作も前記サイクル時間と同じ
サイクル時間で動作させる方法がある。つまり、BAA
230は、CPU#0210からの前記要求信号とCP
U#1211からの前記要求信号を同じサイクル時間で
受け付け、更、この受け付け動作に同期してBAAエン
トリの索引動作も同じサイクル時間で動作させる。この
例でも、両方のCPUからの主記憶アクセス要求信号が
同時に送られてくる場合が生ずるが、BAA内で異なる
バンクのBAAエントリへの索引動作であれば、同一サ
イクル時間で2組のBAAエントリの索引動作を実行
し、同じバンクのBAAエントリへの索引動作であれ
ば、片方のCPUの主記憶アクセス要求に対応するBA
Aエントリの索引動作は1サイクル待たせて動作させ
る。
Further, as another example in which the indexing operation of the BAA entry of the BAA 230 is executed independently and simultaneously for each request of each CPU, a plurality of BAA entries are pointed from a part of the main storage address. The BAA is composed of a plurality of independently operable storage banks, and the BAA 230 receives the request signal in the same cycle time as that of the main memory access request signal transmitted from each CPU, In addition, there is a method of operating the BAA entry in the same cycle time as the above-mentioned cycle time. That is, BAA
230 is the request signal from CPU # 0210 and CP
The request signal from U # 1211 is received in the same cycle time, and the index operation of the BAA entry is also operated in the same cycle time in synchronization with this reception operation. Also in this example, the main memory access request signals from both CPUs may be sent at the same time. However, if an index operation is performed on a BAA entry of a different bank in the BAA, two sets of BAA entries are executed in the same cycle time. And if the index operation is for an BAA entry in the same bank, the BA corresponding to the main memory access request of one of the CPUs
The indexing operation of the A entry is operated with one cycle wait.

【0040】この方法では、両方のCPUからの主記憶
アクセス要求信号が同時に送られて来た場合、片方のC
PUの主記憶アクセス要求に対応するBAAエントリの
索引動作が1サイクル待たされる頻度を減らすことがで
きると共に2つのCPUのそれぞれがBAAを占有しな
がら動作しているのとほぼ等価の効果が得られ、更に、
同一のBAAを2つのCPUから共用できるのでBAA
の使用効率が良く、BAAの物理容量を小さくすること
ができるという特徴がある。
In this method, when the main memory access request signals from both CPUs are sent at the same time, one C
It is possible to reduce the frequency of waiting for one cycle of the index operation of the BAA entry corresponding to the main memory access request of the PU, and to obtain an effect substantially equivalent to that when each of the two CPUs operates while occupying the BAA. And
BAA because the same BAA can be shared by two CPUs
Is characterized in that the use efficiency of the BAA is high and the physical capacity of the BAA can be reduced.

【0041】また、この方法では、BAAを複数のCP
Uから共用するするため、十分な処理性能を確保するた
めには、複数のCPUからの主記憶アクセス要求信号送
出のサイクルに追随できるBAAエントリの索引シーケ
ンスを論理回路的手段で実現する必要がある。次に、本
実施の形態1である情報処理装置の半導体集積回路の特
徴である、CPUとBAA及びキャッシュ記憶のレイア
ウト方法について説明する。
In this method, the BAA is replaced with a plurality of CPs.
To share from U, in order to ensure sufficient processing performance, it is necessary to implement a BAA entry index sequence that can follow a cycle of sending a main memory access request signal from a plurality of CPUs by means of a logical circuit. . Next, a layout method of the CPU, the BAA, and the cache storage, which is a feature of the semiconductor integrated circuit of the information processing device according to the first embodiment, will be described.

【0042】まず、本実施の形態1である情報処理装置
の半導体集積回路の概略構成を説明する。
First, a schematic configuration of the semiconductor integrated circuit of the information processing apparatus according to the first embodiment will be described.

【0043】本実施の形態1である情報処理装置の半導
体集積回路は、例えばいわゆる独立にアクセス可能なメ
モリ群からなるメモリ混載システムLSIとされ、独立
にアクセス可能な複数のメモリセルと、独立に動作可能
な複数個のCPUから構成されたマルチプロセッサシス
テムであり、これらが同一チップに集積されて1チップ
化されたシステムLSIとなっている。
The semiconductor integrated circuit of the information processing apparatus according to the first embodiment is, for example, a memory-embedded system LSI composed of a so-called independently accessible memory group, and includes a plurality of independently accessible memory cells and an independent memory cell. This is a multiprocessor system composed of a plurality of operable CPUs, and these are integrated on the same chip to form a system LSI integrated into one chip.

【0044】複数のメモリセル領域は、領域ごとに同一
または異なった物理構造を持つメモリセル群から構成さ
れ、例えば格子状に配列された複数のメモリセルと、こ
のメモリセルを選択するカラム/ロウデコーダ、読み出
しデ−タを増幅するセンスアンプなどが備えられてい
る。
The plurality of memory cell regions are constituted by a group of memory cells having the same or different physical structures for each region. For example, a plurality of memory cells arranged in a lattice and a column / row for selecting the memory cells are provided. A decoder, a sense amplifier for amplifying read data, and the like are provided.

【0045】次に、図3を用いて本発明の実施の形態1
における半導体集積回路内のレイアウト方法の一つの例
について説明する。
Next, Embodiment 1 of the present invention will be described with reference to FIG.
An example of a layout method in a semiconductor integrated circuit will be described.

【0046】図3は、本発明の実施の形態1における一
つの例である半導体集積回路の概略配置図である。本実
施の形態1は、図2に示したように、CPU#0210
とCPU#1211の双方からその全てのBAAエント
リが使用される共用BAAを例示しているので、図3に
示すようにチップの中央部にBAA230のメモリセル
領域を配置し、CPU#0210とCPU#1211の
論理回路領域は、双方のCPUがBAA230のメモリ
セル領域に隣接するよう配置する。そしてキャッシュ記
憶240のメモリセル領域は、図3に示すようにBAA
230のメモリセル領域に隣接し且つCPU#0210
とCPU#1211の論理回路領域の反対側に配置す
る。
FIG. 3 is a schematic layout diagram of a semiconductor integrated circuit as one example according to the first embodiment of the present invention. In the first embodiment, as shown in FIG.
3 illustrates a shared BAA in which all the BAA entries are used by both the CPU # 1211 and the memory cell area of the BAA 230 in the center of the chip as shown in FIG. The logic circuit area of # 1211 is arranged so that both CPUs are adjacent to the memory cell area of the BAA 230. The memory cell area of the cache memory 240 is BAA as shown in FIG.
CPU # 0210 adjacent to the memory cell area 230
And the CPU # 1211 on the opposite side of the logic circuit area.

【0047】CPU#0210とCPU#1211の論
理回路領域とBAA230のメモリセル領域とを隣接し
て配置することにより、CPUとBAA間の接触面を大
きくでき、その結果、CPUとBAA間のデータパスの
幅を広くすることができ且つこのパス長を短くすること
ができる。同様に、キャッシュ記憶240のメモリセル
領域をBAA230のメモリセル領域に隣接して配置す
ることにより、BAAとキャッシュ記憶間の接触面を大
きくでき、その結果、BAAとキャッシュ記憶間のデー
タパスの幅を広くすることができ且つこのパス長を短く
することができる。
By arranging the logic circuit area of CPU # 0210 and CPU # 1211 and the memory cell area of BAA 230 adjacent to each other, the contact surface between CPU and BAA can be increased, and as a result, data between CPU and BAA can be increased. The width of the path can be widened and the path length can be shortened. Similarly, by arranging the memory cell area of the cache memory 240 adjacent to the memory cell area of the BAA 230, the contact area between the BAA and the cache memory can be increased, and as a result, the width of the data path between the BAA and the cache memory can be increased. Can be widened and the path length can be shortened.

【0048】上記のように、領域間のデータパスの幅を
広くするということは、領域間の信号線の数を多く設置
できるということであり、単位時間当たりのデータ転送
量を大きくできる。また、領域間のパス長を短くするこ
とで領域間のデータ転送遅延時間を小さくすることがで
きる。
As described above, increasing the width of the data path between the areas means that the number of signal lines between the areas can be increased, and the data transfer amount per unit time can be increased. Further, the data transfer delay time between the areas can be reduced by shortening the path length between the areas.

【0049】なお、図3に示した配置において、BAA
230の両端または中央にキャッシュ記憶240の領域
を食い込ませて、キャッシュ記憶240の領域がCPU
#0210とCPU#1211の領域と隣接させるレイ
アウトをとる方法もある。
In the arrangement shown in FIG.
The area of the cache memory 240 is cut into both ends or the center of the 230, and the area of the cache memory 240 is
There is also a method of laying out the area adjacent to the area of # 0210 and CPU # 1211.

【0050】次に、図4を用いて本発明の実施の形態1
における半導体集積回路内のレイアウト方法の他の一例
について説明する。
Next, Embodiment 1 of the present invention will be described with reference to FIG.
Another example of the layout method in the semiconductor integrated circuit will be described.

【0051】図4は、本発明の実施の形態1の図2に示
した共用BAA方法の一つの例である半導体集積回路の
概略配置図である。本実施の形態1は、前述のように、
CPU#0210とCPU#1211の双方からその全
てのBAAエントリが使用される共用BAAを例示して
いるので、図4に示すようにチップの中央部にBAA2
30のメモリセル領域を配置し、CPU#0210とC
PU#1211の論理回路領域は、双方のCPUがBA
A230のメモリセル領域に隣接して且つ取り囲むよう
配置する。そしてキャッシュ記憶240のメモリセル領
域は、図4に示すようにBAA230のメモリセル領域
に隣接して且つ取り囲むよう配置し、且つCPU#02
10とCPU#1211の論理回路領域とも隣接して配
置する。そしてCPU#0210とCPU#1211の
論理回路領域の反対側に配置する。
FIG. 4 is a schematic layout diagram of a semiconductor integrated circuit which is one example of the shared BAA method shown in FIG. 2 according to the first embodiment of the present invention. In the first embodiment, as described above,
Since both the CPUs # 0210 and # 1211 exemplify a shared BAA in which all of the BAA entries are used, the BAA2 is located at the center of the chip as shown in FIG.
30 memory cell areas are arranged, and CPU # 0210 and C #
In the logic circuit area of PU # 1211, both CPUs
It is arranged adjacent to and surrounding the memory cell area of A230. The memory cell area of the cache memory 240 is arranged adjacent to and surrounding the memory cell area of the BAA 230 as shown in FIG.
10 and the logic circuit area of the CPU # 1211 are also arranged adjacent to each other. Then, they are arranged on the opposite side of the logic circuit area of CPU # 0210 and CPU # 1211.

【0052】図4に示したように各々の領域間を屈折し
た面で隣接させると、各々の領域間の接触面をより大き
くできる。その結果、CPUとBAA間のデータパスの
幅およびBAAとキャッシュ記憶間のデータパスの幅を
より広くすることができると共に大きな接触面内にデー
タパスを配置する際のデータパスの位置決めに柔軟性を
持たせることができ、各領域間の配置位置によるデータ
転送遅延時間のばらつきを抑えることができ、効率の良
いデータパスのレイアウトが可能となる。更に、CPU
とキャッシュ記憶を隣接させて配置することで、量領域
間のデータパスの幅をより広く且つより短くできる。ま
た、接触面を広くすること、データパス長を短くできる
ことは前述の通りである。
As shown in FIG. 4, when the regions are adjacent to each other with a refracted surface, the contact surface between the regions can be made larger. As a result, the width of the data path between the CPU and the BAA and the width of the data path between the BAA and the cache memory can be made wider, and the positioning of the data path when arranging the data path within a large contact surface is flexible. , The variation in the data transfer delay time due to the arrangement position between the regions can be suppressed, and an efficient data path layout can be realized. Furthermore, CPU
And the cache storage are arranged adjacent to each other, the width of the data path between the quantity areas can be made wider and shorter. As described above, the contact surface can be widened and the data path length can be shortened.

【0053】次に、図5を用いて本発明の実施の形態1
における半導体集積回路内のレイアウト方法の他の一例
について説明する。
Next, Embodiment 1 of the present invention will be described with reference to FIG.
Another example of the layout method in the semiconductor integrated circuit will be described.

【0054】図5は、本発明の実施の形態1の図2に示
した共用BAA方法の一つの例である半導体集積回路の
概略配置図である。本実施の形態1は、前述のように、
CPU#0210とCPU#1211の双方からその全
てのBAAエントリが使用される共用BAAを例示して
いるので、図5に示すようにチップの中央部にBAA2
30のメモリセル領域をキャッシュ記憶240のメモリ
セル領域を二分して配置し、CPU#0210とCPU
#1211の論理回路領域は、双方のCPUがBAA2
30のメモリセル領域に隣接して配置する。そしてキャ
ッシュ記憶240のメモリセル領域は、図5に示すよう
にBAA230のメモリセル領域の両側に隣接して配置
する。
FIG. 5 is a schematic layout diagram of a semiconductor integrated circuit which is an example of the shared BAA method shown in FIG. 2 according to the first embodiment of the present invention. In the first embodiment, as described above,
Since both the CPUs # 0210 and # 1211 exemplify a shared BAA in which all of the BAA entries are used, the BAA2 is located at the center of the chip as shown in FIG.
The memory cell area of the cache memory 240 is divided into two memory cell areas.
In the logic circuit area of # 1211, both CPUs are BAA2
It is arranged adjacent to 30 memory cell areas. Then, the memory cell area of the cache memory 240 is arranged adjacent to both sides of the memory cell area of the BAA 230 as shown in FIG.

【0055】図5に示したようにキャッシュ記憶240
を二分し且つ隣接して配置し、この二分したキャッシュ
記憶のそれぞれを独立して動作可能とすることで、BA
Aとキャッシュ記憶間のデータパスの幅をより広くする
ことができると共に2つのキャッシュ記憶への同時アク
セス動作が可能となり、CPU#0210とCPU#1
211からの主記憶アクセス要求の効率の良い処理が可
能となる。また、キャッシュ記憶を二分してBAAから
対称形に配置することで、各領域間の配置位置によるデ
ータ転送遅延時間のばらつきを抑えることができる。
As shown in FIG. 5, the cache storage 240
By halving and adjoining each other, and enabling each of the halved cache memories to operate independently, BA
The width of the data path between the cache memory A and the cache memory can be made wider, and the simultaneous access operation to the two cache memories becomes possible.
Efficient processing of the main memory access request from the server 211 can be performed. Further, by dividing the cache memory into two and symmetrically arranging them from the BAA, it is possible to suppress a variation in the data transfer delay time depending on the arrangement position between the respective areas.

【0056】次に、図6を用いて本発明の実施の形態1
における半導体集積回路内のレイアウト方法の他の一例
について説明する。
Next, Embodiment 1 of the present invention will be described with reference to FIG.
Another example of the layout method in the semiconductor integrated circuit will be described.

【0057】図6は、本発明の実施の形態1の図2に示
した共用BAA方法の一つの例である半導体集積回路の
概略配置図である。本実施の形態1は、前述のように、
CPU#0210とCPU#1211の双方からその全
てのBAAエントリが使用される共用BAAを例示して
いるので、図6に示すようにチップの中央部にBAA2
30のメモリセル領域を配置し、BAA230のメモリ
セル領域の両側にCPU#0210およびCPU#12
11の論理回路領域を隣接して配置し、更にBAA23
0のメモリセル領域の両側に二分したキャッシュ記憶2
40を隣接して配置する。
FIG. 6 is a schematic layout diagram of a semiconductor integrated circuit which is one example of the shared BAA method shown in FIG. 2 according to the first embodiment of the present invention. In the first embodiment, as described above,
Since both the CPUs # 0210 and # 1211 exemplify a shared BAA in which all of the BAA entries are used, the BAA2 is located at the center of the chip as shown in FIG.
30 memory cell areas are arranged, and CPU # 0210 and CPU # 12 are arranged on both sides of the memory cell area of BAA 230.
11 are arranged adjacent to each other, and the BAA 23
Cache memory 2 bisected on both sides of memory cell area 0
40 are arranged adjacent to each other.

【0058】図6に示したようにキャッシュ記憶240
を二分し且つ隣接して配置し、この二分したキャッシュ
記憶のそれぞれを独立して動作可能とすることで、BA
Aとキャッシュ記憶間のデータパスの幅をより広くする
ことができると共に2つのキャッシュ記憶への同時アク
セス動作が可能となり、CPU#0210とCPU#1
211からの主記憶アクセス要求の効率の良い処理が可
能となる。また、キャッシュ記憶を二分してBAAから
対称形に配置することで、各領域間の配置位置によるデ
ータ転送遅延時間のばらつきを抑えることができるとい
う効果が得られる。
As shown in FIG.
By halving and adjoining each other, and enabling each of the halved cache memories to operate independently, BA
The width of the data path between the cache memory A and the cache memory can be made wider, and the simultaneous access operation to the two cache memories becomes possible.
Efficient processing of the main memory access request from the server 211 can be performed. In addition, by dividing the cache memory into two and symmetrically arranging them from the BAA, an effect is obtained that variation in the data transfer delay time due to the arrangement position between the respective areas can be suppressed.

【0059】(実施の形態2)図7は、本発明の実施の
形態2である情報処理装置のデータアクセス方法および
半導体集積回路の構成を示す図、図8は、本発明の実施
の形態2である情報処理装置の半導体集積回路の概略配
置図、図9,図10,図11および図12は、本発明の
実施の形態2における変形例の半導体集積回路の概略配
置図である。
(Embodiment 2) FIG. 7 shows a configuration of a data access method and a semiconductor integrated circuit of an information processing apparatus according to Embodiment 2 of the present invention. FIG. 8 shows Embodiment 2 of the present invention. FIGS. 9, 10, 11 and 12 are schematic layout diagrams of a semiconductor integrated circuit according to a modification of the second embodiment of the present invention.

【0060】まず、図7により本実施の形態2である情
報処理装置のデータアクセス方法の概略構成を説明す
る。
First, a schematic configuration of the data access method of the information processing apparatus according to the second embodiment will be described with reference to FIG.

【0061】図7において、CPUは2ユニットから構
成され、それぞれCPU#0710とCPU#1711
からなる。このCPU#0710とCPU#1711
は、それぞれ信号線793と信号線794を介してそれ
ぞれBAA#0730とBAA#1731に接続されて
いる。CPU#0710とCPU#1711は、信号線
791を介して相互に接続されており、更に信号線79
8と信号線799を介してキャッシュ記憶740にそれ
ぞれ接続されている。
In FIG. 7, the CPU comprises two units, CPU # 0710 and CPU # 1711, respectively.
Consists of The CPU # 0710 and the CPU # 1711
Are respectively connected to BAA # 0730 and BAA # 1731 via signal lines 793 and 794, respectively. The CPU # 0710 and the CPU # 1711 are connected to each other via a signal line 791.
8 and a cache memory 740 via a signal line 799, respectively.

【0062】BAAは、本実施の形態2ではCPU#0
710とCPU#1711の双方からそれぞれのBAA
エントリが占有して使用される。つまり、CPU#07
10から発行される主記憶アクセスに伴って生成される
BAAエントリと、CPU#1711から発行される主
記憶アクセスに伴って生成されるBAAエントリとがそ
れぞれのBAAに別々に登録され、この別々に登録され
たBAAエントリは、CPU#0710とCPU#17
11の双方からのキャッシュ記憶740のアクセスに使
用される。BAA#0730とBAA#1731は、信
号線793と信号線794を介してCPU#0710と
CPU#1711にそれぞれ接続され、更に、信号線7
95と信号線796とを介してキャッシュ記憶740に
接続されている。
In the second embodiment, BAA corresponds to CPU # 0.
BAA from both 710 and CPU # 1711
The entry is used exclusively. That is, CPU # 07
The BAA entry generated with the main memory access issued from the CPU # 1711 and the BAA entry generated with the main memory access issued from the CPU # 1711 are separately registered in the respective BAAs, and these are separately registered. The registered BAA entries are CPU # 0710 and CPU # 17.
11 is used to access the cache storage 740 from both sides. BAA # 0730 and BAA # 1731 are connected to CPU # 0710 and CPU # 1711 via signal lines 793 and 794, respectively.
95 and a signal line 796 to the cache storage 740.

【0063】キャッシュ記憶740は、信号線798と
信号線799を介してCPU#0710とCPU#17
11にそれぞれ接続されており、更に信号線795と信
号線796とを介してBAA#0730とBAA#17
31に接続されており、更に、図示はしていないがMS
にも接続されている。
The cache memory 740 stores data in the CPUs # 0710 and # 17 via signal lines 798 and 799, respectively.
11 respectively, and BAA # 0730 and BAA # 17 via signal lines 795 and 796, respectively.
31 and MS (not shown)
Is also connected.

【0064】次に、図7を用いて本実施の形態2である
CPU#0710とCPU#1711が主記憶アクセス
をする動作と作用について説明する。この形態は、2つ
のCPUが別々のBAAを占有する形態である。
Next, the operation and operation of the main memory access performed by CPUs # 0710 and # 1711 according to the second embodiment will be described with reference to FIG. In this mode, two CPUs occupy different BAAs.

【0065】CPU#0710及びCPU#1711は
それぞれ独立に動作しており、それぞれ独立に主記憶ア
クセス要求と主記憶アドレスを信号線793及び信号線
794を介してBAA#0730とBAA#1731に
送出する。書き込みアクセスであれば信号線798及び
信号線798を介してキャッシュ記憶740に書き込み
データをそれぞれのCPUごとに独立して送出する。
CPU # 0710 and CPU # 1711 operate independently, and independently transmit main memory access requests and main memory addresses to BAA # 0730 and BAA # 1731 via signal lines 793 and 794, respectively. I do. In the case of write access, write data is sent to the cache memory 740 via the signal line 798 and the signal line 798 independently for each CPU.

【0066】CPU#0710及びCPU#1711か
ら主記憶アクセス要求と主記憶アドレスを受け取ったB
AA#0730とBAA#1731は、BAAエントリ
の索引動作をそれぞれの要求ごとに独立して実行する。
ついでBAA#0730とBAA#1731のBAAエ
ントリ索引動作の結果、該当BAAエントリが存在した
か否かの信号と概BAAエントリが存在した場合にはそ
のエントリの内容そして前記主記憶アドレスを信号線7
95及び信号線796を介してキャッシュ記憶740に
それぞれの要求ごとに独立して送出する。
B receiving the main memory access request and the main memory address from CPU # 0710 and CPU # 1711
The AA # 0730 and the BAA # 1731 independently execute a BAA entry indexing operation for each request.
Next, as a result of the BAA entry indexing operation of BAA # 0730 and BAA # 1731, a signal indicating whether or not the corresponding BAA entry exists, and if there is an approximate BAA entry, the contents of the entry and the main storage address are transferred to signal line 7.
The request is sent independently to the cache storage 740 via the signal line 95 and the signal line 796.

【0067】キャッシュ記憶740は、信号線795と
信号線796を介して送られて来たそれぞれのBAAエ
ントリの索引結果と前記主記憶アドレスを受け取り、該
当BAAエントリが存在する場合には前記エントリから
取り出したキャッシュ記憶アドレスを用いてキャッシュ
記憶740をアクセスし、該当BAAエントリが存在し
ない場合にはキャッシュ記憶740をアクセスせず、前
記主記憶アドレスと主記憶アクセス要求を送出する。
The cache memory 740 receives the index result of each BAA entry sent via the signal line 795 and the signal line 796 and the main memory address. The cache storage 740 is accessed using the extracted cache storage address. If the corresponding BAA entry does not exist, the cache storage 740 is not accessed, and the main storage address and the main storage access request are transmitted.

【0068】キャッシュ記憶740は、更に該当BAA
エントリが存在する場合にはCPUからの主記憶アクセ
ス要求が読み出し要求であれば、当該データを読み出し
て信号線798及び信号線799を介して要求元CPU
へ区別し送出し、前記要求が書き込み要求であれば、信
号線791を介して送られて来ている書き込みデータを
キャッシュ記憶740に書き込む。該当BAAエントリ
が存在しない場合には、通常の主記憶アクセスを行う。
The cache memory 740 further stores the corresponding BAA.
If the entry exists, if the main memory access request from the CPU is a read request, the data is read and the requesting CPU is read via signal lines 798 and 799.
If the request is a write request, the write data sent via the signal line 791 is written to the cache memory 740. If the corresponding BAA entry does not exist, normal main memory access is performed.

【0069】この形態は、2つのCPUが別々のBAA
を占有する形態であるが、この方法では、2つのCPU
のそれぞれがBAAを占有しながら動作しているので、
両方のCPUからの主記憶アクセス要求信号が同時に送
られてくる場合が生じても片方のCPUの主記憶アクセ
ス要求に対応するBAAエントリの索引動作は待たされ
ることはなく、効率の良いBAAエントリの索引動作を
実現できるという特徴がある。
In this mode, the two CPUs have separate BAA
In this method, two CPUs are used.
Are operating while occupying the BAA,
Even if the main memory access request signals from both CPUs are sent at the same time, the index operation of the BAA entry corresponding to the main memory access request of one of the CPUs does not wait, and the efficient BAA entry of the BAA entry is not waited. There is a feature that an indexing operation can be realized.

【0070】また、この方法では、キャッシュ記憶に目的
とするデータが存在する場合でも主記憶アクセス要求を
発行したCPUに占有使用されているBAAに目的とす
るBAAエントリが存在せず、キャッシュ記憶をアクセ
スできずに主記憶アクセスを実行する場合がある。次
に、本実施の形態2である情報処理装置の半導体集積回
路の特徴である、CPUとBAA及びキャッシュ記憶の
レイアウト方法について説明する。
Further, according to this method, even when the target data exists in the cache storage, the target BAA entry does not exist in the BAA exclusively used by the CPU that issued the main storage access request, and the cache storage is performed. In some cases, main memory access is executed without access. Next, a layout method of the CPU, the BAA, and the cache storage, which is a feature of the semiconductor integrated circuit of the information processing device according to the second embodiment, will be described.

【0071】まず、図8を用いて本発明の実施の形態2
における半導体集積回路内のレイアウト方法の一つの例
について説明する。
First, a second embodiment of the present invention will be described with reference to FIG.
An example of a layout method in a semiconductor integrated circuit will be described.

【0072】図8は、本発明の実施の形態2における一
つの例である半導体集積回路の概略配置図である。本実
施の形態2は、図7に示したように、CPU#0710
とCPU#1711の双方からそれぞれのBAAエント
リが占有して使用される専用BAAを例示しているの
で、図8に示すようにチップの中央部にBAA#073
0とBAA#1731のメモリセル領域を配置し、CP
U#0710とCPU#1711の論理回路領域は、双
方のCPUがBAA#0730とBAA#1731のメ
モリセル領域に隣接するよう配置する。そしてキャッシ
ュ記憶740のメモリセル領域は、図8に示すようにB
AA#0730とBAA#1731のメモリセル領域に
隣接し且つCPU#0710とCPU#1711の論理
回路領域の反対側に配置する。
FIG. 8 is a schematic layout diagram of a semiconductor integrated circuit as one example according to the second embodiment of the present invention. In the second embodiment, as shown in FIG.
FIG. 8 illustrates a dedicated BAA used exclusively by each of the BAA entries from both the CPU and the CPU # 1711. Therefore, as shown in FIG.
0 and a memory cell area of BAA # 1731
The logic circuit areas of U # 0710 and CPU # 1711 are arranged so that both CPUs are adjacent to the memory cell areas of BAA # 0730 and BAA # 1731. Then, as shown in FIG.
It is arranged adjacent to the memory cell area of AA # 0730 and BAA # 1731 and opposite to the logic circuit area of CPU # 0710 and CPU # 1711.

【0073】CPU#0710の論理回路領域とBAA
730のメモリセル領域とを隣接して配置し、CPU#
1711の論理回路領域とBAA731のメモリセル領
域とを隣接して配置することにより、それぞれのCPU
と当該CPUに占有使用されるBAAを隣接させて配置
することで、CPUとBAA間のデータパスの幅を広く
することができ且つこのパス長を短くすることができ
る。同様に、キャッシュ記憶740のメモリセル領域を
BAA#0730とBAA#1731のメモリセル領域
に隣接して配置することにより、BAAとキャッシュ記
憶間の接触面を大きくでき、その結果、BAAとキャッ
シュ記憶間のデータパスの幅を広くすることができ且つ
このパス長を短くすることができる。
Logic Circuit Area of CPU # 0710 and BAA
730 is arranged adjacent to the memory cell area, and the CPU #
By arranging the logic circuit area 1711 and the memory cell area of the BAA 731 adjacent to each other,
By arranging the BAA occupied and used by the CPU adjacent to the CPU, the width of the data path between the CPU and the BAA can be widened and the path length can be shortened. Similarly, by arranging the memory cell area of the cache memory 740 adjacent to the memory cell areas of BAA # 0730 and BAA # 1731, the contact surface between the BAA and the cache memory can be increased, and as a result, the BAA and the cache memory can be stored. The width of the data path between them can be widened and this path length can be shortened.

【0074】本発明の実施の形態1における説明と同様
に、領域間のデータパスの幅を広くするということは、
領域間の信号線の数を多く設置できるということであ
り、単位時間当たりのデータ転送量を大きくできる。ま
た、領域間のパス長を短くすることで領域間のデータ転
送遅延時間を小さくすることができる。
As described in the first embodiment of the present invention, increasing the width of the data path between the areas means
This means that the number of signal lines between the areas can be increased, and the data transfer amount per unit time can be increased. Further, the data transfer delay time between the areas can be reduced by shortening the path length between the areas.

【0075】なお、図8に示した配置において、BAA
#0730とBAA#1731の両端または中央にキャ
ッシュ記憶740の領域を食い込ませて、キャッシュ記
憶740の領域がCPU#0710とCPU#1711
の領域と隣接させるレイアウトをとる方法もある。
In the arrangement shown in FIG.
The area of the cache memory 740 is cut into both ends or the center of # 0730 and BAA # 1731, and the area of the cache memory 740 is changed to the CPU # 0710 and the CPU # 1711.
There is also a method of taking a layout that is adjacent to the region of FIG.

【0076】次に、図9を用いて本発明の実施の形態2
における半導体集積回路内のレイアウト方法の他の一例
について説明する。
Next, a second embodiment of the present invention will be described with reference to FIG.
Another example of the layout method in the semiconductor integrated circuit will be described.

【0077】形態2は、図7に示したように、CPU#
0710とCPU#1711の双方からそれぞれのBA
Aエントリが占有して使用される専用BAAを例示して
いるので、図9に示すようにチップの両端部にBAA#
0730とBAA#1731のメモリセル領域を配置
し、CPU#0710とCPU#1711の論理回路領
域は、双方のCPUがBAA#0730とBAA#17
31のメモリセル領域の一辺に隣接して配置する。そし
てキャッシュ記憶740のメモリセル領域は、図9に示
すようにBAA#0730とBAA#1731のメモリ
セル領域の間に隣接して配置し、且つCPU#0710
とCPU#1711の論理回路領域とも隣接して配置す
る。
In the second embodiment, as shown in FIG.
0710 and CPU # 1711 from both BA
Since a dedicated BAA used exclusively by the A entry is illustrated, as shown in FIG.
0730 and a memory cell area of BAA # 1731 are arranged, and a logic circuit area of CPU # 0710 and CPU # 1711 is provided with both CPUs BAA # 0730 and BAA # 17.
31 are arranged adjacent to one side of the memory cell area. The memory cell area of the cache memory 740 is disposed adjacent to the memory cell area of BAA # 0730 and BAA # 1731, as shown in FIG.
And the logic circuit area of the CPU # 1711.

【0078】図9に示したように各々の領域間を隣接さ
せると、各々の領域間の接触面を大きくできる。その結
果、CPUとBAA間のデータパスの幅およびBAAと
キャッシュ記憶間のデータパスの幅をより広くすること
ができ、CPUとキャッシュ記憶を隣接させて配置する
ことで、量領域間のデータパスの幅をより広く且つより
短くできる。また、接触面を広くすること、データパス
長を短くできることは前述の通りである。
When the regions are adjacent to each other as shown in FIG. 9, the contact area between the regions can be increased. As a result, the width of the data path between the CPU and the BAA and the width of the data path between the BAA and the cache storage can be made wider. Can be made wider and shorter. As described above, the contact surface can be widened and the data path length can be shortened.

【0079】更に、図9に示したようにBAA#073
0とBAA#1731のメモリセル領域をチップの両端
部に配置し、CPU#0710とCPU#1711の論
理回路領域は、双方のCPUがBAA#0730とBA
A#1731のメモリセル領域の一辺に隣接して且つ対
称となるよう配置し、そしてキャッシュ記憶を2つのB
AAの間に対称形に配置することで、各領域間の配置位
置によるデータ転送遅延時間のばらつきを抑えることが
できるという効果が得られる。
Further, as shown in FIG. 9, BAA # 073
0 and BAA # 1731 are arranged at both ends of the chip, and the logic circuit areas of CPU # 0710 and CPU # 1711 are both CPUs BAA # 0730 and BAA # 1731.
A # 1731 is arranged adjacent to one side of the memory cell area and symmetrically, and the cache memory is stored in two B
By symmetrically arranging them between AA, it is possible to obtain an effect that variation in the data transfer delay time due to the arrangement position between the respective regions can be suppressed.

【0080】次に、図10を用いて本発明の実施の形態
2における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of the layout method in the semiconductor integrated circuit according to the second embodiment of the present invention will be described with reference to FIG.

【0081】本実施の形態2は、前述のように、CPU
#0710とCPU#1711の双方からそれぞれのB
AAエントリが占有して使用される専用BAAを例示し
ているので、図10に示すようにチップの中央部にキャ
ッシュ記憶740のメモリセル領域を配置し、キャッシ
ュ記憶740のメモリセル領域の両側にBAA#073
0とBAA#1731のメモリセル領域を隣接して配置
し、更にBAA#0730とBAA#1731のメモリ
セル領域の外側にCPU#0710とCPU#1711
の論理回路領域を隣接して配置する。
In the second embodiment, as described above, the CPU
B from both # 0710 and CPU # 1711
Since a dedicated BAA used exclusively by the AA entry is illustrated, the memory cell area of the cache memory 740 is arranged at the center of the chip as shown in FIG. BAA # 073
0 and the memory cell areas of BAA # 1731 are arranged adjacent to each other, and the CPU # 0710 and CPU # 1711 are located outside the memory cell areas of BAA # 0730 and BAA # 1731.
Are arranged adjacent to each other.

【0082】図10に示したようにキャッシュ記憶を中
央にして、2つのBAAと2つのCPUを上下対称形に
配置することで、各領域間の配置位置によるデータ転送
遅延時間のばらつきを抑えることができるという効果が
得られる。
As shown in FIG. 10, by arranging the two BAAs and the two CPUs symmetrically with the cache memory at the center, the variation in the data transfer delay time depending on the arrangement position between the areas can be suppressed. Is obtained.

【0083】次に、図11を用いて本発明の実施の形態
2における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of the layout method in the semiconductor integrated circuit according to the second embodiment of the present invention will be described with reference to FIG.

【0084】本実施の形態2は、前述のように、CPU
#0710とCPU#1711の双方からそれぞれのB
AAエントリが占有して使用される専用BAAを例示し
ているので、図11に示すようにチップの中央部にBA
A#0730とBAA#1731のメモリセル領域を隣
接して配置し、BAA#0730とBAA#1731の
メモリセル領域の両側にCPU#0710およびCPU
#1711の論理回路領域を隣接して配置し、更にBA
A#0730とBAA#1731のメモリセル領域の両
側に二分したキャッシュ記憶740を隣接して配置す
る。
In the second embodiment, as described above, the CPU
B from both # 0710 and CPU # 1711
Since a dedicated BAA used exclusively by the AA entry is illustrated, as shown in FIG.
A # 0730 and BAA # 1731 memory cell areas are arranged adjacent to each other, and CPU # 0710 and CPU # 0710 are located on both sides of the memory cell areas of BAA # 0730 and BAA # 1731.
The logic circuit area of # 1711 is arranged adjacently, and BA
The cache memory 740 divided into two is arranged adjacent to both sides of the memory cell area of A # 0730 and BAA # 1731.

【0085】図11に示したようにキャッシュ記憶74
0を二分し且つ隣接して配置し、この二分したキャッシ
ュ記憶のそれぞれを独立して動作可能とすることで、B
AAとキャッシュ記憶間のデータパスの幅をより広くす
ることができると共に2つのキャッシュ記憶への同時ア
クセス動作が可能となり、CPU#0710とCPU#
1711からの主記憶アクセス要求の効率の良い処理が
可能となる。また、キャッシュ記憶を二分してBAAか
ら対称形に配置することで、各領域間の配置位置による
データ転送遅延時間のばらつきを抑えることができると
いう効果が得られる。
As shown in FIG.
0 by bisecting and adjoining, and enabling each of the bisected caches to operate independently, B
The width of the data path between the AA and the cache memory can be made wider and the simultaneous access operation to the two cache memories becomes possible.
The efficient processing of the main memory access request from 1711 can be performed. In addition, by dividing the cache memory into two and symmetrically arranging them from the BAA, an effect is obtained that variation in the data transfer delay time due to the arrangement position between the respective areas can be suppressed.

【0086】次に、図12を用いて本発明の実施の形態
2における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of the layout method in the semiconductor integrated circuit according to the second embodiment of the present invention will be described with reference to FIG.

【0087】本実施の形態2は、前述のように、CPU
#0710とCPU#1711の双方からそれぞれのB
AAエントリが占有して使用される専用BAAを例示し
ているので、図12に示すようにチップの中央部にCP
U#0710およびCPU#1711の論理回路領域を
隣接して配置し、CPU#0710およびCPU#17
11の論理回路領域の両側にBAA#0730とBAA
#1731のメモリセル領域を隣接して配置し、更にC
PU#0710およびCPU#1711の論理回路領域
の両側に二分したキャッシュ記憶740を隣接して配置
する。
In the second embodiment, as described above, the CPU
B from both # 0710 and CPU # 1711
Since the dedicated BAA used exclusively by the AA entry is illustrated, as shown in FIG.
The logic circuit areas of U # 0710 and CPU # 1711 are arranged adjacent to each other, and CPU # 0710 and CPU # 1710 are arranged.
BAA # 0730 and BAA on both sides of the 11th logic circuit area
The memory cell area of # 1731 is arranged adjacently, and
The two separate cache memories 740 are arranged adjacent to both sides of the logic circuit area of PU # 0710 and CPU # 1711.

【0088】図12に示したようにキャッシュ記憶74
0を二分し且つ隣接して配置し、この二分したキャッシ
ュ記憶のそれぞれを独立して動作可能とすることで、B
AAとキャッシュ記憶間のデータパスの幅をより広くす
ることができると共に2つのキャッシュ記憶への同時ア
クセス動作が可能となり、CPU#0710とCPU#
1711からの主記憶アクセス要求の効率の良い処理が
可能となる。また、キャッシュ記憶を二分してBAAか
ら対称形に配置することで、各領域間の配置位置による
データ転送遅延時間のばらつきを抑えることができると
いう効果が得られる。
As shown in FIG.
0 by bisecting and adjoining, and enabling each of the bisected caches to operate independently, B
The width of the data path between the AA and the cache memory can be made wider and the simultaneous access operation to the two cache memories becomes possible.
The efficient processing of the main memory access request from 1711 can be performed. In addition, by dividing the cache memory into two and symmetrically arranging them from the BAA, an effect is obtained that variation in the data transfer delay time due to the arrangement position between the respective areas can be suppressed.

【0089】(実施の形態3)図13は、本発明の実施
の形態3である情報処理装置のデータアクセス方法およ
び半導体集積回路の構成を示す図、図14は、本発明の
実施の形態3である情報処理装置の半導体集積回路の概
略配置図、図図15は、本発明の実施の形態3における
変形例の半導体集積回路の概略配置図である。
(Embodiment 3) FIG. 13 is a diagram showing a configuration of a data access method and a semiconductor integrated circuit of an information processing apparatus according to Embodiment 3 of the present invention, and FIG. 14 is Embodiment 3 of the present invention. FIG. 15 is a schematic layout diagram of a semiconductor integrated circuit according to a modification of the third embodiment of the present invention.

【0090】まず、図13により本実施の形態3である
情報処理装置のデータアクセス方法の概略構成を説明す
る。
First, the schematic configuration of the data access method of the information processing apparatus according to the third embodiment will be described with reference to FIG.

【0091】図13において、CPUは2ユニットから
構成され、それぞれCPU#01310とCPU#11
311からなる。このCPU#01310とCPU#1
1311は、それぞれ信号線1393と信号線1394
を介してそれぞれBAA#01330とBAA#113
31に接続されている。CPU#01310とCPU#
11311は、信号線1391を介して相互に接続され
ており、更に信号線1398と信号線1399を介して
キャッシュ記憶1340にそれぞれ接続されている。
In FIG. 13, the CPU comprises two units, CPU # 01310 and CPU # 11, respectively.
311. This CPU # 01310 and CPU # 1
1311 is a signal line 1393 and a signal line 1394, respectively.
BAA # 01330 and BAA # 113 via
31. CPU # 01310 and CPU #
11311 are mutually connected via a signal line 1391, and further connected to the cache memory 1340 via a signal line 1398 and a signal line 1399, respectively.

【0092】BAAは、本実施の形態3ではCPU#0
1310とCPU#11311の双方からのそれぞれの
BAAエントリへの参照アクセスに対し、BAAは占有
して使用される。つまり、CPU#01310から発行
される主記憶アクセスに伴って生成されるBAAエント
リと、CPU#11311から発行される主記憶アクセ
スに伴って生成されるBAAエントリとは、それぞれB
AA#01330とBAA#11331の両方に登録さ
れ、この両方に登録されたBAAエントリは、CPU#
01310とCPU#11311の双方からのキャッシ
ュ記憶1340のアクセスに使用される。BAA#01
330とBAA#11331は、信号線1393と信号
線1394を介してCPU#01310とCPU#11
311にそれぞれ接続され、更に、信号線1395と信
号線1396とを介してキャッシュ記憶1340に接続
されている。
In the third embodiment, BAA corresponds to CPU # 0.
The BAA is exclusively used for reference access to the respective BAA entries from both the 1310 and the CPU # 11311. That is, the BAA entry generated with the main memory access issued from the CPU # 01310 and the BAA entry generated with the main memory access issued from the CPU # 11311 are B respectively.
AA # 01330 and BAA # 11331 are registered in both, and the BAA entry registered in both of them is a CPU #
It is used for accessing the cache storage 1340 from both the 01310 and the CPU # 11311. BAA # 01
330 and BAA # 11331 are connected to CPU # 01310 and CPU # 11 via signal line 1393 and signal line 1394, respectively.
311, and further connected to the cache memory 1340 via signal lines 1395 and 1396.

【0093】キャッシュ記憶1340は、信号線139
8と信号線1399を介してCPU#01310とCP
U#11311にそれぞれ接続されており、更に信号線
1395と信号線1396とを介してBAA#0133
0とBAA#11331に接続されており、更に、図示
はしていないがMSにも接続されている。
The cache memory 1340 includes a signal line 139
8 and the signal line 1399 to the CPU # 01310 and the CP
U # 11311, and BAA # 0133 via a signal line 1395 and a signal line 1396.
0 and BAA # 11331, and is also connected to an MS (not shown).

【0094】次に、図13を用いて本実施の形態3であ
るCPU#01310とCPU#11311が主記憶ア
クセスをする動作と作用について説明する。この形態
は、2つのCPUが別々のBAAを占有する形態であ
る。
Next, the operation and operation of the main memory access by CPU # 01310 and CPU # 11311 according to the third embodiment will be described with reference to FIG. In this mode, two CPUs occupy different BAAs.

【0095】CPU#01310及びCPU#1131
1はそれぞれ独立に動作しており、それぞれ独立に主記
憶アクセス要求と主記憶アドレスを信号線1393及び
信号線1394を介してBAA#01330とBAA#
11331に送出する。書き込みアクセスであれば信号
線1398及び信号線1398を介してキャッシュ記憶
1340に書き込みデータをそれぞれのCPUごとに独
立して送出する。
CPU # 01310 and CPU # 1131
1 operate independently of each other, and independently transmit a main memory access request and a main memory address via signal lines 1393 and 1394 to BAA # 01330 and BAA #.
11331. In the case of write access, write data is sent to the cache memory 1340 via the signal line 1398 and the signal line 1398 independently for each CPU.

【0096】CPU#01310及びCPU#1131
1から主記憶アクセス要求と主記憶アドレスを受け取っ
たBAA#01330とBAA#11331は、BAA
エントリの索引動作をそれぞれの要求ごとに独立して実
行する。ついでBAA#01330とBAA#1133
1のBAAエントリ索引動作の結果、該当BAAエント
リが存在したか否かの信号と概BAAエントリが存在し
た場合にはそのエントリの内容そして前記主記憶アドレ
スを信号線1395及び信号線1396を介してキャッ
シュ記憶1340にそれぞれの要求ごとに独立して送出
する。
CPU # 01310 and CPU # 1131
BAA # 01330 and BAA # 11331 that have received the main storage access request and the main storage address from
Perform entry indexing operations independently for each request. Then BAA # 01330 and BAA # 1133
As a result of the BAA entry index operation of No. 1, if there is a signal indicating whether or not the corresponding BAA entry exists and if there is an approximate BAA entry, the contents of the entry and the main storage address are transmitted via signal lines 1395 and 1396. The request is sent to the cache memory 1340 independently for each request.

【0097】キャッシュ記憶1340は、信号線139
5と信号線1396を介して送られて来たそれぞれのB
AAエントリの索引結果と前記主記憶アドレスを受け取
り、該当BAAエントリが存在する場合には前記エント
リから取り出したキャッシュ記憶アドレスを用いてキャ
ッシュ記憶1340をアクセスし、該当BAAエントリ
が存在しない場合にはキャッシュ記憶1340をアクセ
スせず、前記主記憶アドレスと主記憶アクセス要求をM
Sに送出する。このMSに対する主記憶アクセスの結
果、主記憶内データの1ブロックがキャッシュ記憶13
40に転送され所定のキャッシュ記憶内ブロックに書き
込まれると共に当該ブロックに対応する主記憶アドレス
とキャッシュ記憶アドレスをBAA#01330とBA
A#11331の双方の所定のBAAエントリに登録す
る。
The cache memory 1340 includes a signal line 139
5 and each B sent via signal line 1396
It receives the index result of the AA entry and the main storage address, accesses the cache storage 1340 using the cache storage address extracted from the entry if the relevant BAA entry exists, and caches the cache if the relevant BAA entry does not exist. Without accessing the storage 1340, the main storage address and the main storage access
Send to S. As a result of the main memory access to the MS, one block of the data in the main memory is stored in the cache memory 13.
40 and written into a predetermined block in the cache storage, and the main storage address and the cache storage address corresponding to the block are set to BAA # 01330 and BA
A is registered in both predetermined BAA entries of A # 11331.

【0098】キャッシュ記憶1340は、更に該当BA
Aエントリが存在する場合にはCPUからの主記憶アク
セス要求が読み出し要求であれば、当該データを読み出
して信号線1398及び信号線1399を介して要求元
CPUへ区別し送出し、前記要求が書き込み要求であれ
ば、信号線1391を介して送られて来ている書き込み
データをキャッシュ記憶1340に書き込む。該当BA
Aエントリが存在しない場合には、通常の主記憶アクセ
スを行う。この主記憶アクセスの際にも、主記憶内デー
タの1ブロックがキャッシュ記憶1340に転送され所
定のキャッシュ記憶内ブロックに書き込まれると共に当
該ブロックに対応する主記憶アドレスとキャッシュ記憶
アドレスをBAA#01330とBAA#11331の
双方の所定のBAAエントリに登録する。つまり、BA
A#01330とBAA#11331の双方のBAAエ
ントリ群は同一の内容を持つ。
The cache memory 1340 further stores the corresponding BA
If the A entry exists, and if the main memory access request from the CPU is a read request, the data is read out and sent to the requesting CPU via signal lines 1398 and 1399, and the request is written. If so, the write data sent via the signal line 1391 is written to the cache memory 1340. Applicable BA
If the A entry does not exist, normal main memory access is performed. At the time of this main storage access, one block of the main storage data is transferred to the cache storage 1340 and written in a predetermined cache storage block, and the main storage address and the cache storage address corresponding to the block are set to BAA # 01330. It is registered in both predetermined BAA entries of BAA # 11331. That is, BA
The BAA entry groups of both A # 01330 and BAA # 11331 have the same contents.

【0099】この形態は、2つのCPUが別々のBAA
を占有する形態であるが、この方法では、2つのCPU
のそれぞれがBAAを占有しながら動作しているので、
両方のCPUからの主記憶アクセス要求信号が同時に送
られてくる場合が生じても片方のCPUの主記憶アクセ
ス要求に対応するBAAエントリの索引動作は待たされ
ることはなく、効率の良いBAAエントリの索引動作を
実現でき、更に、同一のBAAを2つのCPUから完全
に共用した場合と等価の効果が得られるという特徴があ
る。
In this mode, the two CPUs have separate BAA
In this method, two CPUs are used.
Are operating while occupying the BAA,
Even if the main memory access request signals from both CPUs are sent at the same time, the index operation of the BAA entry corresponding to the main memory access request of one of the CPUs does not wait, and the efficient BAA entry of the BAA entry is not waited. An indexing operation can be realized, and furthermore, an effect equivalent to a case where the same BAA is completely shared by two CPUs is obtained.

【0100】次に、本実施の形態3である情報処理装置
の半導体集積回路の特徴である、CPUとBAA及びキ
ャッシュ記憶のレイアウト方法について説明する。
Next, a layout method of the CPU, the BAA, and the cache storage, which is a feature of the semiconductor integrated circuit of the information processing apparatus according to the third embodiment, will be described.

【0101】まず、図14を用いて本発明の実施の形態
3における半導体集積回路内のレイアウト方法の一つの
例について説明する。
First, an example of a layout method in a semiconductor integrated circuit according to the third embodiment of the present invention will be described with reference to FIG.

【0102】図14は、本発明の実施の形態3における
一つの例である半導体集積回路の概略配置図である。本
実施の形態3は、図13に示したように、CPU#01
310とCPU#11311の双方からそれぞれのBA
Aが占有して使用される専用BAAを例示しているが、
各々のBAAにはCPU#01310から発行される主
記憶アクセスに伴って生成されるBAAエントリとCP
U#11311から発行される主記憶アクセスに伴って
生成されるBAAエントリとがそれぞれのBAAに登録
され、この両方に登録されたBAAエントリは、2つの
CPUの双方からのキャッシュ記憶のアクセスに使用さ
れるので、図14に示すようにチップの中央部にBAA
1330とBAA1331のメモリセル領域を配置し、
CPU#01310とCPU#11311の論理回路領
域は、双方のCPUがBAA1330とBAA1331
のメモリセル領域に隣接するよう配置する。そしてキャ
ッシュ記憶1340のメモリセル領域は、図14に示す
ようにBAA1330とBAA1331のメモリセル領
域に隣接し且つCPU#01310とCPU#1131
1の論理回路領域の反対側に配置する。
FIG. 14 is a schematic layout diagram of a semiconductor integrated circuit as one example according to the third embodiment of the present invention. In the third embodiment, as shown in FIG.
Each BA from both 310 and CPU # 11311
A illustrates a dedicated BAA used exclusively by A,
Each BAA has a BAA entry generated along with a main memory access issued from CPU # 01310 and a CP.
A BAA entry generated from the main memory access issued from U # 11311 is registered in each BAA, and the BAA entries registered in both are used for accessing cache storage from both of the two CPUs. Therefore, as shown in FIG.
1330 and the memory cell area of BAA1331 are arranged,
The logic circuit area of CPU # 01310 and CPU # 11311 is such that both CPUs are BAA1330 and BAA1331.
Are arranged adjacent to the memory cell region of The memory cell area of the cache memory 1340 is adjacent to the memory cell area of the BAA 1330 and the BAA 1331 as shown in FIG.
It is arranged on the opposite side of one logic circuit area.

【0103】CPU#01310の論理回路領域とBA
A1330のメモリセル領域とを隣接して配置し、CP
U#11311の論理回路領域とBAA1331のメモ
リセル領域とを隣接して配置することにより、それぞれ
のCPUと当該CPUに占有使用されるBAAを隣接さ
せて配置することで、CPUとBAA間のデータパスの
幅を広くすることができ且つこのパス長を短くすること
ができる。更に、BAA1330とBAA1331のメ
モリセル領域を隣接して配置することにより、BAA1
330とBAA1331間の接触面を大きくでき、その
結果、BAA間のデータパスの幅を広くすることができ
且つこのパス長を短くすることができる。その結果、B
AA1330とBAA1331のメモリセル領域に対し
同一のBAAエントリを登録する際の登録動作を高速化
できる。
Logic Circuit Area of CPU # 01310 and BA
A1330 and a memory cell area adjacent to each other.
By arranging the logic circuit area of U # 11311 and the memory cell area of the BAA 1331 adjacent to each other, the CPU and the BAA occupied by the CPU are arranged adjacent to each other, so that the data between the CPU and the BAA is arranged. The width of the path can be widened and the path length can be shortened. Further, by arranging the memory cell areas of BAA 1330 and BAA 1331 adjacent to each other, BAA 1
The contact surface between 330 and BAA 1331 can be increased, and as a result, the width of the data path between BAAs can be widened and the path length can be shortened. As a result, B
The registration operation for registering the same BAA entry in the memory cell areas of the AA 1330 and the BAA 1331 can be speeded up.

【0104】同様に、キャッシュ記憶1340のメモリ
セル領域をBAA1330とBAA1331のメモリセ
ル領域に隣接して配置することにより、BAAとキャッ
シュ記憶間の接触面を大きくでき、その結果、BAAと
キャッシュ記憶間のデータパスの幅を広くすることがで
き且つこのパス長を短くすることができる。
Similarly, by arranging the memory cell area of the cache memory 1340 adjacent to the memory cell area of the BAA 1330 and the BAA 1331, the contact area between the BAA and the cache memory can be increased. Can be widened and the path length can be shortened.

【0105】本発明の実施の形態1における説明と同様
に、領域間のデータパスの幅を広くするということは、
領域間の信号線の数を多く設置できるということであ
り、単位時間当たりのデータ転送量を大きくできる。ま
た、領域間のパス長を短くすることで領域間のデータ転
送遅延時間を小さくすることができる。
As described in the first embodiment of the present invention, increasing the width of the data path between the areas means
This means that the number of signal lines between the areas can be increased, and the data transfer amount per unit time can be increased. Further, the data transfer delay time between the areas can be reduced by shortening the path length between the areas.

【0106】なお、図14に示した配置において、BA
A1330とBAA1331の両端または中央にキャッ
シュ記憶1340の領域を食い込ませて、キャッシュ記
憶1340の領域がCPU#01310とCPU#11
311の領域と隣接させるレイアウトをとる方法もあ
る。
In the arrangement shown in FIG.
The area of the cache memory 1340 is cut into both ends or the center of the A1330 and the BAA 1331, and the area of the cache memory 1340 is changed to the CPU # 01310 and the CPU # 11.
There is also a method of taking a layout that is adjacent to the area 311.

【0107】次に、図図15を用いて本発明の実施の形
態3における半導体集積回路内のレイアウト方法の他の
一例について説明する。
Next, another example of the layout method in the semiconductor integrated circuit according to the third embodiment of the present invention will be described with reference to FIG.

【0108】本実施の形態3は、前述のように、CPU
#01310とCPU#11311の双方からそれぞれ
のBAAエントリが占有して使用される専用BAAを例
示しているので、図図15に示すようにチップの中央部
にBAA1330とBAA1331のメモリセル領域を
隣接して配置し、BAA1330とBAA1331のメ
モリセル領域の両側にCPU#01310およびCPU
#11311の論理回路領域を隣接して配置し、更にB
AA1330とBAA1331のメモリセル領域の両側
に二分したキャッシュ記憶1340を隣接して配置す
る。
In the third embodiment, as described above, the CPU
Since a dedicated BAA used exclusively by each of the BAA entries from both # 01310 and CPU # 11311 is illustrated, the memory cell areas of BAA 1330 and BAA 1331 are adjacent to the center of the chip as shown in FIG. CPU # 01310 and CPU # 01310 on both sides of the memory cell area of BAA1330 and BAA1331.
The logic circuit area of # 11311 is arranged adjacent to
The cache memory 1340 divided into two is arranged adjacent to both sides of the memory cell area of the AA 1330 and the BAA 1331.

【0109】従って、上記と同様に、BAA1330と
BAA1331のメモリセル領域を隣接して配置するこ
とにより、BAA1330とBAA1331間の接触面
を大きくでき、その結果、BAAとキャッシュ記憶間の
データパスの幅を広くすることができ且つこのパス長を
短くすることができる。その結果、BAA1330とB
AA1331のメモリセル領域に対し同一のBAAエン
トリを登録する際の登録動作を高速化できる。
Therefore, as described above, by arranging the memory cell areas of BAA 1330 and BAA 1331 adjacent to each other, the contact area between BAA 1330 and BAA 1331 can be increased, and as a result, the width of the data path between BAA and cache memory can be increased. Can be widened and the path length can be shortened. As a result, BAA1330 and B
It is possible to speed up the registration operation when registering the same BAA entry in the memory cell area of the AA1331.

【0110】また、図図15に示したようにキャッシュ
記憶1340を二分し且つ隣接して配置し、この二分し
たキャッシュ記憶のそれぞれを独立して動作可能とする
ことで、BAAとキャッシュ記憶間のデータパスの幅を
より広くすることができると共に2つのキャッシュ記憶
への同時アクセス動作が可能となり、CPU#0131
0とCPU#11311からの主記憶アクセス要求の効
率の良い処理が可能となる。また、キャッシュ記憶を二
分してBAAから対称形に配置することで、各領域間の
配置位置によるデータ転送遅延時間のばらつきを抑える
ことができるという効果が得られる。
Further, as shown in FIG. 15, the cache memory 1340 is divided into two and arranged adjacent to each other, and each of the two divided cache memories can be operated independently. The width of the data path can be made wider and the simultaneous access operation to the two cache memories becomes possible.
0 and efficient processing of the main memory access request from the CPU # 11311 can be performed. In addition, by dividing the cache memory into two and symmetrically arranging them from the BAA, an effect is obtained that variation in the data transfer delay time due to the arrangement position between the respective areas can be suppressed.

【0111】(実施の形態4)図16は、本発明の実施
の形態4である情報処理装置のデータアクセス方法およ
び半導体集積回路の構成を示す図、図17は、本発明の
実施の形態4である情報処理装置の半導体集積回路の概
略配置図、図18と図19は、本発明の実施の形態4に
おける変形例の半導体集積回路の概略配置図である。
(Embodiment 4) FIG. 16 is a diagram showing a configuration of a data access method and a semiconductor integrated circuit of an information processing apparatus according to Embodiment 4 of the present invention. FIG. 17 is a diagram showing Embodiment 4 of the present invention. 18 and 19 are schematic layout diagrams of a semiconductor integrated circuit according to a modification of the fourth embodiment of the present invention.

【0112】まず、図16により本実施の形態4である
情報処理装置のデータアクセス方法の概略構成を説明す
る。
First, a schematic configuration of the data access method of the information processing apparatus according to the fourth embodiment will be described with reference to FIG.

【0113】図16において、CPUは2ユニットから
構成され、それぞれCPU#01610とCPU#11
611からなる。このCPU#01610とCPU#1
1611は、それぞれ信号線1693と信号線1694
を介してそれぞれBAA#01630とBAA#116
31に接続されている。CPU#01610とCPU#
11611は、信号線1691を介して相互に接続され
ており、更に信号線1698と信号線1699を介して
キャッシュ記憶1640にそれぞれ接続されている。
In FIG. 16, the CPU is composed of two units, CPU # 01610 and CPU # 11, respectively.
611. This CPU # 01610 and CPU # 1
1611 is a signal line 1693 and a signal line 1694, respectively.
BAA # 01630 and BAA # 116 via
31. CPU # 01610 and CPU #
11611 are connected to each other via a signal line 1691, and further connected to the cache memory 1640 via a signal line 1698 and a signal line 1699.

【0114】BAAは、本実施の形態4ではCPU#0
1610とCPU#11611の双方からそれぞれのB
AAエントリが占有と共用の組み合わせで使用される。
つまり、CPU#01610から発行される主記憶アク
セスに伴って生成されるBAAエントリと、CPU#1
1611から発行される主記憶アクセスに伴って生成さ
れるBAAエントリとがそれぞれのBAAに別々に登録
され、この別々に登録されたBAAエントリは、CPU
#01610とCPU#11611の双方からのキャッ
シュ記憶1640のアクセスに使用される。BAA#0
1630とBAA#11631は、信号線1692を介
して相互に接続され、信号線1693と信号線1694
を介してCPU#01610とCPU#11611にそ
れぞれ接続され、更に、信号線1695と信号線169
6とを介してキャッシュ記憶1640に接続されてい
る。
In the fourth embodiment, BAA corresponds to CPU # 0.
1610 and CPU # 11611 from both B
AA entries are used in a combination of occupancy and sharing.
In other words, the BAA entry generated along with the main memory access issued from the CPU # 01610 and the CPU # 1
1611 and a BAA entry generated with the main memory access issued from the main memory 1611 are separately registered in the respective BAAs, and the separately registered BAA entries are
It is used for accessing the cache storage 1640 from both # 01610 and CPU # 11611. BAA # 0
1630 and BAA # 11631 are connected to each other via signal line 1692, and signal line 1693 and signal line 1694 are connected.
Are connected to the CPU # 01610 and the CPU # 11611 via a signal line 1695 and a signal line 169, respectively.
6 is connected to the cache storage 1640.

【0115】キャッシュ記憶1640は、信号線169
8と信号線1699を介してCPU#01610とCP
U#11611にそれぞれ接続されており、更に信号線
1695と信号線1696とを介してBAA#0163
0とBAA#11631に接続されており、更に、図示
はしていないがMSにも接続されている。
The cache memory 1640 stores the signal line 169
8 and the CPU # 01610 via the signal line 1699 and the CP
U # 11611, and BAA # 0163 via a signal line 1695 and a signal line 1696.
0 and BAA # 11631, and is also connected to an MS (not shown).

【0116】次に、図16を用いて本実施の形態4であ
るCPU#01610とCPU#11611が主記憶ア
クセスをする動作と作用について説明する。この形態
は、2つのCPUが別々のBAAを占有と共用の組み合
わせの形態である。
Next, the operation and operation of the main memory access performed by CPU # 01610 and CPU # 11611 according to the fourth embodiment will be described with reference to FIG. In this embodiment, two CPUs occupy different BAAs and are shared.

【0117】CPU#01610及びCPU#1161
1はそれぞれ独立に動作しており、それぞれ独立に主記
憶アクセス要求と主記憶アドレスを信号線1693及び
信号線1694を介してBAA#01630とBAA#
11631に送出する。書き込みアクセスであれば信号
線1698及び信号線1698を介してキャッシュ記憶
1640に書き込みデータをそれぞれのCPUごとに独
立して送出する。
CPU # 01610 and CPU # 1161
1 operate independently of each other, and independently transmit a main memory access request and a main memory address via signal lines 1693 and 1694 to BAA # 01630 and BAA #.
To 11631. In the case of write access, write data is sent to the cache memory 1640 via the signal line 1698 and the signal line 1698 independently for each CPU.

【0118】CPU#01610及びCPU#1161
1から主記憶アクセス要求と主記憶アドレスを受け取っ
たBAA#01630とBAA#11631は、BAA
エントリの索引動作をそれぞれの要求ごとに独立して実
行する。ついでBAA#01630とBAA#1163
1のBAAエントリ索引動作の結果、該当BAAエント
リが存在したか否かの信号と概BAAエントリが存在し
た場合にはそのエントリの内容そして前記主記憶アドレ
スを信号線1695及び信号線1696を介してキャッ
シュ記憶1640にそれぞれの要求ごとに独立して送出
する。このBAA#01630とBAA#11631の
BAAエントリ索引動作の結果、該当BAAエントリが
存在しなかった場合、存在しなかった側のBAAは、相
手側のBAAに対しても信号線1692を介してBAA
エントリの索引要求と主記憶アドレスを送出する。この
索引要求により相手側のBAAは索引動作を実行し、そ
の結果当該BAAエントリが存在すると当該BAAエン
トリが存在した側のBAAは、そのエントリの内容そし
て前記主記憶アドレス及び要求元CPU番号を信号線1
695または信号線1696を介してキャッシュ記憶1
640にそれぞれの要求ごとに独立して送出する。この
相手側BAAへのBAAエントリ索引要求を実行する
際、信号線1692がビィジイ状態であったり相手側B
AAがビィジイ状態であれば当該状態が解除されるまで
前記BAA索引要求の実行は待たされる。
CPU # 01610 and CPU # 1161
BAA # 01630 and BAA # 11631 that have received the main storage access request and the main storage address from
Perform entry indexing operations independently for each request. Then BAA # 01630 and BAA # 1163
As a result of the BAA entry index operation of No. 1, a signal indicating whether or not the corresponding BAA entry exists and, if a general BAA entry exists, the contents of the entry and the main storage address are transmitted via signal lines 1695 and 1696. The request is sent to the cache storage 1640 independently for each request. As a result of the BAA entry indexing operation of BAA # 01630 and BAA # 11631, if the corresponding BAA entry does not exist, the nonexistent BAA is also sent to the partner BAA via signal line 1692.
The entry index request and the main storage address are sent. In response to the index request, the partner BAA executes an indexing operation. As a result, when the BAA entry exists, the BAA on the side where the BAA entry exists signals the contents of the entry, the main storage address and the request source CPU number. Line 1
695 or cache storage 1 via signal line 1696
640 is sent independently for each request. When executing the BAA entry index request to the partner BAA, the signal line 1692 is in the busy state or the partner B
If the AA is in the busy state, the execution of the BAA index request is waited until the state is released.

【0119】キャッシュ記憶1640は、信号線169
5と信号線1696を介して送られて来たそれぞれのB
AAエントリの索引結果と前記主記憶アドレスを受け取
り、該当BAAエントリが存在する場合には前記エント
リから取り出したキャッシュ記憶アドレスを用いてキャ
ッシュ記憶1640をアクセスし、該当BAAエントリ
が存在しない場合にはキャッシュ記憶1640をアクセ
スせず、前記主記憶アドレスと主記憶アクセス要求を送
出する。前記主記憶アクセス要求を送出した後で、前記
相手側のBAAに当該BAAが存在する旨のキャッシュ
記憶1640へのアクセス要求が信号線1695または
信号線1696を介して送られて来るとキャッシュ記憶
1640は前記主記憶アクセス要求をキャンセルする処
理を行う。
The cache memory 1640 stores the signal line 169
5 and each B sent via signal line 1696
It receives the index result of the AA entry and the main storage address, and accesses the cache storage 1640 using the cache storage address extracted from the entry when the relevant BAA entry exists, and caches when the relevant BAA entry does not exist. The main memory address and the main memory access request are transmitted without accessing the memory 1640. After sending the main memory access request, when an access request to the cache memory 1640 indicating that the BAA exists in the partner BAA is sent via the signal line 1695 or the signal line 1696, the cache memory 1640 is sent. Performs processing for canceling the main memory access request.

【0120】キャッシュ記憶1640は、更に該当BA
Aエントリが存在する場合にはCPUからの主記憶アク
セス要求が読み出し要求であれば、当該データを読み出
して信号線1698及び信号線1699を介して要求元
CPUへ区別し送出し、前記要求が書き込み要求であれ
ば、信号線g98及び信号線g99を介して送られてこ
の形態は、2つのCPUが別々のBAAを占有と共用の
組み合わせの形態であるが、この方法では、2つのCP
UのそれぞれがBAAを占有と共用の組み合わせながら
動作しているので、両方のCPUからの主記憶アクセス
要求信号が同時に送られてくる場合が生じても片方のC
PUの主記憶アクセス要求に対応するBAAエントリの
索引動作は待たされることはなく、効率の良いBAAエ
ントリの索引動作を実現できると共に相手側のBAAを
も参照することで同一のBAAを2つのCPUから共用
するのでBAAの使用効率を向上させることができると
いう特徴がある。
The cache memory 1640 further stores the corresponding BA
If the A entry exists, and if the main memory access request from the CPU is a read request, the data is read and discriminated and transmitted to the requesting CPU via signal lines 1698 and 1699, and the request is written. If desired, sent over signal lines g98 and g99, this configuration is a combination of two CPUs occupying separate BAAs and sharing, but in this method two CPs are used.
Since each of U operates while occupying and sharing BAA, even if the main memory access request signals from both CPUs are sent at the same time, one C
The indexing operation of the BAA entry corresponding to the main memory access request of the PU is not waited, and an efficient indexing operation of the BAA entry can be realized, and the same BAA can be referred to by the two CPUs by referring to the partner BAA. There is a feature that the use efficiency of the BAA can be improved because it is shared by the users.

【0121】また、この方法だと、相手側のBAAを参
照する場合にそのBAAが相手側CPUによって使用中
の事象が起きると前記相手側のBAA参照動作は、相手
側CPUが相手側のBAAの参照動作を完了するまで待
たされる。 次に、本実施の形態4である情報処理装置の半導体集積
回路の特徴である、CPUとBAA及びキャッシュ記憶
のレイアウト方法について説明する。
Further, according to this method, when an event in which the BAA is being used by the partner CPU occurs when referring to the partner BAA, the partner BAA reference operation is performed by the partner CPU. Is waited until the reference operation is completed. Next, a layout method of the CPU, the BAA, and the cache storage, which is a feature of the semiconductor integrated circuit of the information processing device according to the fourth embodiment, will be described.

【0122】まず、図17を用いて本発明の実施の形態
4における半導体集積回路内のレイアウト方法の一つの
例について説明する。
First, an example of a layout method in a semiconductor integrated circuit according to the fourth embodiment of the present invention will be described with reference to FIG.

【0123】図17は、本発明の実施の形態4における
一つの例である半導体集積回路の概略配置図である。本
実施の形態4は、図16に示したように、CPU#01
610とCPU#11611の双方からそれぞれのBA
Aエントリが占有と共用の組み合わせで使用される専用
BAAを例示しているので、図17に示すようにチップ
の中央部にBAA#01630とBAA#11631の
メモリセル領域を配置し、CPU#01610とCPU
#11611の論理回路領域は、双方のCPUがBAA
#01630とBAA#11631のメモリセル領域に
隣接するよう配置する。そしてキャッシュ記憶1640
のメモリセル領域は、図17に示すようにBAA#01
630とBAA#11631のメモリセル領域に隣接し
且つCPU#01610とCPU#11611の論理回
路領域の反対側に配置する。
FIG. 17 is a schematic layout diagram of a semiconductor integrated circuit as one example according to the fourth embodiment of the present invention. In the fourth embodiment, as shown in FIG.
Each BA from both 610 and CPU # 11611
Since the A entry exemplifies a dedicated BAA used in a combination of occupancy and sharing, as shown in FIG. 17, memory cell areas of BAA # 01630 and BAA # 11631 are arranged in the center of the chip, and CPU # 01610 And CPU
In the logic circuit area of # 11611, both CPUs
They are arranged adjacent to the memory cell areas of # 01630 and BAA # 11631. And cache storage 1640
Memory area is BAA # 01 as shown in FIG.
630 and the memory cell area of BAA # 11631 and on the opposite side of the logic circuit area of CPU # 01610 and CPU # 11611.

【0124】CPU#01610の論理回路領域とBA
A#01630のメモリセル領域とを隣接して配置し、
CPU#11611の論理回路領域とBAA#1163
1のメモリセル領域とを隣接して配置することにより、
それぞれのCPUと当該CPUに占有と共用の組み合わ
せで使用されるBAAを隣接させて配置することで、C
PUとBAA間のデータパスの幅を広くすることができ
且つこのパス長を短くすることができる。更に、BAA
#01630とBAA#11631のメモリセル領域を
隣接して配置することにより、BAA#01630とB
AA#11631間の接触面を大きくでき、その結果、
BAA間のデータパスの幅を広くすることができ且つこ
のパス長を短くすることができる。その結果、BAA#
01630とBAA#11631のメモリセル領域間の
データの授受動作を高速化できる。
Logic circuit area of CPU # 01610 and BA
A # 01630 is arranged adjacent to the memory cell area,
Logic circuit area of CPU # 11611 and BAA # 1163
By arranging one memory cell area adjacent to one memory cell area,
By arranging each CPU and the BAA used in a combination of exclusive use and common use for the CPU adjacent to each other, C
The width of the data path between the PU and the BAA can be widened and this path length can be shortened. Furthermore, BAA
By arranging the memory cell areas of # 01630 and BAA # 11631 adjacent to each other, BAA # 01630 and
The contact area between AA # 11631 can be increased, and as a result,
The width of the data path between BAAs can be widened and this path length can be shortened. As a result, BAA #
The data transfer operation between the memory cell areas of 01630 and BAA # 11631 can be speeded up.

【0125】同様に、キャッシュ記憶1640のメモリ
セル領域をBAA#01630とBAA#11631の
メモリセル領域に隣接して配置することにより、BAA
とキャッシュ記憶間の接触面を大きくでき、その結果、
BAAとキャッシュ記憶間のデータパスの幅を広くする
ことができ且つこのパス長を短くすることができる。
Similarly, by arranging the memory cell area of the cache memory 1640 adjacent to the memory cell areas of BAA # 01630 and BAA # 11631,
And the contact area between the cache memory and the
The width of the data path between the BAA and the cache storage can be widened and this path length can be shortened.

【0126】本発明の実施の形態1における説明と同様
に、領域間のデータパスの幅を広くするということは、
領域間の信号線の数を多く設置できるということであ
り、単位時間当たりのデータ転送量を大きくできる。ま
た、領域間のパス長を短くすることで領域間のデータ転
送遅延時間を小さくすることができる。
As described in the first embodiment of the present invention, increasing the width of the data path between the areas means
This means that the number of signal lines between the areas can be increased, and the data transfer amount per unit time can be increased. Further, the data transfer delay time between the areas can be reduced by shortening the path length between the areas.

【0127】なお、図17に示した配置において、BA
A#01630とBAA#11631の両端または中央
にキャッシュ記憶1640の領域を食い込ませて、キャ
ッシュ記憶1640の領域がCPU#01610とCP
U#11611の領域と隣接させるレイアウトをとる方
法もある。
In the arrangement shown in FIG.
The area of the cache memory 1640 is cut into both ends or the center of A # 01630 and BAA # 11631, and the area of the cache memory 1640 is
There is also a method of laying out a region adjacent to the region of U # 11611.

【0128】次に、図18を用いて本発明の実施の形態
4における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of a layout method in a semiconductor integrated circuit according to the fourth embodiment of the present invention will be described with reference to FIG.

【0129】形態4は、図16に示したように、CPU
#01610とCPU#11611の双方からそれぞれ
のBAAエントリが占有と共用の組み合わせで使用され
る専用BAAを例示しているので、図18に示すように
チップの両端部にBAA#01630とBAA#116
31のメモリセル領域を配置し、CPU#01610と
CPU#11611の論理回路領域は、双方のCPUが
BAA#01630とBAA#11631のメモリセル
領域の一辺に隣接して配置する。そしてキャッシュ記憶
1640のメモリセル領域は、図18に示すようにBA
A#01630とBAA#11631のメモリセル領域
の間に隣接して配置し、且つCPU#01610とCP
U#11611の論理回路領域とも隣接して配置する。
In the fourth embodiment, as shown in FIG.
Since both BAA entries # 01610 and # 11611 exemplify dedicated BAAs used in a combination of occupancy and sharing, BAA # 01630 and BAA # 116 are provided at both ends of the chip as shown in FIG.
31 memory cell areas are arranged, and the logic circuit areas of CPU # 01610 and CPU # 11611 are arranged so that both CPUs are adjacent to one side of the memory cell area of BAA # 01630 and BAA # 11631. Then, the memory cell area of the cache memory 1640 has a BA
A # 01630 and BAA # 11631 are disposed adjacent to each other between the memory cell areas, and CPU # 01610 and CP #
It is also arranged adjacent to the logic circuit area of U # 11611.

【0130】図18に示したように各々の領域間を隣接
させると、各々の領域間の接触面を大きくできる。その
結果、CPUとBAA間のデータパスの幅およびBAA
とキャッシュ記憶間のデータパスの幅をより広くするこ
とができ、CPUとキャッシュ記憶を隣接させて配置す
ることで、その領域間のデータパスの幅をより広く且つ
より短くできる。また、接触面を広くすること、データ
パス長を短くできることは前述の通りである。
When the regions are adjacent to each other as shown in FIG. 18, the contact area between the regions can be increased. As a result, the width of the data path between the CPU and the BAA and the BAA
The width of the data path between the memory and the cache memory can be made wider, and by arranging the CPU and the cache memory adjacent to each other, the width of the data path between the areas can be made wider and shorter. As described above, the contact surface can be widened and the data path length can be shortened.

【0131】更に、図18に示したようにBAA#01
630とBAA#11631のメモリセル領域をチップ
の両端部に配置し、CPU#01610とCPU#11
611の論理回路領域は、双方のCPUがBAA#01
630とBAA#11631のメモリセル領域の一辺に
隣接して且つ対称となるよう配置し、そしてキャッシュ
記憶を2つのBAAの間に対称形に配置することで、各
領域間の配置位置によるデータ転送遅延時間のばらつき
を抑えることができるという効果が得られる。
Further, as shown in FIG.
630 and BAA # 11631 are arranged at both ends of the chip, and CPU # 01610 and CPU # 11
In the logic circuit area 611, both CPUs are BAA # 01.
630 and BAA # 11631 are arranged adjacently and symmetrically to one side of the memory cell area, and the cache memory is arranged symmetrically between the two BAAs, so that data transfer according to the arrangement position between each area is performed. The effect is obtained that the variation in the delay time can be suppressed.

【0132】次に、図19を用いて本発明の実施の形態
4における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of a layout method in a semiconductor integrated circuit according to the fourth embodiment of the present invention will be described with reference to FIG.

【0133】本実施の形態4は、前述のように、CPU
#01610とCPU#11611の双方からそれぞれ
のBAAエントリが占有と共用の組み合わせで使用され
る専用BAAを例示しているので、図19に示すように
チップの中央部にBAA#01630とBAA#116
31のメモリセル領域を隣接して配置し、BAA#01
630とBAA#11631のメモリセル領域の両側に
CPU#01610およびCPU#11611の論理回
路領域を隣接して配置し、更にBAA#01630とB
AA#11631のメモリセル領域の両側に二分したキ
ャッシュ記憶1640を隣接して配置する。
In the fourth embodiment, as described above, the CPU
Since the respective BAA entries from both # 01610 and CPU # 11611 exemplify a dedicated BAA used in a combination of occupation and sharing, BAA # 01630 and BAA # 116 are provided at the center of the chip as shown in FIG.
31 memory cell areas are arranged adjacent to each other, and BAA # 01
The logic circuit areas of CPU # 01610 and CPU # 11611 are arranged adjacent to both sides of the memory cell area of 630 and BAA # 11631.
The cache memory 1640 divided into two is arranged adjacent to both sides of the memory cell area of AA # 11631.

【0134】図19に示したようにキャッシュ記憶16
40を二分し且つ隣接して配置し、この二分したキャッ
シュ記憶のそれぞれを独立して動作可能とすることで、
BAAとキャッシュ記憶間のデータパスの幅をより広く
することができると共に2つのキャッシュ記憶への同時
アクセス動作が可能となり、CPU#01610とCP
U#11611からの主記憶アクセス要求の効率の良い
処理が可能となる。また、キャッシュ記憶を二分してB
AAから対称形に配置することで、各領域間の配置位置
によるデータ転送遅延時間のばらつきを抑えることがで
きるという効果が得られる。
As shown in FIG. 19, the cache memory 16
40 by bisecting and adjoining, and enabling each of the bisected caches to operate independently,
The width of the data path between the BAA and the cache memory can be made wider and the simultaneous access operation to the two cache memories becomes possible.
Efficient processing of a main memory access request from U # 11611 is made possible. Also, the cache memory is divided into two
By arranging symmetrically from AA, it is possible to obtain an effect that variation in the data transfer delay time due to the arrangement position between the respective regions can be suppressed.

【0135】(実施の形態5)図20は、本発明の実施
の形態5である情報処理装置のデータアクセス方法およ
び半導体集積回路の構成を示す図、図21は、本発明の
実施の形態5である情報処理装置の半導体集積回路の概
略配置図、図22、図23と図24は、本発明の実施の
形態5における変形例の半導体集積回路の概略配置図で
ある。である。
(Embodiment 5) FIG. 20 is a diagram showing a configuration of a data access method and a semiconductor integrated circuit of an information processing apparatus according to Embodiment 5 of the present invention. FIG. 21 is a diagram showing Embodiment 5 of the present invention. 22, 23 and 24 are schematic layout diagrams of a semiconductor integrated circuit according to a modification of the fifth embodiment of the present invention. It is.

【0136】まず、図20により本実施の形態5である
情報処理装置のデータアクセス方法の概略構成を説明す
る。
First, a schematic configuration of the data access method of the information processing apparatus according to the fifth embodiment will be described with reference to FIG.

【0137】図20において、CPUは2ユニットから
構成され、それぞれCPU#02010とCPU#12
011からなる。このCPU#02010とCPU#1
2011は、それぞれ信号線2093と信号線2094
を介してそれぞれBAA#02030とBAA#1
(C)2033及びBAA#12031とBAA#0
(C)2032に接続されている。CPU#02010
とCPU#12011は、信号線2091を介して相互
に接続されており、更に信号線2098と信号線209
9を介してキャッシュ記憶2040にそれぞれ接続され
ている。
In FIG. 20, the CPU is composed of two units, CPU # 02010 and CPU # 12, respectively.
011. This CPU # 02010 and CPU # 1
2011 denotes a signal line 2093 and a signal line 2094, respectively.
BAA # 02030 and BAA # 1 via
(C) 2033, BAA # 12031 and BAA # 0
(C) 2032. CPU # 02010
And the CPU # 12011 are connected to each other via a signal line 2091. Further, a signal line 2098 and a signal line 209 are connected to each other.
9 are respectively connected to the cache storage 2040.

【0138】BAAは、本実施の形態5ではCPU#0
2010とCPU#12011の双方からそれぞれのB
AAエントリが占有して使用される。つまり、CPU#
02010から発行される主記憶アクセスに伴って生成
されるBAAエントリと、CPU#12011から発行
される主記憶アクセスに伴って生成されるBAAエント
リとがそれぞれのBAAに別々に登録され、この別々に
登録されたBAAエントリは、CPU#02010とC
PU#12011の双方からのキャッシュ記憶2040
のアクセスに使用される。BAA#0(C)2032と
BAA#1(C)2033はそれぞれBAA#0203
0とBAA#12031の内容の写しを持つBAAであ
る。
In the fifth embodiment, BAA corresponds to CPU # 0.
B from both 2010 and CPU # 12011
AA entry is occupied and used. That is, CPU #
A BAA entry generated along with the main storage access issued from 02010 and a BAA entry generated along with the main storage access issued from the CPU # 12011 are separately registered in the respective BAAs. The registered BAA entries are CPU # 02010 and C #
Cache storage 2040 from both PU # 12011
Used for access. BAA # 0 (C) 2032 and BAA # 1 (C) 2033 are respectively BAA # 0203.
0 and a BAA having a copy of the contents of BAA # 12031.

【0139】BAA#02030とBAA#12031
は、信号線2093と信号線2094を介してCPU#
02010とCPU#12011にそれぞれ接続され、
更に、信号線2095と信号線2096とを介してキャ
ッシュ記憶2040に接続されており、BAA#1
(C)2033とBAA#0(C)2032は、信号線
2093と信号線2094を介してCPU#02010
とCPU#12011にそれぞれ接続され、更に、信号
線209bと信号線209aとを介してキャッシュ記憶
2040に接続されている。
BAA # 02030 and BAA # 12031
Is a CPU # via a signal line 2093 and a signal line 2094.
02010 and CPU # 12011, respectively.
Further, it is connected to the cache memory 2040 via a signal line 2095 and a signal line 2096, and is connected to BAA # 1.
(C) 2033 and BAA # 0 (C) 2032 are connected to the CPU # 02010 via the signal line 2093 and the signal line 2094.
And CPU # 12011, respectively, and further connected to cache storage 2040 via signal line 209b and signal line 209a.

【0140】キャッシュ記憶2040は、信号線209
8と信号線2099を介してCPU#02010とCP
U#12011にそれぞれ接続されており、更に信号線
2095,信号線2096,信号線209aおよび信号
線209bとを介してBAA#02030,BAA#1
2031,BAA#0(C)2032およびBAA#1
(C)2033に接続されており、更に、図示はしてい
ないがMSにも接続されている。
The cache memory 2040 is connected to the signal line 209
And CPU # 02010 and CP via signal line 2099
U # 12011 and BAA # 02030 and BAA # 1 via signal lines 2095, 2096, 209a and 209b.
2031, BAA # 0 (C) 2032 and BAA # 1
(C) 2033, and is also connected to an MS (not shown).

【0141】次に、図20を用いて本実施の形態5であ
るCPU#02010とCPU#12011が主記憶ア
クセスをする動作と作用について説明する。この形態
は、2つのCPUが別々のBAAを占有する形態であ
る。
Next, the operation and operation of the main memory access by CPU # 02010 and CPU # 12011 according to the fifth embodiment will be described with reference to FIG. In this mode, two CPUs occupy different BAAs.

【0142】CPU#02010及びCPU#1201
1はそれぞれ独立に動作しており、それぞれ独立に主記
憶アクセス要求と主記憶アドレスを信号線2093及び
信号線2094を介してBAA#02030とBAA#
1(C)2033およびBAA#12031とBAA#
0(C)2032に送出する。書き込みアクセスであれ
ば信号線2098及び信号線2098を介してキャッシ
ュ記憶2040に書き込みデータをそれぞれのCPUご
とに独立して送出する。
CPU # 02010 and CPU # 1201
1 operate independently of each other, and independently transmit a main memory access request and a main memory address via a signal line 2093 and a signal line 2094 to BAA # 02030 and BAA #.
1 (C) 2033 and BAA # 12031 and BAA #
0 (C) 2032. In the case of write access, write data is sent to the cache memory 2040 via the signal line 2098 and the signal line 2098 independently for each CPU.

【0143】CPU#02010及びCPU#1201
1から主記憶アクセス要求と主記憶アドレスを受け取っ
たBAA#02030とBAA#1(C)2033およ
びBAA#12031とBAA#0(C)2032は、
BAAエントリの索引動作をそれぞれの要求ごとに独立
して実行する。ついでBAA#02030とBAA#1
(C)2033およびBAA#12031とBAA#0
(C)2032のBAAエントリ索引動作の結果、該当
BAAエントリが存在したか否かの信号と概BAAエン
トリが存在した場合にはそのエントリの内容そして前記
主記憶アドレスを信号線2095と信号線209a及び
信号線2096と信号線209bを介してキャッシュ記
憶2040にそれぞれの要求ごとに独立して送出する。
このCPU#02010及びCPU#12011からの
主記憶アクセス要求に付随するBAA#02030とB
AA#1(C)2033およびBAA#12031とB
AA#0(C)2032のBAAエントリ索引動作はそ
れぞれ独立に実行される。
CPU # 02010 and CPU # 1201
BAA # 02030 and BAA # 1 (C) 2033 and BAA # 12031 and BAA # 0 (C) 2032 which have received the main storage access request and the main storage address from
The BAA entry indexing operation is performed independently for each request. Then BAA # 02030 and BAA # 1
(C) 2033, BAA # 12031 and BAA # 0
(C) As a result of the BAA entry indexing operation of 2032, a signal indicating whether or not there is a corresponding BAA entry and, if an approximate BAA entry exists, the contents of the entry and the main storage address are represented by signal lines 2095 and 209a. And the request is sent independently to the cache storage 2040 via the signal line 2096 and the signal line 209b.
BAA # 02030 and BA accompanying the main memory access request from CPU # 02010 and CPU # 12011
AA # 1 (C) 2033 and BAA # 12031 and B
The BAA entry indexing operation of AA # 0 (C) 2032 is executed independently.

【0144】キャッシュ記憶2040は、信号線209
5または信号線209bと信号線2096または信号線
209aを介して送られて来たそれぞれのBAAエント
リの索引結果と前記主記憶アドレスを受け取り、該当B
AAエントリが存在する場合には前記エントリから取り
出したキャッシュ記憶アドレスを用いてキャッシュ記憶
2040をアクセスし、該当BAAエントリが存在しな
い場合にはキャッシュ記憶2040をアクセスせず、前
記主記憶アドレスと主記憶アクセス要求をMSに送出す
る。
The cache memory 2040 is connected to the signal line 209
5 or the signal line 209b and the index result of each BAA entry sent via the signal line 2096 or the signal line 209a and the main memory address, and
When the AA entry exists, the cache memory 2040 is accessed using the cache memory address extracted from the entry. When the corresponding BAA entry does not exist, the cache memory 2040 is not accessed. Send an access request to the MS.

【0145】キャッシュ記憶2040は、更に該当BA
Aエントリが存在する場合にはCPUからの主記憶アク
セス要求が読み出し要求であれば、当該データを読み出
して信号線2098及び信号線2099を介して要求元
CPUへ区別し送出し、前記要求が書き込み要求であれ
ば、信号線2098及び信号線2099を介して送られ
て来ている書き込みデータをキャッシュ記憶2040に
書き込む。該当BAAエントリが存在しない場合には、
通常の主記憶アクセスを行う。
The cache storage 2040 further stores the corresponding BA
If the A entry exists, and if the main memory access request from the CPU is a read request, the data is read and discriminated and sent to the requesting CPU via signal lines 2098 and 2099, and the request is written. If so, the write data sent via the signal lines 2098 and 2099 is written to the cache storage 2040. If the corresponding BAA entry does not exist,
Perform normal main memory access.

【0146】この形態は、2つのCPUが別々のBAA
を占有する形態であるが、この方法では、2つのCPU
のそれぞれがBAAを占有しながら動作しているので、
両方のCPUからの主記憶アクセス要求信号が同時に送
られてくる場合が生じても片方のCPUの主記憶アクセ
ス要求に対応するBAAエントリの索引動作は待たされ
ることはなく、効率の良いBAAエントリの索引動作を
実現できると共に相手側のBAAをも相手側のBAAに
接続されているCPUアクセスに影響されることなく参
照することで、同一のBAAを2つのCPUから共用す
るのでBAAの参照効率を向上させることができるとい
う特徴がある次に、本実施の形態5の1つの特徴であ
る、CPUとBAA及びキャッシュ記憶との接続方法に
ついて説明する。
In this mode, the two CPUs have separate BAA
In this method, two CPUs are used.
Are operating while occupying the BAA,
Even if the main memory access request signals from both CPUs are sent at the same time, the index operation of the BAA entry corresponding to the main memory access request of one of the CPUs does not wait, and the efficient BAA entry of the BAA entry is not waited. The same BAA is shared by two CPUs by realizing the indexing operation and referring to the partner's BAA without being affected by the access of the CPU connected to the partner's BAA. Next, a method of connecting the CPU, the BAA, and the cache memory, which is one of the features of the fifth embodiment, will be described.

【0147】次に、本実施の形態5である情報処理装置
の半導体集積回路の特徴である、CPUとBAA及びキ
ャッシュ記憶のレイアウト方法について説明する。
Next, a description will be given of a layout method of the CPU, the BAA, and the cache storage, which is a feature of the semiconductor integrated circuit of the information processing apparatus according to the fifth embodiment.

【0148】まず、図21を用いて本発明の実施の形態
5における半導体集積回路内のレイアウト方法の一つの
例について説明する。
First, an example of a layout method in a semiconductor integrated circuit according to the fifth embodiment of the present invention will be described with reference to FIG.

【0149】図21は、本発明の実施の形態5における
一つの例である半導体集積回路の概略配置図である。本
実施の形態5は、図20に示したように、CPU#02
010とCPU#12011の双方からそれぞれのBA
Aエントリが占有で使用される専用BAAを例示してい
るので、図21に示すようにチップの中央部にBAA#
02030、BAA#12031、BAA#0(C)2
032及びBAA#1(C)2033のメモリセル領域
を配置し、CPU#02010とCPU#12011の
論理回路領域は、双方のCPUがBAA#02030、
BAA#12031、BAA#0(C)2032及びB
AA#1(C)2033のメモリセル領域に隣接するよ
う配置する。そしてキャッシュ記憶2040のメモリセ
ル領域は、図21に示すようにBAA#02030、B
AA#12031、BAA#0(C)2032及びBA
A#1(C)2033のメモリセル領域に隣接し且つC
PU#02010とCPU#12011の論理回路領域
の反対側に配置する。
FIG. 21 is a schematic layout diagram of a semiconductor integrated circuit as one example according to the fifth embodiment of the present invention. In the fifth embodiment, as shown in FIG.
010 and CPU # 12011 from both BA
Since the A entry exemplifies a dedicated BAA used exclusively, the BAA # is located at the center of the chip as shown in FIG.
02030, BAA # 12031, BAA # 0 (C) 2
032 and the memory cell area of BAA # 1 (C) 2033, and the logic circuit areas of CPU # 02010 and CPU # 12011
BAA # 12031, BAA # 0 (C) 2032 and B
AA # 1 (C) 2033 is arranged adjacent to the memory cell area. Then, as shown in FIG. 21, the memory cell area of the cache memory 2040 stores BAA # 02030,
AA # 12031, BAA # 0 (C) 2032 and BA
A # 1 (C) adjacent to the memory cell area of 2033 and C
It is arranged on the opposite side of the logic circuit area of PU # 02010 and CPU # 12011.

【0150】CPU#02010の論理回路領域とBA
A#02030のメモリセル領域とを隣接して配置し、
CPU#12011の論理回路領域とBAA#1203
1のメモリセル領域とを隣接して配置することにより、
それぞれのCPUと当該CPUに占有と共用の組み合わ
せで使用されるBAAを隣接させて配置することで、C
PUとBAA間のデータパスの幅を広くすることができ
且つこのパス長を短くすることができる。更に、BAA
#02030、BAA#12031、BAA#0(C)
2032及びBAA#1(C)2033のメモリセル領
域を隣接して配置することにより、BAA#0203
0、BAA#12031、BAA#0(C)2032及
びBAA#1(C)2033間の接触面を大きくでき、
その結果、BAA間のデータパスの幅を広くすることが
でき且つこのパス長を短くすることができる。その結
果、BAA#02030、BAA#12031、BAA
#0(C)2032及びBAA#1(C)2033のメ
モリセル領域間のデータの授受動作を高速化できる。
Logic Circuit Area of CPU # 02010 and BA
A # 02030 memory cell area is arranged adjacent to
Logic circuit area of CPU # 12011 and BAA # 1203
By arranging one memory cell area adjacent to one memory cell area,
By arranging each CPU and the BAA used in a combination of exclusive use and common use for the CPU adjacent to each other, C
The width of the data path between the PU and the BAA can be widened and this path length can be shortened. Furthermore, BAA
# 02030, BAA # 12031, BAA # 0 (C)
By arranging the memory cell areas of 2032 and BAA # 1 (C) 2033 adjacently, BAA # 0203
0, the contact surface between BAA # 12031, BAA # 0 (C) 2032 and BAA # 1 (C) 2033 can be increased,
As a result, the width of the data path between BAAs can be widened and the path length can be shortened. As a result, BAA # 02030, BAA # 12031, BAA
Data transfer between the memory cell areas of # 0 (C) 2032 and BAA # 1 (C) 2033 can be speeded up.

【0151】同様に、キャッシュ記憶2040のメモリ
セル領域をBAA#02030、BAA#12031、
BAA#0(C)2032及びBAA#1(C)203
3のメモリセル領域に隣接して配置することにより、B
AAとキャッシュ記憶間の接触面を大きくでき、その結
果、BAAとキャッシュ記憶間のデータパスの幅を広く
することができ且つこのパス長を短くすることができ
る。
Similarly, the memory cell area of the cache storage 2040 is set to BAA # 02030, BAA # 12031,
BAA # 0 (C) 2032 and BAA # 1 (C) 203
3 adjacent to the memory cell area,
The contact area between the AA and the cache memory can be increased, and as a result, the width of the data path between the BAA and the cache memory can be increased and the path length can be shortened.

【0152】本発明の実施の形態1における説明と同様
に、領域間のデータパスの幅を広くするということは、
領域間の信号線の数を多く設置できるということであ
り、単位時間当たりのデータ転送量を大きくできる。ま
た、領域間のパス長を短くすることで領域間のデータ転
送遅延時間を小さくすることができる。
As described in the first embodiment of the present invention, increasing the width of the data path between the regions means
This means that the number of signal lines between the areas can be increased, and the data transfer amount per unit time can be increased. Further, the data transfer delay time between the areas can be reduced by shortening the path length between the areas.

【0153】なお、図21に示した配置において、BA
A#02030、BAA#12031、BAA#0
(C)2032及びBAA#1(C)2033の両端ま
たは中央にキャッシュ記憶2040の領域を食い込ませ
て、キャッシュ記憶2040の領域がCPU#0201
0とCPU#12011の領域と隣接させるレイアウト
をとる方法もある。
In the arrangement shown in FIG.
A # 02030, BAA # 12031, BAA # 0
The area of the cache storage 2040 is cut into both ends or the center of (C) 2032 and BAA # 1 (C) 2033, and the area of the cache storage 2040 is changed to the CPU # 0201.
There is also a method of laying out the area adjacent to the area of CPU # 12011 and CPU # 12011.

【0154】次に、図22を用いて本発明の実施の形態
5における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of a layout method in a semiconductor integrated circuit according to the fifth embodiment of the present invention will be described with reference to FIG.

【0155】図22は、本発明の実施の形態5における
一つの例である半導体集積回路の概略配置図である。本
実施の形態5は、図20に示したように、CPU#02
010とCPU#12011の双方からそれぞれのBA
Aエントリが占有で使用される専用BAAを例示してい
るので、図22に示すようにチップの中央部にBAA#
02030、BAA#12031、BAA#0(C)2
032及びBAA#1(C)2033のメモリセル領域
を配置し、CPU#02010とCPU#12011の
論理回路領域は、双方のCPUがBAA#02030、
BAA#12031、BAA#0(C)2032及びB
AA#1(C)2033のメモリセル領域に隣接するよ
う配置する。そしてキャッシュ記憶2040のメモリセ
ル領域は、図22に示すようにBAA#02030、B
AA#12031、BAA#0(C)2032及びBA
A#1(C)2033のメモリセル領域に隣接し且つC
PU#02010とCPU#12011の論理回路領域
の反対側に配置する。
FIG. 22 is a schematic layout diagram of a semiconductor integrated circuit as one example according to the fifth embodiment of the present invention. In the fifth embodiment, as shown in FIG.
010 and CPU # 12011 from both BA
Since the A entry exemplifies a dedicated BAA used exclusively, the BAA # is located at the center of the chip as shown in FIG.
02030, BAA # 12031, BAA # 0 (C) 2
032 and the memory cell area of BAA # 1 (C) 2033, and the logic circuit areas of CPU # 02010 and CPU # 12011
BAA # 12031, BAA # 0 (C) 2032 and B
AA # 1 (C) 2033 is arranged adjacent to the memory cell area. Then, as shown in FIG. 22, the memory cell area of the cache memory 2040 has BAA # 02030,
AA # 12031, BAA # 0 (C) 2032 and BA
A # 1 (C) adjacent to the memory cell area of 2033 and C
It is arranged on the opposite side of the logic circuit area of PU # 02010 and CPU # 12011.

【0156】CPU#02010の論理回路領域とBA
A#02030及びBAA#1(C)2033のメモリ
セル領域とを隣接して配置し、CPU#12011の論
理回路領域とBAA#12031及びBAA#0(C)
2032のメモリセル領域とを隣接して配置することに
より、それぞれのCPUと当該CPUに占有と共用の組
み合わせで使用されるBAAを隣接させて配置すること
で、CPUとBAA間のデータパスの幅を広くすること
ができ且つこのパス長を短くすることができる。更に、
BAA#02030とBAA#0(C)2032及びB
AA#12031とBAA#1(C)2033のメモリ
セル領域を隣接して配置し、加えてBAA#0(C)2
032とBAA#1(C)2033を隣接して配置する
ことにより、BAA#02030とBAA#0(C)2
032及びBAA#12031とBAA#1(C)20
33のメモリセル領域間の接触面を大きくできその結
果、同一のBAAエントリを持つBAA間のデータパス
の幅を広くすることができ且つこのパス長を短くするこ
とができる。その結果、BAA#02030とBAA#
0(C)2032及びBAA#12031とBAA#1
(C)2033のメモリセル領域に関連するデータの授
受動作を高速化できる。
Logic Circuit Area of CPU # 02010 and BA
The memory cell areas of A # 02030 and BAA # 1 (C) 2033 are arranged adjacent to each other, and the logic circuit area of CPU # 12011 and BAA # 12031 and BAA # 0 (C)
By arranging the 2032 memory cell areas adjacent to each other, by arranging each CPU and the BAA used in a combination of occupation and sharing for the CPU adjacent to each other, the width of the data path between the CPU and the BAA Can be widened and the path length can be shortened. Furthermore,
BAA # 02030 and BAA # 0 (C) 2032 and B
The memory cell areas of AA # 12031 and BAA # 1 (C) 2033 are arranged adjacent to each other, and additionally, BAA # 0 (C) 2
032 and BAA # 1 (C) 2033 are arranged adjacent to each other, so that BAA # 02030 and BAA # 0 (C) 2
032, BAA # 12031 and BAA # 1 (C) 20
The contact area between the 33 memory cell areas can be increased, and as a result, the width of the data path between BAAs having the same BAA entry can be increased and the path length can be shortened. As a result, BAA # 02030 and BAA #
0 (C) 2032 and BAA # 12031 and BAA # 1
(C) The data transfer operation relating to the memory cell area of 2033 can be speeded up.

【0157】同様に、キャッシュ記憶2040のメモリ
セル領域をBAA#02030、BAA#12031、
BAA#0(C)2032及びBAA#1(C)203
3のメモリセル領域に隣接して配置することにより、B
AAとキャッシュ記憶間の接触面を大きくでき、その結
果、BAAとキャッシュ記憶間のデータパスの幅を広く
することができ且つこのパス長を短くすることができ
る。
Similarly, the memory cell area of the cache storage 2040 is set to BAA # 02030, BAA # 12031,
BAA # 0 (C) 2032 and BAA # 1 (C) 203
3 adjacent to the memory cell area,
The contact area between the AA and the cache memory can be increased, and as a result, the width of the data path between the BAA and the cache memory can be increased and the path length can be shortened.

【0158】次に、図23を用いて本発明の実施の形態
5における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of the layout method in the semiconductor integrated circuit according to the fifth embodiment of the present invention will be described with reference to FIG.

【0159】本実施の形態5は、前述のように、CPU
#02010とCPU#12011の双方からそれぞれ
のBAAエントリが占有で使用される専用BAAを例示
しているので、図23に示すようにチップの中央部にB
AA#02030とBAA#0(C)2032、及びB
AA#12031とBAA#1(C)2033のメモリ
セル領域を隣接して配置し、BAA#02030、BA
A#12031、BAA#0(C)2032及びBAA
#1(C)2033のメモリセル領域の両側にCPU#
02010およびCPU#12011の論理回路領域を
隣接して配置し、更にBAA#02030、BAA#1
2031、BAA#0(C)2032及びBAA#1
(C)2033のメモリセル領域の両側に二分したキャ
ッシュ記憶2040を隣接して配置する。
In the fifth embodiment, as described above, the CPU
Since both # 02010 and CPU # 12011 exemplify a dedicated BAA whose respective BAA entry is used exclusively, as shown in FIG.
AA # 02030 and BAA # 0 (C) 2032, and B
The memory cell areas of AA # 12031 and BAA # 1 (C) 2033 are arranged adjacent to each other, and BAA # 02030, BAA # 02030
A # 12031, BAA # 0 (C) 2032 and BAA
The CPU # on both sides of the memory cell area of # 1 (C) 2033
02010 and the logic circuit area of CPU # 12011 are arranged adjacent to each other, and BAA # 02030, BAA # 1
2031, BAA # 0 (C) 2032 and BAA # 1
(C) The cache memory 2040 divided into two is arranged adjacent to both sides of the memory cell area of 2033.

【0160】図23に示したようにキャッシュ記憶20
40を二分し且つ隣接して配置し、この二分したキャッ
シュ記憶のそれぞれを独立して動作可能とすることで、
BAAとキャッシュ記憶間のデータパスの幅をより広く
することができると共に2つのキャッシュ記憶への同時
アクセス動作が可能となり、CPU#02010とCP
U#12011からの主記憶アクセス要求の効率の良い
処理が可能となる。また、キャッシュ記憶を二分してB
AAから対称形に配置することで、各領域間の配置位置
によるデータ転送遅延時間のばらつきを抑えることがで
きるという効果が得られる。
As shown in FIG.
40 by bisecting and adjoining, and enabling each of the bisected caches to operate independently,
The width of the data path between the BAA and the cache memory can be made wider and the simultaneous access operation to the two cache memories becomes possible.
Efficient processing of a main memory access request from U # 12011 can be performed. Also, the cache memory is divided into two
By arranging symmetrically from AA, it is possible to obtain an effect that variation in the data transfer delay time due to the arrangement position between the respective regions can be suppressed.

【0161】次に、図24を用いて本発明の実施の形態
5における半導体集積回路内のレイアウト方法の他の一
例について説明する。
Next, another example of a layout method in a semiconductor integrated circuit according to the fifth embodiment of the present invention will be described with reference to FIG.

【0162】本実施の形態5は、前述のように、CPU
#02010とCPU#12011の双方からそれぞれ
のBAAエントリが占有して使用される専用BAAを例
示しているので、図24に示すようにチップの中央部に
CPU#02010およびCPU#12011の論理回
路領域を隣接して配置し、CPU#02010およびC
PU#12011の論理回路領域の両側にBAA#02
030とBAA#0(C)2032の対及びBAA#1
2031とBAA#1(C)2033の対のメモリセル
領域を隣接して配置し、更にCPU#02010および
CPU#12011の論理回路領域の両側に二分したキ
ャッシュ記憶2040を隣接して配置する。
In the fifth embodiment, as described above, the CPU
Since a dedicated BAA used exclusively by each of the BAA entries from both # 02010 and # 12011 is illustrated, a logic circuit of CPU # 02010 and CPU # 12011 is provided at the center of the chip as shown in FIG. Regions are arranged adjacent to each other, and CPU # 02010 and C #
BAA # 02 on both sides of the logic circuit area of PU # 12011
030 and BAA # 0 (C) 2032 and BAA # 1
A pair of memory cell areas 2031 and BAA # 1 (C) 2033 are arranged adjacent to each other, and further, a cache memory 2040 divided into two is arranged adjacent to both sides of the logic circuit area of CPU # 02010 and CPU # 12011.

【0163】図24に示したようにキャッシュ記憶20
40を二分し且つ隣接して配置し、この二分したキャッ
シュ記憶のそれぞれを独立して動作可能とすることで、
BAAとキャッシュ記憶間のデータパスの幅をより広く
することができると共に2つのキャッシュ記憶への同時
アクセス動作が可能となり、CPU#02010とCP
U#12011からの主記憶アクセス要求の効率の良い
処理が可能となる。また、キャッシュ記憶を二分してB
AAから対称形に配置することで、各領域間の配置位置
によるデータ転送遅延時間のばらつきを抑えることがで
きるという効果が得られる。
As shown in FIG.
40 by bisecting and adjoining, and enabling each of the bisected caches to operate independently,
The width of the data path between the BAA and the cache memory can be made wider and the simultaneous access operation to the two cache memories becomes possible.
Efficient processing of a main memory access request from U # 12011 can be performed. Also, the cache memory is divided into two
By arranging symmetrically from AA, it is possible to obtain an effect that variation in the data transfer delay time due to the arrangement position between the respective regions can be suppressed.

【0164】以上、本発明者によってなされた発明をそ
の発明の実施の形態1〜5にもとづき具体的に説明した
が、本発明は前記実施の形態に限定されるものではなく、
その要旨を逸脱しない範囲で種々変更可能であることは
いうまでもない。たとえば、前記実施の形態において、C
PU、BAA及びキャッシュ記憶の実現上の物理的な素
子形態は、CPUにおいては、演算及び制御を司る電子
回路として電磁波又は磁気又は電子もしくは電磁波又は
磁気又は電子のそれぞれの組み合わせによる加工と科学
的処理の組み合わせによる加工で半導体チップ中に実装
し、BAA及びキャッシュ記憶においては、データの記
憶を司る為に誘電体の特性を使用した記憶素子又は電子
回路の結線を使用した記憶素子として電磁波又は磁気又
は電子もしくは電磁波又は磁気又は電子のそれぞれの組
み合わせによる加工と科学的処理の組み合わせによる加
工で半導体チップ中に実装すればよい。
As described above, the invention made by the inventor has been specifically described based on the first to fifth embodiments of the present invention. However, the present invention is not limited to the above-described embodiment.
It goes without saying that various changes can be made without departing from the gist of the invention. For example, in the above embodiment, C
In PU, BAA and the physical element form in realizing cache storage, in the CPU, processing and scientific processing by electromagnetic waves or magnetism or electrons or combinations of electromagnetic waves or magnetism or electrons are used as electronic circuits for controlling and controlling. In the BAA and cache memory, the electromagnetic wave or magnetism or the magnetic memory or the memory element using the connection of the electronic circuit or the memory element using the connection of the electronic circuit is used in the BAA and the cache memory. What is necessary is just to mount in a semiconductor chip by the processing by the combination of the scientific processing and the processing by each combination of an electron, an electromagnetic wave, magnetism, or an electron.

【0165】また、前記実施の形態において、CPUの
論理回路領域、BAA及びキャッシュ記憶のメモリセル
領域の各々が接合するように配置し、且つ1チップ内に
実装することにより、チップの内部で閉じる信号線に対
する信号線に対する入出力端子を駆動する駆動回路を除
去でき、その結果、チップ内相互の信号伝送遅れを低減
でき、更に、入出力端子を経由しないことにより、物理
的な入出力端子の数で制限されていた信号線の数の制限
を除去することが出来ると共に情報処理装置の消費電力
を低減出来る。
In the above embodiment, the logic circuit area of the CPU, the BAA, and the memory cell area of the cache memory are arranged so as to be joined to each other, and are mounted in one chip, thereby closing the inside of the chip. The drive circuit for driving the input / output terminals for the signal lines with respect to the signal lines can be eliminated. As a result, the signal transmission delay in the chip can be reduced. The limitation on the number of signal lines, which has been limited by the number, can be removed, and the power consumption of the information processing device can be reduced.

【0166】以上の説明では主として本発明者によって
なされた発明をその属する技術分野である情報処理装置
の複数個のプロセッサがキャッシュ記憶を共用する場合
のデータアクセス技術とこの技術を実現する際に適用す
るいわゆるメモリ混載マルチプロセッサシステムLSI
に適用した場合について説明したが、これに限定される
ものではなく、たとえばアドレスの再構成機能を持った
メモリ全般やキャッシュ記憶付きのディジタル信号処理
に関する処理装置全般及びキャッシュ記憶付きのディジ
タル信号伝送装置全般に広く適用可能である。従って、前
記情報処理装置で実行する情報処理は、いわゆるコンピ
ュータによるディジタル情報処理に限らず、アナログ信
号をディジタル信号に変換する処理、またはその逆の処
理、あるいは一時的にアナログ信号をディジタル信号に
変換し、変換されたディジタル情報を処理した後再度前
記ディジタル信号をアナログ信号に変換する装置等様々
な実施の形態がとれることはいうまでもない。また、本発
明の構成と手段をアドレス変換バッファに適用するとそ
の要点は以下のようになる。即ち、プロセッサとアドレス
変換機構及びアドレス変換バッファから構成される処理
装置において、複数個のプロセッサに対し唯一のアドレ
ス変換バッファを持ち、前記唯一のアドレス変換バッフ
ァは、前記複数個のプロセッサからアクセスされた論理
アドレスと絶対アドレスの全てのプロセッサに属する対
応エントリを保持し、前記複数個のプロセッサからのデ
ータアクセス要求間で共用されることを特徴とする情報
処理装置のデータアクセス方法。
In the above description, the invention made mainly by the present inventor is applied to a data access technique in the case where a plurality of processors of an information processing apparatus, which is a technical field to which the present invention belongs, shares cache storage, and to the realization of this technique. So-called memory embedded multiprocessor system LSI
However, the present invention is not limited to this. For example, a general memory having an address reconfiguring function, a general processing device related to digital signal processing with cache storage, and a digital signal transmission device with cache storage It is widely applicable in general. Therefore, the information processing executed by the information processing apparatus is not limited to digital information processing by a computer, but is a process of converting an analog signal to a digital signal, or vice versa, or temporarily converting an analog signal to a digital signal. Needless to say, various embodiments such as a device for converting the digital information into an analog signal after processing the converted digital information can be adopted. When the configuration and means of the present invention are applied to an address translation buffer, the main points are as follows. That is, in a processing device including a processor, an address translation mechanism, and an address translation buffer, a plurality of processors have only one address translation buffer, and the only address translation buffer is accessed from the plurality of processors. A data access method for an information processing apparatus, wherein a corresponding entry belonging to all processors of a logical address and an absolute address is held and shared between data access requests from the plurality of processors.

【0167】もしくは、複数個のプロセッサのそれぞれ
に対応づけて複数個のアドレス変換バッファを持ち、そ
れぞれのアドレス変換バッファは、前記複数個のプロセ
ッサのそれぞれからのアクセスに対応した論理アドレス
と絶対アドレスの対応エントリを保持し、前記複数個の
プロセッサからのデータアクセス要求をプロセッサ対応
に処理することを特徴とする情報処理装置のデータアク
セス方法。
Alternatively, a plurality of address translation buffers are provided in association with each of the plurality of processors, and each address translation buffer stores a logical address and an absolute address corresponding to an access from each of the plurality of processors. A data access method for an information processing apparatus, comprising: holding a corresponding entry; and processing data access requests from the plurality of processors in a processor-dependent manner.

【0168】もしくは、複数個のプロセッサのそれぞれ
に対応づけて複数個のアドレス変換バッファを持ち、前
記それぞれのアドレス変換バッファは、前記複数個のプ
ロセッサからアクセスされた論理アドレスと絶対アドレ
スの全ての対応エントリを保持し、前記複数個のプロセ
ッサからのからのデータアクセス要求をプロセッサ対応
に処理することを特徴とする情報処理装置のデータアク
セス方法。
Alternatively, a plurality of address translation buffers are provided in correspondence with each of the plurality of processors, and each of the address translation buffers stores all of the correspondence between the logical address and the absolute address accessed from the plurality of processors. A data access method for an information processing apparatus, comprising: holding an entry; and processing data access requests from the plurality of processors according to the processors.

【0169】もしくは、複数個のプロセッサのそれぞれ
に対応づけて複数個のアドレス変換バッファを持ち、そ
れぞれのアドレス変換バッファは、前記複数個のプロセ
ッサのそれぞれからのアクセスに対応した論理アドレス
と絶対アドレスの対応エントリを保持し、前記複数個の
プロセッサからのデータアクセス要求をプロセッサ対応
に処理し、1つのプロセッサからのデータアクセス要求
に対応した論理アドレスと絶対アドレスの対応エントリ
が、このプロセッサに対応したアドレス変換バッファに
存在しない場合、他のプロセッサに対応したアドレス変
換バッファをアもしくは、複数個のプロセッサのそれぞ
れに対応づけて複数個のアドレス変換バッファをそれぞ
れ複数組持ち、それぞれの複数組のアドレス変換バッフ
ァは、前記複数個のプロセッサのそれぞれからのアクセ
スに対応した論理アドレスと絶対アドレスの対応エント
リを保持し、前記複数組のアドレス変換バッファの一つ
は、前記複数個のプロセッサのうちの対応するプロセッ
サからのデータアクセス要求を処理し、前記複数組の他
のアドレス変換バッファは、前記複数個のプロセッサの
うちの他のプロセッサからのデータアクセス要求を処理
することを特徴とする情報処理装置のデータアクセス方
法などに適用できる。
Alternatively, a plurality of address translation buffers are provided in association with each of the plurality of processors, and each address translation buffer stores a logical address and an absolute address corresponding to an access from each of the plurality of processors. A corresponding entry is held, and data access requests from the plurality of processors are processed in accordance with the processor, and a corresponding entry of a logical address and an absolute address corresponding to a data access request from one processor is an address corresponding to the processor. If it does not exist in the translation buffer, a plurality of address translation buffers corresponding to other processors are provided, or a plurality of address translation buffers are respectively associated with the plurality of processors. Is the plurality An entry corresponding to a logical address and an absolute address corresponding to an access from each of the processors is held, and one of the plurality of sets of address translation buffers receives a data access request from a corresponding one of the plurality of processors. The plurality of sets of other address translation buffers that are processed can be applied to a data access method of an information processing apparatus, which processes a data access request from another processor among the plurality of processors.

【0170】[0170]

【発明の効果】本発明において開示される発明のうち、
代表的なものによって得られる効果をまとめて説明すれ
ば、以下の通りである。 (1).前述の如くに記憶素子と論理回路からなる構成
要素を同一の半導体チップ中に実装する事で,記憶素子
チップと論理回路のチップのチップ間の電気信号を送受
する入出力端子を除去することが出来る。その結果、記
憶素子と論理回路間の電気信号のデータ幅を大幅に拡張
することが出来、複数のCPUから構成される情報処理
装置の主記憶アクセスの処理性能を大幅に向上できる。
According to the invention disclosed in the present invention,
The effects obtained by typical ones will be summarized as follows. (1). As described above, by mounting the components including the storage element and the logic circuit on the same semiconductor chip, it is possible to eliminate input / output terminals for transmitting and receiving electric signals between the storage element chip and the logic circuit chip. I can do it. As a result, the data width of the electric signal between the storage element and the logic circuit can be greatly expanded, and the processing performance of the main memory access of the information processing device including a plurality of CPUs can be greatly improved.

【0171】(2).前述の如くに記憶素子と論理回路
からなる構成要素を同一の半導体チップ中に実装する事
で,記憶素子チップと論理回路のチップのチップ間を渡
る電気信号を増幅する回路とその回路で消費される電力
と発熱を大幅に削減することが可能となる。その結果、
複数のCPUから構成される情報処理装置の消費される
電力と発熱を大幅に削減できる。
(2). As described above, by mounting the components including the storage element and the logic circuit on the same semiconductor chip, the circuit for amplifying the electric signal passing between the storage element chip and the logic circuit chip and the circuit consumed by the circuit are amplified. Power and heat generation can be greatly reduced. as a result,
Power consumption and heat generation of the information processing apparatus including a plurality of CPUs can be significantly reduced.

【0172】(3).複数のCPUから同一のBAAを
共用する形態においては、BAAの索引動作をそれぞれ
のCPUから送出される主記憶アクセス要求信号送出サ
イクルの半分のサイクル時間で動作させる方法、もしく
はBAAの索引動作をそれぞれのCPUから送出される
主記憶アクセス要求信号送出サイクルと同じサイクル時
間で動作させるが、複数のCPUからの主記憶アクセス
要求信号が同時に送られて来た場合に片方のCPUに対
応するBAAエントリ索引動作を1サイクル待たせる方
法で、複数のCPUのそれぞれがBAAを占有しながら
動作しているのと等価の効果を得ることが可能となり、
同一のBAAを複数のCPUから共用することでBAA
の使用効率を向上させることが可能となり、そしてBA
Aの物理容量を小さくすることが可能となる。 (4).複数のCPUから同一のBAAを共用する形態
及び複数のCPUから別々のBAAを占有する形態にお
いて、複数のCPUと単一のBAA及びキャッシュ記憶
のそれぞれの領域をチップ内に隣接させて配置すること
により、各々の領域間の接触面をより大きくし、更に、各
々の領域間を屈折した面で隣接させるなどの手段で各々
の領域間の接触面をより大きくすることで、チップ内の
領域間のデータパスの幅を広くすることが可能となる。
チップ内の領域間のデータパスの幅を広くすれば、領域
間の信号線の数を増やすことが可能となり、当該データ
パスの単位時間当たりのデータ転送量を大きくできる。
また、各々の領域間の接触面を大きくできると、領域間
に配置するデータパス長を短くでき、それぞれの領域間
のデータ転送遅延時間を小さくすることが可能となる。 (5).複数のCPUから同一のBAAを共用する形態
において、キャッシュ記憶を分割し且つBAAに隣接し
て配置し、この分割されたキャッシュ記憶のそれぞれを
独立して動作可能とすることで、BAAとキャッシュ記
憶間の領域間の接触面をより大きくすることで、チップ
内の領域間のデータパスの幅をより広くすることが可能
となり、更に分割されたキャッシュ記憶に対する複数の
アクセス動作の同時実行が可能となる。その結果、り、
CPUからの主記憶アクセス要求処理の効率を向上させ
ることが可能となる。また、キャッシュ記憶を分割して
BAAから対称形に配置することで、各領域間の配置位
置によるデータ転送遅延時間のばらつきを抑えることが
できるという効果が得られる。
(3). In a mode in which the same BAA is shared by a plurality of CPUs, a method of operating the BAA index operation in a half cycle time of a main memory access request signal transmission cycle transmitted from each CPU, or a method in which the BAA index operation is performed, respectively. The CPU operates in the same cycle time as the main memory access request signal transmission cycle transmitted from the CPU, but when the main memory access request signals from a plurality of CPUs are simultaneously transmitted, the BAA entry index corresponding to one of the CPUs is transmitted. In a method in which the operation waits for one cycle, it is possible to obtain an effect equivalent to the case where each of the plurality of CPUs operates while occupying the BAA.
BAA by sharing the same BAA from multiple CPUs
It is possible to improve the use efficiency of
The physical capacity of A can be reduced. (4). In a configuration in which the same BAA is shared by a plurality of CPUs and a configuration in which different BAAs are occupied by a plurality of CPUs, a plurality of CPUs and a single BAA and respective areas of cache storage are arranged adjacent to each other in a chip. Thus, the contact area between the respective areas is made larger by further increasing the contact area between the respective areas by means such as making the adjacent areas adjacent to each other with a refracted surface. Can be widened.
If the width of the data path between the regions in the chip is increased, the number of signal lines between the regions can be increased, and the data transfer amount per unit time of the data path can be increased.
Further, if the contact surface between the respective regions can be increased, the length of the data path arranged between the regions can be shortened, and the data transfer delay time between the respective regions can be reduced. (5). In a mode in which the same BAA is shared by a plurality of CPUs, the cache storage is divided and arranged adjacent to the BAA, and each of the divided cache storages can operate independently, so that the BAA and the cache storage can be operated independently. By making the contact area between the areas between the chips larger, the width of the data path between the areas in the chip can be made wider, and a plurality of access operations to the divided cache memory can be performed simultaneously. Become. As a result,
It is possible to improve the efficiency of main memory access request processing from the CPU. Further, by dividing the cache memory and arranging it symmetrically from the BAA, an effect is obtained in that the variation in the data transfer delay time due to the arrangement position between the areas can be suppressed.

【0173】(6).複数のCPUから別々のBAAを
占有する形態において、複数のCPUのそれぞれがBA
Aを占有しながら動作するので、複数のCPUからの主
記憶アクセス要求信号が同時に送られてくる場合が生じ
ても、各々のCPUの主記憶アクセス要求に対応するB
AAエントリの索引動作は待たされることなく実行さ
れ、効率の良いBAAエントリの索引動作の実現が可能
となる。 (7).複数のCPUから別々のBAAを占有する形態
において、複数のBAAのメモリセル領域をチップの端
に対称形に配置し、前記CPUの論理回路領域は、それ
ぞれのBAAのメモリセル領域の一辺に隣接して且つ対
称となるよう配置し、加えてキャッシュ記憶の位置を複
数のBAAから対称形になるよう配置することで、各領
域間の配置位置に起因するデータ転送遅延時間のばらつ
きを抑えることが可能となる。 また、この形態において、キャッシュ記憶を分割しBAA
から対称形に配置することで、各領域間の配置位置に起
因するデータ転送遅延時間のばらつきを抑えることが可
能となる。 (8).複数のCPUからの主記憶アクセス要求に伴っ
て生成されるBAAエントリを複数のBAAに登録させ
る手段を持ち、複数のCPUが前記複数のBAAを占有
する形態において、複数のCPUのそれぞれがBAAを
占有しながら動作しているので、複数のCPUからの主
記憶アクセス要求信号が同時に送られてくる場合が生じ
ても各々のCPUの主記憶アクセス要求に対応するBA
Aエントリの索引動作は待たされることなく実行され、
更に、同一のBAAを複数のCPUから完全に共用した
場合と等価の効果が得られ、効率の良いBAAエントリ
の索引動作の実現が可能となる。 (9).複数のCPUからの主記憶アクセス要求に伴っ
て生成されるBAAエントリを複数のBAAに登録させ
る手段を持ち、複数のCPUが前記複数のBAAを占有
する形態において、複数のBAAのメモリセル領域を隣
接して配置することにより、BAA間の接触面を大きく
でき、その結果、BAA間のデータパスの幅を広くする
ことができ且つこのパス長を短くすることができる。そ
の結果、複数のBAAのメモリセル領域に対する同一B
AAエントリの登録動作の高速化が可能となる。 (10).複数のCPUから別々のBAAを占有と共用
の組み合わせでアクセスする形態において、複数のCP
Uからの主記憶アクセス要求信号が同時に送られてくる
場合が生じても、片方のCPUの主記憶アクセス要求に
対応するBAAエントリの索引動作は待たされることは
なく、効率の良いBAAエントリの索引動作を実現でき
ると共に相手側のBAAをも参照することで同一のBA
Aを2つのCPUから共用するのでBAAの使用効率を
向上させることが可能となる。
(6). In a mode in which a plurality of CPUs occupy different BAAs, each of the plurality of CPUs
Since it operates while occupying A, even if a main memory access request signal from a plurality of CPUs is sent at the same time, B corresponding to the main memory access request of each CPU may be transmitted.
The indexing operation of the AA entry is executed without waiting, and the efficient indexing operation of the BAA entry can be realized. (7). In a mode in which separate BAAs are occupied by a plurality of CPUs, the memory cell areas of the plurality of BAAs are arranged symmetrically at the edge of the chip, and the logic circuit area of the CPU is adjacent to one side of the memory cell area of each BAA. In addition, by arranging the cache memory locations symmetrically from the plurality of BAAs, it is possible to suppress variations in the data transfer delay time due to the location between the respective areas. It becomes possible. Also, in this embodiment, the cache storage is divided and BAA
By arranging them in a symmetrical manner, it is possible to suppress variations in the data transfer delay time due to the arrangement positions between the respective regions. (8). There is provided a means for registering a BAA entry generated in response to a main memory access request from a plurality of CPUs with a plurality of BAAs, and in a mode in which the plurality of CPUs occupy the plurality of BAAs, each of the plurality of CPUs stores the BAA. Since it operates while being occupied, even if a main memory access request signal from a plurality of CPUs is sent at the same time, the BA corresponding to the main memory access request of each CPU may occur.
The indexing operation of the A entry is executed without waiting,
Further, an effect equivalent to the case where the same BAA is completely shared by a plurality of CPUs can be obtained, and an efficient BAA entry indexing operation can be realized. (9). A means for registering a BAA entry generated in response to a main memory access request from a plurality of CPUs with a plurality of BAAs is provided. In a mode in which a plurality of CPUs occupy the plurality of BAAs, a memory cell area of a plurality of BAAs is allocated. By arranging adjacently, the contact surface between BAA can be enlarged, and as a result, the width of the data path between BAA can be widened and this path length can be shortened. As a result, the same B for the memory cell areas of a plurality of BAAs
It is possible to speed up the AA entry registration operation. (10). In a form in which separate BAAs are accessed from a plurality of CPUs in a combination of exclusive use and shared use, a plurality of CPs are accessed.
Even if the main memory access request signal from U is sent at the same time, the index operation of the BAA entry corresponding to the main memory access request of one of the CPUs is not waited, and the efficient indexing of the BAA entry is not performed. The operation can be realized and the same BAA can be obtained by referring to the partner's BAA.
Since A is shared by two CPUs, it is possible to improve the use efficiency of BAA.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の情報処理装置のデータアクセス方法お
よび半導体集積回路の実施の形態を示すブロック図であ
る。
FIG. 1 is a block diagram illustrating an embodiment of a data access method and a semiconductor integrated circuit of an information processing apparatus according to the present invention.

【図2】本発明の実施の形態1である情報処理装置のデ
ータアクセス方法および半導体集積回路の構成を示す図
である。
FIG. 2 is a diagram showing a configuration of a data access method and a semiconductor integrated circuit of the information processing apparatus according to the first embodiment of the present invention;

【図3】本発明の実施の形態1における情報処理装置の
半導体集積回路を示す概略配置図である。
FIG. 3 is a schematic layout diagram showing a semiconductor integrated circuit of the information processing device according to the first embodiment of the present invention.

【図4】本発明の実施の形態1における変形例の半導体
集積回路を示す概略配置図である。
FIG. 4 is a schematic layout diagram showing a semiconductor integrated circuit according to a modification of the first embodiment of the present invention.

【図5】本発明の実施の形態1における他の変形例の半
導体集積回路を示す概略配置図である。
FIG. 5 is a schematic layout diagram showing a semiconductor integrated circuit according to another modification of the first embodiment of the present invention.

【図6】本発明の実施の形態1におけるさらに他の変形
例の半導体集積回路を示す概略配置図である。
FIG. 6 is a schematic layout diagram showing a semiconductor integrated circuit according to still another modification of the first embodiment of the present invention.

【図7】本発明の実施の形態2である情報処理装置のデ
ータアクセス方法および半導体集積回路の構成を示す図
である。
FIG. 7 is a diagram illustrating a configuration of a data access method and a semiconductor integrated circuit of an information processing apparatus according to a second embodiment of the present invention;

【図8】本発明の実施の形態2における情報処理装置の
半導体集積回路を示す概略配置図である。
FIG. 8 is a schematic layout diagram showing a semiconductor integrated circuit of an information processing device according to a second embodiment of the present invention.

【図9】本発明の実施の形態2における変形例の半導体
集積回路を示す概略配置図である。
FIG. 9 is a schematic layout diagram showing a semiconductor integrated circuit according to a modification of the second embodiment of the present invention.

【図10】本発明の実施の形態2における他の変形例の
半導体集積回路を示す概略配置図である。
FIG. 10 is a schematic layout diagram showing a semiconductor integrated circuit according to another modification of the second embodiment of the present invention.

【図11】本発明の実施の形態2におけるさらに他の変
形例の半導体集積回路を示す概略配置図である。
FIG. 11 is a schematic layout diagram showing a semiconductor integrated circuit according to still another modification of the second embodiment of the present invention.

【図12】本発明の実施の形態2におけるさらに他の変
形例の半導体集積回路を示す概略配置図である。
FIG. 12 is a schematic layout diagram showing a semiconductor integrated circuit according to still another modification of the second embodiment of the present invention.

【図13】本発明の実施の形態3である情報処理装置の
データアクセス方法および半導体集積回路の構成を示す
図である。
FIG. 13 is a diagram illustrating a data access method of an information processing apparatus and a configuration of a semiconductor integrated circuit according to a third embodiment of the present invention;

【図14】本発明の実施の形態3における情報処理装置
の半導体集積回路を示す概略配置図である。
FIG. 14 is a schematic layout diagram showing a semiconductor integrated circuit of an information processing device according to a third embodiment of the present invention.

【図15】本発明の実施の形態3における変形例の半導
体集積回路を示す概略配置図である。
FIG. 15 is a schematic layout diagram showing a semiconductor integrated circuit according to a modification of the third embodiment of the present invention.

【図16】本発明の実施の形態4である情報処理装置の
データアクセス方法および半導体集積回路の構成を示す
図である。
FIG. 16 is a diagram illustrating a configuration of a data access method and a semiconductor integrated circuit of an information processing device according to a fourth embodiment of the present invention;

【図17】本発明の実施の形態4における情報処理装置
の半導体集積回路を示す概略配置図である。
FIG. 17 is a schematic layout diagram showing a semiconductor integrated circuit of an information processing device according to a fourth embodiment of the present invention.

【図18】本発明の実施の形態4における変形例の半導
体集積回路を示す概略配置図である。
FIG. 18 is a schematic layout diagram showing a semiconductor integrated circuit according to a modification of the fourth embodiment of the present invention.

【図19】本発明の実施の形態4におけるさらに他の変
形例の半導体集積回路を示す概略配置図である。
FIG. 19 is a schematic layout diagram showing a semiconductor integrated circuit according to still another modification of the fourth embodiment of the present invention.

【図20】本発明の実施の形態5である情報処理装置の
データアクセス方法および半導体集積回路の構成を示す
図である。
FIG. 20 is a diagram illustrating a data access method of an information processing device and a configuration of a semiconductor integrated circuit according to a fifth embodiment of the present invention;

【図21】本発明の実施の形態5における情報処理装置
の半導体集積回路を示す概略配置図である。
FIG. 21 is a schematic layout diagram showing a semiconductor integrated circuit of an information processing device according to a fifth embodiment of the present invention.

【図22】本発明の実施の形態5における変形例の半導
体集積回路を示す概略配置図である。
FIG. 22 is a schematic layout diagram showing a semiconductor integrated circuit according to a modification of the fifth embodiment of the present invention.

【図23】本発明の実施の形態5におけるさらに他の変
形例の半導体集積回路を示す概略配置図である。
FIG. 23 is a schematic layout diagram showing a semiconductor integrated circuit according to still another modification of the fifth embodiment of the present invention.

【図24】本発明の実施の形態5におけるさらに他の変
形例の半導体集積回路を示す概略配置図である。
FIG. 24 is a schematic layout diagram showing a semiconductor integrated circuit according to still another modification of the fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

110、111 プロセッサ 120 キャッシュ記憶ユニット 130、131 ブロックアドレスアレイ 140 キャッシュ記憶 150 主記憶 110, 111 Processor 120 Cache storage unit 130, 131 Block address array 140 Cache storage 150 Main storage

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 独立に動作可能な複数個のプロセッサと
独立にアクセス可能な複数個のメモリが同一チップに集
積され、前記複数個のメモリは、プロセッサからのデー
タアクセスの対象となるデータを一時的に保持するキャ
ッシュ記憶から構成され、前記キャッシュ記憶は、前記
複数個のプロセッサから送出されるデータアドレスとキ
ャッシュ記憶アドレスとの対応をとるエントリを複数保
持し、概エントリはプロセッサから送出されるデータブ
ロックアドレスを保持するブロックアドレス記憶部と対
応するキャッシュ記憶アドレスを保持するキャッシュア
ドレス記憶部とからなる1つまたは複数のブロックアド
レスアレイと主記憶データの写しを保持するキャッシュ
記憶とからなり、前記キャッシュ記憶は、前記独立に動
作可能な複数のプロセッサから共用アクセスされる単一
のキャッシュ記憶装置として接続構成されていることを
特徴とする情報処理装置のデータアクセス方法。
1. A plurality of independently operable processors and a plurality of independently accessible memories are integrated on the same chip, and the plurality of memories temporarily store data to be accessed by the processors. The cache memory holds a plurality of entries corresponding to data addresses sent from the plurality of processors and cache memory addresses, and roughly stores the data sent from the processors. One or more block address arrays each including a block address storage unit that holds a block address and a cache address storage unit that holds a corresponding cache storage address, and a cache storage that holds a copy of main storage data; The memory stores the plurality of independently operable programs. A data access method for an information processing apparatus, wherein the data access method is connected and configured as a single cache storage device shared and accessed by a processor.
【請求項2】 請求項1記載の情報処理装置であって、
前記複数個のプロセッサに対し唯一のブロックアドレス
アレイを持ち、前記唯一のブロックアドレスアレイは、
前記複数個のプロセッサからアクセスされたデータアド
レスとキャッシュ記憶アドレスの対応エントリを全ての
プロセッサについて保持し、前記複数のプロセッサから
のデータアクセス要求によって共通して使用する手段を
持つことを特徴とする情報処理装置のデータアクセス方
法。
2. The information processing apparatus according to claim 1, wherein
Having a unique block address array for the plurality of processors, the unique block address array comprising:
Information characterized by having means for holding, for all processors, corresponding entries of data addresses and cache storage addresses accessed by the plurality of processors, and commonly using the data access requests from the plurality of processors. A data access method for the processing device.
【請求項3】 請求項1記載の情報処理装置であって、
前記複数のプロセッサのそれぞれに対応づけられた複数
個のブロックアドレスアレイを持ち、それぞれのブロッ
クアドレスアレイは、前記複数のプロセッサのそれぞれ
からのアクセスに対応したデータアドレスとキャッシュ
記憶アドレスの対応エントリを個別に保持し、前記複数
のプロセッサからのデータアクセス要求をプロセッサ対
応に処理することを特徴とする情報処理装置のデータア
クセス方法。
3. The information processing apparatus according to claim 1, wherein
It has a plurality of block address arrays associated with each of the plurality of processors, and each block address array individually stores a corresponding entry of a data address and a cache storage address corresponding to an access from each of the plurality of processors. And processing the data access requests from the plurality of processors corresponding to the processors.
【請求項4】 請求項1記載の情報処理装置であって、
前記複数個のプロセッサのそれぞれに対応づけて複数個
のブロックアドレスアレイを持ち、前記それぞれのブロ
ックアドレスアレイは、前記複数個のプロセッサからア
クセスされたデータアドレスとキャッシュ記憶アドレス
の対応エントリの全てのを保持し、前記複数個のプロセ
ッサからのからのデータアクセス要求をプロセッサ対応
に処理することを特徴とする情報処理装置のデータアク
セス方法。
4. The information processing apparatus according to claim 1, wherein
A plurality of block address arrays are associated with each of the plurality of processors, and each of the block address arrays stores all corresponding entries of data addresses and cache storage addresses accessed from the plurality of processors. A data access method for an information processing apparatus, wherein the data access request is held by the plurality of processors and the data access requests from the plurality of processors are processed corresponding to the processors.
【請求項5】 請求項1記載の情報処理装置であって、
前記複数個のプロセッサのそれぞれに対応づけて複数個
のブロックアドレスアレイを持ち、それぞれのブロック
アドレスアレイは、前記複数個のプロセッサからのそれ
ぞれのアクセスに対応したデータアドレスとキャッシュ
記憶アドレスの対応エントリを保持し、前記複数個のプ
ロセッサからのデータアクセス要求をプロセッサ対応に
処理し、プロセッサからのデータアクセス要求に対応し
たデータアドレスとキャッシュ記憶アドレスの対応エン
トリが、このプロセッサに対応したブロックアドレスア
レイに存在しない場合、他のプロセッサに対応したブロ
ックアドレスアレイをアクセスすることを特徴とする情
報処理装置のデータアクセス方法。
5. The information processing apparatus according to claim 1, wherein
A plurality of block address arrays are associated with each of the plurality of processors, and each block address array stores a corresponding entry of a data address and a cache storage address corresponding to each access from the plurality of processors. The processor holds the data access request from the plurality of processors corresponding to the processor, and a corresponding entry of the data address and the cache storage address corresponding to the data access request from the processor exists in the block address array corresponding to the processor. If not, a data access method for an information processing apparatus, wherein a block address array corresponding to another processor is accessed.
【請求項6】 請求項1記載の情報処理装置であって、
前記複数のプロセッサのそれぞれに対応づけた複数個の
ブロックアドレスアレイを複数組持ち、それぞれの複数
組のブロックアドレスアレイは、前記複数のプロセッサ
からのアクセスのそれぞれに対応したデータアドレスと
キャッシュ記憶アドレスの全ての対応エントリを保持
し、前記複数組のブロックアドレスアレイの一つは、前
記複数個のプロセッサのうちの対応する1つのプロセッ
サからのデータアクセス要求を処理し、前記複数組の他
のブロックアドレスアレイは、前記複数個のプロセッサ
のうちの他のプロセッサからのデータアクセス要求を処
理することを特徴とする情報処理装置のデータアクセス
方法。
6. The information processing apparatus according to claim 1, wherein:
A plurality of sets of a plurality of block address arrays associated with each of the plurality of processors are provided, and each of the plurality of sets of the block address arrays stores a data address and a cache storage address corresponding to each of accesses from the plurality of processors. One of the plurality of sets of block address arrays holds all corresponding entries and processes a data access request from a corresponding one of the plurality of processors. The data access method of an information processing apparatus, wherein the array processes a data access request from another processor among the plurality of processors.
【請求項7】 請求項2記載の情報処理装置であって、
前記情報処理装置を構成するプロセッサとブロックアド
レスアレイ及びキャッシュ記憶を同一チップ内に集積す
る半導体集積回路において、チップの中央部にブロック
アドレスアレイのメモリセル領域が配置され、プロセッ
サの論理回路領域は、複数のプロセッサがブロックアド
レスアレイのメモリセル領域にそれぞれ隣接するよう配
置され、キャッシュ記憶のメモリセル領域は、ブロック
アドレスアレイのメモリセル領域に隣接し且つプロセッ
サの論理回路領域の反対側に配置されていることを特徴
とする情報処理装置の半導体集積回路。
7. The information processing apparatus according to claim 2, wherein:
In a semiconductor integrated circuit in which a processor, a block address array, and a cache memory constituting the information processing device are integrated in the same chip, a memory cell area of the block address array is arranged in a central portion of the chip, and a logic circuit area of the processor is A plurality of processors are arranged adjacent to the memory cell area of the block address array, and the memory cell area of the cache memory is arranged adjacent to the memory cell area of the block address array and opposite to the logic circuit area of the processor. A semiconductor integrated circuit for an information processing apparatus.
【請求項8】 請求項2記載の情報処理装置であって、
前記情報処理装置を構成するプロセッサとブロックアド
レスアレイ及びキャッシュ記憶を同一チップ内に集積す
る半導体集積回路において、チップの中央部にブロック
アドレスアレイのメモリセル領域が配置され、複数のプ
ロセッサの論理回路領域は、ブロックアドレスアレイの
メモリセル領域に隣接し且つブロックアドレスアレイの
メモリセル領域が取り囲むよう配置され、キャッシュ記
憶のメモリセル領域は、ブロックアドレスアレイのメモ
リセル領域に隣接して且つブロックアドレスアレイのメ
モリセル領域を取り囲むよう配置されそしてプロセッサ
の論理回路領域とも隣接し、且つプロセッサの論理回路
領域の反対側に配置されていることを特徴とする情報処
理装置の半導体集積回路。
8. The information processing apparatus according to claim 2, wherein
In a semiconductor integrated circuit in which a processor, a block address array, and a cache memory constituting the information processing apparatus are integrated in the same chip, a memory cell area of the block address array is arranged in a central portion of the chip, and a logic circuit area of a plurality of processors is provided. Are arranged so as to be adjacent to the memory cell area of the block address array and to surround the memory cell area of the block address array, and the memory cell area of the cache memory is adjacent to the memory cell area of the block address array and of the block address array. A semiconductor integrated circuit for an information processing device, wherein the semiconductor integrated circuit is arranged so as to surround a memory cell area, is adjacent to a logic circuit area of a processor, and is arranged on a side opposite to the logic circuit area of the processor.
【請求項9】 請求項2記載の情報処理装置であって、
前記情報処理装置を構成するプロセッサとブロックアド
レスアレイ及びキャッシュ記憶を同一チップ内に集積す
る半導体集積回路において、チップの中央部に、ブロッ
クアドレスアレイのメモリセル領域がキャッシュ記憶の
メモリセル領域を二分するように配置され、複数のプロ
セッサの論理回路領域は、ブロックアドレスアレイのメ
モリセル領域に隣接するよう配置され、キャッシュ記憶
のメモリセル領域は、ブロックアドレスアレイのメモリ
セル領域の両側に隣接するよう配置されていることを特
徴とする情報処理装置の半導体集積回路。
9. The information processing apparatus according to claim 2, wherein
In a semiconductor integrated circuit in which a processor, a block address array, and a cache memory constituting the information processing apparatus are integrated in the same chip, a memory cell area of the block address array bisects a memory cell area of the cache memory at a central portion of the chip. The logic circuit areas of the plurality of processors are arranged to be adjacent to the memory cell area of the block address array, and the memory cell area of the cache memory is arranged to be adjacent to both sides of the memory cell area of the block address array. A semiconductor integrated circuit of an information processing device, characterized in that:
【請求項10】 請求項2記載の情報処理装置であっ
て、前記情報処理装置を構成するプロセッサとブロック
アドレスアレイ及びキャッシュ記憶を同一チップ内に集
積する半導体集積回路において、チップの中央部にブロ
ックアドレスアレイのメモリセル領域が配置され、ブロ
ックアドレスアレイのメモリセル領域の両側にプロセッ
サの論理回路領域が隣接するよう配置され、ブロックア
ドレスアレイのメモリセル領域の両側にキャッシュ記憶
のメモリセル領域が分割され且つ隣接するよう配置され
ていることを特徴とする情報処理装置の半導体集積回
路。
10. The information processing apparatus according to claim 2, wherein the processor, the block address array, and the cache memory constituting the information processing apparatus are integrated in the same chip. The memory cell area of the address array is arranged, the logic circuit area of the processor is arranged adjacent to both sides of the memory cell area of the block address array, and the memory cell area of cache storage is divided on both sides of the memory cell area of the block address array. A semiconductor integrated circuit for an information processing apparatus, wherein the semiconductor integrated circuit is arranged so as to be adjacent to the information processing apparatus.
【請求項11】 請求項3または4または5記載の情報
処理装置であって、前記情報処理装置を構成するプロセ
ッサとブロックアドレスアレイ及びキャッシュ記憶を同
一チップ内に集積する半導体集積回路において、チップ
の中央部にブロックアドレスアレイのメモリセル領域が
配置され、 プロセッサの論理回路領域は、それぞれのプロセッサが
対応するブロックアドレスアレイのメモリセル領域に隣
接するよう配置され、キャッシュ記憶のメモリセル領域
は、ブロックアドレスアレイのメモリセル領域に隣接し
且つプロセッサの論理回路領域の反対側になるよう配置
されていることを特徴とする情報処理装置の半導体集積
回路。
11. The information processing apparatus according to claim 3, wherein the processor, the block address array, and the cache memory constituting the information processing apparatus are integrated in the same chip. The memory cell area of the block address array is arranged at the center, the logic circuit area of the processor is arranged so that each processor is adjacent to the memory cell area of the corresponding block address array, and the memory cell area of the cache memory is A semiconductor integrated circuit for an information processing device, wherein the semiconductor integrated circuit is arranged so as to be adjacent to a memory cell region of an address array and on a side opposite to a logic circuit region of a processor.
【請求項12】 請求項3または5記載の情報処理装置
であって、前記情報処理装置を構成するプロセッサとブ
ロックアドレスアレイ及びキャッシュ記憶を同一チップ
内に集積する半導体集積回路において、チップの両端部
にブロックアドレスアレイのメモリセル領域が配置さ
れ、それぞれのプロセッサの論理回路領域は、ブロック
アドレスアレイのメモリセル領域の一辺に隣接して配置
され、キャッシュ記憶のメモリセル領域は、チップの両
端部に配置されたブロックアドレスアレイのメモリセル
領域の間に隣接して配置され、且つそれぞれのプロセッ
サの論理回路領域とも隣接して配置されていることを特
徴とする情報処理装置の半導体集積回路。
12. The semiconductor integrated circuit according to claim 3, wherein a processor, a block address array, and a cache memory constituting the information processing device are integrated in the same chip. The memory cell area of the block address array is arranged, the logic circuit area of each processor is arranged adjacent to one side of the memory cell area of the block address array, and the memory cell area of the cache memory is located at both ends of the chip. A semiconductor integrated circuit for an information processing device, wherein the semiconductor integrated circuit is arranged adjacent to between the memory cell regions of the arranged block address array and adjacent to the logic circuit region of each processor.
【請求項13】 請求項3記載の情報処理装置であっ
て、前記情報処理装置を構成するプロセッサとブロック
アドレスアレイ及びキャッシュ記憶を同一チップ内に集
積する半導体集積回路において、チップの中央部にキャ
ッシュ記憶のメモリセル領域が配置され、キャッシュ記
憶のメモリセル領域の両側にのメモリセル領域が隣接し
て配置され、ブロックアドレスアレイのメモリセル領域
の外側にプロセッサの論理回路領域が隣接して配置され
ていることを特徴とする情報処理装置の半導体集積回
路。
13. The information processing apparatus according to claim 3, wherein the processor, the block address array, and the cache memory constituting the information processing apparatus are integrated in the same chip. A memory cell area for storage is arranged, memory cell areas on both sides of the memory cell area for cache memory are arranged adjacently, and a logic circuit area of the processor is arranged adjacent to the outside of the memory cell area of the block address array. A semiconductor integrated circuit for an information processing device, comprising:
【請求項14】 請求項3または4または5記載の情報
処理装置であって、前記情報処理装置を構成するプロセ
ッサとブロックアドレスアレイ及びキャッシュ記憶を同
一チップ内に集積する半導体集積回路において、チップ
の中央部にブロックアドレスアレイのメモリセル領域が
隣接して配置され、ブロックアドレスアレイのメモリセ
ル領域の両側にプロセッサの論理回路領域が隣接して配
置され、ブロックアドレスアレイのメモリセル領域の両
側にキャッシュ記憶のメモリセル領域が隣接して且つ分
割されて配置されていることを特徴とする情報処理装置
の半導体集積回路。
14. The information processing apparatus according to claim 3, wherein the processor, the block address array, and the cache memory constituting the information processing apparatus are integrated in the same chip. The memory cell area of the block address array is arranged adjacent to the center, the logic circuit area of the processor is arranged adjacent to both sides of the memory cell area of the block address array, and the cache is arranged on both sides of the memory cell area of the block address array. A semiconductor integrated circuit for an information processing device, wherein storage memory cell regions are arranged adjacently and divided.
【請求項15】 請求項3記載の情報処理装置であっ
て、前記情報処理装置を構成するプロセッサとブロック
アドレスアレイ及びキャッシュ記憶を同一チップ内に集
積する半導体集積回路において、チップの中央部にプロ
セッサの論理回路領域が隣接して配置され、プロセッサ
の論理回路領域の両側にブロックアドレスアレイのメモ
リセル領域が隣接して配置され、プロセッサの論理回路
領域の両側にキャッシュ記憶のメモリセル領域が隣接し
て且つ分割されて配置されていることを特徴とする情報
処理装置の半導体集積回路。
15. The information processing device according to claim 3, wherein the processor, the block address array, and the cache memory constituting the information processing device are integrated in the same chip. Are arranged adjacent to each other, the memory cell areas of the block address array are arranged adjacent to both sides of the logic circuit area of the processor, and the memory cell areas of cache memory are arranged adjacent to both sides of the logic circuit area of the processor. A semiconductor integrated circuit for an information processing device, wherein the semiconductor integrated circuit is arranged separately.
【請求項16】 請求項6記載の情報処理装置であっ
て、前記情報処理装置を構成するプロセッサとブロック
アドレスアレイ及びキャッシュ記憶を同一チップ内に集
積する半導体集積回路において、チップの中央部にブロ
ックアドレスアレイのメモリセル領域が配置され、それ
ぞれのプロセッサの論理回路領域は、それぞれ対応する
ブロックアドレスアレイのメモリセル領域に隣接するよ
う配置され、キャッシュ記憶のメモリセル領域は、それ
ぞれ対応するブロックアドレスアレイのメモリセル領域
に隣接し且つそれぞれ対応するプロセッサの論理回路領
域の反対側に配置されていることを特徴とする情報処理
装置の半導体集積回路。
16. The information processing device according to claim 6, wherein the processor, the block address array, and the cache memory constituting the information processing device are integrated in the same chip. The memory cell area of the address array is arranged, the logic circuit area of each processor is arranged adjacent to the memory cell area of the corresponding block address array, and the memory cell area of the cache memory is arranged in the corresponding block address array. A semiconductor integrated circuit for an information processing device, wherein the semiconductor integrated circuit is arranged adjacent to the memory cell region of the above and on the opposite side of the logic circuit region of the corresponding processor.
【請求項17】 請求項6記載の情報処理装置であっ
て、前記情報処理装置を構成するプロセッサとブロック
アドレスアレイ及びキャッシュ記憶を同一チップ内に集
積する半導体集積回路において、チップの中央部にブロ
ックアドレスアレイのメモリセル領域が隣接して配置さ
れ、それぞれのブロックアドレスアレイのメモリセル領
域の両側に対応するプロセッサの論理回路領域が隣接し
て配置され、プロセッサのそれぞれに対応するブロック
アドレスアレイのメモリセル領域の両側にキャッシュ記
憶のメモリセル領域が分割され且つ隣接して配置されて
いることを特徴とする情報処理装置の半導体集積回路。
17. The information processing apparatus according to claim 6, wherein the processor, the block address array, and the cache memory constituting the information processing apparatus are integrated in the same chip. The memory cell areas of the address array are arranged adjacent to each other, and the logic circuit areas of the corresponding processors are arranged adjacent to both sides of the memory cell area of each block address array, and the memory of the block address array corresponding to each of the processors is arranged. A semiconductor integrated circuit for an information processing device, wherein a memory cell region for cache storage is divided and arranged adjacent to both sides of a cell region.
【請求項18】 請求項6記載の情報処理装置であっ
て、前記情報処理装置を構成するプロセッサとブロック
アドレスアレイ及びキャッシュ記憶を同一チップ内に集
積する半導体集積回路において、チップの中央部にプロ
セッサの論理回路領域が隣接して配置され、プロセッサ
の論理回路領域の両側に対応するブロックアドレスアレ
イの対のメモリセル領域が隣接して配置され、ブロック
アドレスアレイのそれぞれに対応するプロセッサの論理
回路領域の両側にキャッシュ記憶のメモリセル領域が分
割され且つ隣接して配置されていることを特徴とする情
報処理装置の半導体集積回路。
18. The information processing apparatus according to claim 6, wherein the processor, the block address array, and the cache memory constituting the information processing apparatus are integrated in the same chip. Are arranged adjacent to each other, and a pair of memory cell areas of a block address array corresponding to both sides of the logic circuit area of the processor are arranged adjacent to each other, and a logic circuit area of the processor corresponding to each of the block address arrays is arranged. A memory cell region for cache storage is divided and arranged adjacent to each other on both sides of the semiconductor integrated circuit.
JP9331470A 1997-12-02 1997-12-02 Data access method for information processor and semiconductor integrated circuit Pending JPH11167522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9331470A JPH11167522A (en) 1997-12-02 1997-12-02 Data access method for information processor and semiconductor integrated circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9331470A JPH11167522A (en) 1997-12-02 1997-12-02 Data access method for information processor and semiconductor integrated circuit

Publications (1)

Publication Number Publication Date
JPH11167522A true JPH11167522A (en) 1999-06-22

Family

ID=18244013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9331470A Pending JPH11167522A (en) 1997-12-02 1997-12-02 Data access method for information processor and semiconductor integrated circuit

Country Status (1)

Country Link
JP (1) JPH11167522A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7865635B2 (en) 2006-02-24 2011-01-04 Fujitsu Limited Buffer device, buffer arrangement method, and information processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7865635B2 (en) 2006-02-24 2011-01-04 Fujitsu Limited Buffer device, buffer arrangement method, and information processing apparatus

Similar Documents

Publication Publication Date Title
JP3849951B2 (en) Main memory shared multiprocessor
US6345352B1 (en) Method and system for supporting multiprocessor TLB-purge instructions using directed write transactions
US6725336B2 (en) Dynamically allocated cache memory for a multi-processor unit
US6370585B1 (en) Multiprocessing computer system employing a cluster communication launching and addressing mechanism
US6038646A (en) Method and apparatus for enforcing ordered execution of reads and writes across a memory interface
US4881164A (en) Multi-microprocessor for controlling shared memory
US20040054855A1 (en) Shared memory multiprocessor performing cache coherence control and node controller therefor
US20080147988A1 (en) Multiprocessor System With Dynamic Cache Coherency Regions
KR890004995B1 (en) Data processor system having improved data throughput in a multiprocessor system
JP2005018772A (en) Multiprocessor computer system with multiple coherency regions and software migration across coherency regions without cache purges
US20050144399A1 (en) Multiprocessor system, and consistency control device and consistency control method in multiprocessor system
EP1412871B1 (en) Method and apparatus for transmitting packets within a symmetric multiprocessor system
US7418559B2 (en) Address snoop method and multi-processor system
US7765250B2 (en) Data processor with internal memory structure for processing stream data
EP0489583A2 (en) Multiple processor cache control system
JP2731742B2 (en) Parallel computer with cluster configuration
JPH10187631A (en) Extended symmetrical multiprocessor architecture
JPS63201851A (en) Storage control system
JPH11167522A (en) Data access method for information processor and semiconductor integrated circuit
US6282144B1 (en) Multi-ported memory with asynchronous and synchronous protocol
JP2813182B2 (en) Multiprocessor computer multifunction device
JP3764015B2 (en) Memory access method and multiprocessor system
US6349370B1 (en) Multiple bus shared memory parallel processor and processing method
US6032229A (en) Semiconductor memory device and information processor using the same
JP2002024007A (en) Processor system