JPH0869413A - Page history memory device - Google Patents

Page history memory device

Info

Publication number
JPH0869413A
JPH0869413A JP6204779A JP20477994A JPH0869413A JP H0869413 A JPH0869413 A JP H0869413A JP 6204779 A JP6204779 A JP 6204779A JP 20477994 A JP20477994 A JP 20477994A JP H0869413 A JPH0869413 A JP H0869413A
Authority
JP
Japan
Prior art keywords
page history
central processing
page
cache
history memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6204779A
Other languages
Japanese (ja)
Other versions
JP2641396B2 (en
Inventor
Midori Sugiya
みどり 杉矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Computertechno Ltd
Original Assignee
NEC Computertechno Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Computertechno Ltd filed Critical NEC Computertechno Ltd
Priority to JP6204779A priority Critical patent/JP2641396B2/en
Publication of JPH0869413A publication Critical patent/JPH0869413A/en
Application granted granted Critical
Publication of JP2641396B2 publication Critical patent/JP2641396B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To speed up page history memory access by a highly parallel multiprocessor system. CONSTITUTION: The highly parallel multiprocessor system wherein an MMU 1 and plural CPUs 2 are connected to a bidirectional bus 100 is provided with a page history memory 3 in the MMU 1 and page history memory caches (RCM cache) 6 in the respective CPUs 2. When an EPU 4 accesses the MMU 1, the MCU 5 of its system updates the RCM cache of the same system. When the EPU 4 makes a request to refer to page history information, its MCU 5 looks up its RCM cache and the request is outputted from a bus access part 53. An MCU 5 of another system, when receiving the request by the bus access part 53, locks up the RCM cache 6 and sends it out to the bus 100. The MCU 5 at the request source returns the OR of read data of all the RCM caches to the EPU 4 at the request source.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は高並列マルチプロセッサ
システムにおけるページ履歴メモリ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a page history memory device in a highly parallel multiprocessor system.

【0002】[0002]

【従来の技術】従来、この種の情報処理システムにおい
ては、たとえば特開平02−150939号に記載され
ているように、システムが複数系統の装置からなる場
合、メモリアクセス処理装置を含む系統毎にページ履歴
メモリを分散して所有する構成が用いられている。
2. Description of the Related Art Conventionally, in this type of information processing system, as described in Japanese Patent Application Laid-Open No. 02-150939, when the system is composed of a plurality of systems, each system including a memory access processing device is provided separately. A configuration in which the page history memory is distributed and owned is used.

【0003】図8は、このような従来のページ履歴メモ
リ装置の一例を示すブロック図である。第1系統の情報
処理装置は、演算処理装置(EPU)4rと、EPU4
rの主記憶装置へのメモリアクセス要求を受けて処理す
るメモリアクセス処理装置(MCU)5rと、主記憶装
置(MMU)1rを含んでいる。また、MCU5rには
ページ履歴メモリ(RCM)3rが接続されている。
FIG. 8 is a block diagram showing an example of such a conventional page history memory device. The first information processing apparatus includes an arithmetic processing unit (EPU) 4r and an EPU 4
It includes a memory access processing unit (MCU) 5r that receives and processes a memory access request to the main memory unit r, and a main memory unit (MMU) 1r. A page history memory (RCM) 3r is connected to the MCU 5r.

【0004】第2系統の情報処理装置についても全く同
一の構成であり、対応する構成要素に対しては同一の参
照番号に添字’s’を付して示している。主記憶装置1
r,1sは共に第1および第2系統の両系からのアクセ
スが可能である。このような構成において、EPU4r
からMMU1rまたは1sへアクセス要求があると、M
CU5rがこれを受け付け、要求内容に応じてMMU1
rまたは1sをアクセスする。
[0004] The information processing apparatus of the second system has exactly the same configuration. Corresponding components are denoted by the same reference numerals with the addition of the subscript 's'. Main memory 1
Both r and 1s can be accessed from both the first and second systems. In such a configuration, the EPU4r
From MMU1r or 1s to MMU1r or 1s, M
The CU 5r accepts this, and according to the request, the MMU 1
Access r or 1s.

【0005】RCM3rは、MMU1rおよび1sの各
ページに対応するアクセス情報、すなわち、ページが参
照されたことを示す参照ビットおよびページが更新され
たことを示す更新ビットをページ単位に保持するメモリ
である。MCU5rがMMU1rまたは1sのアクセス
要求を受け付けると、自系のRCM3rを更新する。同
様にしてMCU5s側の系においても、EPU4sのM
MU1rまたは1sのアクセス要求に対してMCU5s
がこれを処理すると共に、RCM3sを更新する。
The RCM 3r is a memory that holds access information corresponding to each page of the MMU 1r and 1s, that is, a reference bit indicating that the page has been referred to and an update bit indicating that the page has been updated in page units. . When the MCU 5r receives the access request of the MMU 1r or 1s, the RCM 3r of its own system is updated. Similarly, in the system on the MCU 5s side, the M
MCU5s for access request of MU1r or 1s
Processes this and updates the RCM 3s.

【0006】この場合、他系のメモリアクセス処理装置
におけるメモリアクセスは、自系のメモリアクセス処理
装置には判らないため、自系のページ履歴メモリの内容
は自系の演算処理装置の要求に対応したものとなり、両
系のページ履歴メモリの内容は互いに異なったものとな
る。
In this case, since the memory access processing device of the other system does not know the memory access by the memory access processing device of the own system, the content of the page history memory of the own system corresponds to the request of the arithmetic processing device of the own system. The contents of the page history memories of both systems are different from each other.

【0007】このようなページ履歴メモリ間のデータの
矛盾を回避するためにメモリアクセス処理装置が演算処
理装置からメモリアクセス要求を受け付けた場合は、自
系のページ履歴メモリを更新すると共に、他系のページ
履歴メモリも更新するよう、自系のメモリアクセス処理
装置から他系のメモリアクセス装置へ指示する。以上の
ようにして、情報処理システム内の分散したページ履歴
メモリの一致処理を行う。
When the memory access processing unit receives a memory access request from the arithmetic processing unit in order to avoid such data inconsistency between the page history memories, the page history memory of the own system is updated and the other system is updated. The own system memory access processing device instructs the other system memory access device to update the page history memory of the other system. As described above, the matching process of the distributed page history memories in the information processing system is performed.

【0008】[0008]

【発明が解決しようとする課題】この従来の構成におけ
るページ履歴メモリ装置では、系統数が少数の情報処理
システムにおいては上記のような方式でその一致性が保
証できるが、システムの系統数が増え高並列になると、
このような方式により一致保証では、他系のメモリアク
セスによるページ履歴メモリの更新回数が増大し、自系
のページ履歴メモリの更新ができなくなるため自系のメ
モリアクセスが待たされてしまう。結果として、処理性
能が低下するという欠点がある。
In the page history memory device having the conventional configuration, in an information processing system having a small number of systems, the consistency can be guaranteed by the above-described method, but the number of systems in the system increases. When it becomes highly parallel,
In the match assurance by such a method, the number of updates of the page history memory due to the access of the memory of the other system increases, and the update of the page history memory of the own system becomes impossible, so that the access of the memory of the own system is delayed. As a result, there is a disadvantage that the processing performance is reduced.

【0009】高並列のマルチプロセッサシステムにおい
ては、演算処理装置とメモリアクセス処理装置を含む中
央処理装置を一系統とし、複数の中央処理装置と主記憶
装置をバス接続するシステム構成が一般的である。この
システムにおいて主記憶装置は共有メモリであり、全系
統からメモリアクセスが可能である。
In a highly parallel multiprocessor system, a system configuration in which a central processing unit including an arithmetic processing unit and a memory access processing unit is provided as one system, and a plurality of central processing units and a main storage unit are connected by a bus is common. . In this system, the main storage device is a shared memory, and memory access is possible from all systems.

【0010】このような構成において、ページ履歴メモ
リは、システム内に単一に所有することも、各中央処理
装置で分散して所有することも可能であるが、前者の場
合は、中央処理装置間でページ履歴メモリのアクセス競
合を引き起こしてしまう。また、後者の場合、分散所有
しているページ履歴メモリのデータ一致保証が必要であ
る。
In such a configuration, the page history memory can be owned singly in the system or can be distributed and owned by each central processing unit. In the former case, however, the central processing unit This causes contention for access to the page history memory. In the latter case, it is necessary to guarantee the data agreement of the page history memories that are distributed and owned.

【0011】[0011]

【課題を解決するための手段】本発明の装置は、主記憶
装置と複数系統の中央処理装置とを有し、前記主記憶装
置と前記中央橇装置がバス接続されている仮想記憶方式
の情報処理システムにおけるページ履歴メモリ装置にお
いて、前記主記憶装置上のデータが参照されたかどうか
を示す情報およびデータが書換えられたかどうかを示す
情報をページ単位に管理するページ履歴メモリの情報の
一部を保持するページ履歴メモリキャッシュを前記中央
処理装置ごとに設け、また、メモリアクセスによるペー
ジ履歴情報更新時には、前記メモリアクセスの要求元で
ある前記中央処理装置内の前記ページ履歴メモリキャッ
シュの当該データの更新を行う手段と、ページ履歴情報
参照要求時には、前記ページ履歴メモリキャッシュの当
該データを読み出す手段と、前記中央処理装置がバスに
前記ページ履歴情報参照要求を送出する手段と、前記中
央処理装置がバス上の前記ページ履歴情報参照要求を受
け取る手段と、前記ページ履歴情報参照要求時に全ての
前記ページ履歴メモリキャッシュのリードデータからペ
ージ履歴情報を生成する手段とを設けたことを特徴とす
る。
An apparatus according to the present invention has a main storage device and a plurality of systems of central processing units, and information of a virtual storage system in which the main storage device and the central sled unit are bus-connected. The page history memory device in the processing system holds a part of the information of the page history memory that manages the information indicating whether the data in the main storage device is referenced and the information indicating whether the data is rewritten in page units. A page history memory cache is provided for each central processing unit, and at the time of updating the page history information by memory access, updating of the data in the page history memory cache in the central processing unit that is the request source of the memory access is performed. And means for reading the data in the page history memory cache when requesting page history information reference. Means, means for sending the page history information reference request to the bus by the central processing unit, means for receiving the page history information reference request on the bus by the central processing unit, and all of the page history information reference requests on the bus A means for generating page history information from the read data of the page history memory cache is provided.

【0012】[0012]

【実施例】以下、図面を用いて本発明の実施例について
説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1(A)に本発明の第1の実施例のシス
テムブロック図を示す。本実施例のシステムは、1つの
メインメモリ(以下、MMUと記す)と複数の中央処理
装置(以下、CPUと記す)とがバス接続されている仮
想記憶方式の高並列マルチプロセッサシステムである。
FIG. 1A shows a system block diagram of a first embodiment of the present invention. The system of this embodiment is a virtual memory highly parallel multiprocessor system in which one main memory (hereinafter, referred to as MMU) and a plurality of central processing units (hereinafter, referred to as CPU) are bus-connected.

【0014】図1(A)を参照すると、本システムは、
MMU1と3つのCPU2a,2b,2cとが全て双方
向バス100に接続されており、また、MMU1内部に
はページ履歴メモリ(以下、RCMと記す)3が設置さ
れている。RCM3は、MMU1上のページ単位のアク
セス履歴情報を保持しており、このアクセス履歴情報
は、ページを参照したかどうかを示す参照ビット(以
下、Rビット)と、ページを更新したかを示す(Cビッ
ト)とからなる。
Referring to FIG. 1A, the present system comprises:
The MMU 1 and the three CPUs 2a, 2b, 2c are all connected to the bidirectional bus 100, and a page history memory (hereinafter referred to as RCM) 3 is installed inside the MMU 1. The RCM 3 holds page-by-page access history information on the MMU 1, and the access history information indicates a reference bit (hereinafter, R bit) indicating whether or not a page has been referenced, and whether the page has been updated ( C bits).

【0015】第1系統であるCPU2aは、演算処理装
置(以下、EPUと記す)4aと、EPU4aからのメ
モリアクセスを処理するメモリアクセス処理装置(以
下、MCUと記す)5aと、RCM3の内容の一部を保
持するページ履歴メモリキャッシュ(以下、RCMキャ
ッシュ)6aとを含んでいる。
The CPU 2a, which is a first system, includes an arithmetic processing unit (hereinafter, referred to as EPU) 4a, a memory access processing unit (hereinafter, referred to as MCU) 5a for processing memory access from the EPU 4a, and the contents of the RCM 3. And a page history memory cache (hereinafter, RCM cache) 6a for holding a part thereof.

【0016】第2、3系統のCPU2b,2cについて
も全く同一の構成であり、各構成要素に対して添字’
b’、’c’を付して示している。以下、CPU2a,
2b,2c等を総称するときはCPU2等と記す。
The CPUs 2b and 2c of the second and third systems have exactly the same configuration.
b 'and' c 'are added. Hereinafter, the CPU 2a,
When generically referring to 2b, 2c, etc., they are referred to as CPU2, etc.

【0017】CPU2aには、MCU5aがEPU4a
からMMU1へのアクセス要求を受け付けると、自系の
RCMキャッシュ6aを更新する機能を備えている。ま
た、MCU5aがEPU4aからあるページに対応する
ページ履歴情報の更新要求(RCセットリクエスト)を
受け付けると、RCM3およびシステム内全てのRCM
キャッシュの当該エントリを更新する機能を備え、MC
U5aがEPU4aからあるページに対応するページ履
歴情報参照要求(RCリードリクエスト)を受け付ける
とシステム内全てのRCMキャッシュの当該エントリを
読出し、結果を要求元のEPU4aに返却する機能と、
MMU1内のRCM3の内容を要求元のEPU4aに読
出す機能とを備えている。
The CPU 2a has an MCU 5a and an EPU 4a.
When an access request to the MMU 1 is received from the server, a function of updating the RCM cache 6a of the own system is provided. When the MCU 5a receives a page history information update request (RC set request) corresponding to a certain page from the EPU 4a, the RCM 3 and all RCMs in the system receive the request.
A function to update the relevant entry in the cache
When U5a receives a page history information reference request (RC read request) corresponding to a certain page from EPU4a, the U5a reads the corresponding entries of all RCM caches in the system, and returns the result to EPU4a of the request source;
It has a function of reading out the contents of the RCM 3 in the MMU 1 to the requesting EPU 4a.

【0018】図1(B)はMCU5の構成図である。以
下にMCU5の構成を図1(B)を参照して説明する。
FIG. 1B is a block diagram of the MCU 5. The configuration of the MCU 5 will be described below with reference to FIG.

【0019】MCU5は、リクエスト受付部51とリプ
ライ制御部52でEPU4とインタフェースを持ち、ま
たバスアクセス部53で接続線101を介して双方向バ
ス100にリクエストやデータを入出力できる。双方向
バス100の入出力方向はバス入出力制御回路102で
制御されている。
The MCU 5 has an interface with the EPU 4 through a request receiving section 51 and a reply control section 52, and a bus access section 53 can input / output requests and data to / from the bidirectional bus 100 via the connection line 101. The input / output direction of the bidirectional bus 100 is controlled by the bus input / output control circuit 102.

【0020】リクエスト受付部51は、RCリードリク
エスト受け付けると、RCMキャッシュン6を索引す
る。RCMキャッシュ出力制御部54は索引結果に従
い、キャッシュンヒットであればキャッシュのリードデ
ータをそのまま出力し、キャッシュミスヒットであれば
R=0、C=0を、RCMキャッシュ6のリードデータ
として出力する。RCMキャッシュ出力制御部54の出
力はリプライ制御部52またはバスアクセス部53に送
信される。
Upon receiving the RC read request, the request receiving unit 51 indexes the RCM cache 6. According to the index result, the RCM cache output control unit 54 outputs the read data of the cache as it is in the case of a cache hit, and outputs R = 0 and C = 0 as the read data of the RCM cache 6 in the case of a cache miss. . The output of the RCM cache output control unit 54 is transmitted to the reply control unit 52 or the bus access unit 53.

【0021】バスアクセス部53は、リクエスト受付部
51がRCリードリクエストを受け付けると、このリク
エストをリクエスト受付部51から受け取り、他系のR
CMキャッシュの当該データを採取するために双方向バ
ス100にRCリードリクエストを発行する。さらにバ
スアクセス部53は、このリクエストに対して他系CP
UがRCMキャッシュリードデータをバスに送出する
と、これらを採取しリプライ制御部52に送信する。
When the request receiving unit 51 receives the RC read request, the bus access unit 53 receives the request from the request receiving unit 51 and
An RC read request is issued to the bidirectional bus 100 in order to collect the data in the CM cache. Further, the bus access unit 53 responds to this request by the CP of another system.
When U sends the RCM cache read data to the bus, it collects these and sends them to the reply control unit 52.

【0022】バスアクセス部53がRCMキャッシュ出
力制御部54からデータを受信するのは、リクエスト受
付部51がバスアクセス部53から他系のRCリードデ
ータリクエストを受け付けて、RCMキャッシュ6の読
出しを行ったときであり、RCMキャッシュ6のリード
データはリクエスト元のCPUに向けて双方向バス10
0に送出される。リプライ制御部52は自系RCMキャ
ッシュのリードデータを保持しており、バスアクセス部
53を介して他系からリードデータが返却されると、こ
の返却データと保持データとの論理和を取りリード結果
としてEPU4に返却する。
The bus access unit 53 receives data from the RCM cache output control unit 54 because the request receiving unit 51 receives an RC read data request of another system from the bus access unit 53 and reads the RCM cache 6. The read data of the RCM cache 6 is sent to the bidirectional bus 10 toward the requesting CPU.
Sent to 0. The reply control unit 52 holds the read data of the own system RCM cache, and when the read data is returned from the other system via the bus access unit 53, a logical sum of the returned data and the held data is taken and the read result is obtained. Will be returned to EPU4.

【0023】図2は、MCU5a,5b,5cの動作を
示したタイミングチャートの一例である。図2におい
て、(ィ)〜(ホ)はMCU5a内の動作を示し、
(ヘ)〜(リ)はMCU5b内の動作を示し、(ヌ)〜
(ワ)はMCU5c内の動作を示す。
FIG. 2 is an example of a timing chart showing the operation of the MCUs 5a, 5b, 5c. In FIG. 2, (a) to (e) show operations in the MCU 5a,
(F) to (R) show the operation inside the MCU 5b, and (N) to
(W) shows the operation in the MCU 5c.

【0024】図3は、図2を説明するためのMCU5の
詳細なブロック図である。以下に、図2および図3を参
照して、MCU5a,5b,5cの動作を詳細に説明す
る。
FIG. 3 is a detailed block diagram of the MCU 5 for explaining FIG. The operation of the MCUs 5a, 5b, 5c will be described in detail below with reference to FIGS. 2 and 3.

【0025】タイミングT0において、CPU2a内の
リクエスト受付レジスタ(RQRR)11aに自系EP
U4aからのRCリードリクエストが受け付けられる
と、自系RCMキャッシュ6aが読み出される。キャッ
シュがミスヒットであるならば、データ’00’がタイ
ミングT1でRCMキャッシュリードレジスタ(RCR
R)12aにセットされ、タイミングT2でリプライデ
ータレジスタ(RPDR)13aにデータ’00’が保
持される。
At a timing T0, a request reception register (RQRR) 11a in the CPU 2a is stored in its own EP.
When the RC read request from U4a is accepted, the own system RCM cache 6a is read. If the cache is a mishit, the data '00' becomes the RCM cache read register (RCR
R) 12a and the data '00' is held in the reply data register (RPDR) 13a at timing T2.

【0026】また、タイミングT1では、RQRR11
aから他系リクエスト創出レジスタ(ARQS)14a
に他系RCリードリクエストがセットされ、双方向バス
100に送出される。双方向バス100上のRCリード
リクエストは、次のタイミングT2で他系CPU2b,
2cの他系リクエスト受付レジスタ(ARQR)15
b,15cで受け付けられ、タイミングT3でRQRR
11b,11cにセットされる。RQRR11b,11
cにセットされた他系RCリードリクエストによってR
CMキャッシュ6b,6cがそれぞれが索引される。
At timing T1, RQRR11
a to other system request creation register (ARQS) 14a
The other system RC read request is set to and sent to the bidirectional bus 100. At the next timing T2, the RC read request on the bidirectional bus 100 is
2c Other system request reception register (ARQR) 15
b, 15c, RQRR at timing T3
11b and 11c are set. RQRR11b, 11
R by the other system RC read request set to c
Each of the CM caches 6b and 6c is indexed.

【0027】ここでCPU2bではキャッシュがヒット
し、リードデータが’10’であるならば、タイミング
4でRCRR12bにデータ’10’がセットされ、タ
イミングT5で他系リプライ送出レジスタ(ARPS)
16bにセットされる。また、CPU2cではキャッシ
ュがヒットし、リードデータが’11’であるならば、
タイミングT4でRCRR12cにデータ’11’がセ
ット出力され、タイミングT5で他系リプライ送出レジ
スタ(ARPS)16cにセットされる。
If the cache hits in the CPU 2b and the read data is "10", the data "10" is set in the RCRR 12b at timing 4, and the other system reply transmission register (ARPS) is set at timing T5.
16b is set. If the cache hits in the CPU 2c and the read data is "11",
Data “11” is set and output to the RCRR 12c at the timing T4, and is set to the other-system reply transmission register (ARPS) 16c at the timing T5.

【0028】CPU2b,2cではタイミングT5でA
RPS16b,16cにデータがセットされると双方向
バス100をアクセスする。いまCPU2bがバスを獲
得すると、ARPS16bのデータ’10’がバスに送
出されタイミングT6で要求元CPU2aの他系リプラ
イ受付レジスタ(ARPR)17aで採取され、T2か
ら保持されていたRPDR13aのデータ’00’とオ
ア回路10aにおいて論理和が取られる。次のタイミン
グT7で論理演算のデータ結果’10’が再びRPDR
13aで保持される。
In the CPUs 2b and 2c, A is set at timing T5.
When data is set in the RPSs 16b and 16c, the bidirectional bus 100 is accessed. Now, when the CPU 2b acquires the bus, the data '10' of the ARPS 16b is sent out to the bus, collected at timing T6 by the other system reply reception register (ARPR) 17a of the requesting CPU 2a, and the data '00 of the RPDR 13a held from T2. And OR in the OR circuit 10a. At the next timing T7, the data result “10” of the logical operation is changed to the RPDR again.
It is held by 13a.

【0029】一方、タイミングT5で双方向バス100
が獲得できなかったCPU2cのARPS16cは双方
向バス100を獲得するまでそのままデータ’11’を
保持し続ける。タイミングT6でCPU2cが双方向バ
ス100を獲得すると、タイミングT7でARPR17
aに’11’がセットされ、RPDR12aのデータ’
10’とオア回路10aにおいて論理和が取られる。タ
イミングT8でRPDR13aに論理和結果データ’1
1’がセットされる。
On the other hand, at timing T5, the bidirectional bus 100
The ARPS 16c of the CPU 2c, which has not been acquired, keeps holding the data '11' until it acquires the bidirectional bus 100. When the CPU 2c acquires the bidirectional bus 100 at the timing T6, the ARPR17 at the timing T7.
'11' is set in a and the data of RPDR12a '
The logical sum of 10 'and the OR circuit 10a is obtained. At timing T8, the logical sum result data '1 is stored in the RPDR 13a.
1 'is set.

【0030】以上のようにして、RCリードリクエスト
時には、ハードウェアによって全てのRCMキャッシュ
の当該データの論理和をとり、これをリクエスト元のE
PU4に返却し、ファームウェア処理によりMCU5か
らの返却データとRCMから読出した当該データとの論
理和をとってページ履歴情報の参照結果とするのであ
る。
As described above, at the time of the RC read request, the logical sum of the data of all the RCM caches is taken by the hardware, and this is the E of the request source.
The data is returned to the PU 4 and, by the firmware processing, the return data from the MCU 5 and the data read from the RCM are ORed to obtain the reference result of the page history information.

【0031】図4(A)に本発明の第2の実施例のシス
テムブロック図を示す。本実施例のシステムは、基本的
には第1の実施例と同構成であるが、CPU2a,2
b,2cが接続線200によりワイアード・オア接続さ
れた構成となっている。またMCU5は接続線200と
の入出力が可能であり、MCU5から接続線200への
出力はスイッチ回路201で制御されている。
FIG. 4A shows a system block diagram of the second embodiment of the present invention. The system of this embodiment basically has the same configuration as that of the first embodiment, but the CPUs 2a, 2
b and 2c are connected by a wire or OR by a connecting line 200. Further, the MCU 5 can input / output to / from the connection line 200, and the output from the MCU 5 to the connection line 200 is controlled by the switch circuit 201.

【0032】リクエスト受付部51は、RCリードリク
エスト受け付けると、RCMキャッシュ6を索引する。
RCMキャッシュ出力制御部54では索引結果に従い、
キャッシュヒットであればキャッシュのリードデータを
そのまま出力し、キャッシュミスヒットであればR=
0、C=0を、RCMキャッシュ6のリードデータとし
て出力する。このリードデータはスイッチ回路201に
出力される。
Upon receiving the RC read request, the request receiving unit 51 indexes the RCM cache 6.
In the RCM cache output control unit 54, according to the index result,
If there is a cache hit, the read data from the cache is output as is, and if there is a cache miss, R =
0 and C = 0 are output as read data of the RCM cache 6. This read data is output to the switch circuit 201.

【0033】バスアクセス部53は、リクエスト受付部
51がRCリードリクエストを受け付けると、このリク
エストをリクエスト受付部51から受け取り、全RCM
キャッシュの当該データを採取するために双方向バス1
00にRCリードリクエストを発行する機能と、双方向
バス100上のRCリードリクエストを採取しリクエス
ト受付部51にこのリクエストを送信する機能とを備え
ている。リプライ制御部52は、接続線200上におけ
る全RCMキャッシュリードデータの論理演算結果を受
け取り、データ結果としてEPU4に返却する。
When the request receiving unit 51 receives the RC read request, the bus access unit 53 receives this request from the request receiving unit 51, and receives all RCMs.
Bidirectional bus 1 to retrieve the relevant data in the cache
A function of issuing an RC read request at 00 and a function of collecting an RC read request on the bidirectional bus 100 and transmitting the request to the request receiving unit 51 are provided. The reply control unit 52 receives the logical operation result of all the RCM cache read data on the connection line 200 and returns the result to the EPU 4 as a data result.

【0034】図5は、MCU5a,5b,5cの動作を
示したタイミングチャートの一例である。図5におい
て、(A)〜(E)はMCU5a内の動作を示し(F)
〜(H)はMCU5b内の動作を示し、(I)〜(K)
はMCU5c内の動作を示す。
FIG. 5 is an example of a timing chart showing the operation of the MCUs 5a, 5b, 5c. In FIG. 5, (A) to (E) show operations in the MCU 5a (F).
~ (H) shows the operation in the MCU 5b, (I) ~ (K)
Shows the operation in the MCU 5c.

【0035】図6は、図5を説明するためのMCU5の
詳細なブロック図である。以下に、図5および図6を参
照して、MCU5a,5b,5cの動作を詳細に説明す
る。
FIG. 6 is a detailed block diagram of the MCU 5 for explaining FIG. Hereinafter, the operations of the MCUs 5a, 5b, 5c will be described in detail with reference to FIGS.

【0036】タイミングT0において、CPU2a内の
リクエスト受付レジスタ(RQRR)11aに自系EP
U4aからのRCリードリクエストが受け付けられる
と、タイミングT1でリクエストバス送出レジスタ(R
QBS)18aにセットされ、双方向バス100にRC
リードリクエストが送出される。
At timing T0, the request reception register (RQRR) 11a in the CPU 2a
When the RC read request from U4a is accepted, the request bus transmission register (R
QBS) 18a, RC on bidirectional bus 100
A read request is sent.

【0037】タイミングT2において全CPU2a,2
b,2c内のリクエストバス受付レジスタ(RQBR)
19a,19b,19cで双方向バス100上のRCリ
ードリクエストを一斉に受け取り、タイミングT3でR
QRR11a,11b,11cにセットする。CPU2
a,2b,2cではそれぞれ同時にRCMキャッシュ6
a,6b,6cを索引する。
At timing T2, all CPUs 2a, 2a
Request bus reception register (RQBR) in b and 2c
The RC read requests on the bidirectional bus 100 are received at the same time at 19a, 19b, and 19c.
Set in QRRs 11a, 11b, 11c. CPU2
In a, 2b, and 2c, the RCM cache 6
Index a, 6b, 6c.

【0038】キャッシュ6aの索引結果がヒットである
ならば、タイミングT4で読出しデータの’10’がR
CMキャッシュリードレジスタ(RCRR)12aにセ
ットされる。キャッシュ5bの索引結果がヒットである
ならば、タイミングT4で読出しデータの’10’がR
CMキャッシュリードレジスタ(RCRR)12bにセ
ットされる。キャッシュ5cの索引結果がミスヒットで
あるならば、タイミングT4で’00’がRCMキャッ
シュリードレジスタ(RCRR)12cにセットされ
る。このようにタイミングT4で全CPUにおいてリー
ドデータがセットされるとスイッチ回路201に一斉に
出力され、接続線200上で論理和演算 ’10’+’10’+’00’=’10’ が行われる。タイミングT5で演算結果がCPU2a内
のリプライデータレジスタ(RPDR)13aにセット
される。
If the index result of the cache 6a is a hit, the read data "10" becomes R at timing T4.
The CM cache read register (RCRR) 12a is set. If the index result of the cache 5b is a hit, the read data '10' is R at timing T4.
It is set in the CM cache read register (RCRR) 12b. If the index result of the cache 5c is a mishit, '00' is set in the RCM cache read register (RCRR) 12c at timing T4. In this way, when the read data is set in all CPUs at the timing T4, it is output to the switch circuits 201 all at once, and the logical sum operation "10" + "10" + "00" = "10" is performed on the connection line 200. Be seen. At timing T5, the calculation result is set in the reply data register (RPDR) 13a in the CPU 2a.

【0039】以上のようにして、RCリードリクエスト
時には、ハードウェアによって全てのRCMキャッシュ
の当該データの論理和をとり、これをリクエスト元のE
PU4に返却し、ファームウェア処理によりMCU5か
らの返却データとRCMから読出した当該データとの論
理和をとってページ履歴情報の参照結果とするのであ
る。
As described above, at the time of the RC read request, the logical sum of the data of all the RCM caches is taken by the hardware, and this is the E of the request source.
The data is returned to the PU 4 and, by the firmware processing, the return data from the MCU 5 and the data read from the RCM are ORed to obtain the reference result of the page history information.

【0040】図7は、スイッチ回路201a,b,cの
回路図を示す。本図により、更に詳細な動作の説明を行
なう。
FIG. 7 shows a circuit diagram of the switch circuits 201a, 201b, 201c. The operation will be described in more detail with reference to FIG.

【0041】接続線200は、抵抗器203を介して論
理値’1’にプルアップされている。また、接続線20
0には、スイッチ回路201a,b,cが接続されてい
る。スイッチ回路201a,b,cはN型MOSトラン
ジスタによるオープン・ドレイン回路である。スイッチ
回路201a,b,c内のN型MOSトランジスタには
MCU5a,b,cからの出力がそれぞれ入力される。
The connection line 200 is pulled up to a logical value "1" via a resistor 203. Also, the connection line 20
To 0, switch circuits 201a, 201b, 201c are connected. The switch circuits 201a, 201b, 201c are open-drain circuits formed by N-type MOS transistors. The outputs from the MCUs 5a, b, c are input to the N-type MOS transistors in the switch circuits 201a, b, c, respectively.

【0042】N型MOSトランジスタは入力が’1’な
らばスイッチON、’0’ならばスイッチOFFの状態
になる。したがって、スイッチ回路201a,b,cへ
の入力がどれも’0’ならば接続線200の状態は’
1’であり、1つでも’1’の入力があれば接続線20
0の状態は’0’になる。このようにして、接続線20
0上では全てのMCUからの出力のNOR論理を取るこ
とができる。
The N-type MOS transistor is turned on when the input is "1", and turned off when the input is "0". Therefore, if all the inputs to the switch circuits 201a, 201b, 201c are "0", the state of the connecting line 200 is "0".
1 ”, and if there is at least one“ 1 ”input, connection line 20
The state of 0 becomes '0'. In this way, the connecting line 20
On 0, NOR logic of outputs from all MCUs can be taken.

【0043】MCU5a,5b,5cでは、接続線20
0からの入力部にインバータ202a,202b,20
2cをそれぞれ挿入することにより、各RCMキャッシ
ュリードデータのORが得られる。
In the MCUs 5a, 5b, 5c, the connection line 20
Inverters 202a, 202b, 20
By inserting 2c, OR of each RCM cache read data is obtained.

【0044】[0044]

【発明の効果】以上説明したように、本発明によるペー
ジ履歴メモリ装置は、バス結合構成の高並列マルチプロ
セッサシステムにおいて、ページ履歴メモリ参照時に全
てのページ履歴メモリ情報を読出し、論理和を取ること
でその一致性を保証したページ履歴メモリキャッシュを
中央処理装置ごとに設けることにより、ページ履歴メモ
リアクセスを高速化し、ページングをオーバーヘッドを
無くし、システム性能の向上がはられる、という効果を
もたらす。
As described above, in the page history memory device according to the present invention, in a highly parallel multiprocessor system having a bus coupling structure, all page history memory information is read out and ORed when referring to the page history memory. By providing a page history memory cache that guarantees the consistency in each central processing unit, there is an effect that the page history memory access is speeded up, paging overhead is eliminated, and system performance is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】(A)は、本発明によるページ履歴メモリ装置
の第1の実施例を示すブロック図である。(B)は、第
1の実施例のページ履歴メモリ装置を実現するためのメ
モリアクセス処理装置を示すブロック図である。
FIG. 1A is a block diagram showing a first embodiment of a page history memory device according to the present invention. FIG. 2B is a block diagram showing a memory access processing device for realizing the page history memory device of the first embodiment.

【図2】第1の実施例におけるメモリアクセス処理装置
の動作を示すタイミングチャートである。
FIG. 2 is a timing chart illustrating an operation of the memory access processing device according to the first embodiment.

【図3】第1の実施例におけるメモリアクセス処理装置
の詳細なブロック図である。
FIG. 3 is a detailed block diagram of a memory access processing device according to the first embodiment.

【図4】(A)は、 本発明によるページ履歴メモリ装
置の第2の実施例を示すブロック図である。(B)は、
第2の実施例のページ履歴メモリ装置を実現するための
メモリアクセス処理装置を示すブロック図である。
FIG. 4A is a block diagram showing a second embodiment of the page history memory device according to the present invention. (B)
FIG. 11 is a block diagram illustrating a memory access processing device for realizing the page history memory device according to the second embodiment.

【図5】第2の実施例におけるメモリアクセス処理装置
の動作を示すタイミングチャートである。
FIG. 5 is a timing chart illustrating an operation of the memory access processing device according to the second embodiment.

【図6】第2の実施例におけるメモリアクセス処理装置
の詳細なブロック図である。
FIG. 6 is a detailed block diagram of a memory access processing device according to a second embodiment.

【図7】第2の実施例におけるワイアード・オア接続を
示す回路図である。
FIG. 7 is a circuit diagram showing wired-OR connection in the second embodiment.

【図8】従来技術の一例を示すブロック図である。FIG. 8 is a block diagram showing an example of a conventional technique.

【符号の説明】[Explanation of symbols]

1 メインメモリ 2 中央処理装置 3 ページ履歴メモリ 4 演算処理装置 5 メモリアクセス処理装置 6 RCMキャッシュ 51 リクエスト受付部 52 リプライ制御部 53 バスアクセス部 54 RCMキャッシュ出力制御部 100 双方向バス 101 接続線 102 バス入出力制御回路 200 接続線 201 スイッチ回路。 1 main memory 2 central processing unit 3 page history memory 4 arithmetic processing unit 5 memory access processing unit 6 RCM cache 51 request acceptance unit 52 reply control unit 53 bus access unit 54 RCM cache output control unit 100 bidirectional bus 101 connection line 102 bus Input / output control circuit 200 Connection line 201 Switch circuit.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 主記憶装置と複数系統の中央処理装置と
を有し、前記主記憶装置と前記中央橇装置がバス接続さ
れている仮想記憶方式の情報処理システムにおけるペー
ジ履歴メモリ装置において、 前記主記憶装置上のデータが参照されたかどうかを示す
情報およびデータが書換えられたかどうかを示す情報を
ページ単位に管理するページ履歴メモリの情報の一部を
保持するページ履歴メモリキャッシュを前記中央処理装
置ごとに設け、 また、メモリアクセスによるページ履歴情報更新時に
は、前記メモリアクセスの要求元である前記中央処理装
置内の前記ページ履歴メモリキャッシュの当該データの
更新を行う手段と、 ページ履歴情報参照要求時には、前記ページ履歴メモリ
キャッシュの当該データを読み出す手段と、 前記中央処理装置がバスに前記ページ履歴情報参照要求
を送出する手段と、 前記中央処理装置がバス上の前記ページ履歴情報参照要
求を受け取る手段と、 前記ページ履歴情報参照要求時に全ての前記ページ履歴
メモリキャッシュのリードデータからページ履歴情報を
生成する手段とを設けたことを特徴とするページ履歴メ
モリ装置。
1. A page history memory device in a virtual memory type information processing system, comprising: a main memory device and a plurality of systems of central processing units, wherein the main memory device and the central sled device are bus-connected. The central processing unit includes a page history memory cache that holds a part of the information of the page history memory that manages information indicating whether the data in the main storage device is referenced and information indicating whether the data is rewritten in page units. Further, when updating the page history information by memory access, a means for updating the data of the page history memory cache in the central processing unit that is the requester of the memory access, and a page history information reference request Means for reading the data in the page history memory cache, and the central processing unit Means for sending the page history information reference request to the host, means for the central processing unit receiving the page history information reference request on the bus, and read data of all the page history memory caches at the time of the page history information reference request. Means for generating page history information from a page history memory device.
【請求項2】 前記ページ履歴情報を生成する手段が、 前記中央処理装置が前記ページ履歴メモリキャッシュの
リードデータを前記バスに送出する手段と、 前記中央処理装置がバス上の前記ページ履歴メモリキャ
ッシュリードデータを受け取る手段と、 前記中央処理装置がバスから受け取った全ての前記ペー
ジ履歴メモリキャッシュリードデータの論理和を取る手
段とにより構成される請求項1記載のページ履歴メモリ
装置。
2. A means for generating the page history information, a means for the central processing unit to send read data of the page history memory cache to the bus, and the central processing device for the page history memory cache on the bus. 2. The page history memory device according to claim 1, comprising means for receiving read data, and means for taking the logical sum of all the page history memory cache read data received by the central processing unit from the bus.
【請求項3】 前記ページ履歴情報を生成する手段が、 全ての前記中央処理装置をワイアード・オア接続してい
る接続線と、 前記中央処理装置が前記ページ履歴メモリキャッシュの
リードデータを前記接続線に送出する手段と、 前記中央処理装置が前記接続線から、ワイアード・オア
されたページ履歴情報を受け取る手段とにより構成され
る請求項1記載のページ履歴メモリ装置。
3. A connection line for generating page history information, wherein the central processing unit connects all the central processing units by wired or, and the central processing unit transfers read data of the page history memory cache to the connection line. 2. The page history memory device according to claim 1, further comprising: means for sending to the central processing unit, and means for the central processing unit to receive wired or OR page history information from the connection line.
JP6204779A 1994-08-30 1994-08-30 Page history memory device Expired - Fee Related JP2641396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6204779A JP2641396B2 (en) 1994-08-30 1994-08-30 Page history memory device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6204779A JP2641396B2 (en) 1994-08-30 1994-08-30 Page history memory device

Publications (2)

Publication Number Publication Date
JPH0869413A true JPH0869413A (en) 1996-03-12
JP2641396B2 JP2641396B2 (en) 1997-08-13

Family

ID=16496214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6204779A Expired - Fee Related JP2641396B2 (en) 1994-08-30 1994-08-30 Page history memory device

Country Status (1)

Country Link
JP (1) JP2641396B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050228A (en) * 2012-05-30 2014-03-17 Cyberpower Systems Inc Charging converter

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02150939A (en) * 1988-12-01 1990-06-11 Nec Corp Processing system for page history memory
JPH02166539A (en) * 1988-12-05 1990-06-27 Internatl Business Mach Corp <Ibm> Cash line withdrawal
JPH02186456A (en) * 1989-01-13 1990-07-20 Nippon I B M Kk System and method for controlling cache of multiprocessor system
JPH03147153A (en) * 1989-11-02 1991-06-24 Nec Corp Cache memory device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02150939A (en) * 1988-12-01 1990-06-11 Nec Corp Processing system for page history memory
JPH02166539A (en) * 1988-12-05 1990-06-27 Internatl Business Mach Corp <Ibm> Cash line withdrawal
JPH02186456A (en) * 1989-01-13 1990-07-20 Nippon I B M Kk System and method for controlling cache of multiprocessor system
JPH03147153A (en) * 1989-11-02 1991-06-24 Nec Corp Cache memory device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050228A (en) * 2012-05-30 2014-03-17 Cyberpower Systems Inc Charging converter

Also Published As

Publication number Publication date
JP2641396B2 (en) 1997-08-13

Similar Documents

Publication Publication Date Title
US6289419B1 (en) Consistency control device merging updated memory blocks
US5394555A (en) Multi-node cluster computer system incorporating an external coherency unit at each node to insure integrity of information stored in a shared, distributed memory
US5113510A (en) Method and apparatus for operating a cache memory in a multi-processor
US5623632A (en) System and method for improving multilevel cache performance in a multiprocessing system
US7469321B2 (en) Software process migration between coherency regions without cache purges
EP0258559B1 (en) Cache memory coherency control provided with a read in progress indicating memory
US6760786B2 (en) Multiprocessing system configured to perform efficient block copy operations
US5749095A (en) Multiprocessing system configured to perform efficient write operations
US6351795B1 (en) Selective address translation in coherent memory replication
RU2220444C2 (en) Computer system and method for data transmission in computer system
JP2819982B2 (en) Multiprocessor system with cache match guarantee function that can specify range
JP3470951B2 (en) Non-uniform memory access computer system and method of operation thereof
EP0009938A1 (en) Computing systems having high-speed cache memories
US5559987A (en) Method and apparatus for updating a duplicate tag status in a snoop bus protocol based computer system
JPH07253928A (en) Duplex cache snoop mechanism
US7174430B1 (en) Bandwidth reduction technique using cache-to-cache transfer prediction in a snooping-based cache-coherent cluster of multiprocessing nodes
US5675765A (en) Cache memory system with independently accessible subdivided cache tag arrays
US5765195A (en) Method for distributing interprocessor interrupt requests via cache memory coherency mechanisms
EP0439325B1 (en) Cache coherence in logical caches
US6076147A (en) Non-inclusive cache system using pipelined snoop bus
GB2386441A (en) Bus interface selection by page table attributes
JP2641396B2 (en) Page history memory device
US6061766A (en) Non-inclusive cache method using pipelined snoop bus
JP2001092801A (en) Multiprocessor device
JPH09311820A (en) Multiprocessor system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970311

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees