JPS58140863A - マルチプロセサシステム - Google Patents

マルチプロセサシステム

Info

Publication number
JPS58140863A
JPS58140863A JP2377082A JP2377082A JPS58140863A JP S58140863 A JPS58140863 A JP S58140863A JP 2377082 A JP2377082 A JP 2377082A JP 2377082 A JP2377082 A JP 2377082A JP S58140863 A JPS58140863 A JP S58140863A
Authority
JP
Japan
Prior art keywords
memory
address
segment
cpu
bus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2377082A
Other languages
English (en)
Inventor
Kenichi Onishi
謙一 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Tateisi Electronics Co
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tateisi Electronics Co, Omron Tateisi Electronics Co filed Critical Tateisi Electronics Co
Priority to JP2377082A priority Critical patent/JPS58140863A/ja
Publication of JPS58140863A publication Critical patent/JPS58140863A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus
    • G06F13/28Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 この発明は、マルチプロセサシステムに関し、特にたと
えば1つのメモリを複数の演算処理装置(たとえばcp
u>て共用するようなマルチプロセサシステムに閤する
1つのメtりをI做のCPUでハ用fるようなマルチプ
ロセサシステムが従来あった。一般に、マルチプロセサ
システムでは、複数のCPLJが並行してデータ処理を
行なうため、1つのメモリを複数のCPUで共用するよ
うなマルチプロセサシステムでは各CPUの作業領域が
共用メモリの中で予め同定的に割当てられている。しか
し、並行して行なうデータ処W量が各CPUで常に変化
するような場合、共用メモリに割当てられる作業領域は
最大のデータ処理−を予め見込んで割当てなければなら
ない、そのため、共用メモリの使用動帯が低下するとい
う欠点があった。
上述のような欠点を群間するために、CPUが作業を開
始するときにそのCPUに対し共用メモリの作業領域の
割当てを行ない、そのCPUが作業を完了すると割当て
をWIIすることが考えられる。しかし、共用メモリに
おいて既に他のCPUに対し既に割当てられている領域
がある場合、新たに割当てを要求するCPUが必要とす
るメモリの記憶領域が大きければ、そのCPUに対し連
続したアドレスで共用メモリの記憶領域を割当てること
ができなくなる。すなわち、そのときCPUにIlwA
てられる記憶領域は共用メモリの中で連続しておらず、
いくつかの部分に分割されたものとなる。このような分
割された記憶領域が割当てられた場合、CPUは使用す
る記憶領域が分割されていることを認識しながら作業を
行なわなければならず、共用メモリのアクセス処理が非
常に複雑となる。そのため、CPUのオーバヘッドが増
大し、地層時−が長くなるという欠点があった。
それゆえに、この発明の主たる目的は、共用メモリの記
憶領域が効率的に使用できるとともに、アクセスのため
の処理時間が短くて済むようなマルチプロセサシステム
を提供することである。
この発明は、要約すれば、1つのメモリを複数の演算処
S@Wで共用するようなマルチプロセサシステムにおい
て、演算処1@瞳が共用メモリの記憶領域を指定するた
めに連続的なアドレスを出力したとき、共用メモリの記
憶領域のうち使用されていない記憶領域を検2索し、そ
の検索結果に基づいて連続するアドレスに使用されてい
ない記憶領域のいずれかのアドレスを割当てるようにし
たものである。
以下、図面に示す実施例とともにこの発明を具体的に説
明する。
第11IIはこの発明の一実施例を示すブロック図であ
る。構成において、CPU1,2および3はそれぞれD
MA制御回路4と接続される。このDMA制御回路4は
cpuiないしCPU3から作業要求が与えられると、
優先順位を決定してその優先順位の順番でCPUに作業
を行なわせるためのものである。また、CPU1ないし
3はそれぞれ、セグメントアドレスバス5.メモリアド
レスバス6、データバス7およびリードライト信号−8
を介しアクセス制御装置10と接続される。このアクセ
ス制御@1I110はcpuiないし3に共用される共
用メモリ12を含む。この共用メモリ12は複数の記憶
領域(以下セグメントと称す)に分割されて用いられる
。たとえば、この実施例では1セグメントは4にバイト
で構成ξれ、共用メモリ12は16個のセグメントに分
割される。
そして、CPLJIないし3は共用メモリ12のアドレ
ス指定を行なう場合、セグメントアドレスバス5にセグ
メントを指定するアドレス(以下セグメントアドレスと
称す)を出力し、メモリアドレスバス6にセグメント内
におけるアドレス(以下メモリアドレスと称す)を出力
する。そして、共用メモリ12ではこのセグメントアド
レスとメモリアドレスとの組合わせたアドレスでアドレ
ス指定が行なわれる。したがって、この実施例においτ
CPU1ないし3への作業領域の割当てとは、共用メモ
リ12のセグメントの割当てを意味する。
ここで、各CPU1ないし3から出力されるセグメント
アドレスは常に連続するアドレスとなっている。そして
、この連続するアドレスはアドレス置換メモリ11に与
えられ、所定のアドレスに変換されて共用メモリ12に
与えられる。すなわち、アドレス変換メモリ11はCP
U1ないし3から与えられた連続するアドレスを共用メ
モリ12上の実際のアドレスに変換して出力する。
なお、第1図では、CPU1はアクセス制御部w10の
動作を制御する機−を有している。
なお、第1図では共用メモリ12は3台のCPUによっ
て共用されているが、共用されるcPUの台数は任意で
あってよい。
第2図は第1図に示すアクセス制御装置1oの詳細を示
すブロック図である。構成において、セグメントアドレ
スバス5には、CPU1ないし3から4ピツト(SA3
〜5AO)のセグメントアドレスが与えられる。このセ
グメントアドレスバス5はデコード回路21およびマル
チプレクサ22のへ入力に接続される。後述するが、ア
ドレス変換メモリー1はたとえば16I!の記憶領域を
有しており、セグメントアドレスがこれらの記憶領域の
うち特定の記憶領域を指定する場合、デコードgill
121の出力がハイレベルとなる。このように特定の記
憶領域が省電されるのは、アドレス変換メモリー1の書
換え制御が行なわれる場合である。デコード回路21の
出力はマルチプレクサ22に切換え信号として与えられ
るとともに、共用メモリー2のチップイネーブル端子G
Eに与えられる。
一方、メモリアドレスバス6には、第1図のCPU1な
いし3から12ビツト(A11〜AO>のメモリアドレ
スが与えられる。このメモリアドレスは共用メモリー2
にアドレス下位ピットとして与えられるとともに、その
下位4ビツト(A31g 〜AO)がマルチプレクサ22の8人力に与えられる。
マルチプレクサ22は前述のデコード回路21から与え
られる信号に応じてそのへ入力およびB入力を選択的に
切換えて出力する。すなわち、マルチプレクサ22はデ
コード回vs21の出力がローレベルのときへ入力を出
力する。逆に、デコード回路21の出力がハイレベルの
とき8入力を出力する。マルチプレクサ22の出力はア
ドレス変換メモリー1に与えられる。このアドレス変換
メモリー1はマルチプレクサ22がら与えられるアドレ
スによってその書込みおよび読出しのアドレスが指定さ
れる。アドレス変換メモリー1の読出し出力はアドレス
上位ピットとして共用メモリー2に与えられる。
データバス7には、第1図のCPLllないし3から8
ビツト(07〜Do)のデータが与えられる。このデー
タバス7はバスドライバ23,24゜25および26に
a@される。バスドライバ23および24は、それぞれ
、共用メモリー2に接続され、共用メモリー2のデータ
の書込みおよび読・”□。
出し時におけるバスの方向を切換える。また、バスドラ
イバ25および26は、それぞれ、アドレス変換メモリ
ー1に接続され、アドレス変換メモリ11の書込みおよ
び読出し時におけるバスの方向を切換える。
第1図のCPLIIないし3から出力さるリードライト
信号(R/W)はリードライト信号線8を介して共用メ
モリ12に与えられるとともに、ORゲート27の一方
入力に与えられる。共用メモリ12はこのリードライト
信号がハイレベルのときリードモードとなり、ローレベ
ルのときライトモードとなる。また、リードライト信号
はバスドライバ23の動作を制御するNANDゲート2
8の一方入力に与えられるとともに、バスドライバ25
の動作を制御するNANOゲート29の一方入力に与え
られる。このNANDゲート28の他方入力には、前述
のデコーダ回路21の出力が与えられる。NANDゲー
ト29の他方入力には、インバータ30を介してデコー
ド回路21の出力が与えられる。また、ソーSライト信
号はインバータ31を介してバスドライバ24の動作を
misするNANDゲート32の一方入力に与えられる
とともに、バスドライバ26の動作を制御するNAND
ゲート33の一方入力に与えられる。NANOゲート3
2の他方入力には、デコード回路21の出力が与えられ
る。NANDゲート33の他方入力には、インバータ3
0を介してデコード回路21の出力が与えられる。
第31!1は第1図または第2図に示すアドレス変換メ
モリ11および共用メモリ12の記憶領域と、その関係
を示す図解図である0図において、アドレス変換メモリ
11はデータ処理を行なうCPUに対し割当てるセグメ
ン′トのアドレスを記憶する少なくとも16個の記憶領
域を有する。また、共用メモリ12は前述のように、5
EGO〜5EG15の16儂のセグメントに分割されて
いる。、なお、アドレス変換メモリ11の第0番地には
、常にセグメント5EGOのアドレスが設定される。
これは、後述するようにセグメント5EGOに設定され
るセグメントのアドレス割当てのためのテーブルのアク
セスのためである。
第4図は共用メモリ12におけるセグメント5EGOの
記憶領域を示す図解図である。図において、セグメント
5EGOはセグメントテーブル41を含む。このセグメ
ントテーブル41は各セグメント5EGO〜5EG15
別に記憶領域を有し、各記憶領域は対応のセグメントが
現在いずれかのCPUのデータ処理のために割当てられ
ているか否かを記憶する。以下、このセグメントテーブ
ル41の各記憶領域をセグメント使用フラグと称す。
また、セグメント5EGOは各CPUIないし3からの
セグメント割当て要求とその内容を記憶する要求テーブ
ル42を含む。この要求テーブル42は、各CPU別に
、対応のCPUから割当て要求があったか否かを記憶す
る領域(以下割当て要求フラグと称す)421と、対応
のCPUに対するセグメントの割当てが解除されたか否
かを記憶する領域(以下割当て解除フラグと称す)42
2と、対応のCPUによって割当てが要求されたセグメ
ントの数を記憶する領域(以下セグメント数レジスタと
称す)423と、対応のCPUに対し割当てられるアド
レス変換メモリ11上の連続アドレスを記憶する領域(
以下論理アドレスレジスタと称す)424とを含む。
上述のような構成において、各CPU1ないし3から共
用メモリ12のセグメント指定のために出力される連続
的なアドレスは共用メモリ12において実際に割当てら
れるセグメントのアドレスとは興なるため、以下の説明
ではこの連続的なアドレスを論理アドレスと称す、そし
て、アドレス変換メモリ11から出力されるアドレスを
物理アドレスと称す。
第5A図および第58I!Ilはセグメントの割当て要
求を出力するCPU (たとえばCPU2あるいは3:
以下CPU1と称す)の動作を説明するためのフローチ
ャートである。また、w46A図および第6B図はアド
レス制御11M1flOの動作を制御するためのcpu
 <たとえばCPUI)の動作を説明するためのフロー
チャートである。以下、第1図ないし第6B図を参照し
てこの実施例の訂輻な動作について説明する。
まず、cputは第5A図に示すステップ(図示ではS
と略す)1において、データ処理のために必要なセグメ
ントの数を要求テーブル42の対応のセグメント数レジ
スタ423に設定する。すなわち、CPU1はローレベ
ルのリードライト信号(R/W)を出力し、共用メモリ
12をライトモードとする。そして、cputはアドレ
ス変換メモリ11の第0番地を指定するアドレスをセグ
メントアドレスバス5に出力する。デコード回路21は
、前述のように、与えられるアドレスがアドレス変換メ
モリ11の特定の番地(たとえば第2番地)を指定する
もの以外のときはその出力がローレベルとなる。したが
って、この場合デコードWA1121の出力はローレベ
ルとなる。このデコード回路21のローレベル信号はイ
ンバータ30によってハイレベル信号に反転され、OR
ゲート27を介してアドレス変換メモリ11に与えられ
る。これによって、アドレス変換メモリ11はリードモ
ードとされる。また、デコード回路21からのローレベ
ル信号はマルチプレクサ22に与えられ、応じてマルチ
プレクサ22はへ入力を出力する。したがって、アドレ
ス変換メモリ11からはその第O醤地の記憶内容、すな
わち共用メモリ12のセグメント5EGOを指定するア
ドレスが続出され、共用メモリ12にアドレス上位ビッ
トとして与えられる。続いて、CPLJiは共用メモリ
12のセグメント5EGOにおける要求テーブル42の
セグメント数レジスタ423を指定するアドレスをメモ
リアドレスバス6に出力する。このセグメント数レジス
タ423を指定するアドレスは共用メモリ12にアドレ
ス下位ピットとして与えられる。一方、デコード回路2
1のローレベル信号はNANDゲート28の他方入力に
反転して与えられる。このNANDゲート28の一方入
力には、上述のローレベルのリードライト信号が与えら
れる。そのため、NANDゲート28の出力はローレベ
ルとなり、バスドライバ23が能動化される。なお、他
のNANDゲート32.29および33のそれぞれの出
力はハイレベルとなっており、対応のバスドライバ24
.25および26はいずれも不能動化されている。続い
て、CP(Jlはデータ処理のために必要とするセグメ
ント数をデータバス7に出力する。このセグメント数は
バスドライバ23を介して共用メモリ12に与えられる
。応じて、このセグメント数はセグメント数レジスタ4
23に設定される。次に、CPLllは第5A図に示す
ステップ2において、要求テープ42の対応の割当て要
求フラグ421をセットする。このセットのための動作
は上述とほぼ同様にして行なわれる。
一方、CPU1は第6A図に示すステップ102におい
て、要求テーブル42の割当て要求フラグ421がセラ
1−されてるいることを判断する。
すなわち、cpuiは上述と同様にして共用メモリ12
のセグメント5EGOのアドレスを指定するとともに、
要求テーブル42の割当て要求フラグ421のアドレス
を指定する。また、cpuiはハイレベルのリードライ
ト信号を出力し、アドレス変換メモリ11および共用メ
モリ12をり一ドモードとする。このとき、ハイレベル
のリードライト信号によってバスドライバ24が能動化
され、その他のバスドライバ23.25および26は不
能動化される。したがうて、割当て要求フラグ421の
記憶内容がバスドライバ24を介してCPU21に与え
られ、そのセットおよびリセット状態が判断される。統
いて、cpuiはステップ103において、セグメント
数レジスタ423に設定されたセグメント数を読取る。
次に、CPU1はステップ104において、セグメント
テーブル41を検索し、CPUIから要求されているセ
グメント数(セグメント数レジスタ423から読取った
セグメント数)だけの空きセグメント(現在データ51
1&理のために割当てられていないセグメント)を捜す
。なお、各セグメントが空きセグメントであるか否かの
判断は、対応のセグメント使用フラグがセットされてい
るが否かによって判断される。続いて、CPU1はステ
ップ105において、咳当のセグメント使用フラグをセ
ットする。これによって、cpu+に対する共用メモリ
12の割当てセグメントの確保が行なわれる。
次に、cpuiはステップ106の動作を行なう、すな
わち、アドレス変換メモリ11において連続して空き番
地が続く領域のうち、少なくともCPLIiが必要とす
るセグメント数以上に空き番地が連続する領域が捜し出
される。そして、前述のステップ104において捜し出
された空きセグメントの実際のアドレスがその連続して
空き番地が続く領域に設定される。すなわち、アドレス
変換メモリ11の連続する空き番地に物理アドレスが設
定される。この物理アドレスが設定されたアドレス**
メモリ11のアドレスは連続したものとなっており、以
慢論褒アドレスとして用いられる。なお、このときcp
uiはセグメントアドレスバス5にアドレス置換メモリ
11の第2番地を指定するアドレスを出力する。そのた
め、デコード回路21の出力がハイレベルとなり、マル
チプレクサ22は8入力を出力する。また、デコード回
路21の出力がハイレベルとなることによって、バスド
ライバ25および26のいずれか一方が能動化される。
すなわち、リードライト信号がハイレベルのときバスド
ライバ26が能動化される。
このとき、ハイレベルのリードライト信号はORゲート
27を介してアドレス変換メモリ1]に与えられ、アド
レス変換メモリ11をリードモードとする。したがって
、メモリアドレスのうち下位4ピツト(A3〜AO>に
よって指定されるアドレス置換メモリ11の記憶内容が
読出されバスドライバ26を介してCPU1に与えられ
る。このアドレス置換メモリ11からのデータの続出し
によって、アドレス変換メモリ11の連続する空き番地
の検索が行なわれる。一方、リードライト信号がローレ
ベルのときバスドライバ25が能動化される。このとき
、ORゲート27の両入力はローレベルであり、その出
力もローレベルとなる。
したがって、アドレス置換メモリ11はライトモードと
され、CPUIから出力されるデータがバスドライバ2
6を介してアドレス置換メモリ11に書込まれる。この
アドレス置換メモリ11へのデータの書込みによって物
理アドレスの設定が行なわれる。
次に、CPLllはステップ107において、要求テー
ブル42の該当の論理アドレスレジスタ424に論理ア
ドレスを設定する。このとき設定される論理アドレスは
ステップ106において物理アドレスが設定されたアド
レス変換メモリ11のアドレスである。続いて、CPU
1はステップ108において、要求テーブル42の該当
の割当て要求フラグ421をリセットする。
一方、cputはステップ8において割当て要求フラグ
421のリセットを判断する。そして、ステップ9にお
いて、該当の論理アドレスレジスタから論理アドレスを
読取る。次に、CPUIはステップ10において、デー
タ処理を行なうが、このデータ処理ではすべて論理アド
レスが用いられる。すなわち、この論理アドレスがcp
utから出力されると、マルチプレクサ22を介してア
ドレス変換メモリ11に与えられる。アドレス変換メモ
リ11は、前述のように、論理アドレスに対応して物理
アドレスが設定されている。そのため、アドレス変換メ
モリ11は与えられた論理アドレスを自着アドレス&−
変換して共用メモリ12に与える。そのため、cput
はデータ処理のために複数のセグメントを必要とする場
合であっても、連続するアドレス(論理アドレス)によ
って共用メモリ12の7クセスー御を行なうことができ
る。したがって、アクセス制御のための処理が簡単にな
り、処理時間な大幅にwi縮することができる。
次に、CPLJIは第5B図に示すステップ11におい
てデータ処理を完了する。そして、ステップ12におい
て要求チー・プル42の該当の割当て解除フラグ422
をセットする。
一方、CPU1は第6B図に示すステップ112におい
て、該当の割当て解除フラグ422のセットを判断する
。そして、ステップ113において、該当のセグメント
数レジスタ423および論理アドレスレジスタ424か
らセグメント数および論理アドレスを読取る。続いて、
CPLJIはステップ114において、そのとき読出し
た論理アドレスに対応するアドレス変換メモリ11の該
当のエリアの物理アドレスをクリアする。さらに、CP
U1はステップ115において、セグメントテーブル4
1の該当のセグメント使用フラグをリセットし、ステッ
プ116において要求テーブル42の該当の割当て解除
フラグ422をリセットする。以簀、CPu1はステッ
プ102以下の動作を纏り返す。
一方、cputはステップ16において要求テーブル4
2の該当の割当て解除フラグのリセットを判断し、その
動作を終了する。
なお、上述の実施例では、物理アドレスの割当てが鳥連
で行なわれるため、セグメントテーブル41あるいは要
求テーブル42をcpuiの内部メモリ上に配置するこ
ともできる。また、要求テーブル42を書換えたとき、
相手側のCPLIに割込みを掛けることもできる。
以上のように、この発明によれば、各CPUは連続する
アドレスでアクセス制御が行なえるため、その処理時−
を大幅に短縮することができる。また、従来はアクセス
制御のためのプログラムが複雑であったためCPUの数
が増すごとに大量のプログラムの変更が必要であったが
、この発明によれucpuの個数が増してもアクセス制
御のためのプログラムの変更は少なくて済む。
+、−□ 4、aimのs単4m明 第1図はこの発明の一実施例を示す概略ブロック図であ
る。第2図は第1図に示すアクセス刺−装置10の詳輯
を示すブロック図である。第3図はアドレス変換メモリ
11および共用メモリ12の記憶領域と、その関係を示
す図解図である。第4図は共用メモリ12に穀けられる
セグメントテーブルと要求テーブルとを示す図解図であ
る。第5AIllおよび第5B図はデータ処理のためセ
グメントの確保を要求するCPUの動作を説明するため
フローチャートである。第6A図および第6B図はアク
セス制御回路10の動作を制−するCPUの動作を説明
するためのフローチャートである。
図において、1ないし3はcpu、ioはアクセス制御
装置、11はアドレス変換メモリ、12は共用メモリ、
41はセグメントテーブル、42は要求テーブルを示す
第3図 第5A図          減6へ図第5B図   
      第6B図

Claims (2)

    【特許請求の範囲】
  1. (1) 1つのメモリを複数の演算処111i雪で共用
    するようなマルチプロセサシステムであって、前記メモ
    リは予め複数の記憶領域に分割されていて、 前記各演算処理は前記記憶領域を指定するために連続す
    るアドレスを出力する手段を含み、前記複数の記憶領域
    のうち使用されていない記憶領域を検索する手段、 前記検索手段の検索結果に基づいて、前記連続するアド
    レスに前記使用されていない記憶領域のいずれかのアド
    レスを割当てる手段、および前記割当て手段(よって割
    当てられたアドレスに墨づき、前記メモリのアクセスを
    制御する手段を備える、マルチプロセサシステム。
  2. (2) 前記検索手段は、 前記複数の記憶領域に対応してそれぞれの使用状況を記
    憶する手段と、 前記記憶手段の記憶内容に基づいて、前記記憶領域が使
    用されていないことを判断する手段と含む、特許請求の
    範囲第1項記載のマルチプロセサシステム。
JP2377082A 1982-02-16 1982-02-16 マルチプロセサシステム Pending JPS58140863A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2377082A JPS58140863A (ja) 1982-02-16 1982-02-16 マルチプロセサシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2377082A JPS58140863A (ja) 1982-02-16 1982-02-16 マルチプロセサシステム

Publications (1)

Publication Number Publication Date
JPS58140863A true JPS58140863A (ja) 1983-08-20

Family

ID=12119575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2377082A Pending JPS58140863A (ja) 1982-02-16 1982-02-16 マルチプロセサシステム

Country Status (1)

Country Link
JP (1) JPS58140863A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996019894A1 (de) * 1994-12-21 1996-06-27 Siemens Aktiengesellschaft Fernsehgerät mit mehreren signalverarbeitungseinrichtungen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996019894A1 (de) * 1994-12-21 1996-06-27 Siemens Aktiengesellschaft Fernsehgerät mit mehreren signalverarbeitungseinrichtungen

Similar Documents

Publication Publication Date Title
JP2635058B2 (ja) アドレス変換方式
US4511964A (en) Dynamic physical memory mapping and management of independent programming environments
US4075686A (en) Input/output cache system including bypass capability
KR100225743B1 (ko) 공유자원으로의 멀티프로세서 액세스의 조정
JPH034940B2 (ja)
JPH11512857A (ja) クラスタ・コンピュータ・システムにおけるアドレス変換
JPH10143431A (ja) マイクロプロセッサおよびコンピュータシステムにおけるデータのキャッシング方法
EP0196244A2 (en) Cache MMU system
JPS58140863A (ja) マルチプロセサシステム
JP3808058B2 (ja) 複数のホストが圧縮データを記憶するメモリ・セクタの集合を共用できるようにするための装置
EP0192578A2 (en) A multiple bus system including a microprocessor having separate instruction and data interfaces and caches
JPS63296158A (ja) 情報処理装置
JPS5844263B2 (ja) 記憶制御回路
JPS63254544A (ja) アドレス変換制御方法
JP4965974B2 (ja) 半導体集積回路装置
JPS58140859A (ja) 共用メモリのアクセス制御装置
JP2008123333A5 (ja)
JPS6336012B2 (ja)
JPH0567973B2 (ja)
JPS58201157A (ja) バンクメモリの制御回路
JPS5856887B2 (ja) マルチプレクサ・チヤネル方式
JPS6010347B2 (ja) 情報処理システム制御装置
JPS6043756A (ja) メモリ管理方式
JP2943401B2 (ja) 仮想計算機の外部記憶装置割当処理方法
EP0437928A2 (en) Memory management in a multi-processor system