JPS61856A - Real time data processor - Google Patents

Real time data processor

Info

Publication number
JPS61856A
JPS61856A JP60049190A JP4919085A JPS61856A JP S61856 A JPS61856 A JP S61856A JP 60049190 A JP60049190 A JP 60049190A JP 4919085 A JP4919085 A JP 4919085A JP S61856 A JPS61856 A JP S61856A
Authority
JP
Japan
Prior art keywords
data
node
address
nodes
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60049190A
Other languages
Japanese (ja)
Other versions
JPH0570182B2 (en
Inventor
ジエイムズ・コリン・ダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RIIDEIFUYUUJIYON SHIMIYUREESHI
RIIDEIFUYUUJIYON SHIMIYUREESHIYON Ltd
Original Assignee
RIIDEIFUYUUJIYON SHIMIYUREESHI
RIIDEIFUYUUJIYON SHIMIYUREESHIYON Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RIIDEIFUYUUJIYON SHIMIYUREESHI, RIIDEIFUYUUJIYON SHIMIYUREESHIYON Ltd filed Critical RIIDEIFUYUUJIYON SHIMIYUREESHI
Publication of JPS61856A publication Critical patent/JPS61856A/en
Publication of JPH0570182B2 publication Critical patent/JPH0570182B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 技術分野 本発明は、それぞれ同一データにアクセス可能な、二つ
、又は、それ以上の処理装置を含むデータ処理システム
に関するものである。各データ処理装置は、実質的に独
立したコンピュータとして構成してもよいし、或いは、
一つ、又は、それ以上の他の処理装置と対話可能な構成
としてもよい。
DETAILED DESCRIPTION OF THE INVENTION TECHNICAL FIELD The present invention relates to data processing systems that include two or more processing units, each having access to the same data. Each data processing device may be configured as a substantially independent computer, or
It may also be configured to be able to interact with one or more other processing devices.

いずれの型式のデータ処理装置も、以下に於いては“ノ
ード”と呼称し、二つ、又は、それ以上のノードがアク
セス可能なデータは、以下の説明では“共用データ”と
呼称する。
Data processing devices of either type are referred to hereinafter as "nodes", and data that is accessible by two or more nodes is referred to as "shared data" in the following description.

従来技術 例えば、飛行用シミュレータに使用される公知のシステ
ムの一例においては、共用データは、二つ、又は、それ
以上のノードにアクセス可能な共通データ記憶装置に記
憶される。各ノードには、又、そのノードのみがアクセ
ス可能なデータを保持する、それ自身の局部的記憶装置
を設けてもよい。この種システムの問題点は、ノードが
共用記憶装置へのアクセスの為に競合する必要があるの
で、各々共通記憶装置内の共用データの同一項目に同時
にアクセスを試みる、二つ、又は、それ以上のノード間
で衝突を生じる可能性があるという事である。
BACKGROUND OF THE INVENTION In one example of a known system used, for example, in a flight simulator, shared data is stored in a common data storage device that is accessible to two or more nodes. Each node may also be provided with its own local storage that holds data that is accessible only to that node. The problem with this type of system is that two or more nodes must compete for access to the shared storage, each attempting to access the same item of shared data in the common storage at the same time. This means that there is a possibility of conflict occurring between nodes.

更に、共用記憶装置と、比較的離れたノードとの間で、
可なりの伝達遅れがあることである。その結果、共用デ
ータへのアクセスが非常に遅くなる場合がある。
Furthermore, between the shared storage device and relatively distant nodes,
There is a considerable transmission delay. As a result, access to shared data may be very slow.

米国特許明細書第3,889,237号には、各ノード
が、その局部記憶装置内に、共用データの複製コピーを
受け入れる様に構成した2ノードシ、ステムが開示され
ている。両方のコピーを確実に一致せしめる為に、各ノ
ードは、共用データの新しい値を、同時に、両記憶装置
に書き込み得る様に、他方のノードの局部記憶装置に直
接アクセス可能とする。」二記従来のシステムの問題点
は、両ノードが、同時に共用データの同一項目にアクセ
スを試みると、ノード間に衝突を生しるので、各ノード
は、処理を継続する前に、局部記憶装置の共用データ部
への全ての書き込みが終了する迄待つ必要があることで
ある。この為にシステムの効率が大幅に低下すると共に
、このシステムを、2ノ一ド以上に発展せしめることが
極めて困難になる。
U.S. Pat. No. 3,889,237 discloses a two-node system in which each node is configured to accept duplicate copies of shared data in its local storage. To ensure that both copies match, each node has direct access to the other node's local storage so that new values of the shared data can be written to both storage devices simultaneously. 2. The problem with conventional systems is that if both nodes try to access the same item of shared data at the same time, it will create a conflict between the nodes, so each node must It is necessary to wait until all writing to the shared data section of the device is completed. This greatly reduces the efficiency of the system and makes it extremely difficult to expand the system beyond two nodes.

一方、欧州特許明細書第0.092,895号には1、
各ノードが、内部に共用データを記憶しているそれ自身
の局部記憶装置を有する、別のシステムが開示されてい
る。ノードは、データ伝送リンクで相互に連結され、一
つのノードが、その局部記憶装置内のアドレス包含共用
データに書き込みを行う時はいつでも、その書き込みデ
ータ及びアドレスを含むメツセージを発生する。該メツ
セージは、リンクに加えられ、他のノードは、その局部
記憶装置内の適当な共用データアドレスを更新するのに
その書き込みデータを使用する。各ノードは、共用デー
タアドレスに書き込み後は、処理を続け、書き込みデー
タメツセージが、他のノードに達するのを待たない。リ
ンクは、トークンリング(token  ring)と
して形成され、トークンは一つのみであるので、一度に
リングにのせ得るのは、一つのメッセージに限られる。
On the other hand, European Patent Specification No. 0.092,895 has 1,
Another system is disclosed in which each node has its own local storage storing shared data therein. The nodes are interconnected with data transmission links such that whenever one node writes to address-containing shared data in its local storage, it generates a message containing the write data and the address. The message is added to the link and other nodes use the write data to update the appropriate shared data addresses in their local storage. After each node writes to a shared data address, it continues processing and does not wait for write data messages to reach other nodes. The link is formed as a token ring, and since there is only one token, only one message can be on the ring at a time.

この様にして、各モードは、同一 ンーケンでメツセー
ジを受け取り、個々のノードか非同期的に動作している
場合でも、メツセージに時間的順序を与えている。しか
し、第1のノードが、第2のノードから書き込みデータ
メツセージを受け取り、一方、該第1のノードは、未だ
、伝送すべき未決の書き込みデータを有している場合に
は、受け取られるメツセージは、第2のノードによって
すでに書き込まれたデータアドレスをオーバライド(o
verwrite)する。上記データアドレスは、更に
、時間的順序の早い値によりオーバライドされ、各ノー
ドの共用データ記憶装置に記憶されたデータは、一貫性
がなくなる。この様な不便を防止する為に、第2ノード
の処理装置は、一つ、又は、複数の未決メツセージの解
決迄の間、停止される。
In this way, each mode receives messages at the same node, providing temporal ordering to the messages even though individual nodes may be operating asynchronously. However, if a first node receives a write data message from a second node, while the first node still has pending write data to transmit, the received message is , overrides the data address already written by the second node (o
verwrite). The data address is further overridden by a value earlier in chronological order, and the data stored in each node's shared data storage becomes inconsistent. To prevent such inconvenience, the processing equipment of the second node is shut down pending resolution of one or more pending messages.

この処理装置の停止により、明らかにシステムの作動速
度が低下し、メツセージの取り扱い数が非常に多い場合
には、重大な問題となる。
This processing equipment outage obviously slows down the system and becomes a serious problem when handling a large number of messages.

飛行訓練用シミュレータ等の、実時間計算システムでは
、システムの作動速度が、基本的に重要なものである。
In real-time computing systems, such as flight training simulators, the operating speed of the system is of fundamental importance.

この点に関して、一連のノードが、各々、特別な機能を
行うが、その機能は、システム制御コンピュータにより
課せられる時間フレームワーク内に限られる実時間シス
テムが公知である。これらのシステムの一例は、米国特
許明細書第4,414.624号及び第4,351,0
25号に開示されている。
In this regard, real-time systems are known in which a series of nodes each perform a special function, but that function is limited within a time framework imposed by a system control computer. Examples of these systems are U.S. Pat.
It is disclosed in No. 25.

上記米国特許明細書第4,414,624号に於いては
、ノードの作動は、必要な処理に応じて、制御用コンピ
ュータにより予め設定される。各フレームの始めに、処
理に利用し得る時間を設定する為に、時間制御ワードが
各ノードに伝達される。
In US Pat. No. 4,414,624, the operation of the nodes is preset by a control computer depending on the required processing. At the beginning of each frame, a time control word is communicated to each node to set the time available for processing.

各ノードは、共用データの為の局部記憶装置を有し、同
時に、他のノードの局部記憶装置のいずれか、又は、全
てに、総括的に書き込むことが出来る。全てのデータは
、先ず、共通記憶装置に書き込まれ、ついで、所要デー
タが、共通記憶装置から、局部記憶装置へと読み出され
る。この様に、局部記憶装置内でのデータ項目の各々の
更新には、共通記憶装置への書き込みステップと、局部
記憶装置への読み出しステップの両ステシブを必要とす
る。このことにより、システムの作動スピードが低下す
る。
Each node has local storage for shared data and can write to any or all of the other nodes' local storage simultaneously. All data is first written to the common storage and then the required data is read from the common storage to the local storage. Thus, updating each data item in local storage requires both a write step to the common storage and a read step to the local storage. This reduces the operating speed of the system.

一方、米国特許明細舎弟4,351.025号に於いて
は、ノードの実時間操作と、システム制御コンピュータ
のそれが、重なることなしにインタリーブされ、ノード
からの書き込みデータは、システム制御コンピュータの
作動時間セグメントの間に配分される。」二記構成は、
比較的実施するのが容易であるが、システムの二つの部
分が、連続的ではなく、交互に作動するので、作動速度
か比較的低い。
On the other hand, in U.S. Pat. distributed between time segments. ”The second composition is
Although relatively easy to implement, the operating speed is relatively low because the two parts of the system operate alternately rather than sequentially.

上述の様に、実時間システムを含む従来のシステムでは
、別々の局部記憶装置内での、共用データの一貫性を維
持する為、厳格な操作基準が設定されており、その為必
然的に、システムの速度及び融通性が制限されることに
なる。
As mentioned above, conventional systems, including real-time systems, have strict operational standards in place to maintain the consistency of shared data in separate local storage devices, which inevitably results in The speed and flexibility of the system will be limited.

発明の目的 本発明は、上記従来のシステムの欠点に鑑みてなされた
ものであって、上述の如き問題点を除去 −乃至緩和し
た実時間データ処理システムを提供することをその目的
とするものである。
OBJECTS OF THE INVENTION The present invention has been made in view of the drawbacks of the conventional systems described above, and an object of the present invention is to provide a real-time data processing system that eliminates or alleviates the problems described above. be.

本発明にかかる実時間データ処理装置は、少なくとも、
二つのノードと、各ノードに対するデータ記憶装置とを
設け、各データ記憶装置をセクションに仕切り、その第
1のセクションを、各ノードに局部的なデータの記憶の
為に予約し、第2のセクションを、ノード間に共用する
データの記憶の為に予約し、更に、ノードを互いに接続
するデータリンクと、そのノードがデータ記憶装置の第
2のセクションにアドレスを書き込む時はいつでも、そ
のアドレスに書き込まれるアドレスとデータよりなる書
き込みメツセージを発生する各ノードにおける手段と、
データリンクを介して、各ノードに、各発生メツセージ
を伝達する手段と、データ記憶装置の第2のセクション
の各アドレスに、そのアドレスの主ノードになる各ノー
ドを割り当てる手段と、データが割り当て主ノード以外
によって、データ記憶装置の第2のセクション内のいか
なるアドレスにも書き込まれるのを防止する手段とを設
けたことを特徴とするものである。 ノード間の共用デ
ータを含むデータ記憶装置の各アドレスは、唯一つのノ
ード処理装置により書き込まれるので、共用データが、
使用不可にならない様に、メツセージ書き込みに割り当
てられた優先順を厳しく管理する必要がない。この為、
システムの作動速度を高め得るが、更に、複雑な操作手
順なしで標準的処理装置を用いて、比較的多数のノード
を並列に作動せしめることが可能となる。かくして、広
範囲の異なる実時間システムの必要条件を、比較的容易
に満足することができる。例えば、本発明は、飛行用そ
の他のンミュレータ、行程管理システム、及び消防シス
テム等に応用出来るものである。
The real-time data processing device according to the present invention includes at least the following:
two nodes and a data storage device for each node, partitioning each data storage device into sections, a first section of which is reserved for storage of data local to each node; reserved for the storage of data shared between nodes, and further includes a data link connecting the nodes to each other and a data link that writes to the second section of the data storage whenever that node writes an address to the second section of the data storage. means at each node for generating a write message consisting of an address and data to be sent;
means for transmitting each generated message to each node via a data link; means for assigning to each address of the second section of the data storage each node which becomes the principal node of that address; and means for assigning each node to be the principal node of that address; and means for preventing any address within the second section of the data storage device from being written to by anyone other than the node. Each address of a data storage device containing shared data between nodes is written by only one node processing unit, so that the shared data
There is no need to strictly control the priority assigned to message writes so that they do not become unavailable. For this reason,
The operating speed of the system may be increased, but it also allows a relatively large number of nodes to operate in parallel using standard processing equipment without complex operating procedures. Thus, the requirements of a wide variety of different real-time systems can be met with relative ease. For example, the present invention can be applied to flight and other simulators, route control systems, firefighting systems, and the like.

そのノードから発生したデータ書き込みメツセージのア
ドレスを、前もって設定したアドレスの範囲と比較し、
比較したアドレスが前もって設定した範囲内にある場合
にのみ、データ書き込みメツセージを、データリンクに
転送する為に、各ノードに対して、アドレス範囲比較器
を設けるのが望ましい。この様に、アドレス比較器は、
共用データ内のどのアドレスが、各ノードにより書・き
込み可能であるかを、効果的に決定する。更に、各ノー
ドに対して、別のアドレス比較器を設けて、データリン
クから受け取ったデータ書き込みメツセージのアドレス
を、前もって設定したアドレスの範囲と比較し、比較し
たアドレスが、前もって設定したアドレスの範囲内にあ
る場合にのみ、受け取ったデータ書き込みメツセージを
、局部データ記憶装置に転送する様に構成してもよい。
Compare the address of the data write message generated from that node with a preset address range,
Preferably, an address range comparator is provided for each node to forward the data write message to the data link only if the compared address is within a predetermined range. In this way, the address comparator is
Effectively determines which addresses within the shared data are writable by each node. Furthermore, for each node, another address comparator is provided to compare the address of the data write message received from the data link with a preset address range, and if the compared address is within the preset address range. A received write data message may be forwarded to the local data storage device only if it is within the local data storage device.

この様に、更に設けたアドレス比較器は、データリンク
からデータを書き込み得る局部記憶装置内のアドレスを
決定する。
Thus, a further provided address comparator determines the address within the local storage device to which data can be written from the data link.

ノードは、単一のデータリンク、又は、複数のデータリ
ンクによって、並列に接続することが出来る。更に、よ
り複雑なシステム構成を提供することも可能である。例
えば、ノードを複数のグループに配列し、各グループ内
のノードを、各データリンクにより並列に接続し、少な
くとも、ノ−ドの一つを、グループの二つに属する様に
構成することも可能である。この配列では、二つのグル
ープに属するノードての共用データを受け取るデータ記
憶装置のセクションは、複数のザブセクションに分けら
れ、その各々は、各グループのノードと共用するデータ
を受け取る。データを、ノードの二つのグループの間で
共用する場合、一つのザブセクションから、他のサブセ
クンヨンへのデータの転送を制御する為に、ソフトウェ
アを与える。
Nodes can be connected in parallel by a single data link or multiple data links. Furthermore, it is also possible to provide more complex system configurations. For example, it is also possible to arrange nodes into multiple groups, connect the nodes in each group in parallel with each data link, and configure at least one of the nodes to belong to two of the groups. It is. In this arrangement, the section of the data storage device that receives the shared data of the nodes belonging to the two groups is divided into a plurality of subsections, each of which receives the data that is shared with the nodes of each group. When data is shared between two groups of nodes, software is provided to control the transfer of data from one subsection to another.

又、更に、データリンクに接続され、ノードにより入出
力データを書き込み可能なメモリを設けるのが望ましい
。この目的の為のアドレスは、それからデータが読み出
せ、それに、データリンクを介してデータを書き込める
ノードの局部データ記憶装置内に設けられる。
It is also desirable to further provide a memory connected to the data link and into which input/output data can be written by the node. Addresses for this purpose are provided in the node's local data storage from which data can be read and from which data can be written via the data link.

割檄鯉 以後、添付図面を参照しなから、本発明の好ましい実施
例を詳述する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the invention will now be described in detail with reference to the accompanying drawings.

第1図に示したものは従来公知のシステムであって、グ
ールド社コンピュータ・システムズ部より製造販売され
ている3 2/27型コンピユータ(GOULD  C
omputer  Systems  Divisio
n32/ 27 Computer)に基づいて稼動す
るものである。
The system shown in FIG. 1 is a conventionally known system, which is a 32/27-inch computer manufactured and sold by the Gould Computer Systems Division.
computer systems division
It operates based on the N32/27 Computer.

このシステムにおける中央演算装置(CP U) 1は
、高速通信主母線であって、「セルバス(SELBUS
)Jとして知られている26.6MB/秒コンピュータ
バス2に接続されている。「インチ−グレーテッド・メ
モリー・モジュール(I ntegratedMemo
ry  Module  T MM)J3を用いるデー
タ記憶装置は、IMBのメモリーと、対応するメモリー
制御用ロジックとを備えている。「アイ・オー・ピー(
top)j装置4は、システム用コンソール5をサポー
トする制御器であってIMB/秒マルチ・パーパス・バ
ス(IMB/See  MultiPurpose  
Bus(MPBUS))J6の主制御器である。
The central processing unit (CPU) 1 in this system is a high-speed communication main bus, and is a "SELBUS" bus.
) is connected to a 26.6 MB/s computer bus 2, known as J. "Integrated Memory Module (IntegratedMemo)"
A data storage device using the ry Module T MM) J3 includes an IMB memory and corresponding memory control logic. “I.O.P.
top)j device 4 is a controller that supports a system console 5 and is an IMB/See Multipurpose bus (IMB/See Multipurpose bus).
This is the main controller of Bus (MPBUS) J6.

ディスクないしテープ制御器7の如きの高速装置や高速
装置用インターフェース(H8DI)8とは、5ELB
US2に接続されており、他方、CRT端末機制御器9
(8ライン非同期動作)、ラインプリンター/フロッピ
ーディスク制御器IOなどの如きの低速周辺機器はMP
BUS6に接続されている。尚、rsELBUsJ、r
IMMJ、rl OPJ、rMPBUSJ、rIPUJ
、rl−ISDIjなる用語は、前述のグールド社製3
2/27型コンピユータの構成部品にそのメーカーが付
した名称の略称であって、構成部品が同一であっても、
メーカーが違えば異なった呼称が使われることもありう
る。
A high-speed device such as a disk or tape controller 7 or a high-speed device interface (H8DI) 8 is a 5ELB.
is connected to US2, and on the other hand, the CRT terminal controller 9
(8 line asynchronous operation), low speed peripherals such as line printer/floppy disk controller IO etc.
Connected to BUS6. Furthermore, rsELBUsJ, r
IMMJ, rl OPJ, rMPBUSJ, rIPUJ
, rl-ISDIj refers to the above-mentioned Gould 3
An abbreviation of the name given by the manufacturer to the component parts of a 2/27-inch computer, even if the components are the same.
Different manufacturers may use different names.

しかし、本発明の説明においては、グールド社が用いて
いる名称(略称)を用いて説明する。
However, in the description of the present invention, the names (abbreviations) used by Gould will be used.

本発明によるシステムを第2図に示す。図示の実施例に
おけるシステムは、プールド社製32/27型コンピュ
ータに基づく一連の演算ユニット11を備えており、各
演算ユニット11は、専用の5ELBUS 12を備え
ているとともに、他の演算ユニットとは非同期で動作す
る。この演算ユニットjlは周辺機器を駆動するような
ことはしないが、全ての支援用周辺機器を備えている別
の演算ユニット13に接続されている。また、各演算ユ
ニット11は、システムの特定の局面に係わる処理を行
うようになっており、例えばフライトシミュレータの場
合では、1つの演算ユニット11が高度とかの運航上の
パラメータを、別の演算ユニット11は、推進力とかの
航空エンジンのパラメータを、更に別の演算ユニット1
1は、自動操縦上のパラメータを演算するように割当て
られている。この演算ユニット11と別の演算ユニット
13、それに、データ記憶装置の如き関連装置とが、本
発明によるシミュレータのノードを構成している。
A system according to the invention is shown in FIG. The system in the illustrated embodiment includes a series of computing units 11 based on Pooled 32/27 type computers, each computing unit 11 having its own 5ELBUS 12 and separate from other computing units. Works asynchronously. This computing unit jl does not drive any peripherals, but is connected to another computing unit 13 which is provided with all supporting peripherals. In addition, each calculation unit 11 is designed to perform processing related to a specific aspect of the system. For example, in the case of a flight simulator, one calculation unit 11 inputs operational parameters such as altitude to another calculation unit. 11 is another calculation unit 1 which calculates parameters of the aircraft engine such as propulsion force.
1 is assigned to calculate parameters for autopilot. This computing unit 11 and the further computing unit 13 and associated devices such as data storage devices constitute the nodes of the simulator according to the invention.

演算ユニット11を含む演算ノードは周辺機器を駆動す
るようなことはしないから、このノードの所要の入出力
能力は限られており、従って、全ての入出力動作は演算
ユニット13により低速にて実行される。これにより、
各演算ノードの得られる実時間計算能力を最大にするこ
とができる。
Since the computing node including the computing unit 11 does not drive peripheral devices, the required input/output capacity of this node is limited, and therefore all input/output operations are performed by the computing unit 13 at low speed. be done. This results in
The real-time computing power obtained by each computing node can be maximized.

2次アール・ニス232チヤンネル(マルチプルアール
−ニス232ライン)(secondary  RS2
32 channel(multiple  RS 2
32 L 1nes))は、イニシアライズ(初期設定
)と制御機能のためのものであるとともに、システムが
機能しなくなった場合、故障診断に使われる。
Secondary R-varnish 232 channel (multiple R-varnish 232 lines) (secondary RS2
32 channels (multiple RS 2
32 L 1nes)) is for initialization (initial settings) and control functions, and is also used for fault diagnosis when the system stops functioning.

各CPUIIは、複数の物理的に類似のパラレル・プロ
セッサー・ユニット(P aral let  P r
ocessor  Unit  PPU)14により拡
張されている。
Each CPU II consists of multiple physically similar parallel processor units.
(Ocessor Unit PPU) 14.

各PPUI4は、32/67型、3.2/77型、32
/87型グ一ルド社製コンピュータに使われているグー
ルド・インターナル・プロセッサー・ユニット(G O
U L D  I nternal  P roces
sorUnit  I P U)と類似のものではある
が、各5ELBUS 12につき2つ以上の32/27
型コンピユータが使えるように、従来の技法により拡張
しである。
Each PPUI4 is 32/67 type, 3.2/77 type, 32
The Gould Internal Processor Unit (Gould
ULD Internal Processes
sorUnit IPU) but with two or more 32/27 for each 5ELBUS 12
It has been extended using conventional techniques so that it can be used with type computers.

アンアテンデッド・オペレータズ・コンソール(Una
ttended  0perators  Con5o
le  UOC)15は、各演算ユニット11と連係し
ている。このUOCI5は、周辺機器を駆動する場合に
通常設ける必要のあるMPBUSの必要性をなくすため
に余分のロジックを備えている点を除けば、■OP(第
1図参照)と同一である。
Unattended Operator's Console (Una)
ttended 0 perators Con5o
le UOC) 15 is linked to each calculation unit 11. This UOCI 5 is identical to OP (see FIG. 1) except that it includes extra logic to eliminate the need for an MPBUS normally required when driving peripherals.

各演算ユニット11.13の5ELBUS 12は、デ
ュアル・ボートI MM(D P I’MM) 16と
、読み書きセンス・ロジック17とを介して、26゜6
MB/秒データリンク18ないし反射メモリーバスに接
続されている。DPIMM16はグールド社より販売さ
れていて、通常は、例えば入出力制御用の周辺機器と接
続する第2ボートを備えている。しかし、図示の実施例
においては、本発明により「反射メモリーJ(refl
ective  memory)システムが設!−1ら
れるようにこのDPIMM16を利用している。
The 5ELBUS 12 of each arithmetic unit 11.13 is connected to the 26°6
Connected to a MB/s data link 18 or reflective memory bus. The DPIMM 16 is sold by Gould and typically includes a second port for connection with peripheral devices for input/output control, for example. However, in the illustrated embodiment, the present invention provides a
active memory) system has been established! This DPIMM 16 is used so that -1 can be obtained.

図示の反射メモリーシステムの原理を説明すれば、2M
Bのメモリーを有する各DPIMMデータ記憶装置16
が所定の個所で論理的に隔離されていて、この所定個所
の片側における全てのデータとプログラムとは、DPI
MM16が設けられている演算ユニット11または13
の5ELBUS12の区域内(local  to  
5ELBUS 12)にあるが、反対側における全ての
データとプログラムとは、バス18を介して他の演算ユ
ニット11゜13と共用されるようになっている。読み
書きセンス・ハードウェア17は、DPIMM16の用
途を、特定/共用システム(local/5hared
  5ysten)に変換する。この読み書きセンス/
ロジック・ユニット17は各DPIMMI6の第2ボー
トに接続されている。若しCPU13,11(または、
PPU14)が対応するDPIMM16の共用部におけ
るアドレスに書込みを行うと読み書きセンスノ)−ドウ
エア17とアドレスとによりこの書込み動作が検出され
ることになり、よって、データが反射メモリーバス18
に出力される。すると、全てのDPIMM+6がこのデ
ータを自動的に受入れて、メモリーに記憶させてしまう
。よって、全てのDPIMM16のメモリーには、全て
の共用データのコピーが入ることになる。それ故、各演
算ユニットは、そのデータ記憶装置(DPIMM+6)
から直接必要なデータにアクセスすることができる。こ
のアクセスは、別のプロセッサーも同じデータ記憶装置
にアクセスしているから、遅れるようなことは決してあ
りえない。
To explain the principle of the reflective memory system shown in the figure, 2M
Each DPIMM data storage device 16 having a memory of B
is logically isolated in a predetermined location, and all data and programs on one side of this predetermined location are
Arithmetic unit 11 or 13 provided with MM16
within the area of 5ELBUS12 (local to
5ELBUS 12), but all data and programs on the other side are shared with other arithmetic units 11, 13 via bus 18. The read/write sense hardware 17 determines the use of the DPIMM 16 in a specific/shared system (local/5hared).
5ysten). This sense of reading and writing/
Logic unit 17 is connected to the second port of each DPIMMI6. If CPU13, 11 (or
When the PPU 14) writes to an address in the shared portion of the corresponding DPIMM 16, this write operation is detected by the read/write sense (read/write sense) 17 and the address, so that the data is transferred to the reflective memory bus 18.
is output to. All DPIMM+6's will then automatically accept this data and store it in their memory. Therefore, the memory of all DPIMMs 16 will contain a copy of all shared data. Therefore, each arithmetic unit has its data storage device (DPIMM+6)
You can access the data you need directly. This access can never be delayed since another processor is also accessing the same data storage device.

尚、2つないしそれ以上のプロセッサーが同一データ項
目を同時に処理しようとすることから、それによる「衝
突」をさけることは根本的に重要なことである。この衝
突の回避は、前述のように読み書きセンス・ロジック・
ユニット17からシステムの他のノードの夫々に単一の
書込み命令を出すように、その読み書きセンス・ロジッ
ク・ユニット■7を用いることにより達成しうる。各ノ
ードにはそれ自体に独特なアドレス区画があるので、唯
一のノードのみが、データ記憶装置の共用データ部にお
ける各アドレスにデータを書き込むことができ、一つの
データ記憶装置16におけるデータの項目のアドレスは
、残る全てのデータ記憶装置16におけるデータの同一
項目のアドレスと同一である。よって、全てのノードが
全てのデータ記憶装置16の共用データ部に書込みを行
うことができるものの、実際にそれが行なわれるトラン
ザクションは、データを書込むべきアドレスが、システ
ムを「マスター」たらしめているメモリーセグメント内
にあるトランザクションである。例えば、フライト・プ
ロセッサーよりなるフライトシミュレータの場合では、
そのプロセッサーのみが、高度についての記憶値を実際
に修正することができる。何故ならば、高度は、プロセ
ッサーのアドレスの枠内にあり、他のプロセッサーのア
ドレスの枠からみればその外にあるからである。換言す
れば、他のプロセッサ〜は、高度についての記憶値を読
出ずことはできるが、修正することはできない。従って
、異なったデータ記憶装置における共用データに更新す
るに備えて同一時間順に維持するのに複雑な手順を要す
ることなく、数値上の不一致を回避させることができる
Note that since two or more processors attempt to process the same data item at the same time, it is fundamentally important to avoid "collisions" caused by this. The avoidance of this collision is achieved by using the read/write sense logic as described above.
This can be accomplished by using its read/write sense logic unit 7 to issue a single write command from unit 17 to each of the other nodes of the system. Since each node has its own unique address partition, only one node can write data to each address in the shared data portion of the data storage device, and only one node can write data to each address in the shared data portion of the data storage device 16. The address is the same as the address of the same item of data in all remaining data storage devices 16. Therefore, although all nodes can write to the shared data section of all data storage devices 16, the transaction in which this is actually performed depends on the address to which the data is written, making the system the "master". A transaction within a memory segment. For example, in the case of a flight simulator consisting of a flight processor,
Only that processor can actually modify the stored value for altitude. This is because the altitude is within the address range of the processor and outside of the address range of other processors. In other words, other processors can read the stored value for altitude, but cannot modify it. Therefore, numerical discrepancies can be avoided without requiring complicated procedures to maintain the same chronological order in preparation for updating shared data in different data storage devices.

また、別の特徴として、読み書きセンス・ハードウェア
17は、DPIMMのメモリー16における入出力デー
タに割当てたアドレスに対する入出力読み書き要求を検
出することができる。アドレスは、例えばフライトシミ
ュレータの入出力リンクの如きのユーザー用高速人出力
装置と接続したRAM+9におけるロケーションをあら
れす。
Another feature is that read/write sense hardware 17 can detect input/output read/write requests for addresses assigned to input/output data in memory 16 of the DPIMM. The address indicates a location in RAM+9 connected to a user high speed human output device, such as a flight simulator input/output link.

これでデータの高速獲得が可能である。(以前は、DP
IMM+6は入出力機能に使われていたが、それも、個
別的なデータ要素の伝達ではなくて、ブロックモード伝
達において使われていた。)このような入出力をメモリ
ー・マツブト入出力(Memory  Mat)ped
  tnputloutput)と称する。
This allows high-speed data acquisition. (Previously, DP
The IMM+6 was used for input/output functions, but it was also used in block mode transmission rather than the transmission of individual data elements. ) This kind of input/output is called Memory Mat input/output (Memory Mat) ped
tnputoutput).

各ノードの5ELBUS12と反射メモリーバス18と
の間の信号のやりとりについて、第3図と第4図とを参
照しながら説明する。
The exchange of signals between the 5ELBUS 12 of each node and the reflective memory bus 18 will be explained with reference to FIGS. 3 and 4.

各バス12,113には、並列データ、アドレス。Each bus 12, 113 carries parallel data and addresses.

バス編成信号(bus  organization 
 signals)、それに、バス制御信号が26.6
MB/秒の速度で伝送されている。このデータ速度は、
40フイートのバス長にわたって維持することができる
が、バス長かこれより長ければ、例えばバス長が80フ
イートであれば、13.3MB/秒に減速させる必要が
ある。第3図はバス18を概略的に図解したものであっ
て、32本のデータ線と、24本のアドレス線と、9本
のバス要求線と、9本のバス受付は線(bus  gr
ant  1ines)と、4本のノード識別線(no
de  1dentity  1ines)と、制御線
とからなる。但し、制御線については、バス18を介し
てのデータの通信に適切なものとして2本しか図示して
いない。ノードは9つあることになるが、各ノードに対
応するバス要求線とバス受付線が割当てられているとと
もに、1つのノードはCPU13よりなり、また、他の
各ノードはCPU11で構成されている。
bus organization signal
signals), and the bus control signals are 26.6
It is transmitted at a speed of MB/s. This data rate is
It can be maintained over a bus length of 40 feet, but for bus lengths or longer, for example, if the bus length is 80 feet, it must be slowed down to 13.3 MB/sec. FIG. 3 schematically illustrates the bus 18, with 32 data lines, 24 address lines, 9 bus request lines, and 9 bus reception lines (bus gr).
ant 1ines) and four node identification lines (no
de 1dentity 1ines) and a control line. However, only two control lines are shown as they are suitable for data communication via the bus 18. There are nine nodes, and a bus request line and a bus reception line are assigned to each node, and one node consists of a CPU 13, and each other node consists of a CPU 11. .

第4図は第2図における要部を詳しく図示したものであ
って、バス12とバス18との間に接続したDPIMM
+6と読み書きセンス・ロジック17の細部を示すもの
である。第4図の構成と連係するノードプロセッサーが
データ記憶装置16に書込みを行うものとすると、書込
むべきデータとそのアドレスとはラッチ回路20に、ま
た、それを書込むべきアドレスはアドレス比較器21に
夫々ロードされる。そこで、記憶装置に6にデータが首
尾よく書込まれたとすると、「書込み成功」信号が検出
器22に送られる。この「書込み成功」信号は、従来例
におけるのと全く同一の方法でバス12の制御線のいづ
れか一本を介して送られる。
FIG. 4 is a detailed illustration of the main parts in FIG. 2, and shows the DPIMM connected between bus 12 and bus 18.
+6 and the details of the read/write sense logic 17. When a node processor associated with the configuration shown in FIG. 4 writes to the data storage device 16, the data to be written and its address are sent to the latch circuit 20, and the address to be written is sent to the address comparator 21. are loaded respectively. Thus, assuming data has been successfully written to the storage device 6, a "write success" signal is sent to the detector 22. This "write success" signal is sent over any one of the control lines of bus 12 in exactly the same manner as in the prior art.

アドレスが比較器21で設定される所定範囲にない場合
、それは局所的なものであることを意味し、他のノード
と共用されることはない。他方、前述のアドレスが前記
所定範囲にあれは、比較器からアンドゲート23に出力
が出される。検出器22もゲート23に出力をだすよう
になっているから、これによりラッチ回路20を制御し
て、ラッチ回路20におけるアドレスとデータとが、前
記アドレスが設定範囲内にあり、しかも、「書込み成功
」信号が検出された時のみに限って、先着先出レジスタ
ー24 thirst  in  first  ou
t  register(FIFO))にロードされる
If the address is not within the predetermined range set by comparator 21, it means that it is local and will not be shared with other nodes. On the other hand, if the address is within the predetermined range, the comparator outputs an output to the AND gate 23. Since the detector 22 also outputs an output to the gate 23, the latch circuit 20 is controlled by the detector 22, and the address and data in the latch circuit 20 are determined to be within the set range and if the address is "write". first-in-first-out register 24 only when a "success" signal is detected.
t register (FIFO)).

FIFO24は、通常は待ち行列には1つまたは2つの
メツセージしかないのではあるが、64の伝送用メツセ
ージの待ち行列を作ることができる。60ないしそれ以
上のメツセージの待ち行列が作られた場合、「通信中」
信号がシステムに対して出されるので、バスアクセス要
求を行うに当たって各ノードの優先順の重みを増加させ
る。また、FIFOが伝送待ちのメツセージで満杯にな
ると関連するノードプロセッサーを中断させるのに適当
な回路が、図示こそしていないが、設けられている。
FIFO 24 can queue up to 64 messages for transmission, although normally there are only one or two messages in the queue. If a queue of 60 or more messages is created, the message is "busy".
A signal is issued to the system to increase the priority weight of each node in making bus access requests. Suitable circuitry, not shown, is also provided to interrupt the associated node processor when the FIFO becomes full with messages awaiting transmission.

FIFO24が伝送用メツセージを記憶すると、このこ
とがバス要求ロジック回路25に」二つて検出され、然
る後、該回路25より、バス18の各線にバス要求信号
が出力される。このバス要求信号はCPU13(第2図
)に送られて、バス18の動作を制御する。CPU13
は、所定の順序にて1つずつ伝送すべきメツセージを有
するノードへのアクセスを許可するから、各ノードにお
ける待ち行列の先頭メツセージは、バス18の動作の1
サイクル中に伝送され、以後、同様にメツセージが順次
伝送される。従って、然るべくしてバス要求ロジックが
バス18より「バス受付け」信号を受信し、それに伴っ
て、FIFO24におけるメツセージを伝送器26を介
してバス18に送り出すようになる。
When the FIFO 24 stores a message for transmission, this is detected by the bus request logic circuit 25, which then outputs a bus request signal to each line of the bus 18. This bus request signal is sent to CPU 13 (FIG. 2) to control the operation of bus 18. CPU13
allows access to nodes that have messages to be transmitted one by one in a predetermined order, so that the first message in the queue at each node is one of the operations on bus 18.
The message is transmitted during the cycle, and thereafter messages are transmitted sequentially in the same way. Accordingly, the bus request logic receives a "bus accept" signal from bus 18 and accordingly causes the message in FIFO 24 to be sent to bus 18 via transmitter 26.

第4図の構成が伝送メツセージを受信するノードである
とすれば、その伝送メツセージは下記の如く取扱われる
。即ち、CPU13がバス要求を受付け、それに伴って
バス18の制御線のいづれか1本にクロック信号が出力
される。このクロック信号は、メツセージの伝送受信サ
イクルを開始するのに使われるものであって、メツセー
ジが伝送されると、従来公知のルーチン、例えばパリテ
ィ・チェックによりその有効性がCPU13で判断され
る。即ち、バスに送られたデータが有効と判断されると
「データ有効」信号がバスI8の他の制御線に伝送され
る。従って、伝送メツセージがクロック信号と「データ
有効」信号とにより一括(brackec)される。
If the configuration shown in FIG. 4 is a node that receives a transmitted message, the transmitted message is handled as follows. That is, the CPU 13 accepts a bus request, and a clock signal is output to one of the control lines of the bus 18 accordingly. This clock signal is used to initiate a message transmission/reception cycle, and when a message is transmitted, its validity is determined by CPU 13 using conventional routines such as parity checking. That is, when the data sent to the bus is determined to be valid, a "data valid" signal is transmitted to the other control lines of bus I8. Thus, the transmitted message is bracketed by the clock signal and the "data valid" signal.

かくて、伝送されたデータとアドレスとが、受信器28
を経てラッチ回路27にロードされるとともに、アドレ
スがアドレス比較器29にロードされる。「データ有効
」信号は、「データ有効」信号検出器30で検出される
。比較器29と検出器30の出力はアンドゲート31と
接続されているとともに、比較器29には、記憶装置1
6が局所的(local)となっているノード以外のノ
ードにより書込まれるデータ記憶装置16の部分に対応
する所定範囲のアドレスが設定されている。従って、受
信したアドレスがこの範囲内にあると同時に、「データ
有効」信号が検出されれば、アンドゲート31からFI
FO32にラッチ回路27におけるメツセージのデータ
が転送されることになる。FIF03、.2においては
、記憶装置16に書込むべきデータを含めて64までの
メツセージの待ち行列を記憶する。
Thus, the transmitted data and address are transferred to the receiver 28.
At the same time, the address is loaded into the address comparator 29. The “data valid” signal is detected by a “data valid” signal detector 30. The outputs of the comparator 29 and the detector 30 are connected to an AND gate 31, and the comparator 29 is connected to the memory device 1.
A predetermined range of addresses are set that correspond to portions of the data storage device 16 that are written by nodes other than the node for which node 6 is local. Therefore, if the received address is within this range and at the same time the "data valid" signal is detected, the FI
The message data in the latch circuit 27 is transferred to the FO 32. FIF03,. 2, a queue of up to 64 messages, including data to be written, is stored in the storage device 16.

F I FO32に記憶装置16に書込むべきメツセー
ジがあると、メモリー内容転送要求が要求ロジック回路
33に対してなされ、かくて、回路33は記憶装置16
と連絡をとりあって、記憶装置16から要求受付は信号
を受信するようになる。これにより、FIFO32にお
ζJる待ち行列の先頭メツセージがリリースされ、かく
て記憶装置16の対応アドレスが更新される。
When the F I FO 32 has a message to be written to the storage device 16, a memory contents transfer request is made to the request logic circuit 33, so that the circuit 33 writes the message to the storage device 16.
and receives a request acceptance signal from the storage device 16. As a result, the first message in the queue stored in the FIFO 32 is released, and the corresponding address in the storage device 16 is thus updated.

データ項目が出力される時間順(chronologi
calordes)とは別の順序で然るべく記憶装置に
書込むべきそのデータ項目を含むFIFO24,32に
有効数のメツセージが貯えられることがある。しかし、
共用データの各アドレスがそれに特有の「マスター」ノ
ードによって書き込まれること、それに、そのノードよ
り出力されたメツセージがFIF024に集まった後、
FIFO24から時間順に伝送されることから、各メモ
リーアドレスは夫々正しい順序で更新される。異なった
アドレスにおけるデ〜りがいくらか時間順に従わないこ
ともありうるが、それも、記憶されているパラメータの
変化速度が実時間相互応答系(real  time 
 1nteractive  systems)におい
ては、システムの応答速度(interaction 
 rate  of  the  system)に比
べて遅いので、問題にならない。従って、システム設計
者としては、時間順を維持するのに要する精確な手順を
課する必要はなく、アドレス比較器21.29を正確に
設定するだけで良い。よって、本発明によるシステムは
非常に融通があり、例えばフライトシミュレ〜ンヨンの
如きの非常に複雑な実時間仕事を行う場合を想定しただ
けでも、比較的容易にインプリメンテーションできるも
のである。
The chronological order in which data items are output (chronology
A valid number of messages may be stored in the FIFO 24, 32 containing the data items to be written to storage accordingly in a different order than the messages (calordes). but,
Each address of shared data is written by its own "master" node, and after the messages output by that node are collected in FIF024,
Since data is transmitted from the FIFO 24 in time order, each memory address is updated in the correct order. It is possible that the data at different addresses may be somewhat out of chronological order, but this also depends on the rate of change of the stored parameters in a real time interaction system.
1interactive systems), the response speed of the system (interaction
rate of the system), so this is not a problem. Therefore, the system designer does not need to impose the precise procedures required to maintain time order, but only needs to set the address comparators 21,29 correctly. Thus, the system according to the invention is very flexible and can be implemented relatively easily, even for very complex real-time tasks such as flight simulations.

バス18の4本のノード識別線(第3図)は、バスに伝
送されたメツセージを発したノードを識別するのに使イ
つれる。この情報は、読み書きセンス・ロジック17(
第4図)によりデータが処理されるために必要なもので
はなく、バス18におけろ通信量をモニターするのに使
われる。従って、バス18における故障や回線ふさがり
(bolt 1enecks)を容易に検出することが
てきるとともに、この余分の情報が得られれば、このよ
うなトラブルを処理することもできる。
The four node identification lines (FIG. 3) on bus 18 are used to identify the node that originated the message transmitted on the bus. This information is stored in read/write sense logic 17 (
It is not necessary for the data to be processed (FIG. 4), but is used to monitor the traffic on the bus 18. Therefore, failures or bolt necks on the bus 18 can be easily detected, and with this extra information available, such troubles can be handled.

第5図から第7図には、3種類のシステム構成の概略図
で、いずれも本発明に係るものである。
5 to 7 are schematic diagrams of three types of system configurations, all of which are related to the present invention.

第5図は、第2図のシステム構成図で、一連のノードN
が単一の反射メモリーバスRMIにより接続されている
。第6図は、第5図のシステム構成と似ているが、並列
な反射メモリーバスRMI及びRM2で接続されている
。この様な構成では、通常、システムはバスRMIのみ
を用いて動作され、バスRM2は遊びの状態にあるが、
バスRM■に故障が生じると直ちにシステムはバスRM
2に乗り変えることができる。これ等バスの状態をモニ
ターし、RMl、、RM2を独立構成とすれば、フェイ
ルセーフ式の自己修正装置を実現することができる。更
に、処理ノード自身を2組設け、両者共、バスRMI、
RM2に接続し、一方は通常動作させ、他方は待機状態
にすれば、一方が故障した場合のシステム保障を確実に
することができる。
FIG. 5 is a system configuration diagram of FIG. 2, with a series of nodes N
are connected by a single reflective memory bus RMI. FIG. 6 is similar to the system configuration of FIG. 5, but is connected by parallel reflective memory buses RMI and RM2. In such a configuration, the system is normally operated using bus RMI only, with bus RM2 idle;
As soon as a failure occurs on bus RM, the system
You can switch to 2. If the status of these buses is monitored and RM1, RM2 are configured independently, a fail-safe self-correction device can be realized. Furthermore, two sets of processing nodes are provided, and both have buses RMI,
By connecting it to RM2 and leaving one in normal operation and the other in standby mode, system security can be ensured even if one fails.

第5図、第6図の構成では、各反射メモリーバスは各ノ
ードに接続されているので、最も離間したノード間でも
バスの伝送範囲、典型的には26゜6MB/秒で40フ
イート、を越えることはできない。ある場合、例えば、
船上火災制御システムで、たとえ一つのノードが完全に
損傷されても、システムの継続動作を望んだり、ノード
を広く配置することを望んだりする場合、ノード間を上
述の距離よりも広く離して設けることが好ましい。
In the configuration of Figures 5 and 6, each reflective memory bus is connected to each node so that even between the most distant nodes the transmission range of the bus, typically 40 feet at 26°6 MB/sec, is maintained. It cannot be surpassed. In some cases, for example,
In a shipboard fire control system, if you want the system to continue operating even if one node is completely damaged, or if you want the nodes to be spread out, the nodes should be separated by a wider distance than the above distance. It is preferable.

そうすれば、局所的な損傷があっても、大多数のノード
は損傷を受けることはない。第7図は、本発明に係る構
成を示し、これにより、最も近接して設けたノード間の
距離を、反射メモリーバスの最大伝送範囲と等しくする
ことが可能となる。
That way, even if there is local damage, the majority of nodes will not be damaged. FIG. 7 shows an arrangement according to the invention, which makes it possible to make the distance between the closest nodes equal to the maximum transmission range of the reflective memory bus.

第7図の構成では、一連の6つのノードN1がらN6は
、効果的に5組のベアNl、N2.N2゜N3.N1.
N4.N2.N5及びN3.N6で構成され、各ペアは
、第2図で説明した順番に従って動作する。ノードの対
は、夫々の反射メモリーバスRMIからRM5によりリ
ンクされる。各ノードの記憶装置は局所データセクショ
ン及び共用データセクションに分けられ、共用データセ
クションは更に、各反射メモリーバス専用ザブセクショ
ンに細分化される。従って、全てのノードには共用デー
タセクションがあるが、ノードNlではそれが2つのサ
ブセクションに、ノードN2では3つのサブセクション
に、細分化されてぃル一方、ノードN4では全く細分化
されていない。共用メモリの細分化されたサブセクショ
ンのそれぞれには、第4図の回路27から33に相当す
る続出センス回路を備えている。
In the configuration of FIG. 7, the series of six nodes N1 to N6 effectively consists of five sets of bears Nl, N2 . N2°N3. N1.
N4. N2. N5 and N3. Each pair operates in the order described in FIG. The pairs of nodes are linked by respective reflective memory buses RMI to RM5. The storage of each node is divided into a local data section and a shared data section, and the shared data section is further subdivided into subsections dedicated to each reflective memory bus. Therefore, all nodes have a shared data section, but in node Nl it is subdivided into two subsections, in node N2 it is subdivided into three subsections, while in node N4 it is not subdivided at all. do not have. Each subdivided subsection of the shared memory is provided with successive sense circuits corresponding to circuits 27 to 33 of FIG.

ノードNlが共用すべきデータを出力したと仮定すれば
、そのデータは、全システムを通じ、ノードN1のみが
それに書くことができる特別のアドレスを持つことにな
る。ノードN1は、そのデータを共用メモリの各サブセ
クションに書込みを試みても、データに割当てられたア
ドレスが続出センス論理回路のアドレス比較器により設
定される範囲内である場合にのみ、その試みが成功する
Assuming that node Nl outputs data to be shared, that data will have a special address throughout the entire system that only node N1 can write to it. Node N1 attempts to write its data to each subsection of shared memory only if the address assigned to the data is within the range set by the address comparator of the successive sense logic. success.

そのデータが全てのサブセクションに書込まれたとすれ
ば、そのデータはノードN2及びN4に伝送される。そ
して、ノードN2では、それ自身の共用メモリに新規に
書込まれたデータをノードN3、N5に伝送するが、こ
の場合、メモリーバスRMI用として、割当てられたサ
ブセクションにあるデータを、メモリーバスRM2用及
びRM4用として割当てられたそれぞれのサブセクショ
ンにコピーし、ソフトウェアによる制御によってデータ
伝送が行なわれる。続いてデータはノードN3からノー
ドN6へ伝送される。各メモリーロケーションは、単一
のノードによってのみ書込みが可能なので、かなり簡単
な手順でノード間のデータ伝送を行うことができる。図
示の構成では、任意の2つのノード間のデータ伝送路は
1つしかないが、必ずしもこれに限る必要はない。例え
ば、点線で示すようなメモリーバスRM6をノードN4
とN5の間に追加してもよい。もし、ノードN1で発生
したデータをノードN5の共用メモリーに書込むとすれ
ば、そのデータをバスRMI及びRM4を介して伝送し
、それが成功しなかった場合は別のルートとしてバスR
M3及びRM6を介して伝送するようにソフトウェアを
組むことも可能である。データが書込まれた共用データ
メモリーのサブセクションを制御するソフトウェアルー
チンがあれば十分である。
If the data is written to all subsections, it is transmitted to nodes N2 and N4. Then, node N2 transmits the data newly written in its own shared memory to nodes N3 and N5, but in this case, the data in the allocated subsection is transferred to the memory bus for RMI. The data is copied to the respective subsections allocated for RM2 and RM4, and data transmission is performed under software control. Data is then transmitted from node N3 to node N6. Since each memory location can only be written to by a single node, data transmission between nodes can be accomplished in a fairly simple manner. In the illustrated configuration, there is only one data transmission path between any two nodes, but it is not necessarily limited to this. For example, the memory bus RM6 as shown by the dotted line is connected to the node N4.
It may be added between N5 and N5. If data generated at node N1 is to be written to the shared memory of node N5, the data is transmitted via buses RMI and RM4, and if that is not successful, another route is taken to route bus R.
It is also possible to program the software to transmit via M3 and RM6. A software routine that controls the subsection of the shared data memory into which data is written is sufficient.

第8図に示ず構成は、第7図に示すものと似ているが、
個々の反射メモリーバスにより互いに連結されたペアの
シングルノードより、9つのノードから成るグループ内
でノードは互いに連結され。
The configuration not shown in Figure 8 is similar to that shown in Figure 7, but
The nodes are interconnected in groups of nine nodes by pairs of single nodes interconnected by individual reflective memory buses.

各グループから選ばれた一つのノードに接続される他の
反射メモリーバスで、これ等のグループはペアとなって
相互に連結される。第8図に示す如く、各グループは、
第2図で示したプロセッサ・ユニット13を含むものと
似たフロント・エンド・プロセッサ・ノードPENを有
し、それは反射メモリーバスRMGにより、第2図で示
したプロセッサ・ユニットと同様な8個のノードNlか
らN8に相互に連結されている。ノードN8は、反射メ
モリーバスRMIからRMnによりペアとなって互いに
連結され、第7図のノードN2の場合と同様に「ソフト
ウェアの交換」として動作する。
The groups are interconnected in pairs with another reflective memory bus connected to one node selected from each group. As shown in Figure 8, each group is
It has a front end processor node PEN similar to the one containing the processor unit 13 shown in FIG. The nodes Nl to N8 are interconnected. Nodes N8 are coupled together in pairs by reflective memory buses RMI to RMn and operate as a "software exchange" in the same way as node N2 in FIG.

異なった反射メモリーバス間での「ソフトウェアの交換
」は、バス間にてのデータ伝送に幾分かの遅延をもたら
す。第9図は、「ソフトウェア交換」に置換わる[リピ
ータ−(repeater)Jを示し、これにより自動
的なハードウェア接続が達成され、データ伝送のスピー
ドアップを図ることができる。
"Software swapping" between different reflective memory buses introduces some delay in data transmission between the buses. FIG. 9 shows a "repeater J" replacing the "software exchange", whereby an automatic hardware connection can be achieved and speeding up data transmission.

第9図において、図示するリピータ−はバスRM2.R
Ma間のノードN8に置換るもので、第2図及び第4図
に示す読み書きセンス・ハードウェア17と類似の読み
書きセンス・ハードウェアを3セツト使用して構成され
る。各セットは、続出しセンス回路R8Cと書込みセン
ス回路WSCを有し、そしてその各ボートは反射メモリ
ーバスに接続され、各続出しセンス回路の出力は、他の
2つの書込みセンス回路の入力に接続される。各ボート
はそれぞれ隔離されたアドレスを有し、その範囲は、バ
ス間のデータ伝送を要望に従って制限する。従って、リ
ピータ−は、バスに接続された他のノードと全ぐ同様に
動作すると共に、リピータ−により反射メモリーバスに
伝送されろデータは、そのバス上の他の全てのノードか
ら出力されたデータと全く同様に扱われる。データは、
FIFO回路によりリピータ−でバッファがかけられ、
通常のノードと同様に、バス・アクセスが制限される。
In FIG. 9, the illustrated repeater is connected to bus RM2. R
It replaces the node N8 between Ma and is constructed using three sets of read/write sense hardware similar to the read/write sense hardware 17 shown in FIGS. 2 and 4. Each set has a successive sense circuit R8C and a write sense circuit WSC, and each port thereof is connected to a reflective memory bus, and the output of each successive sense circuit is connected to the input of the other two write sense circuits. be done. Each boat has its own isolated address, the range of which limits data transmission between the buses as desired. Therefore, a repeater behaves exactly like any other node connected to the bus, and the data transmitted by the repeater to the reflective memory bus is the data output by all other nodes on that bus. are treated exactly the same. Data is,
Buffered by a repeater using a FIFO circuit,
As with normal nodes, bus access is restricted.

バス間でのデータ伝送に関連する余分なソフトウェアは
必要とせず、バス上の伝送量は、各読み書きセンス回路
から伝送されるデータのアドレスの範囲が選択され必須
とされたものに限定される。従って、システムは高速で
動作することができ、伝送距離が長く、データ割合が比
較的低いバスを容易に用いることができる。
There is no need for extra software associated with data transmission between buses, and the amount of data transmitted on the bus is limited to that required by selecting the range of addresses for data transmitted from each read/write sense circuit. Therefore, the system can operate at high speeds and easily utilize buses with long transmission distances and relatively low data rates.

リピータ−を用いれば、待機システムの導入が容易にな
る。又、そのシステムは常に完全に更新されているので
、本体に故障があればいつでも動作することかできる。
Using repeaters makes it easy to introduce a standby system. Additionally, the system is always fully updated, so it can be operated at any time if there is a malfunction in the main unit.

なお、リピータ−自身も複製しておくことができる。Note that the repeater itself can also be duplicated.

以上詳述した如く、本願発明は所期の目的を達成するも
ので有意義なものである。
As described in detail above, the present invention achieves the intended purpose and is significant.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、従来のデータ処理システムの構成を示す大略
ブロック図、第2図は、本発明にかかる実時間データ処
理システムの構成を示す大略ブロック図、第3図は、第
2図に示すシステム内のデータバスに形成した線を示す
拡大図、第4図は、第2図のシステムに用いられる読み
取り/書き込みハードウェアの構成を示す大略ブロック
図、第5図乃至第9図は、本発明にかかるシステムの変
形例の構成を示す大略ブロック図である。 l・・・CPU、2,6,12.18・・・バス3・・
IMM、 4・・・入出力装置 N1.N2.N3・・・ノード。 特許出願人 リイディフユージョン・ンミコレーンヨン
・リミテフド 代理人弁理士 青 山  葆 ばか 2 名園面の浄書
(内容に変更なし) 手続補正書 昭和60年6月11日 特許庁長官  殿       過 1、事件の表示 昭和60年特許願第 49190     号2発明の
名称 実時間データ処理装置 3補正をする者 事件との関係 特許出願人 国籍 イギリス国 4、代理人 住所 大阪府大阪市東区本町2−】O本町ビル内別紙の
とおり。
FIG. 1 is a schematic block diagram showing the configuration of a conventional data processing system, FIG. 2 is a schematic block diagram showing the configuration of a real-time data processing system according to the present invention, and FIG. 3 is the same as that shown in FIG. FIG. 4 is a schematic block diagram showing the configuration of the read/write hardware used in the system of FIG. 2; FIGS. FIG. 3 is a schematic block diagram showing the configuration of a modified example of the system according to the invention. l...CPU, 2, 6, 12.18...Bus 3...
IMM, 4...I/O device N1. N2. N3...Node. Patent Applicant Lidifugeon Nmikoreinyon Limited Patent Attorney Aoyama Baka 2 Engravings of famous gardens (no changes in content) Procedural amendments June 11, 1985 Director General of the Patent Office Toshiro 1, Case Description Showa 1960 Patent Application No. 49190 2. Name of the invention: Real-time data processing device 3. Relationship with the person making the amendment Patent applicant nationality: United Kingdom 4. Address of agent: 2 Honmachi, Higashi-ku, Osaka-shi, Osaka Prefecture -] O Honmachi Building Attachment As of.

Claims (1)

【特許請求の範囲】 1)少なくとも、二つのノードと、各ノードに対するデ
ータ記憶装置とを設け、各データ記憶装置をセクション
に仕切り、その第1のセクションを、各ノードに局部的
なデータの記憶の為に予約し、第2のセクションを、ノ
ード間に共用するデータの記憶の為に予約し、更に、ノ
ードを互いに接続するデータリンクと、そのノードがデ
ータ記憶装置の第2のセクションにアドレスを書き込む
時はいつでも、そのアドレスに書き込まれるアドレスと
データよりなる書き込みメッセージを発生する各ノード
における手段と、データリンクを介して、各ノードに、
各発生メッセージを伝達する手段と、データ記憶装置の
第2のセクションの各アドレスに、そのアドレスの主ノ
ードになる各ノードを割り当てる手段と、データが割り
当て主ノード以外によって、データ記憶装置の第2のセ
クション内のいかなるアドレスにも書き込まれるのを防
止する手段とを設けたことを特徴とする実時間データ処
理装置。 2)特許請求の範囲第(1)項に記載のものであって、
前記割り当て手段と前記防止手段とが、各ノードごとに
設けられていて、そのノードから発生したデータ書き込
みメッセージのアドレスを設定アドレス範囲と比較する
とともに、該アドレスが前記設定範囲にある時のみ前記
データ書き込みメッセージをデータリンクに転送するア
ドレス範囲比較器で構成した実時間データ処理装置。 3)特許請求の範囲第(2)項に記載のものであって、
各データ書き込みメッセージがロードされるラッチ回路
と、該ラッチ回路の出力に接続した先着先発レジスター
と、ノードに局所的なデータ記憶装置へのデータの書き
込みが首尾よく行なわれた旨を検出する検出器と、前記
検出器と比較器とに接続されていて、比較した前記アド
レスが設定アドレス範囲内にあり、しかも、データ書き
込みが首尾よく行なわれたことが検出された時に前記ラ
ッチ回路の内容を前記レジスターに転送すべく、前記ラ
ッチ回路を制御するアンドゲートと、前記レジスターに
接続されていて、該レジスターに記憶されているメッセ
ージをデータリンクを介して伝送する伝送器とを各ノー
ドごとに設けた実時間データ処理装置。 4)特許請求の範囲第(2)項に記載のものであって、
前記割り当て手段と前記防止手段とが、データリンクか
ら受取ったデータ書き込みメッセージのアドレスを設定
アドレス範囲と比較するとともに、比較したアドレスが
前記設定アドレス範囲内にある場合のみ、受取ったデー
タ書き込みメッセージを局所データ記憶装置に伝送する
アドレス比較器を各ノードごとに備えている実時間デー
タ処理装置。 5)特許請求の範囲第(4)項に記載のものであって、
いづれか1つのノードはデータリンク上の通信量を制御
するものであり、他方、残りの各ノードがアクセス要求
ロジック回路で構成されており、しかも、前記通信量を
制御する前記1つのノードを、前記アクセス要求ロジッ
ク回路からのアクセス要求に応じて前記残りのノードに
対するアクセスをデータリンクに個別的に割り当てる手
段と、前記アクセスがノードに与えられる都度データリ
ンクにクロック信号を供給する手段と、データリンク上
を伝送されるメッセージの有効性を照合する手段と、照
合したメッセージが有効であれば、データリンクに有効
信号を供給する手段と、伝送されているメッセージに含
まれているデータが局所データ記憶装置に転送されるの
を有効信号が受信されるまでに阻止するものであって、
各ノードごとに設けた阻止手段とで構成した実時間デー
タ処理装置。 6)特許請求の範囲第(1)項に記載のものであって、
ノードと並列接続したデータリンクを2本設けた実時間
データ処理装置。 7)特許請求の範囲第(1)項に記載のものであって、
ノードを複数のグループに配列し、各グループ内のノー
ドを、各データリンクにより並列に接続し、少なくとも
、ノードの一つを、グループの2つに属する様に構成す
る一方、2つのグループに属するノードでの共用データ
を受け取るデータ記憶装置のセクションを、複数のサブ
セクションに分け、その各々は各グループのノードと共
用するデータを受け取るようにし、かつ、データを、ノ
ードの2つのグループの間で共用する場合、1つのサブ
セクションから、他のサブセクションへのデータの転送
を制御する為のソフトウェアを設けた実時間データ処理
装置。 8)特許請求の範囲第(1)項に記載のものであって、
2つのグループのノードを設け、これを夫々のデータリ
ンクと、各データリンクに接続したリピータとで互いに
接続する一方、前記リピータを、各データリンクごとに
、第1選択範囲のアドレスを有するメッセージを第1デ
ータリンクから第2データリンクへ、また、第2選択範
囲のアドレスを有するメッセージを第2データリンクか
ら第1データリンクへと転送するための読み書きセンス
・ハードウェアで構成した実時間データ処理装置。
[Scope of Claims] 1) At least two nodes and a data storage device for each node are provided, each data storage device is partitioned into sections, and the first section is used for storing data local to each node. a second section for the storage of data to be shared between the nodes, and a second section for data links connecting the nodes to each other and a second section of the data storage that the nodes address. to each node via the data link, with means at each node generating a write message consisting of the address and data to be written to that address whenever the address is written.
means for transmitting each generated message; and means for assigning, to each address in the second section of the data storage, each node that becomes the primary node for that address; 1. A real-time data processing device, comprising means for preventing writing to any address within the section. 2) What is described in claim (1),
The allocation means and the prevention means are provided for each node, and compare the address of a data write message generated from that node with a set address range, and only when the address is within the set range, the data write message is A real-time data processing device consisting of an address range comparator that forwards write messages to a data link. 3) What is described in claim (2),
a latch circuit into which each data write message is loaded; a first-come, first-served register connected to the output of the latch circuit; and a detector to detect a successful write of data to a data storage device local to the node. is connected to the detector and the comparator, and when it is detected that the compared address is within the set address range and data writing has been successfully performed, the contents of the latch circuit are transferred to the Each node is provided with an AND gate that controls the latch circuit and a transmitter that is connected to the register and that transmits the message stored in the register via a data link. Real-time data processing equipment. 4) What is described in claim (2),
The allocation means and the prevention means compare the address of the data write message received from the data link with a set address range, and locally assign the received data write message only if the compared address is within the set address range. A real-time data processing device that includes an address comparator for each node that transmits to a data storage device. 5) What is described in claim (4),
One of the nodes controls the amount of communication on the data link, while each of the remaining nodes is configured with an access request logic circuit, and the one node that controls the amount of communication is configured to control the amount of communication on the data link. means for individually allocating access to said remaining nodes to a data link in response to an access request from an access request logic circuit; means for supplying a clock signal to said data link each time said access is granted to a node; means for verifying the validity of the message being transmitted; and means for providing a valid signal to the data link if the verified message is valid; before a valid signal is received,
A real-time data processing device consisting of blocking means provided for each node. 6) What is described in claim (1),
A real-time data processing device with two data links connected in parallel to the nodes. 7) What is described in claim (1),
arranging the nodes in a plurality of groups, connecting the nodes in each group in parallel by respective data links, and configuring at least one of the nodes to belong to two of the groups; The section of data storage that receives data shared by the nodes is divided into a plurality of subsections, each receiving data shared with each group of nodes, and the section of data storage that receives data shared between the nodes is If shared, a real-time data processing device provided with software to control the transfer of data from one subsection to another. 8) What is described in claim (1),
providing two groups of nodes and connecting them to each other by a respective data link and a repeater connected to each data link, while causing said repeaters to receive, for each data link, a message having an address in a first selection range; real-time data processing comprising read/write sense hardware for transferring a message having a second selected range of addresses from a first data link to a second data link and from the second data link to the first data link; Device.
JP60049190A 1984-03-10 1985-03-11 Real time data processor Granted JPS61856A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB848406322A GB8406322D0 (en) 1984-03-10 1984-03-10 Data processing system
GB8406322 1984-03-10
GB8420617 1984-08-14

Publications (2)

Publication Number Publication Date
JPS61856A true JPS61856A (en) 1986-01-06
JPH0570182B2 JPH0570182B2 (en) 1993-10-04

Family

ID=10557886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60049190A Granted JPS61856A (en) 1984-03-10 1985-03-11 Real time data processor

Country Status (2)

Country Link
JP (1) JPS61856A (en)
GB (1) GB8406322D0 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4846885B2 (en) * 1996-04-04 2011-12-28 エマソン プロセス マネージメント パワー アンド ウォーター ソリューションズ, インコーポレイテッド A stimulating simulator for distributed process control systems.

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54122060A (en) * 1978-03-15 1979-09-21 Nec Corp Inter-processor information transfer system
JPS54122059A (en) * 1978-03-15 1979-09-21 Nec Corp Inter-processor information transfer system
JPS5833766A (en) * 1981-08-22 1983-02-28 Nippon Signal Co Ltd:The Multi-microcomputer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54122060A (en) * 1978-03-15 1979-09-21 Nec Corp Inter-processor information transfer system
JPS54122059A (en) * 1978-03-15 1979-09-21 Nec Corp Inter-processor information transfer system
JPS5833766A (en) * 1981-08-22 1983-02-28 Nippon Signal Co Ltd:The Multi-microcomputer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4846885B2 (en) * 1996-04-04 2011-12-28 エマソン プロセス マネージメント パワー アンド ウォーター ソリューションズ, インコーポレイテッド A stimulating simulator for distributed process control systems.

Also Published As

Publication number Publication date
GB8406322D0 (en) 1984-04-11
JPH0570182B2 (en) 1993-10-04

Similar Documents

Publication Publication Date Title
US5072373A (en) Real-time data processing system
US5255369A (en) Multiprocessor system with reflective memory data transfer device
US6557069B1 (en) Processor-memory bus architecture for supporting multiple processors
EP0207876B1 (en) Modular multiport data hub
US6526469B1 (en) Bus architecture employing varying width uni-directional command bus
US4484273A (en) Modular computer system
US4466098A (en) Cross channel circuit for an electronic system having two or more redundant computers
US4608631A (en) Modular computer system
US5255367A (en) Fault tolerant, synchronized twin computer system with error checking of I/O communication
EP0184657A2 (en) Multicomputer digital processing system
JPS6218949B2 (en)
GB1572972A (en) Data processing apparatus
IL97315A (en) Multiple cluster signal processor
GB2148563A (en) Multiprocessor system
US5146605A (en) Direct control facility for multiprocessor network
JPH04312160A (en) Multiprocessor system and its message transmission and reception controller
US5313620A (en) Selective receiver for each processor in a multiple processor system
JPH056223B2 (en)
JPH0217818B2 (en)
US5581732A (en) Multiprocessor system with reflective memory data transfer device
JPH11212939A (en) System for exchanging data between data processor units having processor interconnected by common bus
US4658353A (en) System control network for multiple processor modules
GB2096369A (en) Decentralized data processing system of modular construction
JPS61856A (en) Real time data processor
EP0067519B1 (en) Telecommunications system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees