JPS60147845A - System for controlling load of circulating pipeline type data flow computer - Google Patents

System for controlling load of circulating pipeline type data flow computer

Info

Publication number
JPS60147845A
JPS60147845A JP59003851A JP385184A JPS60147845A JP S60147845 A JPS60147845 A JP S60147845A JP 59003851 A JP59003851 A JP 59003851A JP 385184 A JP385184 A JP 385184A JP S60147845 A JPS60147845 A JP S60147845A
Authority
JP
Japan
Prior art keywords
data
instruction
function
data flow
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59003851A
Other languages
Japanese (ja)
Inventor
Tadashi Naruse
正 成瀬
Masaru Takesue
武末 勝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP59003851A priority Critical patent/JPS60147845A/en
Publication of JPS60147845A publication Critical patent/JPS60147845A/en
Pending legal-status Critical Current

Links

Landscapes

  • Advance Control (AREA)

Abstract

PURPOSE:To avoid the deadlock of a system caused by the overflow of a cue, by appropriately delaying the executing time of a function wake-up instruction depending upon the number of data staying at the cue. CONSTITUTION:Execution of a function wake-up instruction CALL is started when a new function identifier is obtained. In this case, the load of a data flow computer DFM is first checked from a threshold deciding circuit 10 and, when no overload exists, the function identifier is put in a cue 4 as an arithmetic result. In the case of an overload, the function identifier is put in a function wake-up instruction cue 11. Reopening of the interrupted CALL instruction is made at the time up of a timer 12. Even at the reopening of the interrupted CALL instruction, the load of the computer DFM is checked by means of the threshold deciding circuit 10 and, when an overload exists, the executing of the CALL instruction is again interrupted. When no overload exists, the CALL instruction at the leading head of the cue 11 and its accompanying function identifier are fetched and the function identifier is put in the cue 4 as the arithmetic result.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、連環パイプライン型データフロー計算機にお
いて、関数起動命令の実行時期を動的に制御する方式に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to a system for dynamically controlling the execution timing of a function activation instruction in a linked pipeline data flow computer.

〔従来技術〕[Prior art]

第1図に連環パイプライン型データフロー計算機の概略
構成を示す。第1図中、1は命令メモリ、2はデータメ
モリ、3は演算装置、4はキューすなわち緩衝記憶装置
であり、これらは環状に結合される。命令メモリ1は関
数型言語により定義されるデータフロープログラムを格
納するメモリであり、データメモリ2は該データフロー
プログラム上を流れるデータを格納するメモリである。
FIG. 1 shows a schematic configuration of a linked pipeline data flow computer. In FIG. 1, 1 is an instruction memory, 2 is a data memory, 3 is an arithmetic unit, and 4 is a queue or buffer storage device, which are coupled in a ring. The instruction memory 1 is a memory that stores a data flow program defined by a functional language, and the data memory 2 is a memory that stores data flowing on the data flow program.

演算装置3は該データメモリ2のデータの演算を実行す
るユニットであり、演算結果のデータはキュー4を介し
て命令メモリ1に渡される。キューすなわち緩衝記憶装
置4の役割は、命令メモリ1、データメモリ2および演
算装置3における処理速度の不平衡によって生じるデー
タの流れの乱れを 、吸収することにある。
The arithmetic unit 3 is a unit that executes arithmetic operations on the data in the data memory 2, and data resulting from the arithmetic operations is passed to the instruction memory 1 via a queue 4. The role of the queue or buffer storage device 4 is to absorb disturbances in data flow caused by unbalanced processing speeds in the instruction memory 1, data memory 2, and arithmetic unit 3.

ここで、キュー4にデータが滞留し、キュー長が増加す
る場合を以下に示す。
Here, a case where data stays in the queue 4 and the queue length increases will be described below.

第2図はデータフロープログラムの一例で、ア □−ク
(矢印)上の黒丸はデータを表わす。今、オペレーショ
ンノードOP1の演算が行われて、結果が得られた瞬間
とする。この時点で、OP2゜○P310P4の相手方
データはすでに致着していたものとする。OP、の出力
データがOP2〜OP4へ配分されれば、それらの演算
はいつでも実行できる。
Figure 2 is an example of a data flow program, and the black circles above the □- marks (arrows) represent data. Now assume that the moment when the operation of the operation node OP1 is performed and the result is obtained. At this point, it is assumed that the data of the other party of OP2゜○P310P4 has already arrived. If the output data of OP is distributed to OP2 to OP4, those operations can be executed at any time.

さて、簡単のため、データメモリ2と演算装置3は1単
位時間でデータの処理をするものとする。
Now, for the sake of simplicity, it is assumed that the data memory 2 and the arithmetic unit 3 process data in one unit time.

また、命令メモリ1は一つのオペレーションノードへの
データの配分を1単位時間で処理するものとする。した
がって、第2図の例では、命令メモリは、○P、の出力
データをoP2〜OP4の入力アークへ配分するのに3
単位時間を要す。パイプラインが乱れないで流れている
とすると、命令メモリ1がOP、の出力データをop2
〜OP。
Further, it is assumed that the instruction memory 1 processes data allocation to one operation node in one unit time. Therefore, in the example of FIG. 2, the instruction memory requires three
It takes unit time. Assuming that the pipeline is flowing without disturbance, instruction memory 1 transfers the output data of OP to op2.
~OP.

へ配分し終った時点で、キュー4には2個のデータが増
えていることになる。その様子を第3図に示す。第3図
中、丸印は処理中のデータである。
At the point when the distribution is finished, two pieces of data will have been added to queue 4. The situation is shown in Figure 3. In FIG. 3, circles indicate data that is being processed.

第3図(a)はキュー4がOP1の出力データ(黒丸)
を送出した直後の状態を示す。このOP、の出力データ
を命令メモリ1が受け取り、OP2〜OP4へ配分する
。第3図(b)は命令メモリ1がOP2の例えば第2オ
ペランドへOP、のデータを送る状態を示す。第3図(
C)は、命令メモリ1がOP3の例えば第1オペランド
へ〇P、のデータを送り、この時、データメモリ2では
OP2のデータを揃えて演算装置3へ送る状態を示す。
In Figure 3(a), queue 4 is the output data of OP1 (black circle)
The state immediately after sending is shown. The instruction memory 1 receives the output data of this OP, and distributes it to OP2 to OP4. FIG. 3(b) shows a state in which the instruction memory 1 sends data of OP to, for example, the second operand of OP2. Figure 3 (
C) shows a state in which the instruction memory 1 sends data of ○P to, for example, the first operand of OP3, and at this time, the data memory 2 arranges the data of OP2 and sends it to the arithmetic unit 3.

第3図(d)は、命令メモリ1が例えばOP、の第1オ
ペランドへ6P、のデータを送り、この時、データメモ
リ2では○P、、のデータを揃えて演算装置3へ送り、
演算装置3ではOP2を実行する状態を示す。第3図(
e)は命令メモリ1がOP、のデータをOP2〜oP4
へ分配し終ったところで3− あり、この時、データメモリ2ではOP、のデータを揃
えて演算装置3へ送り、演算装置3ではOP3を実行す
る。
In FIG. 3(d), the instruction memory 1 sends data of 6P to the first operand of, for example, OP, and at this time, the data memory 2 arranges the data of ○P and sends it to the arithmetic unit 3.
The calculation device 3 shows a state in which OP2 is executed. Figure 3 (
e), instruction memory 1 is OP, data from OP2 to oP4
When the distribution to 3- is completed, there is 3-, and at this time, the data memory 2 arranges the data of OP and sends it to the arithmetic unit 3, and the arithmetic unit 3 executes OP3.

このように、演算装置が複数のオペレーションノードに
分配されると、一般にキューに滞留するデータは増加す
る。
As described above, when arithmetic units are distributed to a plurality of operation nodes, the amount of data remaining in the queue generally increases.

一方、プログラム(関数)の定性的な特性として、プロ
グラム(関数)の前半では演算結果が複数のオペレーシ
ョンノードへ分配きれることが多く、逆に後半では、演
算結果は一つのオペレーションノードに分配されること
が多い。プログラムの並列度が高ければ高い籾、この傾
向は強い。
On the other hand, as a qualitative characteristic of a program (function), in the first half of the program (function), the operation result is often distributed to multiple operation nodes, and conversely, in the second half, the operation result is distributed to one operation node. There are many things. The higher the parallelism of the program, the higher the probability, and this tendency is strong.

そのため、i来の連環パイプライン型データフロー計算
機で関数起動命令を連続して実行すると、キューの長さ
は急速に増大する危i性があった。
Therefore, when function activation instructions were executed successively in a conventional connected pipeline data flow computer, there was a risk that the queue length would rapidly increase.

さらに、キューが一杯になり、かつ命令メモリがその時
点で実行中のデータは、複数のオペレーションノードに
分配を必要とするデータであるとすると、このシステム
はデッドロックに陥いる欠点があった。
Furthermore, if the queue becomes full and the data being executed in the instruction memory at that time is data that needs to be distributed to multiple operation nodes, this system has the disadvantage of deadlock.

4− 〔発明の目的〕 一 本発明の目的は、連環パイプライン型データフロー計算
機においてJキューのオーバフローによるシステム・デ
ッドロックを回避する負荷制御方式を提供することにあ
る。
4- [Object of the Invention] An object of the present invention is to provide a load control method that avoids system deadlock due to J-queue overflow in a linked pipeline data flow computer.

〔発明の実施例〕[Embodiments of the invention]

第4図は本発明の一実施例の構成図である。ここで、命
令メモ1負Jデータメモリ2、演算装置3およびキュー
4の機能は第′1図で説明した通りである。10は閾値
判定回路であり、あらかじめ設定された閾値りと対して
、現在キュー4内に滞留するデータ数が閾値を゛超える
か否かを判定する。
FIG. 4 is a block diagram of an embodiment of the present invention. Here, the functions of the instruction memo 1 negative J data memory 2, arithmetic unit 3 and queue 4 are as explained in FIG. 1. Reference numeral 10 denotes a threshold value determination circuit, which determines whether the number of data currently staying in the queue 4 exceeds a preset threshold value.

11は面数起動命令キューであり、関数起動命令を複数
個保持できる構成をとる。12はタイマで、関数起動命
令の実行契機に用いられる。13は制御回路であり、関
数起動命令の実行制御を行う。
Reference numeral 11 denotes a face number activation instruction queue, which has a configuration capable of holding a plurality of function activation instructions. 12 is a timer, which is used to trigger the execution of a function activation instruction. A control circuit 13 controls the execution of function activation instructions.

なお、データフロー計算機をマイクロプログラム制御方
式で実現する場合には、制御回路13はマイクロプログ
ラムに吸収される。
Note that when the data flow computer is implemented using a microprogram control method, the control circuit 13 is absorbed into the microprogram.

以下では、関数起動命令の実行について説明する。他の
命令は従来から知られている連環パイプライン型データ
フロー計算機での動きと同様の動作をするので、その説
明は省略する。
Execution of a function activation instruction will be described below. Other instructions operate in the same manner as in a conventional linked pipeline type data flow computer, so their explanation will be omitted.

まず、関数起動のメカニズムを階乗を計算するプログラ
ムを例にして説明する。階乗を計算するプログラムは。
First, the function activation mechanism will be explained using a program that calculates a factorial as an example. A program to calculate the factorial.

f (n)=if n=o then 1 else 
n * f (n −1)で与えられる。ここで、fは
階乗を計算する関数である。fは自分の中で自分を呼ぶ
、再帰的関数になっている。このプログラムのデータフ
ローグラフを第5図に示す。左上にラベルfのついた大
きい箱が上記関数を表わす。その外側は、fを呼び出す
環境だけを記述している。
f (n)=if n=o then 1 else
It is given by n * f (n −1). Here, f is a function that calculates the factorial. f is a recursive function that calls itself within itself. The data flow graph of this program is shown in FIG. The large box with the label f at the top left represents the above function. The outside describes only the environment in which f is called.

プログラムfの実行は箱の外にある関数起動命令CAL
Lの実行によって開始される。CALLは新しい関数識
別子を得る命令である。本発明では、CA L Lの実
行をする時、さらに該データフロー計算機(D E M
)の負荷を調べ、過負荷なら実行を中断し、そうでなけ
れば実行を完了することを特徴としている。この詳細は
後述する。CALLの実行後、fの実行に必要なパラメ
ータ(nとrz Ru * ” R”は戻り先アドレス
)がfに引き渡され(LINKとRLINK)、fの実
行が開始される。fは再帰的関数であるから、箱の中程
で自分自身を呼び出すが、そこでも今説明した起動メカ
ニズムが使われる。
Program f is executed using the function activation command CAL outside the box.
It is started by the execution of L. CALL is an instruction to obtain a new function identifier. In the present invention, when executing CALL, the data flow calculator (DEM
), and if the load is overloaded, execution is interrupted, otherwise execution is completed. The details will be described later. After execution of CALL, parameters necessary for execution of f (n and rz Ru * "R" is the return address) are passed to f (LINK and RLINK), and execution of f is started. Since f is a recursive function, it calls itself in the middle of the box, again using the activation mechanism just described.

第5図の関数起動命令CALLが第4図でいかに動くか
を以下に説明する。
How the function activation instruction CALL of FIG. 5 works in FIG. 4 will be explained below.

演算装置3は、関数識別子の管理をしていて。The arithmetic unit 3 manages function identifiers.

現在未使用の関数識別子を要求に応じて与えることがで
きる。CALLの実行は、制御回路13の制御下で次の
ように行われる。
Currently unused function identifiers can be provided on request. CALL is executed as follows under the control of the control circuit 13.

■ 新しい関数識別子−を得る。■ Obtain a new function identifier.

−’/ − ■ DFMの負荷を調べる。これは制御回路13が閾値
判定回路10の判定結果を受け取ることによって行う。
-'/- ■ Check the DFM load. This is done by the control circuit 13 receiving the determination result of the threshold determination circuit 10.

そして、過竺荷ならば■へ、そうでなければ■へ行く。Then, if it is overloaded, go to ■, otherwise go to ■.

■ ■で得た関数識別子を演算結果として、それを出力
する(キューに入れる)。これでCALLの実行が終了
する。
■ Output the function identifier obtained in ■ as the operation result (put it in the queue). This completes the CALL execution.

■ CALL命令と■で得た関数識別子を関数起動命令
キュー11に入れる(CALL命令中断)。
(2) Put the CALL command and the function identifier obtained in (2) into the function activation command queue 11 (CALL command interruption).

中断したCALL命令の再開は、タイマ12のタイムア
ツプを契機として行う。ここで、タイムアツプの検出は
、割込み、ポーリングのいずれでもよいが、以下、割込
を仮定して再開の処理を説明する。
The interrupted CALL command is restarted when the timer 12 times up. Here, time-up detection may be performed by either an interrupt or polling, but the restart process will be described below assuming an interrupt.

■ タイマ12からの割込みを検出する。CALLの再
開処理を開始し、■を実行する。
■ Detect interrupt from timer 12. Start the CALL restart process and execute ①.

■ DFMの負荷を調べる。これは■と同じく。■ Check the DFM load. This is the same as ■.

制御回路13が閾値判定回路10の判定結果を受け取る
ことによって行う。そして、過負荷ならば、再び中断し
、そうでなければ■へ行く。
This is performed by the control circuit 13 receiving the determination result of the threshold determination circuit 10. Then, if it is overloaded, it is interrupted again, and if not, it goes to ■.

8− ■ 関数起動命令キュー11が空なら終り、そうでなけ
ればキューの先頭にあるCALL命令と付随する関数識
別子をとりだし、関数識別子を演算結果として、それを
出力する(キュー4に入れる)。これで割込み処理が終
了する。
8-(1) If the function activation command queue 11 is empty, the process ends; if not, the CALL command at the head of the queue and the accompanying function identifier are taken out, and the function identifier is output as the result of the operation (placed in the queue 4). This completes the interrupt processing.

以上のように、関数起動が実行されるため、キュー4に
滞留するデータの数が閾値を下回るように制御され、キ
ューのオーバフローを回避することが可能となる。
As described above, since the function activation is executed, the number of data remaining in the queue 4 is controlled to be less than the threshold value, making it possible to avoid queue overflow.

なお、上記手法の変形として、CALL命令はタイムア
ツプ時にのみ実行する方法も考えられる。
Note that as a modification of the above method, a method may be considered in which the CALL instruction is executed only when time-up occurs.

すなわち、■のステップで、負荷の大小に無関係にステ
ップ■)へ行くようにするのである。この目的は、CA
LL命令が連続して演算装置に到着したとき、その実行
をタイマのインタバル相当分遅延することにあり、その
効果としては、キュー4に滞留するデータ数の過度の増
加を抑えることができる。
That is, at step (2), the process goes to step (2) regardless of the magnitude of the load. This purpose is to
When LL instructions arrive at the arithmetic unit in succession, their execution is delayed by an amount equivalent to the timer interval, and the effect is that an excessive increase in the number of data remaining in the queue 4 can be suppressed.

また、本発明の負荷制御方式は、DFMを要素プロセッ
サ(PE)として持つデータフロー型マルチプロセッサ
システムでも効果を発揮する゛。すなわち、関数の割付
をPE間で動的に行うシステムでは、最も負荷の軽いP
Eで関数を実行する戦略をとる。そうすると、関数の起
動が一時的に一つの(最小負荷の)PEで集中して起き
ることがある。このとき、本発明の負荷制御方式が効果
的に機能する。
Furthermore, the load control method of the present invention is also effective in a dataflow type multiprocessor system having a DFM as an element processor (PE). In other words, in a system that dynamically allocates functions between PEs, P with the lightest load
The strategy is to execute the function with E. In this case, function activation may be temporarily concentrated on one PE (with the least load). At this time, the load control method of the present invention functions effectively.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、関数起動命令の
実行時期を適度に遅延し、システムの負荷が過度に重く
ならないよう制御できるため、巡検パイプライン型デー
タフロー計算機において、緩衝記憶装置の使いきり(キ
ューのオーバフロー)によるシステム・デッドロックを
回避できる利点がある。
As explained above, according to the present invention, the timing of execution of a function activation instruction can be appropriately delayed and the system load can be controlled so as not to become excessively heavy. This has the advantage of avoiding system deadlock due to queue overflow.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は巡検パイプライン型データフロー計算機の概略
構成図、第2図はデータフロープログラムの一例を示す
図、第3図は第1図におけるデータの流れを示す図、第
4図は本発明の一実施例の構成図、第5図は第4図の動
作を説明するためのデータフローグラフの一例を示す図
である。 ■・・・命令メモリ、2・・・データメモリ、3・・・
演算装置、 4・・・緩衝記憶装置、10・・・閾値判
定回路、11・・・関数起動命令キュー、 12・・・
タイマ、13・・・制御回路。 第1図 第3図 (Q、)′(′b) 第4図 [f
Fig. 1 is a schematic configuration diagram of a patrol pipeline type data flow computer, Fig. 2 is a diagram showing an example of a data flow program, Fig. 3 is a diagram showing the data flow in Fig. 1, and Fig. 4 is a diagram of the present invention. FIG. 5 is a block diagram of one embodiment of the present invention, and FIG. 5 is a diagram showing an example of a data flow graph for explaining the operation of FIG. ■...Instruction memory, 2...Data memory, 3...
Arithmetic unit, 4... Buffer storage device, 10... Threshold value determination circuit, 11... Function activation command queue, 12...
Timer, 13...control circuit. Figure 1 Figure 3 (Q,)'('b) Figure 4 [f

Claims (1)

【特許請求の範囲】[Claims] (1)関数型言語により定義されるデータフロープログ
ラムを格納する命令メモリ、前記データフロープログラ
ム上を流れるデータを格納するデータメモリ、前記デー
タの演算を実行する演算装置、および、前記命令メモi
ハデータメモリ、演算装置の処理速度の不平衡によって
生ずるデータの流れの乱れを吸収する緩衝記憶装置を環
状に結合した連環パイプライン型データフロー計算機に
おいて、複数の関数起動命令が堡持できるキュ一手段と
、前記緩衝記憶装置内に滞留するデータ数が予め定めた
閾値を越えるか否かを判定する判定手段を設け、関数起
動時、前記緩衝記憶装置内に滞留するデータ数が閾値以
下であれば、該関数起動命令を実行し、閾値以上のとき
は、該関数起動命令を前記キュ一手段に保持して、前記
緩衝記憶装置内のデータ数が閾値以下になったとき再開
せしめることを特徴とする負荷制御方式。
(1) An instruction memory that stores a data flow program defined by a functional language, a data memory that stores data flowing on the data flow program, an arithmetic device that executes operations on the data, and the instruction memory i
In a linked pipeline data flow computer, data memory and a buffer storage device that absorbs disturbances in data flow caused by unbalanced processing speeds of arithmetic units are connected in a circular manner. and determining means for determining whether the number of data remaining in the buffer memory device exceeds a predetermined threshold, and determining whether the number of data remaining in the buffer memory device is less than the threshold value when the function is activated. For example, when the function activation instruction is executed and the number of data exceeds a threshold value, the function activation instruction is held in the queue means, and restarted when the number of data in the buffer storage device becomes less than or equal to the threshold value. A load control method that uses
JP59003851A 1984-01-12 1984-01-12 System for controlling load of circulating pipeline type data flow computer Pending JPS60147845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59003851A JPS60147845A (en) 1984-01-12 1984-01-12 System for controlling load of circulating pipeline type data flow computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59003851A JPS60147845A (en) 1984-01-12 1984-01-12 System for controlling load of circulating pipeline type data flow computer

Publications (1)

Publication Number Publication Date
JPS60147845A true JPS60147845A (en) 1985-08-03

Family

ID=11568683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59003851A Pending JPS60147845A (en) 1984-01-12 1984-01-12 System for controlling load of circulating pipeline type data flow computer

Country Status (1)

Country Link
JP (1) JPS60147845A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5069087A (en) * 1988-02-19 1991-12-03 Kabushiki Kaisha Komatsu Seisakusho Clutch changeover circuit for non-stage transmission

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5069087A (en) * 1988-02-19 1991-12-03 Kabushiki Kaisha Komatsu Seisakusho Clutch changeover circuit for non-stage transmission
US5113723A (en) * 1988-02-19 1992-05-19 Kabushiki Kaisha Komatsu Seisakusho Clutch changeover circuit for non-stage transmission

Similar Documents

Publication Publication Date Title
JPS60147845A (en) System for controlling load of circulating pipeline type data flow computer
JPH05113887A (en) Computer system
JPH0451329A (en) Context switching device
JPH04302353A (en) Timer interrupting system for symmetrical multi processor computer
JPH0433130A (en) Multi-chip constituting method
JPS62125437A (en) Control method for additional processor
US20030225817A1 (en) Concurrent execution of kernel work and non-kernel work in operating systems with single-threaded kernel
JPH03164940A (en) Computer having plural interruption periods
JP2581327B2 (en) Virtual machine I / O interrupt handling method
JPH0448336A (en) Interruption control system
JPH02202635A (en) Task control method
JPH0612394A (en) Process schedule system
JPH04162140A (en) Changing system for os interruption level
KR910005757Y1 (en) Handshaking circuit in multi-processor
JPH0784786A (en) Program execution control method
JPH02113363A (en) Time slice controlling system for multiprocessor system
JPH0528114A (en) Multiprocessor system
JPH064306A (en) Method for dividing interruption processing
JPH01220040A (en) Task scheduling system
JPH0444131A (en) Device and method for execution of inter-processor communication in plural os running systems
Hatkanagalekar A note on structured interrupts
JPH03245257A (en) Acquisition method for ownership of multiprocessor system resources
JPH02173828A (en) Interruption process system
JPS608954A (en) Hang-up detecting method of computer program
JPH04134534A (en) Method and mechanism for calling exit of timer run-out