JPS60237568A - デ−タ処理システム - Google Patents

デ−タ処理システム

Info

Publication number
JPS60237568A
JPS60237568A JP9229084A JP9229084A JPS60237568A JP S60237568 A JPS60237568 A JP S60237568A JP 9229084 A JP9229084 A JP 9229084A JP 9229084 A JP9229084 A JP 9229084A JP S60237568 A JPS60237568 A JP S60237568A
Authority
JP
Japan
Prior art keywords
output
computer
buffer
computers
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9229084A
Other languages
English (en)
Inventor
Kazunori Fujiwara
和紀 藤原
Toshio Hiraishi
平石 年雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP9229084A priority Critical patent/JPS60237568A/ja
Publication of JPS60237568A publication Critical patent/JPS60237568A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/161Computing infrastructure, e.g. computer clusters, blade chassis or hardware partitioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、計算機のデータ処理システムに係り、特に複
数の計算機を組み合せて構成されるマルチ計算機システ
ムやネットワークシステムにおいて、バッファ記憶手段
(以下、単にバッファという。)に格納された出力デー
タを出力装置に効率的に出力処理するシステムに関する
〔発明の背景〕
計算機を利用して大量の情報を短時間で効率良く処理し
たり、遠隔地に伝達するシステムとして複数の計算機を
並列的に設置して構成されるマルチ計算機システムや通
信回線によシ結合された複数の計算機から構成されるネ
ットワークシステムがある。さらには、これらが単独に
存在するのではなく、マルチ計算機システムとネットワ
ークシステムを組み合せて多様化した種々の処理システ
ムが形成されつつある。近年の情報化社会においてはこ
れらのシステムの普及が一段と進むものと考えられる。
ここで、説明を簡単にするため、従来のデータ処理の形
態をマルチ計算機システムを例にとって説明する。第1
図に従来の一般的なマルチ計算機システムの例を示す。
このマルチ計算機システムはいわゆる分散形と称される
もので、各計算機2A、2B、・・・・・・2Nのそれ
ぞれに独自の処理を分担させるものである。このような
マルチ計算機システムにおいては、処理の効率化を図る
ために各計算機2A、2B、・・・・・・2Nの共通す
る処理手段、たとえばバッファやリンケージテーブルを
一個所にまとめておくメモリ(以下、これをグローバル
メモリという。)1が設けられている。このグローバル
メモリ1は各計算機2A、2B、・・・・・・2Nから
自由にアクセスすることができる。各計算機2A、2B
、・・・・・・2Nにはそれぞれの出力装置として、た
とえば磁気テープ記録装置等の出力ファイル3人、3B
、・・・・・・3Nが接続されている。
上記第1図の従来システムにおいて、各出力ファイル3
A、3B、・・・・・・3Nにデータを格納する場合に
は、各計算機2A、2B、・・・・・・2Nのデータ出
力要求によシ、それぞれ対応する出力ファイル3A、3
B、・・・・・・3Nに個別的にデータを出力するよう
になっておシ、各計算機2A、2B、・・・・・・2N
と各出力ファイル3A、3B、・・・・・・3N間の交
叉的かつ個別的なアクセスは不可能となっているのが普
通である。なお、計算機2A、2B。
・・・・・・2Nからの出力データは一旦記録用バツフ
ァ(第2図)に格納しておき、必要に応じてこのバッフ
ァから各出力ファイル3A、3B、・・・・・・3Nに
出力されるという構成がとられる。
第2図に従来の記録処理システム(第1図)における一
つの系(計算機一台あたシの系)における処理の流れを
示す。なお、この例ではデータの連続的な記録を保証す
るだめに、2面のバッファ4−1.4−2が用意され、
これら二面のバッファを順次サイクリックに使用するも
のとする。まず、計算機には出力要求プログラム5が設
定されておシ、この出力要求プログラム5によって出力
データがバッファ4−1に格納される。このとき、格納
最終アドレス情報WPがリンケージテーブル6に格納さ
れ、先に格納されている情報が更新される。
次に、更新されたリンケージテーブル6が参照され、も
し、バッファ4−1が満杯になっていたらバッファ4−
1の満杯表示を示すビットを′″1″にし、直ちに出力
ファイル3へのデータの出力を指示する出力プログラム
7を起動する(第2図、ST)。この出力プログラム7
は各計算機内に設定されている。
バッファ4−−1の満杯というイベントSTによシ起動
された出力プログラム7は、まず、リンケージテーブル
6を参照し、満杯表示ビットが@l”であるバッファ4
−1の格納データを出力ファイル3に強制的に出力させ
る。出力処理が終了した後、出力プログラム7はリンケ
ージテーブル6のバッファ4−1の満杯表示ピットを″
0”Kセットする。このセットによシバツファ4−1は
再び空き状態(すなわち、書込み可能状態)になるとと
もに第2のバッファ4−2の予備バッファとして待機す
ることとなる。以下、同様にしてバッファ4−1.4−
2を交互に(すなわち、サイクリックに)使用して出力
データの記録処理を行う。
上記従来のシステムの欠点は上述した記録処理を各計算
機ごとに形成される系単独で、したがって相互に無関係
に実行するという点にある。すなわち、出力データの種
類によっては特定の系の計算機に記録処理が集中して当
該計算機の負荷が重くなる場合があるが、そのような場
合でも、計算機の負荷の現状を全く考慮せず、システム
全体でみれば非常に偏った負荷状態になってしまうから
である。たとえば、第3図に示すように、出力ファイル
3への出力処理を除いた計算機負荷8に注目すれば、計
算機2Bが2A、2Gに比べて相対的に多く、−刃出力
フアイル3への出力処理9についても計算機2Bに集中
するというような状態が生じる。かかる状態はマルチ計
算機によるデータ処理の効率を悪くするものであるとこ
ろから、極力負荷の分担が要求される。また、以上の問
題はマルチ計算機システムのみならず、ネットワークシ
ステムあるいは、マルチ計算機システムとネットワーク
システムとの組合せシステムにおいても同様である。
〔発明の目的〕
本発明はマルチ計算機システムやネットワークシステム
等の複数の計算機からなるデータ処理システムにおいて
、特定の計算機にのみ出力処理業務が集中しなしように
負荷を分散して平均化しうるデータ処理システムを提供
することを目的とする。
〔発明の概要〕
上記目的を達成するために、本発明によるデータ処理シ
ステムは、マルチ計算機システムやネットワークシステ
ム等の複数の計算機からなるデータ処理システムにおい
て、各計算機に対する現在および将来の負荷状態を測定
・予測する手段と、この測定・予測の結果に基づいて各
計算機のうち相対的に低負荷であって所定の基準値以下
の計算機に代行処理命令を与える出力処理判定手段とを
備えた点に特徴を有する。
〔発明の実施例〕
次に、本発明による計算機のデータ処理システムの実施
例を図面に基づいて説明する。
第4図に本発明によるマルチ計算機システムの構成を示
す。なお、説明を簡単にするため、本実施例では3台の
計算機としたが、特にこれに限らず、一般に複数台の計
算機により構成されるシステムに本発明の適用が可能で
あることはいうまでもない。また、以下に述べる実施例
において、第1図〜第3図に示す部分と同様な部分には
同一の符号を附してその詳細な説明を省略する。
まず、第1図の従来システムとの比較において注目すべ
きは、マルチアクセス可能なバス10が導入されている
点であシ、いずれの計算機2A。
2B、2Cからでも任意の出力ファイル3A。
3B、30をアクセスすることが可能となっている。こ
の自由アクセス可能なバス10を導入したことにより、
たとえば、計算機2Bで処理したデータを計算機2人が
代行して出力ファイル3・Bに出力することが可能とな
っている。どの計算機2が代行業務を行うかは、本実施
例においては一定の規則に従うようにしている。その規
則例を第5図に示す。
第5図(a)において、たとえば、計算機2人は計算機
2人自身で処理したデータを格納するバッファ4Aの内
容を最侵先(レベルl)で出力する。
もし、バッファ4Aに出力すべきデータがなければ、計
算機2Bで処理したデータを格納しているバッファ4B
の内容を出力する(レベル2)。さらに、バッファ4B
に出力すべきデータがなければ、計算機2Cで処理した
データが格納されているバッファ4Cの内容を出力する
(レベル3)。
同様に、計算機2Bが出力する優先レベルは、レベル1
がバッファ4Bルベル2がバッファ4C,レベル3がバ
ッファ4A、また、計算機2Cが出力する優先レベルは
、レベル1がバッファ40、レベル2がバッファ4A、
レベル3がバッファ4Bである。
この規則によシ、計算機2八〜2Cは第5図(b)に示
すように、2A→2B→2Cの順でサイクリ。
ツクに、互いを補助する形を形成することになる。
なお、一般のn台マルチ計算機システムにおいても同様
にサイクリックな補助形を形成することができることは
いうまでもない。
第6図は、計算機2A〜2Cでそれぞれ処理したデータ
を格納するバッファの構成例である。第6図において、
記録用バッファの単位は、1回の出力時のデータブロッ
ク単位と大きさを一致させている。各計算機2A、2B
、2Cの記録用バッファ4A、4B、40は、それぞれ
、4AN。
4BN、4ONまでのN面もっており、さらに、使用さ
れている面数(以下、使用中面数)Ll。
Ls、Ls(書き込まれた面数)がある基準値を超える
と強制出力させるロジックを、本例では採用しているが
、この強制出力基準値を、それぞれ、Ms + M! 
+ Msとし、該当するバッファを4Am 、4BM’
、40mとする。
第7図は、各計算機2A〜2C用のリンケージテーブル
6A、6B、60の構成を示す図である。
第7図において、出力表示フラグF’tt ””Fim
は、当該バッファに格納されているデータを出力中のと
きビットを112にするもので、出力中のバッファをリ
ザーブするのに使用する。出力依頼フラグF’gt〜F
’gsは、出力すべきデータが当該バックアにあるとき
、ビットを″1”にするもので、このフラグがONのも
のを、出力プログラムはサーチし、当該バッファのデー
タを該当する出力ファイルに出力する。第1低負荷基準
値α!〜α3は、出力可能か否かを判定する基準値で、
具体的には、出力処理による負荷を加味した全CPU負
荷の平均値とし、第2低負荷基準値βl〜β3は、この
第1低負荷基準値αl〜α3の60俤の負荷を基準値と
している。L、、1〜L、、3は、現在のCPU負荷測
定値をLp1〜L、3 は、将来のCPU負荷を予測し
た値を示す。
ここで、CPU負荷について説明しておく。計算機に対
する負荷の大小はその起動回数あるいは占有時間で評価
することができ、計算機の起動は結局においてその中枢
機能を司どるCPUの起動であシ、シたがって計算機の
負荷の評価はCPUの単位時間当シの起動回数あるいは
占有時間によシ行うことができる。そこで、本実施例で
はCPU負荷をもって各計算機2A、2B、2Cの負荷
を測定することとし、よシ具体的なCPU負荷の測定な
らびに予測は次のように行われる。
すなわち、負荷測定は、各計算機に設けられたタイマの
周期起動信号を1秒間に100回とし、この周期起動毎
に後述するCPU負荷測定プログラムによるカウント値
を「1」から順次カウントし、1秒間での起動回数すな
わち1秒間でのカウント値を基に、CPU負荷り、を、 L、=100−(カウント値) としてめる。
また、CPU負荷の予測は、現在のCPU負荷測定値L
1と前回の値り、oを基に、CPU負荷の予測値り、を
、 L * = L−+ (L −o L−) / Tでめ
る。ただし、Tは負荷の測定周期である。
つまシ、前回のCPU負荷測定値Lmoと現在のCPU
負荷測定値り、の差を測定周期Tで割ることによ#)x
−y座標上のCPU負荷の推移の傾きをめ、その傾きに
よシ、次の測定周期の傾きを直線近似によシ予測するわ
けである。このような将来のCPU負荷の予測をマルチ
計算機システムにおいて行うことは従来にない注目すべ
き点であシ、単にCPU負荷の現在の状態のみに基づい
て分担させるものに比べてよシ一層の処理の効率化を図
ることができるものである。
RP 1〜RP、は、出力プログラムによシ出力し終っ
た位置、すなわち、読出し最終アドレス情報である。W
P1〜RP、は、前述のWPと同意である。
第8図は、各々の計算機2A〜2Cが積極的に、自己以
外の計算機(例えば、自己を2人とするとそれ以外の2
B)が処理し、格納しているバッファの内容を出力する
場合の処理例である。本例では、これを、便宜上能動的
出力と呼ぶ。この能動的出力例を、第8図で説明する。
まず、計算機2人においてCPU負荷測定・予測プログ
ラム12Aが周期的に起動し、CPU負荷を測定し、予
測し、測定値L11、予測値り、lをリンケージテーブ
ル6A上で更新する。このとき、CPU負荷測定値L 
M 1およびCPU負荷測定値り、1のいずれか一方が
、第1低負荷基準値α1以下になったタイミングでバッ
ファ面数比較・判定プログラム13Aを起動する。起動
されたバッファ面数比較・判定プログラム13Aは、規
則(第5図参照)に従った処理(第9図の流れ図参照)
と、規則がなく使用されているバッファ面数L1〜L3
のうち最大のものを出力させる処理(第10図の流れ図
参照)の2通シおよび、これらの組合せが考えられるが
、ここでは、規則に従った処理で説明する。
バッファ面数比較・判定プログラム13Aはバッファの
格納データ出力要求に応じてCPU負荷測定・予測手段
による測定・予測情報に基づき各計算機の負荷状態を相
対的に比較し、上記格納データを出力すべき出力ファイ
ルに対する出力処理を相対的に低負荷状態にある計算機
に処理命令を与える出力処理判定手段を形成するもので
ある。
よシ具体的に説明すると、次の通シである。
すなわち、バッファ面数比較・判定プログラム13Aは
、第9図に示すように、リンケージテーブル6Aよシ、
現在使用されているバッファ面数L1〜L、を取シ込み
、まず、自系のバッファ(Ll )を出力する必要があ
るか否かを判定する。
いま、バッファ面数L1=0とすると、出力すべきデー
タが、バッファ4人にないので、バッファ4Bの状況を
判定する。ここで、バッファ4A→4B→4Cの順で判
定しているのは、第5図の規則に従っているためである
。そこで、計算機2Bの現使用バッファ面数L2〉0で
あるとすると、バッファ4Bのデータを出力する必要が
あるので、バッファ4Bの出力依頼フラグのビットF2
2を0N(F+*=”l”)し、常時出力プログラム1
4Aを起動する。
常時出力プログラム14Aの処理フローは、第11図に
示す通シである。この常時出力プログラム14Aは、ま
ず、リンケージテーブル6Aよシ、出力依頼フラグP!
1〜p2sのうちONKなっているバッファはどれか、
を判定する。次に、自己の計算機のCPU負荷予測値を
判定し、第2低負荷基準値βl以下のとき、1〜にの数
のブロック(第6図参照)出力するよう出力量を増加さ
せる。
出力するとき、バッファをリザーブするため、出力中表
示フラグP12を0N(Ftx=“l#)し、出力ファ
イル3Bに出力し、出方後、出カ中表示フラグFl1m
出力依頼フラグF’sxに0″′をセリトン、現使用バ
ッファ面数L8、読出最終アドレスRF sをさらに更
新する。
以上によシ、低負荷であった計算機2人が、バッファ4
Bのデータを、出力ファイル3Bに出力する例の説明を
終わる。
なお、第8図の、強制出力プログラムIIA〜11Cは
、高負荷状態が続く異常時に、データ消失を回避するだ
めのもので、出力要求プログラム5(第2図)が、デー
タをバッファに書き込んだとき、現使用バッファ面数L
1が、強制出力規準値M1を超えたと判定したタイミン
グで、起動され、LlくMlとなるまで、データを、出
力ファイル3Aに出力するプログラムである。
次に、各々の計算機が、自己の系列のバッファのデータ
出力を他の系列の計算機に依頼するという受動的出力の
例を第12図〜第14図で説明する。
プログラム構成は能動的出力例とほぼ同様であるが、本
質的に違うところは、能動的出力例にあったバッファ面
数比較・判定プログラム13A〜130の代わシに、C
PU負荷予測値比較判定プログラム16を設けたところ
である。このプログラム16は、第11図に示す流れ図
で判るように、自己の系列のCPU負荷が低負荷基準値
α1以上でも起動され、自己系列のCPU負荷が出力可
能なときは自分で出力しくり、1≦α1のとき)、不可
能なときは、他の系列の計算機の出力プログラムを起動
するものである。このとき、起動する順序は第5図サイ
クリックサポート形によるものとする。一方、サイクリ
ックサポート形式によらず、全計算機の負荷のうち、最
も余裕のある計算機に出力依頼をする処理例を第14図
に示しておく。
以上により、高負荷であった計算機2人の代わシに低負
荷の計算機2Bが、バッファ4人のデータを出力ファイ
ル3人に出力する例の説明を終わる。
このように、能動的出力動作と受動的出力動作を行うこ
とで、互に自己の系列の計算機のCPU負荷状態と他の
系列の計算機のCPU負荷の状態を双方向から判断する
ことによシ、第15図に示すように、相対的にCPU負
荷の低い計算機が自系列のバッファの格納内容のみなら
ず、他の系列のバッファの内容の出力処理を行うことが
でき、しかもこのことを双方向からアクセスして行うこ
とになるので極めて正確かつ効率よ<CPU負荷の分散
化して処理することができる(第18図参照)。なお、
第15図、第18図において、符号15は出力ファイル
3八〜3Cへの出力処理を徐いたCPU負荷、16は出
力ファイル3A〜3Cへの出力処理に基づ(CPU負荷
を時系列的に示したグラフである。
以上の実施例では、マルチ計算機システムを例にとって
説明したが、本発明のデータ処理方式をネットワークシ
ステムあるいはネットワークシステムとマルチ計算機シ
ステムとの組み合せシステムにも適用が可能である。た
とえば、第16図祉はLAN (ローカル・エリア・ネ
ットワーク)システムの例であシ、通信回線180ノ一
ド部分の各ステーション17に各々計算機2を配置して
各計算機2の出力ファイル3にデータを出力する場合に
、各計算機2のCPU負荷に応じて業務分担することに
よ多負荷の平滑化が可能である。さらに、第17図はパ
ケット交換機19を中心として放射状に各計算機2を接
続した、いわゆる星形のネットワークであるがこの場合
にも同様にCPU負荷の分散による負荷の平滑化が可能
である。加えて、図示しないが、情報量が多くなれば各
ステーションの計算機を多重化して組み合せシステムの
構成がとられることも考えられる。この場合も同様であ
り、その他予想される組み合せは多々あり、ここでは個
々に示さないが、基本的には、本発明のデータ処理方式
を個々の要素に適用すればよいことになる。
その他の変形例として、上述の実施例においては第8図
に示すように強制出力プログラムIIA〜lie、CP
U負荷測定の予測プログラム12A〜12C,バッファ
面数比較判定プログラム13A〜13C0常時出カプロ
グラム14A〜14Ct−各計算機2八〜2Cに個別的
にもたせたが、並列計算機数が多いものであったシ、特
に高速化を要求されないようなシステムにおいては、上
記各プログラムを別途設けたホスト計算機(図示せず)
によシ集中監理するようにしてもよい。このことによシ
各計算機の業務を増加させることができ、効率あるいは
処理能力の向上が期待できる。このことはネットワーク
システムに本発明を適用した場合にも同様であることは
いうまでもない。
さらに、上述の実施例では出力処理として磁気テープ装
置等の出力ファイル3への記録処理を考えたが、出力装
置としてはプリンタ、CRTディスプレイ装置等への表
示処理もあるので、本発明の応用は単に本実施例に止る
ものではない。
〔発明の効果〕
以上述べた如く、本発明によれば、各々のCPU負荷を
測定および予測することによシ、低負荷時にのみ、およ
び、低負荷の計算機でのみ、集中的に出力できるため、
全CPU負荷のピークを増大させず、かつ計算機相互間
のCPU負荷格差を増大させず、全システムとしてCP
U1荷を平滑化させることができる。
【図面の簡単な説明】
第1図は従来のマルチ計算機システムの構成例を示すブ
ロック図、第2図は従来のマルチ計算機システムのうち
の一つの系列内での処理内容を示すブロック図、第3図
は各計算機のCPU負荷の偏シ状態を示す説明図、第4
図は本発明の実施例を示すブロック図、第5図は各計算
機によるバッファ内容出力の優先順位の規則例を示す説
明図、第6図は各計算機に対応するバッファの内容を示
す説明図、第7図は各計算機のリンケージテーブルの内
容を示す説明図、第8図は本発明による処理のうちの能
動的出力処理の態様を示すブロック図、第9図はバッフ
ァ面数比較判定プログラムのフローチャート、第10図
は規則性をもたない場合のバッファ面数比較判定プログ
ラムの流れの例を示すフローチャート、第11図は常時
出力プログラムのフローチャート、第12図は受動的出
力処理の態様を示すブロック図、第13図はCPU負荷
予測値比較判定プログラムのフローチャート、第14図
はその変形例を示すフローチャート、第15図はCPU
負荷の平滑化の状態を示す説明図、第16図はネットワ
ークシステムへの本発明の適用例を示すブロック図、第
17図は他のネットワークシステムへの適用例を示すブ
ロック図、第18図は本発明による平滑化の状態を示す
説明図である。 1・・・グローバルメモリ、2.2A〜2N・・・計算
機、3.3A〜3N・・・出力ファイル、4A〜4C・
・・バッファ、4人1〜4AN・・・各バッファのブロ
ック、4B1〜4BN・・・各バッファのブロック、4
C1〜4Cz・・・各バッファのブロック、12A〜1
2C・・・CPU負荷測定の予測プログラム、13A〜
13C・・・バッファ面数比較判定プログラム、α−(
α1.・・・・・・α、)・・・第1低負荷基準値、β
濁(β1.・・・・・・β、)・・・第2低負荷基準値
。 代理人 弁理士 鵜沼辰之 高2図 名40 噌50 ((L) (1)) 楕6図 も10図 第14図

Claims (1)

    【特許請求の範囲】
  1. 1、時々刻々発生するデータを複数の計算機によシ各計
    算機に対応して設けられた複数のバッファ記憶手段を介
    して各計算機に対応する出力装置に出力処理するデータ
    処理システムにおいて、前記各計算機に対する現在の負
    荷状態を測定し、かつ当該各計算機に対する将来の負荷
    状態を予測する負荷測定・予測手段と、前記バッファ記
    憶手段の格納データ出力要求に応じて、前記負荷測定・
    予測手段による測定・予測情報□に基づき各計算機の負
    荷状態を相対的に比較し、前記格納データを出力すべき
    出力装置に対する出力処理を相対的に低負荷状態にある
    計算機に処理させる命令を与える出力処理判定手段とを
    備え光ことを特徴とするデータ処理システム。
JP9229084A 1984-05-09 1984-05-09 デ−タ処理システム Pending JPS60237568A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9229084A JPS60237568A (ja) 1984-05-09 1984-05-09 デ−タ処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9229084A JPS60237568A (ja) 1984-05-09 1984-05-09 デ−タ処理システム

Publications (1)

Publication Number Publication Date
JPS60237568A true JPS60237568A (ja) 1985-11-26

Family

ID=14050276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9229084A Pending JPS60237568A (ja) 1984-05-09 1984-05-09 デ−タ処理システム

Country Status (1)

Country Link
JP (1) JPS60237568A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5249117A (en) * 1989-04-26 1993-09-28 The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland Adaptive control systems
JPH05324583A (ja) * 1992-05-26 1993-12-07 Dainippon Screen Mfg Co Ltd 画像データ処理装置
JPH06208520A (ja) * 1993-01-11 1994-07-26 Nec Corp マルチプロセッサ・システム
JPH06259389A (ja) * 1993-03-04 1994-09-16 Nec Corp 時刻による負荷が変動するコンピュータの選択制御方式
WO1996033467A1 (fr) * 1995-04-21 1996-10-24 Hitachi, Ltd. Systeme a commande repartie, appareil a repartition de charge et mode de fonctionnement d'un tel systeme

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51108547A (en) * 1975-03-19 1976-09-25 Hitachi Ltd 2 jukeikeisankishisutemuniokeru jidofukahaibunsochi
JPS58151666A (ja) * 1982-03-05 1983-09-08 Hitachi Ltd マルチコンピユ−タシステムにおける自動負荷配分方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51108547A (en) * 1975-03-19 1976-09-25 Hitachi Ltd 2 jukeikeisankishisutemuniokeru jidofukahaibunsochi
JPS58151666A (ja) * 1982-03-05 1983-09-08 Hitachi Ltd マルチコンピユ−タシステムにおける自動負荷配分方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5249117A (en) * 1989-04-26 1993-09-28 The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland Adaptive control systems
JPH05324583A (ja) * 1992-05-26 1993-12-07 Dainippon Screen Mfg Co Ltd 画像データ処理装置
JPH06208520A (ja) * 1993-01-11 1994-07-26 Nec Corp マルチプロセッサ・システム
JPH06259389A (ja) * 1993-03-04 1994-09-16 Nec Corp 時刻による負荷が変動するコンピュータの選択制御方式
WO1996033467A1 (fr) * 1995-04-21 1996-10-24 Hitachi, Ltd. Systeme a commande repartie, appareil a repartition de charge et mode de fonctionnement d'un tel systeme

Similar Documents

Publication Publication Date Title
CN1774699B (zh) 共享资源的并发访问方法和设备
CN103327072B (zh) 一种集群负载均衡的方法及其系统
CN104516475B (zh) 用于管理多核片上系统上的全局芯片功率的方法和装置
US8397239B2 (en) Virtual computer systems and computer virtualization programs
JPH11120106A (ja) サーバ資源利用状況の表示方式およびそのための記録媒体
US20100125847A1 (en) Job managing device, job managing method and job managing program
US9582338B2 (en) Calculating a dispatcher's relative share based on relative queue length and capacity value of a plurality of workload types and computing systems combinations
CN102804149B (zh) 多核处理器系统及控制方法
US20060031695A1 (en) Information processing apparatus, information processing method, and program
CN115167992A (zh) 任务处理方法、系统、装置、服务器、介质及程序产品
JPS60237568A (ja) デ−タ処理システム
CN102576294A (zh) 含有多个存储装置的存储系统、方法及程序
JP3175764B2 (ja) メモリスケジューリング方法及びメモリスケジューリングプログラムを格納する記憶媒体
CN116107741A (zh) 一种负载均衡调度方法、系统、电子设备及可读存储介质
JPH09231144A (ja) データファイル管理方法およびデータファイル管理装置
JPH04288638A (ja) コンピュータシステム
JP2638314B2 (ja) 仮想記憶システムにおけるスワッピング用外部記憶装置の自動変更方式
JPH06348663A (ja) ネットワーク
CN114741201B (zh) 一种计算机硬盘存储空间调配分配系统及分配方法
CN115373507B (zh) 一种基于电能损耗的整机资源均衡管理方法及系统
CN113655963B (zh) 基于内存桥接的数据存储系统、方法及计算机设备
JP2642576B2 (ja) 複数ページサイズシステムにおける自動ページ数管理方式
JPS59188749A (ja) デ−タ転送制御方式
JPH08137703A (ja) タスク切替装置
JPS603027A (ja) コンピユ−タ処理システムにおける資源管理方式