JP2001109638A - 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体 - Google Patents

推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体

Info

Publication number
JP2001109638A
JP2001109638A JP28527199A JP28527199A JP2001109638A JP 2001109638 A JP2001109638 A JP 2001109638A JP 28527199 A JP28527199 A JP 28527199A JP 28527199 A JP28527199 A JP 28527199A JP 2001109638 A JP2001109638 A JP 2001109638A
Authority
JP
Japan
Prior art keywords
computer
load
estimated
transaction
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP28527199A
Other languages
English (en)
Inventor
Hideo Kubo
秀士 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP28527199A priority Critical patent/JP2001109638A/ja
Priority to US09/680,517 priority patent/US6986139B1/en
Publication of JP2001109638A publication Critical patent/JP2001109638A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5019Workload prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Abstract

(57)【要約】 【課題】 トランザクション処理要求を発生する端末装
置群と要求の処理を負荷分担型により実行する複数の計
算機からなるシステムにおいて、各計算機の負荷を動的
にバランスさせることにより、全体の応答性能を良くす
る。すなわち、応答時間の平均とばらつきを小さくす
る。 【解決手段】 一定時間ごとに各計算機の処理中トラン
ザクション数、およびCPU系に滞在するプロセス数ま
たはCPU使用率を測定し、また、正確な処理中トラン
ザクション現在数を常に把握し、これらの測定値を元に
各計算機における処理時間の伸長率を推定し(73)、
この推定伸長率に基づいて負荷指標の値を求め(7
4)、負荷の低い計算機へトランザクションの配分を行
う(75、76)。各計算機上で実行中のジョブミック
スの特性まで考慮した動的配分が実現でき、応答性能を
上げられる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、クラスタ構成など
と呼ばれる比較的緊密に結合された複数の計算機が負荷
分担してトランザクション処理を実行するシステムにお
いて、トランザクション処理の負荷を各計算機に分散さ
せる方式に関し、特に各計算機における負荷状況を示す
指標である「処理時間の推定伸長率」に基づいて処理要
求を動的に配分することにより計算機間の負荷をバラン
スさせ、全体として応答時間の平均及びばらつきを小さ
く保つ方式に関する。
【0002】
【従来の技術】この種の負荷分散方式は、複数の処理装
置(計算機)をもつシステムにおいて、規模の小さい処
理を要求するメッセージが次々に大量に到着するのを、
これら複数の計算機に適切に分配することによって計算
機間で負荷を分散させ、システムから最大の性能を引き
出そうとする。個々の処理が小規模なので、一般に、処
理の途中で移動させることは考えず、到着時に処理を実
行すべき計算機を決定してそこへ送付し、終了までそこ
で処理させる。また、対話型処理なので、負荷分散の最
終的な目標は応答時間の平均(及びばらつき)の最小化
である。処理要求の到着時に実行させる計算機を決定す
るが、この実行計算機の選択に当たっては、基本的に、
負荷が最も低い計算機を選ぶことになる。ここで、何を
「負荷の指標」とするかという問題が生ずる。従来、負
荷の指標としては、計算機のCPU使用率、実行中の処
理数、近い過去の応答時間の実績などが、個々に単独
で、あるいは組み合わせて用いられていた。
【0003】従来のシステムの一例が、特開平10−3
12365号公報に記載されている(従来技術1と呼
ぶ)。ここでは、一定時間ごとにサーバー(計算機)の
負荷状態(実施例によればCPU使用率)を計測して格
納しておき、処理要求到着時には格納してある負荷状態
に基づき最も負荷の低いサーバーを実行計算機として決
定する。また、端末側で応答時間を監視していて、これ
が所定値を越えているなら、経路変換(実行計算機の変
更)要求を出す。ここでは、第一の負荷指標としてCP
U使用率が用いられている。CPU使用率はよい指標で
はあるが、測定値は過去の一定時間間隔における平均値
であり、その後にあった処理の開始終了などの影響を含
まないこともあり、「現在の負荷」を表しているという
意味での信頼性はあまり高くない。特に、動的な制御の
下では、次の測定時までは同じデータが用いられるの
で、この間に到着した処理要求は負荷が最小であると判
断された特定の一つのサーバーに集中的に送られること
になり、負荷のシーソー現象を起こす可能性がある。第
二の負荷指標として、実行途中の処理の応答時間の実績
が、その処理自身の実行先切り替えの判断に用いられて
いる。ここにおけるように実行途中における実行計算機
の切り替えがオーバヘッド小さく可能な場合があるとす
れば、有効な指標であろう。しかし、到着時の配分にお
いては、その処理自身の実績がないのでこの指標は使用
不可能である。
【0004】従来のシステムの別の一例が、特開平10
−27168号公報に記載されている(従来技術2と呼
ぶ)。ここでは、各計算機で最後に実行を終了したメッ
セージについてその処理時間を記憶しておき、この時間
にその計算機上で処理中のメッセージの数を乗じたもの
を負荷の指標として用いている。メッセージの到着時に
は、すべての計算機についてこの負荷指標の値を計算
し、この値の最も小さい計算機にメッセージを送り処理
を依頼する。この場合、最後に終了したメッセージの処
理時間がその計算機上の処理時間を代表するか、という
問題がある。この処理時間は、その計算機の混み具合と
その最終終了メッセージ処理のジョブ特性(純処理時
間、CPU/入出力の比率)とを反映しているはずであ
る。すべてのメッセージについて後者のジョブ特性が同
一であるならば、負荷指標として目安を与えると考えら
れる。しかし、様々なジョブ特性のものが混在している
一般の状況では、個々の処理時間実績をそのまま負荷状
態を反映するものと考えると判断を誤る可能性が大き
い。
【0005】他の従来のシステムの例が、特開平7−3
02242号公報に記載されている(従来技術3と呼
ぶ)。ここには多くの請求項があるが、本発明に近いも
のは請求項9、段落番号「152」〜「161」に記載
されたものである。ここでは、トランザクション処理部
の負荷を定期的に検出して時刻と共に負荷の履歴を記憶
しておく。そして、負荷傾向Trを次の式で計算する。 Tr=(W2−W1)/(T2−T1) トランザクション処理要求を受けると、一定時間Ti後
に処理負荷予測値が閾値Wtを越えないと判断した場合
(Tr・Ti≦Wt)、自分で受け付け、そうでなけれ
ば拒否する。あるいは、より負荷の低い他のサーバに処
理を依頼する。この例では、負荷を定期的に検出してこ
れをベースとして判断するが、具体的に何をもって「負
荷」とするかについては公報全体を通じて明確に規定さ
れていない。負荷の指標を規定することは負荷配分にと
って重要な第一歩であるが、それがなされていない。ま
た、Ti後の負荷を過去の線形外挿により予測しようと
しているが(Tr・Tiでは不足と思われるが、それは
別として)、これは良い予測とは思えない。システム全
体の負荷についてはこの種のマクロな予測も有効かも知
れないが、自サーバについてはその先の負荷状況は、現
在の状態と処理中トランザクションの終了タイミング、
自分が新たに処理を受け入れるか否かというミクロな動
きで決まるものであり、過去の傾向を延長してそのまま
信じてしまうのは危険である。
【0006】また、上述の従来技術1,2,3はいずれ
も、到着したメッセージ自体の処理時間を最短にするこ
とを狙って実行先を決定している。しかし、このような
個別最適化がシステム全体としての最適化に直結すると
いう保証は必ずしもあるわけではない。
【0007】他の従来のシステムの例が、1997年にSpri
nger社から発行されたOptimal LoadBalancing in Distr
ibuted Computer Systems(H.Kameda他著)の第225
頁〜第232頁に記載されている(従来技術4と呼
ぶ)。前提としているモデルを1台のCPUに注目して
示すと図2のようなものである。ジョブは到着すると、
CPU(図では計算機i)とディスクの使用を繰り返
し、処理を終了すると立ち去る。この間の時間が応答時
間である。複数のジョブが並行処理されるので、CPU
の前には待ち行列が生ずる。他のCPUも、図示した計
算機iと同じ位置づけになり、ディスクに対するアクセ
ス時間はすべてのCPUから同等である。ここでは、負
荷指標として次の2つの式が示されている。 fi =si (ni +1) (式1) Fi =si (ni +1) (式2) ここで、fおよびFは負荷指標、iは計算機番号、sは
ジョブのCPUにおける純サービス時間の平均、nはC
PU系に存在するジョブ数である。これらの式は、待ち
行列理論で言う開放型待ち行列網モデルにおいて、CP
U系について平衡状態における平均値に関して成立する
関係をもとに、平均応答時間をある意味で最小化すると
いう目的のために、小さいほどよい値として導き出され
たものである。実際、(式2)はCPU系における平均
滞在時間を表し、これに入出力系における平均滞在時間
を加えると平均応答時間となるものである。これらの負
荷指標は、静的負荷配分のための指標としてはある意味
の最適性が証明されている。しかし、動的制御はその時
々の状況に応じた制御を行いうるところにメリットがあ
り、si,niについては、平衡状態における平均値で
なく現在値を用いないと意味がない。現在値に関しni
は測定可能であるが、計算機i上で実行中のジョブミッ
クスの特性を反映するsiは直接には測定不可能であ
る。当文献上における評価では、siとして全体の平均
値を用いている。実行する処理が、ジョブ特性の観点か
ら一種類でしかも特性のばらつきが小さいなら全体の平
均値を用いてもよいであろうが、一種類でもばらつきが
大きい場合や、現実には一般的と考えられる特性の異な
る複数種類の処理が混在する場合には、全体の平均値を
用いてしまうと動的制御のメリットが大きく失われるこ
とになる。
【0008】
【発明が解決しようとする課題】第1の問題点は、負荷
分散のベースとなる各計算機の負荷状況の把握が不十分
であるということである。従来は、処理中トランザクシ
ョン数、CPU使用率などがそれぞれ単独であるいは組
み合わせて負荷指標として使われていたが、これらは、
その時点で処理中のトランザクション群のCPU/入出
力使用比率を含むジョブ特性まで含めた、システムの混
み具合を充分に反映するものとは言えない。また、トラ
ンザクション処理のように小規模の処理要求が大量に到
着するシステムでは、短い時間間隔で正確に負荷状況を
把握する必要があるが、分散システムにおけるデータ収
集のオーバヘッドを恐れ、収集頻度を少なくするような
傾向があった。低オーバヘッドな良質のデータを用いる
工夫と共に、クラスタ型などの環境ではデータ収集は高
速・低オーバヘッドなので、これを生かして良い負荷分
散を実現するような方式が求められる。
【0009】第2の問題点は、必ずしも、システム全体
としての最適化(応答時間の平均、分散の最小化)を図
るものではなかったということである。到着したトラン
ザクションの配分先を決定するに際し、当該トランザク
ションにとってその時点で最適な(最短時間で処理でき
ると予想される)計算機を選択していたが、このような
個別最適化は、システム全体としての最適化につながる
ことを、必ずしも保証するものではない。
【0010】
【発明の目的】本発明の目的は、クラスタ構成などと呼
ばれる比較的緊密に結合された複数の計算機が負荷分担
してトランザクション処理を実行するシステムにおい
て、到着した処理要求に対し適切な実行先計算機を選択
するための基準となる有効な負荷指標を提供し、これに
基づく選択を小さいオーバヘッドで実行可能にすること
により、トランザクション処理の負荷を短期レンジでも
計算機間でバランスさせ、もって、全体として応答時間
の平均とばらつきを小さく保つことを可能にする動的な
負荷分散方式を提供することにある。
【0011】
【課題を解決するための手段】本発明は、トランザクシ
ョン処理要求を発生する端末装置群と該要求の処理を負
荷分担して実行する複数の計算機からなるシステムにお
いて、各計算機の処理時間の伸長率を推定し、この推定
伸長率をベースとした各計算機の負荷指標に基づいてト
ランザクション処理要求を各計算機へ配分する。具体的
には、本発明にかかる負荷分散方法にあっては、各計算
機の負荷状況を推定し、該推定負荷状況に基づいてすべ
ての計算機について処理時間の推定伸長率を求め、この
推定伸長率をベースとして各計算機の負荷指標の値を計
算し、該負荷指標の値に基づいてトランザクション実行
の各計算機への配分を決定する。また、本発明にかかる
負荷分散方式にあっては、各計算機の負荷状況を推定す
る負荷データ測定手段と、推定した該負荷状況を記憶す
る負荷データ記憶手段と、該推定負荷状況に基づいてす
べての計算機について処理時間の推定伸長率を求め、こ
の推定伸長率をベースとして各計算機の負荷指標の値を
計算し、該負荷指標の値に基づいてトランザクション実
行の各計算機への配分を決定する実行計算機選択手段
と、前記各計算機ごとにその上に存在し、複数のトラン
ザクション実行を並列に行い、前記実行計算機選択手段
に指令されたトランザクションの実行を管理するトラン
ザクション処理手段とを有する。
【0012】各計算機の処理時間の伸長率とは、業務処
理プロセスの応答時間、すなわち待ち時間も含む処理時
間の、純処理時間(CPU、ファイル装置という資源を
実際に使用する時間の合計)に対する倍率を意味する。
この伸長率は、当該計算機上で実行中のプロセスの集ま
り(ジョブミックス)の、動作中の群としてのプログラ
ム特性(CPU使用特性だけでなく、CPU−I/O使
用特性を含む)を反映している。従って、処理速度が同
じ計算機ならば、同一の処理は伸長率の小さい計算機で
実行した方が処理時間は短くなり、応答時間を短くでき
る。
【0013】各計算機における処理時間の伸長率は、一
定時間ごとに各計算機の負荷データとして例えば処理中
トランザクション数とCPU系に滞在する業務処理プロ
セス数、または、処理中トランザクション数とCPU使
用率を測定し、これらに基づいて推定する。一定時間ご
とに測定した負荷データの系列を総合的に用いて各計算
機の負荷状況を推定したり、各計算機におけるトランザ
クション処理の開始・終了に応じて各計算機の処理中ト
ランザクション現在数を常に把握しておき、この処理中
トランザクション現在数を用いて推定負荷状況データを
補正したりすれば、推定負荷状況の推定精度が高まり、
ひいては伸長率の推定精度も高まる。
【0014】推定伸長率をベースとして各計算機の負荷
指標の値を求め、これに応じて、到着する処理要求を計
算機へスケジュールする。負荷指標としては、推定伸長
率そのものを負荷指標とすることができる他、当該計算
機へ新規にトランザクションを割当てる前あるいは割当
て後における、総推定伸長率、すなわち、当該計算機に
おける前記処理時間の推定伸長率に当該計算機の処理中
トランザクション数を乗じた値を用いることができ、ま
た、当該計算機へ新規にトランザクションを割り当てた
後における前記総推定伸長率と、割当て前における前記
総推定伸長率との差を用いることもできる。後者では、
伸長率の増分最小の計算機が選択されるため、システム
全体にとって当スケジュールによる応答時間総和の増加
を最小にする選択になる。
【0015】本発明の推定伸長率に基づくトランザクシ
ョン負荷分散方式では、実行計算機選択手段と負荷デー
タ記憶手段とがそれぞれシステムに一つだけ存在して集
中的にその機能を実行し、前記実行計算機選択手段は各
計算機の前記負荷指標の値を直接的に反映してトランザ
クションの配分を行うよう構成して良い。具体的には、
すべての処理要求を集中的に受け取って計算機に配分す
る中継配分装置(図1の2)を備え、各計算機(図1の
1x)上に存在して一定時間ごとに負荷データを測定し
中継配分装置に通知する手段(図1の1x1と1x3)
と、これを受けて中継配分装置上で各計算機の負荷状況
を推定して記憶すると共に各計算機の処理中トランザク
ション現在数を常に把握する手段(図1の8と6)と、
中継配分装置上に存在し端末から処理要求が到着すると
起動され、該到着処理要求を処理する計算機を決定して
送付する実行計算機選択手段(図1の7)とを備え、実
測に基づいたその時点の推定負荷状況と処理中トランザ
クション現在数とに基づいて各計算機の処理時間の推定
伸長率を求め、この推定伸長率をベースに各計算機の負
荷指標の値を計算し、該負荷指標の値から、到着した処
理要求に関して動的負荷配分の観点から最適な計算機を
決定して処理させるように動作する(この方式を第1の
方式と呼ぶ)。
【0016】本発明の推定伸長率に基づくトランザクシ
ョン負荷分散方式では、また、実行計算機選択手段が各
計算機ごとに一つずつ分散して存在し、固定的、静的ま
たは準静的な分配方式によって計算機に配分されてきた
トランザクションについて、該計算機上の実行計算機選
択手段が、すべての計算機の前記負荷指標の値に基づ
き、次の2つの決定すなわち、該計算機でそのまま処理
するか他に回すかを閾値判断で決定、および他に回す場
合はその送付先を決定、を行うよう構成して良い。具体
的な構成例としては、次の2つの方式が考えられる(そ
れぞれ第2の方式、第3の方式と呼ぶ)。
【0017】第2の方式は、中継配分装置を備えず、し
たがって処理要求は静的な方式で各計算機へ配分される
が、各計算機上に存在して一定時間ごとに負荷データを
測定しこれを元に負荷状況を推定して記憶すると共に他
のすべての計算機に通知する手段(図6の1x1と8
x)と、処理要求の到着と共に到着計算機上で起動され
てすべての計算機についての前記推定負荷状況から各計
算機の処理時間の推定伸長率を求めこれを元に負荷指標
の値を計算し、各計算機の該負荷指標の値に基づいて自
計算機で処理すべきか他計算機に依頼すべきかを閾値を
用いて判断し、他に送付する場合はその送り先を決定
し、選択した実行先に送付依頼するよう動作する実行計
算機選択手段(図6の7x)とを備える構成である。
【0018】第3の方式は、処理要求を一括して受け取
って静的/準静的方式により計算機に配分する中継仮配
分装置(図7の25)を備え、動的に最適とは言えない
仮配分がなされるが、各計算機上に第2の方式と同一
の、一定時間ごとに働く測定手段と、負荷状況推定手
段、及び仮配分された処理要求の到着時に起動され各計
算機の推定伸長率を計算しこれに基づいて負荷指標の値
を求め、自計算機で処理すべきか他に依頼するとしたら
どの計算機かを決定し処理を依頼するように動作する実
行計算機選択手段(図7の7x)を備える構成である。
【0019】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
【0020】図1を参照すると、本発明の第1の実施の
形態は、プログラム制御により動作する計算機群1と、
中継配分装置2と、高速チャネル3と、ファイル装置群
4と、端末装置群5と、通信網51とから構成されてい
る。
【0021】計算機群1は計算機11〜1nを含み、計
算機11〜1nは、それぞれ、負荷データ測定手段A1
11〜1n1と、トランザクション処理手段112〜1
n2と、通信手段113〜1n3とを含み、トランザク
ション処理手段112〜1n2はそれぞれ複数の業務処
理プロセスを含み(図示せず)、中継配分装置2は通信
手段21と、負荷データ記憶手段6と、実行計算機選択
手段7と、負荷データ測定手段B8とを含む。計算機1
1〜1nは主記憶を共有しないが、ファイル装置群4に
は高速チャネル3を介して性能的に同等の条件で接続さ
れており、ファイル装置を共有している。中継配分装置
2も高速チャネル3を介して計算機群1に接続され、端
末群5は通信網51を介して中継配分装置2に接続され
ている。
【0022】1つのトランザクションの処理の概略は次
のようになる。トランザクション処理要求であるメッセ
ージは端末群5に属する端末装置から送り出され、中継
配分装置2に伝えられる。中継配分装置2は、受け取っ
たメッセージを処理する計算機1iを決定し、該計算機
に高速チャネル3を介して該メッセージを送る。受け取
った計算機1iではトランザクション処理を実行し、応
答メッセージを作成して逆の経路を通して要求元端末に
返す。
【0023】ここで、各計算機11〜1nに備わる負荷
データ測定手段A111〜1n1、トランザクション処
理手段112〜1n2、通信手段113〜1n3をソフ
トウェア的に実現する場合、これらの各手段を実現する
プログラムは図示しないCD−ROM、磁気ディスク、
半導体メモリ等の機械読み取り可能な記録媒体に保存さ
れており、計算機群1の立ち上げ時などに記録媒体に記
録されたプログラムが各計算機に読み込まれ、各計算機
の動作を制御することにより、各計算機上にこれら各手
段を実現する。また、中継配分装置2に備わる通信手段
21、負荷データ記憶手段6、実行計算機選択手段7、
負荷データ測定手段B8をソフトウェア的に実現する場
合、これらの各手段を実現するプログラムは図示しない
CD−ROM、磁気ディスク、半導体メモリ等の機械読
み取り可能な記録媒体に保存されており、中継配分装置
2を構成する計算機の立ち上げ時などに記録媒体に記録
されたプログラムがその計算機に読み込まれ、その計算
機の動作を制御することにより、その計算機上にこれら
各手段を実現する。
【0024】上記の各手段はそれぞれ概略つぎのように
動作する。
【0025】計算機11〜1nの各々は同一の機能を持
つので、以下では1iで代表させる。計算機1i上の負
荷データ測定手段A1i1は、一定時間ごとに自身の属
する計算機1iの負荷データを測定し、結果を中継配分
装置2に送る。トランザクション処理手段1i2は、中
継配分装置2から送られた処理要求メッセージを通信手
段1i3から受け取ると、自身の管理下の業務処理プロ
セスを割り当て、処理を行わせる。前記業務処理プロセ
スは、プログラムの実行のためにCPUの使用とファイ
ル装置4上のファイルへのアクセスを繰り返し、処理が
終了すると応答メッセージを作成し、通信手段1i3を
介して中継配分装置2に送る。
【0026】中継配分装置2上の負荷データ記憶手段6
には各計算機の負荷データが格納されている。負荷デー
タ測定手段B8は、各計算機から一定時間ごとに送られ
てくる負荷データを通信手段21経由で受け、これを加
工して推定データとして前記負荷データ記憶手段6に格
納する。また、計算機へのトランザクション処理要求送
付および応答メッセージ到着の通知を通信手段21から
受け、負荷データ記憶手段6上の一部のデータを更新す
る。実行計算機選択手段7は、前記処理要求メッセージ
を通信手段21から渡され、負荷データ記憶手段6に記
憶されている各計算機の前記推定負荷データから各計算
機における推定伸長率を求め、これに基づいて実行すべ
き計算機を決定し、該計算機に向けて、通信手段21に
処理要求メッセージを送付させる。
【0027】次に、図1〜図5を参照して本実施の形態
の全体の動作について詳細に説明する。
【0028】図1において、トランザクション処理手段
1i2は、中継配分装置2から送られた処理要求メッセ
ージを通信手段1i3から受け取ると、自身の管理下の
業務処理プロセスを割り当て、要求に応じたトランザク
ション処理を行わせる。トランザクション処理手段1i
2は、複数のトランザクション、したがって複数の業務
処理プロセスをマルチプログラミング状態で走らせるこ
とができ、これによって応答時間、資源使用効率を向上
させている。業務処理プロセスは、適用業務プログラム
実行のためにCPUの使用とファイルアクセスのための
ファイル装置群4への入出力を繰り返し、処理が終了す
ると応答メッセージを作成し、通信手段1i3を介して
中継配分装置2に送りプロセスを終了する。
【0029】図2に、1台の計算機iについて、性能面
から見たシステムのモデルを示す。業務処理プロセスの
資源使用特性はCPU使用時間と入出力の回数で捉えら
れるが、これはトランザクションごとに異なるものであ
る。複数の処理を並行して走らせるので、資源の競合が
起こる。そのため、少なくともCPUの前にはプロセス
待ち行列ができることが想定される。一般に、使用率の
高いCPUほど待ち時間が長い。入出力に関しては、い
ずれの計算機からも性能的に同条件にあるので、ここの
処理時間は待ち時間も含めてアクセス元の計算機による
差はないと考える。Niは計算機i上の処理中業務処理
プロセス数を表すものとする。これは該計算機上で処理
中のトランザクション数に相当する。PiはCPU系に
存在する業務処理プロセス数を表すものとする。これは
NiのうちCPU割当て待ち(レディ状態)あるいはC
PU使用中であるプロセスの総数である。ファイル装置
は共有されており、すべての計算機についてアクセス性
能は同等なので、他の計算機も、性能的にはすべて計算
機iと同じ位置づけとなる。
【0030】計算機1i上の負荷データ測定手段A1i
1は、一定時間ごとに自身の属する計算機1iの負荷デ
ータとして、その時点でCPU系に存在する前記業務処
理プロセス数Piあるいは直前の測定以後今回までの間
のCPU使用率Ri、およびその時点での処理中業務処
理プロセス数Niを測定し、結果を通信手段1i3を介
して中継配分装置2に送る。前記測定の間隔は負荷分散
の精度を左右するので、オーバーヘッドとの兼ね合いも
あるが、通常のトランザクション処理では100ミリ秒
程度以下、できれば10ミリ秒程度、であることが望ま
しい。Piを用いるかRiを用いるかは実施システムご
とに決定してよい。Piを用いる場合をP方式、Riを
用いる場合をR方式と呼ぶことにする。
【0031】図3に、中継配分装置2上の負荷データ記
憶手段6に記憶する負荷データをテーブル形式で示す。
計算機番号T1はシステム内で稼働中の計算機の識別を
示し、テーブル上のデータは計算機ごとに1行を用意し
て管理されている。負荷データ測定手段B8は、前記負
荷データ測定手段A1i1から一定時間ごとに送られる
データである、CPU系に存在する業務処理プロセス数
Piあるいは直前の測定以後今回までの間のCPU使用
率Ri、およびその時点での処理中業務処理プロセス数
Niの値を通信手段21経由で受ける。そして、これを
加工して推定データとして、前記Piの推定値Peiあ
るいは前記Riの推定値Rei、および前記Niの推定
値Neiを求め、前記R方式ならReiからPeiを計
算し、列T3にNeiを列T4にPeiをそれぞれi番
目の値として格納する。
【0032】測定値をそのまま用いず推定値に変換する
のは、過去のデータを総合的に組み込むことによりサン
プリングの信頼性の低さを補うためである。具体的な求
め方として、次の方法がある。測定値をm、推定値を
e、最新の測定がn回目であったとする。 e(n)=a*m(n)+(1−a)*e(n−1) (式3) ここで、aはパラメタ(0<a≦1)であり、また、e
(n)の初期値e(0)はe(1)と等しいとする。す
なわち、今回の測定値にaを乗じたものと前回の推定値
に1−aを乗じたものとの和を今回の推定値とする。式
3は次のように展開できる。 e(n)=a*m(n)+a(1−a)*m(n−1)
+a(1−a)2 *m(n−2)+a(1−a)
*m(n−3)+ … この式は、推定値が、近い過去の測定値ほど重視する形
で過去の測定値を全部取り込んだものになっていること
を示している。aが大きい(1に近い)ほど近い過去を
重視する度合いが高いことになる。前記測定間隔が十分
に小さいなら、aの値は0.1などの小さい値とした方
が推定値の信頼度は上がる。前記R方式では、式3によ
り求められたReiから次の式によりPeiを求め、列
T4に格納する。 Pei=Rei/(1.0−Rei)(Rei≧0.9
9ならPei=Nei) この式は、M/M/1待ち行列における系の長さと使用
率との関係そのものである。
【0033】また、計算機i上で処理中のトランザクシ
ョン現在数Npiが、テーブル上の列T2に保持されて
いる。この値は、前記負荷データ測定手段B8が、計算
機へのトランザクション処理要求送付(トランザクショ
ン開始)および応答メッセージ到着(トランザクション
終了)の通知を通信手段21から受けて更新し、保持す
る。したがって、信頼できる測定値である。
【0034】図4Aは、本発明の第1の実施の形態の実
行計算機選択手段7の動作を示すフローチャートであ
る。実行計算機選択手段7は、端末から処理要求メッセ
ージが中継配分装置2に到着すると通信手段21に起動
されて該メッセージを渡され(図4Aの71)、負荷デ
ータ記憶手段6に記憶されている各計算機の負荷データ
から各計算機における推定伸長率を求めて(図4Aの7
2,73)負荷指標の値を計算し(図4Aの74)、こ
れ基づいて実行すべき計算機を決定し(図4Aの7
5)、該計算機に向けて、通信手段21に処理要求メッ
セージを送付させる(図4Aの76)。
【0035】推定値の補正(図4Aの72)では、負荷
データ記憶手段6上のデータをベースに補正を行い、現
時点における負荷データとして、処理中業務処理プロセ
ス数(補正値)Nri、およびCPU系に存在する業務
処理プロセス数(補正値)Priを次の式により求め
る。 Nri=w*Npi+(1−w)*Nei (式4) ここでwは重み係数(w≦1.0)であり、0.8程度
がよい。 Pri=Pei+(Nri−Nei),Nri≧Neiのとき (式5) =Pei*(Nri/Nei),Nri<Neiのとき 式5は、過去のサンプリングから推定していたPei
を、これと同一条件で推定したNeiと現時点の状況を
表す最も信頼できる補正値であるNriとの関係から、
補正するものである。一定時間間隔でしか行わない推定
をベースに、最新の推定値から現時点の真の値に近い補
正値を得ることができる。
【0036】推定伸長率の計算(図4Aの73)では、
推定伸長率Epiを次の式により求め、結果をテーブル
の列T5に格納する。 X=Nri*(Pri+1)として、 Epi=X/(X−Pri*Pri),Pri<Nriのとき (式6) =Nri+1.0 ,Pri≧Nriのとき
【0037】式6は、図2に示す1つの計算機(CPU
1台)における平衡状態の平均値に関して成立する関係
から、以下のようにして導かれる。
【0038】トランザクションは指数分布に従う時間間
隔で到着する(ポアソン到着)とする。また、ディスク
装置では待ちは生じない(装置が無限に存在する)もの
とする。前述の処理中業務プロセス数、その内のCPU
系に存在する業務処理プロセス数、CPU使用率もここ
では平均値とし、これらを含めてすべての変数は計算機
番号、推定状態を示す添字を省いて示す(例えば、処理
中業務プロセス数はN、CPU系に存在する業務処理プ
ロセス数はP、CPU使用率はRでそれぞれ示す)。ま
た、以下で定義する4種の変数はトランザクション当た
りの平均時間とする。 F:処理時間 t:純処理時間 s:CPU使用時間 d:入出力時間(t=s+d) 更に、対象計算機からの要求で実行中の入出力数の平均
をDとする(N=P+D)。従来技術4の文献228頁
の8.3式から、平衡状態の平均値について、 F=s(P+1)+d=sP+t (式61) となり、入出力で待ちがないので、 d/s=D/R (式62) となる。また、同文献228頁の式8.3と式8.1の
対比からも知られるように、 P+1=1/(1−R) から R=P/(1+P) 式(63) となる。式63を式62に代入し、d=t−s、N=P
+Dを適用すると、 s=Pt/(P+D+PD)=Pt/(N(P+1)−P・P) 式(64) となり、式64を式61に代入すると、 F=P・Pt/(N(P+1)−P・P)+t =N(P+1)t/(N(P+1)−P・P) =Xt/(X−P・P) となる。ここで、X=N(P+1)である。したがっ
て、伸長率Eは、 E=F/t=X/(X−P・P) となり、式6が導かれる。また、伸長率Eは、NとCP
U使用率Rを用いて次のように表すこともできる。 E=N(1−R)/(N(1−R)−R・R) 式(65) 式65は、式6にRとPの関係を表す式63を適用して
得ることもできるし、従来技術4の文献の式8.1(R
を用いて処理時間を表現)から出発して、式62、式6
3を適用して得ることもできる(導出の記述は省略す
る)。しかし、Rについては式5で行ったのに相当する
補正の手段がなさそうなので、本実施形態では補正の前
にPに変換してから補正を受けるようにしてしまい、C
PU使用率を測定した場合にも最終的な伸長率の式とし
てはNとPを用いる式6を使用するようにした。なお、
本実施形態で推定伸長率を求めるために用いる計算式
(式6)は、このようにシステムの統計的平衡状態に関
して成立するものであり、平衡状態がある程度の時間続
くときに、その間のP、Nの平均値を知れば推定可能に
なるものである。現状を表す平衡平均値としては、過去
の履歴に基づいて式3を用いたNei、Peiが適当と
考えられるが、Nについては正確な現在値Npiが知ら
れているので、動的負荷配分の立場からはこれも反映す
べく、前述した式4においては、この方針によりNの補
正値を得ている。
【0039】再び図4(A)を参照して実行計算機選択
手段7の残りの動作を説明する。
【0040】採用する負荷指標によっては、現状におけ
る推定伸長率Epiの他に到着メッセージを計算機iに
スケジュールした場合の予測伸長率Eniが必要にな
る。あるいはEniだけを必要とすることもある。En
iもEpiと同様に図4(A)のステップ73で計算さ
れる。
【0041】Eniが必要であって到着メッセージ処理
のジョブ特性を利用しない場合は、スケジュール後のト
ランザクション数NniをNri+wとし、スケジュー
ル後のCPU系滞在プロセス数PniをPri+wとし
て、式6と同様にEniを計算しテーブルの列T6に格
納する。
【0042】到着メッセージ処理のジョブ特性が推定可
能でこれを利用する場合は、メッセージの種類などから
その純処理時間(CPU、ファイル装置という資源を実
際に使用する時間の合計、言い換えると資源競合が全く
ない場合の処理時間)に占めるCPU時間の割合Cを推
定し、これを用いて次の計算により、まず前記Pniを
推定する。
【0043】Cをスケジュール前における計算機i上
におけるCの推定値とすると、Cは式64におけるs
/tに相当するので、式64にN、Pの補正値を当ては
めて、 C=Pri/(Nri*(1+Pri)−Pri・P
ri) となる。Cを計算機iに、C=C0である到着メッセ
ージをスケジュールした場合の新ジョブミックスにおけ
るCの推定値とする。平均がCのジョブがNri個存
在し、そこへC0のものが1個加わり総数はNniとな
るので、その平均値は、 C=(Nri*C+C0 )/Nni となる。式64から、s/t=P/(NP+N−P・
P)なので、この式をスケジュール後の状態に適用する
と、s/t=Cなので、Pniをyとおくと、 C(Nni・y+Nni−y2)=y となり、整理すると、次の2次方程式が得られる。 C2+(1−C・Nni)y−C・Nni=0 (式7) 式7をyについて解くことによって、スケジュール後の
Pniの推定値が得られる。定数項が負の値なので正の
解と負の解が得られる。正の解をPniとして採用す
る。そして、式6と同様にしてEniを計算する(これ
を、以下ではEkiとする)。
【0044】ここで処理時間の伸長率とは、業務処理プ
ロセスの応答時間、すなわち待ち時間も含む処理時間
の、純処理時間に対する倍率を表す。伸長率Eiは、計
算機iにおける業務処理プロセスの伸長率である。処理
速度が同じ計算機ならば、同一の処理は伸長率の小さい
計算機で実行した方が処理時間は短く、したがって応答
時間を短くできることになる。推定伸長率は、当該計算
機上で実行中のプロセスの集まり(ジョブミックス)
の、動作中の群としてのプログラム特性(CPU使用特
性だけでなく、CPU−I/O使用特性を含む)を反映
している。しかも、式6を用いると、実行中の個々のジ
ョブの特性を知る必要がなく、動作中に観測可能なデー
タだけから得ることが可能なところに特徴がある。基本
的に、従来技術4の考え方の系列に属し、式6は式2の
拡張・変形により得られるが、当方式は現時点のシステ
ム状況(ジョブミックス特性)を反映可能にし、かつ、
CPU系での滞在時間だけでなく入出力も含めた全処理
時間(応答時間)を対象にして、精度・ダイナミック性
を向上させている。ただし、式6は平衡平均値に関する
理論に基づいているので、短期的な状況の把握法として
は100パーセントの信頼性があるとは言えない。
【0045】負荷指標の値の計算(図4Aの74)で
は、負荷データT2〜T6を用いて各計算機について負
荷指標の値を計算する。負荷指標としては図5に示すよ
うに8種類(名称としてLで始まる)が考えられ、実施
システムではこの内の一種類を選べばよい。図中に示し
た式による計算で結果を得てテーブルの推定負荷の列T
7に格納する。いずれも、小さい値を持つ計算機ほどス
ケジュール先として望ましいことになる。どの時点の負
荷を考えるかについて、到着メッセージのスケジュール
前(この負荷をLpと表記する)/後があり、さらに、
スケジュール後の場合に到着メッセージのジョブ特性を
未知とする(負荷をLaと表記)か、推定可能とする
(負荷をLkと表記)かがありうる。これら3ケース各
々について、伸長率そのものを負荷指標と捉える( Lx
1と表記) こともでき、推定伸長率に処理中業務処理プ
ロセス数NriまたはNniを乗じたものを負荷指標と
する(Lx2と表記)こともできる(xはp、aまたは
kである)。後者は計算機上の個々のトランザクション
の推定伸長率の総和という性格をもつ。さらに、スケジ
ュールによる負荷の増加という観点から、上記の総和の
スケジュール前後における増分を負荷指標とする(Lx
3と表記)こともできる。伸長率の増分最小という選択
は、システム全体にとって当スケジュールによる応答時
間総和の増加を最小にする選択になり、結果として平均
応答時間を最小化できると期待できる。到着メッセージ
のジョブ特性が相当の精度で推定可能な場合は、理論通
り、Lk3を採用するのが最も良い結果を期待できる。
ジョブ特性推定の精度が期待できない場合はLk3の選
択は危険であり、平均応答時間最小という点からはLa
2を採用するのがよい。
【0046】推定値の補正(図4Aの72)、推定伸長
率の計算(73)、負荷指標の値の計算(74)は、入
力メッセージを処理可能なすべての計算機に関して行
い、推定負荷を得てテーブルの列T7に格納しておく。
【0047】実行すべき計算機の決定(図4Aの75)
では、テーブルの列T7に格納されている各計算機の前
記推定負荷をサーチし、推定負荷が最小の計算機(計算
機jとする)を選択する。次に、メッセージの送付(図
4Aの76)では、選択された計算機jに対して入力メ
ッセージを送付して処理開始を促すように、通信手段2
1に指令する。
【0048】次に、本実施の形態の効果について説明す
る。
【0049】本実施の形態では、中継配分装置2の上で
全計算機の負荷データをリアルタイムで管理し、またす
べての処理要求メッセージを直接受け取り、直ちに、前
記負荷データに基づいて各計算機における伸長率を計算
し、その時点で最適な負荷指標値をもつ計算機に処理要
求メッセージの処理を依頼するように構成されているた
め、集中的な制御が実現でき、オーバヘッドの少ない、
かつ、良質な負荷配分を実現することができる。
【0050】次に、本発明の第2の実施の形態について
図面を参照して詳細に説明する。
【0051】図6を参照すると、本発明の第2の実施の
形態は、第1の実施の形態に対し、構成として、中継配
分装置2をもたず端末群5は通信網51を介して直接に
計算機群1に接続されている点と、計算機間を接続する
交換・蓄積機構10が追加されている点が異なる。これ
に伴い、計算機1iは、負荷データ測定手段A1i1
と、トランザクション処理手段1i2と、通信手段1i
3に加えて、負荷データ記憶手段6iと、実行計算機選
択手段7iと、負荷データ測定手段B8iとを含む。こ
れらの各手段を他の手段と共にソフトウェア的に実現す
る場合、第1の実施の形態と同様にその実現用プログラ
ムが図示しない記録媒体に記録されて提供される。
【0052】1つのトランザクションの処理の概略は次
のようになる。トランザクション処理要求であるメッセ
ージは端末群5に属する端末装置から送り先を指定して
送り出され、通信網51を経由して指定された計算機で
受け取られる。受け取った計算機はそのメッセージを自
分で処理するか他に依頼するか、依頼するとしたらどの
計算機にするかを決定し、依頼する場合は交換・蓄積機
構10を介して依頼先計算機に該メッセージを送る。処
理を行う計算機はトランザクション処理を実行し、応答
メッセージを作成して要求元端末に返す。
【0053】ここで、上記の手段はそれぞれ概略つぎの
ように動作する。
【0054】計算機1i上の負荷データ測定手段A1i
1は、一定時間ごとに自身の属する計算機1iの負荷デ
ータを測定し、負荷データ測定手段B8iでこれを加工
して推定データとして負荷データ記憶手段6iに格納す
る、と共に交換・蓄積機構10により他のすべての計算
機に通知する。また、同様に各計算機のトランザクショ
ン処理開始および終了を相互に通知し合う。これらによ
って、各計算機上の負荷データ記憶手段6xには全計算
機の最新の負荷データが保持される。端末から来た処理
要求メッセージは実行計算機選択手段7iが受け、負荷
データ記憶手段6iに記憶されている各計算機の推定負
荷データから各計算機における推定伸長率を求め、これ
に基づいて実行すべき計算機を決定し、自身で実行する
場合にはトランザクション処理手段1i2に渡し、他の
計算機に実行させる場合は該計算機のトランザクション
処理手段1j2に向けて、交換・蓄積機構10を経由し
て処理要求メッセージを送付する。トランザクション処
理手段1x2は、処理要求メッセージを受け取ると、自
身の管理下の業務処理プロセスを割り当てて処理を行わ
せる。業務処理プロセスは、プログラムの実行のために
CPUの使用とファイル装置4上のファイルへのアクセ
スを繰り返し、処理が終了すると応答メッセージを作成
し、通信手段1x3を介して要求元端末に送る。
【0055】次に、図6及び図4Bのフローチャートを
参照して本実施の形態の全体の動作について詳細に説明
する。
【0056】トランザクション処理手段1i2の動作
は、処理要求メッセージを受け取るのが自分または他の
計算機上の実行計算機選択手段7xからである点を除く
と第1の実施の形態と同一である。負荷データとして管
理するデータも第1の実施の形態と同一で図3に示すも
のであるが、各計算機上に負荷データ記憶手段6xとし
て、全計算機に関する同一内容のものを保持する。計算
機1i上の負荷データ測定手段A1i1は、一定時間ご
とに自身の属する計算機1iの負荷データとして、CP
U系に滞在する業務処理プロセス数PiあるいはCPU
使用率Ri、およびその時点での処理中業務処理プロセ
ス数Niを測定する。そして、負荷データ測定手段B8
iがこれを加工して、推定データとして、Peiあるい
はRei、およびNeiを求め、前記R方式ならRei
からPeiを計算し、列T3にNeiを列T4にPei
をそれぞれi番目の値として格納する。同時にNei、
Peiの値を他のすべての計算機に交換・蓄積機構10
を介して送り、負荷データ記憶手段6xの内容を更新さ
せる。推定データの計算方法は第1の実施の形態におけ
るのと同一である。また、計算機1i上で処理中のトラ
ンザクション現在数Npi(テーブル上の列T2)に関
しては、負荷データ測定手段B8iが、計算機1iでの
トランザクション処理開始およびトランザクション処理
終了の通知をトランザクション処理手段1i2から受け
て更新・保持する、と共に他のすべての計算機に送り負
荷データ記憶手段6xの内容を更新させる。
【0057】図4Bは、本発明の第2の実施の形態の実
行計算機選択手段7の動作を示すフローチャートであ
る。端末から処理要求メッセージが到着した計算機1i
において実行計算機選択手段7iが実行される。到着メ
ッセージを受けた通信手段1i3に起動されて該メッセ
ージを渡され(図4Bの71)、負荷データ記憶手段6
iに記憶されている各計算機の負荷データから各計算機
における推定伸長率を求めて(図4Bの72,73)負
荷指標の値を計算し(図4Bの74)、これ基づいて自
計算機(1i)で実行すべきかどうか判断し(図4Bの
751)、自計算機ですべきでないなら実行する計算機
を決定し(図4Bの75)、選択された計算機に向け
て、処理要求メッセージを交換・蓄積機構10を介して
送付させる(図4Bの76)。自計算機で実行すべきな
ら自分を選択し(図4Bの752)、処理を指示する
(76)。実行計算機選択手段7xの動作として第1の
実施の形態と論理的に異なるのは、自計算機で実行する
か否かの判断のところだけである。 推定値の補正(図
4Bの72)、推定伸長率の計算(73)、負荷指標の
値の計算(74)は、入力メッセージを処理可能なすべ
ての計算機に関して行い、推定負荷を得てテーブルの列
T7に格納しておく。自計算機で実行するか否かの判断
(751)には、まず、自計算機の現推定伸長率Epi
を用い、これが閾値(小さめに1.3程度がよい)以下
であったならば、自計算機で実行することにする。そう
でない場合、負荷データ記憶手段6i上の推定負荷T7
に基づいて、自計算機の推定負荷が最小でなくても、最
小負荷の計算機との差が小さければ自計算機で実行する
ようにする。較差の大小の判断は閾値による。負荷指標
として伸長率総和の増分以外の6種類のいずれかを採用
する場合は、較差の判断は倍率閾値によるのがよく、
1.3倍から1.5倍程度がよいようである。すなわ
ち、自計算機のEpiがEpが最小である計算機jのE
pjの1.3倍以内であったら自計算機で実行する、な
どである。負荷指標として伸長率総和の増分を採用する
場合は、2台の計算機の負荷指標間の差をシステム内の
全トランザクション数で除したものが閾値を越えるか否
かで判断するのがよい。すなわち、実行中の全トランザ
クションの平均伸長率の増分の程度によって判断する。
この場合の閾値は0.02程度がよい。ここで、閾値の
値は、負荷の測定間隔が長い場合には大きくした方がよ
い。これは、測定間隔が長い場合は負荷指標の推定値の
信頼性が低くなるので、トランザクション転送を行う頻
度が少なくなるような安全サイドの選択をした方がいい
からである。到着計算機で処理を実行してしまうことを
優先するのは、他の計算機に転送するには転送元・転送
先の双方にオーバヘッドがかかり、また、対象トランザ
クション自身の処理時間に遅延をもたらすからである。
閾値を用いた判断を入れないと、ほとんどすべてのメッ
セージのトランザクション処理を他の計算機へ依頼する
結果になる可能性が高い。
【0058】自計算機で処理することに決定したらトラ
ンザクション処理手段1i2にメッセージを引き渡し処
理を依頼する。 到着計算機で処理すべきでないとなっ
たときは、実行すべき計算機の決定(図4Bの75)
で、テーブルの列T7に格納されている各計算機の推定
負荷をサーチし、推定負荷が最小の計算機(計算機jと
する)を選択する。そして、メッセージの送付(図4B
の76)で、選択された計算機jのトランザクション処
理手段1j2に対して、入力メッセージを交換・蓄積機
構10を介して送付し、処理開始を促す。
【0059】以上において、負荷データ記憶手段6は同
一内容のものが各計算機上に保持されるとし、各計算機
で自身に関して測定/計算後に他のすべての計算機に交
換・蓄積機構10を介して通知するとしていたが、交換
・蓄積機構10がある程度の容量をもち主記憶程度に速
い蓄積機構を備えるなら、前記負荷データ記憶手段6の
一部は、システム共用のものとして交換・蓄積機構10
の上に格納し保持することもできる。負荷データ更新の
オーバヘッドの観点から、この構成の方が望ましい。こ
の場合、テーブルの列T1〜T4は交換・蓄積機構10
に保持し、各計算機はメッセージが到着した際に、ここ
から引き出したデータに基づいて推定伸長率、推定負荷
などを計算し、処理を実行すべき計算機を決定すればよ
い。また、交換・蓄積機構10が前述の条件を満たす場
合、他の計算機に処理を依頼することになったときに
は、メッセージそのものを直接送付するのでなく、メッ
セージは交換・蓄積機構に格納し、依頼の通知だけを相
手に送るように構成することもできる。この場合、受け
取り側の計算機は、都合の良いときに非同期的に交換・
蓄積機構から取り出すことになる。
【0060】次に、本実施の形態の効果について説明す
る。
【0061】本実施の形態では、特別な中継配分装置を
備えなくてもよいため、システム全体として低コストで
構成することができる。集中制御による負荷分散はでき
ないが、処理要求メッセージは端末からの指定により送
付された先の計算機で、その計算機及び他の計算機の負
荷状況データに基づいて伸長率を計算し、転送のオーバ
ヘッドも考慮した上で、その時点で最適な実行計算機を
決定し、その計算機上で実行させるように構成されてい
るため、集中制御である第1の実施の形態よりは落ちる
が、分散制御下としては高い応答性能を実現できる。
【0062】図8及び図9に示すグラフは、本実施の形
態におけるような分散制御下における負荷分散の効果
を、シミュレーション評価によって確認した結果であ
る。トランザクションとしては、純処理時間(450ミ
リ秒)に占めるCPU時間の割合が平均5%のものと平
均60%のものの2種類が、7対3の割合で到着すると
した。計算機は8台あり、各計算機への到着はランダム
で、平均としては等しい到着率になるように設定した。
横軸は到着率に比例する負荷率を示し、縦軸は図8では
得られた平均応答時間(ミリ秒)であり、図9では応答
時間のばらつき(標準偏差)である。それぞれのグラフ
曲線は負荷分散方式に対応しており、実線のものが本実
施の形態に関係する。NC方式は負荷分散をせず、到着
したものをそのまま処理する。MPL方式は、処理中ト
ランザクション現在数を負荷指標とする動的制御で、こ
れが到着計算機より2以上小さい計算機が存在したら、
最小の計算機に転送し処理させる。La2、Lk3はそ
れぞれ本実施の形態における推定伸長率に基づく負荷指
標を用いた動的制御に対応する。これらの結果から、平
均応答時間について、静的確率的配分としては最適であ
るはずのNC方式よりも動的制御は大幅によいことが分
かり、特に推定伸長率に基づく方式は従来多く用いられ
ている実行中トランザクション数に基づく方式よりも優
れていることが示され、また、応答時間のばらつきにつ
いても同様な傾向が、より顕著に現れていることが分か
る。このような差は負荷率が高いときに、より顕著であ
る。
【0063】次に、本発明の第3の実施の形態について
図面を参照して詳細に説明する。
【0064】図7を参照すると、本発明の第3の実施の
形態は、第2の実施の形態に対し、構成として、中継仮
配分装置25をもち、端末群5は中継仮配分装置25を
経由して計算機11〜1nに接続されている点だけが異
なる。
【0065】1つのトランザクションの処理の概略は次
のようになる。トランザクション処理要求であるメッセ
ージは端末群5に属する端末装置から送り出され、前記
中継仮配分装置25に渡される。中継仮配分装置25は
受け取ったメッセージを処理する計算機1iを仮決定
し、該計算機に該メッセージを送る。受け取った計算機
1iはそのメッセージを自分で処理するか他に依頼する
か、依頼するとしたらどの計算機にするかを決定し、依
頼する場合は交換・蓄積機構10を介して依頼先計算機
に該メッセージを送る。処理する計算機はトランザクシ
ョン処理を実行し、応答メッセージを作成して要求元端
末に返す。ここで、第2の実施の形態に対して追加され
た中継仮配分装置25は、端末からのメッセージを受け
て仮配分先計算機を決定して送付するが、基本的に、配
分は詳細な動的情報に基づかない、静的/準静的な手法
によって行われる。
【0066】次に、本実施の形態の全体の動作について
詳細に説明する。
【0067】中継仮配分装置25は、第1の実施の形態
における前記中継配分装置2と同様に、端末装置群5か
ら送り出されるすべての処理要求メッセージを受け取
り、これを渡すべき計算機を決定して送付する。中継仮
配分装置25における静的/準静的な仮配分方式として
次の3種類が想定される。実施に当たっては、このうち
いずれか1種類か、あるいはこれらを組み合わせた方式
を選択する。これら以外であっても、計算機からの負荷
データの収集が少なく、実行のオーバヘッドも小さい配
分方式なら採用可能である。 (1)端末のグループ分けによる配分 (2)到着順に、巡回的に各計算機へ配分 (3)実績データに基づく確率的配分
【0068】(1)端末グループ分けによる配分では、
メッセージ発生元の端末によって配分先の計算機を固定
的に定めておく。すなわち、端末群を計算機1で処理す
るグループ、計算機2で処理するグループ、のように予
めグループ分けしておき、どの端末から来たかによって
行く先を機械的に決定する。第2の実施の形態とほとん
ど同じ方式になるが、本方式では端末群と計算機との対
応関係を中継仮配分装置で集中的に管理できるので、過
去の実績に応じて、例えばシステム立ち上げの度ごと
に、長期的には負荷バランスのとれるグループ分けに設
定し直すなどを容易にできる。
【0069】(2)到着順に巡回的に各計算機へ配分で
は、中継仮配分装置に到着した最初のメッセージは計算
機1へ、次は計算機2へ、と順次配分し、最後の計算機
nに配分した次のメッセージは再び計算機1へ、と巡回
的に配分する。特に大部分のメッセージ処理のジョブ特
性が同一クラスに属するような場合、短期的にも負荷を
バランスさせる効果が期待できる。
【0070】(3)実績データに基づく確率的配分で
は、各計算機に配分するメッセージ数の比率を計算機ご
とに設定し、短期的にもこの比率を守るように配分をす
る。各計算機から負荷状況のデータを1秒ごと、10秒
ごとなどに定期的に受け取り、負荷がアンバランスであ
ったなら、バランスさせるように個々の計算機への配分
比率を上下させ、以後はこの配分比率に基づいて配分を
行うようにする。
【0071】図7におけるトランザクション処理手段1
x2の動作、各計算機上にある負荷データ記憶手段6x
の内容は第2の実施の形態と同一である。計算機1x上
の負荷データ測定手段A1x1、負荷データ測定手段B
8xも第2の実施の形態におけるのと同一の動作をする
が、それに加えて負荷データ測定手段Bは、中継仮配分
装置25が前述の配分方式(3)を採用する場合、1
秒、10秒などの間隔で負荷データの概要を中継仮配分
装置25に送る。本発明の第3の実施の形態の実行計算
機選択手段7の動作は、第2の実施の形態におけるのと
同一であり、図4Bのフローチャートで示される。
【0072】以上において、負荷データ記憶手段6は同
一内容のものが各計算機上に保持されるとし、各計算機
で自身に関して測定/計算後に他のすべての計算機に交
換・蓄積機構10を介して通知するとしていたが、負荷
データ記憶手段6はシステム共用のものとして交換・蓄
積機構10の上に格納し保持することもできる。負荷デ
ータ更新のオーバヘッドの観点から、この構成の方が望
ましい。また、他の計算機に処理を依頼することになっ
たときには、処理対象メッセージそのものを直接送付す
るのでなく、メッセージは交換・蓄積機構に格納し、依
頼の通知だけを相手に送るように構成することもでき
る。以上の点に関しても、第2の実施の形態におけるの
と同様である。
【0073】次に、本実施の形態の効果について説明す
る。
【0074】本実施の形態では、中継配分装置として、
限定された機能だけをもち、計算機群11〜1nからの
情報収集量・頻度も小さいものを備えるだけでよいの
で、比較的低コストで全体システムを構成できる。機能
の限定された中継仮配分装置であるが、ここで準静的に
とはいえ負荷の適切な仮配分を行うように構成されてい
るため、中継仮配分装置が存在しない場合と比較して、
応答性能(平均、ばらつき共)を向上させることがで
き、また、計算機に到達してから行われる負荷バランス
のための転送の頻度を大幅に減少させることができる。
【0075】図8及び図9は、第2の実施の形態の効果
の説明で前述した条件の下で、シミュレーション評価に
より得られたものであり、第3の実施の形態の結果が点
線のグラフとして含まれている。グラフ曲線はそれぞれ
負荷分散方式に対応している。R_NCは、仮配分とし
て前記(2)到着順に巡回的に配分を実施して、仮配分
先の計算機でそのまま処理を実行させたものである。R
_Lk3は、仮配分を同じく(2)で行い、仮配分先の
計算機で前記Lk3を負荷指標とする負荷配分を行った
結果である。これから、準静的な配分だけでも静的な配
分であるNC方式よりも応答性が大幅に向上することが
分かり、さらに推定伸長率に基づく負荷分散を組み合わ
せることにより、第2の実施の形態によるよりも応答性
を向上させられることが理解できる。
【0076】
【発明の効果】本発明によれば、複数の計算機が負荷分
担してトランザクション処理を実行するシステムにおい
て、短期的にも計算機間の負荷をバランスさせ、全体と
して応答時間の平均及びばらつきを小さく保つことがで
きる。その理由は、計算機の処理時間の伸長率をベース
とする新規な負荷指標に基づいて処理要求を動的に配分
しているためである。つまり、基本的な性能指標として
処理時間の伸長率は、当該計算機上で実行中のプロセス
の集まり(ジョブミックス)の、動作中の群としてのプ
ログラム特性(CPU特性だけでなく、CPU−I/O
使用特性を含む)を反映しており、対話型処理にとって
は最適で、かつ、適用性が広いためである。
【0077】また本発明によれば、各計算機における処
理時間の伸長率を、一定時間ごとの各計算機の処理中ト
ランザクション数、CPU系に滞在する業務処理プロセ
ス数、CPU使用率といった、動作中に観測可能なデー
タから導き出せるようにしたため、個々の処理要求のジ
ョブ特性に関する先験的知識なしに、低オーバヘッドで
実測可能な負荷データだけに基づいて、伸長率をベース
とした負荷指標に基づく負荷分散が実現できる。
【0078】また一定時間ごとに測定した負荷データの
系列を総合的に用いて各計算機の負荷状況を推定し、あ
るいは各計算機におけるトランザクション処理の開始・
終了に応じて各計算機の処理中トランザクション現在数
を常に把握しておき、この処理中トランザクション現在
数を用いて推定負荷状況データを補正する構成にあって
は、推定負荷状況の推定精度が高まり、ひいては伸長率
の推定精度、負荷分散の精度をより向上させることがで
きる。
【0079】推定伸長率をベースとした各計算機の負荷
指標として、推定伸長率そのものを負荷指標としたり、
当該計算機へ新規にトランザクションを割当てる前ある
いは割当て後における総推定伸長率(当該計算機におけ
る前記処理時間の推定伸長率に当該計算機の処理中トラ
ンザクション数を乗じた値)を用いたり、また、当該計
算機へ新規にトランザクションを割り当てた後における
前記総推定伸長率と、割当て前における前記総推定伸長
率との差を用いる構成にあっては、個々の計算機のある
いはシステム全体としての負荷の程度を表現する負荷の
指標に基づいた負荷配分が可能となり、個々のトランザ
クション自体の処理時間の最短化だけでなく、その割当
てが他に及ぼす影響まで考慮した、システム全体として
の最適化も可能となる。
【0080】本発明は、集中的に動的に個々の処理要求
を配分する構成のシステムにも、静的/準静的に配分を
されてしまった後で受けた計算機が配分の修正という位
置づけで処理の転送を行うことになるという構成のシス
テムにも適用が可能である。シミュレーションを用いた
性能評価結果が、前述のように図8、図9に示されてい
る。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示す示すブ
ロック図である。
【図2】任意の計算機iから見たシステムのモデルであ
る。
【図3】負荷指標の値を計算するために用いるデータの
一覧表である。
【図4】(A)第1の実施の形態における実行計算機選
択手段の動作を示す流れ図である。 (B)第2あるいは第3の実施の形態における実行計算
機選択手段の動作を示す流れ図である。
【図5】本発明で用いる8種類の負荷の指標を示す一覧
表である。
【図6】本発明の第2の実施の形態の構成を示すプロッ
ク図である。
【図7】本発明の第3の実施の形態の構成を示すブロッ
ク図である。
【図8】平均応答時間(本方式のシミュレーション結
果)のグラフである。
【図9】応答時間の標準偏差(本方式のシミュレーショ
ン結果)のグラフである。
【符号の説明】
1 計算機群 10 交換・蓄積機構 11〜1n 計算機1〜n 1x1 計算機x上の負荷データ測定手段A 1x2 計算機x上のトランザクション処理手段 1x3 計算機x上の通信手段 2 中継配分装置 21 通信手段 25 中継仮配分装置 3 高速チャネル 4 ファイル装置群 5 端末装置群 51 通信網 6 負荷データ記憶手段 6x 計算機x上の負荷データ記憶手段 7 実行計算機選択手段 7x 計算機x上の実行計算機選択手段 8 負荷データ測定手段B 8x 計算機x上の負荷データ測定手段B

Claims (26)

    【特許請求の範囲】
  1. 【請求項1】 トランザクション処理要求を発生する端
    末装置群と、該要求の処理を負荷分担して実行する複数
    の計算機からなるシステムにおいて、 各計算機の負荷状況を推定し、該推定負荷状況に基づい
    てすべての計算機について処理時間の推定伸長率を求
    め、この推定伸長率をベースとして各計算機の負荷指標
    の値を計算し、該負荷指標の値に基づいてトランザクシ
    ョン実行の各計算機への配分を決定することを特徴とす
    る推定伸長率に基づくトランザクション負荷分散方法。
  2. 【請求項2】 前記各計算機の負荷状況の推定に当たっ
    ては、一定時間ごとに各計算機の負荷データを測定して
    これを元に各計算機の負荷状況を推定することを特徴と
    する請求項1に記載の推定伸長率に基づくトランザクシ
    ョン負荷分散方法。
  3. 【請求項3】 前記各計算機の負荷状況の推定に当たっ
    ては、各計算機におけるトランザクション処理の開始・
    終了に応じて各計算機の処理中トランザクション現在数
    を常に把握し、前記推定伸長率を求めるに当たっては、
    前記測定に基づいた推定負荷状況と前記処理中トランザ
    クション現在数とに基づくことを特徴とする請求項2に
    記載の推定伸長率に基づくトランザクション負荷分散方
    法。
  4. 【請求項4】 端末からトランザクション処理要求が到
    着したときに、前記推定負荷状況に基づいてすべての計
    算機について前記処理時間の推定伸長率を求め、この推
    定伸長率をベースに各計算機の前記負荷指標の値を計算
    し、該到着した処理要求の実行に最適な計算機を該負荷
    指標の値から決定して処理させるようにすることを特徴
    とする請求項1、2または3に記載の推定伸長率に基づ
    くトランザクション負荷分散方法。
  5. 【請求項5】 前記一定時間ごとに測定する各計算機の
    負荷データとして、処理中トランザクション数およびC
    PU系に滞在する業務処理プロセス数を測定して使用す
    ることを特徴とする請求項2、3または4に記載の推定
    伸長率に基づくトランザクション負荷分散方法。
  6. 【請求項6】 前記一定時間ごとに測定する各計算機の
    負荷データとして、処理中トランザクション数およびC
    PU使用率を測定して使用することを特徴とする請求項
    2、3または4に記載の推定伸長率に基づくトランザク
    ション負荷分散方法。
  7. 【請求項7】 前記各計算機の負荷状況の推定に当たっ
    て、一定時間ごとに測定した前記各計算機の負荷データ
    の系列を総合的に用いて推定することを特徴とする請求
    項2、3、4、5または6に記載の推定伸長率に基づく
    トランザクション負荷分散方法。
  8. 【請求項8】 前記処理時間の推定伸長率を求めるにあ
    たり、既に得られている前記推定負荷状況のデータを、
    前記処理中トランザクション現在数を用いて補正して使
    用することを特徴とする請求項3、4、5、6または7
    に記載の推定伸長率に基づくトランザクション負荷分散
    方法。
  9. 【請求項9】 前記計算機の負荷指標として、該計算機
    へ新規にトランザクションを割当てる前あるいは割当て
    後における、総推定伸長率、すなわち、該計算機におけ
    る前記処理時間の推定伸長率に該計算機の処理中トラン
    ザクション数を乗じた値を用いることを特徴とする請求
    項1、2、3、4、5、6、7または8に記載の推定伸
    長率に基づくトランザクション負荷分散方法。
  10. 【請求項10】 前記計算機の負荷指標として、該計算
    機へ新規にトランザクションを割り当てた後における前
    記総推定伸長率と、割当て前における前記総推定伸長率
    との差を用いることを特徴とする請求項1、2、3、
    4、5、6、7または8に記載の推定伸長率に基づくト
    ランザクション負荷分散方法。
  11. 【請求項11】 トランザクション処理要求を発生する
    端末装置群と該要求の処理を負荷分担して実行する複数
    の計算機からなるシステムにおいて、 各計算機の負荷状況を推定する負荷データ測定手段と、 推定した該負荷状況を記憶する負荷データ記憶手段と、 該推定負荷状況に基づいてすべての計算機について処理
    時間の推定伸長率を求め、この推定伸長率をベースとし
    て各計算機の負荷指標の値を計算し、該負荷指標の値に
    基づいてトランザクション実行の各計算機への配分を決
    定する実行計算機選択手段と、 前記各計算機ごとにその上に存在し、複数のトランザク
    ション実行を並列に行い、前記実行計算機選択手段に指
    令されたトランザクションの実行を管理するトランザク
    ション処理手段とを備えたことを特徴とする推定伸長率
    に基づくトランザクション負荷分散方式。
  12. 【請求項12】 前記負荷データ測定手段は、一定時間
    ごとに各計算機の負荷データを測定してこれを元に各計
    算機の負荷状況を推定することを特徴とする請求項11
    に記載の推定伸長率に基づくトランザクション負荷分散
    方式。
  13. 【請求項13】 前記負荷データ測定手段は、各計算機
    におけるトランザクション処理の開始・終了に応じて各
    計算機の処理中トランザクション現在数を常に把握し、 前記実行計算機選択手段は、すべての計算機について前
    記処理時間の推定伸長率を求めるに際し、前記測定に基
    づいた推定負荷状況と前記処理中トランザクション現在
    数とに基づくことを特徴とする請求項12に記載の推定
    伸長率に基づくトランザクション負荷分散方式。
  14. 【請求項14】 前記実行計算機選択手段は、端末から
    前記トランザクション処理要求が到着したときに起動さ
    れ、該到着した処理要求の実行に最適な計算機を決定し
    て処理させるようにすることを特徴とする請求項11、
    12または13に記載の推定伸長率に基づくトランザク
    ション負荷分散方式。
  15. 【請求項15】 前記負荷データ測定手段は、前記一定
    時間ごとに測定する各計算機の負荷データとして、処理
    中トランザクション数およびCPU系に滞在する業務処
    理プロセス数を測定し、負荷状況の推定に使用すること
    を特徴とする請求項12、13または14に記載の推定
    伸長率に基づくトランザクション負荷分散方式。
  16. 【請求項16】 前記負荷データ測定手段は、前記一定
    時間ごとに測定する各計算機の負荷データとして、処理
    中トランザクション数およびCPU使用率を測定し、負
    荷状況の推定に使用することを特徴とする請求項12、
    13または14に記載の推定伸長率に基づくトランザク
    ション負荷分散方式。
  17. 【請求項17】 前記負荷データ測定手段は、前記各計
    算機の負荷状況の推定に当たって、一定時間ごとに測定
    した前記各計算機の負荷データの系列を総合的に用いて
    推定することを特徴とする請求項12、13、14、1
    5または16に記載の推定伸長率に基づくトランザクシ
    ョン負荷分散方式。
  18. 【請求項18】 前記実行計算機選択手段は、各計算機
    の前記処理時間の推定伸長率を求めるにあたり、既に得
    られている前記推定負荷状況のデータを前記処理中トラ
    ンザクション現在数を用いて補正して使用することを特
    徴とする請求項13、14、15、16または17に記
    載の推定伸長率に基づくトランザクション負荷分散方
    式。
  19. 【請求項19】 前記実行計算機選択手段は、各計算機
    の前記負荷指標として、該計算機へ新規にトランザクシ
    ョンを割当てる前あるいは割当て後における、総推定伸
    長率、すなわち、該計算機における処理時間の推定伸長
    率に該計算機の処理中トランザクション数を乗じた値、
    を用いることを特徴とする請求項11、12、13、1
    4、15、16、17または18に記載の推定伸長率に
    基づくトランザクション負荷分散方式。
  20. 【請求項20】 前記実行計算機選択手段は、各計算機
    の前記負荷指標として、該計算機へ新規にトランザクシ
    ョンを割り当てた後における前記総推定伸長率と、割当
    て前における前記総推定伸長率との差を用いることを特
    徴とする請求項11、12、13、14、15、16、
    17または18に記載の推定伸長率に基づくトランザク
    ション負荷分散方式。
  21. 【請求項21】 前記実行計算機選択手段と前記負荷デ
    ータ記憶手段とがそれぞれシステムに一つだけ存在して
    集中的にその機能を実行し、前記実行計算機選択手段は
    各計算機の前記負荷指標の値を直接的に反映してトラン
    ザクションの配分を行うことを特徴とする請求項11、
    12、13、14、15、16、17、18、19また
    は20に記載の推定伸長率に基づくトランザクション負
    荷分散方式。
  22. 【請求項22】 前記実行計算機選択手段が各計算機ご
    とに一つずつ分散して存在し、固定的、静的または準静
    的な分配方式によって計算機に配分されてきたトランザ
    クションについて、該計算機上の実行計算機選択手段
    が、すべての計算機の前記負荷指標の値に基づき、次の
    2つの決定すなわち、該計算機でそのまま処理するか他
    に回すかを閾値判断で決定、および他に回す場合はその
    送付先を決定、を行うことを特徴とする請求項11、1
    2、13、14、15、16、17、18、19または
    20に記載の推定伸長率に基づくトランザクション負荷
    分散方式。
  23. 【請求項23】 トランザクション処理要求を発生する
    端末装置群と、該要求の処理を負荷分担して実行する複
    数の計算機からなるシステムにおいて、各計算機の処理
    時間の伸長率を推定し、この推定伸長率をベースとした
    各計算機の負荷指標に基づいてトランザクション処理要
    求を各計算機へ配分することを特徴とする推定伸長率に
    基づくトランザクション負荷分散方法。
  24. 【請求項24】 トランザクション処理要求を発生する
    端末装置群および該要求の処理を負荷分担して実行する
    複数の計算機に接続され、前記端末装置群からのすべて
    の処理要求を集中的に受け取って前記計算機に配分する
    中継配分装置を構成するコンピュータに、 前記各計算機から一定時間ごとに通知される当該計算機
    のCPU系に滞在する業務処理プロセス数あるいはCP
    U使用率、および処理中トランザクション数を含む負荷
    データに基づき、各計算機の負荷状況を推定するステッ
    プ、 推定された負荷状況に基づいてすべての計算機について
    処理時間の推定伸長率を求めるステップ、 該推定伸長率をベースとして各計算機の負荷指標の値を
    計算するステップ、 該負荷指標の値に基づいてトランザクション実行の各計
    算機への配分を決定するステップ、を実行させるプログ
    ラムを記録したコンピュータ可読記録媒体。
  25. 【請求項25】 トランザクション処理要求を発生する
    端末装置群からの要求の処理を負荷分担して実行する複
    数の計算機のそれぞれに、 自計算機のCPU系に滞在する業務処理プロセス数ある
    いはCPU使用率、および処理中トランザクション数を
    含む負荷データを一定時間ごとに測定し、これを元に自
    計算機の負荷状況を推定して記憶すると共に他のすべて
    の計算機に通知するステップ、 処理要求の到着を契機に、すべての計算機についての前
    記推定負荷状況から各計算機の処理時間の推定伸長率、
    該推定伸長率をベースにした各計算機の負荷指標を求め
    るステップ、 該求めた各計算機の負荷指標の値に基づいて前記到着し
    た処理要求を自計算機で処理すべきか他計算機に依頼す
    べきかを判断し、他に送付する場合はその送り先を決定
    し、選択した実行先に送付依頼するステップ、を実行さ
    せるプログラムを記録したコンピュータ可読記録媒体。
  26. 【請求項26】 トランザクション処理要求を発生する
    端末装置群からの処理要求を一括して受け取って静的/
    準静的な方式により当該処理要求を配分する計算機を決
    定する中継仮配分装置に接続された前記それぞれの計算
    機に、 自計算機のCPU系に滞在する業務処理プロセス数ある
    いはCPU使用率、および処理中トランザクション数を
    含む負荷データを一定時間ごとに測定し、これを元に自
    計算機の負荷状況を推定して記憶すると共に他のすべて
    の計算機に通知するステップ、 処理要求の到着を契機に、すべての計算機についての前
    記推定負荷状況から各計算機の処理時間の推定伸長率、
    該推定伸長率をベースにした各計算機の負荷指標を求め
    るステップ、 該求めた各計算機の負荷指標の値に基づいて前記到着し
    た処理要求を自計算機で処理すべきか他計算機に依頼す
    べきかを判断し、他に送付する場合はその送り先を決定
    し、選択した実行先に送付依頼するステップ、を実行さ
    せるプログラムを記録したコンピュータ可読記録媒体。
JP28527199A 1999-10-06 1999-10-06 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体 Withdrawn JP2001109638A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28527199A JP2001109638A (ja) 1999-10-06 1999-10-06 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体
US09/680,517 US6986139B1 (en) 1999-10-06 2000-10-06 Load balancing method and system based on estimated elongation rates

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28527199A JP2001109638A (ja) 1999-10-06 1999-10-06 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004328417A Division JP3952058B2 (ja) 2004-11-12 2004-11-12 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体

Publications (1)

Publication Number Publication Date
JP2001109638A true JP2001109638A (ja) 2001-04-20

Family

ID=17689353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28527199A Withdrawn JP2001109638A (ja) 1999-10-06 1999-10-06 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体

Country Status (2)

Country Link
US (1) US6986139B1 (ja)
JP (1) JP2001109638A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256394A (ja) * 2002-03-05 2003-09-12 Nec Corp トランザクション処理の負荷分散方法およびそのシステム
US7062768B2 (en) 2001-03-21 2006-06-13 Nec Corporation Dynamic load-distributed computer system using estimated expansion ratios and load-distributing method therefor
WO2008038342A1 (en) * 2006-09-27 2008-04-03 Fujitsu Limited Connection control method, connection control program, and connection control device
JP2008097378A (ja) * 2006-10-12 2008-04-24 Nomura Research Institute Ltd ジョブ管理装置、ジョブ実行装置、及びそれら装置を含むジョブ管理システム
US7415453B2 (en) 2004-07-08 2008-08-19 International Business Machines Corporation System, method and program product for forecasting the demand on computer resources
US8560667B2 (en) 2004-10-28 2013-10-15 Fujitsu Limited Analysis method and apparatus
WO2014024612A1 (ja) * 2012-08-06 2014-02-13 日本電気株式会社 コンピュータネットワークシステム、コンピュータネットワークシステムでの負荷の移動要否の判定方法
JP2015106286A (ja) * 2013-11-29 2015-06-08 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2021002187A (ja) * 2019-06-21 2021-01-07 京セラドキュメントソリューションズ株式会社 データ転送装置及びデータ転送方法

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6938256B2 (en) 2000-01-18 2005-08-30 Galactic Computing Corporation System for balance distribution of requests across multiple servers using dynamic metrics
US6816905B1 (en) * 2000-11-10 2004-11-09 Galactic Computing Corporation Bvi/Bc Method and system for providing dynamic hosted service management across disparate accounts/sites
US8538843B2 (en) 2000-07-17 2013-09-17 Galactic Computing Corporation Bvi/Bc Method and system for operating an E-commerce service provider
GB0119145D0 (en) * 2001-08-06 2001-09-26 Nokia Corp Controlling processing networks
US7437450B1 (en) 2001-11-30 2008-10-14 Cisco Technology Inc. End-to-end performance tool and method for monitoring electronic-commerce transactions
JP2003186776A (ja) * 2001-12-13 2003-07-04 Hitachi Ltd 輻輳制御システム
US7127716B2 (en) * 2002-02-13 2006-10-24 Hewlett-Packard Development Company, L.P. Method of load balancing a distributed workflow management system
US8005978B1 (en) * 2002-03-01 2011-08-23 Cisco Technology, Inc. Method to optimize the load balancing of parallel coprocessors
JP4503934B2 (ja) * 2002-09-26 2010-07-14 株式会社東芝 サーバ計算機保護装置、サーバ計算機保護方法、サーバ計算機保護プログラム及びサーバ計算機
US7200657B2 (en) * 2002-10-01 2007-04-03 International Business Machines Corporation Autonomic provisioning of network-accessible service behaviors within a federated grid infrastructure
JP2004171234A (ja) * 2002-11-19 2004-06-17 Toshiba Corp マルチプロセッサシステムにおけるタスク割り付け方法、タスク割り付けプログラム及びマルチプロセッサシステム
US7334032B2 (en) * 2002-12-04 2008-02-19 International Business Machines Corporation System for allocating storage performance resource
US7783759B2 (en) * 2002-12-10 2010-08-24 International Business Machines Corporation Methods and apparatus for dynamic allocation of servers to a plurality of customers to maximize the revenue of a server farm
JP4119239B2 (ja) * 2002-12-20 2008-07-16 株式会社日立製作所 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム
US7296269B2 (en) * 2003-04-22 2007-11-13 Lucent Technologies Inc. Balancing loads among computing nodes where no task distributor servers all nodes and at least one node is served by two or more task distributors
US7139939B2 (en) * 2003-06-20 2006-11-21 International Business Machines Corporation System and method for testing servers and taking remedial action
US7668935B2 (en) * 2003-08-29 2010-02-23 Kabushiki Kaisha Toshiba Computer system and method for service load distributing
JP4002232B2 (ja) * 2003-12-01 2007-10-31 株式会社日立製作所 プログラム制御方法及び実施装置並びに実施システムと処理プログラム
US8145731B2 (en) * 2003-12-17 2012-03-27 Hewlett-Packard Development Company, L.P. System and method for determining how many servers of at least one server configuration to be included at a service provider's site for supporting an expected workload
US7617303B2 (en) * 2004-04-27 2009-11-10 At&T Intellectual Property Ii, L.P. Systems and method for optimizing access provisioning and capacity planning in IP networks
US8219702B2 (en) * 2004-04-30 2012-07-10 Canon Kabushiki Kaisha Video delivery apparatus and method
US8200805B2 (en) * 2004-06-28 2012-06-12 Neuse Douglas M System and method for performing capacity planning for enterprise applications
US20060020691A1 (en) * 2004-07-20 2006-01-26 Hewlett-Packard Development Company, L.P. Load balancing based on front-end utilization
US7908314B2 (en) * 2005-03-23 2011-03-15 Hitachi, Ltd. Method for controlling a management computer
US7743378B1 (en) 2005-05-13 2010-06-22 Oracle America, Inc. Method and apparatus for multi-dimensional priority determination for job scheduling
US8214836B1 (en) 2005-05-13 2012-07-03 Oracle America, Inc. Method and apparatus for job assignment and scheduling using advance reservation, backfilling, and preemption
US7844968B1 (en) * 2005-05-13 2010-11-30 Oracle America, Inc. System for predicting earliest completion time and using static priority having initial priority and static urgency for job scheduling
US7752622B1 (en) 2005-05-13 2010-07-06 Oracle America, Inc. Method and apparatus for flexible job pre-emption
US7984447B1 (en) 2005-05-13 2011-07-19 Oracle America, Inc. Method and apparatus for balancing project shares within job assignment and scheduling
JP2007041720A (ja) * 2005-08-01 2007-02-15 Fujitsu Ltd ジョブステップ実行プログラムおよびジョブステップ実行方法
US8799918B2 (en) * 2006-09-11 2014-08-05 Microsoft Corporation Dynamic network load balancing using roundtrip heuristic
WO2008084826A1 (ja) * 2007-01-11 2008-07-17 Nec Corporation プロビジョニングシステム、方法、及び、プログラム
US8214832B2 (en) * 2007-09-19 2012-07-03 International Business Machines Corporation Techniques for implementing separation of duties using prime numbers
US20090158276A1 (en) * 2007-12-12 2009-06-18 Eric Lawrence Barsness Dynamic distribution of nodes on a multi-node computer system
WO2009113172A1 (ja) * 2008-03-13 2009-09-17 富士通株式会社 ジョブ割当装置、ジョブ割当装置の制御プログラム及び制御方法
EP2209282A1 (en) * 2009-01-16 2010-07-21 Telefonaktiebolaget L M Ericsson (publ) A method, device and computer program product for service balancing in an electronic communications system
WO2010105259A1 (en) 2009-03-13 2010-09-16 Assa Abloy Ab Secure card access module for integrated circuit card applications
US8332498B2 (en) * 2009-03-13 2012-12-11 Assa Abloy Ab Synchronized relay messaging and coordinated network processing using SNMP
EP2406749B1 (en) * 2009-03-13 2018-06-13 Assa Abloy Ab Transfer device for sensitive material such as a cryptographic key
EP2228746A1 (en) * 2009-03-13 2010-09-15 Assa Abloy Ab Realization of access control conditions as boolean expressions in credential authentications
US20100235900A1 (en) * 2009-03-13 2010-09-16 Assa Abloy Ab Efficient two-factor authentication
US9032058B2 (en) * 2009-03-13 2015-05-12 Assa Abloy Ab Use of SNMP for management of small footprint devices
JP2010238051A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 負荷分散プログラム及び負荷分散装置
US9443216B2 (en) * 2009-06-19 2016-09-13 Verizon Patent And Licensing Inc. System and method for providing managed instant communication (or chat)-based helpdesk services
US8335765B2 (en) 2009-10-26 2012-12-18 Amazon Technologies, Inc. Provisioning and managing replicated data instances
JP5463885B2 (ja) * 2009-12-07 2014-04-09 富士通株式会社 バッチジョブ処理時間推定プログラム、方法及び装置
CN102087620B (zh) * 2009-12-07 2013-12-04 联想(北京)有限公司 在异构机群中运行应用程序、提升运算速度的方法及装置
JPWO2011111104A1 (ja) * 2010-03-10 2013-06-27 富士通株式会社 生体認証システムの負荷分散装置
WO2011110026A1 (zh) * 2010-10-29 2011-09-15 华为技术有限公司 一种实现数据中心资源负载均衡的方法及装置
GB2499547B (en) * 2010-11-22 2020-04-22 Ibm Load balancing in distributed database
US10652318B2 (en) * 2012-08-13 2020-05-12 Verisign, Inc. Systems and methods for load balancing using predictive routing
US9092270B2 (en) 2012-09-25 2015-07-28 Oracle International Corporation Method of SOA performance tuning
JP2014130387A (ja) * 2012-12-27 2014-07-10 Fujitsu Ltd ストレージコントローラ選択システム、ストレージコントローラ選択方法、およびストレージコントローラ選択プログラム
JP6248560B2 (ja) * 2013-11-13 2017-12-20 富士通株式会社 管理プログラム、管理方法、および管理装置
KR20160004152A (ko) * 2014-07-02 2016-01-12 삼성전자주식회사 멀티 프로세서의 태스크(task) 우선순위 결정 방법 및 이를 구현하는 전자장치
JP6447329B2 (ja) * 2015-04-09 2019-01-09 富士通株式会社 並列計算制御装置、並列計算システムおよびマイグレーション時間推定プログラム
WO2018000024A1 (en) * 2016-06-28 2018-01-04 Anditi Pty Ltd Method and system for flexible, high performance structured data processing
US10581745B2 (en) * 2017-12-11 2020-03-03 International Business Machines Corporation Dynamic throttling thresholds
US10990441B2 (en) * 2018-07-31 2021-04-27 Nutanix, Inc. Multi-level job processing queues
US11144226B2 (en) 2019-04-11 2021-10-12 Samsung Electronics Co., Ltd. Intelligent path selection and load balancing
US11216190B2 (en) 2019-06-10 2022-01-04 Samsung Electronics Co., Ltd. Systems and methods for I/O transmissions in queue pair-based NVMeoF initiator-target system
US11240294B2 (en) * 2019-08-23 2022-02-01 Samsung Electronics Co., Ltd. Systems and methods for spike detection and load balancing resource management

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302242A (ja) * 1994-04-30 1995-11-14 Mitsubishi Electric Corp 負荷分散方式
JPH1027168A (ja) * 1996-07-11 1998-01-27 Nec Corp メッセージ動的負荷分散方式
JPH10240697A (ja) * 1997-02-28 1998-09-11 Hitachi Ltd セッション使用率をもとにした負荷分散方式
JPH10312365A (ja) * 1997-05-13 1998-11-24 Nec Corp 負荷分散システム
JP2002278945A (ja) * 2001-03-21 2002-09-27 Nec Corp マルチプロセッサ構成の計算機間におけるトランザクション負荷分散方法及び方式並びにプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57757A (en) 1980-06-04 1982-01-05 Hitachi Ltd Job execution schedule system
JPH06243112A (ja) 1993-02-19 1994-09-02 Seiko Epson Corp マルチプロセッサ装置
FR2722591B1 (fr) * 1994-07-13 1996-08-30 Bull Sa Systeme informatique ouvert a serveurs multiples
US5774668A (en) * 1995-06-07 1998-06-30 Microsoft Corporation System for on-line service in which gateway computer uses service map which includes loading condition of servers broadcasted by application servers for load balancing
US5978844A (en) * 1995-09-08 1999-11-02 Hitachi, Ltd. Internetworking apparatus for load balancing plural networks
JP2940450B2 (ja) * 1995-10-26 1999-08-25 日本電気株式会社 クラスタ型コンピュータのジョブスケジュール方法及び装置
JPH09212467A (ja) 1996-01-30 1997-08-15 Fujitsu Ltd 負荷分散制御システム
JPH1011407A (ja) 1996-06-25 1998-01-16 Matsushita Electric Works Ltd マルチプロセッサの監視方法
US6006248A (en) * 1996-07-12 1999-12-21 Nec Corporation Job application distributing system among a plurality of computers, job application distributing method and recording media in which job application distributing program is recorded
JPH1115799A (ja) 1997-06-26 1999-01-22 Hitachi Ltd 並列処理システム
US6128642A (en) * 1997-07-22 2000-10-03 At&T Corporation Load balancing based on queue length, in a network of processor stations
JPH1139340A (ja) 1997-07-24 1999-02-12 N T T Data:Kk データベース検索システム、マルチプロセッサシステム及びデータベース検索方法
JP3537356B2 (ja) * 1998-12-09 2004-06-14 株式会社日立製作所 ジョブシステムにおける遅延要因解析方法
US6587938B1 (en) * 1999-09-28 2003-07-01 International Business Machines Corporation Method, system and program products for managing central processing unit resources of a computing environment
US6377975B1 (en) * 2000-03-01 2002-04-23 Interactive Intelligence, Inc. Methods and systems to distribute client software tasks among a number of servers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302242A (ja) * 1994-04-30 1995-11-14 Mitsubishi Electric Corp 負荷分散方式
JPH1027168A (ja) * 1996-07-11 1998-01-27 Nec Corp メッセージ動的負荷分散方式
JPH10240697A (ja) * 1997-02-28 1998-09-11 Hitachi Ltd セッション使用率をもとにした負荷分散方式
JPH10312365A (ja) * 1997-05-13 1998-11-24 Nec Corp 負荷分散システム
JP2002278945A (ja) * 2001-03-21 2002-09-27 Nec Corp マルチプロセッサ構成の計算機間におけるトランザクション負荷分散方法及び方式並びにプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7062768B2 (en) 2001-03-21 2006-06-13 Nec Corporation Dynamic load-distributed computer system using estimated expansion ratios and load-distributing method therefor
JP2003256394A (ja) * 2002-03-05 2003-09-12 Nec Corp トランザクション処理の負荷分散方法およびそのシステム
US7415453B2 (en) 2004-07-08 2008-08-19 International Business Machines Corporation System, method and program product for forecasting the demand on computer resources
US7882075B2 (en) 2004-07-08 2011-02-01 International Business Machines Corporation System, method and program product for forecasting the demand on computer resources
US8560667B2 (en) 2004-10-28 2013-10-15 Fujitsu Limited Analysis method and apparatus
WO2008038342A1 (en) * 2006-09-27 2008-04-03 Fujitsu Limited Connection control method, connection control program, and connection control device
JP2008097378A (ja) * 2006-10-12 2008-04-24 Nomura Research Institute Ltd ジョブ管理装置、ジョブ実行装置、及びそれら装置を含むジョブ管理システム
WO2014024612A1 (ja) * 2012-08-06 2014-02-13 日本電気株式会社 コンピュータネットワークシステム、コンピュータネットワークシステムでの負荷の移動要否の判定方法
US9712609B2 (en) 2012-08-06 2017-07-18 Nec Corporation Computer network system and method of determining necessity of transferring load in computer network system
JP2015106286A (ja) * 2013-11-29 2015-06-08 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2021002187A (ja) * 2019-06-21 2021-01-07 京セラドキュメントソリューションズ株式会社 データ転送装置及びデータ転送方法

Also Published As

Publication number Publication date
US6986139B1 (en) 2006-01-10

Similar Documents

Publication Publication Date Title
JP2001109638A (ja) 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体
JP3716753B2 (ja) マルチプロセッサ構成の計算機間におけるトランザクション負荷分散方法及び方式並びにプログラム
US11977784B2 (en) Dynamic resources allocation method and system for guaranteeing tail latency SLO of latency-sensitive application
JP2940450B2 (ja) クラスタ型コンピュータのジョブスケジュール方法及び装置
CN107239336B (zh) 一种实现任务调度的方法及装置
EP0822494B1 (en) Load balancing method and apparatus
US7823154B2 (en) System and method for providing, by a plurality of schedulers, differentiated service to consumers of distributed resources
CN100362806C (zh) 一种实现分布式系统中负载分担的方法
WO2001038972A1 (en) Load balancing method in a communication network
Shen et al. Probabilistic network-aware task placement for mapreduce scheduling
Wen et al. Load balancing job assignment for cluster-based cloud computing
Squillante et al. Threshold-based priority policies for parallel-server systems with affinity scheduling
Vashistha et al. Comparative study of load balancing algorithms
JP2020048150A (ja) リソース割当計算装置及びリソース割当計算方法
Saravanakumar et al. A novel load balancing algorithm for computational grid
JP2005148911A (ja) 負荷分散方法及び装置とシステム並びにプログラム
Chatterjee et al. A new clustered load balancing approach for distributed systems
JP3545931B2 (ja) 呼制御スケジューリング方法
Zheng et al. Dynamic load balancing and pricing in grid computing with communication delay
Lu et al. An efficient load balancing algorithm for heterogeneous grid systems considering desirability of grid sites
Sahoo et al. Deterministic dynamic network-based just-in-time delivery for distributed edge computing
Zikos et al. Communication cost effective scheduling policies of nonclairvoyant jobs with load balancing in a grid
JP3952058B2 (ja) 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体
JP4448205B2 (ja) 予約コールおよび即時要求コールのための資源共用法
CN116483538A (zh) 一种一致性低延迟的数据中心任务调度方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20041014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20041014

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050311

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20050316