JP2004348192A - Job分配制御方法 - Google Patents

Job分配制御方法 Download PDF

Info

Publication number
JP2004348192A
JP2004348192A JP2003141292A JP2003141292A JP2004348192A JP 2004348192 A JP2004348192 A JP 2004348192A JP 2003141292 A JP2003141292 A JP 2003141292A JP 2003141292 A JP2003141292 A JP 2003141292A JP 2004348192 A JP2004348192 A JP 2004348192A
Authority
JP
Japan
Prior art keywords
job
center
computer
servers
computer center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003141292A
Other languages
English (en)
Inventor
Yoshio Miki
良雄 三木
Kazuhiko Mizuno
和彦 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003141292A priority Critical patent/JP2004348192A/ja
Priority to US10/645,527 priority patent/US20040237088A1/en
Publication of JP2004348192A publication Critical patent/JP2004348192A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)
  • Multi Processors (AREA)

Abstract

【課題】グリッドのように、ネットワークで結合された複数の計算機センタにおいて、適切なJOBの負荷分散を実現する。
【解決手段】JOB要求の平均的な間隔とJOB実行時間の平均時間と要求されるレスポンスタイムから必要なサーバ数を決定する手段を設けることで、ネットワークの遅延がある環境でも、サーバ数が不足した際にネットワークで結合された遠方の計算機センタへ均等な負荷のJOBを投入する。
【効果】ネットワークの遅延が存在しても、遠方の計算機センタの負荷を観測しないために、正しい負荷分散が可能となる。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は計算機を運用する計算機センタで、複数の計算機にJOB実行を分配する方法に関し、特にグリッドやインターネットのような広域ネットワークで接続された複数の計算機センタ間での連携を前提としたJOB制御ソフトウェア技術に係わる。
【0002】
【従来の技術】
複数の計算機を所有する計算機センタでは、JOBを実行する際に各計算機の負荷がなるべく均等になるようにJOBを分配する。この分配は負荷分散技術と呼ばれ、インターネットに接続された計算機センタであるデータセンタ向けの負荷分散装置により実現される。負荷分散装置の技術は例えば非特許文献1に示されているように、実行要求のあったJOBを利用可能な計算機に均等に配分するラウンドロビン方式やIPハッシング方式が知られている。この方式はJOBがほぼ同じ処理時間で終了することが想定される場合には、負荷分散方法として有効である。しかし、どれだけの処理時間要求があるのか不明なJOBを取り扱う際には、各計算機の負荷を観測してJOBを分散する必要がある。特許文献1にそのような技術が開示されており、JOB実行中の計算機負荷を観測し、負荷の少ない計算機にJOBを投入する。計算機がグリッドやインターネット等のネットワークにより広域に分散し接続され存在している場合には、ラウンドロビンあるいはIPハッシングにより、負荷分散すると、利用する可能性のある全ての計算機が均等に利用される。また、負荷を観測する方法では、ネットワークを介して計算機の負荷を問い合わせ、その負荷情報に基づいてJOBの分配を制御する。
【特許文献1】
特開平5−265955号公報
【非特許文献1】
hppt://online.plathome.co.jp/products/clikarray/index.phtml
【0003】
【発明が解決しようとする課題】
上述のように、ラウンドロビンやIPハッシングでは使用する可能性のある計算機全てが、JOB分配の対象となる。ところが、ネットワークを介して複数の計算機センタが接続されている場合には、JOBの発生箇所に近い計算機センタと遠隔に位置する計算機センタの計算機とを使い分ける方が便利である。具体的には、JOB実行の発生した計算センタにおいて計算機の処理能力に余裕がある限りはその計算機センタにてJOBを実行し、余力が無い場合には遠隔のセンタにてJOBを実行することが望ましい。ところが、JOBを均等に分配する方法では、JOBの実行要求が発生した計算機センタに余力が存在しても、遠隔の計算機センタにJOBが分配されることが発生する。
【0004】
この問題を回避するために負荷を観測する方法を採用したとしても、この方法ではグリッドやネットワークを介して負荷を観測するために、ネットワークの遅延時間が負荷の観測時間に含まれてしまい、計算機負荷の誤認識が発生する。つまり、遠隔のセンタにJOBを投入する場合には、投入を決定してから実際にJOBが実行されるまでの時間と、計算機の負荷を観測して遠隔センタから報告するのにそれぞれネットワークの時間がかかり、JOBが実行される直前に負荷を観測してしまい、軽負荷であると誤認識することがあり得る。このように、従来技術ではグリッド等によってネットワークを介し広域に分散して計算機が配置されていることが配慮されていない。
【0005】
そこで、本発明の課題は、グリッドのようにネットワークで接続され広域に分散した計算機センタの計算機の負荷分散、JOB分配に関して、JOBの発生した計算機センタに余力のある場合にはそのセンタでJOBを実行し、遠隔の計算機センタを利用する場合においてもネットワークの遅延時間に影響されず、均等にJOBを分配する方法を与えることにある。
【0006】
【課題を解決するための手段】
上記の課題は次の手段により解決される。JOB実行の要求が発生する計算機センタをローカルセンタ、ネットワークにより接続された遠隔の計算機センタをリモートセンタとする。所望のJOBレスポンスタイムを事前に設定し、JOB投入時間の平均値、JOB実行時間の平均値を入力とし、先のレスポンスタイムを実現するために必要なサーバ数を決定する手段を有し、必要サーバ数がローカルセンタの基準値を越えたときに、リモートセンタへJOB実行することにより、計算機の負荷を実際に観測することに無しに適正なJOB分配を実現する。
【発明の実施の形態】
図1に本発明の1実施形態である計算機システムの動作フローを示す。また、図3にはその計算機システムの概略構成を示す。
【0007】
図3においてローカルセンタ300はJOB要求を発生する計算機センタであり、センタ内にはサーバ310aおよび310bを所有している。このサーバ310aまたは310bまたはその両方には後に詳述するようにJOB管理機構311がプログラムとして実装されており、本発明を実施するに必要なJOBリクエストキュー、JOBリザルトキュー、JOB要求観測、サーバ数決定などの機能を実現する。リモートセンタ301a、および301bはローカルセンタ300とネットワーク303を介して接続された計算機センタであり、ローカルセンタ300とリモートセンタ301a, 301bは物理的に広域に分散して配備されていることを前提とする。リモートセンタ301aにもローカルセンタ300と同様に、サーバ310c, 310dが設置されており、ここでもいずれかのサーバ上のプログラムとしてJOB管理機構312aが実現される。リモートセンタ301aでは、JOBリザルトキューの他にサーバ負荷の観測手段やJOBの課金管理の仕組みが実装される。リモートセンタ301bもリモートセンタ301aと同じくサーバ310e, 310fを有しており、同じくJOB管理機構312bを具備している。 JOB管理機構311、312aあるいは312bによって実現される本発明のJOB制御方法を図1に戻り説明する。処理手順全体は初期パラメータ設定100とJOB実行サービス110に大別され、初期パラメータ設定100ではローカルセンタとリモートセンタとの通常用いるサーバ台数、JOBの要求があってからJOBが終了する時間、すなわちJOBレスポンスタイム等の標準的な値を設定する処理である。より具体的には、JOB要求間隔の平均時間であるJOB標準間隔を設定し(101)、サーバ上でJOBが実行開始し、終了するまでの標準時間であるJOB実行標準時間を設定する(102)。また、前述のJOBレスポンスタイムをローカルセンタとリモートセンタからなる全システムの望ましい時間、つまり設計値として設定する(103)。以上の設定値から、後述するサーバ数計算方法によって、全システムで必要なサーバ数の標準値を決定する(104)。
【0008】
以上、初期パラメータ設定処理100によって、全システムの標準的な挙動に係る数値が決定され、次のJOB実行サービス110によってJOB要求が無くなるまでの、半永久的に継続する全システムの動作が定義される。まずローカルセンタにおいて、JOB実行の要求が発生すると(111)、最も最近要求のあった時刻との差を計算し、JOB間隔の平均時間を計算する(112)。図面には明記していないが、平均時間は次の二つの方法によって計算可能である。一つはJOB要求を観測する時間間隔を別途設定し、その間に発生したJOB要求の平均時間を計算するものである。この方法では、JOB要求間隔に変化があった場合にその変化を迅速に摘出することが可能である。別法としては、JOB要求間隔時間の総和を求め、JOB要求数で割ることにより平均値を求めることができる。この方法は、容易に実現可能である反面、JOB要求間隔に変化があっても検出しにくい欠点がある。
【0009】
JOB要求の間隔時間の平均値が計算できた時点で、先に述べた初期パラメータ設定100の結果と合わせ、システム全体として設定されたJOBレスポンスタイムとサーバ上でJOBが実行される平均時間が揃うことになる。そこで、後述する理論式により、設定されたJOBレスポンスタイムを実現するのに必要なサーバ数を計算する(113)。この必要サーバ数がローカルセンタに対して予め定めた基準値より大きい場合にのみ(114)、リモートセンタのサーバにJOBを投入する(117)。リモートセンタでは、投入されたJOBを実行し(118)、JOBの結果をローカルセンタへ返送する(119)。
【0010】
必要サーバ数の判定(114)における基準値としては、ローカルセンタで利用可能なサーバ数を用いるのが基本である。この他にも、サーバ上で多重実行可能なJOBの数を設定し、多重実行JOB数とサーバ数との積を基準値とする方法等が可能である。なお、必要サーバ数がローカルセンタの基準値に収まる場合(114)はローカルセンタのサーバにJOBが投入され(115)、JOBが実行される(116)。つまり、ローカルセンタとリモートセンタとから成る全システムに関して、所望のJOBレスポンスタイムを実現するために、ローカルセンタのサーバで充分な限り、ローカルセンタにおいてJOBを実行するのが本発明の本質的な部分である。この基本的処理は外部からセンタの運用に関して停止要求があるまで継続される(120)。
【0011】
以上が本発明の骨子であるが、図2を用いてリモートセンタのJOB実行に関わる別の実施形態を述べる。図2のJOB実行サービス210においては、リモートセンタのサーバにJOBが投入された後に、利用者の認証処理(212)を実施する。具体的には、リモートセンタのサーバにJOBを投入する際に、ローカルセンタでJOBを要求したユーザのID情報をJOBと同時にリモートセンタに伝送する。ユーザのIDは例えばUNIX(登録商標)オペレーティングシステムのパスワードファイルにて管理されるIDを用いることが可能である。また、本発明のように、計算センタ同士が自動的にJOBをやり取りする場合においては、リモートセンタにおいて、ローカルセンタのユーザ全てを管理することは煩雑であることが懸念される。この場合には、利用認証212においてユーザIDの代わりにグループIDを代用することが可能である。グループIDも先に述べたUNIX(登録商標)オペレーティングシステムのグループIDを使うことが可能である。このように、認証過程を設けることで、ユーザ、またはグループいった利用者単位にリモートセンタ利用に関する課金を行うことが出来る(214)。この図2に示した発明の実施形態では、上記に説明したリモートセンタへのJOB投入211、利用認証212、課金処理214以外は図1に示した実施形態の各処理と同様の動作となる。したがって、図2に示した実施形態では、JOBを実行しようとした場合に、ローカルセンタ内のサーバだけで所望のレスポンスタイムでJOBが終了出来ない場合には費用が発生する。
【0012】
次にもう一つの実施形態について図4のシステム構成図並びに図5のフローチャートを用いて説明する。図3ではJOB要求を発生するローカルセンタ300が図1または図2に示した方法によって、サーバ数を決定し、リモートセンタ301aまたは301bにJOBを投入する。図4では、JOB要求を発生するローカルセンタ400に対して、JOBを投入された第1のリモートセンタ401がローカルセンタ400と同様な方法で必要サーバ数を計算し、第2のリモートセンタ402へJOBを投入するシステム構成を示している。この場合、第1のリモートセンタ401のJOB管理機構にはローカルセンタ400のJOB管理機構410同様の仕組みが必要となる。具体的な第1リモートセンタにおけるJOB制御方法を図5に示す。初期パラメータ設定510はローカルセンタ400と全く同一の処理内容となる。ここでのJOB標準間隔、JOB実行標準時間、JOBレスポンスタイムはローカルセンタ400の各設定値と同一であることが望ましいが、異なる値であっても発明の本質は変化しない。JOB実行サービス520では、ローカルセンタで実施されるJOB制御と同様の処理が第1リモートセンタ401として実行される。すなわち、ローカルセンタからJOBが投入される(521)と、そのJOB投入間隔の平均値を計算し(522)、初期パラメータ設定510で決定したJOB投入の標準時間間隔とサーバ上で実行される平均実行時間、および所望のJOBレスポンスタイムから必要サーバ数を算出し、必要サーバ数が第1のリモートセンタの基準値を越えた場合にに(524)、第2のリモートセンタのサーバへJOBを投入する。もし、必要サーバ数が第1のリモートセンタの基準値を下回る場合には第1のリモートセンタのサーバにJOBを投入し(530)、JOBを実行する(531)。このように複数のリモートセンタが関与する場合には、課金管理は必須であり、第2リモートセンタでは第1リモートセンタから伝送されたユーザ情報に基づき利用者認証526を実施し、JOB実行527後に課金処理528を行い、実行結果を第1リモートセンタへ返送する(529)。
【0013】
次に図6を用いて図1や図3におけるJOB管理機構とサーバとの関係を詳細に説明する。サーバ310aはローカルセンタに設置されたサーバであり、サーバ310cはリモートセンタに設置されたサーバである。それぞれのサーバには、プログラムを実行するcCPU610a,610bとメモリ611a,611bおよびネットワークインターフェース619a,619bが具備されている。メモリ611a,611bはプログラム領域とデータ領域とに分割されており、図1に示したJOB管理機構はプログラム領域のクライアントJOB管理プログラム612(ローカルセンタ用)、サーバJOB管理プログラム613(リモートセンタ用)として格納されている。図1のローカルセンタのサーバにJOBを投入する場合(115)、リモートセンタのサーバにJOBを投入する場合(117)のいずれの場合においても、サーバ上で動作中のJOBの数は動作JOB数616a,616bとして管理されており、動作JOB数が非零の場合またはある基準値を越えている場合には、JOBを即時実行できないとみなし、JOBをJOBリクエストキュー614にJOBを積み、後述するようなJOBをキューから解放する条件が整うまでJOBの実行を待つ。また、図1JOB間隔時間平均値計算112では、過去に発生したJOB要求の時刻と、JOB要求間隔の総和を記憶しておく必要があり、そのためにデータ領域には最新JOB到着時刻618の領域が確保される。実行が終了したJOBはまずリモートセンタのJOBリザルトキュー615bに積まれ、ローカルセンタが結果を受け取れる状態になるとすぐにに転送される。図2の利用認証212ではリモートセンタを利用可能なユーザまたはグループの認証が必要であり、そのパスワードなどの認証に必要な情報がユーザリスト617として格納される。
【0014】
上記したJOBリクエストのキューも含めたJOB制御方法の詳細フローを図7に示す。ここで、JOB実行サービス710においてリモートセンタのサーバにJOBが投入された場合(711)、実行中のJOBの数を動作JOB数616bから取得し、この値がリモートセンタにおけるサーバ数を越えているか否かを判定する(712)。越えている場合には、即時実行不可能であるので、JOBをJOBリクエストキュー614に積む(711a)。ローカルセンタのサーバにJOBが投入される場合(709)も、リモートセンタの場合と同様に、実行中のJOBの数を動作JOB数616aから取得し、この値がローカルセンタにおけるサーバ数を越えているかを判定し(713)、こえる場合にはJOBをJOBリクエストキュー614に積む(711b)。
【0015】
JOBリクエストキュー614からJOBを取りだし、実行する時の動作を図8に示す。図7でJOBキューイングとして示した処理では、常にJOBリクエストキューが空でないか否かをチェックし(800)、空でないときには、JOBが終了したサーバがある場合を検出し(801)、終了したJOBがある場合にはキューからJOBを取り出してサーバで実行する(802)。この処理はキューが空でない限り繰り返される。
【0016】
ここまでの説明が本発明における基本的なJOB制御方法であり、次に図1に代表されるサーバ数113の処理方法を理論的背景および前提条件を含めて説明する。まず、JOBの要求はランダムに発生すると考える。これは、待ち行列理論で述べるランダム到着を意味する。また、JOBがサーバ上で実行される際の時間もランダムに変化すると考える。また、JOBがキューの中に存在する時間とサーバで実行されている時間の和をレスポンスタイムと定義する。さらに、サーバを待ち行列理論の処理窓口と考え、サーバ数つまり窓口の数をsと定義する。以上のモデル化したイメージを図9に示す。ここでさらに、JOBの要求間隔の平均時間を1/λ、サーバで実行される実行されるJOBの平均処理時間を1/μとし、キューの長さnである確立をpとすると、s個の窓口を持つ待ち行列理論から次式が成立する。
【0017】
【数1】
Figure 2004348192
【0018】
ここで、JOB要求と処理時間の比として a=λ/μ、および系の安定性の指標としてρ=a/s を定義すると、(数1)の式(a)と式(b)から次式が導かれる。
【0019】
【数2】
Figure 2004348192
【0020】
一方、n≧sのときには、(数1)の式(c)をpの隣接項について再整理した次式が成り立つ。
【0021】
【数3】
Figure 2004348192
【0022】
さらに、n=s の境界条件から(数4)が成立しているため、(数5)が得られる。
【0023】
【数4】
Figure 2004348192
【0024】
【数5】
Figure 2004348192
【0025】
なお、pについてはΣp=1から下記のようになる。
【0026】
【数6】
Figure 2004348192
【0027】
以上からpの完全解が得られ、これによりモデル化したローカルセンタとリモートセンタに関して、下記の諸指標を得ることができる。
JOBリクエストキューの長さL
【0028】
【数7】
Figure 2004348192
【0029】
JOBリクエストキュー内での待ち時間W
【0030】
【数8】
Figure 2004348192
【0031】
JOBのレスポンスタイムW:
【0032】
【数9】
Figure 2004348192
【0033】
ここまでの式の導出により、全システムの平衡状態においてJOBのレスポンスタイムがJOBの要求時間間隔1/λの関数として表現できたことになる。そこで、JOBの要求状況が変化しても一定のレスポンスタイムを保持するために必要な窓口数(サーバ数)をもとめることができる。
【0034】
【数10】
Figure 2004348192
【0035】
この方程式は(p)’=0を仮定することによりsに関して解くことができる。したがって、入力JOBの頻度変化に対してレスポンスタイムを不変とする為に必要なサーバ数sは次式によって与えられる。
【0036】
【数11】
Figure 2004348192
【0037】
以上によって、図1の初期パラメータ設定100によって設定されたJOBレスポンスタイムを不変とするために必要なサーバ数を平均的なJOB要求間隔とJOBの実行時間とから求めることができる。
【0038】
最後に本発明を用いたビジネスの実施形態を図10を用いて述べる。図中中央の2本の縦線はローカルセンタとリモートセンタにおける処理の時系列を表している。ローカルセンタでは、図2に示したように、標準的なレスポンスタイムを設定し(1000)、標準的なJOB要求時間間隔を設定し(1001)、標準的なJOB実行時間を設定する(1002)ことで、ローカルセンタの標準的な値が設定される(1003)。その後、JOB要求の受付が開始してJOB要求がある毎に必要なサーバ数の決定がなされる(1005)。次にサーバ数がローカルセンタサーバの基準値を越えた場合(1006)にリモートセンタのサーバを利用する(1007)。ここで、リモートセンタではユーザ毎あるいはローカルセンタ毎にリモートサーバの利用時間の合計を計算し(1008)し、その総計に対して利用料金の請求を行う(1010)。これにより、ローカルセンタは利用料金を支払い(1009)、リモートセンタは利益を得る(1011)。これにより、ローカルセンタに備えられた計算機資源の能力を越えたJOBをリモートセンタの支援によって実行可能とすることができ、それにより、リモートセンタはビジネスを行うことが可能である。
【0039】
図11はビジネスの別の実施形態を示したものである。図において、リモートセンタはローカルセンタ、リモートセンタ双方の利用時間総計を計算し(1101)、その比率を明らかにする。このとき、リモートセンタの利用比率が予め定められた基準値よりも高い時に(1102)、リモートセンタはローカルセンタにサーバを販売する(1103)。これにより、ローカルセンタはサーバ料金として金銭をリモートセンタに支払い(1104)、リモートセンタは利益を得る(1105)ことができる。
【0040】
【発明の効果】
本発明によれば、リモートセンタの負荷情報を観測せずにJOBの割り当て、分配を決定するために、ローカルセンタのJOB処理能力を越えた場合にのみリモートセンタを利用することが可能であり、ネットワークに遅延時間が存在しても、負荷を観測せずにJOBの分配を行うために、負荷の誤認識を回避したJOB分配が可能である。
【図面の簡単な説明】
【図1】本発明の1実施形態の動作を示すフローチャートである。
【図2】JOB実行に課金処理が伴う別の実施形態の動作を示すフローチャートである。
【図3】図1の実施形態のシステム構成を示すブロック図である。
【図4】更に別の実施形態のシステム構成を示すブロック図である。
【図5】図4の実施形態の動作を示すフローチャートである。
【図6】図1の実施形態もしくは図2の実施形態のサーバ内の詳細な構成を示すブロック図である。
【図7】JOBキューイングの動作をも含めた実施形態の詳細動作を示すフローチャートである。
【図8】キューの制御方法を示すフローチャートである。
【図9】本発明の原理を示すための待ち行列モデルである。
【図10】本発明によるビジネス形態を示すタイムシーケンス図である。
【図11】本発明によるビジネス形態の変形例を示すタイムシーケンス図である。
【符号の説明】
100:パラメータ設定段階
110:JOB実行サービス段階
300:ローカルセンタ
301a,301b:リモートセンタ
303:ネットワーク
310a〜310f:サーバ
311,312a,312b:JOB管理機構。

Claims (5)

  1. 複数のサーバをそれぞれ備えた複数の計算センタがネットワークを介して接続された計算機システムにおいて、第1の計算センタでのJOB要求の発生に対し該第1の計算センタから第2の計算センタへの当該JOBの投入を判断するJOB分配制御方法であって、
    前記第1の計算センタと前記第2の計算センタとを含むシステムでの所望するJOBレスポンスタイムを予め設定すること、
    前記第1の計算センタでの平均的なJOB要求間隔と各サーバでのJOB平均処理時間を入力として前記所望するJOBレスポンスタイムの達成に必要なサーバ数を算出し、前記第1のサーバについてのサーバ数の基準値と比較すること、
    必要なサーバ数が前記サーバ数の基準値を越えたときに、前記第2の計算機センタへJOBを投入することを特徴とするJOB分配制御方法。
  2. ネットワークによって複数の計算機センタが接続された計算機システムのJOB分配制御方法であって、
    第1の計算機センタから第2の計算機センタにJOBを投入する際に、
    平均的なJOBの要求間隔と、平均的なJOBの実行時間と、所望するJOBのレスポンスタイムとから、実行に必要なサーバ数を算出する手段を設け、
    必要なサーバ数が第1の計算機センタにおいて予め定められた基準値を越えたときに、第2の計算機センタへJOBを投入し、
    第2の計算機センタは利用者の認証を行い、投入されたJOBの実行時間に対して課金することを特徴とするJOB制御方法。
  3. ネットワークによって複数の計算機センタが接続された計算機システムにおいて、
    第1の計算機センタから第2の計算機センタにJOBを投入する際に、
    平均的なJOBの要求間隔と、平均的なJOBの実行時間と、所望するJOBのレスポンスタイムとから、実行に必要なサーバ数を算出する手段を設け、
    必要なサーバ数が第1の計算機センタにおいて予め定められた基準値を越えたときに、第2の計算機センタへJOBを投入し、
    第2の計算機センタは第1のセンタから投入されるJOBの平均的な投入間隔と、平均的なJOBの実行時間と、所望するJOBのレスポンスタイムとから、実行に必要なサーバ数を算出する手段を持ち、
    必要なサーバ数が第2の計算機センタにおいて予め定められた基準値を越えたときに、第3の計算機センタへJOBを投入することを特徴とするJOB制御方法。
  4. グリッド等のようにネットワークによって複数の計算機センタが接続された計算機システムにおいて、
    第1の計算機センタから第2の計算機センタにJOBを投入する際に、
    平均的なJOBの要求間隔と、平均的なJOBの実行時間と、所望するJOBのレスポンスタイムとから、実行に必要なサーバ数を算出する手段を設け、
    必要なサーバ数が第1の計算機センタにおいて予め定められた基準値を越えたときに、第2の計算機センタへJOBを投入し、
    第2の計算機センタは第1の計算機センタから投入されたJOBに対して利用料金の算出をする手段を設け、第2の計算機センタを利用した分の料金を第1の計算機センタへ請求することを特徴とする、計算機センタの課金方法。
  5. グリッド等のようにネットワークによって複数の計算機センタが接続された計算機システムにおいて、
    第1の計算機センタから第2の計算機センタにJOBを投入する際に、
    平均的なJOBの要求間隔と、平均的なJOBの実行時間と、所望するJOBのレスポンスタイムとから、実行に必要なサーバ数を算出する手段を設け、
    必要なサーバ数が第1の計算機センタにおいて予め定められた基準値を越えたときに、第2の計算機センタへJOBを投入し、
    第2の計算機センタは第1の計算機センタと第2の計算機センタの利用比率を計算する手段を設け、第2の計算機センタの利用比率が予め設定された基準値を超えた場合に、計算機を第1の計算機センタへ販売することを特徴とする計算機販売方法。
JP2003141292A 2003-05-20 2003-05-20 Job分配制御方法 Pending JP2004348192A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003141292A JP2004348192A (ja) 2003-05-20 2003-05-20 Job分配制御方法
US10/645,527 US20040237088A1 (en) 2003-05-20 2003-08-22 Job distributing method in a distributed computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003141292A JP2004348192A (ja) 2003-05-20 2003-05-20 Job分配制御方法

Publications (1)

Publication Number Publication Date
JP2004348192A true JP2004348192A (ja) 2004-12-09

Family

ID=33447437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003141292A Pending JP2004348192A (ja) 2003-05-20 2003-05-20 Job分配制御方法

Country Status (2)

Country Link
US (1) US20040237088A1 (ja)
JP (1) JP2004348192A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011034017A1 (ja) * 2009-09-18 2011-03-24 日本電気株式会社 データセンタシステム、再構成可能ノード、再構成可能ノード制御方法、再構成可能ノード制御プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1524615A1 (de) * 2003-10-15 2005-04-20 Siemens Aktiengesellschaft Auftragssteuerungssystem und Verfahren zur Steuerung einer Auftragsbearbeitung
US7853953B2 (en) * 2005-05-27 2010-12-14 International Business Machines Corporation Methods and apparatus for selective workload off-loading across multiple data centers
JP4921054B2 (ja) * 2006-07-07 2012-04-18 株式会社日立製作所 負荷分散制御システム及び負荷分散制御方法
US8028048B2 (en) * 2007-02-27 2011-09-27 International Business Machines Corporation Method and apparatus for policy-based provisioning in a virtualized service delivery environment
US8904003B2 (en) * 2008-06-30 2014-12-02 Oracle America, Inc. Method and system for delegated job control across a network
US8671412B2 (en) * 2008-10-24 2014-03-11 International Business Machines Corporation Calculating and communicating level of carbon offsetting required to compensate for performing a computing task
US9405579B2 (en) * 2012-10-11 2016-08-02 International Business Machines Corporation Seamless extension of local computing power
US10078520B1 (en) * 2017-03-16 2018-09-18 Flexera Software Llc Calculating wait time for batch scheduler jobs
CN110096364B (zh) * 2019-04-30 2023-07-07 广州番禺职业技术学院 一种云服务器计算集合控制方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61114363A (ja) * 1984-11-07 1986-06-02 Hitachi Ltd 計算機システム間ジヨブ転送方式
JPH07160650A (ja) * 1993-12-02 1995-06-23 Matsushita Electric Ind Co Ltd タスクの実行制御装置
JPH08278948A (ja) * 1995-04-07 1996-10-22 Hitachi Ltd 分散処理システム
JPH1011406A (ja) * 1996-06-25 1998-01-16 Hitachi Ltd 資源の分散環境におけるジョブ実行方法
JP2001282737A (ja) * 2000-03-28 2001-10-12 Mitsubishi Electric Corp 業務負荷分散システム
JP2002259243A (ja) * 2001-03-01 2002-09-13 Nec Corp フロントエンドを用いた動的なサービスの提供方法及びその方法
JP2002323986A (ja) * 2001-04-25 2002-11-08 Hitachi Ltd コンピュータリソース流通システム及び方法
JP2003124976A (ja) * 2001-10-10 2003-04-25 Hitachi Ltd 計算機資源割当方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481698A (en) * 1988-09-28 1996-01-02 Hitachi Ltd. Computer system and job executing method
US5675739A (en) * 1995-02-03 1997-10-07 International Business Machines Corporation Apparatus and method for managing a distributed data processing system workload according to a plurality of distinct processing goal types
US6922724B1 (en) * 2000-05-08 2005-07-26 Citrix Systems, Inc. Method and apparatus for managing server load
US7143411B2 (en) * 2002-03-15 2006-11-28 Hewlett-Packard Development Company, L.P. Capping processor utilization
US20050193113A1 (en) * 2003-04-14 2005-09-01 Fujitsu Limited Server allocation control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61114363A (ja) * 1984-11-07 1986-06-02 Hitachi Ltd 計算機システム間ジヨブ転送方式
JPH07160650A (ja) * 1993-12-02 1995-06-23 Matsushita Electric Ind Co Ltd タスクの実行制御装置
JPH08278948A (ja) * 1995-04-07 1996-10-22 Hitachi Ltd 分散処理システム
JPH1011406A (ja) * 1996-06-25 1998-01-16 Hitachi Ltd 資源の分散環境におけるジョブ実行方法
JP2001282737A (ja) * 2000-03-28 2001-10-12 Mitsubishi Electric Corp 業務負荷分散システム
JP2002259243A (ja) * 2001-03-01 2002-09-13 Nec Corp フロントエンドを用いた動的なサービスの提供方法及びその方法
JP2002323986A (ja) * 2001-04-25 2002-11-08 Hitachi Ltd コンピュータリソース流通システム及び方法
JP2003124976A (ja) * 2001-10-10 2003-04-25 Hitachi Ltd 計算機資源割当方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A.N.ハーバーマン著、土居範久訳, オペレーティングシステムの基礎, vol. 初版, JPN4007015154, 15 October 1978 (1978-10-15), JP, pages 163 - 172, ISSN: 0000879104 *
福永勇二: "1ランク上を目指す NTシステム運用管理 最終回", ASCII NETWORK PRO, vol. 第5巻,第11号, CSND200300181006, 1 November 2000 (2000-11-01), JP, pages 92 - 95, ISSN: 0000879105 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011034017A1 (ja) * 2009-09-18 2011-03-24 日本電気株式会社 データセンタシステム、再構成可能ノード、再構成可能ノード制御方法、再構成可能ノード制御プログラム
JP5533877B2 (ja) * 2009-09-18 2014-06-25 日本電気株式会社 データセンタシステム、再構成可能ノード、再構成可能ノード制御方法、再構成可能ノード制御プログラム

Also Published As

Publication number Publication date
US20040237088A1 (en) 2004-11-25

Similar Documents

Publication Publication Date Title
US10783267B2 (en) Centralized throttling service
CN108494703B (zh) 一种访问频率控制方法、装置及存储介质
EP3525096B1 (en) Resource load balancing control method and cluster scheduler
US8719297B2 (en) System for managing data collection processes
CN105224392B (zh) 一种虚拟计算资源配额管理方法及平台
JP2021526751A (ja) 自己監視ブロックチェーンのための安全な合意に基づくエンドースメント
CN108205442A (zh) 边缘计算平台
JP5664098B2 (ja) 複合イベント分散装置、複合イベント分散方法および複合イベント分散プログラム
US10013271B2 (en) Management system and method for controlling management system
US7634560B2 (en) Method for measuring server performance, system for measuring server performance and computer programs therefor
US8966086B2 (en) License redistributing method, moderator and license controlling system thereof
US20160142336A1 (en) Periodic advertisements of host capabilities in virtual cloud computing infrastructure
JP2011242991A (ja) クラウドコンピューティングシステム、文書処理方法、及びコンピュータプログラム
US11928344B1 (en) System and method for managing buffers in a computer system
JP2004348192A (ja) Job分配制御方法
CN103248696A (zh) 一种云计算环境下的虚拟资源动态配置方法
US11068317B2 (en) Information processing system and resource allocation method
CN111314747B (zh) 一种资源停播控制方法、装置、设备及存储介质
JP5531278B2 (ja) サーバ構成管理システム
CN114048033A (zh) 跑批任务的负载均衡方法、装置及计算机设备
CN110750350B (zh) 一种大资源调度方法、系统、装置及可读存储介质
CN102200928A (zh) 计算资源控制设备和计算资源控制方法
JP6335527B2 (ja) システム、システムの制御方法およびコンピュータプログラム
CN107491448A (zh) 一种HBase资源调整方法和装置
KR102542052B1 (ko) 커널 레벨에서의 로그 카운트 처리장치와 처리시스템 및 이를 이용한 로그 카운트 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071023