JPH10198643A - Distributed computer system - Google Patents

Distributed computer system

Info

Publication number
JPH10198643A
JPH10198643A JP206197A JP206197A JPH10198643A JP H10198643 A JPH10198643 A JP H10198643A JP 206197 A JP206197 A JP 206197A JP 206197 A JP206197 A JP 206197A JP H10198643 A JPH10198643 A JP H10198643A
Authority
JP
Japan
Prior art keywords
job
resource
node
consumption
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP206197A
Other languages
Japanese (ja)
Inventor
Hiroaki Kato
裕昭 加藤
Satoshi Nakada
智 仲田
Norio Tanaka
紀夫 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Control Systems Inc
Original Assignee
Hitachi Ltd
Hitachi Information and Control Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Information and Control Systems Inc filed Critical Hitachi Ltd
Priority to JP206197A priority Critical patent/JPH10198643A/en
Publication of JPH10198643A publication Critical patent/JPH10198643A/en
Pending legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distributed computer system capable of preventing the operation of a node from being stopped. SOLUTION: Resources to be consumed by respective jobs are previously defined in a consumption-predicted job resource definition table 12. At the time of executing jobs, the jobs are distributed so that a resource to be consumed in the future which is required for a job execution node 2 for executing the jobs does not exceed a resource included in the node 2 based on a consumption- predicted resource and consumption-predicted resource information stored in the table 12 to prevent the stop of operation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の計算機ノー
ドで構成された分散計算機システムに関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distributed computer system including a plurality of computer nodes.

【0002】[0002]

【従来の技術】近年の計算機システムは、処理を高速化
する要求、処理データ量の増大、及び計算機間を接続す
るネットワークの発展により、複数の計算機をネットワ
ークで接続した分散計算機システムを構成するケースが
多くなってきている。分散計算機システム上でジョブを
実行する場合、計算機資源(1群の仕事を計算機システ
ムで実行するために必要なハードウェア及びソフトウェ
ア)を有効に活用するためには、個々の計算機の資源消
費状態を管理しながら各計算機に最適にジョブを配分す
る必要がある。
2. Description of the Related Art In recent years, a computer system has a case in which a distributed computer system in which a plurality of computers are connected via a network is configured due to a demand for high-speed processing, an increase in the amount of processing data, and the development of a network connecting the computers. Are increasing. When a job is executed on a distributed computer system, in order to effectively utilize computer resources (hardware and software necessary for executing a group of work in the computer system), the resource consumption state of each computer must be determined. It is necessary to allocate jobs optimally to each computer while managing them.

【0003】従来、分散計算機システムにおけるジョブ
配分は、ジョブの新規起動時に、(i)各計算機のジョ
ブ配分時点における資源消費状態、及び(ii) 予め定め
られたポリシーに基づいてジョブの配分を決定してい
た。
Conventionally, the job distribution in a distributed computer system is determined at the time of starting a new job, based on (i) the resource consumption state at the time of the job distribution of each computer, and (ii) the job distribution based on a predetermined policy. Was.

【0004】[0004]

【発明が解決しようとする課題】しかし、従来の分散計
算機システムにおけるジョブ配分は、ジョブの制御を行
うために管理する各計算機上の資源情報が、刻々変化す
る計算機上の資源のある時間断面におけるデータに基づ
いている。このため、ジョブの起動時には計算機の空き
資源がジョブを実行するに十分と判断されているにもか
かわらず、時間の経過に伴い計算機上で実行されている
複数のジョブによって資源が消費され、計算機を資源の
不足により停止させてしまう可能性がある。
However, the job distribution in the conventional distributed computer system is based on the fact that the resource information on each computer managed for controlling the job is such that the resource information on the computer, which changes every moment, in a certain time section. Based on data. For this reason, even when it is determined that the available resources of the computer are sufficient to execute the job at the time of starting the job, the resources are consumed by a plurality of jobs executed on the computer over time, and the computer is not used. May be stopped due to lack of resources.

【0005】なお、計算機の資源が予め設定したしきい
値を超えて消費された場合、アラーム等によりオペレー
タに通知し、オペレータがジョブのキャンセル等の措置
を行うことにより、計算機の停止を未然に防ぐことは可
能である。しかし、実行を中止したジョブを他の計算機
で再起動する必要があること、及び計算機が終日運転す
る場合、オペレータが常時監視しなければならないとい
う不便さがある。これは、ジョブ配分の判断が、計算機
資源のジョブ起動時点における情報のみによって行われ
ていることに理由があり、これを解決するためには、計
算機上で実行されているすべてのジョブがそのライフタ
イム(ジョブの起動から停止までの時間)にわたって消
費する資源を管理する必要がある。
When the resources of the computer are consumed beyond a preset threshold, the operator is notified by an alarm or the like, and the operator stops the computer by taking measures such as canceling the job. It is possible to prevent. However, there is inconvenience that the job whose execution has been stopped needs to be restarted by another computer, and when the computer runs all day, the operator must constantly monitor the job. This is because the job allocation is determined only by the information of the computer resources at the time of starting the job. To solve this, all the jobs running on the computer must It is necessary to manage resources consumed over time (time from start to stop of a job).

【0006】本発明の目的は、ノードの稼働停止を防止
することのできる分散計算機システムを提供することに
ある。
An object of the present invention is to provide a distributed computer system capable of preventing a node from stopping operation.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、複数の計算機から構成された分散計算
機システムにおいて、実行対象のジョブの消費予定資源
を予め定義するジョブ消費予定資源定義手段と、前記ジ
ョブの実行時に、そのジョブを実行するノード上で必要
とされる将来の消費予定資源が前記ノードの有する資源
を超えない様にジョブの配分を行うジョブ配分手段とを
備えた構成にしている。この構成によれば、予め各ジョ
ブの使用予定資源をジョブ消費予定資源定義手段に定義
しておき、ジョブの実行時に、個々のノードに一度にジ
ョブが配分されないような配分、つまりジョブ配分を各
ノードの有する資源を超えないように決定すれば、ジョ
ブの起動に際して該ジョブを実行するために必要な計算
機上の資源が、ジョブのライフタイムにわたって予測消
費資源として仮想的に確保される。この結果、計算機上
で実行されている全てのジョブがそのライフタイムにわ
たって消費する資源を管理できるようになり、計算機資
源が各ジョブの実行に伴って不足する事態を招くことが
なくなる。
In order to achieve the above-mentioned object, the present invention provides a distributed computer system comprising a plurality of computers. Definition means, and job distribution means for allocating a job such that, when the job is executed, future scheduled resources required on the node executing the job do not exceed the resources of the node. It has a configuration. According to this configuration, the resources to be used for each job are defined in advance in the job consumption scheduled resource defining means, and when the job is executed, the job is not allocated to the individual nodes at a time, that is, the job allocation is performed. If the resource is determined not to exceed the resources of the node, the resources on the computer required to execute the job at the time of starting the job are virtually reserved as predicted consumption resources over the lifetime of the job. As a result, the resources consumed by all the jobs executed on the computer over the lifetime can be managed, and the situation in which the computer resources run short due to the execution of each job does not occur.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態につい
て説明する。図1は本発明による分散計算機システムの
ジョブ配分処理部分を示すブロックを示している。図1
には分散計算機システムのジョブ制御ノード1と、この
ジョブ制御ノード1に接続されたジョブ実行ノード2が
示されている。ジョブ制御ノード1は、ユーザからのジ
ョブ実行要求を基に動作するジョブ配分制御部11、定
義されたジョブ消費予定資源をジョブ配分制御部11に
提供するジョブ消費予定資源定義表12、予め定義され
た各実行ノードの保有資源情報を保持し、これをジョブ
配分制御部11に提供する実行ノード保有資源定義表1
3、ノード上の予測消費資源をジョブ配分制御部11に
提供する予測消費資源統括管理表14、及びジョブ実行
ノード2側から予測消費資源情報を収集して予測消費資
源統括管理表14に反映する予測消費資源収集部15を
備えている。
Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing a job distribution processing part of the distributed computer system according to the present invention. FIG.
Shows a job control node 1 of the distributed computer system and a job execution node 2 connected to the job control node 1. The job control node 1 includes a job distribution control unit 11 that operates based on a job execution request from a user, a job consumption resource definition table 12 that provides the defined job consumption resource to the job distribution control unit 11, Execution node owned resource definition table 1 which holds the owned resource information of each execution node and provides the information to the job distribution control unit 11.
3. Collect the predicted resource consumption management table 14 for providing the predicted resource consumption on the node to the job distribution control unit 11 and the predicted resource consumption information from the job execution node 2 and reflect the information on the predicted resource management table 14. A predicted resource consumption collecting unit 15 is provided.

【0009】また、ジョブ実行ノード2は、ジョブ制御
ノード1側からの実行要求により起動するジョブ実行制
御部21、定義されたジョブ消費予定資源をジョブ実行
制御部21に提供するジョブ消費予定資源定義表22、
ジョブ実行制御部21により当該実行ノードの予測消費
資源が更新される予測消費資源管理表23、及び予測消
費資源管理表23の内容を参照して予測消費資源を管理
する予測消費資源管理部24を備えている。なお、ジョ
ブ実行ノード2は複数が存在可能であるが、図1では1
つのみの構成を示し、その動作説明においても1つのみ
について説明する。また、図1においては、ジョブ制御
ノード1とジョブ実行ノード2を別個のノードとして構
成しているが、ジョブ制御ノード1がジョブ実行ノード
2を含む構成であってもよい。
The job execution node 2 includes a job execution control unit 21 started by an execution request from the job control node 1, and a job consumption resource definition for providing the defined job consumption resource to the job execution control unit 21. Table 22,
The job execution control unit 21 updates the predicted consumption resource of the execution node with the predicted consumption resource management table 23 and the predicted consumption resource management unit 24 that manages the predicted consumption resource with reference to the contents of the predicted consumption resource management table 23. Have. Although a plurality of job execution nodes 2 can exist, in FIG.
Only one configuration is shown, and only one is described in the operation description. In FIG. 1, the job control node 1 and the job execution node 2 are configured as separate nodes, but the job control node 1 may include the job execution node 2.

【0010】以上の構成において、ジョブ配分制御部1
1は、ユーザからのジョブ実行要求に対し、予測消費資
源統括管理表14で管理される予測消費資源(ジョブ実
行ノード上の)Rfcと、ジョブ消費予定資源定義表12
に定義されるジョブの消費予定資源Rcpの和(Rfc+R
cp)に対する前記Rfcの比率Rfc/(Rfc+Rcp)が最
小になり、且つ、前記Rfc+Rcpが実行ノード保有資源
定義表13に定義される当該ジョブ実行ノードの保有資
源を超えないジョブ実行ノード2を選択する。この選択
したジョブ実行ノード2上のジョブ実行制御部21に対
し、ジョブの実行要求が行われる。
In the above configuration, the job distribution control unit 1
Reference numeral 1 denotes a predicted consumption resource (on a job execution node) Rfc managed by a predicted consumption resource general management table 14 and a job consumption scheduled resource definition table 12 in response to a job execution request from a user.
(Rfc + R) of the scheduled resource Rcp of the job defined in
Select the job execution node 2 in which the ratio Rfc / (Rfc + Rcp) of the Rfc to the cp) is the minimum and the Rfc + Rcp does not exceed the resource owned by the job execution node defined in the execution node owned resource definition table 13. . A job execution request is made to the job execution control unit 21 on the selected job execution node 2.

【0011】ジョブ配分制御部11からジョブの実行要
求を受けたジョブ実行制御部21は、そのジョブを起動
すると共にジョブ消費予定資源定義表22から前記ジョ
ブの消費予定資源値を取得する。この消費予定資源値
は、ジョブ実行制御部21によって予測消費資源管理表
23に加算され、また、ジョブの実行が終了すれば、前
記ジョブの消費予定資源値は予測消費資源管理表23か
ら減算され、予測消費資源の更新が行われ、予測消費資
源の状態が管理される。この後、予測消費資源管理部2
4によって予測消費資源管理表23の参照が行われ、こ
の参照結果を基に予測消費資源情報が取得され、この予
測消費資源情報は予測消費資源管理部24から予測消費
資源収集部15へ送出される。
The job execution control unit 21 that has received the job execution request from the job distribution control unit 11 activates the job and acquires the scheduled resource value of the job from the scheduled job resource definition table 22. This scheduled resource value is added to the predicted resource management table 23 by the job execution control unit 21, and when the execution of the job is completed, the scheduled resource value of the job is subtracted from the predicted resource management table 23. , The predicted consumption resource is updated, and the state of the predicted consumption resource is managed. After that, the forecast resource management unit 2
4, the predicted consumption resource management table 23 is referred to, the predicted consumption resource information is acquired based on the reference result, and the predicted consumption resource information is transmitted from the predicted consumption resource management unit 24 to the predicted consumption resource collection unit 15. You.

【0012】このように、予め各ジョブの使用予定資源
をジョブ消費予定資源定義表12、22に定義してお
き、ジョブの実行時に、各ノードにジョブが一度に配分
されないようにジョブ配分制御部11によって決定すれ
ば、計算機資源を有効に活用できる。この結果、計算機
上で実行されている全てのジョブがそのライフタイムに
わたって消費する資源を管理でき、計算機資源が各ジョ
ブの実行に伴って不足する事態は生じなくなる。
As described above, the resources to be used for each job are defined in advance in the job consumption scheduled resource definition tables 12 and 22, and the job distribution control unit prevents the jobs from being distributed to each node at one time when the job is executed. If determined by 11, the computer resources can be used effectively. As a result, the resources consumed by all the jobs executed on the computer over the lifetime can be managed, and the situation in which the computer resources run short due to the execution of each job does not occur.

【0013】本発明は、特に、画像処理や科学技術計算
分野のように大量の資源を消費する類似のジョブを多数
実行する等の用途に有効である。つまり、各計算機に一
度にジョブを配分し過ぎることによって計算機に許容以
上の資源が要求され、計算機の稼働に悪影響を与えるよ
うなシステムへの適用に有効である。
The present invention is particularly effective in applications such as executing a large number of similar jobs that consume a large amount of resources, such as in the field of image processing and scientific and technical computing. That is, it is effective for application to a system in which excessive resources are required for computers by allocating too many jobs to each computer at once, which adversely affects the operation of the computers.

【0014】図2は図1に示したジョブ配分制御部11
の詳細を示すブロック図である。ジョブ配分制御部11
は、ジョブ実行要求管理部16、ジョブ実行要求キュー
管理表17、及びジョブ配分処理部18を備えて構成さ
れている。ジョブ実行要求管理部16は、ユーザからジ
ョブ実行要求を受けたときにジョブ実行要求をジョブ実
行要求キュー管理表17のキューに登録する。また、ジ
ョブ配分処理部18は、予め定義された周期毎、又はユ
ーザからジョブ実行要求があった時ジョブ実行要求管理
部16からの起動指令に基づいて、ジョブ実行要求キュ
ー管理表17からジョブ実行要求を取り出し、ジョブ消
費予定資源定義表12、実行ノード保有資源定義表13
及び予測消費資源統括管理表14の3つを参照して各ジ
ョブのジョブ実行ノードへの配分を実行する。
FIG. 2 shows the job distribution control unit 11 shown in FIG.
FIG. 4 is a block diagram showing the details of. Job distribution control unit 11
Is configured to include a job execution request management unit 16, a job execution request queue management table 17, and a job distribution processing unit 18. The job execution request management unit 16 registers the job execution request in the queue of the job execution request queue management table 17 when receiving the job execution request from the user. In addition, the job distribution processing unit 18 executes a job execution request from the job execution request queue management table 17 based on a start command from the job execution request management unit 16 at a predetermined cycle or when a user issues a job execution request. The request is taken out, the job consumption scheduled resource definition table 12, the execution node possessed resource definition table 13
Then, each job is distributed to the job execution nodes with reference to the three items of the predicted consumption resource general management table 14.

【0015】更に、ジョブ配分処理部18は、どのジョ
ブ実行ノード上に対しても必要とする予測消費資源を確
保できなかったジョブの配分を見合わせ、ジョブ実行要
求キュー管理表17内の次の順番のジョブを配分するこ
とを試みる。これは、ジョブ実行ノードの効率的な使用
を実現するものである。しかし、このようなジョブの配
分を行っていると、大量の消費予定資源を必要とするジ
ョブが、いつまでもジョブ実行ノード2に配分されない
ケースが発生する。そこで、ジョブ配分処理部18は、
ジョブの配分をスキップする度にジョブ実行要求キュー
管理表17内の当該ジョブのスキップカウンタ(図示せ
ず)をインクリメントする。そして、カウント値が予め
定義(スキップカウンタに)したしきい値に達した場
合、前記ジョブが優先的に実行されるように処理する。
このジョブ配分方式にすることで、ジョブに対する公平
な資源配分の実現、すなわちジョブを公平に実行するこ
とが可能になる。なお、ジョブ消費予定資源定義表22
は、ジョブ配分制御部11がジョブ実行制御部21に対
してジョブの実行要求を行う時に、当該ジョブの消費予
定資源を合わせて通知することにより削除することも可
能である。
Further, the job distribution processing unit 18 suspends the distribution of the job for which the required predicted resource cannot be secured on any job execution node, and checks the next order in the job execution request queue management table 17. Try to distribute the jobs. This realizes efficient use of the job execution node. However, when such job distribution is performed, a case may occur in which a job requiring a large amount of resources to be consumed is not distributed to the job execution node 2 forever. Therefore, the job distribution processing unit 18
Each time the distribution of a job is skipped, the skip counter (not shown) of the job in the job execution request queue management table 17 is incremented. When the count value reaches a threshold value defined in advance (as a skip counter), processing is performed so that the job is executed with priority.
By employing this job distribution method, it is possible to realize fair resource distribution for jobs, that is, to execute jobs fairly. The job consumption scheduled resource definition table 22
When the job distribution control unit 11 requests the job execution control unit 21 to execute a job, the job distribution control unit 11 can also delete the resource by notifying the job execution control unit 21 of the resource to be consumed.

【0016】次に、本発明による分散計算機システムの
具体例について説明する。図3は、大量の入力データに
処理及び加工を施して出力するジョブを複数のデータ処
理サーバ上で実行する分散計算機システムのブロック図
を示している。入力データのサイズは、ユーザから与え
られるジョブ実行要求毎に異なるので、各ジョブが出力
するデータのサイズもジョブ実行要求毎に異なる。この
ため、従来のジョブ配分技術では、データ処理サーバ上
で各ジョブの実行が進むにつれ、出力データを格納する
ディスク(記憶媒体)を使いきってしまう可能性があっ
た。ディスクに出力データを格納できないということ
は、データ処理サーバの稼働停止を意味する。したがっ
て、かかる事態はジョブ配分の過程で避ける必要があっ
た。しかし、本発明の適用により、各データ処理サーバ
上で実行中のジョブがそのライフタイムにわたって消費
予定のディスク容量を把握でき、その情報に基づいたジ
ョブ配分を行うことが可能になるので、データ処理サー
バの稼働停止の危険性を著しく低下させることができ
る。
Next, a specific example of the distributed computer system according to the present invention will be described. FIG. 3 is a block diagram of a distributed computer system that executes a job for processing and processing a large amount of input data and outputting the job on a plurality of data processing servers. Since the size of the input data differs for each job execution request given by the user, the size of the data output by each job also differs for each job execution request. For this reason, in the conventional job distribution technique, as the execution of each job on the data processing server progresses, there is a possibility that the disk (storage medium) for storing the output data is used up. The inability to store the output data on the disk means that the operation of the data processing server is stopped. Therefore, such a situation has to be avoided during the job distribution process. However, by applying the present invention, it is possible for a job being executed on each data processing server to know the disk capacity to be consumed over its lifetime, and to perform job distribution based on the information. It is possible to significantly reduce the risk of stopping the operation of the server.

【0017】以下、図3の構成及び動作について説明す
る。図3には管理エージェント101と、複数のデータ
処理サーバ201の構成が示され、管理エージェント1
01は図1のジョブ制御ノード1に相当し、データ処理
サーバ201は図1のジョブ実行ノード2に相当する。
管理エージェント101は、ジョブ属性定義ファイル1
21、ジョブ属性ジェネレータ122、図1のジョブ消
費予定資源定義表12に相当するジョブ属性定義テーブ
ル123、ノード記憶資源定義ファイル131、ノード
記憶資源ジェネレータ132、図1の実行ノード保有資
源管理表13に相当するノード記憶資源定義テーブル1
33、記憶資源統括アカウントテーブル141、記憶資
源アカウント収集マスタ151、図2のジョブ実行要求
管理部16に相当するジョブ実行受付処理部161、図
2のジョブ実行要求キュー管理表17に相当するジョブ
管理テーブル171、図2のジョブ配分処理部18に相
当するジョブディスパッチャ181、及びジョブ状態更
新処理部182を備えて構成されている。
Hereinafter, the configuration and operation of FIG. 3 will be described. FIG. 3 shows a configuration of the management agent 101 and a plurality of data processing servers 201.
01 corresponds to the job control node 1 in FIG. 1, and the data processing server 201 corresponds to the job execution node 2 in FIG.
The management agent 101 has a job attribute definition file 1
1, a job attribute generator 122, a job attribute definition table 123 corresponding to the job consumption scheduled resource definition table 12 in FIG. 1, a node storage resource definition file 131, a node storage resource generator 132, and an execution node possession resource management table 13 in FIG. Corresponding node storage resource definition table 1
33, a storage resource general account table 141, a storage resource account collection master 151, a job execution reception processing unit 161 corresponding to the job execution request management unit 16 in FIG. 2, and a job management corresponding to the job execution request queue management table 17 in FIG. It is provided with a table 171, a job dispatcher 181 corresponding to the job distribution processing unit 18 in FIG. 2, and a job status update processing unit 182.

【0018】また、データ処理サーバ201は、図1の
ジョブ実行制御部21に相当するジョブ起動処理部21
1、ジョブシェル212、記憶資源アカウントテーブル
231、及び図1の予測消費資源管理部24に相当する
記憶資源アカウント収集スレーブ241を備えて構成さ
れている。なお、データ処理サーバ201は複数台の存
在が可能であるが、以下においてはデータ処理サーバ2
01の1つについてのみ説明する。
The data processing server 201 has a job activation processing unit 21 corresponding to the job execution control unit 21 in FIG.
1, a job shell 212, a storage resource account table 231, and a storage resource account collection slave 241 corresponding to the predicted consumption resource management unit 24 in FIG. Note that a plurality of data processing servers 201 can exist.
01 will be described.

【0019】管理エージェント101において、ジョブ
属性定義テーブル123は管理エージェントの不図示の
メモリ上に存在しており、これに対してジョブ属性定義
ファイル121及びジョブ属性ジェネレータ122はそ
の補助機構として機能する。具体的に説明すると、ユー
ザがジョブ属性定義ファイル121にジョブの属性を記
述し、ジョブ属性ジェネレータ122を実行することに
よって、ジョブ属性定義ファイル121に格納したジョ
ブの属性をメモリ上のジョブ属性定義テーブル123に
反映することができる。本実施例において、ジョブの属
性とは、(1)ジョブ実行要求時にユーザから与えられ
る入力データのサイズに対してジョブ実行の過程で生成
される中間データ及び最終的な出力データのサイズの関
係式、(2)上記ジョブを起動する場合のスキップリミ
ット値、を含むものである。
In the management agent 101, the job attribute definition table 123 exists on a memory (not shown) of the management agent, whereas the job attribute definition file 121 and the job attribute generator 122 function as auxiliary mechanisms. More specifically, the user describes job attributes in the job attribute definition file 121 and executes the job attribute generator 122 to store the job attributes stored in the job attribute definition file 121 in the job attribute definition table on the memory. 123 can be reflected. In this embodiment, the job attribute is defined as (1) a relational expression between the size of input data given by a user at the time of a job execution request and the size of intermediate data and final output data generated in the course of job execution. , (2) a skip limit value for starting the job.

【0020】ノード記憶資源定義テーブル133は管理
エージェント101のメモリ上に存在し、これに対して
ノード記憶資源定義ファイル131及びノード記憶資源
ジェネレータ132は、ノード記憶資源定義テーブル1
33の補助機構として機能する。具体的に説明すると、
ユーザによりノード記憶資源定義ファイル131に各ノ
ードが有する記憶資源量の情報が記述され、ノード記憶
資源ジェネレータ132が動作することにより、各ノー
ドが有する記憶資源量をメモリ上のノード記憶資源定義
テーブル133に反映することができる。本実施例にお
いて、ノード記憶資源定義ファイル131に定義される
ノード記憶資源とは、各データ処理サーバが有するディ
スクの容量を含むものである。
The node storage resource definition table 133 exists in the memory of the management agent 101, whereas the node storage resource definition file 131 and the node storage resource generator 132
33 functions as an auxiliary mechanism. Specifically,
The user describes information on the amount of storage resources possessed by each node in the node storage resource definition file 131, and operates the node storage resource generator 132 to store the amount of storage resources possessed by each node in the node storage resource definition table 133 on the memory. Can be reflected in In this embodiment, the node storage resources defined in the node storage resource definition file 131 include the disk capacity of each data processing server.

【0021】ジョブ管理テーブル171は、管理エージ
ェント101のメモリ上に存在する。また、ジョブディ
スパッチャ181は予め定義された周期で起動し、各デ
ータ処理サーバ201の記憶資源アカウント情報テーブ
ル231の内容の収集を記憶資源アカウント収集マスタ
151に要求し、その収集結果が格納される記憶資源統
括アカウントテーブル141を参照してジョブ実行要求
をジョブ管理テーブル171から取り出し、そのジョブ
をデータ処理サーバ201のいずれかにディスパッチす
る。
The job management table 171 exists on the memory of the management agent 101. The job dispatcher 181 is activated at a predefined cycle, requests the storage resource account collection master 151 to collect the contents of the storage resource account information table 231 of each data processing server 201, and stores the collection results. The job execution request is extracted from the job management table 171 with reference to the resource management account table 141, and the job is dispatched to one of the data processing servers 201.

【0022】ここで、ジョブディスパッチャ181は、
ジョブを実行するために必要な記憶資源の空きがデータ
処理サーバ201のいずれにも存在しない場合、そのジ
ョブの実行を見合わせ、ジョブ管理テーブル171内の
ジョブのスキップカウンタをインクリメントする。スキ
ップカウンタの値がジョブ属性定義テーブル123から
与えられるスキップリミット値に達した場合、以後ジョ
ブディスパッチャ181はそのジョブをスキップさせ
ず、データ処理サーバ201のいずれかにおいてジョブ
を実行するのに十分な記憶資源の空きが生じるまで待機
する。また、ジョブディスパッチャ181はジョブのデ
ィスパッチに際し、ジョブ属性定義テーブル123から
取得した情報を基にジョブディスパッチャ181が生成
するジョブの記憶資源アカウント値をジョブ起動パラメ
ータとし、これをジョブ起動処理部211へ転送する。
これにより、図1で必要であったジョブ消費予定資源定
義表22を省略することができる。
Here, the job dispatcher 181
If there is no free storage resource required for executing the job in any of the data processing servers 201, the execution of the job is suspended, and the skip counter of the job in the job management table 171 is incremented. When the value of the skip counter reaches the skip limit value given from the job attribute definition table 123, the job dispatcher 181 does not skip the job thereafter, and stores enough data to execute the job in one of the data processing servers 201. Wait until resources are available. When dispatching a job, the job dispatcher 181 uses the storage resource account value of the job generated by the job dispatcher 181 based on the information acquired from the job attribute definition table 123 as a job start parameter, and transfers this to the job start processing unit 211. I do.
Thus, the job consumption scheduled resource definition table 22 required in FIG. 1 can be omitted.

【0023】ジョブ管理テーブル171は、ユーザから
要求されたジョブのキュー管理情報に限らず、データ処
理サーバ201上で実行されている各ジョブの状態も、
ジョブ要求受付処理部161を通して保持する。なお、
図3には示していないが、ジョブ管理テーブル171
は、画面等を通して各ジョブの実行状態をユーザに提供
するための元データとして用いることができる。
The job management table 171 stores not only the queue management information of the job requested by the user but also the status of each job executed on the data processing server 201.
It is held through the job request reception processing unit 161. In addition,
Although not shown in FIG. 3, the job management table 171
Can be used as original data for providing the user with the execution state of each job through a screen or the like.

【0024】記憶資源統括アカウントテーブル141は
図1の予測消費資源統括管理表14に相当し、管理エー
ジェントのメモリ上に存在する。また、記憶資源アカウ
ント収集マスタ151は図1の予測消費資源収集部15
に相当する。この記憶資源アカウント収集マスタ151
は、ジョブディスパッチャ181からの要求に従って記
憶資源アカウント収集スレーブ241から各データ処理
サーバ201の記憶資源アカウント情報を収集し、記憶
資源統括アカウントテーブル141へ格納する。記憶資
源アカウントテーブル231は図1の予測消費資源管理
表23に相当し、データ処理サーバのメモリ上に存在し
ている。また、記憶資源アカウント収集スレーブ241
は記憶資源アカウント収集マスタ151からの要求によ
り、記憶資源アカウント収集テーブル231の内容を記
憶資源アカウント収集マスタ151へ転送する。ジョブ
シェル212はジョブを包含するものであり、図1に示
したジョブ実行制御部21が予測消費資源管理表23へ
予測消費資源を格納する部分の機能と同一の機能を有し
ている。
The storage resource general account table 141 corresponds to the predicted consumption resource general management table 14 in FIG. 1 and exists on the memory of the management agent. Further, the storage resource account collection master 151 corresponds to the predicted consumption resource collection unit 15 in FIG.
Is equivalent to This storage resource account collection master 151
Collects the storage resource account information of each data processing server 201 from the storage resource account collection slave 241 according to the request from the job dispatcher 181 and stores it in the storage resource general account table 141. The storage resource account table 231 corresponds to the predicted consumption resource management table 23 in FIG. 1, and exists on the memory of the data processing server. Also, the storage resource account collection slave 241
Transfers the contents of the storage resource account collection table 231 to the storage resource account collection master 151 in response to a request from the storage resource account collection master 151. The job shell 212 includes a job, and has the same function as that of the part of the job execution control unit 21 shown in FIG.

【0025】図4はジョブシェル212で実行される処
理を示すフローチャートである。まず、ジョブディスパ
ッチャ181からジョブ起動処理部211に対してジョ
ブ起動要求のパラメータとして渡された記憶資源アカウ
ント値を取得する(ステップS401)。次に、取得し
た記憶資源アカウント値を記憶資源アカウントテーブル
231に加算する(ステップS402)。更に、ジョブ
が実行され(ステップS403)、このジョブの終了
後、記憶資源アカウントテーブル231から記憶資源ア
カウント値を減算する(ステップS404)。最後に、
ジョブ状態更新処理部182に対してジョブの終了通知
を実行する(ステップS405)。このように、簡単な
処理により、ジョブの実行に伴い記憶資源統括アカウン
トテーブル141の内容を更新することができる。
FIG. 4 is a flowchart showing the processing executed by the job shell 212. First, the storage resource account value passed as a parameter of the job start request from the job dispatcher 181 to the job start processing unit 211 is acquired (step S401). Next, the obtained storage resource account value is added to the storage resource account table 231 (step S402). Further, the job is executed (step S403), and after the job is completed, the storage resource account value is subtracted from the storage resource account table 231 (step S404). Finally,
A job completion notification is issued to the job status update processing unit 182 (step S405). As described above, the contents of the storage resource management account table 141 can be updated with the execution of the job by a simple process.

【0026】図5は、ジョブ属性定義テーブル123の
構成内容を示している。ここではジョブ毎に、消費予定
メモリ容量、消費予定ディスク容量及びスキップリミッ
トを定義している。図5において、ジョブ「JOB−
A」の消費予定ディスク容量は、固定的に使用される5
0MBに、入力データサイズの2.2倍を加えて算出
(50+2.2×入力データサイズ(MB))される。
FIG. 5 shows the configuration of the job attribute definition table 123. Here, the estimated memory capacity, the estimated disk capacity, and the skip limit are defined for each job. In FIG. 5, the job "JOB-
The disk capacity to be consumed for “A” is 5 fixedly used.
It is calculated by adding 2.2 times the input data size to 0 MB (50 + 2.2 × input data size (MB)).

【0027】図6はジョブ管理テーブル171の構成内
容を示している。図6において、第1エントリのジョブ
「A01」は、消費予定メモリ容量及び消費予定ディス
ク容量を確保できるデータ処理ホストが現状存在しない
ために、起動がスキップされていることを示している。
この例では、スキップカウンタがスキップリミットに達
しているため、ジョブディスパッチャ181は、これ以
上ジョブ「A01」の起動をスキップせず、ジョブ「A
01」の実行に必要な消費予定メモリ容量及び消費予定
ディスク容量が、データ処理ホストのいずれかに確保で
きるまで他のジョブの起動要求は行わない。
FIG. 6 shows the configuration of the job management table 171. In FIG. 6, the job "A01" of the first entry indicates that the startup is skipped because there is currently no data processing host capable of securing the estimated memory capacity and the estimated disk capacity.
In this example, since the skip counter has reached the skip limit, the job dispatcher 181 does not skip starting the job “A01” any more, and
01 is not issued until the required memory capacity and the required disk capacity required to execute “01” can be secured in one of the data processing hosts.

【0028】図7はノード記憶資源定義テーブル133
の構成内容を示している。ここでは、データ処理サーバ
毎に、スワップ容量を含めた保有メモリ容量、及び保有
ディスク容量を定義している。図8は記憶資源アカウン
トテーブル231の構成内容を示している。本例では、
当該データ処理ホスト上で実行されている各ジョブの消
費予定メモリ容量及び消費予定ディスク容量が格納され
ている。
FIG. 7 shows the node storage resource definition table 133.
Shows the contents of the configuration. Here, the possessed memory capacity including the swap capacity and the possessed disk capacity are defined for each data processing server. FIG. 8 shows the configuration of the storage resource account table 231. In this example,
The estimated memory capacity and the estimated disk capacity of each job executed on the data processing host are stored.

【0029】図9は記憶資源統括アカウントテーブル1
41の構成内容を示している。この例では、データ処理
サーバ毎に、ジョブの消費予定メモリ容量合計及び消費
予定ディスク容量合計を格納している。以上のように、
データ処理サーバ201を備えたシステムにおいても、
予め各ジョブの使用予定資源をジョブ属性定義テーブル
123及びデータ処理サーバ201に定義しておくこと
により、計算機上で実行されている全てのジョブがその
ライフタイムにわたって消費する資源を管理できるよう
になり、計算機資源が各ジョブの実行に伴って不足する
事態は生じない。
FIG. 9 shows the storage resource management account table 1
41 shows the configuration contents. In this example, the total memory capacity and the total disk capacity of the job are stored for each data processing server. As mentioned above,
Even in a system including the data processing server 201,
By defining the resources to be used for each job in the job attribute definition table 123 and the data processing server 201 in advance, it becomes possible to manage the resources consumed by all the jobs executed on the computer over their lifetime. In addition, a situation in which computer resources are insufficient due to the execution of each job does not occur.

【0030】図10は図3の構成を発展させた本発明の
他の具体例を示すブロック図である。図10において
は、管理エージェント101及びデータ処理サーバ20
1で共有できる情報が、データベースサーバ301で管
理されるシステム構成が示されている。データベースサ
ーバ301上における情報の共有は、NFS(網ファイ
ルシステム:Network File/System)等によるファイル
の共有、SQL(構造化照会言語:Structured Query L
anguage )等を使用したDBMS(データベース管理シ
ステム: Data Base Management System)等によるもの
である。
FIG. 10 is a block diagram showing another embodiment of the present invention obtained by developing the configuration of FIG. In FIG. 10, the management agent 101 and the data processing server 20
1 shows a system configuration in which information that can be shared by the server 1 is managed by the database server 301. Information sharing on the database server 301 includes file sharing by NFS (Network File / System) or the like, and SQL (Structured Query Language: Structured Query L).
An DBMS is based on a DBMS (Data Base Management System) using an anguage or the like.

【0031】図10の分散計算機システムの構成につい
て説明すると、図1のジョブ制御ノードに相当する管理
エージェント101、複数のデータ処理サーバ201、
及び管理エージェント101とデータ処理サーバ201
に接続されるデータベースサーバ301を備えて構成さ
れている。ここでは、三者を独立した形で構成している
が、データベースサーバ301が管理エージェント10
1又はデータ処理サーバ201を兼ねた構成にすること
もできる。
The configuration of the distributed computer system shown in FIG. 10 will be described. A management agent 101 corresponding to the job control node shown in FIG. 1, a plurality of data processing servers 201,
And management agent 101 and data processing server 201
And a database server 301 connected to the server. Here, the three are configured independently, but the database server 301
1 or the data processing server 201.

【0032】管理エージェント101は、図2のジョブ
実行要求管理部16に相当するジョブ実行受付処理部1
61と図2のジョブ配分処理部18に相当するジョブデ
ィスパッチャ181を備えて構成されている。また、デ
ータ処理サーバ201は、図1のジョブ実行制御部21
に相当するジョブ起動処理部211、及びジョブシェル
212を備えて構成されている。また、データベースサ
ーバ301は、図2のジョブ実行要求キュー管理表17
に相当するジョブ管理テーブル311、図1のジョブ消
費予定資源定義表12に相当するジョブ属性定義テーブ
ル312、図1の実行ノード保有資源管理表13に相当
するノード記憶資源定義テーブル313、及び図1の予
測消費資源統括管理表14に相当する記憶資源統括アカ
ウントテーブル314を備えて構成されている。
The management agent 101 is a job execution reception processing unit 1 corresponding to the job execution request management unit 16 in FIG.
61 and a job dispatcher 181 corresponding to the job distribution processing unit 18 in FIG. Further, the data processing server 201 is provided with the job execution control unit 21 shown in FIG.
And a job shell 212 corresponding to the above. In addition, the database server 301 performs the job execution request queue management table 17 shown in FIG.
1, a job attribute definition table 312 corresponding to the job consumption scheduled resource definition table 12 in FIG. 1, a node storage resource definition table 313 corresponding to the execution node possessed resource management table 13 in FIG. 1, and FIG. The storage resource management account table 314 corresponding to the predicted consumption resource management table 14 of FIG.

【0033】管理エージェント101のジョブ実行受付
処理部161は、ユーザからのジョブ実行要求を受け付
け、データベースサーバ301内のジョブ管理テーブル
311にジョブ実行要求のエントリを追加する。ジョブ
ディスパッチャ181は予め定義された周期で起動し、
ジョブ管理テーブル311からジョブ実行要求を取り出
し、ジョブ属性定義テーブル312に定義されたジョブ
の予測消費資源情報、ノード記憶資源定義テーブル31
3に定義された各データ処理サーバの保有記憶資源情
報、及び記憶資源統括アカウントテーブル314で管理
されている各データ処理サーバの記憶資源消費情報の各
々に基づいて、ジョブを実行するデータ処理サーバを決
定する。更に、ジョブディスパッチャ181は、ジョブ
属性定義テーブル312に定義される情報に基づいて算
出したジョブの記憶資源アカウント値をパラメータとし
て、ジョブ起動処理部211へジョブの起動要求を送出
する。この要求に従って、ジョブ起動処理部211はジ
ョブシェル212を起動させる。このジョブシェル21
2の処理について、以下に説明する。
The job execution reception processing unit 161 of the management agent 101 receives a job execution request from a user and adds an entry of the job execution request to the job management table 311 in the database server 301. The job dispatcher 181 starts at a predefined cycle,
The job execution request is extracted from the job management table 311, the predicted resource consumption information of the job defined in the job attribute definition table 312, the node storage resource definition table 31
3 based on the storage resource information of each data processing server defined in 3 and the storage resource consumption information of each data processing server managed by the storage resource general account table 314. decide. Further, the job dispatcher 181 sends a job activation request to the job activation processing unit 211 using the storage resource account value of the job calculated based on the information defined in the job attribute definition table 312 as a parameter. In response to this request, the job activation processing unit 211 activates the job shell 212. This job shell 21
The process 2 will be described below.

【0034】図11はジョブシェル212の処理を示す
フローチャートである。まず、ジョブディスパッチャ1
81からジョブ起動処理部211へジョブ起動要求のパ
ラメータとして渡された記憶資源アカウント値を取得す
る(ステップS601)。次に、この記憶資源アカウン
ト値を記憶資源統括アカウントテーブル314に加算す
る(ステップS602)。更に、起動させたジョブを実
行し(ステップS603)、このジョブの実行が終了し
た後、記憶資源統括アカウントテーブル314の記憶資
源アカウント値を減算する(ステップS604)。つい
で、ジョブ管理テーブル311にジョブの終了ステータ
スを反映させる(ステップ605)。図11の処理によ
り、ジョブの実行に伴い記憶資源統括アカウントテーブ
ル314の内容を更新することができる。
FIG. 11 is a flowchart showing the processing of the job shell 212. First, job dispatcher 1
The storage resource account value passed as a parameter of the job start request from 81 to the job start processing unit 211 is acquired (step S601). Next, the storage resource account value is added to the storage resource management account table 314 (step S602). Further, the activated job is executed (step S603), and after the execution of this job is completed, the storage resource account value in the storage resource general account table 314 is subtracted (step S604). Next, the end status of the job is reflected in the job management table 311 (step 605). With the processing in FIG. 11, the contents of the storage resource management account table 314 can be updated with the execution of the job.

【0035】以上のように、図10の構成によれば、管
理エージェント101及びデータ処理サーバ201で共
有できる情報がデータベースサーバ301で管理される
システムにおいても、図3の場合と同様に、予め各ジョ
ブの使用予定資源をジョブ属性定義テーブル312に定
義し、これを用いて適正配分を行うことにより、ジョブ
の起動に際して該ジョブを実行するために必要な計算機
上の資源をジョブのライフタイムにわたって予測消費資
源として仮想的に確保でき、計算機上で実行されている
全てのジョブがそのライフタイムにわたって消費する資
源を管理できるようになり、計算機資源が各ジョブの実
行に伴って不足する事態は生じない。
As described above, according to the configuration of FIG. 10, even in a system in which information that can be shared by the management agent 101 and the data processing server 201 is managed by the database server 301, as in the case of FIG. The resources to be used for the job are defined in the job attribute definition table 312, and the resources are appropriately allocated using the job attribute definition table 312, whereby the resources on the computer required to execute the job at the time of starting the job are predicted over the lifetime of the job. It can be virtually reserved as a consumed resource, and all the jobs executed on the computer can manage the resources consumed over their lifetime, so that there is no shortage of computer resources due to the execution of each job .

【0036】[0036]

【発明の効果】以上説明した通り、本発明によれば、計
算機システムにおいて、実行するジョブの消費予定資源
を予めジョブ属性として定義しておくことにより、ジョ
ブの起動時に、ノード上に必要とされる将来の消費予定
資源が、ノードが有している資源を超えないようなジョ
ブの配分が行え、ジョブ実行ノードの稼働停止の発生を
著しく低減した分散計算機システムを実現することがで
きる。
As described above, according to the present invention, in a computer system, resources to be consumed of a job to be executed are defined in advance as job attributes, so that the resources required on a node at the time of job start-up are required. Jobs can be distributed such that future scheduled resources do not exceed the resources of the nodes, and a distributed computer system can be realized in which the occurrence of job execution node stoppages is significantly reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による分散計算機システムのジョブ配分
処理部分を示すブロック図である。
FIG. 1 is a block diagram showing a job distribution processing part of a distributed computer system according to the present invention.

【図2】図1のジョブ配分制御部の詳細を示すブロック
図である。
FIG. 2 is a block diagram illustrating details of a job distribution control unit in FIG. 1;

【図3】本発明の第1の具体例の構成を示すブロック図
である。
FIG. 3 is a block diagram showing a configuration of a first specific example of the present invention.

【図4】図3のジョブシェルの処理を説明するフローチ
ャートである。
FIG. 4 is a flowchart illustrating a job shell process of FIG. 3;

【図5】ジョブ属性定義テーブル123の構成例図であ
る。
FIG. 5 is a configuration example diagram of a job attribute definition table 123.

【図6】ジョブ管理テーブル171の構成例図である。FIG. 6 is a diagram illustrating a configuration example of a job management table 171.

【図7】ノード記憶資源定義テーブル133の構成例図
である。
FIG. 7 is a configuration example diagram of a node storage resource definition table 133.

【図8】記憶資源アカウントテーブル231の構成例図
である。
FIG. 8 is a configuration example diagram of a storage resource account table 231.

【図9】記憶資源統括アカウントテーブル141の構成
例図である。
FIG. 9 is a configuration example diagram of a storage resource management account table 141.

【図10】本発明の第2の具体例の構成を示すブロック
図である。
FIG. 10 is a block diagram showing a configuration of a second specific example of the present invention.

【図11】図10のジョブシェルの処理を説明するフロ
ーチャートである。
11 is a flowchart illustrating processing of the job shell in FIG.

【符号の説明】[Explanation of symbols]

1 ジョブ制御ノード 2 ジョブ実行ノード 11 ジョブ配分制御部 12 ジョブ消費予定資源定義表 13 実行ノード保有資源管理表 14 予測消費資源統括管理表 15 予測消費資源収集部 16 ジョブ実行要求管理部 17 ジョブ実行要求キュー管理表 18 ジョブ配分処理部 21 ジョブ実行制御部 22 ジョブ消費予定資源定義表 23 予測消費資源管理表 24 予測消費資源管理部 101 管理エージェント 123、312 ジョブ属性定義テーブル 133、313 ノード記憶資源定義テーブル 141、314 記憶資源統括アカウントテーブル 181 ジョブディスパッチャ 201 データ処理サーバ 211 ジョブ起動処理部 212 ジョブシェル 301 データベースサーバ REFERENCE SIGNS LIST 1 job control node 2 job execution node 11 job distribution control unit 12 job consumption scheduled resource definition table 13 execution node possessed resource management table 14 estimated resource consumption management table 15 estimated resource consumption collection unit 16 job execution request management unit 17 job execution request Queue management table 18 Job distribution processing unit 21 Job execution control unit 22 Job consumption scheduled resource definition table 23 Predicted resource consumption management table 24 Predicted resource consumption management unit 101 Management agent 123, 312 Job attribute definition table 133, 313 Node storage resource definition table 141, 314 Storage resource management account table 181 Job dispatcher 201 Data processing server 211 Job start processing unit 212 Job shell 301 Database server

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 紀夫 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Norio Tanaka 5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture Inside the Hitachi, Ltd. Omika Plant

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の計算機から構成された分散計算機
システムにおいて、実行対象のジョブの消費予定資源を
予め定義するジョブ消費予定資源定義手段と、前記ジョ
ブの実行時に、そのジョブを実行するノード上で必要と
される将来の消費予定資源が前記ノードの有する資源を
超えない様にジョブの配分を行うジョブ配分手段とを具
備することを特徴とする分散計算機システム。
1. In a distributed computer system comprising a plurality of computers, a scheduled job resource defining means for defining in advance a scheduled resource of a job to be executed, and a node for executing the job when executing the job. And a job distribution means for allocating a job such that the resource to be consumed in the future does not exceed the resource of the node.
【請求項2】 前記ジョブ配分手段は、前記ジョブ消費
予定資源定義手段で定義されたジョブの消費予定資源と
予測消費資源統括管理手段で管理されている前記ノード
上の予測消費資源との和がノード保有資源定義手段で定
義された前記ノード上の保有資源を越えないようにジョ
ブを配分することを特徴とする請求項1記載の分散計算
機システム。
2. The method according to claim 1, wherein the job distribution unit calculates a sum of the scheduled resource of the job defined by the scheduled resource consumption defining unit and the predicted consumption resource on the node managed by the predicted consumption resource general management unit. 2. The distributed computer system according to claim 1, wherein jobs are allocated so as not to exceed the resources held on the nodes defined by the node owned resources defining means.
【請求項3】 前記ジョブ配分手段は、前記ジョブ配分
に加え、前記ジョブ消費予定資源定義手段で定義された
ジョブの消費予定資源と予測消費資源統括管理手段で管
理されている前記ノード上の予測消費資源との和に対す
る前記ノード上の予測消費資源の比率が最小になり、か
つ前記和がノード保有資源定義手段で定義された前記ノ
ード上の保有資源を越えないようにジョブを配分するこ
とを特徴とする請求項2記載の分散計算機システム。
3. The job distribution unit further includes, in addition to the job distribution, a scheduled consumption resource of the job defined by the scheduled job consumption resource definition unit and a prediction on the node managed by the predicted consumption resource general management unit. Allocating jobs so that the ratio of the predicted resource consumption on the node to the sum with the consumed resource is minimized and the sum does not exceed the resource held on the node defined by the node owned resource defining means. 3. The distributed computer system according to claim 2, wherein:
【請求項4】 前記ジョブ配分手段は、スキップされた
ジョブの起動回数が予め設定した値を越える時、前記ス
キップされたジョブを優先的に実行させることを特徴と
する請求項1記載の分散計算機システム。
4. The distributed computer according to claim 1, wherein the job distribution unit causes the skipped job to be executed preferentially when the number of times of activation of the skipped job exceeds a preset value. system.
【請求項5】 前記ノードに代えて、データベースサー
バを用いることを特徴とする請求項1記載の分散計算機
システム。
5. The distributed computer system according to claim 1, wherein a database server is used instead of said node.
【請求項6】 前記ノード又は前記データ処理サーバ
は、ジョブ実行要求に応じて消費予定資源値又は記憶資
源アカウント値を取得し、この値を予測消費資源管理手
段又は記憶資源アカウントテーブルに加算してジョブを
起動し、その実行後に前記予測消費資源管理手段から消
費予定資源値を減算又は前記記憶資源アカウントテーブ
ルから前記記憶資源アカウント値を減算する手段を具備
することを特徴とする請求項1又は請求項5記載の分散
計算機システム。
6. The node or the data processing server acquires a scheduled resource consumption value or a storage resource account value in response to a job execution request, and adds this value to a predicted resource consumption management unit or a storage resource account table. 2. The apparatus according to claim 1, further comprising means for initiating a job and subtracting the scheduled resource value from said predicted resource management means or subtracting said storage resource account value from said storage resource account table after execution. Item 6. The distributed computer system according to Item 5.
JP206197A 1997-01-09 1997-01-09 Distributed computer system Pending JPH10198643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP206197A JPH10198643A (en) 1997-01-09 1997-01-09 Distributed computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP206197A JPH10198643A (en) 1997-01-09 1997-01-09 Distributed computer system

Publications (1)

Publication Number Publication Date
JPH10198643A true JPH10198643A (en) 1998-07-31

Family

ID=11518839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP206197A Pending JPH10198643A (en) 1997-01-09 1997-01-09 Distributed computer system

Country Status (1)

Country Link
JP (1) JPH10198643A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005062176A1 (en) * 2003-12-18 2005-07-07 Club It Corporation Server/client system, load distribution device, load distribution method, and load distribution program
CN1300693C (en) * 2003-04-16 2007-02-14 富士通株式会社 Device for adjusting used of system resource and its method
JP2009075827A (en) * 2007-09-20 2009-04-09 Panasonic Corp Program execution device
JP2010146382A (en) * 2008-12-19 2010-07-01 Nec Corp Load balancing system, load balancing method and load balancing program
JP2011076371A (en) * 2009-09-30 2011-04-14 Hitachi Information Systems Ltd Job processing system, and method and program for the same
WO2012056596A1 (en) * 2010-10-28 2012-05-03 株式会社日立製作所 Computer system and processing control method
WO2013038566A1 (en) * 2011-09-16 2013-03-21 富士通株式会社 Computer system
WO2016084327A1 (en) * 2014-11-27 2016-06-02 日本電気株式会社 Resource prediction device, resource prediction method, resource prediction program and distributed processing system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1300693C (en) * 2003-04-16 2007-02-14 富士通株式会社 Device for adjusting used of system resource and its method
WO2005062176A1 (en) * 2003-12-18 2005-07-07 Club It Corporation Server/client system, load distribution device, load distribution method, and load distribution program
US7992152B2 (en) 2003-12-18 2011-08-02 G-Cluster Global Corporation Server/client system, load distribution device, load distribution method, and load distribution program
JP2009075827A (en) * 2007-09-20 2009-04-09 Panasonic Corp Program execution device
JP2010146382A (en) * 2008-12-19 2010-07-01 Nec Corp Load balancing system, load balancing method and load balancing program
JP2011076371A (en) * 2009-09-30 2011-04-14 Hitachi Information Systems Ltd Job processing system, and method and program for the same
WO2012056596A1 (en) * 2010-10-28 2012-05-03 株式会社日立製作所 Computer system and processing control method
US9396026B2 (en) 2010-10-28 2016-07-19 Hitachi, Ltd. Allocating a task to a computer based on determined resources
WO2013038566A1 (en) * 2011-09-16 2013-03-21 富士通株式会社 Computer system
JPWO2013038566A1 (en) * 2011-09-16 2015-03-23 富士通株式会社 Computer system
US9400691B2 (en) 2011-09-16 2016-07-26 Fujitsu Limited Process allocation management apparatus, system and method
WO2016084327A1 (en) * 2014-11-27 2016-06-02 日本電気株式会社 Resource prediction device, resource prediction method, resource prediction program and distributed processing system

Similar Documents

Publication Publication Date Title
US11922198B2 (en) Assignment of resources in virtual machine pools
JP5939740B2 (en) Method, system and program for dynamically allocating resources
JP6254949B2 (en) Pricing resources in virtual machine pools
CN100407152C (en) Methods and systems for multi-policy resource scheduling
US9372735B2 (en) Auto-scaling of pool of virtual machines based on auto-scaling rules of user associated with the pool
CN101645022B (en) Work scheduling management system and method for a plurality of colonies
US20130179894A1 (en) Platform as a service job scheduling
EP2802981A1 (en) Decoupling paas resources, jobs, and scheduling
JP2005196602A (en) System configuration changing method in unshared type database management system
CN111427675A (en) Data processing method and device and computer readable storage medium
CN114138434B (en) Big data task scheduling system
JP5790758B2 (en) Scheduling method and scheduling system
JPH10198643A (en) Distributed computer system
JP5997269B2 (en) Method and system for processing data to modify a database
CN115102851B (en) Fusion platform for HPC and AI fusion calculation and resource management method thereof
CN116795541A (en) Resource scheduling and resource scheduling query method, equipment and medium
CN114816741A (en) GPU resource management method, device and system and readable storage medium
JP2004192400A (en) Job scheduling method and system
US20230050163A1 (en) Apparatuses and methods for scheduling computing resources
KR20190061241A (en) Mesos process apparatus for unified management of resource and method for the same
JP2004013866A (en) Distributed processing system, task assigning device, and task assigning method and program used for the same
JPH0417057A (en) Job scheduling system for composite type system
CN117336258A (en) Scheduling method and device of cloud cluster, electronic equipment and storage medium
US20100242047A1 (en) Distributed processing system, control unit, and client
US20130042247A1 (en) Starvationless Kernel-Aware Distributed Scheduling of Software Licenses