JP4797095B2 - バッチ処理多重化方法 - Google Patents

バッチ処理多重化方法 Download PDF

Info

Publication number
JP4797095B2
JP4797095B2 JP2009172674A JP2009172674A JP4797095B2 JP 4797095 B2 JP4797095 B2 JP 4797095B2 JP 2009172674 A JP2009172674 A JP 2009172674A JP 2009172674 A JP2009172674 A JP 2009172674A JP 4797095 B2 JP4797095 B2 JP 4797095B2
Authority
JP
Japan
Prior art keywords
multiplicity
job
execution
temporary
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009172674A
Other languages
English (en)
Other versions
JP2011028464A (ja
Inventor
哲史 塚本
秀行 加藤
秀喜 石合
裕己 立石
隆宏 久馬
洋三 伊藤
健 藤澤
昌明 細内
和彦 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009172674A priority Critical patent/JP4797095B2/ja
Priority to US12/841,961 priority patent/US20110131579A1/en
Priority to KR1020100071372A priority patent/KR101171543B1/ko
Priority to CN2010102368039A priority patent/CN101963923A/zh
Publication of JP2011028464A publication Critical patent/JP2011028464A/ja
Application granted granted Critical
Publication of JP4797095B2 publication Critical patent/JP4797095B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/04Trading; Exchange, e.g. stocks, commodities, derivatives or currency exchange
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5017Task decomposition

Description

本発明は、いわゆるバッチ処理を効率的に行う技術に関する。その中でも特に、口座バッチ等の大量データに対するバッチ処理を高速に実行するため、複数のノードを利用してバッチジョブを並列実行する際の最適な処理の多重度を決定する技術に関する。
従来、バッチジョブの実行については、特許文献1に開示される技術が提案されている。特許文献1においては、ジョブの実行順序が定義されたジョブネットに関するスクリプトデータの入力を受け付け、前記スクリプトデータに基づいて、前期ジョブネットの実行に利用する資源ノードの割当要求を前期ジョブネットごとに行うことにより、当該割当要求に応じて割り当てられた資源ノードを前期ジョブネットごとに割り振ることが記載されている。
特開2008-226181号公報
バッチ処理においては、突発的に処理すべきデータ量が増加する場合が存在する。例えば、証券業界のシステムの課題として、投資信託の月末再投資処理で特定日に全口座の処理が必要となる、経済状況によりある日突然株式売買件数が増える、IPO(新規株式公開)の集中により売買件数が増えるといった事によりバッチ処理時間が増えるといった課題があり、その結果、日々のバッチ処理量の激しい変動に伴うバッチ処理の長時間化による翌日オンライン開始時間の遅延により、顧客に対してのオンラインサービス提供時間の縮小に繋がる事や、長時間化したバッチ処理と同一ノード内で同時実行している他業務のバッチ処理等の処理時間にも影響を与え、結果、他業務のオンライン開始も遅延する事といった課題がある為、日々の変動が発生してもバッチ処理時間を均一で終わらせる事が必要となる。
上述した問題を解決する為、本発明では、バッチジョブを複数のノードにおいて実行する際に、その並行処理含む処理の多重度を動的に設定するものである。これにより、本発明では、実行多重度及び実行ノードを柔軟に設定し、リソースを有効活用する事でバッチ処理時間を短縮するしくみを提供する。特定日などでのバッチ処理件数の増加時においても、バッチ処理をスケールアウトして処理を行う事で、処理件数の変動に問わず処理時間を均一にする(近付ける)事が可能となる。これにより、特定日の大量データのバッチ処理によるバッチ処理時間の長時間化による翌日オンライン開始遅延等の懸念を前もって取り除く事が可能となる。
また、バッチ処理においては、各々処理の特性があり、CPUリソースを必要とするバッチ処理、ディスクリソースを必要とバッチ処理がある為、本発明においては利用者がジョブグループごとにパラメータを設定することで、実行多重度の決定方式を2種類から選択することができ、実行するジョブの種類や入力データの配置に応じて最適な方式でジョブの実行多重度を決定することを可能とし、よりバッチ時間の短縮を可能とする仕組みを提供する。
本発明によれば、より効率的にバッチ処理を実行することが可能になる。
本発明の一実施形態における構成機器の全体構成を示した図である。 ジョブ管理ノード上のノード管理テーブルの内容を示した図である。 ジョブ管理ノード上のサブジョブ管理テーブルの内容を示した図である。 ジョブ管理ノード上のジョブ管理テーブルの内容を示した図である。 ジョブ管理ノード上のデータ配置情報テーブルの内容を示した図である。 ジョブ管理ノード上のジョブグループ実行条件テーブルの内容を示した図である。 ジョブ管理ノード上のジョブグループ実行ノードグループテーブルの内容を示した図である。 本発明の一実施形態におけるジョブ実行のフローを示した図である。 サブジョブ同期方式を用いた場合の多重度決定のフローを示した図の前半である。 サブジョブ同期方式を用いた場合の多重度決定のフローを示した図の後半である。 サブジョブ並列方式を用いた場合の多重度決定のフローを示した図である。
添付図面を参照し、本発明を実施するための形態について詳細に説明する。以下の実施の形態は例示であり、本発明は、下記の構成に限定されない。
なお、本説明では、便宜上、バッチ処理プロセス1つに対し、CPUコア数204を1つ割り当てる設定で記述するが、物理的なCPUコア数に依存するものではなく、ノード201に対しての処理多重度数(CPUコア数201)を任意に設定する事が可能である。マルチスレッド等のように複数スレッドになる場合や、ハイパースレッドを使用するような場合においても状況に応じて任意に設定可能となる。
図1に、本発明の一実施形態におけるシステム全体の構成を示す。本発明の実施におけるシステムは、クライアントノード101、ジョブ管理ノード102、ジョブ実行ノード103-105によって構成される。これらの構成機器は相互に疎通が可能な状態で接続されている。利用者はこれらの構成機器のうちクライアントノード101を通じて、システムに対しての設定を行うことが可能である。具体的には、ジョブグループ実行条件テーブル110の最小多重度242、最大多重度243、処理対象データの開始キー244、終了キー245、実行オプション246の指定を利用者が行うことが可能である。この場合、利用者によるクライアントノード101を通じた設定の手段は問わない。
次にフローチャート(図8〜図11)を参照し、本発明の実施における処理の流れを説明する。
まず、ジョブ実行開始前の段階で、ジョブ管理ノード102上のノード管理テーブル109、ジョブ管理テーブル108、データ配置情報テーブル114、ジョブグループ実行条件テーブル110、ジョブグループ実行ノードグループテーブル114の各パラメータには値が設定されている。ここで、パラメータの形式、設定方法及び配置場所は問わない。
時刻起動などジョブグループの開始条件が満たされると、ジョブ管理ノード102上でジョブ管理部106がジョブグループを起動開始する(ステップ301)。このときのジョブグループの開始条件は従来のジョブの開始条件と同様であり、その種類として時刻起動、ログ・イベント監視、先行ジョブ、ファイル作成、手動機能などがある。本実施形態においては、開始条件の種類は問わない。
いずれかの開始条件によってジョブの起動が開始すると、ジョブ管理ノード102上のジョブ管理部106がジョブグループ実行条件テーブル110から、ジョブグループの最小多重度242・最大多重度243と処理対象データの開始キー244、終了キー245、実行オプション246を取得する(ステップ302)。
次に、ジョブ管理部106がジョブグループ実行ノードグループテーブル114から、開始したジョブグループ251に対応するノードグループ252の情報を取得する(ステップ303)。
次に、ジョブ管理部106がノード多重度計算部107にジョブグループの最小多重度242、最大多重度243、処理対象データの開始キー244、終了キー245、実行するノードグループ252の情報を引き渡し、ジョブ多重度計算部107がジョブ実行時の多重度の計算を行う(ステップ304)。ノード多重度計算部107は、ジョブ管理部106より引き渡された実行オプション246によって、ジョブグループの多重度の決定方式がサブジョブ同期方式とサブジョブ並列方式のどちらであるかを決定する(ステップ305)。
続いて、サブジョブ同期方式とサブジョブ並列方式それぞれにおける、ジョブ実行多重度の決定方式について説明する。
まず、サブジョブ同期方式における多重度決定の処理について説明する。サブジョブ同期方式は、各ジョブ実行ノード103-105のCPU負荷状況に応じ処理多重度を決定することで、最適な多重度でジョブを実行する方式である。サブジョブ同期方式ではまず仮多重度が決定され、仮多重度を基に、最終的な多重度が決定される。仮多重度はジョブグループ実行条件テーブル110の最小多重度242と最大多重度243の範囲の中で、空きコア数のうちもっとも多くのコア数を占有(利用)する多重度である。仮多重度を基に算出する多重度は、それぞれのジョブ実行ノード103-105の性能を考慮に入れたうえで算出する、CPUリソースを最も効率的に使用するための最終的な多重度である。多重度決定の前に一度仮多重度を決定することで、各多重度における処理性能を算出することなく最適な多重度を求めることが可能になり、多重度算出処理の短縮化が実現される。
ジョブ管理ノード102のノード多重度計算部107が計算を開始すると(ステップ313)、ジョブグループ実行条件テーブル110の最大多重度243と、ノード管理テーブル109の空きコア数206の合計を比較する(ステップ315)。比較の結果、空きコア数206の合計が最大多重度243以上である場合、ノード管理テーブル109の性能比が高いノードを優先に最大多重度分空きコアを占有する。この場合、空きコア数206の合計が仮多重度となる(ステップ316)。
空きコア数206の合計よりも最大多重度243の方が大きい場合、ジョブグループ実行条件テーブル110の最小多重度242とノード管理テーブル109の空きコア数206の合計を比較する(ステップ318)。この比較の結果、最小多重度242が空きコア数206の合計以下である場合、空きコア分をそれぞれ占有し、空きコア数206が仮多重度となる(ステップ317)。最小多重度242が空きコア数206の合計よりも大きい場合、空いているコアを占有し、ノード管理テーブル201の性能比が大きいノードを優先に、最小多重度分1ノードに対して1多重度ずつ割り当てる(ステップ320)。この場合、仮多重度は最小多重度と同一の値となる。
空きコア数が0の場合は、ノード多重度計算部107がノード管理テーブル201のCPU割当方法を参照し、各ノードに設定されている割当方法に従ってCPUの割当を行う(ステップ321)。CPU割当方法が「他ノード」の場合は、他ノードに割り当てを行う(ステップ321)。CPU割当方法が「待機」の場合は、空きコア数が1以上になるまで待機する(ステップ320)。この場合、当該時点でCPUを占有しているジョブの実行には影響を与えず、先行ジョブがCPUを開放し空きコアが発生するまで待機する。
この時点で、ノード多重度計算部107は仮多重度を決定する(ステップ322)。仮多重度を決定すると、ノード多重度計算部107は仮多重度を基に多重度を決定するための処理を開始する。
まず、仮多重度が最大多重度243と一致するかどうかの判断を行う(ステップ323)。仮多重度が最大多重度243と一致しない場合、仮多重度+1の多重度で処理量を計算する(ステップ325)。この処理量とは、ノード管理テーブル201上の性能比203とCPUコア数204の数値より算出される、各ノードの処理性能を表す指数である。同じジョブを処理する場合、処理量の大きなノードで処理を行う方が、処理時間は短縮される。
空きコア数がマイナスの場合、すなわち空きコア数の合計がジョブの数を下回る場合は、(空きコア数/ジョブ数)という計算を行い、計算の結果を処理量とする(ステップ324)。
処理量を算出した後、仮多重度の処理量と仮多重度+1の処理量を比較する(ステップ326)。仮多重度+1の処理量のほうが大きい場合は、仮多重度に+1し、再び仮多重度が最大多重度と一致するかどうかの判断を行う(ステップ325)。このような処理を行うことで、仮多重度の値を最大多重度以下の範囲でどこまで増加させるかを決定する。
同様のアルゴリズムを用いて、仮多重度の数値を最小多重度以上の範囲でどこまで低下させるかの判断を行う。このとき、仮多重度と仮多重度-1の処理量を比較し(ステップ330)、仮多重度-1の処理量が上回った場合は、仮多重度に-1(仮多重度から1マイナスする)をする(ステップ329)。
上記のアルゴリズムに従って仮多重度の数値を調整することで、最も多くの処理量を処理できる多重度を算出し、(最終的な)多重度として決定する(ステップ331)。なお、ここでの多重度としては、最も多く、ではなく、2番目に多いなどとしても構わない。
以上の方法で多重度を決定した後、ノード多重度計算部107はジョブ管理部106に多重度の情報を送る。
サブジョブ同期方式では、各ジョブ実行ノード103-105のCPU使用状況に応じて処理多重度を算出することで、最適な多重度でジョブを実行する方式を提供する。
次に、サブジョブ並列方式における多重度決定の処理について説明する。サブジョブ並列方式は、ジョブの入力ファイルが配置されているノードを認識し、ファイルが配置されているノードでジョブを実行することで、極力通信負荷の少ない状態でジョブを実行する方式を提供する。なお、ここで入力ファイルの配置形式及び配置場所は問わない。
ノード多重度計算部107がサブジョブ並列方式で多重度計算を開始すると、データ配置情報テーブル112を参照し、実行するジョブの入力ファイルの分割数を取得する(ステップ332)。この分割数が、ジョブ実行の多重度となる(ステップ333)。このとき、各ジョブを実行するノードは処理対象のデータが配置されているノードと一致させる。たとえば、キー#1から#100のファイルが配置されているノードでは、キー#1から#100のファイルを対象に処理を行うジョブを実行する。
サブジョブ並列方式では、処理対象のファイルの配置されているノード上で、そのファイルに対し処理を行うジョブを実行する。これにより、別のノードのファイルに対し処理を行う必要がなくなり、ジョブ実行の際の通信負荷を軽減することが可能となる。
多重度を決定すると、ジョブ管理部106がノード多重度計算部107から各サブジョブの実行情報を取得し、サブジョブ管理テーブル113を作成する(ステップ308)。
ジョブ管理ノード102のジョブ実行指示部111が、サブジョブ管理テーブル202を基に、各ジョブ実行ノード103-105に対しジョブ実行の指示を行う(ステップ309)。実行の指示を受けた各ジョブ実行ノード103-105は、引き渡されたジョブ実行指示に基づきジョブを実行する(ステップ310)。
ジョブの実行が終了すると、ジョブ管理部106がサブジョブ管理テーブル202上の各サブジョブの実行ステータスを更新する(ステップ311)。
101・・・クライアントノード101、102・・・ジョブ管理ノード102、103〜105・・・ジョブ実行ノード

Claims (6)

  1. 分散配置された複数のノードを用いたバッチジョブの実行におけるジョブの実行多重度決定を、前記複数のノードと接続されたジョブ管理装置により行うバッチ処理多重化方法において、
    前記バッチジョブを構成するジョブグループごとに実行するノードグループの選択を利用者から受け付け、
    選択されたノードグループを構成する前記ノードの性能および負荷状況であるノードの状況もしくは前記バッチジョブの入力ファイル状況を検知し、
    前記利用者により選択された実行多重度決定方式である(1)サブジョブ同期方式ないし(2)サブジョブ並行方式のいずれを用いて、前記検知された前記ノードの状況もしくは前記バッチジョブの入力ファイル状況を用いて、前記バッチジョブを処理する前記ノードグループを構成するノードの数を示す実行多重度数を決定し、
    当該実行多重度数の決定を、(1)前記サブジョブ同期方式を用いる場合、予め定められた最小多重度数と最大多重度数の範囲の中で空きコア数のうち最も多くのコア数を利用する多重度数である仮多重度数を仮定し、仮定された前記仮多重度数に基づいて前記実行多重度数を決定し、(2)前記サブジョブ並行方式を用いる場合、前記実行多重度数を入力ファイルの分割数と同値とし、
    決定された前記実行多重度数に従った数のノードを、前記ノードグループから選択し、
    選択された前記ノードにおいて前記バッチジョブを多重化処理することを特徴とするバッチ処理多重化方法。
  2. 請求項1に記載のバッチ処理多重化方法において、
    前記実行多重化数の決定では、前記サブジョブ同期方式を用いる場合、前記仮多重度数と前記最大多重度数を比較し、当該比較の結果一致しない場合、前記仮多重度数における前記複数のノードそれぞれの処理性能である第1の処理量と前記仮多重度数に1加えた多重度数における前記複数のノードそれぞれの処理性能である第2の処理量を比較して、前記第2の処理量が大きな場合には、前記仮多重度数に1加えた多重度数と前記最大多重度数を比較することで仮多重度数を前記最大多重度数以下の範囲でどこまで増加させるかを決定することを特徴とするバッチ処理多重化方法。
  3. 請求項2に記載のバッチ処理多重化方法において、
    前記実行多重化数の決定では、前記最大多重度数以下の範囲でどこまで増加させるか決定された仮多重度数について、当該決定された仮多重度数と前記最小多重度数を比較し、当該比較の結果一致しない場合、前記結滞された仮多重度数における前記複数のノードそれぞれの処理性能である第3の処理量と前記決定された仮多重度数から1減じた多重度数における前記複数のノードそれぞれの処理性能である第4の処理量を比較して、前記第4の処理量が大きな場合には、前記仮多重度数から1減じた多重度数と前記最少多重度数を比較することで仮多重度数を前記最少多重度数以上の範囲でどこまで減少させるかを決定することを特徴とするバッチ処理多重化方法。
  4. 分散配置された複数のノードを用いたバッチジョブの実行におけるジョブの実行多重度決定を行うジョブ管理装置であって、前記複数のノードと接続されたジョブ管理装置において、
    前記バッチジョブを構成するジョブグループごとに実行するノードグループの選択を利用者から受け付ける手段と、
    選択されたノードグループを構成する前記ノードの性能および負荷状況であるノードの状況もしくは前記バッチジョブの入力ファイル状況を検知する手段と、
    前記利用者により選択された実行多重度決定方式である(1)サブジョブ同期方式ないし(2)サブジョブ並行方式のいずれを用いて、前記検知された前記ノードの状況もしくは前記バッチジョブの入力ファイル状況を用いて、前記バッチジョブを処理する前記ノードグループを構成するノードの数を示す実行多重度数を決定する手段と、
    決定された前記実行多重度数に従った数のノードを、前記ノードグループから選択する手段と、
    選択された前記ノードにおいて前記バッチジョブを多重化処理する手段とを有し、
    前記実行多重度数を決定する手段は、(1)前記サブジョブ同期方式を用いる場合、予め定められた最小多重度数と最大多重度数の範囲の中で空きコア数のうち最も多くのコア数を利用する多重度数である仮多重度数を仮定し、仮定された前記仮多重度数に基づいて前記実行多重度数を決定し、(2)前記サブジョブ並行方式を用いる場合、前記実行多重度数を入力ファイルの分割数と同値とすることを特徴とするジョブ管理装置。
  5. 請求項4に記載のジョブ管理装置において、
    前記実行多重化数を決定する手段は、前記サブジョブ同期方式を用いる場合、前記仮多重度数と前記最大多重度数を比較し、当該比較の結果一致しない場合、前記仮多重度数における前記複数のノードそれぞれの処理性能である第1の処理量と前記仮多重度数に1加えた多重度数における前記複数のノードそれぞれの処理性能である第2の処理量を比較して、前記第2の処理量が大きな場合には、前記仮多重度数に1加えた多重度数と前記最大多重度数を比較することで仮多重度数を前記最大多重度数以下の範囲でどこまで増加させるかを決定することを特徴とするジョブ管理装置。
  6. 請求項5に記載のジョブ管理装置において、
    前記実行多重化数を決定する手段は、前記最大多重度数以下の範囲でどこまで増加させるか決定された仮多重度数について、当該決定された仮多重度数と前記最小多重度数を比較し、当該比較の結果一致しない場合、前記結滞された仮多重度数における前記複数のノードそれぞれの処理性能である第3の処理量と前記決定された仮多重度数から1減じた多重度数における前記複数のノードそれぞれの処理性能である第4の処理量を比較して、前記第4の処理量が大きな場合には、前記仮多重度数から1減じた多重度数と前記最少多重度数を比較することで仮多重度数を前記最少多重度数以上の範囲でどこまで減少させるかを決定することを特徴とするジョブ管理装置。
JP2009172674A 2009-07-24 2009-07-24 バッチ処理多重化方法 Expired - Fee Related JP4797095B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009172674A JP4797095B2 (ja) 2009-07-24 2009-07-24 バッチ処理多重化方法
US12/841,961 US20110131579A1 (en) 2009-07-24 2010-07-22 Batch job multiplex processing method
KR1020100071372A KR101171543B1 (ko) 2009-07-24 2010-07-23 배치 처리 다중화 방법
CN2010102368039A CN101963923A (zh) 2009-07-24 2010-07-23 批量处理多重化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009172674A JP4797095B2 (ja) 2009-07-24 2009-07-24 バッチ処理多重化方法

Publications (2)

Publication Number Publication Date
JP2011028464A JP2011028464A (ja) 2011-02-10
JP4797095B2 true JP4797095B2 (ja) 2011-10-19

Family

ID=43516802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009172674A Expired - Fee Related JP4797095B2 (ja) 2009-07-24 2009-07-24 バッチ処理多重化方法

Country Status (4)

Country Link
US (1) US20110131579A1 (ja)
JP (1) JP4797095B2 (ja)
KR (1) KR101171543B1 (ja)
CN (1) CN101963923A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5388134B2 (ja) * 2010-08-06 2014-01-15 株式会社日立製作所 計算機システム、及び、移動データ決定方法
US8640137B1 (en) * 2010-08-30 2014-01-28 Adobe Systems Incorporated Methods and apparatus for resource management in cluster computing
CN102497415A (zh) * 2011-03-22 2012-06-13 苏州阔地网络科技有限公司 一种文件批量处理的传输控制方法及系统
CN102226890B (zh) * 2011-06-10 2013-03-20 中国工商银行股份有限公司 一种主机批量作业数据监控方法及装置
JP2013047892A (ja) * 2011-08-29 2013-03-07 Fujitsu Ltd 情報処理装置、スケジューリング方法およびプログラム
US9244721B2 (en) 2011-11-24 2016-01-26 Hitachi, Ltd. Computer system and divided job processing method and program
US10296380B1 (en) * 2016-09-19 2019-05-21 Amazon Technologies, Inc. Distributed computing with adaptive parallelization
CN109766168B (zh) * 2017-11-09 2023-01-17 阿里巴巴集团控股有限公司 任务调度方法和装置、存储介质以及计算设备
JP6996341B2 (ja) * 2018-02-27 2022-01-17 日本電信電話株式会社 見積り装置および見積り方法
US11347564B2 (en) * 2019-04-24 2022-05-31 Red Hat, Inc. Synchronizing batch job status across nodes on a clustered system

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967999B2 (ja) * 1989-07-06 1999-10-25 富士通株式会社 プロセスの実行多重度制御処理装置
JP3541212B2 (ja) * 1993-12-28 2004-07-07 富士通株式会社 プロセッサ割当て装置
US6393455B1 (en) * 1997-03-28 2002-05-21 International Business Machines Corp. Workload management method to enhance shared resource access in a multisystem environment
JP2973973B2 (ja) * 1997-05-27 1999-11-08 日本電気株式会社 並列計算における動的負荷分散方法、動的負荷分散装置及び動的負荷分散プログラムを記録した記録媒体
JPH1153325A (ja) * 1997-07-31 1999-02-26 Hitachi Ltd 負荷分散方法
JPH1165862A (ja) * 1997-08-14 1999-03-09 Nec Corp マルチプロセッサ資源分割管理方式
US6609131B1 (en) * 1999-09-27 2003-08-19 Oracle International Corporation Parallel partition-wise joins
JP2001160040A (ja) * 1999-12-01 2001-06-12 Nec Corp サーバ多重度制御装置、サーバ多重度制御方法およびサーバ多重度制御プログラムを記録した記録媒体
JP2002014829A (ja) * 2000-06-30 2002-01-18 Japan Research Institute Ltd 並列処理制御システム,方法および並列処理制御のためのプログラムを格納した媒体
JP2004038226A (ja) * 2002-06-28 2004-02-05 Hitachi Ltd Pcクラスタおよびその中間ソフトウエア
JP4197303B2 (ja) * 2004-02-17 2008-12-17 株式会社日立製作所 計算機リソース管理方法及び実施装置並びに処理プログラム
US8335909B2 (en) * 2004-04-15 2012-12-18 Raytheon Company Coupling processors to each other for high performance computing (HPC)
JP2006209165A (ja) * 2005-01-25 2006-08-10 Hitachi Ltd 同時実行多重度調整システム及び方法
JP2006236123A (ja) * 2005-02-25 2006-09-07 Fujitsu Ltd ジョブ分散プログラム、ジョブ分散方法およびジョブ分散装置
JP4170302B2 (ja) * 2005-03-10 2008-10-22 富士通株式会社 負荷制御装置および負荷制御プログラム
JP2007249445A (ja) * 2006-03-15 2007-09-27 Hitachi Ltd クラスタシステムの負荷分散制御方法およびその装置
JP2007249491A (ja) * 2006-03-15 2007-09-27 Fujitsu Ltd マルチサーバ環境においてバッチジョブを分散させるプログラム、装置、および方法
JP2008226181A (ja) * 2007-03-15 2008-09-25 Fujitsu Ltd 並列実行プログラム、該プログラムを記録した記録媒体、並列実行装置および並列実行方法
US8990820B2 (en) * 2008-12-19 2015-03-24 Microsoft Corporation Runtime task with inherited dependencies for batch processing

Also Published As

Publication number Publication date
KR20110010577A (ko) 2011-02-01
CN101963923A (zh) 2011-02-02
US20110131579A1 (en) 2011-06-02
KR101171543B1 (ko) 2012-08-06
JP2011028464A (ja) 2011-02-10

Similar Documents

Publication Publication Date Title
JP4797095B2 (ja) バッチ処理多重化方法
CN113238838B (zh) 一种任务调度方法、装置及计算机可读存储介质
US8250574B2 (en) Virtual machine management via use of table in which virtual machine information is registered on a time basis
US20150295970A1 (en) Method and device for augmenting and releasing capacity of computing resources in real-time stream computing system
WO2010082244A1 (ja) 情報処理装置および情報処理方法
US20090254909A1 (en) Methods and Apparatus for Power-aware Workload Allocation in Performance-managed Computing Environments
JP5880542B2 (ja) マルチコアプロセッサシステムおよびスケジューリング方法
US11438271B2 (en) Method, electronic device and computer program product of load balancing
JP6428476B2 (ja) 並列化コンパイル方法、及び並列化コンパイラ
CN104679590A (zh) 分布式计算系统中的Map优化方法及装置
CN111858062A (zh) 评估规则优化方法、业务评估方法及相关设备
US20090187705A1 (en) Fair and dynamic disk input/output bandwidth distribution
JP2007310749A (ja) サーバリソース提供システム及びサーバリソース提供方法
CN111104218B (zh) 存储系统数据同步方法、装置、设备及可读存储介质
CN112000469A (zh) 保证关键微服务性能质量和降低机器功耗的方法及系统
CN111367645A (zh) 一种实时任务调度控制方法、系统、设备及可读存储介质
CN111143063A (zh) 任务的资源预约方法及装置
JP2008158687A (ja) 帯域制御プログラム及びマルチプロセッサシステム
CN111158896A (zh) 一种分布式进程调度方法及系统
CN114860449A (zh) 数据处理方法、装置、设备和存储介质
CN114579309A (zh) 一种数据处理方法和装置
JP5417626B2 (ja) 管理計算機、ジョブスケジューリング方法及びジョブスケジューリングプログラム
CN107085536B (zh) 一种任务管理方法和装置
CN111176848A (zh) 集群任务的处理方法、装置、设备和存储介质
CN109885261B (zh) 一种提高存储系统性能的方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110420

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110801

R151 Written notification of patent or utility model registration

Ref document number: 4797095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees