JP2016081430A - 情報処理システム、制御装置および情報処理システムの制御方法 - Google Patents

情報処理システム、制御装置および情報処理システムの制御方法 Download PDF

Info

Publication number
JP2016081430A
JP2016081430A JP2014214644A JP2014214644A JP2016081430A JP 2016081430 A JP2016081430 A JP 2016081430A JP 2014214644 A JP2014214644 A JP 2014214644A JP 2014214644 A JP2014214644 A JP 2014214644A JP 2016081430 A JP2016081430 A JP 2016081430A
Authority
JP
Japan
Prior art keywords
job
physical
unit
input
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014214644A
Other languages
English (en)
Other versions
JP6358042B2 (ja
Inventor
貴継 小野
Takatsugu Ono
貴継 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014214644A priority Critical patent/JP6358042B2/ja
Priority to US14/884,098 priority patent/US10108463B2/en
Publication of JP2016081430A publication Critical patent/JP2016081430A/ja
Application granted granted Critical
Publication of JP6358042B2 publication Critical patent/JP6358042B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】 複数のタイプのジョブを実行する場合に、ジョブの処理効率を向上する。
【解決手段】 物理計算ノードと入出力装置とを備える情報処理装置を制御する制御装置は、物理計算ノードのいずれかにジョブを投入する第1のジョブ投入部と、物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入する第2のジョブ投入部と、物理計算ノードのいずれかに入出力装置を接続する構成変更部と、第1のジョブ投入部が投入した物理計算ノードの負荷を示す負荷情報を監視する監視部と、負荷情報に基づいて物理計算ノードによりジョブを実行する場合、入出力装置を接続した物理計算ノードにジョブを投入し、負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードにジョブを投入する制御部と有する。
【選択図】 図1

Description

本発明は、情報処理システム、制御装置および情報処理システムの制御方法に関する。
仮想計算機システム等の情報処理システムが実行するジョブのタイプとして、演算処理を主に実行するジョブと入出力装置へのアクセスを主に実行するジョブとがある。演算処理を主に実行するジョブは、入出力装置へのアクセスを主に実行するジョブに比べて、CPU(Central Processing Unit)に掛かる負荷が高い。例えば、仮想計算機システムにおいて、演算処理を主に実行するジョブと、入出力装置へのアクセスを主に実行するジョブとを互いに異なるCPUで実行させ、各CPUの仮想計算機への割り当て時間を相違させる手法が提案されている(例えば、特許文献1参照)。
また、サーバ等の情報処理装置上で動作する複数の仮想マシンが、互いに異なる種類の処理を実行する場合、仮想マシン毎に優先度を設定し、優先度の高い仮想マシンが実行する処理が停滞することを抑止する手法が提案されている(例えば、特許文献2参照)。
特開2009−223842号公報 特開2013−196062号方法
しかしながら、仮想マシンは、物理マシンに比べて演算の処理能力が低いため、演算処理を主に実行するジョブを仮想マシンで実行させる場合、物理マシンで実行させる場合に比べて、ジョブの処理効率は低下する。ジョブの処理効率を向上するためには、ジョブを仮想マシンで実行させるか物理マシンで実行させるかを、ジョブのタイプに応じて判断することが好ましい。
本件開示の情報処理システム、制御装置および情報処理システムの制御方法は、複数のタイプのジョブを実行する場合に、ジョブの処理効率を向上することを目的とする。
一つの観点によれば、複数の物理計算ノードと複数の物理計算ノードのいずれかに接続する入出力装置とを備える情報処理装置と、情報処理装置を制御する制御装置とを有する情報処理システムにおいて、制御装置は、複数の物理計算ノードのいずれかにジョブを投入する第1のジョブ投入部と、複数の物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入する第2のジョブ投入部と、複数の物理計算ノードのいずれかに入出力装置を接続する構成変更部と、第1のジョブ投入部が、複数の物理計算ノードのいずれかにジョブを投入した場合、ジョブを投入した物理計算ノードの負荷を示す負荷情報を監視する監視部と、負荷情報に基づいて物理計算ノードによりジョブを実行する場合、構成変更部が入出力装置を接続した物理計算ノードに第1のジョブ投入部を介してジョブを投入し、負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、構成変更部が入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードに、第2のジョブ投入部を介してジョブを投入する制御部を有する。
別の観点によれば、複数の物理計算ノードと複数の物理計算ノードのいずれかに接続する入出力装置とを備える情報処理装置を制御する制御装置は、複数の物理計算ノードのいずれかにジョブを投入する第1のジョブ投入部と、複数の物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入する第2のジョブ投入部と、複数の物理計算ノードのいずれかに入出力装置を接続する構成変更部と、第1のジョブ投入部が、複数の物理計算ノードのいずれかにジョブを投入した場合、ジョブを投入した物理計算ノードの負荷を示す負荷情報を監視する監視部と、負荷情報に基づいて物理計算ノードによりジョブを実行する場合、構成変更部が入出力装置を接続した物理計算ノードに第1のジョブ投入部を介してジョブを投入し、負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、構成変更部が入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードに、第2のジョブ投入部を介してジョブを投入する制御部を有する。
別の観点によれば、複数の物理計算ノードと複数の物理計算ノードのいずれかに接続する入出力装置とを備える情報処理装置と、情報処理装置を制御する制御装置とを有する情報処理システムの制御方法は、制御装置が有する第1のジョブ投入部が、複数の物理計算ノードのいずれかにジョブを投入し、制御装置が有する第2のジョブ投入部が、複数の物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入し、制御装置が有する構成変更部が、複数の物理計算ノードのいずれかに入出力装置を接続し、制御装置が有する監視部が、第1のジョブ投入部が、複数の物理計算ノードのいずれかにジョブを投入した場合、ジョブを投入した物理計算ノードの負荷を示す負荷情報を監視し、制御装置が有する制御部が、負荷情報に基づいて物理計算ノードによりジョブを実行する場合、構成変更部が入出力装置を接続した物理計算ノードに第1のジョブ投入部を介してジョブを投入し、負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、構成変更部が入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードに、第2のジョブ投入部を介してジョブを投入する。
本件開示の情報処理システム、制御装置および情報処理システムの制御方法は、複数のタイプのジョブを実行する場合に、ジョブの処理効率を向上することができる。
情報処理システム、制御装置および情報処理システムの制御方法の一実施形態を示す図である。 情報処理システム、制御装置および情報処理システムの制御方法の別の実施形態を示す図である。 図2に示す情報処理システムにおいて、ジョブのタイプによる情報処理装置の構成の例を示す図である。 図2に示すリソースデータベースの一例を示す図である。 図2に示す情報処理システムの動作の一例を示す図である。 図5に示す動作の続きの一例を示す図である。 図6に示す動作の続きの一例を示す図である。 図7(a)において低負荷タイプのジョブA0を実行中のリソースデータベースの一例を示す図である。 図7に示す動作の続きの一例を示す図である。 図9に示す動作の続きの一例を示す図である。 図10(a)において高負荷タイプのジョブA1を実行中のリソースデータベースの一例を示す図である。 図10に示す動作の続きの一例を示す図である。 図12に示す動作の続きの一例を示す図である。 図2に示す負荷分析部の動作の一例を示す図である。 図2に示すジョブ割り当て部の動作の一例を示す図である。 図2に示すジョブ割り当て部の動作の別の一例を示す図である。 図2に示す情報処理システムにおけるジョブの処理時間の一例を示す図である。
以下、図面を用いて実施形態を説明する。
図1は、情報処理システム、制御装置および情報処理システムの制御方法の一実施形態を示す。図1に示す情報処理システムSYSは、情報処理装置200と、情報処理装置200を制御する制御装置100とを有する。制御装置100は、ジョブ投入部10、12、監視部14、構成変更部16および制御部18を有する。情報処理装置200は、複数の物理計算ノード20、入出力装置22および切り替え装置24を有する。
ジョブ投入部10は、制御部18から転送されるジョブJBを物理計算ノード20のいずれかに投入する。ジョブ投入部10は、未使用の物理計算ノード20の中からジョブJBを投入する物理計算ノード20を選択する機能を有してもよい。また、未使用の物理計算ノード20が起動されていない場合、ジョブ投入部10は、選択した物理計算ノード20を起動させる機能を有してもよい。
ジョブ投入部12は、制御部18から転送されるジョブJBを、物理計算ノード20のいずれかを仮想化した仮想計算ノード26に投入する。ジョブ投入部12は、未使用の物理計算ノード20の中から物理計算ノード20を選択し、選択した物理計算ノード20において仮想計算ノード26を起動する機能を有してもよい。また、未使用の物理計算ノード20が起動されていない場合、ジョブ投入部12は、選択した物理計算ノード20を起動させる機能を有してもよい。
監視部14は、ジョブ投入部10が、物理計算ノード20のいずれかにジョブJBを投入した場合、ジョブJBを投入した物理計算ノード20の負荷を示す負荷情報LINFを監視する。例えば、監視部14は、ジョブJBのタイプを判定するタイプ判別試験時に、負荷情報LINFを監視する。
構成変更部16は、制御部18からの指示に基づいて、切り替え装置24を制御し、物理計算ノード20と入出力装置22との接続を変更する。
制御部18は、情報処理システムSYS1の外部からジョブJBを受信し、受信したジョブJBを、ジョブ投入部10を介して物理計算ノード20に投入し、タイプ判別試験を実行する。そして、制御部18は、情報処理装置200から受信する負荷情報LINFに基づいて、ジョブJBのタイプを判定し、物理計算ノード20によりジョブJBを実行するか、仮想計算ノード26によりジョブJBを実行するかを判定する。例えば、制御部18は、負荷情報LINFにより示される物理計算ノード20の負荷が、所定の閾値より高い場合、ジョブJBのタイプを高負荷タイプと判定する。また、制御部18は、負荷情報LINFにより示される物理計算ノード20の負荷が、所定の閾値以下の場合、ジョブJBのタイプを低負荷タイプと判定する。
制御部18は、負荷情報LINFに基づいて高負荷タイプを判定した場合、構成変更部16により入出力装置22に接続させた物理計算ノード20に、ジョブ投入部10を介してジョブJBを投入する。また、制御部18は、負荷情報LINFに基づいて低負荷タイプを判定した場合、構成変更部16により入出力装置22に接続させた物理計算ノード20を仮想化した仮想計算ノード26に、ジョブ投入部12を介してジョブJBを投入する。例えば、高負荷タイプのジョブJBを実行する物理計算ノード20と、低負荷タイプのジョブJBを実行する仮想計算ノード26を含む物理計算ノード20とは、互いに異なる。
情報処理装置200において、各物理計算ノード20は、演算を実行する演算処理装置を含むサーバ等の計算機であり、ジョブ投入部10から投入されるジョブJBを実行する。また、各物理計算ノード20は、制御装置100からの指示に基づいて、仮想化プログラムを実行することで、仮想計算ノード26を起動する。図1において、仮想計算ノード26を示す破線枠は、各物理計算ノード20内で仮想計算ノード26の起動および終了が可能なことを示す。なお、各物理計算ノード20が起動可能な仮想計算ノード26の数は、制御部18からの指示に基づいて決められる。
入出力装置22は、ハードディスクドライブ装置またはソリッドステートドライブ装置等の記憶装置であり、切り替え装置24を介して物理計算ノード20のいずれかに接続される。なお、切り替え装置24に接続される入出力装置22の数は、1つに限定されず、複数でもよい。切り替え装置24を介して物理計算ノード20に接続された入出力装置22には、物理計算ノード20または仮想計算ノード26が扱うデータ等の情報が格納される。入出力装置22には、物理計算ノード20または仮想計算ノード26が実行するプログラムが格納されてもよい。また、複数の入出力装置22が、切り替え装置24に接続されてもよい。なお、情報処理装置200は、入出力装置22を介して切り替え装置24に接続される記憶装置を有してもよい。この場合、入出力装置22は、記憶装置を制御するコントローラとして機能する。
切り替え装置24は、構成変更部16からの指示に基づいて、入出力装置22を物理計算ノード20のいずれかに接続し、あるいは、入出力装置22と物理計算ノード20との接続を解除する。これにより、切り替え装置24は、物理計算ノード20のいずれかに接続された入出力装置22を他の物理計算ノード20に付け替えることができる。
図1に示す情報処理システムSYSでは、制御装置100は、高負荷タイプのジョブJBを物理計算ノード20に実行させ、低負荷タイプのジョブJBを物理計算ノード20内で起動された仮想計算ノード26に実行させる。例えば、低負荷タイプのジョブJBが複数の仮想計算ノード26を使用して並列に実行される場合、低負荷タイプのジョブJBは、1つの物理計算ノード20内で起動された複数の仮想計算ノード26により実行可能である。すなわち、物理計算ノード20の1つが空いていれば、低負荷タイプのジョブJBを、複数の仮想計算ノード26で実行させることができる。また、低負荷タイプのジョブJBを実行中に、未使用の物理計算ノード20の数を従来に比べて増やすことができる。このため、複数の物理計算ノード20で並列に実行されるジョブJBの投入機会を従来に比べて増やすことができる。したがって、制御装置100は、制御部18で受けたジョブJBを情報処理装置200に投入するまでの待ち時間を従来に比べて削減することができる。この結果、制御装置100にジョブJBが投入されてからジョブJBの実行が完了するまでの時間を従来に比べて短縮することができる。
また、低負荷タイプのジョブJBの実行により得られ、入出力装置22に格納されたデータは、低負荷タイプのジョブJBの実行後に実行される高負荷タイプのジョブJBで使用される場合がある。この場合、構成変更部18は、制御部18からの指示に基づいて、低負荷タイプのジョブJBの実行により得られたデータを保持する入出力装置22を、高負荷タイプのジョブJBを実行する物理計算ノード20に付け替える。これにより、データを入出力装置間でコピーまたは移動することなく、物理計算ノード20でジョブJBを実行することができるため、情報処理装置200によるジョブJBの実行効率を従来に比べて向上することができる。この結果、制御装置100にジョブJBが投入されてからジョブJBの実行が完了するまでの時間を従来に比べて短縮することができ、複数のタイプのジョブJBを実行する場合に、ジョブJBの処理効率を向上することができる。
図2は、情報処理システム、制御装置および情報処理システムの制御方法の別の実施形態を示す。図2に示す情報処理システムSYS1は、管理サーバMSVおよびリソースプールRSCPLを有する。
管理サーバMSVは、スケジューラJRS、負荷分析部WLA、物理ノード配備部PND、仮想ノード配備部VNDおよび構成変更部HWCを有する。管理サーバMSVは、インターネットまたはイントラネット等のネットワークNWを介して端末装置TMに接続される。管理サーバMSVは、リソースプールRSCPLを制御する制御装置の一例である。なお、管理サーバMSVは、ネットワークNWを介さずに端末装置TMに接続されてもよい。
リソースプールRSCPLは、複数の物理サーバPSV(PSV0−PSV5)、複数のハードディスクドライブ装置HDD(HDD0−HDD5)、スイッチ装置DSW、スイッチ制御部SWCおよびネットワークスイッチNSWを有する。物理サーバPSVは、物理計算ノードの一例であり、ハードディスクドライブ装置HDDは、入出力装置の一例である。リソースプールRSCPLは、物理サーバPSVとハードディスクドライブ装置HDDとを有する情報処理装置の一例である。
端末装置TMは、情報処理システムSYS1にジョブを実行させるコンピュータ装置に含まれる。情報処理システムSYS1は、端末装置TMを介して入力されるユーザからの指示に基づいて、ジョブを実行し、ジョブの実行結果を端末装置TMに出力する。なお、複数の端末装置TMがネットワークNWを介して情報処理システムSYS1に接続されてもよい。
スケジューラJRSは、ユーザインタフェースUSRIF、フロントキューFCUE、テストキューTCUEおよびジョブ割り当て部ALCTを有する。ジョブ割り当て部ALCTは、ジョブキューJCUEおよびリソースデータベースRSDBを有する。
ユーザインタフェースUSRIFは、端末装置TMからのジョブを受信し、受信したジョブをJSON(Java_Script Object Notation;JavaScriptは登録商標)形式等のデータ形式に変換し、フロントキューFCUEに転送する。また、ユーザインタフェースUSRIFは、ジョブの実行結果を端末装置TMに送信する。例えば、ユーザインタフェースUSRIFは、ウェブブラウザ上で動作するGUI(Graphical User Interface)により実現される。端末装置TMを操作するユーザは、端末装置TMに表示されるGUI画面を用いて、ジョブを情報処理システムSYS1に送信し、ジョブの実行結果を受信する。
フロントキューFCUEは、端末装置TMから受ける複数のジョブを順次に保持し、保持したジョブをテストキューTCUEおよびジョブキューJCUEに順次に転送する。テストキューTCUEは、ジョブキューJCUEに保持されたジョブが負荷情報LINFを得るために試験的に実行されている間、試験的に実行されているジョブと同じジョブを保持する。ジョブキューJCUEは、情報処理装置200に投入するジョブを保持する第1の保持部の一例であり、テストキューTCUEは、情報処理装置200に投入するジョブを保持する第2の保持部の一例である。図2では、フロントキューFCUE、テストキューTCUEおよびジョブキューJCUEの各々は、ジョブを保持する3つの領域を有するが、ジョブを保持する領域の数は、3つに限定されない。
ジョブ割り当て部ALCTは、リソースデータベースRSDBを用いて、リソースプールRSCPL内のリソース(物理サーバPSVおよびハードディスクドライブ装置HDD)を管理する。ジョブ割り当て部ALCTは、リソースプールRSCPL内のリソースの管理状況に応じて、リソースデータベースRSDBを更新する。ジョブ割り当て部ALCTは、負荷分析部WLAが判定したジョブのタイプに基づいて、ジョブキューJCUEに保持されたジョブを物理サーバPSVに実行させるか、仮想サーバVSVに実行させるかを判定する。そして、テストキューTCUEからジョブキューJCUEに転送されたジョブを、判定されたタイプにしたがってリソースプールRSCPLに投入する。
ジョブ割り当て部ALCTは、ジョブを物理サーバPSVに実行させる場合、物理ノード配備部PNDに物理サーバPSVを配備させ、物理ノード配備部PNDを介して、配備した物理サーバPSVにジョブを投入する。一方、ジョブ割り当て部ALCTは、ジョブを仮想サーバVSVに実行させる場合、仮想ノード配備部VNDに仮想サーバVSVを配備させ、仮想ノード配備部VNDを介して、配備した仮想サーバVSVにジョブを投入する。また、ジョブ割り当て部ALCTは、ジョブの実行に使用する物理サーバPSV(または仮想サーバVSV)およびハードディスクドライブ装置HDDを互いに接続させる指示を構成変更部HWCに出力する。
リソースデータベースRSDBは、ジョブ割り当て部ALCTにより管理され、物理サーバPSVの使用状況およびハードディスクドライブ装置HDDの使用状況等の情報を保持する。リソースデータベースRSDBの一例は、図4に示す。
負荷分析部WLAは、ジョブを試験的に実行している物理サーバPSVの負荷を示す負荷情報LINFを物理サーバPSVから受信し、負荷情報LINFに基づいてジョブのタイプを判定する。例えば、負荷情報LINFは、物理サーバPSVに搭載されるCPUの使用率を示す。負荷判定部WLAは、CPUの使用率が所定の閾値を超える場合、ジョブのタイプを高負荷タイプと判定し、CPUの使用率が所定の閾値以下の場合、ジョブのタイプを低負荷タイプと判定する。負荷分析部WLAは、ジョブを投入した物理サーバPSVの負荷を示す負荷情報LINFを監視する監視部の一例である。なお、負荷分析部WLAは、スケジューラJRSに含まれてもよい。
物理ノード配備部PNDは、ジョブ割り当て部ALCTからの指示に基づいて、リソースプールRSCPL内に所定数の物理サーバPSVを配備し、ジョブ割り当て部ALCTから受けるジョブを、配備した物理サーバPSVに投入する。ここで、物理サーバPSVの配備とは、未使用の物理サーバPSVの中から、ジョブを実行する所定数の物理サーバPSVを選択することである。未使用の物理サーバPSVが起動されていない場合、物理ノード配備部PNDは、選択した物理サーバPSVを起動させる機能を有してもよい。例えば、物理ノード配備部PNDの機能の一部は、OpenStack(登録商標)のIronicにより実現されてもよい。物理ノード配備部PNDは、複数の物理サーバPSVのいずれかにジョブを投入する第1のジョブ投入部の一例である。
仮想ノード配備部VNDは、ジョブ割り当て部ALCTからの指示に基づいて、指示された物理サーバPSV内に所定数の仮想サーバVSVを配備し、ジョブ割り当て部ALCTから受けるジョブを、配備した仮想サーバVSVに投入する。ここで、仮想サーバVSVの配備とは、未使用の物理サーバPSVのいずれかにおいて、ジョブを実行する所定数の仮想サーバVSV(ソフトウェア)を起動することである。未使用の物理サーバPSVが起動されていない場合、仮想ノード配備部VNDは、未使用の物理サーバPSVのいずれかを起動させる機能を有してもよい。例えば、仮想ノード配備部VNDの機能の一部は、OpenStackにおいてオーケストレーション機能を提供するHeatにより実現されてもよい。仮想ノード配備部VNDは、複数の物理サーバPSVのいずれかを仮想化した仮想サーバVSVにジョブを投入する第2のジョブ投入部の一例である。
構成変更部HWCは、ジョブ割り当て部ALCTからの指示に基づいて、リソースプールRSCPL内のスイッチ制御部SWCを制御し、所定の物理サーバPSVを所定のハードディスクドライブ装置HDDに接続させる。
リソースプールRSCPLにおいて、各物理サーバPSVは、CPU等の演算処理装置、DRAM(Dynamic Random Access Memory)等の主記憶装置MEMを有する。なお、各物理サーバPSVは、OS(Operating System)等のソフトウェアを格納するハードディスクドライブ装置HDDを有してもよい。この場合、スイッチ装置DSWを介してハードディスクドライブ装置HDDに接続されていない物理サーバPSVも、内蔵するハードディスクドライブ装置HDDを用いて起動状態を維持することができる。また、リソースプールRSCPLに搭載される物理サーバPSVの数は、6つに限定されない。図2において、各物理サーバPSV内に破線枠で示す仮想サーバVSVは、物理サーバPSV内で起動可能なことを示す。仮想サーバVSVの末尾に付した2桁の数字は、左側が物理サーバPSVの番号を示し、右側が物理サーバPSV内で仮想サーバVSVを識別する番号を示す。なお、各物理サーバPSV内で起動可能な仮想サーバVSVの数は、3つに限定されない。
スイッチ制御部SWCは、ネットワークスイッチNSWを介して構成変更部HWCから受ける指示に基づいて、スイッチ装置DSWを制御する。スイッチ装置DSWは、スイッチ制御部SWCからの指示に基づいて、物理サーバPSVのいずれかをハードディスクドライブ装置HDDのいずれかに接続する。スイッチ装置DSWは、構成変更部16からの指示に基づいて、複数の物理サーバPSVとハードディスクドライブ装置HDDとの接続を切り替える切り替え部の一例である。スイッチ装置DSWは、専用のハードウェアを用いて実現されてもよく、SAN(Storage Area Network)を用いて実現されてもよい。
なお、リソースプールRSCPLは、ハードディスクドライブ装置HDDの代わりに、ソリッドステートドライブ装置等の記憶装置を含んでもよく、ハードディスクドライブ装置とソリッドステートドライブ装置との両方を含んでもよい。また、リソースプールRSCPLに搭載されるハードディスクドライブ装置HDDの数は、6つに限定されない。
ネットワークスイッチNSWは、物理サーバPSV、スイッチ制御部SWC、スケジューラJRS、負荷分析部WLA、物理ノード配備部PND、仮想ノード配備部VNDおよび構成変更部HWCを相互に接続する。例えば、物理サーバPSV、スイッチ制御部SWCおよび管理サーバMSVがLAN(Local Area Network)を介して互いに接続される場合、ネットワークスイッチNSWは、LANスイッチである。
図3は、図2に示す情報処理システムSYS1において、ジョブのタイプによるリソースプールRSCPLの構成の例を示す。図3の左側は、ハードディスクドライブ装置HDDのアクセスが支配的なジョブを実行する場合のリソースプールRSCPLの構成例を示す。図3の右側は、CPUによるデータ処理(演算処理)が支配的なジョブを実行する場合のリソースプールRSCPLの構成例を示す。
ハードディスクドライブ装置HDDのアクセスが支配的なジョブは、CPUによるデータ処理が支配的なジョブに比べて、CPUに掛かる負荷は小さい。すなわち、図3の左側は、CPUの使用率が所定の閾値以下である低負荷タイプのジョブを実行する場合のリソースプールRSCPLの構成である。図3の右側は、CPUの使用率が所定の閾値を超える高負荷タイプのジョブを実行する場合のリソースプールRSCPLの構成である。
なお、図3は、Apache Software Foundation(Apacheは登録商標)が開発した大規模データの分散処理を行うソフトウェアフレームワークであるHadoop(登録商標)を動作させる例を示す。例えば、Hadoop上でMahout(登録商標)を動作させて、機械学習を実行する場合、低負荷タイプのジョブの実行後、高負荷タイプのジョブが実行される。
低負荷タイプのジョブを実行する場合、物理サーバPSV0は、ファイルシステムのデータを管理するnamenodeとして動作する。仮想サーバVSV00−VSV02は、処理するデータdataをハードディスクドライブ装置HDD4−HDD9に入出力するdatanodeとして動作する。低負荷タイプのジョブを物理サーバPSV0および仮想サーバVSV00−VSV02で実行する場合、物理サーバPSV0に搭載される主記憶装置MEMは、物理サーバPSV0および仮想サーバVSV00−VSV02に共通に使用される。
一方、高負荷タイプのジョブを実行する場合、物理サーバPSV0は、ファイルシステムのデータを管理するnamenodeとして動作する。物理サーバPSV1−PSV3は、処理するデータdataをハードディスクドライブ装置HDD4−HDD9に入出力するdatanodeとして動作する。高負荷タイプのジョブを物理サーバPSV0−PSV3で実行する場合、物理サーバPSV0−PSV3は、内蔵する主記憶装置MEMをそれぞれ使用して、ジョブを実行する。なお、主記憶装置MEM内の”64GB”、”96GB”は、各ノードに割り当てられるメモリ容量を示す。
図3において、領域system、name、tmpが割り当てられたハードディスクドライブ装置HDDは、親ノードとして動作する物理サーバPSVにより使用される。領域rdataが割り当てられたハードディスクドライブ装置HDDは、ハードディスクドライブ装置HDD4−HDD9に分散配置される前のデータ(生データ)を保持する。領域dataが割り当てられたハードディスクドライブ装置HDDは、子ノードとして動作する仮想サーバVSV00−VSV02または物理サーバPSV1−PSV3により分散されるデータを保持する。なお、物理サーバPSV0−PSV3に接続されるハードディスクドライブ装置HDDの数および用途は、図3に限定されない。
図4は、図2に示すリソースデータベースRSDBの一例を示す。リソースデータベースRSDBは、物理リソースデータベースPRDBと、ディスクリソースデータベースHDBとを含む。物理リソースデータベースPRDBおよびディスクリソースデータベースHDBは、情報処理システムSYS1の構築時の初期設定シーケンスにおいて生成される。図4に示す物理リソースデータベースPRDBおよびディスクリソースデータベースHDBは、情報処理システムSYS1の構築時に生成された初期状態を示す。
物理リソースデータベースPRDBは、物理サーバPSVのID(IDentification)毎に、「実行中のジョブのID」、「PSVとして利用」および「VSVとして利用」を示す情報を格納する領域を有する。また、物理リソースデータベースPRDBは、物理サーバPSVのID(IDentification)毎に、「接続したHDDのID」および「後続するジョブの有無」を示す情報を格納する領域を有する。
「実行中のジョブのID」の領域には、実行中のジョブが存在しないときに”0”が格納され、ジョブが実行されているときにジョブのIDが格納される。「PSVとして利用」の領域には、物理サーバPSVとして利用していないときに”0”が格納され、物理サーバPSVとして利用しているときに”1”が格納される。「VSVとして利用」の領域には、仮想サーバVSVとして利用していないときに”0”が格納され、仮想サーバVSVとして利用しているときに、利用している仮想サーバVSVのIDが格納される。
「接続したHDDのID」の領域の領域には、ハードディスクドライブ装置HDDが接続されていないときに”0”が格納され、ハードディスクドライブ装置HDDが接続されているときに、接続されたハードディスクドライブ装置HDDのIDが格納される。「後続するジョブの有無」の領域には、後続するジョブがないときに”0”が格納され、後続するジョブがあるときに”1”が格納される。
ディスクリソースデータベースHDBは、ハードディスクドライブ装置HDDのID毎に、「過去に実行したジョブのID」、「実行中のジョブのID」、「接続したPSVのID」および「後続するジョブの有無」を示す情報を格納する領域を有する。
「過去に実行したジョブのID」の領域の領域には、互いに依存関係がある複数のジョブが実行された場合に、実行を完了したジョブのIDが格納される。「過去に実行したジョブのID」の領域は、ジョブの実行結果がハードディスクドライブ装置HDDに保持されていることを示す。「実行中のジョブのID」の領域の領域には、実行中のジョブが存在しないときに”0”が格納され、ジョブが実行されているときにジョブのIDが格納される。「接続したPSVのID」の領域には、物理サーバPSVが接続されていないときに”0”が格納され、物理サーバPSVが接続されているときに、接続された物理サーバPSVのIDが格納される。「後続するジョブの有無」の領域の領域には、後続するジョブがないときに”0”が格納され、後続するジョブがあるときに”1”が格納される。
図5、図6、図8および図10から図14は、図2に示す情報処理システムSYS1の動作の一例を示す。説明を分かりやすくするために、図5、図6、図8および図10から図14では、動作の説明に用いる要素のみを示す。図5、図6、図8および図10から図14において、フロントキューFCUE、テストキューTCUEおよびジョブキューJCUE内に示す符号A0、A1、A2は、互いに依存性を有するジョブを示す。説明をわかりやすくするために、図5および図6では、低負荷タイプのジョブA0は角の丸い四角印で示し、高負荷タイプのジョブA1、A2は、丸印で示す。但し、各ジョブA0−A2のタイプは、タイプ判別試験が実行されるまで判明しない。
ジョブA0、A1、A2は、この順にフロントキューFCUEに格納され、この順に実行される。ジョブA1は、ジョブA0の実行結果を使用し、ジョブA2は、ジョブA1の実行結果を使用する。
例えば、ジョブA0、A1、A2により実行される処理は、Hadoop処理であるとする。なお、ジョブA0、A1、A2により実行される処理は、Hadoop処理以外の他の分散処理でもよい。各動作において、太枠で示す要素は、動作の主体を示す。なお、図5、図6、図8および図10から図14では、説明を分かりやすくするために、ジョブA0−A2の処理中に、ジョブA0−A2とは依存関係のない他のジョブは投入されないものとする。
まず、図5(a)において、管理サーバMSVは、端末装置TMからジョブA0−A2を順次に受け、受けたジョブA0−A2をフロントキューFCUEに格納する。例えば、図2に示す端末装置TMを操作する情報処理システムSYS1のユーザは、ユーザインタフェースUSRIF(GUI画面)によりHadoop処理を選択する。そして、ユーザは、ユーザインタフェースUSRIFにより、Hadoop処理の実行に使用するパラメータを設定する。ここで、パラメータは、namenodeの数、datanodeの数、map処理のタスク数、reduce処理のタスク数、タスクのヒープサイズ等である。図5(a)の時点で、リソースプールRSCPLの物理サーバPSVは動作しておらず、ハードディスクドライブ装置HDDのいずれにも接続されていない。
次に、図5(b)において、管理サーバMSVは、フロントキューFCUE内のジョブA0をテストキューTCUEおよびジョブキューJCUEに転送する。なお、テストキューTCUEに格納されたジョブA0は、ジョブのタイプを判定するタイプ判別試験が完了した後、ジョブキューJCUEに転送され、物理サーバPSVまたは仮想サーバVSVにより実行される。すなわち、テストキューTCUEに保持されたジョブA0は、タイプ判別試験の完了後に実行されるジョブの存在を示す。
テストキューTCUEとジョブキューJCUEとに共通のジョブA0を保持することにより、タイプ判別試験の実行に使用されたジョブA0が失われることを抑止することができ、ジョブA0をタイプ判別試験後に再び実行することができる。なお、テストキューTCUEを設ける代わりに、タイプ判別試験の実行中にセットされるフラグを設け、ジョブキューJCUEに保持されたタイプ判別試験に使用されるジョブが、フラグのセット中に削除されることを抑止してもよい。
ジョブ割り当て部ALCTは、ジョブA0のタイプ判別試験を実行するために、物理ノード配備部PNDに指示し、リソースプールRSCPLに物理サーバPSV0−PSV2を配備させる。また、ジョブ割り当て部ALCTは、ジョブA0のタイプ判別試験を実行するために、構成変更部HWCに指示し、スイッチ制御部SWCに、物理サーバPSV0−PSV2とハードディスクドライブ装置HDD0とを接続させる。
ここで、配備される物理サーバPSVは、図4に示す物理リソースデータベースPRDBにおける「PSVとして利用」および「VSVとして利用」の領域が”0”の物理サーバPSVの中から選択される。使用するハードディスクドライブ装置HDDは、図4に示すディスクリソースデータベースHDBにおける「接続したPSVのID」および「後続するジョブの有無」の領域が”0”のハードディスクドライブ装置HDDの中から選択される。
なお、ジョブを分散して実行させる物理サーバPSV(または仮想サーバVSV)の数は、端末装置TMを介してユーザにより設定される。使用するハードディスクドライブ装置HDDの数は、ジョブ割り当て部ALCTが、ジョブで処理するデータ量に応じて設定してもよく、端末装置TMを介してユーザにより設定されてもよい。また、図5では、説明を分かりやすくするために、物理サーバPSV0−PSV2に1つのハードディスクドライブ装置HDD0に接続されるが、物理サーバPSV0−PSV2に複数のハードディスクドライブ装置HDDが接続されてもよい。
図6は、図5に示す動作の続きの一例を示す。図6(a)において、ジョブ割り当て部ALCTは、ジョブキューJCUEに保持されたジョブA0を物理サーバPSV0−PSV2に分散して投入する。そして、ジョブ割り当て部ALCTは、ジョブA0のタイプ判別試験を、所定時間(例えば、数分)が経過するまで物理サーバPSV0−PSV2に分散して実行させる。負荷分析部WLAは、物理サーバPSV0−PSV2のCPUの負荷を測定する。CPUの負荷(CPUの使用率)は、zabbix等の負荷監視ツールを用いて測定される。負荷分析部WLAは、一定時間毎に通知されるCPUの負荷を平均し、平均値が閾値以下であるため、ジョブA0を低負荷タイプと判定する。
なお、ジョブ割り当て部ALCTは、タイプ判別試験時にリソースデータベースRSDBを参照して、未使用の物理サーバPSVを検出するが、タイプ判別試験の実行に基づいたリソースデータベースRSDBの更新は実行しない。このため、図6(a)において、タイプ判別試験を実行中のリソースデータベースRSDBの状態は、図4と同じである。
次に、図6(b)において、図2に示すスケジューラJRSは、テストキューTCUEに保持されているジョブA0をジョブキューJCUEに転送する。ジョブ割り当て部ALCTは、タイプ判別試験の結果に基づいて、リソースプールRSCPLに仮想サーバVSV00、VSV11、VSV02を配備させる指示を仮想ノード配備部VNDに出力する。また、ジョブ割り当て部ALCTは、ジョブA0を仮想サーバVSV00、VSV11、VSV02で実行するために、構成変更部HWCに指示し、スイッチ制御部SWCに、物理サーバPSV0とハードディスクドライブ装置HDD0とを接続させる。そして、ジョブ割り当て部ALCTは、リソースデータベースRSDBを更新する。
図7は、図6に示す動作の続きの一例を示す。図7(a)において、ジョブ割り当て部ALCTは、ジョブキューJCUEに保持されたジョブA0を仮想サーバVSV00、VSV01、VSV02に分散して投入する。そして、ジョブ割り当て部ALCTは、ジョブA0を物理サーバPSV0−PSV2に分散して実行させる。ジョブA0の実行により得られるデータは、ハードディスクドライブ装置HDD0に保存される。
なお、ジョブA0は低負荷タイプであるため、仮想サーバVSV00−VSV02による実行時の処理時間は、物理サーバPSV0−PSV2による実行時の処理時間と同等である。また、ジョブA0は、物理サーバPSV0−PSV2でなく、仮想サーバVSV00−VSV02で実行されるため、ジョブA0と依存関係のない他のジョブ(タイプ判別試験を含む)は、空いている他の物理サーバPSVを用いて実行可能である。このように、低負荷タイプのジョブを仮想サーバVSVにより実行することで、リソースプールRSCPLの物理サーバPSVの利用効率を向上することができ、ジョブの処理効率を向上することができる。換言すれば、タイプ判別試験により得られたCPUの使用率に基づいて、ジョブの実行を物理サーバPSVで実行するか仮想サーバVSVで実行するかを決めることで、ジョブの処理効率を向上することができる。この結果、情報処理システムSYS1の性能を向上することができる。
図7(b)において、ジョブA0の実行の完了後、管理サーバMSVは、フロントキューFCUE内のジョブA1をテストキューTCUEおよびジョブキューJCUEに転送する。ジョブ割り当て部ALCTは、図5(b)と同様に、ジョブA1のタイプ判別試験を実行するために、物理ノード配備部PNDに物理サーバPSV0−PSV2の配備を指示する。また、ジョブ割り当て部ALCTは、ジョブA1のタイプ判別試験を実行するために、構成変更部HWCに物理サーバPSV0−PSV2とハードディスクドライブ装置HDD1との接続を指示する。この際、ジョブ割り当て部ALCTは、リソースデータベースPRDBに格納された情報に基づいて、ジョブA0の実行結果を保持しているハードディスクドライブ装置HDD0の使用を抑止する。
図8は、図7(a)において低負荷タイプのジョブA0を実行中のリソースデータベースRSDBの一例を示す。ジョブ割り当て部ALCTは、ハードディスクドライブ装置HDD0に接続した物理サーバPSV0内に仮想サーバVSV00、VSV01、VSV02を配備することを示す情報を物理リソースデータベースPRDBに格納する。また、ジョブ割り当て部ALCTは、ジョブA0を実行することを示す情報を物理リソースデータベースPRDBに格納する。さらに、ジョブ割り当て部ALCTは、ジョブA0を実行する仮想サーバVSV00、VSV01、VSV02を含む物理サーバPSV0をハードディスクドライブ装置HDD0に接続することを示す情報を、ディスクリソースデータベースHDBに格納する。また、ジョブA0の実行後に、ジョブA0と依存関係のあるジョブA1、A2が実行されるため、ジョブ割り当て部ALCTは、物理サーバPSV0およびハードディスクドライブ装置HDD0に対応する「後続するジョブの有無」の領域に、”1”を格納する。
なお、ジョブA0の実行後、ジョブ割り当て部ALCTは、「後続するジョブの有無」の領域に格納された”1”に基づいて、ハードディスクドライブ装置HDD0に対応する「過去に実行したジョブのID」にジョブA0を示す情報を格納する。これにより、図7(b)において、ジョブ割り当て部ALCTは、物理サーバPSV0−PSV2を、ジョブA0の実行結果を保持しているハードディスクドライブ装置HDD0以外のハードディスクドライブ装置HDD1に接続させることができる。また、ジョブA0の実行後、ジョブ割り当て部ALCTは、リソースデータベースRSDBにおいて、ジョブA0を示す情報を格納した「過去に実行したジョブのID」の領域を除く領域を、”0”に設定する。
図9は、図7に示す動作の続きの一例を示す。図6と同様の動作については、詳細な説明は省略する。図9(a)において、ジョブ割り当て部ALCTは、ジョブA1を物理サーバPSV0−PSV2に分散して投入し、ジョブA1のタイプ判別試験を、所定時間が経過するまで物理サーバPSV0−PSV2に分散して実行させる。負荷分析部WLAは、ジョブA1を実行するCPUの負荷(使用率)の平均値が閾値を超えるため、ジョブA1を高負荷タイプと判定する。
次に、図9(b)において、ジョブ割り当て部ALCTは、テストキューTCUEからジョブキューJCUEに転送されたジョブA1を実行するために、物理ノード配備部PNDに物理サーバPSV3、PSV4、PSV5の配備を指示する。ジョブ割り当て部ALCTは、物理リソースデータベースPRDBを参照し、未使用の物理サーバPSVの中から配備する物理サーバPSV3、PSV4、PSV5を選択する。また、ジョブ割り当て部ALCTは、ジョブA1を実行するために、構成変更部HWCに、物理サーバPSV3−PSV5と、ジョブA0の実行結果を保持しているハードディスクドライブ装置HDD0とを接続させる。ジョブA0の実行結果を保持しているハードディスクドライブ装置HDD0は、ディスクリソースデータベースHDBの「過去に実行したジョブのID」の領域を参照することで検出される。
図10は、図9に示す動作の続きの一例を示す。図7と同様の動作については、詳細な説明は省略する。図10(a)において、ジョブ割り当て部ALCTは、ジョブキューJCUEに保持されたジョブA1を物理サーバPSV3−PSV5に分散して実行させる。ジョブA1の実行により得られるデータは、ハードディスクドライブ装置HDD0に保存される。
図10(b)において、ジョブA1の実行の完了後、管理サーバMSVは、フロントキューFCUE内のジョブA2をテストキューTCUEおよびジョブキューJCUEに転送する。そして、図7(b)と同様に、ジョブ割り当て部ALCTは、ジョブA2のタイプ判別試験を実行するために、物理ノード配備部PNDに物理サーバPSV0−PSV2の配備を指示する。また、ジョブ割り当て部ALCTは、ジョブA2のタイプ判別試験を実行するために、構成変更部HWCに物理サーバPSV0−PSV2とハードディスクドライブ装置HDD1との接続を指示する。
図11は、図10(a)において高負荷タイプのジョブA1を実行中のリソースデータベースRSDBの一例を示す。ジョブ割り当て部ALCTは、ハードディスクドライブ装置HDD0に接続した物理サーバPSV3−PSV5を配備することを示す情報を物理リソースデータベースPRDBに格納する。また、ジョブ割り当て部ALCTは、ジョブA1を実行することを示す情報を物理リソースデータベースPRDBに格納する。さらに、ジョブ割り当て部ALCTは、ジョブA2を実行する物理サーバPSV3−PSV5をハードディスクドライブ装置HDD0に接続することを示す情報を、ディスクリソースデータベースHDBに格納する。また、ジョブA1の実行後に、ジョブA1と依存関係のあるジョブA2が実行されるため、ジョブ割り当て部ALCTは、物理サーバPSV3−PSV5およびハードディスクドライブ装置HDD0に対応する「後続するジョブの有無」の領域に、”1”を格納する。
なお、ジョブA1の実行後、ジョブ割り当て部ALCTは、「後続するジョブの有無」の領域に格納された”1”に基づいて、ハードディスクドライブ装置HDD0に対応する「過去に実行したジョブのID」にジョブA1を示す情報を格納する。これにより、図10(b)において、ジョブ割り当て部ALCTは、物理サーバPSV0−PSV2を、ジョブA1の実行結果を保持しているハードディスクドライブ装置HDD0以外のハードディスクドライブ装置HDD1に接続させることができる。また、ジョブA1の実行後、ジョブ割り当て部ALCTは、リソースデータベースRSDBにおいて、ジョブA1を示す情報を格納した「過去に実行したジョブのID」の領域を除く領域を、”0”に設定する。
図12は、図10に示す動作の続きの一例を示す。図12(a)の動作は、ジョブA1の代わりにジョブA2のタイプ判別試験が実行されることを除き、図9(a)と同様である。図12(b)の動作は、ジョブキューJCUEにジョブA1の代わりにジョブA2が保持されることを除き、図9(b)と同様である。
図13は、図12に示す動作の続きの一例を示す。図13の動作は、ジョブA1の代わりにジョブA2が実行されることを除き、図10(a)と同様である。
図14は、図2に示す負荷分析部WLAの動作の一例を示す。図14に示す動作は、管理サーバMSVが実行するプログラムにより実現される負荷分析部WLAにより実行され、あるいは、管理サーバMSVが有する負荷分析部WLAのハードウェアにより実行される。
まず、ステップS102において、負荷分析部WLAは、タイプ判別試験を実行中の物理サーバPSVのCPUの使用率(平均値)が閾値を超えたか否かを判定する。例えば、閾値は10%である。CPUの使用率が閾値を超えた場合、動作はステップS104に移行し、CPUの使用率が閾値以下の場合、動作はステップS106に移行する。
ステップS104において、負荷分析部WLAは、ジョブが高負荷タイプであることをジョブ割り当て部ALCTに通知し、動作を終了する。ステップS106において、負荷分析部WLAは、ジョブが低負荷タイプであることをジョブ割り当て部ALCTに通知し、動作を終了する。
図15は、図2に示すジョブ割り当て部ALCTの動作の一例を示す。図15に示す動作は、管理サーバMSVが実行するプログラムにより実現されるジョブ割り当て部ALCTにより実行され、あるいは、管理サーバMSVが有するジョブ割り当て部ALCTのハードウェアにより実行される。なお、図15には、ジョブ割り当て部ALCTからの指示に基づいて動作する物理ノード配備部PNDおよび構成変更部HWCの動作の一例も示す。物理ノード配備部PNDおよび構成変更部HWCは、管理サーバMSVが実行するプログラムにより実現されてもよく、ハードウェアにより実現されてもよい。
まず、ステップS202において、ジョブ割り当て部ALCTは、ジョブが高負荷タイプであることを示す情報を負荷分析部WLAから受けたか否かを判定する。高負荷タイプを示す情報を受信した場合、動作はステップS204に移行し、高負荷タイプを示す情報を受信していない場合、ステップS202が繰り返される。
ステップS204において、ジョブ割り当て部ALCTは、物理リソースデータベースPRDBを参照し、物理サーバPSVの空きを検出する。次に、ステップS206において、ジョブ割り当て部ALCTは、所定数の物理サーバPSVが空いている場合、動作をステップS208に移行し、所定数の物理サーバPSVが空いていない場合、動作を終了する。ここで、所定数は、ジョブを分散して実行する物理サーバPSVの数である。
ステップS208において、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBを参照し、ハードディスクドライブ装置HDDの空きを検出する。次に、ステップS210において、ジョブ割り当て部ALCTは、所定数のハードディスクドライブ装置HDDが空いている場合、動作をステップS212に移行し、所定数のハードディスクドライブ装置HDDが空いていない場合、動作を終了する。ここで、所定数は、高負荷タイプのジョブの実行に使用されるハードディスクドライブ装置HDDの数である。
ステップS212において、ジョブ割り当て部ALCTは、物理リソースデータベースPRDBを、例えばエントリの上から順に参照し、ジョブの実行に使用する所定数の物理サーバPSVを確保する。また、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBを、例えばエントリの上から順に参照し、ジョブの実行に使用する所定数のハードディスクドライブ装置HDDを確保する。なお、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBにおける「過去に実行したジョブのID」の領域にジョブのIDが格納されている場合、ジョブのIDが格納されている領域に対応するハードディスクドライブ装置HDDを選択する。ジョブ割り当て部ALCTは、物理サーバPSVおよびハードディスクドライブ装置HDDの確保に基づいて、図11と同様に、物理リソースデータベースPRDBおよびディスクリソースデータベースHDBを更新する。
次に、ステップS214において、ジョブ割り当て部ALCTは、確保した物理サーバPSVと確保したハードディスクドライブ装置HDDとの接続を構成変更部HWCに指示する。構成変更部HWCは、ジョブ割り当て部ALCTからの指示に基づいて、スイッチ制御部SWCを制御し、確保した物理サーバPSVと確保したハードディスクドライブ装置HDDとを接続させる。
次に、ステップS216において、ジョブ割り当て部ALCTは、確保した物理サーバPSVの配備を物理ノード配備部PNDに指示し、物理サーバPSVが配備された後、ジョブの実行を物理ノード配備部PNDに指示する。物理ノード配備部PNDは、ジョブ割り当て部ALCTから指示された物理サーバPSVを配備し、ジョブ割り当て部ALCTからのジョブの実行の指示に基づいて、配備した物理サーバPSVにジョブを投入する。そして、物理ノード配備部PNDは、物理サーバPSVによるジョブの実行が完了した場合、ジョブの完了をジョブ割り当て部ALCTに通知する。
次に、ステップS218において、ジョブ割り当て部ALCTは、物理ノード配備部PNDからのジョブの完了通知に基づいて、物理リソースデータベースPRDBおよびディスクリソースデータベースHDBを更新する。物理リソースデータベースPRDBおよびディスクリソースデータベースHDBの更新により、ジョブの実行に使用した物理サーバPSVおよびハードディスクドライブ装置HDDは、開放される。なお、実行を完了したジョブに後続するジョブがフロントキューFCUE内にある場合、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBにおける「過去に実行したジョブのID」の領域に実行したジョブのIDを格納する。そして、ジョブ割り当て部ALCTの動作は終了する。
図16は、図2に示すジョブ割り当て部ALCTの動作の別の一例を示す。図15と同一または同様の動作については、詳細な説明は省略する。
まず、ステップS302において、ジョブ割り当て部ALCTは、ジョブが低負荷タイプであることを示す情報を負荷分析部WLAから受けたか否かを判定する。低負荷タイプを示す情報を受信した場合、動作はステップS304に移行し、低負荷タイプを示す情報を受信していない場合、ステップS302が繰り返される。
ステップS304において、ジョブ割り当て部ALCTは、物理リソースデータベースPRDBを参照し、物理サーバPSVの空きを検出する。次に、ステップS306において、ジョブ割り当て部ALCTは、1つの物理サーバPSVが空いている場合、動作をステップS308に移行し、物理サーバPSVの空きがない場合、動作を終了する。
ステップS308において、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBを参照し、ハードディスクドライブ装置HDDの空きを検出する。次に、ステップS310において、ジョブ割り当て部ALCTは、所定数のハードディスクドライブ装置HDDが空いている場合、動作をステップS312に移行し、所定数のハードディスクドライブ装置HDDが空いていない場合、動作を終了する。ここで、所定数は、低負荷タイプのジョブの実行に使用されるハードディスクドライブ装置HDDの数である。
ステップS312において、ジョブ割り当て部ALCTは、物理リソースデータベースPRDBを、例えばエントリの上から順に参照し、ジョブの実行に使用する1つの物理サーバPSVを確保する。また、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBを、例えばエントリの上から順に参照し、ジョブの実行に使用する所定数のハードディスクドライブ装置HDDを確保する。なお、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBにおける「過去に実行したジョブのID」の領域にジョブのIDが格納されている場合、ジョブのIDが格納されている領域に対応するハードディスクドライブ装置HDDを選択する。ジョブ割り当て部ALCTは、物理サーバPSVおよびハードディスクドライブ装置HDDの確保に基づいて、図8に示すように、物理リソースデータベースPRDBおよびディスクリソースデータベースHDBを更新する。
次に、ステップS314において、ジョブ割り当て部ALCTは、確保した物理サーバPSVと確保したハードディスクドライブ装置HDDとの接続を構成変更部HWCに指示する。構成変更部HWCは、ジョブ割り当て部ALCTからの指示に基づいて、スイッチ制御部SWCを制御し、確保した物理サーバPSVと確保したハードディスクドライブ装置HDDとを接続させる。
次に、ステップS316において、ジョブ割り当て部ALCTは、確保した物理サーバPSV内での仮想サーバVSVの配備を仮想ノード配備部VNDに指示し、仮想サーバVSVが配備された後、ジョブの実行を仮想ノード配備部VNDに指示する。仮想ノード配備部VNDは、ジョブ割り当て部ALCTから指示された仮想サーバVSVを配備し、ジョブ割り当て部ALCTからのジョブの実行の指示に基づいて、配備した仮想サーバVSVにジョブを投入する。そして、仮想ノード配備部VNDは、仮想サーバVSVによるジョブの実行が完了した場合、ジョブの完了をジョブ割り当て部ALCTに通知する。
次に、ステップS318において、ジョブ割り当て部ALCTは、仮想ノード配備部VNDからのジョブの完了通知に基づいて、物理リソースデータベースPRDBおよびディスクリソースデータベースHDBを更新する。物理リソースデータベースPRDBおよびディスクリソースデータベースHDBの更新により、ジョブの実行に使用した仮想サーバVSVを配備した物理サーバPSVおよびハードディスクドライブ装置HDDは、開放される。なお、実行を完了したジョブに後続するジョブがフロントキューFCUE内にある場合、ジョブ割り当て部ALCTは、ディスクリソースデータベースHDBにおける「過去に実行したジョブのID」の領域に実行したジョブのIDを格納する。そして、ジョブ割り当て部ALCTの動作は終了する。
図17は、図2に示す情報処理システムSYS1におけるジョブの処理時間の一例を示す。図17に示す例は、リソースプールRSCPLの動作を制御する管理サーバMSVのアルゴリズムを実装したシミュレータによる評価結果を示す。評価では、12台の物理サーバPSVを使用して、60個のジョブが実行される。高負荷タイプのジョブと低負荷タイプのジョブの比率は、1:1であり、各ジョブは、5つのノード(5つの物理サーバPSVまたは5つの仮想サーバVSV)を使用して実行される。CPU使用率が10%(閾値)を超えた場合、高負荷タイプが判定される。
シミュレーションでは、管理サーバMSVは、高負荷タイプを低負荷タイプに比べて優先して実行し、空きのノードがある場合、低負荷タイプのジョブを実行する。空きの物理サーバPSVが1つあれば、低負荷タイプのジョブが実行可能である。一方、空きの物理サーバPSVが5つ以上ない場合、高負荷タイプのジョブは実行されない。
シミュレーションでは、フロントキューFCUEに最初のジョブを投入後、全てのジョブの実行が完了するまでの実行時間は、従来手法に比べて30%削減されている(600分から420分に短縮)。上記実行時間は、ジョブキューJCUE内のジョブの滞在時間を含み、ユーザが60個のジョブを情報処理システムSYS1に送信してから全てのジョブの実行結果を受信するまでの応答時間の平均値と等価である。
以上、図2から図17に示す実施形態においても、図1に示す実施形態と同様に、低負荷タイプのジョブを実行中に、空いている物理サーバPSVの数を従来に比べて増やすことができ、ジョブの投入機会を従来に比べて増やすことができる。また、低負荷タイプのジョブの実行結果を保持するハードディスクドライブ装置HDDを、高負荷タイプのジョブを実行する物理サーバPSVに付け替えることで、データを移動させることなく後続するジョブを物理サーバPSVにより実行することができる。ハードディスクドライブ装置HDD間でのデータのコピーまたは移動がないため、ジョブJBの実行効率を従来に比べて向上することができる。この結果、管理サーバMSVにジョブを投入してからジョブの実行が完了するまでの時間を従来に比べて短縮することができる。
さらに、図2から図17に示す実施形態では、低負荷タイプのジョブを物理サーバPSV内で起動される仮想サーバVSVにより実行することで、リソースプールRSCPLの利用効率を向上することができ、ジョブの処理効率を向上することができる。換言すれば、タイプ判別試験により得られたCPUの使用率に基づいて、ジョブの実行を物理サーバPSVまたは仮想サーバVSVのいずれで実行するかを決めることで、ジョブの処理効率を向上し、情報処理システムSYS1の性能を向上することができる。
また、タイプ判別試験の実行前に、テストキューTCUEとジョブキューJCUEとに共通のジョブを保持することにより、タイプ判別試験の実行に使用されたジョブが失われることを抑止することができ、ジョブをタイプ判別試験後に再び実行することができる。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
10、12…ジョブ投入部;14…監視部;16…構成変更部;18…制御部;100…制御装置;20…物理計算ノード;22…入出力装置;24…切り替え装置;200…情報処理装置;ALCT…ジョブ割り当て部;DSW…スイッチ装置;FCUE…フロントキュー;JB…ジョブ;JCUE…ジョブキュー;JRS…スケジューラ;HDD…ハードディスクドライブ装置;HWC…構成変更部;LINF…負荷情報;MEM…主記憶装置;MSV…管理サーバ;NSW…ネットワークスイッチ;NW…ネットワーク;PND…物理ノード配備部;PSV…物理サーバ;RSCPL…リソースプール;RSDB…リソースデータベース;SWC…スイッチ制御部;SYS、SYS1…情報処理システム;TCUE…テストキュー;TM…端末装置;USRIF…ユーザインタフェース;VLD…仮想ノード配備部;VSV…仮想サーバ;WLA…負荷分析部

Claims (7)

  1. 複数の物理計算ノードと前記複数の物理計算ノードのいずれかに接続する入出力装置とを備える情報処理装置と、前記情報処理装置を制御する制御装置とを有する情報処理システムにおいて、
    前記制御装置は、
    前記複数の物理計算ノードのいずれかにジョブを投入する第1のジョブ投入部と、
    前記複数の物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入する第2のジョブ投入部と、
    前記複数の物理計算ノードのいずれかに前記入出力装置を接続する構成変更部と、
    前記第1のジョブ投入部が、前記複数の物理計算ノードのいずれかにジョブを投入した場合、ジョブを投入した物理計算ノードの負荷を示す負荷情報を監視する監視部と、
    前記負荷情報に基づいて物理計算ノードによりジョブを実行する場合、前記構成変更部が前記入出力装置を接続した物理計算ノードに前記第1のジョブ投入部を介してジョブを投入し、前記負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、前記構成変更部が前記入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードに、前記第2のジョブ投入部を介してジョブを投入する制御部を有することを特徴とする情報処理システム。
  2. 前記複数の物理計算ノードのいずれかが、前記仮想化した仮想計算ノードによるジョブの実行で得られたデータであって、前記入出力装置に格納したデータを用いてジョブを実行する場合、
    前記制御部は、
    前記構成変更部により、データを格納した前記入出力装置を、前記仮想化した仮想計算ノードからジョブを実行する物理計算ノードに付け替えさせ、
    前記第1のジョブ投入部を介して、付け替えた物理計算ノードにジョブを投入し、
    付け替えた物理計算ノードは、前記入出力装置に格納されたデータを用いてジョブを実行することを特徴とする請求項1記載の情報処理システム。
  3. 前記制御部は、
    前記情報処理装置に投入するジョブを保持する第1の保持部および第2の保持部を有し、
    前記第1の保持部に保持されたジョブを前記複数の物理計算ノードのいずれかに投入し、前記監視部により前記負荷情報を監視させた後、前記第2の保持部に保持したジョブを前記第1の保持部に移動し、前記第1の保持部に移動したジョブを、前記負荷情報に基づいて記物理計算ノードまたは仮想計算ノードのいずれかに投入することを特徴とする請求項1または請求項2記載の情報処理システム。
  4. 前記監視部は、ジョブを投入した物理計算ノードが有する演算処理装置の使用率を前記負荷情報として監視し、
    前記制御部は、
    前記使用率が所定の閾値より高い場合、前記構成変更部により前記複数の物理計算ノードのいずれかを前記入出力装置に接続し、接続した物理計算ノードにジョブを投入し、
    前記使用率が前記所定の閾値以下の場合、前記構成変更部により前記複数の物理計算ノードのいずれかを前記入出力装置に接続し、接続した物理計算ノードを仮想化した仮想計算ノードにジョブを投入することを特徴とする請求項1ないし請求項3のいずれか1項記載の情報処理システム。
  5. 前記情報処理装置は、前記構成変更部からの指示に基づいて、前記複数の物理計算ノードと前記入出力装置との接続を切り替える切り替え装置を有することを特徴とする請求項1ないし請求項4のいずれか1項記載の情報処理システム。
  6. 複数の物理計算ノードと前記複数の物理計算ノードのいずれかに接続する入出力装置とを備える情報処理装置を制御する制御装置において、
    前記複数の物理計算ノードのいずれかにジョブを投入する第1のジョブ投入部と、
    前記複数の物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入する第2のジョブ投入部と、
    前記複数の物理計算ノードのいずれかに前記入出力装置を接続する構成変更部と、
    前記第1のジョブ投入部が、前記複数の物理計算ノードのいずれかにジョブを投入した場合、ジョブを投入した物理計算ノードの負荷を示す負荷情報を監視する監視部と、
    前記負荷情報に基づいて物理計算ノードによりジョブを実行する場合、前記構成変更部が前記入出力装置を接続した物理計算ノードに前記第1のジョブ投入部を介してジョブを投入し、前記負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、前記構成変更部が前記入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードに、前記第2のジョブ投入部を介してジョブを投入する制御部を有することを特徴とする制御装置。
  7. 複数の物理計算ノードと前記複数の物理計算ノードのいずれかに接続する入出力装置とを備える情報処理装置と、前記情報処理装置を制御する制御装置とを有する情報処理システムの制御方法において、
    前記制御装置が有する第1のジョブ投入部が、前記複数の物理計算ノードのいずれかにジョブを投入し、
    前記制御装置が有する第2のジョブ投入部が、前記複数の物理計算ノードのいずれかを仮想化した仮想計算ノードにジョブを投入し、
    前記制御装置が有する構成変更部が、前記複数の物理計算ノードのいずれかに前記入出力装置を接続し、
    前記制御装置が有する監視部が、前記第1のジョブ投入部が、前記複数の物理計算ノードのいずれかにジョブを投入した場合、ジョブを投入した物理計算ノードの負荷を示す負荷情報を監視し、
    前記制御装置が有する制御部が、前記負荷情報に基づいて物理計算ノードによりジョブを実行する場合、前記構成変更部が前記入出力装置を接続した物理計算ノードに前記第1のジョブ投入部を介してジョブを投入し、前記負荷情報に基づいて仮想計算ノードによりジョブを実行する場合、前記構成変更部が前記入出力装置を接続した物理計算ノードを仮想化した仮想計算ノードに、前記第2のジョブ投入部を介してジョブを投入することを特徴とする情報処理システムの制御方法。
JP2014214644A 2014-10-21 2014-10-21 情報処理システム、制御装置および情報処理システムの制御方法 Active JP6358042B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014214644A JP6358042B2 (ja) 2014-10-21 2014-10-21 情報処理システム、制御装置および情報処理システムの制御方法
US14/884,098 US10108463B2 (en) 2014-10-21 2015-10-15 System, method of controlling to execute a job, and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014214644A JP6358042B2 (ja) 2014-10-21 2014-10-21 情報処理システム、制御装置および情報処理システムの制御方法

Publications (2)

Publication Number Publication Date
JP2016081430A true JP2016081430A (ja) 2016-05-16
JP6358042B2 JP6358042B2 (ja) 2018-07-18

Family

ID=55749160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014214644A Active JP6358042B2 (ja) 2014-10-21 2014-10-21 情報処理システム、制御装置および情報処理システムの制御方法

Country Status (2)

Country Link
US (1) US10108463B2 (ja)
JP (1) JP6358042B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10379968B2 (en) * 2017-05-05 2019-08-13 Pivotal Software, Inc. Backup and restore framework for distributed computing systems
CN108259583B (zh) * 2017-12-29 2020-05-26 广州云达信息技术有限公司 一种数据动态迁移方法及装置
US10795724B2 (en) * 2018-02-27 2020-10-06 Cisco Technology, Inc. Cloud resources optimization
CN109308219B (zh) * 2018-08-23 2021-08-10 创新先进技术有限公司 任务处理方法、装置及分布式计算机系统
US10860362B2 (en) 2019-01-09 2020-12-08 Vmware, Inc. Methods and apparatus to deploy a hybrid workload domain
CN110618861A (zh) * 2019-09-16 2019-12-27 山东科技大学 一种Hadoop集群节能系统
CN115904671B (zh) * 2023-02-20 2023-06-27 中国华能集团清洁能源技术研究院有限公司 一种边缘计算环境下的任务调度方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262419A (ja) * 2007-04-12 2008-10-30 Toyota Motor Corp 情報処理装置、オペレーティングシステム選択方法、プログラム。
WO2009057208A1 (ja) * 2007-10-31 2009-05-07 Fujitsu Limited 資源割当プログラム、管理ノード、資源割当方法、および並列計算機システム
JP2013186654A (ja) * 2012-03-07 2013-09-19 Ntt Docomo Inc ホスト提供システム及びホスト提供方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203943B2 (en) * 2001-10-31 2007-04-10 Avaya Technology Corp. Dynamic allocation of processing tasks using variable performance hardware platforms
US6928508B2 (en) * 2002-09-12 2005-08-09 Sun Microsystems, Inc. Method of accessing a remote device from a host by mapping an address of the device to a memory address of the host
EP2124468B1 (en) * 2007-01-19 2019-03-13 NTT DoCoMo, Inc. Base station device
US7590464B2 (en) * 2007-05-29 2009-09-15 Palo Alto Research Center Incorporated System and method for on-line planning utilizing multiple planning queues
JP2009223842A (ja) 2008-03-19 2009-10-01 Fujitsu Ltd 仮想計算機制御プログラム及び仮想計算機システム
JP4893800B2 (ja) * 2009-10-29 2012-03-07 ブラザー工業株式会社 画像処理装置
US8555279B2 (en) * 2011-04-25 2013-10-08 Hitachi, Ltd. Resource allocation for controller boards management functionalities in a storage management system with a plurality of controller boards, each controller board includes plurality of virtual machines with fixed local shared memory, fixed remote shared memory, and dynamic memory regions
US8572614B2 (en) * 2011-06-30 2013-10-29 International Business Machines Corporation Processing workloads using a processor hierarchy system
CN104094565B (zh) * 2012-02-02 2017-06-27 日本电气株式会社 控制器、用于分配负载的方法、计算机系统和控制设备
JP5978673B2 (ja) 2012-03-15 2016-08-24 富士通株式会社 情報処理装置
US9081618B2 (en) * 2012-03-19 2015-07-14 Ati Technologies Ulc Method and apparatus for the scheduling of computing tasks
US9361351B2 (en) * 2013-09-11 2016-06-07 International Business Machines Corporation Data management via active and inactive table space containers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262419A (ja) * 2007-04-12 2008-10-30 Toyota Motor Corp 情報処理装置、オペレーティングシステム選択方法、プログラム。
WO2009057208A1 (ja) * 2007-10-31 2009-05-07 Fujitsu Limited 資源割当プログラム、管理ノード、資源割当方法、および並列計算機システム
JP2013186654A (ja) * 2012-03-07 2013-09-19 Ntt Docomo Inc ホスト提供システム及びホスト提供方法

Also Published As

Publication number Publication date
US20160110227A1 (en) 2016-04-21
JP6358042B2 (ja) 2018-07-18
US10108463B2 (en) 2018-10-23

Similar Documents

Publication Publication Date Title
JP6358042B2 (ja) 情報処理システム、制御装置および情報処理システムの制御方法
US8584127B2 (en) Storage medium storing job management program, information processing apparatus, and job management method
KR101332840B1 (ko) 병렬 컴퓨팅 프레임워크 기반의 클러스터 시스템, 호스트 노드, 계산 노드 및 어플리케이션 실행 방법
US20170017511A1 (en) Method for memory management in virtual machines, and corresponding system and computer program product
JP6107801B2 (ja) 情報処理装置、情報処理システム、タスク処理方法、及び、プログラム
Goethals et al. Unikernels vs containers: An in-depth benchmarking study in the context of microservice applications
JP2009176103A (ja) 仮想ネットワークシステムのnic接続制御方法とシステムおよびプログラム
Xue et al. Managing data center tickets: Prediction and active sizing
JP6924083B2 (ja) 情報処理システムおよびリソース割り当て方法
JP2013206379A (ja) クラスタ監視装置、クラスタ監視方法、及びプログラム
WO2018079162A1 (ja) 情報処理システム
CN114968567A (zh) 用于分配计算节点的计算资源的方法、装置和介质
JP2017215884A (ja) 仮想マシン配置装置およびリソース管理方法
JP5597293B2 (ja) 計算機システム及びプログラム
JP5879117B2 (ja) 情報処理システムおよび運用管理方法
JP4259390B2 (ja) 並列演算処理装置
US11677681B1 (en) Intelligent allocation of resources in a computing system
Vu et al. Link-heterogeneous work stealing
WO2022070292A1 (ja) Vdiリソース配置決定装置、vdiリソース配置決定方法及びvdiリソース配置決定プログラム
CN110609744A (zh) 处理计算任务的方法、设备和计算机程序产品
JP2014206805A (ja) 制御装置
WO2016017219A1 (ja) データ処理システム及びデータ処理方法及びプログラム
JP6322968B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6653786B2 (ja) I/o制御方法およびi/o制御システム
JP5637934B2 (ja) 仮想化装置、仮想化装置制御方法、仮想化装置制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170704

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170803

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170804

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180604

R150 Certificate of patent or registration of utility model

Ref document number: 6358042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150