JP6176111B2 - 分散処理管理装置及び分散処理管理方法 - Google Patents

分散処理管理装置及び分散処理管理方法 Download PDF

Info

Publication number
JP6176111B2
JP6176111B2 JP2013528921A JP2013528921A JP6176111B2 JP 6176111 B2 JP6176111 B2 JP 6176111B2 JP 2013528921 A JP2013528921 A JP 2013528921A JP 2013528921 A JP2013528921 A JP 2013528921A JP 6176111 B2 JP6176111 B2 JP 6176111B2
Authority
JP
Japan
Prior art keywords
phase
distributed
processing time
time
processes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013528921A
Other languages
English (en)
Other versions
JPWO2013024597A1 (ja
Inventor
浩嗣 玉野
浩嗣 玉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013024597A1 publication Critical patent/JPWO2013024597A1/ja
Application granted granted Critical
Publication of JP6176111B2 publication Critical patent/JP6176111B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、クラスタ内の複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行する分散処理環境における分散処理の管理技術に関する。
近年、インターネットの普及や記憶装置の大容量化により、日々膨大なデータが生成され蓄積されている。これらの膨大な量のデータの処理には分散処理システムを利用することが一般的となりつつある。分散処理システム又は分散処理技術としてのMapReduceは有名である。MapReduceによれば、開発者は、Map関数とReduce関数とを記述するだけで、分散に関するプログラムを一切記述することなく、並列分散で動作するアプリケーションを作成することができる。MapReduceは、現在、様々な企業において大規模データ処理に活用されている。
MapReduceの重要な応用先として機械学習やデータマイニング等がある。機械学習やデータマイニングの技術を使うことで大量の情報の中から有益な情報を抽出することができる。例えば、銀行の取引データから不正取引のパターンを学習したり、購買履歴からユーザの好みを学習することでレコメンドを行ったりすることができる。Cheng−taoらの論文「Map−Reduce for Machine Learning on Multicore」により様々な機械学習アルゴリズムがMap関数とReduce関数とで記述できることが示されたことで、現在までに様々な機械学習アルゴリズムがMapReduceで実装されている(例えば、Apache Mahout等)。
多くの機械学習のアルゴリズムは、事前に設定されるパラメータ(ハイパーパラメータ)を有する。設定されるパラメータ次第で学習精度が異なるため、実用上、適切なパラメータを求めることは重要である。しかし、適切なパラメータを求めるには、パラメータ値を変更しながら何度も学習を行い評価する必要があり、多くの時間がかかるという課題があった。
下記非特許文献1は、このような課題を解決するための技術を提案する。この技術は、MapReduceで記述された機械学習プログラムをハイパーパラメータ値を変えて繰り返し実行するのにかかる時間を短縮する。この技術では、機械学習プログラムにおいて重複する部分が共有化される。例えば、MapReduceで記述されパラメータのみ異なるジョブA及びBにおいて、ジョブAを実行した後にジョブBを実行する場合、両者は入力が同じであるため、それぞれ個別に同じデータを読み込むことは無駄である。そこで、ジョブA及びBにおけるデータ読み込みという重複する処理が共有化される。これにより、データの読み込み終了後、ジョブAが実行され、次にジョブBが実行される。これにより、複数回の冗長なデータ読み込みを避けることができ、実行時間を短縮することができる。
また、下記特許文献1では、並列実行環境を持つ計算機システムにおいて全体の処理時間が最短となるように、個々の解析を各処理装置に割り当てる技術が提案されている。この技術では、パラメータの値ごとに内容の異なる解析を特定のアプリケーションにより複数の処理装置で多数実行する場合に、解析の内容を特徴付けるパラメータの値をもとに個々の解析の実行時間を予測し、この予測をもとに個々の解析を処理装置に割り当てる。
特開平11−259433号公報
福本 佳史、鬼塚 真、"複数分析処理におけるMapReduce最適化"、DEIM Forum 2011 C3-4
上述の特許文献1で提案される技術では、個々の解析をどの処理装置で実行するかが決められるが、個々の解析自体を分散実行することについては考慮されていない。
また、上述の非特許文献1で提案される技術は、パラメータの異なる各MapReduce処理がクラスタ内の全マシン(全コンピュータ)で分散処理される形態における効率化技術である。そのため、各MapReduce処理をクラスタ内の一部のマシンで処理する形態は考慮されていない。例えば、20台のマシンで構成されるクラスタにおいて、パラメータのみ異なる40個のMapReduce処理を実行する場合、非特許文献1の技術は、全マシン(20台)を1つのグループとして扱い、40個の処理をそれぞれ20台で効率よく実行する方法を提供する。
しかしながら、実行形態はこのような形態のみではない。例えば、クラスタ内を10台ずつのマシンからなる2つのグループに分けて、各グループで20個の処理をそれぞれ実行させる形態や、5台ずつのマシンからなる4つのグループに分けて、各グループで10個の処理を実行させる形態なども存在する。MapReduce等で実現される分散処理環境では、このような各実行パターンによって実行時間は異なる。
本発明は、上述の事情に鑑みてなされたものであり、クラスタ内の複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行する分散処理環境において、当該複数の処理のトータル実行時間を短縮させる分散処理管理技術を提供する。
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の態様は、分散処理管理装置に関する。第1の態様に係る分散処理管理装置は、複数の処理をグループ分けされた複数のコンピュータの各グループに割り当てて分散実行するのにかかるトータル実行時間が最小となるグループ形態を、各処理を担当するグループ当たりのコンピュータの数に対応する複数の情報の中から、選択する選択部、を備える。
前記複数の処理は、複数のフェーズで実行される。該複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに第1の処理を施すことにより得られる出力データを後段のフェーズに送るMapフェーズと、当該出力データに対して第2の処理を行うReduceフェーズと、を少なくとも含む。前記選択部は、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する。
第2の態様は、分散処理管理方法に関する。第2の態様に係る分散処理管理方法は、コンピュータが、複数の処理をグループ分けされた複数のコンピュータの各グループに割り当てて分散実行するのにかかるトータル実行時間が最小となるグループ形態を、各処理を担当するグループ当たりのコンピュータの数に対応する複数の情報の中から、選択することを含む。
前記複数の処理は、複数のフェーズで実行される。該複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに第1の処理を施すことにより得られる出力データを後段のフェーズに送るMapフェーズと、当該出力データに対して第2の処理を行うReduceフェーズと、を少なくとも含む。前記コンピュータが、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する。
なお、本発明の他の態様としては、上記第1の態様に係る各構成をコンピュータに実現させるコンピュータプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各態様によれば、クラスタ内の複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行する分散処理環境において、当該複数の処理のトータル実行時間を短縮させる分散処理管理技術を提供することができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
図1は、第1実施形態における分散処理システムの構成例を概念的に示す図である。 図2は、第1実施形態におけるマスタ装置の構成例を概念的に示す図である。 図3は、分散実行パターンと各マシンの負担との関係の一例を示す図である。 図4は、ディスクからデータを読み込む場合における、グループあたりのマシン数とユーザMapの処理時間との関係を示す図である。 図5Aは、読み込むべきデータのサイズに応じてメモリ及びディスクのいずれか一方から当該データの全てを読み込む場合における、グループあたりのマシン数とユーザMapの処理時間との関係を示す図である(PMD>PCD)。 図5Bは、読み込むべきデータのサイズに応じてメモリ及びディスクのいずれか一方から当該データの全てを読み込む場合における、グループあたりのマシン数とユーザMapの処理時間との関係を示す図である(PMD<PCD)。 図6は、グループあたりのマシン数とユーザReduceの処理時間との関係を示す図である。 図7は、グループあたりのマシン数とユーザSetupの処理時間との関係を示す図である。 図8は、グループあたりのマシン数とトータル実行時間との関係を示す図である。 図9は、第1実施形態における分散処理システムの動作例を示すフローチャートである。 図10は、第2実施形態におけるマスタ装置の構成例を概念的に示す図である。 図11は、第2実施形態における分散処理システムの動作例を示すフローチャートである。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
本実施形態における分散処理管理装置は、クラスタ内の複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行するのにかかるトータル実行時間を、当該複数のコンピュータのグループ分け形態を示しかつ各処理を担当するコンピュータの数に対応する、分散実行パターンに応じて推定することにより、複数の分散実行パターンの中から、当該トータル実行時間が最小となる分散実行パターンを選択する選択部を備える。
上述したように、クラスタ内の複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行する分散処理環境において、当該複数の処理の実行形態は複数存在する。このような実行形態を分散実行パターンと表記する。よって、各分散実行パターンは、複数のコンピュータのグループ分け形態の1つを示し、かつ、各処理を担当するコンピュータの数に対応する。本実施形態では、複数の分散実行パターンの中から、当該複数処理のトータル実行時間が最小となる分散実行パターンが選択される。
このように、本実施形態によれば、パラメータの異なる複数の処理を行うにあたり、複数の分散実行パターンの中から常に最小の実行時間のパターンを選択して実行することができる。従って、本実施形態によれば、上述のように選択された分散実行パターンを用いて複数の処理を分散実行することにより、当該複数の処理のトータル実行時間を短縮させることができる。
以下、上述の実施形態について更に詳細を説明する。以下の各実施形態は、上述の分散処理管理装置の構成をMapReduceにより実現される分散処理システムに適用した場合の例である。よって、下記実施形態における分散処理システムで分散実行される複数の処理は、MapReduceで記述された分散プログラムで実現され、Setupフェーズ、Mapフェーズ及びReduceフェーズで構成される。
Mapフェーズでは、入力データを読み込み、読み込まれた入力データに所定処理を施すことにより得られるデータを後段のReduceフェーズに送るMap処理が実行される。Mapフェーズでの所定処理には例えば入力データの分解処理が含まれる。Reduceフェーズでは、Mapフェーズで分解されたデータに対して所定処理を行うReduce処理が実行される。Setupフェーズでは、後段のMapフェーズ及びReduceフェーズのための初期化処理等を行うSetup処理が実行される。
以下の実施形態では、MapReduceで実現される複数の処理の内容、入力データの内容等は制限されない。また、以下の実施形態では、分散処理技術として、MapReduceを例に挙げるが、クラスタ内の複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行する分散処理環境を実現可能な技術であれば、分散処理技術は制限されない。
[第1実施形態]
〔システム構成〕
図1は、第1実施形態における分散処理システム1の構成例を概念的に示す図である。第1実施形態における分散処理システム1は、マスタ装置10、複数のスレーブ装置20(#1、#2、・・・、#n)を有する。上述の分散処理管理装置は、マスタ装置10上で実現される。これにより、マスタ装置10は、分散処理管理装置と呼ぶこともできる。各スレーブ装置20(#1、#2、・・・、#n)はそれぞれ同じ機能を持てばよいため、特に個々を区別する必要がある場合を除き、スレーブ装置20と総称する。
マスタ装置10及びスレーブ装置20は、ハードウェア構成として、RAM(Random Access Memory)12、ROM(Read Only Memory、図示せず)、ハードディスク(HDD)13等のようなメモリ、CPU(Central Processing Unit)11、入出力インタフェース14等を有する。これら各ハードウェア要素は例えばバス15により接続される。入出力インタフェース14は、マスタ装置10及びスレーブ装置20の間で通信網5を介して所定通信方式の通信を可能とするネットワークインタフェースを含む。即ち、マスタ装置10及びスレーブ装置20は、一般的なコンピュータである。
図1の例では、マスタ装置10及びスレーブ装置20はそれぞれ1つずつのCPU11を有するが、それらは複数のCPU11を有してもよい。本実施形態は、マスタ装置10及びスレーブ装置20のハードウェア構成を限定しない。また、ここでは、分散処理の管理を行う装置をその他の装置と区別するために、マスタ装置10とスレーブ装置20とを区別したが、両者は特に区別されなくてもよい。
〔装置構成〕
図2は、第1実施形態におけるマスタ装置10の構成例を概念的に示す図である。図2に示されるように、マスタ装置10は、分散プログラム実行部101、ユーザMap計測部102、ユーザSetup計測部103、ユーザReduce計測部104、基準Reduce計測部105、回帰分析部106、データ格納部107、クラスタプロファイル読込部108、パターン選択部109等を有する。マスタ装置10は、例えば、メモリに格納されるプログラムがCPU11により実行されることにより、図2に示される各処理部をそれぞれ実現する。当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F14を介してインストールされ、メモリに格納される。
分散プログラム実行部101は、対象となるパラメータの異なる複数の処理を実現する分散プログラムに関する情報を受け、パターン選択部109に、当該分散プログラムのトータル実行時間を最小化する分散実行パターンを選択させ、選択された分散実行パターンに基づいて分散処理システム1に当該分散プログラムを実行させる。以降、分散プログラム実行部101は、省略して実行部101とも表記される。また、実行部101は、本件発明の分散処理実行部に相当する。
分散処理システム1(クラスタ)内で分散プログラムを実際に実行し得るコンピュータは、マスタ装置10及びスレーブ装置20である。しかし、以降の説明では、説明の便宜のために、分散プログラムを実際に実行し得るコンピュータはスレーブ装置20のみとする。
各分散実行パターンは、分散処理システム1(クラスタ)内の複数のスレーブ装置20のグループ分け形態の1つを示し、かつ、各処理を担当するスレーブ装置20の数に対応する。実行部101は、パターン選択部109により選択された分散実行パターンにより特定される各グループに対してパラメータをそれぞれ振り分け、各スレーブ装置20に、対応するグループに割り当てられた分散プログラムの実行をそれぞれ依頼する。
ユーザMap計測部102、ユーザSetup計測部103及びユーザReduce計測部104は、パターン選択部109で分散実行パターンを選択するのに必要な情報を計測し、各計測結果をそれぞれデータ格納部107に格納する。ユーザMap計測部102、ユーザSetup計測部103及びユーザReduce計測部104は、実行部101からの指示に応じて計測処理を実行してもよいし、所定のタイミングで計測処理を実行してもよい。ユーザMap計測部102、ユーザSetup計測部103及びユーザReduce計測部104は、本件発明におけるMapフェーズ計測部、Setupフェーズ計測部、Reduceフェーズ計測部に相当する。
ユーザMap計測部102は、スレーブ装置20(マスタ装置10を含んでもよい)にMap処理を実際に実行させることにより、Map処理の計算時間(t)を計測し、計測された計算時間をデータ格納部107に格納する。以降、ここでのMap処理は、後述する基準処理と区別するために、ユーザMapと表記される。ここで計測されるユーザMapの計算時間tの詳細については後述する。
ユーザSetup計測部103は、スレーブ装置20(マスタ装置10を含んでもよい)に、1処理分のSetup処理を実際に実行させることにより、1処理あたりのSetup処理の処理時間(t)を計測し、計測された処理時間をデータ格納部107に格納する。以降、ここでのSetup処理は、後述する基準処理と区別するために、ユーザSetupとも表記される。
ユーザReduce計測部104は、或る特定の分散実行パターンにおいて、1処理分のReduce処理を実際に実行させることにより、或る特定の分散実行パターンにおける1処理あたりのReduce処理の処理時間(t)を計測し、計測された処理時間をデータ格納部107に格納する。或る特定の分散実行パターンとは、分散処理システム1で取り得る複数の分散実行パターンの中のいずれか1つであり、後述する基準Reduceの処理時間(tRa)の算出にも利用される。以降、ここでのReduce処理は、後述する基準処理と区別するために、ユーザReduceとも表記される。
基準Reduce計測部105は、Reduce処理の基準とされる基準処理の処理時間を予測する予測モデルを構築する上で必要となる情報を計測する。基準処理とは、当該予測モデルを構築するための専用処理であり、合計値を得るSum関数や最大値を得るMax関数等のような組み込み演算が利用される。以降、この基準処理を基準Reduceと表記する場合もある。
例えば、基準Reduce計測部105は、基準Reduceで処理されるデータサイズと基準Reduceを実行するマシン数とを変化させながら、当該基準Reduceを実際に実行させ、その基準Reduceの処理時間を計測する。具体的には、データサイズは、512KB(キロバイト)、1MB(メガバイト)、2MB、4MBというように変えられる。また、マシン数は、3、5、10、15、20というように変えられる。基準Reduce計測部105で用いられるデータサイズ及びマシン数は、予測モデルの精度を高めるためには、実際に分散プログラムを実行するマシン数やそこで扱われるデータサイズと近似する値が採用されることが望ましい。最終的に、基準Reduce計測部105は、マシン数、データサイズ及び処理時間の複数の組み合わせを取得し、この複数の組み合わせの情報を回帰分析部106へ提供する。
回帰分析部106は、1回の基準Reduceの処理時間を予測する予測モデル式を予め保持する。この予測モデル式は、Reduce処理の実装アルゴリズムに基づいて導かれた計算量の式であってもよいし、当該実装アルゴリズムがブラックボックス化された一般的な多項式であってもよい。本実施形態は、データサイズ及びマシン数から処理時間を得ることができる式であれば、この予測モデル式自体を制限しない。例えば、マシン数をp、データサイズをnとした場合、以下の多項式を予測モデル式としてもよい。
a1+a2*p+a3*n+a4*p*n=f(p,n) (式1)
回帰分析部106は、基準Reduce計測部105から上記情報の提供を受けると、それら情報を用いて回帰分析を行うことで予測モデル式の係数を決定し、決定された係数をデータ格納部107に格納する。回帰分析手法には、最小二乗法などのような周知な手法が利用されればよい。上記(式1)の予測モデル式の場合には、回帰分析部106は、最小二乗法により、係数a1、a2、a3、及びa4を算出する。
基準Reduce計測部105及び回帰分析部106の各処理は、実行部101の指示により実行されてもよいし、所定のタイミングで実行されてもよい。
クラスタプロファイル読込部108は、クラスタに関する情報が記載されたクラスタプロファイルを読み込み、読み込まれた情報をデータ格納部107に格納する。クラスタプロファイル読込部108は、例えば、クラスタ(分散処理システム1)内のマシン数M、1マシンあたりのメモリサイズMem、ディスクバンド幅W等を読み込む。本実施形態では、クラスタ内のマシン数Mは、実際に分散プログラムを実行するスレーブ装置20の数に相当する。メモリサイズMemは、一次記憶装置、主記憶装置等と呼ばれるRAM(以降、単にメモリと表記する)のサイズである。ディスクバンド幅Wは、ハードディスク、フラッシュメモリ等のような、Map処理で入力データとして読み込まれるデータが格納されている補助記憶装置(以降、ディスクと表記する)の入出力インタフェースの帯域幅である。
データ格納部107は、パターン選択部109が対象分散処理のトータル実行時間を推定するために利用される各種データを格納する。具体的には、データ格納部107は、ユーザMapの計算時間t、ユーザSetupの処理時間t、ユーザReduceの処理時間t、予測モデル式の各係数、クラスタ内のマシン数M、1マシンあたりのメモリサイズMem、ディスクバンド幅W等を格納する。データ格納部107は、例えば、連想配列、KeyValueストア、RDB(Relational Database)等として実現される。
パターン選択部109は、実行部101及びデータ格納部107から取得される各種情報を用いて、分散処理システム1において対象となるパラメータの異なる複数処理を分散実行するのにかかるトータル実行時間を推定し、推定されるトータル実行時間が最小となる分散実行パターンを選択する。パターン選択部109は、選択された分散実行パターンの情報を実行部101へ送る。なお、パターン選択部109により推定されるトータル実行時間は、分散プログラムのトータル実行時間と呼ぶこともできる。パターン選択部109は本発明の選択部に相当する。
パターン選択部109は、例えば、以下の(式2)を用いて、各分散実行パターンに対応する当該トータル実行時間をそれぞれ推定し得る。パターン選択部109は、以下の(式2)の値(トータル実行時間)が最小となるpを算出する。以下の(式2)においてpはグループ当たりのマシン数を示すため、pは分散実行パターンを特定する情報であるといえる。
以下の(式2)において、DはMap処理で読み込まれるデータサイズを示し、Cは対象処理の数を示し、nはReduce処理で扱われるデータサイズを示す。他の記号は上述したとおりである。繰り返し表記すれば、Wはディスクバンド幅を示し、Mはクラスタ内マシン数を示し、f(p,n)は予測モデル式を示し、tは1処理あたりのユーザReduceの処理時間を示し、tは1処理あたりのユーザSetupの処理時間を示し、tはユーザMapの計算時間を示す。ユーザMapの計算時間とは、データを読み込む時間を除くユーザMap処理のみにかかる時間を意味する。
Figure 0006176111
D、C及びnは、実行すべき分散プログラムの情報として実行部101により取得され、パターン選択部109に渡される。W、M、f(p,n)、t、t、及びtはデータ格納部107から取得される。
Raは、1処理あたりの基準Reduceの処理時間を示す。パターン選択部109は、取得された予測モデル式f(p,n)のpに、ユーザReduce計測部104で利用された特定の分散実行パターンに対応するグループあたりのマシン数を代入することにより、tRaを算出する。
パターン選択部109は、以下の(式3)及び(式4)により、PCD及びPMDを算出する。なお、PCD及びPMDの意味については後述する。上記(式2)におけるmin(PMD,PCD)は、PMD及びPCDの小さい方を意味する。
CD=D/(W*t) (式3)
MDは(D/p)<Memを満たす最小のpである。 (式4)
以下、上記(式2)で示されるようなトータル実行時間の推定手法の原理について説明する。対象となる複数処理(分散プログラム)のトータル実行時間は、分散プログラムを形成する各フェーズ(ユーザSetup、ユーザMap、ユーザReduce)の処理時間の合計により求めることができる。そこで、各フェーズの処理時間についてそれぞれ考察する。
まず、ユーザMapの処理時間について説明する。
図3は、分散実行パターンと各マシンの負担との関係の一例を示す図である。図3の例では、クラスタ内のマシン数Mが20であり、処理数Cが40であり、データサイズDが40GBである場合が示されている。この場合、図3に示されるように、6個の分散実行パターンが存在し得る。
分散実行パターンAでは、20台のマシンが1グループとして扱われ、1グループの20台で40個の処理が実行される。分散実行パターンBでは、20台のマシンが10台ずつの2グループに区分けされ、各グループの10台で20個の処理がそれぞれ実行される。分散実行パターンCでは、20台のマシンが5台ずつの4グループに区分けされ、各グループの5台で10個の処理がそれぞれ実行される。分散実行パターンDでは、20台のマシンが4台ずつの5グループに区分けされ、各グループの4台で8個の処理がそれぞれ実行される。分散実行パターンEでは、20台のマシンが2台ずつの10グループに区分けされ、各グループの2台で4個の処理がそれぞれ実行される。分散実行パターンFでは、20台のマシンが20グループに区分けされ、1台で2個の処理がそれぞれ実行される。1処理はグループ内の全マシンで並列分散処理されるため、1マシンが担当する処理の数はグループが担当する処理の数である。これが図3における「1マシンが担当する処理数」である。
上述のような各分散実行パターンは以下のように言い換えることもできる。即ち、分散実行パターンAでは1個の処理が20台のマシンで遂行され、分散実行パターンBでは1個の処理が10台のマシンで遂行され、分散実行パターンCでは1個の処理が5台のマシンで遂行され、分散実行パターンDでは1個の処理が4台のマシンで遂行され、分散実行パターンEでは1個の処理が2台のマシンで遂行され、分散実行パターンFでは1個の処理が1台のマシンで遂行される。
一方で、ユーザMapで読み込まれるデータサイズは、図3の例では、各処理につき40GBである。よって、分散実行パターンAでは1個の処理が20台のマシンで遂行されるため、1台のマシンが読み込むデータサイズは2GBとなる。同様に、分散実行パターンBでは1個の処理が10台のマシンで遂行されるため、1台のマシンが読み込むデータサイズは4GBとなる。これが、図3における「1マシンが担当するデータサイズ」で示される。
このように、グループ内のマシン数が小さくなるにしたがって(図3において左から右の方向に)、1マシンあたりの読み込むデータ量が増加し、担当する処理数が減少する。更に、読み込まれるデータ量と処理数との積がどの分散実行パターンでも一定であるため、ユーザMapに必要な計算量は分散実行パターンによらず不変である。但し、当該計算量が一定であっても1データあたりの計算量は、グループ内のマシン数が小さくなるにしたがって(図3において左から右の方向に)、減少している。
このような特性を考慮して、ユーザMapの処理時間を考える。ここでは、全ての分散実行パターンにおいてデータがディスクから読み込まれ、ユーザMapの処理(計算)のバックグラウンドでデータ読み込みが行われると仮定する。この場合、グループ内のマシン数が多い分散実行パターン(例えば、A、B等)では、1データあたりの計算量が多いため、計算がボトルネックとなる。よって、ユーザMapの処理時間はユーザMapの計算時間のみで表される。一方、グループ内のマシン数が少ない分散実行パターン(例えば、E、F等)では、1データあたりの計算量が少なく、計算が速く終了し次のデータの読み込みを待つことになるため、データの読み込みがボトルネックとなる。この場合、ユーザMapの処理時間はデータの読み込み時間のみで表される。或る分散実行パターンが計算ボトルネックかデータの読み込みボトルネックかは、1データあたりの読み込み時間と1データあたりの計算時間のどちらが大きいかで決定される。1データあたりの読み込み時間が大きい場合にデータ読み込みボトルネック、1データあたりの計算時間が大きい場合に計算ボトルネックとなる。
図4は、ディスクからデータを読み込む場合における、グループあたりのマシン数とユーザMapの処理時間との関係を示す図である。図4では、計算がボトルネックとなる分散実行パターンと、データの読み込みがボトルネックとなる分散実行パターンとの境界となるグループあたりのマシン数がPCDで表わされている。この場合、グループあたりのマシン数がPCDより多い領域、即ち、計算がボトルネックとなる分散実行パターンの領域では、ユーザMapの処理時間は一定(t)である。これは、上述したように、ユーザMapに必要な計算量は分散実行パターンによらず一定であるからである。一方、グループあたりのマシン数がPCDより小さい領域、即ち、データの読み込みがボトルネックとなる分散実行パターンの領域では、読み込まれるデータサイズに応じてユーザMapの処理時間が増加する。
図5A及び図5Bは、読み込むべきデータのサイズに応じてメモリ及びディスクのいずれか一方から当該データの全てを読み込む場合における、グループあたりのマシン数とユーザMapの処理時間との関係を示す図である。例えば、各マシンのメモリサイズが8GBである場合、図3に示される分散実行パターンA、B及びCにおいて各マシンに読み込まれるデータは全てメモリに格納することができる。一方で、図3に示される分散実行パターンD、E及びFにおいて各マシンに読み込まれるデータの全体はメモリに格納することができないため、そのデータ全てがディスクから読み込まれる。
従って、このように各マシンのメモリサイズを考慮する場合には、図5A及び図5Bに示されるように、グループあたりのマシン数とユーザMapの処理時間との関係は、各マシンのメモリサイズに依存して、2種類存在する。ここで、読み込まれるデータの全てが各マシンのメモリに格納されるか否かの境界となるグループあたりのマシン数がPMDで表わされる。図5Aは、PMDがPCDよりも大きい場合を示し、図5Bは、PMDがPCDよりも小さい場合を示す。
図5Aの場合、即ち、PMDがPCDよりも大きい場合にはグラフの形状は図4と同様となる。グループあたりのマシン数pがPCDより大きい場合には、データがメモリとディスクのどちらに格納されていても計算がボトルネックとなるからである。
一方、図5Bの場合、即ち、PMDがPCDよりも小さい場合には、図4とはグラフの形状が変わる。グループあたりのマシン数pがPCDより小さくかつPMDより大きい範囲では、ユーザMapの処理時間は、ユーザMapの計算時間tとなる。この範囲では、データの読み込みがボトルネックであるが、ディスクよりもアクセス速度の速いメモリにデータを格納することができれば、計算がボトルネックになるからである。グループあたりのマシン数pがPMDより小さくなれば、メモリにデータの全てが格納できず、ディスクから全てのデータを読み込む必要があるため、データの読み込みがボトルネックとなる。
図5A及び図5Bに示されるように、各マシンのメモリサイズを考慮し、読み込むべきデータのサイズに応じてメモリ及びディスクのいずれか一方から当該データの全てを読み込む場合における、ユーザMapの処理時間Tは、以下の(式5)により推定することができる。以下の(式5)に示されるように、ユーザMapの処理時間Tは、分散実行パターンに応じて、1コンピュータ当たりのデータ読み取り時間(式5の上側の式)、及び、ユーザMapの計算時間tのいずれか一方の時間となる。
Figure 0006176111
上述したように、ユーザMapの計算時間(t)は、分散実行パターンに依存せず一定である。ユーザMapの計算時間(t)は、ユーザMap計測部102により計測される。よって、ユーザMap計測部102は、例えば、1処理(1パラメータ)分のユーザMapを実際に実行させることにより1処理あたりのユーザMap計算時間を計測し、この計測された1処理あたりのユーザMap計算時間に処理数を掛けることによりユーザMapの計算時間(t)を取得してもよい。もちろん、ユーザMap計測部102は、複数処理分のユーザMapを実際に実行させてもよい。
次に、ユーザReduceの処理時間について説明する。
ユーザReduceは、ユーザMapと異なり様々な実装形態を採ることができる。例えば、1台のマシンにデータを集め、その1台のマシンでReduce演算を行う実装形態、クラスタ内のマシンでツリーを形成することによりクラスタ全体でReduce演算行う実装形態等が考えられる。これにより、実装形態によりユーザReduceの処理時間の予測式の形は異なると考えられる。
しかしながら、どのような実装形態であっても、ユーザReduceの処理時間は概ね図6のようになる。図6は、グループあたりのマシン数とユーザReduceの処理時間との関係を示す図である。本実施形態は、回帰分析により、1回の基準Reduceの処理時間を予測する予測モデル式を取得し、共通の或る分散実行パターンに対応するユーザReduceの処理時間と基準Reduceの処理時間との比で、当該予測モデル式を補正することにより、各分散実行パターンに対応する1処理あたりのユーザReduceの処理時間を推定する。この場合、ユーザReduceの処理時間Tは、以下の(式6)に示されるように、各分散実行パターンに対応する1処理あたりのユーザReduceの処理時間に、各分散実行パターンに対応する1コンピュータ当たりの処理数が掛け合わされることにより、推定される。
Figure 0006176111
上記(式6)における、f(p,n)は1回の基準Reduceの処理時間を予測する予測モデル式であり、t/tRaが、共通の或る分散実行パターンに対応するユーザReduceの処理時間と基準Reduceの処理時間との比である。よって、(t/tRa)*f(p,n)は、各分散実行パターンに対応する1処理あたりのユーザReduceの処理時間に相当する。
最後に、ユーザSetupの処理時間について説明する。ユーザSetupは、上述したように、MapReduceの実行前の初期化等のために設けられるフェーズである。
図7は、グループあたりのマシン数とユーザSetupの処理時間との関係を示す図である。図7に示されるように、ユーザSetupでは、処理数に応じて処理時間tかかる。よって、ユーザSetupの処理時間Tは、以下の(式7)により推定することができる。
Figure 0006176111
このように推定される各フェーズの処理時間T、T及びTを加算することにより、図8に示されるような上記(式2)を導くことができる。図8は、グループあたりのマシン数とトータル実行時間との関係を示す図である。なお、上記(式2)の2つの式についてそれぞれ最小値を求めて、小さいほうの値を得るためのpを最終的に取得すればよい。但し、上記(式2)の下側の式では、最小値を取るpは、min{PMD、PCD}となる。ユーザMapの処理時間が一定で、ユーザReduce及びユーザSetupの各処理時間がグループあたりのマシン数pが小さくなるにつれて減少するからである。よって、実際に計算する必要があるのは上記(式2)の上側の式である。上記(式2)の上側の式は、f(n,p)に例えば式1を選んだ場合には、微分して整理するとpに関する3次式となる。この場合、上記(式2)の上側の式については、例えばカルダノの公式により解析的に算出するようにしてもよい。
スレーブ装置20は、マスタ装置10の実行部101からの指示に応じて、分散プログラムを実行する。実行部101からの指示には、パターン選択部109で選択された分散実行パターンに対応して、いくつのプログラムをどのパラメータで実行すべきかが含まれる。なお、上述したように、このような分散プログラムの実行は、マスタ装置10も担当してもよい。
〔動作例〕
以下、第1実施形態における分散処理システム1の動作例について図9を用いて説明する。図9は、第1実施形態における分散処理システム1の動作例を示すフローチャートである。
マスタ装置10の実行部101は、処理を開始すると、まず、実行すべき分散プログラムに関する情報を取得する(S90)。処理の開始は、例えば、マスタ装置10と通信網5で接続される外部の装置等から送られる分散処理要求を実行部101が受信したことを契機に行われる。本実施形態はこの処理の開始の契機を制限しない。
分散プログラムに関する情報としては、例えば、プログラム名、当該プログラムを異なるパラメータで複数実行するためのパラメータリスト、入力ファイル名とそのデータサイズD、当該プログラムがReduceフェーズで処理するデータサイズnなどが取得される。実行部101は、パラメータリストに含まれるパラメータ数を処理数Cとして取得する。このような情報は、分散処理要求と共に受信されてもよいし、分散処理要求とは別に他の処理部から取得されてもよいし、予め実行部101により保持されていてもよい。
次に、実行部101は、当該分散プログラムに対応するユーザMapの計算時間(t)、ユーザSetupの処理時間(t)及びユーザReduceの処理時間(t)がデータ格納部107に格納されているか否かを確認する(S91)。
実行部101は、データ格納部107にそれらデータが格納されていない場合(S92;NO)、ユーザMap計測部102、ユーザSetup計測部103及びユーザReduce計測部104にそれらデータを計測するよう指示する。この指示に応じて、ユーザMap計測部102、ユーザSetup計測部103及びユーザReduce計測部104は、ユーザMap、ユーザSetup、ユーザReduceを実際に実行させることにより、ユーザMapの計算時間(t)、ユーザSetupの処理時間(t)及びユーザReduceの処理時間(t)を計測し、計測されたt、t、tをデータ格納部107に格納する(S93)。
次に、実行部101は、クラスタに関する情報がデータ格納部107に格納されているか否かを確認する(S94)。実行部101は、クラスタに関する情報が格納されていない場合(S95;NO)、クラスタプロファイル読込部108に読み込みを指示する。
クラスタプロファイル読込部108は、この指示に応じて、クラスタプロファイルを読み込み、読み込まれた情報をデータ格納部107に格納する(S96)。ここでは、クラスタ(分散処理システム1)内のマシン数M、1マシンあたりのメモリサイズMem、ディスクバンド幅W等が読み込まれ、データ格納部107に格納される。
次に、実行部101は、予測モデル係数がデータ格納部107に既に格納されているか否かを確認する(S97)。実行部101は、予測モデル係数が未だ格納されていない場合(S97;NO)、基準Reduce計測部105に計測を指示する。
この指示に応じて、基準Reduce計測部105は、基準Reduceで処理されるデータサイズと基準Reduceを実行するマシン数とを変化させながら、当該基準Reduceを実際に実行させ、その基準Reduceの処理時間を計測する(S98)。基準Reduce計測部105は、計測により取得された、マシン数、データサイズ及び処理時間の複数の組み合わせを回帰分析部106へ提供する。
回帰分析部106は、基準Reduce計測部105から提供された組み合わせデータを用いて、回帰分析を行うことで予測モデル式の係数を決定し、決定された係数をデータ格納部107に格納する(S99)。予測モデル式は、1回の基準Reduceの処理時間を予測する回帰式であり、予め回帰分析部106に保持される。
続いて、実行部101は、パターン選択部109を起動し、パターン選択部109に、処理(S90)で取得された入力データサイズD、Reduce処理のデータサイズn、処理数Cを提供する。
パターン選択部109は、データ格納部107からトータル実行時間を推定するために必要な各種情報を抽出する。具体的には、パターン選択部109は、クラスタに関する情報として、ディスクバンド幅W、クラスタ内マシン数M、1マシンあたりのメモリサイズMemを取得する。更に、パターン選択部109は、ユーザMapの計算時間t、1処理あたりのユーザSetupの処理時間t、1処理あたりのユーザReduceの処理時間t、予測モデル式f(p,n)及び予測モデル係数を取得する。予測モデル式f(p,n)が上記(式1)で示される場合、予測モデル係数a1、a2、a3、a4が取得される。
続いて、パターン選択部109は、これら取得された情報を用いて、実行すべき分散プログラムのトータル実行時間を推定し、推定されるトータル実行時間が最小となる分散実行パターンを選択する(S100)。トータル実行時間の推定は、例えば、上記(式2)を用いて行われる。パターン選択部109は、選択された分散実行パターンを特定し得る情報を実行部101に渡す。上記(式2)の例によれば、グループあたりのマシン数pが実行部101に送られる。
実行部101は、取得された分散実行パターンを特定し得る情報を用いて、分散処理システム1内の複数のスレーブ装置20をグループ分けする。実行部101は、処理(S90)で取得されたパラメータリストに基づいて、各パラメータを各グループに振り分け、各グループに属するスレーブ装置20に、振り分けられたパラメータと共に、実行依頼を行う。このとき、実行部101は、処理(S90)で取得されたプログラム名、入力ファイル名等を渡してもよい。
この依頼を受けて、各スレーブ装置20は、指定されたプログラムを指定されたパラメータでそれぞれ実行する(S101)。
図9の例における動作例では、ユーザMap計測部102、ユーザSetup計測部103及びユーザReduce計測部104による計測(S93)、クラスタプロファイル読込部108によるクラスタに関する情報の取得(S96)、基準Reduce計測部105及び回帰分析部106による予測モデル式の取得(S98及びS99)がシーケンシャルに実行されている。しかしながら、これらの各処理は、処理(S90)の前に、並行に実行されてもよい。また、データ格納部107に必要なデータが格納されているか否かの確認が、実行部101により行われる例が示されたが、その確認は、パターン選択部109が実行してもよい。
〔第1実施形態の作用及び効果〕
第1実施形態では、パラメータの異なる複数の処理を実現する分散プログラムのトータル実行時間が最小となる分散実行パターンが選択され、選択された分散実行パターンに基づいて当該分散プログラムが実行される。よって、第1実施形態によれば、実行すべき分散プログラムのトータル実行時間を短縮させることができる。
第1実施形態では、分散プログラムを構成する各フェーズ(Map、Setup、Reduce)でかかる処理時間(T、T、T)を合せることにより取得された、分散実行パターン(例えば、グループあたりのマシン数p)に基づく分散プログラムのトータル実行時間の推定式を用いて、分散プログラムのトータル実行時間が推定される。よって、各フェーズの実装形態の特性に応じた処理時間の推定式を用いれば、正確に、分散プログラムのトータル実行時間を推定することができ、ひいては、最適な分散実行パターンを選択することができる。
Mapフェーズでかかる処理時間Tでは、計算がボトルネックになる領域とデータの読み取りがボトルネックになる領域とが考慮され、更に、データが格納されている場所(ディスクかメモリか)が考慮された。これにより、各分散実行パターンに対応する1コンピュータ当たりのデータ読み取り時間(D/(p×W))、及び、ユーザMapがデータを処理するのに要する時間(t)(データを読む時間は含まれず、純粋にデータ処理にかかる時間)のいずれか一方の時間が、トータル実行時間に含まれるMapフェーズの処理時間として推定される。
Reduceフェーズに関しては、基準Reduceを用いることにより1回の基準Reduceの処理時間を予測する予測モデル式が取得され、共通の1つの分散実行パターンに対応する、1処理あたりのユーザReduceの処理時間と1回の基準Reduceの処理時間との比で、当該予測モデル式を補正することにより、各分散実行パターンに対応するユーザReduceの処理時間Tが推定される。更に、予測モデル式は、実際に計測された、基準Reduceの処理時間と処理されるデータ量とマシン数との組み合わせデータを用いた回帰分析より求められる。
Setupフェーズに関しては、1処理あたりのユーザSetupの処理時間の実測値が取得され、この実測値に、各分散実行パターンに対応する1コンピュータ当たりの処理数が掛け合わされることにより、ユーザSetupの処理時間Tが推定される。
これらにより、本実施形態によれば、分散プログラムのトータル時間を、その分散プログラムの各フェーズの実装形態に応じて精密に推定することができる。結果、本実施形態によれば、分散プログラムのトータル実行時間を最短にする最適な分散実行パターンを選択することができる。
[第2実施形態]
以下、第2実施形態における分散処理システム1について、第1実施形態と異なる内容を中心に説明し、第1実施形態と同じ内容については適宜省略する。
〔装置構成〕
図10は、第2実施形態におけるマスタ装置10の構成例を概念的に示す図である。図10に示されるように、第2実施形態におけるマスタ装置10は、第1実施形態の構成に加えて、予測モデル格納部110及びモデル選択部111を更に有する。これら各処理部についても、例えば、メモリに格納されるプログラムがCPU11により実行されることにより実現される。
第1実施形態では、回帰分析部106が1つの予測モデル式を保持する例を示した。第2実施形態では、予測モデル格納部110が、1回の基準Reduceの処理時間を予測する複数の予測モデル式を格納する。予測モデル式の構築方法については第1実施形態において述べたとおりである。予測モデル式として一般的な多項式が用いられる場合、予測モデル格納部110は、次のような複数の予測モデル式を格納する。
a1+a2*p+a3*n=f1(p,n) (式8−1)
a1+a2*p+a3*n+a4*p^2=f2(p,n) (式8−2)
a1+a2*p+a3*n+a4*n^2=f3(p,n) (式8−3)
a1+a2*p+a3*n+a4*n*p=f4(p,n) (式8−4)
予測モデル格納部110は、これら複数の予測モデル式を予め格納していてもよいし、他のコンピュータから取得された複数の予測モデルを格納してもよいし、ユーザインタフェースを介してユーザにより入力された複数の予測モデルを格納してもよい。
回帰分析部106は、基準Reduce計測部105から受けたデータを用いて、予測モデル格納部110に格納される複数の予測モデル式に対してそれぞれ回帰分析を行う。回帰分析部106は、各予測モデル式の係数がそれぞれ取得されると、それらを予測モデル格納部110へ格納する。
モデル選択部111は、予測モデル格納部110に格納されている複数の予測モデル式の中から、最良の予測モデル式を選択し、選択された予測モデル式に関する情報を予測モデル格納部110に格納する。具体的には、モデル選択部111は、各予測モデル式の回帰分析結果に基づいてAIC(Akaike's Information Criterion)、BIC(Bayesian Information Criterion)、MDL(Minimum Description Length)等のような周知の情報量基準を算出することにより、最良の予測モデル式を選択する。
パターン選択部109は、当該トータル実行時間を推定するにあたり、モデル選択部111により選択された予測モデル式を予測モデル格納部110から抽出する。
図11は、第2実施形態における分散処理システム1の動作例を示すフローチャートである。第2実施形態では、回帰分析部106は、処理(S99)において、予測モデル格納部110に格納される各予測モデル式に対して回帰分析をそれぞれ行う。そして、モデル選択部111が、その回帰分析の結果を用いて、情報量基準を算出することにより、複数の予測モデル式の中から1つの予測モデル式を選択する(S110)。パターン選択部109は、モデル選択部111により選択された予測モデル式を用いて分散プログラムのトータル実行時間を推定する(S100)。
〔第2実施形態の作用及び効果〕
上述のように、第2実施形態では、複数の予測モデル式の候補の中から、最良の予測モデル式が選択されて、この選択された予測モデル式を用いて、各分散実行パターンに対応するユーザReduceの処理時間が推定される。従って、第2実施形態によれば、ユーザReduceの処理時間を一層正確に推定することができ、ひいては、トータル実行時間を最小化する最良の分散実行パターンを選択することができる。
[変形例]
なお、上述の実施形態では、分散実行パターンを特定する情報としてグループあたりのマシン数pを用いることにより、上記(式2)の値が最小となるpが決定された。分散実行パターンを特定する情報としてはグループ数gが用いられてもよい。この場合、上記(式2)のpをM/gで置き換えた式を利用して、その式の値が最小となるgが決定されればよい。
また、上述の実施形態では、回帰分析により、1回の基準Reduceの処理時間を予測する予測モデル式が取得され、ユーザReduceの処理時間と基準Reduceの処理時間との比で当該予測モデル式を補正することにより、ユーザReduceの処理時間が推定された。しかしながら、ユーザReduceの実装形態に対応するユーザReduceの処理時間の理論式を用いて、ユーザReduceの処理時間を推定するようにしてもよい。
例えば、ユーザReduceの実装形態に応じて、データ通信時間、通信レイテンシ、ユーザReduceに必要なCPU時間等から導かれるf(p,n)を予め保持し、これを用いるようにしてもよい。この場合には、上記(式2)の代わりに以下の(式9)を用いてもよい。この場合には、ユーザReduce計測部104、基準Reduce計測部105、回帰分析部106は不要である。
Figure 0006176111
また、上述の第1実施形態及び第2実施形態では、パターン選択部109が、Mapフェーズ、Reduceフェーズ、及びSetupフェーズの各フェーズの処理時間の合計により当該トータル実行時間を推定した。しかしながら、Setupフェーズでは、初期化処理のみが行われ、その処理時間が当該トータル実行時間に与える影響が小さい場合があり得る。この場合、パターン選択部109は、ユーザMapの処理時間及びユーザReduceの処理時間のみを用いて当該トータル実行時間を推定するようにしてもよい。上記(式2)の代わりに以下の(式10)を用いてもよい。この場合には、ユーザSetup計測部103は不要である。
Figure 0006176111
また、上述の第1実施形態及び第2実施形態では、パターン選択部109が、Mapフェーズ、Reduceフェーズ、及びSetupフェーズの各フェーズの処理時間の合計により当該トータル実行時間を推定した。しかしながら、処理によっては、Setupフェーズ、Reduceフェーズの処理時間がMapフェーズの処理時間に対し、十分小さい場合がありうる。この場合、パターン選択部109は、ユーザMapの処理時間のみを用いて当該トータル実行時間を推定するようにしてもよい。上記(式2)の代わりに、以下の式を満たすpを求めることで代用してもよい。
=D/(p・W)
この場合、ユーザReduce計測部104と基準Reduce計測部105、回帰分析部106は不要である。
また、上述の第1実施形態及び第2実施形態においてマスタ装置10が有する各処理部は、異なるコンピュータ上に存在していてもよい。例えば、パターン選択部109、データ格納部107、クラスタプロファイル読込部108は、マスタ装置10以外の他のコンピュータ上で実現されてもよい。
なお、上述の説明で用いた複数のフローチャートでは、複数のステップ(処理)が順番に記載されているが、本実施形態で実行される処理ステップの実行順序は、その記載の順番に制限されない。本実施形態では、図示される処理ステップの順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態及び各変形例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
(付記1)複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行するのにかかるトータル実行時間を、該複数のコンピュータのグループ分け形態を示しかつ各処理を担当するコンピュータの数に対応する分散実行パターンに応じて推定することにより、複数の分散実行パターンの中から、該トータル実行時間が最小となる分散実行パターンを選択する選択部、
を備えることを特徴とする分散処理管理装置。
(付記2)前記複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに所定処理を施すことにより得られるデータを後段のフェーズに送るMapフェーズと、該Mapフェーズで分解されたデータに対して所定処理を行うReduceフェーズと、を少なくとも含み、
前記選択部は、前記Mapフェーズの処理時間の推定式により得られる、又は、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる、前記各分散実行パターンに依存する推定式を用いて、前記トータル実行時間を推定する、
ことを特徴とする付記1に記載の分散処理管理装置。
(付記3)前記複数のコンピュータの少なくとも1つに前記Mapフェーズを実行させることにより、前記Mapフェーズの計算時間を計測するMapフェーズ計測部、
を更に備え、
前記選択部は、前記各分散実行パターンに対応する1コンピュータ当たりのデータ読み取り時間、及び、前記Mapフェーズ計測部により計測された前記Mapフェーズの前記計算時間を取得し、取得されたいずれか一方の時間を、前記トータル実行時間に含まれる前記Mapフェーズの処理時間として用いる、
ことを特徴とする付記2に記載の分散処理管理装置。
(付記4)前記複数の分散実行パターンの中の第1分散実行パターンで前記複数の処理の中の1つを実行させることにより、該第1分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間を計測するReduceフェーズ計測部、
を更に備え、
前記選択部は、処理されるデータ量と前記各分散実行パターンとに応じて前記Reduceフェーズの処理の基準とされる基準処理の処理時間を予測する予測モデル式を取得し、該予測モデル式に基づいて前記第1分散実行パターンに対応する基準処理の処理時間を推定し、前記第1分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間と前記第1分散実行パターンに対応する基準処理の処理時間との比を用いて該予測モデル式を補正することにより、前記各分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間を推定し、該推定されたReduceフェーズの処理時間を用いて、前記トータル実行時間に含まれる前記Reduceフェーズの実行時間を推定する、
ことを特徴とする付記2又は3に記載の分散処理管理装置。
(付記5)担当するコンピュータの数及び処理されるデータ量を変えながら、前記基準処理を実際に実行することにより、前記基準処理の実行時間を計測する基準処理計測部と、
前記基準処理計測部により取得された、担当するコンピュータの数、処理されるデータ量及び前記基準処理の実行時間の複数の組み合わせデータを用いて回帰分析を行うことにより、前記予測モデル式を推定する回帰分析部と、
を更に備えることを特徴とする付記4に記載の分散処理管理装置。
(付記6)前記基準処理の処理時間を予測する複数の予測モデル式を格納する予測モデル格納部と、
前記回帰分析部による各予測モデル式に対する回帰分析の結果に基づいて情報量基準により前記複数の予測モデル式を評価することにより、前記複数の予測モデル式の中の1つを選択する予測モデル選択部と、
を更に備え、
前記選択部は、前記予測モデル選択部により選択された予測モデル式を取得する、
ことを特徴とする付記5に記載の分散処理管理装置。
(付記7)前記複数のフェーズは、後段のフェーズのための初期化処理を行うSetupフェーズを更に含み、
前記分散処理管理装置は、
前記複数のコンピュータの少なくとも1つに前記複数の処理の中の1つを実行させることにより、1処理あたりのSetupフェーズの処理時間を計測するSetupフェーズ計測部、を更に備え、
前記選択部は、前記各分散実行パターンに対応する1コンピュータ当たりの処理数を取得し、前記1処理あたりのSetupフェーズの処理時間に、該1コンピュータ当たりの処理数を掛け合わせることにより、前記Setupフェーズの処理時間の推定式を推定し、前記Mapフェーズの処理時間の推定式及び前記Reduceフェーズの処理時間の推定式に加えて、前記Setupフェーズの処理時間の推定式を更に合わせることにより得られる、前記各分散実行パターンに依存する推定式を用いて、前記トータル実行時間を推定する、
ことを特徴とする付記2から6のいずれか1つに記載の分散処理管理装置。
(付記8)前記選択部により選択された分散実行パターンにより示されるグループ分け形態に基づいて、各グループに対して各パラメータをそれぞれ割り当て、前記複数の処理を分散実行するように該各グループに指示する分散処理実行部、
を更に備える付記1から7のいずれか1つに記載の分散処理管理装置。
(付記9)コンピュータが、
複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行するのにかかるトータル実行時間を、該複数のコンピュータのグループ分け形態を示しかつ各処理を担当するコンピュータの数に対応する分散実行パターンに応じて推定することにより、複数の分散実行パターンの中から、該トータル実行時間が最小となる分散実行パターンを選択する、
ことを含む分散処理管理方法。
(付記10)前記複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに所定処理を施すことにより得られるデータを後段のフェーズに送るMapフェーズと、該Mapフェーズで分解されたデータに対して所定処理を行うReduceフェーズと、を少なくとも含み、
前記分散実行パターンの選択は、前記Mapフェーズの処理時間の推定式により得られる、又は、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる、前記各分散実行パターンに依存する推定式を用いて、前記トータル実行時間を推定する、
付記9に記載の分散処理管理方法。
(付記11)前記コンピュータが、
前記複数のコンピュータの少なくとも1つに前記Mapフェーズを実行させることにより、前記Mapフェーズの計算時間を計測する、
ことを更に含み、
前記分散実行パターンの選択は、前記各分散実行パターンに対応する1コンピュータ当たりのデータ読み取り時間、及び、計測された前記Mapフェーズの前記計算時間を取得し、取得されたいずれか一方の時間を、前記トータル実行時間に含まれる前記Mapフェーズの処理時間として用いる、
付記10に記載の分散処理管理方法。
(付記12)前記コンピュータが、
前記複数の分散実行パターンの中の第1分散実行パターンで前記複数の処理の中の1つを実行させることにより、該第1分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間を計測する、
ことを更に含み、
前記分散実行パターンの選択は、
処理されるデータ量と前記各分散実行パターンとに応じて前記Reduceフェーズの処理の基準とされる基準処理の処理時間を予測する予測モデル式を取得し、
前記予測モデル式に基づいて前記第1分散実行パターンに対応する基準処理の処理時間を推定し、
前記第1分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間と前記第1分散実行パターンに対応する基準処理の処理時間との比を用いて該予測モデル式を補正することにより、前記各分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間を推定する、
ことを含み、
前記推定されたReduceフェーズの処理時間を用いて、前記トータル実行時間に含まれる前記Reduceフェーズの実行時間を推定する、
ことを特徴とする付記10又は11に記載の分散処理管理方法。
(付記13)前記コンピュータが、
担当するコンピュータの数及び処理されるデータ量を変えながら、前記基準処理を実際に実行することにより、前記基準処理の実行時間を計測し、
前記担当するコンピュータの数、前記処理されるデータ量及び前記基準処理の実行時間の複数の組み合わせデータを用いて回帰分析を行うことにより、前記予測モデル式を推定する、
ことを更に含む付記12に記載の分散処理管理方法。
(付記14)前記コンピュータが、
前記基準処理の処理時間を予測する複数の予測モデル式に対して回帰分析をそれぞれ行い、
前記各予測モデル式に対する回帰分析の結果に基づいて情報量基準により前記複数の予測モデル式を評価することにより、前記複数の予測モデル式の中の1つを選択する、
ことを更に含み、
前記分散実行パターンの選択は、前記選択された予測モデル式を取得する、
付記13に記載の分散処理管理方法。
(付記15)前記複数のフェーズは、後段のフェーズのための初期化処理を行うSetupフェーズを更に含み、
前記コンピュータが、
前記複数のコンピュータの少なくとも1つに前記複数の処理の中の1つを実行させることにより、1処理あたりのSetupフェーズの処理時間を計測する、
ことを更に含み、
前記分散実行パターンの選択は、前記各分散実行パターンに対応する1コンピュータ当たりの処理数を取得し、前記1処理あたりのSetupフェーズの処理時間に、該1コンピュータ当たりの処理数を掛け合わせることにより、前記Setupフェーズの処理時間の推定式を推定し、前記Mapフェーズの処理時間の推定式及び前記Reduceフェーズの処理時間の推定式に加えて、前記Setupフェーズの処理時間の推定式を更に合わせることにより得られる、前記各分散実行パターンに依存する推定式を用いて、前記トータル実行時間を推定する、
付記10から14のいずれか1つに記載の分散処理管理方法。
(付記16)前記コンピュータが、
前記選択された分散実行パターンにより示されるグループ分け形態に基づいて、各グループに対して各パラメータをそれぞれ割り当て、
前記複数の処理を分散実行するように前記各グループに指示する、
ことを更に含む付記9から15のいずれか1つに記載の分散処理管理方法。
(付記17)コンピュータに、
複数のコンピュータが複数のフェーズでパラメータの異なる複数の処理を分散実行するのにかかるトータル実行時間を、該複数のコンピュータのグループ分け形態を示しかつ各処理を担当するコンピュータの数に対応する分散実行パターンに応じて推定することにより、複数の分散実行パターンの中から、該トータル実行時間が最小となる分散実行パターンを選択する選択部、
を実現させることを特徴とするプログラム。
(付記18)前記複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに所定処理を施すことにより得られるデータを後段のフェーズに送るMapフェーズと、該Mapフェーズで分解されたデータに対して所定処理を行うReduceフェーズと、を少なくとも含み、
前記選択部は、前記Mapフェーズの処理時間の推定式により得られる、又は、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる、前記各分散実行パターンに依存する推定式を用いて、前記トータル実行時間を推定する、
ことを特徴とする付記17に記載のプログラム。
(付記19)前記コンピュータに、
前記複数のコンピュータの少なくとも1つに前記Mapフェーズを実行させることにより、前記Mapフェーズの計算時間を計測するMapフェーズ計測部、
を更に実現させ、
前記選択部は、前記各分散実行パターンに対応する1コンピュータ当たりのデータ読み取り時間、及び、前記Mapフェーズ計測部により計測された前記Mapフェーズの前記計算時間を取得し、取得されたいずれか一方の時間を、前記トータル実行時間に含まれる前記Mapフェーズの処理時間として用いる、
ことを特徴とする付記18に記載のプログラム。
(付記20)前記コンピュータに、
前記複数の分散実行パターンの中の第1分散実行パターンで前記複数の処理の中の1つを実行させることにより、該第1分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間を計測するReduceフェーズ計測部、
を更に実現させ、
前記選択部は、処理されるデータ量と前記各分散実行パターンとに応じて前記Reduceフェーズの処理の基準とされる基準処理の処理時間を予測する予測モデル式を取得し、該予測モデル式に基づいて前記第1分散実行パターンに対応する基準処理の処理時間を推定し、前記第1分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間と前記第1分散実行パターンに対応する基準処理の処理時間との比を用いて該予測モデル式を補正することにより、前記各分散実行パターンに対応する1処理あたりのReduceフェーズの処理時間を推定し、該推定されたReduceフェーズの処理時間を用いて、前記トータル実行時間に含まれる前記Reduceフェーズの実行時間を推定する、
ことを特徴とする付記18又は19に記載のプログラム。
(付記21)前記コンピュータに、
担当するコンピュータの数及び処理されるデータ量を変えながら、前記基準処理を実際に実行することにより、前記基準処理の実行時間を計測する基準処理計測部と、
前記基準処理計測部により取得された、担当するコンピュータの数、処理されるデータ量及び前記基準処理の実行時間の複数の組み合わせデータを用いて回帰分析を行うことにより、前記予測モデル式を推定する回帰分析部と、
を更に実現させることを特徴とする付記20に記載のプログラム。
(付記22)前記コンピュータに、
前記基準処理の処理時間を予測する複数の予測モデル式を格納する予測モデル格納部と、
前記回帰分析部による各予測モデル式に対する回帰分析の結果に基づいて情報量基準により前記複数の予測モデル式を評価することにより、前記複数の予測モデル式の中の1つを選択する予測モデル選択部と、
を更に実現させ、
前記選択部は、前記予測モデル選択部により選択された予測モデル式を取得する、
ことを特徴とする付記21に記載のプログラム。
(付記23)前記複数のフェーズは、後段のフェーズのための初期化処理を行うSetupフェーズを更に含み、
前記コンピュータに、
前記複数のコンピュータの少なくとも1つに前記複数の処理の中の1つを実行させることにより、1処理あたりのSetupフェーズの処理時間を計測するSetupフェーズ計測部、
を更に実現させ、
前記選択部は、前記各分散実行パターンに対応する1コンピュータ当たりの処理数を取得し、前記1処理あたりのSetupフェーズの処理時間に、該1コンピュータ当たりの処理数を掛け合わせることにより、前記Setupフェーズの処理時間の推定式を推定し、前記Mapフェーズの処理時間の推定式及び前記Reduceフェーズの処理時間の推定式に加えて、前記Setupフェーズの処理時間の推定式を更に合わせることにより得られる、前記各分散実行パターンに依存する推定式を用いて、前記トータル実行時間を推定する、
ことを特徴とする付記18から22のいずれか1つに記載のプログラム。
(付記24)前記コンピュータに、
前記選択部により選択された分散実行パターンにより示されるグループ分け形態に基づいて、各グループに対して各パラメータをそれぞれ割り当て、前記複数の処理を分散実行するように該各グループに指示する分散処理実行部、
を更に実現させる付記17から23のいずれか1つに記載のプログラム。
(付記25)付記17から24のいずれか1つに記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
この出願は、2011年8月15日に出願された日本出願特願2011−177753号、及び、2011年11月8日に出願された日本出願特願2011−244517号を基礎とする優先権を主張し、それら開示の全てをここに取り込む。

Claims (10)

  1. 複数の処理をグループ分けされた複数のコンピュータの各グループに割り当てて分散実行するのにかかるトータル実行時間が最小となるグループ形態を、各処理を担当するグループ当たりのコンピュータの数に対応する複数の情報の中から、選択する選択部、
    を備え
    前記複数の処理は、複数のフェーズで実行され、
    該複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに第1の処理を施すことにより得られる出力データを後段のフェーズに送るMapフェーズと、当該出力データに対して第2の処理を行うReduceフェーズと、を少なくとも含み、
    前記選択部は、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する、分散処理管理装置。
  2. 前記複数のコンピュータの少なくとも1つに前記Mapフェーズを実行させることにより、前記Mapフェーズの計算時間を計測するMapフェーズ計測部、
    を備え、
    前記選択部は、前記複数の情報で示される各グループ形態に対応する1コンピュータ当たりのデータ読み取り時間、及び、前記Mapフェーズ計測部により計測された前記Mapフェーズの前記計算時間、のいずれかを、前記トータル実行時間に含まれる前記Mapフェーズの処理時間として用いる、
    請求項に記載の分散処理管理装置。
  3. 前記複数の情報の中の第1の情報で示されるグループ形態であらわされるグループの1つに前記複数の処理の中の1つを実行させることにより、該第1の情報で示されるグループ形態に対応する1処理あたりのReduceフェーズの処理時間を計測するReduceフェーズ計測部、
    を備え、
    前記選択部は、処理されるデータ量と前記複数の情報で示される各グループ形態とに応じて前記Reduceフェーズの処理の基準とされる基準処理の処理時間を予測する予測モデル式を取得し、該予測モデル式に基づいて前記第1の情報で示されるグループ形態に対応する基準処理の処理時間を推定し、前記第1の情報で示されるグループ形態に対応する1処理あたりのReduceフェーズの処理時間と前記第1の情報で示されるグループ形態に対応する前記基準処理の処理時間との比を用いて該予測モデル式を補正することにより、前記複数の情報で示される各グループ形態に対応する1処理あたりのReduceフェーズの処理時間を推定し、該推定されたReduceフェーズの処理時間を用いて、前記トータル実行時間に含まれる前記Reduceフェーズの実行時間を推定する、
    請求項又はに記載の分散処理管理装置。
  4. 担当するコンピュータの数及び処理されるデータ量を変えながら、前記基準処理を実際に実行することにより、前記基準処理の実行時間を計測する基準処理計測部と、
    前記基準処理計測部により取得された、担当するコンピュータの数、処理されるデータ量及び前記基準処理の実行時間の複数の組み合わせデータを用いて回帰分析を行うことにより、前記予測モデル式を推定する回帰分析部と、
    を備える請求項に記載の分散処理管理装置。
  5. 前記基準処理の処理時間を予測する複数の予測モデル式を格納する予測モデル格納部と、
    前記回帰分析部による各予測モデル式に対する回帰分析の結果に基づいて情報量基準により前記複数の予測モデル式を評価することにより、前記複数の予測モデル式の中の1つを選択する予測モデル選択部と、
    を備え、
    前記選択部は、前記予測モデル選択部により選択された予測モデル式を取得する、
    請求項に記載の分散処理管理装置。
  6. 前記複数のフェーズは、後段のフェーズのための初期化処理を行うSetupフェーズを含み、
    前記分散処理管理装置は、
    前記複数のコンピュータの少なくとも1つに前記複数の処理の中の1つを実行させることにより、1処理あたりのSetupフェーズの処理時間を計測するSetupフェーズ計測部、
    を備え、
    前記選択部は、前記複数の情報で示される各グループ形態に対応する1コンピュータ当たりの処理数を取得し、前記1処理あたりのSetupフェーズの処理時間に、該1コンピュータ当たりの処理数を掛け合わせることにより、前記Setupフェーズの処理時間の推定式を推定し、前記Mapフェーズの処理時間の推定式及び前記Reduceフェーズの処理時間の推定式に、前記Setupフェーズの処理時間の推定式を合わせることにより得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する、
    請求項からのいずれか1項に記載の分散処理管理装置。
  7. 前記選択部により選択されたグループ形態に対応するグループ分けをされた、複数のコンピュータの各グループに、前記複数の処理を割り当てて分散実行するように該各グループに指示する分散処理実行部、
    を備える請求項1からのいずれか1項に記載の分散処理管理装置。
  8. 前記複数の処理は、複数のフェーズで実行され、
    該複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに第1の処理を施すことにより得られる出力データを後段のフェーズに送るMapフェーズと、当該出力データに対して第2の処理を行うReduceフェーズと、を少なくとも含み、
    前記選択部は、前記Mapフェーズの処理時間の推定式により得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する、
    請求項1に記載の分散処理管理装置。
  9. コンピュータが、
    複数の処理をグループ分けされた複数のコンピュータの各グループに割り当てて分散実行するのにかかるトータル実行時間が最小となるグループ形態を、各処理を担当するグループ当たりのコンピュータの数に対応する複数の情報の中から、選択
    前記複数の処理は、複数のフェーズで実行され、
    該複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに第1の処理を施すことにより得られる出力データを後段のフェーズに送るMapフェーズと、当該出力データに対して第2の処理を行うReduceフェーズと、を少なくとも含み、
    前記コンピュータが、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する、分散処理管理方法。
  10. コンピュータに、
    複数の処理をグループ分けされた複数のコンピュータの各グループに割り当てて分散実行するのにかかるトータル実行時間が最小となるグループ形態を、各処理を担当するグループ当たりのコンピュータの数に対応する複数の情報の中から、選択する選択部、
    を実現させ
    前記複数の処理は、複数のフェーズで実行され、
    該複数のフェーズは、前記各処理のための入力データを読み込み、該入力データに第1の処理を施すことにより得られる出力データを後段のフェーズに送るMapフェーズと、当該出力データに対して第2の処理を行うReduceフェーズと、を少なくとも含み、
    前記選択部は、前記Mapフェーズの処理時間の推定式と前記Reduceフェーズの処理時間の推定式とを合わせることにより得られる推定式であって、前記複数の情報で示される各グループ形態に依存する推定式を用いて、前記トータル実行時間を推定する、プログラム。
JP2013528921A 2011-08-15 2012-08-15 分散処理管理装置及び分散処理管理方法 Active JP6176111B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011177753 2011-08-15
JP2011177753 2011-08-15
JP2011244517 2011-11-08
JP2011244517 2011-11-08
PCT/JP2012/005163 WO2013024597A1 (ja) 2011-08-15 2012-08-15 分散処理管理装置及び分散処理管理方法

Publications (2)

Publication Number Publication Date
JPWO2013024597A1 JPWO2013024597A1 (ja) 2015-03-05
JP6176111B2 true JP6176111B2 (ja) 2017-08-09

Family

ID=47714931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013528921A Active JP6176111B2 (ja) 2011-08-15 2012-08-15 分散処理管理装置及び分散処理管理方法

Country Status (4)

Country Link
US (1) US20140201114A1 (ja)
EP (1) EP2746942A4 (ja)
JP (1) JP6176111B2 (ja)
WO (1) WO2013024597A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6357807B2 (ja) * 2014-03-05 2018-07-18 富士通株式会社 タスク割当プログラム、タスク実行プログラム、マスタサーバ、スレーブサーバおよびタスク割当方法
US9910888B2 (en) * 2014-10-01 2018-03-06 Red Hat, Inc. Map-reduce job virtualization
WO2017113278A1 (zh) * 2015-12-31 2017-07-06 华为技术有限公司 数据处理方法、装置和系统
US10878318B2 (en) 2016-03-28 2020-12-29 Google Llc Adaptive artificial neural network selection techniques
JP6766495B2 (ja) * 2016-07-21 2020-10-14 富士通株式会社 プログラム、コンピュータ及び情報処理方法
JP6411562B2 (ja) * 2017-02-24 2018-10-24 株式会社三菱総合研究所 情報処理装置、情報処理方法及びプログラム
JP6917732B2 (ja) * 2017-03-01 2021-08-11 株式会社日立製作所 プログラム導入支援システム、プログラム導入支援方法、及びプログラム導入支援プログラム
JP2018160258A (ja) * 2018-05-24 2018-10-11 株式会社三菱総合研究所 情報処理装置、情報処理方法及びプログラム
CN109375873B (zh) * 2018-09-27 2022-02-18 郑州云海信息技术有限公司 一种分布式存储集群中数据处理守护进程的初始化方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139271A (ja) * 1997-07-15 1999-02-12 Toshiba Corp ライブラリシステムおよびライブラリの割り当て方法
JP3792879B2 (ja) 1998-03-09 2006-07-05 富士通株式会社 並列実行システム
JP4739472B2 (ja) * 1998-12-04 2011-08-03 新日鉄ソリューションズ株式会社 性能予測装置および方法、記録媒体
JP3671759B2 (ja) * 1999-08-26 2005-07-13 株式会社日立製作所 ソフトウェア配布方法およびシステム
JP2001184222A (ja) * 1999-12-27 2001-07-06 Nec Ic Microcomput Syst Ltd 分散処理装置、分散処理方法および記録媒体
US7395250B1 (en) * 2000-10-11 2008-07-01 International Business Machines Corporation Methods and apparatus for outlier detection for high dimensional data sets
US6704687B2 (en) * 2001-01-31 2004-03-09 Hewlett-Packard Development Company, L.P. Historical results based method for automatically improving computer system performance
JP3683216B2 (ja) * 2001-12-28 2005-08-17 新日鉄ソリューションズ株式会社 性能評価装置、情報処理方法およびプログラム
US7805392B1 (en) * 2005-11-29 2010-09-28 Tilera Corporation Pattern matching in a multiprocessor environment with finite state automaton transitions based on an order of vectors in a state transition table
US8244747B2 (en) * 2006-12-05 2012-08-14 International Business Machines Corporation Middleware for query processing across a network of RFID databases
JP4405520B2 (ja) * 2007-01-22 2010-01-27 インターナショナル・ビジネス・マシーンズ・コーポレーション プロジェクトの進行スケジュールを調整するためのコンピュータプログラム、コンピュータ装置及び方法
WO2009059377A1 (en) * 2007-11-09 2009-05-14 Manjrosoft Pty Ltd Software platform and system for grid computing
JP2010079622A (ja) * 2008-09-26 2010-04-08 Hitachi Ltd マルチコアプロセッサシステム、および、そのタスク制御方法
JP2010218307A (ja) * 2009-03-17 2010-09-30 Hitachi Ltd 分散計算制御装置及び方法
US8239847B2 (en) * 2009-03-18 2012-08-07 Microsoft Corporation General distributed reduction for data parallel computing
US8229868B2 (en) * 2009-04-13 2012-07-24 Tokyo Institute Of Technology Data converting apparatus and medium having data converting program
US9250625B2 (en) * 2011-07-19 2016-02-02 Ge Intelligent Platforms, Inc. System of sequential kernel regression modeling for forecasting and prognostics

Also Published As

Publication number Publication date
EP2746942A1 (en) 2014-06-25
US20140201114A1 (en) 2014-07-17
JPWO2013024597A1 (ja) 2015-03-05
WO2013024597A1 (ja) 2013-02-21
EP2746942A4 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
JP6176111B2 (ja) 分散処理管理装置及び分散処理管理方法
JP7413580B2 (ja) ニューラルネットワークを使用した集積回路フロアプランの生成
US10318874B1 (en) Selecting forecasting models for time series using state space representations
JP6638030B2 (ja) Paradigm薬剤反応ネットワーク
Rasooli et al. COSHH: A classification and optimization based scheduler for heterogeneous Hadoop systems
CN103136039B (zh) 用于平衡能量消耗和调度性能的作业调度方法和系统
US20180004751A1 (en) Methods and apparatus for subgraph matching in big data analysis
JP5983728B2 (ja) 仮想マシン管理装置及び仮想マシン管理方法
US10120717B2 (en) Method for optimizing the size of a data subset of a processing space for improved execution performance
JP6953800B2 (ja) シミュレーションジョブを実行するためのシステム、コントローラ、方法、及びプログラム
US9916283B2 (en) Method and system for solving a problem involving a hypergraph partitioning
JP2016042284A (ja) 並列計算機システム、管理装置、並列計算機システムの制御方法及び管理装置の制御プログラム
KR20170092707A (ko) 최적화된 브라우저 렌더링 프로세스
US20150012629A1 (en) Producing a benchmark describing characteristics of map and reduce tasks
CN109033439A (zh) 流式数据的处理方法和装置
JP5803469B2 (ja) 予測方法及び予測プログラム
Rosas et al. Improving performance on data-intensive applications using a load balancing methodology based on divisible load theory
US20220076121A1 (en) Method and apparatus with neural architecture search based on hardware performance
US20190101911A1 (en) Optimization of virtual sensing in a multi-device environment
JP2012221254A (ja) 並列処理最適化装置及びシミュレーションプログラム
Shichkina et al. Applying the list method to the transformation of parallel algorithms into account temporal characteristics of operations
WO2020218246A1 (ja) 最適化装置、最適化方法、及びプログラム
CN109684094B (zh) 云平台环境下海量文献并行挖掘的负载分配方法及系统
CN108228323A (zh) 基于数据本地性的Hadoop任务调度方法及装置
CN111527734B (zh) 节点流量占比预测方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R150 Certificate of patent or registration of utility model

Ref document number: 6176111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150