JP6891399B2 - データ処理プログラム、データ処理方法およびデータ処理装置 - Google Patents

データ処理プログラム、データ処理方法およびデータ処理装置 Download PDF

Info

Publication number
JP6891399B2
JP6891399B2 JP2016079154A JP2016079154A JP6891399B2 JP 6891399 B2 JP6891399 B2 JP 6891399B2 JP 2016079154 A JP2016079154 A JP 2016079154A JP 2016079154 A JP2016079154 A JP 2016079154A JP 6891399 B2 JP6891399 B2 JP 6891399B2
Authority
JP
Japan
Prior art keywords
data
processing
server
servers
slave server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016079154A
Other languages
English (en)
Other versions
JP2017191387A (ja
Inventor
信貴 今村
信貴 今村
高橋 秀和
秀和 高橋
敏章 佐伯
敏章 佐伯
美穂 村田
美穂 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016079154A priority Critical patent/JP6891399B2/ja
Priority to US15/467,477 priority patent/US10334028B2/en
Publication of JP2017191387A publication Critical patent/JP2017191387A/ja
Application granted granted Critical
Publication of JP6891399B2 publication Critical patent/JP6891399B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データ処理プログラム、データ処理方法およびデータ処理装置に関する。
クラウドコンピューティングの普及に伴い、クラウド上に保存される大量のデータであるビッグデータを複数のサーバで分散して処理を実行する分散処理システムが利用されている。また、ビッグデータを分析して各種サービスに役立てることも行われる。例えば、ポイントカードの属性情報やPOS(Point of sale system)データを分析する事で、どのようなお客様がどのような商品を購入するかを分析することが行われる。
このような分散処理システムとしては、HDFS(Hadoop Distributed File System)とMapReduceとを基盤技術とするHadoop(登録商標)が知られている。HDFSは、複数のサーバにデータを分散格納するファイルシステムである。MapReduceは、HDFS上のデータをタスクと呼ばれる単位で分散処理する仕組みであり、Map処理、Shuffleソート処理、Reduce処理を実行する。また、分析処理としては、並列計算用の通信ライブラリであるMPI(Message Passing Interface)などが知られている。
例えば、MapReduce処理とMPI処理とを実行する分散処理システムは、ネームノードやジョブトラッカーとして動作するマスタサーバと、タスクトラッカーやデータノードと動作するとともにMPI処理を実行するスレーブサーバとを有する。そして、各スレーブサーバは、MapReduce処理において、CSV形式の入力ファイルに対してMap処理、Shuffleソート処理、Reduce処理を実行し、バイナリ形式に変換して、各スレーブサーバのローカルファイルに書き込む。続いて、各ローカルファイルに書き込まれたデータがHDFS上で結合される。その後、各スレーブサーバは、MPI処理において、HDFS上からバイナリデータを読み込んで、主成分分析を実行する。
特表2013−545169号公報 特開2011−150503号公報
しかしながら、上記技術では、MPI処理においてデータを読み出す際の通信量が多く、全体として処理効率がよくない。
例えば、上記分散処理システムの各スレーブサーバは、ネームノードの指示にしたがって、MapReduce処理の実行結果をローカルのデータノードに書き込む。その後、各スレーブサーバは、各スレーブサーバのローカルファイルに書き込まれたデータをHDFS上で結合する。このため、スレーブサーバがMPI処理を実行する時、ネットワークを経由して処理対象のデータを取得する事象が発生する。ネットワークを経由するデータ取得は、ネットワークの帯域や負荷による影響が大きく、処理遅延に繋がる。
1つの側面では、処理効率を向上させることができるデータ処理プログラム、データ処理方法およびデータ処理装置を提供することを目的とする。
第1の案では、データ処理プログラムは、コンピュータに、第1の分散処理を実行する複数のノードのいずれかから、前記第1の分散処理において入力データの一部が処理された処理結果のサイズに関するサイズ情報を取得する処理を実行させる。データ処理プログラムは、コンピュータに、前記第1の分散処理により生成されて前記複数のノードそれぞれに記憶されるデータを用いる第2の分散処理におけるデータ配置情報を取得する処理を実行させる。データ処理プログラムは、コンピュータに、前記サイズ情報および前記データ配置情報に基づき、前記複数のノードそれぞれが前記第1の分散処理で生成するデータの、配置パターンを規定するデータの配置指示を前記複数のノードに送信する処理を実行させる。
一実施形態によれば、処理効率を向上させることができる。
図1は、実施例1にかかるシステムの全体構成例を示す図である。 図2は、実施例1にかかるチャンク割当てを説明する図である。 図3は、実施例1にかかるシステムの機能構成例を示す機能ブロック図である。 図4は、データ配置を説明する図である。 図5は、システム全体の処理の流れを示すフローチャートである。 図6は、従来処理を説明する図である。 図7は、実施例1による配置結果を説明する図である。 図8は、実施例2にかかる処理の流れを示すフローチャートである。 図9は、ハードウェア構成例を説明する図である。
以下に、本願の開示するデータ処理プログラム、データ処理方法およびデータ処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
[全体構成]
図1は、実施例1にかかるシステムの全体構成例を示す図である。図1に示すように、この分散処理システムは、マスタサーバ10と、スレーブサーバ20やスレーブサーバ30などの複数のスレーブサーバとがインターネットなどのネットワークを介して相互に通信可能に接続される。
一例として、この分散処理システムは、入力データに対してMapReduce処理を分散処理した後、MapReduce処理の処理結果に対してMPI処理を分散処理する。また、ここでは、入力データの一例として、CSV形式の文字列で記述された行列データを用いる。入力データは、MapReduce処理によって、浮動小数点のバイナリ形式の行列データに変換される。その後、バイナリ形式の行列データに対して、MPI処理などの主成分分析アルゴリズムが実行される。
この分散処理システムでは、Hadoop(登録商標)などの分散処理フレームワークを使用した分散処理アプリケーションが各サーバで実行されており、データ基盤としてHDFSなどを使用する。Hadoop(登録商標)では、巨大なファイルである入力データを例えば64MBなどの単位(以下、チャンクと記載する場合がある)に分割して、HDFSのデータノードに保存する。
MPI処理においては、スレーブサーバ毎にランク(rank)と呼ばれるIDが割当てられている。例えば、n並列で計算する場合は、ランク0からランク(n−1)がスレーブサーバに割当てられる。本実施例では、特異値分解関数を使って、主成分分析を実行する例で説明する。また、行列データの持ち方は、行単位でn個の均等分割とし、ランク0が1個目のブロック、ランク(n−1)が最後のブロックを担当することとする。
マスタサーバ10は、分散処理システムを統括的に管理するサーバであり、MapReduce処理におけるジョブトラッカーやネームノードとして機能する。例えば、マスタサーバ10は、メタ情報などを用いて、どのデータがいずれのスレーブサーバに格納されているのかを特定する。また、マスタサーバ10は、各スレーブサーバに割当てるタスクやジョブなどを管理し、Map処理やReduce処理などのタスクを各スレーブサーバに割当てる。また、マスタサーバ10は、各スレーブサーバに対して、MapReduce処理の結果をどのデータノードに格納するかを指示する。
スレーブサーバ20、スレーブサーバ30は、Map処理およびReduce処理を実行するサーバであり、MapReduce処理におけるデータノードやタスクトラッカー、ジョブクライアントとして機能する。また、各スレーブサーバは、マスタサーバ10によって割り当てられたMapタスクを実行し、Mapタスクの中でキーのハッシュ値を計算し、その計算で得られた値によって振分先のReduceタスクを決定する。
その後、各スレーブサーバは、マスタサーバ10に割り当てられたReduceタスクを実行し、マスタサーバ10から指示されたHDFS上のデータノードに処理結果を格納する。そして、各スレーブサーバは、自サーバに割当てられたランクにしたがって、該当するデータをHDFSから読み出して、MPI処理を実行する。
[チャンク割当て]
次に、実施例1にかかるチャンク割当ての例について説明する。図2は、実施例1にかかるチャンク割当てを説明する図である。図2に示すように、マスタサーバ10のジョブトラッカーは、管理者等から予め指定された分散数等にしたがって、MapタスクやReduceタスクの割当てを決定し、各スレーブサーバのタスクトラッカーにMapタスクを割当てる。
各スレーブサーバは、Mapタスクを実行すると、Mapタスクの中でキーのハッシュ値を計算し、その計算で得られた値によって振分先のReduceタスクを決定し、Reduceタスクを実行する。そして、各スレーブサーバは、マスタサーバ10のネームノードから指定されたデータノードに、Reduce処理結果すなわちチャンクを格納する。
ここで、マスタサーバ10は、第1の分散処理であるMapReduce処理を実行する複数のスレーブサーバのいずれかから、MapReduce処理において入力データの一部が処理された処理結果のサイズに関するサイズ情報を取得する。そして、マスタサーバ10は、MapReduce処理により生成されて複数のスレーブサーバに記憶されるデータを用いるMPI処理におけるデータ配置情報を取得する。その後、マスタサーバ10は、サイズ情報およびデータ配置情報に基づき、複数のスレーブサーバそれぞれがMapReduce処理で生成するデータの、配置パターンを規定するデータの配置指示を複数のスレーブサーバに送信する。
例えば、マスタサーバ10は、各スレーブサーバがローカルファイルに書き込んだデータ量を取得し、各データ量の合計を算出して、MapReduce処理後に得られるデータサイズを算出する。その後、マスタサーバ10は、MapReduce処理後に得られるデータサイズをスレーブサーバの数で分割し、各スレーブサーバ(ランク)にデータ領域を割当てる。例えば、スレーブサーバが16台とした場合、マスタサーバ10は、MapReduce処理後に得られるデータファイルの先頭から1/16に含まれるチャンクをスレーブサーバ20(データノード)へ配置し、次の1/16に含まれるチャンクをスレーブサーバ30へ配置するように、各スレーブサーバに指示する。
具体的には、マスタサーバ10は、入力データに対するMapReduce処理をカウントし、入力データの所定%(例えば1%)のデータに対してスレーブサーバ20がMapReduce処理した結果を取得する。続いて、マスタサーバ10は、処理前のデータサイズと処理後のデータサイズとを比較して、MapReduce処理におけるデータ変換率を算出する。そして、マスタサーバ10は、入力データ全体のサイズにデータ変換率を乗算して、MapReduce処理後に得られるデータサイズを算出する。
その後、マスタサーバ10は、MapReduce処理後に得られるデータサイズをスレーブサーバの数で分割し、各スレーブサーバ(ランク)にデータ領域を割当てる。例えば、スレーブサーバが16台とした場合、マスタサーバ10は、MapReduce処理後に得られるデータファイルの先頭から1/16に含まれるチャンクをスレーブサーバ20(データノード)へ配置し、次の1/16に含まれるチャンクをスレーブサーバ30へ配置するように、各スレーブサーバに指示する。
このように、マスタサーバ10は、MapReduce処理後のデータサイズを取得し、MPI処理のランクと読込みチャンクが同じノードになるようにMapReduce処理後のデータを配置する。したがって、マスタサーバ10は、MPI処理におけるデータ読み込みを高速化し、処理効率を向上させることができる。
[機能構成]
次に、図3を用いて、マスタサーバ10と各スレーブサーバの機能構成について説明する。図3は、実施例1にかかるシステムの機能構成例を示す機能ブロック図である。なお、各スレーブサーバは、同様の構成を有するので、ここでは、スレーブサーバ20を例にして説明する。
(マスタサーバ10の機能構成)
図3に示すように、マスタサーバ10は、通信部11、記憶部12、制御部15を有する。通信部11は、有線や無線を問わず、他の装置との通信を制御する処理部である。例えば、通信部11は、各スレーブサーバにタスクの割当情報やデータの配置情報、各種指示などを送信し、各スレーブサーバからタスクの処理結果などを受信する。
記憶部12は、制御部15が実行するプログラムや制御部15が処理に利用するデータなどを記憶する記憶装置であり、例えばメモリやハードディスクなどである。この記憶部12は、ジョブDB12aとMPI設定情報DB12bとを記憶する。
ジョブDB12aは、分散処理対象のジョブ情報を記憶するデータベースである。例えば、ジョブDB12aは、ジョブを識別する識別子である「JobID」、ジョブに含まれるMap処理タスクの総数である「総Mapタスク数」、ジョブに含まれるReduce処理タスクの総数である「総Reduceタスク数」などを記憶する。
また、ジョブDB12aは、Map処理タスクやReduce処理タスクに関する情報を記憶する。例えば、ジョブDB12aは、どのスレーブサーバにどのMapタスクやReduceタスクが割当てられたかを特定する情報、どのスレーブサーバにどのようなデータが記憶されているかを示す情報などを記憶する。
MPI設定情報DB12bは、MPI処理におけるデータ配置情報であり、MPI処理におけるデータ配置に関するデータ構造に関する情報を記憶するデータベースである。具体的には、MPI設定情報DB12bは、ネームノードがMPIプログラムから受け取るデータ配置の情報を記憶する。
例えば、MPI設定情報DB12bは、「対象ファイル名、分割数、担当ランク表」などを記憶する。ここで記憶される「対象ファイル名」は、どのファイルがMapReduce処理からMPIへ渡されるかを示す。「分割数」は、MPIへの入力ファイルの分割数を示す。「担当ランク表」は、各分割とランク値の対応表であり、例えばランク0が入力データのどの領域を担当するかなどを示す情報であり、「ランク0、先頭から1/6」などを記憶する。なお、担当ランク表が省略された場合は、先頭から順に、ランク0、ランク1、ランク2・・・と割当てることとする。
また、MPI設定情報DB12bは、MPIにおけるデータの配置に関してより詳細な情報を記憶することもできる。具体的には、MPI設定情報DB12bは、MPIの行列計算パッケージがプログラム内部で行列の配置を表現する「Array Descriptor(実態は長さ9の整数配列)に関する情報を記憶することもできる。
例えば、MPI設定情報DB12bは、「DTYPE_A、CTXT_R、M_A、N_A、MB_A、NB_A、RSRC_A、CSRC_A、LLD_A」などを記憶する。「DTYPE_A」は、行列を宣言する記載であり、例えば1の場合は蜜行列を示す。「CTXT_R」は、BLACSのコンテキストハンドルであり、行ノード数や列ノード数が含まれる。「M_A」は、行列全体の行数を示し、「N_A」は、行列全体の列数を示す。「MB_A」は、行を分散させるBlocking Factorであり、「NB_A」は、列を分散させるBlocking Factorである。「RSRC_A」は、ローカルメモリ上の最初の要素の行座標であり、「CSRC_A」は、ローカルメモリ上の最初の要素の列座標である。「LLD_A」は、ローカルに持つ行方向のサイズであり、例えば「LLD_A≧MAX(1,LOCr(M_A))」である。
なお、ScaLapackなどの行列計算パッケージでは、各ノードのArray Descriptorの情報を集めると行列の要素をどこへ送れば良いかが分かる。また、行列計算パッケージでは、ノード毎にデータの持ち方が異なる為、ノード番号やBLACSコンテキストハンドル内でのノード位置等のそのノードを表す情報と上記Array Descriptorとを組で全ノードから収集する。
制御部15は、マスタサーバ10全体を司る処理部であり、例えばプロセッサなどである。この制御部15は、タスク割当部16、データ取得部17、配置指示部18を有する。なお、タスク割当部16、データ取得部17、配置指示部18は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
タスク割当部16は、各スレーブサーバにMapタスクやReduceタスクを割当て、各スレーブサーバに各タスクの実行を指示する処理部である。具体的には、タスク割当部16は、スレーブサーバ20からMapタスクの割当要求を受信すると、未処理のMapタスクをスレーブサーバ20に割当てる。同様に、タスク割当部16は、スレーブサーバ20からReduceタスクの割当要求を受信すると、未処理のReduceタスクをスレーブサーバ20に割当てる。なお、MapタスクやReduceタスクの割当ては、一般的なMapReduce処理と同様なので、ここでは詳細な説明は省略する。
データ取得部17は、MapReduce処理で得られるデータ量を取得する処理部である。具体的には、データ取得部17は、各スレーブサーバがローカルファイルに書き込んだデータ量を取得する。つまり、データ取得部17は、各スレーブサーバのMapReduce処理によって得られたデータ量を取得する。そして、データ取得部17は、各スレーブノードから取得したデータ量の合計をファイルサイズとして算出して、配置指示部18に出力する。
配置指示部18は、データ取得部17から通知したファイルサイズの情報と、MPI設定情報DB12bに記憶される情報に基づき、HDFS上に格納するデータの配置パターンを規定するデータの配置指示を複数のスレーブサーバに送信する処理部である。具体的には、配置指示部18は、MPI処理のランクと読込みチャンクが同じノードになるようにMapReduce処理後のデータを配置する。
例えば、配置指示部18は、データ取得部17から、ファイルサイズが「0.8TB」であることを取得する。また、配置指示部18は、MPI設定情報DB12bに記憶される情報にしたがって、ランク数がn個、スレーブサーバ20から順にランク0が割当てられていること、入力ファイルの先頭から順にランク0以降を割当てることを特定する。そして、配置指示部18は、スレーブサーバへのランクの割当情報や入力ファイルの各分割領域とランクの対応関係などを含む配置指示を各スレーブサーバに送信する。
例えば、配置指示部18は、0.8TBのファイルサイズをn個に分割し、先頭から順に、1/nずつ各ランクに割当てることを示す指示を各スレーブサーバに送信する。この指示内容の例としては、MapReduce処理で生成するファイルの1/n内のデータをランク0であるスレーブサーバ20に割当て、次の1/n内のデータをランク1であるスレーブサーバ30に割当てるなどが含まれる。つまり、各ランクには入力ファイルの「0.8/n」が割当てられる。また、配置指示部18は、各スレーブサーバの処理結果を監視して処理結果のデータサイズを特定し、データが1チャンクに収まるように、各ランクに割当てるチャンクに含める処理結果を決定することもできる。
また、制御部15は、各スレーブサーバからMapReduce処理の結果を受信し、全MapReduce処理が完了すると、各スレーブサーバにMPI処理の開始を指示する。このとき、制御部15は、各スレーブサーバのランク割当情報や各ランクの該当データの格納先情報などをあわせて、各スレーブサーバに送信する。例えば、ランク割当情報としては、「スレーブサーバ、割当ランク」として「スレーブサーバ20、ランク0」のようにどのスレーブサーバにどのランクが割当てられているかを示す情報が含まれる。また、格納先情報としては、「スレーブサーバ、格納ランク」として「スレーブサーバ30、ランク1」のようにどのスレーブサーバにどのランクのデータ(チャンク)が格納されているかを示す情報が含まれる。
(スレーブサーバ20の機能構成)
図3に示すように、スレーブサーバ20は、通信部21、記憶部22、制御部25を有する。通信部21は、有線や無線を問わず、他の装置との通信を制御する処理部である。例えば、通信部21は、マスタサーバ10からタスクの割当情報やデータの配置指示などを受信し、マスタサーバ10にタスクの処理結果などを送信する。
記憶部22は、制御部25が実行するプログラムや制御部25が処理に利用するデータなどを記憶する記憶装置であり、例えばメモリやハードディスクなどである。この記憶部22は、データDB22aを記憶する。データDB22aは、MapReduce処理結果やMPIへの入力データであるチャンクを記憶するデータベースである。つまり、データDB22aは、各スレーブサーバのデータノードの機能に該当する。
制御部25は、スレーブサーバ20全体を司る処理部であり、例えばプロセッサなどである。この制御部25は、タスク実行部26、結果配置部27、MPI実行部28を有する。なお、タスク実行部26、結果配置部27、MPI実行部28は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
タスク実行部26は、マスタサーバ10に割当てられるMapタスクやReduceタスクを実行する処理部である。なお、タスク実行部26が実行するMap処理、Shuffle処理、Reduce処理は、一般的なMapReduce処理と同様なので、詳細な説明は省略する。
例えば、タスク実行部26は、MapタスクおよびReduceタスクが終了すると、ローカルファイルであるデータDB22aに処理結果を格納する。そして、タスク実行部26は、格納したデータ量を抽出して、マスタサーバ10に通知する。
結果配置部27は、マスタサーバ10からのデータ配置指示にしたがって、ローカルファイルのデータDB22aに記憶されるMapReduce処理の結果をHDFSに配置する処理部である。具体的には、結果配置部27は、マスタサーバ10から受信した配置指示から、どのスレーブサーバにどのランクが割当てられているか、入力ファイルのどの領域をどのランク(スレーブサーバ)に割当てるかなどを特定する。
そして、結果配置部27は、MPI処理のランクと読込みチャンクが同じノードになるようにMapReduce処理後のデータを配置する。例えば、結果配置部27は、ランク0に該当するスレーブサーバには、ランク0に割当てられるデータが格納されるように、MapReduce処理の結果の格納を制御する。なお、配置の詳細な例については後述する。
MPI実行部28は、MapReduce処理後にMPI処理を実行する処理部である。具体的には、MPI実行部28は、マスタサーバ10から取得したランク割当情報にしたがって、自装置のランクを特定する。そして、MPI実行部28は、マスタサーバ10から取得したランク割当情報にしたがって、自装置のランクに対応するチャンクを読み出して、MPI処理を実行する。また、MPI実行部28は、MPI処理の結果をマスタサーバ10に送信することもでき、ディスプレイ等に表示させることもできる。
[データ配置]
次に、MapReduce処理後のデータ配置の例について説明する。つまり、MPI処理におけるチャンクの格納について説明する。図4は、データ配置を説明する図である。なお、ここでは入力ファイルの先頭から順にランク0、ランク1、ランク2が割当てられているものとする。また、マスタサーバ10は、入力データの一部から、MPI処理の対象となるファイルのサイズを推定済みであり、当該ファイルのどの領域をどのランク(スレーブサーバ)に割当てるかを決定済みとする。
図4に示すように、マスタサーバ10によるタスク割当の結果、スレーブサーバ20は、入力データの1と4に対してMapReduce処理を実行する。同様に、スレーブサーバ30は、入力データの3と6に対してMapReduce処理を実行し、スレーブサーバ40は、入力データの2と5と7に対してMapReduce処理を実行する。
そして、各スレーブサーバは、MapReduce処理を入力データの先頭から順にHDFS上に格納する。このとき、各スレーブサーバまたはマスタサーバ10は、各処理結果のデータサイズを監視することができる。
その後、各スレーブサーバおよびマスタサーバ10は、処理結果であるデータ1、2、3が約64MBである1チャンクに該当することを特定する。また、各スレーブサーバ等は、データ4、5、6とデータ7の一部が1チャンクに該当し、データ7の一部とデータ8、9、10が1チャンクに該当することを特定する。
この結果、スレーブサーバ20は、データ1をランク0に該当するスレーブサーバ20に格納し、スレーブサーバ30は、データ3をランク0に該当するスレーブサーバ20に格納し、スレーブサーバ40は、データ2をランク0に該当するスレーブサーバ20に格納する。
また、スレーブサーバ20は、データ4をランク1に該当するスレーブサーバ30に格納し、スレーブサーバ30は、データ6をランク1に該当するスレーブサーバ30に格納し、スレーブサーバ40は、データ5とデータ7の一部とをランク1に該当するスレーブサーバ30に格納する。
この結果、ランク0のスレーブサーバ20は、MPI処理時に、自ノードからデータを読み出すことができる。また、ランク1のスレーブサーバ30は、MPI処理時に、ほとんどのデータを自ノードから読み出し、一部のデータを他のノード(スレーブサーバ40)から読み出すことができる。
[処理の流れ]
図5は、システム全体の処理の流れを示すフローチャートである。図5に示すように、マスタサーバ10のタスク割当部16は、処理が開始されると(S101:Yes)、タスク割当を実行して各スレーブサーバにMapタスクやReduceタスクを割当てる(S102)。そして、タスク割当部16は、タスクの割当てが完了すると、タスクの実行を各スレーブサーバに通知する(S103)。
その後、スレーブサーバ20のタスク実行部26は、MapタスクやReduceタスクを実行し、全タスクが完了すると(S104:Yes)、処理結果をローカルファイルに保存する(S105)。そして、タスク実行部26は、マスタサーバ10に対して、タスク処理結果で得られたデータ量を入力ファイルのデータ量として通知する(S106)。
そして、マスタサーバ10の配置指示部18は、MPI処理のデータ配置情報をMPI設定情報DB12bから読み込み(S107)、データ配置情報とMPI処理への入力ファイルのデータ量とを用いて、データ配置指示を生成して、各スレーブサーバに通知する(S108)。
その後、各スレーブサーバの結果配置部27は、マスタサーバ10から通知されたデータ配置指示にしたがって、ローカルファイルに保存したデータ(MapReduceの処理結果)をHDFS上に配置する(S109)。例えば、結果配置部27は、HDFSを構成する各スレーブサーバに、MPI処理のランクと読込みチャンクが同じノードになるようにMapReduce処理後のデータを配置する。
そして、データの配置が完了すると(S110:Yes)、マスタサーバ10の制御部15等は、MPI処理の開始を各スレーブサーバに指示する(S111)。なお、マスタサーバ10の制御部15等は、「スレーブサーバとランクとデータの記憶先」を対応付けた情報を各スレーブサーバに送信する。
この指示を受付けた各スレーブサーバのMPI実行部28は、マスタサーバ10から通知された「スレーブサーバとランクとデータの記憶先」とを示す情報にしたがって、割り当てられたランクに該当するデータを読み出してMPI処理を実行する(S112)。その後、各スレーブサーバのMPI実行部28は、MPI処理結果を格納する(S113)。
[効果]
上述したように、分散処理システムは、MPI側の都合に合わせてデータノードを決定するので、遠隔書込みとなる確率が高くなる。なお、遠隔書込みはバッファが十分あれば突き放しにする事が可能で、アプリを待たせることがない。また、分散処理システムは、MPI側の都合に合わせてデータノードを決定するため、従来技術では遠隔読み込みであったのが、ローカル読み込みとなる。また、データの読み込みは、データが届くまでアプリケーションの実行が停止するため影響が大きいので、そのコストが大きく削減される事は、アプリケーションの性能向上に直結する。したがって、マスタサーバ10は、MPI処理におけるデータ読み込みを高速化し、処理効率を向上させることができる。
ここで、従来技術と実施例1とを比較する。図6は、従来処理を説明する図である。図7は、実施例1による配置結果を説明する図である。ここでは上記比率を1とする。つまり、分散処理対象の入力ファイルのサイズ=MPI処理の入力ファイルのサイズとする。また、4台のスレーブサーバで分散処理することとし、ランク数を4とする。
図6に示すように、従来であれば、MPI処理に依存することなく、MapReduce処理に依存して、MapReduce処理結果が各スレーブサーバのローカルファイルに保存された後、HDFS上で結合される。このため、お客様のビッグデータをランク数である4で分割してMapReduce処理を実行した場合、どの処理結果をどのデータノードに格納するかは、ネームノードがMPI処理に関係なく決定する。つまり、ランク0の処理対象データが、スレーブサーバ20とスレーブサーバ30に跨って格納されたり、ランク1の処理対象データが、スレーブサーバ30、40、50に跨って格納されたりする。
したがって、各ランクのスレーブサーバは、MPI処理を実行するときに、該当するチャンクを他のスレーブサーバから読み出す処理を実行する。つまり、HDFSからの読み込み時に遠隔読み込みによるチャンクの整列が多発する場合がある。遠隔読み込みは、チャンクが届かないと完了できないので、MPIを実行するアプリケーションは、チャンクの読み込みが完了しないと次に進めない。この結果、1チャンクずつ読み込むことになるので、処理時間への影響が大きく、処理遅延が発生する。
これに対して、図7に示すように、実施例1では、各スレーブサーバのローカルファイルに書き込まれたMapReduce処理結果が、MPI処理に依存してHDFSに再配置される。このため、お客様のビッグデータをランク数である4で分割してMapReduce処理を実行した場合、どの処理結果をどのデータノードに格納するかを、ネームノードがMPI処理のランクにしたがって決定できる。つまり、各ランクのデータが同一ノードに格納できる。例えば、ランク0の処理対象データが、スレーブサーバ20に格納され、ランク1の処理対象データが、スレーブサーバ30に格納される。
したがって、各ランクのスレーブサーバは、MPI処理を実行するときに、該当するチャンクを自ノードから読み出すことができ、遠隔読み込みを削減できる。つまり、MPI処理の前に、HDFS上でチャンクを整列させるので、各スレーブサーバは、途中のバッファが足りる限り、チャンクの遠隔書き込みを突き放しで行える。このため、アプリケーションは、チャンクの書込み完了を待たずに、次のチャンクの書き込みを実行できるので、処理時間への影響が小さく、全体の処理時間を短縮できる。
ところで、実施例1では、各スレーブサーバがMapReduce処理結果をローカルファイルに書き込んだ後、HDFS上に再配置する例を説明したが、分散処理の種別等によっては、各スレーブサーバがMapReduce処理結果をHDFS上にそのまま書き込む場合もある。
この場合、各スレーブノードのMapReduce処理結果のデータ量がHDFSに書き込まれるまで特定できないことから、マスタサーバ10は、HDFS上に格納するデータの配置パターンを規定するデータの配置指示を決定することができない。
そこで、実施例2では、マスタサーバ10が、スレーブノードのMapReduce処理結果で得られるデータ量を予測して、HDFS上のデータの配置パターンを決定する例を説明する。
例えば、マスタサーバ10のデータ取得部17は、MapReduce処理において入力データの一部が処理された処理結果のサイズに関するサイズ情報を取得する。具体的には、データ取得部17は、MapReduce処理での、例えば最初の1%の入力ファイルの処理で出力ファイルがどれだけ生成されたかを記録して入力量と出力量の比率を測定する。
例えば、データ取得部17は、ファイルシステム等を用いて、入力ファイルのデータサイズが1TBであることを特定する。続いて、データ取得部17は、入力ファイルの約1%に当たる10GBの入力データに対してMapReduce処理を実行するスレーブサーバ20に、処理結果の送信を要求する。つまり、データ取得部17は、データ予測に使用するデータを処理するスレーブサーバに、処理結果の送信要求を送信する。このとき、データ取得部17は、データサイズなどの該当データに関する情報もあわせて、スレーブサーバ20に送信することができる。
ここで、データ取得部17は、MapReduce処理結果のデータサイズが8GBであった場合、入力量と出力量の比率を0.8と算出する。この結果、データ取得部17は、1TBの入力ファイルがMapReduce後に、MPI処理に入力されるファイルサイズを、「1TB×0.8=0.8TB」と算出する。そして、データ取得部17は、算出したMPI処理に対する入力ファイルのファイルサイズを、配置指示部18に出力する。
配置指示部18は、実施例1と同様、データ取得部17から通知されたファイルサイズの情報と、MPI設定情報DB12bに記憶される情報に基づき、HDFS上に格納するデータの配置パターンを規定するデータの配置指示を複数のスレーブサーバに送信する。
また、スレーブサーバ20のタスク実行部26は、マスタサーバ10から、データ予測に使用する処理結果の要求を受信した場合、該当するMapReduce処理の結果をマスタサーバ10に送信する。例えば、タスク実行部26は、入力ファイルの先頭から、入力ファイル全体の1%に該当する領域にあるデータに対してMapReduce処理を実行すると、その処理結果をマスタサーバ10に送信する。
なお、タスク実行部26は、データ予測に使用するために、一部のMapReduce処理の結果を送信した後は、後続のMPI処理の種別や入力ファイルの種別等により、最初から実行し直すこともでき、続きから実行し直すこともできる。また、マスタサーバ10のデータ取得部17が、MPI処理の種別や入力ファイルの種別等により、最初からやり直すかどうかなどを決定して、該当するスレーブサーバに送信することもできる。
なお、実施例2では、MPI処理への入力ファイルのサイズが予め特定できない例を説明したが、MPI処理への入力ファイルのサイズが予め特定できる場合には、比率算出を省略することもできる。また、比率が約1の場合は、MapReduce処理の入力ファイルを用いてデータ配置を制御することもできる。
続いて、実施例2にかかるデータ予測の処理を説明する。図8は、実施例2にかかる処理の流れを示すフローチャートである。図8に示すように、マスタサーバ10のタスク割当部16は、処理が開始されると(S201:Yes)、タスク割当を実行して各スレーブサーバにMapタスクやReduceタスクを割当てる(S202)。
続いて、マスタサーバ10のデータ取得部17は、データ推定のためのサイズ(初期サイズ)を決定し(S203)、該当するスレーブサーバ20に、初期サイズを通知する(S204)。
その後、スレーブサーバ20のタスク実行部26は、MapタスクやReduceタスクを実行し、初期サイズのタスクを実行すると、タスクの実行を一時停止する(S205)。そして、タスク実行部26は、マスタサーバ10に対して、初期サイズのタスク処理結果を通知する(S206)。
そして、マスタサーバ10のデータ取得部17は、初期サイズの処理前のデータサイズと処理後のデータサイズとから、データ変換の比率を算出する(S207)。続いて、データ取得部17は、データ変換の比率と入力ファイルのサイズを用いて、MPI処理への入力ファイルのデータ量を推定する(S208)。
その後、マスタサーバ10の配置指示部18は、MPI処理のデータ配置情報をMPI設定情報DB12bから読み込み(S209)、データ配置情報とMPI処理への入力ファイルのデータ量とを用いて、データ配置指示を生成して、各スレーブサーバに通知する(S210)。続いて、マスタサーバ10の制御部15等は、MapReduce処理のタスクの実行を、S205でタスクを停止させたスレーブサーバ20に通知する(S211)。
その後、各スレーブサーバの結果配置部27は、Reduceタスクが完了すると(S212:Yes)、データ配置指示にしたがって、データノード(スレーブサーバ)にタスク結果を格納する(S213)。
そして、マスタサーバ10の制御部15等は、各スレーブサーバに割当てられたMapReduce処理の全タスクが完了すると(S214:Yes)、MPI処理の開始を各スレーブサーバに指示する(S215)。なお、マスタサーバ10の制御部15等は、「スレーブサーバとランクとデータの記憶先」を対応付けた情報を各スレーブサーバに送信する。
この指示を受付けた各スレーブサーバのMPI実行部28は、マスタサーバ10から通知された「スレーブサーバとランクとデータの記憶先」とを示す情報にしたがって、割り当てられたランクに該当するデータを読み出してMPI処理を実行する(S216)。その後、各スレーブサーバのMPI実行部28は、MPI処理結果を格納する(S217)。
上述したように、分散処理システムは、最初の1%分を取得後捨てるとすると、処理する量が101%になり、処理コストがかかる。また、分散処理システムは、MapReduce処理結果のデータ量が特定できないシステム環境であっても、データ量を予測した上で、HDFS上へのデータ配置を制御することができる。したがって、分散処理システムは、システム環境やアプリケーションに依存することなく、処理効率を向上させることができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[主成分分析]
上記実施例では、MPI処理を例に説明したが、これに限定されるものではなく、他の主成分分析を用いることもできる。また、行列データに限定するものではなく、他の形式のデータでも同様に処理することができる。
[複数アプリによる共有]
例えば、MapReduce処理のアプリで生成したファイルを複数のMPIアプリで入力する場合があり得る。その場合、MPIアプリでのメモリレイアウトが異なり、それぞれに適したチャンクのデータノードへの割り付けが異なる事があり得る。一方、HDFSはデータの安全性の為に、チャンクのコピーを複数持つように設定する事ができる。その機能を利用し、複数のコピー各々を複数のMPIアプリに都合が良いように配置する。ただし、複数のコピーは単一サーバ故障により失われることが無いように、異なるサーバに割り付ける。
これは特に複数アプリで行列の先頭を持つランク0が同じサーバとなる場合に特に問題となり得る。そこで、ランク0が異なるサーバとなるように、ネームノードでランクのまとまりを考えるときに、できるだけ異なるチャンク配置となるようにランクの配置を決めることもできる。例えば、MPIアプリAの時は、スレーブサーバ20をランク0、スレーブサーバ30をランク1、スレーブサーバ40をランク2に決定し、MPIアプリBの時は、スレーブサーバ20をランク2、スレーブサーバ30をランク0、スレーブサーバ40をランク1に決定する。このようにして、単一サーバ故障による影響範囲を限定的にすることができる。
なお、上記実施例では、各スレーブサーバ上では各ランクのデータが格納される例を説明したが、これに限定されるものではなく、データの配置を制御したとしても、データの大きさによっては、同じランクのデータが複数のスレーブサーバに跨って格納される場合もある。例えば、スレーブサーバ20は、ランク0のデータの一部が格納できない場合、ランク1に対応するスレーブサーバ20に、その一部を格納するデータを格納する。このような場合であっても、従来技術より遠隔書込みを削減することができるので、処理効率を向上させることができる。
[入力ファイル]
上記実施例では、データ変換の比率が1以外を例にして説明したが、MPI処理への入力ファイルのサイズが予め特定できる場合には、データ予測の処理を省略することもできる。また、データ変換の比率が1の場合には、データ予測の処理を省略することもできる。この場合、マスタサーバ10は、MapReduce処理への入力ファイルをランク数で分割して、データ配置を制御することができる。したがって、上記実施例では、MapReduce処理後に、一度データを組み立ててからデータ配置を実行していたが、このデータ組み立てを省略することができるので、より処理効率を向上させることができる。
[システム]
また、図3に示した各装置の各構成は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、任意の単位で分散または統合して構成することができる。例えば、データ取得部17と配置指示部18を統合するなどすることができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともできる。あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[ハードウェア]
上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。なお、マスタサーバ10と各スレーブサーバは、同一の構成を有するので、ここではノード100として説明する。図9は、ハードウェア構成例を説明する図である。
図9が示すように、ノード100、通信インタフェース100a、HDD(Hard Disk Drive)100b、メモリ100c、CPU(Central Processing Unit)などのプロセッサ100dを有する。なお、各部は、バスを介して接続される。
通信インタフェース100aは、各機能部の説明時に示した通信制御部に該当し、例えばネットワークインタフェースカードなどである。HDD100bは、各機能部の説明時に示した処理部を動作させるプログラムや図3等で説明したDB等を記憶する。
プロセッサ100dは、各機能部の説明時に示した各処理部と同様の処理を実行するプログラムをHDD100b等から読み出してメモリ100cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、マスタサーバ10が有するタスク割当部16、データ取得部17、配置指示部18と同様の機能を実行する。また、このプロセスは、スレーブサーバ20が有するタスク実行部26、結果配置部27、MPI実行部28と同様の機能を実行する。
このようにノード100は、プログラムを読み出して実行することで、データ処理方法を実行する情報処理装置として動作する。また、ノード100は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、ノード100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 マスタサーバ
11 通信部
12 記憶部
12a ジョブDB
12b MPI設定情報DB
15 制御部
16 タスク割当部
17 データ取得部
18 配置指示部
20 スレーブサーバ
21 通信部
22 記憶部
22a データDB
25 制御部
26 タスク実行部
27 結果配置部
28 MPI実行部

Claims (5)

  1. コンピュータに、
    前記コンピュータと通信可能な複数のサーバのいずれかにより実行される第1の処理によって生成される第1のデータを、前記複数のサーバに分散して記憶させ
    前記第1のデータの少なくとも一部のデータであって前記第1の処理に後続する第2の処理に用いるデータである第2のデータを特定する情報と、前記複数のサーバに含まれるサーバであって前記第2の処理を実行するサーバを特定する情報と、を含むデータ配置情報を生成し、
    前記データ配置情報を前記複数のサーバに送信して、前記第2の処理を実行するサーバに前記第2のデータを前記生成したデータ配置情報に基づいて記憶させる
    処理を実行させることを特徴とするデータ処理プログラム。
  2. 前記コンピュータに、
    前記第1の処理に入力される入力データの一部のデータに対して前記第1の処理を実行する前のデータ量である入力量と、前記入力データの一部のデータに対して前記第1の処理を実行した後のデータ量である出力量とから、前記入力量に対する前記出力量の比率を測定し、
    記測定した比率と前記入力データのデータ量とを用いて算出される前記第1のデータの全体のデータ量であるサイズを取得する
    処理を実行させ
    前記データ配置情報は、前記サイズと、前記複数のサーバの数であるサーバ数とに基づいて生成される、
    ことを特徴とする請求項に記載のデータ処理プログラム。
  3. 前記第1の処理は、データを分散して処理するMapReduce処理であって、
    前記第2の処理は、前記MapReduce処理の処理結果に対して処理するMPI処理である
    ことを特徴とする請求項1または2に記載のデータ処理プログラム。
  4. コンピュータが、
    前記コンピュータと通信可能な複数のサーバのいずれかにより実行される第1の処理によって生成される第1のデータを、前記複数のサーバに分散して記憶させ
    前記第1のデータの少なくとも一部のデータであって前記第1の処理に後続する第2の処理に用いるデータである第2のデータを特定する情報と、前記複数のサーバに含まれるサーバであって前記第2の処理を実行するサーバを特定する情報と、を含むデータ配置情報を生成し、
    前記データ配置情報を前記複数のサーバに送信して、前記第2の処理を実行するサーバに前記第2のデータを前記生成したデータ配置情報に基づいて記憶させる
    処理を実行することを特徴とするデータ処理方法。
  5. データ処理装置において、
    前記データ処理装置と通信可能な複数のサーバのいずれかにより実行される第1の処理によって生成される第1のデータを、前記複数のサーバに分散して記憶させ
    前記第1のデータの少なくとも一部のデータであって前記第1の処理に後続する第2の処理に用いるデータである第2のデータを特定する情報と、前記複数のサーバに含まれるサーバであって前記第2の処理を実行するサーバを特定する情報と、を含むデータ配置情報を生成し
    前記データ配置情報を前記複数のサーバに送信して、前記第2の処理を実行するサーバに前記第2のデータを前記生成したデータ配置情報に基づいて記憶させる
    制御部を有することを特徴とするデータ処理装置。
JP2016079154A 2016-04-11 2016-04-11 データ処理プログラム、データ処理方法およびデータ処理装置 Active JP6891399B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016079154A JP6891399B2 (ja) 2016-04-11 2016-04-11 データ処理プログラム、データ処理方法およびデータ処理装置
US15/467,477 US10334028B2 (en) 2016-04-11 2017-03-23 Apparatus and method for processing data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016079154A JP6891399B2 (ja) 2016-04-11 2016-04-11 データ処理プログラム、データ処理方法およびデータ処理装置

Publications (2)

Publication Number Publication Date
JP2017191387A JP2017191387A (ja) 2017-10-19
JP6891399B2 true JP6891399B2 (ja) 2021-06-18

Family

ID=59998942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016079154A Active JP6891399B2 (ja) 2016-04-11 2016-04-11 データ処理プログラム、データ処理方法およびデータ処理装置

Country Status (2)

Country Link
US (1) US10334028B2 (ja)
JP (1) JP6891399B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11616686B1 (en) * 2017-11-21 2023-03-28 Amazon Technologies, Inc. Cluster management
US10997538B1 (en) 2017-11-21 2021-05-04 Amazon Technologies, Inc. Resource management
US20220129329A1 (en) * 2019-03-29 2022-04-28 Intel Corporation Technologies for managing data wait barrier operations
WO2021166228A1 (ja) * 2020-02-21 2021-08-26 日本電信電話株式会社 ネットワーク管理装置、方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8429630B2 (en) * 2005-09-15 2013-04-23 Ca, Inc. Globally distributed utility computing cloud
JP5531465B2 (ja) * 2009-06-30 2014-06-25 日本電気株式会社 情報システム、制御装置、そのデータ処理方法およびプログラム
JP5331898B2 (ja) * 2009-11-12 2013-10-30 富士通株式会社 並列計算用の通信方法、情報処理装置およびプログラム
JP5408442B2 (ja) 2010-01-21 2014-02-05 株式会社日立製作所 並列分散処理方法、及び、計算機システム
US9658890B2 (en) 2010-10-08 2017-05-23 Microsoft Technology Licensing, Llc Runtime agnostic representation of user code for execution with selected execution runtime
JP2012118669A (ja) * 2010-11-30 2012-06-21 Ntt Docomo Inc 負荷分散処理システム及び負荷分散処理方法
CN102567312A (zh) * 2011-12-30 2012-07-11 北京理工大学 一种基于分布式并行计算框架的机器翻译方法
US9262216B2 (en) * 2012-02-14 2016-02-16 Microsoft Technologies Licensing, LLC Computing cluster with latency control
US20140059552A1 (en) * 2012-08-24 2014-02-27 International Business Machines Corporation Transparent efficiency for in-memory execution of map reduce job sequences
CN103491024B (zh) * 2013-09-27 2017-01-11 中国科学院信息工程研究所 一种面向流式数据的作业调度方法及装置
US9571356B2 (en) * 2013-09-27 2017-02-14 Zettaset, Inc. Capturing data packets from external networks into high availability clusters while maintaining high availability of popular data packets
JP2015191428A (ja) * 2014-03-28 2015-11-02 日本電信電話株式会社 分散データ処理装置、分散データ処理方法及び分散データ処理プログラム
CN105389619B (zh) * 2014-08-31 2021-08-03 通用电气公司 用于改进健康护理生态系统内的连接的方法和系统
US10015106B1 (en) * 2015-04-06 2018-07-03 EMC IP Holding Company LLC Multi-cluster distributed data processing platform
US10122806B1 (en) * 2015-04-06 2018-11-06 EMC IP Holding Company LLC Distributed analytics platform
US10193753B1 (en) * 2015-08-31 2019-01-29 EMC IP Holding Company LLC Automated configuration and deployment of internet of things platforms

Also Published As

Publication number Publication date
US10334028B2 (en) 2019-06-25
JP2017191387A (ja) 2017-10-19
US20170295221A1 (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US9720989B2 (en) Dynamic partitioning techniques for data streams
US10574734B2 (en) Dynamic data and compute management
US20200026560A1 (en) Dynamic workload classification for workload-based resource allocation
Mihailescu et al. {MixApart}: Decoupled Analytics for Shared Storage Systems
KR101460062B1 (ko) 동영상 파일을 하둡 분산 파일 시스템에 분산 저장하는 시스템, 동영상 맵리듀스 시스템 및 그 제공방법
JP6891399B2 (ja) データ処理プログラム、データ処理方法およびデータ処理装置
US10089313B2 (en) Conversion of data integration system files
US20150128150A1 (en) Data processing method and information processing apparatus
US9535743B2 (en) Data processing control method, computer-readable recording medium, and data processing control device for performing a Mapreduce process
US11151141B2 (en) Data processing device and data processing method
US11442927B1 (en) Storage performance-based distribution of deduplicated data to nodes within a clustered storage environment
KR101656360B1 (ko) 자동 분산병렬 처리 하둡 시스템을 지원하는 클라우드 시스템
Huang et al. Achieving load balance for parallel data access on distributed file systems
US10057338B2 (en) Data distribution apparatus, data distribution method, and data distribution program for parallel computing processing system
US10048991B2 (en) System and method for parallel processing data blocks containing sequential label ranges of series data
US10579419B2 (en) Data analysis in storage system
US9501485B2 (en) Methods for facilitating batch analytics on archived data and devices thereof
CN110781159B (zh) Ceph目录文件信息读取方法、装置、服务器及存储介质
US8463886B2 (en) Method and apparatus for distributed computing, and computer product
US20200076681A1 (en) Volume allocation management apparatus, volume allocation management method, and volume allocation management program
US11960939B2 (en) Management computer, management system, and recording medium
US10824640B1 (en) Framework for scheduling concurrent replication cycles
JP6679445B2 (ja) 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
US11610151B2 (en) Distribution system, data management apparatus, data management method, and computer-readable recording medium
JP5472885B2 (ja) プログラム、ストリームデータ処理方法及びストリームデータ処理計算機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6891399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150