JPWO2014030300A1 - マッチングシステム、マッチング方法およびマッチングプログラム - Google Patents

マッチングシステム、マッチング方法およびマッチングプログラム Download PDF

Info

Publication number
JPWO2014030300A1
JPWO2014030300A1 JP2014531489A JP2014531489A JPWO2014030300A1 JP WO2014030300 A1 JPWO2014030300 A1 JP WO2014030300A1 JP 2014531489 A JP2014531489 A JP 2014531489A JP 2014531489 A JP2014531489 A JP 2014531489A JP WO2014030300 A1 JPWO2014030300 A1 JP WO2014030300A1
Authority
JP
Japan
Prior art keywords
data
processing
matching
queue
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014531489A
Other languages
English (en)
Inventor
潤 野田
潤 野田
直人 木内
直人 木内
幸生 寺本
幸生 寺本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Biglobe Inc
Original Assignee
NEC Corp
Biglobe Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Biglobe Inc filed Critical NEC Corp
Publication of JPWO2014030300A1 publication Critical patent/JPWO2014030300A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)

Abstract

複数の処理装置10−1〜10−nと、複数の処理装置10−1〜10−nと通信可能な割当て装置20とを備え、各処理装置は、マッチング処理対象のデータを格納するキューイング部11と、キューイング部11に格納されたデータについてマッチング処理を実施するマッチング部12とを含み、割当て装置20は、マッチング処理すべきデータを入力するたびに、複数の処理装置10−1〜10−nの中から、当該データに対するマッチング処理を実施させる処理装置を選択し、選択した処理装置のキューイング部11に当該データを格納するタスク割当て部21と、各処理装置におけるマッチング処理の結果を収集し外部システムに応答する応答部22とを含む。

Description

本発明は、リアルタイムに収集されるデータのマッチング処理を行うマッチングシステム、マッチング方法およびマッチングプログラムに関する。
複数のデータを総当りで比較(マッチング)する一般的なマッチング処理は、データ数の増加により計算時間が増大する。このようなデータ数の増加に起因する計算時間増加を短縮するために、非特許文献1に記載されたMapReduceを利用した超並列計算処理が知られている(例えば、特許文献1、特許文献2および特許文献3参照。)。MapReduceでは、1つのジョブをタスクと呼ばれる細かい単位に分割し、各タスクを処理サーバに割当て、タスク処理結果を併合し応答を返すという動作が基本的な挙動となる。
特開2011−113486号公報 特開2011−170774号公報 特開2011−150503号公報
Dean,J. and Ghemawat,S., "MapReduce: simplified data processing on large clusters", Communications of the ACM, Vol.51(2008), p.107−113.
しかし、MapReduceは、処理するデータ数が明確な条件での処理(バッチ処理)を想定しており、リアルタイムに到着し個数が不定であるデータを処理することができない。また、各タスクの割当てについては自由度があり、適切な割当てがなされない場合、処理サーバの負荷バランスが不均一になり、適切に負荷を分散できない場合がある。
そこで、本発明は、マッチング処理を効率的に並列実行することを可能とするマッチングシステム、マッチング方法およびマッチングプログラムを提供することを目的とする。
本発明によるマッチングシステムは、複数の処理装置と、複数の処理装置と通信可能な割当て装置とを備え、各処理装置は、マッチング処理対象のデータを格納するキューイング部と、キューイング部に格納されたデータについてマッチング処理を実施するマッチング部とを含み、割当て装置は、マッチング処理すべきデータを入力するたびに、複数の処理装置の中から、当該データに対するマッチング処理を実施させる処理装置を選択し、選択した処理装置のキューイング部に当該データを格納するタスク割当て部と、各処理装置におけるマッチング処理の結果を収集し外部システムに応答する応答部とを含むことを特徴とする。
本発明によるマッチング方法は、割当て装置が、マッチング処理すべきデータを入力するたびに、マッチング処理を実施する複数の処理装置の中から、各処理装置における処理負荷が均一になるように、当該データに対するマッチング処理を実施させる処理装置を選択し、選択した処理装置が、当該データに対するマッチング処理を実施し、割当て装置が、各処理装置におけるマッチング処理の結果を収集し外部システムに応答することを特徴とする。
本発明によるマッチングプログラムは、マッチング処理を実施する複数の処理装置と通信可能なコンピュータに、マッチング処理すべきデータを入力するたびに、複数の処理装置の中から、各処理装置における処理負荷が均一になるように、当該データに対するマッチング処理を実施させる処理装置を選択する処理と、各処理装置が実施したマッチング処理の結果を収集し外部システムに応答する処理とを実行させることを特徴とする。
本発明によれば、リアルタイムに収集されるデータの総当りマッチングに適したタスク割当てを行うことができ、マッチング処理を効率的に並列実行することができる。
本発明によるマッチングシステムの第1の実施形態の構成を示すブロック図である。 折り返しラウンドロビンに基づくタスク割当て結果の一例を示す説明図である。 単純なラウンドロビンに基づくタスク割当て結果の一例を示す説明図である。 本発明によるマッチングシステムの第1の実施形態における動作を示すシーケンス図である。 本発明によるマッチングシステムの最小構成を示すブロック図である。
実施形態1.
以下、本発明の第1の実施形態を図面を参照して説明する。
図1は、本発明によるマッチングシステムの第1の実施形態の構成を示すブロック図である。図1に示すように、本発明によるマッチングシステムは、処理サーバ100−1〜100−nと、割当サーバ200とを含む。処理サーバ100−1〜100−nと、割当てサーバ200とは、通信可能に接続されている。
割当てサーバ200は、ネットワーク300を介して、センサ400および外部システム500と通信可能に接続されている。センサ400は、実世界におけるデータを収集するセンサである。外部システム500は、例えば、センサ400が収集したデータをサービス等に活用するシステムである。なお、図1には、1つのセンサ400が例示されているが、センサはいくつあってもよい。また、図1には、1つの外部システム500が例示されているが、外部システムはいくつあってもよい。
処理サーバ100−1は、サーバ装置であって、キューイング部101と、マッチング部102とを備える。なお、処理サーバ100−2〜100−nの構成は、処理サーバ100−1と同様であるため、説明を省略する。
キューイング部101は、マッチング対象のデータを管理する。キューイング部101は、マッチング元データを格納するキューと、マッチング先データを格納するキュー(以下、それぞれを親キュー、子キューという。)を備える。
マッチング部102は、マッチング処理を実施する。マッチング部102は、キューイング部101が管理する親キュー内のデータと、子キュー内のデータとを総当りでマッチング処理する。このとき、マッチング部102は、親キュー内のデータと比較するデータとして、当該親キュー内のデータよりも到着順序あるいは発生順序がより後の子キュー内のデータのみを選択して、マッチングを実施する。
ここで、マッチング処理の内容は、外部システム500に応じて定めてよい。つまり、マッチング処理は、2つのデータを照合し特定の項目同士で比較して、比較結果に基づく判定処理を行う処理であれば、特に限定されない。
なお、キューイング部101は、処理サーバ100−1が備えるメモリ等の記憶装置によって実現される。また、マッチング部102は、処理サーバ100−1が備えるCPU等によって実現される。
割当てサーバ200は、タスク割当て部201と、応答部202とを含む。
タスク割当て部201は、タスクを各処理サーバに割当てる。具体的には、タスク割当て部201は、データが到着するたびに、つまり、センサ400からデータを入力するたびに、選択した処理サーバの親キューに当該データを1個投入する。このとき、タスク割当て部201は、単純なラウンドロビンではなく、後述する折り返しラウンドロビンと呼ばれるルールに則って処理サーバを選択する。また、タスク割当て部201は、当該データを全ての処理サーバの子キューに1個ずつ投入する。
ここで、折り返しラウンドロビンが示すルールを説明する。折り返しラウンドロビンでは、最初に処理サーバ100−1を選択し、その後、処理サーバ100−2,処理サーバ100−3,…と処理サーバ100−nまで昇順に選択する。そして、処理サーバ100−nを選択したのちは、処理サーバ100−n,処理サーバ100−(n−1),…処理サーバ100−1と降順に選択し、以降同様に繰り返す。
応答部202は、処理サーバ100−1〜100−nでのマッチング結果を外部システム500に応答する。具体的には、応答部202は、各処理サーバのマッチング部102の処理結果を収集し、外部システム500に処理結果を応答する。このとき、応答部202は外部システム500のポリシに応じて、外部システム500に送信するマッチング結果を取捨選択してもよい。
なお、タスク割当て部201および応答部202は、割当てサーバ200が備えるCPU等によって実現される。
ここで、タスク割当て部201におけるタスク割当て処理について、具体例を用いて説明する。例えば、ある時点において10個のデータ(ABCDEFGHIJ)が辞書順(昇順)にセンサ400から到着する状況下を想定する。この場合、計45回のマッチング処理が発生する。
図2は、折り返しラウンドロビンを適用する場合のタスク割当ての様子を示す説明図である。図3は、折り返しラウンドロビンを適用せず、単純なラウンドロビンを適用する場合のタスク割当ての様子を示す説明図である。
図2に示すように、折り返しラウンドロビンを適用する場合は、処理サーバ数5台のとき、処理サーバ100−1の親キューにはデータA,Jが、処理サーバ100−2の親キューにはデータB,Iが、処理サーバ100−3の親キューにはデータC,Hが、処理サーバ100−4の親キューにはデータD,Gが、処理サーバ100−5の親キューにはデータE,Fが投入される。このとき、処理サーバ100−1〜100−5の処理回数は、全て9回となり、均一になる。
一方、図3に示すように、同様の条件のもとで、単純なラウンドロビンを適用する場合は、各処理サーバの処理回数は不均一になる。
単純なラウンドロビンでは、最初に処理サーバ100−1を、その後、処理サーバ100−2,処理サーバ100−3,…と処理サーバ100−nまで昇順に選択する。そして、処理サーバ100−nを選択したのちは、再び処理サーバ100−1から繰り返すように処理サーバを選択する。従って、処理サーバ100−1の親キューにはデータA,Fが、処理サーバ100−2の親キューにはデータB,Gが、処理サーバ100−3の親キューにはデータC,Hが、処理サーバ100−4の親キューにはデータD,Iが、処理サーバ100−5の親キューにはデータE,Jが投入される。このとき、処理サーバ100−1〜100−5の処理回数は、それぞれ13回,11回,9回,7回,5回となり、不均一になる。
次に、本実施形態の動作を説明する。
図4は、本発明によるマッチングシステムの第1の実施形態における動作を示すシーケンス図である。
割当てサーバ200のタスク割当て部201は、マッチング処理すべきデータを待ち受ける(ステップS11)。ここでは、タスク割当て部201は、マッチング処理すべきデータとして外部のセンサ(図1に示すセンサ400)等から送信されるデータを待ちうける。
タスク割当て部201は、処理すべきデータが到着したタイミングにおいて、折り返しラウンドロビンルールに則って、当該データを投入する処理サーバを選択する(ステップS12)。
タスク割当て部201は、選択した処理サーバの親キューにデータを投入するとともに、全ての処理サーバの子キューにも当該データを投入する(ステップS13)。
処理サーバのキューイング部101は、割当てサーバ200から投入されるデータを親キューまたは子キューに格納する(ステップS21)。
処理サーバのマッチング部102は、ステップS21の後、キューイング部101が管理する親キュー内のデータと、子キュー内のデータとを総当りでマッチング処理する(ステップS22)。このとき、処理サーバのマッチング部102は、親キュー内のデータと比較するデータとして、当該親キュー内のデータよりも到着順序あるいは発生順序がより後の子キュー内のデータのみを選択して、マッチングを実施する。
マッチング部102は、マッチング結果を割当てサーバ200に応答(送信)する(ステップS23)。
割当てサーバ200の応答部202は、各処理サーバからのマッチング結果を待ち受ける(ステップS14)。
応答部202は、マッチング結果を受信したら、外部システム500に当該マッチング結果を応答(送信)する(ステップS15)。
なお、ステップS21〜S23の処理は、各処理サーバで並列に実行される。
また、本実施形態では、マッチングシステムが複数の装置(処理サーバ100−1〜100−nおよび割当てサーバ200)によって実現されている場合について説明したが、マッチングシステムは1つの装置で実現されていてもよい。つまり、各処理サーバのキューイング部101およびマッチング部102と、割当てサーバ200のタスク割当て部201および応答部202とが1つの装置に含まれていてもよい。
また、クラウドコンピューティング上で、処理サーバ100−1〜100−nおよび割当てサーバ200を論理的に1台のサーバとして扱うようにしてもよい。
以上に説明したように、本実施形態では、割当てサーバ200が、マッチング処理すべきデータが到着するたびに、当該データを適切に処理サーバに割当てる。そして、各処理サーバは、データが到着するタイミングで逐次にマッチング処理を行う。また、本実施形態では、単純なラウンドロビンではなく、折り返しラウンドロビンに則って処理サーバを選択する。それにより、処理サーバの負荷バランス均一になり、処理サーバの負荷が分散される。
従って、本実施形態によれば、処理すべきデータが到着するたびに逐次に処理でき、かつ各処理サーバでの計算時間を均等化するようにタスク(データ)を割当てることができる。すなわち、リアルタイムに収集されるデータの総当りマッチングに適したタスク割当てを行うことができ、マッチング処理を効率的に並列計算することができる。よって、本発明は、センサ等により実世界から収集するデータ同士をマッチングし、その結果をサービスに活用するシステムなどにおいて、大規模に収集するデータのマッチング処理を効率化させることができる。
また、本実施形態では、折り返しラウンドロビンに則って処理するだけでよいので、均等負荷分散を図るための特別な構成を必要としない。従って、単純なラウンドロビンを適用する場合と同程度の構成で、均等負荷分散を容易に実現することができる。また、割当てサーバの負荷を、単純なラウンドロビンを適用する場合と同程度に抑えることができる。
図5は、本発明によるマッチングシステムの最小構成を示すブロック図である。図5に示すように、本発明によるマッチングシステムは、複数の処理装置10−1〜10−n(図1に示す処理サーバ100−1〜100−nに相当。)と、複数の処理装置10−1〜10−nと通信可能な割当て装置20(図1に示す割当てサーバ200に相当。)とを備え、各処理装置は、マッチング処理対象のデータを格納するキューイング部11(図1に示す処理サーバ100−1におけるキューイング部101に相当。)と、キューイング部11に格納されたデータについてマッチング処理を実施するマッチング部12(図1に示す処理サーバ100−1におけるマッチング部102に相当。)とを含み、割当て装置20は、マッチング処理すべきデータを入力するたびに、複数の処理装置10−1〜10−nの中から、当該データに対するマッチング処理を実施させる処理装置を選択し、選択した処理装置のキューイング部11に当該データを格納するタスク割当て部21(図1に示す割当てサーバ200におけるタスク割当て部201に相当。)と、各処理装置におけるマッチング処理の結果を収集し外部システム(図1に示す外部システム500に相当。)に応答する応答部22(図1に示す割当てサーバ200における応答部202に相当。)とを含む。
上記の実施形態には、以下のようなマッチングシステムも開示されている。
(1)割当て装置20のタスク割当て部21が、各処理装置における処理負荷が均一になるように、マッチング処理を実施させる処理装置を選択するマッチングシステム。
そのような構成によれば、各処理サーバでの計算時間を均等化するようにタスク(データ)を割当てることができる。
(2)処理装置のキューイング部11が、マッチング元データを格納する親キューと、マッチング先データを格納する子キューとを含み、処理装置のマッチング部12が、キューイング部11の親キュー内のデータと、子キュー内のデータとを総当りでマッチングし、割当て装置20のタスク割当て部21が、マッチング処理すべきデータを入力するたびに、選択した処理装置の親キューと、全ての処理装置の子キューに当該データを投入するマッチングシステム。
そのような構成によれば、リアルタイムに収集されるデータの総当りマッチングに適したタスク割当てを行うことができ、マッチング処理を効率的に並列計算することができる。
(3)処理装置のマッチング部12が、親キュー内のデータとマッチングするデータとして、子キュー内のデータのうち、親キュー内のデータよりも後に到着または発生したデータを選択し、割当て装置20のタスク割当て部21が、親キューにデータを投入する処理装置を選択する際、すべての処理装置を順に選択したのち逆順に処理装置を選択する選択処理を繰り返すマッチングシステム。
このように、折り返しラウンドロビンに則って処理サーバを選択することにより、単純なラウンドロビンの場合と比べて処理サーバの負荷バランスが均一になり、処理サーバの負荷を分散することができる。そのような構成によれば、折り返しラウンドロビンに則って処理するだけでよいので、均等負荷分散を図るための特別な構成を必要としない。従って、単純なラウンドロビンを適用する場合と同程度の構成で、均等負荷分散を容易に実現することができる。また、割当てサーバの負荷を、単純なラウンドロビンを適用する場合と同程度に抑えることができる。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2012年8月23日に出願された日本特許出願2012−183840を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10−1〜10−n 処理装置
20 割当て装置
11、101 キューイング部
12、102 マッチング部
21、201 タスク割当て部
22、202 応答部
100−1〜100−n 処理サーバ
200 割当てサーバ
300 ネットワーク
400 センサ
500 外部システム

Claims (10)

  1. 複数の処理装置と、前記複数の処理装置と通信可能な割当て装置とを備え、
    各処理装置は、
    マッチング処理対象のデータを格納するキューイング部と、
    キューイング部に格納されたデータについてマッチング処理を実施するマッチング部とを含み、
    前記割当て装置は、
    マッチング処理すべきデータを入力するたびに、前記複数の処理装置の中から、当該データに対するマッチング処理を実施させる処理装置を選択し、選択した処理装置のキューイング部に当該データを格納するタスク割当て部と、
    各処理装置におけるマッチング処理の結果を収集し外部システムに応答する応答部とを含む
    ことを特徴とするマッチングシステム。
  2. 割当て装置のタスク割当て部は、各処理装置における処理負荷が均一になるように、マッチング処理を実施させる処理装置を選択する
    請求項1に記載のマッチングシステム。
  3. 処理装置のキューイング部は、マッチング元データを格納する親キューと、マッチング先データを格納する子キューとを含み、
    処理装置のマッチング部は、前記キューイング部の親キュー内のデータと、子キュー内のデータとを総当りでマッチングし、
    割当て装置のタスク割当て部は、マッチング処理すべきデータを入力するたびに、選択した処理装置の親キューと、全ての処理装置の子キューに当該データを投入する
    請求項1または請求項2に記載のマッチングシステム。
  4. 処理装置のマッチング部は、親キュー内のデータとマッチングするデータとして、子キュー内のデータのうち、親キュー内のデータよりも後に到着または発生したデータを選択し、
    割当て装置のタスク割当て部は、親キューにデータを投入する処理装置を選択する際、すべての処理装置を順に選択したのち逆順に処理装置を選択する選択処理を繰り返す
    請求項3に記載のマッチングシステム。
  5. 割当て装置が、マッチング処理すべきデータを入力するたびに、マッチング処理を実施する複数の処理装置の中から、各処理装置における処理負荷が均一になるように、当該データに対するマッチング処理を実施させる処理装置を選択し、
    選択した処理装置が、当該データに対するマッチング処理を実施し、
    前記割当て装置が、各処理装置におけるマッチング処理の結果を収集し外部システムに応答する
    ことを特徴とするマッチング方法。
  6. 割当て装置が、マッチング処理すべきデータを入力するたびに、マッチング元データを格納する親キューとマッチング先データを格納する子キューとを含む複数の処理装置の中から、当該データに対するマッチング処理を実施させる処理装置を選択し、選択した処理装置の親キューと、全ての処理装置の子キューに当該データを投入し、
    各処理装置が、親キュー内のデータと子キュー内のデータとを総当りでマッチングする
    請求項5に記載のマッチング方法。
  7. 割当て装置が、親キューにデータを投入する処理装置を選択する際、すべての処理装置を順に選択したのち逆順に処理装置を選択する選択処理を繰り返し、
    各処理装置が、親キュー内のデータとマッチングするデータとして、子キュー内のデータのうち、親キュー内のデータよりも後に到着または発生したデータを選択する
    請求項6に記載のマッチング方法。
  8. マッチング処理を実施する複数の処理装置と通信可能なコンピュータに、
    マッチング処理すべきデータを入力するたびに、前記複数の処理装置の中から、各処理装置における処理負荷が均一になるように、当該データに対するマッチング処理を実施させる処理装置を選択する処理と、
    各処理装置が実施したマッチング処理の結果を収集し外部システムに応答する処理とを実行させる
    ためのマッチングプログラム。
  9. コンピュータに、
    マッチング処理すべきデータを入力するたびに、マッチング元データを格納する親キューとマッチング先データを格納する子キューとを含む複数の処理装置の中から、当該データに対するマッチング処理を実施させる処理装置を選択する処理と、
    選択した処理装置の親キューと、全ての処理装置の子キューに当該データを投入する処理と、
    各処理装置が親キュー内のデータと子キュー内のデータとを総当りでマッチングした結果を収集し外部システムに応答する処理とを実行させる
    請求項8に記載のマッチングプログラム。
  10. コンピュータに、
    各処理装置が親キュー内のデータとマッチングするデータとして、子キュー内のデータのうち、親キュー内のデータよりも後に到着または発生したデータを選択する場合には、親キューにデータを投入する処理装置を選択する際、すべての処理装置を順に選択したのち逆順に処理装置を選択する選択処理を繰り返す処理を実行させる
    請求項9に記載のマッチングプログラム。
JP2014531489A 2012-08-23 2013-07-29 マッチングシステム、マッチング方法およびマッチングプログラム Pending JPWO2014030300A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012183840 2012-08-23
JP2012183840 2012-08-23
PCT/JP2013/004574 WO2014030300A1 (ja) 2012-08-23 2013-07-29 マッチングシステム、マッチング方法およびマッチングプログラム

Publications (1)

Publication Number Publication Date
JPWO2014030300A1 true JPWO2014030300A1 (ja) 2016-07-28

Family

ID=50149632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014531489A Pending JPWO2014030300A1 (ja) 2012-08-23 2013-07-29 マッチングシステム、マッチング方法およびマッチングプログラム

Country Status (2)

Country Link
JP (1) JPWO2014030300A1 (ja)
WO (1) WO2014030300A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002086717A1 (en) * 2001-04-16 2002-10-31 Xaxon R & D Corporation Computer virus check device and method
JP4265377B2 (ja) * 2003-11-12 2009-05-20 日本電気株式会社 負荷分散方法及び装置とシステム並びにプログラム
WO2011078108A1 (ja) * 2009-12-21 2011-06-30 日本電気株式会社 マルチプロセッサ環境におけるパターンマッチング方法、及び装置

Also Published As

Publication number Publication date
WO2014030300A1 (ja) 2014-02-27

Similar Documents

Publication Publication Date Title
JP6492977B2 (ja) 並列演算装置、並列演算システム、ノード割当プログラム及びノード割当方法
JP6519111B2 (ja) データ処理制御方法、データ処理制御プログラムおよびデータ処理制御装置
KR20120082598A (ko) 클라우드 컴퓨팅에서 다중 워크플로우를 위한 비용기반 스케줄링 방법 및 그 시스템
Liu et al. Performance analysis of cloud computing services considering resources sharing among virtual machines
Ghosh et al. Dynamic time quantum priority based round robin for load balancing in cloud environment
Ashwin et al. A novel bio-inspired load balancing of virtualmachines in cloud environment
Patel et al. A survey on load balancing and scheduling in cloud computing
Eisa et al. Enhancing cloud computing scheduling based on queuing models
Gauhar Fatima et al. Cloud computing and load balancing
Sahoo et al. Analysing the impact of heterogeneity with greedy resource allocation algorithms for dynamic load balancing in heterogeneous distributed computing system
Lai et al. Delay-aware container scheduling in kubernetes
Mondal et al. Load balancing
US20160014198A1 (en) Information processing apparatus
Jena et al. Performance evaluation of load balancing algorithms on cloud data centers
Xu et al. Optimal construction of virtual networks for cloud-based MapReduce workflows
WO2014030300A1 (ja) マッチングシステム、マッチング方法およびマッチングプログラム
Kumari et al. A Round-Robin based Load balancing approach for Scalable demands and maximized Resource availability
Bhujbal et al. Load balancing model in cloud computing
Berwal et al. Load Balancing in cloud computing
Gobalakrishnan et al. SIS: A scheme for dynamic independent task scheduling in a cloud environment
Abuthahir et al. An efficient enhanced dynamic load balancing weighted round robin algorithm for virtual machine in cloud computing
Kim et al. Towards effective scheduling policies for many‐task applications: practice and experience based on HTCaaS
Simaiya et al. Review of various performcae evaluation issues and efficient load balancing for cloud computing
Randhawa et al. Enhanced load balancer with multi-layer processing architecture for heavy load over cloud network
Stephen et al. Enhanced round Robin algorithm for cloud computing