JP6036848B2 - Information processing system - Google Patents
Information processing system Download PDFInfo
- Publication number
- JP6036848B2 JP6036848B2 JP2014553987A JP2014553987A JP6036848B2 JP 6036848 B2 JP6036848 B2 JP 6036848B2 JP 2014553987 A JP2014553987 A JP 2014553987A JP 2014553987 A JP2014553987 A JP 2014553987A JP 6036848 B2 JP6036848 B2 JP 6036848B2
- Authority
- JP
- Japan
- Prior art keywords
- processing system
- information processing
- processing
- server
- load
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
Description
本発明は、情報処理システムに関し、特にリソース間を接続するネットワークの制御に関する。 The present invention relates to an information processing system, and more particularly to control of a network connecting resources.
本技術分野の背景技術として特許文献1に開示されている技術がある。この公報には、アプリケーションフレームワークによって制御される少なくとも一台の回線交換機と、多数の計算ノードが接続されたネットワークを備え、CPU負荷やメモリ使用率、ボトルネック等の監視結果に基づいて回線交換機を制御する発明が開示されている。
As a background art of this technical field, there is a technique disclosed in
特許文献2では、ストリーム処理グラフを複数のプロセッサからなる処理ノードの集合(特許文献2ではスーパーノードクラスタ(Super node cluster)と記載)に割当て、該集合間が相互に接続されるように光回線交換機を制御する技術が開示されている。
In
近年、ソーシャルネットワークにおける人間関係や企業間の取引関係など、繋がりのある大規模なデータの解析が注目されている。このようなデータは一般的にグラフとして表現される。グラフを解析する際には処理速度とデータサイズの要求に応じて複数のサーバを用いて並列分散処理を行う必要が生じる。上記のような自然発生的なグラフは、一般に、複雑な構造を有し疎密の偏りが大きいため、並列分散処理を行う際にサーバ間の通信負荷の偏りが生じ易い。通信負荷の高いサーバは、通信負荷のために処理時間が長くなり、全体の処理性能のボトルネックになりやすいという問題を生じる。 In recent years, analysis of large-scale connected data such as human relationships in social networks and business relationships between companies has attracted attention. Such data is generally expressed as a graph. When analyzing a graph, it becomes necessary to perform parallel distributed processing using a plurality of servers in accordance with requests for processing speed and data size. The naturally occurring graph as described above generally has a complicated structure and a large unevenness of the density. Therefore, when performing parallel distributed processing, an uneven communication load between servers is likely to occur. A server with a high communication load has a problem that the processing time becomes long due to the communication load, and this tends to be a bottleneck of the overall processing performance.
ここで、前述した特許文献1に記載のシステムでは、実行中の負荷監視結果に基づいてネットワークの構成を変えることができるが、プログラム実行中のトポロジ変更処理自体がオーバーヘッドとなる。また、プログラム実行開始時にどのようなネットワークトポロジを用いるべきかについては言及されていない。
Here, in the system described in
一方、前述した特許文献2に記載のシステムでは、ストリームグラフの処理ノードの割当て結果をもとに光回線交換機を用いてネットワークトポロジを変更しているが、単に全ての処理ノード間で、発生する通信量の総合計を上回る帯域を与えると記載されている。大規模なグラフ処理になるほど処理ノード間の通信量が大きく偏る場合が増え、全ての処理ノード間に通信量の総合計を上回る帯域を与えると無駄が多くなり、物量の観点から不利である。
On the other hand, in the system described in
本発明は上記の課題に鑑みてなされたものであり、その目的は各処理ノード間で発生する通信量の予測値をもとに、処理ノード間の通信量の偏りに応じたネットワークトポロジを決定可能な情報処理システムを提供することにある。 The present invention has been made in view of the above problems, and its purpose is to determine a network topology according to the amount of traffic between processing nodes based on a predicted value of the amount of traffic generated between the processing nodes. It is to provide an information processing system that can be used.
本発明の情報処理システムでは、処理負荷を複数の計算ノードに分散配置し、処理負荷により生じる通信負荷を予測し、予測結果に基づき計算ノード間のネットワークトポロジを決定することで、上述の課題を解決する。 In the information processing system according to the present invention, the processing load is distributed and distributed to a plurality of calculation nodes, the communication load caused by the processing load is predicted, and the network topology between the calculation nodes is determined based on the prediction result. Solve.
本発明によれば、グラフ処理のように並列処理時に計算ノード間の通信量に偏りが生じる場合であっても、通信量の偏りに応じたネットワークトポロジを構成することが可能となり、ひいては処理の高速化を図ることができる。 According to the present invention, it is possible to configure a network topology according to the uneven traffic even when the traffic between the computing nodes is uneven during parallel processing as in graph processing. The speed can be increased.
以下、実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.
図13に、本発明の情報処理システムが扱う処理負荷の例として、入力グラフの例を示す。頂点が丸印で、辺が頂点間を結ぶ矢印でグラフ構造が表現されている。各頂点には固有の通し番号であるIDが付けられている。また辺で繋がった頂点どうしを「隣接する」と呼ぶ。具体的なグラフ処理としては、頂点間の最短経路を算出する処理や、グラフ中の重要な頂点を算出する中心性計算など様々なものがある。これらの多くは辺に沿って情報のやり取りを行うトラバース処理を中心とする処理である。 FIG. 13 shows an example of an input graph as an example of the processing load handled by the information processing system of the present invention. The graph structure is represented by vertices with circles and arrows with arrows connecting the vertices. Each vertex is assigned an ID that is a unique serial number. Also, vertices connected by edges are called “adjacent”. Specific graph processing includes various processing such as processing for calculating the shortest path between vertices and centrality calculation for calculating important vertices in the graph. Many of these are processes centered on a traverse process for exchanging information along the side.
トラバース処理は辺に沿って頂点間でデータをやり取りする処理で、以下のステップを頂点毎に行う。まず、隣接する頂点から辺に沿ってデータを受信する。次に、受信したデータをもとに計算を行い頂点のデータを更新する。そして更新したデータを辺に沿って隣接する頂点に送信する。 The traverse process is a process of exchanging data between vertices along the side, and the following steps are performed for each vertex. First, data is received along an edge from an adjacent vertex. Next, calculation is performed based on the received data to update the vertex data. Then, the updated data is transmitted to adjacent vertices along the side.
このようなグラフ処理を複数のサーバ上で並列に実行する場合、グラフを分割してその一部をサーバに割当てる。このとき、辺の両端の頂点が異なるサーバに割当てられていると、トラバース処理中に発生する辺に沿ったデータの送受信はネットワークを介したサーバ間の通信処理として実現される。 When such graph processing is executed in parallel on a plurality of servers, the graph is divided and a part thereof is allocated to the server. At this time, if the vertices at both ends of the side are assigned to different servers, transmission / reception of data along the side generated during the traverse processing is realized as communication processing between the servers via the network.
図1に、本発明の実施例である情報処理システム100を示す。情報処理システム100は、管理サーバ101と、複数の処理サーバ106−1〜8と、ストレージ111と、を備える。管理サーバ101と処理サーバ106−1〜8は、夫々対応するネットワークスイッチ110−1〜110−5に接続されている。ネットワークスイッチ110−1〜5は、接続可変ネットワーク装置112を介して相互に接続されている。処理サーバ106−1〜8は、並列処理を行う計算ノードとして働く。
FIG. 1 shows an
管理サーバ101は、メモリ102と、中央処理装置(CPU)103と、ネットワークインターフェース104と、接続可変ネットワーク制御インターフェース105と、を備える。管理サーバ101は、情報処理システム100内で、管理ノードとして働く。なお、管理サーバ101は、さらに計算ノードとして処理サーバ106−1〜8と同様に働くことも可能である。
The
接続可変ネットワーク制御インターフェース105は、接続可変ネットワーク装置112に応じて専用の接続を用いるほか、例えばUSB、シリアル接続など汎用の接続を用いることができる。処理サーバ106−1〜8は同様のハードウェア構成を備え、夫々メモリ107と、CPU108とネットワークインターフェース109と、を備える。
The connection variable
接続可変ネットワーク装置112について図4を併用しながら説明する。接続可変ネットワーク装置112は、複数のポート302を備え、接続対象のネットワークスイッチとひとつまたは複数のリンク301を用いて接続される。リンク301には、例えば光ファイバや電気ケーブルを用いることができる。また、接続可変ネットワーク装置112は、制御部113と、可変リンク部117とを備える。制御部113は、制御インターフェース(I/F)114と、CPU115と、メモリ116と、を備える。可変リンク部117は、制御装置118と、複数の可変リンク303と、を備える。可変リンク部117は、制御装置118からの指示に基づいて任意のポート間に可変リンク303を張ることができる。図4の例ではポート1と7、ポート2と4、ポート8と10、ポート6と12が接続されている状態を示している。可変リンク303を制御することは接続可変ネットワーク装置112に接続されているネットワークスイッチ間の物理的な結線を変更することに相当する。これにより、固定された結線のネットワーク上でルーティングを制御する場合と比べて、より柔軟にネットワークスイッチ間の帯域を決めることが可能となる。接続可変ネットワーク装置112としては、例えばMEMS(Micro Electro Mechanical Systems)による光スイッチ等を用いることができる。
The connection
図2に情報処理システム100の機能ブロック図を示す。管理サーバ101および処理サーバの各部と情報はそれぞれのメモリ上に格納される。管理サーバ101は、メモリ102上に、負荷配置部201と、予測通信量集計部202と、予測通信量通知部203と、通信量予測結果204と、負荷配置リスト205と、ネットワークスイッチ対応情報206と、を格納する。処理サーバ106−1〜8は、メモリ107に、夫々通信量予測部207と、処理部208と、負荷配置リスト205と、ネットワークスイッチ対応情報206と、処理負荷情報209と、を格納する。ストレージ111は、負荷データ212と、ネットワークスイッチ情報206と、を格納する。
FIG. 2 shows a functional block diagram of the
図4に、情報処理システム100の動作フローを示す。ステップ401では、管理サーバ101が、ストレージ111上に格納されたネットワークスイッチ対応情報206を読み込んでメモリ102上に格納する。その後、管理サーバ101は、全ての処理サーバ106−1〜8にスイッチ対応情報206を送信する。各処理サーバ106−1〜8は、受信したネットワークスイッチ対応情報を夫々のメモリ107に格納する。本実施例では、各サーバは固定的にネットワークスイッチに接続されており、実行中にサーバとスイッチの対応関係が変化しないため、静的な構成情報として事前に準備されているものとした。図8にスイッチ対応情報の例を示す。各サーバの識別情報(ID)に対して、各サーバが接続されているネットワークスイッチのIDが格納されている。なお、対応関係に規則性があれば、対応情報を数式で表現してもかまわない。
FIG. 4 shows an operation flow of the
ステップ402では、管理サーバ101の負荷配置部201が、ストレージ111上に格納された負荷データ212を読み込んで処理サーバ106−1〜8のメモリ107上に格納する。分散処理を前提とするため、各処理サーバは夫々異なる負荷データの部分をメモリに格納し処理を行う。例えば、管理サーバ101の負荷配置部201は、ストレージ111から負荷データ212のデータサイズを取得する。その後、管理サーバ101の負荷配置部201は、負荷データ212のデータサイズを処理サーバ数(本実施例では8)で割って、処理サーバ1台分の読み込みサイズを決定する。その後、管理サーバ101の負荷配置部201は、各処理サーバに読み込む範囲を通知する。各処理サーバは、受け取った読み込み範囲に従いストレージ111から負荷データ212の一部を読み取り夫々のメモリ107に処理負荷情報209として格納する。
In
図5にステップ402による負荷配置イメージを示す。処理サーバ1は頂点1〜6、処理サーバ2は頂点7〜12というように、各サーバに連続した番号の頂点が格納されている。図6は、各処理サーバ106−1〜8に格納されている配置情報の例である。各リストには、各サーバに配置されている頂点と、該頂点に隣接する頂点の番号とが格納されている。例えば、サーバ1には頂点1〜6が割り当てられており、頂点1には頂点2と頂点43が隣接していることを示す。
FIG. 5 shows a load arrangement image in
ステップ403では、ステップ402の結果をもとに各サーバ間の通信量の予測を行う。ステップ403の詳細な手順を図9に示す。通信量予測処理は管理サーバ101からの指示に基づいて処理サーバ106−1〜8が夫々独立に実行し、最終的に管理サーバ101の予測通信量集計部202が結果を集計する。
In
ステップ901では、管理サーバ101の予測通信量集計部202は、処理サーバの中からまだ予測処理を実行していないサーバを一つ選択する。例えば、管理サーバ101は、処理サーバ106−1を選択する。
In
ステップ902では、管理サーバ101は、ステップ901で選択した処理サーバに対して、通信量予測処理を開始するよう指示する。
In
ステップ903では、ステップ901で選択された処理サーバの通信量予測部207が、自身のメモリ上に格納されているネットワークスイッチ対応情報206を参照し、自身と接続しているネットワークスイッチのIDを取得する。図8のとおり、処理サーバ106−1は、ネットワークスイッチ1と接続している。また、該処理サーバの通信量予測部207は、取得したIDに対応するネットワークスイッチと、それ自身を含むすべてのネットワークスイッチとの間の通信量のカウンタを0に初期化する。
In
ステップ904では、ステップ901で選択された処理サーバの通信量予測部207が、該処理サーバに割り当てられている頂点のうち、まだ処理されていないものを選択する。選択の順序は任意であるが、例えばIDの小さい順から選択する。選択中の処理サーバ1は図6に示すとおり頂点1〜6が割り当てられていて、初期状態ではどの頂点も処理されていないので、最初に頂点1が選択される。
In
ステップ905では、ステップ901で選択された処理サーバの通信量予測部207が、ステップ904で選択した頂点に隣接する頂点のうち、まだ処理されていないものを選択する。選択の順序は任意であるが、例えばIDの小さい順から選択する。図6のとおり、ステップ904で選択した頂点1には頂点2と頂点43が隣接している。初期状態ではいずれも処理されていないので頂点2を選択する。
In
ステップ906では、ステップ901で選択された処理サーバの通信量予測部207が、負荷配置リスト205を参照することによりステップ905で選択した頂点の所属するサーバのIDを取得する。図7のとおり、ステップ905で選択した頂点2はサーバ1に所属していることが分かる。
In
ステップ907では、ステップ901で選択された処理サーバの通信量予測部207が、ネットワークスイッチ対応情報206を参照することによりステップ906で取得したIDに対応するサーバが接続しているネットワークスイッチのIDを取得する。図9のとおり、サーバ1はネットワークスイッチ1に接続していることがわかる。
In step 907, the traffic prediction unit 207 of the processing server selected in
ステップ908では、ステップ901で選択された処理サーバの通信量予測部207が、ステップ903で取得したIDに対応するネットワークスイッチとステップ907で取得したIDに対応するネットワークスイッチの間の通信量を加算する。ここではステップ907で取得したネットワークスイッチのIDは1なので、ネットワークスイッチ1に対する通信量に1を加算する。
In
ステップ910では、ステップ901で選択された処理サーバの通信量予測部207が、ステップ904で選択された頂点に隣接する頂点のうち、未処理のものがあるかどうか判定する。未処理のものがある場合、ステップ905に戻り、該処理サーバは前回実行時と異なる隣接頂点を選択する。未処理のものが無い場合、ステップ911に進む。ここでは、上記のとおり選択中の頂点1に頂点2と頂点43が隣接しており、頂点43が未処理であるため判定の結果がyesとなり、ステップ905に戻り頂点43が選択される。
In
ステップ911では、ステップ901で選択された処理サーバの通信量予測部207が、ステップ901で選択された処理サーバに割り当てられている頂点のうち、まだ処理されていないものがあるかどうか判定する。処理されていないものがある場合、ステップ904に戻り、該処理サーバの通信量予測部207は、前回実行時と異なる頂点を選択する。処理されていないものが無い場合、ステップ912に進む。ここでは、上記のとおり選択中のサーバ1には頂点1〜6が割り当てられており、頂点2〜6は未処理であるため、判定結果がyesとなり、ステップ904に戻り、異なる頂点が選択される。
In
ステップ912では、ステップ901で選択された処理サーバが、ステップ903〜911で求めた結果を管理サーバ101に送信する。
In
ステップ913では、管理サーバ101の予測通信量集計部202が、通信量予測処理を行っていない処理サーバがあるかどうかを判定する。通信量予測処理を行っていない処理サーバがある場合、ステップ901に戻り、管理サーバ101は、前回実行時と異なる処理サーバを選択する。通信量予測処理を行っていない処理サーバが無い場合、管理サーバ101は通信量予測処理を終了する。
In
図10に、ステップ403の出力結果である通信量予測結果を示す。この通信量予測結果は、ネットワークスイッチの組ごとに予測される通信量を格納した行列の形式で示されている。計算結果は通信量予測結果204として管理サーバ101のメモリ102に格納される。説明の便宜上、処理サーバを逐次に選択して通信量予測処理を行うようにしたが、各処理サーバで並列に通信量予測処理を行っても良い。
FIG. 10 shows the traffic volume prediction result that is the output result of
ステップ404では、管理サーバ101の予測通信量通知部203が、ステップ403で計算された通信量予測結果204を制御I/F105を通じて接続可変ネットワーク装置112に送信する。
In
ステップ405では、接続可変ネットワーク装置112のCPU115で実行されるトポロジ最適化部213が、受信した通信量予測結果に応じたトポロジを決定する。トポロジの決定方法としては、例えば全体の通信量に対する特定のネットワークスイッチ間通信量の割合に応じてリンクを分配する方法がある。
In
例えば、図10に示した通信量予測結果から、全てのネットワークスイッチの組の通信量を列挙すると図11のような結果が得られる。各組の通信量を合計すると全体の通信量が得られる。図11の例では全体の通信量は30となる(図示せず)。こうして求めた全体の通信量に対して各ネットワークスイッチの組の通信量の割合を求めると、図11の“割合”列のような結果が得られる。この割合に従ってリンクを分配する。図3に示したように各ネットワークスイッチから3ポートに対してリンクを張っている場合、全部で12ポート分が可変リンクで利用可能である。可変リンク1本につき2ポートを使用するため、使用できる可変リンクの数は最大で6本となる。前記割合に沿って6本を分配すると図11の“リンク本数”列のようになる。リンク本数は整数値しか取れないため、小数点以下は切り捨てる。CPU115で実行されるトポロジ最適化部213は、このようにして得られたトポロジ最適化結果を制御装置118に送り、最適結果を反映するように可変リンク303を変更する。図12は、この結果を反映したトポロジの例である。特定のネットワークスイッチ間でポート8と11及びポート9と10という2本の可変リンクが張られており、当該スイッチ間でより多くの帯域を使用する事が可能になっている。
For example, enumerating the communication traffic of all network switch sets from the communication traffic prediction results shown in FIG. 10 yields the results shown in FIG. The total amount of communication is obtained by summing the amount of communication for each group. In the example of FIG. 11, the total communication amount is 30 (not shown). When the ratio of the communication amount of each network switch set to the total communication amount thus obtained is obtained, a result as shown in the “ratio” column of FIG. 11 is obtained. Distribute links according to this percentage. As shown in FIG. 3, when links are established for 3 ports from each network switch, a total of 12 ports can be used as variable links. Since two ports are used for each variable link, the maximum number of variable links that can be used is six. When 6 lines are distributed along the ratio, the “number of links” column in FIG. 11 is obtained. Since the number of links can only be an integer value, the decimal part is rounded down. The topology optimization unit 213 executed by the
ステップ406では、管理サーバ101が、各処理サーバ106−1〜8に処理開始の準備が整ったことを通知する。通知を受けた各処理サーバ106−1〜8は、夫々の持つ処理部208の実行を開始する。
In
一連の手順により、グラフデータの不均一性に起因する通信量の偏りを反映したネットワークトポロジを構成することができる。これにより、サーバ間の通信で発生していたボトルネックを解消することができるため処理を高速に実行することが可能になる。 Through a series of procedures, it is possible to configure a network topology that reflects a deviation in traffic caused by non-uniformity of graph data. Thereby, since the bottleneck which generate | occur | produced in the communication between servers can be eliminated, it becomes possible to perform a process at high speed.
100:情報処理システム、101:管理サーバ、102:メモリ、103:CPU、104:ネットワークインターフェース、105:制御インターフェース、106−1〜8:処理サーバ、107:メモリ、108:CPU、109:ネットワークインターフェース、110−1〜5:ネットワークスイッチ、111:ストレージ、112:接続可変ネットワーク装置、113:制御部、114:制御インターフェース、115:CPU、117:可変リンク部、118:制御装置、201:負荷配置部、202:予測通信量集計部、203:予測通信量通知部、204:通信量予測結果、205:負荷配置リスト、206:ネットワークスイッチ対応情報、207:通信量予測部、208:処理部、209:処理負荷情報、212:負荷データ、213:トポロジ最適化部、301:リンク、302:ポート、303:可変リンク、1301:グラフの頂点、1302:グラフの辺。 100: Information processing system 101: Management server 102: Memory 103: CPU 104: Network interface 105: Control interface 106-1-8: Processing server 107: Memory 108: CPU 109: Network interface 110-1 to 5: network switch, 111: storage, 112: connection variable network device, 113: control unit, 114: control interface, 115: CPU, 117: variable link unit, 118: control device, 201: load arrangement 202: Predicted traffic totaling unit, 203: Predicted traffic notification unit, 204: Traffic forecast result, 205: Load allocation list, 206: Network switch correspondence information, 207: Traffic forecast unit, 208: Processing unit, 209: Processing load information, 212: Negative Data, 213: topology optimizing unit, 301: Link, 302: Port 303: variable link, 1301: the vertices of the graph, 1302: edges of the graph.
Claims (6)
前記複数の計算ノード間の接続を可変とするネットワーク装置と、を有し、
処理負荷を前記複数の計算ノードに分散して配置し、
前記処理負荷によって生じる前記複数のノード間の通信量を予測し、
予測結果に基づいて前記接続を決定し、
前記処理負荷はグラフ構造を有しており、
前記処理負荷を分散して配置する際に、グラフ頂点を各計算ノードに配置し、
前記通信量を予測する際に、互いに異なる計算ノードに配置されたグラフ頂点を接続する辺の数に基づいて前記通信量を予測することを特徴とする情報処理システム。 A plurality of computation nodes and a network device that makes connection between the plurality of computation nodes variable,
Distribute processing load among the plurality of computing nodes,
Predicting traffic between the plurality of nodes caused by the processing load;
Determining the connection based on the prediction results ;
The processing load has a graph structure;
When distributing the processing load in a distributed manner, the graph vertices are placed in each computation node
An information processing system that predicts the traffic volume based on the number of edges that connect graph vertices arranged in different calculation nodes when the traffic volume is predicted .
管理ノードを有し、
前記管理ノードが、
前記処理負荷を前記複数の計算ノードに分散して配置し、
前記予測を各計算ノードに指示することを特徴とする情報処理システム。 The information processing system according to claim 1,
Have a management node,
The management node is
Distributing the processing load to the plurality of computing nodes,
An information processing system that instructs each computation node to perform the prediction.
前記複数の計算ノードは、グループに分かれてグループ毎にスイッチに接続され、
各スイッチが前記ネットワーク装置の各ポートに接続されていることを特徴とする情報処理システム。 The information processing system according to claim 1,
The plurality of computing nodes are divided into groups and connected to switches for each group,
An information processing system, wherein each switch is connected to each port of the network device.
前記予測結果に基づいて前記接続を決定する際に、
前記予測結果から各スイッチ間の通信量を予測して前記接続を決定することを特徴とする情報処理システム。 The information processing system according to claim 3 ,
When determining the connection based on the prediction result,
An information processing system, wherein the connection is determined by predicting a communication amount between each switch from the prediction result.
各スイッチは、それぞれ複数の前記ポートに接続されていることを特徴とする情報処理システム。 The information processing system according to claim 3 ,
Each switch is connected to a plurality of said ports, respectively, Information processing system characterized by things
前記ネットワーク装置は、光スイッチであることを特徴とする情報処理システム。 The information processing system according to claim 1,
The information processing system, wherein the network device is an optical switch.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/084019 WO2014102996A1 (en) | 2012-12-28 | 2012-12-28 | Information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6036848B2 true JP6036848B2 (en) | 2016-11-30 |
JPWO2014102996A1 JPWO2014102996A1 (en) | 2017-01-12 |
Family
ID=51020147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014553987A Expired - Fee Related JP6036848B2 (en) | 2012-12-28 | 2012-12-28 | Information processing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6036848B2 (en) |
WO (1) | WO2014102996A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10860925B2 (en) * | 2015-10-28 | 2020-12-08 | Google Llc | Processing computational graphs |
CN108681482B (en) | 2018-05-16 | 2020-12-01 | 腾讯科技(深圳)有限公司 | Task scheduling method and device based on graph data |
JP2022019348A (en) | 2020-07-17 | 2022-01-27 | 富士通株式会社 | Information processing method, and information processing program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011024699A (en) * | 2009-07-23 | 2011-02-10 | Sankyo Co Ltd | Slot machine |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004171234A (en) * | 2002-11-19 | 2004-06-17 | Toshiba Corp | Task allocation method in multiprocessor system, task allocation program and multiprocessor system |
JP5644566B2 (en) * | 2011-02-09 | 2014-12-24 | 富士通株式会社 | COMPUTER SYSTEM, CONFIGURATION MANAGEMENT DEVICE, AND CONFIGURATION MANAGEMENT PROGRAM |
-
2012
- 2012-12-28 JP JP2014553987A patent/JP6036848B2/en not_active Expired - Fee Related
- 2012-12-28 WO PCT/JP2012/084019 patent/WO2014102996A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011024699A (en) * | 2009-07-23 | 2011-02-10 | Sankyo Co Ltd | Slot machine |
Also Published As
Publication number | Publication date |
---|---|
WO2014102996A1 (en) | 2014-07-03 |
JPWO2014102996A1 (en) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gao et al. | Traffic load balancing schemes for devolved controllers in mega data centers | |
US9703610B2 (en) | Extensible centralized dynamic resource distribution in a clustered data grid | |
Ali et al. | The study on load balancing strategies in distributed computing system | |
CN107111517B (en) | Optimized allocation and/or generation of virtual machines for reducer tasks | |
EP2922249B1 (en) | Control plane optimization of communication networks | |
Kim et al. | An energy-aware service function chaining and reconfiguration algorithm in NFV | |
KR101578177B1 (en) | Method and system for migration based on resource utilization rate in cloud computing | |
JP2012099062A (en) | Service cooperation system and information processing system | |
CN113645146B (en) | New stream density-based software defined network controller load balancing method and system | |
JPWO2008114440A1 (en) | Unique information collective communication program, computer, unique information collective communication method, and recording medium | |
Chen et al. | Tology-aware optimal data placement algorithm for network traffic optimization | |
Ferdaus et al. | Multi-objective, decentralized dynamic virtual machine consolidation using aco metaheuristic in computing clouds | |
Ke et al. | Aggregation on the fly: Reducing traffic for big data in the cloud | |
JP6036848B2 (en) | Information processing system | |
US10216593B2 (en) | Distributed processing system for use in application migration | |
Mahmoudi et al. | SDN-DVFS: an enhanced QoS-aware load-balancing method in software defined networks | |
Yao et al. | VM migration planning in software-defined data center networks | |
Qin et al. | Interference and topology-aware VM live migrations in software-defined networks | |
Tran-Dang et al. | Cooperation for distributed task offloading in fog computing networks | |
Zhou et al. | Balancing load: An adaptive traffic management scheme for microservices | |
US9521191B2 (en) | Computing device, method, and program for distributing computational load | |
Anbiah et al. | An online distributed approach to network function placement in nfv-enabled networks | |
Sridevi et al. | Multi controller load balancing in software defined networks: a survey | |
Liu et al. | Towards bandwidth guaranteed virtual cluster reallocation in the cloud | |
Kaur et al. | A microservice migration approach to controlling latency in 5G/6G networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161017 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6036848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |