JP2021068029A - 管理装置,情報処理システム及び管理プログラム - Google Patents

管理装置,情報処理システム及び管理プログラム Download PDF

Info

Publication number
JP2021068029A
JP2021068029A JP2019191199A JP2019191199A JP2021068029A JP 2021068029 A JP2021068029 A JP 2021068029A JP 2019191199 A JP2019191199 A JP 2019191199A JP 2019191199 A JP2019191199 A JP 2019191199A JP 2021068029 A JP2021068029 A JP 2021068029A
Authority
JP
Japan
Prior art keywords
processing
task
data
unit
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019191199A
Other languages
English (en)
Inventor
直輝 飯嶋
Naoki Iijima
直輝 飯嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019191199A priority Critical patent/JP2021068029A/ja
Priority to US17/031,976 priority patent/US20210119902A1/en
Publication of JP2021068029A publication Critical patent/JP2021068029A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/12Shortest path evaluation
    • H04L45/125Shortest path evaluation based on throughput or bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/127Avoiding congestion; Recovering from congestion by using congestion prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/12Shortest path evaluation
    • H04L45/121Shortest path evaluation by minimising delays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/20Hop count for routing purposes, e.g. TTL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/42Centralised routing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/22Alternate routing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/125Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)

Abstract

【課題】タスクの再配置先の処理装置として、タスクの遅延要件を満たす処理装置を選択する。【解決手段】タスクに関するデータをバックアップしている第1の処理装置2と、タスクの再配置先の候補である複数の第2の処理装置2のそれぞれとの間における転送条件を取得する取得部1113と、複数の第2の処理装置2のうち、転送条件がタスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置2を、再配置先の処理装置2として決定する決定部1115と、を備える。【選択図】図9

Description

本発明は、管理装置,情報処理システム及び管理プログラムに関する。
近年、大量データに対する高速処理の需要が高まっており、クラウドでの集中処理ではネットワークの輻輳や応答遅延の増加等の問題が発生するため、データ発生源付近において集中処理が行なわれることがある。
例えば、広域に分散して設置されたカメラから映像データを収集し、近傍のサーバにてストリームデータ処理を行なうシステムがある。このようなシステムでは、1つのサーバにおいて、複数のカメラからの映像データの処理が担当され、カメラに映る人や物体の動き(例えば、ふらつき行為や侵入行為)を検知して検知した対象それぞれに対して画像認識処理が行なわれる。
このような画像認識処理を行なうために、サーバにおいて多くのタスクを実行している。多くのタスクを扱うことによりサーバの負荷が高くなると、タスクの処理が規定の時間内に終了できずに中断してしまう場合がある。そこで、ある程度のタスクの処理遅延を許容可能とし、タスクの処理を継続させるために、ユーザ(別言すれば、操作者)はタスクごとに許容可能な遅延時間に関する遅延要件の設定をすることができる。
国際公開2013/073020号 特開平6−259478号公報
しかしながら、処理すべきタスクの増加やサーバ等のシステムの障害にともなう負荷の増加によって、タスクごとに設定される遅延要件(別言すれば、遅延要求)を満たせないおそれがある。
1つの側面では、タスクの再配置先の処理装置として、タスクの遅延要件を満たす処理装置を選択することを目的とする。
1つの側面では、管理装置は、タスクに関するデータをバックアップしている第1の処理装置と、前記タスクの再配置先の候補である複数の第2の処理装置のそれぞれとの間における転送条件を取得する取得部と、前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する決定部と、を備える。
1つの側面では、タスクの再配置先の処理装置として、タスクの遅延要件を満たす処理装置を選択できる。
関連例における大量データの集中処理及び分散処理を説明する図である。 関連例における情報処理システムを示すブロック図である。 図2に示した情報処理システムにおけるストリームデータ処理の障害復旧動作を説明する図である。 図2に示した管理サーバにおける再配置処理を説明するフローチャートである。 図2に示した管理サーバにおける再配置処理を説明するブロック図である。 実施形態の一例における再配置処理の概要を説明する図である。 実施形態の一例における情報処理システムを示すブロック図である。 図7に示した管理サーバ及び処理サーバのハードウェア構成例を模式的に示すブロック図である。 図7に示した管理サーバ及び処理サーバの機能構成例を模式的に示すブロック図である。 図7に示した情報処理システムにおけるストリームデータ情報を例示するテーブルである。 図7に示した情報処理システムにおけるバックアップデータ情報を例示するテーブルである。 図7に示した情報処理システムにおける負荷情報を例示するテーブルである。 図7に示した情報処理システムにおけるタスク実行依頼を例示するテーブルである。 図7に示した情報処理システムにおけるデータ位置管理情報を例示するテーブルである。 図7に示した情報処理システムにおける実行タスク管理情報を例示するテーブルである。 図7に示した処理サーバにおけるストリームデータの収集処理を説明するフローチャートである。 図7に示した処理サーバにおけるストリームデータ処理を説明するフローチャートである。 図7に示した処理サーバにおけるバックアップの保存処理を説明するフローチャートである。 図7に示した処理サーバにおける負荷情報の収集処理を説明するフローチャートである。 図7に示した処理サーバにおけるストリームデータの割り込み処理を説明するフローチャートである。 図7に示した管理サーバにおけるストリームデータの管理処理を説明するフローチャートである。 図21のステップS62における割当決定処理の詳細を説明するフローチャートである。 図21のステップS62における割当決定処理の詳細を説明するフローチャートである。 図7に示した管理サーバにおけるストリームデータ位置の管理処理を説明するフローチャートである。 関連例及び実施形態の一例における遅延要件の解を求める際のタスク数と計算時間との関係を示すグラフである。
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A〕関連例
図1は、関連例における大量データの集中処理及び分散処理を説明する図である。
例えば自動車の安全運転支援や工場のリアルタイム監視・制御の分野では、大量データの高速処理が行なわれる。
図1の符号A1に示す集中処理では、大量データをすべてクラウドに収集して処理を行なうが、センサとデータセンタとの間で大容量のデータ送信及びフィードバックが行なわれるため、ネットワークの輻輳や応答遅延の増加が問題になるおそれがある。
そこで、図1の符号A2に示す分散処理では、データ発生源であるセンサの近くにサーバを配置して処理が行なわれることにより、大量データを高速に処理できる。
図2は、関連例における情報処理システム600を示すブロック図である。
情報処理システム600は、管理サーバ6,複数の処理サーバ7(「処理サーバ#1〜#4」と称してもよい。),複数のスイッチ(SW)8及びカメラ9を備える。情報処理システム600では、広域に分散して設置されたカメラ9から映像データが収集され、近傍の処理サーバ7にてストリームデータ処理が行なわれる。
管理サーバ6は、1以上のSW8を介して各処理サーバ7に接続される。また、各処理サーバ7は、1以上のSW8を介してカメラ9に接続される。
1つの処理サーバ7につき複数のカメラ9から取得した映像データが処理される。各処理サーバ7は、カメラ9に映る人や物体の検知を行ない、検知した各対象に対してパターンパッチ処理等を行なう。例えば、映った人の位置の時系列データが処理され、ふらつき行為の検知や立ち入り禁止区域への進入行為等が検知される。
このような情報処理システム600では、監視要件が設定されており、撮影から数秒以内での処理が求められる。また、管理サーバ6にて処理サーバ7の死活管理や処理の負荷分散処理等が行なわれる。
しかしながら、処理サーバ7での障害発生時やカメラ9に映る対象の増加による処理負荷の増大によって、設定されている遅延要件が満たされないおそれがある。
そこで、遅延要件を満たすために、各処理サーバ7間において処理を再配置することが想定される。
図3は、図2に示した情報処理システム600におけるストリームデータ処理の障害復旧動作を説明する図である。
図3では、ストリームデータの複製を行なったり、処理状態をバックアップとして保存したりすることで、或る処理サーバ7において実行されていた処理が他の処理サーバ7において再開される例が示されている。
処理再開の際には、データのバックアップが読み込まれ、バックアップ取得時点から現在までに発生したデータが再読み込みされて処理が行なわれる。
図示する例では、処理サーバ#1は、各カメラ9から取得されたデータについて、処理#1〜#3によってそれぞれストリームデータ処理を実行する。各処理において四角で囲まれた数字は時系列データを表す。
符号B1に示すように、メッセージブローカー71(別言すれば、データ収集部)は、カメラ9から収集されたデータを出力しストリームデータ処理を実行する。符号B2に示すように、各処理は、一定時間ごとの処理単位に分けられる。
符号B3に示すように、処理サーバ#1は、再配置対象の処理#1について、バックアップのために、処理サーバ#2に対して常時複製する。
ここで、処理サーバ#1において障害が発生した場合には、符号B4に示すように、処理サーバ#2のバックアップ保存部72は、処理サーバ#1から、処理途中の中間データや、再配置対象の処理についてどのデータまで読み込みが完了したかに関する情報等を取得する。これにより、処理サーバ#2は、処理サーバ#1からのストリームデータ処理の再配置を受け付けて、障害復旧動作を行なうことができる。
図2に示した管理サーバ6における再配置処理を、図4に示すフローチャート(ステップS1〜S6)に従って説明する。
管理サーバ6は、処理サーバ7における負荷を収集する(ステップS1)。
管理サーバ6は、処理サーバ7における障害を検知したかを判定する(ステップS2)。
障害を検知していない場合には(ステップS2のNoルート参照)、再配置処理は終了する。
一方、障害を検知した場合には(ステップS2のYesルート参照)、管理サーバ6は、処理サーバ7の負荷状況から処理の再配置先を計算する(ステップS3)。
再配置先の処理サーバ7は、再配置元の処理サーバ7から処理の実行プログラムを受信し、プログラムを実行する(ステップS4)。
再配置先の処理サーバ7は、バックアップ保存先の処理サーバ7からバックアップを読み込む(ステップS5)。
再配置先の処理サーバ7は、複製データ保存先の処理サーバ7からデータを読み込む(ステップS6)。そして、再配置処理は終了する。
図5は、図2に示した管理サーバ6における再配置処理を説明するブロック図である。
図5に示す例では、処理サーバ#3にタスクEが配置されており、符号C1に示すように、処理サーバ#4におるタスクEのバックアップレプリケーションがバックアップ及び複製データとして処理サーバ#2に再配置される。
符号C2に示すように、データストリーム処理の再配置から完了(別言すれば、復旧)までの時間は、タスク起動,バックアップ読み込み,レプリケーションデータ読み込み及び再処理の各時間に基づく。
関連例においては、処理サーバ7の負荷は考慮されるが、バックアップデータの複製保存先の処理サーバ7と再配置先の処理サーバ7との間におけるデータ転送によって生じる転送遅延は考慮されずにタスクの再配置先が決定されるため、遅延要件が満たされないおそれがある。図5に示す例では、SW#1と処理サーバ#2との間の帯域が狭い場合には、データ転送によって生じる転送遅延が大きくなるおそれがある。
〔B〕実施形態の一例
〔B−1〕システム構成例
実施形態の一例においては、定期的にネットワークの状況や処理サーバ2(図7等を用いて後述)の負荷状況に基づき、各タスクのバックアップデータの複製保存先やタスク再配置先の処理サーバ2が決定される。
図6は、実施形態の一例における再配置処理の概要を説明する図である。
実施形態の一例における再配置処理では、タスク及び処理サーバ2に対して複数種類のソートが行なわれることで、タスク数やサーバ数が増大したとしても最適な再配置先の処理サーバ2の候補が絞られ、高速な計算ができる。
符号D1に示すように、遅延要件における遅延許容時間が短い順にタスクがソートされ、先頭のタスクから順番に再配置先が決定される。
符号D2に示すように、バックアップレプリケーションの保存先の処理サーバ2とタスク再配置先の処理サーバ2との間のデータ転送によって生じる転送遅延(別言すれば、サーバ間遅延)に関わる遅延時間が短い順に処理サーバ2の組み合わせがソートされる。これにより、遅延要件ができるだけ満たされるように、再配置先の処理サーバ2が選択される。
符号D3に示すように、ソート順にタスクを選択し、タスクが稼働している処理サーバ2からバックアップレプリケーション保存先の処理サーバ2までのホップ数が少ない順に処理サーバ2の組み合わせがソートされる。これにより、できるだけ帯域を消費する経路が短くなるように、再配置先の処理サーバ2が選択される。これをタスクの数だけ繰り返し実行する。
すなわち、始めに、遅延時間が短い順に複数のタスクのソートが行なわれる。
更に、ソートの順に複数のタスクのそれぞれに対して、ホップ数が少ない処理サーバ2の順に再配置先の処理サーバ2が決定される。ホップ数は、バックアップ元の処理サーバ2とタスクの再配置先候補の複数の処理サーバ2との間に設置されているSW3(図7を用いて後述)の数である。
次に、ソートの順に、ホップ数に基づいた再配置先の処理サーバ2が決定されなかった複数のタスクのそれぞれに対して、ネットワーク帯域が大きい処理サーバ2の順に再配置先の処理装置が決定される。ネットワーク帯域は、バックアップ元の処理サーバ2と再配置先候補の複数の処理サーバ2との間に設置されているSW3と、再配置先候補の複数の処理サーバ2との間における帯域である。
なお、再配置先の処理サーバ2の決定は、ネットワーク帯域に基づいて行なわれた後に、ホップ数に基づいて行なわれてもよい。
図7は、実施形態の一例における情報処理システム100を示すブロック図である。
情報処理システム100は、管理サーバ1,複数の処理サーバ2(「処理サーバ#1〜#4」と称してもよい。),複数のスイッチ(SW)3及び複数のカメラ4を備える。情報処理システム100では、広域に分散して設置されたカメラ4からの映像データが収集され、近傍の処理サーバ2にてストリームデータ処理が行なわれる。
管理サーバ1は管理装置の一例であり、処理サーバ2は処理装置の一例である。管理サーバ1は、1以上のSW3を介して各処理サーバ2に接続されてよい。また、各処理サーバ2は、1以上のSW3を介してカメラ4に接続されてよい。
1つの処理サーバ2につき複数のカメラ4から映像データが処理されてよい。各処理サーバ2は、カメラ4に映る人や物体の検知を行ない、検知した各対象に対してパターンパッチ処理等を行なう。例えば、映った人の位置の時系列データが処理され、ふらつき行為の検知や立ち入り禁止区域への進入行為等が検知される。
図7に示す例では、符号E1に示すように、SW#1と処理サーバ#1との間の帯域は100Mbpsであり、SW#1と処理サーバ#2との間の帯域は10Mbpsである。また、符号E2に示すように、タスクEに関する転送データのサイズは50Mbitである。
符号E3に示すように、図5等に示した関連例では、ネットワーク帯域を考慮していないため、処理サーバ#2にタスクが再配置されることがある。このような再配置が行なわれると、処理サーバ#2とSW#1との間の転送遅延が大きいため、遅延要件を満たせないおそれがある。
一方、符号E4に示すように、実施形態の一例においては、ネットワーク帯域が考慮されるため、SW#1との間のネットワーク帯域が大きい処理サーバ#1にタスクが割り当てられ、遅延要件を満たすことができる。
図8は、図7に示した管理サーバ1及び処理サーバ2のハードウェア構成例を模式的に示すブロック図である。
図8に示すように、管理サーバ1及び処理サーバ2は、CPU11,メモリ12,表示制御部13,記憶装置14,入力Interface(I/F)15,読み書き処理部16及び通信I/F17を備える。
メモリ12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用されてよい。
表示制御部13は、表示装置130と接続され、表示装置130を制御する。表示装置130は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置130は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。
記憶装置14は、例示的に、データを読み書きして記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。記憶装置14は、図10〜図15を用いてそれぞれ後述するストリームデータ情報,バックアップデータ情報,負荷情報,タスク実行依頼,データ位置管理情報及び実行タスク管理情報を記憶してよい。
入力I/F15は、マウス151やキーボード152等の入力装置と接続され、マウス151やキーボード152等の入力装置を制御してよい。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行なう。
読み書き処理部16は、記録媒体160が装着可能に構成される。読み書き処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
通信I/F17は、外部装置との通信を可能にするためのインタフェースである。
CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
管理サーバ1及び処理サーバ2全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、管理サーバ1及び処理サーバ2全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
図9は、図7に示した管理サーバ1及び処理サーバ2の機能構成例を模式的に示すブロック図である。
図9に示すように、管理サーバ1のCPU11は、プログラム(別言すれば、管理プログラム)を実行することにより、ストリームデータ処理管理部111及びストリームデータ位置管理部112として機能する。
ストリームデータ処理管理部111は、バックアップ送信通知部1111,バックアップ先切替通知部1112,負荷収集部1113,保存場所・再配置先管理部1114及び保存場所・再配置先計算部1115として機能する。
バックアップ送信通知部1111は、処理サーバ2に対して、バックアップの作成のための通知を送信する。
バックアップ先切替通知部1112は、処理サーバ2に対して、バックアップ先の変更のための通知を送信する。
負荷収集部1113は、各処理サーバ2及びSW3等のネットワーク機器から、サーバ負荷や帯域負荷を収集する。
別言すれば、負荷収集部1113は、取得部の一例であり、タスクに関するデータをバックアップしている第1の処理サーバ2と、タスクの再配置先の候補である複数の第2の処理サーバ2のそれぞれとの間における転送条件を取得する。なお、転送条件は、第1の処理サーバ2と複数の第2の処理サーバ2との間に設置されているSW3の数に応じたホップ数であってよい。また、転送条件は、第1の処理サーバ2と複数の第2の処理サーバ2との間に設置されているSW3と、複数の第2の処理サーバ2との間のネットワーク帯域であってもよい。
負荷収集部1113は、転送条件に加えて、複数の第2の処理サーバ2における負荷を取得してもよい。
保管場所・再配置先管理部1114は、処理をバックアップする処理サーバ2と処理を再配置する処理サーバ2との組み合わせを管理する。
保管場所・再配置先計算部1115は、処理をバックアップする処理サーバ2と処理を再配置する処理サーバ2との組み合わせ計算する。
別言すれば、保存場所・再配置先計算部1115は、決定部の一例であり、複数の第2の処理サーバ2のうち、転送条件がタスクに関する遅延要件を満たす処理サーバ2を、再配置先の処理サーバ2として決定する。
保存場所・再配置先計算部1115は、複数の第2の処理サーバ2のうち、負荷が低い処理サーバ2を優先して再配置先の処理サーバ2として決定してもよい。
ストリームデータ位置管理部112は、データ位置登録部1121,データ複製先切替送信部1122,データ位置問合せ受信部1123及びデータ位置送信部1124として機能する。
データ位置登録部1121は、ストリームデータがどの処理サーバ2に格納されているのかを登録する。
データ複製先切替送信部1122は、処理サーバ2の後述するストリームデータ収集部213に対して、複製データの送信先を変更する通知を送信する。
データ位置問合せ受信部1123は、処理サーバ2からのデータ位置の問合せを受信する。
データ位置送信部1124は、処理サーバ2に対してデータ位置(別言すれば、どの処理サーバ2にデータが保存されているか)を送信する。
図9に示すように、処理サーバ2のCPU11は、プログラムを実行することにより、ストリームデータ処理部211,負荷管理部212,ストリームデータ収集部213,バックアップ保存部214として機能する。
ストリームデータ処理部211は、バックアップ先切替部2111,バックアップ読出部2112,バックアップ送信部2113,設定変更受信部2114,データ処理部2115及びデータ読出部2116として機能する。
バックアップ先切替部2111は、管理サーバ1からバックアップ先の切替通知を受信したら、バックアップ先の処理サーバ2を切り替える。
バックアップ読出部2112は、指定された処理サーバ2のバックアップ保存部214からバックアップを読み出す。
バックアップ送信部2113は、バックアップを作成し、バックアップ保存先の処理サーバ2へバックアップを送信する。
設定変更受信部2114は、管理サーバ1からバックアップ先の変更通知を受信する。
データ処理部2115は、カメラ4又は他の処理サーバ2から取得されたデータを処理する。
データ読出部2116は、ストリームデータ収集部213から必要なデータを読み出す。
負荷管理部212は、負荷情報送信部2121及び負荷情報収集部2122として機能する。
負荷情報送信部2121は、自身の処理サーバ2の負荷情報を管理サーバ1へ送信する。
負荷情報収集部2122は、自身の処理サーバ2の負荷情報を定期的に収集する。
ストリームデータ収集部213は、設定変更受信部2131,複製先切替部2132,データ複製部2133,データ蓄積部2134及びデータ送受信部2135として機能する。
設定変更受信部2131は、管理サーバ1から、複製データ保存先の変更通知を受信する。
複製先切替部2132は、複製データ保存先の変更通知に従って、データ複製先の処理サーバ2を変更する。
データ蓄積部2134は、受信したストリームデータをデータベースへ蓄積する。
データ送受信部2135は、ストリームデータを受信し、データ複製先の処理サーバ2へデータを送信する。また、データ送受信部2135は、ストリームデータ処理部211からの要求に対して、対応するデータを送信する。
バックアップ保存部214は、データ送受信部2141及びデータ蓄積部2142として機能する。
データ送受信部2141は、他の処理サーバ2からバックアップを受信する。また、データ送受信部2141は、他の処理サーバ2から要求されたバックアップを送信する。
データ蓄積部2142は、受信したバックアップをデータベースへ蓄積する。
カメラ4は、データ送信部41としての機能を有する。
データ送信部41は、処理サーバ2のストリームデータ収集部213に対して、撮影により得られた映像データを送信する。
図10は、図7に示した情報処理システム100におけるストリームデータ情報を例示するテーブルである。
ストリームデータ情報は、各処理サーバ2において管理され、自身の処理サーバ2における処理対象のストリームデータを示す。ストリームデータ情報には、データ種類と時刻と値とが対応づけられている。
データ種類は、撮影に使用されたカメラ4毎に異なる値である。時刻は、ストリームデータの撮影が開始された時刻である。値は、ストリームデータの内容を示す。
図11は、図7に示した情報処理システム100におけるバックアップデータ情報を例示するテーブルである。
バックアップデータ情報は、各処理サーバ2において管理され、自身の処理サーバ2において記憶されているバックアップデータに関する情報である。バックアップデータ情報には、タスク識別子と中間状態とデータの最終取得時刻とが対応づけられている。
タスク識別子は、バックアップをとったタスクを識別するための値である。中間状態は、バックアップデータの計算のための途中経過を示すバイナリデータである。データの最終取得時刻は、バックアップデータを取得した最終の時刻を示す。
図12は、図7に示した情報処理システム100における負荷情報を例示するテーブルである。
負荷情報は、各処理サーバ2において発生している負荷を示す情報である。負荷情報には、例えば、サーバと時刻とcpu使用率とが対応づけられている。
サーバは、負荷情報が取得された処理サーバ2を示す。時刻は、負荷情報が取得された時刻を示す。cpu使用率は、処理サーバ2におけるCPU11の使用率を示す。
図13は、図7に示した情報処理システム100におけるタスク実行依頼を例示するテーブルである。
タスク実行依頼は、処理サーバ2に対して依頼されたタスク実行の内容を示す。タスク実行依頼には、タスク種類とデータ種類とバックアップ保存先アドレスとタスク識別子とが対応づけられている。
タスク種類は、タスク実行依頼に係るタスクを特定するための値である。データ種類は、撮影に使用されたカメラ4毎に異なる値である。バックアップ保存先アドレスは、当該タスクに対応するバックアップデータの保存先の処理サーバ2のアドレスを示す。タスク識別子は、バックアップをとった当該タスクを識別するための値である。なお、当該タスクに対応するバックアップデータがない場合には、バックアップ保存先アドレス及びタスク識別子の値は空になる。
図14は、図7に示した情報処理システム100におけるデータ位置管理情報を例示するテーブルである。
データ位置管理情報には、保存サーバとデータ種類と複製先サーバとが対応づけられている。
保存サーバは、オリジナルのストリームデータが保存されている処理サーバ2のアドレスである。データ種類は、撮影に使用されたカメラ4毎に異なる値である。複製したストリームデータが保存されている処理サーバ2のアドレスである。
図15は、図7に示した情報処理システム100における実行タスク管理情報を例示するテーブルである。
実行タスク管理情報には、タスク識別子と実行サーバとバックアップ保存先サーバと再配置先サーバとが対応づけられている。
タスク識別子は、バックアップをとったタスクを識別するための値である。実行サーバは、タスクを実行する処理サーバ2のアドレスである。バックアップ保存先サーバは、タスクのバックアップが保存されている処理サーバ2のアドレスである。再配置先サーバは、タスクの再配置先の処理サーバ2のアドレスである。
〔B−2〕動作例
図7に示した処理サーバ2におけるストリームデータの収集処理を、図16に示すフローチャート(ステップS11〜S18)に従って説明する。なお、ストリームデータの収集処理は、データ複製先の切替処理(ステップS11及びS12),データ取得処理(ステップS13〜S15)及びストリームデータ蓄積処理(ステップS16〜S18)を含む。
データ複製先の切替処理において、ストリームデータ収集部213は、管理サーバ1から、データ複製先の切替依頼を受信する(ステップS11)。
ストリームデータ収集部213は、自身の処理サーバ2から他の処理サーバ2に、データ複製先を切り替える(ステップS12)。そして、データ複製先の切替処理は終了する。
データ取得処理において、ストリームデータ収集部213は、管理サーバ1又は他の処理サーバ2から、データリクエストを受信する(ステップS13)。
ストリームデータ収集部213は、データリクエストに係るデータをデータベースから取得する(ステップS14)。
ストリームデータ収集部213は、取得したデータをデータリクエストの送信元の管理サーバ1又は他の処理サーバ2へ送信する(ステップS15)。そして、データ取得処理は終了する。
ストリームデータ蓄積処理において、ストリームデータ収集部213は、カメラ4からストリームデータを受信する(ステップS16)。
ストリームデータ収集部213は、受信したストリームデータをストリームデータ情報としてデータベースに蓄積する(ステップS17)。
ストリームデータ収集部213は、ストリームデータの複製データを複製データ保存先の処理サーバ2へ送信する(ステップS18)。そして、ストリームデータ蓄積処理は終了する。
次に、図7に示した処理サーバ2におけるストリームデータ処理を、図17に示すフローチャート(ステップS21〜S26)に従って説明する。
ストリームデータ処理部211は、管理サーバ1のストリームデータ処理管理部111から、タスク実行依頼を取得する(ステップS21)。
ストリームデータ処理部211は、タスク実行依頼により指定されたタスクを起動する(ステップS22)。
ストリームデータ処理部211は、起動したタスクに対応するバックアップが存在するかを判定する(ステップS23)。
バックアップが存在する場合には(ステップS23のYESルート参照)、ストリームデータ処理部211は、バックアップ保存先の処理サーバ2からバックアップを読み込み(ステップS24)、処理はステップS25へ進む。
一方、バックアップが存在しない場合には(ステップS23のNOルート参照)、ストリームデータ処理部211は、管理サーバ1へ起動したタスクに対応するデータの位置を問い合わせる(ステップS25)。
ストリームデータ処理部211は、データを読取り、タスクを実行する(ステップS26)。そして、ストリームデータ処理は終了する。
次に、図7に示した処理サーバ2におけるバックアップの保存処理を、図18に示すフローチャート(ステップS31〜S35)に従って説明する。なお、バックアップの保存処理は、バックアップ蓄積処理(ステップS31及びS32)及びバックアップ取得処理(ステップS33〜S35)を含む。
バックアップ蓄積処理において、バックアップ保存部214は、他の処理サーバ2から、バックアップデータを受信する(ステップS31)。
バックアップ保存部214は、バックアップデータをバックアップデータ情報としてデータベースに保存する(ステップS32)。そして、バックアップ蓄積処理は終了する。
バックアップ取得処理において、バックアップ保存部214は、他の処理サーバ2から、バックアップ取得命令を受信する(ステップS33)。
バックアップ保存部214は、データベースから、バックアップデータを取得する(ステップS34)。
バックアップ保存部214は、取得したバックアップデータをバックアップ取得命令の送信元の他の処理サーバ2へ送信する(ステップS35)。そして、バックアップ取得処理は終了する。
次に、図7に示した処理サーバ2における負荷情報の収集処理を、図19に示すフローチャート(ステップS41及びS42)に従って説明する。
負荷管理部212は、自身の処理サーバ2における負荷情報を収集する(ステップS41)。
負荷管理部212は、管理サーバ1へ収集した負荷情報を送信する(ステップS42)。そして、負荷情報の収集処理は終了する。
次に、図7に示した処理サーバ2におけるストリームデータの割り込み処理を、図20に示すフローチャート(ステップS51〜S54)に従って説明する。
ストリームデータ処理部211は、管理サーバ1から何のリクエストを受信したかを判定する(ステップS51)。
バックアップ先変更依頼を受信した場合には(ステップS51の“バックアップ先変更依頼”ルート参照)、ストリームデータ処理部211は、バックアップ保存先の処理サーバ2を変更する(ステップS52)。そして、ストリームデータの割り込み処理は終了する。
バックアップ取得依頼を受信した場合には(ステップS51の“バックアップ取得依頼”ルート参照)、ストリームデータ処理部211は、データベースからバックアップデータを受信する(ステップS53)。そして、ストリームデータの割り込み処理は終了する。
タスク停止依頼を受信した場合には(ステップS51の“タスク停止依頼”ルート参照)、ストリームデータ処理部211は、該当タスクを削除する(ステップS54)。そして、ストリームデータの割り込み処理は終了する。
次に、図7に示した管理サーバ1におけるストリームデータの管理処理を、図21に示すフローチャート(ステップS61〜S71)に従って説明する。
ストリームデータ処理管理部111は、各処理サーバ2から負荷情報及びネットワークの帯域情報を収集する(ステップS61)。
ストリームデータ処理管理部111は、各タスクのバックアップ及び複製データの保存先の処理サーバ2と再配置先の処理サーバ2とを計算する(ステップS62)。なお、ステップS62における処理の詳細は、図22及び図23を用いて後述する。
ストリームデータ処理管理部111は、バックアップ及び複製データの保存先の処理サーバ2と再配置先の処理サーバ2とについて、現在の配置と比較して変更があるかを判定する(ステップS63)。
現在の配置と比較して変更がない場合には(ステップS63のNOルート参照)、ストリームデータの管理処理は終了する。
一方、現在の配置と比較して変更がある場合には(ステップS63のYESルート参照)、ストリームデータ処理管理部111は、各タスクの情報を更新して、実行タスク管理情報としてデータベースに保存する(ステップS64)。
ストリームデータ処理管理部111は、各処理サーバ2へバックアップ保存先の変更依頼を送信する(ステップS65)。
ストリームデータ処理管理部111は、ストリームデータ位置管理部112へ複製データ保存先の切替通知を送信する(ステップS66)。
ストリームデータ位置管理部112は、再配置先の処理サーバ2へ実行プログラムを送信する(ステップS67)。そして、ストリームデータの管理処理は終了する。
また、ステップS61〜SS67における処理と並行して、ストリームデータ処理管理部111は、処理サーバ2のダウン又はタスクの停止を検知したかを判定する(ステップS68)。
処理サーバ2のダウン又はタスクの停止を検知した場合には(ステップS68のYESルート参照)、処理はステップS71へ進む。
一方、処理サーバ2のダウン及びタスクの停止を検知していない場合には(ステップS68のNOルート参照)、ストリームデータ処理管理部111は、各処理サーバ2の負荷情報とそれぞれの閾値とを比較する。そして、ストリームデータ処理管理部111は、各処理サーバ2の負荷が閾値を超えているかを判定する(ステップS69)。
各処理サーバ2の負荷が閾値を超えていない場合には(ステップS69のNOルート参照)、ストリームデータの管理処理は終了する。
一方、各処理サーバ2の負荷が閾値を超えている場合には(ステップS69のYESルート参照)、処理はステップS70へ進む。そして、ストリームデータ処理管理部111は、負荷が閾値を超えている処理サーバ2のうちランダムに選択した処理サーバ2のタスクについて、該当の処理サーバ2へタスク停止依頼を送信する(ステップS70)。
ストリームデータ処理管理部111は、停止したタスクの再起動先の処理サーバ2へ、タスク実行依頼を送信する(ステップS71)。そして、ストリームデータの管理処理は終了する。
次に、図21のステップS62における割当決定処理の詳細を、図22及び図23に示すフローチャート(ステップS81〜S98)に従って説明する。
ストリームデータ処理管理部111は、第1のタスクリストを遅延許容時間が短い順にソートする(ステップS81)。なお、第1のタスクリストは、現在稼働中のタスクの集合である。
ストリームデータ処理管理部111は、先頭のタスクを再配置する。そして、ストリームデータ処理管理部111は、データを保存可能でタスク稼働中の処理サーバ2をホップ数が少ない順にソートする(ステップS82)。
ストリームデータ処理管理部111は、ソート対象の処理サーバ2が存在するかを判定する(ステップS83)。
ソート対象の処理サーバ2が存在しない場合には(ステップS83のNOルート参照)、該当のタスクを第2のタスクリストに加え、第1のタスクリストの先頭から削除する(ステップS84)。そして、処理はステップS89へ進む。なお、第2のタスクリストは、はじめの割り当てフローで割り当てが決まらなかったタスクの集合である。
一方、ソート対象の処理サーバ2が存在する場合には(ステップS83のYESルート参照)、ストリームデータ処理管理部111は、稼働中の処理サーバ2において既にタスク割り当てがあるかを判定する(ステップS85)。
まだタスク割り当てがない場合には(ステップS85のNOルート参照)、処理はステップS88へ進む。
一方、既にタスク割り当てがある場合には(ステップS85のYESルート参照)、ストリームデータ処理管理部111は、稼働中の処理サーバ2において複数のタスクが稼働できるかを判定する(ステップS86)。
複数のタスクが稼働できない場合には(ステップS86のNOルート参照)、第1のタスクリストの先頭のタスクを削除し(ステップS87)、処理はステップS83へ戻る。
一方、複数のタスクが稼働できる場合には(ステップS86のYESルート参照)、先頭のタスクを第1のタスクリストから削除し、データ保存に使用する経路から使用する帯域を減算する(ステップS88)。
ストリームデータ処理管理部111は、第1のタスクリストにタスクが残っているかを判定する(ステップS89)。
第1のタスクリストにタスクが残っている場合には(ステップS89のYESルート参照)、処理はステップS82へ戻る。
一方、第1のタスクリストのタスクが残っていない場合には(ステップS89のNOルート参照)、処理は図23のステップS90へ進む。そして、ストリームデータ処理管理部111は、第2のタスクリストが空であるかを判定する(ステップS90)。
第2のタスクリストが空である場合には(ステップS90のYESルート参照)、処理はステップS98へ進む。
一方、第2のタスクリストが空でない場合には(ステップS90のNOルート参照)、ストリームデータ処理管理部111は、第2のタスクリストを遅延許容時間の短い順にソートする(ステップS91)。
ストリームデータ処理管理部111は、処理サーバ2の組み合わせを、処理サーバ2間の帯域が広い順にソートする(ステップS92)。
ストリームデータ処理管理部111は、バックアップ及び複製データ保存先の処理サーバ2において、データ保存が可能なだけの帯域があるかを判定する(ステップS93)。
データ保存が可能なだけの帯域がない場合には(ステップS93のNOルート参照)、ストリームデータ処理管理部111は、先頭のタスクを第2のタスクリストから削除する(ステップS94)。
一方、データ保存が可能なだけの帯域がある場合には(ステップS93のYESルート参照)、ストリームデータ処理管理部111は、タスク再起動先の処理サーバ2でタスクの実行が可能であるかを判定する(ステップS95)。
タスクの実行が可能でない場合には(ステップS95のNOルート参照)、処理はステップS94へ進む。
一方、タスクの実行が可能である場合には(ステップS95のYESルート参照)、ストリームデータ処理管理部111は、先頭タスクを第2のタスクリストから削除し、データ保存に使用する経路から使用する帯域を減算する(ステップS96)。
ストリームデータ処理管理部111は、第2のタスクリストが空であるかを判定する(ステップS97)。
第2のタスクリストが空でない場合には(ステップS97のNOルート参照)、処理はステップS92へ戻る。
第2のタスクリストが空である場合には(ステップS97のYESルート参照)、割当決定処理が終了する(ステップS98)。
次に、図7に示した管理サーバ1におけるストリームデータ位置の管理処理を、図24に示すフローチャート(ステップS101〜S105)に従って説明する。なお、ストリームデータ位置の管理処理は、データ位置取得処理(ステップS101〜S103)及び複製データ保存先の切替通知送信処理(ステップS104及びS105)を含む。
データ位置取得処理において、ストリームデータ位置管理部112は、処理サーバ2からデータ位置の問い合わせを受信する(ステップS101)。
ストリームデータ位置管理部112は、データ位置管理情報からデータ位置を取得する(ステップS102)。
ストリームデータ位置管理部112は、問い合わせ元の処理サーバ2へ、データ位置を送信する(ステップS103)。そして、データ位置取得処理は終了する。
複製データ保存先の切替通知送信処理において、ストリームデータ位置管理部112は、処理サーバ2から複製データ保存先の切替通知を受信する(ステップS104)。
ストリームデータ位置管理部112は、各処理サーバ2へ、複製データ保存先の切替通知を送信する(ステップS105)。そして、複製データ保存先の切替通知送信処理は終了する。
〔B−3〕効果
図25は、関連例及び実施形態の一例における遅延要件を満たす再配置先の解を求める際のタスク数と計算時間との関係を示すグラフである。
図5等に示した処理サーバ7の数が30個である場合において、関連例における汎用ソルバーでは、タスク数が30の場合は、約13秒で計算できるが、タスク数が120個の場合は、計算規模が大きくなり1日かかっても計算できない。
一方、上記にて説明したように、タスクとサーバを適切にソートするアルゴリズムを使用することにより、図25に示すように、処理サーバ2の数が30個である場合においては、タスク数が増加しても計算時間はあまり変動はない。また、タスク数が120と多くなったとしても計算時間は0.36secであり、1秒未満で割当決定処理の計算が可能である。従って、タスク数やサーバ数が増加したとしても、割当決定処理の計算の高速化が可能となる。
上述した実施形態の一例における管理装置,情報処理システム及び管理プログラムによれば、例えば、以下の作用効果を奏することができる。
管理サーバ1の負荷収集部1113は、タスクに関するデータをバックアップしている第1の処理サーバ2と、タスクの再配置先の候補である複数の第2の処理サーバ2のそれぞれとの間における転送条件を取得する。そして、管理サーバ1の保存場所・再配置先計算部1115は、複数の第2の処理サーバ2のうち、転送条件がタスクに関する遅延要件を満たす処理サーバ2を、再配置先の処理サーバ2として決定する。
これにより、タスクの再配置先の処理サーバ2として、タスクの遅延要件を満たす処理サーバ2を選択することができる。
転送条件は、第1の処理サーバ2と複数の第2の処理サーバ2との間に設置されているSW3の数に応じたホップ数である。
これにより、ホップ数が少ない経路を選択してタスクを再配置できる。
転送条件は、第1の処理サーバ2と複数の第2の処理サーバ2との間に設置されているSW3と、複数の第2の処理サーバ2との間のネットワーク帯域である。
これにより、ネットワーク帯域が大きい経路を選択してタスクを再配置できる。
管理サーバ1の負荷収集部1113は、転送条件に加えて、複数の第2の処理サーバ2における負荷を取得する。管理サーバ1の保存場所・再配置先計算部1115は、複数の第2の処理サーバ2のうち、負荷が低い処理サーバ2を優先して再配置先の処理サーバ2として決定する。
これにより、特定の処理サーバ2における負荷の集中を回避できる。
〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
〔D〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
タスクに関するデータをバックアップしている第1の処理装置と、前記タスクの再配置先の候補である複数の第2の処理装置のそれぞれとの間における転送条件を取得する取得部と、
前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する決定部と、
を備える、管理装置。
(付記2)
前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数である、
付記1に記載の管理装置。
(付記3)
前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域である、
付記1又は2に記載の管理装置。
(付記4)
前記取得部は、前記転送条件に加えて、前記複数の第2の処理装置における負荷を取得し、
前記決定部は、前記複数の第2の処理装置のうち、前記負荷が低い処理装置を優先して前記再配置先の処理装置として決定する、
付記1〜3のいずれか1項に記載の管理装置。
(付記5)
前記決定部は、
前記遅延時間が短い順に複数の前記タスクのソートを行ない、
前記ソートの順に前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数を前記転送条件として、前記ホップ数が少ない処理装置の順に前記再配置先の処理装置として決定する、
付記1に記載の管理装置。
(付記6)
前記決定部は、
前記ソートの順に、前記ホップ数に基づいた前記再配置先の処理装置が決定されなかった前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域を前記転送条件として、前記ネットワーク帯域が大きい処理装置の順に前記再配置先の処理装置として決定する、
付記5に記載の管理装置。
(付記7)
管理装置と、
タスクに関するデータをバックアップしている第1の処理装置と、
前記タスクの再配置先の候補である複数の第2の処理装置と、
を備え、
前記複数の第2の処理装置のそれぞれは、
前記管理装置に対して、前記第1の処理装置と当該第2の処理装置との間における転送条件を送信し、
前記管理装置は、
前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する、
情報処理システム。
(付記8)
前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数である、
付記7に記載の情報処理システム。
(付記9)
前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域である、
付記7又は8に記載の情報処理システム。
(付記10)
前記複数の第2の処理装置のそれぞれは、
前記管理装置に対して、前記転送条件に加えて、前記複数の第2の処理装置における負荷を送信し、
前記管理装置は、
前記複数の第2の処理装置のうち、前記負荷が低い処理装置を優先して前記再配置先の処理装置として決定する、
付記7〜9のいずれか1項に記載の情報処理システム。
(付記11)
前記管理装置は、
前記遅延時間が短い順に複数の前記タスクのソートを行ない、
前記ソートの順に前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数を前記転送条件として、前記ホップ数が少ない処理装置の順に前記再配置先の処理装置として決定する、
付記7に記載の情報処理システム。
(付記12)
前記管理装置は、
前記ソートの順に、前記ホップ数に基づいた前記再配置先の処理装置が決定されなかった前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域を前記転送条件として、前記ネットワーク帯域が大きい処理装置の順に前記再配置先の処理装置として決定する、
付記11に記載の情報処理システム。
(付記13)
コンピュータに、
タスクに関するデータをバックアップしている第1の処理装置と、前記タスクの再配置先の候補である複数の第2の処理装置のそれぞれとの間における転送条件を取得する取得し、
前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する、
処理を実行させる、管理プログラム。
(付記14)
前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数である、
付記13に記載の管理プログラム。
(付記15)
前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域である、
付記13又は14に記載の管理プログラム。
(付記16)
前記転送条件に加えて、前記複数の第2の処理装置における負荷を取得し、
前記複数の第2の処理装置のうち、前記負荷が低い処理装置を優先して前記再配置先の処理装置として決定する、
処理を前記コンピュータに実行させる、付記13〜15のいずれか1項に記載の管理プログラム。
(付記17)
前記遅延時間が短い順に複数の前記タスクのソートを行ない、
前記ソートの順に前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数を前記転送条件として、前記ホップ数が少ない処理装置の順に前記再配置先の処理装置として決定する、
付記13に記載の管理プログラム。
(付記18)
前記ソートの順に、前記ホップ数に基づいた前記再配置先の処理装置が決定されなかった前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域を前記転送条件として、前記ネットワーク帯域が大きい処理装置の順に前記再配置先の処理装置として決定する、
付記17に記載の管理プログラム。
100,600 :情報処理システム
1,6 :管理サーバ
11 :CPU
111 :ストリームデータ処理管理部
1111 :バックアップ送信通知部
1112 :バックアップ先切替通知部
1113 :負荷収集部
1114 :保存場所・再配置先管理部
1115 :保存場所・再配置先計算部
112 :ストリームデータ位置管理部
1121 :データ位置登録部
1122 :データ複製先切替送信部
1123 :データ位置問合せ受信部
1124 :データ位置送信部
12 :メモリ
13 :表示制御部
130 :表示装置
14 :記憶装置
15 :入力I/F
151 :マウス
152 :キーボード
16 :読み書き処理部
160 :記録媒体
17 :通信I/F
2,7 :処理サーバ
211 :ストリームデータ処理部
2111 :バックアップ先切替部
2112 :バックアップ読出部
2113 :バックアップ送信部
2114 :設定変更受信部
2115 :データ処理部
2116 :データ読出部
212 :負荷管理部
2121 :負荷情報送信部
2122 :負荷情報収集部
213 :ストリームデータ収集部
2131 :設定変更受信部
2132 :複製先切替部
2133 :データ複製部
2134 :データ蓄積部
2135 :データ送受信部
214 :バックアップ保存部
2141 :データ送受信部
2142 :データ蓄積部
71 :メッセージブローカー
72 :バックアップ保存部
3,8 :SW
4,9 :カメラ
41 :データ送信部

Claims (8)

  1. タスクに関するデータをバックアップしている第1の処理装置と、前記タスクの再配置先の候補である複数の第2の処理装置のそれぞれとの間における転送条件を取得する取得部と、
    前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する決定部と、
    を備える、管理装置。
  2. 前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数である、
    請求項1に記載の管理装置。
  3. 前記転送条件は、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域である、
    請求項1又は2に記載の管理装置。
  4. 前記取得部は、前記転送条件に加えて、前記複数の第2の処理装置における負荷を取得し、
    前記決定部は、前記複数の第2の処理装置のうち、前記負荷が低い処理装置を優先して前記再配置先の処理装置として決定する、
    請求項1〜3のいずれか1項に記載の管理装置。
  5. 前記決定部は、
    前記遅延時間が短い順に複数の前記タスクのソートを行ない、
    前記ソートの順に前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチの数に応じたホップ数を前記転送条件として、前記ホップ数が少ない処理装置の順に前記再配置先の処理装置として決定する、
    請求項1に記載の管理装置。
  6. 前記決定部は、
    前記ソートの順に、前記ホップ数に基づいた前記再配置先の処理装置が決定されなかった前記複数のタスクのそれぞれに対して、前記第1の処理装置と前記複数の第2の処理装置との間に設置されているスイッチと、前記複数の第2の処理装置との間のネットワーク帯域を前記転送条件として、前記ネットワーク帯域が大きい処理装置の順に前記再配置先の処理装置として決定する、
    請求項5に記載の管理装置。
  7. 管理装置と、
    タスクに関するデータをバックアップしている第1の処理装置と、
    前記タスクの再配置先の候補である複数の第2の処理装置と、
    を備え、
    前記複数の第2の処理装置のそれぞれは、
    前記管理装置に対して、前記第1の処理装置と当該第2の処理装置との間における転送条件を送信し、
    前記管理装置は、
    前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する、
    情報処理システム。
  8. コンピュータに、
    タスクに関するデータをバックアップしている第1の処理装置と、前記タスクの再配置先の候補である複数の第2の処理装置のそれぞれとの間における転送条件を取得する取得し、
    前記複数の第2の処理装置のうち、前記転送条件が前記タスクに設定される処理の遅延時間に関する遅延要件を満たす処理装置を、前記再配置先の処理装置として決定する、
    処理を実行させる、管理プログラム。
JP2019191199A 2019-10-18 2019-10-18 管理装置,情報処理システム及び管理プログラム Pending JP2021068029A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019191199A JP2021068029A (ja) 2019-10-18 2019-10-18 管理装置,情報処理システム及び管理プログラム
US17/031,976 US20210119902A1 (en) 2019-10-18 2020-09-25 Management device, information processing system, and computer-readable recording medium recording management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019191199A JP2021068029A (ja) 2019-10-18 2019-10-18 管理装置,情報処理システム及び管理プログラム

Publications (1)

Publication Number Publication Date
JP2021068029A true JP2021068029A (ja) 2021-04-30

Family

ID=75490801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019191199A Pending JP2021068029A (ja) 2019-10-18 2019-10-18 管理装置,情報処理システム及び管理プログラム

Country Status (2)

Country Link
US (1) US20210119902A1 (ja)
JP (1) JP2021068029A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305990B2 (ja) * 2019-03-12 2023-07-11 富士通株式会社 転送プログラム、転送方法、および情報処理装置
KR102449717B1 (ko) * 2020-12-14 2022-09-30 울랄라랩 주식회사 공정라인변경이 가능한 공정관리방법 및 스마트공정 시스템

Also Published As

Publication number Publication date
US20210119902A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
US9305072B2 (en) Information storage system and data replication method thereof
US7320060B2 (en) Method, apparatus, and computer readable medium for managing back-up
US10061628B2 (en) System and method for data access and replication in a distributed environment utilizing data derived from data access within the distributed environment
US20190114078A1 (en) Storage device, computing system including storage device and operating method of storage device
US20060069761A1 (en) System and method for load balancing virtual machines in a computer network
JP5935889B2 (ja) データ処理方法、情報処理装置およびプログラム
EP3163446B1 (en) Data storage method and data storage management server
CN103827723A (zh) 大规模存储系统
US20110029748A1 (en) Remote copy system and remote copy control method
US20170344546A1 (en) Code dispersion hash table-based map-reduce system and method
KR102109088B1 (ko) 가상 머신 예측 워크 로드 산출 방법 및 이를 구현하는 예측 장치
JP2021068029A (ja) 管理装置,情報処理システム及び管理プログラム
US20080148272A1 (en) Job allocation program, method and apparatus
JPWO2016166844A1 (ja) 分散処理システム、タスク処理方法、記憶媒体
US20130007091A1 (en) Methods and apparatuses for storing shared data files in distributed file systems
JP5668982B2 (ja) ストレージシステム、アクセスパス状態更新方法およびアクセスパス状態更新プログラム
KR102347375B1 (ko) 복수의 예측 모델을 기초로 가상 머신 워크 로드 예측 방법
US10133757B2 (en) Method for managing data using in-memory database and apparatus thereof
JP5405530B2 (ja) 分散データストアシステムおよび障害復旧方法
CN105095495A (zh) 一种分布式文件系统缓存管理方法和系统
US20230229487A1 (en) Virtual machine deployment method, virtual machine management method having the same and virtual machine management system implementing the same
CN105376269A (zh) 虚拟机存储系统及其实现方法和装置
US11134121B2 (en) Method and system for recovering data in distributed computing system
JP6878369B2 (ja) ボリューム配置管理装置、ボリューム配置管理方法、及びボリューム配置管理プログラム
JP2013148938A (ja) 情報処理装置及び情報処理システム