JP2014186624A - マイグレーション処理方法及び処理装置 - Google Patents

マイグレーション処理方法及び処理装置 Download PDF

Info

Publication number
JP2014186624A
JP2014186624A JP2013061975A JP2013061975A JP2014186624A JP 2014186624 A JP2014186624 A JP 2014186624A JP 2013061975 A JP2013061975 A JP 2013061975A JP 2013061975 A JP2013061975 A JP 2013061975A JP 2014186624 A JP2014186624 A JP 2014186624A
Authority
JP
Japan
Prior art keywords
node
transfer
data
migration
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013061975A
Other languages
English (en)
Other versions
JP6001480B2 (ja
Inventor
Akihiko Nishitani
明彦 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013061975A priority Critical patent/JP6001480B2/ja
Publication of JP2014186624A publication Critical patent/JP2014186624A/ja
Application granted granted Critical
Publication of JP6001480B2 publication Critical patent/JP6001480B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】複数のノードを有する分散データベースにおいて、応答性能に影響が生じない時期にノードに対してのデータの再配置を自動的に行うマイグレーション処理方法を得る。
【解決手段】複数ノード10を有する分散データベースを備えたシステムでデータの再配置を行うマイグレーション処理方法において、前記システムの負荷を監視しシステム負荷の低い時間帯を処理時間帯として認識し、前記分散データベースに新規追加ノード11を増設した場合など、各ノード間での保有データ量に偏りが発生した場合、前記処理時間帯に各ノードにおけるデータの再配置処理を起動する。
【選択図】図1

Description

本発明は、複数ノードを有する分散データベースを備えたシステムでデータの再配置を行うマイグレーション処理方法に関し、特に、ノードに対して適した時期にデータの再配置を行うマイグレーション処理方法及びマイグレーション処理装置に関する。
近年、取り扱うデータ量の増大に伴い、大容量データを保存し高速に処理するために、データを保管するために複数のノードを有する分散データベース(例えば、MongoDB)を備えたシステムが普及してきている。
前記分散データベースおいては、データを保管する記憶装置を持つノードをシステムに追加した場合、追加と同時に既存のノードから新規追加ノードにデータが自動的にマイグレーション(再配置)される処理が行われる。
データマイグレーションに関する技術としては、特許文献1〜特許文献4に記載された管理方法等が提案されている。
特開2010−277342号公報 特開2010−257020号公報 特開2010−238038号公報 特開2010−532049号公報
上述した自動マイグレーションが行われた場合、システムの負荷が長時間にわたり高騰し、ユーザアプリケーションへの応答性能に影響を及ぼす場合があった。例えば、ノードの増設時に自動的にマイグレーションが行われると、各ノードにおける負荷を考慮することなくノード間での再配置処理が行われるため、ユーザアプリケーションに対するノードの応答性能に支障が生じる可能性があるという課題があった。
これを回避するため、実際の運用では、ノードの新規追加時には自動マイグレーション機能をOFFにしておき、ノード追加後におけるユーザアプリケーションへの応答性能に影響が及ばない時期に、運用者が手動でマイグレーション機能をONしてデータの再配置処理を開始させる必要があった。
本発明は上記実情に鑑みて提案されたもので、複数のノードを有する分散データベースにおいて、応答性能に影響が生じない時期にノードに対してのデータの再配置を自動的に行うマイグレーション処理方法及びマイグレーション処理システムを提供することを目的としている。
上記目的を達成するため請求項1は、複数ノードを有する分散データベースを備えたシステムでデータの再配置を行うマイグレーション処理方法において、
前記システムの負荷を監視しシステム負荷の低い時間帯を処理時間帯として認識し、
前記各ノード間での保有データ量に偏りが発生した場合、前記処理時間帯に各ノードにおけるデータの再配置処理を起動することを特徴としている。
システムの負荷とは、例えば、データ書込みを行うノードを選択する分散データベースルータにおける過去一定時間内におけるユーザアプリケーションからのアクセス数、ノードにおけるI/O待ち数、ノードにおけるCPU負荷等の情報である。
保有データ量に偏りが発生した場合とは、分散データベースに新規追加ノードを増設した場合を含むものである。
請求項2は、請求項1のマイグレーション処理方法において、前記再配置処理を起動するに際して、
データ転送元となる転送元ノードを決定する手順と、
前記転送元ノードからの転送データサイズを算出する手順と、
前記転送元ノードからの転送終了時間を算出する手順と、
前記転送元ノードのシステム負荷を予測して転送処理開始時間を決定する手順と、
前記転送元ノード及び転送先ノードの現時点でのシステム負荷を確認した後にデータ転送を実行する手順と、を含むことを特徴としている。
請求項3は、請求項1のマイグレーション処理方法において、前記システム負荷の監視は、前記各ノードの負荷情報を管理する監視サーバが行い、前記監視サーバが前記処理時間帯に再配置処理を開始又は停止するようデータ転送元のノードに指示することを特徴としている。
請求項4は、請求項1のマイグレーション処理方法において、前記システム負荷の監視は、転送元ノードが転送先ノードにおける負荷を検出し、転送先ノードと転送元ノードとの間でデータ転送処理を繰り返し行うことを特徴としている。
請求項5は、請求項1乃至請求項3のいずれかに記載のマイグレーション処理方法において、マイグレーション処理中にユーザアプリケーションからのアクセスが一定数以上あった場合、前記マイグレーション処理を一時中断し、ユーザアプリケーションからのアクセスを優先して処理することを特徴としている。
請求項6は、複数ノードを有する分散データベースを備えたシステムでデータの再配置を行うマイグレーション処理装置であって、前記システムの負荷を監視してシステム負荷の低い時間帯を処理時間帯として認識するとともに、前記処理時間帯に再配置処理を開始又は停止するようデータ転送元のノードに指示する監視サーバを設けたことを特徴としている。
本発明によれば、システム負荷を監視することで、処理時間帯(システム負荷の低い時間帯)に各ノードにおけるデータの再配置処理の開始/停止を自動的にスケジューリングすることが可能となる。
また、自動マイグレーション処理中にユーザアプリケーションからのアクセスが一定数以上あった場合、自動マイグレーション処理を一時中断し、ユーザアプリケーションからのアクセスを優先して処理することにより、マイグレーション処理負荷によるサービス影響の低減を防止することができる。
本発明のマイグレーション処理装置のシステム構成図である。 マイグレーション処理装置における再配置処理の手順を示すフローチャートである。 監視サーバで監視されたシステム負荷の遷移を示すグラフである。 マイグレーション処理装置の他の例を示すシステム構成図である。
本発明のマイグレーション処理装置の実施形態の一例について、図面を参照しながら説明する。
本発明のマイグレーション処理装置は、複数ノードを有する分散データベースを備えたシステムにおいて、ノード間におけるデータの再配置を行うに際して、再配置に適した時間(処理時間帯:システムの負荷を監視しシステム負荷の低い時間帯)に再配置処理の開始及び停止のスケジューリングを自動的に行うものである。
ノード間においてデータの再配置処理が必要な時とは、あるノードへの書込みが集中し各ノード間の保有データ量に偏りが発生した場合や、分散データベースに新規追加ノードを増設した場合である。
マイグレーション処理装置は、図1に示すように、分散データベースを構成する複数ノード10と、複数の各ノード10に対してデータの書込みを行う分散データベースルータ20と、ユーザによるアプリケーションが実行されるユーザ側サーバ30と、各ノード10の負荷を監視する監視サーバ40とから構成されている。尚、メタデータを管理するコンフィグサーバは、複数ノード10の一部に含まれる。 各サーバ、各ノード及びルータは、オペレーティングシステム(OS)を含む基本プログラムやメモリ、プログラムを実行するCPU等、コンピュータが有する主要な構成を備え、本発明のマイグレーション処理方法を実行するプログラムがそれぞれインストールされることでシステムとしてのマイグレーション処理装置が構築されている。
ユーザ側サーバ30は、ユーザアプリケーション等が実行された際に、分散データベースルータ20にデータ書込みを行う。分散データベースルータ20は、データの書き込み先のノード10を選択し、選択されたノード10でのデータ書込みが行われる。
監視サーバ40は、各ノード10からの負荷情報の収集を行い、データ転送指示を行う。監視サーバ40による再配置処理について、図2のフローチャートを参照して説明する。監視サーバ40による負荷情報の収集及びデータ転送指示は、以下に示すステップ(S1)〜(S7)により行われる。
(S1)負荷情報観測ステップ:ノードの負荷情報を定期的に観測する。
(S2)データ転送元決定ステップ:転送元ノードを決定する(例えば、ノード1〜4の4台を転送元とする)。
(S3)データサイズ算出ステップ:各転送元ノードからの転送データサイズを算出する。
(S4)転送処理終了時間算出ステップ:各転送元ノードからの転送処理終了時間を算出する。
(S5)システム負荷予測:システム負荷の低い時間帯を予測する。
(S6)実行時刻決定ステップ:転送処理開始時間を決定する。
(S7)再配置実行ステップ:転送元ノードから転送先ノードへのデータ転送の指示を行う。
続いて、各ステップにおける詳細処理について説明する。
・負荷情報観測ステップ(S1)
監視サーバ40は、分散データベースルータ20および各ノード10の負荷情報を例えば5分毎に観測する。5分という値は、予めシステム起動時に、運用者が設定ファイルや起動コマンドラインオプションで指定することで設定される。
分散データベースルータ20は、ユーザアプリケーションからのアクセス数を5分ごとに監視サーバ40に通知する。この処理は、監視サーバ40が分散データベースルータ20に対して、アクセス数のデータを取りに行く方式でもよい。
各ノード10は、I/O待ち数、CPU負荷情報を監視サーバ40に通知する(監視サーバ40から各ノード10に対してデータを取りに行く方式でも良い)。
監視サーバ40では、取得した分散データベースルータ20および各ノード10の負荷情報を、システム負荷の情報として時系列に蓄積する。
・データ転送元決定ステップ(S2)
データを転送する単位(ブロック)は"チャンク"と称される。
あるノードへの書込みが集中した場合、チャンクのサイズが増加しノード内で分裂する。ノード内での分裂が頻繁に行われると、ノード内のチャンク数が増加し、ノード間でチャンク数に偏りが生じて再配置処理が必要となる。
データ転送元決定ステップでは、ノード間のチャンク数に偏りが生じた時や新規追加ノード増設時に再配置処理を行う場合に、どのノードからどれくらいのチャンクが転送されるのかが決定される。
新規追加ノード11の増設時では、、追加する新規追加ノード11に配置(転送)すべくチャンク数を算出する。具体的には、各ノード10が保持するチャンク数について、新規追加ノード11を含めた各ノード10で均等になるように、下記式(1)で算出する。
式(1)
総転送チャンク数=総チャンク数÷総ノード数(新規追加ノードを含めたノード数)
次に、各ノード10のチャンクの現保有率から、データ転送元を決定する。多くのチャンクを持つノード10からは多く、チャンク数が少ないノード10からは少ない転送数を算出する。
したがって、任意のノードAからの転送チャンク数は、下記の式(2)で算出される。
式(2)
ノードAからの転送チャンク数
=総転送チャンク数 ×(ノードAの保有チャンク数/総チャンク数)
・データサイズ算出ステップ(S3)
データサイズ算出ステップでは、あるノード10から転送するデータのサイズが算出される。
データサイズは、単にチャンクサイズ×チャンクで計算するので、64MBのチャンクを1200個転送するのであれば 76,800MBとなる。
したがって、任意のノードAからの転送データサイズは、下記の式(3)で算出される。
(式3)
ノードAからの転送データサイズ=転送チャンクサイズ×転送チャンク数
なお、この例におけるチャンクサイズ(64MB)は、予めシステム起動時に、運用者が設定ファイルや起動コマンドラインオプションで指定することで設定される。
・転送処理終了時間算出ステップ(S4)
転送処理終了時間算出ステップでは、あるノード10からデータを転送するのに要する時間(転送処理時間)を算出する。任意のノードAからの転送処理時間は、下記の式(4)で算出される。
式(4)
ノードAからの転送処理時間
=ノードAからの転送データサイズ×8(bit)÷(ビットレート×伝送効率(%))
ビットレート(例えば、1000Mbps)、伝送効率(例えば、20%)は、予めシステム起動時に、運用者が設定ファイルや起動コマンドラインオプションで指定することで設定される。
この時点で、表1に示されるように、各転送元ノードに対して、転送チャンク数、転送データサイズ、転送処理時間が算出される。
・システム負荷予測ステップ(S5)
システム負荷予測ステップは、監視サーバ40で蓄積している過去の負荷情報(分散データベースルータ20に対するユーザアプリケーションからのアクセス数、各ノードのI/O待ち数、CPU負荷等)から、システムが低負荷な時間帯を判断する。これは、低負荷の間にデータ転送処理を実行するためである。システムが低負荷な時間帯とは、あるノードにおいて、例えば、アクセス数、ノードのI/O待ち数、ノードCPU負荷の過去24時間の推移が図3のようなグラフとなる場合に、アクセス数、ノードのI/O待ち数、ノードCPU負荷が全てそれぞれ設定されている所定値以下である時間帯(図のX期間)をいう。
・実行時刻決定ステップ(S6)
実行時刻決定ステップでは、データ転送処理終了時間を予測したうえで開始時間を判断する。すなわち、システムが低負荷な時間帯であって、転送処理時間をカバーできる期間を有する時間帯を選定する。尚、ノード10ごとに負荷情報は異なるため、他のノードと転送処理が輻輳しない直近の時間帯を選定する。例えば、11時から1時間、ノード1からのデータ転送をスケジューリングしたとすると、ノード2からのデータ転送処理は、11時〜12時以外、且つ、ノード2の負荷の低い時間帯の中から選定する。
・再配置実行ステップ(S7)
実際にリバランシング(データ転送)開始時刻になった際は、下記(S71)〜(S73)の手順により処理がなされる。
(S71)監視サーバ40は、ある転送元ノードがデータ転送実行開始時刻になると、分散データベースルータ20に対するユーザアプリケーションからの直近(例えば、5分間)のアクセス数、転送元ノード及び転送先ノードの直近(例えば、5分間)のI/O待ち数、CPU負荷等を観測し、運用者から予め指定される各閾値(アクセス数、I/O待ち数、CPU負荷の閾値)を超えていないか一度チェックする。
(S72)アクセス数、I/O待ち数、CPU負荷のいずれかの値が閾値を超えている場合は、ノードでの負荷が高いと判断し、スケジュールした再配置処理を中止し、運用者に対しメールや画面表示にてアラームを発行する。運用者は手動操作にてデータ転送のスケジューリングを行うか、直接手動操作にてデータ転送を実行し対処する。
(S73)各値が全て閾値以下の場合は、ノード10での負荷が低いと判断し、監視サーバ40は、データ転送元となるノード10に対し、データ転送実行開始の指示を出す。
また、マイグレーション処理中にユーザアプリケーションからのアクセスが一定数以上あったことを監視サーバ40が検知した場合、監視サーバ40は、マイグレーション処理を一時中断するよう転送元ノードに指示し、ユーザアプリケーションからのアクセスを優先して処理することが行われる。
上述の処理では、監視サーバ主導で(S73)のデータ転送開始を実行するようにしたが、新規追加ノードの増設時に予めデータ転送開始時刻を転送元ノードに伝えておき、ノード側にてデータ転送処理開始を決めるようにすることも可能である。
次に、マイグレーション処理装置の実施形態の他の例について、図4を参照しながら説明する。図4のマイグレーション処理装置は、図1と同様に、分散データベースを構成する複数ノード10(一部にメタデータを管理するコンフィグサーバを含む)と、複数のノード10に対してデータの書込みを行う分散データベースルータ20と、ユーザ側サーバ30とを備えて構成されているが、図1の装置と異なり、監視サーバが存在しない。したがって、データ転送元ノードと転送先ノードの間で転送処理制御(フロー制御)が行われる。この場合、転送元ノードの選定は、分散データベースルータ20が行う既存技術で行われる。転送元ノードはチャンク数の多いノードが選定される。
選択された転送元ノードでは、転送元ノード及び転送先ノードにおけるデータ転送処理直前時点のI/O待ち数、CPU負荷の情報から、データを転送すべきタイミングか否か、を判断する。
すなわち、転送元ノードにて転送先ノードの負荷情報を取得し、転送元ノード又は転送先ノードの負荷が、予め運用者から指定される閾値を超えているかどうかをチェックする。
転送元ノード又は転送先ノードの負荷が閾値を超えない場合、転送元ノードから転送先ノードへチャンク単位のデータ転送が行われる。一度に転送するチャンク数は、予めシステム起動時に、運用者が設定ファイルや起動コマンドラインオプションで指定することで設定される。
転送元ノードにて転送先ノードの負荷情報を取得する。負荷が高ければデータ転送を中断する。転送元ノードでの転送先ノードの負荷情報の取得は、一定時間毎に行われる。データ転送を中断した場合で、再度の負荷情報の取得で負荷が低ければ、データ転送が再開される。
同じ転送元ノードと転送先ノードとの間で、処理中断及び処理再開の転送処理制御が繰り返し行われることで、小刻みにリバランシングを完了させる。すなわち、システムが空いていることを小刻みにチェックしながらリバランシングする。
上述したマイグレーション処理装置によれば、監視サーバ40がシステム負荷(各ノード10及び分散データベースルータ20の負荷)を監視することで、過去の負荷データからシステム負荷の低い処理時間帯を認識し、この処理時間時間帯に各ノードにおけるデータの再配置処理の開始/停止を自動的にスケジューリングすることが可能となる。
その結果、ノード間の再配置処理に際して再配置処理の起動時間を制御するので、ユーザアプリケーションに対するノードの応答性能に支障が生じることを防止することができる。
10…ノード、 11…新規追加ノード、 20…分散データベースルータ、 30…ユーザ側サーバ、 40…監視サーバ。

Claims (6)

  1. 複数ノードを有する分散データベースを備えたシステムでデータの再配置を行うマイグレーション処理方法において、
    前記システムの負荷を監視することでシステム負荷の低い過去の時間帯を処理時間帯として認識し、
    前記各ノード間での保有データ量に偏りが発生した場合、前記処理時間帯に各ノードにおけるデータの再配置処理を起動することを特徴とするマイグレーション処理方法。
  2. 前記再配置処理を起動するに際して、
    データ転送元となる転送元ノードを決定する手順と、
    前記転送元ノードからの転送データサイズを算出する手順と、
    前記転送元ノードからの転送終了時間を算出する手順と、
    前記転送元ノードのシステム負荷を予測して転送処理開始時間を決定する手順と、
    前記転送元ノード及び転送先ノードの現時点でのシステム負荷を確認した後にデータ転送を実行する手順と、
    を含む請求項1に記載のマイグレーション処理方法。
  3. 前記システム負荷の監視は、前記各ノードの負荷情報を管理する監視サーバが行い、前記監視サーバが前記処理時間帯に再配置処理を開始又は停止するようデータ転送元のノードに指示することを特徴とする請求項1に記載のマイグレーション処理方法。
  4. 前記システム負荷の監視は、転送元ノードが転送先ノードにおける負荷を検出し、転送先ノードと転送元ノードとの間でデータ転送処理を繰り返し行う請求項1に記載のマイグレーション処理方法。
  5. マイグレーション処理中にユーザアプリケーションからのアクセスが一定数以上あった場合、前記マイグレーション処理を一時中断し、ユーザアプリケーションからのアクセスを優先して処理する請求項1乃至請求項3のいずれかに記載のマイグレーション処理方法。
  6. 複数ノードを有する分散データベースを備えたシステムでデータの再配置を行うマイグレーション処理装置であって、
    前記システムの負荷を監視してシステム負荷の低い過去の時間帯を処理時間帯として認識するとともに、前記処理時間帯に再配置処理を開始して停止するようデータ転送元のノードに指示する監視サーバを設けた
    ことを特徴とするマイグレーション処理装置。
JP2013061975A 2013-03-25 2013-03-25 マイグレーション処理方法及び処理装置 Active JP6001480B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013061975A JP6001480B2 (ja) 2013-03-25 2013-03-25 マイグレーション処理方法及び処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013061975A JP6001480B2 (ja) 2013-03-25 2013-03-25 マイグレーション処理方法及び処理装置

Publications (2)

Publication Number Publication Date
JP2014186624A true JP2014186624A (ja) 2014-10-02
JP6001480B2 JP6001480B2 (ja) 2016-10-05

Family

ID=51834113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013061975A Active JP6001480B2 (ja) 2013-03-25 2013-03-25 マイグレーション処理方法及び処理装置

Country Status (1)

Country Link
JP (1) JP6001480B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016576A (ja) * 2015-07-06 2017-01-19 日本電信電話株式会社 ノード、リバランシングキャンセル方法、および、プログラム
JP2017126131A (ja) * 2016-01-12 2017-07-20 日本電信電話株式会社 リバランス装置、リバランス方法、及びプログラム
JP2017168074A (ja) * 2016-03-14 2017-09-21 北京百度網訊科技有限公司 データ伝送制御方法及び装置
KR101806497B1 (ko) 2016-08-03 2017-12-08 (주) 이노트리 Etl 잡 프로세스를 분산 수행하기 위한 미들웨어 장치 및 그 방법
JP2020154594A (ja) * 2019-03-19 2020-09-24 株式会社Pfu サーバ装置及びネットワークシステム
CN113393235A (zh) * 2020-03-13 2021-09-14 富士通株式会社 处理写入请求的信息处理装置和发送控制方法
KR20220081843A (ko) * 2020-12-09 2022-06-16 대구대학교 산학협력단 클라우드 컴퓨팅의 다중 노드 환경을 위한 배치 스케줄링 장치 및 배치 스케줄링 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102245340B1 (ko) 2020-09-11 2021-04-28 한국전자기술연구원 클라우드 엣지 환경에서 컨테이너의 메모리 기반 라이브 마이그레이션 처리 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981424A (ja) * 1995-09-19 1997-03-28 Nec Eng Ltd 情報処理装置
JP2005050303A (ja) * 2003-07-14 2005-02-24 Fujitsu Ltd 分散型ストレージシステム
JP2008225686A (ja) * 2007-03-09 2008-09-25 Nec Corp 分散型データ処理プラットフォームにおけるデータ配置管理装置と方法、システム及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981424A (ja) * 1995-09-19 1997-03-28 Nec Eng Ltd 情報処理装置
JP2005050303A (ja) * 2003-07-14 2005-02-24 Fujitsu Ltd 分散型ストレージシステム
JP2008225686A (ja) * 2007-03-09 2008-09-25 Nec Corp 分散型データ処理プラットフォームにおけるデータ配置管理装置と方法、システム及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016576A (ja) * 2015-07-06 2017-01-19 日本電信電話株式会社 ノード、リバランシングキャンセル方法、および、プログラム
JP2017126131A (ja) * 2016-01-12 2017-07-20 日本電信電話株式会社 リバランス装置、リバランス方法、及びプログラム
JP2017168074A (ja) * 2016-03-14 2017-09-21 北京百度網訊科技有限公司 データ伝送制御方法及び装置
KR101806497B1 (ko) 2016-08-03 2017-12-08 (주) 이노트리 Etl 잡 프로세스를 분산 수행하기 위한 미들웨어 장치 및 그 방법
JP2020154594A (ja) * 2019-03-19 2020-09-24 株式会社Pfu サーバ装置及びネットワークシステム
JP7316810B2 (ja) 2019-03-19 2023-07-28 株式会社Pfu サーバ装置及びネットワークシステム
CN113393235A (zh) * 2020-03-13 2021-09-14 富士通株式会社 处理写入请求的信息处理装置和发送控制方法
KR20220081843A (ko) * 2020-12-09 2022-06-16 대구대학교 산학협력단 클라우드 컴퓨팅의 다중 노드 환경을 위한 배치 스케줄링 장치 및 배치 스케줄링 방법
KR102480731B1 (ko) 2020-12-09 2022-12-22 대구대학교 산학협력단 클라우드 컴퓨팅의 다중 노드 환경을 위한 배치 스케줄링 장치 및 배치 스케줄링 방법

Also Published As

Publication number Publication date
JP6001480B2 (ja) 2016-10-05

Similar Documents

Publication Publication Date Title
JP6001480B2 (ja) マイグレーション処理方法及び処理装置
CN110297711B (zh) 批量数据处理方法、装置、计算机设备及存储介质
JP2008108120A (ja) エージェントを使用して性能を監視する計算機システム及びその方法
US20160306554A1 (en) Data storage management
US9191296B2 (en) Network event management
JP2011175357A5 (ja) 管理装置及び管理プログラム
JP2011118525A (ja) サーバ管理装置とサーバ管理方法およびサーバ管理プログラム
JPWO2005017736A1 (ja) ディスクアレイ装置におけるボトルネックを検出するシステムおよびプログラム
EP2570922A1 (en) Method and system for managing an elastic server farm
CN108632106A (zh) 监控服务设备的系统
JP2010231502A (ja) ジョブ処理方法、ジョブ処理プログラムを格納したコンピュータ読み取り可能な記録媒体、および、ジョブ処理システム
JP2012088770A (ja) コンピュータリソース制御システム
US20170109376A1 (en) Method for managing data using in-memory database and apparatus thereof
US10095204B2 (en) Method, medium, and system
JP2020160775A (ja) コンテナ起動ホスト選択装置、コンテナ起動ホスト選択システム、コンテナ起動ホスト選択方法及びプログラム
JPWO2014136182A1 (ja) 空気調和機の管理装置及び方法
JP6068296B2 (ja) 制御装置、計算資源管理方法及び計算資源管理プログラム
CN110837428B (zh) 存储设备管理方法及装置
US10896076B2 (en) Information processing system and control method for executing a process based on a message acquired from a queue
JP6303486B2 (ja) 情報処理システム、監視方法、及び、プログラム
JP2019079120A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5351839B2 (ja) オーダ処理方法、プログラムおよびネットワークシステム
US10091068B1 (en) System for modeling distributed systems
JP2009259005A (ja) リソース監視方法および装置
JP2011065469A (ja) 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160728

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160901

R150 Certificate of patent or registration of utility model

Ref document number: 6001480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150