JP2019028673A - 管理装置および管理方法 - Google Patents

管理装置および管理方法 Download PDF

Info

Publication number
JP2019028673A
JP2019028673A JP2017146675A JP2017146675A JP2019028673A JP 2019028673 A JP2019028673 A JP 2019028673A JP 2017146675 A JP2017146675 A JP 2017146675A JP 2017146675 A JP2017146675 A JP 2017146675A JP 2019028673 A JP2019028673 A JP 2019028673A
Authority
JP
Japan
Prior art keywords
load information
virtual machine
unit
added
host
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017146675A
Other languages
English (en)
Inventor
松尾 和宏
Kazuhiro Matsuo
和宏 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017146675A priority Critical patent/JP2019028673A/ja
Publication of JP2019028673A publication Critical patent/JP2019028673A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】トラフィック分散先のデータセンタのリソースを容易かつ効率よく運用する。【解決手段】収集部15aが、VMの負荷情報を収集し、決定部15bが、収集された負荷情報を用いて、増設対象のVMと増設先のホストとを決定し、指示部15cが、決定された増設対象のVMの増設先のホストでの複製を指示する。収集部15aは、VMのハードウェアリソースの情報と、該VMのゲストOS以上のリソースの情報とを含む負荷情報を収集する。収集部15aは、各VMに関する負荷情報と、VMの仮想化環境に関する負荷情報とを含む負荷情報を収集し、決定部15bは、VMに関する負荷を用いて増設対象のVMを決定し、仮想化環境に関する負荷情報を用いて増設先のホストを決定する。決定部15bは、収集された負荷情報を用いて、さらに、減設対象の仮想マシンを決定し、指示部15cは、決定された減設対象のVMの削除を指示する。【選択図】図4

Description

本発明は、管理装置および管理方法に関する。
近年、IoTデバイスの増大や将来の5Gネットワークを見据え、ユーザの利用するIoTデバイスの近傍にエッジサーバを分散させてIoTデバイスとエッジサーバとの間の低遅延化を図る、エッジコンピューティングと呼ばれる技術が検討されている。サーバが都心部に集中配備される従来のクラウドコンピューティングに対し、エッジサーバが各地域に分散配備されるエッジコンピューティングにおいては、各地域のリソースを小規模にすることでトータルコストを抑えている。
ここで、各地域のIoTデバイスからのトラフィックは、コンサート等のイベント開催時、災害発生に伴う救助ロボット出動時、あるいは帰省する人が増える時期等には、通常時の平均値から大きく変動することが想定される。そのようなトラフィック変動に対応するため、ピークトラフィックを前提としてリソース設計を行えば、トータルコストが増大する。一方、平均トラフィックを前提としたリソース設計では、ピークトラフィックの処理を行えない。
そこで、トータルコストを抑えてピークトラフィックの処理を可能とするため、トラフィックを分散させるトラフィックのオフロード技術が必要になる。トラフィックのオフロード技術として、DWS(Dynamic Workload Scaling)と呼ばれる技術が知られている(非特許文献1参照)。DWSによれば、仮想化管理システムが監視するデータセンタ(以下、DCとも記す)内の仮想マシン(以下、VMと記す)の負荷が所定の閾値を超過した場合に、ロードバランサ(以下、LBとも記す)が、別のDCにトラフィックを分散させる。その際、分散先のDCに、当該トラフィックを処理するVMと同一のVMが事前に増設されている必要がある。
"Cisco ACE:VMwareと協調して動作する仮想サーバ ロード バランサ"、[online]、2011年、シスコ、[2017年6月21日検索]、インターネット<URL:http://www.cisco.com/c/ja_jp/about/newsroom/technology-commentary/tech-2011/load-balancing-with-vmware.html>
しかしながら、従来の技術では、分散先DCにおいてリソースを効率よく運用することが困難であった。具体的には、従来のDWSでは、高負荷になるVMは、トラフィックや他のVMとの競合に依るため、特定が困難であり、分散先のDCに全VMの増設が必要であった。
一方、エッジコンピューティングにおいては、IoTデバイスがターゲットであるため、VMで処理される内容は業界毎、事業者毎、あるいはデバイス毎等に異なり、多種多様である。したがって、VMのサーバアプリケーション、ミドルウェア、リソース等の構成も管理者も様々に異なり、VM数が膨大になることが想定される。
その場合に、DWSでは分散先DCにおけるVMの集中は考慮されていない。例えば、分散先DCを都心部DCに1極集中させる場合には、都心部DCには、既設VMに加え、各地域DCから分散される増設VMが加わるため、VMが集中してしまうおそれがある。また、分散先DCを他地域DCに分散させる場合にも同様に、分散先の他地域DCには、既設VMに加え、分散させる増設VMが加わるため、VMが集中するおそれがある。いずれにしても、ハイパーバイザのVMの上限数超過、VM間のリソース競合や性能劣化等のリソースの問題が発生するおそれがある。
また、過去の負荷情報を参照して増設するVMを特定し、運用者が手動で増設することによりVM数の増大を回避する場合には、運用者の負担が大きいだけでなく、VM増設が遅れてトラフィックが分散されないおそれがある。
本発明は、上記に鑑みてなされたものであって、トラフィック分散先のデータセンタのリソースを容易かつ効率よく運用することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る管理装置は、仮想マシンの負荷情報を収集する収集部と、収集された前記負荷情報を用いて、増設対象の仮想マシンと増設先のホストとを決定する決定部と、決定された前記増設対象の仮想マシンの前記増設先のホストでの複製を指示する指示部と、を備えることを特徴とする。
本発明によれば、トラフィック分散先のデータセンタのリソースを容易かつ効率よく運用することができる。
図1は、本実施形態に係る管理装置を含むシステムの概略構成を例示する模式図である。 図2は、ロードバランサを説明するための説明図である。 図3は、管理装置の処理概要を説明するための説明図である。 図4は、管理装置の概略構成を例示する模式図である。 図5は、閾値情報のデータ構成を例示する図である。 図6は、管理処理手順を示すシーケンス図である。 図7は、管理処理手順を示すシーケンス図である。 図8は、対象VM決定処理手順を示すフローチャートである。 図9は、管理処理の効果を説明するための説明図である。 図10は、管理プログラムを実行するコンピュータを例示する図である。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[システムの概要]
図1は、本実施形態に係る管理装置を含むシステムの概略構成を例示する模式図である。図1に例示するように、システム1は、IoTデバイス2がアクセス網を介してアクセスするVM3と、VM3を管理する仮想化管理システム4と、ロードバランサ5と、オペレーションシステム(OpS)6と、管理装置10とを含む。
ここで、VM3は、DC7内に設置されたホスト上に構築される。すなわち、各ホストのハードウェア(HW)上にインストールされたホストOS上のハイパーバイザにより複数のゲストOSが生成され、各ゲストOS上にVM3が構築される。
仮想化管理システム4は、各DC7内に構築されたVM3を管理する。具体的には、仮想化管理システム4は、ホストのCPU使用率等のハードウェアリソースの負荷を監視している。また、仮想化管理システム4は、各VMのイメージファイルを管理している。また、OpS6は、運用中のシステム1の全体を監視している。
また、図2は、ロードバランサ5を説明するための説明図である。図2に例示するように、ロードバランサ5は、VM3にアクセスするトラフィックを受信した際等に、仮想化管理システム4が監視するVM3の負荷を確認し、VM3の負荷が所定の閾値を超過していた場合に、分散先DCのVM3にトラフィックを分散させる。
また、図3は、管理装置10の処理概要を説明するための説明図である。図3に例示するように、管理装置10は、後述する管理処理を実行し、ロードバランサ5の分散先とするDC7にVM3を増設する。具体的には、管理装置10は、仮想化管理システム4からDC7内のVM3およびハイパーバイザ等の仮想化環境の負荷情報を収集し、VM3の負荷情報を用いて増設対象のVM3を決定し、仮想化環境の負荷情報を用いて分散先DCを決定する。
そして、管理装置10は、決定したVM3の複製を仮想化管理システム4に指示する。また、管理装置10は、ロードバランサ5に分散先として増設されたVM3の登録を指示する。また、管理装置10は、OpS6に監視対象として増設されたVM3の登録を指示する。
[管理装置の構成]
図4は、管理装置10の概略構成を例示する模式図である。図4に例示するように、管理装置10は、ワークステーションやパソコン等の汎用コンピュータで実現され、入力部11と出力部12と通信制御部13と、記憶部14と、制御部15とを備える。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、例えば、後述する管理処理の結果等を操作者に対して出力する。
通信制御部13は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介したサーバ等の外部の装置と制御部15との通信を制御する。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14には、管理装置10を動作させる処理プログラムや、処理プログラムの実行中に使用されるデータなどが予め記憶され、あるいは処理の都度一時的に記憶される。また、この記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。
本実施形態において、記憶部14は、閾値情報14aを含む。ここで、図5は、閾値情報14aのデータ構成を例示する図である。閾値情報14aは、後述する管理処理において、VM3を増設対象または減設対象として決定する際の閾値を表し、設定された閾値の範囲に合致したVM3が増設対象または減設対象として決定される。閾値情報14aは、図5に例示するように、閾値、合致回数、処理条件、および対象VMを含む。
閾値は、VM3ごとに、あるいは全VM3に対して共通に、複数の条件を組み合わせて設定可能である。例えば、CPU使用率、メモリ使用率、またはスレッド数等の条件をOR/AND等の論理条件で指定することができる。ここで、CPU使用率、メモリ使用率等のハードウェアリソースの情報は、後述するように、仮想化管理システム4から収集される。また、スレッド数とは、各VMのゲストOS上のプロセス数を表し、ゲストOSのSNMP(Simple Network Management Protocol)のエージェントから収集される。
また、対象VMとは、該当の閾値が適用されるVM3を意味し、処理条件とは、対象VMが増設対象か減設対象かを表す。また、合致回数とは、設定された閾値の範囲に合致した回数を意味し、ここで指定されている合致回数に達した場合に、対象VMが増設対象または減設対象として決定される。なお、設定された閾値の範囲に連続して合致した回数をカウントするようにしてもよい。
この合致回数は、対象VMの重要度や対象VMにアクセスするトラフィックのバースト性に応じて設定される。例えば、重要度の高いVM3については、少ない合致回数で増設対象として決定するようにして、呼損を抑止することができる。一方、バースト性の高いトラフィックについては、増設対象と決定するまでの合致回数を多くして、オーバーヘッドの増大すなわちリソースの不要な増設を抑止することができる。
同様に、設定される閾値の数値は、対象VMの重要度に応じて設定される。例えば、一般企業用のVM3については、増設対象とする閾値の数値を大きくすることにより、増設VM数を抑止してリソースコストを抑えることができる。一方、人命にかかわる医療業界のVM3については、増設対象とする閾値の数値を小さくすることにより、リソースコストよりパフォーマンスを優先した増設が可能となる。
図5には、例えば、全てのVM3について(対象VM:ALL)、CPU使用率が70%以上になった場合に(合致回数:1)、増設対象とすることが示されている。また、VM−1については、CPU使用率が70%以上、かつ(AND)、メモリ使用率が80%以上になった回数が2回に達した場合に(合致回数:2)、増設対象とすることが示されている。
なお、同一のVM3に対して複数の閾値が設定されている場合には、後述する管理処理において、優先度の高い順に適用される。また、同一のVM3に対して同一の数値を用いて設定され判定不能な複数通りの閾値が設定されている場合には、設定の際にエラー通知が出力されるようにするとよい。例えば、CPU使用率70%以上の場合に増設対象とする閾値と、CPU使用率70%以上の場合に減設対象とする閾値との対象VMに、同一のVM3が含まれている場合が該当する。
図4の説明に戻る。制御部15は、CPU(Central Processing Unit)等の演算処理装置がメモリに記憶された処理プログラムを実行することにより、図4に例示するように、収集部15a、決定部15b、指示部15c、設定部15dおよび試験部15eとして機能する。なお、これらの機能部は、それぞれ、あるいは一部が異なるハードウェアに実装されてもよい。例えば、収集部15aと決定部15bとは、負荷情報管理装置等の管理装置10とは異なるハードウェアに実装されてもよい。
収集部15aは、VM3の負荷情報を収集する。具体的には、収集部15aは、VM3のハードウェアリソースの情報と、該VM3のゲストOS以上のリソースの情報とを含む負荷情報を収集する。
例えば、収集部15aは、VM3のハードウェアリソースの情報として、CPU使用率やメモリ使用率等を、仮想化管理システム4から収集する。なお、VM3から見てハードウェアリソースはVM間で競合すること、またVM数が膨大であることを考慮して、本実施形態では、VM3のハードウェアリソースの情報を、ゲストOSのエージェントではなく、仮想化管理システム4から収集する。
また、収集部15aは、VM3のゲストOS以上のミドルウェア、アプリケーション等のリソースの情報として、例えばゲストOS上のスレッド数を、ゲストOSのエージェントから収集する。あるいは、収集部15aは、ミドルウェアのリソース情報として、Postgressqlのコネクション数を収集してもよい。Postgressqlのコネクション数とは、WebサーバがDBサーバに接続する際のコネクション数を表す。また、収集部15aは、アプリケーションのリソース情報として、VoIP(Voice over IP)のSIP(Session Initiation Protocol)サーバの音声チャネル数を収集してもよい。例えば、1通話につき発信チャネルと着信チャネルとの2チャネルを使用すること等はアプリケーションが管理している。
なお、収集部15aは、ゲストOS以上のリソースの情報として、VM3全体でのサービス品質等の情報を収集してもよい。サービス品質として、例えば、WebサーバのHTTPリクエストに対する応答時間が例示される。この応答時間にはアプリケーションだけでなくミドルウェアおよびゲストOSの処理時間が関連している。この場合に、応答時間が所定の閾値を超過した場合に、後述する処理においてVM3を増設対象とする。
また、収集部15aは、ゲストOS以上のリソースの情報として、エラーログの量を収集してもよい。この場合に、エラーログの量が所定の閾値を超過した場合に、後述する処理においてVM3を増設対象とする。
また、収集部15aは、各VM3に関する負荷情報と、VM3の仮想化環境に関する負荷情報とを含む負荷情報を収集する。具体的には、収集部15aは、各VM3に関する負荷情報として、上記のとおり、各VM3のハードウェアリソースの情報と各VM3のゲストOS以上のリソースの情報とを収集する。また、収集部15aは、VM3の仮想化環境に関する負荷情報として、VM3が稼働するホストのハイパーバイザ等の仮想化環境ごとに、同一仮想化環境下に構築された全てのVM3に関する負荷情報を収集する。
なお、VM3の負荷情報の収集頻度は特に限定されず、任意に設定可能である。例えばバースト的に発生する負荷を検知できるように、短い間隔で収集してもよい。
決定部15bは、収集された負荷情報を用いて、増設対象のVM3と増設先のホストとを決定する。具体的には、決定部15bは、VM3に関する負荷情報を用いて増設対象のVM3を決定し、仮想化環境に関する負荷情報を用いて増設先のDCのホストを決定する。
例えば、決定部15bは、各VM3に関する負荷情報が、閾値情報14aに設定されている閾値の範囲に合致した場合に、増設対象のVM3として決定する。本実施形態においては、決定部15bは、負荷情報が所定の閾値の範囲に合致した回数が所定値を超えた場合に、増設対象のVMとして決定する。これにより、例えば、重要度の高いVM3については、少ない合致回数で増設対象として決定して、呼損を抑止することができる。一方、バースト性の高いトラフィックについては、増設対象と決定するまでの合致回数を多くして、オーバーヘッドの増大すなわちリソースの不要な増設を抑止してリソースコストを抑えることができる。
図5に示した閾値情報14aによれば、VM−1が、CPU使用率が70%以上、かつ、メモリ使用率が80%以上になった回数が2回に達した場合に、増設対象とされる。
また、決定部15bは、仮想化環境に関する負荷情報を用いて、最も負荷の低い環境を増設対象のVM3の配置先として決定する。ここで、配置先すなわち増設先は、増設元のホストと同一セグメントに属していればよい。これにより、ロードバランサ5と連動させてロードバランサ5の分散先とすることが可能となる。また、増設先は、増設元の自DCとは異なるDCに限定されず、同じDC内の異なるホストでも同一のホストでもよい。
なお、決定部15bは、収集された負荷情報を用いて、上記と同様に、減設対象のVM3を決定する。例えば、図5に示した閾値情報14aによれば、VM−1が、スレッド数が50以下になった回数が3回に達した場合に、減設対象とされる。
また、減設の際に、全てのVM3が削除される事態を抑止するため、例えば、閾値情報14aに同一VM3の最低稼働台数を設定可能にしておき、最低稼働台数を下回らない範囲でVMの減設が決定されるようにすればよい。
指示部15cは、決定された増設対象のVM3の増設先のホストでの複製を指示する。具体的には、指示部15cは、まず、増設対象のVM3すなわち増設元VMの属する仮想化管理システム4から、増設元VMのイメージファイルと、増減元VMのCPU、メモリ等の仮想リソース設定内容とを取得する。次に、指示部15cは、増設先のホストが属する仮想化管理システム4に、取得した増設元VMのイメージファイルと仮想リソース設定内容とを送信し、増設元VMの複製を指示する。このように、運用中のVM3自体が複製されるわけではないので、増設元VMが運用中であっても、影響を与えることなく増設先のデータセンタのホストに増設元VMと同一のVMを増設することができる。
また、決定部15bが減設対象のVM3を決定した場合に、指示部15cは、決定された減設対象のVM3の削除を指示する。具体的には、減設対象のVM3が運用中の場合を考慮して、指示部15cは、まず、ロードバランサ5に予閉塞の指示を行って、IoTデバイス2からのトラフィックの増加を抑止する。
この場合に、ロードバランサ5は、同一ユーザからの同一セッションに属するパケットを同一のVM3に転送するパーシステンシー機能を用いて、関連リクエストのみを継続させる。その後、指示部15cは、ロードバランサ5を経由した減設対象のVM3へのセッション数がゼロになった時点で、仮想化管理システム4に減設対象のVM3の削除の指示を行う。これにより、システム1におけるVM3のスケールインが可能となり、さらに効率よくリソースを運用することが可能となる。
設定部15dは、増設されたVM3に対するアドレス設定等の必要最小限のネットワーク設定を行う。設定部15dは、コマンドラインや予め用意されたスクリプトを実行してもよい。また、設定部15dは、VM3の増設または減設の最新の状態をロードバランサ5およびOpS6に登録させる。
試験部15eは、増設されたVM3が利用可能であることを確認する試験を実施する。具体的には、試験部15eは、複製されたVM3を、まず、ロードバランサ5に非運用の状態で登録し、インターネット経由で試験パケットを送信する。そして、試験部15eは、試験パケットに対する応答や、ロードバランサ5や増設されたVM3のエラーログの有無を確認することにより、正常性を確認する。増設されたVM3の正常性が確認された場合に、試験部15eは、この増設されたVM3を運用の状態に変更する。
[管理処理]
次に、図6〜図8を参照して、本実施形態に係る管理装置10による管理処理について説明する。まず、図6および図7は、管理処理手順を示すシーケンス図である。図6および図7のシーケンス図は、例えば、システム1の運用者により、管理処理の開始を指示する操作入力があったタイミングで開始される。
この場合に、収集部15aは、VM3の負荷情報を収集する(ステップS1)。具体的には、収集部15aは、図6に示すように、各VM3について、ハードウェアリソースに関する負荷情報を仮想化管理システム4から収集する(ステップS11)。また、収集部15aは、ゲストOS以上のリソースの情報をゲストOSのエージェントから収集する(ステップS12)。
また、収集部15aは、ステップS11およびステップS12の処理を、図7に示すように、各VM3の負荷情報として収集する(ステップS13)。同様に、収集部15aは、各仮想化管理システム4に属する全てのVM3の負荷情報を、VM3の仮想化環境の負荷情報として収集する(ステップS14)。
収集部15aは、収集したVM3の負荷情報を決定部15bに送信する(ステップS2)。決定部15bは、受信したVM3の負荷情報を用いて、増設対象または減設対象のVM3を決定する(ステップS3)。また、決定部15bは、決定した増設対象のVM3および増設先のホスト、または減設対象のVM3を指示部15cに通知する(ステップS4)。
指示部15cは、増設対象のVM3が通知された場合に、この増設元のVM3が属する仮想化管理システム4に、増設元VMのイメージファイルと仮想リソースの設定内容とを問い合わせて取得する(ステップS5)。また、指示部15cは、増設先のホストが属する仮想化管理システム4に、増設元VMのイメージファイル、仮想リソースの設定内容および増設先を含む増設指示を通知する(ステップS6)。
また、指示部15cは、減設対象のVM3が通知された場合に、減設対象のVM3が属する仮想化管理システム4に、減設対象VMの減設指示を送信する(ステップS5)。これにより、一連の管理処理が終了する。
次に、図8を参照して、上記ステップS3の対象VM決定処理手順について説明する。決定部15bは、収集されたVM3の負荷情報を用いて閾値情報14aを参照し、各VM3について、合致する閾値が設定されているか否かの確認を、閾値に合致するVM3があるまで繰り返す(ステップS31,No)。
閾値に合致するVM3があった場合に(ステップS31,Yes)、決定部15bは、閾値の合致回数をカウントし(ステップS32)、閾値情報14aに設定されている所定の合致回数に達しているか否かを確認する(ステップS33)。閾値の合致回数が所定の合致回数に達していない場合には(ステップS33,No)、決定部15bは、ステップS31に処理を戻す。
一方、閾値の合致回数が所定の合致回数に達した場合には(ステップS33,Yes)、決定部15bは、合致した閾値の処理条件が増設か減設かを確認する(ステップS34)。合致した閾値の処理条件が増設の場合に(ステップS34,増設)、決定部15bは、このVM3を増設対象に決定し、指示部15cに通知する(ステップS35)。また、合致した閾値の処理条件が減設の場合に(ステップS34,減設)、決定部15bは、このVM3を減設対象に決定し、指示部15cに通知する(ステップS36)。これにより、一連の対象VM決定処理が終了する。
以上、説明したように、本実施形態の管理装置10において、収集部15aが、VM3の負荷情報を収集する。また、決定部15bが、収集された負荷情報を用いて、増設対象のVM3と増設先のホストとを決定する。また、指示部15cが、決定された増設対象のVM3の増設先のホストでの複製を指示する。これにより、負荷の大きいVM3を選択的に分散先のデータセンタのホストに増設することができ、効率よくスケールアウトを行える。
これに対し、従来のDWSでは、図9(a)に例示するように、分散先DCを都心部DCに一極集中させる場合には、都心部DCには、既設VMに加え、各地域DCから分散される増設VMが加わるため、VMが集中してしまうおそれがあった。また、図9(b)に例示するように、分散先DCを他地域DCに分散させる場合にも同様に、分散先の他地域DCには、既設VMに加え、分散させる増設VMが加わるため、VMが集中するおそれがあった。いずれにしても、分散先DCにおけるVMの集中が考慮されていなかったため、VMがハイパーバイザのVMの上限数の超過、VM間のリソース競合や性能劣化等のリソースの問題が発生するおそれがあった。
また、図9(c)に例示するように、分散先DCでのVMの集中を避けるために、分散先DCのVMの上限数等のリソースを考慮して、分散元DCと分散先DCとの数の比率をN対1等に設計されていた。しかしながら、設計が煩雑であり、柔軟性が損なわれるおそれがあった。
また、過去の負荷情報を参照して増設するVMを特定して手動で増設すれば、VM数の増大を回避できるものの、運用者の負担が大きいだけでなく、VM増設が遅れてトラフィックが分散されない場合があった。
なお、負荷が上昇したVMを移動させる技術として、vSphere DRS(Distributed Resource Scheduler)と呼ばれる技術が知られている。しかしながら、DRSによれば、VMをリソースに余裕のある別のホストに移動させることはできるが、増設はできず、地域DCのリソースの余剰は解消されずスケールアウトにはならない。また、vMotion等による移動時には、サービス瞬断が発生し、特にUDPが適用されるIoTデバイスには不利益を与える場合があった。
これに対し、本実施形態の管理装置10によれば、分散先DCにおいて運用者の手動によらずに容易に、負荷に応じてVMの増設や減設が可能となる。このように、トラフィック分散先のデータセンタのリソースを容易かつ効率よく運用することが可能となる。
また、管理装置10は、収集された負荷情報を用いて減設対象のVM3を決定し、削除を指示する。これによりスケールインも可能となり、さらに効率よくリソースを運用することが可能となる。
[システム構成等]
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
上記実施形態に係る管理装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、管理装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の管理処理を実行する管理プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の管理プログラムを情報処理装置に実行させることにより、情報処理装置を管理装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。
また、管理装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の管理処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、管理装置10は、VM3の負荷情報を入力とし、増減設対象のVM3を出力する管理処理サービスを提供するサーバ装置として実装される。この場合、管理装置10は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の管理処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、管理装置10と同様の機能を実現する管理プログラムを実行するコンピュータの一例を説明する。
図10は、管理プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、管理プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した管理装置10が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、管理プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
1 システム
2 IoTデバイス
3 仮想マシン(VM)
4 仮想化管理システム
5 ロードバランサ
6 オペレーションシステム(OpS)
7 データセンタ(DC)
10 管理装置
11 入力部
12 出力部
13 通信制御部
14 記憶部
14a 閾値情報
15 制御部
15a 収集部
15b 決定部
15c 指示部
15d 設定部
15e 試験部

Claims (6)

  1. 仮想マシンの負荷情報を収集する収集部と、
    収集された前記負荷情報を用いて、増設対象の仮想マシンと増設先のホストとを決定する決定部と、
    決定された前記増設対象の仮想マシンの前記増設先のホストでの複製を指示する指示部と、
    を備えることを特徴とする管理装置。
  2. 前記収集部は、前記仮想マシンのハードウェアリソースの情報と、該仮想マシンのゲストOS以上のリソースの情報とを含む前記負荷情報を収集することを特徴とする請求項1に記載の管理装置。
  3. 前記収集部は、各前記仮想マシンに関する負荷情報と、前記仮想マシンの仮想化環境に関する負荷情報とを含む前記負荷情報を収集し、
    前記決定部は、前記仮想マシンに関する負荷情報を用いて前記増設対象の仮想マシンを決定し、前記仮想化環境に関する負荷情報を用いて前記増設先のホストを決定することを特徴とする請求項1または2に記載の管理装置。
  4. 前記決定部は、前記負荷情報が所定の閾値の範囲に合致した回数が所定値を超えた場合に、前記増設対象の仮想マシンとして決定することを特徴とする請求項1〜3のいずれか1項に記載の管理装置。
  5. 前記決定部は、収集された前記負荷情報を用いて、さらに、減設対象の仮想マシンを決定し、
    前記指示部は、決定された前記減設対象の仮想マシンの削除を指示することを特徴とする請求項1〜4のいずれか1項に記載の管理装置。
  6. 管理装置で実行される管理方法であって、
    仮想マシンの負荷情報を収集する収集工程と、
    収集された前記負荷情報を用いて、増設対象の仮想マシンと増設先のホストとを決定する決定工程と、
    決定された前記増設対象の仮想マシンの前記増設先のホストでの複製を指示する指示工程と、
    を含んだことを特徴とする管理方法。
JP2017146675A 2017-07-28 2017-07-28 管理装置および管理方法 Pending JP2019028673A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017146675A JP2019028673A (ja) 2017-07-28 2017-07-28 管理装置および管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146675A JP2019028673A (ja) 2017-07-28 2017-07-28 管理装置および管理方法

Publications (1)

Publication Number Publication Date
JP2019028673A true JP2019028673A (ja) 2019-02-21

Family

ID=65478535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146675A Pending JP2019028673A (ja) 2017-07-28 2017-07-28 管理装置および管理方法

Country Status (1)

Country Link
JP (1) JP2019028673A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110488868A (zh) * 2019-08-30 2019-11-22 哈尔滨工程大学 一种多无人机协助用户的移动卸载方法
WO2023233505A1 (ja) * 2022-05-31 2023-12-07 楽天モバイル株式会社 オフローディングのためのネットワーク管理

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181580A (ja) * 2011-02-28 2012-09-20 Fujitsu Ltd リソース制御装置、リソース制御方法、及びリソース制御プログラム
JP2012208781A (ja) * 2011-03-30 2012-10-25 Internatl Business Mach Corp <Ibm> 情報処理システム、情報処理装置、スケーリング方法、プログラムおよび記録媒体
JP2015090675A (ja) * 2013-11-07 2015-05-11 富士通株式会社 情報処理方法、装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181580A (ja) * 2011-02-28 2012-09-20 Fujitsu Ltd リソース制御装置、リソース制御方法、及びリソース制御プログラム
JP2012208781A (ja) * 2011-03-30 2012-10-25 Internatl Business Mach Corp <Ibm> 情報処理システム、情報処理装置、スケーリング方法、プログラムおよび記録媒体
JP2015090675A (ja) * 2013-11-07 2015-05-11 富士通株式会社 情報処理方法、装置、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110488868A (zh) * 2019-08-30 2019-11-22 哈尔滨工程大学 一种多无人机协助用户的移动卸载方法
WO2023233505A1 (ja) * 2022-05-31 2023-12-07 楽天モバイル株式会社 オフローディングのためのネットワーク管理

Similar Documents

Publication Publication Date Title
US10891168B2 (en) Automatically scaling up physical resources in a computing infrastructure
US11042639B2 (en) Excluding stressed machines from load balancing of distributed applications
US10664297B2 (en) Activating pre-created VNFCs when a monitored performance level of a VNF exceeds a maximum value attainable by the combined VNFCs that form a VNF
US10915374B2 (en) Method of facilitating live migration of virtual machines
US11169840B2 (en) High availability for virtual network functions
JP2018528526A (ja) 複合サービスファンクションチェーン間の負荷及びソフトウェア構成の制御
RU2683629C2 (ru) Способ и устройство изменения ресурса виртуальной вычислительной машины и устройство для функционирования виртуальной сети передачи данных
EP3226495A1 (en) Allocation method, apparatus and system for cloud network communication path
JP2019512967A (ja) Mecアプリケーションの再配置を制御するための方法及びサーバ
EP3588856B1 (en) Technologies for hot-swapping a legacy appliance with a network functions virtualization appliance
US10761893B1 (en) Automatically scaling compute resources for heterogeneous workloads
CN110677305A (zh) 一种云计算环境下的自动伸缩方法和系统
US20230028837A1 (en) Scaling for split-networking datapath
KR102452758B1 (ko) 가상화된 네트워크 기능들
US10257156B2 (en) Overprovisioning floating IP addresses to provide stateful ECMP for traffic groups
US11838206B2 (en) Edge node with datapath split between pods
US10791039B2 (en) Systems and methods for cloud service provisioning using software containers
JP2019028673A (ja) 管理装置および管理方法
US20210240511A1 (en) Computer-implemented method for reducing service disruption times for a universal customer premise equipment, ucpe, device with resource constraint in a network functions virtualization, nfv, network infrastucture
KR20160025926A (ko) 가상 응용서버들로 부하를 분산하는 장치 및 방법
Melo et al. Optimal virtual network migration: A step closer for seamless resource mobility
JP6554062B2 (ja) 流量制御方法および流量制御装置
WO2018129957A1 (zh) vBNG系统多虚拟机负荷分担方法及vBNG系统设备
JP6597324B2 (ja) オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム
JP2022166934A (ja) 情報処理装置、過負荷制御プログラムおよび過負荷制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027