JP5952229B2 - 管理装置、経路情報生成方法および経路情報生成プログラム - Google Patents

管理装置、経路情報生成方法および経路情報生成プログラム Download PDF

Info

Publication number
JP5952229B2
JP5952229B2 JP2013140786A JP2013140786A JP5952229B2 JP 5952229 B2 JP5952229 B2 JP 5952229B2 JP 2013140786 A JP2013140786 A JP 2013140786A JP 2013140786 A JP2013140786 A JP 2013140786A JP 5952229 B2 JP5952229 B2 JP 5952229B2
Authority
JP
Japan
Prior art keywords
base
network
router
user terminal
virtual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013140786A
Other languages
English (en)
Other versions
JP2015015584A (ja
Inventor
永渕 幸雄
幸雄 永渕
高明 小山
高明 小山
秀雄 北爪
秀雄 北爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013140786A priority Critical patent/JP5952229B2/ja
Publication of JP2015015584A publication Critical patent/JP2015015584A/ja
Application granted granted Critical
Publication of JP5952229B2 publication Critical patent/JP5952229B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、管理装置、経路情報生成方法および経路情報生成プログラムに関する。
近年、クラウドコンピューティングが普及し、データセンタに設置される物理サーバのリソースを用いて仮想環境を構築して、ユーザに各種サービスを提供することが行われている。また、仮想スイッチを用いて、異なるデータセンタ間を跨ったL2ネットワーク構築も行われている。
例えば、部門サーバ、経理サーバ、出退勤管理サーバ、ファイルサーバなどを仮想マシン(以下、VM(Virtual Machine)と記載する場合がある)によって実現する企業(Z)を例にして説明する。企業(Z)では、拠点(札幌)のデータセンタ(X)で仮想マシン(A)と仮想マシン(B)とを動作させ、拠点(福岡)のデータセンタ(Y)で仮想マシン(C)と仮想マシン(D)とを動作させる。そして、Open vSwitchなどによる仮想スイッチを用いて、データセンタ(X)とデータセンタ(Y)とを仮想L2ネットワークで接続する。
このようにして、企業(Z)では、異なるデータセンタで動作して各サービスを提供する仮想マシン間の通信を実現することで、各拠点にいる社員に対して、拠点に依存することなく、各種サービスの提供を行う。
石井久治、上野和風、田上啓介、飯田浩二、藤田智成、森田和孝著、「オープンソースlaaS クラウド基盤OpenStack」、NTT技術ジャーナルVol.23、No.8、2011. 北爪秀雄、小山高明、田島佳武、岸寿春、井上朋子著、「クラウドサービスを支えるネットワーク仮想化技術」、NTT技術ジャーナルVol.23、No.10、2011.
しかしながら、上記技術では、仮想マシンのマイグレーション等が発生した場合に、通信経路が冗長になり、通信遅延が発生するという問題がある。
一例として、上記企業(Z)を例にして、社員のパーソナルコンピュータ(以下、PCと記載する場合がある)が、各データセンタのルータと同一セグメントで動作し、インターネットなどを用いて各拠点に接続して仮想マシンを利用する状況を想定する。このような状況において、メンテナンスや利便性向上などの理由により、仮想マシン(B)を拠点(札幌)から拠点(福岡)のデータセンタ(Y)にマイグレーションさせたとする。
この場合、社員のPCは、仮想マシン(B)への経路情報として拠点(札幌)のルータを経由する経路情報を保持するので、仮想マシン(B)が拠点(福岡)へマイグレーションした後でも、拠点(札幌)のルータを経由して仮想マシン(B)へアクセスする。つまり、社員のPCは、仮想マシン(B)がマイグレーションしたにも関らず、マイグレーション元を経由して仮想マシン(B)にアクセスするので、通信距離が長くなり、無駄に遅延が大きくなる。
開示の技術は、上記に鑑みてなされたものであって、通信遅延を縮小化することができる管理装置、経路情報生成方法および経路情報生成プログラムを提供することを目的とする。
本願の開示する管理装置、経路情報生成方法および経路情報生成プログラムは、一つの態様において、第1の拠点において第1のネットワークセグメントで動作する仮想マシンが、第2の拠点における前記第1のネットワークセグメント内にマイグレーションされた場合に、前記第2の拠点内を前記第1のネットワークセグメントと第2のネットワークセグメントとに分割するネットワーク装置を経由して前記仮想マシンへ通信する経路情報を生成する生成部と、前記第2のネットワークセグメントの第3の拠点から前記仮想マシンへの経路情報が要求された場合に、前記生成部によって生成された前記経路情報を前記第3の拠点に送信する送信部とを有する。
本願の開示する管理装置、経路情報生成方法および経路情報生成プログラムの一つの態様によれば、通信遅延を縮小化することができるという効果を奏する。
図1は、第1の実施形態に係るシステムの全体構成例を示す図である。 図2は、VMを動作させる物理サーバの階層構造を示す図である。 図3は、クラウドコントローラの機能構成を示す機能ブロック図である。 図4は、ルーティングテーブルに記憶される情報の例を示す図である。 図5は、クラウドコントローラが実行する処理の流れを示すフローチャートである。 図6は、VMのマイグレーション後にユーザ端末がルーティングテーブルを更新する具体例を説明する図である。 図7は、マイグレーション要求の入力画面例を示す図である。 図8は、ルーティングテーブルの更新例を説明する図である。 図9は、マイグレーション後の経路が変更される例を説明する図である。 図10は、第2の実施形態に係るシステムの全体構成例を示す図である。 図11は、第2の実施形態におけるルーティングテーブルの更新例を説明する図である。 図12は、第3の実施形態に係るシステムの全体構成例を示す図である。 図13は、第3の実施形態に係るシステムにおいてさらにルータを接続したシステムの全体構成例を示す図である。 図14は、テーブル更新プログラムを実行するコンピュータを示す図である。
以下に、本願の開示する管理装置、経路情報生成方法および経路情報生成プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。なお、この実施形態によりこの発明が限定されるものではない。以下に説明する実施形態は、矛盾のない範囲で適宜組み合わせることができる。
[第1の実施形態]
(全体構成)
図1は、第1の実施形態に係るシステムの全体構成例を示す図である。図1に示すように、このシステムは、例えば企業の拠点間をネットワークで接続するシステムである。それぞれデータセンタを有する拠点(札幌)1と拠点(福岡)11と、ユーザ端末10とは、同一セグメントのネットワーク70で接続される。例えば、ユーザ端末と各拠点とは、VPN(Virtual Private Network)を用いたL2パケットのトンネリング通信やL3パケットのトンネリング通信で接続される。また、ユーザ端末10は、同一セグメントのネットワーク70またはインターネット71などのネットワークを介して、Webサーバ40と接続される。
Webサーバ40は、ユーザ端末10から、マイグレーションさせる仮想マシンの情報を受け付けるサーバ装置であり、物理装置で実現される。例えば、Webサーバ40は、拠点(札幌)1で動作するVM(B)を、拠点(福岡)11にマイグレーションさせるなどの指示を受け付けて、受け付けた指示内容を後述するクラウドコントローラ30に送信する。このWebサーバ40は、同一ネットワークセグメント70もしくはインターネット71を介して、クラウドコントローラ30やユーザ端末10と接続される。なお、Webサーバ40は、いずれかの拠点内に設置されていてもよい。
ユーザ端末10は、各拠点のデータセンタで動作する仮想マシンにアクセスして、各種サービスを利用する端末装置であり、例えばノートパソコンやスマートフォンなどである。例えば、ユーザ端末10は、データセンタ2で動作するVM(B)にアクセスして、Webサービス等を実行する。
(拠点(札幌))
拠点(札幌)1は、データセンタ2を有する。データセンタ2は、1台以上の物理サーバが設置され、クラウドコントローラ30や物理サーバの物理リソースを用いて仮想マシンを動作させるデータセンタである。なお、物理リソースとしては、通信インタフェース、プロセッサ、メモリ、ハードディスクなどである。
具体的には、データセンタ2は、ルータ4、OVS(Open vSwitch)5、VM(A)、VM(B)、クラウドコントローラ30を有する。ルータ4は、企業内ネットワークにおいて、拠点(札幌)1のデータセンタ2と拠点(福岡)11のデータセンタ12とを同じネットワークセグメント22で分割するルータである。すなわち、ルータ4は、ユーザ端末10と各データセンタの各VM等との通信を中継する。
このルータ4のインタフェース4aは、ユーザ端末10と接続されるインタフェースであり、IPアドレスとして「192.0.2.10」が設定される。また、ルータ4のインタフェース4bは、各VMと接続されるインタフェースであり、IPアドレスとして「10.yyy.zzz.10」が設定される。なお、このルータ4は、仮想マシンで実現されてもよく、物理装置で実現されてもよい。
OVS5は、各データセンタの各ルータと各VMとを中継するスイッチであり、データセンタ12のOVS15と協働して、データセンタ間を仮想L2ネットワーク21で接続する仮想スイッチである。例えば、OVS5は、ルータ4のインタフェース4b、VM(A)、VM(B)、データセンタ12のOVS15、クラウドコントローラ30のそれぞれと接続される。
VM(A)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「10.yyy.zzz.1」が設定される。VM(B)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「10.yyy.zzz.2」が設定される。これらのVMは、OVS5を介して、ユーザ端末10と通信を実行する。
クラウドコントローラ30は、VMを管理するサーバ装置である。このクラウドコントローラ30は、物理装置で実現されてもよく、仮想マシンで実現されてもよい。例えば、クラウドコントローラ30は、各拠点で動作するVMのIPアドレス、MACアドレス、動作している拠点などVMに関する情報を記憶する。
また、クラウドコントローラ30は、ユーザ操作、管理者操作、予め定められた所定契機などで、所望のVMを他の拠点にマイグレーションさせる。例えば、クラウドコントローラ30は、Webサーバ40から、データセンタ2で動作するVM(B)をデータセンタ12にマイグレーションさせる指示を受信する。すると、クラウドコントローラ30は、受信した指示にしたがって、VM(B)をデータセンタ12にマイグレーションさせる。また、クラウドコントローラ30は、Webサーバを介することなく、ネットワーク管理者や保守者からの操作を直接受け付けて、マイグレーションを開始してもよい。
なお、本実施形態では、拠点(札幌)1のデータセンタ2内にクラウドコントローラ30を設置した例で説明したが、これに限定されるものではない。例えば、拠点(福岡)11のデータセンタ12内に設置されていてもよい。また、クラウドコントローラ30とWebサーバ40とを統合したサーバをインターネット71やネットワーク70に接続してもよい。
クラウドコントローラ30をインターネット71上に接続する場合、クラウドコントローラ30から各VM等への通信は、ルータ4等でアドレス変換やポート変換が行われる。また、クラウドコントローラ30と各VM等との間を、暗号化トンネリング通信等を接続してもよい。
(拠点(福岡))
拠点(福岡)11は、データセンタ12を有する。データセンタ12は、1台以上の物理サーバが設置され、物理サーバの物理リソースを用いて仮想マシンを動作させるデータセンタである。
具体的には、データセンタ12は、ルータ14、OVS15、VM(C)、VM(D)を有する。ルータ14は、企業内ネットワークにおいて、拠点(札幌)1のデータセンタ2と拠点(福岡)11のデータセンタ12とを同じネットワークセグメント22で分割するルータである。すなわち、ルータ14は、ユーザ端末10と各データセンタの各VMとの通信を中継する。
このルータ14のインタフェース14aは、ユーザ端末10と接続されるインタフェースであり、IPアドレスとして「192.0.2.20」が設定される。また、ルータ14のインタフェース14bは、各VMと接続されるインタフェースであり、IPアドレスとして「10.yyy.zzz.20」が設定される。なお、このルータ14は、仮想マシンで実現されてもよく、物理装置で実現されてもよい。
OVS15は、各データセンタの各ルータと各VMとを中継するスイッチであり、データセンタ2のOVS5と協働して、データセンタ間を仮想L2ネットワーク21で接続する仮想スイッチである。例えば、OVS15は、ルータ14のインタフェース14b、VM(C)、VM(D)、データセンタ1のOVS5のそれぞれと接続される。
VM(C)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「10.yyy.zzz.3」が設定される。VM(D)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「10.yyy.zzz.4」が設定される。これらのVMは、OVS15を介して、ユーザ端末10と通信を実行する。
(ネットワーク構成)
上述したように、各拠点にはルータ4とルータ14の異なるデフォルトゲートウェイが設けられている。図1の構成では、拠点(札幌)1で動作するVM(A)およびVM(B)のデフォルトゲートウェイには、ルータ4のインタフェース4bのIPアドレスが設定される。拠点(福岡)11で動作するVM(C)およびVM(D)のデフォルトゲートウェイには、ルータ14のインタフェース14bのIPアドレスが設定される。
また、各VMは、動作する拠点が異なるが、同じネットワークセグメントで動作する。つまり、ルータ4のインタフェース4b、ルータ14のインタフェース14b、OVS5、OVS15、VM(A)、VM(B)、VM(C)、VM(D)、クラウドコントローラ30は、仮想L2ネットワーク21で接続され、同じネットワークセグメント22で動作する。また、このネットワークセグメント22には、ネットワークアドレス「10.yyy.zzz.0/24」が設定される。
また、ユーザ端末10、ルータ4のインタフェース4b、ルータ14のインタフェース14bは、同一セグメントのネットワーク70で動作する。この同一セグメントのネットワーク70には、ネットワークアドレス「192.0.2.0/24」が設定される。このようにして、ユーザ端末10と、各拠点のデータセンタで動作する各VMとは、通信可能に接続される。
(階層構造)
図2は、VMを動作させる物理サーバの階層構造を示す図である。なお、ここでは、一例として1台の物理サーバでVMを動作させる例を説明するが、これに限定されるものではなく、複数台の物理サーバを用いて動作させることができる。
データセンタ2では、物理サーバ6が動作し、データセンタ12では、物理サーバ16が動作する。各物理サーバは、一般的なサーバ装置であり、ハードウェア、プロセッサ、メモリ等を有する。
データセンタ2の物理サーバ6は、ハードウェア6a上でハイパーバイザなどの仮想化ソフトウェア6bを動作させて、仮想環境を提供する。仮想化ソフトウェア6bは、仮想スイッチ6cを動作させる。
同様に、データセンタ12の物理サーバ16は、ハードウェア16a上でハイパーバイザなどの仮想化ソフトウェア16bを動作させて、仮想環境を提供する。仮想化ソフトウェア16bは、仮想スイッチ16cを動作させる。
ここで、仮想スイッチ6cと仮想スイッチ16cは、例えばOpen vSwitch、Open Flow、KVMなどを用いて実現され、仮想L2ネットワーク21を構築する。すなわち、異なるデータセンタ間を仮想ネットワークで通信可能に接続する。
そして、各物理サーバの各仮想化ソフトウェアは、仮想L2ネットワーク21を利用可能な状態で仮想マシンを動作させる。具体的には、仮想化ソフトウェア6bは、物理サーバ6の物理リソースを用いてVM(A)とVM(B)とを動作させ、仮想スイッチ6cを経由して、各VMを仮想L2ネットワーク21に接続する。同様に、仮想化ソフトウェア16bは、物理サーバ16の物理リソースを用いてVM(C)とVM(D)とを動作させ、仮想スイッチ16cを経由して、各VMを仮想L2ネットワーク21に接続する。
(クラウドコントローラの構成)
次に、図3に示したクラウドコントローラの構成について説明する。図3は、クラウドコントローラの機能構成を示す機能ブロック図である。図3に示すように、クラウドコントローラ30は、通信制御部31、記憶部32、制御部33を有する。ここでは、クラウドコントローラ30が物理装置である例で説明するが、クラウドコントローラ30がVMで実現されている場合でも、物理リソースを用いて同様の機能が実行される。
通信制御部31は、他の装置との通信を制御するインタフェースであり、例えばネットワークインタフェースカードなどである。例えば、通信制御部31は、Webサーバ40からマイグレーション指示およびマイグレーションに関する情報を受信する。
記憶部32は、メモリやハードディスクなどの記憶装置であり、ルーティングテーブル32aを保持する。なお、クラウドコントローラ30が仮想マシンである場合には、記憶部32は、クラウドコントローラ30に対して割り当てられた、物理サーバのメモリやハードディスクの所定領域などが該当する。
ルーティングテーブル32aは、ユーザ端末10等に設定するルーティング情報を記憶するテーブルである。図4は、ルーティングテーブルに記憶される情報の例を示す図である。図4に示すように、ルーティングテーブル32aは、「ネットワーク宛先、ネットマスク、ゲートウェイ」を対応付けて記憶する。
ここで記憶される「ネットワーク宛先」は、ユーザ端末10のアクセス先を特定する情報であり、各VMのIPアドレスが設定される。「ネットマスク」は、ネットワークアドレスとホストアドレスとを分けるためのマスクビット列である。「ゲートウェイ」は、各VMへの通信を中継するルータを特定する情報であり、各VMが接続されるルータのIPアドレスが設定される。
図4の例では、「10.yyy.zzz.1」が設定されるVM(A)へのパケットは、「192.0.2.10」へ送信されることを示し、「10.yyy.zzz.2」が設定されるVM(B)へのパケットは、「192.0.2.10」へ送信されることを示す。また、「10.yyy.zzz.3」が設定されるVM(C)へのパケットは、「192.0.2.20」へ送信されることを示し、「10.yyy.zzz.4」が設定されるVM(D)へのパケットは、「192.0.2.20」へ送信されることを示す。
つまり、ユーザ端末10からVM(A)またはVM(B)へのアクセスは、拠点(札幌)1のデータセンタ2が有するルータ4を経由する。また、ユーザ端末10からVM(C)またはVM(D)へのアクセスは、拠点(福岡)11のデータセンタ12が有するルータ14を経由する。
制御部33は、プロセッサなどの電子回路であり、要求受付部34、マイグレーション実行部35、設定変更部36を有する。つまり、各処理部は、プロセッサなどが実行するプロセスやプロセッサが有する電子回路などである。クラウドコントローラ30が仮想マシンである場合には、制御部33は、クラウドコントローラ30に対して割り当てられた、物理サーバのプロセッサが実行する処理部である。
要求受付部34は、Webサーバ40がユーザ端末10から受け付けたVMのマイグレーション指示を受信する処理部である。例えば、要求受付部34は、拠点1のVM(B)を拠点11にマイグレーションさせる指示を受信し、マイグレーション実行部35や設定変更部36に、受信した情報を出力する。
マイグレーション実行部35は、要求されたマイグレーションを実行する処理部である。具体的には、マイグレーション実行部35は、要求受付部34によって受け付けられた情報に基づいて、VMのマイグレーションを実行する。
例えば、マイグレーション実行部35は、拠点(札幌)1で動作するVM(B)を拠点(福岡)11へマイグレーションさせる要求が受け付けられた場合、VM(B)を動作させる物理サーバからマイグレーション先の物理サーバへ、メモリコピーなどを実行して、VM(B)のマイグレーションを実行する。
設定変更部36は、VMのマイグレーションが発生した場合に、ルーティングテーブル32aを更新する処理部である。具体的には、設定変更部36は、マイグレーション実行部35によって拠点間を跨ったマイグレーションが発生した場合に、マイグレーションされたVMに対応するルーティングテーブル32aを更新する。
例えば、設定変更部36は、VM(B)が拠点(札幌)1から拠点(福岡)11へマイグレーションされた場合、VM(B)のIPアドレス「10.yyy.zzz.2」に対応付けられるゲートウェイをルータ4のIPアドレス「192.0.2.10」からルータ14のIPアドレス「192.0.2.20」に更新する。
また、設定変更部36は、ユーザ端末10からルーティング情報の取得要求を受信した場合に、ルーティングテーブル32aに記憶される情報をユーザ端末10に応答する。例えば、ユーザ端末10は、ユーザ端末10の起動時、ネットワークインタフェースのリンクアップ時、ユーザによる指定時、一定間隔などの任意のタイミングで、クラウドコントローラに取得要求を送信する。なお、設定変更部36は、ユーザ端末10にルーティング情報を応答する際に、前回の取得要求受信時と差分がある場合に応答するようにしてもよい。
(処理の流れ)
図5は、クラウドコントローラが実行する処理の流れを示すフローチャートである。図5に示すように、要求受付部34が、Webサーバ40からマイグレーション要求を受信すると(S101:Yes)、マイグレーション実行部35が、マイグレーション内容を特定し(S102)、特定したマイグレーションを実行する(S103)。
設定変更部36は、実行されたマイグレーションが拠点を跨ったマイグレーションであるか否かを判定する(S104)。例えば、設定変更部36は、要求受付部34が受け付けたマイグレーションの指示内容やマイグレーション後のVMの稼動状況等から判定する。
そして、設定変更部36は、拠点を跨ったマイグレーションであると判定した場合(S104:Yes)、マイグレーション内容にしたがってルーティングテーブル32aを更新する(S105)。具体的には、設定変更部36は、マイグレーションされたVMに対するゲートウェイを更新する。なお、設定変更部36は、拠点を跨ったマイグレーションではないと判定した場合(S104:No)、S105を実行することなく、S106を実行する。
その後、設定変更部36は、ユーザ端末10からルーティング情報の取得要求を受信すると(S106:Yes)、ルーティングテーブル32aに記憶されるルーティング情報を読み出して、ユーザ端末10に送信する(S107)。
(具体例)
次に、図1に示したシステム構成においてVM(B)が拠点(札幌)1から拠点(福岡)11へマイグレーションさせた例を説明する。図6は、VMのマイグレーション後にユーザ端末がルーティングテーブルを更新する具体例を説明する図である。図6は、図1と同様の構成を有する。
図6に示すように、ユーザ端末10は、Webサーバ40へアクセスして、Web画面等を用いて出張先の情報を登録し、サービス等の移動を要求する(S201)。図7は、マイグレーション要求の入力画面例である。Webサーバ40は、ユーザ端末10からのアクセスを受け付けると、図7に示す画面をユーザ端末10に応答する。
図7に示す画面は、「ユーザID、移動元、移動先、移動対象」を入力させる画面である。「ユーザID」は、ユーザの識別子である。「移動元」は、出張元を示す情報であり、「移動先」は、出張先を示す情報であり、「移動対象」は、出張先で使用するサービスやサーバを特定する情報である。この「移動元」、「移動先」、「移動対象」は、例えばプルダウンメニュー等で容易に選択することができる。
ここでは、図7に示すように、Webサーバ40は、ユーザID「U001」、移動元「札幌」、移動先「福岡」、移動対象「Webサーバ(VM(B))」の入力を受け付けたとする。
続いて、クラウドコントローラ30は、要求された指示通り、拠点(札幌)1のデータセンタ2で動作するVM(B)を拠点(福岡)11のデータセンタ12へマイグレーションさせる(S202)。
続いて、クラウドコントローラ30は、Webサーバ40が受け付けたマイグレーション内容に基づいて、ルーティングテーブル32aを更新する(S203)。具体的には、クラウドコントローラ30は、Webサーバ40からマイグレーション内容を取得し、移動対象のVMへのアクセスが移動先のデータセンタのルータになるように、ルーティングテーブル32aを更新する。
図8は、ルーティングテーブルの更新例を説明する図である。図8に示すように、クラウドコントローラ30は、拠点(札幌)1のデータセンタ2から拠点(福岡)11のデータセンタ12へVM(B)をマイグレーションさせる指示を受信した場合、ルーティングテーブル32aにおいてVM(B)のIPアドレス「10.yyy.zzz.2」に対応付けられているゲートウェイ「192.0.2.10」をルータ14のIPアドレス「192.0.2.20」に変更する。
その後、クラウドコントローラ30は、ユーザ端末10からルーティング情報の取得要求を受信した場合に、更新したルーティングテーブル32aの情報を、ユーザ端末10に送信する(S204)。
このように、ユーザ端末10は、マイグレーションによってVMが異なる拠点に移動した場合でも、マイグレーションに伴ってルーティングテーブルを書き換えることができるので、移動前の拠点のルータではなく、移動後の拠点のルータを経由して該当VMにアクセスすることができる。
図9は、マイグレーション後の経路が変更される例を説明する図である。図9に示すように、VM(B)が拠点間をマイグレーションしたにも関らず、ユーザ端末10のルーティングテーブルにおいてVM(B)に対応付けられるゲートウェイがルータ4の場合には、ユーザ端末10は、ルータ4、OVS5、仮想L2ネットワーク21、OVS15を経由するルート51で、VM(B)にアクセスする。
一方、VM(B)が拠点間をマイグレーションした際に、ユーザ端末10のルーティングテーブルにおいてVM(B)に対応付けられるゲートウェイがルータ4からルータ14に更新された場合には、ユーザ端末10は、ルータ14とOVS15を経由するルート52で、VM(B)にアクセスできる。
(効果)
上述したように、同一ネットワークセグメント内でVMのマイグレーションが発生した場合に、ユーザ端末10のルーティングテーブルを書き換えることができる。つまり、オンプレミス側拠点に位置するユーザ端末のルーティングテーブルのネクストホップアドレスを書き換える。
この結果、拠点外であるL2WAN(Wide Area Network)側に位置するユーザ端末10は、移動したVMへのアクセスを、移動元拠点のルータ4から移動後拠点へのルータ14へ切り替えてアクセスできる。したがって、図9に示したように、ユーザ端末10からVMへのアクセスを、マイグレーション前後とも最短経路で実行することができるので、通信遅延を縮小化することができる。
また、ユーザが設定変更などの専門的な作業を行わずに、ユーザ端末10は最短経路でVMへアクセスすることができるので、ユーザの負荷増加を低減しつつ、通信遅延を縮小化することができる。
また、VMのマイグレーション後も通信遅延を縮小化することができるので、VMのマイグレーションを頻繁に実行しても通信遅延が抑制でき、仮想環境のメンテナンスや物理サーバのメンテナンスを手軽に実行することができ、システムの信頼性が向上する。さらには、仮想マシンを用いたシステム構築の汎用性が向上する。
[第2の実施形態]
ところで、第1の実施形態では、ネットワーク70と拠点のルータ4または拠点のルータ14とが直接接続されている例を説明したが、これに限定されるものではない。例えば、ネットワーク70と各拠点との間にさらにルータが存在しても同様に処理することができる。
そこで、第2の実施形態では、ネットワーク70と各拠点との間にさらにルータが存在するシステム構成において、VMのマイグレーションが発生した場合に、ユーザ端末10のルーティングテーブルを更新する例を説明する。図10は、第2の実施形態に係るシステムの全体構成例を示す図である。図10に示すシステム構成図と第1の実施形態のシステム構成図とが異なる点は、ルータ3とルータ13を有する点である。
ルータ3は、ネットワーク70と拠点(札幌)1のデータセンタ2に設置されるルータ4とを接続するルータであり、ユーザ端末10とデータセンタ2内の各VMへの通信を中継する。このルータ3は、ユーザ端末10やルータ4やルータ14と同一セグメントのネットワーク70で動作する。このため、ルータ3のユーザ端末10側のインタフェースには、IPアドレスとして「192.0.2.100」が設定されており、ルータ3の拠点1側のインタフェースには、IPアドレスとして「192.0.2.90」が設定されている。
ルータ13は、ネットワーク70と拠点(福岡)11のデータセンタ12に設置されるルータ14とを接続するルータであり、ユーザ端末10とデータセンタ12内の各VMへの通信を中継する。このルータ13は、ユーザ端末10やルータ4やルータ14と同一セグメントのネットワーク70で動作する。このため、ルータ13のユーザ端末10側のインタフェースには、IPアドレスとして「192.0.2.101」が設定されており、ルータ3の拠点11側のインタフェースには、IPアドレスとして「192.0.2.91」が設定されている。
このような状態において、VM(B)が、拠点(札幌)1のデータセンタ12から拠点(福岡)11のデータセンタ12へマイグレーションしたとする。この場合、クラウドコントローラ30は、ルーティングテーブル32aにおいて「VM(B)、ルータ3」の対応付けを「VM(B)、ルータ13」に更新し、更新した情報をユーザ端末10へ提供する。
こうすることで、ユーザ端末10が、マイグレーションしたVM(B)にアクセスする場合に、移動元のデータセンタ2のルータ4に接続されるルータ3ではなく、移動後のデータセンタ12のルータ14に接続されるルータ13を経由することができる。
図11は、第2の実施形態におけるルーティングテーブルの更新例を説明する図である。クラウドコントローラ30は、図11に示すように、「ネットワーク宛先、ネットマスク、ゲートウェイ」を対応付けて記憶する。第1の実施形態と異なる点は、ルーティングテーブル32aの「ゲートウェイ」が、ルータ4またはルータ14のIPアドレスではなく、ルータ3またはルータ13のIPアドレスである点である。
クラウドコントローラ30は、VM(B)のマイグレーション前は図11の上図に示す情報を記憶する。具体的には、IPアドレス「10.yyy.zzz.1」が設定されるVM(A)またはIPアドレス「10.yyy.zzz.2」が設定されるVM(B)へのパケットは、ルータ3「192.0.2.100」へ送信される。また、IPアドレス「10.yyy.zzz.3」が設定されるVM(C)またはIPアドレス「10.yyy.zzz.4」が設定されるVM(D)へのパケットは、ルータ13「192.0.2.101」へ送信される。
そして、クラウドコントローラ30は、VM(B)のマイグレーション後に、図11の下図に示すように、ルーティングテーブル32aを更新する。具体的には、クラウドコントローラ30は、VM(B)のIPアドレス「10.yyy.zzz.2」に対応付けられるゲートウェイを「192.0.2.100」から「192.0.2.101」へ更新する。つまり、「10.yyy.zzz.2」が設定されるVM(B)へのパケットは、ルータ13「192.0.2.101」へ送信されるように更新される。
このように、同一セグメントのネットワーク70にルータ3やルータ13を介して複数の拠点が接続されている場合であっても、第1の実施形態と同様の手法を用いることで、ユーザ端末10からVMへのアクセスを、マイグレーション前後とも最短経路で実行することができるので、通信遅延を縮小化することができる。
[第3の実施形態]
ところで、第1の実施形態や第2の実施形態では、ユーザ端末10がネットワーク70に直接接続されている例を説明したが、これに限定されるものではない。例えば、ユーザ端末10がルータを介してネットワーク70に接続する構成であっても、同様に処理することができる。
そこで、第3の実施形態では、ユーザ端末10とルータ61とを有するユーザ拠点60がネットワーク70に接続する構成において、マイグレーション前後とも最短経路でアクセスすることができる例を説明する。
図12は、第3の実施形態に係るシステムの全体構成例を示す図である。図10に示すシステム構成図と第1の実施形態のシステム構成図とが異なる点は、ユーザ拠点60を有する点である。
ユーザ拠点60は、ユーザ端末10とルータ61とを有する拠点である。ユーザ端末10は、第1の実施形態や第2の実施形態で説明したユーザ端末と同様である。なお、第3の実施形態では、ユーザ端末10は、ルータ4等と同一セグメントのネットワーク70ではなく異なるネットワークのIPアドレスが設定されていてもよい。
ルータ61は、ユーザ端末10と各拠点のVMとの通信を中継するルータである。このルータ61は、ユーザ端末10側のインタフェースとネットワーク70側のインタフェースとを有する。ユーザ端末10側のインタフェースには、ユーザ端末10と同一ネットワークセグメントのIPアドレスが設定される。ネットワーク70側のインタフェースには、ネットワーク70側と同一ネットワークセグメントのIPアドレス、すなわち、ルータ4のインタフェース4aやルータ14の同一ネットワークセグメントのインタフェース14aとが設定される。
このような状態において、ユーザ端末10は、Webサーバ40へアクセスして、Web画面等を用いて出張先の情報を登録し、サービス等の移動を要求する(S301)。ここでは、第1の実施形態と同様、Webサーバ40は、ユーザID「U001」、移動元「札幌」、移動先「福岡」、移動対象「Webサーバ(VM(B))」の入力を受け付けたとする。
続いて、クラウドコントローラ30は、要求された指示通り、拠点(札幌)1のデータセンタ2で動作するVM(B)を拠点(福岡)11のデータセンタ12へマイグレーションさせる(S302)。
続いて、クラウドコントローラ30は、Webサーバ40が受け付けたマイグレーション内容に基づいて、ルーティングテーブル32aを更新する(S303)。具体的には、クラウドコントローラ30は、Webサーバ40からマイグレーション内容を取得し、移動対象のVMへのアクセスが移動先のデータセンタのルータになるように、ルーティングテーブル32aを更新する。
その後、クラウドコントローラ30は、ユーザ拠点60のルータ61からルーティング情報の取得要求を受信した場合に、更新したルーティングテーブル32aの情報を、ルータ61に送信する(S304)。ルータ61が取得要求を送信するタイミングは、ユーザ端末10で例示したタイミングを利用することができる。
このように、ユーザ拠点60のルータ61に対してルーティングテーブルの更新を実行することができる。したがって、ルータ61は、ユーザ端末10からVM(B)へのアクセスを受信した場合、移動元のデータセンタ2のルータ4ではなく、移動後のデータセンタ12のルータ14へアクセスを中継することができる。
この結果、ユーザ拠点60に複数のユーザ端末10が存在する場合に、ルータ61のルーティングテーブルを更新するだけで、マイグレーション前後に関らず、各ユーザ端末10が最短経路で実行することができるので、通信遅延を縮小化することができる。
また、ユーザ端末10各々のルーティングテーブルを更新する処理量を削減することができ、通信遅延を縮小化するまでのタイムラグの削減にも繋がる。また、各ユーザ端末の各ルーティングテーブルを更新する場合に比べて、ルータ61のルーティングテーブルを更新するだけなので、更新作業の処理ミスによる通信切断の危険性も抑制できる。
さらに、第1の実施形態と第2の実施形態の関係と同様、第3の実施形態に対してネットワーク70と各拠点との間にさらにルータが存在しても同様に処理することができる。図13は、第3の実施形態に係るシステムにおいてさらにルータを接続したシステムの全体構成例を示す図である。図13に示すシステム構成図と図12に示すシステム構成図とが異なる点は、ルータ3とルータ13を有する点である。
図13のシステム構成であっても、第3の実施形態と同じ手法を用いることで、ルータ61のルーティングテーブルを更新することができる。具体的には、クラウドコントローラ30は、ルーティングテーブル32aにおいて「VM(B)、ルータ3」の対応付けを「VM(B)、ルータ13」に更新し、更新した情報をルータ61へ提供する。
こうすることで、ルータ61は、ユーザ端末10からVM(B)へのアクセスを受信した場合、移動元のデータセンタ2のルータ4に接続されるルータ3ではなく、移動後のデータセンタ12のルータ14に接続されるルータ13へアクセスを中継することができる。
[第4の実施形態]
さて、これまで本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施形態を説明する。
(ルータ数および拠点数)
例えば、上記実施形態では、各拠点における同一ネットワークセグメント内でルータが2台である場合を説明したが、これに限定されるものではなく、3台以上のルータが存在してもよい。
同様に、上記実施形態では、ユーザ拠点60やユーザ端末10が1つの場合を例示したが、これに限定されるものではなく、同一セグメントのネットワーク70には複数のユーザ拠点や複数のユーザ端末が接続されていてもよい。このような場合でも、各ユーザ拠点または各ユーザ端末に対して、上記実施形態と同様の手法を適用することで、通信遅延を縮小化することができる。また、各拠点内のデータセンタの数、データセンタ内または拠点内のルータの数、データセンタを有する拠点等の数についても、図示したものに限定されず、任意の数を設定することができる。
(マイグレーション契機)
上記実施形態では、一例として、ユーザがVMのマイグレーションを要求する具体例を用いて説明したが、マイグレーションの契機は任意に設定できる。例えば、管理者がメンテナンス等でVMをマイグレーションさせた場合やリソース低下に伴ってVMが自動的にマイグレーションするような場合であっても、上記実施形態と同様の手法を適用することができる。
(ルーティング情報の取得手法)
上記実施形態では、ユーザ端末10やルータ61は、クラウドコントローラ30からルーティング情報を取得する例を説明したが、これに限定されるものではない。例えば、Webサーバ40が、クラウドコントローラ30と同様のルーティング情報を保持し、ユーザ端末10やルータ61が、Webサーバ40からルーティング情報を取得することもできる。
この場合、Webサーバ40は、専用線等で接続されるクラウドコントローラ30からルーティング情報を取得して記憶する。この結果、ユーザ端末10がクラウドコントローラ30に直接アクセスすることがないので、セキュリティの向上にも繋がる。また、クラウドコントローラ30等が、所定のタイミングで能動的に、ユーザ端末10やルータ61にルーティング情報を送信してもよく、ルーティングテーブルを直接更新してもよい。
(IPアドレス)
上記実施形態で例示したIPアドレスはあくまで例示であり、数値等を限定するものではない。また、上記実施形態ではIPv4の表示形式を用いて説明したが、この限定されるものではなく、IPv6であっても同様に処理することができる。
(ルータ)
上記実施形態のルータ4やルータ14は、NAT変換やルーティング等を実行して通信を中継する。例えば、ルータ4は、インタフェース4aにグローバルIPアドレスが設定され、インタフェース4bにプライベートIPアドレスが設定されている場合、一般的なNAT変換を用いて、グローバルIPアドレスからプライベートIPアドレスへの変換やプライベートIPアドレスからグローバルIPアドレスへの変換を実行して、通信を中継する。また、各ルータは、ルーティングテーブルを保持し、ルーティングテーブルに対して経路情報を静的または動的に設定し、ルーティングテーブルに記憶される経路情報に基づいて、通信を中継する。
(システム構成等)
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示された構成要素と同一であることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともできる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(プログラム)
また、上記実施形態に係るクラウドコントローラ30が実行する処理をコンピュータが実行可能な言語で記述したアドレス管理プログラムを作成することもできる。この場合、コンピュータがテーブル更新プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるテーブル更新プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたテーブル更新プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
以下に、図3等に示したクラウドコントローラ30と同様の機能を実現するテーブル更新プログラムを実行するコンピュータの一例を説明する。
図14は、テーブル更新プログラムを実行するコンピュータを示す図である。図14に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図14に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。
また、テーブル更新プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明した要求受付部34と同様の情報処理を実行する要求受付手順と、マイグレーション実行部35と同様の情報処理を実行するマイグレーション実行手順と、設定変更部36と同様の情報処理を実行する設定変更手順とが記述されたプログラムモジュールが、ハードディスクドライブ1090に記憶される。
また、テーブル更新プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、テーブル更新プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、テーブル更新プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
1 拠点(札幌)
2、12 データセンタ
3、13 ルータ
4、14 ルータ
5、15 OVS
11 拠点(福岡)
20 ネットワーク
21 仮想L2ネットワーク
22 ネットワークセグメント
30 クラウドコントローラ
31 通信制御部
32 記憶部
32a ルーティングテーブル
33 制御部
34 要求受付部
35 マイグレーション実行部
36 設定変更部
40 Webサーバ

Claims (6)

  1. 第1の拠点において第1のネットワークセグメントで動作する仮想マシンが、第2の拠点における前記第1のネットワークセグメント内にマイグレーションされた場合に、前記第2の拠点内を前記第1のネットワークセグメントと第2のネットワークセグメントとに分割するネットワーク装置を経由して前記仮想マシンへ通信する経路情報を生成する生成部と、
    前記第2のネットワークセグメントの第3の拠点から前記仮想マシンへの経路情報が要求された場合に、前記生成部によって生成された前記経路情報を前記第3の拠点に送信する送信部と
    を有することを特徴とする管理装置。
  2. 前記送信部は、前記第2の拠点の前記ネットワーク装置とトンネリング通信で接続して前記第2のネットワークセグメントを利用する前記第3の拠点に、前記生成部によって生成された前記経路情報を送信することを特徴とする請求項1に記載の管理装置。
  3. 前記送信部は、前記第3の拠点が有するユーザ端末、または、前記ユーザ端末と前記第1の拠点または第2の拠点との通信を中継するネットワーク装置に対して、前記生成部によって生成された前記経路情報を送信することを特徴とする請求項1または2に記載の管理装置。
  4. 前記送信部は、前記第3の拠点が有するユーザ端末またはネットワーク装置が有するルーティングテーブルにおける前記仮想マシンへの経路情報を、前記第1の拠点内を前記第1のネットワークセグメントと第2のネットワークセグメントとに分割するネットワーク装置を経由する経路情報から前記生成部によって生成された前記経路情報に書き換えることを特徴とする請求項3に記載の管理装置。
  5. 情報処理装置で実行される経路情報生成方法であって、
    第1の拠点において第1のネットワークセグメントで動作する仮想マシンが、第2の拠点における前記第1のネットワークセグメント内にマイグレーションされた場合に、前記第2の拠点内を前記第1のネットワークセグメントと第2のネットワークセグメントとに分割するネットワーク装置を経由して前記仮想マシンへ通信する経路情報を生成する生成工程と、
    前記第2のネットワークセグメントの第3の拠点から前記仮想マシンへの経路情報が要求された場合に、前記生成工程によって生成された前記経路情報を前記第3の拠点に送信する送信工程と
    を含んだことを特徴とする経路情報生成方法。
  6. 情報処理装置に、
    第1の拠点において第1のネットワークセグメントで動作する仮想マシンが、第2の拠点における前記第1のネットワークセグメント内にマイグレーションされた場合に、前記第2の拠点内を前記第1のネットワークセグメントと第2のネットワークセグメントとに分割するネットワーク装置を経由して前記仮想マシンへ通信する経路情報を生成する生成ステップと、
    前記第2のネットワークセグメントの第3の拠点から前記仮想マシンへの経路情報が要求された場合に、前記生成ステップによって生成された前記経路情報を前記第3の拠点に送信する送信ステップと
    を実行させることを特徴とする経路情報生成プログラム。
JP2013140786A 2013-07-04 2013-07-04 管理装置、経路情報生成方法および経路情報生成プログラム Expired - Fee Related JP5952229B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013140786A JP5952229B2 (ja) 2013-07-04 2013-07-04 管理装置、経路情報生成方法および経路情報生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013140786A JP5952229B2 (ja) 2013-07-04 2013-07-04 管理装置、経路情報生成方法および経路情報生成プログラム

Publications (2)

Publication Number Publication Date
JP2015015584A JP2015015584A (ja) 2015-01-22
JP5952229B2 true JP5952229B2 (ja) 2016-07-13

Family

ID=52437029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140786A Expired - Fee Related JP5952229B2 (ja) 2013-07-04 2013-07-04 管理装置、経路情報生成方法および経路情報生成プログラム

Country Status (1)

Country Link
JP (1) JP5952229B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846192B2 (en) * 2018-10-31 2020-11-24 Cisco Technology, Inc. Transaction-based event tracking mechanism

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8532116B2 (en) * 2009-07-21 2013-09-10 Cisco Technology, Inc. Extended subnets
JP5190084B2 (ja) * 2010-03-30 2013-04-24 株式会社日立製作所 仮想マシンのマイグレーション方法およびシステム
JP2012165172A (ja) * 2011-02-07 2012-08-30 Fujitsu Telecom Networks Ltd 通信システム、通信装置および監視制御装置
JP5486526B2 (ja) * 2011-02-17 2014-05-07 日本電信電話株式会社 制御装置、制御システム、制御方法、及び制御プログラム

Also Published As

Publication number Publication date
JP2015015584A (ja) 2015-01-22

Similar Documents

Publication Publication Date Title
US9935920B2 (en) Virtualization gateway between virtualized and non-virtualized networks
JP5863771B2 (ja) 仮想マシン管理システム、及び仮想マシン管理方法
EP3430512B1 (en) Network virtualization of containers in computing systems
EP1932320B1 (en) Method, apparatus and system for maintaining mobility resistant ip tunnels using a mobile router
US11159344B1 (en) Connectivity of cloud edge locations to communications service provider networks
JP5980725B2 (ja) ネットワーク装置、中継管理方法、中継管理プログラムおよび通信システム
US10116622B2 (en) Secure communication channel using a blade server
US11425054B1 (en) User-configured multi-location service deployment and scaling
JP5813699B2 (ja) 通信システム、管理装置、管理方法および管理プログラム
JP6013980B2 (ja) アドレス割当装置およびアドレス割当プログラム
JP5980724B2 (ja) ネットワーク装置、中継管理方法、中継管理プログラムおよび通信システム
JP6039517B2 (ja) 管理装置、通信システム、管理方法、および、管理プログラム
JP6009415B2 (ja) 通信システム、管理装置、管理方法、および、管理プログラム
JP5952229B2 (ja) 管理装置、経路情報生成方法および経路情報生成プログラム
US11595347B1 (en) Dual-stack network addressing in cloud provider network edge locations
JP5972838B2 (ja) 管理装置、通信システム、管理方法、および、管理プログラム
KR102595308B1 (ko) 인터넷 망의 사용자 단말이 원격 서비스를 실행하기 위하여 사설망에 접속할 수 있도록 하는 사설망 접속 제어장치 및 그것의 제어 방법
JP5964786B2 (ja) 管理装置、通信システム、管理方法、および、管理プログラム
JP5960650B2 (ja) 情報処理装置、通信システム、管理方法、および、管理プログラム
US20170116016A1 (en) Screen compression service method and virtual network apparatus for performing the method
JP6013981B2 (ja) 通信システム、管理装置、管理方法および管理プログラム
Nagafuchi et al. Routing optimization for live VM migration between datacenters
JP5940502B2 (ja) ルータ、通信システム、管理方法、および、管理プログラム
JP2015001827A (ja) 管理装置、管理方法、管理プログラムおよび通信システム
JP5955815B2 (ja) アドレス割当装置、通信システム、管理方法、および、管理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150814

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160609

R150 Certificate of patent or registration of utility model

Ref document number: 5952229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees