JP6013981B2 - 通信システム、管理装置、管理方法および管理プログラム - Google Patents

通信システム、管理装置、管理方法および管理プログラム Download PDF

Info

Publication number
JP6013981B2
JP6013981B2 JP2013126104A JP2013126104A JP6013981B2 JP 6013981 B2 JP6013981 B2 JP 6013981B2 JP 2013126104 A JP2013126104 A JP 2013126104A JP 2013126104 A JP2013126104 A JP 2013126104A JP 6013981 B2 JP6013981 B2 JP 6013981B2
Authority
JP
Japan
Prior art keywords
virtual machine
address
base
migration
default gateway
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013126104A
Other languages
English (en)
Other versions
JP2015002439A (ja
Inventor
永渕 幸雄
幸雄 永渕
高明 小山
高明 小山
泰大 寺本
泰大 寺本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013126104A priority Critical patent/JP6013981B2/ja
Publication of JP2015002439A publication Critical patent/JP2015002439A/ja
Application granted granted Critical
Publication of JP6013981B2 publication Critical patent/JP6013981B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、通信システム、管理装置、管理方法および管理プログラムに関する。
近年、クラウドコンピューティングが普及し、データセンタに設置される物理サーバのリソースを用いて仮想環境を構築して、ユーザに各種サービスを提供することが行われている。また、仮想スイッチを用いて、異なるデータセンタ間を跨ったL2ネットワーク構築も行われている。
例えば、部門サーバ、経理サーバ、出退勤管理サーバ、ファイルサーバなどを仮想マシン(以下、VM(Virtual Machine)と記載する場合がある)によって実現する企業(Z)を例にして説明する。企業(Z)では、拠点(札幌)のデータセンタ(X)で仮想マシン(A)と仮想マシン(B)とを動作させ、拠点(福岡)のデータセンタ(Y)で仮想マシン(C)と仮想マシン(D)とを動作させる。そして、Open vSwitchなどによる仮想スイッチを用いて、データセンタ(X)とデータセンタ(Y)とを仮想L2ネットワークで接続する。
このようにして、企業(Z)では、異なるデータセンタで動作して各サービスを提供する仮想マシン間の通信を実現することで、各拠点にいる社員に対して、拠点に依存することなく、各種サービスの提供を行う。
石井久治、上野和風、田上啓介、飯田浩二、藤田智成、森田和孝著、「オープンソースlaaS クラウド基盤OpenStack」、NTT技術ジャーナルVol.23、No.8、2011. 北爪秀雄、小山高明、田島佳武、岸寿春、井上朋子著、「クラウドサービスを支えるネットワーク仮想化技術」、NTT技術ジャーナルVol.23、No.10、2011.
しかしながら、上記技術では、仮想マシンのマイグレーション等が発生した場合に、通信経路が冗長になり、通信遅延が発生するという問題がある。
一例として、上記企業(Z)を例にして説明すると、社員のパーソナルコンピュータ(以下、PCと記載する場合がある)は、インターネットなどを用いて各拠点に接続して仮想マシンを利用する状況において、拠点(札幌)の社員が拠点(福岡)に出張することに伴って、利便性等を向上させるために、仮想マシン(B)を拠点(福岡)のデータセンタ(Y)にマイグレーションさせたとする。この場合、インターネットを利用する社員のPCのデフォルトゲートウェイは、ISP(Internet Service Provider)が指定したルータのIPアドレスとなる。また、マイグレーションした仮想マシン(B)のデフォルトゲートウェイは、マイグレーション元のデータセンタ(X)のルータが設定される。
このため、社員が出張先の福岡から仮想マシン(B)にアクセスした場合、社員のPCは、VM(B)からの応答を、出張先である拠点(福岡)のデータセンタ(Y)、データセンタ間の仮想L2ネットワーク、出張元である拠点(札幌)のデータセンタ(X)を経由して受信する。つまり、社員のPCは、出張に伴って仮想マシン(B)を出張先にマイグレーションさせたにも関らず、出張元を経由して仮想マシン(B)からの応答を受信することになる。このように、仮想マシン(B)からユーザ端末への通信距離が長くなり、無駄に遅延が大きくなる。
また、仮想マシン(B)のデフォルトゲートウェイを変更することも考えられるが、管理者でもない社員にネットワークの設定変更を実行させることは、セキュリティの観点からも現実的ではない。
開示の技術は、上記に鑑みてなされたものであって、通信遅延を縮小化することができる通信システム、管理装置、管理方法および管理プログラムを提供することを目的とする。
本願の一実施形態は、同一拠点内の仮想マシンに対してデフォルトゲートウェイを設定するアドレス割当装置と、前記アドレス割当装置のアドレスに関する情報を管理する管理装置とを有し、各ネットワーク装置が同一ネットワークセグメント内で同一のアドレスが設定された通信システムであって、前記管理装置が、第1の拠点で動作する仮想マシンを第2の拠点へマイグレーションするマイグレーション実行部と、前記マイグレーション実行部によってマイグレーションが実行された後に、前記第2の拠点のアドレス割当装置に対して、前記マイグレーションした仮想マシンをデフォルトゲートウェイの設定対象の仮想マシンとして設定を更新させる更新部と、を有し、前記アドレス割当装置が、前記設定対象とする仮想マシンのアドレスを記憶する記憶部と、仮想マシンから前記デフォルトゲートウェイの設定要求を受け付け、該仮想マシンのアドレス情報が前記記憶部に記憶されている場合には、該仮想マシンに対してデフォルトゲートウェイを設定する設定部と、を有することを特徴とする。
本願の一実施形態によれば、通信遅延を縮小化することができる。
図1は、第1の実施形態に係るシステムの全体構成例を示す図である。 図2は、VMを動作させる物理サーバの階層構造を示す図である。 図3は、クラウドコントローラの機能構成を示す機能ブロック図である。 図4は、管理テーブルに記憶される情報の例を示す図である。 図5は、DHCPサーバの機能構成を示す機能ブロック図である。 図6は、アドレス管理テーブルに記憶される情報の例を示す図である。 図7は、VMのマイグレーション後にIPアドレスを変更する具体例を説明する図である。 図8は、出張先情報を登録する画面例を示す図である。 図9は、アドレス管理テーブルの更新例を説明する図である。 図10は、マイグレーション後の経路が変更される例を説明する図である。 図11は、第1の実施形態に係るクラウドコントローラにおけるテーブル更新処理の流れを示すフローチャートである。 図12は、中継管理プログラムを実行するコンピュータを示す図である。
以下に、本願の開示する通信システム、管理装置、管理方法および管理プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。以下に説明する実施形態は、矛盾のない範囲で適宜組み合わせることができる。
[第1の実施形態]
(全体構成)
図1は、第1の実施形態に係るシステムの全体構成例を示す図である。図1に示すように、このシステムは、例えば企業の拠点間をネットワークで接続するシステムであり、それぞれデータセンタを有する拠点(札幌)1と拠点(福岡)11各々とWebサーバ50とがインターネットなどのネットワーク20で接続される。
Webサーバ50は、ユーザ端末10から、マイグレーションさせる仮想マシン(以下、VM(Virtual Machine)の情報を受け付けるサーバ装置であり、物理装置で実現される。例えば、Webサーバ50は、拠点(札幌)1で動作するVM(B)を、拠点(福岡)11にマイグレーションさせるなどの指示を受け付けて、受け付けた指示内容を後述するクラウドコントローラ30に送信する。
例えば、Webサーバ50は、ユーザ端末10からマイグレーション要求を受信すると、Web画面などをユーザ端末10に表示させる。そして、Webサーバ50は、Web画面上で、マイグレーション対象およびマイグレーション先の入力を受け付けて、受け付けた情報をクラウドコントローラ30に送信する。
(拠点(札幌))
拠点(札幌)1は、ユーザ端末10とデータセンタ2とを有する。ユーザ端末10は、データセンタ2または拠点(福岡)11のデータセンタ12等で動作する仮想マシンにアクセスして、各種サービスを利用する端末装置であり、例えばノートパソコンやスマートフォンなどである。
データセンタ2は、1台以上の物理サーバが設置され、クラウドコントローラ30や物理サーバの物理リソースを用いて仮想マシン(以下、VM(Virtual Machine)と記載する場合がある)を動作させるデータセンタである。なお、物理リソースとしては、通信インタフェース、プロセッサ、メモリ、ハードディスクなどである。
具体的には、データセンタ2は、CE(Customer Edge)ルータ3、ルータ4、OVS(Open vSwitch)5、VM(A)、VM(B)、クラウドコントローラ30、DHCP(Dynamic Host Configuration Protocol)サーバ40を有する。CEルータ3は、インターネットなどの通信事業者ネットワーク1aと企業内LAN(Local Area Network)などの企業内ネットワークとの境界に設置されたエッジルータであり、このCEルータ3は、物理装置で実現される。
ルータ4は、企業内ネットワークにおいて、拠点(札幌)1のデータセンタ2と拠点(福岡)11のデータセンタ12とを同じネットワークセグメント22で分割するルータである。すなわち、ルータ4は、ユーザ端末10と各データセンタの各VMとの通信を中継する。このルータ4のインタフェース4aは、CEルータ3と接続されるインタフェースであり、IP(Internet Protocol)アドレスとして「IP(4a)」が設定される。また、ルータ4のインタフェース4bは、各VMと接続されるインタフェースであり、IPアドレスとして「IP(10)」が設定される。
したがって、拠点(札幌)1で使用されるユーザ端末10には、デフォルトゲートウェイとして「IP(4a)」が接続される。このため、ユーザ端末10は、各VMにアクセスする場合は、ルータ4を経由してアクセスする。なお、このルータ4は、仮想マシンで実現されてもよく、物理装置で実現されてもよい。
OVS5は、各データセンタの各ルータと各VMとを中継するスイッチであり、データセンタ12のOVS15と協働して、データセンタ間を仮想L2ネットワーク21で接続する仮想スイッチである。例えば、OVS5は、ルータ4のインタフェース4b、VM(A)、VM(B)、データセンタ12のOVS15、クラウドコントローラ30、DHCPサーバ40のそれぞれと接続される。
VM(A)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「IP(A)」、MAC(Media Access Control)アドレスとして「MAC(A)」が設定される。VM(B)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「IP(B)」、MACアドレスとして「MAC(B)」が設定される。これらのVMは、OVS5を介して、ユーザ端末10と通信を実行する。
DHCPサーバ(ネットワーク設定装置)40は、同一拠点内のVM(VM(A)、VM(B))に対しネットワーク設定情報を送信する。このネットワーク設定情報は、VMがデータ通信を行うための設定情報であり、VMに割り当てるIPアドレス、VMの利用するデフォルトゲートウェイのIPアドレスなどを含む。
なお、DHCPサーバ40がVM(B)等へ送信するネットワーク設定情報は、当該DHCPサーバ40の属する拠点に設置されるDNS(Domain Name System)サーバのIPアドレスを含んでいてもよい。これにより、データセンタ間でVM(B)等のマイグレーションが行われたとき、当該VM(B)等は、マイグレーション先の拠点に設置されるDNSサーバを利用することになる。よって、VM(B)等のマイグレーション後、当該VM(B)等が通信先のホスト名から、通信先のIPアドレスを特定するときの通信遅延を縮小化できる。
クラウドコントローラ30は、VMを管理するサーバ装置である。このクラウドコントローラ30は、物理装置で実現されてもよく、仮想マシンで実現されてもよい。例えば、クラウドコントローラ30は、各拠点で動作するVMのIPアドレスやMACアドレスを記憶する。
また、クラウドコントローラ30は、ユーザ操作、管理者操作、予め定められた所定契機などで、所望のVMを他の拠点にマイグレーションさせる。例えば、クラウドコントローラ30は、Webサーバ50から、データセンタ2で動作するVM(B)をデータセンタ12にマイグレーションさせる指示を受信する。すると、クラウドコントローラ30は、受信した指示にしたがって、VM(B)をデータセンタ12にマイグレーションさせる。また、クラウドコントローラ30は、Webサーバを介することなく、ネットワーク管理者や保守者からの操作を直接受け付けて、マイグレーションを開始してもよい。
なお、本実施形態では、拠点(札幌)1のデータセンタ2内にクラウドコントローラ30を設置した例で説明したが、これに限定されるものではない。例えば、拠点(福岡)11のデータセンタ12内に設置されていてもよい。また、クラウドコントローラ30とWebサーバ50とを統合したサーバをインターネット20に接続してもよい。
クラウドコントローラ30をインターネット20上に接続する場合、クラウドコントローラ30から各VMやDHCPサーバ40への通信は、ルータ4等でアドレス変換やポート変換が行われる。また、クラウドコントローラ30と各VM等との間を、暗号化トンネリング通信等で接続してもよい。
(拠点(福岡))
拠点(福岡)11は、データセンタ12を有する。データセンタ12は、1台以上の物理サーバが設置され、物理サーバの物理リソースを用いて仮想マシンを動作させるデータセンタである。
具体的には、データセンタ12は、CEルータ13、ルータ14、OVS15、VM(C)、VM(D)を有する。CEルータ13は、インターネットなどの通信事業者ネットワーク11aと企業内LANなどの企業ネットワークとの境界に設置されたエッジルータであり、このCEルータ13は、物理装置で実現される。
ルータ14は、企業内ネットワークにおいて、拠点(札幌)1のデータセンタ2と拠点(福岡)11のデータセンタ12とを同じネットワークセグメント22で分割するルータである。すなわち、ルータ14は、外部装置と各データセンタの各VMとの通信を中継する。このルータ14のインタフェース14aは、CEルータ13と接続されるインタフェースであり、IPアドレスとして「IP(14a)」が設定される。また、ルータ14のインタフェース14bは、各VMと接続されるインタフェースであり、IPアドレスとして「IP(20)」が設定される。なお、このルータ14は、仮想マシンで実現されてもよく、物理装置で実現されてもよい。
OVS15は、各データセンタの各ルータと各VMとを中継するスイッチであり、データセンタ2のOVS5と協働して、データセンタ間を仮想L2ネットワーク21で接続する仮想スイッチである。例えば、OVS15は、ルータ14のインタフェース14b、VM(C)、VM(D)、データセンタ2のOVS5のそれぞれと接続される。
VM(C)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「IP(C)」が設定される。VM(D)は、例えばWebサーバやDBサーバなどを実行する仮想マシンであり、IPアドレスとして「IP(D)」が設定される。これらのVMは、OVS15を介して、データセンタ12外の外部装置と通信を実行する。
DHCPサーバ(ネットワーク設定装置)40aは、同一拠点内のVM(VM(C)、VM(D))に対しネットワーク設定情報を送信する。このネットワーク設定情報は、VMがデータ通信を行うための設定情報であり、VMに割り当てるIPアドレス、VMの利用するデフォルトゲートウェイのIPアドレスなどを含む。
なお、DHCPサーバ40aにはそれぞれ、自身のDHCPサーバ40aの属するデータセンタ(または拠点)におけるデフォルトゲートウェイのIPアドレスを保持しており、DHCPサーバ40が同一拠点内のVMへネットワーク設定情報を送信する際には、デフォルトゲートウェイを含めて送信する。
(ネットワーク構成)
上述したように、ルータ4のインタフェース4bとルータ14のインタフェース14bには、異なるIPアドレスが設定されている。具体的には、ルータ4のインタフェース4bには、IPアドレスとして「IP(10)」が設定され、ルータ14のインタフェース14bには、IPアドレスとして「IP(20)」が設定されている。また、各VMは、動作する拠点が異なるが、同じネットワークセグメントで動作する。つまり、ルータ4、ルータ14、OVS5、OVS15、VM(A)、VM(B)、VM(C)、VM(D)は、仮想L2ネットワーク21で接続され、同じネットワークセグメント22で動作する。したがって、拠点(福岡)11のルータ14とVM(A)やVM(B)が通信可能に接続されており、拠点(札幌)1のルータ4とVM(C)やVM(D)が通信可能に接続されている。
(階層構造)
図2は、VMを動作させる物理サーバの階層構造を示す図である。なお、ここでは、一例として1台の物理サーバでVMを動作させる例を説明するが、これに限定されるものではなく、複数台の物理サーバを用いて動作させることができる。
データセンタ2では、物理サーバ6が動作し、データセンタ12では、物理サーバ16が動作する。各物理サーバは、一般的なサーバ装置であり、ハードウェア、プロセッサ、メモリ等を有する。
データセンタ2の物理サーバ6は、ハードウェア6a上でハイパーバイザなどの仮想化ソフトウェア6bを動作させて、仮想環境を提供する。仮想化ソフトウェア6bは、仮想スイッチ6cを動作させる。
同様に、データセンタ12の物理サーバ16は、ハードウェア16a上でハイパーバイザなどの仮想化ソフトウェア16bを動作させて、仮想環境を提供する。仮想化ソフトウェア16bは、仮想スイッチ16cを動作させる。
ここで、仮想スイッチ6cと仮想スイッチ16cとは、例えばOpen vSwitch、Open Flow、KVMなどを用いて実現され、仮想L2ネットワーク21を構築する。すなわち、異なるデータセンタ間を仮想ネットワークで通信可能に接続する。
そして、各物理サーバの各仮想化ソフトウェアは、仮想L2ネットワーク21を利用可能な状態で仮想マシンを動作させる。具体的には、仮想化ソフトウェア6bは、物理サーバ6の物理リソースを用いてVM(A)とVM(B)とを動作させ、仮想スイッチ6cを経由して、各VMを仮想L2ネットワーク21に接続する。同様に、仮想化ソフトウェア16bは、物理サーバ16の物理リソースを用いてVM(C)とVM(D)とを動作させ、仮想スイッチ16cを経由して、各VMを仮想L2ネットワーク21に接続する。
(クラウドコントローラの構成)
次に、図1に示したクラウドコントローラ30の構成について説明する。図3は、クラウドコントローラの機能構成を示す機能ブロック図である。図3に示すように、クラウドコントローラ30は、通信制御部31、記憶部32、制御部33を有する。ここでは、クラウドコントローラ30が物理装置である例で説明するが、クラウドコントローラ30がVMで実現されている場合でも、物理リソースを用いて同様の機能が実行される。
通信制御部31は、他の装置の通信を制御する処理部である。例えば、通信制御部31は、Webサーバ50からマイグレーション指示およびマイグレーションに関する情報を受信し、DHCPサーバ40、40aに各種情報を送信する。
記憶部32は、メモリやハードディスクなどの記憶装置であり、管理テーブル32aを保持する。なお、クラウドコントローラ30が仮想マシンである場合には、記憶部32は、クラウドコントローラ30に対して割り当てられた、物理サーバのメモリやハードディスクの所定領域などが該当する。
管理テーブル32aは、VMのIPアドレスと、VMのデフォルトGWのIPアドレスとを記憶するテーブルである。図4は、管理テーブルに記憶される情報の例を示す図である。図4に示すように、管理テーブル32aは、「DHCP」、「管理VM」、「拠点」を対応付けて記憶する。ここで記憶される「DHCP」は、DHCPサーバを識別する情報であり、「管理VM」は、各DHCPサーバが管理するVMを示す情報であり、「拠点」は、各DHCPサーバが属する拠点(またはデータセンタ)を示す情報である。
例えば、図4の一例を用いて説明すると、管理テーブル32aは、DHCPサーバ40が管理するVMが「VM(A)」および「VM(B)」であって、DHCPサーバ40が属する拠点が「拠点(札幌)」であることを記憶している。
制御部33は、プロセッサなどの電子回路であり、要求受付部33a、マイグレーション実行部33b、テーブル更新部33cを有する。つまり、各処理部は、プロセッサなどが実行するプロセスやプロセッサが有する電子回路などである。クラウドコントローラ30が仮想マシンである場合には、制御部33は、クラウドコントローラ30に対して割り当てられた、物理サーバのプロセッサが実行する処理部である。
要求受付部33aは、Webサーバ50がユーザ端末10から受け付けたVMのマイグレーション指示を受信する処理部である。例えば、要求受付部34は、拠点1のVM(B)を拠点11にマイグレーションさせる指示を受信し、受信した情報をマイグレーション実行部33bに出力する。要求受付部33aは、Webサーバ50からのマイグレーション指示として、例えば、移動元を示す情報である「移動元」(例えば、「札幌」)、移動先を示す情報である「移動先」(例えば、「福岡」)、移動対象となるサービスやVMを示す「移動対象」を受け付ける。
マイグレーション実行部33bは、Webサーバ50から受け付けたマイグレーション実行要求に応じて、VMのマイグレーションを実行する。具体的には、マイグレーション実行部33bは、移動対象のVMを、移動元の拠点のデータセンタから移動先の拠点のデータセンタにマイグレーションさせる。
例えば、マイグレーション実行部33bは、Webサーバ50から、移動元が「札幌」、移動先が「福岡」、移動対象が「VM(B)」であるマイグレーション実行要求を受け付けた場合には、クラウドコントローラ30は、拠点(札幌)1のデータセンタ2で動作するVM(B)を、出張先の拠点(福岡)11のデータセンタ12内にマイグレーションさせる処理を実行する。
テーブル更新部33cは、マイグレーション実行部33bによってマイグレーションが実行された後に、移動先の拠点内のVMに対してデフォルトGWを設定するDHCPサーバに対して、マイグレーションしたVMをデフォルトGWの設定対象のVMとして設定する。
具体的には、テーブル更新部33cは、マイグレーション実行部33bによって実行されたマイグレーションが完了した後、DHCPサーバ40、40aに対してアドレス管理テーブル42aの更新を指示する。なお、クラウドコントローラ30は、各拠点に設置されたデフォルトGWのIPアドレスについては予め把握しているものとする。
また、テーブル更新部33cは、マイグレーションしたVMをデフォルトGWの設定対象のVMとして設定した後に、該VMにアクセスして、デフォルトゲートウェイ(以下、「デフォルトGW」と略記することがある)のIPアドレスを再取得させる。なお、マイグレーション先のDHCPサーバに対して、マイグレーションしたVMのIPアドレスに対してDHCPを再取得するようにパケットを送付させる(DHCP force renew)ようにしてもよい。
(DHCPサーバの構成)
次に、図1に示したDHCPサーバ40およびDHCPサーバ40aの構成について説明する。なお、DHCPサーバ40とDHCPサーバ40aとは同様の構成を有するので、ここでは、DHCPサーバ40を例にして説明する。図5は、DHCPサーバの機能構成を示す機能ブロック図である。
図5に示すように、DHCPサーバ40は、通信制御部41、記憶部42、制御部43を有する。通信制御部41は、他の装置の通信を制御する処理部である。例えば、通信制御部41は、VM(A)、VM(B)およびクラウドコントローラ30との間で行われる通信を制御する。
記憶部42は、メモリやハードディスクなどの記憶装置であり、アドレス管理テーブル42aを保持する。アドレス管理テーブル42aは、管理対象のVMのMACアドレスおよびデフォルトゲートウェイのIPアドレスの情報を記憶するテーブルである。図6は、アドレス管理テーブルに記憶される情報の例を示す図である。なお、アドレス管理テーブル42aに記憶される情報については、DHCPサーバ40の拠点で動作するVMのアドレスがクラウドコントローラ30により事前に登録されたものである。
図6に示すように、アドレス管理テーブル42aは、「管理VM」、「MACアドレス」、「割り当てGW」を対応付けて記憶する。ここで記憶される「管理VM」は、各DHCPサーバが管理するVMを示す情報であり、「MACアドレス」は、管理対象であるVMのMACアドレスであり、「割り当てGW」は、管理対象であるVMに割り当てられたデフォルトGWのIPアドレスである。
例えば、図6の一例を用いて説明すると、アドレス管理テーブル42aは、「VM(A)」のMACアドレスが「MAC(A)」であり、割り当てられたデフォルトGWのIPアドレスが「IP(10)」であることを記憶している。
制御部43は、プロセッサなどの電子回路であり、更新情報受付部43a、テーブル更新部43b、アドレス割当部43cを有する。つまり、各処理部は、プロセッサなどが実行するプロセスやプロセッサが有する電子回路などである。
更新情報受付部43aは、クラウドコントローラ30からアドレス管理テーブル42aの更新指示を受け付ける。例えば、更新情報受付部43aは、クラウドコントローラ30からアドレス管理テーブル42aに対するVMの情報の追加または削除の指示を受け付ける。
テーブル更新部43bは、更新情報受付部43aによって更新指示を受け付けると、更新指示に応じて、管理対象のVMを更新する。例えば、テーブル更新部43bは、クラウドコントローラ30からアドレス管理テーブル42aに対するVMの情報の追加を受け付けた場合には、VMの情報の追加を行い、削除の指示を受け付けた場合には、VMの情報の削除を行う。
アドレス割当部43cは、同一拠点内のVMからDHCPリクエストを受信した場合に、割り当て可能なデフォルトGWのIPアドレスを応答し、VMに対してデフォルトGWの設定を行う。例えば、アドレス割当部43cは、DHCPリクエストを受信した場合に、アドレス管理テーブル42aを参照し、VMのMACアドレスがアドレス管理テーブル42aに記憶されている場合には、該VMに対してデフォルトGWを設定する。
(具体例)
次に、ユーザ端末10のユーザが拠点(札幌)1から拠点(福岡)11へ出張するのに伴って、利便性向上のために、ユーザが利用するVM(B)をデータセンタ12へマイグレーションさせた場合に、ルータが中継対象を変更する例を説明する。
図7は、VMのマイグレーション後にIPアドレスを変更する具体例を説明する図である。図7に示すように、ユーザ端末10は、Webサーバ50へアクセスして、Web画面等を用いて出張先の情報を登録し、サービス等の移動を要求する(S101)。図8は、出張先情報を登録する画面例を示す図である。Webサーバ50は、ユーザ端末10からのアクセスを受け付けると、図8に示す画面をユーザ端末10に応答する。
図8に示す画面は、「ユーザID、移動元、移動先、移動対象」を入力させる画面である。「ユーザID」は、出張するユーザの識別子である。「移動元」は、出張元を示す情報であり、「移動先」は、出張先を示す情報であり、「移動対象」は、出張先で使用するサービスやサーバを特定する情報である。この「移動元」、「移動先」、「移動対象」は、例えばプルダウンメニュー等で容易に選択することができる。
ここでは、図8に示すように、Webサーバ50は、ユーザID「U001」、移動元「札幌」、移動先「福岡」、移動対象「Webサーバ(VM(B))」の入力を受け付けたものとする。
続いて、クラウドコントローラ30は、Webサーバ50からマイグレーション内容を取得し、取得したマイグレーション内容に基づいて、拠点(札幌)1のデータセンタ2で動作するVM(B)を、出張先の拠点(福岡)11のデータセンタ12内にマイグレーションさせる(S102)。また、ユーザ端末10が拠点(札幌)1から拠点(福岡)11に移動する(S103)。
そして、クラウドコントローラ30は、VM(B)のマイグレーションが完了すると、DHCPサーバ40、40aに対してアドレス管理テーブル42aの更新を指示する(S104)。具体的には、DHCPサーバ40は、アドレス管理テーブル42aからVM(B)の情報を削除する。また、DHCPサーバ40aは、アドレス管理テーブル42aからVM(B)の情報を追加する。図9は、アドレス管理テーブルの更新例を説明する図である。
図9に示すように、DHCPサーバ40aは、アドレス管理テーブル42aに管理VM「VM(B)」、MACアドレス「MAC(B)」、割り当てGW「IP(20)」を追加する。このとき、DHCPサーバ40は、アドレス管理テーブル42aからVM(B)に関する情報を削除する。
図10は、マイグレーション後の経路が変更される例を説明する図である。図10は、VM(B)のマイグレーションおよびARPテーブルの更新が完了した後、ユーザ端末10が出張先の拠点(福岡)11からVM(B)にアクセスした例を図示している。
図10に示すように、従来のように、VM(B)のデフォルトゲートウェイがルータ14に変更されずルータ4のままである場合は、ユーザ端末10は、VM(B)からの応答を、OVS15、仮想L2ネットワーク21、OVS5、ルータ4、CEルータ3を経由するルート51の経路で受信する。
これに対して、上記実施形態によってVM(B)のデフォルトゲートウェイがマイグレーション先のルータ14に変更された場合、ユーザ端末10は、VM(B)からの応答について、OVS15、ルータ14、CEルータ13を経由するルート52で受信する。
(効果)
上述したように、デフォルトGWを、拠点毎に用意し、DHCPを用いて、VMのマイグレーションを管理するクラウドコントローラ30からマイグレーション時に直接DHCPサーバが記憶するアドレス管理テーブル42aを書き換えることにより、応答するDHCPを同一拠点内に存在するDHCPサーバに切り替える。このため、図10に示したように、VMからユーザ端末10への通信を最短経路で実行することができるので、通信遅延を縮小化することができる。
また、ユーザが設定変更などの専門的な作業を行わずに、VMからユーザ端末への通信を最短経路で実行することができるので、ユーザの負荷増加を低減しつつ、通信遅延を縮小化することができる。
また、VMのマイグレーション後も通信遅延を縮小化することができるので、VMのマイグレーションを頻繁に実行しても通信遅延が抑制でき、仮想環境のメンテナンスや物理サーバのメンテナンスを手軽に実行でき、システムの信頼性が向上する。さらには、仮想マシンを用いたシステム構築の汎用性が向上する。
(クラウドコントローラによる処理の流れ)
図11は、第1の実施形態に係るクラウドコントローラにおけるテーブル更新処理の流れを示すフローチャートである。図11に示すように、クラウドコントローラ30の要求受付部33aがWebサーバ50からマイグレーション実行要求を受け付けると(ステップS201:Yes)、マイグレーション実行部33bは、Webサーバ50から受け付けたマイグレーション実行要求に応じて、VMのマイグレーションを実行する(ステップS202)。具体的には、マイグレーション実行部33bは、移動対象のVMを、移動元の拠点のデータセンタから移動先の拠点のデータセンタにマイグレーションさせる。
そして、テーブル更新部33cは、マイグレーション実行部33bによって実行されたマイグレーションが完了したか否かを判定する(ステップS203)。この結果、テーブル更新部33cは、マイグレーションが完了していないと判定した場合には(ステップS203:No)、ステップS203の処理を繰り返す。
一方、テーブル更新部33cは、マイグレーションが完了したと判定した場合には(ステップS203:Yes)、DHCPサーバ40、40aが保持するアドレス管理テーブル42aの更新を指示する(ステップS204)。その後、DHCPサーバ40、40aは、同一拠点内のVMからDHCPリクエストを受信した場合に、アドレス管理テーブル42aを参照し、MACアドレスが登録されているVMの場合には、割り当て可能なデフォルトGWのIPアドレスを応答し、VMに対してデフォルトGWの設定を行う。
[第2の実施形態]
さて、これまで本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施形態を説明する。
(ルータ数)
例えば、上記実施形態では、同一ネットワークセグメント内で同一IPアドレスが設定されているルータが2台である場合を説明したが、これに限定されるものではなく、3台以上のルータが存在してもよい。
(VM)
上記実施形態では、各ルータの管理対象がVMである例を説明したが、これに限定されるものではなく、例えば、物理サーバであっても、同様に処理することができる。なお、管理対象テーブル142bにVMのIPアドレスが登録されている場合には、上述した処理では、VMが送信したARP要求から送信元のIPアドレスを抽出して同様の処理を実行する。また、VMに使うIPアドレスは、固定IPでも、DHCPサーバに割り当てられるIPでも、どちらでもよい。
(DHCPサーバ)
上記の実施形態では、VMのマイグレーションが行われるたびに、クラウドコントローラ30が、移動元の拠点内におけるDHCPサーバ40のアドレス管理テーブル42aと、移動先の拠点内におけるDHCPサーバ40aのアドレス管理テーブル42aとを更新する場合を説明したが、これに限定されるものではない。例えば、両拠点のDHCPサーバ40、40aを同様の設定とし、フラグで管理対象のVMを切り替え、両拠点のDHCPサーバ40、40a同士が、管理対象のVMを互いに監視し、DHCPサーバ40の管理対象から外れたVMがあった場合には、他のDHCPサーバ40aが該VMを管理対象とするようにしてもよい。
(ネットワーク構成)
上記実施形態では、ユーザ端末10と各CEルータとがインターネットで接続される例を説明したが、これに限定されるものではない。例えば、ユーザ端末10と各CEルータとの接続には、インターネットの他に、VPN(Virtual Private Network)、広域イーサネット、モデムや専用線を用いることができる。
例えば、拠点から広告する経路をユーザがリアルタイムに制御できないネットワークでは、ユーザ端末10が出張先でVM(B)にアクセスする場合、札幌経由でアクセスするか、福岡経由でアクセスするかは、札幌や福岡の拠点にVM(B)にアクセスするためのグローバルIPアドレスを割り振り、ユーザ端末10がグローバルIPアドレスを切り替えて、アクセスする必要がある。このようなネットワークの一例としては、例えばインターネットや広告する経路のアドレスをネットワーク事業者に申し込まなければならないIP−VPN等がある。
また、拠点から広告する経路をユーザがリアルタイムに制御できるネットワークでは、ユーザ端末10が出張先でVM(B)にアクセスする場合に、札幌のルータ4経由でアクセスするか、福岡のルータ14でアクセスするかは、ユーザが広告する経路によって変更可能である。このようなネットワークの一例としては、例えば、広告する経路のアドレス情報を制限されていないIP−VPNサービスや、ユーザがIPレイヤを構築するEthernet−VPN、インターネットVPN等がある。
(ルータ)
上記実施形態のルータ4やルータ14は、NAT変換やルーティング等を実行して通信を中継する。例えば、ルータ4は、インタフェース4aにグローバルIPアドレスが設定され、インタフェース4bにプライベートIPアドレスが設定されている場合、一般的なNAT変換を用いて、グローバルIPアドレスからプライベートIPアドレスへの変換やプライベートIPアドレスからグローバルIPアドレスへの変換を実行して、通信を中継する。また、各ルータは、ルーティングテーブルを保持し、ルーティングテーブルに対して経路情報を静的または動的に設定し、ルーティングテーブルに記憶される経路情報に基づいて、通信を中継する。
(システム構成等)
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示された構成要素と同一であることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともできる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(プログラム)
また、上記実施形態に係るクラウドコントローラが実行する処理をコンピュータが実行可能な言語で記述した管理プログラムを作成することもできる。この場合、コンピュータが管理プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる管理プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された管理プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。なお、管理プログラムにより実行される各処理は、仮想マシン上で動作させることにより実行するようにしてもよい。
図12は、管理プログラムを実行するコンピュータを示す図である。図12に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図12に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。
また、管理プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明した要求受付部33aと同様の情報処理を実行する要求受付手順と、マイグレーション実行部33bと同様の情報処理を実行するマイグレーション実行手順と、テーブル更新部33cと同様の情報処理を実行するテーブル更新手順とが記述されたプログラムモジュールが、ハードディスクドライブ1090に記憶される。
また、管理プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
また、例えば、一般的なクラウドコントローラに上記実施形態と同様の機能を実行させる場合には、クラウドコントローラが実行可能なプログラムに上記手順を記述し、クラウドコントローラに実行させることで、上記実施形態と同様の機能を実行させることもできる。つまり、クラウドコントローラのプロセッサが、上記手順が記述されたプログラムをメモリに展開して実行することで、同様の処理を実行することができる。また、L3スイッチなどに実行させる場合には、上記実施形態と同様の機能を実行させる回路を搭載したLSIを、L3スイッチに搭載させることで、同様の処理を実行することができる。
1 拠点(札幌)
2、12 データセンタ
3、13 CEルータ
4、14 ルータ
5、15 OVS
11 拠点(福岡)
20 ネットワーク
21 仮想L2ネットワーク
22 ネットワークセグメント
30 クラウドコントローラ
31 通信制御部
32 記憶部
32a 管理テーブル
33 制御部
33a 要求受付部
33b マイグレーション実行部
33c テーブル更新部

Claims (6)

  1. 同一拠点内の仮想マシンに対してデフォルトゲートウェイを設定するアドレス割当装置と、前記アドレス割当装置のアドレスに関する情報を管理する管理装置とを有し、各ネットワーク装置が同一ネットワークセグメント内で同一のアドレスが設定された通信システムであって、
    前記管理装置が、
    第1の拠点で動作する仮想マシンを第2の拠点へマイグレーションするマイグレーション実行部と、
    前記マイグレーション実行部によってマイグレーションが実行された後に、前記第2の拠点のアドレス割当装置に対して、前記マイグレーションした仮想マシンをデフォルトゲートウェイの設定対象の仮想マシンとして設定を更新させる更新部と、
    を有し、
    前記アドレス割当装置が、
    前記設定対象とする仮想マシンのアドレスを記憶する記憶部と、
    仮想マシンから前記デフォルトゲートウェイの設定要求を受け付け、該仮想マシンのアドレス情報が前記記憶部に記憶されている場合には、該仮想マシンに対してデフォルトゲートウェイを設定する設定部と、
    を有することを特徴とする通信システム。
  2. 前記管理装置が、各仮想マシンが存在する拠点と各仮想マシンのアドレスとを記憶する記憶部をさらに有し、
    前記更新部は、前記記憶部に記憶された各仮想マシンが存在する拠点に位置するアドレス割当装置に対して、該アドレス割当装置の拠点で動作する仮想マシンのアドレスを事前に登録することを特徴とする請求項1に記載の通信システム。
  3. 前記設定部は、前記マイグレーションした仮想マシンをデフォルトゲートウェイの設定対象の仮想マシンとして設定した後に、該仮想マシンにデフォルトゲートウェイを再取得させることを特徴とする請求項1または2に記載の通信システム。
  4. 各仮想マシンが存在する拠点と各仮想マシンのアドレスとを記憶する記憶部と、
    第1の拠点で動作する仮想マシンを第2の拠点へマイグレーションするマイグレーション実行部と、
    前記記憶部に記憶された各仮想マシンが存在する拠点に位置するアドレス割当装置に対して、該アドレス割当装置の拠点で動作する仮想マシンのアドレスを事前に登録し、前記マイグレーション実行部によってマイグレーションが実行された後に、第2の拠点内の仮想マシンに対してデフォルトゲートウェイを設定するアドレス割当装置に対して、前記マイグレーションした仮想マシンをデフォルトゲートウェイの設定対象の仮想マシンとして設定を更新させる設定部と、
    を有することを特徴とする管理装置。
  5. 管理装置で実行される管理方法であって、
    前記管理装置は、各仮想マシンが存在する拠点と各仮想マシンのアドレスとを記憶する記憶部を有し、
    前記記憶部に記憶された各仮想マシンが存在する拠点に位置するアドレス割当装置に対して、該アドレス割当装置の拠点で動作する仮想マシンのアドレスを事前に登録する登録工程と、
    第1の拠点で動作する仮想マシンを第2の拠点へマイグレーションするマイグレーション実行工程と、
    前記マイグレーション実行工程によってマイグレーションが実行された後に、第2の拠点内の仮想マシンに対してデフォルトゲートウェイを設定するアドレス割当装置に対して、前記マイグレーションした仮想マシンをデフォルトゲートウェイの設定対象の仮想マシンとしてとして設定を更新させる設定工程と、
    を含んだことを特徴とする管理方法。
  6. 各仮想マシンが存在する拠点と各仮想マシンのアドレスとを記憶する記憶部に記憶された各仮想マシンが存在する拠点に位置するアドレス割当装置に対して、該アドレス割当装置の拠点で動作する仮想マシンのアドレスを事前に登録する登録ステップと、
    第1の拠点で動作する仮想マシンを第2の拠点へマイグレーションするマイグレーション実行ステップと、
    前記マイグレーション実行ステップによってマイグレーションが実行された後に、第2の拠点内の仮想マシンに対してデフォルトゲートウェイを設定するアドレス割当装置に対して、前記マイグレーションした仮想マシンをデフォルトゲートウェイの設定対象の仮想マシンとして設定を更新させる設定ステップと、
    をコンピュータに実行させることを特徴とする管理プログラム。
JP2013126104A 2013-06-14 2013-06-14 通信システム、管理装置、管理方法および管理プログラム Expired - Fee Related JP6013981B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013126104A JP6013981B2 (ja) 2013-06-14 2013-06-14 通信システム、管理装置、管理方法および管理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013126104A JP6013981B2 (ja) 2013-06-14 2013-06-14 通信システム、管理装置、管理方法および管理プログラム

Publications (2)

Publication Number Publication Date
JP2015002439A JP2015002439A (ja) 2015-01-05
JP6013981B2 true JP6013981B2 (ja) 2016-10-25

Family

ID=52296718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013126104A Expired - Fee Related JP6013981B2 (ja) 2013-06-14 2013-06-14 通信システム、管理装置、管理方法および管理プログラム

Country Status (1)

Country Link
JP (1) JP6013981B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120173757A1 (en) * 2011-01-05 2012-07-05 International Business Machines Corporation Routing optimization for virtual machine migration between geographically remote data centers
JP5813534B2 (ja) * 2012-03-01 2015-11-17 Kddi株式会社 仮想マシンにアドレスを割り当てるプログラム、方法及び物理サーバ

Also Published As

Publication number Publication date
JP2015002439A (ja) 2015-01-05

Similar Documents

Publication Publication Date Title
US9935920B2 (en) Virtualization gateway between virtualized and non-virtualized networks
US11418512B2 (en) Method for virtual machine to access physical server in cloud computing system, apparatus, and system
US10893023B2 (en) Per-application VPN in container based environments
JP4972670B2 (ja) 仮想計算機システム、そのアクセス制御方法及び通信装置
JP5863771B2 (ja) 仮想マシン管理システム、及び仮想マシン管理方法
JP5980725B2 (ja) ネットワーク装置、中継管理方法、中継管理プログラムおよび通信システム
US11159344B1 (en) Connectivity of cloud edge locations to communications service provider networks
US20160266938A1 (en) Load balancing function deploying method and apparatus
JP5813699B2 (ja) 通信システム、管理装置、管理方法および管理プログラム
US11765244B1 (en) Latency-based service discovery and routing for multi-location service-oriented applications
JP6013980B2 (ja) アドレス割当装置およびアドレス割当プログラム
JP5980724B2 (ja) ネットワーク装置、中継管理方法、中継管理プログラムおよび通信システム
JP6039517B2 (ja) 管理装置、通信システム、管理方法、および、管理プログラム
JP6009415B2 (ja) 通信システム、管理装置、管理方法、および、管理プログラム
JP5960650B2 (ja) 情報処理装置、通信システム、管理方法、および、管理プログラム
JP6013981B2 (ja) 通信システム、管理装置、管理方法および管理プログラム
JP5972838B2 (ja) 管理装置、通信システム、管理方法、および、管理プログラム
JP5964786B2 (ja) 管理装置、通信システム、管理方法、および、管理プログラム
JP5952229B2 (ja) 管理装置、経路情報生成方法および経路情報生成プログラム
US11595347B1 (en) Dual-stack network addressing in cloud provider network edge locations
KR102595308B1 (ko) 인터넷 망의 사용자 단말이 원격 서비스를 실행하기 위하여 사설망에 접속할 수 있도록 하는 사설망 접속 제어장치 및 그것의 제어 방법
US20170116016A1 (en) Screen compression service method and virtual network apparatus for performing the method
Nagafuchi et al. Routing optimization for live VM migration between datacenters
JP5940502B2 (ja) ルータ、通信システム、管理方法、および、管理プログラム
JP2015001827A (ja) 管理装置、管理方法、管理プログラムおよび通信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150814

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160923

R150 Certificate of patent or registration of utility model

Ref document number: 6013981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees