JP2014049773A - ネットワークシステム及び仮想ノードのマイグレーション方法 - Google Patents

ネットワークシステム及び仮想ノードのマイグレーション方法 Download PDF

Info

Publication number
JP2014049773A
JP2014049773A JP2012188316A JP2012188316A JP2014049773A JP 2014049773 A JP2014049773 A JP 2014049773A JP 2012188316 A JP2012188316 A JP 2012188316A JP 2012188316 A JP2012188316 A JP 2012188316A JP 2014049773 A JP2014049773 A JP 2014049773A
Authority
JP
Japan
Prior art keywords
node
virtual
physical
management unit
link
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012188316A
Other languages
English (en)
Other versions
JP5835846B2 (ja
Inventor
Toshiaki Tarui
俊明 垂井
Yasushi Kaneda
泰 金田
Yasushi Kasugai
靖 春日井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012188316A priority Critical patent/JP5835846B2/ja
Priority to CN201310316471.9A priority patent/CN103684960A/zh
Priority to US13/961,209 priority patent/US20140068045A1/en
Publication of JP2014049773A publication Critical patent/JP2014049773A/ja
Application granted granted Critical
Publication of JP5835846B2 publication Critical patent/JP5835846B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/02Standardisation; Integration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/082Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • H04L41/122Discovery or management of network topologies of virtualised topologies, e.g. software-defined networks [SDN] or network function virtualisation [NFV]

Abstract

【課題】仮想ネットワークを構成する仮想ノードのサービスを中断することなく、仮想ノードのマイグレーション処理を実行する。
【解決手段】計算機リソースを有する複数の物理ノードから構成されるネットワークシステムであって、ネットワークシステムには、物理ノードが有する計算機リソースが割り当てられ、サービスを実行する複数の仮想ノードから構成される仮想ネットワークが構成され、第1の物理ノードの計算機リソースを用いてサービスを実行する第1の仮想ノードを第2の物理ノードに移行させる場合に、第2の物理ノードと隣接物理ノードとを接続する物理リンク上に、第1の仮想ノードと隣接仮想ノードとを接続する仮想リンクを実現するための通信経路を生成し、第2の物理ノードによって確保された計算機リソースを用いて第1の仮想ノードが実行するサービスを開始し、生成された通信経路を仮想リンクとして切り替える。
【選択図】図3

Description

本発明は、仮想ネットワークを構成する仮想ノードのマイグレーション方式に関する。
近年、ネットワークを介して、インターネット及び電話、モバイル、企業網等の種々のサービスが提供されている。異なるサービスに対応したネットワークを実現し、各サービスに必要な機能を提供するために、物理的なネットワーク上に、複数の仮想ネットワーク(スライス)を生成する仮想化ネットワーク技術が用いられている。
仮想ネットワークを構築するためには、インフラとなる物理ネットワークを構成するノードが、仮想ネットワークの特有の処理を実現する機能を有する必要がある。
前述した機能は、スライス毎に異なるため、前述した機能はプログラム処理(汎用サーバやネットワークプロセッサ上のプログラム)によって実現する方式が多く用いられている。
仮想ネットワーク技術では、仮想ネットワークの構成と、物理ネットワークの構成とが分離されている。そのため、仮想ネットワークを構成するノード(仮想ノード)は、当該仮想ノードに必要な計算機リソース(CPU、メモリ及びネットワーク帯域等)及び性能(ネットワークレイテンシ等)が確保できるならば、いずれの物理ノードにも配置することができる。また、仮想ネットワークにおけるリンクに関しても同様に、仮想的なリンクがどの物理リンクを経由するかを自由に設定できる。
また、仮想ネットワークの管理者の要求に基づいて、特定の物理ノード及び物理リンクを指定して仮想ノードを配置することも可能である。
また、仮想ネットワーク技術では、仮想ネットワーク上におけるアドレス及びパケット構成が、物理ネットワーク上のアドレス等に影響を与えることを回避する必要がある。
そのため、VLANを用いて仮想ネットワークを分離し、GRE及びMac−in−Macを用いて仮想ネットワーク上のパケットをカプセリングして、仮想ネットワークにおけるパケットを、物理ネットワークとは分離する必要がある。
カプセリング方式を用いた場合、仮想ネットワーク上では、既存のIP通信に依存しない、自由なパケット形式の通信が可能となる。
広域なネットワーク上において仮想ネットワークを実現する場合、管理体系が異なるネットワークをまたがって、仮想ネットワークを実現する必要がある。例えば、異なる通信事業者をまたがった仮想ネットワーク、及び複数の国をまたがった仮想ネットワークなどが考えられる。
以下では、物理ネットワークにおけるネットワークの管理単位をドメインと呼び、ドメインをまたがった仮想ネットワークを実現する処理をフェデレーションと呼ぶ。
フェデレーションは、複数のドメインにおける管理サーバが連携して、単一のドメインの場合と同様に、仮想ネットワークの管理者が要求する仮想ネットワークを構成し、サービスを提供する処理である。
前述したように仮想ノードは、物理ノードに自由に配置することができるが、何らかの事情によって、仮想ノードの配置を変更する必要がある。すなわち、仮想ノードのマイグレーション処理を実行するが発生する。
例えば、仮想ノードに割り当てる計算機リソース量を追加する場合に、物理ノードの計算機リソースに余裕がない場合には、計算機リソース量に余裕のある他の物理ノードに移行させ、また、ネットワーク的に近い物理ノードに移動させる必要がある。
仮想ノードのマイグレーション処理では、仮想ネットワークにおいてシームレスであることが望ましい。すなわち、仮想ネットワークの構成を変更することなく、仮想ノードを配置する物理ノードを変更する必要がある。
さらに、マイグレーション処理の実行時に仮想ネットワークにおけるサービスを継続する必要がある。すなわち、仮想ネットワーク上のサービス利用者から見て、サービスを停止することなく、ノードをマイグレーションする必要がある。サーバ間で仮想マシン(VM)をライブマイグレーションさせる技術がいくつか製品化されているが、本技術では、VMを移動させる際に、ごく短期間(0.5秒程度)VMの動作が中断する時間がある。仮想ネットワークのノードへの適用を考えた場合、ネットワーク通信中断されることは容認できない。したがってVMライブマイグレーションを使用せずに、仮想ノードのマイグレーションを実現する必要がある。
Pisa ,P.、外7名、「オープンフロー アンド ゼンベースド バーチャル ネットワーク マイグレーション(Openflow and Xen−based Virtual Network Migration)」、Wireless in Developing Countries and Networks of the Future、volume 327 of IFIP Advances in Information and Communication Technology、p.170−181、Springer Boston.
非特許文献1の図3には、オープンフロースイッチによって構成された仮想ネットワークにおけるマイグレーション方式が記載されている。通信中も仮想ネットワークにおける通信を継続するために、フロー(片方向)が経由するオープンフロースイッチに対して、下記三つのステップで設定を実施し、マイグレーション処理を実施する。
(1)追加された新規ノードと、新規ノードからのフローが既存経路と合流するノードとに、新規ノードを経由するフローに対する定義を追加する。
(2)既存経路から、新規ノードへ分岐するノードのフローの定義を、新しいフローに変更する。
(3)フローが経由しなくなった古いノードの定義を削除する。
前述した構成によって、オープンフロースイッチを経由するフローの通信中に、ステップ(2)の処理によって経路情報が変更されることによって、通信を中断することなく、フローが新しい経路を経由することができる。
しかし、前述した従来技術では、仮想ノードがオープンフロースイッチ上に配置されることが前提である。したがって、汎用サーバ及びネットワークプロセッサ上のプログラムを用いて仮想ノードを実現する場合には、前述した従来技術を適用するのは困難である。
さらに、従来技術では、各オープンフロースイッチは、単一のコントローラによって制御されているため、単一のドメイン内のネットワークを前提としている。したがって、複数のドメインをまたがったマイグレーション処理には適用できない。
本発明は、前述した課題を鑑みてなされた発明である。すなわち、本発明は、複数のドメインをまたがった仮想ネットワークにおいて、仮想ノードが実行するサービスを中断することなく、かつ、迅速に当該仮想ノードの配置先を変更するマイグレーション処理を実現するネットワークシステムを提供することである。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、計算機リソースを有する複数の物理ノードから構成されるネットワークシステムであって、前記物理ノードは、物理リンクを介して、他の前記物理ノードと接続され、前記ネットワークシステムには、前記物理ノードが有する計算機リソースが割り当てられ、所定のサービスを実行する複数の仮想ノードから構成される仮想ネットワークが構成され、前記ネットワークシステムは、前記仮想ノードを管理するネットワーク管理部と、前記物理ノードを管理するノード管理部と、前記物理ノード間を接続する前記物理リンク及び前記仮想ノード間を接続する仮想リンクの接続を管理するリンク管理部と、を備え、前記ネットワーク管理部は、前記仮想ノードと、前記仮想ノードに前記計算機リソースを割り当てる前記物理ノードとの対応を示すマッピング情報と、前記仮想リンクを管理する仮想ノード管理情報と、を保持し、前記リンク管理部は、前記仮想リンクの接続状態を管理する経路設定情報を保持し、前記ネットワークシステムは、第1の物理ノードの前記計算機リソースを用いてサービスを実行する第1の仮想ノードを第2の物理ノードに移行させる場合に、前記ネットワーク管理部が、前記第2の物理ノードに前記第1の仮想ノードに割り当てる前記計算機リソースの確保指示を送信し、前記ネットワーク管理部が、前記仮想ネットワーク上において、前記第1の仮想ノードと仮想リンクを介して接続される隣接仮想ノードに前記計算機リソースを割り当てる隣接物理ノードを特定し、前記ネットワーク管理部が、前記リンク管理部に対して、前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に、前記第1の仮想ノードと前記隣接仮想ノードとを接続する前記仮想リンクを実現するための通信経路の生成指示を送信し、前記リンク管理部が、前記通信経路の生成指示に基づいて、前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に前記通信経路を生成し、前記ノード管理部が、前記第2の物理ノードによって確保された前記計算機リソースを用いて前記第1の仮想ノードが実行するサービスを開始し、前記ネットワーク管理部が、前記リンク管理部に前記仮想リンクの切替指示を送信し、前記リンク管理部が、前記生成された通信経路を前記仮想リンクとして切り替えることを特徴とする。
本発明の一側面によれば、予め移行先の物理ノードにおいて仮想ノードのサービスを起動し、また、予め隣接仮想ノードのサービスを実行する物理ノードとの間に仮想リンクを実現するための通信経路を生成することによって、仮想ノードが実行するサービスを中断することなく、かつ、迅速に仮想ノードを他の物理ノードに移行することができる。
本発明の実施例におけるネットワークシステムの構成例を示す説明図である。 本発明の実施例1における仮想ネットワーク(スライス)の構成例を示す説明図である。 本発明の実施例1における物理ネットワークの構成例を示す説明図である。 本発明の実施例1におけるマッピング情報の一例を示す説明図である。 本発明の実施例1における仮想ノード管理情報の一例を示す説明図である。 本発明の実施例1における物理ノードの構成例を示す説明図である。 本発明の実施例1におけるパケットの形式の一例を示す説明図である。 本発明の実施例1におけるパケットの形式の一例を示す説明図である。 本発明の実施例1における経路設定情報の一例を示す説明図である。 本発明の実施例1におけるマイグレーション処理の流れを説明するシーケンス図である。 本発明の実施例1におけるマイグレーション処理の流れを説明するシーケンス図である。 本発明の実施例1のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。 本発明の実施例1のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。 本発明の実施例1のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。 本発明の実施例1における経路設定情報の一例を示す説明図である。 本発明の実施例1における経路設定情報の一例を示す説明図である。 本発明の実施例1におけるGRE変換装置内の通信経路の接続状態を示す説明図である。 本発明の実施例1におけるGRE変換装置内の通信経路の接続状態を示す説明図である。 本発明の実施例2における物理ネットワークの構成例を示す説明図である。 本発明の実施例2におけるマイグレーション処理の流れを説明するシーケンス図である。 本発明の実施例2におけるマイグレーション処理の流れを説明するシーケンス図である。 本発明の実施例2のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。 本発明の実施例2のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。 本発明の実施例2のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。 本発明の実施例3におけるマイグレーション処理の流れを説明するシーケンス図である。 本発明の実施例3におけるマイグレーション処理の流れを説明するシーケンス図である。
まず、本発明の前提となるネットワークシステムの構成例について説明する。
図1は、本発明の実施例におけるネットワークシステムの構成例を示す説明図である。
本発明では、物理ネットワーク10上に、複数の異なる仮想ネットワーク20が構築されている。
物理ネットワーク10は、複数の物理ノード100から構成され、各物理ノード100は、所定のネットワーク回線を介して互いに接続される。
なお、本発明はネットワーク回線の種別に限定されず、WAN、LAN及びSAN等のいずれを用いてもよい。また、本発明はネットワーク回線の接続方式に限定されず、有線又は無線いずれであってもよい。
仮想ネットワーク20は、複数の仮想ノード200から構成され、各仮想ノード200は、仮想的なネットワーク回線を介して互いに接続される。また、仮想ノード200は、仮想ネットワーク20上で所定のサービスを実行する。
ここで、仮想ノード200は、物理ノード100が備える計算機リソースを用いて実現される。したがって、一つの物理ノード100が、異なる仮想ネットワーク20を構成する仮想ノード200を提供することも可能である。
また、仮想ネットワーク20は、それぞれ、異なった通信プロトコルを用いたネットワークであってもよい。
これによって、物理ネットワーク10上に、独自のネットワークを自由に構築できる。また、既存の計算機リソースを有効に活用することができため、導入コストを低く抑えることができる。
なお、本明細書では仮想ネットワークをスライスとも記載する。
図2は、本発明の実施例1における仮想ネットワーク(スライス)20の構成例を示す説明図である。
本実施例では、スライス20は、仮想ノードA(200−1)、仮想ノードB(200−2)及び仮想ノードC(200−3)から構成される。仮想ノードA(200−1)と仮想ノードC(200−3)とは、仮想リンク250−1を介して接続され、仮想ノードB(200−2)と仮想ノードC(200−3)とは、仮想リンク250−2を介して接続される。
以下の説明では、仮想ノードC(200−3)がマイグレーション対象の仮想ノードであるものとする。なお、図2では、説明の簡単のため単純な構成の仮想ネットワーク(スライス)20を示しているが、より複雑な構成の仮想ネットワーク(スライス)20でも、以下で説明する処理を実現できる。
(システム構成)
図3は、本発明の実施例1における物理ネットワーク10の構成例を示す説明図である。
実施例1では、一つのドメイン15から構成される物理ネットワーク10を例に説明する。
物理ネットワーク10を構成するドメイン15には、ドメイン管理サーバ300及び複数の物理ノード100を含む。本実施例では、ドメイン15内の物理ノード100を用いて図2に示すようなスライス20が提供されているものとする。
ドメイン管理サーバ300は、ドメイン15内の物理ノード100を管理する計算機である。ドメイン管理サーバ300は、CPU310、主記憶装置320、ストレージ330及びNIC340を備える。
CPU310は、主記憶装置320に格納されるプログラムを実行する。CPU310がプログラムを実行することによって、ドメイン管理サーバ300が有する機能を実現することができる。なお、ドメイン管理サーバ300は、複数のCPU310を備えていてもよい。
主記憶装置320は、CPU310によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。主記憶装置320は、例えば、メモリなどが考えられる。
主記憶装置320は、ドメイン管理部321を実現するプログラム(図示省略)を格納する。また、主記憶装置320は、ドメイン管理部321によって用いられる情報として、マッピング情報322及び仮想ノード管理情報323を格納する。
ドメイン管理部321は、物理ノード100及び仮想ノード200を管理する。本実施例では、ドメイン管理部321によって、仮想ノード200のマイグレーション処理が実行される。
マッピング情報322は、ドメイン15内の物理ノード100と仮想ノード200との対応関係を管理する情報である。マッピング情報322の詳細については、図4を用いて後述する。仮想ノード管理情報323は、仮想ノード200の設定情報である。仮想ノード管理情報323の詳細については、図5を用いて後述する。
なお、仮想ノード管理情報323は、各物理ノード100が保持しており、ドメイン管理サーバ300は、ドメイン15内の各物理ノード100から仮想ノード管理情報323を取得することができる。
ストレージ330は、各種データを格納する。ストレージ330は、例えば、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等が考えられる。
なお、ドメイン管理部321を実現するプログラム、マッピング情報322及び仮想ノード管理情報323は、ストレージ330に格納されていてもよい。この場合、CPU310が、ストレージ330から読み出し、読み出されたプログラム及び情報を主記憶装置320にロードする。
NIC340は、ネットワーク回線を介して他の装置と接続するためのインタフェースである。本実施例では、NIC340に接続される物理リンク500−1、500−2、500−3、500−4を介して、各物理ノード100と接続される。より具体的には、ドメイン管理サーバ300は、物理リンク500を介して、各物理ノード100のノード管理部190と通信可能なように接続される。
なお、ドメイン管理サーバ300は、物理ノード100が備えるノード管理部190と接続するための管理インタフェースを備えていてもよい。
物理ノード100は、スライス20を構成する仮想ノード200に計算機リソースを提供する。また、各物理ノード100は、物理リンク400を介して互いに接続される。具体的には、物理ノードA(100−1)と物理ノードC(100−3)とは物理リンク400−1を介して接続され、物理ノードC(100−3)と物理ノードB(100−2)とは物理リンク400−2を介して接続され、物理ノードA(100−1)と物理ノードD(100−4)とは物理リンク400−3を介して接続され、物理ノードB(100−2)と物理ノードD(100−4)とは物理リンク400−4を介して接続される。
仮想ノード200は、いずれかの物理ノード100に配置される。本実施例では、仮想ノードA(200−1)が物理ノードA(100−1)上に、仮想ノードB(200−2)が物理ノードB(100−2)上に、仮想ノードC(200−3)が物理ノードC(100−3)に配置されているものとする。
物理ノード100は、リンク管理部160及びノード管理部190を備える。リンク管理部160は、物理ノード100間を接続する物理リンク400及び仮想リンク250を管理する。ノード管理部190は、物理ノード100全体を管理する。また、物理ノード100は、仮想計算機(VM)110を実現する仮想管理部(図6参照)も備える。
本実施例では、VM110は、仮想ノード200を実現するための各種機能を提供する。具体的には、VM110は、仮想ノード200のプログラマブルな機能を提供する。例えば、VM110は、通信プロトコルの変換機能を実現するためのプログラムを実行する。
本実施例では、VM_A(110−1)によって仮想ノードA(200−1)の機能が提供され、VM_B(110−2)によって仮想ノードB(200−2)の機能が提供され、VM_C(110−3)によって仮想ノードC(200−3)の機能が提供される。
なお、本実施例では、VM110が仮想ノード200の機能を提供しているが、本発明はこれに限定されない。例えば、ネットワークプロセッサ、GPU又はFPGA等を用いて仮想ノード200の機能が提供されてもよい。
仮想ノード200が配置された物理ノード100間を接続する物理リンク400には、仮想リンク250を実現するためにGREトンネル600が生成される。なお、本発明は、GREトンネル600を用いて仮想リンク250を実現する方法に限定されない。例えば、Mac−in−Mac又はVLAN等を用いて仮想リンク250を実現してもよい。
具体的には、物理リンク400−1には、仮想リンク250−1を構成するGREトンネル600−1、600−2が生成され、物理リンク400−2には、仮想リンク250−2を構成するGREトンネル600−3、600−4が生成される。
なお、一つのGREトンネル600は、単方向通信をサポートする。そのため、本実施例では、仮想ノード200間の双方向通信をサポートするために、二つのGREトンネル600が生成される。
図4は、本発明の実施例1におけるマッピング情報322の一例を示す説明図である。
マッピング情報322は、仮想ノード200と当該仮想ノード200の機能を提供するVM110が稼働する物理ノード100との対応関係を示す情報を格納する。具体的には、マッピング情報322は、仮想ノードID710、物理ノードID720及びVM_ID730を含む。なお、マッピング情報322には、その他の情報が含まれてもよい。
仮想ノードID710は、仮想ノード200を一意に識別するための識別子を格納する。物理ノードID720は、物理ノード100を一意に識別するための識別子を格納する。VM_ID730は、VM110を一意に識別するための識別子を格納する。
図5は、本発明の実施例1における仮想ノード管理情報323の一例を示す説明図である。
仮想ノード管理情報323は、各物理ノード100に配置された仮想ノード200を管理するための各種情報を格納する。本実施例では、仮想ノード管理情報323は、XML形式の情報であるものとする。また、一つの仮想ノード200に一つの仮想ノード管理情報323が存在するものとする。一般に、物理ノード100は、複数の仮想ノード管理情報323を持つ。
仮想ノード管理情報323は、属性810及び仮想リンク情報820を含む。なお、仮想ノード管理情報323には、その他の情報が含まれてもよい。
属性810は、仮想ノード200の属性を示す情報を格納する。例えば、仮想ノード200上で実行されるプログラムの識別情報等が格納される。
仮想リンク情報820は、物理ノード100に配置された仮想ノード200を接続する仮想リンク250の情報が格納される。仮想リンク情報820には、例えば、仮想リンク250の識別情報、及び仮想リンク250を介して接続される他の仮想ノード200の識別情報が格納される。
図5に示す例では、仮想ノードC(200−3)の仮想ノード管理情報323を表す。当該仮想ノード管理情報323には、物理ノードC(100−3)に配置される仮想ノードC(200−3)を接続する仮想リンク250−1の仮想リンク情報820−1及び仮想リンク250−2の仮想リンク情報820−2が含まれる。
なお、本発明は、仮想ノード管理情報323のデータ形式に限定されず、テーブル形式等の異なるデータ形式であってもよい。
図6は、本発明の実施例1における物理ノード100の構成例を示す説明図である。図6では、物理ノードC(100−3)を例に説明するが、物理ノードA(100−1)、物理ノードB(100−2)及び物理ノードD(100−4)も同一の構成である。
物理ノードC(100−3)は、複数のサーバ900、ノード内スイッチ1000及びGRE変換装置1100から構成される。また、物理ノードC(100−3)内では、VLANが構成される。
サーバ900は、CPU910、主記憶装置920、NIC930及びストレージ940を備える。
CPU910は、主記憶装置920に格納されるプログラムを格納する。CPU910がプログラムを実行することによって、サーバ900が備える機能を実現できる。主記憶装置920は、CPU910によって実行されるプログラム及び当該プログラムの実行に必要が情報を格納する。
NIC930は、ネットワーク回線を介して他の装置と接続するためのインタフェースである。ストレージ940は、各種情報を格納する。
本実施例では、物理ノード100には、ノード管理部931を備えるサーバ900と、仮想化管理部932を備えるサーバ900とが含まれる。なお、CPU910が、主記憶装置920に格納される所定のプログラムを実行することによって、ノード管理部931及び仮想化管理部932が実現される。
以下では、ノード管理部931及び仮想化管理部932を主語にして説明する場合、CPU910によってノード管理部931及び仮想化管理部932を実現するプログラムが実行されていることを示す。
ノード管理部931は、ノード管理部190と同一のものである。なお、ノード管理部931は、自身の物理ノード100に配置された仮想ノード200を管理するために、仮想ノード管理情報323を保持する。
仮想化管理部932は、計算機リソースを用いてVM110を生成し、また、生成されたVM110を管理する。仮想化管理部932は、例えば、ハイパバイザ等が考えられる。なお、VM110の生成方法及び管理方法は、公知であるため詳細な説明を省略する。
なお、ノード管理部931が稼働するサーバ900は、管理用ネットワークを介して、ノード内スイッチ1000及びGRE変換装置1100と接続し、また、物理リンク500−3を介して、ドメイン管理サーバ300と接続する。また、仮想化管理部932が稼働するサーバ900は、内部のデータネットワークを介して、ノード内スイッチ1000と接続する。
ノード内スイッチ1000は、物理ノードC(100−3)内の各サーバ900及びGRE変換装置1100を接続する。また、ノード内スイッチ1000は、VLANを管理する機能を備え、VLAN内のパケットの転送処理を実行する。なお、ノード内スイッチ1000の構成は公知であるため詳細な説明は省略するが、例えば、ノード内スイッチ1000は、スイッチ転送部(図示省略)及び一つ以上のポートを有するI/Oインタフェース(図示省略)を備える。
GRE変換装置1100は、リンク管理部160に対応するものであり、物理ノード100間の接続を管理する。GRE変換装置1100は、GREトンネル600を生成し、当該GREトンネル600を介して、他の物理ノード100と通信する。なお、GRE変換装置1100は、CPU(図示省略)、メモリ(図示省略)及びネットワークインタフェース等の計算機リソースを備える。
なお、本実施例では、GREトンネル600を用いて仮想リンク250を実現しているため、GRE変換装置1100を用いているが本発明はこれに限定されない。仮想リンク250を実現するためのプロトコルを適用したルータ及びアクセスゲートウェイ装置等を用いてもよい。
GRE変換装置1100は、経路設定情報1110を保持する。経路設定情報1110は、仮想ノード200と通信するためのGREトンネル600の接続関係を示す情報である。GRE変換装置1100は、経路設定情報1110を用いて、仮想ノード200への接続を切り替えることができる。なお、経路設定情報1110の詳細については、図8を用いて後述する。
GRE変換装置1100は、他の物理ノード100上に稼働するVM110にパケットを送信する場合、GREヘッダを付与することによって、物理ノード100内のパケットをカプセル化し、カプセル化されたパケットを送信する。また、GRE変換装置1100は、他の物理ノード100上に稼働するVM110からパケットを受信する場合、GREヘッダを削除して、VLAN上のMac−in−Macパケットに変換し(デカプセル化し)、変換されたパケットを物理ノード100内のVM110に転送する。
ここで、物理ノード100間において送受信されるパケットの形式について説明する。
図7A及び図7Bは、本発明の実施例1におけるパケットの形式の一例を示す説明図である。図7Aは、データパケット1200のパケット形式を示し、図7Bは、制御パケット1210のパケット形式を示す。
データパケット1200は、GREヘッダ1201、パケット種別1202及び仮想ネットワークパケット1203から構成される。
GREヘッダ1201は、GREヘッダを格納する。パケット種別1202は、パケットの種別を示す情報を格納する。データパケット1200の場合、パケット種別1202には「データ」が格納される。仮想ネットワークパケット1203は、仮想ネットワーク、すなわち、スライス20において送受信されるパケットを格納する。
制御パケット1210は、GREヘッダ1211、パケット種別1212及び制御情報1213から構成される。
GREヘッダ1211及びパケット種別1212は、GREヘッダ1201及びパケット種別1202と同一のものである。なお、パケット種別1212には「制御」が格納される。制御情報1213は、各種制御処理に必要な命令及び情報等を格納する。
なお、データパケット1200は、仮想ノード200の機能を提供するVM110間で送受信され、制御パケット1210は、各物理ノード100内のノード管理部931が稼働するサーバ900感で送受信される。
GRE変換装置1100は、他の物理ノード100上で稼働するVM110からパケットを受信した場合、パケット種別1202、1212を参照して、受信したパケットの種別を特定する。受信したパケットが制御パケット1210の場合、GRE変換装置1100は、制御情報1213に格納される情報に基づいて、制御処理を実行する。一方、受信したパケットがデータパケット1200の場合、GRE変換装置1100は、デカプセル化したパケットを所定のサーバ900に転送する。
また、GRE変換装置1100は、他の物理ノード100上で稼働するVM110にデータパケット1200を送信する場合、経路設定情報1110に基づいて、カプセル化したパケットを送信する。GRE変換装置1100は、ドメイン管理サーバ300又は他の物理ノード100に制御パケット1210を送信する場合、GREトンネル600を介して、カプセル化したパケットを送信する。
図8は、本発明の実施例1における経路設定情報1110の一例を示す説明図である。図8では、物理ノードA(100−1)のGRE変換装置1100が備える経路設定情報1110を例に説明する。
経路設定情報1110は、通信方向1310及び通信可否1320を含む。
通信方向1310は、VM110間の通信方向を示す情報を格納する。すなわち、GREトンネル600の通信方向を示す情報が格納される。
具体的には、通信方向1310には、送信元のVM110及び送信先のVM110の識別情報が格納される。なお、図8に示す例では、矢印を用いて通信方向を表しているが、本発明はこれに限定されず、送信元のVM110と送信先のVM110とが識別可能であればどのようなデータ形式であってもよい。
通信可否1320は、通信方向1310に対応するVM110間の通信を接続するか否かを示す情報が格納される。本実施例では、VM110間の通信を接続する場合、通信可否1320には「OK」が格納され、VM110間の通信を接続しない場合、通信可否1320には「NO」が格納される。
(マイグレーション処理)
以下では、物理ノードC(100−3)から物理ノードD(100−4)への仮想ノードC(200−3)のマイグレーション処理について、図9A、図9B、図10A、図10B、図10C、図11A、図11B、図12A及び図12Bを用いて説明する。
図9A及び図9Bは、本発明の実施例1におけるマイグレーション処理の流れを説明するシーケンス図である。図10A、図10B及び図10Cは、本発明の実施例1のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。図11A及び図11Bは、本発明の実施例1における経路設定情報1110の一例を示す説明図である。図12A及び図12Bは、本発明の実施例1におけるGRE変換装置1100内の通信経路の接続状態を示す説明図である。
本実施例では、ドメイン管理サーバ300を操作する管理者によって、マイグレーション対象の仮想ノードC(200−3)の識別子とともに、処理開始の要求が入力されたものとする。なお、本発明は、マイグレーション処理が開始されるタイミングに限定されない。例えば、VM110の負荷が閾値以上になった場合等に実行されてもよい。
ドメイン管理サーバ300は、まず、マイグレーション処理に必要な計算機リソースを確保し、また、マイグレーション処理時に用いられる情報を設定する。具体的には、ステップS101からステップS106の処理が実行される。
これは、スライス20上で実行されるサービスの停止を回避し、かつ、瞬時にVM110を切り替えるための準備処理である。
ドメイン管理サーバ300は、物理ノードD(100−4)に、VM生成指示を送信する(ステップS101)。
具体的には、ドメイン管理サーバ300は、物理ノードD(100−4)のノード管理部931に、VM_D(110−4)の生成指示を送信する。なお、VM生成指示には、VM_D(110−4)の各種設定情報が含まれる。VM110の設定情報は、例えば、VM_D(110−4)に割り当てるCPU及びメモリの割当量、起動OSイメージのパス名、並びに、仮想ノードC(200−3)が実行するサービスを提供するプログラム名等を含む。
なお、ドメイン管理サーバ300は、VM_C(110−3)と同一の性能となるように生成指示を生成する。具体的には、ドメイン管理サーバ300は、VM_C(110−3)が稼働するサーバ900の仮想化管理部932から、VM_C(110−3)の設定情報を取得し、取得された設定情報に基づいて生成指示を生成する。
ドメイン管理サーバ300は、物理ノードA(100−1)及び物理ノードD(100−4)に、仮想リンク生成指示を送信する(ステップS102、ステップS103)。また、ドメイン管理サーバ300は、同様に、物理ノードB(100−2)及び物理ノードD(100−4)に、仮想リンク生成指示を送信する(ステップS104、ステップS105)。具体的には、以下のような処理が実行される。
ドメイン管理サーバ300は、マッピング情報322を参照して、仮想ノードC(100−3)が配置される物理ノードC(100−3)を特定する。
次に、ドメイン管理サーバ300は、物理ノードC(100−3)の仮想ノード管理情報323を参照して、仮想リンク250−1、250−2によって接続される仮想ノードA(200−1)及び仮想ノードB(200−2)を特定する。
さらに、ドメイン管理サーバ300は、マッピング情報322を参照して、仮想ノードA(200−1)が配置される物理ノードA(100−1)を特定し、仮想ノードB(200−2)が配置される物理ノードB(100−2)を特定する。
次に、ドメイン管理サーバ300は、仮想ノード200間の接続関係を確認し、仮想ノードC(200−3)に対する隣接仮想ノード200を特定する。本実施例では、スライス20上の接続関係において、仮想ノードC(200−3)から1ホップで接続される仮想ノード200を隣接仮想ノード200とする。したがって、本実施例では、仮想ノードA(200−1)及び仮想ノードB(200−2)が、仮想ノードC(200−3)に対する隣接仮想ノード200となる。なお、ホップ数は任意に設定することができる。
さらに、ドメイン管理サーバ300は、隣接仮想ノード200が配置された物理ノードA(100−1)及び物理ノードB(100−2)を隣接物理ノード100として特定する。
ドメイン管理サーバ300は、物理ノードA(100−1)及び物理ノードD(100−4)との間に仮想リンク250−1の生成指示を送信する。また、ドメイン管理サーバ300は、物理ノードB(100−2)及び物理ノードD(100−4)との間に仮想リンク250−2の生成指示を送信する。
なお、仮想リンク生成指示には、仮想リンク250の設定情報が含まれる。仮想リンク250の設定情報は、例えば、帯域、接続に必要なGREキー、及びIPアドレス等を含む。
以上が、ステップS102、ステップS103、ステップS104及びステップS105の処理である。
さらに、ドメイン管理サーバ300は、物理ノードC(100−3)に、VM停止条件を通知する(ステップS106)。
ここで、VM停止条件とは、移行元の物理ノード100上で稼働するVM110を停止させるための条件を表す。物理ノードC(100−3)のノード管理部931は、VM停止条件を受信すると、当該停止条件が成立するか否かを判定するための判定処理を開始する。
本実施例では、VM停止条件として、隣接物理ノード100、すなわち、物理ノードA(100−1)及び物理ノードB(100−2)から仮想リンク切替完了通知を受信した場合にVM_C(110−3)を停止する条件が設定されているものとする。すなわち、物理ノードC(100−3)のノード管理部931は、VM_A(110−1)が稼働する物理ノードA(100−1)及びVM_B(110−2)が稼働する物理ノードB(100−2)から、仮想リンク切替完了通知を受信するまで、VM_C(110−3)を停止させない。
物理ノードD(100−4)は、VM生成指示を受信すると、当該VM生成指示に基づいて、所定のサーバ900上にVM_D(110−4)を生成する(ステップS107)。具体的には、以下のような処理が実行される。
ノード管理部931は、VM_D(110−4)を生成するサーバ900を決定する。ノード管理部931は、決定されたサーバ900上で稼働する仮想化管理部932に、受信したVM生成指示を転送する。
仮想化管理部932は、VM生成指示に基づいて、VM_D(110−4)を生成する。仮想化管理部932は、VM_D(110−4)の生成後、VM_D(110−4)の生成完了を通知する。なお、この時点では、生成されたVM_D(110−4)は起動されない。
以上が、ステップS107の処理である。
物理ノードA(100−1)及び物理ノードD(100−4)は、仮想リンク生成指示を受信すると、当該仮想リンク生成指示に基づいて、仮想リンク250−1を実現するためのGREトンネル600−5、600−6(図10A参照)を生成する(ステップS108)。具体的には、以下のような処理が実行される。
物理ノードA(100−1)のノード管理部931は、ドメイン管理サーバ300から仮想リンク生成指示を受信すると、当該生成指示をGRE変換装置1100に転送する。また、物理ノードD(100−4)のノード管理部931は、ドメイン管理サーバ300から仮想リンク生成指示を受信すると、当該生成指示をGRE変換装置1100に転送する。
物理ノードA(100−1)のGRE変換装置1100及び物理ノードD(100−4)のGRE変換装置1100は、GREトンネル600−5、600−6を生成する。なお、GREトンネル600の生成方法は公知の技術を用いればよいため説明を省略する。
物理ノードA(100−1)のGRE変換装置1100は、図11Aに示すように、GREトンネル600−5、600−6に対応するエントリを経路設定情報1110に追加する。
物理ノードA(100−1)のGRE変換装置1100は、GREトンネル600−5に対応するエントリの通信可否1320に「NO」を設定し、GREトンネル600−6に対応するエントリの通信可否1320に「OK」を設定する(図11A参照)。
一方、物理ノードD(100−4)のGRE変換装置1100は、GREトンネル600−5、600−6に対応するエントリを経路設定情報1110に追加し、当該エントリの通信可否1320に「OK」を設定する。
以上の処理によって、物理ノードA(100−1)と物理ノードD(100−4)との間には、VM_D(110−4)からVM_A(100−1)への単方向通信のみが可能な仮想リンク250が生成される。
以上がステップS108の処理である。
同様に、物理ノードB(100−2)及び物理ノードD(100−4)は、仮想リンク生成指示を受信すると、当該仮想リンク生成指示に基づいて、仮想リンク250−2を実現するためのGREトンネル600−7、600−8(図10A参照)を生成する(ステップS109)。
この場合、物理ノードB(100−2)のGRE変換装置1100は、GREトンネル600−7に対応するエントリの通信可否1320に「NO」を設定し、GREトンネル600−8に対応するエントリの通信可否1320に「OK」を設定する。また、物理ノードD(100−4)のGRE変換装置1100は、GREトンネル600−7、600−8に対応するエントリの通信可否1320に「OK」を設定する。
物理ノードA(100−1)のノード管理部931及び物理ノードB(100−2)のノード管理部931は、仮想リンク250を生成した後、ドメイン管理サーバ300に、計算機リソースを確保した旨の通知を送信する(ステップS110、ステップS111)。
また、物理ノードD(100−5)のノード管理部931は、VM_D(100−4)を生成し、かつ、仮想リンク250を生成した後、ドメイン管理サーバ300に、計算機リソースを確保した旨の通知を送信する(ステップS112)。
このとき、ドメイン管理サーバ300は、計算機リソースを確保した旨の通知に基づいて、マッピング情報322の更新情報及び仮想ノード管理情報323の更新情報を生成し、一時的に保持する。本実施例では、以下のような情報が生成される。
ドメイン管理サーバ300は、仮想ノードC(200−3)に対応するエントリの物理ノードID720が物理ノードD(100−4)、VM_ID730がVM_D(110−4)である更新情報を生成する。また、ドメイン管理サーバ300は、物理ノードD(100−4)の仮想ノード管理情報323を生成する。なお、ドメイン管理サーバ300は、物理ノードD(100−4)から仮想ノード管理情報323を取得してもよい。
図10Aは、ステップS112までの処理が実行された後のドメイン15内の状態を示す。
図10Aに示すように、GREトンネル600−5、600−7は、点線で表示している。これは、GREトンネル600−5、600−7は存在するが、当該GREトンネル600を用いてパケットを送信できないことを示す。ここで、図12Aを用いて、物理ノードA(100−1)のGRE変換装置1100における通信経路の接続状態について説明する。
図12Aに示すように、GRE変換装置1100は、VM_C(110−3)及びVM_D(110−4)の両方から受信したパケットをVM_A(110−1)に対する転送するように内部の通信経路を設定する。一方、GRE変換装置1100は、VM_A(110−1)から送信されるパケットをVM_C(110−3)のみに送信するように内部の通信経路を設定する。前述のように、GRE変換装置1100は、GREトンネル600−5に対してパケットが転送されないように制御する。
図9Aの説明に戻る。
次に、ドメイン管理サーバ300は、物理ノードD(100−4)に、VM_D(110−4)の起動指示を送信する(ステップS113)。具体的には、物理ノードD(100−4)のノード管理部931にVM_D(110−4)の起動指示が送信される。
これによって、仮想リンク250が生成される前に、VM_D(110−4)が稼働することを防止できる。
物理ノードD(100−4)のノード管理部931は、VM_D(110−4)の起動を仮想化管理部932に指示し(ステップS114)、ドメイン管理サーバ300にVM_D(110−4)の起動完了通知を送信する(ステップS115)。
VM_D(110−4)を起動させることによって、仮想ノードC(200−3)が実行するサービスが開始された時点では、VM_C(110−3)及びVM_D(110−4)の両方が仮想ノードC(200−3)の機能を提供できる。しかし、この時点では、まだ、VM_C(110−3)によって提供される機能を用いる仮想ノードC(200−3)において、仕掛かり中のサービスが継続中である可能性がある。したがって、VM_C(110−3)が提供する機能を用いる仮想ノードC(200−3)が引き続きサービスを実行する。
ただし、図10Aに示すように、VM_D(110−4)が提供する機能を用いる仮想ノードC(110−4)もサービスを開始しているため、仮想リンク250を切り替えてもサービスが停止することはない。なお、スライス20を使用しているユーザから見ると、一つの仮想ノードC(110−4)によってサービスが実行されているように認識される。
なお、本実施例では、仮想ノードC(200−3)が実行するサービスがステートレスであるものとする。すなわち、サービスを実行する仮想ノードC(110−4)に機能を提供するVM110が切り替えられた場合であっても、各VM110は独立して処理を実行することができる。仮想ノードC(200−3)が実行するサービスがステートレスでない場合、移行元及び移行先のVM110間に共有ストレージを設置し、ステート情報を共有させることによって、サービスを継続することができる。
ドメイン管理サーバ300は、VM_D(110−4)の起動完了通知を受信した後、隣接物理ノード100、すなわち、物理ノードA(100−1)及び物理ノードB(100−2)に仮想リンク切替指示を送信する(ステップS116、ステップS117)。なお、仮想リンク切替指示には、切替対象のGREトンネル600の識別情報が含まれる。
物理ノードA(100−1)及び物理ノードB(100−2)は、仮想リンク切替指示を受信すると、仮想リンク250を切り替える(ステップS118、ステップS119)。具体的には、以下のような処理が実行される。
ノード管理部931は、仮想リンク切替指示を受信すると、GRE変換装置1100に受信した仮想リンク切替指示を転送する。
GRE変換装置1100は、受信した仮想リンク切替指示に含まれるGREトンネル600の識別情報に基づいて、経路設定情報1110を参照して、切替対象のGREトンネル600のエントリを特定する。ここでは、移行元のVM_C(110−3)と接続するGREトンネル600のエントリと、移行先のVM_D(110−4)と接続するGREトンネル600のエントリとが特定される。
GRE変換装置1100は、特定されたエントリの通信可否1320の設定値を入れ替える。具体的には、移行元のVM110と接続するGREトンネル600のエントリの通信可否1320を「NO」に変更し、移行先のVM110と接続するGREトンネル600のエントリの通信可否1320を「OK」に変更する。
当該処理によって、経路設定情報1110は、図11Bに示すように更新される。
GRE変換装置1100は、更新された経路設定情報1110に基づいて、GREトンネル600に接続する内部の通信経路を切り替える。GRE変換装置1100は、通信経路の切替完了の通知をノード管理部931に送信する。
なお、GRE変換装置1100は、内部の通信経路を切り替えた後であっても、受信したパケットが制御パケット1210であり、かつ、移行前の仮想ノード200が配置された物理ノード100が宛先の場合には、仮想リンク250の切り替え前に使用していた内部の通信経路を介して制御パケット1210を送信することができる。
すなわち、GRE変換装置1100は、移行前に仮想ノード200が配置された物理ノード100に、データパケット1200を送信しないように制御する。
以上の処理によって、図12Bに示すように内部の通信経路が切り替えられる。これによって、VM_D(110−4)への仮想ノードC(200−3)の移行が完了する。また、システム全体において、図10Bに示すように仮想リンク250が切り替えられる。
このように、VM_C(110−3)によって提供される機能を用いた仮想ノードC(200−3)によって実行されるサービスの実行結果を取得するために、一定期間経過した後に仮想リンク250が切り替えられる。これによって、スライス20におけるサービスの整合性を保つことができる。
以上が、ステップS118、ステップS119の処理である。
仮想リンク250が切り替えられることによって、VM_D(110−4)によって提供される機能を用いた仮想ノードC(200−3)がサービスを実行する。なお、物理ノードC(100−3)のノード管理部931は、この時点では、VM_C(110−3)の停止条件を満たしていないため、VM_C(110−3)の起動状態を維持する。
物理ノードA(100−1)及び物理ノードB(100−2)は、仮想リンク250を実現するGREトンネル600の接続を切り替えた後、物理ノードC(100−3)に、仮想リンク切替完了通知を送信する(ステップS120、ステップS121)。具体的には、以下のような処理が実行される。
各物理ノード100のノード管理部931は、GRE変換装置1100に仮想リンク250の切替結果を問い合わせることによって、接続が切り替えられたGREトンネル600を特定する。GRE変換装置1100は、経路設定情報1110に新たに追加されたエントリの情報を出力することによって、切り替えられたGREトンネル600を特定できる。
各物理ノード100のノード管理部931は、特定されたGREトンネル600の接続先のVM110の識別子に基づいて、当該VM110が稼働する物理ノード100を特定する。例えば、各物理ノード100のノード管理部931は、ドメイン管理サーバ300に、特定されたVMの識別子を含む問い合わせを送信する方法が考えられる。この場合、ドメイン管理サーバ300は、マッピング情報322を参照することによって、特定されたVM110が稼働する物理ノード100を特定できる。
なお、仮想リンク切替完了通知を送信する物理ノード100の決定方法は、前述したものに限定されない。例えば、ノード管理部931が、予め、GREトンネル600と接続先の物理ノード100とを対応づけた情報を保持してもよい。
ノード管理部931は、接続先の物理ノード100の識別子を含む仮想リンク切替完了通知を生成し、当該通知をGRE変換装置1100に送信する。なお、仮想リンク切替完了通知は、制御パケット1210である。
GRE変換装置1100は、GREトンネル600を介して、接続先の物理ノード100に仮想リンク切替完了通知を送信する。
以上が、ステップS120及びステップS121の処理である。
次に、物理ノードC(100−3)は、物理ノードA(100−1)及び物理ノードB(100−2)から仮想リンク切替完了通知を受信すると、VM_C(110−3)を停止し、またGREトンネル600の接続を停止する(ステップS122)。
これは、物理ノードC(100−3)のノード管理部931が、VM_C(110−3)の停止条件を満たしたと判定したためである。
前述したように、仮想リンク切替完了通知は、データパケット1200が送信されるGREトンネル600−2、600−4を介して送信される。したがって、物理ノード100のノード管理部931は、仮想リンク切替完了通知を受信することによって、VM_C(110−3)に対して、VM_A(110−1)及びVM_B(110−2)からこれ以上データパケット1200が送信されないことを保証することができる。
一方、仮想リンク切替完了通知が、ドメイン管理サーバ300から送信される場合、仮想リンク切替完了通知に対応する制御パケット1210は、データパケット1200が送信される通信経路とは異なった通信経路を経由することになるため、GREトンネル600−2、600−4を介してデータパケット120が送信される可能性がある。
したがって、物理ノード100上で稼働するVM110と通信する全ての物理ノード100から制御パケット1210を受信することによって、仮想ノード200の移行前に機能を提供していたVM110が不要となることが分かる。
物理ノードC(100−3)は、物理ノードA(100−1)及び物理ノードC(100−3)に、仮想リンク切替完了通知に対する応答を送信する(ステップS123、ステップS124)。
なお、当該応答は制御パケット1210であるため、GREトンネル600−1、600−3を介して送信される。したがって、物理ノード100は、移行前に機能を提供していたVM110からパケットが送信されないことを保証できる。
物理ノードA(100−1)及び物理ノードB(100−2)は、仮想リンク切替完了通知に対する応答を受信すると、VM_C(110−3)と通信するためのGREトンネル600の接続を停止する(ステップS125、ステップS126)。
具体的には、各物理ノード100のノード管理部931が、GRE変換装置1100にVM_C(110−3)と通信するためのGREトンネル600の接続停止指示を送信する。GRE変換装置1100は、当該接続停止指示を受信すると、VM_C(110−3)と通信するためのGREトンネル600を介した通信を停止する。
物理ノードA(100−1)及び物理ノードB(100−2)は、ドメイン管理サーバ300に、仮想リンク停止通知を送信する(ステップS127、ステップS128)。また、物理ノードC(100−3)は、VM_C(110−3)の停止、及び、VM_C(110−3)への接続を停止した旨を通知する(ステップS129)。
ドメイン管理サーバ300は、物理ノードA(100−1)、物理ノードB(100−2)及び物理ノードC(100−3)に、VM_C(110−3)に関連する計算機リソースの解放指示を送信する(ステップS130、ステップS131、ステップS132)。
具体的には、ドメイン管理サーバ300は、物理ノードA(100−1)に対して、GREトンネル600−1、600−2を構成するための計算機リソースの解放を指示し、物理ノードB(100−2)に対して、GREトンネル600−3、600−4を構成するための計算機リソースの解放を指示する。また、ドメイン管理サーバ300は、物理ノードC(100−3)に対して、VM_C(110−3)に割り当てられた計算機リソース、及び、GREトンネル600−1、600−2、600−3、600−4を構成するための計算機リソースの解放を指示する。これによって、計算機リソースを有効に活用することができる。
なお、図9A及び図9Bにおいて、ドメイン管理サーバ300及び各物理ノード100間で送受信される指示及び応答は、処理の整合性を保つ範囲内で、任意の順番に変更してもよいし、同時に送信してもよい。また、同一の指示及び応答を複数回送信してもよい。また、一つの指示又は応答を複数の指示又は応答に分けて送信してもよい。
図10Cは、ステップS132までの処理が実行された後のドメイン内の状態を表す図である。図10Cに示すように、仮想ノードC(200−3)が物理ノードC(100−3)から物理ノードD(100−4)に移行していることが分かる。なお、スライス20上では、仮想ノードC(200−3)の移行は認識されない。
実施例1によれば、スライス20上の仮想ノード200が実行するサービスを停止することなく、かつ、スライス20のネットワーク構成を変更することなく仮想ノード200を配置する物理ノード100のマイグレーション処理を実現することができる。
実施例2では、仮想ネットワーク20が二つ以上のドメイン15間をまたがって構成される点が異なる。以下、ドメイン間15をまたがった仮想ノード200のマイグレーション処理について説明する。なお、実施例1との差異を中心に説明する。
(システム構成)
図13は、本発明の実施例2における物理ネットワーク10の構成例を示す説明図である。実施例2では、二つのドメイン15から構成される物理ネットワーク10を例に説明する。
物理ネットワーク10を構成するドメインA(15−1)及びドメインB(15−3)には、それぞれ、ドメイン管理サーバ300及び複数の物理ノード100が含まれる。実施例2では、各ドメイン15内の物理ノード100を用いて図2に示すようなスライス20が提供されているものとする。この場合、フェデレーション機能を用いることによって、二つのドメイン15をまたがったスライス20を構成することができる。
また、ドメイン管理サーバA(300−1)及びドメイン管理サーバB(300−2)は、物理リンク1300を介して接続される。ドメイン管理サーバA(300−1)及びドメイン管理サーバB(300−2)は、物理リンク1300を介して互いに通信することによって、各ドメイン15の管理情報(例えば、マッピング情報322及び仮想ノード管理情報323)を共有しているものとする。
なお、ドメイン管理サーバ300の構成は、実施例1と同一であるため説明を省略する。また、物理ノード100間の接続は、実施例1と同一のものであるため説明を省略する。
実施例2では、物理ノードB(100−2)と物理ノードC(100−3)とを接続する物理リンク400−2、及び、物理ノードA(100−1)と物理ノードD(100−4)とを接続する物理リンク400−3は、ドメイン15間を接続するネットワークである。
したがって、物理ネットワーク10の実装によっては、ドメイン15の出入口にゲートウェイ装置が設置される場合がある。本実施例では、GREトンネル600を用いることによって、二つのドメイン15間の物理ノード100を直接接続できるものとしているが、ゲートウェイ装置が設置される場合でも、同様の処理を適用することできる。
なお、物理ノード100の構成は、実施例1と同一であるため説明を省略する。
(マイグレーション動作)
以下では、実施例1と同様に、物理ノードC(100−3)から物理ノードD(100−4)への仮想ノードC(200−3)のマイグレーション処理について、図14A、図14B、図15A、図15B及び図15Cを用いて説明する。ただし、ドメイン15の異なる物理ノード100間において仮想ノード200を移行させる点が異なる。
図14A及び図14Bは、本発明の実施例2におけるマイグレーション処理の流れを説明するシーケンス図である。図15A、図15B及び図15Cは、本発明の実施例2のマイグレーション処理の実行時におけるドメイン15内の状態を示す説明図である。
なお、経路設定情報1110の更新方法、及び、GRE変換装置1100における内部の通信経路の制御方法は、実施例1と同一であるため説明を省略する。
本実施例では、ドメイン管理サーバA(300−1)を操作する管理者によって、マイグレーション対象の仮想ノードC(200−3)の識別子とともに、処理開始の要求が入力されたものとする。なお、本発明は、マイグレーション処理が開始されるタイミングに限定されない。例えば、VM110の負荷が閾値以上になった場合等に実行されてもよい。
本実施例では、ドメイン管理サーバA(300−1)及びドメイン管理サーバB(300−2)が連携してマイグレーション処理を実行するが、この場合、ドメイン管理サーバA(300−1)がマイグレーション処理を統括する。なお、ドメイン管理サーバB(300−2)がマイグレーション処理を統括する場合も同様の処理を適用することが可能である。
なお、ドメイン管理サーバ300は、VM_C(110−3)と同一の性能となるように生成指示を生成する。具体的には、ドメイン管理サーバ300は、VM_C(110−3)が稼働するサーバ900の仮想化管理部932から、VM_C(110−3)の設定情報を取得し、取得された設定情報に基づいて生成指示を生成する。
実施例2では、物理ノードD(100−4)に対するVM生成指示の送信処理が異なる(ステップS101)。
具体的には、ドメイン管理サーバA(300−1)は、ドメイン管理サーバB(300−2)に、VM生成指示を送信する。なお、VM生成指示には、宛先情報として、送信先の物理ノードD(100−4)の識別子が含まれているものとする。
ドメイン管理サーバB(300−2)は、受信したVM生成指示の宛先情報に基づいて、物理ノードD(100−4)にVM生成指示を転送する。
なお、本実施例では、予めVM生成指示に送信先の物理ノードD(100−4)の識別子が含まれているものとしたが、本発明はこれに限定されない。例えば、ドメイン管理サーバA(100−1)が、実施例1と同様のVM生成指示を送信し、ドメイン管理サーバB(300−2)が、ドメイン15内の物理ノード100の負荷情報等からVM生成指示を送信する物理ノード100を決定してもよい。
また、実施例2では、物理ノードB(100−2)及び物理ノードD(100−4)に対する仮想リンク生成指示の送信処理が異なる(ステップS103、ステップS104、ステップS105)。
具体的には、ドメイン管理サーバA(300−1)は、ドメイン管理サーバB(300−2)に、仮想リンク生成指示を送信する。なお、仮想リンク生成指示には、宛先情報として、送信先の物理ノードB(100−2)及び物理ノードD(100−4)の識別子が含まれているものとする。なお、ドメイン管理サーバA(300−1)は、マッピング情報322を参照することによって、物理ノードD(100−4)に対する隣接物理ノード100が物理ノードB(100−2)であることを把握できる。
ドメイン管理サーバB(300−2)は、受信した仮想リンク生成指示の宛先情報に基づいて、物理ノードB(100−2)及び物理ノードD(100−4)にリンク生成指示を転送する。
物理ノードA(100−1)及び物理ノードD(100−4)は、仮想リンク生成指示を受信すると、当該仮想リンク生成指示に基づいて、仮想リンク250−1を実現するためのGREトンネル600−5、600−6(図15A参照)を生成する(ステップS108)。
なお、GREトンネル600−5、600−6の生成方法は、基本的には実施例1において示した生成方法と同一である。この場合は、フェデレーションによって、ドメインをまたがったスライスが生成されているので、GREトンネルに関してもドメインをまたがって生成される。さらに、各ドメイン、さらにはドメイン間の物理ネットワークの実装方式によっては、ドメインの境界において、異なるリンク方式(例えばVLAN等)に乗り換えが行われることもある。
物理ノードB(100−2)のノード管理部931は、仮想リンク250を生成した後、ドメイン管理サーバB(300−2)に、計算機リソースを確保した旨の通知を送信する(ステップS111)。ドメイン管理サーバB(300−2)は、ドメイン管理サーバA(300−1)に当該通知を転送する(図15A参照)。
また、物理ノードD(100−5)のノード管理部931は、VM_D(100−4)を生成し、かつ、仮想リンク250を生成した後、ドメイン管理サーバB(300−2)に、計算機リソースを確保した旨の通知を送信する(ステップS112)。ドメイン管理サーバB(300−2)は、ドメイン管理サーバA(300−1)に当該通知を転送する(図15A参照)。
なお、ドメイン管理サーバB(300−2)は、物理ノードB(100−2)及び物理ノードD(100−4)からの計算機リソースを確保した旨の通知をマージし、ドメイン管理サーバA(300−1)にマージされた通知を転送してもよい。
実施例2では、VM起動指示及びVM起動完了通知は、ドメイン管理サーバB(300−2)を経由して送信される(ステップS113、ステップS115)。また、物理ノードB(100−2)に対する仮想リンク切替指示は、図15Bに示すように、ドメイン管理サーバB(300−2)を経由して送信される(ステップS117)。
物理ノードB(100−2)から送信されるリンク切替完了通知は、ドメイン管理サーバB(300−2)を経由せずに、物理リンク400−2上に生成されたGREトンネル600を介して送信される(ステップS121)。物理ノードB(100−2)に対して送信される応答は、ドメイン管理サーバB(300−2)を経由せずに、物理リンク400−2上に生成されたGREトンネル600を介して送信される(ステップS124)。
物理ノードBから送信される仮想リンク停止通知は、ドメイン管理サーバB(300−2)を経由して、ドメイン管理サーバA(300−1)に送信される。また、計算機リソースの解放指示についても、ドメイン管理サーバB(300−2)を経由して、物理ノードB(100−2)に送信される。
その他の処理は、実施例1と同一であるため説明を省略する。
実施例2によれば、複数のドメイン15から構成されるスライス20においても、仮想ノード200が実行するサービスを中断することなく、ドメイン15をまたがった仮想ノード200のマイグレーション処理を実現することができる。
実施例2では、図14A及び図14Bに示すように、ドメイン管理サーバ300間の通信が多く発生する。当該通信では、ドメイン15間の認証処理等が含まれるため、オーバヘッドが大きく、さらに、制御コマンドを送受信数が増大するため、マイグレーション処理のオーバヘッドが増大する。
そこで、実施例3では、ドメイン管理サーバ300間の通信を抑制したマイグレーション処理を実現する。具体的には、物理ノード100間の物理リンク400を介して制御パケットを送受信することによって、ドメイン管理サーバ300間の通信を抑制する。
以下、実施例2との差異を中心に説明する。なお、物理ネットワーク10の構成、ドメイン管理サーバ300の構成及び物理ノード100の構成は、実施例1と同一であるため説明を省略する。
(マイグレーション動作)
以下では、実施例2と同様に、ドメインA(15−1)の物理ノードC(100−3)からドメインB(15−2)の物理ノードD(100−4)への仮想ノードC(200−3)のマイグレーション処理について、図16A及び図16Bを用いて説明する。
図16A及び図16Bは、本発明の実施例3におけるマイグレーション処理の流れを説明するシーケンス図である。
ドメイン管理サーバA(300−1)は、ドメイン管理サーバB(300−2)にVM作成指示及びパケットVM起動条件を通知する(ステップS201)。
この時点では、まだ、物理ノード100−4との間に仮想リンク250が生成されていないため、VM作成指示及びパケットVM起動条件は、ドメイン管理サーバB(300−2)を経由して、物理ノードD(100−4)に送信される。追加ノードとの間のリンクが構成されていないためである。
ここで、VM起動条件とは、移行先の物理ノード100上に生成されたVM110を起動させるための条件を表す。物理ノードD(100−4)のノード管理部931は、VM起動条件を受信すると、当該起動条件が設立するか否かを判定するための判定処理を開始する。
本実施例では、VM起動条件として、隣接物理ノード100、すなわち、物理ノードA(100−1)及び物理ノードB(100−2)から仮想リンク生成報告を受信した場合にVM_D(110−4)を起動する条件が設定されているものとする。
実施例3では、物理ノードA(100−1)、物理ノードB(100−2)及び物理ノードD(100−4)は、ドメイン管理サーバA(300−1)に、計算機リソースを確保した旨の通知を送信しない。実施例3では、物理ノードA(100−1)及び物理ノードB(100−2)が、GREトンネル600を介して、物理ノードD(100−4)に仮想リンク生成報告を送信する点が異なる(ステップS202、ステップS203)。
これによって、VM_D(110−4)を起動するために、ドメイン管理サーバ300間の通信及びドメイン管理サーバ300と物理ノード100との間の通信を抑制することができる。したがって、マイグレーション処理のオーバヘッドを削減できる。
実施例3では、物理ノードD(100−4)のノード管理部931は、隣接物理ノード100から仮想リンク生成報告を受信すると、VM_D(110−4)の起動を仮想化管理部932に指示する(ステップS114)。
物理ノードD(100−4)のノード管理部931は、VM_D(110−4)の起動後、隣接物理ノード100に、サービス開始通知を送信する(ステップS204、ステップS205)。ここで、サービス開始通知は、VM_D(110−4)が提供する機能を用いて仮想ノードC(200−3)がサービスを開始したことを示す通知である。
具体的には、サービス開始通知が、GREトンネル600を介して、物理ノードA(100−1)及び物理ノードB(100−2)に送信される。
物理ノードA(100−1)及び物理ノードB(100−2)は、サービス開始通知を受信すると、仮想リンク250を切り替える(ステップS118、ステップS119)。
実施例3では、物理ノードA(100−1)及び物理ノードB(100−2)は、物理ノードD(100−4)から送信されたサービス開始通知の受信を契機に、仮想リンク250を切り替える点が異なる。すなわち、VM起動完了通知及び仮想リンク切替指示の送信を、サービス開始通知の送信によって実現している。
実施例2では、仮想リンク250を切り替えるために、物理ノード100とドメイン管理サーバ300との間で通信を行う必要があったが、実施例3では、物理ノード100間で直接通信するため、ドメイン管理サーバ300を経由した通信を抑制することができる。
その他の処理は実施例2と同一であるため説明を省略する。
実施例3によれば、物理ノード100間を接続するリンク(GREトンネル600)を介して通信することによって、ドメイン管理サーバ300との間の通信を抑制できる。これによって、マイグレーション処理におけるオーバヘッドを削減することができる。
なお、本実施例で例示した種々のソフトウェアは、電磁的、電子的及び光学式等の種々の記録媒体(例えば、非一時的な記憶媒体)に格納可能であり、インターネット等の通信網を通じて、コンピュータにダウンロード可能である。
さらに、本実施例では、ソフトウェアによる制御を用いた例について説明したが、その一部をハードウェアによって実現することも可能である。
以上、本発明を添付の図面を参照して詳細に説明したが、本発明はこのような具体的構成に限定されるものではなく、添付した請求の範囲の趣旨内における様々な変更及び同等の構成を含むものである。
10 物理ネットワーク
15 ドメイン
20 仮想ネットワーク(スライス)
100 物理ノード
110 仮想計算機(VM)
160 リンク管理部
190 ノード管理部
200 仮想ノード
250 仮想リンク
300 ドメイン管理サーバ
321 ドメイン管理部
900 サーバ
931 ノード管理部
932 仮想化管理部
940 ストレージ
1000 ノード内スイッチ
1100 GRE変換装置

Claims (12)

  1. 計算機リソースを有する複数の物理ノードから構成されるネットワークシステムであって、
    前記物理ノードは、物理リンクを介して、他の前記物理ノードと接続され、
    前記ネットワークシステムには、前記物理ノードが有する計算機リソースが割り当てられ、所定のサービスを実行する複数の仮想ノードから構成される仮想ネットワークが構成され、
    前記ネットワークシステムは、
    前記仮想ノードを管理するネットワーク管理部と、
    前記物理ノードを管理するノード管理部と、
    前記物理ノード間を接続する前記物理リンク及び前記仮想ノード間を接続する仮想リンクの接続を管理するリンク管理部と、
    を備え、
    前記ネットワーク管理部は、
    前記仮想ノードと、前記仮想ノードに前記計算機リソースを割り当てる前記物理ノードとの対応を示すマッピング情報と、
    前記仮想リンクを管理する仮想ノード管理情報と、
    を保持し、
    前記リンク管理部は、前記仮想リンクの接続状態を管理する経路設定情報を保持し、
    前記ネットワークシステムは、
    第1の物理ノードの前記計算機リソースを用いてサービスを実行する第1の仮想ノードを第2の物理ノードに移行させる場合に、前記ネットワーク管理部が、前記第2の物理ノードに前記第1の仮想ノードに割り当てる前記計算機リソースの確保指示を送信し、
    前記ネットワーク管理部が、前記仮想ネットワーク上において、前記第1の仮想ノードと前記仮想リンクを介して接続される隣接仮想ノードに前記計算機リソースを割り当てる隣接物理ノードを特定し、
    前記ネットワーク管理部が、前記リンク管理部に対して、前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に、前記第1の仮想ノードと前記隣接仮想ノードとを接続する前記仮想リンクを実現するための通信経路の生成指示を送信し、
    前記リンク管理部が、前記通信経路の生成指示に基づいて、前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に前記通信経路を生成し、
    前記ノード管理部が、前記第2の物理ノードによって確保された前記計算機リソースを用いて前記第1の仮想ノードが実行するサービスを開始し、
    前記ネットワーク管理部が、前記リンク管理部に前記仮想リンクの切替指示を送信し、
    前記リンク管理部が、前記生成された通信経路を前記仮想リンクとして切り替えることを特徴とするネットワークシステム。
  2. 請求項1に記載のネットワークシステムであって、
    前記ノード管理部は、
    前記経路設定情報に基づいて、前記仮想ノード間のデータの送受信を制御し、
    前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に前記通信経路を生成する場合に、前記第2の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードから前記隣接仮想ノードへのデータの送信を許可し、前記隣接仮想ノードから前記第2の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードへのデータの送信を停止するように設定された前記通信経路を生成し、
    前記経路設定情報に、前記生成された通信経路の識別情報とデータの送信許可を示す情報とを対応づけた設定情報を追加し、
    前記仮想リンクの切替指示を受信した場合に、前記隣接仮想ノードから前記第2の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードへのデータの送信を許可するように、前記経路設定情報に追加された設定情報を更新することを特徴とするネットワークシステム。
  3. 請求項2に記載のネットワークシステムであって、
    前記ネットワーク管理部は、前記ノード管理部に、前記第1の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードが実行するサービスの停止条件を送信し、
    前記ノード管理部は、
    前記受信したサービス停止条件を満たすか否かを判定する判定処理を実行し、
    前記受信したサービス停止条件を満たすと判定された場合に、前記第1の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードが実行するサービスを停止することを特徴とするネットワークシステム。
  4. 請求項3に記載のネットワークシステムであって、
    前記サービス停止条件は、前記隣接物理ノードから前記仮想リンクの切替完了通知の受信であることを特徴とするネットワークシステム。
  5. 請求項4に記載のネットワークシステムであって、
    前記ノード管理部は、前記第1の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードが実行するサービスを停止した後に、前記第1の仮想ノードに割り当てられていた前記第1の物理ノードの計算機リソースを解放することを特徴とするネットワークシステム。
  6. 請求項2に記載のネットワークシステムであって、
    前記物理ノードは、前記ノード管理部及び前記リンク管理部を含み、
    前記第2の物理ノードの前記リンク管理部及び前記隣接物理ノードの前記リンク管理部は、前記通信経路を生成し、
    前記第2の物理ノードのリンク管理部は、前記通信経路を介した、前記データの送受信を許可する第1の設定情報を前記経路設定情報に追加し、
    前記隣接物理ノードのリンク管理部は、前記通信経路を介した、前記データの受信を許可し、かつ、前記データの送信を停止する第2の設定情報を前記経路設定情報に追加し、
    前記隣接物理ノードは、前記生成された通信経路を介して、前記第2の物理ノードに前記通信経路が生成されたことを通知する第1の制御情報を送信し、
    前記第2の物理ノードの前記ノード管理部は、
    前記第1の制御情報を受信した後に、前記確保された計算機リソースを前記第1の仮想ノードに割り当てて、前記第1の仮想ノードが実行するサービスを開始し、
    前記隣接物理ノードに、前記通信経路を介して、前記第1の仮想ノードが実行するサービスが開始したことを通知する第2の制御情報を送信し、
    前記隣接物理ノードのリンク管理部は、前記第2の制御情報を受信した後に、前記通信経路を介した、前記データの送信を許可するように前記第2の設定情報を変更することによって、前記仮想リンクを切り替えることを特徴とするネットワークシステム。
  7. 計算機リソースを有する複数の物理ノードから構成されるネットワークシステム上に構成される仮想ネットワークを構成する仮想ノードのマイグレーション方法であって、
    前記物理ノードは、物理リンクを介して、他の前記物理ノードと接続され、
    前記仮想ネットワークは、前記物理ノードが有する計算機リソースが割り当てられ、所定のサービスを実行する複数の仮想ノードから構成され、
    前記ネットワークシステムは、
    前記仮想ノードを管理するネットワーク管理部と、
    前記物理ノードを管理するノード管理部と、
    前記物理ノード間を接続する前記物理リンク及び前記仮想ノード間を接続する仮想リンクの接続を管理するリンク管理部と、
    を備え、
    前記ネットワーク管理部は、
    前記仮想ノードと、前記仮想ノードに前記計算機リソースを割り当てる前記物理ノードとの対応を示すマッピング情報と、
    前記仮想リンクを管理する仮想ノード管理情報と、
    を保持し、
    前記リンク管理部は、前記仮想リンクの接続状態を管理する経路設定情報を保持し、
    前記方法は、
    前記ネットワーク管理部が、第1の物理ノードの前記計算機リソースを用いてサービスを実行する第1の仮想ノードを第2の物理ノードに移行させる場合に、前記第2の物理ノードに前記第1の仮想ノードに割り当てる前記計算機リソースの確保指示を送信する第1のステップと、
    前記ネットワーク管理部が、前記仮想ネットワーク上において、前記第1の仮想ノードと前記仮想リンクを介して接続される隣接仮想ノードに前記計算機リソースを割り当てる隣接物理ノードを特定する第2のステップと、
    前記ネットワーク管理部が、前記リンク管理部に対して、前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に、前記第1の仮想ノードと前記隣接仮想ノードとを接続する前記仮想リンクを実現するための通信経路の生成指示を送信する第3のステップと、
    前記リンク管理部が、前記通信経路の生成指示に基づいて、前記第2の物理ノードと前記隣接物理ノードとを接続する前記物理リンク上に前記通信経路を生成する第4のステップと、
    前記ノード管理部が、前記第2の物理ノードによって確保された前記計算機リソースを用いて前記第1の仮想ノードが実行するサービスを開始する第5のステップと、
    前記ネットワーク管理部が、前記リンク管理部に前記仮想リンクの切替指示を送信する第6のステップと、
    前記リンク管理部が、前記生成された通信経路を前記仮想リンクとして切り替える第7のステップと、を含むことを特徴とする仮想ノードのマイグレーション方法。
  8. 請求項7に記載の仮想ノードのマイグレーション方法であって、
    前記ノード管理部は、前記経路設定情報に基づいて、前記仮想ノード間のデータの送受信を制御し、
    前記第4のステップは、
    前記第2の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードから前記隣接仮想ノードへのデータの送信を許可し、前記隣接仮想ノードから前記第2の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードへのデータの送信を停止するように設定された前記通信経路を生成するステップと、
    前記経路設定情報に、前記生成された通信経路の識別情報とデータの送信許可を示す情報とを対応づけた設定情報を追加するステップと、を含み、
    前記第7のステップでは、前記仮想リンクの切替指示を受信した場合に、前記隣接仮想ノードから前記第2の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードへのデータの送信を許可するように、前記経路設定情報に追加された設定情報を更新することを特徴とする仮想ノードのマイグレーション方法。
  9. 請求項8に記載の仮想ノードのマイグレーション方法であって、
    前記方法は、
    前記ネットワーク管理部が、前記ノード管理部に、前記第1の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードが実行するサービスの停止条件を送信するステップと、
    前記ノード管理部が、前記受信したサービス停止条件を満たすか否かを判定する判定処理を実行するステップと、
    前記ノード管理部が、前記受信したサービス停止条件を満たすと判定された場合に、前記第1の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードが実行するサービスを停止するステップと、を含むことを特徴とする仮想ノードのマイグレーション方法。
  10. 請求項9に記載の仮想ノードのマイグレーション方法であって、
    前記サービス停止条件は、前記隣接物理ノードから前記仮想リンクの切替完了通知の受信であることを特徴とする仮想ノードのマイグレーション方法。
  11. 請求項10に記載の仮想ノードのマイグレーション方法であって、
    前記方法は、
    前記ノード管理部が、前記第1の物理ノードの計算機リソースが割り当てられた前記第1の仮想ノードが実行するサービスを停止した後に、前記第1の仮想ノードに割り当てられていた前記第1の物理ノードの計算機リソースを解放するステップを含むことを特徴とする仮想ノードのマイグレーション方法。
  12. 請求項8に記載の仮想ノードのマイグレーション方法であって、
    前記物理ノードは、前記ノード管理部及び前記リンク管理部を含み、
    前記第4のステップは、
    前記第2の物理ノードの前記リンク管理部及び前記隣接物理ノードの前記リンク管理部が、前記通信経路を生成するステップと、
    前記第2の物理ノードのリンク管理部が、前記通信経路を介した、前記データの送受信を許可する第1の設定情報を前記経路設定情報に追加するステップと、
    前記隣接物理ノードのリンク管理部が、前記通信経路を介した、前記データの受信を許可し、かつ、前記データの送信を停止する第2の設定情報を前記経路設定情報に追加するステップと、
    前記隣接物理ノードが、前記生成された通信経路を介して、前記第2の物理ノードに前記通信経路が生成されたことを通知する第1の制御情報を送信するステップと、
    を含み、
    前記第5のステップは、
    前記第2の物理ノードの前記ノード管理部が、前記第1の制御情報を受信した後に、前記確保された計算機リソースを前記第1の仮想ノードに割り当てて、前記第1の仮想ノードが実行するサービスを開始するステップと、
    前記第2の物理ノードのノード管理部が、前記隣接物理ノードに、前記通信経路を介して、前記第1の仮想ノードが実行するサービスが開始したことを通知する第2の制御情報を送信するステップと、
    を含み、
    前記第7のステップは、前記隣接物理ノードのリンク管理部が、前記第2の制御情報を受信した後に、前記通信経路を介した、前記データの送信を許可するように前記第2の設定情報を変更することによって、前記仮想リンクを切り替えるステップを含む、ことを特徴とする仮想ノードのマイグレーション方法。
JP2012188316A 2012-08-29 2012-08-29 ネットワークシステム及び仮想ノードのマイグレーション方法 Expired - Fee Related JP5835846B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012188316A JP5835846B2 (ja) 2012-08-29 2012-08-29 ネットワークシステム及び仮想ノードのマイグレーション方法
CN201310316471.9A CN103684960A (zh) 2012-08-29 2013-07-25 网络系统以及虚拟节点的迁移方法
US13/961,209 US20140068045A1 (en) 2012-08-29 2013-08-07 Network system and virtual node migration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012188316A JP5835846B2 (ja) 2012-08-29 2012-08-29 ネットワークシステム及び仮想ノードのマイグレーション方法

Publications (2)

Publication Number Publication Date
JP2014049773A true JP2014049773A (ja) 2014-03-17
JP5835846B2 JP5835846B2 (ja) 2015-12-24

Family

ID=50189038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012188316A Expired - Fee Related JP5835846B2 (ja) 2012-08-29 2012-08-29 ネットワークシステム及び仮想ノードのマイグレーション方法

Country Status (3)

Country Link
US (1) US20140068045A1 (ja)
JP (1) JP5835846B2 (ja)
CN (1) CN103684960A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052080A (ja) * 2014-09-02 2016-04-11 日本電信電話株式会社 通信システムおよびその方法
KR20160138195A (ko) * 2014-03-24 2016-12-02 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) 전송 네트워크 가상화에서 탄력성을 제공하기 위한 방법
JP2017076967A (ja) * 2015-10-12 2017-04-20 富士通株式会社 マルチドメイン・ネットワークにおけるバーテックス中心のサービス機能チェーン形成
JP2017135653A (ja) * 2016-01-29 2017-08-03 富士通株式会社 試験装置、ネットワークシステム、及び試験方法
WO2017170309A1 (ja) * 2016-03-31 2017-10-05 日本電気株式会社 ネットワークシステム、その管理方法および装置ならびにサーバ
JP2022078349A (ja) * 2016-03-31 2022-05-24 日本電気株式会社 ネットワークシステムの制御方法および制御装置
US11399011B2 (en) 2017-03-03 2022-07-26 Samsung Electronics Co., Ltd. Method for transmitting data and server device for supporting same

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103825963B (zh) * 2014-03-18 2017-12-22 中国科学院声学研究所 虚拟服务迁移方法
US9973380B1 (en) * 2014-07-10 2018-05-15 Cisco Technology, Inc. Datacenter workload deployment using cross-domain global service profiles and identifiers
US10038629B2 (en) 2014-09-11 2018-07-31 Microsoft Technology Licensing, Llc Virtual machine migration using label based underlay network forwarding
US9531599B2 (en) * 2014-09-19 2016-12-27 Fujitsu Limited Virtual optical network provisioning based on mapping choices and patterns
JP6395260B2 (ja) * 2014-10-21 2018-09-26 Kddi株式会社 仮想ネットワーク割当方法および装置
US9923800B2 (en) 2014-10-26 2018-03-20 Microsoft Technology Licensing, Llc Method for reachability management in computer networks
US9936014B2 (en) * 2014-10-26 2018-04-03 Microsoft Technology Licensing, Llc Method for virtual machine migration in computer networks
JP6507572B2 (ja) * 2014-10-31 2019-05-08 富士通株式会社 管理サーバの経路制御方法、および管理サーバ
US9735873B2 (en) * 2015-02-10 2017-08-15 Fujitsu Limited Provisioning virtual optical networks
US9755893B2 (en) * 2015-02-10 2017-09-05 Fujitsu Limited Provisioning virtual optical networks
KR102506270B1 (ko) * 2015-09-07 2023-03-07 한국전자통신연구원 이동 통신 네트워크 시스템 및 네트워크 구성 방법
US9462570B1 (en) 2015-10-02 2016-10-04 International Business Machines Corporation Selectively sending notifications to mobile devices
CN105721201B (zh) * 2016-01-22 2018-12-18 北京邮电大学 一种节能的虚拟网络迁移方法
US20200401432A1 (en) * 2016-03-31 2020-12-24 Nec Corporation Management method and management apparatus in network system
US10264064B1 (en) * 2016-06-09 2019-04-16 Veritas Technologies Llc Systems and methods for performing data replication in distributed cluster environments
CN107659426B (zh) * 2016-07-26 2021-02-12 华为技术有限公司 分配物理资源的方法和网络侧设备
CN107885758B (zh) * 2016-09-30 2021-11-19 华为技术有限公司 一种虚拟节点的数据迁移方法和虚拟节点
MX2019005226A (es) 2016-11-04 2019-08-12 Ericsson Telefon Ab L M Manejo de disponibilidad de segmentos de red limitada.
CN109032763B (zh) * 2018-08-14 2021-07-06 新华三云计算技术有限公司 一种虚拟机迁移方法及虚拟机管理器
JP2023061144A (ja) 2021-10-19 2023-05-01 横河電機株式会社 制御システム、制御方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0509900A (pt) * 2004-04-12 2007-09-18 Xds Inc sistema e método para iniciar automaticamente e estabelecer de forma dinámica conexões seguras pela internet entre um servidor com barreira de proteção e um cliente com barreira de proteção
GB2419701A (en) * 2004-10-29 2006-05-03 Hewlett Packard Development Co Virtual overlay infrastructure with dynamic control of mapping
US7461102B2 (en) * 2004-12-09 2008-12-02 International Business Machines Corporation Method for performing scheduled backups of a backup node associated with a plurality of agent nodes
JP5246388B2 (ja) * 2007-03-08 2013-07-24 日本電気株式会社 仮想装置構成システム、及びその方法
CN102081552A (zh) * 2009-12-01 2011-06-01 华为技术有限公司 一种物理机到虚拟机的在线迁移方法、装置和系统
US8473557B2 (en) * 2010-08-24 2013-06-25 At&T Intellectual Property I, L.P. Methods and apparatus to migrate virtual machines between distributive computing networks across a wide area network

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160138195A (ko) * 2014-03-24 2016-12-02 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) 전송 네트워크 가상화에서 탄력성을 제공하기 위한 방법
JP2016052080A (ja) * 2014-09-02 2016-04-11 日本電信電話株式会社 通信システムおよびその方法
JP2017076967A (ja) * 2015-10-12 2017-04-20 富士通株式会社 マルチドメイン・ネットワークにおけるバーテックス中心のサービス機能チェーン形成
JP2017135653A (ja) * 2016-01-29 2017-08-03 富士通株式会社 試験装置、ネットワークシステム、及び試験方法
WO2017170309A1 (ja) * 2016-03-31 2017-10-05 日本電気株式会社 ネットワークシステム、その管理方法および装置ならびにサーバ
JPWO2017170309A1 (ja) * 2016-03-31 2019-02-21 日本電気株式会社 ネットワークシステム、その管理方法および装置ならびにサーバ
US11288086B2 (en) 2016-03-31 2022-03-29 Nec Corporation Network system, management method and apparatus thereof, and server
JP7056555B2 (ja) 2016-03-31 2022-04-19 日本電気株式会社 ネットワークシステム、その管理方法および装置ならびにサーバ
JP2022078349A (ja) * 2016-03-31 2022-05-24 日本電気株式会社 ネットワークシステムの制御方法および制御装置
JP7251671B2 (ja) 2016-03-31 2023-04-04 日本電気株式会社 ネットワークシステムの制御方法および制御装置
US11868794B2 (en) 2016-03-31 2024-01-09 Nec Corporation Network system, management method and apparatus thereof, and server
US11399011B2 (en) 2017-03-03 2022-07-26 Samsung Electronics Co., Ltd. Method for transmitting data and server device for supporting same

Also Published As

Publication number Publication date
CN103684960A (zh) 2014-03-26
US20140068045A1 (en) 2014-03-06
JP5835846B2 (ja) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5835846B2 (ja) ネットワークシステム及び仮想ノードのマイグレーション方法
JP5608794B2 (ja) 複数の仮想マシンを管理するための階層システム、方法、及びコンピュータプログラム
US9325615B2 (en) Method and apparatus for implementing communication between virtual machines
JP6538986B2 (ja) 仮想マシンパケット制御
US9634930B2 (en) Method of controlling virtual router, computer-readable recording medium, and control device
US7962587B2 (en) Method and system for enforcing resource constraints for virtual machines across migration
US10469629B2 (en) Container networking for connecting network controller applications to a switch fabric
US11941423B2 (en) Data processing method and related device
JP6477864B2 (ja) 制御装置、制御方法及びプログラム
JP6574304B2 (ja) 仮想ネットワーク管理
JP2018523932A (ja) 負荷バランシングコンピュータデバイス、システム、および方法
US20100287262A1 (en) Method and system for guaranteed end-to-end data flows in a local networking domain
WO2017032300A1 (zh) 一种数据传输方法、虚拟网络管理装置及数据传输系统
KR102213122B1 (ko) 비즈니스 마이그레이션을 위한 방법 및 장치
WO2016169218A1 (zh) 一种网关虚拟化方法、系统及计算机存储介质
WO2016159192A1 (ja) 制御装置、制御方法及びプログラム
WO2015180154A1 (zh) 网络控制方法和装置
JP5679343B2 (ja) クラウドシステム、ゲートウェイ装置、通信制御方法、及び通信制御プログラム
KR20170114923A (ko) 네트워크 슬라이스를 이용한 통신 방법 및 통신 장치
JP2016506193A (ja) ソフトウェア定義ネットワークにおける制御方法、制御装置およびプロセッサ
Nakagawa et al. Dynamic virtual network configuration between containers using physical switch functions for NFV infrastructure
JP2021510974A (ja) アンカーレス・バックホールのサポートのためのgtpトンネル
JP5063726B2 (ja) 仮想ノード装置のコンフィグ制御方法
Jiang et al. FestNet: A flexible and efficient sliced transport network
WO2016159057A1 (ja) 制御装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151030

R150 Certificate of patent or registration of utility model

Ref document number: 5835846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees