JP5881465B2 - 管理計算機、転送経路管理方法及び計算機システム - Google Patents

管理計算機、転送経路管理方法及び計算機システム Download PDF

Info

Publication number
JP5881465B2
JP5881465B2 JP2012040196A JP2012040196A JP5881465B2 JP 5881465 B2 JP5881465 B2 JP 5881465B2 JP 2012040196 A JP2012040196 A JP 2012040196A JP 2012040196 A JP2012040196 A JP 2012040196A JP 5881465 B2 JP5881465 B2 JP 5881465B2
Authority
JP
Japan
Prior art keywords
transfer
computer
information
data flow
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012040196A
Other languages
English (en)
Other versions
JP2013175996A (ja
Inventor
敏明 鈴木
敏明 鈴木
俊明 垂井
俊明 垂井
功 下川
功 下川
馬場 智宏
智宏 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012040196A priority Critical patent/JP5881465B2/ja
Publication of JP2013175996A publication Critical patent/JP2013175996A/ja
Application granted granted Critical
Publication of JP5881465B2 publication Critical patent/JP5881465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、ユーザに計算機資源を提供するクラウドシステムに関する。特に、計算機資源のマイグレーションに伴うネットワーク設定の更新処理の高速化を実現する装置、方法及びシステムに関する。
近年、大規模なデータセンタの計算機資源をユーザに提供するクラウドコンピューティングが普及しつつある。クラウドコンピューティングでは仮想化技術が用いられ、計算機資源から生成された仮想計算機(VM)及び論理ボリューム(LU)がユーザに提供される。
クラウドコンピューティングを提供するベンダは、データセンタの計算機資源を有効に活用し、また、消費電力の削減のため、VM又はLUを集約するためのマイグレーション処理が実行される(例えば、特許文献1参照)。
特許文献1には、ネットワーク側及びコンピュータ側を一元的に制御して仮想マシンのマイグレーションを実行する方法が記載されている。具体的にはスイッチは、移動後の仮想マシンからのパケットデータがルールに適合しない場合、パケットデータのMACアドレスをオープンフローコントローラに通知し、オープンフローコントローラは、通知されたMACアドレスに応じて生成された移動先VM宛通信用フローをスイッチに設定することが記載されている。
特開2011−70549号公報
しかし、従来のVM等のアクセス先の切替処理では、クラウドコンピューティングを提供するシステム内の機器に対してブロードキャストでVM又はLUの移動先に関する情報が送信される。そのため、大規模なネットワークや複数のデータセンタをまたがるネットワークでは、計算機資源の配置変更に伴う機器の接続情報の更新に遅延が生じる。
引用文献1には、仮想マシンのマイグレーション後のアクセス先の切替処理において、通信経路情報及びトポロジー情報からフローの設定が必要なノード等を抽出することが記載されている。しかし、前述した方法は、全ての通信経路について検索処理が実行されるため処理時間が長く、ノードへのフロー設定に遅延が生じる。
本発明は、前述した課題を鑑みてなされた発明である。すなわち、クラウドコンピューティングにおいて、計算機資源の配置変更に伴う機器の接続情報の更新を高速に実現する装置、方法及び計算機システムを提供する。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、第1のプロセッサ、前記第1のプロセッサに接続される第1の記憶媒体及び他の装置と接続する第1のネットワークインタフェースを有する複数の計算機と、制御部及び他の装置を接続するポートを有し、前記複数の計算機を接続する複数の転送装置と、を管理する管理計算機であって、前記管理計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶媒体と、他の装置と接続する第2のネットワークインタフェースとを備え、前記複数の転送装置によってネットワークが構成され、前記複数の転送装置は、前記複数の計算機間で送受信されるデータフローの転送を制御するための経路情報を保持し、前記複数の計算機は、計算機資源を提供する複数の提供計算機と、前記ネットワークを介して前記計算機資源を使用する一以上のユーザ計算機とを含み、前記複数の提供計算機は、第1のユーザ計算機が使用する第1の計算機資源を提供する第1の提供計算機を含み、前記管理計算機は、前記提供計算機の稼働状態に基づいて、前記ユーザ計算機が使用する前記計算機資源の割当先の提供計算機を変更する配置変更部と、前記ネットワークにおける、前記ユーザ計算機と前記計算機資源を割り当てる前記提供計算機との接続関係を管理する接続管理部と、前記計算機資源と、前記計算機資源を提供する前記提供計算機との対応関係を管理する計算機資源管理情報を記憶する記憶部と、を備え、前記接続管理部は、前記複数の転送装置から前記経路情報を取得し、前記配置変更部によって、前記第1の計算機資源を提供する前記提供計算機が前記第1の提供計算機から第2の提供計算機に変更される場合に、前記第1のユーザ計算機を収容し、かつ、前記第1の計算機資源宛ての前記データフローを転送する転送装置である始点転送装置の前記経路情報、及び前記計算機資源管理情報に基づいて、前記始点転送装置が転送する前記データフローの中に、前記第2の提供計算機が提供する第2の計算機資源宛ての前記データフローが存在するか否かを判定し、前記始点転送装置が転送する前記データフローの中に、前記第2の計算機資源宛ての前記データフローが存在すると判定された場合、前記複数の転送装置の前記経路情報に基づいて、前記始点転送装置と前記第1の提供計算機を収容する転送装置との間で送受信される第1のデータフローが通過する第1の転送経路、及び、前記始点転送装置と前記第2の提供計算機を収容する転送装置との間で送受信される第2のデータフローが通過する第2の転送経路を検索し、前記第2の転送経路に含まれる前記転送装置の前記経路情報に基づいて、前記第1の転送経路に含まれる前記転送装置、及び、前記第2の転送経路に含まれる前記転送装置のうち前記経路情報の更新が必要な転送装置の前記経路情報の更新データを算出することを特徴とする。
本発明によれば、クラウドコンピューティングにおいて、計算機資源の割り当て先の変更に伴って、経路情報の更新が必要な転送装置のみに必要な更新データを送信することができる。したがって、計算機資源へのアクセスに遅延が生じることがないため、業務等を停止させることなく継続できる。
本発明の第1の実施形態におけるクラウドサービスを提供する計算機システムの構成例を示す説明図である。 本発明の第1の実施形態における転送装置(SW)のハードウェア構成及びソフトウェア構成の一例を示すブロック図である。 本発明の第1の実施形態における管理装置のハードウェア構成及びソフトウェア構成の一例を示すブロック図である。 本発明の第1の実施形態におけるUE−SW1が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるUE−SW2が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるSW1が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるSW2が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるDCE−SW1が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるDCE−SW2が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するVM管理情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するVM管理情報の一例を示す説明図である。 本発明の第1の実施形態における転送装置が実行するMAC情報の更新処理を説明するフローチャートである。 本発明の第1の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。 本発明の第1の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。 本発明の第1の実施形態における管理装置が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が保持するMAC情報の一例を示す説明図である。 本発明の第1の実施形態における管理装置が実行する処理の詳細を説明するフローチャートである。 本発明の第1の実施形態における管理装置が実行する処理の詳細を説明するフローチャートである。 本発明の第1の実施形態における管理装置が実行する更新データの算出処理の詳細を説明するフローチャートである。 本発明の第1の実施形態におけるSW1に関するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるSW2に関するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるDCE−SW1に関するMAC情報の一例を示す説明図である。 本発明の第1の実施形態におけるDCE−SW2に関するMAC情報の一例を示す説明図である。 本発明の第2の実施形態におけるクラウドサービスを提供する計算機システムの構成例を示す説明図である。 本発明の第2の実施形態におけるストレージシステムの構成例を示すブロック図である。 本発明の第2の実施形態におけるLU管理情報の一例を示す説明図である。
以下、実施形態について図面を用いて説明する。
[第1の実施形態]
第1の実施形態では、管理装置が、仮想計算機(VM)の移動に伴って、当該仮想計算機へデータフローを転送するための設定を行う。また、本実施形態では、OSI参照モデルの第2層に相当するレイヤ2におけるデータ転送を例に説明する。本実施形態のレイヤ2の転送では、MAC(Media Access Control)情報に従ってデータフローが転送される。
図1は、本発明の第1の実施形態におけるクラウドサービスを提供する計算機システムの構成例を示す説明図である。
本実施形態における計算機システムは、端末100、UE−SW110、SW130、DCE−SW150、データセンタ201及び管理装置300から構成される。
UE−SW110、SW130及びDCE−SW150は、端末100とデータセンタ201との間、又はデータセンタ201間で送受信されるデータを転送する転送装置である。本実施形態では、UE−SW110、SW130及びDCE−SW150からネットワーク350が構成される。なお、UE−SW110、SW130及びDCE−SW150のハードウェア構成及びソフトウェア構成は同一のものである。
また、UE−SW110、SW130及びDCE−SW150は、所定のルールに基づいてグルーピングされたデータの集合であるデータフロー毎にデータを転送する。例えば、送信元MACアドレス、送信先MACアドレス、送信元ポート番号及び送信先ポート番号の組み合わせに基づいてグルーピングするルールが考えられる。本実施形態では、送信先のMACアドレスに基づいてグルーピングされたデータフローとする。
以下では、データフローが転送される経路を転送経路とも記載する。
端末100は、クラウドサービスを利用するユーザが操作する計算機であり、プロセッサ(図示省略)、メモリ(図示省略)、ネットワークインタフェース(図示省略)及び入出力装置(図示省略)を備える。図1では、端末100は、端末1(100−1)及び端末2(100−2)の2台であるが、本発明はこれに限定されず、端末100は2台以上あってもよい。
UE−SW110は、端末100を接続する転送装置であり、複数のポート111を備える。UE−SW110は、ポート111を介して受信したデータフローを転送する。なお、UE−SW110は、端末100と直接接続されている必要は無く、端末100を収容できればよい。
図1に示す例では、UE−SW1(110−1)は、端末1(100−1)と接続され、ポート111−1及びポート111−2を介して、受信したデータフローを転送する。また、UE−SW2(110−2)は、端末2(100−2)と接続され、ポート111−3及びポート111−4を介して、受信したデータフローを転送する。
SW130は、ネットワーク350内の他の転送装置(UE−SW110、SW130及びDCE−151)を接続する転送装置であり、複数のポート131を備える。SW130は、ポート131を介して受信したデータフローを転送する。
図1に示す例では、SW1(130−1)は、ポート131−1、ポート131−2、ポート131−3及びポート131−4を介して、受信したデータフローを転送する。転送装置SW2(130−2)は、ポート131−5、ポート131−6、ポート131−7及びポート131−8を介して受信したデータフローを転送する。
DCE−SW150は、データセンタ201を接続する転送装置であり、複数のポート151を備える。DCE−SW150は、ポート151を介して受信したデータフローを転送する。
図1に示す例では、DCE−SW1(150−1)は、ポート151−1及びポート151−2を介して受信したデータフローを転送する。DCE−SW2(150−2)は、ポート151−3及びポート151−4を介して、受信したデータフローを転送する。DCE−SW3(150−3)は、ポート151−5及びポート151−6を介して、受信したデータフローを転送する。
データセンタ201は、複数のサーバ210を備える計算機システムであり、ネットワーク220を介してDCE−SW150と接続される。
図1に示す例では、データセンタ1(210−1)は、ネットワーク220−1を介してDCE−SW1(150−1)と接続する。データセンタ2(210−2)は、ネットワーク220−2を介してDCE−SW2(150−2)と接続する。データセンタ3(210−3)は、ネットワーク220−3を介してDCE−SW3(150−3)と接続する。
図1に示す例では、データセンタ1(210−1)は、サーバ1(210−1)を備える。データセンタ2(210−2)は、サーバ2(210−2)及びサーバ3(210−3)を備える。データセンタ3(210−3)は、サーバ4(210−4)を備える。
サーバ210は、ユーザに計算機資源を提供する計算機である。サーバ210は、計算機資源を仮想化することによって仮想計算機(VM)212を生成する仮想化部211を備える。仮想化部211は、生成されたVM212に一意の識別子を付与して、当該VM212を管理する。
図1に示す例では、サーバ1(210−1)上で実行される仮想化部211−1は、識別子が「B1」であるVM1(212−1)を稼動させる。サーバ2(210−2)上で実行される仮想化部211−2は、識別子が「C1」であるVM2(212−2)を稼動させる。サーバ2(210−3)上で実行される仮想化部211−3は、識別子が「C2」であるVM3(212−3)及び識別子が「C3」であるVM4(212−4)を稼動させる。サーバ4(210−4)上で実行される仮想化部211−4は、識別子が「D1」であるVM5(212−5)を稼動させる。
本実施形態における端末100とVM212との接続関係について説明する。
端末1(100−1)については以下のような接続関係とする。端末1(100−1)は、UE−SW1(110−1)、SW1(130−1)及びDCE-SW1(150−1)を経由してVM1(212−1)にアクセスする。また、端末1(100−1)は、UE−SW1(110−1)、SW1(130−1)、SW2(130−2)及びDCE-SW2(150−2)を経由してVM2(212−2)にアクセスする。
端末2(100−2)については以下のような接続関係とする。端末2(100−2)は、UE−SW2(110−2)、SW2(130−2)、SW1(130−1)及びDCE-SW1(150−1)を経由してVM1(212−1)にアクセスする。端末2(100−2)は、UE−SW2(110−2)、SW2(130−2)及びDCE-SW2(150−2)を経由してVM2(212−2)にアクセスする。さらに、端末2(100−2)は、UE−SW2(110−2)、SW2(110−2)及びDCE-SW2(150−2)を経由してVM3(212−3)にアクセスする。
本実施形態では、VM1(212−1)における負荷の増大を契機にマイグレーション処理が実行され、サーバ1(210−1)上で稼働していたVM1(212−1)がサーバ2(210−2)上へ移動する場合を例に説明する。
図2は、本発明の第1の実施形態における転送装置(SW)のハードウェア構成及びソフトウェア構成の一例を示すブロック図である。図2では、SW130を例に転送装置のハードウェア構成及びソフトウェア構成について説明する。
なお、UE−SW110及びDCE−SW150のハードウェア構成及びソフトウェア構成は同一であるため説明を省略する。
SW130は、CPU410、メモリ420、内部スイッチ430、記憶媒体440及びポート131を備える。CPU410、メモリ420及び内部スイッチ430は、バス450を介して互いに接続される。
CPU410は、メモリ420に格納されるプログラムを実行する。CPU410がプログラムを実行することによってSW130が備える機能を実現できる。
メモリ420は、CPU410によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。メモリ420に格納されるプログラム及び情報については後述する。
内部スイッチ430は、後述するMAC情報427に基づいて、ポート131間の接続を切り替え、所定の宛先の装置にデータフローを転送する。なお、内部スイッチ430は、CPU410とは独立して稼動可能である。したがって、内部スイッチ430は、CPU410に障害が発生した場合であってもデータフローの転送処理を継続することができる。
記憶媒体440は、所定の情報を格納する。なお、メモリ420上に格納されるプログラム及び情報は、記憶媒体440に格納されてもよい。この場合、CPU410は、記憶媒体440からプログラム及び情報をメモリ420に読み出し、読み出されたプログラム及び情報を用いて所定の処理を実行する。
メモリ420は、RARP(Reverse Address Resolution Protocol)処理プログラム425、MAC情報制御プログラム426及びMAC情報427を格納する。
RARP処理プログラム425は、MACアドレスに基づいてIPアドレスを取得するプログラムである。MAC情報制御プログラム426は、MACアドレスの情報を管理するプログラムである。
MAC情報427は、データフローを把握するための情報、すなわち、MACアドレスに関する情報を格納する。MAC情報427の詳細については、図4A〜図4Fを用いて後述する。
なお、転送装置は、ハードウェアを用いて、RARP処理プログラム425及びMAC情報制御プログラム426と同様の機能を実現してもよい。
図3は、本発明の第1の実施形態における管理装置300のハードウェア構成及びソフトウェア構成の一例を示すブロック図である。
管理装置300は、CPU510、メモリ520及びネットワークインタフェース530を備え、各構成はバス540を介して互いに接続される。
CPU510は、メモリ520に格納されるプログラムを実行する。CPU510がプログラムを実行することによって管理装置300が備える機能を実現できる。
メモリ520は、CPU510によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。メモリ520に格納されるプログラム及び情報については後述する。
ネットワークインタフェース530は、ネットワーク350を介して外部の装置と接続する。
メモリ520は、MAC情報管理プログラム525、VM配置管理プログラム526、MAC情報527及びVM管理情報528を格納する。
MAC情報管理プログラム525は、各転送装置のデータフローを把握するためのMAC情報527を管理するプログラムである。VM配置管理プログラム526は、VM212の配置を管理するプログラムである。本実施形態では、VM配置管理プログラム526によってVM212のマイグレーション処理が実行される。
MAC情報527は、各転送装置が転送するデータフローを把握するための情報、すなわち、MACアドレスに関する情報を格納する。なお、管理装置300は、転送装置の識別子とMAC情報527とを対応づけて管理する。VM管理情報528は、VM212を管理するための情報を格納する。
なお、図示していないが、メモリ520は、転送装置の識別子、転送装置が備えるポート及びポートの接続関係等を管理するトポロジー情報も格納する。これによってネットワーク350の構成を把握することができる。
なお、管理装置300は、ハードウェアを用いて、MAC情報管理プログラム525及びVM配置管理プログラム526と同様の機能を実現してもよい。
図4A〜図4Fは、本発明の第1の実施形態における各転送装置が保持するMAC情報427の一例を示す説明図である。まず、MAC情報427の概要について説明する。
MAC情報427は、宛先MACアドレス4271及びポート4272を含む。
宛先MACアドレス4271は、データフローの宛先となる装置を識別するためのMACアドレスを格納する。なお、仮想化部211は、各VM212に、仮想的なMACアドレスを割り当てる。これによって、仮想的なMACアドレスに基づいて各VM212を特定することができる。
ポート4272は、宛先MACアドレス4271で指定されたデータフローを送信する場合に用いられポート131の識別子を格納する。
なお、MAC情報427は、前述した情報に限定されず、その他の情報を含んでもよい。例えば、MAC情報427は、送信元の端末100のMACアドレスを含んでいてもよい。
図4Aは、本発明の第1の実施形態におけるUE−SW1(110−1)が保持するMAC情報427−1の一例を示す説明図である。
MAC情報427−1は、二つのエントリ610−1、610−2を含む。
エントリ610−1の宛先MACアドレス4271には、VM1(212−1)を示す「B1」が格納される。また、エントリ610−1のポート4272には、ポート111−2を示す「ポート2」が格納される。したがって、UE−SW1(110−1)は、宛先のMACアドレスが「B1」であるデータフローを受信した場合に、ポート111−2から当該データフローを送信する。
エントリ610−2の宛先MACアドレス4271には、VM2(212−2)を示す「C1」が格納される。また、エントリ610−2のポート4272には、ポート111−2を示す「ポート2」が格納される。したがって、UE−SW1(110−1)は、宛先のMACアドレスが「C1」であるデータフローを受信した場合に、ポート111−2から当該データフローを送信する。
図4Bは、本発明の第1の実施形態におけるUE−SW2(110−2)が保持するMAC情報427−2の一例を示す説明図である。
MAC情報427−2は、三つのエントリ620−1、620−2、620−3を含む。
エントリ620−1の宛先MACアドレス4271には、VM1(212−1)を示す「B1」が格納される。また、エントリ620−1のポート4272には、ポート111−4を示す「ポート2」が格納される。したがって、UE−SW2(110−2)は、宛先のMACアドレスが「B1」であるデータフローを受信した場合に、ポート111−4から当該データフローを送信する。
エントリ620−2の宛先MACアドレス4271には、VM2(212−2)を示す「C1」が格納される。また、エントリ620−2のポート4272には、ポート111−4を示す「ポート2」が格納される。したがって、UE−SW2(110−2)は、宛先のMACアドレスが「C1」であるデータフローを受信した場合に、ポート111−4から当該データフローを送信する。
エントリ620−3の宛先MACアドレス4271には、VM3(212−3)を示す「C2」が格納される。また、エントリ620−2のポート4272には、ポート111−4を示す「ポート2」が格納される。したがって、UE−SW2(110−2)は、宛先のMACアドレスが「C2」であるデータフローを受信した場合に、ポート111−4から当該データフローを送信する。
図4Cは、本発明の第1の実施形態におけるSW1(130−1)が保持するMAC情報427−3の一例を示す説明図である。
MAC情報427−3は、二つのエントリ630−1、630−2を含む。
エントリ630−1の宛先MACアドレス4271には、VM1(212−1)を示す「B1」が格納される。また、エントリ620−1のポート4272には、ポート131−3を示す「ポート3」が格納される。したがって、SW1(130−1)は、宛先のMACアドレスが「B1」であるデータフローを受信した場合に、ポート131−3から当該データフローを送信する。
エントリ630−2の宛先MACアドレス4271には、VM2(212−2)を示す「C1」が格納される。また、エントリ630−2のポート4272には、ポート131−4を示す「ポート4」が格納される。したがって、SW1(130−1)は、宛先のMACアドレスが「C1」であるデータフローを受信した場合に、ポート131−4から当該データフローを送信する。
図4Dは、本発明の第1の実施形態におけるSW2(130−2)が保持するMAC情報427−4の一例を示す説明図である。
MAC情報427−4は、三つのエントリ640−1、640−2、640−3を含む。
エントリ640−1の宛先MACアドレス4271には、VM1(212−1)を示す「B1」が格納される。また、エントリ620−1のポート4272には、ポート131−6を示す「ポート2」が格納される。したがって、SW2(130−2)は、宛先のMACアドレスが「B1」であるデータフローを受信した場合に、ポート131−6から当該データフローを送信する。
エントリ640−2の宛先MACアドレス4271には、VM2(212−2)を示す「C1」が格納される。また、エントリ630−2のポート4272には、ポート131−7を示す「ポート3」が格納される。したがって、SW2(130−2)は、宛先のMACアドレスが「C1」であるデータフローを受信した場合に、ポート131−7から当該データフローを送信する。
エントリ640−3の宛先MACアドレス4271には、VM3(212−3)を示す「C2」が格納される。また、エントリ640−3のポート4272には、ポート131−7を示す「ポート3」が格納される。したがって、SW2(130−2)は、宛先のMACアドレスが「C2」であるデータフローを受信した場合に、ポート131−7から当該データフローを送信する。
図4Eは、本発明の第1の実施形態におけるDCE−SW1(150−1)が保持するMAC情報427−5の一例を示す説明図である。
MAC情報427−5は、一つのエントリ650−1を含む。
エントリ650−1の宛先MACアドレス4271には、VM1(212−1)を示す「B1」が格納される。また、エントリ650−1のポート4272には、ポート151−2を示す「ポート2」が格納される。したがって、DCE−SW1(150−1)は、宛先のMACアドレスが「B1」であるデータフローを受信した場合に、ポート151−2から当該データフローを送信する。
図4Fは、本発明の第1の実施形態におけるDCE−SW2(150−2)が保持するMAC情報427−6の一例を示す説明図である。
MAC情報427−6は、二つのエントリ660−1、660−2を含む。
エントリ660−1の宛先MACアドレス4271には、VM2(212−2)を示す「C1」が格納される。また、エントリ660−1のポート4272には、ポート151−4を示す「ポート2」が格納される。したがって、DCE−SW2(150−2)は、宛先のMACアドレスが「C1」であるデータフローを受信した場合に、ポート151−4から当該データフローを送信する。
エントリ660−2の宛先MACアドレス4271には、VM3(212−3)を示す「C2」が格納される。また、エントリ660−2のポート4272には、ポート151−4を示す「ポート2」が格納される。したがって、DCE−SW2(150−2)は、宛先のMACアドレスが「C2」であるデータフローを受信した場合に、ポート151−4から当該データフローを送信する。
図5A及び図5Bは、本発明の第1の実施形態における管理装置300が保持するVM管理情報528の一例を示す説明図である。まず、VM管理情報528の概要について説明する。
VM管理情報528は、データセンタ識別子5281、サーバ識別子5282、サーバCPU負荷5283、VM識別子5284、VMMACアドレス5285及びVMCPU負荷5286を含む。
データセンタ識別子5281は、データセンタ201の識別子を格納する。サーバ識別子5282は、データセンタ識別子5281に対応するデータセンタ201に含まれるサーバ210の識別子を格納する。
サーバCPU負荷5283は、サーバ識別子5282に対応するサーバ210が備えるCPU(図示省略)の負荷を表す情報を格納する。本実施形態では、CPUの使用率が格納される。
VM識別子5284は、サーバ識別子5282に対応するサーバ210上で稼動するVM212の識別子を格納する。VMMACアドレス5285は、VM識別子5284に対応するVM212に割り当てられた仮想的なMACアドレスを格納する。
VMCPU負荷5286は、VM識別子5284に対応するVM212に割り当てられた仮想的なCPU(図示省略)の負荷を表す情報を格納する。本実施形態では、仮想的なCPUの使用率が格納される。
なお、VM管理情報528は、前述した情報に限定されず、その他の情報を含んでもよい。
図5Aは、本発明の第1の実施形態における管理装置300が保持するVM管理情報528の一例を示す説明図である。図5Aは、マイグレーション処理が実行される前のVM管理情報528を表す。
なお、管理装置300は、各データセンタ201に含まれるサーバ210から取得した情報に基づいてVM管理情報528を生成する。
図5Aに示すように、サーバ1(210−1)のCPUの使用率は80%である。そこで、管理装置300は、サーバ1(210−1)のCPU負荷を低減するために、サーバ1(210−1)上で稼動するVM1(212−1)をサーバ2(210−2)にマイグレーションする。
本実施形態では、管理装置300は、サーバ210のCPU負荷、及びサーバ210上で稼動するVM212の数に基づいて、マイグレーション先のサーバ210を決定する。具体的には、管理装置300は、CPU負荷が小さく、かつ、稼動するVM212の数が多いサーバ210をマイグレーション先のサーバ210に決定する。
なお、本発明は、マイグレーション先のサーバ210の決定方法に限定されず、前述した方法以外の方法を用いてもよい。
図5Bは、本発明の第1の実施形態における管理装置300が保持するVM管理情報528の一例を示す説明図である。図5Bは、マイグレーション処理が実行された後のVM管理情報528を表す。
図5Bに示すように、VM1(212−1)がサーバ2(210−2)にマイグレーションされている。なお、VM1(212−1)の移動直後であるため、サーバCPU負荷5283及びVMCPU負荷5286には値が格納されていない。
図6は、本発明の第1の実施形態における転送装置が実行するMAC情報427の更新処理を説明するフローチャートである。
CPU410が、MAC情報制御プログラム426を実行することによってMAC情報427の更新処理が開始される(ステップS100)。
CPU410は、MAC情報427の更新データを受信したか否かを判定する(ステップS101)。MAC情報427の更新データは、管理装置300から送信される。
MAC情報427の更新データを受信したと判定された場合、CPU410は、受信した更新データに基づいてMAC情報427を更新し、ステップS101に戻る(ステップS102)。
MAC情報427の更新データを受信していないと判定された場合、CPU410は、管理装置300からMAC情報427の送信要求を受信したか否かを判定する(ステップS103)。
管理装置300からMAC情報427の送信要求を受信したと判定された場合、CPU410は、MAC情報427を管理装置300に送信し、ステップS101に戻る(ステップS104)。なお、CPU410は、転送装置の識別子とともにMAC情報427を送信する。
管理装置300からMAC情報427の送信要求を受信していない判定された場合、CPU410は、RARP処理プログラム425によってMAC情報427が更新され、かつ、当該更新から一定期間経過したか否かを判定する(ステップS105)。例えば、MAC情報427の更新から5分経過したか否かが判定される。なお、本発明は期間に限定されず、どのような期間であってもよい。
なお、RARP処理プログラム425によって実行される処理については、IETF(Internet Engineering Task Force)のRFC(Request for Comments)に規定された標準的な処理であるため、説明を省略する。
ステップS105の条件を満たすと判定されて場合、CPU410は、MAC情報427を管理装置300に送信し、ステップS101に戻る(ステップS106)。
ステップS105の条件を満たさないと判定された場合は、CPU410は、ステップS101に戻る。
図7A及び図7Bは、本発明の第1の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。図7A及び図7Bでは、サーバ1(210−1)上で稼動するVM1(212−1)が、サーバ2(210−2)にマイグレーションする場合の処理を示す。当該処理に関係のない構成は省略している。
UE−SW1(110−1)、SW1(130−1)、SW2(130−2)、DCE−SW1(150−1)及びDCE−SW2(150−2)は、ネットワーク350を介したデータフローの転送処理を実行すると共に、MACアドレスを自動的に学習してMAC情報427を生成する(ステップS200)。
これによって、図4A〜図4Fに示すようなMAC情報427が生成される。なお、MACアドレスの自動学習方法については、レイヤ2のスイッチ等の転送装置が備える標準的な機能であるため説明を省略する。
管理装置300は、UE−SW1(110−1)、SW1(130−1)、SW2(130−2)、DCE−SW1(150−1)及びDCE−SW2(150−2)のそれぞれに、MAC情報427の送信要求を送信する(ステップS201〜ステップS205)。
UE−SW1(110−1)、SW1(130−1)、SW2(130−2)、DCE−SW1(150−1)及びDCE−SW2(150−2)は、MAC情報427の送信要求を受信すると、それぞれ、MAC情報427を管理装置300に送信する(ステップS206〜ステップS210)。
管理装置300は、受信したMAC情報427に基づいて、MAC情報527を更新する(ステップS211)。なお、対応するMAC情報527がない場合、管理装置300は、新たにMAC情報527を生成する。ここで、MAC情報527について説明する。
図8A〜図8Fは、本発明の第1の実施形態における管理装置300が保持するMAC情報527の一例を示す説明図である。
図8Aは、本発明の第1の実施形態におけるUE−SW1(110−1)に関するMAC情報527−1の一例を示す説明図である。図8Bは、本発明の第1の実施形態におけるUE−SW2(110−2)に関するMAC情報527−2の一例を示す説明図である。図8Cは、本発明の第1の実施形態におけるSW1(130−1)に関するMAC情報527−3の一例を示す説明図である。図8Dは、本発明の第1の実施形態におけるSW2(130−2)に関するMAC情報527−4の一例を示す説明図である。図8Eは、本発明の第1の実施形態におけるDCE−SW1(150−1)に関するMAC情報527−5の一例を示す説明図である。図8Fは、本発明の第1の実施形態におけるDCE−SW2(150−2)に関するMAC情報527−6の一例を示す説明図である。
MAC情報527は、宛先MACアドレス5271、ポート5272及び更新フラグ5273を含む。
宛先MACアドレス5271は、宛先MACアドレス4271と同一のものであり、ポート5272は、ポート4272と同一のものである。
更新フラグ5273は、VM212のマイグレーションによって対応するエントリが更新されか否かを示す情報を格納する。MAC情報527の生成時には、エントリが更新されていないことを示す「無し」が格納される。一方、VMマイグレーションに伴いエントリが更新、又は追加された場合、更新フラグ5273には「有り」が格納される。
図7A及び図7Bの説明に戻る。
サーバ1(210−1)及びサーバ2(210−2)は、周期的にサーバ210の稼動状態を管理装置300に通知する(ステップS212、ステップS213)。具体的には、サーバ210は、当該サーバ210の稼動状態情報を管理装置300に送信する。サーバ210が稼動状態情報を送信するタイミングとしては、1分ごと若しくは3分ごと、又は、サーバ210の負荷が所定の閾値以上になった場合などが考えられる。
サーバの稼動状況情報には、サーバ210の識別子、サーバ210が備えるCPUの負荷、VM212の識別子、VM212に割り当てられたMACアドレス、及びVM212に割り当てられた仮想CPUの負荷が含まれる。なお、VM212へのメモリの割当量、VM212のメモリ使用量、及びネットワーク帯域の消費量等が含まれてもよい。
管理装置300は、サーバ210から受信した稼動状態情報に基づいて、VM管理情報528を更新する(ステップS214)。なお、対応するVM管理情報528がない場合、管理装置300は、VM管理情報528を生成する。
本実施形態では、管理装置300がVM管理情報528を参照して、VM1(212−1)をマイグレーション処理の対象に決定する。以下、マイグレーション処理の対象となるVM212を移動対象VM212とも記載する。
管理装置300は、移動対象VM212の移動先となるサーバ210を決定する(ステップS215)。例えば、サーバ210のCPU負荷が最も小さいサーバ210をマイグレーション先のサーバ210に決定する方法が考えられる。なお、マイグレーション先のサーバ210を決定する方法は、どのようなものであってもよく、計算機資源の空き容量、ネットワーク帯域の消費量を用いて決定してもよい。
本実施形態では、サーバ2(210−2)がVM1(212−1)の移動先として決定されたものとする。
管理装置300は、サーバ2(210−2)にVM1(212−1)宛のデータフローを転送するために、MAC情報427における更新データの算出処理を実行する(ステップS216)。また、管理装置300は、更新データの算出処理と並列して、サーバ2(210−2)にVM生成指示を送信する(ステップS217)。
サーバ2(210−2)は、VM生成指示を受信すると、VM1(212−1)を移動するために必要な計算機資源(例えば、CPU及びメモリのリソース等)を確保し、生成完了を通知する(ステップS218)。
管理装置300は、生成完了の通知を受信すると、サーバ1(210−1)に、VM1(212−1)の移動(マイグレーション処理の開始)を指示する(ステップS219)。なお、マイグレーション処理は、公知の技術であるため説明を省略する。
サーバ1(210−1)は、VM1(212−1)の移動指示を受信すると、VM1(212−1)をサーバ2(210−2)へマイグレーションする(ステップS220)。サーバ2(210−2)は、マイグレーション処理の完了を検出すると、管理装置300に移動完了を通知する(ステップS221)。
管理装置300は、更新データの算出処理が完了し、かつ、移動完了の通知を受信した後、UE−SW1(110−1)、SW1(130−1)、SW2(130−2)、DCE−SW1(150−1)及びDCE−SW2(150−2)に、算出された更新データを含むMAC情報427の更新指示を送信する(ステップ222〜ステップS226)。
UE−SW1(110−1)、SW1(130−1)、SW2(130−2)、DCE−SW1(150−1)及びDCE−SW2(150−2)は、受信した更新データに基づいて、MAC情報427を更新する。
図9A及び図9Bは、本発明の第1の実施形態における管理装置300が実行する処理の詳細を説明するフローチャートである。
CPU410が、MAC情報管理プログラム525及びVM配置管理プログラム526を実行することによって処理が開始される(ステップS300)。
CPU410は、各転送装置にMAC情報427の送信要求を送信する(ステップS301)。本実施形態では、UE−SW1(110−1)、UE−SW2(110−2)、SW1(130−1)、SW2(130−2)、DCE−SW1(150−1)、DCE−SW2(150−2)及びDCE−SW3(150−3)にMAC情報427の送信要求が送信される。
CPU410は、転送装置からMAC情報427を受信したか否かを判定する(ステップS302)。
転送装置からMAC情報427を受信したと判定された場合、CPU410は、受信したMAC情報427に基づいて、MAC情報527を更新し、ステップS302に戻る(ステップS303)。
転送装置からMAC情報427を受信していないと判定された場合、CPU410は、各サーバ210から稼動状態情報を受信したか否か判定する(ステップS304)。
サーバ210から稼動状態情報を受信していないと判定された場合、CPU410は、ステップS302に戻る。
サーバ210から稼動状態情報を受信したと判定された場合、CPU410は、受信した稼動状態情報に基づいてVM管理情報528を更新し、VM212を再配置するか否か判定する(ステップS305)。すなわち、マイグレーション処理を実行するか否かが判定される。
本実施形態では、サーバCPU負荷5283の値が80%以上の場合に、VM212の再配置が必要であると判定される。そのため、管理装置300は、サーバ1(210−1)上で稼動するVM1(212−1)をマイグレーションする必要があると判定する。
VM212を再配置しない、すなわち、マイグレーション処理を実行しないと判定された場合、CPU410は、ステップS302に戻る。
VM212を再配置する、すなわち、マイグレーション処理を実行すると判定された場合、CPU410は、移動対象VM212を決定し、さらに、決定された移動対象VM212の移動先のサーバ210を決定する(ステップS306)。本実施形態では、CPU410は、サーバ1(210−1)上で稼働するVM1(212−1)を移動対象VM212に決定し、サーバ2(210−2)を移動先のサーバ210に決定する。
次に、ステップS307からステップS311において、CPU410は、端末100と移動前の移動対象VM212が稼動するサーバ210との間で送受信されるデータフローが通過する第1の転送経路と、当該端末100を収容するUE−SW110と移動先のサーバ100との間で送受信されるデータフローが通過する第2の転送経路とを検索する。
CPU410は、端末100を収容し、かつ、移動対象VM212宛のデータフローを転送する転送装置を検索する(ステップS307)。具体的には、以下のような処理が実行される。
CPU410は、UE−SW110に対応するMAC情報527を参照して、移動対象VM1(210−1)の識別子に一致するエントリを含むMAC情報527を検索する。なお、CPU410は、トポロジー情報等からUE−SW110を特定することができる。
CPU410は、検索されたMAC情報527に対応するUE−SW110を処理対象のUE−SW110として特定する。本実施形態では、UE−SW1(110−1)及びUE−SW2(110−2)が処理対象のUE−SW110となる。以下、検索されたUE−SW110を始点転送装置とも記載する。始点転送装置は、第1の転送経路及び第2の転送経路の始点となる転送装置である。
CPU410は、全ての始点転送装置に対して処理が終了したか否かを判定する(ステップS308)。すなわち、全ての始点転送装置に対する処理において、未処理の始点転装置が存在するか否かが判定される。
全ての始点転送装置に対して処理が終了したと判定された場合、すなわち、未処理の始点転送装置が存在しないと判定された場合、CPU410は、ステップS315へ進む。
全ての始点転送装置に対して処理が終了していないと判定された場合、すなわち、未処理の始点転送装置が存在すると判定された場合、CPU410は、未処理の処理対象UE−SW110の中からUE−SW110を一つ選択し、ステップS309に進む。
CPU410は、選択された処理対象UE−SW110が転送するデータフローのうち、移動先のサーバ210上で稼動するVM212宛に転送されるデータフローが存在するか否かを判定する(ステップS309)。具体的には、以下のような処理が実行される。
CPU410は、まず、選択された処理対象UE−SW110に対応するMAC情報527を参照し、移動対象VM212以外のVM212のMACアドレスを取得する。さらに、CPU410は、VM管理情報528を参照して、移動先のサーバ210上で稼動する全てのVM212のMACアドレスを取得する。
本実施形態では、CPU410は、移動対象VM212のMACアドレスが「B1」であるため、それ以外のMACアドレス、すなわち、MACアドレス「C1」を取得する。さらに、CPU410は、VM管理情報528を参照して、移動先のサーバ210上で稼動する全てのVM212を確認し、全てのVM212のMACアドレスを取得する(本実施形態では、MACアドレスが「C1」を取得する)。
CPU410は、MAC情報527から取得されたMACアドレスの中に、VM管理情報528から取得されたMACアドレスと一致するものがあるか否かを判定する。
一致するMACアドレスが一以上ある場合、CPU410は、ステップS309の条件を満たすと判定する。以下、一致するMACアドレスを対象MACアドレスとも記載する。
本実施形態では、UE−SW1(110−1)は、移動先のサーバ2(210−2)上で稼動するVM2(212−2)宛にデータフローを転送しているため、ステップS309の条件を満たすと判定する。
なお、移動先のサーバ210を含むデータセンタ201内の全てのサーバ210上で稼動するVM212のMACアドレスを取得して、前述した判定処理を実行してもよい。また、CPU410は、対象MACアドレスの情報をメモリ420に格納する。
以上がステップS309の処理である。
ステップS309の条件を満たさないと判定された場合、CPU410は、従来のMAC情報527の更新処理を実行して、ステップS302に戻る(ステップS314)。例えば、CPU410は、トポロジー情報(図示省略)を用いてMAC情報527を更新する方法、又は、移動先のサーバ210を起点としたRARPのフラッディングによる方法などを用いることが考えられる。
ステップS309の条件を満たすと判定された場合、CPU410は、対象MACアドレスを一つ選択する(ステップS310)。選択された対象MACアドレスに対応するVM212を移動先VM212とも記載する。
ステップS307〜ステップS310までの処理によって、CPU410は、後述する転送経路を検索するための始点及び終点を特定することができる。
CPU410は、既存の転送経路の中から第1の転送経路を検索し、また、既存の転送経路の中から第2の転送経路を一以上検索する(ステップS311)。
ここで、第1の転送経路は、処理対象UE−SW110から移動元のサーバ210を収容する転送装置DCE−SW150まで転送経路であり、第2の転送経路は、処理対象UE−SW110から移動先のサーバ210を収容する転送装置DCE−SW150までの転送経路である。また、既存の転送経路とは、現在、ネットワーク内において送受信されるデータフローが転送される転送経路を示す。
具体的には、CPU410は、移動対象VM212のMACアドレス「B1」に基づいてMAC情報527を参照して、ステップS308において選択された処理対象UE−SW110から、移動元のサーバ210が含まれるデータセンタ201までの転送経路を検索する。また、CPU410は、ステップS310において選択したMACアドレス「C1」に基づいてMAC情報527を参照して、ステップS308において選択された処理対象UE−SW110から、移動先のサーバ210が含まれるデータセンタ201までの転送経路を検索する。
本実施形態では、UE−SW1(110−1)からDCE−SW1(150−1)までの転送経路が第1の転送経路として検索され、UE−SW1(110−1)からDCE−SW2(150−2)までの転送経路が第2の転送経路として検索される。
CPU410は、検索された第1の転送経路及び第2の転送経路に含まれる転送装置を特定し、特定された転送装置の識別子をメモリ420に格納する。(ステップS312)。
本実施形態では、UE−SW1(110−1)、SW1(130−1)及びDCE-SW1(150−1)が第1の転送経路に含まれる転送装置として特定され、また、UE−SW1(110−1)、SW1(130−1)、SW2(130−2)及びDCE-SW2(150−2)が第2の転送経路に含まれる転送装置として特定される。
以下、特定された転送装置を、更新候補の転送装置とも記載する。
CPU410は、各転送経路に含まれる更新候補の転送装置毎に、MAC情報427の更新データの算出処理を実行する(ステップS313)。なお、MAC情報427の更新データの算出処理の詳細については、図10を用いて後述する。
ステップS308において、全ての始点転送装置に対して処理が終了したと判定された場合、CPU410は、MAC情報527の更新フラグ5273を全てリセットし(ステップS315)、ステップS302に戻る。具体的には、CPU410は、更新フラグ5273を「無し」に設定する。
本実施形態では、ステップS307〜ステップS312の処理によって、CPU410は、移動先のサーバ210へ接続可能な既存の転送経路(第2の転送経路)があるか否かを判定する。当該既存の転送経路の設定情報を用いることによって転送経路の検索処理の処理コストを削減することができる。さらに、ステップS313の処理によって、更新データの算出処理を実行する転送装置を絞り込むことができる。
図10は、本発明の第1の実施形態における管理装置300が実行する更新データの算出処理の詳細を説明するフローチャートである。
管理装置300は、検索された転送経路毎に以下で説明する処理を実行する。本実施形態では、第1の転送経路及び第2の転送経路のそれぞれについて処理が実行される。
CPU410は、転送経路に含まれる全ての更新候補の転送装置について処理が終了したか否かを判定する(ステップS401)。
転送経路に含まれる全ての更新候補の転送装置について処理が終了していないと判定された場合、CPU410は、更新候補の転送装置を一つ選択して、当該転送装置に対応するMAC情報527を取得する(ステップS402)。
CPU410は、取得されたMAC情報527を参照して、移動対象VM212に対応するエントリがあり、かつ、当該エントリのポート5272にポートの識別子が格納されているか否かを判定する(ステップS403)。
例えば、MAC情報527−1の場合、移動対象VM1(212−1)に対応するエントリ710−1があり、ポート5272には「ポート2」が格納されているためステップS403の条件を満たすと判定される。
ステップS403の条件を満たすと判定された場合、CPU410は、取得されたMAC情報527を参照して、移動先VM212に対応するエントリがあり、かつ、当該エントリのポート5272にポートの識別子が格納されているか否かを判定する(ステップS404)。
例えば、MAC情報527−1の場合、移動先VM2(212−2)に対応するエントリ710−2があり、かつ、当該エントリ710−1のポート5272にポートに識別子が格納されているため、ステップS404の条件を満たすと判定される。
ステップS404の条件を満たすと判定された場合、CPU410は、移動対象VM212に対応するエントリのポート5272と移動先VM212に対応するエントリのポート5272とが異なるか否かを判定する(ステップS405)。
例えば、MAC情報527−1の場合、移動対象VM212のポート5272と移動先VM212のポート5272とは同一であるため、ステップS405の条件は満たさないと判定される。一方、MAC情報527−4の場合、移動対象VM212のポート5272と移動先VM212のポート5272とは異なる、ステップS405の条件を満たすと判定される。
ステップS405の条件を満たさないと判定された場合、CPU410は、処理を終了する。これは、すでに、更新候補の転送装置には、移動先のサーバ210宛のデータフローを転送するための設定がされているためである。
ステップS405の条件を満たすと判定された場合、CPU410は、移動対象VM212のポート5272の値を、移動先VM212のポート5272の値に変更し、ステップS401に戻る(ステップS406)。また、CPU410は、移動対象VM212に対応するエントリの更新フラグ5273を「有り」に変更する。これによって、更新候補の転送装置は移動先のサーバ210宛にデータフローを転送できる。
ステップS403において、ステップS403の条件を満たさないと判定された場合、CPU410は、取得されたMAC情報527を参照して、移動先VM212に対応するエントリがあり、かつ、当該エントリのポート5272にポートの識別子が格納されているか否かを判定する(ステップS407)。ステップS407の処理は、ステップS404と同一の処理である。
ステップS407の条件を満たさないと判定された場合、CPU410はステップS401に戻る。
ステップS407の条件を満たすと判定された場合、CPU410は、MAC情報527に移動対象VM212のエントリを追加し、ステップS401に戻る(ステップS408)。
具体的には、CPU410は、追加されたエントリの宛先MACアドレス5271に移動対象VM212の識別子を格納し、ポート5272に移動先VM212のポート5272の値を格納し、さらに、更新フラグ5273に「有り」を格納する。
ステップS404において、ステップS404の条件を満たさないと判定された場合、CPU410は、移動対象VM212のエントリを削除し、ステップS401に戻る(ステップS409)。ただし、移動対象VM212に対応するエントリの更新フラグ5273が「有り」である場合には、当該エントリは削除されない。
ステップS401において、転送経路に含まれる全ての更新候補の転送装置について処理が終了したと判定された場合、CPU410は、各転送装置のMAC情報527に基づいて更新データを生成する(ステップS410)。更新データには、MACアドレス及びポートの識別子が含まれる。また、CPU410は、更新されたMAC情報527に対応する転送装置の識別子と、更新データとを対応づけて保持する。
なお、更新データはその他の情報を含んでいてもよい。また、CPU410は、全てのMAC情報527の処理が終了した後に更新データを生成しなくてもよく、ステップS406、ステップS408及びステップS409のように、MAC情報527の更新時に更新情報を生成してもよい。この場合、ステップS410の処理は省略することができる。
CPU410は、更新データを送信する転送装置、すなわち、MAC情報527が更新された転送装置を特定し、特定された転送装置に更新データを送信して処理を終了する(ステップS411)。
本実施形態では、図10に示す更新データの算出処理によって図11A〜図11Dに示すようにMAC情報527が更新される。
図11Aは、本発明の第1の実施形態におけるSW1(130−1)に関するMAC情報527−3の一例を示す説明図である。図11Bは、本発明の第1の実施形態におけるSW2(130−2)に関するMAC情報527−4の一例を示す説明図である。図11Cは、本発明の第1の実施形態におけるDCE−SW1(150−1)に関するMAC情報527−5の一例を示す説明図である。図11Dは、本発明の第1の実施形態におけるDCE−SW2(150−2)に関するMAC情報527−6の一例を示す説明図である。
図11Aに示すように、MAC情報527−3のエントリ730−1のポート5272がエントリ730−2のポート5272と同一の「ポート4(131−4)」になるように変更されている。また、更新フラグ5273には「有り」が格納される。
図11Bに示すように、MAC情報527−4のエントリ740−1のポート5272がエントリ740−2のポート5272と同一の「ポート3(131−7)」になるように変更されている。また、更新フラグ5273には「有り」が格納される。
図11Cに示すように、MAC情報527−5のエントリ750−1は削除される。
図11Dに示すように、MAC情報527−6には、新たなエントリ760−3が追加され、当該エントリ760−3の宛先MACアドレス5271には「B1」、ポート5272にはエントリ760−1のポート5272と同一の「ポート2(151−4)」、さらに、更新フラグ5273には「有り」が格納される。
本実施形態では、図10に示すように一定の規則に基づいてMAC情報527が更新される。具体的には、以下の三つの規則に基づいてMAC情報527が更新される。
第1の規則では、CPU410は、移動対象VM212及び移動先VM212に対応するエントリがペアで存在し、各エントリのポート5272の値が異なる場合、移動先VM212宛のデータフローが出力されるポートと同一になるように、移動対象VM212宛のデータフローが出力されるポートを設定する。
第2の規則では、CPU410は、移動対象VM212に対応するエントリのみがある場合、当該エントリを削除する。ただし、一連の更新処理においてすでに更新されているエントリである場合、すなわち、更新フラグ5273が「有り」のエントリは削除されない。
第3の規則では、CPU410は、移動先VM212に対応するエントリのみがある場合、移動対象VM212に対応するエントリを追加し、移動先VM212宛のデータフローが出力されるポートと同一になるように、移動対象VM212宛のデータフローが出力されるポートを設定する。
第1の規則、第2の規則及び第3の規則に基づいてMAC情報527を更新することによって、第1の転送経路及び第2の転送経路に含まれる転送装置の中から、更新が必要な転送装置のみを特定することができる。
以上のように、本発明の第1の実施形態によれば、管理装置300は、VM212のマイグレーション時に、データフローを転送するための設定を変更する転送装置にのみ、必要な更新データを送信することができる。また、管理装置300は、既存の転送経路に基づいて更新データを算出するため、更新データを高速に算出することができる。
なお、第1の実施形態では、MACアドレスを用いてデータフローの宛先を識別しているが、その他の識別子、OSI(Open Systems Interconnection)参照モデルが規定する各層における識別情報、又は、各層の識別情報を組み合わせて用いてもよい。例えば、VLAN(Virtual Local Area Network)番号を用いてもよい。
また、第1の実施形態では、ネットワーク350に含まれる転送装置を対象としていたが本発明はこれに限定されない。例えば、データセンタ201内におけるマイグレーション処理時において、ネットワーク220における転送装置についても同様の処理を適用することができる。この場合、データセンタ内に管理装置300と同一の機能を備えた計算機を含めることによって実現することができる。
さらに、第1の実施形態では、ネットワーク350におけるデータフロー転送が単一経路方式のネットワークを対象としていたが、複数パスの転送経路を可能とするネットワークを対象としてもよい。すなわち、移動先VM212に対するポートがテーブル527に複数記載されている場合は、移動対象VM212に対するポートとして複数ポート記載することによって、複数の転送経路を経由したデータフロー転送を実現してもよい。
[第2の実施形態]
第2の実施形態では、論理ボリュームの移動に伴い、移動先の論理ボリュームへデータを転送するための設定を変更する。以下、第1の実施形態との差異を中心に説明する。
図12は、本発明の第2の実施形態におけるクラウドサービスを提供する計算機システムの構成例を示す説明図である。
本実施形態における計算機システムは、端末100、UE−SW110、SW130、DCE−SW150、データセンタ201、データセンタ800及び管理装置300から構成される。端末100、UE−SW110、SW130及びDCE−SW150は、第1の実施形態と同一であるため説明を省略する。
本実施形態では、計算機資源としてVM212を提供するデータセンタ201の他に、計算機資源として論理ボリューム811を提供するデータセンタ800を含む点が第1の実施形態と異なる。
データセンタ800は、1以上のストレージシステム810を備え、ストレージシステム810が管理するLU811を提供する。ストレージシステム810の詳細については図13を用いて後述する。
本実施形態では、VM1(212−1)がLU1(811−1)を用いて所定のサービスを提供しており、端末1(100−1)がLU1(811−1)にアクセスしているものとする。また、本実施形態では、LU1(811−1)をストレージシステム810−1からストレージシステム810−2へマイグレーションする例について説明する。
図13は、本発明の第2の実施形態におけるストレージシステム810−1の構成例を示すブロック図である。
ストレージシステム810−1は、制御部900、ネットワークインタフェース910、ストレージインタフェース920及び複数の記憶媒体930を備える。制御部900、ネットワークインタフェース910及びストレージインタフェース920は、バス940を介して互いに接続される。また、ストレージインタフェース920と記憶媒体930とは、直接接続されてもよいし、SAN等のネットワークを介して接続されてもよい。
制御部900は、ストレージシステム810全体を制御する。制御部900には、CPU(図示省略)及びメモリ(図示省略)が含まれる。また、当該メモリ(図示省略)には、LU管理プログラム(図示省略)及びLU構成情報(図示省略)が格納される。LU管理プログラムは、LUを管理するためのプログラムであり、LU構成情報は、LUを管理するための情報を格納する。
ネットワークインタフェース910は、ネットワーク350に接続するためのインタフェースである。本実施形態では、FCoE(Fibre Channel over Ethernet)に対応したCNA(Converged Network Adapter)を用いるものとする(Ethernetは登録商標、以下同じ)。これによって、Ethernetフレームを用いて通信することができる。
ストレージインタフェース920は、記憶媒体930と接続するためのインタフェースである。記憶媒体930は、LU811を作成するための記憶容量を提供する装置である。記憶媒体930は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)などが考えられる。
図15に示す例では、ストレージシステム810−1は、三つの記憶媒体930−1、930−2、930−3を備える。なお、ストレージシステム810−1は、三つ以上の記憶媒体930を備えてもよい。本実施形態では、制御部900は、三つの記憶媒体930−1、930−2、930−3を用いてRAIDグループを構成し、RAIDグループによって提供される記憶領域上にLU1(811−1)を生成する。
本実施形態の管理装置300のメモリ520には、LU配置管理プログラム(図示省略)及びLU管理情報(図示省略)が格納される。LU配置管理プログラムは、LU811の配置を管理するための処理を実現するプログラムである。LU管理情報は、各ストレージシステム810のLU811の情報を格納する。管理装置300は、各ストレージシステム810からLU構成情報を取得し、取得された情報に基づいてLU管理情報を生成する。なお、LU管理情報の詳細については、図14を用いて後述する。
なお、MAC情報管理プログラム525及びMAC情報527は、第1の実施形態と同一である。なお、MAC情報527の宛先MACアドレス5271にはストレージシステム810のMACアドレスが格納される。
図14は、本発明の第2の実施形態におけるLU管理情報の一例を示す説明図である。
LU管理情報1000は、データセンタ識別子1001、ストレージシステム識別子1002、RAIDグループ識別子1003、使用率1004、MACアドレス1005、LU識別子1006及びLU使用量1007を含む。
データセンタ識別子1001は、データセンタ201の識別子を格納する。ストレージシステム識別子1002は、データセンタ識別子1001に対応するデータセンタ201に含まれるストレージシステム810の識別子を格納する。
RAIDグループ識別子1003は、ストレージシステム識別子1002に対応するストレージシステム810上に生成されたRAIDグループの識別子を格納する。
使用率1004は、RAIDグループ識別子1003に対応するRAIDグループによって提供される記憶領域の使用率を格納する。
MACアドレス1005は、ストレージシステム810に割り当てられたMACアドレスを格納する。
LU識別子1006は、RAIDグループ識別子1003に対応するRAIDグループ上に生成されたLU811の識別子を格納する。LU使用量1007は、LU識別子1006に対応するLU811の使用量を格納する。
本実施形態では、使用率1004の値が80%以上である場合に、LU811を他ストレージシステム810にマイグレーションするものとする。
第2の実施形態における処理の流れは以下の点が異なる。
図7AのステップS212及びステップS213では、ストレージシステム810−1及びストレージシステム810−2が、管理装置300にストレージシステム810の稼動状態を通知する。
ステップS214では、管理装置300がLU管理情報1000を更新する。ステップS215では、管理装置300が移行するLU811と移行先のストレージシステム810とを決定する。なお、移行するLU811及び移行先のストレージシステム810を決定する方法は、公知のものを用いればよいため説明を省略する。
ステップS217では、管理装置300がストレージシステム810−2にLU811の生成指示を送信し、ステップS218では、ストレージシステム810−2がLU811の生成完了を通知する。ステップS219では、管理装置300がストレージシステム810−1にLU1(811−1)の移動指示を送信する。
ステップS220では、ストレージシステム810−1がLU1(811−1)をストレージシステム810−2に移動させる。ステップS221では、ストレージシステム810−2が管理装置300に移動完了を通知する。
その他の処理は第1の実施形態と同一である。
また、図9A及び図9Bに示す管理装置300が実行する処理は、以下の点が異なる。
ステップS304では、管理装置300は、ストレージシステムの810の稼動情報を受信したか否かを判定する。ステップS305及びステップS306では、管理装置300は、LU811のマイグレーションが必要か否かを判定し、LU811の移動先を決定する。
その他の処理は第1の実施形態と同一であるため説明を省略する。
第2の実施形態によれば、LU811のマイグレーションにおいても、高速にMAC情報を更新することができる。
本発明は、第1の実施形態と第2の実施形態とを組み合わせて用いてもよい。
100 端末
110、130、150 転送装置
201 データセンタ
210 サーバ
211 仮想化部
212 仮想計算機(VM)
220 ネットワーク
300 管理装置
350 ネットワーク
800 データセンタ
810 ストレージシステム
811 論理ユニット(LU)

Claims (11)

  1. 第1のプロセッサ、前記第1のプロセッサに接続される第1の記憶媒体及び他の装置と接続する第1のネットワークインタフェースを有する複数の計算機と、制御部及び他の装置を接続するポートを有し、前記複数の計算機を接続する複数の転送装置と、を管理する管理計算機であって、
    前記管理計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶媒体と、他の装置と接続する第2のネットワークインタフェースとを備え、
    前記複数の転送装置によってネットワークが構成され、
    前記複数の転送装置は、前記複数の計算機間で送受信されるデータフローの転送を制御するための経路情報を保持し、
    前記複数の計算機は、計算機資源を提供する複数の提供計算機と、前記ネットワークを介して前記計算機資源を使用する一以上のユーザ計算機とを含み、
    前記複数の提供計算機は、第1のユーザ計算機が使用する第1の計算機資源を提供する第1の提供計算機を含み、
    前記管理計算機は、
    前記提供計算機の稼働状態に基づいて、前記ユーザ計算機が使用する前記計算機資源の割当先の提供計算機を変更する配置変更部と、
    前記ネットワークにおける、前記ユーザ計算機と前記計算機資源を割り当てる前記提供計算機との接続関係を管理する接続管理部と、
    前記計算機資源と、前記計算機資源を提供する前記提供計算機との対応関係を管理する計算機資源管理情報を記憶する記憶部と、
    を備え、
    前記接続管理部は、
    前記複数の転送装置から前記経路情報を取得し、
    前記配置変更部によって、前記第1の計算機資源を提供する前記提供計算機が前記第1の提供計算機から第2の提供計算機に変更される場合に、前記第1のユーザ計算機を収容し、かつ、前記第1の計算機資源宛ての前記データフローを転送する転送装置である始点転送装置の前記経路情報、及び前記計算機資源管理情報に基づいて、前記始点転送装置が転送する前記データフローの中に、前記第2の提供計算機が提供する第2の計算機資源宛ての前記データフローが存在するか否かを判定し、
    前記始点転送装置が転送する前記データフローの中に、前記第2の計算機資源宛ての前記データフローが存在すると判定された場合、前記複数の転送装置の前記経路情報に基づいて、前記始点転送装置と前記第1の提供計算機を収容する転送装置との間で送受信される第1のデータフローが通過する第1の転送経路、及び、前記始点転送装置と前記第2の提供計算機を収容する転送装置との間で送受信される第2のデータフローが通過する第2の転送経路を検索し、
    前記第2の転送経路に含まれる前記転送装置の前記経路情報に基づいて、前記第1の転送経路に含まれる前記転送装置、及び、前記第2の転送経路に含まれる前記転送装置のうち前記経路情報の更新が必要な転送装置の前記経路情報の更新データを算出することを特徴とする管理計算機。
  2. 請求項1に記載の管理計算機であって、
    前記経路情報は、前記各データフローが通過する転送経路の設定データを含み、
    前記転送装置は、当該転送装置の識別情報とともに前記経路情報を送信し、
    前記管理計算機は、
    前記経路情報の更新が必要な前記転送装置の前記経路情報の更新データを算出する場合に、前記複数の転送装置の前記経路情報に基づいて、前記第2の転送経路に含まれる前記転送装置を特定し、
    前記第2の転送経路に含まれる転送装置のうち、前記第1のデータフロー及び前記第2のデータフローを転送する第1の転送装置、及び前記第2のデータフローを転送する第2の転送装置を特定し、
    前記第1の転送装置の前記経路情報において、前記第2の転送経路の設定データに基づいて、前記第1のデータフローが前記第2の転送経路を通過するように前記設定データを変更するための前記更新データを算出し、
    前記第2の転送装置の前記経路情報において、前記第2の転送経路の設定データに基づいて、前記第1のデータフローが前記第2の転送経路を通過するように新たな前記設定データを追加するための前記更新データを算出することを特徴とする管理計算機。
  3. 請求項2に記載の管理計算機であって、
    前記経路情報の更新が必要な前記転送装置の前記経路情報の更新データを算出する場合に、前記複数の転送装置の前記経路情報に基づいて、前記第1の転送経路に含まれる転送装置を特定し、
    前記第1の転送経路に含まれる転送装置のうち、前記第1のデータフローを転送する第3の転送装置、及び前記第1のデータフロー及び前記第2のデータフローを転送する第4の転送装置を特定し、
    前記第3の転送装置前記経路情報において、前記第1のデータフローに関する前記設定データを削除するための前記更新データを算出し、
    前記第4の転送装置前記経路情報において、前記第2の転送経路の設定データに基づいて、前記第1のデータフローが前記第2の転送経路を通過するように前記設定データを変更するための前記更新データを算出することを特徴とする管理計算機
  4. 請求項3に記載の管理計算機であって、
    前記複数の転送装置の前記経路情報に基づいて、前記データフローの識別情報、前記転送装置が有する前記ポートの識別情報、及び前記更新データによって更新されたか否かを示すフラグを含む経路管理情報を生成し、
    前記第3の転送装置前記経路管理情報の前記フラグを参照して、前記第1のデータフローに関する前記設定データが前記更新データによって更新されたか否かを判定し、
    前記第1のデータフローに関する前記設定データが前記更新データによって更新されていないと判定された場合に、当該第1のデータフローに関する前記設定データを削除するための前記更新データを算出することを特徴とする管理計算機
  5. 請求項1に記載の管理計算機であって、
    前記経路情報の更新が必要な転送装置に対して前記経路情報の更新データを送信し、
    前記第2の提供計算機に前記第1の計算機資源の生成を指示することを特徴とする管理計算機。
  6. 第1のプロセッサ、前記第1のプロセッサに接続される第1の記憶媒体及び他の装置と接続する第1のネットワークインタフェースを有する複数の計算機と、制御部及び他の装置を接続するポートを有し、前記複数の計算機を接続する複数の転送装置と、を管理する管理計算機における転送経路管理方法であって、
    前記管理計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶媒体と、他の装置と接続する第2のネットワークインタフェースとを備え、
    前記複数の転送装置によってネットワークが構成され、
    前記複数の転送装置は、前記複数の計算機間で送受信されるデータフローの転送を制御するための経路情報を保持し、
    前記複数の計算機は、計算機資源を提供する複数の提供計算機と、前記ネットワークを介して前記計算機資源を使用する一以上のユーザ計算機とを含み、
    前記複数の提供計算機は、第1のユーザ計算機が使用する第1の計算機資源を提供する第1の提供計算機を含み、
    前記管理計算機は、前記計算機資源と、前記計算機資源を提供する前記提供計算機との対応関係を管理する計算機資源管理情報を記憶する記憶部を備え、
    前記方法は、
    前記管理計算機が、前記複数の転送装置から前記経路情報を取得する第1のステップと、
    前記管理計算機が、前記提供計算機の稼働状態に基づいて、前記第1の計算機資源を提供する前記提供計算機を前記第1の提供計算機から第2の提供計算機への変更を決定する第2のステップと、
    前記管理計算機が、前記第1のユーザ計算機を収容し、かつ、前記第1の計算機資源宛ての前記データフローを転送する転送装置である始点転送装置の前記経路情報、及び前記計算機資源管理情報に基づいて、前記始点転送装置が転送する前記データフローの中に、前記第2の提供計算機が提供する第2の計算機資源宛ての前記データフローが存在するか否かを判定する第3のステップと、
    前記管理計算機が、前記始点転送装置が転送する前記データフローの中に、前記第2の計算機資源宛ての前記データフローが存在すると判定された場合、前記複数の転送装置の前記経路情報に基づいて、前記始点転送装置と前記第1の提供計算機を収容する転送装置との間で送受信される第1のデータフローが通過する第1の転送経路、及び、前記始点転送装置と前記第2の提供計算機を収容する転送装置との間で送受信される第2のデータフローが通過する第2の転送経路を検索する第4のステップと、
    前記管理計算機が、前記第2の転送経路に含まれる前記転送装置の前記経路情報に基づいて、前記第1の転送経路に含まれる前記転送装置、及び、前記第2の転送経路に含まれる前記転送装置のうち前記経路情報の更新が必要な転送装置の前記経路情報の更新データを算出する第5のステップと、を含むことを特徴とする転送経路管理方法。
  7. 請求項6に記載の転送経路管理方法であって、
    前記経路情報は、前記データフローが通過する転送経路の設定データを含み、
    前記経路情報は、前記転送装置の識別情報とともに送信され、
    前記第5のステップは、
    前記複数の転送装置の前記経路情報に基づいて、前記第2の転送経路に含まれる前記転送装置を特定するステップと、
    前記第2の転送経路に含まれる転送装置のうち、前記第1のデータフロー及び前記第2のデータフローを転送する第1の転送装置、及び前記第2のデータフローを転送する第2の転送装置を特定するステップと、
    前記第1の転送装置の前記経路情報において、前記第2の転送経路の設定データに基づいて、前記第1のデータフローが前記第2の転送経路を通過するように前記設定データを変更するための前記更新データを算出するステップと、
    前記第2の転送装置の前記経路情報において、前記第2の転送経路の設定データに基づいて、前記第1のデータフローが前記第2の転送経路を通過するように新たな前記設定データを追加するための前記更新データを算出するステップと、を含むことを特徴とする転送経路管理方法。
  8. 請求項7に記載の転送経路管理方法であって、
    前記第5のステップは、
    前記複数の転送装置の前記経路情報に基づいて、前記第1の転送経路に含まれる転送装置を特定する第6のステップと、
    前記第1の転送経路に含まれる転送装置のうち、前記第1のデータフローを転送する第3の転送装置、及び前記第1のデータフロー及び前記第2のデータフローを転送する第4の転送装置を特定する第7のステップと、
    前記第3の転送装置の前記経路情報において、前記第1のデータフローに関する前記設定データを削除するための前記更新データを算出する第8のステップと、
    前記第4の転送装置の前記経路情報において、前記第2の転送経路の設定データに基づいて、前記第1のデータフローが前記第2の転送経路を通過するように前記設定データを変更するための前記更新データを算出する第9のステップと、を含むことを特徴とする転送経路管理方法。
  9. 請求項8に記載の転送経路管理方法であって、
    前記第1のステップは、前記複数の転送装置の前記経路情報に基づいて、前記データフローの識別情報、前記転送装置が有する前記ポートの識別情報、及び前記更新データによって更新されたか否かを示すフラグを含む経路管理情報を生成するステップを含み、
    前記第8のステップは、
    前記第3の転送装置の前記経路管理情報の前記フラグを参照して、前記第1のデータフローに関する前記設定データが前記更新データによって更新されたか否かを判定するステップと、
    前記第1のデータフローに関する前記設定データが前記更新データによって更新されていないと判定された場合に、当該第1のデータフローに関する前記設定データを削除するための前記更新データを算出するステップと、を含むことを特徴とする転送経路管理方法。
  10. 請求項6に記載の転送経路管理方法であって、
    前記管理計算機が、前記経路情報の更新が必要な転送装置に対して前記経路情報の更新データを送信するステップと、
    前記管理計算機が、前記第2の提供計算機に前記第1の計算機資源の生成を指示するステップと、を含むことを特徴とする転送経路管理方法。
  11. 複数の計算機と、他の装置を接続する複数の転送装置と、前記複数の計算機及び前記複数の転送装置を管理する管理計算機とを備える計算機システムであって、
    前記複数の計算機の各々は、第1のプロセッサ、前記第1のプロセッサに接続される第1の記憶媒体及び他の装置と接続する第1のネットワークインタフェースを有し、
    前記複数の転送装置の各々は、制御部及び他の装置を接続するポートを有し、
    前記管理計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶媒体と、他の装置と接続する第2のネットワークインタフェースとを有し、
    前記複数の転送装置によってネットワークが構成され、
    前記複数の転送装置は、前記複数の計算機間で送受信されるデータフローの転送を制御するための経路情報を保持し、
    前記複数の計算機は、計算機資源を提供する複数の提供計算機と、前記ネットワークを介して前記計算機資源を使用する一以上のユーザ計算機とを含み、
    前記複数の提供計算機は、第1のユーザ計算機が使用する第1の計算機資源を提供する第1の提供計算機を含み、
    前記計算機システムは、
    前記提供計算機の稼働状態に基づいて、前記ユーザ計算機が使用する前記計算機資源の割当先の提供計算機を変更する配置変更部と、
    前記ネットワークにおける、前記ユーザ計算機と前記計算機資源を割り当てる前記提供計算機との接続関係を管理する接続管理部と、
    前記計算機資源と、前記計算機資源を提供する前記提供計算機との対応関係を管理する計算機資源管理情報を記憶する記憶部と、
    を備え、
    前記接続管理部は、
    前記複数の転送装置から前記経路情報を取得し、
    前記複数の転送装置の前記経路情報に基づいて、前記データフローの識別情報及び前記転送装置が有する前記ポートの識別情報を含む経路管理情報を生成し、
    前記配置変更部によって、前記第1の計算機資源を提供する前記提供計算機が前記第1の提供計算機から第2の提供計算機に変更される場合に、前記第1のユーザ計算機を収容し、かつ、前記第1の計算機資源宛ての前記データフローを転送する転送装置である始点転送装置の前記経路管理情報、及び前記計算機資源管理情報に基づいて、前記始点転送装置が転送する前記データフローの中に、前記第2の提供計算機が提供する第2の計算機資源宛ての前記データフローが存在するか否かを判定し、
    前記始点転送装置が転送する前記データフローの中に、前記第2の計算機資源宛ての前記データフローが存在すると判定された場合、前記複数の転送装置の前記経路管理情報に基づいて、前記始点転送装置と前記第1の提供計算機を収容する転送装置との間で送受信される第1のデータフローが通過する第1の転送経路、及び、前記始点転送装置と前記第2の提供計算機を収容する転送装置との間で送受信される第2のデータフローが通過する第2の転送経路を検索し、
    前記第2の転送経路に含まれる前記転送装置の前記経路管理情報に基づいて、前記第1の転送経路に含まれる前記転送装置、及び、前記第2の転送経路に含まれる前記転送装置のうち前記経路情報の更新が必要な転送装置の前記経路情報の更新データを算出することを特徴とする計算機システム。
JP2012040196A 2012-02-27 2012-02-27 管理計算機、転送経路管理方法及び計算機システム Active JP5881465B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012040196A JP5881465B2 (ja) 2012-02-27 2012-02-27 管理計算機、転送経路管理方法及び計算機システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012040196A JP5881465B2 (ja) 2012-02-27 2012-02-27 管理計算機、転送経路管理方法及び計算機システム

Publications (2)

Publication Number Publication Date
JP2013175996A JP2013175996A (ja) 2013-09-05
JP5881465B2 true JP5881465B2 (ja) 2016-03-09

Family

ID=49268526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012040196A Active JP5881465B2 (ja) 2012-02-27 2012-02-27 管理計算機、転送経路管理方法及び計算機システム

Country Status (1)

Country Link
JP (1) JP5881465B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015087947A1 (ja) * 2013-12-12 2015-06-18 日本電気株式会社 通信システム、通信ノード、制御装置、通信制御方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090182A1 (ja) * 2009-02-03 2010-08-12 日本電気株式会社 アプリケーションスイッチシステム、及びアプリケーションスイッチ方法
JP6214023B2 (ja) * 2009-07-31 2017-10-18 日本電気株式会社 制御サーバ、サービス提供システムおよび仮想的なインフラストラクチャの提供方法
CN104065555B (zh) * 2009-09-24 2018-09-18 日本电气株式会社 虚拟服务器间通信识别系统和虚拟服务器间通信识别方法
JP5446040B2 (ja) * 2009-09-28 2014-03-19 日本電気株式会社 コンピュータシステム、及び仮想マシンのマイグレーション方法
JP5717164B2 (ja) * 2009-10-07 2015-05-13 日本電気株式会社 コンピュータシステム、及びコンピュータシステムのメンテナンス方法
JP5435399B2 (ja) * 2009-10-07 2014-03-05 日本電気株式会社 省電力化システム、省電力化方法、及び省電力化用プログラム

Also Published As

Publication number Publication date
JP2013175996A (ja) 2013-09-05

Similar Documents

Publication Publication Date Title
EP3355553B1 (en) Reliable load-balancer using segment routing and real-time application monitoring
EP2304565B1 (en) Method and system for power management in a virtual machine environment withouth disrupting network connectivity
US9143452B2 (en) Data processing
Duan et al. A load balancing and multi-tenancy oriented data center virtualization framework
Tso et al. Implementing scalable, network-aware virtual machine migration for cloud data centers
Zhang et al. SDN-based load balancing strategy for server cluster
Chiang et al. SDN-based server clusters with dynamic load balancing and performance improvement
JP5804189B2 (ja) 情報処理システム,情報処理方法,プログラム
US11374820B2 (en) Centralized controller-based dynamic network bandwidth allocation and management
Yeganeh et al. Beehive: Towards a simple abstraction for scalable software-defined networking
WO2013186825A1 (en) Computer system, communication control server, communication control method, and program
US11575581B2 (en) Utilizing constraints to determine optimized network plans and to implement an optimized network plan
EP3967001B1 (en) Distributed load balancer health management using data center network manager
US11695631B1 (en) Generating candidate links and candidate paths before selecting links for an optimized optical network plan
Al Bowarab et al. Load balancing algorithms in software defined network
Hamdi et al. Network-aware virtual machine placement in cloud data centers: An overview
Qin et al. Online user distribution-aware virtual machine re-deployment and live migration in SDN-based data centers
Tasoulas et al. Towards the infiniband SR-IOV vSwitch architecture
JP5881465B2 (ja) 管理計算機、転送経路管理方法及び計算機システム
de Oliveira et al. Virtualizing packet-processing network functions over heterogeneous openflow switches
Priyadarsini et al. A new approach for SDN performance enhancement
JP2015216572A (ja) 計算機システム、計算機システムの管理方法及び管理計算機
JP6669807B2 (ja) 計算機システムおよび計算機
Xu et al. A scalable and hierarchical load balancing model for control plane of SDN
Femminella et al. The ARES Project: Network Architecture for Delivering and Processing Genomics Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160202

R150 Certificate of patent or registration of utility model

Ref document number: 5881465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150