JP2014232468A - 仮想機械管理装置、仮想機械管理方法及び情報処理システム - Google Patents

仮想機械管理装置、仮想機械管理方法及び情報処理システム Download PDF

Info

Publication number
JP2014232468A
JP2014232468A JP2013113638A JP2013113638A JP2014232468A JP 2014232468 A JP2014232468 A JP 2014232468A JP 2013113638 A JP2013113638 A JP 2013113638A JP 2013113638 A JP2013113638 A JP 2013113638A JP 2014232468 A JP2014232468 A JP 2014232468A
Authority
JP
Japan
Prior art keywords
virtual machine
unit
management
movement
management unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013113638A
Other languages
English (en)
Other versions
JP6160253B2 (ja
Inventor
祥順 中島
Yoshiyuki Nakashima
祥順 中島
敦子 森
Atsuko Mori
敦子 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013113638A priority Critical patent/JP6160253B2/ja
Priority to US14/277,344 priority patent/US9632809B2/en
Priority to CN201410231186.1A priority patent/CN104216756B/zh
Publication of JP2014232468A publication Critical patent/JP2014232468A/ja
Application granted granted Critical
Publication of JP6160253B2 publication Critical patent/JP6160253B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】仮想機械の遠距離ホットマイグレーションを実現する。
【解決手段】仮想機械管理装置21は、仮想機械14を管理する複数の管理部13間の遅延時間を計測させて記憶する遅延記憶部22と、遅延記憶部22に記憶されている各管理部13間の遅延時間に基づいて、移動元管理部13から移動先管理部13まで、各管理部13間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部23と、仮想機械14の動作を停止させることなく、仮想機械14を、移動元管理部13から移動経路に沿って移動先管理部13へ順次移動させる移動制御部24と、をそなえる。
【選択図】図2

Description

本件は、仮想機械管理装置、仮想機械管理方法及び情報処理システムに関する。
近年、VMware(登録商標)社のvSphere(登録商標)やMicrosoft(登録商標)社のHyper−V(登録商標)など、仮想化基盤(hyper visor:HV)を使用したホットマイグレーション技術が普及しつつある。
ここで、ホットマイグレーションとは、ある仮想化基盤で動作している仮想マシン(virtual machine:VM)を、当該仮想マシンのサービス等の動作を停止させることなく、他の仮想化基盤に移動させる技術である。
例えば、従来、メモリの転送によりホットマイグレーションが実現される。このような場合、移動元の仮想マシンのメモリのデータ内容を移動先の仮想化基盤に転送し(これを「メモリ転送」と呼ぶ)、切り替え可能となった瞬間に、移動元の仮想マシンと移動先の仮想マシンとの間でサービス等の切り替えを行なう。なお、このメモリ転送はIPルーティングを用いて行なわれる。
現在、ホットマイグレーションは、ハードウェアのメンテナンスなどのため、仮想マシンを停止することなく同一データセンタ(data center:DC)内にマイグレーションする際に利用されることが多い。
しかし、クラウドの普及により、今後、北海道−九州間のホットマイグレーションや海外へのホットマイグレーションなど、ノード間の距離が長距離化することが予想される。
クラウド環境間での接続の機会が増加し、DC間での負荷分散をさせるために、複数のクラウド環境やDCをまたがる仮想マシンのホットマイグレーションが必要となることが予想される。
特開2011−103567号公報
このようなケースを想定し、例えば、vSphereには、Metro vMotion(登録商標)と呼ばれる長距離ホットマイグレーション用ソリューションが存在する。
VMware Metro vMotionは、仮想化基盤間の往復遅延時間が5msを超える場合でも、仮想マシンを停止させることなく仮想マシンを移動させることができる。
図23は、従来の情報処理システム201の構成図である。
情報処理システム201は、データセンタ(data center:DC)211−1〜211−3をそなえる。
DC211−1は、ゲートウェイ(GW)212−1、仮想化基盤213−1及び仮想マシン214−1をそなえる。
DC211−2は、GW212−2及び仮想化基盤213−2をそなえる。
DC211−3は、GW212−3及び仮想化基盤213−3をそなえる。
なお、以下、DCを示す符号としては、複数のDCのうち1つを特定する必要があるときには符号211−1〜211−3を用いるが、任意のDCを指すときには符号211を用いる。
又、以下、GWを示す符号としては、複数のGWのうち1つを特定する必要があるときには符号212−1〜212−3を用いるが、任意のGWを指すときには符号212を用いる。
又、以下、仮想化基盤を示す符号としては、複数の仮想化基盤のうち1つを特定する必要があるときには符号213−1〜213−3を用いるが、任意の仮想化基盤を指すときには符号213を用いる。
DC211は、仮想化環境に対応したデータセンタであり、不図示の各種コンピュータやデータ通信用の装置をそなえている。
GW212は、DC211を各種ネットワークに接続するゲートウェイである。GW212は、例えば、DC211の代表となる一般的なルータである。
仮想化基盤213は、仮想マシン214を実現するための制御プログラムである。
仮想化基盤213としては、例えば、Microsoft Hyper−V、VMware vSphereなどがあるが、他の仮想化基盤を使用することができる。
仮想マシン214−1は、コンピュータ内に構築された疑似的なコンピュータシステムである。仮想マシン214は、仮想化基盤213上で動作するOperating System(OS)及びアプリケーションであり、後述するように別の仮想化基盤213にホットマイグレーションされる。
図24は、情報処理システム201における一般的なホットマイグレーション処理を示すフローチャートである。
ステップS201において、管理者等から、仮想化基盤213−1に対してマイグレーション指示が発行される。
ステップS202において、仮想化基盤213−1,213−2間の接続が確立される。
ステップS203において、移動(マイグレーション)先の仮想マシン214−2の構成情報が設定される。
ステップS204において、ホットマイグレーションが実行される。このとき、仮想マシン214−1のメモリのデータ内容が、仮想化基盤213−1から仮想化基盤213−2に転送される。
ステップS205において、仮想マシン214−1のメモリが変更されているか、又は、仮想マシン214−1のメモリを、仮想化基盤213−1から仮想化基盤213−2に、所定の閾値(例として1ms)以内に転送可能であるかどうかが判定される。
仮想マシン214−1のメモリが変更されておらず、且つメモリを1ms以内に転送可能でない場合(ステップS205のNOルート参照)、処理がステップS204に戻る。
一方、仮想マシン214−1のメモリが変更されているか、又は、仮想マシン214−1のメモリを1ms以内に転送可能である場合(ステップS205のYESルート参照)、ステップS206において、仮想化基盤213−1から仮想化基盤213−2への最後のメモリ転送が実行される。その後、仮想マシン214−1で実行されているプロセス(サービス)が停止され、仮想マシン214−1が不図示の共有ストレージから切断される。
ステップS207において、移動先の仮想マシン214−2においてプロセス(サービス)が開始され、共有ストレージが仮想マシン214−2にマウントされる。
ステップS208において、仮想マシン214−2がReverse Address Resolution Protocol(RARP)リクエストを送出し、不図示のスイッチ(SW)が持つテーブルの書き換えを要求する。
ところで、vMotionでは、仮想マシンを移動可能な仮想化基盤間の最大往復遅延時間が、所定の閾値(例えば10ms)に制約される。このため、遅延時間が10msを超えるような長距離でのホットマイグレーションを行なうことができない。
例えば、図23に示す例では、DC211−1とDC211−2とはレイテンシが小さい(距離が近い)ため、DC211−1の仮想マシン214−1をDC211−2に、仮想マシン214−2としてホットマイグレーションすることが可能である。
しかし、DC211−1とDC211−3とは、距離が遠いなどの理由によりレイテンシが10msを超えるため、DC211−1の仮想マシン214−1をDC211−3にホットマイグレーションすることはできない。
1つの側面では、本発明は、仮想機械の遠距離ホットマイグレーションを実現することを目的とする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。
このため、本開示の仮想機械管理装置は、仮想機械を管理する複数の管理部間の遅延時間を計測させて記憶する遅延記憶部と、前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部と、前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる移動制御部と、をそなえる。
又、本開示の仮想機械管理方法は、仮想機械を管理する複数の管理部間の遅延時間を計測させて記憶し、前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出し、前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる。
更に、本開示の情報処理システムは、仮想機械を管理する複数の管理部と、前記複数の管理部間の遅延時間を計測させて記憶する遅延記憶部と、前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部と、前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる移動制御部と、をそなえる仮想機械管理装置と、をそなえる。
本発明によれば、仮想機械の遠距離ホットマイグレーションを実現することができる。
実施形態の一例としての情報処理システムの概略構成を示す図である。 実施形態の一例としての情報処理システムの機能構成を示す図である。 実施形態の一例としてのゲートウェイのハードウェア構成を示す図である。 実施形態の一例としての仮想化基盤が実行されているサーバ及び管理サーバのハードウェア構成を示す図である。 実施形態の一例としての情報処理システムにおけるサイトテーブルを例示する図である。 実施形態の一例としての情報処理システムにおける仮想化基盤テーブルを例示する図である。 実施形態の一例としての情報処理システムにおける仮想マシンテーブルを例示する図である。 実施形態の一例としての情報処理システムにおけるサイト間テーブルを例示する図である。 実施形態の一例としての情報処理システムにおける仮想化基盤稼働率情報テーブルを例示する図である。 実施形態の一例としての情報処理システムの概略動作を示す図である。 実施形態の一例としての情報処理システムの概略動作を示す図である。 実施形態の一例としての情報処理システムの概略動作を示す図である。 実施形態の一例としての情報処理システムにおけるレイテンシ計測処理を示す図である。 実施形態の一例としての情報処理システムにおけるレイテンシ計測処理を示すフローチャートである。 実施形態の一例としての情報処理システムにおける情報収集処理を示すフローチャートである。 (a)〜(c)は、実施形態の一例としての情報処理システムにおける経由地特定処理を例示する図である。 実施形態の一例としての情報処理システムにおける経由地特定処理を例示するフローチャートである。 実施形態の一例としての情報処理システムにおける経由地特定処理を例示するフローチャートである。 実施形態の一例としての情報処理システムにおけるホットマイグレーション処理を示す図である。 実施形態の一例としての情報処理システムにおけるホットマイグレーション処理を示す図である。 実施形態の一例としての情報処理システムにおけるホットマイグレーション処理を示す図である。 実施形態の一例としての情報処理システムにおけるホットマイグレーション処理を示すフローチャートである。 従来の情報処理システムの概略構成を示す図である。 従来の情報処理システムにおけるホットマイグレーション処理を示すフローチャートである。
以下、図面を参照しながら本実施形態の一例を説明する。
(A)構成
まず、本実施形態の一例の情報処理システム1の構成について説明する。
図1は、実施形態の一例としての情報処理システム1の概略構成を示す図である。
情報処理システム1には、DC11−1〜11−3、管理サーバ(仮想機械管理装置)21−1、端末装置31及び管理ネットワーク(NW)41−1をそなえる。
以下の説明並びに図面において、DC11−1をDC#1、DC11−2をDC#2、DC11−3をDC#3と記載することがある。
DC11−1は、GW12−1、仮想化基盤(管理部)13−1及び仮想マシン(仮想機械)14−1をそなえる。
DC11−2は、GW12−2及び仮想化基盤13−2をそなえる。
DC11−3は、GW12−3及び仮想化基盤13−3をそなえる。
なお、以下、DCを示す符号としては、複数のDCのうち1つを特定する必要があるときには符号11−1〜11−3を用いるが、任意のDCを指すときには符号11を用いる。
又、以下、GWを示す符号としては、複数のGWのうち1つを特定する必要があるときには符号12−1〜12−3を用いるが、任意のGWを指すときには符号12を用いる。
又、以下、仮想化基盤を示す符号としては、複数の仮想化基盤のうち1つを特定する必要があるときには符号13−1〜13−3を用いるが、任意の仮想化基盤を指すときには符号13を用いる。
DC11は、仮想化環境に対応したDCであり、不図示の各種コンピュータやデータ通信用の装置をそなえている。
GW12は、DC11を後述する管理ネットワーク41−1に接続するゲートウェイである。GW12は、例えば、DC11の代表となる一般的なルータである。
仮想化基盤13は、仮想マシン14を実現するための制御プログラムである。
仮想化基盤13としては、例えば、Microsoft Hyper−V、VMware vSphereなどがあるが、他の仮想化基盤を使用することができる。
仮想マシン14は、コンピュータ内に構築された疑似的なコンピュータシステムである。仮想マシン14は、仮想化基盤13上で動作するOS及びアプリケーションであり、後述するように管理サーバ21−1の指示により、別の仮想化基盤13にホットマイグレーションされる。
端末装置31は、情報処理システム1の管理者又はオペレータが管理作業に使用する情報処理装置であり、例えば、一般的なパーソナルコンピュータ(PC)である。
管理サーバ21−1は、各GW12、仮想化基盤13及び仮想マシン14(以下、これらをまとめて「ノード」とも呼ぶ)を管理する情報処理装置であり、例えば、サーバ機能をそなえたコンピュータである。管理サーバ21−1は、端末装置31経由で管理者(又はオペレータ)からの指示を受け取る。
管理ネットワーク41−1は、DC11−1〜11−3、管理サーバ21−1間を接続する管理用のネットワークであり、通常業務に使用されるネットワークとは別個に設けられる。
図1に示す例では、DC11−1とDC11−2とはレイテンシが小さい(vSphereに代表されるソリューションの閾値未満)ため、DC11−1の仮想マシン14−1をDC11−2に、仮想マシン14−2として直接ホットマイグレーションすることが可能である。しかし、DC11−1とDC11−3とは距離が遠いなどの理由によりレイテンシが閾値を超えるため、DC11−1の仮想マシン14−1をDC11−3に一度でホットマイグレーションすることはできない。なお、以下の説明において、「距離が遠い」、「距離が近い」という表現を、それぞれ、ネットワーク上の「レイテンシが大きい」、「レイテンシが小さい」と同義で用いる。
そこで、実施形態の一例においては、DC11−1の仮想マシン14−1をDC11−2に、仮想マシン14−2として一旦ホットマイグレーションしたのち、仮想マシン14−2をDC11−3にホットマイグレーションする。つまり、仮想マシン14をホットマイグレーションする際に、一度で目的の仮想化基盤13にマイグレーションするのではなく、複数の仮想化基盤13を経由して目的の仮想化基盤13に段階的にマイグレーションを行なう。ここで、中継される仮想化基盤13を「経由地」と呼ぶ。
このため、ホットマイグレーションに必要となる各DC11や仮想化基盤13、仮想マシン14などの情報を管理サーバ21に予め記憶させておき、ホットマイグレーション時に、管理サーバ21の経由地特定部23(図2参照;詳細は後述)が最適なホットマイグレーション先を決定する。
詳細には、まず、図1のステップ(I)において、管理サーバ21−1が、各ノード(GW12、仮想化基盤13及び仮想マシン14)から情報を収集し、その情報を、後述する管理テーブル51〜55に記憶する。
次に、ステップ(II)において、管理サーバ21−1は、仮想化基盤13−1に対して、DC11−1の仮想マシン14−1を、DC11−3にホットマイグレーションするように指示する。
次に、ステップ(III)において、管理サーバ21−1は、仮想化基盤13−2に対して、DC11−1から仮想マシン14の受け入れ準備を行なうように指示する。仮想マシン14の受け入れ準備には、例えば、Central Processing Unit(CPU)やメモリ等のリソースの確保などがある。
ステップ(IV)において、管理サーバ21−1は、DC11−1の仮想マシン14−1に対し、ホットマイグレーションの経由地としてDC11−2を指示する。
ステップ(V)において、DC11−1の仮想マシン14−1が、DC11−2に仮想マシン14−2としてホットマイグレーションされる。
次に、ステップ(VI)において、管理サーバ21−1は、仮想化基盤13−3に対して、DC11−2から仮想マシン14の受け入れ準備を行なうように指示する。
ステップ(VII)において、管理サーバ21−1は、DC11−2の仮想マシン14−2に対し、ホットマイグレーションの経由地(この場合は最終目的地である目的地)としてDC11−3を指示する。
ステップ(VIII)において、DC11−2の仮想マシン14−2が、DC11−3に仮想マシン14−3としてホットマイグレーションされる。
このように、実施形態の一例としての情報処理システム1においては、DC11−1からDC11−2へ、DC11−2を経由して仮想マシン14を段階的に移動させることで、DC11−1からDC11−2へのマイグレーション(長距離ホットマイグレーション)を実現する。以下にその詳細を説明する。
図2は、実施形態の一例としての情報処理システム1の機能構成を示す図である。
管理サーバ21−1は、情報収集・管理部(遅延記憶部)22、経由地特定部(経路抽出部)23、マイグレーション通知部(移動制御部)24、GWインタフェース25、仮想化基盤インタフェース26、及び管理サーバ間インタフェース(連携部)27をそなえる。
情報収集・管理部22は、各ノードの情報、ノード間の遅延時間(レイテンシ)等を収集して、後述する管理テーブル51〜55(図5〜図9参照)に格納する。
経由地特定部23は、長距離ホットマイグレーションを行なう前に、図16(a)〜(c)を用いて後述する経由地特定処理(経由地特定アルゴリズムとも呼ぶ)を実行して、経由地を求める。
マイグレーション通知部24は、仮想化基盤13に対してホットマイグレーションの実行を指示する。
GWインタフェース25は、GW12との情報の仲介を行なう。
仮想化基盤インタフェース26は、仮想化基盤13との情報の仲介を行なう。
管理サーバ間インタフェース27は、他の管理サーバ(例えば管理サーバ21−2)とインタフェースして、管理サーバ21間を連携させる。管理サーバ間インタフェース27による連携により、例えば、Amazon社のAmazonクラウドとGoogle社のGoogleクラウド間のホットマイグレーションなど、クラウド間のマイグレーションが可能となる。
なお、図2には管理サーバ21−1の構成のみが図示されているが、管理サーバ21−2も管理サーバ21−1と同様の機能構成をそなえる。このため、管理サーバ21−2の機能構成については説明及び図示を省略する。
なお、以下、管理サーバを示す符号としては、複数の管理サーバのうち1つを特定する必要があるときには符号21−1〜21−2を用いるが、任意の管理サーバを指すときには符号21を用いる。
GW12−1は、GW・ルータ部121、インタフェース部122、及び情報計測部123をそなえる。
GW・ルータ部121は、GW・ルータとしての一般的な機能を実現する。
インタフェース部122は、管理サーバ21−1との情報の仲介を行なう。
情報計測部123は、管理サーバ21−1からの指示により、他ノードとのレイテンシを計測する。例えば、情報計測部123は、他のノードにコマンド等を発行し、その応答が返される時間を測定することによりレイテンシを計測する。
なお、図2にはGW12−1の構成のみが図示されているが、GW12−2〜12−4もGW12−1と同様の機能構成をそなえる。このため、GW12−2〜12−4の機能構成については説明及び図示を省略する。
仮想化基盤13−1は、HV部131、仮想マシン情報管理部132、インタフェース部133、ホットマイグレーション部134、NW管理部135、及びイベント通知部136をそなえる。
HV部131は、仮想マシン14−1の実行、リソース割り当てや管理など、仮想化基盤としての一般的な機能を実現する。
仮想マシン情報管理部132は、仮想化基盤13−1の配下の仮想マシン14−1に関する各種情報を管理する。
インタフェース部133は、管理サーバ21−1との情報の仲介を行なう。
ホットマイグレーション部134は、他の仮想化基盤13への仮想マシン14のホットマイグレーションを実行する。
NW管理部135は、仮想化基盤13−1のネットワーク接続を管理する。
イベント通知部136は、ホットマイグレーション等のイベントの発生時に、そのイベントに関する情報を管理サーバ21−1に通知する。
なお、図2には仮想化基盤13−1の構成のみが図示されているが、仮想化基盤13−2〜13−4も仮想化基盤13−1と同様の機能構成をそなえる。このため、仮想化基盤13−2〜13−4の機能構成については説明及び図示を省略する。
仮想マシン14−1は、仮想マシン部141、ホットマイグレーション部142、及び情報収集部143をそなえる。
仮想マシン部141は、仮想マシン14−1としての一般的な機能を実現する。
ホットマイグレーション部142は、他の仮想化基盤13に仮想マシン14−1自身をホットマイグレーションさせる。
情報収集部143は、仮想マシン14−1に関する各種情報を収集する。
なお、図2には仮想マシン14−1の構成のみが図示されているが、仮想マシン14−2〜14−4も仮想マシン14−1と同様の機能構成をそなえる。このため、仮想マシン14−2〜14−4の機能構成については説明及び図示を省略する。
なお、図2に示す例では、自社網内のDC11−1,11−2が、GW42−1,42−2及びネットワーク43を介して、他社網内のDC11−3,DC11−4に接続されている。しかし、本構成は例示に過ぎず、DC11−1〜11−4の全てが1つのネットワークに接続されていても、自社網内のDC11−1が、他社網内のDC11−2〜11−4に接続されているなど、他の構成も可能である。
図3は、実施形態の一例としてのGW12のハードウェア構成を示す図である。
GW12は、CPU61、Random Access Memory(RAM)62、インタフェース部63、パケット転送エンジン64、ルーティングテーブル65、フォワーディングテーブル66、及びフローテーブル67をそなえる。
CPU61は、後述するRAM62等に格納されているプログラムを実行することにより、各種処理を実行する処理装置である。CPU61としては、公知のCPUを用いることができる。
RAM62は、CPU61が実行するプログラムや種々のデータや、CPU61の動作により得られたデータ等を格納する。
インタフェース部63は、GW12をネットワークに接続するためのインタフェースである。
パケット転送エンジン64は、GW12が受信したパケットを他の装置に転送する。
ルーティングテーブル65は、パケットの転送先を記憶しているテーブルである。
フォワーディングテーブル66は、パケットの次の転送先を記憶しているテーブルである。
フローテーブル67は、パケットのフローに関する情報を記憶しているテーブルである。
なお、GW12において、情報計測部123としての機能を実現するためのプログラムは、例えばフレキシブルディスク,CD(CD−ROM,CD−R,CD−RW等),DVD(DVD−ROM,DVD−RAM,DVD−R,DVD+R,DVD−RW,DVD+RW,HD DVD等),ブルーレイディスク,磁気ディスク,光ディスク,光磁気ディスク等の、コンピュータ読取可能な記録媒体に記録された形態で提供される。そして、コンピュータはその記録媒体から図示しない読み取り装置を介してプログラムを読み取って内部記憶装置又は外部記憶装置に転送し格納して用いる。又、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供するようにしてもよい。
情報計測部123としての機能を実現する際には、内部記憶装置(本実施形態ではRAM62)に格納されたプログラムがコンピュータのマイクロプロセッサ(本実施形態ではCPU61)によって実行される。このとき、記録媒体に記録されたプログラムをコンピュータが読み取って実行するようにしてもよい。
図4は、実施形態の一例としての仮想化基盤13が実行されているサーバ及び管理サーバ21のハードウェア構成を示す図である。
仮想化基盤13が実行されているサーバ及び管理サーバ21は、CPU71、主記憶部72、補助記憶部73、通信制御部74、インタフェース部75、及び媒体リーダ76をそなえる。
CPU71は、仮想化基盤13や管理サーバ21の基本機能を実現するシステムソフトウェアである不図示のOS等を実行する処理装置である。後述する主記憶部72等に格納されているプログラムを実行することにより、各種処理を実行する。CPU71としては、公知のCPUを用いることができる。
主記憶部72は、CPU71が実行するプログラムや種々のデータや、CPU71の動作により得られたデータ等を格納する。主記憶部72としては、例えば、Hard Disk Drive(HDD)を使用することができる。
補助記憶部73は、CPU71がプログラムを実行する際に、データを一時的に記憶する記憶域である。補助記憶部73としては、例えば、RAMを使用することができる。
通信制御部74は、インタフェース部75を制御して、外部ネットワークとの通信の制御を行なう。
インタフェース部75は、仮想化基盤13や管理サーバ21を外部のネットワークに接続するためのアダプタであり、例えば、Local Area Network(LAN)カードである。
媒体リーダ76は、CD−ROMやDVD−ROMなどの記録媒体77を読み出すドライブであり、例えば、CD−ROMドライブやDVD−ROMドライブである。
又、情報収集・管理部22、経由地特定部23、管理サーバ間インタフェース27、及びイベント通知部136としての機能を実現するためのプログラムは、例えばフレキシブルディスク,CD(CD−ROM,CD−R,CD−RW等),DVD(DVD−ROM,DVD−RAM,DVD−R,DVD+R,DVD−RW,DVD+RW,HD DVD等),ブルーレイディスク,磁気ディスク,光ディスク,光磁気ディスク等の、コンピュータ読取可能な記録媒体77に記録された形態で提供される。そして、コンピュータはその記録媒体77から媒体リーダ76を介してプログラムを読み取って内部記憶装置又は外部記憶装置に転送し格納して用いる。又、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体77)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供するようにしてもよい。
又、情報収集・管理部22、経由地特定部23、管理サーバ間インタフェース27、及びイベント通知部136としての機能を実現する際には、内部記憶装置(本実施形態では主記憶部72)に格納されたプログラムがコンピュータのマイクロプロセッサ(本実施形態ではCPU71)によって実行される。このとき、記録媒体77に記録されたプログラムをコンピュータが読み取って実行するようにしてもよい。
なお、本実施形態において、コンピュータとは、ハードウェアとOSとを含む概念であり、OSの制御の下で動作するハードウェアを意味している。又、OSが不要でアプリケーションプログラム単独でハードウェアを動作させるような場合には、そのハードウェア自体がコンピュータに相当する。ハードウェアは、少なくとも、CPU等のマイクロプロセッサと、記録媒体77に記録されたコンピュータプログラムを読み取るための手段とをそなえており、本実施形態においては、仮想化基盤13及び管理サーバ21がコンピュータとしての機能を有しているのである。
次に、図5〜図9を用いて、実施形態の一例としての情報処理システム1において使用される各種管理テーブル51〜55について説明する。
図5は、実施形態の一例としての情報処理システム1におけるサイトテーブル51を例示する図である。
サイトテーブル51は、各サイト(DC11)の情報、並びにDC11のGW12のIPを保持するテーブルである。
図5に示すように、サイトテーブル51は、サイトID(Site ID)511、サイト名(Site Name)512、及びGW IP513の各フィールドを有する。
サイトID511は、各サイト(DC11)を一意に識別するサイトの識別子(ID)を格納している。
サイト名512は、サイトの名前を格納している。
GW IP513は、サイトの代表GW12のIPアドレスを格納している。
サイトテーブル51に格納される情報は、管理サーバ21の要求に応じて、GW12によって収集される。
図6は、実施形態の一例としての情報処理システム1における仮想化基盤テーブル52を例示する図である。
仮想化基盤テーブル52は、仮想化基盤13の情報を格納するテーブルである。
仮想化基盤テーブル52は、HV ID521、HV名(HV Name)522、HV IP523、サイトID(Site ID)524、レイテンシ(Latency)525、及び最終更新日(Latest)526の各フィールドを有する。
HV ID521は、各仮想化基盤12を一意に識別する仮想化基盤12の識別子を格納している。
HV名522は、仮想化基盤12の名前を格納している。
HV IP523は、仮想化基盤12のIPアドレスを格納している。
サイトID524は、仮想化基盤12が存在するサイト(DC11)のIDを格納している。
レイテンシ525は、GW12と仮想化基盤12との間のレイテンシ(遅延時間)を格納している。前述のように、レイテンシの値は、例えば、コマンドの往復応答時間を測定することによって計測される。
最終更新日526は、各フィールド521〜525の情報の最終更新日を保持している。
仮想化基盤テーブル52に格納される情報は、管理サーバ21の要求に応じて、GW12の情報計測部123によって収集される。
図7は、実施形態の一例としての情報処理システム1における仮想マシンテーブル53を例示する図である。
仮想マシンテーブル53は、仮想マシン14の情報、並びに仮想マシン14のリソース情報を保持するテーブルである。
仮想マシンテーブル53は、VM ID531、VM名(VM Name)532、CPU使用率(CPU)533、メモリ使用量(Mem)534、HDD使用量(HDD)535、NIC536、NW名(NW-Name)537、及びHV ID538等リソース使用量の各フィールドを有する。
VM ID531は、各仮想マシン14を一意に識別する仮想マシン14の識別子を格納している。
VM名532は、仮想マシン14の名前を格納している。
CPU使用率533は、各仮想マシン14に割り当てられているCPUの使用率(%)を格納している。
メモリ使用量534は、各仮想マシン14に割り当てられているメモリの使用量(例えば、GB)を格納している。
HDD使用量535は、各仮想マシン14に割り当てられているHDDの使用量(例えば、GB)を格納している。
NIC536は、各仮想マシン14に割り当てられているNetwork Interface Card(NIC)の識別子を格納している。
NW名537は、仮想マシン14が接続しているネットワーク(NW)のネットワーク名を格納している。
HV ID538は、仮想マシン14が存在する仮想化基盤13のIDを格納している。
仮想マシンテーブル53に格納される情報は、管理サーバ21の要求に応じて、GW12によって収集される。
図8は、実施形態の一例としての情報処理システム1におけるサイト間テーブル54を例示する図である。
サイト間テーブル54は、DC11間のレイテンシ(遅延時間)を格納しているテーブルであり、DC11毎にテーブルが作成される。
サイト間テーブル54は、各サイト(DC11)毎に、DSTサイトID(DST Site ID)541、レイテンシ(Latency)542、及び最終更新日(Latest)543の各フィールドを有する。
DSTサイトID541は、接続先のサイト(DC11)のIDを格納している。
レイテンシ542は、サイト間のレイテンシ(遅延時間)を格納している。前述のように、レイテンシの値は、例えば、コマンドの往復応答時間を測定することによって計測される。
最終更新日543は、レイテンシ541の情報が収集された日時を保持している。
サイト間テーブル54に格納される情報は、管理サーバ21の要求に応じて、GW12の情報計測部123によって収集される。
図9は、実施形態の一例としての情報処理システム1における仮想化基盤稼働率情報テーブル55を例示する図である。
仮想化基盤稼働率情報テーブル55は、仮想化基盤13のハードウェア情報を保持するテーブルである。
仮想化基盤稼働率情報テーブル55は、HV ID551、CPU使用率(CPU)552、メモリ使用量(Mem)553、HDD使用量(HDD)554、NIC555、及び最終更新日(Latest)556の各フィールドを有する。
HV ID551は、各仮想化基盤12を一意に識別する仮想化基盤12の識別子を格納している。
CPU使用率552は、各仮想マシン14に割り当てられているCPUの使用率(%)を格納している。
メモリ使用量553は、各仮想マシン14に割り当てられているメモリの使用量(例えば、GB)を格納している。
HDD使用量554は、各仮想マシン14に割り当てられているHDDの使用量(例えば、TG)を格納している。
NIC555は、各仮想マシン14に割り当てられているNICの識別子を格納している。
最終更新日556は、各フィールド551〜555の情報の最終更新日を保持している。
仮想化基盤稼働率情報テーブル55に格納される情報は、管理サーバ21の要求に応じて、GW12によって収集される。
(B)動作
次に、本実施形態の一例の情報処理システム1の動作について説明する。
最初に、図10〜図12を用いて、図1,図2に示した情報処理システム1におけるホットマイグレーション処理について説明する。
図10〜図12は、実施形態の一例としての情報処理システム1の概略動作を示す図である。
まず、図10のステップ(1)において、管理サーバ21の情報収集・管理部22が、各ノード(GW12、仮想化基盤13)に対して、レイテンシの計測を指示する。この際、例えば、情報収集・管理部22は、各ノードに対し、DC11間のレイテンシ、DC11内の仮想マシン14とGW12との間のレイテンシの情報を要求する。
次に、図10のステップ(2)において、GW13の情報計測部123は、DC11間のレイテンシ、並びにDC11内の仮想マシン14とGW12との間のレイテンシを計測する。
次に、図10のステップ(3)において、GW13のインタフェース部122は、ステップ(2)で計測した各レイテンシを管理サーバ21に通知する。管理サーバ21の情報収集・管理部22は、GW12から通知されたレイテンシを、前述の仮想マシンテーブル53(図7参照)及びサイト間テーブル54(図8参照)に記憶する。
又、図11のステップ(4)において、管理サーバ21の情報収集・管理部22は、各ノード(仮想化基盤13及び仮想マシン14)に対して、各種情報の収集を指示する。この際、例えば、情報収集・管理部22は、DC11内の仮想化基盤13の情報、及びDC11内の仮想マシン14の情報を要求する。
そして、図11のステップ(5)において、仮想化基盤13のインタフェース部133は、DC11内の仮想化基盤13の情報、及びDC11内の仮想マシン14の情報を管理サーバ21に通知する。管理サーバ21の情報収集・管理部22は、仮想化基盤13から通知された情報を、前述のサイトテーブル51(図5参照)、仮想化基盤テーブル52(図6参照)、仮想マシンテーブル53(図7参照)及びサイト間テーブル54(図8参照)に記憶する。
その後、図12のステップ(6)において、ホットマイグレーションが実施され、DC11−1の仮想マシン14−1がDC11−2の仮想マシン14−2としてホットマイグレーションされる。
次に、図12のステップ(7)において、仮想化基盤13のイベント通知部137が管理サーバ21に、ホットマイグレーションの結果を通知する。又、仮想化基盤13のインタフェース部133がホットマイグレーション後の各ノードの情報を、管理サーバ21に通知する。そして、管理サーバ21の情報収集・管理部22は、仮想化基盤13から通知された情報を、前述のサイトテーブル51(図5参照)、仮想化基盤テーブル52(図6参照)、仮想マシンテーブル53(図7参照)及びサイト間テーブル54(図8参照)に記憶する。
次に、図13を参照して、情報処理システム1におけるレイテンシ計測処理を説明する。
図13は、実施形態の一例としての情報処理システム1におけるレイテンシ計測処理を示す図である。
ステップS1において、管理サーバ21の情報収集・管理部22が、GW12−1に対して、情報提供要求を送信する。
ステップS2において、GW12−1は、GW12−2に対して、レイテンシの計測を指示する。
ステップS3において、GW12−2の情報計測部123は、レイテンシを測定し、測定したレイテンシをGW12−1に通知する。このレイテンシは、例えば、pingコマンドを発行し、pingコマンドを受け取るまでの時間を測定することにより求めることができる。
ステップS4において、GW12−1は、GW12−3に対して、レイテンシの計測を指示する。
ステップS5において、GW12−3の情報計測部123は、レイテンシを測定し、測定したレイテンシをGW12−1に通知する。
ステップS6において、GW12−1は、仮想化基盤13−1との間のレイテンシの計測を行なう。
ステップS7において、仮想化基盤13−1は、レイテンシの測定に用いられる情報をGW12−1に通知する。
なお、前述のステップS2,S4,S6は同時に実行されてもよい。
ステップS8において、GW12−1は、収集したレイテンシの計測値を、管理サーバ21に通知する。
ステップS9において、管理サーバ21は、仮想化基盤13−1に対して、情報提供要求を送信する。
ステップS10において、仮想化基盤13−1は、管理サーバ21に、仮想化基盤13−1の情報を送信する。
ステップS11において、管理サーバ21は、GW12−2に対して、情報提供要求を送信する。
ステップS12において、GW12−2は、GW12−1に対して、レイテンシの計測を指示する。
ステップS13において、GW12−1の情報計測部123は、レイテンシを測定し、測定したレイテンシをGW12−2に通知する。
ステップS14において、GW12−2は、GW12−3に対して、レイテンシの計測を指示する。
ステップS15において、GW12−3の情報計測部123は、レイテンシを測定し、測定したレイテンシをGW12−2に通知する。
ステップS16において、GW12−2は、仮想化基盤13−2との間のレイテンシの計測を行なう。
ステップS17において、仮想化基盤13−2は、レイテンシの測定に用いられる情報をGW12−1に通知する。
なお、前述のステップS12,S14,S16は同時に実行されてもよい。
ステップS18において、GW12−2は、収集したレイテンシの計測値を、管理サーバ21に通知する。
上記処理は、管理サーバ21の管理下にある各DC11のそれぞれに対して実行され、管理サーバ21の管理下にある各DC11の各ノードのレイテンシ情報が収集される。
図14は、実施形態の一例としての情報処理システム1におけるレイテンシ計測処理を示すフローチャートである。
ステップS131において、管理サーバ21の情報収集・管理部22は、計測先のGW12又は仮想化基盤13を選択する。
ステップS132において、管理サーバ21の情報収集・管理部22は、ステップS131で選択したGW12又は仮想化基盤13に対し、レイテンシ計測開始を指示し、宛先情報を通知する。
ステップS133において、GW12の情報計測部123は、指示されたGW12又は仮想化基盤13のレイテンシを計測する。
ステップS134において、GW12の情報計測部123は、計測結果を管理サーバ21に通知する。
ステップS135において、管理サーバ21の情報収集・管理部22は、ステップS132で通知された結果データを管理テーブル51〜55に格納する。
ステップS136において、管理サーバ21の情報収集・管理部22は、レイテンシを計測するGW12又は仮想化基盤13が残っているかどうかを判定する。
レイテンシを計測するGW12又は仮想化基盤13が残っている場合(ステップS136のYESルート参照)、処理がステップS131に戻る。
一方、レイテンシを計測するGW12又は仮想化基盤13が残っていない場合(ステップS136のNOルート参照)、処理が終了する。
図15は、実施形態の一例としての情報処理システム1における情報収集処理を示すフローチャートである。
ステップS141において、管理サーバ21の情報収集・管理部22は、情報収集先の仮想化基盤13を選択する。
ステップS142において、管理サーバ21の情報収集・管理部22は、ステップS141で選択した仮想化基盤13に対し、情報提供を依頼する。
ステップS143において、仮想化基盤13は取得する情報を収集する。
ステップS144において、仮想化基盤13は、収集した情報を管理サーバ21に通知する。
ステップS145において、管理サーバ21の情報収集・管理部22は、ステップS142で通知された結果データを管理テーブル51〜55に格納する。
ステップS146において、管理サーバ21の情報収集・管理部22は、情報を収集する仮想化基盤13が残っているかどうかを判定する。
情報を収集する仮想化基盤13が残っている場合(ステップS146のYESルート参照)、処理がステップS141に戻る。
一方、情報を収集する仮想化基盤13が残っていない場合(ステップS146のNOルート参照)、処理が終了する。
次に、図16(a)〜(c),図17,図18を用いて、情報処理システムにおける経由地特定処理の例を説明する。
図16(a)〜(c)は、実施形態の一例としての管理サーバ21の経由地特定部23による経由地特定処理を例示する図である。
図16(a)において、管理者が、端末装置31を使用して、サイトAのVM−AのサイトCへのホットマイグレーションを、管理サーバ21に対して指示する。
管理サーバ21の経由地特定部23は、サイト間テーブル54を参照してサイトAとサイトC間のレイテンシを取得する。そして、レイテンシが、ホットマイグレーション可能な閾値(例えば、VMware vMotionの場合は10ms以下)場合、経由地特定部23は、サイトCを目的地として決定する。以下、閾値は例として10msとして扱う。
レイテンシがホットマイグレーション可能な閾値よりも大きい場合、図16(b)に示すように、経由地特定部23は、『サイトAから10ms以内』かつ『サイトCから最もレイテンシの少ない』地点であるサイトDを選択する。更に、『サイトCから10ms以内』かつ『サイトAから最もレイテンシの少ない』地点であるサイトEも選択する。
このとき、経由地特定部23は、管理テーブル51〜55のリソース情報を参照して、ハードウェアやネットワークリソースなどが移動元のサイトに類似しているサイトを優先的に選択する。
経由地特定部23は、上記で選択したサイトD,Eと、サイトA,Cの4つの点から、最もレイテンシが少ない2点を選択する。例えば、サイトD,E間のレイテンシが最小であるとする。
そして、経由地特定部23は、選択されたサイトDとサイトEについて、上記の経由地選処理を繰り返し、最終的に、図16(c)に示すように、サイトFを経由地として選択する。これにより、経由地として、サイトD,E,Fが選択される。すなわち、図16(c)に示すサイトA→サイトD→サイトF→サイトE→サイトCが、順次ホットマイグレーションを行なう移動経路として選択される。
図17,図18は、図16(a)〜(c)の経由地特定処理を例示するフローチャートである。図17はステップS21〜S29、図18はステップS30〜S44をそれぞれ示す。
ステップS21において、経由地特定部23は、例えば、カウンタi,j、始点変数S[10]、終点変数E[10]、レイテンシL[4]、経由地変数KS[10],KE[10]、及びレイテンシ閾値Tを確保する。ここで、始点変数S[10]は要素数10の配列を、レイテンシL[4]は要素数4の配列を、それぞれ示す。ここで、要素数の10は経由地を記録するための最大数で、任意の値に変更できる。
ステップS22において、経由地特定部23は、ステップS21で確保した変数に初期値を設定する。
ステップS23において、経由地特定部23は、移動元の仮想マシン14を移動することができない地点を排除する。
ステップS24において、経由地特定部23は、S[i]とE[i]との間のレイテンシL[0]が、レイテンシ閾値T以下であるかどうか判定する。
レイテンシL[0]がレイテンシ閾値T以下の場合(ステップS24のYESルート参照)、処理が図17のステップS42に移動する。
一方、レイテンシL[0]がレイテンシ閾値Tを超える場合(ステップS24のNOルート参照)、ステップS25において、経由地特定部23は、カウンタiを1インクリメントする。
ステップS26において、経由地特定部23は、List S=S[i−1]からレイテンシがT(ms)以内の地点をリストアップする。例えば、前述の図16(b)の例では、サイトAから10ms以内にサイトDが存在する。
又、経由地特定部23は、List E=E[i−1]からレイテンシがT(ms)以内の地点をリストアップする。例えば、前述の図16(b)の例では、サイトCから10ms以内にサイトEが存在する。
ステップS27において、経由地特定部23は、List SとList Eとに共通する地点が存在するかどうかを判定する。
共通する地点が存在する場合(ステップS27のYESルート参照)、ステップS28において、経由地特定部23は、S[i]=E[i]=共通地点から任意の点を選択する。このとき、共通点に自身がある場合は自身を選択する。
一方、共通する地点が存在しない場合(ステップS27のNOルート参照)、ステップS29において、経由地特定部23は、List Sから、E[i−1]からのレイテンシの少ない地点を選択し、S[i]に代入する。又、経由地特定部23は、List Eから、S[i−1]からのレイテンシの少ない地点を選択して、E[i]に代入する。例えば、の図16(b)の例では、S[i]=サイトD、S[i−1]=サイトA、E[i]=サイトE、E[i−1]=サイトCがそれぞれ設定される。
次に、図18のステップS30において、経由地特定部23は、L[0]に、S[i−1]とE[i−1]間のレイテンシを設定し、L[1]に、S[i−1]とE[i]間のレイテンシを設定する。又、経由地特定部23は、L[2]に、S[i]とE[i−1]間のレイテンシを設定し、L[3]に、S[i]とE[i]間のレイテンシを設定する。例えば、図16(b)の例ではL[1]に、サイトA−E間のレイテンシが設定され、他のレイテンシも同様に設定される。
ステップS31において、経由地特定部23は、L[0]〜L[3]のうち、値が最も小さいものを選択する。同じ値が複数存在する場合、経由地特定部23は、要素数の小さいものを選択する。
L[0]が最小の場合(ステップS31の“L[0]”ルート参照)、経由地特定部23は、ステップS32においてiを1デクリメントし、ステップS33でjを1インクリメントする。
ステップS34において、経由地特定部23は、jが十分大きいかどうか(例えば、所定の閾値を超えているかどうか)を判定する。
jが十分大きくない場合(ステップS34のNOルート参照)、処理は図17のステップS25に戻る。
一方、jが十分大きい場合(ステップS34のYESルート参照)、一定回数以上、経由地特定を繰り返したり、一度選択された経由地が再度選択され、無限ループに陥っているおそれがある。このとき、ステップS35において、経由地特定部23は、候補点が0であるかどうかを判定する。
候補点が0ではない場合(ステップS35のNOルート参照)、離れた地点など、除外すべき地点が検索されたことになる。ステップS36において、経由地特定部23は、先に選択した候補地である、KS[i],ES[i]の選択された地点を候補地から除外して、図17のステップS25に戻る。
一方、候補点が0の場合(ステップS35のYESルート参照)、ステップS37において、経由地特定部23は、適切な経由地が存在しない旨を管理者等に通知し、処理を終了する。
なお、ステップS31でL[1]が最小の場合(ステップS31の“L[1]”ルート参照)、ステップS38において、経由地特定部23は、S[i−1]をKS[i]に、E[i]をKE[i]に、S[i−1]をS[i]に、それぞれ代入して、後述するステップS41に進む。
又、ステップS31でL[2]が最小の場合(ステップS31の“L[2]”ルート参照)、ステップS39において、経由地特定部23は、KS[i]をS[i]に、E[i−1]をKE[i]に、E[i−1]をE[i]にそれぞれ代入して、ステップS41に進む。
或いは、ステップS31でL[3]が最小の場合(ステップS31の“L[3]”ルート参照)、ステップS40において、経由地特定部23は、S[i]をKS[i]に、E[i]をKE[i]にそれぞれ代入して、ステップS41に進む。
ステップS41において、経由地特定部23は、KS[i]とKE[i]とが一致するかどうかを判定する。
KS[i]とKE[i]とが一致しない場合(ステップS41のNOルート参照)、処理がステップS34に移る。
一方、KS[i]とKE[i]とが一致する場合(ステップS41のYESルート参照)、ステップS42において、経由地特定部23は、KS[0]−KS[1]−…−KS[i]−KE[i]−KE[i−1]−…−KE[0]を、経由地候補(移動経路)として選択する。
次に、ステップS43において、経由地特定部23は、ステップS42で選択した経由地候補に、重複する地点や省略可能な地点が存在する場合、これらを削除する。
次に、ステップS44において、経由地特定部23は、ステップS43で得た経由地候補を管理者に通知する。
なお、図16(a)〜(c),図17,図18に挙げた経由地特定処理は例示であり、経由地特定部23が他の手法を用いて経由地の特定を行なってもよい。
次に、図19〜図21を用いて情報処理システムにおけるホットマイグレーション処理について説明する。
図19〜図21は、実施形態の一例としての情報処理システム1におけるホットマイグレーション処理を示す図である。図19はステップS51〜S61、図20はステップS62〜S72、図21はステップS73〜S81をそれぞれ示す。
図19のステップS51において、管理者(又はオペレータ)が、管理サーバ21に対して、仮想化基盤13−1から仮想化基盤13−3への仮想マシン14−1のホットマイグレーションを指示する。
ステップS52において、管理サーバ21の経由地特定部23が、前述の経由地特定処理を実行して、経由地として仮想化基盤13−2を選択する。
ステップS53において、管理サーバ21のマイグレーション通知部24は、仮想化基盤13−2に対し、仮想マシン14の受け入れを通知する。
ステップS54において、仮想化基盤13−2は、サービスネットワークを設定し、仮想マシン14の受け入れに備える。
ステップS55において、仮想化基盤13−2は、サービスネットワーク設定の結果を管理サーバ21に通知する。
ステップS56において、管理サーバ21のマイグレーション通知部24は、仮想化基盤13−1に対してホットマイグレーションを指示する。
ステップS57において、仮想化基盤13−1は、仮想化基盤13−2にホットマイグレーション指示を発行する。ここでは、仮想化基盤13−1の仮想マシン14−1が、仮想化基盤13−2にメモリ転送される。
ステップS58において、仮想化基盤13−2のイベント通知部137は、ホットマイグレーション結果を仮想化基盤13−1に通知する。
ステップS59において、仮想化基盤13−1は、管理サーバ21に、ホットマイグレーション結果を通知する。
仮想マシン14−1のホットマイグレーションが完了すると、ステップS60において、仮想化基盤13−2のイベント通知部133は、管理サーバ21に、仮想マシン14−2の情報を通知する。
ステップS61において、管理サーバ21は、仮想化基盤13−2に対して結果応答を返す。
次に、ステップS62において、管理サーバ21の経由地特定部23が、前述の経由地特定処理を実行して、経由地として、最終目的地の仮想化基盤13−3を選択する。
ステップS63において、管理サーバ21のマイグレーション通知部24は、仮想化基盤13−3に対し、仮想マシン14の受け入れを通知する。
ステップS64において、仮想化基盤13−3は、サービスネットワーク等を設定し、仮想マシン14の受け入れに備える。
ステップS65において、仮想化基盤13−3は、サービスネットワーク等の設定の結果を管理サーバ21に通知する。
ステップS66において、管理サーバ21のマイグレーション通知部24は、仮想化基盤13−2に対してホットマイグレーションを指示する。
ステップS67,S68において、仮想化基盤13−2は、仮想化基盤13−3にホットマイグレーション指示を発行する。ここでは、仮想化基盤13−2の仮想マシン14−1が、仮想化基盤13−3にメモリ転送される。
ステップS69において、仮想化基盤13−3のイベント通知部137は、ホットマイグレーション結果を仮想化基盤13−2に通知する。
ステップS70において、仮想化基盤13−2のイベント通知部137は、ホットマイグレーション結果を管理サーバ21に通知する。
仮想マシン14−1のホットマイグレーションが完了すると、ステップS71において、仮想化基盤13−3のイベント通知部133は、管理サーバ21に、仮想マシン14−2の情報を通知する。
ステップS72において、管理サーバ21は、仮想化基盤13−3に対して結果応答を返し、本実施形態の一例における長距離ホットマイグレーションが完了する。
図21のステップS73において、管理サーバ21は、ホットマイグレーションが成功したかどうかの判定を行なう。
ステップS74において、管理サーバ21は、仮想化基盤13−1に対して、サービスネットワークの削除を指示する。
仮想化基盤13−1は、ステップS75において、サービスネットワークを削除すし、ステップS76において、サービスネットワークの削除結果を管理サーバ21に通知する。
次に、ステップS77において、管理サーバ21は、仮想化基盤13−2に対して、サービスネットワークの削除を指示する。
仮想化基盤13−2は、ステップS78において、サービスネットワークを削除すし、ステップS79において、サービスネットワークの削除結果を管理サーバ21に通知する。
ステップS80において、管理サーバ21は、仮想化基盤13−1,13−2から通知された削除結果に基づいて、サービスネットワークが正常に削除されたかどうかを判定する(クロージング判定)。
ステップS81において、管理サーバ21は、ホットマイグレーションの終了をオペレータに通知する。その際、管理サーバ21は、ホットマイグレーションの成功/不成功の結果やクロージング判定の結果等を併せて通知する。
図22は、実施形態の一例としての情報処理システム1におけるホットマイグレーション処理を示すフローチャートである。
ステップS111において、オペレータが、管理サーバ21に対してホットマイグレーション指示を発行する。ここでは、例えば、DC11−1の仮想マシン14−1をDC11−1からDC11−3へのホットマイグレーションが指示されたとする。
ステップS112において、管理サーバ21の経由地特定部23は、前述の経由地決定処理を実行して、経由地を決定する。ここで、例えば、管理サーバ21は、経由地として、DC11−2の仮想化基盤13−2を選択したとする。
ステップS113において、管理サーバ21のマイグレーション通知部24は、経由地である仮想化基盤13−2に対して、ホットマイグレーションの受け入れ準備指示を発行する。
ステップS114において、経由地(移動先)の仮想化基盤13−2のNW管理部135は、ネットワーク設定を行ない、インタフェース部133が管理サーバ21に、ホットマイグレーション準備応答を返す。
準備応答を受けると、ステップS115において、管理サーバ21のマイグレーション通知部24は、移動元の仮想化基盤13−1に対し、仮想化基盤13−2へのホットマイグレーション指示(仮想マシン移動指示)を発行する。
指示を受けた仮想化基盤13−1のNW管理部135は、ステップS116,S117において、仮想化基盤13−2との接続を確立する。ステップS118において、仮想化基盤13−1のホットマイグレーション部134は、ホットマイグレーションを実行する。このとき、DC11−1の仮想化基盤13−1の仮想マシン14が、DC11−2の仮想化基盤13−2に移動される。
ホットマイグレーションが完了すると、ステップS119において、仮想化基盤13−1のNW管理部135は、仮想化基盤13−1をネットワークから切断する。
又、ステップS120において、仮想化基盤13−2のNW管理部135は、仮想化基盤13−2をネットワークに接続する。
その後ステップS121において、仮想化基盤13−1の仮想マシン14で以前実行されていたプロセス(サービス)が、仮想化基盤13−2の仮想マシン14で再開される。
管理サーバ21は、仮想化基盤13−2のイベント通知部137から、ホットマイグレーション結果通知を受け取ると、ステップS122において、現在仮想マシン14が存在する地点(現在地)が目的地であるかどうかを判定する。
現在地が目的地ではない場合(ステップS122のNOルート参照)、処理がステップS113に戻り、次の経由地に対して受け入れ準備指示を発行する。
現在地が目的地である場合(ステップS122のYESルート参照)、仮想マシン14が目的に到達したため、ステップS123において、管理サーバ21はオペレータに、ホットマイグレーション結果を通知する。
(C)効果
このように、実施形態の一例の長距離ホットマイグレーション技術は、往復遅延時間(レイテンシ)が小さく、仮想マシン14を一時的に配置可能な経由地へのホットマイグレーションを繰り返す。これにより、物理的に距離があるなどの要因によりレイテンシが大きく、従来の方法でホットマイグレーションできないサイト間のホットマイグレーションを実現する。
例えば、実施形態の一例の長距離ホットマイグレーション技術は、従来のホットマイグレーション技術ではマイグレーションできない、北海道と九州間や海外への長距離のホットマイグレーションを実現する。
又、管理サーバ21の管理サーバ間インタフェース27による連携により、AmazonクラウドとGoogleクラウド間のホットマイグレーションなど、クラウド間のマイグレーションが可能となる。
更に、経由地の候補が複数存在する場合、1つの経由地がダウンしていてもほかの経由地を使用できるため、信頼性が向上する。
(D)その他
なお、上述した実施形態に関わらず、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。
例えば、上記の実施形態の一例を、DC11をまたぐ仮想マシン14のホットマイグレーションを例に挙げて説明したが、遅延量の大きな同一DC11内での仮想マシン14のホットマイグレーションにも使用することができる。
又は、上記の実施形態の一例においては、pingコマンドを用いてレイテンシを求める例を説明したが、他の方法によってレイテンシを求めてもよい。
或いは、上記の実施形態の一例においては、経由地特定処理の例として、図16(a)〜(c),図17,図18に挙げた例を採り上げた。しかし、経由地特定部23が他の手法を用いて経由地の特定を行なってもよいし、管理者等が、予め経由地を選択し、移動経路を設定しておいてもよい。
或いは、本技術を、Cisco(登録商標)やF5 BIG−IP(登録商標)などの既存のホットマイグレーション技術と組み合わせて使用することもできる。
(E)付記
上記の実施形態に関し、更に以下の付記を開示する。
(付記1)
仮想機械を管理する複数の管理部間の遅延時間を計測させて記憶する遅延記憶部と、
前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部と、
前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる移動制御部と、
をそなえることを特徴とする仮想機械管理装置。
(付記2)
前記仮想機械の前記移動元管理部及び前記移動先管理部間の前記遅延時間が前記閾値を超える場合、前記経路抽出部は、前記移動元管理部と経由管理部間、経由管理部間、及び経由管理部と前記移動先管理部間の全ての遅延時間が閾値以下となるように、少なくとも1つの経由管理部を選択することを特徴とする付記1記載の仮想機械管理装置。
(付記3)
前記経路抽出部は、移動させる前記仮想機械の使用リソース情報にも基づいて前記移動経路を抽出することを特徴とする付記1又は2記載の仮想機械管理装置。
(付記4)
仮想機械を管理する複数の管理部間の遅延時間を計測させて記憶し、
前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出し、
前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる
ことを特徴とする仮想機械管理方法。
(付記5)
前記仮想機械の前記移動元管理部及び前記移動先管理部間の前記遅延時間が前記閾値を超える場合、前記移動元管理部と経由管理部間、経由管理部間、及び経由管理部と前記移動先管理部間の全ての遅延時間が閾値以下となるように、少なくとも1つの経由管理部を選択することを特徴とする付記4記載の仮想機械管理方法。
(付記6)
移動させる前記仮想機械の使用リソース情報にも基づいて前記移動経路を抽出することを特徴とする付記4又は5記載の仮想機械管理方法。
(付記7)
仮想機械を管理する複数の管理部と、
前記複数の管理部間の遅延時間を計測させて記憶する遅延記憶部と、
前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部と、
前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる移動制御部と、
をそなえる仮想機械管理装置と、
をそなえることを特徴とする情報処理システム。
(付記8)
前記仮想機械の前記移動元管理部及び前記移動先管理部間の前記遅延時間が前記閾値を超える場合、前記経路抽出部は、前記移動元管理部と経由管理部間、経由管理部間、及び経由管理部と前記移動先管理部間の全ての遅延時間が閾値以下となるように、少なくとも1つの経由管理部を選択することを特徴とする付記7記載の情報処理システム。
(付記9)
前記経路抽出部は、移動させる前記仮想機械の使用リソース情報にも基づいて前記移動経路を抽出することを特徴とする付記7又は8記載の情報処理システム。
1 情報処理システム
11−1〜11−4,11 DC
12−1〜12−4,12 GW
13−1〜13−4,13 仮想化基盤(管理部)
14−1〜14−4,14 仮想マシン(仮想機械)
21−1,21−2,21 管理サーバ(仮想機械管理装置)
22 情報収集・管理部(遅延記憶部)
23 経由地特定部(経路抽出部)
24 マイグレーション通知部
25 GWインタフェース(移動制御部)
26 仮想化基盤インタフェース
27 管理サーバ間インタフェース(連携部)

Claims (5)

  1. 仮想機械を管理する複数の管理部間の遅延時間を計測させて記憶する遅延記憶部と、
    前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部と、
    前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる移動制御部と、
    をそなえることを特徴とする仮想機械管理装置。
  2. 前記仮想機械の前記移動元管理部及び前記移動先管理部間の前記遅延時間が前記閾値を超える場合、前記経路抽出部は、前記移動元管理部と経由管理部間、経由管理部間、及び経由管理部と前記移動先管理部間の全ての遅延時間が閾値以下となるように、少なくとも1つの経由管理部を選択することを特徴とする請求項1記載の仮想機械管理装置。
  3. 前記経路抽出部は、移動させる前記仮想機械の使用リソース情報にも基づいて前記移動経路を抽出することを特徴とする請求項1又は2記載の仮想機械管理装置。
  4. 仮想機械を管理する複数の管理部間の遅延時間を計測させて記憶し、
    前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出し、
    前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる
    ことを特徴とする仮想機械管理方法。
  5. 仮想機械を管理する複数の管理部と、
    前記複数の管理部間の遅延時間を計測させて記憶する遅延記憶部と、
    前記遅延記憶部に記憶されている各管理部間の遅延時間に基づいて、移動元管理部から移動先管理部まで、各管理部間の遅延時間が閾値以下となる移動経路を抽出する経路抽出部と、
    前記仮想機械の動作を停止させることなく、前記仮想機械を、前記移動元管理部から前記移動経路に沿って前記移動先管理部へ順次移動させる移動制御部と、
    をそなえる仮想機械管理装置と、
    をそなえることを特徴とする情報処理システム。
JP2013113638A 2013-05-30 2013-05-30 仮想機械管理装置、仮想機械管理方法及び情報処理システム Expired - Fee Related JP6160253B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013113638A JP6160253B2 (ja) 2013-05-30 2013-05-30 仮想機械管理装置、仮想機械管理方法及び情報処理システム
US14/277,344 US9632809B2 (en) 2013-05-30 2014-05-14 Migration between virtual machines
CN201410231186.1A CN104216756B (zh) 2013-05-30 2014-05-28 虚拟机管理设备、管理虚拟机的方法及信息处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013113638A JP6160253B2 (ja) 2013-05-30 2013-05-30 仮想機械管理装置、仮想機械管理方法及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2014232468A true JP2014232468A (ja) 2014-12-11
JP6160253B2 JP6160253B2 (ja) 2017-07-12

Family

ID=51986707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013113638A Expired - Fee Related JP6160253B2 (ja) 2013-05-30 2013-05-30 仮想機械管理装置、仮想機械管理方法及び情報処理システム

Country Status (3)

Country Link
US (1) US9632809B2 (ja)
JP (1) JP6160253B2 (ja)
CN (1) CN104216756B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016164733A (ja) * 2015-03-06 2016-09-08 ビッグローブ株式会社 仮想マシン運用管理装置、仮想マシン運用管理システム、仮想マシン運用管理方法、及び、プログラム
JP2019507920A (ja) * 2016-02-04 2019-03-22 テレフオンアクチーボラゲット エルエム エリクソン(パブル) アクター・マイグレーション

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634886B2 (en) * 2013-03-14 2017-04-25 Alcatel Lucent Method and apparatus for providing tenant redundancy
CN105262640A (zh) * 2015-09-17 2016-01-20 北京汉柏科技有限公司 一种提升云平台服务器可靠性的系统、方法及其部署框架
CN105573815B (zh) * 2015-12-10 2019-02-15 中国联合网络通信集团有限公司 一种虚拟机迁移的方法及装置
US10083057B1 (en) * 2016-03-29 2018-09-25 EMC IP Holding Company LLC Migration of active virtual machines across multiple data centers
US20170293500A1 (en) * 2016-04-06 2017-10-12 Affirmed Networks Communications Technologies, Inc. Method for optimal vm selection for multi data center virtual network function deployment
US10542104B2 (en) * 2017-03-01 2020-01-21 Red Hat, Inc. Node proximity detection for high-availability applications
EP3605990A1 (en) 2017-04-21 2020-02-05 Huawei Technologies Co., Ltd. Application data migration method and network device
US11392400B2 (en) * 2019-07-17 2022-07-19 Hewlett Packard Enterprise Development Lp Enhanced migration of clusters based on data accessibility

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007578A (ja) * 2002-04-18 2004-01-08 Matsushita Electric Ind Co Ltd モバイルノードおよび移動通信方法
JP2012118980A (ja) * 2010-11-29 2012-06-21 Internatl Business Mach Corp <Ibm> 安定性制限のある仮想化環境における信頼性の高い移行の計画を提供する方法、システムおよびコンピュータ・プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8429630B2 (en) * 2005-09-15 2013-04-23 Ca, Inc. Globally distributed utility computing cloud
JP5317010B2 (ja) 2006-11-24 2013-10-16 日本電気株式会社 仮想マシン配置システム、仮想マシン配置方法、プログラム、仮想マシン管理装置およびサーバ装置
WO2008146677A1 (ja) * 2007-05-24 2008-12-04 Nec Corporation 仮想マシン管理装置、仮想マシン管理方法および仮想マシン管理プログラム
WO2009088435A1 (en) * 2007-12-31 2009-07-16 Netapp, Inc. System and method for automatic storage load balancing in virtual server environments
US8230069B2 (en) * 2008-03-04 2012-07-24 International Business Machines Corporation Server and storage-aware method for selecting virtual machine migration targets
US8751627B2 (en) * 2009-05-05 2014-06-10 Accenture Global Services Limited Method and system for application migration in a cloud
JP2011018106A (ja) 2009-07-07 2011-01-27 Hitachi Ltd 通信プロトコル処理装置およびその方法
JP2011103567A (ja) 2009-11-11 2011-05-26 Sony Corp 通信システム、通信方法および無線通信装置
US8311032B2 (en) * 2009-12-03 2012-11-13 International Business Machines Corporation Dynamically provisioning virtual machines
CN102455942B (zh) * 2010-12-02 2013-09-25 中标软件有限公司 一种广域网虚拟机动态迁移方法及系统
CN102681895B (zh) * 2011-03-11 2015-03-11 北京市国路安信息技术有限公司 一种动态自迁移云服务方法
JP5729063B2 (ja) 2011-03-22 2015-06-03 富士通株式会社 通信設定方法、通信設定サーバ、中継装置および通信設定プログラム
JP5790312B2 (ja) * 2011-08-25 2015-10-07 富士通株式会社 通信方法、通信装置、および、通信プログラム
US9075648B2 (en) * 2012-04-27 2015-07-07 Empire Technology Development Llc Virtual machine switching based on measured network delay
US9223634B2 (en) * 2012-05-02 2015-12-29 Cisco Technology, Inc. System and method for simulating virtual machine migration in a network environment
CN102790793A (zh) * 2012-05-08 2012-11-21 北京邮电大学 一种面向云计算虚拟机迁移的决策方法及控制模块
CN103049308B (zh) * 2012-11-30 2016-01-20 华为技术有限公司 实现虚拟机热迁移的方法、装置及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007578A (ja) * 2002-04-18 2004-01-08 Matsushita Electric Ind Co Ltd モバイルノードおよび移動通信方法
JP2012118980A (ja) * 2010-11-29 2012-06-21 Internatl Business Mach Corp <Ibm> 安定性制限のある仮想化環境における信頼性の高い移行の計画を提供する方法、システムおよびコンピュータ・プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016164733A (ja) * 2015-03-06 2016-09-08 ビッグローブ株式会社 仮想マシン運用管理装置、仮想マシン運用管理システム、仮想マシン運用管理方法、及び、プログラム
JP2019507920A (ja) * 2016-02-04 2019-03-22 テレフオンアクチーボラゲット エルエム エリクソン(パブル) アクター・マイグレーション
US11080428B2 (en) 2016-02-04 2021-08-03 Telefonaktiebolaget Lm Ericsson (Publ) Actor migration
US11687673B2 (en) 2016-02-04 2023-06-27 Telefonaktiebolaget Lm Ericsson (Publ) Actor migration

Also Published As

Publication number Publication date
CN104216756B (zh) 2017-08-29
US20140359616A1 (en) 2014-12-04
US9632809B2 (en) 2017-04-25
JP6160253B2 (ja) 2017-07-12
CN104216756A (zh) 2014-12-17

Similar Documents

Publication Publication Date Title
JP6160253B2 (ja) 仮想機械管理装置、仮想機械管理方法及び情報処理システム
US20210058364A1 (en) Domain name system operations implemented using scalable virtual traffic hub
US10897417B2 (en) Automated route propagation among networks attached to scalable virtual traffic hubs
EP4052124B1 (en) Cloud computing in communications service provider networks
US11917446B1 (en) Mobility of cloud compute instances hosted within communications service provider networks
EP4049139B1 (en) Latency-based placement of cloud compute instances within communications service provider networks
CN103368768B (zh) 混合云环境中自动缩放网络覆盖的方法、装置及设备
KR101268440B1 (ko) 글로벌 네트워크 슬라이스 관리 시스템 및 그 방법
JP5625978B2 (ja) 通信制御プログラム、情報処理装置およびパケット通信方法
EP3280101A1 (en) Control device, control method, and program
US11528323B1 (en) Systems for locating server nodes for edge devices using latency-based georouting
CN109286562A (zh) 基于业务流和业务路径特性的业务迁移
US11706471B2 (en) Scheduling method, server, first peer node and computer-readable storage medium
JP5765427B2 (ja) 仮想マシン管理装置、仮想マシン移動制御プログラムおよび仮想マシン移動制御方法
JP6303300B2 (ja) 制御依頼方法、情報処理装置、システム、およびプログラム
JP6709248B2 (ja) 管理装置、移動体通信システム、プログラム及び管理方法
JP2016051448A (ja) 仮想機械管理装置、仮想機械管理方法及び情報処理システム
JP6193104B2 (ja) 監視データ転送システム及び監視データ転送方法
US11778053B1 (en) Fault-tolerant function placement for edge computing
JP7332869B2 (ja) 通信プログラム、通信方法および通信装置
JP7310378B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP6015522B2 (ja) 仮想マシン管理装置および仮想マシン管理方法
KR101585413B1 (ko) 소프트웨어 정의 네트워크 기반 클라우드 컴퓨팅 시스템을 위한 오픈플로우 컨트롤러 및 재해복구 방법
JP2007097222A (ja) ストレージネットワークシステム、管理装置、管理方法及びプログラム
WO2017145963A1 (ja) パス設定装置、通信システム、パス設定方法及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170529

R150 Certificate of patent or registration of utility model

Ref document number: 6160253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees