JP6132323B2 - ライブ移行プロトコル及びクラスタサーバのフェイルオーバープロトコル - Google Patents

ライブ移行プロトコル及びクラスタサーバのフェイルオーバープロトコル Download PDF

Info

Publication number
JP6132323B2
JP6132323B2 JP2015504732A JP2015504732A JP6132323B2 JP 6132323 B2 JP6132323 B2 JP 6132323B2 JP 2015504732 A JP2015504732 A JP 2015504732A JP 2015504732 A JP2015504732 A JP 2015504732A JP 6132323 B2 JP6132323 B2 JP 6132323B2
Authority
JP
Japan
Prior art keywords
profile
lpar
host
vios
host system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015504732A
Other languages
English (en)
Other versions
JP2015515690A (ja
Inventor
ランガイア・ジャガダンバ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NortonLifeLock Inc
Original Assignee
Symantec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symantec Corp filed Critical Symantec Corp
Publication of JP2015515690A publication Critical patent/JP2015515690A/ja
Application granted granted Critical
Publication of JP6132323B2 publication Critical patent/JP6132323B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2033Failover techniques switching over of hardware resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stored Programmes (AREA)

Description

コンピューティングリソースの論理区画(LPAR)は、IBM AIX環境では、別個の仮想マシンとして仮想化される。コンピューティングリソースは、1つ以上のLPARに区画され得、1つ以上の仮想マシンが、単一の物理的コンピューティングリソース下で実行される。加えて、他のコンピューティングリソースはまた、別のコンピューティングリソースが、1つ以上の仮想マシンをサポートし得るように、1つ以上のLPARをサポートし得る。同様に、コンピューティングリソースのネットワークは、複数のLPARを含み得る。
加えて、第1の物理的なコンピューティングリソースの特定のLPARは、移行されたLPARによって提供されるアプリケーション及びサービスの動作性を維持するために、第2のコンピューティングリソースに移行され得る。具体的には、第1及び第2のコンピューティングリソースの両方は、第1のコンピューティングリソースから第2のコンピューティングリソースへLPARを移行するために互いに協力する。例えば、移行が実装される典型的なシナリオでは、第1のコンピューティングリソースが、メンテナンスのためにスケジュールされ得る。同様に、LPAR上で実行中のアプリケーションの継続性を維持するために、そのLPARは、第2のコンピューティングリソースに移行され得る。
しかしながら、LPARが、移行プロトコルを使用して第1のコンピューティングリソースから第2のコンピューティングリソースに移行するとき、LPARのプロファイル及び基盤となるディスクマッピングが、第1又は元のコンピューティングリソースから削除される。この情報の削除は、LPARに関与する他の機能及びサービスに有害な影響を与え得る。例えば、フェイルオーバープロトコルは、削除された情報に依存し得、無効にされ得る。その結果、移行とフェイルオーバープロトコル(及び/又は他のプロトコル)と間の互換性の欠如は、クラウド環境でのアプリケーションの可用性及び移動性を妨げるであろう。
Veritas Cluster Server(VCS)などの、クラスタ管理フェイルオーバープロトコルと互換性のあるLPAR移行のためのシステム及び方法。本方法は、1つ以上のLPARを備えるホストシステム上の論理区画のためのプロファイルを作成することを含み、このプロファイルは、第1の名前に関連付けられている。本方法はまた、プロファイル内で、LPARの仮想小型コンピュータシステムインターフェース(SCSI)アダプタのクライアントポートを、ホストシステムの仮想入力/出力サーバ(VIOS)の仮想SCSIアダプタのサーバポートにマップすることを含む。本方法は、ホストシステムの1つ以上のLPARの仮想SCSIアダプタの任意のポートを受け入れるようにVIOSのサーバポートを設定することを含む。本方法はまた、VIOS内で、LPARの適正なフェイルオーバーの実装の目的で、VIOSのサーバポートを、デバイス名(すなわち、LPAR)及びターゲットデバイス(すなわち、共有記憶装置のディスク)にマップすることを含み、このターゲットデバイスは、LPARのためのオペレーティングシステムを備える。
いくつかの実施形態において、システムは、中にコンピュータ実行可能命令を記憶する有形の非一時的コンピュータ可読記憶媒体を含み、この命令は、実行されると、コンピュータシステムにクラスタ管理フェイルオーバープロトコルと互換性のあるLPAR移行のための方法を実行させる。本方法は、1つ以上のLPARを含むホストシステム上の論理区画のためのプロファイルを作成することを含み、このプロファイルは、第1の名前に関連付けられている。本方法はまた、プロファイル内で、LPARの仮想SCSIアダプタのクライアントポートを、ホストシステムのVIOSの仮想SCSIアダプタのサーバポートにマップすることを含む。本方法はまた、ホストシステムの1つ以上のLPARの仮想SCSIアダプタの任意のポートを受け入れるようにVIOSのサーバポートを設定することを含む。また、本方法は、VIOS内で、LPARの適正なフェイルオーバーの実装の目的で、VIOSのサーバポートを、デバイス名(すなわち、LPAR)及びターゲットデバイス(すなわち、共有記憶装置のディスク)にマップすることを含み、このターゲットデバイスは、LPARのためのオペレーティングシステムを備える。
一実施形態において、コンピュータシステムは、中に命令を記憶するメモリに結合されたプロセッサを備え、この命令は、コンピュータシステムによって実行された場合、コンピュータにクラスタ管理フェイルオーバープロトコルと互換性のあるLPAR移行のための方法を実行させる。本方法は、1つ以上のLPARを含むホストシステム上の論理区画のためのプロファイルを作成することを含み、このプロファイルは、第1の名前に関連付けられている。本方法はまた、プロファイル内で、LPARの仮想SCSIアダプタのクライアントポートを、ホストシステムのVIOSの仮想SCSIアダプタのサーバポートにマップすることを含む。本方法はまた、ホストシステムの1つ以上のLPARの仮想SCSIアダプタの任意のポートを受け入れるようにVIOSのサーバポートを設定することを含む。また、本方法は、VIOS内で、LPARの適正なフェイルオーバーの実装の目的で、VIOSのサーバポートを、デバイス名(すなわち、LPAR)及びターゲットデバイス(すなわち、共有記憶装置のディスク)にマップすることを含み、このディスクは、LPARのためのオペレーティングシステムを備える。
したがって、本開示の実施形態によれば、コンピューティングリソース上で予期せぬ故障が発生した場合でさえ、アプリケーション及びLPARの高可用性を実現するために、Veritas Cluster Server(VCS)などのクラスタサーバプロトコルによって提供されるLPARのフェイルオーバー機能は、International Business Machines(IBM)Live Partition Mobility(LPM)のサービスによって提供されるものなどの、移行プロトコルと共存する。
本開示の様々な実施形態のこれら及び他の目的及び利点は、様々な図面に示されている実施形態の以下の詳細な説明を通読後、当業者によって認識されるであろう。
本明細書に組み込まれ、その一部を形成し、同様の数字が同様の要素を描写する添付の図面は、本開示の実施形態を例示し、その説明と共に本開示の原理を説明するのに役立つ。
本開示の一実施形態に従って、本発明の方法を実装するのに好適な例示的なコンピュータシステムのブロック図を描写する。 本開示の一実施形態に従った、ネットワークアーキテクチャを描写するブロック図である。 本開示の一実施形態に従った、1つ以上のLPARを含む1つ以上のホストコンピューティングリソースを含むクラスタサーバ環境のブロック図であり、ここでは、LPARが、フェイルオーバー条件下でLPARの可用性を維持しながら、ホストからホストへと移行されることが可能である。 本開示の一実施形態に従った、第1のホストから第2のホストへのLPARの移行及び第1のホストに戻るLPARのフェイルオーバーを描写するデータフロー図である。 本開示の一実施形態に従った、フェイルオーバー条件下でLPARの可用性を維持しながらの、LPAR移行の方法を示すフロー図である。 本開示の一実施形態に従った、LPAR移行及びフェイルオーバーの方法を示すフロー図であり、ここでは、LPARが、フェイルオーバー条件下でLPARの可用性を維持しながら、ホストからホストへと移行されることが可能である。 本開示の一実施形態に従った、LPAR移行及びフェイルオーバーの方法を示すフロー図であり、ここでは、LPARが、フェイルオーバー条件下でLPARの可用性を維持しながら、ホストからホストへと移行されることが可能である。
本開示の様々な実施形態について、ここで詳細に言及し、その実施例が、添付の図面に示される。これらの実施形態に関連して説明するが、それは、これらの実施形態に本開示を限定することを意図していないことが理解されるであろう。反対に、本開示は、代替物、修正、及び均等物を網羅することが意図され、それは添付の請求項によって定義されるように本開示の趣旨及び範囲内に含まれ得る。更に、本開示の以下の詳細な説明において、多数の特定の詳細が、本開示の完全な理解を提供するために記載される。しかしながら、本開示はこれらの特定の詳細を伴わずに実施されてもよいことが理解されるであろう。他の例において、周知の方法、手順、構成要素、及び回路は、本開示の態様を不必要に曖昧にしないように、詳細に記載されていない。
以下の詳細な説明の一部は、コンピュータメモリ内のデータビットでの動作の手順、論理ブロック、処理、及び他の記号表現に関して与えられる。これらの記述及び表現は、データ処理分野の当業者によって、他の当業者に仕事の内容を最も効果的に伝達するために使用される手段である。本出願では、手順、論理ブロック、プロセスなどは、所望の結果に導く一連の首尾一貫した工程又は命令であると考えられる。工程は、物理量の物理的操作を利用するものである。通常、必ずしもそうとは限らないが、これらの量は、コンピュータシステムにおいて記憶する、転送する、組み合わせる、比較する、及び他の方法で操作することが可能な、電気信号又は磁気信号の形態をとる。これらの信号をトランザクション、ビット、値、要素、記号、文字、サンプル、画素などと称することが、主に一般的な用法の理由から時には好都合であることが判明している。
しかしながら、これら及び同様の用語の全てが、適切な物理量と関連付けられるものであり、これらの量に適用される好都合なラベルにすぎないことに留意すべきある。以下の説明から明らかなように、別段の記載がない限り、本開示全体を通じて、「作成する」、「判定する」、「マップする」、「設定する」などの用語を用いる考察は、コンピュータシステム又は類似の電子コンピューティングデバイス若しくはプロセッサ(例えば、図1のシステム110)のアクション及びプロセス(例えば、図5のフロー図5)を指すことが理解される。コンピュータシステム又は類似の電子コンピューティングデバイスは、コンピュータシステムのメモリ、レジスタ、又は他のそのような情報記憶、伝送、若しくはディスプレイデバイス内で物理的(電子的)量として表されるデータを操作し、変換する。
本明細書で説明する実施形態は、1つ以上のコンピュータ又は他のデバイスによって実行されるプログラムモジュールなどの、何らかの形態のコンピュータ可読記憶媒体上に存在するコンピュータ実行可能命令の一般的な文脈で考察され得る。限定ではなく例として挙げると、コンピュータ可読記憶媒体は、非一時的コンピュータ記憶媒体及び通信媒体を含み得る。一般に、プログラムモジュールとしては、特定のタスクを実施する又は特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、構成要素、データ構造などが挙げられる。プログラムモジュールの機能は、様々な実施形態において、所望に応じて組み合わせられ得る又は分散され得る。
コンピュータ記憶媒体としては、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなどの、情報を記憶するための任意の方法又は技術で実装される揮発性及び不揮発性、取り外し可能な及び取り外し不可の媒体が挙げられる。コンピュータ記憶媒体としては、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、電気的消去可能プログラマブルROM(EEPROM)、フラッシュメモリ若しくは他のメモリ技術、コンパクトディスクROM(CD−ROM)、デジタル多用途ディスク(DVD)、又は他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置若しくは他の磁気記憶デバイス、又は所望の情報を記憶するために使用することができ、その情報を取得するためにアクセスすることができる他の任意の媒体が挙げられるが、これらに限定されるものではない。
通信媒体は、コンピュータ実行可能命令、データ構造、及びプログラムモジュールを統合することができ、任意の情報配信媒体を含む。限定ではなく例として挙げると、通信媒体は、有線ネットワーク又は直接有線接続などの有線媒体、並びに音響、ラジオ周波数(RF)、赤外線及び他の無線媒体などの無線媒体を含む。上記の任意の組み合せもまた、コンピュータ可読媒体の範囲内に含めることができる。
図1は、本開示の実施形態を実装することが可能なコンピューティングシステム110の一実施例のブロック図である。コンピューティングシステム110は、コンピュータ可読命令を実行することができる、任意のシングル若しくはマルチプロセッサのコンピューティングデバイス又はシステムを広く表す。コンピューティングシステム110の例としては、ワークステーション、ラップトップ、クライアント側端末、サーバ、分散コンピューティングシステム、ハンドヘルドデバイス、又は他の任意のコンピューティングシステム若しくはデバイスが挙げられるが、これらに限定されない。その最も基本的な構成において、コンピューティングシステム110は、少なくとも1つのプロセッサ114及びシステムメモリ116を含み得る。
プロセッサ114は、一般に、データを処理、又は命令を解釈及び実行することが可能な任意のタイプ又は形態の処理ユニットを表す。ある実施形態において、プロセッサ114は、ソフトウェアアプリケーション又はモジュールから命令を受信し得る。これらの命令は、プロセッサ114に、本明細書に記載される及び/又は図示される例示的な実施形態の1つ以上の機能を実行させ得る。例えば、プロセッサ114は、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される特定すること、判定すること、使用すること、実装すること、翻訳すること、追跡すること、受信すること、移動すること、提供することの1つ以上を実施し得、かつ/又はそれらを実施するための手段であり得る。プロセッサ114はまた、本明細書に記載される及び/又は図示される他の任意の工程、方法、あるいはプロセスを実施し得、かつ/又はそれらを実施するための手段であり得る。
システムメモリ116は、一般に、データ及び/又は他のコンピュータ可読命令を記憶することができる任意のタイプ若しくは形態の揮発性又は不揮発性記憶デバイスを表す。システムメモリ116の例としては、RAM、ROM、フラッシュメモリ、又は他の任意の好適なメモリデバイスが挙げられるが、これらに限定されない。必要ではないが、ある実施形態において、コンピューティングシステム110は、揮発性メモリユニット(例えば、システムメモリ116など)及び不揮発性記憶デバイス(例えば、一次記憶デバイス132など)の両方を含み得る。
コンピューティングシステム110はまた、プロセッサ114及びシステムメモリ116に加えて、1つ以上の構成要素又は要素を含み得る。例えば、図1の実施形態において、コンピューティングシステム110は、メモリコントローラ118、入力/出力(I/O)コントローラ120、及び通信インターフェース122を含み、それらの各々が、通信基盤112を介して相互接続され得る。通信基盤112は、一般に、コンピューティングデバイスの1つ以上の構成要素間の通信を容易にすることが可能な任意のタイプ又は形態の基盤を表す。通信基盤112の例としては、コミュニケーションバス(Industry Standard Architecture(ISA)、Peripheral Component Interconnect(PCI)、PCI Express(PCLe)、又は類似のバスなど)、及びネットワークが挙げられるが、これらに限定されない。
メモリコントローラ118は、一般に、メモリ若しくはデータを取り扱う、又はコンピュータシステム110の1つ以上の構成要素間の通信を制御することが可能な任意のタイプ又は形態のデバイスを表す。例えば、メモリコントローラ118は、通信基盤112を介してプロセッサ114、システムメモリ116、及びI/Oコントローラ120の間の通信を制御し得る。メモリコントローラは、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される動作又は機能の1つ以上を実施し得、かつ/又はそれらを実施するための手段であり得る。
I/Oコントローラ120は、概して、コンピューティングデバイスの入力及び出力機能を調整及び/又は制御することが可能な任意のタイプ又は形態のモジュールを表す。例えば、I/Oコントローラ120は、コンピューティングシステム110の1つ以上の要素(プロセッサ114、システムメモリ116、通信インターフェース122、ディスプレイアダプタ126、入力インターフェース130、記憶装置インターフェース134など)の間のデータの転送を制御又は容易にし得る。I/Oコントローラ120は、例えば、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される動作の1つ以上を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。I/Oコントローラ120はまた、本明細書に記載される他の動作及び機能を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。
通信インターフェース122は、概して、例示のコンピューティングシステム110と1つ以上の追加のデバイスとの間の通信を容易にすることができる任意のタイプ若しくは形態の通信デバイス又はアダプタを表す。例えば、通信インターフェース122は、コンピューティングシステム110と追加コンピューティングシステムを含む専用又は公共ネットワークとの間の通信を容易にし得る。通信インターフェース122の例としては、有線ネットワークインターフェース(ネットワークインターフェースカードなど)、無線ネットワークインターフェース(無線ネットワークインターフェースカードなど)、モデム、及び他の任意の好適なインターフェースが挙げられるが、これらに限定されない。一実施形態において、通信インターフェース122は、インターネットなどのネットワークへの直接的なリンクを介してリモートサーバへの直接接続を提供する。通信インターフェース122はまた、例えば、ローカルエリアネットワーク(イーサネットネットワーク(「イーサネット」は登録商標、以下同じ)など)、パーソナルエリアネットワーク、電話若しくはケーブルネットワーク、携帯電話接続、衛星データ接続、又は他の任意の好適な接続を通じて、間接的にかかる接続を提供し得る。
通信インターフェース122はまた、外部バス又は通信チャネルを介して、コンピューティングシステム110と1つ以上の追加のネットワーク又は記憶デバイスとの間の通信を容易にするように構成されたホストアダプタを表し得る。ホストアダプタの例としては、Small Computer System Interface(SCSI)ホストアダプタ、Universal Serial Bus(USB)ホストアダプタ、IEEE(Institute of Electrical and Electronics Engineers)1394ホストアダプタ、Serial Advanced Technology Attachment(SATA)and External SATA(eSATA)ホストアダプタ、Advanced Technology Attachment(ATA)and Parallel ATA(PATA)ストアダプタ、Fibre Channelインターフェースアダプタ、イーサネットアダプタなどが挙げられるが、これらに限定されない。通信インターフェース122は、コンピューティングシステム110が分散又はリモートコンピューティングに連動することを可能にし得る。例えば、通信インターフェース122は、リモートデバイスから命令を受け取るか、又は実行のためにリモートデバイスに命令を送り得る。通信インターフェース122は、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される動作の1つ以上を実施し得、かつ/又はそれらを実施するための手段であり得る。通信インターフェース122はまた、本開示に記載される他の動作及び機能を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。
図1に示すように、コンピューティングシステム110はまた、ディスプレイアダプタ126を介して通信基盤112に結合された少なくとも1つのディスプレイデバイス124を含み得る。ディスプレイデバイス124は、一般に、ディスプレイアダプタ126によって転送された情報を視覚的に表示することが可能な任意のタイプ又は形態のデバイスを表す。同様に、ディスプレイアダプタ126は、一般に、ディスプレイデバイス124に表示するための通信基盤112からの(又は当該技術分野で既知のフレームバッファからの)グラフィックス、テキスト、及び他のデータを転送するように構成された任意のタイプ又は形態のデバイスを表す。
図1に示されるように、コンピューティングシステム110はまた、入力インターフェース130を介して通信基盤112に結合された少なくとも1つの入力デバイス128を含み得る。入力デバイス128は、一般に、コンピュータ又は人間によって生成された入力をコンピューティングシステム110に提供することができる任意のタイプ若しくは形態の入力デバイスを表す。入力デバイス128の例としては、限定されないが、キーボード、ポインティングデバイス、音声認識デバイス、又は他の任意の入力デバイスが挙げられる。一実施形態において、入力デバイス128は、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される動作の1つ以上を実施し得、かつ/又はそれらを実施するための手段であり得る。入力デバイス128はまた、本開示に記載される他の動作及び機能を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。
図1に示すように、コンピューティングシステム110はまた、記憶装置インターフェース134を介して通信基盤112に結合された、一次記憶デバイス132及びバックアップ記憶デバイス133を含み得る。記憶デバイス132及び133は、一般に、データ及び/又は他のコンピュータ可読命令を記憶することができる任意のタイプ若しくは形態の記憶デバイス又は媒体を表す。例えば、記憶デバイス132及び133は、磁気ディスクドライブ(例えば、いわゆるハードドライブ)、フロッピーディスクドライブ(「フロッピー」は登録商標、以下同じ)、磁気テープドライブ、光ディスクドライブ、フラッシュドライブなどであり得る。記憶インターフェース134は、一般に、記憶デバイス132及び133とコンピューティングシステム110の他の構成要素との間でデータを転送するための任意のタイプ若しくは形態のインターフェース又はデバイスを表す。
一実施例では、データベース140は、一次記憶デバイス132に記憶され得る。データベース140は、単一のデータベース若しくはコンピューティングデバイス、又は複数のデータベース若しくはコンピューティングデバイスの一部分を表し得る。例えば、データベース140は、図2(下)のコンピューティングシステム110の一部分、及び/又は例示的なネットワークアーキテクチャ200の一部分を表し得る(それらに記憶され得る)。代替的に、データベース140は、コンピューティングシステム110及び/又はネットワークアーキテクチャ200の一部分などの、コンピューティングデバイスによってアクセス可能な1つ以上の物理的に別個のデバイスを表し得る(それらに記憶され得る)。
続いて図1を参照すると、記憶デバイス132及び133は、コンピュータソフトウェア、データ、又は他のコンピュータ可読情報を記憶するように構成される取り外し可能な記憶ユニットから読み取る及び/又は取り外し可能な記憶ユニットに書き込むように構成され得る。好適な取り外し可能な記憶ユニットの例としては、限定されないが、フロッピーディスク、磁気テープ、光ディスク、フラッシュメモリデバイスなどが挙げられる。記憶デバイス132及び133はまた、コンピュータソフトウェア、データ、又は他のコンピュータで読み取り可能な命令がコンピューティングシステム110にロードされることを可能にするための他の類似の構造又はデバイスを含み得る。例えば、記憶デバイス132及び133は、ソフトウェア、データ、又は他のコンピュータ可読情報を読み取る及び書き込むように構成され得る。記憶デバイス132及び133はまた、コンピューティングシステム110の一部であってもよく、又は他のインターフェースシステムを介してアクセスされる別個のデバイスであってもよい。
記憶デバイス132及び133は、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される動作の1つ以上を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。記憶デバイス132及び133はまた、本開示に記載される他の動作及び機能を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。
多くの他のデバイス又はサブシステムが、コンピューティングシステム110に接続され得る。反対に、図1に示される全ての構成要素及びデバイスは、本明細書に記載される実施形態を実施するために存在する必要があるわけではない。上で言及したデバイス及びサブシステムはまた、図1に示されるのとは異なる方法で相互接続され得る。コンピューティングシステム110はまた、任意の数のソフトウェア、ファームウェア、及び/又はハードウェア構成を用い得る。例えば、本明細書に開示される例示的な実施形態は、コンピュータプログラム(コンピュータソフトウェア、ソフトウェアアプリケーション、コンピュータ可読命令、又はコンピュータ制御論理とも称される)として、コンピュータ可読記憶媒体上で符号化され得る。
コンピュータプログラムを含むコンピュータ可読媒体は、コンピューティングシステム110にロードされ得る。コンピュータ可読媒体上に記憶されたコンピュータプログラムの全て又は一部は、次いで、システムメモリ116並びに/又は記憶デバイス132及び133の様々な部分に記憶され得る。プロセッサ114によって実行されると、コンピューティングシステム110にロードされたコンピュータプログラムは、プロセッサ114が、本明細書に記載される及び/又は図示される例示的な実施形態の機能を実施するようにさせ得、かつ/又は実施するための手段となるようにし得る。追加的又は代替的に、本明細書に記載される及び/又は図示される例示的な実施形態は、ファームウェア及び/又はハードウェアで実装され得る。例えば、コンピューティングシステム110は、本明細書に開示される実施形態の1つ以上を実装するように適合された特定用途向け集積回路(ASIC)として構成され得る。
図2は、クライアントシステム210、220、及び230、並びにサーバ240及び245がネットワーク250に結合され得る、ネットワークアーキテクチャ200の一実施例のブロック図である。クライアントシステム210、220、及び230は、一般に、図1のコンピュータシステム110などの、任意のタイプ若しくは形態のコンピューティングデバイス又はシステムを表す。一実施形態において、クライアントは、サーバシステム上で実行され、このサーバは、負荷分散を実施するトラフィック方向機能性を含み得る。
同様に、サーバ240及び245は、一般に、様々なデータベースサービスを提供し、及び/又は特定のソフトウェアアプリケーションを実行するように構成されたアプリケーションサーバ又はデータベースサーバなどのコンピューティングデバイス又はシステムを表す。ネットワーク250は、一般に、例えば、イントラネット、広域ネットワーク(WAN)、ローカルエリアネットワーク(LAN)、パーソナルエリアネットワーク(PAN)、又はインターネットを含む、任意の電気通信又はコンピュータネットワークを表す。
図2に図示されるように、1つ以上の記憶デバイス260(1)〜(L)は、サーバ240に直接的に接続され得る。同様に、1つ以上の記憶デバイス270(1)〜(N)は、サーバ245に直接的に接続され得る。記憶デバイス260(1)〜(L)及び記憶デバイス270(1)〜(N)は、一般に、データ及び/又は他のコンピュータ可読命令を記憶することができる任意のタイプ若しくは形態の記憶デバイス又は媒体を表す。記憶デバイス260(1)〜(L)及び記憶デバイス270(1)〜(N)は、ネットワークファイルシステム(NFS)、サーバメッセージブロック(SMB)、又は共通インターネットファイルシステム(CIFS)などの様々なプロトコルを使用して、サーバ240及び245と通信するように構成されたネットワーク接続記憶(NAS)デバイスを表し得る。
サーバ240及び245はまた、記憶エリアネットワーク(SAN)ファブリック280に接続され得る。SANファブリック280は、一般に、記憶デバイス間での通信を容易にすることができる任意のタイプ若しくは形態のコンピュータネットワーク又はアーキテクチャを表す。SANファブリック280は、サーバ240及び245と記憶デバイス290(1)〜(M)及び/又は知的記憶アレイ295との間の通信を容易にし得る。SANファブリック280はまた、デバイス290(1)〜(M)及びアレイ295が、クライアントシステム210、220、及び230にローカル接続されるデバイスとして表示される様態で、ネットワーク250並びにサーバ240及び245を介して、クライアントシステム210、220、及び230と記憶デバイス290(1)〜(M)及び/又は知的記憶アレイ295との間の通信を容易にし得る。記憶デバイス260(1)〜(L)及び記憶デバイス270(1)〜(N)と同様に、記憶デバイス290(1)〜(M)及び知的記憶アレイ295は、一般に、データ及び/又は他のコンピュータ可読命令を記憶することが可能な任意のタイプ又は形態の記憶デバイス又は媒体を表す。
図1のコンピューティングシステム110を参照すると、通信インターフェース122などの通信インターフェースを使用して、各クライアントシステム210、220、及び230とネットワーク250との間の接続を提供し得る。クライアントシステム210、220、及び230は、例えば、ウェブブラウザ又は他のクライアントソフトウェアを使用して、サーバ240又は245上の情報にアクセスすることが可能であり得る。そのようなソフトウェアは、クライアントシステム210、220、及び230がサーバ240、サーバ245、記憶デバイス260(1)〜(L)、記憶デバイス270(1)〜(N)、記憶デバイス290(1)〜(M)、又は知的記憶アレイ295によってホストされるデータにアクセスすることを可能にし得る。図2は、データを交換するためのネットワーク(インターネットなど)の使用を描写しているが、本明細書に記載される実施形態は、インターネット又は任意の特定のネットワークベースの環境に限定されない。
図2に戻ると、一実施形態において、本明細書に開示される例示的な実施形態のうちの1つ以上の全て又は一部分は、コンピュータプログラムとして符号化され、サーバ240、サーバ245、記憶デバイス260(1)〜(L)、記憶デバイス270(1)〜(N)、記憶デバイス290(1)〜(M)、知的記憶アレイ295、又はそれらの任意の組み合わせ上にロードされ、それによって実行される。本明細書に開示される例示的な実施形態のうちの1つ以上の全て又は一部分は、コンピュータプログラムとして符号化され、サーバ240に記憶され、サーバ245によって実行され、ネットワーク250を通じてクライアントシステム210、220、及び230に分散され得る。結果的に、ネットワークアーキテクチャ200は、単独で又は他の要素と組み合わせてのいずれかで、本明細書に記載される動作の1つ以上を実施し得、かつ/又はそれらを実施するための手段であり得る。ネットワークアーキテクチャ200はまた、本開示に記載される他の動作及び機能を実施するように、及び/又はそれらを実施するための手段であるように使用され得る。
結果的に、第1のホストシステムから本開示の実施形態は、フェイルオーバープロトコルと互換性のある第2のホストシステムにLPARを移行するために使用される移行シーケンスの実装を示し、第2のホストシステム上における移行されたLPARの故障が、第1のホストシステム上に戻って動作するために利用可能となる。本開示の他の実施形態は、上記の利点を提供し、特にLPARが第1のホストシステムから第2のホストシステムに移行された場合に、複数のホストシステム上で高可用性を実現する仮想LPAR上で実行されているアプリケーションを更に提供する。本開示の更に他の実施形態は、上記の利点を提供し、かつアプリケーションのクラスタ全体での可用性を提供するようにその構成を初期化するために、仮想LPARの移行後にホストシステムの停止時間を最短化することを更に提供する。
図3は、1つ以上のLPARを備える1つ以上のホストシステム又はコンピューティングリソース(以下、「ホスト」又は「ホストシステム」と称される)を含むクラスタサーバ環境300のブロック図であり、ここでは、LPARが、本発明の一実施形態に従って、フェイルオーバー条件下でLPARの可用性を維持しながら、ホストからホストに移行されることが可能である。クラスタサーバ環境は、一実施形態において、図2に示したネットワークアーキテクチャ200内で実装可能である。
図3に示すように、クラスタサーバ環境300は、第1のホストA及び第2のホストBを含み、いずれも物理的コンピューティングリソースである。ホストA及びBの各々のハードウェアリソースは、各LPARがコンピューティングリソースの仮想インスタンスである、1つ以上の論理区画(LPAR)に論理的に区画される。例えば、ホストAは、LPAR−1 311、LPAR−2 312、及び最大LPAR−N 313に次々と区画される。また、ホストBは、LPAR−1 321、LPAR−2 322、及び最大LPAR−N 323に次々と区画される。
所定のホスト内のLPARは、仮想入力/出力サーバ(VIOS)によって提供される仮想化層を介して仮想化される。具体的には、VIOSは、記憶装置及びネットワークの仮想化を提供し、また、物理ハードウェアを使用せずに、仮想LPAR間の通信を容易にする。例えば、一実施形態において、VIOSは、そのホストシステム内のLPAR間の入力/出力(I/O)通信を容易にするために、かつ物理SCSIアダプタを介して外部デバイス(共有記憶装置350内のディスク又は外部ユニット330及び340など)との通信を容易にするために、仮想SCSIアダプタを含む。他の実施形態は、仮想イーサネットアダプタ、仮想ファイバチャネルアダプタ、仮想シリアルアダプタなどの、LPARによって使用される動作環境に応じて、他の仮想化された通信デバイスの実装を提供するのに好適である。図3に示すように、ホストA内のLPAR 311、312、及び313が、VIOS 319を通じて仮想化される。また、ホストB内のLPAR 321、322、及び323が、VIOS 329を通じて仮想化される。
加えて、クラスタサーバ環境300は、ホストデバイス(例えば、ホストA及びホストB)のうちの1つ以上を構成し、制御するために使用されるハードウェア管理コンソール(HMC)を含む。特に、HMC 360は、所定のホストシステム内でLPARを作成及び管理するためにインターフェースとして用いられる。いくつかの実施形態において、HMC 360は、両方のホストシステムの協力を得て、あるホストシステムから別のホストシステムへのLPARの移行を容易にする。
HMC 360は、所定のLPARの構成を定義する区画プロファイルを作成する役割を担う。例えば、プロファイルは、論理区画に割り当てられたシステムリソース(例えば、プロセッサリソース、メモリリソース、I/Oリソースなど)を定義し、かつ論理区画に割り当てられた最小量及び最大量の物理システムリソースなどの情報を含む。HMC 360は、クラスタサーバネットワーク300全体にわたってLPAR及びそれらのプロファイルの実装を管理する。しかしながら、HMC 360は、あるホストから別のホストへのLPARの移行を提供し、それを容易にするように、かつあるホストから別のホストへのLPARのフェイルオーバーを可能にするように構成される。
更に、各ホストシステムは、ホストシステム間のクラスタ認識を実装する専用のLPARにおけるクラスタサーバモジュールを含む。これらのクラスタサーバモジュールは、High Availability(HA)モジュールと称され、HAモジュールが一緒に動作して、クラスタサーバ環境300全体にわたってLPARのフェイルオーバープロトコル及び高可用性、並びにそれらの対応するアプリケーションを提供することができるように、互いに通信する。一実施例として、Veritas Cluster Server(VCS)は、物理及び/又は仮想マシンのクラスタ上で高可用性を実現するために、コンピューティングリソース(例えば、LPAR)のクラスタを管理する。例えば、ホストAはHA 315を含み、ホストBはHA 325を含み、ホストAのHA 315は、フェイルオーバー及び高可用性プロトコルの実装を提供するように、ホストBのHA 325と通信するように構成される。つまり、HA 315及び325の実装を通して、1つのホストシステム内のLPARは、フェイルオーバー及び/又は高可用性プロトコルの実装を通して故障状態下で別のホストシステム内で利用可能となる。
加えて、クラスタサーバ環境300は、共有記憶装置350を含む。一実装形態において、共有記憶装置は、記憶装置の1つ以上の物理ディスク(ディスク1、2、...N)を含む。共有記憶装置350内のディスクは、クラスタサーバ環境300全体にわたってLPARの各々のためのメモリリソースを含む。加えて、共有記憶装置350内のディスクは、クラスタサーバ環境300全体にわたって仮想化されたLPARの各々ためのオペレーティングシステムを含む。そのようにして、故障したホストシステム上に存在するアクティブインスタンスLPARのオペレーティングシステムは、LPARを第2のホストシステムで起動することができるように、フェイルオーバープロトコルの使用を通して復旧され得る。特定のLPARに利用可能なディスクを作成するために、そのディスクは、対応するVIOSの特定のサーバ仮想SCSIアダプタに割り当てられる又はマップされる。例えば、共有記憶装置350内のディスク1は、VIOS 319内で適切なマッピングを通して、ホストAのLPAR−1 311に割り当てられ得る、マップされ得る、又は関連付けられ得る。
図4は、本発明の一実施形態に従った、第1のホスト(例えば、ホストA)から第2のホスト(例えば、ホストB)へのLPAR(例えば、LPAR−1)の移行、及びクラスタサーバ環境内の第1のホストに戻るLPAR(例えば、LPAR−1)のフェイルオーバーを描写するデータフロー図400である。一実施形態において、LPAR−1の移行及びフェイルオーバーは、図3のクラスタサーバ環境300内で実装可能である。
図4に示すように、ホストAは、LPAR−lのアクティブインスタンスを含む。加えて、ホストAは、ホストAのLPAR間の通信を容易にするために、並びにホストAで提供されるリソースなどの外部デバイスとの通信を容易にするためにVIOS 425を含む。LPAR−1は、HMCモジュール460を通して作成されるプロファイルに関連付けられている。
HMCモジュール460の支援を通して、ホストA上に存在するLPAR−1は、移行プロトコルを使用して、ホストBに移行される。LPAR−1プロファイルのアクティブインスタンスもまた、ホストBに移行される。具体的には、HMCモジュール460は、ホストA及びBの両方の協力を得て、LPAR−1の移行を調整する。そのようにして、HMCモジュール460は、LPAR−1の単一のインスタンスが、2つのホストコンピューティングリソース間の移行中にアクティブであることを可能にする。
本発明の実施形態は、移行プロトコルとフェイルオーバー(及び/又は高可用性)プロトコルとの間の互換性を提供する。つまり、ホストBへのLPAR−1の移行が成功した後、LPAR−1に障害が発生した又はそれが故障した、ホストB自体に障害が発生した又はそれが故障した場合、本発明の実施形態は、特にホストBが非アクティブである可能性があるため、ホストA及びホストBの両方の協力を得ずに、ホストA上に戻ったLPAR−1をアクティブにするために、フェイルオーバーシーケンス及び/又はプロトコルを実装することができる。フェイルオーバー及び/又は高可用性プロトコルの実装は、ホストシステムの各々の対応するHAモジュール(図示せず)を通して容易になる。
図5は、本発明の一実施形態に従った、フェイルオーバー条件下でLPARの可用性を維持しながらの、LPAR移行のコンピュータ実装方法を示すフロー図500である。別の実施形態において、フロー図500は、プロセッサと、プロセッサに結合され、コンピュータシステムによって実行された場合、システムにLPAR移行のための方法を実行させる命令を中に記憶したメモリとを含む、コンピュータシステム内で実装される。更に別の実施形態において、本方法を実施するための命令は、フロー図500によって概説されるように、コンピュータシステムにLPAR移行のための方法を実施させるコンピュータ実行可能命令を有する非一時的コンピュータ可読記憶媒体に記憶される。フロー図500の動作は、本発明の実施形態において、図3のクラスタサーバ環境300内で、及び図4のデータフロー図400内で、実装される。より具体的には、LPAR移行の方法は、対応するホストデバイスのVIOS及びHAモジュール内で実装可能であり、本方法は、本発明の実施形態において、フェイルオーバープロトコルの実装を可能にし、それと互換性がある。
510において、本方法は、第1のホストシステム上でアクティブであるLPARのための第1のプロファイルを作成することを含む。ホストシステムは、1つ以上のLPARを含み、かつVIOSなどの、LPARの仮想化を容易にするための他の構成要素を含む。いくつかの実施形態において、移行プロトコルのフェイルオーバープロトコルとの互換性は、その構成を通して単一のホストデバイスで開始して、実装される。
より具体的には、520において、第1のプロファイル内で、本方法は、第1のホストシステムを介して、LPARの仮想SCSIアダプタのクライアントポートを、LPARの仮想化を調整するVIOSの仮想SCSIアダプタのサーバポートにマップすることを含む。そのようにして、LPARは、VIOSの仮想SCSIアダプタ上の特定のサーバポートと通信する必要があることを理解する。
530において、VIOSのサーバポートは、第1のホストシステムの1つ以上のLPARのクライアントの仮想SCSIアダプタの任意のポートを受け入れるように設定されている。つまり、SCSIポートは、一般的に、LPARのいずれかに割り当てられ、一対一では割り当てられていない。一実施形態において、ポートは、「任意のスロット/任意の区画」に割り当てられる。このようにして、VIOSの仮想SCSIアダプタのサーバポートに関連付けられるマッピングは、SCSIポートが一般的に割り当てられるため、HMCによって実装された任意の移行プロトコルを通して削除されない。一方で、VIOSのサーバSCSIポートが、VIOS内でLPARのクライアントSCSIポートに割り当てられたとき、そのLPARが移行されたとき、そのマッピング情報は、自動的に削除され、それによって、任意のフェイルオーバープロトコルが、フェイルオーバープロトコルの実装後、大幅な停止時間を伴わずに現在の第1のホストシステムにLPARを戻すことに失敗しないようにする。
540において、第1のホストシステムのVIOS内で、本方法は、VIOSのSCSIアダプタのサーバポートをデバイス名(すなわち、LPAR)にマップすることを含む。加えて、VIOSのSCSIアダプタのサーバポートは、LPARのためのオペレーティングシステムを含むディスクなどのターゲットデバイスにマップされ、ディスクが共有記憶装置内に含まれる。VIOS内のSCSIアダプタのサーバポートは、一般的に、任意のLPAR(例えば、任意のスロット/任意の区画)を受け入れるように設定されているため、基盤となるマッピングはまた、別のホストシステム(例えば、第2のホストシステム)にLPARを移行するとき、消去されずに、保持される。
加えて、第1のホストシステム上でアクティブなLPARのための第1のプロファイルのバックアッププロファイルもまた作成される。バックアッププロファイルはまた、第1のホストシステムを通してLPARの仮想SCSIアダプタの対応するクライアントポートを、LPARの仮想化を調整するVIOSの仮想SCSIアダプタの対応するサーバポートにマップする。また、第1のホストシステム上に位置するバックアッププロファイルは、LPARのためのオペレーティングシステムを含む共有記憶装置内の同じディスクにマップされる。バックアッププロファイルは、第1のプロファイル(例えば、異なるプロファイル名)から個別に参照され、また、第1のホストシステム上に位置する。同様に、バックアッププロファイルが、第1のホストシステムに対して内部にあるバックアップとして機能する。
加えて、フェイルオーバーの目的で、第1のホストシステム上でアクティブであるLPARの第1のプロファイルはまた、第2のホストシステム上に作成される。第2のホストシステム上に位置するLPARのこの第2のプロファイルは、同様に、第1のホストシステム上の第1のプロファイルとして参照される(例えば、同じプロファイル名)。例えば、第2のプロファイルは、ポートSCSIアダプタのマッピングに類似するポートを提供し、また、基盤となるLPARのためのオペレーティングシステムを含む共有記憶装置内の同じディスクにマップされる。同様に、LPARが第1のホストシステム上で故障した場合、LPARは、第1のホストシステムと第2のホストシステムとの間の協力を得ずに第2のプロファイルを使用して第2のホストシステムにフェイルオーバーできる。
更に、第2のホストシステム上のLPARのための第2のプロファイルのバックアッププロファイルもまた作成される。バックアッププロファイルはまた、第2のホストシステムを通してLPARの仮想SCSIアダプタの対応するクライアントポートを、LPARの仮想化を調整するVIOSの仮想SCSIアダプタの対応するサーバポートにマップする。第2のホストシステム上のバックアッププロファイルはまた、基盤となるLPARのためのオペレーティングシステムを含む共有記憶装置内の同じディスクにマップされる。第2のホストシステム上のバックアッププロファイルは、第2のプロファイル(例えば、異なるプロファイル名)とは別に参照され、第2のホストシステム上に位置する。同様に、バックアッププロファイルが、第2のホストシステム上に位置する第2のプロファイルに対して内部バックアップとして機能する。
図6A〜Bは、LPAR移行及びファイルオーバーのコンピュータ実装方法を示すフロー図600の説明図であり、ここでは、LPARが、本発明の一実施形態に従って、フェイルオーバー条件下でLPARの可用性を維持しながら、ホストからホストに移行されることが可能である。フロー図600は、フェイルオーバープロトコルとの互換性を確保するために、第1のホストからの第2のホストへLPARを移行するときに実行される動作を示す。別の実施形態において、フロー図600は、プロセッサと、プロセッサに結合され、コンピュータシステムによって実行された場合、システムにLPAR移行及びフェイルオーバーのための方法を実行させる命令を中に記憶したメモリとを含む、コンピュータシステム内で実装される。更に別の実施形態において、方法を実施するための命令は、フロー図600によって概説されるように、コンピュータシステムにLPAR移行及びフェイルオーバーのための方法を実施させるコンピュータ実行可能命令を有する非一時的コンピュータ可読記憶媒体に記憶される。フロー図600の動作は、本発明の実施形態において、図3のクラスタサーバ環境300内で、及び図4のデータフロー図400内で、実装される。より具体的には、LPAR移行の方法は、対応するホストデバイスのVIOS及びHAモジュール内で実装可能であり、本方法は、本発明の実施形態において、フェイルオーバープロトコルの実装を可能にし、それと互換性がある。
フロー図600全体を通して、プロファイル名が参照される。プロファイル名に与えられたあらゆる特定の表記は、例示のみに使用され、プロファイルのその表記の名前を限定することを意図していない。これらの参照は、代わりに、異なるホストデバイス上に存在するプロファイル名間の区別を示すことを意図している。
610において、プロファイルは、第1のホストシステム(「ホストA」)上でアクティブなLPAR−1のために作成される。プロファイルは、「PRO LPAR−1(ホストA)」と称され、本出願全体に通じる規則として、名前は、「PRO LPAR−1」と定義され、「(ホストA)」は、プロファイル「PRO LPAR−1」がホストA内に記憶されていることを示す。加えて、LPAR−1の観点から、プロファイルは、ホストA内のLPARの仮想化を提供する、対応するVIOSの仮想SCSIアダプタの特定のサーバポート(例えば、ポートX)にマップされるClient Virtual SCSIアダプタからなる。例えば、プロファイル「PRO LPAR−1(ホストA)」は、HMCモジュールの支援により作成される。
620において、LPAR−1に関連付けられるSCSIアダプタの対応するサーバポートXは、ホストA上のVIOS内のLPARのSCSIアダプタの任意の一般的なポートを受け入れるように設定される。例えば、LPARが、クラスタ環境内で管理される(VCSによって管理されるなど)とき、サーバ仮想SCSIアダプタのポートXは、VIOS内で「任意のスロット/任意の区画に設定される。加えて、ホストAのためのVIOSの仮想SCSIアダプタのサーバポートXは、LPAR−1内で正しいクライアントSCSIアダプタにマップされる。また、ホストA内のVIOSのための仮想SCSIアダプタ内のサーバポートXはまた、共有記憶装置内で適正なディスクにマップされ、このディスクは、LPAR−lのためのオペレーティングシステムを含む。このようにして、任意のLPARの任意のスロットを受け入れるようにサーバポートXを一般的に設定することによって、ホストA内のLPARがホストBに移行されるとき、ホストAのVIOS内の仮想SCSIアダプタのサーバポートXの基盤となるマッピングは削除されない。
クラスタの認識及び高可用性の目的で、615において、LPAR−1のプロファイルはまた、第2のホストシステム(ホストB)上に作成される。具体的には、第2のプロファイルは、フェイルオーバープロトコルを実装する目的で、第2のホストシステム(例えば、ホストB)でLPAR−1用に作成される。プロファイルは、「PRO LPAR−1(ホストB)」と称され、プロファイル名は「PRO LPAR−1」として定義され、「(ホストB)」は、プロファイル「PRO LPAR−1」がホストB内に記憶されていることを示す。定義されるように、ホストA及びB内に記憶されるLPARのためのプロファイルも同様に参照される。また、「PRO LPAR−1(ホストA)」に含まれる情報が、「PRO LPAR−1(ホストB)」の情報に類似するように、両方のLPAR−1プロファイルは、類似している。例えば、プロファイル「PRO LPAR−1(ホストB)」は、BHMCモジュールの支援により作成される。ホストB内のLPAR−1のためのプロファイルは、アクティブでない。加えて、LPAR−1の観点から、プロファイルは、ホストA内のLPARの仮想化を提供する、対応するVIOSの仮想SCSIアダプタの特定のサーバポート(例えば、ポートX)にマップされるClient Virtual SCSIアダプタからなる。
622において、ホストBで、非アクティブなLPAR−1に関連付けられるSCSIアダプタのサーバポートXは、ホストB上のVIOS内のLPARのSCSIアダプタの任意の一般的なクライアントポートを受け入れるように設定される。例えば、LPARが、クラスタ環境内で管理される(VCSによって管理されるなど)とき、仮想SCSIアダプタのサーバポートXは、VIOS内で「任意のスロット/任意の区画」に設定される。加えて、ホストBのためのVIOSの仮想SCSIアダプタのサーバポートXは、非アクティブなLPAR−1内で正しいクライアントSCSIアダプタにマップされる。また、ホストB内のVIOSのための仮想SCSIアダプタ内のサーバポートXはまた、共有記憶装置内の適正なディスクにマップされ、ディスクは、LPAR−1のためのオペレーティングシステムを含む。同様に、ホストB上で作成されたLPAR−1のための第2のプロファイルは、基盤となるLPAR−1のためのオペレーティングシステムを含む共有記憶装置内のディスクにマップされる。
625において、LPAR−1のためのバックアッププロファイルが、ホストAで作成される。このバックアッププロファイルは、移行後に、フェイルオーバーの目的で、ホストA内の内部バックアップとして機能する。このプロファイルは、「PRO−BACK LPAR−1(ホストA)」と称される。例えば、バックアッププロファイルは、HMCモジュールの支援により作成される。定義されるように、バックアッププロファイルのプロファイル名(PRO BACK LPAR−1)は、LPAR−1のための元々名前を付けられたプロファイル(PRO LPAR−1)と同じではない。ホストA上のバックアッププロファイルはまた、基盤となるLPARのためのオペレーティングシステムを含む共有記憶装置内の同じディスクにマップされる。ホストA内のLPAR−1のためのバックアッププロファイルは、アクティブでない。
630において、LPAR−1のためのバックアッププロファイルが、ホストBで作成される。このバックアッププロファイルは、移行後に、フェイルオーバーの目的で、ホストB内の内部バックアップとして機能する。プロファイルは、「PRO−BACK LPAR−1(ホストB)」と称される。例えば、バックアッププロファイルは、HMCモジュールの支援により作成される。定義されるように、バックアッププロファイルの名前(PRO BACK LPAR−1)は、ホストB上のLPAR−1のための元々名前を付けられたプロファイル(PRO LPAR−1)と同じではない。ホストB上のバックアッププロファイルはまた、基盤となるLPARのためのオペレーティングシステムを含む共有記憶装置内の同じディスクにマップされる。ホストB内のLPAR−1のためのバックアッププロファイルは、アクティブでない。
635において、ホストAのVIOSが再起動される。任意の今後の移行及び/又はフェイルオーバーシーケンスが実施される前に、これは、構成の設定がインスタンス化されるように実行される。そのようにして、構成が設定された後に今後の移行及び/又はフェイルオーバーシーケンスがいつ実行されようとも、ホストAによって経験される関連付けられた停止時間は存在しない。加えて、ホストBのVIOSは、637において再起動される。あらゆる今後の移行及び/又はフェイルオーバーシーケンスが実施される前に、これは、構成の設定がインスタンス化されるように実行される。そのようにして、構成が設定された後にどのような今後の移行及び/又はフェイルオーバーシーケンスが実行されようとも、ホストBにより経験される関連付けられた停止時間は存在しない。
640において、移行シーケンスが開始される。例えば、クラスタサーバ環境のHMCモジュールは、ホストAからホストB上へのLPAR−1の移行を実施することが可能である。LPAR移行を実装する典型的なシナリオは、ホストA内のコンピューティングリソースがメンテナンスを受けているときである。その場合、ホストA内のLPARは、それらのLPARでサポートされているアプリケーションが依然として利用可能であるように、ホストBに移行される。
加えて、643において、ホストBで、クラスタ認識の目的で作成されたLPAR−1のためのプロファイルは、名前が変更される。そのようにして、ホストA上のLPAR−1のために保存されたプロファイルは、ホストBに記憶されているLPAR−1のためのプロファイルとは別に参照される。例えば、プロファイル「PRO LPAR−1(ホストB)」は、ホストA及びホストBに保存されているLPAR−1のプロファイルが個別に参照されるように、「PRO−PRIME LPAR−1(ホストB)」と名前が変更される。ホストBが、同様に参照されるプロファイル(例えば、同じ名前)を既に有している場合、HMCが、ホストAからホストBにLPAR及びそれに関連付けられたプロファイルを移行し得ないので、プロファイルのこの名前の変更は、移行シーケンスが発生するように達成される。すなわち、クラスタサーバ環境において、移行中に、移行先ホストサーバ(例えば、ホストB)上に同じ名前を有するプロファイルが見つかった場合、移行プロトコルの検証(例えば、LPM検証の実装)は、失敗する。名前が変更されたプロファイル「PRO−PRIME LPAR−1(ホストB)は、移行が失敗した場合、LPAR−1に対するバックアッププロファイルとして更に機能する。
645において、LPAR−1は、ホストAからホストBに移行される。より具体的には、LPAR−1、PRO LPAR−1(ホストA)のためのプロファイル内で継続される情報は、ホストBに移行される。
図6Bに続けて、フロー図600のコネクタAを通して、650において、LPAR−1のためのプロファイルは、ホストAからホストBに移行される。LPAR−1のアクティブインスタンスのためのホストB上に記憶されている新しいプロファイルは、「PRO LPAR−1(ホストB)」と称される。例えば、移行シーケンス中に、HMCモジュールを使用して、ホストB内に新規のプロファイル「PRO LPAR−1(ホストB)」を作成する。
655において、ホストAからホストBへのLPAR−1の移行が成功したかどうかを判定するために、ホストBに関連付けられた試験が実施される。LPAR−1の移行が成功した場合、フロー図600は、660に進む。一方、LPAR−1の移行が不成功であった場合、フロー図500は、680に進む。
例えば、移行が成功した後、660において、LPAR−1及びそのプロファイルのインスタンス(例えば、「PRO LPAR−1(ホストA))が、自動的にホストAから削除される。加えて、665において、ホストAで作成されたバックアッププロファイルは、クラスタ対応及びフェイルオーバーの目的で、名前が変更される。すなわち、LPAR−1のためのバックアッププロファイルは、ホストAで復元され、再び「PRO LPAR−1(ホストA)」と称される。例えば、名前の変更は、HMCモジュールを用いて実施される。プロファイル「PRO−LPAR−1(ホストA)」は、アクティブではない。
670において、ホストB上で作成されたバックアッププロファイル「PRO−PRIME LPAR−1(ホストB)が、ある実装において、任意に削除される。別の実装において、バックアッププロファイルが、LPAR−lへのプロファイルの移行後、フェイルオーバーを提供する目的で維持される。
一方、LPAR−1の移行が不成功であった場合、ホストA上のLPAR−1は、引き続きアクティブである必要がある。具体的には、680において、移行に成功しなかった後、ホストB上のバックアッププロファイル「PRO−PRIME LPAR−1(ホストB)は、クラスタ対応の目的で、「PRO LPAR−1(ホストB)」に名前が戻される。同様に、フェイルオーバーの場合、LPAR−1は、ホストBにフェイルオーバーすることができる。一実施形態において、これは、移行するイベントに登録されることにより、VCSスクリプトを介して達成される。
このように、本開示の実施形態に従って、クラスタサーバプロトコルにおけるLPARフェイルオーバー機能(例えば、VCS)が、移行の成功後、フェイルオーバーシーケンスの適正な実装を確保するように他のLPAR移行プロトコルと互換性があるシステム及び方法が記載される。
先述の開示は、特定のブロック図、フロー図、及び実施例を使用して様々な実施形態を説明するが、本明細書に記載される及び/又は図示される各ブロック図の構成要素、フロー図の工程、動作、及び/又は構成要素は、個別に及び/又は集合的に、広範なハードウェア、ソフトウェア、又はファームウェア(又はそれらの任意の組み合わせ)構成を使用して、実装され得る。更に、他の構成要素内に含まれる構成要素のいずれの開示も、多くの他のアーキテクチャが同じ機能性を達成するために実装可能であるため、例示と見なされるべきである。
本明細書に記載される及び/又は図示されるプロセスパラメータ及び工程の順序は、単なる例として提供され、所望に応じて変更することができる。例えば、本明細書に図示される及び/又は記載される工程が特定の順序で示される又は考察されるが、これらの工程は、必ずしも図示される又は考察される順序で実施される必要はない。本明細書に記載される及び/又は図示される様々な例示的な方法はまた、本明細書に記載される及び/又は図示される工程のうちの1つ以上を省略してもよく、又は開示されるものに加えて追加の工程を含んでもよい。
種々の実施形態が、完全に機能的なコンピューティングシステムに関連して本明細書に記載され及び/又は図示されているが、これら例示的な実施形態のうちの1つ以上は、実際に配布を行うために使用されるコンピュータ可読記憶媒体の特定のタイプに関わらず、多様な形態のプログラム製品として配布され得る。本明細書に開示の実施形態はまた、一定のタスクを実施するソフトウェアモジュールを使用して実装され得る。これらのソフトウェアモジュールは、スクリプト、バッチ、又はコンピュータで読み取り可能な記憶媒体上若しくはコンピューティングシステムに記憶され得る、他の実行可能なファイルを含んでもよい。これらのソフトウェアモジュールは、本明細書に開示される例示的な実施形態のうちの1つ以上を実施するようにコンピューティングシステムを構成し得る。本明細書に開示されたソフトウェアモジュールのうちの1つ以上は、クラウドコンピューティング環境で実装され得る。クラウドコンピューティング環境は、インターネットを介して様々なサービス及びアプリケーションを提供し得る。これらのクラウドに基づくサービス(例えば、サービスとしてのソフトウェア、サービスとしてのプラットフォーム、サービスとしての基盤など)は、ウェブブラウザ又は他のリモートインターフェースを通じてアクセス可能であり得る。本明細書に記載される様々な機能は、リモートデスクトップ環境又は他の任意のクラウドベースのコンピューティング環境を通して提供されてもよい。
先述の記載は、説明のために特定の実施形態を参照して説明してきた。しかしながら、上の例示的な考察は、網羅的であること、又は開示された厳密な形態に本発明を制限することを意図していない。上述の教示を考慮して、多くの修正及び変更が可能である。実施形態は、本発明の原理及びそれらの実践上の用途を最も良く説明するために選択かつ記載され、それによって、他の当業者が、企図される特定の用途に好適であり得る様々な修正を用いて、本発明及び様々な実施形態を最大限に利用することを可能にする。
したがって、本開示に従う実施形態が説明されている。本開示を特定の実施形態において説明してきたが、開示がこのような実施形態によって限定されると解釈されるべきではなく、以下の特許請求に従って解釈されるべきであることを理解すべきである。

Claims (20)

  1. 移行のためのコンピュータ実装方法であって、
    1つ以上の論理区画(LPAR)を備える第1のホストシステム上で、LPARのための第1のプロファイルを作成するステップであって、前記第1のプロファイルが、第1の名前と関連付けられている、作成するステップと、
    前記第1のプロファイル内で、前記LPARの仮想小型コンピュータシステムインターフェース(SCSI)アダプタのクライアントポートを、前記第1のホストシステムの仮想入力/出力サーバ(VIOS)の仮想SCSIアダプタのサーバポートにマップするステップと、
    前記第1のホストシステムの前記1つ以上のLPARの仮想SCSIアダプタの任意のポートを受け入れるように、前記VIOSの前記サーバポートを設定するステップであって、当該設定により、当該VIOSの当該サーバポートに関連付けられるマッピングが移行プロトコルを通して削除されない、ステップと、
    前記VIOS内で、前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記VIOSの前記サーバポートを前記LPAR及びターゲットデバイスにマップするステップであって、前記ターゲットデバイスが、前記LPARのためのオペレーティングシステムを備える、マップするステップと、
    を含む、コンピュータ実装方法。
  2. 前記サーバポートを前記設定するステップが、
    前記VIOSの前記サーバポートを「任意のスロット/任意の区画」に設定するステップを含む、請求項1に記載のコンピュータ実装方法。
  3. 前記VIOSを再起動するステップを更に含む、請求項1に記載のコンピュータ実装方法。
  4. 前記LPARをバックアップする目的で、1つ以上のLPARを備える第2のホストシステムで、前記LPARのための第2のプロファイルを作成するステップと、
    前記第1及び第2のプロファイルが同様に参照されるように、前記第1の名前を用いて前記第2のプロファイルに名前を付けるステップと、を更に含む、請求項1に記載のコンピュータ実装方法。
  5. 前記第1のホストシステムで、前記第1のプロファイルのバックアッププロファイルを作成するステップであって、前記バックアッププロファイルが、第2の名前と関連付けられている、作成するステップと、
    前記第1のプロファイル及び前記第2のプロファイルが個別に参照されるように、前記第2のホストシステムで前記第2のプロファイルの名前を変更するステップと、
    前記第1の名前を有する前記第1のプロファイルを前記第2のホストシステムに移行するステップと、を更に含む、請求項4に記載のコンピュータ実装方法。
  6. 前記第1のプロファイルの移行が成功したかどうかを判定するステップと、
    成功した場合、前記第1のホストシステムで前記第1のプロファイルを自動的に削除するステップと、
    前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記バックアッププロファイルを前記第1の名前に戻すように名前を変更するステップと、を更に含む、請求項5に記載のコンピュータ実装方法。
  7. 前記第2のホストシステムで、前記第2のプロファイルを削除するステップを更に含む、請求項6に記載のコンピュータ実装方法。
  8. 前記第1のプロファイルの移行が成功したかどうかを判定するステップと、
    成功しなかった場合、前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記第2のプロファイルを前記第1の名前に戻すように名前を変更するステップと、を更に含む、請求項5に記載のコンピュータ実装方法。
  9. コンピュータシステムであって、
    プロセッサと、
    前記プロセッサに結合され、かつ前記コンピュータシステムによって実行された場合、前記コンピュータシステムに移行のための方法を実行させる命令を中に記憶した、メモリと、を備え、前記移行のための方法が、
    1つ以上の論理区画(LPAR)を備える第1のホストシステム上で、LPARのための第1のプロファイルを作成するステップであって、前記第1のプロファイルが、第1の名前と関連付けられている、作成するステップと、
    前記第1のプロファイル内で、前記LPARの仮想小型コンピュータシステムインターフェース(SCSI)アダプタのクライアントポートを、前記第1のホストシステムの仮想入力/出力サーバ(VIOS)の仮想SCSIアダプタのサーバポートにマップするステップと、
    前記第1のホストシステムの前記1つ以上のLPARの仮想SCSIアダプタの任意のポートを受け入れるように、前記VIOSの前記サーバポートを設定するステップであって、当該設定により、当該VIOSの当該サーバポートに関連付けられるマッピングが移行プロトコルを通して削除されない、ステップと、
    前記VIOS内で、前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記VIOSの前記サーバポートを前記LPAR及びターゲットデバイスにマップするステップであって、前記ターゲットデバイスが、前記LPARのためのオペレーティングシステムを備える、マップするステップと、を含む、コンピュータシステム。
  10. 前記方法が、
    前記VIOSを再起動するステップを更に含む、請求項9に記載のコンピュータシステム。
  11. 前記方法が、
    前記LPARをバックアップする目的で、1つ以上のLPARを備える第2のホストシステムで、前記LPARのための第2のプロファイルを作成するステップと、
    前記第1及び第2のプロファイルが同様に参照されるように、前記第1の名前を用いて前記第2のプロファイルに名前を付けるステップと、
    前記第1のホストシステムで、前記第1のプロファイルのバックアッププロファイルを作成するステップであって、前記バックアッププロファイルが、第2の名前と関連付けられている、作成するステップと、
    前記第1のプロファイル及び前記第2のプロファイルが個別に参照されるように、前記第2のホストシステムで前記第2のプロファイルの名前を変更するステップと、
    前記第1の名前を有する前記第1のプロファイルを前記第2のホストシステムに移行するステップと、を更に含む、請求項9に記載のコンピュータシステム。
  12. 前記方法が、
    前記第1のプロファイルの移行が成功したかどうかを判定するステップと、
    成功した場合、前記第1のホストシステムで前記第1のプロファイルを削除するステップと、
    前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記バックアッププロファイルを前記第1の名前に戻すように名前を変更するステップと、を更に含む、請求項11に記載のコンピュータシステム。
  13. コンピュータシステムに移行のための方法を実施させるプログラムであって、前記方法は、
    1つ以上の論理区画(LPAR)を備える第1のホストシステムのLPARのための第1のプロファイルを作成するステップであって、前記第1のプロファイルが、第1の名前と関連付けられている、作成するステップと、
    前記第1のプロファイル内で、前記LPARの仮想小型コンピュータシステムインターフェース(SCSI)アダプタのクライアントポートを、前記第1のホストシステムの仮想入力/出力サーバ(VIOS)の仮想SCSIアダプタのサーバポートにマップするステップと、
    前記第1のホストシステムの前記1つ以上のLPARの仮想SCSIアダプタの任意のポートを受け入れるように、前記VIOSの前記サーバポートを設定するステップであって、当該設定により、当該VIOSの当該サーバポートに関連付けられるマッピングが移行プロトコルを通して削除されない、ステップと、
    前記VIOS内で、前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記VIOSの前記サーバポートを前記LPAR及びターゲットデバイスにマップするステップであって、前記ターゲットデバイスが、前記LPARのためのオペレーティングシステムを備える、マップするステップと、
    を含む、プログラム。
  14. 前記方法において前記サーバポートを前記設定するステップが、
    前記VIOSの前記サーバポートを「任意のスロット/任意の区画」に設定するステップを含む、請求項13に記載のプログラム。
  15. 前記方法が、
    前記VIOSを再起動するステップを更に含む、請求項13に記載のプログラム。
  16. 前記方法が、
    前記LPARをバックアップする目的で、1つ以上のLPARを備える第2のホストシステムで、前記LPARのための第2のプロファイルを作成するステップと、
    前記第1及び第2のプロファイルが同様に参照されるように、前記第1の名前を用いて前記第2のプロファイルに名前を付けるステップと、を更に含む、請求項13に記載のプログラム。
  17. 前記方法が、
    前記第1のホストシステムで、前記第1のプロファイルのバックアッププロファイルを作成するステップであって、前記バックアッププロファイルが、第2の名前と関連付けられている、作成するステップと、
    前記第1のプロファイル及び前記第2のプロファイルが個別に参照されるように、前記第2のホストシステムで前記第2のプロファイルの名前を変更するステップと、
    前記第1の名前を有する前記第1のプロファイルを前記第2のホストシステムに移行するステップと、を更に含む、請求項16に記載のプログラム。
  18. 前記方法が、
    前記第1のプロファイルの移行が成功したかどうかを判定するステップと、
    成功した場合、前記第1のホストシステムで前記第1のプロファイルを削除するステップと、
    前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記バックアッププロファイルを前記第1の名前に戻すように名前を変更するステップと、を更に含む、請求項17に記載のプログラム。
  19. 前記方法が、
    前記第2のホストシステムで、前記第2のプロファイルを削除するステップを更に含む、請求項18に記載のプログラム。
  20. 前記方法が、
    前記第1のプロファイルの移行が成功したかどうかを判定するステップと、
    成功しなかった場合、前記第1のホストシステムで前記バックアッププロファイルを削除するステップと、
    前記第1のプロファイルの適正なフェイルオーバーの実装の目的で、前記第2のプロファイルを前記第1の名前に戻すように名前を変更するステップと、を更に含む、請求項17に記載のプログラム。
JP2015504732A 2012-04-04 2013-04-04 ライブ移行プロトコル及びクラスタサーバのフェイルオーバープロトコル Active JP6132323B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/439,684 2012-04-04
US13/439,684 US8880934B2 (en) 2012-04-04 2012-04-04 Method and system for co-existence of live migration protocols and cluster server failover protocols
PCT/US2013/035308 WO2013152215A1 (en) 2012-04-04 2013-04-04 Live migration protocols and cluster server failover protocols

Publications (2)

Publication Number Publication Date
JP2015515690A JP2015515690A (ja) 2015-05-28
JP6132323B2 true JP6132323B2 (ja) 2017-05-24

Family

ID=49293275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015504732A Active JP6132323B2 (ja) 2012-04-04 2013-04-04 ライブ移行プロトコル及びクラスタサーバのフェイルオーバープロトコル

Country Status (5)

Country Link
US (1) US8880934B2 (ja)
EP (1) EP2834734B1 (ja)
JP (1) JP6132323B2 (ja)
CN (1) CN104412228B (ja)
WO (1) WO2013152215A1 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI610166B (zh) 2012-06-04 2018-01-01 飛康國際網路科技股份有限公司 自動災難復原和資料遷移系統及方法
US8909980B1 (en) * 2012-06-29 2014-12-09 Emc Corporation Coordinating processing for request redirection
US9755889B2 (en) * 2013-02-13 2017-09-05 International Business Machines Corporation Service failover and failback using enterprise service bus
US20140289198A1 (en) * 2013-03-19 2014-09-25 Ramya Malangi Chikkalingaiah Tracking and maintaining affinity of machines migrating across hosts or clouds
US9996562B2 (en) * 2013-07-09 2018-06-12 Oracle International Corporation Automated database migration architecture
US9442983B2 (en) 2013-07-09 2016-09-13 Oracle International Corporation Method and system for reducing instability when upgrading software
US9747311B2 (en) 2013-07-09 2017-08-29 Oracle International Corporation Solution to generate a scriptset for an automated database migration
US10776244B2 (en) 2013-07-09 2020-09-15 Oracle International Corporation Consolidation planning services for systems migration
US11157664B2 (en) 2013-07-09 2021-10-26 Oracle International Corporation Database modeling and analysis
US9967154B2 (en) 2013-07-09 2018-05-08 Oracle International Corporation Advanced customer support services—advanced support cloud portal
US9805070B2 (en) 2013-07-09 2017-10-31 Oracle International Corporation Dynamic migration script management
US9792321B2 (en) 2013-07-09 2017-10-17 Oracle International Corporation Online database migration
US9762461B2 (en) 2013-07-09 2017-09-12 Oracle International Corporation Cloud services performance tuning and benchmarking
US9262289B2 (en) * 2013-10-11 2016-02-16 Hitachi, Ltd. Storage apparatus and failover method
US9584883B2 (en) 2013-11-27 2017-02-28 Vmware, Inc. Placing a fibre channel switch into a maintenance mode in a virtualized computing environment via path change
US9164695B2 (en) * 2013-12-03 2015-10-20 Vmware, Inc. Placing a storage network device into a maintenance mode in a virtualized computing environment
US9207873B2 (en) 2013-12-19 2015-12-08 Netapp, Inc. Parallel migration of data objects to clustered storage
US9858058B2 (en) * 2014-03-31 2018-01-02 International Business Machines Corporation Partition mobility for partitions with extended code
US9983917B2 (en) 2015-11-30 2018-05-29 International Business Machines Corporation Monitoring and responding to operational conditions of a logical partition from a separate logical partition
US9846602B2 (en) 2016-02-12 2017-12-19 International Business Machines Corporation Migration of a logical partition or virtual machine with inactive input/output hosting server
US10042720B2 (en) 2016-02-22 2018-08-07 International Business Machines Corporation Live partition mobility with I/O migration
US10042723B2 (en) 2016-02-23 2018-08-07 International Business Machines Corporation Failover of a virtual function exposed by an SR-IOV adapter
US10002018B2 (en) 2016-02-23 2018-06-19 International Business Machines Corporation Migrating single root I/O virtualization adapter configurations in a computing system
US10025584B2 (en) 2016-02-29 2018-07-17 International Business Machines Corporation Firmware management of SR-IOV adapters
US11036696B2 (en) 2016-06-07 2021-06-15 Oracle International Corporation Resource allocation for database provisioning
US9720863B1 (en) 2016-10-21 2017-08-01 International Business Machines Corporation Migrating MMIO from a source I/O adapter of a source computing system to a destination I/O adapter of a destination computing system
US9720862B1 (en) 2016-10-21 2017-08-01 International Business Machines Corporation Migrating interrupts from a source I/O adapter of a computing system to a destination I/O adapter of the computing system
US10360058B2 (en) * 2016-11-28 2019-07-23 International Business Machines Corporation Input/output component selection for virtual machine migration
US20180150331A1 (en) * 2016-11-30 2018-05-31 International Business Machines Corporation Computing resource estimation in response to restarting a set of logical partitions
US10382313B2 (en) * 2017-02-16 2019-08-13 International Business Machines Corporation Test building for testing server operation
CN107273044B (zh) * 2017-05-22 2020-06-09 云宏信息科技股份有限公司 逻辑分区自动挂载磁盘的方法、电子设备及存储介质
CN109525406A (zh) * 2017-09-18 2019-03-26 飞狐信息技术(天津)有限公司 一种业务系统配置方法及装置
CN107864055A (zh) * 2017-10-31 2018-03-30 云宏信息科技股份有限公司 虚拟化系统的管理方法及平台
CN107977280B (zh) * 2017-12-08 2020-07-24 苏州浪潮智能科技有限公司 一种故障转移时验证ssd cache加速有效性的方法
US10708309B2 (en) * 2018-01-10 2020-07-07 Cisco Technology, Inc. Fine granularity authorization control in FC-NVMe storage area network
US11048556B2 (en) 2018-04-12 2021-06-29 International Business Machines Corporation Multi-channel, multi-control logical partition migration
US11188369B2 (en) 2018-11-26 2021-11-30 International Business Machines Corporation Interrupt virtualization
US11073996B2 (en) 2019-04-30 2021-07-27 EMC IP Holding Company LLC Host rescan for logical volume migration
US11256671B2 (en) 2019-09-13 2022-02-22 Oracle International Corporation Integrated transition control center
CN112968809B (zh) * 2021-02-02 2022-09-13 杭州安恒信息技术股份有限公司 一种系统稳定性和兼容性的测试方法和装置
CN113300953B (zh) * 2021-07-27 2021-10-15 苏州浪潮智能科技有限公司 一种多路径故障转移组的管理方法、系统及相关装置
US20240069980A1 (en) * 2022-08-24 2024-02-29 International Business Machines Corporation Disabling a processor facility on a new processor generation without breaking binary compatibility

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6335927B1 (en) * 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
US6772161B2 (en) * 2001-12-19 2004-08-03 Hewlett-Packard Development Company, L.P. Object-level migration in a partition-based distributed file system
US7213246B1 (en) * 2002-03-28 2007-05-01 Veritas Operating Corporation Failing over a virtual machine
EP1678617A4 (en) * 2003-10-08 2008-03-26 Unisys Corp COMPUTER SYSTEM PARAVIRTUALIZATION BY USING A HYPERVISOR IMPLEMENTED IN A PARTITION OF THE HOST SYSTEM
JP4295184B2 (ja) * 2004-09-17 2009-07-15 株式会社日立製作所 仮想計算機システム
US20060123111A1 (en) * 2004-12-02 2006-06-08 Frank Dea Method, system and computer program product for transitioning network traffic between logical partitions in one or more data processing systems
US7634595B1 (en) * 2004-12-16 2009-12-15 Emc Corporation Method for suspending a discovery process, saving the state of the discovery process, and resuming the discovery process during a distributed copy operation
US8090908B1 (en) * 2006-04-26 2012-01-03 Netapp, Inc. Single nodename cluster system for fibre channel
US8205207B2 (en) * 2007-03-15 2012-06-19 International Business Machines Corporation Method of automated resource management in a partition migration capable environment
US7882326B2 (en) * 2007-03-23 2011-02-01 International Business Machines Corporation Live migration of a logical partition
JP4744480B2 (ja) * 2007-05-30 2011-08-10 株式会社日立製作所 仮想計算機システム
US8041987B2 (en) * 2008-11-10 2011-10-18 International Business Machines Corporation Dynamic physical and virtual multipath I/O
US20110125979A1 (en) * 2009-11-25 2011-05-26 International Business Machines Corporation Migrating Logical Partitions
US8726274B2 (en) 2010-09-10 2014-05-13 International Business Machines Corporation Registration and initialization of cluster-aware virtual input/output server nodes
US8495412B2 (en) * 2010-09-10 2013-07-23 International Business Machines Corporation Autonomous propagation of virtual input/output (VIO) operation(s) to second VIO server (VIOS) due to a detected error condition at a first VIOS
US8819190B2 (en) * 2011-03-24 2014-08-26 International Business Machines Corporation Management of file images in a virtual environment

Also Published As

Publication number Publication date
US20130268800A1 (en) 2013-10-10
EP2834734A4 (en) 2016-01-13
CN104412228A (zh) 2015-03-11
WO2013152215A1 (en) 2013-10-10
EP2834734A1 (en) 2015-02-11
EP2834734B1 (en) 2019-07-24
CN104412228B (zh) 2017-10-31
US8880934B2 (en) 2014-11-04
JP2015515690A (ja) 2015-05-28

Similar Documents

Publication Publication Date Title
JP6132323B2 (ja) ライブ移行プロトコル及びクラスタサーバのフェイルオーバープロトコル
US9075856B2 (en) Systems and methods for distributing replication tasks within computing clusters
US8874954B1 (en) Compatibility of high availability clusters supporting application failover with shared storage in a virtualization environment without sacrificing on virtualization features
US9052935B1 (en) Systems and methods for managing affinity rules in virtual-machine environments
US9092248B1 (en) Systems and methods for restoring distributed applications within virtual data centers
US9164795B1 (en) Secure tunnel infrastructure between hosts in a hybrid network environment
WO2018058942A1 (zh) 一种数据处理方法以及备份服务器
US20150205542A1 (en) Virtual machine migration in shared storage environment
CN109168328B (zh) 虚拟机迁移的方法、装置和虚拟化系统
US9792150B1 (en) Detecting site change for migrated virtual machines
EP2856317B1 (en) System and method for disaster recovery of multi-tier applications
JP2010527056A (ja) 仮想マシン移行
US10089205B2 (en) Disaster recovery practice mode for application virtualization infrastructure
US10140144B2 (en) Multi-site disaster recovery consistency group for heterogeneous systems
JP2015503782A (ja) 仮想化されたプラットフォームへ安全に移行するためのシステム及び方法
US8595192B1 (en) Systems and methods for providing high availability to instance-bound databases
US9354908B2 (en) Instantly restoring virtual machines by providing read/write access to virtual disk before the virtual disk is completely restored
US20170235587A1 (en) Transitioning volumes between storage virtual machines
CN107402839B (zh) 一种备份数据的方法及系统
US8565545B1 (en) Systems and methods for restoring images
US20240134761A1 (en) Application recovery configuration validation
US10684985B2 (en) Converting storage objects between formats in a copy-free transition
US8621260B1 (en) Site-level sub-cluster dependencies
US9485308B2 (en) Zero copy volume reconstruction
US11334446B2 (en) Backup system for an overlay network

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170412

R150 Certificate of patent or registration of utility model

Ref document number: 6132323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250