JP6179119B2 - 管理装置、管理方法、及び管理プログラム - Google Patents

管理装置、管理方法、及び管理プログラム Download PDF

Info

Publication number
JP6179119B2
JP6179119B2 JP2013030128A JP2013030128A JP6179119B2 JP 6179119 B2 JP6179119 B2 JP 6179119B2 JP 2013030128 A JP2013030128 A JP 2013030128A JP 2013030128 A JP2013030128 A JP 2013030128A JP 6179119 B2 JP6179119 B2 JP 6179119B2
Authority
JP
Japan
Prior art keywords
server
redundancy
path
virtual
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013030128A
Other languages
English (en)
Other versions
JP2014160329A (ja
Inventor
正憲 蒲倉
正憲 蒲倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013030128A priority Critical patent/JP6179119B2/ja
Priority to US14/162,405 priority patent/US9300530B2/en
Publication of JP2014160329A publication Critical patent/JP2014160329A/ja
Application granted granted Critical
Publication of JP6179119B2 publication Critical patent/JP6179119B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0677Localisation of faults
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0668Management of faults, events, alarms or notifications using network fault recovery by dynamic selection of recovery network elements, e.g. replacement by the most appropriate element after failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • H04L43/0817Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/16Threshold monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は管理装置、管理方法、及び管理プログラムに関し、特に、仮想計算機の管理装置、管理方法、及び管理プログラムに関する。
物理的な計算機上で動作する仮想計算機を、障害や、高負荷といった事象が発生した場合、他の物理的な計算機に移行させる装置の例が、特許文献1や特許文献2に記載されている。
特許文献1には、障害が発生した物理サーバで動作する仮想サーバを、他の物理サーバで動作する他の仮想サーバと置き換えて動作させる管理サーバが記載されている。特許文献1の管理サーバは、移動させる仮想サーバより優先度が低い仮想サーバの中で、使用リソースが移動させる仮想サーバの使用リソース以上で、最も優先度が高い仮想サーバを選択する。使用リソースは、プロセッサの性能とメモリ容量である。管理サーバは、選択された仮想サーバが動作する物理サーバを、移動させる仮想サーバの移動先に決める。管理サーバは、選択された仮想サーバを次に移動させる仮想サーバとして、同様の処理を繰り返す。管理サーバは、優先度が低く、再配置先の物理サーバが無い仮想サーバの動作を停止させる。
特許文献2には、例えば仮想サーバの負荷の指標値が閾値を超えるような、仮想サーバの移行契機が検出された場合、その仮想サーバを他の物理サーバに移行させる管理計算機が記載されている。管理計算機は、予め設定された移行経路グループと、各物理サーバの現在および過去の移行状況などから、移行対象の仮想サーバの移行先と移行経路を選定する。移行経路は、システム構成の一致度や、使用するストレージ装置の異同により決められている。管理計算機は、選定された移行先と移行経路に基づき、移行対象の仮想サーバを移行させる。
特開2009−252204号公報 特開2011−232916号公報
計算機と、その計算機がアクセスを行うストレージ装置の間は、アクセス経路の障害への耐性の向上のために、複数の経路で接続されている場合がある。例えば、計算機とストレージ装置とを接続する複数の経路のいずれかに障害が発生しても、計算機はストレージ装置にアクセスできる。しかし、いずれかの経路における障害の発生等により、計算機とストレージ装置とを接続する経路の数が減少すると、アクセス経路の障害への耐性は低下する。計算機上で動作する仮想計算機の、その仮想計算機が使用するストレージ装置に対するアクセス経路の障害への耐性も同様に、仮想計算機が動作する計算機とストレージ装置との間のアクセス経路の数が減少すると低下する。
特許文献1および2の技術では、仮想計算機の移行先の計算機を、アクセス経路の障害への耐性の、移行の前後における変化に関係なく決定する。特許文献1および2の技術では、仮想計算機の、その仮想計算機が動作する計算機とストレージ装置との間におけるアクセス経路の障害への耐性の減少を小さくすることはできない。
本発明の目的は、複数の経路でストレージ装置に接続されている計算機で動作する仮想計算機の、ストレージ装置と計算機との間の経路の障害に対する耐性の低下を小さくする管理装置を提供することにある。
本発明の管理装置は、それぞれ複数の経路でストレージ装置に接続され、仮想計算機を稼働させる複数のサーバから、いずれかの前記経路の障害を検出する障害検出手段と、前記経路の障害が検出された前記サーバである故障サーバで稼働する前記仮想計算機を抽出する抽出手段と、前記複数のサーバの各々に対して、当該サーバと前記ストレージ装置との間の経路の冗長性の高さを表す冗長度を算出する冗長度算出手段と、前記冗長度が高い前記サーバを選択する選択手段と、抽出された前記仮想計算機の識別子と、選択された前記サーバの識別子を含む移行指示情報を送信する送信手段とを含む。
本発明の管理方法は、それぞれ複数の経路でストレージ装置に接続され、仮想計算機を稼働させる複数のサーバから、いずれかの前記経路の障害を検出し、前記経路の障害が検出された前記サーバである故障サーバで稼働する前記仮想計算機を抽出し、前記複数のサーバの各々に対して、当該サーバと前記ストレージ装置との間の経路の冗長性の高さを表す冗長度を算出し、前記冗長度が高い前記サーバを選択し、抽出された前記仮想計算機の識別子と、選択された前記サーバの識別子を含む移行指示情報を送信する。
本発明の管理プログラムは、コンピュータを、それぞれ複数の経路でストレージ装置に接続され、仮想計算機を稼働させる複数のサーバから、いずれかの前記経路の障害を検出する障害検出手段と、前記経路の障害が検出された前記サーバである故障サーバで稼働する前記仮想計算機を抽出する抽出手段と、前記複数のサーバの各々に対して、当該サーバと前記ストレージ装置との間の経路の冗長性の高さを表す冗長度を算出する冗長度算出手段と、前記冗長度が高い前記サーバを選択する選択手段と、抽出された前記仮想計算機の識別子と、選択された前記サーバの識別子を含む移行指示情報を送信する送信手段として動作させる。
本発明には、複数の経路でストレージ装置に接続されている計算機で動作する仮想計算機の、ストレージ装置と計算機との間の経路の障害に対する耐性の低下を小さくすることができるという効果がある。
図1は、第1の実施形態の情報処理システム7の構成の例を表す図である。 図2は、管理装置1と物理サーバ2との間の接続の例を表す図である。 図3は、物理サーバ2とストレージ装置3との間の接続の、他の例を表す図である。 図4は、第1の実施形態の管理装置1の動作を表すフローチャートである。 図5は、第1の実施形態のパス情報テーブルの一例を表す図である。 図6は、第1の実施形態のリソース情報テーブルの一例を表す図である。 図7は、構成例における計算機システムの構成を表す図である。 図8は、構成例におけるパス情報テーブルの一例を表す図である。 図9は、構成例におけるリソース情報テーブル150の一例を表す図である。 図10は、構成例における仮想ディスク情報テーブル160の一例を表す図である。 図11は、構成例における構成情報テーブル320の一例を表す図である。 図12は、構成例の計算機システムの、さらに具体的な構成の一例を表す図である。 図13は、構成例の具体例におけるパス情報テーブルの例を表す図である。 図14は、構成例の具体例におけるリソース情報テーブルの例を表す図である。 図15は、構成例の具体例における仮想ディスク情報テーブルの例を表す図である。 図16は、構成例の具体例におけるパス情報テーブルの例を表す図である。 図17は、構成例の具体例におけるリソース情報テーブルの例を表す図である。 図18は、構成例の具体例における仮想ディスク情報テーブルの例を表す図である。 図19は、構成例の具体例における構成情報テーブルの例を表す図である。 図20は、構成例の具体例における仮想サーバパス冗長度の例を表す図である。 図21は、構成例の具体例における物理サーバパス冗長度の例を表す図である。 図22は、障害発生後のパス情報テーブル140の一例を表す図である。 図23は、障害発生後に再計算された仮想サーバパス冗長度の一例を表す図である。 図24は、障害発生後に再計算された物理サーバパス冗長度の一例を表す図である。 図25は、移行後の仮想サーバパス冗長度の一例を表す図である。 図26は、変形された構成例における計算機システムの構成の一例を表す図である。 図27は、第2の実施形態の管理装置1の構成の例を表す図である。
次に、本発明の第1の実施の形態について図面を参照して詳細に説明する。
図1は、第1の実施形態の情報処理システム7の構成の例を表す図である。
図1を参照すると、情報処理システム7は、管理装置1と、複数の物理サーバ2と、ストレージ装置3を含む。物理サーバ2は、単に、サーバとも表記される。情報処理システム7は、複数のストレージ装置3を含んでいてもよい。管理装置1と物理サーバ2は、直接ケーブルや無線により接続されていてもよい。管理装置1と物理サーバ2は、ネットワークを介して接続されていてもよい。管理装置1は、物理サーバ2に含まれていてもよい。
図2は、管理装置1と物理サーバ2との間の接続の例を表す図である。
図2の例では、管理装置1と物理サーバ2は、管理ネットワーク4によって接続されている。また、情報処理システム7は、物理サーバ2上で動作する仮想サーバ21のための、物理サーバ2のリソースを管理する仮想サーバ管理装置5を含んでいてもよい。そして、物理サーバ2と仮想サーバ管理装置5は、管理ネットワーク4によって接続されていてもよい。仮想サーバ管理装置5は、各物理サーバ2に対して、仮想サーバ21の生成、仮想サーバ21の削除、仮想サーバ21へのストレージ装置3内のディスク31の割り当て、他の物理サーバ2への移行等の指示を送信する。各物理サーバ2は、仮想サーバ管理装置5からの指示に従って、仮想サーバ21に対するこれらの処理を行う。仮想サーバ管理装置5は、仮想ディスクを提供する各ストレージ装置3に接続され、各ストレージ装置3に対して、ストレージ装置3の仮想ディスクの他のストレージ装置3への移行の指示を行ってもよい。図1では、仮想サーバ管理装置5は省略されている。また、管理装置1が仮想サーバ管理装置5として動作してもよい。その場合、情報処理システム7は、管理装置1と異なる仮想サーバ管理装置5を含まなくてよい。
各物理サーバ2とストレージ装置3は、複数の経路で接続されている。各物理サーバ2とストレージ装置3は、例えば、物理サーバ2が含む複数のポート20のいずれかとストレージ装置3が含む複数のポート30のいずれかとの間を接続する、複数のケーブルによって接続されている。物理サーバ2の一つのポート20に、1台のストレージ装置3が含む複数のポート30が接続されていてもよい。物理サーバ2の複数のポート20が、ストレージ装置3の一つのポート30に接続されていてもよい。互いに接続されている、物理サーバ2のポート20とストレージ装置3のポート30を経由する通信路が、物理サーバ2とストレージ装置3の間の接続の経路である。互いに接続されている、ある物理サーバ2のポート20とあるストレージ装置3のポート30の組み合わせの数が、その物理サーバ2とそのストレージ装置3の間を接続する経路の数である。物理サーバ2は、いずれかの経路を介して、ストレージ装置3にアクセスする。図1の物理サーバ2とストレージ装置3との間の接続は単なる例である。物理サーバ2とストレージ装置3との間の接続は、図1の構成に限定されない。
図3は、物理サーバ2とストレージ装置3との間の接続の、他の例を表す図である。
図3の例では、各物理サーバ2と、各ストレージ装置3は、スイッチ6を介して接続されている。スイッチ6は、例えば、FC(Fiber Channel)スイッチである。この場合、物理サーバ2のFC HBA(Host Bus Adapter)の各ポート20は、FCケーブルにより、FCスイッチに接続されている。そして、FCスイッチは、FCケーブルでストレージ装置3のFCポートであるポート30に接続されている。そして、各物理サーバ2は、FCプロトコルを用いて、各ストレージ装置3にアクセスする。スイッチ6は、IP(Internet Protocol)ネットワークのネットワークスイッチであってもよい。この場合、各物理サーバ2は、例えばiSCSI(Internet Small Computer System Interface)プロトコルで、各ストレージ装置3にアクセスする。
管理装置1は、障害検出部10と、抽出部11と、冗長度算出部12と、選択部13と、送信部14と、冗長度記憶部15を含む。管理装置1は、負荷検出部16を含んでいてもよい。
各物理サーバ2は、複数のポート20と、仮想サーバ管理部22と、パス管理部23と、リソース記憶部24を含む。また、各物理サーバ2では、仮想サーバ21が稼働している。仮想サーバ21は、仮想計算機とも表記される。図1の例では仮想サーバ21の台数は1台であるが、仮想サーバ21の台数は、1台でなくてよい。
各ストレージ装置3は、複数のポート30と、ディスク31を含む。ディスク31は、複数であってもよい。ディスク31は、1台以上のハードディスクドライブから構成される論理ディスクであってもよい。ディスク31は、1個以上の論理ディスクの全部又は一部から構成される、仮想的なディスクである仮想ディスクであってもよい。
仮想サーバ管理部22は、仮想サーバ21への、プロセッサ、メモリ、ディスク等のリソースの割り当てを行う。そして、仮想サーバ管理部22は、仮想サーバ21を構成して稼働させる。また、仮想サーバ管理部22は、仮想サーバ21を他の物理サーバ2に移行させる指示を受信すると、指示に基づき、仮想サーバ21を他の物理サーバ2に移行させるマイグレーションを行う。仮想サーバ21を他の物理サーバ2に移行させる指示は、移行させる仮想サーバ21の識別子と、仮想サーバ21の移行先の物理サーバ2の識別子を含む。仮想サーバ21を他の物理サーバ2に移行させる指示は、移行させる仮想サーバ21の識別子と、仮想サーバ21の移行先の物理サーバ2の識別子であってもよい。また、仮想サーバ管理部22は、物理サーバ2上の各仮想サーバ21に対して、仮想サーバ21の識別子と、その仮想サーバ21に割り当てられているストレージの識別子とを対応付けて、リソース記憶部24に格納する。ストレージの識別子は、例えば、ディスク31の識別子や、ディスク31を含むストレージ装置3の識別子である。仮想サーバ管理部22は、物理サーバ2上の各仮想サーバ21に割り当てられている、プロセッサの個数、プロセッサの識別子、メモリの容量等を、リソース記憶部24に格納してもよい。
リソース記憶部24は、物理サーバ2上の各仮想サーバ21に対して、仮想サーバ21に割り当てられているストレージの識別子を記憶する。例えば、リソース記憶部24は、各仮想サーバ21に対して、仮想サーバ21の識別子と、その仮想サーバ21に割り当てられているディスク31の識別子とを、対応付けて記憶する。リソース記憶部24は、各仮想サーバ21に対して、仮想サーバ21の識別子と、その仮想サーバ21に割り当てられているディスク31を含むストレージ装置3の識別子とを、対応付けて記憶する。ディスク31が仮想ディスクである場合、リソース記憶部24は、仮想サーバ21の識別子と、その仮想サーバ21に割り当てられている仮想ディスクの識別子とを、対応付けて記憶していてもよい。そして、リソース記憶部24は、各仮想ディスクに対して、仮想ディスクの識別子と、その仮想ディスクを構成する論理ディスクの識別子とを、対応付けて記憶していてもよい。また、リソース記憶部24は、各論理ディスクに対して、論理ディスクの識別子と、その論理ディスクを含むストレージ装置3の識別子とを、対応付けて記憶していてもよい。リソース記憶部24は、各仮想サーバ21に対して、仮想サーバ21の識別子と、そのプロセッサに割り当てられている、プロセッサの個数、プロセッサの識別子、メモリの容量等を、対応付けて記憶していてもよい。
パス管理部23は、物理サーバ2とストレージ装置3との間の各経路に対して、その経路における通信の障害の有無を検出する。パス管理部23は、例えば、ストレージ装置3へのアクセスでI/O(Input/Output)エラーが発生した場合、そのアクセスで経由した経路を特定することで、その経路における障害の発生を検出する。パス管理部23は、I/Oエラーが発生した場合、I/Oを再発行することで、I/Oを継続させる。パス管理部23は、各経路に対して障害が検出された場合、障害の発生を、管理装置1の障害検出部10に送信してもよい。前述のように、互いに接続されている、物理サーバ2のポート20とそのポート20に接続されているストレージ装置3のポート30を経由する通信線が、物理サーバ2とストレージ装置3との間の経路である。
パス管理部23は、各経路に対して、検出された障害の有無を表す情報であるパス状態を、経路の識別子に対応付けてリソース記憶部24に格納する。パス状態は、例えば、「正常」を表す所定値と、「障害」を表す他の所定値のいずれかである。パス管理部23は、I/Oエラーが発生した場合、I/Oエラーが発生した経路の識別子に対応付けられているパス状態を更新して、「障害」にすればよい。経路は、以下では、アクセスパスとも表記される。経路の識別子は、例えば、物理サーバ2のポート20の識別子と、ストレージ装置3のポート30の識別子の組み合わせである。経路の識別子は、経路を識別することができればどのような識別子であってもよい。
パス管理部23は、物理サーバ2がアクセスする各ストレージの識別子に対して、そのストレージとの間の全ての経路の、識別子とパス状態の組を、対応付けてリソース記憶部24に格納してもよい。前述のように、ストレージの識別子は、例えば、ディスク31の識別子や、ディスク31を含むストレージ装置3の識別子である。例えば、リソース記憶部24が、仮想サーバ21の識別子とストレージ装置3の識別子を対応付けて記憶している場合、パス管理部23が経路の識別子とパス状態の組に対応付けるストレージの識別子は、ストレージ装置3の識別子である。例えば、リソース記憶部24が、仮想サーバ21の識別子とディスク31の識別子を対応付けて記憶している場合、パス管理部23が経路の識別子とパス状態の組に対応付けるストレージの識別子は、ディスク31の識別子である。ただし、ディスク31が仮想ディスクである場合、ストレージの識別子は、論理ディスクの識別子であってよい。
リソース記憶部24は、さらに、各経路に対して、検出された障害の有無を表す情報であるパス状態を、経路の識別子に対応付けて記憶する。リソース記憶部24は、物理サーバ2がアクセスする各ストレージの識別子に対して、そのストレージとの間の全ての経路の、識別子とパス状態の組を、対応付けて記憶してもよい。
障害検出部10は、各物理サーバ2に対して、物理サーバ2が各ストレージ装置3にアクセスする各経路における障害の有無を検出する。
抽出部11は、経路の障害が検出された物理サーバ2で稼働する仮想サーバ21の各々から、検出された障害による影響を受ける仮想サーバ21を抽出する。抽出部11が抽出した仮想サーバ21が、移行の対象の仮想サーバ21である。
冗長度算出部12は、物理サーバ2とストレージ装置3との間の経路の冗長性の高さを表す値である冗長度を算出する。以下の説明では、冗長度の値が大きいほど冗長性が高いことを表す。冗長度の値の大きさと冗長性の高さの関係は、逆でも構わない。冗長度算出部12により算出される、物理サーバ2とストレージ装置3との間の経路の冗長度は、物理サーバパス冗長度とも表記される。物理サーバパス冗長度は、第1の冗長度とも表記される。物理サーバパス冗長度は、単に、冗長度とも表記される。また、冗長度算出部12は、複数の物理サーバ2のそれぞれに対して、物理サーバ2と、仮想サーバ21が使用するストレージ装置3との間の経路の第1の冗長度を算出する。仮想サーバ21が複数のストレージ装置3を使用する場合、冗長度算出部12は、仮想サーバ21が使用する複数のストレージ装置3のそれぞれに対して、物理サーバ2とストレージ装置3の間の第1の冗長度を算出する。冗長度算出部12は、物理サーバ2と、仮想サーバ21が使用するそれぞれのストレージ装置3との間の第1の冗長度の中で、最も冗長性が低いことを表す値を、物理サーバ2における仮想サーバ21の第2の冗長度として選択する。第2の冗長度は、仮想サーバパス冗長度とも表記される。第2の冗長度は、仮想サーバ21が物理サーバ2上で動作する場合に、仮想サーバ21が、使用しているディスク31にアクセスする際の、その物理サーバ2と、ディスク31を含むストレージ装置3との間の経路の冗長性の程度を表す値である。第2の冗長度は、物理サーバ2と仮想サーバ21の組み合わせに対して定まる。
選択部13は、障害による影響を受ける仮想サーバ21に対して、その仮想サーバ21が稼働する物理サーバ2より、第2の冗長度が高い物理サーバ2を選択する。選択部13は、障害による影響を受ける仮想サーバ21に対して、例えば、第2の冗長度が最も冗長性が高いことを表す値である物理サーバ2を選択する。選択部13が選択する物理サーバ2は、障害による影響を受ける仮想サーバ21が稼働する物理サーバ2より、第2の冗長度が高い物理サーバ2であれば、必ずしも第2の冗長度が最も高い物理サーバ2でなくても構わない。選択部13が選択した物理サーバ2が、移行対象の仮想サーバ21の移行先の物理サーバ2である。複数の仮想サーバ21が抽出された場合、選択部13は、抽出されたそれぞれの仮想サーバ21に対して、その仮想サーバ21に対して選択された第2の冗長度が最も冗長性が高いことを表す値である物理サーバ2を選択する。
送信部14は、障害による影響を受ける仮想サーバ21の識別子と、その仮想サーバ21の、第2の冗長度が最も高い物理サーバ2として選択された物理サーバの識別子とを含む、移行指示の情報を出力する。移行指示の情報は、単に移行指示とも表記される。送信部14は、例えば、検出された障害による影響を受ける仮想サーバ21が稼働する物理サーバ2に対して、その仮想サーバ21の、第2の冗長度が最も高い物理サーバ2として選択された物理サーバへの、移行指示を送信する。移行対象の仮想サーバ21を移行先の物理サーバ2に移行させる指示は、移行の対象である仮想サーバ21の識別子と、移行先の物理サーバ2の識別子を含む。移行対象の仮想サーバ21を移行先の物理サーバ2に移行させる指示は、移行の対象である仮想サーバ21の識別子と、移行先の物理サーバ2の識別子そのものであってもよい。この場合、送信部14は、検出された障害による影響を受ける仮想サーバ21が稼働する物理サーバ2に対して、その抽出された仮想サーバ21の識別子と、選択された物理サーバ2の識別子を送信する。物理サーバ2は、仮想サーバ21の識別子と物理サーバ2の識別子を受信すると、受信した識別子で特定される仮想サーバ21を、受信した識別子で特定される物理サーバ2に移行させる、マイグレーションを行う。マイグレーションの方法は、既存の任意の方法でよい。移行指示の出力先は、仮想サーバ管理装置5であってもよい。この場合、仮想サーバ管理装置5が、移行指示に識別子が含まれる仮想サーバ21を、移行指示に識別子が含まれる物理サーバ2に移行させる処理を行えばよい。移行指示の出力先は、例えば、情報処理システム7の管理者の端末であってもよい。情報処理システム7の管理者の端末は、管理者に対して、受信した移行指示の情報を表示してもよい。そして、管理者が、移行指示に識別子が含まれる仮想サーバ21を、移行指示に識別子が含まれる物理サーバ2に移行させる処理を行えばよい。情報処理システム7の管理者の端末は、図示されない。
負荷検出部16は、各物理サーバ2の負荷の大きさを検出する。
冗長度記憶部15は、各物理サーバ2で稼働する各仮想サーバ21の、第2の冗長度を記憶する。冗長度記憶部15は、各仮想サーバ21に対して、仮想サーバ21の識別子と、第2の冗長度を記憶していればよい。
次に、本実施形態の管理装置1の動作について、図面を参照して詳細に説明する。
図4は、本実施形態の管理装置1の動作を表すフローチャートである。
本実施形態の例では、図4の動作の開始時には、各物理サーバ2のリソース記憶部24には、物理サーバ2とストレージ装置3を接続する各経路の異常の有無が、例えば後述のパス情報テーブルとして格納されている。また、各物理サーバ2のリソース記憶部24には、仮想サーバ21が稼働する物理サーバ2と仮想サーバ21が利用するディスク31を含むストレージ装置3の間の経路と、仮想サーバ21の対応付けが可能な情報が格納されている。仮想サーバ21の対応付けが可能な情報は、例えば、後述のリソース情報テーブルである。仮想サーバ21の対応付けが可能な情報は、さらに、後述の仮想ディスク情報テーブルや、ディスク情報テーブルを含んでいてもよい。
図5は、物理サーバ2のリソース記憶部24に格納されている、パス情報テーブルの一例を表す図である。図5のパス情報テーブルは、ストレージID(Identifier)と、経路IDと、パス状態の組を含む。ストレージIDは、ストレージ装置3の識別子である。経路IDは、パス情報テーブルが格納されているリソース記憶部24を含む物理サーバ2と、ストレージ装置3を接続する経路の識別子である。図5の例では、経路IDは、物理サーバ2が含むポート20であるサーバ側ポートの識別子と、ストレージ装置3が含むポート30であるストレージ側ポートの識別子の組で表される。パス状態は、物理サーバ2とストレージ装置3を接続する経路に検出された障害の有無を表す。図5の例では、パス状態が「正常」である場合、その経路に障害が検出されていない。パス状態が「障害」である場合、その経路に障害が検出されている。パス情報テーブルには、ストレージIDの代わりに、ストレージ装置3が含むディスク31の識別子であるディスクIDが、経路ID及びパス状態に対応付けられていてもよい。
図6は、物理サーバ2のリソース記憶部24に格納されている、リソース情報テーブルの一例を表す図である。図6のリソース情報テーブルは、仮想サーバIDとストレージIDの組を含む。図6の例では、仮想サーバIDは、ディスク情報テーブルを記憶するリソース記憶部24を含む物理サーバ2で稼働する、仮想サーバ21の識別子である。ストレージIDは、ストレージIDに対応する仮想サーバIDの仮想サーバ21が使用するディスク31を含む、ストレージ装置3の識別子である。仮想サーバ21が使用するディスク31は、例えば仮想サーバ管理部22により、仮想サーバ21に割り当てられているディスク31である。図6の例では、識別子が仮想サーバA1である仮想サーバ21は、ストレージIDがストレージ1であるストレージ装置3に含まれるディスク31と、ストレージIDがストレージ2であるストレージ装置3に含まれるディスク31を使用する。
リソース情報テーブルは、仮想サーバIDとストレージIDの組の代わりに、仮想サーバIDと、その仮想サーバIDの仮想サーバ21が使用するディスク31のディスクIDの組を含んでいてもよい。その場合、リソース記憶部24は、各ディスク31に対する、ディスク31のディスクIDとディスク31を含むストレージ装置3のストレージIDの組を含む、ディスク情報テーブルを記憶する。ディスク31が仮想ディスクである場合、リソース記憶部24は、仮想ディスクである各ディスク31に対して、ディスク31の仮想ディスクIDと、ディスク31を構成する論理ディスクの論理ディスクIDとの組を含む、論理ディスク情報テーブルを記憶していてもよい。仮想ディスクと論理ディスクの対応は、一対一でなくてよい。複数の仮想ディスクが、一つの論理ディスクによって構成されていても構わない。一つの仮想ディスクは、複数の論理ディスクにより構成されていても構わない。そして、ディスク情報テーブルは、各論理ディスクに対する、論理ディスクの論理ディスクIDと、その論理ディスクを含むストレージ装置3のストレージIDとの組を含んでいてもよい。
図4を参照すると、まず、障害検出部10が、各物理サーバ2と各ストレージ装置3との間の経路の障害を検出する(ステップS101)。
障害検出部10は、既存の任意の方法により、各物理サーバ2と各ストレージ装置3との間の経路の障害を検出する。障害検出部10は、例えば、各物理サーバ2から、経路の障害の発生を受信することにより、各経路の障害を検出すればよい。障害検出部10は、リソース記憶部24からそれぞれのパス状態を読み出し、パス状態が「正常」から「障害」に変化したことを検出することにより、そのパス状態に対応する経路における障害の発生を検出してもよい。その場合、障害検出部10は、読み出したパス状態を記憶すればよい。そして、障害検出部10は、記憶しているパス状態が「正常」であり、リソース記憶部24から新しく読み出したパス状態が「障害」である経路が存在する場合に、経路の障害が発生したと判定すればよい。障害検出部10は、各物理サーバ2格納されるストレージ装置3へのアクセスの履歴から、I/Oエラーを検出することで、経路の障害を検出してもよい。
いずれの経路にも障害が検出されない場合(ステップS102、N)、処理はステップS101に戻る。
いずれかの経路に障害が検出された場合(ステップS102、Y)、抽出部11は、障害の影響を受ける仮想サーバ21を抽出する(ステップS103)。
抽出部11は、例えば、検出された障害の発生により、仮想サーバ21が稼働している物理サーバ2における、仮想サーバ21の第2の冗長度(仮想サーバパス冗長度)が減少した仮想サーバ21を、障害の影響を受ける仮想サーバ21として抽出する。
第2の冗長度は、冗長度算出部12により、たとえば以下のように導出される。冗長度算出部12は、まず、物理サーバ2のリソース記憶部24から、パス情報テーブルを読み出す。冗長度算出部12は、パス情報テーブルから、ストレージ装置3毎に、パス状態が「正常」である経路の数を求める。冗長度算出部12は、ストレージ装置3毎のパス状態が「正常」である経路の数を、その物理サーバ2とストレージ装置3との間の経路の第1の冗長度(物理サーバパス冗長度)にする。
また、冗長度算出部12は、物理サーバ2のリソース記憶部24から、リソース情報テーブルを読み出す。物理サーバ2のリソース記憶部24に仮想ディスク情報テーブルやディスク情報テーブルが格納されている場合、冗長度算出部12は、それらのテーブルも読み出す。そして、冗長度算出部12は、物理サーバ2と、物理サーバ2上で動作する仮想サーバ21が使用するストレージ装置3との間の経路の第1の冗長度を、第2の冗長度にする。仮想サーバ21が複数のストレージ装置3を使用している場合、冗長度算出部12は、例えば、物理サーバ2と、物理サーバ2上で動作する仮想サーバ21が使用するストレージ装置3との間の経路の第1の冗長度の最小値を、第2の冗長度にする。
また、冗長度記憶部15は、前回冗長度算出部12が導出した、仮想サーバ21毎の第2の冗長度を記憶している。
抽出部11は、仮想サーバ21毎に、冗長度記憶部15が記憶する第2の冗長度より、新たに導出した第2の冗長度を比較する。抽出部11は、冗長度記憶部15が記憶する第2の冗長度より、新たに導出した第2の冗長度が小さい仮想サーバ21を、すなわち、第2の冗長度が減少した仮想サーバ21を、検出された障害の影響を受ける仮想サーバ21として抽出する。
障害の影響を受ける仮想サーバ21が抽出されない場合(ステップS104、N)、処理はステップS101に戻る。
障害の影響を受ける仮想サーバ21が抽出された場合(ステップS104、Y)、冗長度算出部12は、各物理サーバ2における、抽出された仮想サーバ21の、第2の冗長度を導出する(ステップS105)。前述のように、第2の冗長度は、仮想サーバパス冗長度とも表記される。
すなわち、冗長度算出部12は、仮想サーバ21が稼働する物理サーバ2における仮想サーバ21の第2の冗長度と、その仮想サーバ21を他の物理サーバ2のそれぞれに移行させた場合のその仮想サーバ21の第2の冗長度を算出する。他の物理サーバ2は、対象の仮想サーバ21が稼働する物理サーバ2以外の物理サーバ2である。抽出された仮想サーバ21が稼働する物理サーバ2における、その抽出された仮想サーバ21の第2の冗長度が、ステップS103において既に導出されている場合、冗長度算出部12は、他の物理サーバ2における、仮想サーバ21の第2の冗長度を導出すればよい。第2の冗長度の算出方法は、ステップS103の説明における第2の冗長度の算出方法と同じである。
管理装置1は、ステップS105とステップS107の動作の間に、ステップS106の動作を行ってもよい。管理装置1は、ステップS106の動作を行わなくてもよい。
ステップS106で、負荷検出部16は、各物理サーバ2の負荷を検出する。負荷検出部16が検出する負荷は、例えば、物理サーバ2のCPU使用率や、物理サーバ2のメモリ使用率や、物理サーバ2のネットワーク使用率などである。負荷検出部16が検出する負荷は、例えば情報処理システム7の設計者により選択された、既存の任意の指標で表された物理サーバ2の負荷でよい。ステップS106の処理が行われない場合、負荷検出部16は存在しなくてよい。
次に、選択部13は、仮想サーバ21の移行先の物理サーバ2を選択する(ステップS107)。
選択部13は、ステップS103で抽出された、障害の影響を受ける仮想サーバ21のそれぞれに対して、移行先の物理サーバ2を抽出する。選択部13は、例えば、ステップS105で算出された、仮想サーバ21の第2の冗長度が最も大きい物理サーバ2を、その仮想サーバ21の移行先の物理サーバ2として選択する。
ステップS106の処理が行われ、各物理サーバ2の負荷が検出されている場合、選択部13は、検出された負荷が所定の閾値を上回る物理サーバ2を選択の対象から除外して、前述のように物理サーバ2を選択すればよい。
次に、送信部14が、ステップS103で抽出された仮想サーバ21の識別子と、その仮想サーバ21の移行先として選択された物理サーバ2の識別子を、その仮想サーバ21が稼働する物理サーバ2に送信する(ステップS108)。送信部14は、ステップS103で抽出された全ての仮想サーバ21に対して、ステップS108の動作を行う。
仮想サーバ21の識別子と、他の物理サーバ2の識別子を受信した物理サーバ2は、受信した識別子で特定される物理サーバ2に、受信した識別子で特定される仮想サーバ21を移行させる。仮想サーバ21の移行方法は、既存の任意の方法でよい。ステップS103で抽出された仮想サーバ21が稼働する物理サーバ2における、その仮想サーバ21の第2の冗長度が、それぞれの物理サーバ2におけるその仮想サーバ21の第2の冗長度の中で最も大きい場合、送信部14はステップS108の動作を行わない。
なお、ステップS108では、必ずしも上述の通りの動作が行われなくてもよい。ステップS108では、移行させる仮想サーバ2を、移行先の物理サーバ2に移行させる処理が行われればよい。例えば、送信部14は、ステップS103で抽出された仮想サーバ21の識別子と、その仮想サーバ21の移行先として選択された物理サーバ2の識別子を、図示されないスーパバイザサーバに送信してもよい。そして、そのスーパバイザサーバが、移行させる仮想サーバ2を、移行先の物理サーバ2に移行させる処理を行ってもよい。あるいは、送信部14は、ステップS103で抽出された仮想サーバ21の識別子と、その仮想サーバ21の移行先として選択された物理サーバ2の識別子を、移行先の物理サーバ2に送信してもよい。そして、移行先の物理サーバ2が、移行させる仮想サーバ2を、移行先の物理サーバ2に移行させる処理を行ってもよい。
以上で説明した本実施形態には、複数の経路でストレージ装置3に接続されている物理サーバ2で動作する仮想サーバ21の、ストレージ装置3と物理サーバ2との間の経路の障害に対する耐性の低下を小さくすることができるという効果がある。
その理由は、選択部13が、障害の影響がある仮想サーバ21として抽出された仮想サーバ21に対して、前述の第2の冗長度が最も大きい物理サーバ2を選択するからである。障害の影響がある仮想サーバ21は、その仮想サーバ21が稼働する物理サーバ2と、その仮想サーバ21が使用するストレージ装置3との間の冗長性が、その障害によって低下した仮想サーバ21である。第2の冗長度が最も大きい物理サーバ2は、その物理サーバ2と、仮想サーバ21が使用するストレージ装置3との間の経路の冗長性が、最も大きい物理サーバ2である。ステップS106で抽出された仮想サーバ21が、第2の冗長度が最も大きい物理サーバ2に移行することにより、その仮想サーバ21が稼働する物理サーバ21とその仮想サーバ21が使用するストレージ装置3の間の経路の冗長性の低下は、小さくなる。
(構成例)
次に、第1の実施形態の情報処理システム7の構成例について、図面を参照して詳細に説明する。
図7は、本構成例の計算機システムの構成を表す図である。
図7各構成要素と、図1及び図2の各構成要素の対応は、以下の通りである。
計算機システムが、情報処理システム7に対応する。物理サーバ100は、物理サーバ2に対応する。ストレージ装置400は、ストレージ装置3に対応する。管理サーバ300は、管理装置1及び仮想サーバ管理装置5に対応する。管理ネットワーク600は、管理ネットワーク4に対応する。アクセスパス500は、物理サーバ2とストレージ装置3の間の経路である。仮想サーバ200は、仮想サーバ21に対応する。
物理サーバ100の図示されないプロセッサは、パス管理プログラム120を実行することにより、パス管理部23として動作する。ポート110は、ポート20に対応する。以下では、各プログラムを実行するプロセッサの動作を、そのプログラムの動作として説明される。
仮想ディスク430は、ディスク31に対応する。仮想ディスク430は、論理ディスク420上に構築される。ポート410は、ポート30に対応する。
管理サーバ300の図示されないプロセッサは、リソース管理プログラム310を実行することにより、仮想サーバ管理部22及び管理装置1の、冗長度記憶部15を除く各部として動作する。管理サーバ300の図示されないメモリは、冗長度記憶部15として動作する。また、管理サーバ300の図示されないプロセッサが、リソース管理プログラム310を実行することにより、管理サーバ300は、仮想サーバ管理装置5として動作する。
本構成例における計算機システムは、2つ以上の物理サーバ100と、1つの管理サーバ300、2つ以上のストレージ装置400で構成されている。
物理サーバ100は、2つ以上のポート110を含む。物理サーバ100では、1つのパス管理プログラム120、1つの仮想サーバ管理プログラム130、および、1つ以上の仮想サーバ200が動作している。物理サーバ100は、パス管理プログラム120が使用する情報として、パス情報テーブル140を含む。また、物理サーバ100は、仮想サーバ管理プログラム130が使用する情報として、リソース情報テーブル150、および、仮想ディスク情報テーブル160を含む。パス情報テーブル140とリソース情報テーブル150と仮想ディスク情報テーブル160は、リソース記憶部24に格納されている。
管理サーバ300は、図示されないプロセッサにより、リソース管理プログラム310を実行している。管理サーバ300は、リソース管理プログラム310が使用する情報を含む、構成管理テーブル320が格納された構成記憶部300を含む。
ストレージ装置400は、2つ以上のポート410と、1つ以上の論理ディスク420を有している。論理ディスク420は、論理ディスク420上の記憶領域内に任意の個数の仮想ディスク430を含むことができる。
ある物理サーバ100上の1つのポート110から、あるストレージ装置400上の1つのポート410へ結ぶ経路は、アクセスパス500と呼ばれる。
本構成例における計算機システムでは、それぞれの物理サーバ100から、それぞれのストレージ装置400への、アクセスパス500は2つ以上存在する。1つのアクセスパス500は、1つの物理サーバ100上にあるポート110から、1つのストレージ装置300上のポート310への経路を指す。
アクセスパス500の実装方法の一例として、FCケーブルを使用し、物理サーバに実装されたFC HBAから、FCスイッチを経由し、ストレージ装置のFCポートへFCプロトコルを用いて接続する方法が挙げられる。また、アクセスパス500の実装方法の一例として、IPネットワークで、iSCSIプロトコルを用いて接続する方法などが挙げられる。本構成例では、アクセスパス500は、FCプロトコルを用いて接続する方法を用いて実装される。
また、本構成例における計算機システムでは、すべての物理サーバ100と管理サーバ300は、互いに管理ネットワーク600で接続されている。
次に、物理サーバ100上で動作するプログラムについて説明する。
パス管理プログラム120は、物理サーバ100からストレージ装置400上の論理ディスク420へのアクセスパス500を管理するプログラムである。パス管理プログラム120は、あるアクセスパス上で障害が発生したときに、他のアクセスパスへフェイルオーバすることでアクセスパスの冗長化を実現する。また、パス管理プログラム120は、複数のアクセスパスへI/Oを発行することで、負荷分散を実現する。
仮想サーバ管理プログラム130は、物理サーバ100上で動作する仮想サーバ200を管理するプログラムである。仮想サーバ管理プログラム130は、それぞれの仮想サーバ200がどの仮想ディスク430を使用するかを管理する。仮想サーバ管理プログラム130は、管理サーバ300上のリソース管理プログラム310からの命令により、ある仮想サーバをほかの物理サーバに移行する。また、仮想サーバ管理プログラム130は、ある仮想ディスクを別のストレージ装置の論理ディスクへ移行してもよい。
管理サーバ300上で動作するリソース管理プログラム310は、それぞれの物理サーバ上100にあるパス管理プログラム120、および、仮想サーバ管理プログラム130と通信し、現在のアクセスパスの状態を取得する。また、リソース管理プログラム310は、仮想サーバ管理プログラム130へ命令を発行することにより、ある仮想サーバをほかの物理サーバへ移行させることや、ある仮想ディスクをほかの論理ディスクへ移行させる。
次に、それぞれのプログラムが使用するデータについて説明する。
図8は、本構成例のパス情報テーブル140の一例を表す図である。
図8に示す、パス情報テーブル140は、アクセスパス500の位置情報と状態を含むテーブルである。パス情報テーブル140のエントリは、論理ディスクID、サーバ側ポートID、ストレージ側ポートID、および、パス状態である。論理ディスクIDは、論理ディスクの識別子である。サーバ側ポートIDは、ポート110の識別子である。ストレージ側ポートIDは、ポート430の識別子である。パス状態は正常/障害のいずれかの状態を持つ。
図9は、本構成例のリソース情報テーブル150の一例を表す図である。
図9に示す、リソース情報テーブル150は、仮想サーバ200と、仮想サーバ200に割り当てられている仮想ディスク430の対応を表す。リソース情報テーブル150は、エントリとして、仮想サーバ200の識別子である仮想サーバIDと、仮想ディスク430の識別子である仮想ディスクIDを含む。
図10は、本構成例の仮想ディスク情報テーブル160の一例を表す図である。
図10に示す、仮想ディスク情報テーブル160は、仮想ディスクと、その仮想ディスクがある論理ディスクの対応を示す。仮想ディスク情報テーブル160は、エントリとして、仮想ディスクIDと論理ディスクIDを含む。
図11は、本構成例の構成情報テーブル320の一例を表す図である。
図11に示す、構成情報テーブル320は、仮想サーバと、その仮想サーバが配置されている物理サーバの対応を表す。構成情報テーブル320は、エントリとして、仮想サーバIDと物理サーバIDを含む。構成管理テーブル320は、構成記憶部330に格納される。
次に、本構成例の動作について図面を参照して説明する。
まず、各テーブルの更新動作について説明する。
パス情報テーブル140の初期値は空のテーブルである。パス管理プログラム120は、物理サーバ100が、あるアクセスパス500を経由し、あるストレージ装置400へ接続されたとき、接続先の論理ディスクと420と、アクセスパス500の位置情報を検知する。すなわち、パス管理プログラム120は、接続を行ったアクセスパス500の両端にあるサーバ側ポート110とストレージ側ポート410を検知する。パス管理プログラム120は、パス情報テーブル140の対応するエントリに、検知された情報を追加する。
パス管理プログラム120は、アクセスパス500を経由した、論理ディスク420へのI/Oに対してエラー応答を検出したとき、そのアクセスパスを閉塞させる。そして、パス管理プログラム120は、ほかのアクセスパス500へI/Oを再発行することで、I/Oを継続させる。この操作はパスフェイルオーバと呼ばれる。このとき、パス管理プログラム120は、パス情報テーブル140上で、エラーを検出した論理ディスク420、サーバ側ポート110、および、ストレージ側ポート310に一致するエントリのパス状態を「障害」に更新する。
また、結線変更によるアクセスパスの変更や、論理ディスクの削除などによる構成変更に伴い、ある論理ディスク420へあるアクセスパス500経由でのアクセスができなくなることがある。その場合、パス管理プログラム120は、対応するエントリをパス情報テーブル140から削除する。
リソース情報テーブル150の初期値は空のテーブルである。リソース管理プログラム310は、仮想サーバ200に、その仮想サーバ200が使用する仮想ディスク430を割り当てる。そのとき、リソース管理プログラム310は、割り当ての対象の仮想サーバ200が稼働する、物理サーバ100上の仮想サーバ管理プログラム130に、割り当て命令を送信する。割り当て命令を受信した仮想サーバ管理プログラム130は、仮想サーバ200への仮想ディスク430の割り当てを行い、リソース情報テーブル150の対応するエントリに情報を追加する。
リソース管理プログラム310は、また、仮想サーバ200が使用する仮想ディスク430の割り当てを解除する。このとき、物理サーバ100上の仮想サーバ管理プログラム130に割り当て解除命令を送信する。解除命令を受信した仮想サーバ管理プログラム130は、仮想サーバ200への仮想ディスク430の割り当てを解除し、リソース情報テーブル150の対応するエントリから情報を削除する。
仮想ディスク情報テーブル160の初期値は空のテーブルである。リソース管理プログラム310は、仮想ディスク430の配置先として、1つの論理ディスク420を指定する。そのとき、リソース管理プログラム310は、その論理ディスク420へアクセス可能な、物理サーバ100上の仮想サーバ管理プログラム130に配置命令を送信する。仮想サーバ管理プログラム130は、その論理ディスク420への仮想ディスク430の配置を行い、仮想ディスク情報テーブル160の対応するエントリに情報を追加する。
構成情報テーブル320の初期値は空のテーブルである。リソース管理プログラム310は、ある仮想サーバ200を1つの物理サーバ100に割り当てる。そのとき、リソース管理プログラム310は、構成情報テーブル320の対応するエントリに情報を追加する。
リソース管理プログラム310は、ある仮想ディスク430の割当先を、ある論理ディスク420からほかの論理ディスク420へ移行する。この操作はストレージマイグレーションと呼ばれる。ストレージマイグレーションが完了したとき、リソース管理プログラム310は、仮想ディスク情報テーブル160の、移行が行われた仮想ディスク430に対応するエントリの論理ディスク162を更新する。
リソース管理プログラム310は、また、ある仮想サーバ200割当先を、ある物理サーバ100からほかの物理サーバ100へ移行する。この操作はマイグレーションと呼ばれる。マイグレーションが完了したとき、リソース管理プログラム310は、構成情報テーブル320の、移行が行われた仮想サーバ200に対応するエントリの物理サーバ312を更新する。また、リソース管理プログラム310は、仮想サーバ200の移行に伴い、移行元の物理サーバ100上のリソース情報テーブル150と仮想ディスク情報テーブル160から、移行が行われた仮想サーバ200に対応するエントリを削除する。さらに、リソース管理プログラム310は、移行先の物理サーバ100上のリソース情報テーブル150と仮想ディスク情報テーブル160に、移行が行われた仮想サーバ200に対応するエントリを追加する。
次に、それぞれの仮想サーバ200が使用している論理ディスク420に対するパス冗長度の求め方を説明する。
リソース管理プログラム310は、ある仮想サーバ200に対して、構成情報テーブル320の対応するエントリを探すことにより、その仮想サーバ200の割当先の物理サーバ100を特定する。
リソース管理プログラム310は、通信ネットワーク600を用いて、特定された物理サーバ100上のパス情報テーブル140、リソース情報テーブル150、および、仮想ディスク情報テーブル160を参照する。リソース管理プログラム310は、まず、リソース情報テーブル150から当該仮想サーバ200に対応するエントリを検索することにより、対象の仮想サーバが使用している仮想ディスク430を特定する。
次に、リソース管理プログラム310は、仮想ディスク情報テーブル160から、特定した仮想ディスク430に該当するエントリを検索することにより、当該仮想ディスク430が配置されている論理ディスク420を特定する。
さらに、リソース管理プログラム310は、パス情報テーブル140から、特定した論理ディスク420に該当するエントリを検索し、パス状態144が「正常」であるエントリ数を求める。リソース管理プログラム310は、このエントリ数を、仮想サーバ200が使用している論理ディスク420に対する仮想サーバパス冗長度とする。
次に、それぞれの物理サーバ100からアクセスできる論理ディスク420のパス冗長度の求め方を説明する。
リソース管理プログラム310は、通信ネットワーク600を用いて、パス冗長度の算出の対象である物理サーバ100上のパス情報テーブル140を参照する。
リソース管理プログラム310は、パス情報テーブル140から当該論理ディスク420と一致するエントリを検索し、パス状態144が「正常」であるエントリ数を求める。リソース管理プログラム310は、このエントリ数を、物理サーバ100と論理ディスク420との間の経路の冗長性の高さを表す、物理サーバパス冗長度にする。
次に、アクセスパス障害が発生したときの、仮想サーバ移行の動作について説明する。
はじめに、アクセスパス障害が発生したときに、どの仮想サーバが影響を受けるかを割り出す方法を説明する。
パス管理プログラム120は、アクセスパス障害を検出したとき、前述のパスフェイルオーバを実施し、パス情報テーブル140のうち、障害が発生したアクセスパス500のパス状態144を「障害」とする。そのあとで、パス管理プログラム120は、管理サーバ300上のリソース管理プログラム310に、通信ネットワーク600を通して、障害が発生したことを通知する。
障害発生の通知を受けたリソース管理プログラム310は、前述のパス冗長度の求め方の手順に従い、物理サーバ100上のそれぞれの仮想サーバ200が使用している論理ディスクのパス冗長度を求める。障害発生前後でパス冗長度の値が低下した仮想サーバ200が、障害の影響を受けている仮想サーバ200である。
次に、影響を受ける仮想サーバの移行先を求める方法を説明する。
リソース管理プログラム310は、前述の方法で、それぞれの物理サーバ100と論理ディスク420との間のパス冗長度を求める。リソース管理プログラム310は、仮想サーバが移行可能な物理サーバ100の中で、移行先のパス冗長度が最も高い物理サーバ100を選べばよい。
リソース管理プログラム310による、移行可能な物理サーバ100を特定する方法は、仮想サーバを動作させるために十分なリソースがある物理サーバ100を移行可能と判定することなど、既存の技術による方法でよい。
パス冗長度が最も高い物理サーバ100が複数ある場合、パス冗長度が最も高い複数の物理サーバ100から移行先の物理サーバ100を選択する方法は既存の任意の方法でよい。移行先の選択方法の一例として、移行にかかる時間が小さい物理サーバ100を選択することや、移行後のI/O負荷が所定の閾値を越えない物理サーバ100などが挙げられる。
次に、本構成例での移行先物理サーバの決定動作について、具体例を用いて説明する。
図12は、本構成例の計算機システムの、さらに具体的な構成の一例を表す図である。
図12を参照すると、本構成例の計算機システムは、2つの物理サーバ(物理サーバ100aと物理サーバ100b)と、1つの管理サーバ(管理サーバ300a)と、2つのストレージ装置(ストレージ装置400aとストレージ装置400b)を含む。
物理サーバ100aは、2つのポート(ポート110a1とポート110a2)を含む。物理サーバ100aでは、パス管理プログラム120a、仮想サーバ管理プログラム130aと、1つの仮想サーバ200aが動作している。物理サーバ100aのリソース記憶部24には、パス情報テーブル140a、リソース情報テーブル150a、および、仮想ディスク情報テーブル160aが格納されている。
物理サーバ100bも同様に、2つのポート(ポート110b1とポート110b2)を含む。物理サーバ100bでは、パス管理プログラム120b、仮想サーバ管理プログラム130bと、1つの仮想サーバ200bが動作している。物理サーバ100bのリソース記憶部24には、パス情報テーブル140b、リソース情報テーブル150b、および、仮想ディスク情報テーブル160bが格納されている。
管理サーバ300aでは、リソース管理プログラム310aが動作している。管理サーバ300aの構成記憶部300には、仮想サーバ情報テーブル320aが格納されている。
ストレージ装置400aは、2つのポート(ポート410a1とポート410a2)と、1つの論理ディスク420aとを含む。
ストレージ装置400bも同様に、2つのポート(ポート410b1とポート410b2)と、1つの論理ディスク420bとを含む。
物理サーバ100a、および、100bと、ストレージ装置400aおよび、400bとは、図6に示されるように、2つのFCスイッチ(FCスイッチ520a及びFCスイッチ520b)を経由して、接続されている。これらの装置を接続するのは、8つのFCケーブル510a1、510a2、510b1、510b2、510c1、510c2、510c2、510d1、および、510d2である。
物理サーバ100a、および、100bは、それぞれ、論理ディスク420a、および、420bにアクセス可能である。
物理サーバ100aと、物理サーバ100bと、管理サーバ300aとは、通信ネットワーク600aで接続されている。
仮想サーバ200aは、仮想ディスク430aを使用している。仮想ディスク430aは、ストレージ装置400aが含む、論理ディスク420a上に配置されている。
仮想サーバ200bは、仮想ディスク430bを使用している。仮想ディスク430bは、ストレージ装置400bが含む、論理ディスク420b上に配置されている。
この例では、仮想サーバ200a、および、200bは、それぞれ、物理サーバ100a、および、100bのどちらにも配置可能である。また、物理サーバ100a、および、100bは、それぞれ、仮想サーバ200a、および、200bの両方を同時に動作させることが可能である。また、ストレージ装置400a、および、400bはストレージマイグレーションに対応していない。仮想ディスク430a、および、430bを、ストレージマイグレーションを用いてほかの論理ディスクに移動することはできない。
図13及び図16は、本構成例の具体例におけるパス情報テーブルの例を表す図である。
図14及び図17は、本構成例の具体例におけるリソース情報テーブルの例を表す図である。
図15及び図18は、本構成例の具体例における仮想ディスク情報テーブルの例を表す図である。
図12に示される接続構成の物理サーバ100aには、それぞれ、図13、図14、および、図15で表されるパス情報テーブル140a、リソース情報テーブル150a、および、仮想ディスク情報テーブル160aが格納されている。
また、図12に示される接続構成での物理サーバ100bには、ぞれぞれ、図10、図11、および、図12で表される、パス情報テーブル140b、リソース情報テーブル150b、および、仮想ディスク情報テーブル160bが格納されている。
図19は、図12の構成の例において、管理サーバ300aに格納されている、構成情報テーブル320aの例を表す図である。
リソース管理プログラム310aは、図13から図19のテーブルから、前述の方法で、各仮想サーバの仮想サーバパス冗長度と、物理サーバパス冗長度を計算する。
図20は、各仮想サーバの仮想サーバパス冗長度の例を表す図である。図20は、リソース管理プログラム310aが、図13から図19のテーブルから、前述の方法で計算した、各仮想サーバの仮想サーバパス冗長度を表す。
図21は、各物理サーバの物理サーバパス冗長度の例を表す図である。図21は、リソース管理プログラム310aが、図13から図19のテーブルから、前述の方法で計算した物理サーバパス冗長度を表す。
物理サーバ100a上のポート110a1とFCスイッチ520aを結ぶ経路上で障害が発生した場合、計算機システムの各装置の各プログラムは、以下のように動作する。
物理サーバ100aで動作している、パス管理プログラム120aは、上述の経路で発生した障害を検出し、パス情報テーブル140aを更新する。
図22は、障害発生後のパス情報テーブル140の一例を表す図である。上述の障害の検出後、パス管理プログラム120aは、パス情報テーブル140を図22のように更新する。
次に、リソース管理プログラム310aは、更新後のパス情報テーブル140を用いて、仮想サーバパス冗長度と、物理サーバパス冗長度を再計算する。
図23は、障害発生後に再計算された仮想サーバパス冗長度の一例を表す図である。図23は、更新後のパス情報テーブル140を用いて、パス管理プログラム120aが再計算した仮想サーバパス冗長度を表す。
図24は、障害発生後に再計算された物理サーバパス冗長度の一例を表す図である。図24は、更新後のパス情報テーブル140を用いて、パス管理プログラム120aが再計算した物理サーバパス冗長度を表す。
次に、リソース管理プログラム310aは、障害の影響を受ける仮想サーバを特定する。リソース管理プログラム310aは、障害検出前の仮想サーバパス冗長度と、障害検出後の仮想サーバパス冗長度を比較し、使用している論理ディスクの仮想サーバパス冗長度が減少している仮想サーバを抽出する。図21の障害検出前の仮想サーバパス冗長度と、図23の障害検出後の仮想サーバパス冗長度を比較すると、仮想サーバ200aが使用している論理ディスク420aの冗長度が4から2に減少している。リソース管理プログラム310aは、障害の影響を受けている仮想サーバとして、仮想サーバ200aを抽出する。
次に、リソース管理プログラム310aは、仮想サーバ200aの移行先の物理サーバを決定する。リソース管理プログラム310aは、仮想サーバ200aを移行させることができるサーバの中で、仮想サーバ200aが使用する論理ディスクへのパスの冗長度が最も高い物理サーバを選択する。そして、リソース管理プログラム310aは、選択されたサーバを、仮想サーバ200aの移行先の物理サーバを決定する。
図24の障害発生後の物理サーバパス冗長度では、物理サーバ100aと、仮想サーバ200aが使用している論理ディスク420aとの間のパスの、物理サーバパス冗長度は2である。図21と図24を比較すると、仮想サーバ200aが使用している論理ディスク420aとの間のパスの、物理サーバパス冗長度は、障害発生後、4から2に減少している。一方、物理サーバ100bと論理ディスク420aとの間のパスの物理サーバパス冗長度は4である。物理サーバ100bと論理ディスク420aとの間のパスの物理サーバパス冗長度は、障害発生後も4のままである。リソース管理プログラム310aは、物理サーバ100bを選択する。
仮想サーバ200aは、物理サーバ100bに移行させても動作することが可能である。また、物理サーバ100bは、仮想サーバ200aと200bの両方を同時に動作させることができる。従って、仮想サーバ200aを、物理サーバ100bに移行させることは可能である。リソース管理プログラム310aは、仮想サーバ200aの移行先を、物理サーバ100bに決定する。
リソース管理プログラム310aは、仮想サーバ200aを物理サーバ100aから100bに移行させる。
図25は、移行後の仮想サーバパス冗長度の一例を表す図である。図25は、リソース管理プログラム310aは、仮想サーバ200aを物理サーバ100aから100bに移行させた後の仮想サーバパス冗長度を表す。図24と図25を比較すると、移行後の仮想サーバ200aの仮想サーバパス冗長度は、移行前より増加している。
本構成例を、各仮想サーバが、ストレージ装置に含まれる論理サーバを直接アクセスするように変形することも可能である。
図26は、本構成例がそのように変形された変形例の計算機システムの構成を表す図である。本変形例の構成は、以下の点を除き、図7の構成と同じである。本変形例の計算機システムでは、仮想サーバ200がパス管理テーブル220を含んでいてもよい。また、仮想サーバ200上で、パス管理プログラム210が動作していてもよい。パス管理プログラム210は、上述のパス管理プログラム120と同様の動作を行う。パス管理プログラム210は、パス管理テーブル140ではなく、仮想サーバ200が含むパス管理テーブル220を更新する。仮想サーバパス冗長度を計算する際、リソース管理プログラム310は、物理サーバ100上のパス情報テーブル140に加え、仮想サーバ100上のパス情報テーブル220の情報を読み出す。
また、第1の実施形態や構成例では、管理装置1や管理サーバ300は、実際の障害発生をトリガーとして、計算機資源の移行先を決定する。一方、管理装置1や管理サーバ300は、実際には障害が発生していない状態で、さまざまな経路で障害が発生した場合のパス冗長度を算出し、障害が発生した場合の仮想サーバ200の移行の計画を作成することも可能である。
次に、本発明の第2の実施形態について、図面を参照して詳細に説明する。
図27は、本実施形態の管理装置1の構成を表すブロック図である。
図27を参照すると、本実施形態の管理装置1は、それぞれ複数の経路でストレージ装置3に接続され、仮想サーバ21を稼働させる複数の物理サーバ2から、いずれかの前記経路の障害を検出する障害検出部10と、前記経路の障害が検出された前記物理サーバ2である故障サーバで稼働する前記仮想サーバ21を抽出する抽出部11と、前記複数の物理サーバ2の各々に対して、当該物理サーバ2と前記ストレージ装置3との間の経路の冗長性の高さを表す冗長度を算出する冗長度算出部12と、前記冗長度が高い前記物理サーバ2を選択する選択部13と、抽出された前記仮想サーバ21の識別子と、選択された前記物理サーバ2の識別子を含む移行指示情報を送信する送信部14とを含む。
前述のように、物理サーバ2は、単に、サーバとも表記される。仮想サーバ21は、仮想計算機とも表記される。
以上で説明した本実施形態には、第1の実施形態と同じ効果がある。その理由は、第1の実施形態における理由と同じである。
管理装置1、物理サーバ2、ストレージ装置3は、それぞれ、コンピュータ及びコンピュータを制御するプログラム、専用のハードウェア、又は、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することができる。
障害検出部10、抽出部11、冗長度算出部12、選択部13、送信部14、負荷検出部16、仮想サーバ21、仮想サーバ管理部22、パス管理部23は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。また、冗長度記憶部15、リソース記憶部24、ディスク31は、コンピュータが含むメモリやハードディスク装置により実現することができる。あるいは、障害検出部10、抽出部11、冗長度算出部12、選択部13、送信部14、冗長度記憶部15、負荷検出部16、仮想サーバ21、仮想サーバ管理部22、パス管理部23、リソース記憶部24、ディスク31の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 管理装置
2、100、100a、100b 物理サーバ
3、400、400a、400b ストレージ装置
4、600 管理ネットワーク
5 仮想サーバ管理装置
6 スイッチ
7 情報処理システム
10 障害検出部
11 抽出部
12 冗長度算出部
13 選択部
14 送信部
15 冗長度記憶部
16 負荷検出部
20、30、110、110a1、110a2、110b1、110b2、410410a1、410a2、410b1、410b2 ポート
21、200 仮想サーバ
22 仮想サーバ管理部
23 パス管理部
24 リソース記憶部
31 ディスク
120、120a、120b、210 パス管理プログラム
130、130a、130b 仮想サーバ管理プログラム
140、140a、140b、220 パス情報テーブル
150、150a、150b リソース情報テーブル
160、160a、160b 仮想ディスク情報テーブル
300、300a 管理サーバ
310、310a リソース管理プログラム
320、320a 構成情報テーブル
330 構成記憶部
420、420a、420b 論理ディスク
430、430a、430b 仮想ディスク
500 アクセスパス
510a1、510a2、510b1、510b2、510c1、510c2、510d1、510d2 FCケーブル
520、520a、520b FCスイッチ

Claims (10)

  1. それぞれ複数の経路でストレージ装置に接続され、仮想計算機を稼働させる複数のサーバの各々に対して、当該サーバと前記ストレージ装置との間の経路の冗長性の高さを表す冗長度を算出する冗長度算出手段と
    前記経路の障害を検出する障害検出手段と、
    前記経路の障害によって前記冗長度が低下した前記サーバを特定し、当該サーバで稼働する前記仮想計算機を抽出する抽出手段と、
    前記複数のサーバのうち、前記冗長度が、前記冗長度が低下した前記サーバの前記冗長度よりも高い前記サーバを選択する選択手段と、
    抽出された前記仮想計算機の識別子と、選択された前記サーバの識別子を含む移行指示情報を送信する送信手段と
    を含む管理装置。
  2. 前記複数のサーバは、それぞれ複数の経路で、複数の前記ストレージ装置のいずれか1個以上に接続され、
    前記冗長度算出手段は、前記サーバと、前記サーバで稼働する前記仮想計算機が使用する前記ストレージ装置の各々との間の、冗長性の高さを表す値を算出し、前記値の最小値を、当該サーバの前記冗長度として算出し、
    前記抽出手段は、前記複数のサーバのそれぞれにつき、前記冗長度が前記経路の障害により低下するか否かを判定し、前記冗長度が前記経路の障害により低下すると判定された前記仮想計算機を抽出し、
    前記選択手段は、前記複数のサーバのうち抽出された前記仮想計算機を稼働させた場合の前記冗長度が、前記冗長度が低下した前記サーバの前記冗長度よも高くなる前記サーバを選択する
    請求項1に記載の管理装置。
  3. 前記複数のサーバの各々の負荷を検出する負荷検出手段を備え、
    前記選択手段は、検出された前記負荷が所定の閾値より小さい前記複数のサーバの中から前記サーバを選択する
    請求項1又は2に記載の管理装置。
  4. 前記サーバと、前記ストレージ装置と、請求項1から3のいずれか一項に記載の管理装置と
    を含む情報処理システム。
  5. それぞれ複数の経路でストレージ装置に接続され、仮想計算機を稼働させる複数のサーバの各々に対して、当該サーバと前記ストレージ装置との間の経路の冗長性の高さを表す冗長度を算出し、
    前記経路の障害を検出し、
    前記経路の障害によって前記冗長度が低下した前記サーバを特定し、当該サーバで稼働する前記仮想計算機を抽出し、
    前記複数のサーバのうち、前記冗長度が、前記冗長度が低下した前記サーバの前記冗長度よりも高い前記サーバを選択し、
    抽出された前記仮想計算機の識別子と、選択された前記サーバの識別子を含む移行指示情報を送信する
    管理方法。
  6. 前記複数のサーバを、それぞれ複数の経路で、複数の前記ストレージ装置のいずれか1個以上に接続し、
    前記サーバと、前記サーバで稼働する前記仮想計算機が使用する前記ストレージ装置の各々との間の、冗長性の高さを表す値を算出し、前記値の最小値を、当該サーバの前記冗長度として算出し、
    前記複数のサーバのそれぞれにつき、前記冗長度が前記経路の障害により低下するか否かを判定し、
    前記冗長度が前記経路の障害により低下すると判定された前記仮想計算機を抽出し、
    前記複数のサーバのうち抽出された前記仮想計算機を稼働させた場合の前記冗長度が、前記冗長度が低下した前記サーバの前記冗長度よも高くなる前記サーバを選択する
    請求項に記載の管理方法。
  7. 前記複数のサーバの各々の負荷を検出し、
    検出された前記負荷が所定の閾値より小さい前記複数のサーバの中から前記サーバを選択する
    請求項又はに記載の管理方法。
  8. コンピュータを、
    それぞれ複数の経路でストレージ装置に接続され、仮想計算機を稼働させる複数のサーバの各々に対して、当該サーバと前記ストレージ装置との間の経路の冗長性の高さを表す冗長度を算出する冗長度算出手段と、
    前記経路の障害を検出する障害検出手段と、
    前記経路の障害が検出された前記サーバである故障サーバで稼働する前記仮想計算機を抽出する抽出手段と、
    前記経路の障害によって前記冗長度が低下した前記サーバを特定し、当該サーバで稼働する前記仮想計算機を抽出する抽出手段と、
    前記複数のサーバのうち、前記冗長度が、前記冗長度が低下した前記サーバの前記冗長度よりも高い前記サーバを選択する選択手段と、
    抽出された前記仮想計算機の識別子と、選択された前記サーバの識別子を含む移行指示情報を送信する送信手段と
    して動作させる管理プログラム。
  9. 前記複数のサーバは、それぞれ複数の経路で、複数の前記ストレージ装置のいずれか1個以上に接続され
    コンピュータを、
    前記サーバと、前記サーバで稼働する前記仮想計算機が使用する前記ストレージ装置の各々との間の、冗長性の高さを表す値を算出し、前記値の最小値を、当該サーバの前記冗長度として算出する前記冗長度算出手段と、
    前記経路の障害を検出する前記障害検出手段と、
    前記複数のサーバのそれぞれにつき、前記冗長度が前記経路の障害により低下するか否かを判定し、前記冗長度が前記経路の障害により低下すると判定された前記仮想計算機を抽出する前記抽出手段と、
    前記複数のサーバのうち抽出された前記仮想計算機を稼働させた場合の前記冗長度が、前記冗長度が低下した前記サーバの前記冗長度よも高くなる前記サーバを選択する前記選択手段と
    して動作させる請求項8に記載の管理プログラム。
  10. コンピュータを、
    前記複数のサーバの各々の負荷を検出する負荷検出手段と、
    検出された前記負荷が所定の閾値より小さい前記複数のサーバの中から前記サーバを選択する前記選択手段と
    して動作させる請求項8又は9に記載の管理プログラム。
JP2013030128A 2013-02-19 2013-02-19 管理装置、管理方法、及び管理プログラム Active JP6179119B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013030128A JP6179119B2 (ja) 2013-02-19 2013-02-19 管理装置、管理方法、及び管理プログラム
US14/162,405 US9300530B2 (en) 2013-02-19 2014-01-23 Management device, management method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013030128A JP6179119B2 (ja) 2013-02-19 2013-02-19 管理装置、管理方法、及び管理プログラム

Publications (2)

Publication Number Publication Date
JP2014160329A JP2014160329A (ja) 2014-09-04
JP6179119B2 true JP6179119B2 (ja) 2017-08-16

Family

ID=51352198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013030128A Active JP6179119B2 (ja) 2013-02-19 2013-02-19 管理装置、管理方法、及び管理プログラム

Country Status (2)

Country Link
US (1) US9300530B2 (ja)
JP (1) JP6179119B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018387A (ja) * 2014-07-08 2016-02-01 富士通株式会社 情報処理システム、制御方法及び制御プログラム
US9891699B2 (en) 2014-12-18 2018-02-13 Vmware, Inc. System and method for performing distributed power management without power cycling hosts
WO2016121005A1 (ja) * 2015-01-27 2016-08-04 株式会社日立製作所 管理計算機および計算機システムの管理方法
US10031794B1 (en) * 2015-06-30 2018-07-24 EMC IP Holding Company, LLC Message generation system and method
CN106648909A (zh) * 2016-10-13 2017-05-10 华为技术有限公司 一种磁盘锁的管理方法、装置和系统
JP7537137B2 (ja) 2020-06-18 2024-08-21 富士通株式会社 中継装置、情報処理プログラム、情報処理方法及びストレージシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6367029B1 (en) * 1998-11-03 2002-04-02 Sun Microsystems, Inc. File server system tolerant to software and hardware failures
US6782490B2 (en) * 1999-03-17 2004-08-24 At&T Corp. Network-based service for the repair of IP multicast sessions
US6944785B2 (en) * 2001-07-23 2005-09-13 Network Appliance, Inc. High-availability cluster virtual server system
US7287186B2 (en) * 2003-06-02 2007-10-23 Surgient Inc. Shared nothing virtual cluster
JP4733399B2 (ja) * 2005-01-28 2011-07-27 株式会社日立製作所 計算機システム、計算機、ストレージ装置及び管理端末
US8209409B2 (en) * 2007-04-09 2012-06-26 Hewlett-Packard Development Company, L.P. Diagnosis of a storage area network
US7836332B2 (en) * 2007-07-18 2010-11-16 Hitachi, Ltd. Method and apparatus for managing virtual ports on storage systems
US8161222B1 (en) * 2007-07-23 2012-04-17 Augmentix Corporation Method and system and apparatus for use in data storage
JP2009116380A (ja) * 2007-11-01 2009-05-28 Nec Corp 仮想サーバ移動制御装置、仮想サーバ移動制御方法およびプログラム
US8719624B2 (en) * 2007-12-26 2014-05-06 Nec Corporation Redundant configuration management system and method
US9141490B2 (en) * 2007-12-26 2015-09-22 Nec Corporation Graceful degradation designing system and method
JP2009252204A (ja) 2008-04-11 2009-10-29 Hitachi Ltd 計算機の運用管理システム及び運用管理方法
JP4659062B2 (ja) * 2008-04-23 2011-03-30 株式会社日立製作所 フェイルオーバ方法、プログラム、管理サーバおよびフェイルオーバシステム
JP2010257274A (ja) * 2009-04-27 2010-11-11 Hitachi Ltd 仮想化環境におけるストレージ管理システム及びストレージ管理方法
US8386838B1 (en) * 2009-12-01 2013-02-26 Netapp, Inc. High-availability of a storage system in a hierarchical virtual server environment
JP5589218B2 (ja) 2010-04-27 2014-09-17 株式会社日立製作所 計算機システム及び管理計算機
US9811662B2 (en) * 2010-05-03 2017-11-07 Panzura, Inc. Performing anti-virus checks for a distributed filesystem
JP5305040B2 (ja) * 2010-05-28 2013-10-02 株式会社日立製作所 サーバ計算機の切替方法、管理計算機及びプログラム

Also Published As

Publication number Publication date
US20140237306A1 (en) 2014-08-21
JP2014160329A (ja) 2014-09-04
US9300530B2 (en) 2016-03-29

Similar Documents

Publication Publication Date Title
US8825851B2 (en) Management of a virtual machine in a storage area network environment
JP6179119B2 (ja) 管理装置、管理方法、及び管理プログラム
US9137148B2 (en) Information processing system and information processing apparatus
US7921325B2 (en) Node management device and method
US9535631B2 (en) Multi-path management
US8964527B2 (en) Maintaining a communication path from a host to a storage subsystem in a network
US9348724B2 (en) Method and apparatus for maintaining a workload service level on a converged platform
US20130246705A1 (en) Balancing logical units in storage systems
JP2011128967A (ja) 仮想計算機の移動方法、仮想計算機システム及びプログラム
US8732356B2 (en) Storage system, and access path state update method
US20150074251A1 (en) Computer system, resource management method, and management computer
JP6190468B2 (ja) 管理システム、プラン生成方法、およびプラン生成プログラム
US9003027B2 (en) Discovery of storage area network devices for a virtual machine
US8650576B2 (en) Storage apparatus and storage apparatus management method
JP2012043304A (ja) ディスクアレイ装置およびディスクアレイ装置の制御方法
US20140122919A1 (en) Storage system and data processing method
US8806081B2 (en) Open host issued statesave to attached storage
US11144341B2 (en) Management apparatus and management method
US20160197994A1 (en) Storage array confirmation of use of a path
US10013216B2 (en) Storage system
US20100235549A1 (en) Computer and input/output control method
US9747154B2 (en) Isolating hardware and network failures in a computing environment
US9996437B2 (en) Failover in a san environment
US11755438B2 (en) Automatic failover of a software-defined storage controller to handle input-output operations to and from an assigned namespace on a non-volatile memory device
US11809268B1 (en) Discovering host-switch link and ISL issues from the storage array

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6179119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150