JP2007072571A - 計算機システム及び管理計算機ならびにアクセスパス管理方法 - Google Patents

計算機システム及び管理計算機ならびにアクセスパス管理方法 Download PDF

Info

Publication number
JP2007072571A
JP2007072571A JP2005256373A JP2005256373A JP2007072571A JP 2007072571 A JP2007072571 A JP 2007072571A JP 2005256373 A JP2005256373 A JP 2005256373A JP 2005256373 A JP2005256373 A JP 2005256373A JP 2007072571 A JP2007072571 A JP 2007072571A
Authority
JP
Japan
Prior art keywords
port
storage device
computer
host
management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005256373A
Other languages
English (en)
Inventor
Norio Shimozono
紀夫 下薗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005256373A priority Critical patent/JP2007072571A/ja
Priority to US11/254,796 priority patent/US20070055797A1/en
Priority to EP06250804A priority patent/EP1760591B1/en
Priority to DE602006005567T priority patent/DE602006005567D1/de
Publication of JP2007072571A publication Critical patent/JP2007072571A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2005Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2007Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2007Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media
    • G06F11/201Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media between storage system components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2089Redundant storage control functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 マルチパスドライバによるアクセスパスの冗長化方式では、パス障害発生から保守作業によるアクセスパス復旧までの間、パス冗長性が減少するという課題、及びパス障害が発生してもパス冗長性を保つためには、従来技術では3パス以上の経路を予め設定する必要があるが、SANを構成するスイッチなどの機器のポートを多く消費するためコストがかかるという課題を解決する。
【解決手段】 1台以上のホスト計算機2、ホスト計算機2に論理記憶領域を提供する1台以上のストレージ装置1、及び、ホスト計算機2及びストレージ1とネットワーク5を介して接続する管理計算機4を備える計算機システムにおいて、管理計算機4は、ホスト計算機2又はストレージ装置1からの経路不具合通知を受信すると、新たなパス定義をホスト計算機2及びストレージ装置1に設定するよう指示する。
【選択図】 図1

Description

本発明は、ストレージエリアネットワークにおけるアクセスパス管理技術、特にストレージのポート障害及びストレージポートの性能過負荷を解決するアクセスパス管理システム及び管理方式に関する。
ITの進歩やインターネットの普及などにより、企業のコンピュータシステムは様々なアプリケーションを提供するようになり、高い信頼性を要求されるようになっている。特に、アプリケーションが扱う大容量のデータを保存するストレージシステムは、コンピュータシステムにおいて重要な存在となっており、ストレージシステムに対する信頼性の要求は極めて強い。また、コンピュータシステムにおけるストレージシステムの重要度が高まるにつれ、ストレージシステムの運用・管理コストの削減が課題となってきている。
これらの課題に答えるため、ホストコンピュータと高価だが極めて高信頼の大型ストレージシステムの間をストレージエリアネットワーク(SAN)で接続する構成が用いられることが多いが、SANの障害をどのように扱うかが問題となる。
この課題に対して、ホスト上で動作するマルチパスドライバと呼ばれるソフトウェアが、複数のアクセスパスを用いてストレージシステムにアクセスすることで、パス障害をファイルシステムや上位アプリケーションに対して隠蔽する技術が広く知られている。例えば、SANにおけるボトルネックを解析しホストコンピュータのアクセス経路を変更する技術が、特許文献1に開示されている。
一方で、大型ストレージシステムは多数のポートを提供可能であるが、そのポート増設単位と、コンピュータシステムが必要とするポート数に差異が発生することがあり、ポート利用効率が低くなってしまうケースが存在する。
特開2004−72135号公報
従来のマルチパスドライバによるアクセスパスの冗長化方式では、パス障害発生から保守作業によるアクセスパス復旧までの間、パス冗長性が減少するという課題がある。パス障害が発生してもパス冗長性を保つためには、従来技術では3パス以上の経路を予め設定する必要があるが、SANを構成するスイッチなどの機器のポートを多く消費するためコストがかかるという課題がある。
本発明は、1台以上のホスト計算機、前記ホスト計算機に論理記憶領域を提供する1台以上のストレージ装置、及び、前記ホスト計算機及び前記ストレージ装置とネットワークを介して接続する管理計算機を備える計算機システムにおいて、前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からの経路不具合通知を受信すると、新たなパス定義を該当ホスト計算機及び該当ストレージ装置に設定するよう指示する計算機システムである。
本発明により、計算機システムのポート障害によるアクセス経路の冗長性喪失から、自動的に冗長パス状態に復旧することを可能とする。
本発明を実施するための最良の形態を説明する。
本発明において、ストレージシステムの余剰ポートを通常時は過負荷となったストレージシステムのポートへのアクセスをオフロードする負荷分散に用い、ストレージシステムのポート障害発生時には、当該ポートの交代ポートとして使用する事で、余剰ポートを性能と信頼性向上に有効利用することを可能とする管理システムを構築する。
具体的には、SAN管理サーバを用意し、ホスト及びストレージシステムと常時通信し、アクセス状態の監視を行う。また、ストレージシステムには余剰ポートもしくは動的に設定を変更しても良い共有ポートを用意する。
SAN管理サーバがホスト及びストレージシステムから、性能過負荷やストレージのポート障害を通知されると、ストレージシステムの共有ポートに問題となっているポートのパス設定をコピーする。これによりストレージシステムは共有ポートから問題となっているボリュームへのアクセスを可能とする。
さらにSAN管理サーバはホストに対して、アクセスパス設定の変更要求を行い、上記で定義した共有ポートへのアクセスパスを有効にすることで、共有ポートを使用したアクセスが開始される。
以下、本発明の計算機システム及び管理計算機並びにアクセスパス管理方法の実施例について、図面を用いて説明する。
先ず、本発明の第1の実施例について説明する。図1は、本実施例のコンピュータシステムの構成図である。図示するように、コンピュータシステムは、1台以上のストレージ装置からなるストレージシステム1、1台以上のホスト計算機(以下において単に「ホスト」という)2、およびSAN(Storage Area Network)管理計算機(以下において単に「管理サーバ」という)4を有する。
ストレージシステム1とホスト2は、1個以上のSANポート8を有し、SANスイッチ3に接続し、SANを構成している。SANは、例えばFibre Channelと呼ばれるインタフェースで接続され、ホスト2とストレージシステム1は、FCP(Fibre Channel Protocol)と呼ばれるプロトコルを用いて、コマンドやデータの送受信を行う(ストレージシステム1やホスト2を総称して以下「ノード」ともいう)。
また、ストレージシステム1、SANスイッチ3、ホスト2と管理サーバ4は、LAN(Local Area Network)5を介して接続されている。
なお本実施形態は、ストレージシステム1とホスト2との間で用いるSANのインタフェースおよびプロトコルの種類を特に限定しない。例えば、インタフェースおよびプロトコルの組合せとして、Ethernet(登録商標)とiSCSIなど他の組み合わせを用いても良い。また、上記では、ストレージシステム1と管理サーバ4との間をLANで接続することとしたがこれも例示に過ぎず、別のインタフェースを用いても良い。
ホスト2は、データベースなど何らかのアプリケーションを実行し、それらの処理に必要となるデータの入出力をストレージシステム1に対して行うコンピュータである。
ストレージシステム1は、ホスト2に1個以上の論理記憶領域(以下「論理ボリューム」または「LVOL」ともいう)6を提供するシステムである。
ホスト2がストレージシステム1へSCSIコマンドを送信すると、ストレージシステム1は、当該コマンドにしたがい、ホスト2との間でデータ転送を行う。例えばFCPを用いる場合、ホスト2は、ストレージシステム1のSANポート8を指定するためのポートアドレスと、LUN(Logical Unit Number)という番号をコマンドヘッダに付加してストレージシステム1へ発行することで、論理ボリューム6を指定する。コマンドには、他にリードやライトといったコマンド種別を示すコマンドコード、論理ボリューム6内での転送開始位置を示すアドレスや転送長といった情報が含まれる。
ストレージシステム1は、SCSIコマンドを受信すると、設定情報に基づきSANポート8及びLUNから論理ボリューム6を特定し、データ転送を行う。必ずしも各SANポート8に論理ボリューム6を1個以上設定する必要は無く、本実施形態では初期設定時において論理ボリューム6を設定しない未使用のSANポート8を1個以上用意する。図1は、S1d,S1vのSANポート8が未使用であることを示している。
SANの信頼性を高めるため、図示するようにホスト2とストレージシステム1との間を、複数のSANポート8とSANスイッチ3で接続し、複数のSANポート8とLUNの組み合わせを同一の論理ボリューム6へ対応付けることで、ホスト2から論理ボリューム6へのアクセス経路を冗長化する。
ホスト2は、冗長化した論理ボリューム6へのアクセス経路(ポートアドレスとLUNの組み合わせ)を仮想化するため、記憶領域をホストボリューム(以下「HVOL」ともいう)7という単位で管理する。ホスト2は、ホストボリューム7と論理ボリューム6へのアクセス経路の対応を、後述するアクセス制御ドライバ182で管理しており、アプリケーションがホストボリューム7へアクセスすると、アクセス制御ドライバ182は対応する論理ボリュームへ6のSCSIコマンドをストレージシステム1に送信する。
本実施例では、ストレージシステム1のSANポート8に障害が発生することでホスト2と論理ボリューム6間のアクセス経路の冗長性が失われると、ホスト2及びストレージシステム1が管理サーバ4へ障害を通知し、通知を受けた管理サーバ4がストレージシステム1の未使用SANポート8を用いた新しいアクセス経路をホスト2及びストレージシステム1に設定することで、アクセス経路の冗長性を速やかに回復可能であることを示す。
図2は、ストレージシステム1のハードウェア構成図である。ストレージシステム1は複数のホストI/F部100、複数のディスクI/F部101、共有メモリ部102、システム管理部103と、それらを接続するスイッチ部104から構成される。ストレージシステム1はディスクI/F部100を介してハードディスク群105に接続している。
ハードディスク群105は、論理ボリューム6のデータを格納する部位であり、複数のハードディスクから構成される。
ホストI/F部100はストレージシステム1をSANへ接続する部位であり、複数の外部I/F106、ポートプロセッサ107と、それらをスイッチ部104へ接続するための転送制御部108から構成される。
外部I/F106はストレージシステム1をSANに接続するSANポート8を含み、SANのプロトコルを制御する。LVOLは、ハードディスク群105に含まれる一つ又は複数のハードディスクで構成される。
ポートプロセッサ107は、ホスト2からのSCSIコマンドを解析し、SCSIコマンドの実行に必要な処理を実行する。
転送制御部108は、外部I/F106やポートプロセッサ107と、共有メモリ部102、ディスクI/F部101やシステム管理部103との間のデータ転送や通信をスイッチ部104へアクセスすることで制御する。
ディスクI/F部101は、ストレージシステム1とハードディスク群105を接続する部位であり、ディスクI/F109、ディスクプロセッサ110と、それらをスイッチ部104へ接続するための転送制御部108から構成される。ディスクI/F部101は、ストレージシステム1をハードディスク群105に接続し、ハードディスク群105との間のプロトコルを制御する。
ディスクプロセッサ110は、ポートプロセッサ107と通信を行いSCSIコマンドの処理に必要なハードディスク群105と共有メモリ間102のデータ転送を制御する。
システム管理部103は、ストレージシステム1をLAN5へ接続する部位であり、管理I/F111、管理プロセッサ112、不揮発メモリ113と転送制御部108から構成される。
管理I/F111は、ストレージシステム1をLAN5へ接続し、LAN5のプロトコルを制御する。例えばEthernet(登録商標)のNIC(Network Interface Card)である。
管理プロセッサ112は、管理サーバ4と通信し、ストレージシステム1の設定を実行する。
不揮発メモリ113は、ストレージシステム1の設定情報を保持する。
なお、本実施形態におけるストレージシステム1のハードウェア構成は例示であり、複数のSANポート8と複数の論理ボリューム6を提供可能な構成であれば、上記の構成に限るものではない。
図3は、ストレージシステム1のソフトウェア構成図である。まず、各部位の実行する処理や保持するデータについて説明する。ポートプロセッサ107は、LU構成テーブル121を保持し、コマンド処理プログラム120と障害検出プログラム122を実行する。LU構成テーブル121は、各SANポート8とLUNの組と論理ボリューム6の対応を保持するテーブルである。また、コマンド処理プログラム120はホスト2から受信したSCSIコマンドを実行するプログラムであり、障害検出プログラム122は外部I/F106及びポートプロセッサ107の障害を検出するプログラムである。
共有メモリ部102は、論理ボリューム6の一部のデータを保存するキャッシュデータ124と、キャッシュデータ124と論理ボリューム6内部の位置を対応付けるキャッシュディレクトリ123を保持する。
ディスクプロセッサ110は、HDD制御プログラム125を実行する。HDD制御プログラム125は、ポートプロセッサ107からの指示で起動され、ハードディスク群105へコマンドを発行し、キャッシュデータとの間でデータ転送を実行するプログラムである。HDD制御プログラム125は、ハードディスク群105の複数のハードディスクを用いてRAID(Redundant Array of Inexpensive Disks)処理を行う。具体的には、HDD制御プログラム125は、論理ボリューム6におけるアドレス空間とハードディスク群105のアドレス空間の対応を管理し、適切なハードディスクへアクセスする。またHDD制御プログラム125は、ハードディスク障害発生時には冗長なハードディスクを用いてアクセスを継続するなどの処理も行う。
管理プロセッサ112は、ストレージポート状態テーブル130と、ノード情報131を保持し、ストレージ管理プログラム126を実行する。
ストレージポート状態テーブル130は、ストレージシステム1の各SANポート8の状態を管理するテーブルであり、ノード情報131はストレージシステム1の管理情報と管理サーバ4のLAN5におけるネットワークアドレスを保持するデータである。
ストレージ管理プログラム126は、ストレージシステム1を初期化するストレージ初期化処理127と、障害を管理サーバ4へ通知する障害通知処理129と、管理サーバからの要求に応じてストレージシステム1の構成情報を取得ないし変更する構成管理処理128を実行する。
次にストレージシステム1の初期化について説明する。ストレージシステム1が起動すると、最初に管理プロセッサ112がストレージ管理プログラム126を起動し、ストレージ初期化処理127を実行する。
ストレージ初期化処理127において、管理プロセッサ112は不揮発メモリ113から設定情報を読み出し、LU構成テーブル121、ノード情報131をポートプロセッサ107、管理プロセッサ112に設定し、コマンド処理プログラム120、障害制御プログラム122、HDD制御プログラム125をポートプロセッサ107、ディスクプロセッサ110にロードし、ストレージポート状態テーブル130を初期化する。
さらに、管理プロセッサ112は、管理I/F111を介して管理サーバ4にログインし、ノード情報131を管理サーバ4に登録する。
コマンド処理プログラム120と障害検出プログラム122が起動すると、ポートプロセッサ107は、外部I/F106とキャッシュディレクトリ123の初期化を行い、ストレージポート管理テーブル130を最新の状態に更新し、ホスト2からのSCSIコマンドを待つ状態に入る。
HDD制御プログラム125が起動すると、ディスクプロセッサ110は、ディスクI/F109を初期化し、ハードディスク群105へアクセスできることを確認し、ポートプロセッサ107からの指示を待つ状態に入り、初期化処理が完了する。
次にストレージシステム1がホスト2からのSCSIコマンドを実行する流れを説明する。外部I/F106は、ホスト2からSCSIコマンドを受信すると、ポートプロセッサ107へSCSIコマンドの内容を通知する。ポートプロセッサ107は、定期的に外部I/Fからの通知をポーリングしており、SCSIコマンドの通知を検出するとコマンド処理プログラム120を実行する。
コマンド処理プログラム120においてポートプロセッサ107は、まずSCSIコマンドの指定するLUNをキーにLU構成テーブル121からアクセス対象の論理ボリューム6を決定する。
次にポートプロセッサ107は、共有メモリ部102のキャッシュディレクトリ123へアクセスし、ヒットミス判定を行う。ホスト2に要求されたデータがキャッシュヒットした場合は、キャッシュデータ124とホスト2の間のデータ転送を外部I/F106に指示する。キャッシュミスした場合は、次のような処理を行う。
リードコマンドの場合、ポートプロセッサ107はディスクプロセッサ110にハードディスク群105とキャッシュデータ124の間のデータ転送を指示し、その完了後にキャッシュディレクトリ123を更新し、ホスト2へのデータ転送を外部I/F106に指示する。
ライトコマンドの場合、ポートプロセッサ107はキャッシュディレクトリ123へアクセスし、キャッシュデータ124の空き領域を確保する。次にポートプロセッサ107は確保したキャッシュデータ124の領域とホスト2の間のデータ転送を外部I/F106へ指示し、データ転送の完了後にキャッシュディレクトリ123を更新する。ポートプロセッサ107は、周期的にディスクプロセッサ110にハードディスク群105とキャッシュデータ124の間のデータ転送を指示しキャッシュディレクトリ123に登録されたダーティなライトデータをハードディスク群105へ書き込む。
このようにして、ストレージシステム1は、ホスト2からのSCSIコマンドを実行する。ただし、この処理の流れは例示であり、SCSIコマンドのLUNと設定情報に基づいて、論理ボリューム6を決定しデータ転送を行う事が可能であれば、この処理の流れに限定するものではない。
次にストレージシステム1の設定方法について説明する。管理プロセッサ112は、管理サーバ4からの要求を管理I/F111から受け取ると構成管理処理128を実行する。
構成管理処理128において管理プロセッサ112は、最初に管理サーバ4からの要求の種別を判定する。
要求が構成情報取得の場合、管理プロセッサ112は要求が指定するLU構成テーブル121、ストレージポート状態テーブル130、ノード情報131をポートプロセッサ107や管理プロセッサ112から取得し、管理I/F111を介して管理サーバ4へ送信する。
要求が構成変更の場合、管理プロセッサ112は、要求が指定するLU構成テーブル121、ストレージポート状態テーブル130、ノード情報131の変更をポートプロセッサ107や管理プロセッサ112及び不揮発メモリ113に対して行い、実行完了を管理I/F111を介して管理サーバ4へ報告する。
最後にストレージシステム1の障害通知処理について説明する。ポートプロセッサ107は、一定時間毎に障害検出プログラム122を実行する。
障害検出プログラム122において、ポートプロセッサ107は外部I/F106及び他のポートプロセッサ107の状態を監視し、ストレージポート状態テーブル130を最新の状態に更新する。また、障害を検出すると管理プロセッサ112へ通知する。
管理プロセッサ112は、障害通知処理129において、ポートプロセッサ107からの障害通知を処理する。具体的には、管理プロセッサ112はストレージポート状態テーブル130を更新し、管理I/F111を介して管理サーバ4へ障害の発生部位を報告する。
図4は、ストレージポート状態テーブル130の構成を示す図である。ストレージポート状態テーブル130は、各々がストレージシステム1のSANポート8に対応する複数のエントリから構成され、各エントリはストレージシステム1のポートID141、ポートアドレス142、ポート属性143、ポートステータス144と使用可能共有ポートID145から構成される。
ポートID141は、ストレージシステム1のSANポート8を区別するためのIDであり管理サーバ4によって設定される。
ポートアドレス142は、SANポート8のSANにおけるポートアドレスを示し、例えば外部I/F106の初期化時にプロトコル処理で決定される値である。また、管理サーバ4からポートアドレス142を指定し、その値を用いて外部I/F106を初期化しても良い。
ポート属性143は、当該SANポート8の属性を示す。本実施形態において、「占有」は、当該SANポートについて動的なLU構成テーブル121への論理ボリューム6の追加を許可しない属性を示す。「共有可」は当該SANポート8について、LU構成テーブル121への動的な論理ボリューム6の追加を許可する属性を示す。「交代」は当該SANポート8についての動的なLU構成テーブル121への論理ボリューム6の追加が管理サーバ4によって設定されたことを示す。具体的には、当該SANポート8は障害が発生したSANポート8の論理ボリューム6へのアクセス経路を引き継いで動作中であることを示す。
ポート属性143は、管理サーバ4によって設定され、不揮発メモリ113に記録される。以下、「占有」の属性をもつポートを占有ポート、「共有可」の属性をもつポートを共有ポートと呼ぶ。
ポートステータス144は、SANポート8の状態を示し、「正常」は正常に動作していることを示し、「ポート障害」はSANポート8に障害が発生し使用不能になっていることを示す。ポートステータス144は、ポートプロセッサ107が障害検出プログラム122を一定時間毎に実行する事で最新の値に保たれる。
使用可能共有ポートID145は、障害が発生した際に当該SANポート8に関するLU構成テーブル121の設定を引き継いで動作させるSANポート8のポートID141を指定する情報であり、管理サーバ4によって設定される。
図4は、図1で未使用なSANポート8である「S1d」「S1v」を共有ポートとし、使用可能共有ポートID145に指定する設定を行った状態を示している。さらにその状態で、SANポート8「S1a」に障害が発生し、管理サーバ4によって自動的にSANポート8「S1a」に関するLU構成テーブル121の設定をSANポート8「S1v」に引き継いだ後の状態を示している。
図5は、LU構成テーブル121の構成を示す図である。LU構成テーブル121は、各々がストレージシステム1のSANポート8に対応する複数のエントリから構成され、各エントリは、ポートID151と当該SANポート8のLUNと論理ボリューム6の対応を保持するLU構成サブテーブル153へのLU構成サブテーブルポインタ152から構成される。
LU構成サブテーブル153は、各SANポート8のLUNと論理ボリューム6の対応を保持するテーブルであり、各エントリがLUN154と、LUN154に対応する論理ボリュームID155を保持する。
図6は、ホスト2のハードウェア構成図である。ホスト2は、CPU160、メインメモリ161、メインメモリ161を制御するメモリコントローラ162、HDD I/F163、ディスプレイI/F164、入力I/F171、1個以上のHBA166、ネットワークI/F167と、それらを接続するバス168から構成される。
CPU160は、後述する各プログラムを実行し、メインメモリ161はそのために必要なデータを保持する。メモリコントローラ162は、メインメモリ161を制御しバス168に接続する部位である。
HDD I/F163は、バス168とHDD169を接続する部位である。
ディスプレイI/F164は、バス168とディスプレイ装置170を接続する部位である。
入力I/F164は、バス168とキーボードやマウスなどの入力デバイス171を接続する部位である。
HBA166は、SANポート8を含み、バス168とSANを接続する部位である。
ネットワークI/F167は、バス168とLAN5を接続する部位である。
なお、上記ハードウェア構成は例示であり、1個以上のSANポート8とLAN5へのインタフェースを有し、後述するソフトウェアを実行可能であれば、これに限定されるものではない。
図7は、ホスト2のソフトウェア構成図である。まず、ホスト2のCPU160が実行する処理や、メインメモリ161が保持するデータについて説明する。
ホスト2のCPU160は、アプリケーション180、ファイルシステム181、アクセス制御ドライバ182、ホスト管理プログラム183を実行する。より詳しくは、アクセス制御ドライバ182はI/O処理184とパス状態監視処理185を実行し、ホスト管理プログラム183はホスト初期化処理188、障害通知処理189、構成管理処理190を実行する。
また、それらのプログラムが用いるデータは、メインメモリ161に保持される。具体的には、メインメモリ161はホストボリューム構成テーブル(以下「HVOL構成テーブル」ともいう)186、論理パス構成テーブル187、ホストポート状態テーブル191、ノード情報192を保持する。
HVOL構成テーブル186は、ホストボリューム7と論理ボリューム6へのアクセス経路の対応を管理するテーブルである。
論理パス構成テーブル187は、論理ボリューム6へのアクセス経路を論理パスという形式で管理するテーブルである。
ホストポート状態テーブル191は、ホスト2のSANポート8の状態を管理するテーブルである。
まず、ホスト2の初期化処理について説明する。ホスト2は起動すると、ホスト管理プログラム183をHDD169からロードし実行する。ホスト管理プログラム183が起動すると、CPU160はホスト初期化処理188を実行する。
ホスト初期化処理188においてCPU160は、初めにHVOL構成テーブル186、論理パス構成テーブル187、ノード情報192をHDDからロードし、ホストポート状態テーブル191を初期化し、アクセス制御ドライバ182を起動する。
また、CPU160は、ネットワークI/F164を介して管理サーバ4へログインし、ノード情報192を管理サーバ4に登録し初期化処理を完了する。
次に、アプリケーション180からホストボリューム7へのアクセス要求の処理の流れを説明する。アプリケーション180は、ホスト2が実行するプログラムであり、例えばデータベースなどである。アプリケーション180は、ファイルシステム181を介して、もしくは直接アクセス制御ドライバ182のI/O処理184を呼び出し、ホストボリューム7へのアクセスを要求する。ファイルシステム181は、アプリケーション180が要求したファイルへのアクセスを、ホストボリューム7へのアクセスへ変換するプログラムである。
CPU160は、I/O処理184において、アプリケーション180ないしファイルシステム181から受け取ったホストボリューム7へのアクセス要求を実行する。具体的にはCPU160は、HVOL構成テーブル186と論理パス構成テーブル187に基づいて論理ボリューム6へのアクセス経路、具体的にはストレージシステム1のポートアドレスとLUNを決定し、HBA166を介してストレージシステム1にSCSIコマンドを発行する。複数のアクセス経路がHVOL構成テーブル186と論理パス構成テーブル187に設定されている場合、CPU160はI/O処理184においてアクセス要求を複数のアクセス経路に振り分けることで、HBA166、SAN9、ストレージシステム1のSANポート8の負荷分散を行う。アクセス経路の選択にはラウンドロビンなどの方法を用いる。ストレージシステム1とのデータ転送が完了すると、CPU160はI/O処理184からアプリケーション180ないしファイルシステム181へアクセスの完了を通知する。
なお、上記のアクセス要求処理の流れは例示であり、設定情報に基づいてホストボリューム7へのアクセス要求からアクセス経路を決定しストレージシステム1の論理ボリューム6へアクセスすることが可能であれば、これに限定されるものではない。
次にホスト2の構成管理処理について説明する。CPU160は、管理サーバ4が発行した構成管理要求をネットワークI/F167から受け取ると構成管理処理190を実行する。構成管理処理においてCPU160はまず要求の種別を判定する。
要求が構成情報取得の場合、CPU160はHVOL構成テーブル186、論理パス構成テーブル187、ホストポート状態テーブル191、ノード情報192を、ネットワークI/F167を介して管理サーバ4へ送信する。
要求が構成変更の場合、CPU160は管理サーバ4の要求に従い、HVOL構成テーブル186、論理パス構成テーブル187、ホストポート状態テーブル191、ノード情報192の変更をメインメモリ161及びHDD169に対して行い、実行完了をネットワークI/F167を介して管理サーバ4へ報告する。
最後に、ホスト2のアクセス経路障害の検出と管理サーバ4への通知処理の流れを説明する。CPU160は、一定時間毎にパス状態監視処理185を実行する。本処理においてCPU160は、論理パス管理テーブル187で管理されている論理ボリューム6へのアクセス経路及びホスト2のHBA166内のSANポート8が正常であるか確認する。例えばCPU160は、あるアクセス経路を用いて論理ボリューム6の適当な領域へリードコマンドを発行する事で、当該経路が正常かどうか確認することが可能である。また、HBA166とSAN9の接続状態からホスト2のSANポート8が正常であるか確認可能である。CPU160は、アクセス経路やホスト2のSANポート8の状態を確認すると、論理パス構成テーブル187及びホストポート状態テーブル191を最新の状態に更新する。また、CPU160は、アクセス経路やホスト2のSANポート8の障害を検出すると、ネットワークI/F167を介して管理サーバ4へ障害発生部位を通知する。
図8は、HVOL構成テーブル186、論理パス構成テーブル187、ホストポート状態テーブル191の構成を示す図である。
HVOL構成テーブル186は、各々がホストボリューム7に対応する複数のエントリから構成され、各エントリはホストボリュームID(以下「HVOLID」ともいう)200、論理パスID#0(201)〜#4(204)から構成される。
HVOLID200は、ホストボリューム7を特定するIDであり、管理サーバ4によって設定される。論理パスID#0(201)〜#4(204)は、ホストボリューム7に対応する論理ボリューム6へのアクセス経路を示すIDであり、管理サーバ4によって設定される。本実施形態では、論理パスID201〜204は最大4個まで登録することが可能だが、通常は2個登録することで冗長なアクセス経路を設定することが可能である。なお、この数字は例示であり、論理パスID201〜204の最大数は2を超える数字であれば特に制限はなく、また高性能化のために通常時において3個以上のアクセス経路を設定しても問題はない。
論理パス構成テーブル187は、各々が論理ボリューム6へのアクセス経路に対応する複数のエントリから構成され、各エントリは論理パスID205、ホストポートID206、ストレージポートID207、ストレージポートアドレス208、LUN209、パスステータス210から構成される。
論理パスID205は、論理ボリューム6へのアクセス経路を特定するためのIDであり、管理サーバ4によって設定される。
ホストポートID206は、論理ボリューム6へのアクセスに使用するホスト2のSANポート8のSANにおけるポートアドレスを示し、HBA166の初期化時にプロトコル処理で決定される値、ないしは管理サーバ4によって設定される値が、ホスト初期化処理188の実行時に登録される。
ストレージポートID207、ストレージポートアドレス208とLUN209は、論理ボリューム6へSCSIコマンドを送信するためのアクセス経路、すなわちストレージシステム1のSANポート8のポートID、ポートアドレスとLUNを示し、管理サーバ4によって設定される。
パスステータス210は、当該アクセス経路が使用可能な状態であるかを示す。パスステータス210は、例えばCPU160が一定時間毎にパス状態監視処理185を実行することで、最新の状態に更新される。
ホストポート構成テーブル191は、各々がホスト2のSANポート8に対応する複数のエントリから構成され、各エントリはホストポートID211、ポートアドレス212、ポートステータス213から構成される。
ホストポートID211は、ホスト2のSANポート8を特定するためのIDであり、管理サーバ4によって設定される。
ポートアドレス212は、当該SANポート8のSANにおけるポートアドレスを示し、HBA166の初期化時にプロトコル処理で決定される値、ないしは管理サーバ4によって設定される値が、ホスト初期化処理188の実行時に登録される。
ポートステータス213は、当該SANポート8の状態を示す。例えばCPU160が一定時間毎にパス状態監視処理185を実行することで、ポートステータス213を最新の値に更新する。
図8では、図1で「H2」と表現されたホスト2に行われる設定を示している。具体的には、ホスト2「H2」が使用するホストボリューム7「V0」と「V1」の論理パス「P0」「P2」が、図4で示したストレージシステム1のSANポート8「S1a」のポート障害によりパス障害となった状態を示している。
さらに、管理サーバ4がSANポート8「S1v」を使用した論理パスを論理パス構成テーブル187とHVOL構成テーブル186に設定する事で、「V0」と「V1」へのアクセス経路の冗長性が復旧した後の状態を示している。
図9は、管理サーバ4のハードウェア構成図である。管理サーバ4は、CPU220、メモリ221、メモリ221を制御するメモリコントローラ222、HDD I/F223、ディスプレイI/F224、入力I/F225、ネットワークI/F227と、それらを接続するバス228から構成される。
CPU220は後述する各プログラムを実行し、メモリ221はそのために必要なデータを保持する。メモリコントローラ222はメモリ221を制御しバス228に接続する部位である。
HDD I/F223は、バス228とHDD229を接続する部位である。
ディスプレイI/F224は、バス228とディスプレイ装置230を接続する部位である。
入力I/F225は、バス228とキーボードやマウスなどの入力デバイス231を接続する部位である。
ネットワークI/F227は、バス228とLAN5を接続する部位である。
なお、上記ハードウェア構成は例示であり、LAN5へ接続するためのインタフェースを有し、後述するソフトウェアを実行可能であれば、これに限定するものではない。
図10は、管理サーバ4のソフトウェア構成図である。まず、管理サーバ4のCPU220が実行する処理や、メモリ221が保持するデータについて説明する。
管理サーバ4のCPU220は、SAN管理プログラム240を実行する。
SAN管理プログラム240は、管理サーバ初期化処理241、管理サーバサブプログラム(モジュール)242、ノード状態監視処理243、ノード構成管理サブプログラム(モジュール)244、自動パス切替えサブプログラム(モジュール)245から構成される。
また管理サーバ4のメモリ221は、SAN管理プログラム240が用いるデータを保持する。具体的には、メモリ221はノード構成テーブル246を保持する。
ノード構成テーブル246は、前述したストレージシステム1及びホスト2の構成情報を保持するテーブルであり、HDD229にもバックアップデータを格納する。
まず、管理サーバ初期化処理241について説明する。管理サーバ4が起動すると、CPU220はSAN管理プログラム240をHDD229からロードして起動し、管理サーバ初期化処理241を実行する。
管理サーバ初期化処理241においてCPU220は、初めにHDD229からノード構成テーブル246のバックアップデータをロードし、ノード構成テーブル246を初期化する。また、CPU220は管理サーバサブプログラム242を起動する。具体的には、CPU220はネットワークI/F227を初期化して、管理サーバサブプログラム242をストレージシステム1やホスト2からのログインを待つ状態にする。
次に、管理サーバ4のノード状態監視処理243について説明する。CPU220は一定時間毎にノード状態監視処理243を呼び出す。具体的には、CPU220はノード構成テーブル246を参照しログイン中のノードを確認する。次にそれらのノードへネットワークI/F227を介してアクセスし、最新の構成情報を取得し、それらをノード構成テーブル246へ登録する。
構成情報の取得にあたり、例えばCPU220は最初に構成情報の変化の有無をノードに問い合わせ、変化があった構成情報のみを取得するなど、LAN5の帯域や処理オーバーヘッドを節約する手段をとっても構わない。
次に、管理サーバ4のノード構成管理サブプログラム244について説明する。ノード構成管理サブプログラム244は二つの機能をSAN管理者に提供する。
第1の機能は構成表示機能である。CPU220は、ディスプレイ230にノード構成テーブル246を表示することで、SAN管理者が現在のノード稼動状況を確認することが出来る。
第2の機能は構成変更機能である。CPU220は、ディスプレイ230にノード構成テーブル246を表示した状態で、SAN管理者からの入力に従い、ノード構成テーブル246を変更する。さらにCPU220は管理サーバサブプログラム242を呼び出し、ネットワークI/F227を介して各ノードが保持するノード情報192,131へ構成変更を反映する。また、ノード構成テーブル246の変更をHDD229へも保存する。
最後に、管理サーバ4の自動パス切替えサブプログラム245について説明する。自動パス切替えサブプログラム245は、ホスト2からのアクセス経路障害通知を管理サーバサブプログラム242が受け取る事で起動される。
自動パス切替えサブプログラム245において、CPU220はストレージシステム1の共有可能なSANポート8を用いて、論理ボリューム6への新たなアクセス経路をホスト2とストレージシステム1に設定することで、アクセス経路を復旧する。本処理の詳細は後述する。
図11は、ノード構成テーブル246の構成を示す図である。ノード構成テーブル246は、各々がノードに対応する複数のエントリから構成され、各エントリはノードID250、ノード種別251、管理用LANアドレス252、ノードステータス253、ノード詳細情報ポインタ254から構成される。
ノードID250は管理サーバ4がノードを識別するID、ノード種別251はノードの種別、管理用LANアドレス252はノードのネットワークI/F167,227のLANアドレスであり、ノード構成管理サブプログラム244を介してSAN管理者が入力し、HDD229にバックアップされる情報である。
ノードステータス253は、ノードが管理サーバ4にログイン中か否かを示す情報であり、管理サーバサブプログラム242やノード状態監視処理243によって最新の値に更新される。
ノード詳細情報ポインタ254は、ノード種別に応じた詳細な構成情報を保持するメモリ221の領域アドレスを指すポインタである。
ノード詳細情報255は、ノード種別が「ストレージ」の場合はストレージポート状態テーブル130とLU構成テーブル121を保持し、ノード種別が「ホスト」の場合はホストポート状態テーブル191、HVOL構成テーブル186と、論理パス構成テーブル187を保持する。
図12は、第1実施形態における自動パス切替えサブプログラム245の処理フローを示す図である。
CPU220はホスト2からアクセス経路の障害通知を受信すると管理サーバサブプログラム242を呼び出し、自動パス切替えサブプログラム245を呼び出す。なお、CPU2は、ホスト2からの障害通知ではなく、ストレージシステム1からの障害通知の受信に応じて、管理サーバサブプログラム(モジュール)242を呼び出し、自動パス切り替えサブプログラム(モジュール)245を呼び出しても良い。
まず、CPU220は障害が発生したアクセス経路を、当該ホスト2のノード詳細管理情報255から検索し、ホストポート状態テーブル191を検索する事で、ホスト2のSANポート8の状態を確認する。この際、最新のSANポート8の状態を確認するため、CPU220は管理サーバサブプログラム242を呼び出し、当該ホスト2から最新のSANポート8の状態を取得する(ステップ260)。
CPU220は、ホスト2の当該SANポート8が正常であれば処理を継続し、さもなくば処理を終了する(ステップ261)。
次に、CPU220は論理パス構成テーブル187からストレージシステム1を特定し、管理サーバサブプログラム242を呼び出し、当該ストレージシステム1から最新のストレージポート状態テーブル130を取得する(ステップ262)。
CPU220は、ストレージシステム1の当該SANポート8が異常、かつ当該SANポート8に対応する共有可能ポートID145が指定するSANポート8(すなわち共有ポート)のポート属性143が「共有可」属性であれば処理を継続し、さもなくば処理を終了する(ステップ263)。
次にCPU220は、ストレージシステム1のLU構成情報を変更する。具体的にはCHP220は障害が発生したSANポート8に対応するLU構成サブテーブル153の情報を、共有ポートに対応するLU構成サブテーブル153にコピーする指示をLAN5経由でストレージシステム1に対して行い、メモリ221へも同様の変更を行う。この処理により、障害が発生したSANポート8経由でアクセスされていた論理ボリューム6へ、共有ポートからアクセス可能となる。また、CPU220はストレージポート状態テーブル130の共有ポートのポート属性を「交代」に変更する指示をLAN5経由でストレージシステム1に対して行い、メモリ221へも同様の変更を行う(ステップ264)。
次にCPU220は、LAN5経由でホスト2の論理パス構成テーブル187に新たな論理パスを追加登録し、HVOL構成テーブル186を更新する。新たな論理パスは、障害を起こしたアクセス経路でホスト2が使用していたホスト2のSANポート8から、ステップ264で設定した共有ポートを通り、論理ボリューム6へとアクセスするアクセス経路である(ステップ265)。
最後にCPU220は、ホスト2から追加した論理パスのパスステータスが正常に変化した通知を受けて処理を完了する。CPU220は一定時間ホスト2から通知が無い場合は、エラーメッセージをディスプレイ230へ出力する(ステップ266)。
図13は、本実施形態におけるアクセス経路の復旧までの流れを示すラダーチャートである。最初に、アクセス経路の障害をホスト2が検知し、管理サーバ4へLAN5経由で通知する(メッセージ270)。
管理サーバ4はホスト2から、SANポート8の状態を取得し、正常であるか確認する(メッセージ271,272)。
次に管理サーバ4は、ストレージシステム1へアクセスし、当該アクセス経路で使用するストレージシステム1のSANポート8の状態を取得し、共有ポートが使用可能であることを確認する(メッセージ273,274)。
次に管理サーバ4は、ストレージシステム1のLU構成テーブル121及びストレージポート状態テーブル130を更新することで、障害によりアクセス不能となった論理ボリューム6へのアクセス経路をストレージシステム1に設定する(メッセージ275,276)。
次に管理サーバ4は、ホスト2の論理パス構成テーブル187およびHVOL構成テーブル186を更新することで、論理ボリューム6への新しいアクセス経路を設定する(メッセージ277,278)。
ホスト2はパス状態管理処理185によって、新たに設定されたアクセス経路の状態を「正常」と判断し、管理サーバ4へ報告を行う(メッセージ279,280,281)。
以上の処理により、本実施形態のコンピュータシステムは、ストレージシステム1のポート障害に起因するアクセス経路の障害を、共有ポートを用いたアクセス経路を用いる事で自動的にアクセス経路を復旧する事を可能とする。
次に、本発明の第2実施形態について説明する。第2実施形態では、第1実施形態で発生したポート障害を修復するため、ホストI/F部100を交換する作業中、当該ホストI/F部100の正常なSANポート8の提供する全アクセス経路を共有ポートで提供可能であることを示す。
これは、SAN管理者が管理サーバ4のノード構成管理サブプログラム244を使用してストレージシステム1とホスト2の設定変更を実施することで可能となる。図14は、SAN管理者が行うべき操作のフローを示す。
まず、SAN管理者は、ノード構成管理サブプログラム244を使用して、交換するホストI/F100部の各SANポート8が提供している論理ボリューム6へのアクセス経路の設定を別のホストI/F部100の共有ポートへ追加する。その際、LUNが重複するケースが有りうるが、SAN管理者が重複しないようLUNを割り振りながらLUNと論理ボリューム6の対応をLU構成テーブル121に設定する。さらにSAN管理者は共有ポートの属性を「交代」に設定し、設定した論理ボリューム6へアクセスする各ホスト2に対しても、論理パス構成テーブル187及びHVOL構成テーブル186を変更する事で、移行したアクセス経路を有効にする(ステップ290)。
この操作により、交換するホストI/F部100の提供する全ての論理ボリューム6へ共有ポートからもアクセス可能な状態となる。
次に、SAN管理者は、ホストI/F部100を交換し、その後ノード構成管理サブプログラム244を使用して、ストレージシステム1のLU構成テーブル121を復元する(ステップ291)。
この操作により、ホストI/F部100は障害発生以前の状態に戻る。
最後に、ホストI/F部100交換前に共有ポートにおこなった設定を削除する。共有ポートに他の論理ボリューム6が設定されてない場合は、共有ポートの属性を「共有可」に設定する。
以上の流れでホストI/F部100を交換することで、当該ホストI/F部100の正常なSANポート8の提供する全てのアクセス経路を共有ポートで提供しながらホストI/F部100を交換することが可能となる。
次に、本発明の第3実施形態について説明する。第3実施形態では、共有ポートをポート障害時の交代用途だけでなく、性能過負荷時の負荷分散に使用可能であることを示す。
図15は、第3実施形態におけるストレージシステム1のソフトウェア構成図を示す。
第1実施形態との相違は、第1にポートプロセッサ107がポート稼動ステータス300を保持する点である。ポート稼動ステータス300はSANポート8及びポートプロセッサ107の使用状況と、それらの過負荷判定に用いる閾値を保持する。ポート稼動ステータス300の使用状況データは、コマンド処理プログラム120においてポートプロセッサ107が処理するコマンドを集計する事で更新する。またポート稼動ステータス300の閾値は管理サーバ4のノード構成管理サブプログラム244からLAN5経由でストレージシステム1に設定される。
第2の相違点は、障害検出プログラム122がポート監視プログラム301に置き換わる点である。ポート監視プログラム301は障害検出プログラム122の機能に加えて、ポート稼動ステータス300を一定時間毎に監視し、現在値が閾値を超える状況を検出すると、異常通知処理302へと通知する。
第3の相違点は、管理プロセッサ112が障害通知処理129において、第1の実施形態での機能に加えて、性能過負荷を管理サーバ4へ通知する処理を行う点である。
図16は、第3実施形態における自動パス切替えサブプログラム245の処理フローを示す図である。
初めに、CPU220は、起動要因を管理サーバサブプログラム242から取得する。起動要因が性能過負荷であれば、負荷分散処理を実行し、さもなくばアクセス経路障害発生と判断し障害処理を実行する(ステップ310)。
起動要因が性能過負荷の場合、CPU220は負荷分散に使用できるポート状態を確認する。具体的には、負荷分散を行う対象SANポート8の使用可能共有ポートID145が指定するSANポート8の属性が「共有可」かどうかを、同一ストレージシステム1のLU構成テーブル121にアクセスし確認する。「共有可」であれば処理を続行し、さもなくば処理を終了する(ステップ311,312)。
負荷分散に用いるポートが「共有可」属性である場合、次にCPU220は、ノード構成テーブル246から性能過負荷となっているSANポート8のLU構成テーブル121から、1個以上の論理ボリューム6を選択し、負荷分散に用いるSANポート8からも当該論理ボリューム6へアクセスできるようストレージシステム1のLU構成テーブル121を設定する。また、負荷分散に用いるSANポート8の属性を「使用中」に変更する(ステップ313)。
次にCPU220は、ノード構成情報246からステップ313で設定した論理ボリューム6に性能過負荷となっているSANポート8経由でアクセスしているホスト2を検索する。それらの論理パス構成テーブル187に、負荷分散に用いるSANポート8経由で当該論理ボリューム6へアクセスするアクセス経路を追加設定する(ステップ314)。
その後、CPU220は、ステップ314で追加したアクセス経路の状態が「正常」に変化するホスト2からの通知を待つ。一定時間で応答がなければエラーメッセージをディスプレイ230に出力して処理を終了する(ステップ315)。
また、起動要因が障害通知の場合、CPU220は第1の実施形態における自動パス切替えサブプログラム245と、基本的には同様の処理を行う(ステップ261〜266)。
しかし、ステップ263で、共有ポートが「共有可」属性で無い場合の処理が第1の実施形態から異なる。その場合、CPU220は共有ポートが「使用中」属性か確認する。「使用中」でない場合は処理を終了し、さもなくば処理を続行する(ステップ316)。
この場合、当該SANポート8は負荷分散に使用中のため、CPU220は負荷分散の設定を解除し交代ポートとして使用するよう設定変更を行う。具体的には、CPU220は当該SANポート8へアクセスしているホスト2をノード構成テーブル246から検索し、各ホスト2の論理パス構成テーブルから、当該SANポート8を使用するアクセス経路設定を削除する(ステップ317)。
その後、CPU220は、共有ポートの属性を「使用中」から「共有可」に変更する設定をストレージシステム1に対して行い、ステップ262へ戻る(ステップ318)。
このような、自動パス切替えサブプログラム245により、実施形態1では障害が発生しない限り使用されなかった共有ポートを、平常時は負荷分散にも用いることが可能となる。
以上実施例で本発明を説明したが、本発明の計算機システムの管理計算機について、ホスト計算機、ストレージ装置又はスイッチが行うようにすることも可能である。ストレージ装置が、SANネットワークを使用して行うこともできる。なお、上述した例では、ポートの属性について、共有可能属性と交代属性は排他的に設定されるように説明した。しかし、交代属性が設定されているポートに共有可能属性を重複して割り当てることもできる。ただし、この場合、LUNをずらす等の考慮をする必要がある。
本発明の他の実施形態1は、前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧する計算機システムである。
本発明の他の実施形態2は、前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からのポート過負荷通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示しポート過負荷を解決する計算機システムである。
本発明の他の実施形態3は、前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートの属性を確認し、ポート過負荷で使用中の共有ポートの属性を変更し、該共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧する計算機システムである。
本発明の他の実施形態4は、前記管理計算機は、前記ストレージ装置のパッケージ交換時に、該パッケージのパス定義を共有ポートへ変更し該当ホスト計算機及び該当ストレージ装置に設定するよう指示する計算機システムである。
本発明の他の実施形態5は、1台以上のホスト計算機及び前記ホスト計算機に論理記憶領域を提供する1台以上のストレージ装置とネットワークを介して接続して計算機システムを構成する管理計算機において、CPU、メモリコントローラ、メインメモリ及び接続用のインタフェースを備え、前記ホスト計算機又は前記ストレージ装置からの経路不具合通知を受信すると、新たなパス定義を該当ホスト計算機及び該当ストレージ装置に設定するよう指示する管理計算機である。
本発明の他の実施形態6は、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧する管理計算機である。
本発明の他の実施形態7は、前記ホスト計算機又は前記ストレージ装置からのポート過負荷通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示しポート過負荷を解決する管理計算機である。
本発明の他の実施形態8は、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートの属性を確認し、ポート過負荷で使用中の共有ポートの属性を変更し、該共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧する管理計算機である。
本発明の他の実施形態9は、前記ストレージ装置のパッケージ交換時に、該パッケージのパス定義を共有ポートへ変更し該当ホスト計算機及び該当ストレージ装置に設定するよう指示する管理計算機である。
本発明の他の実施形態10は、1台以上のホスト計算機、前記ホスト計算機に論理記憶領域を提供する1台以上のストレージ装置、及び、前記ホスト計算機及び前記ストレージ装置とネットワークを介して接続する管理計算機を備える計算機システムにおけるアクセスパス管理方法において、前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からの経路不具合通知を受信し、新たなパス定義を該当ホスト計算機及び該当ストレージ装置に設定するよう指示するアクセスパス管理方法である。
本発明の他の実施形態11は、前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信し、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧するアクセスパス管理方法である。
本発明の他の実施形態12は、前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からのポート過負荷通知を受信し、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示しポート過負荷を解決するアクセスパス管理方法である。
本発明の他の実施形態13は、前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信し、該ストレージ装置の共有ポートの属性を確認し、ポート過負荷で使用中の共有ポートの属性を変更し、該共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧するアクセスパス管理方法である。
本発明の他の実施形態14は、前記管理計算機により、前記ストレージ装置のパッケージ交換時に、該パッケージのパス定義を共有ポートへ変更し該当ホスト計算機及び該当ストレージ装置に設定するよう指示するアクセスパス管理方法である。
実施例1のコンピュータシステムの構成図。 実施例1のストレージシステムのハードウェア構成図。 実施例1のストレージシステムのソフトウェア構成図。 実施例1のストレージポート状態テーブルの構成図。 実施例1のLU構成テーブルの構成図。 実施例1のホストのハードウェア構成図。 実施例1のホストのソフトウェア構成図。 実施例1のホストが保持する各テーブルの構成図。 実施例1のSAN管理計算機のハードウェア構成図。 実施例1のSAN管理計算機のソフトウェア構成図。 実施例1のノード構成テーブルの構成図。 実施例1の自動パス切替えサブプログラムの処理フローを示す図。 実施例1のパス障害復旧のラダーチャートを示す図。 実施例2の保守作業フローを示す図。 実施例3のストレージシステムのソフトウェア構成図。 実施例3の自動パス切替えサブプログラムの処理フローを示す図。
符号の説明
1 ストレージシステム
2 ホスト計算機
3 SANスイッチ
4 SAN管理計算機
5 LAN
100 ホストI/F部
101 ディスクI/F部
102 共有メモリ部
103 システム管理部
104 スイッチ部
106 外部I/F
107 ポートプロセッサ
108 転送制御部
109 ディスクI/F
110 ディスクプロセッサ
111 管理I/F
112 管理プロセッサ
113 不揮発メモリ
120 コマンド処理プログラム
121 LU構成テーブル
122 障害検出プログラム
123 キャッシュディレクトリ
124 キャッシュデータ
125 HDD制御プログラム
126 ストレージ管理プログラム
127 ストレージ初期化処理
128 構成管理処理
129 障害通知処理
130 ストレージポート状態テーブル
131 ノード情報
160、220 CPU
161、221 メインメモリ
162、222 メモリコントローラ
163、223 HDD I/F
164、224 ディスプレイI/F
165、225 入力I/F
166 HBA
167、227 ネットワークI/F
168、228 バス
169、229 HDD
170、230 ディスプレイ装置
171、231 入力デバイス
180 アプリケーション
181 ファイルシステム
182 アクセス制御ドライバ
183 ホスト管理プログラム
184 I/O処理
185 パス状態管理処理
186 HVOL構成テーブル
187 論理パス構成テーブル
188 ホスト初期化処理
189 障害通知処理
190 構成管理処理
191 ホストポート状態テーブル
192 ノード情報
240 SAN管理プログラム
241 管理サーバ初期化処理
242 管理サーバサブプログラム
243 ノード状態監視処理
244 ノード構成サブプログラム
245 自動パス切替えサブプログラム
246 ノード構成テーブル
300 ポート稼動ステータス
301 ポート監視プログラム

Claims (15)

  1. 1台以上のホスト計算機、前記ホスト計算機に論理記憶領域を提供する1台以上のストレージ装置、及び、前記ホスト計算機及び前記ストレージ装置とネットワークを介して接続する管理計算機を備える計算機システムにおいて、
    前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からの経路不具合通知を受信すると、新たなパス定義を該当ホスト計算機及び該当ストレージ装置に設定するよう指示することを特徴とする計算機システム。
  2. 請求項1記載の計算機システムにおいて、
    前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧することを特徴とする計算機システム。
  3. 請求項1記載の計算機システムにおいて、
    前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からのポート過負荷通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示しポート過負荷を解決することを特徴とする計算機システム。
  4. 請求項1記載の計算機システムにおいて、
    前記管理計算機は、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートの属性を確認し、ポート過負荷で使用中の共有ポートの属性を変更し、該共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧することを特徴とする計算機システム。
  5. 請求項1記載の計算機システムにおいて、
    前記管理計算機は、前記ストレージ装置のパッケージ交換時に、該パッケージのパス定義を共有ポートへ変更し該当ホスト計算機及び該当ストレージ装置に設定するよう指示することを特徴とする計算機システム。
  6. 1台以上のホスト計算機及び前記ホスト計算機に論理記憶領域を提供する1台以上のストレージ装置とネットワークを介して接続して計算機システムを構成する管理計算機において、
    CPU、メモリコントローラ、メインメモリ及び接続用のインタフェースを備え、前記ホスト計算機又は前記ストレージ装置からの経路不具合通知を受信すると、新たなパス定義を該当ホスト計算機及び該当ストレージ装置に設定するよう指示することを特徴とする管理計算機。
  7. 請求項6記載の管理計算機において、
    前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧することを特徴とする管理計算機。
  8. 請求項6記載の管理計算機において、
    前記ホスト計算機又は前記ストレージ装置からのポート過負荷通知を受信すると、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示しポート過負荷を解決することを特徴とする管理計算機。
  9. 請求項6記載の管理計算機において、
    前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信すると、該ストレージ装置の共有ポートの属性を確認し、ポート過負荷で使用中の共有ポートの属性を変更し、該共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧することを特徴とする管理計算機。
  10. 請求項6記載の管理計算機において、
    前記ストレージ装置のパッケージ交換時に、該パッケージのパス定義を共有ポートへ変更し該当ホスト計算機及び該当ストレージ装置に設定するよう指示することを特徴とする管理計算機。
  11. 1台以上のホスト計算機、前記ホスト計算機に論理記憶領域を提供する1台以上のストレージ装置、及び、前記ホスト計算機及び前記ストレージ装置とネットワークを介して接続する管理計算機を備える計算機システムにおけるアクセスパス管理方法において、
    前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からの経路不具合通知を受信し、新たなパス定義を該当ホスト計算機及び該当ストレージ装置に設定するよう指示することを特徴とするアクセスパス管理方法。
  12. 請求項11記載のアクセスパス管理方法において、
    前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信し、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧することを特徴とするアクセスパス管理方法。
  13. 請求項11記載のアクセスパス管理方法において、
    前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からのポート過負荷通知を受信し、該ストレージ装置の共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示しポート過負荷を解決することを特徴とするアクセスパス管理方法。
  14. 請求項11記載のアクセスパス管理方法において、
    前記管理計算機により、前記ホスト計算機又は前記ストレージ装置からの経路障害通知を受信し、該ストレージ装置の共有ポートの属性を確認し、ポート過負荷で使用中の共有ポートの属性を変更し、該共有ポートを用いた新たなアクセス経路を該当ホスト計算機及び該当ストレージ装置に設定するよう指示し経路障害を復旧することを特徴とするアクセスパス管理方法。
  15. 請求項11記載のアクセスパス管理方法において、
    前記管理計算機により、前記ストレージ装置のパッケージ交換時に、該パッケージのパス定義を共有ポートへ変更し該当ホスト計算機及び該当ストレージ装置に設定するよう指示することを特徴とするアクセスパス管理方法。
JP2005256373A 2005-09-05 2005-09-05 計算機システム及び管理計算機ならびにアクセスパス管理方法 Pending JP2007072571A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005256373A JP2007072571A (ja) 2005-09-05 2005-09-05 計算機システム及び管理計算機ならびにアクセスパス管理方法
US11/254,796 US20070055797A1 (en) 2005-09-05 2005-10-21 Computer system, management computer, method of managing access path
EP06250804A EP1760591B1 (en) 2005-09-05 2006-02-15 System and method of managing access path
DE602006005567T DE602006005567D1 (de) 2005-09-05 2006-02-15 System und Verfahren zur Zugriffspfadverwaltung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005256373A JP2007072571A (ja) 2005-09-05 2005-09-05 計算機システム及び管理計算機ならびにアクセスパス管理方法

Publications (1)

Publication Number Publication Date
JP2007072571A true JP2007072571A (ja) 2007-03-22

Family

ID=36888952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005256373A Pending JP2007072571A (ja) 2005-09-05 2005-09-05 計算機システム及び管理計算機ならびにアクセスパス管理方法

Country Status (4)

Country Link
US (1) US20070055797A1 (ja)
EP (1) EP1760591B1 (ja)
JP (1) JP2007072571A (ja)
DE (1) DE602006005567D1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110218A (ja) * 2007-10-30 2009-05-21 Fujitsu Ltd 仮想化スイッチおよびそれを用いたコンピュータシステム
US7849258B2 (en) 2007-09-07 2010-12-07 Hitachi, Ltd. Storage apparatus and data verification method for the same
US8078690B2 (en) 2007-12-13 2011-12-13 Hitachi, Ltd. Storage system comprising function for migrating virtual communication port added to physical communication port
US8176202B2 (en) 2007-06-27 2012-05-08 Hitachi, Ltd. Multi-host management server in storage system, program for the same and path information management method
US8473592B2 (en) 2007-06-28 2013-06-25 Hitachi, Ltd. Storage system and management method in storage system
JP2015127968A (ja) * 2015-02-16 2015-07-09 株式会社日立製作所 ストレージシステム、ストレージシステム管理方法、及び計算機システム
US10642705B2 (en) 2018-01-15 2020-05-05 Fujitsu Limited Storage system and storage method

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3996010B2 (ja) * 2002-08-01 2007-10-24 株式会社日立製作所 ストレージネットワークシステム、管理装置、管理方法及びプログラム
US8874806B2 (en) * 2005-10-13 2014-10-28 Hewlett-Packard Development Company, L.P. Methods and apparatus for managing multipathing software
US7962567B1 (en) * 2006-06-27 2011-06-14 Emc Corporation Systems and methods for disabling an array port for an enterprise
US7937481B1 (en) 2006-06-27 2011-05-03 Emc Corporation System and methods for enterprise path management
US8422357B1 (en) * 2007-02-16 2013-04-16 Amdocs Software Systems Limited System, method, and computer program product for updating an inventory of network devices based on an unscheduled event
US8204980B1 (en) 2007-06-28 2012-06-19 Emc Corporation Storage array network path impact analysis server for path selection in a host-based I/O multi-path system
US8918537B1 (en) 2007-06-28 2014-12-23 Emc Corporation Storage array network path analysis server for enhanced path selection in a host-based I/O multi-path system
JP4857248B2 (ja) * 2007-11-13 2012-01-18 株式会社日立製作所 第一の計算機システムで設定されたパスの冗長度の設定を第二の計算機システムに反映する計算機及び方法
US7930448B2 (en) * 2008-03-13 2011-04-19 International Business Machines Corporation System and method for storage subsystem port reassignment in storage area networks
WO2010067403A1 (en) * 2008-12-11 2010-06-17 Hitachi, Ltd. Path changeover support device and method
US8549124B2 (en) * 2009-05-27 2013-10-01 International Business Machines Corporation Network management discovery tool
JP5528243B2 (ja) * 2010-07-23 2014-06-25 インターナショナル・ビジネス・マシーンズ・コーポレーション マルチパスを制御するシステム及び方法
US8782358B2 (en) * 2011-04-27 2014-07-15 International Business Machines Corporation Transparent input / output switching between synchronously mirrored storage volumes
TWI579688B (zh) * 2012-02-29 2017-04-21 萬國商業機器公司 磁碟陣列資料儲存系統
JP5510679B2 (ja) * 2012-03-30 2014-06-04 日本電気株式会社 ディスクアレイ装置、ディスクアレイシステム、障害経路特定方法、及びプログラム
US10237127B1 (en) * 2012-09-28 2019-03-19 EMC IP Holding Company LLC Unified initialization utility
US9258242B1 (en) 2013-12-19 2016-02-09 Emc Corporation Path selection using a service level objective
RU2013156784A (ru) 2013-12-20 2015-06-27 ИЭмСи КОРПОРЕЙШН Способ и устройство выбора маршрута чтения и записи данных
US10855791B2 (en) * 2014-11-25 2020-12-01 Netapp, Inc. Clustered storage system path quiescence analysis
US10754866B2 (en) * 2015-04-30 2020-08-25 Hitachi, Ltd. Management device and management method
KR20220020029A (ko) * 2020-08-11 2022-02-18 삼성전자주식회사 메모리 컨트롤러, 메모리 컨트롤러의 동작 방법 및 스토리지 장치
KR20220060909A (ko) 2020-11-05 2022-05-12 삼성전자주식회사 스토리지 시스템 및 스토리지 시스템의 동작 방법
EP4113311B1 (en) * 2021-07-01 2023-09-13 Samsung Electronics Co., Ltd. Storage device, operating method of storage device, and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744331A (ja) * 1993-07-30 1995-02-14 Hitachi Ltd ディスクアレイ装置およびその制御方法
JP2003131897A (ja) * 2001-10-24 2003-05-09 Hitachi Ltd ポートを内蔵したストレージ
JP2004072135A (ja) * 2002-08-01 2004-03-04 Hitachi Ltd ストレージネットワークシステム、管理装置、管理方法及びプログラム
JP2004220450A (ja) * 2003-01-16 2004-08-05 Hitachi Ltd ストレージ装置、その導入方法、及びその導入プログラム
JP2005115581A (ja) * 2003-10-07 2005-04-28 Hitachi Ltd ストレージパス制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5435003A (en) * 1993-10-07 1995-07-18 British Telecommunications Public Limited Company Restoration in communications networks
US6934249B1 (en) * 1997-04-01 2005-08-23 Cisco Technology, Inc. Method and system for minimizing the connection set up time in high speed packet switching networks
US7103653B2 (en) * 2000-06-05 2006-09-05 Fujitsu Limited Storage area network management system, method, and computer-readable medium
US7058009B1 (en) * 2000-09-15 2006-06-06 Pluris, Inc. Router-level automatic protection switching
US7406039B2 (en) * 2002-02-26 2008-07-29 Dell Products L.P. System and method for a failover protocol in storage area network controllers
US7236967B2 (en) * 2002-06-03 2007-06-26 Hewlett-Packard Development Company, L.P. Methods and systems for maintaining transaction semantics in a computer system
JP4285058B2 (ja) * 2003-04-21 2009-06-24 株式会社日立製作所 ネットワーク管理プログラム、管理計算機及び管理方法
US6968401B2 (en) * 2003-06-26 2005-11-22 International Business Machines Corporation Method, system, and program for maintaining and swapping paths in an MPIO environment
JP2005108098A (ja) * 2003-10-01 2005-04-21 Hitachi Ltd データi/o装置及びデータi/o装置の制御方法
JP2005301880A (ja) * 2004-04-15 2005-10-27 Hitachi Ltd 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、
US8176287B2 (en) * 2004-12-06 2012-05-08 International Business Machines Corporation LAN-managed storage volume initialization for LAN-free storage operation
US7835267B2 (en) * 2005-05-09 2010-11-16 Cisco Technology, Inc. Dynamic path protection in an optical network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744331A (ja) * 1993-07-30 1995-02-14 Hitachi Ltd ディスクアレイ装置およびその制御方法
JP2003131897A (ja) * 2001-10-24 2003-05-09 Hitachi Ltd ポートを内蔵したストレージ
JP2004072135A (ja) * 2002-08-01 2004-03-04 Hitachi Ltd ストレージネットワークシステム、管理装置、管理方法及びプログラム
JP2004220450A (ja) * 2003-01-16 2004-08-05 Hitachi Ltd ストレージ装置、その導入方法、及びその導入プログラム
JP2005115581A (ja) * 2003-10-07 2005-04-28 Hitachi Ltd ストレージパス制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8176202B2 (en) 2007-06-27 2012-05-08 Hitachi, Ltd. Multi-host management server in storage system, program for the same and path information management method
US8423665B2 (en) 2007-06-27 2013-04-16 Hitachi, Ltd. Multi-host management server in storage system, program for the same and path information management method
US8473592B2 (en) 2007-06-28 2013-06-25 Hitachi, Ltd. Storage system and management method in storage system
US7849258B2 (en) 2007-09-07 2010-12-07 Hitachi, Ltd. Storage apparatus and data verification method for the same
JP2009110218A (ja) * 2007-10-30 2009-05-21 Fujitsu Ltd 仮想化スイッチおよびそれを用いたコンピュータシステム
US8078690B2 (en) 2007-12-13 2011-12-13 Hitachi, Ltd. Storage system comprising function for migrating virtual communication port added to physical communication port
US8937965B2 (en) 2007-12-13 2015-01-20 Hitachi, Ltd. Storage system comprising function for migrating virtual communication port added to physical communication port
JP2015127968A (ja) * 2015-02-16 2015-07-09 株式会社日立製作所 ストレージシステム、ストレージシステム管理方法、及び計算機システム
US10642705B2 (en) 2018-01-15 2020-05-05 Fujitsu Limited Storage system and storage method

Also Published As

Publication number Publication date
DE602006005567D1 (de) 2009-04-23
EP1760591A1 (en) 2007-03-07
EP1760591B1 (en) 2009-03-11
US20070055797A1 (en) 2007-03-08

Similar Documents

Publication Publication Date Title
JP2007072571A (ja) 計算機システム及び管理計算機ならびにアクセスパス管理方法
US11249857B2 (en) Methods for managing clusters of a storage system using a cloud resident orchestrator and devices thereof
JP6955466B2 (ja) Ssdのデータ複製システム及び方法
US7480780B2 (en) Highly available external storage system
US7162658B2 (en) System and method for providing automatic data restoration after a storage device failure
US7546414B2 (en) Computer system, storage system, and device control method
US8607230B2 (en) Virtual computer system and migration method of virtual computer
US7447933B2 (en) Fail-over storage system
US8402189B2 (en) Information processing apparatus and data transfer method
JP2005326935A (ja) 仮想化ストレージを備える計算機システムの管理サーバおよび障害回避復旧方法
US9823955B2 (en) Storage system which is capable of processing file access requests and block access requests, and which can manage failures in A and storage system failure management method having a cluster configuration
JP5352115B2 (ja) ストレージシステム及びその監視条件変更方法
US20140122816A1 (en) Switching between mirrored volumes
JP2005267327A (ja) ストレージシステム
US8078904B2 (en) Redundant configuration method of a storage system maintenance/management apparatus
US20100275219A1 (en) Scsi persistent reserve management
JP2010003061A (ja) 計算機システム及びそのi/o構成変更方法
US20120047327A1 (en) Disk array device and control method for the same
US8095820B2 (en) Storage system and control methods for the same
US20080288671A1 (en) Virtualization by multipath management software for a plurality of storage volumes
US7886186B2 (en) Storage system and management method for the same
JP2008033704A (ja) リモートコピーを行うストレージシステム
US10915405B2 (en) Methods for handling storage element failures to reduce storage device failure rates and devices thereof
JP2010033379A (ja) 仮想化システム及び仮想化の復旧方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110329