JP2007148812A - ストレージシステム及びその負荷分散方法 - Google Patents

ストレージシステム及びその負荷分散方法 Download PDF

Info

Publication number
JP2007148812A
JP2007148812A JP2005342643A JP2005342643A JP2007148812A JP 2007148812 A JP2007148812 A JP 2007148812A JP 2005342643 A JP2005342643 A JP 2005342643A JP 2005342643 A JP2005342643 A JP 2005342643A JP 2007148812 A JP2007148812 A JP 2007148812A
Authority
JP
Japan
Prior art keywords
path
storage
logical
storage control
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005342643A
Other languages
English (en)
Inventor
Noriyuki Kashima
敬之 加島
Masashi Nozawa
正史 野沢
Kiyousuke Achiwa
恭介 阿知和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005342643A priority Critical patent/JP2007148812A/ja
Priority to US11/341,720 priority patent/US7716419B2/en
Publication of JP2007148812A publication Critical patent/JP2007148812A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2206/00Indexing scheme related to dedicated interfaces for computers
    • G06F2206/10Indexing scheme related to storage interfaces for computers, indexing schema related to group G06F3/06
    • G06F2206/1012Load balancing

Abstract

【課題】共通の実デバイスを複数の記憶制御装置で仮想化する機能を備えたストレージシステムの負荷分散を図る。
【解決手段】ストレージシステム(100)は、実デバイス(1055)へのデータ入出力を要求するホストシステム(1008)と、それぞれが少なくとも一つ以上の仮想デバイス(1030,1042)を有する複数の記憶制御装置(1019,1032)と、を備える。仮想デバイス(1030,1042)は、共通の実デバイス(1055)を仮想化したものである。ホストシステム(1008)は、共通の実デバイス(1055)を仮想化してなる複数の仮想デバイス(1030,1042)のそれぞれに接続する複数の論理パスのうち一部の論理パスを他の論理パスの交替パスとして設定する。
【選択図】図1

Description

本発明は共通の実デバイスを複数の記憶制御装置で仮想化する機能を備えたストレージシステム及びその負荷分散方法に関する。
データセンタ等の大容量のデータを取り扱うデータベースシステムでは、ディスクアレイシステム等のストレージシステムを用いてデータを管理する。ディスクアレイシステムは、アレイ状に配設された多数の記憶デバイスを備え、RAID(Redundant Arrays of Independent Inexpensive Disks)構成された記憶資源をホストシステムに提供する。ホストシステムとストレージシステムとは、SAN(Storage Area Network)のようなデバイス共有型のネットワークを介して相互に接続される。ストレージシステムの運用形態として、特開2005−165444号公報には、外部ストレージの記憶領域を上位装置と接続可能な資源として利用する方法が提案されている。また、特開2003−316522号公報には、複数の記憶システムが備える機能の有無の差や仕様の差異を吸収し、複数の記憶システムの機能を統合的に連携する方法が提案されている。
特開2005−165444号公報 特開2003−316522号公報
外部デバイスの仮想化技術を用いれば、複数の記憶制御装置で共通の外部デバイスを仮想化することで、ホストシステムは、何れか一つの記憶制御装置に接続する論理パスの負荷が重くなり、或いは論理パスに障害等が発生したとしても、他の記憶制御装置に接続する論理パスにアクセスパスを切り替えることで、I/O処理を継続することができる。
しかし、従来では、複数の記憶制御装置で共通の外部デバイスを仮想化したとしても、それぞれの記憶制御装置で共通の外部デバイスを仮想化していることを認識することができなかったため、ホストシステムは、何れか一つの記憶制御装置に接続する論理パスの負荷が重くなり、或いは論理パスに障害等が発生したとしても、他の記憶制御装置に接続する論理パスにアクセスパスを切り替えることができなかった。
そこで、本発明は上記の問題を解決し、共通の実デバイスを複数の記憶制御装置で仮想化する機能を備えたストレージシステムの負荷分散を図ることを課題とする。
上記の課題を解決するため、本発明では、複数の記憶制御装置のそれぞれが有する仮想デバイスが共通の実デバイスを仮想化したものであることを認識し、共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれとホストシステムとを接続する複数の論理パスのうち一部の論理パスを他の論理パスの交替パスとして設定する。
複数の記憶制御装置のそれぞれが有する仮想デバイスが共通の実デバイスを仮想化したものであることを認識するための手段として、GUID(Globally Unique Identifier)を用いるのが望ましい。ストレージシステム内の各論理デバイスには、ストレージシステム全体でユニークな識別情報として、GUIDがアサインされる。具体的には、実記憶領域を有する論理デバイスには、固有のGUIDがアサインされる。一方、実記憶領域を有する論理デバイスを仮想化してなる仮想デバイスには、仮想化元の論理デバイスのGUIDがアサインされる。複数の記憶制御装置のそれぞれが有する仮想デバイスのGUIDが一致していれば、それらの仮想デバイスは、共通の実デバイスを仮想化したものであることを認識できる。
共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれに接続する複数の論理パスとホストシステムとの間のパス切り替えを制御することで、各記憶制御装置の負荷が略均等になるように負荷分散を実現できる。
本発明によれば、共通の実デバイスを複数の記憶制御装置で仮想化する機能を備えたストレージシステムの負荷分散を実現できる。
図1乃至図2を参照しながら、本実施形態に係るストレージシステム100の負荷分散方法の概要について説明する。
図1は本実施形態に係るストレージシステム100のシステム構成を示す。ストレージシステム100は、ホストシステム1008、第一の記憶制御装置1019、第二の記憶制御装置1032、外部記憶制御装置1045、及び管理サーバ1000を備える。
第一の記憶制御装置1019は、内部LDEV(内部論理デバイス)1031、仮想LDEV(仮想論理デバイス)1030、FC(Fibre Channel)ポート1020,1029、及びサービスプロセッサ(SVP)1022を備える。
内部LDEV1031は、第一の記憶制御装置1019内に設けられた物理的なストレージデバイス(例えば、ディスクドライブ)上に定義される実デバイスである。仮想LDEV1030は、実記憶領域を有しない仮想的な存在であり、データを記憶する実体的な記憶領域は、外部記憶制御装置1045内の外部LDEV(外部論理デバイス)1055に存在する。即ち、第一の記憶制御装置1019が有する記憶階層に、外部記憶制御装置1045が有する外部LDEV1055がマッピングされることにより、仮想LDEV1030が構築されている。マッピングとは、各デバイスのアドレス空間同士を対応付けることをいう。対応付けられるデバイスは、実デバイスでもよく、或いは仮想デバイスでもよい。外部LDEV1055を仮想LDEV1030にマッピングする仮想化方法の詳細については、特開2005−107645号公報に開示されている。第一の記憶制御装置1019は、外部LDEV1055を自己の内部デバイスとして取り込み、これをLU(Logical Unit)として、ホストシステム1008に提供する。
第二の記憶制御装置1032は、内部LDEV(内部論理デバイス)1043、仮想LDEV(仮想論理デバイス)1042、FCポート1034,1044、及びサービスプロセッサ(SVP)1033を備える。
仮想LDEV1042は、実記憶領域を有しない仮想的な存在であり、データを記憶する実体的な記憶領域は、外部記憶制御装置1045内の外部LDEV1055に存在する。即ち、第二の記憶制御装置1032が有する記憶階層に、外部記憶制御装置1045が有する外部LDEV1055がマッピングされることにより、仮想LDEV1042が構築されている。第二の記憶制御装置1032は、外部LDEV1055を自己の内部デバイスとして取り込み、これをLU(Logical Unit)として、ホストシステム1008に提供する。
このように、本実施形態では、複数の記憶制御装置1019,1032が共通の外部LDEV1055を仮想化し、仮想LDEV1030,1042をホストシステム1008に提供している。
外部記憶制御装置1045は、外部LDEV1055、及びFCポート1046を備える。
外部LDEV1055は、外部記憶制御装置1045内に設けられた物理的なストレージデバイス(例えば、ディスクドライブ)上に定義される実デバイスである。外部LDEV1055は、第一の記憶制御装置1019又は第二の記憶制御装置1032から見て外部に存在するため、本明細書では便宜上、外部LDEVと称するが、外部記憶制御装置1045の内部に存在するという意味では、内部LDEVでもある。また、外部記憶制御装置1045は、外部LDEV1055を有するため、本明細書では便宜上、外部記憶制御装置と称するが、第三の記憶制御装置と称してもよい。また、第一及び第二の記憶制御装置は、中間記憶制御装置と別称してもよい。更に、記憶制御装置は、DKCと別称してもよい。
ホストシステム1008は、パス管理ソフトウェア1012、LANポート1014、及びFCポート1015を備える。
管理サーバ1000は、管理ソフトウェア1003、及びLANポート1007を備える。
LANポート1007,1014、及びサービスプロセッサ1022,1033は、LAN1056を介して相互に接続されている。FCポート1015は、ファイバチャネル1057を介してFCポート1020、及びFCポート1034に接続されている。FCポート1046は、ファイバチャネル1057を介してFCポート1029、及びFCポート1044に接続されている。
ストレージシステム100内の各論理デバイスには、システム全体でユニークな識別情報として、GUID(Globally Unique Identifier)がアサインされている。実記憶領域を有する内部LDEV1031,1043、及び外部LDEV1055には、固有のGUIDがアサインされる。一方、実記憶領域を有しない仮想LDEV1030,1042には、仮想化元の論理デバイスのGUID、即ち、外部LDEV1055のGUIDがアサインされる。本実施形態では、仮想LDEV1030,1042は、両者とも外部LDEV1055を仮想化したデバイスであるので、同一のGUIDを有することになる。
パス管理ソフトウェア1012は、仮想LDEV1030,1042のGUIDが同一であることから、両者は、同一の論理デバイスを仮想化したものであることを認識し、ホストシステム1008から仮想LDEV1030を経由して外部LDEV1055に接続する論理パスと、ホストシステム1008から仮想LDEV1042を経由して外部LDEV1055に接続する論理パスのうち何れか一方の論理パスを他方の論理パスの交替パスとして設定する。
管理ソフトウェア1003は、ホストシステム1008から外部LDEV1055に接続する交替パスの構成情報を管理するとともに、第一の記憶制御装置1019及び第二の記憶制御装置1032のそれぞれの負荷を監視する。そして、管理ソフトウェア1003は、第一の記憶制御装置1019又は第二の記憶制御装置1032のうち何れか一方の負荷が予め定められた閾値を越えたことを検出すると、パス管理ソフトウェア1012にパス切り替えを指示する。すると、パス管理ソフトウェア1012はパス切り替えを実行する。
記憶制御装置の負荷としては、リソース使用率(例えば、キャッシュメモリの利用率、IOPS(単位時間あたりの記憶制御装置のI/O処理回数)、転送レート(単位時間あたりに論理パスに流れるデータ転送量)、応答時間(記憶制御装置がホストシステムからI/Oリクエストを受信してから応答するまでの時間)、I/O処理時間(記憶制御装置がI/O処理に要する時間)など)を用いることができる。
ここで、図2(A)、図2(B)を参照しながら、パス切り替えについて説明する。ホストシステム1008から各デバイス1031,1043,1055にアクセスするためのパスとして、複数の論理パスP1,P2,P3,P4が定義されている場合を考える。論理パスP1は、ホストシステム1008が内部LDEV1031にアクセスするためのものである。論理パスP2は、ホストシステム1008が仮想LDEV1030を介して外部LDEV1055にアクセスするためのものである。論理パスP3は、ホストシステム1008が内部LDEV1043にアクセスするためのものである。論理パスP4は、ホストシステム1008が仮想LDEV1042を介して外部LDEV1055にアクセスするためのものである。
図2(A)に示すように、ホストシステム1008は、論理パスP1,P2,P3を使用して内部LDEV1031、外部LDEV1055、内部LDEV1043にアクセスする。第一の記憶制御装置1019が高負荷の状態にあり、第二の記憶制御装置1032が低負荷の状態にあるものとする。すると、図2(B)に示すように、パス管理ソフトウェア1012は、外部LDEV1055にアクセスするためのパスを、論理パスP2から論理パスP4に切り替える。これにより、第一の記憶制御装置1019の負荷と、第二の記憶制御装置1032の負荷とをそれぞれ同程度にバランスできる。尚、パス切り替えとは、上記の例で言えば、論理パスP2を"Active"から"Standby"に切り替える一方、論理パスP4を"Standby"から"Active"に切り替えることをいう。
以下、図3乃至図19を参照しながら本発明の実施例について説明する。
図3は実施例に係わるストレージシステム100のシステム構成を示す。図1に示した符号と同一符号の装置等は同一の装置等を示すものとしてその詳細な説明を省略する。
ホストシステム1008は、CPU1009、メモリ1010、LANポート1014及びFCポート1015〜1018を備える。CPU1009は、第一の記憶制御装置1019、第二の記憶制御装置1032、及び外部記憶制御装置1045へのアクセス制御や、論理パスの切り替え制御などを行う。メモリ1010は、オペレーティングシステム1011、パス管理ソフトウェア1012、及び論理パステーブル1013を格納する。パス管理ソフトウェア1012、及び論理パステーブル1013の詳細については、後述する。ホストシステム1008は、例えば、ワークステーション、メインフレーム、パーソナルコンピュータ等であり、具体的には、銀行の自動預金預け支払いシステムや航空機の座席予約システム等である。
第一の記憶制御装置1019は、CPU1023、メモリ1024、キャッシュメモリ(CM)1025、内部LDEV1031、仮想LDEV1030、FCポート1020,1021,1029、及びサービスプロセッサ1022を備える。CPU1023は、第一の記憶制御装置1019のシステム制御を行う。メモリ1024は、パス設定テーブル1026、LDEVテーブル1027、及びコントロールプログラム1028を格納する。キャッシュメモリ1025は、内部LDEV1031又は仮想LDEV1030に読み書きされるデータを一時的に格納する。パス設定テーブル1026、及びLDEVテーブル1027の詳細については、後述する。
第二の記憶制御装置1032は、CPU1041、メモリ1036、キャッシュメモリ(CM)1037、内部LDEV1043、仮想LDEV1042、FCポート1034,1035,1044、及びサービスプロセッサ1033を備える。CPU1041は、第二の記憶制御装置1032のシステム制御を行う。メモリ1036は、パス設定テーブル1038、LDEVテーブル1039、及びコントロールプログラム1040を格納する。キャッシュメモリ1037は、内部LDEV1043又は仮想LDEV1042に読み書きされるデータを一時的に格納する。パス設定テーブル1038、及びLDEVテーブル1039の詳細については、後述する。
外部記憶制御装置1045は、CPU1049、メモリ1050、キャッシュメモリ(CM)1051、外部LDEV1055、FCポート1046,1047、及びサービスプロセッサ1048を備える。CPU1049は、外部記憶制御装置1045のシステム制御を行う。メモリ1050は、パス設定テーブル1052、LDEVテーブル1053、及びコントロールプログラム1054を格納する。キャッシュメモリ1051は、外部LDEV1055に読み書きされるデータを一時的に格納する。パス設定テーブル1052、及びLDEVテーブル1053の詳細については、後述する。
管理サーバ1000は、CPU1001、メモリ1002、及びLANポート1007を備える。CPU1001は、ストレージシステム100全体の各種の論理資源及び物理資源を管理する。メモリ1002は、管理ソフトウェア1003、ホスト管理テーブル1004、論理パス管理テーブル1005、及びストレージ管理テーブル1006を格納する。ホスト管理テーブル1004、論理パス管理テーブル1005、及びストレージ管理テーブル1006の詳細については、後述する。
尚、ホストシステム1008のLANポート1014、第一の記憶制御装置1019のサービスプロセッサ1022、第二の記憶制御装置1032のサービスプロセッサ1033、外部記憶制御装置1045のサービスプロセッサ1048、及び管理サーバ1000のLANポート1007は、LAN1056を介して相互に接続している。また、ホストシステム1008のFCポート1015、1016は、それぞれファイバチャネル1057を介して第一の記憶制御装置1019のFCポート1021,1020に接続し、ホストシステム1008のFCポート1017、1018は、それぞれファイバチャネル1057を介して第二の記憶制御装置1032のFCポート1035,1034に接続している。また、第一の記憶制御装置1019のFCポート1029は、ファイバチャネル1057を介して外部記憶制御装置1045のFCポート1047に接続し、第二の記憶制御装置1032のFCポート1044は、ファイバチャネル1057を介して外部記憶制御装置1045のFCポート1046に接続している。
本実施例では、説明を簡略化するため、ホストシステム1008、第一の記憶制御装置1019、第二の記憶制御装置1032、及び外部記憶制御装置1045の台数は、それぞれ一台とするが、それぞれ複数台存在していてもよい。
図4はホスト管理テーブル1004のテーブル構造を示す。ホスト管理テーブル1004は、ホストシステム1008の各種情報を保持するためのものであり、管理ソフトウェア1003によって管理される。管理ソフトウェア1003は、ホスト管理テーブル1004に格納されている情報を使用してホストシステム1008にアクセスし、論理パスに関する各種情報を取得する。ホスト管理テーブル1004は、一台のホストシステムにつき一つのエントリを有する。
「ホストID」とは、ストレージシステム100の中でホストシステムを一意に識別するための識別情報である。ホストIDは、管理ソフトウェア1003によって自動生成される。「ホスト名」は、システム管理者によって決定される。「IPアドレス」は、ホストシステムのIP(Internet Protocol)アドレスである。「ユーザ名」とは、システム管理者のユーザ名である。「パスワード」とは、システム管理者のパスワードである。
図5は論理パス管理テーブル1005のテーブル構造を示す。論理パス管理テーブル1005は、論理パスの各種情報を保持するためのものであり、管理ソフトウェア1003によって管理される。管理ソフトウェア1003は、ホストシステム1008のパス管理ソフトウェア1012から論理パスの各種情報を取得し、その取得した情報を論理パス管理テーブル1005に保存する。論理パス管理テーブル1005は、一つの論理パスにつき一つのエントリを有する。
「ホストID」とは、ストレージシステム100の中でホストシステムを一意に識別するための識別情報である。「ホストID」は、管理ソフトウェア1003によって自動生成される。「パスID」とは、ホストシステム単位で論理パスを一意に識別するための識別情報である。即ち、「パスID」は、「ホストID」によって特定されるホストシステムに接続する論理パスの識別情報である。「ホストID」と「パスID」との組み合わせにより、ストレージシステム100の中で論理パスを一意に識別することができる。「GUID」とは、ストレージシステム100の中で論理デバイスを一意に識別するための識別情報である。即ち、「GUID」は、「ホストID」と「パスID」との組み合わせによって一意に特定される論理パスに接続する論理デバイスの識別情報である。「DKC ID」とは、ストレージシステム100の中で記憶制御装置を一意に識別するための識別情報である。即ち、「DKC ID」は、「ホストID」と「パスID」との組み合わせによって一意に特定される論理パスに接続する論理デバイスを有する記憶制御装置の識別情報である。「パス状態」は、論理パスの状態を示し、"Active","Standby","Failed"の3種類がある。"Active"は、論理パスが稼働状態にあることを示す。"Standby"は、論理パスが待機状態にあることを示す。"Failed"は、論理パスが障害により使用できないことを示す。
図6はストレージ管理テーブル1006のテーブル構造を示す。ストレージ管理テーブル1006は、記憶制御装置の各種情報を保持するためのものであり、管理ソフトウェア1003によって管理される。管理ソフトウェア1003は、ストレージ管理テーブル1006に格納された情報を使用して、記憶制御装置にアクセスし、CPU使用率を取得して、その情報をストレージ管理テーブル1006に格納する。ストレージ管理テーブル1006は、一つの記憶制御装置につき一つのエントリを有する。
「DKC ID」とは、ストレージシステム100の中で記憶制御装置を一意に識別するための識別情報である。「IPアドレス」とは、「DKC ID」によって特定される記憶制御装置のサービスプロセッサのIPアドレスである。「ユーザ名」とは、システム管理者のユーザ名である。「パスワード」とは、システム管理者のパスワードである。「DKC CPU使用率」とは、「DKC ID」によって特定される記憶制御装置のプロセッサ平均使用率である。
図7は論理パステーブル1013のテーブル構造を示す。論理パステーブル1013は、論理パスの各種情報を保持するためのものであり、パス管理ソフトウェア1012によって管理される。パス管理ソフトウェア1012は、各記憶制御装置のFCポートをスキャンすることにより、各FCポートに接続する論理デバイスのGUIDを取得し、同一のGUIDを有する複数の論理デバイスのそれぞれを「共通の外部デバイスを仮想化した仮想LDEV」として認識し、このような仮想LDEVに接続する複数の論理パスのうち一部の論理パスを他の論理パスの交替パスとして定義する。論理パステーブル1013は、一つの論理パスにつき一つのエントリを有する。
「パスID」とは、ホストシステム単位で論理パスを一意に識別するための識別情報である。「HBA WWN」とは、「パスID」によって特定される論理パスが接続するホストシステムのFCポートのWorld Wide Nameである。ホストシステムのFCポートは、Host Bus Adapter(HBA)と称される。「DKC ID」とは、ストレージシステム100の中で記憶制御装置を一意に識別するための識別情報である。即ち、「DKC ID」は、「パスID」によって特定される論理パスが接続する記憶制御装置の識別情報である。「ポート名」とは、「DKC ID」によって特定される記憶制御装置のFCポートの名称である。「ポート名」は、記憶制御装置単位でユニークな識別情報である。「LUN」とは、パスIDによって特定される論理パスが接続するFCポートにアサインされた論理デバイスのLogical Unit Numberである。「LUN」は、ポート単位でユニークな数値である。「GUID」とは、ストレージシステム100の中で論理デバイスを一意に識別するための識別情報である。即ち、GUIDは、「パスID」、「HBA WWN」、「DKC ID」、「ポート名」、及び「LUN」の組み合わせによって一意に特定される論理パスに接続する論理デバイスの識別情報である。「パス状態」は、論理パスの状態を示し、"Active","Standby","Failed"の3種類がある。
図8はパス設定テーブル1026のテーブル構造を示す。パス設定テーブル1026は、記憶制御装置の各FCポートにアサインされた論理デバイスの各種情報を保持する。パス管理ソフトウェア1012は、記憶制御装置のFCポートにアサインされた論理デバイスにInquiryコマンドを発行することで、パス設定テーブル1026に格納されている各種情報(LDEV割り当て情報)を取得する。Inquiryコマンドの詳細は、SCSIプロトコルに規定されている。パス設定テーブル1026は、一つのLDEV割り当て設定につき一つのエントリを有する。
「ポート名」とは、記憶制御装置のFCポートの名称である。「ポート名」は、記憶制御装置単位でユニークな識別情報である。「LUN」とは、「ポート名」によって特定されるFCポートにアサインされた論理デバイスのLogical Unit Numberである。「LUN」は、ポート単位でユニークな数値である。「HBA WWN」とは、「ポート名」と「LUN」とによって特定される論理パスが接続するホストシステムのFCポートのWorld Wide Nameである。「GUID」とは、ストレージシステム100の中で論理デバイスを一意に識別するための識別情報である。即ち、GUIDは、「ポート名」、「LUN」、及び「HBA WWN」の組み合わせによって一意に特定される論理パスに接続する論理デバイスの識別情報である。内部LDEVには、コントロールプログラムがLDEVを作成するときに、コントロールプログラムによって、GUIDがアサインされる。仮想LDEVには、外部LDEVのGUIDがアサインされる。「LDEV番号」は、「ポート名」、「LUN」、「HBA WWN」、及び「GUID」の組み合わせによって一意に特定される論理デバイスの識別情報である。「LDEV番号」は、記憶制御装置単位でユニークな識別情報である。
尚、パス設定テーブル1038,1052のテーブル構造もパス設定テーブル1026のテーブル構造と同様である。
図9はLDEVテーブル1027のテーブル構造を示す。LDEVテーブル1027は、記憶制御装置が認識している内部LDEV及び仮想LDEVの情報を保持する。LDEVテーブル1027は、一つのLDEVにつき一つのエントリを有する。
「LDEV番号」は、記憶制御装置が有する論理デバイス(内部LDEV又は仮想LDEV)の識別情報であり、記憶制御装置単位でユニークである。「外部DKCに接続する中間DKCのFCポートのWWN」とは、外部記憶制御装置に接続する中間記憶制御装置のFCポートのWorld Wide Nameである。「中間DKCに接続する外部DKCのFCポートのWWN」とは、中間記憶制御装置に接続する外部記憶制御装置のFCポートのWorld Wide Nameである。「外部DKCのLUN」とは、外部記憶制御装置の論理デバイスのLogical Unit Numberである。「外部DKCのLUN」は、ポート単位でユニークな数値である。即ち、「外部DKCのLUN」は、「外部DKCに接続する中間DKCのFCポートのWWN」と「中間DKCに接続する外部DKCのFCポートのWWN」との組み合わせによって一意に特定される。「GUID」とは、ストレージシステム100の中で論理デバイスを一意に識別するための識別情報である。即ち、「GUID」は、「外部DKCに接続する中間DKCのFCポートのWWN」、「中間DKCに接続する外部DKCのFCポートのWWN」、及び「外部DKCのLUN」の組み合わせによって一意に特定される論理デバイスの識別情報である。
尚、LDEVテーブル1039,1053のテーブル構造もLDEVテーブル1027のテーブル構造と同様である。
図10は仮想LDEV作成処理を記述したフローチャートである。仮想LDEV作成処理では、システム管理者は、第一の記憶制御装置1019及び第二の記憶制御装置1032において、外部LDEV1055を仮想化してなる仮想LDEV1030,1042と、実記憶領域を有する内部LDEV1031,1043とを、FCポート1020,1021,1034,1035にアサインする。これにより、ホストシステム1008は、仮想LDEV1030,1042を認識することができる。以下、各処理ステップについて、詳述する。
まず、システム管理者は、外部記憶制御装置1045のサービスプロセッサ1048を操作して、第一の記憶制御装置1019に接続するFCポート1047、及び第二の記憶制御装置1032に接続するFCポート1046に外部LDEV1055をアサインする(S11)。このとき、FCポート1047,1046へ外部LDEV1055をアサインするための情報(ポート名、LUN、HBAのWWN、ストレージポートのWWN、GUID、DKC ID、内部LDEVと仮想LDEVとを区別するための情報)は、外部記憶制御装置1045のパス設定テーブル1052に格納される。
次に、システム管理者は、第一の記憶制御装置1019のサービスプロセッサ1022、及び第二の記憶制御装置1032のサービスプロセッサ1033を操作して、LDEVテーブル1027,1039に仮想LDEV1030,1042のエントリを作成し、そのエントリに仮想LDEV1030,1042のLDEV番号を予約する(S12)。このとき、LDEVテーブル1027,1039に格納されている内部LDEV1031,1043のエントリには、LDEV番号とGUIDとが共にアサインされているが、仮想LDEV1030,1042のエントリには、LDEV番号だけがアサインされていて、GUIDはアサインされていない。
次に、システム管理者は、第一の記憶制御装置1019のサービスプロセッサ1022、及び第二の記憶制御装置1032のサービスプロセッサ1033を操作して、外部記憶制御装置1045に接続されたFCポート1029,1044をスキャンして、外部LDEV1055を認識し、仮想LDEV1030,1042用に予約したエントリに外部LDEV1055の情報を関連付ける(S13)。このとき、LDEVテーブル1027,1039に格納されている仮想LDEV1030,1042のエントリには、LDEV番号、外部DKCに接続する中間DKCのFCポートのWWN、中間DKCに接続する外部DKCのFCポートのWWN、外部DKCのLUN、GUIDがアサインされる。
次に、システム管理者は、第一の記憶制御装置1019のサービスプロセッサ1022、及び第二の記憶制御装置1032のサービスプロセッサ1033を操作して、外部LDEV1055を仮想化してなる仮想LDEV1030,1042をホストシステム1008に接続するFCポート1020,1021,1034,1035にアサインする(S14)。このとき、FCポート1020,1021,1034,1035へ仮想LDEV1030,1042をアサインするための情報(GUID、内部LDEVと仮想LDEVとを区別するための情報、中間DKCのストレージポート名、中間DKCのストレージポートのWWN、外部DKCのポート名、外部DKCのストレージポートのWWN、LUN)は、第一の記憶制御装置1019のパス設定テーブル1026、及び第二の記憶制御装置1032のパス設定テーブル1038に格納される。
図11は交替パス構成構築処理を記述したフローチャートである。交替パス構成構築処理では、システム管理者は、ホストシステム1008のパス管理ソフトウェア1012を用いて、仮想LDEV1030,1042への交替パスを構成する。以下、各処理ステップについて、詳述する。
まず、システム管理者は、ホストシステム1008のオペレーティングシステム1011を操作して、第一の記憶制御装置1019及び第二の記憶制御装置1032に接続されたFCポート1015,1016,1017,1018をスキャンし、仮想LDEV1030,1042を認識させる(S21)。このとき、オペレーティングシステム1011が認識する仮想LDEV1030,1042の情報は、ポート名、LUN、HBAのWWN、GUIDである。
次に、システム管理者は、オペレーティングシステム1011が認識した仮想LDEV1030,1042をパス管理ソフトウェア1012に認識させて、交替パス構成を構築する(S22)。
次に、システム管理者は、パス管理ソフトウェア1012が構築した交替パス構成の情報(パスID、GUID、内部LDEVと仮想LDEVとを区別するための情報、DKC ID、パス状態)を論理パステーブル1013に格納する。
図12は管理ソフトウェアの初期化処理を記述したフローチャートである。管理ソフトウェアの初期化処理では、システム管理者は、管理ソフトウェア1003にホストシステム1008や記憶制御装置1019,1032,1045の情報を入力する。管理ソフトウェア1003は、その入力された情報を基づいて論理パスに関する情報や記憶制御装置1019,1032,1045のリソース使用率に関する情報を取得する。以下、各処理ステップについて、詳述する。
まず、システム管理者は、管理ソフトウェア1003を使用して、ホストシステム1008に関する情報(ホストID、ホスト名、IPアドレス、ユーザ名、パスワード)を管理サーバ1000に入力する(S31)。
次に、管理ソフトウェア1003は、ホストシステム1008に関する情報をホスト管理テーブル1004に格納する(S32)。
次に、システム管理者は、管理ソフトウェア1003を使用して、第一の記憶制御装置1019及び第二の記憶制御装置1032に関する情報(SVPのID、IPアドレス、ユーザ名、パスワード)を管理サーバ1000に入力する(S33)。
次に、管理ソフトウェア1003は、第一の記憶制御装置1019及び第二の記憶制御装置1032に関する情報をストレージ管理テーブル1006に格納する(S34)。
次に、システム管理者は、管理ソフトウェア1003を使用して、第一の記憶制御装置1019のCPU1023、及び第二の記憶制御装置1032のCPU1041のCPU使用率の上限閾値と下限閾値とを設定する(S35)。ここで設定されるCPU使用率の上限閾値と下限閾値とは、第一の記憶制御装置1019と第二の記憶制御装置1032との間でパス切り替えを実行する必要性と妥当性を判断する基準となる。例えば、CPU使用率の上限閾値として60%を設定し、下限閾値として40%を設定する。
次に、管理ソフトウェア1003は、パス管理ソフトウェア1012にアクセスして、論理パスに関する情報を取得し、その取得した情報を論理パス管理テーブル1005に格納する(S36)。論理パス情報取得処理の詳細については、後述する。
図13は論理パス情報取得処理を記述したフローチャートである。論理パス情報取得処理が実行される契機として、例えば、(1)論理パス管理テーブル1005を常時最新のものにするために管理ソフトウェア1003が論理パスを定期的に監視するとき、(2)管理ソフトウェア1003がパス管理ソフトウェア1012にパス切り替えを指示するとき、(3)パス管理ソフトウェア1012によるパス切り替えが行われたとき、(4)ストレージシステム100のネットワーク構成変更後に、管理ソフトウェア1003がホストシステム1008から論理パスの情報を収集するとき、がある。以下、各処理ステップについて、詳述する。
まず、管理ソフトウェア1003は、全てのパス管理ソフトウェア1012から論理パス情報を収集したか否かをチェックする(S41)。
一部のパス管理ソフトウェア1012からの論理パス情報収集が完了してない場合には(S41;NO)、管理ソフトウェア1003は、論理パス情報(ホストID、パスID、GUID、内部LDEVと仮想LDEVとを区別するための情報、DKC ID、パス状態)の提供をパス管理ソフトウェア1012に要求し、応答を待つ(S42)。
次に、管理ソフトウェア1003は、パス管理ソフトウェア1012から受信した論理パス情報を論理パス管理テーブル1005に格納する(S43)。
一方、全てのパス管理ソフトウェア1012からの論理パス情報収集が完了している場合は(S41;YES)、本処理ルーチンを抜ける。
図14は論理パス情報送信処理を記述したフローチャートである。論理パス情報送信処理は、パス管理ソフトウェア1012が管理ソフトウェア1003から論理パス情報の提供を求められたときに、実行される。以下、各処理ステップについて、詳述する。
パス管理ソフトウェア1012は、ホストシステム1008の全てのFCポート1015,1016,1017,1018をスキャンし、FCポート1015,1016,1017,1018に接続されているFCポート1021,1020,1035,1034にアサインされている論理デバイスにInquireyコマンドを発行し、オペレーティングシステム1011が認識している論理デバイスに接続する論理パスの情報(ホストID、GUID、内部LDEVと仮想LDEVとを区別するための情報、パスID、DKC ID、パス状態、LUN)を取得することにより、論理パステーブル1013の内容を最新にする(S51)。
パス管理ソフトウェア1012は、論理パステーブル1013に格納されている全ての論理パス情報を管理ソフトウェア1003に送信する(S52)。
図15は記憶制御装置のCPU使用率情報取得処理を記述したフローチャートである。CPU使用率情報取得処理が実行される契機として、例えば、(1)ストレージ管理テーブル1006を常時最新のものにするために管理ソフトウェア1003が第一の記憶制御装置1019及び第二の記憶制御装置1032のリソース情報を定期的に監視するとき、(2)管理ソフトウェア1003がパス管理ソフトウェア1012にパス切り替えを指示するとき、がある。以下、各処理ステップについて、詳述する。
まず、管理ソフトウェア1003は、全ての記憶制御装置1019,1032のサービスプロセッサ1022,1033からCPU使用率の情報を収集したか否かをチェックする(S61)。
一部のサービスプロセッサからのCPU使用率の情報収集が完了してない場合には(S61;NO)、管理ソフトウェア1003は、サービスプロセッサにCPU使用率の情報提供を要求し、応答を待つ(S62)。
管理ソフトウェア1003は、サービスプロセッサからCPU使用率の情報を受信し、ストレージ管理テーブル1006に格納する(S63)。
図16は記憶制御装置のCPU使用率情報送信処理を記述したフローチャートである。CPU使用率情報送信処理は、サービスプロセッサが管理ソフトウェア1003からCPU使用率情報の提供を求められたときに、実行される。以下、各処理ステップについて、詳述する。
第一の記憶制御装置1019のサービスプロセッサ1022、及び第二の記憶制御装置1032のサービスプロセッサ1033は、それぞれコントロールプログラム1028,1040からCPU1023,1041のCPU使用率を取得する(S71)。コントロールプログラム1028,1040は、それぞれCPU1023,1041のCPU使用率を常時監視しており、最新のCPU使用率を保持しているものとする。
次に、サービスプロセッサ1022,1033は、最新のCPU使用率を管理ソフトウェア1003に送信する(S72)。
図17は記憶制御装置の負荷分散処理を記述したフローチャートである。管理ソフトウェア1003は、第一の記憶制御装置1019及び第二の記憶制御装置1032の負荷分散の必要性をチェックすることを目的として、第一の記憶制御装置1019及び第二の記憶制御装置1032の負荷を定期的に収集する。管理ソフトウェア1003は、第一の記憶制御装置1019及び第二の記憶制御装置1032の負荷を監視する過程において、負荷分散が必要であると判断した場合に、パス管理ソフトウェア1012にパス切り替えを指示する。以下、各処理ステップについて、詳述する。
管理ソフトウェア1003は、第一の記憶制御装置1019及び第二の記憶制御装置1032のCPU使用率を収集する(S81)。CPU使用率取得処理の詳細は、上述した通りである(図16参照)。
次に、管理ソフトウェア1003は、論理パス情報取得処理を実行する(S82)。論理パス情報取得処理の詳細は、上述した通りである(図13参照)。
次に、管理ソフトウェア1003は、Activeパスに接続する記憶制御装置のCPU使用率が上限閾値を超えているか否かをチェックする(S83)。
Activeパスに接続する記憶制御装置のCPU使用率が上限閾値を超えている場合には(S83;YES)、管理ソフトウェア1003は、CPU使用率が最低の記憶制御装置に接続する交替パスを選択する(S84)。
そして、選択した交替パスに接続する記憶制御装置のCPU使用率が下限閾値を下回っている場合には(S85;YES)、管理ソフトウェア1003は、パス切り替えを実行する(S86)。パス切り替え処理の詳細については、後述する。
パス切り替えが完了すると、管理ソフトウェア1003は、CPU使用率を未だチェックしていない記憶制御装置に接続するActiveパスが存在するか否かをチェックする(S87)。このようなActiveパスが存在する場合には(S87;YES)、管理ソフトウェア1003は、S83の処理に戻る。
一方、Activeパスに接続する記憶制御装置のCPU使用率が上限閾値を超えていない場合(S83;NO)、又は選択した交替パスに接続する記憶制御装置のCPU使用率が下限閾値を下回っていない場合には(S85;NO)、管理ソフトウェア1003は、S87の処理に進む。
図18乃至図20は、記憶制御装置間のパス切り替え処理を記述したフローチャートである。パス切り替え処理が実行される契機として、例えば、(1)管理ソフトウェア1003がパス切り替えによる負荷分散が必要であると判断したとき、或いは(2)パス障害によるパス切り替え要求をパス管理ソフトウェア1012から受信したとき、がある。以下、各処理ステップについて、詳述する。
図18はパス切り替え処理のうち管理ソフトウェア1003が実行する処理を示す。管理ソフトウェア1003は、切り替え元の記憶制御装置のサービスプロセッサにアクセスし、切り替え元の記憶制御装置がライトスルーモードで動作しているか否かをチェックする(S91)。
切り替え元の記憶制御装置がライトスルーモードで動作していない場合には(S91;NO)、管理ソフトウェア1003は、切り替え元の記憶制御装置のサービスプロセッサにライトスルーモードへの変更を指示し、モード変更完了を待つ(S92)。管理ソフトウェア1003が切り替え元の記憶制御装置のサービスプロセッサにライトスルーモードへの変更を指示するときに与えるパラメータとして、切り替え元の記憶制御装置のサービスプロセッサのユーザ名、切り替え元の記憶制御装置のサービスプロセッサのパスワード、切り替え元の記憶制御装置のIDがある。
サービスプロセッサが管理ソフトウェア1003にライトスルーモードへの変更完了を報告すると、管理ソフトウェア1003は、切り替え元の記憶制御装置のサービスプロセッサに対して、切り替え元の記憶制御装置のキャッシュフラッシュを要求する(S93)。管理ソフトウェア1003が切り替え元の記憶制御装置のサービスプロセッサにキャッシュフラッシュを指示するときに与えるパラメータとして、切り替え元の記憶制御装置のサービスプロセッサのユーザ名、切り替え元の記憶制御装置のサービスプロセッサのパスワード、切り替え元の記憶制御装置のIDがある。
管理ソフトウェア1003は、切り替え元のサービスプロセッサにキャッシュフラッシュを要求してから、キャッシュフラッシュ完了報告を受けると、パス管理ソフトウェア1012にパス切り替えを要求する(S94)。管理ソフトウェア1003がパス管理ソフトウェア1012にパス切り替えを要求するときに与えるパラメータとして、切り替え元の論理パスのパスID、切り替え先の論理パスのパスID、ホストシステム1008のユーザ名、ホストシステム1008のパスワードがある。
切り替え元の記憶制御装置がライトスルーモードで動作している場合にも(S91:YES)、管理ソフトウェア1003は、パス管理ソフトウェア1012にパス切り替えを要求する(S94)。
図19はパス切り替え処理のうちパス管理ソフトウェア1012が実行する処理を示す。上述したステップS94の処理の後、パス管理ソフトウェア1012は、管理ソフトウェア1003からパス切り替えの指示を受けると、切り替え先の論理パスをActiveパスに変更し(S101)、切り替え元の論理パスをStandbyパスに変更する(S102)。その後、パス管理ソフトウェア1012は、管理ソフトウェア1003にパス切り替えの実行完了を報告する(S103)。
図20はパス切り替え処理のうち管理ソフトウェア1003が実行する処理を示す。上述したステップS103の処理の後、管理ソフトウェア1003は、切り替え元の記憶制御装置がライトバックで動作していたか否かをチェックする(S111)。切り替え元の記憶制御装置がライトバックで動作していた場合には(S111:YES)、管理ソフトウェア1003は、切り替え元の記憶制御装置のサービスプロセッサにライトスルーモードへのモード変更を指示する(S112)。切り替え元の記憶制御装置がライトバックで動作していない場合には(S111:NO)、管理ソフトウェア1003は、本処理ルーチンを抜ける。
図21は論理パス障害回復処理を記述したフローチャートである。論理パス障害回復処理は、パス管理ソフトウェア1012が論理パスの障害を検出したときに、パス切り替えを実行するための処理である。
パス管理ソフトウェア1012が仮想LDEV1030,1042に接続するActiveパスの障害を検出すると、パス管理ソフトウェア1012は、論理パス情報取得処理を実行する(S121)。論理パス情報取得処理の詳細については、上述した通りである(図13参照)。
次に、パス管理ソフトウェア1012は、障害が生じた論理パスに接続する記憶制御装置にStandby状態の交替パスが存在するか否かをチェックする(S122)。
Standby状態の交替パスが存在しなければ(S122;NO)、パス管理ソフトウェア1012は、記憶制御装置間のパス切り替えの実行を管理サーバ1000に要求する(S123)。管理サーバ1000は、パス切り替え要求に応答して、パス管理ソフトウェア1012にパス切り替えを指示する(パス切り替え処理の詳細については、上述した通りである。)。
一方、Standby状態の交替パスが存在すれば(S122;YES)、パス管理ソフトウェア1012は、そのStandby状態の交替パスをActive状態に切り替えるとともに、障害が生じた論理パスの状態をFailedにする(S124)。
本実施例によれば、仮想LDEV1030,1042が共通の外部LDEV1055を仮想化したものであることを認識できるので、ホストシステム1008から仮想LDEV1030を経由して外部LDEV1055に接続する論理パスと、ホストシステム1008から仮想LDEV1042を経由して外部LDEV1055に接続する論理パスのうち何れか一方の論理パスを他方の論理パスの交替パスとして定義することが可能である。第一の記憶制御装置1019の負荷と、第二の記憶制御装置1032の負荷とに応じて、アクティブパスを適宜切り替えることで、両者の負荷を略均等化できる。
尚、本発明は上述の実施例に限られるものではなく、ストレージシステム100のシステム構成を適宜変更してもよい。例えば、図22に示すストレージシステム101は、ホストシステム1008と第一の記憶制御装置1019との間に複数の論理パスP5,P6を有し、何れの論理パスP5,P6からでも仮想LDEV1030を経由して外部LDEV1055にアクセスできる。例えば、論理パスP5がActive状態にあり、論理パスP6がStandby状態にある場合を考える。仮に、論理パスP5に障害が生じたとすると、論理パスP5をActive状態からStandby状態に切り替える一方、論理パスP6をStandby状態からActive状態に切り替えることで、ホストシステム1008は、仮想LDEV1030を経由して外部LDEV1055にアクセスできる。同様に、ストレージシステム101は、ホストシステム1008と第二の記憶制御装置1032との間に複数の論理パスP7,P8を有し、何れの論理パスP7,P8からでも仮想LDEV1042を経由して外部LDEV1055にアクセスできる。
また、中間記憶制御装置は、必ずしも物理デバイスを有している必要はなく、仮想化スイッチのように、仮想LDEVのみ有する構成としてもよい。例えば、図23に示すストレージシステム102においては、第二の記憶制御装置1032は、仮想LDEV1042のみを有し、物理デバイスを有しない。図24に示すストレージシステム103においては、第一の記憶制御装置1019も第二の記憶制御装置1032も物理デバイスを有しない。第一の記憶制御装置1019は、仮想LDEV1030,1058を有し、第二の記憶制御装置1032は、仮想LDEV1042を有する。このように、本発明を適用する上で、中間記憶制御装置は、仮想化スイッチであってもよい。
本実施形態に係るストレージシステムのシステム構成図である。 本実施形態に係わる負荷分散方法の概要を示す説明図である。 本実施例に係わるストレージシステムのシステム構成図である。 本実施例に係わるホスト管理テーブルの説明図である。 本実施例に係わる論理パス管理テーブルの説明図である。 本実施例に係わるストレージ管理テーブルの説明図である。 本実施例に係わる論理パステーブルの説明図である。 本実施例に係わるパス設定テーブルの説明図である。 本実施例に係わるLDEVテーブルの説明図である。 本実施例に係わる仮想LDEV作成処理を示すフローチャートである。 本実施例に係る交替パス構成構築処理を示すフローチャートである。 本実施例に係る管理ソフトウェアの初期化処理を示すフローチャートである。 本実施例に係る論理パス情報取得処理を示すフローチャートである。 本実施例に係る論理パス情報送信処理を示すフローチャートである。 本実施例に係る記憶制御装置のCPU使用率情報取得処理を示すフローチャートである。 本実施例に係る記憶制御装置のCPU使用率情報送信処理を示すフローチャートである。 本実施例に係る記憶制御装置の負荷分散処理を示すフローチャートである。 本実施例に係る記憶制御装置間のパス切り替え処理を示すフローチャートである。 本実施例に係る記憶制御装置間のパス切り替え処理を示すフローチャートである。 本実施例に係る記憶制御装置間のパス切り替え処理を示すフローチャートである。 本実施例に係る論理パス障害回復処理を示すフローチャートである。 本実施例に係るストレージシステムの他の構成例を示す図である。 本実施例に係るストレージシステムの他の構成例を示す図である。 本実施例に係るストレージシステムの他の構成例を示す図である。
符号の説明
100…ストレージシステム 1000…管理サーバ 1008…ホストシステム 1019…第一の記憶制御装置 1032…第二の記憶制御装置 1030…仮想LDEV 1042…仮想LDEV 1045…外部記憶制御装置 1055…外部LDEV

Claims (9)

  1. 実デバイスへのデータ入出力を要求するホストシステムと、
    それぞれが少なくとも一つ以上の仮想デバイスを有する複数の記憶制御装置と、
    を備え、
    前記複数の記憶制御装置のそれぞれが有する前記仮想デバイスは、共通の実デバイスを仮想化したものであり、
    前記ホストシステムは、前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれに接続する複数の論理パスのうち一部の論理パスを他の論理パスの交替パスとして設定する、ストレージシステム。
  2. 請求項1に記載のストレージシステムであって、前記ホストシステムは、各記憶制御装置の負荷が略均等になるように、前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれに接続する複数の論理パスの間のパス切り替えを制御する、ストレージシステム。
  3. 請求項1に記載のストレージシステムであって、前記ホストシステムは、前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれに接続する複数の論理パスのうち何れかの論理パスに障害が発生すると、他の論理パスに切り替える、ストレージシステム。
  4. 請求項1に記載のストレージシステムであって、前記記憶制御装置は、仮想化スイッチを含む、ストレージシステム。
  5. 複数の記憶制御装置のそれぞれが有する仮想デバイスが共通の実デバイスを仮想化したものであることを認識するステップと、
    前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれとホストシステムとを接続する複数の論理パスのうち一部の論理パスを他の論理パスの交替パスとして設定するステップと、
    を備える、ストレージシステムの負荷分散方法。
  6. 請求項5に記載のストレージシステムの負荷分散方法であって、
    各記憶制御装置の負荷が略均等になるように、前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれと前記ホストシステムとに接続する複数の論理パスの間のパス切り替えを制御するステップを更に備える、ストレージシステムの負荷分散方法。
  7. 請求項5に記載のストレージシステムの負荷分散方法であって、
    前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれと前記ホストシステムとに接続する複数の論理パスのうち何れかの論理パスに障害が発生すると、他の論理パスに切り替えるステップを更に備える、ストレージシステムの負荷分散方法。
  8. 請求項5に記載のストレージシステムの負荷分散方法であって、前記記憶制御装置は、仮想化スイッチを含む、ストレージシステムの負荷分散方法。
  9. 複数の記憶制御装置のそれぞれが有する仮想デバイスを共通の実デバイスを仮想化することにより作成するステップと、
    前記複数の記憶制御装置のそれぞれが有する仮想デバイスのGUIDとして、前記共通の実デバイスのGUIDをアサインすることにより、前記複数の記憶制御装置のそれぞれが有する仮想デバイスが前記共通の実デバイスを仮想化したものであることを認識するステップと、
    前記共通の実デバイスを仮想化してなる複数の仮想デバイスのそれぞれとホストシステムとを接続する複数の論理パスのうち一部の論理パスを他の論理パスの交替パスとして設定するステップと、
    を備える、ストレージシステムの負荷分散方法。

JP2005342643A 2005-11-28 2005-11-28 ストレージシステム及びその負荷分散方法 Pending JP2007148812A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005342643A JP2007148812A (ja) 2005-11-28 2005-11-28 ストレージシステム及びその負荷分散方法
US11/341,720 US7716419B2 (en) 2005-11-28 2006-01-30 Storage system and load balancing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005342643A JP2007148812A (ja) 2005-11-28 2005-11-28 ストレージシステム及びその負荷分散方法

Publications (1)

Publication Number Publication Date
JP2007148812A true JP2007148812A (ja) 2007-06-14

Family

ID=38088861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005342643A Pending JP2007148812A (ja) 2005-11-28 2005-11-28 ストレージシステム及びその負荷分散方法

Country Status (2)

Country Link
US (1) US7716419B2 (ja)
JP (1) JP2007148812A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245379A (ja) * 2008-03-31 2009-10-22 Hitachi Ltd ストレージシステム及びストレージシステムの制御方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8024426B2 (en) * 2007-05-11 2011-09-20 Texas Memory Systems, Inc. Non-disruptive data path upgrade using target mobility
CN101946257A (zh) * 2007-12-20 2011-01-12 惠普开发有限公司 建模基于计算机的业务过程以及模拟操作
JP4738438B2 (ja) * 2008-04-17 2011-08-03 株式会社日立製作所 外部接続ストレージシステムのパス管理及び障害箇所検出方法
JP5217966B2 (ja) * 2008-11-28 2013-06-19 富士通株式会社 ストレージシステムのアップデート処理プログラム、アップデート処理方法及びストレージシステム
US20100274933A1 (en) * 2009-04-24 2010-10-28 Mediatek Inc. Method and apparatus for reducing memory size and bandwidth
US7970861B2 (en) * 2009-11-18 2011-06-28 Microsoft Corporation Load balancing in a distributed computing environment
US8914584B1 (en) 2012-03-31 2014-12-16 Emc Corporation System and method for improving cache performance upon detection of a LUN control event
US8874799B1 (en) * 2012-03-31 2014-10-28 Emc Corporation System and method for improving cache performance
US8914585B1 (en) 2012-03-31 2014-12-16 Emc Corporation System and method for obtaining control of a logical unit number
US9563557B2 (en) * 2014-12-23 2017-02-07 Intel Corporation Instruction and logic for flush-on-fail operation
CN107302495A (zh) * 2017-06-26 2017-10-27 长沙开雅电子科技有限公司 一种存储虚拟化网关新型虚拟映射方法
CN107291402A (zh) * 2017-07-05 2017-10-24 长沙开雅电子科技有限公司 一种存储虚拟化新型透传实现方法
US11204699B2 (en) * 2020-03-05 2021-12-21 EMC IP Holding Company LLC Storage system port maintenance information sharing with host device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316522A (ja) 2002-04-26 2003-11-07 Hitachi Ltd 計算機システムおよび計算機システムの制御方法
US7290168B1 (en) * 2003-02-28 2007-10-30 Sun Microsystems, Inc. Systems and methods for providing a multi-path network switch system
JP4307202B2 (ja) 2003-09-29 2009-08-05 株式会社日立製作所 記憶システム及び記憶制御装置
US20050114464A1 (en) * 2003-10-27 2005-05-26 Shai Amir Virtualization switch and method for performing virtualization in the data-path
JP2005165444A (ja) * 2003-11-28 2005-06-23 Hitachi Ltd ディスクアレイ装置、及びディスクアレイ装置の制御方法
US7363418B1 (en) * 2005-09-28 2008-04-22 Emc Corporation Data storage system volume matrix

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245379A (ja) * 2008-03-31 2009-10-22 Hitachi Ltd ストレージシステム及びストレージシステムの制御方法
US8578073B2 (en) 2008-03-31 2013-11-05 Hitachi, Ltd. Storage system and control method of storage system

Also Published As

Publication number Publication date
US7716419B2 (en) 2010-05-11
US20070124535A1 (en) 2007-05-31

Similar Documents

Publication Publication Date Title
JP2007148812A (ja) ストレージシステム及びその負荷分散方法
EP2399190B1 (en) Storage system and method for operating storage system
US7461196B2 (en) Computer system having an expansion device for virtualizing a migration source logical unit
JP4147198B2 (ja) ストレージシステム
JP4903415B2 (ja) 記憶制御システム及び記憶制御方法
KR100644011B1 (ko) 저장 도메인 관리 시스템
US8214611B2 (en) Storage subsystem and its data processing method, and computer system
JP4842593B2 (ja) ストレージ仮想化装置のデバイス制御引継ぎ方法
US8918615B2 (en) Information storage system including a plurality of storage systems that is managed using system and volume identification information and storage system management method for same
JP4993928B2 (ja) 記憶システム及び記憶領域解放方法並びにストレージシステム
US8473703B2 (en) Storage system and management method of the storage system
WO2014064756A1 (ja) ストレージプールから実記憶領域を仮想ボリュームへ割り当てる方法及び計算機システム
US10437642B2 (en) Management system for computer system
WO2014167716A1 (ja) 計算機システムの管理システム及び管理方法
JP2005216151A (ja) 資源運用管理システム及び資源運用管理方法
JP2005165702A (ja) クラスタストレージのデバイス連結方法
US7937553B2 (en) Controlling virtual memory in a storage controller
US20140059302A1 (en) Computer system
JP2006227856A (ja) アクセス制御装置及びそれに搭載されるインターフェース
US8275958B2 (en) Storage system with remote copy controllers
US11768744B2 (en) Alerting and managing data storage system port overload due to host path failures
WO2016139749A1 (ja) 計算機システム、及び、記憶制御方法