JP4555036B2 - ストレージ装置及びストレージ装置のデバイス切替制御方法 - Google Patents

ストレージ装置及びストレージ装置のデバイス切替制御方法 Download PDF

Info

Publication number
JP4555036B2
JP4555036B2 JP2004269101A JP2004269101A JP4555036B2 JP 4555036 B2 JP4555036 B2 JP 4555036B2 JP 2004269101 A JP2004269101 A JP 2004269101A JP 2004269101 A JP2004269101 A JP 2004269101A JP 4555036 B2 JP4555036 B2 JP 4555036B2
Authority
JP
Japan
Prior art keywords
host
storage
ldev
storage device
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004269101A
Other languages
English (en)
Other versions
JP2006085398A (ja
Inventor
郁夫 裏谷
喜一郎 占部
大 谷中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004269101A priority Critical patent/JP4555036B2/ja
Priority to US10/983,747 priority patent/US7412573B2/en
Priority to EP05251615A priority patent/EP1640854A1/en
Publication of JP2006085398A publication Critical patent/JP2006085398A/ja
Application granted granted Critical
Publication of JP4555036B2 publication Critical patent/JP4555036B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ストレージ装置及びストレージ装置のデバイス切替制御方法に関する。
ストレージ装置は、例えば、ハードディスクドライブや半導体メモリ装置等のディスクドライブをアレイ状に配設し、RAID(Redundant Array of Independent Inexpensive Disks)に基づく記憶領域を提供する。ホストコンピュータ(以下、「ホスト」)は、ストレージ装置により提供される論理的な記憶領域にアクセスし、データの読み書きを行う。
ストレージ装置には、高可用性、高信頼性が求められる。そこで、現用ディスクと予備ディスクとをミラー化した複数のミラーディスクを用いてディスクアレイを構成し、障害発生に備えることが知られている(特許文献1)。この文献に記載の技術では、障害の発生が予測された場合に、データ読出し元となるディスクを現用ディスクから予備ディスクに切り替えるようにしている。なお、この文献に記載の技術は、ディスクアレイの各構成要素を単純にそれぞれミラー化するだけのもので、物理的な記憶領域上に論理的に設けられるボリュームの切替を開示するものではない。
特開平7−129331号公報
種々の理由から、ホストは、使用するボリューム(LDEV:Logical Device)を切り替えることがある。LDEVを切り替える場合は、使用中のLDEVとLU(Logical Unit)とを一度切り離して、そのLUに新たなLDEVを接続する必要がある。しかし、LDEVから切り離されたLUは、ホストからの認識を一時的に失うため、LDEVの切替が完了するまでの期間内に、ホストによるLUの認識が一時的に途絶える。
ここで、もしもホスト上で障害監視ソフトウェア等が稼働しているような場合、この障害監視ソフトウェアによって、LDEV切替中におけるLUの認識中断がパス障害の発生であるとして検出される可能性がある。また、ホストのOSがWindows(登録商標)の場合、LDEV切替中におけるLUの認識中断は、いわゆるPnP(Plug and Play)を発生させる原因ともなり得る。
このように、ホストがデータ処理業務を実行中にLDEVの切替操作を行うと、この切替操作によるLUとLDEVとの切り離しがホストに認識されてしまい、ホスト上のデータ処理業務に影響を与える可能性がある。
そこで、本発明の一つの目的は、上位装置に意識させずにデータ格納先デバイスを切り替えることができるようにしたストレージ装置及びストレージ装置のデバイス切替制御方法を提供することにある。本発明の一つの目的は、上位装置に検知されることなく、ストレージ装置の内外に存在するボリュームを自由に切替可能なストレージ装置及びストレージ装置のデバイス切替制御方法を提供することにある。本発明のさらなる目的は、後述する実施形態の記載から明らかになるであろう。
上記課題を解決すべく、本発明のストレージ装置は、上位装置からデータ入出力のアクセス対象として認識される少なくとも一つ以上のアクセス先デバイスと、アクセス先デバイスに接続され、アクセス先デバイスを対象とするデータを格納するデータ格納先デバイスと、アクセス先デバイスと各データ格納先デバイスとの接続状態を制御する接続制御部と、を備え、接続制御部は、各データ格納先デバイスのうち選択された所定のデータ格納先デバイスをアクセス先デバイスに接続させる。
ここで、例えば、上位装置が汎用オペレーティングシステム及び汎用通信プロトコルを搭載したオープン系ホストである場合、アクセス先デバイスは、論理ユニット(LU)となる。また、上位装置がメインフレームマシンの場合、アクセス先デバイスは論理デバイス(LDEV)となる。なお、データ格納先デバイスは、中間デバイスに設定することができる。そして、この中間デバイスは、それぞれデータを記憶する複数の物理的なデバイスにより提供される記憶領域上に設定することができる。
接続制御部は、アクセス先デバイスを所定のデータ格納先デバイスに接続させる第1状態と、アクセス先デバイスを各データ格納先デバイスのいずれにも接続させない第2状態と、の少なくとも2種類の状態で、接続状態を制御することができる。第2状態は、第1状態に至るまでの間の過渡状態として捉えることができる。アクセス先デバイスに接続されるデータ格納先デバイスを切り替える場合、第1状態→第2状態→第1状態の順番で接続状態が遷移する。
アクセス先デバイスが第2状態に置かれている場合でも、即ち、アクセス先デバイスとデータ格納先デバイスとが接続されていない場合でも、アクセス先デバイスは、上位装置からの所定のコマンドに応答可能である。所定のコマンドとしては、例えば、inquiryコマンドやREADDEVCHARコマンド等のような状態確認コマンド(センスコマンド)を挙げることができる。ここで、センスコマンドへの応答を可能とする構成例として、アクセス先デバイスに、形式的なボリュームを常時固定的に接続する方法が考えられる。また、アクセス先デバイスを、論理デバイスと、この論理デバイスに接続された仮想的な中間デバイスとから、仮想的なLUとして構成することもできる。仮想的な中間デバイスとは、データを格納するための記憶領域を直接有しておらず、その存在のみが論理的に定義されている仮想的なボリュームである。
複数のデータ格納先デバイスは、その全部が同一のストレージ装置内に設けられている必要はなく、少なくとも一部のデータ格納先デバイスは、他のストレージ装置内に設けられていてもよい。例えば、第1ストレージ装置と第2ストレージ装置とをネットワーク接続し、第2ストレージ装置が有するボリュームを第1ストレージ装置の中間デバイスにマッピングすることができる。これにより、第1ストレージ装置は、第2ストレージ装置のボリュームをあたかも自分の支配下にあるボリュームであるかのように見せかけて使用することができる。従って、場合によっては、複数のデータ格納先デバイスは、その全部が他のストレージ装置内に存在しても構わない。この場合、第1ストレージ装置は、例えば、インテリジェント型スイッチ等として構成することもできる。
本発明の手段、機能、ステップの少なくとも一部は、マイクロコンピュータにより読み込まれて実行されるコンピュータプログラムとして構成できる場合がある。このようなコンピュータプログラムは、例えば、ハードディスクや光ディスク等のような記憶媒体に固定して流通させることができる。または、インターネット等のような通信ネットワークを介して、コンピュータプログラムを供給することもできる。
以下、図面に基づき、本発明の実施の形態を説明する。図1は、本実施形態の全体概念を模式的に示す説明図である。以下に述べるように、本実施形態では、複数のデータ格納先デバイス6,8を利用可能なストレージ装置2Aのデバイス切替制御方法が開示されている。このストレージ装置2Aは、ホスト1とのマウントポイントを固定化してホスト1とマウントポイントとの間の接続を維持した状態で、各データ格納先デバイス6,8のうち選択されたいずれか一つのデータ格納先デバイスとマウントポイントとを切替可能に接続する。
より詳細に説明すると、本発明に係るストレージシステムは、第1ストレージ装置2Aと第2ストレージ装置2Bとを通信ネットワーク3Bを介して通信可能に接続して構成されている。ホスト1と第1ストレージ装置2Aとは、通信ネットワーク3Aを介して接続されている。
通信ネットワーク3Aは、ホスト1の種類に依存する。例えば、ホスト1がいわゆるオープン系ホストの場合、ホスト1と第1ストレージ装置2Aとは、LAN(Local Area Network)、SAN(Storage Area Network)、インターネットまたは専用回線等を介して接続可能である。LAN接続の場合は、TCP/IP(Transmission Control Protocol/Internet Protocol)に基づいて、SAN接続の場合は、ファイバチャネルプロトコル(FCP:Fibre Channel Protocol)に基づいてデータ授受が行われる。ホスト1がメインフレームの場合、例えば、FICON(Fibre Connection:登録商標)、ESCON(Enterprise System Connection:登録商標)、ACONARC(Advanced Connection Architecture:登録商標)、FIBARC(Fibre Connection Architecture:登録商標)等の通信プロトコルに従ってデータ転送が行われる。
各ストレージ装置2A,2B間を接続する通信ネットワーク3Bは、例えば、LANやSAN等として構成可能である。通信ネットワーク3Aと通信ネットワーク3Bとは、それぞれ別々のネットワークとして構成してもよいし、両者を同一のネットワークとして構成してもよい。
代表的なハードウェア構成として、第1ストレージ装置2Aは、例えば、外部(ホスト1または第2ストレージ装置2B)との間のデータ授受を制御する上位インターフェース制御部(図2参照)と、データを記憶するための複数の物理デバイス群7との間のデータ授受をそれぞれ制御する下位インターフェース制御部(図2参照)と、上位インターフェース制御部及び下位インターフェース制御部に共用されるメモリ部(図2参照)とを備えることができる。
データ記憶の論理的構成に着目すると、第1ストレージ装置2Aは、例えば、各物理デバイス群7が提供する記憶領域上に設けられた少なくとも一つ以上のデータ格納先デバイス(論理デバイス)6と、接続制御部5と、仮想LU4とを備えている。
接続制御部5は、入力された切替指示に基づいて、第1ストレージ装置2Aが直接的にまたは間接的に支配している各論理デバイス(図1中では「ボリューム」と表示)6,8のいずれか一つを、仮想LU4に接続させる。
仮想LU4は、ホスト1からデータ入出力のアクセス対象として認識される。仮想LU4は、ホスト1が仮想LU4の使用を継続する限り、ホスト1との間の通信状態を維持している。そして、仮想LU4は、論理デバイス6,8のいずれにも接続されていない場合でも、ホスト1からのセンスコマンドに対して応答する。
従って、ホスト1から見た場合、ホスト1にマウントされるポイント(仮想LU)に何ら変化を与えることなく、仮想LU4と論理デバイス6,8との接続を切り替えることができる。
図2は、ストレージシステムの全体構成を概略的に示すブロック図である。このストレージシステムは、それぞれ後述するように、例えば、ホスト10と、管理端末20と、第1ストレージ装置100と、第2ストレージ装置200とを備えて構成可能である。
図中では一つのみ示しているが、ホスト10は、複数設けることができる。ホスト10は、例えば、サーバ、パーソナルコンピュータ、ワークステーション、メインフレーム、携帯情報端末等のようなコンピュータシステムとして実現される。例えば、複数のオープン系ホストと複数のメインフレーム系ホストとを、同一のストレージ装置に接続することもできる。
ホスト10は、例えば、HBA(Host Bus Adapter)11と、制御プログラム12と、アプリケーションプログラム群(図中では「アプリケーション群」と略記)13とを備えることができる。
HBA11は、ストレージ装置100との間のデータ通信を担当するもので、ホスト10は、HBA11から通信ネットワークCN1を介して、ストレージ装置100の通信ポートに接続されている。ホスト10は、複数のHBA11を備えることができる。ここで、通信ネットワークCN1としては、例えば、LAN、SAN、インターネット、専用回線等を挙げることができる。オープン系ホストの場合は、TCP/IPやFCP、あるいはiSCSI(internet Small Computer System Interface)等のプロトコルに基づき、ストレージ装置100との間でデータ授受が行われる。メインフレーム系ホストの場合は、例えば、ESCON、FICN等の専用プロトコルが用いられる。
制御プログラム12は、例えば、パスの制御等を行うものである。制御プログラム12は、例えば、いずれか一方のパスに何らかの障害が発生した場合に、正常なパスに切り替る制御を行うことができる。あるいは、制御プログラム12は、いずれか一方のパスに過負荷状態が発生した場合に、他のパスに負荷を分散させることもできる。
アプリケーション群13は、例えば、電子メール処理や会計処理等の各種情報処理サービスを実行するプログラムである。アプリケーション群13は、例えば、図外に位置する複数のクライアント端末からの要求に応じて、ストレージ装置100にアクセスすることにより、情報処理サービスをクライアント端末に提供する。
管理端末20は、ストレージ装置100の状態や構成変更等を管理するコンピュータシステムである。管理端末20は、後述のSVP180と通信ネットワークCN2を介して接続されており、SVP180を介してストレージ装置100の各種状態を示す情報を取得し、またSVP180を介してストレージ装置100に各種の指示を与える。
第1ストレージ装置100は、それぞれ後述するように、例えば、複数のチャネルアダプタ(以下「CHA」)110と、複数のディスクアダプタ(以下「DKA」)120と、キャッシュメモリ130と、共有メモリ140と、接続制御部150,160と、記憶部170と、SVP180とを備えて構成することができる。
CHA110は、上位装置としてのホスト1や外部の第2ストレージ装置200との間のデータ授受を制御するもので、例えば、CPUやメモリ、入出力回路等を備えたマイクロコンピュータシステムとして構成することができる。各CHA110は、それぞれ複数の通信ポートを備えることができ、各通信ポート毎にそれぞれ個別にデータ授受を行うことができる。各CHA110は、それぞれ一種類の通信プロトコルに対応しており、ホスト10の種類に応じて用意される。但し、各CHA110がそれぞれ複数種類の通信プロトコルに対応する構成としてもよい。
DKA120は、記憶部170との間のデータ授受を制御するものである。DKA120は、CHA110と同様に、例えば、CPUやメモリ等を備えたマイクロコンピュータシステムとして構成することができる。各DKA120は、例えば、ホスト10から指定された論理ブロックアドレス(LBA)を物理ディスクのアドレスに変換等することにより、各ディスクドライブ171にアクセスし、データの読出しまたはデータの書込みを行う。なお、CHA110の機能とDKA120の機能とを一つまたは複数のコントローラ内に集約する構成としてもよい。
キャッシュメモリ130は、ホスト10から書き込まれたライトデータや、ホスト10に読み出されたリードデータを記憶するものである。キャッシュメモリ130は、例えば、揮発または不揮発のメモリから構成可能である。キャッシュメモリ130が揮発性メモリを含んで構成される場合、図示せぬバッテリ電源等によりメモリバックアップを行うことが好ましい。なお、図示は省略するが、キャッシュメモリ130は、リードキャッシュ領域とライトキャッシュ領域との2つの領域から構成することができ、ライトキャッシュ領域に格納されたデータは、多重記憶することができる。つまり、同一のデータがディスクドライブ171にも存在するリードデータは、仮に失われたとしても再びディスクドライブ171から読み出せば足りるので、多重化する必要はない。これに対し、ライトデータは、ストレージ装置100内においては、キャッシュメモリ130にのみ存在するため、多重化記憶させるのが信頼性の点で好ましい。もっとも、キャッシュデータを多重化して記憶させるか否かは、仕様による。
共有メモリ(あるいは制御メモリとも呼ばれる)140は、例えば、不揮発メモリから構成可能であるが、揮発メモリから構成してもよい。共有メモリ140には、例えば、マッピングテーブルTのように、制御情報や管理情報等が記憶される。これらの制御情報等の情報は、複数のメモリ140により多重管理することができる。マッピングテーブルTの構成例については、後述する。
ここで、共有メモリ140及びキャッシュメモリ130は、それぞれ別々のメモリパッケージとして構成することもできるし、同一のメモリパッケージ内にキャッシュメモリ130及び共有メモリ140を設けてもよい。また、メモリの一部をキャッシュ領域として使用し、他の一部を制御領域として使用することもできる。つまり、共有メモリとキャッシュメモリとは、同一のメモリとして構成することもできる。
第1の接続制御部(スイッチ部)150は、各CHA110と、各DKA120と、キャッシュメモリ130と、共有メモリ140とをそれぞれ相互に接続するものである。これにより、全てのCHA110,DKA120は、キャッシュメモリ130及び共有メモリ140にそれぞれ個別にアクセス可能である。接続制御部150は、例えば、超高速クロスバスイッチ等として構成することができる。第2の接続制御部160は、各DKA120と記憶部170とをそれぞれ接続するためのものである。
記憶部170は、多数のディスクドライブ171を備えて構成される。記憶部170は、各CHA110及び各DKA120等のコントローラ部分と共に同一の筐体内に設けることもできるし、コントローラ部分とは別の筐体内に設けることもできる。
記憶部170には、複数のディスクドライブ171を設けることができる。ディスクドライブ171としては、例えば、FCディスク(ファイバチャネルディスク)、SCSI(Small Computer System Interface)ディスク、SATA(Serial AT Attachment)ディスク等を用いることができる。また、記憶部170は、同一種類のディスクドライブから構成される必要はなく、複数種類のディスクドライブを混在させることもできる。
ここで、一般的には、FCディスク、SCSIディスク、SATAディスクの順番で、性能が低下する。従って、例えば、アクセス頻度の多いデータ(情報価値の高いデータ等)は、高性能なFCディスクに記憶し、アクセス頻度の低いデータ(情報価値の低いデータ等)は、低性能なSATAディスクに記憶させることにより、データの利用態様に応じてディスクドライブの種類を使い分けることができる。各ディスクドライブ171の提供する物理的な記憶領域上には、複数の論理的な記憶領域を階層化して設けることができる。記憶領域の構成については、図3と共に後述する。
SVP(Service Processor)180は、LAN等の内部ネットワークCN3を介して、各CHA110及び各DKA120とそれぞれ接続されている。図中では、SVP180とCHA110とだけを接続しているが、SVP180は、各DKA120にもそれぞれ接続することができる。SVP180は、ストレージ装置100内部の各種状態を収集し、そのままで又は加工して、管理端末20に提供する。
第2ストレージ装置200は、例えば、SANやインターネット等の通信ネットワークCN4を介して、第1ストレージ装置100に接続されている。第2ストレージ装置200は、例えば、コントローラ210と、第1ストレージ装置100と接続するための通信ポート211と、ディスクドライブ220とを備えて構成することができる。コントローラ210は、上述したCHA110及びDKA120の機能を実現するもので、第1ストレージ装置100及びディスクドライブ220とのデータ授受を制御する。
第2ストレージ装置200は、第1ストレージ装置100と同一または実質的に同一の構成を備えてもよいし、第1ストレージ装置100と異なる構成でもよい。第2ストレージ装置200は、第1ストレージ装置100との間で所定の通信プロトコル(例えば、FCやiSCSI等)に従ったデータ通信を行うことができ、ディスクドライブ220等の記憶ドライブ(記憶用デバイス)を備えていればよい。後述のように、第2ストレージ装置200の有する論理ボリュームは、第1ストレージ装置100の所定階層にマッピングされており、第1ストレージ装置100の内部ボリュームであるかのように使用される。
なお、本実施例では、物理的な記憶ドライブとして、ハードディスクを例示するが、本発明はこれに限定されない。記憶ドライブとしては、ハードディスク以外に、例えば、半導体メモリドライブ、磁気テープドライブ、光ディスクドライブ、光磁気ディスクドライブ等を用いることができる場合もある。
図3は、ストレージシステムの論理的な記憶構造に着目した構成説明図である。第1ストレージ装置100の構成から先に説明する。第1ストレージ装置100の記憶構造は、例えば、物理的記憶階層と論理的記憶階層とに大別することができる。物理的記憶階層は、物理的なディスクであるPDEV(Physical Device)171により構成される。PDEVは、ディスクドライブに該当する。
論理的記憶階層は、複数の(例えば2種類の)階層から構成することができる。一つの論理的階層は、VDEV(Virtual Device)172と、VDEV172のように扱われる仮想的なVDEV(以下、「V−VOL」とも呼ぶ)173とから構成可能である。他の一つの論理的階層は、LDEV(Logical Device)174から構成することができる。
VDEV172は、例えば、4個1組(3D+1P)、8個1組(7D+1P)等のような所定数のPDEV171をグループ化して構成される。グループに属する各PDEV171がそれぞれ提供する記憶領域が集合して一つのRAID記憶領域が形成される。このRAID記憶領域がVDEV172となる。
VDEV172が物理的な記憶領域上に構築されるのと対照的に、V−VOL173は、物理的な記憶領域を必要としない仮想的な中間デバイスである。V−VOL173は、物理的な記憶領域に直接関係づけられるものではなく、LU(Logical Unit)をマッピングするための受け皿となる。この点については、さらに後述する。
LDEV174は、VDEV172またはV−VOL173上に、少なくとも一つ以上設けることができる。LDEV174は、VDEV172を固定長で分割することにより構成することができる。ホスト10がオープン系ホストの場合、LDEV174がLU175にマッピングされることにより、ホスト10は、LDEV174を一つの物理的なディスクとして認識する。オープン系のホスト10は、LUN(Logical Unit Number )や論理ブロックアドレスを指定することにより、所望のLDEV174にアクセスする。
LU175は、SCSIの論理ユニットとして認識可能なデバイスである。各LU175は、ポート111Aを介してホスト10に接続される。各LU175には、少なくとも一つ以上のLDEV174をそれぞれ関連付けることができる。一つのLU175に複数のLDEV174を関連付けることにより、LUサイズを仮想的に拡張することもできる。
CMD(Command Device)177は、ホスト10上で稼働する制御プログラムとストレージ装置100のコントローラ(CHA110,DKA120)との間で、コマンドやステータスを受け渡すために使用される専用のLUである。ホスト10からのコマンドは、CMD177に書き込まれる。ストレージ装置100のコントローラは、CMD177に書き込まれたコマンドに応じた処理を実行し、その実行結果をステータスとしてCMD177に書き込む。ホスト10は、CMD177に書き込まれたステータスを読出して確認し、次に実行すべき処理内容をCMD177に書き込む。このようにして、ホスト10は、CMD177を介して、ストレージ装置100に各種の指示を与えることができる。
なお、ホスト10から受信したコマンドを、CMD177に格納することなく、処理することもできる。また、実体のデバイス(LU)を定義せずに、CMDを仮想的なデバイスとして生成し、ホスト10からのコマンドを受け付けて処理するように構成することもできる。つまり、例えば、CHA110は、ホスト10から受信したコマンドを共有メモリ140に書き込み、この共有メモリ140に記憶されたコマンドを、CHA110又はDKA120が処理する。その処理結果は共有メモリ140に書き込まれ、CHA110からホスト10に送信される。
さて、第1ストレージ装置100の外部接続用のイニシエータポート(External Port)111Bには、通信ネットワークCN4を介して、第2ストレージ装置200が接続されている。第2ストレージ装置200は、複数のPDEV220と、PDEV220の提供する記憶領域上に設定されたVDEV230と、VDEV230上に少なくとも一つ以上設定可能なLDEV240とを備えている。そして、各LDEV240は、LU250に関連付けられている。
本実施例では、実際にデータを格納する論理的なデバイス(LDEV)は、直接的にホスト10に提供されるのではなく、仮想的な中間デバイス(仮想的な中間ボリューム)であるV−VOL173を介してホスト10に提供されている。
例えば、第1ストレージ装置100の内部ボリュームである「LDEV1」は、「LU2」に関連付けられているが、「LU2」からホスト10に直接提供されるのではなく、「V−VOL1」にマッピングされている。そして、この「V−VOL1」は、「LDEV3」にマッピングされ、「LDEV3」は「LU1」に関連付けられている。このように、第1ストレージ装置100の内部ボリューム「LDEV1」は、「V−VOL1」を介して「LDEV3」にマッピングされる。ここで、「LU1」に関連付けられて、LUNが割り当てられた「LEDV3」が、ホスト10からアクセスされるアクセス先デバイスに相当する。本実施例では、データ格納先デバイスである「LDEV1」をさらに仮想化し、2段重ねのような階層構造を採用している。
同様に、第2ストレージ装置200の「LDEV1」,「LDEV2」も、第2ストレージ装置200の「LU1」,「LU2」を介して、第1ストレージ装置100の「V−VOL1」,「V−VOL2」にそれぞれマッピングされている。そして、「V−VOL2」,「V−VOL3」は、それぞれ「LDEV4」,「LDEV5」にマッピングされ、「LU4」,「LU3」を介して、ホスト10から認識されるようになっている。
図4は、図3中の記憶階層を模式的に示す説明図である。図4中の下側には、データを格納するための複数のデバイスが示されている。図4中の左下に示すPDEV171,VDEV172,LDEV174は、第1ストレージ装置100の有するデータ格納先デバイスである。図4中の右側に点線で囲んだPDEV220,VDEV230,LDEV240は、第2ストレージ装置200の有するデータ格納先デバイスである。
図4中の上側には、仮想LU176が示されている。この仮想LU176は、下層側から順番に、V−VOL173,LDEV174,LU175を積み上げることにより、構成することができる。なお、図4では、一つの仮想LU176のみを示しているが、これは説明の便宜上図示を簡略化したものであり、実際には、複数の仮想LU176を設けることができる。また、図4中では省略しているが、各LDEV174,240は、それぞれに割り当てられているLUを介して、仮想LU176に接続される。
仮想LU176とデータ格納先の各LDEV174,240のうちいずれか一つのLDEVとは、マッピングテーブルによって論理的に接続される。このマッピングテーブルは、接続制御部の少なくとも一部を構成する。マッピングテーブルの記述内容を変更することにより、仮想LU176とLDEV174,240とを接続したり、接続を解除することができる。
図4に簡略化して示すように、実際にデータを格納するためのLDEV174,240は、仮想LU176を介してホスト10に接続される。ホスト10は、仮想LU176(正確には、仮想LU176中のLU175)をアクセス先のデバイスとして認識する。従って、仮想LU176が各LDEV174,240のいずれにも接続されていない場合であっても、ホスト10からは、仮想LU176が認識されている。
但し、ホスト10からの認識が失われていない場合でも、その仮想LU176にLDEV174,240のいずれかが一つも接続されていないときは、ホスト10からデータの読み書きを行うことはできない。
図5を参照して、各種テーブルT1,T2の構成例をそれぞれ説明する。これらの各テーブルT1,T2は、共有メモリ140に記憶することができる。まず、図5(a)は、LUNとV−VOLとを対応付けるマッピングテーブルT1である。V−VOL173は、物理的な記憶領域に依存しない仮想的なVDEVとして定義され、VDEV172の一種であるかのように取り扱われる。従って、図5(a)では、「V−VOL」と表記せず「VDEV」として示してある。
マッピングテーブルT1は、例えば、VDEV(V−VOL)を特定するためのVDEV番号(VDEV#)と、デバイス識別情報と、記憶容量と、デバイス種別と、接続先のパス情報とを対応付けることにより、構成することができる。デバイス識別情報は、接続されるデバイスへのデータ授受に用いるイニシエータポート番号等を含めることができる。デバイス種別には、接続されるデバイスがディスクデバイスなのかテープデバイスなのか等の種別を格納することができる。接続先のパス情報には、例えば、WWN(World Wide Name)とLUNとを含めることができる。あるVDEV(V−VOL)の接続先パス情報に、第2ストレージ装置200の有するLU250への情報がセットされた場合、そのVDEV(V−VOL)は、第2ストレージ装置200のLU250、即ち、第2ストレージ装置200の有するLDEV240に接続される。他のVDEV(V−VOL)の接続先パス情報に、第1ストレージ装置100のLU175を指定する情報がセットされた場合、そのVDEVは、第1ストレージ装置100の有するLDEV174に接続される。このように、一種類のマッピングテーブルT1によって、内部デバイス(LDEV174)と外部デバイス(LDEV240)との両方を取り扱うことができる。なお、マッピングテーブルT1には、上記の項目に限らず、例えば、RAIDレベル、ストライプサイズ、ストレージ装置番号等の他の項目を追加することもできる。
図5(b)は、仮想LU176を定義するためのLUN−LDEV−VDEV変換テーブルT2を示す。この変換テーブルT2は、例えば、LUNと、LDEV番号と、LDEVの最大スロット数(容量)と、VDEV(V−VOL)番号と、VDEV(V−VOL)の最大スロット数(容量)とを対応付けることにより、構成することができる。
なお、ホスト10からのライトアクセスやリードアクセスでは、仮想LU176を特定するためのLUNとLBA(論理ブロックアドレス)とが指定される。このLUN+LBAの組合せは、変換テーブルT2を参照することにより、VDEV番号(V−VOL番号)とスロット番号とサブブロックアドレスの組合せに変換される。このVDEV番号+スロット番号+サブブロックアドレスの組合せは、マッピングテーブルT1を参照することにより、WWN+LUN+LBAの組合せに変換される。
図6は、V−VOLを作成するための処理概要を示すフローチャートである。システム管理者は、管理端末20からSVP180を介して、V−VOLの容量、エミュレーションタイプ、マッピング先のLDEV番号を第1ストレージ装置100に指示する(S1)。なお、この作成指示は、ホスト10から与える構成としてもよい。
作成指示を受信した第1ストレージ装置100は、指示されたパラメータが全て有効であるか否かを判定する(S2)。V−VOL作成に必要な各種パラメータのうちいずれか一つでも誤りが存在する場合は、エラーとなり、処理を終了する。なお、エラー処理として、管理端末20の画面に、エラーとなったパラメータを表示させ、再度の指定を促すことができる。
指定された全てのパラメータが有効な場合(S2:YES)、第1ストレージ装置100は、共有メモリ140に記憶されているマッピングテーブルT1に、V−VOLの容量のみを設定し、V−VOLをVDEVとして登録する(S3)。デバイス識別情報やパス情報等の他の項目については値を設定せずに、空欄のままにしておく。これにより、その記憶容量のみが定義されたV−VOL173が作成される。
次に、第1ストレージ装置100は、変換テーブルT2に、S3で作成したV−VOLの番号と、このV−VOLに関連付けるLDEVの番号とを登録する(S4)。これにより、V−VOLはLDEVを介してLUに関連付けられ、仮想LU176が生成される。
図7は、仮想LU176に接続するLDEVを登録または変更する処理の概要を示すフローチャートである。システム管理者は、例えば、管理端末20を介してSVP180にログインし、仮想LU176に接続するためのLDEVを指定する(S11)。第1ストレージ装置100は、指定されたLDEVが使用可能か否かを判定する(S12)。例えば、指定されたLDEVが既に他のホスト10によって使用されていたり、アクセス保護(リードオンリー等)が設定されているような場合、第1ストレージ装置100は、指定されたLDEVの使用を許可しない。
指定されたLDEVを使用可能である場合(S12:YES)、第1ストレージ装置100は、その指定されたLDEVを仮想LU176のV−VOLに接続すべく、マッピングテーブルT1に、デバイス識別情報やデバイス種別、パス情報を設定する(S13)。即ち、図6と共に述べた処理で、未設定のまま残された項目に値がセットされる。これにより、V−VOLに対し、実際にデータを格納するLDEVが対応付けられる。
図8は、仮想LU176に対するコマンドアクセスへの応答処理の概要を示すフローチャートである。アクセス権限を有するホスト10が仮想LU176にアクセスした場合(S21:YES)、第1ストレージ装置100は、このアクセスの種別を判定する。
即ち、例えば、第1ストレージ装置100は、ホスト10からセンスコマンドを受信したか否かを判定する(S22)。センスコマンドとは、例えば、inquaryコマンド等のように、ホスト10が認識するデバイスの状態等を確認するためのコマンドである。ホスト10からセンスコマンドを受信した場合、第1ストレージ装置100は、このセンスコマンドに対して応答を返す(S23)。上述のように、仮想LU176は、従来の単純なLUとは異なり、図4で示したように、LDEV174を備えている。従って、アクセス先デバイスとしてのLDEVが存在するか否かについての問合せに応答することができる。
これに対し、ホスト10からセンスコマンド以外のコマンドを受信した場合(S22:NO)、第1ストレージ装置100は、データ格納先デバイスとしてのLDEVが仮想LU176にマッピング済であるか否かを判定する(S24)。センスコマンド以外のコマンドとしては、例えば、リードコマンドやライトコマンドを挙げることができる。
実際にデータを読み書きするためのLDEVが仮想LU176に接続されている場合(S24:YES)、第1ストレージ装置100は、ホスト10からのコマンドアクセスを処理し、その処理結果をホスト10に返す(S25)。
例えば、ライトコマンドの場合、第1ストレージ装置100のCHA110は、ホスト10から受信したライトデータをキャッシュメモリ130に格納した時点で、ホスト10に書込み完了を通知する。そして、第1ストレージ装置100のDKA120は、時期を見計らって、キャッシュメモリ130に記憶されたデータを所定のディスクドライブ171に書き込む。リードコマンドの場合、DKA120は、要求されたデータを所定のディスクドライブ171から読出して、キャッシュメモリ130に記憶させる。CHA110は、キャッシュメモリ130に記憶されたデータをホスト10に送信する。ホスト10から要求されたキャッシュメモリ130に既に記憶されている場合は、そのデータがホスト10に提供される。CHA110とDKA120とは、共有メモリ140を介して、コマンドの処理状況を確認する。
ホスト10によって、センスコマンド以外のコマンドを受信した場合であって、かつ、実際にデータを読み書きするためのLDEVが仮想LU176にマッピングされていない場合(S24:NO)、第1ストレージ装置100は、ホスト10に対して、エラーを通知する(S26)。
本実施例は、上述のように構成されるため、以下の効果を奏する。本実施例では、LDEV174にV−VOL173を介して、第1ストレージ装置100内のLDEVまたは第2ストレージ装置200内のLDEVをマッピングする構成のため、ホスト10によるデバイスとしての認識を維持することができる。従って、図9(a)に示すように、仮想LU176のみが設定され、実際にデータの読み書きに使用するLDEVがマッピングされていない状態においても、ホスト10からの認識は失われず、ホスト10からのセンスコマンドに応答することができる。
即ち、常時ホスト10から認識可能な仮想LU176を構築し、この仮想LU176にマッピングテーブルを介してLDEVを接続する構成とした。従って、図9(b)に示すように、第1ストレージ装置100の内外に位置するLDEVを、任意に仮想LU176に接続することができる。従って、データの用途等に応じて、ストレージ装置の内外に存在するLDEVを切り替えて使用することができ、しかも、このLDEVの切替操作をホスト10に対して透過的に行うことができる。
そして、仮想LU176は、ホスト10からの認識を常時維持し、センスコマンドに対する応答が可能なため、図10(a)に示すように、接続先のLDEVを切り替える途中でも、ホスト10からの認識は失われない。従って、仮想LU176とLDEVとの接続が瞬間的に切れた場合であっても、ホスト10に搭載された障害監視ソフトウェアがこの切断状態を検出して作動するのを未然に防止することができ、情報処理サービスの中断を防止できる。
例えば、ホスト10がWindows(登録商標)を搭載している場合、定期的にドライブ(LDEV)が接続されているか否かを検査するが、ドライブの切断状態が認識されると、アプリケーションプログラムの動作が中断する。
これに対し、ホスト10がWindows(登録商標)以外のOSを搭載している場合、障害監視ソフトウェアを搭載しなければ、inquaryコマンドを第1ストレージ装置100に送信することができず、ドライブの接続状態を確認できない可能性がある。障害監視ソフトウェアを搭載していなければ、安全性や信頼性が低下するおそれがあるが、障害監視ソフトウェアを搭載すると、LDEVを切り替える度に障害発生とみなされて、アプリケーションソフトウェアによる処理が中断される可能性がある。
しかし、本実施例では、ホスト10とのコネクションを常時維持し、マウントポイントを固定化するため、ホスト10に対して透過的にLDEVを自在に切替可能であり、図10(b)に示すように、障害監視ソフトウェアによる監視を逃れて、仮想LU176に接続するLDEVを切り替えることができる。
また、本実施例では、第1ストレージ装置100内のLDEV切替処理をホスト10から隠蔽する構成のため、比較的簡易な構成で使い勝手を向上することができる。例えば、仮想LU176にLDEVをつなぎかえる場合、事前にホスト10に通知して障害監視ソフトウェアによる検出を停止させる構成も考えられるが、この場合は、第1ストレージ装置100に現在接続されている全てのホスト10及び将来接続される全てのホスト10で、構成変更を必要とする。従って、作業性が悪く、ストレージシステムのメンテナンスコストも増大する。
なお、図9(a)は、V−VOL173を作成して仮想LU176を設定した状態を示し、この状態では、実際にデータ読み書きに使用するLDEVは接続されていない。図9(b)は、マッピングテーブルT1を設定することにより、図中向かって左側のLDEVと仮想LU176とを接続した状態を示す。例えば、この状態で、ホスト10は、左側のLDEV240に対し、データの読み書きを行う。
ホスト10に搭載されたアプリケーションプログラム13がアクセス対象のボリュームの切替を要求したような場合、図10(a)に示すように、第1ストレージ装置100は、マッピングテーブルT1の設定を削除し、仮想LU176とLDEV240との接続をいったん解除する。そして、第1ストレージ装置100は、マッピングテーブルT1を書き換えることにより、仮想LU176を図中右側のLDEV240に接続し直す。しかし、これらのLDEV切替は、ホスト10から認識することはできない。ホスト10は、仮想LU176のLDEV174のみを固定的に常時認識している。
図11,図12に基づいて本発明の第2実施例を説明する。本実施例を含む以下の実施例は、第1実施例の変形例に相当する。本実施例の特徴は、V−VOL173とLDEV174との間で接続を切り替える点にある。
図11は、本実施例による記憶階層の構造を模式的に示す説明図である。本実施例では、仮想LU176は、LU175とLDEV174とから構成される。そして、仮想LU176は、マッピングテーブルT1を介して、いずれか一つのV−VOL173と接続することができる。即ち、本実施例では、V−VOL173は、データ格納先のLDEV側に固定的に接続されており、このV−VOL173と仮想LU176との間の接続を切り替えるようにしている。
このような接続切替は、上述したマッピングテーブルT1の構成を応用することにより実現することができる。また、他の例としては、図12に示すように、LDEV管理テーブルT11と、VDEV管理テーブルT12とを用いて実現することもできる。
LDEV管理テーブルT11は、例えば、LDEV番号と、このLDEVに割り当てられるLUNと、記憶容量と、このLDEVに接続されるVDEV(V−VOL)番号等を対応付けることにより、構成することができる。
VDEV管理テーブルT12は、VDEV及びV−VOLを管理するためのテーブルであって、例えば、VDEV番号(V−VOL番号)と、このVDEV(V−VOL)に接続されるデバイスの種別等を対応付けることにより、構成可能である。接続先種別としては、内部接続と外部接続とを挙げることができる。内部接続とは、そのV−VOLが第1ストレージ装置100内のLDEVに接続されることを意味する。外部接続とは、そのV−VOLが第1ストレージ装置100の外部に存在するLDEV、即ち、第2ストレージ装置200内のLDEVに接続されることを意味する。
内部接続の場合は、PDEV管理テーブルT13が参照される。PDEV管理テーブルT13は、第1ストレージ装置100内のPDEV171を管理するテーブルである。これに対し、外部接続の場合は、外部接続先LDEV管理テーブルT14が参照される。外部接続先LDEV管理テーブルT14は、第1ストレージ装置100に直接的に接続された第2ストレージ装置200内のLDEVを管理するための情報である。このテーブルT14には、例えば、ベンダー名、プロダクト名、WWN、LUN、使用するイニシエータポート番号等を含めることができる。
このように各テーブルT11〜T14を構成することにより、データ格納先デバイスとしてのLDEVに接続されたV−VOLと、仮想LU176とを切替可能に接続することができる。
本実施例は、上述のように構成されるので、第1実施例と同様の効果を奏する。これに加えて、本実施例では、V−VOL173とLDEV240(またはデータ格納先デバイスとしてのLDEV173)とを予め対応付けておく構成のため、V−VOL173と仮想LU176との対応関係を設定するだけで、データ格納先デバイスを自在に切り替えることができる。
図13,図14に基づいて、本発明の第3実施例を説明する。本実施例の特徴は、バックアップ処理に適用した点にある。ホスト10には、バックアップソフトウェア14と、スケジューリングソフトウェア15とが搭載されている。
バックアップソフトウェア14は、バックアップ元として設定されたボリューム(LDEV)の記憶内容を、バックアップ先として指定されたボリューム(LDEV)にコピーしてバックアップさせる処理を実行するものである。
スケジューリングソフトウェア15は、バックアップ時期等を制御するもので、所定の時期が到来した場合には、バックアップ先のボリュームを準備し、バックアップソフトウェア14にバックアップの実行を指示する。
ここでは、例えば、第2ストレージ装置200の「LDEV2」をバックアップ元ボリュームとする。バックアップ先のLUは、第1ストレージ装置100の「LU3」であるとする。
ある時点で、バックアップ先である「LU3」は、第1ストレージ装置100の「LDEV3」及び「V−VOL1」を介して、第1ストレージ装置100の「LU1」に接続されており、この「LU1」を介して「LDEV1」に接続されている。即ち、バックアップデータを記憶するバックアップ先ボリュームは、第1ストレージ装置100の「LDEV1」となる。バックアップソフトウェア14は、第2ストレージ装置200に位置するバックアップ元ボリューム「LDEV2」のデータを読出し、読出したデータを第1ストレージ装置100の「LU3」に書き込む。「LU3」を対象として書き込まれたデータは、第1ストレージ装置100の「LDEV1」に格納される。
所定時間が経過して再びバックアップ時期が到来すると、スケジューリングソフトウェア15は、CMD177を介して、バックアップ先ボリュームの切替を第1ストレージ装置100に指示する。この指示を受けて、第1ストレージ装置100は、「V−VOL1」にマッピングするLUを「LU1」から「LU2」に切り替える。これにより、バックアップ先ボリュームは、第1ストレージ装置100の「LDEV1」から「LDEV2」に変更される。
以上述べた処理の概要を、図14に示す。図14は、バックアップ処理のフローチャートである。
スケジューリングソフトウェア15は、内蔵タイマ等を監視することにより、バックアップ時期が到来したか否かを判定する(S31)。バックアップ処理は、例えば、ストレージシステムの負荷が比較的少なくなる業務時間外等を選んで行うことができる。
スケジューリングソフトウェア15は、バックアップ時期の到来を検出すると(S31:YES)、第1ストレージ装置100のCMD177にアクセスし、バックアップ先ボリュームの切替を指示する(S32)。
この切替指示を受信した第1ストレージ装置100は、バックアップ用の仮想中間デバイスである「V−VOL1」に、所定のLDEVを対応付ける(S33)。所定のLDEVとしては、例えば、バックアップデータに見合った空き容量を有しており、リードオンリー等のアクセス制限が設定されていないものが選択される。
第1ストレージ装置100は、バックアップ先ボリュームの切替を完了すると、処理完了を示すステータスをCMD177に書き込む。スケジューリングソフトウェア15は、CMD177に書き込まれた切替完了ステータスを確認すると(S34:YES)、バックアップソフトウェア14に対し、バックアップ処理の実行を指示する(S35)。
バックアップソフトウェア14は、スケジューリングソフトウェア15からの指示を受けると、バックアップ処理を開始し(S36)、バックアップ元ボリュームから読出したデータを、バックアップ先ボリュームに書き込む。そして、バックアップ対象の全てのデータをコピーすると(S37:YES)、バックアップ処理を終了する。
このように、バックアップソフトウェア14は、常に、第1ストレージ装置100の「LU3」)をバックアップ用のLUとして固定的に使用しながら、バックアップ先ボリュームを自由に切り替えて使用することができる。つまり、従来のように、バックアップソフトウェア14は、バックアップ先ボリュームを変更するたびに、接続先のLUを切り替える必要がなく、使い勝手が向上する。
図15は、本発明の第5実施例を示す。本実施例の特徴は、ホスト10として、いわゆるメインフレーム系のホストを用いる点にある。メインフレーム系のホスト10は、オープン系ホストとは異なり、LUを介さずにLDEVを直接認識することができる。
また、メインフレーム系のホスト10の場合、inquiryコマンドに代えて、READDEVCHARコマンドが使用される。メインフレーム系ホストを備えるストレージシステムにおいても、第1実施例と同様に、ホスト10に対して透過的に、データ格納先デバイスであるLDEVを自在に切り替えることができる。
図16は、本発明の第6実施例を示す。本実施例の特徴は、オープン系ホスト10Aとメインフレーム系ホスト10Bとが混在する環境下に適用した点にある。オープン系ホスト10Aは、例えば、FCP、iSCSI、TCP/IP等の通信プロトコルを用いて、第1ストレージ装置100にアクセスする。オープン系ホスト10Aの認識対象は、LUである。メインフレーム系ホスト10Bは、既に述べたように、FICONやESCON等の専用プロトコルを用いて、第1ストレージ装置100にアクセスする。メインフレーム系ホスト10Bは、LDEV174を直接認識する。
また、オープン系ホスト10Aは、例えば、FBA(Fixed Block Architecture)と呼ばれるフォーマットに従ってデータの入出力を行う。メインフレーム系ホスト10Bは、例えば、CKD(Count-Key-Data disk architecture)と呼ばれるフォーマットに従ってデータの入出力を行う。
第1ストレージ装置100には、FBAとCKDとの間でフォーマットを変換するためのフォーマット変換部190,191が設けられている。例えば、一方のフォーマット変換部190はCKDをFBAに変換するものであり、他方のフォーマット変換部191はFBAをCKDに変換するものである。図中では説明のために、2種類のフォーマット変換部190,191を示す。
メインフレーム系ホスト10Bは、CKDフォーマットに従って、メインフレーム系ホスト10B用のLDEV174(メインフレーム系ボリューム)にアクセス可能である。また、メインフレーム系ホスト10Bは、フォーマット変換部190を介することにより、オープン系ホスト10A用のLDEV174(オープン系ボリューム)にアクセスすることもできる。同様に、オープン系ホスト10Aは、FBAフォーマットに従って、オープン系ボリュームにアクセスし、また、フォーマット変換部191を介することにより、メインフレーム系ボリュームにもアクセスすることができる。このように、オープン系ホスト10Aとメインフレーム系ホスト10Bとは、自己の使用するフォーマット形式に従うボリュームにアクセスしてデータの読み書きを行うことができるほか、他方のフォーマット形式に従うボリュームにもアクセスしてデータの読み書きを行うことができる。
また、メインフレーム系ボリュームであっても、外部のストレージ装置に接続される場合は、オープン系のFCPコマンドに変換した後で、その外部ストレージ装置にアクセスすることができる。
なお、本発明は、上述した実施の形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。例えば、第1ストレージ装置と第2ストレージ装置との2つのストレージ装置からストレージシステムを構成する場合に限らず、より多くのストレージ装置を接続してストレージシステムを構築してもよい。
また、V−VOLに割り当てるLDEVの切替指示は、CMDを経由して行ってもよいし(インバンド方式)、CMDを介さずに管理端末から行ってもよい(アウトバンド方式)。
本発明の実施形態の概念を示す説明図である。 ストレージシステムのブロック図である。 ストレージシステムの記憶階層を示す説明図である。 ストレージシステムの記憶階層を簡略化して示す説明図である。 ストレージ装置内でボリュームを切り替えるために用いられるテーブルの一例を示し、(a)は、V−VOL(VDEV)とLUNとのマッピングを行うためのテーブルを、(b)は、仮想LUを構成するLUNとLDEVとV−VOL(VDEV)とを対応付けるためのテーブルを、それぞれ示す。 V−VOL作成処理を示すフローチャートである。 V−VOLにマッピングするLDEVの登録・変更処理を示すフローチャートである。 コマンド応答処理を示すフローチャートである。 仮想LUに接続するボリュームを切り替える様子を示す説明図であって、(a)は、仮想LUを生成した状態を、(b)は、仮想LUに一つのボリュームを接続した状態を、それぞれ示す。 図9に続く説明図であり、(a)は、仮想LUとボリュームとの接続をいったん解除した状態を、(b)は、仮想LUに別のボリュームを接続した状態を、それぞれ示す。 本発明の第2実施例に係るストレージシステムの記憶階層を簡略化して模式的に示す説明図である。 仮想LUに接続するボリュームを切り替えるために用いるテーブル群の構成例及び各テーブル間の関係を示す説明図である。 本発明の第3実施例に係るストレージシステムの構成概要を示す説明図である。 バックアップ処理を示すフローチャートである。 本発明の第4実施例に係り、メインフレーム系ホストに適用した場合のストレージシステムの説明図である。 本発明の第5実施例に係るストレージシステムの説明図である。
符号の説明
1…ホスト、2A…第1ストレージ装置、2B…第2ストレージ装置、3A,3B…通信ネットワーク、4…仮想LU、5…接続制御部、6,8…データ格納先デバイス(論理ボリューム)、7,9…物理デバイス群(物理ディスク群)、10…ホスト、11…HBA、12…制御プログラム、13…アプリケーションプログラム群、14…バックアップソフトウェア、15…スケジューリングソフトウェア、20…管理端末、100…第1ストレージ装置、111…ポート、110…チャネルアダプタ、120…ディスクアダプタ、130…キャッシュメモリ、140…共有メモリ、150,160…接続制御部、170…記憶部、171…ディスクドライブ、172…VDEV、173…V−VOL、174…LDEV、175…LU、176…仮想LU、177…コマンドデバイス、200…第2ストレージ装置、210…コントローラ、211…通信ポート、220…ディスクドライブ、CN…通信ネットワーク、T…テーブル

Claims (1)

  1. 第1ストレージ装置と第2ストレージ装置とを通信可能に接続して構成されるストレージシステムであって、
    前記第1ストレージ装置は、
    外部との間のデータ授受を制御する上位インターフェース制御部と、
    データを記憶するための複数の物理デバイス群との間のデータ授受をそれぞれ制御する下位インターフェース制御部と、
    前記上位インターフェース制御部及び前記下位インターフェース制御部に共用されるメモリ部と、
    前記各物理デバイス群が提供する記憶領域上にそれぞれ設けられた少なくとも一つ以上の中間デバイスと、
    前記中間デバイスの記憶領域上に設けられた少なくとも一つ以上の論理デバイスと、
    前記論理デバイス及び/又は前記第2ストレージ装置の有する論理デバイスに関連付けられる複数の仮想的な中間デバイスと、
    前記各仮想的な中間デバイスにそれぞれ関連付けられ、前記上位インターフェース制御部に接続される上位装置からデータ入出力のアクセス対象として認識可能な上層側論理デバイスと、
    前記メモリ部に記憶され、前記各仮想的な中間デバイスと前記各論理デバイスとの間の接続状態を管理するための管理情報を設定することによって、前記各仮想的な中間デバイスと前記各論理デバイスとの間の接続状態を制御する接続制御部と、を備え、
    前記接続制御部は、前記管理情報の設定を変更することにより、選択された論理デバイスと選択された前記上層側論理デバイスとを、前記仮想的な中間デバイスを介して接続させる第1状態にさせるか、または、前記選択された上層側論理デバイスを前記各論理デバイスのいずれにも接続させない第2状態にさせるかを制御するようになっており、
    前記第1状態にある場合も前記第2状態にある場合も、前記上位装置からのセンスコマンドに応答し、
    前記第1状態にある場合に前記上位装置からリードコマンドまたはライトコマンドを受領した場合には前記選択された論理デバイスにデータを読み書きして処理結果を前記上位装置に返し、
    前記第2状態にある場合に前記上位装置から前記リードコマンドまたは前記ライトコマンドを受領した場合には前記上位装置にエラーを通知するストレージシステム。
JP2004269101A 2004-09-16 2004-09-16 ストレージ装置及びストレージ装置のデバイス切替制御方法 Expired - Fee Related JP4555036B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004269101A JP4555036B2 (ja) 2004-09-16 2004-09-16 ストレージ装置及びストレージ装置のデバイス切替制御方法
US10/983,747 US7412573B2 (en) 2004-09-16 2004-11-09 Storage device and device changeover control method for storage devices
EP05251615A EP1640854A1 (en) 2004-09-16 2005-03-17 Storage device and device changeover control method for storage devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004269101A JP4555036B2 (ja) 2004-09-16 2004-09-16 ストレージ装置及びストレージ装置のデバイス切替制御方法

Publications (2)

Publication Number Publication Date
JP2006085398A JP2006085398A (ja) 2006-03-30
JP4555036B2 true JP4555036B2 (ja) 2010-09-29

Family

ID=35134438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004269101A Expired - Fee Related JP4555036B2 (ja) 2004-09-16 2004-09-16 ストレージ装置及びストレージ装置のデバイス切替制御方法

Country Status (3)

Country Link
US (1) US7412573B2 (ja)
EP (1) EP1640854A1 (ja)
JP (1) JP4555036B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857335A (zh) * 2017-11-30 2019-06-07 株式会社日立制作所 系统及其控制方法以及存储介质

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162600B2 (en) 2005-03-29 2007-01-09 Hitachi, Ltd. Data copying method and apparatus in a thin provisioned system
US7853741B2 (en) * 2005-04-11 2010-12-14 Emulex Design & Manufacturing Corporation Tunneling SATA targets through fibre channel
US20060288057A1 (en) * 2005-06-15 2006-12-21 Ian Collins Portable data backup appliance
US8069271B2 (en) * 2005-10-12 2011-11-29 Storage Appliance Corporation Systems and methods for converting a media player into a backup device
US7818160B2 (en) * 2005-10-12 2010-10-19 Storage Appliance Corporation Data backup devices and methods for backing up data
US20080028008A1 (en) * 2006-07-31 2008-01-31 Storage Appliance Corporation Optical disc initiated data backup
US7813913B2 (en) * 2005-10-12 2010-10-12 Storage Appliance Corporation Emulation component for data backup applications
US7844445B2 (en) 2005-10-12 2010-11-30 Storage Appliance Corporation Automatic connection to an online service provider from a backup system
US20070162271A1 (en) * 2005-10-12 2007-07-12 Storage Appliance Corporation Systems and methods for selecting and printing data files from a backup system
US7702830B2 (en) * 2005-10-12 2010-04-20 Storage Appliance Corporation Methods for selectively copying data files to networked storage and devices for initiating the same
US7899662B2 (en) * 2005-10-12 2011-03-01 Storage Appliance Corporation Data backup system including a data protection component
US8195444B2 (en) * 2005-10-12 2012-06-05 Storage Appliance Corporation Systems and methods for automated diagnosis and repair of storage devices
US7822595B2 (en) * 2005-10-12 2010-10-26 Storage Appliance Corporation Systems and methods for selectively copying embedded data files
US20070091746A1 (en) * 2005-10-12 2007-04-26 Storage Appliance Corporation Optical disc for simplified data backup
JP2007265001A (ja) * 2006-03-28 2007-10-11 Hitachi Ltd ストレージ装置
JP4929808B2 (ja) * 2006-04-13 2012-05-09 富士通株式会社 ネットワーク機器接続装置およびネットワーク機器接続方法
JP5037881B2 (ja) 2006-04-18 2012-10-03 株式会社日立製作所 ストレージシステム及びその制御方法
JP4804218B2 (ja) * 2006-05-11 2011-11-02 株式会社日立製作所 記憶媒体への書き込み回数を管理する計算機システム及びその制御方法
JP2008065486A (ja) * 2006-09-05 2008-03-21 Hitachi Ltd ストレージシステムおよびそのデータ移行方法
JP5087249B2 (ja) 2006-09-06 2012-12-05 株式会社日立製作所 ストレージシステムおよびストレージシステムの制御方法
US20080082453A1 (en) * 2006-10-02 2008-04-03 Storage Appliance Corporation Methods for bundling credits with electronic devices and systems for implementing the same
US20080126446A1 (en) * 2006-11-27 2008-05-29 Storage Appliance Corporation Systems and methods for backing up user settings
US20080172487A1 (en) * 2007-01-03 2008-07-17 Storage Appliance Corporation Systems and methods for providing targeted marketing
US20080226082A1 (en) * 2007-03-12 2008-09-18 Storage Appliance Corporation Systems and methods for secure data backup
US20090031298A1 (en) * 2007-06-11 2009-01-29 Jeffrey Brunet System and method for automated installation and/or launch of software
US20090030955A1 (en) * 2007-06-11 2009-01-29 Storage Appliance Corporation Automated data backup with graceful shutdown for vista-based system
US8090909B2 (en) 2008-06-06 2012-01-03 Pivot3 Method and system for distributed raid implementation
US8219750B2 (en) 2008-06-30 2012-07-10 Pivot3 Method and system for execution of applications in conjunction with distributed RAID
JP5425913B2 (ja) * 2009-05-22 2014-02-26 株式会社日立製作所 複数のプロセッサユニットを備えたストレージシステム
US20110153715A1 (en) * 2009-12-17 2011-06-23 Microsoft Corporation Lightweight service migration
US9389895B2 (en) * 2009-12-17 2016-07-12 Microsoft Technology Licensing, Llc Virtual storage target offload techniques
US8413137B2 (en) * 2010-02-04 2013-04-02 Storage Appliance Corporation Automated network backup peripheral device and method
US8527699B2 (en) * 2011-04-25 2013-09-03 Pivot3, Inc. Method and system for distributed RAID implementation
US20130185531A1 (en) * 2012-01-17 2013-07-18 Hitachi, Ltd. Method and apparatus to improve efficiency in the use of high performance storage resources in data center
JP6310448B2 (ja) * 2012-05-18 2018-04-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光ファイバ形状センシングを用いるボクセルタギング
US9244693B2 (en) * 2012-11-05 2016-01-26 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for booting multiple servers from snapshots of an operating system installation image while reducing access to unmodified portions of the installation image and reducing latencies between server ports
WO2014141462A1 (ja) * 2013-03-15 2014-09-18 株式会社日立製作所 計算機切替方法、計算機システム、及び管理計算機
JP2014191399A (ja) * 2013-03-26 2014-10-06 Fujitsu Ltd 情報処理システム、記憶装置、およびバックアップ方法
CN105493051B (zh) * 2013-06-25 2019-03-08 马维尔国际贸易有限公司 自适应高速缓冲存储器控制器
WO2016006069A1 (ja) * 2014-07-09 2016-01-14 株式会社日立製作所 ストレージシステムおよび第1ストレージ装置
US20160259573A1 (en) * 2015-03-03 2016-09-08 International Business Machines Corporation Virtual tape storage using inter-partition logical volume copies
US11055249B2 (en) 2019-06-25 2021-07-06 Micron Technology, Inc. Access optimization in aggregated and virtualized solid state drives
US11573708B2 (en) 2019-06-25 2023-02-07 Micron Technology, Inc. Fail-safe redundancy in aggregated and virtualized solid state drives
US10942846B2 (en) 2019-06-25 2021-03-09 Micron Technology, Inc. Aggregated and virtualized solid state drives accessed via multiple logical address spaces
US11513923B2 (en) 2019-06-25 2022-11-29 Micron Technology, Inc. Dynamic fail-safe redundancy in aggregated and virtualized solid state drives
US11768613B2 (en) 2019-06-25 2023-09-26 Micron Technology, Inc. Aggregation and virtualization of solid state drives
US10942881B2 (en) 2019-06-25 2021-03-09 Micron Technology, Inc. Parallel operations in aggregated and virtualized solid state drives
US11762798B2 (en) 2019-06-25 2023-09-19 Micron Technology, Inc. Aggregated and virtualized solid state drives with multiple host interfaces

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296037A (ja) * 2002-04-05 2003-10-17 Hitachi Ltd 計算機システム
JP2004013454A (ja) * 2002-06-06 2004-01-15 Hitachi Ltd データマッピング管理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078972B2 (ja) * 1993-11-05 2000-08-21 富士通株式会社 ディスクアレイ装置
EP1376328A3 (en) 1996-01-19 2006-04-19 Hitachi, Ltd. Storage system
JP3228182B2 (ja) * 1997-05-29 2001-11-12 株式会社日立製作所 記憶システム及び記憶システムへのアクセス方法
JP2001167040A (ja) * 1999-12-14 2001-06-22 Hitachi Ltd 記憶サブシステム及び記憶制御装置
US6571354B1 (en) * 1999-12-15 2003-05-27 Dell Products, L.P. Method and apparatus for storage unit replacement according to array priority
US6925528B2 (en) * 2000-06-20 2005-08-02 Storage Technology Corporation Floating virtualization layers
US6766430B2 (en) * 2000-07-06 2004-07-20 Hitachi, Ltd. Data reallocation among storage systems
JP4061960B2 (ja) * 2002-04-26 2008-03-19 株式会社日立製作所 コンピュータシステム
JP4704659B2 (ja) 2002-04-26 2011-06-15 株式会社日立製作所 記憶装置システムの制御方法および記憶制御装置
JP4124331B2 (ja) * 2002-09-17 2008-07-23 株式会社日立製作所 Dbms向け仮想ボリューム作成・管理方法
JP2005165444A (ja) 2003-11-28 2005-06-23 Hitachi Ltd ディスクアレイ装置、及びディスクアレイ装置の制御方法
US7363395B2 (en) * 2003-12-31 2008-04-22 Intel Corporation Intermediate device capable of communicating using different communication protocols

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296037A (ja) * 2002-04-05 2003-10-17 Hitachi Ltd 計算機システム
JP2004013454A (ja) * 2002-06-06 2004-01-15 Hitachi Ltd データマッピング管理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857335A (zh) * 2017-11-30 2019-06-07 株式会社日立制作所 系统及其控制方法以及存储介质
CN109857335B (zh) * 2017-11-30 2022-04-19 株式会社日立制作所 系统及其控制方法以及存储介质

Also Published As

Publication number Publication date
US20060059308A1 (en) 2006-03-16
US7412573B2 (en) 2008-08-12
JP2006085398A (ja) 2006-03-30
EP1640854A1 (en) 2006-03-29

Similar Documents

Publication Publication Date Title
JP4555036B2 (ja) ストレージ装置及びストレージ装置のデバイス切替制御方法
JP4903415B2 (ja) 記憶制御システム及び記憶制御方法
US7302541B2 (en) System and method for switching access paths during data migration
US8683157B2 (en) Storage system and virtualization method
JP5178854B2 (ja) ストレージシステム及びデータ再配置制御装置
JP4307202B2 (ja) 記憶システム及び記憶制御装置
US7409496B2 (en) Storage management system, storage management server, and method and program for controlling data reallocation
EP1571542B1 (en) Storage control system and method
JP4643395B2 (ja) ストレージシステム及びデータの移動方法
JP4648751B2 (ja) 記憶制御システム及び記憶制御方法
EP2399190B1 (en) Storage system and method for operating storage system
US9619171B2 (en) Storage system and virtualization method
JP4842909B2 (ja) ストレージシステム及びデータ再配置制御装置
JP4634136B2 (ja) 記憶制御システム
JP2006178811A (ja) ストレージシステム及びストレージシステムのパス制御方法
JP4555040B2 (ja) ストレージ装置及びストレージ装置のライトアクセス処理方法
JP2006127028A (ja) 記憶システム及び記憶制御装置
JP2008134712A (ja) ファイル共有システム、ファイル共有装置及びファイル共有用ボリュームの移行方法
JP2006107151A (ja) ストレージシステム及びストレージシステムの通信パス制御方法
JP4643597B2 (ja) ストレージシステム及びデータ再配置制御装置
JP4497957B2 (ja) 記憶制御システム
JP5052257B2 (ja) 記憶システム及び記憶制御装置
US7418530B2 (en) Storage device and method for controlling storage device packet size
EP1632842B1 (en) Storage device system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4555036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees