JP5288875B2 - ストレージシステム - Google Patents

ストレージシステム Download PDF

Info

Publication number
JP5288875B2
JP5288875B2 JP2008120563A JP2008120563A JP5288875B2 JP 5288875 B2 JP5288875 B2 JP 5288875B2 JP 2008120563 A JP2008120563 A JP 2008120563A JP 2008120563 A JP2008120563 A JP 2008120563A JP 5288875 B2 JP5288875 B2 JP 5288875B2
Authority
JP
Japan
Prior art keywords
storage
storage subsystem
virtual
information
subsystems
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008120563A
Other languages
English (en)
Other versions
JP2009271666A (ja
Inventor
哲彦 藤井
雅隆 印南
英夫 田渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008120563A priority Critical patent/JP5288875B2/ja
Priority to US12/213,956 priority patent/US8271759B2/en
Publication of JP2009271666A publication Critical patent/JP2009271666A/ja
Application granted granted Critical
Publication of JP5288875B2 publication Critical patent/JP5288875B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0664Virtualisation aspects at device level, e.g. emulation of a storage device or system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0632Configuration or reconfiguration of storage systems by initialisation or re-initialisation of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2069Management of state, configuration or failover

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明はストレージシステムに係わり、特に、仮想化ストレージシステムに関するものである。
複数のストレージサブシステムを結合して、論理的に一つのストレージサブシステムとしてホスト計算機に認識させる仮想化ストレージシステムが存在する。仮想化ストレージシステムによれば、ユーザが複数のストレージサブシステムを統合して管理し、一つのストレージサブシステムとして運用できるという利点がある。この仮想化ストレージシステムはグリッドストレージシステムと呼ばれることもある。
仮想化ストレージシステムは、例えば、特開2003−280824号公報、特開2005−165702号公報、及び特開2007−213466号にそれぞれ記載されている。
特開2003−280824号公報 特開2005−165702号公報 特開2007−213466号公報
既述の従来技術には、単体のシステムとして運用されていたストレージサブシステムを仮想化ストレージシステムとして運用できることが記載されているが、仮想化ストレージシステムとして運用されていたストレージサブシステムを単体のシステムへ変更することについて開示はなく、実際上、係る運用の変更のためには、複数のストレージサブシステムの設定を改める必要があり、簡単かつ迅速に運用の変更を行うことは困難であった。
そこで、本発明は、ストレージサブシステムの単体のシステムとしての運用と仮想化ストレージシステムとしての運用とを、簡単かつ迅速に変更することができるストレージシステムを提供することを目的とする。
前記目的を達成するために、本発明は、管理装置から複数のストレージサブシステムのそれぞれに対して、単体のシステムとして動作する第1のモードと、仮想化ストレージシステムとして動作する第2のモードと、を設定できるようにしたストレージシステムであることを特徴とするものである。
本発明によれば、ストレージサブシステムの単体のシステムとしての運用と仮想化ストレージシステムとしての運用とを、簡単かつ迅速に変更することができるストレージシステムを提供することができる。
次に本発明の実施の形態に係る仮想化ストレージシステムを図面に基づいて説明する。図1は仮想化ストレージシステム100のシステム構成ブロック図を示している。仮想ストレージシステム100は、複数のストレージシステム20A,20B,20Cと、を備えている。
ストレージサブシステム20A,20B,20Cには、複数のホスト計算機10A、10B、・・・・10Nの少なくとも一つが接続されている。なお、これらホスト計算機を個々に区別しない場合には、ホスト計算機10と総称する。
ホスト計算機10は、SAN(Storage Area Network)41を介してストレージサブシステム20A,20B,20Cに接続している。複数のストレージサブシステムが互いに結合してホスト計算機に対して論理的に一つのストレージサブシステムとして機能する場合には、ホスト計算機10は複数のストレージシステム20A,20B,20Cを論理的に一つの記憶資源として認識する。
一方、ストレージサブシステムが仮想化ストレージシステムの一部としてではなく、単体のシステムとしてホスト計算機に対して振る舞う場合には、ホスト計算機10は複数のストレージサブシステムをそれぞれ区別して認識する。
ホスト計算機が複数のストレージサブシステムをどの様に認識するかは、ストレージサブシステムへの設定の内容に依存する。このことは後に詳しく説明する。
ホスト計算機は、ストレージサブシステムの上位装置であり、例えば、CPU(Central Processing Unit)やメモリ等の情報処理資源を備えたコンピュータ装置であり、パーソナルコンピュータ、ワークステーション、サーバー、メインフレームとして構成される。
ホスト計算機は、キーボードスイッチやポインティングデバイス、マイクロフォン等の情報入力装置と、モニタディスプレイやスピーカー等の情報出力装置と、を備えている。
ホスト計算機10は、例えば、データベース管理ソフトウェア、Webアプリケーションソフトエア、ストリーミングアプリケーションソフトウェア、Eビジネスアプリケーションソフトウェアなどの業務プログラムであるアプリケーションプログラムを有している。
仮想化ストレージシステム100を構成するストレージサブシステム20A,20B,20Cは、それぞれ、チャネルアダプタ(CHA)26、共有メモリ22、キャッシュメモリ21、ディスクアダプタ(DKA)23、HDDなどのディスクユニット24、バス100Aに対するバス接続部25、及びLAN(Local Area Network)インターフェース制御部27,28を備えている。これらの各構成要素は、内部バス100Aによって互いに連結されている。
CHA26は、図2に示すように、SAN41と接続するポート200と、マイクロプロセッサ202と、そして、ローカルメモリ204とが、互いにバス206に接続された構成を備えている。
DKAも図3に示すように、ディスクユニット24に接続するポート208と、マイクロプロセッサと202、ローカルメモリ204がそれぞれバス206に接続した構成を備えている。DKAのポート208とディスクユニット24との間は、ファイバチャネルのFC−ALやファブリック、またはパラレルSCSIなどにて接続される。
CHA26は、ホスト計算機10との間のSAN41を通じて、ホスト計算機10との間でのコマンドやデータの転送を制御する。SAN41を介するデータ通信プロトコルは、ファイバチャネルプロトコルやiSCSIプロトコルなどである。
CHA26のマイクロプロセッサ202(図2)は、ホスト計算機10から、データの読み書き等を要求するコマンド及びデータを受信し、各種コマンドを解釈して実行する。DKA23のマイクロプロセッサ202(図3)は、複数のHDDを制御するプログラムを実行する。これらのプログラムはマイクロプロセッサと対になっているローカルメモリ204に格納されている。
CHA26およびDKA23との間で、連携した処理を行うためなどに必要な制御情報が、共有メモリ22に格納されている。CHA及びDKAのマイクロプロセッサは、バス100Aを介して共有メモリ22の制御情報にアクセスすることができる。
CHA26はホスト計算機10からデータの読出し要求を受信すると、読出しコマンドを共有メモリ22に記憶させる。DKA23は、共有メモリ22を随時参照し、未処理の読出しコマンドを発見すると、記憶デバイスであるHDDからデータを読み出して、キャッシュメモリ21に記憶させる。
キャッシュメモリ21は、ホスト計算機10とストレージサブシステム20との間で授受されるデータを一時的に保持するために使われる。
CHA26は、キャッシュメモリ21に移されたデータを読み出し、コマンド発行元のホスト計算機10に送信する。CHA26が、ホスト計算機からデータの書込み要求を受信すると、書込みコマンドを共有メモリ22に記憶させると共に、受信データをキャッシュメモリ21に記録する。
DKA23は、共有メモリ22に記憶されたコマンドに従って、キャッシュメモリ21に記憶されたデータを所定のHDDに記録する。DKA23がHDDとの間でデータ入出力を行う場合、CHA26から出力される論理アドレスであるLBA(Logical Block Address)を物理アドレスに変換する。
DKA23は、ディスクユニット24に対してRAID構成に応じたデータアクセスを行う。ディスクユニット24は、RAID(Redundant Arrays of Independent Inexpensive Disks)構成された複数のディスクドライブ240を有する。
ディスクドライブ240は、FC(Fibre Channel)ディスクドライブ、SATA(Serial Advanced Technology Attachment)ディスクドライブ、PATA(Parallel Advanced Technology Attachment)ディスクドライブ、FATA(Fibre Attached Technology Adapted)ディスクドライブ、SAS(Serial Attached SCSI)ディスクドライブ或いはSCSI(Small Computer System Interface)ディスクドライブ等の物理デバイスである。物理デバイスとは、実記憶領域を有する実デバイスである。
DKA23は、複数のディスクドライブ240をRAID方式に規定されるRAIDレベル(例えば、0,1,5)で制御することができる。RAID方式においては、複数のディスクドライブ240が一つのRAIDグループとして管理される。
RAIDグループは、例えば、4つのディスクドライブ240を一組としてグループ化することにより(3D+1P)、或いは、8つのディスクドライブ240を一組としてグループ化することにより(7D+1P)、構成される。
即ち、複数のディスクドライブ240のそれぞれが提供する記憶領域が集合して一つのRAIDグループが構成される。RAIDグループ上には、ホスト計算機10からのアクセス単位である複数の論理ボリューム241が定義される。
ホスト計算機10が認識する論理的な記憶領域である論理ユニットには、一つ以上の論理ボリューム(LDEV)241がマッピングされている。ホスト計算機10は、LUN(論理番号)とLBAとを指定することにより、論理ボリューム241にアクセスできる。
ホスト計算機10がUnix(登録商標)系のシステムである場合には、論理ユニットは、デバイスファイル(Device File)に対応付けられる。ホスト計算機51がWindows(登録商標)系のシステムである場合には、論理ユニットは、ドライブレター(ドライブ名)に対応付けられる。論理ユニットには、LUN(Logical Unit Number)がアサインされる。
ホスト計算機10からストレージサブシステム20(20A,20B,20C)のCHA26に送信されるコマンドは、CHAのマイクロプロセッサによって共有メモリ22に書き込まれる。CHAはコマンドに対応する処理を実行し、その実行結果をステータスとして共有メモリ22に書き込む。
バス100Aのバス接続部25は、複数のストレージサブシステム20A,20B,20Cを互いに接続するネットワーク43に接続されている。複数のストレージサブシステムはネットワーク43を介してコマンド、制御情報、データの交換を行う。
LANインターフェース制御部27は、管理ネットワーク40を介して管理サーバ50に接続する。管理ネットワーク40は、イーサネット(登録商標)ケーブルなどで構成されるLANである。
管理ネットワーク40におけるデータ通信プロトコルは、TCP/IPである。管理サーバ50は、論理ユニットの作成、ホスト計算機10への論理ユニットの割り当て、ホスト計算機10とストレージサブシステム20との間のアクセスパスの設定(LUNマスキングやゾーニングなど)などを管理する。
ストレージサブシステム20Aにはサービスプロセッサ81Aが接続されている。サービスプロセッサ81Aは、ストレージサブシステム20Aの構成情報の設定や、稼働情報の取得などを行うコンピュータ端末である。
サービスプロセッサ81Aは、ストレージサブシステム20A内のLANインターフェース制御部28に接続される。ストレージサブシステム20Bにも同様にサービスプロセッサ81Bが接続され、ストレージサブシステム20Cにも同様にサービスプロセッサ81Cが接続されている。
各ストレージサブシステムに接続する各サービスプロセッサ81は、一つのマスタサービスプロセッサ82に接続されている。マスタサービスプロセッサ82は、各サービスプロセッサ81から収集した情報(ストレージサブシステム20の構成情報、ボリューム構造、稼働情報など)を一元管理する。
尚、複数のサービスプロセッサ81のうちの一つがマスタサービスプロセッサとして機能してもよく、或いは各ストレージシステム20がマスタサービスプロセッサ82に直接接続されていてもよい。
ストレージシステム100を構成する複数のストレージサブシステム20A,20B,20Cは互いに構成情報を送受信することにより、ストレージサブシステム間でのコマンド転送やボリュームマイグレーションを実行できる。
管理ネットワーク40には、複数のホスト計算機10と、複数のクライアント計算機30が接続されている。各クライアント計算機30は、管理ネットワーク40を介してホスト計算機10に接続し、ホスト計算機のアプリケーションプログラムを介してストレージシステム100にデータ入出力を要求できる。
ホスト計算機10がLANを介してCHA26に接続している場合、ホスト計算機は、ファイル名を指定してファイル単位でのデータ入出力をストレージサブシステムに要求する。
一方、ホスト計算機がSANを介してCHA26に接続している場合、ホスト計算機は、ファイバチャネルプロトコルに従って、複数のディスク記憶装置(ディスクドライブ)により提供される記憶領域のデータ管理単位であるブロックを単位としてデータ入出力をストレージサブシステムに要求する。
通信手段がLANである場合、ホスト計算機のアダプタは、例えばLAN対応のネットワークカードである。通信手段がSANの場合、ホスト計算機のアダプタは、既述のHBAである。この場合、ホスト計算機とストレージサブシステムとは、ファイバチャネルプロトコルに従ってデータ転送を行う。
ホスト計算機がメインフレームの場合は、例えば、FICON(Fibre Connection:登録商標)、ESCON(Enterprise System Connection:登録商標)、ACONARC(Advanced Connection Architecture:登録商標)、FIBARC(Fibre Connection Architecture:登録商標)等の通信プロトコルに従ってデータ転送が行われる。
ホスト計算機がストレージサブシステムに接続されると、ストレージサブシステムの応答に基づいての認識処理を行う。図4はその処理内容を示すタイミングチャートである。
先ず、複数のホスト計算機10のそれぞれは、複数のストレージサブシステム10それぞれのCHAにログインする(S1)。
ストレージサブシステム20がホスト計算機10のログインに対してログイン応答S2を返すことにより、ログインが完了する。
次に、ホスト計算機は、例えば、SCSI(Small Computer System Interface)規格で定められている照会コマンド(Inquiry)を、ストレージサブシステムに送信して、ストレージサブシステムからそのシステム情報(プロファイル)の応答を求める(S3)。
照会コマンドは、照会先のストレージサブシステムの種類及び構成を明らかにするために用いられるもので、照会先システムが有する階層を透過してその物理的構造を把握することができる。
照会コマンドを使用することにより、ホスト計算機は、例えば、ストレージサブシステムのメーカー名(ベンダーID)、モデル名(プロダクトID)、装置番号(ユニット シリアル ナンバー)、及び、CHAのマイクロプログラム(ファームウエア)のバージョン情報などの少なくとも1つからなるシステム情報をホスト計算機がログインしたストレージサブシステムから取得する(S4)。これらの情報はホスト計算機の所定領域に記憶される(S5)。
サーバとって、サーバに接続されているストレージコントローラのポートがどのコントローラのものかは、Inquiryコマンドに対するベンダーID、プロダクトID、ユニットシリアルナンバーからなる応答値から特定される。各ポートからのこれら応答値が同一であれば、サーバは同一のストレージコントローラのポートとして認識する。これらの応答値が異なっていれば、サーバはポートが異なるストレージコントローラに帰属するものと認識する。
サーバのオペレーティングシステムによっては、これら以外の応答値や他のコマンドに対する応答値を使ってコントローラの異同を判定する場合もあるかもしれないが、この場合でもコマンドに対する応答を複数のコントローラで同じにすれば、サーバからは区別がつかなくなる。
単体のシステムとして、ストレージサブシステム20が動作する場合には、全てのストレージサブシステムはそれぞれCHAのポートを介して、SAN41から、CHAのポートに接続されたホスト計算機10に対して、それぞれ固有なシステム情報を供給する。
これに対して、仮想化システムとして、ストレージサブシステム20が動作する場合には、それぞれのストレージサブシステムは、ホスト計算機に同一のシステム情報を供給する。この同一のシステム情報は、ストレージサブシステムの固有のシステム情報とは別に設定される仮想的或いは擬似的なものであって、以後、“仮想情報”と呼ぶことにする。
ストレージサブシステムが単体のシステムとして動作するか、仮想化ストレージシステムとして動作するかの制御情報は、マスター管理装置82が各ストレージサブシステムの共有メモリ22に設定する。
図5はマスター管理装置82のユーザ管理画面である。ユーザ管理者は、この管理画面に基づいて、ストレージサブシステムの動作モードを設定する。物理動作モードを選択すると、マスター管理装置は全てのストレージサブシステムの共有メモリ22の動作モードフラグに、物理動作モードに対応するフラグを設定する。仮想化動作モードを選択すると、マスター管理装置は全てのストレージサブシステムの共有メモリの動作モードフラグに、仮想化動作モードに対応するフラグを設定する。
物理動作モードはストレージサブシステムを単体のシステムとして動作させる制御情報であり、仮想化モードはストレージサブシステムを仮想化システムとして動作させる制御情報である。
図6は、マスター管理装置82がストレージサブシステム20に対して動作モードを設定するためのフローチャートである。マスター管理装置の設定プログラムは、既述の図5の管理画面をユーザ管理者に提供した後、ユーザ管理者から入力された動作モードをチェックする(600)。
ユーザ管理者が物理動作モードを選択すると、マスター管理装置はストレージサブシステムの共有メモリ22に物理動作モードに対応したフラグを設定する(602)。
続いて、マスター管理装置は、バス接続部25のレジスタに物理動作モードに対応するフラグを設定する(604)。
バス接続部25は、図7に示すように、コントローラ25Aとレジスタ25Bとを備えている。レジスタ25Bは、ストレージサブシステム内のバス100Aとネットワーク43との間の接続関係を規定するための制御情報を記録し、コントローラ25Aはレジスタ25Bの制御情報に基づいて、バス100Aとネットワーク43とを接続又は切断する。
レジスタはレジスタ1(25B−1)とレジスタ2(25B−2)とを備えて、レジスタ1は物理動作モードに対応するフラグの記憶領域である。レジスタ1に“1”が設定されると、コントローラ25Aは、バス100Aとネットワーク43との間の接続を有効にし、反対に“0”が設定されると、コントローラは、その接続を無効にする。ステップ604では、マスター管理装置82は、レジスタ1に“0”を設定する。
レジスタ2は仮想ストレージシステムのID(以後、「仮想化ID」という。)を登録する領域である。これについては後ほど説明するが、物理動作モードではレジスタ2をNULLに設定する。
ステップ600において、マスター管理装置82が、仮想化動作モードが選択されたことを確認すると、管理画面に図8の仮想化IDを設定する画面を出力して、ユーザ管理者に仮想化IDの入力を求める(606)。
複数のストレージサブシステムを複数のグループに分け、各グループにそれぞれ異なる仮想化IDを持たせる事によって、ホスト計算機に対して、複数の仮想化ストレージシステムを構築することができる。
続いて、マスター管理装置はユーザ管理者に、図9に示すように、仮想化IDが入力された仮想化ストレージシステムに対する仮想化情報を入力する画面を提示して、ユーザ管理者に仮想化情報の入力を促す(608)。
仮想化情報の“仮想化”とは、ストレージサブシステムが本来備えている固有のシステム情報とは異なることを意味している。その意味では、仮想化情報を擬似情報と称してもよい。
仮想化情報は、既述のシステム情報に倣って、仮想シリアル番号と、仮想ファームウエアバージョンと、仮想装置番号からなる。シリアル番号、ファームムウエアバージョン情報、装置番号は、ストレージサブシステムのコントローラのプロファイル情報である。
次いで、マスター管理装置は、同一の仮想化IDが設定された、ストレージサブシステム(1つ又は複数である)に対して、その共有メモリ22に仮想化IDと、仮想化情報を格納する(610,612)。
図10は、共有メモリ22における、ユーザ管理画面から入力された情報を記録する構造のブロック図である。共有メモリは、動作モードに対応するフラグを記録する領域と、仮想化IDを記録する領域と、仮想化情報を記録する領域と、を備えている。マスター管理装置82又はマスター管理装置からのコマンドを受けたCHA26は仮想化情報等を共有メモリ上の管理テーブルに登録する。
さらにマスター管理装置82は、バス接続部のレジスタ1(図7)に“1”を設定し、さらに、レジスタ2に仮想化IDを登録する(614)。
マスター管理装置は、複数のストレージサブシステムのそれぞれの管理装置に接続されている。マスター管理装置は、仮想化ストレージシステムとして設定されるべき複数のストレージサブシステムに対して、図6のフローチャートを実行する。
SAN41に接続されているあるストレージサブシステムを既存の仮想化ストレージシステムに加える場合には、マスター管理装置28は、図6のフローチャートを実行して、このストレージサブシステムの動作モードを仮想化動作モードに設定し、そして、このストレージサブシステムに対して仮想化ストレージサブシステムと同様な仮想化ID及び仮想化情報を設定し、パス接続部のレジスタに対して図6のステップ614とおりにフラグを設定する。
一方、仮想化ストレージシステムを構成するあるストレージサブシステムを、仮想化ストレージシステムから除いて単体として動作させる場合には、動作モードを仮想化動作モードから物理動作モードに変更し、パス接続部のフラグ1に“0”を設定し、フラグ2の仮想化IDをNULLに設定する。
図6に示すように、既述の図4のS4の処理において、ストレージサブシステムがホスト計算機からInquiryコマンドを受けると、CHA26は共有メモリ22のフラグをチェック(600)、フラグが物理動作モードである場合には、CHA26は共有メモリ22からストレージサブシステム固有のシステム情報をホスト計算機に応答する(604)。
フラグが仮想化動作モードである場合には、CHA26は仮想化ID、仮想化情報をホスト計算機に対して応答する。
ホスト計算機10が複数のストレージサブシステム20のそれぞれのCHA26から同一の仮想化ID、仮想化情報などの共通或いは統一情報を受信すると、ホスト計算機10は複数のストレージサブシステム20を論理的に一つのストレージサブシステム、すなわち、仮想化ストレージシステムとして認識する。ホスト計算機10は、異なるストレージサブシステムのCHAを論理的に一つのストレージサブシステムの異なるポートとして認識する。
複数のストレージサブシステムが結合あるいは統合されて仮想化ストレージシステムが構成される上で、複数のストレージサブシステムのそれぞれの、ホスト計算機が接続するポート、論理ユニット、論理ユニットにマッピングされる論理ボリュームを仮想化ストレージシステムの論理体系の中で一意に定義される必要がある。
図11は、仮想化ストレージシステムのパス定義情報を規定する管理テーブルである。仮想化ストレージシステムの各ストレージサブシステムは識別子で区別されている。仮想化ストレージシステム1がCL1−AとCL1−Bという二つの、ホスト計算機が接続するポートを有し、CL1−Aには論理ユニットLUN0が割り当てられ、CL1−Bには論理ユニットLUN1が割り当てられ、論理ユニットLUN1は論理ボリューム0001に割り当てられ、論理ユニットLUN1は論理ボリューム0002に割り当てられていることをしめしている。
ポート番号、論理ユニットID、論理ボリュームID、仮想化ストレージシステムに属する全てのストレージサブシステムに渡って一意に定義される。
図12は、ボリューム管理テーブルであり、例えば、ストレージサブシステム1の論理ボリューム0001のデータがディスク装置のHDD#0とHDD#3とに格納されることを示している。
これら図11及び図12の管理テーブルは、マスター管理装置82から、同一の仮想化IDが設定された全てのストレージサブシステムの共有メモリ22にそれぞれ格納される。
図13に示すように、ホスト計算機10は既述のアプリケーションプログラムと、仮想化プログラムと、交替パスプログラムを備えている。ホスト計算機は仮想化プログラムによって、同じ仮想化IDと、同じ仮想情報と、がそれぞれ設定された複数のストレージサブシステムを論理的に一つのストレージサブシステム又は論理的に一つの記憶資源として認識してCHAにアクセスする。
交替パスプログラムは、ホスト計算機と仮想化ストレージシステム内の論理ボリュームとの間の論理パスを管理し、マルチパス制御を実行する。マルチパス制御とは、複数の論理パスの中からどの論理パスを使用して論理ボリュームにアクセスするかを制御することである。
ストレージサブシステムは、仮想化ストレージシステムの体系で管理される既述の管理テーブルに加えて、単体のシステムの体系で定義された個別の管理テーブルを備えている。
図6のフローチャートに示すように、ホスト計算機からのアクセスを受けたCHA26は、共有メモリ22を参照して動作フラグをチェックする。CHAは、動作フラグが仮想化動作モードであることを確認すると、仮想化ストレージシステムの体系で統一的に管理・運用されている管理テーブルを参照して、ホスト計算機からのコマンドを処理する。
CHAが、動作フラグが物理動作モードであることを確認すると、単体のシステムの体系で管理される管理テーブルを参照する。
既述のとおり、仮想化ストレージシステムの各ストレージサブシステムは、仮想化ストレージシステムの体系で定義された既述の管理テーブルにしたがって、ホスト計算機からのアクセスを処理する。
仮想化ストレージシステムに属するあるストレージサブシステムのCHAおよびDKAは、バス接続線を介して他のストレージサブシステムの共有メモリを参照する。したがって、あるストレージサブシステムのCHAおよびDKAから見た共有メモリのアドレスは、他のストレージサブシステムの共有メモリを参照できるように、図14のように構成されている。
なお、図1の符号22Aで示すように、バス接続線に独立した共有メモリを接続することもできる。この共有メモリに仮想化ストレージシステムの体系で定義された既述の管理テーブルを格納すると、例えば、ストレージサブシステム20AのCHA26およびDKA23は、自身のストレージサブシステムの共有メモリ22とバス接続線に接続された共有メモリ22Aを参照する。CHAおよびDKAから見た共有メモリにおけるメモリ空間のアドレスは、図15のようになる。
図16は、仮想化ストレージシステムの各ストレージサブシステムのバス接続部25のコントローラ25A(図7)の動作を示すフローチャートである。コントローラは、レジスタ1のフラグをチェックし(1600)、フラグが“0”であることを確認すると、ストレージサブシステム内のバス100Aとバス接続線43とのバス接続を無効にしてフローチャートを終了する(1602)。
フラグ1のレジスタが“1”の場合は、バス接続部のコントローラはバス接続線43を介して複数ある他のストレージサブシステムのレジスタ2の値を読み込む(1604)。
次いで、コントローラは自身が属するバス接続部25のレジスタ2の値を読み込み、この値と複数ある他のストレージサブシステムそれぞれのレジスタ2の値とを比較し(1606)、値が一致するストレージサブシステムに対しては、コントローラは、ストレージサブシステム内のバスとバス接続線との間のバス接続を有効にする(1608)。
一方、値が一致しないストレージサブシステムに対しては、コントローラは内部バス100Aとバス接続線34との間の接続を無効にする(1608)。これにより、あるストレージサブシステムは、自身が属する仮想化ストレージシステムとは異なる他の仮想化ストレージシステムのストレージサブシステムに接続しないことが保証される。
次に、ホスト計算機から仮想化ストレージシステムに属するストレージサブシステムにリードコマンドを発行し、このリードコマンドを受けたCHAがこのリードコマンドを処理することについて説明する。
図17はこの処理を説明するフローチャートである。CHAは、ホスト計算機から指定された論理ユニットの番号から、自ストレージサブシステムの共有メモリ22のパス定義情報を参照して論理ボリューム番号を求める(1700)。
次いで、CHAは共有メモリのヒットミス判定テーブルを参照して、リードデータがキャッシュメモリ21に存在するか否かを調べる。
図18はヒットミス判定テーブルであり、論理ボリュームのブロックアドレスと、ヒットミスフラグと、データがあるストレージサブシステムの識別子と、キャッシュメモリ上のアドレスとの対応関係が登録されている。
CHAがこのヒットミス判定テールブルを参照した結果、リードされるデータがキャッシュメモリにあると判定すると(ヒット)、リードデータがあるキャッシュメモリの位置を判定する(1704)。一方、リードデータがキャッシュメモリに存在しないと判定された場合(ミス)には、後述のリードミス時の処理に移行する。
CHAがリードすべきデータが、自ストレージサブシステムのキャッシュメモリにあると判定すると、このキャッシュメモリからリードすべきデータを読み出しデータをサーバ(ホスト計算機)へ転送する(1706)。
一方、CHAがリードすべきデータが他のストレージサブシステムにあると判定すると、CHA26は自ストレージサブシステムのバス接続部25とバス接続線43を介して他のストレージシステムにアクセスして、他のストレージサブシステムのキャッシュメモリからリードすべきデータを読み出して、データを、リードコマンドを発行したサーバへ転送する(1708)。
図19は、図18のリードミス判定に続いて行われるフローチャートである。ホスト計算機からコマンドを受けたCHAは、ボリューム管理テーブルを参照して、リードデータを格納する論理ボリュームを有するストレージサブシステムを判定する(1900)。
CHAは、論理ボリュームがコマンドを受けたストレージサブシステムに存在すると判定すると、自ストレージサブシステムのキャッシュメモリ21の領域をリードすべきデータに対して割り当てる(1902)。
次いで、DKAはディスク装置からリードすべきデータを読み出して、キャッシュメモリが割り当てた領域に格納する(1904)。そして、CHAはキャッシュメモリから読み出したデータをサーバに転送する(1906)。
一方、論理ボリュームが他のストレージサブシステムに存在する場合は、ステップ1902と同様にCHAは、リードすべきデータにキャッシュメモリの記憶領域を割り当てる(1908)。
次いで、CHAはバス接続部25を介して目的の論理ボリュームを有する他のストレージサブシステムにアクセスして、その共有メモリにリードコマンドを転送する。
他のストレージサブシステムのDKAは、ディスク装置から目的のデータを読み出し、これを同じストレージサブシステムのキャッシュメモリに格納する(1910)。リードコマンドを受けたストレージサブシステムのCHAは、バス接続部を介して他のストレージサブシステムのキャッシュメモリからリードデータを受領し、これをサーバに転送する。
次に、ライトコマンドの処理を説明する。図20はこの処理を説明するフローチャートである。ホスト計算機からライトコマンドを受けたストレージサブシステムのCHAはホスト計算機から指定された論理ユニット番号とパス定義情報からデータが書き込まれるべき論理ボリューム番号を特定する(2000)。
次いで、CHAは共有メモリのボリューム管理テーブルを参照して目的のボリュームを備えているストレージサブシステムを特定する(2002)。
CHAが、ボリュームがCHAと同じストレージサブシステムである自ストレージサブシステムにあると判定すると(2004)、CHAは、ライトデータに対して、自ストレージサブシステムのキャッシュメモリのキャッシュ領域を割り当てる(2006)。
次いで、CHAはキャッシュメモリにサーバからのライトデータを格納する(2008)。自ストレージサブシステムのDKAは、キャッシュメモリへのライトデータの書き込みに同期して、あるいは非同期にキャッシュメモリのライトデータを読み出し、これをディスク装置に格納する(2010)。
一方、ライトデータが書き込まれる論理ボリュームがライトコマンドを受けたストレージサブシステムとは異なる他ストレージサブシステムにある場合には(2004)、自ストレージサブシステムのCHAはそのキャッシュメモリのキャッシュ領域を、ライトデータを格納するために割り当てる(2012)。
自ストレージサブシステムのCHAは、そのキャッシュメモリの割当て領域にサーバからのライトデータを書き込む(2014)。
他のストレージサブシステムのDKAはバス接続部及びバス接続線を介して自ストレージサブシステムのキャッシュメモリからライトデータを読み出し、そのDKAは自身のストレージサブシステムのディスク装置にライトデータを書き込む(2016)。この書き込みは、ステップ2010と同様に、キャッシュメモリへのデータの書き込みと同期或いは非同期に行う。
次に本発明に係わる仮想化ストレージシステムの第1の実施例について説明する。図21は第1のストレージサブシステムのボリュームに格納されているデータを第2のストレージサブシステムのボリュームにマイグレーションすることを説明するフローチャートである。図22はマイグレーションの過程を示すブロック図である。
ホスト計算機(サーバ)10と第1のストレージサブシステム10A(図22)とが接続したストレージシステムが存在する。このストレージシステムに第2のストレージサブシステム10Bを追加する(2100)。例えば、第1のストレージサブシステム10Aを第2のストレージサブシステム10Bに交換、あるいは更新する場合である。
マスター管理装置は、第1と第2の二つのストレージサブシステムに、既述のとおり、仮想化動作モードを設定し、さらに仮想化ID及び仮想化情報を格納して第1のストレージサブシステムと第2のストレージサブシステムが仮想化ストレージシステム100を構成するようにした。
次いで、第2のストレージサブシステム20Bの管理装置又はマスター管理装置は、第1のストレージサブシステム20Aのボリュームを、ストレージシステムに追加された第2のストレージサブシステム10BのCHAからアクセスできるように、第1のストレージサブシステム10Aの論理ボリューム2200にアクセスできるパス2204を定義する(2102)。
次いで、第2のストレージサブシステム10BのCHAポートとホスト計算機10とをI/Oケーブル2206で接続する(2104)と、ホスト計算機は論理ボリューム2200に対するアクセスパスが増設されたと認識する。
マスター管理装置は、第1のストレージサブシステムの論理ボリューム2200をマイグレーション元、第2のストレージサブシステムの論理ボリューム2202をマイグレーション先に設定し、第1のストレージサブシステムのCHAはマイグレーション元の論理ボリュームのデータをマイグレーション先の論理ボリュームへ移行させる(2106)。この過程で、サーバ10から論理ボリューム2200へのアクセスは継続されている。
第1のストレージサブシステムの論理ボリューム2200から第2のストレージサブシステムの論理ボリューム2202へのデータマイグレーションが終了すると、ホスト計算機と第1のストレージサブシステムとの間のアクセスパス2210を切り離す(2108)。
ホスト計算機は、論理ボリューム2200へのパス(2206→2204)が新たに追加されたあと既存のパス2210が取り除かれたかのように認識する。
次に、本発明の第2の実施例について説明する。この実施例は、出願人によってダイナミックプロビジョニングと称されるものである。図23に示すように、ストレージサブシステム20はホスト計算機が認識する仮想ボリューム2300を備えている。
仮想ボリューム2300は仮想的な容量をホスト計算機10に見せているだけで、それ自身にはディスク装置の実際の記憶領域が割り当てられていない。
ホスト計算機から仮想ボリュームにライトがあると、ディスク装置の記憶領域をプールしているプールボリューム2302から記憶領域の単位ボリューム2304がホスト計算機からのライトに割り当てられる。以上の機能をダイナミックプロビジョニングと称する。
図24はダイナミックプロビジョニングの動作を説明するフローチャートである。第1のストレージサブシステムの仮想ボリュームにホスト計算機からライトアクセスがあると、このフローチャートがスタートし、第1のストレージサブシステムのCHAは、プールボリュームにプールされている記憶領域の容量を確認する(2400)。
CHAはホスト計算機からのライトアクセスに対して必要な容量があるかを判定し(2402)、これを肯定すると、CHAはホスト計算機からのライトに記憶領域を割り当て、DKAはこの記憶領域にライトデータを格納する(2404)。
これに対して、プールボリュームに記憶領域がないか、あるいは不足している場合には、CHAは共有メモリに格納されている動作モードフラグをチェックする(2406)。
CHAが物理動作モードを判定すると、CHAはライトコマンドを発行したホスト計算機に対してプールボリュームの容量が不足して、ライトアクセスに記憶領域を割り当てることができない旨を通知する(2408)。
一方、CHAが動作モードとして仮想化動作モードを判定すると、共有メモリの図25に示す管理テーブルを参照する。この管理テーブルは、仮想化ストレージシステムに属する各ストレージサブシステムのプールボリュームの容量を管理するものであり、CHAはこの管理テーブルを参照して、余裕があるプールボリュームを持っている他のストレージサブシステムを判定する(2408)。
CHAが全てのストレージサブシステムが、余裕があるプールボリュームを備えていないと判定すると、CHAはライトコマンドを発行したホスト計算機に対してプールボリュームの容量が不足して、ライトアクセスに記憶領域を割り当てることができない旨を通知する(2410)。
CHAが、余裕があるプールボリュームを備えている他のストレージサブシステムを検出すると、CHAはそのストレージサブシステムにライトデータを転送し、ライトデータが転送された他のストレージサブシステムのDKAがディスク装置の記憶領域をライトデータの格納用に割り当てる(2412)。
図26は、本発明に係る仮想化ストレージシステム100の第3の実施例であり、ホスト計算機10が第1のストレージサブシステム20Aに接続している。第1のストレージサブシステム20Aと、第2のストレージサブシステム20Bと、第3のストレージサブシステム20Cと、は仮想化ストレージシステム100を構成している。
ホスト計算機10及び第1のストレージサブシステム20Aは、ボリュームペア管理プログラム(10−1,2600)を備えている。第1のストレージサブシステムのボリューペア管理プログラム2600は、レプリカ処理ジョブ2602を実行して、論理ボリューム2604のレプリカ2606を作成する。
第2のストレージサブシステム20BのCHAは第1のストレージサブシステム20Aのボリューム管理プログラム2600にアクセスして、レプリカ処理ジョブ2608を実行する。第2のストレージサブシステムは論理ボリューム2610のレプリカ2612を第3のストレージサブシステムに作成する。
ホスト計算機から見ると、第1のストレージサブシステム、第2のストレージサブシステム、及び第3のストレージサブシステムは、論理的に一つのストレージサブシステムとして認識するので、第2のストレージサブシステムのボリュームのレプリカを第3のストレージサブシステムの論理ボリュームに作成することを、同一のストレージサブシステム内のボリュームペア作成として処理することができる。
図27はさらに第4の実施例であり、ストレージシステムは二つの仮想化ストレージシステム100,100Aを備えている。第1のストレージサブシステム20Aと第2のストレージサブシステム20Bとが第1の仮想化ストレージシステム100を構成し、第3のストレージサブシステム20Cと、第4のストレージサブシステム20Dとが、第2の仮想化ストレージシステム100Aを構成している。
第1のストレージサブシステムと第2とのストレージサブシステムには第1の仮想化IDが設定されている。第3のストレージサブシステムと第4のストレージサブシステムには第1の仮想化IDと異なる第2の仮想化IDが設定されている。
第1のストレージサブシステムのボリュームペア管理プログラム2700は、リモート処理ジョブ2702を実行し、第1の論理ボリューム2704と第3のストレージサブシステムの第3の論理ボリューム2714とをリモートコピーペアとして、第1の論理ボリューム2704へのホスト計算機10からのデータを第3の論理ボリューム2714へリモートコピー2710する。
第2のストレージサブシステムはボリュームペア管理プログラム2706に基づいて、リモート処理ジョブ2706を実行し、第2の論理ボリューム2708と第4のストレージサブシステムの第4の論理ボリューム2716とをリモートコピーのペアとして、第2の論理ボリュームへのホスト計算機10からのライトデータを第4の論理ボリューム2716へリモートコピー2712する。
図28は第3及び第4の実施例において、ホスト計算機からボリュームペアに関連する制御コマンドを受けた第1のストレージサブシステムのCHAの処理を示すフローチャートである。CHAがホスト計算機から論理ボリュームペア管理コマンドを受信すると、ボリュームペアのうちのコピー元である正ボリュームが自ストレージサブシステム内にあるか否かを判定する(2800)。
正ボリュームが自ストレージサブシステムにあることを判定すると、CHAは自ストレージサブシステムのボリュームペア管理プログラムにレプリカ処理、リモートコピー処理を要求する(2802)。
一方、正ボリュームが他のストレージサブシステムにあることを判定すると、自ストレージサブシステムのCHAは、正ボリュームを有する他のストレージサブシステムのボリュームペア管理プログラムに、ホスト計算機からのペア管理コマンドを転送して、ボリュームペアに関するジョブを実行することを要求する(2804)。
既述の仮想化ストレージシステムにおいては、マスター管理装置が仮想化ストレージシステムを統合的に管理する。図29はマスター管理装置からユーザ管理者に提供される、仮想化ストレージシステムの構成情報である。
ストレージサブシステム(A001)、ストレージサブシステム(A002)、ストレージサブシステム(A003)が統合されて仮想化ストレージシステムを構成することが示されている。仮想化ストレージシステムのIDは50001であり、仮想化ストレージシステムのプロファイルの設定機能と、仮想化ストレージシステムの保守機能と、がユーザ管理者に提示される。
ユーザ管理者が仮想化ストレージシステムの保守機能を選択すると、図30の保守画面がユーザ管理者に提示される。異常があるユニットは、ユーザ管理者に点滅するなどして通知される。
ユーザ管理者がストレージサブシステムの保守機能を選択すると、選択したストレージサブシステムの保守画面がユーザ管理者に通知される。
以上説明した本発明の実施形態又は実施例では、同じ仮想化モードで動作する複数のストレージサブシステムが、ホスト計算機に対する応答コマンドを互いに統一することにより、ホスト計算機は複数のストレージサブシステムを論理的に1つのストレージサブシステムとして認識するようにしたが、ホスト計算機に仮想化プログラムを搭載することで、ホスト計算機が複数のストレージサブシステムを1つの記憶資源として論理的に認識するようにしたり、ホスト計算機とストレージサブシステムとの間に仮想化装置を備えるようにして、ホスト計算機が複数のストレージサブシステムを1つの記憶資源として論理的に認識するようにしてもよい。
また、本発明は、ストレージサブシステムをある上位装置に対しては仮想化モードで動作させ、そして他の上位装置に対しては物理動作モードで動作させることもできる。
図32はこのことを示す、ストレージシステムのブロック図である。ストレージサブシステム1の記憶資源や制御資源を分割して、サーバ1に対しては物理動作モードで動作させ、サーバ2に対しては仮想化モードで動作させていることを示している。
本発明に係る仮想化ストレージシステムの実施形態のハードウエアブロック図である。 チャネルアダプタのハードウエアを示すブロック図である。 ディスクアダプタのハードウエアを示すブロック図である。 ホスト計算機からの照会コマンドに対するストレージサブシステムからの応答を説明するタイミングチャートである。 統合管理装置(マスター管理端末)を利用してユーザ管理者がストレージサブシステムの動作モードを設定する際での、管理画面である。 統合管理装置がストレージサブシステムに動作モードを設定する際での、統合管理端末装置の処理動作を示すフローチャートである。 ストレージサブシステムの接続部のハードウエアを示すブロック図である。 仮想化ストレージシステムに属する複数のストレージサブシステムへ同一の仮想化IDを設定するための、統合管理装置の管理画面である。 仮想化ストレージシステムに属する複数のストレージサブシステムへ同一の仮想情報を設定するための、統合管理装置の管理画面である。 共有メモリの構造を示すブロック図である。 仮想化ストレージシステムのパス定義情報を規定する管理テーブルである。 ボリューム管理テーブルである。 ホスト計算機のブロック図である。 仮想化ストレージシステムの属するストレージサブシステムの共有メモリのメモリアドレスの構造を示すブロック図である。 仮想化ストレージシステムの属するストレージサブシステムの共有メモリの他のメモリアドレスの構造を示すブロック図である。 仮想化ストレージシステムの各ストレージサブシステムのバス接続部の動作を示すフローチャートである。 仮想化ストレージシステムがリードコマンドを処理する様子を説明するフローチャートである。 ヒットミス判定テーブルである。 リードミス時の仮想化ストレージシステムがリードコマンドを処理することを説明するフローチャートである。 仮想化ストレージシステムがライトコマンドを処理する様子を説明するフローチャートである。 仮想化ストレージシステムを構成する、第1のストレージサブシステムと第2のストレージサブシステムとの間で、第1のストレージシステムのボリュームに格納されているデータを、第2のストレージサブシステムのボリュームにマイグレーションすることを説明するフローチャートである。 図21のマイグレーションの過程を説明するブロック図である。 ダイナミックプロビジョニングの原理を説明するブロック図である。 ダイナミックプロビジョニングの動作を説明するフローチャートである。 仮想化ストレージシステムに属する各ストレージサブシステムのプールボリュームの容量を管理するテーブルである。 仮想化ストレージシステムのレプリカ処理ジョブを説明するブロック図である。 仮想化ストレージシステムのリモートコピー処理ジョブを説明するブロック図である。 仮想化ストレージシステムのボリュームコピー処理を説明するブロック図である。 仮想化ストレージシステムの構成情報を示す、統合管理装置の管理画面である。 仮想化ストレージシステムの保守に関する情報を示す、統合管理装置の管理画面である。 仮想化ストレージシステムに属するストレージサブシステムの保守情報を示す、統合管理装置又は個別管理装置の管理画面である。 ストレージサブシステムの資源を分割して、一方を物理動作モードで、他方仮想化モードにして、複数もモードを並存させたことを示すストレージシステムのブロック図である。
符号の説明
10 ホスト計算機(10A,10B,・・・10N)
20 ストレージサブシステム(20A,20B,20C・・・)
21 キャッシュメモリ
22 共有メモリ
23 ディスクアダプタ
24 ディスク装置
25 バス接続部
26 チャネルアダプタ
41 SAN(ホスト計算機−ストレージシステム接続手段)
81 個別管理装置(81A,81B,81C・・・)
82 統合管理装置
100 仮想化ストレージシステム
240 HDD
241 論理ボリューム

Claims (8)

  1. 上位装置と接続するためのポートを有する第1のアダプタと、
    前記上位装置からのデータを一時的に格納するためのキャッシュメモリと、
    前記データを格納するための記憶資源に接続される第2のアダプタと、
    ストレージサブシステムが単体のシステムとして動作するか或いは仮想化ストレージシステムとして動作するかに関して事前に設定される制御情報が格納されるメモリと
    を含み、
    前記記憶資源によって構成される論理ボリュームに対するアクセスを制御する複数のストレージサブシステムを有し、
    各前記ストレージサブシステムは、前記上位装置から照会コマンドを受け取った際、前記メモリに設定された前記制御情報に応じて前記仮想化ストレージシステムとして動作すべき場合には前記第1のアダプタが各前記制御情報として各前記メモリに設定済みの仮想化識別子を前記上位装置に対して応答することにより、前記上位装置に、同一の前記仮想化識別子を応答した前記複数のストレージサブシステムの各前記第1のアダプタを論理的に1つのストレージサブシステムの異なるポートとして認識させ前記複数のストレージサブシステムを仮想化して論理的に1つの前記仮想化ストレージシステムとして認識させる第1のモードを実行し、前記第1のモードにおいて前記データを読み出す際には、前記データの読み出し要求を受けたストレージサブシステムが、前記仮想化ストレージシステムに属する前記複数のストレージサブシステムに各々一意に定義されたポートごとに、前記データが格納されている前記論理ボリュームのアドレス情報を管理するボリューム管理テーブルを参照し、前記複数のストレージサブシステムのうちから前記データを格納している前記論理ボリュームを有する特定のストレージサブシステムを求め、前記特定のストレージサブシステムにおける前記論理ボリュームから前記データを読み出して前記上位装置に転送し、
    一方、各前記ストレージサブシステムは、前記上位装置から照会コマンドを受け取った際、前記メモリに設定された前記制御情報に応じて前記単体のシステムとして動作すべき場合には各前記第1のアダプタが各前記制御情報として各前記メモリに設定済みのシステム情報を前記上位装置に応答し、前記上位装置に、異なる前記システム情報を応答した各前記ストレージサブシステムを単体のシステムとして認識させる第2のモードを実行する
    ことを特徴とするストレージシステム。
  2. 前記第1のモードが適用される前記複数のストレージサブシステムのそれぞれの前記メモリには、仮想的な共通情報が記録される、請求項1記載のストレージシステム。
  3. 前記共通情報は、前記第1のモードが適用される複数のストレージサブシステムに共通のIDである、請求項2記載のストレージシステム。
  4. 前記共通情報は、前記第1のモードが適用される前記複数のストレージサブシステムに共通なプロファイル情報である、請求項2記載のストレージシステム。
  5. 前記上位装置は、前記第1のモードが適用される複数のストレージサブシステムの前記メモリから前記共通情報を受信して、当該複数のストレージサブシステムを論理的に1つのストレージサブシステムとして認識する、請求項2記載のストレージシステム。
  6. 前記共通情報は、前記第1のモードが適用される複数のストレージサブシステムに共通な統合管理装置から、前記メモリに供給される、請求項2記載のストレージシステム。
  7. 前記第1のモードが適用される前記複数のストレージサブシステムのそれぞれは、お互いが接続される接続部を備え、
    前記接続部は、前記IDが異なる前記複数のストレージサブシステム間の接続を無効にする、請求項3記載のストレージシステム。
  8. 前記複数のストレージサブシステムの構成情報を設定する管理装置を備え、
    前記管理装置は、前記複数のストレージサブシステム共通の仮想情報を設定し、
    前記ストレージサブシステムは、前記上位装置からの前記照会コマンドに対して前記仮想識別子を前記上位装置に応答し、
    前記上位装置は、この応答に基づいて、前記仮想化ストレージシステムを認識する、請求項1に記載のストレージシステム。
JP2008120563A 2008-05-02 2008-05-02 ストレージシステム Expired - Fee Related JP5288875B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008120563A JP5288875B2 (ja) 2008-05-02 2008-05-02 ストレージシステム
US12/213,956 US8271759B2 (en) 2008-05-02 2008-06-26 Storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008120563A JP5288875B2 (ja) 2008-05-02 2008-05-02 ストレージシステム

Publications (2)

Publication Number Publication Date
JP2009271666A JP2009271666A (ja) 2009-11-19
JP5288875B2 true JP5288875B2 (ja) 2013-09-11

Family

ID=41257891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008120563A Expired - Fee Related JP5288875B2 (ja) 2008-05-02 2008-05-02 ストレージシステム

Country Status (2)

Country Link
US (1) US8271759B2 (ja)
JP (1) JP5288875B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8019732B2 (en) 2008-08-08 2011-09-13 Amazon Technologies, Inc. Managing access of multiple executing programs to non-local block data storage
US8429308B2 (en) * 2009-01-29 2013-04-23 Ca, Inc. System and method for migrating data from a storage device
US8370588B2 (en) * 2010-09-09 2013-02-05 Hitachi, Ltd. Computer system control method and computer system
EP2652586B1 (en) * 2011-04-27 2016-01-13 Hitachi, Ltd. Information storage system and storage system management method
US9092139B2 (en) * 2012-07-05 2015-07-28 Hitachi, Ltd. Management apparatus and management method using copy pair of virtual volumes
US9268493B2 (en) * 2012-11-28 2016-02-23 Dell Products L.P. Systems and methods for smart storage interconnection in a heterogeneous storage environment
WO2016020977A1 (ja) * 2014-08-05 2016-02-11 株式会社日立製作所 ストレージシステム、及びキャッシュ制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203730B1 (en) * 2001-02-13 2007-04-10 Network Appliance, Inc. Method and apparatus for identifying storage devices
JP4338068B2 (ja) * 2002-03-20 2009-09-30 株式会社日立製作所 ストレージシステム
US7640993B2 (en) * 2003-07-04 2010-01-05 Artificial Lift Company Limited Lion Works Method of deploying and powering an electrically driven in a well
JP2005165702A (ja) * 2003-12-03 2005-06-23 Hitachi Ltd クラスタストレージのデバイス連結方法
JP2006072440A (ja) * 2004-08-31 2006-03-16 Hitachi Ltd ストレージ装置およびそのデータ移行方法
US8135922B2 (en) * 2004-11-08 2012-03-13 International Business Machines Corporation Apparatus and method to validate the configuration of an information storage and retrieval system
JP2006134208A (ja) * 2004-11-09 2006-05-25 Fujitsu Ltd ストレージ仮想化装置
US20060242380A1 (en) * 2005-04-20 2006-10-26 Anuja Korgaonkar Virtually unlimited storage
JP2007066154A (ja) * 2005-09-01 2007-03-15 Hitachi Ltd データをコピーして複数の記憶装置に格納するストレージシステム
JP4852298B2 (ja) * 2005-10-28 2012-01-11 株式会社日立製作所 仮想ボリュームを識別する情報を引き継ぐ方法及びその方法を用いたストレージシステム
JP4486921B2 (ja) * 2005-12-09 2010-06-23 富士通株式会社 ストレージ仮想化装置およびそれを用いたコンピュータシステム
JP4800059B2 (ja) * 2006-02-13 2011-10-26 株式会社日立製作所 仮想ストレージシステム及びその制御方法
US20070220203A1 (en) * 2006-03-15 2007-09-20 Hitachi, Ltd. Management method for virtualized storage view
JP4920291B2 (ja) * 2006-04-18 2012-04-18 株式会社日立製作所 計算機システム、アクセス制御方法及び管理計算機
JP4963892B2 (ja) * 2006-08-02 2012-06-27 株式会社日立製作所 仮想ストレージシステムの構成要素となることが可能なストレージシステムの制御装置
JP4933211B2 (ja) * 2006-10-10 2012-05-16 株式会社日立製作所 ストレージ装置、制御装置及び制御方法

Also Published As

Publication number Publication date
JP2009271666A (ja) 2009-11-19
US20090276594A1 (en) 2009-11-05
US8271759B2 (en) 2012-09-18

Similar Documents

Publication Publication Date Title
US7558916B2 (en) Storage system, data processing method and storage apparatus
JP4963892B2 (ja) 仮想ストレージシステムの構成要素となることが可能なストレージシステムの制御装置
JP5159421B2 (ja) ストレージシステム及び管理装置を用いたストレージシステムの管理方法
EP1837751B1 (en) Storage system, storage extent release method and storage apparatus
JP4235220B2 (ja) 計算機システムおよびデータ移行方法
US6832289B2 (en) System and method for migrating data
US8051262B2 (en) Storage system storing golden image of a server or a physical/virtual machine execution environment
US7461196B2 (en) Computer system having an expansion device for virtualizing a migration source logical unit
US7660946B2 (en) Storage control system and storage control method
US9311012B2 (en) Storage system and method for migrating the same
JP5288875B2 (ja) ストレージシステム
EP1845439A2 (en) Storage area dynamic assignment method
US20070233992A1 (en) Storage apparatus
JP2007141216A (ja) 複数のプロトコルアクセス可能なosdストレージサブシステムのためのシステム、方法および装置
US20100235592A1 (en) Date volume migration with migration log confirmation
US10884622B2 (en) Storage area network having fabric-attached storage drives, SAN agent-executing client devices, and SAN manager that manages logical volume without handling data transfer between client computing device and storage drive that provides drive volume of the logical volume
US10503440B2 (en) Computer system, and data migration method in computer system
US8732428B2 (en) Computer system and its control method
US11003357B2 (en) Managing single path communication between a host and a storage system
EP1785835A2 (en) Storage control method for managing access environment enabling host to access data
US10346082B2 (en) Computer system and storage control method
US7424572B2 (en) Storage device system interfacing open-system host computer input/output interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

R150 Certificate of patent or registration of utility model

Ref document number: 5288875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees