JP2006107257A - ストレージ装置 - Google Patents

ストレージ装置 Download PDF

Info

Publication number
JP2006107257A
JP2006107257A JP2004295066A JP2004295066A JP2006107257A JP 2006107257 A JP2006107257 A JP 2006107257A JP 2004295066 A JP2004295066 A JP 2004295066A JP 2004295066 A JP2004295066 A JP 2004295066A JP 2006107257 A JP2006107257 A JP 2006107257A
Authority
JP
Japan
Prior art keywords
real
address
virtual
storage apparatus
host
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004295066A
Other languages
English (en)
Other versions
JP4574315B2 (ja
Inventor
Toshinori Sakaki
豪紀 榊
Yoshihiro Azumi
義弘 安積
Masami Maeda
昌美 前田
Masaru Tsukada
大 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004295066A priority Critical patent/JP4574315B2/ja
Priority to US10/998,780 priority patent/US7337299B2/en
Priority to EP05253251A priority patent/EP1645953B1/en
Publication of JP2006107257A publication Critical patent/JP2006107257A/ja
Priority to US11/971,029 priority patent/US7487328B2/en
Priority to US12/272,073 priority patent/US7844795B2/en
Priority to US12/911,910 priority patent/US8046562B2/en
Application granted granted Critical
Publication of JP4574315B2 publication Critical patent/JP4574315B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 ストレージ装置側で扱うデバイスアドレス数が増大した場合でも、ホスト側で保持するデバイスアドレスを増やす必要無しに、全デバイスへのアクセスを可能としつつ、構成定義情報の管理が簡単で使用資源も抑えることができる技術を提供する。
【解決手段】 ホスト200側では、ストレージ装置100側で扱う実デバイスに対するアクセスのための仮想デバイスを扱って仮想デバイスアドレス23を保持し、仮想デバイスに対してマウントする実デバイスの指定を行い、仮想デバイスアドレス23によりデータ入出力のためのアクセスを行う。コントローラ10のCHA11は、仮想デバイスアドレス23に対して実デバイスアドレス31をマッピングしてSM12上のテーブル41に保持し、仮想デバイスアドレス23によるアクセスを受けると、テーブル41により対応する実デバイスアドレス31を取得して実デバイスに対してアクセスする。
【選択図】 図4

Description

本発明は、ハードディスクドライブ(以下、HDDと称する)等の記憶装置に対するデータの記憶の制御を行うストレージ装置(ディスクアレイ装置、ストレージサブシステムともいう)に関し、特に、ストレージ装置とストレージ装置に対してデータ入出力要求を行うホストコンピュータ(以下、単にホストとも称する)等とを含んで構成されるコンピュータシステムで、ストレージ装置を利用するための、デバイスアドレス等のシステム構成定義情報の利用・管理の技術に関する。
コンピュータシステムで扱われるデータ量の増加に伴い、ユーザ側のホストコンピュータに対しネットワーク等を介して通信接続されるストレージ装置を含んで構成されるコンピュータシステムにおいて、ストレージ装置の提供する記憶領域も大容量化が進んでいる。
ストレージ装置を利用するにあたって、ホスト側では、システム構成定義として、ホストに接続されるストレージ装置の記憶領域上のデバイスに対するアクセスのためのI/O(入出力)構成情報を持つ必要がある。従来、例えばメインフレーム系の接続において、ホストは、I/O構成情報として、ストレージ装置内のデバイスに対するアクセスの際に対象を一意に特定するために使用される制御情報であるデバイスアドレスを、ストレージ装置側の物理的構成と1:1で対応させて保持していた。すなわち、ストレージ装置で扱うすべてのデバイスアドレスをホスト側でも保持していた。ホストからストレージ装置のデバイスへのアクセスにおいて、ホストはデバイスアドレスを指定して要求(コマンド)を発行し、ストレージ装置は前記指定のデバイスアドレスによりデバイスに対応するHDD上の物理的記憶領域にアクセスしてデータのリード/ライト等の入出力処理を行う。なお、デバイスとは、ストレージ装置でHDD等により提供される記憶領域上に確保される物理的及び論理的な記憶ボリュームの単位を指している。
また、従来のストレージ装置及びコンピュータシステムで、ホストからストレージ装置のHDD上のデバイスに対してアクセス(ディスクアクセス)を行う他にも、システム内に接続される磁気テープ装置に対してデータのバックアップ等の目的でアクセス(テープアクセス)を行っていた。ストレージ装置のデバイスのデータを磁気テープ装置に対して入出力する場合に、磁気テープ装置のアドレスに対して磁気テープを適宜マウントして利用していた。磁気テープ装置にマウントされる磁気テープは例えばボリュームシリアル番号(VOLSER)等の識別情報で識別される。上記磁気テープのマウントにより、ホストやストレージ装置から磁気テープ装置のアドレスを指定することで、ストレージ装置内のデバイスのデータを磁気テープの領域に対し入出力可能であった。
前記ストレージ装置の大容量化などに伴い、ストレージ装置内で制御可能なあるいは必要となるデバイスアドレスは増大する傾向にある。また、ホストに接続可能なストレージ装置の数や、ホスト側での論理分割(ロジカルパーティション)数も増大すると考えられる。
上記傾向に伴い、前記従来構成である前記ホスト側とストレージ装置側での1対1での固定的な構成定義では、ホスト側で保持・管理する必要のあるデバイスアドレスの数も増大することになる。例えば、ストレージ装置内で扱うデバイスアドレス数が千単位・万単位に増大するなら、ホスト側でも同数のデバイスアドレスを管理する必要がある。上記ホスト側の保持するデバイスアドレス数が増大することで、その管理が難しくなり使用資源も多くなる問題がある。
また、前記ホスト側での構成定義の保持により、ストレージ装置内のデバイスに対してホスト側から常時アクセス可能な状態とすることができるが、ストレージ装置でディスクに格納される情報・データは、その内容によってはホスト側から常時アクセス可能な状態とする必要のないものもある。例えばストレージ装置内でホスト側から一時的にしかアクセスされないデバイスの場合などである。このようなタイプの情報・データが格納されているデバイスについての構成定義を、前記従来構成のようにホスト側でも固定的に保持しておく必然性はない。
本発明は以上のような問題に鑑みてなされたものであり、その目的は、ストレージ装置側で扱うデバイス及びデバイスアドレスの数が増大した場合でも、ホスト側でI/O構成情報として保持するデバイスアドレスをストレージ装置側にあわせて増やす必要無しに、ストレージ装置内の全デバイスへのアクセスを可能としつつ、システム構成定義情報の管理が簡単で使用資源も抑えることができる技術を提供することにある。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。前記目的を達成するために、本発明のストレージ装置は、HDD等の記憶装置と、記憶装置にデータを記憶する制御を行うコントローラとを有し、通信手段を介して接続されるホストコンピュータ等の外部装置からの要求(コマンド)に応じて、前記記憶装置上に設けられる論理デバイス(LDEV)等のデバイス(記憶ボリューム)にデータを入出力する制御を行うストレージ装置であって、以下の技術的手段を有することを特徴とする。
本発明のストレージ装置は、本装置とホスト等の外部装置とを含んで構成されるコンピュータシステム上で、ストレージ装置内に有するデバイス(実デバイスと称して区別する)に対するアクセスのためのI/O構成情報(デバイスアドレス)の利用・管理にあたって、従来の磁気テープをマウントして利用する概念を導入する。すなわち、従来のようにホストでのシステム構成定義をストレージ装置側の物理構成(デバイス構成)に合わせて1:1で固定的に対応させるのではなく、ホスト等の外部装置側ではストレージ装置側で扱う実デバイスとは別のデバイス(仮想デバイスと称して区別する)を仮想的に扱い、この仮想デバイスに対してストレージ装置側で扱う実デバイスをマウントして利用する手段(デバイスマウント手段と称する)を設ける。ホスト等の外部装置側は仮想デバイスに対応した仮想デバイスアドレスでストレージ装置側にアクセスし、ストレージ装置側は前記仮想デバイスにマウントされる実デバイスに対応した実デバイスアドレスで実デバイスにアクセスする。ホスト等の外部装置側は、デバイス利用形態に応じて、必要な数の仮想デバイスアドレスを設定して保持する。コントローラは、記憶装置のグループ上に設けられる論理デバイスに対してRAID制御を行い、実デバイスとしては特にこの論理デバイスが相当する。
前記デバイスマウント手段は、例えば、ホスト側から仮想デバイス−実デバイスのマウント/アンマウントのための要求(マウント要求/アンマウント要求)を発行し、ストレージ装置側で前記コマンドに応じた仮想デバイス−実デバイスのマウント/アンマウント処理を行う構成である。これにより、ホスト側では、システム構成定義として、ストレージ装置側で扱うデバイスアドレス数よりも少ない仮想デバイスアドレスをI/O(入出力)構成情報として保持すれば済み、なおかつ、仮想デバイスへの実デバイスのマウント/アンマウントを適宜行うことでストレージ装置内のすべての実デバイスへのアクセスも保証される。
前記デバイスマウント手段による仮想デバイス−実デバイスのマウント/アンマウントは、ストレージ装置のコントローラで仮想デバイスと実デバイスとを仮想デバイスアドレスと実デバイスアドレスとで対応付け(マッピング)することによりなされる。コントローラは、ホスト等からのマウント要求に応じて、マウント処理として、指定された仮想デバイスアドレスに対して実デバイスアドレスをマッピングし、そのマッピング情報をコントローラのメモリ上に保持する。ストレージ装置の動作中は、前記マッピング情報を参照可能に保持する。ホスト等から仮想デバイスアドレスを指定してアクセスを受けた場合には、コントローラは、前記マッピング情報を参照して指定の仮想デバイスアドレスから対応する実デバイスアドレスを取得し、取得した実デバイスアドレスで実デバイスすなわち記憶装置側の記憶領域へのアクセスを行う。またコントローラは、ホスト等からのアンマウント要求に応じて、アンマウント処理として、指定された仮想デバイスアドレスに対してマウント状態にある実デバイスアドレスのマッピングを無効化し、そのマッピング情報をコントローラのメモリ上に保持する。
前記デバイスマウント手段として、ホスト側の利用プログラム(ストレージ装置を利用するためのソフトウェア)は、前記仮想デバイスアドレスをI/O構成情報として設定・保持し、前記デバイスのマウントに係わる各種要求(コマンド)をストレージ装置側に発行する手段(コマンド発行プログラム)を備える。前記要求として、仮想デバイスに実デバイスをマウントさせるためのマウント要求や、仮想デバイスから実デバイスをアンマウントさせるためのアンマウント要求や、マウント状態の仮想デバイスに対するデータ入出力のための各種要求や、デバイスのマウントの状態に係わる情報(マウント情報)をホスト側で表示あるいは取得するための要求(マウント情報表示要求)などがある。
前記デバイスマウント手段として、ストレージ装置側のコントローラ、特にそのうち、通信手段を介してホスト等の外部装置との通信インタフェース処理を行うチャネルアダプタなどの処理部は、前記ホスト側からの各種要求に応じたデバイスのマウントに係わる処理を行い、コントローラの共有メモリなどのメモリ上に、前記マッピング情報などのデバイスのマウントに係わる制御情報を格納する。コントローラは、デバイスのマウントに係わる制御情報として、複数の仮想デバイスアドレスと実デバイスアドレスを対応付ける第1のテーブル(仮想−実デバイスアドレスマッピングテーブル)と、ストレージ装置の有する複数の実デバイスに対するアクセスのための実デバイスアドレスと、この実デバイスについてホスト等から付与される識別情報である実デバイス識別情報とを対応付ける第2のテーブル(実デバイスアドレス識別テーブル)とを含む情報を管理する。
また、コントローラは、前記ホスト等からのマウント要求に基づき行うマウント処理として、前記要求で指示された仮想デバイスアドレスと実デバイス識別情報をもとに前記第2のテーブルから検索した実デバイスアドレスを、前記第1のテーブルにおいて前記指定の仮想デバイスアドレスに対してマッピングする処理を行う。前記マウント要求には、例えば仮想デバイスアドレスと実デバイス識別情報の指定が含まれる。
また、コントローラは、ホスト等からのリード/ライト等のデータ入出力の要求に基づき、前記第1のテーブルにおいて、前記要求で指示された仮想デバイスアドレスに対応するマウント状態にある実デバイスアドレスを取得して、取得した実デバイスアドレスの実デバイスに対してデータ入出力処理を行う。
また、コントローラは、前記ホスト等からのアンマウント要求に基づき行うアンマウント処理として、前記第1のテーブルにおいて、前記要求で指示された仮想デバイスアドレスについての実デバイスアドレスの対応付けを無効化する処理を行う。前記アンマウント要求には、例えば仮想デバイスアドレスの指定が含まれる。
また、コントローラは、前記ホスト等からのマウント情報表示・取得の要求に基づき、前記第1、第2のテーブルなどからマウント情報を読み出して応答として送信する処理を行う。前記要求には、例えば表示対象(すべてあるいは一部など)の指定が含まれる。
コントローラは、例えば、チャネルアダプタと、記憶装置に対するデータ入出力の制御を行うディスクアダプタと、制御情報を保持する共有メモリと、転送データを格納するキャッシュメモリとを有して構成される。チャネルアダプタは、前記ホスト等からのデバイスのマウントに係わる要求(マウント要求等)を受信しこれに対応した処理を行う。チャネルアダプタからアクセス可能な共有メモリ上に前記第1、第2のテーブルを含む制御情報を構築・保持し、キャッシュメモリ上に前記仮想デバイスに対するリード/ライト等のためのデータを格納する。ディスクアダプタにより前記実デバイスに対して実デバイスアドレスでデータ入出力のアクセスを行う。
また例えば、ストレージ装置は、前記第1、第2のテーブルを、ストレージ装置電源オン時などの所定タイミングで記憶装置側のシステム領域などから読み出してコントローラのメモリ上へロードして構築し、またストレージ装置電源オフ時などの所定タイミングでコントローラのメモリ上から記憶装置側のシステム領域などへ格納(セーブ)して保存する。また、コントローラは、ホスト等からの要求に応じて、実デバイス識別情報を第2のテーブルに対して書き込むと共に、記憶装置側の領域(固定領域)に対しても書き込む処理を行ってもよい。前記コントローラのメモリ上への第1、第2のテーブルの構築時には、記憶装置側の領域から実デバイス識別情報を読み込んで反映する処理を行う。
また、ホストから実デバイスを利用する際の処理手順は、例えば以下のようになる。まず、ホスト側で、仮想デバイスに対して目的の実デバイスをマウントするためのマウント要求をストレージ装置に対して発行する。次に、ストレージ装置で、指定の仮想デバイスに対して実デバイスをマウントする処理を行う。次に、ホスト側から、マウント状態となった仮想デバイスに対するデータ入出力アクセスを行う。次に、ホスト側から、前記マウント状態の仮想デバイスから実デバイスをアンマウントするための要求を発行する。次に、ストレージ装置、指定の仮想デバイスに対して実デバイスをアンマウントする処理を行う。これら処理をセットで連続して行ってもよいし、個別に行ってもよい。
また、前記ホスト以外でも、例えばストレージ装置に接続される管理端末(SVP)から上記と同様にストレージ装置に対してデバイスのマウントに係わる処理の要求が行われ、ストレージ装置のコントローラで前記要求に対応して同様にデバイスのマウントに係わる処理を行う。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
本発明によれば、ストレージ装置側で扱うデバイス及びデバイスアドレスの数が増大した場合でも、ホスト側でI/O構成情報として保持するデバイスアドレスをストレージ装置側にあわせて増やす必要無しに、ストレージ装置内の全デバイスへのアクセスを可能としつつ、システム構成定義情報の管理が簡単で使用資源も抑えることができる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一符号を付し、その繰り返しの説明は省略する。
(実施の形態1)
図1〜図16は、本発明の実施の形態1におけるストレージ装置について説明するための図である。実施の形態1は、ホストとストレージ装置が接続されるコンピュータシステムにおいてデバイスマウント手段を備え、ホスト側では仮想デバイスを扱い、仮想デバイスに対してストレージ装置で扱う実デバイスを必要に応じてマウントしてアクセスするデバイスマウント方式の基本的な構成及び処理を示す形態である。ホスト側ではストレージ装置側よりも少ないI/O構成情報(仮想デバイスアドレス)を有する。なお、各実施の形態で示すデバイスマウントに係わる処理は、従来の磁気テープ装置における磁気テープのマウントとは独立した処理である。
<ハードウェア構成>
まず、実施の形態1のストレージ装置の全体構成について説明する。その後、本発明で特徴的な処理について説明する。図1は、実施の形態1のストレージ装置100のハードウェア外観構成を示す。特にストレージ装置100の正面から見た構成を示す。本ハードウェア構成は各実施の形態で共通であり、各実施の形態ではソフトウェア的な処理が異なる。
図1において、ストレージ装置100は、一形態として、主にコントローラ(ディスクアレイ制御装置)10を収容する制御筐体120と、主に複数のHDD30を収容するHDD筐体130とで構成される。1つの制御筐体120の両側にHDD筐体130が配置されている。
制御筐体120では、後述するコントローラ10を構成する複数のボード(回路基板)やその他電源や表示パネル等のユニットが図示しないバックボードを通じて接続されている。制御筐体120では、正面中央に、カバーで覆われたノート型PCの形態の管理端末(SVP)160が備えられている。カバーを開けることで管理端末160を使用できる。管理端末160の下部には、チャネルアダプタ(以下、CHAと称する)11を構成するボードなどを装着するための複数のスロットが設けられている。各スロットに1つのCHA11などのボードが着脱可能である。一形態として8枚のCHA11のボードが装着される。各スロットにはボードを抜き差しするためのガイドレールが設けられていて、ガイドレールに沿ってボードが抜き差しされる。各スロットの奥手方向にはボードをコントローラ10と電気的に接続するためのコネクタが設けられており、ボード側のコネクタ部分が接続されることで接続状態となる。保守員等により、必要に応じてボードの増設、減設、交換が可能である。コントローラ10を構成する他のディスクアダプタ14等も同様に制御筐体120に装着される。HDD筐体130では、HDD30をキャニスタ等の機構と一体化した構成のディスクユニットが、多数、多段にわたって着脱可能に接続される。
<コンピュータシステム構成>
図2は、ストレージ装置100を含むコンピュータシステム全体の構成を示す。コンピュータシステムは、ネットワーク300に、1つ以上のストレージ装置100、1つ以上のホストコンピュータ200、磁気テープ装置900などが接続される構成である。ネットワーク300は、メインフレーム系の通信プロトコルに対応したネットワークや、SAN(Storage Area Network)やLAN(Local Area Network)などのネットワーク、あるいはそれらが混在するネットワークである。
ストレージ装置100は、主にコントローラ10とこれに接続される複数のHDD30を備え、コントローラ10の一部を構成するCHA11によりネットワーク300に接続される。また、あるストレージ装置100の設置場所(プライマリサイト)とは遠隔した場所(セカンダリサイト)に他のストレージ装置100を設置して遠隔で通信可能である。ストレージ装置100間で、例えばデータ保全のためのリモートコピーやレプリケーション等の実行が可能である。
ホスト200は、ユーザが使用するコンピュータであり、例えばPCやワークステーションやメインフレームコンピュータである。ホスト200は、コマンド(要求)をストレージ装置100に送信することで、ストレージ装置100の提供する各種機能を利用する。ホスト200とストレージ装置100は、ネットワーク300を介して所定の通信プロトコルで通信接続される。ホスト200とストレージ装置100の通信は、ホスト200がメインフレーム系である場合の接続では、ESCON(Enterprise System CONnection)(登録商標)やFICON(FIbre CONnection)(登録商標)などの通信プロトコルに従って行われる。また、ホスト200がオープン系である場合の接続では、SANやLANなどに対応した通信プロトコルに従って行われる。以下、ホスト200は特にメインフレームコンピュータであり、ネットワーク300上でCHA11との間でメインフレーム系の通信プロトコルに従って通信するものとして説明する。この場合、ホスト200は、ストレージ装置100内のデバイスに対するアクセスにおいて、コントローラ10のCHA11に対して、HDD30側でのデータアクセス単位であるブロック単位でのデータアクセス要求を送信する。
コントローラ10は、CHA11によりホスト200から受信したコマンドに従ってデータ記憶に係わる各種制御を行う。例えばホスト200からのリードコマンドやライトコマンドを受信して、HDD30上のデバイスに対するデータ入出力処理(リード/ライト処理)を行う。またコントローラ10は、ホスト200との間で、ストレージ装置100を管理するための各種コマンドの授受も行う。またHDD30のグループに対してディスクアレイ(RAIDグループ)を設定してRAIDグループ上に論理デバイス(LDEV)を設定可能で、所定のRAID方式での制御が可能である。
複数のHDD30は、コントローラ10の各DKA14と、FC−AL等の形式の接続線で接続される。コントローラ10に接続される記憶装置としてはHDD30に限らず、フレキシブルディスク装置、半導体記憶装置など様々なものを用いることができる。DKA14とHDD30との間は、直接接続される形態にもできるし、ネットワークやスイッチを介して接続される形態にもできる。更にHDD30をコントローラ10と一体化構成にすることも可能である。
データは、1つ以上のHDD30により提供される記憶ボリューム、すなわちディスク上の物理的な記憶領域または物理的な記憶領域上に論理的に設定される記憶領域(論理デバイスや論理ユニット)に記憶される。HDD30上に設定される記憶ボリュームとしては、ホスト200からアクセス可能でユーザデータが格納されるユーザデータ領域や、CHA11による制御などのシステム制御のためにシステムデータ等の格納のために使用されるシステム領域等がある。また、CHA11などの制御単位ごとにアクセス可能な記憶ボリュームを割り当てることも可能である。また前記割り当てでは、複数のCHA11で1つの記憶ボリュームを共有する設定も可能である。
HDD30では、ディスク上の物理的な記憶領域のどの位置にデータを読み書きするかを識別する位置情報(物理アドレス)を持つ。例えばHDD30ではシリンダやトラックといった位置情報を指定することで、ランダムアクセスとしてディスク上の任意位置にデータを読み書き可能である。実デバイスへのデータ入出力の際は、DKA14等での処理により、実デバイスアドレスとディスクにおける物理アドレスとの変換がなされる。
<ホストコンピュータ>
図3は、ストレージ装置100に通信接続されるホスト200の機能ブロック構成を示す。ホスト200は、CPU201、メモリ202、ポート203、入力装置204、出力装置205、記憶装置206、記録媒体読取装置207などを備えたメインフレームコンピュータである。CPU201によりメモリ202上のプログラムが実行されることにより様々な機能が実現される。メモリ202上にアプリケーションプログラム20、利用プログラム21を有する。ポート203は、ネットワーク300に接続され、ストレージ装置100や他のホスト200や磁気テープ装置900等の外部装置との間で通信を行うための装置である。入力装置204は、ユーザによる操作のためのキーボードやマウスなどである。出力装置205は、情報を表示するためのディスプレイなどである。記憶装置206は、例えばHDDや半導体記憶装置等である。記録媒体読取装置207は、記録媒体に記録されているプログラムやデータを読み取る装置である。読み取られたプログラムやデータは、メモリ202や記憶装置206に格納される。記録媒体は、例えばフレキシブルディスクやCD−ROM等である。
アプリケーションプログラム20は、ストレージ装置100の提供する機能を利用したオンライン処理等を制御するためのプログラムである。ホスト200は、ストレージ装置100の実デバイスに記憶されているデータに適宜アクセスしながらアプリケーションプログラム20を実行することで各種の情報処理サービスを提供する。情報処理サービスは、例えば銀行の自動預金預け払いシステムなどである。
利用プログラム21は、ストレージ装置100の提供する各種機能を利用するためのプログラムであり、HDD30に対するデータ入出力のためのリード/ライトコマンド等の発行を行う機能を備える。また特にホスト200がストレージ装置100の保守・管理を行う役割の管理サーバである場合は、利用プログラム21は、管理端末160と同様に各種保守・管理のための機能を備える。
<コントローラ>
コントローラ10は、CHA(チャネルアダプタ)11、SM(共有メモリ)12、CM(キャッシュメモリ)13、DKA(ディスクアダプタ)14、及びこれら各部を接続するバスやスイッチなどの接続部を備える。各部はボードにより実装され、例えばスイッチ制御ボードなどにより相互に高速アクセス可能に接続される。また、各ボードを複数個用意して相互に接続することで、HDD30に対するデータパスを多重化した構成となる。本実施の形態では、各CHA11は、SM12及びCM13にバスで接続される。また各DKA14もSM12及びCM13にバスで接続される。また、図示したようなコントローラ10を更に二重化した形態なども可能である。多重化構成により、並列処理による性能向上や耐障害性が実現される。
各CHA11及びDKA14は、内部LAN162を通じて相互に通信可能に接続され、また管理端末160にも接続されている。これによりCHA11やDKA14に実行させるプログラムを管理端末160から送信してインストールすることが可能となっている。
SM12及びCM13は、CHA11、DKA14により共用されるメモリである。SM12は、主に制御情報やコマンド等を記憶するために利用され、CM13は、主にデータ(ユーザデータ)を記憶するために利用される。SM12は、CHA11とDKA14との間で授受されるコマンド等を一時的に保持する。CM13は、CHA11とDKA14との間で授受されるデータを一時的に保持する。
CHA11側とDKA14側とにおけるデータやコマンドの授受は、SM12、CM13及びスイッチ等を介して行われる。CHA11とDKA14の間での通信は例えば以下のようになる。あるCHA11があるホスト200から受信したコマンドがライトコマンドであった場合、当該CHA11は、ライトコマンドをSM12に書き込むと共に、ホスト200から受信したライトデータ(書き込み対象データ)をCM13に書き込む。一方、DKA14は、SM12を監視しており、SM12にライトコマンドが書き込まれたことを検出すると、当該ライトコマンドに従ってCM13からライトデータを読み出してHDD30に書き込む処理を行う。
また、あるCHA11があるホスト200から受信したコマンドがリードコマンドであった場合、当該CHA11は、リードコマンドをSM12に書き込むと共に、リードデータ(読み出し対象データ)がCM13上に存在するかどうか調べる。ここでCM13にリードデータが存在すれば、CHA11はそのリードデータをホスト200に送信する処理を行う。一方、リードデータがCM13に存在しない場合は、SM12を監視することによりリードコマンドがSM12に書き込まれたことを検出したDKA14が、HDD30からリードデータを読み出してこれをCM13に書き込むと共に、その旨をSM12に書き込む。そして、CHA11は、SM12を監視することでリードデータがCM13に書き込まれたことを検出すると、そのリードデータをホスト200に送信する処理を行う。
なお、このようにCHA11からDKA14に対するデータの書き込みや読み出しの指示を、SM12を介在させて間接に行う構成の他、例えばCHA11からDKA14に対して前記指示を、SM12を介さずに直接行う構成とすることもできる。また、SM12及びCM13がCHA11及びDKA14に対して独立に設けられた構成であるが、これに限らず、SM12やCM13がCHA11やDKA14の各々に分散されて設けられる形態も可能である。この場合、分散されたメモリを有する各処理部を相互に接続させる形態となる。
<管理端末>
管理端末(SVP)160は、ストレージ装置100の保守・管理を行うためのコンピュータであり、ストレージ装置100の保守・管理の処理のためのソフトウェアを備える。管理端末160は、ストレージ装置100に内蔵される形態や外付けされる形態が可能である。また管理端末160は、ストレージ装置100の保守・管理を専用に行うコンピュータの形態や、PCに保守・管理機能を持たせた形態などが可能である。また、管理端末160は、LANや電話回線等に接続可能であり、ストレージ装置100に対して遠隔で接続されるリモートコンソールの形態も可能である。また管理端末160は、LAN等を通じて外部の保守センタなどと接続される。保守員は、管理端末160を操作して各種保守・管理の業務を行う。管理端末160を操作することにより、例えばHDD30の物理ディスク構成や論理デバイスの設定、論理パスの設定、CHA11等において実行されるプログラムのインストール等を行うことができる。物理ディスク構成の設定としては、例えばHDD30の増減設、RAID構成の変更等を行うことができる。更に、ストレージ装置100の動作状態の確認や、故障部位の特定等の作業を行うこともできる。各種設定や制御は、管理端末160で動作するWebサーバが提供するWebページをユーザインタフェースとして行われる。
管理端末160は、PCの形態である場合、ホスト200のハードウェア構成と同様に、CPU、メモリ、ポート、入力装置、出力装置、記憶装置等を備える。CPUがメモリ上の制御プログラムを実行することで保守・管理のための各種機能を実現する。メモリには、制御プログラムや、保守・管理に係わる各種情報が記憶される。管理端末160のポートは内部LAN162に接続され、CHA11やDKA14等と通信可能である。またポートをLANや電話回線等に接続することも可能である。
<磁気テープ装置>
本実施の形態で示す磁気テープ装置900に係わる構成は従来技術である。磁気テープ装置900は、データのバックアップ等のために、命令に応じて磁気テープの領域にシーケンシャルアクセスでデータを入出力する処理を行う装置である。磁気テープ装置900では、必要に応じてデッキに磁気テープがマウントされる。磁気テープ装置900は、デッキにマウントされた状態の磁気テープに対し、磁気ヘッドの位置に基づいてシーケンシャルにデータを読み書きする動作を行う。磁気テープとしては、DATテープ、カセットテープ、オープンテープ、カートリッジテープなどのメディアがある。ホスト200やストレージ装置100に対してネットワーク300を介して磁気テープ装置900が通信可能に接続される。ホスト200やストレージ装置100に磁気テープ装置900を直接接続する構成も可能である。ネットワーク300を介してコントローラ10やホスト200との間で通信が行われることにより、磁気テープ装置900は、ストレージ装置100のHDD30に記憶されているデータのバックアップデータを磁気テープに記録する。ホスト200は、例えばアプリケーションプログラム(20)で使用するデータのバックアップや他のホスト200への移行などのためにデータをコピーする等の目的で、磁気テープ装置900へHDD30のデータを書き出す機能を備える。また、ホスト200は、例えば障害発生時に、磁気テープ装置900に保管してあるバックアップデータからHDD30へデータをリストアしたり、他のホスト200から移行されてくるデータをコピーしたりするために、磁気テープ装置900からデータを読み込む機能も備える。ホスト200やストレージ装置100は、磁気テープ装置900に対するデータ入出力要求(テープアクセス要求)を送信可能であり、この要求に従って磁気テープ装置900でのデータ入出力処理が行われる。磁気テープ装置のアドレス(識別情報)を指定してアクセスすることで、指定の磁気テープ装置900でマウント状態の磁気テープに対しデータが入出力される。
<デバイスマウント方式のための構成>
図4は、1つのホスト200と1つのストレージ装置100との接続構成と、本発明に特徴的なデバイスマウント方式を実現するために係わる構成要素とを示す機能ブロック図である。ホスト200は、アプリケーションプログラム20、利用プログラム21をインストールしている。またポート203を通じてネットワーク300に接続してストレージ装置100側のCHA11と通信可能である。
ホスト200側で、利用プログラム21は、コマンド発行プログラム22を含む。コマンド発行プログラム22は、ストレージ装置100に対してデバイスマウントに係わるコマンドの発行を含む各種コマンドを発行する処理を行うためのプログラムである。また、利用プログラム21は、I/O構成情報として仮想デバイスアドレス23を管理している。利用プログラム21で、仮想デバイスアドレス23の設定を含む構成定義ファイルを設定する。この構成定義は、従来実施されている構成定義と同様であるが、構成定義情報の概念が異なる。すなわち従来はストレージ装置側の物理構成とあわせて実デバイスアドレス31相当の情報を直接管理していたが、本実施の形態では実デバイスアドレス31は管理せず仮想デバイスアドレス23を管理する。
ストレージ装置100側で、コントローラ10の各CHA11には、コマンド処理プログラム15がインストールされている。コマンド処理プログラム15は、ホスト200側や管理端末160のコマンド発行プログラム22,161から発行されて受信したコマンドに対応した処理をCHA11で行うためのプログラムである。コマンドに対応した処理には、データ入出力のためのリード/ライト処理の他に、デバイスマウントに係わる処理がある。
コントローラ10のSM12内には、デバイスマウント方式に係わる制御情報として、仮想−実デバイスアドレスマッピングテーブル41と実デバイスアドレス識別テーブル42とを保持する。各テーブル41,42については後述する。
また、HDD30側では、HDD30上の実デバイスに対応して、実デバイスアドレス31が対応付けられている。実デバイスアドレス31は、ストレージ装置100内で使用される制御情報である。コントローラ10からHDD30側の実デバイスに対するアクセスの際は、実デバイスアドレス31を指定してアクセスがなされる。実デバイスアドレス31自体は、主にSM12上の制御情報(前記テーブル41,42)で管理される。各デバイスアドレス(23,31)は、コンピュータシステム内でホスト200やストレージ装置100によるデバイスへのハードウェア的なアクセスのために使用される制御情報である。例として、ホスト200側で、仮想デバイスアドレス23として、{0,1,2,……}を設定・保持している。ストレージ装置100側で、実デバイスアドレス31として、{a,b,c,……}を設定・保持している。
実デバイスに対しては、ホスト200により実デバイスの利用のために必要に応じて実デバイス識別情報32がソフトウェア的に付与される。実デバイス識別情報32は、例えばメインフレーム系で使用されるボリュームシリアル番号(VOLSER)などの情報である。ホスト200のアプリケーションプログラム20では実デバイス識別情報32を利用する。実デバイス識別情報32は、ホスト200のユーザが実デバイスに対して利用のための名前や番号等を適宜付与して使用する。VOLSERとして例えば6文字以内の記号がユーザにより自由に付与される。
また、管理端末160に、ホスト200と同様に、メモリ上に同様の機能を有するコマンド発行プログラム161を備えて、コントローラ10のCHA11に対して内部LAN162を通じてデバイスマウント方式に係わるコマンドの発行を行う形態とすることが可能である。ホスト200と管理端末160の一方または双方でデバイスマウントに係わるコマンドの発行を行う形態が可能である。管理端末160側から前記コマンドの発行を行う形態の場合、ホスト200側は構成要素の追加なしで本デバイスマウント方式を実現可能である。
<実デバイス>
図5は、ストレージ装置100で制御する実デバイスの例を示す説明図である。ストレージ装置100側では、実デバイスとして例えば論理デバイス(LDEV)を扱う。コントローラ10は、実デバイスとしてLDEVを割り当てて実デバイスアドレス31を設定する。LDEVは、複数のHDD30からなるRAIDグループ上に設定される記憶ボリュームであり、コントローラ10によりLDEV単位でRAID制御、例えばRAID5等の方式での制御が行われる。例として、コントローラ10により、4台のHDD30{#0〜#3}で1つのRAIDグループが設定される。そして、このRAIDグループ上に、4台のHDD30に跨るLDEVが複数設定される。LDEVにおいて、例えばHDD#0〜HDD#2にストライピングされたデータが格納され、HDD#3にそのパリティが格納される。図中、1つのLDEVである実デバイスAは、実デバイスアドレスが「a」で、実デバイス識別情報が“DevA”である。別のLDEVである実デバイスBは、実デバイスアドレスが「b」で、実デバイス識別情報が“DevB”である。また、デバイスは、ホスト200がオープン系の場合は論理ユニット(LU)などである。LUは、ホスト200側からみた論理的な記憶ボリュームであり、ストレージ装置100側で物理的な記憶ボリュームに変換される。
一方、仮想デバイスは、ホスト200内で仮想的に扱うデバイスである。デバイスマウントにより、仮想デバイスに実デバイスが対応付けされるものである。この対応付けは、仮想デバイスアドレス23と実デバイスアドレス31とのマッピングによる。マッピング情報は、前記テーブル41により管理される。前記図4に示すように、例えば仮想デバイスアドレス「0」に対して実デバイスアドレス「a」がマッピングされる。これにより、ホスト200側から仮想デバイスアドレス「0」を指定してアクセスすることで、ストレージ装置100側で実デバイスアドレス「a」の実デバイスAにアクセスされる。
<チャネルアダプタ>
CHA11は、一体的にユニット化されたボード上に形成されたハードウェア及びこのハードウェアにより実行されるソフトウェアにより実現される。CHA11は、ホスト200等の外部装置からの要求を個々に受け付ける。CHA11には、個々に識別情報(アドレス)が割り当てられ、外部装置から識別情報を指定してアクセスすることで対応するCHA11で処理が可能である。
CHA11は、ホスト200側のポート203との間で、物理リンク及び物理リンク上の論理パスによって接続される。また他のCHA11で、異なる物理リンク及び論理パスにより、他のストレージ装置100や磁気テープ装置900等に通信接続可能である。CHA11は、ホスト200から前記ブロックアクセス要求を受け付ける。また別のCHA11では、SANを介してファイバチャネルプロトコルに従ったブロックアクセス要求を受け付ける。また別のCHA11では、ホスト200からのファイルアクセス要求を受け付ける。CHA11は、アクセス要求を受けると、DKA14に対するデータ入出力要求に変換して出力する。またライト処理の場合には要求にライトデータが含まれるようにすることができる。コントローラ10でCHA11として各通信プロトコルに対応したものを混在させて接続させることにより、異種ネットワークに接続されるストレージ装置を実現できる。
図6は、コントローラ10におけるCHA11のボードのハードウェア構成を示す。CHA11のボードは、CPU111、メモリ112、ネットワークインタフェース部113、入出力制御部114、ボード接続コネクタ117、通信コネクタ118などを有する。なおDKA14もCHA11と同様のハードウェア構成である。CPU111は、メモリ112を使用して制御プログラムを実行して、CHA11全体の制御を行う。CHA11で実行されるプログラムには、コマンド処理プログラム15が含まれる。コマンド処理プログラム15は、例えばメモリ112に格納されCPU111により実行される。あるいはNVRAM116に格納され、I/Oプロセッサ115により実行される。ネットワークインタフェース部113は、ネットワーク300に接続され、通信プロトコルに従って外部装置との間でインタフェース動作を行う。入出力制御部114は、I/Oプロセッサ115、NVRAM(不揮発性メモリ)116を有し、SM12やCM13やDKA14や管理端末160との間でデータやコマンドを入出力する制御を行う。I/Oプロセッサ115は、例えば1チップマイコンで構成され、上記データやコマンドの授受を制御してCPU111とDKA14との通信を中継する。NVRAM116は、I/Oプロセッサ115の制御を司るプログラムを格納する。NVRAM116に記憶されるプログラムの内容は、管理端末160等から書き換えが可能である。ボード接続コネクタ117は、ストレージ装置100のバックボードに設けられたコネクタに接続される。通信コネクタ118には、ネットワーク300に接続するための通信ケーブルが接続される。
<ディスクアダプタ>
DKA14は、HDD30に対する制御を行う。例えば前記CHA11がホスト200から受信したライトコマンドに従ってHDD30上の記憶領域へライトデータの書き込みを行う。また、CHA11により送信された論理アドレス指定によるデータアクセス要求を、物理アドレス指定による物理ディスクへのデータアクセス要求に変換する処理などを行う。またDKA14は、RAIDグループに対するRAID制御を行う場合には、RAID方式に従って並列アクセス等の制御を行う。またDKA14は、HDD30に記憶されたデータのバックアップに関する制御や、プライマリサイトのストレージ装置100のデータについての複製をセカンダリサイトのストレージ装置100に転送する制御等も可能である。
なお、DKA14でCHA11と同様にコマンド処理プログラム15相当を備えてデバイスマウントに係わる処理を行う形態にすることも可能である。
<デバイスマウント方式>
図7は、デバイスマウント方式についての概要とデバイスマウント例を示す説明図である。ホスト200側で、ストレージ装置100側で管理している実デバイスアドレス31の数よりも少ない数の仮想デバイスアドレス23を保持する。簡単な例として、ホスト200側で16個の仮想デバイスアドレス23を保持し、ストレージ装置100側で256個の実デバイスアドレス31を保持する場合を示す。ホスト200側で保持する仮想デバイスアドレス23の数は、利用形態等に応じてホスト200のユーザが任意に設定可能である。また、ホスト200は、複数の仮想デバイスアドレス23についての同時使用(各仮想デバイスへの平行アクセス)が可能である。
ストレージ装置100側で、仮想−実デバイスアドレスマッピングテーブル41により、仮想デバイスアドレス「0」と実デバイスアドレス「c」、仮想デバイスアドレス「1」と実デバイスアドレス「h」がそれぞれマッピングされている。実デバイスアドレス識別テーブル42により、実デバイスアドレス「c」と実デバイス識別情報“DevC”、実デバイスアドレス「h」と実デバイス識別情報“DevH”がそれぞれ関連付けされている。テーブル41,42における設定例を図8,9に示す。各実デバイスアドレス31で特定される実デバイス(前記LDEV)として実デバイスCと実デバイスHを示す。
図8は、仮想−実デバイスアドレスマッピングテーブル41の例を示す。仮想−実デバイスアドレスマッピングテーブル41では、仮想デバイスアドレス23と実デバイスアドレス31とのマッピング情報が管理される。例えば、仮想デバイスアドレス{#0〜#n}に対してそれぞれマッピングされる実デバイスアドレス{#c,#h,……}が格納されている。仮想デバイスアドレス#0,#1については実デバイスをマウント済みの状態(マウント状態)であり、その他の仮想デバイスアドレス{#2〜}では実デバイスを未マウントあるいはアンマウントした状態(非マウント状態)である。
図9は、実デバイスアドレス識別テーブル42の例を示す。実デバイスアドレス識別テーブル42は、実デバイスアドレス31に関連付けされる実デバイス識別情報32や後述する世代情報などの情報が管理される。例えば、実デバイスアドレス{#a,#b,#c,……}に対して実デバイス識別情報{“DevA”,“DevB”,“DevC”,……}がホスト200により付与されている。
前記図7で、ホスト200側からストレージ装置100にコマンドを発行してストレージ装置100側でデバイスマウント(仮想デバイスへの実デバイスのマウント)を行うことにより、ホスト200から実デバイスへのアクセスが可能な状態となる。ホスト200からストレージ装置100に対するアクセスは、仮想デバイスアドレス23を指定したアクセス(仮想デバイスアクセス)である。また、ストレージ装置100内では、実デバイスアドレス31を指定したアクセス(実デバイスアクセス)である。ホスト200からストレージ装置100内の実デバイスに対する仮想デバイスアクセスは、ポート203とCHA11間の物理リンク上に設定される論理パスを通じて行われる。なお、ホスト200側では、I/O構成情報として、仮想デバイスアドレス23以外の情報の保持は特に必要ではない。例えば、ホスト200上のアプリケーションプログラム20で、利用対象の実デバイスについての実デバイス識別情報32を認識していれば、この実デバイス識別情報32と、I/O構成情報として保持している仮想デバイスアドレス23とを用いて実デバイスへアクセス可能である。勿論、ホスト200側でI/O構成情報として仮想デバイスアドレス23以外の情報を保持するようにしてもよい。
ホスト200から実デバイスを利用する際の標準的な処理手順は、例えば以下のようになる。(1)まず、ホスト200側で、デバイスマウントに関する状態を表わす情報を表示して確認する。(2)ホスト200側で、仮想デバイスに対して実デバイスをマウントするための要求をストレージ装置に対して発行する。(3)ストレージ装置で、指定の仮想デバイスに対して実デバイスをマウントする処理を行う。(4)ホスト200側から、マウント状態となった仮想デバイスに対するデータ入出力アクセスを行う。(5)ホスト200側から、前記マウント状態の仮想デバイスから利用済みの実デバイスをアンマウントするための要求を発行する。(6)ストレージ装置100で、指定の仮想デバイスに対して実デバイスをアンマウントする処理を行う。上記手順は一部省略も可能である。マウント情報の確認は必要時に行えばよい。マウント状態の実デバイスを連続して利用する場合は、マウント状態のまま連続してデータ入出力アクセスを行えばよい。ある仮想デバイスで別の実デバイスを利用することに切り替える場合には、マウント済みの実デバイスをアンマウントして別の実デバイスをマウントする。
実デバイスアドレス識別テーブル42の実デバイス識別情報32は、以下の場合などに構築・書き込みされる。(1):ホスト200からストレージ装置100に対して実デバイス識別情報32の書き込みのための処理を行う。例えば、ホスト200からストレージ装置100に対し、実デバイスアドレス31及び実デバイス識別情報32を指定して前記書き込みのための要求を発行する。そして、ストレージ装置100のCHA11で、前記要求に対応して、SM12上の実デバイスアドレス識別テーブル42に対して、指定の実デバイスアドレス31に対応した実デバイス識別情報32を書き込む処理を行う。あるいは、CHA11は、前記要求に対応して、前記指定の実デバイスアドレス31に対応した実デバイス識別情報32を、前記テーブル42に書き込むと共に、DKA14を介してHDD30上の固定領域に対しても書き込む処理を行う。前記実デバイス識別情報32をHDD30側に書き込む場合には、SM12側にのみに書き込む場合と比べてディスクアクセスである分負荷が多くなる代わりにSM12側が揮発した際にHDD30側の書き込み情報を利用して実デバイス識別情報32を再構築できる。またあるいは、ホスト200からストレージ装置100に対して前記実デバイス識別情報32の書き込みの目的で仮想デバイスアドレス23、実デバイスアドレス31、及び実デバイス識別情報32を指定したマウント要求を行い、CHA11で前記マウント要求に応じてテーブル41に前記指定の仮想デバイスアドレス23へ実デバイスアドレス31をマッピングすると共に、テーブル42に前記指定の実デバイス識別情報32を対応して書き込むようにしてもよい。(2):ストレージ装置100側での電源投入時などにおけるSM12上のテーブル41,42の構築時に、コントローラ10がHDD30上から実デバイス識別情報32を読み込んでテーブル42に反映する。
<ホストコンピュータでの処理>
ホスト200側のコマンド発行プログラム22で、ユーザによる操作に基づき、ストレージ装置100の実デバイスに対するデータ入出力に係わるコマンド(要求)を発行する処理を行う。コマンド発行プログラム22の処理により発行されるコマンドは、ポート203を通じてネットワーク300上へ送出され、コントローラ10のCHA11で受信される。CHA11は、受信したコマンドに対応した処理をコマンド処理プログラム15により行う。マウント要求、アンマウント要求、マウント情報表示は、管理端末160側からも同様に実行可能である。
コマンド発行プログラム22により、マウント要求、アンマウント要求、マウント情報表示要求、及びデバイスのデータ入出力のための各種要求などを行うための各コマンドを発行する各処理(マウント要求コマンド発行処理、アンマウント要求コマンド発行処理、マウント情報表示コマンド発行処理、データ入出力のための各種コマンド発行処理)を行う。
マウント要求コマンド発行処理は、指定の仮想デバイスへ実デバイスをマウントする処理(マウント処理)をストレージ装置100に行わせるための要求(マウント要求コマンド)を発行する処理である。本処理で、ホスト200側でI/O構成情報として管理している個々の仮想デバイスアドレス23に対してストレージ装置100側のどの実デバイスアドレス31をマッピングするかを指示する。マウント要求コマンドでは、仮想デバイスアドレス23と、実デバイス識別情報32とを指定する。
アンマウント要求コマンド発行処理は、指定の仮想デバイスから実デバイスをアンマウントする処理(アンマウント処理)をストレージ装置100に行わせるための要求(アンマウント要求コマンド)を発行する処理である。本処理で、仮想デバイス−実デバイスのマウント状態を無効化する指示、すなわち仮想−実デバイスアドレスのマッピング情報を無効化する指示を行う。
マウント情報表示コマンド発行処理は、仮想デバイスと実デバイスのマウントの状態に係わる情報(マウント情報)をホスト200側に表示させる処理(マウント情報表示処理)をストレージ装置100に行わせるための要求(マウント情報表示コマンド)を発行する処理である。本処理で、コントローラ10のSM12上のテーブル(41,42)からマウント情報を読み出してホスト200側に送信させる。そして、ホスト200側で、受信したマウント情報を出力装置205に所定の形式で表示する。これにより、ホスト200のユーザに対して仮想デバイスアドレス23、実デバイスアドレス31、実デバイスアドレス識別情報32などの関連が提示される。前記マウント情報は、主にテーブル41から読み出される一部あるいはすべての仮想−実デバイスアドレスマッピング情報である。またマウント情報の表示以外でも、ホスト200側でマウント情報を取得したい場合に本処理で取得する。マウント情報をホスト側で常に保持する必要はなく、必要な場合に本処理によりマウント情報を取得すればよい。
データ入出力のための各種コマンド発行処理は、実デバイスに対するデータのリード/ライト等を行うためのコマンドを発行する処理である。これは従来実施されている処理と同様であるが、定義情報の概念が異なる。すなわちホスト200側から仮想デバイスアドレス23を指定でコマンドを発行する。
<チャネルアダプタでの処理>
CHA11では、コマンド処理プログラム15で、ホスト200や管理端末160等から受信した各種コマンドに対応したコマンド処理を行う。コマンド処理プログラム15は、前記各コマンドに対応して、マウント要求コマンド処理、アンマウント要求コマンド処理、マウント情報表示コマンド処理、データ入出力のためのコマンド処理等を行う。
マウント要求コマンド処理では、前記マウント要求コマンドに対応して、マウント要求コマンドが発行された仮想デバイスと、同マウント要求コマンドで指示された実デバイス識別情報32とから該当する実デバイスをサーチして、仮想デバイスアドレス23−実デバイスアドレス31のマッピングを行い、そのマッピング情報をSM12の仮想−実デバイスアドレスマッピングテーブル41の該当位置に格納する。
アンマウント要求コマンド処理では、前記アンマウント要求コマンドに対応して、アンマウント要求コマンドが発行された仮想デバイス(あるいは実デバイス)について、SM12の仮想−実デバイスアドレスマッピングテーブル41で、設定済みの該当の仮想−実デバイスアドレスマッピング情報を無効化する。
マウント情報表示コマンド処理では、SM12のテーブル41,42で管理・保持している情報の一部あるいはすべてをマウント情報として読み出してホスト200側に送信する。ホスト200側では、ストレージ装置100側から送信されたマウント情報を所定形式で表示する。
データ入出力のための各種コマンド処理では、仮想デバイスアドレス23を指定で発行されたリード/ライトコマンド等の各種コマンドについて、SM12の仮想−実デバイスアドレスマッピングテーブル41の該当のマッピング情報により、仮想デバイスアドレス23から実デバイスアドレス31を取得して、取得した実デバイスアドレス31でHDD30側の実デバイスに対する処理を行う。
<全体のフロー>
図10は、ストレージ装置100の電源オンから処理終了までにおける、デバイスマウント方式に係わる全体の処理フロー図である。各テーブル41,42は、ストレージ装置100の動作中は、SM12上に保持される。SM12の揮発及びテーブル41,42のデータのロストに備えるために、ストレージ装置100は、適当なタイミングで、SM12上のテーブル41,42の情報をHDD30上のシステム領域等の空き領域または管理端末160側の記憶領域などに退避(セーブ)しておく処理を行う。揮発後のストレージ装置100の電源投入時などに、前記退避しておいたテーブル41,42の情報を読み出してSM12上に再構築する処理を行う。
図10で、まず、ストレージ装置100の電源オンがなされると(S101)、起動モードにおいて、コントローラ10は、HDD30のシステム領域からテーブル41,42の情報を読み出してSM12上へロードし、テーブル41,42を再構築する(S102)。また、コントローラ10は、読み出した実デバイスアドレス識別テーブル42内の実デバイス識別情報32が不確定の場合は、HDD30上の固定位置に格納されている実デバイス識別情報32を読み出して前記テーブル42に反映する(S103)。
ストレージ装置100は、前記テーブル41,42の構築後、ホスト200側からのコマンドを受け付ける状態(通常モード)へ移行する。CHA11でホスト200等の外部装置からのコマンドを受領する(S104)。CHA11は、受領コマンドに応じたコマンド処理をコマンド処理プログラム15により実行する(S105)。1つのコマンド処理が終了したら他に受領コマンドがあるかどうか確認し、受領コマンドがある場合は同様に対応したコマンド処理を繰り返す(S106)。
処理終了後、コントローラ10は、SM12のテーブル41,42の情報をHDD30のシステム領域に退避する必要があるか判断し(S107)、必要に応じてSM12のテーブル41,42の情報をHDD30のシステム領域に退避する処理を行う(S108)。前記テーブル41,42の情報の退避は、例えば、装置電源オフによりスタンバイモードへ移行する際や、テーブル41,42の情報にマウント処理等による更新が発生した場合や、一定期間経過などのタイミングで行う。
次に、デバイスマウント方式における各コマンドに対応した処理について説明する。図11は、マウント要求コマンドに対応したマウント処理についての説明図であり、図12は、その処理フロー図である。図13は、アンマウント要求コマンドに対応したアンマウント処理についての説明図であり、図14は、その処理フロー図である。図15は、マウント情報表示コマンドに対応したマウント情報表示処理についての説明図であり、図16は、そのフロー図である。なおマウント状態のデバイスに対するリード/ライト処理は、仮想−実デバイスアドレス間の対応付け(アドレス取得)以外は従来動作と同様である。
<マウント処理>
図11及び図12において、マウント処理に関して、まず、ホスト200または管理端末160からマウント要求コマンドが発行される。本コマンドには仮想デバイスアドレス23と実デバイス識別情報32の指定が含まれる。例えば、仮想デバイスアドレス「0」に対して、実デバイス識別情報が“DevC”となる実デバイスをマウントさせるための要求である。
ストレージ装置100は、前記コマンドを受領すると、CHA11のコマンド処理プログラム15により、図12に示すマウント処理を行う。CHA11では、受信コマンドの内容と、SM12のテーブル41,42等を参照して、マウント可能かどうかを判断する。CHA11は、ホスト200側から指定された仮想デバイスアドレス23について、仮想−実デバイスアドレスマッピングテーブル41中の仮想デバイスアドレス23をサーチして、該当のマッピング情報を参照する(S201)。そして、このマッピング情報において、指定の仮想デバイスアドレス23について非マウント状態かどうかを確認する(S202)。指定の仮想デバイスアドレス23に対して既に実デバイスアドレス31がマッピングされている場合は(S202−No)、ホスト200側へ、指定の仮想デバイスに対して既に実デバイスがマウント状態であることを示すエラー情報を送信する応答処理を行う(S203)。指定の仮想デバイスアドレスに対して非マウント状態である場合(S202−Yes)、実デバイスのマウントを行うことが可能である。
また、CHA11は、ホスト100側から前記実デバイス識別情報32の書き込みのための実デバイスアドレス23の直接指定が有る場合は(S204−Yes)、実デバイスアドレス識別テーブル42に、指定の実デバイスアドレス31に対応する位置に指定の実デバイス識別情報32を書き込む処理を行う(S205)。
CHA11は、マウント要求指示のあった実デバイス識別情報32によって実デバイスアドレス識別テーブル42中の実デバイス識別情報32をサーチし、指定の実デバイス識別情報32に対応する実デバイスアドレス31を求める(S206)。そして、仮想−実デバイスアドレスマッピングテーブル41で、マウント要求指示が発行された仮想デバイスアドレス23に対応する位置に、前記求めた実デバイスアドレス31を格納する(S207)。これによりアドレスマッピングがなされ、すなわち指定の仮想デバイスに対し実デバイスがマウントされたマウント状態となる。CHA11は、ホスト200側に、デバイスマウントが正常に完了したことを示す情報を送信する応答処理を行う(S208)。例えば、図11で、ストレージ装置100側で、指定の実デバイス識別情報“DevC”によって実デバイスアドレス「c」が求められ、これが仮想デバイスアドレス「0」とマッピングされる。
上記マウント処理の完了後、ホスト200は、マウント状態である仮想デバイスに対するデータ入出力のための要求を行う。例えば、ホスト200は、前記仮想デバイスアドレス「0」の仮想デバイスに対してデータをライトするためのライトコマンド及びライトデータを送信する。これは仮想デバイスアドレス23を指定した仮想デバイスアクセスである。ストレージ装置100では、前記要求に応じて、SM12のテーブル41の参照により、指定の仮想デバイスアドレス「0」に対応する実デバイスアドレス「c」を取得する。そして、取得した実デバイスアドレス「c」により、HDD30側の実デバイスCに対するデータ入出力のための実デバイスアクセスを行う。CHA11は、SM12にその入出力コマンドを格納し、またCM13にライトデータを格納する。DKA14が、SM12から前記入出力コマンドを読み出して、またCM13から前記ライトデータを読み出して、実デバイスCに対するデータ入出力を行う。そして前記データ入出力の応答をDKA14からCHA11側へ行い、CHA11からホスト200側へコマンドに対する応答を行う。
<アンマウント処理>
図13及び図14において、アンマウント処理に関して、まず、ホスト200または管理端末160からアンマウント要求コマンドが発行される。本コマンドには仮想デバイスアドレス23の指定が含まれる。例えば、仮想デバイスアドレス「0」の仮想デバイスに対してマウント状態である実デバイスをアンマウントさせるための要求である。
ストレージ装置100は、前記コマンドを受領すると、CHA11のコマンド処理プログラム15により、図14に示すアンマウント処理を行う。CHA11では、受信コマンドの内容と、SM12のテーブル41,42等を参照して、アンマウント可能かどうかを判断する。CHA11は、ホスト200側から指定された仮想デバイスアドレス23について、仮想−実デバイスアドレスマッピングテーブル41中の仮想デバイスアドレス23をサーチして、該当のマッピング情報を参照する(S301)。そして、このマッピング情報において、指定の仮想デバイスアドレス23についてマウント状態かどうかを確認する(S302)。指定の仮想デバイスアドレス23に対して実デバイスアドレス31がマッピングされていない場合は(S302−No)、ホスト200側へ、指定の仮想デバイスに対して実デバイスが非マウント状態であることを示すエラー情報を送信する応答処理を行う(S303)。指定の仮想デバイスアドレスに対してマウント状態である場合(S302−Yes)、実デバイスのアンマウントを行うことが可能である。
CHA11は、仮想−実デバイスアドレスマッピングテーブル41の該当のマッピング情報において、アンマウント要求指示が発行された仮想デバイスアドレス23に対応する実デバイスアドレス31のマッピングを無効化する(S304)。前記マッピングの無効化は、テーブル41に書き込まれている実デバイスアドレス31の値のリセットなどである。これにより指定の仮想デバイスから実デバイスがアンマウントされた非マウント状態となる。CHA11は、ホスト200側に、デバイスのアンマウントが正常に完了したことを示す情報を送信する応答処理を行う(S305)。例えば、図13で、ストレージ装置100側で、指定の仮想デバイスアドレス「0」に対する実デバイスアドレス「c」のマッピングが無効化され、実デバイスCがアンマウントされる。
<マウント情報表示処理>
図15及び図16において、マウント情報表示処理に関して、まず、ホスト200または管理端末160からマウント情報表示コマンドが発行される。このコマンドで、マウント情報としての表示(取得)の対象を指定可能とする。例えば、表示対象として、ホスト200側で扱うすべての仮想デバイスアドレス23や、指定範囲の仮想デバイスアドレス23についてのマウント情報を要求する指示を行う。また例えば、表示対象として、マウント状態あるいは非マウント状態にあるすべての仮想デバイスアドレス23についてのマウント情報を要求する。また例えば、特定の仮想デバイスアドレス23や実デバイス識別情報32についてのマウント情報を要求する。図中では、表示対象を、マウント状態にあるすべての仮想デバイスについてのマウント情報とした場合を示す。
ストレージ装置100は、前記コマンドを受領すると、CHA11のコマンド処理プログラム15により、図16に示すマウント情報表示処理を行う。CHA11では、受信コマンドの内容を参照してマウント情報としての表示対象を確認する(S401)。そして、SM12上のテーブル41,42から、表示対象となるマウント情報を読み出す(S402)。表示対象がすべてである場合はテーブル41,42のすべての情報をそのまま読み出す。表示対象が一部である場合は、指定の情報によりテーブル41,42から情報をサーチして読み出す。そして、CHA11は、読み出したマウント情報をホスト200側に送信して表示させる応答処理を行う(S403)。なお指定の表示対象に該当するマウント情報が存在しない場合はその旨のエラー情報を送信する。例えば、図15で、ストレージ装置100側で、マウント状態にある2つの実デバイスC,Hに対応して、マウント情報として、{0,c,“DevC”}と{1,h,“DevH”}が読み出される。
<セキュリティとプロテクション>
仮想デバイスについてのセキュリティとプロテクションは、実デバイスアドレス31に対応する実デバイス(前記LDEV)に対して設定されたLDEVセキュリティ機能とLDEVガード機能により実現される。デバイスマウント時、すなわち仮想デバイスアドレス23に実デバイスアドレス31がマッピングされた時に上記機能によるデバイス属性が引き継がれる。これにより、仮想デバイスに対するセキュリティとプロテクションが実デバイスと同様に満たされる。前記LDEVセキュリティ機能は、従来技術であり、ホスト200及びホスト200を使用するユーザごとの、LDEVに対するアクセス権限を設定する機能である。当該機能によりホスト200及びユーザごとに対象の実デバイスのデータに対するアクセスの許可や制限が行われる。前記LDEVガード機能は、従来技術であり、ストレージ装置100側でのLDEVに対するアクセス権限(リードのみ許可、リード/ライト許可など)を設定する機能である。
以上、1つのホスト200と1つのストレージ装置100の接続におけるデバイスマウントについて説明してきたが、複数のホスト200や複数のストレージ装置100の間でのデバイスマウントについても同様に可能である。すなわち、ストレージ装置100は、複数のホスト200からのアクセスに対応して、各ホスト200におけるマッピング情報等を管理する。ホスト200は、複数のストレージ装置100へのアクセスに対応して、各ストレージ装置100に対する仮想デバイスアドレス23を管理する。
以上説明したように、本実施の形態では、ホスト200が必要に応じてアクセスの必要のある実デバイスを仮想デバイスに対してマウントしてデータアクセスを行う方式を採用しているので、ホスト200側ではストレージ装置100側よりも少ない数のI/O構成情報(仮想デバイスアドレス)を持てば済み、また適宜マウントを行うことによりすべての実デバイスにアクセスが可能である。従来構成では、ストレージ装置側で例えば256個のデバイスの制御を行う場合に、それに1:1で対応してホスト側で256個のデバイスアドレスを保持していたが、本実施の形態の場合では、ストレージ装置100側に256個あるいは更に千単位、万単位で多数の実デバイスに増加する場合でも、ホスト200側で対応した数のデバイスアドレスを保持する必要はない。またホスト200側から常時アクセス可能な状態とする必要がない実デバイスについてのI/O構成情報をホスト200側で保持する必要もない。従って、ホスト200側でのI/O構成情報の管理が複雑にならずに済み、使用資源を節約できる。
(実施の形態2)
<世代管理>
次に、本発明の実施の形態2のストレージ装置では、実施の形態1の構成に加え、対象となる仮想デバイスについての世代管理を行う。ハードウェア構成は実施の形態1と同様である。図17は、実施の形態2のストレージ装置でのデバイスマウント方式についての説明図である。世代管理として、同一の仮想デバイスについての時間的な経過によるデータ状態の変化を各世代の実デバイスのデータとしてストレージ装置100側で保存・管理する処理を行い、ホスト200側から同一の仮想デバイスアドレス23のアクセスで異なる各世代のデータを利用可能にする。世代保存の契機は、定期的なタイミングや、データ更新等の条件設定されたタイミングや、ホスト200等から指定されたタイミングなどである。
本世代管理では、前記図9の実デバイスアドレス識別テーブル42に示すように、実デバイスアドレス31ごとに、前記実デバイス識別情報32に加え、世代情報33を持たせ、これに対応して実デバイスについての各世代を管理する。世代情報33は、世代番号やTOD(本日の時刻)情報などである。ストレージ装置100で、テーブル42において、同一の仮想デバイスアドレス23に対して、世代保存単位で世代情報33を付与する。各世代の実デバイスをHDD30側の記憶領域に保存して管理する。これにより、コントローラ10で、特定の世代の実デバイスを、実デバイスアドレス31と世代情報33の組によりアクセス可能である。ホスト200側からは、世代情報33を指定して仮想デバイスアクセスを行うことで、指定の世代の実デバイスへのアクセスが可能である。
図18は、図17に対応した世代管理を行う場合のSM12上のテーブル41,42の設定例である。デバイスマウントにより、SM12上のテーブル41,42において、仮想デバイスアドレス「0」に対して実デバイスアドレス「a」がマッピングされており、実デバイス識別情報“DevA”がホスト200により付与されている。そしてテーブル42で、実デバイスアドレス「a」について、世代保存単位で異なる世代番号{0,1,2,……,g}を付与して管理している。
図17で、例えば、世代保存の契機となるデータ更新や時刻などに対応した各世代の世代番号を{0,1,……,g}、時間(TOD情報)を{t0,t1,……,tg}としたとき、第g世代の実デバイスAgが、実デバイスアドレス「a」と、世代情報「g」または「tg」との組の情報の指定により特定される。ホスト200側からは、仮想デバイスアドレス「0」と前記世代情報「g」または「tg」との組の情報「ag」で、特定の世代の実デバイスAgへアクセス可能である。
また本世代管理を行う場合でも、実施の形態1と同様にコントローラ10でマウント要求コマンド処理等のコマンド処理を行うことで、ホスト200側から、指定の世代の実デバイスを特定の仮想デバイスにマウントして利用すること等が可能である。この場合、ホスト200からのコマンドの発行に基づくマウント処理等の際、CHA11は、マウント要求指示のあった実デバイス識別情報32と世代情報33によって実デバイスアドレス識別テーブル42中の実デバイス識別情報32と世代情報33をサーチして、対応する実デバイスアドレス31を求めてデバイスマウントを行う。本世代管理を行う場合では、ホスト200側から、各世代の実デバイスを同一の仮想デバイスアドレス23の指定でアクセス可能であるという利便性がある。
(実施の形態3)
<論理分割>
次に、本発明の実施の形態3のストレージ装置では、実施の形態1の構成に加え、対象となる仮想デバイスについての論理分割の設定を行い、論理分割に対応した仮想デバイスに対する専有利用などを行う。ハードウェア構成は実施の形態1と同様である。図19は、実施の形態3のストレージ装置でのデバイスマウント方式についての説明図である。
ホスト200側での論理分割の設定により、ホスト200のプロセッサ等の資源を分割して使用する。ホスト200側で、各論理分割に対応したI/O構成情報を保持する構成とし、各論理分割で処理対象となるデバイスを設定する。コマンド処理等は前記実施の形態と同様である。これにより各論理分割において別の用途で独立してデバイスアクセスを行うことが可能である。本構成の場合、ホスト側では、I/O構成情報として、各論理分割で扱う分のデバイスアドレス数が管理される。
例えば、ホスト200側において論理分割#1と#2に分割する。論理分割#2では、通常アクセス構成に対応したデバイスマウントを行う。これは従来の構成定義及びデバイス使用方法に対応している。すなわち、ホスト200側の論理分割#2で、I/O構成情報として、ストレージ装置100側の実デバイスアドレスを1:1でそのまま持つか、あるいは仮想デバイスアドレス23に実デバイスアドレスを1:1で対応させて持つ。ホスト200の論理分割#2に対応したプロセッサからストレージ装置100側の実デバイス{A,B,……}に対して実デバイスアドレス{a,b,……}により1:1でアクセスする処理形態である。
一方、ホスト200の論理分割#1では、専有構成に対応したデバイスマウントを行う。論理分割#1では、一部の実デバイスを仮想デバイスへマウントした上で、論理分割#1に対応したプロセッサからストレージ装置100側の実デバイスに対し仮想デバイスアドレス23を指定でアクセスする。ストレージ装置100側で前記テーブル41,42の情報に基づきアドレス取得が行われ、実デバイスアドレス31で実デバイスにアクセスされる。例えば、論理分割#1でのデバイスマウントにより、実デバイス{A,B,……}のうち実デバイス{C,H}を対象として専有する構成にする。実施の形態1と同様のマウント処理により、仮想デバイスアドレス「0」に実デバイスアドレス「c」が、仮想デバイスアドレス「1」に実デバイスアドレス「h」が、それぞれマッピングされる。そして、ホスト200の論理分割#1に対応したプロセッサから、論理分割#2側と独立して、仮想デバイスアドレス「0」「1」で識別される2つの仮想デバイスを専有でアクセス(仮想デバイスアクセス)して利用する。このような論理分割に対応した構成の用途としては、例えば、仮想デバイスアクセスに対応した論理分割側の高速アクセス用途やバックアップ処理専用用途がある。
なお、本論理分割に対応した構成において、複数の論理分割で共通するデバイス、例えば図19における実デバイス{C,H}に対しては、原則、ホスト200側の各論理分割(#1,#2)からの同時アクセスが可能である。この実デバイスに対する同時アクセスを許可するか不許可にするかなどは利用形態による。例えばバックアップ処理用途の場合、バックアップ処理対象の実デバイスと通常アクセス対象の実デバイスとでデータ整合性が確保されるように所定のコピー方式を用いて制御される。
<高速アクセス用途>
前記論理分割に対応した構成の例として、仮想デバイスアクセスに対応する論理分割において、パラレルアクセスボリューム(PAV)構成で定義(デバイスマウント及びI/O構成情報の保持)を行い、定義した仮想デバイスを高速アクセス用途で利用する。PAV構成は従来技術である。これにより、本構成でマウントした実デバイスをホスト200側から並列アクセスして高速処理することが可能となる。
図20(a),(b)は、PAV構成例と高速アクセス用途のための構成例を示す説明図である。図20(a)のPAV構成例は、ある実デバイス(例えば実デバイスE)についてのPAV構成として、ベースが1ボリュームとエイリアスが255ボリュームの構成で、256ボリュームの並列アクセス可能な構成である。デバイスEをホスト200側から並列アクセスするために、デバイスEに対応したベースボリューム(デバイスアドレスe0)と、ベースボリュームに対する255個のエイリアスボリューム(デバイスアドレスe1〜ep)が設定される。各ボリュームへの並列アクセスのために、ボリュームごとに独立した論理パスが設定される。この構成で、各デバイスアドレスを指定でアクセスすることで実デバイスEに対し並列アクセス可能である。
図20(b)の構成は、仮想デバイスアクセスに対応した論理分割を、前記PAV構成で定義した構成である。ホスト200は、例えば論理分割#1の設定において、実デバイス識別情報が“DevE”である実デバイスEについて、デバイスマウントにより、複数の仮想デバイスアドレス23を前記(b)に示すPAV構成に対応して定義する。マウント処理により、各仮想デバイスアドレス「0」〜「p」に対して実デバイスアドレス「e0」〜「ep」をマッピングする。論理分割#2側は、通常アクセス構成である。これにより、各PAVに対応して実デバイスEへの並列アクセスが可能であるので、対象の実デバイスEの高速処理が可能となる。例えば、ストレージ装置100内に有する実デバイスのうち、負荷(アクセス数)が高いものや特に高速処理したいものがある場合に、その実デバイスを選択して上記論理分割に対応した構成を定義して利用する。
<バックアップ専用用途>
また、前記論理分割に対応した構成の例として、仮想デバイスアクセスに対応する論理分割において、ストレージ装置100内の、バックアップ処理実行対象となる実デバイスを、前記専有構成で定義を行い、バックアップ処理専用に利用する。
図21は、バックアップ専用用途のための構成例を示す説明図である。論理分割の設定及びデバイスマウントにより、一方の論理分割#2側を通常アクセス構成とし、他方の論理分割#1側をバックアップ処理専用の構成とする。例えば、論理分割#2で、マウント処理により、実デバイス{C,H}をバックアップ処理対象実デバイスとして仮想デバイスにマウントする。すなわち、仮想デバイスアドレス{0,1}に対し実デバイスアドレス{c,h}をそれぞれマッピングする。そして、ホスト200は、論理分割#2側の実デバイス{A,B,……}で通常アクセスでのオンライン処理(前記アプリケーションプログラム20における処理)を行いながら、論理分割#1側の仮想デバイス(実デバイス{C,H})で仮想デバイスアクセスを行うことでバックアップ処理を行う。
例えば、ホスト200は、バックアップ処理の実行の際、論理分割#1側で、ストレージ装置100へ仮想デバイスアドレス「0」を指定で仮想デバイスアクセスあるいはバックアップ処理要求を行い、ストレージ装置100のCHA11は、仮想デバイスアドレス「0」に対応する実デバイスアドレス「c」で、実デバイスCの処理対象データを読み出し(コピー)して所定の論理パスで磁気テープ装置900へ転送する。磁気テープ装置900は、転送されたデータを磁気テープの領域へ書き込む。
従来のように通常アクセス構成側(前記論理分割#2)でバックアップ処理を実施した場合、オンライン処理とバックアップ処理とが同一の論理パスで混在するためにオンライン処理の性能に影響が出る。一方、本構成を使用した場合、オンライン処理とは別のバックアップ処理専有の論理パスでの処理となるため、論理パス競合がなくオンライン処理の性能への影響も出ない。従って、バックアップ処理対象実デバイスを専用アクセスして効率的なバックアップ処理を遂行できる。
なお、前記バックアップ処理では、ストレージ装置100のCHA11が、他のストレージ装置100や磁気テープ装置900等の外部装置と通信を行うことで、実デバイスのデータを読み出して外部装置へ転送してコピー等を行うことが可能となっている。当該コピー動作中は、コピー元(プライマリ)やコピー先(セカンダリ)の実デバイスにデータ更新があった場合でも内容が整合するように制御がなされる。例えば従来技術として同期方式のコピーと非同期方式のコピーがある。同期方式のコピーでは、ホストからデバイスへの入出力において、コピー元とコピー先の更新を同期させる。非同期方式では、ホストからデバイスへの入出力において、コピー元とコピー先の更新を同期させず、時間的に遅れてデータ内容を一致(再同期)させる。
(実施の形態4)
<キャッシュ常駐化機能>
次に、実施の形態4のストレージ装置では、実施の形態1の構成に加え、仮想デバイスアドレス23に対して、キャッシュ常駐化機能を割り当ててキャッシュ常駐化処理を行う。ハードウェア構成は実施の形態1と同様である。図22は、実施の形態4のストレージ装置でのデバイスマウント方式についての説明図である。
従来の構成では、システムでキャッシュ常駐化機能を使用する場合、実デバイスアドレス31相当に対してキャッシュ常駐化機能を割り当てて使用していた。従来のキャッシュ常駐化機能を簡単に説明すると、ストレージ装置で、キャッシュ常駐化の設定(割り当て)がなされた実デバイスを対象として、コントローラのキャッシュメモリ等のメモリ上に、対象実デバイスのデータをステージングすなわちデータ転送して格納して常駐化する処理が行われる。これにより、ホストから対象実デバイスのデータへのアクセスの際にコントローラからHDDアクセスを行う必要がなく、前記キャッシュメモリ上に常駐化されているデータを入出力すればよいので対象実デバイスについての処理が効率化される。また、前記対象実デバイスについてのキャッシュ常駐化の機能を解除する際は、前記コントローラのキャッシュメモリ等のメモリ上から対象実デバイスのデータをデステージングすなわちデータ転送してHDDの記憶領域へ格納する処理が行われる。
本実施の形態4では、従来のキャッシュ常駐化機能を仮想デバイスに対して適用する。ホスト200(あるいは管理端末160等)は、仮想デバイスアドレス23の指定とキャッシュ常駐化機能のオン/オフの指示を含む要求をストレージ装置100側に送信する。ストレージ装置100は、ホスト200側からの指示に基づき対象の仮想デバイスアドレス23についてキャッシュ常駐化機能のオン/オフの設定を行う。また、コントローラ10のCM13上に、キャッシュ常駐化機能に対応したキャッシュ領域を設定・確保する。
前記キャッシュ常駐化機能のオン/オフは、例えば前記デバイスのマウント/アンマウントの操作に伴って対象の仮想デバイスに対して行う。デバイスマウントの契機で、CM13上のキャッシュ常駐化機能オンで設定されたキャッシュ領域に対して、仮想デバイスアドレス23に対応した実デバイスデータ(キャッシュデータ)131をHDD30の領域からステージングする。同様に、デバイスアンマウントの契機で、CM13上のキャッシュ領域に格納されている実デバイスデータ131を、実デバイスアドレス31に対応したHDD30の領域へデステージングする。
図22で、例えば、ホスト200は、仮想デバイスアドレス「5」の指定とキャッシュ常駐化機能オンの指示を含んだマウント要求コマンドを発行する。ストレージ装置100側のCHA11で、前記コマンドに対応して、SM12のテーブル41,42において、ホスト200側から指定された仮想デバイスアドレス「5」に対応する実デバイスアドレス「f」の実デバイスFをマウントする設定を行うと共に、テーブル42等において当該実デバイスFについてのキャッシュ常駐化機能オンを設定する。そして、CHA11は、DKA14の処理を通じて、キャッシュ常駐化対象の仮想デバイスに対応する実デバイスFのデータ(131)を、HDD30側から読み出してCM13上に確保したキャッシュ領域に格納する。ホスト200から仮想デバイスアドレス「5」を指定でリード/ライト等の入出力アクセスが行われると、CHA11でSM12上のテーブル41,42の参照により指定の仮想デバイスアドレス「5」に対応した実デバイスアドレス「f」が取得され、CM13の該当キャッシュ領域へのキャッシュアクセスが行われ、該当実デバイスデータ131に対してリード/ライト等の入出力が行われる。また同様に、ホスト200は、仮想デバイスアドレス「5」の指定とキャッシュ常駐化機能オフの指示を含んだアンマウント要求コマンドを発行する。ストレージ装置100側のCHA11で、前記コマンドに対応して、SM12のテーブル41,42において、ホスト200側から指定された仮想デバイスアドレス「5」に対応する実デバイスアドレス「f」の実デバイスFをアンマウントする設定を行うと共に、テーブル42等において当該実デバイスFについてのキャッシュ常駐化機能オフを設定する。そして、CHA11は、DKA14の処理を通じて、実デバイスFのデータ(131)をCM13上に確保したキャッシュ領域から読み出してHDD30の領域に格納する。
このように仮想デバイスに対してキャッシュ常駐化機能を適用することで、仮想デバイスに対するリード/ライトデータがCM13上に常駐化されるため、仮想デバイスアドレス指定のキャッシュアクセスを使用した高速な処理が可能となる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
本発明は、記憶ボリュームを保持する第1のシステム(ストレージ装置)と、これに通信接続され前記記憶ボリュームへのアクセスを行う第2のシステム(ホストコンピュータ等)を含んで構成されるコンピュータシステムなどに利用可能である。
本発明の実施の形態1のストレージ装置のハードウェア外観構成を示す図である。 本発明の実施の形態1のストレージ装置を含むコンピュータシステムの全体の構成を示す図である。 本発明の実施の形態1のストレージ装置を含むコンピュータシステムで、ストレージ装置に通信接続されるホストコンピュータの機能ブロック構成を示す図である。 本発明の実施の形態1のストレージ装置を含むコンピュータシステムで、1つのホストコンピュータと、1つのストレージ装置との接続構成と、本発明に特徴的なデバイスマウント方式を実現するために係わる構成要素とを示す機能ブロック図である。 本発明の実施の形態1のストレージ装置で制御する実デバイスの例を示す説明図である。 本発明の実施の形態1のストレージ装置で、コントローラにおけるチャネルアダプタのボードのハードウェア構成を示す。 本発明の実施の形態1のストレージ装置でのデバイスマウント方式についての概要とデバイスマウント例を示す説明図である。 本発明の実施の形態1のストレージ装置での、仮想−実デバイスアドレスマッピングテーブルの例を示す図である。 本発明の実施の形態1のストレージ装置での、実デバイスアドレス識別テーブルの例を示す図である。 本発明の実施の形態1のストレージ装置での、電源オンから処理終了までにおける、デバイスマウント方式に係わる全体の処理フロー図である。 本発明の実施の形態1のストレージ装置での、マウント要求コマンドに対応したマウント処理についての説明図である。 本発明の実施の形態1のストレージ装置での、マウント要求コマンドに対応したマウント処理についての処理フロー図である。 本発明の実施の形態1のストレージ装置での、アンマウント要求コマンドに対応したアンマウント処理についての説明図である。 本発明の実施の形態1のストレージ装置での、アンマウント要求コマンドに対応したアンマウント処理についての処理フロー図である。 本発明の実施の形態1のストレージ装置での、マウント情報表示コマンドに対応したマウント情報表示処理についての説明図である。 本発明の実施の形態1のストレージ装置での、マウント情報表示コマンドに対応したマウント情報表示処理についてのフロー図である。 本発明の実施の形態2のストレージ装置でのデバイスマウント方式についての説明図である。 本発明の実施の形態2のストレージ装置での、図17に対応した世代管理を行う場合の共有メモリ上のテーブルの設定例を示す図である。 本発明の実施の形態3のストレージ装置でのデバイスマウント方式についての説明図である。 (a),(b)は、本発明の実施の形態3のストレージ装置での、PAV構成例と高速アクセス用途のための構成例を示す説明図である。 本発明の実施の形態3のストレージ装置での、バックアップ専用用途のための構成例を示す説明図である。 本発明の実施の形態4のストレージ装置でのデバイスマウント方式についての説明図である。
符号の説明
10…コントローラ、11…チャネルアダプタ、12…共有メモリ、13…キャッシュメモリ、14…ディスクアダプタ、15…コマンド処理プログラム、20…アプリケーションプログラム、21…利用プログラム、22…コマンド発行プログラム、23…仮想デバイスアドレス、30…HDD、31…実デバイスアドレス、32…実デバイス識別情報、33…世代情報、41…仮想−実デバイスアドレスマッピングテーブル、42…実デバイスアドレス識別テーブル、100…ストレージ装置、111…CPU、112…メモリ、113…ネットワークインタフェース部、114…入出力制御部、115…I/Oプロセッサ、116…NVRAM、117…ボード接続コネクタ、118…通信コネクタ、120…制御筐体、130…HDD筐体、131…実デバイスデータ、160…管理端末、161…コマンド発行プログラム、162…内部LAN、200…ホストコンピュータ、201…CPU、202…メモリ、203…ポート、204…入力装置、205…出力装置、206…記憶装置、207…記録媒体読取装置、300…ネットワーク、900…磁気テープ装置。

Claims (10)

  1. 記憶装置とコントローラとを有し、通信手段を介して接続される外部装置からの要求に応じて前記記憶装置上に設けられるデバイスにデータを入出力する制御を行うストレージ装置であって、
    前記外部装置側では、ストレージ装置側で扱う実デバイスに対するアクセスのための仮想デバイスを扱い、前記仮想デバイスに対するアクセスのための仮想デバイスアドレスを保持し、前記仮想デバイスに対してマウントあるいはアンマウントする実デバイスの指定を行い、前記仮想デバイスに対して前記仮想デバイスアドレスを指定してデータ入出力のためのアクセスの要求を発行し、
    前記コントローラは、
    前記外部装置側からの前記仮想デバイスに対してマウントあるいはアンマウントする実デバイスの指定に応じて、前記仮想デバイスアドレスに対して実デバイスアドレスをマッピングしてそのマッピング情報を第1のテーブルに格納して保持する処理と、
    前記外部装置側から前記仮想デバイスアドレスが指定されたデータ入出力のためのアクセスの要求を受け、前記第1のテーブルにより前記指定された仮想デバイスアドレスに対してマッピングされている実デバイスアドレスを取得して、前記取得した実デバイスアドレスで実デバイスに対してアクセスするデータ入出力処理とを行うことを特徴とするストレージ装置。
  2. 請求項1記載のストレージ装置において、
    前記外部装置側では、前記仮想デバイスに対する実デバイスのマウントのためのマウント要求とアンマウントのためのアンマウント要求とを発行する処理を行い、
    前記コントローラは、前記外部装置からの仮想デバイスアドレスの指定を含んだマウント要求に対応したマウント処理と、前記仮想デバイスアドレスの指定を含んだアンマウント要求に対応したアンマウント処理とを行い、
    前記マウント処理では、前記指定された仮想デバイスアドレスに対して実デバイスアドレスを検索して、前記第1のテーブルで、前記指定された仮想デバイスアドレスに対して前記検索した実デバイスアドレスをマッピングする処理を行い、
    前記アンマウント処理では、前記第1のテーブルで、前記指定された仮想デバイスアドレスに対する実デバイスアドレスのマッピングを無効化する処理を行うことを特徴とするストレージ装置。
  3. 請求項2記載のストレージ装置において、
    前記コントローラは、前記外部装置側からのマウント情報表示の要求に基づき、前記第1、第2のテーブルから情報を読み出して外部装置側に送信して表示させる処理を行うことを特徴とするストレージ装置。
  4. 請求項2記載のストレージ装置において、
    前記外部装置側では、前記実デバイスを識別するために付与する実デバイス識別情報を指定する処理を行い、
    前記コントローラは、前記外部装置からの前記仮想デバイスアドレスと前記実デバイス識別情報の指定を含んだマウント要求に対応したマウント処理と、前記実デバイスアドレスと前記外部装置側から指定された実デバイス識別情報とを対応付けて第2のテーブルに格納して保持する処理とを行い、
    前記マウント処理では、前記指定された実デバイス識別情報に対して実デバイスアドレスを前記第2のテーブルから検索して、前記第1のテーブルで、前記指定された仮想デバイスアドレスに対して前記検索した実デバイスアドレスをマッピングする処理を行うことを特徴とするストレージ装置。
  5. 請求項4記載のストレージ装置において、
    前記コントローラは、前記外部装置側との通信インタフェース処理を行うチャネルアダプタと、制御情報を格納する共有メモリと、データを格納するキャッシュメモリと、前記記憶装置側に対するデータ入出力処理を行うディスクアダプタとを有し、前記共有メモリ上に前記第1、第2のテーブルを保持し、前記キャッシュメモリ上に前記仮想デバイスに対するデータ入出力のためのデータを格納し、前記ディスクアダプタにより前記実デバイスに対して実デバイスアドレスでデータ入出力のアクセスを行い、
    前記チャネルアダプタは、前記外部装置側からの前記マウント要求と前記アンマウント要求と前記データ入出力のためのアクセスの要求とを受け付け、前記共有メモリ上の第1、第2のテーブルを参照しながら、前記マウント処理と前記アンマウント処理と前記ディスクアダプタの処理を通じた前記データ入出力処理とを行うことを特徴とするストレージ装置。
  6. 請求項5記載のストレージ装置において、
    前記コントローラは、ストレージ装置動作中は、前記第1、第2のテーブルを前記共有メモリ上に保持し、随時前記第1、第2のテーブルの情報を前記記憶装置上のシステム領域にセーブし、ストレージ装置起動時は、前記第1、第2のテーブルを前記記憶装置上のシステム領域から前記共有メモリ上にロードして再構築することを特徴とするストレージ装置。
  7. 請求項1記載のストレージ装置において、
    前記コントローラは、世代保存単位で前記実デバイスのデータを記憶装置側に保存し、前記実デバイスアドレスに対して前記世代保存単位に対応した世代情報を対応付けて管理し、前記実デバイスアドレスと世代情報の指定に基づき特定世代の実デバイスのデータにアクセスすることを特徴とするストレージ装置。
  8. 請求項1記載のストレージ装置において、
    前記外部装置側は、前記仮想デバイスに対するアクセスのための論理分割の設定を行い、
    前記コントローラは、前記論理分割に対応して、並列アクセスボリューム構成で前記仮想デバイスと実デバイスのマウントを行うことを特徴とするストレージ装置。
  9. 請求項1記載のストレージ装置において、
    前記外部装置側は、前記仮想デバイスに対するアクセスのための論理分割の設定を行い、
    前記コントローラは、前記論理分割に対応して、前記仮想デバイスについてのバックアップ処理専用構成で前記仮想デバイスと実デバイスのマウントを行うことを特徴とするストレージ装置。
  10. 請求項1記載のストレージ装置において、
    前記コントローラは、前記外部装置側からの要求に基づき、指定された仮想デバイスアドレスに対してキャッシュ常駐化機能を設定する処理を行い、前記キャッシュ常駐化機能が設定された仮想デバイスに対応する実デバイスのデータをキャッシュメモリ上の領域にステージングして、前記データ入出力処理で前記キャッシュメモリ上の実デバイスのデータに対してデータ入出力を行うことを特徴とするストレージ装置。
JP2004295066A 2004-10-07 2004-10-07 ストレージ装置およびストレージ装置における構成管理方法 Expired - Fee Related JP4574315B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2004295066A JP4574315B2 (ja) 2004-10-07 2004-10-07 ストレージ装置およびストレージ装置における構成管理方法
US10/998,780 US7337299B2 (en) 2004-10-07 2004-11-30 Storage apparatus having virtual-to-actual device addressing scheme
EP05253251A EP1645953B1 (en) 2004-10-07 2005-05-26 Storage apparatus
US11/971,029 US7487328B2 (en) 2004-10-07 2008-01-08 Storage apparatus having virtual-to-actual device addressing scheme
US12/272,073 US7844795B2 (en) 2004-10-07 2008-11-17 Storage apparatus having virtual-to-actual device addressing scheme
US12/911,910 US8046562B2 (en) 2004-10-07 2010-10-26 Storage apparatus having virtual-to-actual device addressing scheme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004295066A JP4574315B2 (ja) 2004-10-07 2004-10-07 ストレージ装置およびストレージ装置における構成管理方法

Publications (2)

Publication Number Publication Date
JP2006107257A true JP2006107257A (ja) 2006-04-20
JP4574315B2 JP4574315B2 (ja) 2010-11-04

Family

ID=34941468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004295066A Expired - Fee Related JP4574315B2 (ja) 2004-10-07 2004-10-07 ストレージ装置およびストレージ装置における構成管理方法

Country Status (3)

Country Link
US (4) US7337299B2 (ja)
EP (1) EP1645953B1 (ja)
JP (1) JP4574315B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317017A (ja) * 2006-05-26 2007-12-06 Nec Corp ストレージシステム及びデータ保護方法とプログラム
JP2008065706A (ja) * 2006-09-08 2008-03-21 Hitachi Ltd 記憶システム及びその制御方法並びに記憶制御装置
EP2009418A2 (en) 2007-06-26 2008-12-31 The Yokohama Rubber Co., Ltd. Tire characteristic judging method and tire characteristic judging device
JP2009218939A (ja) * 2008-03-11 2009-09-24 Yamaha Corp 複数の音響機器と、該複数の音響機器を制御するための少なくとも1台の制御装置とを接続したネットワークにより構成される音響システム
US7624230B2 (en) 2006-09-20 2009-11-24 Hitachi, Ltd. Information processing apparatus, information processing method and storage system using cache to reduce dynamic switching of mapping between logical units and logical devices
JP2013050755A (ja) * 2011-08-30 2013-03-14 Sharp Corp 画像処理装置
US11669276B2 (en) 2020-07-20 2023-06-06 Fujitsu Limited Recording device removal detection device, storage medium, and recording device removal detection method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4939154B2 (ja) 2006-09-14 2012-05-23 株式会社日立製作所 ストレージ装置及び構成設定方法
JP4408126B2 (ja) * 2006-12-13 2010-02-03 富士通株式会社 監視装置、半導体集積回路、および監視方法
US20080162813A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Multiple logic media drive
US9158653B2 (en) 2010-03-21 2015-10-13 Hewlett-Packard Development Company, L.P. Determining impact of virtual storage backup jobs
US9009724B2 (en) 2010-09-24 2015-04-14 Hewlett-Packard Development Company, L.P. Load balancing data access in virtualized storage nodes
US8918614B2 (en) 2010-10-14 2014-12-23 International Business Machines Corporation Using an alias volume name for a volume to allocate space to a data set
JP5439435B2 (ja) * 2011-06-14 2014-03-12 株式会社日立製作所 計算機システムおよびその計算機システムにおけるディスク共有方法
US9619157B2 (en) * 2014-04-03 2017-04-11 Analysis Solution Llc High-speed data storage
KR102473665B1 (ko) 2015-07-28 2022-12-02 삼성전자주식회사 스토리지 디바이스 및 스토리지 가상화 시스템
CN106775456B (zh) * 2016-11-22 2019-11-26 华为技术有限公司 一种数据处理方法、装置及系统
US10705763B2 (en) * 2017-02-10 2020-07-07 International Business Machines Corporation Scale and performance for persistent containers using SCSI second level addressing to map storage volume to host of container environment, wherein said storage volume is scanned at said SCSI second level addressing without rescanning at OS level virtualization
US10228873B2 (en) * 2017-06-28 2019-03-12 International Business Machines Corporation Swapping tape cartridges in tape libraries

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034541A (ja) * 1999-07-22 2001-02-09 Nec Corp 世代管理方式,方法および記録媒体
JP2003316618A (ja) * 2002-04-26 2003-11-07 Hitachi Ltd コンピュータシステム
JP2004013778A (ja) * 2002-06-11 2004-01-15 Hitachi Ltd セキュアストレージシステム
JP2004078398A (ja) * 2002-08-13 2004-03-11 Nec Corp 仮想ボリューム管理方式
JP2004127141A (ja) * 2002-10-07 2004-04-22 Hitachi Ltd ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546557A (en) * 1993-06-14 1996-08-13 International Business Machines Corporation System for storing and managing plural logical volumes in each of several physical volumes including automatically creating logical volumes in peripheral data storage subsystem
US6105103A (en) * 1997-12-19 2000-08-15 Lsi Logic Corporation Method for mapping in dynamically addressed storage subsystems
US6834324B1 (en) * 2000-04-10 2004-12-21 Storage Technology Corporation System and method for virtual tape volumes
US6622177B1 (en) * 2000-07-27 2003-09-16 International Business Machines Corporation Dynamic management of addresses to an input/output (I/O) device
US6754768B2 (en) * 2001-04-26 2004-06-22 International Business Machines Corporation Library of hard disk drives with transparent emulating interface
US6519678B1 (en) * 2001-09-10 2003-02-11 International Business Machines Corporation Virtualization of data storage drives of an automated data storage library
US7020758B2 (en) * 2002-09-18 2006-03-28 Ortera Inc. Context sensitive storage management
US7409583B2 (en) 2002-10-07 2008-08-05 Hitachi, Ltd. Volume and failure management method on a network having a storage device
US7158973B2 (en) * 2002-12-12 2007-01-02 Sun Microsystems, Inc. Method and apparatus for centralized management of a storage virtualization engine and data services
US7007043B2 (en) * 2002-12-23 2006-02-28 Storage Technology Corporation Storage backup system that creates mountable representations of past contents of storage volumes
US7231544B2 (en) * 2003-02-27 2007-06-12 Hewlett-Packard Development Company, L.P. Restoring data from point-in-time representations of the data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034541A (ja) * 1999-07-22 2001-02-09 Nec Corp 世代管理方式,方法および記録媒体
JP2003316618A (ja) * 2002-04-26 2003-11-07 Hitachi Ltd コンピュータシステム
JP2004013778A (ja) * 2002-06-11 2004-01-15 Hitachi Ltd セキュアストレージシステム
JP2004078398A (ja) * 2002-08-13 2004-03-11 Nec Corp 仮想ボリューム管理方式
JP2004127141A (ja) * 2002-10-07 2004-04-22 Hitachi Ltd ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317017A (ja) * 2006-05-26 2007-12-06 Nec Corp ストレージシステム及びデータ保護方法とプログラム
JP2008065706A (ja) * 2006-09-08 2008-03-21 Hitachi Ltd 記憶システム及びその制御方法並びに記憶制御装置
US7624230B2 (en) 2006-09-20 2009-11-24 Hitachi, Ltd. Information processing apparatus, information processing method and storage system using cache to reduce dynamic switching of mapping between logical units and logical devices
EP2009418A2 (en) 2007-06-26 2008-12-31 The Yokohama Rubber Co., Ltd. Tire characteristic judging method and tire characteristic judging device
JP2009218939A (ja) * 2008-03-11 2009-09-24 Yamaha Corp 複数の音響機器と、該複数の音響機器を制御するための少なくとも1台の制御装置とを接続したネットワークにより構成される音響システム
JP2013050755A (ja) * 2011-08-30 2013-03-14 Sharp Corp 画像処理装置
US11669276B2 (en) 2020-07-20 2023-06-06 Fujitsu Limited Recording device removal detection device, storage medium, and recording device removal detection method

Also Published As

Publication number Publication date
US20080155128A1 (en) 2008-06-26
US8046562B2 (en) 2011-10-25
EP1645953A1 (en) 2006-04-12
EP1645953B1 (en) 2011-11-09
JP4574315B2 (ja) 2010-11-04
US7844795B2 (en) 2010-11-30
US20110040934A1 (en) 2011-02-17
US7487328B2 (en) 2009-02-03
US7337299B2 (en) 2008-02-26
US20060080502A1 (en) 2006-04-13
US20090077343A1 (en) 2009-03-19

Similar Documents

Publication Publication Date Title
US7487328B2 (en) Storage apparatus having virtual-to-actual device addressing scheme
JP4646526B2 (ja) 記憶制御システム及び同システムの制御方法
US7930502B2 (en) Disk array apparatus and control method for disk array apparatus
US8521978B2 (en) Storage apparatus and method for controlling storage apparatus
US20080177947A1 (en) Storage system and storage migration method
CN111722791B (zh) 信息处理系统、存储系统和数据传输方法
JP2009043030A (ja) ストレージシステム
JP2005149436A (ja) ストレージ装置、ストレージ装置における制御方法、ジョブスケジューリング処理方法及び障害処理方法並びにそれらのプログラム
JP2006113648A (ja) ディスクアレイ装置
JP2007086972A (ja) ストレージシステム、二重化制御方法、及びプログラム
US20010047448A1 (en) Address layout managing method and an external storage sub-system therewith
US8713266B2 (en) Storage apparatus and method including page discard processing for primary and secondary volumes configured as a copy pair
JP2005222404A (ja) 仮想記憶ユニットを備えた記憶制御サブシステム
US8275958B2 (en) Storage system with remote copy controllers
US8799573B2 (en) Storage system and its logical unit management method
JP4620502B2 (ja) ディスクアレイ装置
CN113342258A (zh) 用以进行全快闪存储器阵列伺服器的数据存取管理的方法与设备
US7424572B2 (en) Storage device system interfacing open-system host computer input/output interfaces
JP2006293501A (ja) ストレージシステム、構成管理方法、及びプログラム
JP5606583B2 (ja) ストレージ装置及び同装置の制御方法
JP4075790B2 (ja) 複合計算機システムおよび複合i/oシステム
US20120011339A1 (en) Storage control apparatus and control method for virtual logical volume
Ito et al. Fujitsu is a remarkable company that can provide entire system solutions, including storage systems, and we will continue developing new technologies to provide our customers with the solutions they need.
JP2010257477A (ja) 記憶制御システム及び同システムの制御方法
JP2007048319A (ja) 複合計算機システムおよび複合i/oシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100818

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees