JP2008210031A - ストレージシステムの記憶領域管理方法 - Google Patents

ストレージシステムの記憶領域管理方法 Download PDF

Info

Publication number
JP2008210031A
JP2008210031A JP2007044186A JP2007044186A JP2008210031A JP 2008210031 A JP2008210031 A JP 2008210031A JP 2007044186 A JP2007044186 A JP 2007044186A JP 2007044186 A JP2007044186 A JP 2007044186A JP 2008210031 A JP2008210031 A JP 2008210031A
Authority
JP
Japan
Prior art keywords
pool area
logical volume
pool
area
capacity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007044186A
Other languages
English (en)
Inventor
Hiroshi Nasu
弘志 那須
Masayasu Asano
正靖 淺野
Yuichi Taguchi
雄一 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007044186A priority Critical patent/JP2008210031A/ja
Priority to US11/968,216 priority patent/US7849264B2/en
Publication of JP2008210031A publication Critical patent/JP2008210031A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/221Column-oriented storage; Management thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ストレージシステムの管理負担を低減する。
【解決手段】複数の論理ボリュームによって論理ボリューム集合を構成し、当該論理ボリューム集合が属するプール領域と異なるプール領域に複製が作成されたストレージシステムについて、管理計算機は、プール領域の容量が所定の閾値を超えた場合に、プール領域の容量を追加させ、プール領域に複数の論理ボリューム集合が含まれている場合には、論理ボリューム集合ごとにプール領域を作成させ、作成されたプール領域ごとに各論理ボリューム集合を作成させ、プール領域に含まれる論理ボリューム集合が一つの場合には、プール領域の容量と、当該論理ボリューム集合の複製が作成されたプール領域の容量とを一致させる。
【選択図】図1

Description

本発明は、動的に容量拡張が可能な記憶領域をホスト計算機に提供するストレージシステムに関する。
計算機システムは、一般的に、業務を処理するホスト計算機と、ホスト計算機の指示に基づいてデータを読み書きするストレージシステムによって構成される。ストレージシステムは、データの格納及び読み書きする複数のボリュームを提供する。また、ストレージシステムは、非常に多くの大容量物理ディスクを備えることが可能となり、記憶容量の大規模化が進んでいる。
ストレージシステムは、物理ディスクを用いて、RAID(Redundant Array of Inexpensive Disks)構成されたディスクアレイが作成され、一以上の物理的な記憶リソースを集約することによって、プール領域が作成される。そして、作成されたプール領域から、ホスト計算機が要求する容量の記憶領域を論理ボリュームとして作成し、ホスト計算機に提供する。
しかし、ストレージシステムは、大規模化に伴い、ホスト計算機に要求される記憶領域のサイズも大規模化し、ストレージシステムを導入する際に物理ディスクを準備するための初期コストが非常に大きくなってしまうという課題がある。
そこで、導入初期から物理ディスクをホスト計算機に提供する全容量分準備せずに、ディスク使用量が容量上限に近づいたときに、必要に応じ物理ディスクを追加し、ホスト計算機に提供する記憶容量を動的に変更する技術が開示されている(特許文献1参照)。特許文献1に開示された技術は、前述したストレージシステムにおいて、プール領域から固定容量の論理ボリュームを作成せずに、ホスト計算機に仮想的な論理ボリュームを提供する。そして、ホスト計算機からの要求に応じて、仮想的な論理ボリュームに対し、所定の単位の記憶領域(以下、この記憶領域の単位を「セグメント」と呼ぶ)を、物理的な記憶リソースであるプール領域から動的に割り当てることによって動的に容量を拡張する。このようにして、ストレージシステム導入時の初期コストを低減することができる。
特開2003−15915号公報
一つのプール領域からセグメントが割り当てられる各論理ボリュームは、バックアップのためのボリュームのローカルコピー、システム障害時又は災害時でも業務を継続するディザスタリカバリのためのボリュームのリモートコピー、ボリュームコピー以外の通常業務利用など、それぞれ異なる用途で利用されることが考えられる。
ローカルコピーとは、ストレージシステム内の記憶領域のデータを、同じストレージシステム内の記憶領域に複製する技術である。リモートコピーとは、システム内の記憶領域のデータを、別のストレージシステム内の記憶領域に複製する技術である。ボリュームコピーでは、複数の論理ボリュームをグループ化し、論理ボリュームのグループ内でデータ更新順序の整合性を保持する。このような論理ボリュームの集合は、コンシステンシグループ(CTG)と呼ばれる。また、一つのプール領域に複数のCTGが含まれる場合も考えられる。
ストレージシステムは、プール領域から論理ボリュームに割り当てるセグメント数、すなわちプール容量が不足し、論理ボリュームの容量拡張ができなくなるのを防ぐため、プール容量が不足しているか否かを監視する。そして、プール容量が不足した場合には、プール領域拡張、すなわちプール容量を追加する。
ストレージシステムは、リモートコピーの場合には、コピー元ボリューム(正ボリューム)が含まれるストレージシステム内のプール、及びコピー先ボリューム(副ボリューム)が含まれるストレージシステム内のプール領域の容量監視及び容量追加を行う必要がある。また、リモートコピーにおける正ボリュームの副ボリュームのペアボリューム間のデータコピー停止中に、正ボリューム側のプール容量不足によってプール容量を追加した場合、ペアボリューム間でのデータコピーを再開しようとすると、副ボリューム側のプールでも容量不足によるプール容量追加処理が必要となる。したがって、副ボリューム側の容量追加処理にかかる時間だけ、リモートコピー処理の遅延が発生する。
本発明の代表的な一形態では、ストレージシステムと、前記ストレージシステムにネットワークを介して接続されるホスト計算機と、前記ストレージシステム及び前記ホスト計算機にアクセス可能な管理計算機と、を含む計算機システムにおける記憶領域管理方法であって、前記ストレージシステムは、前記ネットワークに接続される第1インタフェースと、前記第1インタフェースに接続され、前記第1インタフェースに接続される第1プロセッサと、前記第1プロセッサに接続される第1メモリと、前記ホスト計算機によって読み書きされるデータを格納する記憶装置と、を備え、前記管理計算機は、前記ネットワークに接続される第2インタフェースと、前記第2インタフェースに接続される第2プロセッサと、前記第2プロセッサに接続される第2メモリと、を備え、前記ストレージシステムは、前記記憶装置によって構成されるプール領域を有し、前記プール領域には、前記ホスト計算機に、データが読み書きされる記憶領域として、提供される論理ボリュームが作成され、前記論理ボリュームは、所定の関係を有する複数の論理ボリュームによって、論理ボリューム集合を構成し、前記論理ボリューム集合は、当該論理ボリューム集合が属するプール領域と異なるプール領域に、当該論理ボリューム集合の複製が作成され、前記記憶領域管理方法は、前記第2プロセッサが、前記プール領域の容量を監視し、前記第2プロセッサが、前記プール領域の未使用容量が所定の閾値以下になった場合に、前記プール領域の容量を追加するように前記ストレージシステムに要求し、前記第2プロセッサが、前記作成されたプール領域ごとに、前記プール領域に含まれる複数の論理ボリューム集合をそれぞれ作成するように前記ストレージシステムに要求し、前記第2プロセッサが、前記プール領域に一つの論理ボリューム集合が含まれている場合には、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域に関する操作を要求する。
本発明の一実施形態によれば、CTGなどの所定の関係を有する論理ボリューム集合ごとにプール領域が作成されるため、管理計算機によるプール領域の管理負担を低減することができる。
以下に図面を参照しながら本発明の実施形態を説明する。
図1は、本発明の実施形態の計算機システムの構成を示す説明図である。計算機システム900は、1以上のホスト計算機100及び100Aと、管理サーバ200及び200Aと、ストレージシステム300及び300Aとを備える。
ホスト計算機100及びストレージシステム300は、ストレージエリアネットワーク(SAN)540によって接続される。また、ストレージシステム300は、管理用ネットワーク(MN)520を介して管理サーバ200に接続される。同じく、ストレージシステム300Aは、管理用ネットワーク(MN)521を介して管理サーバ200Aに接続される。
また、ホスト計算機100及び100Aと、管理サーバ200及び200Aは、ローカルエリアネットワーク(Local Area Network:LAN)510を介して接続される。さらに、ストレージシステム300及びストレージシステム300Aは、データコピー用のネットワーク(CN)530によって接続される。本実施形態では、ホスト計算機100及び100Aが1台ずつとなっているが、複数台であってもよい。
管理サーバ200及び200Aは、ストレージシステム300及び300Aと接続する一台のみであっても良い。また、LAN510、管理用ネットワークMN520及びSAN540は、同一のネットワークであってもよい。
ホスト計算機100は、CPU(中央演算処理装置)110、メモリ120、LAN510と接続するためのインタフェース190、及びSAN540と接続するためのインタフェース191を備える。CPU110、メモリ120、インタフェース190、及びインタフェース191は、バス180を介して接続される。
CPU110は、メモリ120に記憶されたプログラムを実行することによって、ホスト計算機100の機能を実現する。メモリ120は、CPU110によって使用されるデータ及びプログラムを記憶する。さらに、ホスト計算機100は、図示していないが、ホスト計算機のユーザがデータを入力するためのデータ入力装置、及びホスト計算機のユーザに情報を提示する表示装置を備える。
ホスト計算機100Aは、ホスト計算機100と同様に、CPU110A、メモリ120A、LAN510と接続するためのインタフェース190A、及びSAN541と接続するためのインタフェース191Aを備える。CPU110A、メモリ120A、インタフェース190A、及びインタフェース191Aは、バス180Aを介して接続される。
CPU110Aは、メモリ120Aに記憶されたプログラムを実行することによって、ホスト計算機100Aの機能を実現する。メモリ120Aは、CPU110Aによって使用されるデータ及びプログラムを記憶する。さらに、ホスト計算機100Aは、図示していないが、ホスト計算機のユーザがデータを入力するためのデータ入力装置、ホスト計算機のユーザに情報を提示する表示装置を備える。
管理サーバ200は、CPU210、メモリ220、LAN510と接続するためのインタフェース290、及び管理用ネットワークMN520と接続するためのインタフェース291を備える。CPU210、メモリ220、インタフェース290、及びインタフェース291は、バス280を介して接続される。
CPU210は、メモリ220に記憶されたプログラムを実行することによって、管理サーバ200の機能を実現する。メモリ220は、CPU210によって使用されるデータ及びプログラムを記憶する。メモリ220は、ストレージ管理プログラム221、ボリューム管理テーブル222、プール管理テーブル223、及びボリューム移行管理テーブル224を記憶する。
以下、メモリ220に記憶されたデータ及びプログラムについて説明する。
ストレージ管理プログラム221は、CPU210によって実行されることによって、ストレージシステム300の構成などを管理する。
ボリューム管理テーブル222は、論理ボリュームの管理情報を格納するテーブルである。図2にボリューム管理テーブル222の一例を示す。
図2は、本発明の実施形態のボリューム管理テーブル222の一例を示す図である。ボリューム管理テーブル222は、ホストWWN2220、装置ID2221、LUN(Logical Unit Number)2222、ホスト要求最大容量2223及び割り当て済み容量2224を含む。
ホストWWN2220は、ホスト計算機を識別する識別子である。装置ID2221は、ストレージシステムを識別する識別子である。LUN2222は、論理ボリュームを識別する識別子を格納する。
ホスト要求最大容量2223は、提供される記憶領域の最大容量である。割り当て済み容量2224は、実際に割り当てられている記憶領域の容量である。ホスト計算機には、ホスト要求最大容量2223の記憶領域が提供されているものとして扱われ、実際に格納されたデータの容量に応じて記憶領域の容量を追加する。
プール管理テーブル223は、プール領域の情報を示すテーブルである。プール領域は、前述のように、一以上の物理的な記憶リソースを集約することによって作成される。図3にプール管理テーブル223の一例を示す。
図3は、本発明の実施形態のプール管理テーブル223の一例を示す図である。プール管理テーブル223は、装置ID2230、PoolID2231、容量2238、閾値2232、CTGID2233、正/副2234、ペア装置ID2235、ペアPoolID2236、及びLUN2237を含む。
装置ID2230は、ストレージシステムを識別する識別子である。PoolID2231は、プール領域を識別する識別子である。容量2238は、プール領域の最大容量である。閾値2232は、プール領域を拡張するか否かを判定する閾値である。
CTGID2233は、コンシステンシグループを識別する識別子である。CTGID2233は、値に「n」が格納されている場合には、コピーボリュームを持たない単独のボリュームとなる。正/副2234は、論理ボリュームがコピー元(正ボリューム)かコピー先(副ボリューム)かを識別するための値を格納する。
ペア装置ID2235は、コピーのペアとなる論理ボリュームの記憶領域を持つストレージシステムを識別する識別子である。ペアPoolID2236は、コピーのペアとなる論理ボリュームに記憶領域が割り当てられるプール領域を識別する識別子である。LUN2237は、CTGID2233の値によって特定されるコンシステンシグループに属する論理ボリュームの識別子を格納する。
ボリューム移行管理テーブル224は、指定された論理ボリュームの移行先のプール領域の識別子を格納する。図4にボリューム移行管理テーブル224の一例を示す。
図4は、本発明の実施形態のボリューム移行管理テーブル224の一例を示す図である。ボリューム移行管理テーブル224は、装置ID2240、LUN2241、及び移行先PoolID2242を含む。
装置ID2240は、ストレージシステムを識別する識別子である。LUN2241は、論理ボリュームを識別する識別子である。移行先PoolID2242は、ボリューム移行先のプール領域を識別する識別子である。
以上、管理サーバ200に備えられたメモリ220に格納されたプログラム及びテーブルについて説明した。ここで、図1の説明に戻る。
管理サーバ200Aは、CPU210A、メモリ220A、LAN510と接続するインタフェース290A、及び管理用ネットワークMN521と接続するインタフェース291Aを備える。これらの各構成要素は、バス280Aを介して互いに接続される。管理サーバ200Aは、例えば、管理サーバ200が故障した場合に業務を継続するために使用される。
CPU210Aは、メモリ220Aに記憶されたプログラムを実行することによって、管理サーバ200Aの機能を実現する。メモリ220Aは、CPU210によって使用されるデータ及びプログラムを記憶する。メモリ220Aは、ストレージ管理プログラム221Aを記憶する。ストレージ管理プログラム221Aは、CPU210Aによって実行されるプログラムであって、ストレージシステム300Aの構成などを管理する。
さらに、管理サーバ200Aは、図示していないが、管理サーバ200Aのユーザがデータを入力するためのデータ入力装置、及びホスト計算機のユーザに情報を提示する表示装置を備える。
ストレージシステム300は、ホスト計算機100にデータ記憶領域を提供する。ストレージシステム300は、制御装置305、論理ボリューム350、プール領域361、SAN540と接続するインタフェース390、及び管理用ネットワークMN520と接続するインタフェース391を備える。制御装置305、論理ボリューム350、プール領域361、インタフェース390及びインタフェース391は、バス380を介して接続される。
制御装置305は、ホスト計算機からデータを読み書きする要求を受け付け、受け付けた要求に応じた処理を実行する。制御装置305は、CPU310及びメモリ320を備える。
CPU310は、メモリ320に記憶されたプログラムを実行することによって、所定の処理を実行する。
メモリ320は、CPU310によって実行されるプログラム及び種々の処理を実行する際に使用されるデータを記憶する。また、メモリ320は、セグメント管理テーブル321、物理論理管理テーブル322、セグメント管理プログラム323、及びボリュームコピープログラム324を記憶する。セグメント管理プログラム323及びボリュームコピープログラム324は、CPU310によって実行される。
論理ボリューム350は、ホスト計算機に提供する仮想的な記憶領域である。論理ボリュームは、一つ以上の物理的な記憶リソースによって構成され、ホスト計算機にデータを格納するための論理的な記憶領域として提供される。
プール領域361は、仮想的な論理ボリュームにセグメントを割り当てるための物理的な記憶リソースである。プール領域361は、前述のように、複数の物理ディスクによって構成される。プール領域361は、図4では一つであるが、複数あってもよい。
セグメント管理テーブル321は、ボリュームに割り当てられているセグメントの情報を示すテーブルである。図5にセグメント管理テーブル321の一例を示す。
図5は、本発明の実施形態のセグメント管理テーブル321の一例を示す図である。セグメント管理テーブル321は、PoolID3210、DiskID3211、セグメント番号3212、セグメントの開始アドレス3213、セグメントの終了アドレス3214、及び使用状況3215を含む。
PoolID3210は、プール領域を識別するための識別子である。DiskID3211は、プール領域内の物理ディスクを識別する識別子である。セグメント番号3212は、論理ボリュームに割り当てられるセグメントを識別する識別子である。
セグメントの開始アドレス3213及びセグメントの終了アドレス3214は、論理ブロックアドレス(LBA)である。セグメントの開始アドレス3213及びセグメントの終了アドレス3214によって表されるセグメントのサイズの値は、固定であっても可変であってもよい。
使用状況3215は、図5では、「0」が未使用、「1」が使用中を表しているが、ボリュームが使用中か否かを判断できれば、必ずしも本方法に限られない。
物理論理管理テーブル322は、ホスト計算機100に割り当てられたセグメントと、ホスト計算機が使用している論理ボリュームのLBAとを対応させるテーブルである。図6に物理論理管理テーブル322の一例を示す。
図6は、本発明の実施形態の物理論理管理テーブルを示す図である。物理論理管理テーブル322は、LUN3220、セグメント番号3221、開始アドレス3222及び終了アドレス3223を含む。
LUN3220は、論理ボリュームの識別子が格納される。セグメント番号3221は、LUN3220によって特定される論理ボリュームを構成するセグメントを識別する番号が格納される。
開始アドレス3222及び終了アドレス3223は、セグメント番号3221によって特定されるセグメントの論理ブロックアドレスが格納される。開始アドレス3222及び終了アドレス3223に格納される論理ブロックアドレスは、論理ボリューム内の論理ブロックアドレスである。
セグメント管理プログラム323は、CPU310によって実行されることによって、ホスト計算機100に記憶領域を提供する論理ボリュームに割り当てるセグメントを管理する。
ボリュームコピープログラム324は、CPU310によって実行されるプログラムである。ボリュームコピープログラム324は、CPU310によって実行されることによって、記憶領域間のデータコピーを実行する。
図7は、本発明の実施形態のボリューム移行先プール作成処理の手順を示すフローチャートである。本処理は、ストレージシステムに対し、最初に本発明による記憶領域管理方法を適用するときに実行される。なお、影付きの枠に囲まれた処理は、ストレージシステムによって実行される処理である。
管理サーバ200のCPU210は、ストレージ管理プログラム221を実行することによって、プール管理テーブル223に格納されたPoolID2231及びCTGID2233を取得する(S101)。
管理サーバ200のCPU210は、一つのPoolID2231に対して複数のCTGID2233が登録されているか否かを判定する(S102)。具体的には、一つのプール領域に複数のコンシステンシグループが格納されているか否かを判定する。
管理サーバ200のCPU210は、一つのプール領域に複数のコンシステンシグループが格納されている場合には(S102の結果が「Yes」)、コンシステンシグループがコピーボリュームによって構成されているか否かを判定する(S103A)。コピーボリュームとは、コピー元又はコピー先となるボリュームである。したがって、処理対象のプール領域以外のプール領域に当該ボリュームのコピー元又はコピー先となるボリュームが存在する。また、コピーボリュームが格納されたプール領域を処理対象のプール領域とペアとなるプール領域とする。なお、本実施形態では、前述のように、CTGIDの値が「n」以外のコンシステンシグループが該当する。
管理サーバ200のCPU210は、処理対象のコンシステンシグループがコピーボリュームによって構成されていない場合には(S103Aの結果が「No」)、同じプール領域に含まれる他のコンシステンシグループについて処理する。
一方、管理サーバ200のCPU210は、処理対象のコンシステンシグループがコピーボリュームによって構成されている場合には(S103Aの結果が「Yes」)、ペアとなるプール領域の情報をプール管理テーブル223から取得する(S103B)。具体的には、ペア装置ID2235及びペアPoolID2236を取得し、さらに、取得したペア装置ID2235及びペアPoolID2236から相手先の容量2238を取得する。
管理サーバ200のCPU210は、S103Bの処理で取得したペアとなるプール領域の情報を参照し、ペアとなるプール領域に異なるCTGIDのボリュームを含むか否かを判定する(S104A)。
管理サーバ200のCPU210は、ペアとなるプール領域に異なるCTGIDのボリュームを含む場合には(S104Aの結果が「Yes」)、管理者が指定した容量のプール領域の作成をストレージシステム300に要求する(104B)。すなわち、一つのプール領域に複数のコンシステンシグループが含まれている場合に新たにペアとなるプール領域を作成することによって、コンシステンシグループごとにプール領域を作成する。したがって、一方のプール領域の構成を変更した場合にペアとなる他方のプール領域の構成を変更しても、別のコンシステンシグループ及び当該別のコンシステンシグループを含むプール領域に与える影響を最小限にすることができる。
一方、管理サーバ200のCPU210は、ペアとなるプール領域に異なるCTGIDのボリュームを含まない場合には(S104Aの結果が「No」)、ペアとなるプール領域と同じ容量になるようにプール領域の作成をストレージシステム300に要求する(104C)。
また、管理サーバ200のCPU210は、一つのPoolID2231に対して複数のCTGID2233が登録されていない場合には(S102の結果が「No」)、対象のコンシステンシグループがコピーボリュームであるか否かを判定する(S105)。
管理サーバ200のCPU210は、対象のコンシステンシグループがコピーボリュームである場合には(S105の結果が「Yes」)、S103Bの処理と同様に、ペアとなるプール領域の情報を取得する(S106)。そして、処理対象のプール領域の容量とペアとなるプール領域の容量とが同じであるか否かを判定する(S107)。
管理サーバ200のCPU210は、処理対象のプール領域の容量とペアとなるプール領域の容量とが異なる場合には(S107の結果が「No」)、ペアとなるプール領域の容量と同じ容量のプール領域の作成をストレージシステム300に要求する(S108)。なお、処理対象のプール領域の容量とペアとなるプール領域の容量とが同じ場合には(S107の結果が「Yes」)、S109の処理を実行する。
ストレージシステム300のCPU310は、セグメント管理プログラム323が実行されることによって、管理サーバ200から送信されたプール作成要求を受信し、作成するプール領域の容量を取得する。さらに、ストレージシステム300のCPU310は、セグメント管理テーブル321からプール領域が割り当てられていない物理ディスクの総容量を取得し、受信したプール作成要求に基づいて、要求された容量のプール領域の作成が可能か否かを判定する(S110)。
ストレージシステム300のCPU310は、プール作成容量が物理ディスクの空き容量以下であれば(S110の結果が「Yes」)、プール領域の作成が可能であるため、要求されたプール領域を作成する(S111)。具体的には、要求された容量のプール領域を作成し、受信したプール作成要求に基づいて、セグメント管理テーブル321にデータを追加する。
ストレージシステム300のCPU310は、さらに、管理サーバ200にプール作成が成功した旨の通知を送信する(S112)。このとき、ストレージシステム300のCPU310は、管理サーバ200にS111の処理で更新されたセグメント管理テーブル321の更新情報を送信する。
一方、ストレージシステム300のCPU310は、プール作成容量が物理ディスクの空き容量よりも大きければ(S110の結果が「No」)、管理サーバ200にプール領域の作成が失敗した旨の通知を送信する(S113)。
管理サーバ200のCPU210は、ストレージシステム300から、プール作成の結果を受信し、成功したか否かを判定する(S114)。
管理サーバ200のCPU210は、プール作成が成功していれば(S114の結果が「Yes」)、プール管理テーブル223及びボリューム移行管理テーブル242を更新する(S115)。
管理サーバ200のCPU210は、プール作成が失敗していれば(S114の結果が「No」)、管理サーバ200を使用しているユーザに警告を通知し、プール作成処理を終了する。
管理サーバ200のCPU210は、管理対象のすべてのプール領域について、すなわち、プール管理テーブル223に含まれるすべてのPoolIDについて、以上の処理を実行したか否かを判定する(S109)。すべてのPoolIDについて、処理の実行が完了した場合には(S109の結果が「Yes」)、ボリューム移行先プール作成処理を終了する。そうでなければ、未処理のプール領域について以上の処理を実行するために、S101の処理を実行する。
図8は、本発明の実施形態のボリューム移行処理の手順を示すフローチャートである。なお、影付きの枠に囲まれた処理は、ストレージシステムによって実行される処理である。
管理サーバ200のCPU210は、ストレージ管理プログラム221を実行することによって、ボリューム移行管理テーブル224から移行対象のプール領域と取得する(S201)。具体的には、ボリューム移行管理テーブル224から移行対象の装置ID2240を取得し、さらに、LUN2241及び移行先PoolID2242を取得する。
管理サーバ200のCPU210は、S201の処理で取得された装置ID2240に対応するストレージシステム300にボリューム移行要求を送信する(S202)。このとき、管理サーバ200のCPU210は、ストレージシステム300にS201の処理で取得されたLUN2241及び移行先PoolID2242を送信する。
ストレージシステム300のCPU310は、セグメント管理プログラム323を実行することによって、ボリューム移行要求を受信し、移行対象の論理ボリューム及び移行先プール領域のPoolIDを受信する。ストレージシステム300のCPU310は、受信したLUN及びPoolIDに基づいて、セグメント管理テーブル321及び物理論理管理テーブル322を参照し、移行対象の論理ボリュームが移行可能か否かを判定する(S203)。
ストレージシステム300のCPU310は、移行先のプール領域の容量が移行対象の論理ボリュームの容量以上であれば(S203の結果が「Yes」)、ボリューム移行処理を実行する(S204)。
ストレージシステム300のCPU310は、物理論理管理テーブル322から、移行対象の論理ボリュームに割り当てられているセグメントを取得する。取得されたセグメントに格納されているデータを実際に移行する。
ストレージシステム300のCPU310は、物理論理管理テーブル322を参照しながら、各セグメントのデータを移行する。さらに、ストレージシステム300のCPU310は、セグメント管理テーブル321の移行済みセグメント番号の使用状況3215の値を使用中(=1)に変更する。
ストレージシステム300のCPU310は、物理論理管理テーブル322の移行対象の論理ボリュームに割り当てられているセグメントのセグメント番号3221の値を移行前のセグメント番号から移行後のセグメント番号に変更する。ストレージシステム300のCPU310は、セグメント管理テーブル321の移行元データが格納されたセグメントのセグメント番号の使用状況3215を未使用(=0)に変更する。
ストレージシステム300のCPU310は、管理サーバ200にボリューム移行処理が成功した旨の通知を送信する(S205)。
一方、ストレージシステム300のCPU310は、移行先プール領域の容量が移行対象の論理ボリュームの容量よりも小さい場合には(S203の結果が「No」)、管理サーバ200にボリューム移行が失敗した旨の通知を送信する。
管理サーバ200のCPU210は、ストレージシステム300からボリューム移行の実行結果を受信し、ボリューム移行が成功したか否かを判定する(S207)。
管理サーバ200のCPU210は、ボリューム移行に成功した場合には(S207の結果が「Yes」)、プール管理テーブル223及びボリューム移行管理テーブル224を更新する(S208)。具体的には、プール管理テーブル223は、移行が完了した論理ボリュームについて、PoolID2231を移動先のプール領域に更新する。また、ボリューム移行管理テーブル224については、移行が完了した論理ボリュームについて、移行先PoolID2242をクリアし、移行対象から除外する。
一方、管理サーバ200のCPU210は、ボリューム移行に失敗した場合には(S207の結果が「No」)、管理サーバ200を使用しているユーザに警告を通知し、ボリューム移行の処理を終了する。
管理サーバ200のCPU210は、すべての論理ボリュームに対して移行処理が実行されたか否かを判定する(S209)。管理サーバ200のCPU210は、すべての論理ボリュームに対して移行処理が実行された場合には(S209の結果が「Yes」)、ボリューム移行処理を終了する。そうでなければ、未処理の論理ボリュームに対して移行処理を実行するために、S201の処理に戻る。
図9は、本発明の実施形態のプール容量監視及びプール容量追加処理の手順を示すフローチャートである。本処理は、ストレージシステム300の運用中に実行される。なお、影付きの枠に囲まれた処理は、正側のストレージシステムによって実行される処理である。また、二重線の枠に囲まれた処理は、副側のストレージシステムによって実行される処理である。
管理サーバ200のCPU210は、ストレージ管理プログラム221を実行することによって、プール管理テーブル223の正/副2234が正であるPoolID2231及び閾値2232を取得する(S301)。
管理サーバ200のCPU210は、S301の処理で取得されたPoolIDをストレージシステム300に送信する(S302)。
ストレージシステム300のCPU310は、セグメント管理プログラム323を実行することによって、管理サーバ200によって送信されたPoolIDを受信する。そして、セグメント管理テーブル321を参照し、受信したPoolIDによって特定されるプール領域から論理ボリュームに割り当てられている記憶領域の容量を計算し、管理サーバ200に送信する(S303)。
管理サーバ200のCPU210は、ストレージシステム300からプール容量を受信すると、プール管理テーブル223を参照し、受信したプール容量が閾値2232を超えているか否かを判定する(S304)。受信したプール容量が閾値を超えていない場合には(S304の結果が「No」)、S301の処理に戻る。
管理サーバ200のCPU210は、受信したプール容量が閾値を超えていた場合には(S304の結果が「Yes」)、ストレージシステム300に対し、プール容量追加要求を送信する(S305)。このとき、管理サーバ200のCPU210は、S301の処理で取得されたPoolID2231(正)及びペアPoolID2236(副)と、ユーザによって指定されたプール領域に追加する容量とをストレージシステム300に送信する。
ストレージシステム300のCPU310は、S301の処理で取得された正側及び副側のプール領域のPoolIDとプール追加容量を受信すると、指定された容量を正側のプール領域に追加可能であるか否かを判定する(S306)。
ストレージシステム300のCPU310は、指定された容量を正側のプール領域に追加可能である場合には(S306の結果が「Yes」)、指定された容量を正側のプール領域に追加する(S307)。さらに、ストレージシステム300のCPU310は、セグメント管理テーブル321を更新し、プール領域の総容量を計算する。
一方、ストレージシステム300のCPU310は、指定された容量を正側のプール領域に追加できない場合には(S306の結果が「No」)、管理サーバ200に正側のプール領域の容量追加が失敗した旨の通知を送信する。
ストレージシステム300のCPU310は、指定された容量を副側のプール領域に追加可能であるか否かを判定する(S309)。
ストレージシステム300のCPU310は、指定された容量を副側のプール領域に追加可能である場合には(S309の結果が「Yes」)、指定された容量を副側のプール領域に追加する(S310)。ストレージシステム300のCPU310は、さらに、セグメント管理テーブル321を更新し、プール領域の総容量を計算する。
一方、ストレージシステム300のCPU310は、指定された容量を副側のプール領域に追加できない場合には(S309の結果が「No」)、管理サーバ200に副側のプール領域の容量追加が失敗した旨の通知を送信する(S312)。
ストレージシステム300のCPU310は、副側のプール領域の容量追加が完了すると、管理サーバ200にプール容量追加が成功した旨の通知を送信する(S311)。
管理サーバ200のCPU210は、ストレージシステム300からプール容量追加の結果を受信し、プール容量追加が成功したか否かを判定する(S313)。管理サーバ200のCPU210は、プール容量追加が成功した場合には(S313の結果が「Yes」)、プール管理テーブル223を更新し(S314)、S301の処理に戻る。
一方、管理サーバ200のCPU210は、プール容量追加が失敗した場合には(S313の結果が「No」)、管理サーバ200を使用しているユーザに警告を通知し、プール容量監視及びプール容量追加の処理を終了する。
図10は、本発明の実施形態のボリューム作成処理の手順を示すフローチャートである。本処理は、プール領域に論理ボリュームを作成する際に実行される。なお、影付きの枠に囲まれた処理は、ストレージシステムによって実行される処理である。
管理サーバ200のCPU210は、ストレージ管理プログラム221を実行することによって、ユーザから作成を要求された論理ボリュームが属するコンシステンシグループのCTGID及びプール領域のPoolIDを取得する(S401)。
管理サーバ200のCPU210は、プール管理テーブル223を参照し、S401の処理で取得されたPoolIDによって特定されるプール領域に論理ボリュームが作成されていないか否かを判定する(S402)。
管理サーバ200のCPU210は、プール領域に論理ボリュームが作成されていない場合には(S402の結果が「No」)、ストレージシステム300に対し、ボリューム作成要求を送信する。管理サーバ200のCPU210は、ボリューム作成要求を送信するとき、作成対象の論理ボリュームの容量、CTGID及びPoolIDをストレージシステム300に送信する。
一方、管理サーバ200のCPU210は、プール領域に論理ボリュームが作成されている場合には(S402の結果が「Yes」)、プール管理テーブル223を参照し、当該プール領域に作成されている論理ボリュームが属するコンシステンシグループのCTGIDが、S401の処理で取得されたCTGIDと一致するか否かを判定する(S403)。
管理サーバ200のCPU210は、指定されたプール領域に格納されたコンシステンシグループのCTGIDが、S401の処理で取得されたCTGIDと一致する場合には(S403の結果が「Yes」)、ストレージシステム300にボリューム作成要求を送信する。このとき、管理サーバ200のCPU210は、作成対象の論理ボリュームの容量、CTGID及びPoolIDをストレージシステム300に送信する。
一方、管理サーバ200のCPU210は、指定されたプール領域に格納されたコンシステンシグループのCTGIDが、S401の処理で取得されたCTGIDと一致しない場合には(S403の結果が「No」)、管理サーバ200を使用しているユーザに警告を通知し、ボリューム作成処理を終了する。
ストレージシステム300のCPU310は、管理サーバ200からボリューム作成要求を受信すると、ボリューム作成処理を実行する(S404)。さらに、ストレージシステム300のCPU310は、セグメント管理テーブル321及び物理論理管理テーブル322を更新する。そして、ストレージシステム300のCPU310は、ボリューム作成が終了した旨を管理サーバ200に送信する。
管理サーバ200のCPU210は、ストレージシステム300からボリューム作成が終了したことを受信すると、ボリューム管理テーブル222、プール管理テーブル223及びボリューム移行管理テーブル224を更新し(S405)、ボリューム作成処理を終了する。
本発明の実施形態によれば、正側のプール領域を拡張する場合に、副側のプール領域も拡張する。したがって、管理サーバ200がストレージシステム300のプール領域の容量を監視し、プール領域の容量を追加する場合に、監視対象となるプール領域が正側のみに限定することができるため、プール領域の管理負担を削減することができる。
また、本発明の実施形態によれば、ペアボリューム間のデータコピー停止中からデータコピーを再開する場合に、正側のプール領域の容量と副側のプール領域の容量が等しくなる。したがって、データコピーを再開するときに、プール領域の容量を追加する必要がないため、プール領域の容量追加による遅延を生じさせずに、ペアボリューム間のデータコピーを行うことができる。
本発明の実施形態のシステム構成を示す図である。 本発明の実施形態のボリューム管理テーブルの一例を示す図である。 本発明の実施形態のプール管理テーブルの一例を示す図である。 本発明の実施形態のボリューム移行管理テーブルの一例を示す図である。 本発明の実施形態のセグメント管理テーブルの一例を示す図である。 本発明の実施形態の物理論理管理テーブルを示す図である。 本発明の実施形態のボリューム移行先プール作成処理の手順を示すフローチャートである。 本発明の実施形態のボリューム移行処理の手順を示すフローチャートである。 本発明の実施形態のプール容量監視及びプール容量追加処理の手順を示すフローチャートである。 本発明の実施形態のボリューム作成処理の手順を示すフローチャートである。
符号の説明
100、100A ホスト計算機
110、110A ホスト計算機のCPU
120、120A ホスト計算機のメモリ
180、180A ホスト計算機のバス
190、191、190A、191A インタフェース
200、200A 管理サーバ(管理計算機)
210、210A 管理サーバのCPU
220、220A 管理サーバのメモリ
221、221A ストレージ管理プログラム
222 ボリューム管理テーブル
280、280A 管理サーバのバス
290、291、290A、291A インタフェース
300、300A ストレージシステム
305、305A ストレージシステムの制御装置
310 ストレージシステムのCPU
320、320A ストレージシステムのメモリ
321、321A セグメント管理テーブル
322、322A 物理論理管理テーブル
323、323A セグメント管理プログラム
324、324A データ移行プログラム
350、350A 論理ボリューム
361、361A プール領域
380、380A ホスト計算機のバス
390、391、390A、391A インタフェース
510 ローカルエリアネットワーク(LAN)
520、521 管理用ネットワーク(MN)
530 コピー用ネットワーク(CN)
540、541 ストレージエリアネットワーク(SAN)
900 計算機システム

Claims (20)

  1. ストレージシステムと、前記ストレージシステムにネットワークを介して接続されるホスト計算機と、前記ストレージシステム及び前記ホスト計算機にアクセス可能な管理計算機と、を含む計算機システムにおける記憶領域管理方法であって、
    前記ストレージシステムは、前記ネットワークに接続される第1インタフェースと、前記第1インタフェースに接続され、前記第1インタフェースに接続される第1プロセッサと、前記第1プロセッサに接続される第1メモリと、前記ホスト計算機によって読み書きされるデータを格納する記憶装置と、を備え、
    前記管理計算機は、前記ネットワークに接続される第2インタフェースと、前記第2インタフェースに接続される第2プロセッサと、前記第2プロセッサに接続される第2メモリと、を備え、
    前記ストレージシステムは、前記記憶装置によって構成されるプール領域を有し、
    前記プール領域には、データが読み書きされる記憶領域として、前記ホスト計算機に提供される論理ボリュームが作成され、
    前記論理ボリュームは、所定の関係を有する複数の論理ボリュームによって、論理ボリューム集合を構成し、
    前記論理ボリューム集合は、当該論理ボリューム集合が属するプール領域と異なるプール領域に、当該論理ボリューム集合の複製が作成され、
    前記記憶領域管理方法は、
    前記第2プロセッサが、前記プール領域の容量を監視し、
    前記第2プロセッサが、前記プール領域の未使用容量が所定の閾値以下になった場合に、前記プール領域の容量を追加するように前記ストレージシステムに要求し、
    前記第2プロセッサが、前記プール領域に複数の論理ボリューム集合が含まれている場合には、前記プール領域に含まれる複数の論理ボリューム集合ごとにプール領域を作成するように前記ストレージシステムに要求し、
    前記第2プロセッサが、前記作成されたプール領域ごとに、前記プール領域に含まれる複数の論理ボリューム集合をそれぞれ作成するように前記ストレージシステムに要求し、
    前記第2プロセッサが、前記プール領域に一つの論理ボリューム集合が含まれている場合には、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域に関する操作を要求することを特徴とする記憶領域管理方法。
  2. 前記論理ボリューム集合を構成する論理ボリュームは、データの整合性が維持されるように、前記論理ボリューム集合を構成する各論理ボリュームの更新順序が定められていることを特徴とする請求項1に記載の記憶領域管理方法。
  3. 前記論理ボリューム集合の複製は、前記論理ボリューム集合が格納されたストレージシステムとは別のストレージシステムが有するプール領域に作成されることを特徴とする請求項1に記載の記憶領域管理方法。
  4. 前記プール領域に関する操作は、前記一つの論理ボリューム集合が含まれているプール領域の容量と、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域の容量とが一致するように要求することを特徴とする請求項1に記載の記憶領域管理方法。
  5. 前記記憶領域管理方法は、前記プール領域の容量が追加された場合には、前記第2プロセッサが、前記プール領域の容量が追加された第1のプール領域の容量と、前記第1のプール領域に含まれる論理ボリューム集合の複製が作成された第2のプール領域の容量とが一致するように前記ストレージシステムに要求することを特徴とする請求項1に記載の記憶領域管理方法。
  6. 前記記憶領域管理方法は、前記第2プロセッサが、前記第1のプール領域のみを監視することを特徴とする請求項5に記載の記憶領域管理方法。
  7. 前記記憶領域管理方法は、前記プール領域に新たに論理ボリュームを作成する場合に、前記第2プロセッサが、前記プール領域に含まれる論理ボリューム集合に属さない論理ボリュームを前記プール領域に新たに作成することを禁止することを特徴とする請求項1に記載の記憶領域管理方法。
  8. 前記データを格納する記憶装置を備えるストレージシステムと、前記ストレージシステムにネットワークを介して接続されるホスト計算機とに接続され、プロセッサ、メモリ及びインタフェースを備える管理計算機であって、
    前記ストレージシステムは、前記記憶装置によって構成されるプール領域を有し、
    前記プール領域には、データが読み書きされる記憶領域として、前記ホスト計算機に提供される論理ボリュームが作成され、
    前記論理ボリュームは、所定の関係を有する複数の論理ボリュームによって、論理ボリューム集合を構成し、
    前記論理ボリューム集合は、当該論理ボリューム集合が属するプール領域と異なるプール領域に、当該論理ボリューム集合の複製が作成され、
    前記プロセッサは、
    前記プール領域の容量を監視し、
    前記プール領域の未使用容量が所定の閾値以下になった場合に、前記プール領域の容量を追加するように前記ストレージシステムに要求し、
    前記プール領域に複数の論理ボリューム集合が含まれている場合には、前記プール領域に含まれる複数の論理ボリューム集合ごとにプール領域を作成するように前記ストレージシステムに要求し、
    前記作成されたプール領域ごとに、前記プール領域に含まれる複数の論理ボリューム集合をそれぞれ作成するように前記ストレージシステムに要求し、
    前記プール領域に一つの論理ボリューム集合が含まれている場合には、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域に関する操作を要求することを特徴とする管理計算機。
  9. 前記論理ボリューム集合を構成する論理ボリュームは、データの整合性が維持されるように、前記論理ボリューム集合を構成する各論理ボリュームの更新順序が定められていることを特徴とする請求項8に記載の管理計算機。
  10. 前記プール領域に関する操作は、前記一つの論理ボリューム集合が含まれているプール領域の容量と、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域の容量とが一致するように要求することを特徴とする請求項8に記載の管理計算機。
  11. 前記プロセッサは、前記プール領域の容量が追加された場合には、前記記憶領域が追加された第1のプール領域の容量と、前記第1のプール領域に含まれる論理ボリューム集合の複製が作成された第2のプール領域の容量とが一致するように前記ストレージシステムに要求することを特徴とする請求項8に記載の管理計算機。
  12. 前記プロセッサは、前記第1のプール領域のみを監視することを特徴とする請求項11に記載の管理計算機。
  13. 前記プロセッサは、前記プール領域に新たに論理ボリュームを作成する場合に、前記プール領域に含まれる論理ボリューム集合に属さない論理ボリュームを前記プール領域に新たに作成することを禁止することを特徴とする請求項8に記載の管理計算機。
  14. ストレージシステムと、前記ストレージシステムにネットワークを介して接続されるホスト計算機と、前記ストレージシステム及び前記ホスト計算機にアクセス可能な管理計算機と、を含む計算機システムであって、
    前記ストレージシステムは、前記ネットワークに接続される第1インタフェースと、前記第1インタフェースに接続され、前記第1インタフェースに接続される第1プロセッサと、前記第1プロセッサに接続される第1メモリと、前記ホスト計算機によって読み書きされるデータを格納する記憶装置と、を備え、
    前記管理計算機は、前記ネットワークに接続される第2インタフェースと、前記第2インタフェースに接続される第2プロセッサと、前記第2プロセッサに接続される第2メモリと、を備え、
    前記ストレージシステムは、前記記憶装置によって構成されるプール領域を有し、
    前記プール領域には、データが読み書きされる記憶領域として、前記ホスト計算機に提供される論理ボリュームが作成され、
    前記論理ボリュームは、所定の関係を有する複数の論理ボリュームによって、論理ボリューム集合を構成し、
    前記論理ボリューム集合は、当該論理ボリューム集合が属するプール領域と異なるプール領域に、当該論理ボリューム集合の複製が作成され、
    前記第2プロセッサは、
    前記プール領域の容量を監視し、
    前記プール領域の未使用容量が所定の閾値以下になった場合に、前記プール領域の容量を追加するように前記ストレージシステムに要求し、
    前記第1プロセッサは、前記プール領域の容量追加要求に基づいて、前記プール領域の容量を追加し、
    前記第2プロセッサは、前記プール領域に複数の論理ボリューム集合が含まれている場合には、前記プール領域に含まれる複数の論理ボリューム集合ごとにプール領域を作成するように前記ストレージシステムに要求し、
    前記第1プロセッサは、前記プール領域の作成要求に基づいて、前記複数の論理ボリューム集合ごとにプール領域を作成し、
    前記第2プロセッサは、前記作成されたプール領域ごとに、前記プール領域に含まれる複数の論理ボリューム集合をそれぞれ作成するように前記ストレージシステムに要求し、
    前記第1プロセッサは、前記論理ボリューム集合の作成要求に基づいて、前記複数の論理ボリューム集合ごとに作成されたプール領域に、各論理ボリューム集合を作成し、
    前記第2プロセッサは、前記プール領域に一つの前記論理ボリューム集合が含まれている場合には、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域に関する操作を要求することを特徴とする計算機システム。
  15. 前記論理ボリューム集合を構成する論理ボリュームは、データの整合性が維持されるように、前記論理ボリューム集合を構成する各論理ボリュームの更新順序が定められていることを特徴とする請求項14に記載の計算機システム。
  16. 前記論理ボリューム集合の複製は、前記論理ボリューム集合が格納されたストレージシステムとは別のストレージシステムが有するプール領域に作成されることを特徴とする請求項14に記載の計算機システム。
  17. 前記プール領域に関する操作は、前記一つの論理ボリューム集合が含まれているプール領域の容量と、前記プール領域に含まれる一つの前記論理ボリューム集合の複製が作成されたプール領域の容量とが一致するように要求することを特徴とする請求項14に記載の計算機システム。
  18. 前記第2プロセッサは、前記プール領域の容量が追加された場合には、前記記憶領域が追加された第1のプール領域の容量と、前記第1のプール領域に含まれる論理ボリューム集合の複製が作成された第2のプール領域の容量とが一致するように前記ストレージシステムに要求することを特徴とする請求項14に記載の計算機システム。
  19. 前記第2プロセッサは、前記第1のプール領域のみを監視することを特徴とする請求項18に記載の計算機システム。
  20. 前記第2プロセッサは、前記プール領域に新たに論理ボリュームを作成する場合に、前記プール領域に含まれる論理ボリューム集合に属さない論理ボリュームを前記プール領域に新たに作成することを禁止することを特徴とする請求項14に記載の計算機システム。
JP2007044186A 2007-02-23 2007-02-23 ストレージシステムの記憶領域管理方法 Pending JP2008210031A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007044186A JP2008210031A (ja) 2007-02-23 2007-02-23 ストレージシステムの記憶領域管理方法
US11/968,216 US7849264B2 (en) 2007-02-23 2008-01-02 Storage area management method for a storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007044186A JP2008210031A (ja) 2007-02-23 2007-02-23 ストレージシステムの記憶領域管理方法

Publications (1)

Publication Number Publication Date
JP2008210031A true JP2008210031A (ja) 2008-09-11

Family

ID=39733964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007044186A Pending JP2008210031A (ja) 2007-02-23 2007-02-23 ストレージシステムの記憶領域管理方法

Country Status (2)

Country Link
US (1) US7849264B2 (ja)
JP (1) JP2008210031A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232888A (ja) * 2015-07-09 2015-12-24 株式会社日立製作所 ストレージシステム
US9477405B2 (en) 2011-12-21 2016-10-25 Hitachi, Ltd. Storage system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090005122A1 (en) * 2006-07-10 2009-01-01 David Elliot Goldfarb Advertisement-based dialing
US20080208926A1 (en) * 2007-02-22 2008-08-28 Smoot Peter L Data management in a data storage system using data sets
US7953928B2 (en) * 2007-02-22 2011-05-31 Network Appliance, Inc. Apparatus and a method to make data sets conform to data management policies
JP4961411B2 (ja) * 2008-10-16 2012-06-27 株式会社日立製作所 計算機システム及びその構成管理方法
WO2011027388A1 (en) * 2009-09-02 2011-03-10 Hitachi,Ltd. Storage system and control method
WO2012029091A1 (en) * 2010-08-31 2012-03-08 Hitachi, Ltd. Management server and data migration method using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2003A (en) * 1841-03-12 Improvement in horizontal windivhlls
JP4175788B2 (ja) * 2001-07-05 2008-11-05 株式会社日立製作所 ボリューム制御装置
JP2008097502A (ja) * 2006-10-16 2008-04-24 Hitachi Ltd 容量監視方法及び計算機システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9477405B2 (en) 2011-12-21 2016-10-25 Hitachi, Ltd. Storage system
JP2015232888A (ja) * 2015-07-09 2015-12-24 株式会社日立製作所 ストレージシステム

Also Published As

Publication number Publication date
US7849264B2 (en) 2010-12-07
US20080215843A1 (en) 2008-09-04

Similar Documents

Publication Publication Date Title
JP6791834B2 (ja) 記憶システム及び制御ソフトウェア配置方法
JP6437656B2 (ja) ストレージ装置、ストレージシステム、ストレージシステムの制御方法
JP4993928B2 (ja) 記憶システム及び記憶領域解放方法並びにストレージシステム
US7480780B2 (en) Highly available external storage system
JP4341897B2 (ja) 記憶装置システム及びデータ複製方法
JP4551096B2 (ja) ストレージサブシステム
JP5124551B2 (ja) ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
JP6434131B2 (ja) 分散処理システム、タスク処理方法、記憶媒体
JP2008015768A (ja) 記憶システム並びにこれを用いたデータの管理方法
JP2008210031A (ja) ストレージシステムの記憶領域管理方法
US20110225117A1 (en) Management system and data allocation control method for controlling allocation of data in storage system
JP4327831B2 (ja) ストレージシステム、管理計算機及びコピーペア監視方法
US20100036896A1 (en) Computer System and Method of Managing Backup of Data
US20110061049A1 (en) Storage system, and remote copy control method therefor
JP2008065525A (ja) 計算機システム、データ管理方法及び管理計算機
JP2005242403A (ja) 計算機システム
JP2010049634A (ja) ストレージシステム及びストレージシステムにおけるデータ移行方法
JP2007323218A (ja) バックアップシステム
WO2014174570A1 (ja) ストレージ管理計算機、ストレージ管理方法、およびストレージシステム
JP2008269441A (ja) ボリューム割り当て管理装置
JP2009122873A (ja) ストレージシステム間でのリモートコピーを管理する装置
JP2005301499A (ja) ディスクアレイ装置及びディスクアレイ装置の制御方法
US7886186B2 (en) Storage system and management method for the same
WO2018011882A1 (ja) 計算機システム及びストレージ装置の制御方法
JP7036866B2 (ja) 情報処理装置及び方法