JP4700459B2 - データ処理システム及びデータ管理方法並びにストレージシステム - Google Patents

データ処理システム及びデータ管理方法並びにストレージシステム Download PDF

Info

Publication number
JP4700459B2
JP4700459B2 JP2005279741A JP2005279741A JP4700459B2 JP 4700459 B2 JP4700459 B2 JP 4700459B2 JP 2005279741 A JP2005279741 A JP 2005279741A JP 2005279741 A JP2005279741 A JP 2005279741A JP 4700459 B2 JP4700459 B2 JP 4700459B2
Authority
JP
Japan
Prior art keywords
volume
storage area
capacity
host computer
storage system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005279741A
Other languages
English (en)
Other versions
JP2007094505A (ja
Inventor
司 柴山
渡 岡田
幸徳 坂下
友理 平岩
雅英 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005279741A priority Critical patent/JP4700459B2/ja
Priority to US11/281,581 priority patent/US7464232B2/en
Priority to EP06254998A priority patent/EP1770500A3/en
Publication of JP2007094505A publication Critical patent/JP2007094505A/ja
Priority to US12/289,893 priority patent/US7945748B2/en
Priority to US13/096,786 priority patent/US8127094B2/en
Application granted granted Critical
Publication of JP4700459B2 publication Critical patent/JP4700459B2/ja
Priority to US13/359,231 priority patent/US8312235B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Description

本発明は、動的に容量拡張が可能な記憶領域をホスト計算機に提供するデータ処理システム及びデータ管理方法並びにストレージシステムに関するものである。
近年、データの記憶領域をホスト計算機に提供するストレージシステムでは、非常に数多くの大容量物理ディスクを備えることが可能となり、記憶容量の大規模化が進んでいる。このようなストレージシステムでは、まず物理ディスクから、RAID(Redundant Array of Independent Disks)構成されたディスクアレイを作成し、この物理的な記憶リソースを複数個集めて、プール領域を作成しておき、そのプール領域からホスト計算機が要求する容量の記憶領域を論理ボリュームとして作成し、ホスト計算機に提供する。
この場合、ストレージシステムの大規模化に伴い、ホスト計算機が要求する記憶領域のサイズも大規模化しており、ストレージシステムを導入する際に、全容量分である大量の物理ディスクを一度に準備しなければならない。しかしながら、技術の進歩等のため、新しく投入される物理ディスクを追加するほうが信頼性の高いストレージシステムを構築することができる。また、クライアントによっては、準備する容量を決定することができず、物理ディスクをどのくらい準備するかを確定することができない場合がある。
そこで、導入初期から物理ディスクをホスト計算機に提供する全容量分準備せずに、ディスク使用量が容量上限に近づいたときに、必要に応じ物理ディスクを追加し、ホスト計算機に提供する記憶容量を動的に変化させる技術が発明された(例えば、特許文献1参照)。
この技術は、前記のストレージシステムにおいて、プール領域から固定容量の論理ボリュームを作成せずに、まずホスト計算機に仮想的な論理ボリュームを提供する。そして、ホスト計算機からのI/O(Input/Output)に応じて、その仮想的な論理ボリュームに対して、ある単位で記憶領域(以下、この記憶領域の単位をセグメントと呼ぶ)を、物理リソースであるプール領域から動的に割り当てることで動的な容量拡張を実現する。
また、ストレージシステムを用いた運用を続けると、使用頻度の低いデータを信頼性、応答性及び耐久性の高い高価なディスクに保存したままになることがある。この場合、必要以上に高価なディスク容量を使用することになり、高価なディスクを効率的に使用することができないという問題があった。
しかし、米国法規制により電子メールや医療データは、使用頻度が少ない場合であっても、ある一定期間データを保存しなければならない。そのため、高価なディスクから、当該高価なディスクに比して信頼性、応答性及び耐久性の劣る安価なディスクへデータを移行する技術が発明された(例えば、特許文献2、3、4参照)。
データの移行先としては、同一ストレージシステム内の記憶領域や(特許文献2参照)、異なるストレージシステムの記憶領域や(特許文献3参照)、仮想的に1台のストレージシステムとして管理している、異なるストレージシステムの記憶領域がある(特許文献4参照)。また、この技術は、RAIDを構成した1つのディスクアレイに、ホスト計算機からのI/Oが集中した時の負荷分散のために、データを複数のディスクアレイに分散するためにも使用される。
特願2003−015915号公報 特願2000−293317号公報 米国特許第6108748号明細書 特願2003−345522号公報
上記特許文献1によれば、ホスト計算機に割り当てられた仮想的な論理ボリュームの動的な容量拡張は、ホスト計算機から論理ボリュームへのI/O要求が発生したときに、物理リソースであるプール領域の残り容量が存在する限り、特に制限なく行われる。よって、複数のホスト計算機が使用する複数の論理ボリュームに対し、1つのプール領域から動的にセグメントを割り当てる場合、どのホスト計算機からのI/O要求であっても、要求時刻の早いものから順番にプール領域からセグメントを割り当てることになる。
そのため、動的な容量拡張が可能な論理ボリュームに対して、データ移行を実行する場合で、かつ、データ移行先のプール領域を、別のホスト計算機の動的な容量拡張が可能な論理ボリュームが使用していた場合には、データ移行開始時には移行先のプール容量がデータ移行完了のために十分あったとしても、データ移行中に別の論理ボリュームにセグメントが割り当てられ、この結果、移行先のプール領域の容量が不足し、データ移行が失敗するという問題がある。
かかる課題を解決するために本発明の一形態においては、複数の物理ディスクから構成される記憶領域の一部を割り当てることにより動的に容量を拡張可能なボリュームを提供するストレージシステムと、前記ボリュームに対してデータを入出力するホスト計算機と、前記ボリュームを管理する管理サーバとを有するデータ処理システムにおいて、前記管理サーバは、前記ボリュームに割り当てられた前記記憶領域に格納されたデータを他の記憶領域に移行する際に、前記ボリュームを使用している前記ホスト計算機に対して、前記ホスト計算機と前記ボリュームの接続状態を確認する確認部と、前記確認部による確認結果、前記ホスト計算機前記ボリュームが接続されていることが確認された場合には、前記ホスト計算機の要求に応じて予め設定された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量を前記ストレージシステムに送信し、前記ホスト計算機前記ボリュームが接続されていないことが確認された場合には、現時点の前記記憶領域が割り当てられている前記ボリュームの容量を前記ストレージシステムに送信する送信部とを備え、前記ストレージシステムは、前記管理サーバから送信された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量または現時点の前記記憶領域が割り当てられている前記ボリュームの容量を、前記データを移行しようとする前記他の記憶領域に排他的に確保するように予約する予約部を備えるようにした。
また、本発明の他の形態においては、複数の物理ディスクから構成される記憶領域の一部を割り当てることにより動的に拡張可能なボリュームを提供するストレージシステムと、前記ボリュームに対してデータを入出力するホスト計算機と、前記ボリュームを管理する管理サーバとを有するデータ処理システムのデータ管理方法において、前記ボリュームに割り当てられた前記記憶領域に格納されたデータを他の記憶領域に移行する際に、前記ボリュームを使用している前記ホスト計算機に対して、前記ホスト計算機と前記ボリュームの接続状態を確認する第1のステップと、前記第1のステップにおける確認結果に基づいて、前記ホスト計算機前記ボリュームが接続されていることが確認された場合には、前記ホスト計算機の要求に応じて予め設定された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量を前記ストレージシステムに送信し、前記ホスト計算機前記ボリュームが接続されていないことが確認された場合には、現時点の前記記憶領域が割り当てられている前記ボリュームの容量を前記ストレージシステムに送信する第2のステップと、前記第2のステップにおいて送信された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量または現時点の前記記憶領域が割り当てられている前記ボリュームの容量を、前記データを移行しようとする前記他の記憶領域に排他的に確保するように予約する第3のステップを備えるようにした。
さらに、本発明の他の形態においては、複数の物理ディスクから構成される記憶領域の一部を割り当てることにより動的に容量を拡張可能なボリュームに対してデータを入出力するホスト計算機に接続され、前記ホスト計算機に前記ボリュームを提供するストレージシステムにおいて、前記ボリュームに割り当てられた前記記憶領域に格納されたデータを他の記憶領域に移行する際に、前記ボリュームを使用している前記ホスト計算機に対して、前記ホスト計算機と前記ボリュームの接続状態を確認する確認部と、前記確認部の確認結果に基づいて、前記ホスト計算機前記ボリュームが接続されていることが確認された場合には、前記ホスト計算機の要求に応じて予め設定された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量を、前記データを移行しようとする前記他の記憶領域に排他的に確保するように予約し、前記ホスト計算機前記ボリュームが接続されていないことが確認された場合には、現時点の前記記憶領域が割り当てられている前記ボリュームの容量を、前記他の記憶領域に排他的に確保するように予約する予約部を備えるようにした。


従って、他の記憶領域を別のホスト計算機の動的な容量拡張が可能なボリュームが使用していた場合にも、データ移行中に別の論理ボリュームにセグメントが割り当てられるのを防止することができる。
本発明によれば、データ移行の失敗を未然かつ有効に防止する信頼性の高いデータ処理システム及びデータ管理方法並びにストレージシステムを実現できる。
次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。なお、本実施例によって本発明が限定されることはない。
(1)第1実施例
(1−1)システムの構成
図1は、本発明の一実施例としてデータ処理システムの構成を示す説明図である。このデータ処理システム900は、複数のホスト計算機100、管理サーバ200、ストレージシステム300を有している。ホスト計算機100とストレージシステム300はそれぞれストレージエリアネットワーク(Storage Area Network)SAN540に接続されている。ストレージシステム300には、管理用ネットワークMN520を介して管理サーバ200が接続されている。また、ホスト計算機100と管理サーバ200とは、ローカルエリアネットワーク(Local Area Network)LAN510にそれぞれ接続されている。なお、本実施例ではホスト計算機100が2台となっているが、1台又は2台以上であってもよい。また、本実施例では、LAN510と管理ネットワークMN520、SAN540は同一のネットワークであってもよい。さらに、本実施例では、管理サーバ200とストレージシステム300とを、一体に構成したストレージシステムであっても良い。
ホスト計算機100は、CPU(Central Processing Unit)(中央演算処理装置)110、メモリ120、ローカルエリアネットワークLAN510との接続のためのインタフェース190と、ストレージエリアネットワークSAN540との接続のためのインタフェース191と、を有している。これらの各構成要素はバス180を介して互いに接続されている。ホスト計算機100の機能は、CPU110がプログラムを実行することによって実現されている。このホスト計算機100は、例えば、ストレージエリアネットワークSAN540を介して、ストレージシステム300に対してデータの入出力を行うようになされている。
メモリ120は、CPU110が用いるデータとプログラムとを記憶する。特に、メモリ120は、エージェントプログラム121、ボリュームマネージャ122を有している。エージェントプログラム121は、CPU110によって実行されるプログラムであり、ホスト計算機100の情報を管理サーバ200に伝送するプログラムである。ボリュームマネージャ122は、CPU110によって実行されるプログラムであり、ストレージシステム300から提供されるボリュームのマウント、アンマウント処理を実行する。
ホスト計算機100は他に、ホスト計算機のユーザがデータを入力するためのデータ入力装置や、ホスト計算機のユーザに情報を提示する表示装置を有しているが、本特許とは直接関係がないため、図示はしない。
管理サーバ200は、CPU210と、メモリ220と、ローカルエリアネットワークLAN510との接続のためのインタフェース290と、管理用ネットワークMN520との接続のためのインタフェース291と、を有している。これらの各構成要素はバス280を介して互いに接続されている。管理サーバ200の機能は、CPU210がプログラムを実行することによって実現されている。
メモリ220は、CPU210が用いるデータとプログラムとを記憶する。特に、メモリ220は、ストレージ管理プログラム221と、オンオフ管理テーブル222と、ボリューム管理テーブル223と、を有している。ストレージ管理プログラム221は、CPU210によって実行されるプログラムである。
オンオフ管理テーブル222は、図2に示すように、ホスト計算機100がストレージシステム300から提供されるボリュームとの接続状態がオンラインかオフラインかを示すテーブルであり、ホスト計算機を識別するためのホストWWN(World Wide Name)2220、ストレージシステムを識別するための装置ID2221、論理ボリュームの識別番号であるLUN(Logical Unit Number)2222、ホスト計算機100が論理ボリュームに接続されているか否か、すなわち論理ボリュームの接続状態を示すオンラインカラム2223の4つのカラムから構成される。この場合、オンラインのときには、ホスト計算機100が論理ボリュームに接続されており、オフラインのときには、ホスト計算機100が論理ボリュームに接続されていないことを示している。なお、オンラインカラム2223は図の例では「0」がオフライン、「1」がオンラインを表しているが、必ずしもこの方法で表現する必要は無い。
ボリューム管理テーブル223は、図3に示すように論理ボリュームに割り当てられているサイズの情報を示すテーブルであり、ホストWWN2230、装置ID2231、LUN2232、ホスト計算機が予め設定した当該論理ボリュームに割り当てる最大のセグメントサイズを格納するためのホスト要求最大サイズ2233、論理ボリュームに割り当てられているセグメントサイズを格納するための割り当て済みセグメントサイズ2234から構成される。
管理サーバ200は、他に、管理サーバのユーザがデータを入力するためのデータ入力装置や、管理サーバのユーザに情報を提示する表示装置を有しているが、本特許とは直接関係がないため、図示はしない。
ストレージシステム300は、ホスト計算機100にデータ記憶領域を提供する。ストレージシステム300は、制御装置305と、ホスト計算機に提供する仮想的な論理ボリューム350と、仮想的な論理ボリュームにセグメントを割り当てるための物理リソースであるプール領域361、362と、ストレージエリアネットワークSAN540との接続のためのインタフェース390と、管理用ネットワークMN520との接続のためのインタフェース391と、を有している。これらの各構成要素はバス380を介して互いに接続されている。
ここで、複数のハードディスクから構成されるRAID上の論理デバイスを、物理リソースとして用語定義する。また、論理ボリュームとは、1つ以上の物理リソースから構成され、ホスト計算機にデータを格納するための論理的な記憶領域として提供されるボリュームのことを表している。プール領域は複数の物理ディスクから構成される。ホスト計算機から入力されたデータは、プール領域の物理ディスクに格納される。プール領域361、362は図中では2つ存在しているがこの限りではなく、1つ以上あれば良い。
制御装置305は、CPU310と、メモリ320と、を有している。また、メモリ320は、CPU310が種々の処理を実行する際に用いるデータとプログラムと、を記憶する。メモリ320は、セグメント管理テーブル321と、物理論理管理テーブル322と、セグメント管理プログラム323と、データ移行プログラム324と、を有している。各モジュールは、CPU310によって実行されるプログラムである。
セグメント管理テーブル321は、図4に示すように、ボリュームに割り当てられているセグメントの情報を示すテーブルであり、プール領域を識別するためのプールID3210、プール領域内の物理ディスクを識別するディスクID3211、論理ボリュームに割り当てられるセグメントのセグメント番号3212、セグメントのLBA(Logical Block Address)(論理ブロックアドレス)開始アドレス3213、セグメントのLBA終了アドレス3214、ボリューム使用中を表すカラム3215、データ移行のための予約状態を表すカラム3216、予約している論理ボリュームを表すカラム3217の8つのカラムから構成される。ここで、「予約」とは、プール領域の容量を他の論理ボリュームに使用させないように排他的に確保することをいう。セグメントのLBA開始アドレス3213、セグメントのLBA終了アドレス3214で表されるセグメントのサイズは固定値であっても固定値でなくてもよい。
ボリューム使用中を表すカラム3215は図の例では「0」が未使用、「1」が使用中を表しているが、必ずしもこの方法で表現する必要は無い。データ移行のための予約状態を表すカラム3216は、データ移行を実行する前に、データ移行を確実に実行するために、データ移行プログラム324がセグメントを予約するときに、予約状態を表すカラムである。この予約状態を表すカラム3216も図の例では「0」が未予約、「1」が予約中を表しているが、必ずしもこの方法で表現する必要は無い。予約している論理ボリュームを表すカラム3217には、予約状態を表すカラム3216で予約している、データ移行元の装置と論理ボリュームを示す情報を設定する。実際に設定する値は、データ移行元の装置と論理ボリュームを一意に識別できる情報であれば、どのような形態を取ってもよい。
物理論理管理テーブル322は、図5に示すように、LUN3220、セグメント番号3221、LUNのLBA開始アドレス3222、LUNのLBA終了アドレス3223の4つのカラムから構成される。物理論理管理テーブル322は、ホスト計算機100に割り当てられたセグメントと、ホスト計算機が使用している論理ボリュームのLBAを対応させるテーブルである。
セグメント管理プログラム323は、CPU310によって実行されるプログラムであり、ホスト計算機100に提供するボリュームに割り当てるセグメントを管理するプログラムである。データ移行プログラム324は、CPU310によって実行されるプログラムであり、記憶領域間のデータ移行を実行するプログラムである。
ここで、図6に、本実施形態の論理ボリュームの一例を示す。本例では、論理ボリューム3500に対し、第1のプール3610の第1の物理リソース3611、第2の物理リソース3612のセグメントが割当てられている。
この論理ボリューム3500の構成情報は、図5の物理論理管理テーブル320で管理されている。LUN3220には、ホスト計算機100からの当該論理ボリューム3500を識別するための番号として「0」が格納されている。セグメント番号3221には、当該論理ボリュームに割当てられたセグメントの識別番号の「1」及び「3」が格納されている。LUNの開始アドレス3222、LUNの終了アドレス3223には、ホスト計算機100から利用される各領域のアドレスが格納されている。
また、この論理ボリューム3500に割当てている第1のプール3610の物理リソース3611、第2の物理リソース3612のセグメントの情報は、図4のセグメント管理テーブル321で管理されている。プール番号3210には、プールの識別番号として、「0」が格納されている。ディスクID3211には、第1の物理リソース3611、第2の物理リソース3612の識別番号として「0」、「1」が格納されている。セグメント番号3212には、セグメントの識別番号として、「0」から「10」までの値が格納されている。LBA開始アドレス3213、LBA終了アドレス3214には、各セグメントのアドレスが格納されている。使用状況3215には、セグメントが論理ボリュームに割当済か、未割当かの情報が格納されている。本例では、当該論理ボリューム3500へ割当済みのセグメントであるセグメント番号「1」、セグメント番号「3」に対して「割当済」を意味する「1」が格納されている。
本例にて示すように、物理論理管理テーブル322及びセグメント管理テーブル321によって、論理ボリュームの構成情報は管理されている。
(1−2)データ処理手順の説明
図7に各装置間のシーケンスの概要を示す。まずフローS101において、管理サーバ200はデータ移行するための移行元ボリュームとホスト計算機100との接続状態を取得するために、ホスト計算機100に対してボリュームの接続状態を問い合わせる。次にフローS102において、ホスト計算機100は該当ボリュームの接続状態を調査し、その結果を管理サーバ200に送信する。
次にフローS103において、管理サーバ200はホスト計算機100のボリュームの接続状態の結果から、データ移行のために必要な領域を算出し、ストレージシステム300に対して領域予約要求を送信する。
次にフローS104において、ストレージシステム300は管理サーバ200が要求してきたサイズのプール領域を予約する。
次にフローS105において、管理サーバ200はストレージシステム300に対し、該当論理ボリュームのデータ移行要求を出す。最後にフローS106において、ストレージシステムは該当論理ボリュームのデータ移行を実行する。データ移行が終了した後に、未使用の予約領域が残っていた場合は、予約を解除し領域を解放する。以下、各フローを詳細に説明する。
図8にフローS101とフローS102の詳細な手順を示す。ステップS201において、管理サーバ200内のストレージ管理プログラム221がデータ移行を実行するボリュームの使用状態をホスト計算機100に問い合わせる。このときストレージ管理プログラム221はホスト計算機100に対し、該当するボリュームの装置ID、LUNを送信する。
ステップS202において、ホスト計算機100内のボリュームマネージャ122が指定されたボリュームの使用状態を確認する。ホスト計算機100が該当ボリュームをマウントしていればオンライン、マウントしていなければオフラインと判断する。
ステップS203において、ホスト計算機100内のエージェントプログラム121がボリュームマネージャの接続情報の結果を受け、管理サーバ200のストレージ管理プログラム221に対してボリュームの使用状態がオンラインかオフラインかどうかを送信する。
ステップS204において、管理サーバ200はボリュームの接続状態の結果がオンラインかオフラインかどうかを判断する。ボリュームの接続状態がオンラインであればステップS205に進む。オフラインであればステップS206に進む。
ステップS205において、管理サーバ200内のストレージ管理プログラム221はオンオフ管理テーブル222の該当ボリュームの接続状態の該当カラム2223をオンライン(=「1」)に更新する。
ステップS206において、管理サーバ200内のストレージ管理プログラム221はオンオフ管理テーブル222の該当ボリュームの接続状態の該当カラム2223をオフライン(=「0」)に更新する。
次にプール領域の予約を要求するフローS103の詳細を図9に示す。まずステップS301において管理サーバ200はオンオフ管理テーブル222の該当ボリュームの接続状態カラム2223から、該当ボリュームの接続状態を調べる。
ステップS302において、ボリュームの接続状態がオンラインかオフラインかを判断する。ボリュームの使用状態がオンラインであればステップS303に進む。オフラインであればステップS304に進む。
ステップS303において、ストレージ管理プログラム221は、ボリューム管理テーブル223のホスト要求最大サイズを表すカラム2233から予約する領域サイズを確認する。その後ステップS307に進む。
ステップS304において、ストレージ管理プログラム221は、ストレージシステム300に対して、データ移行の該当ボリュームに対して現在割り当てられているサイズを取得する要求を送信する。このときストレージ管理プログラム221はストレージシステム300に対し、該当ボリュームを識別するためのLUNを送信する。
ステップS305において、セグメント管理プログラム323は、物理論理管理テーブル322のLUNのLBA終了アドレス3223から割り当てられているセグメントサイズを確認し、管理サーバ200に割り当て済みセグメントサイズを送信する。
ステップS306において、ストレージ管理プログラム221は、ボリューム管理テーブル223の割り当て済みセグメントサイズのカラム2234の値をセグメント管理プログラム323から送信された値に更新する。
ステップS307において、ストレージ管理プログラム221は、予約するボリュームの領域を確認し、ストレージシステム300に対しプール領域予約要求を送信する。このときストレージ管理プログラム221は、ストレージシステム300に対しデータ移行を行うボリュームのLUNと予約するプール領域のサイズを送信する。
次にプール領域の予約を実行するフローS104の詳細を図10に示す。まずステップS401において、ストレージシステム300はストレージ管理プログラム221から予約するプールサイズとデータ移行を行うLUNを受信する。
ステップS402において、セグメント管理プログラム323は、セグメント管理テーブル321から、管理サーバ200が要求するサイズと、LUNの2つの情報から、現在使用しているプール領域とは別のプールIDを持つプール領域の中で未使用状態のセグメントサイズの和を計算し、ストレージ管理プログラム221からの要求サイズを確保できるかどうかを調査する。
ステップS403において、未使用状態のセグメントサイズの和がストレージ管理プログラム221からの要求サイズ以上であった場合は、要求サイズを確保可能と判断しステップS404へ進む。そうでない場合は要求サイズを確保不可能と判断し、ステップS405へ進む。
ステップS404において、セグメント管理プログラム323は、要求サイズを満たすだけの領域分のセグメントを予約するために、セグメント管理テーブル321のデータ移行のための予約状態を表すカラム3216の要求サイズ分だけ予約中(=「1」)に更新し、さらに、予約されている論理ボリュームを表すカラム3217にデータ移行の該当ボリュームを表す装置ID、LUNを入力する。その後ステップS406において、管理サーバ200に対して、プール領域の予約が成功したことを送信する。
ステップS405において、セグメント管理プログラム323は、管理サーバ200に対して、プール領域の確保が失敗したことを送信する。
ステップS407において、ストレージ管理プログラム221は、プール領域確保の可否を受信し、予約完了したかどうかを判断する。予約が完了していればステップS105へ進む。完了していなければ、データ移行の処理を終了させ、管理サーバ200を使用しているユーザに対し警告を発する。警告を発する方法は、例えば管理サーバ200の表示装置(図示せず)にエラーメッセージを表示させてもよく、管理サーバ200のスピーカ(図示せず)で警告音を鳴らしてもよい。こうすればユーザが適切に対処することが可能となる。
次にデータ移行を要求、実行するフローS105、S106の詳細を図11に示す。ステップS501においてストレージ管理プログラム221は、ストレージシステム300に対し、該当ボリュームのデータ移行要求を送信する。このときストレージ管理プログラム221はストレージシステム300に対し、LUNを送信する。
ステップS502において、データ移行プログラム324は、物理論理管理テーブル322から、該当ボリュームに割り当てられているセグメントを確認する。実際に移行するデータはこのセグメントのデータのみである。
ステップS503において、データ移行プログラム324は、物理論理管理テーブルを参照しながら、各セグメントに対しデータ移行を実行する。
ステップS504において、セグメント管理プログラム323は、セグメント管理テーブル321の移行済みセグメント番号の使用状況カラム3215を使用中(=「1」)に変更する。
ステップS505において、データ移行プログラム324は、物理論理管理テーブル322の該当ボリュームに割り当てられているセグメント番号カラム3221の値を移行前のセグメントの値から移行後のセグメントの値に変更する。
ステップS506において、セグメント管理プログラム323は、セグメント管理テーブル321の移行元データのあったセグメントのセグメント番号の使用状況カラム3215を未使用(=「0」)に変更する。ステップS505からステップS506に進む間に、ホスト計算機100から該当セグメントにアクセスがあった場合は、CPU310はホスト計算機100に対して移行後のセグメントのデータを提供する。
ステップS507において、データ移行プログラム324は、該当論理ボリュームの全てのデータ移行が完了したかどうかを調べる。全て完了していればステップS508へ進む。全データの移行が完了していない場合はS503へ戻る。
ステップS508において、セグメント管理プログラム323は、セグメント管理テーブル321の該当ボリュームに対する予約状況カラム3216と予約論理ボリュームカラム3217の値を「1」から「0」へ変更する。これにより該当ボリュームのデータ移行のための予約が解除され、セグメントの解放が実行される。
ステップS509において、データ移行プログラム324は、管理サーバ200に対し、データ移行が完了したことを送信する。
上記のように、本実施例では、ストレージシステム300が有するメモリ320内に、動的に論理ボリュームに割り当てられるセグメントを管理するセグメント管理テーブル321、割り当てられたセグメントと論理ボリュームのアドレスの対応関係を示す物理論理管理テーブル322、前記セグメントの管理を行うセグメント管理プログラム323、またデータ移行を実行するデータ移行プログラム324を備える。
また、管理サーバ200が有するメモリ220内に、ホスト計算機とボリュームの接続関係を示すオンオフ管理テーブル221、ホストが要求する最大ボリューム容量を示すボリューム管理テーブル222、及び、ストレージシステムのボリュームの管理を行うボリューム管理プログラム223を備える。
そしてフローS101、S102、S103、S104、S105、S106を実行することで、動的な容量拡張が可能な論理ボリュームのデータ移行時における移行先領域の予約、解放が可能となり、データ移行時の失敗を防ぐことが実現可能となる。
具体的に、本実施の形態では、ホスト計算機に提供した仮想的な論理ボリュームに、ホスト計算機からのI/O要求に応じて物理リソースを割り当てることで、ボリュームの動的な領域拡張が可能な機能を有するストレージシステムにおいて、管理サーバはデータ移行実行の前にホスト計算機とホスト計算機に割り当てられているボリュームの接続関係を調べる。管理サーバにはホスト計算機とボリュームの接続関係を示すオンオフ管理テーブル、ホストが要求する最大ボリューム容量を示すボリューム管理テーブル、及び、ストレージシステムのボリュームの管理を行うボリューム管理プログラムを搭載する。ストレージシステムは動的に論理ボリュームに割り当てられるセグメントを管理するセグメント管理テーブル、割り当てられたセグメントと論理ボリュームのアドレスの対応関係を示す物理論理管理テーブル、前記セグメントの管理を行うセグメント管理プログラム、またデータ移行を実行するデータ移行プログラムを搭載する。
前記オンオフ管理テーブルにおいてデータ移行を行う該当論理ボリュームの状態がオフラインのときは、ストレージシステムに対し現在該当論理ボリュームに割り当てられているセグメントサイズの総容量を問い合わせ、そのサイズ分だけ移行先のプール領域を予約する。前記オンオフ管理テーブルにおいてデータ移行を行う該当論理ボリュームの状態がオンラインのときは、ボリューム管理テーブルのホスト要求最大サイズに基づき、ホストが要求するサイズ分だけデータ移行先のプール領域を予約する。容量不足等の原因で、予約が完了しない場合はストレージシステムは管理サーバに対して警告を発する。
予約が完了するとデータ移行処理を実行する。データ移行はセグメントごとに実行し、該当論理ボリュームに割り当てられているデータのみ移行する。データ移行実行後に予約していた領域で未使用の領域があれば予約を解除し、予約していたプール領域を解放する。
(2)第2実施例
(2−1)システムの構成
図12は、第2実施例におけるデータ処理システム900bの構成を示す説明図である。このデータ処理システム900bは、複数のホスト計算機100、管理サーバ200、ストレージシステム300b及び外部ストレージシステム400を有している。本構成の大部分は第1実施例の構成と同等であるため、以降は差分のみを説明する。
図1に示すデータ処理システム900との差異は、外部ストレージシステム400が存在すること、ストレージシステム300bにおける制御装置305b内のメモリ320bが外部ボリューム管理テーブル325及び外部ボリューム管理テーブル326を有していること、ストレージシステム300bが外部ストレージシステム400と接続するためのインタフェース392を有していること、プール領域362bを構成する記憶領域が外部ストレージシステム400の記憶領域を仮想的にマッピングしたものであること、管理サーバのインタフェース291bが管理用ネットワークMN520を介して、ストレージシステム300b、外部ストレージシステム400と接続していること、である。
また、図12ではSAN540の内部にスイッチ500が明記されている。これはホスト計算機100とストレージシステム300bの接続と、ストレージシステム300bと外部ストレージシステム400との接続を明確に区別するためである。
本実施例では、外部ストレージシステム400が1台となっているが、複数台あってもよい。また、ローカルエリアネットワークLAN510、管理用ネットワークMN520、ストレージエリアネットワークSAN540は同一のネットワークであってもよい。
外部ストレージシステム400は、ストレージシステム300bの外部記憶装置として機能する。外部記憶装置とはストレージシステムと接続し、ストレージシステムが仮想的なボリュームを保持する場合の記憶領域を保持する記憶装置である。外部ストレージシステム400は、制御装置405と、論理ボリューム450と、ストレージエリアネットワークSAN540との接続のためのインタフェース490と、管理用ネットワークMN520との接続のためのインタフェース491と、を有している。これらの各構成要素はバス480を介して互いに接続されている。
制御装置405は、CPU410と、メモリ420と、を有している。また、メモリ420は、CPU410が種々の処理を実行する際に用いるデータとプログラムとを記憶する。
ストレージシステム300bにおいて、図1のストレージシステム300との相違点は、外部ボリューム管理テーブル325及び外部ボリューム管理テーブル326が存在すること、外部ストレージシステム接続用のインタフェース392を有すること、プール領域362bを構成する記憶領域が外部ストレージシステム400の記憶領域を仮想的にマッピングしたものであること、である。
外部ボリューム管理テーブル325は、外部ストレージシステム400のどの記憶領域がストレージシステム300bのプール領域362bのディスクIDに対応するかを示すテーブルである。ボリューム管理テーブル325は、ストレージシステム300bのディスクID3250、ストレージシステム300bが外部ストレージシステム400と接続するポートの識別子である外部ポートWWN392を表すカラム3251、外部ストレージシステムを表す装置ID3252、外部論理ボリュームのLUNを表すカラム3253の4つのカラムで構成される。
外部ボリューム管理プログラム326は、CPU310によって実行されるプログラムであり、外部ストレージシステム400の論理ボリューム450を、プール領域362bを構成する記憶領域とするための管理プログラムである。
(2−2)データ処理手順の説明
本実施例の動作の大部分は第1実施例の動作と同じであるため、以降は差分のみを説明する。本実施例では、データ移行を実行する手順(図7のシーケンス)の前に、外部ストレージシステム400の論理ボリューム450をストレージシステム300bのプール領域の記憶領域として使用可能なように準備しておく必要がある。
図14に外部ボリューム450をストレージシステム300bのプール領域362bとしてマッピングする手順を示す。まず、ステップS601において、管理サーバ200はストレージシステム300bに対し、外部ボリューム450をプール領域362bとしてマッピングするための要求を送信する。このときボリューム管理プログラム223はストレージシステム300bに対し、外部ストレージシステム400の装置ID、外部ストレージシステム400でマッピングするボリュームのLUN、外部ストレージシステムと接続する、ストレージシステム300bの外部接続用ポートのポートWWNを送信する。
ステップS602において、外部ボリューム管理プログラム326は指定されたボリュームがストレージシステム300bと接続可能かをストレージシステム400に対して確認する。
ステップS603において、外部ストレージシステム400はストレージシステム300bと接続可能か確認する。接続可能な場合はステップS604においてストレージシステム300に対し、接続可能を通知し、ステップS606へ進む。接続不可能な場合は、ステップS605において、管理サーバ200に対して外部ボリュームマッピング不可能を通知する。マッピング不可能を通知する方法は、例えば管理サーバ200の表示装置(図示せず)にエラーメッセージを表示させてもよく、管理サーバ200のスピーカ(図示せず)で警告音を鳴らしてもよい。こうすればユーザが適切に対処することが可能となる。
ステップS606において、外部ボリューム管理プログラム326は外部ボリューム管理テーブル325の外部ポートWWNカラム3251、装置IDカラム3252、外部論理ボリュームのLUNカラム3253に、管理サーバ200が指定した値を設定する。
ステップS607において、外部ボリューム管理プログラム326は、セグメント管理テーブル321から未使用のディスクIDを取得し、外部ボリューム管理テーブル325のディスクIDカラム3250に値を設定する。
ステップS608において、外部ボリューム管理プログラム326は、セグメント管理テーブル321のディスクIDカラム3211、プールIDカラム3210に、前記ディスクID、未使用のプールIDを設定し、さらに容量に適したセグメント番号を付与し、セグメント番号カラム3212に値を設定し、セグメント管理テーブル321を更新する。
ステップS609において、外部ボリューム管理プログラム326は、管理サーバ200に対し、外部ボリュームマッピング完了を通知する。この処理以降は通常の運用を開始する。後にデータ移行を行う場合の手順は、第1実施例の図7のシーケンスと同じである。
上記の処理を行うことで、動的な容量拡張が可能な論理ボリュームにセグメントを割り当てるためのプール領域を保持するストレージシステムと、そのストレージシステムに接続しており、前記プール領域を有する外部ストレージシステムとの間の、データ移行時における移行先領域の予約、解放が可能となり、データ移行時の失敗を防ぐことが実現可能となる。
(3)第3実施例
(3−1)システムの構成
図15は第3実施例におけるデータ処理システム900cの構成を示す説明図である。このデータ処理システム900cは、複数のホスト計算機100、管理サーバ200、ストレージシステム300cを有している。本構成の大部分は第1実施例の構成と同等であるため、以降は差分のみを説明する。図1に示すデータ処理システム900との差異は、ストレージシステム300cにおけるメモリ320cがデータ移行プログラム324を保持せずに、ボリュームコピープログラム327を有していることである。
(3−2)データ処理手順の説明
本実施例の動作の大部分は第1実施例の動作と同じであるため、以降は差分のみを説明する。異なる処理は第1実施例の図7における手順のうち、データ移行実行要求S105及びデータ移行実行S106の部分が、ボリュームコピー実行要求SS105及びボリュームコピー実行SS106に変更する点である。
図16に第3実施例におけるボリュームコピーの処理手順(フローSS105、フローSS106)を示す。まず、ステップS701において、管理サーバ200は、ストレージシステム300に対し該当論理ボリュームのボリュームコピー命令を送信する。このとき管理サーバ200はストレージシステム300に対し、コピーを実行する論理ボリュームのLUNを送信する。
ステップS702において、ボリュームコピープログラム327は、コピーするデータを確認するために、物理論理管理テーブル322から該当論理ボリュームに割り当てられているセグメントを調べる。
ステップS703において、ボリュームコピープログラム327は、各セグメントごとにデータコピーを実行する。コピー先のプール領域はステップS404で予約した領域である。
ステップS704において、セグメント管理プログラム323は、セグメント管理テーブル321中のコピー済みのセグメントのセグメント番号を使用中(=「1」)に変更する。
ステップS705において、セグメント管理プログラム323は、物理論理管理テーブル322の該当論理ボリュームに割り当てたセグメント番号を追加する。
ステップS706において、セグメント管理プログラム323は、セグメント管理テーブル321中のコピー済のセグメントの予約状況を未予約(=「0」)に変更する。
ステップS707において、ボリュームコピープログラム327は、該当論理ボリュームの全てのデータのコピーが完了したかどうかを調べる。全て完了していれば、ステップS708へ進む。全データのコピーが完了していなければ、ステップS703へ戻る。
ステップS708において、ボリュームコピープログラム327は、管理サーバ200に対して、ボリュームコピーが完了したことを送信する。
上記処理によって、動的な容量拡張が可能な論理ボリュームにセグメントを割り当てるための、複数のプール領域間のデータコピー時におけるコピー先領域の予約が可能となり、データコピー時の失敗を防ぐことが実現可能となる。
(4)第4実施例
(4−1)システムの構成
図17は第4実施例におけるデータ処理システム900dの構成を示す説明図である。このデータ処理システム900dは、複数のホスト計算機100、管理サーバ200、ストレージシステム300d及び外部ストレージシステム400を有している。本構成の大部分は第2実施例の構成と同等であるため、以降は差分のみを説明する。図12に示すデータ処理システム900bとの差異は、ストレージシステム300bにおけるメモリ320bがデータ移行プログラム324を保持せずに、ボリュームコピープログラム327を有していることである。
(4−2)データ処理手順の説明
本実施例の動作は第2実施例及び第3実施例の動作の組み合わせで実現される。以降はその組み合わせの手順を説明する。始めに外部ストレージシステム400の論理ボリュームをストレージシステム300dのプール領域の記憶領域とするために、外部論理ボリュームのマッピングを行う(図14のステップS601からステップS609の処理)。次にホスト計算機100と論理ボリュームの接続状態を確認する(図7のステップS101、ステップS102.詳細な手順は図8のステップS201からステップS205)。次にデータコピー実行前にプール領域の予約を行う(図7のステップS103、ステップS104.詳細な手順は図9及び図10のステップS301からステップS307及び図10のステップS401からステップS407)。その後ボリュームのコピーを実行する(図16のS701からステップS708)。以上の手順で処理を実現する。
(5)第5実施例:
(5−1)システムの構成
図18は、第5実施例におけるデータ処理システム900eの構成を示す説明図である。このデータ処理システム900eは、複数のホスト計算機100、100e、管理サーバ200、200e、ストレージシステム300、600を有している。ホスト計算機100とストレージシステム300はそれぞれストレージエリアネットワークSAN540に接続されている。ストレージシステム300には、管理用ネットワークMN520を介して管理サーバ200が接続されている。また、ホスト計算機100と管理サーバ200とのそれぞれは、LAN510に接続されている。
また、ホスト計算機100eとストレージシステム600はそれぞれストレージエリアネットワークSAN541に接続されている。ストレージシステム600には、管理用ネットワークMN521を介して管理サーバ200eが接続されている。また、ホスト計算機100eと管理サーバ200eとのそれぞれは、LAN510に接続されている。さらにストレージシステム300とストレージシステム600はデータコピー用のネットワークCN530で接続されている。
本実施例ではストレージシステム300に接続しているホスト計算機100が1台となっているが、複数台あってもよい。また、ストレージシステム600に接続しているホスト計算機100eが1台となっているが複数台あってもよい。また、SAN540とSAN541は1つのネットワークであってもよく、LAN510、管理ネットワークMN520、MN521、コピー用ネットワークCN530、ストレージエリアネットワークSAN540、541は同一のネットワークであってもよい。また、管理サーバ200、200eは1台のみでストレージシステム300、600と接続しても良い。
本データ処理システムを構成する各装置は基本的に第1実施例を構成する装置と同様であるため、以降は差分のみを説明する。図1に示すデータ処理システム900が有する各装置との差異は、ストレージシステム300がストレージシステム600とデータコピー用ネットワークCN530で接続されていること、である。ホスト計算機100、管理サーバ200、ストレージシステム300の接続関係は第1実施例と同様である。
ホスト計算機100eはCPU110e、メモリ120e、ローカルエリアネットワークLAN510との接続のためのインタフェース190eと、ストレージエリアネットワークSAN541との接続のためのインタフェース191eと、を有している。これらの各構成要素はバス180eを介して互いに接続されている。ホスト計算機100eの機能は、CPU110eがプログラムを実行することによって実現されている。メモリ120eは、CPU110eが用いるデータとプログラムとを記憶する。
ホスト計算機100eは他に、ホスト計算機のユーザがデータを入力するためのデータ入力装置や、ホスト計算機のユーザに情報を提示する表示装置を有しているが、本特許とは直接関係がないため、図示はしない。
管理サーバ200eは、CPU210eと、メモリ220eと、ローカルエリアネットワークLAN510との接続のためのインタフェース290eと、管理用ネットワークMN521との接続のためのインタフェース291eと、を有している。これらの各構成要素はバス280eを介して互いに接続されている。管理サーバ200eの機能は、CPU210がプログラムを実行することによって実現されている。
メモリ220は、CPU210が用いるデータとプログラムとを記憶する。特に、メモリ220は、ストレージ管理プログラム221eを有している。ストレージ管理プログラム221eは、CPU210eによって実行されるプログラムである。
管理サーバ200eは、他に、管理サーバのユーザがデータを入力するためのデータ入力装置や、管理サーバのユーザに情報を提示する表示装置を有しているが、本特許とは直接関係がないため、図示はしない。
(5−2)データ処理手順の説明
図19に各装置間のシーケンスの概要を示す。まずフローS111において、管理サーバ200はデータ移行するための移行元ボリュームとホスト計算機100との接続状態を取得するために、ホスト計算機100に対してボリュームの接続状態を問い合わせる。次にフローS112において、ホスト計算機100は該当ボリュームの接続状態を調査し、その結果を管理サーバ200に送信する。
次にフローS113において、管理サーバ200はホスト計算機100のボリュームの接続状態の結果から、データ移行のために必要な領域を算出し、ストレージシステム600に対して領域予約要求を送信する。
次にフローS114において、ストレージシステム600は管理サーバ200が要求してきたサイズのプール領域を予約する。
次にフローS115において、管理サーバ200はストレージシステム300及びストレージシステム600に対し、該当論理ボリュームのデータ移行要求を出す。最後にフローS116において、ストレージシステムは該当論理ボリュームのデータ移行を実行する。データ移行が終了した後に、未使用の予約領域が残っていた場合は、予約を解除し領域を解放する。以下、各フローを詳細に説明する。但し、フローS111とフローS112は図7のフローS101とフローS102と同様であるため説明は省略する。
次にプール領域の予約を要求するフローS113の詳細を図20に示す。まずステップS801において管理サーバ200はオンオフ管理テーブル222の該当ボリュームの接続状態カラム2223から、該当ボリュームの接続状態を調べる。
ステップS802において、ボリュームの接続状態がオンラインかオフラインかを判断する。ボリュームの使用状態がオンラインであればステップS803に進む。オフラインであればステップS804に進む。
ステップS803において、ストレージ管理プログラム221は、ボリューム管理テーブル223のホスト要求最大サイズカラム2233から予約する領域サイズを確認する。その後ステップS807に進む。
ステップS804において、ストレージ管理プログラム221は、ストレージシステム300に対して、データ移行の該当ボリュームに対して現在割り当てられているサイズを要求する。このときストレージ管理プログラム221はストレージシステム300に対しLUNを提供する。
ステップS805において、セグメント管理プログラム323は、物理論理管理テーブル322のLUNのLBA終了アドレス3223から割り当てられているセグメントサイズを確認し、管理サーバ200に割り当て済みセグメントサイズを送信する。
ステップS806において、ストレージ管理プログラム221は、ボリューム管理テーブル223の割り当て済みセグメントサイズのカラム2234の値をセグメント管理プログラム323から送信された値に更新する。
ステップS807において、ストレージ管理プログラム221は、予約するボリュームの領域を確認し、ストレージシステム600に対しプール領域予約要求を送信する。このときストレージ管理プログラム221は、ストレージシステム600に対しデータ移行を行うボリュームの装置ID、LUN及び予約するプール領域のサイズを送信する。
次にプール領域の予約を実行するフローS114の詳細を図21に示す。まずステップS901において、ストレージシステム600はストレージ管理プログラム221から予約するプールサイズとデータ移行を行う装置ID、LUNを受信する。
ステップS902において、セグメント管理プログラム623は、セグメント管理テーブル621から、管理サーバ200が要求するサイズと、LUNの2つの情報から、現在使用しているプール領域とは別のプールIDを持つプール領域の中で未使用状態のセグメントサイズの和を計算し、ストレージ管理プログラム221からの要求サイズを確保できるかどうかを調査する。
ステップS903において、未使用状態のセグメントサイズの和がストレージ管理プログラム221からの要求サイズ以上であった場合は、要求サイズを確保可能と判断しステップS904へ進む。そうでない場合は要求サイズを確保不可能と判断し、ステップS905へ進む。
ステップS904において、セグメント管理プログラム623は、要求サイズを満たすだけの領域分のセグメントを予約するために、セグメント管理テーブル621のデータ移行のための予約状態を表すカラム3216の要求サイズ分だけ予約中(=「1」)に更新し、さらに、予約されている論理ボリュームを表すカラム3217にデータ移行の該当ボリュームを表す装置ID、LUNを入力する。その後ステップS906において、管理サーバ200に対して、プール領域の予約が成功したことを送信する。
ステップS905において、セグメント管理プログラム623は、管理サーバ200に対して、プール領域の確保が失敗したことを送信する。
ステップS907において、ストレージ管理プログラム221は、プール領域の確保の可否を受信し、予約完了したかどうかを判断する。予約が完了していればステップS115へ進む。完了していなければ、データ移行の処理を終了させ、管理サーバ200を使用しているユーザに対し警告を発する。警告を発する方法は、例えば管理サーバ200の表示装置(図示せず)にエラーメッセージを表示させてもよく、管理サーバ200のスピーカ(図示せず)で警告音を鳴らしてもよい。こうすればユーザが適切に対処することが可能となる。
次にデータ移行を要求、実行するフローS115、S116を図22に示す。ステップS1001においてストレージ管理プログラム221は、ストレージシステム300及びストレージシステム600に対し、該当ボリュームのデータ移行要求を送信する。このときストレージ管理プログラム221はストレージシステム300に対し、LUNを送信する。
ステップS1002において、データ移行プログラム324は、物理論理管理テーブル322から、該当ボリュームに割り当てられているセグメントを確認する。実際に移行するデータはこのセグメントのデータのみである。
ステップS1003において、データ移行を開始する。データ移行の詳細は図23、ステップS117で説明する。
ステップS1004において、データ移行が正常終了したかを調べる。データ移行が全て正常終了していればステップS1006へ進む。移行が完了していない場合はS1005へ進みデータ移行の処理を終了させ、管理サーバ200を使用しているユーザに対し警告を発する。警告を発する方法は、例えば管理サーバ200の表示装置(図示せず)にエラーメッセージを表示させてもよく、管理サーバ200のスピーカ(図示せず)で警告音を鳴らしてもよい。こうすればユーザが適切に対処することが可能となる。
ステップS1006において、セグメント管理プログラム623は、セグメント管理テーブル621の該当ボリュームに対する予約中カラム3216と予約論理ボリュームカラム3217の値を「1」から「0」へ変更する。これにより該当ボリュームのデータ移行のための予約が解除され、セグメントの解放が実行される。ステップS1007において、データ移行プログラム624は、管理サーバ200に対し、データ移行が完了したことを送信する。
次にデータ移行時の各ストレージシステムが有するテーブルの更新方法を説明する。図23に示すように、ステップS1101において、ストレージシステム300のデータ移行プログラム324は、各セグメントをストレージシステム600へコピーする。
ステップS1102において、ストレージシステム600のデータ移行プログラム624はセグメント管理テーブル621の移行済みセグメント番号の使用中カラム3215を使用中(=「1」)に変更する。
ステップS1103において、データ移行プログラム624は、物理論理管理テーブル622の該当ボリュームに割り当てられているセグメント番号カラム3221の値を移行前のセグメントの値から移行後のセグメントの値に変更する。
ステップS1104において、セグメント管理プログラム323は、セグメント管理テーブル321の移行元データのあったセグメントのセグメント番号の使用中カラム3215を未使用(=「0」)に変更する。
ステップS1105において、データ移行プログラム324は、該当論理ボリュームの全てのデータ移行が完了したかどうかを調べる。全て完了していればステップS116へ進む。全データの移行が完了していない場合はS1101へ戻る。
上記のように、第5実施例では、複数のストレージシステムが有するメモリ内に、動的に論理ボリュームに割り当てられるセグメントを管理するセグメント管理テーブル、割り当てられたセグメントと論理ボリュームのアドレスの対応関係を示す物理論理管理テーブル、前記セグメントの管理を行うセグメント管理プログラム、またデータ移行を実行するデータ移行プログラムを備える。
また、管理サーバが有するメモリ内に、ホスト計算機とボリュームの接続関係を示すオンオフ管理テーブル、ホストが要求する最大ボリューム容量を示すボリューム管理テーブル、及び、ストレージシステムのボリュームの管理を行うボリューム管理プログラムを備える。
そしてフローS111、S112、S113、S114、S115、S116を実行することで、動的な容量拡張が可能な論理ボリュームの異なるストレージシステム間のデータ移行時における移行先領域の予約、解放が可能となり、データ移行時の失敗を防ぐことが実現可能となる。
(6)第6実施例
(6−1)システムの構成
図24は第6実施例におけるデータ処理システム900fの構成を示す説明図である。このデータ処理システム900fは、複数のホスト計算機100、100e、管理サーバ200、200e、ストレージシステム300f、600fを有している。本構成の大部分は第5実施例の構成と同等であるため、以降は差分のみを説明する。図18に示すデータ処理システム900eとの差異は、ストレージシステム300fにおけるメモリ320fがデータ移行プログラム324を保持せずに、ボリュームコピープログラム327を有していることである。
(6−2)データ処理手順の説明
本実施例の動作の大部分は第5実施例の動作と同じであるため、以降は差分のみを説明する。異なる処理は第5実施例の図19における手順のうち、データ移行実行要求S115及びデータ移行実行S116の部分が、ボリュームコピー実行要求SS115及びボリュームコピー実行SS116に変更する点である。
図25に第6実施例におけるボリュームコピーの処理手順(フローSS115、フローSS116)を示す。まず、ステップS1201において、管理サーバ200は、ストレージシステム300に対し該当論理ボリュームのボリュームコピー命令を送信する。このとき管理サーバ200はストレージシステム300に対し、コピーを実行する論理ボリュームの装置ID、LUNを送信する。
ステップS1202において、ボリュームコピープログラム327は、コピーするデータを確認するために、物理論理管理テーブル322から該当論理ボリュームに割り当てられているセグメントを調べる。
ステップS1203において、データコピーを開始する。データコピーの詳細は図26、ステップSS117で説明する。コピー先のプール領域はステップS904で予約した領域である。
ステップS1204において、データコピーが正常終了したかを調べる。データコピーが全て正常終了していればステップS1206へ進む。コピーが完了していない場合はS1205へ進みデータ移行の処理を終了させ、管理サーバ200を使用しているユーザに対し警告を発する。警告を発する方法は、例えば管理サーバ200の表示装置(図示せず)にエラーメッセージを表示させてもよく、管理サーバ200のスピーカ(図示せず)で警告音を鳴らしてもよい。こうすればユーザが適切に対処することが可能となる。
ステップS1206において、ボリュームコピープログラム327は、管理サーバ200に対して、ボリュームコピーが完了したことを送信する。
次にデータコピー時の各ストレージシステムが有するテーブルの更新方法を説明する。図26に示すように、ステップS1301において、ストレージシステム300のデータ移行プログラム324は、各セグメントをストレージシステム600へコピーする。
ステップS1302において、ストレージシステム600のボリュームコピープログラム627fはセグメント管理テーブル621の移行済みセグメント番号の使用中カラム3215を使用中(=「1」)に変更する。
ステップS1303において、ボリュームコピープログラム627fは、物理論理管理テーブル622の該当ボリュームに割り当てられているセグメント番号カラム3221を追加する。
ステップS1304において、ボリュームコピープログラム327fは、該当論理ボリュームの全てのデータコピーが完了したかどうかを調べる。全て完了していればステップSS116へ進む。全データのコピーが完了していない場合はS1301へ戻る。
上記処理によって、異なるストレージシステム間で、動的な容量拡張が可能な論理ボリュームのデータコピー時における、コピー先記憶領域の予約が可能となりデータコピー時の失敗を防ぐことが実現可能となる。
実施例1におけるシステム構成を示す図である。 実施例1におけるオンオフ管理テーブルの一例を示す図である。 実施例1におけるボリューム管理テーブルの一例を示す図である。 実施例1におけるセグメント管理テーブルの一例を示す図である。 実施例1における物理論理管理テーブルの一例を示す図である。 実施例1における論理ボリュームとセグメント管理テーブル、物理論理管理テーブルの関係を示す図である。 実施例1における各装置間の動作のシーケンスの概要を示す図である。 実施例1におけるホスト計算機のボリューム接続状態を確認する手順を示す図である。 実施例1における管理サーバからストレージシステムへプール領域の予約命令を送信する手順を示す図である。 実施例1におけるストレージシステムによるプール領域の予約手順を示す図である。 実施例1におけるデータ移行の手順を示す図である。 実施例2におけるシステム構成を示す図である。 実施例2における外部ボリューム管理テーブルの一例を示す図である。 実施例2における外部ボリュームをプール領域の記憶領域にマッピングする手順を示す図である。 実施例3におけるシステム構成を示す図である。 実施例3におけるボリュームコピーの処理手順を示す図である。 実施例4におけるシステム構成を示す図である。 実施例5におけるシステム構成を示す図である。 実施例5における各装置間の動作のシーケンスの概要を示す図である。 実施例5における管理サーバからストレージシステムへプール領域の予約命令を送信する手順を示す図である。 実施例5におけるストレージシステムによるプール領域の予約手順を示す図である。 実施例5におけるデータ移行の手順を示す図である。 実施例5におけるデータ移行時の、各ストレージシステムが有するテーブル更新手順を示す図である。 実施例6におけるシステム構成を示す図である。 実施例6におけるボリュームコピーの処理手順を示す図である。 実施例6におけるデータコピー時の、各ストレージシステムが有するテーブル更新手順を示す図である。
符号の説明
100、100e……ホスト計算機、110、100e……ホスト計算機のCPU、120、120e……ホスト計算機のメモリ、121……エージェントプログラム、122……ボリュームマネージャ、180、180e……ホスト計算機のバス、190、191、190e、191e……インタフェース、200、200e……管理サーバ、210、210e……管理サーバのCPU、220、220e……管理サーバのメモリ、221、221e……ストレージ管理プログラム、222……オンオフ管理テーブル、223……ボリューム管理テーブル、280、280e……ホスト計算機のバス、290、291、290e、291e……インタフェース、300、300b、300c、300d、300e、300f、600、600f……ストレージシステム、305、305b、305c、305d、305e、305f、605、605f……ストレージシステムの制御装置、310……ストレージシステムのCPU、320、320b、320c、320d、320e、320f、620、600f……ストレージシステムのメモリ、321、621……セグメント管理テーブル、322、622……物理論理管理テーブル、323、623……セグメント管理プログラム、324、624……データ移行プログラム、325……外部ボリューム管理テーブル、326……外部ボリューム管理プログラム、327、627……ボリュームコピープログラム、350、650……ストレージシステムの論理ボリューム、361、362、661……プール領域(物理リソース)、362b……プール領域(外部ストレージシステムのリソース)、380、680……ホスト計算機のバス、390、391、392、393、693……インタフェース、400……外部ストレージシステム、405……外部ストレージシステムの制御装置、410……外部ストレージシステムのCPU、420……外部ストレージシステムのメモリ、450……外部ストレージシステムの論理ボリューム、480……外部ストレージシステムのバス、490……インタフェース、500……スイッチ、510……ローカルエリアネットワーク(LAN)、520、521……管理用ネットワーク(MN)、530……コピー用ネットワーク(CN)、540、541……ストレージエリアネットワーク(SAN)、900、900b、900c、900d、900e、900f……データ処理システム

Claims (16)

  1. 複数の物理ディスクから構成される記憶領域の一部を割り当てることにより動的に容量を拡張可能なボリュームを提供するストレージシステムと、前記ボリュームに対してデータを入出力するホスト計算機と、前記ボリュームを管理する管理サーバとを有するデータ処理システムにおいて、
    前記管理サーバは、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを他の記憶領域に移行する際に、前記ボリュームを使用している前記ホスト計算機に対して、前記ホスト計算機と前記ボリュームの接続状態を確認する確認部と、
    前記確認部による確認結果、前記ホスト計算機前記ボリュームが接続されていることが確認された場合には、前記ホスト計算機の要求に応じて予め設定された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量を前記ストレージシステムに送信し、前記ホスト計算機前記ボリュームが接続されていないことが確認された場合には、現時点の前記記憶領域が割り当てられている前記ボリュームの容量を前記ストレージシステムに送信する送信部とを備え、
    前記ストレージシステムは、
    前記管理サーバから送信された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量または現時点の前記記憶領域が割り当てられている前記ボリュームの容量を、前記データを移行しようとする前記他の記憶領域に排他的に確保するように予約する予約部を備える
    ことを特徴とするデータ処理システム。
  2. 前記ストレージシステムは、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを前記他の記憶領域に移行する移行部と、
    前記移行部により前記データを移行した後、前記予約部により予約された容量に未使用の容量がある場合に、前記未使用の容量の予約を開放する開放部とを備える
    ことを特徴とする請求項1に記載のデータ処理システム。
  3. 前記移行部は、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを前記他の記憶領域にコピーする
    ことを特徴とする請求項2に記載のデータ処理システム。
  4. 前記ストレージシステムの予約部は、
    前記他の記憶領域の未使用の容量を算出し、前記管理サーバの前記送信部により送信された容量を確保できる場合に、当該容量を前記他の記憶領域に予約し、前記管理サーバの前記送信部により送信された容量を確保できない場合には、当該容量を確保できない旨を前記管理サーバに通知する
    ことを特徴とする請求項1に記載のデータ処理システム。
  5. 前記ストレージシステムと接続された外部ストレージシステムを備え、
    前記管理サーバの前記確認部は、
    前記ボリュームの前記記憶領域に格納されたデータを前記外部ストレージシステムの外部記憶領域に移行する際に、前記ホスト計算機前記ボリュームの接続状態を確認し、
    前記ストレージシステムの前記予約部は、
    前記管理サーバの前記送信部により送信された容量を前記外部記憶領域に予約する
    ことを特徴とする請求項1に記載のデータ処理システム。
  6. 前記ストレージシステムは、
    前記外部ストレージシステムの前記外部記憶領域を、前記ボリュームの仮想的な記憶領域として使用する
    ことを特徴とする請求項5に記載のデータ処理システム。
  7. 複数の物理ディスクから構成される記憶領域の一部を割り当てることにより動的に拡張可能なボリュームを提供するストレージシステムと、前記ボリュームに対してデータを入出力するホスト計算機と、前記ボリュームを管理する管理サーバとを有するデータ処理システムのデータ管理方法において、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを他の記憶領域に移行する際に、前記ボリュームを使用している前記ホスト計算機に対して、前記ホスト計算機と前記ボリュームの接続状態を確認する第1のステップと、
    前記第1のステップにおける確認結果に基づいて、前記ホスト計算機前記ボリュームが接続されていることが確認された場合には、前記ホスト計算機の要求に応じて予め設定された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量を前記ストレージシステムに送信し、前記ホスト計算機前記ボリュームが接続されていないことが確認された場合には、現時点の前記記憶領域が割り当てられている前記ボリュームの容量を前記ストレージシステムに送信する第2のステップと、
    前記第2のステップにおいて送信された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量または現時点の前記記憶領域が割り当てられている前記ボリュームの容量を、前記データを移行しようとする前記他の記憶領域に排他的に確保するように予約する第3のステップを備える
    ことを特徴とするデータ管理方法。
  8. 前記ボリュームに割り当てられた前記記憶領域に格納されたデータを前記他の記憶領域に移行する第4のステップと、
    前記第4のステップにおいて前記データを移行した後、前記予約部により予約された容量に未使用の容量がある場合に、前記未使用の容量の予約を開放する第5のステップとを備える
    ことを特徴とする請求項7に記載のデータ管理方法。
  9. 前記第4のステップでは、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを前記他の記憶領域にコピーする
    ことを特徴とする請求項8に記載のデータ管理方法。
  10. 前記第3のステップでは、
    前記他の記憶領域の未使用の容量を算出し、前記第2のステップにおいて送信された容量を確保できる場合に、当該容量を前記他の記憶領域に予約し、前記第2のステップにおいて送信された容量を確保できない場合には、当該容量を確保できない旨を前記管理サーバに通知する
    ことを特徴とする請求項7に記載のデータ管理方法。
  11. 前記ストレージシステムと接続された外部ストレージシステムを備え、
    前記第1のステップでは、
    前記ボリュームの前記記憶領域に格納されたデータを前記外部ストレージシステムの外部記憶領域に移行する際に、前記ホスト計算機前記ボリュームの接続状態を確認し、
    前記第3のステップでは、
    前記第2のステップにおいて送信された容量を前記外部記憶領域に予約する
    ことを特徴とする請求項に記載のデータ処理システム。
  12. 前記ストレージシステムは、
    前記外部ストレージシステムの前記外部記憶領域を、前記ボリュームの仮想的な記憶領域として使用する
    ことを特徴とする請求項11に記載のデータ処理システム。
  13. 複数の物理ディスクから構成される記憶領域の一部を割り当てることにより動的に容量を拡張可能なボリュームに対してデータを入出力するホスト計算機に接続され、前記ホスト計算機に前記ボリュームを提供するストレージシステムにおいて、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを他の記憶領域に移行する際に、前記ボリュームを使用している前記ホスト計算機に対して、前記ホスト計算機と前記ボリュームの接続状態を確認する確認部と、
    前記確認部の確認結果に基づいて、前記ホスト計算機前記ボリュームが接続されていることが確認された場合には、前記ホスト計算機の要求に応じて予め設定された前記ボリュームに前記記憶領域を割り当てる必要のある最大の容量を、前記データを移行しようとする前記他の記憶領域に排他的に確保するように予約し、前記ホスト計算機前記ボリュームが接続されていないことが確認された場合には、現時点の前記記憶領域が割り当てられている前記ボリュームの容量を、前記他の記憶領域に排他的に確保するように予約する予約部を備える
    ことを特徴とするストレージシステム。
  14. 前記ボリュームに割り当てられた前記記憶領域に格納されたデータを前記他の記憶領域に移行する移行部と、
    前記移行部により前記データを移行した後、前記予約部により予約された容量に未使用の容量がある場合に、前記未使用の容量の予約を開放する開放部とを備える
    ことを特徴とする請求項13に記載のストレージシステム。
  15. 前記移行部は、
    前記ボリュームに割り当てられた前記記憶領域に格納されたデータを前記他の記憶領域にコピーする
    ことを特徴とする請求項14に記載のストレージシステム。
  16. 前記予約部は、
    前記他の記憶領域の未使用の容量を算出し、前記ホスト計算機が要求する前記ボリュームの最大の容量、又は現時点の前記ボリュームの容量を確保できる場合に、当該容量を前記他の記憶領域に予約し、前記ホスト計算機が要求する前記ボリュームの最大の容量、又は現時点の前記ボリュームの容量を確保できない場合には、当該容量を確保できない旨を前記管理サーバに通知する
    ことを特徴とする請求項13に記載のストレージシステム。
JP2005279741A 2005-09-27 2005-09-27 データ処理システム及びデータ管理方法並びにストレージシステム Expired - Fee Related JP4700459B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005279741A JP4700459B2 (ja) 2005-09-27 2005-09-27 データ処理システム及びデータ管理方法並びにストレージシステム
US11/281,581 US7464232B2 (en) 2005-09-27 2005-11-18 Data migration and copying in a storage system with dynamically expansible volumes
EP06254998A EP1770500A3 (en) 2005-09-27 2006-09-27 Data processing system, data management method and storage system
US12/289,893 US7945748B2 (en) 2005-09-27 2008-11-06 Data migration and copying in a storage system with dynamically expansible volumes
US13/096,786 US8127094B2 (en) 2005-09-27 2011-04-28 Data migration and copying in a storage system with dynamically expansible volumes
US13/359,231 US8312235B2 (en) 2005-09-27 2012-01-26 Data migration in a storage system with dynamically expansible volumes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005279741A JP4700459B2 (ja) 2005-09-27 2005-09-27 データ処理システム及びデータ管理方法並びにストレージシステム

Publications (2)

Publication Number Publication Date
JP2007094505A JP2007094505A (ja) 2007-04-12
JP4700459B2 true JP4700459B2 (ja) 2011-06-15

Family

ID=37527000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005279741A Expired - Fee Related JP4700459B2 (ja) 2005-09-27 2005-09-27 データ処理システム及びデータ管理方法並びにストレージシステム

Country Status (3)

Country Link
US (4) US7464232B2 (ja)
EP (1) EP1770500A3 (ja)
JP (1) JP4700459B2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4699837B2 (ja) * 2005-08-25 2011-06-15 株式会社日立製作所 ストレージシステム、管理計算機及びデータ移動方法
JP4700459B2 (ja) 2005-09-27 2011-06-15 株式会社日立製作所 データ処理システム及びデータ管理方法並びにストレージシステム
US7958301B2 (en) * 2007-04-10 2011-06-07 Marvell World Trade Ltd. Memory controller and method for memory pages with dynamically configurable bits per cell
JP2009075643A (ja) * 2007-09-18 2009-04-09 Hitachi Ltd 記憶システム及びデータ再配置方法
JP5250869B2 (ja) * 2008-08-28 2013-07-31 株式会社日立製作所 ストレージシステム、論理記憶領域割り当て方法及び計算機システム
JP2010072753A (ja) * 2008-09-16 2010-04-02 Hitachi Ltd 自動拡張ボリューム及び省電力機能を備えたストレージシステム
JP5234342B2 (ja) 2008-09-22 2013-07-10 株式会社日立製作所 計算機システム及びその制御方法
JP4961411B2 (ja) * 2008-10-16 2012-06-27 株式会社日立製作所 計算機システム及びその構成管理方法
US8046460B1 (en) * 2009-01-23 2011-10-25 Hewlett-Packard Development Company, L.P. Automatic server deployment using a pre-provisioned logical volume
US8656070B2 (en) * 2009-04-29 2014-02-18 Lsi Corporation Striping with SCSI I/O referrals
US9329794B1 (en) * 2010-01-21 2016-05-03 Qlogic, Corporation System and methods for data migration
JP2012059024A (ja) * 2010-09-09 2012-03-22 Ricoh Co Ltd 情報処理装置、起動制御方法、起動制御プログラム及び記録媒体
US9047019B2 (en) * 2011-11-08 2015-06-02 Sybase, Inc. Shared temporary storage management in a shared disk database cluster
US9047015B2 (en) 2012-04-13 2015-06-02 International Business Machines Corporation Migrating thin-provisioned volumes in tiered storage architectures
JP6160296B2 (ja) * 2013-06-25 2017-07-12 富士通株式会社 ストレージ制御装置,ストレージシステム,および制御プログラム
US20160004460A1 (en) * 2013-10-29 2016-01-07 Hitachi, Ltd. Computer system and control method
US9916096B2 (en) * 2014-02-05 2018-03-13 International Business Machines Corporation Increasing data storage capacity
US10303380B2 (en) * 2014-06-10 2019-05-28 International Business Machines Corporation Extent-level reserve and release for a direct access storage device (DASD) volumes
US9535619B2 (en) 2014-11-10 2017-01-03 Dell Products, Lp Enhanced reconstruction in an array of information storage devices by physical disk reduction without losing data
CN104622513B (zh) * 2015-02-12 2017-04-19 无锡海斯凯尔医学技术有限公司 弹性检测设备的数据分析处理方法及弹性检测设备
CN110019125B (zh) * 2017-11-27 2021-12-14 北京京东尚科信息技术有限公司 数据库管理的方法和装置
US11249852B2 (en) 2018-07-31 2022-02-15 Portwonx, Inc. Efficient transfer of copy-on-write snapshots
US11354060B2 (en) 2018-09-11 2022-06-07 Portworx, Inc. Application snapshot for highly available and distributed volumes
US10768837B2 (en) * 2018-10-31 2020-09-08 EMC IP Holding Company LLC Non-disruptive migration of a virtual volume in a clustered data storage system
US11494128B1 (en) 2020-01-28 2022-11-08 Pure Storage, Inc. Access control of resources in a cloud-native storage system
US11531467B1 (en) 2021-01-29 2022-12-20 Pure Storage, Inc. Controlling public access of resources in a secure distributed storage system
US11733897B1 (en) 2021-02-25 2023-08-22 Pure Storage, Inc. Dynamic volume storage adjustment
US11520516B1 (en) 2021-02-25 2022-12-06 Pure Storage, Inc. Optimizing performance for synchronous workloads
US11726684B1 (en) 2021-02-26 2023-08-15 Pure Storage, Inc. Cluster rebalance using user defined rules

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318833A (ja) * 2000-05-09 2001-11-16 Hitachi Ltd ボリューム複製機能を有する記憶装置サブシステム、および、それを用いたコンピュータシステム
JP2001344188A (ja) * 2000-05-31 2001-12-14 Toshiba Corp ディスクアレイ装置
JP2004088766A (ja) * 2002-07-22 2004-03-18 Matsushita Electric Ind Co Ltd データ管理装置及びデータ管理システム
JP2005011316A (ja) * 2003-05-28 2005-01-13 Hitachi Ltd 記憶領域割当方法、システム及び仮想化装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792775B2 (ja) * 1989-12-11 1995-10-09 株式会社日立製作所 外部記憶装置群のスペース管理方法
JPH04195765A (ja) * 1990-11-26 1992-07-15 Hitachi Ltd ファイルコピー方式
US5680640A (en) * 1995-09-01 1997-10-21 Emc Corporation System for migrating data by selecting a first or second transfer means based on the status of a data element map initialized to a predetermined state
JP3641872B2 (ja) 1996-04-08 2005-04-27 株式会社日立製作所 記憶装置システム
JPH09325894A (ja) * 1996-06-06 1997-12-16 Hitachi Ltd 排他制御方式
JP2002014777A (ja) * 2000-06-29 2002-01-18 Hitachi Ltd データ移行方法並びにプロトコル変換装置及びそれを用いたスイッチング装置
US20020133539A1 (en) * 2001-03-14 2002-09-19 Imation Corp. Dynamic logical storage volumes
JP4175788B2 (ja) * 2001-07-05 2008-11-05 株式会社日立製作所 ボリューム制御装置
US6832289B2 (en) * 2001-10-11 2004-12-14 International Business Machines Corporation System and method for migrating data
US6947981B2 (en) * 2002-03-26 2005-09-20 Hewlett-Packard Development Company, L.P. Flexible data replication mechanism
JP2003303054A (ja) * 2002-04-08 2003-10-24 Hitachi Ltd 計算機システム、記憶装置及び記憶装置運用監視方法
JP4183443B2 (ja) 2002-05-27 2008-11-19 株式会社日立製作所 データ再配置方法及び装置
US7146475B2 (en) * 2003-11-18 2006-12-05 Mainstar Software Corporation Data set level mirroring to accomplish a volume merge/migrate in a digital data storage system
JP2005228278A (ja) * 2004-01-14 2005-08-25 Hitachi Ltd 記憶領域の管理方法、管理装置及び管理プログラム
JP4520755B2 (ja) * 2004-02-26 2010-08-11 株式会社日立製作所 データ移行方法およびデータ移行装置
US7146463B2 (en) * 2004-06-15 2006-12-05 Lsi Logic Corporation Methods and structure for optimizing disk space utilization
JP4518887B2 (ja) * 2004-09-10 2010-08-04 株式会社日立製作所 ストレージエリアネットワーク管理システム及び管理装置とボリューム割当て方法並びにコンピュータ・ソフトウエア
US7694038B2 (en) * 2004-11-17 2010-04-06 International Business Machines Corporation Maintaining and using nexus information on a host, port and device connection
JP4700459B2 (ja) * 2005-09-27 2011-06-15 株式会社日立製作所 データ処理システム及びデータ管理方法並びにストレージシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318833A (ja) * 2000-05-09 2001-11-16 Hitachi Ltd ボリューム複製機能を有する記憶装置サブシステム、および、それを用いたコンピュータシステム
JP2001344188A (ja) * 2000-05-31 2001-12-14 Toshiba Corp ディスクアレイ装置
JP2004088766A (ja) * 2002-07-22 2004-03-18 Matsushita Electric Ind Co Ltd データ管理装置及びデータ管理システム
JP2005011316A (ja) * 2003-05-28 2005-01-13 Hitachi Ltd 記憶領域割当方法、システム及び仮想化装置

Also Published As

Publication number Publication date
US8312235B2 (en) 2012-11-13
JP2007094505A (ja) 2007-04-12
US7945748B2 (en) 2011-05-17
US8127094B2 (en) 2012-02-28
US20070073988A1 (en) 2007-03-29
US20090077331A1 (en) 2009-03-19
US20120124287A1 (en) 2012-05-17
US20110202742A1 (en) 2011-08-18
EP1770500A2 (en) 2007-04-04
EP1770500A3 (en) 2009-06-03
US7464232B2 (en) 2008-12-09

Similar Documents

Publication Publication Date Title
JP4700459B2 (ja) データ処理システム及びデータ管理方法並びにストレージシステム
JP4890033B2 (ja) 記憶装置システム及び記憶制御方法
JP5749803B2 (ja) 情報記憶システム及びストレージシステム管理方法
JP5124551B2 (ja) ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
JP4945118B2 (ja) 記憶容量を効率的に使用する計算機システム
JP4684864B2 (ja) 記憶装置システム及び記憶制御方法
EP2704011A1 (en) Management method of virtual storage system and remote copy system
JP5228466B2 (ja) バックアップ装置、バックアップ方法およびバックアッププログラム
WO2014007249A1 (ja) I/oノード及び複数の計算ノードに備えられたキャッシュメモリの制御方法
CN101799742A (zh) 用于在存储系统之间转移精简配置卷的方法和装置
JP5391277B2 (ja) ストレージシステム及びストレージシステムの処理効率向上方法
JPWO2008114441A1 (ja) ストレージ管理プログラム、ストレージ管理方法およびストレージ管理装置
JP2011060119A (ja) ストレージシステムとサーバ計算機の両方でThin−Provisioning技術に従う容量仮想化が行われる計算機システム
JP2007257317A (ja) 記憶システム及び記憶領域解放方法並びにストレージシステム
CN107211003A (zh) 分布式存储系统及管理元数据的方法
JPWO2018011839A1 (ja) 情報処理システム、及び、情報処理システムの制御方法
JP5272185B2 (ja) 計算機システム及びストレージシステム
JP6755680B2 (ja) データ移行システム、及び、データ移行システムの制御方法
JP2006048560A (ja) キャッシュメモリの管理方法、ストレージ装置または計算機システム
JP5574993B2 (ja) 制御用計算機および情報処理システムおよび制御方法およびプログラム
US11556260B2 (en) Providing coordination between mapper circuitry and redundant array of independent disks (RAID) circuitry to manage RAID storage space
JP6019169B2 (ja) 情報記憶システム
JP6244496B2 (ja) サーバストレージシステムの管理システム及び管理方法
JP7113698B2 (ja) 情報システム
WO2018167950A1 (ja) ストレージシステム及び複製制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080410

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110304

R150 Certificate of patent or registration of utility model

Ref document number: 4700459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees