JP5183363B2 - 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機 - Google Patents

論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機 Download PDF

Info

Publication number
JP5183363B2
JP5183363B2 JP2008217216A JP2008217216A JP5183363B2 JP 5183363 B2 JP5183363 B2 JP 5183363B2 JP 2008217216 A JP2008217216 A JP 2008217216A JP 2008217216 A JP2008217216 A JP 2008217216A JP 5183363 B2 JP5183363 B2 JP 5183363B2
Authority
JP
Japan
Prior art keywords
pool
physical resource
storage subsystem
requirement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008217216A
Other languages
English (en)
Other versions
JP2010055209A5 (ja
JP2010055209A (ja
Inventor
幸徳 坂下
泰隆 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008217216A priority Critical patent/JP5183363B2/ja
Priority to US12/254,427 priority patent/US20100057989A1/en
Publication of JP2010055209A publication Critical patent/JP2010055209A/ja
Publication of JP2010055209A5 publication Critical patent/JP2010055209A5/ja
Application granted granted Critical
Publication of JP5183363B2 publication Critical patent/JP5183363B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/382Information transfer, e.g. on bus using universal interface adapter
    • G06F13/385Information transfer, e.g. on bus using universal interface adapter for adaptation of a particular data processing system to different peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、論理ボリュームのデータ移動方法とストレージシステムに関し、特に、記憶装置の容量自動拡張方法によって生成された論理ボリュームのデータ移行技術に関する。
近年、計算機システムの保持するデータ量は飛躍的に増大している。増大するデータを格納する計算機システムに大規模な記憶容量を有するストレージシステムが適用されるようになった。
ストレージシステムは、ホスト計算機に対し論理ボリュームという単位で記憶領域を提供している。従来は、論理ボリュームは、管理者が必要な記憶容量を見積もった後、固定容量の論理ボリュームを生成していた。しかし、近年のストレージシステムでは、記憶領域の利用効率をより一層高める論理ボリュームの生成方法が求められるようになった。
そこで、特許文献1に示す、ホスト計算機からのアクセス要求に応じて、物理リソースの一部領域(以下、セグメント)を論理ボリュームに割り当てることによって、論理ボリュームの容量を自動拡張する方法が登場してきた。また、特許文献2に示すように、第1のストレージと第2のストレージを接続し、ホスト計算機から第1のストレージに対してI/O要求があるときには、第2のストレージへI/Oを転送するようにした技術(外部接続に関する技術)も提案されている。
なお、本明細書では、前記容量を自動拡張する方法により提供される論理ボリュームを、容量拡張ボリュームと用語定義する。容量拡張ボリュームは、一般的にThin Provisioning ボリュームと呼ばれる。また、本明細書では、複数のハードディスクから構成されるRAID(Redundant Array of Independent Disks)上の論理デバイスを、物理リソースとして用語定義する。
また、本明細書では、異なるストレージサブシステムの記憶領域を仮想的に1台のストレージサブシステムとして管理する技術を外部接続、仮想的に1台のストレージサブシステムとして管理されたシステムにおいて、データが記憶されている記憶領域を有するストレージサブシステムを外部ストレージサブシステム、と用語定義する。
特開2003−15915号公報 特開2003−5370号公報
特許文献1によって提供された容量拡張ボリュームの運用中に、例えば、第1のストレージと第2のストレージの接続に障害などのイベントが発生すると、容量拡張ボリュームの一部領域がアクセス不可能となり、ユーザが意図した容量拡張ボリュームの要件が満たせなくなる、という課題がある。
本発明は、容量拡張ボリュームの利用時に、容量拡張ボリュームの要件を満たすことができない事象が生じても、ユーザが意図した容量拡張ボリュームの要件を満たすことができる、論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機を提供することを目的とするものである。
上記目的を達成するために、本発明は、ホスト計算機と通信ネットワークを介して情報の授受を行い、前記ホスト計算機からのアクセスに応じ、前記ホスト計算機に記憶装置の記憶領域を提供するストレージサブシステムと、前記記憶装置の記憶領域を容量拡張ボリュームとして管理し、前記容量拡張ボリュームの生成元であるプールのユーザ要件を格納するプール要件テーブルを有する管理計算機を備えた構成の下で、前記管理計算機は、前記容量拡張ボリュームの一部の領域に前記プール要件を満たさない事象が生じたときに、前記ホスト計算機からのアクセス対象の前記記憶装置の論理ボリュームのうち前記プール要件を満たさない事象の影響を受ける論理ボリュームを特定するステップと、前記特定した論理ボリュームが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記容量拡張ボリュームのプール要件を満たす論理ボリュームを選出し、ストレージサブシステムは、管理計算機からの指示に応答して、容量拡張ボリュームの一部の領域を、選出された論理ボリュームに再配置することを特徴としている
本発明によれば、容量拡張ボリュームの利用時に、容量拡張ボリュームの一部の領域にプール要件を満たさない事象が生じた場合においても、ユーザが意図した容量拡張ボリュームの要件を満たすことが出来る。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、これにより本発明が限定されるものではない。
(1)第1実施形態のシステム構成
図1に、本実施形態の計算機システムの構成を示す。本発明の計算機システムでは、ストレージサブシステム1000とホスト計算機2000がスイッチ装置3000で互いに接続される。
本実施例では、スイッチ装置3000はSAN(Storage Area Network)を構成する FC(Fiber Channel) スイッチ装置とするが、IP(Internet Protocol)ネットワークであっても、あるいはこれら以外のデータ通信用のスイッチ装置であっても良い。
ストレージサブシステム1000はスイッチ装置5000を介して管理計算機4000と接続される。本実施例では、スイッチ装置5000はIPスイッチ装置とするが、SANであっても、あるいはこれら以外のデータ通信用ネットワークであっても良い。また、スイッチ装置3000とスイッチ装置5000が同一スイッチ装置であっても良いし、ホスト計算機2000と管理計算機4000が同一計算機であっても良い。
なお、説明の都合上、図1では、ストレージサブシステム1000を1台、ホスト計算機2000を1台、スイッチ装置3000を1台、管理計算機4000を1台、スイッチ装置5000を1台としたが、本発明ではこれらの数は問わない。
ストレージサブシステム1000は、データを格納するディスク装置1100、ストレージサブシステム内の制御を行うディスクコントローラ1200で構成されている。ディスク装置1100は、一つ以上の論理ボリューム1110とプール1120を備えている。論理ボリューム1110は、一つ以上の物理リソース1121から生成され、ホスト計算機2000によって利用されるデータを格納している。なお、説明の都合上、図1ではプール1120を一つとしたが、本発明ではこれらの数は問わない。
プール1120は、一つ以上の物理リソース1121を備えている。プール1120は、物理リソース1121を管理上の観点から、まとめて管理するための論理的なグループである。管理上の観点には、例えばRAIDタイプがある。RAIDタイプの一例としては、大容量を提供するために、複数ハードディスクを1つにまとめ巨大な記憶領域として提供するRAID0や、ハードディスクの冗長度を高めるために、ハードディスク間でミラーリングを行うRAID1がある。
ディスクコントローラ1200は、メインメモリ1210、制御装置1220、I/F1 1230、I/F2 1240、ディスクI/F1250、を備えている。メインメモリ1210には、イベント送信プログラム1211、セグメント移動プログラム1212、物理論理情報管理プログラム1213、物理論理管理テーブル1213、セグメント管理テーブル1214、物理リソース管理テーブル1215が記憶されている。
イベント送信プログラム1211は、障害等のイベントを検知すると、ストレージサブシステム1000を管理する管理計算機4000へイベント情報を送信するプログラムである。セグメント移動プログラム1212は、管理計算機4000からの指示に従い、容量拡張ボリューム1110で利用しているセグメント領域のデータを別セグメント領域へ移動するプログラムである。物理論理情報管理プログラム1213は、物理論理管理テーブル1214およびセグメント管理テーブル1215の情報を参照または更新し、容量拡張ボリューム1110の構成情報を管理するプログラムである。物理リソース管理テーブル1216は、例えば冗長性の有無といった物理リソース1121の特性の情報が格納されたテーブルである。
制御装置1220は、メインメモリ1210に格納されたイベント送信プログラム1211、セグメント移動プログラム1212、物理論理情報管理プログラム1213を読み出し実行する。
I/F1 1230は、スイッチ装置3000とのインタフェースであって、ホスト計算機2000とデータや制御命令の送受信を行う。I/F2 1240は、スイッチ装置4000とのインタフェースであって、管理計算機4000とデータや制御命令の送受信を行う。ディスクI/F1250は、ディスク装置1100に対するインタフェースであって、データや制御命令の送受信を行う。
ホスト計算機2000は、メインメモリ2100、制御装置2200、I/F2300から構成される。なお、ホスト計算機2000には、図示を省略する入力装置(キーボード、表示装置等)が備わっていても良い。
メインメモリ2100には、アプリケーション2110が記憶されている。アプリケーション2120は、ストレージサブシステム1000の容量拡張ボリューム1110へアクセスするプログラムである。一例としてDBMS(Database Management System) がある。制御装置2200は、メインメモリ2100に格納されたアプリケーション2110を読み出し実行する。
I/F2300は、スイッチ装置3000とのインタフェースであって、ストレージサブシステム1000とデータや制御命令の送受信を行う。スイッチ装置3000は、I/F1 3100、I/F2 3200から構成される。I/F1 3100は、ストレージサブシステム1000とのインタフェースであって、ストレージサブシステム1000とデータや制御命令の送受信を行う。I/F2 3200は、ホスト計算機2000とのインタフェースであって、ホスト計算機2000とデータや制御命令の送受信を行う。なお、説明の都合上I/F1、I/F2はそれぞれ1つとしているが複数あっても良い。
管理計算機4000は、メインメモリ4100、制御装置4200、I/F4300を含む管理部から構成される。なお、管理計算機4000には、図示を省略する入力装置(キーボード、表示装置等)が備わっていても良い。
メインメモリ4100には、容量拡張ボリューム管理プログラム4110、イベント受信プログラム4120、セグメント移動指示プログラム4130、ストレージ構成管理テーブル4140、プール要件テーブル4150が記憶されている。
容量拡張ボリューム管理プログラム4110は、イベント受信プログラム4120からイベント情報を受け取ると、ストレージサブシステム1000からセグメント管理テーブル1215と物理リソース管理テーブル1216を取得し、プール要件テーブル4150に格納されたプール要件を満たすセグメントを検索し、セグメント移動指示プログラム4130へセグメントの移動指示を送るプログラムである。
イベント受信プログラム4120は、ストレージサブシステム1000から障害などのイベント情報を受信したのち、プール要件テーブル4150から受信したイベント情報の結果、プール要件を満たさなくなるかを判断し、満たさなくなる場合は、容量拡張ボリューム管理プログラム4110を呼び出すプログラムである。
セグメント移動指示プログラム4130は、容量拡張ボリューム管理プログラム4110から移動元の物理リソース番号と移動先の物理リソース番号を受信した後、ストレージサブシステム1000のセグメント移動プログラム1212へ物理リソースの移動指示を送信するプログラムである。
ストレージ構成管理テーブル4140は、ストレージサブシステム1000の容量拡張ボリューム1110とホスト計算機2000までの接続構成を表す情報を格納するテーブルである。
接続構成を表す情報の一例として、容量拡張ボリューム1110の識別子であるLUN(Logical Unit Number)、容量拡張ボリューム1110の割当先ホスト計算機2000の識別名、ホスト計算機2000との通信に利用するI/Fの識別名、ストレージサブシステム1000とホスト計算機2000の接続に利用するスイッチ装置の識別名、を持つ。プール要件テーブル4150は、容量拡張ボリューム1110の生成元であるプール1120のユーザ要件を格納するテーブルである。一例として、プールの識別であるプール番号、プール要件、を持つ。
制御装置4200は、メインメモリ4100に格納された容量拡張ボリューム管理プログラム4110、イベント受信プログラム4120、セグメント移動指示プログラム4130を読み出し実行する。
I/F4300は、スイッチ装置5000とのインタフェースであって、ストレージサブシステム1000とデータや制御命令の送受信を行う。スイッチ装置5000は、I/F1 5100、I/F2 5200から構成される。I/F1 5100は、ストレージサブシステム1000とのインタフェースであって、ストレージサブシステム1000とデータや制御命令の送受信を行う。I/F2 5200は、管理計算機4000とのインタフェースであって、管理計算機4000とデータや制御命令の送受信を行う。なお、説明の都合上I/F1、I/F2はそれぞれ1つとしているが複数あっても良い。
図2に、本実施形態の物理論理管理テーブル1214を示す。物理論理管理テーブル1214は、容量拡張ボリュームの構成を示す情報として、LUN T200、セグメント番号T210、開始アドレスT220、終了アドレスT230を有している。
LUN T200は、論理ボリューム1110を識別するための番号が格納される。セグメント番号T210は、仮想ボリュームに割当済みのセグメントを識別する番号が格納される。開始アドレスT220、終了アドレスT230は、ホスト計算機2000に提供する論理ボリュームのアドレスを表す。論理ボリュームのアドレスとして、一般的に使われるものにLBA(Logical Block Address)がある。
図3に、本実施形態のセグメント管理テーブル1215を示す。セグメント管理テーブル1215は、セグメントの管理を行う情報として、プール番号T300、物理リソース番号T310、セグメント番号T320、開始アドレスT330、終了アドレスT340、使用状況T350を有している。
プール番号T300は、物理リソース1121をまとめて管理するための論理的なグループであるプールを識別する情報が格納される。物理リソース番号T310は、物理リソース1121を識別するための情報が格納される。
セグメント番号T320には、物理リソース1121をある任意のサイズで論理分割した単位であるセグメントを、識別する情報が格納される。開始アドレスT330と終了アドレスT340は、物理リソース1121上のセグメントのアドレスを表す。物理リソースのアドレスとして、一般的に使われるものにLBAがある。
使用状況T350は、セグメントが論理ボリューム1110に割当済みかどうかを表す情報が格納される。使用状況としては、セグメントが論理ボリュームへ割当済みの状況を表す「割当済」、セグメントが論理ボリュームへ未割当ての状況を表す「未割当」がある。なお、説明の都合上、図3では使用状況を文字列として表すが、使用状況を識別可能な数字などに置き換え格納して良い。
図4に、本実施形態の論理ボリューム1110の具体的構成と、図2について上述した物理論理管理テーブル1211及び図3について上述したセグメント管理テーブル1214の具体例とを示す。
図4(A)に示すように、論理ボリューム1110は、1又は複数の物理リソース1121から構成される。この図4(A)の例では、容量可変ボリュームである論理ボリューム1110が、第1のプール領域(プール1)1120の第1の物理リソース(物理リソース1)1121のセグメントと、第2の物理リソース(物理リソース2)1121のセグメントとが割り当てられて構成されている。
この場合、物理論理管理テーブル1211(図4(B))のLUN T200には、ホスト計算機2000が容量拡張ボリューム1110を識別するための番号として、この容量拡張ボリューム1110のLUNである「0」が格納される。またセグメント番号T210には、当該論理ボリューム1110に割り当てられたセグメントの識別番号である「1」及び「3」が格納され、セグメントが未割当の領域に対しては「NULL」が格納される。なお、説明の都合上、図4(B)では未割当の領域に「NULL」を格納しているが、未割当を意味する別の文字列や数字に置き換え格納しても良い。物理論理管理テーブル1211の開始アドレスT220及び終了アドレスT230には、ホスト計算機2000から利用される各領域のアドレスがそれぞれ格納される。
図4(C)に示すように、このときセグメント管理テーブル1214のプール番号T300には、第1プール領域1120の識別番号である「1」が格納される。またこの例の場合、第1のプール領域1120は物理リソース番号がそれぞれ「0」と「1」の第1及び第2の物理リソース1121から構成されているため、これらの数値が物理リソース番号T310に格納される。
さらに図4(A)に示すように、この例の場合、第1及び第2の物理リソースが共に3つのセグメントから構成されており、これら各セグメントにそれぞれ「0」〜「5」のセグメント番号が付与されているため、セグメント管理テーブル1214のセグメント番号T320にはこれらの数値がそれぞれ格納される。
さらに、開始アドレスT330及び終了アドレスT340には、これら各セグメントの開始アドレス及び終了アドレスが具体的に格納され、各使用状況T350には、対応するセグメントの使用状況(「未割当」又は「割当済」)が格納されている。この例の場合、論理ボリューム1110に対してセグメント番号が「1」及び「3」の各セグメントが割り当てられているため、これらに対応する使用状況T350に「割当済」の情報が格納され、これ以外のセグメントに対応する使用状況T350に「未割当」の情報が格納されている。
図5に、本実施形態の物理リソース管理テーブル1216を示す。物理リソース管理テーブル1216は、物理リソースの管理情報として、物理リソース番号T300、物理リソース1121の特性を表す情報として冗長性T310、応答性能T320、コストT330、内部/外部ディスクT340、を有している。
なお、説明の都合上、物理リソースの特性を示す情報として前述した、冗長性、応答性能、コスト、内部/外部ディスクとしているが、そのほかの情報として、省電力機能の有無、RAIDレベル、キャッシュメモリの利用量、容量、提供ベンダ、サイズなどの情報を持っていても良い。
物理リソース番号T300は、物理リソース1121の識別番号が格納される。冗長性T310は、物理リソース1121が冗長性を持つか否かの情報が格納される。応答性能T320は、物理リソース1121の応答性能が早いか遅いかの情報が格納される。コストT330は、物理リソース1121のコストが高いか低いかの情報が格納される。
なお、本明細書では、説明の都合上、物理リソースの特性を示す情報として、前記の情報を用いているが、物理リソースの特性を示す情報であれば、これに変わる情報であっても良い。一例として、応答性能T320は、単位時間あたりの転送速度の情報であっても良い。
図6に、本実施形態のストレージ構成管理テーブル4140を示す。ストレージ構成管理テーブル4140は、ストレージサブシステム1000の容量拡張ボリュームとホスト計算機2000までの接続構成を表す情報として、LUN T400、割当ホスト計算機T410、利用I/F T420、接続スイッチ装置T430、を有している。LUN T400は、容量拡張ボリュームの識別情報が格納される。なお、本明細書では、容量拡張ボリュームの識別情報としてLUNを用いているが、LUNに変わる他の識別情報であっても良い。
割当ホスト計算機T410は、容量拡張ボリュームが割り当てられたホスト計算機2000の識別情報が格納される。利用I/F T420は、容量拡張ボリュームとホスト計算機2000の通信に利用されるI/F1230の識別情報が格納される。接続スイッチ装置T430は、容量拡張ボリュームとホスト計算機2000の通信に利用されるスイッチ装置3000の識別情報が格納される。
図7に、本実施形態のプール要件テーブル4150を示す。プール要件テーブル4150は、プールのユーザ要件を表す情報として、プール番号T500、プール要件T510、を有している。プール番号T500は、容量拡張ボリュームの生成元であるプール1120の識別情報が格納される。プール要件T510は、プール1120が満たさなければならない要件情報が格納される。なお、本明細書では、説明の都合上、プールの要件情報を1項目にて表現しているが、複数の項目としてわけ表現しても良い。
(2)第1実施形態の動作
まず、イベント送信プログラム1211の処理について、図8を参照しながら説明する。イベント送信プログラム1211は、容量拡張ボリューム1110の一部の領域にプール要件を満たさない事象が生じたとして、例えば、障害を検知する(S1000)。なお、本明細書では、説明の都合上、検知するイベントを障害としているが、その他ユーザからの指示、ストレージサブシステムの高負荷による性能低下、など他のイベントであっても良い。
次に、イベント送信プログラム1211は、障害情報をイベント受信プログラム4120へ送信する(S1100)。障害情報とは、障害の発生部位を識別する情報、故障内容、重要度、障害発生時刻などを含んでいる情報である。本明細書では、説明の都合上、障害が理リソースを構成する一部ハードディスクに発生したと仮定し、さらに、送信される障害の発生部位を識別する情報として、物理リソース番号とする。
イベント受信プログラム4120の処理について、図9を参照しながら説明する。イベント受信プログラム4120は、ストレージサブシステム1000のイベント送信プログラム1211から、障害が発生した物理リソース番号を含む障害情報を受信する(S2000)。
次に、イベント受信プログラム4120は、ストレージサブシステム1000からセグメント管理テーブル1215を取得する(S2100)。その後、イベント受信プログラム4120は、障害の影響を受ける物理リソースの識別番号とセグメント管理テーブル1215の物理リソース番号T310が一致するレコードのプール番号T300を取得する(S2200)。
次に、イベント受信プログラム4120は、前記処理(S2200)にて取得したプール番号とプール要件テーブル4150のプール番号T500が一致したレコードのプール要件T510を取得する(S2300)。
その後、イベント受信プログラム4120は、受信した障害内容によりプール要件T510が満たさなくなるかを判定する(S2400)。イベント受信プログラム4120は、判定した結果、プール要件を満たす場合、処理を終了する(S2500)。
一方、イベント受信プログラム4120は、判定した結果、プール要件を満たさなくなる場合、容量拡張ボリューム管理プログラム4110へ障害が発生した物理リソース番号、プール番号、満たさなくなったプール要件を送信する(S2600)。
容量拡張ボリューム管理プログラム4110の処理について図10を参照しながら説明する。容量拡張ボリューム管理プログラム4110は、イベント受信プログラム4120から障害情報、障害が発生した物理リソース番号、プール番号、満たさなくなったプール要件を受信する(S3000)。
次に、容量拡張ボリューム管理プログラム4110は、ストレージサブシステム1000からセグメント管理テーブル1215と物理リソース管理テーブル1216を取得する(S3100)。
その後、容量拡張ボリューム管理プログラム4110は、取得した物理リソース管理テーブル1216から、満たさなくなったプール要件を満たし、且つ障害が発生した物理リソース以外の条件を満たす物理リソース番号を取得する(S3200)。
次に、容量拡張ボリューム管理プログラム4110は、取得した条件を満たす物理リソース番号と障害が発生した物理リソース番号をセグメント移動指示プログラム4130へ送信する(S3300)。
次に、セグメント移動指示プログラム4130の処理について図11を参照しながら説明する。セグメント移動指示プログラム4130は、容量拡張ボリューム管理プログラム4110から、条件を満たす物理リソース番号と障害が発生した物理リソース番号を受信する(S4000)。
次に、セグメント移動指示プログラム4130は、障害が発生した物理リソースに格納されたデータを、条件を満たす物理リソースへ移動するように指示をセグメント移動プログラム1211へ送信する(S4100)。
次に、セグメント移動プログラム1212の処理について図12を参照しながら説明する。セグメント移動プログラム1212は、セグメント移動指示プログラム4130から、障害が発生した物理リソースに格納されたデータを、条件を満たす物理リソースへ移動する指示を受信する(S5000)。
次に、セグメント移動プログラム1212は、障害が発生した物理リソース番号のセグメントに格納されたデータを、条件を満たす物理リソース番号のセグメントへ移動する(S5100)。なお、本明細書では、説明の都合上、データを移動するとしたが、データを移動元から削除しないコピー処理でも良い。
その後、セグメント移動プログラム1212は、移動元セグメントである障害が発生した物理リソース番号と、移動先セグメントである条件を満たす物理リソース番号を、物理論理情報管理プログラム1213へ送信する(S5200)。
物理論理情報管理プログラム1213の処理について図13を参照しながら説明する。
物理論理情報管理プログラム1213は、セグメント移行プログラム1212から移動元物理リソース番号と移動先物理リソース番号を受信する(S6000)。
次に、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と移動元物理リソース番号と一致するセグメント番号T220を取得する(S6100)。
さらに、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と移動先物理リソース番号とが一致するセグメント番号T220を取得する(S6200)。
その後、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と移動先物理リソース番号とが一致するレコードの使用状況T250を"割当済"に変更する(S6300)。
続いて、物理論理情報管理プログラム1213は、物理論理管理テーブル1214のセグメント番号T110と前記S6100で取得したセグメント番号と一致するレコードを取得する(S6400)。
次に、物理論理情報管理プログラム1213は、前記S6400で取得したレコードのセグメント番号を、前記S6200で取得したセグメント番号に変更する(S6500)。
その後、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と、移動元物理リソース番号が一致するレコードの使用状況T250を"未割当"に変更する(S6600)。
以上、第1実施形態によれば、ストレージサブシステム1000の障害などのイベントを検知すると、イベントの影響を受ける物理リソースを特定し、その後、プール要件テーブル4150を参照し、プール要件を満たさなくなるかを確認し、満たさなくなる場合には、ストレージ構成管理テーブル4140、物理論理管理テーブル1214、セグメント管理テーブル1215、物理リソース1121からプール要件を満たすことが出来る物理リソース1121を選出し、イベントの影響を受ける物理リソース1121に格納されていたデータを、プール要件を満たせる物理リソース1121に移動し、物理論理管理テーブル1214、セグメント管理テーブル1215の物理リソース番号をイベントの影響をうける物理リソース1121の物理リソース番号から、プール要件を満たせる物理リソース1121の物理リソース番号へ変更することで、障害などのイベントが発生した場合であっても、容量拡張ボリューム1110の要件を満たすことが出来る。
<第2実施形態>
第2実施形態では、第1実施形態とは異なるシステム構成にて、障害などのイベント発生時における容量拡張ボリュームの要件を満たす処理について示す。前述した第1実施形態では、図1にて示した前記ストレージサブシステム1000が要する容量拡張ボリューム1110の構成要素である物理リソース1121は全て同一のストレージサブシステム1000が所有する物理リソース1121として処理を行っていた。しかし、以下に説明する第2実施形態では、前記ストレージサブシステム1000の一部物理リソース1121の実体を、外部ストレージサブシステム6000に持つシステム構成下で、第1実施形態と同様の効果を得る。
(1)第2実施形態のシステム構成
第2実施形態のシステム構成では、大部分は前述した第1実施形態と同様であるため、異なる構成のみ説明する。図14に第2実施形態の計算機システムの構成を示す。
図1に示す第1実施形態の計算機システムに加え、第2実施形態の計算機システムでは、前記ストレージサブシステム1000と外部ストレージサブシステム6000がスイッチ装置7000で互いに接続される。
本実施例では、スイッチ装置7000は前記スイッチ装置3000と同じSANを構成する FC スイッチ装置とするが、IPネットワークであっても、あるいはこれら以外のデータ通信用のスイッチ装置であっても良い。
ストレージサブシステム1000は、第1実施形態の構成要素に加え、スイッチ装置7000と接続するディスクコントローラ1200上のI/F3 1260、メインメモリ1210上に外部ストレージ管理テーブル1217が追加され構成されている。
I/F3 1260は、スイッチ装置7000とのインタフェースであって、外部ストレージサブシステム6000とデータや制御命令の送受信を行う。外部ストレージ管理テーブル1217は、外部ストレージ6000が有する論理ボリューム6110と前記ストレージサブシステム1000が有する物理リソース1121の対応関係を表す情報を有するテーブルである。ストレージサブシステム6000は、データを格納するディスク装置6100、ストレージサブシステム内の制御を行うディスクコントローラ6200で構成されている。
ディスク装置6100は、一つ以上の論理ボリューム6110を備えている。論理ボリューム6110は、ホスト計算機2000によって利用されるデータを、前記ストレージサブシステム1000を経由し格納している。なお、説明の都合上、図14では論理ボリュームを容量拡張ボリュームではなく、固定容量のボリュームとしたが、容量拡張ボリュームでも良い。さらに、説明の都合上、図示を省略する前記ストレージサブシステム1000と同様の論理ボリューム6110の生成元であるプール、物理リソースが備わっていても良い。ディスクコントローラ1200は、メインメモリ6210、制御装置6220、I/F1 6230、I/F2 6240、ディスクI/F6250、を備えている。
メインメモリ6210には、イベント送信プログラム6211が記憶されている。イベント送信プログラム6211は、障害等のイベントを検知すると、ストレージサブシステム6000を管理する管理計算機4000へイベント情報を送信するプログラムである。制御装置6220は、メインメモリ6210に格納されたイベント送信プログラム6211を読み出し実行する。
I/F1 6230は、スイッチ装置7000とのインタフェースであって、前記ストレージサブシステム1000とデータや制御命令の送受信を行う。I/F2 6240は、スイッチ装置7000とのインタフェースであって、管理計算機4000とデータや制御命令の送受信を行う。ディスクI/F6250は、ディスク装置6100に対するインタフェースであって、データや制御命令の送受信を行う。
図15に、本実施形態の外部ストレージ管理テーブル1213を示す。外部ストレージ管理テーブル1217は、ストレージサブシステム1000と外部ストレージサブシステム6000の接続情報として、物理リソース番号T600、外部ボリューム情報T610、接続スイッチ装置T620を有している。
物理リソース番号T600は、外部ストレージサブシステム6000が有する論理ボリューム6100に対応付けられたストレージサブシステム1000の物理リソース1121を識別するための情報が格納される。外部ボリューム情報T610は、外部ストレージサブシステム6000が有する論理ボリューム6100を識別するための情報が格納される。
なお、説明の都合上、当該論理ボリューム6100を識別するための情報として、外部ストレージサブシステムのモデル名、シリアル番号及び論理ボリュームに割り当てられたLUN(Logical Unit Number)の組み合わせた情報として表すが、当該論理ボリュームを識別可能な情報であれば、形式を問わない。接続スイッチ装置T620は、ストレージサブシステム1000と外部ストレージサブシステム6000の接続に利用するスイッチ装置7000の識別情報が格納される。
(2)第2実施形態の動作
第2実施形態の動作では、大部分は前述した第1実施形態と同様であるため、異なる構成のみ説明する。次に、第2実施形態におけるイベント送信プログラム6211の処理について、図8を参照しながら説明する。
イベント送信プログラム6211が、障害を検知する(S1000)。なお、本明細書では、説明の都合上、検知するイベントを障害としているが、その他ユーザからの指示、ストレージサブシステムの高負荷による性能低下、など他のイベントであっても良い。
次に、障害情報をイベント受信プログラム4120へ送信する。障害情報とは、障害の発生部位を識別する情報、故障内容、重要度、障害発生時刻などを含んでいる情報である。本明細書では、説明の都合上、障害が、外部ストレージサブシステム6000が有する論理ボリューム6110を構成する一部ハードディスクに発生したと仮定し、さらに、送信される障害の発生部位を識別する情報とし、当該論理ボリューム6100を識別するための情報として、外部ストレージサブシステムのモデル名、シリアル番号及び論理ボリュームに割り当てられたLUN(Logical Unit Number)の組み合わせた情報とする。
イベント受信プログラム4120の処理について、図16を参照しながら説明する。イベント受信プログラム4120は、外部ストレージサブシステム6000のイベント送信プログラム6211から、障害が発生した論理ボリュームの識別情報を含む障害情報を受信する(S7000)。
次に、イベント受信プログラム4120は、ストレージサブシステム1000から外部ストレージ管理テーブル1217を取得する(S7100)。その後、イベント受信プログラム4120は、障害が発生した外部ストレージサブシステム6000の論理ボリューム6110の識別情報と、外部ストレージ管理テーブル1217の外部ボリューム情報T610が一致するレコードの物理リソース番号T600を取得する(S7200)。
次に、イベント受信プログラム4120は、ストレージサブシステム1000からセグメント管理テーブル1215を取得する(S7300)。その後、イベント受信プログラム4120は、前記処理(S7200)で取得した物理リソースの識別番号とセグメント管理テーブル1215の物理リソース番号T310が一致するレコードのプール番号T300を取得する(S7400)。
次に、イベント受信プログラム4120は、前記処理(S7400)にて取得したプール番号とプール要件テーブル4150のプール番号T500が一致したレコードのプール要件T510を取得し(S7500)、その後、受信した障害内容によりプール要件T510が満たさなくなるかを判定する(S7600)。イベント受信プログラム4120は、判定した結果、プール要件を満たす場合、処理を終了する(S7700)。
一方、イベント受信プログラム4120は、判定した結果、プール要件を満たさなくなる場合、容量拡張ボリューム管理プログラム4110へ障害が発生した物理リソース番号、プール番号、満たさなくなったプール要件を送信する(S7800)。その他の動作については、第1実施形態と同様の動作を行う。
以上、第2実施形態によれば、ストレージサブシステム1000が要する容量拡張ボリューム1110の構成要素である物理リソース1121の一部が、外部ストレージサブシステム6000の論理ボリューム6110で構成されるシステム構成下でも、第1実施形態と同様の効果を得ることが出来る。
<第3実施形態>
第3実施形態では、第2実施形態とは異なるシステム構成にて、障害などのイベント発生時における容量拡張ボリューム1110の要件を満たす処理について示す。前述した第2実施形態では、前記ストレージサブシステム1000の一部物理リソース1121の実体を、第1の外部ストレージサブシステム(1)6000に持つシステム構成下で処理を行っていた。しかし、第3実施形態では、前記ストレージサブシステム1000の一部物理リソース1121の実体を、第1の外部ストレージサブシステム6000と第2の外部ストレージサブシステム6000に持つシステム構成下において、第2実施形態と同様の効果を得る。
(1)第3実施形態のシステム構成
第3実施形態のシステム構成では、大部分は前述した第2実施形態と同様であるため、異なる構成のみ説明する。図17に第3実施形態の計算機システムの構成を示す。
第3実施形態の計算機システムでは、前記ストレージサブシステム1000と第1の外部ストレージサブシステム6000、第2の外部ストレージサブシステム6000が第1のスイッチ装置7000、第2のスイッチ装置7000で互いに接続される。本実施例では、各スイッチ装置7000はSANを構成する FC スイッチ装置とするが、IPネットワークであっても、あるいはこれら以外のデータ通信用のスイッチ装置であっても良い。さらに第1の外部ストレージサブシステム6000は、第2の外部ストレージサブシステム6000と第3のスイッチ装置7000で互いに接続される。
第1の外部ストレージサブシステム6000と第2の外部ストレージサブシステム6000および管理計算機4000は、第4のスイッチ装置5000で互いに接続される。
第1の外部ストレージサブシステム6000と第2の外部ストレージサブシステム6000は、第2実施形態の構成要素に加え、メインメモリ1210に指定されたデータ領域を移動するデータ移動プログラム6212が追加されて構成されている。
なお、説明の都合上、第2実施形態の計算機システムの構成図である図14に記載していたホスト計算機2000、ホスト計算機2000とストレージサブシステム1000を接続するスイッチ装置3000、ストレージサブシステム1000のメインメモリ1210のイベント送信プログラム1211、セグメント移動プログラム1212、物理論理情報管理プログラム1213、物理論理管理テーブル1214、セグメント管理テーブル1215、物理リソース管理プログラム1216、外部ストレージ管理テーブル1217を、図17から省略するが存在しているものとする。さらに、説明の都合上、第2の外部ストレージサブシステム6000の構成は第1の外部ストレージサブシステム6000と同様の構成であるため、図17から省略するが存在するものとする。
(2)第3実施形態の動作
第3実施形態の動作では、大部分は前述した第2実施形態と同様であるため、異なる構成のみ説明する。次に、第3実施形態におけるイベント送信プログラム1211の処理について、図8を参照しながら説明する。
イベント送信プログラム1211は、障害を検知する(S1000)。なお、本明細書では、説明の都合上、検知するイベントを障害としているが、その他ユーザからの指示、ストレージサブシステムの高負荷による性能低下、など他のイベントであっても良い。
次に、イベント送信プログラム1211は、障害情報をイベント受信プログラム4120へ送信する。障害情報とは、障害の発生部位を識別する情報、故障内容、重要度、障害発生時刻などを含んでいる情報である。本明細書では、説明の都合上、障害が、ストレージサブシステム1000と第1の外部ストレージサブシステム6000を接続する第1のスイッチ装置7000に発生したと仮定し、さらに、送信される障害の発生部位を識別する情報とし、第1のスイッチ装置7000の識別情報とする。イベント受信プログラム4120の処理について、図18を参照しながら説明する。
イベント受信プログラム4120は、外部ストレージサブシステム6000のイベント送信プログラム6211から、障害が発生した第1のスイッチ装置7000の識別情報を含む障害情報を受信する(S8000)。
次に、イベント受信プログラム4120は、ストレージサブシステム1000から外部ストレージ管理テーブル1217を取得する(S8100)。その後、イベント受信プログラム4120は、障害が発生した第1のスイッチ装置7000の識別情報と、外部ストレージ管理テーブル1217の接続スイッチ装置T620が一致するレコードの物理リソース番号T600を取得する(S8200)。
次に、イベント受信プログラム4120は、ストレージサブシステム1000からセグメント管理テーブル1215を取得する(S8300)。その後、イベント受信プログラム4120は、前記処理(S7200)で取得した物理リソースの識別番号とセグメント管理テーブル1215の物理リソース番号T310が一致するレコードのプール番号T300を取得する(S8400)。
次に、イベント受信プログラム4120は、前記処理(S7400)にて取得したプール番号とプール要件テーブル4150のプール番号T500が一致したレコードのプール要件T510を取得する(S8500)。
その後、イベント受信プログラム4120は、受信した障害内容によりプール要件T510が満たさなくなるかを判定する(S8600)。イベント受信プログラム4120は、判定した結果、プール要件を満たす場合、処理を終了する(S8700)。
一方、イベント受信プログラム4120は、判定した結果、プール要件を満たさなくなる場合、容量拡張ボリューム管理プログラム4110へ障害が発生した物理リソース番号、プール番号、満たさなくなったプール要件を送信する(S8800)。
セグメント移動指示プログラム4130の処理について、図19を参照しながら説明する。セグメント移動指示プログラム4130は、イベント受信プログラム4120から、障害情報、障害が発生した物理リソース番号、プール番号、満たさなくなったプール要件を受信する(S9000)。
次に、セグメント移動指示プログラム4130は、ストレージサブシステム1000から、セグメント管理テーブル1215、物理リソース管理テーブル1216、外部ストレージ管理テーブル1217を取得する(S9100)。
その後、セグメント移動指示プログラム4130は、物理リソース管理テーブルから満たさなくなったプール要件を満たす且つ障害が発生した物理リソース以外の条件を満たす物理リソース番号を取得する(S9200)。
続いて、セグメント移動指示プログラム4130は、障害が発生した物理リソース番号と、セグメント管理テーブル1215の物理リソース番号T210が一致する且つセグメント管理テーブル1215の使用状況T250が割当済のレコードの開始アドレスT230、終了アドレスT240を取得する(S9300)。
次に、セグメント移動指示プログラム4130は、障害が発生した物理リソース番号と外部ストレージ管理テーブル1217の物理リソース番号T600が一致するレコードの外部ボリューム情報T610から移動元の外部ストレージサブシステムを特定する(S9400)。
更に、セグメント移動指示プログラム4130は、条件を満たす物理リソース番号と、外部ストレージ管理テーブル1217の物理リソース番号T600が一致するレコードの外部ボリューム情報T610から移動先の外部ストレージサブシステムを特定する(S9500)。
セグメント移動指示プログラム4130は、移動元の外部ストレージサブシステムのデータ移動プログラム6212へ前記処理(S9300)で取得した開始アドレスから終了アドレスまでの領域のデータを移動先の外部ストレージサブシステムへ移動するよう指示を送信する(S9600)。その後、セグメント移動指示プログラム4130は、データ移動プログラムから移動先の開始アドレスと終了アドレスを受信する(S9700)。
最後に、セグメント移動指示プログラム4130は、セグメント移動指示プログラム1212へ、障害が発生した物理リソース番号を移動元物理リソース番号として、条件を満たす物理リソース番号を移動先物理リソースとして、更に移動先の開始アドレスと終了アドレス、を送信する(S9800)。
データ移動プログラム6212の処理について、図20を参照しながら説明する。データ移動プログラム6212は、セグメント移動指示プログラムより開始アドレスから終了アドレスまでの領域のデータを移動先の外部ストレージサブシステムに移動する指示を受信する(S10000)。
次に、データ移動プログラム6212は、移動先の外部ストレージサブシステムへ指示を受けた領域のデータを移動する(S10100)。その後、データ移動プログラム6212は、セグメント移動指示プログラム4130へ移動先の開始アドレスと終了アドレスを送信する(S10200)。
物理論理情報管理プログラム1213の処理について、図21を参照しながら説明する。物理論理情報管理プログラム1213は、セグメント移動指示プログラムから移動元物理リソース番号、移動先物理リソース番号、移動先の開始アドレスと終了アドレスを受信する(S11000)。
次に、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と移動元物理リソース番号が一致するセグメント番号を取得する(S11100)。
その後、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と移動先リソース番号且つ、移動先の開始アドレスと終了アドレスが一致するレコードのセグメント番号を取得する(S11200)。続いて、物理論理情報管理プログラム1213は、前記処理(S11200)のセグメント番号の使用状況T250を割当済に変更する(S11300)。
次に、物理論理情報管理プログラム1213は、物理論理管理テーブル1214のセグメント番号T110と、前記処理(S111000)で取得したセグメント番号と一致するレコードを取得する(S11400)。
その後、物理論理情報管理プログラム1213は、前記処理(S11400)で取得したレコードのセグメント番号を前記処理(S11200)で取得したセグメント番号に変更する(S11500)。
最後に、物理論理情報管理プログラム1213は、セグメント管理テーブル1215の物理リソース番号T210と移動元物理リソース番号と一致するレコードの使用状況T250を未割当に変更する(S11600)。その他の動作については、第2実施形態と同様の動作を行う。
以上、第3実施形態によれば、ストレージサブシステム1000の一部物理リソース1121の実体を、第1の外部ストレージサブシステム6000と第2の外部ストレージサブシステム6000に持つシステム構成下において、第2実施形態と同様の効果を得ることが出来る。
第1実施形態の計算機システムの構成図である。 第1実施形態の物理論理管理テーブルの構成図である。 第1実施形態のセグメント管理テーブルの構成図である。 第1実施形態の容量拡張ボリュームの構成の一例を示す図である。 第1実施形態の物理リソース管理テーブルの構成図である。 第1実施形態のストレージ構成管理テーブルの構成図である。 第1実施形態のプール要件テーブルの構成図である。 第1実施形態のイベント送信プログラムの処理を表す図である。 第1実施形態のイベント受信プログラムの処理を表す図である。 第1実施形態の容量拡張ボリューム管理プログラムの処理を表す図である。 第1実施形態のセグメント移動指示プログラムの処理を表す図である。 第1実施形態のセグメント移動プログラムの処理を表す図である。 第1実施形態の物理論理情報管理プログラムの処理を表す図である。 第2実施形態の計算機システムの構成図である。 第2実施形態の外部ストレージ管理テーブルの構成図である。 第2実施形態のイベント受信プログラムの処理を表す図である。 第3実施形態の計算機システムの構成図である。 第3実施形態のイベント受信プログラムの処理を表す図である。 第3実施形態のセグメント移動指示プログラムの処理を表す図である。 第3実施形態のデータ移動プログラムの処理を表す図である。 第3実施形態の物理論理情報管理プログラムの処理を表す図である。
符号の説明
1000 ストレージサブシステム
2000 ホスト計算機
3000 スイッチ装置
4000 管理計算機
6000 外部ストレージサブシステム

Claims (15)

  1. ホスト計算機と通信ネットワークを介して情報の授受を行い、前記ホスト計算機からのアクセスに応じ、前記ホスト計算機に記憶装置の記憶領域を提供するストレージサブシステムと、前記記憶装置の記憶領域を容量拡張ボリュームとして管理し、前記容量拡張ボリュームの生成元であるプールのユーザ要件を格納するプール要件テーブルを有する管理計算機を備え、
    前記管理計算機は、前記容量拡張ボリュームの一部の領域に前記プール要件を満たさない事象が生じたときに、前記ホスト計算機からのアクセス対象の前記記憶装置の論理ボリュームのうち前記プール要件を満たさない事象の影響を受ける論理ボリュームを特定するステップと、前記特定した論理ボリュームが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記容量拡張ボリュームのプール要件を満たす論理ボリュームを選出するステップを実行し、
    前記ストレージサブシステムは、前記管理計算機からの指示に応答して、前記容量拡張ボリュームの一部の領域を前記選出された論理ボリュームに再配置するステップを実行する、論理ボリュームのデータ移動方法。
  2. 前記管理計算機は、前記ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記イベント情報と前記論理ボリュームの構成情報を基に前記容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記プール要件を満たすデータ領域を選出するステップと、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へのデータの移動を前記ストレージサブシステムに指示するステップを実行し、
    前記ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信するステップと、前記管理計算機から前記データの移動に関する指示を受けたときに、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へデータを移動するステップと、前記論理ボリュームの構成情報を、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域に変更するステップを実行する、請求項1に記載の論理ボリュームのデータ移動方法。
  3. 前記管理計算機は、前記ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記ホスト計算機のアクセス対象の物理リソースのうち前記イベント情報の影響を受ける物理リソースを特定するステップと、前記特定された物理リソースが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記アクセス対象の物理リソースの中から前記プール要件を満たすことができる物理リソースを選出するステップと、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるデータの移動を前記ストレージサブシステムに指示するステップを実行し、
    前記ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信するステップと、前記管理計算機から前記データの移動に関する指示を受けたときに、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるステップと、前記イベント情報の影響を受ける物理リソースの物理リソース番号を、前記プール要件を満たす物理リソースの物理リソース番号に変更するステップを実行する、請求項1又は2に記載の論理ボリュームのデータ移動方法。
  4. ホスト計算機と通信ネットワークを介して情報の授受を行い、前記ホスト計算機からのアクセスに応じ、前記ホスト計算機に記憶装置の記憶領域を提供する複数のストレージサブシステムと、前記記憶装置の記憶領域を容量拡張ボリュームとして管理し、前記容量拡張ボリュームの生成元であるプールのユーザ要件を格納するプール要件テーブルを有する管理計算機を備え、
    前記管理計算機は、前記容量拡張ボリュームの一部の領域にプール要件を満たさない事象が生じたときに、前記ホスト計算機からのアクセス対象の前記記憶装置の論理ボリュームのうち前記プール要件を満たさない事象の影響を受ける論理ボリュームを特定するステップと、前記特定した論理ボリュームが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記容量拡張ボリュームのプール要件を満たす論理ボリュームを選出するステップを実行し、
    前記ストレージサブシステムのうち1つは、前記管理計算機からの指示に応答して、前記容量拡張ボリュームの一部の領域を前記選出された論理ボリュームに再配置するステップを実行する、論理ボリュームのデータ移動方法。
  5. 前記管理計算機は、前記ストレージサブシステムのうち外部ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記イベント情報と前記論理ボリュームの構成情報および前記外部ストレージサブシステムの対応関係を基に前記容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記プール要件を満たすデータ領域を選出するステップと、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へのデータの移動を前記ストレージサブシステムのうち指定のストレージサブシステムに指示するステップを実行し、
    前記外部ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信するステップを実行し、
    前記指定のストレージサブシステムは、前記管理計算機から前記データの移動に関する指示を受けたときに、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へデータを移動するステップと、前記論理ボリュームの構成情報を、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域に変更するステップを実行する、請求項4に記載の論理ボリュームのデータ移動方法。
  6. 前記管理計算機は、前記ストレージサブシステムのうち外部ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記ホスト計算機のアクセス対象の物理リソースのうち前記イベント情報の影響を受ける物理リソースを特定するステップと、前記特定された物理リソースが前記容量拡張ボリュームのプール要件を満たすか否かを判定するステップと、前記ステップで否定の判定結果を得たときに、前記アクセス対象の物理リソースの中から前記プール要件を満たすことができる物理リソースを選出するステップと、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるデータの移動を前記ストレージサブシステムのうち指定のストレージサブシステムに指示するステップを実行し、
    前記外部ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信するステップを実行し、
    前記指定のストレージサブシステムは、前記管理計算機から前記データの移動に関する指示を受けたときに、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるステップと、前記イベント情報の影響を受ける物理リソースの物理リソース番号を、前記プール要件を満たす物理リソースの物理リソース番号に変更するステップを実行する、請求項4又は5に記載の論理ボリュームのデータ移動方法。
  7. ホスト計算機と通信ネットワークを介して情報の授受を行い、前記ホスト計算機からのアクセスに応じ、前記ホスト計算機に記憶装置の記憶領域を提供するストレージサブシステムと、前記記憶装置の記憶領域を容量拡張ボリュームとして管理し、前記容量拡張ボリュームの生成元であるプールのユーザ要件を格納するプール要件テーブルを有する管理計算機を備え、
    前記管理計算機は、前記容量拡張ボリュームの一部の領域にプール要件を満たさない事象が生じたときに、前記ホスト計算機からのアクセス対象の前記記憶装置の論理ボリュームのうち前記プール要件を満たさない事象の影響を受ける論理ボリュームを特定し、前記特定した論理ボリュームが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記容量拡張ボリュームのプール要件を満たす論理ボリュームを選出し、
    前記ストレージサブシステムは、前記管理計算機からの指示に応答して、前記容量拡張ボリュームの一部の領域を前記選出された論理ボリュームに再配置してなる、ストレージシステム。
  8. 前記管理計算機は、前記ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記イベント情報と前記論理ボリュームの構成情報を基に前記容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記プール要件を満たすデータ領域を選出し、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へのデータの移動を前記ストレージサブシステムに指示し、
    前記ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信し、前記管理計算機から前記データの移動に関する指示を受けたときに、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へデータを移動し、前記論理ボリュームの構成情報を、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域に変更する、請求項7に記載のストレージシステム。
  9. 前記管理計算機は、前記ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記ホスト計算機のアクセス対象の物理リソースのうち前記イベント情報の影響を受ける物理リソースを特定し、前記特定された物理リソースが前記容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記アクセス対象の物理リソースの中から前記プール要件を満たすことができる物理リソースを選出し、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるデータの移動を前記ストレージサブシステムに指示し、
    前記ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信し、前記管理計算機から前記データの移動に関する指示を受けたときに、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動し、前記イベント情報の影響を受ける物理リソースの物理リソース番号を、前記プール要件を満たす物理リソースの物理リソース番号に変更する、請求項7又は8に記載のストレージシステム。
  10. ホスト計算機と通信ネットワークを介して情報の授受を行い、前記ホスト計算機からのアクセスに応じ、前記ホスト計算機に記憶装置の記憶領域を提供する複数のストレージサブシステムと、前記記憶装置の記憶領域を容量拡張ボリュームとして管理し、前記容量拡張ボリュームの生成元であるプールのユーザ要件を格納するプール要件テーブルを有する管理計算機を備え、
    前記管理計算機は、前記容量拡張ボリュームの一部の領域にプール要件を満たさない事象が生じたときに、前記ホスト計算機からのアクセス対象の前記記憶装置の論理ボリュームのうち前記プール要件を満たさない事象の影響を受ける論理ボリュームを特定し、前記特定した論理ボリュームが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記容量拡張ボリュームのプール要件を満たす論理ボリュームを選出し、
    前記ストレージサブシステムのうち1つは、前記管理計算機からの指示に応答して、前記容量拡張ボリュームの一部の領域を前記選出された論理ボリュームに再配置する、ストレージシステム。
  11. 前記管理計算機は、前記ストレージサブシステムのうち外部ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記イベント情報と前記論理ボリュームの構成情報および前記外部ストレージサブシステムの対応関係を基に前記容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記プール要件を満たすデータ領域を選出し、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へのデータの移動を前記ストレージサブシステムのうち指定のストレージサブシステムに指示し、
    前記外部ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信し、
    前記指定のストレージサブシステムは、前記管理計算機から前記データの移動に関する指示を受けたときに、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へデータを移動し、前記論理ボリュームの構成情報を、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域に変更する、請求項10に記載のストレージシステム。
  12. 前記管理計算機は、前記ストレージサブシステムのうち外部ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記ホスト計算機のアクセス対象の物理リソースのうち前記イベント情報の影響を受ける物理リソースを特定し、前記特定された物理リソースが前記容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記アクセス対象の物理リソースの中から前記プール要件を満たすことができる物理リソースを選出し、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるデータの移動を前記ストレージサブシステムのうち指定のストレージサブシステムに指示し、
    前記外部ストレージサブシステムは、イベントを検知したときに、イベント情報を前記管理計算機に送信し、
    前記指定のストレージサブシステムは、前記管理計算機から前記データの移動に関する指示を受けたときに、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動し、前記イベント情報の影響を受ける物理リソースの物理リソース番号を、前記プール要件を満たす物理リソースの物理リソース番号に変更する、請求項10又は11に記載のストレージシステム。
  13. ホスト計算機に記憶装置の記憶領域を提供するストレージサブシステムと情報の授受を行うとともに、前記記憶装置の記憶領域を容量拡張ボリュームとして管理し、前記容量拡張ボリュームの生成元であるプールのユーザ要件を格納するプール要件テーブルを有する管理部を備え、
    前記管理部は、前記容量拡張ボリュームの一部の領域にプール要件を満たさない事象が生じたとき、前記ホスト計算機からのアクセス対象の前記記憶装置の論理ボリュームのうち前記プール要件を満たさない事象の影響を受ける論理ボリュームを特定し、前記特定した論理ボリュームが前記プール要件テーブルにおける容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記容量拡張ボリュームのプール要件を満たす論理ボリュームを選出し、前記容量拡張ボリュームの一部の領域を前記選出された論理ボリュームに再配置するための指示を前記ストレージサブシステムに送信してなる、管理計算機。
  14. 前記管理部は、前記ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記イベント情報と前記論理ボリュームの構成情報を基に前記容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記プール要件を満たすデータ領域を選出し、前記プール要件を満たさなくなったデータ領域から前記プール要件を満たすデータ領域へのデータの移動を前記ストレージサブシステムに指示してなる、請求項13に記載の管理計算機。
  15. 前記管理部は、前記ストレージサブシステムから送信されたイベント情報を受信したことを条件に、前記ホスト計算機のアクセス対象の物理リソースのうち前記イベント情報の影響を受ける物理リソースを特定し、前記特定された物理リソースが前記容量拡張ボリュームのプール要件を満たすか否かを判定し、前記判定で否定の判定結果を得たときに、前記アクセス対象の物理リソースの中から前記プール要件を満たすことができる物理リソースを選出し、前記イベント情報の影響を受ける物理リソースに格納されていたデータを、前記プール要件を満たす物理リソースへ移動させるデータの移動を前記ストレージサブシステムに指示してなる、請求項13又は14に記載の管理計算機。
JP2008217216A 2008-08-26 2008-08-26 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機 Expired - Fee Related JP5183363B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008217216A JP5183363B2 (ja) 2008-08-26 2008-08-26 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機
US12/254,427 US20100057989A1 (en) 2008-08-26 2008-10-20 Method of moving data in logical volume, storage system, and administrative computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008217216A JP5183363B2 (ja) 2008-08-26 2008-08-26 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機

Publications (3)

Publication Number Publication Date
JP2010055209A JP2010055209A (ja) 2010-03-11
JP2010055209A5 JP2010055209A5 (ja) 2010-12-24
JP5183363B2 true JP5183363B2 (ja) 2013-04-17

Family

ID=41726993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008217216A Expired - Fee Related JP5183363B2 (ja) 2008-08-26 2008-08-26 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機

Country Status (2)

Country Link
US (1) US20100057989A1 (ja)
JP (1) JP5183363B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043055A (ja) 2007-08-09 2009-02-26 Hitachi Ltd 計算機システム、ストレージ装置及びデータ管理方法
US20100191907A1 (en) * 2009-01-26 2010-07-29 Lsi Corporation RAID Converter and Methods for Transforming a First RAID Array to a Second RAID Array Without Creating a Backup Copy
CN102063383B (zh) * 2010-12-22 2013-01-23 深圳市创新科信息技术有限公司 一种逻辑区段和物理区段之间映射关系的记录方法
US9459974B2 (en) 2014-05-28 2016-10-04 International Business Machines Corporation Recovery mechanisms across storage nodes that reduce the impact on host input and output operations
US9870366B1 (en) * 2015-09-18 2018-01-16 EMC IP Holding Company LLC Processing storage capacity events in connection with file systems
CN110399204A (zh) * 2019-07-26 2019-11-01 苏州浪潮智能科技有限公司 一种kvm的内存配置方法、装置、设备及可读存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3641872B2 (ja) * 1996-04-08 2005-04-27 株式会社日立製作所 記憶装置システム
US7392234B2 (en) * 1999-05-18 2008-06-24 Kom, Inc. Method and system for electronic file lifecycle management
JP4175788B2 (ja) * 2001-07-05 2008-11-05 株式会社日立製作所 ボリューム制御装置
US7162600B2 (en) * 2005-03-29 2007-01-09 Hitachi, Ltd. Data copying method and apparatus in a thin provisioned system
JP2003296037A (ja) * 2002-04-05 2003-10-17 Hitachi Ltd 計算機システム
JP4863605B2 (ja) * 2004-04-09 2012-01-25 株式会社日立製作所 記憶制御システム及び方法
JP2005326935A (ja) * 2004-05-12 2005-11-24 Hitachi Ltd 仮想化ストレージを備える計算機システムの管理サーバおよび障害回避復旧方法
US7698517B2 (en) * 2004-12-02 2010-04-13 Storagedna, Inc. Managing disk storage media
GB0514529D0 (en) * 2005-07-15 2005-08-24 Ibm Virtualisation engine and method, system, and computer program product for managing the storage of data
US20070083482A1 (en) * 2005-10-08 2007-04-12 Unmesh Rathi Multiple quality of service file system
JP4890033B2 (ja) * 2006-01-19 2012-03-07 株式会社日立製作所 記憶装置システム及び記憶制御方法
JP4927412B2 (ja) * 2006-02-10 2012-05-09 株式会社日立製作所 記憶制御方法及びその制御方法
US8260831B2 (en) * 2006-03-31 2012-09-04 Netapp, Inc. System and method for implementing a flexible storage manager with threshold control
US9037828B2 (en) * 2006-07-13 2015-05-19 International Business Machines Corporation Transferring storage resources between snapshot storage pools and volume storage pools in a data storage system
US9152349B2 (en) * 2007-03-23 2015-10-06 Emc Corporation Automated information life-cycle management with thin provisioning
US8051243B2 (en) * 2008-04-30 2011-11-01 Hitachi, Ltd. Free space utilization in tiered storage systems

Also Published As

Publication number Publication date
US20100057989A1 (en) 2010-03-04
JP2010055209A (ja) 2010-03-11

Similar Documents

Publication Publication Date Title
JP5069011B2 (ja) ストレージモジュール及び容量プール空き容量調整方法
US8984221B2 (en) Method for assigning storage area and computer system using the same
US8937965B2 (en) Storage system comprising function for migrating virtual communication port added to physical communication port
US8103826B2 (en) Volume management for network-type storage devices
EP1837751B1 (en) Storage system, storage extent release method and storage apparatus
JP5427630B2 (ja) 動的ページ再割当てストレージシステムにおけるアプリケーション及び階層構成の管理
US8639898B2 (en) Storage apparatus and data copy method
JP5363595B2 (ja) 仮想ボリューム内のデータの再配置を行うストレージシステム及び方法
WO2012049711A1 (en) Data migration system and data migration method
JP5816303B2 (ja) フラッシュメモリを含むストレージシステム、及び記憶制御方法
JP2009043030A (ja) ストレージシステム
US8001324B2 (en) Information processing apparatus and informaiton processing method
JP2014506688A (ja) フラッシュメモリを含むストレージシステム、及び記憶制御方法
JP2015517697A (ja) 二次記憶装置に基づく記憶領域をキャッシュ領域として用いるストレージシステム及び記憶制御方法
JP5183363B2 (ja) 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機
JP2007140728A (ja) 記憶装置システム及び記憶制御方法
JPWO2011117925A1 (ja) ストレージ装置及びその制御方法
JPWO2014155555A1 (ja) 管理システム及び管理プログラム
US7676644B2 (en) Data processing system, storage apparatus and management console
US8732422B2 (en) Storage apparatus and its control method
JP4643456B2 (ja) アクセスの設定方法
US20070277018A1 (en) Storage area allocating apparatus, storage area allocating method, and computer product
JP5597266B2 (ja) ストレージシステム
JP2021009561A (ja) データ処理システム、データ処理装置及びデータ処理プログラム
JP6636159B2 (ja) ストレージ装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees