JP2007310861A - ストレージシステム及びその制御方法 - Google Patents

ストレージシステム及びその制御方法 Download PDF

Info

Publication number
JP2007310861A
JP2007310861A JP2006240031A JP2006240031A JP2007310861A JP 2007310861 A JP2007310861 A JP 2007310861A JP 2006240031 A JP2006240031 A JP 2006240031A JP 2006240031 A JP2006240031 A JP 2006240031A JP 2007310861 A JP2007310861 A JP 2007310861A
Authority
JP
Japan
Prior art keywords
volume
storage
virtual volume
storage area
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006240031A
Other languages
English (en)
Other versions
JP5037881B2 (ja
Inventor
Kentaro Kadoi
健太郎 角井
Kiyousuke Achiwa
恭介 阿知和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006240031A priority Critical patent/JP5037881B2/ja
Priority to US11/528,284 priority patent/US7680984B2/en
Publication of JP2007310861A publication Critical patent/JP2007310861A/ja
Priority to US12/704,463 priority patent/US7949828B2/en
Priority to US13/099,300 priority patent/US8195913B2/en
Priority to US13/476,661 priority patent/US8635427B2/en
Application granted granted Critical
Publication of JP5037881B2 publication Critical patent/JP5037881B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0613Improving I/O performance in relation to throughput
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【解決課題】AOU技術を利用したストレージシステムにおいて、記憶領域の利用効率を
改善する。
【解決手段】ストレージシステムのコントローラは、上位装置による仮想ボリュームへの
アクセスに応じて、上位装置がアクセスした仮想ボリュームの領域に実ボリュームの記憶
領域を割り当て、この割り当てを維持する必要が低下したことを検出し、その検出結果に
基づいて仮想ボリュームの領域に対する、前記実ボリュームの記憶領域の割り当てを解放
する。
【選択図】図12

Description

本発明は、ハードディスクドライブ(以下、HDD、と称する)等の記憶デバイスに対するデータの記憶制御を行うストレージシステムに関するものである。
ストレージシステムと、このストレージシステムにネットワークなどの通信経路を介して接続するサーバやホストコンピュータなどの上位装置とを備えた、コンピュータシステムで扱われるデータ量の増加に伴い、ストレージシステムが備える記憶領域が大容量化されてきている。ストレージ装置は、上位装置がアクセス可能なボリュームを論理的に定義し、この論理ボリュームの物理的記憶領域に上位装置がアクセスすることによって、記憶デバイスに対するデータの入出力が可能となる。
最近では、上位装置が取り扱うデータ量が大幅に増えていることから、ボリュームの記憶容量であるボリュームサイズを大幅に増やさなくてはならなくなっている。最初から大きなサイズの記憶領域を上位装置に割り当てておけば、上位装置にとって記憶容量の不足は起こらず、途中で上位装置に割り当てられている記憶領域のサイズを拡大する必要もない。しかしながら、上位装置である計算機がそれほど大量のデータを使わない場合には、計算機に割り当てられた記憶領域に未使用の領域が発生して記憶領域に無駄が発生する。そこで、上位計算機のプロセッサがストレージ装置の仮想ボリュームに書き込みを行った
ときに初めて、書き込みが行われた仮想ボリューム上の領域に実記憶領域を割り当てることが提案されている(特開2005−11316号公報)。さらに、米国特許第6,823,442号公報には、上位装置がアクセスする仮想ボリュームをストレージシステムに設け、この仮想ボリュームに物理的記憶領域を割り当てることが記載されている。
なお、本発明に関連する従来例として、特開2005−128771号公報には、データを記憶する物理ストレージを有しアクセス要求を受けてその物理ストレージをアクセスするデータアクセスサーバと、そのデータアクセスサーバにアクセス要求を送りデータアクセスサーバをデータ保存のために利用してデータファイリングを行なうデータファイルサーバとを備えたデータファイルシステム等に関し、論理ブロックが不使用になったときに物理ブロックを有効に解放することが記載されている。また、特開2004−127301号公報には、仮想記憶空間と、物理記憶空間と、仮想記憶空間の複数のアドレスを物理記憶空間の各アドレスに関連付けるように構成されたマッピングシステムと、順序に従ってマッピングシステムの除去部分を指定する優先順位付け規定に従って、マッピングシステムの一部を自動的に除去するように構成されたコントローラと、を備える記憶システムが記載されている。
特開2005-11316号公報 米国特許第6,823,442号公報 特開2005−128771号公報 特開2004−127301号公報
本願出願人はストレージシステムにおいて記憶資源を有効に活用するためにAllocation on Use(AOU)という技術を開発している。このAOU技術は、ストレージシステムが、それ自身は記憶領域を持たない仮想ボリュームを上位装置に提供し、この仮想ボリュームにはプールと呼ばれる記憶領域の集合を対応させている。上位装置が仮想ボリュームにアクセスすると、ストレージシステムは上位装置によってアクセスされた仮想ボリュームの領域にプールに含まれる記憶領域を割り当てる。この割り当ては、上位装置が仮想ボリュームにアクセスすることによって実行される。一つのプールには複数の仮想ボリュームが対応可能であるために、ストレージシステムはプールの記憶領域を有効活用することができる。ストレージシステムはあらかじめ大きな、見かけの容量を持つ仮想ボリュームを用意しておき、ストレージシステムは、プールの利用状況に応じて、プールに記憶容量を追加する。
AOU技術は、プールの記憶領域が仮想ボリュームの領域に割り当てられる構成を備えているため、上位装置が仮想ボリュームの領域にアクセスするにしたがって仮想ボリュームに割り当てられる記憶領域は増加する一方である。記憶領域に対する上位装置のアクセスが今後実質的に無いと判断される場合に、仮想ボリュームに対する記憶領域の割り当てが固定されたままであると、この記憶領域の利用効率が低下する。また、記憶領域の仮想ボリュームの領域への割り当てが、上位装置が仮想ボリュームにアクセスする際に行われるために、上位装置が仮想ボリュームを介してプールの記憶領域にアクセスする際のアク
セススピードに改善の余地がある。
そこで、本発明は、AOU技術を利用したストレージシステムにおいて、記憶領域の利用効率を改善することにある。本発明の他の目的は、AOU技術を利用したストレージシステムにおいて、上位装置が仮想ボリュームを介して記憶領域にアクセスする際のアクセススピードを改善することにある。さらに本発明の他の目的は、AOU技術を利用したストレージシステムにおいて、上位装置が仮想ボリュームを介して記憶領域にアクセスする際のアクセススピードを改善するとともに、記憶領域の利用効率を改善することにある。
本発明は、仮想ボリュームに一旦記憶領域を割り当てた後、何らかの事情を契機として、この割当を解放することにより、記憶資源の有効利用が可能なストレージシステムを提供することを特徴とするものである。この契機とはさまざまなものが考えられるが、例えば、ボリュームペアのペア状態の解除、正ボリュームのスナップショットを記録する副ボリュームを外部媒体にバックアップした後のタイミング、上位装置からストレージシステムに発行されたデータ削除のコマンドの処理のタイミング、そして、上位装置に対して予め割り当てられているものの、上位装置からのアクセスが無い記憶領域について、定期的に解放処理を実行するタイミング、がある。
本発明は、記憶デバイスと、通信経路を介して接続される上位装置からの要求に応じて、前記記憶デバイスにデータを入出力する制御を行うコントローラと、を備えるストレージシステムにおいて、前記上位装置がアクセスする仮想ボリュームと、前記記憶デバイスの記憶領域を有する実ボリュームと、を有し、前記実ボリュームが前記仮想ボリュームに割り当てられることによって、前記仮想ボリュームを介して前記上位装置が前記実ボリュームの記憶領域にアクセスするように構成され、前記コントローラは、前記上位装置による前記仮想ボリュームへのアクセスに応じて、前記上位装置がアクセスした仮想ボリュームの領域に前記実ボリュームの記憶領域を割り当て、この割り当てを維持する必要が低下したことを検出し、その検出結果に基づいて前記仮想ボリュームの領域に対する、前記実ボリュームの記憶領域の割り当てを解放する、ことを特徴とするものである。
さらに、本発明は、記憶デバイスと、コントローラと、を有し、通信経路を介して接続される上位装置からの要求に応じて、前記記憶デバイスにデータを入出力する制御を行うストレージ装置において、前記上位装置がアクセスする仮想ボリュームと、前記記憶デバイスの記憶領域を有する実ボリュームと、を有し、前記実ボリュームが前記仮想ボリュームに割り当てられることによって、前記仮想ボリュームを介して前記上位装置が前記実ボリュームの記憶領域にアクセスするように構成され、さらに、前記コントローラは、前記上位装置による前記仮想ボリュームへのアクセスに応じて、前記上位装置がアクセスした
仮想ボリュームの領域に前記実ボリュームの記憶領域を割り当て、そして前記上位装置が前記仮想ボリュームに対して続いてアクセスする領域を予測し、この予測された領域に前記実ボリュームの記憶領域を割り当てる、ことを特徴とするものである。
以上説明したように、本発明によれば、仮想ボリュームに一旦記憶領域を割り当てた後、何らかの事情を契機として、この割当を解放することにより、記憶資源の有効利用が可能なストレージシステムを提供することができる。更に本発明によれば、本発明の他の目的は、AOU技術を利用したストレージシステムにおいて、上位装置が仮想ボリュームを介して記憶領域にアクセスする際のアクセススピードを改善することができる。さらにAOU技術を利用したストレージシステムにおいて、上位装置が仮想ボリュームを介して記憶領域にアクセスする際のアクセススピードを改善するとともに、記憶領域の利用効率を改善することができる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、以後説明される図面においては、同一部には同一符号を付し、その繰り返しの説明は省略又は簡略化される。
図1は、本発明が適用されるストレージシステム(ストレージ装置ということもある。)600を含んだ、記憶制御システムを示すハードウエアブロック図である。ストレージシステム600は複数の記憶デバイス300と、情報処理装置200からの入出力要求に応答して記憶デバイス300への入出力制御を行う記憶デバイス制御装置(コントローラ)100と、を備えて構成されている。
情報処理装置200は上位装置に相当し、CPUやメモリ等を備えたサーバ(ホスト)や、ストレージ装置の管理用コンピュータからなり、例えば、ワークステーション、メインフレームコンピュータ、パーソナルコンピュータ等で構成される。情報処理装置200は複数台のコンピュータをネットワーク接続して構成することもできる。情報処理装置200はオペレーティングシステム上で動作するアプリケーションプログラムを実装している。アプリケーションプログラムとしては、例えば、銀行の自動預金預け払いシステムや航空機の座席予約システム等がある。また、サーバとしては、アプリケーションを実行する、更新系サーバや、更新系サーバのバックエンドでバックアップなどを実行するバックアップサーバが存在する。
情報処理装置1乃至3(200)はLAN(Local Area Network)400を介してストレージ装置600と接続されている。LAN400は、例えば、イーサネット(登録商標)やFDDI等の通信網であり、情報処理装置1乃至3(200)とストレージシステム600との間の通信はTCP/IPプロトコルスイートによって行われる。情報処理装置1乃至3(200)からはストレージシステム600に対してファイル名指定によるデータアクセス要求(ファイル単位でのデータ入出力要求。以下、ファイルアクセス要求と称する。)が後述のチャネル制御部CHN1乃至CHN4(110)に送信される。
LAN400にはバックアップデバイス910が接続されている。バックアップデバイス910は、例えば、MO、CD−R、DVD−RAM等のディスク系デバイス、DATテープ、カセットテープ、オープンテープ、カートリッジテープ等のテープ系デバイスである。バックアップデバイス910はLAN400を介して記憶デバイス制御装置100との間で通信を行うことにより記憶デバイス300に記憶されているデータのバックアップデータを記憶する。また、バックアップデバイス910は情報処理装置1(200)と接続し、情報処理装置1(200)を介して記憶デバイス300に記憶されているデータ
のバックアップを取得する。
記憶デバイス制御装置100はチャネル制御部CHN1乃至4(110)を備える。記憶デバイス制御装置100は、チャネル制御部CHN1乃至4(110)とLAN400とを介して、情報処理装置1乃至3(200)と、バックアップデバイス910と、記憶デバイス300との間のライトアクセス又はリードアクセスを媒介する。チャネル制御部CHN1乃至4(110)は情報処理装置1乃至3(200)からのファイルアクセス要求を個々に受け付ける。すなわち、チャネル制御部CHN1乃至4(110)には個々にLAN400上のネットワークアドレス(例えば、IPアドレス)が割り当てられていて
、それぞれが個別にNASとして振る舞い、個々のNASがあたかも独立したNASが存在するかのようにNASとしてのサービスを情報処理装置1乃至3(200)に提供することができる。このように1台のストレージシステム600に個別にNASとしてのサービスを提供するチャネル制御部CHN1乃至4(110)を備えるように構成したことで、従来、独立したコンピュータで個々に運用されていたNASサーバが一台のストレージシステム600に集約される。そして、これによりストレージシステム600の統括的な管理が可能となり、各種設定・制御や障害管理、バージョン管理といった保守業務の効率
化が図られる。
情報処理装置3乃至4(200)はSAN500を介して記憶デバイス制御装置100と接続されている。SAN500は、記憶デバイス300が提供する記憶領域におけるデータの管理単位であるブロックを単位として情報処理装置3乃至4(200)との間でデータの授受を行うためのネットワークである。SAN500を介して行われる情報処理装置3乃至4(200)と記憶デバイス制御装置100との間の通信は一般にSCSIプロトコルに従って行われる。情報処理装置3乃至4(200)からは、ストレージシステム600に対して、ファイバチャネルプロトコルに従ってブロック単位のデータアクセス要求(以下、ブロックアクセス要求と称する。)が送信される。
SAN500にはSAN対応のバックアップデバイス900が接続されている。SAN対応バックアップデバイス900は、SAN500を介して記憶デバイス制御装置100との間で通信を行うことにより、記憶デバイス300に記憶されているデータのバックアップデータを記憶する。
記憶デバイス制御装置100はチャネル制御装置CHN1乃至4(110)に加えて、更にチャネル制御部CHF1乃至2,CHA1乃至2(110)を備える。記憶デバイス制御装置100はチャネル制御部CHF1乃至2(110)とSAN500とを介して、情報処理装置3乃至4(200)及びSAN対応バックアップデバイス900との間の通信を行う。チャネル制御部は、上位装置からのアクセスコマンドを処理する。
情報処理装置5(200)は、更に、LAN400やSAN500等のネットワークを介さずに記憶デバイス制御装置100と接続されている。この情報処理装置5(200)の例は、例えばメインフレームコンピュータである。情報処理装置5(200)と記憶デバイス制御装置100との間の通信は、例えばFICON(Fiber Connection)(登録商標)やESCON(Enterprise System Connection)(登録商標)、ACONARC(Advanced Connection Architecture)(登録商標)、FIBARC(Fiber Connection Architecture)(登録商標)などの通信プロトコルに従って行われる。情報処理装置5(200)からはストレージシステム600に対して、これらの通信プロトコルに従ってブロックアクセス要求が送信される。記憶デバイス制御装置100は、チャネル制御部CHA1乃至2(110)を通じて情報処理装置5(200)との間で通信を行う。
SAN500には、他のストレージシステム610が接続されている。ストレージシステム610は、記憶デバイス制御装置100にストレージシステムが有する記憶資源を提供するという機能を、情報処理装置及びストレージ装置600に提供する。ストレージ装置の情報処理装置に対する見かけ上の記憶領域が、ストレージ装置610によって拡張されたことになる。なお、ストレージシステム610はSAN500以外にもATMなどの通信回線によりストレージシステム600に接続していることもある。また、ストレージシステム610をストレージシステム600に直接接続することもできる。
このように、ストレージシステム600内にチャネル制御部CHN1乃至4(110)、チャネル制御部CHF1乃至2(110)、チャネル制御部CHA1乃至2(110)を混在させて装着させることにより、異種ネットワークに接続できるストレージシステムを実現できる。即ち、このストレージシステム600はチャネル制御部CHN1乃至4(110)を用いてLAN400に接続し、かつチャネル制御部CHF1乃至2(110)を用いてSAN500に接続するという、SAN−NAS統合ストレージシステムである。
接続部150は、各々のチャネル制御部110、共有メモリ120、キャッシュメモリ130、及び各々のディスク制御部140を相互に接続する。これらのチャネル制御部110、共有メモリ120、キャッシュメモリ130、及びディスク制御部140相互間のコマンド又はデータの送受信は接続部150を介して行われる。接続部150は例えば高速スイッチングによりデータ伝送を行う超高速クロスバスイッチ等の高速バスで構成される。これにより、チャネル制御部110相互間の通信パフォーマンスが大幅に向上するとともに、高速なファイル共有機能や高速フェイルオーバー等が可能になる。
共有メモリ120、及びキャッシュメモリ130はチャネル制御部110、及びディスク制御部140が共用するメモリ装置である。共有メモリ120は主として制御情報やコマンド等を記憶するために利用され、キャッシュメモリ130は主としてデータを記憶するために利用される。例えば、あるチャネル制御部110が情報処理装置200から受け取ったデータ入出力コマンドが書き込みコマンドであった場合に、当該チャネル制御部110はその書き込みコマンドを共有メモリ120に書き込むとともに、情報処理装置200から受け取ったライトデータをキャッシュメモリ130に書き込む。一方、ディスク制御部140は共有メモリ120を監視しており、共有メモリ120に書き込みコマンドが書き込まれたと判定すると、当該書き込みコマンドに従ってキャッシュメモリ130からライトデータを読み出して、これを記憶デバイス300に書き込む。
一方、あるチャネル制御部110が情報処理装置200から受け取ったデータ入出力コマンドが読み出しコマンドであった場合に、当該チャネル制御部110はその読み出しコマンドを共有メモリ120に書き込むとともに、読み出し対象となるデータがキャッシュメモリ130に存在しているか否かをチェックする。ここで、読み出し対象となるデータがキャッシュメモリ130に存在している場合には、チャネル制御部110はそのデータをキャッシュメモリ130から読み取って情報処理装置200に送信する。読み出し対象となるデータがキャッシュメモリ130に存在していない場合には、共有メモリ120に
読み出しコマンドが書き込まれたことを検出したディスク制御部140は読み出し対象となるデータを記憶デバイス300から読み出してこれをキャッシュメモリ130に書き込むとともに、その旨を共有メモリ120に書き込む。チャネル制御部110は共有メモリ120を監視することにより、読み出し対象となるデータがキャッシュメモリ130に書き込まれたことを検出すると、そのデータをキャッシュメモリ130から読み出して情報処理装置200に送信する。
ディスク制御部140はチャネル制御部110から送信された論理アドレス指定による記憶デバイス300へのデータアクセス要求を、物理アドレス指定によるデータアクセス要求に変換し、チャネル制御部110から出力されるI/O要求に応答して記憶デバイス300へのデータの書き込み又は読み取りを行う。記憶デバイス300がRAID構成されている場合には、ディスク制御部140はRAID構成に従ったデータのアクセスを行う。すなわち、ディスク制御部は、記憶デバイスであるHDDの制御、RAIDグループの制御を行う。複数のHDDの記憶領域によってRAIDグループが構成されている。
記憶デバイス300は単一又は複数のディスクドライブ(物理ボリューム)を備えており、情報処理装置200からアクセス可能な記憶領域を提供する。記憶デバイス300が提供する記憶領域には単一又は複数の物理ボリュームの記憶空間を合わせた論理ボリュームが設定されている。記憶デバイス300に設定される論理ボリュームには、情報処理装置200からアクセス可能なユーザ論理ボリュームや、チャネル制御部110の制御のために使用されるシステム論理ボリュームがある。システム論理ボリュームにはチャネル制御部110で実行されるオペレーティングシステムも格納されている。また、記憶デバイ
ス300が、上位装置に提供する論理ボリュームには、各々のチャネル制御部110がアクセス可能な論理ボリュームが割り当てられている。もとより、複数のチャネル制御部110が同一の論理ボリュームを共有することもできる。
尚、記憶デバイス300として、例えば、ハードディスク装置等を用いることができる。記憶デバイス300のストレージ構成として、例えば、複数の記憶デバイス300によりRAID方式のディスクアレイを構成してもよい。また、記憶デバイス300と記憶デバイス制御装置100は直接接続してもよく、ネットワークを介して接続してもよい。更に、記憶デバイス300は記憶デバイス制御装置100と一体に構成してもよい。
管理端末160はストレージシステム600を保守・管理するためのコンピュータ装置であり、内部LAN151を通じて各々のチャネル制御部110とディスク制御部140に接続している。オペレータは管理端末160を操作することで記憶デバイス300のディスクドライブの設定、論理ボリュームの設定、チャネル制御部110やディスク制御部140で実行されるマイクロプログラムのインストール等を行うことが可能である。この種の制御は、管理端末に基づくもののほか、上位装置(ホスト)上で動作するプログラムがネットワークを経由するものに基づいても良い。
図2は図1に示す記憶制御システムの機能ブロック図である。チャネル制御部110は、マイクロプロセッサCT1とローカルメモリLM1を備え、チャネルコマンド制御プログラムはローカルメモリLM1に記憶されている。マイクロプロセッサCT1はローカルメモリLM1を参照してチャネルコマンド制御プログラムを実行する。チャネルコマンド制御プログラムは、ホストにLUを提供する。チャネルコマンド制御プログラムはホストからLUに対して送られるアクセスコマンドを処理し、LDEVへのアクセスへと変換する。チャネルコマンド制御プログラムはホストからのアクセスに依らず、 LDEVに対してアクセスすることもある。LDEVとは、RAIDグループの一部分を論理的に切り出した論理ボリュームである。但し、仮想LDEVはホストのアクセスを受けるが、実記憶領域を備えていない。ホストはLDEVではなく、LUにアクセスする。LUとは、ホストがアクセスする記憶領域の単位である。一部のLUは仮想LDEVに割り当てられている。以後仮想LDEVに割り当てられているLUを実ボリュームに割り当てられているLUと区別するために、便宜上仮想LUという。
ディスク制御部140は、マイクロプロセッサCT2とローカルメモリLM2とを備えている。ローカルメモリLM2には、RAID制御プログラムとHDD制御プログラムが記憶されている。マイクロプロセッサCT2はローカルメモリLM2を参照して、RAID制御プログラムとHDD制御プログラムを実行する。RAID制御プログラムは、複数のHDDからRAIDグループを構成し、上位のチャネルコマンド制御プログラムにLDEVを提供する。HDD制御プログラムは、上位のRAID制御プログラムの要求に応じてHDDに対してデータの読み書きを実行する。ホスト200AはLU10を介してLD
EV12Aにアクセスする。ホスト200Bに対する記憶領域はAOU技術によって構成されている。ホスト200Bは仮想LU14を介して仮想LDEV16にアクセスする。仮想LDEV16にはプール18が割り当てられており、このプールにはLDEV12B,12Cが割り当てられている。仮想LUと仮想LDEVとが仮想ボリュームに相当する。プールとは、仮想LDEVに割り当てられるLDEVの集合をいう。なお、チャネルI/F,I/Oパスとは、ホストがストレージサブシステムにアクセスするインターフェースであり、ファイバチャネル、iSCSIなどをいう。
図3は仮想ボリュームとプールとの関係を示すブロック図である。ホストは仮想ボリューム16に対してアクセスする。アクセスされた仮想ボリュームの領域はプール(物理記憶装置)18にマッピングされる。このマッピングは仮想ボリュームに対するホストからのアクセスに応じて動的に生成され、以後、ストレージシステムがこのマッピング情報を利用する。仮想ボリュームの領域のうち使用されていない領域の分は物理記憶装置を消費しないので、あらかじめ十分大きな仮想ボリュームを用意しておき、プール18の利用状況を見て々にプール18Aを仮想ボリュームの割り当てに追加するという運用が可能になる。
チャネル制御部110がチャネルコマンド制御プログラムにしたがって、AOUの動作を実行するに際して、管理テーブルが利用される。各管理テーブルについて説明する。図4はLU管理テーブルであり、LUの一覧を保持する。LUはチャネル番号とLUNの組で特定される。仮想ビットが「OFF」の場合は、LUはRAID制御プログラムが提供するLDEVにマッピングされる。仮想ビットが「ON」の場合、LUは仮想LDEVにマッピングされていることを示している。
図5は仮想LDEV管理テーブルであり、仮想LDEVの一覧を保持する。仮想LDEVは仮想LDEV番号で特定される。仮想LDEV番号はRAID制御プログラムが提供するLDEVのLDEV番号とは別の管理体系を持つ。プール番号は仮想LDEVとのマッピング対象となるプールを特定するためのものである。
図6は、RAID制御プログラムが、チャネル制御部及び上位装置に対して提供するLDEVの一覧を示す。LDEVはLDEV番号で特定される。用途レジスタが"L"である場合は、LDEVがLUに対してマッピングされていることを示している。"P"である場合は、LDEVがプールを構成すること、換言すれば、LDEVがプールに属していることを示している。"N"である場合は、LDEVが未使用であることを示している。
図7はプール管理テーブルであり、プールの一覧を示す。プールはプール番号で特定される。LDEV番号リストには, そのプールを構成するLDEV(プールLDEV)がリストアップされている。図8はマッピング管理テーブルであり、仮想LDEVの記憶領域と、それに対応するプールLDEVの記憶領域のマッピングを保持する。このテーブルは仮想LDEV毎に存在する。図に示す例は、仮想LDEV番号が0001♯の場合である。このテーブルには、仮想LDEVの領域であるアドレスと、それに対応するプールLDEVのあるアドレス(実アドレス)が記録される。
ここでいうアドレスとは、仮想LDEVおよびプールLDEVそれぞれをある一定のサイズで区切って通番を振ったものであり、仮想LDEVとそれが使用するプールLDEV群との間で対応がとれるようなものであれば良い。このアドレスの体系は、ホストがLUにアクセスする際に用いるアドレッシング体系とは共通でも良いしあるいは異なっていても良い。
図9は図8の制御テーブルで示された、仮想LDEVのアドレスとプールに属するLDEVの実記憶領域との対応関係をグラフ化したものである。アクセスビットが"1"である場合、仮想LDEVの領域とプールLDEVの記憶領域とのマッピングが、上位装置が仮想LDEVへアクセスコマンドを発行したことに基づくもの、すなわち仮想LDEVの仮想記憶領域とプールLDEVの実記憶領域間の対応付けが、ホストが仮想LUにアクセスしたことに基づくものであることを示している。アクセスビットが"0"である場合は、そのマッピングがそれ以外の契機によるものであることを示している。詳しくは後述する
が、例えば、ホストからの将来アクセスを予測して、割当を行った場合である。
図10は、プールLDEVの記憶領域が仮想LDEVの領域にマッピングされている状態に係わるプールLDEV管理テーブルである。マッピングの状態は、各々のプールLDEVについて、プールLDEVのアドレス毎に設定される制御ビットの配列(制御情報)として保持されている。 プールLDEV管理テーブルには該ビット配列へのポインタが記録されている。ビット配列の先頭をアドレス0とし, 以降アドレス順にビットが設定されている。ビットが0"ならばこのビットに対応する記憶領域は仮想LDEVに対してマッピングされていないことを示し、"1"ならばマッピング済みであることを示している。図10に基づくと、プールLDEV番号0003のLDEVでは、アドレス0,1,2の領域が仮想LDEVにマッピングされている。プールLDEV番号0004のLDEVの全領域は仮想LDEVにマッピングされていない。プールLDEV番号0005のアドレス0の領域は、仮想LDEVにマッピングされている。
以上説明した制御テーブルは、チャネル制御部のチャネルコマンド制御プログラムがアクセス可能なメモリ空間に保持されている。制御テーブルは、図1の管理端末によってその内容を変更することができる。このメモリ空間としては、図1の共有メモリ120、又は、チャネル制御部のローカルメモリLM1(図2)がある。
図11は、ホストからLUにアクセスがあった場合のチャネルコマンド制御プログラムによるAOUの動作を示すフローチャートである。チャネル制御部はチャネルコマンド制御プログラムに基づいて、図11のAOU処理を実行する。チャネル制御部は、LUに対する、ホストからのアクセスコマンドを受領すると(1100)、アクセス対象LUの仮想ビットがONであるか否かをチェックする(1102)。仮想ビットがOFFの場合は、ステップ1104に移行して、ホストのLUに対するアクセスは、実ボリューム(LDEV)にマッピングされる(図4のLDEV番号0001,0002)。
ステップ1102において、仮想ビットがONである場合には、ホストからのアクセス先であるLUのアドレスをマッピング管理用の仮想LDEVのアドレスに変換する(1106)。次いで、チャネル制御部のコントローラCT1は、このアドレスが図8のマッピング管理テーブルに未登録か否かを判定する(1108)。このアドレスが図8のマッピング管理テーブルに未登録の場合は、チャネル制御部はプール管理テーブルに基づいて、仮想LDEVが対応するプールに属するLDEV番号リストを取得する(1112)。チャネル制御部はプールLDEVのリストのX番目(X:=1・・・・)のLDEVを取得する(1114)。チャネル制御部はX番目のLDEVが存在するか否かを判定する(1116)。
この判定が肯定されると、チャネル制御部は、プールLDEV管理テーブル(図10)からLDEVのビット配列を取得する(1118)。チャネル制御部は、ビット配列に"0"のビットがあるか否かを判定(1120)し、これが肯定された場合には、このビットに"1"を設定する(1122)。この判定が否定された場合には、プールLDEVリストの次の番号(X++)のLDEVを取得する。ステップ1124では、マッピング管理テーブル(図8)に、ビット"1"にした、対応するアドレスを実アドレスとして登録する。次いで、マッピング管理テーブルのアクセスビットを"1"に設定する(1126)。次いで、チャネル制御部はホストからの仮想ボリューム(0001♯)へのアクセスを、プールLDEV番号・実アドレスへのアクセスにマッピングする(1128)。
チャネルアダプタはステップ1108を否定判定すると、ステップ1110において、図8のマッピング管理テーブルのアクセスビットが"0" か否かを判定する。これが肯定判定されると、アクセスビットが"1"に設定され(1130)、チャネル制御部はホストからの仮想ボリューム(0001♯)へのアクセスを、プールLDEV番号・実アドレスへのアクセスにマッピングする(1132)。ステップ1116において、X番目のLDEVが存在しない場合には、チャネル制御部は管理端末に対してプールLDEV不足エラーを通知する。図11の処理によれば、チャネル制御部はホストから仮想ボリュームにアクセスがあると、アクセスがあった領域に実記憶領域のアドレスをマッピングする。
図12は、プールLDEVの記憶領域を仮想ボリュームの記憶領域へマッピングするためのレコードを、マッピング管理テーブルから削除することによりプールLDEVの記憶領域を仮想ボリュームへのマッピングから解放して、他の仮想ボリュームに対する記憶領域に開放するなどとして有効活用するための、チャネル制御部がチャネルコマンド制御プログラムに基づいて実行するフローチャートである。先ず、チャネル制御部は、仮想ボリュームの記憶領域のうち、この解放の対象となるべきアドレスを決定する(1200)。
チャネル制御部は、仮想ボリュームのアドレスが決定された後、マッピング管理テーブル(図8)から、仮想ボリュームのアドレスに対応するプールLDEV番号・実アドレスを取得する(1202)。次いで、マッピング管理テーブルについて、仮想ボリュームのアドレスとLDEV番号・実アドレスとのマッピングに関するレコードを削除する(1204)。次いで、チャネルアダプタは、プールLDEV管理テーブル(図10)の該プールLDEVについて、仮想LDEVのアドレスに対応する、プールLDEVのアドレスについて、このアドレスに対するビットを"0"に置換する(1206)。これにより、プールLDEVの実記憶領域がマッピングから解放される。
次に、解放の契機の第1の例について説明する。第1の例に係わる契機は、ボリュームペアの解除を契機とする解放である。図13はボリュームペアを説明するブロック図である。図13において、LU1とLU2との間に、バックアップなどの目的でボリュームペアが形成されている。LU1が副ボリュームであり、LU2が正ボリュームである。ホストのアクセスはLU2に対して行われる。チャネル制御部110は、定期的に正ボリュームLU2(コピー元)のコピーを実行してボリューム内容のスナップショットを副ボリュームLU1に対して作成する。副ボリュームLU1は仮想LDEV1に対応付けられており、この仮想LDEVはプール内のプールLDEVにマッピングされている。副ボリュームに対応するプールLDEVのデータは、テープデバイスなど外部媒体にバックアップされる。正ボリュームと副ボリュームとのペア関係が解除された場合、コピー先ボリューム(副ボリューム)LU1の内容は不要である。この副ボリュームが仮想LDEVにマッピングされている場合、ペア関係の解除を契機として、仮想LDEVとプールLDEVの記憶領域とのマッピングを解消してプールLDEVの記憶領域をマッピング前の仮想ボリュームから解放する。
図14は、チャネル制御部110におけるボリュームペア制御プログラムとチャネルコマンド制御プログラムとの関係を示すブロック図である。ボリュームペア制御プログラムは、チャネルコマンド制御プログラムに対してコマンドを発行し、LU間のコピーを制御する。チャネル制御部は、ペアボリュームの設定、 解除、ステータスの変更などの制御を管理端末からの指示で行い、又は、上位装置がチャネルI/Fを経由して発行するコマンドに依る指示によって行うこともできる。チャネル制御部はボリュームペア制御プログラムからのペアボリューム解除の通知を受けてプール領域(実ボリューム)の記憶領域を解放する。
図15は、ボリュームペア管理テーブルである。ペア関係にある正副ボリュームが、それぞれチャネル番号とLUNの組で保持される。ボリュームペア制御プログラムはペア関係が設定されると、そのペアに対応するレコードを生成し、ペア関係が解除されると該レコードを削除する。ステータスが"P"である場合、ボリュームペアは「ペア状態」にある。 同様に"S"である場合は「サスペンド状態」、 "C"である場合は「コピー状態」である。ペア状態(P)は, 正ボリュームで内容が更新されると、それが即座に副ボリュームにコピーされ、 正副ボリュームの内容が一致していることを示す。サスペンド状態(S)は、 この更新コピー処理が停止している状態を示す。コピー状態(C)は、 サスペンド状態からペア状態に移行する間、正副ボリュームの内容の差分をコピー中であることを示す。ボリュームの内容の一致状態はボリュームペア毎にビット配列に保持され、ボリュームペア管理テーブルにはビット配列へのポインタが保持される。ビット配列の先頭をアドレス0とし, 以降アドレス順にビットが"1"ならばアドレスの記憶領域は一致、" 0"ならば不一致である。このテーブルはチャネル制御部のプログラムがアクセス可能なメモリ空間に保持される。
図16はペアボリュームのペア解除に応じた解放の動作を示すフローチャートである。チャネル制御部は、ボリュームペア制御プログラムとチャネルコマンド制御プログラムとに基づいて、図16の処理を実行する。チャネル制御部は上位装置からペアボリュームのペアを解除する解除指示を受領する(1600)。チャネル制御部は、副ボリュームのLUが仮想ボリュームLDEVにマッピングされているかをチェックする(1602)。この判定が肯定されると、ボリュームペア制御プログラムは、仮想LDEVの全領域のアドレスについて解放をチャネルコマンド制御プログラムについて指示する(1604)。
次いで、ボリュームペア管理テーブル(図15)からボリュームペアのレコードを削除する(1606)。チャネルコマンド制御プログラムは、ボリュームペア制御プログラムから解放指示を受け取ると、指示された仮想LDEVのアドレスについてマッピングを解放する。したがって、この記憶領域に関するマッピングを解放することにより、記憶領域の利用効率が向上する。
次に解放処理の他の実施形態について説明する。図17は、AOU技術において、ストレージシステムがホストから仮想ボリュームにアクセスしていない仮想ボリュームの領域に対して、事前にプールLDEVの記憶領域をマッピングするという"投機的割当"について説明したフローチャートである。チャネル制御部がホストから受領したアクセスコマンドに応じて仮想LDEVとプールLDEVのマッピングを生成する場合、該アクセスコマンドのアクセス先アドレスに続いて他のアドレスにもアクセスがあるという実情とに基づいて、このアクセスが予測される記憶領域、例えば、ホストからアクセスがあった領域
の直後のアドレスに対して(ホストからのアクセスが予測したアドレスにあるか否かに拘わらず)マッピングを実行する。これは一般に、ホストからのアクセスはLUの特定の領域に集中するという予測を基にしている。但し、ホストから仮想ボリュームに対するアクセスのパターンによっては次にアクセスされる領域の予測内容は異なることがあり得る。ここでは、投機的割当を説明するに際して、 次にホストからアクセスがあるであろうアドレスの予測の一例として、ホストによって特定されたアドレスに続く幾分かのアドレス範囲、特に「直後」を例示したが、この他の予測, 例えばある種のファイルシステムではLUを「シリンダグループ」という単位に分割して利用するので、あるアドレスにアクセス
があった場合はそのアドレスが属するシリンダグループに対して集中的に(不連続なアドレスであっても)割当を行なう、 という「予測」の仕方も考えられる。これら予測した領域に上位装置であるホスト計算機からのアクセスが無い場合に、予測した領域に対する仮想ボリュームへの割当を解放することで記憶領域を有効利用できる。
図17において、チャネル制御部がホストからのアクセスコマンドを受領すると(1700)、アクセス対象のLUに仮想ボリュームが割り当てられているか、即ち、仮想ビットが"ON"か否かを判定する(1702)。これが否定判定されると、チャネル制御部はホストからのアクセスが実ボリュームに対してあったと判定し、ホストからのアクセスをマッピング管理テーブルに基づいて対応する番号のLDEVへのアクセスにマッピングする(1708)。ステップ1702の判定において肯定判定されると、ホストからのLUに対するアクセス先アドレスを、マッピング管理用の、仮想ボリュームのアドレス(a1)に変換する(1704)。さらに、ホストからのLUに対するアクセス先アドレスの直後のアドレスを仮想ボリュームのアドレス(a2)に変換する(1706)。
次いで、チャネル制御部は、アドレスA(a1又はa2)はマッピング管理テーブル(図8)に未登録か否かをチェックする(1709)。これが否定された場合、即ち、アドレスa1が登録されている場合、マッピング管理テーブルに基づいて、チャネル制御部はアドレスa1を対応するLDEV番号によって特定されるLDEVおよび実アドレスへマッピングする(1712)。ステップ1709において、肯定判定された場合は、プール管理テーブル(図7)からプールLDEV番号リストを取得する(1710)。チャネル制御部はプールLDEVリストのX番目(1番目)のLDEVを取得する(1714)。チャネル制御部は、X番目のLDEVが存在するか否かをチェックする(1716)。これが肯定判定された場合、チャネル制御部は、プールLDEV管理テーブルから該LDEVのビット配列を取得する(1718)。次いで、チャネル制御部はビット配列に"0"のビット配列があるか否かをチェックする(1724)。
この判定が否定された場合、ステップ1714に移行して、チャネル制御部は(X+1)番目のLDEVを取得する。この判定が肯定された場合には、"0"のビットを"1"に置換する(1726)。次いで、チャネル制御部は、マッピング管理テーブル(図8)に該ビットに対応するアドレスを実アドレスとして登録する(1728)。ステップ1730において、仮想ボリュームのアドレス(A)がa1であるか否かが判定され、これが肯定された場合は、チャネル制御部はマッピング管理テーブル(図8)のアクセスビットを"1"に設定する(1734)。これが否定判定された場合、チャネル制御部はアクセスビット"0"に設定する(1734)。アクセスビット"0"は、既述のとおりマッピングがホストから仮想ボリュームへのアクセスに依らないこと、すなわち"投機的割当"であることを示している。
次いで、チャネルアダプタは、仮想ボリュームに対するホストのアクセスをプールLDEV番号・実アドレスへのアクセスにマッピングする。ステップ1738において、ホストのアクセス先アドレスがa1である場合(肯定判定)の、アドレスがa2に置き換えられた割当処理が繰り返される。すなわち、ステップ1709に処理がリターンして既述の各処理が繰り返される。ステップ1716において、X番目のLDEVが存在しない場合には、ステップ1720に処理が移行する。ここでは、ホストのアクセス先アドレスがa1であるか否かが判定され、アクセス先アドレスがa1の場合、チャネル制御部はプール
LDEV不足エラーを判定する(1722)。一方、アクセス先がa2の場合は、ホストからのアクセスが現実にあるわけではないのでこのLDEV不足エラー処理を行わず処理を終了する。
以上説明した処理によれば、ホストから仮想ボリュームにアクセスがあることに依り、ホストのアクセス先アドレスにプールに属する記憶領域が割り当てられると共に、ホストがアクセスするであろう、仮想ボリュームのアクセス先をチャネル制御部が予測して、この予測アドレスに記憶領域をあらかじめマッピングしておく。したがって、ホストが予測したアドレスに実際にアクセスした場合には、マッピングの処理を経ることなく、マッピングされた記憶領域に書き込みコマンドを直ちに実行することができる。
図18のフローチャートに示すように、アクセスビットが"0"の記憶領域にホストがアクセスした場合、アクセスビットは"1"に変更される。チャネル制御部は、ホストからのアクセス先アドレスをマッピング管理用のアドレスに変更する(1800)。チャネル制御部はマッピング管理テーブルからLDEV番号・実アドレスを取得する(1802)。チャネル制御部は図8に示す制御テーブルのアクセスビットが"0"であるか否かを判定して(1804)、これが肯定判定された場合は、アクセスビットを"1"に設定する(1806)。
図19は、アクセスビットが"0"の記憶領域について、マッピングを解放するフローチャートである。アクセスビットが"0"のまま残っている、LDEVの記憶領域はホストからのアクセスが当面期待し得ない余剰な領域のまま放置されることになる。これでは記憶資源を有効活用されない。そこで、この余剰領域の整理を目的として、余剰領域についてのマッピングを解放することとした。ステップ1900において、チャネル制御部は、マッピング管理テーブル(図8)の1番目のレコードを取得し、該レコードについてのアクセスビットが"0"であるか否かをチェックする(1902)。これが肯定判定され
た場合は、該レコードのプールLDEV番号と実アドレスを取得した上で(1903)、このレコードを削除する(1904)。次いで、プールLDEV管理テーブルの該プールLDEVについて、該アドレスのビットを"0"にする(1905)。
以上の処理は、最終番目のレコードまで処理が継続される(1906)。マッピング管理テーブルのレコードのうち、 アクセスビットが"0"であるものは実際にはホストからアクセスされていない記憶領域である。このような余剰領域について、 定期的にマッピング管理テーブルの全レコードを走査しアクセスビットに基づいてマッピング情報の削除を行う。アクセスビットは、ストレージシステムが解放処理を行う場合における、解放する、或いは解放しないを判定するための制御情報である。
次に、マッピングを解放する第3の例について説明する。図20はこの例を説明するブロック図である。この例は、ストレージシステムがペアボリュームからバックアップ取得後にマッピングされた記憶領域を解放することを示している。LU1とLU2とがペアボリュームになっている。コピー元LU(正ボリューム)がマッピングされるのは通常のLDEVでも, 仮想LDEVでもよい。コピー元LU3は実記憶領域を備えるLDEVに直接マッピングされている。コピー元LU2は仮想LDEV2にマッピングされている。ストレージシステムは、定期的にコピー(再同期)を行い、ボリューム内容のスナップショット
をコピー先(副ボリューム)LU1に作成、そこからテープデバイスにデータバックアップを取得する。
テープデバイス210はホスト200Aに接続されていてもよいし、 テープデバイス212がストレージに接続されて、ホストからのEXTENDED COPY命令によりストレージシステムがテープデバイス212へのバックアップを制御しても良い。この再同期、バックアップ取得という一連の処理が終了すると、副ボリュームLU1の記憶内容は不要になる。この副ボリュームが仮想LDEVにマッピングされているので、それに割り当てられたプールLDEVの記憶領域のマッピングを解消して記憶領域を解放する。上記の再同期、バックアップ取得、領域解放という一連の処理は、ホスト上で動作するバックアップアプリケーションAPによって行われる。そのため、アプリケーションからストレージサブシステムに対して、領域解放の指示をI/Oパスやネットワークを通じて送出する。
図21に示すように、バックアップアプリケーションは、チャネルコマンド制御プログラムとボリュームペア制御プログラムにコマンドを発行し、LUのスナップショット取得とテープデバイス212へのコピーを行う。ボリュームペア制御プログラムに対するコマンド発行はネットワークを経由して制御端末から行うこともできるし、チャネルI/Fを経由して行うこともできる。テープデバイスの制御はバックアップアプリケーション自身が行うこともできるし、チャネルコマンド制御プログラムが制御するようコマンドで指示することもできる。
図22は、ペアボリュームからテープデバイスにバックアップを取得した後、記憶領域を解放する動作を示すフローチャートである。ホストのバックアップアプリケーションは、ペアボリューム間のコピーをボリュームペア制御プログラムに対して指示する(2200,2214)。ボリュームペア制御プログラムはボリュームペアのステータスをチェックする(2216)。ステップ2216が肯定判定(ステータスが"P")の場合、は何もせずバックアップアプリケーションの指示を待つ。ステップ2216において否定判定の場合は、チャネルコマンド制御プログラムにペアボリューム間のコピーを指示する(2218)。このときステータスは"C"に変更される。ボリュームペア制御プログラムは、チャネルコマンド制御プログラムに依るコピー完了を受けてステータスを"P"にする。
バックアップアプリケーションは、ペアステータスが"P"になるまでウエイトし(2202)、次いで、ペアボリュームのコピー停止を指示する(2204)。ボリュームペア制御プログラムは、ペアボリュームのコピー停止を受けてステータスを"S"に変更する(2226)。バックアップアプリケーションは副ボリュームからテープへのコピーを指示する(2206)。この指示を受けてチャネルコマンド制御プログラムは副ボリュームからテープへコピーを実行する(2230)。バックアップアプリケーションはコピー完了までウエイトし(2208)、副ボリュームがアクセスするLUは仮想LDEVかを判定する。これが肯定判定された場合は、バックアップアプリケーションは仮想ボリュームLDEVの全領域のアドレスについてマッピングを解放することをチャネルコマンド制御プログラムに指示する。
チャネルコマンド制御プログラムは、コピー完了と解放指示を受けて、仮想LDEVの全領域のアドレスについて、このアドレスにマッピングされた、プール領域のLDEVの記憶領域を仮想ボリュームへのマッピングから解放する(2232)。以上の処理によって、ボリュームペアの関係にあるボリューム間でコピーが完了する過程で、副ボリュームに対応する仮想ボリュームの記憶領域が解放される。
次に、記憶領域の解放に関する他の実施形態について図23を利用して説明する。この実施形態は、ホスト200上で動作するアプリケーションが削除した記憶領域に関するマッピングを解放するというものである。ここでは、アプリケーションソフトウエアの一例としてDBMS(データベースマネージメントシステム)を取り上げる。DBMSはLUの記憶領域に対して、表領域、索引、ログといったデータの読み書きを行う。これらのデータはいずれも、あるサイズの領域(セグメント)を占有し、その占有する領域内に論理的な構造が形成されている。このセグメントは、 さらに細かい領域(データブロック)に分割されている。DBMSはその動作中、LU内のセグメントの論理的構造に基づいて、データを記録・更新・削除する。このため、DBMSはセグメントS1のあるデータブロックS2が未使用であるか、使用中であるか、という情報を管理する表を維持している。この表をフリーリストS3と呼ぶ。これらデータブロックのあるLUが仮想LDEVに対応する場合、ホスト(DBMS)からアクセスがあるとマッピングが生成される。この例ではデータブロックのサイズの単位と、マッピングされる領域のサイズの単位が等しいが、この二つのサイズの関係はこれに限定されるものではない。
図24は、DBMSとチャネルコマンド制御プログラムとの関係を示すブロック図である。DBMSは、チャネルコマンド制御プログラムにコマンドを発行しLUにアクセスする。ホストは、記憶領域のマッピングを削除、解放するようチャネル制御部に指示する。この指示のコマンド発行はネットワークを経由してSVPから行うこともできるし、チャネルI/Fを経由して行うこともできる。図25は、フリーリストを示すテーブルである。フリーリストはセグメント毎に存在する。データブロック番号で特定される各データブロックについて、使用ビットが"1"である場合は使用中、"0"である場合は未使用を示
す。
図26は、DBMSによるデータの記録を実行するフローチャートである。図26において、DBMSはフリーリストを走査し(2600)、使用ビットが"0"のデータブロックがあるか否かをチェックする(2602)。この判定が肯定された場合には、チャネル制御部はフリーリストのこのデータブロックについて使用ビットを"1"に設定する(2604)。次いで、当該データブロックにデータを書き込む(2606)。ステップ2604において、否定判定されるとデータブロック不足エラー処理を行う(2608)。
図27は、DBMSによるデータの削除を実行するフローチャートである。DBMSはフリーリストにおいて削除対象データブロックの使用ビットを"0"に設定する(2700)。削除対象データブロックのアドレスを指定し領域解放コマンドを発行する。
図28は、チャネル制御部がフリーリストを参照して、記憶領域の解放を実行するためのフローチャートである。チャネル制御部は、フリーリストから使用ビットが"0"であるデータブロックを抽出する(2800)。そして、該データブロックのアドレスをマッピング管理用の、仮想ボリュームのアドレスに変換する(2802)。次いで、このアドレスが図8のマッピング管理テーブルに登録されているか否かをチェックする(2804)。これが肯定判定された場合には、このアドレスに対応したプールLDEVの記憶領域を解放する(2806)。チャネルコマンド制御プログラムは、図28の処理を定期的に
実行する。
図29は、図28の変形例に係わるもので、ホストからチャネル制御部に対するI/Oを監視するプログラムによって、記憶領域を解放するための、プログラムの動作に係わるブロック図である。ホストのI/O監視プログラムは、DBMSから発行されるアクセスコマンドを監視し、フリーリストのあるレコードについて使用ビットを"0"に設定するアクセスを認識した場合、チャネルコマンド制御プログラムに対してそのレコードが示すアドレスのマッピングを削除、解放するよう指示する。この指示のコマンド発行はネットワークを経由してSVPから行うこともできるし,チャネルI/Fを経由して行うこともできる。図30に示すように、I/O監視プログラムをチャネル制御部に実装しても良い。
図31は、図29の動作を示すフローチャートである。I/O監視プログラムはホストからのアクセスコマンドを検知して(3100)、このアクセスコマンドがフリーリストへの書き込みか否かをチェックする(3102)。このチェックが肯定された場合は、あるデータブロックの使用ビットを"0"に設定するようなコマンドであるかどうかをチェックする(3104)。この判定が肯定判定されると、この使用ビットに対応するデータブロックのアドレスをマッピング管理用アドレスに変換する(3106)。次いで、アドレスがマッピング管理用テーブルに登録されているか否かをチェックして、これが肯定判定
されるとこのアドレスに対応する記憶領域を解放する。
以上説明した記憶領域の解放処理において、解放処理を直ちに実行するのではなく、マッピング管理テーブルの解放すべき実アドレスに対してアクセスビットを"0"にまず設定し、然るべき期間経過の後図19の解放処理を実行するようにしても良い。これにより解放処理を遅延させることができる。また、図32のフローチャートのようにしても良い。即ち、チャネル制御部は、プールLDEV管理テーブルから全プールLDEVのビット配列を取得する(3000)。次いで、全ビットのうち"0"となっているビットの割合を算出して(3002)、ある値よりこれが多いか否かを判定する(3004)。この判定が否定された場合は、記憶領域が不足しつつあるとして、チャネル制御部はマッピング管理テーブルを走査して、図19の処理に基づいて解放処理を行う(3006)。
図33は、解放する記憶領域のデータを消去する処理を示すフローチャートである。チャネル制御部は、解放する記憶領域のアドレスを決定する(3300)。次いで、マッピング管理テーブルから、該アドレスに対応するプールLDEV番号・実アドレスを取得する(3302)。次いでマッピング管理テーブルの該レコードを削除する(3304)。チャネル制御部はプールLDEV管理テーブルの該プールLDEVについて該アドレスのビットを"0"に置換する(3306)。次いで、該プールLDEVの該アドレスの記憶領域に特定データパターンを書き込む(3308)。
特定のデータパターンの書き込みの例としては, 全ビットを"0"にする、ランダムなビット列にする、 またこれらを複数回繰り返すことがある。このデータ消去によって, 該記憶領域に再びマッピングが生成される際に, もともと記録されていたデータが無関係な他のホストやアプリケーションによって読み出されるといったセキュリティ上のリスクを低減することができる。
なお、プールLDEVとして、他のストレージシステムの外部記憶資源を利用することもできる。この場合、第1のストレージシステムの仮想ボリュームに第2のストレージシステムの記憶資源が割り当てられる。上位装置は第1の仮想ボリュームにアクセスすることによって、第2のストレージシステムの記憶資源にアクセスすることができる。
図34は、ストレージシステム600に他のストレージシステム600Aがストレージシステム600の外部から接続されている状態を示している。なお、図34を図2と対比して参照されたい。図34において、501はネットワークであり、502はI/Oパスであり、503AはチャネルI/F(エクスターナルモード)、503B,503CはチャネルI/F(ターゲットモード)、301はハードディスクユニット、601は外部ストレージサブシステムの内の外部LUを示す。
チャネルI/F(ターゲットモード)とは、ホストがストレージサブシステムにアクセスするインタフェースであり、チャネルI/F(エクスターナルモード)とは、ストレージサブシステムが外部ストレージサブシステムにアクセスするインタフェースであり、外部LUとは、外部ストレージサブシステム内に定義されたボリューム(LU)の一群をいう。
図35は、ホストが、ストレージシステム600の仮想ボリュームを介して外部LUをストレージシステム600のボリュームとして認識している状態を示すブロック図である。12Dは外部ストレージシステム600A内に定義されて設けられた外部LDEVである。外部LDEV12DはLU10に割り当てられている。12Eは外部LDEVであり、ストレージシステム600のLDEV12B(12C)と同様にプール18を構成している。ストレージシステム600の仮想LDEV16はプール18をマッピングに使用している。
外部LDEVとは、チャネルコマンド制御プログラムが、エクスターナルモードのチャネルI/Fを経由して認識した外部ストレージサブシステムのLUを、仮想的にLDEVと同等の記憶領域としたものである。通常の(RAID制御プログラムによって提供される)LDEVと同様に、LUにマップして上位ホストからのアクセスを受け付けることもできるし、プールの一員として仮想LDEVとのマッピングに使用することもできる。プールを構成するLDEVは, 通常のLDEVのみであっても外部LDEVのみであってもよいし、これらが混在してもよい。外部LDEVは、LDEVの一覧を示すテーブル(図6に示す)の上では通常のLDEVと同等に扱われる。
本発明が適用されるストレージシステムを含んだ、記憶制御システムを示すハードウエアブロック図である。 図1に示す記憶制御システムの機能ブロック図である。 仮想ボリュームとプールとの関係を示すブロック図である。 LU管理テーブルである。 仮想LDEV管理テーブルである。 RAID制御プログラムが、チャネル制御部及び上位装置に対して提供するLDEVの一覧を示すテーブルである。 プール管理テーブルである。 マッピング管理テーブルであり 図8の制御テーブルで示された、仮想LDEVのアドレスとプールに属するLDEVの実記憶領域との対応関係を示すブロック図である。 プールLDEVの記憶領域が仮想LDEVの領域にマッピングされている状態を示すプールLDEV管理テーブルである。 ストレージシステムのAOU処理動作を示すフローチャートである。 チャネル制御部がチャネルコマンド制御プログラムに基づいて実行するフローチャートである。 ボリュームペアを説明するブロック図である。 チャネル制御部におけるボリュームペア制御プログラムとチャネルコマンド制御プログラムとの関係を示すブロック図である。 ボリュームペア管理テーブルである。 ペアボリュームのペア解除に応じた解放の動作を示すフローチャートである。 "投機的割当"について説明したフローチャートである。 アクセスビットに対する処理動作を説明するフローチャートである。 アクセスビットが"0"の記憶領域について、マッピングを解放するフローチャートである。 コピーペアのボリュームを用いたバックアップ動作を示す、機能ブロック図である。 バックアップアプリケーションとチャネル制御部との動作関係を示す機能ブロック図である。 バックアップの動作を示すフローチャートである。 データベースマネジメントシステム(DBMS)に関するアプリケーションプログラムの動作を示す、ストレージシステムの機能ブロック図である。 DBMSとチャネルコマンド制御プログラムとの関係を示すブロック図である。 フリーリストを示すテーブルである。 DBMSによるデータの記録を実行するフローチャートである。 DBMSによるデータの削除を実行するフローチャートである。 チャネル制御部がフリーリストを参照して、記憶領域の解放を実行するためのフローチャートである。 ホストからチャネル制御部に対するI/Oを監視するプログラムによって、記憶領域を解放するための、プログラムの動作に係わるブロック図である。 図29の変形例である。 図29に係わるシステムの動作を示すフローチャートである。 プールLDEV管理テーブルのビット配列に基づいて解放を実行するためのフローチャートである。 解放される記憶領域のデータを消去するためのフローチャートである。 ストレージシステムに他のストレージシステムが外部から接続しているシステムを示すブロック図である。 図34のシステムにおける、ストレージシステム間のボリュームの対応関係を示すブロック図である。
符号の説明
100 コントローラ、110 チャネル制御部、140 ディスク制御部、200
上位装置、600 ストレージシステム

Claims (16)

  1. 記憶デバイスと、通信経路を介して接続される上位装置からの要求に応じて、前記記憶デバイスにデータを入出力する制御を行うコントローラと、を備えるストレージシステムにおいて、
    前記上位装置がアクセスする仮想ボリュームと、
    前記記憶デバイスの記憶領域を有する実ボリュームと、を有し、
    前記実ボリュームが前記仮想ボリュームに割り当てられることによって、前記仮想ボリュームを介して前記上位装置が前記実ボリュームの記憶領域にアクセスするように構成され、
    前記コントローラは、前記上位装置による前記仮想ボリュームへのアクセスに応じて、前記上位装置がアクセスした仮想ボリュームの領域に前記実ボリュームの記憶領域を割り当て、この割り当てを維持する必要が低下したことを検出し、その検出結果に基づいて前記仮想ボリュームの領域に対する、前記実ボリュームの記憶領域の割り当てを解放する、
    ストレージシステム。
  2. 第1の仮想ボリュームと第2の仮想ボリュームと、を備え、当該第1の仮想ボリュームと第2の仮想ボリュームと、がコピーペアの関係を有してなり、前記コントローラは、このコピー関係が解消されたことを検出して、コピー先となる仮想ボリュームへの前記記憶領域の割り当てを解放する、請求項1記載のストレージシステム。
  3. 第1の仮想ボリュームと第2の仮想ボリュームと、を備え、当該第1の仮想ボリュームと第2の仮想ボリュームとがコピーペアの関係を有してなり、前記コントローラは、両ボリューム間のコピーが終了し、そしてコピー先ボリュームのデータが外部媒体にバックアップされた後、コピー先ボリュームへの前記記憶領域の割り当てを解放する、請求項1記載のストレージシステム。
  4. 前記上位装置からのアクセスの状況を判定するための制御情報を記憶する制御メモリを備え、前記コントローラは、前記制御情報の内容にしたがって前記解放を実行する、請求項1記載のストレージシステム。
  5. 前記制御情報は、前記上位装置からの実アクセスがあった記憶領域か、前記上位装置からの将来アクセスが予測される記憶領域かを示す情報である、請求項4記載のストレージシステム。
  6. 前記コントローラは、前記実ボリュームの記憶領域について前記制御情報を定期的に走査し、この結果に基づいて前記解放を実行する請求項4記載のストレージシステム。
  7. 前記コントローラは、前記上位装置のアプリケーションプログラムの実行結果に基づいて、前記解放を実行する請求項1記載のストレージシステム。
  8. 前記コントローラは、前記上位装置のアプリケーションプログラムによるデータの削除を契機として、このデータに対応する前記実ボリュームの記憶領域について前記解放を実行する、請求項1記載のストレージシステム。
  9. 前記コントローラは、前記上位装置から前記仮想ボリュームへのアクセスコマンドを監視し、このアクセスコマンドに基づいて、前記解放を実行する請求項1記載のストレージシステム。
  10. 記憶デバイスと、コントローラと、を有し、通信経路を介して接続される上位装置からの要求に応じて、前記記憶デバイスにデータを入出力する制御を行うストレージ装置において、
    前記上位装置がアクセスする仮想ボリュームと、
    前記記憶デバイスの記憶領域を有する実ボリュームと、を有し、
    前記実ボリュームが前記仮想ボリュームに割り当てられることによって、前記仮想ボリュームを介して前記上位装置が前記実ボリュームの記憶領域にアクセスするように構成され、さらに、
    前記コントローラは、前記上位装置による前記仮想ボリュームへのアクセスに応じて、前記上位装置がアクセスした仮想ボリュームの領域に前記実ボリュームの記憶領域を割り当て、そして前記上位装置が前記仮想ボリュームに対して続いてアクセスする領域を予測し、この予測された領域に前記実ボリュームの記憶領域を割り当てる、ストレージシステム。
  11. 前記予測されたアドレスに対する前記上位装置のアクセス状況に基づいて、前記コントローラは前記予測された領域への前記実ボリュームの記憶領域の割り当てを解放する、請求項10記載のストレージシステム。
  12. 前記仮想ボリュームの領域について、前記上位装置がアクセスした領域か前記予測された領域かを区別する制御情報を備え、前記コントローラはこの制御情報に基づいて前記解放を実行する、請求項10記載のストレージシステム。
  13. 前記コントローラは前記制御情報を定期的に参照し、その参照結果に基づいて前記解放を実行する、請求項12記載のストレージシステム。
  14. 前記コントローラは、前記実ボリュームの記憶領域のうち前記仮想ボリュームに対して割り当てられている割合を算出し、この割合がある値以上の場合に、前記解放を実行する、請求項1記載のストレージシステム。
  15. 前記コントローラは前記解放された、前記実ボリュームの記憶領域のデータを消去する、請求項1記載のストレージシステム。
  16. 記憶デバイスと、通信経路を介して接続される上位装置からの要求に応じて、前記記憶デバイスにデータを入出力する制御を行うコントローラと、を備えるストレージシステムの制御において、
    前記ストレージシステムは、前記上位装置がアクセスする仮想ボリュームと、前記記憶デバイスの記憶領域を有する実ボリュームと、を有し、前記実ボリュームが前記仮想ボリュームに割り当てられることによって、前記仮想ボリュームを介して前記上位装置が前記実ボリュームの記憶領域にアクセスするように構成され、
    前記コントローラは、前記上位装置による前記仮想ボリュームへのアクセスに応じて、前記上位装置がアクセスした仮想ボリュームの領域に前記実ボリュームの記憶領域を割り当てるステップと、この割り当てを維持する必要が低下した、前記仮想ボリュームの領域に対して、前記実ボリュームの記憶領域の割り当てを解放するステップと、を実行するように構成された、ストレージシステムの制御方法。
JP2006240031A 2006-04-18 2006-09-05 ストレージシステム及びその制御方法 Expired - Fee Related JP5037881B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006240031A JP5037881B2 (ja) 2006-04-18 2006-09-05 ストレージシステム及びその制御方法
US11/528,284 US7680984B2 (en) 2006-04-18 2006-09-28 Storage system and control method for managing use of physical storage areas
US12/704,463 US7949828B2 (en) 2006-04-18 2010-02-11 Data storage control on storage devices
US13/099,300 US8195913B2 (en) 2006-04-18 2011-05-02 Data storage control on storage devices
US13/476,661 US8635427B2 (en) 2006-04-18 2012-05-21 Data storage control on storage devices

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006114933 2006-04-18
JP2006114933 2006-04-18
JP2006240031A JP5037881B2 (ja) 2006-04-18 2006-09-05 ストレージシステム及びその制御方法

Publications (2)

Publication Number Publication Date
JP2007310861A true JP2007310861A (ja) 2007-11-29
JP5037881B2 JP5037881B2 (ja) 2012-10-03

Family

ID=38606209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006240031A Expired - Fee Related JP5037881B2 (ja) 2006-04-18 2006-09-05 ストレージシステム及びその制御方法

Country Status (2)

Country Link
US (4) US7680984B2 (ja)
JP (1) JP5037881B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140356A (ja) * 2007-12-07 2009-06-25 Hitachi Ltd 管理装置及び管理方法
JP2009187468A (ja) * 2008-02-08 2009-08-20 Hitachi Ltd 記憶システム、解除方法及び副側のストレージ装置
JP2009230218A (ja) * 2008-03-19 2009-10-08 Ntt Docomo Inc 通信端末及びアプリケーション削除方法
JP2010102695A (ja) * 2008-10-24 2010-05-06 Hitachi Ltd Hdd障害からの高速データ回復
JP2010113509A (ja) * 2008-11-06 2010-05-20 Hitachi Ltd 記憶領域の割当方法および管理サーバ
JP2010211767A (ja) * 2009-03-12 2010-09-24 Fujitsu Ltd アクセス制御装置、ストレージ装置、ネットワーク通信装置、アクセス制御方法、及びアクセス制御プログラム
JP2010211362A (ja) * 2009-03-09 2010-09-24 Nec Corp ストレージシステム、領域回収方法及び領域回収プログラム
JP2011013821A (ja) * 2009-06-30 2011-01-20 Fujitsu Ltd ストレージシステム、ストレージ制御装置及び方法
WO2011129006A1 (ja) * 2010-04-15 2011-10-20 株式会社 日立製作所 ストレージ装置及びストレージ装置の制御方法
US8140472B2 (en) 2008-07-23 2012-03-20 Hitachi, Ltd. Method for allocating logical unit inside storage system to logical volume and storage controller
WO2012049707A1 (en) 2010-10-13 2012-04-19 Hitachi, Ltd. Storage apparatus and file system management method
EP2450785A1 (en) 2009-10-09 2012-05-09 Hitachi Ltd. Data storage controller and virtual volume control method
WO2012147124A1 (en) 2011-04-26 2012-11-01 Hitachi, Ltd. Server apparatus and method of controlling information system
JP2014032515A (ja) * 2012-08-02 2014-02-20 Fujitsu Ltd ストレージ装置及びストレージシステム
JP2014127076A (ja) * 2012-12-27 2014-07-07 Nec Corp 情報記録再生装置及び記録再生方法
JP2015007881A (ja) * 2013-06-25 2015-01-15 富士通株式会社 ストレージ制御装置,ストレージシステム,および制御プログラム
JP2016181078A (ja) * 2015-03-24 2016-10-13 日本電気株式会社 ストレージシステム、ストレージの管理方法、及び、コンピュータ・プログラム
WO2016166867A1 (ja) * 2015-04-16 2016-10-20 株式会社日立製作所 計算機システム、及び、リソース制御方法
WO2017145272A1 (ja) * 2016-02-24 2017-08-31 株式会社日立製作所 データ移行方法及び計算機システム
JP2018037021A (ja) * 2016-09-02 2018-03-08 オムロン株式会社 制御装置および制御システム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5037881B2 (ja) * 2006-04-18 2012-10-03 株式会社日立製作所 ストレージシステム及びその制御方法
US20090077327A1 (en) * 2007-09-18 2009-03-19 Junichi Hara Method and apparatus for enabling a NAS system to utilize thin provisioning
JP2010049522A (ja) 2008-08-22 2010-03-04 Hitachi Ltd 計算機システムおよび論理ボリューム管理方法
JP4762289B2 (ja) * 2008-10-01 2011-08-31 株式会社日立製作所 特定パターンデータが格納される仮想ボリュームへの記憶領域の割り当てを制御するストレージシステム
US8521987B2 (en) 2009-03-18 2013-08-27 Hitachi, Ltd. Allocation and release of storage areas to virtual volumes
JP2010257274A (ja) * 2009-04-27 2010-11-11 Hitachi Ltd 仮想化環境におけるストレージ管理システム及びストレージ管理方法
US8255584B2 (en) * 2010-03-03 2012-08-28 I/O Doctors Llc Systems and methods for managing I/O throughput for large scale computing systems
US20120151174A1 (en) * 2010-12-13 2012-06-14 Hitachi, Ltd. Computer system, management method of the computer system, and program
US8539156B2 (en) * 2010-12-17 2013-09-17 Hitachi, Ltd. Storage subsystem and its logical unit processing method
WO2013038510A1 (ja) 2011-09-13 2013-03-21 株式会社日立製作所 仮想ボリュームに割り当てられた要求性能に基づく制御を行うストレージシステムの管理システム及び管理方法
JP5977011B2 (ja) * 2011-09-29 2016-08-24 富士通株式会社 ストレージ装置、制御装置およびストレージ装置制御方法
WO2013112141A1 (en) * 2012-01-25 2013-08-01 Hewlett-Packard Development Company, L.P. Storage system device management
US9009311B2 (en) * 2012-07-24 2015-04-14 Hewlett-Packard Development Company, L.P. Initiator zoning in progress command
US9606910B2 (en) * 2013-01-17 2017-03-28 Hitachi, Ltd. Method and apparatus for data reduction
US9588886B2 (en) 2013-03-15 2017-03-07 Seagate Technology Llc Staging sorted data in intermediate storage
US20140281194A1 (en) 2013-03-15 2014-09-18 Seagate Technology Llc Dynamically-sizeable granule storage
GB2524932A (en) * 2013-06-14 2015-10-07 Hitachi Ltd Storage management calculator, and storage management method
US10067688B2 (en) * 2015-01-23 2018-09-04 Qualcomm Incorporated Storage resource management in virtualized environments
US9658773B2 (en) * 2015-02-09 2017-05-23 International Business Machines Corporation Management of extents for space efficient storage volumes by reusing previously allocated extents
US9632704B2 (en) 2015-02-09 2017-04-25 International Business Machines Corporation Management of physical extents for space efficient storage volumes
CN106775456B (zh) 2016-11-22 2019-11-26 华为技术有限公司 一种数据处理方法、装置及系统
US10191854B1 (en) 2016-12-06 2019-01-29 Levyx, Inc. Embedded resilient distributed dataset systems and methods
CN110413211B (zh) * 2018-04-28 2023-07-07 伊姆西Ip控股有限责任公司 存储管理方法、电子设备以及计算机可读介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091449A (ja) * 2001-09-17 2003-03-28 Hitachi Ltd ストレージシステムおよびストレージシステムの管理方法
JP2005011316A (ja) * 2003-05-28 2005-01-13 Hitachi Ltd 記憶領域割当方法、システム及び仮想化装置
JP2005107856A (ja) * 2003-09-30 2005-04-21 Fuji Xerox Co Ltd 情報処理装置、情報処理方法、記録媒体、プログラム
JP2005215940A (ja) * 2004-01-29 2005-08-11 Hitachi Ltd ストレージシステム、サーバ装置及び先行コピーデータ生成方法
JP2005301628A (ja) * 2004-04-09 2005-10-27 Hitachi Ltd ディスクアレイ装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050019266A1 (en) * 1997-05-06 2005-01-27 Unger Evan C. Novel targeted compositions for diagnostic and therapeutic use
US6269431B1 (en) * 1998-08-13 2001-07-31 Emc Corporation Virtual storage and block level direct access of secondary storage for recovery of backup data
US6857059B2 (en) * 2001-01-11 2005-02-15 Yottayotta, Inc. Storage virtualization system and methods
US8219777B2 (en) 2002-10-03 2012-07-10 Hewlett-Packard Development Company, L.P. Virtual storage systems, virtual storage methods and methods of over committing a virtual raid storage system
US6823442B1 (en) 2003-05-12 2004-11-23 3Pardata, Inc. Method of managing virtual volumes in a utility storage server system
JP2005128771A (ja) 2003-10-23 2005-05-19 Fujitsu Ltd データファイルシステム、データアクセスサーバ、およびデータアクセスプログラム
US20050114595A1 (en) * 2003-11-26 2005-05-26 Veritas Operating Corporation System and method for emulating operating system metadata to provide cross-platform access to storage volumes
US20060101204A1 (en) * 2004-08-25 2006-05-11 Bao Bill Q Storage virtualization
JP4555036B2 (ja) * 2004-09-16 2010-09-29 株式会社日立製作所 ストレージ装置及びストレージ装置のデバイス切替制御方法
JP4588500B2 (ja) * 2005-03-16 2010-12-01 株式会社日立製作所 ストレージ・エリア・ネットワークにおけるストレージセッション管理システム
JP4648751B2 (ja) * 2005-05-02 2011-03-09 株式会社日立製作所 記憶制御システム及び記憶制御方法
US9032164B2 (en) * 2006-02-17 2015-05-12 Emulex Corporation Apparatus for performing storage virtualization
JP2007265001A (ja) * 2006-03-28 2007-10-11 Hitachi Ltd ストレージ装置
JP5037881B2 (ja) * 2006-04-18 2012-10-03 株式会社日立製作所 ストレージシステム及びその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091449A (ja) * 2001-09-17 2003-03-28 Hitachi Ltd ストレージシステムおよびストレージシステムの管理方法
JP2005011316A (ja) * 2003-05-28 2005-01-13 Hitachi Ltd 記憶領域割当方法、システム及び仮想化装置
JP2005107856A (ja) * 2003-09-30 2005-04-21 Fuji Xerox Co Ltd 情報処理装置、情報処理方法、記録媒体、プログラム
JP2005215940A (ja) * 2004-01-29 2005-08-11 Hitachi Ltd ストレージシステム、サーバ装置及び先行コピーデータ生成方法
JP2005301628A (ja) * 2004-04-09 2005-10-27 Hitachi Ltd ディスクアレイ装置

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140356A (ja) * 2007-12-07 2009-06-25 Hitachi Ltd 管理装置及び管理方法
US8677094B2 (en) 2008-02-08 2014-03-18 Hitachi Ltd. Storage system, release method, and secondary storage apparatus
JP2009187468A (ja) * 2008-02-08 2009-08-20 Hitachi Ltd 記憶システム、解除方法及び副側のストレージ装置
JP2009230218A (ja) * 2008-03-19 2009-10-08 Ntt Docomo Inc 通信端末及びアプリケーション削除方法
US8140472B2 (en) 2008-07-23 2012-03-20 Hitachi, Ltd. Method for allocating logical unit inside storage system to logical volume and storage controller
JP2010102695A (ja) * 2008-10-24 2010-05-06 Hitachi Ltd Hdd障害からの高速データ回復
JP2010113509A (ja) * 2008-11-06 2010-05-20 Hitachi Ltd 記憶領域の割当方法および管理サーバ
JP2010211362A (ja) * 2009-03-09 2010-09-24 Nec Corp ストレージシステム、領域回収方法及び領域回収プログラム
JP4724759B2 (ja) * 2009-03-12 2011-07-13 富士通株式会社 アクセス制御装置、ストレージ装置、ネットワーク通信装置、アクセス制御方法、及びアクセス制御プログラム
JP2010211767A (ja) * 2009-03-12 2010-09-24 Fujitsu Ltd アクセス制御装置、ストレージ装置、ネットワーク通信装置、アクセス制御方法、及びアクセス制御プログラム
JP2011013821A (ja) * 2009-06-30 2011-01-20 Fujitsu Ltd ストレージシステム、ストレージ制御装置及び方法
US8375167B2 (en) 2009-06-30 2013-02-12 Fujitsu Limited Storage system, control apparatus and method of controlling control apparatus
EP2450785A1 (en) 2009-10-09 2012-05-09 Hitachi Ltd. Data storage controller and virtual volume control method
US8225039B2 (en) 2009-10-09 2012-07-17 Hitachi, Ltd. Storage controller and virtual volume control method
US8606993B2 (en) 2009-10-09 2013-12-10 Hitachi, Ltd. Storage controller and virtual volume control method
WO2011129006A1 (ja) * 2010-04-15 2011-10-20 株式会社 日立製作所 ストレージ装置及びストレージ装置の制御方法
JPWO2011129006A1 (ja) * 2010-04-15 2013-07-11 株式会社日立製作所 ストレージ装置及びストレージ装置の制御方法
US8713266B2 (en) 2010-04-15 2014-04-29 Hitachi, Ltd. Storage apparatus and method including page discard processing for primary and secondary volumes configured as a copy pair
WO2012049707A1 (en) 2010-10-13 2012-04-19 Hitachi, Ltd. Storage apparatus and file system management method
WO2012147124A1 (en) 2011-04-26 2012-11-01 Hitachi, Ltd. Server apparatus and method of controlling information system
JP2014032515A (ja) * 2012-08-02 2014-02-20 Fujitsu Ltd ストレージ装置及びストレージシステム
JP2014127076A (ja) * 2012-12-27 2014-07-07 Nec Corp 情報記録再生装置及び記録再生方法
JP2015007881A (ja) * 2013-06-25 2015-01-15 富士通株式会社 ストレージ制御装置,ストレージシステム,および制御プログラム
JP2016181078A (ja) * 2015-03-24 2016-10-13 日本電気株式会社 ストレージシステム、ストレージの管理方法、及び、コンピュータ・プログラム
US10114583B2 (en) 2015-03-24 2018-10-30 Nec Corporation Storage system, storage management method, and storage medium
WO2016166867A1 (ja) * 2015-04-16 2016-10-20 株式会社日立製作所 計算機システム、及び、リソース制御方法
WO2017145272A1 (ja) * 2016-02-24 2017-08-31 株式会社日立製作所 データ移行方法及び計算機システム
JPWO2017145272A1 (ja) * 2016-02-24 2018-08-30 株式会社日立製作所 データ移行方法及び計算機システム
JP2018037021A (ja) * 2016-09-02 2018-03-08 オムロン株式会社 制御装置および制御システム

Also Published As

Publication number Publication date
US20110208924A1 (en) 2011-08-25
US20100146207A1 (en) 2010-06-10
US7680984B2 (en) 2010-03-16
US8635427B2 (en) 2014-01-21
US7949828B2 (en) 2011-05-24
US8195913B2 (en) 2012-06-05
US20120233424A1 (en) 2012-09-13
JP5037881B2 (ja) 2012-10-03
US20070245114A1 (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP5037881B2 (ja) ストレージシステム及びその制御方法
US8281076B2 (en) Storage system for controlling disk cache
JP4041656B2 (ja) ストレージシステム及びストレージシステムにおけるデータ送受信方法
JP5771280B2 (ja) 計算機システム及びストレージ管理方法
US7761684B2 (en) Data management method in storage pool and virtual volume in DKC
EP2239655B1 (en) Storage controller and storage control method
US7613896B2 (en) Storage area dynamic assignment method
US8346934B2 (en) Method for executing migration between virtual servers and server system used for the same
US6968425B2 (en) Computer systems, disk systems, and method for controlling disk cache
JP4896500B2 (ja) 機器停止を伴う仮想ボリューム制御方法
US8316203B2 (en) Storage system and method implementing online volume and snapshot with performance/failure independence and high capacity efficiency
US8745344B2 (en) Storage system using thin provisioning pool and snapshotting, and controlling method of the same
US7953927B2 (en) Allocating clusters to storage partitions in a storage system
JP2007293442A (ja) ストレージシステム及びその制御方法
JP5531091B2 (ja) 計算機システム及びその負荷均等化制御方法
JP2009043030A (ja) ストレージシステム
JP2007304794A (ja) ストレージシステム及びストレージシステムにおける記憶制御方法
JP2005165852A (ja) ストレージシステム、ストレージ制御装置、ストレージシステムの制御方法
US8572347B2 (en) Storage apparatus and method of controlling storage apparatus
JP5597266B2 (ja) ストレージシステム
WO2016006072A1 (ja) 管理計算機およびストレージシステム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees