JP2011003111A - フラッシュメモリを用いたストレージシステムの管理方法及び計算機 - Google Patents
フラッシュメモリを用いたストレージシステムの管理方法及び計算機 Download PDFInfo
- Publication number
- JP2011003111A JP2011003111A JP2009147182A JP2009147182A JP2011003111A JP 2011003111 A JP2011003111 A JP 2011003111A JP 2009147182 A JP2009147182 A JP 2009147182A JP 2009147182 A JP2009147182 A JP 2009147182A JP 2011003111 A JP2011003111 A JP 2011003111A
- Authority
- JP
- Japan
- Prior art keywords
- information
- management
- fmd
- surplus capacity
- storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
- G06F3/0616—Improving the reliability of storage systems in relation to life time, e.g. increasing Mean Time Between Failures [MTBF]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/08—Error detection or correction by redundancy in data representation, e.g. by using checking codes
- G06F11/10—Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
- G06F11/1076—Parity data used in redundant arrays of independent storages, e.g. in RAID systems
- G06F11/108—Parity data distribution in semiconductor storages, e.g. in SSD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2094—Redundant storage or storage space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
- G06F3/0605—Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0608—Saving storage space on storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
- G06F3/0619—Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0634—Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/0644—Management of space entities, e.g. partitions, extents, pools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0652—Erasing, e.g. deleting, data cleaning, moving of data to a wastebasket
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0653—Monitoring storage devices or systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0685—Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0688—Non-volatile semiconductor memory arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2206/00—Indexing scheme related to dedicated interfaces for computers
- G06F2206/10—Indexing scheme related to storage interfaces for computers, indexing schema related to group G06F3/06
- G06F2206/1008—Graphical user interface [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2211/00—Indexing scheme relating to details of data-processing equipment not covered by groups G06F3/00 - G06F13/00
- G06F2211/10—Indexing scheme relating to G06F11/10
- G06F2211/1002—Indexing scheme relating to G06F11/1076
- G06F2211/1059—Parity-single bit-RAID5, i.e. RAID 5 implementations
Abstract
【解決手段】フラッシュメモリチップを備えるストレージシステムのコントローラは、フラッシュメモリチップの余剰容量値を管理し、パリティグループの定義または内部LUの定義または論理ユニットの定義の少なくとも一つの定義に基いて、管理サーバに余剰容量値に基づく値を送信する。管理サーバは受信した余剰容量値に基く値を用いてストレージシステムの状態を表示する。
【選択図】図3
Description
管理側FMD情報12050は、ストレージシステム1000に設置されたFMD1030についての情報を格納する。
管理側PG構成情報12060は、ストレージシステム1000に定義されたパリティグループについての情報を格納する。
管理側内部LU構成情報12070は、ストレージシステム1000に定義された内部LUについての情報を格納する。
管理側LUパス情報12080は、ストレージシステム1000に定義された論理ユニットについての情報を格納する。
管理側代替候補FMD情報12090は、ストレージシステム1000の代替候補FMDの情報を格納する。
余剰容量ポリシー情報は12100は、FMD1030の余剰容量値に基く運用ポリシーを格納する。
論理ユニット運用情報12110は、論理ユニットの運用に関する情報を格納する。
フラッシュメモリ(以後FMと省略することがある)は、ブロック型の記憶デバイスであり、ページ及びイレースブロック(またはブロック)と呼ばれる単位でデータ管理が行われる。具体的に述べると、フラッシュメモリに対する読み書きは以下の3つの操作で実現される。
(操作1)ページを指定対象としたデータ読み込み操作
(操作2)ページを指定対象としたデータ書き込み操作
(操作3)ブロックを指定対象としたデータ消去操作
なお、ブロックは複数のページをまとめた単位である。
FMD1030−1: 提供容量=200GB、余剰容量=150GB、障害容量=0GB
FMD1030−2: 提供容量=200GB、余剰容量=50GB、障害容量=100GB
FMD1030−3: 提供容量=200GB、余剰容量=150GB、障害容量=350GB
FMD1030−4: 提供容量=200GB、余剰容量=350GB、障害容量=150GB
FMD1030−5: 提供容量=200GB、余剰容量=100GB、障害容量=50GB
LU1:ホスト提供容量=100GB
LU2:ホスト提供容量=50GB
LU3:ホスト提供容量=150GB
なお、上記例ではセグメントサイズを大きな値にしているが、当然ながら他のサイズであってもよい。例えば、本願発明時点では1セグメントは数キロ〜数十キロバイト(又はビット)であり、典型的にはホストがストレージにアクセスするSCSI等の通信プロトコルで指定可能なブロックの規格上の最小サイズである512バイトよりも大きな値である。同様にパリティグループ、FMD、LU、及びFMCの数の関係は1対1、多対1、1対多、多対多のいずれであっても良く、ここの存在ごとにそれぞれの数の関係が異なっていても良い。なお、容量効率及び性能の観点から考えた場合、パリティグループを構成するFMD1030同士で提供容量及びFMCの数、ブロックサイズ、セグメントサイズ及びFMDコントローラの特性が同一または近いことが望ましいが、必ずしもそうでなくてもよい。さらに、パリティグループに対応するFMD1030の数、提供容量、FMD内部構成などの少なくとも一つがパリティグループ1とパリティグループ2で異なってもよい。当然ながら、各FMD1030が内蔵するFMCのブロックサイズ、セグメントサイズ、容量が異なっていてもよく、FMCの数も異なっても良い。
FMD情報4050:少なくとも各FMDの提供容量及び余剰容量値を含む。
PG構成情報4060:少なくとも各FMDとパリティグループの対応関係を含む。
内部LU構成情報及びLUパス情報を含む情報:少なくとも各パリティグループと論理ユニットとの対応関係を含む。
(値1)FMDに対する余剰容量値の表示。余剰容量率を例とすれば、FMDの余剰容量に対するFMDの提供容量の割合を、管理サーバは表示する。本情報を参照した管理者の運用の一例としては、余剰領域不足が原因で交換が必要なFMDが無いか確認し、余剰容量率が低いFMDは交換の対象とすることが考えられる。また、本情報を参照することでFMDの増設計画を立てることも考えられる。
(値2)パリティグループに対する余剰容量値の表示。余剰容量率を例とすれば、パリティグループに属する一つ以上のFMDの余剰容量率の最小値や、さらに最小値の次に小さな値や、平均値や分散値を、管理サーバは表示する。RAID技術に代表されるデータ冗長化技術を採用したストレージシステムではパリティグループの状態として余剰容量値を表示することで縮退状態または閉塞状態になる可能性を管理者が容易に把握しやすい。また限られた表示スペースしかない表示画面においてはパリティグループ単位の情報表示は一覧性に優れる。
(値4)代替候補FMDに対するフラッシュメモリの余剰に関する値の表示。パリティグループを新しく定義する場合や、ダイナミックスペアリングを行う場合等に用いる代替候補FMDの確認を、値そのものや、値1又は値2等との比較によって行うことが出来る。また、ストレージシステムがダイナミックスペアリングによって新たに外されたFMDを代替候補FMDとして管理する場合は、本情報によって余剰領域不足でパリティグループから外されたFMDを新たにスペアリングに使わないように管理者に促すことが可能である。
(理由B)ストレージシステム1000が有するキャッシュメモリの働きによって、必ずしもホストからのライトリクエストに付随するデータが毎回FMDに転送されて書き込まれるとは限らない。
(理由C)ウェアレベリング処理によっても実際のフラッシュメモリへの書き込みまたはイレース回数は変わる。しかし、ウェアレベリング技術はFMD1030又はストレージシステム1000の製造ベンダーによって異なる方式を採用する場合があり、ウェアレベリングを実際に処理していない部位での推定はより難しい。
(理由D)FMD内部にもキャッシュメモリを有する場合がある。
(実現例1)余剰領域不足論理ユニットに書き込みを行っていた第一のホスト(又はホスト上のアプリケーション又はホストの利用者)が用途切り替えリクエストを受信したら、上記論理ユニットに対して書き込む代わりに別な論理ユニットに対してデータ書き込みを行う(上記論理ユニットに格納されたデータの一部更新であれば更新前に別な論理ユニットに対してデータ移動又はコピーを実施してもよい)。
(実現例2)余剰領域不足論理ユニットに書き込みを行っていた第一のホストとは別な、アーカイブプログラム等の低更新頻度のデータ更新を行うホスト(第二のホスト)の設定変更を行い、余剰領域不足論理ユニットを第二のホストが低更新頻度用途で利用可能とする。具体的には、第一のホストは余剰領域不足論理ユニットのデータを第一のホストがアクセス可能な他の論理ユニットに移動させ、その後第一ホストは余剰領域不足論理ユニットの使用を抑止する設定を行う。そして、第二ホストは上記余剰領域不足論理ユニットを認識し、フォーマット等のアーカイブサーバが利用するための設定を行う。なお、アーカイブプログラムの一例としては、格納データに対して定められた期間は外部要求からの削除及び更新を抑止するファイルサーバプログラムやデータベースサーバプログラムであることが考えられるが、一例に過ぎない。また、アーカイブプログラムを実行する計算機をアーカイブ計算機、又はアーカイブサーバと呼ぶことがある。
(実現例3)ストレージシステムが、余剰領域不足論理ユニットのデータマイグレーション(つまり、余剰領域不足論理ユニットに当初対応するパリティグループ(移行元パリティグループ)に属するFMDから別なパリティグループ(移行先パリティグループ)に属するFMDへ、余剰領域不足論理ユニットのデータを移行すること)を行う。そして、
(A)ストレージシステムが、他のパリティグループに定義された「更新頻度が少ないデータ格納用途向け」の論理ユニットを上記移行元パリティグループへデータマイグレーションする。
(B)移行元パリティグループに「更新頻度が少ないデータ格納用途向け」の論理ユニット(実際は後述する内部LU)を定義し、実現例2に示す第二のホストに提供する。
のいずれかまたは両方を行う。
(A1)アクセス単位はブロックである。
(A2)ブロックデータを更新する場合、複数ブロックをまとめたセグメント単位でデータを削除するイレースコマンドの使用が必要である。
(A3)同一ブロックに更新を繰り返すと更新処理が失敗することがある。
(A4)更新を契機として別ブロックのデータ化けが発生することがある。
(B1)アドレス[D]のデータが実際に保存されているFMCの識別子とブロックアドレス[C]。
(B2)アドレス[D]が参照された回数。
(C1)障害状況。
(C2)イレース済み情報。
(D1)障害が発生していないこと。
(D2)未使用領域である。
(D3)イレースコマンド実施済みのセグメントに含まれる。
(E1)保存前に、ライトデータからLRC(Longitudinal Redundancy Check)やCRC(Cyclic Redundancy Check)等の冗長コードを計算し、その冗長コードと共にライトデータを保存する。なお、当該冗長コードは、リードリクエスト受付時に、データ化けの有無を確認するために使うもので、データ化けが発生した場合は、当該リードリクエストでエラーを返し、FMD内部構成情報2013に、ブロック障害が発生したことを記録する。
(E2)保存後に、FMC2020から当該ブロックデータを読み込んで比較を行う。比較が失敗した場合は、FMD内部構成情報2013にブロックに障害が発生したことを記録し、再びStep3からやり直す。
(F1)フラッシュメモリチップ内の同一ブロックへの更新集中の回避。
(F2)フラッシュメモリチップ内のブロック上書き前のイレース処理の実行。
(F3)冗長コードを伴ったデータ化けの検知及び修復。
(F4)複数のフラッシュメモリチップへのアクセスを分散可能とするウェアレベリング処理(例えば、特許3507132号に記載の方法)。
(G1)FMD1030のブロックサイズ[D](コントローラ1010は、当該ブロックサイズ単位でアクセスを行ってくる)。
(G2)FMDの提供ブロック数[D](コントローラ1010は、当該ブロック数とブロックサイズ[D]から提供記憶容量を知ることがある)。
(G3)FMD内部の余剰容量値(ブロック数での表現も可)。当該余剰容量値を提供する処理としては、FMD内部構成情報2013での障害が発生したセグメント数(またはブロック数)を求めて以下の計算、
余剰ブロック数=(全フラッシュメモリチップのブロック数)−(障害発生ブロック数)−((G2)に記載のブロック数)、又は未使用ブロック数(FMD使用開始時点から提供ブロック数[D]が提供容量分だけ必ず割り当てられている場合)
が行われればよい。なお、フラッシュメモリチップの一部の領域を管理用や内部冗長化等に用いている場合は、そのブロック数を考慮して(例えば減じて)計算してもよい。また、上記計算式は、FMCのブロックサイズを基準としているため、情報提供に当たってはFMDのブロックサイズに換算して提供することができる。なお、上記例ではブロック数での計算式を示したが、ブロック数に所定の値を掛けることで他の余剰容量値が得られることは言うまでも無いことである。
(G4)スレッショルド値。
(G5)(G3)の余剰ブロック数[D]を(G2)の利用可能ブロック数[D]で割った値が(G4)のスレッショルド値以下になった場合の警告。なお、この警告は、例えば、HDDが障害発生時に提供していた警告と同じ値を提供することで、HDDをエミュレーションしてもよい。
(G6)FMD1030が搭載するFMC数。または、FMD1030が搭載するFMC数から障害によって利用できないと判断したFMC数を引いた数。その他、FMD内部構成情報通知プログラム2014は、以下の場合等に、I/Oリクエストのエラーメッセージをコントローラ1010へ通知してもよい。
(G7)FMD1030へ提供される電圧または電力が不足していることや、FMD1030の内部バスやFMDコントローラ2010の破損。
(G8)FMDコントローラ2010による、FMCに保存されたデータのデータ化けの検知。
(H1)閉塞情報。閉塞情報は、当該FMDに対して使用不可能な状況の場合に閉塞状態となり、そうではない場合に、正常状態となる。なお、使用不可能な状況の例は、ハードウェア障害や、FMD1030を抜き取った場合や、図2に示すFMD1030の場合が余剰領域が不足または枯渇した場合がある。
(H2)WWN(World Wide Name)。FMD1030にアクセスするために必要なFibreChannelの通信識別子。なお、実際のFibreChannelではWWNからポート番号(ポートIDと呼ぶことがある)を作成して、その値を使って通信を行っているため、ポート番号を登録してもよい。また、これ以外にも、コントローラ1010からFMD1030に通信するための他の識別子(例えば、IPアドレス、TCP/IPのポート番号、iSCSI Name等)で代替されてもよい。
(H3)LUN(Logical Unit Number)。本実施形態では、FMDは一つの論理ユニットしか提供していないので、FMDが提供するLUの番号を保存すればよい。当然ながらFMD1030が固定のLUNのみ応答することが明らかであれば、本エントリは省略してもよい。
(H4)FMDの型番。ストレージシステム1000を長期間継続的に利用する場合、保守作業によって複数型番を併用することも考えられるため。
(H5)FMDの提供容量とブロックサイズ[D]とフラッシュメモリパッケージ枚数。これらの情報のうちの少なくとも一つが、FMD1030のFMD内部構成情報通知プログラム2014によって、コントローラ1010に提供される。
(H6)FMDの余剰容量値。余剰容量についてはFMD1030から繰り返し情報取得をすることで繰り返し更新される。
(I1)閉塞情報。閉塞情報はPGが使用不可能な状況の場合に閉塞状態となり、そうではない場合に正常状態となる。なお、使用不可能な状況とは、以下に例示する事象が多重に発生した場合が考えられる。
(事象1)ハードウェア障害。
(事象2)FMD1030の抜き取り。
(事象3)図2に示すFMD1030の場合は余剰領域が少ない、又は不足することによってコントローラ1010が報告を受信。
(I2)RAIDレベル。
(I3)パリティグループに属するFMD1030の数と、そのFMDの識別子。
図8及び図9は、4つのFMD8200、8210、8222、8230を用いてパリティグループ8100を構成する場合を示している。ハッチングされた箱8010は、FMDのブロック[D]を示し、そのブロックアドレス[D]を8011に示している。箱8010の中の点線の枠を持つ箱8020は、コントローラ1010がパリティグループ8100に割り当てたブロック[G]で、コントローラ1010が割り当てるブロックアドレス[G]を8021に示す。なお、ブロック8020のブロックサイズ[G]は、SCSIの規格が提供しうる最低のブロックサイズである512バイトとすることが考えられるが、これ以外のサイズでもよい。
RAID1+0の場合、ミラーリングのために、コントローラ1010は、二つのFMDで同じアドレス空間を割り当て(例では、FMD8200と8210、FMD8220と8230)、その後ストライピングする。ストライピングの場合、コントローラ1010は、定められたブロック数(以後、ストライピング用連続ブロック数と呼ぶ)毎に、続きのアドレス空間[G]を別なFMDへ切り替える(例では、ブロック[G]では4つ、ブロック[D]では2つ)。なお、ストライプサイズ(パリティグループ内の全FMDからデータを読み書きすることで行うI/Oサイズ)は、以下の式で算出することができる。
ストライプサイズ=(ストライピング用連続ブロック数[G])×(FMDの数/2)×(ブロックサイズ[G])。
RAID5の場合も、コントローラ1010は、ストライピング用連続ブロック数を単位にストライピング処理を行ったり、パリティ保存領域を割り当てる(例では、アドレスP0からP3が、アドレス0から11までのパリティを保存する領域)。RAID5の場合のストライプサイズは、以下の式で算出することができる。
ストライプサイズ=(ストライピング用連続ブロック数[G])×(FMD数−1)×(ブロックサイズ[G])。
(J1)閉塞情報。閉塞情報は当該内部LUに対して使用不可能な状況(例えば、パリティグループが閉塞している場合や、当該内部LUに領域が割り当てられていない場合)の場合に閉塞状態となり、そうではない場合に正常状態となる。
(J2)PG識別子と開始アドレス[G]と終了アドレス[G]。当該内部LUの記憶領域として用いるパリティグループと、パリティグループ内の開始ブロックアドレス[G]と終了ブロックアドレス[G]を示す。なお、本エントリは、コントローラ1010で管理されている。このため、当該ブロックアドレスは、コントローラにとってのブロックで管理されるが、その場合も、開始アドレス[G]と終了アドレス[G]はFMD1030のブロックサイズやストライプサイズを考慮した値とすることで、複数の内部LUが同じストライピングやFMDのブロック[D]を用いないようにすることができる。なお、内部LUに対して、複数のパリティグループの記憶領域を割り当てる場合、内部LU構成情報4070のエントリは、(J2)の情報が複数個登録され、さらに、(J2)で定義した空間を結合するための情報が加えられることになる。
(J3)ブロックサイズ[L]。コントローラ1010は、例えば、512バイトをブロックサイズとしているが、ホスト1100はこれより大きいブロックサイズを希望する場合があるため、ホスト1100からのリクエストが前提とするブロックサイズが保持される。
(J4)コンペア情報。コントローラ1010がキャッシュメモリ1020へステージングする際に、パリティやミラーの情報と比較するかどうかを指定するためのオプションである。そのような比較が行われれば、信頼性を向上させることができる。
(K1)ホスト1100に対して提供する内部LUの識別子。
(K2)WWN(またはI/Oポート1013の識別子)。本情報は、ホスト1100に対して提供する内部LUを、どのポート1013から提供するかを示す。なお、前述したように、WWNに代えて、ポート番号など、他種の識別子で代替されてもよい。なお、以後は「ポートの識別子」と記載した場合はこれらいずれかの値であるものとする。
(K3)LUN。本情報は、ホストへ向けて提供する内部LUを、(K2)に記載のWWNのどのLUNとして提供するかを示す。
(方法1)型番、提供容量、ブロックサイズ、余剰容量値の一つ以上を基準に構成されたグループを表示装置に表示する。
(方法2)フラッシュメモリチップ(FMC)数を基に構成されたグループを表示装置に表示する。
にて、コントローラ内部の情報を表示する必要が出たために、情報のリクエストを送信し、構成制御プログラム4030が、そのリクエストを受信したときである。
(チェック1)ストレージシステム1000内のFMDを除いた各コンポーネント(コントローラ、キャッシュメモリ、バックエンドI/Oネットワーク等を指す)の一つが障害等によって閉塞した場合に、パリティグループ定義リクエストに含まれる複数のFMD1030のうち二つ以上のFMD1030にアクセス(I/Oリクエストによるリード・ライトを含む)可能か否かのチェック。アクセス不可能であれば、パリティグループのデータ復元処理が失敗することになる。このチェックは、1点閉塞でI/Oリクエストを停止させないことを目的としたチェックである。なお、RAID1やRAID1+0等ミラーリングを伴うRAIDレベルでは、ミラーリング関係にある二つのFMDの両方についてこの(チェック1)が行われても良い。
(チェック2)パリティグループ定義リクエストで指定された全てのFMD1030においてFMC数が異なるか否かのチェック。このチェックは、パリティグループ構成定義を支援するためのチェックである。
(チェック3)パリティグループ定義リクエストで指定された全てのFMD1030において型番が異なるか否かのチェック。FMD1030の型番にFMC数が関係している場合は、(チェック2)が含まれてもよい。ただし、在庫切れなどの理由により、全て同じ型番のFMD1020を指定できない場合は、本チェックによる警告を無視してパリティグループ構成を定義することも考えられる。
(チェック4)パリティグループ定義リクエストに指定された全てのFMD1030において提供容量が異なるか否かのチェック。提供容量の有効利用を図ることが目的のチェックである。ただし、在庫切れなどで全て同じ容量のFMDを指定できない場合は、本チェックによる警告を無視してパリティグループ構成を定義することも考えられる。
(チェック5)パリティグループ定義リクエストで指定された複数のFMD1030のブロックサイズ[D]が異なるか否かのチェック。FMDのブロックサイズ[D]はキャッシュメモリ1020へのステージングやデステージング時のデータ単位となるため、パリティグループ内でI/O性能の変化を軽減するためのチェックである。
(Step14004)構成制御プログラム4030は、PG構成情報4060の該当するパリティグループの閉塞情報を閉塞状態から正常状態へ変更し、利用可能なことを示し、管理サーバ1200に完了メッセージを返す。
(引数1)パリティグループの識別子。
(引数2)パリティグループの開始アドレス[G]。
(引数3)内部LUの記憶容量またはパリティグループの終了アドレス[G]。
(引数4)内部LUのブロックサイズ[L]。
(引数5)内部LUのコンペア情報。
(判断方法1)I/Oリクエストエラーに代表される処理失敗の情報の場合は、規定回数(1回以上を含む)受け取ったことで判断する。
(判断方法2)3.1.3章に記載した余剰容量値に関連する情報(3.1.3章に記載の(G3)余剰ブロック数を(G2)の提供ブロック数で割った値が考えられる)の場合は、定められたスレッショルド値(本情報はコントローラ1020内部で保持されており、管理サーバ1200経由でコントローラ1020へ設定されてもよい)を下回ったことで判断する。
(判断方法3)3.1.3章に記載した(G6)FMC数の場合は、出荷時や仕様書の数から一定の割合以下となったことで判断する。
(条件1)FMDのデータ容量や型番やFMC数やブロックサイズ[D]。
(条件2)FMD以外のコンポーネント一点閉塞でFMD1030の二重閉塞とならないFMD1030の選択(パリティグループ閉塞をできるだけ回避するため)。
(条件3)パリティグループに残存するFMD1030の余剰容量率と代替FMD1030の余剰容量率。例えば、残存するFMD1030の余剰容量率よりも多い余剰容量率の代替FMD1030を選ぶことでダイナミックスペアリング後の余剰領域不足によるパリティグループ閉塞を回避することが考えられる。一方で、アーカイブ用途向きの論理ユニットしか格納されない場合は、代替FMDとして余剰領域が大きすぎるFMDを用いることはコスト視点からは望ましくないため、残存するFMD1030の余剰容量率から定められた範囲内の余剰容量率を持つFMDを代替FMDとすることも考えられる。
(条件4)いずれかのパリティグループに属さないFMD。
(N5−1)構成制御プログラム4030は、コピーの完了位置を示す情報(コピー完了位置情報)をFMDの先頭アドレスへ初期設定する。
(N5−2)構成制御プログラム4030は、コピー完了位置情報から、複数ブロック分だけ閉塞FMDのデータを復元(3.6.1章に記載の処理方法で)し、代替FMDへ書き込む。
(N5−3)構成制御プログラム4030は、コピー完了位置情報を書き込み済みブロック数分だけ進める。
(N5−4)コピー完了位置情報がFMDの終了アドレスに進むまで、構成制御プログラム4030は、(N5−1)から(N5−3)を繰り返す。
(O1)リードリクエストを受けた場合でFMDの閉塞理由が余剰領域不足の場合は、データ復元処理として、閉塞FMDからキャッシュメモリにデータをステージングした後に、そのデータをホスト1100へ返す
(O2)(O1)以外でリードリクエストを受けた場合、データ復元処理で閉塞したFMD1030に保存されたデータをキャッシュメモリ1020へ復元し、そのデータをホスト1100へ返す
(O3)ライトリクエストを受けた場合、冗長データ(パリティデータやミラーデータ)を更新し、これ以降のリードリクエストやライトリクエストで本リクエストのライトデータを復元できるようにする。
(Q1)キャッシュセグメント上のアドレス。
(Q2)パリティグループの識別子とパリティグループ上のブロックアドレス[G]。
(Q3)キャッシュセグメント内のブロック[G]毎のステージング情報。概要図ではキャッシュ上のブロック[G]の下に黒帯がある場合は当該データがステージング済みを意味している。
(Q4)キャッシュセグメント内のブロック[G]毎のダーティ(更新済みだが、FMDへは未反映であること)情報。概要図では、キャッシュブロック内のブロック[G]の上に黒帯がある場合はダーティを意味している。
(Q5)旧データ情報。
(6)パリティ更新要情報。図11と12の数字なしのPと書かれた箱の上に黒帯がある場合は、パリティ更新が必要なことを意味し、数字なしのPと書かれた箱のみの場合は更新不要を意味する。
・開始ブロックアドレス[G] =(ブロックサイズ[L]*開始ブロックアドレス[L]/ブロックサイズ[G])+(内部LU構成情報の開始ブロックアドレス[G])
・終了ブロックアドレス[G] =(ブロックサイズ[L]*ブロック長[L]/ブロックサイズ[G])+開始ブロックアドレス[G]。
(T1)記憶容量[D]。
(T2)ブロックサイズ[D]。
(T3)FMDコントローラ2010の性能。
(U1)ブロック数[SD]。
(U2)ブロックサイズ[SD]。
(U3)余剰ブロック数[SD]。
(U4)FMC2020の数、及び/又は、FMD1030の数。
(欠点)FMCの利用効率が悪い。アクセスパターンによっては、特定のFMD1030にライトリクエストが集中するため、コンポーネントが閉塞になるまでの時間が短い。
(利点)ボトルネック箇所が少ない。FMDコントローラ2010で行われる余剰領域管理やアドレス変換は、FMDアドレス変換情報2012の検索を必要とする負荷が低くない処理であるため、FMD1030に内蔵するFMCの数を増加させても、FMDコントローラ21010のボトルネック化によって、性能が向上しない場合がある。これを回避するため、ブロックサイズ[D]を大きくすることで、FMD1030のアドレス変換時に検索するFMDアドレス変換情報2012の大きさを小さくして性能向上する方法も考えられる。しかし、大きすぎるブロックサイズは、ランダムアクセスが多い環境ではアクセスに直接関係ないデータまでステージングやデステージングをしてしまうため、性能が劣化する。SFMD1030(2)の場合は、アドレス変換は、複数のFMDコントローラ2010にて分散して処理されるため、ボトルネックとなりにくく、かつ大容量のFMCを多く搭載してもブロックサイズを大きくする必要がない。
(処理1)ダイナミックスペアリング。SFMD1030(2)に内蔵するFMD1030の一部をスペア用途として扱い、稼働中のFMD1030の余剰ブロック数が少なくなった場合に、ダイナミックスペアリングを行う。冗長領域を割り当てるためにFMCの利用効率は下がるが、特定のFMD1030にアクセスが集中することによるコンポーネント閉塞までの時間は長くなる。
(処理2)ミラーリングやパリティ等の冗長データの付加。
(方法1)パリティグループ構成定義時、コントローラ1010は、例えば、GUI(Graphical User Interface)により、複数記憶領域提供FMD1030(3)とそこに内蔵されているFMD1030の対応関係を表示し、ユーザーから、複数のFMD1030の指定を受け付ける。その指定を受けたコントローラ1010は、指定された複数のFMD1030の一部が同じ複数記憶領域提供FMD1030(3)に属していないかチェックを行う。
(方法2)パリティグループ構成定義時、コントローラ1010は、例えば、GUIにより、マルチLU−FMD1030(3)の一覧を表示し、ユーザーから、複数のマルチLU−FMD1030(3)の指定を受け付ける。指定を受けたコントローラ1010は、指定された複数の複数記憶領域提供FMD1030(3)が、それぞれ互いに、搭載されたFMD1030の数と記憶容量が等しいことをチェックする。その後、コントローラ1010は、図23に例示するように、各マルチLU−FMD1030(3)のFMD1030により構成するサブパリティグループを定義し、さらに、マルチLU−FMD1030(3)内の複数のサブパリティグループを、Concatenate等で結合した領域をパリティグループとして用いたり、ユーザーに提供したりする。なお、"Concatenate"について説明すると、例えば、LU1にLU2をConcatenateするとは、LU1のアドレス空間の最後尾にLU2のアドレス空間の先頭を結合することである。
* ホストLUの識別子。当該識別子はOS4101によって割り当てられた識別子であるが、割り当てに際してホスト管理者の指示が介在することがある。
* ホストLUに対応する論理ユニットのポートID及びLUN。
* ホストLUに対応する論理ユニットの提供容量。
(MA1) FMD1030の識別子。
(MA2) FMD1030の閉塞情報。
(MA3) FMD1030の型番。
(MA4) FMD1030の提供容量とブロックサイズ[D]とフラッシュメモリパッケージ枚数。
(MA5) FMD1030の余剰容量値。
(MB1) パリティグループの識別子。
(MB2) パリティグループの閉塞情報。
(MB3) パリティグループのRAIDレベル。
(MB4) パリティグループに属するFMDの数とFMDの識別子。
(MB5) パリティグループの余剰容量率。
(MC1) 内部LUの識別子。
(MC2) 内部LUの閉塞情報。
(MC3) 内部LUが定義されたパリティグループの識別子。
(MC4) 内部LUのブロックサイズ。
(MC5) 内部LUのコンペア情報
(MC6) 内部LUの提供容量。本容量はコントローラ1010が内部LU構成情報4070の開始アドレス及び終了アドレス及びブロックサイズに基いて計算された値をコントローラ1010から受信した値であることが考えられる。しかし、内部LU構成情報4070の開始アドレス及び終了アドレスを管理サーバ1200が受信できるのであれば、管理サーバ1200にて算出してもよい。
(MC7) 内部LUの余剰容量率。
(MD1) ホスト1100に対して提供する内部LUの識別子。
(MD2) WWN(またはI/Oポート1013の識別子)。本情報は、ホスト1100に対して提供する内部LUを、どのポート1013から提供するかを示す。なお、前述したように、WWNに代えて、ポート番号など、他種の識別子で代替されてもよい。また、LUパス情報4080の該当する情報と異なる内容であってもよい(例えば、ストレージシステムはWWNで管理し、管理サーバはポート番号で管理する)。
(MD3) LUN。
(ME1) 代替FMDとなりうるFMD1030(省略して代替候補FMDと呼ぶことがある)の数。
(ME2) 代替候補FMDの余剰容量率の平均値又は最小値。
(ME3) 代替候補FMD1030の識別子
なお、代替候補FMD1030の特定は、ストレージシステムに取り付けられているが、パリティグループに属していないFMD1030であることが考えられる。しかし、他の案として、コントローラが管理者からのFMD1030を指定した設定リクエストに応じて代替候補FMD1030のグループ(以後、代替候補FMDグループと呼ぶ)を定義することも考えられ、この場合はストレージシステムから代替候補FMDグループに属するFMD1030の識別子を取得すればよい。
(MF1) ポリシーの識別子。
(MF2) 余剰容量率を評価する閾値。なお、余剰容量率を評価する基準であれば閾値以外を採用してもよい。
(MF3) 評価基準に適合した場合に、実行するアクションを識別する名前(または識別子)。
(MF4) 評価基準に適合した場合に、実行するアクションの実現するアクション指示。なお、アクション指示はプログラムであったり、スクリプトであってもよい。
(MG1) ホストLUを定義したスト1100の識別子。
(MG2) ホストLUの識別子。
(MG3) ホストLUに対応する論理ユニットのポート識別子とLUN。
(MG4) ホストLUの状態。
(MG5) ホストLUに適用するポリシーの識別子。
(MG6) ホストLUを使用するアプリケーションの実行インスタンスの識別子。
(Step1)システム管理プログラム12010は、ホスト1100からホスト管理情報を受信する。
(Step2)システム管理プログラム12010は、前述のホスト管理情報に基いて、論理ユニット運用情報12110を生成または更新する。
(Step1)システム管理プログラム12010は、ストレージシステム1000からストレージシステムの管理情報を受信する。
(Step2)システム管理プログラム12010は、前述のストレージシステム管理情報に基いて以下の情報を作成または更新する。
* 管理側FMD情報12050
* 管理側PG構成情報12060
* 管理側内部LU構成情報12070
* 管理側LUパス情報12080
* 管理側代替候補FMD情報12090
なお、ストレージシステム1000が送信するストレージシステム管理情報はストレージシステム1000が有する以下の情報に基いて作成される。
* FMD情報4050
* PG構成情報4060
* 内部LU構成情報4070
* LUパス情報4080
ストレージシステム管理情報は、上記情報の一部または全てまたは前回送信分からの差分を含むことが考えられるが、これら情報と同じデータ構造やデータ表現形式でストレージシステム管理情報に含める必要は無い。また、ストレージシステム管理情報は、少なくとも一つの物理的又は論理的なコンポーネントの余剰容量値と当該値に対応するコンポーネントの識別子を含み、FMD1030とパリティグループと内部LUと論理ユニットとのいずれか二つ以上または全ての関係を示す情報を含むのであれば、どのような情報表現形式や送信形式であってもよい。つまり余剰容量値と上記関係は別々な通信で送信されてもよい。さらには上記関係は管理サーバの入力によって関係構築がなされている場合があるため、ストレージシステム管理情報に含めなくても良い。
(Step1)システム管理プログラム12010は、入出力装置を介して、管理者から以下の情報を受信する。
* ポリシーを適用する閾値
* 余剰容量率の評価基準。より具体的には閾値。
* アクション名。
* アクション指示。
(Step2)システム管理プログラム12010は、管理者から受信した情報に基き、余剰容量ポリシー情報12100を作成または更新する。具体的には以下の通りである:
* 受信した情報がポリシーの新規追加であれば、システム管理プログラム12010は新しいポリシー識別子を生成し、余剰容量ポリシー情報12100に上記情報を共に格納する。
* 受信した情報がポリシーの更新であれば、システム管理プログラム12010は余剰容量ポリシー情報12100の変更対象情報を更新する。
(Step3)システム管理プログラム12010は、管理者からポリシーを特定する情報とポリシーを適用するホストLUまたは使用アプリケーションの実行インスタンスを特定する情報を受信する。なお、ポリシーを特定する情報の例としてはポリシー識別子がある。また、ポリシーを適用するホストLUまたは使用アプリケーションの実行インスタンスを特定する情報の例としては、ホストLUの識別子や、使用アプリケーションの実行インスタンスの識別子がある。
(Step4)システム管理プログラム12010は、Step3で受信した情報に基いて、論理ユニット運用情報12110を更新する。
* 管理側FMD情報12050
* 管理側PG構成情報12060
* 管理側内部LU構成情報12070
* 管理側LUパス情報12080
* 管理側代替候補FMD情報12090
* 余剰容量ポリシー情報12100
* 論理ユニット運用情報12110
なお、以後の説明では管理サーバ1200が管理する上記情報をまとめてシステム管理情報と呼ぶことがある。なお、このシステム管理情報は上記情報が全て含まれるとは限らない。例えば本発明はポリシーを用いない運用も可能であり、またホストLUやアプリケーションを考慮せずにポリシーを設定する場合もあるため、そうした実施形態の際には上記全ての情報が必要ではないからである。
(第3ペイン)第1ペインを用いて入出力装置から一覧表示オブジェクトを指定された場合に、当該一覧表示オブジェクトに対応する一つ以上のコンポーネント(論理的、物理的を問わず)のそれぞれの管理情報を表示する。
* 記憶デバイスを特定する識別子として、所定のFMD1030の識別子を表示する。本表示は管理側FMD情報12050のFMD識別子に基いて行われる。
* 記憶デバイスの取り付け位置に関する情報を表示する。本表示は管理側FMD情報12050のFMD識別子に基いて取り付け位置を算出することで行われる。
* 記憶デバイスの型番として、所定のFMD1030の型番を表示する。本表示は管理側FMD情報12050の型番に基いて行われる。
* 記憶デバイスの構成の一部として、所定のFMD1030のFMC枚数及びブロックサイズ[D]を表示する。本表示は管理側FMD情報12050のFMC枚数及びブロックサイズに基いて行われる。
* 記憶デバイスの提供容量として、所定のFMD1030の提供容量を表示する。本表示は管理側FMD情報12050の提供容量に基いて行われる。
* 記憶デバイスの余剰容量率として、所定のFMD1030の余剰容量率を表示する。本表示は管理側FMD情報12050の余剰容量値又は/及び提供容量に基いて行われる。
* 記憶デバイスの状態として、所定のFMD1030の状態を表示する。本表示は管理側FMD情報12050の閉塞情報と余剰容量率に基いて行われる。
(状態1)正常(I/O処理受付可能という意味)
(状態2)閉塞(利用不可能という意味)
(状態3)余剰領域不足(図中では省略して余剰不足と表現することがある)
また、管理サーバ1200は、複数のFMD1030の各々について、上記所定のFMD1030に関する管理情報を第3ペインに表示してもよい。なお、そのときの契機としては、管理者が画面表示を介し、ポインティングデバイスカーソル30040が記憶デバイスの文字列を持つ一覧表示オブジェクトをクリックすることにより、管理サーバ1200は所定のFMD1030を指定した管理情報表示リクエストを受信した時点であることが考えられる。
* パリティグループを特定する識別子として、所定のパリティグループの識別子を表示する。本表示は管理側PG構成情報12060のパリティグループ識別子に基いて行われる。
* パリティグループのRAIDレベルとして、所定のパリティグループのRAIDレベルを表示する。本表示は管理側PG構成情報12060のRAIDレベルに基いて行われる。
* パリティグループの記憶デバイス数として、所定のパリティグループに属するFMD1030の数を表示する。本表示は管理側PG構成情報12060のFMD数に基いて行われる。
* パリティグループの提供容量として、所定のパリティグループのRAID処理化後に実現される容量を表示する。本表示は管理側PG構成情報12060の参加FMD識別子及びRAIDレベル、及び管理側FMD情報12050の提供容量に基いて行われる。
* パリティグループの余剰容量率として、所定のパリティグループの余剰容量率を表示する。本表示は管理側PG構成情報12060の余剰容量率に基いて行われる。
* パリティグループの状態として、所定のパリティグループの状態を表示する。本表示は管理側PG構成情報12060の閉塞情報と余剰容量率に基いて行われる。
(状態1)正常(I/O処理受付可能という意味)
(状態2)縮退(3.6.1.章の定義を参照。また、別な言葉で表現すればパリティグループに属する正常状態のFMD1030が一つ閉塞した時点でデータ消失が発生する状態とも言える(特にRAID5の場合))
(状態3)閉塞(利用不可能という意味)
(状態4)余剰領域不足(図中では省略して余剰不足と表現している)
(状態5)縮退かつ余剰領域不足(縮退状態のパリティグループに属するFMD1030の少なくとも一つが余剰領域不足状態であることを指す)
なお、図31の画面表示で余剰容量率として表示する値は以下の値の少なくとも一つであることが考えられる。
* パリティグループに属する一つ以上のFMD1030の余剰容量率のうち、もっとも小さな値。余剰領域不足によるパリティグループの縮退状態化を回避するために監視する場合は当該値が好適である。
* パリティグループに属する一つ以上のFMD1030の余剰容量率のうち、もっとも小さな値とその次に小さな値。余剰領域不足によるパリティグループの閉塞状態化を回避するために監視する場合は当該値が好適である。
* パリティグループに属する一つ以上のFMD1030の余剰容量率の平均値と分散値。
* クリックした「パリティグループ」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムの識別子。
* クリックした「パリティグループ」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムに定義されたパリティグループの数。
* クリックした「パリティグループ」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムに定義されたパリティグループの余剰容量率の最小値又は平均値。
* 内部LUを特定する識別子として、所定の内部LUの識別子を表示する。本表示は管理側内部LU構成情報12070の内部LUの識別子に基いて行われる。
* 内部LUが定義されたパリティグループの識別子として、所定の内部LUが定義されたパリティグループの識別子を表示する。本表示は管理側内部LU構成情報12070のパリティグループ識別子に基いて行われる。
* 内部LUのブロックサイズとして、所定の内部LUのブロックサイズを表示する。本表示は管理側内部LU構成情報12070のブロックサイズに基いて行われる。
* 内部LUの提供容量として、所定の内部LUの提供容量を表示する。本表示は管理側内部LU構成情報12070の提供容量に基いて行われる。
* 内部LUの余剰容量率として、所定の内部LUが定義されたパリティグループの余剰容量率を表示する。本表示は管理側内部LU構成情報12070の余剰容量率に基いて行われる。
* 内部LUの状態として、所定の内部LUの状態を表示する。本表示は管理側内部LU構成情報12070の閉塞情報及び余剰容量率に基いて行われる。
(状態1)正常(I/O処理受付可能という意味)
(状態2)縮退(3.6.1.章の定義を参照。また、別な言葉で表現すれば、所定の内部LUが定義されたパリティグループに属する、正常状態のFMD1030が一つ閉塞した時点でデータ消失が発生する状態とも言える(特にRAID5の場合))
(状態3)閉塞(利用不可能という意味)
(状態4)余剰領域不足(図中では省略して余剰不足と表現することがある)
(状態5)縮退かつ余剰領域不足(所定の内部LUが定義された縮退状態のパリティグループに属する、FMD1030の少なくとも一つが余剰領域不足状態であることを指す)
なお、図33の画面表示で余剰容量率として表示する値は図31及び図32で説明したパリティグループに関する表示で説明した値を表示してもよい。
* クリックした「内部LU」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムの識別子。
* クリックした「内部LU」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムに定義された内部LUの数。
* クリックした「パリティグループ」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムに定義された内部LUの余剰容量率の最小値又は平均値。
* 論理ユニットが定義されたポートを特定する識別子として、所定の論理ユニットが定義されたポートを特定する識別子を表示する。なお、当該識別子はファイバーチャネルの場合はWWNやポートID、Ethernetの場合はMACアドレスやIPアドレスが考えられるが、他の識別子であってもよい。本表示は管理側LUパス情報12080のポート識別子に基いて行われる。
* 論理ユニットを特定する識別子として、所定の論理ユニットの識別子を表示する。なお、当該識別子としてはSCSIのLUNであることが考えられるが、他の識別子でもよい。本表示は管理側LUパス情報12080のLUNに基いて行われる。
* 論理ユニットが対応する内部LUの識別子として、所定の論理ユニットが対応する内部LUの識別子を表示する。本表示は管理側LUパス情報12080の内部LU識別子に基いて行われる。
* 論理ユニットのブロックサイズとして、所定の論理ユニットのブロックサイズを表示する。本表示は管理側LUパス情報12080の内部LUの識別子、及び管理側内部LU構成情報12070のブロックサイズに基いて行われる。
* 論理ユニットの提供容量として、所定の論理ユニットに対応する内部LUの提供容量を表示する。本表示は管理側LUパス情報12080の内部LUの識別子、及び管理側内部LU構成情報12070の提供容量に基いて行われる。
* 論理ユニットの余剰容量率として、所定の論理ユニットに対応する内部LUの余剰容量率を表示する。本表示は管理側LUパス情報12080の内部LUの識別子、及び管理側内部LU構成情報12070の余剰容量率に基いて行われる。
* 論理ユニットの状態として、所定の論理ユニットの状態を表示する。本表示は管理側LUパス情報12080の内部LUの識別子、及び管理側内部LU構成情報12070の閉塞情報及び余剰容量率に基いて行われる。
(状態1)正常(I/O処理受付可能という意味)
(状態2)縮退(3.6.1.章の定義を参照。また、別な言葉で表現すれば、所定の論理ユニットに対応するパリティグループに属する、正常状態のFMD1030が一つ閉塞した時点でデータ消失が発生する状態とも言える(特にRAID5の場合))
(状態3)閉塞(利用不可能という意味)
(状態4)余剰領域不足(図中では省略して余剰不足と表現することがある)
(状態5)縮退かつ余剰領域不足(所定の論理ユニットに対応する縮退状態のパリティグループに属する、FMD1030の少なくとも一つが余剰領域不足状態であることを指す)
なお、図34の画面表示で余剰容量率として表示する値は図31及び図32で説明したパリティグループに関する表示で説明した値を表示してもよい。
* クリックした「ポート」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムの識別子。
* クリックした「ポート」の一覧表示オブジェクトに対応するポートに対して定義された一つ以上の論理ユニットの数。
* クリックした「ポート」の一覧表示オブジェクトに対応するポートに対して定義された一つ以上の論理ユニットの余剰容量率の最小値又は平均値。
* クリックした「代替候補デバイス」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムの識別子。本表示は管理側代替候補FMD情報12090のストレージシステムの識別子に基いて行われる。
* クリックした「代替候補デバイス」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムが有する代替候補FMD1030の数。本表示は管理側代替候補FMD情報12090のFMD数に基いて行われる。
* クリックした「代替候補デバイス」の一覧表示オブジェクトから上位の、ストレージシステムの一覧表示オブジェクトに対応するストレージシステムが有する代替候補デバイスの平均余剰容量率又は最小余剰容量率。本表示は管理側代替候補FMD情報12090の余剰容量率に基いて行われる。
* アプリケーション種別またはアプリケーションの実行インスタンスを識別する情報として、所定のホストLUの表示オブジェクトの上位に該当するアプリケーションの一覧表示オブジェクトに対応する、アプリケーションの実行インスタンスの識別子を表示する。なお、所定のホストLUを複数のアプリケーション実行インスタンスが共有している場合は、複数のアプリケーション実行インスタンスの識別子を表示してもよい。本表示は論理ユニット運用情報12110の使用アプリケーションの実行インスタンスの識別子に基いて行われる。
* ホストLUの識別子として、所定のホストLUのホスト1100が割り当てた識別子を表示する。本表示は論理ユニット運用情報12110のホストLU識別子に基いて行われる。
* ホストLUを論理ユニットとして提供しているポートの識別子とLUN番号として、所定のホストLUに対応する論理ユニットが定義されたポートの識別子とLUN番号を表示する。本表示は論理ユニット運用情報12110のLUNに基いて行われる。
* ホストLUの提供容量として、所定のホストLUとしてホスト1100が検知した容量、または所定のホストLUに対応する論理ユニットに対応する内部LUの提供容量を表示する。本表示は論理ユニット運用情報12110の使用アプリケーションのポート識別子及びLUN、管理側LUパス情報の内部LU識別子、及び管理側内部LU構成情報の提供容量に基いて行われる。
* ホストLUの余剰容量率として、所定のホストLUに対応する論理ユニットに対応する内部LUの余剰容量率を表示する。本表示は論理ユニット運用情報12110の使用アプリケーションのポート識別子及びLUN、管理側LUパス情報の内部LU識別子、及び管理側内部LU構成情報の余剰容量率に基いて行われる。
* ホストLUに提供された運用ポリシーの情報として、所定のホストLUに適用された運用ポリシーの識別子と、当該運用ポリシーの余剰容量率に対する閾値と閾値を下回った場合のアクションを含む情報を表示する。本表示は論理ユニット運用情報12110の適用ポリシー識別子、及び余剰容量ポリシー情報12100に基いて行われる。
* ホストLUの状態として、所定のホストLUの状態を表示する。なお、当該ホストLUの状態としては、以下に示す状態を表示することが考えられる。本表示は論理ユニット運用情報12110の状態に基いて行われる。
* 対応する論理ユニット又は内部LUの状態
* アプリケーションの実行インスタンスの所定のホストLUの利用設定に関連した状態。論理ユニットにアーカイブデータの格納中であることを指すアーカイブ中や、論理ユニットにアーカイブデータを格納完了したことを指すアーカイブ済みといった状態や、アプリケーションが認識している所定のホストLUの用途としてアーカイブ運用中といった状態が考えられる。
* ホスト1100又はI/Oネットワーク1300の障害状況を考慮した状態(例えば、通信断絶)
なお、後述するが、ホストLUの状態は管理者の指定によりアプリケーションに応じた任意の文字列を表示してもよい。その場合に新たに追加表示する情報として、ホストLUに対応する論理ユニットに対応する内部LUの状態を表示してもよい。なお、表示に際して参照する情報について図34の説明と同じである。
* 特定の論理的または物理的なコンポーネントを指定する(例えば、あるパリティグループを指定する場合)
* 所定のストレージシステム(または所定のコンポーネント)が関係する、ある種別の論理的または物理的なコンポーネントを指定する(例えば、ストレージシステムSTG1に定義されたパリティグループ全体を指定する)
なお、これら指定条件として事前設定した条件に基く指定または表示内容のフィルタリングを行っても良い。さらに説明した情報以外の情報が画面表示されてもよく、逆に説明した情報の一部を省略してもよい。
(Step4A)システム管理プログラム12010は、余剰容量ポリシー情報12100を参照することで、変化した内部LUの余剰容量率を閾値に登録された評価基準で判断する。
(Step4B)Step4Aで評価基準に適合していると判断した場合、システム管理プログラム12010は、アクション指示に格納された内容に基いた処理を行う。
> HOSTLUSTAT ”任意の文字列”
アクション指示の内容を参照したシステム管理プログラム12010は、ホストLU状態指示を検知することで論理ユニット運用情報の状態を”任意の文字列”へ更新する。
(例1)ホストLUが閾値を下回ったことを示す電子メール又はSNMPトラップを送信する。
(例2)閾値を下回ったホストLUを利用しているアプリケーションの実行インスタンスに対して、当該ホストLUをアーカイブ用途で用いさせるためのコマンド又はプログラムを実行する。
(例3)閾値を下回ったホストLUを利用しているアプリケーションの実行インスタンス又は/及びホスト1100のプログラムに対して、当該ホストLUに格納したアプリケーションデータを他のホストLUに移動するためのコマンド又はプログラムを実行する。それと連携して、当該実行インスタンスに対して当該ホストLUへの少なくとも書き込みを抑止するコマンド又はプログラムを実行する。そして、アーカイブプログラムの実行インスタンスに当該ホストLUをアーカイブデータ格納用に用いさせるためのコマンド又はプログラムを実行する。
(Step1)構成制御プログラム4030は、管理サーバから移行対象の内部LUの識別子と、移行先となる内部LUの識別子を指定したデータマイグレーション指示を受信する。
(Step2)構成制御プログラム4030は、移行対象の内部LUとして格納されているライトデータを、移行対象の内部LUに現在対応している移行元となるパリティグループのFMD1030から読み出す。
(Step3)構成制御プログラム4030は、Step2で読み出したデータを移行先となる内部LUに対応する移行先となるパリティグループに属するFMD1030へ書き込む。なお、FMD1030の書き込み先のアドレス範囲は移行先となる内部LUに対応したアドレス範囲である。
(Step4)内部LU構成情報4070に格納された移行対象の内部LUの識別子と、移行先となる内部LUの識別子を交換する。
(Step1)構成制御プログラム4030は、管理サーバから移行対象の内部LUの識別子と、移行対象の内部LUの提供容量以上の未割り当て領域が存在する移行先となるパリティグループの識別子を指定したデータマイグレーション指示を受信する。
(Step2)構成制御プログラム4030は、移行対象の内部LUとして格納されているライトデータを、移行対象の内部LUに現在対応している移行元となるパリティグループのFMD1030から読み出す。
(Step3)構成制御プログラム4030は、Step2で読み出したデータを移行先となるパリティグループに属するFMD1030へ書き込む。なお、FMD1030の書き込み先のアドレス範囲は未割り当てのアドレス範囲である。
(Step4)内部LU構成情報4070に格納された移行対象の内部LUのパリティグループの識別子を移行先となるパリティグループの識別子に変更する。また、内部LU構成情報4070に格納された移行対象の内部LUの開始アドレスと終了アドレスを、FMD1030の書き込み先のアドレス範囲をパリティグループのアドレス範囲に変換したパリティグループ上のアドレス範囲の先頭と終わりに変更する。
(Step0)システム管理プログラム12010は、所定の閾値を上回る余剰容量率の内部LUを高速Tierに属する内部LUとして管理する。
(Step1)システム管理プログラム12010は、所定の閾値を下回ったパリティグループの存在を検知、及び当該パリティグループの識別子を特定する。そして、当該パリティグループに定義された一つ以上の内部LUを移行元内部LUとして特定する。
(Step2)システム管理プログラム12010は、移行元内部LUの所属を高速Tierから高速アーカイブTierに変更し、必要に応じて移行元内部LUの所属Tierを高速アーカイブTierと表示する。
(Step3)システム管理プログラム12010は、以下の全ての条件を持つ内部LUを移行先となる内部LUとして特定する。
* 所定の閾値を下回ったパリティグループとは異なるパリティグループに定義される。
* 前述の移行元内部LUと同容量である。
* ホスト1100が使用していない。
なお、この時点で画面表示を行う場合は、移行先となる内部LUは高速Tierに所属すると表示する。
(Step4)システム管理プログラム12010は、前述の移行元内部LUの識別子と、前述の移行先となる内部LUの識別子を指定したデータマイグレーションリクエストをコントローラ1010に送信する。コントローラ1010はリクエストに従って内部LUのデータをマイグレーションする。
(Step5)システム管理プログラム12010は、データマイグレーション完了を検知したら、画面表示にて、前述の移行先となった内部LUが高速アーカイブ用途向けのTierに変化したことを表す。また、移行元の内部LUは高速Tierに所属することを表示する。図38の画面表示はその一例であり、データマイグレーション前はライトリクエストにも対応可能な高速Tierに所属していた移行先となった内部LUは、高速アーカイブ用途向けに新たに所属することを示すように第1ペインの表示が変化している。当該表示によって、管理者は移行先となった内部LUが高速アーカイブ用途向けとなったことを把握でき、余剰領域が不足しつつあるFMD1030の有効利用を図ることができる。
* システム管理プログラム12010は、高速アーカイブTierに所属すると表示された内部LUまたはパリティグループをアーカイブプログラムまたはアーカイブサーバに割り当てる割り当てリクエストを管理者から受信する。システム管理プログラム12010はアーカイブサーバまたはアーカイブプログラムの設定を変更させて、高速アーカイブTierに所属すると表示された内部LUまたはパリティグループをアーカイブプログラムに割り当てる。
* システム管理プログラム12010は、ある内部LUを移行対象、高速アーカイブTierに所属すると表示された内部LUまたはパリティグループを移行先として指定したデータマイグレーションリクエストを管理者から受信する。システム管理プログラム12010はデータマイグレーションリクエストを受信し、ストレージシステムにある内部LUを移行対象、高速アーカイブTierに所属すると表示された内部LUまたはパリティグループを移行先として指定したデータマイグレーションリクエストを送信する。なお、前述の「ある内部LU」の例としてはHDD又はFMD1030が属するパリティグループに定義され、かつ更新頻度が少ない(またはアーカイブデータが格納されている)内部LUがある。
Claims (15)
- 計算機と、
フラッシュメモリデバイスと、ストレージ構成情報を有するストレージコントローラと、キャッシュメモリと、を有し、前記フラッシュメモリデバイスを用いて前記計算機に論理ユニットを提供するストレージシステムと、
前記ストレージシステムと前記計算機とを管理する管理システムと、
を有する情報システムであって、
前記ストレージコントローラは、前記フラッシュメモリデバイスの余剰領域の容量に基く値である第一の余剰容量値をストレージ構成情報に記憶し、前記ストレージ構成情報に基いてストレージ管理情報を生成し、前記ストレージ管理情報を前記管理システムへ送信し、
前記管理システムは、前記ストレージ管理情報を受信し、前記ストレージ管理情報に基いて、前記ストレージシステムに関連する管理用の余剰容量値を表示する、
ことを特徴とした情報システム。 - 請求項1記載の情報システムであって、
前記ストレージコントローラは、前記フラッシュメモリデバイスを用いたパリティグループの定義を示す情報と、前記論理ユニットと前記パリティグループとの対応を示す情報と、を前記ストレージ構成情報に格納し、
前記ストレージコントローラは、前記パリティグループの定義に基いて、前記論理ユニットを指定したライトリクエストのライトデータを、前記指定された論理ユニット対応する前記パリティグループに属する前記フラッシュメモリデバイスに、分散または冗長化して書き込み、
前記管理用の余剰容量値の表示は、前記パリティグループに対する第二の余剰容量値、又は前記第二の余剰容量値に表示用の変換を行った値、の表示である、
ことを特徴とした情報システム。 - 請求項2記載の情報システムであって、
前記ストレージ管理情報は、前記フラッシュメモリデバイスに対する第一の余剰容量値を含み、
前記管理システムは、前記フラッシュメモリデバイスに対する前記第一の余剰容量値に基き、前記パリティグループに対する前記第二の余剰容量値を算出する、
ことを特徴とした情報システム。 - 請求項2記載の情報システムであって、
前記ストレージコントローラは、前記フラッシュメモリデバイスに対する前記第一の余剰容量値に基いて、前記パリティグループに対する前記第二の余剰容量値を算出し、
前記ストレージ管理情報は、前記第二の余剰容量値を含む、
ことを特徴とした情報システム。 - 請求項1記載の情報システムであって、
前記ストレージコントローラは、前記フラッシュメモリデバイスを用いたパリティグループの定義を示す情報と、前記パリティグループを用いて定義する内部論理ユニットとの対応を示す情報と、前記内部論理ユニットと前記論理ユニットとの対応を示す情報と、を前記ストレージ構成情報に格納し、
前記ストレージコントローラは、前記論理ユニットを指定したデバイス問い合わせリクエストの応答として、前記指定された論理ユニットに対応する内部論理ユニットの識別情報を送信し、
前記ストレージコントローラは、前記パリティグループの定義及び前記内部論理ユニットの定義に基き、前記指定された論理ユニットを指定したライトリクエストのライトデータを、前記指定された論理ユニットに対応する前記パリティグループに属する、前記フラッシュメモリデバイスに分散または冗長化して書き込み、
前記管理用の余剰容量値の表示は、前記内部論理ユニットに対する第三の余剰容量値、又は前記第三の余剰容量値に表示用の変換を行った値、の表示である、
ことを特徴とした情報システム。 - 請求項5記載の情報システムであって、
前記ストレージ管理情報は、前記フラッシュメモリデバイスに対する第一の余剰容量値を含み、
前記管理システムは、前記フラッシュメモリデバイスに対する前記第一の余剰容量値に基き、前記内部論理ユニットに対する前記第三の余剰容量値を算出する、
ことを特徴とした情報システム。 - 請求項5記載の情報システムであって、
前記ストレージコントローラは、前記フラッシュメモリデバイスに対する前記第一の余剰容量値に基いて、前記内部論理ユニットに対する前記第三の余剰容量値を算出し、
前記ストレージ管理情報は、前記第三の余剰容量値を含む、
ことを特徴とした情報システム。 - 請求項1記載の情報システムであって、
前記管理用の余剰容量値の表示は、前記論理ユニットに対する第四の余剰容量値、又は前記第四の余剰容量値に表示用の変換を行った値、の表示であり、
前記ストレージ管理情報は、前記フラッシュメモリデバイスに対する第一の余剰容量値を含み、
前記管理システムは、前記フラッシュメモリデバイスに対する前記第一の余剰容量値に基き、前記論理ユニットに対する前記第四の余剰容量値を算出する、
ことを特徴とした情報システム。 - 請求項1記載の情報システムであって、
前記管理用の余剰容量値の表示は、前記論理ユニットに対する第四の余剰容量値、又は前記第四の余剰容量値に表示用の変換を行った値、の表示であり、
前記管理システムは、前記フラッシュメモリデバイスに対する前記第一の余剰容量値に基き、前記論理ユニットに対する前記第四の余剰容量値を算出し、
前記ストレージ管理情報は、前記第四の余剰容量値を含む、
ことを特徴とした情報システム。 - 請求項1記載の情報システムであって、
前記管理システムは、前記管理用の余剰容量値を評価するポリシーを格納し、
前記管理システムは、前記ストレージ管理情報と前記ポリシーに基いて、前記論理ユニットに対応する前記フラッシュメモリデバイスの余剰領域が不足と判断した前記論理ユニットを低更新頻度用途と表示又は管理する、
ことを特徴とした情報システム。 - 請求項10記載の情報システムであって、
前記計算機はアーカイブプログラムを実行し、
前記管理システムは、前記低更新頻度用途と判断した前記論理ユニットを前記アーカイブプログラムに割り当てる割り当てリクエストを、前記計算機に送信する、
ことを特徴とした情報システム。 - 請求項10記載の情報システムであって、
前記管理システムは、前記低更新頻度用途と判断した論理ユニットを移行先とするデータマイグレーションリクエストを、前記ストレージシステムに送信する、
ことを特徴とした情報システム。 - 計算機と、フラッシュメモリデバイスを用いて前記計算機に論理ユニットを提供するストレージシステムと、を管理する管理システムであって、
前記管理システムは
前記ストレージシステムからフラッシュメモリデバイスの余剰領域の容量に関する値である第一の余剰容量値を受信するポートと、
ストレージの構成情報及び前記第一の余剰容量値を格納する管理側ストレージ構成情報を格納したメモリと、
前記ポートを用いてストレージシステムを監視するプロセッサと、
前記管理側ストレージ構成情報を用いてストレージシステムの状態を表示する入出力装置と、
を有し、
前記プロセッサは、前記管理側ストレージ管理情報に基いて、前記ストレージシステムに関連する管理用の余剰容量値を生成し、
前記入出力装置は前記管理用の余剰容量値を表示する、
ことを特徴とした情報システム。 - 請求項13記載の管理システムであって、
前記管理側ストレージ構成情報は、前記ストレージシステムに定義されたパリティグループに対する第二の余剰容量値を格納し、
前記管理用の余剰容量値は、前記パリティグループに対する第二の余剰容量値である、
ことを特徴とした管理システム。 - 計算機と、フラッシュメモリデバイスを用いて前記計算機に論理ユニットを提供するストレージシステムと、を管理する管理システムにおける管理方法であって、
前記管理システムは、前記ストレージシステムからフラッシュメモリデバイスの余剰領域の容量に関する値である第一の余剰容量値を受信し、
前記管理システムは、ストレージの構成情報及び前記第一の余剰容量値を格納する管理側ストレージ構成情報を格納し、
前記管理システムは、前記管理側ストレージ管理情報に基いて、前記ストレージシステムに関連する管理用の余剰容量値を生成し、
前記管理システムは、前記管理システムが有する入出力装置を用いて前記管理用の余剰容量値を表示する、
ことを特徴とした情報システム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009147182A JP4874368B2 (ja) | 2009-06-22 | 2009-06-22 | フラッシュメモリを用いたストレージシステムの管理方法及び計算機 |
US12/546,395 US8909848B2 (en) | 2009-06-22 | 2009-08-24 | Method for managing storage system using flash memory, and computer |
EP10250749A EP2270644A3 (en) | 2009-06-22 | 2010-04-09 | Method for managing storage system using flash memory, and computer |
US14/539,184 US9069476B2 (en) | 2009-06-22 | 2014-11-12 | Method for managing storage system using flash memory, and computer |
US14/739,253 US9329957B2 (en) | 2009-06-22 | 2015-06-15 | Method for managing storage system using flash memory, and computer |
US15/094,208 US20160224257A1 (en) | 2009-06-22 | 2016-04-08 | Method for managing storage system using flash memory, and computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009147182A JP4874368B2 (ja) | 2009-06-22 | 2009-06-22 | フラッシュメモリを用いたストレージシステムの管理方法及び計算機 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011254575A Division JP5222388B2 (ja) | 2011-11-22 | 2011-11-22 | フラッシュメモリを用いたストレージシステムの管理システム及び管理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011003111A true JP2011003111A (ja) | 2011-01-06 |
JP2011003111A5 JP2011003111A5 (ja) | 2011-04-14 |
JP4874368B2 JP4874368B2 (ja) | 2012-02-15 |
Family
ID=43355281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009147182A Expired - Fee Related JP4874368B2 (ja) | 2009-06-22 | 2009-06-22 | フラッシュメモリを用いたストレージシステムの管理方法及び計算機 |
Country Status (2)
Country | Link |
---|---|
US (4) | US8909848B2 (ja) |
JP (1) | JP4874368B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014038073A1 (ja) * | 2012-09-07 | 2014-03-13 | 株式会社日立製作所 | 記憶装置システム |
US8904065B2 (en) | 2011-03-14 | 2014-12-02 | Kabushiki Kaisha Toshiba | Buffer management device, buffer management method, and storage device |
JPWO2016001962A1 (ja) * | 2014-06-30 | 2017-04-27 | 株式会社日立製作所 | ストレージシステム及び記憶制御方法 |
WO2018002999A1 (ja) * | 2016-06-28 | 2018-01-04 | 株式会社日立製作所 | 記憶デバイス及びストレージ装置 |
Families Citing this family (220)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI428917B (zh) * | 2009-11-25 | 2014-03-01 | Silicon Motion Inc | 快閃記憶裝置、資料儲存系統、以及資料儲存系統之運作方法 |
US8239584B1 (en) * | 2010-12-16 | 2012-08-07 | Emc Corporation | Techniques for automated storage management |
WO2012168962A1 (en) | 2011-06-07 | 2012-12-13 | Hitachi, Ltd. | Storage system comprising flash memory, and storage control method |
JP5776436B2 (ja) * | 2011-08-22 | 2015-09-09 | 富士通株式会社 | ストレージシステム、ストレージ制御装置およびストレージ制御方法 |
US8984211B2 (en) | 2011-12-21 | 2015-03-17 | Hitachi, Ltd. | Computer system and management system |
US9021201B2 (en) * | 2012-01-17 | 2015-04-28 | International Business Machines Corporation | Demoting partial tracks from a first cache to a second cache |
EP2829976A4 (en) * | 2012-03-22 | 2015-11-11 | Nec Corp | DISTRIBUTED STORAGE SYSTEM, STORAGE CONTROL METHOD, AND PROGRAM |
US10445229B1 (en) | 2013-01-28 | 2019-10-15 | Radian Memory Systems, Inc. | Memory controller with at least one address segment defined for which data is striped across flash memory dies, with a common address offset being used to obtain physical addresses for the data in each of the dies |
US11630585B1 (en) | 2016-08-25 | 2023-04-18 | Pure Storage, Inc. | Processing evacuation events in a storage array that includes a plurality of storage devices |
US9990258B2 (en) | 2014-01-31 | 2018-06-05 | Hitachi, Ltd. | Management computer and management program |
US10133488B2 (en) * | 2014-03-17 | 2018-11-20 | Primaryio, Inc. | Apparatus and method for cache provisioning, configuration for optimal application performance |
US10146437B2 (en) | 2014-03-17 | 2018-12-04 | Primaryio, Inc. | Tier aware caching solution to increase application performance |
US10175885B2 (en) * | 2015-01-19 | 2019-01-08 | Toshiba Memory Corporation | Memory device managing data in accordance with command and non-transitory computer readable recording medium |
US9716755B2 (en) | 2015-05-26 | 2017-07-25 | Pure Storage, Inc. | Providing cloud storage array services by a local storage array in a data center |
US11102298B1 (en) | 2015-05-26 | 2021-08-24 | Pure Storage, Inc. | Locally providing cloud storage services for fleet management |
US9594678B1 (en) | 2015-05-27 | 2017-03-14 | Pure Storage, Inc. | Preventing duplicate entries of identical data in a storage device |
US11503031B1 (en) | 2015-05-29 | 2022-11-15 | Pure Storage, Inc. | Storage array access control from cloud-based user authorization and authentication |
US9444822B1 (en) | 2015-05-29 | 2016-09-13 | Pure Storage, Inc. | Storage array access control from cloud-based user authorization and authentication |
US10021170B2 (en) | 2015-05-29 | 2018-07-10 | Pure Storage, Inc. | Managing a storage array using client-side services |
US9300660B1 (en) | 2015-05-29 | 2016-03-29 | Pure Storage, Inc. | Providing authorization and authentication in a cloud for a user of a storage array |
US9588691B2 (en) | 2015-06-10 | 2017-03-07 | Pure Storage, Inc. | Dynamically managing control information in a storage device |
US9594512B1 (en) | 2015-06-19 | 2017-03-14 | Pure Storage, Inc. | Attributing consumed storage capacity among entities storing data in a storage array |
US9547441B1 (en) * | 2015-06-23 | 2017-01-17 | Pure Storage, Inc. | Exposing a geometry of a storage device |
US10310740B2 (en) | 2015-06-23 | 2019-06-04 | Pure Storage, Inc. | Aligning memory access operations to a geometry of a storage device |
US10296236B2 (en) | 2015-07-01 | 2019-05-21 | Pure Storage, Inc. | Offloading device management responsibilities from a storage device in an array of storage devices |
US9892071B2 (en) | 2015-08-03 | 2018-02-13 | Pure Storage, Inc. | Emulating a remote direct memory access (‘RDMA’) link between controllers in a storage array |
US9851762B1 (en) | 2015-08-06 | 2017-12-26 | Pure Storage, Inc. | Compliant printed circuit board (‘PCB’) within an enclosure |
US20170046218A1 (en) * | 2015-08-11 | 2017-02-16 | Qualcomm Incorporated | Systems and methods of memory bit flip identification for debugging and power management |
US9846612B2 (en) | 2015-08-11 | 2017-12-19 | Qualcomm Incorporated | Systems and methods of memory bit flip identification for debugging and power management |
US11294588B1 (en) | 2015-08-24 | 2022-04-05 | Pure Storage, Inc. | Placing data within a storage device |
US11625181B1 (en) | 2015-08-24 | 2023-04-11 | Pure Storage, Inc. | Data tiering using snapshots |
US10198194B2 (en) | 2015-08-24 | 2019-02-05 | Pure Storage, Inc. | Placing data within a storage device of a flash array |
US10514978B1 (en) | 2015-10-23 | 2019-12-24 | Pure Storage, Inc. | Automatic deployment of corrective measures for storage arrays |
US9384082B1 (en) | 2015-10-23 | 2016-07-05 | Pure Storage, Inc. | Proactively providing corrective measures for storage arrays |
US11360844B1 (en) | 2015-10-23 | 2022-06-14 | Pure Storage, Inc. | Recovery of a container storage provider |
US10284232B2 (en) | 2015-10-28 | 2019-05-07 | Pure Storage, Inc. | Dynamic error processing in a storage device |
US9740414B2 (en) | 2015-10-29 | 2017-08-22 | Pure Storage, Inc. | Optimizing copy operations |
US10374868B2 (en) | 2015-10-29 | 2019-08-06 | Pure Storage, Inc. | Distributed command processing in a flash storage system |
US10353777B2 (en) | 2015-10-30 | 2019-07-16 | Pure Storage, Inc. | Ensuring crash-safe forward progress of a system configuration update |
US11762764B1 (en) | 2015-12-02 | 2023-09-19 | Pure Storage, Inc. | Writing data in a storage system that includes a first type of storage device and a second type of storage device |
US9760479B2 (en) | 2015-12-02 | 2017-09-12 | Pure Storage, Inc. | Writing data in a storage system that includes a first type of storage device and a second type of storage device |
US11616834B2 (en) | 2015-12-08 | 2023-03-28 | Pure Storage, Inc. | Efficient replication of a dataset to the cloud |
US10326836B2 (en) | 2015-12-08 | 2019-06-18 | Pure Storage, Inc. | Partially replicating a snapshot between storage systems |
US10162835B2 (en) | 2015-12-15 | 2018-12-25 | Pure Storage, Inc. | Proactive management of a plurality of storage arrays in a multi-array system |
US11347697B1 (en) | 2015-12-15 | 2022-05-31 | Pure Storage, Inc. | Proactively optimizing a storage system |
US10379742B2 (en) | 2015-12-28 | 2019-08-13 | Netapp, Inc. | Storage zone set membership |
US10346043B2 (en) | 2015-12-28 | 2019-07-09 | Pure Storage, Inc. | Adaptive computing for data compression |
US20180267714A1 (en) * | 2016-01-22 | 2018-09-20 | Hewlett Packard Enterprise Development Lp | Managing data in a storage array |
US9886314B2 (en) | 2016-01-28 | 2018-02-06 | Pure Storage, Inc. | Placing workloads in a multi-array system |
US10572460B2 (en) | 2016-02-11 | 2020-02-25 | Pure Storage, Inc. | Compressing data in dependence upon characteristics of a storage system |
US9760297B2 (en) | 2016-02-12 | 2017-09-12 | Pure Storage, Inc. | Managing input/output (‘I/O’) queues in a data storage system |
US10514984B2 (en) | 2016-02-26 | 2019-12-24 | Netapp, Inc. | Risk based rebuild of data objects in an erasure coded storage system |
US9959043B2 (en) | 2016-03-16 | 2018-05-01 | Pure Storage, Inc. | Performing a non-disruptive upgrade of data in a storage system |
US10055317B2 (en) * | 2016-03-22 | 2018-08-21 | Netapp, Inc. | Deferred, bulk maintenance in a distributed storage system |
US9990256B1 (en) * | 2016-03-30 | 2018-06-05 | EMC IP Holding Company, LLC | Storage management system and method |
US11112990B1 (en) | 2016-04-27 | 2021-09-07 | Pure Storage, Inc. | Managing storage device evacuation |
US11809727B1 (en) | 2016-04-27 | 2023-11-07 | Pure Storage, Inc. | Predicting failures in a storage system that includes a plurality of storage devices |
US9841921B2 (en) | 2016-04-27 | 2017-12-12 | Pure Storage, Inc. | Migrating data in a storage array that includes a plurality of storage devices |
US9811264B1 (en) | 2016-04-28 | 2017-11-07 | Pure Storage, Inc. | Deploying client-specific applications in a storage system utilizing redundant system resources |
US10303390B1 (en) | 2016-05-02 | 2019-05-28 | Pure Storage, Inc. | Resolving fingerprint collisions in flash storage system |
US11231858B2 (en) | 2016-05-19 | 2022-01-25 | Pure Storage, Inc. | Dynamically configuring a storage system to facilitate independent scaling of resources |
US9507532B1 (en) | 2016-05-20 | 2016-11-29 | Pure Storage, Inc. | Migrating data in a storage array that includes a plurality of storage devices and a plurality of write buffer devices |
US10691567B2 (en) | 2016-06-03 | 2020-06-23 | Pure Storage, Inc. | Dynamically forming a failure domain in a storage system that includes a plurality of blades |
US10452310B1 (en) | 2016-07-13 | 2019-10-22 | Pure Storage, Inc. | Validating cabling for storage component admission to a storage array |
US11706895B2 (en) | 2016-07-19 | 2023-07-18 | Pure Storage, Inc. | Independent scaling of compute resources and storage resources in a storage system |
US10459652B2 (en) | 2016-07-27 | 2019-10-29 | Pure Storage, Inc. | Evacuating blades in a storage array that includes a plurality of blades |
US10474363B1 (en) | 2016-07-29 | 2019-11-12 | Pure Storage, Inc. | Space reporting in a storage system |
US11886922B2 (en) | 2016-09-07 | 2024-01-30 | Pure Storage, Inc. | Scheduling input/output operations for a storage system |
US10671439B1 (en) | 2016-09-07 | 2020-06-02 | Pure Storage, Inc. | Workload planning with quality-of-service (‘QOS’) integration |
US11531577B1 (en) | 2016-09-07 | 2022-12-20 | Pure Storage, Inc. | Temporarily limiting access to a storage device |
US10146585B2 (en) | 2016-09-07 | 2018-12-04 | Pure Storage, Inc. | Ensuring the fair utilization of system resources using workload based, time-independent scheduling |
US11481261B1 (en) | 2016-09-07 | 2022-10-25 | Pure Storage, Inc. | Preventing extended latency in a storage system |
US11960348B2 (en) | 2016-09-07 | 2024-04-16 | Pure Storage, Inc. | Cloud-based monitoring of hardware components in a fleet of storage systems |
US10908966B1 (en) | 2016-09-07 | 2021-02-02 | Pure Storage, Inc. | Adapting target service times in a storage system |
US10235229B1 (en) | 2016-09-07 | 2019-03-19 | Pure Storage, Inc. | Rehabilitating storage devices in a storage array that includes a plurality of storage devices |
US10331588B2 (en) | 2016-09-07 | 2019-06-25 | Pure Storage, Inc. | Ensuring the appropriate utilization of system resources using weighted workload based, time-independent scheduling |
US11422719B2 (en) * | 2016-09-15 | 2022-08-23 | Pure Storage, Inc. | Distributed file deletion and truncation |
US11379132B1 (en) | 2016-10-20 | 2022-07-05 | Pure Storage, Inc. | Correlating medical sensor data |
US10007459B2 (en) | 2016-10-20 | 2018-06-26 | Pure Storage, Inc. | Performance tuning in a storage system that includes one or more storage devices |
US10162566B2 (en) | 2016-11-22 | 2018-12-25 | Pure Storage, Inc. | Accumulating application-level statistics in a storage system |
US11620075B2 (en) | 2016-11-22 | 2023-04-04 | Pure Storage, Inc. | Providing application aware storage |
US10353640B2 (en) * | 2016-12-06 | 2019-07-16 | Dell Products L.P. | Seamless data migration in a clustered environment |
US10198205B1 (en) | 2016-12-19 | 2019-02-05 | Pure Storage, Inc. | Dynamically adjusting a number of storage devices utilized to simultaneously service write operations |
US11461273B1 (en) | 2016-12-20 | 2022-10-04 | Pure Storage, Inc. | Modifying storage distribution in a storage system that includes one or more storage devices |
US10489307B2 (en) | 2017-01-05 | 2019-11-26 | Pure Storage, Inc. | Periodically re-encrypting user data stored on a storage device |
US11307998B2 (en) | 2017-01-09 | 2022-04-19 | Pure Storage, Inc. | Storage efficiency of encrypted host system data |
US11340800B1 (en) | 2017-01-19 | 2022-05-24 | Pure Storage, Inc. | Content masking in a storage system |
US10503700B1 (en) | 2017-01-19 | 2019-12-10 | Pure Storage, Inc. | On-demand content filtering of snapshots within a storage system |
US11163624B2 (en) | 2017-01-27 | 2021-11-02 | Pure Storage, Inc. | Dynamically adjusting an amount of log data generated for a storage system |
JP2018136719A (ja) * | 2017-02-21 | 2018-08-30 | 富士ゼロックス株式会社 | 送受信システム、情報処理装置、および、プログラム |
US10521344B1 (en) | 2017-03-10 | 2019-12-31 | Pure Storage, Inc. | Servicing input/output (‘I/O’) operations directed to a dataset that is synchronized across a plurality of storage systems |
US11675520B2 (en) | 2017-03-10 | 2023-06-13 | Pure Storage, Inc. | Application replication among storage systems synchronously replicating a dataset |
US10454810B1 (en) | 2017-03-10 | 2019-10-22 | Pure Storage, Inc. | Managing host definitions across a plurality of storage systems |
US11442825B2 (en) | 2017-03-10 | 2022-09-13 | Pure Storage, Inc. | Establishing a synchronous replication relationship between two or more storage systems |
US11169727B1 (en) | 2017-03-10 | 2021-11-09 | Pure Storage, Inc. | Synchronous replication between storage systems with virtualized storage |
US11089105B1 (en) | 2017-12-14 | 2021-08-10 | Pure Storage, Inc. | Synchronously replicating datasets in cloud-based storage systems |
US10503427B2 (en) | 2017-03-10 | 2019-12-10 | Pure Storage, Inc. | Synchronously replicating datasets and other managed objects to cloud-based storage systems |
US11941279B2 (en) | 2017-03-10 | 2024-03-26 | Pure Storage, Inc. | Data path virtualization |
US11803453B1 (en) | 2017-03-10 | 2023-10-31 | Pure Storage, Inc. | Using host connectivity states to avoid queuing I/O requests |
US9910618B1 (en) | 2017-04-10 | 2018-03-06 | Pure Storage, Inc. | Migrating applications executing on a storage system |
US10459664B1 (en) | 2017-04-10 | 2019-10-29 | Pure Storage, Inc. | Virtualized copy-by-reference |
US11868629B1 (en) | 2017-05-05 | 2024-01-09 | Pure Storage, Inc. | Storage system sizing service |
US11422731B1 (en) | 2017-06-12 | 2022-08-23 | Pure Storage, Inc. | Metadata-based replication of a dataset |
CN110720088A (zh) | 2017-06-12 | 2020-01-21 | 净睿存储股份有限公司 | 集成到大容量存储设备的可访问快速耐久存储 |
US11210133B1 (en) | 2017-06-12 | 2021-12-28 | Pure Storage, Inc. | Workload mobility between disparate execution environments |
US10976962B2 (en) | 2018-03-15 | 2021-04-13 | Pure Storage, Inc. | Servicing I/O operations in a cloud-based storage system |
US10789020B2 (en) | 2017-06-12 | 2020-09-29 | Pure Storage, Inc. | Recovering data within a unified storage element |
US11016824B1 (en) | 2017-06-12 | 2021-05-25 | Pure Storage, Inc. | Event identification with out-of-order reporting in a cloud-based environment |
US10552090B2 (en) | 2017-09-07 | 2020-02-04 | Pure Storage, Inc. | Solid state drives with multiple types of addressable memory |
US11592991B2 (en) | 2017-09-07 | 2023-02-28 | Pure Storage, Inc. | Converting raid data between persistent storage types |
US11340939B1 (en) | 2017-06-12 | 2022-05-24 | Pure Storage, Inc. | Application-aware analytics for storage systems |
US11609718B1 (en) | 2017-06-12 | 2023-03-21 | Pure Storage, Inc. | Identifying valid data after a storage system recovery |
US10853148B1 (en) | 2017-06-12 | 2020-12-01 | Pure Storage, Inc. | Migrating workloads between a plurality of execution environments |
US10417092B2 (en) | 2017-09-07 | 2019-09-17 | Pure Storage, Inc. | Incremental RAID stripe update parity calculation |
US10613791B2 (en) | 2017-06-12 | 2020-04-07 | Pure Storage, Inc. | Portable snapshot replication between storage systems |
US10884636B1 (en) | 2017-06-12 | 2021-01-05 | Pure Storage, Inc. | Presenting workload performance in a storage system |
US11442669B1 (en) | 2018-03-15 | 2022-09-13 | Pure Storage, Inc. | Orchestrating a virtual storage system |
US11561714B1 (en) | 2017-07-05 | 2023-01-24 | Pure Storage, Inc. | Storage efficiency driven migration |
US10795583B2 (en) * | 2017-07-19 | 2020-10-06 | Samsung Electronics Co., Ltd. | Automatic data placement manager in multi-tier all-flash datacenter |
US11477280B1 (en) | 2017-07-26 | 2022-10-18 | Pure Storage, Inc. | Integrating cloud storage services |
US10831935B2 (en) | 2017-08-31 | 2020-11-10 | Pure Storage, Inc. | Encryption management with host-side data reduction |
US11455168B1 (en) | 2017-10-19 | 2022-09-27 | Pure Storage, Inc. | Batch building for deep learning training workloads |
US10671435B1 (en) | 2017-10-19 | 2020-06-02 | Pure Storage, Inc. | Data transformation caching in an artificial intelligence infrastructure |
US10360214B2 (en) | 2017-10-19 | 2019-07-23 | Pure Storage, Inc. | Ensuring reproducibility in an artificial intelligence infrastructure |
US10452444B1 (en) | 2017-10-19 | 2019-10-22 | Pure Storage, Inc. | Storage system with compute resources and shared storage resources |
US11861423B1 (en) | 2017-10-19 | 2024-01-02 | Pure Storage, Inc. | Accelerating artificial intelligence (‘AI’) workflows |
US11494692B1 (en) | 2018-03-26 | 2022-11-08 | Pure Storage, Inc. | Hyperscale artificial intelligence and machine learning infrastructure |
US10484174B1 (en) | 2017-11-01 | 2019-11-19 | Pure Storage, Inc. | Protecting an encryption key for data stored in a storage system that includes a plurality of storage devices |
US10817392B1 (en) | 2017-11-01 | 2020-10-27 | Pure Storage, Inc. | Ensuring resiliency to storage device failures in a storage system that includes a plurality of storage devices |
US10467107B1 (en) | 2017-11-01 | 2019-11-05 | Pure Storage, Inc. | Maintaining metadata resiliency among storage device failures |
US10671494B1 (en) | 2017-11-01 | 2020-06-02 | Pure Storage, Inc. | Consistent selection of replicated datasets during storage system recovery |
US10509581B1 (en) | 2017-11-01 | 2019-12-17 | Pure Storage, Inc. | Maintaining write consistency in a multi-threaded storage system |
US10929226B1 (en) | 2017-11-21 | 2021-02-23 | Pure Storage, Inc. | Providing for increased flexibility for large scale parity |
US10990282B1 (en) | 2017-11-28 | 2021-04-27 | Pure Storage, Inc. | Hybrid data tiering with cloud storage |
US10936238B2 (en) | 2017-11-28 | 2021-03-02 | Pure Storage, Inc. | Hybrid data tiering |
US10795598B1 (en) | 2017-12-07 | 2020-10-06 | Pure Storage, Inc. | Volume migration for storage systems synchronously replicating a dataset |
US11036677B1 (en) | 2017-12-14 | 2021-06-15 | Pure Storage, Inc. | Replicated data integrity |
US10929031B2 (en) | 2017-12-21 | 2021-02-23 | Pure Storage, Inc. | Maximizing data reduction in a partially encrypted volume |
US10992533B1 (en) | 2018-01-30 | 2021-04-27 | Pure Storage, Inc. | Policy based path management |
US11861170B2 (en) | 2018-03-05 | 2024-01-02 | Pure Storage, Inc. | Sizing resources for a replication target |
US11150834B1 (en) | 2018-03-05 | 2021-10-19 | Pure Storage, Inc. | Determining storage consumption in a storage system |
US10521151B1 (en) | 2018-03-05 | 2019-12-31 | Pure Storage, Inc. | Determining effective space utilization in a storage system |
US10942650B1 (en) | 2018-03-05 | 2021-03-09 | Pure Storage, Inc. | Reporting capacity utilization in a storage system |
US10296258B1 (en) | 2018-03-09 | 2019-05-21 | Pure Storage, Inc. | Offloading data storage to a decentralized storage network |
US10917471B1 (en) | 2018-03-15 | 2021-02-09 | Pure Storage, Inc. | Active membership in a cloud-based storage system |
US11048590B1 (en) | 2018-03-15 | 2021-06-29 | Pure Storage, Inc. | Data consistency during recovery in a cloud-based storage system |
US11288138B1 (en) | 2018-03-15 | 2022-03-29 | Pure Storage, Inc. | Recovery from a system fault in a cloud-based storage system |
US11210009B1 (en) | 2018-03-15 | 2021-12-28 | Pure Storage, Inc. | Staging data in a cloud-based storage system |
US10924548B1 (en) | 2018-03-15 | 2021-02-16 | Pure Storage, Inc. | Symmetric storage using a cloud-based storage system |
US11171950B1 (en) | 2018-03-21 | 2021-11-09 | Pure Storage, Inc. | Secure cloud-based storage system management |
US11095706B1 (en) | 2018-03-21 | 2021-08-17 | Pure Storage, Inc. | Secure cloud-based storage system management |
US10838833B1 (en) | 2018-03-26 | 2020-11-17 | Pure Storage, Inc. | Providing for high availability in a data analytics pipeline without replicas |
US11392553B1 (en) | 2018-04-24 | 2022-07-19 | Pure Storage, Inc. | Remote data management |
US11436344B1 (en) | 2018-04-24 | 2022-09-06 | Pure Storage, Inc. | Secure encryption in deduplication cluster |
US11954220B2 (en) | 2018-05-21 | 2024-04-09 | Pure Storage, Inc. | Data protection for container storage |
US11128578B2 (en) | 2018-05-21 | 2021-09-21 | Pure Storage, Inc. | Switching between mediator services for a storage system |
US11455409B2 (en) | 2018-05-21 | 2022-09-27 | Pure Storage, Inc. | Storage layer data obfuscation |
US11675503B1 (en) | 2018-05-21 | 2023-06-13 | Pure Storage, Inc. | Role-based data access |
US10871922B2 (en) | 2018-05-22 | 2020-12-22 | Pure Storage, Inc. | Integrated storage management between storage systems and container orchestrators |
US11403000B1 (en) | 2018-07-20 | 2022-08-02 | Pure Storage, Inc. | Resiliency in a cloud-based storage system |
US11416298B1 (en) | 2018-07-20 | 2022-08-16 | Pure Storage, Inc. | Providing application-specific storage by a storage system |
US11146564B1 (en) | 2018-07-24 | 2021-10-12 | Pure Storage, Inc. | Login authentication in a cloud storage platform |
US11954238B1 (en) | 2018-07-24 | 2024-04-09 | Pure Storage, Inc. | Role-based access control for a storage system |
US11632360B1 (en) | 2018-07-24 | 2023-04-18 | Pure Storage, Inc. | Remote access to a storage device |
US20200034041A1 (en) * | 2018-07-30 | 2020-01-30 | EMC IP Holding Company LLC | Utilizing groups of data protection policies that are assignable to storage objects |
US11860820B1 (en) | 2018-09-11 | 2024-01-02 | Pure Storage, Inc. | Processing data through a storage system in a data pipeline |
US10671302B1 (en) | 2018-10-26 | 2020-06-02 | Pure Storage, Inc. | Applying a rate limit across a plurality of storage systems |
US11023179B2 (en) | 2018-11-18 | 2021-06-01 | Pure Storage, Inc. | Cloud-based storage system storage management |
US10963189B1 (en) | 2018-11-18 | 2021-03-30 | Pure Storage, Inc. | Coalescing write operations in a cloud-based storage system |
US11340837B1 (en) | 2018-11-18 | 2022-05-24 | Pure Storage, Inc. | Storage system management via a remote console |
US11526405B1 (en) | 2018-11-18 | 2022-12-13 | Pure Storage, Inc. | Cloud-based disaster recovery |
CN109542727B (zh) * | 2018-11-19 | 2021-10-29 | 郑州云海信息技术有限公司 | 一种信息提示方法和装置 |
US11650749B1 (en) | 2018-12-17 | 2023-05-16 | Pure Storage, Inc. | Controlling access to sensitive data in a shared dataset |
US11003369B1 (en) | 2019-01-14 | 2021-05-11 | Pure Storage, Inc. | Performing a tune-up procedure on a storage device during a boot process |
US11042452B1 (en) | 2019-03-20 | 2021-06-22 | Pure Storage, Inc. | Storage system data recovery using data recovery as a service |
US11221778B1 (en) | 2019-04-02 | 2022-01-11 | Pure Storage, Inc. | Preparing data for deduplication |
US11068162B1 (en) | 2019-04-09 | 2021-07-20 | Pure Storage, Inc. | Storage management in a cloud data store |
US11392555B2 (en) | 2019-05-15 | 2022-07-19 | Pure Storage, Inc. | Cloud-based file services |
US11853266B2 (en) | 2019-05-15 | 2023-12-26 | Pure Storage, Inc. | Providing a file system in a cloud environment |
US11327676B1 (en) | 2019-07-18 | 2022-05-10 | Pure Storage, Inc. | Predictive data streaming in a virtual storage system |
US11126364B2 (en) | 2019-07-18 | 2021-09-21 | Pure Storage, Inc. | Virtual storage system architecture |
US11093139B1 (en) | 2019-07-18 | 2021-08-17 | Pure Storage, Inc. | Durably storing data within a virtual storage system |
US11861221B1 (en) | 2019-07-18 | 2024-01-02 | Pure Storage, Inc. | Providing scalable and reliable container-based storage services |
US11487715B1 (en) | 2019-07-18 | 2022-11-01 | Pure Storage, Inc. | Resiliency in a cloud-based storage system |
US11526408B2 (en) | 2019-07-18 | 2022-12-13 | Pure Storage, Inc. | Data recovery in a virtual storage system |
US11550514B2 (en) | 2019-07-18 | 2023-01-10 | Pure Storage, Inc. | Efficient transfers between tiers of a virtual storage system |
US11086553B1 (en) | 2019-08-28 | 2021-08-10 | Pure Storage, Inc. | Tiering duplicated objects in a cloud-based object store |
JP2021034091A (ja) | 2019-08-29 | 2021-03-01 | キオクシア株式会社 | メモリシステムおよび制御方法 |
US11693713B1 (en) | 2019-09-04 | 2023-07-04 | Pure Storage, Inc. | Self-tuning clusters for resilient microservices |
US11797569B2 (en) | 2019-09-13 | 2023-10-24 | Pure Storage, Inc. | Configurable data replication |
US11360689B1 (en) | 2019-09-13 | 2022-06-14 | Pure Storage, Inc. | Cloning a tracking copy of replica data |
US11573864B1 (en) | 2019-09-16 | 2023-02-07 | Pure Storage, Inc. | Automating database management in a storage system |
US11669386B1 (en) | 2019-10-08 | 2023-06-06 | Pure Storage, Inc. | Managing an application's resource stack |
US11119855B2 (en) * | 2019-10-24 | 2021-09-14 | International Business Machines Corporation | Selectively storing parity data in different types of memory |
US20210173945A1 (en) | 2019-12-06 | 2021-06-10 | Pure Storage, Inc. | Replicating data to a storage system that has an inferred trust relationship with a client |
US11733901B1 (en) | 2020-01-13 | 2023-08-22 | Pure Storage, Inc. | Providing persistent storage to transient cloud computing services |
US11720497B1 (en) | 2020-01-13 | 2023-08-08 | Pure Storage, Inc. | Inferred nonsequential prefetch based on data access patterns |
US11709636B1 (en) | 2020-01-13 | 2023-07-25 | Pure Storage, Inc. | Non-sequential readahead for deep learning training |
US11637896B1 (en) | 2020-02-25 | 2023-04-25 | Pure Storage, Inc. | Migrating applications to a cloud-computing environment |
US11868622B2 (en) | 2020-02-25 | 2024-01-09 | Pure Storage, Inc. | Application recovery across storage systems |
JP7316242B2 (ja) * | 2020-03-18 | 2023-07-27 | 株式会社日立製作所 | ストレージシステムおよびデータ転送方法 |
US11321006B1 (en) | 2020-03-25 | 2022-05-03 | Pure Storage, Inc. | Data loss prevention during transitions from a replication source |
US11301152B1 (en) | 2020-04-06 | 2022-04-12 | Pure Storage, Inc. | Intelligently moving data between storage systems |
US11630598B1 (en) | 2020-04-06 | 2023-04-18 | Pure Storage, Inc. | Scheduling data replication operations |
US11494267B2 (en) | 2020-04-14 | 2022-11-08 | Pure Storage, Inc. | Continuous value data redundancy |
US11921670B1 (en) | 2020-04-20 | 2024-03-05 | Pure Storage, Inc. | Multivariate data backup retention policies |
US11431488B1 (en) | 2020-06-08 | 2022-08-30 | Pure Storage, Inc. | Protecting local key generation using a remote key management service |
US11349917B2 (en) | 2020-07-23 | 2022-05-31 | Pure Storage, Inc. | Replication handling among distinct networks |
US11442652B1 (en) | 2020-07-23 | 2022-09-13 | Pure Storage, Inc. | Replication handling during storage system transportation |
US11397545B1 (en) | 2021-01-20 | 2022-07-26 | Pure Storage, Inc. | Emulating persistent reservations in a cloud-based storage system |
US11853285B1 (en) | 2021-01-22 | 2023-12-26 | Pure Storage, Inc. | Blockchain logging of volume-level events in a storage system |
US20220365827A1 (en) | 2021-05-12 | 2022-11-17 | Pure Storage, Inc. | Rebalancing In A Fleet Of Storage Systems Using Data Science |
US11816129B2 (en) | 2021-06-22 | 2023-11-14 | Pure Storage, Inc. | Generating datasets using approximate baselines |
US11714723B2 (en) | 2021-10-29 | 2023-08-01 | Pure Storage, Inc. | Coordinated snapshots for data stored across distinct storage environments |
US11893263B2 (en) | 2021-10-29 | 2024-02-06 | Pure Storage, Inc. | Coordinated checkpoints among storage systems implementing checkpoint-based replication |
US11914867B2 (en) | 2021-10-29 | 2024-02-27 | Pure Storage, Inc. | Coordinated snapshots among storage systems implementing a promotion/demotion model |
US11922052B2 (en) | 2021-12-15 | 2024-03-05 | Pure Storage, Inc. | Managing links between storage objects |
US11847071B2 (en) | 2021-12-30 | 2023-12-19 | Pure Storage, Inc. | Enabling communication between a single-port device and multiple storage system controllers |
US11860780B2 (en) | 2022-01-28 | 2024-01-02 | Pure Storage, Inc. | Storage cache management |
US11886295B2 (en) | 2022-01-31 | 2024-01-30 | Pure Storage, Inc. | Intra-block error correction |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003046931A (ja) * | 2001-08-01 | 2003-02-14 | Canon Inc | 情報管理装置及び方法 |
JP2003223342A (ja) * | 2002-01-28 | 2003-08-08 | Toshiba Corp | 情報蓄積管理装置 |
JP2007323224A (ja) * | 2006-05-31 | 2007-12-13 | Hitachi Ltd | フラッシュメモリストレージシステム |
WO2008032711A1 (fr) * | 2006-09-13 | 2008-03-20 | Panasonic Corporation | Contrôleur mémoire, dispositif de stockage non volatil, dispositif d'accès et système de stockage non volatil |
JP2008070935A (ja) * | 2006-09-12 | 2008-03-27 | Hitachi Ltd | ストレージシステムの論理ボリューム管理方法、論理ボリューム管理プログラム、及びストレージシステム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7190617B1 (en) | 1989-04-13 | 2007-03-13 | Sandisk Corporation | Flash EEprom system |
US6347997B1 (en) * | 1997-10-01 | 2002-02-19 | Brad A. Armstrong | Analog controls housed with electronic displays |
JP3507132B2 (ja) | 1994-06-29 | 2004-03-15 | 株式会社日立製作所 | フラッシュメモリを用いた記憶装置およびその記憶制御方法 |
US5920884A (en) | 1996-09-24 | 1999-07-06 | Hyundai Electronics America, Inc. | Nonvolatile memory interface protocol which selects a memory device, transmits an address, deselects the device, subsequently reselects the device and accesses data |
JP3242890B2 (ja) | 1998-12-16 | 2001-12-25 | 株式会社ハギワラシスコム | 記憶装置 |
JP2005100259A (ja) | 2003-09-26 | 2005-04-14 | Hitachi Ltd | ドライブの2重障害を防止するアレイ型ディスク装置、プログラム、及び方法 |
JP2005190288A (ja) * | 2003-12-26 | 2005-07-14 | Tdk Corp | メモリコントローラ及びメモリコントローラを備えるフラッシュメモリシステム、並びに、フラッシュメモリの制御方法 |
US7096338B2 (en) | 2004-08-30 | 2006-08-22 | Hitachi, Ltd. | Storage system and data relocation control device |
TW200805311A (en) * | 2006-07-05 | 2008-01-16 | Dotop Technology Inc | External hard drive with capacity indicator |
TWI358068B (en) * | 2007-10-19 | 2012-02-11 | Phison Electronics Corp | Writing method for non-volatile memory and control |
TWI354996B (en) * | 2007-12-31 | 2011-12-21 | Phison Electronics Corp | Wear leveling method and controller thereof |
US8291152B2 (en) * | 2009-01-07 | 2012-10-16 | Silicon Motion, Inc. | Method for operating non-volatile memory and data storage system using the same |
-
2009
- 2009-06-22 JP JP2009147182A patent/JP4874368B2/ja not_active Expired - Fee Related
- 2009-08-24 US US12/546,395 patent/US8909848B2/en active Active
-
2014
- 2014-11-12 US US14/539,184 patent/US9069476B2/en active Active
-
2015
- 2015-06-15 US US14/739,253 patent/US9329957B2/en active Active
-
2016
- 2016-04-08 US US15/094,208 patent/US20160224257A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003046931A (ja) * | 2001-08-01 | 2003-02-14 | Canon Inc | 情報管理装置及び方法 |
JP2003223342A (ja) * | 2002-01-28 | 2003-08-08 | Toshiba Corp | 情報蓄積管理装置 |
JP2007323224A (ja) * | 2006-05-31 | 2007-12-13 | Hitachi Ltd | フラッシュメモリストレージシステム |
JP2008070935A (ja) * | 2006-09-12 | 2008-03-27 | Hitachi Ltd | ストレージシステムの論理ボリューム管理方法、論理ボリューム管理プログラム、及びストレージシステム |
WO2008032711A1 (fr) * | 2006-09-13 | 2008-03-20 | Panasonic Corporation | Contrôleur mémoire, dispositif de stockage non volatil, dispositif d'accès et système de stockage non volatil |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8904065B2 (en) | 2011-03-14 | 2014-12-02 | Kabushiki Kaisha Toshiba | Buffer management device, buffer management method, and storage device |
WO2014038073A1 (ja) * | 2012-09-07 | 2014-03-13 | 株式会社日立製作所 | 記憶装置システム |
JP5820078B2 (ja) * | 2012-09-07 | 2015-11-24 | 株式会社日立製作所 | 記憶装置システム |
JPWO2016001962A1 (ja) * | 2014-06-30 | 2017-04-27 | 株式会社日立製作所 | ストレージシステム及び記憶制御方法 |
WO2018002999A1 (ja) * | 2016-06-28 | 2018-01-04 | 株式会社日立製作所 | 記憶デバイス及びストレージ装置 |
Also Published As
Publication number | Publication date |
---|---|
US9329957B2 (en) | 2016-05-03 |
JP4874368B2 (ja) | 2012-02-15 |
US20100325345A1 (en) | 2010-12-23 |
US20150074342A1 (en) | 2015-03-12 |
US20160224257A1 (en) | 2016-08-04 |
US8909848B2 (en) | 2014-12-09 |
US9069476B2 (en) | 2015-06-30 |
US20150278054A1 (en) | 2015-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4874368B2 (ja) | フラッシュメモリを用いたストレージシステムの管理方法及び計算機 | |
JP4818812B2 (ja) | フラッシュメモリストレージシステム | |
US8984221B2 (en) | Method for assigning storage area and computer system using the same | |
JP5502232B2 (ja) | ストレージシステム、及びその制御方法 | |
JP5451875B2 (ja) | 計算機システム及びその記憶制御方法 | |
US9658779B2 (en) | Computer system and control method for computer system | |
JP5427630B2 (ja) | 動的ページ再割当てストレージシステムにおけるアプリケーション及び階層構成の管理 | |
US9477405B2 (en) | Storage system | |
US8539142B2 (en) | Storage system comprising nonvolatile semiconductor storage media | |
US8578121B2 (en) | Computer system and control method of the same | |
US8667098B2 (en) | Cluster storage setting method, system, and management system | |
GB2536514A (en) | Storage device and method for controlling storage device | |
JP2007310495A (ja) | 計算機システム | |
WO2015198441A1 (ja) | 計算機システム、管理計算機、および管理方法 | |
JP5597266B2 (ja) | ストレージシステム | |
JP5222388B2 (ja) | フラッシュメモリを用いたストレージシステムの管理システム及び管理方法 | |
EP2270644A2 (en) | Method for managing storage system using flash memory, and computer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110228 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111122 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4874368 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |