JP2009043016A - ストレージシステム及びストレージシステムのアクセス均等化方法 - Google Patents

ストレージシステム及びストレージシステムのアクセス均等化方法 Download PDF

Info

Publication number
JP2009043016A
JP2009043016A JP2007207232A JP2007207232A JP2009043016A JP 2009043016 A JP2009043016 A JP 2009043016A JP 2007207232 A JP2007207232 A JP 2007207232A JP 2007207232 A JP2007207232 A JP 2007207232A JP 2009043016 A JP2009043016 A JP 2009043016A
Authority
JP
Japan
Prior art keywords
access
data
distribution
type
storage system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007207232A
Other languages
English (en)
Inventor
Taisuke Kurokawa
泰典 黒河
Toshimichi Kishimoto
敏道 岸本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007207232A priority Critical patent/JP2009043016A/ja
Priority to EP08250168A priority patent/EP2026187A3/en
Priority to US12/010,047 priority patent/US7949827B2/en
Publication of JP2009043016A publication Critical patent/JP2009043016A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【解決課題】アクセス回数の均等化を最適な単位で行いシストレージステム全体の最適化を図る。
【解決手段】データアクセスの均等化を行うためにプールボリューム内のデータを移動させるときに、ページ単位のデータ移動とボリューム単位のデータ移動といずれのデータ移動が最適かを、ディスクドライブに記憶されるデータに対するアクセス回数を示すアクセス情報を記憶するアクセス情報テーブルに記憶される情報に基づいて判定し、この判定結果に基づいて、ページ単位又はボリューム単位のデータ移動を実行してグループ内のデータアクセスの均等化を行なうことをデータアクセスの均等化が図られるまで繰り返し実行する。
【選択図】図11

Description

本発明は、ストレージシステム及びストレージシステムの均等化方法に関し、例えば、パリティグループの中で利用率の高いグループから利用率の低いグループへデータ移動を行なう機能を有するストレージシステム及びストレージシステムの均等化方法に適用しても好適なものである。
ユーザは、急激に変化するデータ量の増加により、表定義、データ規模定義等のデータベース再設計及びシステム定義等のストレージシステムの構成に関して、定期的に見直しが必要となっている。しかし、システム再構成等の見直しを行なった結果、データのアクセス回数に偏りが生じてしまうことがある。
そこで、そのデータのアクセス回数の偏りを解消するために、データのアクセス回数を均等化して、ストレージシステムの最適化を行なう“ボリュームマイグレーション”と称される機能がある(例えば、特許文献1参照)。仮想ボリュームを使用するボリュームマイグレーション機能により、ストレージシステムの管理者は、パリティグループの中から利用率の高いデータを、ボリューム(論理デバイス)移動か、ページ移動のどちらか一方の単位で、利用率の低いパリティグループへ移動することが可能となる。
特開2001−67187号公報
しかしながら、上記ボリュームマイグレーション機能は、パリティグループの中から利用率の高いデータを利用率の低いパリティグループへ、ボリュームか、ページのどちらか一方の単位でデータを移動することができるが、どちらの単位でのデータ移動が適しているかを提示することができなかった。このため、管理者は自らが選択するデータ移動によりボリュームマイグレーション機能をストレージシステムに実行させることはできるが、最適なボリュームマイグレーション機能をストレージシステムに実行させているか否かがわからなかった。
本発明は、以上の点を考慮してなされたもので、ストレージシステムのアクセス回数の均等化を最適な単位で行いストレージシステム全体の最適化を図ることができるストレージシステム及びストレージシステムのアクセス均等化方法を提案しようとするものである。
本発明は、上位ホストと、この上位ホストからネットワークを介して送信されたデータを記憶する複数のディスクドライブと、前記複数のディスクドライブから構成されるデータの信頼性を保持するためのグループを複数有し、各グループ内のプールボリュームをこのプールボリュームと対応する論理ボリューム及び仮想ボリュームを用いて管理する記憶装置とを含むストレージシステムであって、前記ディスクドライブに記憶されるデータに対するアクセス回数を示すアクセス情報を記憶するアクセス情報テーブルと、データアクセスの均等化を行うために前記プールボリューム内のデータを移動させるときに、ページ単位のデータ移動とボリューム単位のデータ移動といずれのデータ移動が最適かを前記アクセス情報テーブルに記憶される情報に基づいて判定する判定部と、この判定部の判定結果に基づいて、ページ単位又はボリューム単位のデータ移動を実行して前記グループ内のデータアクセスの均等化を行なうデータ移動部と、データアクセスが均等化されるまで前記判定部の判定及び前記データ移動部のデータ移動を繰り返し実行する制御部とを備えることを特徴とするストレージシステムである。
この構成によると、データアクセスの均等化を行うためにプールボリューム内のデータを移動させるときに、ページ単位のデータ移動とボリューム単位のデータ移動といずれのデータ移動が最適かを、ディスクドライブに記憶されるデータに対するアクセス回数を示すアクセス情報を記憶するアクセス情報テーブルに記憶される情報に基づいて判定し、この判定結果に基づいて、ページ単位又はボリューム単位のデータ移動を実行してグループ内のデータアクセスの均等化を行なうことをデータアクセスの均等化が図られるまで繰り返し実行する。
したがって、ページ単位のアクセス回数均等化が行なわれると、論理ボリューム単位の均等化にもなり、さらに、例えばパリティグループであるグループの均等化を図ることができる。このようにデータアクセスの均等化を最適な単位で実行することにより、ディスクドライブの使用効率が上がり、ストレージシステム全体の最適化を図ることができる。
本発明によれば、ストレージシステムのアクセス回数の均等化を最適な単位で行いストレージステム全体の最適化を図ることができるストレージシステム及びストレージシステムの均等化方法を提供できる。
以下、本発明の一実施の形態について図面を参照して説明する。
図1は、本発明のストレージシステム1の構成を示す図である。図1に示すようにストレージシステム1は、上位ホスト10,20,30,…、と記憶装置100,200,…、とがネットワーク11を介して接続されている。
上位ホスト10,20,30,…,は、ネットワーク11を介して記憶装置100,200,…、へデータを書き込み、又はネットワーク11を介して記憶装置100,200,…、からデータを読取る。これらの上位ホスト10,20,30,…、は、メインフレーム系又はオープン系OS(例えば、Windows(登録商標)、UNIX(登録商標)等)のいずれでも良い。
記憶装置100は、I/O処理プロセッサ101A,…,101N、接続部102、キャッシュメモリ(CM)103、共有メモリ(SM)104、SVP105、ファイバースイッチ(FSW)106及びボリューム群107を有している。I/O処理プロセッサ101A,…,101Nは、ネットワーク11を介して上位ホスト10,20,30,…、とデータ通信可能に接続されるとともに、接続部102及びファイバースイッチ106と接続されている。また、接続部102は、I/O処理プロセッサ101A,…101Nのほかに、キャッシュメモリ103、共有メモリ104及びSVP105と接続されている。さらに、ファイバースイッチ106は、ボリューム群107と接続されている。
I/O処理プロセッサ101A,…,101Nは、入出力用処理機器である。I/O処理プロセッサ101A,…,101Nは、それぞれ複数のポート及びマイクロプロセッサを有している。ポートは、上位ホスト10,20,30,…、とデータ通信を行なうためのケーブルの接続先である。また、I/O処理プロセッサ101A,…,101N内のマイクロプロセッサは、後述する均等化処理を行う機能が組み込まれるとともに各種テーブルを有するプロセッサである。
接続部102は、I/O処理プロセッサ101A,…,101Nとキャッシュメモリ103、共有メモリ104、SVP105を接続させる機器である。キャッシュメモリ103は、上位ホスト10,20,30,…、からネットワーク11を介して送信されたデータを一時的に記憶等するメモリである。共有メモリ104は、各種テーブル等が記憶されるメモリである。SVP105は、記憶装置100,200,…、を制御するためのコンソールPC(パーソナルコンピュータ)である。ファイバースイッチ106は、I/O処理プロセッサ101A,…,101Nとボリューム群107を接続するスイッチである。
ボリューム群107は、4つのハードディスクドライブから構成されるパリティグループであるECC(Error Correcting Code)グループ1−1,1−2,…を複数有している。このECCグループ1−1,1−2,…は、4つのハードディスクドライブによりデータに冗長性を持たせた単位である。
他の記憶装置200,…は、記憶装置100と符合が異なるが、同様な構成をしているため、説明を省略する。
図2から図5は、I/O処理プロセッサ101A,…,101Nに含まれる各マイクロプロセッサが管理するテーブルを示している。図2は仮想ボリューム管理テーブル50を示す図であり、図3はプールボリューム管理テーブル60であり、図4は負荷情報テーブル70を示す図であり、図5はアクセス情報テーブル80を示す図である。
先ず、図2に示す仮想ボリューム管理テーブル50について説明する。仮想ボリューム管理テーブル50は、前記マイクロプロセッサがボリューム群107内の仮想ボリュームを管理するために用いられるテーブルである。図2に示すように、仮想ボリューム管理テーブル50には、仮想ボリュームのアドレス欄51、LDEV(論理デバイス)番号欄(LDEV♯)52及びプールボリュームのページアドレス欄53が設けられている。
仮想ボリュームのアドレス欄51は、仮想ボリュームのアドレスを格納する欄である。LDEV番号欄52は、LDEV番号を格納する欄である。なお、LDEVは、ECCグループ1−1,1−2,…内のデータ単位である。プールボリュームのページアドレス欄53は、プールボリュームのページアドレスを格納する欄である。なお、プールボリュームは仮想ボリュームとリンクする実ボリュームであり、ページはLDEV内のデータ単位である。
例えば、仮想ボリューム管理テーブル50には、仮想ボリュームのアドレス欄51に“00”、LDEV番号欄52に“00:00:00”及びプールボリュームのページアドレス欄53に“00”のようにデータが対応して格納される。
次に、図3に示すプールボリューム管理テーブル60について説明する。プールボリューム管理テーブル60は、I/O処理プロセッサ101A,…,101N内のマイクロプロセッサがプールボリュームを管理するために用いるテーブルである。このプールボリューム管理テーブル60は、ボリューム群107に設けられるECCグループ1−1,1−2,…に対応してテーブル60A,テーブル60B,…のように複数のテーブルにより構成される。図3に示すように、例えば、テーブル60Aには、プールボリュームのページアドレス欄61A、LDEV番号欄62A及びLBA(Logical Blocked Address)欄63Aが設けられている。
プールボリュームのページアドレス欄61Aは、プールボリュームのアドレスを格納する欄である。LDEV番号欄62Aは、LDEV番号を格納する欄である。LBA欄63Aは、LBAを格納する欄である。
例えば、プールボリューム管理テーブル60のテーブル60Aには、プールボリュームのページアドレス欄61Aに“00”、LDEV番号欄62Aに“00:00:00”及びLBA欄63Aに“0Kから83K”のようにデータが対応して格納される。
次に、図4に示す負荷情報テーブル70について説明する。負荷情報テーブル70は、I/O処理プロセッサ101A,…,101N内のマイクロプロセッサにより負荷を算出するために用いるテーブルである。なお、負荷情報テーブル70は、プールボリューム毎に作成される。図4に示すように、負荷情報テーブル70は、時間の欄71と曜日の欄72〜78とで構成されている。時間の欄71は、24時間を1分毎に分けており、曜日の欄は、月曜日から日曜日までの欄72〜78が設けられている。
例えば、図4に示すように、負荷情報テーブル70には、時間の欄71の“00:00から00:01”、に対応する月曜日の欄72に“30”、火曜日の欄73に“20”,…,日曜日の欄78に“0”というデータが格納される。
続いて、負荷情報テーブル70に格納される負荷の算出方法について説明する。負荷は、LDEVの平均スループット(単位は、min)で算出される。図9は、スループットの算出方法を説明するための図である。図9に示すように、1秒間に上位ホスト10,20,30,…からキャッシュメモリ103にアクセスがあった回数をY回、ボリューム群107内のページにアクセスのあった回数がX回であったときに、1アクセスが42MB(82K LBA)/ページとして計算すると、
(X−Y)*42/sec
により、1ページのスループットを算出することができる。このようにして、I/O処理プロセッサ101A,…,101N内のマイクロプロセッサは、負荷情報テーブル70に格納される負荷を算出する。
次に、図5に示すアクセス情報テーブル80について説明する。I/O処理プロセッサ101A,…,101N内のマイクロプロセッサは、各LDEV、ページ及びキャッシュメモリのアクセス情報テーブル80をもつ。アクセス情報テーブル80は、平均アクセス回数/minの欄81、平均アクセス回数/hourの欄82、平均アクセス回数0Kから83Kの欄83、平均アクセス回数84Kから167Kの欄84、総アクセス回数の欄85、キャッシュメモリの平均アクセス回数/secの欄86などの各欄及びこれらの各欄に対応して算出されたアクセス回数を格納するアクセス回数欄87が設けられている。
例えば、図5に示すように、アクセス情報テーブル80には、平均アクセス回数/minの欄81に、“50”、平均アクセス回数/hourの欄82に“1000”、平均アクセス回数/0Kから83Kの欄83に“5”、平均アクセス回数/84Kから167Kの欄84に“3”、総アクセス回数の欄85に“100000”及びキャッシュメモリ103の平均アクセス回数/sec欄86に“20”がそれぞれアクセス回数の欄87に格納される。
次に、後述する均等化処理を記憶装置100,200,…、に実行させるタイミングには、自動で実行させる自動移動の場合と、手動で実行させる手動移動の場合とがあるため、これらの設定について説明する。図6は、均等化処理の設定を行う際の表示画面の一例を示す図である。なお、この表示画面500は、記憶装置100,200,…内のSVP105の表示画面としても良いし、ネットワーク11に接続された情報処理装置(図示せず。)の表示画面としても良い。
表示画面500には、自動移動を設定する欄510と、手動移動を設定する欄520とをチェックできるようになっており、チェックされた移動方法でI/O処理プロセッサ101は均等化処理を行う。図6においては、手動移動を行なうように手動移動を設定する欄502にチェックがされている。
手動移動を設定する欄520には、回数指定欄521、時間指定欄522が設けられている。回数指定欄521は、ユーザが均等化処理を実行する回数を指定する欄であり、時間指定欄522はユーザが均等化処理を実行する時間を指定する欄である
回数指定欄521は、均等化処理を開始する年月日及び時間をプルダウンメニューから選択できるようになっている。また、ボリューム単位移動回数欄及びページ単位移動回数欄が設けられている。ボリューム単位移動回数欄及びページ単位移動回数欄には、ユーザが所望の回数を入力できるようになっている。
時間指定欄522は、均等化処理を行う時間を設定できるようになっている。さらに、時間指定欄522には、ボリューム単位移動欄522A及びページ単位移動欄522Bが設けられている。これらボリューム単位移動欄522A及びページ単位移動欄522Bは、開始の年月日及び時間と終了の年月日及び時間をプルダウンメニューから選択できるようになっている。
また、表示画面500右下には、適用(apply)ボタン530と、キャンセルボタン540が表示されている。適用ボタン530は、自動移動の設定の欄510又は手動移動の設定の欄520に設定した内容がOKである場合にユーザに押下される。キャンセルボタン540は、自動移動の設定の欄510又は手動移動の設定の欄520に設定した内容をキャンセルしたい場合にユーザに押下される。したがって、ユーザは、自動移動の設定の欄510又は手動移動の設定の欄520に所望の設定をした後、適用ボタン530を押下することにより、ストレージシステム1に当該設定を反映させることができる。
次に、ページのアクセス回数の分布図のタイプについて説明する。分布図のタイプとしては、タイプXと、タイプYの2種類のタイプが存在する。図7は、タイプXのECCグループクセス分布図の一例を示す図である。タイプXの分布図の縦軸は、ECCグループの個数、横軸は、指定ECCグループへのアクセス回数である。図7に示すように、タイプXは、アクセス回数が小さいものから大きいものまでの偏差が大きい分布となっている。
一方、図8は、タイプYのECCグループアクセス分布図の一例を示す図である。タイプYの分布図の縦軸は、ECCグループの個数、横軸は、指定ECCグループへのアクセス回数であり、タイプXと同様である。図8に示すように、タイプYは、アクセス回数の偏差が少ない分布となっている。
なお、いずれの横軸も、アクセス回数/1時間、アクセス回数/1日、アクセス回数/1週、アクセス回数/1ヶ月及びアクセス回数/1年が選択可能となっている。また、1時間おき、1日おき、1週間おき、1ヶ月おき及び1年おきの時間間隔も指定可能となっている。
ECCグループのアクセス分布図がタイプXである場合は、ボリューム移動やページ移動を行い、最終的にタイプYとなるようにアクセス回数の均等化を図る必要がある。これに対して、ECCグループのアクセス分布図がタイプYである場合は、既に均等化状態であるため、アクセス回数の均等化は不要となる。
次に、I/O処理プロセッサ101Aが2つのページのアクセス分布図を比較して、データ移動を行なうか否かを決定するためのデータ移動決定テーブル90について説明する。図10は、このデータ移動決定テーブル90を示す図である。データ移動決定テーブル90は、分布図のタイプとスループットとの関係において、I/O処理プロセッサ101Aが均等化を行なうためにデータの移動を行なうか否かを決定するために用いられるものである。なお、均等化処理は、I/O処理プロセッサ101A,…,101Nが行なうことができるが、説明の都合上、以下では、I/O処理プロセッサ101Aが均等化処理を行うこととして説明する。
2つのページのアクセス分布図のタイプが、ともにタイプXである場合、ともにタイプYである場合、タイプが異なる場合の3つにわけ、これらをスループットが大きい場合、中程度の場合、小さい場合の3つの場合に対応させている。なお、スループットの大、中、小の値は、例えば、負荷情報テーブル70からスループットが大きいときの値、小さいときの値を取得するとともにこれら値の平均を中程度の値として取得して、これらの値をスループットの大、中及び小として設定することとするが、これに限られるものではない。
図10に示すデータ移動決定テーブル90においては、データ移動の設定は次のようになっている。すなわち、2つのページのアクセス分布図がともにタイプXである場合は、スループットの値が大、中、小のいずれの場合であってもページ単位移動を行う。また、2つのページアドレスのアクセス分布図がともにタイプYである場合は、スループットの値が大、中のいずれかであるときはデータ移動を行なわず、値が小であるときはボリューム単位移動を行なう。2つのページアドレスのタイプが互いに異なる場合には、データ移動は行なわない。
次にI/O処理プロセッサ101Aが実行する均等化処理の自動移動の手順について説明する。図11は、この自動移動の処理を示すフローチャートである。
ステップS101からS106では、ECCグループレベルを算出する。ステップS101において、I/O処理プロセッサ101Aは、負荷情報テーブル70より、負荷の小さい日時でデータ移動を行なう。ステップS102において、I/O処理プロセッサ101Aは、アクセス情報テーブル80より、各ECCグループ1−1,1−2,…のアクセス回数の順位付けを行なう。
このアクセス回数の順位付けを行なったECCグループ1−1,1−2,…は、例えば、図13に示す順位付けの一例Q10となる。アクセス回数は、アクセス情報テーブル80を用いてLDEVへのアクセス回数を合計することにより求めることができる。図13においては、アクセス回数が多い順で上側から各ECCグループが順位付けされている。
ステップS103において、I/O処理プロセッサ101Aは、ECCグループのアクセス回数の分布図を作成する。これにより、図7,図8を用いて説明したように、タイプY又はタイプXのいずれかの分布図が作成される。
ステップS104において、I/O処理プロセッサ101Aは、分布図のタイプと、アクセス回数の均等化対象のECCグループが存在するかをチェックする。分布図がタイプY以外でありかつ、アクセス回数の均等化対象のECCグループ(未処理)が存在する場合は処理を実行する。分布図がタイプYである、又はアクセス回数の均等化対象のECCグループが存在しないならば処理を終了する。タイプYは既に均等化状態であるので、アクセス回数の均等化は不要であるためである。
ステップS105において、I/O処理プロセッサ101Aは、アクセス回数の大きいECCグループとアクセス回数の少ないECCグループを抽出する。図13に示した例では、アクセス回数の大きいECCグループは、ECCG1−1(アクセス回が100回)、アクセス回数の小さいECCグループは、ECCG1−4(アクセス回数が20回)であり、これらがそれぞれ抽出される。
ステップS106において、I/O処理プロセッサ101Aは、アクセス情報テーブル80より、各ECCグループ1−1,1−4内のLDEVのアクセス回数の順序付けを行なう。図14は、ECCグループ1−1内のLDEVへのアクセス回数の順位付けの一例Q20を示す図である。この順位付けはアクセス回数の大きいものが上側で、小さいものが下側となって、LDEV毎に並べられる。また、図18は、ECCグループ1−4内のLDEVへのアクセス回数の順位付けの一例Q40を示す図である。この順位付けもアクセス回数の大きいものが上側で、小さいものが下側となって、LDEV毎に並べられている。
次に、ステップS107からS109でLDEVレベルを算出する。ステップS107において、I/O処理プロセッサ101Aは、LDEVのアクセス回数の分布図を作成する。上述の例では、ECCグループ1−1、ECCグループ4−1内のLDEVのアクセス回数の分布図を作成する。図15は、ECCグループ1−1内のLDEVのアクセス回数の分布図の例である。図15(a)に示すLDEVのアクセス分布図Cはアクセス回数の偏差の大きい場合を示し、図15(b)に示すLDEVのアクセス分布図Dはアクセス回数の偏差の小さい場合を示している。なお、分布としては図15(a)又は(b)のいずれかの分布となる。また、図19は、ECCグループ4−1内のLDEVアクセス回数の分布図の例である。図19(a)に示すLEDVのアクセス分布図C´は、アクセス回数の偏差の大きい場合を示し、図19(b)に示すLDEVのアクセス分布図D´はアクセス回数の偏差の小さい場合を示している。なお、分布としては図19(a)又は(b)のいずれかの分布となる。
次に、ステップS108において、I/O処理プロセッサ101Aは、アクセス回数の均等化対象のLDEVが存在するかをチェックする。アクセス回数の均等化対象のLDEV(すなわち、未処理のLEDV)が存在する場合は(S108:YES)。処理を続行する。なお、アクセス回数の均等化対象のLDEVが存在しない場合は(S108:NO)、ステップS102の処理へ戻る。
次に、ステップS109において、I/O処理プロセッサ101Aは、アクセス回数の大きいECCグループ1−1からは最もアクセス回数が大きいLEDVを抽出し、アクセス回数の小さいECCグループ4−1から最もアクセス回数の少ないLDEVを抽出する。
ステップS110は、ページレベルの算出が行なわれる。すなわち、ステップS110においてI/O処理プロセッサ101Aは、アクセス情報テーブル80より、ステップS109で抽出した各LDEV内のページのアクセス回数の順序付けを行なう。図16は、アクセス回数の大きいECCグループ1−1から抽出されたLEDV内のページのアクセス回数の順序付けを行なった一例Q30を示す図であり、図20は、アクセス回数の小さいECCグループ4−1から抽出されたLDEV内のページのアクセス回数の順序付けを行なった一例Q50を示す図である。図16,図20ともに、アクセス回数の大きい順に上側から順位付けされている。
ステップS111において、I/O処理プロセッサ101Aは、ステップS110で行なった順位付けに基づいてページのアクセス回数の分布図を作成する。図17は、アクセス回数の大きいECCグループ1−1から抽出されたLEDV内のページのアクセス回数の順序付けに基づいて作成された分布図の一例を示している。図17(a)に示すページのアクセス分布図Eはアクセス回数の偏差が大きい場合を示し、図17(b)に示すページのアクセス分布図Fはアクセス回数の偏差が小さい場合を示している。なお、分布としては図17(a)又は(b)のいずれかの分布となる。図21は、アクセス回数の小さいECCグループ4−1から抽出されたLDEV内のページのアクセス回数の順位付けに基づいて作成された分布図の一例を示している。図21(a)に示すページのアクセス分布図E´はアクセス回数の偏差が大きい場合を示し、図21(b)に示すページのアクセス分布図F´はアクセス回数の偏差が小さい場合を示している。なお、分布としては図21(a)又は(b)のいずれかの分布となる。
ステップS112において、I/O処理プロセッサ101Aは、ステップS111で作成した2つの分布図のタイプが、ともにタイプXであるか、ともにタイプYであるか、タイプが互いに異なるかをチェックする。
2つの分布図がともにタイプXならば、ステップS113において、I/O処理プロセッサ101Aは、ページ単位のデータ移動を行なう。タイプXは、アクセス回数大から小まで幅広く分散されており、ページのような細かい単位で、移動させたい箇所のみの入れ替えが適しているためである。また、移動単位が小さいページであるため、スループットが大であっても、中であっても、小であっても、データにかかる負荷は小さく、ページ移動を行なっても問題はない。処理後はステップS102へ戻り、ECCグループのレベルから処理を繰り返す。
図22は、ページ単位のデータ移動を説明するための図である。上述のページのアクセス分布図E、ページのアクセス分布図E´をページ単位で移動することにより、図22の上段から中段に示すように、ページのアクセス分布の偏差を小さくする。これを繰り返すことにより、図22の下段に示すように、アクセス分布の平均化を図ることができる。
2つの分布が互いに異なるならばデータ移動は行なわず、I/O処理プロセッサ101Aは、ステップS108へ戻り、LDEVのレベルから処理を繰り返す。タイプが異なる場合は、データ移動の単位を特定できず、仮にデータ移動した場合、逆に均等化が崩れる場合があるためデータ移動は行なわない。
2つの分布がともにタイプYならば、ステップS114において、I/O処理プロセッサ101Aは、ステップS107のLDEVレベルでの分布図が同一タイプかチェックする。
図23は、LDEV単位のデータ移動を説明するための図である。上述のLDEVのアクセス分布図D、LDEVのアクセス分布図D´をボリューム単位で移動することにより、図23の上段から中段に示すように、LDEVへのアクセス分布の偏差を小さくすることができる。これを繰り返すことにより、図23の下段に示すように、アクセス分布の平均化を図ることができる。
ステップS107のLDEVレベルでの分布図が同一タイプならば、ステップS115において、I/O処理プロセッサ101Aは、現時刻のスループットを取得する。そして、ステップS116において、I/O処理プロセッサ101Aは、現時刻のスループットをチェックする。
スループットが小ならば、ステップS117において、I/O処理プロセッサ101Aは、ボリューム単位の移動を行なう。タイプYはアクセス回数大から小までの種類が少なく、ボリュームのような大きな単位での入れ替えが適しているためである。また、スループットが小のため、データ移動にかかる負荷は小さく、ボリューム移動を行なっても問題はない。処理後は、I/O処理プロセッサ101Aは、ステップS102へ戻り、ECCグループのレベルから処理を繰り返す。
2つの分布図がタイプYで、かつスループットが大、又は中ならば、I/O処理プロセッサ101Aは、データ移動は行なわずステップS108へ戻り、LDEVレベルからの処理を繰り返す。タイプYはアクセス回数大から小までの種類が少なく、ボリュームのような大きな単位での入れ替えが適している。しかし、スループットは小さくないため、大きな単位のボリュームで移動を行なうとさらに負荷がかかり、逆に均等化が崩れる場合があるためデータ移動は行なわれない。
このように、ストレージシステム1は自動でアクセス回数の均等化処理を行うことにより、例えば、ECCグループであるパリティグループの中で利用率の高いグループから利用率の低いグループへデータ移動を行なうときに、ページ単位又はボリューム単位のいずれでデータ移動を行なうのが最適であるかを自動的に判定してデータ移動を実行する。したがって、ストレージシステム1のアクセス回数の均等化を最適に行いストレージシステム1全体の最適化を図ることができる。
次にユーザが手動で実行を指示する手動移動による均等化処理の概要について説明する。手動移動の処理が自動移動の処理と異なる点は、ユーザがデータ移動方法のパラメータを指定する点(S201)と、ユーザが指定した日時にてデータ移動を行なう点(S202)と、ユーザにより指定されたデータ移動方法のパラメータがページ単位の移動か、ボリューム単位の移動かをチェックすると(S210)と、ユーザが指定されたパラメータ分の均等化処理を繰り返したか否かをチェックする点(S213)である。従って、その他の処理については自動処理の場合と同様であるため、詳細な説明は省略する。
次に、ユーザが手動で均等化処理を実行する手動移動の処理の流れについて説明する。図12は、手動移動の処理時にI/O処理プロセッサ101Aが実行する処理を示すフローチャートである。
先ず、ステップS201において、ユーザがボリューム移動、ページ移動の回数や、又はデータ均等化処理を繰り返す日時を指定する。これらの指定は、上述した図6の表示画面500上で行なわれる。I/O処理プロセッサ101Aは、表示画面500上で指定されたデータを取得する。そして、ステップS202において、ユーザが指定した日時にデータ移動を行なう処理を実行する。
ステップS203において、I/O処理プロセッサ101Aは、各ECCグループ1−1,1−2,…のアクセス回数の順位付けを行なう。そして、ステップS204において、I/O処理プロセッサ101Aは、ECCグループ1−1,1−2,…のアクセス回数の分布図を作成する。次に、ステップS205において、I/O処理プロセッサ101Aは、アクセス回数均等化対象のアクセス回数の大きいECCグループと、アクセス回数の小さいECCグループを抽出する。
次に、ステップS206において、I/O処理プロセッサ101Aは、各ECCグループ内の、すなわち抽出されたLDEVのアクセス回数の順位付けを行なう。ステップS207において、I/O処理プロセッサ101Aは、アクセス回数均等化対象のLDEVを抽出する。そして、ステップS208において、I/O処理プロセッサ101Aは、各ページのアクセス回数の順位付けを行なう。次に、ステップS209において、I/O処理プロセッサ101Aは、ページのアクセス回数の分布図を作成する。
そして、ステップS210において、I/O処理プロセッサ101Aは、データ移動方法における、ユーザ指定のパラメータがページ単位であるか、ボリューム単位であるかをチェックする。ユーザ指定のパラメータがページ単位指定ならば、ステップS211において、I/O処理プロセッサ101Aは、ページ単位のデータ移動を行なう。ユーザパラメータがボリューム単位指定ならば、ステップS212において、I/O処理プロセッサ101Aは、ボリューム単位のデータ移動を行なう。
ステップS213において、I/O処理プロセッサ101Aは、ユーザが指定したパラメータ分の均等化処理を繰り返したかをチェックし、繰り返していないならばステップS203へ戻り、繰り返したならば終了する。
このように手動処理により均等化処理を行っても自動処理を行う場合と同様に、ページ単位又はボリューム単位が最適な単位のいずれでデータ移動を行なうのが最適であるかを自動的に判定してデータ移動を実行するので、ストレージシステムのアクセス回数の均等化を最適に行いストレージシステム1全体の最適化を図ることができる。
以上のように本発明を、上位ホスト10,20,30,…,と、上位ホスト10,20,30,…,からネットワーク11を介して送信されたデータを記憶する複数のディスクドライブ(HDD)と、複数のディスクドライブ(HDD)から構成されるデータの信頼性を保持するためのパリティグループ(ECCグループ)を複数有し、各パリティグループ内のプールボリュームをこのプールボリュームと対応する論理ボリューム及び仮想ボリュームを用いて管理するストレージシステム1に適用し、ディスクドライブ(HDD)に記憶されるデータに対するアクセス回数を示すアクセス情報を記憶するアクセス情報テーブル80と、データアクセスの均等化を行うためにプールボリューム内のデータを移動させるときに、ページ単位のデータ移動とボリューム単位のデータ移動といずれのデータ移動が最適かをアクセス情報テーブル80に記憶される情報に基づいてI/O処理プロセッサ101Aが判定し、この判定結果に基づいて、ページ単位のデータ移動(S113)又はボリューム単位のデータ移動(S117)を実行してパリティグループ内のデータアクセスの均等化を行ない、この処理をデータアクセスが均等化されるまで繰り返し実行する場合に適用したがこれに限るものではない。
また、負荷情報テーブル70には、プールボリュームに記憶されるデータへのアクセスの負荷を示すスループットの値を記憶し、負荷情報テーブル70に記憶される負荷が小さ日時で均等化処理を行うこととしているが、負荷はスループットの値に限られるものでないし、均等化処理を行う日時は負荷情報テーブル70に記憶される負荷が小さいときに限られるものではない。
また、I/O処理プロセッサ101Aは、ECCグループのアクセス回数の分布をアクセス情報テーブル80から作成し(S103)、この作成したアクセス回数の分布のタイプに応じて均等化の対象となるECCグループか否かを判定することとしているが(S104)、分布の作成方法等はこの実施の形態に限定されるものではない。
また、I/O処理プロセッサ101Aは、均等化の対象となるグループがあると判定した場合に、その判定されたECCグループ内のアクセス回数が最も大きいLDEVとアクセス回数が最も小さいLDEVのアクセス回数の分布をアクセス情報テーブル10から作成し(S107)、この作成した2つのアクセス回数の分布のタイプに応じて均等化の対象となるLDEVか否かを判定することとしているが(S108)、分布の作成方法等はこの実施の形態に限定されるものではない。
また、I/O処理プロセッサ101Aは、均等化の対象となるLDEVがあると判定した場合に、LDEV内のページのアクセス回数が最も大きいページとアクセス回数が最も小さいページのアクセス回数の分布をアクセス情報テーブル80から作成しているが(S111)、分布の作成方法等はこの実施の形態に限定されるものではない。
また、I/O処理プロセッサ101Aは、均等化の対象となるLDEVがあると判定した場合に作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きいタイプXと、偏差が小さいタイプYの2つであり、2つの分布のタイプがともにタイプXであった場合には(S112:タイプX)、ページ単位でのデータ移動を行なうこととしている(S113)。
また、I/O処理プロセッサ101Aは、均等化の対象となるLDEVがあると判定した場合に作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きいタイプXと、偏差が小さいタイプYの2つであり、均等化の対象となるECCグループがあると判定した場合に作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きいタイプXと、偏差が小さいタイプYの2つであり、均等化の対象となるLDEVがあると判定した場合に作成される分布のタイプがともに第2のタイプであった場合(S112:タイプY)、かつ、均等化の対象となるECCグループがあると判定した場合に作成される分布のタイプが同タイプであった場合は(S114:YES)、現時点の負荷を算出し(S115)、その算出した負荷が小さいならば(S116:小)、ボリューム単位でのデータ移動を行なうこととしている(S117)。
また、予め設定されたタイミングでI/O処理プロセッサ101Aの処理を実行するか、ユーザにより指定されたタイミングでI/O処理プロセッサ101Aの処理を実行するかを設定するための表示部を、表示画面500に適用したがこれに限るものではない。
本発明は、ストレージシステム及びストレージシステムのアクセス均等化方法に広く適用することができる。
本発明に係わるストレージシステムの構成を示す図である。 本発明に係わる仮想ボリューム管理テーブルを示す図である。 本発明に係わるプールボリューム管理テーブルを示す図である。 本発明に係わる負荷情報テーブルを示す図である。 本発明に係わるアクセス情報テーブルを示す図である。 本発明に係わる表示画面の一例を示す図である。 本発明に係わるアクセス分布図の一例を示す図である。 本発明に係わるアクセス分布図の他の一例を示す図である。 本発明に係わるスループットの算出方法を説明するための図である。 本発明に係わるデータ移動決定テーブルを示す図である。 本発明に係わる均等化処理の自動処理を示すフローチャートである。 本発明に係わる均等化処理の手動処理を示すフローチャートである。 本発明に係わるアクセス回数の順位付けの一例を示す図である。 本発明に係わるアクセス回数の順位付けの一例を示す図である。 本発明に係わるアクセス回数分布図の一例を示す図である。 本発明に係わるアクセス回数の順位付けの一例を示す図である。 本発明に係わるアクセス回数分布図の一例を示す図である。 本発明に係わるアクセス回数の順位付けの一例を示す図である。 本発明に係わるアクセス回数分布図の一例を示す図である。 本発明に係わるアクセス回数の順位付けの一例を示す図である。 本発明に係わるアクセス回数分布図の一例を示す図である。 本発明に係わるページ単位のデータ移動を示す図である。 本発明に係わるボリューム単位のデータ移動を示す図である。
符号の説明
1…ストレージシステム、10,20,30…上位ホスト、11…ネットワーク、50…仮想ボリューム管理テーブル、60…プールボリューム管理テーブル、70…付加情報テーブル、80…アクセス情報テーブル、100,200…記憶装置、101A〜101N,201A〜201N…I/O処理プロセッサ、107…ボリューム群、1−1,1−2…ECCグループ、500…表示画面

Claims (15)

  1. 上位ホストと、
    この上位ホストからネットワークを介して送信されたデータを記憶する複数のディスクドライブと、前記複数のディスクドライブから構成されるデータの信頼性を保持するためのグループを複数有し、各グループ内のプールボリュームをこのプールボリュームと対応する論理ボリューム及び仮想ボリュームを用いて管理する記憶装置とを含むストレージシステムであって、
    前記ディスクドライブに記憶されるデータに対するアクセス回数を示すアクセス情報を記憶するアクセス情報テーブルと、
    データアクセスの均等化を行うために前記プールボリューム内のデータを移動させるときに、ページ単位のデータ移動とボリューム単位のデータ移動といずれのデータ移動が最適かを前記アクセス情報テーブルに記憶される情報に基づいて判定する判定部と、
    この判定部の判定結果に基づいて、ページ単位又はボリューム単位のデータ移動を実行して前記グループ内のデータアクセスの均等化を行なうデータ移動部と、
    データアクセスが均等化されるまで前記判定部の判定及び前記データ移動部のデータ移動を繰り返し実行する制御部とを備える、
    ことを特徴とするストレージシステム。
  2. 前記プールボリュームに記憶されるデータへのアクセスの負荷を示す負荷情報を記憶する負荷情報テーブルを備え、
    前記判定部の判定及び前記データ移動部のデータ移動は、前記負荷情報テーブルに記憶される負荷が小さいときに実行される、
    ことを特徴とする請求項1記載のストレージシステム。
  3. 前記判定部は、
    前記グループのアクセス回数の分布を前記アクセス情報テーブルから作成する第1の分布作成部と、
    前記第1の分布作成部で作成したアクセス回数の分布のタイプに応じて均等化の対象となるグループか否かを判定する第1の判定部とを含む、
    ことを特徴とする請求項1記載のストレージシステム。
  4. 前記判定部は、
    前記第1の判定部で均等化の対象となるグループがあると判定した場合に、その判定されたグループ内のアクセス回数が最も大きい論理ボリュームとアクセス回数が最も小さい論理ボリュームのアクセス回数の分布を前記アクセス情報テーブルから作成する第2の分布作成部と、
    前記2の分布作成部で作成した2つのアクセス回数の分布のタイプに応じて均等化の対象となる論理ボリュームか否かを判定する第2の判定部とを含む、
    ことを特徴とする請求項3に記載のストレージシステム。
  5. 前記判定部は、
    前記第2の判定部で均等化の対象となる論理ボリュームがあると判定した場合に、前記論理ボリューム内のページのアクセス回数が最も大きいページとアクセス回数が最も小さいページのアクセス回数の分布を前記アクセス情報テーブルから作成する第3の分布作成を含む、
    ことを特徴とする請求項4に記載のストレージシステム。
  6. 前記第3の分布作成部で作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きい第1のタイプと、偏差が小さい第2のタイプの2つであり、
    前記第3の分布作成部で作成される2つの分布のタイプがともに第1のタイプであった場合には、前記データ移動部は、ページ単位でのデータ移動を行なう、
    ことを特徴とする請求項5に記載のストレージシステム。
  7. 前記第3の分布作成部で作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きい第1のタイプと、偏差が小さい第2のタイプの2つであり、
    前記第2の分布作成部で作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きい第3のタイプと、偏差が小さい第4のタイプの2つであり、
    前記第3の分布作成部で作成される2つの分布のタイプがともに第2のタイプであった場合、かつ、前記2の作成部で作成される分布のタイプが同タイプであった場合は、現時点の負荷を算出し、その算出した負荷が小さいならば、前記データ移動部は、ボリューム単位でのデータ移動を行なう、
    ことを特徴とする請求項5に記載のストレージシステム。
  8. 予め設定されたタイミングで前記制御部の処理を実行するか、ユーザにより指定されたタイミングで前記制御部の処理を実行するかを設定するための表示部を備えること、
    を特徴とする請求項1記載のストレージシステム。
  9. ストレージシステムのアクセス均等化方法であって、
    前記ストレージシステムは、上位ホストと、この上位ホストからネットワークを介して送信されたデータを記憶する複数のディスクドライブと、前記複数のディスクドライブから構成されるデータの信頼性を保持するためのグループを複数有し、各グループ内のプールボリュームをこのプールボリュームと対応する論理ボリューム及び仮想ボリュームを用いて管理する記憶装置とを含み、
    データアクセスの均等化を行うために前記プールボリューム内のデータを移動させるときに、ページ単位のデータ移動とボリューム単位のデータ移動といずれのデータ移動が最適かを、前記ディスクドライブに記憶されるデータに対するアクセス回数を示すアクセス情報を記憶するアクセス情報テーブルに記憶される情報に基づいて判定するステップと、
    このステップの判定結果に基づいて、ページ単位又はボリューム単位のデータ移動を実行して前記グループ内のデータアクセスの均等化を行なうステップと、
    データアクセスが均等化されるまで前記判定するステップの判定及び前記データ移動をするステップのデータ移動を繰り返し実行するステップとを備える、
    ことを特徴とするストレージシステムのアクセス均等化方法。
  10. 前記判定するステップ及び前記データ移動をするステップは前記プールボリュームに記憶されるデータへのアクセスの負荷が小さいときに実行される、
    ことを特徴とする請求項9記載のストレージシステムのアクセス均等化方法。
  11. 前記データ移動が最適かを判定するステップは、
    前記グループのアクセス回数の分布を前記アクセス情報テーブルから作成するステップと、
    このステップで作成したアクセス回数の分布のタイプに応じて均等化の対象となるグループか否かを判定するステップとを含む、
    ことを特徴とする請求項9記載のストレージシステムのアクセス均等化方法。
  12. 前記データ移動が最適かを判定するステップは、
    前均等化の対象となるグループがあると判定した場合に、その判定されたグループ内のアクセス回数が最も大きい論理ボリュームとアクセス回数が最も小さい論理ボリュームのアクセス回数の分布を前記アクセス情報テーブルから作成するステップと、
    このステップで作成した2つのアクセス回数の分布のタイプに応じて均等化の対象となる論理ボリュームか否かを判定するステップとを含む、
    ことを特徴とする請求項11に記載のストレージシステムのアクセス均等化方法。
  13. 前記データ移動が最適かを判定するステップは、
    前記均等化の対象となる論理ボリュームがあると判定した場合に、前記論理ボリューム内のページのアクセス回数が最も大きいページとアクセス回数が最も小さいページのアクセス回数の分布を前記アクセス情報テーブルから作成するステップを含む、
    ことを特徴とする請求項12に記載のストレージシステムのアクセス均等化方法。
  14. 前記均等化の対象となる論理ボリュームがあると判定した場合に作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きい第1のタイプと、偏差が小さい第2のタイプの2つであり、
    前記2つの分布のタイプがともに第1のタイプであった場合に、前記データ移動をするステップは、ページ単位でのデータ移動を行なう、
    ことを特徴とする請求項13に記載のストレージシステムのアクセス均等化方法。
  15. 前記均等化の対象となる論理ボリュームがあると判定した場合に作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きい第1のタイプと、偏差が小さい第2のタイプの2つであり、
    前記均等化の対象となるグループがあると判定した場合に作成される分布のタイプは、アクセス回数に対するページの個数の偏差が大きい第3のタイプと、偏差が小さい第4のタイプの2つであり、
    前記均等化の対象となる論理ボリュームがあると判定した場合に作成される分布のタイプがともに第2のタイプであった場合、かつ、前記均等化の対象となるグループがあると判定した場合に作成される分布のタイプが同タイプであった場合は、現時点の負荷を算出し、その算出した負荷が小さいならば、前記データ移動をするステップは、ボリューム単位でのデータ移動を行なう、
    ことを特徴とする請求項13に記載のストレージシステムのアクセス均等化方法。
JP2007207232A 2007-08-08 2007-08-08 ストレージシステム及びストレージシステムのアクセス均等化方法 Pending JP2009043016A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007207232A JP2009043016A (ja) 2007-08-08 2007-08-08 ストレージシステム及びストレージシステムのアクセス均等化方法
EP08250168A EP2026187A3 (en) 2007-08-08 2008-01-14 Storage system and access count equalization method therefor
US12/010,047 US7949827B2 (en) 2007-08-08 2008-01-18 Storage system and access count equalization method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007207232A JP2009043016A (ja) 2007-08-08 2007-08-08 ストレージシステム及びストレージシステムのアクセス均等化方法

Publications (1)

Publication Number Publication Date
JP2009043016A true JP2009043016A (ja) 2009-02-26

Family

ID=39944412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007207232A Pending JP2009043016A (ja) 2007-08-08 2007-08-08 ストレージシステム及びストレージシステムのアクセス均等化方法

Country Status (3)

Country Link
US (1) US7949827B2 (ja)
EP (1) EP2026187A3 (ja)
JP (1) JP2009043016A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034546A (ja) * 2009-07-30 2011-02-17 Lsi Corp Erasureコード化されたデータストレージ容量及びパワーマネージメント方法及びシステム
JP2011216052A (ja) * 2010-04-02 2011-10-27 Hitachi Ltd 管理システム及び計算機システムの管理方法
JP2011221660A (ja) * 2010-04-06 2011-11-04 Hitachi Ltd 管理方法及び管理装置
WO2015189988A1 (ja) * 2014-06-13 2015-12-17 株式会社日立製作所 ファイル再配置ポリシーを出力する管理サーバ、及びストレージシステム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015446A (ja) * 2008-07-04 2010-01-21 Hitachi Ltd ストレージ装置及び電源の制御方法
JP5215898B2 (ja) 2009-02-10 2013-06-19 株式会社日立製作所 ファイルサーバ、ファイル管理システムおよびファイル再配置方法
WO2011116715A2 (zh) * 2011-04-28 2011-09-29 华为技术有限公司 一种虚拟网络迁移方法、相关装置以及系统
US9477453B1 (en) * 2015-06-24 2016-10-25 Intel Corporation Technologies for shadow stack manipulation for binary translation systems
CN108228672B (zh) * 2016-12-22 2022-05-03 阿里巴巴集团控股有限公司 一种元数据迁移方法、装置、系统及设备
US11947489B2 (en) 2017-09-05 2024-04-02 Robin Systems, Inc. Creating snapshots of a storage volume in a distributed storage system
US11748203B2 (en) 2018-01-11 2023-09-05 Robin Systems, Inc. Multi-role application orchestration in a distributed storage system
US11392363B2 (en) 2018-01-11 2022-07-19 Robin Systems, Inc. Implementing application entrypoints with containers of a bundled application
US11582168B2 (en) 2018-01-11 2023-02-14 Robin Systems, Inc. Fenced clone applications
US11099937B2 (en) 2018-01-11 2021-08-24 Robin Systems, Inc. Implementing clone snapshots in a distributed storage system
US10976938B2 (en) 2018-07-30 2021-04-13 Robin Systems, Inc. Block map cache
US11023328B2 (en) 2018-07-30 2021-06-01 Robin Systems, Inc. Redo log for append only storage scheme
US10908848B2 (en) 2018-10-22 2021-02-02 Robin Systems, Inc. Automated management of bundled applications
US11036439B2 (en) 2018-10-22 2021-06-15 Robin Systems, Inc. Automated management of bundled applications
US11086725B2 (en) 2019-03-25 2021-08-10 Robin Systems, Inc. Orchestration of heterogeneous multi-role applications
US11256434B2 (en) 2019-04-17 2022-02-22 Robin Systems, Inc. Data de-duplication
US11226847B2 (en) 2019-08-29 2022-01-18 Robin Systems, Inc. Implementing an application manifest in a node-specific manner using an intent-based orchestrator
US11520650B2 (en) 2019-09-05 2022-12-06 Robin Systems, Inc. Performing root cause analysis in a multi-role application
US11249851B2 (en) 2019-09-05 2022-02-15 Robin Systems, Inc. Creating snapshots of a storage volume in a distributed storage system
US11347684B2 (en) 2019-10-04 2022-05-31 Robin Systems, Inc. Rolling back KUBERNETES applications including custom resources
US11113158B2 (en) 2019-10-04 2021-09-07 Robin Systems, Inc. Rolling back kubernetes applications
US11403188B2 (en) 2019-12-04 2022-08-02 Robin Systems, Inc. Operation-level consistency points and rollback
US11108638B1 (en) * 2020-06-08 2021-08-31 Robin Systems, Inc. Health monitoring of automatically deployed and managed network pipelines
US11528186B2 (en) 2020-06-16 2022-12-13 Robin Systems, Inc. Automated initialization of bare metal servers
US11740980B2 (en) 2020-09-22 2023-08-29 Robin Systems, Inc. Managing snapshot metadata following backup
US11743188B2 (en) 2020-10-01 2023-08-29 Robin Systems, Inc. Check-in monitoring for workflows
US11271895B1 (en) 2020-10-07 2022-03-08 Robin Systems, Inc. Implementing advanced networking capabilities using helm charts
US11456914B2 (en) 2020-10-07 2022-09-27 Robin Systems, Inc. Implementing affinity and anti-affinity with KUBERNETES
US11750451B2 (en) 2020-11-04 2023-09-05 Robin Systems, Inc. Batch manager for complex workflows
US11556361B2 (en) 2020-12-09 2023-01-17 Robin Systems, Inc. Monitoring and managing of complex multi-role applications
CN113407114B (zh) * 2021-05-26 2022-03-04 青海师范大学 一种基于热数据和删除重复操作的在线扩容io调度方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3541744B2 (ja) 1999-08-30 2004-07-14 株式会社日立製作所 ストレージサブシステム及びその制御方法
JP2001337790A (ja) * 2000-05-24 2001-12-07 Hitachi Ltd 記憶システム及びその階層管理制御方法
US6678795B1 (en) * 2000-08-15 2004-01-13 International Business Machines Corporation Method and apparatus for memory prefetching based on intra-page usage history
US7937551B2 (en) * 2003-01-21 2011-05-03 Dell Products L.P. Storage systems having differentiated storage pools
US7197490B1 (en) * 2003-02-10 2007-03-27 Network Appliance, Inc. System and method for lazy-copy sub-volume load balancing in a network attached storage pool
US7185163B1 (en) * 2003-09-03 2007-02-27 Veritas Operating Corporation Balancing most frequently used file system clusters across a plurality of disks
JP4349871B2 (ja) * 2003-09-09 2009-10-21 株式会社日立製作所 ファイル共有装置及びファイル共有装置間のデータ移行方法
US8046677B2 (en) 2006-01-30 2011-10-25 International Business Machines Corporation Displaying relationships between tabular data using spatial identifiers
JP2008134712A (ja) * 2006-11-27 2008-06-12 Hitachi Ltd ファイル共有システム、ファイル共有装置及びファイル共有用ボリュームの移行方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034546A (ja) * 2009-07-30 2011-02-17 Lsi Corp Erasureコード化されたデータストレージ容量及びパワーマネージメント方法及びシステム
JP2011216052A (ja) * 2010-04-02 2011-10-27 Hitachi Ltd 管理システム及び計算機システムの管理方法
JP2011221660A (ja) * 2010-04-06 2011-11-04 Hitachi Ltd 管理方法及び管理装置
WO2015189988A1 (ja) * 2014-06-13 2015-12-17 株式会社日立製作所 ファイル再配置ポリシーを出力する管理サーバ、及びストレージシステム

Also Published As

Publication number Publication date
EP2026187A3 (en) 2012-07-04
US7949827B2 (en) 2011-05-24
EP2026187A2 (en) 2009-02-18
US20090254701A1 (en) 2009-10-08

Similar Documents

Publication Publication Date Title
JP2009043016A (ja) ストレージシステム及びストレージシステムのアクセス均等化方法
US7523231B1 (en) Application aware storage
US7415582B2 (en) Storage system construction managing device and construction management method
US7236915B2 (en) Technique and interface for computer system resource assignment
JP2008123132A (ja) 記憶制御装置及び記憶制御装置の論理ボリューム形成方法
US7650480B2 (en) Storage system and write distribution method
US7441080B2 (en) Method of and system for controlling attributes of a plurality of storage devices
US7681007B2 (en) Automatic expansion of hard disk drive capacity in a storage device
US9116632B2 (en) Storage management system
EP1843245A2 (en) Method and system for executing directory-basis migration in a global name space
JP2006012156A (ja) ボリューム活動に従ってストレージポリシーをコントロールするための方法
JP5341259B2 (ja) マイグレーション先の決定を支援する方法及び管理システム
US8255803B1 (en) Facilitating storage pool provisioning
US9417757B1 (en) Scalable hierarchical user interface display
US7836265B2 (en) Storage system, management method, and management apparatus
US8756372B2 (en) Virtual storage mirror configuration in virtual host
WO2012004827A1 (en) Storage subsystem and its control method
US9383905B1 (en) Navigating a large tree structure using summary snippets
JP4553723B2 (ja) 仮想ストレージ構成管理システム、仮想ストレージ構成のための情報処理装置、およびコンピュータ読み取り可能な記憶媒体
JP5589081B2 (ja) コンピュータシステムの管理方法及び管理装置
US10042572B1 (en) Optimal data storage configuration
US8301851B1 (en) Consecutive scheduling of jobs for a device using run count values
US8423728B1 (en) Physical based scheduler using run count and skip count values
JP2013003833A (ja) 補助記憶装置及びダウングレード判定方法
JP2005301561A (ja) ディスクアレイ装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090219