JP6142685B2 - ストレージシステム、運用管理方法及び運用管理プログラム - Google Patents

ストレージシステム、運用管理方法及び運用管理プログラム Download PDF

Info

Publication number
JP6142685B2
JP6142685B2 JP2013124158A JP2013124158A JP6142685B2 JP 6142685 B2 JP6142685 B2 JP 6142685B2 JP 2013124158 A JP2013124158 A JP 2013124158A JP 2013124158 A JP2013124158 A JP 2013124158A JP 6142685 B2 JP6142685 B2 JP 6142685B2
Authority
JP
Japan
Prior art keywords
storage
data
unit
performance
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013124158A
Other languages
English (en)
Other versions
JP2014241117A (ja
Inventor
寛滋 三浦
寛滋 三浦
基裕 酒井
基裕 酒井
明人 小林
明人 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013124158A priority Critical patent/JP6142685B2/ja
Priority to US14/279,380 priority patent/US20140372720A1/en
Priority to EP14169082.6A priority patent/EP2813941A3/en
Publication of JP2014241117A publication Critical patent/JP2014241117A/ja
Application granted granted Critical
Publication of JP6142685B2 publication Critical patent/JP6142685B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、ストレージシステム、運用管理方法及び運用管理プログラムに関する。
従来、ストレージシステムでは、複数の性能の異なるストレージを用いて、ストレージ自動階層制御(AST:Automated Storage Tiering)が行われてきた。ここで、性能の異なるストレージとしては、HDD(Hard Disk Drive)、SSD(Solid State Drive)などがある。また、HDDの中にも、アクセス性能の異なる装置がある。ASTは、情報処理システムの運用中に、性能の異なるストレージ間でデータの自動再配置を行う。このため、ストレージシステムは、ASTにより情報処理システムの運用中に動的にデータ配置を変更することで、システム運用中の性能状況変化などに追従することができる。
ASTは、異なる性能特性のストレージを階層化したプールに存在するボリュームのアクセスを監視し、ストレージシステムの管理者が設定した階層化ポリシーに従ってサブプール間でデータの再配置を行う。ここで、プールとは、複数のHDDやSSDをまとめた1つの仮想的なディスクである。また、サブプールとは、性能に基づいてプールを分割したものである。複数のサブプールを複数の層(ティア:Tier)として有するプールはティアプール(又は、階層化プール)と呼ばれる。また、階層化ポリシーは、データの再配置のタイミング、データのアクセス頻度とデータを配置するサブプールとの関係など再配置に関する方針を定義する情報である。
図25は、階層制御を説明するための図である。図25は、ストレージ装置92と運用管理装置93がLAN94で接続されたストレージシステムを示す。ストレージ装置92は、SSD、オンラインディスク、ニアラインディスクの3つのサブプールを有する。3つのサブプールの中でSSDが最も性能が高く、ニアラインディスクが最も性能が低い。
運用管理装置93は、ストレージ装置92の運用を管理し、ASTの機能を有する。ASTは、アクセス頻度の高いデータを高性能なSSDに配置し、アクセス頻度の低いデータを低性能で安価なニアラインディスクに配置することで、コストを抑えつつ性能を向上させることができる。また、ASTは、システムの運用中に動的にデータ配置を変更するので、配置設計を不要とし、ストレージシステムの管理者の作業負荷の軽減、管理コストの低減を実現する。
また、データアクセス頻度が予め指定した上限を上回るデータブロックを高性能のグループの記憶装置に移動し、予め指定した下限を下回るデータブロックを低性能のグループの記憶装置に移動するストレージシステムがある(例えば、特許文献1参照。)。また、2種以上の記憶媒体を有する記憶装置において、各データの使用頻度を、基準となる使用頻度と比較し、データの使用頻度の方が低い場合には、アクセス時間のより大きい記憶媒体にデータを移動する従来技術がある(例えば、特許文献2参照。)。
特開2003−108317号公報 特開平3−48321号公報
ストレージシステムの管理者は、階層化ポリシーでIOPS(Input/Output Per Second)値を指定することでデータの再配置の基準を設定する。例えば、ストレージシステムの管理者は、IOPSが501以上である場合にはデータをSSDに再配置する、というようにデータの再配置の基準を階層化ポリシーで指定する。
ASTは、階層化ポリシーで指定されたIOPS値に基づいてデータの再配置を行う。このため、高性能なサブプールに空き領域が存在する場合でも高性能なサブプールが利用されないという問題がある。例えば、IOPSが501以上である場合にはデータをSSDに再配置するという階層化ポリシーでは、IOPSが501以上のデータがない場合には、SSDは利用されない。また、IOPSが501以上のデータが少ない場合には、SSDに空き領域が存在しても空き領域が利用されない。
本発明は、1つの側面では、性能の異なる複数のストレージのうち高性能なストレージを有効に利用するストレージシステムを提供することを目的とする。
本願の開示するストレージシステムは、1つの態様において、割当部と、特定部と、複数の制御部とを有する。割当部は、性能の異なる複数のストレージのうち性能の高いストレージを優先させてアクセス頻度の高いデータから順にストレージを割り当てる。特定部は、割当部によりストレージが割り当てられたデータのうち、現在記憶されているストレージと異なるストレージが割り当てられたデータを再配置の対象として特定する。制御部は、特定部により再配置の対象として特定されたデータの再配置を行う。また、性能が同じストレージは複数のグループにグループ化され、所定の大きさの記憶単位のデータ及びグループには複数の制御部のうち1つの制御部が割り当てられる。そして、各制御部は、データの再配置を行う際に、該データを含む所定の大きさの記憶単位のデータに割り当てられた制御部と同じ制御部が割り当てられたグループに属するストレージをデータの移動先のストレージとする。
1実施態様によれば、性能の異なる複数のストレージのうち高性能なストレージを有効に利用することができる。
図1は、実施例に係るストレージシステムの構成を示す図である。 図2は、ストレージ装置の構成を示す図である。 図3は、運用管理装置の機能構成を示す図である。 図4は、ストレージ管理部の機能構成を示す図である。 図5は、ポリシー管理テーブルの一例を示す図である。 図6は、プール管理テーブルの一例を示す図である。 図7は、性能情報記憶部が各ブロックについて記憶する情報の一例を示す図である。 図8は、評価結果記憶部が記憶する評価情報の一例を示す図である。 図9Aは、アクセスリストの一例を示す図である。 図9Bは、再配置先割当後のアクセスリストを示す図である。 図10は、比率指定に基づく割当を説明するための図である。 図11は、再配置リストの一例を示す図である。 図12は、再配置の対象とならないブロックを説明するための図である。 図13は、自動階層制御部の機能構成を示す図である。 図14は、CMの機能構成を示す図である。 図15は、担当CMを説明するための図である。 図16は、ストレージシステムの処理フローを示すフローチャートである。 図17は、ポリシー登録処理のフローを示すフローチャートである。 図18は、ティアプール登録処理のフローを示すフローチャートである。 図19は、ボリューム作成処理のフローを示すフローチャートである。 図20は、性能情報収集処理のフローを示すフローチャートである。 図21は、再配置処理のフローを示すフローチャートである。 図22は、再配置結果表示処理のフローを示すフローチャートである。 図23は、運用管理プログラムを実行するコンピュータのハードウェア構成を示す図である。 図24は、CMのハードウェア構成を示す図である。 図25は、階層制御を説明するための図である。
以下に、本願の開示するストレージシステム、運用管理方法及び運用管理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。また、以下では、HDDやSSDなどのストレージの総称として「ディスク」を用いる。
まず、実施例に係るストレージシステムの構成について説明する。図1は、実施例に係るストレージシステムの構成を示す図である。図1に示すように、ストレージシステム1は、ストレージ装置2と、運用管理装置3と、操作端末4とを有する。ストレージ装置2と、運用管理装置3と、操作端末4とはLAN(Local Area Network)5で接続される。
ストレージ装置2は、SSD及びHDDを有し、ティアプールを提供する。運用管理装置3は、ストレージ装置2の運用を管理し、AST機能を有する。操作端末4は、ストレージシステム1の管理者(以下、単に「管理者」という。)が運用管理装置3との対話に用いる装置である。
図2は、ストレージ装置2の構成を示す図である。図2に示すように、ストレージ装置2は、2台のCM(Controller Module)21と、DE(Drive Enclosure)22を有する。なお、ここでは、説明の便宜上1台のDE22を示すが、ストレージ装置2は複数のDE22を有する。
CM21は、サーバ7からの要求に基づいてストレージ装置2を制御する装置であり、二重化されている。DE22は、SSDやHDDを搭載する機構であり、複数のディスク6を有し、低性能サブプール、中性能サブプール及び高性能サブプールの3つのサブプールを有するティアプールを提供する。
各サブプールは複数のRAID(Redundant Arrays of Inexpensive Disks)グループを有する。例えば、低性能サブプールは、RAIDグループ#0及びRAIDグループ#1を有し、中性能サブプールは、RAIDグループ#2及びRAIDグループ#3を有する。また、高性能サブプールは、RAIDグループ#4及びRAIDグループ#5を有する。また、各RAIDグループは複数のディスク6を有する。
次に、運用管理装置3の機能構成について説明する。図3は、運用管理装置3の機能構成を示す図である。図3に示すように、運用管理装置3は、ストレージ管理部31と、自動階層制御部32と、性能情報記憶部33と、評価結果記憶部34とを有する。
ストレージ管理部31は、ストレージ装置2を管理する。具体的には、ストレージ管理部31は、階層化ポリシーの管理、ティアプールの管理、ボリュームの管理、階層化ポリシーに基づく再配置ブロックの特定などを行う。ここで、ブロックとは、再配置されるデータの単位であり、例えば、大きさが1.3ギガバイト(GB)のデータである。
自動階層制御部32は、ストレージ管理部31の指示に基づいてASTを行う。具体的には、自動階層制御部32は、ストレージ装置2からIOPS値などの性能情報の取得、ストレージ装置2への階層制御開始の通知、再配置の依頼などを行う。また、自動階層制御部32は、ストレージ装置2にティアプールの作成、ボリュームの作成などの依頼を行う。
性能情報記憶部33は、自動階層制御部32がストレージ装置2から取得したIOPS値などの性能情報を記憶する。また、性能情報記憶部33が記憶する情報は、ストレージ管理部31が再配置ブロックを特定する場合に用いられる。なお、性能情報記憶部33の詳細については後述する。
評価結果記憶部34は、性能情報記憶部33が記憶する性能情報をストレージ管理部31が解析して評価した結果を記憶する。なお、評価結果記憶部34の詳細については後述する。
次に、ストレージ管理部31の機能構成について説明する。図4は、ストレージ管理部31の機能構成を示す図である。図4に示すように、ストレージ管理部31は、ポリシー管理部41と、ポリシー管理テーブル42と、プール管理部43と、プール管理テーブル44と、ボリューム管理部45とを有する。また、ストレージ管理部31は、ボリューム管理テーブル46と、解析部47と、割当部48と、再配置特定部49と、再配置指示部50と、再配置確認部51と、通信部52と、装置間通信部53とを有する。
ポリシー管理部41は、操作端末4から階層化ポリシー作成指示を受け付けて、階層化ポリシーをポリシー管理テーブル42に登録し、登録した階層化ポリシーの情報を表示するように操作端末4に指示する。
ポリシー管理テーブル42は、ポリシー管理部41により登録された階層化ポリシーの情報を記憶する。図5は、ポリシー管理テーブル42の一例を示す図である。図5に示すように、ポリシー管理テーブル42は、階層化ポリシー名、実行モード、評価対象データ種別、評価基準、評価間隔、評価期間、評価対象時間帯、評価・再配置実行時間、再配置打切時間、低と中と高のレベルの範囲を、階層化ポリシー毎に記憶する。
階層化ポリシー名は、階層化ポリシーを識別する名前である。実行モードは、再配置を実行するモードを示し、再配置を自動で実行する「auto」と、管理者との対話に基づいて再配置を半自動で実行する「semi-auto」と、再配置を管理者の指示により実行する「manual」とがある。評価対象データ種別は、再配置の対象を評価する評価データの種別を示し、IOPS値を示す「iops」がある。
評価基準は、評価対象データ種別で指定される評価データを評価する基準を示し、ピーク値を基準として評価する「peak」と平均値を基準として評価する「average」とがある。評価間隔は、評価データを評価する間隔の単位を示し、「day」は単位が「日」であることを示し、「time」は単位が「時間」であることを示す。
評価期間は、評価を行う間隔を示し、単位は評価間隔で指定される。例えば、評価間隔が「day」であり、評価期間が「7」である場合には、「7日」ごとに評価が行われる。評価対象時間帯は、データが評価対象となる時間帯を開始時刻と終了時刻で示す。評価・再配置実行時間は、評価及び再配置を行う時刻を示す。再配置打切時間は、再配置を打ち切る時間を示す。
低レベルの範囲は、低性能サブプールに配置すべきデータのIOPS値の範囲を示し、中レベルの範囲は、中性能サブプールに配置すべきデータのIOPS値の範囲を示し、高レベルの範囲は、高性能サブプールに配置すべきデータのIOPS値の範囲を示す。
例えば、階層化ポリシー名が「Policy_Auto_01」である階層化ポリシーでは、評価は自動で行われ、IOPS値を用いて評価が行われ、ピーク値を規準として評価が行われ、「7日」ごとに評価が行われる。データの評価対象時間帯の開始時刻は6時であり、終了時刻は20時である。評価・再配置は1時に実行され、24時間経過すると評価・再配置は打ち切られる。IOPS値が「100」以内のデータは低性能サブプールに記憶され、IOPS値が「101」〜「500」のデータは中性能サブプールに記憶され、IOPS値が「501」以上のデータは高性能サブプールに記憶される。
図4に戻って、プール管理部43は、操作端末4からティアプール作成指示を受け付けて、ティアプールの作成を自動階層制御部32に指示する。そして、プール管理部43は、作成されたティアプールをプール管理テーブル44に登録し、登録したティアプールの情報を表示するように操作端末4に指示する。
また、プール管理部43は、ティアプールを作成する際、ディスク6が指定されているか否かを判定し、ディスク6が指定されていない場合には、管理者により指定された容量でティアプールを作成するように自動階層制御部32経由でストレージ装置2に指示する。プール管理部43が、容量指定でティアプールを作成するようにストレージ装置2に指示することによって、管理者は、ディスク6の搭載状況を把握することなく、簡単にティアプールを作成することができる。
また、プール管理部43は、管理者からの指定に基づいて、1つのサブプールから構成されるティアプールを作成し、プール管理テーブル44に登録する。プール管理部43が、1つのサブプールから構成される階層化ポリシーをプール管理テーブル44に登録することによって、管理者は、AST運用を行った場合と比較するための情報を得ることができる。
プール管理テーブル44は、プール管理部43により登録されたティアプールの情報を記憶する。図6は、プール管理テーブル44の一例を示す図である。図6に示すように、プール管理テーブル44は、ティアプール名、階層化ポリシー名、装置IPアドレス、警告閾値、注意閾値、暗号化、担当CM番号、低性能サブプール情報、中性能サブプール情報及び高性能サブプール情報をティアプール毎に記憶する。
ティアプール名は、ティアプールを識別する名前である。階層化ポリシー名は、ティアプールに適用されるポリシーを示す。装置IPアドレスは、ティアプールを提供するストレージ装置2のIPアドレスを示す。警告閾値は、越えると警告を出力する閾値を示し、単位は%である。注意閾値は、越えると注意を出力する閾値を示し、単位は%である。暗号化は、ティアプールに記憶するデータを暗号化するか否かを示し、担当CM番号は、ティアプールの管理を担当するCM21の番号を示す。なお、担当CMの詳細については後述する。
低性能サブプール情報は、ティアプールに含まれる低性能サブプールの情報を示し、中性能サブプール情報は、ティアプールに含まれる中性能サブプールの情報を示し、高性能サブプール情報は、ティアプールに含まれる高性能サブプールの情報を示す。
サブプールの情報には、サブプール名、RAIDレベル、ディスク情報、担当CMがある。サブプール名は、サブプールを識別する名前である。RAIDレベルは、サブプールのRAIDレベルを示し、「RAID5」、「RAID1+0」などがある。ディスク情報は、サブプールを構成するディスクのRAIDグループの番号とグループ内の番号である。担当CMは、サブプールを担当するCM21の番号を示す。
図4に戻って、ボリューム管理部45は、操作端末4からボリューム作成指示を受け付けて、自動階層制御部32にボリュームの作成を指示する。また、ボリューム管理部45は、ストレージ装置2に作成されたボリュームをボリューム管理テーブル46に登録し、登録したボリュームの情報を表示するように操作端末4に指示する。また、ボリューム管理部45は、ティアプール内のサブプールの比率が管理者により指定された場合には、ボリューム管理テーブル46に比率を登録する。ボリューム管理テーブル46は、ボリューム管理部45により登録されたボリュームの情報を記憶する。
解析部47は、性能情報記憶部33が記憶する性能情報の解析及び評価を行い、評価結果を評価結果記憶部34に保存する。図7は、性能情報記憶部33が各ブロックについて記憶する情報の一例を示す図である。図7に示すように、性能情報記憶部33が各ブロックについて記憶する情報には、BNo、OLUN、RLUN、ReadIOPSPeak、WriteIOPSPeak、TotalIOPSPeakが含まれる。BNoは、ブロック番号である。OLUNは、ブロックが属しているボリューム番号であり、RLUNはブロックが属しているRAIDグループ番号である。ReadIOSPPeakは、ReadIO回数のピーク値であり、WriteIOSPPeakは、WriteIO回数のピーク値であり、TotalIOSPPeakは、ReadIO回数とWriteIO回数の和のピーク値である。解析部47は、例えば、TotalIOSPPeakを用いて各ブロックのアクセス頻度を判定する。
性能情報記憶部33は、1回に収集された性能情報をIOPS-PK_ii_YYYYMMDD@HHMM-yyyymmdd@hhmm.CSVの名前のファイルに記憶する。ここで、iiは、性能監視間隔を分で示す。また、YYYYMMDDは、性能情報採取開始年月日であり、HHMMは、性能情報採取開始時刻である。また、yyyymmddは、性能情報採取終了年月日であり、hhmmは、性能情報採取終了時刻である。
図8は、評価結果記憶部34が記憶する評価情報の一例を示す図である。図8に示すように、評価情報には、評価実施日時と、ティアプール名と階層化ポリシー名と評価データが含まれる。評価データには、VolNo、UpgradeToHigh、UpgradeToMiddle、DowngradeToMiddle、DowngradeToLow、KeepLow、KeepMiddle、KeepHigh、Statusが含まれる。
VolNoは、ボリュームを識別するボリューム番号である。UpgradeToHighは、上位階層であるティアレベル=高のサブプールすなわち高性能サブプールにマイグレーションすべきであると評価されたブロックの割合である。UpgradeToMiddleは、上位階層であるティアレベル=中のサブプールすなわち中性能サブプールにマイグレーションすべきであると評価されたブロックの割合である。DowngradeToMiddleは、下位階層であるティアレベル=中のサブプールにマイグレーションすべきであると評価されたブロックの割合である。DowngradeToLowは、下位階層であるティアレベル=低のサブプールすなわち低性能サブプールにマイグレーションすべきであると評価されたブロックの割合である。
KeepLowは、ティアレベル=低でマイグレーションを実施しない評価となったブロックの割合である。KeepMiddleは、ティアレベル=中でマイグレーションを実施しない評価となったブロックの割合である。KeepHighは、ティアレベル=高でマイグレーションを実施しない評価となったブロックの割合である。Statusは、ボリュームの再配置実行状況である。
また、解析部47は、評価結果に基づき、アクセス頻度の高い順にブロックがならんだアクセスリストを作成する。図9Aは、解析部47が作成するアクセスリストの一例を示す図である。図9Aに示すように、アクセスリスト55は、アクセス頻度の高い順にブロック番号とブロックに現在の配置場所を示す再配置元と再配置先とを対応させたリストである。図9Aでは、ブロック番号が「5」のブロックのアクセス頻度が最も高く、再配置元は「高」であり、ブロック番号が「9」のブロックのアクセス頻度が次に高く、再配置元は「中」である。なお、再配置先は、割当部48により割り当てられる。
割当部48は、階層化ポリシー及びボリュームの情報に基づいてブロックの再配置先を割り当て、アクセスリスト55に書き込む。図9Bは、図9Aに示したアクセスリスト55に再配置先が割当部48により割り当てられた後のアクセスリスト55を示す図である。図9Bに示すように、ブロック番号が「5」のブロックは、再配置先として「高」が割り当てられ、ブロック番号が「9」のブロックは、再配置先として「高」が割り当てられている。アクセスリスト55の配置先は、上から「高」が並び、次に「中」が並び、最後に「低」が並ぶ。
割当部48は、ポリシー判定部48aと、第1割当部48bと、第2割当部48cと、第3割当部48dとを有する。ポリシー判定部48aは、ポリシー管理テーブル42が記憶する階層化ポリシーの情報及びボリュームの情報に基づいてブロックの割当方法を判定する。割当方法としては、容量指定に基づく割当、比率指定に基づく割当、1つのサブプール指定に基づく割当、IOPS値指定に基づく割当がある。
第1割当部48bは、容量指定に基づく割当を行う。具体的には、第1割当部48bは、各サブプールの容量の範囲内で高性能のサブプールを優先させてアクセス頻度の高いブロックから順にサブプールに割り当てる。第1割当部48bが、容量指定に基づく割当を行うことによって、ストレージシステム1は、高性能サブプールを常に無駄なく使用することができる。なお、ポリシー判定部48aは、ポリシー管理テーブル42の低レベルの範囲、中レベルの範囲及び高レベルの範囲に値が指定されていないときに容量指定に基づく割当であると判定する。容量指定に基づく割当であるか否かは、ポリシー管理部41が階層化ポリシー作成時にポリシー管理テーブル42に登録する。
第2割当部48cは、ボリューム単位に比率指定に基づく割当を行う。具体的には、第2割当部48cは、指定されたボリュームに対して指定された比率及びアクセス頻度に基づいて、ブロックを低性能サブプール、中性能サブプール、高性能サブプールに割当を行う。図10は、比率指定に基づく割当を説明するための図である。図10に示すように、10個のブロック#01〜ブロック#10を有するボリューム#1に対して低割当率20%、中割当率50%、高割当率30%が指定されると、低性能サブプールには、アクセス頻度が最も低い方からブロック#01及び#09が割り当てられる。また、中性能サブプールには、次にアクセス頻度の低い5つのブロック#03、#04、#06、#08及び#10が割り当てられ、高性能サブプールには、最もアクセス頻度の高い3つのブロック#02、#05及び#07が割り当てられる。第2割当部48cが、ボリューム単位に比率指定に基づく割当を行うことによって、管理者は、ボリューム毎にサブプールを使い分けることができ、業務に適したティアプールを作成することができる。なお、ポリシー判定部48aは、ボリューム管理テーブル46が記憶するボリューム情報に比率指定があるときに比率指定に基づく割当であると判定する。
第3割当部48dは、IOPS値指定に基づく割当を行う。すなわち、第3割当部48dは、従来と同様に、階層化ポリシーで指定されたIOPS値に基づいて、ブロックをサブプールに割り当てる。
なお、サブプールが1つだけ指定された場合には、再配置は行われない。管理者は、1つのサブプールに全てのブロックを割り当てることによって、AST運用を行った場合と比較するための情報を得ることができる。
再配置特定部49は、アクセスリスト55から再配置元と再配置先が異なるブロックを取り出して再配置リストを作成する。図11は、再配置リストの一例を示す図である。図11に示すように、再配置リスト56は、再配置の対象となるブロック毎に、ブロック番号と再配置元と再配置先を対応付けたリストである。例えば、ブロック番号「9」のブロックは再配置対象であり、高性能サブプールから中性能サブプールに再配置される。
再配置リスト56に登録されるブロックの個数は64個である。再配置特定部49は、再配置リスト56に登録されたブロックの数が64になると、再配置指示部50に再配置を要求し、再配置リスト56をクリアする。そして、再配置特定部49は、アクセスリスト55から再配置元と再配置先が異なるブロックがなくなるまで、再配置リスト56の作成、再配置の要求、再配置リスト56のクリアを繰り返す。
また、再配置特定部49は、アクセスリスト55において、隣接するサブプールの容量の5%に含まれるブロックについては隣接するサブプールへの再配置の対象としない。図12は、再配置の対象とならないブロックを説明するための図である。図12は、中性能サブプールの容量が130GBであり、高性能サブプールに再配置されるブロックのうち中性能サブプールに隣接するブロック番号が「101」、「105」、「103」、「107」及び「110」である5個のブロックを示している。ここで、5個のブロックは、隣接する中性能サブプールの容量130GBの5%すなわち6.5GBに含まれるブロックである。
図12において、ブロック番号が「105」であるブロックは、中性能サブプールの容量の5%に含まれるブロックであるので、中性能サブプールから高性能サブプールへの再配置の対象とならない。一方、ブロック番号が「110」であるブロックは、中性能サブプールの容量の5%に含まれるブロックであるが、低性能サブプールから高性能サブプールへの再配置であるので、再配置の対象となる。
このように、再配置特定部49は、アクセスリスト55において、隣接するサブプールの容量の5%に含まれるブロックについては隣接するサブプールへの再配置の対象としない。したがって、ストレージ装置2は、隣接するサブプールに記憶されるブロックとIOPS数にあまり差がないブロックを隣接するサブプールに移動するような、効果の少ない再配置の実行を防ぐことができる。なお、ここでは、5%を用いたが、再配置特定部49は、任意の割合を5%の代わりに用いることができる。
再配置指示部50は、再配置特定部49からの要求に基づいて自動階層制御部32に再配置リスト56に登録されているブロックの再配置を指示する。また、再配置指示部50は、自動階層制御部32から再配置に関する情報を受け取り、操作端末4に再配置に関する情報を表示するように指示する。
再配置確認部51は、操作端末4からの指示に基づいて、自動階層制御部32に再配置の進捗情報の取得を指示し、進捗情報を受け取ると、端末装置に進捗情報を送信し、再配置結果として表示するように指示する。
通信部52は、自動階層制御部32と通信を行い、装置間通信部53は、操作端末4及びストレージ装置2とLAN5を介して通信を行う。
次に、自動階層制御部32の機能構成について説明する。図13は、自動階層制御部32の機能構成を示す図である。図13に示すように、自動階層制御部32は、割当状態確認部61と、プール作成依頼部62と、ボリューム作成依頼部63と、開始通知部64と、性能情報取得部65と、再配置依頼部66と、進捗情報取得部67とを有する。また、自動階層制御部32は、通信部68と、装置間通信部69とを有する。
割当状態確認部61は、プール管理部43からの指示に基づいて、ディスク6の割当状態をストレージ装置2に確認し、ディスク6の割当状態に関する情報をプール管理部43に応答する。
プール作成依頼部62は、プール管理部43からの指示に基づいて、ストレージ装置2にティアプールの作成を依頼し、作成されたティアプールに関する情報をプール管理部43に応答する。
ボリューム作成依頼部63は、ボリューム管理部45からの指示に基づいて、ストレージ装置2にボリュームの作成を依頼し、作成されたボリュームに関する情報をボリューム管理部45に応答する。
開始通知部64は、操作端末4からの階層制御の開始指示を受け付けて、ストレージ装置2に階層制御の開始を通知する。性能情報取得部65は、例えば、5分間隔でストレージ装置2に性能情報の取得を要求し、ストレージ装置2から性能情報を取得する。また、性能情報取得部65は、取得した性能情報を性能情報記憶部33に保存する。性能情報記憶部33は、階層化ポリシーで指定された評価期間内の性能情報を蓄積する。評価期間は、例えば、1時間、1日などである。なお、1階層のティアプールについては、性能情報取得部65は、自動的に性能情報の取得を行い、性能情報記憶部33は、最大7日分の性能情報を保持する。
再配置依頼部66は、再配置指示部50からの再配置指示に基づいて、ストレージ装置2に再配置を依頼し、再配置先のRAIDグループなどの情報をストレージ装置2から受け取って再配置指示部50に応答する。
進捗情報取得部67は、再配置確認部51からの進捗確認指示に基づいて、ストレージ装置2に再配置の進捗情報の送信を依頼し、ストレージ装置2から送信された進捗情報を再配置確認部51に応答する。
通信部68は、ストレージ管理部31と通信を行い、装置間通信部69は、ストレージ装置2及び操作端末4とLAN5を介して通信を行う。
次に、CM21の機能構成について説明する。図14は、CM21の機能構成を示す図である。図14に示すように、CM21は、ディスク情報応答部81と、プール作成部82と、ボリューム作成部83と、性能情報収集部84と、再配置部85と、装置間通信部86とを有する。
ディスク情報応答部81は、割当状態確認部61からのディスク割当状態の確認指示に基づいて、ディスクの割当情報を割当状態確認部61に応答する。
プール作成部82は、プール作成依頼部62からのティアプール作成依頼に基づいて、ティアプールを作成し、作成したティアプールに関する情報をプール作成依頼部62に応答する。
ボリューム作成部83は、ボリューム作成依頼部63からのボリューム作成依頼に基づいて、ボリュームを作成し、作成したボリュームに関する情報をボリューム作成依頼部63に応答する。
性能情報収集部84は、性能情報取得部65からの性能情報の取得依頼に基づいて、性能情報を収集し、収集した情報を性能情報取得部65に応答する。性能情報には、ブロック毎のIOPS値が含まれる。
再配置部85は、再配置依頼部66からの再配置依頼に基づいて、再配置リスト56で指定されたブロックを再配置し、再配置対象の情報を再配置依頼部66に応答する。再配置部85は、ブロックをサブプール間で移動する際に、移動先のディスク領域をボリュームを担当するCM21と同じCM21が担当するRAIDグループから確保する。
図15は、担当CM21を説明するための図である。図15に示すように、CM#0は、ボリュームについてはボリューム#0〜#3を担当し、RAIDグループについては低性能サブプールに含まれるRAIDグループ#0と中性能サブプールに含まれるRAID#2を担当する。CM#1は、ボリュームについてはボリューム#4〜#7を担当し、RAIDグループについては低性能サブプールに含まれるRAIDグループ#1と中性能サブプールに含まれるRAIDグループ#3を担当する。
したがって、図15に示すCM担当で、例えば、ボリューム#0のブロックを低性能サブプールに再配置する場合、再配置部85は、ボリューム#0を担当するCM#0が担当するRAIDグループ#0からディスク領域を取得してブロックを再配置する。
このように、再配置部85が、移動先のディスク領域をボリュームを担当するCM21と同じCM21が担当するRAIDグループから確保することで、担当CM21が異なることに起因するIO性能の劣化を抑えることができる。
装置間通信部86は、運用管理装置3との間でLAN5を介して通信を行う。例えば、装置間通信部86は、運用管理装置3からの指示を受信し、指示に対する応答を運用管理装置3に送信する。
次に、ストレージシステム1の処理フローについて説明する。図16は、ストレージシステム1の処理フローを示すフローチャートである。図16に示すように、まず、ストレージシステム1は、管理者からの指示に基づいて階層化ポリシーを作成し、ポリシー管理テーブル42に登録する(ステップS91)。
そして、ストレージシステム1は、管理者からの指示に基づいてティアプールを作成し、プール管理テーブル44に登録する(ステップS92)。そして、ストレージシステム1は、管理者からの指示に基づいてボリュームを作成し、ボリューム管理テーブル46に登録する(ステップS93)。
その後、サーバ7で動作する業務ソフトウェアがボリュームを使用して業務処理を開始する。そして、ストレージシステム1は、管理者からの指示に基づいて階層制御を開始し、性能情報を収集する(ステップS94)。
そして、ストレージシステム1は、ボリュームの情報、階層化ポリシー及び性能情報に基づいてブロックの再配置を実行する(ステップS95)。なお、ステップS94及びステップS95の処理は、業務処理中に、階層化ポリシーに基づいて実行される。そして、ストレージシステム1は、管理者から要求されると、再配置の進捗状況を確認して、再配置結果を表示する(ステップS96)。
このように、ボリューム情報、階層化ポリシー及び性能情報に基づいてブロックの再配置を実行することによって、ストレージシステム1は、IO性能を向上することができる。
次に、ポリシー登録処理のフローについて説明する。図17は、ポリシー登録処理のフローを示すフローチャートである。なお、図17の処理は、図16に示したステップS91の処理に対応する。
図17に示すように、操作端末4が管理者の指示に基づいて階層化ポリシーの作成を運用管理装置3に指示する(ステップS1)。すると、ストレージ管理部31は、管理者が指定したポリシー指定値を確認し(ステップS2)、ポリシー指定値をポリシー管理テーブル42に登録して保存する(ステップS3)。なお、ポリシー指定値には、容量指定に基づく割当であるか否かを示す情報が含まれる。そして、ストレージ管理部31は、操作端末4に登録した階層化ポリシーの情報を表示するように指示し、操作端末4が、階層化ポリシーの情報を表示する(ステップS4)。
このように、管理者は階層化ポリシーを指定することで、ストレージシステム1を効率よく利用することができる。
次に、ティアプール登録処理のフローについて説明する。図18は、ティアプール登録処理のフローを示すフローチャートである。なお、図18の処理は、図16に示したステップS92の処理に対応する。
図18に示すように、操作端末4が管理者の指示に基づいてティアプールの作成を運用管理装置3に指示する(ステップS5)。すると、ストレージ管理部31は、管理者が指示した内容を確認する(ステップS6)。管理者は、複数のティアから構成されるティアプールに加えて1つのティアから構成されるティアプールを指定することができる。
そして、ストレージ管理部31は、担当CM21が指定されているか否かを判定する(ステップS7)。その結果、担当CM21が指定されている場合には、ストレージ管理部31は、指定された担当CM21を指示情報に設定する(ステップS8)。一方、担当CM21が指定されていない場合には、ストレージ管理部31は、担当CM21は自動選択であることを示す「Auto」を指示情報に設定する(ステップS9)。
そして、ストレージ管理部31は、ディスク指定か否かを判定し(ステップS10)、ディスク指定でない場合には、ディスク自動選択を指示情報に設定する(ステップS11)。そして、ストレージ管理部31は、指示情報とともにティアプール作成指示を自動階層制御部32に送信する(ステップS12)。
一方、ディスク指定の場合には、ストレージ管理部31は、空きディスクの確認指示を自動階層制御部32に送信し(ステップS13)、自動階層制御部32は、ディスク割当状態の確認をストレージ装置2に指示する(ステップS14)。そして、ストレージ装置2がディスク割当状態についてのディスク情報を返信し(ステップS15)、自動階層制御部32は、ディスク情報をストレージ管理部31に送信する。そして、ストレージ管理部31は、ディスク指定の確認を行って(ステップS16)、選択の対象ディスクの情報を表示するように操作端末4に指示する。そして、操作端末4が対象ディスクの情報を表示し、管理者にディスクを選択させる(ステップS17)。そして、ストレージ管理部31は、選択された対象ディスクを指定して(ステップS18)、指示情報とともにティアプール作成指示を自動階層制御部32に送信する(ステップS19)。
指示情報とともにティアプール作成指示を受信すると、自動階層制御部32は、ティアプールの作成をストレージ装置2に依頼し(ステップS20)、ストレージ装置2がティアプールを作成する(ステップS21)。そして、ストレージ装置2は、作成したティアプールの情報を自動階層制御部32に送信し、自動階層制御部32は、ティアプールの情報をストレージ管理部31に送信する。そして、ストレージ管理部31は、ティアプールの情報を用いてティアプールをプール管理テーブル44に登録して保存し(ステップS22)、操作端末4にティアプールの情報を表示するように指示する。そして、操作端末4が、ティアプールの情報を表示する(ステップS23)。
このように、ディスク指定でない場合に、ストレージ管理部31が、ディスク自動選択を指示情報に設定し、指示情報とともにティアプール作成を指示することによって、管理者は、簡単にティアプールを作成することができる。
次に、ボリューム作成処理のフローについて説明する。図19は、ボリューム作成処理のフローを示すフローチャートである。なお、図19の処理は、図16に示したステップS93の処理に対応する。
図19に示すように、操作端末4が管理者の指示に基づいてボリュームの作成を運用管理装置3に指示する(ステップS24)。すると、ストレージ管理部31は、管理者が指示した内容を確認し(ステップS25)、指示内容で指定された対象ティアプールの情報をプール管理テーブル44から取得する(ステップS26)。なお、管理者が指定する内容にはサブプールの割当比率が含まれる場合がある。そして、ストレージ管理部31は、対象ティアプールの情報とともにボリューム作成指示を自動階層制御部32に送信し、自動階層制御部32は、ボリューム作成をストレージ装置2に依頼する(ステップS27)。
そして、ストレージ装置2は、ボリュームを作成し(ステップS28)、作成したボリュームの情報を自動階層制御部32に送信し、自動階層制御部32は、ボリュームの情報をストレージ管理部31に送信する。
そして、ストレージ管理部31は、ボリューム管理テーブル46にボリュームの情報を登録して保存し(ステップS29)、操作端末4にボリュームの情報を表示するように指示する。そして、操作端末4が、ボリュームの情報を表示する(ステップS30)。
このように、ストレージ管理部31は、対象ティアプールの情報をプール管理テーブル44から取得して、対象ティアプールの情報とともにボリュームの作成を指示することによって、階層化ポリシーに基づくボリュームを作成することができる。
次に、性能情報収集処理のフローについて説明する。図20は、性能情報収集処理のフローを示すフローチャートである。なお、図20の処理は、図16に示したステップS94の処理に対応する。
図20に示すように、操作端末4が管理者の指示に基づいて階層制御の開始を運用管理装置3に指示する(ステップS31)。すると、自動階層制御部32は、階層制御の開始をストレージ装置2に通知する(ステップS32)。すると、ストレージ装置2は、性能情報の収集を開始する(ステップS33)。
そして、自動階層制御部32は、性能情報の取得をストレージ装置2に要求し(ステップS34)、ストレージ装置2は、収集した性能情報を返信する(ステップS35)。そして、自動階層制御部32は、性能情報を性能情報記憶部33に保存する(ステップS36)。なお、ステップS34〜ステップS36の処理は、例えば、5分間隔で定期的に実行される。
このように、自動階層制御部32が、ストレージ装置2から受信した性能情報を性能情報記憶部33に保存することによって、ストレージ管理部31は、性能情報記憶部33を参照してブロックを各サブプールに割り当てることができる。
次に、再配置処理のフローについて説明する。図21は、再配置処理のフローを示すフローチャートである。なお、図21の処理は、図16に示したステップS95の処理に対応する。
図21に示すように、ストレージ管理部31は、性能情報記憶部33を参照し(ステップS37)、階層化ポリシーに従って性能情報を評価する(ステップS38)。そして、ストレージ管理部31は、比率指定に基づく割当か否かを判定する(ステップS39)。その結果、比率指定に基づく割当の場合には、ストレージ管理部31は、比率が指定されたボリュームの性能情報のみを性能情報記憶部33から抽出してIOPS値でソートし、アクセスリスト55を作成する(ステップS40)。そして、ストレージ管理部31は、各サブプールの空き容量を確認し、配置可能なブロック数を算出する(ステップS41)。そして、ストレージ管理部31は、指定された比率に応じて再配置対象のブロックを特定し(ステップS42)、ステップS48に進む。
一方、比率指定に基づく割当でない場合には、ストレージ管理部31は、性能情報記憶部33を参照し、ティアプール内のブロックをIOPS値でソートし、アクセスリスト55を作成する(ステップS43)。そして、ストレージ管理部31は、容量指定に基づく割当であるか否かを判定し(ステップS44)、容量指定に基づく割当である場合には、各サブプールの空き容量を規準に、配置可能ブロック数を算出し(ステップS45)、ステップS48へ進む。一方、容量指定に基づく割当でない場合には、ストレージ管理部31は、IOPS値を規準に、再配置対象のブロックを特定し(ステップS46)、対象のブロックが再配置可能か空き容量を確認する(ステップS47)。
そして、ストレージ管理部31は、再配置対象のブロックと配置先のサブプールの情報を決定し(ステップS48)、決定した情報に基づいて、再配置の対象を決定する(ステップS49)。そして、ストレージ管理部31は、再配置リスト56を作成し(ステップS50)、自動階層制御部32に再配置を指示する。そして、自動階層制御部32がストレージ装置2に再配置を依頼する(ステップS51)。
そして、ストレージ装置2のCM21は、再配置を行うボリュームの担当CM21を確認し(ステップS52)、再配置先のサブプールを確認する(ステップS53)。そして、ストレージ装置2は、ボリュームの担当CM21と同一の担当CM21のRAIDグループがサブプールにあるか否かを判定する(ステップS54)。
その結果、同一の担当CM21のRAIDグループがサブプールにない場合には、ストレージ装置2は、サブプール内で最も割当量の少ないRAIDグループを検索し(ステップS55)、ステップS58に進む。一方、同一の担当CM21のRAIDグループがサブプールにある場合には、ストレージ装置2は、同一の担当CM21のRAIDグループを抽出し(ステップS56)、抽出したRAIDグループで、最も割当量の少ないRAIDグループを検索する(ステップS57)。
そして、ストレージ装置2は、検索したRAIDグループを移動先RAIDグループとして決定し(ステップS58)、運用管理装置3に移動先RAIDグループの情報を送信し、決定したRAIDグループにデータを移動する(ステップS59)。
一方、ストレージ管理部31は、再配置の対象情報を操作端末4に通知し(ステップS60)、操作端末4は、再配置対象の情報を表示する(ステップS61)。なお、再配置されるブロックの数が64個を超える場合には、64個のブロック毎にステップS50〜ステップS61の処理が繰り返される。また、階層化ポリシーの指定に基づいて再配置処理が繰り返される。
このように、階層化ポリシーに基づいて再配置の対象を決定することにより、ストレージシステム1は、管理者のポリシーに基づいてブロックの再配置を制御することができる。
次に、再配置結果表示処理のフローについて説明する。図22は、再配置結果表示処理のフローを示すフローチャートである。なお、図22の処理は、図16に示したステップS96の処理に対応する。
図22に示すように、操作端末4が管理者の指示に基づいて再配置結果の表示を運用管理装置3に指示する(ステップS62)。すると、ストレージ管理部31は、再配置の進捗状況の確認を自動階層制御部32に指示する(ステップS63)。
すると、自動階層制御部32が、再配置の情報取得をストレージ装置2に依頼し(ステップS64)、ストレージ装置2が、再配置の進捗情報を運用管理装置3に返信する(ステップS65)。すると、ストレージ管理部31は、操作端末4に再配置の状況を通知し(ステップS66)、操作端末4が、再配置結果を表示する(ステップS67)。
このように、操作端末4が、再配置結果を表示することによって、管理者は、階層化ポリシーやボリューム情報に基づく再配置を評価することができる。
上述してきたように、実施例では、ポリシー判定部48aが、ポリシー管理テーブル42が記憶する階層化ポリシーの情報及びボリューム管理テーブル46が記憶するボリュームの情報に基づいてブロックの割当方法を判定する。そして、ポリシー判定部48aの判定に基づいて、第1割当部48bは容量指定に基づく割当を行う。したがって、ストレージシステム1は、性能の異なる複数のストレージのうち高性能なストレージを有効に利用することができる。また、ポリシー判定部48aの判定に基づいて、第2割当部48cは、ボリューム単位に比率指定に基づく割当を行う。したがって、管理者は、ボリューム毎にサブプールを使い分けることができ、業務に適したティアプールを作成することができる。
また、実施例では、プール管理部43は、管理者からの指定に基づいて、1つのサブプールから構成されるティアプールを作成し、プール管理テーブル44に登録する。そして、性能情報取得部65は、1つのサブプールから構成されるティアプールについては、自動的に性能情報を取得する。したがって、管理者は、AST運用を行った場合と比較するための情報を得ることができる。
また、実施例では、CM21は、再配置を行うボリュームの担当CM21と同一の担当CM21のRAIDグループから再配置先のRAIDグループを決定する。したがって、ボリュームの担当CM21とRAIDグループの担当のCM21が異なることに起因するIO性能の劣化を抑えることができる。
また、実施例では、プール管理部43は、ティアプールを作成する際、ディスク6が指定されていない場合には、管理者により指定された容量でティアプールを作成するようにストレージ装置2に指示する。したがって、管理者は、ディスク6の搭載状況を把握することなく、簡単にティアプールを作成することができる。
また、実施例では、再配置特定部49は、アクセスリスト55において、隣接するサブプールの容量の5%に含まれるブロックについては隣接するサブプールへの再配置の対象としない。したがって、ストレージ装置2は、隣接するサブプールに記憶されるブロックとIOPS数にあまり差がないブロックを隣接するサブプールに移動するような、効果の少ない再配置の実行を防ぐことができる。
なお、実施例では、運用管理装置について説明したが、運用管理装置が有する構成をソフトウェアによって実現することで、同様の機能を有する運用管理プログラムを得ることができる。そこで、運用管理プログラムを実行するコンピュータについて説明する。
図23は、運用管理プログラムを実行するコンピュータのハードウェア構成を示す図である。図23に示すように、コンピュータ200は、メインメモリ210と、CPU(Central Processing Unit)220と、LAN(Local Area Network)インタフェース230と、HDD(Hard Disk Drive)240とを有する。また、コンピュータ200は、スーパーIO(Input Output)250と、DVI(Digital Visual Interface)260と、ODD(Optical Disk Drive)270とを有する。
メインメモリ210は、プログラムやプログラムの実行途中結果などを記憶するメモリである。CPU220は、メインメモリ210からプログラムを読み出して実行する中央処理装置である。CPU220は、メモリコントローラを有するチップセットを含む。
LANインタフェース230は、コンピュータ200をLAN経由で他のコンピュータに接続するためのインタフェースである。HDD240は、プログラムやデータを格納するディスク装置であり、スーパーIO250は、マウスやキーボードなどの入力装置を接続するためのインタフェースである。DVI260は、液晶表示装置を接続するインタフェースであり、ODD270は、DVDの読み書きを行う装置である。
LANインタフェース230は、PCIエクスプレスによりCPU220に接続され、HDD240及びODD270は、SATA(Serial Advanced Technology Attachment)によりCPU220に接続される。スーパーIO250は、LPC(Low Pin Count)によりCPU220に接続される。
そして、コンピュータ200において実行される運用管理プログラムは、DVDに記憶され、ODD270によってDVDから読み出されてコンピュータ200にインストールされる。あるいは、運用管理プログラムは、LANインタフェース230を介して接続された他のコンピュータシステムのデータベースなどに記憶され、これらのデータベースから読み出されてコンピュータ200にインストールされる。そして、インストールされた運用管理プログラムは、HDD240に記憶され、メインメモリ210に読み出されてCPU220によって実行される。
次に、CM21のハードウェア構成について説明する。図24は、CM21のハードウェア構成を示す図である。図24に示すように、CM21は、CPU21aと、RAM21bと、フラッシュメモリ21cとを有する。
CPU21aは、フラッシュメモリ21cからプログラムを読み出して実行する処理装置である。RAM(Random Access Memory)21bは、データを記憶する揮発性のメモリである。フラッシュメモリ21cは、図14に示したCM21の機能を実現するためのプログラムを記憶したメモリである。
なお、実施例では、ストレージ装置2と運用管理装置3とを有するストレージシステム1について説明したが、本発明はこれに限定されるものではなく、運用管理装置3の機能をストレージ装置が有するストレージシステムにも同様に適用することができる。
また、実施例では、ティアプールが3つのサブプールを有する場合について説明したが、本発明はこれに限定されるものではなく、3より大きな任意の個数のサブプールを有するティアプールにも同様に適用することができる。
また、実施例では、HDD及びSSDをディスクとして用いる場合について説明したが、本発明はこれに限定されるものではなく、他の記憶装置をディスクとして用いる場合にも同様に適用することができる。
1 ストレージシステム
2 ストレージ装置
3 運用管理装置
4 操作端末
5 LAN
6 ディスク
7 サーバ
21 CM
21a CPU
21b RAM
21c フラッシュメモリ
22 DE
31 ストレージ管理部
32 自動階層制御部
33 性能情報記憶部
34 評価結果記憶部
41 ポリシー管理部
42 ポリシー管理テーブル
43 プール管理部
44 プール管理テーブル
45 ボリューム管理部
46 ボリューム管理テーブル
47 解析部
48 割当部
48a ポリシー判定部
48b 第1割当部
48c 第2割当部
48d 第3割当部
49 再配置特定部
50 再配置指示部
51 再配置確認部
52 通信部
53 装置間通信部
55 アクセスリスト
56 再配置リスト
61 割当状態確認部
62 プール作成依頼部
63 ボリューム作成依頼部
64 開始通知部
65 性能情報取得部
66 再配置依頼部
67 進捗情報取得部
68 通信部
69 装置間通信部
81 ディスク情報応答部
82 プール作成部
83 ボリューム作成部
84 性能情報収集部
85 再配置部
86 装置間通信部
200 コンピュータ
210 メインメモリ
220 CPU
230 LANインタフェース
240 HDD
250 スーパーIO
260 DVI
270 ODD

Claims (7)

  1. 性能の異なる複数のストレージのうち性能の高いストレージを優先させてアクセス頻度の高いデータから順にストレージを割り当てる割当部と、
    前記割当部によりストレージが割り当てられたデータのうち、現在記憶されているストレージと異なるストレージが割り当てられたデータを再配置の対象として特定する特定部と、
    前記特定部により再配置の対象として特定されたデータの再配置を行う複数の制御部とを有し、
    性能が同じストレージは複数のグループにグループ化され、
    所定の大きさの記憶単位のデータ及びグループには前記複数の制御部のうち1つの制御部が割り当てられ、
    各制御部は、データの再配置を行う際に、該データを含む前記所定の大きさの記憶単位のデータに割り当てられた制御部と同じ制御部が割り当てられたグループに属するストレージをデータの移動先のストレージとすることを特徴とするストレージシステム。
  2. 前記割当部は、割合に関する設定がされている場合に、前記所定の大きさの記憶単位のデータが前記複数のストレージに記憶される割合に基づいて該所定の大きさの記憶単位のデータについてアクセス頻度の高いデータから順に性能の高いストレージに割り当てることを特徴とする請求項1に記載のストレージシステム。
  3. 前記割当部は、性能が同じであるストレージだけを使用する設定がされている場合に、性能が同じであるストレージだけにデータを割り当てることを特徴とする請求項1に記載のストレージシステム。
  4. 記憶領域の自動確保の設定がされている場合に、ストレージを選択し、選択したストレージを用いて前記記憶領域の作成を前記制御部に指示する作成指示部とをさらに有することを特徴とする請求項1に記載のストレージシステム。
  5. 前記特定部は、再配置の対象として特定したデータのうち、隣接する性能のストレージに記憶されるデータのうちアクセス頻度が最も近いデータからアクセス頻度が近い順に所定の割合のデータを再配置の対象から除外することを特徴とする請求項1に記載のストレージシステム。
  6. 性能の異なる複数のストレージのうち性能の高いストレージを優先させてアクセス頻度の高いデータから順にストレージを割り当て、
    ストレージが割り当てられたデータのうち、現在記憶されているストレージと異なるストレージが割り当てられたデータを再配置の対象として特定し、
    再配置の対象として特定したデータの再配置をストレージを制御する制御装置に指示する処理をコンピュータに実行させ
    前記制御装置は複数あり、
    性能が同じストレージは複数のグループにグループ化され、
    所定の大きさの記憶単位のデータ及びグループには前記複数の制御装置のうち1つの制御装置が割り当てられ、
    各制御装置は、データの再配置を行う際に、該データを含む前記所定の大きさの記憶単位のデータに割り当てられた制御装置と同じ制御装置が割り当てられたグループに属するストレージをデータの移動先のストレージとすることを特徴とする運用管理プログラム。
  7. 性能の異なる複数のストレージのうち性能の高いストレージを優先させてアクセス頻度の高いデータから順にストレージを割り当て、
    ストレージが割り当てられたデータのうち、現在記憶されているストレージと異なるストレージが割り当てられたデータを再配置の対象として特定し、
    再配置の対象として特定したデータの再配置をストレージを制御する制御装置に指示する処理をコンピュータが実行し、
    前記制御装置は複数あり、
    性能が同じストレージは複数のグループにグループ化され、
    所定の大きさの記憶単位のデータ及びグループには前記複数の制御装置のうち1つの制御装置が割り当てられ、
    各制御装置は、データの再配置を行う際に、該データを含む前記所定の大きさの記憶単位のデータに割り当てられた制御装置と同じ制御装置が割り当てられたグループに属するストレージをデータの移動先のストレージとすることを特徴とする運用管理方法。
JP2013124158A 2013-06-12 2013-06-12 ストレージシステム、運用管理方法及び運用管理プログラム Expired - Fee Related JP6142685B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013124158A JP6142685B2 (ja) 2013-06-12 2013-06-12 ストレージシステム、運用管理方法及び運用管理プログラム
US14/279,380 US20140372720A1 (en) 2013-06-12 2014-05-16 Storage system and operation management method of storage system
EP14169082.6A EP2813941A3 (en) 2013-06-12 2014-05-20 Storage system and operation management method of storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013124158A JP6142685B2 (ja) 2013-06-12 2013-06-12 ストレージシステム、運用管理方法及び運用管理プログラム

Publications (2)

Publication Number Publication Date
JP2014241117A JP2014241117A (ja) 2014-12-25
JP6142685B2 true JP6142685B2 (ja) 2017-06-07

Family

ID=50735945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013124158A Expired - Fee Related JP6142685B2 (ja) 2013-06-12 2013-06-12 ストレージシステム、運用管理方法及び運用管理プログラム

Country Status (3)

Country Link
US (1) US20140372720A1 (ja)
EP (1) EP2813941A3 (ja)
JP (1) JP6142685B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619154B2 (en) * 2013-01-18 2017-04-11 Hitachi, Ltd. Computer system, data management method, and host computer
JP6560759B2 (ja) * 2015-10-08 2019-08-14 株式会社日立製作所 ストレージシステム
WO2017085792A1 (ja) * 2015-11-17 2017-05-26 株式会社日立製作所 ストレージシステム、及びストレージシステムの制御方法
JP2018197933A (ja) * 2017-05-23 2018-12-13 富士通株式会社 ストレージ制御装置、情報処理システムおよびプログラム
US10311912B1 (en) * 2018-01-30 2019-06-04 EMC IP Holding Company, LLC Simulating aged storage systems
US11641665B2 (en) 2020-09-09 2023-05-02 Self Financial, Inc. Resource utilization retrieval and modification
US20220075877A1 (en) 2020-09-09 2022-03-10 Self Financial, Inc. Interface and system for updating isolated repositories

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0348321A (ja) 1989-07-14 1991-03-01 Hitachi Ltd 記憶方式、および、記憶装置
JP3726484B2 (ja) * 1998-04-10 2005-12-14 株式会社日立製作所 記憶サブシステム
JP4972845B2 (ja) 2001-09-27 2012-07-11 富士通株式会社 ストレージシステム
US7849263B1 (en) * 2007-12-24 2010-12-07 Emc Corporation Techniques for controlling storage capacity of a data storage system
US8375180B2 (en) * 2010-02-05 2013-02-12 International Business Machines Corporation Storage application performance matching
US8677093B2 (en) * 2010-04-19 2014-03-18 Hitachi, Ltd. Method and apparatus to manage tier information
JP5632082B2 (ja) * 2011-02-02 2014-11-26 株式会社日立製作所 ストレージ装置及びデータ管理方法
US8578096B2 (en) * 2011-04-08 2013-11-05 Symantec Corporation Policy for storing data objects in a multi-tier storage system
WO2013018132A1 (en) * 2011-08-01 2013-02-07 Hitachi, Ltd. Computer system with thin-provisioning and data management method thereof for dynamic tiering
WO2013018130A1 (en) * 2011-08-01 2013-02-07 Hitachi, Ltd. Data storage control apparatus and method
US8954671B2 (en) * 2011-10-28 2015-02-10 Hitachi, Ltd. Tiered storage device providing for migration of prioritized application specific data responsive to frequently referenced data

Also Published As

Publication number Publication date
EP2813941A2 (en) 2014-12-17
EP2813941A3 (en) 2015-06-10
US20140372720A1 (en) 2014-12-18
JP2014241117A (ja) 2014-12-25

Similar Documents

Publication Publication Date Title
JP6142685B2 (ja) ストレージシステム、運用管理方法及び運用管理プログラム
US11086523B2 (en) Automatic tiering of storage using dynamic grouping
US9274941B1 (en) Facilitating data migration between tiers
US9311013B2 (en) Storage system and storage area allocation method having an automatic tier location function
JP5668151B2 (ja) 計算機システムの管理装置及び管理方法
JP5685676B2 (ja) 計算機システム及びデータ管理方法
US10353616B1 (en) Managing data relocation in storage systems
JP5706531B2 (ja) 計算機システム、及び情報管理方法
JP2007058637A (ja) ストレージシステム、管理計算機及びデータ移動方法
US9823875B2 (en) Transparent hybrid data storage
US20100125715A1 (en) Storage System and Operation Method Thereof
US9619169B1 (en) Managing data activity information for data migration in data storage systems
JPWO2016163016A1 (ja) ストレージシステム及びデータ制御方法
JP2016118821A (ja) ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム
US11461287B2 (en) Managing a file system within multiple LUNS while different LUN level policies are applied to the LUNS
US7836145B2 (en) Computer system, management method, and management computer for managing data archiving storage extents based on server performance management information and storage utilization information
US20180341423A1 (en) Storage control device and information processing system
US8261038B2 (en) Method and system for allocating storage space
US9317224B1 (en) Quantifying utilization of a data storage system by a virtual storage unit
WO2015107626A1 (ja) 計算機システムおよびその階層記憶の制御方法
US20160364400A1 (en) Management server which outputs file relocation policy, and storage system
US20140058717A1 (en) Simulation system for simulating i/o performance of volume and simulation method
Dell
US20190339898A1 (en) Method, system and computer program product for managing data storage in data storage systems
JP6555290B2 (ja) ストレージ装置、ストレージ管理方法及びストレージ管理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6142685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees