JP2012003694A - ストレージ制御装置、ストレージ制御方法、ストレージシステム - Google Patents

ストレージ制御装置、ストレージ制御方法、ストレージシステム Download PDF

Info

Publication number
JP2012003694A
JP2012003694A JP2010140601A JP2010140601A JP2012003694A JP 2012003694 A JP2012003694 A JP 2012003694A JP 2010140601 A JP2010140601 A JP 2010140601A JP 2010140601 A JP2010140601 A JP 2010140601A JP 2012003694 A JP2012003694 A JP 2012003694A
Authority
JP
Japan
Prior art keywords
access
volume
logical
raid
pool volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010140601A
Other languages
English (en)
Other versions
JP5585235B2 (ja
Inventor
Tadashi Matsumura
忠 松村
Masahiro Yoshida
雅裕 吉田
Kenji Uchiyama
賢治 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010140601A priority Critical patent/JP5585235B2/ja
Priority to US13/159,853 priority patent/US8918620B2/en
Publication of JP2012003694A publication Critical patent/JP2012003694A/ja
Application granted granted Critical
Publication of JP5585235B2 publication Critical patent/JP5585235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0625Power saving in storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/88Monitoring involving counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/062Securing storage systems
    • G06F3/0622Securing storage systems in relation to access
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】低消費電力で、仮想的ボリュームを設定した複数の記憶装置を駆動させるストレージ制御装置を提供する。
【解決手段】各々が複数の記憶装置を有する複数のRAID装置に複数の論理ボリュームを設定し、その少なくとも一つを仮想ボリュームとして割り当てると共に、記憶されたデータの容量に応じて、未割当ての論理ボリュームを仮想ボリュームに追加して割り当てる仮想ボリューム制御部と、仮想ボリューム−論理ボリューム間のアクセス変換情報を格納する記憶部と、アクセス変換情報に基づき仮想ボリュームへのアクセスを変換するアクセス制御部と、論理ボリュームの各々へのアクセス頻度を監視するアクセス監視部と、アクセス頻度に応じて決定された論理ボリュームのデータを他のRAID装置に移動する移動制御部と、データ移動先の論理ボリュームへのアクセスのためにアクセス変換情報を更新するアクセス変換情報更新部とを有するストレージ制御装置。
【選択図】図1

Description

本発明は、ストレージ制御装置及びストレージ制御方法に関するものである。
ストレージ装置の制御方法として、例えば、MAID(Massive Array of Idle Disks)技術がある。MAID技術は、RAID(Redundant Arrays of Inexpensive Disks)装置(RAIDグループ)において、アクセスがないストレージ装置のディスクをアイドル状態に遷移させることで、ストレージ装置の消費電力を抑制する技術である。このMAID技術を使用して、RAIDグループ単位にディスクモータを制御する方式がある。RAIDグループ内のディスクのモータオフ時間が長くなるほど、ストレージ装置の消費電力量は減る。そこで、例えば、同一ホスト又はサーバが、一つのRAIDグループ内の論理ボリュームにアクセスし、他のRAIDグループ内のディスクのモータをオフとするように運用することが開示されている。また、例えば、一つのRAIDグループ内のボリュームが複数のサーバで用いられる場合、各サーバは、同じような時間帯にそのRAIDグループ内の論理ボリュームにアクセスするように運用することが開示されている。
ストレージ装置の消費電力の低減に関連する技術が特許文献1、2に開示されている。
シンプロビジョニング(Thin Provisioning)による仮想ボリュームを構築したストレージ装置群において、仮想ボリュームの容量が不足した場合に論理ボリュームがプール領域からアサインされる。プール領域には、通常、各レベルのRAIDグループがあり、各RAIDグループを構成する一部の論理ボリュームが、仮想ボリュームの一領域として獲得される。ファイルシステムが仮想ボリュームにおいてデータの追加及び削除を繰り返し行うと、仮想ボリュームに割り振られるRAIDグループの数が増加する傾向にある。割り振られるRAIDグループの数が増加すると、アクセスが頻繁に行われるデータの量に対してストレージ装置の数が多くなり、消費電力が増加する。
特開2009−110451号公報 国際公開第2003/050707号パンフレット
本発明は、少ない消費電力で仮想ボリュームを設定した複数のストレージ装置を駆動させるストレージ制御装置を提供する。
本発明の一側面によると、
各々が複数の記憶装置を有する複数のRAIDグループを制御するストレージ制御装置において、
各々の前記RAIDグループに複数の論理ボリュームを設定し、前記複数の論理ボリュームの少なくとも一つを仮想ボリュームに対して割り当てると共に、前記仮想ボリュームに記憶されるデータ量に応じて、前記複数の論理ボリュームのうち少なくとも一つの未割当ての論理ボリュームを前記仮想ボリュームに追加して割り当てる仮想ボリューム制御部と、
前記仮想ボリュームへのアクセスを前記割り当てられた論理ボリュームへのアクセスに変換するアクセス変換情報を格納する記憶部と、
前記アクセス変換情報に基づき、前記仮想ボリュームへのアクセスを前記割り当てられた論理ボリュームへのアクセスに変換するアクセス制御部と、
前記論理ボリュームの各々へのアクセス頻度を監視するアクセス監視部と、
前記アクセス監視部が監視したアクセス頻度に応じて論理ボリュームを決定し、決定された論理ボリュームのデータを当該論理ボリュームが設定されたRAIDグループとは異なる他のRAIDグループに移動する移動制御部と、
データ移動先の論理ボリュームへのアクセスのために前記アクセス変換情報を更新するアクセス変換情報更新部と
を有するストレージ制御装置が提供される。
本発明のストレージ制御装置によれば、少ない消費電力で仮想ボリュームを設定した複数のストレージ装置を駆動させることができる。
図1は、第1実施形態のストレージ制御装置を備えるストレージシステムの物理的構成の一例を示す図である。 図2A〜2Cは、サーバから認識できる仮想ボリュームと、RAIDグループに設定される論理ボリュームとの対応関係を示す図である。 図3は、第1実施形態のストレージ制御装置の物理的構成を示す図である。 図4は、第1実施形態のストレージ制御装置のストレージコントローラモジュールの機能的構成を示す処理ブロック図である。 図5は、LBA変換テーブルの一例である。 図6は、アクセス解析部134が作成するアクセス管理テーブルの一例である。 図7は、プールボリュームに格納されたデータの再配置を説明する図である。 図8は、プールボリュームに格納されたデータの再配置を説明する図である。 図9は、再配置制御部135によって書き換えられたLBA変換テーブル77である。 図10は、第1実施形態のストレージ制御装置の制御フローである。 図11は、アクセス解析部が行う解析と、再配置制御部が行う再配置の一例である制御フローである。 図12は、アクセス解析部が行う解析と、再配置制御部が行う再配置の一例である制御フローである。 図13は、アクセスモニタ部がモニタリングした情報に基づき、アクセス解析部が作成したアクセスフラグマップである。 図14は、アクセス解析部による解析の経過を示すアクセスフラグマップである。 図15は、アクセス解析部による解析の経過を示すアクセスフラグマップである。 図16は、第2実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析のフローチャートの一例である。 図17は、第2実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析のフローチャートの一例である。 図18は、第3実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析のフローチャートの一例である。 図19は、第3実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析のフローチャートの一例である。 図20は、第3実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析のフローチャートの一例である。 図21Aは、図14Aに示されるアクセスフラグマップの解析において、プールボリューム#0−0をRAIDグループ#1へ移動すると仮定した場合の仮重複アクセス特性である。図21Bは、図14Aに示されるアクセスフラグマップの解析において、プールボリューム#1−1をRAIDグループ#0へ移動すると仮定した場合の仮重複アクセス特性である。
図1〜図3は、第1実施形態のストレージ制御装置を示す図である。
図1は、第1実施形態のストレージ制御装置15及び25を備えるストレージシステム1の物理的構成の一例を示す図である。ストレージシステム1は、ストレージ制御装置15、25、チャネルアダプタ13a、13b、23a、23b、ディスク制御部16、26、RAIDグループ#0〜3で示されるRAIDグループ18a〜18dを含む。
ストレージ制御装置15(CM#0)、25(CM#1)は、ディスク制御部16、26を介してRAIDグループ#0〜3で示される4つのRAID装置(RAIDグループ)18a〜18dに接続されている。RAID装置18a〜18dは、それぞれ複数の記憶装置17を含む。各々の記憶装置17は、記憶媒体を駆動して情報の記録、再生を行う装置であり、例えばハードディスクドライブ(HDD)である。HDDは、ディスクと、そのディスクを回転させるディスクモータを備える。
記憶装置17内のディスクを回転させるディスクモータは、ストレージ装置に接続されたホストやサーバから認識できるボリューム単位ではなく、RAIDグループ単位のI/O(Input/Output)アクセスに基づき制御される。RAIDグループ内のいずれかのボリュームにアクセスがあれば、アクセスがあったボリュームを含むRAIDグループのディスクのモータはオンとなる。また、RAIDグループ内にある全てのボリュームに対して所定の条件でアクセスがなくなれば、そのRAIDグループ内のディスクのモータはオフとなる。
本実施形態においては、冗長化のため、2台のストレージ制御装置15、25によってRAIDグループ18a〜18dを管理しているが、これによりストレージ制御装置の数が限定されるものではない。
ストレージ制御装置15は、チャネルアダプタ13a、13bと接続されている。チャネルアダプタ13a、13bは、ストレージ制御装置15とサーバ11及びサーバ21との間でデータの授受を制御する。サーバ11及びサーバ21とストレージ制御装置15との間のデータ授受は、スイッチ12(SW#0)を経由して行われる。
ストレージ制御装置25は、チャネルアダプタ23a、23bと接続されている。チャネルアダプタ23a、23bは、ストレージ制御装置25とサーバ11及びサーバ21との間でデータの授受を制御する。サーバ11及びサーバ21とストレージ制御装置15との間のデータの授受は、スイッチ22(SW#1)を経由して行われてもよい。
ストレージ制御装置15、25は、2台のサーバ11、21とデータの授受を行うが、これによりストレージ制御装置とデータを行うサーバの数が限定されるものではない。スイッチ12、22は、ネームサーバ機能やルーティング機能等を備えていてもよい。
RAIDグループ18a〜18dは、それぞれ、サーバ11、21がアクセスする対象のデータを格納する。ストレージ制御装置15、25は、RAIDグループ18a〜18dそれぞれに少なくとも一つの論理ボリューム(図示せず)を設定する。
ここで、論理ボリュームは、RAID装置18a〜18dが有する複数の記憶装置にまたがって、RAIDの規格に基づき設定される論理的な記憶領域である。各記憶装置に実際に割り振られている物理ブロックアドレスは、この論理ボリュームに割り当てられている。
論理ボリュームは、サーバ11、21が一つのまとまったデータ格納領域として認識できる仮想ボリュームに、変換表を利用して割り当てられる。変換表には、仮想ボリュームの論理ブロックアドレスと、論理ボリュームの論理ブロックアドレスとが割り付けられている。一つの仮想ボリュームは、一つのRAIDグループに設定された論理ボリュームから割り当てられてもよいし、複数のRAIDグループにわたって設定された論理ボリュームが割り当てられてもよい。
仮想ボリュームの設定(定義)は、例えば、システム管理者が、ストレージ制御装置15に対して図示されないインターフェースを介してストレージ管理ツールを接続することにより行われる。
なお、例えば、論理ボリュームの論理ブロックアドレス(LBA)と各記憶装置に実際に割り振られている物理ブロックアドレスとの間に更に他のLBAが設定されていてもよい。また、例えば、論理ボリュームのLBAと仮想ボリュームのLBAとの間に更に他のLBAが設定されていてもよい。
実施形態において、仮想ボリュームは、シンプロビジョニングによる仮想ボリュームである。複数の記憶装置にまたがって設定された複数の論理ボリュームは、プール領域(ストレージプール)を構成するプールボリュームとして利用される。仮想ボリュームにアクセスが有ると、プール領域の論理ボリュームのうち仮想ボリュームに割り当てられていないものが割り当てられる。プール領域には、通常、各レベルのRAIDグループがある。各RAIDグループを構成する少なくとも一つの論理ボリュームのうち、仮想ボリュームに未割当の論理ボリュームが、仮想ボリュームの一領域として獲得される。この新たな論理ボリュームの獲得により、一つの仮想ボリュームは複数のRAIDグループに設定された論理ボリュームを含んでいることがある。仮想ボリュームに対する論理ボリュームの割り当ては、後述のLBA変換テーブル77により、仮想ボリュームに設定された論理ブロックアドレスと、論理ボリュームに設定された論理ブロックアドレスとが対応付けられることにより実現される。
サーバ11、21がアクセスする対象のデータは、アクセスするデータの記憶位置、読込み命令か書込み命令かを識別する情報、および書込む対象のデータ情報を含む。
図2A〜2Cは、サーバから認識できる仮想ボリュームと、RAIDグループに設定される論理ボリュームとの対応関係を示す図である。
図2Aは、ストレージプールとして準備された複数のRAIDグループを示す模式図である。図2Aにおいて、ストレージプール19の中にRAIDグループとしてRAID18a(#0)、RAID18b(#1)が表示されている。各RAIDグループ18はそれぞれ複数の記憶装置17を含む。
図2Bは、RAIDグループ#0に設定されたプールボリューム群51(#0)と、RAIDグループ#1に設定されたプールボリューム群52(#1)とを示す模式図である。プールボリューム群51(#0)は、プールボリューム(論理ボリューム)61(#0−0〜#0−n)を有する。プールボリューム群52(#1)は、プールボリューム62(#1−0〜#1−n)を有する。プールボリューム群51(#0)の各プールボリューム61は、RAID18aに含まれる複数の記憶装置17aにまたがって設定される。プールボリューム群18bの各プールボリューム62は、RAID18bに含まれる複数の記憶装置17bにまたがって設定される。
図2Cは、プールボリュームと仮想ボリュームとの対応関係の一例を示す模式図である。図2Bのプールボリューム群51のプールボリューム#0−0、#0−1、及びプールボリューム群52のプールボリューム#1−0が、サーバ11が認識する仮想ボリューム81の領域74(#0−0、#0−1、及び#0−2)に割り当てられている様子が示されている。
なお、仮想ボリューム81内の領域74(#0−0、#0−1、及び#0−2)内の境界は、説明の便宜上示されたものである。実際には、サーバ側からは領域#0−0、#0−1、及び#0−2の境界は識別できない。サーバ11は、LBA変換テーブル77における仮想LBAにアクセスすることでプールボリュームへアクセスし、更に論理ブロックアドレス−物理ブロックアドレス変換テーブル(図示せず)により、各記憶装置17(17a、17b)に設定された物理ボリュームにアクセスする。図2Cにおいて、図2Bに示されるプールボリュームのうちサーバに割り当てられていない領域は、「未割当」と表示されている。図2Cの仮想ボリューム81は、割り当てられたプールボリューム及び未割当のプールボリュームを含む全体の領域が、サーバ側に認識されている。
図3は、第1実施形態のストレージ制御装置15、25の物理的構成を示す図である。ストレージ制御装置15は、制御部2、メモリ3を備え、ストレージ制御装置25は、制御部4、メモリ5を備える。ストレージ制御装置15の制御部2、メモリ3とストレージ制御装置25の制御部4、メモリ5とは、それぞれ同じ機能である。よって、ストレージ制御装置15の制御部2、メモリ3について主に説明する。
メモリ3は、制御部2が実行するプログラム、制御部2が処理する途中結果の情報、制御部2が読み書きする変換表等を記憶する。メモリ3は、例えば、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)等である。メモリ3には、後述のI/O制御部、シンプロ制御部(仮想ボリューム制御部)、アクセスモニタ部、アクセス解析部、再配置制御部(移動制御部及びアクセス変換情報更新部)、ディスクモータ制御部、構成管理部、及びRAID制御部の機能を実行するための各種プログラムが格納されている。
制御部2は、メモリ3に格納されるプログラムを実行することにより、図4で説明するコントローラモジュール115として機能する。同様に制御部4は、図4で説明するコントローラモジュール125として機能する。制御部2は、例えば、CPU(Central Processing Unit)である。
図4は、第1実施形態のストレージ制御装置のストレージコントローラモジュールの機能的構成を示す処理ブロック図である。
コントローラモジュール115、125は、サーバからのアクセス特性が類似するプールボリュームのデータ全てが同一RAIDグループに含まれるように、複数のRAIDグループのうち一つの論理ボリューム(プールボリューム)へデータの移動を行い、その移動に伴いデータを記憶した論理ボリュームと仮想ボリュームに含まれる領域との対応を書換える。
コントローラモジュール115は、I/O制御部131、アクセスモニタ部133、アクセス解析部134、再配置制御部(移動制御部及びアクセス変換情報更新部)135、ディスクモータ制御部136、構成管理部137を含む。コントローラモジュール125は、I/O制御部141、アクセスモニタ部143、アクセス解析部144、再配置制御部145、ディスクモータ制御部146、及び構成管理部147を含む。
コントローラモジュール115の、I/O制御部131、アクセスモニタ部133、アクセス解析部134、再配置制御部135、ディスクモータ制御部136、構成管理部137と、コントローラモジュール125の、I/O制御部141、アクセスモニタ部143、アクセス解析部144、再配置制御部145、ディスクモータ制御部146、構成管理部147とは、それぞれ同じ機能である。よって、コントローラモジュール115の各機能的構成について主に説明する。
I/O制御部131は、RAIDグループ18a〜18dにそれぞれ設定されるプールボリュームに記録されているデータに対する、サーバ11、21のアクセスを制御する。
I/O制御部131は、RAID制御部138を備える。RAID制御部138は、複数の記憶装置にまたがって設定される少なくとも一つのプールボリュームを備えるRAIDグループ18a〜18dを設定する。
I/O制御部131は、シンプロ(Thin Provisioning)制御部(仮想ボリューム制御部)132を備える。
シンプロ制御部132は、サーバ11、21が認識する仮想ボリュームの論理ブロックアドレス(LBA)に対して、RAIDグループ18a〜18dそれぞれに設定されるプールボリュームのLBAを割り当てる。この割り当てに基づき、I/O制御部131は、仮想ボリュームのLBAへのアクセスを、プールボリュームのLBAへのアクセスに変換する。シンプロ制御部132が生成する、後述のLBA変換テーブル77を参照して、I/O制御部131は仮想ボリュームのLBAへのアクセスをプールボリュームのLBAへのアクセスに変換する。
図5は、LBA変換テーブルの一例である。図5のLBA変換テーブル77は、仮想ボリュームのLBAに対するプールボリュームのLBAの割り当てを定義する。LBA変換テーブル77は、「プールボリューム」、「プールボリュームLBA」、「仮想ボリューム」、「仮想ボリュームLBA」という4つの項目で構成される。プールボリュームの欄の値について、例えばPool Volume#0−0は、RAIDグループ#0の0番目のプールボリュームを示す。(なお、本明細書において、例えば、RAIDグループ#0の0番目のプールボリュームを「プールボリューム#0−0」と表記する場合がある。)プールボリュームLBAの欄の値について、例えばPV LBA#0−0は、RAIDグループ#0の0番目のプールボリュームのLBAを示す。仮想ボリュームの欄の値について、例えば、RAIDグループ#0の0番目のプールボリュームは、Virtual Volume(仮想ボリューム)#0に割り当てられ、RAIDグループ#0の2番目のプールボリュームは、未割当であることを示す。仮想ボリュームの欄の値について、例えば、RAIDグループ#0の0番目のプールボリュームのLBAが、仮想ボリューム#0の0番目のVirtual(仮想)LBAに対応付けられていることを示す。
また、シンプロ制御部132は、仮想ボリュームに実際に割り当てられている記憶容量が不足する場合に、プールボリュームのうち未割当のものを仮想ボリュームに割り当てる。
アクセスモニタ部133は、I/O制御部131において、サーバ11、21のプールボリュームへのアクセスを監視する。例えば、アクセスモニタ部133は、サーバがアクセスした仮想ボリュームと、アクセスされた仮想ボリュームの領域に対応するプールボリュームと、そのアクセスが行われた最新の時刻とを監視する。
アクセス解析部134は、アクセスモニタ部133が監視したアクセス頻度を解析し、プールボリュームの中から、データの移動元となるプールボリュームと、そのプールボリュームが設定されたRAID装置とは異なるRAID装置に含まれ、データの移動先となるプールボリュームとを決定する。
アクセス解析部134は、例えば、サーバ11、21がアクセスした仮想ボリュームと、アクセスされた仮想ボリュームの領域に対応するプールボリュームと、そのアクセスが行われた最新の時刻の情報をアクセス管理テーブルに記録する。なお、アクセスモニタ部133は、アクセス管理テーブルの代わりに、後述のアクセスフラグマップを作成してもよい。
図6は、アクセス解析部134が作成するアクセス管理テーブルの一例である。図6のアクセス管理テーブルは、「プールボリューム」「仮想ボリューム」「最新アクセス時刻」の3つの項目で構成される。例えば、RAIDグループ#0の0番目のプールボリュームは、仮想ボリューム#0に割り当てられ、最新アクセス時刻はAAAAAAAであることを示す。RAIDグループ#0の2番目のプールボリュームは、割り当てられていない(Non)ことを示す。RAIDグループ#1の1番目のプールボリュームは、サーバから一度アクセスがあり仮想ボリューム#2に割り当てられている又はサーバからのアクセスはないが仮想ボリューム#2に割り当てられているが、サーバからのアクセスがない(00000000)ことを示す。
アクセス解析部134は、記録したプールボリューム、仮想ボリューム、アクセス時刻を解析する。解析の方法としては、例えば以下の方法が挙げられる。(I)アクセス解析部134は、所定の期間内にアクセスが有ったかを解析し、互いに異なるRAIDグループに属しサーバに割り当てられたプールボリュームのうち、所定の期間内(例えば、1時間、1日、1週間など)にアクセスが存在する2以上のプールボリュームを選択する。(II)アクセス解析部134は、所定の期間内にアクセスが有ったかを解析し、互いに異なるRAIDグループに属しサーバに割り当てられたプールボリュームのうち、アクセスが行われていない2以上のプールボリュームを選択する。(I)(II)の方法が続けて行われてもよい。
再配置制御部135は、アクセス解析部134が選択したプールのうち一のプールボリュームのデータ全てを、他のプールボリュームを含むRAIDグループにおいて未割当のプールボリュームに移動(コピー)する。また、再配置制御部135は、データの移動に応じて、シンプロ制御部132のLBA変換テーブル中の、データの移動に関係したプールボリュームのLBAと仮想ボリュームのLBA変換テーブルを書き換える。すなわち、再配置制御部135は、データの移動先のプールボリュームのLBAをデータの移動元のプールボリュームに対応する仮想ボリュームのLBAに関連付ける。また、再配置制御部135は、データの移動元のボリュームのLBAをデータの移動先のボリュームに対応する仮想ボリュームのLBAに関連付ける。
図7〜8は、プールボリュームに格納されたデータの再配置を説明する図である。
図7は、RAIDグループに設定された複数の論理ボリュームと、それを割り当てることにより設定された仮想ボリュームとの対応関係の一例を示す模式図である。
図7において、仮想ボリューム#0〜#nが複数のRAIDグループに構築されている。例えば、仮想ボリューム#0に、RAIDグループ#0の0番目のプールボリュームと、RAIDグループ#1の0番目のプールボリュームと、RAID#2の0番目のプールボリュームとが割り当てられている。仮想ボリューム#1に、RAIDグループ#0の1番目のプールボリュームが割り当てられている。仮想ボリューム#2に、RAIDグループ#1の1番目のプールボリュームと、RAID#2の1番目のプールボリュームとが割り当てられている。仮想ボリューム#nに、RAIDグループ#0のn番目のプールボリュームと、RAIDグループ#1のn番目のプールボリュームとが割り当てられている。RAIDグループ#0の0番目、RAIDグループ#1の0番目、RAIDグループ#0の1番目、及びRAIDグループ#0のn番目のプールボリュームに対してサーバからのアクセスがある。一方、RAID#2の0番目、RAIDグループ#1の1番目、RAID#2の1番目、及びRAIDグループ#1のn番目のプールボリュームに対してサーバからのアクセスはない。従って、RAIDグループ#0〜#2に含まれる記憶装置に対してそれぞれアクセスがあるため、RAIDグループ#0〜#2に含まれる記憶装置はいずれも駆動させている(Motor On)状態である。
図8は、図7に示される複数のプールボリュームとそれに対応する仮想ボリュームに関し、プールボリュームへのアクセスの有無に基づいてデータを移動した3つのボリュームと、仮想ボリュームとの対応関係の一例を示す模式図である。この例ではRAIDグループ#0にアクセスがあるプールボリュームのデータを集め、RAID#2にアクセスのないプールボリュームのデータを集め、RAIDグループ#1に未割当のプールボリュームを集める。すなわち、RAIDグループ#1の0番目のプールボリュームのデータをRAIDグループ#0の2番目のプールボリュームに移動(コピー)させ、RAIDグループ#1の1番目のプールボリュームのデータをRAID#2の2番目のプールボリュームに移動(コピー)させ、RAIDグループ#1のn番目のプールボリュームのデータをRAID#2の3番目のプールボリュームに移動(コピー)させる。
図9は、再配置制御部135によって書き換えられたLBA変換テーブル77である。上記データの移動に応じて、LBA変換テーブルを書き換え、仮想ボリュームに対するプールボリュームの割り当てを変更する。
データの移動と、LBA変換テーブル77の書き換えにより、RAIDグループ#1、#2に含まれる記憶装置に対するアクセスが行われなくなるため、RAIDグループ#1、#2の駆動を停止(Motor Off)することができる。図8に表示される示されるRAIDグループのなかでは、アクセスがあるのはRAIDグループ#0のみであり、ディスク#0−0〜#0−3のみを駆動させればよいため、ストレージ装置群の消費電力が抑制されうる。なお、仮想ボリュームに割り当てられているが所定の期間内にアクセスがないRAIDグループ#1を構成するディスク#1−0〜#1−3のうちRAIDの冗長度の分だけディスクのモータの駆動を停止させてもよい。このとき、サーバからアクセスがあっても遅滞なく読み出し及び書き込み動作がなされる。
再び図4を用いて、コントローラモジュール115の説明を続ける。
ディスクモータ制御部136は、アクセスモニタ部133が記録した、サーバ11、21のプールボリュームに対するアクセス状況(アクセスされたプールボリューム、アクセスされた時刻)に基づき、RAIDグループ18a〜18dに含まれる複数の記憶装置17のディスクモータを制御することで、記憶媒体の駆動(例えばディスクの回転動作)を制御する。ディスクモータ制御部136は、アクセス頻度(アクセスフラグ)が所定値よりも低い記憶媒体の駆動を停止させることで、消費電力を抑制する。例えば、ディスクモータ制御部136は、ある時間帯においてアクセス予定がないHDDのディスクモータの回転を停止させることで、消費電力を抑制する。
構成管理部137は、ストレージシステムの構成を管理する。例えば、各記憶装置17の記憶媒体の駆動(ディスクの回転)の状態を保持する。
図10は、第1実施形態のストレージ制御装置を用いたストレージ制御方法のフローである。
まず、アクセスモニタ部133は、I/O制御部131において、サーバ11、21のプールボリュームへのアクセスを監視する(S101)。例えば、アクセスモニタ部133は、サーバがアクセスした仮想ボリュームと、アクセスされた仮想ボリュームの領域に対応するプールボリュームと、そのアクセスが行われた最新の時刻とを監視する。
次いで、アクセス解析部134は、アクセスモニタ部133が監視したサーバがアクセスした仮想ボリュームと、アクセスされた仮想ボリュームの領域に対応するプールボリュームと、そのアクセスが行われた最新の時刻の情報とを解析し、プールボリュームの中から、移動元のプールボリュームと、該移動元のプールボリュームが設定されたRAID装置とは異なるRAID装置に設定された移動先のプールボリュームとを決定する(S102)。
次いで、再配置制御部135は、アクセス解析部134によって決定された移動元のプールボリュームのデータを移動先のプールボリュームへ移動する(S103)。
次いで、再配置制御部135は、データの再配置に応じて、シンプロ制御部132のLBA変換テーブル中の、データの移動に関係したプールボリュームのLBAと仮想ボリュームのLBA変換テーブルを書き換える(S104)。
図11、12は、アクセス解析部が行う解析(S102)と、再配置制御部が行う再配置(S103)の一例である制御フローである。
図11は、ある時点において、一定時間アクセスがない状態で駆動している一つのRAIDグループへ、一定時間内にアクセスがある他のRAIDグループに含まれるプールボリュームのうちアクセスがないもののデータを移動する制御フローである。
アクセス解析部134は、アクセスモニタ部133から取得したアクセスの情報(サーバがアクセスした仮想ボリューム、アクセスされた仮想ボリュームの領域に対応するプールボリューム、そのアクセスが行われた最新の時刻)から、アクセス管理テーブルを作成する。また、アクセス解析部134は、作成したアクセス管理テーブルから、記憶媒体の駆動が認識されているRAIDグループのうち、一定時間アクセスがないプールボリュームと、そのプールボリュームが属するRAIDグループとの2項目で構成されるリスト(1)を作成する。例えば、図6のアクセス管理テーブルにおいて、リスト(1)にリストアップされる一定時間アクセスがないプールボリュームは、Pool Volume#1−1、Pool Volume#1−n、Pool Volume#2−0、Pool Volume#2−1である。
アクセス解析部134は、構成管理部137によって保持された、記憶媒体の駆動の状態の情報を取得する。更に、アクセス解析部134は、アクセスモニタ部133が作成したアクセス管理テーブルから、アクセスがあるプールボリュームと、そのプールボリュームが属するRAIDグループとの2項目で構成されるリスト(2)を作成する(S201)。例えば、図6のアクセス管理テーブルにおいて、リスト(2)にリストアップされるアクセスがあるプールボリュームは、Pool Volume#0−0、Pool Volume#0−1、Pool Volume#0−n、Pool Volume#1−0である。
次いで、アクセス解析部134は、リスト(1)とリスト(2)の両方に属するRAIDグループを検索する。検索されたRAIDグループは、一定時間アクセスが有るプールボリュームとアクセスが無いプールボリュームとが混在しており、移動元のRAIDグループの候補となる。アクセス解析部134は、この検索結果と、リスト(1)とから、移動元のプールボリュームと、そのプールボリュームが属するRAIDグループとの2項目で構成されるリスト(3)を作成する(S202)。例えば、図6のアクセス管理テーブルから作成したリスト(1)(2)によれば、リスト(3)にリストアップされるのは、Pool Volume#1−1(RAIDグループ#1)、Pool Volume#1−n(RAIDグループ#1)である。
リスト(3)にプールボリュームがリストアップされているとき(S203Yes判定)、アクセス解析部134は、リスト(3)において、アクセスの無いプールボリュームの数が最も小さいRAIDグループを検索し、それに属するプールボリュームを移動元のプールボリュームに決定する(S204)。こうして決定されたプールボリュームのデータを移動すると、データの移動量が最も少ない点から好ましい。
次いで、アクセス解析部134は、リスト(2)にリストアップされておらず、且つ、シンプロ制御部132が作成したLBA変換テーブルを参照して、移動元に記憶されたデータを移動でき仮想ボリュームに未割当のプールボリュームが存在するRAIDグループが存在するかどうか判断する(S205)。リスト(2)にリストアップされておらず、且つ、移動元に記憶されたデータを移動できる未割当のプールボリュームが存在するRAIDグループに属する未割当のプールボリュームは、移動先のプールボリュームの候補となる。一定時間内にアクセスのないデータを特定のRAIDグループに集約するためである。
リスト(2)にリストアップされておらず、且つ、移動元に記憶されたデータを移動できる未割当のプールボリュームが存在するRAIDグループが存在する場合(S205Yes判定)、再配置制御部135は、ステップ204で決定した移動元のプールボリュームのデータを、S205で判断した未割当のプールボリューム(移動先)へコピーする(S206)。次いで、再配置制御部135は、データの移動が完了した移動元プールボリュームと、それが属するRAIDグループのリストを削除する(S207)。
リスト(2)にリストアップされておらず、且つ、移動元に記憶されたデータを移動できる未割当のプールボリュームが存在するRAIDグループが存在しない場合(S205No判定)、再配置制御部135は、移動を行うことなく、ステップ204で移動元に決定されたプールボリュームと、それが属するRAIDグループのリストを削除する(S207)。
次いで、リスト(3)にリストアップされたプールボリュームが残っている場合は(S203Yes判定)、アクセス解析部134及び再配置制御部135は上記ステップ204〜207を繰り返し行い、残っていなければ(S203No判定)、解析及び再配置処理が終了する。
なお、図11に示される再配置において、ステップ205のYes判定の後、再配置制御部135が、再配置処理を行うため、及び再配置処理後のプールボリュームのLBAの仮想ボリュームのLBAに対する割り当てを変更するため、予めLBA変換テーブルを作成してもよい。再配置処理が完了した後、シンプロ制御部132は、既存のLBA変換テーブルを、再配置制御部135が作成したLBA変換テーブルと置換する。
図12は、ある時点において、一定時間内にアクセスが有るRAIDグループの未割当のプールボリュームへ、一定時間内にアクセスがある他のRAIDグループのプールボリュームを移動する制御フローである。
アクセス解析部134は、アクセスモニタ部133から取得したアクセスの情報(サーバがアクセスした仮想ボリューム、アクセスされた仮想ボリュームの領域に対応するプールボリューム、そのアクセスが行われた最新の時刻)から、アクセス管理テーブルを作成する。また、アクセス解析部134は、作成したアクセス管理テーブルから、記憶媒体の駆動が認識されているRAIDグループのうち、一定時間アクセスがないプールボリュームと、そのプールボリュームが属するRAIDグループとの2項目で構成されるリスト(1)を作成する。アクセス解析部134は、構成管理部137によって保持された、記憶媒体の駆動の状態の情報を取得する。更に、アクセス解析部134は、アクセスモニタ部133が作成したアクセス管理テーブルから、アクセスがあるプールボリュームと、そのプールボリュームが属するRAIDグループとの2項目で構成されるリスト(2)を作成する。(S301)
次いで、アクセス解析部134は、リスト(1)とリスト(2)の両方に属するRAIDグループを検索する。検索されたRAIDグループは、一定時間アクセスが有るプールボリュームとアクセスが無いプールボリュームとが混在しており、移動元のRAIDグループの候補となる。アクセス解析部134は、この検索結果と、リスト(2)とから、移動元のプールボリュームと、そのプールボリュームが属するRAIDグループとの2項目で構成されるリスト(4)を作成する(S302)。例えば、図6のアクセス管理テーブルから作成したリスト(1)(2)によれば、リスト(4)にリストアップされるのは、Pool Volume#1−0(RAIDグループ#1)である。
リスト(4)にプールボリュームがリストアップされているとき(S303Yes判定)、アクセス解析部134は、リスト(4)において、アクセスの有るプールボリュームの数が最も小さいRAIDグループを検索し、それに属するプールボリュームを移動元のプールボリュームに決定する(S304)。決定されたプールボリュームのデータを移動すると、データの移動量が最も少ないからである。
アクセス解析部134は、リスト(4)にリストアップされており、且つ、シンプロ制御部132が作成したLBA変換テーブルを参照して、移動元のデータを移動できる未割当のプールボリュームが存在するRAIDグループが存在するかどうか判断する(S305)。
リスト(4)にリストアップされており、且つ、シンプロ制御部132が作成したLBA変換テーブルを参照して、移動元のデータを移動できる未割当のプールボリュームが存在するRAIDグループに属する未割当のプールボリュームは、アクセスのある移動元のデータをコピーする移動先のプールボリュームの候補となる。一定時間内にアクセスのあるデータを特定のRAIDグループに集約するためである。
リスト(4)にリストアップされており、且つ、シンプロ制御部132が作成したLBA変換テーブルを参照して、移動元のデータを移動できる未割当のプールボリュームが存在するRAIDグループが存在する場合(S305Yes判定)、再配置制御部135は、ステップ304で決定した移動元のプールボリュームのデータを、ステップ304で判断した未割当のプールボリューム(移動先)へコピーする(S306)。次いで、再配置制御部135は、データの移動が完了した移動元プールボリュームと、それが属するRAIDグループのリストを削除する(S307)。
リスト(4)にリストアップされており、且つ、シンプロ制御部132が作成したLBA変換テーブルを参照して、移動元のデータを移動できる未割当のプールボリュームが存在するRAIDグループが存在しない場合(S305No判定)、再配置制御部135は、移動を行うことなく、ステップ304で移動元に決定されたプールボリュームをと、それが属するRAIDグループのリストを削除する(S307)。
次いで、リスト(4)にリストアップされたプールボリュームが残っている場合は(S303Yes判定)、アクセス解析部134及び再配置制御部135は上記ステップ304〜307を繰り返し行い、残っていなければ(S303No判定)、解析及び再配置処理が終了する。
なお、図12に示される再配置において、ステップ204のYes判定の後、再配置制御部135は、再配置処理を行い、再配置処理後のプールボリュームのLBAの仮想ボリュームのLBAに対する割り当てを変更するため、予めLBA変換テーブルを作成してもよい。再配置処理が完了した後、シンプロ制御部132は、既存のLBA変換テーブルを、再配置制御部135が作成したLBA変換テーブルと置換する。
第1実施形態のストレージシステムのストレージ制御装置、及びストレージ制御方法において、RAIDグループを構成する複数の記憶装置にまたがって設定される複数のプールボリュームへのアクセスが監視され、それが解析され、アクセス頻度が類似するプールボリュームのデータが複数のRAIDグループのうち一つのRAIDグループへ移動され、移動に応じてLBA変換テーブルが書き換えられる。これによりアクセス頻度が高いプールボリュームを有するRAIDグループを構成する複数の記憶装置を駆動させ、アクセス頻度が低いプールボリュームを有するRAIDグループを構成する複数の記憶装置を停止させることができる。ゆえに、ストレージ装置群の消費電力を抑制できる。シンプロビジョニングにおいて、仮想ボリュームに対するプールボリュームの割り当て量が増加したときに、第1実施形態のストレージ制御装置及びストレージ制御方法によれば、アクセスが頻繁に行われるデータの量に対してモータオン状態のストレージ装置の数が減少するため、ストレージ装置群の消費電力を効果的に抑制できる。また、RAIDグループ間のデータの移動はプールボリューム単位で行われるため、サーバ側に移動のための特別な機能を準備しなくてもよい。また、データの移動に応じてLBA変換テーブルを書き換えるため、データの移動はサーバ側が認識する仮想ボリュームに影響を与えない。
なお、第1実施形態において、記憶装置17が、HDDの代わりにソリッドステートディスク(SSD)であってもよい。この場合、例えば、ディスクモータ制御部136は、ある時間帯においてアクセスがないSSDに対する電源の供給を停止する。
以下、アクセス解析部による解析方法及び再配置制御部による再配置方法に関する第2実施形態について図13〜17を用いて説明する。第2実施形態において、第1実施形態と共通するストレージシステムの構成については同一の番号を付し、説明を省略する。
第2実施形態において、アクセス解析部はアクセスフラグマップを作成し、それを用いてデータの移動元のプールボリュームを決定する。
図13は、アクセスモニタ部133がモニタリングした情報に基づき、アクセス解析部134が作成したあるプールボリュームのアクセスフラグマップである。図13において、横方向は時間を示し、所定の時間T内にサーバからプールボリュームにアクセスがあった場合にフラグ値を1に、アクセスが無かった場合にフラグ値を0にするように設定されている。所定の時間Tは、例えば5分間、1時間、24時間、1週間など、任意に設定されうる。
図14Aは、RAIDグループ#0及び#1の各プールボリュームに対してアクセスが有るか否かを表示するアクセスフラグマップの一例である。このアクセスフラグマップにおいて、1時間単位で、現在(17時)からさかのぼって23時間前までの各プールボリュームへのアクセスの有無が記されている。アクセスが有れば1、アクセスが無ければ0が記されている。各アクセスフラグマップの左側の項目は、左から順に、プールボリューム、割り当てられた仮想ボリューム、及びグルーピングである。仮想ボリューム及びグルーピングの項目において#N/Aは未割当を意味する。
また、アクセスフラグマップの上には、各RAIDグループ単位で重複度が記されている。重複度は、各時間における、各RAIDグループに属する全てのプールボリュームのフラグの合計値である。重複度が高い時間帯は、RAIDを構成する記憶装置へのアクセス頻度が高いことを示唆する。
アクセス解析部134は、このアクセスフラグマップから、異なるRAIDグループに属し、アクセス特性が類似するプールボリュームを選択する。アクセス特性が類似するプールボリュームは、例えば、互いに異なるRAIDグループに属し、ある時間帯にいずれもアクセスがあるプールボリュームである。また、アクセス特性が類似するプールボリュームは、例えば、互いに異なるRAIDグループに属し、ある時間帯にいずれもアクセスがないプールボリュームである。アクセス解析部134は、仮に同一のRAIDグループに属することになれば現状よりも記憶装置の駆動時間が短くなるようにデータの移動元のプールボリュームを選択する。
図14Aにおいて、9〜11時の3時間、プールボリューム#0−0及びプールボリューム#1−1にアクセスがある。アクセス解析部134は、プールボリューム#0−0及びプールボリューム#1−1をデータの移動元候補とする(図14A参照)。
続いて、データの移動元候補の2つのプールボリュームのうち一方に含まれる全データを、そのプールボリュームの属さない他のRAIDグループに含まれる未割当のプールボリュームへ移動する。アクセス解析部134は、どちらのプールボリュームをデータの移動元とするかを決定する。移設元のデータを他のRAIDグループに含まれる未割当のプールボリュームへ移動する際に、仮に一つのRAIDグループに属するプールボリュームを移設元のプールボリュームとする場合と、仮に前記他のRAIDグループに属するプールボリュームのデータを移設元のプールボリュームとする場合とを比較して、消費電力がより抑制される場合のプールボリュームを移設元のプールボリュームとして決定する。
仮に、プールボリューム#0−0の全データをRAIDグループ#1の未割当のプールボリュームに移動した場合、RAIDグループ#0のモータオフ時間は4時間から11時間へと7時間増加する一方、RAIDグループ#1のモータオフ時間は4時間から1時間へと5時間減少する。また、仮に、プールボリューム#1−1の全データをRAIDグループ#1からRAIDグループ#0の未割当のプールボリュームに移動した場合、RAIDグループ#0のモータオフ時間は4時間のままである一方、RAIDグループ#1のモータオフ時間は6時間から10時間へと4時間増加する。RAIDグループ#0を構成する記憶装置の消費電力と、RAIDグループ#1を構成する記憶装置のそれとが同じであるとき、RAIDグループ#1に属するプールボリューム#1−1のデータをRAIDグループ#0の未割当のプールボリュームのデータに移動するほうが、より消費電力を抑えられる。
データの移動元が決定されたら、アクセス制御部134はデータの移動先のRAIDグループに未割当のプールボリュームがあるか否かを判断する。未割当のプールボリュームがあれば、再配置制御部135は、プールボリューム#1−1のデータをRAIDグループ#0の未割当のプールボリューム#0−3に移動し、その後、プールボリューム#0−0及びプールボリューム#0−3のグルーピングの値をグループ#0としてグルーピングする(図14B参照)。グルーピングされたプールボリュームは、アクセスの頻度、アクセスがあった時間帯などが類似している点からグルーピングされる。既にグルーピングされたプールボリュームは、原則、再度のデータの移動元候補として選択されないようにする。データの移動元であるプールボリューム毎に移動先のプールボリュームを決定し、データの移動を行うという1回の処理の中で、移動先に移動させたデータを再び移動させるという、無駄な処理を行わないようにするためである。但し、時間が経過するにつれてアクセス特性が変化した場合、グルーピングしている意味がなくなることもある。その場合においては、プールボリュームのグルーピングを解除し、新たにプールボリュームのグルーピングを組みなおしてもよい。
また更に、18〜24時の6時間、プールボリューム#0−2及びプールボリューム#1−2にアクセスがある。アクセス解析部134は、プールボリューム#0−2及びプールボリューム#1−2をデータの移動元候補とする(図15A参照)。
続いて、データの移動元候補の2つのプールボリュームのうち一方に含まれる全データを、そのプールボリュームの属さない他のRAIDグループに含まれる未割当のプールボリュームへ移動する。アクセス解析部134は、どちらのプールボリュームをデータの移動元とするかを判断する。仮に、プールボリューム#0−2の全データをRAIDグループ#1の未割当のプールボリュームに移動した場合、RAIDグループ#0のモータオフ時間は4時間から10時間へと6時間増加する。一方、RAIDグループ#1のモータオフ時間は10時間のままである。また、仮に、プールボリューム#1−2の全データをRAIDグループ#1からRAIDグループ#0の図示されない未割当のプールボリュームに移動した場合、RAIDグループ#0のモータオフ時間は4時間から2時間へと2時間減少する。一方、RAIDグループ#1のモータオフ時間は10時間から16時間へと6時間増加する。RAIDグループ#0を構成する記憶装置の消費電力と、RAIDグループ#1を構成する記憶装置のそれとが同じであるとき、RAIDグループ#1に属するプールボリューム#0−2をRAIDグループ#1の未割当のプールボリュームに移動するほうが、より消費電力を抑えられる。
再配置制御部135は、プールボリューム#0−2をRAIDグループ#1の未割当のプールボリューム#1−3に移動し、その後、プールボリューム#1−2及びプールボリューム#1−3のグルーピングの値をグループ#1としてグルーピングする(図15B参照)。
図16〜17は、第2実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析、及び解析結果に基づく再配置のフローチャートである。
まず、アクセス解析部134は、現在(17時)において、アクセスが完了したプールボリュームのリスト(1)と、アクセスを開始するプールボリュームのリスト(2)を作成する(S401)。図14Aのアクセスフラグマップによれば、リスト(1)にプールボリューム#0−0がリストアップされ、リスト(2)にプールボリューム#0−2、#1−2がリストアップされる。本工程で作成されるリスト(1)(2)に挙げられるプールボリュームは、データの移動元候補のプールボリュームとなるが、データの移動元候補の組み合わせの選定の方法はこれに限られるものではない。
次いで、アクセス解析部134は、リスト(1)にプールボリュームがあるか否かを判定する(S402)。リスト(1)にプールボリュームがあれば(S402Yes判定)、アクセス解析部134は、リスト(1)のプールボリュームと同じRAIDグループに属すれば、連続モータオフ時間が長くなる、他のRAIDに属するプールボリュームを検索する(S403)。具体的には、リスト(1)のプールボリュームのアクセスフラグと他のプールボリュームのアクセスフラグとで論理和(OR)をとる。論理和をとった結果、どちらの値も0となる連続時間が最も長いプールボリュームを検索結果とする。
ステップ403の検索結果のプールボリュームがあれば(S404Yes判定)、アクセス解析部134はデータの移動元のプールボリュームを決定する(S405)。リスト(1)のプールボリュームのうちステップ403で検索したもの及び検索結果のプールボリュームが、図14Aを用いて説明したデータの移動元候補のプールボリュームである。本工程において、アクセス解析部134は、データの移動元の候補のプールボリュームのうち、どちらをデータの移動元とするかを判断する。
次いで、アクセス解析部134は、データの移動先のプールボリュームの有無を判断する。データの移動先のプールボリュームがあれば(S406Yes判定)、再配置制御部135はデータの移動元のプールボリュームの全データを移動先のプールボリュームへと移動(コピー)する(S407)。その後、アクセス解析部134は、リスト(1)のプールボリュームと検索結果のプールボリュームとをグルーピングする(S408)。また、アクセス解析部134は、データの移動に関わったプールボリュームをリスト(1)から削除する(S409)。図14A、14Bで説明したアクセスフラグマップを用いた解析例においては、プールボリューム#0−2及び#1−2が削除される。
ステップ403の検索結果のプールボリュームがなければ(S404No判定)、又はステップ406のデータの移動先のプールボリュームがなければ(S406No判定)、アクセス解析部134は、データの移動に関わったプールボリュームをリスト(1)から削除する(S409)。
ステップ409の後、リスト(1)にプールボリュームが残っていれば(S402Yes判定)、ステップ403〜409を繰り返し行う。リスト(1)にプールボリュームが残っていなければ(S402No判定)、リスト(2)のプールボリュームに関してデータの移動の検討を行う(S501へ)。
アクセス解析部134は、リスト(2)にプールボリュームがあるか否かを判定する(S501)。リスト(2)にプールボリュームがあれば(S501Yes判定)、ステップ403と同様、アクセス解析部134は、リスト(2)のプールボリュームと同じRAIDに属すれば連続モータオフ時間が長くなる、他のRAIDに属するプールボリュームを検索する(S502)。
ステップ502の検索結果のプールボリュームがあれば(S503Yes判定)、アクセス解析部134はデータの移動元のプールボリュームを決定する(S504)。リスト(2)のプールボリュームのうちステップ502で検索したもの、及び検索結果のプールボリュームが、図15Aを用いて説明したデータの移動元候補のプールボリュームである。アクセス解析部134は、どちらのプールボリュームをデータの移動元とするかを判断する。
次いで、アクセス解析部134は、データの移動先のプールボリュームの有無を判断する。データの移動先のプールボリュームがあれば(S505Yes判定)、再配置制御部135はデータの移動元のプールボリュームの全データを移動先のプールボリュームへと移動(コピー)する(S506)。その後、アクセス解析部134は、リスト(2)のプールボリュームと検索結果のプールボリュームとをグルーピングする(S507)。また、アクセス解析部134は、データの移動に関わったプールボリュームをリスト(2)から削除する(S508)。図14A〜15Bで説明したアクセスフラグマップを用いた解析例においては、プールボリューム#0−2及び#1−2が削除される。
ステップ502の検索結果のプールボリュームがなければ(S503No判定)、又はステップ505のデータの移動先のプールボリュームがなければ(S505No判定)、アクセス解析部134は、データの移動に関わったプールボリュームをリスト(2)から削除する(S508)。
ステップ508の後、リスト(2)にプールボリュームが残っていれば(S501Yes判定)、ステップ502〜508を繰り返し行う。リスト(2)にプールボリュームが残っていなければ(S501No判定)、アクセスの解析及び再配置は終了する。
なお、上記実施形態において、アクセスフラグマップを作成することにより、過去のアクセス特性に基づきデータの移動が行われているが、サーバからプールボリュームに対して予期しないアクセスがある場合もある。その場合には、例えば、I/O制御部がサーバに対してbusyを返す。或いは例えば、I/O制御部が記憶装置のディスクが回転してアクセス可能な状態になるまで待ってから、記憶装置の記憶領域に対してアクセスする。
また、データの移動(コピー)中にサーバから移動元のプールボリュームに対して読み込みのアクセスがあるとき、サーバによる記憶領域に記録されたデータの読み込みは、例えば、I/O制御部が移動前のプールボリュームに対して直接アクセスすることによって行われる。また、データの移動(コピー)中にサーバから移動元のプールボリュームに対して書き込みのアクセスがあるとき、サーバによる記憶領域へのデータの書き込みは次のように行われる。例えば、I/O制御部がメモリ2に対して一時的に書き込むデータを保存し、データの移動が終わった後で、一時的に保存されたデータを移動先のプールボリュームに対して書き込む。
第2実施形態の解析方法を用いたストレージ制御方法によれば、第1実施形態のストレージ制御方法と同様に、ストレージ装置の消費電力を抑制できる。シンプロビジョニングにおいて、仮想ボリュームに対するプールボリュームの割り当て量が増加したときに、ストレージ装置群の消費電力を効果的に抑制できる。また、サーバ側にデータの移動のための特別な機能を準備しなくてもよい。また、データの移動はサーバ側が認識するボリュームに影響を与えない。更に、第2実施形態においては、時間ごとにプールボリュームへのアクセスの有無を監視することにより、消費電力を抑制するためのデータの移動をより精密に行うことができる。ゆえに、更に消費電力を抑制することができる。
以下、アクセス解析部による解析方法及び再配置制御部による再配置方法に関する第3実施形態について図18〜21を用いて説明する。第3実施形態において、第2実施形態と共通するストレージシステムの構成については同一の番号を付し、説明を省略する。
第3実施形態は、第2実施形態のアクセス解析部による解析方法において、データの移動元のプールボリュームを決定する方法(S405及びS505)が異なる点を除き、第2実施形態の解析及び再配置の方法と同様である。以下、データの移動元のプールボリュームを決定する方法を説明する。
図18〜20は、第3実施形態に関し、アクセス解析部が作成したアクセスフラグマップを用いて行う解析、及び解析結果に基づく再配置のフローチャートの一例である。
第3実施形態において、第2実施形態におけるリスト(1)及び(2)に挙げられた各プールボリュームを「プールボリューム1」と、リスト(1)及び(2)のプールボリュームがそれぞれ属するRAIDを「RAID(1)」と総称する。また、この「RAID(1)」以外のRAIDグループを「RAID(2)」と総称し、RAID(2)に属する各プールボリュームを「プールボリューム2」と総称する。
図14Aに示されるアクセスフラグマップの解析において、リスト(1)にはプールボリューム#0−0、リスト(2)にはプールボリューム#0−2、#1−2がリストアップされ、これらはプールボリューム1と総称される。
例えば、プールボリューム#0−0が属するRAIDグループ#0がRAID(1)であるとき、このRAID(1)に対応するRAID(2)は、RAIDグループ#0以外のRAIDグループ、すなわちRAIDグループ#1である。また、RAIDグループ#1に属する各プールボリュームがプールボリューム2である。
また、例えば、プールボリューム#1−2が属するRAIDグループ#1がRAID(1)であるとき、このRAID(1)に対応するRAID(2)は、RAIDグループ#1以外のRAIDグループ、すなわちRAIDグループ#0である。また、RAIDグループ#0に属する各プールボリュームがプールボリューム2である。
まず、アクセス解析部134は、リスト(1)又は(2)に挙げられたプールボリューム群の中から選択される1のプールボリューム1のアクセスフラグ値と、RAID(1)以外のRAIDに属する各プールボリュームから選択される1つのプールボリューム2のアクセスフラグ値との各時間における論理和(OR)を算出する。算出した論理和を仮グルーピングアクセス特性と呼ぶ。アクセス解析部134は、更に、仮グルーピングアクセス特性から、仮にプールボリューム1と2とが同一RAIDに属すると仮定するならば、連続してモータをオフにすることができる(すなわち、プールボリューム1にも2にも連続してアクセスがない)時間の最大値を算出する(S601)。
次いで、アクセス解析部134は、ステップ601で算出した連続モータオフ時間の最大値が、グルーピング最大連続モータオフ時間よりも長いか否かを判断する(S602)。
グルーピング最大連続モータオフ時間は、プールボリューム1と各プールボリューム2との間で既に算出された連続モータオフ時間の最大値のうち、最大のものを意味する。グルーピング最大連続モータオフ時間の初期値は0である。
最大連続モータオフ時間のほうが長くないとき(S602No判定)、プールボリューム1と他のプールボリューム2との間の仮グルーピングアクセス特性と、モータオフ時間の最大値の算出とが繰り返し行われる(S601〜602)。
最大連続モータオフ時間のほうが長いとき(S602Yes判定)、アクセス解析部134は、もしプールボリューム1をRAID(2)へ移動するならば、RAID(1)とRAID(2)それぞれのアクセスフラグがどのように変化するかを算出する。すなわち、アクセス解析部134は、プールボリューム1のアクセスフラグを除くRAID(1)の重複度を、仮重複アクセス特性1−1として算出し、また、その重複度の最大値を最大重複度1−1とする。また、アクセス解析部134は、プールボリューム1のアクセスフラグを加えたRAID(2)の重複度を仮重複アクセス特性1−2として算出し、また、その重複度の最大値を最大重複度1−2とする(S603)。
図21Aは、図14Aに示されるアクセスフラグマップの解析において、プールボリューム#0−0をRAIDグループ#1へ移動すると仮定した場合のRAIDグループ#0とRAIDグループ#1の重複度(仮重複アクセス特性)である。最大重複度1−1は、5〜8時における値の2であり、最大重複度1−2は、1〜2時及び9〜11時における値の2である。
次いで、アクセス解析部134は、もしプールボリューム2をRAID(1)へ移動するならば、RAID(1)とRAID(2)それぞれのアクセスフラグがどのように変化するかを算出する。すなわち、アクセス解析部134は、プールボリューム2のアクセスフラグを加えたRAID(1)の重複度を仮重複アクセス特性2−1として算出し、また、その重複度の最大値を最大重複度2−1とする。また、アクセス解析部134は、プールボリューム2のアクセスフラグを除いたRAID(2)の重複度を仮重複アクセス特性2−2として算出し、また、その重複度の最大値を最大重複度2−2とする(S604)。
図21Bは、図14Aに示されるアクセスフラグマップの解析において、プールボリューム#1−1をRAIDグループ#0へ移動すると仮定した場合のRAIDグループ#0とRAIDグループ#1の重複度(仮重複アクセス特性)である。最大重複度2−1は、9時における値の4であり、最大重複度2−2は、1〜8時及び18〜24時における値の1である。
次いで、アクセス解析部134は、(A)最大重複度1−1又は1−2が閾値a以上である時間帯が存在するか否か、或いは(B)仮重複アクセス特性1−1又は1−2において閾値b以上の時間帯が閾値c時間以上連続して存在するか否かを判定する(S605)。但し、閾値a>bである。最大重複度の閾値a、仮重複アクセス特性の閾値b、及び時間の閾値cは、RAID装置の構成、プールボリュームの設定、ストレージシステムの使用態様等によって適宜設定される。
ステップ605において(A)及び(B)のいずれも満たさない場合(S605No判定)、アクセス解析部134は、仮重複アクセス特性1−1からモータオフ時間を仮モータオフ時間1−1として算出し、仮重複アクセス特性1−2からモータオフ期間を仮モータオフ時間1−2として算出する(S606)。
ステップ605において(A)又は(B)を満たす場合(S605Yes判定)、アクセス解析部134は、仮モータオフ時間1−1及び1−2をゼロ時間(無効)とする(S607)。
次いで、アクセス解析部134は、(A)最大重複度2−1又は2−2が閾値a以上である時間帯が存在するか否か、或いは(B)仮重複アクセス特性2−1又は2−2において閾値b以上の時間帯が閾値c時間以上連続して存在するか否かを判定する(S608)。但し、a>bである。
ステップ608において(A)及び(B)のいずれも満たさない場合(S608No判定)、アクセス解析部134は、仮重複アクセス特性2−1からモータオフ時間を仮モータオフ時間2−1として算出し、仮重複アクセス特性2−2からモータオフ期間を仮モータオフ時間2−2として算出する(S609)。
ステップ608において(A)又は(B)を満たす場合(S608Yes判定)、アクセス解析部134は、仮モータオフ時間2−1及び2−2をゼロ時間(無効)とする(S610)。
次いで、アクセス解析部134は、仮モータオフ時間1−1、1−2、2−1、2−2はゼロ以外か否かを判断する(S701)。仮モータオフ時間がいずれもゼロの場合(S701Yes判定)、ステップ601に戻る。
仮モータオフ時間のいずれか一つでもゼロではない場合(S701Yes判定)、アクセス解析部134は、プールボリューム1とともにデータの移動元候補となるプールボリュームの値である「グルーピング候補プールボリューム」をプールボリューム2に設定する(S702)。
次いで、アクセス解析部134は、グルーピング連続最大モータオフ時間を、ステップ601で算出された連続モータオフ時間の最大値に更新する(S703)。
次に、アクセス解析部134は、RAID(1)とRAID(2)のハード構成が異なるか否かを判断する(S704)。比較するハード構成は、RAIDを構成する記憶装置に含まれるディスク単体の消費電力、記憶装置に含まれるディスク数などである。
ハード構成が異なる場合(S704Yes)、アクセス解析部134は、仮モータオフ時間だけモータオン状態であると仮定した場合に消費する電力量(削減電力量)を算出する(S705、S706)。
すなわち、アクセス解析部134は、例えば、仮モータオフ時間1−1と、RAID(1)を構成するディスク数と、ディスク単体の消費電力の積から削減電力量1−1を算出する。また、アクセス解析部134は、例えば、仮モータオフ時間1−2、RAID(2)を構成するディスク数、ディスク単体の消費電力から削減電力量1−2を算出する。また、アクセス解析部は、削減電力量1−1と削減電力量1−2の合計を削減電力量1として算出する(S705)。
次いで、例えば、アクセス解析部134は、仮モータオフ時間1−1と、RAID(1)を構成するディスク数と、ディスク単体の消費電力の積から削減電力量1−1を算出する。また、アクセス解析部134は、例えば、仮モータオフ時間1−2、RAID(2)を構成するディスク数、ディスク単体の消費電力から削減電力量1−2を算出する。また、アクセス解析部は、削減電力量1−1と削減電力量1−2の合計を削減電力量1として算出する(S706)。
次いで、アクセス解析部134は、削減電力量1が削減電力量2より大きいか否かを判断する(S707)。大きい場合(S707Yes判定)、アクセス解析部134は、データの移動元をプールボリューム1に、データの移動先をRAID(2)に設定する(S708)。
削減電力量1が削減電力量2以下の場合(S707No判定)、アクセス解析部134は、削減電力量2が削減電力量1より大きいか否かを判断する(S709)。削減電力量2が削減電力量1より大きい場合(S709Yes判定)、アクセス解析部134は、データの移動元をプールボリューム2に、データの移動先をRAID(1)に設定する(S710)。ステップ708及び710の後、図20の“D”へ進む。
削減電力量2が削減電力量1以下の場合(S709No判定)、ステップ801へ進む。
アクセス解析部134は、仮モータオフ時間1が仮モータオフ時間2より長いか否かを判断する(S801)。長い場合(S801Yes判定)、アクセス解析部134は、データの移動元をプールボリューム1に、データの移動先をRAID(2)に設定する(S802)。
仮モータオフ時間1が仮モータオフ時間2以下の場合(S801No判定)、アクセス解析部134は、仮モータオフ時間2が仮モータオフ時間1より長いか否かを判断する(S803)。長い場合(S803Yes判定)、アクセス解析部134は、データの移動元をプールボリューム2に、データの移動先をRAID(1)に設定する(S804)。ステップ802及び804の後、図20の“D”へ進む。
仮モータオフ時間2が仮モータオフ時間1以下の場合(S803No判定)、アクセス解析部134は、最大重複度1−2は最大重複度2−1より小さいか否かを判断する(S805)。小さい場合(S805Yes判定)、アクセス解析部134は、データの移動元をプールボリューム1に、データの移動先をRAID(2)に設定する。その後、図20の“D”へ進む。
最大重複度1−2が最大重複度2−1より小さくない場合(S805No判定)、アクセス解析部134は、データの移動元をプールボリューム2に、データの移動先をRAID(1)に設定する(S807)。その後、図20の“D”へ進む。
次いで、アクセス解析部134はデータの移動元候補となりうる全てのプールボリューム2について、ステップ601〜808の工程を実施したか否か判断する(S808)。未実施のプールボリュームが存在すれば(S808No判定)、図18の“A”に戻ってステップ601〜808の工程を実施する。全て検索済みであれば(S808Yes判定)、一通りの解析を終了する。
リスト(1)及び(2)にリストアップされた各プールボリュームについて、それぞれ、ステップ601〜808の工程を実施する。
第3実施形態の解析方法を用いたストレージ装置の制御方法によれば、第2実施形態のストレージ制御方法と同様に、消費電力を抑制するためのデータの移動をより精密に行うことができるため、ストレージシステムの消費電力を高度に抑制できる。シンプロビジョニングにおいて、仮想ボリュームに対するプールボリュームの割り当て量が増加したときに、ストレージ装置群の消費電力を効果的に抑制できる。また、サーバ側に、データの移動のための特別な機能を準備しなくてもよい。また、データの移動はサーバ側が認識する仮想ボリュームに影響を与えない。更に、第3実施形態の制御方法によれば、アクセス頻度が所定の閾値以上のRAIDグループに対して、更にアクセス頻度を高めるようなデータの移動を防止することができる。アクセス頻度を所定の閾値以内とすることで、特定のRAID装置に対するアクセスの集中を防止し、アクセス速度を維持することができる。
尚、本発明は上記実施形態に限定されるものではない。矛盾のない限りにおいて、複数の実施例を組み合わせても構わない。上記実施形態は例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。
1 ストレージシステム
2、4 制御部
3、5 メモリ
11、21 サーバ
12、22 スイッチ
13a、13b、23a、23b チャネルアダプタ
15、25 ストレージ制御装置
16、26 ディスク制御部
18a〜18d RAIDグループ
17 記憶装置
51、52 プールボリューム群
61、62 プールボリューム
74 仮想ボリューム内の領域
77 LBA変換テーブル
81 仮想ボリューム
115、125 コントローラモジュール
131、141 I/O制御部
132、142 シンプロ制御部
133、143 アクセスモニタ部
134、144 アクセス解析部
135、145 再配置制御部
136、146 ディスクモータ制御部
137、147 構成管理部
138、148 RAID制御部

Claims (10)

  1. 各々が複数の記憶装置を有する複数のRAIDグループを制御するストレージ制御装置において、
    各々の前記RAIDグループに複数の論理ボリュームを設定し、前記複数の論理ボリュームの少なくとも一つを仮想ボリュームに対して割り当てると共に、前記仮想ボリュームに記憶されるデータ量に応じて、前記複数の論理ボリュームのうち少なくとも一つの未割当ての論理ボリュームを前記仮想ボリュームに追加して割り当てる仮想ボリューム制御部と、
    前記仮想ボリュームへのアクセスを前記割り当てられた論理ボリュームへのアクセスに変換するアクセス変換情報を格納する記憶部と、
    前記アクセス変換情報に基づき、前記仮想ボリュームへのアクセスを前記割り当てられた論理ボリュームへのアクセスに変換するアクセス制御部と、
    前記論理ボリュームの各々へのアクセス頻度を監視するアクセス監視部と、
    前記アクセス監視部が監視したアクセス頻度に応じて論理ボリュームを決定し、決定された論理ボリュームのデータを当該論理ボリュームが設定されたRAIDグループとは異なる他のRAIDグループに移動する移動制御部と、
    データ移動先の論理ボリュームへのアクセスのために前記アクセス変換情報を更新するアクセス変換情報更新部と
    を有するストレージ制御装置。
  2. 前記移動制御部は、アクセス頻度が所定値より高い論理ボリュームのデータを所定のRAIDグループに移動することを特徴とする請求項1に記載のストレージ制御装置。
  3. 前記移動制御部は、アクセス頻度が所定値より低い論理ボリュームのデータを所定のRAIDグループに移動することを特徴とする請求項1又は2に記載のストレージ制御装置。
  4. 更に、前記論理ボリュームへのアクセス頻度に応じて前記RAIDグループの各々の省電力制御を行う省電力制御部を有する請求項1乃至3のいずれか1項に記載のストレージ制御装置。
  5. 前記複数の記憶装置のうち少なくとも一つは、ディスクと、該ディスクを回転させるスピンドルモータとを有するハードディスクドライブであり、
    前記省電力制御部は、アクセス頻度が所定値より低いディスクのスピンドルモータの回転を停止することを特徴とする請求項4に記載のストレージ制御装置。
  6. 前記複数の記憶装置のうち少なくとも一つは、ソリッドステートディスクであり、
    前記省電力制御部は、アクセス頻度が所定値より低いソリッドステートディスクへの電源供給を停止することを特徴とする請求項4又は5に記載のストレージ制御装置。
  7. 前記アクセス監視部は、アクセスされた論理ボリュームの情報とアクセス時刻の情報をモニタし、
    更に、前記アクセスされた論理ボリュームの情報と前記アクセス時刻の情報とを解析して、前記複数の論理ボリュームのうち前記RAIDグループが異なりアクセス時刻が重複する2つの論理ボリュームのデータが同一のRAIDグループに配置されるように、前記複数の論理ボリュームのうち、データの移動元となるRAIDグループの論理ボリュームと、前記複数の論理ボリュームのうち、データの移動先となるRAIDグループの論理ボリュームとを決定するアクセス解析部を有することを特徴とする請求項1乃至6のいずれか1項に記載のストレージ制御装置。
  8. 前記アクセス解析部は、前記複数の論理ボリュームのうちアクセス頻度が所定の閾値未満の論理ボリュームを前記データの移設元となる論理ボリュームに決定することを特徴とする請求項7に記載のストレージ制御装置。
  9. 各々が複数の記憶装置を有する複数のRAIDグループにそれぞれ複数の論理ボリュームを設定し、前記複数の論理ボリュームの少なくとも一つを仮想ボリュームに対して割当てるとともに、前記仮想ボリュームに記憶されるデータ量に応じて、前記複数の論理ボリュームのうち少なくとも一つの未割当の論理ボリュームを前記仮想ボリュームに追加して割り当て、前記仮想ボリュームへのアクセスを前記複数の論理ボリュームへのアクセスに変換する工程を介して前記複数の記憶装置へアクセスが行われるストレージシステムを制御するストレージ制御方法において、
    前記論理ボリュームの各々へのアクセス頻度を監視する工程と、
    前記監視したアクセス頻度に応じて論理ボリュームを決定し、決定された論理ボリュームのデータを、当該論理ボリュームが設定されたRAIDグループとは異なる他のRAIDグループに移動する工程と、
    データ移動先の論理ボリュームへのアクセスのために前記アクセス変換情報を更新する工程と
    を有することを特徴とするストレージ制御方法。
  10. 各々が複数の記憶装置を有する複数のRAIDグループと、
    各々の前記RAIDグループに複数の論理ボリュームを設定し、前記複数の論理ボリュームの少なくとも一つを仮想ボリュームとして割り当てると共に、前記仮想ボリュームに記憶されるデータ量に応じて、前記複数の論理ボリュームのうち少なくとも一つの未割当ての論理ボリュームを前記仮想ボリュームに追加して割り当てる仮想ボリューム制御部と、
    前記仮想ボリュームへのアクセスを前記割り当てられた論理ボリュームへのアクセスに変換するアクセス変換情報を格納する記憶部と、
    前記アクセス変換情報に基づき、前記仮想ボリュームへのアクセスを前記割り当てられた論理ボリュームへのアクセスに変換するアクセス制御部と、
    前記論理ボリュームの各々へのアクセス頻度を監視するアクセス監視部と、
    前記アクセス監視部が監視したアクセス頻度に応じて論理ボリュームを決定し、決定された論理ボリュームに記憶されたデータを当該論理ボリュームが設定されたRAIDグループとは異なる他のRAIDグループに移動する移動制御部と、
    移動先の論理ボリュームへのアクセスのために前記アクセス変換情報を更新するアクセス変換情報更新部と
    を有するストレージシステム。
JP2010140601A 2010-06-21 2010-06-21 ストレージ制御装置、ストレージ制御方法、ストレージシステム Active JP5585235B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010140601A JP5585235B2 (ja) 2010-06-21 2010-06-21 ストレージ制御装置、ストレージ制御方法、ストレージシステム
US13/159,853 US8918620B2 (en) 2010-06-21 2011-06-14 Storage control apparatus, storage system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140601A JP5585235B2 (ja) 2010-06-21 2010-06-21 ストレージ制御装置、ストレージ制御方法、ストレージシステム

Publications (2)

Publication Number Publication Date
JP2012003694A true JP2012003694A (ja) 2012-01-05
JP5585235B2 JP5585235B2 (ja) 2014-09-10

Family

ID=45329700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140601A Active JP5585235B2 (ja) 2010-06-21 2010-06-21 ストレージ制御装置、ストレージ制御方法、ストレージシステム

Country Status (2)

Country Link
US (1) US8918620B2 (ja)
JP (1) JP5585235B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202013000268U1 (de) 2012-01-12 2013-04-24 Seiko Epson Corporation Patrone und Druckmaterialzuführsystem
JP2013206101A (ja) * 2012-03-28 2013-10-07 Nec Corp 仮想化システム、リソース管理サーバ、リソース管理方法、及びリソース管理プログラム
JP2016110305A (ja) * 2014-12-04 2016-06-20 富士通株式会社 ストレージ制御装置、キャッシュ制御方法、キャッシュ制御プログラム、及びコンピュータシステム
CN112306747A (zh) * 2020-09-29 2021-02-02 新华三技术有限公司合肥分公司 一种raid卡故障处理方法及装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8438361B2 (en) * 2010-03-10 2013-05-07 Seagate Technology Llc Logical block storage in a storage device
US9183134B2 (en) 2010-04-22 2015-11-10 Seagate Technology Llc Data segregation in a storage device
KR101467941B1 (ko) 2011-04-26 2014-12-02 엘에스아이 코포레이션 비휘발성 저장부에 대한 가변 오버­프로비저닝
JP5782962B2 (ja) * 2011-09-27 2015-09-24 富士通株式会社 Raidグループ制御装置
JP7036866B2 (ja) * 2020-06-19 2022-03-15 株式会社日立製作所 情報処理装置及び方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219703A (ja) * 2006-02-15 2007-08-30 Fujitsu Ltd ハードディスクストレージ制御プログラム、ハードディスクストレージ装置、ハードディスクストレージ制御方法
JP2008003719A (ja) * 2006-06-20 2008-01-10 Hitachi Ltd 省電力とパフォーマンスを両立したストレージシステム及び記憶制御方法
JP2009157571A (ja) * 2007-12-26 2009-07-16 Fujitsu Ltd データ配置制御プログラム、データ配置制御装置、データ配置制御方法、およびマルチノードストレージシステム
JP2010015446A (ja) * 2008-07-04 2010-01-21 Hitachi Ltd ストレージ装置及び電源の制御方法
JP2010257020A (ja) * 2009-04-22 2010-11-11 Hitachi Ltd データマイグレーション管理装置及び管理方法
JP2011216052A (ja) * 2010-04-02 2011-10-27 Hitachi Ltd 管理システム及び計算機システムの管理方法
JP2011221572A (ja) * 2010-04-02 2011-11-04 Nec Corp ディスクアレイ装置及びその制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003050707A1 (en) 2001-12-10 2003-06-19 Monosphere Limited Managing storage resources attached to a data network
JP5113488B2 (ja) 2007-10-31 2013-01-09 優 喜連川 計算機システム、省電力化方法及び計算機
US8356139B2 (en) * 2009-03-24 2013-01-15 Hitachi, Ltd. Storage system for maintaining hard disk reliability
WO2010127365A1 (en) * 2009-05-01 2010-11-04 Citrix Systems, Inc. Systems and methods for establishing a cloud bridge between virtual storage resources
JP5521716B2 (ja) * 2010-04-06 2014-06-18 富士通株式会社 ストレージ制御プログラム、ストレージ制御方法およびストレージ制御装置
US8656099B2 (en) * 2010-07-22 2014-02-18 Hitachi, Ltd. Storage apparatus and storage control method for the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219703A (ja) * 2006-02-15 2007-08-30 Fujitsu Ltd ハードディスクストレージ制御プログラム、ハードディスクストレージ装置、ハードディスクストレージ制御方法
JP2008003719A (ja) * 2006-06-20 2008-01-10 Hitachi Ltd 省電力とパフォーマンスを両立したストレージシステム及び記憶制御方法
JP2009157571A (ja) * 2007-12-26 2009-07-16 Fujitsu Ltd データ配置制御プログラム、データ配置制御装置、データ配置制御方法、およびマルチノードストレージシステム
JP2010015446A (ja) * 2008-07-04 2010-01-21 Hitachi Ltd ストレージ装置及び電源の制御方法
JP2010257020A (ja) * 2009-04-22 2010-11-11 Hitachi Ltd データマイグレーション管理装置及び管理方法
JP2011216052A (ja) * 2010-04-02 2011-10-27 Hitachi Ltd 管理システム及び計算機システムの管理方法
JP2011221572A (ja) * 2010-04-02 2011-11-04 Nec Corp ディスクアレイ装置及びその制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202013000268U1 (de) 2012-01-12 2013-04-24 Seiko Epson Corporation Patrone und Druckmaterialzuführsystem
JP2013206101A (ja) * 2012-03-28 2013-10-07 Nec Corp 仮想化システム、リソース管理サーバ、リソース管理方法、及びリソース管理プログラム
JP2016110305A (ja) * 2014-12-04 2016-06-20 富士通株式会社 ストレージ制御装置、キャッシュ制御方法、キャッシュ制御プログラム、及びコンピュータシステム
CN112306747A (zh) * 2020-09-29 2021-02-02 新华三技术有限公司合肥分公司 一种raid卡故障处理方法及装置

Also Published As

Publication number Publication date
JP5585235B2 (ja) 2014-09-10
US8918620B2 (en) 2014-12-23
US20110314220A1 (en) 2011-12-22

Similar Documents

Publication Publication Date Title
JP5585235B2 (ja) ストレージ制御装置、ストレージ制御方法、ストレージシステム
US8447946B2 (en) Storage apparatus and hierarchical data management method for storage apparatus
US9052823B2 (en) Storage system and data management method with application specific storage tiers
US9183219B1 (en) Data migration between multiple tiers in a storage system using policy based ILM for QOS
US9274723B2 (en) Storage apparatus and its control method
JP5981563B2 (ja) 情報記憶システム及び情報記憶システムの制御方法
US8661220B2 (en) Computer system, and backup method and program for computer system
US8645737B2 (en) Power-saving control apparatus and method
JP5944587B2 (ja) 計算機システム及び制御方法
US8515967B2 (en) Cost and power efficient storage area network provisioning
US7831792B2 (en) Computer system, data migration method and storage management server
WO2013171794A1 (en) Method of data migration and information storage system
JP2014516442A (ja) 計算機システム及びデータ管理方法
JP6510635B2 (ja) ストレージシステム及びデータ制御方法
JP5363595B2 (ja) 仮想ボリューム内のデータの再配置を行うストレージシステム及び方法
WO2012140730A1 (ja) 管理システム、それを有する計算機システム、及び管理方法
US20120011329A1 (en) Storage apparatus and storage management method
US9323682B1 (en) Non-intrusive automated storage tiering using information of front end storage activities
JP2008015769A (ja) ストレージシステム及び書き込み分散方法
JP2007072813A (ja) ストレージシステム、ファイル移動方法、及びコンピュータプログラム
JP2011227898A (ja) 階層情報管理方法及び装置
JP2010072753A (ja) 自動拡張ボリューム及び省電力機能を備えたストレージシステム
US10303369B2 (en) Storage in tiered environment with cache collaboration
JP2003280950A (ja) ファイル管理システム
WO2018138813A1 (ja) 計算機システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5585235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150