JP2010072777A - 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置 - Google Patents

仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置 Download PDF

Info

Publication number
JP2010072777A
JP2010072777A JP2008237327A JP2008237327A JP2010072777A JP 2010072777 A JP2010072777 A JP 2010072777A JP 2008237327 A JP2008237327 A JP 2008237327A JP 2008237327 A JP2008237327 A JP 2008237327A JP 2010072777 A JP2010072777 A JP 2010072777A
Authority
JP
Japan
Prior art keywords
physical
storage area
access
storage
raid group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008237327A
Other languages
English (en)
Other versions
JP5130169B2 (ja
Inventor
Hirofumi Inomata
宏文 猪股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008237327A priority Critical patent/JP5130169B2/ja
Priority to US12/266,843 priority patent/US20100070706A1/en
Publication of JP2010072777A publication Critical patent/JP2010072777A/ja
Application granted granted Critical
Publication of JP5130169B2 publication Critical patent/JP5130169B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1466Management of the backup or restore process to make the backup process non-disruptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0625Power saving in storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • G06F3/0649Lifecycle management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1456Hardware arrangements for backup
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

【課題】アクセスに応じて仮想ボリュームに順次物理記憶領域が割り当てられるストレージにおいて、データの作成日時等により分割して物理RGに格納する。
【解決手段】第1の物理RGを含む複数の物理RGを構成する記憶装置と、コントローラとを有し、前記コントローラは、第1の仮想ボリュームへのアクセスに応じて、前記第1の物理RGの記憶領域又は前記第1の物理RGの複数からなるプールの記憶領域を、使用順序をもとに順次前記第1の仮想ボリュームへ割り当て、前記コントローラは、仕切り要求を受信し、前記コントローラは、前記仕切り要求を受信した後の前記第1の仮想ボリュームアクセスに応じて、次の使用順序の前記第1の物理RGの記憶領域又は次の使用順序の前記第1の物理RGの複数からなるプールの記憶領域を、前記第1の仮想ボリュームに割り当てる、ストレージ装置である。
【選択図】図2

Description

本発明は、容量仮想化機能を有するストレージシステムに関し、特に、仮想化ボリュームへの物理ボリューム領域の割り当方法に関する。
一般的に、データベース管理システム(DBMS)においては、データベーステーブル(DBテーブル)に、レコードが、逐次的に登録される。また、データベーステーブルを格納するストレージ装置のディスクボリュームにおいては、データベーステーブルを格納する領域が、レコードの格納にあわせて拡張する。この領域の拡張は、DBMSに内蔵されたプログラムにより行われるか、データベース管理者が、DBMSの管理機能を用いた操作で行われる。さらに、この領域の拡張は、DBテーブルの容量の増加に合わせて、逐次的に行われるため、アクセス頻度の低いレコードとアクセス頻度の高いレコードとが混在して、ディスクボリュームへ格納される。
また、一般的に、DBMSの主要な用途として、Enterprise Resource Planning(ERP)向けの業務システムがある。この用途で利用される場合、取引が発生する毎に、取引内容を保持するレコードが、DBテーブルへ追加され、時間経過と共にDBテーブルの容量が増加する。また、そのDBテーブルのレコードアクセス頻度も、レコードが追加された年次毎に同じ特徴を取る傾向がある。例えば、レコードアクセスは、取引が発生した年度に主に発生して、それ以降のレコードアクセスは、月末、期末、年度末、数年間のスパンで発生する集計処理のときに発生する傾向がある。
なお、DBMSからの検索において、特定の期間のレコードに、制限してアクセスさせるには、例えば、レコードに、登録した日付のインデクス・カラムを含め、検索条件に、日付の期間を含め検索させる。これは、不要なレコードを検索対象にしないための一般的な手法である。
非特許文献1には、DB領域再配置のためのツールを用いて、DBMSの性能チューニングを行う例が開示される。DBMSから、複数のディスクボリュームを使用する場合、DBMSからのアクセスが、特定のディスクボリュームへ集中しないように、DBデーブルの一部の若しくは全ての記憶領域を、再配置することが行われる。
特許文献1には、ストレージシステムにおけるディスクボリュームの容量仮想化の技術が開示されている。この技術では、ディスク装置の記憶容量の使用効率向上を図るため、外部(ホストコンピュータ等)には仮想的なディスクボリュームを提供し、実際には、データが記録されるごとに、物理的なディスクボリュームの記憶領域を仮想的なディスクボリュームに割り当て、物理的なディスクボリュームにデータを格納する。このとき、物理的なディスクボリュームは、1台以上で、プール領域に割り当てられ、既定の順序で、その記憶領域を仮想的なディスクボリュームに割り当てる。
特許文献2には、RAID(Redundant Arrays of Inexpensive Disks)ストレージシステムでの省電力の仕組みが開示される。これは、RAIDのアルゴリズムを前提に、複数台のディスク装置で構成されるRG(Raid Group)の内、パリティディスクをスピンダウンする。そして、パリティディスクがスピンダウンしたRGへライトアクセスがあった場合、ライトバックモードで受け付け、ディスキャッシュへライトデータを一時、保持し、スピンダウンしていたディスク装置へのライトアクセスをスピンアップ後に遅延して行う。この方法は、RGを構成する複数のディスク装置内の一部のディスクのスピンダウンが可能となる。
特開2007−316725号公報 米国特許公報US7035972B2 米国Oracle Corporation、「Oracle Database11g Automatic Storage Management New Features Technical White Paper」、June、2007、(http://www.oracle.com/technology/products/database/asm/pdf/11gr1%20asm%20new%20features%20wp%2005−2007.pdf)
近年、ITシステムの物理的な集約が進むにつれ、その省電力への要望が高まっている。半導体技術の進歩により、時代と共に、消費電力の削減は、緩やかに達成されている。そして、それにあわせて、ITシステムのコンポーネントが、使われる期間のみ電力を消費よう節電を実現することにより、さらに効果的な節電がなされる。後者の実現には、人的な努力だけでは成し遂げず、ITシステムの性質を踏まえた節電の仕組みが、ITシステムに備えられる必要がある。
また、代表的なITシステムとして、ERPシステムが挙げられる。そして、ERPシステムの大多数が、DBMSを利用した業務システムである。DBMSを、ERPシステムで利用する場合、時間経過と共に、随時、取引が発生し、DBテーブルへ、その取引の内容を保持したレコードが追加されていく。取引の内容は、取引が終わるまで、内容の照会や更新が発生する。そして、取引が終了すると、終了時の内容で保持される。このように取引が終了したレコードは、業績集計や監査などのタイミングにおいて必要とされ、レコードアクセスが発生する。したがって、ERPシステムでは、DBテーブルのうち取引が終了した古いレコードに対するアクセス頻度は、取引中の新しいレコードへのアクセス頻度より、少ない傾向がある。そして、年代別に、ディスクボリュームを設け、格納するレコードを分けて保持させれば、古いデータを保持するディスクボリュームをスピンダウンすることも可能となる。しかしながら、このために、DBMSのDBテーブルの構成を、それを前提に設計することは、一般的ではない。そこで、非特許文献1のDB領域再配置のためのツールを用いて、ディスクボリューム間で、データの移動を行うこともできるが、大量のデータの移動が必要となりなくされ、時間がかかるという問題がある。
また、特許文献1に開示されるボリュームの容量仮想化の技術が適用されたホストコンピュータ等に提供される仮想的なディスクボリュームと、物理的なディスクボリューム(または、Raid Group)とは1対1に対応しない。また、記憶領域のリポジトリは、ストレージ装置により決定され、正しい記憶領域のリポジトリが判らない。したがって、非特許文献1のDB領域再配置のためのツールを使用した場合であっても、同程度のアクセス頻度のレコードを同一の物理的なディスクボリュームへ移動することはできない。更に、特定のディスクボリュームへのアクセスを分散しようと、複数のディスクボリュームを利用する場合、それぞれが、仮想ボリュームであると、別々にホストから認識されているディスクボリュームであっても、実際には、それらの記憶領域が、1つの物理的なディスクボリューム内に割り当てられることもあり、アクセスの分散がなされない場合がある。
以上より従来技術では、ERPシステムで使用するディスク容量を効率的に使用することを目的として、容量仮想化機能を有するストレージ装置において、容量仮想化ディスクボリュームを、年代別のディスクボリュームとして設けても、レコードの物理的なリポジトリは、年代別に異なった物理的なディスクボリュームへ格納されることはない。つまり、スピンダウンできる物理的な単位であるディクスボリュームに、新旧のレコードが格納されてしまう。したがって、省電力のために、スピンダウンできる物理的なディスクボリュームを作ることができなといった問題がある。
かかる課題を解決するために本発明のストレージ装置は、第1の物理RAIDグループを含む複数の物理RAIDグループを構成する記憶装置と、コントローラと、を有し、前記コントローラは、第1の仮想ボリュームへのアクセスに応じて、前記第1の物理RAIDグループの記憶領域又は前記第1の物理RAIDグループの複数からなるプールの記憶領域を、使用順序をもとに順次前記第1の仮想ボリュームへ割り当て、前記コントローラは、仕切り要求を受信し、前記コントローラは、前記仕切り要求を受信した後の前記第1の仮想ボリュームアクセスに応じて、次の使用順序の前記第1の物理RAIDグループの記憶領域又は次の使用順序の前記第1の物理RAIDグループの複数からなるプールの記憶領域を、前記第1の仮想ボリュームに割り当てる、ストレージ装置である。
また、かかる課題を解決するために本発明の記憶領域の割り当て方法は、第1の物理RAIDグループを含む複数の物理RAIDグループを構成する記憶装置と、コントローラと、を有するストレージ装置の仮想ボリュームへの記憶領域の割り当て方法であって、第1の仮想ボリュームへのアクセスに応じて、前記第1の物理RAIDグループの記憶領域又は前記第1の物理RAIDグループの複数からなるプールの記憶領域を、使用順序をもとに順次前記第1の仮想ボリュームへ割り当て、仕切り要求を受信し、前記仕切り要求を受信した後の前記第1の仮想ボリュームアクセスに応じて、次の使用順序の前記第1の物理RAIDグループの記憶領域又は次の使用順序の前記第1の物理RAIDグループの複数からなるプールの記憶領域を、前記第1の仮想ボリュームに割り当てる、記憶領域の割り当て方法である。
本発明によれば、DBMS等からのアクセスにより仮想ボリュームに順次物理ボリュームが割り当てられるストレージにおいて、仕切り指示により仮想ボリュームに割り当てる物理ボリュームを変更することができ、データが格納される仮想ボリュームが異なっても、ある期間ごとにデータの作成日時等により分割して物理ボリュームに格納できる。
本発明を実施するための最良の形態を、説明する。以下、図面を参照しながら本発明の実施例を説明する。
(1)実施例1
図1に、実施例1のITシステム構成を示す。本実施例のITシステムは、DBMSサーバ10000、ストレージ装置20000、ストレージ管理サーバ30000、SAN(Storage Area Network)40000、管理用ネットワーク50000、それぞれを接続するデータパス41001、41002、51001〜51003とから構成される。
図2に、ストレージ装置20000の物理的な構成を示す。ストレージ装置20000は、RAIDコントローラ21000、メモリ22000、物理RG(Raid Group)(a)23100、物理RG(b)23200、物理RG(c)23300、物理RG(d)23400とから構成される。ここで、物理RGは、物理的なRaid Groupを意味し、図2中のグループ数は、これに限定されるものではなく、複数のグループがあれば良い。また、物理的なRaid Groupは、RAIDを採用していないディスクコントローラの場合、物理的なディスクボリュームを適用することもできる。
RAIDコントローラ21000は、構成管理処理プログラム21100、仕切り要求処理プログラム21200、入出力要求処理プログラム21300を保持する。また、RAIDコントローラ21000は、SAN40000へ、データパス41001を介して接続され、管理用ネットワーク50000へデータパス51001を介して接続される。更に、メモリ22000と、物理RG(a)23100から物理RG(d)23400と、1本以上のデータパスで接続される。
メモリ22000は、管理情報22100を保持する。また、管理情報22100は、テーブル「構成管理」22110、テーブル「使用領域管理」22120、テーブル「空領域管理」22130を保持する。
以下、物理RG内の記憶領域の配置は、説明簡便化のため、一例である。また、DB管理者が、最初に、3つある仮想ボリュームに、それぞれDB基本領域を作成した場合とする。物理RGや仮想ボリュームの構成はこれに限定されるものではない。
物理RG(a)23100は、使用領域(a)23110を含む。この例は、物理RG(a)23100に、空領域がなくなった状態である。使用領域(a)23110は、基本DB領域(A1)23111、基本DB領域(B1)23112、基本領域(C1)23113、拡張DB領域(A2)23114を含む。
物理RG(b)23200は、使用領域(b)23210、空領域(b)23220を含む。使用領域(b)23210は、拡張DB領域(B2)23211、拡張DB領域(B3)23212を含む。ここで、空領域とは、まだ、仮想ボリュームに割り当てられていない記憶領域を示している。従って、物理RG(b)は、まだ、未使用領域(未割り当て領域)が存在する物理RGの例となる。そして、通常、下記の仮想VOLへアクセスに応じて、記憶領域が必要となった場合に、物理RG(b)の未使用領域から記憶領域を順次割り当てる。ここで、本実施形態において、アクセスとはライトアクセスとリードアクセスとを含む。
物理RG(c)23300は、空領域(c)23320を含む。この物理RG(c)は、まだ、仮想ボリュームに割り当てられていない新しい物理RGの例である。この例では、物理RG(b)の空領域がなくなった場合、下記の仮想VOLへのアクセスに応じて、記憶領域が必要となった場合に、この物理RG(c)から記憶領域が割り当てられる。
物理RG(d)23400は、DB領域管理領域(A0)23411、DB領域管理領域(B0)23412、DB領域管理領域(C0)23413を含む。本実施例では、この物理RG(d)23400は、アクセスなどに応じて順次仮想ボリュームに割り当てられることはせず、下記の仮想VOL(d)に常にすべての記憶領域が割り当てられ、使用される。この例において、DB領域管理領域とは、DBMSがDB領域のリポジトリ管理のための情報を保持する領域である。そして、情報の新旧に関わらず、アクセスが均一に発生するもしくは、アクセスが均一に発生すると見込まれものが、予めDB領域管理領域に保持されるように、DB管理者が、DBMSを構成する。
対応関係22401の矢印は、テーブル「空領域管理」22130が保持する空領域の先頭を示す。図2の状態では、空領域(b)の先頭を示す。仮想ボリュームに新たな記憶領域が必要になった場合、この空領域(b)23220から順次記憶領域を割り当てる。
図3に、図2に示した物理的な構成の論理的な構成を示す。RAIDコントローラ21000は、SAN40000から見て、仮想VOL(仮想ボリューム)(A)24100、仮想VOL(B)24200、仮想VOL(C)24300、仮想VOL(D)24400が、存在しているように動作する。ここで、仮想VOLは、仮想的なディスクボリュームを意味する。それぞれの仮想VOLの実記憶領域として、物理RGが割り当てられる。例えば、RAIDコントローラ21000は、仮想VOL(A)24100は、基本DB領域(A1)23111、拡張DB領域(A2)23114を保持したディスクボリュームに見せる。同様に、仮想VOL(B)24200は、基本DB領域(B1)23112、拡張DB領域(B2)23211、拡張DB領域(B3)23212を保持する。仮想VOL(C)24300は、基本DB領域(C1)23113を保持する。なお、矢印24110、矢印24210、矢印24310は、それぞれのDB領域が追加された時間的な順序を示している。つまり、矢印の先端に向かうにしたがって、新しいDB領域であることを示す。
仮想VOL(D)24400は、DB領域管理領域(A0)23411、DB領域管理領域(B0)23412、DB領域管理領域(C0)23413を保持する。仮想VOL(D)には、アクセスに応じて、物理RG(a)から物理RG(b)の記憶領域を割り当てられることはなく、物理RG(d)のすべての記憶領域が仮想VOL(D)の記憶領域として割り当てられる。
以上、図2と図3によって、仮想ボリュームを利用する場合、異なる仮想ボリューム上の記憶領域が必ずしも、異なる物理ボリュームへ割り当てられないことがわかる。
図4に、DBMSサーバ10000の構成を示す。DBMSサーバ10000は、CPU11000、メモリ12000、通信アダプタ13000、ストレージアダプタ14000から構成され、それぞれは、データパスで接続される。
メモリ12000は、DB領域再配置プログラム12100と、DBMSプログラム12200を保持する。DB領域再配置プログラム12100は、従来の一般的なデータベース管理システムのソフトウェアである。DBMSプログラム12200は、従来の一般的なデータベース管理システムのソフトウェアである。
通信ネットワークアダプタ13000は、IPプロトコルをサポートする一般的なNicでよく、データパス51002を介して、管理用ネットワーク50000へ接続する。
ストレージアダプタ14000は、SCSI、Fiber Channelなどの一般的なHostBus Adapterで良く、データパス41002を介して、SAN40000へ接続する。
図5に、ストレージ管理サーバ30000の構成を示す。
ストレージ管理サーバ30000は、CPU31000、メモリ32000、通信ネットワークアダプタ33000、ユーザIFアダプタ34000とから構成され、それぞれデータパスを介して接続される。メモリ32000は、ストレージ管理プログラム32100を保持する。本実施例では、このストレージ管理プログラム32100は、ユーザIFからの指示を、ストレージ装置20000へ、管理用ネットワーク50000を介して送るプログラムであれば良い。
通信ネットワークアダプタ33000は、IPプロトコルをサポートする一般的なNicでよく、データパス51002を介して、管理用ネットワーク50000へ接続する。
また、ユーザIFアダプタ34000は、操作者へ情報を表示するデバイスとしてディスプレイ34001と、情報を入力するデバイスとしてキーボード34002とポインティングデバイス34003を接続するインタフェースアダプタである。ポンティングデバイス34003は、マウスやトラックボールなどである。
図6に、仮想ボリュームである仮想VOL(C)24300へ、新しい記憶領域である拡張DB領域(C2)23311へアクセス21401が起きたときのストレージ装置20000の論理的な構成を示す。
RAIDコントローラ21000が、データパス41001を介して、拡張DB領域(C2)へのアクセス21401を受けた場合、内蔵する入出力要求処理プログラム21300が実行され、拡張DB領域の(C2)へのアクセスが実行される。この処理の説明は、以降の図18で説明する。
図7に、図6の動作が実行された場合のストレージ装置20000の物理的な構成を示す。新たにアクセスが発生した拡張DB領域(C2)23213には、テーブル「空領域管理」22130が、次に割り当てられる記憶領域として指し示している物理RG(b)23200の空領域(b)23220の先頭の記憶領域を割り当てられる。そして、拡張DB領域(C2)23213として、使用領域23210に保持し、テーブル「空領域管理」22130は、残りの空領域(b)23220の先頭を指し示すように更新する。
図8も、ストレージ管理サーバ30000から、管理用ネットワーク50000経由で、仕切り要求21402を、RAIDコントローラ21000が受けた場合のストレージ装置20000の物理的構成を示す。
RAIDコントローラ21000は、仕切り要求21402を受信すると、内蔵する仕切り要求処理プログラム21200を実行する。仕切り要求処理プログラム21200は、テーブル「空領域管理」が指し示している、次に仮想ボリュームに割り当てられる物理RGの記憶領域として、物理RG(b)23200の空領域(b)23220の先頭の記憶領域から、次の物理RG(c)23300の空領域(c)23320の先頭の記憶領域を指し示すように更新する。
図9は、図8の動作後に、拡張DB領域(C2)のアクセス22000が発生した場合のストレージ装置20000の物理的な構成を示す。
RAIDコントローラ21000は、SAN40000を介して、拡張DB領域の(C2)へのアクセス22000を受けると、内蔵する入出力要求処理プログラム21300によって、新たな記憶領域を、テーブル「空領域管理」22130が示す物理RG(C)23300の先頭の記憶領域から取得する。そして、使用領域23310の拡張DB領域(C2)23311を仮想ボリュームに割り当てる記憶領域として保持する。また、テーブル「空領域管理」22130が示していた領域は、割り当てた領域を除いた空領域23320の先頭の記憶領域へと更新する。仕切り要求の受信がなかったときの図7と比べ、ストレージ装置20000が、仕切り要求を受信したか否かで、新たに仮想ボリュームに割り当てられる記憶領域の物理的配置が異なる。
以上、図6から図9までの処理内容は、以降の図18で説明する。
図10に、テーブル「構成管理」22100の構成を示す。テーブル「構成管理」22100は、仮想ボリュームに割り当てる記憶領域を取得する物理RGの一覧と順序を管理する。このテーブルに、物理RG毎にレコードとして登録し、登録する使用順序で、物理RGが仮想ボリュームに割り当てられる。テーブル「構成管理」22100は、カラム「使用順序」22110、カラム「物理RG識別情報」22120、カラム「記憶領域の数」22130、カラム「空領域の数」22140、カラム「動作モード」22150を有する。
本実施例では、カラム「使用順序」22110に保持する値で、昇順に、登録されている物理RGが仮想ボリュームに割り当てられる。つまり、各仮想ボリュームへの物理領域の割り当て指示があった順に、使用順序の小さい物理RGの物理領域から割り当てられ、該物理RGの記憶領域の割り当てがすべて終了した後、次に小さい物理RGの物理領域を割り当てる。
カラム「物理RG識別情報」22120は、ストレージ装置20000が扱う物理RGを識別するための番号若しくは記号であれば良い。
カラム「記憶領域の数」22130は、物理RGの記憶容量に相当する値で、論理ブロック数若しくは、その整数倍のなど、記憶ブロックの数量であれば良い。
カラム「空領域の数」22140は、前記の記憶ブロックの数量の内、仮想VOLに割り当てられていない数量であれば良い。
カラム「動作モード」22150は、物理RGの動作モードを示す値であれば良く、本実施例では、そのカラムの値として、「省エネ」は、省電力状態を示しており、ディスクの回転数を停止させたスピンダウン状態とし、「通常」は、ホストからのアクセスに応答可能な状態であって、スピンアップ状態を、意図している。「省エネ」としては、スピンダウン状態だけではなく、ディスクの回転数を減少させた状態、ディスクへの電源供給を停止させた状態などであってもよい。
そして、仕切り要求受信する前に仮想ボリュームに割り当てるために使用していた物理RGを「省エネ」とする。仕切り要求を受信した後に、仕切り要求を受信する前に仮想ボリュームを割り当てるために使用されていた物理RGへのアクセスが減少する、もしくは全くなくなる場合には、該物理RGを省電力状態にすることで、消費電力を低減できる効果がある。
なお、仮想ボリューム(d)(物理VOL(d))へは、情報の新旧に関わらず、アクセスが均一に発生するもしくは、アクセスが均一に発生すると見込まれるため、「通常」状態であることが好ましい。
図11に、テーブル「構成管理」22100の他の例を示す。これは、図10に代替することのできるテーブル「構成定義」の構成である。仮想VOLへの物理RGの割り当てに際して、特定の物理RGへアクセスが集中しないように、複数の物理RGをグルーピングして、その中の物理RGをラウンドロビンで使用する場合のテーブルの構成例である。つまり、図11のテーブルは、図10のテーブル22100へ、カラム「ラウンドロビン」22160を追加したテーブルである。カラム「ラウンドロビン」22160により、使用順序の前にラウンドロビンの順序を優先して、記憶領域を、仮想VOLへ割り当てる。この割り当て順序であっても、同様に、本発明を適用することができる。また、この場合、カラム「使用順序」の値で、同じ値を有する物理RG群を、プールとして管理しても良い。
図12に、テーブル「使用領域管理」22200の構成を示す。テーブル「使用領域管理」22200は、主に、仮想VOL上のホストに提供される仮想的な記憶領域と、実際にデータを保持する物理RG上の記憶領域の対応関係を保持するテーブルである。テーブル「使用領域管理」22200は、カラム「仮想VOL識別情報」22210、カラム「仮想VOL記憶領域識別番号」22220、カラム「物理RG識別番号」22230、カラム「物理RG記憶領域識別番号」22240を有する。カラム「仮想VOL識別情報」22210は、仮想ボリュームを識別するための番号若しくは記号を格納し、例えばSCSI仕様の論理ユニット番号(LUN)などである。また、カラム「仮想VOL記憶領域識別番号」22220とカラム「物理RG記憶領域識別番号」22240は、例えばSCSI仕様での論理ブロックアドレス(LBA)である。カラム「物理RG識別情報」22230は、図11で説明しているカラム「物理RG識別情報」22120と同様である。
図13に、テーブル「空領域管理」22300の構成を示す。テーブル「空領域管理」22300は、新しい記憶領域を、どの物理RGから取得するかの情報を保持すると共に、各仮想ボリュームのVOL属性情報を保持する。テーブル「空領域管理」22300は、カラム「仮想VOL識別情報」22310、カラム「VOL属性」22320、カラム「記憶領域を取得する物理RG識別情報」22330を有する。
本実施例では、カラム「VOL属性」22320には、その仮想ボリュームの仮想化の方法を区別する情報が入る。例えば、値として、「容量仮想化」は、仮想ボリュームへのアクセスなどに応じて、記憶領域が必要となった場合に、順次物理RGから記憶領域が割り当てられる仮想化の方法が適用されていることを示し、「通常」は、仮想ボリュームと物理RGとが一対一で対応し、アクセスなどによらずに、常にすべての記憶領域が物理RGより割り当てられている仮想化アクセスに応じて物理RGの記憶領域が割り当てられることはない、仮想化の方法が適用される。
具体的には、本実施例の場合、仮想VOL(a)から仮想VOL(c)が「容量仮想化」であり、仮想VOL(d)が「通常」となる。
カラム「記憶領域を取得する物理RG識別情報」22330は、新たに必要となった記憶領域を取得する物理RGを示す。また、容量仮想化が適用されない仮想ボリュームでは、対応する物理RGを示す。
なお、カラム「VOL属性」22320は、このテーブル22300と必ずしも一体になっている必要はなく、ボリュームを管理する別のテーブルに含まれていても差し支えない。
以降、図を参照して、RAIDコントローラ20000の動作を説明する。
図14に、RAIDコントローラ21000が、管理用ネットワーク50000経由で、管理要求を受け取った際の動作を示す。RAIDコントローラ21000は、処理ブロック90101にて、管理要求を受信し、処理ブロック90102実行する。
処理ブロック90102にて、受信した管理要求が、構成管理要求であれば、処理ブロック90104にて構成管理処理プログラム21100を実行する。具体的には、処理ブロック90106にて、テーブル「構成管理」22100のカラム「動作モード」22150の値が「省エネ」であるレコードのカラム「物理RG識別情報」22120の値を取得し、それに相当する物理RGへスピンダウン要求を送る。処理ブロック90107にて、テーブル「構成管理」22100のカラム「動作モード」22150の値が「通常」であるレコードのカラム「物理RG識別情報」22120の値を取得し、それに相当する物理RGへスピンアップ要求を送る。ここで、スピンダウン要求とスピンアップ要求は、例えば、SCSI規格でのコマンド「Start/Stop Unit」(1Bh)に相当し、ハードディスクドライブのモータの回転の制御を行う要求のことである。スピンダウン要求により、モータの回転が止まると、一般的に、それに伴い、ハードディスクの消費電力が減る。また、「省エネ」に設定される物理RGへ直ぐに、スピンダウン要求を送ることをしなくても良く、既定時間内に、当該の物理RGにアクセスが発生無ければ、スピンダウン要求を送るような方法であっても良い。
処理ブロック90103にて、受信した管理要求が仕切り要求であれば、処理ブロック90105にて、仕切り要求処理プログラム21200を実行する。また、受信した要求が、仕切り要求でなければ、終了する。
図15に、SAN40000経由で入出力要求を受け取った際のRAIDコントローラ20000の動作を示す。処理ブロック90201にて、DBMSサーバから入出力要求を受信し、処理ブロック90202にて、入出力要求処理プログラム21300を実行して、終了する。
図16に、構成管理処理プログラム21100の動作を示す。処理ブロック90301にて、構成管理要求のパラメータを受信する。次に、処理ブロック90302にて、受信したパラメータより構成管理要求が構成表示要求であるかどうかを判断する。構成表示要求である場合、処理ブロック90304にて、要求された情報を、メモリの保持する管理情報であるテーブル「構成管理」22110、テーブル「使用領域管理」22120、テーブル「空領域管理」22130から抽出して、ストレージ管理サーバへ送信する。
処理ブロック90302にて、構成管理要求が構成表示要求でない場合、処理ブロック90303にて、受信したパラメータから構成管理要求が構成更新要求であるかどうかを判断する。構成更新要求であった場合、処理ブロック90305にて、指定された情報を、ストレージ管理サーバ30000から受信し、メモリの保持する管理情報の各テーブルである、テーブル「構成管理」22110、テーブル「使用領域管理」22120、テーブル「空領域管理」22130を更新する。
図17に、仕切り要求処理プログラム21200の動作を示す。
ここで、仕切り要求処理プログラム21200は、ストレージ管理サーバ30000からの仕切り要求を受信することにより処理が開始される。該仕切り要求は、DBMSサーバや管理サーバから自動的に発行される。しかし、これに限定されるものではなく、操作者により手動で発行されてもよい。そして、該仕切り要求が発行されるタイミングは、ストレージ管理サーバまたはDBMSサーバ上のタイマーにより月末、期末、年度末などの締め切り日後の予め決められた日時である。月末、期末、年度末などの締め切り日後の予め決められた日時に仕切り要求を発行することにより、取引が既に終了しアクセス頻度が低いデータと、取引中でありアクセス頻度が高いデータとを異なる物理RGに格納することができる。
しかし、これに限定されるものではなく、さらに、該仕切り要求が発行されるタイミングは、ボリュームのデータのバックアップを開始する時もしくは終了する時であってもよい。該タイミングで、仕切り要求の発行させることで、バックアップデータが格納される物理RGとその他のデータが格納される物理RGを分けて格納することができ、同じ物理RGに通常のアクセスと、バックアップによるアクセスとが発行されず、性能干渉を軽減することができる。
仕切り要求処理プログラム21200の動作は、まず、処理ブロック90401にて、ストレージ管理サーバ30000から、仕切り要求の対象となる仮想VOL識別情報を受信する。
その後、処理ブロック90402にて、テーブル「空領域管理」22300のカラム「仮想VOL識別情報」22310から、受信した仮想VOL識別情報を持つレコードを検索し、カラム「VOL属性」22320とカラム「記憶領域を取得する物理RG識別情報」22330のそれぞれの値を取得する。
次に、処理ブロック90403にて、取得したカラム「VOL属性」22320の値が、容量仮想化を示しているかどうかを判断する。容量仮想化を示す場合、処理ブロック90404に移行し、示さない場合には、プログラムを終了する。
処理ブロック90404にて、テーブル「構成管理」22100のカラム「物理RG識別情報」22120から、取得した「記憶領域を取得する物理RG識別情報」の物理RG識別情報を持つレコードを検索し、そのレコードのカラム「使用順序」22110の値を取得する。
処理ブロック90405にて、テーブル「構成管理」22100のカラム「使用順序」22110に、検索結果の使用順序に1を加算した値を持つレコードを検索し、そのレコードのカラム「物理RG識別情報」22120の値を、取得する。
処理ブロック90406にて、先に、テーブル「空領域管理」22300で検索したレコードのカラム「記憶領域を取得する物理RG識別情報」22330を、前のステップで取得した物理RG識別情報へ更新し、終了する。
以上の仕切り要求処理により、次回の入出力処理により仮想ボリュームへ物理ボリュームを新たに割り当てる時、現在仮想ボリュームへの割り当てに使用されている物理ボリュームではなく、使用されていない(記憶領域のすべてが空領域である)物理RGの中で使用順序が最も小さい新たな物理ボリュームより割り当てられることになる。
したがって、ある時間帯より後に新たに割り当てられる記憶領域を別の物理RGより割り当てることができる。そして、異なる仮想ボリュームに格納されるレコードであっても、ある期間(前回の仕切り指示から今回の仕切り指示までの期間など)に作成されたレコードであれば、少なくとも1以上の物理RGに集めて格納することができる。
なお、本実施例では、仕切り要求処理プログラム21200の動作は、操作者が、ストレージ管理サーバ30000から、構成管理要求を送り、図16にて説明した構成管理処理プログラム21100にて、テーブル「空領域管理」22130のカラム「記憶領域を取得する物理RG識別情」22330を、更新することで代用しても、差し支えない。また、操作者が指定する物理RGから、記憶領域を取得させるようにする場合、同様に、この構成管理処理プログラム21100を使用すれば良い。
図18から図20によって、入出力要求処理プログラム21300の動作を示す。
図18の処理ブロック90501にて、入出力要求、論理VOL識別情報、論理VOL記憶領域識別番号を受信する。
次に、処理ブロック90502にて、テーブル「使用領域管理」22200のカラム「仮想VOL識別情報」22210とカラム「仮想VOL記憶領域識別番号」22220が、それぞれ受信した「論理VOL識別情報」、「論理VOL記憶領域識別番号」と一致するレコードを検索する。
処理ブロック90503にて、検索結果の有無を判定し、一致するレコードがあれば、処理ブロック90505を実行する。もし、一致するレコードがない場合、処理ブロック90504を実行する。
処理ブロック90505では、検索結果のレコードのカラム「物理RG識別情報」22230と「物理RG記憶領域識別番号」22240のそれぞれの値に相当する記憶領域を、アクセス対象として、データの入出力を行い、処理を終了する。
処理ブロック90503にて、テーブル「使用領域管理」22200に受信した各識別番号に一致するレコードがない場合、処理ブロック90504にて、テーブル「空領域管理テーブル」22300のカラム「仮想VOL識別情報」22310の値が、対象の論理VOL識別情報と同じレコードを検索し、検索したレコードのカラム「記憶領域を取得する物理RG識別情報」22330の値を取得する。
次に、処理ブロック90506にて、前処理ブロック90504で取得した物理RG識別情報の値と、テーブル「構成管理」22100のカラム「物理RG識別情報」22120で値が一致するレコードを検索し、検索したレコードのカラム「記憶領域の数」22130とカラム「空領域の数」22140の値を、それぞれ取得を実行する。
そして、処理ブロック90507にて、前処理ブロック90506で取得した空領域の数が、既定数以上かを判定し、既定数以上であれば、図19の処理ブロック90601、そうでなければ、図20の処理ブロック90701を実行する。ここで、既定値は、記憶領域の割り当て単位に相当する値で、割り当てる記憶領域を1つ分に相当する値以上であればよい。
図19の処理ブロック90601にて、前処理ブロック90506にて検索したレコードのカラム「空領域の数」の値を、格納されている値から既定数を減算した値に、更新する。
処理ブロック90602にて、前処理ブロック90506で取得したカラム「記憶領域の数」とカラム「空領域の数」の値から、空領域の先頭の記憶領域識別番号を算出する。なお、この算出は、例えば、カラム「記憶領域の数」の値から、カラム「空領域の数」の値を、引算した値を使うことができる。
処理ブロック60603にて、入出要求対象の仮想VOL識別情報、仮想VOL記憶領域識別番号と、検索した空領域の物理RG識別情報と、算出した空領域の先頭の記憶領域識別番号を、テーブル「使用領域管理」22200のレコードとして構成し、追加する。その後、図18の処理ブロック90502を実行する。
図20の処理ブロック90701にて、前処理ブロック90506で取得しているテーブル「構成管理」22100の、前処理ブロック90506にて検索したレコードに対応する、カラム「使用順序」22110の値に1を加算した値で、テーブル「構成管理」22100のカラム「使用順序」22110の値が一致するレコードを検索し、その検索結果のレコードのカラム「物理RG識別情報」22120の値を取得する。つまり、次の使用順序の物理RG識別情報を取得する。
処理ブロック90702にて、処理ブロック90701の検索で、一致するレコードがあるかどうか(次の使用順序の物理RGが存在するかどうか)を判断し、一致するレコードがある場合には処理ブロック90703を実行し、一致するレコードがない場合には、プログラムを終了する。
処理ブロック90703にて、前処理ブロック90701の検索結果のレコードのカラム「物理RG識別情報」の値で、検索結果のテーブル「空領域管理」のレコードのカラム「記憶領域を取得する物理RG識別情報」の値を、更新し、図18の処理ブロック90504を実行する。なお、この際、テーブル「空領域管理」22300で、カラム「記憶領域を取得する物理RG識別情報」に、同じ値を有するレコードがあれば、同様に更新しても差し支えない。
以上で、RAIDコントローラ20000に内蔵する構成管理処理プログラム21100、仕切り要求処理プログラム21200、入出力要求処理プログラム21300の動作の説明した。
図21に、操作者によって、ストレージ管理サーバ30000で実施される仕切り指示の手順を示す。
作業ブロック90801にて、ストレージ管理サーバ30000から、仕切り要求を、ストレージ装置へ送信する。
作業ブロック90802にて、DBMSサーバ10000から、DBMSプログラム12200を使って、DB領域の拡張領域の追加操作を実施する。
作業ブロック90803にて、DBMSサーバ10000で、DB領域再配置プログラム12100を使用して、アクセス頻度の高い記憶領域のデータを、仮想VOL(D)24400の記憶領域へ再配置する。
図28と図29によって、DB領域再配置プログラム12100の動作を説明する。図28の、処理ブロック90901にて、DBMSプログラム122200からのボリュームアクセスを監視し、各ボリュームのDB領域毎にアクセス回数を集計する。そして、次に、処理ブロック90902にて、最後の仕切り要求を実行する前に存在していたDB領域を対象に、処理ブロック90901にて集計されたアクセス回数であって、最後の仕切り要求実行後のアクセス回数が既定値以上のDB領域を、仮想VOL(D)24400へ移動する。該既定値は、消費電力削減を目的とする場合には、スピンダウンされた物理RGに、データのアクセスが発生すると性能劣化の原因となるので、値「1」が良い。但し、省電力動作目的でなく、バックアップなどとの性能干渉を軽減する目的では、設計者や管理者が設定する1以上の値で実施しても差し支えない。図29は、該アクセス回数が、規定値以上となった場合の再配置先の例を示す。この例では、仮想VOL(D)24200のDB領域23211が、仮想VOL(D)24400に拡張DB領域(D2)23416として、再配置される。仮想VOL(D)には、DB領域管理情報や仮想VOL管理情報などが格納されているが、新たにDB領域23211のデータを格納するために拡張DB領域(D2)を作成する。再配置処理の例としては、再配置先に、同じ容量のDB領域を確保し、そこへデータをコピーし、元のDB領域23211のデータは削除してもよい。また、仮想VOL(D)24400の既存のDB領域23415に、DB領域23211に格納されるデータ容量以上の容量の空きがあれば、DB領域23415に追加して格納してもよい。また、DB領域再配置プログラム12100の中には、DB領域単位のアクセス統計だけでなく、例えば、ボリュームのデータブロック単位などのさらに小さい単位でアクセスの統計を取ることもできる。このような場合も、同様の方法で、再配置すればよい。
以上により、特に例えば、期末や年度末など会計締め切り日の前後でアクセス頻度が大きく異なるようなERPシステムにおいては、仕切り要求が会計締め切り処理終了後に発行される。そして、仕切り要求の実行前に使っていた物理RGの動作モードを、「省エネ」へ変更することで、物理RGの消費電力を低減することができる。
さらに、「省エネ」に変更された物理RGは、該物理RGにアクセスが発生した場合には、「通常」の動作モードに変更するように制御してもよい。そして、最終アクセスから一定期間経過した後に、再度「省エネ」の動作モードに変更するように制御してもよい。
また、「省エネ」に変更された物理RGへある一定期間に集中してアクセスされるなどのアクセススケジュールを設定し、そのアクセススケジュールにそって、「通常」の動作モードに変更するように制御してもよい。
なお、本発明を適用しない場合、例えば、仕切り指示を、ストレージ装置20000へ出さない場合、新旧のレコードが、同じ物理RGに混在して格納されてしまうため、前記の作業ブロック90803で再配置する必要なデータ量は膨大となる。すなわち、本発明は、この再配置するデータ量も、大きく削減する効果がある。
また、仕切り指示前のレコードのバックアップを実施する際、格納される物理RGが、仕切り指示後のレコードと異なるので、バックアップのためにアクセスする物理RGと、仕切り指示後の新しいレコードへのトランザクションのためにアクセスする物理RGとが異なる。したがって、上記バックアップと上記トランザクションが同時に発生したとしても、処理性能の劣化を防止する効果がある。
図22と図23に、本実施例で本発明の効果が顕著に現れるDBテーブルの構成と、そのDBテーブルに対するSQL問合せ例を示す。
図22に、DBテーブル「取引履歴」60000を示す。DBテーブル「取引履歴」60000は、ERPシステムにおいて、取引の内容をレコードとして構成して登録するテーブルの例である。
DBテーブル「取引履歴」60000は、一例としてカラム「日付」60010、カラム「製品番号」60020、カラム「販売数量」60030、カラム「売上」60040を含む。ここで、カラム「日付」60010は、INDEXカラムとして定義する。
図23に、図22のDBテーブル「取引履歴」60000に対するSQL問合せ例を示す。検索条件に、年度などの期間を含めることで、その期間外のレコードへのアクセスが軽減できる。この問合せの意味は、2008年4月1日からの製品番号が、「00055905」である製品の販売数量と売上のそれぞれの合計を求めるSQL問合せである。
(2)実施例2
本発明の他の実施形態2は、図1を、図24で置き換え、図2を、図25で置き換え、図3を、図26で置き換え、図4を、図27で置き換えたITシステムである。
したがって、実施例2の構成は、図1のDBMSサーバ10000を、ホスト装置80000へ置き換えた構成となる。
ホスト装置は、図27に示す構成である。この際、記憶領域再配置プログラム82100は、DB領域再配置プログラム12100と同様の役割を果たす。また、OSプログラム82200は、DBMSプログラム12200と同様の役割を果たす。特に、OSプログラム上で実現されるファイルシステムの領域が、基本DB領域と拡張DB領域とからなるDB領域に対応する。
図25と図2の違いは、図25のDB領域を、図2においては記憶領域とした部分である。例えば、基本DB領域(A1)23111は、仮想VOL(A)記憶領域(1)23115に対応する。同様に、基本DB領域(B1)23112は仮想VOL(B)記憶領域(1)23116、基本DB領域(C1)23113は仮想VOL(C)記憶領域(1)23117、拡張DB領域(A2)23114は仮想VOL(A)記憶領域(2)23118、拡張DB領域(B2)23211は仮想VOL(B)記憶領域(2)23213、拡張DB領域(B3)23212は仮想VOL(B)記憶領域(3)23214、DB領域管理領域(A0)23411、仮想VOL(A)管理情報領域23414、DB領域管理領域(B0)23411は仮想VOL(B)管理情報領域23414、DB領域管理領域(C0)23411は仮想VOL(C)管理情報領域23414に対応する。
図26に、ストレージ装置20000の論理的な構成を示す。図26は、図25と同様の3に、上記の対応関係のある構成である。
その他は、同様で、本発明は差し支えなく実施できる。
これにより、ファイルが時間経過と共に追記されて行くアーカイブ用途のファイル格納において、仕切り指示によって、仕切り指示前の古いファイルのデータの物理RGの格納先、仕切り指示後の新しいファイルのデータの物理RGの格納先が、異なる。そたがって、仕切り指示前の古いファイルが格納される物理RGを、スピンダウンするなど、省電力が可能となる。
また、仕切り要求に実行によって、データ再配置プログラムを適用した際、再配置するデータ量が少なくなる効果がある。
また、仕切り指示前のファイルのバックアップを実施する際、格納される物理RGが、仕切り指示後のファイルと異なるので、バックアップのためにアクセスする物理RGと、仕切り指示後の新しいレコードへのトランザクションのためにアクセスする物理RGとが異なる。したがって、上記バックアップと上記トランザクションが同時に発生したとしても、処理性能の劣化を防止する効果がある。
本実施形態の物理的なシステム構成を示す図である。 本実施形態の物理的なストレージ構成を示す図である。 本実施形態の論理的なストレージ構成を示す図である。 本実施形態のDBMSサーバの構成を示す図である。 本実施形態のストレージ管理サーバの構成を示す図である。 本実施形態の論理的なストレージ構成(拡張DB領域の追加例)を示す図である。 本実施形態の仮想VOLへの記憶領域割り当(通常)を示す図である。 本実施形態の仮想VOLへの記憶領域割り当(仕切り要求受領時)を示す図である。 本実施形態の仮想VOLへの記憶領域割り当(仕切り要求受領後)を示す図である。 本実施形態のテーブル「構成管理」の構成を示す図表である。 本実施形態のテーブル「構成管理」の構成(バリエーション)を示す図表である。 本実施形態のテーブル「使用領域管理」の構成を示す図表である。 本実施形態のテーブル「空領域管理」の構成を示す図表である。 本実施形態の管理系処理の流れを示すフローチャートである。 本実施形態の入出力系処理の流れを示すフローチャートである。 本実施形態の構成管理処理の流れを示すフローチャートである。 本実施形態の仕切り要求処理の流れを示すフローチャートである。 本実施形態の入出力要求処理の流れ(1)を示すフローチャートである。 本実施形態の入出力要求処理の流れ(2)を示すフローチャートである。 本実施形態の入出力要求処理の流れ(3)を示すフローチャートである。 本実施形態の拡張DB領域の追加の作業手順を示すフローチャートである。 本実施形態のDBテーブルの構成例を示す図表である。 本実施形態のSQL問合せ例を示す図である。 本実施形態の物理的なシステム構成(バリエーション)を示す図である。 本実施形態の物理的なストレージ装置の構成(バリエーション)を示す図である。 本実施形態の論理的なストレージ構成(バリエーション)を示す図である。 本実施形態のホスト装置の構成(バリエーション)を示す図である。 本実施形態のDB領域再配置の処理の流れを示すフローチャートである。 本実施形態のDB領域再配置の構成例を示す図である。
符号の説明
10000:データベース管理システム(DBMS)サーバ、20000:ストレージ装置、30000:ストレージ管理サーバ、40000:ストレージエリアネットワーク(SAN)、50000:管理用ネットワーク、41001〜41002:ストレージ接続パス、51001〜51003:ネットワーク接続パス

Claims (15)

  1. 第1の物理RAIDグループを含む複数の物理RAIDグループを構成する記憶装置と、
    コントローラと、を有し、
    前記コントローラは、第1の仮想ボリュームへのアクセスに応じて、前記第1の物理RAIDグループの記憶領域又は前記第1の物理RAIDグループの複数からなるプールの記憶領域を、使用順序をもとに順次前記第1の仮想ボリュームへ割り当て、
    前記コントローラは、仕切り要求を受信し、
    前記コントローラは、前記仕切り要求を受信した後の前記第1の仮想ボリュームアクセスに応じて、次の使用順序の前記第1の物理RAIDグループの記憶領域又は次の使用順序の前記第1の物理RAIDグループの複数からなるプールの記憶領域を、前記第1の仮想ボリュームに割り当てる、
    ストレージ装置。
  2. 請求項1に記載のストレージ装置であって、
    前記コントローラは、前記仕切り要求を受信する前に、前記第1の仮想ボリュームに割り当てられた記憶領域を有する前記第1の物理RAIDグループを構成する記憶装置を、前記仕切り要求を受信した後に省電力状態に移行する、
    ストレージ装置。
  3. 請求項2に記載のストレージ装置であって、
    前記省電力状態に移行した前記第1の物理RAIDグループに対し、アクセスがある場合に、前記記憶装置を省電力状態からアクセスへの応答可能な状態に移行する、
    ストレージ装置。
  4. 請求項2に記載のストレージ装置であって、
    前記省電力状態に移行した前記第1の物理RAIDグループへのアクセススケジュールを設定し、
    前記設定されたアクセススケジュールに従って、前記記憶装置を省電力状態からアクセスへの応答可能な状態に移行する、
    ストレージ装置。
  5. 請求項1に記載のストレージ装置であって、
    前記複数の物理RAIDグループは、さらに第2の物理RAIDグループを含み、
    前記第2の物理RAIDグループの記憶領域は、アクセスによらずに、第2の仮想ボリュームに割り当てられる、
    ストレージ装置。
  6. 請求項5に記載のストレージ装置であって、
    前記第2の物理RAIDグループを構成する記憶装置は、アクセスへの応答可能な状態である、
    ストレージ装置。
  7. 請求項6に記載の
    前記コントローラは、前記仕切り要求を受信する前に前記第1の仮想ボリュームに割り当てられていた記憶領域を有する前記第1の物理RAIDグループに格納されたデータへの、前記仕切り要求を受信した後のアクセス回数が、規定値を超える場合には、前記データを前記第2の物理RAIDグループに移動する、
    ストレージ装置。
  8. 第1の物理RAIDグループを含む複数の物理RAIDグループを構成する記憶装置と、コントローラと、を有するストレージ装置の仮想ボリュームへの記憶領域の割り当て方法であって、
    第1の仮想ボリュームへのアクセスに応じて、前記第1の物理RAIDグループの記憶領域又は前記第1の物理RAIDグループの複数からなるプールの記憶領域を、使用順序をもとに順次前記第1の仮想ボリュームへ割り当て、
    仕切り要求を受信し、
    前記仕切り要求を受信した後の前記第1の仮想ボリュームアクセスに応じて、次の使用順序の前記第1の物理RAIDグループの記憶領域又は次の使用順序の前記第1の物理RAIDグループの複数からなるプールの記憶領域を、前記第1の仮想ボリュームに割り当てる、
    記憶領域の割り当て方法。
  9. 請求項8に記載の記憶領域の割り当て方法であって、
    前記仕切り要求を受信する前に、前記第1の仮想ボリュームに割り当てられた記憶領域を有する前記第1の物理RAIDグループを構成する記憶装置を、前記仕切り要求を受信した後に省電力状態に移行する、
    記憶領域の割り当て方法。
  10. 請求項9に記載の記憶領域の割り当て方法であって、
    前記省電力状態に移行した前記第1の物理RAIDグループに対し、アクセスがあった場合には、前記記憶装置を省電力状態からアクセスへの応答可能な状態に移行する、
    記憶領域の割り当て方法。
  11. 請求項9に記載の記憶領域の割り当て方法であって、
    前記省電力状態に移行した前記第1の物理RAIDグループへのアクセススケジュールを設定し、
    前記設定されたアクセススケジュールに従って、前記記憶装置を省電力状態からアクセスへの応答可能な状態に移行する、
    記憶領域の割り当て方法。
  12. 請求項8に記憶領域の割り当て方法であって、
    前記複数の物理RAIDグループは、さらに第2の物理RAIDグループを含み、
    前記第2の物理RAIDグループの記憶領域は、アクセスによらずに、第2の仮想ボリュームに割り当てられる、
    記憶領域の割り当て方法。
  13. 請求項12に記載の記憶領域の割り当て方法であって、
    前記第2の物理RAIDグループを構成する記憶装置は、アクセスへの応答可能な状態に設定する、
    記憶領域の割り当て方法。
  14. 請求項13に記載の記憶領域の割り当て方法
    前記仕切り要求を受信する前に前記第1の仮想ボリュームに割り当てられていた記憶領域を有する前記第1の物理RAIDグループに格納されたデータへの、前記仕切り要求を受信した後のアクセス回数が、規定値を超える場合には、前記データを前記第2の物理RAIDグループに移動する、
    記憶領域の割り当て方法。
  15. 第1の物理RAIDグループと第2の物理RAIDグループを含む複数の物理RAIDグループを構成する記憶装置と、
    コントローラと、を有し、
    前記コントローラは、第1の仮想ボリュームへのアクセスに応じて、前記第1の物理RAIDグループの記憶領域又は前記第1の物理RAIDグループの複数からなるプールの記憶領域を、使用順序をもとに順次前記第1の仮想ボリュームへ割り当て、
    前記第2の物理RAIDグループの記憶領域は、常にアクセスへの応答可能な状態であり、アクセスによらずに、第2の仮想ボリュームに割り当て、
    前記コントローラは、仕切り要求を受信し、
    前記コントローラは、仕切り要求を受信した後の前記第1の仮想ボリュームへのアクセスに応じて、次の使用順序の前記第1の物理RAIDグループの記憶領域又は次の使用順序の前記第1の物理RAIDグループの複数からなるプールの記憶領域を、前記第1の仮想ボリュームに割り当て、
    前記コントローラは、前記仕切り要求を受信する前に、前記第1の仮想ボリュームに割り当てられた記憶領域を有する前記第1の物理RAIDグループを構成する記憶装置を、前記仕切り要求を受信した後に省電力状態に移行し、
    前記コントローラは、前記仕切り要求を受信する前に前記第1の仮想ボリュームに割り当てられていた記憶領域を有する前記第1の物理RAIDグループに格納されたデータへの、前記仕切り要求を受信した後のアクセス回数が、規定値を超える場合には、前記データを前記第2の物理RAIDグループに移動する、
    ストレージ装置。
JP2008237327A 2008-09-17 2008-09-17 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置 Expired - Fee Related JP5130169B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008237327A JP5130169B2 (ja) 2008-09-17 2008-09-17 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置
US12/266,843 US20100070706A1 (en) 2008-09-17 2008-11-07 Method of Allocating Physical Volume Area to Virtualized Volume, and Storage Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008237327A JP5130169B2 (ja) 2008-09-17 2008-09-17 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置

Publications (2)

Publication Number Publication Date
JP2010072777A true JP2010072777A (ja) 2010-04-02
JP5130169B2 JP5130169B2 (ja) 2013-01-30

Family

ID=42008249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008237327A Expired - Fee Related JP5130169B2 (ja) 2008-09-17 2008-09-17 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置

Country Status (2)

Country Link
US (1) US20100070706A1 (ja)
JP (1) JP5130169B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118852A1 (en) 2010-03-26 2011-09-29 Yazaki Corporation Fitting Confirmation Construction of Connector for Connecting Circuit Board
JP2013525912A (ja) * 2010-08-11 2013-06-20 株式会社日立製作所 ストレージ装置及びその制御方法
JP2014167812A (ja) * 2014-04-25 2014-09-11 Hitachi Ltd ストレージ装置及びその制御方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8478936B1 (en) * 2009-12-29 2013-07-02 Emc Corporation Spin down of storage resources in an object addressable storage system
US8656099B2 (en) 2010-07-22 2014-02-18 Hitachi, Ltd. Storage apparatus and storage control method for the same
US8650358B2 (en) 2010-08-26 2014-02-11 Hitachi, Ltd. Storage system providing virtual volume and electrical power saving control method including moving data and changing allocations between real and virtual storage areas
US10852966B1 (en) * 2017-10-18 2020-12-01 EMC IP Holding Company, LLC System and method for creating mapped RAID group during expansion of extent pool

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102322A (ja) * 2005-09-30 2007-04-19 Hitachi Ltd 計算機システム及びストレージ装置とシステム管理装置並びにディスク装置電源制御方法
JP2007115270A (ja) * 2006-12-13 2007-05-10 Hitachi Ltd 記憶制御装置及び記憶制御装置の制御方法
JP2007293442A (ja) * 2006-04-21 2007-11-08 Hitachi Ltd ストレージシステム及びその制御方法
JP2008090352A (ja) * 2006-09-29 2008-04-17 Hitachi Ltd 記憶制御装置
JP2008112293A (ja) * 2006-10-30 2008-05-15 Hitachi Ltd 管理計算機及び電源制御方法並びに計算機システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7143299B1 (en) * 2001-03-20 2006-11-28 3Com Corporation Method for power management of intelligent hardware
US7035972B2 (en) * 2002-09-03 2006-04-25 Copan Systems, Inc. Method and apparatus for power-efficient high-capacity scalable storage system
JP4426262B2 (ja) * 2003-11-26 2010-03-03 株式会社日立製作所 ディスクアレイ装置及びディスクアレイ装置の障害回避方法
JP2007316725A (ja) * 2006-05-23 2007-12-06 Hitachi Ltd 記憶領域管理方法及び管理計算機

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102322A (ja) * 2005-09-30 2007-04-19 Hitachi Ltd 計算機システム及びストレージ装置とシステム管理装置並びにディスク装置電源制御方法
JP2007293442A (ja) * 2006-04-21 2007-11-08 Hitachi Ltd ストレージシステム及びその制御方法
JP2008090352A (ja) * 2006-09-29 2008-04-17 Hitachi Ltd 記憶制御装置
JP2008112293A (ja) * 2006-10-30 2008-05-15 Hitachi Ltd 管理計算機及び電源制御方法並びに計算機システム
JP2007115270A (ja) * 2006-12-13 2007-05-10 Hitachi Ltd 記憶制御装置及び記憶制御装置の制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118852A1 (en) 2010-03-26 2011-09-29 Yazaki Corporation Fitting Confirmation Construction of Connector for Connecting Circuit Board
JP2013525912A (ja) * 2010-08-11 2013-06-20 株式会社日立製作所 ストレージ装置及びその制御方法
US8832400B2 (en) 2010-08-11 2014-09-09 Hitachi, Ltd. Storage apparatus and control method thereof
US9423984B2 (en) 2010-08-11 2016-08-23 Hitachi, Ltd. Storage apparatus and control method thereof
JP2014167812A (ja) * 2014-04-25 2014-09-11 Hitachi Ltd ストレージ装置及びその制御方法

Also Published As

Publication number Publication date
JP5130169B2 (ja) 2013-01-30
US20100070706A1 (en) 2010-03-18

Similar Documents

Publication Publication Date Title
US10129333B2 (en) Optimization of computer system logical partition migrations in a multiple computer system environment
JP5502232B2 (ja) ストレージシステム、及びその制御方法
US7613896B2 (en) Storage area dynamic assignment method
US8533419B2 (en) Method for controlling data write to virtual logical volume conforming to thin provisioning, and storage apparatus
US8122116B2 (en) Storage management method and management server
US8380947B2 (en) Storage application performance matching
JP5130169B2 (ja) 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置
WO2013164878A1 (ja) 計算機システムの管理装置および管理方法
US20100082900A1 (en) Management device for storage device
US20080270696A1 (en) Volume assignment management device
WO2015015550A1 (ja) 計算機システム及び制御方法
JP2008015623A (ja) 複数種類の記憶デバイスを備えたストレージシステムの制御装置
JP2009238114A (ja) ストレージ管理方法、ストレージ管理プログラム、ストレージ管理装置およびストレージ管理システム
WO2014155555A1 (ja) 管理システム及び管理プログラム
US8296286B2 (en) Database processing method and database processing system
JP2009053921A (ja) ストレージシステム、計算機及び計算機システム
US20080109630A1 (en) Storage system, storage unit, and storage management system
US8447997B2 (en) Method for managing storage, program and system for the same
JP2007286975A (ja) 計算機システム及びストレージシステム並びにボリューム割り当て方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees