JP2010277289A - 管理プログラム、管理装置および管理方法 - Google Patents

管理プログラム、管理装置および管理方法 Download PDF

Info

Publication number
JP2010277289A
JP2010277289A JP2009128386A JP2009128386A JP2010277289A JP 2010277289 A JP2010277289 A JP 2010277289A JP 2009128386 A JP2009128386 A JP 2009128386A JP 2009128386 A JP2009128386 A JP 2009128386A JP 2010277289 A JP2010277289 A JP 2010277289A
Authority
JP
Japan
Prior art keywords
storage
load
slice
storage area
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009128386A
Other languages
English (en)
Other versions
JP5381336B2 (ja
Inventor
Tatsuo Kumano
達夫 熊野
Yasuo Noguchi
泰生 野口
Kazutaka Ogiwara
一隆 荻原
Masatoshi Tamura
雅寿 田村
Yoshihiro Tsuchiya
芳浩 土屋
Tetsutaro Maruyama
哲太郎 丸山
Takashi Watanabe
高志 渡辺
Kazuichi Oe
和一 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009128386A priority Critical patent/JP5381336B2/ja
Priority to US12/788,546 priority patent/US8443138B2/en
Publication of JP2010277289A publication Critical patent/JP2010277289A/ja
Application granted granted Critical
Publication of JP5381336B2 publication Critical patent/JP5381336B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2206/00Indexing scheme related to dedicated interfaces for computers
    • G06F2206/10Indexing scheme related to storage interfaces for computers, indexing schema related to group G06F3/06
    • G06F2206/1012Load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】分散ストレージシステムに属するストレージノードの負荷の均一化を図ること。
【解決手段】コンピュータ1は、データアクセスの対象となる各仮想記憶領域と、ストレージノード2,3,4,5が有する記録装置内の各実記憶領域と、の割り当て関係を管理する。負荷情報取得手段1cは、各ストレージノードが備える各実記憶領域に対するアクセス情報を各ストレージノードから取得する。負荷情報取得手段1cは、取得したアクセス情報に基づいて各実記憶領域の負荷情報を生成して、生成した負荷情報を負荷情報記憶手段1aに格納する。割当手段1dは、負荷情報記憶手段1aに記憶された負荷情報に基づいて、各ストレージノードの負荷が均一になるように仮想記憶領域への実記憶領域の割り当て関係を変更する。指示手段1eは、仮想記憶領域に割り当てる実記憶領域の変更に伴い、各ストレージノードに対して実記憶領域のデータの移動を指示する。
【選択図】図1

Description

本発明は、ネットワークを介して分散ストレージシステムを管理する管理プログラム、管理装置および管理方法に関する。
現在、コンピュータを用いたデータ処理が広く行われるようになり、データを保存・利用するためのストレージ技術が一層重要となっている。近年では、データ保存の高信頼化やデータ利用の高速化を図るため、分散ストレージシステムが構築されている。
分散ストレージシステムでは、複数のストレージノードがネットワークを介して接続される。ストレージノードは、記憶装置を備えており、データを記憶する。ストレージノードには、データを分散して格納することができる。これにより、複数のストレージノードに負荷が分散されてシステムの高速化を図れる。また、アクセスノードは、データを冗長して複数のストレージノードに配置することもできる。これにより、データ保存の高信頼化を図れる。
ところで、システムの運用管理において、システムを構成するノードで発生する負荷の監視が行われる。負荷の監視により、負荷の集中しやすいノードや処理能力に余裕があるノードを特定することができる。その結果に基づき、システム全体のチューニング、データ容量の均一化、ハードウェア資源の拡充および機能の追加などを各ノードの利用状況に応じて的確に行うことができる。
例えば、ディスクアレイ装置では、内蔵された複数のディスク装置に対するアクセス頻度やリード/ライトに要した時間などを取得することが考えられる。具体的には、各ディスク装置上の複数のストライプのうちアクセス頻度の高いストライプを、各ディスク装置のうち現在のものよりも高性能なディスク装置上に置き換えることが考えられている。また、ディスクアレイ装置に設けた論理領域ごとに取得した情報と与えられた条件(要求性能や信頼性レベルなど)とに応じて、論理ユニット(1以上の論理領域の結合)に格納されたデータの配置先を他の論理ユニットに変更することが考えられている。
特開平08−063298号公報 特開2008−152807号公報
ここで、分散ストレージシステムでは、複数のストレージノードに跨って論理領域(論理ボリューム)が設けられる。そして、論理ボリュームは、ディスク装置に設けられた複数の実記憶領域(スライス)に細分化して管理される。例えば、複数のストレージノード上の複数のスライスが単一の論理ボリュームに対応付けられる。
しかし、従来は複数のストレージノードからスライスごとの負荷情報を収集する技術がなかった。そのため、ネットワーク経由でストレージノードのスライス割り当てを行う分散ストレージシステムでは、各スライスの負荷を考慮して、ディスクノード間の負荷を均一化させることができなかった。
本発明はこのような点に鑑みてなされたものであり、分散ストレージシステムに属するストレージノードの負荷の均一化を図ることができる管理プログラム、管理装置および管理方法を提供することを目的とする。
上記課題を解決するために、論理ボリュームに含まれる複数の仮想記憶領域それぞれと、各仮想記憶領域を指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を、コンピュータに管理させる管理プログラムが提供される。この管理プログラムを実行するコンピュータは、負荷情報取得手段、割当手段および指示手段として機能する。負荷情報取得手段は、各ストレージノードが備える各実記憶領域に対するアクセス情報を複数のストレージノードから取得し、取得したアクセス情報に基づいて各実記憶領域の負荷情報を生成して、生成した負荷情報を負荷情報記憶手段に格納する。割当手段は、負荷情報記憶手段に記憶された負荷情報に基づいて、各ストレージノードの負荷が均一になるように仮想記憶領域への実記憶領域の割り当て関係を変更する。指示手段は、仮想記憶領域に割り当てる実記憶領域の変更に伴い、複数のストレージノードに対して実記憶領域のデータの移動を指示する。
また、上記課題を解決するために上記管理プログラムを実行するコンピュータと同様の機能を有する管理装置が提供される。また、上記管理プログラムにより実現される処理と同様の処理を行う管理方法が提供される。
上記管理プログラム、管理装置および管理方法によれば、分散ストレージシステムに属するストレージノードの負荷の均一化を図ることができる。
本実施の形態に係る分散ストレージシステムを示す図である。 第1の実施の形態の分散ストレージシステムの構成を示す図である。 第1の実施の形態のコントロールノードのハードウェア構成を示す図である。 第1の実施の形態の論理ボリュームの第1のデータ構造例を示す図である。 第1の実施の形態の各ノードの機能構成を示す図である。 第1の実施の形態のスライス管理テーブルのデータ構造を示す図である。 第1の実施の形態の論理ボリューム管理テーブルのデータ構造例を示す図である。 第1の実施の形態のアクセス性能テーブルのデータ構造例を示す図である。 第1の実施の形態のアクセス統計テーブルのデータ構造例を示す図である。 第1の実施の形態のスライス負荷管理テーブルのデータ構造例を示す図である。 第1の実施の形態のストレージノード負荷管理テーブルのデータ構造例を示す図である。 第1の実施の形態の仮割り当て管理テーブルのデータ構造例を示す図である。 第1の実施の形態の論理ボリュームの第2のデータ構造例を示す図である。 第1の実施の形態の再配置処理の手順を示すフローチャートである。 第1の実施の形態のスライス再配置後の論理ボリュームのデータ構造例を示す図である。 第1の実施の形態のスライス再配置後の負荷の具体例を示す図である。 第2の実施の形態のストレージノード負荷管理テーブルのデータ構造例を示す図である。 第2の実施の形態の仮割り当て管理テーブルのデータ構造例を示す図である。 第2の実施の形態のスライス再配置後の論理ボリュームのデータ構造例を示す図である。 第2の実施の形態のスライス再配置後の負荷の具体例を示す図である。
以下、実施の形態を図面を参照して詳細に説明する。
図1は、本実施の形態に係る分散ストレージシステムを示す図である。この分散ストレージシステムは、コンピュータ1およびストレージノード2,3,4,5を有する。コンピュータ1およびストレージノード2,3,4,5は、ネットワークを介して接続される。コンピュータ1は、ストレージノード2,3,4,5に設けられた実記憶領域に対するデータの配置を管理する。
ここで、ストレージノード2には、実記憶領域2a,2b,2c,2dが設けられている。ストレージノード3には、実記憶領域3a,3b,3c,3dが設けられている。ストレージノード4には、実記憶領域4a,4b,4c,4dが設けられている。ストレージノード5には、実記憶領域5a,5b,5c,5dが設けられている。各実記憶領域は、分散ストレージシステムにおいて、論理ボリュームに含まれ、データアクセスの対象となる複数の仮想記憶領域それぞれに対応付けられる。
コンピュータ1は、負荷情報記憶手段1a、管理情報記憶手段1b、負荷情報取得手段1c、割当手段1dおよび指示手段1eを有する。
負荷情報記憶手段1aは、ストレージノード2,3,4,5に設けられた各実記憶領域の負荷を示す負荷情報を記憶する。
管理情報記憶手段1bは、各仮想記憶領域と各実記憶領域との割り当て関係を管理する管理情報を記憶する。管理情報には、例えば、実記憶領域2a,3cが1つの仮想記憶領域に対応付けられる。
実記憶領域2aには、例えば、アクセス要求時にアクセス先として使用する主データ(主1)が格納される。この場合、実記憶領域3cには、主データ(主1)のバックアップとして使用する副データ(副1)が格納される。更に、管理情報には、例えば、実記憶領域2aに配置された主データ(主1)と実記憶領域3cに配置された副データ(副1)との対応付けも定義される。他の記憶領域に関しても同様である。
負荷情報取得手段1cは、ストレージノード2,3,4,5からアクセス性能やアクセス統計の情報を含むアクセス情報を取得する。負荷情報取得手段1cは、取得したアクセス情報に基づいて、ストレージノード2,3,4,5の各実記憶領域に対する負荷を取得して負荷情報を生成し、負荷情報記憶手段1aに格納する。負荷の内容としては、例えば、各実記憶領域に対する読み出しや書き込みのアクセス頻度に基づくものが考えられる。
負荷情報には、例えば、主データを配置した実記憶領域に対するアクセス負荷の高低が設定される。例えば、実記憶領域2aの負荷が“高”であると設定される。また、例えば、実記憶領域3aの負荷が“中”であると設定される。また、例えば、実記憶領域4bの負荷が“低”であると設定される。他の記憶領域に関しても同様である。
割当手段1dは、負荷情報記憶手段1aに記憶された負荷情報に基づいて、管理情報記憶手段1bに記憶された管理情報を操作して、ストレージノード2,3,4,5の負荷が均一になるように仮想記憶領域への実記憶領域の割り当て関係を変更する。
指示手段1eは、仮想記憶領域に割り当てる実記憶領域の変更に伴い、管理情報記憶手段1bに記憶された管理情報を参照して、ストレージノード2,3,4,5に対して実記憶領域のデータの移動を指示する。
コンピュータ1によれば、負荷情報取得手段1cにより、ストレージノード2,3,4,5から各実記憶領域に対するアクセス情報が取得される。負荷情報取得手段1cにより、このアクセス情報からストレージノード2,3,4,5の各実記憶領域に対する負荷を示す負荷情報が生成され、生成された負荷情報が負荷情報記憶手段1aに格納される。割当手段1dにより、負荷情報記憶手段1aに記憶された負荷情報に基づいて、ストレージノード2,3,4,5の負荷が均一になるように仮想記憶領域への実記憶領域の割り当て関係が変更される。指示手段1eにより、仮想記憶領域に割り当てる実記憶領域の変更に伴い、ストレージノード2,3,4,5に対して実記憶領域のデータの移動が指示される。
これにより、分散ストレージシステムに属するストレージノードの負荷の均一化を図ることができる。具体的には、ストレージノード2,3,4,5の各実記憶領域の負荷に応じて、各実記憶領域のデータ配置を変更するので、ストレージノード2,3,4,5の負荷を均一にするための細かな調整を行うことができるようになる。このため、局所的に高負荷となることが避けられ、システム全体としてのアクセス性能が向上する。
このとき、割当手段1dは、主データと該当の主データと同一内容の副データの配置先とが同一のストレージノードに属さないように主データの配置先を割り当てることが考えられる。
例えば、割当手段1dは、主データ(例えば、主1)の配置先を対応する副データ(例えば、副1)が配置されていないストレージノード(例えば、ストレージノード2,4,5)から選択する。
このようにすると、データ配置の変更に際して、主データと対応する副データとが異なるストレージノードに配置されるので、双方のデータが単一のストレージノードに属することがない。このため、1つのストレージノードが切断したときに両方の冗長データにアクセスできなくなるという事態を避けることができるので信頼性が損なわれることがなくなる。
また、コンピュータ1は、例えば、ストレージノード2,3,4,5の負荷情報を定期的に取得することが考えられる。
そして、コンピュータ1は、このようなデータ配置先の変更を、例えば次のようなタイミングで実行することが考えられる。すなわち、ストレージノード2,3,4,5の何れかを停止するタイミング、何れかのストレージノードで障害が発生したことを検知したタイミング、新たなストレージノードが追加されたタイミングなどである。また、コンピュータ1は、例えば、このようなデータ配置先の変更を定期的に実行することも考えられる。
このように、コンピュータ1は、所定のタイミングで適宜データ配置先の変更を行うことで、分散ストレージシステムのアクセス性能を考慮した、より効率的な運用が可能となる。
[第1の実施の形態]
以下、第1の実施の形態を図面を参照して詳細に説明する。
図2は、第1の実施の形態の分散ストレージシステムの構成を示す図である。分散ストレージシステムは、同一内容の複数のデータをネットワークで接続された複数のストレージノードに分散して配置することで、信頼性と処理性能とを向上させたストレージシステムである。
この分散ストレージシステムでは、ストレージノード100,200,300,400、コントロールノード500、アクセスノード600および管理ノード30がネットワーク10を介して相互に接続されている。また、端末装置21,22,23が、ネットワーク20を介してアクセスノード600に接続されている。
ストレージノード100,200,300,400には、それぞれストレージ装置110,210,310,410が接続されている。ストレージノード100,200,300,400は、接続されたストレージ装置110,210,310,410に格納されたデータを管理し、管理しているデータをネットワーク10経由でアクセスノード600に提供する。また、ストレージノード100,200,300,400は、データに冗長性をもたせて管理している。すなわち、同一内容のデータが、2つのストレージノードで管理されている。このようにデータを冗長化させて管理することで、高信頼化を図っている。ストレージ装置210,310,410は、例えば、内蔵する複数のHDD(Hard disk Drive)を用いてRAID(Redundant Arrays of Independent Disks)を実現したディスクアレイ装置である。
コントロールノード500は、ストレージノード100,200,300,400を管理する。具体的には、コントロールノード500は、データの配置状況を示す論理ボリュームを保持している。コントロールノード500は、ストレージノード100,200,300,400からデータの管理に関する情報を取得し、必要に応じて論理ボリュームを更新する。また、コントロールノード500は、論理ボリュームが更新されると、その影響を受けるストレージノードに対して更新内容を通知する。論理ボリュームの詳細は、後述する。
アクセスノード600は、端末装置21,22,23に対して、ストレージノード100,200,300,400が管理するデータを利用した情報処理のサービスを提供する。すなわち、アクセスノード600は、端末装置21,22,23からの要求に応答して所定のプログラムを実行し、必要に応じてストレージノード100,200,300,400にアクセスする。ここで、アクセスノード600は、コントロールノード500から論理ボリュームを取得し、取得した論理ボリュームに基づいてアクセスすべきストレージノードを特定する。
管理ノード30は、分散ストレージシステムの管理者が操作する端末装置である。分散ストレージシステムの管理者は、管理ノード30を操作して、ストレージノード100,200,300,400、コントロールノード500およびアクセスノード600にアクセスし、運用に必要な各種設定を行うことができる。
図3は、第1の実施の形態のコントロールノードのハードウェア構成を示す図である。コントロールノード500は、CPU(Central Processing Unit)501、RAM(Random Access Memory)502、HDD503、グラフィック処理装置504、入力インタフェース505および通信インタフェース506を有する。
CPU501は、コントロールノード500全体の動作を制御する。
RAM502は、CPU501に実行させるOSのプログラムやアプリケーションソフトウェア(以下、アプリケーションという)のプログラムの少なくとも一部を一時的に記憶する。また、RAM502は、CPU501による処理に必要な各種データを記憶する。
HDD503は、OSのプログラム、アプリケーションのプログラムを記憶する。また、HDD503は、CPU501による処理に必要な各種データを記憶する。なお、HDD503の代わりに例えばSSD(Solid State Drive)などの他の不揮発性の記憶装置を用いることもできる。
グラフィック処理装置504は、モニタ51と接続される。グラフィック処理装置504は、CPU501からの命令に従ってモニタ51の画面に画像を表示させる。
入力インタフェース505は、キーボード52とマウス53と接続される。入力インタフェース505は、キーボード52やマウス53から送られてくる信号をCPU501に送信する。
通信インタフェース506は、ネットワーク10と接続され、ストレージノード200,300,400、コントロールノード500やアクセスノード600とのデータの送受信を行う。
なお、ストレージノード100,200,300,400、アクセスノード600、管理ノード30および端末装置21,22,23についてもコントロールノード500と同様のハードウェア構成により実現できる。ただし、ストレージノード100,200,300,400は、ストレージ装置110,120,130,140と接続するためのHDDインタフェースを更に備えている。また、アクセスノード600は、ネットワーク10と接続するための通信インタフェースに加えて、ネットワーク20と接続するための通信インタフェースを更に備えている。
次に、コントロールノード500がアクセスノード600に対して提供する論理ボリュームについて説明する。論理ボリュームは、ストレージノード200,300,400によって分散管理されているデータを、アクセスノード600から容易に利用できるようにするための仮想的なボリュームである。
図4は、第1の実施の形態の論理ボリュームの第1のデータ構造例を示す図である。論理ボリューム700には、“LVOL1”という論理ボリュームID(IDentifier)が付与されている。また、ストレージノード100,200,300,400には、それぞれ“SN−A”,“SN−B”,“SN−C”,“SN−D”というノードIDが付与されている。
ストレージノード100,200,300,400に接続されたストレージ装置110,210,310,410それぞれにおいて、例えばRAID5の論理ディスクが構成されている。この論理ディスクは8つのスライスに分割されて、各ストレージノード内で一元的に管理されている。
ストレージ装置110内の記憶領域は、6つのスライス111〜118に分割されている。ストレージ装置210内の記憶領域は、6つのスライス211〜218に分割されている。ストレージ装置310内の記憶領域は、6つのスライス311〜318に分割されている。ストレージ装置410内の記憶領域は、6つのスライス411〜418に分割されている。
論理ボリューム700は、セグメント710,720,730,740,750,760,・・・という単位で構成される。セグメント710,720,730,740,750,760,・・・は、プライマリスライス711,721,731,741,751,761,・・・とセカンダリスライス712,722,732,742,752,762,・・・との組で構成される。
図4では、スライスIDを“P”または“S”のアルファベットと数字との組み合わせで示している。“P”はプライマリスライス(主データを格納するためのスライス)であることを示している。“S”はセカンダリスライス(副データを格納するためのスライス)であることを示している。アルファベットに続く数字は、何番目のセグメントに属するのかを表している。例えば1番目のセグメント710のプライマリスライス711が“P1”で示され、セカンダリスライスが“S1”で示される。そして、“P1”と“S1”のスライスには、同一のデータが格納され、データの冗長化が図られる。
このような構造の論理ボリューム700の各プライマリスライスおよびセカンダリスライスが、ストレージ装置110,210,310,410内の何れかのスライスに対応付けられる。例えば、セグメント710のプライマリスライス711がストレージ装置110のスライス111に対応付けられ、セカンダリスライス712がストレージ装置410のスライス414に対応付けられる。
そして、ストレージ装置110,210,310,410には、自己のスライスに対応付けられたプライマリスライスまたはセカンダリスライスのデータが格納される。なお、論理ボリュームは、データの用途やアクセス元の権限などに応じて、複数作成することができる。論理ボリュームに現れないスライスはアクセスノード600から認識することができないため、論理ボリュームを使い分けることはセキュリティの向上にも寄与する。
図5は、第1の実施の形態の各ノードの機能構成を示す図である。ストレージノード100は、スライス情報記憶部120、アクセス性能記憶部130、アクセス統計情報記憶部140、データアクセス部150、スライス管理部160、アクセス性能測定部170、アクセス統計情報取得部180およびアクセス情報送信部190を有する。
スライス情報記憶部120は、ストレージ装置110が有するスライスについてのスライス情報が格納される。スライス情報には、スライスを特定するためのアドレスやスライスへの割り当ての種別(プライマリスライスまたはセカンダリスライスの何れか)などが含まれる。また、各スライスについて、同一セグメントに属する対応するスライス(プライマリスライスに対応するセカンダリスライスまたはセカンダリスライスに対応するプライマリスライス)を管理しているストレージノードに関する情報も含まれる。
アクセス性能記憶部130は、ストレージ装置110で許容される最大のアクセス性能を示す情報を記憶する。このアクセス性能は、アクセス性能測定部170により予め測定される。
アクセス統計情報記憶部140は、ストレージ装置110の各スライスに対する読み出しアクセス数と書き込みアクセス数と運用時間とを計測して得られたアクセス統計情報を記憶する。アクセス統計情報は、アクセス統計情報取得部180により取得される。
データアクセス部150は、アクセスノード600からのアクセスを受け付けると、スライス情報記憶部120に記憶されたスライス情報を参照して、ストレージ装置110に格納されたデータにアクセスする。
具体的には、データアクセス部150は、アクセスノード600からアドレスを指定したデータの読み出し要求(Read要求)を受け付けると、指定されたアドレスが属するスライスがプライマリスライスであるか否かを判断する。プライマリスライスである場合には、データアクセス部150は、指定されたアドレスに対応するデータをストレージ装置110から取得し、アクセスノード600に送信する。プライマリスライスでない場合には、データアクセス部150は、アドレスの指定が不適切である旨をアクセスノード600に通知する。
また、データアクセス部150は、アクセスノード600からアドレスおよび書き込み内容を指定したデータの書き込み要求(Write要求)を受け付けるとストレージ装置110内の指定されたアドレスに対応する位置にデータの書き込みを試みる。そして、データアクセス部150は、書き込みの結果をアクセスノード600に通知する。
また、データアクセス部150は、指定されたアドレスが属するスライスがプライマリスライスである場合、対応するセカンダリスライスを管理するストレージノードに対して、同様の書き込みを行うよう指示する。これによって、プライマリスライスとセカンダリスライスとの内容が一致するように維持される。
更に、データアクセス部150は、スライス情報記憶部120に記憶されたスライス情報が更新されると、ストレージノード200,300,400にネットワーク10を通じてスライス情報を送信することにより、スライスの配置を更新後の状態に変更する。
スライス管理部160は、ストレージノード100の稼動状態を定期的にコントロールノード500に通知する。また、スライス管理部160は、コントロールノード500からスライスの情報の取得要求があるとスライス情報記憶部120に格納されたスライス情報を送信する。また、スライス管理部160は、スライス情報の更新の指示を受け付けると、指示された更新内容を、スライス情報記憶部120に記憶されたスライス情報に反映させる。
アクセス性能測定部170は、ストレージ装置110の最大のアクセス性能を測定し、測定結果をアクセス性能記憶部130に格納する。アクセス性能測定部170は、例えば、ストレージノード100やストレージ装置110の起動時やシステム全体の初期化時などにアクセス性能の測定を行う。例えば、アクセス性能測定部170は、ストレージ装置110に対して最大限の負荷を掛けたときのiopsをアクセス性能として測定する。
アクセス統計情報取得部180は、ストレージ装置110に対するデータアクセス部150による読み出しアクセスや書き込みアクセスの回数を取得する。また、アクセス統計情報取得部180は、アクセス回数を取得した総時間を記録する。アクセス統計情報取得部180は、このようにして得たアクセス統計情報をアクセス統計情報記憶部140に格納する。
アクセス情報送信部190は、アクセス性能記憶部130に記憶されたアクセス性能やアクセス統計情報記憶部140に記憶されたアクセス統計情報(これらをまとめてアクセス情報とよぶ)をコントロールノード500に送信する。アクセス情報送信部190は、コントロールノード500からの要求に応じて、または、定期的にアクセス情報をコントロールノード500に送信する。
なお、ストレージノード200,300,400に関しても、ストレージノード100と同一の機能構成により実現できる。
コントロールノード500は、スライス情報群記憶部510、負荷情報記憶部520、負荷情報取得部530および論理ボリューム管理部540を有する。
スライス情報群記憶部510には、ストレージノード100,200,300,400が管理するスライス情報が格納される。スライス情報群記憶部510に格納されるスライス情報は、ストレージノード100,200,300,400が保持している情報を収集したものである。
負荷情報記憶部520は、ストレージノード100,200,300,400の各スライスに対する負荷を示す負荷情報を記憶する。負荷情報は、負荷情報取得部530により生成され、負荷情報記憶部520に格納される。
負荷情報取得部530は、ストレージノード100,200,300,400からアクセス情報を受信する。負荷情報取得部530は、受信したアクセス情報に基づいて、ストレージノード100,200,300,400のスライス単位の負荷を評価する。負荷情報取得部530による負荷の評価方法の詳細に関しては、後述する。
論理ボリューム管理部540は、ストレージノード100,200,300,400から稼働状態を示す通知をネットワーク10経由で受信する。これにより、論理ボリューム管理部540は、各ストレージノードが正常に稼働しているか否かを知る。また、論理ボリューム管理部540は、必要に応じてストレージノード100,200,300,400からスライス情報を取得し、スライス情報群記憶部510に格納されたスライス情報を更新する。また、論理ボリューム管理部540は、スライス情報群記憶部510のスライス情報に基づいて、アクセスノード600に格納される論理ボリュームを作成する。
また、論理ボリューム管理部540は、ストレージノード100,200,300,400の何れかで障害が発生した場合や何れかを停止する場合にスライス情報および論理ボリュームを更新する。
具体的には、論理ボリューム管理部540は、停止対象ノードに配置されていたプリマリスライスに対するセカンダリスライスをプライマリスライスに変更する。また、変更後のプライマリスライスに対応するセカンダリスライスを稼動中のストレージノードの空きスライスから特定する。そして、論理ボリューム管理部540は、特定したスライスをセカンダリスライスに割り当て、スライス情報および論理ボリュームを更新する。
このとき、論理ボリューム管理部540は、負荷情報記憶部520に記憶された負荷情報を参照して、稼動中のストレージノードの負荷を均一化するよう試みる。具体的には、論理ボリューム管理部540は、新たにプライマリスライスとして割り当てたスライスを複数のストレージノードに仮割り当てする。そして、論理ボリューム管理部540は、仮割り当てしたストレージノードの負荷を評価する。論理ボリューム管理部540は、各ストレージノードについて仮割り当てにより評価した負荷のうち、最小負荷となる仮割り当て先を実際のデータ配置先として、スライス情報および論理ボリュームを更新する。
論理ボリューム管理部540は、稼動中のストレージノードに対して更新後のスライス構成を示すスライス情報を送信する。
アクセスノード600は、論理ボリューム記憶部610とデータアクセス制御部620を有する。
論理ボリューム記憶部610には、論理ボリュームの管理情報(以下、論理ボリューム管理情報という)が格納される。論理ボリューム管理情報では、ストレージ装置110,210,310,410が管理する記憶領域を一元的に扱うために、仮想的なアドレスである論理アドレスによって各セグメントが管理されている。論理ボリューム管理情報には、セグメントを特定するための論理アドレスやセグメントに属するプライマリスライスおよびセカンダリスライスを特定するための情報が含まれる。論理ボリューム管理情報は、コントロールノード500によって作成され、更新される。
データアクセス制御部620は、実行中のプログラムからデータへのアクセス要求があると、まず論理ボリューム記憶部610に論理ボリューム管理情報が格納されているか否か確認する。論理ボリューム管理情報が格納されていない場合、データアクセス制御部620は、コントロールノード500から論理ボリューム管理情報を取得し、論理ボリューム記憶部610に格納する。
そして、データアクセス制御部620は、論理ボリューム管理情報に基づいてアクセス先となるストレージノードを特定する。すなわち、利用するデータが属するセグメントを特定し、特定したセグメントのプライマリスライスを管理するストレージノードを特定する。その後、データアクセス制御部620は、特定したストレージノードにアクセスする。
ここで、アクセスに失敗した場合、コントロールノード500から論理ボリューム管理情報を取得した後にデータの配置状況が変化したことが考えられるため、データアクセス制御部620は、コントロールノード500から最新の論理ボリュームを取得して、再びストレージノードへのアクセスを試みる。
図6は、第1の実施の形態のスライス管理テーブルのデータ構造を示す図である。スライス管理テーブル511,512,513,514は、コントロールノード500のスライス情報群記憶部510に格納される。スライス管理テーブル511,512,513,514は、ストレージノード100,200,300,400のスライスを管理するスライス情報である。スライス管理テーブル511,512,513,514は、ストレージノード100,200,300,400にも保持される。そして、スライス管理テーブル511,512,513,514は、スライス配置の変更に応じてコントロールノード500とストレージノード100,200,300,400との間で同期される。
スライス管理テーブル511には、スライスIDを示す項目、実アドレスを示す項目、ブロック数を示す項目、種別を示す項目、ボリュームIDを示す項目、セグメントIDを示す項目、リンクを示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、1つのスライスについてのスライス情報を示す。
スライスIDを示す項目には、スライスIDが設定される。実アドレスを示す項目には、スライスの先頭ブロックを示す物理的なアドレスが設定される。ブロック数を示す項目には、スライスに含まれるブロックの数が設定される。種別を示す項目には、“P”(Primary),“S”(Secondary),“F”(Free)の何れかの値が設定される。“P”はプライマリスライスを意味し、“S”はセカンダリスライスを意味し、“F”はセグメントが対応付けられてないことを意味する。ボリュームIDを示す項目には、スライスに対応付けられたセグメントが属する論理ボリュームの論理ボリュームIDが設定される。セグメントIDを示す項目には、スライスに対応付けられたセグメントのセグメントIDが設定される。
リンクを示す項目には、種別が“P”であるスライスについては、対応するセカンダリスライスが配置されたストレージノードのストレージノードIDとスライスIDとが設定される。また、種別が“S”であるスライスについては、対応するプライマリスライスが配置されたストレージノードのストレージノードIDとスライスIDとが設定される。
例えば、スライスIDが“1”、実アドレスが“0”、ブロック数が“1024”、種別が“P”、ボリュームIDが“LVOL1”、セグメントIDが“1”、リンクが“SN−D,4”という情報が格納される。
これは、ストレージノード100が管理する0ブロックから1023ブロックまでの記憶領域に対して、論理ボリューム“LVOL1”の1番目のセグメントのプライマリスライスが割り当てられていることを示している。また、そのセカンダリスライスに対応するプライマリスライスが、ストレージノード“SN−D”の4番目のスライスに割り当てられていることを示している。
図7は、第1の実施の形態の論理ボリューム管理テーブルのデータ構造例を示す図である。論理ボリューム管理テーブル611は、論理ボリューム記憶部610に格納される。論理ボリューム管理テーブル611は、論理ボリューム“LVOL1”についてのテーブルである。
論理ボリューム管理テーブル611には、セグメントIDを示す項目、論理アドレスを示す項目、ブロック数を示す項目、種別を示す項目、ノードIDを示す項目および実アドレスを示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられている。
セグメントIDを示す項目には、セグメントを識別するセグメントIDが設定される。論理アドレスを示す項目には、セグメントの先頭ブロックを示す論理ボリューム上の仮想的なアドレスが設定される。ブロック数を示す項目には、セグメントに含まれるブロックの数が設定される。
種別を示す項目には、“P”または“S”の何れかの値が設定される。ノードを示す項目には、割り当て先のストレージノードを識別するノードIDが設定される。実アドレスを示す項目には、割り当て先のスライスの先頭ブロックを示す物理的なアドレスが設定される。
論理ボリューム管理テーブル611に格納される情報は、コントロールノード500のスライス情報群記憶部510に格納されたスライス情報に基づいて、論理ボリューム管理部540によって生成される。
図8は、第1の実施の形態のアクセス性能テーブルのデータ構造例を示す図である。アクセス性能テーブル131は、アクセス性能測定部170によって生成され、アクセス性能記憶部130に格納される。アクセス性能テーブル131は、ストレージノード100のノードID“SN−A”に対応付けられている。アクセス性能テーブル131には、I/O(Input / Output)サイズを示す項目、読み出し性能を示す項目および書き込み性能を示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、1つのI/Oサイズにおけるアクセス性能を示す。
I/Oサイズを示す項目には、ストレージ装置110に対するアクセス単位となるデータサイズが設定される。読み出し性能を示す項目には、該当のI/Oサイズでの最大の読み出し性能が設定される。書き込み性能を示す項目には、該当のI/Oサイズでの最大の書き込み性能が設定される。
アクセス性能テーブル131には、例えば、I/Oサイズが“512B(Byte)”、読み出し性能が“400iops”、書き込み性能が“150iops”という情報が設定される。
なお、読み出し性能および書き込み性能は、例えば、アクセス性能測定部170により、ストレージ装置110に対して所定のI/Oサイズで読み出しや書き込みを発生させるベンチマークソフトウェアによって測定することができる。
図9は、第1の実施の形態のアクセス統計テーブルのデータ構造例を示す図である。アクセス統計テーブル141,142,143,・・・は、アクセス統計情報取得部180によって取得され、アクセス統計情報記憶部140に格納される。アクセス統計テーブル141,142,143,・・・は、ストレージノード100のスライスごとに取得される。アクセス統計テーブル141,142,143,・・・は、ノードID“SN−A”および各スライスIDに対応付けられる。なお、以下ではアクセス統計テーブル141に関して説明するが、アクセス統計テーブル142,143,・・・に関しても同様の構造である。
アクセス統計テーブル141には、I/Oサイズを示す項目、経過時間を示す項目、読み出しIO数を示す項目および書き込みIO数を示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、1つのI/Oサイズにおけるアクセス統計を示す。
I/Oサイズを示す項目には、ストレージ装置110に対するアクセス単位となるデータサイズが設定される。経過時間を示す項目には、統計を取り始めてからの経過時間が設定される。読み出しIO数を示す項目には、統計を取り始めてからストレージ装置110に対して発生した読み出しIO数が設定される。書き込みIO数を示す項目には、統計を取り始めてからストレージ装置110に対して発生した書き込みIO数が設定される。
アクセス統計テーブル141には、例えば、IOサイズが“512B”、経過時間が“30時間”、読み出しIO数が“502300”、書き込みIO数が“250100”という情報が設定される。
負荷情報取得部530は、ストレージノード100,200,300,400から取得したアクセス情報に基づいて、負荷情報を生成する。このとき、負荷情報取得部530は、以下の式(1)によりストレージノード100,200,300,400の各スライスの負荷を評価することができる。
Figure 2010277289
ここで、式(1)において、Li(i=1,2,3,・・・,8)は、スライスごとの負荷を示す。iは、スライスIDに対応する。jは、I/Oサイズに対応する添え字である。すなわち、j=1,2,3,・・・であり、例えばj=1は、I/Oサイズ512Bに対応する。また、例えばj=2は、I/Oサイズ1kB(Kilo Byte)に対応する。
ijは、該当のスライスおよび該当のI/Oサイズでの読み出しIO数を示す。例えば、アクセス統計テーブル141(i=1)のI/Oサイズ“512B”(j=1)に対して、r11=502300となる。
ijは、該当のスライスおよび該当のI/Oサイズでの書き込みIO数を示す。例えば、w11=250100となる。
tは、統計を取り始めてからの経過時間(秒)を示す。例えば、アクセス統計テーブル141では、経過時間が“30”時間であるので、秒に換算してt=108000秒となる。
jは、該当のストレージノードにおける該当のI/Oサイズでの読み出し性能を示す。例えば、アクセス性能テーブル131のI/Oサイズ“512B”(j=1)に対して、R1=400iopsとなる。
jは、該当のストレージノードにおける該当のI/Oサイズでの書き込み性能を示す。例えば、W1=150iopsとなる。
このように、負荷情報取得部530は、ストレージノード100,200,300,400から取得したアクセス情報と式(1)とに基づいて、ストレージノード100,200,300,400の各スライスの負荷を評価することができる。式(1)を用いることで、最大のアクセス性能に対して、実際に発生したアクセス頻度の割合により負荷を評価することができる。
図10は、第1の実施の形態のスライス負荷管理テーブルのデータ構造例を示す図である。スライス負荷管理テーブル521は、負荷情報取得部530により生成され、負荷情報記憶部520に格納される。スライス負荷管理テーブル521には、ノードIDを示す項目、スライスIDを示す項目およびスライス負荷を示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、1つのスライスの負荷に関する情報を示す。
ノードIDを示す項目には、ノードIDが設定される。スライスIDを示す項目には、スライスIDが設定される。スライス負荷を示す項目には、該当のスライスの負荷を示す情報が設定される。スライスの負荷には、例えば、負荷情報取得部530により式(1)を用いて算出した値を百分率で示した値が設定される。
スライス負荷管理テーブル521には、例えば、ノードIDが“SN−A”、スライスIDが“1”、スライス負荷が“20%”という情報が設定される。
図11は、第1の実施の形態のストレージノード負荷管理テーブルのデータ構造例を示す図である。ストレージノード負荷管理テーブル522は、論理ボリューム管理部540により生成され、負荷情報記憶部520に格納される。
ここで、ストレージノード負荷管理テーブル522は、ストレージノード400が障害などによって分散ストレージシステムから切断された場合を例示している。
ストレージノード負荷管理テーブル522には、ノードIDを示す項目、割り当て済みスライスによる負荷を示す項目および割り当て先検討中スライスによる負荷を示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、1つのストレージノードの負荷に関する情報を示す。
ノードIDを示す項目には、ノードIDが設定される。
割り当て済みスライスによる負荷を示す項目には、割り当てが既になされているプライマリスライス(割り当て先の変更対象外のスライス)による該当のストレージノードにおける負荷が設定される。例えば、割り当てが既になされているスライスとして、スライスID“1”、“2”、“3”が存在する場合、これらのスライスによる合計の負荷が設定される。
割り当て先検討中スライスによる負荷を示す項目には、割り当て先を検討中のプライマリスライスによる該当のストレージノードにおける負荷が設定される。例えば、割り当て先を検討中のスライスとして、スライスID“4”、“5”のスライスが存在する場合、これらのスライスによる合計の負荷が設定される。
ストレージノード負荷管理テーブル522には、例えば、ノードIDが“SN−A”、割り当て済みスライスによる負荷が“60%”、割り当て先検討中スライスによる負荷が“35%”という情報が設定される。
これは、ストレージノード400が利用不可となったために、ストレージノード100のスライス114に割り当てられていた“S4”が“P4”に仮割り当てされた状態を示している。すなわち、ストレージノード100には、既にスライス111,112,113に“P1”、“P5”、“P9”が割り当て済みである。したがって、スライス111,112,113の負荷の合計が割り当て済みスライスによる負荷に設定される。具体的には、この値は、スライス負荷管理テーブル521によれば、“20%”+“30%”+“10%”=“60%”となる。
また、新たにプライマリスライス“P4”となったスライス114で予測される負荷は、ストレージノード400において発生していた負荷から求めることができる。すなわち、スライス負荷管理テーブル521によれば、スライス411に対する負荷は“35%”である。この場合、ストレージノード100のスライス114で新たに発生しうる負荷を“35%”と評価することができる。このため、割り当て先検討中スライスによる負荷を示す項目に“35%”が設定されることになる。ただし、ストレージ装置110,210,310,410の性能は同一であるとする。
なお、ストレージ装置110,210,310,410の性能が異なる場合には、性能比によって重み付けを行うことも考えられる。例えば、ストレージ装置410よりもストレージ装置110の方がディスクの回転数や平均シーク時間などの性能が高い場合が考えられる。具体的には、これらの性能の違いによりデータへの平均アクセス時間について、例えば、ストレージ装置110の平均アクセス時間がストレージ装置410の平均アクセス時間の半分であるとする。この場合、スライス411に対して測定された“35%”という負荷を1/2にした“17.5%”がストレージノード100に新たに加わる負荷と評価することもできる。
ストレージノード200,300についての設定情報に関しても同様である。
論理ボリューム管理部540は、この状態を起点として、ストレージノード400に配置されていたプライマリスライス“P4”、“P8”、“P12”の仮割り当てを順次行い、ストレージノード100,200,300で発生しうる負荷を評価する。
図12は、第1の実施の形態の仮割り当て管理テーブルのデータ構造例を示す図である。仮割り当て管理テーブル523は、論理ボリューム管理部540により生成され、負荷情報記憶部520に格納される。仮割り当て管理テーブル523は、ストレージノード負荷管理テーブル522の状態(仮割り当ての起点)での各スライスの負荷を表すものである。仮割り当て管理テーブル523には、ノードIDを示す項目、スライスIDを示す項目、スライス負荷を示す項目および割り当てフラグを示す項目が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、1つのストレージノードのスライスに関する情報を示す。
ノードIDを示す項目には、ノードIDが設定される。スライスIDを示す項目には、スライスIDが設定される。スライス負荷を示す項目は、該当のスライスの負荷が設定される。割り当てフラグを示す項目には、仮割り当てにより配置先が決定したスライスであるか否かを示すフラグが設定される。
仮割り当て管理テーブル523には、例えば、ノードIDが“SN−A”、スライスIDが“1”、スライス負荷が“20%”、割り当てフラグが“済”という情報が設定される。すなわち、スライス111に関しては、配置先の変更は行わない。
また、仮割り当て管理テーブル523には、例えば、ノードIDが“SN−A”、スライスIDが“4”、スライス負荷が“35%”、割り当てフラグが“未”という情報が設定される。すなわち、スライス114に新たに割り当てられた“P4”について、仮割り当てによる配置先変更の試みが必要であることを示している。
図13は、第1の実施の形態の論理ボリュームの第2のデータ構造例を示す図である。図13では、ストレージノード400が障害により分散ストレージシステムから切断された場合を例示している。ストレージノード400が切断されると、論理ボリューム管理部540は、論理ボリューム700を図13に示すような状態に変更する。
まず、論理ボリューム管理部540は、ストレージノード400に配置されていたプライマリスライスとセカンダリスライスとの役割をストレージノード100,200,300に割り当てる。
すなわち、スライス411の“P4”の役割が、“S4”が割り当てられていたスライス114に引き継がれ、スライス114が“P4”となる。また、スライス412の“P8”の役割が、“S8”が割り当てられていたスライス314に引き継がれ、スライス314が“P8”となる。また、スライス413の“P12”の役割が、“S12”が割り当てられていたスライス214に引き継がれ、スライス214が“P12”となる。
更に、スライス414の“S1”の役割が、空きスライスであったスライス217に引き継がれる。また、スライス415の“S6”の役割が、空きスライスであったスライス317に引き継がれる。また、スライス416の“S11”の役割が、空きスライスであったスライス117に引き継がれる。
そして、新たにプライマリスライスとなったスライス114,214,314に対応するセカンダリスライスがストレージノード100,200,300に配置される。このとき、スライス114の“P4”に対して、空きスライスであったスライス218に“S4”が配置されるものとする。また、スライス214の“P12”に対して、空きスライスであったスライス318に“S12”が配置されるものとする。また、スライス314の“P8”に対して、空きスライスであったスライス118に“S8”が配置されるものとする。
次に、以上のような構成においてコントロールノード500で実行される処理の詳細を説明する。なお、図13の状態となった時点までに論理ボリューム管理部540は、ストレージノード負荷管理テーブル522および仮割り当て管理テーブル523を生成済みである。
図14は、第1の実施の形態の再配置処理の手順を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。
[ステップS11]論理ボリューム管理部540は、負荷情報記憶部520に記憶された仮割り当て管理テーブル523を参照する。
[ステップS12]論理ボリューム管理部540は、仮割り当て管理テーブル523に割り当てフラグ“未”が設定されたスライスが存在するか否かを判定する。存在する場合、処理がステップS13に移される。存在しない場合、処理が完了する。
[ステップS13]論理ボリューム管理部540は、割り当てフラグ“未”のスライスのうち、スライス負荷が最大のスライスを選択する。例えば、仮割り当て管理テーブル523の場合、割り当てフラグ“未”のスライスのうち負荷が最大(“35%”)であるスライス114を選択する。
[ステップS14]論理ボリューム管理部540は、選択したスライスを仮割り当てするストレージノードを1つ選択する。ここで、論理ボリューム管理部540は、選択したプライマリスライスとセカンダリスライスとが同一のストレージノードに属さないように仮割り当てするストレージノードを選択する。例えば、“P4”に対しては、“S4”が配置されたストレージノード200は、選択対象から除外される。したがって、例えば、図13の状態では、ストレージノード100,300が配置先の候補となり、この中から仮割り当てするストレージノードが選択される。
[ステップS15]論理ボリューム管理部540は、上記ステップS14で選択したストレージノードに上記ステップS13で選択したスライスを仮割り当てする。
[ステップS16]論理ボリューム管理部540は、仮割り当てしたストレージノードで予測される負荷を算出する。例えば、ストレージノード100が仮割り当て先として選択されている場合、仮割り当て管理テーブル523に設定されたスライス111,112,113,114の負荷を合計した“95%”をストレージノード100で予測される負荷と評価できる。なお、このとき、仮割り当てを行ったスライスの他に、割り当てフラグ“未”が設定されているスライスの負荷に関しては、ストレージノードの負荷の算出に用いないものとする。例えば、“P4”をストレージノード300に仮割り当てした場合、スライス311,312,313の負荷(割り当てフラグ“済”のスライス)と、仮割り当てした“P4”の負荷との合計(“75%”)がストレージノード300で予測される負荷となる。
[ステップS17]論理ボリューム管理部540は、配置先の候補となる全てのストレージノードで仮割り当てにより予測される負荷を算出済みであるか否かを判定する。算出済みである場合、処理がステップS18に移される。算出済みでない場合、処理がステップS14に移される。
[ステップS18]論理ボリューム管理部540は、予測される負荷が最小となるストレージノードに上記ステップS13で選択したプライマリスライスの役割を割り当てる。論理ボリューム管理部540は、ストレージノード100,200,300にそのための指示を送信する。例えば、図13の例では、スライス114に配置された“P4”がストレージノード100,300に仮割り当てされた場合のストレージノード100,300の負荷が評価される。すなわち、“P4”を割り当てた場合に予測される負荷は、ストレージノード100で“95%”であり、ストレージノード300で“75%”であるので、ストレージノード300が“P4”の配置先となる。
[ステップS19]論理ボリューム管理部540は、上記ステップS18で割り当て済みのスライスについて、仮割り当て管理テーブル523の割り当てフラグの“未”を“済”に変更する。そして、処理がステップS11に移される。
このように、論理ボリューム管理部540は、仮割り当て管理テーブル523を参照して、割り当てが“未”であるスライスの配置を変更する。
このとき、論理ボリューム管理部540は、負荷が大きなスライスから順に、割り当て先の候補とする複数のストレージノードに仮割り当てする。そして、実際に該当のスライスを割り当てた場合に各ストレージノードで予測される負荷を評価する。更に、予測される負荷が最小となるストレージノードに該当のスライスを割り当てる。また、このとき、論理ボリューム管理部540は、割り当て先の候補とするストレージノードに同一内容のスライス(例えば、“P4”と“S4”)が属さないよう割り当て先を選択する。
なお、上記ステップS16において、ストレージ装置110,210,310,410の性能が異なる場合、例えば、性能比に応じて、仮割り当ての対象としているスライスについて取得している負荷を調整することが考えられる。例えば、ストレージ装置410よりもストレージ装置110の方がディスクの回転数や平均シーク時間などの性能が高い場合が考えられる。具体的には、これらの性能の違いによりデータへの平均アクセス時間について、例えば、ストレージ装置110の平均アクセス時間がストレージ装置410の平均アクセス時間の半分であるとする。この場合、スライス411に対して測定された“35%”という負荷を1/2にした“17.5%”がストレージノード100に新たに加わる負荷と評価することもできる。
図15は、第1の実施の形態のスライス再配置後の論理ボリュームのデータ構造例を示す図である。図15では、図13に対してスライスの再配置が行われた結果を例示している。論理ボリューム管理部540は、図14の手順により図13のスライス配置から図15のスライス配置を得る。
具体的には、論理ボリューム管理部540は以下の手順を実行する。ただし、ストレージ装置110,210,310,410の性能は同一であるものとする。
(1)論理ボリューム管理部540は、負荷情報記憶部520に記憶された仮割り当て管理テーブル523を参照して、まず、最も負荷の大きいプライマリスライス“P4”について仮割り当てを行う。論理ボリューム管理部540は、“P4”をストレージノード100に仮割り当てした結果、ストレージノード100で予測される負荷として、“20%”+“30%”+“10%”+“35%”=“95%”を得る。また、“P4”をストレージノード300に仮割り当てした結果、ストレージノード300で予測される負荷として、“10%”+“20%”+“10%”+“35%”=“75%”を得る。なお、ストレージノード200は、“S4”が配置されているため、割り当ての対象から除外する。その結果、論理ボリューム管理部540は、ストレージノード300を“P4”の割り当て先とする。そして、論理ボリューム管理部540は、スライス218からスライス314へのスライスコピーをストレージノード200,300に指示する。そして、論理ボリューム管理部540は、スライス314にコピーされたスライスを“P4”に設定するようストレージノード200,300に指示する。
(2)論理ボリューム管理部540は、次に負荷の大きいプライマリスライス“P8”について仮割り当てを行う。論理ボリューム管理部540は、“P8”をストレージノード200に仮割り当てした結果、ストレージノード200で予測される負荷として、“30%”+“10%”+“10%”+“25%”=“75%”を得る。また、“P8”をストレージノード300に仮割り当てした結果、ストレージノード300で予測される負荷として、“10%”+“20%”+“10%”+“35%”+“25%”=“100%”を得る。なお、ストレージノード100は、“S8”が配置されているため、割り当ての対象から除外する。その結果、論理ボリューム管理部540は、ストレージノード200を“P8”の割り当て先とする。そして、論理ボリューム管理部540は、スライス118からスライス214へのスライスコピーをストレージノード100,200に指示する。そして、論理ボリューム管理部540は、スライス214にコピーされたスライスを“P8”に設定するようストレージノード100,200に指示する。
(3)論理ボリューム管理部540は、最も負荷の小さいプライマリスライス“P12”について仮割り当てを行う。論理ボリューム管理部540は、“P12”をストレージノード100に仮割り当てした結果、ストレージノード100で予測される負荷として、“20%”+“30%”+“10%”+“20%”=“80%”を得る。また、“P12”をストレージノード200に仮割り当てした結果、ストレージノード200で予測される負荷として、“30%”+“10%”+“10%”+“25%”+“20%”=“95%”を得る。なお、ストレージノード300は、“S12”が配置されているため、割り当ての対象から除外する。その結果、論理ボリューム管理部540は、ストレージノード100を“P12”の割り当て先とする。そして、論理ボリューム管理部540は、スライス318からスライス114へのスライスコピーをストレージノード100,300に指示する。そして、論理ボリューム管理部540は、スライス114にコピーされたスライスを“P12”に設定するようストレージノード100,300に指示する。
このようにスライスの再配置を行うことで、同一内容のプライマリスライスとセカンダリスライスとが同一のストレージノードに属することを防止できる。これにより、該当のデータに対する信頼性を保持して負荷の均一化を図ることができる。
図16は、第1の実施の形態のスライス再配置後の負荷の具体例を示す図である。(A)は、スライス再配置前の各ストレージノードの負荷の状況を示している(図13の状態に対応する)。(B)は、スライス再配置後の各ストレージノードの負荷の状況を示している(図15の状態に対応する)。
論理ボリューム管理部540は、ストレージノード400に障害が発生した場合、ストレージノード100,200,300にストレージノード400の役割を委譲する。すなわち、ストレージノード400に割り当てられていたプライマリスライスに対応するストレージノード100,200,300上のセカンダリスライスをプライマリスライスに変更する。具体的には、スライス114が“P4”、スライス214が“P12”、スライス314が“P8”となる。
このとき、ストレージノード100のアクセス負荷は“95%”となる。また、ストレージノード200のアクセス負荷は“70%”となる。また、ストレージノード300のアクセス負荷は“65%”となる。したがって、ストレージノード100に対して負荷が過大となってしまう。これに対し、論理ボリューム管理部540は、新たに委譲されたプライマリスライスの役割を再配置することで、ストレージノード100,200,300のアクセス負荷の均一化を試みる。
その結果、スライス114に“P12”、スライス214に“P8”、スライス314に“P4”が割り当てられる。これにより、ストレージノード100のアクセス負荷は“80%”となる。また、ストレージノード200のアクセス負荷は“75%”となる。また、ストレージノード300のアクセス負荷は“75%”となる。
論理ボリューム管理部540は、このようにスライス単位で再配置を行うことで、論理ボリューム“LVOL1”について、ストレージノード100,200,300の負荷を均一化することができる。
なお、上述の例では、ストレージノード400が障害などによって分散ストレージシステムから切断されたことを検知してスライスの再配置を実行するものとしたが、このような場合に限られない。例えば、ストレージノード400をメンテナンスなどのために分散ストレージシステムから切断しようとする場合に、切断の前処理として、上記のようなスライスの再配置を実行することも考えられる。この場合、例えば、論理ボリューム管理部540は、管理ノード30からの再配置実行指示を受け付けたタイミングでスライスの再配置を実行する。
[第2の実施の形態]
以下、第2の実施の形態を図面を参照して詳細に説明する。前述の第1の実施の形態との相違点を中心に説明し、同様の事項については説明を省略する。
第1の実施の形態では、障害などによってストレージノード100,200,300,400の何れかが分散ストレージシステムから切断される場合を例示した。第2の実施の形態では、正常に稼動しているストレージノード100,200,300,400の間で負荷を均一化する場合を例示する。
ここで、第2の実施の形態の分散ストレージシステムの構成、各ノードのハードウェア、論理ボリューム、機能の構成は、図2〜5に示した第1の実施の形態の各構成と同一であるため、説明を省略する。
ただし、論理ボリューム管理部540は、定期的(例えば、1ヶ月おき)に、あるいは、管理ノード30より管理者による所定の操作入力があった場合に、ストレージノード100,200,300,400の負荷を均一化するものとする。
また、スライス管理テーブル、論理ボリューム管理テーブル、アクセス性能テーブル、アクセス統計テーブル、スライス負荷管理テーブルに関しても、図6〜10に示した第1の実施の形態の各データ構造と同一であるため、説明を省略する。
なお、以下では、論理ボリューム管理部540が図4に示した論理ボリューム700に対して負荷の均一化を試みる場合を例示する。
図17は、第2の実施の形態のストレージノード負荷管理テーブルのデータ構造例を示す図である。ストレージノード負荷管理テーブル522aは、論理ボリューム管理部540により生成され、負荷情報記憶部520に格納される。ストレージノード負荷管理テーブル522aは、図11で説明した第1の実施の形態のストレージノード負荷管理テーブル522に対応する。なお、ストレージノード負荷管理テーブル522aの構造は、ストレージノード負荷管理テーブル522と同一であるため、説明を省略する。
ストレージノード負荷管理テーブル522aには、例えば、ノードIDが“SN−A”、仮割り当て済みスライスによる負荷が“0%”、割り当て先検討中スライスによる負荷が“90%”という情報が設定される。この状態では、ストレージノード100が管理する全てのプライマリスライス(スライス111,112,113)が再配置の対象となっている。
論理ボリューム管理部540は、この状態を起点として、ストレージノード100,200,300,400に配置されている全てのプライマリスライスの仮割り当てを順次行い、ストレージノード100,200,300,400で発生しうる負荷を評価する。
図18は、第2の実施の形態の仮割り当て管理テーブルのデータ構造例を示す図である。仮割り当て管理テーブル523aは、論理ボリューム管理部540により生成され、負荷情報記憶部520に格納される。仮割り当て管理テーブル523aは、図12で説明した第1の実施の形態の仮割り当て管理テーブル523aに対応する。なお、仮割り当て管理テーブル523aの構造は、仮割り当て管理テーブル523と同一であるため、説明を省略する。
仮割り当て管理テーブル523aには、例えば、ノードIDが“SN−A”、スライスIDが“1”、スライス負荷が“40%”、割り当てフラグが“未”という情報が設定される。なお、仮割り当て管理テーブル523aには、再配置処理の起点となるタイミングでは、全てのスライスについて割り当てフラグ“未”が設定される。すなわち、論理ボリューム管理部540が再配置の対象とするスライスは、ストレージノード100,200,300,400に配置された全てのプライマリスライスである。
論理ボリューム管理部540は、以上のような構成において、第1の実施の形態において図14で示した手順に従って、ストレージノード100,200,300,400のアクセス負荷の均一化を行う。その結果、図4のスライス配置に対して、次のようなスライス配置を得ることができる。
図19は、第2の実施の形態のスライス再配置後の論理ボリュームのデータ構造例を示す図である。図19では、図4に対してスライスの再配置が行われた結果を例示している。論理ボリューム管理部540は、図14の手順により図4のスライス配置から図19のスライス配置を得る。
具体的には、論理ボリューム管理部540は以下の手順を実行する。ただし、ストレージ装置110,210,310,410の性能は同一であるものとする。また、優先順位の決定に際して比較するべき値に同値のものがある場合、ノードIDが若い方(例えば、SN−Bに対してはSN−A)が優先されるものとする。
(1)論理ボリューム管理部540は、負荷情報記憶部520に記憶された仮割り当て管理テーブル523aを参照して、まず、最も負荷の大きいプライマリスライス“P1”について仮割り当てを行う。なお、ストレージノード400には“S1”が配置されている。このため、ストレージノード400は“P1”の配置先から除外される。論理ボリューム管理部540は、何れのストレージノードにもプライマリスライスが割り当てられていないので、ストレージノード100,200,300の何れに配置してもよい。ここでは、論理ボリューム管理部540はストレージノード100に“P1”を割り当てる。
(2)論理ボリューム管理部540は、プライマリスライス“P5”について仮割り当てを行う。論理ボリューム管理部540は、“P5”をストレージノード100に仮割り当てした結果、ストレージノード100で予測される負荷として、“40%”+“30%”=“70%”を得る。また、“P5”をストレージノード300,400に仮割り当てした結果、ストレージノード300,400で予測される負荷として“30%”を得る。なお、ストレージノード200には“S5”が配置されている。このため、ストレージノード200は“P5”の配置先から除外される。ここで、ストレージノード300,400では、予測される負荷が同一であるため、ストレージノード300,400の何れに配置してもよい。ここでは、論理ボリューム管理部540はストレージノード300に“P5”を割り当てる。
(3)論理ボリューム管理部540は、プライマリスライス“P9”について仮割り当てを行う。論理ボリューム管理部540は、“P9”をストレージノード100に仮割り当てした結果、ストレージノード100で予測される負荷として、“40%”+“20%”=“60%”を得る。また、“P9”をストレージノード200に仮割り当てした結果、ストレージノード200で予測される負荷として“20%”を得る。同様にして、ストレージノード300,400で予測される負荷として、“50%”、“20%”を得る。したがって、論理ボリューム管理部540はストレージノード200に“P9”を割り当てる。
(4)論理ボリューム管理部540は、プライマリスライス“P6”について仮割り当てを行う。なお、ストレージノード400は“S6”が配置されている。このため、ストレージノード400は“P6”の配置先から除外される。論理ボリューム管理部540は、ストレージノード100,200,300で予測される負荷として、“60%”、“40%”、“50%”を得る。したがって、論理ボリューム管理部540はストレージノード200に“P6”を割り当てる。
(5)論理ボリューム管理部540は、プライマリスライス“P10”について仮割り当てを行う。なお、ストレージノード300は“S10”が配置されている。このため、ストレージノード300は“P10”の配置先から除外される。論理ボリューム管理部540は、ストレージノード100,200,400で予測される負荷として、“55%”、“55%”、“15%”を得る。したがって、論理ボリューム管理部540はストレージノード400に“P10”を割り当てる。
以降、論理ボリューム管理部540は、“P3”、“P8”、“P7”、“P2”、“P11”、“P4”、“P12”に関しても図14で説明した手順により、順次配置先を決定する。その結果、図19に示すスライス配置を得る。
このようにスライスの再配置を行うことで、同一内容のプライマリスライスとセカンダリスライスとが同一のストレージノードに属することを防止できる。これにより、該当のデータに対する信頼性を保持して負荷の均一化を図ることができる。
図20は、第2の実施の形態のスライス再配置後の負荷の具体例を示す図である。(A)は、スライス再配置前の各ストレージノードの負荷の状況を示している(図3の状態に対応する)。(B)は、スライス再配置後の各ストレージノードの負荷の状況を示している(図19の状態に対応する)。
論理ボリューム管理部540は、ストレージノード100,200,300,400から取得したアクセス情報に基づいて、各ストレージノードの負荷を定期的に均一化する。
(A)の状態では、ストレージノード100,200,300,400の負荷が“90%”、“40%”、“30%”、“20%”である。したがって、ストレージノード100に対して負荷が過大となっている。
論理ボリューム管理部540は、アクセス負荷の均一化を試み、図19のスライス配置を得る。その結果、ストレージノード100には、“P1”、“P11”、“P12”が配置される。また、ストレージノード200には、“P9”、“P6”、“P2”が配置される。また、ストレージノード300には、“P5”、“P3”、“P4”が配置される。また、ストレージノード400には、“P10”、“P8”、“P7”が配置される。これにより、ストレージノード100,200,300,400の負荷が“45%”、“45%”、“50%”、“40%”となる。すなわち、論理ボリューム管理部540は、このようにスライス単位に再配置を行うことで、論理ボリューム“LVOL1”について、ストレージノード100,200,300,400の負荷を均一化することができる。
以上で説明したように、コントロールノード500は、ストレージノード100,200,300,400の各スライスの負荷に応じて、各スライスの配置を変更し、ストレージノード100,200,300,400の負荷の均一化を図ることができる。その結果、局所的に高負荷となることが避けられ、システム全体としてのアクセス性能を向上することができる。
更に、データ配置の変更に際して、プライマリスライスと対応するセカンダリスライスとが異なるストレージノードに配置されるので、スライスが単一のストレージノードに属することがない。このため、1つのストレージノードが分散ストレージシステムから切断されたときに両方の冗長データにアクセスできなくなるという事態を避けることができるので信頼性が損なわれることがなくなる。
なお、コントロールノード500は、ストレージノード100,200,300,400のアクセス情報を定期的に取得する。そして、コントロールノード500は、ストレージノード100,200,300,400の負荷を随時監視する。
これにより、あるタイミングで突然何れかのストレージノードが切断された場合にも、直前に取得したアクセス情報から負荷を評価することが可能となる。
また、コントロールノード500は、このようなスライスの再配置を、ストレージノード100,200,300,400の何れかを停止するタイミングや何れかのストレージノードで障害が発生したことを検知したタイミングで実行する。また、コントロールノード500は、定期的(例えば、1ヶ月おき)にスライスの再配置を行う。
また、コントロールノード500は、ストレージノード100,200,300,400のアクセス負荷が、所定のしきい値以上となった場合に、再配置を行うようにしてもよい。
このように、コントロールノード500は、所定のタイミングで適宜スライスの再配置を行うことで、分散ストレージシステムのアクセス性能を考慮した、より効率的な運用が可能となる。
なお、コントロールノード500の機能は、その機能の処理内容を記述したプログラムをコンピュータに実行させることで実現できる。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disc)などがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
以上、本件の管理プログラム、管理装置および管理方法を図示の実施の形態に基づいて説明したが、これらに限定されるものではなく、各部の構成は同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。更に、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
説明した実施の形態の主な技術的特徴は、以下の付記の通りである。
(付記1) 論理ボリュームに含まれる複数の仮想記憶領域それぞれと、当該仮想記憶領域それぞれを指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を、コンピュータに管理させる管理プログラムであって、
前記コンピュータを、
前記各ストレージノードが備える前記各実記憶領域に対するアクセス情報を前記複数のストレージノードから取得し、前記アクセス情報に基づいて前記各実記憶領域の負荷情報を生成して、当該負荷情報を負荷情報記憶手段に格納する負荷情報取得手段、
前記負荷情報記憶手段に記憶された前記負荷情報に基づいて、前記各ストレージノードの負荷が均一になるように前記仮想記憶領域への前記実記憶領域の割り当て関係を変更する割当手段、
前記仮想記憶領域に割り当てる前記実記憶領域の変更に伴い、前記複数のストレージノードに対して前記実記憶領域のデータの移動を指示する指示手段、
として機能させることを特徴とする管理プログラム。
(付記2) 前記負荷情報には、前記各実記憶領域を配置先の変更対象とするか否かを示すフラグが設けられており、
前記割当手段は、前記負荷情報に含まれる前記フラグを参照して、前記配置先の変更対象となっている記憶領域のうち最大負荷である第1の記憶領域を特定し、前記第1の記憶領域を前記各ストレージノードに割り当てた場合に前記各ストレージノードで発生しうる予測負荷を算出し、算出した当該予測負荷が最小となるストレージノードに前記第1の記憶領域のデータを割り当てると共に、前記第1の記憶領域を前記配置先の変更対象としない旨、前記負荷情報に含まれる前記フラグを変更する、
ことを特徴とする付記1記載の管理プログラム。
(付記3) 前記割当手段は、前記複数のストレージノードのうちの何れかが切断されたことを検知した場合、または、前記複数のストレージノードのうちの何れかを切断する指示を受け付けた場合に前記データの配置先の割り当てを行うことを特徴とする付記1または2の何れか1つに記載の管理プログラム。
(付記4) 前記割当手段は、前記データの配置先の割り当てを所定の周期で行うことを特徴とする付記1乃至3の何れか1つに記載の管理プログラム。
(付記5) 前記割当手段は、同一内容の複数のデータからアクセス要求時にアクセス先として使用する主データとバックアップとして使用する副データとを指定し、前記主データおよび前記副データそれぞれの配置先のストレージノードを定義した管理情報を記憶する管理情報記憶手段に記憶された前記管理情報を操作して、前記主データの配置先と当該主データと同一内容の前記副データの配置先とが同一のストレージノードに属さないように前記割り当て関係を変更することを特徴とする付記1乃至4の何れか1つに記載の管理プログラム。
(付記6) 前記アクセス情報は、前記各ストレージノードで測定され、前記各ストレージノードで許容される単位時間当たりのデータ入出力数に基づく負荷を示すアクセス性能と、所定期間に発生した前記各ストレージノードに対するデータアクセス回数を示すアクセス統計情報と、を含んでおり、
前記負荷情報取得手段は、前記アクセス性能と前記アクセス統計情報とに基づいて、前記負荷情報を生成する、
ことを特徴とする付記5記載の管理プログラム。
(付記7) 前記管理情報では、データの特定に用いる論理ボリュームのアドレス空間が複数の論理セグメントに分割され、前記論理セグメント単位で前記同一内容の複数のデータが管理されており、
前記割当手段は、前記論理セグメント単位で前記主データと前記副データとの配置先を変更する、
ことを特徴とする付記1乃至6の何れか1つに記載の管理プログラム。
(付記8) 論理ボリュームに含まれる複数の仮想記憶領域それぞれと、当該仮想記憶領域それぞれを指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を管理する管理装置であって、
前記各ストレージノードが備える前記各実記憶領域に対するアクセス情報を前記複数のストレージノードから取得し、前記アクセス情報に基づいて前記各実記憶領域の負荷情報を生成して、当該負荷情報を負荷情報記憶手段に格納する負荷情報取得手段と、
前記負荷情報記憶手段に記憶された前記負荷情報に基づいて、前記各ストレージノードの負荷が均一になるように前記仮想記憶領域への前記実記憶領域の割り当て関係を変更する割当手段と、
前記仮想記憶領域に割り当てる前記実記憶領域の変更に伴い、前記複数のストレージノードに対して前記実記憶領域のデータの移動を指示する指示手段と、
を有することを特徴とする管理装置。
(付記9) 論理ボリュームに含まれる複数の仮想記憶領域それぞれと、当該仮想記憶領域それぞれを指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を管理するコンピュータの管理方法であって、
負荷情報取得手段が、前記各ストレージノードが備える前記各実記憶領域に対するアクセス情報を前記複数のストレージノードから取得し、前記アクセス情報に基づいて前記各実記憶領域の負荷情報を生成して、当該負荷情報を負荷情報記憶手段に格納し、
割当手段が、前記負荷情報記憶手段に記憶された前記負荷情報に基づいて、前記各ストレージノードの負荷が均一になるように前記仮想記憶領域への前記実記憶領域の割り当て関係を変更し、
指示手段が、前記仮想記憶領域に割り当てる前記実記憶領域の変更に伴い、前記複数のストレージノードに対して前記実記憶領域のデータの移動を指示する、
ことを特徴とする管理方法。
1 コンピュータ
1a 負荷情報記憶手段
1b 管理情報記憶手段
1c 負荷情報取得手段
1d 割当手段
1e 指示手段
2,3,4,5 ストレージノード
2a,2b,2c,2d,3a,3b,3c,3d,4a,4b,4c,4d,5a,5b,5c,5d 実記憶領域

Claims (7)

  1. 論理ボリュームに含まれる複数の仮想記憶領域それぞれと、当該仮想記憶領域それぞれを指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を、コンピュータに管理させる管理プログラムであって、
    前記コンピュータを、
    前記各ストレージノードが備える前記各実記憶領域に対するアクセス情報を前記複数のストレージノードから取得し、前記アクセス情報に基づいて前記各実記憶領域の負荷情報を生成して、当該負荷情報を負荷情報記憶手段に格納する負荷情報取得手段、
    前記負荷情報記憶手段に記憶された前記負荷情報に基づいて、前記各ストレージノードの負荷が均一になるように前記仮想記憶領域への前記実記憶領域の割り当て関係を変更する割当手段、
    前記仮想記憶領域に割り当てる前記実記憶領域の変更に伴い、前記複数のストレージノードに対して前記実記憶領域のデータの移動を指示する指示手段、
    として機能させることを特徴とする管理プログラム。
  2. 前記負荷情報には、前記各実記憶領域を配置先の変更対象とするか否かを示すフラグが設けられており、
    前記割当手段は、前記負荷情報に含まれる前記フラグを参照して、前記配置先の変更対象となっている記憶領域のうち最大負荷である第1の記憶領域を特定し、前記第1の記憶領域を前記各ストレージノードに割り当てた場合に前記各ストレージノードで発生しうる予測負荷を算出し、算出した当該予測負荷が最小となるストレージノードに前記第1の記憶領域のデータを割り当てると共に、前記第1の記憶領域を前記配置先の変更対象としない旨、前記負荷情報に含まれる前記フラグを変更する、
    ことを特徴とする請求項1記載の管理プログラム。
  3. 前記割当手段は、前記複数のストレージノードのうちの何れかが切断されたことを検知した場合、または、前記複数のストレージノードのうちの何れかを切断する指示を受け付けた場合に前記データの配置先の割り当てを行うことを特徴とする請求項1または2の何れか1項に記載の管理プログラム。
  4. 前記割当手段は、前記データの配置先の割り当てを所定の周期で行うことを特徴とする請求項1乃至3の何れか1項に記載の管理プログラム。
  5. 前記割当手段は、同一内容の複数のデータからアクセス要求時にアクセス先として使用する主データとバックアップとして使用する副データとを指定し、前記主データおよび前記副データそれぞれの配置先のストレージノードを定義した管理情報を記憶する管理情報記憶手段に記憶された前記管理情報を操作して、前記主データの配置先と当該主データと同一内容の前記副データの配置先とが同一のストレージノードに属さないように前記割り当て関係を変更することを特徴とする請求項1乃至4の何れか1項に記載の管理プログラム。
  6. 論理ボリュームに含まれる複数の仮想記憶領域それぞれと、当該仮想記憶領域それぞれを指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を管理する管理装置であって、
    前記各ストレージノードが備える前記各実記憶領域に対するアクセス情報を前記複数のストレージノードから取得し、前記アクセス情報に基づいて前記各実記憶領域の負荷情報を生成して、当該負荷情報を負荷情報記憶手段に格納する負荷情報取得手段と、
    前記負荷情報記憶手段に記憶された前記負荷情報に基づいて、前記各ストレージノードの負荷が均一になるように前記仮想記憶領域への前記実記憶領域の割り当て関係を変更する割当手段と、
    前記仮想記憶領域に割り当てる前記実記憶領域の変更に伴い、前記複数のストレージノードに対して前記実記憶領域のデータの移動を指示する指示手段と、
    を有することを特徴とする管理装置。
  7. 論理ボリュームに含まれる複数の仮想記憶領域それぞれと、当該仮想記憶領域それぞれを指定したアクセスの対象となるデータの格納先となる、複数のストレージノードそれぞれが有する記録装置内の実記憶領域との割り当て関係を管理するコンピュータの管理方法であって、
    負荷情報取得手段が、前記各ストレージノードが備える前記各実記憶領域に対するアクセス情報を前記複数のストレージノードから取得し、前記アクセス情報に基づいて前記各実記憶領域の負荷情報を生成して、当該負荷情報を負荷情報記憶手段に格納し、
    割当手段が、前記負荷情報記憶手段に記憶された前記負荷情報に基づいて、前記各ストレージノードの負荷が均一になるように前記仮想記憶領域への前記実記憶領域の割り当て関係を変更し、
    指示手段が、前記仮想記憶領域に割り当てる前記実記憶領域の変更に伴い、前記複数のストレージノードに対して前記実記憶領域のデータの移動を指示する、
    ことを特徴とする管理方法。
JP2009128386A 2009-05-28 2009-05-28 管理プログラム、管理装置および管理方法 Active JP5381336B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009128386A JP5381336B2 (ja) 2009-05-28 2009-05-28 管理プログラム、管理装置および管理方法
US12/788,546 US8443138B2 (en) 2009-05-28 2010-05-27 Recording medium storing management program, management device and management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009128386A JP5381336B2 (ja) 2009-05-28 2009-05-28 管理プログラム、管理装置および管理方法

Publications (2)

Publication Number Publication Date
JP2010277289A true JP2010277289A (ja) 2010-12-09
JP5381336B2 JP5381336B2 (ja) 2014-01-08

Family

ID=43221593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009128386A Active JP5381336B2 (ja) 2009-05-28 2009-05-28 管理プログラム、管理装置および管理方法

Country Status (2)

Country Link
US (1) US8443138B2 (ja)
JP (1) JP5381336B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013122338A1 (ko) * 2012-02-14 2013-08-22 주식회사 케이티 검색 시스템에서 시계열 데이터의 효율적 분석을 위한 분산 인덱싱 및 검색 방법
JP2014032575A (ja) * 2012-08-06 2014-02-20 Nec Corp 分散ストレージシステム、分散ストレージデータ移動制御方法及び分散ストレージデータ移動制御用プログラム
JP5583227B1 (ja) * 2012-09-21 2014-09-03 株式会社東芝 物理ブロック間でデータをコピーするディスクアレイ装置、ディスクアレイコントローラ及び方法
WO2014142134A1 (ja) * 2013-03-14 2014-09-18 株式会社東芝 コンテンツ配信装置、コンテンツ配信サーバ、および記録媒体
WO2014157275A1 (ja) * 2013-03-29 2014-10-02 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム及びストレージシステムの制御方法
JP2014229235A (ja) * 2013-05-27 2014-12-08 富士通株式会社 ストレージ制御装置、ストレージ制御方法およびストレージ制御プログラム
JP2015060440A (ja) * 2013-09-19 2015-03-30 日本電気株式会社 ストレージ装置及びその制御方法、並びにストレージ制御プログラム
JP2015170272A (ja) * 2014-03-10 2015-09-28 日本電気株式会社 制御装置、制御方法、及び制御プログラム
JP2015172833A (ja) * 2014-03-11 2015-10-01 株式会社日立製作所 データ処理システム
WO2016147281A1 (ja) * 2015-03-16 2016-09-22 株式会社日立製作所 分散型ストレージシステム及び分散型ストレージシステムの制御方法
JP2022182584A (ja) * 2021-05-28 2022-12-08 株式会社日立製作所 ストレージシステム
JP2023002151A (ja) * 2021-06-22 2023-01-10 株式会社日立製作所 管理システム、データリバランス管理方法、及びデータリバランス管理プログラム

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103299296B (zh) * 2011-12-22 2016-03-09 华为技术有限公司 一种分布式存储系统中分区管理方法、设备及系统
AU2013381504B2 (en) * 2013-03-12 2016-06-23 Kabushiki Kaisha Toshiba Database system, program, and data processing method
JP5987104B2 (ja) * 2013-03-18 2016-09-06 株式会社日立製作所 計算機システム、ストレージシステムの管理システム及び管理方法
JP6382819B2 (ja) 2013-08-21 2018-08-29 株式会社東芝 データベースシステム、ノード、管理装置、プログラムおよびデータ処理方法
WO2015029139A1 (ja) 2013-08-27 2015-03-05 株式会社東芝 データベースシステム、プログラムおよびデータ処理方法
US9612924B1 (en) * 2014-06-25 2017-04-04 Amazon Technologies, Inc. Fault tolerance in a distributed file system
US10657274B2 (en) * 2015-06-29 2020-05-19 Samsng Electronics Co., Ltd. Semiconductor device including memory protector
US9832277B2 (en) 2015-11-13 2017-11-28 Western Digital Technologies, Inc. Systems and methods for adaptive partitioning in distributed cache memories
WO2017119091A1 (ja) * 2016-01-07 2017-07-13 株式会社日立製作所 分散型ストレージシステム、データ格納方法、およびソフトウェアプログラム
US10303557B2 (en) 2016-03-09 2019-05-28 Commvault Systems, Inc. Data transfer to a distributed storage environment
US10921991B1 (en) 2016-12-20 2021-02-16 Amazon Technologies, Inc. Rule invalidation for a block store management system
US10809920B1 (en) 2016-12-20 2020-10-20 Amazon Technologies, Inc. Block store management for remote storage systems
US10185507B1 (en) * 2016-12-20 2019-01-22 Amazon Technologies, Inc. Stateless block store manager volume reconstruction
US10268593B1 (en) 2016-12-20 2019-04-23 Amazon Technologies, Inc. Block store managamement using a virtual computing system service
US11507283B1 (en) 2016-12-20 2022-11-22 Amazon Technologies, Inc. Enabling host computer systems to access logical volumes by dynamic updates to data structure rules
US10592297B2 (en) * 2017-07-12 2020-03-17 Vmware, Inc. Use minimal variance to distribute disk slices to avoid over-commitment
US11947489B2 (en) 2017-09-05 2024-04-02 Robin Systems, Inc. Creating snapshots of a storage volume in a distributed storage system
US10452267B2 (en) 2017-09-13 2019-10-22 Robin Systems, Inc. Storage scheme for a distributed storage system
US10430105B2 (en) 2017-09-13 2019-10-01 Robin Systems, Inc. Storage scheme for a distributed storage system
US10579276B2 (en) 2017-09-13 2020-03-03 Robin Systems, Inc. Storage scheme for a distributed storage system
US10423344B2 (en) * 2017-09-19 2019-09-24 Robin Systems, Inc. Storage scheme for a distributed storage system
US10534549B2 (en) 2017-09-19 2020-01-14 Robin Systems, Inc. Maintaining consistency among copies of a logical storage volume in a distributed storage system
US10846001B2 (en) 2017-11-08 2020-11-24 Robin Systems, Inc. Allocating storage requirements in a distributed storage system
US10782887B2 (en) 2017-11-08 2020-09-22 Robin Systems, Inc. Window-based prority tagging of IOPs in a distributed storage system
US10452308B2 (en) 2017-12-19 2019-10-22 Robin Systems, Inc. Encoding tags for metadata entries in a storage system
US10430110B2 (en) 2017-12-19 2019-10-01 Robin Systems, Inc. Implementing a hybrid storage node in a distributed storage system
US10430292B2 (en) 2017-12-19 2019-10-01 Robin Systems, Inc. Snapshot deletion in a distributed storage system
US11099937B2 (en) 2018-01-11 2021-08-24 Robin Systems, Inc. Implementing clone snapshots in a distributed storage system
US10896102B2 (en) 2018-01-11 2021-01-19 Robin Systems, Inc. Implementing secure communication in a distributed computing system
US11748203B2 (en) 2018-01-11 2023-09-05 Robin Systems, Inc. Multi-role application orchestration in a distributed storage system
US10642697B2 (en) 2018-01-11 2020-05-05 Robin Systems, Inc. Implementing containers for a stateful application in a distributed computing system
US11582168B2 (en) 2018-01-11 2023-02-14 Robin Systems, Inc. Fenced clone applications
US10628235B2 (en) 2018-01-11 2020-04-21 Robin Systems, Inc. Accessing log files of a distributed computing system using a simulated file system
US11392363B2 (en) 2018-01-11 2022-07-19 Robin Systems, Inc. Implementing application entrypoints with containers of a bundled application
US10579364B2 (en) 2018-01-12 2020-03-03 Robin Systems, Inc. Upgrading bundled applications in a distributed computing system
US10845997B2 (en) 2018-01-12 2020-11-24 Robin Systems, Inc. Job manager for deploying a bundled application
US10846137B2 (en) 2018-01-12 2020-11-24 Robin Systems, Inc. Dynamic adjustment of application resources in a distributed computing system
US10642694B2 (en) 2018-01-12 2020-05-05 Robin Systems, Inc. Monitoring containers in a distributed computing system
US11023328B2 (en) 2018-07-30 2021-06-01 Robin Systems, Inc. Redo log for append only storage scheme
US10976938B2 (en) 2018-07-30 2021-04-13 Robin Systems, Inc. Block map cache
US10817380B2 (en) 2018-07-31 2020-10-27 Robin Systems, Inc. Implementing affinity and anti-affinity constraints in a bundled application
US10599622B2 (en) 2018-07-31 2020-03-24 Robin Systems, Inc. Implementing storage volumes over multiple tiers
US11036439B2 (en) 2018-10-22 2021-06-15 Robin Systems, Inc. Automated management of bundled applications
US10908848B2 (en) 2018-10-22 2021-02-02 Robin Systems, Inc. Automated management of bundled applications
US10620871B1 (en) 2018-11-15 2020-04-14 Robin Systems, Inc. Storage scheme for a distributed storage system
US11086725B2 (en) 2019-03-25 2021-08-10 Robin Systems, Inc. Orchestration of heterogeneous multi-role applications
US11256434B2 (en) 2019-04-17 2022-02-22 Robin Systems, Inc. Data de-duplication
US10831387B1 (en) 2019-05-02 2020-11-10 Robin Systems, Inc. Snapshot reservations in a distributed storage system
US10877684B2 (en) 2019-05-15 2020-12-29 Robin Systems, Inc. Changing a distributed storage volume from non-replicated to replicated
US11226847B2 (en) 2019-08-29 2022-01-18 Robin Systems, Inc. Implementing an application manifest in a node-specific manner using an intent-based orchestrator
US11249851B2 (en) 2019-09-05 2022-02-15 Robin Systems, Inc. Creating snapshots of a storage volume in a distributed storage system
US11520650B2 (en) 2019-09-05 2022-12-06 Robin Systems, Inc. Performing root cause analysis in a multi-role application
US11113158B2 (en) 2019-10-04 2021-09-07 Robin Systems, Inc. Rolling back kubernetes applications
US11347684B2 (en) 2019-10-04 2022-05-31 Robin Systems, Inc. Rolling back KUBERNETES applications including custom resources
US11403188B2 (en) 2019-12-04 2022-08-02 Robin Systems, Inc. Operation-level consistency points and rollback
US11546420B2 (en) * 2020-02-24 2023-01-03 Netapp, Inc. Quality of service (QoS) settings of volumes in a distributed storage system
US11108638B1 (en) 2020-06-08 2021-08-31 Robin Systems, Inc. Health monitoring of automatically deployed and managed network pipelines
US11528186B2 (en) 2020-06-16 2022-12-13 Robin Systems, Inc. Automated initialization of bare metal servers
US11740980B2 (en) 2020-09-22 2023-08-29 Robin Systems, Inc. Managing snapshot metadata following backup
US11743188B2 (en) 2020-10-01 2023-08-29 Robin Systems, Inc. Check-in monitoring for workflows
US11456914B2 (en) 2020-10-07 2022-09-27 Robin Systems, Inc. Implementing affinity and anti-affinity with KUBERNETES
US11271895B1 (en) 2020-10-07 2022-03-08 Robin Systems, Inc. Implementing advanced networking capabilities using helm charts
US11750451B2 (en) 2020-11-04 2023-09-05 Robin Systems, Inc. Batch manager for complex workflows
US11556361B2 (en) 2020-12-09 2023-01-17 Robin Systems, Inc. Monitoring and managing of complex multi-role applications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301594A (ja) * 2004-04-09 2005-10-27 Fujitsu Ltd 冗長構成復元方法、データ管理システム及び冗長構成復元プログラム
JP2006024024A (ja) * 2004-07-08 2006-01-26 Toshiba Corp 論理ディスク管理方法及び装置
JP2007293486A (ja) * 2006-04-24 2007-11-08 Fujitsu Ltd ディスク装置、ディスク制御方法及びプログラム
JP2008225686A (ja) * 2007-03-09 2008-09-25 Nec Corp 分散型データ処理プラットフォームにおけるデータ配置管理装置と方法、システム及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863298A (ja) 1994-08-18 1996-03-08 Hitachi Ltd ディスクアレイ装置
US6766430B2 (en) 2000-07-06 2004-07-20 Hitachi, Ltd. Data reallocation among storage systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301594A (ja) * 2004-04-09 2005-10-27 Fujitsu Ltd 冗長構成復元方法、データ管理システム及び冗長構成復元プログラム
JP2006024024A (ja) * 2004-07-08 2006-01-26 Toshiba Corp 論理ディスク管理方法及び装置
JP2007293486A (ja) * 2006-04-24 2007-11-08 Fujitsu Ltd ディスク装置、ディスク制御方法及びプログラム
JP2008225686A (ja) * 2007-03-09 2008-09-25 Nec Corp 分散型データ処理プラットフォームにおけるデータ配置管理装置と方法、システム及びプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013122338A1 (ko) * 2012-02-14 2013-08-22 주식회사 케이티 검색 시스템에서 시계열 데이터의 효율적 분석을 위한 분산 인덱싱 및 검색 방법
JP2014032575A (ja) * 2012-08-06 2014-02-20 Nec Corp 分散ストレージシステム、分散ストレージデータ移動制御方法及び分散ストレージデータ移動制御用プログラム
JP5583227B1 (ja) * 2012-09-21 2014-09-03 株式会社東芝 物理ブロック間でデータをコピーするディスクアレイ装置、ディスクアレイコントローラ及び方法
WO2014142134A1 (ja) * 2013-03-14 2014-09-18 株式会社東芝 コンテンツ配信装置、コンテンツ配信サーバ、および記録媒体
JP2014178874A (ja) * 2013-03-14 2014-09-25 Toshiba Corp コンテンツ配信装置、コンテンツ配信サーバ、およびプログラム
US10268398B2 (en) 2013-03-29 2019-04-23 Fujitsu Limited Storage system, recording medium for storing control program and control method for storage system
JP2014199581A (ja) * 2013-03-29 2014-10-23 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム及びストレージシステムの制御方法
WO2014157275A1 (ja) * 2013-03-29 2014-10-02 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム及びストレージシステムの制御方法
JP2014229235A (ja) * 2013-05-27 2014-12-08 富士通株式会社 ストレージ制御装置、ストレージ制御方法およびストレージ制御プログラム
JP2015060440A (ja) * 2013-09-19 2015-03-30 日本電気株式会社 ストレージ装置及びその制御方法、並びにストレージ制御プログラム
JP2015170272A (ja) * 2014-03-10 2015-09-28 日本電気株式会社 制御装置、制御方法、及び制御プログラム
JP2015172833A (ja) * 2014-03-11 2015-10-01 株式会社日立製作所 データ処理システム
WO2016147281A1 (ja) * 2015-03-16 2016-09-22 株式会社日立製作所 分散型ストレージシステム及び分散型ストレージシステムの制御方法
US10346075B2 (en) 2015-03-16 2019-07-09 Hitachi, Ltd. Distributed storage system and control method for distributed storage system
JP2022182584A (ja) * 2021-05-28 2022-12-08 株式会社日立製作所 ストレージシステム
JP7253007B2 (ja) 2021-05-28 2023-04-05 株式会社日立製作所 ストレージシステム
JP2023002151A (ja) * 2021-06-22 2023-01-10 株式会社日立製作所 管理システム、データリバランス管理方法、及びデータリバランス管理プログラム
JP7316322B2 (ja) 2021-06-22 2023-07-27 株式会社日立製作所 管理システム、データリバランス管理方法、及びデータリバランス管理プログラム

Also Published As

Publication number Publication date
US20100306495A1 (en) 2010-12-02
US8443138B2 (en) 2013-05-14
JP5381336B2 (ja) 2014-01-08

Similar Documents

Publication Publication Date Title
JP5381336B2 (ja) 管理プログラム、管理装置および管理方法
US8521983B2 (en) Program, apparatus and method for managing data allocation of distributed storage system including storage nodes
US9348724B2 (en) Method and apparatus for maintaining a workload service level on a converged platform
US8429369B2 (en) Storage management program, storage management method, and storage management apparatus
JP4606455B2 (ja) ストレージ管理装置、ストレージ管理プログラムおよびストレージシステム
US8234467B2 (en) Storage management device, storage system control device, storage medium storing storage management program, and storage system
US8458398B2 (en) Computer-readable medium storing data management program, computer-readable medium storing storage diagnosis program, and multinode storage system
US9703504B2 (en) Storage system, recording medium storing data rebalancing program, and data rebalancing method
US7966470B2 (en) Apparatus and method for managing logical volume in distributed storage systems
US20150286436A1 (en) File system snapshot data management in a multi-tier storage environment
US20130201992A1 (en) Information processing system and information processing apparatus
US8032784B2 (en) Duplication combination management program, duplication combination management apparatus, and duplication combination management method
US20120297156A1 (en) Storage system and controlling method of the same
US8386707B2 (en) Virtual disk management program, storage device management program, multinode storage system, and virtual disk managing method
JP2004246852A (ja) 論理ボリュームコピー先性能調整方法及び装置
JP6511795B2 (ja) ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム
JP2007156815A (ja) データマイグレーション方法及びシステム
JP2007079885A (ja) データ入出力負荷分散方法、データ入出力負荷分散プログラム、計算機システムおよび管理サーバ
JP2009122873A (ja) ストレージシステム間でのリモートコピーを管理する装置
US7707199B2 (en) Method and system for integrated management computer setting access rights, calculates requested storage capacity of multiple logical storage apparatus for migration
JP5758449B2 (ja) データ再配置装置、方法およびプログラム
JP6974706B2 (ja) 情報処理装置、ストレージシステムおよびプログラム
CN112083886A (zh) 一种nas设备的存储管理方法、系统及装置
US20090319834A1 (en) Computer-readable storage medium storing storage management program, storage management method,and storage management apparatus
JP5924117B2 (ja) コンピュータ、データ格納方法、データ格納プログラム及び情報処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130916

R150 Certificate of patent or registration of utility model

Ref document number: 5381336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150