JP5104855B2 - 負荷分散プログラム、負荷分散方法、及びストレージ管理装置 - Google Patents

負荷分散プログラム、負荷分散方法、及びストレージ管理装置 Download PDF

Info

Publication number
JP5104855B2
JP5104855B2 JP2009508753A JP2009508753A JP5104855B2 JP 5104855 B2 JP5104855 B2 JP 5104855B2 JP 2009508753 A JP2009508753 A JP 2009508753A JP 2009508753 A JP2009508753 A JP 2009508753A JP 5104855 B2 JP5104855 B2 JP 5104855B2
Authority
JP
Japan
Prior art keywords
segment
logical
sub
physical
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009508753A
Other languages
English (en)
Other versions
JPWO2008126202A1 (ja
Inventor
泰生 野口
一隆 荻原
雅寿 田村
芳浩 土屋
哲太郎 丸山
高志 渡辺
達夫 熊野
理一郎 武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2008126202A1 publication Critical patent/JPWO2008126202A1/ja
Application granted granted Critical
Publication of JP5104855B2 publication Critical patent/JP5104855B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Description

本発明はストレージシステムの負荷分散プログラム、ストレージシステムの負荷分散方法、及びストレージ管理装置に関し、特にネットワーク経由で接続される複数のストレージノードによって構成するするストレージ装置にて、コンピュータがデータを分散管理するストレージシステムの負荷分散処理を、コンピュータに行わせる負荷分散プログラム、その負荷分散方法、及びストレージ管理装置に関する。
従来、ストレージシステムの構成として、複数のストレージノードをネットワーク上に分散配置して協働させることによって、性能及び信頼性を向上させる分散型の分散ストレージシステムがある。このような分散ストレージシステムでは、個々のストレージノード内の記憶領域を一元的に利用するために、仮想的なボリューム(以下、論理ボリュームと呼ぶ)が利用者に提供される。この、論理ボリュームは、論理的な記憶領域を複数の領域に分割した記憶領域単位(以下、論理セグメントと呼ぶ)によって管理される。また、ストレージノード内の記憶領域は、論理セグメントと同じサイズの実データ記憶領域(以下、物理セグメントと呼ぶ)に分けられている。論理ボリュームの論理セグメントは、ストレージノード内の少なくとも1つの物理セグメントと対応付けられる。なお、データを二重化する場合には、異なるストレージノードの物理セグメントの組が1つの論理セグメントに対応付けられる。個々の物理セグメントを管理する領域には、対応する論理セグメントの識別情報などの管理情報が設定される。
従来、セグメント単位の大きさや、論理セグメントと物理セグメントとの対応関係は、導入時に決定したまま、その後は静的に固定されたまま利用されることが多い。このため、アクセス頻度の高いファイルを持つ論理セグメント群が、少数の特定のストレージノードの物理セグメントに対応付けされていると、論理セグメントへの多数のアクセスの集中が原因となり、対応するストレージノードからのファイル読み出し、あるいは書き込みの際にレスポンスの低下が発生する。そこで、このようなストレージシステムの記憶資源の使用率の隔たりを回避して、記憶資源の可用性や、アクセス時のレスポンスを向上させるため、必要に応じて物理セグメントの配置を動的に変化させるコンピュータネットワークの制御方法が提案されている(たとえば、特許文献1参照)。
また、分散配置されるストレージ装置(ディスクアレイ)に対するシーケンシャル書き込み時に並列動作するドライブ数ができるだけ多くなるように、ドライブ内の記憶領域を割り当てる制御を行うディスクアレイのための領域割り当て方法も提案されている(たとえば、特許文献2参照)。
このように、従来の分散ストレージシステムでは、ストレージノードへアクセスする際の応答速度やスループットの向上のためにさまざまな手法が提案されていた。
特開平9−223047号公報(図11) 特開平8−185275号公報(図1)
しかし、従来の分散ストレージシステムでは、少数の特定のストレージノードへの負荷集中を抑制できないという問題点があった。
コンピュータの基本ソフトであるオペレーティングシステム(Operating System;以下、OSとする)では、アプリケーションから論理ボリュームへのアクセスを要求するランダムなIOコマンドを取得すると、このIOコマンドをソートした後、ストレージノードに対して発行する。図10は、従来のストレージシステムにおけるOSのIOコマンドのソートとストレージノードの負荷との関係を説明する図である。
論理ボリューム910は、論理セグメント、S1(911)、S2(912)、S3(913)、及びS4(914)により構成され、各セグメントは、アドレスの昇順にS1,S2,S3,S4と並んでいるとする。ストレージノード920の物理セグメントは、物理セグメント921〜923に分けられている。同様に、ストレージノード930内の記憶領域は、物理セグメント931〜933に分けられ、ストレージノード940内の記憶領域は、物理セグメント941〜942に分けられている。なお、図の例では、セグメントを「S」と数字との組合せで示しており、対応付けられた論理セグメントと物理セグメントとには、同じ数字を設定する。たとえば、論理セグメントS1(911)と、物理セグメントS1(921)とが対応付けられており、論理セグメントS1(911)の実データは、物理セグメントS1(921)に格納される。
アプリケーションが発行する論理ボリュームへのアクセスを要求するIOコマンド(以下、アプリ発行コマンドとする)901は、アプリケーションの動作によりランダムに発生する。なお、図のIOコマンドに続く()内は、アクセス要求先の論理セグメントを表している。たとえば、IOコマンド(S1)は、論理ボリューム910の論理セグメントS1(911)へのアクセス要求になる。OSは、これらアプリ発行コマンド901を取得すると、バッファなどに一時格納し、IOコマンドが指示するアクセス要求先のアドレスでIOコマンドをソートしてからアドレス順に従って順次発行する。ソートによって、OS発行コマンド902は、アクセス先をS1(911)とするIOコマンド(S1)群、アクセス先をS2(912)とするIOコマンド(S2)群、アクセス先をS3(913)とするIOコマンド(S3)群の順に並べられる。そして、並べられた順にIOコマンドが発行される。IOコマンド(S2)を例にとれば、ソートされた4つのIOコマンド(S2)903が続けて発行される。すなわち、ストレージノード930の物理セグメント931へのアクセスが集中することとなり、ストレージノード930のレスポンスが低下する。
しかし、従来のストレージシステムでは、ストレージノードの物理ボリュームへのアクセスの応答時間の高速化や、スループットの向上のためのストレージ管理は、すべてセグメントを単位として行われていた。したがって、上記のように同一セグメント内の狭い範囲へアクセスが集中したときには、応答時間の増大やスループットの低下を防ぐことができなかった。
セグメントのサイズを小さくすれば、特定のセグメントへのアクセスの集中を軽減することができる。しかしながらセグメントの数が多くなり、これに伴ってセグメントの管理情報も増大し、セグメント管理処理に要する時間も増えるなど好ましくない。
本発明はこのような点に鑑みてなされたものであり、管理情報を増やすことなく、さらにアクセス性能を向上することが可能なストレージシステムの負荷分散プログラム、ストレージシステムの負荷分散方法、及びストレージ管理装置を提供することを目的とする。
本発明では上記課題を解決するために、図1に示すような処理をコンピュータに実行させるための負荷分散プログラムが提供される。本発明にかかるストレージシステムの負荷分散プログラムは、ストレージ管理装置1に適用され、コンピュータに以下の処理を実行させることができる。ストレージ管理装置1は、管理情報記憶手段1a、セグメント特定手段1c、再配置手段1d、及びデータアクセス手段1bを有し、ネットワーク経由で接続される複数のストレージノード2a,3a,4a,5aと協働し、データをストレージ装置2b,3b,4b,5bに分散配置して管理する。
管理情報記憶手段1aには、仮想的な論理セグメントを個々に識別する論理セグメントの識別情報と、実データ記憶領域である物理セグメントであって、論理セグメントと対応付けられた物理セグメントを個々に識別する識別情報と、を関連付けた管理情報が格納される。論理セグメントは、ストレージ装置2b,3b,4b,5bの記憶領域を一元管理するための仮想的な論理ボリュームを、所定の記憶領域単位で分割したものである。物理セグメントは、ストレージ装置2b,3b,4b,5bの実データ記憶領域を論理セグメントと同じ所定の記憶領域単位で分割したものである。セグメント特定手段1cは、データのアクセス要求を取得すると、管理情報記憶手段1aに記憶される管理情報に基づいて、アクセス要求によって指定される論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントとを特定する。再配置手段1dは、まず、アクセス対象範囲の論理セグメントと、その論理セグメントに対応付けられた物理セグメントについて、この論理セグメントと物理セグメントとを、それぞれ所定の小領域単位のサブ論理セグメントと、サブ物理セグメントと、に分割する。そして、分割されたアクセス対象範囲のサブ論理セグメントを、所定の規則に従ってサブ物理セグメントに再配置する。データアクセス手段1bは、再配置手段1dによって対応付けられたサブ論理セグメントとサブ物理セグメントとの間で、アクセス要求に基づくデータのアクセス制御を行う。
このようなストレージシステムの負荷分散プログラムによれば、コンピュータを、ストレージ管理装置1として機能させることができる。管理情報記憶手段1aには、仮想的な論理セグメントの個々を識別する識別情報と、論理セグメントに対応付けられた実際データ記憶領域の物理セグメントを個々に識別する識別情報と、を関連付けた管理情報が格納される。データのアクセス要求が入力されると、セグメント特定手段1cは、管理情報に基づいて、アクセス要求によって指定される論理ボリューム上のアクセス対象領域の論理セグメントに対応付けられた物理セグメントとを特定する。再配置手段1dでは、アクセス対象範囲の論理セグメントを所定の分割数のサブ論理セグメントに分割するとともに、対応する物理セグメントを同じ分割数のサブ物理セグメントに分割する。そして、分割されたサブ論理セグメントを、所定の規則に従ってサブ物理セグメントに再配置する。これにより、サブ論理セグメントとサブ物理セグメントとの対応関係が変換される。データアクセス手段1bは、再配置手段1dによって対応付けられたサブ論理セグメントとサブ物理セグメントとの間のアクセス制御を行う。
また、上記課題を解決するために、ネットワーク経由で接続される複数のストレージノードによって構成するストレージ装置にて、コンピュータがデータを分散管理するストレージシステムの負荷分散処理を行う負荷分散方法において、セグメント特定手段が、データのアクセス要求を取得すると、管理情報記憶手段に記憶される仮想的な論理ボリュームを所定の記憶領域単位で分割した論理セグメントの識別情報と、論理セグメントに対応付けられたストレージ装置の実データ記憶領域を所定の記憶領域単位で分割した物理セグメントの識別情報とを関連付けた管理情報に基づいて、アクセス要求によって指定される論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントとを特定し、再配置手段が、アクセス対象範囲の論理セグメントと物理セグメントとを、それぞれ所定の小領域単位のサブ論理セグメントとサブ物理セグメントとに分割し、アクセス対象範囲のサブ論理セグメントを、所定の規則に従ってアクセス対象範囲のサブ物理セグメントに再配置し、データアクセス手段が、再配置手段によって対応付けられたサブ論理セグメントとサブ物理セグメントとの間で、アクセス要求に基づくアクセス制御を行う、手順を有することを特徴とするストレージシステムの負荷分散方法、が提供される。
このようなストレージシステムの負荷分散方法によれば、アクセス対象範囲の論理セグメントと、論理セグメントに対応付けられたサブ論理セグメントと、を所定の分割数のサブ論理セグメントと、サブ物理セグメントとに分割する。サブ論理セグメントに対応させるサブ物理セグメントを所定の規則に従って再配置し、再配置後の対応付けに基づいて論理セグメントと物理セグメントとの間のアクセス制御を行う。
また、上記課題を解決するために、ネットワーク経由で接続される複数のストレージノードによって構成するストレージ装置にてデータを分散管理するストレージ管理装置において、仮想的な論理ボリュームを所定の記憶領域単位で分割した論理セグメントの識別情報と、論理セグメントに対応付けられたストレージ装置の実データ記憶領域を所定の記憶領域単位で分割した物理セグメントの識別情報とを関連付けた管理情報を記憶する管理情報記憶手段と、データのアクセス要求を取得すると、管理情報に基づいて、アクセス要求によって指定される論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントとを特定するセグメント特定手段と、アクセス対象範囲の論理セグメントと物理セグメントとを、それぞれ所定の小領域単位のサブ論理セグメントとサブ物理セグメントとに分割し、アクセス対象範囲のサブ論理セグメントを、所定の規則に従ってアクセス対象範囲のサブ物理セグメントに再配置する再配置手段と、再配置手段によって対応付けられたサブ論理セグメントとサブ物理セグメントとの間で、アクセス要求に基づくアクセス制御を行うデータアクセス手段と、を有することを特徴とするストレージ管理装置、が提供される。
このようなストレージ管理装置によれば、アクセス対象範囲の論理セグメントと、論理セグメントに対応付けられた物理セグメントとを、所定の分割数のサブ論理セグメントと、サブ物理セグメントと、に分割して所定の規則に従ってサブ論理セグメントに割り当てるサブ物理セグメントを再配置する。そして、再配置後の対応付けに基づいて、論理セグメントと物理セグメントとの間のアクセス制御を行う。
本発明では、論理セグメントと物理セグメントとをそれぞれ複数のサブ論理セグメントとサブ物理セグメントとに分割し、サブ論理セグメントをサブ物理セグメントに再配置する。これにより、セグメントを単位としてストレージ装置に振り分けられていたデータを、さらに小さいサブセグメント単位で複数のストレージ装置に振り分けることができる。これにより、特定のセグメントへのアクセスが集中するような場合であっても、ストレージ装置にかかる負荷を分散し、アクセス性能を向上させることが可能となる。
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
実施の形態に適用される発明の概念図である。 本実施の形態の分散ストレージシステム構成例を示す図である。 本実施の形態に用いるアクセスノードのハードウェア構成例を示す図である。 論理ボリュームのデータ構造を示す図である。 本発明の実施の形態の分散ストレージシステムの各装置の機能を示すブロック図である。 本発明の実施の形態の管理情報の一例を示した図である。 再配置の一例を示した図である。 本発明の実施の形態のサブセグメント割当の一例を示した図である。 本発明の実施の形態のストレージ管理処理の手順を示したフローチャートである。 従来のストレージシステムにおけるOSのIOコマンドのソートとストレージノードの負荷との関係を説明する図である。
以下、本発明の実施の形態を図面を参照して説明する。まず、実施の形態に適用される発明の概念について説明し、その後、実施の形態の具体的な内容を説明する。
図1は、実施の形態に適用される発明の概念図である。
本発明にかかるストレージ管理装置1は、管理情報記憶手段1a、データアクセス手段1b、セグメント特定手段1c、及び再配置手段1dを有し、データをストレージノード2a,3a,4a,5aの管理するストレージ装置2b,3b,4b,5bにデータを分散配置して管理する。なお、ストレージ管理装置1の各手段は、コンピュータが、ストレージシステムの負荷分散プログラムを実行することにより、その処理機能を実現する。
ストレージノード2a,3a,4a,5aには、それぞれストレージ装置2b,3b,4b,5bが接続されている。ストレージ装置2b,3b,4b,5bは、記憶領域を論理ボリュームの論理セグメントと同じセグメント単位に分割した物理セグメントによって管理される。
管理情報記憶手段1aには、仮想的な論理セグメントと、実データ記憶領域の物理セグメントとを対応付ける管理情報が記憶されている。論理セグメントは、ストレージ装置2b,3b,4b,5bの記憶領域を一元管理するための仮想的な論理ボリュームを所定のセグメント単位に分割したものである。物理セグメントは、ストレージ装置2b,3b,4b,5bの実データ記憶領域を、論理セグメントと同様に、セグメント単位に分割したものである。物理セグメントは、実際にデータを格納する記憶領域として論理セグメントに対応付けられる。管理情報には、個々の論理セグメントを特定する論理セグメントの識別情報と、この論理セグメントに対応付けられた個々の物理セグメントを特定する物理セグメントの識別情報とが、関連付けて記録されている。それぞれの識別情報によれば、論理セグメントの属する論理ボリュームや、物理セグメントの属するストレージノードなどがわかる。なお、以下の説明において、論理セグメントと物理セグメントとの双方を指すとき、あるいは区別する必要がないときは、単にセグメントと表記する。サブ論理セグメントとサブ物理セグメントについても同様である。
データアクセス手段1bは、ネットワークなどを経由して入力されるアクセス要求に対し、アクセス対象のストレージノード2a,3a,4a,5aを特定し、アクセス要求を特定されたストレージノード2a,3a,4a,5aに振り分けてデータアクセス処理を行う。また、各ストレージノード2a,3a,4a,5aから得られた応答は、アクセス要求の要求元に返す。このため、アクセス要求を取得すると、セグメント特定手段1cにアクセス要求を送り、アクセス対象のセグメントを特定させる。続いて、再配置手段1dによるサブ論理セグメントの再配置によって設定されるサブ論理セグメントと、サブ物理セグメントとの間で、アクセス要求に基づくアクセス制御を行う。
セグメント特定手段1cは、アクセス要求を取得すると、管理情報記憶手段1aに記憶される管理情報を読み出し、管理情報に基づいて、アクセス要求によって指定される論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントを特定する。
再配置手段1dは、アクセス対象範囲の論理セグメントと、セグメント特定手段1cによって特定されたアクセス対象範囲に対応する物理セグメントと、を所定の分割数で分割することによってセグメント単位より小さい小領域単位に分割する。この小領域単位を、それぞれサブ論理セグメントとサブ物理セグメントと呼ぶ。そして、所定の規則に従って、アクセス対象範囲のサブ論理セグメントを、同じくアクセス対象範囲のサブ物理セグメントに再配置する。所定の規則は、任意の1つの論理セグメントを分割した複数のサブ論理セグメントが、複数の物理セグメントに配置されるような規則であれば、どのような規則であってもよい。この所定の規則は、ストレージノード2a,3a,4a,5aを含むストレージシステムの各構成要素に対し、予め設定される。
このような構成のストレージ管理装置1の動作及びストレージシステムの負荷分散方法について説明する。
ストレージシステムを利用するクライアントには、論理ボリュームが提供されている。ストレージ管理装置1は、論理ボリュームで指定されるアクセス要求に対応するストレージノード2a,3a,4a,5aを特定し、アクセス要求を転送することによって、ストレージ装置2b,3b,4b,5bに分散配置されるデータへのアクセス管理を行っている。
ストレージ管理装置1に、クライアントから論理ボリュームに基づくアクセス要求が入力され、処理が開始される。セグメント特定手段1cは、アクセス要求を取得すると、管理情報記憶手段1aに記憶される管理情報に基づいて、アクセス対象範囲の論理セグメントに対応付けられた物理セグメントを特定する。再配置手段1dでは、アクセス対象範囲の論理セグメントと、この論理セグメントに対応付けられた物理セグメントとを、さらに、サブ論理セグメントとサブ物理セグメントとに分割する。そして、同一の論理セグメントに属するサブ論理セグメントが、複数の物理セグメントに属するサブ物理セグメントに分散されるように、所定の規則に従ってサブ論理セグメントを再配置する。データアクセス手段1bは、再配置手段1dの対応付けに基づいて、サブ物理セグメントを管理するストレージノード2a,3a,4a,5aに対しアクセス要求を転送する。たとえば、データ書き込みであれば、書き込みデータをサブ論理セグメント単位に分割し、対応付けられたサブ物理セグメントを管理するストレージノード2a,3a,4a,5aに転送する。また、分割した書き込みデータを、サブ物理セグメントの並び順に従って並び替え、物理セグメント単位でストレージノード2a,3a,4a,5aに転送してもよい。データ読み出しであれば、サブ物理セグメント単位で各ストレージノード2a,3a,4a,5aから収集したデータを対応付けに従って組み立てて論理セグメントのデータにし、さらに、論理セグメントのデータを組み立ててアクセス対象範囲の読み出しデータを生成し、クライアントへ送る。
このように、ストレージ管理装置1では、セグメントをさらにサブセグメントに分割し、サブセグメント単位でストレージ装置2b,3b,4b,5bにデータを分散配置することができる。サブ論理セグメントのサブ物理セグメントへの分散配置は、所定の規則に基づいて行われるため、新たに対応付けを管理情報として残す必要はない。これにより、管理情報を増やすことなく、データをより小さい単位でストレージ装置に振り分けることができる。たとえば、OSなどの処理によって、あるセグメントへのアクセスが集中した場合であっても、サブセグメント単位でデータの分散配置が行われるため、ストレージ装置にかかる負荷を分散し、アクセス性能を向上させることが可能となる。
以下、実施の形態を、自律型のストレージノードが分散配置される分散ストレージシステムに適用した場合を例に、図面を参照して詳細に説明する。
図2は、本実施の形態の分散ストレージシステム構成例を示す図である。本実施の形態では、ネットワーク10を介して、アクセスノード100、複数のストレージノード200,300,400,500、及びコントロールノード600が接続されている。ストレージノード200,300,400,500のそれぞれには、ストレージ装置210,310,410,510が接続されている。
アクセスノード100には、ネットワーク20を介して複数の端末装置21,22,23が接続されている。アクセスノード100は、ストレージノード200,300,400,500のそれぞれが管理しているデータの格納場所を認識しており、端末装置21,22,23からの要求に応答して、ストレージノード200,300,400,500へデータアクセスを行う。本実施の形態では、アクセスノード100として、ストレージノード200,300,400,500へのアクセス処理を行うストレージ管理装置を提供する。
ストレージ装置210には、複数のハードディスク装置(HDD)211,212,213,114が実装されており、内蔵するHDDを用いたRAID(Redundant Array of Independent Disks)システムを構成する。ストレージ装置310,410,510の構成も同様である。ストレージノード200,300,400,500は、たとえば、IA(Intel Architecture)と呼ばれるアーキテクチャのコンピュータである。そして、接続されたストレージ装置210,310,410,510に格納されたデータを管理し、管理しているデータをネットワーク10経由で端末装置21,22,23に提供する。また、ストレージノード200,300,400,500は、冗長性を有するデータを管理することもできる。この場合、同一のデータが、少なくとも2つのストレージノードで管理される。
コントロールノード600は、ストレージノード200,300,400,500を管理する。たとえば、コントロールノード600は、所定のタイミングで、各ストレージノード200,300,400,500に対してパトロールの指示を出力する。
図3は、本実施の形態に用いるアクセスノードのハードウェア構成例を示す図である。アクセスノード100は、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス108を介してRAM(Random Access Memory)102、HDD103、グラフィック処理装置104、入力インタフェース105、通信インタフェース106、及び通信インタフェース107が接続されている。
RAM102には、CPU101に実行させるOSやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に必要な各種データが格納される。HDD103には、OSやアプリケーションのプログラムが格納される。グラフィック処理装置104には、モニタ11が接続されている。グラフィック処理装置104は、CPU101からの命令に従って、画像をモニタ11の画面に表示させる。入力インタフェース105には、キーボード12とマウス13とが接続されている。入力インタフェース105は、キーボード12やマウス13から送られてくる信号を、バス108を介してCPU101に送信する。通信インタフェース106は、ネットワーク10に接続されている。通信インタフェース106は、ネットワーク10を介して、ストレージノード200,300,400,500や、コントロールノード600など、分散ストレージシステムを構成する他のコンピュータとの間でデータの送受信を行う。通信インタフェース107は、ネットワーク20を介して、端末装置21,22,23との間でデータの送受信を行う。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。なお、図3には、アクセスノード100の構成のみを示したが、ストレージノード200,300,400,500、コントロールノード600、及び端末装置21,22,23も同様のハードウェア構成で実現できる。ただし、ストレージノード200,300,400,500については、上述のようにRAIDシステム構成をとるので、単体のHDD103ではなく、HDDインタフェースを介して複数のHDDが接続する構成をとる。
図2に示すような構成のアクセスノード100、ストレージノード200,300,400,500、及びコントロールノード600から成る分散ストレージシステムは、端末装置21〜23に対して、論理ボリュームとして機能する。
図4は、論理ボリュームのデータ構造を示す図である。論理ボリューム700には、「LVOL−A」という識別子(論理ボリューム識別子)が付与されている。また、ネットワーク経由で接続された4台のストレージノード200,300,400,500には、個々のストレージノードの識別のためにそれぞれ「SN−A」、「SN−B」、「SN−C」、「SN−D」というノード識別子が付与されている。
論理ボリューム700は、論理セグメント710,720,730,740,750という単位で構成される。
各ストレージノード200,300,400,500が有するストレージ装置210,310,410,510それぞれは、5つの物理セグメントに分割され、それぞれのストレージノード内で管理されている。図4の例では、ストレージ装置210内の記憶領域は、5つの物理セグメント221〜225に分けられている。ストレージ装置310内の記憶領域は、5つの物理セグメント321〜325に分けられている。ストレージ装置410内の記憶領域は、5つの物理セグメント421〜425に分けられている。ストレージ装置510内の記憶領域は、5つの物理セグメント521〜525に分けられている。
なお、論理セグメント710,720,730,740,750の記憶容量は、ストレージ装置210,310,410,510における管理単位である物理セグメントの記憶容量と同じである。たとえば、物理セグメントの記憶容量が1ギガバイトとすると論理セグメントの記憶容量も1ギガバイトである。論理ボリューム700の記憶容量はセグメント1つ当たりの記憶容量の整数倍である。論理セグメントの記憶容量が1ギガバイトならば、論理ボリューム700の記憶容量は5ギガバイトといったものになる。
図4の例では、セグメントの識別子を、「S」と数字との組合せで示している。アルファベットに続く数字は、何番目のセグメントに属するのかを表している。たとえば、1番目の論理セグメント710が「S1」で示される。
このような構造の論理ボリューム700の各論理セグメントは、ストレージ装置210,310,410,510内のいずれかの物理セグメントに対応付けられる。図の例では、対応付けられている論理セグメントと物理セグメントとには、同一のセグメント識別子が設定されている。たとえば、「S1」のセグメント識別子の論理セグメント710は、ストレージ装置210の物理セグメント221に対応付けられている。
そして、各ストレージ装置210,310,410,510では、自己の物理セグメントに対応する論理セグメントのデータを記憶・管理する。
図5は、本発明の実施の形態の分散ストレージシステムの各装置の機能を示すブロック図である。図は、アクセスノードとストレージノードとを取り出して示している。
ストレージノード200は、物理セグメント管理情報記憶部230、データアクセス部240、及びデータ管理部250を有する。
物理セグメント管理情報記憶部230は、ストレージ装置210の物理セグメント221,222,223,224,225を管理するための物理セグメント管理情報を記憶する。管理情報の詳細は後述する。
データアクセス部240は、アクセスノード100からの要求に応答して、ストレージ装置210内のデータにアクセスする。具体的には、アクセスノード100からデータのリード要求を受け取った場合、リード要求で指定されたデータをストレージ装置210から取得し、アクセスノード100に送信する。また、ライト要求を受け取った場合、ライト要求に含まれるデータをストレージ装置210内に格納する。このとき、リード処理及びライト処理は、サブ物理セグメント単位で行う。
データ管理部250は、ストレージ装置210内のデータを管理する。具体的には、コントロールノード600からの要求に応じて、ストレージ装置210内の指定された物理セグメントのデータチェック処理を行う。また、コントロールノード600からの物理セグメント管理情報の取得要求に応答して、物理セグメント管理情報記憶部230に記憶された物理セグメント管理情報をコントロールノード600に送信する。コントロールノード600は、取得要求を出して、各ストレージノードから物理セグメント管理情報を収集し、これらをまとめて管理情報として自装置内に格納しておく。アクセスノード100は、取得要求を出してコントロールノード600から管理情報を取得し、管理情報記憶部140に記憶する。
アクセスノード100は、データアクセス部110、セグメント特定部120、再配置部130、及び管理情報記憶部140を有する。
データアクセス部110は、アクセス要求受付手段111、リード処理手段112、ライト処理手段113、及び応答処理手段114を有する。具体的には、アクセス要求受付手段111は、端末装置21,22,23からのアクセス要求を取得し、セグメント特定部120及び再配置部130によってサブ論理セグメントとサブ物理セグメントとを対応付ける。そして、アクセス要求が、リード要求であればリード処理手段112、ライト要求であればライト処理手段113へアクセス要求を送る。リード処理手段112は、アクセス対象のサブ物理セグメントを有するストレージノードに対し、サブ物理セグメントを指定してリード要求を送信し、応答として読み出されたデータを取得する。そして、取得した各サブ物理セグメントの読み出しデータを組み立てて、セグメントデータに復元する。アクセス対象範囲が複数のセグメントに渡っているときは、対象のサブ物理セグメントから同様にして取得し、復元したセグメントデータを組み立て、アクセス対象範囲のデータを復元し、応答処理手段114へ送る。ライト処理手段113は、ライト要求とともに取得した書込みデータをサブ論理セグメント単位に分割し、対応するサブ物理セグメントを有するストレージノードに対し、ライト要求を書き込みデータとともに送信する。そして得られた応答を応答処理手段114へ送る。応答処理手段114は、リード処理手段112、またはライト処理手段113から取得した応答をアクセス要求元の端末装置へ送信する。
セグメント特定部120は、管理情報記憶部140に記憶される管理情報に基づいて、アクセス対象範囲の論理セグメントに対応付けられた物理セグメントを特定する。
再配置部130は、所定の規則に従って、アクセス対象範囲の論理セグメントを分割したサブ論理セグメントを、セグメント特定部120によって特定されたアクセス対象範囲の物理セグメントを分割したサブ物理セグメントに再配置する。再配置前は、ある論理セグメントに所属する1番目のサブ論理セグメントは、この論理セグメントに対応付けられた物理セグメントに所属する1番目のサブ物理セグメントに対応付けられている。同様にして、同じ論理セグメントに所属するサブ論理セグメントは、同じ物理セグメントに所属するサブ物理セグメントに対応付けられている。再配置部130では、同一の論理セグメントに所属するサブ論理セグメントを、複数の物理セグメントに分散配置する規則を用いてサブ論理セグメントを分散配置させる。これにより、同一の論理セグメントに所属するサブ論理セグメントは、それぞれ異なる物理セグメントに所属するサブ物理セグメントに対応付けられる。たとえば、個々の論理セグメントを識別する論理セグメント番号と、それぞれの論理セグメント内のサブ論理セグメントを識別するサブ論理セグメント番号とをサブ論理セグメントを特定するパラメータとする。同様にして、サブ物理セグメントを特定するパラメータも設定する。そして、サブ論理セグメントを特定するパラメータを変換し、変換されたパラメータに対応するサブ物理セグメントと、このサブ論理セグメントとを対応付け、再配置を行う。
管理情報記憶部140は、コントロールノード600から取得した管理情報を記憶する。管理情報は、システム起動時や、ストレージノード200へのアクセスが失敗したときなどに、コントロールノード600から読み込まれる。管理情報記憶部140には、たとえば、RAM102内の記憶領域の一部が使用される。
図6は、本発明の実施の形態の管理情報の一例を示した図である。
管理情報1100には、ストレージ装置ID1101、物理セグメントID1102、物理セグメントの状態1103、物理セグメントが所属する論理ボリュームID1104、及び物理セグメントが所属する論理セグメントID1105が設定される。
ストレージ装置ID1101には、物理セグメントが属するストレージ装置のIDが設定される。ストレージ装置IDは、ストレージ装置を特定することが可能な識別情報である。物理セグメントID1102には、当該物理セグメントをストレージ装置内で特定するための識別情報が設定される。物理セグメントの状態1103は、物理セグメントの状態を示す。たとえば、データを冗長化するときには、1つの論理セグメントに対し、2つの物理セグメントが割り当てられる。そのうち、主メモリをプライマリ、バックアップ用をセカンダリと呼ぶ。その他、動作に応じた状態が設定される。物理セグメントが所属する論理ボリュームID1104には、物理セグメントが対応付けられた論理ボリュームを特定するための識別情報が設定される。物理セグメントが所属する論理セグメントID1105には、物理セグメントが割り当てられた論理セグメントを特定する識別情報が設定される。
たとえば、1行目の管理情報1110には、ストレージ装置「SN−A」の「1」番目の物理セグメントが、「プライマリ」であり、論理ボリューム「LVOL−A」の「1」番目の論理セグメントに対応付けられていることが設定されている。この関係は、図4に示した対応関係にあたる。他の行も同様に管理情報が設定される。
なお、この管理情報は、ストレージノード200,300,400,500が保有する管理情報をコントロールノード600が収集したものである。1行目及び2行目の管理情報1110,1120は、ストレージノード200から取得した管理情報である。3行目の管理情報1130は、ストレージノード300から取得した管理情報である。4行目の管理情報1140は、ストレージノード400から取得した管理情報である。5行目の管理情報1150は、ストレージノード500から取得した管理情報である。アクセスノード100は、これらの管理情報をコントロールノード600から取得し、管理情報記憶部140に格納しておく。
この管理情報1100に基づき、物理セグメントと論理セグメントとの対応関係と、物理セグメントと論理セグメントとの位置を特定することができる。
具体例を挙げて再配置について説明する。以下で説明するように、再配置とは、サブ論理セグメントとサブ物理セグメントとの対応付けを変更する処理である。図7は、再配置の一例を示した図である。
図は、論理セグメントS1(710),S2(720),S3(730),S4(740)と、ストレージ装置SN−A(210),SN−B(310),SN−C(410)とを有するストレージシステムを示している。ここで、論理セグメントS1(710)は、SN−A(210)の物理セグメント221に対応付けられている。論理セグメントS2(720)は、SN−B(310)の物理セグメント321に対応付けられている。論理セグメントS3(730)は、SN−C(410)の物理セグメント421に対応付けられている。論理セグメントS4は、SN−A(210)の物理セグメント222に対応付けられている。
ここでは、論理セグメントと物理セグメントとをそれぞれ4分割する。便宜的に、論理セグメントS1を4分割したサブ論理セグメントをS10〜S13とする。論理セグメントS2のサブ論理セグメントをS20〜S23とする。論理セグメントS3のサブ論理セグメントをS30〜S33とする。そして、論理セグメントS4のサブ論理セグメントをS40〜S43とする。また、対応する物理セグメントのサブ物理セグメントをS’10〜S’33とする。すなわち、再配置前、論理セグメントS1に所属するサブ論理セグメントS10〜S13は、物理セグメント221のS’10〜S’13に対応付けられている。
ここでは、同一論理セグメントに属するサブ論理セグメントを異なる物理セグメントに再配置するため、サブ論理セグメントをS10からS43の順に並べ、物理セグメントS’10,S’20,S’30,S’40,S’11,S’21,S’31,S‘41,・・・,S’23,S’33,S’43の順に対応付けていく。たとえば、論理セグメントS2(720)のサブ論理セグメントS20〜S23は、物理セグメント221,321,421,222の2番目の物理セグメントに順に対応付けられる。
このように再配置された対応付けによりデータアクセス処理を行うと、処理がストレージ装置210,310,410に分散されるため、各ストレージ装置にかかる負荷を分散させることができる。
このような再配置は、対象範囲のセグメントを識別するセグメント番号と、サブセグメントを識別するサブセグメント番号とをパラメータとし、パラメータを所定の演算式などで変換することにより、サブ論理セグメントをサブ物理セグメントに分散配置させることができる。
図8は、本発明の実施の形態のサブセグメント割当の一例を示した図である。
ここで、セグメント数がN、サブセグメントの分割数がMであるとき、サブセグメントを分散させるセグメントの数をnとする。ただし、nには、N≧n、M≧nを満たす整数であって、NとMがnの整数倍となる数が設定される。
このとき、サブ論理セグメントの配置を、セグメント番号をx、サブセグメント番号をyとして、(x,y)と表記する。図7で説明したように、再配置前では、サブ論理セグメント(x,y)には同じ(x,y)で表される位置のサブ物理セグメントが対応付けられている。また、再配置後にサブ論理セグメントに対応付けられるサブ物理セグメントの配置を、セグメント番号をx’、サブセグメント番号をy’として、(x’,y’)と表記する。
そして、サブ論理セグメント(x,y)を、次の式を用いて、サブ物理セグメント(x’,y’)に対応する位置に割り当てる。
x’=n*(x/n)+y%n ・・・(1)
y’=n*(y/n)+x%n ・・・(2)
ここで、/は、整数の商、%は剰余を表わす。たとえば、(x,y)が(2,0)で、nが4のとき、x/n=0、x%n=2、y/n=0、y%n=0になる。
図は、n=4で、上記の再配置が行われたサブセグメントの配列を示している。表の水平方向がサブセグメントの分割数M、垂直方向がセグメント数Nを表わしており、(A)は論理セグメントにおけるサブセグメントの配列、(B)は再配置後の物理セグメントにおけるサブセグメントの配列を示している。
図では、セグメント番号をx、サブセグメント番号をyとして、サブ論理セグメント(x,y)を、変換前の論理セグメントの配置で表す。たとえば、論理セグメントにおいて、セグメント0、サブセグメント0に相当するサブ論理セグメントは、(0,0)と表わす。そして、再配置によってサブ論理セグメントに対応付けし直されたサブ物理セグメントの位置を(B)物理セグメントのセグメント番号とサブセグメント番号とに対応付けて表わす。たとえば、上記のサブ論理セグメント(0,0)は、(B)物理セグメントのセグメント0、サブセグメント0に対応付けし直されている。また、サブ論理セグメント(0,1)は、物理セグメントのセグメント1、サブセグメント0に対応付けし直されている。
図の例からわかるように、たとえば、論理セグメントのセグメント0の行によって表される同一論理セグメントに所属するサブ論理セグメント、(0,0)、(0,1)、(0,2)、(0,3)、(0,4)、(0,5)、(0,6)、(0,7)は、物理セグメントのセグメント0〜3のサブセグメント0と、サブセグメント4とに分散して対応付けし直される
なお、上記変換式は一例であり、本願発明を限定するものではない。
ところで、アクセスノード100からストレージノード200,300,400,500へのアクセス要求では、アクセス対象のサブ論理セグメントを指定してアクセス要求を行うことができる。また、ストレージノード側にも再配置手段を設け、ストレージノード側でセグメントの指定情報から該当するサブセグメントを特定できるようにすることもできる。
次に、本発明の実施の形態のアクセスノードにおけるストレージ管理処理の処理手順を説明する。図9は、本発明の実施の形態のストレージ管理処理の手順を示したフローチャートである。
端末装置より、ネットワークを経由してアクセス要求を取得し、処理が開始される。
[S01] アクセス要求と、管理情報記憶部140に記憶される管理情報とに基づいて、アクセス対象の論理セグメントに対応する物理セグメントを特定する。
[S02] 論理セグメントと物理セグメントとを、所定の分割数で、サブ論理セグメントとサブ物理セグメントに分割する。そして、所定の規則に基づいて、サブ論理セグメントをサブ物理セグメントに再配置する。このとき、同一の論理セグメントに所属するサブ論理セグメントを、複数の物理セグメントに所属するサブ物理セグメントに分散配置する。
[S03] ステップS02によりサブ論理セグメントに対応付けられたサブ物理セグメントが所属する物理セグメントを管理するストレージノードに対し、アクセス要求を行い、応答を取得する。
[S04] アクセス対象のサブ論理セグメントに対応付けられたすべてのサブ物理セグメントに対する処理が終了したかどうかを判断する。終了していない場合は、ステップS03に戻って、未処理のセグメントのストレージノードに対してアクセス処理を行う。終了していれば、次のステップへ処理を進める。
[S05] アクセス要求がリード要求であれば、サブセグメントを組み立てて、セグメントにする。必要であれば、さらにセグメントの組立を行う。そして、組み立てられたデータとともに応答を端末装置に返す。アクセス要求がライト要求であれば、ストレージノードからの応答を端末装置に返す。
以上の処理手順が実行されることにより、セグメントのデータをサブセグメントに分割してデータのアクセス処理を行うことが可能となる。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、ストレージ管理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
上記については単に本発明の原理を示すものである。さらに、多数の変形、変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
符号の説明
1 ストレージ管理装置
1a 管理情報記憶手段
1b データアクセス手段
1c セグメント特定手段
1d 再配置手段
2a,3a,4a,5a ストレージノード
2b,3b,4b,5b ストレージ装置

Claims (4)

  1. ネットワーク経由で接続される複数のストレージ装置を備えるストレージシステムにおいてデータを分散管理するための負荷分散プログラムにおいて、
    コンピュータに、
    前記データのアクセス要求を取得すると、仮想的な論理ボリュームを所定の記憶領域単位で分割した論理セグメントの識別情報と、前記論理セグメントに対応付けられた前記ストレージ装置の実データ記憶領域を前記所定の記憶領域単位で分割した物理セグメントの識別情報とを関連付けた管理情報に基づいて、前記アクセス要求によって指定される前記論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントを特定し、
    前記アクセス対象範囲の論理セグメントと物理セグメントとを、それぞれ所定の小領域単位のサブ論理セグメントとサブ物理セグメントとに分割し、前記アクセス対象範囲に含まれる一の論理セグメントに属するサブ論理セグメントを、前記一の論理セグメントを含む所定の複数の論理セグメントに対応付けられているサブ物理セグメントの1つに対応付けし直す所定の変換規則に従って、前記アクセス対象範囲のサブ論理セグメントとサブ物理セグメントとの対応関係を変更し、
    前記対応関係が変更されたサブ論理セグメントとサブ物理セグメントとの間で、前記アクセス要求に基づくアクセス制御を行う、
    処理を実行させ、
    前記対応関係の変更処理では、個々の論理セグメントを識別する論理セグメント番号と物理セグメントを識別する物理セグメント番号とにセグメント番号を設定し、論理セグメントを分割したサブ論理セグメントを識別するサブ論理セグメント番号と、物理セグメントを分割したサブ物理セグメントを識別するサブ物理セグメント番号とにサブセグメント番号を設定し、論理セグメント番号、サブ論理セグメント番号、物理セグメント番号およびサブ物理セグメント番号をパラメータとするとともに、記憶手段に記憶された、前記所定の複数の論理セグメントに含まれる論理セグメント数と論理セグメントを分割するサブ論理セグメントの数とに基づく変換規則に従って、サブ論理セグメント番号に対応付けるサブ物理セグメント番号を算出することを特徴とする負荷分散プログラム。
  2. 前記アクセス要求に基づくアクセス制御では、前記対応関係の変更処理によって前記アクセス対象範囲の論理セグメントを分割したサブ論理セグメントが割り当てられたすべてのサブ物理セグメントについて、サブ物理セグメントが属する物理セグメントを管理するストレージノードに対してアクセス要求を発行することを特徴とする請求項1記載の負荷分散プログラム。
  3. ネットワーク経由で接続される複数のストレージ装置を備えるストレージシステムにて、コンピュータがデータを分散管理するストレージシステムの負荷分散処理を行う負荷分散方法において、
    前記データのアクセス要求を取得すると、仮想的な論理ボリュームを所定の記憶領域単位で分割した論理セグメントの識別情報と、前記論理セグメントに対応付けられた前記ストレージ装置の実データ記憶領域を前記所定の記憶領域単位で分割した物理セグメントの識別情報とを関連付けた、記憶手段に記憶された管理情報に基づいて、前記アクセス要求によって指定される前記論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントを特定し、
    前記アクセス対象範囲の論理セグメントと物理セグメントとを、それぞれ所定の小領域単位のサブ論理セグメントとサブ物理セグメントとに分割し、前記アクセス対象範囲に含まれる一の論理セグメントに属するサブ論理セグメントを、前記一の論理セグメントを含む所定の複数の論理セグメントに対応付けられているサブ物理セグメントの1つに対応付けし直す所定の変換規則に従って、前記アクセス対象範囲のサブ論理セグメントとサブ物理セグメントとの対応関係を変更し、
    前記対応関係が変更されたサブ論理セグメントとサブ物理セグメントとの間で、前記アクセス要求に基づくアクセス制御を行う、
    処理を含み、
    前記対応関係の変更処理では、個々の論理セグメントを識別する論理セグメント番号と物理セグメントを識別する物理セグメント番号とにセグメント番号を設定し、論理セグメントを分割したサブ論理セグメントを識別するサブ論理セグメント番号と、物理セグメントを分割したサブ物理セグメントを識別するサブ物理セグメント番号とにサブセグメント番号を設定し、論理セグメント番号、サブ論理セグメント番号、物理セグメント番号およびサブ物理セグメント番号をパラメータとするとともに、記憶手段に記憶された、前記所定の複数の論理セグメントに含まれる論理セグメント数と論理セグメントを分割するサブ論理セグメントの数とに基づく変換規則に従って、サブ論理セグメント番号に対応付けるサブ物理セグメント番号を算出することを特徴とする負荷分散方法。
  4. ネットワーク経由で接続される複数のストレージ装置を備えるストレージシステムにてデータを分散管理するストレージ管理装置において、
    仮想的な論理ボリュームを所定の記憶領域単位で分割した論理セグメントの識別情報と、前記論理セグメントに対応付けられた前記ストレージ装置の実データ記憶領域を前記所定の記憶領域単位で分割した物理セグメントの識別情報とを関連付けた管理情報を記憶する管理情報記憶手段と、
    前記データのアクセス要求を取得すると、前記管理情報に基づいて、前記アクセス要求によって指定される前記論理ボリューム上のアクセス対象範囲の論理セグメントに対応付けられた物理セグメントを特定するセグメント特定手段と、
    前記アクセス対象範囲の論理セグメントと物理セグメントとを、それぞれ所定の小領域単位のサブ論理セグメントとサブ物理セグメントとに分割し、前記アクセス対象範囲に含まれる一の論理セグメントに属するサブ論理セグメントを、前記一の論理セグメントを含む所定の複数の論理セグメントに対応付けられているサブ物理セグメントの1つに対応付けし直す所定の変換規則に従って、前記アクセス対象範囲のサブ論理セグメントとサブ物理セグメントとの対応関係を変更する再配置手段と、
    前記再配置手段によって対応付けられたサブ論理セグメントとサブ物理セグメントとの間で、前記アクセス要求に基づくアクセス制御を行うデータアクセス手段と、
    を有し、
    前記再配置手段は、個々の論理セグメントを識別する論理セグメント番号と物理セグメントを識別する物理セグメント番号とにセグメント番号を設定し、論理セグメントを分割したサブ論理セグメントを識別するサブ論理セグメント番号と、物理セグメントを分割したサブ物理セグメントを識別するサブ物理セグメント番号とにサブセグメント番号を設定し、論理セグメント番号、サブ論理セグメント番号、物理セグメント番号およびサブ物理セグメント番号をパラメータとするとともに、記憶手段に記憶された、前記所定の複数の論理セグメントに含まれる論理セグメント数と論理セグメントを分割するサブ論理セグメントの数とに基づく変換規則に従って、サブ論理セグメント番号に対応付けるサブ物理セグメント番号を算出することを特徴とするストレージ管理装置。
JP2009508753A 2007-03-23 2007-03-23 負荷分散プログラム、負荷分散方法、及びストレージ管理装置 Expired - Fee Related JP5104855B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/055997 WO2008126202A1 (ja) 2007-03-23 2007-03-23 ストレージシステムの負荷分散プログラム、ストレージシステムの負荷分散方法、及びストレージ管理装置

Publications (2)

Publication Number Publication Date
JPWO2008126202A1 JPWO2008126202A1 (ja) 2010-07-22
JP5104855B2 true JP5104855B2 (ja) 2012-12-19

Family

ID=39863386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009508753A Expired - Fee Related JP5104855B2 (ja) 2007-03-23 2007-03-23 負荷分散プログラム、負荷分散方法、及びストレージ管理装置

Country Status (3)

Country Link
US (1) US8516070B2 (ja)
JP (1) JP5104855B2 (ja)
WO (1) WO2008126202A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5332364B2 (ja) * 2007-10-16 2013-11-06 富士通株式会社 分散ストレージ管理プログラム、分散ストレージ管理装置、および分散ストレージ管理方法
US8874867B2 (en) * 2008-11-21 2014-10-28 Lsi Corporation Identification and containment of performance hot-spots in virtual volumes
US9400605B2 (en) * 2011-01-12 2016-07-26 International Business Machines Corporation Efficient management of a virtual tape library cluster
JP2013122691A (ja) * 2011-12-12 2013-06-20 Fujitsu Ltd 割り当て装置およびストレージ装置
US10708355B2 (en) * 2013-05-20 2020-07-07 Nec Corporation Storage node, storage node administration device, storage node logical capacity setting method, program, recording medium, and distributed data storage system
EP3866387A1 (en) * 2015-07-02 2021-08-18 Leading Software Limited Resilient secret sharing cloud based architecture for data vault
CN108984280B (zh) * 2017-06-05 2022-04-22 深圳市中兴微电子技术有限公司 一种片外存储器的管理方法和装置、计算机可读存储介质
US10831596B2 (en) * 2018-01-22 2020-11-10 Micron Technology, Inc. Enhanced error correcting code capability using variable logical to physical associations of a data block
US11556254B2 (en) 2020-02-28 2023-01-17 Cohesity, Inc. Providing a distributed and replicated data store in a heterogeneous cluster

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09223047A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd コンピュータネットワークの制御方法
JP2001306407A (ja) * 2000-04-19 2001-11-02 Hitachi Ltd スナップショット管理方法及び計算機システム
JP2003140836A (ja) * 2001-10-30 2003-05-16 Hitachi Ltd ストレージシステムの管理方法およびストレージシステム管理プログラムならびに記憶媒体およびストレージシステム
JP2003140838A (ja) * 2001-11-06 2003-05-16 Hitachi Ltd アレイ記憶装置
JP2003150414A (ja) * 2001-11-12 2003-05-23 Hitachi Ltd データベース管理システム情報を考慮したデータ再配置方法およびデータ再配置を行う計算機システム
JP2005115438A (ja) * 2003-10-03 2005-04-28 Mitsubishi Electric Corp データ管理装置
JP2005149436A (ja) * 2003-11-20 2005-06-09 Hitachi Ltd ストレージ装置、ストレージ装置における制御方法、ジョブスケジューリング処理方法及び障害処理方法並びにそれらのプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3371044B2 (ja) 1994-12-28 2003-01-27 株式会社日立製作所 ディスクアレイのための領域割り当て方法およびディスクアレイアクセス方法
JP2002500393A (ja) 1997-12-24 2002-01-08 アヴィッド・テクノロジー・インコーポレーテッド コンピュータ・システムおよび多数の記憶装置および多数のアプリケーション間でスケーラブルにかつ信頼性高く多数の高帯域データ・ストリームを転送するプロセス
US6542961B1 (en) * 1998-12-22 2003-04-01 Hitachi, Ltd. Disk storage system including a switch
JP2000242434A (ja) * 1998-12-22 2000-09-08 Hitachi Ltd 記憶装置システム
JP4874515B2 (ja) 1998-12-22 2012-02-15 株式会社日立製作所 記憶装置システム
WO2002011387A1 (en) * 2000-07-31 2002-02-07 Morphics Technology, Inc. Apparatus and methods for sample selection and reuse of rake fingers in spread spectrum systems
US6594745B2 (en) * 2001-01-31 2003-07-15 Hewlett-Packard Development Company, L.P. Mirroring agent accessible to remote host computers, and accessing remote data-storage devices, via a communcations medium
JP2003202964A (ja) * 2002-01-09 2003-07-18 Hitachi Ltd 計算機システムの制御方法、計算機システム、記憶装置の制御方法及び記憶装置
US7010663B2 (en) * 2002-03-22 2006-03-07 Sun Microsystems, Inc. Method and system for dividing a plurality of existing volumes of storage into a plurality of virtual logical units of storage
JP2004272324A (ja) * 2003-03-05 2004-09-30 Nec Corp ディスクアレイ装置
US20050114595A1 (en) * 2003-11-26 2005-05-26 Veritas Operating Corporation System and method for emulating operating system metadata to provide cross-platform access to storage volumes
JP2006024024A (ja) 2004-07-08 2006-01-26 Toshiba Corp 論理ディスク管理方法及び装置
US7523285B2 (en) * 2004-08-20 2009-04-21 Intel Corporation Thermal memory control
US7130960B1 (en) * 2005-04-21 2006-10-31 Hitachi, Ltd. System and method for managing disk space in a thin-provisioned storage subsystem
US7676628B1 (en) * 2006-03-31 2010-03-09 Emc Corporation Methods, systems, and computer program products for providing access to shared storage by computing grids and clusters with large numbers of nodes
US7809769B2 (en) * 2006-05-18 2010-10-05 Google Inc. Database partitioning by virtual partitions
US7555628B2 (en) * 2006-08-15 2009-06-30 Intel Corporation Synchronizing a translation lookaside buffer to an extended paging table

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09223047A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd コンピュータネットワークの制御方法
JP2001306407A (ja) * 2000-04-19 2001-11-02 Hitachi Ltd スナップショット管理方法及び計算機システム
JP2003140836A (ja) * 2001-10-30 2003-05-16 Hitachi Ltd ストレージシステムの管理方法およびストレージシステム管理プログラムならびに記憶媒体およびストレージシステム
JP2003140838A (ja) * 2001-11-06 2003-05-16 Hitachi Ltd アレイ記憶装置
JP2003150414A (ja) * 2001-11-12 2003-05-23 Hitachi Ltd データベース管理システム情報を考慮したデータ再配置方法およびデータ再配置を行う計算機システム
JP2005115438A (ja) * 2003-10-03 2005-04-28 Mitsubishi Electric Corp データ管理装置
JP2005149436A (ja) * 2003-11-20 2005-06-09 Hitachi Ltd ストレージ装置、ストレージ装置における制御方法、ジョブスケジューリング処理方法及び障害処理方法並びにそれらのプログラム

Also Published As

Publication number Publication date
WO2008126202A1 (ja) 2008-10-23
US8516070B2 (en) 2013-08-20
JPWO2008126202A1 (ja) 2010-07-22
US20090320041A1 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP5104855B2 (ja) 負荷分散プログラム、負荷分散方法、及びストレージ管理装置
US8429369B2 (en) Storage management program, storage management method, and storage management apparatus
JP5276218B2 (ja) リアルタイムでlunをファイルに、またはファイルをlunに変換すること
US7395370B2 (en) Computer system, data management method, and program for determining a migration method based on prediction of a migration influence
US7966470B2 (en) Apparatus and method for managing logical volume in distributed storage systems
JP4749140B2 (ja) データマイグレーション方法及びシステム
JP5932043B2 (ja) 不揮発性記憶装置セットの揮発メモリ表現
JP5099128B2 (ja) ストレージ管理プログラム、ストレージ管理装置およびストレージ管理方法
CN106687911B (zh) 不损害数据完整性的在线数据移动
US9971527B2 (en) Apparatus and method for managing storage for placing backup data into data blocks based on frequency information
JP6476932B2 (ja) ストレージ装置,制御プログラム,ストレージシステム及びデータ転送方法
JP2010097372A (ja) ボリューム管理方式
KR20170120489A (ko) 통지와 함께 백그라운드 활동을 효율적으로 관리하는 ssd를 위한 메카니즘
CN104603739A (zh) 对并行存储的块级访问
US20150236974A1 (en) Computer system and load balancing method
JP2008108020A (ja) 計算機システム、データ移行方法、およびストレージ管理サーバ
KR102521051B1 (ko) 하이브리드 데이터 룩-업 방법
JP4748950B2 (ja) 記憶領域管理方法及びシステム
US20100049918A1 (en) Virtual disk management program, storage device management program, multinode storage system, and virtual disk managing method
US20170161300A1 (en) Shared data storage leveraging dispersed storage devices
JPWO2008136074A1 (ja) 2重化組み合わせ管理プログラム、2重化組み合わせ管理装置、および2重化組み合わせ管理方法
JP2005512232A (ja) データ・ネットワークに付属されたストレージ資源の管理
JP6617461B2 (ja) 制御装置、制御プログラム、及び制御方法
US20200285510A1 (en) High precision load distribution among processors
US20180341423A1 (en) Storage control device and information processing system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Ref document number: 5104855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees