JPWO2015087442A1 - ストレージシステムの移行方式および移行方法 - Google Patents

ストレージシステムの移行方式および移行方法 Download PDF

Info

Publication number
JPWO2015087442A1
JPWO2015087442A1 JP2015552268A JP2015552268A JPWO2015087442A1 JP WO2015087442 A1 JPWO2015087442 A1 JP WO2015087442A1 JP 2015552268 A JP2015552268 A JP 2015552268A JP 2015552268 A JP2015552268 A JP 2015552268A JP WO2015087442 A1 JPWO2015087442 A1 JP WO2015087442A1
Authority
JP
Japan
Prior art keywords
storage
storage node
physical storage
storage system
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015552268A
Other languages
English (en)
Other versions
JP5973089B2 (ja
Inventor
渡 岡田
渡 岡田
紀夫 下薗
紀夫 下薗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP5973089B2 publication Critical patent/JP5973089B2/ja
Publication of JPWO2015087442A1 publication Critical patent/JPWO2015087442A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0613Improving I/O performance in relation to throughput
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ストレージシステム移行後に、仮想ストレージシステムにおいてホストコンピュータへ割当てられたリソースが異なる物理ストレージノードに存在する場合に、物理ストレージノード間でリソースのマッピングが必要となり、リソースアクセス時に発生する物理ストレージノード間の通信量がその接続パスの帯域を上回ると、ホストI/O性能が移行前の性能より劣化する恐れがあった。そこで、第1の物理ストレージノードから、複数の第2の物理ストレージノードで構成される仮想ストレージシステムへ移行する際に、管理計算機は、複数の第2の物理ストレージノードの構成情報および性能情報と第1の物理ストレージノードが提供するボリュームの負荷情報を基に、第2の物理ストレージノード間の転送経路の帯域の範囲内で第2の物理ストレージノードのリソースを割り当てる。

Description

本発明は、ホストコンピュータがアクセスするデータを格納するストレージシステムとこのストレージシステムを管理する管理コンピュータからなる計算機システムにおけるストレージシステムの移行方式および移行方法に関する。
ホストコンピュータとネットワークを介して接続されたストレージシステムは、データを記憶する記憶デバイスとして、例えば、複数の磁気ディスクを備えるものである。このストレージシステムは、RAID(Redundant Array of Independent Disks)の技術によって、複数の記憶デバイスの記憶領域を冗長化し、RAIDグループ(パリティグループとも呼ばれる)を構成する。そして、ストレージシステムは、ホストコンピュータに対して、RAIDグループの一部からホスト計算機が要求する容量の記憶領域を論理ボリュームという形で提供する。
また、複数の物理的なストレージシステムを束ねて、ホストコンピュータに対して1台の仮想的なストレージシステムとして提供する技術がある(例えば、特許文献1)。この技術により、複数の物理的なストレージシステムを1台のストレージシステムとして管理することが可能になる。
米国特許出願公開2008/0034005号明細書
一つの物理的なストレージシステム(移行元ストレージシステム)から、複数の物理的なストレージシステムからなる仮想的なストレージシステム(移行先ストレージシステム)へ移行する場合、移行先ストレージシステムを構成する各物理的なストレージシステムのリソース(ポート、キャッシュ、ボリュームなど)の空き状況によって、移行後に利用されるリソースの配置が変化する。1台の物理的なストレージシステムのリソースのみを利用する場合もあれば、異なる物理的なストレージシステムに分散したリソースを利用する場合もある。
このストレージシステム移行後に、仮想的なストレージシステムにおいて1台のホストコンピュータへ割当てられたリソース(例えば、ポートおよびボリューム)が、異なる物理的なストレージシステムに存在する場合、ホストコンピュータからリソース(例えば、ボリューム)へアクセス可能とするために、物理的なストレージシステム間でそのリソース(例えば、ボリューム)をマッピングする必要がある。このとき、ホストコンピュータによるボリュームへのアクセスにおいて、物理ストレージシステム間の通信が発生する。この通信量が物理的なストレージシステム間の接続パスの帯域を上回ってしまう場合、仮想的なストレージシステムにおけるホストI/O性能がストレージシステム移行前の性能より劣化する恐れがあった。
以下、本発明を説明するに当たって、統一的に、物理的なストレージシステムを「ストレージノード」と呼び、仮想的なストレージシステムを「仮想ストレージシステム」と呼ぶ。
本発明に係る計算機システムは、ホスト計算機と、第1の物理ストレージノードと、相互に接続される複数の第2の物理ストレージノードと、第1および複数の第2の物理ストレージノードを管理する管理計算機とから構成され、複数の第2の物理ストレージノードは同一の識別子でもってホスト計算機に応答して仮想ストレージシステムを提供し、一つの第2の物理ストレージノードがホスト計算機からI/O命令を受け付けると他の第2の物理ストレージノードへI/O命令の転送を行い、管理計算機は、第1の物理ストレージノードと複数の第2の物理ストレージノードからストレージの構成情報および性能情報を収集し、また、第1の物理ストレージノードで提供しているボリュームとそれに関わる負荷情報を収集する。
そこで、管理計算機は、第1の物理ストレージノードから仮想ストレージシステムへ移行する際に、複数の第2の物理ストレージノードの構成情報および性能情報と、第1の物理ストレージノードが提供しているボリュームの負荷情報を基に、第2の物理ストレージノード間の転送経路の帯域の範囲内で第2の物理ストレージノードのリソースを割り当てる。
本発明によれば、I/O性能の劣化を伴うことなく、1以上の物理ストレージノードから仮想ストレージシステムへ移行することができるという効果を奏する。
実施例1において、計算機システムの構成例を示す図である。 実施例1において、ストレージノード情報テーブルの例を示す図である。 実施例1において、ノード間転送帯域情報テーブルの例を示す図である。 実施例1において、ボリューム情報テーブルの例を示す図である。 実施例1において、閾値情報テーブルの例を示す図である。 実施例1において、移行プラン作成プログラムの処理の例を示すフロー図である。 実施例1において、移行プラン作成プログラムの処理詳細の例を示す図である。 実施例2において、ローカルコピー情報テーブルの例を示す図である。 実施例2において、スナップショット情報テーブルの例を示す図である。 実施例2において、プール情報テーブルの例を示す図である。 実施例2において、関連ボリュームグループ情報テーブルの例を示す図である。 実施例2において、移行プラン作成プログラムの処理詳細の例を示す図である。 実施例3において、計算機システムの構成例を示す図である。 実施例3において、移行プラン作成プログラムの処理詳細の例を示す図である。 実施例4において、ストレージノード情報テーブルの例を示す図である。 実施例4において、ボリューム情報テーブルの例を示す図である。 実施例4において、移行プランテーブルの例を示す図である。 実施例4において、移行プラン作成プログラムの処理詳細の例を示す図である。 実施例4において、移行プラン作成プログラムにおける、ポート移行プランの作成の処理詳細の例を示す図である。 実施例4において、移行プラン作成プログラムにおける、BE I/F移行プランの作成の処理詳細の例を示す図である。 単一の物理ストレージノード(旧構成)から、複数の物理ストレージノードから成る仮想ストレージシステム(新構成)へ移行する流れを示す概要図である。
本発明の実施形態として、実施例を用いて説明するに先立ち、本発明の概要を図21を用いて説明する。
図21は、単一の物理ストレージノードが存在する旧構成から、複数の物理ストレージノードから成る仮想ストレージシステムが存在する新構成へ移行する流れを示す概要図である。
旧構成の物理ストレージノードは、ボリュームを3台提供している。各ボリュームが必要とするCPU性能(MIPS)およびポート性能(Mbps)は、順に、ボリュームAでは、30MIPS、80Mbps、ホストBでは、60MIPS、60Mbps、ホストCでは、60MIPS、30Mbps、である。
新構成において、仮想ストレージシステムを構成する複数の物理ストレージノードは、それぞれ同一のスペックであり、CPU性能は100MIPS、ポート性能は100Mbpsである。物理ストレージノード間は、ASICにより内部で接続されており、ほとんど応答性能の劣化がなく、I/O命令の転送、データのやり取りの中継が可能である。この転送性能は50Mbpsである。
このとき、管理サーバは、旧構成の物理ストレージノードおよび新構成の物理ストレージノード、それぞれから構成情報、性能情報を収集する(図21の(1)情報収集)。そして、新構成の物理ストレージノード間でデータの転送がなるべく発生しないように、必要なポート性能が高い順にボリュームとポートを同一の物理ストレージノード内のリソースとして割り当てるように、移行プランを作成する(図21の(2)プラン作成)。
具体的には、ボリュームA、ボリュームB、ボリュームCの順に、単一の物理ストレージノードでリソースの割り当てができないかを判定する。この結果、ボリュームAは、単一のストレージノードからCPUとポートを割り当てることができる。同様に、ボリュームBも可能である。しかし、最後のボリュームCは、記憶領域とCPUを割り当てられる単一の物理ストレージノードがなく、それぞれ異なる物理ストレージノードから割り当てる必要がある。しかし、ボリュームCが必要とするポート性能は、物理ストレージノード間の転送帯域よりも少ないため、ほとんど性能劣化なく移行することが可能となる(図21の(3)リプレース)。
本発明によれば、仮想ストレージシステム環境への移行によるI/O性能の劣化を低減することができる。特に、ビックデータの分析などの大量のストレージリソースを使用・消費するアプリケーション向けにストレージを提供する場合など、一つのストレージノードだけではストレージリソースが不足する可能性がある。このような場合に、複数のストレージノードからなる仮想ストレージシステムに移行することが考えられる。このような状況では移行による性能の向上が期待されるため、本発明によりI/O性能の劣化を低減し、仮想ストレージのリソースが使えることによるI/O性能の向上が図れることは特に有用である。
図1は、本発明が適用された計算機システムの実施例1に係る構成例を示す図である。当該計算機システムは、管理コンピュータ1000、仮想ストレージシステム1100、ホストコンピュータ1300および移行元ストレージノード1600から構成される。この仮想ストレージシステム1100は複数のストレージノード1200で構成されている。
管理コンピュータ1000、ストレージノード1200および移行元ストレージノード1600は、管理ネットワーク1400(例えば、LAN:Local Area Network)を介して相互に接続されている。管理ネットワーク1400は、主に管理用のデータをやり取りするためのネットワークである。なお、管理ネットワーク1400は、管理データ通信用のネットワークであれば、SANを用いるなど、IPネットワーク以外のその他のタイプのネットワークでもよい。
ストレージノード1200、ホストコンピュータ1300および移行元ストレージノード1600は、データネットワーク1500(例えば、SAN:Storage Area Network)を介して相互に接続されている。データネットワーク1500は、ホストコンピュータ1300が仮想ストレージシステム1100に格納するデータをやり取りするためのネットワークである。なお、データネットワーク1500は、IPネットワークなどデータ通信用のネットワークであれば、他のどのようなタイプのネットワークでもよい。
図1では、ホストコンピュータ1300を単一のものとして記載しているが、2つ以上であってもよい。また、移行元ストレージノード1600も、2つ以上でもよい。さらに、移行元ストレージノード1600が複数束ねられた仮想ストレージシステムを構成することも可能で、移行元ストレージノード1600を仮想ストレージシステムと読み替えればよい。また、移行先となる仮想ストレージシステム1100は、3つのストレージノード1200から構成されているが、2つであっても、3つより多くてもよい。また、データネットワーク1500と管理ネットワーク1400は、同一のネットワークであってもよい。
管理コンピュータ1000は、CPU1010、表示装置1020、入力装置1030、NIC1040およびメモリ1050からなる。
入力装置1030は、管理者からの指示を受け付けるためのデバイスである。表示装置1020は、管理者からの指示に対応する処理の結果やシステムの状況などを表示するデバイスである。NIC1040は、管理ネットワーク1400に接続するためのI/Fである。
CPU1010は、メモリ1050に格納されたプログラムに従って動作する。
メモリ1050は、ストレージノード情報テーブル1051、ストレージノード間転送帯域情報テーブル1052、ボリューム情報テーブル1053、閾値情報テーブル1054および移行プラン作成プログラム1055を格納する。これらのテーブルの詳細は後述する。
移行プラン作成プログラムは、移行元ストレージノード1600から仮想ストレージシステム1100へ移行するためのプランを作成し、移行を実施するプログラムである。このプログラムの動作の詳細も後述する。
ストレージノード1200は、コントローラ1210および記憶媒体ユニット1220から構成され、両者は高速な内部ネットワークで接続されている。
記憶媒体ユニット1220は、複数のハードディスクドライブやSSD(Solid State Drive)などの記憶媒体1221を搭載する。
コントローラ1210は、FE I/F1211、データ通信ユニット1212、CPU1213、NIC1214、メモリ1215およびBE I/F1217から構成される。
NIC1214は、管理ネットワーク1400に接続するためのI/Fである。FE I/F1211は、データネットワーク1500に接続するためのI/Fである。BE I/F1217は、記憶媒体ユニット1220に接続するためのI/Fである。CPU1213は、メモリ1215に格納されたプログラムに従って動作する。
メモリ1215は、制御プログラム1216を格納する。
制御プログラム1216は、ストレージノードを制御するためのプログラムであって、記憶媒体ユニット1220に搭載された記憶媒体1221でRAIDグループを構成し、ホストコンピュータ1300に提供する論理ボリューム1222を作成する。また、制御プログラム1216は、構成したRAIDグループの情報を元に、ホストコンピュータ1300からの論理ボリューム1222へのI/O命令に応じて、適切な記憶媒体1221に対してデータの読み込み、書き込みを行う。
そしてまた、制御プログラム1216は、ストレージノード1200の動作を決定するための制御情報、稼動状況の参照や更新をするためのAPI(Application Programming Interface)を提供する。管理コンピュータ1000で稼動する、管理プログラム(図示しない)および移行プラン作成プログラム1055は、このAPIを用いて、ストレージノードの制御、監視等を行う。
データ通信ユニット1212は、ホストコンピュータ1300から論理ボリューム1222へのI/O命令に応じて、自らが搭載されるストレージノード1200が提供する論理ボリュームへのI/O命令でない場合には、適切なストレージノード1200にI/O命令を転送し、データのやり取りを中継する。自らが搭載されるストレージノード1200が提供する論理ボリュームへのI/O命令である場合には、自らの制御プログラム1216を実行しているCPU1213にI/O命令を転送する。
このストレージノード間のI/O命令の転送、データのやり取りの中継のため、仮想ストレージシステム1100を構成する各ストレージノード1200のデータ通信ユニット1212の間で、内部結線1230が張られる。この結線は、ファイバチャネル、SCSI(Small Computer System Interface)、SAS(Serial Attached SCSI)、あるいは、その他のデータ通信用の結線である。
なお、I/O命令の転送やデータのやり取りの中継のために必要となる、各論理ボリュームを格納するストレージノード1200の情報(図示せず)は、データ通信ユニット1212に格納されている。あるいは、制御プログラム1216が管理し、データ通信ユニット1212からの問い合わせに応じて格納先のストレージノード1200から応答することも可能である。また、この情報は、管理コンピュータ1000等から制御プログラム1216に対して指示をすることで、参照、変更することができる。
移行元ストレージノード1600は、基本的にストレージノード1200と同等の構成となる。ただし、データ通信ユニット1212の搭載は任意である。
図2は、メモリ1050に格納されるストレージノード情報テーブル1051の一例である。
本テーブル1051は、各ストレージノード1200および移行元ストレージノード1600の性能情報を格納する。
ストレージノードID2001は、計算機システム内のストレージノードを一意に識別するためのIDである。ポート性能2002は、ストレージノードが持つFE I/Fの最大データ転送性能(スループット)を示す。CPU性能2003は、ストレージノードのCPU性能を示す。キャッシュ容量2004は、ストレージノードが備えるキャッシュ容量(GB)を示す。記憶容量2005は、ストレージノードの記憶容量(GB)を示す。この記憶容量はRAIDグループの容量である。
これらの値は、移行プラン作成プログラム1055が事前に各ストレージノード1200および1600から管理ネットワーク1400を介して収集する。あるいは、ユーザが入力装置1030から直接入力してもよい。
なお、実施例1は、仮想ストレージシステム1100を構成するストレージノード1200が未使用であることを想定しているが、他の実施形態として、ストレージノード1200が既に他の用途で使用されている場合には、ストレージノード1200のポート性能2002、CPU性能2003、キャッシュ容量2004および記憶容量2005については、使用されている分を差し引いた余剰の性能、容量とする。
図3は、メモリ1050に格納されるストレージノード間転送帯域情報テーブル1052の一例である。
本テーブル1052は、仮想ストレージシステム1100を構成するストレージノード1200間の通信用の結線1230について、結線接続先のストレージノード名および転送帯域(Mbps)の情報を格納する。
列3001で示すストレージノードID1は転送元を示し、列3002で示すストレージノードID2は転送先を示し、計算機システム内のストレージノードを一意に識別するためのIDである。転送帯域3003は、ストレージノードID1とストレージノードID2で示されるストレージノード間の結線の転送帯域を示す。ストレージノード相互は全二重で通信されるところ、両方向ともに転送帯域は同一とは限らず、方向により転送帯域に違いがあるので、図3の第1および第2レコードで示すように、同じストレージノード間であってもそれぞれが転送元の場合と転送先の場合でレコードが異なる。
これらの値は、移行プラン作成プログラム1055が事前に各ストレージノード1200から管理ネットワーク1400を介して収集する。あるいは、ユーザが入力装置1030から直接入力してもよい。
なお、実施例1では、仮想ストレージシステム1100を構成するストレージノードが未使用であることを想定しているが、他の実施形態として、ストレージノードが既に他の用途で使用されている場合、転送帯域3003は、使用されている分を差し引いた余剰の転送帯域とする。
図4は、メモリ1050に格納されるボリューム情報テーブル1053の一例である。
本テーブル1053は、移行元ストレージノード1600でホストコンピュータ1300に提供する論理ボリューム1222の情報を格納する。
ストレージノードID4001は、移行元ストレージノード1600を一意に識別するためのIDである。VOLID4002は、ストレージノードID4001で示される移行元ストレージノード1600において、一意に論理ボリュームを識別するためのIDである。ポート使用量4003は、ストレージノードID4001とVOLID4002で特定される論理ボリュームが使用しているポート性能の使用量(Mbps)の最大値を示す。CPU使用率4004は、当該論理ボリュームがストレージノードID4001で示される移行元ストレージノード1600で使用しているCPUの使用率(%)の最大値を示す。キャッシュ使用量4005は、当該論理ボリュームがストレージノードID4001で示される移行元ストレージノード1600で使用しているキャッシュ容量(MB)の最大値を示す。記憶容量4006は、当該論理ボリュームがストレージノードID4001で示される移行元ストレージノード1600で使用している記憶容量(GB)の最大値を示す。割当先ホスト4007は、当該論理ボリュームがどのホストコンピュータ1300に割り当てられているかをWWNで示す。
なお、実施例1では、ポート使用量4003、CPU使用率4004、キャッシュ使用量4005および記憶容量4006は、それぞれの最大値を使用しているが、別の実施形態として、時間で平均化した値でも、また、離れ値を除外した最大値など統計的加工を施した値でもよい。
これらの値は、移行プラン作成プログラム1055が事前に移行元ストレージノード1600から管理ネットワーク1400を介して収集する。
図5は、メモリ1050に格納される閾値情報テーブル1054の一例である。
本テーブル1054は、移行プラン作成プログラム1055が移行プランを作成する際に利用する情報を格納する。
ポート使用率閾値5001は、移行の結果、各ストレージノード1200で使用することになるポート性能の上限を使用率の割合(%)で示す。CPU使用率閾値5002は、移行の結果、各ストレージノード1200で使用することになるCPU性能の上限を使用率の割合(%)で示す。キャッシュ使用率閾値5003は、移行の結果、各ストレージノード1200で使用することになるキャッシュ容量の上限を使用率の割合(%)で示す。記憶容量使用率閾値5004は、移行の結果、各ストレージノード1200で使用することになる記憶容量の上限を使用率の割合(%)で示す。ストレージノード間転送帯域使用率閾値5005は、移行の結果、各ストレージノード1200で使用することになるストレージノード間転送帯域の上限を使用率の割合(%)で示す。
また、各閾値については、原則ユーザが設定するが、固定的に設定されることに限定されず設定変更することもできる。
図6は、移行プラン作成プログラム1055の動作例を示すフローチャートである。
移行プラン作成プログラム1055が起動された後、この移行プラン作成プログラム1055による各ステップの処理内容を、以下順に説明する。
ステップ6001において、移行元ストレージノード1600を制御する制御プログラム1216と仮想ストレージシステム1100を構成するストレージノード1200を制御する制御プログラム1216とから各ストレージノードの性能情報を収集し、ストレージノード情報テーブル1051(図2)とストレージノード間転送帯域情報テーブル1052(図3)を作成する。なお、前述のとおり、本ステップ6001はユーザの入力によるテーブル作成であってもよい。
ステップ6002において、移行元ストレージノード1600を制御する制御プログラム1216から論理ボリュームの利用状況を収集し、ボリューム情報テーブル1053(図4)を作成する。
ステップ6003において、収集した情報を元に移行プランを作成する。移行プランには、移行元ストレージノー1600の各論理ボリューム1222がどのストレージノード1200の記憶領域を使用し、どのストレージノードのポートを使用するかが示されている。ステップ6003で作成する移行プランの詳細は、図7を用いて後述する。
ステップ6004において、先のステップ6003で移行プランが作成できた場合(yes)はステップ6005に進み、作成できなかった場合(no)は処理を終了する。
ステップ6005において、移行指示として、作成した移行プランを使って移行を実施する。
上記移行の実施において、移行プラン作成プログラム1055は、移行元ストレージノード1600の各論理ボリューム1222について、記憶領域を使用するストレージノード1200のRAIDグループから論理ボリュームを作成し、必要なキャッシュ容量を割り当てる指示を制御プログラム1216に出す。そして、移行プラン作成プログラム1055は、ポートを使用するストレージノード1200の当該ポートをホストコンピュータ1300に割り当てる指示を制御プログラム1216に出す。割当先のホストコンピュータは、ボリューム情報テーブル1053の割当先ホスト4007を参照して決定する。最後に、移行プラン作成プログラム1055は、データ通信ユニット1212がストレージノード間でI/O命令の転送、データのやり取りを中継するための転送制御情報を、移行元および移行先の両ストレージノードの制御プログラム1216に通知する。
なお、実施例1では、移行後の論理ボリュームが、同一ストレージノード内の記憶領域およびポートを使用する場合でも転送制御情報の通知を行うが、別の実施形態として、データ通信ユニット1212が、転送制御情報の通知を行わずにI/O命令の転送やデータのやり取りの中継をスキップする処理となっている場合、移行後に同一のストレージノードの論理ボリュームおよびポートを使用する論理ボリュームについては、制御情報の通知を行わない。
図7は、移行プラン作成プログラム1055が作成する、図6の移行プラン(ステップ6003)について、その詳細動作例を示したフローチャートである。以下、移行プラン作成プログラム1055による各ステップの処理内容を順に説明する。
ステップ7010において、ボリューム情報テーブル1053のポート使用量4003の値の大きい順に論理ボリュームをソートする。
ステップ7020において、ソートした論理ボリューム毎にそのボリューム数分後続の処理を繰り返す。
ステップ7030において、当該論理ボリュームで使用するポート性能と記憶容量を同一のストレージノードから移行先として割り当て可能かを判断する。ここでは、移行先のストレージノードとして、ボリューム情報テーブル1053のポート使用量4003、ボリューム情報テーブル1053のCPU使用率4004とストレージノード情報テーブル1051のCPU性能2003とから算出したCPU性能、ボリューム情報テーブル1053のキャッシュ容量4005および記憶容量4006に対して、十分な余剰があるストレージノード1200があるかを判断する。
この判断に際し、ストレージノード情報テーブル1051と閾値情報テーブル1054から、それぞれの値と対応する閾値をかけて使用可能な性能、容量(以降、それぞれを「余剰性能」、「余剰容量」と呼ぶ)を算出する。これらの余剰性能、余剰容量が、当該論理ボリュームが使用する値より大きければ十分な余剰があり割り当て可能と判断し、小さければ十分な余剰がなく割り当て不可と判断する。
このステップ7030において、同一ストレージノード1200から割り当て可能と判断した場合(yes)、続くステップ7040において、割り当て可能なストレージノード1200の一つを選択し、そのストレージノード1200からポートおよび記憶容量を割り当てるように移行プランに追加する。
その際に、ポートの余剰性能、CPUの余剰性能、キャッシュの余剰容量、記憶容量の余剰容量から、当該論理ボリュームが使用する分を減算する。
その後、次の論理ボリュームの処理を行うべくステップ7030に処理を進める。
他方、このステップ7030において、同一ストレージノード1200から割り当て不可と判断した場合(no)、続くステップ7050において、ポート性能に十分な余裕があるストレージノード1200を列挙する。ここで列挙されるのは、ポートの余剰性能が、当該論理ボリュームで使用するポートの性能を上回るストレージノード1200である。
ステップ7060において、CPU性能、キャッシュ容量、記憶容量に十分な余剰があるストレージノード1200を列挙する。ここで列挙されるのは、CPUの余剰性能、キャッシュの余剰容量および記憶容量の余剰容量が、当該論理ボリュームで利用するCPU性能、キャッシュ容量および記憶容量を上回るストレージノード1200である。
ステップ7070において、先のステップ7050および7060でそれぞれ列挙したストレージノード1200を接続した場合に、両ストレージノード1200間のデータ転送帯域に十分な余剰があるストレージノード1200の組み合わせがあるかを判断する。
この判断に際し、ストレージノード間転送帯域情報テーブル1052の転送帯域3003に閾値情報テーブル1054のストレージノード間転送帯域使用率閾値5005をかけることにより、使用可能な帯域(以降、これを「余剰帯域」と呼ぶ)を算出する。この余剰帯域が、当該論理ボリュームが使用するポート性能以上の場合に十分な余剰があると判断し、少ない場合に十分な余剰はないと判断する。
このステップ7070において、上記ストレージノードの組み合わせに十分な余剰帯域があると判断した場合(yes)、続くステップ7080において、十分な余剰帯域があるストレージノードの組み合わせを一つ選択する。そして、その組み合わせの一方から、ポート性能に余剰があるストレージノードのポートを割り当て、他方から記憶領域に余剰があるストレージノードを割り当てるように、移行プランに追加する。
その際に、ポートを割り当てるストレージノードのポートの余剰性能から、また、記憶容量を割り当てるストレージノードのCPUの余剰性能、キャッシュの余剰容量および記憶容量の余剰容量から、それぞれ当該論理ボリュームが使用する分を減算する。さらに、選択したストレージノード間の余剰帯域から、当該論理ボリュームが使用するポート性能分を減算する。
その後、次の論理ボリュームの処理を行うべくステップ7030に処理を進める。
他方、このステップ7070において、上記ストレージノードの組み合わせに十分な余剰帯域がないと判断した場合(no)、ステップ7090において、性能を維持したままリプレースができないことを管理者に通知して終了する。
なお、実施例1は、データ通信ユニット1212が、I/O命令の転送やデータのやり取りの中継を行う際に、制御プログラム1216を動作させるCPU1213に問い合わせないことを想定している。別の実施形態として、CPU1213に問い合わせる場合、この応答にかかるCPUの負荷分を、ステップ7040またはステップ7080において、CPUの余剰性能から減算する必要がある。
以上のとおり、実施例1により、ポートの性能を多く使用する論理ボリュームは、ストレージノードを跨がずにI/O処理を行うように移行される。そのため、ストレージノード間の結線の転送帯域がネックとなってI/O性能が劣化することなく、移行元ストレージノード1600から仮想ストレージシステム1100に移行することができる。
実施例2は、移行元ストレージノード1600、移行先となるストレージノード1200において、論理ボリューム1222の複製(ローカルコピー)やスナップショットなど高度な処理を行うことができる場合の実施形態である。このような高度な処理を行う場合、これに必要となるリソースを、記憶領域に割り当てるストレージノードと同一のストレージノードに配置する必要がある。なお、この実施例2については、実施例1とほぼ同一の形態および処理内容となる部分があるので、以下では差分のみ説明を行う。
実施例2において、図1で示した制御プログラム1216は、論理ボリュームの複製やスナップショットを行うための機能を持つ。また、制御プログラム1216は、これらの機能を管理するための参照、設定用のAPIを管理コンピュータ1000に提供する。なお、実施例2では、複製(ローカルコピー)、スナップショットの機能を例にして説明するが、他のストレージノードが保有する機能でもよい。
管理コンピュータ1000が有するメモリ1050には、ローカルコピー情報テーブル、スナップショット情報テーブル、プール情報テーブルおよび関連ボリュームグループ情報テーブルを格納する(図示しない)。これらのテーブルの詳細は後述する。
図8は、メモリ1050に格納されるローカルコピー情報テーブルの例である。
本テーブルは、ローカルコピーに関わる情報を格納する。
ストレージノードID8001は、計算機システム内のストレージノードを一意に識別するためのIDである。コピーグループID8002は、ストレージノードID8001で示されるストレージノード1600で一意に識別されるコピーグループのIDである。主ボリューム8003は、ストレージノードID8001で示されるストレージノード1600で一意に識別される論理ボリュームのIDであり、このIDで示される論理ボリュームは複製元論理ボリュームである。副ボリューム8004は、ストレージノードID8001で示されるストレージノード1600で一意に識別される論理ボリュームのIDであり、このIDで示される論理ボリュームは複製先論理ボリュームである。CPU使用率8005は、このコピーで必要となるCPU性能(%)の最大値である。キャッシュ容量8006はこのコピーで必要となるキャッシュ容量(MB)の最大値である。
なお、実施例2では、CPU使用率8005およびキャッシュ容量8006は最大値としているが、別の実施形態として、時間で平均化した値でも、離れ値を除外した最大値など統計的加工を施した値でもよい。
これらの値は、移行プラン作成プログラム1055が、事前に各ストレージノード1200から管理ネットワーク1400を介して収集する。
図9は、メモリ1050に格納されるスナップショット情報テーブルの例である。
本テーブルは、スナップショットに関わる情報を格納する。
ストレージノードID9001は、計算機システム内のストレージノードを一意に識別するためのIDである。SSグループID9002は、ストレージノードID9001で示されるストレージノード1600で一意に識別されるスナップショットグループのIDである。ボリュームID9003は、ストレージノードID9001で示されるストレージノード1600で一意に識別される論理ボリュームのIDであり、このIDで示される論理ボリュームはスナップショット元の論理ボリュームである。SSボリュームID9004は、ストレージノードID9001で示されるストレージノード1600で一意に識別される論理ボリュームのIDであり、このIDで示される論理ボリュームはスナップショットボリュームである。CPU使用率9005は、このスナップショットで必要となるCPU性能(%)の最大値である。キャッシュ容量9006は、このスナップショットで必要となるキャッシュ容量(MB)の最大値である。プールID9007は、ストレージノードID9001で示されるストレージノード1600で一意に識別されるプールのIDであり、スナップショットで利用されるプールを示す。
なお、実施例2では、CPU使用率9005およびキャッシュ容量9006は最大値としているが、別の実施形態として、時間で平均化した値でも、離れ値を除外した最大値など統計的加工を施した値でもよい。
これらの値は、移行プラン作成プログラム1055が、事前に各ストレージノード1200から管理ネットワーク1400を介して収集する。
図10は、メモリ1050に格納されるプール情報テーブルの例である。
本テーブルは、スナップショットで使用されるプールの情報を格納する。
ストレージノードID10001は、計算機システム内のストレージノードを一意に識別するためのIDである。プールID10002は、ストレージノードID10001で示されるストレージノード1600で一意に識別されるプールのIDである。プールVOLID10003はストレージノードID10001とプールID10002で示されるプールを構成する論理ボリュームのIDを示す。
これらの値は、移行プラン作成プログラム1055が、事前に各ストレージノード1200から管理ネットワーク1400を介して収集する。
図11は、メモリ1050に格納される関連ボリュームグループ情報テーブルの例である。
本テーブルは、上記のようなストレージの機能を動作させるために、同一のストレージノードから記憶領域を割り当てる必要がある論理ボリュームを纏めたテーブルである。
ストレージノードID11001は、計算機システム内のストレージノードを一意に識別するためのIDである。グループID11002は、論理ボリュームのグループを示すIDである。関連ボリュームID11003は、グループID11002で示されるグループに属する論理ボリュームIDのリストである。合計ポート使用量11004は、ストレージノードID11001と関連ボリュームID11003で示されるボリューム群が使用するポート性能の合計(Mbps)を示す。合計CPU使用率11005は、ストレージノードID11001と関連ボリュームID11003で示されるボリューム群が使用するCPU性能の合計(%)を示す。合計キャッシュ容量11006は、ストレージノードID11001と関連ボリュームID11003で示されるボリューム群が使用するキャッシュ容量の合計(MB)を示す。合計記憶容量11007は、ストレージノードID11001と関連ボリュームID11003で示されるボリューム群が使用する記憶容量の合計(GB)を示す。
図12は、実施例2における、図6の移行プランの作成6003の詳細動作例を示したフローチャートである。以下、移行プラン作成プログラム1055による各ステップの処理内容を順に説明する。
ステップ12010において、移行元ストレージノード1600の制御プログラム1216から性能情報を収集し、図11の関連ボリュームグループ情報テーブルを作成する。
具体的には、ローカルコピー情報テーブル(図8)、スナップショット情報テーブル(図9)、プール情報テーブル(図10)、それぞれに関連する情報を収集する。その後、関連ボリュームグループ情報テーブル(図11)に対して、実行予定の機能に応じて関連する情報を登録する。
たとえば、ローカルコピーであれば、複製元と複製先の論理ボリュームを同一の関連ボリュームグループに登録する。また、同一のコピーグループIDに属する複製元と複製先の論理ボリュームも同一の関連ボリュームグループに登録する。その際に、それぞれのボリュームで使用するポート性能、CPU性能、キャッシュ容量、記憶容量に加え、ローカルコピーに使われるCPU使用率8005とキャッシュ容量8006を合算して、合計ポート使用量11004、合計CPU使用率11005、合計キャッシュ容量11006、合計記憶容量11007に値を設定する。
同様に、たとえば、スナップショットであれば、スナップショット元とスナップショット先の論理ボリュームを同一の関連ボリュームグループに登録する。また、同一のスナップショットグループに属する複製元と複製先の論理ボリュームも同一の関連ボリュームグループに登録する。さらに、スナップショットが利用しているプールを構成する論理ボリュームもプール情報テーブル(図10)から特定し、同一の関連ボリュームグループに登録する。その際に、それぞれのボリュームで使用するポート性能、CPU性能、キャッシュ容量、記憶容量に加え、スナップショットに使われるCPU使用率9005とキャッシュ容量9006を合算して、合計ポート使用量11004、合計CPU使用率11005、合計キャッシュ容量11006、合計記憶容量11007に値を設定する。
ステップ12010以降の各ステップの処理は、実施例1の図7において論理ボリューム単位で処理を行っていたものを、関連するボリュームグループ単位で処理を行うように変更したものである。
ステップ12020において、合計ポート使用量11004の値の大きい順に関連ボリュームグループをソートする。
ステップ12030において、ソートした関連ボリュームグループ毎にそのグループ数分後続の処理を繰り返す。
ステップ12040において、当該関連ボリュームグループで使用するポート性能と記憶容量を同一のストレージノードから割り当て可能かを判断する。
このステップ12040において、同一ストレージノードから割り当て可能と判断した場合(yes)、ステップ12050において、割り当て可能なストレージノード1200の一つを選択し、そのストレージノード1200からポートおよび記憶容量を割り当てるように移行プランに追加する。この際、各余剰性能、余剰容量から関連ボリュームグループが使用する合計の性能、容量を減算する。
他方、このステップ12040において、同一ストレージノード1200から割り当て不可と判断した場合(no)、ステップ12060において、ポート性能に十分な余裕があるノードを列挙する。ここで列挙されるのは、ポートの余剰性能が、当該関連ボリュームグループで使用するポートの性能の合計を上回るストレージノード1200である。
次に、ステップ12070において、CPU性能、キャッシュ容量および記憶容量に十分な余剰があるストレージノード1200を列挙する。ここで列挙されるストレージノード1200も同様に、関連ボリュームグループの合計性能、合計容量を用いて判断する。
ステップ12080において、先のステップ12060および12070で列挙した各ストレージノード1200間のデータ転送帯域に、十分な余裕があるストレージノード1200の組み合わせがあるかを判断する。
このステップ12080で、上記ストレージノードの組み合わせに十分な余剰帯域があると判断した場合(yes)、続くステップ12090において、十分な余剰帯域があるストレージノードの組み合わせを一つ選択する。そして、その組み合わせの一方から、ポート性能に余剰があるストレージノードのポートを割り当て、他方から記憶領域に余剰があるストレージノードを割り当てるように、移行プランに追加する。
その際に、各余剰性能、余剰容量から関連ボリュームグループが使用する合計の性能、容量を減算する。また、選択したストレージノード間の余剰帯域から、当該関連ボリュームグループが使用するポート性能分を減算する。
その後、次の関連ボリュームグループの処理を行うべくステップ12040に処理を進める。
他方、このステップ12080で、上記ストレージノードの組み合わせに十分な余剰帯域がないと判断した場合(no)、ステップ12100において、性能を維持したままリプレースができないことを管理者に通知して終了する。
なお、上記移行プランの作成処理の終了後、図6のステップ6005における移行指示では、複製(ローカルコピー)やスナップショットなどの処理に対応する機能設定を行う必要がある。
以上のとおり、実施例2により、複製(ローカルコピー)やスナップショットなど高度な処理を行うストレージノードから、ストレージノード間の結線の転送帯域がネックとなってI/O性能が劣化することなく、移行元ストレージノード1600から仮想ストレージシステム1100に移行することができる。
先の実施例1は、仮想ストレージシステム1100を構成するいずれのストレージノード1200間も内部結線によりメッシュ状に直接接続されている構成である。一方で、デイジーチェーンのように、転送に係るストレージノード相互が直接接続されずに、第3のストレージノード1200を介して接続される形態をとる場合もある。この場合、論理ボリュームの移行方法によっては、データ通信ユニットによるI/O命令の転送やデータのやり取りの中継において、3以上のストレージノードを跨って行われる可能性がある。そうすると、複数のストレージノード間の転送帯域を使用することとなり、効率が悪化することになる。実施例3は、このような転送形態に対応するものである。
なお、実施例3については、実施例1とほぼ同一の形態および処理内容となる部分があるので、以下では差分のみ説明を行う。
図13は、実施例3に係る計算機システムの構成例である。
実施例1は、仮想ストレージシステム1100を構成する各ストレージノード1200のデータ通信ユニット1212が、内部結線1230により相互に直接接続された構成である(図1)。しかし、実施例3は、相互に直接接続される構成ではなく、図13の内部結線1230のように、他のストレージノード1200を介して接続される構成である。
図14は、実施例3において、図6のステップ6003における移行プランの作成の詳細動作例を示したフローチャートである。そのステップ7010からステップ7060までの処理内容は実施例1と同等であるので、以下では、それ以降の移行プラン作成プログラム1055による処理を説明する。
ステップ14070において、先のステップ7050および7060で列挙した各ストレージノード1200間のデータ転送帯域に、十分な余剰があるストレージノード1200の組み合わせがあるかを判断する。その際に、まずストレージード間転送帯域情報テーブル1052(図3)を参照し、ストレージノード1200間の内部結線の最短経路を算出する。そして、経由する全ての内部結線の余剰帯域が、論理ボリュームが使用するポート性能を上回る場合には十分な余剰があると判断し、少ない場合には十分な余剰がないと判断する。
このステップ14070において、上記ストレージノード1200の組み合わせに十分な余剰帯域があると判断した場合(yes)、続くステップ14080において、十分な余剰帯域があるストレージノードの組み合わせを、経由するストレージノード数(ホップ数)でソートする。
次に、ステップ14090において、最も経由するストレージノード数(ホップ数)が少ないストレージノードの組み合わせを一つ選択する。そして、その組み合わせの一方から、ポート性能に余剰があるストレージノードのポートを割り当て、他方から記憶領域に余剰があるストレージノードを割り当てるように、移行プランに追加する。
その際に、ポートを割り当てるストレージノードのポートの余剰性能から、また、記憶容量を割り当てるストレージノードのCPUの余剰性能、キャッシュの余剰容量および記憶容量の余剰容量から、それぞれ当該論理ボリュームが使用する分を減算する。さらに、経由するストレージノード間の内部結線の余剰帯域から、当該論理ボリュームが使用するポート性能分を減算する。
その後、次の論理ボリュームの処理を行うべくステップ7030に処理を進める。
他方、ステップ14070において、上記ストレージノードの組み合わせに十分な余剰帯域がないと判断した場合(no)、ステップ14100において、性能を維持したままリプレースができないことを管理者に通知して終了する。
以上のとおり、実施例3により、デイジーチェーンのように、ストレージノード1200が相互に直接接続されておらず、第3のストレージノード1200を介して接続される構成においても、ストレージノード間の結線の帯域がネックとなってI/O性能が劣化することなく、移行元ストレージノード1600から仮想ストレージシステム1100に移行することができる。
先の実施例1は、データ通信ユニット1212がホストコンピュータ1300からのI/O命令の転送、データのやり取りの中継を行っている構成である。実施例4は、データ通信ユニット1212がBE I/Fから記憶媒体ユニットへのI/O命令の転送、データのやり取りの中継を行う構成に対応するものである。
実施例4については、実施例1とほぼ同一の形態および処理内容となる部分があるので、以下では差分のみ説明を行う。
図15は、実施例4で使用する、ストレージノード情報テーブルの例である。
図2のストレージノード情報テーブル1051と基本的には同じであるが、BEポート性能15001が追加されている。この列は、BE I/Fの性能を示す。
図16は、実施例4で使用する、ボリューム情報テーブルの例である。
図4のボリューム情報テーブル1053と基本的には同じであるが、BEポート使用量16001が追加されている。この列は、ストレージノードID4001とVOLID4002で示される論理ボリュームが使用するBE I/Fの性能を示す。
図17は、実施例4で使用する移行プランテーブルの例である。
実施例1から3では図示しなかったが、実施例4では処理内容が複雑となるため、図示したものである。
ストレージノードID17001は、計算機システム内のストレージノードを一意に識別するためのIDである。VOLID17002は、ストレージノードID17001で示されるストレージノード1600において一意に論理ボリューム1222を識別するためのIDである。
ポート使用ストレージノードID17003は、移行後にストレージノードID17001とVOLID17002で示される論理ボリューム1222が使用するポートを持つストレージノードを示す。キャッシュ使用ストレージノードID17004は、移行後にストレージノードID17001とVOLID17002で示される論理ボリューム1222が使用するキャッシュを持つストレージノードを示す。記憶領域使用ストレージノードID17005は、移行後にストレージノードID17001とVOLID17002で示される論理ボリューム1222が使用する記憶領域を持つストレージノードを示す。
これらの情報は、移行プラン作成プログラム1055が、図18で説明するフローチャートに基づいて作成するものであり、当該フローチャートの開始前に初期化される。
図18は、実施例4において、図6のステップ6003における移行プランの作成の詳細動作例を示したフローチャートである。以下、移行プラン作成プログラム1055による各ステップの処理を順に説明する。
ステップ18010において、図16のボリューム情報テーブルを参照し、移行元ストレージノードの各論理ボリュームについて、論理ボリュームのIDとポート使用量の組および論理ボリュームのIDとBEポート使用量の組のリストを作成する。
ステップ18020において、ポート使用量およびBEポート使用量をポートの使用量をキーとして、上記の各組をそのキーとなる値の大きい順にソートする。
ステップ18030において、ソートした組を順番に以降の処理を繰り返す。
ステップ18040において、当該組が論理ボリュームのIDとポート使用量の組か、論理ボリュームのIDとBEポート使用量の組かを判定する。
論理ボリュームのIDとポート性能使用量の組である場合、ステップ18050において、ポート移行プランの作成を行う。このポート移行プランの作成の詳細は図19を用いて後述する。その後、次の組の処理を行うべくステップ18030に進む。
他方、論理ボリュームのIDとBEポート使用量の組である場合、ステップ18060において、BE I/F移行プランの作成を行う。このBE I/F移行プランの作成の詳細は図20を用いて後述する。その後、次の組の処理を行うべくステップ18030に進む。
全ての組が終了したら処理を終了する。
図19は、図18のステップ18050におけるポート移行プランの作成の詳細動作例を示したフローチャートである。以下、移行プラン作成プログラム1055による各ステップの処理内容を順に説明する。
ステップ19000において、当該論理ボリュームがキャッシュを使用するストレージノードが決定済みかを、図17の移行プランテーブルを参照して判定する。決定している場合(yes)、ステップ19010において、そのストレージノードのポート性能に余裕があるかを判定する。判定の詳細は、実施例1(図7のステップ7030)と同様である。
ポート性能に余裕がある場合は(yes)、ステップ19020において、そのストレージノードのポートを使用するように移行プランに追加する。具体的には、当該論理ボリュームに対応するストレージノードID17001とVOLID17002をもつレコードのポート使用ストレージノードID17003の値を更新する。その際、そのストレージノードのポートの余剰性能を減算する。
ポート性能に余裕がない場合は(no)、ステップ19030において、ポート性能に余裕があるストレージノードを列挙する。列挙の具体的な方法は、実施例1(図7のステップ7050)と同様である。
次に、ステップ19040において、列挙したストレージノードとキャッシュを使用するストレージノードとの内部結線の転送帯域の余剰が、ポート使用量以上であるストレージノードがあるかを判定する。余剰のあるストレージノードがある場合(yes)、ステップ19050において、そのストレージノードから一つ選択して、そのストレージノードのポートを使用するように移行プランに追加する。その際に、そのストレージノードのポートの余剰性能、ストレージノード間の転送帯域の余剰を減算する。余剰のあるストレージノードがない場合(no)、ステップ19060において、性能維持したままの移行ができない旨をユーザに通知し、終了する。
また、ステップ19000の判定において、当該論理ボリュームがキャッシュを使用するストレージが決定していない場合(no)、ステップ19070において、単一のストレージノードでポートとキャッシュを使用できないかを判定する。具体的には、ボリューム情報テーブル(図16)のポート使用量4003、CPU使用量(ストレージノード情報テーブル(図15)のCPU性能2003とボリューム情報テーブル(図16)のCPU使用率4004から算出)、ボリューム情報テーブル(図16)のキャッシュ使用量4005を使用するのに、十分な余剰性能および余剰容量を持つストレージノードがあるか判定する。
該当するストレージノードがない場合は(no)、ステップ19080において、ポート使用量4003を使用するのに十分な余剰性能を持つストレージノードを列挙する。また、CPU使用量(CPU性能2003とCPU使用率4004から算出)およびキャッシュ使用量4005を使用するのに十分な余剰性能を持つストレージノードを列挙する。
次に、ステップ19090において、先のステップ19080で列挙したストレージノード間の転送帯域の余剰が、ボリューム情報テーブル(図16)のポート使用量4003の値以上のものがあるかを判定する。
該当するものがない場合は(no)、ステップ19060において、性能維持したままの移行ができない旨をユーザに通知し、終了する。
該当するものがある場合は(yes)、ステップ19100において、該当するものの中からストレージノードの組み合わせを一つ選び、ポート性能に余裕があるストレージノードのポートを使用し、キャッシュとCPUの性能に余裕があるストレージノードのキャッシュを使用するように、移行プランに追加する。
具体的には、図17の移行プランテーブルにおいて、当該論理ボリュームに対応するストレージノードID17001とVOLID17002をもつレコードのポート使用ストレージノードID17003の値とキャッシュ使用ストレージノードID17004の値を更新する。その際、ポート性能、CPU性能、キャッシュ容量およびストレージノード間の転送帯域のそれぞれの余剰を減算する。
他方、ステップ19070の判定において、単一のストレージノードでポートとキャッシュを使用できる場合(yes)、ステップ19110において、その中から一つのストレージノードを選択し、そのストレージノードのポートとキャッシュを使用するように移行プランに追加する。その際、ポート性能、CPU性能およびキャッシュ容量のそれぞれの余剰を減算する。
図20は、図18のステップ18060におけるBE I/F移行プランの作成の詳細動作例を示したフローチャートである。以下、移行プラン作成プログラム1055による各ステップの処理内容を順に説明する。
ステップ20000において、当該論理ボリュームがキャッシュを使用するストレージノードが決定済みかを、図17の移行プランテーブルを参照して判定する。決定している場合(yes)、ステップ20010において、そのストレージノードの記憶容量に余裕があるかを判定する。判定の詳細は、実施例1(図7のステップ7030)と同様である。余裕がある場合は(yes)、ステップ20020において、そのストレージノードの記憶領域を使用するように移行プランに追加する。
具体的には、図17の移行プランテーブルにおいて、当該論理ボリュームに対応するストレージノードID17001とVOLID17002をもつレコードの記憶領域使用ストレージノードID17005の値を更新する。その際、そのストレージノードの記憶領域の余剰容量を減算する。
また、ステップ20010の判定において、そのストレージノードの記憶容量に余裕がない場合は(no)、ステップ20030において、記憶容量に余裕があるストレージノードを列挙する。列挙の具体的な方法は、実施例1(図7のステップ7050)と同様である。そして、ステップ20040において、列挙したストレージノードとキャッシュを使用するストレージノードとの内部結線の転送帯域の余剰が、図16のボリューム情報テーブルのBEポート使用量16001の値以上であるストレージノードがあるかを判定する。
余剰のあるストレージノードがある場合(yes)、ステップ20050において、そのストレージノードから一つ選択して、そのストレージノードのポートを使用するように移行プランに追加する。その際、そのストレージノードの記憶領域の余剰容量およびストレージノード間の転送帯域の余剰を減算する。余剰のあるストレージノードがない場合(no)、ステップ20060において、性能維持したままの移行ができない旨をユーザに通知し、終了する。
他方、ステップ20000の判定において、当該論理ボリュームがキャッシュを使用するストレージが決定していない場合(no)、ステップ20070において、単一のストレージノードで記憶領域とキャッシュを使用できないかを判定する。具体的には、ボリューム情報テーブル(図16)の記憶容量4006、CPU使用量(ストレージノード情報テーブル(図15)のCPU性能2003とボリューム情報テーブル(図16)のCPU使用率4004から算出)、ボリューム情報テーブル(図16)のキャッシュ容量4005を使用するのに、十分な余剰性能および余剰容量を持つストレージノードがあるか判定する。
該当するストレージノードがない場合は(no)、ステップ20080において、記憶容量4006を使用するのに十分な余剰容量を持つストレージノードを列挙する。また、CPU使用量(ストレージノード情報テーブル(図15)のCPU性能2003とボリューム情報テーブル(図16)のCPU使用率4004から算出)、ボリューム情報テーブル(図16)のキャッシュ容量4005を使用するのに十分な余剰性能を持つストレージノードを列挙する。
次に、ステップ20090において、先のステップ20080で列挙したストレージノード間の転送帯域の余剰が、図16のボリューム情報テーブルのBEポート使用量16001の値以上のものがあるかを判定する。余剰のあるストレージノードがない場合は(no)、ステップ20060において、性能維持したままの移行ができない旨をユーザに通知し、終了する。余剰のあるストレージノードがある場合は(yes)、ステップ20100において、該当するもの中からストレージノードの組み合わせを一つ選び、記憶領域に余裕があるストレージノードの記憶領域を使用し、キャッシュとCPUの性能に余裕があるストレージノードのキャッシュを使用するように、移行プランに追加する。
具体的には、図17の移行プランテーブルにおいて、当該論理ボリュームに対応するストレージノードID17001とVOLID17002をもつレコードの記憶領域使用ストレージノードID17005の値とキャッシュ使用ストレージノードID17004の値を更新する。その際、記憶領域の容量、CPU性能、キャッシュ容量およびストレージノード間の転送帯域のそれぞれの余剰を減算する。
他方、ステップ20070の判定において、単一のストレージノードで記憶領域とキャッシュを使用できる場合(yes)、ステップ20110において、その中から一つのストレージノードを選択し、そのストレージノードの記憶領域とキャッシュを使用するように移行プランに追加する。その際、記憶領域の容量、CPU性能およびキャッシュ容量のそれぞれの余剰を減算する。
なお、上記の各実施例は、本発明の特徴を説明するものであるが、本発明を限定するものではない。本発明の実施形態では、当業者が本発明を実施するのに十分詳細に説明をしているが、他の実装・形態も可能であって、本発明の技術的思想の範囲と精神を逸脱することなく、構成・構造の変更や多様な要素の置き換えが可能であることが理解される。
したがって、上記記述においてもこれに限定して解釈されるものではない。ある実施例の構成要素は、本発明の技術的思想を逸脱しない範囲で、他の実施例に追加または他の実施例の構成要素と代替可能である。本発明の実施形態は、上述のように、汎用コンピュータ上で稼動するソフトウェアで実装することも、専用ハードウェアまたはソフトウェアとハードウェアの組み合わせで実装することも可能である。
また、上記説明では、主に「テーブル」形式によって、本発明の実施形態で利用される情報について説明したが、この情報は必ずしもテーブルによるデータ構造で表現されるものに限定されず、リスト、DB、キュー等のデータ構造やそれ以外で表現されていてもよい。
さらに、上記では、「プログラム」を主語(動作主体)として本発明の実施形態における各処理について説明したが、プログラムは、プロセッサによって実行されることで、定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うものである。このため、プロセッサを主語とした説明としてもよい。
また、プログラムを主語として開示された処理は、管理コンピュータ等の計算機またはストレージシステムが行う処理としてもよい。プログラムの一部又は全ては、専用ハードウェアで実現してもよく、モジュール化されていてもよい。
そして、各機能を実現するプログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。また、プログラム配布サーバや非一時的記憶媒体によって計算機や計算システムにインストールすることができる。
1000・・・管理コンピュータ
1100・・・仮想ストレージシステム
1200・・・ストレージノード
1300・・・ホストコンピュータ
1400・・・管理ネットワーク
1500・・・データネットワーク
1600・・・移行元ストレージノード
1010、1213・・・CPU
1020・・・表示装置
1030・・・入力装置
1040・・・NIC
1050、1215・・・メモリ
1210・・・コントローラ
1220・・・記憶媒体ユニット
1230・・・内部結線

Claims (13)

  1. ホスト計算機と、
    第1の物理ストレージノードと、
    相互に接続される複数の第2の物理ストレージノードと、
    前記第1および複数の第2の物理ストレージノードを管理する管理計算機と、
    を備え、
    前記複数の第2の物理ストレージノードは同一の識別子でもって前記ホスト計算機に応答して仮想ストレージシステムを提供し、
    前記第1の物理ストレージノードから前記仮想ストレージシステムへ移行する際に、
    前記管理計算機は、前記第1および複数の第2の物理ストレージノードの構成情報および性能情報と前記第1の物理ストレージノードが提供するボリュームの負荷情報を基に、前記第2の物理ストレージノード相互間の転送経路の帯域の範囲内に収まることを条件にして前記第2の物理ストレージノードから移行先としてリソースを選択する
    ことを特徴とするストレージシステムの移行方式。
  2. 請求項1に記載のストレージシステムの移行方式であって、
    前記構成情報および前記性能情報は、前記第1および複数の第2の物理ストレージノードが有するポート、CPU、キャッシュおよび記憶媒体に関する情報であり、
    前記負荷情報は、前記第1の物理ストレージノードが提供するボリュームを構成する物理ストレージノードが有するポート、CPU、キャッシュ容量および記憶媒体容量の各使用量である
    ことを特徴とするストレージシステムの移行方式。
  3. 請求項2に記載のストレージシステムの移行方式であって、
    前記ポート、CPU、キャッシュおよび記憶媒体に関する性能情報から、当該移行による前記それぞれの使用量分を減算する
    ことを特徴とするストレージシステムの移行方式。
  4. 請求項1に記載のストレージシステムの移行方式であって、
    前記第2の物理ストレージノード相互間の転送経路の帯域の範囲を、予めまたは任意に設定する閾値に応じた前記転送経路の帯域の使用率を用いて算出する
    ことを特徴とするストレージシステムの移行方式。
  5. 請求項1に記載のストレージシステムの移行方式であって、
    前記管理計算機は、前記第1の物理ストレージノードから前記仮想ストレージシステム内の単一の前記第2の物理ストレージノードへ移行可能であれば、当該移行を優先して実行する
    ことを特徴とするストレージシステムの移行方式。
  6. 請求項1から5のいずれか一項に記載のストレージシステムの移行方式であって、
    当該計算機システムは、論理ボリュームの複製およびスナップショットの少なくとも一つの機能を提供し、
    前記第1の物理ストレージノードから前記仮想ストレージシステムへ移行する際に用いる前記第1の物理ストレージノードが提供するボリュームの負荷情報として、前記論理ボリュームの複製および前記スナップショットの少なくとも一つの機能を実行するときに用いたボリュームに関する負荷情報を加える
    ことを特徴とするストレージシステムの移行方式。
  7. 請求項1から5のいずれか一項に記載のストレージシステムの移行方式であって、
    前記第2の物理ストレージノード相互間の接続態様が数珠繋ぎで連結されている場合には、前記リソースを割り当てるに当たり、さらに、経由する前記第2の物理ストレージノード数が少なくなる割り当てとする
    ことを特徴とするストレージシステムの移行方式。
  8. 請求項1から5のいずれか一項に記載のストレージシステムの移行方式であって、
    前記第1の物理ストレージノードおよび前記複数の第2の物理ストレージノードを構成する記憶媒体ユニットへのI/O命令に係る転送性能を、前記リソースを割り当てる判断の基にする前記情報に加える
    ことを特徴とするストレージシステムの移行方式。
  9. 第1の物理ストレージノードおよび複数の第2の物理ストレージノードを管理する管理計算機と、
    前記複数の第2の物理ストレージノードから同一の識別子でもってホスト計算機に応答して提供される仮想ストレージシステムと、
    を有し
    前記第1の物理ストレージノードから前記仮想ストレージシステムへ移行する際に、
    前記管理計算機は、
    前記第1および複数の第2の物理ストレージノードの構成情報および性能情報を取得する第1のステップと、
    前記第1の物理ストレージノードが提供するボリュームの負荷情報を取得する第2のステップと、
    前記構成情報、前記性能情報および前記負荷情報を基に、前記第2の物理ストレージノード相互間の転送経路の帯域の範囲内に収まることを条件にして前記第2の物理ストレージノードから移行先としてリソースを選択する第3のステップと、を有する
    ことを特徴とするストレージシステムの移行方法。
  10. 請求項9に記載のストレージシステムの移行方法であって、
    前記構成情報および前記性能情報は、前記第1および複数の第2の物理ストレージノードが有するポート、CPU、キャッシュおよび記憶媒体に関する情報であり、
    前記負荷情報は、前記第1の物理ストレージノードが提供するボリュームを構成する物理ストレージノードが有するポート、CPU、キャッシュ容量および記憶媒体容量の各使用量である
    ことを特徴とするストレージシステムの移行方法。
  11. 請求項10に記載のストレージシステムの移行方法であって、
    前記管理計算機は、
    前記ポート、CPU、キャッシュおよび記憶媒体に関する性能情報から、当該移行による前記それぞれの使用量分を減算する第4のステップをさらに有する
    ことを特徴とするストレージシステムの移行方法。
  12. 請求項9に記載のストレージシステムの移行方法であって、
    前記第3のステップは、前記第2の物理ストレージノード相互間の転送経路の帯域の範囲を、予めまたは任意に設定する閾値に応じた前記転送経路の帯域の使用率を用いて算出する過程を含む
    ことを特徴とするストレージシステムの移行方法。
  13. 請求項9に記載のストレージシステムの移行方法であって、
    前記管理計算機は、
    前記第3のステップに先立ち、前記第1の物理ストレージノードから前記仮想ストレージシステム内の単一の前記第2の物理ストレージノードへ移行可能であれば、当該移行を優先して実行するステップをさらに有する
    ことを特徴とするストレージシステムの移行方法。
JP2015552268A 2013-12-13 2013-12-13 ストレージシステムの移行方式および移行方法 Expired - Fee Related JP5973089B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/083471 WO2015087442A1 (ja) 2013-12-13 2013-12-13 ストレージシステムの移行方式および移行方法

Publications (2)

Publication Number Publication Date
JP5973089B2 JP5973089B2 (ja) 2016-08-23
JPWO2015087442A1 true JPWO2015087442A1 (ja) 2017-03-16

Family

ID=53370783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552268A Expired - Fee Related JP5973089B2 (ja) 2013-12-13 2013-12-13 ストレージシステムの移行方式および移行方法

Country Status (3)

Country Link
US (1) US10182110B2 (ja)
JP (1) JP5973089B2 (ja)
WO (1) WO2015087442A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160041996A1 (en) 2014-08-11 2016-02-11 Netapp, Inc. System and method for developing and implementing a migration plan for migrating a file system
US10860529B2 (en) * 2014-08-11 2020-12-08 Netapp Inc. System and method for planning and configuring a file system migration
WO2017037800A1 (ja) * 2015-08-28 2017-03-09 株式会社日立製作所 ストレージシステムおよびその制御方法
US10684781B1 (en) * 2015-12-23 2020-06-16 The Mathworks, Inc. Big data read-write reduction
WO2017141408A1 (ja) * 2016-02-18 2017-08-24 株式会社日立製作所 方法、媒体及び計算機システム
US10156999B2 (en) * 2016-03-28 2018-12-18 Seagate Technology Llc Dynamic bandwidth reporting for solid-state drives
WO2018131133A1 (ja) * 2017-01-13 2018-07-19 株式会社日立製作所 データ移行システム及びデータ移行制御方法
US10956212B1 (en) 2019-03-08 2021-03-23 The Mathworks, Inc. Scheduler for tall-gathering algorithms that include control flow statements
US10936220B2 (en) * 2019-05-02 2021-03-02 EMC IP Holding Company LLC Locality aware load balancing of IO paths in multipathing software
JP7191003B2 (ja) * 2019-12-17 2022-12-16 株式会社日立製作所 ストレージシステムおよびストレージ管理方法
JP7380363B2 (ja) * 2020-03-19 2023-11-15 富士通株式会社 構築管理装置、情報処理システム及び構築管理プログラム
JP2022175427A (ja) * 2021-05-13 2022-11-25 株式会社日立製作所 ストレージシステム及びストレージ管理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228278A (ja) * 2004-01-14 2005-08-25 Hitachi Ltd 記憶領域の管理方法、管理装置及び管理プログラム
JP4900784B2 (ja) * 2006-04-13 2012-03-21 株式会社日立製作所 ストレージシステム及びストレージシステムのデータ移行方法
JP4829670B2 (ja) * 2006-04-28 2011-12-07 株式会社日立製作所 San管理方法およびsan管理システム
JP4963892B2 (ja) 2006-08-02 2012-06-27 株式会社日立製作所 仮想ストレージシステムの構成要素となることが可能なストレージシステムの制御装置
JP4331742B2 (ja) * 2006-10-25 2009-09-16 株式会社日立製作所 I/oの割り振り比率に基づいて性能を管理する計算機システム、計算機及び方法
JP4235220B2 (ja) * 2006-10-25 2009-03-11 株式会社日立製作所 計算機システムおよびデータ移行方法
JP4814119B2 (ja) * 2007-02-16 2011-11-16 株式会社日立製作所 計算機システム、ストレージ管理サーバ、及びデータ移行方法
JP5081498B2 (ja) * 2007-05-24 2012-11-28 株式会社日立製作所 計算機システム、および、その制御方法
WO2011021909A2 (en) * 2009-08-21 2011-02-24 Samsung Electronics Co., Ltd. Method and apparatus for providing contents via network, method and apparatus for receiving contents via network, and method and apparatus for backing up data via network, backup data providing device, and backup system
JP5241671B2 (ja) * 2009-10-05 2013-07-17 株式会社日立製作所 記憶装置のデータ移行制御方法
EP2450785A1 (en) * 2009-10-09 2012-05-09 Hitachi Ltd. Data storage controller and virtual volume control method
WO2012114378A1 (en) * 2011-02-23 2012-08-30 Hitachi, Ltd. Data storage system and management method of the data storage system
US8793463B2 (en) * 2011-09-12 2014-07-29 Microsoft Corporation Allocation strategies for storage device sets
WO2013190562A1 (en) * 2012-06-22 2013-12-27 Hewlett-Packard Development Company, L.P. Optimal assignment of virtual machines and virtual disks using multiary tree
WO2014108933A1 (en) * 2013-01-10 2014-07-17 Hitachi, Ltd. Resource management system and resource management method of a computer system
WO2014141466A1 (ja) * 2013-03-15 2014-09-18 株式会社日立製作所 計算機システム

Also Published As

Publication number Publication date
US20150373105A1 (en) 2015-12-24
JP5973089B2 (ja) 2016-08-23
US10182110B2 (en) 2019-01-15
WO2015087442A1 (ja) 2015-06-18

Similar Documents

Publication Publication Date Title
JP5973089B2 (ja) ストレージシステムの移行方式および移行方法
JP5512833B2 (ja) ストレージの仮想化機能と容量の仮想化機能との両方を有する複数のストレージ装置を含んだストレージシステム
US8984221B2 (en) Method for assigning storage area and computer system using the same
US8307171B2 (en) Storage controller and storage control method for dynamically assigning partial areas of pool area as data storage areas
JP5439581B2 (ja) ストレージシステム、ストレージ装置、ストレージシステムの記憶領域の最適化方法
US8639899B2 (en) Storage apparatus and control method for redundant data management within tiers
JP4684864B2 (ja) 記憶装置システム及び記憶制御方法
JP4890033B2 (ja) 記憶装置システム及び記憶制御方法
JP5981563B2 (ja) 情報記憶システム及び情報記憶システムの制御方法
JP6340439B2 (ja) ストレージシステム
US20130036266A1 (en) First storage control apparatus and storage system management method
US20120297156A1 (en) Storage system and controlling method of the same
WO2014162586A1 (ja) ストレージシステムおよびストレージシステム制御方法
JP2006285808A (ja) ストレージシステム
JP2022541261A (ja) リソース割振り方法、記憶デバイス、および記憶システム
KR20210022121A (ko) 구성 가능한 인프라스트럭처에서 스토리지 디바이스 고장 허용을 유지하기 위한 방법 및 시스템
US11809720B2 (en) Techniques for storage management
WO2015198441A1 (ja) 計算機システム、管理計算機、および管理方法
WO2015121998A1 (ja) ストレージシステム
US20220382602A1 (en) Storage system
WO2016194096A1 (ja) 計算機システム及び計算機システムの管理方法
JP4871758B2 (ja) ボリューム割当方式
WO2012070090A1 (en) Computer system and its control method
WO2016016949A1 (ja) 計算機システムおよび管理計算機の制御方法
JP2023094302A (ja) 情報処理システム及び構成管理方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160713

R150 Certificate of patent or registration of utility model

Ref document number: 5973089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees