JP6261716B2 - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP6261716B2
JP6261716B2 JP2016506067A JP2016506067A JP6261716B2 JP 6261716 B2 JP6261716 B2 JP 6261716B2 JP 2016506067 A JP2016506067 A JP 2016506067A JP 2016506067 A JP2016506067 A JP 2016506067A JP 6261716 B2 JP6261716 B2 JP 6261716B2
Authority
JP
Japan
Prior art keywords
logical
storage system
storage
control unit
logical control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016506067A
Other languages
English (en)
Other versions
JPWO2015132973A1 (ja
Inventor
直子 池ヶ谷
直子 池ヶ谷
晋広 牧
晋広 牧
山本 彰
山本  彰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2015132973A1 publication Critical patent/JPWO2015132973A1/ja
Application granted granted Critical
Publication of JP6261716B2 publication Critical patent/JP6261716B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、複数のストレージシステムを備える計算機システムの技術に関する。
システムの大規模化と性能要件の高度化に対応するため、物理的な複数ストレージシステムを1つにまとめ、大規模ストレージと同等の性能と容量を提供するスケールアウト型ストレージが注目されている。スケールアウト型ストレージの運用方法として、複数のストレージシステムを論理的に1つの記憶資源として仮想化する方法が知られている。
例えば、特許文献1では、個別に稼動していたストレージシステムを仮想ストレージシステムの構成要素とするために、制御装置が実ストレージの論理デバイス(以下、「LDEV」と記す)の識別子を仮想ストレージのLDEVの識別子に変換する。また、LDEV単位に論理パスが管理されている。
一方、LDEVとホスト計算機の間を接続する論理パスの構成定義をホスト計算機が保持し、論理パスを確立するとき、論理コンロトールユニット(以下、「論理CU」と記す)単位で論理パスを確立するシステムがある。
例えば、特許文献2は、論理CUとその論理CUの論理パスを用いてアクセスするLDEVの構成をホスト計算機が定義していることを示している。
米国特許出願公開第2008/0034005号明細書 米国特許出願公開第2007/0174544号明細書
スケールアウト型ストレージを構築する方法として、複数のストレージシステムに同一の仮想ストレージシステム番号を割当て、ホスト計算機と複数のストレージシステムを物理的に接続すれば、どのストレージシステムでもホスト計算機から論理パス確立要求を受けられるように構築することが考えられる。
ホスト計算機がメインフレーム(以下、「MF」と記すことがある)の場合は、論理CUあたり8本まで論理パスを定義できるため、最大8つのストレージシステムと論理パスを確立できる。また、複数のホスト計算機から同一のCUに論理パスを確立することもある。MFが複数の論理パスを確立した場合、入出力(I/O)実行時にそれらの論理パスを順番に用いている。
MF向けストレージシステムには、ストレージシステムあたり最大256台の論理CUと、論理CUあたり最大256台のLDEVを構築できるものがある。ここで、ホスト計算機が識別できる仮想ストレージシステム内のLDEVをグローバルデバイス(以下、「GDEV」と記す)と呼ぶことにする。このグローバルデバイス(GDEV)に付与されるグローバルデバイス番号(GDEV番号)は、仮想ストレージシステム内においてユニークである。そして、仮想ストレージシステムに論理CUやGDEVを割当てる際、それらの割当て先ストレージシステムを考慮しないと、論理パス先の論理CUとアクセス対象のGDEVが別ストレージシステムに分かれる場合がある。
また、複数のストレージシステムに同一番号の論理CUを割当てて、それら複数のストレージシステムへの論理パスを確立すると、MFホスト計算機はそれらの論理パスを均等に用いるため、アクセス対象のGDEVが割り当てられたストレージシステム以外の論理CUがI/O要求を受ける機会が発生する。I/O要求を受けたストレージシステムからアクセス対象のGDEVが割り当てられたストレージシステムにI/O要求を転送する際、ストレージシステム間の帯域が狭い場合やストレージシステム間を直結できない場合にはI/O性能が低下する場合がある。
したがって、本発明の目的は、仮想ストレージシステム内でデータ転送を削減するように、論理CUとGDEVをストレージシステムに割当て、ホスト計算機から仮想ストレージシステムのGDEVへのデータアクセス性能を向上させることにある。
かかる課題を解決するために、本発明は、物理的な複数のストレージシステムを構成要素として1つの仮想ストレージシステムとして提供するスケールアウト型ストレージにおいて、仮想ストレージシステムへのGDEV割当て時、GDEVにアクセスする論理パスの確立先となる論理CUが未割当てならば、割当て済み論理CU数が少ないまたは未使用の記憶容量が多いストレージシステムに論理CUとGDEVを生成する。一方、論理パスの確立先となる論理CUを割当て済みのストレージシステムがあるならば、そのストレージシステムにGDEVを生成する。ただし、ストレージシステムのリソースが不足している時は、アクセス頻度の低い別の論理CUをリソースが豊富な別ストレージシステムに移動するか、通信帯域が十分な別のストレージシステムに論理CUを追加して、ボリュームを生成することを特徴とする。
かかる構成によれば、ホスト計算機と仮想ストレージシステム間に入出力性能が劣化しないように論理パスを確立することができる。
本発明によれば、仮想ストレージシステム内のデータ転送を削減するように、論理CUとGDEVを割当て、ホスト計算機から仮想ストレージシステムのGDEVへのデータアクセス性能を向上することができる。
図1は、本発明の実施形態の概要を示すブロック構成図である。 図2は、実施例1における計算機システムの構成を示すブロック図である。 図3は、本発明における仮想ストレージシステムの構成情報を示す図である。 図4は、本発明に係る仮想ストレージシステムを構成するストレージシステムの接続情報を示す図である。 図5は、本発明に係る仮想ストレージシステムの論理CU割当て情報を示す図である。 図6は、本発明に係るストレージシステムの論理CU割当て情報を示す図である。 図7は、本発明に係るストレージシステムの容量管理情報を示す図である。 図8は、本発明に係るストレージシステムの論理CUアクセス頻度管理情報を示す図である。 図9は、実施例1に係るストレージシステムの構成情報を示す図である。 図10は、実施例1におけるGDEV割当て先の選択処理手順を示すフローチャートである。 図11は、実施例1におけるGDEV割当て処理手順を示すフローチャートである。 図12は、実施例1における論理パス生成要求を受けた場合に行われる処理手順を示すフローチャートである。 図13は、実施例1におけるストレージシステムがアクセス要求を受けた場合に行われる処理手順を示すフローチャートである。 図14は、実施例1における論理CU制御情報取得要求を受けた場合に行われる処理手順を示すフローチャートである。 図15は、実施例1におけるチャネルパス再接続の処理手順を示すフローチャートである。 図16は、実施例2におけるパス障害が発生した仮想ストレージシステムの論理装置の構成例を示す図である。 図17は、実施例2におけるストレージシステム間のパス障害発生時の処理手順を示すフローチャートである。 図18は、実施例2におけるパス障害時の仮想ストレージシステムの構成情報を示す図である。 図19は、実施例3におけるリソース使用状態に合わせて論理CUを移動する処理手順を示すフローチャートである。 図20は、図10のGDEV割当て先の選択処理手順におけるGDEV割当てスペース確保処理を示すフローチャートである。 図21は、実施例4におけるローカルルータを有するストレージコントローラの概略構成を示すブロック図である。
以下、図面を参照しながら本発明の実施形態を説明する。
それに先立ち、図1に示す本発明に係るブロック構成図を用いて、各実施例に関わる基本機能の概略を説明する。
計算機システム1は、仮想ストレージシステム100、ホスト計算機20(メインフレームやサーバなど)および論理装置割当て管理部300で構成されている。仮想ストレージシステム100は、複数のストレージシステム10の資源を、ホスト計算機20に同一のストレージシステムに見せる論理的な装置である。なお、以下においては、仮想ストレージシステムのことを「VDKC」として、また、ストレージシステムのことを「RDKC」として、記すことがある。
図1では、仮想ストレージシステム100は、ストレージシステム10Aおよびストレージシステム10Bから構成される。ストレージシステム10には、ストレージコントローラ11があり論理装置を制御する。
論理装置には、論理CU(LCU)110およびグローバルデバイス(GDEV)120がある。論理CU110は、ホスト計算機20からの論理パスを受ける単位である。GDEV120は、ホスト計算機20が認識するボリュームであり、仮想ストレージシステム100内でユニークな識別子が付与される。
ホスト計算機20は、装置定義情報200、サブチャネル210およびチャネルパス220を保持する。装置定義情報200には、ホスト計算機20のチャネルパス220、仮想ストレージシステム100の論理CU110間のパス接続構成および論理CU110に向けた論理パスでアクセスするすべてのGDEV120を定義している。例えば、チャネルパス220はホスト計算機20あたり8本まで定義でき、論理CU110は仮想ストレージ装置100あたり256個まで定義でき、GDEV120は論理CU110あたり256個まで定義できる。
複数のホスト計算機20が仮想ストレージシステム100に接続する構成の場合、仮想ストレージシステム100側でホスト計算機20に接続する論理パスを識別できるように、ホスト計算機20が仮想ストレージシステム100にパスグループ230を登録できる。図1では、論理CU110のLCU2がホスト計算機20Aおよびホスト計算機20Bから接続されており、ホスト計算機20Aからの論理パスをパスグループ230A、ホスト計算機20Bからの論理パスを230Bとして登録する。ホスト計算機20と仮想ストレージシステム100間の通信では、パスグループ230内の論理パスを並列に用いることができる。
論理装置割当て管理部300は、複数のストレージシステム10とその間の接続形態を管理し、ストレージコントローラ11に論理CU110とGDEV120の生成または削除を指示する。また、各ストレージシステム10に生成した論理装置を記憶している。
その結果、ホスト計算機20とデータを格納した記憶装置の間の経路が最短となる論理パスを用いてI/Oを処理できるため、複数の小規模なストレージシステム10で高性能な仮想ストレージシステム100を構築できる。特に、廉価なストレージシステム10を多数結合するスケールアウト型ストレージにおいては、ユーザにコストパフォーマンスのよい記憶領域を提供することが可能となる。
実施例1は、論理装置割当て管理部300が仮想ストレージシステム100の構成要素となるストレージシステム10の接続形態を基に、各ストレージシステム10に割当てる論理CU110とGDEV120を決定し、各ストレージシステム10が論理CU110とGDEV120を生成してホスト計算機20からの入出力要求を処理する実施形態である。
図2は、実施例1における計算機システムの構成を示すブロック図である。計算機システム1は、複数のストレージシステム10、少なくとも1つのホスト計算機20および管理サーバ30を有している。
ストレージシステム10とホスト計算機20、またはストレージシステム10間はネットワークを介して接続されている。ホスト計算機20がメインフレーム(MF)の場合は、ネットワークを介してチャネルコマンドや転送データが通信される。
ストレージシステム10は、ストレージコントローラ11と記憶装置17を有している。記憶装置17は、通信路を介してコントローラ11に接続される。
ストレージコントローラ11は、プロセッサ12とメモリ13を備えて構成され、フロントエンドインタフェース(以下、インタフェースを「I/F」と略す)14を介してホスト計算機20または異なるストレージシステム10に接続され、バックエンドI/F15を介して記憶装置17に接続され、管理I/F16を介して管理サーバ30に接続されている。
ストレージコントローラ11は、ホスト計算機20から受信したコマンドに従って、記憶装置17に対するデータの入出力処理を制御する。また、メモリ13の一部を入出力処理のためのバッファとして用いることにより、記憶装置17を読み書きするよりも短時間で入出力処理が完了するように制御することができる。このバッファをキャッシュと呼ぶ。
プロセッサ12は、ストレージシステム10全体の動作を制御する。メモリ13に格納されたプログラムをプロセッサ12が実行することにより、ストレージシステム10全体として各種処理が行われる。メモリ13内に格納されるプログラムには、論理CU割当てプログラム、論理パス生成プログラム、GDEV管理プログラムおよび論理CU情報制御プログラムがある。
記憶装置17は、ディスク装置等の物理記憶領域で構成する論理デバイス(LDEV)170を有する。LDEV170は、GDEV120のデータの格納先である。
ホスト計算機20は、入出力処理専用のシステムであるチャネル21およびストレージシステム10との論理パスを生成または削除する論理パス制御プログラム22を有する。チャネル21は、構成定義情報200で定義されたサブチャネル情報210を保持し、ホスト計算機20がアクセスするGDEV120を特定する。
また、ホスト計算機20は、各種のアプリケーションを実行し、データの入出力が必要になると入出力命令を実行し、チャネル21が、データの割当先のGDEV120にアクセスする論理パス先の論理CU110に入出力コマンドを発行し、ストレージシステム10から入出力コマンドの応答データを受け取る。
管理サーバ30は、以下に説明する仮想ストレージシステムに関するテーブル類を格納するメモリ33を備える。
図3は、本発明に係る仮想ストレージシステムの構成情報の一例を示している。仮想ストレージシステム100を構成するストレージシステム10を管理するテーブルで、管理サーバ30のメモリ33に格納され、各エントリが、仮想ストレージシステム識別子301、ストレージシステム識別子302から305により構成される。
仮想ストレージシステム識別子301には、ホスト計算機20が仮想ストレージシステム100を特定する製品番号が格納され、ストレージシステム識別子302から305には、仮想ストレージシステム識別子301が示す仮想ストレージシステム100の構成要素となるストレージシステム10の識別情報(ストレージシステム識別子1〜4)が格納される。図3では、最大4台のストレージシステム10から成る仮想ストレージシステム100の管理情報を示しているが、これに制限されるものではなくストレージシステム数が5台以上であってもよく、その場合にはストレージシステム識別子を格納するフィールド数が5つ以上になる。
図4は、本発明に係る仮想ストレージシステムを構成するストレージシステムの接続情報の一例を示している。仮想ストレージシステム100を構成するストレージシステム10のうち、直結しているストレージシステム10を示す情報および相互の帯域を示す情報を管理するテーブルであって、管理サーバ30のメモリ33に格納される。テーブルの行方向のストレージシステム識別子402から405、および、テーブルの列方向のストレージシステム識別子412から415には、図3のフィールド302から305に格納したストレージシステム識別子(ストレージシステム識別子RDKC1〜RDKC4)が格納される。そして、ストレージシステム識別子を格納したフィールドの行と列が交わるフィールドに、ストレージシステム間が直結しているか否か等、両者間の接続形態を管理する情報(図4では帯域を示す情報)を格納する。
例えば、フィールド441には、RDKC1(フィールド402)とRDKC4(フィールド415)間の帯域が中程度であることを示す「帯域中」が格納されている。同様に、フィールド442には、RDKC2(フィールド403)とRDKC4(フィールド415)の間の帯域を示す情報、また、フィールド443には、RDKC3(フィールド404)とRDKC4(フィールド415)の間の帯域を示す情報が、それぞれ格納されている。ストレージシステム間が直結していなければ、それらのフィールドには直結していないことを示す情報が格納される。図4に「−」で表したフィールドは、同一ストレージシステム間であったり、ストレージシステム間の組合せが重複するために、使用しないフィールドであることを表す。
図5は、本発明に係る仮想ストレージシステムの論理CU割当て情報の一例を示している。仮想ストレージシステム100の論理CU110がどのストレージシステム10に割り当てられているかを管理するテーブルで、管理サーバ30のメモリ33に格納され、各エントリが、仮想ストレージシステム識別子501、論理CU番号502およびストレージシステム識別子503から505のフィールドにより構成される。
仮想ストレージシステム識別子フィールド501には、ホスト計算機20が仮想ストレージシステム100を特定する製品番号が格納される。論理CU番号フィールド502には、論理CUの識別番号が格納される。ストレージシステム識別子フィールド503から505には、フィールド502に格納された論理CUが割り当てられているストレージシステム10の識別子が格納される。
エントリ511は、仮想ストレージシステム識別子VDKC1の論理CU番号1がストレージシステム識別子RDKC1に割り当てられていることを示す。同様に、エントリ512は、仮想ストレージシステム識別子VDKC1の論理CU番号2がストレージシステム識別子RDKC2に割り当てられていることを示す。さらに、エントリ513は、仮想ストレージシステム識別子VDKC2の論理CU番号1がストレージシステム識別子RDKC1とRDKC2に割り当てられていることを示す。
図5では、最大3台のストレージシステム10までが同一の仮想ストレージシステム識別子で同一の論理CU番号に割り当てられることを示しているが、これに制限されるものではなく、4台以上のストレージシステム数であってもよく、その場合にはストレージシステム識別子を格納するフィールド数が4つ以上になる。また、図5に「−」で表したフィールドは、論理CUが割り当てられているストレージシステム数が3台以下であるため、使用しないフィールドであることを表す。
図6は、本発明に係るストレージシステムの論理CU割当て情報の一例を示している。ストレージシステム10に割り当てた仮想ストレージシステム100の論理装置を管理するテーブルで、各ストレージシステム10内のメモリ13に格納され、各エントリが、仮想ストレージシステム識別子601、論理CU番号602、GDEV番号603、ストレージシステム識別子604、LDEV番号605および容量606の各フィールドから構成される。
フィールド605が示すLDEV番号をもつLDEVには、フィールド601が示す仮想ストレージシステム識別子で、フィールド602が示す論理CU番号であって、かつフィールド603が示すGDEV番号をもつGDEVに存在するデータが格納される。フィールド606が示す容量には、フィールド603が示すGDEVの容量が格納される。
フィールド604が「−」で表される時、GDEVがこの情報が格納されたストレージシステム10内に割り当てられていることを表す。一方、フィールド604にストレージシステム識別子が格納されている時、GDEVのデータが、フィールド604が示す異なるストレージシステムのLDEVに格納されていることを示す。その場合、フィールド605と606の情報は、フィールド604が示すストレージシステムで管理するため、ここでは使用せず「−」となっている。
図7は、本発明に係るストレージシステムの容量管理情報の一例を示している。仮想ストレージシステム識別子701が示す仮想ストレージシステム100のデータを格納できる容量の上限値が、フィールド702に格納される。この容量管理情報をメモリ13にテーブルとして保持するストレージシステム10において、新たにGDEV120のデータを書き出すLDEV領域を確保する際、GDEV120が属する仮想ストレージシステム100のために確保した領域の合計容量がフィールド702の値を超える場合には、データ書き出しを抑止する。
図8は、本発明に係るストレージシステムの論理CUアクセス頻度管理情報の一例を示している。ストレージシステム10に割り当てた仮想ストレージシステム100の論理装置を管理するテーブルで、各ストレージシステム10内のメモリ13に格納され、各エントリが、仮想ストレージシステム識別子801、論理CU番号802、GDEV番号803、ストレージシステム識別子804、アクセス数805およびアクセス数測定期間806の各フィールドから構成される。
仮想ストレージシステム識別子フィールド801に格納された仮想ストレージシステム100の、論理CU番号フィールド802に格納された論理CUの、GDEV番号フィールド803に格納されたGDEVのデータに対してアクセスされた回数が、フィールド805に格納される。フィールド806には、フィールド805が示すアクセス回数を測定する期間が格納される。フィールド804が「−」で表される時、GDEVがこの情報が格納されたストレージシステム10内に割り当てられていることを表す。一方、フィールド804にストレージシステム識別子が格納されている時、GDEVのデータが、フィールド804が示す異なるストレージシステムのLDEVに格納されていることを示す。その場合、フィールド805と806の情報は、フィールド804が示すストレージシステムで管理するため、ここでは使用せず「−」となっている。
図9は、本発明に係るストレージシステムの構成情報の一例を示している。計算機システム1が有するストレージシステム10を管理するテーブルで、各ストレージシステム10内のメモリ13に格納され、各エントリが、ストレージシステム識別子フィールド901、記憶容量フィールド902、プロセッサ性能フィールド903およびキャッシュ容量フィールド904から構成される。
ストレージシステム識別子フィールド901には、ストレージシステム10を特定する製品番号が格納される。記憶容量フィールド902には、フィールド901が示すストレージシステム10の記憶装置17のサイズが格納される。プロセッサ性能フィールド903には、プロセッサ性能を示すクロック数やコア数が格納される。キャッシュ容量フィールド904には、キャッシュサイズが格納される。
図10は、実施例1によるGDEV割当て先の選択処理手順を示すフローチャートである。GDEV割当て先選択処理では、論理装置割当て管理部300において、仮想ストレージシステム100のGDEV120を割当てるストレージシステム10を選択する。
まず、ステップS1010で、管理者等から管理サーバ30へのGDEV割当て要求を受けて、仮想ストレージシステム識別子VDKCと論理CU番号とGDEV番号を論理装置割当て管理部300が受信する。
次に、ステップS1020で、論理装置割当て管理部300は、受信した論理CU番号がすでに仮想ストレージシステムに割り当てられているか否かを、図5の仮想ストレージシステムの論理CU割当て情報を用いて判断する。すなわち、仮想ストレージシステム識別子フィールド501に対象のVDKCが格納され、論理CU番号フィールド502に対象の論理CUが格納されているエントリがあり、フィールド503から505のいずれかにストレージシステム識別子が格納されていれば、対象論理CUは割当て済みであると判断できる。
ステップS1020で、論理装置割当て管理部300は、対象論理CUが割当て済みではない(No)と判断すると、ステップS1030で、割当て済み論理CU数の少ないまたは未使用の記憶容量が多いストレージシステムRDKCを選択する処理を実行する。これには、まず、論理CU数に関しては、図5の仮想ストレージシステムの論理CU割当て情報を用い、対象のVDKCに関係するエントリのフィールド503から505に格納されたストレージシステム識別子が、最も少ないRDKCを選択する。また、未使用の記憶容量に関しては、各RDKCが有する図6のストレージシステムの論理CU割当て情報を用い、対象のVDKCに関係するエントリのフィールド606のGDEVの容量として最も少ない容量割当てがなされているRDKCを選択する。
続いて、ステップS1040で、論理装置割当て管理部300は、先のステップS1030で選択したストレージシステムRDKCに、VDKCの論理CUとGDEVの割当てを要求する。ステップS1040の要求を受けたRDKCは、図11に示す論理CU割当て処理プログラムLCUAPを実行する。この論理CU割当て処理プログラムLCUAPについては後述する。
その後、論理装置割当て管理部300は、上記割当て処理を実行したストレージシステムRDKCから論理CUとGDEVの割当てが成功したことを受信したら、ステップS1050で、図5の仮想ストレージシステムの論理CU割当て情報を更新する。ここでは、フィールド501がVDKCのエントリを追加し、フィールド502に対象の論理CU番号を、フィールド503に対象のRDKCをそれぞれ格納する。上記割当て処理を実行したストレージシステムRDKCで論理CUとGDEVの割当てに失敗した場合には、論理装置割当て管理部300は、ステップS1030で異なるRDKCを選択し直して、ステップS1040を実行する。
一方、論理装置割当て管理部300は、ステップS1020で、対象CUが割当て済みである(Yes)と判断すると、ステップS1021で、割当て先のストレージシステムRDKCが複数あるかどうか判断する。これには、図5の仮想ストレージシステムの論理CU割当て情報を用いる。すなわち、仮想ストレージシステム識別子フィールド501に対象のVDKCが格納され、論理CU番号フィールド502に対象の論理CUが格納されているエントリがあり、フィールド503から505に少なくとも2つのストレージシステムRDKCの識別子が格納されていれば、対象論理CUが複数のストレージシステムRDKCに割当て済みであると判断できる。
ステップS1021で、論理装置割当て管理部300は、対象論理CUが複数のストレージシステムRDKCに割り当てられていない(No)と判断すると、ステップS1023で、対象論理CUを割当て済みのストレージシステムRDKCにGDEVの追加割当てを要求する。
一方、論理装置割当て管理部300は、ステップS1021で、対象論理CUの割当て先RDKCが複数ある(Yes)と判断すると、ステップS1022で、割当て済み論理CU数の少ないまたは未使用の記憶容量が多い方のストレージシステムRDKCを選択する処理を実行する。これには、まず、論理CU数に関しては、図5の仮想ストレージシステムの論理CU割当て情報を用い、対象のVDKCと論理CU番号が格納されているエントリのフィールド503から505に格納されたストレージシステム識別子が、別のエントリのフィールド503から505に格納されているエントリ数を比較し、最も少ないRDKCを選択する。また、未使用の記憶容量に関しては、各ストレージシステムRDKCが有する図6のストレージシステムの論理CU割当て情報を用い、対象のVDKCと論理CU番号が格納されているエントリのフィールド606のGDEVの容量として最も少ない容量割当てがなされているスRDKCを選択する。
続いて、論理装置割当て管理部300は、上記したステップS1023を実行して、ストレージシステムRDKCからGDEVの割当て結果を受信し、ステップS1023によるGDEVの割当てに失敗したときには、論理CUの割当て先が他にもある場合にはステップS1022とステップS1023を繰り返す。
次に、ステップS1024で、論理装置割当て管理部300は、論理CUを割当て済みのストレージシステムRDKCに新たなGDEVを追加できたかどうか判断する。GDEVの追加に成功すれば(Yes)、ステップS1075で、対象論理CUを割当てているすべてのストレージシステム10に、上記選択したRDKCにその対象論理CUの対象GDEVを割当てたことを通知する。ステップS1075の通知を受けたストレージシステム10は、図6のストレージシステムの論理CU割当て情報にエントリを追加し、フィールド601にVDKCを、フィールド602に対象論理CU番号を、フィールド603に対象GDEV番号を、フィールド604にRDKCを、それぞれ格納する。その後、論理装置割当て管理部300は、ステップS1050で管理情報を更新し、処理を終了する。
一方、論理装置割当て管理部300は、ステップS1024で、GDEVの割当てに失敗した(No)と判断すると、ステップS1060で、GDEV割当てスペース確保処理を実行する。
このステップ1060のGDEV割当てスペース確保処理のフローについては、図20を用いて説明する。
論理装置割当て管理部300は、ステップS2010で、対象の論理CUが割り当てられているストレージシステムRDKCに高アクセス頻度のGDEVがあるかどうか問い合わせる。この問い合わせを受けたRDKCは、図8のストレージシステムの論理CUアクセス頻度管理情報において、フィールド801が対象VDKCで、フィールド802が対象論理CUであるエントリに関し、そのフィールド805とフィールド806で表すアクセス頻度が、あらかじめ決めていたしきい値を超えているかどうかにより判断する。
論理装置割当て管理部300は、ステップS2010で、高アクセス頻度のGDEVを割当てたストレージシステムRDKCがない(No)と判断すると、ステップS2020で、論理CUを追加するRDKCを選択する。これは、どのGDEVもアクセス頻度が高くないため、複数のRDKCに論理CUを横断して配置することによるI/O要求のストレージシステム間転送が発生することが許容されるとみなし、論理CUを割当てるRDKCを新たに追加する。ここにおいても、例えば、VDKCの論理CUの割当て数が少ないRDKCを選択する。
また、図4の仮想ストレージシステムを構成するストレージシステムの接続情報を用いて、VDKCに割当て済みのRDKCとの帯域が高いRDKCを選択することもできる。例えば、VDKCがRDKC1とRDKC2に割当てられている場合、追加するRDKCとしてRDKC3かRDKC4を選択できるところ、これらのRDKCの中からRDKC1とRDKC2との帯域が高いRDKC3を選択する。
続いて、ステップS2030で、論理装置割当て管理部300は、先のステップS2020で選択したストレージシステムRDKCに、論理CUの追加とGDEVの割当てを要求する。
一方、論理装置割当て管理部300は、ステップS2010で、高アクセス頻度のGDEVがある(Yes)と判断すると、ステップS2040で、低アクセス頻度のGDEVのみを持つ別の論理CUがRDKCに割当てられているかどうか判断する。
論理装置割当て管理部300は、低アクセス頻度の別論理CUがある(Yes)と判断すると、ステップS2050で、その別論理CUのGDEVを移行するための追加先RDKCを選択する。ここでは、その別論理CUに割り当てられたGDEVの性能要求が高くないと判断し、別論理CUを複数RDKCに分散配置してGDEVを別RDKCに追い出すことで、割当て対象のGDEVのスペースを確保することにする。
次に、論理装置割当て管理部300は、ステップS2060で、追加先RDKCに別論理CUの追加とGDEVの移行を要求し、ステップS2070で、別論理CUのGDEVを移行することにより、割当て対象のGDEVのスペースを空ける。
一方、ステップS2040で、論理装置割当て管理部300は、低アクセス頻度の別論理CUがない(No)と判断すると、ステップS2080で、割当て対象論理CU内でアクセス頻度が少ないGDEVと移行先RDKCを選択する。これは、アクセス頻度の少ないGDEVを別のRDKCに移行して外部接続ボリュームとすることにより、割当て対象GDEVのスペースを確保するためである。
ここでは、対象論理CUを割当て済みのRDKCからアクセス頻度情報を受取り、最もアクセス頻度が低いGDEVを移行対象とする。また、移行先には、例えば、論理CUの割当て数が少ないRDKCか、RDKCから割当て済みGDEVの合計容量情報を受取り、最も割当て容量が少ないRDKCを選択する。
次に、論理装置割当て管理部300は、ステップS2090で、選択したRDKCにアクセス頻度の少ないGDEVの移行を要求し、ステップS2095で、アクセス頻度の少ないGDEVの移行元RDKCにGDEVの移行を要求することにより、割当て対象のGDEVのスペースを空ける。
こうして、GDEV割当てスペースを確保すると、ステップS2030で、論理装置割当て管理部300は、スペースを確保したRDKCに論理CUとGDEVの割当てを要求する。
以上により、仮想ストレージシステム100のGDEV120を割当てるストレージシステム10を選択することができる。
図11は、実施例1によるGDEV割当て処理手順を示すフローチャートである。これは、論理CU割当てプログラムLCUALP(図2)による処理であり、ストレージシステム10のストレージコントローラ11が、論理装置割当て管理部300から論理CU110の割当て要求を受け取ったときに開始する。
まず、ステップS1110で、ストレージコントローラ11は、論理装置割当て管理部300から、仮想ストレージシステム識別子VDKCと論理CU番号とGDEV番号とGDEVに割当てるサイズを受信する。
次に、ステップS1120で、ストレージコントローラ11は、指定のサイズを追加することでVDKCに割当てられる容量に不足を生じさせるかを判断する。ここでは、図6のストレージシステムの論理CU割当て情報と、図7のストレージシステムの容量管理情報を用いる。ストレージコントローラ11は、フィールド601が対象VDKCであるエントリのフィールド606の容量を加算し、そこに指定のサイズを追加した値が、フィールド701が対象VDKCであるエントリのフィールド702の上限値を超えるかどうか判断する。
ストレージコントローラ11は、ステップS1120で、容量を超える、すなわち容量不足となる(Yes)と判断したときには、ステップS1125で、GDEVを割当てられないことを要求元に返信し、処理を終了する。
一方、ストレージコントローラ11は、ステップS1120で、容量を超えない、すなわち容量不足ではない(No)と判断したときには、続くステップS1130で、対象論理CUがストレージシステム10に割当て済みであるかどうかを判断する。ここでストレージコントローラ11は、図6のストレージシステムの論理CU割当て情報を用い、フィールド601が対象VDKCであるエントリのフィールド602に対象論理CU番号が格納されているか否かを調べる。
ストレージコントローラ11は、ステップS1130で、論理CUは割当て済み(Yes)と判断したときには、ステップS1160で、対象GDEVをLDEV170に割当て、図6のストレージシステム論理CU割当て情報に対象VDKCのエントリを追加し、フィールド602に対象論理CU番号を、フィールド603に対象GDEV番号を、フィールド605に割当て先LDEV番号を、フィールド606に対象GDEVのサイズを、それぞれ格納する。
一方、ストレージコントローラ11は、ステップS1130で、論理CUは未割当(No)と判断したときには、ステップS1140で、対象論理CUを割当てる。ここでは、図6のストレージシステムの論理CU割当て情報にエントリを追加し、フィールド601に対象VDKCを、フィールド602に対象論理CU番号をそれぞれ格納する。また、論理CU110はキャッシュの使い方や稼働状態を示す制御情報を管理することになっているため、ストレージコントローラ11は、その制御情報を格納する領域をメモリ13またはLDEV170に確保する。
続いて、ステップS1150で、ストレージコントローラ11は、ホスト計算機20に対して、VDKCの論理CUへの論理パスを追加できることを通知する。ここでは、例えばCU始動再構成機能(Control Unit Initiated Reconfiguration:CUIR)を用いる。論理CUへのパスを追加できることに気付いたホスト計算機20は、論理パス制御プログラム22(図2)により、新たな論理CUへの論理パスを有効にするコマンドを実行することができる。
最後に、ステップS1160で、ストレージコントローラ11は、上記のGDEVの割当て情報の追加格納を実行して処理を終了する。
以上により、ストレージシステム10に論理CU110とGDEV120を割当てることができる。
図12は、実施例1による論理パス生成要求を受けた場合に行われる処理手順を示すフローチャートである。これは、論理パス生成プログラムLPATHP(図2、図19)の処理であり、ストレージシステム10のストレージコントローラ11が、ホスト計算機20から論理CU110への論理パス生成要求を受け取ったときに開始する。
まず、ステップS1210で、ストレージコントローラ11は、ホスト計算機20から論理パスを生成する仮想ストレージシステム識別子と論理CU番号を受信する。
続いて、ステップS1220で、ストレージコントローラ11は、自らに対象となる仮想ストレージシステム識別子の論理CU番号が割当てられているか否か判断する。
ストレージコントローラ11は、ステップS1220で、対象論理CUが割当てられていない(No)と判断したときには、ステップS1225で、論理パスを生成できないことをホスト計算機20に返信する。
一方、ストレージコントローラ11は、ステップS1220で、対象論理CUが割当てられている(Yes)と判断したときには、ステップS1230で、通常の論理パス設定を処理する。
以上により、ストレージシステム10に仮想ストレージシステムの論理CUが割り当てられている場合のみ、論理パスを生成することができる。
図13は、実施例1によるストレージシステム10がアクセス要求を受けた場合に行われる処理手順を示すフローチャートである。これは、GDEV管理プログラムGDEVP(図2、図19)の処理であり、ストレージシステム10のストレージコントローラ11が、ホスト計算機20からGDEV120への入出力要求を受け取ったときに開始する。
まず、ステップS1310で、GDEV120への入出力要求を受け取ったストレージコントローラ11は、この入出力要求のアクセス先である仮想ストレージシステム識別子と論理CU番号とGDEV番号を取得する。
続いて、ステップS1320で、ストレージコントローラ11は、入出力要求の対象となる論理CUがストレージシステム10に割当てられているか判断する。
ストレージコントローラ11は、ステップS1320で、対象論理CUが割当てられていない(No)と判断したときには、ステップS1330で、入出力エラーをホスト計算機20に返信する。ここでストレージコントローラ11は、ホスト計算機に論理CUが未割当てであることに起因するデバイス異常状態を検出したことを示すデバイス状態バイトを送り、GDEVアクセス要求処理を終了する。
一方、ストレージコントローラ11は、ステップS1320で、対象論理CUが割当てられている(Yes)と判断したときには、続くステップS1340で、対象GDEVが割当てられているか判断する。ここでは、図6のストレージシステムの論理CU割当て情報を用いる。フィールド601にVDKCが、フィールド602に対象論理CU番号が、フィールド603に対象GDEV番号が格納され、フィールド605に割当て先LDEV番号が格納されている場合において、ストレージコントローラ11は、対象GDEVが割当てられていると判断する。
ストレージコントローラ11は、ステップS1340で、対象GDEVが割当てられている(Yes)と判断したとき、ステップS1350で、対象GDEVの割当て先のLDEVをアクセスする。
続いて、ステップS1360で、ストレージコントローラ11は、図8のストレージシステムの論理CUアクセス頻度管理情報における対象GDEVのエントリのフィールド805(アクセス数)を更新する。
一方、ストレージコントローラ11は、ステップS1340で、対象GDEVが割当てられていない(No)と判断したとき、ステップS1370で、対象GDEVが割当てられているストレージシステム10(RDKC)への経路を取得する。ここでは、図6のストレージシステムの論理CU割当て情報における対象GDEVのエントリのフィールド604(ストレージシステム識別子)に格納されているストレージシステム10を取得する。
続いて、ステップS1380で、ストレージコントローラ11は、対象GDEVが割当てられているストレージシステム10(RDKC)に対して入出力要求を送る。ここでの入出力要求とは、パスグループ情報とステップS1310で取得した情報を含むGDEVアクセス要求コマンドのことである。
入出力要求を受けたRDKCからGDEVが割り当てられているRDKCにコマンドを送信し、GDEVが割り当てられているRDKCはホストに直接応答する。直接応答する場合は、パスグループ230の空いている論理パスを用いてチャネル21にアクセス結果を送る。
一方で、GDEVが割り当てられているRDKCにパスグループ230の論理パスがない場合には、入出力要求を受けたRDKCは、GDEVにアクセスし、アクセス結果をホストに応答する。この場合は、入出力要求が入ってきたルートを逆にたどり、入出力要求を介したRDKCを経由してホストに応答を返すことになる。
上により、GDEVへのアクセス要求を、対象GDEVが割り当てられたストレージシステム10で処理することができる。
図14は、実施例1による論理CU制御情報取得要求を受けた場合に行われる処理手順を示すフローチャートである。これは、論理CU情報制御プログラムLCUCP(図2)の処理であり、ストレージシステム10のストレージコントローラ11が、ホスト計算機20から論理CU110の制御情報取得要求を受け取ったときに開始する。制御情報取得要求とは、例えば、READ SUBSYSTEM DATAコマンドである。
まず、ステップS1410で、ストレージコントローラ11は、ホスト計算機20から制御情報取得対象の論理CU番号を受取る。
続いて、ステップS1420で、ストレージコントローラ11は、対象論理CU割当て先の各ストレージシステム10から対象論理CUの制御情報を取得する。ここでストレージコントローラ11は、図6のストレージシステムの論理CU割当て情報を用いて、対象論理CUが割当てられている別のストレージシステム10を取得し、それらのストレージシステム10すべてに論理CU制御情報取得要求を転送する。
次に、ステップS1430で、ストレージコントローラ11は、各ストレージシステム10から取得した対象論理CU制御情報のすべてを統合する。ここでの統合とは、例えば、各ストレージシステム10から取得した論理CUの稼働管理情報を加算することである。
最後に、ステップS1440で、ストレージコントローラ11は、統合した論理CU制御情報をホスト計算機20に返信し、処理を終了する。
以上により、ストレージコントローラ11は、複数のストレージシステム10に割当てた論理CUの制御情報を、仮想ストレージシステムの1つの論理CUの制御情報として、ホスト計算機20に渡すことができる。
図15は、実施例1によるチャネルパス再接続の処理手順を示すフローチャートである。チャネルパス再接続とは、メインフレーム(MF)であるホスト計算機の入出力命令によるコマンドチェイン実行の途中で、一旦論理パスを切り離し、次の再接続時に、命令を発行した論理パスを含む同一パスグループ230内の任意の論理パスと再接続を行い、コマンドチェインの続行を可能とする機能である。
例えば、ディスクの回転待ち完了時に、パスグループ230内の少なくとも1つの論理パスが動作中でなければチャネル21との再接続が可能となり、続くコマンドの処理を開始することができるため、入出力完了までの時間を短縮できる。
まず、ステップS1510で、ホスト計算機20は、切り離す前の論理パスのパスグループ230を取得する。ここでは、切断中の入出力要求のパスグループ230の情報をストレージシステム10が保持しているものとする。
続いて、ステップS1520で、ホスト計算機20は、この処理をしているストレージシステム10に、先のステップS1510で取得したパスグループ230の論理パスが設定されているかどうか判断する。
ホスト計算機20は、ステップS1520で、パスグループ230の論理パスがある(Yes)と判断したら、続くステップS1530で、それらの論理パスの中に空いているものがあるか判断する。
ホスト計算機20は、ステップS1530で、空きの論理パスがある(Yes)と判断した場合には、ステップS1550で、この処理をしているストレージシステム10からその論理パスを用いてチャネル21に再接続要求を送る。
一方、ホスト計算機20は、ステップS1530で、空きの論理パスがない(No)と判断した場合には、ステップS1540で、パスグループ230の論理パスのいずれかが空くまで待ち、その後に空きが出るとステップS1550を実行する。
また、ホスト計算機20は、ステップS1520で、ストレージシステム10内にパスグループ230の論理パスがない(No)場合には、ステップS1560で、同一パスグループ230の論理パスを持つ別ストレージシステム10(RDKC)を選択する。
続いて、ステップS1570で、ホスト計算機20は、先のS1560で選択した別ストレージシステム10(RDKC)にチャネルパス再接続要求を送る。ここでホスト計算機20は、別ストレージシステム10(RDKC)からチャネルパス再接続失敗の連絡を受けた場合には、ステップS1560で、さらに別ストレージシステム10(RDKC)を選択してステップS1570を繰り返す。
以上により、仮想ストレージシステム100におけるチャネルパス再接続において、ホスト計算機20は、入出力要求を受けたストレージシステム10ではなく、アクセス先のGDEV120が割り当てられたストレージシステム10の論理パスで再接続することにより、続くコマンドの処理を開始するまでの時間を短縮することができる。
以上のように、実施例1によれば、複数のストレージシステムで仮想ストレージシステムを構成し、仮想ストレージシステムの論理CUとGDEVを仮想ストレージシステム内のデータ転送を削減するように割当てて、ホスト計算機からアクセスすることができる。
実施例2は、実施例1または後述する実施例4における計算機システムの構成において、ストレージシステム間のパス障害発生時に、仮想ストレージシステムの入出力性能を劣化させないようにする実施形態である。
図16は、実施例2におけるパス障害が発生した仮想ストレージシステムの論理構成例を示す図である。RDKC1からRDKC4が仮想ストレージVDKC2を構成しているものとする。
正常時の構成例(a)は、ホスト計算機からRDKC1とRDKC2に論理CU2が割当てられていることを示す。RDKC1で受けた入出力要求のアクセス先GDEVがRDKC2にある場合、RDKC1からRDKC2に入出力要求を転送する。
パス障害時の構成例(b)は、RDKC1とRDKC2の間のパスで障害が発生したため、RDKC1で受けた入出力要求を、RDKC3を経由してアクセス先GDEVがあるRDKC2に転送することを示す。この場合、RDKC1は、RDKC1に接続しているRDKC3とRDKC4から1つを選び、選んだRDKC3にRDKC2の論理CU2のGDEVに転送するよう要求する。RDKC1からRDKC2への転送を受けたRDKC3は、RDKC3と転送先のRDKC2が直結していればRDKC2に転送する。もし、RDKC2が直結していなければ、転送元および経由してきたRKDCとは異なるRDKCに、転送元RDKC1および経由しているRDKC識別情報RDKC3とともに、RDKC2への順次転送を要求する。
CU移動後の構成例(c)は、論理CU2をRDKC3とRDKC4に移動し、それらの論理パスで入出力要求を受けることを示す。論理CU2からアクセス先GDEVのあるRDKC1またはRDKC2へは、直結のRDKC間パスを用いることができる。
図17は、実施例2におけるストレージシステム(RDKC)間のパス障害発生時の処理手順を示すフローチャートである。
まず、ステップS1700で、ストレージシステム10がパス障害を検知する。ここでは、例えば、図16のRDKC1がRDKC2との間のパス障害を検知する。
続いて、ステップS1705で、RDKC1は、論理装置割当て管理部300に、RDKC2間のパスで障害が発生したことを通知する。
次に、ステップS1710で、論理装置割当て管理部300は、このパス障害の通知を受信する。以降のステップは、論理装置割当て管理部300における処理となる。
続いて、ステップS1720で、論理装置割当て管理部300は、図4の仮想ストレージシステムを構成するストレージシステムの接続情報にパス障害情報を格納する。ここでは、RDKC1とRDKC2の間のパス障害の場合として、論理装置割当て管理部300は、フィールド402のRDKC1の列とフィールド413のRDKC2の行の交わるフィールドの値を、障害を示す情報に変更する。その結果、仮想ストレージシステムを構成するストレージシステムの接続情報は、図18に示すパス障害時の仮想ストレージシステムの構成情報に変更される(図18で、フィールド402のRDKC1からの破線矢印が示すフィールドにおいて、取消し線にて変更されたことを示す)。
次に、ステップS1730で、論理装置割当て管理部300は、ストレージシステム間のパス障害の影響を受ける論理CUがあるかどうか判断する。ここで論理装置割当て管理部300は、図5の仮想ストレージシステムの論理CU割当て情報を用いて、障害が発生したパスで接続された双方のストレージシステムに生成された論理CUであるか否か判断する。フィールド503からフィールド505に、RDKC1とRDKC2が格納されているエントリ513があるため、フィールド501とフィールド502に格納された情報から、VDKC2の論理CU番号2の論理CUがパス障害の影響を受けると判断する。
ステップS1730で、論理装置割当て管理部300は、影響を受ける論理CUはない(No)と判断すると、処理を終了する。
一方、論理装置割当て管理部300は、ステップS1730で、影響を受ける論理CUがある(Yes)と判断すると、ステップS1740で、影響を受ける論理CUがあるストレージシステムと直結し、かつパス障害の影響を受けないストレージシステムを選択する。図18の例では、RDKC1と直結しているストレージシステムがRDKC3とRDKC4の2つであることがわかる。また、RDKC3とRDKC4のどちらも、論理CU番号2の論理CUが割当てられているRDKC2にも直結していることがわかるため、論理CUの移動先としてそれらが候補となる(図18の実線矢印により、RDKC3が、RDKC1に直結されていること、および、RDKC2と直結していることを示す)。
次に、ステップS1750で、論理装置割当て管理部300は、論理CU番号2の論理CUの移動先ストレージシステムをストレージシステム間の帯域情報を用いて決める。例えば、論理装置割当て管理部300は、RDKC1との帯域が高いRDKC3に、RDKC1にある論理CU番号2の論理CUを移動し、残るRDKC4にRDKC2にある論理CU番号2の論理CUを移動するよう決める。
続いて、ステップS1760で、論理装置割当て管理部300は、先のステップS1750で選択した移動先ストレージシステムに論理CUの追加を要求する。ここで要求を受けた移動先ストレージシステムは、論理CU割当て処理プログラムLCUALP(図2)により論理CUを追加する(図11の処理)。
さらに、ステップS1770で、論理装置割当て管理部300は、障害パスに接続しているストレージシステムに論理CUの削除を要求する。ここで要求を受けた移動元ストレージシステムは、論理CUを削除する。例えば、RDKC1は論理CU番号2の論理CUを削除し、図6と図8でVDKC2のエントリの論理CU番号が「2」のフィールドを、「2(ただし削除)」を表す情報に変更する。
次に、ステップS1780で、論理装置割当て管理部300は、図5の仮想ストレージシステムの論理CU割当て情報を更新する。例えば、論理装置割当て管理部300は、エントリ513のフィールド503からRDKC1を削除し替わりにRDKC3を格納し、エントリ513のフィールド504からRDKC2を削除し替わりにRDKC4を格納する。
以上により、パス障害の影響を受ける論理CUを、GDEVのあるストレージシステムに直結するストレージシステムに移動することができる。また、GDEVを論理CUの移動先ストレージシステムに移行することにより、さらに性能を向上することも可能である。
このようにして、実施例2によれば、ストレージシステム間のパス障害発生時に、仮想ストレージシステムの入出力性能を劣化させないように、論理CUの割当てを変更することができる。
実施例3は、実施例1または後述する実施例4において、仮想ストレージシステムのボトルネックを検出し、ストレージシステムに割当て済みの論理CUを別のストレージシステムに移動するための実施形態である。論理装置割当て管理部300は、論理CU110の配置をストレージシステム10の負荷に合わせて、仮想ストレージシステムを構成する複数のストレージシステム10に論理CU110を割当てる。
図19は、実施例3におけるリソース使用状態に合わせて論理CUを移動する処理手順を示すフローチャートである。
まず、ステップS1910で、論理装置割当て管理部300がリソース使用状態をチェックする仮想ストレージシステム100を選択する。ここでは、図3の仮想ストレージシステムの構成情報のフィールド301に格納されている仮想ストレージシステム識別子VDKCを選択する。
続いて、ステップS1915で、論理装置割当て管理部300は、先のステップS1910で選択したVDKCを構成するストレージシステム10から、VDKCのリソース使用率を取得する。ここで論理装置割当て管理部300は、図3の仮想ストレージシステムの構成情報のVDKCのエントリのフィールド302から305に格納されているストレージシステム10から収集する。
次に、ステップS1920で、論理装置割当て管理部300は、先のステップS1915で取得したリソース使用率を用いて、高負荷のリソースを検出する。続くステップS1921で、論理装置割当て管理部300は、検出した負荷の高いリソースのうち、どの負荷を軽減するかを判断し決定する。例えば、論理CUを割当てたRDKC数が1つならば、ホスト計算機20とストレージシステム10の間のフロントエンドI/F14の負荷を軽減することにする。一方、論理CUを割当てたRDKC数が2以上の場合には、RDKC数が最も多い論理CUの、負荷が最も高いRDKC間のデータ転送を減らすことにする。
その結果、次に、ステップS1925で、論理装置割当て管理部300は、ホスト計算機20とストレージシステム10の間のフロントエンドI/F14の負荷を軽減することにしたか否かを判断し、ホスト計算機20とストレージシステム10の間の負荷の軽減ではない(No)ならばステップS1945に進む。一方、論理装置割当て管理部300は、ホスト計算機20とストレージシステム10の間の負荷の軽減である(Yes)と判断したならば、ステップS1930で、ストレージシステム10に割当てた論理CU110を追加可能な別のストレージシステム10(以下、「RDKC」と略す)を選択する。
ここでは、図3の仮想ストレージシステムの構成情報と、図5の仮想ストレージシステムの論理CU割当て情報を用いて、論理装置割当て管理部300は、VDKCに割当てられているRDKCのうち、論理CUを割当てていないRDKCを選ぶ。該当するRDKCが複数ある場合には、図4のRDKC間接続情報と図9のストレージシステムの構成情報を用いて選択する。選択基準は、RDKC間の帯域(図4)、および、プロセッサ性能2003とキャッシュ容量2004(図9)が十分であることである。
続いて、ステップS1935で、論理装置割当て管理部300は、先のステップS1930で選択したRDKCに論理CUの追加を要求する。この要求を受けたRDKCは、論理CU割当て処理プログラムLCUALP(図2)を処理して論理CUを割当て(図11の処理)、図6および図8の各情報に論理CUを追加する。
次に、ステップS1940で、論理装置割当て管理部300は、追加した論理CUを割当てている別のRDKCに、先のステップS1935で論理CUを追加したことを通知する。例えば、論理装置割当て管理部300は、VDKC2の論理CU2をRDKC3に追加した場合、元々論理CU2を割当てていたRDKC1とRDKC2に通知する。この通知を受けたRDKCは、図6および図8の各情報にエントリを追加し、フィールド601および801にVDKCを、フィールド602および802に論理CU番号を格納する。また、フィールド604に追加したRDKCの識別子を格納するが、追加したRDKCにGDEVが割当てられていないため、フィールド603および803、フィールド605および805、ならびにフィールド606および806は、空情報である。
続いて、ステップS1945で、論理装置割当て管理部300は、RDKC間のフロントエンドI/F14の負荷を軽減することにしたか否かを判断する。ここで、論理装置割当て管理部300は、RDKC間の負荷の軽減でない(No)と判断すると、ステップS1975による後述する情報更新を経て処理を終了する。一方、論理装置割当て管理部300は、RDKC間の負荷の軽減である(Yes)と判断した場合には、ステップS1950で、高負荷のフロントエンドI/F14で接続されたRDKCの双方に割当てのある論理CU120があるか判断する。ここで論理装置割当て管理部300は、図5の仮想ストレージシステムの論理CU割当て情報を用いて判断する。
論理装置割当て管理部300は、ステップS1950で、双方のRDKCともに割当てられている論理CU120がない(No)と判断すれば、ステップS1975による後述する情報更新を経て処理を終了する。一方、論理装置割当て管理部300は、ステップS1950で、双方に割当てられている論理CU120がある(Yes)と判断すれば、ステップS1955で、論理CUを集約可能なRDKCを選択する。ここで論理装置割当て管理部300は、高負荷のフロントエンドI/F14で接続されたRDKCのうち、ホスト計算機20とRDKC間のフロントエンドI/F14の負荷が高くなく、GDEV割当て容量の残量が多く、図9からプロセッサ性能やキャッシュ容量が十分であるRDKCを選択する。
続いて、ステップS1960で、論理装置割当て管理部300は、先のステップS1955で条件に合うRDKCが選択できたかどうか判断する。RDKCを選択できない(No)時には、論理CUを集約しても性能向上の見込みがないため、論理装置割当て管理部300は、ステップS1975による後述する情報更新を経て処理を終了する。一方、論理装置割当て管理部300は、RDKCを選択できた(Yes)時には、ステップS1965で、選択したRDKCに別RDKCからのGDEVの移行を要求する。この要求を受けたRDKCは、移行してくるGDEVのデータを格納するLDEVを確保し、図6のフィールド604から606および図8のフィールド804の各情報を更新する。
次に、ステップS1970で、論理装置割当て管理部300は、移行元RDKCに、集約先RDKCへの論理CUとGDEVの移行を要求する。この要求を受けた移行元RDKCは、GDEVのデータを集約先RDKCへコピーし、図6および図8の各情報から移行した論理CUのエントリを削除する。
最後に、ステップS1975で、論理装置割当て管理部300は、図5の仮想ストレージシステムの論理CU割当て情報を更新し、そして処理を終了する。ここで論理装置割当て管理部300は、集約した論理CUのエントリのフィールド503から505の中から、移行元RDKCの情報を削除する。
以上のように、実施例3によれば、フロントエンドI/F14の負荷に合わせて論理CUとGDEVの割当てを変更し、仮想ストレージシステムの入出力性能を向上させることができる。
実施例4のストレージシステムは、実施例1の仮想ストレージシステム100を構成するストレージシステム10のストレージコントローラ11が、データ通信ユニット19を保持し、データ通信ユニット19間でデータ転送を行うことにより、仮想ストレージシステム100の入出力性能を向上させる実施形態である。また、実施例1に係る図10〜図15に示す各フローチャート、および、実施例2乃至実施例3に係る図17と図19に示す各フローチャートに基づく処理は、実施例4のストレージシステムにおいても実行されるものである。
図21は、実施例4におけるデータ通信ユニット19を有するストレージコントローラ11の概略構成を示すブロック図である。
データ通信ユニット19は、フロントエンドI/F14に接続するローカルルータ190と、プロセッサ12および他のストレージシステムと接続するスイッチ191と、バッファ192を備えて構成される。ローカルルータ190は、フロントエンドI/F14とバッファ192の間のデータ転送、バッファ192とプロセッサ12の間のデータ転送およびバッファ192と他のストレージシステム10の間のデータ転送を制御する。
バッファ192は、実施例1におけるストレージコントローラ11のメモリ13に格納されていた、論理パス生成要求を処理する論理パス生成プログラムLPATHPおよびGDEV120のアクセス要求を処理するGDEV管理プログラムGDEVPを保持する。
ローカルルータ190は、フロントエンドI/F14から仮想ストレージシステム100への論理パス生成要求を受けると、論理パス生成プログラムLPATHPを実行して、論理パス生成対象の論理CU110が割当てられているかを判断し、割当てられていなければ論理パス生成不可を返答する。
また、ローカルルータ190は、フロントエンドI/F14から仮想ストレージシステム100への入出力要求を受けると、GDEV管理プログラムGDEVPを実行して、アクセス先の論理CU110とGDEV120の割当て先がLDEVか別RDKCかを判断し、別RDKCならばそのストレージコントローラ11に入出力要求を転送する。
以上のように、実施例4によれば、論理パス生成要求およびGDEV入出力要求をストレージコントローラ11のプロセッサ12に替わってローカルルータ190で処理するため、別ストレージシステムに割当てた論理CUへのデータをデータ通信ユニット間で転送する。これにより、ストレージコントローラ11のプロセッサ12の負荷を減らすことができ、よって仮想ストレージシステムの性能を向上させることができる。
1…計算機システム
10…ストレージシステム
11…ストレージコントローラ
12…プロセッサ
13、33…メモリ
14…フロントエンドI/F
15…バックエンドI/F
16…管理I/F
17…記憶装置
19…データ通信ユニット
20…ホスト計算機
21…チャネル
30…管理サーバ
100…仮想ストレージシステム
110…論理コントロールユニット(論理CU)
120…グローバルデバイス(GDEV)
170…論理デバイス(LDEV)
190…ローカルルータ
200…装置定義情報
210…サブチャネル
220…チャネルパス識別子
230…パスグループ
300…論理装置割当て管理部

Claims (14)

  1. 少なくとも1台のホスト計算機とネットワークを介して接続される複数のストレージシステムと、
    前記ホスト計算機からの論理パスを受ける単位である論理コントロールユニットおよび当該論理コントロールユニットを介して前記ホスト計算機が認識するボリュームを、前記複数のストレージシステムから構成する仮想ストレージシステムに割当てる論理装置割当て管理部と
    を備え、
    前記論理装置割当て管理部は、
    前記ボリュームの割当て要求時に、前記論理コントロールユニットの前記仮想ストレージシステムへの割当て情報に基づいて、割当て済みの論理コントロールユニット数が少ないまたは未使用の記憶容量が多いストレージシステムに対して、前記論理コントロールユニットの割当ておよび前記ボリュームの生成を要求する
    ことを特徴とする計算機システム。
  2. 請求項1記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記論理コントロールユニットが前記仮想ストレージシステムに割当て済みである場合には、当該仮想ストレージシステムを構成するストレージシステムに対して前記ボリュームの生成を要求する
    ことを特徴とする計算機システム。
  3. 請求項2記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記割当て済みである仮想ストレージシステムを構成するストレージシステムが複数である場合には、割当て済みの論理コントロールユニット数が少ないまたは未使用の記憶容量が多いストレージシステムを選択する
    ことを特徴とする計算機システム。
  4. 請求項1記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記ボリュームの生成を要求されたストレージシステムの未使用の記憶容量が前記ボリュームを生成するのに十分でない場合には、当該ストレージシステム内の負荷の低い別の論理CUおよびボリュームを別のストレージシステムに移動する
    ことを特徴とする計算機システム。
  5. 請求項1記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記論理コントロールユニットが割当て済みのストレージシステムの未使用の記憶容量が前記ボリュームを生成するのに十分でない場合には、当該割当て済みのストレージシステム内のアクセス頻度の低いボリュームを前記論理コントロールユニットの割当てのないストレージシステムに移行することを、当該割当てのないストレージシステムに対して要求する
    ことを特徴とする計算機システム。
  6. 請求項1記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記論理コントロールユニットが割当て済みの前記ストレージシステムの未使用の記憶容量が前記ボリュームを生成するのに十分でない場合には、前記複数のストレージシステム間の帯域が十分なストレージシステムに対して前記論理コントロールユニットの追加および前記ボリュームの生成を要求する
    ことを特徴とする計算機システム。
  7. 請求項1記載の計算機システムであって、
    前記複数のストレージシステムのそれぞれは、
    前記論理パス生成する要求を受け取ると、当該論理パス生成する対象となる前記論理コントロールユニットが自らのストレージシステムに割当てのない場合には当該要求を受け付けない
    ことを特徴とする計算機システム。
  8. 請求項1記載の計算機システムであって、
    前記複数のストレージシステムのそれぞれは、
    前記ボリュームへの入出力要求を受け取ると、当該要求対象ボリュームおよび当該要求対象ボリュームに対応する論理コントロールユニットが自らのストレージシステムに割当てがあるか否か判断し、
    前記論理コントロールユニットの割当てがない場合には入出力エラーとし、
    前記論理コントロールユニットの割当てはあるが前記要求対象ボリュームの割当てがない場合には、前記要求対象ボリュームの割当てのあるストレージシステムへ前記入出力要求を転送する
    ことを特徴とする計算機システム。
  9. 請求項1記載の計算機システムであって、
    前記複数のストレージシステムのそれぞれは、
    前記ホスト計算機から前記論理コントロールユニットの制御情報の取得要求を受け取ると、当該要求の対象となる論理コントロールユニットが割当てられている別のストレージシステムに対しても当該要求を転送し、当該要求の対象となる論理コントロールユニットが割当てられているすべてのストレージシステムの前記制御情報を収集し統合して前記ホスト計算機に返信する
    ことを特徴とする計算機システム。
  10. 請求項1記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記仮想ストレージシステムのリソース使用率の収集情報から、
    前記ホスト計算機と前記複数のストレージシステム間においてリソース使用率の高いストレージシステムを検出し、該検出したストレージシステムに割当てた論理コントロールユニットを該論理コントロールユニットの割当てがなくリソース使用率に余裕のある別のストレージシステムに追加することを当該別のストレージシステムに対して要求する、
    または、前記複数のストレージシステム相互間においてリソース使用率の高いストレージシステムを検出し、該検出したストレージシステム双方に割当てた論理コントロールユニットをリソース使用率の低い方のストレージシステムに集約するために、リソース使用率の高い方のストレージシステムに対して当該論理コントロールユニットの削除を要求する
    ことを特徴とする計算機システム。
  11. 請求項10記載の計算機システムであって、
    前記論理装置割当て管理部は、
    前記リソース使用率の低い方のストレージシステムに前記論理コントロールユニットを集約する際に、前記リソース使用率の高い方のストレージシステムに割当てたボリュームを前記リソース使用率の低い方のストレージシステムに移行することを、前記ストレージシステム双方に対して要求する
    ことを特徴とする計算機システム。
  12. 少なくとも1台のホスト計算機と、
    ネットワークと、
    前記ネットワークを介して前記ホスト計算機に接続される複数のストレージシステムと、
    前記ホスト計算機からの論理パスを受ける単位である論理コントロールユニットおよび当該論理コントロールユニットを介して前記ホスト計算機が認識するボリュームを、前記複数のストレージシステムから構成する仮想ストレージシステムに割当てる論理装置割当て管理部と
    を備え、
    前記論理装置割当て管理部は、
    同一仮想ストレージシステム内のストレージシステム間のパス障害の通知を受信し、
    前記パス障害が同一論理コントロールユニットを割り当てたストレージシステム間である場合には、前記同一仮想ストレージシステム内で前記パス障害の影響を受けないストレージシステムに対して、当該ストレージシステムへの前記同一論理コントロールユニットの移動を要求する
    ことを特徴とする計算機システム。
  13. ホスト計算機からの論理パスを受ける単位である論理コントロールユニットおよび当該論理コントロールユニットを介して前記ホスト計算機が認識するボリュームを複数のストレージシステムから構成する仮想ストレージシステムに割当てる論理装置割当て方法であって、
    前記ボリュームの割当て要求に対して、前記論理コントロールユニットの前記仮想ストレージシステムへの割当て情報を参照し、割当て済みの論理コントロールユニット数が少ないまたは未使用の記憶容量が多いストレージシステムを選択するステップと、
    前記選択したストレージシステムに前記論理コントロールユニットの割当ておよび前記ボリュームの生成を要求するステップと
    を有することを特徴とする論理装置割当て方法。
  14. 請求項13記載の論理装置割当て方法であって、
    前記仮想ストレージシステムのリソース使用率を収集するステップと、
    前記収集したリソース使用率の情報を基に、前記ホスト計算機と前記複数のストレージシステム間においてリソース使用率の高いストレージシステムを検出し、該検出したストレージシステムに割当てた論理コントロールユニットを該論理コントロールユニットの割当てがなくリソース使用率に余裕のある別のストレージシステムに追加することを当該別のストレージシステムに対して要求するステップと、
    前記収集したリソース使用率の情報を基に、前記複数のストレージシステム相互間においてリソース使用率の高いストレージシステムを検出し、該検出したストレージシステム双方に割当てた論理コントロールユニットをリソース使用率の低い方のストレージシステムに集約するために、リソース使用率の高い方のストレージシステムに対して当該論理コントロールユニットの削除を要求するステップと
    を有することを特徴とする論理装置割当て方法。
JP2016506067A 2014-03-07 2014-03-07 計算機システム Active JP6261716B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/056058 WO2015132973A1 (ja) 2014-03-07 2014-03-07 計算機システム

Publications (2)

Publication Number Publication Date
JPWO2015132973A1 JPWO2015132973A1 (ja) 2017-04-06
JP6261716B2 true JP6261716B2 (ja) 2018-01-17

Family

ID=54054803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016506067A Active JP6261716B2 (ja) 2014-03-07 2014-03-07 計算機システム

Country Status (4)

Country Link
US (1) US10452292B2 (ja)
JP (1) JP6261716B2 (ja)
CN (1) CN105814533B (ja)
WO (1) WO2015132973A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160119541A (ko) * 2015-04-06 2016-10-14 삼성전자주식회사 데이터 저장 장치와 이를 포함하는 데이터 처리 시스템
JP6835474B2 (ja) * 2016-02-26 2021-02-24 日本電気株式会社 ストレージ装置の制御装置、ストレージ装置の制御方法、およびストレージ装置の制御プログラム
CN108762672B (zh) * 2018-05-23 2022-03-11 新华三技术有限公司成都分公司 分布式存储设备、方法及级联模块
JP6878369B2 (ja) * 2018-09-03 2021-05-26 株式会社日立製作所 ボリューム配置管理装置、ボリューム配置管理方法、及びボリューム配置管理プログラム
US11178251B2 (en) * 2020-02-17 2021-11-16 Slack Technologies, Inc. Methods, apparatuses and computer program products for managing organization connections in a group-based communication system
JP7036866B2 (ja) * 2020-06-19 2022-03-15 株式会社日立製作所 情報処理装置及び方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433948B2 (en) * 2002-01-23 2008-10-07 Cisco Technology, Inc. Methods and apparatus for implementing virtualization of storage within a storage area network
JP4230410B2 (ja) * 2004-05-11 2009-02-25 株式会社日立製作所 仮想ストレージの通信品質制御装置
JP4806556B2 (ja) * 2005-10-04 2011-11-02 株式会社日立製作所 ストレージシステム及び構成変更方法
JP2007199975A (ja) 2006-01-26 2007-08-09 Hitachi Ltd データ処理システム及びデータ処理方法
JP4892289B2 (ja) * 2006-07-07 2012-03-07 株式会社日立製作所 複数のストレージ装置を含むストレージシステム
JP4963892B2 (ja) * 2006-08-02 2012-06-27 株式会社日立製作所 仮想ストレージシステムの構成要素となることが可能なストレージシステムの制御装置
JP5087249B2 (ja) * 2006-09-06 2012-12-05 株式会社日立製作所 ストレージシステムおよびストレージシステムの制御方法
JP4958641B2 (ja) * 2007-05-29 2012-06-20 株式会社日立製作所 記憶制御装置及びその制御方法
JP5026375B2 (ja) * 2008-09-09 2012-09-12 株式会社日立製作所 ストレージ装置及びストレージ装置の制御方法
US7934026B2 (en) * 2008-09-17 2011-04-26 International Business Machines Corporation Apparatus and method to preserve one or more logical communication paths in a data processing system
CN102209952B (zh) * 2009-02-20 2014-07-16 株式会社日立制作所 存储系统和用于操作存储系统的方法
JP5478107B2 (ja) * 2009-04-22 2014-04-23 株式会社日立製作所 仮想ストレージ装置を管理する管理サーバ装置及び仮想ストレージ装置の管理方法
US8819230B2 (en) * 2011-11-05 2014-08-26 Zadara Storage, Ltd. Virtual private storage array service for cloud servers

Also Published As

Publication number Publication date
CN105814533B (zh) 2018-11-13
CN105814533A (zh) 2016-07-27
US10452292B2 (en) 2019-10-22
JPWO2015132973A1 (ja) 2017-04-06
US20170220285A1 (en) 2017-08-03
WO2015132973A1 (ja) 2015-09-11

Similar Documents

Publication Publication Date Title
JP6261716B2 (ja) 計算機システム
US9569245B2 (en) System and method for controlling virtual-machine migrations based on processor usage rates and traffic amounts
US8984221B2 (en) Method for assigning storage area and computer system using the same
JP5830599B2 (ja) 計算機システム及びその管理システム
JP5877552B1 (ja) ストレージシステム及びリソース割当て方法
JP5973089B2 (ja) ストレージシステムの移行方式および移行方法
EP3179373A1 (en) Storage management method, storage management device and storage apparatus
WO2013160944A1 (en) Provisioning of resources like cpu or virtual machines or virtualized storage in a cloud computing environment
JP7467593B2 (ja) リソース割振り方法、記憶デバイス、および記憶システム
CN104142853A (zh) 虚拟机存储资源部署方法和装置
US11416396B2 (en) Volume tiering in storage systems
WO2015198441A1 (ja) 計算機システム、管理計算機、および管理方法
JP2015532734A (ja) 物理ストレージシステムを管理する管理システム、物理ストレージシステムのリソース移行先を決定する方法及び記憶媒体
WO2015078193A1 (zh) 存储空间的管理方法和存储管理装置
JP5987104B2 (ja) 計算機システム、ストレージシステムの管理システム及び管理方法
JP2020086849A (ja) 計算機システム及び計算機システムのボリューム配置方法。
JP6558011B2 (ja) 管理装置、スイッチ装置、優先度管理方法、およびコンピュータ・プログラム
US12019885B2 (en) Information processing system and configuration management method including storage nodes connected by network
US20230205439A1 (en) Information processing system and configuration management method
JP7332488B2 (ja) ストレージシステム及びストレージシステムの制御方法
US11080215B1 (en) Host device providing automated prediction of change intervals to reduce adverse impacts on applications
US11256446B1 (en) Host bus adaptor (HBA) virtualization aware multi-pathing failover policy
US20240134799A1 (en) Multiple-instance write cache for a storage system
WO2016166867A1 (ja) 計算機システム、及び、リソース制御方法
JP2016119110A (ja) ストレージシステム及びリソース割当て方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171212

R150 Certificate of patent or registration of utility model

Ref document number: 6261716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150