JP2022124054A - ストレージシステム、ストレージ装置及びストレージ装置管理方法 - Google Patents

ストレージシステム、ストレージ装置及びストレージ装置管理方法 Download PDF

Info

Publication number
JP2022124054A
JP2022124054A JP2021021588A JP2021021588A JP2022124054A JP 2022124054 A JP2022124054 A JP 2022124054A JP 2021021588 A JP2021021588 A JP 2021021588A JP 2021021588 A JP2021021588 A JP 2021021588A JP 2022124054 A JP2022124054 A JP 2022124054A
Authority
JP
Japan
Prior art keywords
storage device
policy
volume
storage
failover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021021588A
Other languages
English (en)
Inventor
和衛 弘中
Kazuei Hironaka
彰 出口
Akira Deguchi
司 柴山
Tsukasa Shibayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021021588A priority Critical patent/JP2022124054A/ja
Priority to US17/472,416 priority patent/US11586516B2/en
Publication of JP2022124054A publication Critical patent/JP2022124054A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2069Management of state, configuration or failover
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/85Active fault masking without idle spares

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)

Abstract

【課題】ストレージ装置の状態に応じた適正な運用を実現すること。【解決手段】ネットワーク経由で接続されたホストに第1のボリュームを提供する第1のストレージ装置と、前記第1のボリュームのリモートコピー先である第2のボリュームを含む複数のボリュームを提供する第2のストレージ装置とを有するストレージシステムであって、前記第2のストレージ装置の前記第2のボリューム及び他の前記複数のボリュームのサービス品質に係る規定群であるポリシーセットを複数記憶する記憶部と、前記第1のボリューム及び前記第2のストレージ装置の状態に応じて、複数の前記ポリシーセットから使用するポリシーセットを選択するポリシー選択部とを備えたことを特徴とする。かかる構成及び動作によれば、フェイルオーバーの前後や、縮退の有無などに応じたポリシーセットを選択して、ストレージ装置の運用を適正に行うことができる。【選択図】図9

Description

本発明は、ストレージシステム、ストレージ装置及びストレージ装置管理方法に関する。
企業内で利用されるストレージシステムでは、一般的に1以上の装置を冗長に構成し、システムの可用性や信頼性を向上させて運用される。
特許文献1には、可用性を向上させることができるストレージシステムが開示される。特許文献1によれば、第1のストレージ装置の第1のボリュームと、第2のストレージの第2のボリュームとは同一のボリュームとしてホストに提供される。この結果、ホストからは、前記第1のボリュームと第2のボリュームは違う経路を経由して接続される同一のボリュームとして認識することができる。
特許文献2には、第1のストレージ装置の第1のボリュームと第2のストレージ装置の第2のボリュームとがそれぞれ同じ仮想IDをホスト計算機に応答するHighAvailability(HA)ペア構成が開示されている。
特許文献2によれば、第1ストレージ装置または第2ストレージ装置が、仮想IDをコピー先として指定したデータコピー指示をホストから受信すると、コピー先ボリュームが存在するストレージ装置に応じて、第1ボリュームまたは第2ボリュームのいずれかをコピー元ボリュームとして選択し、コピー元ボリュームからコピー先ボリュームにデータをコピーする。
また、ストレージシステムにおいては、ストレージ装置に接続される特定のホストやボリュームからのアクセスを他のホストやボリュームへのアクセスよりも優先的に処理することにより、一定の帯域や性能といったサービスレベル保証(SLA)を実現するQuality of Service(QoS)機能が広く実装されている。
米国特許出願 第2009/0271582号明細書 国際公開 第2015/189925号
第1のストレージ装置の第1のボリューム(以降、Primary Volume (PVOL)と呼ぶ)と、第2のストレージ装置の第2のボリューム(以降、Secondary Volume (SVOL)と呼ぶ)との間でHAペアを構成することにより、例えば、前記第1のストレージ装置で障害が発生し、前記PVOLへのアクセスが不能となった場合でも、アクセス先ボリュームを前記PVOLから前記SVOLに自動的に切り替え(フェイルオーバー)されることで、ホストはその運用を継続できる。
しかしながら、フェイルオーバーのみを目的として、前記第1のストレージ装置と同一の構成を持つ前記第2のストレージ装置として備えておくことは運用コストが高い。
そこで企業では、前記第2のストレージ装置をより効率的に活用するため、前記第2のストレージ装置はHAペアにおけるフェイルオーバー先として以外にも、前記第1のボリュームのデータバックアップソースとしての利用や、データの参照を目的としたバッチ処理、開発・テストなどの前記第1のストレージ装置や前記PVOLを利用するホストへの影響なく実施されることが好ましい、2次的な目的で活用することで効率化を図る運用がなされる場合がある。
このような運用において、例えば前記PVOLについて、IO性能や帯域を保証するSLAをする目的でQoS設定することを考えた場合、前述の通り、前記第1のストレージ装置の障害発生時においても、前記第2のストレージ装置にフェイルオーバーされることでホストの運用が継続されるフェイルオーバー後の運用を考慮すると、前記PVOLに適用したQoS設定を前記SVOLにおいても同様に適用したいと想定される。
しかし、前記のQoS設定は前記第1のストレージ装置の装置性能や利用状況に基づいて設計されるものであり、たとえ、前記第1のストレージ装置と前記第2のストレージ装置の装置構成が同一だとしても、その利用状況や負荷状況は異なるものであると考えられる。このため、前記第2のストレージ装置において前記のQoS設定を同様に適用しても、フェイルオーバー後に第2のストレージ装置においてQoS設定が意図通りのSLAを満たせるとは限らない。
このため、前記第1のストレージ装置から前記第2のストレージ装置へフェイルオーバーする場合において、前記第1のストレージ装置において実現されるSLAを満たせるよう、前記第2のストレージ装置においてQoSを設定することが求められる。また、フェイルオーバーに限らず、ストレージ装置に部分的な障害が生じた縮退の発生によりストレージ装置の状態が変化した場合にも、かかる変化に応じて適切なQoSの設定を用いることが望ましい。時刻や曜日などでストレージ装置の処理量が異なる場合にも同様である。
そこで、本願発明は、ストレージ装置の状態に応じた適正な運用を実現する技術について開示する。
代表的な本発明のストレージシステムの一つは、ネットワーク経由で接続されたホストに第1のボリュームを提供する第1のストレージ装置と、前記第1のボリュームのリモートコピー先である第2のボリュームを含む複数のボリュームを提供する第2のストレージ装置とを有するストレージシステムであって、前記第2のストレージ装置の前記第2のボリューム及び他の前記複数のボリュームのサービス品質に係る規定群であるポリシーセットを複数記憶する記憶部と、前記第1のボリューム及び前記第2のストレージ装置の状態に応じて、複数の前記ポリシーセットから使用するポリシーセットを選択するポリシー選択部とを備えたことを特徴とする。
また、代表的な本発明のストレージ装置の一つは、ネットワーク経由で接続されたホストにボリュームを提供するストレージ装置であって、前記ボリュームのサービス品質に係る規定群であるポリシーセットを複数記憶する記憶部と、自装置の状態に応じて複数の前記ポリシーセットから使用するポリシーセットを選択するポリシー選択部とを備えたことを特徴とする。
また、代表的な本発明のストレージ装置管理方法の一つは、ネットワーク経由で接続されたホストに第1のボリュームを提供する第1のストレージ装置と、前記第1のボリュームのリモートコピー先である第2のボリュームを含む複数のボリュームを提供する第2のストレージ装置とを管理するストレージ装置管理方法であって、前記第2のストレージ装置の前記第2のボリューム及び他の前記複数のボリュームのサービス品質に係る規定群であるポリシーセットを記憶部に複数格納するステップと、前記第1のボリューム及び前記第2のストレージ装置の状態を判定するステップと、前記第1のボリューム及び前記第2のストレージ装置の状態に応じて、複数の前記ポリシーセットから使用するポリシーセットを選択するステップとを含むことを特徴とする。
本発明によれば、ストレージ装置の状態に応じた適正な運用を実現することができる。前記した以外の課題、構成および効果は、以下の実施例の説明により明らかにされる。
ストレージ装置 HAペア構成におけるフェイルオーバー 管理情報 LDEV管理テーブル HAペア管理テーブル QoSポリシー管理テーブル QoSポリシーGr管理テーブル LDEV稼働情報テーブル HAペアの状態に応じたQoSポリシー自動適用フロー QoSポリシリスク検知フロー
本発明の実施例について、図面を参照して説明する。
なお、以下に説明する実施例は特許請求の範囲に係る発明を限定するものではなく、実施例の中で説明されている要素の組み合わせの全てが発明の解決手段に必須であるとは限らない。また、以下の説明では、「xxxテーブル」、「xxx リスト」、「xxxDB」、「xxxキュー」等の表現で各種の情報を説明することがあるが、各種情報はテーブル、リスト、DB、キュー、等以外のデータ構造で表現されていてもよい。そのため、データ構造に依存しないことを示すため、「xxxのテーブル」、「xxxリスト」、「xxxD B」、「xxxキュー」等を「xxx情報」と称することがある。
さらに、以下の説明では各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。
また、以下の説明では、後述する本発明の実施例は、汎用コンピュータ上で稼動するソフトウエアで実装してもよいし、専用ハードウエア又はソフトウエアとハードウエアの組み合わせで実装してもよい。
また、以下の説明では、「プログラム」を主語として処理を説明することがあるが、プログラムはプロセッサ(例えば、CPU:Central Processing Unit) によって実行されることによって、定められた処理を記憶資源(例えば、メモリ)、通信I/F、ポートを用いて処理を実行するため、プロセッサを主語として説明してもよい。
また、以下の説明では、プログラムを主語として説明された処理は、プロセッサを有する計算機(例えば、計算ホスト、ストレージ装置)が行う処理としてもよい。また、以下の説明では、「コントローラ」の表現で、プロセッサ又はプロセッサが行う処理の一部又は全部を行うハードウエア回路を指してもよい。プログラムは、プログラムソース(例えば、プログラム配布サーバや、計算機が読み取り可能な記憶メディア)から各計算機にインストールされてもよい。この場合、プログラム配布サーバはCPUと記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムを記憶している。そして、配布プログラムをCPUが実行することで、プログラム配布サーバのCPUは配布対象のプログラムを他の計算機に配布する。
また、以下の説明では、「PDEV」は、物理的な記憶デバイスを意味し、典型的には、不揮発性の記憶デバイス(例えば補助記憶デバイス)でよい。PDEVは、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)でよい。ストレージシステムに異なる種類のPDEVが混在していてもよい。
また、以下の説明では、「RAID」は、Redundant Array of Inexpensive Disksの略である。RAIDグループは、複数のPDEV(典型的には同種のPDEV)で構成され、そのRAIDグループに関連付けられたRAIDレベルに従いデータを記憶する。RAIDグループは、パリティグループ(Parity Group : PG)と呼ばれてもよい。パリティグループは、例えば、パリティを格納するRAIDグループのことでよい。
また、以下の説明では、「VOL」はボリュームの略であり、物理的な記憶デバイスまたは、論理的な記憶デバイスでもよい。VOLは、実体的なVOL(RVOL)であってもよいし、仮想的なVOL(VVOL)であってもよい。「RVOL」は、そのRVOLを有するストレージシステムが有する物理的な記憶資源(例えば、1以上のRAIDグループ)に基づくVOLでよい。「VVOL」は、外部接続VOL(EVOL)と、容量拡張VOL(TPVOL)と、スナップショットVOLとのうちのいずれでもよい。EVOLは、外部のストレージシステムの記憶空間(例えばVOL)に基づいており、ストレージ仮想化技術に従うVOLでよい。TPVOLは、複数の仮想領域(仮想的な記憶領域)で構成されており容量仮想化技術(典型的にはThin Provisioning)に従うVOLでよい。
また、以下の説明では、「プール(POOL)」は、論理的な記憶領域(例えば複数のプールVOLの集合)であり、用途ごとに用意されてよい。例えば、プールとして、TPプールと、スナップショットプールとのうちの少なくとも1種類があってよい。TPプールは、複数のページ(実体的な記憶領域)で構成された記憶領域でよい。ストレージコントローラが、ホストシステム(以下、ホスト)から受信したライト要求が指定するアドレスが属する仮想領域(TPVOLの仮想領域)にページが割り当てられていない場合、その仮想領域(ライト先仮想領域)にTPプールからページを割り当てる(ライト先仮想領域にページが割り当て済であってもページが新たにライト先仮想領域に割り当てられてもよい)。ストレージコントローラは、割り当てられたページに、そのライト要求に付随するライト対象データを書き込んでよい。スナップショットプールは、オリジナルのVOLから退避されたデータが格納される記憶領域でよい。1つのプールが、TPプールとしてもスナップショットプールとしても使用されてもよい。「プールVOL」は、プールの構成要素となるVOLでよい。プールVOLは、RVOLであってもよいしEVOLであってもよい。
また、以下の説明では、ホストから認識されるVOL(ホストに提供されるVOL)を「LDEV」と言う。以下の説明では、LDEVは、TPVOL(又はRVOL)であり、プールは、TPプールである。しかし、本発明は、容量拡張技術(Thin Provisioning)が採用されていないストレージ装置にも適用できる。
また、以下の説明では、「PVOL(Primary VOL)」はバックアップ、レプリケーション、スナップショットの元ボリュームとなるLDEVのことであり、「SVOL(Secondary VOL)」はバックアップ、レプリケーション、スナップショット先となるLDEVのことで良い。
以下、本実施形態を詳細に説明する。
図1は、本実施例に係るストレージ装置の構成例を示す。
ストレージ装置100に、ネットワーク110を介して1以上のホスト107が接続されている。また、ストレージ装置100に管理システム108が接続されている。ネットワーク110は例えばFC(Fibre Channel)やiSCSI (Internet Small Computer System Interface)である。
ホスト107は、ホストシステムの略であり、1以上のホストである。ホスト107は、H-I/F ホストインタフェース109を有しており、ホストインタフェース109経由で、アクセス要求(ライト要求又はリード要求)をストレージ装置100に送信したり、アクセス要求の応答(例えば、ライト完了を含んだライト応答、又は、リード対象チャンクを含んだリード応答)を受信したりする。ホストインタフェース109は、例えば、HBA(Host Bus Adapter)又はNIC(Network Interface Card)である。
ストレージ装置100は、複数のドライブ101と、複数のドライブ101に接続されたストレージコントローラ106とを有する。複数のドライブ101を含んだ1以上のRAIDグループが構成されていてよい。
管理システム108は、ストレージ装置100の構成及び状態を管理する。管理システム108、M-I/F 管理インタフェースデバイス120を有しており、管理インタフェースデバイス120が接続される管理ネットワーク111経由で、ストレージ装置100に命令を送信したりその命令の応答を受信したりする。管理インタフェースデバイス120は、例えばNICである。
また、管理システム108はストレージ装置100を管理するサーバやPC上で実行されるソフトウエアで良いし、ストレージ装置100に接続されるホスト107の管理を行うセキュリティアプライアンスやソフトウエアの機能として実装されても良い。
統合管理システム121は、複数の拠点における複数のストレージ装置100の構成及び稼働状態の管理や監視を行う、例えばクラウド119上で実行される管理ソフトウエアである。統合管理システム121は管理ネットワーク111を経由して、管理対象のストレージ装置100と通信し、各々のストレージ装置100の構成情報や稼働情報を収集する。
管理用コントローラ118は、ストレージ装置100を管理するための機能を提供するコントローラであり、管理システム108や統合管理システム121から命令を受信したり、命令へ応答を返信し、管理システム108や統合管理システム121にストレージ装置100の構成情報や稼働情報を送信したり、ストレージ装置100の設定や構成の変更を実行する。管理用コントローラ118は、例えばBaseboard Micro Controller(BMC)である。
ストレージコントローラ106は、F-I/F フロントエンドインタフェース116と、B-I/F バックエンドインタフェース117と、R-I/F レプリケーションインタフェース122と、CM キャッシュメモリ105と、NVRAM(Non-Volatile RAM)104と、プロセッサパッケージ113A及びプロセッサパッケージ113Bと、それらの要素間の通信を中継する中継器112とを有する。中継器112は、例えばバス又はスイッチである。
フロントエンドインタフェース116は、ストレージ装置100に接続されるホスト107と通信するインタフェースであり、例えば、FC(Fibre Channel)やiSCSI(Internet Small Computer System Interface)のインタフェースである。
バックエンドインタフェース117は、ドライブ101と通信するインタフェースである。バックエンドインタフェース117は、E/D回路(暗号化及び復号化のためのハードウェア回路)を含んでいてよい。具体的には、例えば、B-I/Fバックエンドインタフェース117は、SAS(Serial Attached SCSI (Small Computer System Interface)コントローラを含んでいてよく、SASコントローラが、E/D回路を含んでいてよい。
レプリケーションインタフェース122は、複数のストレージ装置100の間においてHA構成を構成する際に用いるインタフェースであり、ネットワーク110を介して、HAを構成する他のストレージ装置100と接続される。レプリケーションインタフェース122は、例えば、FCやiSCSIである。
CMキャッシュメモリ105(例えばDRAM(Dynamic Random Access Memory)には、ドライブ101に書き込まれるデータ又はドライブ101から読み出されたデータがプロセッサパッケージ113により一時格納される。NVRAM104には、電断時にバッテリ(図示せず)から電力を受けたプロセッサパッケージ113によりキャッシュメモリ105内のデータ(例えばダーティデータ(ドライブ101に書き込まれていないデータ))が退避される。
ストレージコントローラ106は、プロセッサパッケージ113A及びプロセッサパッケージ113Bによりクラスタが構成されている。プロセッサパッケージ113A(プロセッサパッケージ113B)は、DRAM115A(DRAM115B)と、CPU114A(CPU114B)とを有する。DRAM115A(DRAM115B)には、CPU114A(CPU114B)に実行される制御プログラム102A(制御プログラム102B)と、CPU114A(CPU114B)により参照又は更新される管理情報103A(管理情報103B)とが格納される。CPU114A(CPU114B)に制御プログラム102A(制御プログラム102B)が実行されることにより、例えば、ストレージ装置100のI/O処理、アドレスの変換処理が実行される。制御プログラム102A(制御プログラム102B)及び管理情報103(管理情報103B)のうちの少なくとも一方が、複数のプロセッサパッケージ113A及びプロセッサパッケージ113Bに共有の記憶領域(例えばCM105)に格納されてもよい。
<HAペア構成におけるフェイルオーバーの例>
図2は、本実施例に係るHAペア構成におけるフェイルオーバーの構成例を示す。
ここでは、複数のストレージ装置100の間で構成したHAペア構成において、フェイルオーバーを行う例を示し、本願技術が解決したい課題について具体例を用いて説明する。
図2は、ストレージ装置100Aとストレージ装置100Bの間において、HAペア構成が構成されており、ストレージ装置100AのPVOL201A及びPVOL201Bが、ペア装置のストレージ装置100BのSVOL200A及びSVOL200Bに各々ペアとして関連付けられている。
また、PVOL201Aに関連付けられたSVOL200A、PVOL201Bに関連付けられたSVOL200B間は、ネットワーク110を介したリモートコピー204により内容が同期される。この際の同期方式はPVOL201A、PVOL201Bへのデータ更新と同期する方式でも良いし、非同期でPVOL201A、PVOL201Bへの更新差分データをSVOL200A、SVOL200Bに反映する方式でも良い。
ここで、一般的な構成例としては、ストレージ装置100Aとストレージ装置100Bは、システムの可用性を考慮して各々の装置が物理的に距離のある拠点にされていても良いし、近接距離、例えば、同じデータセンタ内に同床して設置されていても良い。
また、ストレージ装置100Aでは、ホスト107A、ホスト107Cがストレージ装置100Bでは、ホスト107A、ホスト107D、ホスト107Eがそれぞれ対応するVOLとの間にパスを形成し接続され運用されている。
また、統合管理システム121は管理ネットワーク111を介してストレージ装置100Aおよびストレージ装置100Bの構成情報や性能情報を定期的に監視しており、ストレージ管理者は統合管理システム121を介して各ストレージ装置の状態監視や、統合管理システム121への指示により各ストレージ装置の構成や設定変更を行うことができる。
また、ホスト107Aでは可用性が要求されるような重要なアプリケーションが実行されており、運用の可用性を担保するため、ネットワーク110を介して、ペアを構成するストレージ装置100AのPVOL201AとPVOL201Bおよびストレージ装置100BのSVOL200AとSVOL200Bとの間にアクセス可能なパスが定義される。
通常時ホスト107AはPVOL201AとPVOL201Bにアクセスすることで運用されるが、例えば、ストレージ装置100Aが障害などでPVOL201AやPVOL201Bへのアクセスが不能な場合は、フェイルオーバー205により、ストレージ装置100BのSVOL200AやSVOL200Bへアクセス先を切り替えることにより運用を継続することで可用性を担保した運用がなされる。
ここで、フェイルオーバー205はHAペアを構成するストレージ装置100により障害が検知され、ストレージ装置100Aがホスト107Aに通知することでホスト107Aによりフェイルオーバー205が実行されても良いし、ホスト107Aによる都合でフェイルオーバー205が実行されても良い。
以上のような構成において、例えば、可用性が要求されるような重要なアプリケーションが実行されているホスト107Aに対しては、性能安定性の観点から、そのアクセスに対するI/O帯域やIO Per Second (IOPS) などの一定のサービスレベルを保証したい場合が考えられる。そこで、PVOL201A、PVOL201Bに対してQoSの設定を行うことで、装置を共有するVOL202Cへのアクセスにより、ホスト107Aのアクセスが阻害されることを防ぎ、サービスレベルを一定に保つことを行う。
また、ホスト107Aはフェイルオーバー205を実行することで、そのアクセス先をHAペアであるSVOL200A、SVOL200Bに切り替えることがあるが、その場合においても、PVOL201A、PVOL201Bと同様のサービスレベルをSVOL200A、SVOL200Bにおいて保証したい場合があると考えられる。
しかしながら既に説明した通り、ストレージ装置100Aとストレージ装置100Bは接続されているホストや定義されるVOL数や装置への負荷状況(ワークロード)が異なるため、PVOL201A、PVOL201Bに設定したQoSを同様にSVOL200A、SVOL200Bに設定したとしても、期待するサービスレベルが必ずしも維持されるとは限らない。
また、HAペア構成は正副最低2以上のストレージ装置100を必要とすることから、必然的にその運用コストが高い。このため、運用コストやストレージ装置100の稼働率を高めて運用効率を向上させる目的で、正常時の副側装置(例えば、ストレージ装置100B)においては、実際にフェイルオーバー205が実行されるまでは他の2次的な用途にも活用するような運用がなされる場合が考えられる。
そこで、本発明ではフェイルオーバーの状況に応じた複数種類のQoSポリシーを予め設定しておくことで、HAペア構成における副側装置(例えば、ストレージ装置100B)においてフェイルオーバー205が実際に実行されるまでの間、ホスト107Dやホスト107Eにより、2次的な用途で利用されているVOL202D、VOL202Eなどのアクセスを優先し、一方で、フェイルオーバー205が実行され、ホスト107Aのアクセスがストレージ装置100B側に切り替った場合は、QoSのポリシーを切り替えて適用し、SVOL200A、SVOL200Bのアクセスを優先することで、例えば、ホスト107Aが期待するサービスレベルがフェイルオーバー205の実行後においても維持できるようにQoSを制御する。
また、統合管理システム121により、予め設定された複数種類のQoSポリシーについて、例えば、各ストレージ装置の構成や性能情報などの稼働情報を利用した予測により、フェイルオーバー205実行後にサービスレベルの維持が困難であると判断する場合、ストレージ管理者にリスクを警告または実現可能なQoSポリシーの提案を行うことで、フェイルオーバー205実行後においても、QoSポリシーの不整合やサービスレベル破綻が生じないように制御する。
なお、どのQoSのポリシーを各ストレージ装置100適用するのかを判断するのは、ストレージ装置100自体によって行われても良いし、統合管理システム121により判断し、各ストレージ装置100に対してQoSの設定変更を命令する方式でも良い。
以上のようにして、HAペア構成において、フェイルオーバー205前後の状態を加味して適切なQoSを設定できるようにすることで、システムの安定稼働に必要なサービスレベルと可用性を維持しながら、フェイルオーバー205が実際に生じるまでの間は副側装置における運用効率を高めることができ、システム運用の効率化が図られる。
以下、本実施形態を詳細に説明する。
図3は、本願実施例のストレージ装置における管理情報の構成例を示す。
管理情報103は、複数の管理テーブルを含む。管理テーブルとして、例えば、LDEVに関する情報を保持するLDEV管理テーブル301、HAペア構成を管理する情報を保持するHAペア管理テーブル300、QoSポリシーを管理する情報を保持するQoSポリシー管理テーブル302、複数のQoSポリシーをグループとして管理するための情報を保持するQoSポリシーGr管理テーブル303、LDEV毎の稼働情報を管理するLDEV稼働情報テーブル304、などで構成され、管理情報103A及び管理情報103B間、またはストレージ装置100A及びストレージ装置100B間で少なくとも一部の情報が同期してもよい。
図4は、本願実施例のストレージ装置の管理情報におけるLDEV管理テーブルの構成例を示す。
LDEV管理テーブル301は、「PVOL」や「SVOL」などのLDEV毎にエントリ(レコード)を有する。各エントリーが格納する情報は、LDEV番号400、LDEV容量401、VOL種別402、データ削減有効404、プール番号403、PG番号405および{データ移行対象}である。
LDEV番号400は当該LDEVの識別番号を表す。
LDEV容量401は当該LDEVの容量を表す。
VOL種別402は当該LDEVの種別を表し、(例えば、「RVOL」または「TPVOL」またはスナップショットのSVOLなど)を表す。
データ削減有効404は当該LDEVにおいてデータ圧縮や重複排除といったデータ削減機能が有効かどうかの属性を表す。
プール番号403は、例えば、「EVOL」、「TPVOL」や「SVOL」といった論理的な容量を持つLDEVにおいて、それらのLDEVが関連付けられているプールの識別番号を表し、プール番号403が関連付けられているプール内の領域からデータ格納領域が割り当てられる。一方で、例えば「RVOL」など物理的な容量を持つLDEVにおいては、LDEVがプールに関連付けられることはないため「N/A」となる。
PG番号405は、例えば「RVOL」など、物理的な容量を持つLDEVにおいて、関連付けられたパリティグループ(PG)の識別番号を示し、一方で、例えば「EVOL」、「TPVOL」や「SVOL」といった論理的な容量を持つLDEVでは直接関連付けられるPGは存在しないため、「N/A」となる。
図5は、本願実施例のストレージ装置の管理情報におけるHAペア管理テーブルの構成例を示す。
HAペア管理テーブル300は、HAペア毎にエントリーを有する。各エントリーが格納する情報は、ペア番号500、{利用可能}、PVOLLDEV番号502、ペア装置ID503、SVOLLDEV番号504、同期方式505、ペア状態506、及び仮想ID507といった情報を格納する。
ペア番号500は、ストレージ装置100が管理するHAペアの番号である。PVOLLDEV番号502は、ペアを構成するPVOL201のLDEV番号400である。ペア装置ID503は、PVOLLDEV番号502とペア関係となるSVOL200の属するストレージ装置100を識別するIDである。{SVOLHDEV番号}は、SVOLの属するストレージ装置におけるLDEV番号400である。同期方式505は、ペアを構成するPVOL201とSVOL200のデータを同期するタイミングを指定する情報で、ペアを構成するPVOL201とSVOL200のデータをPVOL201へのデータライトと同期してPVOL201とSVOL200の内容を同期する「SYNC」方式と、PVOLのデータライトとは非同期にPVOL201とSVOL200の内容を同期する「ASYNC」方式などを指定する。ペア状態506は、PVOL201およびSVOL200で構成されるペアの状態を示し、例えば、データを同期したペア状態を構成していれば「PAIR」であり、データを同期していないペアを構成していれば「PSUS」である。仮想ID507は、ペアを構成するPVOL201とSVOL200を同一のLDEVとホスト107が認識することが可能な仮想のLDEVのIDである。
図6は、本願実施例のストレージ装置の管理情報におけるQoSポリシー管理テーブルの構成例を示す。
QoSポリシー管理テーブル302は、QoSのポリシー毎にエントリを有する。各エントリーが格納する情報は、ポリシー番号600、LDEV番号400、IO種別601、最大IOPS602、最小IOPS603、最大帯域604、及び最小帯域605、といった情報を格納する。
ポリシー番号600は、QoSポリシーの管理番号である。LDEV番号400は、ポリシー番号600のQoSポリシーにより制御される対象のLDEVのLDEV番号400を示す。IO種別601は、ポリシー番号600のQoSポリシーにより制御されるIOの種類を指定する情報で、例えばLDEVに対するリードアクセスが制御対象であれば「R」、ライトアクセスが制御対象であれば「W」となる。最大IOPS602は、QoS対象のLDEVに対して許容する最大IOPSを指定する情報で、例えば「5000」であれば毎秒5000回のIO処理を上限にストレージ装置100が処理を行い、超過する場合はIO処理を受け付けないことで、当該LDEVのIO処理が指定された負荷以上ならないように制御するために用いる。最小IOPS603は、QoS対象のLDEVに対して許容する最小IOPSを指定する情報で、例えば「2500」であれば毎秒2500回のIO処理を最小限ストレージ装置100が行うように制御することで、LDEVへのIOアクセスを保証する。最大帯域604は、QoS対象のLDEVに対して許容する最大のIO帯域を指定する情報で、例えば「200MB/s」であれば200MB/sのIO帯域を上限にストレージ装置100が処理を行い、超過する場合はIO処理を受け付けないことで、当該LDEVのIO処理帯域が指定された負荷以上ならないように制御するために用いる。最小帯域605は、QoS対象のLDEVに対して許容する最小のIO帯域を指定する情報で、例えば「50MB/s」であれば50MB/sのIO帯域を最小限ストレージ装置100が行うように制御することで、LDEVへのIOアクセスを保証する。
図7は、本願実施例のストレージ装置の管理情報におけるQoSポリシーGr管理テーブルの構成例を示す。
QoSポリシーGr管理テーブル303は、QoSの適用ポリシーをグループとして一括管理するためのテーブルであり、各エントリーが格納する情報は、ポリシーGr番号700適用条件701、詳細条件703及び適用ポリシー702といった情報を格納する。
ポリシーGr番号700は、複数のQoSポリシーをグループとして一括管理するためのグループ番号である。適用条件701は、当該のQoSポリシーグループを適用する条件を表し、例えば、HAペアにおける正常時の副側装置(ストレージ装置100B)では、正常時に適用するべきQoSポリシーを定義する場合であれば当該フィールドは「HAセカンダリ」であり、フェイルオーバー時においては「HAプライマリ」となる。また、詳細条件703は適用条件701における詳細条件であり、例えば適用条件701が「HAプライマリ」であり、詳細条件703が「CTL正常」であれば、当該装置において、HAペア状態がプライマリであり、CTLが正常な状態で適用するQoSポリシーの定義となる。また、適用条件701および詳細条件703のフィールドは、当該エントリーのQoSポリシーを適用するべき条件を表すものであるので、HAペアの条件に限定される必要はなく、例えばストレージ装置100において生じる各種のイベントや状態、時刻などに応じて様々な条件を定義できて良い。適用ポリシー702は、当該のQoSポリシーグループにより一括適用されるポリシー番号600の集合を表す。
図8は、本願実施例のストレージ装置の管理情報におけるLDEV稼働情報テーブルの構成例を示す。
LDEV稼働情報テーブル304は、タイムスタンプ804が示す時刻毎に対応するLDEV毎の稼働情報を格納するテーブルが対応づいており、ストレージコントローラ106により一定期間のLDEV毎にその稼働情報を各エントリーの値として格納する。各エントリーが格納する情報は、LDEV番号400リードIOPS800ライトIOPS801リード帯域802及びライト帯域803といった情報を格納する。
LDEV番号400は対象のLDEVのLDEV番号400を表す。リードIOPS800は、監視対象のLDEVにおける毎秒のリードIOの処理回数を表す。ライトIOPS801は、監視対象のLDEVにおける毎秒のライトIOの処理回数を表す。リード帯域802は、監視対象のLDEVにおける毎秒のリードIOにより生じるデータ帯域を表す。ライト帯域803は、監視対象のLDEVにおける毎秒のライトIOにより生じるデータ帯域を表す。
<HAペアの状態に応じたQoSポリシー自動適用フロー>
図9は、本願実施例のストレージ装置におけるHAペアの状態に応じたQoSポリシー自動適用フローの処理例を示す。
この処理フローは概して、HAペア構成を構成するストレージ装置100において、HAペアの状態に応じて適切なQoSポリシーを選択して適用するための処理フローである。
ステップ900で、QoSポリシーGr管理テーブル303を参照する。
ステップ901で、ストレージコントローラ106によりHAペアのHA状態をチェックする。その後、ステップ902へ進む。
ステップ902で、自装置にフェイルオーバー205されているかどうかをチェックし、自装置がプライマリ側となっている場合はステップ903へ進み、自装置がセカンダリ側となっている場合はステップ907へ進む。
ステップ903で、ストレージコントローラ106が縮退状態になっているかどうかをチェックし、障害等が生じて縮退状態であればステップ904へ進み、正常であればステップ906へ進む。
ステップ904でQoSポリシーGr管理テーブル303を参照し、適用条件701が“HAプライマリ”で詳細条件703が“CTL縮退”となっている適用ポリシー702を選択する。その後、ステップ905へ進む。
また、ステップ906ではQoSポリシーGr管理テーブル303を参照し、適用条件701が“HAプライマリ”で詳細条件703が“CTL正常”となっている適用ポリシー702を選択する。その後、ステップ905へ進む。
一方、ステップ902で自装置がセカンダリ側であれば、ステップ907で、ストレージコントローラ106が縮退状態になっているかどうかをチェックし、障害等が生じて縮退状態であればステップ908へ進み、正常であればステップ909へ進む。
ステップ908でQoSポリシーGr管理テーブル303を参照し、適用条件701が“HAセカンダリ”で詳細条件703が“CTL縮退”となっている適用ポリシー702を選択する。その後、ステップ905へ進む。
また、ステップ909ではQoSポリシーGr管理テーブル303を参照し、適用条件701が“HAセカンダリ”で詳細条件703が“CTL正常”となっている適用ポリシー702を選択する。その後、ステップ905へ進む。
ステップ905で適用ポリシー702のポリシー番号600に従って各LDEVのQoSを設定する。
<QoSポリシリスク検知フロー>
図10は、本願実施例のストレージ装置におけるQoSポリシリスク検知フローの処理例を示す。
この処理フローは概して、統合管理システム121により実行されるものであり、統合管理システム121は、監視対象のストレージ装置100において構成されているHAペアについて、プライマリ側装置のPVOLにおいて設定されているQoS設定が、セカンダリ側装置のSVOLにおいてフェイルオーバー後に適用されるQoSポリシーとして設定されているかをチェックする。チェックの結果、設定されていない場合は、統合管理システム121は、ストレージ管理者に警告をし、前記PVOLにおいて設定されているQoS設定をSVOLのフェイルオーバー後に適用されるQoSポリシーにとして設定する。また、統合管理システム121は、前記フェイルオーバー後にセカンダリ側で適用されるQoSポリシーにおけるQoS設定値について、セカンダリ側のストレージ装置の処理能力が十分であるか否かをチェックし、不足であれば警告やQoS設定値の制御を行う。例えば、QoSを設定していないLDEVなどの過去の稼働率を参照し、フェイルオーバー後のQoSポリシーに基づく処理がセカンダリ側のストレージ装置100で利用可能なIO帯域やIOPSを超過する場合は、QoSを設定していない高負荷なLDEVに対してQoSを設定することにより、SVOLへのフェイルオーバー後におけるQoS設定値を実現可能とする。
ステップ1000で、統合管理システム121により監視対象のストレージ装置100におけるHAペア管理テーブル300を参照する。
ステップ1001で、HAペアにおけるPVOLのLDEV番号400を取得する。
ステップ1002で、HAペアにおけるSVOLのLDEV番号400を取得する。
ステップ1003で、HAペアにおけるペア装置ID503を取得する。
ステップ1004で、ペア装置のQoSポリシーGr管理テーブル303を参照し、フェイルオーバー発生後のQoSポリシーを取得する。具体的には、適用条件701が「HAプライマリ」となっているエントリーの適用ポリシー702を取得する。
ステップ1006で、当該SVOLにおけるQoSポリシーをQoSポリシー管理テーブル302から取得する。
ステップ1007で、当該SVOLにおいてQoSポリシーが設定されているかをチェックし、QoSポリシーが未設定であればステップ1005へ進み、設定されていればステップ1008へ進む。
ステップ1008で、ペア装置のLDEV稼働情報テーブル304を参照し、装置における稼働情報を取得する。
ステップ1009で、ペア装置における稼働情報と現在設定されているQoSポリシーGr設定から、各LDEVに対してQoSポリシーで設定されている設定項目(例えば最大/最小IOPSまたはIO帯域)が装置の稼働情報を鑑みて装置能力を超過していないかを判断し、QoSポリシーで設定されている項目が実現可能かを判断する。
ステップ1010で、QoSポリシーで設定されている項目が実現不能、リスクが高いと判断されるである場合はステップ1012へ進み、実現可能と判断される場合は終了する。
ステップ1012で、ペア装置においてQoSが設定されていないLDEVのうち、LDEV稼働情報から稼働率が高い高負荷なLDEVに対してQoSポリシーを設定する。このときのQoSポリシーの決定方法は、例えば当該LDEVの稼働情報における平均値または前記QoSが設定されていないLDEV全体の平均値などに基づき、QoSポリシーGrにより設定されるQoSポリシーが装置能力を超過しない範囲の値を求めればよい。
ステップ1005で、ストレージ管理者にSVOLにおいてQoSが設定されていない旨を警告し、ペア装置にフェイルオーバー後にSVOLにおいてSLAが保証されない旨を警告する。
ステップ1011で、PVOLに設定されているQoSポリシーを同様にSVOLに適用し、ステップ1008~ステップ1010で当該ポリシーが実現可能かをチェックする。
上述してきたように、本実施例に係るストレージシステムは、ネットワーク経由で接続されたホストにボリュームを提供するストレージ装置100を有し、前記ボリュームのサービス品質に係る規定群であるポリシーセットを複数記憶する記憶部と、前記ストレージ装置の状態に応じて複数の前記ポリシーセットから使用するポリシーセットを選択するポリシー選択部とを備える。
かかる構成及び動作により、ストレージ装置の状態に応じた適正な運用を実現することができる。
ここで、ポリシーセットは、QoSポリシーグループに対応する。
また、記憶部は、ストレージ装置100のDRAM115であってもよいし、統合管理システム121が有する記憶領域でもよい。
また、ポリシー選択部は、統合管理システム121であってもよいし、ストレージ装置100のCPU114であってもよい。
また、ストレージシステムは、第1のストレージ装置100Aに障害が発生した場合にストレージ装置100AのPVOL201から第2のストレージ装置100BのSVOL200へのフェイルオーバーを実行する冗長構成を有し、前記記憶部は、前記第2のストレージ装置100Bが前記フェイルオーバーの実行前に用いるポリシーセットと、前記フェイルオーバーの実行後に用いるポリシーセットとを記憶し、前記フェイルオーバーの実行後に用いるポリシーセットでは、前記フェイルオーバーの実行前に用いるポリシーセットに比べて、第2のボリュームに割り当てる性能が高く、他の複数のボリュームへに割り当てる性能が低い。
かかる構成及び動作により、前記第1のストレージ装置と前記第2のストレージ装置との間でHAペアを構成し、前記PVOLにおいてQoSを用いたSLA保証を行う場合において、前記SVOLに対してフェイルオーバーを実施する場合でも、前記PVOLと同等のQoSを用いたSLA保証を前記SVOLにおいて実現することができる。
また、前記第2のストレージ装置が前記フェイルオーバーの実行前に用いるポリシーセットは、前記ホストに係るデータ処理とは独立に行う処理を優先する規定群であり、前記第2のストレージ装置が前記フェイルオーバーの実行後に用いるポリシーセットは、前記ホストに係るデータ処理を優先する規定群である。
かかる構成及び動作により、例えば、前記第2のストレージ装置ではフェイルオーバーが発生するまでの間、2次的な目的で利用するホストやアプリケーションからのIOを優先するようにQoSを設定し、フェイルオーバー後においては、前記SVOLへのIOが優先されるようにQoSを設定することができる。
また、前記ポリシー選択部は、前記第2のストレージ装置の処理能力と、前記第2のストレージ装置が前記フェイルオーバーの実行後に用いるポリシーセットとを比較し、前記第2のストレージ装置の処理能力に不足がある場合に警告を行う。
かかる構成及び動作により、ストレージ管理者はフェイルオーバー時のSLAについてリスクがある場合は、事前に知ることができるため、フェイルオーバー時におけるSLAに起因する障害発生を予防できる。
また、前記ストレージ装置は、コントローラの縮退運用が可能であり、前記記憶部は、前記縮退運用が不要である場合に用いるポリシーセットと前記縮退運用中に用いるポリシーセットとを記憶する。
かかる構成及び動作により縮退の発生によりストレージ装置の状態が変化した場合にも、その変化に応じて適切なQoSの設定を用いることができる。
また、前記記憶部は、時間に応じて異なる複数のポリシーセットを記憶し、前記ポリシー選択部は、その時点に対応したポリシーセットを選択する構成とすれば、時刻や曜日による処理量の変化に応じた適切なQoSの設定を用いることができる。
以上、一実施形態を説明したが、これは本発明の説明のための例示であって、本発明の範囲をこの実施形態のみに限定する趣旨ではない。本発明は他の形態でも実施することが可能である。
100 ストレージ装置、101 ドライブ、102 制御プログラム、103 管理情報、104 NVRAM、105 キャッシュメモリ、106 ストレージコントローラ、107 ホスト、108 管理システム、109 ホストインタフェース、110 ネットワーク、111 管理ネットワーク、112 中継器、113 プロセッサパッケージ、114 CPU、115 DRAM、116 フロントエンドインタフェース、117 バックエンドインタフェース、118 管理用コントローラ、119 クラウド、120 管理インタフェースデバイス、121 統合管理システム、122 レプリケーションインタフェース、200 SVOL、201 PVOL、202 VOL、203 リモートペア、204 リモートコピー、205 フェイルオーバー、300 HAペア管理テーブル、301 LDEV管理テーブル、302 QoSポリシー管理テーブル、303 QoSポリシーGr管理テーブル、304 LDEV稼働情報テーブル、400 LDEV番号、401 LDEV容量、402 VOL種別、403 プール番号、404 データ削減有効、405 PG番号、500 ペア番号、501 利用可能号、502 PVOLLDEV番号、503 ペア装置ID、504 SVOLLDEV番号、505 同期方式、506 ペア状態、507 仮想ID、600 ポリシ番号、601 IO種別、602 最大IOPS、603 最小IOPS、604 最大帯域、605 最小帯域、700 ポリシーGr番号、701 適用条件、702 適用ポリシー703 詳細条件、800 リードIOPS、801 ライトIOPS、802 リード帯域、803 ライト帯域、804 タイムスタンプ

Claims (8)

  1. ネットワーク経由で接続されたホストに第1のボリュームを提供する第1のストレージ装置と、前記第1のボリュームのリモートコピー先である第2のボリュームを含む複数のボリュームを提供する第2のストレージ装置とを有するストレージシステムであって、
    前記第2のストレージ装置の前記第2のボリューム及び他の前記複数のボリュームのサービス品質に係る規定群であるポリシーセットを複数記憶する記憶部と、
    前記第1のボリューム及び前記第2のストレージ装置の状態に応じて、複数の前記ポリシーセットから使用するポリシーセットを選択するポリシー選択部と
    を備えたことを特徴とするストレージシステム。
  2. 前記第1のストレージ装置に障害が発生した場合に前記第1のボリュームから前記第2のボリュームへのフェイルオーバーを実行する冗長構成を有し、
    前記記憶部は、前記第2のストレージ装置が前記フェイルオーバーの実行前に用いるポリシーセットと、前記フェイルオーバーの実行後に用いるポリシーセットとを記憶し、
    前記フェイルオーバーの実行後に用いるポリシーセットでは、前記フェイルオーバーの実行前に用いるポリシーセットに比べて、前記第2のボリュームに割り当てる性能が高く、前記他の複数のボリュームへに割り当てる性能が低い
    ことを特徴とする請求項1に記載のストレージシステム。
  3. 前記第2のストレージ装置が前記フェイルオーバーの実行前に用いるポリシーセットは、前記ホストに係るデータ処理とは独立に行う処理を優先する規定群であり、前記第2のストレージ装置が前記フェイルオーバーの実行後に用いるポリシーセットは、前記ホストに係るデータ処理を優先する規定群であることを特徴とする請求項2に記載のストレージシステム。
  4. 前記ポリシー選択部は、前記第2のストレージ装置の処理能力と、前記第2のストレージ装置が前記フェイルオーバーの実行後に用いるポリシーセットとを比較し、前記第2のストレージ装置の処理能力に不足がある場合に警告を行うことを特徴とする請求項2に記載のストレージシステム。
  5. 前記第1のストレージ装置及び/又は前記第2のストレージ装置は、コントローラの縮退運用が可能であり、
    前記記憶部は、前記縮退運用が不要である場合に用いるポリシーセットと前記縮退運用中に用いるポリシーセットとを記憶する
    ことを特徴とする請求項1に記載のストレージシステム。
  6. 前記記憶部は、時間に応じて異なる複数のポリシーセットを記憶し、
    前記ポリシー選択部は、その時点に対応したポリシーセットを選択する
    ことを特徴とする請求項1に記載のストレージシステム。
  7. ネットワーク経由で接続されたホストにボリュームを提供するストレージ装置であって、
    前記ボリュームのサービス品質に係る規定群であるポリシーセットを複数記憶する記憶部と、
    自装置の状態に応じて複数の前記ポリシーセットから使用するポリシーセットを選択するポリシー選択部と
    を備えたことを特徴とするストレージ装置。
  8. ネットワーク経由で接続されたホストに第1のボリュームを提供する第1のストレージ装置と、前記第1のボリュームのリモートコピー先である第2のボリュームを含む複数のボリュームを提供する第2のストレージ装置とを管理するストレージ装置管理方法であって、
    前記第2のストレージ装置の前記第2のボリューム及び他の前記複数のボリュームのサービス品質に係る規定群であるポリシーセットを記憶部に複数格納するステップと、
    前記第1のボリューム及び前記第2のストレージ装置の状態を判定するステップと、
    前記第1のボリューム及び前記第2のストレージ装置の状態に応じて、複数の前記ポリシーセットから使用するポリシーセットを選択するステップと
    を含むことを特徴とするストレージ装置管理方法。
JP2021021588A 2021-02-15 2021-02-15 ストレージシステム、ストレージ装置及びストレージ装置管理方法 Pending JP2022124054A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021021588A JP2022124054A (ja) 2021-02-15 2021-02-15 ストレージシステム、ストレージ装置及びストレージ装置管理方法
US17/472,416 US11586516B2 (en) 2021-02-15 2021-09-10 Storage system, storage device, and storage device management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021021588A JP2022124054A (ja) 2021-02-15 2021-02-15 ストレージシステム、ストレージ装置及びストレージ装置管理方法

Publications (1)

Publication Number Publication Date
JP2022124054A true JP2022124054A (ja) 2022-08-25

Family

ID=82801357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021021588A Pending JP2022124054A (ja) 2021-02-15 2021-02-15 ストレージシステム、ストレージ装置及びストレージ装置管理方法

Country Status (2)

Country Link
US (1) US11586516B2 (ja)
JP (1) JP2022124054A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5222617B2 (ja) 2008-04-28 2013-06-26 株式会社日立製作所 情報システム及びi/o処理方法
JP6279731B2 (ja) 2014-06-11 2018-02-14 株式会社日立製作所 ストレージシステム、ストレージ装置及びデータ移行方法
US11669320B2 (en) * 2016-02-12 2023-06-06 Nutanix, Inc. Self-healing virtualized file server
US10795867B2 (en) * 2017-11-06 2020-10-06 International Business Machines Corporation Determining available remote storages in a network to use to replicate a file based on a geographical requirement with respect to the file
US11567905B2 (en) * 2019-09-27 2023-01-31 Dell Products, L.P. Method and apparatus for replicating a concurrently accessed shared filesystem between storage clusters
US11210183B2 (en) * 2020-01-14 2021-12-28 Western Digital Technologies, Inc. Memory health tracking for differentiated data recovery configurations
US11379144B2 (en) * 2020-09-29 2022-07-05 EMC IP Holding Company LLC Compliance of replicated data sets

Also Published As

Publication number Publication date
US20220261323A1 (en) 2022-08-18
US11586516B2 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
US9098466B2 (en) Switching between mirrored volumes
US8738975B2 (en) Runtime dynamic performance skew elimination
US20190310925A1 (en) Information processing system and path management method
US9348724B2 (en) Method and apparatus for maintaining a workload service level on a converged platform
US8694749B2 (en) Control method of device in storage system for virtualization
US7941602B2 (en) Method, apparatus and program storage device for providing geographically isolated failover using instant RAID swapping in mirrored virtual disks
US6598174B1 (en) Method and apparatus for storage unit replacement in non-redundant array
US8046446B1 (en) System and method for providing availability using volume server sets in a storage environment employing distributed block virtualization
WO2017162179A1 (zh) 用于存储系统的负载再均衡方法及装置
US11520674B2 (en) Managing containers on a data storage system
US9794342B2 (en) Storage system and control method for storage system
US20120297156A1 (en) Storage system and controlling method of the same
JP2009151519A (ja) ストレージ管理装置、ストレージ管理プログラムおよびストレージシステム
US10782898B2 (en) Data storage system, load rebalancing method thereof and access control method thereof
US11422704B2 (en) Adapting service level policies for external latencies
US9047247B2 (en) Storage system and data processing method
US7886186B2 (en) Storage system and management method for the same
US10642705B2 (en) Storage system and storage method
US11768744B2 (en) Alerting and managing data storage system port overload due to host path failures
JP2022124054A (ja) ストレージシステム、ストレージ装置及びストレージ装置管理方法
US11914904B2 (en) Autonomous storage provisioning