JP2022145964A - 記憶システム及びその制御方法 - Google Patents

記憶システム及びその制御方法 Download PDF

Info

Publication number
JP2022145964A
JP2022145964A JP2022129294A JP2022129294A JP2022145964A JP 2022145964 A JP2022145964 A JP 2022145964A JP 2022129294 A JP2022129294 A JP 2022129294A JP 2022129294 A JP2022129294 A JP 2022129294A JP 2022145964 A JP2022145964 A JP 2022145964A
Authority
JP
Japan
Prior art keywords
storage
program
node
standby
active
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022129294A
Other languages
English (en)
Other versions
JP7419456B2 (ja
Inventor
晋太郎 伊藤
Shintaro Ito
貴大 山本
Takahiro Yamamoto
幸恵 田島
Yukie Tajima
匡邦 揚妻
Masakuni Agetsuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022129294A priority Critical patent/JP7419456B2/ja
Publication of JP2022145964A publication Critical patent/JP2022145964A/ja
Application granted granted Critical
Publication of JP7419456B2 publication Critical patent/JP7419456B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1096Parity calculation or recalculation after configuration or reconfiguration of the system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/142Reconfiguring to eliminate the error
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Abstract

【課題】リソース消費の集中を回避しながら2台以上のストレージノードに障害が生じた場合の可用性を確保する。【解決手段】各冗長化グループが、1つのアクティブプログラム(アクティブプログラムのストレージ制御プログラム)と、N(Nは2以上の整数)のスタンバイプログラムとで構成される。当該Nのスタンバイプログラムの各々には、FO(フェイルオーバー)先として決定される優先順位が関連付けられている。同一冗長化グループにおいてアクティブプログラムから優先順位に基づいてスタンバイプログラムへのFOが行われるようになっている。同一ノードに配置されている複数の冗長化グループにおけるアクティブプログラムとFOによりアクティブに変化するスタンバイプログラムとを含む複数のストレージ制御プログラムについて、それぞれのプログラムをFO先となりうるスタンバイのストレージ制御プログラムがそれぞれ異なるノードに配置されている。【選択図】図6

Description

本発明は、概して、記憶システム及びその制御方法に関し、例えば、それぞれ1又は複数のSDS(Software Defined Storage)が実装された複数のストレージノードを備える情報処理システムに適用して好適なものである。
従来、情報処理システムでは、可用性及び信頼性向上のためにサーバ装置の冗長化構成をとることが多い。
例えば特許文献1には、ある冗長化グループに属する現用系(アクティブ)のストレージ制御ソフトと、別の冗長化グループに属する待機系(スタンバイ)のストレージ制御ソフトとを同じサーバに配置することによって、サーバを効率よく利用しつつストレージ制御ソフトの可用性を高める技術が開示されている。
特開2019-101703号公報
2台以上のサーバに障害が生じた場合の可用性を確保するために、各冗長化グループにおけるスタンバイのストレージ制御ソフトの数を2以上とすること、すなわち、各冗長化グループを構成するストレージ制御ソフトの数を3以上とすることが考えられる。このケースにおいて、2台のサーバが障害を起こした場合、1つのサーバに3つのアクティブのストレージ制御ソフトが動作することがあり得る。結果として、1つのサーバに負荷が集中してI/O性能が落ちるといった問題、及び、メモリ消費が大きくなるといった問題がある。
このような問題を避けるため、2台目のサーバに障害が起きた時に既に2つ動作しているアクティブのストレージ制御ソフトを予め他のサーバに移動しておくという方法が考えられる。しかし、その方法では、ストレージ制御ソフトの移動処理により、障害を起こしたサーバのアクティブ制御ソフトのフェイルオーバーが開始できず、I/O停止時間が伸びる。
別の方法として、ある冗長化グループにスタンバイのストレージ制御ソフトが1つしか残っていない場合、このスタンバイ制御ソフトが存在するサーバにあるアクティブ制御ソフトを予め他のサーバに移動しておく方法が考えられる。しかし、その方法では、ストレージ制御ソフトの移動処理により、障害を起こしていないサーバのI/O性能が低下する。
また別の方法として、サーバに障害が起きた時に、他の各サーバにおけるアクティブのストレージ制御ソフトの数を基に、障害が起きたサーバにおけるアクティブのストレージ制御ソフトを含んだ冗長化グループ内の複数のスタンバイのストレージ制御ソフトのうちのいずれのスタンバイのストレージ制御ソフトをアクティブとするかを選択する方法が考えられる。しかし、その方法では、ストレージノードに障害が起きた時に他の各ストレージにおけるアクティブのストレージ制御ソフトの数を検出するためのノード間通信が必要となり、フェイルオーバーの完了までに時間がかかり、結果として、I/O停止時間が伸びる。
(N+1)のストレージ制御プログラムで構成された各冗長化グループについて、1つのストレージ制御プログラムが、アクティブのストレージ制御プログラムであるアクティブプログラムであり、残りのNのストレージ制御プログラムの各々が、スタンバイのストレージ制御プログラムであるスタンバイプログラムである。当該Nのスタンバイプログラムの各々には、フェイルオーバー先として決定される優先順位が関連付けられている。アクティブプログラムが配置されているストレージノードに障害が生じた場合に当該アクティブプログラムから最先の優先順位のスタンバイプログラムへの当該冗長化グループ内でのフェイルオーバーが行われるようになっている。当該冗長化グループαの配置条件は、冗長化グループαにとっての全ての冗長化グループβのk次以下の影響ノードには当該冗長化グループαにおけるNのスタンバイプログラムのうち高々k個のスタンバイプログラムしか配置されないことである。冗長化グループαにとっての冗長化グループβは、冗長化グループαのm次影響ノードに配置されたアクティブプログラムを含んだ冗長化グループである(mは自然数、且つ、m<N)。冗長化グループαのm次影響ノードは、冗長化グループαにおける優先順位mのスタンバイプログラムが配置されたストレージノードである。冗長化グループαにおけるアクティブプログラムが配置されたストレージノードが0次影響ノードである。冗長化グループαにとっての冗長化グループβにおける優先順位kのスタンバイプログラム(kは自然数、且つ、1≦k≦(N-m))が配置されたストレージノードが、冗長化グループαの(m+k)次影響ノードである。
本発明によれば、リソース消費の集中を回避しながら2台以上のストレージノードに障害が生じた場合の可用性を確保することができる。
第1の実施形態による情報処理システムの構成例を示す。 第1の実施形態によるストレージノードの物理構成例を示す。 第1の実施形態によるストレージノードの論理構成例を示す。 第1の実施形態によるストレージノードに格納されるプログラム及びデータの一例を示す。 第1の実施形態によるストレージ制御部の配置方式の一例を示す。 第1の実施形態によるストレージ制御部の配置の一例を示す。 障害が生じた1台目のストレージノードがストレージノード1であるケースを示す。 障害が生じた2台目のストレージノードがストレージノード3であるケースを示す。 障害が生じた2台目のストレージノードがストレージノード2であるケースを示す。 障害が生じた2台目のストレージノードがストレージノード0であるケースを示す。 第1の実施形態の一比較例を示す。 第1の実施形態の一比較例を示す。 第1の実施形態の一比較例を示す。 第1の実施形態によるストレージ制御部の配置の一例を示す。 第1の実施形態によるストレージ制御部の配置方式の一例を示す。 第1の実施形態によるストレージ制御部の配置の一例を示す。 第2の実施形態によるストレージノードの論理構成例を示す。 第2の実施形態における影響ノードの概念と、ストレージ制御部の配置方法の例とを示す。 第2の実施形態によるストレージ制御部の配置の一例を示す。 第2の実施形態によるストレージ制御部の配置の一例を示す。 第2の実施形態によるストレージ制御部の配置の一例を示す。 第2の実施形態によるストレージ制御部の配置の一例を示す。 第3の実施形態によるストレージ制御部の配置の一例を示す。 第3の実施形態によるストレージ制御部の配置の一例を示す。
以下の説明では、「インターフェース装置」は、1つ以上のインターフェースデバイスでよい。当該1つ以上のインターフェースデバイスは、下記のうちの少なくとも1つでよい。
・1つ以上のI/O(Input/Output)インターフェースデバイス。I/O(Input/Output)インターフェースデバイスは、I/Oデバイスと遠隔の表示用計算機とのうちの少なくとも1つに対するインターフェースデバイスである。表示用計算機に対するI/Oインターフェースデバイスは、通信インターフェースデバイスでよい。少なくとも1つのI/Oデバイスは、ユーザインターフェースデバイス、例えば、キーボード及びポインティングデバイスのような入力デバイスと、表示デバイスのような出力デバイスとのうちのいずれでもよい。
・1つ以上の通信インターフェースデバイス。1つ以上の通信インターフェースデバイスは、1つ以上の同種の通信インターフェースデバイス(例えば1つ以上のNIC(Network Interface Card))であってもよいし二つ以上の異種の通信インターフェースデバイス(例えばNICとHBA(Host Bus Adapter))であってもよい。
また、以下の説明では、「メモリ」は、1つ以上のメモリデバイスであり、典型的には主記憶デバイスでよい。メモリにおける少なくとも1つのメモリデバイスは、揮発性メモリデバイスであってもよいし不揮発性メモリデバイスであってもよい。
また、以下の説明では、「記憶装置」は、1つ以上の永続記憶デバイスでよい。永続記憶デバイスは、典型的には、不揮発性の記憶デバイス(例えば補助記憶デバイス)でよく、具体的には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、NVME(Non-Volatile Memory Express)ドライブ、又は、SCM(Storage Class Memory)でよい。
また、以下の説明では、「プロセッサ」は、1つ以上のプロセッサデバイスでよい。少なくとも1つのプロセッサデバイスは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサデバイスでよいが、GPU(Graphics Processing Unit)のような他種のプロセッサデバイスでもよい。少なくとも1つのプロセッサデバイスは、シングルコアでもよいしマルチコアでもよい。少なくとも1つのプロセッサデバイスは、プロセッサコアでもよい。少なくとも1つのプロセッサデバイスは、処理の一部又は全部を行うハードウェア記述言語によりゲートアレイの集合体である回路(例えばFPGA(Field-Programmable Gate Array)、CPLD(Complex Programmable Logic Device)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサデバイスでもよい。
また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサによって実行されることで、定められた処理を、適宜に記憶装置及び/又はインターフェース装置等を用いながら行うため、処理の主語が、プロセッサ(或いは、そのプロセッサを有するコントローラのようなデバイス)とされてもよい。プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバ又は計算機が読み取り可能な(例えば非一時的な)記録媒体であってもよい。また、以下の説明において、二つ以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが二つ以上のプログラムとして実現されてもよい。
また、以下の説明では、同種の要素を区別しないで説明する場合には、参照符号を使用し、同種の要素を区別して説明する場合は、当該要素に割り振られた識別情報(例えば、符号又は番号)を使用することがある。
以下図面について、本発明の幾つかの実施の形態を詳述する。
(1)第1の実施の形態
(1-1)本実施の形態による情報処理システムの構成
図1は、本実施の形態による情報処理システムの構成例を示す。
この情報処理システムは、例えばファイバーチャネル(Fibre Channel)、イーサネット(登録商標)又はLAN(Local Area Network)などから構成されるネットワーク102を介して相互に接続された複数のホスト装置101と、複数のストレージノード103と、管理ノード104とを備えて構成されている。
ホスト装置101は、ユーザ操作や実装されたアプリケーションプログラムからの要求に応じてストレージノード103に対してリード要求又はライト要求(以下、適宜、これらをまとめてI/O(Input/Output)要求と呼ぶ)を送信する汎用のコンピュータ装置である。なお、ホスト装置101は、仮想マシンのような仮想的なコンピュータ装置であってもよい。
具体的には、例えば、ストレージノード103は、ホスト装置101に対してデータを読み書きするための記憶領域を提供する物理サーバ装置であり、図2に示すように、CPU(Central Processing Unit)1031、メモリ1032、複数の記憶デバイス1033及び通信装置1034を備えて構成される。CPU1031がプロセッサの一例である。複数の記憶デバイス1033が記憶装置の一例である。通信装置1034がインターフェース装置の一例である。
CPU1031は、ストレージノード103全体の動作制御を司るデバイスである。またメモリ1032は、SRAM(Static RAM(Random Access Memory))やDRAM(Dynamic RAM)などの揮発性の半導体メモリから構成され、各種プログラムや必要なデータを一時的に保持するために利用される。メモリ1032に格納されたプログラムをCPU1031が実行することにより、後述のようなストレージノード103全体としての各種処理が実行される。
記憶デバイス1033は、SSD(Solid State Drive)、SAS(Serial Attached SCSI(Small Computer System Interface))ハードディスクドライブ又はSATA(Serial ATA(Advanced Technology Attachment))ハードディスクドライブなどの1又は複数種類の大容量の不揮発性記憶装置から構成され、ホスト装置101(図1)からのライト/リード要求(以下、これをI/O(Input/Output)要求と呼ぶ)に応じてデータをリード/ライトするための物理的な記憶領域を提供する。
通信装置1034は、ストレージノード103がネットワーク102(図1)を介してホスト装置101や、他のストレージノード103又は管理ノード104と通信を行うためのインターフェースであり、例えばNIC(Network Interface Card)やFC(Fibre Channel)カードなどから構成される。通信装置1034は、ホスト装置101、他のストレージノード103又は管理ノード104との通信時におけるプロトコル制御を行う。
管理ノード104は、システム管理者が本情報処理システム全体を管理するために利用するコンピュータ装置である。管理ノード104は、複数のストレージノード103を「クラスタ」と呼ぶグループとして管理してよい。なお、図1では、クラスタが1つのみ設けられた例を示しているが、情報処理システム内に複数のクラスタを設けるようにしてもよい。また、管理ノード104は、例えば、インターフェース装置、記憶装置、メモリ及びそれらに接続されたプロセッサを備えてよい。記憶装置又はメモリが、構成情報51といった情報や、配置制御部53を実現するためのプログラムを記憶してよい。構成情報5は、例えば、ノード毎の識別番号と、後述する冗長化グループ毎の識別番号とを含んでよい。プロセッサがプログラムを実行することで配置制御部53が実現されてよい。配置制御部53は、構成情報51を基に、いずれのストレージ制御部をいずれのストレージノード103に配置するかを決定し、ストレージ制御部を配置先として決定されたストレージノード103に配置してよい。配置制御部53が構成情報51を基に自動でストレージ制御部を配置することに代えて、ユーザ(例えば管理者)からの操作に応答して配置制御部53がストレージ制御部を配置してもよい。
図3は、ストレージノード103の論理構成例を示す。
この図3に示すように、各ストレージノード103は、フロントエンドドライバ1081及びバックエンドドライバ1087と、1又は複数のストレージ制御部1083と、容量制御部1086とを備える。
フロントエンドドライバ1081は、通信装置1034(図2)を制御し、ストレージ制御部1083に対してホスト装置101、他のストレージノード103又は管理ノード104との通信時における抽象化したインターフェースをCPU1031(図2)に提供する機能を有するソフトウェアである。またバックエンドドライバ1087は、自ストレージノード103内の各記憶デバイス1033(図2)を制御し、これら記憶デバイス1033との通信時における抽象化したインターフェースをCPU1031に提供する機能を有するソフトウェアである。
ストレージ制御部1083は、SDS(Software Defined Storage)のコントローラとして機能するソフトウェアであり、ストレージ制御プログラムの一例である。ストレージ制御部1083は、ホスト装置101からのI/O要求を受け付け、当該I/O要求に応じたI/Oコマンドを容量制御部1086に発行する。
本実施の形態の場合、ストレージノード103に実装された各ストレージ制御部1083は、別の2つ以上のストレージノード103に配置された別の2つ以上のストレージ制御部1083と共に冗長構成を構成するグループとして管理される。以下においては、このグループを「冗長化グループ」と呼ぶものとする。
なお図3では、3つのストレージ制御部1083により1つの冗長化グループが構成される場合を示しており、以下においても、3つのストレージ制御部1083(つまり三重化されたストレージ制御部1083)により冗長化グループが構成されるものとして説明を進める。
冗長化グループでは、1つのストレージ制御部1083がホスト装置101からのI/O要求を受け付けることができる状態(現用系の状態であり、以下、これをアクティブモードと呼ぶ)に設定され、残りのストレージ制御部1083の各々がホスト装置101からのリード要求やライト要求を受け付けない状態(待機系の状態であり、以下、これをスタンバイモードと呼ぶ)に設定される。
そして冗長化グループでは、アクティブモードに設定されたストレージ制御部1083(以下、これをアクティブストレージ制御部1083と呼ぶ)やそのアクティブストレージ制御部1083が配置されたストレージノード103に障害が発生した場合などに、それまでスタンバイモードに設定されていたストレージ制御部1083(以下、これをスタンバイストレージ制御部1083と呼ぶ)の状態がアクティブモードに切り替えられる。当該アクティブストレージ制御部1083を含んだ冗長化グループにおいて、アクティブストレージ制御部1083からスタンバイストレージ制御部1083へのフェイルオーバーが行われる。これにより、アクティブストレージ制御部1083が稼働し得なくなった場合に、当該アクティブストレージ制御部1083が実行していたI/O処理を、スタンバイストレージ制御部1083により引き継ぐことができる。
容量制御部1086は、各冗長化グループに対して自ストレージノード103内又は他のストレージノード103内の記憶デバイス1033が提供する物理的な記憶領域を割り当てると共に、ストレージ制御部1083から与えられる上述のI/Oコマンドに従って、指定されたデータを対応する記憶デバイス1033にリード/ライトする機能を有するソフトウェアである。
この場合、容量制御部1086は、冗長化グループに対して他のストレージノード103内の記憶デバイス1033が提供する物理的な記憶領域を割り当てたときには、当該他のストレージノード103に実装された容量制御部1086と協働して、その容量制御部1086との間でネットワーク102を介してデータをやり取りすることにより、その冗長化グループのアクティブストレージ制御部1083から与えられたI/Oコマンドに従ってそのデータをその記憶領域にリード/ライトする。
以上の構成を有する本情報処理システムにおいて、容量制御部1086は、図4に示すように、各ストレージノード103内の記憶デバイス1033がそれぞれ提供する物理的な記憶領域を、それぞれ所定大きさの物理記憶領域(以下、これを物理チャンクと呼ぶ)に分割して管理する。
また容量制御部1086は、各冗長化グループに対してそれぞれ専用のプールを対応付け、これらプールに物理チャンクと同じ大きさの論理的な記憶領域(以下、これを論理チャンク)を適宜割り当て、この論理チャンクに対して1又は複数の物理チャンクを対応付ける。
さらに各冗長化グループのプール上には1又は複数の仮想的な論理ボリューム(以下、これを仮想ボリュームと呼ぶ)が定義され、これらの仮想ボリュームがホスト装置101に提供される。
そしてホスト装置101は、かかる仮想ボリュームにデータをライトする場合、そのデータのライト先の仮想ボリューム(以下、これをライト対象仮想ボリュームと呼ぶ)の識別子(LUN(Logical Number Unit))と、そのライト対象仮想ボリュームにおけるそのデータのライト先の領域(以下、これをライト先領域と呼ぶ)とを指定したライト要求を、対応するクラスタ内のいずれかのストレージノード103に送信する。
このライト要求を受信したストレージノード103のフロントエンドドライバ1081は、受信したライト要求において指定されたライト対象仮想ボリュームとプールを介して対応付けられた冗長化グループのアクティブストレージ制御部1083(図3)又はスタンバイストレージ制御部1083が配置されている各ストレージノード103のフロントエンドドライバ1081にそのライト要求、及び、当該ライト要求と共にホスト装置101から送信されてきたライト対象のデータ(以下、これをライトデータと呼ぶ)を転送する。
また、このライト要求及びライトデータを受領したストレージノード103のフロントエンドドライバ1081は、これらライト要求及びライトデータを、ライト要求において指定されたライト対象仮想ボリュームとプールを介して対応付けられた冗長化グループのストレージ制御部1083に引き渡す。
そして、これらライト要求及びライトデータが引き渡されたストレージ制御部1083のうちのアクティブストレージ制御部1083は、ライト対象仮想ボリューム内のライト先領域に対して、当該ライト対象仮想ボリュームと対応付けられたプールを構成する論理チャンクから必要に応じて記憶領域(以下、これを論理領域と呼ぶ)を割り当てる。
また、かかるアクティブストレージ制御部1083は、ライト要求において指定されたライト対象仮想ボリューム内のライト先領域のアドレスを、そのライト先領域に論理領域を割り当てた論理チャンクのチャンク番号と、当該論理領域のオフセット位置とに変換したI/Oコマンドを生成し、生成したI/Oコマンドをライトデータと共に自ストレージノード103内の容量制御部1086に送信する。
そして容量制御部1086は、このI/Oコマンド及びライトデータを受信すると、当該I/Oコマンドで指定された論理チャンクに対応付けた各物理チャンクをそれぞれ提供する各記憶デバイス1033内のかかるオフセット位置の記憶領域にデータをそれぞれ格納する。
このようにして本情報処理システムでは、ホスト装置101からのデータが対応する論理チャンクに対応付けられた複数の物理チャンクに冗長化されて格納される。このため論理チャンクに割り当てられる物理チャンクの数は、その情報処理システムにおける冗長化方式の設定内容によって決定される。
例えば、データを三重化以上に多重化して記憶する設定の場合や、Erasure-Codingのようにデータから冗長化データを作成して記憶する設定がなされている場合などには、3つ以上の必要な数の物理チャンクが1つの論理チャンクに対応付けられる。
なお1つの論理チャンクに複数の物理チャンクが対応付けられ、これら複数の物理チャンクにデータを多重化して格納する場合、これら複数の物理チャンクの中から1つの物理チャンクが「マスタ」に設定され、残りの物理チャンクがすべて「ミラー」に設定される。そして、後述のように、物理チャンクからのデータリードは「マスタ」に設定された物理チャンクから行われる。またEC(Erasure Coding)の場合には、1つの論理チャンクに複数の物理チャンクが対応付けられ、これら複数の物理チャンクにマスタデータ及び冗長データが所定パターンで格納される。
一方、ホスト装置101は、仮想ボリュームからデータを読み出す場合、その仮想ボリューム(以下、これをリード対象仮想ボリュームと呼ぶ)のLUNと、そのリード対象仮想ボリュームにおけるそのデータのリード先の記憶領域(以下、これをリード先領域と呼ぶ)とを指定したリード要求をそのリード対象仮想ボリュームが含まれるクラスタ内のいずれかのストレージノード103に送信する。
このリード要求を受信したストレージノード103のフロントエンドドライバ1081は、受信したリード要求において指定されたリード対象仮想ボリュームとプールを介して対応付けられた冗長化グループのアクティブストレージ制御部1083又はスタンバイストレージ制御部1083が配置された各ストレージノード103にそのリード要求をそれぞれ転送する。
また、このリード要求を受領したかかるストレージノード103のフロントエンドドライバ1081は、このリード要求を当該リード要求において指定されたリード対象仮想ボリュームとプールを介して対応付けられた冗長化グループのストレージ制御部1083に引き渡す。
かくして、このリード要求が引き渡されたかかるストレージ制御部1083のうちのアクティブストレージ制御部1083は、リード対象仮想ボリューム内のリード先領域のアドレスを、当該リード先領域に論理領域を割り当てた論理チャンクのチャンク番号と、当該論理領域のオフセット位置とに変換したI/Oコマンドを生成し、生成したI/Oコマンドを自ストレージノード103内の容量制御部1086に送信する。
容量制御部1086は、このI/Oコマンドを受信すると、当該I/Oコマンドで指定された論理チャンクと対応付けられた各物理チャンクのうち、「マスタ」に設定された物理チャンク内のI/Oコマンドで指定されたオフセット位置の記憶領域からデータを読み出し、読み出したデータをリードデータとしてI/Oコマンドの送信元のアクティブストレージ制御部1083に転送する。かくして、このリードデータは、この後、かかるアクティブストレージ制御部1083によりネットワーク102を介してかかるリード要求の送信元のホスト装置101に転送される。
(1-2)論理チャンクに対する物理チャンクの割当て
ところで、上述のように1つの論理チャンクに複数の物理チャンクを対応付け、これらの物理チャンクにデータをそれぞれ格納することによりデータを冗長化する冗長化方式を採用する場合、データ保護の観点からも、1つの論理チャンクに対応付ける複数の物理チャンクをそれぞれ異なるストレージノード103が提供する物理チャンクから選択することが望ましい。これは、例えば、1つの論理チャンクに対して同じストレージノード103内の複数の物理チャンクを対応付けた場合、そのストレージノード103が障害等によりデータの読み出しを行えなくなったときにデータロストが発生することになるからである。
そこで本情報処理システムでは、容量制御部1086が冗長化グループに論理チャンクを割り当て、その論理チャンクに複数の物理チャンクを対応付ける際に、これら複数の物理チャンクをそれぞれ互いに異なる複数のストレージノード103が提供する物理チャンクの中から選択することとしている。
一方で、論理チャンクと対応付ける物理チャンクを、アクティブストレージ制御部1083が配置されたストレージノード103とは別のストレージノード103内の物理チャンクから選択することとした場合、そのアクティブストレージ制御部1083からのI/Oコマンドを受領した容量制御部1086(アクティブストレージ制御部1083と同じストレージノード103内の容量制御部1086)がその物理チャンクにデータをリード/ライトする際に、その物理チャンクを提供するストレージノード103との間の通信が必要となり、その分、システム全体としての応答性能が悪くなるという問題がある。従って、論理チャンクに複数の物理チャンクを対応付けるに際しては、その物理チャンクのうちの1つを、アクティブストレージ制御部1083が配置されたストレージノード103内の記憶デバイス1033が提供する物理チャンクの中から選択する方がシステム全体の応答性能の観点からも望ましい。
また、冗長化グループにおけるアクティブストレージ制御部1083が配置されたストレージノード103に障害が発生した場合に、スタンバイストレージ制御部1083がアクティブモードに切り替えられることを考慮すると、上述と同様の理由により、論理チャンクに対応付ける物理チャンクのうちの1つは、スタンバイストレージ制御部1083が配置されたストレージノード103内の記憶デバイス1033が提供する物理チャンクの中から選択する方がシステム全体の応答性能の観点からも望ましい。
そこで本情報処理システムでは、容量制御部1086が冗長化グループに論理チャンクを割り当て、その論理チャンクに複数の物理チャンクを対応付ける際に、当該冗長化グループのアクティブストレージ制御部1083が配置されたストレージノード103内の記憶デバイス1033が提供する物理チャンクと、当該冗長化グループのスタンバイストレージ制御部1083が配置されたストレージノード103内の記憶デバイス1033が提供する物理チャンクとを優先的にその論理チャンクに対応付ける容量優先割当て機能が容量制御部1086に搭載されている。
ただし、1つの冗長化グループに割り当てられたプール内の論理チャンクに対して、その冗長化グループを構成するアクティブストレージ制御部1083やスタンバイストレージ制御部1083が配置されたストレージノード103から物理チャンクを無制限に対応付けると、そのストレージノード103にアクティブストレージ制御部1083やスタンバイストレージ制御部1083が配置された他の冗長化グループの論理チャンクに対してそのストレージノード103内の記憶デバイス1033から物理チャンクを対応付けられなくなるという問題がある。
そこで、かかる容量優先割り当て機能には、冗長化グループに対し、当該冗長化グループのアクティブストレージ制御部1083が配置されたストレージノード103や、当該冗長化グループのスタンバイストレージ制御部1083が配置されたストレージノード103から割り当てる物理チャンクの容量を抑制する機能も含まれている。
次に、本実施形態における、ストレージ制御部1083の配置方式とフェイルオーバー先スタンバイ選択方式を述べる。
これ以降、ストレージ制御部を「SC」と表現し、冗長化グループα(例えば、α=X、Y、…)に属するSCを「SC-α」と表現(αは任意の冗長化グループの符号又は番号)し、アクティブSCを「SC(A)」と表現し、スタンバイSCを「SC(S)」と表現し、スタンバイ(i)モードで動作するSC(S)を「SC(Si)」と表現する。各冗長化グループにおいて、“i”は、SC(S)に割り振られた通し番号(以下、スタンバイ番号)であり、フェイルオーバー先となる優先順位に相当する。本実施形態では、SC(S)が2つであるため、冗長化グループ毎に、SC(S1)とSC(S2)が存在する。各冗長化グループについて、SC(S1)及びSC(S2)が正常な2つのストレージノードに存在する場合、SC(S1)が、最先の優先順位のSC(S)、つまり、フェイルオーバー先のSC(S)である。各冗長化グループについて、SC(S2)が存在するストレージノードには障害が生じていないがSC(S1)が存在するストレージノードに障害が生じている場合(すなわち、SC(S1)がフェイルオーバー先になれない場合)、SC(S2)が最先の優先順位のSC(S)である。このように、各冗長化グループについて、SC(S)のスタンバイ番号は、当該SC(S)がフェイルオーバー先となる優先順位の一例に相当する。
図5は、本実施形態でのSC配置方式を示す。
本実施形態での配置方式によれば、SC-X(A)とSC-Y(S1)がストレージノードPに配置されている時、SC-X(S1)が配置されているストレージノードQ以外のストレージノード130にSC-Y(S2)が配置される。
また、本実施形態でのフェイルオーバー先スタンバイ選択方式によれば、各冗長化グループにおいて、動作中のSC(S)(すなわち、正常なストレージノードに存在するSC(S))のうちスタンバイ番号が最も若いSC(S)がフェイルオーバー先として選択される。
このような配置方式とフェイルオーバー先スタンバイ選択方式を採ることにより、どのような順で2台のストレージノード130に障害が起きたとしても、SC(A)が3つ以上同じストレージノード130で動作しない状態を、事前及び/又は事後のSCの移動を伴わずに維持可能である。
図6は、SC配置の一例を示している。以降の説明では、modは除算の余りを得る記号である。また、ストレージノード130には、識別番号としてノード番号h(hは整数且つ通し番号(0,1,…))が割り振られているとする。また、冗長化グループには、識別番号としてグループ番号n(nは整数且つ通し番号(0,1,…))が割り振られているとする。構成情報51は、ストレージノードの数(又は、各ストレージノードのノード番号h)と、冗長化グループの数(又は、各冗長化グループのグループ番号n)と、各冗長化グループのSC(S)の数(本実施形態では、SC(S)の数は2)とを表す情報を含む。
配置制御部53が、構成情報51を基に、SC-n(A)をノード番号n(h=n)のストレージノードに配置する。次に、配置制御部53が、構成情報51を基に、SC-n(S1)をノード番号((n+1) mod 4)のストレージノードに配置し、SC-n(S2)をノード番号((n-1) mod 4)のストレージノードに配置する。これにより、図6に例示のSC配置が実現される。この段落において、「mod 4」の“4”は、ストレージノードの数の一例である。
図7~図10は、図6に示す配置例における、2台のノード障害のパターンを示している。どの順で2台のノード障害が起きても、3つ以上のSC(A)が1つのストレージノードで動作しない状態を、事前又は事後のSCの移動を伴わずに維持できていることが示される。
図7は、障害が生じた1台目のストレージノードがストレージノード1であるケースを示す。SC-1(A)は、ストレージノード1の障害によって、残る2つのSC-1(S1)及びSC-1(S2)うち、若いスタンバイ番号が割り振られているSC-1(S1)にSC-1(A)からのフェイルオーバーが行われる(SC(Si)の状態がスタンバイモードからアクティブモードに変わり、同じ冗長化グループに属するSC(A)の処理を引き継ぐことを、「SC(Si)にフェイルオーバーする」と表現することができる)。この時点で、ストレージノード2には、元から動作していたSC2(A)と、新たにモードが切り替わったSC-1(A)が動作する。
図8~図10は、障害が生じた2台目のストレージノードがストレージノード0,2又は3であるケースを示す。いずれのケースでも、動作中のSC(S)の中で最も若いスタンバイ番のSC(S)に対して処理が引き継がられるフェイルオーバーが行われるが、それぞれのストレージノードで動作するSC(A)の数は最大2である。この段落において、「最大2」の“2”は、1つのストレージノードに存在することが許容されるSC(A)の上限の一例である。
図11は、本実施形態の一比較例を示す。
この比較例では、ストレージノードn(h=n)にSC-n(A)が配置される点、及び、SC-n(S1)がノード番号((n+1) mod 4)のストレージノードに配置される点は、図6に示す例と同じである。
しかし、SC-n(S2)が、ノード番号((n+2) mod 4)のストレージノードに配置されている。すなわち、この比較例では、SC-0(A)とSC-3(S1)が同ストレージノード0に配置され、かつ、SC-0(S1)とSC-3(S2)が同ストレージノード1に配置されている。別の観点から言えば、フェイルオーバー元となるストレージノードとフェイルオーバー先となるストレージノードとのノードペアが同じであり冗長化グループがそれぞれ異なる複数のSCペアが存在する。「SCペア」は、フェイルオーバー元のSCとフェイルオーバー先のSCとのペアであり、具体的には、SC(A)とSC(S1)とのペアと、SC(Si)とSC(S(i+1))とのペアである。図12の例によれば、冗長化グループ1におけるSC-1(A)とSC-1(S1)とのペアと、冗長化グループ0におけるSC-0(S1)とSC-0(S2)とのペアが、それぞれ冗長化グループが異なりノードペアが同じ(いずれもストレージノード1がフェイルオーバー元となりストレージノード2がフェイルオーバー先となるノードペアである)SCペアである。
このため、この比較例では、2台目のストレージノードに障害が生じると同ストレージノードに3つのSC(A)が動作するケースが存在する。図12~図13は、そのケースの例を示している。すなわち、ストレージノード1がまず障害となり(図12)、次にストレージノード0が障害となると(図13)、ストレージノード2にSC(A)が3つ動作することになる。具体的には、ストレージノード1に障害が生じた場合にSC-1(A)からSC-1(S1)へのフェイルオーバーが行われることで、ストレージノード2において、SC-1(S1)がSC-1(A)となり、結果として、ストレージノード2に2つのSC(A)が存在する。その後、ストレージノード0に障害が生じた場合に、SC-0(S1)が障害ノード1に存在するのでSC-0(A)からSC-0(S2)へのフェイルオーバーが行われ、ストレージノード2において、SC-0(S2)がSC-0(A)となり、結果として、ストレージノード2に3つのSC(A)が存在する。このため、1台目のストレージノード1に障害が生じた後または2台目のストレージノード0に障害が生じた後にSC(A)を移動しなければ、1つのストレージノード2に3つのSC(A)が動作する問題(すなわち、メモリ量のようなリソース消費が大きい過負荷が生じること)を回避することができない。
一方、図6~図10を参照して説明した本実施形態のSC配置方法は、ストレージノード数が4以上の任意のストレージノード数で有効である。図14は、ノード数6の場合のSC配置の例を示す。この例では、まずストレージノードn(h=n)にSC-n(A)が配置される。また、SC-n(S1)が、ノード番号((n+1) mod 6)のストレージノードに配置され、SC-n(S2)が、ノード番号((n-1) mod 6)のストレージノードに配置される。
別の観点から言えば、ノードに配置された複数のSCを引き継ぐことが可能なSCがそれぞれ別のノードに配置される。例えば、冗長化グループがそれぞれ異なりフェイルオーバー元のSCが配置されるノードが同じ複数のSCペアにおいて、フェイルオーバー先のSCが配置されるノードがそれぞれ異なる。図6~図10を例に取ると、SC-1(A)とSC-1(S1)とのペアと、SC-0(S1)とSC-0(S2)とのペアは、フェイルオーバー元のSCはいずれもストレージノード1に配置されるが、フェイルオーバー先のSCは、ストレージノード2及び3にそれぞれ配置される。図6~図10及び図14に示すSC配置例をより一般的に表現すると、例えば下記の通りである。下記において、Cは、ストレージノード数である。
・SC-n(A)が、ストレージノードn(h=n)に配置される。
・SC-n(S1)がノード番号((n+X)mod C)のストレージノードに配置され、SC-n(S2)がノード番号((n+X)mod C)のストレージノードに配置される。上述の例では、X=1であり、X=-1である。
本実施形態によるSC配置方法の例は、上述の例に限られない。例えば、図15は、X=1且つX=3の例を示し、図16は、X=2且つX=1の例を示す。いずれも、図5を参照して説明した配置条件が、ストレージノード数C=4以上のケースにおいて満たされている。
本実施形態によるSC配置方法の効果の一例を、図5を参照して説明する。まず1台目のノード障害がノードPで発生した時、ノードPに存在するSC-X(A)からノードQに存在するSC-X(S1)へのフェイルオーバーが行われる。このため、ノードQにはSC(A)が2つ存在する状態となる。この状態において、本情報処理システムの全ノードの中で、ノードPとノードQのいずれかに存在するSC(S)へのフェイルオーバーは不可である。なぜなら、ノードPは障害を起こしており、ノードQに存在するSC(A)の数は上限(許容数)“2”に達しているためである(この例では、SC(A)の数の上限は、“(K-1)”(Kは、1つのストレージノードに配置されるSCの数)である)。ノードP及びQ以外のノードにおけるSC(S)へのフェイルオーバーは可能である。従って、各冗長化グループについて、ストレージノードP及びQ以外のストレージノードに1つでもSC(S)があればよい。
本実施形態によるSC配置方式によれば、1台目のノード障害が生じたストレージノードPにSC(A)がある冗長化グループX以外の各冗長化グループである冗長化グループYでは、ストレージノードP及びQ以外のストレージノードにSC-Y(S)が配置されているため、1台目の障害後に残存するSC-Yスタンバイにフェイルオーバー可能な状態が維持される。
(2)第2の実施の形態
第2の実施形態を説明する。その際、第1の実施形態との相違点を主に説明し、第1の実施形態との共通点については説明を省略又は簡略する。
本実施形態では、各冗長化グループが四重化されたSCで構成されている。すなわち、本実施形態では、1つのSC(A)と3つのSC(S)から冗長化グループが構成されている。
図17は、第2の実施形態によるストレージノード103の論理構成例を示す。図3と異なるのは、各SCは4つからなる冗長化グループを構成する点である。各ノードには4つのSCが存在する。
ここで、各SCに対して、次の「影響ノード」の概念を定義する。以下、NはSC(S)の数である。本実施形態では、N=3である。また、以下、mは、スタンバイ番号である。α又はβ=X、Y、Z、…である。
・SC-α(A)が配置されたストレージノードが、SC-αの0次影響ノードである。
・SC-α(Sm)が配置されたストレージノードが、SC-αのm次影響ノードである。
・ストレージノードPがSC-αのm次影響ノード(ただしm<N)である場合、ストレージノードPにSC(A)が存在するSC-β(Sk)(ただし1≦k≦(N-m))が配置されたストレージノードが、SC-αの(m+k)次影響ノードである。
本実施形態によるSC配置方法では、各冗長化グループについて、当該冗長化グループαのうちのk個のSC-α(S)は、当該冗長化グループαにとっての全ての冗長化グループβについてのk次以下の影響ノードには高々k個しかスタンバイが配置されない。
図18は、本実施形態における影響ノードの概念と、SC配置方法の例とを示す。
SC-Xの影響ノードは4つである。すなわち、SC-X(A)が配置されるノードPが、SC-Xの0次影響ノードである。SC-X(S1)が配置されるノードQが、SC-Xの1次影響ノードである。冗長化グループY(SC-Xの1次影響ノードQにSC(A)が配置される冗長化グループ)のSC-Y(S)(例としてSC-Y(S1))が配置されるノードRが、SC-Xの2次影響ノードである。SC-X(S2)が配置されるノードSも同じくSC-Xの2次影響ノードである。本実施形態によるSC配置方法によれば、すべてのSC-Zは、SC-Xの上述の4つの影響ノードP、Q、R及びSに、0以上2以下のSC-Z(S)が配置される。
本実施形態の効果の一例を説明する。SC-Xの1次影響ノードは、SC-Xの0次影響ノード(すなわち、SC-X(A)が配置されたノード)に障害が生じた場合にSC(A)2つ以上となる可能性のあるノードである。SC-Xの2次影響ノードは、SC-Xの1次影響ノードに障害があった場合に、SC(A)が2つ以上になる可能性のあるノードである。一般化して表現すると、SC-Xのk次影響ノードは、SC-Xの(k-1)次影響ノードの障害によりSC(A)が2つ以上になる可能性のあるノードである。
次に、障害ルートノードの概念を定義する。ノード障害が生じたストレージノードが1台目であればその障害ノードを1次障害ルートノードとする。ノード障害が生じたストレージノードPが既に存在するk次障害ルートノードQのk次以下の影響ノードであった場合は、ノードPは障害ルートノードにはせず、代わりにそのk次障害ルートノードQの次数を上げ、(k+1)次障害ルートノードに変える。ノード障害時、そのノードがいずれの障害ルートノードの影響ノードでもない場合は、このノードを1次障害ルートノードとする。
各障害ルートノードと、その障害ルートノードの次数をsとしたときのs次以下の影響ノードは、障害ノードである可能性もしくはSC(A)が2つ存在するノードである可能性があり、フェイルオーバー不可である可能性がある。
情報処理システムにおけるt台目のノード障害後、当該システム内には複数の障害ルートノードが存在し、これらの障害ルートノードの次数の合計はtである。ここで、それぞれの障害ルートノードについて、その次数をsとすると、この障害ルートノードのs次以下の影響ノードに配置されるSC(S)の数は、全SCについて、s個である。よってシステム合計では、SC(S)はt個である。よって、全SCについて、障害ルートノードの影響ノードに配置されフェイルオーバー不可である可能性があるSC(S)の数はt個である。よって、障害ノードの数が(N-1)以下であれば、各冗長化グループについて、(N-障害ノード数)分のフェイルオーバー可能なSC(S)が残っていることが保証される。
図19~図21は、本実施形態における具体的な配置例である。第1の実施形態と同様に、SC(S)の配置先ノード番号は、ノード数をCとした場合、例えば下記のような一般的な表現が可能である。
・SC-n(A)の配置先は、ノード番号n(h=n)のストレージノードである。
・SC-n(Si)の配置先は、ノード番号((n+X)mod C)のストレージノードである。
図19は、X=1,X=3,X=5の例である。図20は、一例としてノード2が2次障害ルートノードとなった場合を示している。円が付されているSCは、障害が生じるノードにあるSC(A)、もしくは、そのフェイルオーバー先となるSC(S)を示している。円の付されたSC(S)が存在するストレージノードに配置された円の付されていないSC(S)はフェイルオーバー不可のSC(S)となる可能性がある。冗長化グループ2(SC-2)を例に取ると、ストレージノード2,3,4及び5が、冗長化グループ2についての影響ノードとなる。この4ノードにSC(S)が3つ以上配置された冗長化グループは無いため、本実施形態でのSC配置条件が満たされている。図19に示した配置方法は5重化以上にも一般化可能で、Xの値をXi=i*2-1とすることで本実施形態の配置条件が満たされる。
図21は、X=3,X=2,X=1の例を示す。図22は、ノード2が2次障害ルートノードとなった場合を示している(円が付されているSCの意味は、図20と同様である)。冗長化グループ2(SC-2)を例に取ると、ストレージノード2,4,5及び8が、冗長化グループ2についての影響ノードとなる。この4ノードにSC(S)が3つ以上配置された冗長化グループは無いため、本実施形態でのSC配置条件が満たされている。
(3)第3の実施の形態
第3の実施形態を説明する。その際、第1及び第2の実施形態との相違点を主に説明し、第1及び第2の実施形態との共通点については説明を省略又は簡略する。
第3の実施形態では、五重化されている冗長化グループが採用される。
図23は、第3の実施形態によるSC配置の例を示す。SC(S)は4つあり、図23の例によれば、X=4,X=3,X=2,X=1である。図24は、ノード2が3次障害ルートノードとなった場合の例を示す。その影響ノードは7ノード(ノード1,2,4,5,6,9及び10)であり、この7ノードにSC(S)が4つ以上配置された冗長化グループは無いため、本実施形態でのSC配置条件が満たされている。図21及び23に示した配置方法はN重化に一般化可能で、Xの値をXi=N-i+1とすることで実施形態の配置条件が満たされる。
以上の説明の総括の一例として、次のような表現が可能である。すなわち、複数のストレージノードと、記憶装置とが備えられる。それぞれが多重化されたSCで構成された複数の冗長化グループが、複数のストレージノードに配置されている。各冗長化グループについて、次の通りである。
・当該冗長化グループを構成しストレージ制御を行う多重化されたSCである3つ以上のSCは、複数のストレージノードのうちのそれぞれ異なるストレージノードに配置されている。
・当該多重化されたSCのうち、1つ以上のSCが、SC(A)であり、残りの2つ以上のSCの各々が、SC(A)のフェイルオーバー先となるSC(S)である。
・当該2つ以上のSC(S)の各々には、SC(A)のフェイルオーバー先として決定される優先順位が関連付けられている。
・SC(A)が配置されているストレージノードに障害が生じた場合に当該SC(A)から優先順位に基づいてSC(S)への当該冗長化グループ内でのフェイルオーバーが行われるようになっている。
・同一のストレージノードに配置されている複数の冗長化グループにおけるSC(A)とフェイルオーバーによりアクティブに変化するSC(S)とを含む複数のSCについて、それぞれのSCをフェイルオーバー先となりうるSC(S)がそれぞれ異なるノードに配置されている。
以上、幾つかの実施形態を説明したが、これらは本発明の説明のための例示であって、本発明の範囲をこれらの実施形態にのみ限定する趣旨ではない。例えば、ストレージノードに代えて他の物理リソースが採用されてもよいし、SCに代えて他の論理リソースが採用されてもよい。例えば、複数のドライブ上にデータを冗長化し、それらのうち一方をアクセスするアクティブ、他方をアクティブの障害時のみアクセスするスタンバイとし、これら同じデータのコピーであるアクティブとスタンバイからなる冗長化グループが構成されてもよい。または、複数のネットワークスイッチや回線などの経路を複数束ねて冗長化し、通信主体によって普段アクセスする経路をアクティブ、他をスタンバイとする冗長化グループが採用されもよい。
103…ストレージノード

Claims (5)

  1. それぞれメモリ、及びプロセッサを有する複数のストレージノードと、記憶装置と、を備え、
    それぞれが多重化されたストレージ制御プログラムで構成された複数の冗長化グループを、前記複数のストレージノードに配置しており、
    各冗長化グループについて、
    当該冗長化グループを構成しそれぞれプロセッサに実行されストレージ制御を行う多重化されたストレージ制御プログラムである3つ以上のストレージ制御プログラムを、前記複数のストレージノードのうちのそれぞれ異なるストレージノードに配置しており、
    当該多重化されたストレージ制御プログラムのうち、1つ以上のストレージ制御プログラムが、アクティブのストレージ制御プログラムであるアクティブプログラムであり、
    残りの2つ以上のストレージ制御プログラムの各々が、前記アクティブのストレージ制御プログラムのフェイルオーバー先となるスタンバイのストレージ制御プログラムであるスタンバイプログラムであり、
    当該2つ以上のスタンバイプログラムの各々には、アクティブプログラムのフェイルオーバー先として決定される優先順位が関連付けられており、
    アクティブプログラムが配置されているストレージノードに障害が生じた場合に当該アクティブプログラムから優先順位に基づいてスタンバイプログラムへの当該冗長化グループ内でのフェイルオーバーが行われるようになっており、
    同一のストレージノードに配置されている複数の冗長化グループにおけるアクティブプログラムとフェイルオーバーによりアクティブに変化するスタンバイプログラムとを含む複数のストレージ制御プログラムについて、前記アクティブプログラムのフェイルオーバー先となりうるスタンバイプログラムと前記フェイルオーバーによりアクティブに変化するスタンバイプログラムのフェイルオーバー先となりうるスタンバイプログラムとをそれぞれ異なるストレージノードに配置している、
    記憶システム。
  2. 前記冗長化グループは、アクティブプログラムと、第1のスタンバイプログラムと、第2のスタンバイプログラムと、を含み、
    前記第1のスタンバイプログラムは、第2のスタンバイプログラムより優先して前記フェイルオーバー先としてフェイルオーバーが行われ、
    第1のストレージノードに、第1の冗長化グループのアクティブプログラムと、第2の冗長化グループの第1のスタンバイプログラムと、を配置するとともに、
    前記第1の冗長化グループの第1のスタンバイプログラムと、前記第1の冗長化グループの第2のスタンバイプログラムと、前記第2の冗長化グループの第2のスタンバイプログラムとを、前記第1のストレージノードとは異なるストレージノードであり、それぞれ異なるストレージノードに配置する、
    請求項1に記載の記憶システム。
  3. 前記第2の冗長化グループのアクティブプログラムを、前記第1のストレージノードとは異なるストレージノードであり、前記第2の冗長化グループの第2のスタンバイプログラムとは異なるストレージノードに配置する、
    請求項2に記載の記憶システム。
  4. 前記第1のストレージノードに、第3の冗長化グループの第2のスタンバイプログラムを配置し、
    前記第3の冗長化グループのアクティブプログラムと、第1のスタンバイプログラムとを、前記第1のストレージノードとは異なるストレージノード、及び前記第2の冗長化グループのアクティブプログラムが配置されるストレージノードとは異なり、それぞれ異なるストレージノードに配置する、
    請求項3に記載の記憶システム。
  5. コンピュータが、それぞれメモリ、及びプロセッサを有する複数のストレージノードに、それぞれが多重化されたストレージ制御プログラムで構成された複数の冗長化グループを、下記の通りに配置する、
    各冗長化グループについて、
    当該冗長化グループを構成しそれぞれプロセッサに実行されストレージ制御を行う多重化されたストレージ制御プログラムである3つ以上のストレージ制御プログラムを、前記複数のストレージノードのうちのそれぞれ異なるストレージノードに配置し、
    当該多重化されたストレージ制御プログラムのうち、1つ以上のストレージ制御プログラムが、アクティブのストレージ制御プログラムであるアクティブプログラムであり、残りの2つ以上のストレージ制御プログラムの各々が、前記アクティブのストレージ制御プログラムのフェイルオーバー先となるスタンバイのストレージ制御プログラムであるスタンバイプログラムであり、
    当該2つ以上のスタンバイプログラムの各々には、アクティブプログラムのフェイルオーバー先として決定される優先順位が関連付けられており、
    アクティブプログラムが配置されているストレージノードに障害が生じた場合に当該アクティブプログラムから優先順位に基づいてスタンバイプログラムへの当該冗長化グループ内でのフェイルオーバーが行われるようになっており、
    同一のストレージノードに配置されている複数の冗長化グループにおけるアクティブプログラムとフェイルオーバーによりアクティブに変化するスタンバイプログラムとを含む複数のストレージ制御プログラムについて、前記アクティブプログラムのフェイルオーバー先となりうるスタンバイプログラムと前記フェイルオーバーによりアクティブに変化するスタンバイプログラムのフェイルオーバー先となりうるスタンバイプログラムとをそれぞれ異なるストレージノードに配置している、
    記憶システム構築方法。
JP2022129294A 2020-09-28 2022-08-15 記憶システム及びその制御方法 Active JP7419456B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022129294A JP7419456B2 (ja) 2020-09-28 2022-08-15 記憶システム及びその制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020162490A JP7149313B2 (ja) 2020-09-28 2020-09-28 記憶システム及びその制御方法
JP2022129294A JP7419456B2 (ja) 2020-09-28 2022-08-15 記憶システム及びその制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020162490A Division JP7149313B2 (ja) 2020-09-28 2020-09-28 記憶システム及びその制御方法

Publications (2)

Publication Number Publication Date
JP2022145964A true JP2022145964A (ja) 2022-10-04
JP7419456B2 JP7419456B2 (ja) 2024-01-22

Family

ID=80821223

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020162490A Active JP7149313B2 (ja) 2020-09-28 2020-09-28 記憶システム及びその制御方法
JP2022129294A Active JP7419456B2 (ja) 2020-09-28 2022-08-15 記憶システム及びその制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020162490A Active JP7149313B2 (ja) 2020-09-28 2020-09-28 記憶システム及びその制御方法

Country Status (3)

Country Link
US (2) US11481292B2 (ja)
JP (2) JP7149313B2 (ja)
CN (1) CN114281240A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130387A (ja) * 2012-12-27 2014-07-10 Fujitsu Ltd ストレージコントローラ選択システム、ストレージコントローラ選択方法、およびストレージコントローラ選択プログラム
US20150363286A1 (en) * 2014-06-13 2015-12-17 International Business Machines Corporation Establishing copy pairs from primary volumes to secondary volumes in multiple secondary storage systems for a failover session
JP2016177578A (ja) * 2015-03-20 2016-10-06 株式会社日立製作所 管理システム、サーバ装置、およびデータ管理方法
JP2019101702A (ja) * 2017-11-30 2019-06-24 株式会社日立製作所 記憶システム及びその制御方法
JP2020021277A (ja) * 2018-07-31 2020-02-06 株式会社日立製作所 情報処理システム、情報処理システムの管理方法及びプログラム
JP2020047215A (ja) * 2018-09-21 2020-03-26 株式会社日立製作所 ストレージシステム及びストレージ制御方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6880051B2 (en) * 2002-03-14 2005-04-12 International Business Machines Corporation Method, system, and program for maintaining backup copies of files in a backup storage device
DE102004005128B3 (de) 2004-02-02 2005-01-05 Fujitsu Siemens Computers Gmbh Anordnung mehrerer Rechner und Verfahren zum Betreiben einer Anordnung mehrerer Rechner bei einem Rechnerausfall
JP4315016B2 (ja) 2004-02-24 2009-08-19 株式会社日立製作所 コンピュータシステムの系切替方法
US20060015773A1 (en) * 2004-07-16 2006-01-19 Dell Products L.P. System and method for failure recovery and load balancing in a cluster network
JP2007226400A (ja) * 2006-02-22 2007-09-06 Hitachi Ltd 計算機管理方法、計算機管理プログラム、実行サーバの構成を管理する待機サーバ及び計算機システム
EP2139205B1 (en) * 2008-06-27 2012-10-31 Alcatel Lucent Method of redundant data storage
US8688773B2 (en) 2008-08-18 2014-04-01 Emc Corporation System and method for dynamically enabling an application for business continuity
US9344401B2 (en) * 2009-02-04 2016-05-17 Citrix Systems, Inc. Methods and systems for providing translations of data retrieved from a storage system in a cloud computing environment
JP5839774B2 (ja) * 2010-01-06 2016-01-06 三菱重工業株式会社 計算機及び計算機管理方法並びに計算機管理プログラム
US8566636B2 (en) 2011-01-27 2013-10-22 International Business Machines Corporation Application recovery in a file system
WO2014098872A1 (en) * 2012-12-20 2014-06-26 Hewlett-Packard Development Company, L.P. Raid storage processing
US9015122B2 (en) * 2012-12-21 2015-04-21 Zetta, Inc. Systems and methods for minimizing network bandwidth for replication/back up
US9027098B2 (en) * 2013-03-14 2015-05-05 Genband Us Llc Systems, methods, and computer program products for recording service status of applications
US9734007B2 (en) * 2014-07-09 2017-08-15 Qualcomm Incorporated Systems and methods for reliably storing data using liquid distributed storage
US9985875B1 (en) 2015-03-31 2018-05-29 Juniper Networks, Inc. Route signalling based resilient application overlay network
US10437686B2 (en) 2017-09-29 2019-10-08 Ca, Inc. Failover service to support high availability of monolithic software applications
JP6791834B2 (ja) * 2017-11-30 2020-11-25 株式会社日立製作所 記憶システム及び制御ソフトウェア配置方法
US11467866B2 (en) 2018-01-29 2022-10-11 Salesforce.Com, Inc. Scheduling framework for organization migrations
US10783043B2 (en) * 2018-03-16 2020-09-22 EMC IP Holding Company LLC Automation and optimization of data recovery after a ransomware attack
US10503612B1 (en) 2018-06-25 2019-12-10 Rubrik, Inc. Application migration between environments
US11074143B2 (en) 2018-10-05 2021-07-27 Rubrik, Inc. Data backup and disaster recovery between environments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130387A (ja) * 2012-12-27 2014-07-10 Fujitsu Ltd ストレージコントローラ選択システム、ストレージコントローラ選択方法、およびストレージコントローラ選択プログラム
US20150363286A1 (en) * 2014-06-13 2015-12-17 International Business Machines Corporation Establishing copy pairs from primary volumes to secondary volumes in multiple secondary storage systems for a failover session
JP2016177578A (ja) * 2015-03-20 2016-10-06 株式会社日立製作所 管理システム、サーバ装置、およびデータ管理方法
JP2019101702A (ja) * 2017-11-30 2019-06-24 株式会社日立製作所 記憶システム及びその制御方法
JP2020021277A (ja) * 2018-07-31 2020-02-06 株式会社日立製作所 情報処理システム、情報処理システムの管理方法及びプログラム
JP2020047215A (ja) * 2018-09-21 2020-03-26 株式会社日立製作所 ストレージシステム及びストレージ制御方法

Also Published As

Publication number Publication date
JP2022055102A (ja) 2022-04-07
US11615005B2 (en) 2023-03-28
JP7419456B2 (ja) 2024-01-22
US11481292B2 (en) 2022-10-25
US20220100616A1 (en) 2022-03-31
JP7149313B2 (ja) 2022-10-06
US20220100617A1 (en) 2022-03-31
CN114281240A (zh) 2022-04-05

Similar Documents

Publication Publication Date Title
US11137940B2 (en) Storage system and control method thereof
US9606745B2 (en) Storage system and method for allocating resource
US9658779B2 (en) Computer system and control method for computer system
JP5635621B2 (ja) ストレージシステム及びストレージシステムのデータ転送方法
US20040064641A1 (en) Storage device with I/O counter for partial data reallocation
EP3413538A1 (en) Storage system
CN112764661A (zh) 用于管理存储系统的方法、设备和计算机程序产品
JP2019192032A (ja) 記憶システム、及び、クラスタ構成制御方法
US6931499B2 (en) Method and apparatus for copying data between storage volumes of storage systems
US20150378637A1 (en) Storage device and method for configuring raid group
JP7149313B2 (ja) 記憶システム及びその制御方法
WO2005031577A1 (en) Logical partitioning in redundantstorage systems
US11256428B2 (en) Scaling raid-based storage by redistributing splits
WO2017026070A1 (ja) ストレージシステム及びストレージ管理方法
WO2019043815A1 (ja) ストレージシステム
US10691564B2 (en) Storage system and storage control method
JP6905611B2 (ja) 記憶システム及びその制御方法
US11775182B2 (en) Expanding raid systems
US11544005B2 (en) Storage system and processing method
US11467904B2 (en) Storage system and control method of the same
JP5856665B2 (ja) ストレージシステム及びストレージシステムのデータ転送方法
JP2023151189A (ja) ストレージシステム及びその制御方法
JP2022110245A (ja) 仮想的なストレージシステムを提供するストレージクラスタを備えたストレージシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150