JP2017510004A - 分散格納システムにおけるセッション管理 - Google Patents

分散格納システムにおけるセッション管理 Download PDF

Info

Publication number
JP2017510004A
JP2017510004A JP2016560580A JP2016560580A JP2017510004A JP 2017510004 A JP2017510004 A JP 2017510004A JP 2016560580 A JP2016560580 A JP 2016560580A JP 2016560580 A JP2016560580 A JP 2016560580A JP 2017510004 A JP2017510004 A JP 2017510004A
Authority
JP
Japan
Prior art keywords
metadata
node
storage
subsystem
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016560580A
Other languages
English (en)
Other versions
JP6371859B2 (ja
Inventor
ヴィンセント,パラディープ
Original Assignee
アマゾン・テクノロジーズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アマゾン・テクノロジーズ・インコーポレーテッド filed Critical アマゾン・テクノロジーズ・インコーポレーテッド
Publication of JP2017510004A publication Critical patent/JP2017510004A/ja
Application granted granted Critical
Publication of JP6371859B2 publication Critical patent/JP6371859B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/176Support for shared access to files; File sharing support
    • G06F16/1767Concurrency control, e.g. optimistic or pessimistic approaches
    • G06F16/1774Locking methods, e.g. locking methods for file systems allowing shared and concurrent access to files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/062Securing storage systems
    • G06F3/0622Securing storage systems in relation to access
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • H04L67/141Setup of application sessions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • H04L67/146Markers for unambiguous identification of a particular session, e.g. session cookie or URL-encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/28Timers or timing mechanisms used in protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • G06F12/0868Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1052Security improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/26Using a specific storage system architecture
    • G06F2212/263Network storage, e.g. SAN or NAS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/28Using a specific disk cache architecture
    • G06F2212/283Plural cache memories
    • G06F2212/284Plural cache memories being distributed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/31Providing disk cache in a specific location of a storage system
    • G06F2212/314In storage network, e.g. network attached cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/46Caching storage objects of specific type in disk cache
    • G06F2212/463File
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/46Caching storage objects of specific type in disk cache
    • G06F2212/466Metadata, control data

Abstract

特定のクライアントのセッション識別子の要求は、格納サービスのアクセスサブシステムから該サービスのメタデータサブシステムに送信される。クライアントセッションのメタデータが格納される永続性セッション格納場所に基づいたセッション識別子はアクセスサブシステムで受信される。セッション識別子はクライアントへのその送信の前にアクセスサブシステムでキャッシュされる。クライアントセッション中にクライアントからの特定の要求に応じてメタデータサブシステムによって生成されるロックステートインジケータは、アクセスサブシステムでキャッシュされてもよい。セッション中のクライアントからの後続格納要求は、キャッシュされたセッション識別子及びロックステートインジケータを使用し、アクセスサブシステムによって処理されてよい。【選択図】図55

Description

多数の企業及び他の組織が、同じ場所に配置された(例えばローカルネットワークの一部として)、あるいは地理的に別個の複数の場所に配置された(例えば1つまたは複数の私設または公衆の中間ネットワークを介して接続された)コンピューティングシステム等により、自身の業務を支援するために、多数のコンピューティングシステムを相互接続するコンピュータネットワークを運用している。例えば、単一の組織が自身のために運用する私設データセンタ、及び顧客にコンピューティングリソースを提供する事業主体が運用する公衆データセンタ等、著しい数の相互接続されたコンピューティングシステムを収容するデータセンタは、今ではもう珍しくない。一部の公衆データセンタ運営者は、様々な顧客が所有するハードウェアに対しネットワークアクセス、電力、安全な設置施設を提供し、一方他の公衆データセンタ運営者は、顧客により利用可能なハードウェアリソースも含む「完全なサービス」施設を提供する。
いくつかの大きなプロバイダネットワークは、それぞれのURLを介してアクセス可能な任意のビットバケットとしてモデル化可能なブロックレベルデバイス(ボリューム)またはオブジェクトを実行するサービス等、様々な格納サービスを実施する。しかしながら、プロバイダネットワークのデータセンタで稼働する多数のアプリケーションは、様々な業界標準ファイルシステムインターフェイス等、より一般的な格納関連プログラム的インターフェイスのうちのいくつかの使用において、なおも制約に直面し得る。いくつかの業界標準ファイルシステムは、ネットワークアクセス可能サービスの大規模展開の前に設計され得たため、非同期演算インタラクション、個別コンポーネント及びネットワークパーティションにおける障害、またはネットワーク関連遅延が全て比較的に一般的である分散システムにおいて、実施することが容易ではない一貫性モデル及び他のセマンティックに対応し得る。
少なくともいくつかの実施形態による、分散ファイル格納サービスの高次概観図を提供する。 少なくともいくつかの実施形態による、ファイル格納サービスを実施するための、プロバイダネットワークの複数の可用性コンテナにおけるリソースの使用を例示する。 少なくともいくつかの実施形態による、隔離仮想ネットワークに対応付けられたネットワークアドレスが、格納サービスのアクセスサブシステムノードに割り当てられる構成を例示する。 少なくともいくつかの実施形態による、ファイル格納サービスオブジェクトと、論理ブロックと、1つまたは複数のエクステントにおける物理ページとの間のマッピングを例示する。 少なくともいくつかの実施形態による、データエクステント及びメタデータエクステントのレプリカグループの構成を例示する。 少なくともいくつかの実施形態による、ファイル格納サービスのアクセスサブシステムノードにおけるメタデータのキャッシングに伴うインタラクション例を示す。 少なくともいくつかの実施形態による、ファイルストアに対する、データ耐久性、パフォーマンス、及び論理対物理データマッピングに関するポリシーの異なる組み合わせの使用例を示す。 図8aは、少なくともいくつかの実施形態による、拡張縮小可能な分散ファイルシステム格納サービスを実施するために実行され得る構成及び管理関連動作の態様を例示するフロー図である。図8bは、少なくともいくつかの実施形態による、拡張縮小可能な分散ファイルシステム格納サービスにおいてクライアント要求に応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、分散ファイルシステム格納サービスにおいて複製ベース耐久性ポリシーを実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、分散ファイルシステム格納サービスのアクセスサブシステムノードにおいてメタデータをキャッシュするために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、書き込みオフセット及び書き込みサイズが時に物理格納の原子単位の境界と整列し得ないファイル格納サービスにおいて実行され得る読み出し‐変更‐書き込みシーケンスの例を示す。 少なくともいくつかの実施形態による、エクステントレプリカグループに対するコンセンサスベースの複製ステートマシンの使用を例示する。 少なくともいくつかの実施形態による、いくつかの種類の書き込み動作に使用され得る条件付き書き込みプロトコルに関わる例示的インタラクションを示す。 少なくともいくつかの実施形態による、条件付き書き込みプロトコルを実施するために確立され得る例示的書き込みログバッファを示す。 少なくともいくつかの実施形態による、分散ファイルシステム格納サービスにおいて条件付き書き込みプロトコルを実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、ファイル格納サービスにおいて分散トランザクションのコミットに至り得る例示的メッセージフローを示す。 少なくともいくつかの実施形態による、ファイル格納サービスにおいて分散トランザクションのアボートに至り得る例示的メッセージフローを示す。 少なくともいくつかの実施形態による、トランザクションのコーディネータとして指定されたノードを含む分散トランザクション参加ノードチェーンの例を示す。 少なくともいくつかの実施形態による、ノードチェーンのノードのうちの1つにおける障害発生時に、分散トランザクションの完了を簡易化するために実行され得る例示的動作を示す。 少なくともいくつかの実施形態による、ファイルシステム格納サービスにおいて分散トランザクションを調整するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、格納サービスのノードにおいてトランザクション準備メッセージを受信したことに応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、格納サービスのノードにおいてトランザクションコミットメッセージを受信したことに応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、格納サービスのノードにおいてトランザクションアボートメッセージを受信したことに応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、分散格納サービスにおける予約超過の格納エクステントの例を示す。 少なくともいくつかの実施形態による、オンデマンドの物理ページレベル割り当て及びエクステント予約超過を実施する格納サービスのサブシステム間のインタラクションを例示する。 図26aは、少なくともいくつかの実施形態による、空き格納領域閾値が指定されたエクステントを例示する。一方図26bは、少なくともいくつかの実施形態による、空き格納領域閾値の侵害に起因するエクステントの拡張を例示する。 少なくともいくつかの実施形態による、予約超過に対応するエクステントにおいてオンデマンドの物理ページ割り当てを実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、エクステント予約超過パラメータを動的に変更するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、可変ストライプサイズを使用してストライピングされるファイルストアオブジェクトの例を示す。 少なくともいくつかの実施形態による、ファイルストアオブジェクトに使用され得るストライプサイズ決定シーケンスの例を示す。 少なくともいくつかの実施形態による、ファイルストアオブジェクトに対しストライプサイズ決定及び/または統合決定を行うためにメタデータサブシステムにおいて考慮され得る要素例を示す。 少なくともいくつかの実施形態による、可変ストライプサイズを使用してストライピングを実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、格納サービスオブジェクトの論理ブロックの全ての読み出し要求に対し相互に等しい優先権が与えられるスケジューリング環境における、論理ブロックに対する複数同時読み出し要求の進捗の例示的タイムラインを示す。 少なくともいくつかの実施形態による、オフセットベースの輻輳制御ポリシーが使用されるスケジューリング環境における、格納サービスオブジェクトの論理ブロックに対する複数同時読み出し要求の進捗の例示的タイムラインを示す。 図35aは、少なくともいくつかの実施形態による、格納サービスにおいてI/O要求をスケジューリングするために使用され得るトークンベースの輻輳制御機構の例を示す。図35bは、少なくともいくつかの実施形態による、採用され得るオフセットベースのトークン消費ポリシーの例を示す。 少なくともいくつかの実施形態による、格納サービスにおける輻輳制御のためのオフセットベース遅延の使用例を示す。 少なくともいくつかの実施形態による、アクセスされている格納オブジェクトの種類、及び要求されるアクセスの様々な特徴によって決まり得る輻輳制御ポリシーの例を示す。 少なくともいくつかの実施形態による、格納サービスにおいてI/O動作をスケジューリングするためにオフセットベースの輻輳制御を実施するように実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、名前変更動作を実行するために、格納サービスの複数のメタデータサブシステムノードにおいて実行される必要があり得るメタデータ変更の例を示す。 少なくともいくつかの実施形態による、同時名前変更動作に対するデッドロック回避機構の使用を例示する。 少なくともいくつかの実施形態による、名前変更動作のために格納サービスにおいて特定され得る、2つの可能なロック順序のうちの第1ロック順序に基づいて、第1名前変更ワークフローを実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、名前変更動作のために格納サービスにおいて特定され得る、2つの可能なロック順序のうちの第2ロック順序に基づいて、第2名前変更ワークフローを実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、名前変更ワークフローに参加する1対のメタデータサブシステムノードのうちの1つのメタデータサブシステムノードにおける障害に応じて実行され得る復旧動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、名前変更ワークフローに参加する1対のメタデータサブシステムノードのうちのもう1つのメタデータサブシステムノードにおける障害に応じて実行され得る復旧動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、ファイルストア名前空間管理に使用され得るハッシュベースの有向非巡回グラフ(DAG)の例を示す。 少なくともいくつかの実施形態による、ファイル名に取得されたハッシュ値の連続サブシーケンスを使用して、HDAGをトラバースする技術を例示する。 少なくともいくつかの実施形態による、名前空間にエントリを挿入する試みから生じ得る2種類のHDAGノード分割のうちの第1種のHDAGノード分割の例を示す。 少なくともいくつかの実施形態による、名前空間にエントリを挿入する試みから生じ得る2種類のHDAGノード分割のうちの第2種のHDAGノード分割の例を示す。 少なくともいくつかの実施形態による、2種類のHDAGノード削除動作のうちの第1種のHDAGノード削除動作の例を示す。 少なくともいくつかの実施形態による、2種類のHDAGノード削除動作のうちの第2種のHDAGノード削除動作の例を示す。 少なくともいくつかの実施形態による、第1種のHDAGノード分割を生じる名前空間へのエントリの挿入に応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、第2種のHDAGノード分割を生じる名前空間へのエントリの挿入に応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、名前空間からエントリの削除に応じて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、分散格納サービスにおけるセッション指向のファイルシステムプロトコルのために保持され得るメタデータの二局面を例示する。 少なくともいくつかの実施形態による、分散格納サービスのサブコンポーネント間におけるクライアントセッションのメタデータ関連インタラクションの例を示す。 少なくともいくつかの実施形態による、分散格納サービスにおけるクライアントセッションのリース更新の代替的手法を例示する。 図57a及び57bは、少なくともいくつかの実施形態による、分散格納サービスにおけるセッション指向のファイルシステムプロトコルのためのロックステート管理の代替的手法を例示する。 少なくともいくつかの実施形態による、分散格納サービスにおいて実行され得るクライアントセッションメタデータ管理動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、分散格納サービスにおいて実行され得るクライアントセッションリースの更新動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、分散格納サービスのために負荷分散層が構成されたシステムを例示する。 少なくともいくつかの実施形態による、負荷分散ノードと、分散格納サービスの複数のアクセスサブシステムノードとの間の例示的インタラクションを示す。 少なくともいくつかの実施形態による、行われた接続試行の回数により変わり得る接続受諾基準の例を示す。 少なくともいくつかの実施形態による、複数のリソースに対応付けられた作業負荷レベル、並びに接続確立試行回数に依存し得る接続受諾基準の例を示す。 少なくともいくつかの実施形態による、分散格納サービスにおいて試行回数に基づき接続分散を実施するために実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、アクセスノードピアグループのメンバーの作業負荷インジケータに基づいて、クライアント接続の再分散を試み得る分散格納サービスのアクセスサブシステムの例を示す。 少なくともいくつかの実施形態による、アクセスサブシステムノードにおいて使用され得る接続受諾及び再分散基準の例を示す。 少なくともいくつかの実施形態による、接続再分散を実施するために、分散格納サービスのアクセスサブシステムにおいて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態による、接続再分散イベントを越えてクライアントセッションを保持するために、分散格納サービスにおいて実行され得る動作の態様を例示するフロー図である。 少なくともいくつかの実施形態において使用され得る例示的コンピューティングデバイスを示すブロック図である。
本明細書において実施形態は、いくつかの例示的実施形態及び例示的図面として説明されるが、実施形態は説明される実施形態または図面に限定されないことを、当業者は認識するであろう。図面及びその詳細説明には、実施形態を開示される特定の形態に限定する意図はなく、それとは逆に、添付の請求項により定義される趣旨と範囲に入る全ての変更、均等物、及び代替案を含める意図があることは理解されよう。本明細書において使用される見出しは、構成目的でのみ使用され、説明または請求項の範囲を限定するために用いられることを意図しない。本出願を通して使用される英単語「may」は、義務的な意味(すなわち「〜しなければならない」という意味)ではなく、許容的な意味(すなわち「〜する可能性がある」という意味)で使用される。同様に、英単語「include」、「including」、及び「includes」は「含む」ことを意味するが、その対象に限定されない。
高可用性かつ高耐久性の拡張縮小可能ファイル格納サービスの方法及び装置の様々な実施形態が説明される。少なくともいくつかの実施形態において、ファイル格納サービスは、各個別ファイルが非常に大きいデータ量(例えばペタバイト)を含み得るファイルに対する幾千のクライアントによる共有アクセスに、ファイルのサイズ及び/または同時ユーザの数とは無関係に目標とするパフォーマンス、可用性、及び耐久性のレベルで対応するように設計され得る。1つまたは複数の業界標準ファイルシステムインターフェイスまたはプロトコルは、様々なバージョンのNFS(ネットワークファイルシステム)、SMB(サーバメッセージブロック)、CIFS(共通インターネットファイルシステム)等のサービスにより対応され得る。従って、少なくともいくつかの実施形態において、分散ファイル格納サービスが対応する一貫性モデルは、業界標準プロトコルが対応するモデルと少なくとも同じくらい強力であり得る。例えば当サービスは逐次一貫性に対応し得る。逐次一貫性モデルを実施する分散システムにおいて、複数の実行エンティティ(例えば分散システムのノードまたはサーバ)で集合的に実施された動作実行の結果は、全ての動作がある順序で実行されたかのように、同一であることが期待される。ファイル格納サービスは、ファイルストア容量及びパフォーマンス等のオンデマンド拡張縮小を要求するメディア的、経済的、及び科学的ソリューション等の、ファイルコンテンツ取り扱いアプリケーション(例えばウェブサーバファーム、ソフトウェア開発環境、及びコンテンツ管理システム)、高性能コンピューティング(HPC)アプリケーション、及び「ビッグデータ」アプリケーションといった多種多様なアプリケーションによる使用のために設計され得る。「ファイルストア」という用語は本明細書において、ファイルシステムの論理的均等物を示すために使用され得る。例えば、所定のクライアントは、2つの異なるNFS準拠ファイルストアFS1及びFS2を作成し得る。FS1のファイルは、マウント可能なルートディレクトリのサブディレクトリの1つの集合内に格納され、FS2のファイルは、別のマウント可能なルートディレクトリのサブディレクトリの集合内に格納される。
少なくともいくつかの実施形態において、ハイレベルな拡張縮小性を可能にすることを支援するために、当サービスにはモジュラアーキテクチャが使用され得る。例えば、一実施態様において、複数のマルチテナント型格納ノードを備える物理格納サブシステムは、ファイルストアコンテンツに使用され、一方自身のメタデータノードの集合を有する論理上異なるメタデータサブシステムは、ファイルストアコンテンツを管理するために使用され得る。例えば、メタデータに対するパフォーマンス、耐久性、及び/または可用性の要件は、少なくともいくつかの事例においてデータに対する該当要件とは異なり得る(例えばメタデータに対する該当要件はデータに対する該当要件よりも厳しい)という事実により、メタデータとデータの論理的分離は動機付けられ得る。メタデータノード及び格納ノードとは異なる自身のアクセスノードの集合を有するフロントエンドアクセスサブシステムは、クライアントが業界標準インターフェイスを介してファイルストアの作成、読み出し、更新、変更、及び削除を要求することを可能にするネットワークエンドポイントを公開する責任、そして接続管理、負荷分散、認証、認可、及びクライアントインタラクションに伴う他のタスクを処理する責任を担い得る。いくつかの実施形態において、サブシステムのうちのいずれか1つに対し、例えばアクセスサブシステム、メタデータサブシステム、または格納サブシステムに対し、リソースは独立して展開され、その他のサブシステムにおける対応展開変更を要求することはない。例えば、アクセスサブシステムにおいて潜在的パフォーマンスボトルネック等のトリガー条件が特定された場合、またはアクセスサブシステムノードのある集合がネットワーク停止または他の障害を経験した場合、格納サブシステムまたはメタデータサブシステムに影響を及ぼすことなく、かつクライアント要求の流れを休止することなく、追加アクセスサブシステムノードがオンライン化され得る。様々な種類のトリガー条件に応じて、同様の展開変更が他のサブシステムにおいても行われ得る。いくつかの実施形態において、特にアクセスサブシステムノードは、アクセスノード障害からの復旧が特別効率良くあり得るように、略ステートレスに実行され得る。
少なくともいくつかの実施形態において、ファイルストアメタデータオブジェクト(例えばディレクトリエントリ、リンク等の属性を表すデータ構造)のコンテンツ自体は、格納サブシステムにより管理されるデバイス上に格納され得る。しかし後述されるように、いくつかの事例において、メタデータに使用されている格納オブジェクトに適用されるポリシーとは異なるポリシーが、データに使用されている格納オブジェクトに適用され得る。このような実施形態において、メタデータサブシステムノードは、例えば、メタデータ管理ロジックを実行する様々な実行プロセスまたは実行スレッドを含み、格納サブシステムにおいてメタデータコンテンツの格納を調整し得る。いくつかの実施形態において、所定の格納サブシステムノードは、回転磁気ディスクを採用する複数のデバイス、及びソリッドステートドライブ(SSD)を採用する複数のデバイス等、いくつかの異なる種類の格納媒体を含み得る。いくつかの実施形態において、所定の格納サブシステムノードは、メタデータとデータの両方を、それぞれ異なる格納デバイスに、または同じ格納デバイス上に格納し得る。「ファイルストアオブジェクト」という用語は本明細書において、格納サービスのクライアントが通常見えるファイル、ディレクトリ等のデータオブジェクト、並びにデータオブジェクトを管理及び格納するために使用される内部メタデータ構造(例えば後述される論理ブロック、物理ページ、及びエクステントの間のマッピングを含む)を、集合的に指すために使用され得る。
少なくともいくつかの実施形態において、分散ファイル格納サービスは、プロバイダネットワークのリソースを使用して構築され、主としてプロバイダネットワーク内の他のエンティティからの格納要求を遂行するように設計され得る。インターネット及び/または他のネットワークを介してアクセス可能な1つまたは複数のネットワークアクセス可能サービス(様々な種類のクラウドベースのコンピューティングサービスまたは格納サービス等)を、クライアントの分散集合に提供するために、企業または公的機関等の事業体が構築したネットワークは、本明細書においてプロバイダネットワークと称され得る。当該サービスのいくつかは、よりハイレベルなサービスを構築するのに使用され得る。例えば、コンピューティングサービス、格納サービス、またはデータベースサービスは、コンテンツ配信サービスまたはストリーミングデータ処理サービスのブロックを構築することに使用され得る。プロバイダネットワークのサービスのうちの少なくともいくつかは、クライアント使用のために、「インスタンス」と呼ばれるサービス単位にパッケージ化され得る。例えば、仮想化コンピューティングサービスによりインスタンスが生成された仮想マシンは、「演算インスタンス」と表され得る。プロバイダネットワークのこのような演算インスタンスが実行されるコンピューティングデバイスは、本明細書において「インスタンスホスト」またはより簡潔に「ホスト」と称され得る。所定のインスタンスホストはいくつかの演算インスタンスを含み、1つまたは複数のクライアントのアプリケーションを実行するために、特定のインスタンスホストにおいて演算インスタンスの集まりが使用され得る。いくつかの実施形態において、例えば、格納サービスのアクセスサブシステムに適切なネットワークアドレスを割り当てること、仮想コンピューティングサービスに使用される認可/認証プロトコルを実施すること等の結果として、ファイル格納サービスは、プロバイダネットワークの演算インスタンスのある部分集合(または全て)からアクセス可能になり得る。いくつかの実施形態において、プロバイダネットワークの外部のクライアントにもファイル格納サービスへのアクセスが提供され得る。様々な実施形態において、プロバイダネットワークサービスのうちの少なくともいくつかは、利用ベースの価格設定ポリシーを実施し得る。例えば、演算インスタンスを使用した時間の長さに少なくとも一部基づいて、または演算インスタンスから送られた様々な種類の要求の数に少なくとも一部基づいて、顧客に対し演算インスタンスの課金が行われ得る。少なくともいくつかのこのような実施形態において、ファイル格納サービスも、少なくともいくつかのカテゴリのクライアント要求に対して利用ベース価格設定を採用し得る。例えば、当該サービスは、所定の顧客のために完了した特定のファイルシステムインターフェイス要求の記録を保持し、当記録に基づいて顧客に対する請求額を生成し得る。
ファイルストアサービスは、いくつかの実施形態において、例えば多数の異なる複製技術のうちのいずれかを使用して、ハイレベルなデータ耐久性を維持し得る。例えば、一実施形態において、ファイルストアデータ及びメタデータは、エクステントと呼ばれる格納単位を使用して物理的に格納され、エクステントのコンテンツは、様々な物理格納デバイスにおいて複製され得る。エクステントのコンテンツは、異なる物理格納デバイスにおける物理コピーと区別するために、「論理エクステント」と本明細書において称され得る。物理コピーは、「エクステントレプリカ」、「レプリカグループメンバー」または「小エクステント」もしくは「レプリカグループ」と称され得る。一実施態様において、例えば、ファイル(またはメタデータオブジェクト)は、各論理ブロックが1つまたは複数の物理データページにマッピングされている一連の論理ブロックとして組織され得る。論理ブロックはストライピングの単位とみなさるため、少なくともいくつかの実施態様において、同一ファイル(または同一メタデータ構造)の2つの異なる論理ブロックのコンテンツが同じ格納デバイスに格納される可能性は低くあり得る。所定の論理エクステントの各レプリカは、複数の物理データページを含み得る。いくつかの実施形態において、消失訂正符号ベースのエクステントレプリカが使用され得る一方、他の実施形態においては、完全複製等の別の複製技術が使用され得る。少なくとも一実施形態においては、消失訂正符号と完全複製の組み合わせが使用され得る。クライアントからの所定の変更要求は、対応ファイルストアオブジェクトまたはメタデータに使用されている複製ポリシーの特性によって、それぞれの格納デバイス及び/またはそれぞれの格納サブシステムノードにおける複数の物理変更へと適宜変換され得る。いくつかの実施形態において、レプリカグループのエクステントレプリカのうちの1つまたは複数は、マスタレプリカとして指定され、例えばコンセンサスベースの複製ステートマシンを使用して、現行マスタを提供する格納サービスノードにより、エクステントに対する更新が整合され得る。このような格納サービスノードは、マスタレプリカを格納するエクステントに関して、本明細書において「マスタノード」または「リーダ」と称され得る。一実施態様において、所定の論理エクステントのN個のエクステントレプリカが保持されている場合、レプリカのクォーラムM(MはN/2以上)が必要となり、このようなクォーラムは、特定の更新がコミットされる前に、リーダ/マスタノードにより開始される更新プロトコルを使用して取得され得る。一実施形態において、一部のエクステントは、ファイルコンテンツまたはデータに全体的に使用され、他のエクステントは、メタデータに独占的に使用され得る。別の実施形態において、所定のエクステントは、データとメタデータの両方を格納し得る。いくつかの実施態様において、所定のファイルストアのステート変化を示すログ記録を複製するのに、コンセンサスベースプロトコルが使用され、当該ステートのコンテンツは、複数のエクステントを使用して複製され得る(例えば完全複製または消失訂正符号複製のどちらかを使用して)。様々な実施形態において、少なくともいくつかの種類の読み出し動作の一貫性を確保するために、複製ステートマシンも使用され得る。例えば、単一クライアント読み出し要求は、様々なエクステントにおける複数の物理読み出し動作(例えばメタデータ及び/またはデータの物理読み出し動作)を実際に要し、複製ステートマシンの使用により、このような分散読み出しが、対象ファイルストアの読み出し一貫性要件を破らないことが保証され得る。
後述される異なる実施形態において、データ及びメタデータの論理ブロック、物理ページ、及び/またはエクステントのサイズ及びこれらの関係を決定するために、様々な異なる割り当て及びサイズ決定ポリシーが使用され得る。例えば、一簡潔実施態様において、ファイルは複数の固定サイズ(例えば4メガバイト)の論理ブロックを含み、各論理ブロックは複数の固定サイズ(例えば32キロバイト)の物理ページを含み、そして各エクステントは固定数のページを格納するのに十分な格納領域(例えば16ギガバイト)を備え得る。別の実施形態において、異なる論理ブロックはサイズにおいて異なり得る、または物理ページはサイズにおいて異なり得る、またはエクステントはサイズにおいて異なり得る。いくつかの実施形態において、エクステントは動的にサイズ変更(例えば増大または縮小)され得る。いくつかの実施形態において、論理ブロックに静的割り当てが使用され(例えば、ブロックに対する第1書き込みに応じて、ブロックのサイズに対する書き込みペイロードのサイズに関係なく、論理ブロック全体の全ての物理格納領域が割り当てられ得る)、一方他の実施形態においては動的割り当てが使用され得る。論理ブロック構成及び対応物理格納領域割り当てを統御する様々な技術及びポリシーが、さらに詳しく後述される。いくつかの実施形態において、ファイル格納サービスにより管理される異なるファイルストアは、異なるブロック/ページ/エクステントサイズ決定及び構成ポリシーを実施し得る。いくつかの事例において、クライアントからの所定の書き込み動作は、使用されているファイルシステムインターフェイスがクライアントに指定を許可する書き込みサイズに応じて、ページ全体の変更ではなく、ページの一部のみの変更をもたらし得る。所定の実施態様において、格納サブシステムが対応する書き込みに関して物理ページが最小レベルの原子性ではあるが、書き込み要求は任意のデータ量を対象とすることが可能である場合(すなわち書き込みは、ページ境界に合っている必要はなく、整数ページの全てのコンテンツを変更する必要もない場合)、いくつかの書き込みは読み出し‐変更‐書き込みシーケンスとして、格納サービス内部で取り扱われ得る。いくつかのこのような実施形態においてページ境界を越えない書き込みに対し採用され得る楽観的条件付き書き込み技術に関する詳細が、下記に提供される。一般に各格納デバイス及び/または格納サービスノードは、少なくともいくつかの実施形態において、複数の異なる顧客の動作に対応し、及び/または複数の異なる顧客のデータを格納し得る。
一般に、顧客から受信した単一ファイルストア動作要求のために読み出しまたは変更される必要があり得るメタデータ及び/またはデータは、複数の格納サービスノードに分配され得る。例えば、削除動作、名前変更動作等は、いくつかの異なる格納デバイス上に配置されたメタデータ構造の複数の要素に対し、更新を要求し得る。逐次一貫性モデルに従って、少なくとも一実施形態において、1つのメタデータサブシステムノードにおける第1メタデータ変更及び別のメタデータサブシステムノードにおける第2メタデータ変更を含む単一クライアント要求に応えるために、ファイルシステムメタデータ変更グループを含む原子メタデータ動作が実行され得る。逐次一貫性に対応する様々な分散更新プロトコルが、異なる実施形態において使用され得る。例えば、さらに詳しく後述される分散トランザクション機構が、少なくともいくつかの実施形態において、そのような複数ページ、複数ノード、または複数エクステントの更新に使用され得る。いくつかの実施形態において、当然使用されている複製戦略に応じて、メタデータ変更のそれぞれが順番に、複数のエクステントレプリカに対する更新を伴い得る。
いくつかの実施形態において、オブジェクト名変更プロトコル、接続寿命を考慮した負荷分散技術、名前空間管理技術、クライアントセッションメタデータキャッシング、オフセットベースの輻輳制御ポリシー等の使用といった、ファイル格納サービスの様々な態様に伴う最適化技術が採用され得る。格納サービスのこれらの特徴に関する詳細は、様々な図面の説明と合わせて下記に提供される。
ファイル格納サービス概要
図1は、少なくともいくつかの実施形態による、分散ファイル格納サービスの高次概観図を提供する。示されるように、格納サービス102を含むシステム100は、格納サブシステム130と、メタデータサブシステム120と、アクセスサブシステム110の少なくとも3つのサブシステムに論理的に分割され得る。各サブシステムは、格納サブシステム130の格納ノード(SN)132A、132Bと、メタデータサブシステム120のメタデータノード(MN)122A、122Bと、アクセスサブシステム110のアクセスノード(AN)112A、112B等、複数のノードを備え得る。各ノードは例えば、いくつかの実施形態において、各自の物理サーバまたは仮想化サーバにおいて実行されるプロセスまたはスレッドの集合として実装され得る。少なくともいくつかの実施形態において、任意の所定サブシステムにおけるノードの数は、他のサブシステムにおけるノードの数とは関係なく変更可能であるため、サブシステムのうちのいずれかにおいて必要に応じた追加リソースの展開(並びにサブシステムのいずれかにおいて同様のリソースの独立削除)が可能である。用語「アクセスサーバ」、「メタデータサーバ」、及び「格納サーバ」は、それぞれ用語「アクセスノード」、「メタデータノード」、及び「格納ノード」の均等物として本明細書において使用され得る。
描かれた実施形態において、格納ノード132は、例えばSSDと回転ディスクのある組み合わせを使用して、エクステント134(格納ノード132Aにおけるエクステント134Aと134、及び格納ノード132Bにおけるエクステント134Kと134L等)を格納する責任を担い得る。例えば物理格納デバイスのある集合において複数のギガバイト(一般的ではあるが必ずしもではない)の連続する格納領域を含み得るエクステントは、いくつかの実施形態において、格納複製の単位を表し得る。従って、任意の所定論理エクステントの多数の物理レプリカが格納され得る。各エクステントレプリカは、いくつかの実施形態において、多数の物理ページとして組織され得る。当該ページは、格納サブシステム内で読み出しまたは書き込みが実行される最小単位を表す。図4に関して後述されるように、所定のファイルストアオブジェクト(例えばファイルまたはメタデータ構造)は、論理ブロックの集合として組織され、各論理ブロックはデータエクステント内のページの集合にマッピングされ得る。ファイルストアオブジェクトのメタデータは、それ自体が論理ブロック(データの対応論理ブロックとはサイズが異なる可能性のある論理ブロック)の集合を備え、別のエクステント134のページに格納され得る。少なくともいくつかの実施形態において、エクステントレプリカに対する更新を管理するために、複製ステートマシンが使用され得る。
アクセスサブシステム110は、描かれた実施形態において、ファイルシステムAPI(アプリケーションプログラムインターフェイス)140等、1つまたは複数のファイルシステムインターフェイスをクライアント180に対し提示し得る。少なくともいくつかの実施形態において、さらに詳しく後述されるように、負荷分散装置の集合(例えば格納サービス自体とは関係なく構成され得るソフトウェアまたはハードウェアデバイス)は、格納サービスのクライアントとアクセスサブシステムの間の仲介として機能し得る。いくつかの事例において、負荷分散機能性の少なくともいくつかの態様は、アクセスサブシステム自体の中で実施され得る。少なくともいくつかの実施形態において、アクセスサブシステムノード112は、クライアント180が同時に使用する好適なネットワーク構造内に確立されたサービスエンドポイントを表し得る。図3に関して後述されるように、いくつかの実施形態において、隔離仮想ネットワークに対応付けられた特別ネットワークアドレスが、AN112に割り当てられ得る。AN112は、例えばクライアントのネットワーク識別並びにユーザ識別に基づいて、クライアント入接続を認証し得る。いくつかの事例において、ANは、アクティブディレクトリサービスまたはケルベロスと同様の識別/認証サービスとインタラクトし得る。分散ファイル格納サービス102(NFSv4及びSMB2.1)が対応し得るいくつかのファイルシステムプロトコルは、例えばロック及びオープンファイルの識別子に係るステートを、ファイルサーバが保持することを要求し得る。いくつかの実施形態において、ロック及びオープンファイルのステートを含む持続的サーバステートは、アクセスサブシステムではなく、メタデータサブシステム120により取り扱われ、その結果、アクセスサブシステムは、必要に応じて拡張及び縮小可能な略ステートレスなサーバ隊としてみなされ得る。いくつかの実施形態において、図6に関して後述されるように、AN112は、様々なファイルストアオブジェクトに係るメタデータステートをキャッシュし、キャッシュしたメタデータを使用して、少なくともいくつかの内部I/O要求を、メタデータノードとのインタラクションを要求することなく直接格納ノードへ送り得る。
メタデータサブシステム120は、描かれた実施形態において、様々な種類のファイルストアメタデータ構造を管理する責任を担い得る。ファイルストアメタデータ構造には、例えばiノード、アクセスコントロールリスト(ACL)等のファイル/ディレクトリ属性、リンク数、変更回数、実ファイルサイズ、格納サブシステムページを示す論理ブロックマップ等が含まれる。さらに、メタデータサブシステムは、いくつかの実施形態において、ファイルストアオブジェクトのオープン/クローズステート、及び様々なファイルストアオブジェクトのロックを記録し得る。メタデータサブシステム120は、NFSクライアントが求めるクローズ対オープンセマンティック等、所望するファイルストアオブジェクトの一貫性セマンティックを維持するように、動作の順序設定及び調整を行い得る。メタデータサブシステムはまた、例えば後述の分散トランザクション技術を使用して、名前変更、削除、切り捨て、及び付加等の複数のメタデータ要素を伴い得る動作にわたる逐次一貫性を確保し得る。メタデータサブシステム120は、論理的に格納サブシステム130から独立しているが、少なくともいくつかの実施形態において、永続性メタデータ構造は、格納サブシステムに格納され得る。このような実施形態において、メタデータ構造は格納サブシステムに物理的に格納され得るが、メタデータサブシステムノードは、使用する特定の格納ノードの同定、メタデータに対する格納動作の調整または順序設定等のタスクの責任を担い得る。少なくともいくつかの実施形態において、メタデータサブシステムは、格納サブシステムのコンセンサスベースステート複製機構等、いくつかの実施形態における格納サブシステムにより採用されるステート管理技術のうちのいくつかを再利用し得る。
ファイル格納サービスのプロバイダネットワーク実施態様
先に述べたように、いくつかの実施形態において、分散格納サービスは、プロバイダネットワークのリソースを使用して実施され、そしてプロバイダネットワークの演算インスタンスにおいて稼働しているアプリケーションまたはクライアントによるファイル関連動作のために使用され得る。いくつかの実施形態において、プロバイダネットワークは、複数の地理的領域に編制され、各領域は、本明細書において「可用性ゾーン」とも称され得る1つまたは複数の可用性コンテナを含み得る。そして可用性コンテナは、所定の可用性コンテナ内のリソースが他の可用性コンテナにおける障害から隔離されるように(例えば電力関連設備、冷却設備、及び物理的安全構成要素等の独立インフラストラクチャ構成要素と共に)設計された1つまたは複数の別個の場所またはデータセンタを含み得る。1つの可用性コンテナにおける障害は、その他の可用性コンテナにおける障害に至ると予期され得ないため、リソースの可用性プロファイルは、別の可用性コンテナにおけるリソースの可用性プロファイルから独立するように企図される。様々な種類のアプリケーションは、それぞれの可用性コンテナにおいて複数のアプリケーションインスタンスを開始することにより、単一の場所における障害から守られ得る。格納サービスの様々なサブシステムのノードもまた、いくつかの実施形態において、例えばサービスの可用性/可用時間目標、及び/または様々なファイルストアに対するデータ冗長性要件に従って、いくつかの異なる可用性コンテナにわたり分配され得る。同時に、いくつかの実施態様において、同一地理的領域内に存在するリソース(分散ファイル格納サービスに使用されているホストまたは格納デバイス等)の間に、安価で低遅延のネットワーク接続が提供され、同一可用性コンテナのリソース間のネットワーク送信はさらに速くあり得る。一部のクライアントは、自身のアプリケーションの様々なコンポーネントが稼働する正確な場所に対し所望する制御度を維持するために、自身のファイルストアに使用されているリソースのうちの少なくともいくつかが備蓄及び/またはインスタンス化される場所を、例えば地域レベル、可用性コンテナレベル、またはデータセンタレベルで、特定したいと所望し得る。他のクライアントは、例えばパフォーマンス、高可用性等のクライアント要件をリソースが満たす限り、自身のリソースが備蓄またはインスタンス化される正確な場所に関心が薄くあり得る。
少なくともいくつかの実施形態において、所定のデータセンタ内のリソースは、所期可用性の差または障害許容力レベルに基づいて、サブグループにさらに分割され得る。例えば、データセンタにおける1つまたは複数のサーバラックは、少なくともいくつかの事例において、ラック内の相関障害の可能性が異なるラックにまたがる相関障害の可能性よりも高くあり得るため、低レベル可用性コンテナとして指定され得る。少なくともいくつかの実施形態において、格納サービスの様々なコンポーネントまたはノードをどこでインスタンス化するかを決定する時、パフォーマンス目標及び耐久性目標と共に、説明された様々なレベルの可用性包含(例えば地域レベル、データセンタレベル、またはラックレベル)の任意の組み合わせが考慮され得る。従って、いくつかの種類の格納サービスコンポーネントに対し、ラックレベルの冗長性/複製は十分であるとみなされ得るため、一般に、同じ機能を提供する(または同一データ/メタデータの複製を格納する)異なるコンポーネントに、異なるラックが使用され得る。他のコンポーネントに対し、冗長性/複製が、同様にまたは代わりに、データセンタレベルまたは地域レベルで実施され得る。
図2は、少なくともいくつかの実施形態による、ファイル格納サービスを実施するための、プロバイダネットワーク202の複数の可用性コンテナ212におけるリソースの使用を例示する。描かれた実施形態において、3つの可用性コンテナ212A、212B、212Cが示される。それぞれの可用性コンテナが格納サービスの複数の格納ノード、メタデータノード、及びアクセスノードを備える。各可用性コンテナは通常、可用性コンテナの境界線をまたがる相関障害イベントを防止するように設定されるため、所定のファイルストアに割り当てられた格納サービスノードの集合は一般に、異なる可用性コンテナにわたって分散され得る。一部のファイルストアは、他のファイルストアよりも低い可用性または耐久性要件を有し、そのため、少なくともいくつかの実施形態において、単一可用性コンテナ内で実施され得ることに留意されたい。一実施形態において、ファイル格納サービスが構築されると、いくつかの可用性コンテナ212のそれぞれにおける3つのサブシステムのそれぞれに関して、ノードのプールが確立され得る。当該ノードプールから必要に応じて特定のノードが、所定のファイルストアに割り当てられ得る。別の実施形態において、事前設定された格納サービスノードプールを確立する代わりに、必要に応じて新たなノードがインスタンス化され得る。
所定のファイルストアまたはファイルシステムのためにファイル格納を集合的に実行するAN、MN、及びSNの集まりは、そのファイルストアの「ノード集合」250と称され得る。図2に示される実施形態において、格納サービスノードはマルチテナントであるため、サブシステムのうちのいずれかの所定のノードは、いくつかの異なるクライアント及び/またはいくつかの異なる顧客からの要求を処理する責任を担い得る。様々な実施形態において、所定の顧客(例えば自身の請求アカウントが格納サービスにおいて開設されている事業主体または個人)は、描かれた実施形態におけるいくつかの異なるファイルストアを立ち上げ、しかも多数の異なるクライアントデバイス(プログラム的インターフェイスが呼び出され得るコンピューティングデバイス)が、単一ファイルストアに対しファイルサービス要求を出すために、所定の顧客により、または所定の顧客のために使用され得ることに留意されたい。少なくともいくつかの実施形態において、複数のユーザアカウント(例えば顧客企業組織の数従業員それぞれの1つまたは複数のユーザアカウント)は、単一請求アカウントの管轄下で開設され、それぞれのユーザアカウントは、様々なクライアントデバイスからファイル格納要求を送り得る。
顧客C1のファイルストアFS1に使用される図2のノード集合250Aは、2つの可用性コンテナ212A、212Bに分配されたSN132A、132B、132Kと、MN122A、122B、122Fと、AN112A、112B、112Hとを備える。別の顧客C2のファイルストアFS2に使用されるノード集合250Bは、3つの可用性コンテナ212A、212B、212C内のノード、SN132B、132K、132L、132Pと、MN122B、122F、122G、122Rと、AN112B、112Mとを備える。顧客C1のファイルストアFS3に使用されるノード集合250Cは、可用性コンテナ212Cのノードのみ、SN132P、132Qと、MN122R、122Sと、AN112M、112Nとを使用する。所定のファイルストアに使用する特定ノードは、例えば格納サービスの配置コンポーネントにより、様々な要素に基づいてオンデマンドで選択可能であり、そしてノード集合は、変化する格納領域ニーズ、パフォーマンスニーズ、障害等に応じて、時間と共に変化し得る。少なくともいくつかの実施形態において、単一格納ノードにおける所定の格納デバイスは、異なるクライアントに属するデータ及び/またはメタデータを格納し得る。少なくともいくつかの実施形態において、単一エクステントは、複数のクライアントまたは顧客のデータ及び/またはメタデータを含み得る。
いくつかの実施形態において、少なくともSNに関して、所定のファイルストアのいくつかの異なる範囲に沿って、冗長性または複製が実施され得る。所定ファイル内のデータ量が増大すると、例えば、ファイルの様々な論理ブロックは一般に、異なる論理エクステントにマッピングされ得る。このように、論理ブロックレベルでファイルストライピングが実施され、これにより、特定パターンのI/O要求に対するパフォーマンスの向上が促進され、また大きなファイルに使用されている格納ノードまたはデバイスのうちの1つが障害を起こした場合に、当該ファイルの復元にかかる時間が削減され得る。いくつかの実施態様において、ファイルのメタデータも、複数のメタデータ論理エクステントにわたりストライピングされ、複数のMNにより管理され得る。所望するデータ耐久度を達成するために、各論理エクステント(データ用、メタデータ用に拘わらず)が順番に、例えば消失訂正符号または完全複製を使用して、異なる可用性コンテナ212における複数のSNにわたって複製され得る。前述のように、少なくとも一実施形態において、低レベル可用性コンテナにわたる複製が、例えば異なるレプリカに対し同一データセンタ内の異なるラックを選択することで、実施され得る。AN及びMNはまた、いくつかの実施形態において、冗長グループに編制され、そのため、あるANまたはMNが障害を起こしたとしても、その作業負荷はその冗長グループの別のメンバーにより素早く吸収され得る。
いくつかの実施形態において、プロバイダネットワーク202は、様々な顧客のために「隔離仮想ネットワーク」(IVN)の確立を支援し得る。所定の顧客のために構築されたIVN(いくつかの環境において仮想プライベートクラウドまたはVPCとも称され得る)は、プロバイダネットワークの論理的隔離区画内のコンピューティングリソース及び/または他のリソースの集まりを備え得る。これにより、ネットワーク設定に関する実質的な制御が顧客に与えられる。いくつかの実施形態において、例えば、顧客は、IVNリソースに使用するIP(インターネットプロトコル)アドレス範囲を選択し、IVN内のサブネットの作成、及びIVNのための経路テーブル、ゲートウェイ等の設定を管理し得る。いくつかの実施形態において、IVN内のデバイスのうちの少なくともいくつかに関して、ネットワークアドレスは、少なくともデフォルトでIVNの外部には見えないようにされ得る。IVNと顧客の外部ネットワーク(例えば顧客のデータセンタまたはオフィス構内におけるデバイス)との間の接続を可能にするために、プライベートアドレスと共に使用するように構成された仮想インターフェイス(そのためプライベート仮想インターフェイスと称され得る)と、仮想プライベートゲートウェイが設置され得る。いくつかの実施形態において、1つまたは複数のVPN(仮想プライベートネットワーク)が、顧客のIVNと外部ネットワーク(顧客のオフィスネットワークまたは顧客のデータセンタ等)との間に構成され得る。少なくともいくつかの実施形態において、このようなVPNは、IPSec(インターネットプロトコルセキュリティ)、SSL/TLS(セキュアソケット層/トランスポート層セキュリティ)、DTLS(データグラムトランスポート層セキュリティ)等のセキュアネットワークプロトコルを使用し得る。
いくつかの実施形態において、セキュリティまたは他の理由で、分散格納サービスにより管理される所定のファイルストアへのアクセスは、1つまたは複数のIVN内のクライアントデバイスの特定集合に限定され得る。図3は、少なくともいくつかの実施形態による、隔離仮想ネットワーク302に対応付けられたネットワークアドレスが、格納サービスのアクセスサブシステムノードに割り当てられる構成を例示する。このようなアドレス割り当ての結果、自身のネットワークアドレスもIVN内にあるクライアントのみが、AN112を介してファイルストアにアクセス可能になり得る。示されるように、図3のプロバイダネットワーク202は、SN132A〜132Fと、MN122A〜122Fと、AN112A〜112Fとを備える。2つのIVN302Aと302Bが、顧客AとBそれぞれのために、プロバイダネットワーク202内に構築されている。各IVNは、仮想コンピューティングサービス302のいくつかの演算インスタンス(CI)を含む。CIにおいて、ファイル格納サービスを要するアプリケーションが稼働し得る。IVN302Aに示されるCI(例えばCI380A、380B)及びIVN302Bに示されるCI(CI380K、380L)に加えて、他のCI(例えば380P、380Q)も、描かれた実施形態において、IVNの外部のインスタンスホスト上で稼働し得る。従って、ファイル格納サービスの全てのクライアントがIVN302に必ずしも属する必要はない。
IVN302A内のCIからファイル格納サービスへのアクセスを可能にするために、AN112A、112Dに対し、IVN302Aに対応付けられたプライベートIP(インターネットプロトコル)アドレス350Aが割り当てられている。その結果、IVN302AのクライアントCI380A、380Bは、アドレス350Aを使用してファイル格納サービスインターフェイスを呼び出し、ファイル格納サービスとのインタラクション時に、IVNに既に実装されている様々なネットワーク分離及びセキュリティ機能に依存することが可能になり得る。同様に、AN112D、112Eに対し、IVM302Bのプライベートネットワークアドレスが割り当てられ、これにより、IVN302BのクライアントCI380K、380Lから安全なアクセスが可能になる。少なくともいくつかの実施形態において、所定のAN(112D等)に対し複数のネットワークアドレスが割り当てられ、これにより、単一ANリソースが複数のIVNにより共有されることが可能になることに留意されたい。別の実施形態において、各ANは、単一のIVNのネットワークアドレスに限られ得る。プライベートアドレスに加えて、いくつかの実施形態において、パブリックネットワークアドレス(例えば公衆インターネットからアクセス可能なIPアドレス)も、AN112C等の少なくともいくつかのANに使用され、これにより、IVNの一部ではない380Pまたは380Q等のCIからアクセスが可能になる。一実施形態において、プロバイダネットワーク202の外部に配置されたクライアントも、パブリックIPアドレスを使用して格納サービスにアクセスすることが可能になり得る。いくつかの実施形態において、単一の(プライベートまたはパブリック)ネットワークアドレスは、複数のAN112に割り当てられ得る。その結果、例えば、受信作業要求は複数のANにわたって均衡化され、クライアントに影響を与えることなくANフェイルオーバーが実施され得る(例えば、特定のANに障害が起こった後でも、同一のネットワークアドレスが割り当てられた残りのANがクライアント要求に応答し続け得るため、クライアントは同一アドレスに対しファイル格納要求を送信し続けられる)。
論理ブロック、ページ、及びエクステント
図4は、少なくともいくつかの実施形態による、ファイル格納サービスオブジェクトと、論理ブロックと、1つまたは複数のエクステントにおける物理ページとの間のマッピングを例示する。ファイルF1に関して、3つの論理ブロックLB402A、402B、402Cが構成されている。ファイルまたはメタデータ構造等、所定オブジェクトの異なる論理ブロックのコンテンツは一般に、別個の格納場所に格納され得るため、論理ブロックは本明細書においてストライプとも称され得る。いくつかの実施形態において、ファイルF1のストライプA、B、C等、ストライプの物理的分離が実施される。例えば、所定オブジェクトの2つのストライプは、同一の物理格納デバイスに格納され得ない。別の実施形態において、ストライプの物理的分離は、系統だった施行なしでも、例えば多数の物理デバイスにわたるストライプのランダム分散または略ランダム分散の使用により、高い確率で起こり得る。少なくともいくつかの実施形態において、所定のファイルまたはメタデータ構造内において、論理ブロックサイズは異なり得る。別の実施形態において、少なくともいくつかの格納サービスオブジェクトの全ての論理ブロックは、同一サイズであり得る。描かれた実施形態において、各論理ブロック402のコンテンツは、所定のデータエクステント434の1つまたは複数の物理ページ(PP)412に格納され得る。従って、例えばLB402のコンテンツは、格納ノード132Dのデータエクステント434CにおけるPP412J、412K、412Lに書き込まれている。LB403のコンテンツは、格納ノード132Bのデータエクステント434A内のPP412Bに格納され、LB404のコンテンツは、格納ノード132Cにおける格納エクステント434BのPP412Fに格納される。ブロックとページ間のマッピングに関する論述を簡潔にするために、図4においてエクステントレプリカは図示されない。少なくとも描かれた実施形態において、エクステントの複製に使用される技術は、ブロックをページにマッピングするために使用される技術とは無関係であり得る。
少なくともいくつかの実施形態において、さらに詳しく後述されるように、物理格納に動的オンデマンド割り当てが使用され得る。これに従って、所定の書き込み要求を受信した時には、書き込み要求の書き込みペイロードを格納するのに実際に必要となるページの集合のみが実際に割り当てられ得る。特定のLBの論理ブロックサイズが8メガバイトであり、LBがマッピングされたエクステントに64キロバイトの固定ページサイズが使用され、そしてLBに対する第1書き込みが56キロバイトの書き込みペイロードを含むという、例示的シナリオを検討する。このようなシナリオにおいて、オンデマンド割り当てが使用される実施形態においては、格納領域の1ページ(64キロバイト)のみが要求に応じて割り当てられ得る。別の実施形態においては、全LBの物理格納が、書き込みペイロードサイズに関係なく、LBに対する第1書き込み要求に応じて確保され得る。
クライアントが特定のファイルに対し初めて書き込みを行う時、選択されたメタデータサブシステムノードは、1つまたは複数の論理ブロック402に関するメタデータ475を生成し得る(例えばいくつかの事例において、論理ブロックサイズに対する書き込みペイロードのサイズにより、複数の論理ブロックが必要となり得る)。描かれた実施形態において、当メタデータ475自体は、メタデータエクステント464のPP412Q等の1つまたは複数の物理ページに格納され得る。少なくともいくつかの実施形態において、メタデータ構造に使用されているブロックサイズ及び/またはページサイズは、対応データに使用されているものとは異なり得る。少なくとも一実施形態において、メタデータエクステントは、データに使用される格納デバイス(例えば回転ディスク)とは異なるクラスまたは種類の格納デバイス(例えばSSD)を使用して格納され得る。いくつかの実施態様において、メタデータの少なくとも一部と同一ファイルストアオブジェクトのメタデータの少なくとも一部は、同じエクステントに格納され得る。
いくつかの実施形態において、前述のように、データエクステント434及び/またはメタデータエクステント464のコンテンツは、例えばそれぞれのデータ耐久性要件を満たすために、複製され得る。このような実施形態において、さらに詳しく後述されるように、論理エクステントの特定のレプリカは、マスタレプリカとして選ばれ、そしてエクステントに対する更新は、マスタレプリカにより(またはマスタレプリカが属する格納ノードにより)、例えば対応更新要求が成功したことを示す前にマスタから要求数のレプリカに対し更新を伝播することで、開始及び/または調整され得る。
エクステントの任意の所定レプリカが格納される格納デバイスにおいて所定の論理ブロックのコンテンツが書き込まれる順序は異なり得る。すなわち、特定の1メガバイトの論理ブロックに対応する2つの32キロバイトの物理ページP1及びP2が、ディスクまたはSSD上に「P1の後にP2が続く」という順序で配置されたとしても、これは必ずしもP1内のデータがP2内のデータよりも論理ブロック内において小さい開始オフセットを有することを意味するわけではあり得ない。いくつかの実施形態において、例えば向上した順次読み出しまたは書き込みパフォーマンスを促進するために、ページは、第1書き込みが行われた後に移動され得る(すなわちその格納デバイス内で再配置され得る)。所定のエクステントまたはエクステントレプリカ内に、いくつかの異なるファイルに対応付けられた物理ページが格納され得る。例えば、メタデータエクステント634において、F1以外の1つまたは複数のファイルのブロック対ページマップ(または他のメタデータ)が、PP412P、412R、412Sに格納され得る。同様に、ページ412A、412C、412D、412E、412G、412H、412Mは全て、F1以外のファイルのコンテンツを格納し得る。いくつかの実施形態において、同一ファイルの任意の2つの論理ブロックが同じエクステントに(例えば同じエクステントレプリカグループに)マッピングされる確率が非常に低くなり得るのに十分な程の多数のエクステントが確立され得る。このようなシナリオにおいて、I/O要求は(ほとんどの事例において)異なる格納ノード及び異なる格納デバイスを対象とし得るため、同一ファイルの異なる論理ブロックに対する同時I/O要求に、並行して応答することが可能であり得る。少なくとも一実施形態において、格納システムは一般に、例えば特定のブロックに第1書き込みが行われる時に利用可能な空き格納領域量等の要素に基づいて特定のブロックに使用するエクステントを選択することにより、明らかにランダムまたは略ランダムに論理ブロックを利用可能エクステント間に分配する傾向があり得る。
図5は、少なくともいくつかの実施形態による、データエクステント及びメタデータエクステントのレプリカグループ510の構成を例示する。データエクステントD1、D2の2つのレプリカグループ510A、510Bが示され、メタデータエクステントM1、M2の2つのレプリカグループ510C、510Dが示される。一般に、同一論理エクステントの2つの物理レプリカが、同じ格納デバイス上または同じ格納ノードにおける異なる格納デバイス上に格納される場合もあり得るが、例示される各レプリカグループは、格納サブシステムのそれぞれの格納ノード132におけるそれぞれの格納デバイス532に、2つ以上のレプリカを含み得る。
各レプリカグループ510は、1つのマスタレプリカと、1つまたは複数の非マスタレプリカとを含むように示される。マスタレプリカは、例えば複製ステートマシン及び/またはコンセンサスベース更新プロトコルを使用して、レプリカグループのメンバーに対する書き込みを調整する責任を担い得る。いくつかの実施形態において、複製ステートマシン及び/またはコンセンサスベースプロトコルは、読み出しにも同様に使用され得る。複製グループにおけるレプリカの総数は、レプリカに格納されているファイルデータ及び/またはメタデータに対する耐久性要件に応じて、変わり得る。図5において、レプリカ564Aはグループ510Aのマスタレプリカであり、レプリカ565Bはグループ510Bのマスタレプリカであり、レプリカ575Bはレプリカグループ510Cのマスタレプリカであり、レプリカ576Bはレプリカグループ510Dのマスタレプリカである。レプリカグループ510A、510Cは、2つの非マスタレプリカをそれぞれ含む(グループ510Aにレプリカ564B、564C、グループ510Bにレプリカ575A、575C)。消失訂正符号技術、完全複製、または完全複製と消失訂正符号複製の組み合わせ等、様々な実施形態において、異なる種類の複製技術が使用され得る。いくつかの実施形態において、異なる複製技術が、異なるファイルストアに使用され得る。
少なくともいくつかの実施形態において、1つまたは複数の種類のSSD、及び/または回転磁気ディスクに基づいた1つまたは複数の種類の個別デバイスまたはアレイデバイス等、様々な異なる格納デバイスが、エクステントレプリカを格納するために利用可能であり得る。いくつかの実施形態において、所定の格納ノード132はいくつかの異なる種類の格納デバイスを備え、一方他の実施形態において、所定の格納ノードは単一の種類の格納デバイスのみが利用可能であり得る。描かれた実施形態において、格納ノード132A、132B、132Cはそれぞれ、SSDデバイス(3つのノードにそれぞれデバイス532B、532L、532T)、並びに回転ディスクベースのデバイス(それぞれ532A、532K、532S)を有する。いくつかの実施態様において、データエクステントレプリカの格納、メタデータエクステントレプリカの格納、または格納領域が利用可能であれば両種類のエクステントの格納のために、1つの特定の格納デバイス技術が選ばれ得る。一実施態様において、例えば、メタデータエクステントは、可能であればSSD上に格納され、一方データエクステントは、より安価な回転ディスクに格納され得る。いくつかの実施形態において、データエクステント及び/またはメタデータエクステント、あるいはそれらの一部は、例えば使用レベルに基づいて、ある種類の格納デバイスから別の種類の格納デバイスへ移行され得る。
メタデータキャッシング
図6は、少なくともいくつかの実施形態による、ファイル格納サービスのアクセスサブシステムノードにおけるメタデータのキャッシングに伴うインタラクション例を示す。先に述べたように、いくつかの実施形態において、外部負荷分散装置は、クライアントの作業負荷を利用可能なアクセスサブシステムノードに分配するように構成され得る。図6に描かれた実施形態において、負荷分散装置646において、クライアント180からのサービス要求644A(ファイルに対する書き込みまたは読み出し等)が受信される。負荷分散装置646は、対応サービス要求644Bを、元のサービス要求644Aに使用したネットワーク接続とは異なるネットワーク接続を介して、選択されたアクセスノード112へ転送する。
アクセスノード112は、様々なファイルストアオブジェクトに関するメタデータオブジェクトのキャッシュ604を保持し得る。転送されたサービス要求644Bに対応するページの適切な集合を格納する格納サブシステムノード132を特定するのに十分なメタデータがキャッシュ604内に偶然ある場合、アクセスノードは、格納ノードに対し読み出し/書き込み要求を発し得る。しかしながら、メタデータがキャッシュされていない場合、アクセスノード112は、矢印693に示されるように、選択されたメタデータサブシステムノード122に対しメタデータ要求650を送り得る。先に述べたように、いくつかの実施形態において、メタデータコンテンツは、格納サブシステムノードに実際に記憶され得る。メタデータノード122(例えばメタデータ管理コードを実行するプロセスを含み得るメタデータノード122)自体は、別のキャッシュ層を含むメタデータのインメモリ集合612を保持し得る。アクセスノードにより要求されたメタデータがインメモリ集合612内にない場合、メタデータノードは、矢印694に示されるように、1つまたは複数の格納ノード132Aからメタデータを含むページ654を取得し、自身のインメモリ集合612に当該メタデータを格納し得る。いくつかの事例において、クライアントからの要求644Aは、新たなメタデータを生成することを要求し得る(例えば要求がファイルに対する第1書き込みである場合、メタデータノードは、ファイルの第1論理ブロックに対するメタデータエントリを作成し得る)。この場合、メタデータノードは、描かれた実施形態において、要求650に応答する前に、確実に新たなメタデータが格納ノード132に無事格納されるようにし得る。
クライアントの要求に応答するために必要とされる、格納ノード132Aから取得したメタデータの少なくとも一部(要求関連メタデータ652と称される)は、矢印695に示されるように、アクセスノード112に提供され得る。アクセスノードはメタデータを読み出し、メタデータをキャッシュ604に格納し、矢印696に示されるように、メタデータにより特定された適切な格納ノード(複数可)132に対し、読み出しまたは書き込み要求(複数可)655を送り得る。図6に図示されていないが、格納ノード(複数可)132Bは、読み出し/書き込み要求(複数可)に対する応答を提供し、そしてアクセスノードは、いくつかの実施形態において、要求されたサービス動作が成功したか否かを示すようクライアント180に応答し得る。アクセスノード112は、メタデータサブシステムからのメタデータを再度取得する必要なく、キャッシュされたメタデータを使用して、少なくともいくつかの後続クライアント要求に応答可能であり得る。
描かれた実施形態において、明示的キャッシュ無効メッセージを使用する代わりに、アクセスノードにおいてメタデータキャッシュエントリの潜在的失効を管理するために、タイムアウトベース技術が使用され得る。従って、アクセスノード112は、キャッシングタイムアウト設定(複数可)608を使用して、キャッシュ604から任意の所定メタデータ要素を排除する時を決定し得る。いくつかの実施態様において、所定のメタデータエントリは、そのタイムアウト時間608が経過した後、別のクライアント要求に必要とされるまで再キャッシュを試みることなく、キャッシュ604から単純に削除され得る。別の実施態様において、またはいくつかの選択された種類のメタデータエントリに関して、アクセスノード112は、メタデータエントリのキャッシュタイムアウト時間が経過した時にメタデータノード122からそのメタデータエントリを再度要求し得る、あるいはメタデータエントリが変わらず有効であるか否かを調べ得る。後者のシナリオにおいて、エントリが再有効化、またはリフレッシュされる度に、タイムアウト時間は元の値にリセットされ得る。描かれた実施形態において、メタデータの所定の論理ブロックに関して別の種類のタイムアウト設定が、メタデータノード122にて使用され得る。メタデータノード122が最初にあるファイルストアオブジェクトのメタデータを生成し、メタデータ構造の所定の論理ブロックにメタデータを格納すると、メタデータ論理ブロックが再割り当て可能となるまでに経過しなくてはならない最短時間を示す、メタデータブロック再割り当て不適格性タイムアウト時間が開始され得る。(このようなメタデータ再割り当ては、例えばメタデータがブロックに格納されていたオブジェクトが削除された場合に、最終的に起こり得る。)ブロック再割り当て不適格性タイムアウト設定(複数可)614は通常、該当するブロックのメタデータのキャッシュタイムアウト設定608よりも長い時間が設定され得る。例えば、一実施態様において、ブロック再割り当てタイムアウト値は2週間であり、一方キャッシュタイムアウト設定は1日であり得る。このようなシナリオにおいて、アクセスノード112は、毎日1度メタデータの所定のブロックの有効性を調べ直し、同時にメタデータノード122は、確実にそのブロックが、最初に割り当てられた時から2週間が経過する前に、ある他の目的のために再利用されないようにし得る。
いくつかの実施形態において、タイムアウトベース機構を使用する代わりに、アクセスノードにおいてキャッシュされるメタデータエントリに、明示的リースまたはロックが使用され得る。少なくとも一実施形態において、例えばメタデータのある要素がもう有効ではない場合に、メタデータノード122は無効メッセージを送信し得る、明示的キャッシュ無効機構が使用され得る。一実施形態において、メタデータサブシステムは、メタデータの変化に応じて、メタデータのブロックを「無効」または「アクセス不可」と示し得る。アクセスノードがデータブロックにアクセスするために無効キャッシュメタデータの使用を試みると、メタデータサブシステムまたは格納サブシステムにより、メタデータは無効であることを示すエラーメッセージがアクセスノードに対し返され得る。従って、このようなエラーメッセージの結果、キャッシュメタデータは非明示的に無効化され得る。アクセスノードにおいてキャッシュされるメタデータの異なる実施形態において、タイムアウトベース、ロック/リースベース、非明示的及び明示的無効ベース戦略の様々な組み合わせが使用され得る。
693、694、696と表示された矢印により示されるインタラクション等、図6に描かれたインタラクションのうちのいくつかにおいて、格納サービスのいくつかのコンポーネントは、他のコンポーネントのクライアントとして機能し得る。例えば、アクセスノード112は、メタデータノードのクライアントとして機能するメタデータノードに対し、内部要求(すなわち格納サービス内で生成され、格納サービスの顧客は直接アクセス不可能なネットワーク経路を使用する要求)を送信し得る(矢印693)。同様に、メタデータノードとアクセスノードの両方は、格納ノードのクライアントとして機能する格納ノード132に対し内部要求を送信し得る。いくつかの実施形態において、様々なサブシステムは、このようなインタラクションを可能にするために、格納サービスの他のコンポーネントにより呼び出し可能な内部APIを実行し得る。格納ノード132は、例えば、特定の格納サービスAPIがアクセスノード112から呼び出されようと、メタデータノード122から呼び出されようと、同じように応答し得る。従って、少なくともいくつかの実施形態において、格納サービスノードは、格納サービスノードが協力的に受信する内部要求の発信元に対し、依存し得ない。
ファイルストアポリシー
いくつかの実施形態において、特定のファイルストアに関して、ファイル格納サービスの動作の様々な態様を制御する相当な柔軟性が、クライアントに与えられ得る。例えば、特定のファイルストアに対する耐久性、パフォーマンス、可用性、または他の要件を、クライアントが設定または変更することを可能にするために、1つまたは複数の管理APIが実施され得る。特定のファイルストアに対する該当要件は、同一クライアントまたは他のクライアントのために作成される他のファイルストアの該当要件とは異なり得る。図7は、少なくともいくつかの実施形態による、ファイルストアに対する、データ耐久性、パフォーマンス、及び論理対物理データマッピングに関するポリシーの異なる組み合わせの使用例を示す。
列704、714に示されるように、FS1等の所定のファイルストアのデータ及びメタデータそれぞれに対する耐久性ポリシーは異なり、FS1及びFS2等の異なるファイルストアにおいて使用される耐久性ポリシーは、データ、メタデータ、またはその両方において異なり得る。FS1に関して、メタデータに十重完全複製が使用され(メタデータの各ページの10個の完全コピーが保持される)、一方データ耐久性に12/6消失訂正符号が使用される(各データページの12個の消失訂正符号コピーが格納され、そのうち6個のコピーがページのコンテンツを復元する必要がある)。ファイルストアFS1、FS2のメタデータ及びデータに対するパフォーマンス目標/要件は、列706、716にそれぞれ示される。パフォーマンス目標は、例えば待機時間または応答時間の単位(列706、716において表示「resp time」で示される)に対する処理量の単位(表示「tput」で示される)といった様々な単位で表現され、そしていくつかの事例において、書き込み(列706、716において表示Wで示される)に対する要件の集合とは異なる要件の集合が、読み出し(表示Rで示される)に対し指定され得る。例えば、所定のファイルストアのメタデータまたはデータに使用されるべき格納デバイスの種類を選択するために、パフォーマンス目標が使用され得る。
描かれた実施形態において、それぞれのファイルストアの格納オブジェクトに対し格納領域を割り当てるために、異なる手法が使用され得る。例えば、列708に示されるように、512キロバイトの固定論理ブロックサイズと動的ページ割り当てのポリシーがFS1メタデータに使用され、一方FS2メタデータに対し、1メガバイトの論理ブロックの物理格納領域が静的に割り当てられ得る。列718に示されるように、FS1データに対し異なる論理ブロックサイズが使用され得る。所定ファイルの最初のいくつかの論理ブロックは、1キロバイト、1キロバイト、2キロバイト、2キロバイト、等に設定され、論理ブロックサイズは所定のファイルが大きくなるにつれて次第に大きくなる。対照的に、FS2データに対し、固定サイズ4メガバイトの論理ブロックが使用され得る。メタデータに使用される物理ページサイズは、FS1に対し8キロバイト、FS2に対し16キロバイトというように設定され得る(列710)。データに関して、列720に示されるように、FS1に対し、ページサイズは論理ブロックと同じに設定され、一方FS2に対し、ページサイズは32キロバイトに設定され得る。図6を参照して前述されたメタデータキャッシュタイムアウト及びブロック再割り当て不適格性タイムアウトを含む、FS1及びFS2に対するそれぞれのメタデータキャッシュ関連設定が、列712に示される。いくつかの実施形態において、例えばファイル格納サービスの実施複雑度を低減するために、耐久性ポリシー、ブロック及びページサイズ決定ポリシー等に関するオプションの離散集合のみが対応され得る。いくつかの実施形態において、可用性関連要件、稼働時間要件、ファイルストア領域限度等、他の種類のポリシーも、異なるファイルストアに対し異なるように設定され得る。少なくとも一実施形態において、クライアントは、ファイルストアごとに、複数の価格設定ポリシーの中から選ぶことも可能であり得る。例えば、一部のクライアントは格納領域使用ベース価格設定ポリシーを選択し、一方他のクライアントはファイルシステムAPIカウントベース価格設定ポリシーを選択し得る。
拡張縮小可能ファイル格納サービスを実施する方法
図8aは、少なくともいくつかの実施形態による、拡張縮小可能な分散ファイルシステム格納サービスを実施するために実行され得る構成及び管理関連動作の態様を例示するフロー図である。構成要素801に示されるように、例えばサービス初期化手続き中に、分散ファイル格納サービスのN個の異なる格納サブシステムノードにおいて、データ及び/またはメタデータのために、M個の空エクステントの初期集合が確立され得る。いくつかの実施形態において、プロバイダネットワークにて確立された仮想コンピューティングサービスの演算インスタンス上で稼働するクライアントアプリケーションのために、ファイル格納動作を実施するように、格納サービスは設定され得る。様々な実施形態において、例えばMはNよりも大きくあり得るように、各格納ノードは複数のエクステントを備え得る。データ耐久性のためにエクステントコンテンツが複製される実施形態において、M個の空エクステントそれぞれは、論理エクステントのコンテンツのそれぞれのレプリカを格納可能であり得る。各格納ノードは、例えば複数の回転ディスクベースデバイス及び/またはソリッドステートストアデバイスを含む1つまたは複数の格納デバイスを備え得る。所定のエクステントは、いくつかの実施形態において単一格納デバイス内に組み込まれ、他の実施形態において複数の格納デバイスにわたって分散され得る。一実施形態において、例えば格納サービスに対応付けられた設定可能パラメータに基づいて、全てのエクステントは同じサイズであり得る。別の実施形態において、異なるエクステントは異なるサイズを有し、及び/またはエクステントのサイズは時間と共に変化し得る。格納サービスの所定のインスタンス化におけるエクステントの総数は、時間と共に変わり得る。例えば、メタデータ及びデータのサイズが大きくなると、より多くの格納デバイス及び/またはより多くのエクステントが展開され得る。いくつかの実施形態において、エクステントは、格納サービスのデータ及びメタデータに関する復元単位を表し得る。例えば、消失訂正符号、完全複製、または複製技術のある組み合わせを使用して、耐久性ポリシーまたは設定に基づいて、各エクステントは複製され得る。各エクステントレプリカグループ(すなわち同一論理データエクステントまたは同一論理メタデータエクステントのレプリカグループ)は、マスタレプリカに指定された少なくとも1つのレプリカを含み得る。マスタレプリカの格納ノード(論理エクステントに関してマスタノードまたはリーダノードとも称され得る)は、グループメンバー間の更新を調整する責任を担う。いくつかの実施形態において、マスタ選択及び/またはレプリカグループのメンバーに関する決定は、ファイルストアの第1オブジェクトが書き込まれるまで先送りされ得る。少なくともいくつかの実施態様において、エクステントはマルチテナントであり得る。例えば、各エクステントは、多数の異なるクライアントまたは顧客のデータまたはメタデータを格納し得る。
描かれた実施形態において、少なくとも特定のファイルストアFS1にアクセスできるように、複数のアクセスサブシステムノードが最初に確立され得る(構成要素804)。例えば、ファイルストアクライアントが隔離仮想ネットワーク(IVN)の演算インスタンスを備える実施形態において、IVN内からのみアクセス可能なプライベートIPアドレスは、P個のアクセスサブシステムノードに割り当てられ得る。いくつかの実施形態において、パブリックIPアドレスが、同様にまたは代わりに、アクセスサブシステムノードの一部または全てに割り当てられ得る。いくつかの実施形態において、部分的に事前設定されたアクセスサブシステムノードのプールが構築され、当該プールから特殊アクセスノードが特定のファイルストアに割り当てられ、他の実施形態において、アクセスノードはオンデマンドでインスタンス化され得る。少なくとも一実施形態において、所定のネットワークアドレスは、複数のアクセスサブシステムノードに割り当てられ得る。
いくつかの実施形態において、ファイルストア作成の際、Q個のメタデータノードの集合が、ファイルストアFS1に割り当てられ得る。別の実施形態において、例えばファイルまたはディレクトリ等のFS1のオブジェクトに対する第1書き込み要求を受信した時に(図8bを参照して後述)、オンデマンドで、メタデータノード(同様に事前設定プールから選択され得る、または動的にインスタンス化され得る)は、FS1に割り当てられ得る。描かれた実施形態において、ファイル格納サービスの管理コンポーネントは、アクセスサブシステム、メタデータサブシステム、及び格納サブシステムの様々なノードのパフォーマンス及び/または健全ステータスを監視し得る(構成要素807)。描かれた実施形態において、任意の所定クライアントのために実行されたファイルストア完了または成功動作の記録が格納され、このような記録は、後にクライアントに対し利用ベース請求額を生成するために使用され得る。観測されたパフォーマンスメトリクスの分析及び/または健全ステータスの変化に応じて、サブシステムのうちのいずれかに対し、他の層の保有ノード数に作用することなく、かつ受信ファイル格納要求のストリームに影響を与えることなく、動的にノードが追加または削除され得る(構成要素810)。例えば、アクセスサブシステムにおける潜在的パフォーマンスボトルネックの検出、または障害が起こった、もしくは応答のないアクセスサブシステムノードの検出に応じて、より多くのアクセスサブシステムノードが、他のサブシステムノードのどちらにも影響を与えることなく、インスタンス化され得る。いくつかの事例において、1つまたは複数のノードにおけるリソース使用(例えばCPUまたは格納領域使用)がある時間を通して閾値未満である場合、このようなノードは削除され、その作業負荷は他のノードに分配され得る。従って、それぞれのサブシステムは、必要に応じて独立して拡張または縮小可能である。
図8bは、少なくともいくつかの実施形態による、拡張縮小可能な分散ファイルシステム格納サービスにおいてクライアント要求に応じて実行され得る動作の態様を例示するフロー図である。例えば、ファイルストアFS1のファイルに対する作成(例えば「オープン」APIの呼び出し)または第1書き込み要求に応じて、1つまたは複数の選択されたメタデータエクステント及びデータエクステントにおいて格納領域が割り当てられ得る(構成要素851)。描かれた実施形態において、メタデータサブシステムは、格納サブシステムノードにメタデータコンテンツを格納し得る。例えば、メタデータ専用の別個の格納層を実施する代わりに、格納サブシステムの格納能力がメタデータに再利用され得る。別の実施形態において、データに使用されるものとは別個の格納サブシステムが、メタデータに使用され得る。所望するデータ耐久性を達成するために複製が使用されている実施形態において、複数のメタデータ及び/またはデータエクステントにおいて、例えば適切なエクステントレプリカグループの全てのメンバーに対し、格納領域が割り当てられ得る。異なる実施形態において、例えば、エクステントの現在の充足度に基づいて、作成されているオブジェクトのパフォーマンス要件に対するエクステントのパフォーマンス特性に基づいて等、様々な要素に基づいて、第1書き込みに応答するために1つまたは複数のページを割り当てるように特定のエクステントが選択され得る。少なくともいくつかの実施形態において、ファイルストアのオブジェクトの現在の「分散」も、エクステントを選択する時に考慮され得る。例えば、格納サブシステムは、同じエクステントまたは同じ格納ノードに所定のファイルストアのデータまたはメタデータの多くのブロックを格納し過ぎることを回避することにより、「ホットスポット」の可能性を低減するように試み得る。
FS1内のオブジェクトに対し追加書き込みが行われると、例えば適用ストライピングポリシー(すなわち論理ブロック対物理ページマッピングポリシー)に基づいた別の格納サブシステムノードにおいて、追加格納領域がデータ及び/またはメタデータに割り当てられ、そして必要に応じて追加メタデータノードが構成され得る(構成要素854)。少なくともいくつかの実施形態において、格納サブシステム、アクセスサブシステム、及びメタデータサブシステムの3つのサブシステムそれぞれのノードは、マルチテナント機能に対応するように構成され得る。例えば、各格納サービスノードは、同時にいくつかの異なるクライアントからの格納要求を処理し得る、または同時にいくつかの異なるクライアントのデータ/メタデータを格納し得る。クライアントは、自身の格納要求に使用されているものと同じリソースが、他のクライアントからの要求にも使用されていることに気づき得ない。いくつかの実施形態において、各格納サービスノードは、例えば、プロバイダネットワークのホストまたはサーバを使用して実行され得る1つまたは複数のプロセスもしくはスレッドを含み得る。
時間と共に、ディレクトリまたはファイル等の所定のファイルストアオブジェクトに対応するメタデータは、最終的にいくつかの異なる格納ノードにおけるいくつかの異なるエクステントにわたって分配され得る。いくつかのファイル格納動作(例えば名前変更動作または削除動作)は、複数のエクステントにおける、または複数の格納ノードにおけるメタデータに対する変更を要求し得る。このような動作に対する要求に応じて、格納サービスは、逐次一貫性を支援または施行する方法で、複数のメタデータページまたは複数のメタデータエクステントにおける変更を含む原子更新動作を実行し得る(構成要素857)。異なる実施形態において、多数の異なる種類の一貫性施行技術のうちのいずれかが使用され得る。例えば、分散トランザクション技術、またはオブジェクト名無撞着変更技術等が使用され得るが、どちらもさらに詳しく後述される。
図9は、少なくともいくつかの実施形態による、分散ファイルシステム格納サービスにおいて複製ベース耐久性ポリシーを実施するために実行され得る動作の態様を例示するフロー図である。構成要素901に示されるように、所定のファイルストアオブジェクトF1のデータ及び/またはメタデータに使用される予定の耐久性関連パラメータの集合のそれぞれのパラメータ値が、例えば当該オブジェクトが作成された時に決定され得る。いくつかの実施形態において、パラメータは、例えばオブジェクトのコンテンツ、またはオブジェクトに関連するメタデータのコンテンツを格納する各ページのレプリカ数、従って各エクステントのレプリカ数といった、レプリカ総数を含み得る。いくつかの実施形態において、複製戦略(例えば、完全複製が使用されるか、消失訂正符号複製が使用されるか、またはこのような技術のある組み合わせが使用される)、及び/または利用可能データセンタリソース間のレプリカの配置も、パラメータとして特定され得る。例えば、格納サービスが複数の可用性コンテナを含むいくつかの実施形態において、少なくとも1つのレプリカが、K個の可用性コンテナそれぞれの中に配置され得る。それからパラメータに従って、エクステントレプリカの適切な集合が特定され得る(構成要素904)。いくつかの実施形態において、様々な候補における利用可能な空き格納領域の量、エクステントまたはそれを含む格納サーバにおける最近の作業負荷レベル、クライアント要求の予想発信元に関する位置関係、前述のように格納領域が割り当てられているファイルストアの「分散」の分析に基づいて、または他のメトリクスに基づいて、特定の物理エクステントは選ばれ得る。レプリカのうちの1つはマスタレプリカとして指定され、その格納ノードは、レプリカグループのメンバーの中のファイルストアオブジェクトに対する書き込み等、様々な動作を調整する責任を担うリーダとして指定され得る(構成要素907)。少なくともいくつかの実施形態において、所定のファイルストアオブジェクトに対するデータ書き込みを調整するリーダとして選ばれた特定の格納ノードは、そのファイルストアオブジェクトに対するメタデータ書き込みを調整するリーダとしても選択され得る(メタデータのうち少なくとも一部は、データが格納される格納ノードとは異なる格納ノードに格納され得るが)。
ファイルストアオブジェクトの論理ブロックに対するクライアントからの特定書き込み要求に応じて、論理ブロックがマッピングされた、論理エクステントのマスタエクステントレプリカに対し、内部書き込み要求が出され得る(構成要素910)。従って、例えば、クライアント要求を受信したアクセスノードは、例えば適切なメタデータサブシステムノードから抽出したメタデータを使用して、最初に論理ブロックのマスタエクステントレプリカを特定する必要があり、それからマスタレプリカを格納する格納ノードに対し、内部書き込み要求を出し得る。内部書き込み要求の受信に応じて、リーダノードは、レプリカグループメンバー間に書き込み作業負荷を複製するために、コンセンサスベースステート管理プロトコルのインタラクションを開始し得る(構成要素913)。少なくともいくつかの実施態様において、ステート変更のログ記録を複製するためにコンセンサスベースプロトコルが使用され、そして当該ステート自体の表現は、消失訂正符号複製を使用して、または完全複製を使用して、複製され得る。プロトコルインタラクションの結果として書き込みがコミットされた場合に、例えばクォーラムのレプリカグループメンバーにおいて書き込みが成功した場合に、いくつかの実施形態において、ついに要求クライアントに対し書き込み要求が成功したことが知らされ得る。別の実施形態において、少なくともいくつかの種類の動作及びいくつかのファイルシステムプロトコルに関して、クライアントの要求が成功したか否かに関する開示は、必ずしもクライアントに提供され得ない。その代わりに、例えばクライアントは、不成功と表示される動作を再試行することを期待され得る。
図10は、少なくともいくつかの実施形態による、分散ファイルシステム格納サービスのアクセスサブシステムノードにおいてメタデータをキャッシュするために実行され得る動作の態様を例示するフロー図である。構成要素1001に示されるように、クライアントが分散ファイル格納サービスのアクセスサブシステムノードの集合に対してファイルストア関連要求を送ることを可能にするサービスエンドポイントアドレスが設定され得る。いくつかの実施形態において、前述のように、隔離仮想ネットワーク内でのみアクセス可能なプライベートIPアドレスが、アクセスノードに割り当てられ得る。別の実施形態において、非IVNクライアントによりアクセス可能なパブリックIPアドレスが、同様にまたは代わりに使用され得る。アクセスサブシステムノードは、1つまたは複数の業界標準ファイルシステムプロトコル(例えば1つまたは複数のバージョンのNFS、SMB、CIFS等)に準拠する様々な種類の命令、システムコール、またはAPI呼び出しに応答するように構成され得る。いくつかの実施形態において、所定のアクセスサブシステムノードは、複数のこのような規格またはプロトコルに従ってフォーマットされた命令に応答することが可能であり得る。一実施形態において、プロプライエタリファイルシステムインターフェイスが、同様にまたは代わりに対応され得る。
API/プロトコルのうちの1つに従ってフォーマットされた、特定のファイルストアオブジェクトF1に対する命令(例えば作成、読み出し、書き込み、変更、再構成、または削除命令)が、特定のアクセスノードAN1において受信され得る(構成要素1004)。AN1は、例えばネットワーク識別(例えば発信元ネットワークアドレス)、ユーザ識別(例えばユーザアカウント識別子)、または他の要素に基づいて、認証及び/または認可動作の集合を実行し(構成要素1007)、命令を受諾するか拒否するかを決定し得る。
命令が認証/認可検査を通過した場合、AN1は、要求された動作を実行するために使用される、F1に関するメタデータの取得先となるメタデータノードMN1を特定し得る(構成要素1010)。アクセスノードAN1は、それからMN1に対しメタデータ要求を送り得る(構成要素1013)。いくつかの実施形態において、適切なメタデータノードの識別自体は、例えば格納オブジェクトと他のメタデータノード間のマッピングを管理するメタデータノードに対する別の要求の送信を伴い得る。それからファイルストアオブジェクトF1に関するメタデータのブロックが、AN1において取得され得る。AN1は、メタデータを、メタデータのブロックが破棄される(失効の可能性のため)、または再有効化される必要のある時を示すキャッシュタイムアウト設定と共に、ローカルメタデータキャッシュに格納し得る(構成要素1016)。少なくともいくつかの実施形態において、メタデータのブロックを他の目的のために(例えばF1が削除された時に、別のファイルストアオブジェクトF2のメタデータを格納するために)再利用しリサイクルしてもよい時を決定するために、キャッシュタイムアウト間隔は、メタデータノードにおいて使用されるメタデータブロック再割り当てタイムアウト設定よりも小さい値に設定され得る。
AN1は、受信したメタデータのブロックを使用して、読み出し/書き込み要求の対象となる特定の格納ノードSN1を同定し、適宜内部要求を送り得る(構成要素1019)。キャッシュタイムアウト時間が経過する前に、AN1は、さらなるAPI/プロトコルの呼び出しから生じ得る追加内部要求を出すために、キャッシュされたメタデータのブロックを再利用し得る(構成要素1022)。いくつかの実施形態において、キャッシュタイムアウト時間の経過時に、メタデータのブロックは、削除され得る、または無効と示され得る。少なくとも一実施形態において、メタデータを単に破棄する代わりに、アクセスノードは、例えば当該メタデータの取得元であるメタデータノードに対し別の要求を送信することにより、当該メタデータを再有効化し得る。
単一ページ更新の条件付き書き込み
前述のように、少なくともいくつかの実施形態において、ファイル格納サービスは、数百から数千のクライアントからの、数千のファイルストアオブジェクトを対象にする可能性のある大きな数の同時動作を処理するように設計され得る。原子性及び一貫性を確保するための従来のロックベース機構は、ロックシステム自体がボトルネックになり得るため、このような高処理高同時性の環境においては機能し得ない。従って、後述されるように、少なくともいくつかの実施形態において、同時性制御のために1つまたは複数の楽観的スキームが使用され得る。初めに、単一ページ書き込み(すなわち変更が単一論理エクステントの単一ページに限られた書き込み要求)に関する同時性制御機構が説明され、その後、複数ページ書き込みを原子動作として実行するために使用可能な分散トランザクション機構が説明される。
少なくともいくつかの実施態様において、前にも説明されたように、所定のファイルストアのデータ及びメタデータを格納するために使用される物理ページは、対応オブジェクトの論理ブロックとはサイズが異なり得る。同時に、書き込み動作は一般に、任意のオフセットを対象とし、任意のサイズの書き込みペイロードを有し得る。例えば、少なくともいくつかのファイルシステムプロトコル/APIに関して、ファイルのエンドユーザの視点からすると、ファイルに対する単一書き込みは、ファイル内の任意の所望のバイトレベルオフセットにおいて開始するデータを変更し、そのバイトレベルオフセットから開始する任意の数のバイトを変更し得る(または初めての書き込みを行い得る)。しかしながら、いくつかの実施形態において、ファイル格納サービスの格納サブシステムは、物理ページを原子性単位として扱い得る。例えば、実施複雑度を低減するために、ページは、格納サブシステムの内部読み出し及び書き込みAPIが対応する最小粒度を表し得る。従って、エンドユーザに公開されるファイルストアAPIの柔軟性と、格納サブシステムが対応する内部動作に対する制約との間に、不一致が生じ得る。よって、このような実施形態において、格納サブシステムのクライアント(例えばアクセスノードまたはメタデータノード)は、任意の書き込み要求を、ページレベルの内部書き込み動作に変換することを強いられ得る。少なくともいくつかの実施形態において、外部クライアント要求に直接起因し得ない少なくともいくつかの内部メタデータ操作は、いくつかの事例において、メタデータの所定のページのごく一部のみを変更する必要があり得る。このようなメタデータ書き込み要求もまた、ページ粒度において実施される必要があり得る。
従って、物理ページに対する少なくともいくつかの書き込み動作は、読み出し‐変更‐書き込みシーケンスとして実行され得る。図11は、少なくともいくつかの実施形態による、書き込みオフセット及び書き込みサイズが時に物理格納の原子単位の境界と整列し得ないファイル格納サービスにおいて実行され得る読み出し‐変更‐書き込みシーケンスの例を示す。示されるように、ファイルストアオブジェクト(ファイルまたはメタデータ構造等)は、論理ブロック(LB)1102A、1102B、1102Cを含むLB1102の集合として組織され得る。各論理ブロックは、格納サブシステムのエクステント(例えば1つの論理エクステント及び複数の物理エクステントレプリカ)内のページ集合に対応付けられ、当該ページは格納サブシステムのAPIに関する原子性単位を表す。例えば、描かれた実施形態において、論理ブロック1102Aは、エクステント1164の物理ページ(PP)1112A、1112B、1112C、1112Dにマッピングされる。
特定の書き込み要求1160に応じて、単一ページの一部のみ(書き込み要求1160Aの場合PP1112Aの網掛け部分、書き込み要求1160Bの場合PP1102Dの網掛け部分等)が実際に変更され得る。しかしながら、描かれた実施形態において、格納サブシステムAPIは部分的ページ書き込みを許容し得ないため、示されるそれぞれの書き込み要求は、対応物理ページに対する読み出し‐変更‐書き込みシーケンスに変換され得る。従って、クライアント(例えば内部書き込み要求1160を出したアクセスノードまたはメタデータノード)は、意図された部分的書き込みを実行するには、最初に対象ページを読み出し、所望の変更を適用し、それからページ全体の書き込みを送らなければならないということを判断し得る。書き込み要求1160Aに対して、ページ1112Aの読み出しと、クライアントにおけるページ1112Aのコンテンツの局所的変更と、全ページ1112Aの書き込みとを含む読み出し‐変更‐書き込みシーケンスRMW1177Aが実行され得る。書き込み要求1160Bに対して、ページ1112Dの読み出し、続いて変更、それから全ページ1112Dの書き込みを伴うRMW1177Bが実行され得る。
同一の物理ページに対し要求される同時または略同時更新の可能性を考えると、所定物理ページのコンテンツはRMWシーケンスの読み出しとRMWシーケンスの書き込みの間に変更されていないことを、格納サービスが保証する必要があり得る。少なくともいくつかの実施形態において、格納サブシステムにおける複製ステート管理のために実行され得る論理タイムスタンプ機構は、後述される逐次一貫性を保証するのに使用され得る。
先に述べられ、図5において示されるように、所望するレベルのデータ耐久性を達成するために、論理エクステントのレプリカグループが少なくともいくつかの実施形態において使用され得る。図12は、少なくともいくつかの実施形態による、エクステントレプリカグループに対するコンセンサスベースの複製ステートマシンの使用を例示する。描かれた実施形態において、論理エクステントE1に関して、格納ノード132におけるマスタレプリカ1264Aと、格納ノード132B、132C、132Dそれぞれにおける非マスタレプリカ1264B、1264C、1264Dという、4つのエクステントレプリカが示される。別の論理エクステントE2に関して、格納ノード132Dにおけるマスタエクステントレプリカ1265Cと、2つの非マスタレプリカ1265A(格納ノード132Aにおける)、1265B(格納ノード132Bにおける)とが示される。E1レプリカ上の様々な動作を調整するために、コンセンサスベースの複製ステートマシン1232Aがノード132A(マスタレプリカが格納されるノード)により使用され、そしてE2レプリカ上の動作を調整するために、別のコンセンサスベースの複製ステートマシン1232Bがノード132D(マスタレプリカ1265Cが属するノード)により使用され得る。
描かれた実施形態において、ステートマシン1232Aは論理クロック1222Aを使用し、そしてステートマシン1232Bは別の論理クロック1222Bを使用し得る。少なくともいくつかの実施形態において、論理クロックは、対応するステートマシンを使用して管理される様々な動作の相対的順序を示すために使用され、実時間または任意の特定の物理時計に直接関係し得ない。従って、例えば、特定論理クロック値LC1は、ステートマシン1232Aを使用して調整される書き込み動作のコミットに対応付けられ、別の論理クロック値LC2は、レプリカグループから読み出し動作に対する応答が提供された時を示し得る。この例においてLC1<LC2である場合、格納サブシステムの観点からすると、書き込み動作は読み出し動作よりも前に完了したことが示される。論理クロックの値は、本明細書において「論理タイムスタンプ」または「動作シーケンス番号」(論理クロック値が、対応複製ステートマシンを使用して様々な読み出しまたは書き込み動作が完了したシーケンスを示し得るため)とも称され得る。いくつかの実施態様において、論理クロックとして、マスタレプリカが内在する格納ノードにて実行される整数カウンタが使用され、そしてその格納ノードは、クロック値に対する変更の責任を担い得る(例えば、ステートマシンを使用して読み出しまたは書き込み動作が完了した時はいつも、当該カウンタの値が増加され得る)。
様々な実施形態において、格納ノードは、ステートマシン1232から取得した論理タイムスタンプ値を、前述のRMWシーケンスの読み出し及び書き込み要求に対応付け、論理タイムスタンプを使用して、特定の単一ページ書き込みをコミットするか、アボートするかを決定し得る。図13は、少なくともいくつかの実施形態による、いくつかの種類の書き込み動作に使用され得る条件付き書き込みプロトコルに関わる例示的インタラクションを示す。示されるように、特定の書き込み動作に対応する読み出し‐変更‐書き込みシーケンスの一環として、格納サブシステムのクライアント1310(アクセスノードまたはメタデータノード等)は、格納ノード132(例えばページが属するエクステントのマスタレプリカが格納されるノード)に対し読み出しページ要求1351を送り得る。格納ノードは、要求されたページのコンテンツ、並びに読み出し動作に割り当てられた読み出し論理タイムスタンプ(RLT)を含む読み出し応答1352を提供し得る。RLTは、例えばエクステントに使用されている複製ステートマシンから取得され得る。
RMWシーケンスについて続けると、格納サブシステムクライアント310は、続いて格納ノード132に対しページ全体の書き込み要求1361を送り、読み出し応答に含まれていたRLTを含め得る。格納ノードは、RLTが生成された後に、ページの更新が成功したか否かを判定し得る。RLTが生成されて以来、ページが更新されていない場合、要求された書き込みは完了され、成功を示す書き込み応答1362が格納サブシステムクライアントに提供され得る。RLTが生成された後に、別の介入書き込み要求の結果としてページが更新された場合、書き込み要求は拒否され得る。いくつかの事例においてこのような書き込み要求を受諾することは、データ不整合につながり得る。なぜなら、例えば、所定の書き込み要求に応じて書き込む特定のデータD1は、前にページから読み出された値R1に依存し、このR1は当該介入書き込みにより上書きされた可能性がある。いくつかの実施態様において、クライアント1310からの書き込み要求が拒否された場合、書き込みがアボートされたことを示す書き込み応答1362が、クライアントに提供され得る。別の実施態様においては、書き込み応答は全く提供され得ない。書き込みがアボートされた場合、いくつかの実施形態において、クライアント1310は、例えば書き込みが最終的に成功するまで、または書き込み試行がある閾値回数失敗するまで、同じページに対し1つまたは複数の追加RMWシーケンスを開始し得る。
RLTが生成された後に、同一ページに対する介入書き込みが成功したか否かを検出するために、いくつかの実施形態において、書き込み論理タイムスタンプを格納する書き込みログバッファが、格納ノード132において実行され得る。図14は、少なくともいくつかの実施形態による、条件付き書き込みプロトコルを実施するために確立され得る例示的書き込みログバッファを示す。描かれた実施形態において、例えばエクステントのマスタレプリカが格納される格納ノードにおいて、論理エクステントごとに、それぞれの循環書き込みログバッファ1450が保持される。エクステントE1のマスタレプリカ1410Aを管理する格納ノード1432Aにより、Eのための循環バッファ1450Aが保持され、そしてE2のマスタレプリカ1410Bを格納する格納ノード1432Bにより、循環バッファ1450Bが保持される。各循環バッファは、バッファ1450A内のレコード1460A、1460B、1460C、1460D、及びバッファ1450B内のレコード1460K、1460L、1460M、1460N等、複数の書き込みログレコード1460を含む。描かれた実施形態における各ログエントリ1460は、コミットした(すなわち成功した)ページ書き込みのそれぞれの開示を含み、当該開示は、書き込みが行われたページの識別子と、書き込みの完了に対応付けられた論理タイムスタンプと、書き込みが行われた対象クライアントとを示す。従って、バッファ1450Aにおいて、レコード1460A〜1460Dは、識別子1415A〜1415Dを有するページそれぞれに対し、それぞれの書き込み論理タイムスタンプ1417A〜1417Dにより示される順序で、それぞれの識別子1419A〜1419Dを有するクライアントのために、書き込みが行われたことを示す。同様に、バッファ1450Bは、識別子1415K〜1415Nを有するページそれぞれに対し、それぞれの書き込み論理タイムスタンプ1417K〜1417Nにより示される順序で、それぞれの識別子1419K〜1419Nを有するクライアントのために、書き込みが行われたことを示す。少なくともいくつかの実施形態において、書き込みログバッファは、高速アクセスのためにメインメモリに保持され得る。少なくとも一実施態様において、所定のレコード1460の書き込み論理タイムスタンプは、バッファ内のそのレコードの相対位置により非明示的に示され得る。従って、このような実施態様において、書き込み論理タイムスタンプの明示値が、バッファに格納される必要はない。いくつかの実施形態において、ログバッファは、永続性メモリに格納され、スピード検索のために、タイムスタンプ値により、ページ識別による、及び/またはクライアント識別子により設定されたインデックスを有し得る。様々な実施形態において、図14に示されるものと同様の書き込み論理タイムスタンプ情報が、例えば物理ページ粒度で、またはエクステント粒度で、またはその他のレベルで等、異なる粒度で保持され得る。
格納ノード1432が読み出し‐変更‐書き込みシーケンスの特定の書き込みを受諾するか拒否するか判定する必要があり、かつ書き込み要求が当該シーケンスの読み出し動作の読み出し論理タイムスタンプ(RLT)を含む場合、当該格納ノードは、書き込みログバッファを調べて、RLTよりも大きな論理タイムスタンプを有する任意の書き込みが同一ページに対して起こったか否かを確かめ得る。例えば、ページP1に対するRMWシーケンスの書き込み要求に対応するRLT値がV1であり、レコード1460間の最小書き込み論理タイムスタンプはV2<V1であり、バッファ内にV3>V1を有するレコードがない場合には、格納ノード1432は、ページP1に対する介入書き込みは起こらなかったと結論付け、そしてRMWの書き込みが受諾され得る。ページP1に対する書き込み論理タイムスタンプV3>V1を有するエントリがある場合、描かれた実施形態において、書き込みは拒否またはアボートされ得る。循環バッファ1450内のレコード間の最小書き込み論理タイムスタンプV2がV1より大きい場合、RLTが生成された後にP1に対するいくつかの書き込みが成功し得たが、それらの書き込みログレコードが上書きされた可能性がある(例えばバッファの領域制限により)ことを示し得るため、少なくともいくつかの実施形態において、このようなシナリオにおいてはP1に対する書き込み要求は同様に拒否され得る。RMWの書き込み要求が受諾された場合、新たな書き込みログレコード1460が、書き込みのコミットに対応した書き込み論理タイムスタンプと共に、循環書き込みログバッファに追加され得る(前に生成されたログレコードを上書きする可能性あり)。(更新する必要のあるレプリカの数、及び使用されている複製プロトコルに応じて、無事に書き込みを完了すなわちコミットするのに必要なだけのレプリカに対し変更が伝播されるまでに、いくらか時間がかかり得ることに留意されたい。)
描かれた実施形態において循環バッファが使用されるため、バッファに使用される総メモリ量は小さくとどまり、そして古い書き込みログレコードは徐々に、より有用な新しい書き込みログレコードにより上書きされる。特定の読み出し‐変更‐書き込みシーケンスの書き込み動作は一般に、読み出しの後に極めて早く実行されることが予期されるため、古い書き込みログレコードは通常、RMWシーケンスの書き込みをコミットするかアボートするかを決定する際、あまり役に立ち得ない。しかしながら、前述のように、エクステントに対する書き込みは頻繁に起こるため、潜在的に有用な書き込みログレコードが循環バッファ内で上書きされ得る場合が、いくつかのシナリオにおいてあり得る。いくつかの実施形態において、格納サービスは、このような上書きのために拒否される書き込みの数を記録し得る。すなわち、読み出し論理タイムスタンプとバッファの最早論理タイムスタンプとの比較(及び読み出し論理タイムスタンプが最早論理タイムスタンプより前であるという後続判断)の結果として特に生じる書き込み拒否率が監視され得る。いくつかのこのような実施形態において、循環ログバッファのサイズは動的に変更され得る。例えば、バッファ領域制約に起因する書き込み拒否率がある閾値を超えたという判断に応じて、当該バッファサイズは増大され得る、あるいは単純に高作業負荷期間中に当該バッファサイズは増大され得る。同様に、低作業負荷期間中に、またはバッファサイズ制約に起因する拒否率がある閾値よりも低いという判断に応じて、バッファサイズは縮小され得る。いくつかの実施形態において、他の種類のバッファ(すなわち非循環バッファ)が使用され得る。少なくとも一実施形態において、クライアント識別子は、書き込みログバッファに格納され得ない。いくつかの実施形態において、読み出し、並びに書き込みを記録するために、図14に示されるものと同様のバッファが使用され得る。少なくとも一実施形態において、バッファの長さは、未処理の読み出し‐変更‐書き込みシーケンスの読み出しのタイミングに基づいて、動的に調整され得る。例えば、特定のRMWシーケンスの読み出しが時間T1に起こり、そのシーケンスの対応書き込み要求が受信される前のある時間T2にバッファが一杯になった場合、対応書き込みの受諾に関して正しい判断を行うために、バッファサイズは増大され得る(例えばある最大長閾値及び/またはある最大時間閾値内で)。いくつかのこのようなシナリオにおいて、対応書き込みが受信された時、例えば時間T3に、バッファサイズは前の長さに再び縮小され得る。
少なくとも一実施形態において、格納サービスは、各ページレベルでバージョン管理情報を保持し、バージョン管理情報を使用してRMWの書き込みを受諾するべきか否か判断し得る。例えば、各エクステントレベルで書き込み動作のログバッファを保持する代わりに、1つのこのようなバージョン管理手法において、各ページレベルでログエントリが保持され得る。そのため、RMWの書き込みが対応読み出しと同じバージョンを対象としているか否か判定することが可能になる。読み出し以降に新バージョンが作成された場合、書き込みは拒否され得る。
図15は、少なくともいくつかの実施形態による、分散ファイルシステム格納サービスにおいて条件付き書き込みプロトコルを実施するために実行され得る動作の態様を例示するフロー図である。構成要素1501において示されるように、格納サブシステムのクライアントC(アクセスノードまたはメタデータノード等)において、特定のファイルストア動作を実行するために、特定のページPに対し読み出し‐変更‐書き込みシーケンスを実施することが決定され得る。いくつかの実施形態において、ページ全体が変更されているとしても、全ての単一ページ書き込みはデフォルトで読み出し‐変更‐書き込み動作に変換され得る。よって、このような実施形態において、任意のページに対する任意の書き込みはRMWシーケンスに変換され得るため、RMWが必要か否かに関する判断が要求され得る。別の実施形態において、ページ全体を変更する書き込みは、RMWシーケンスへの変換を必要とし得ず、一方、ページの一部のみを変更する書き込みは、RMWシーケンスに変換され得る。
構成要素1504に示されるように、RMWシーケンスの一環として、格納ノードSN1(例えばPが属するエクステントのマスタレプリカが格納されるノード)のCから、Pに対する読み出し要求が受信され得る。例えばPのエクステントを管理するために使用されている複製ステートマシンから、同一エクステントにおける他の読み出し及び書き込みに相対して読み出しが実行された順序を示す、読み出し要求に対応する読み出し論理タイムスタンプRLTが取得され得る(構成要素1507)。読み出し要求を送ったクライアントCに対し、RLTが提供され得る。
続いて、ページPに対するRMWシーケンスの書き込み要求WR1が、SN1のCから受信され得る(構成要素1510)。書き込み要求は、構成要素1507の読み出し応答においてCに提供されたRLT値、並びに書き込みペイロード(すなわちPに適用する変更)を含み得る。格納ノードSN1は、例えば最近の成功書き込みに対応付けられた論理タイムスタンプを格納する書き込みログバッファのコンテンツを調べることにより、RLTが生成された後にページPが変更されたか否か判定し得る。RLTが生成されて以来、Pが変更されなかったと判定された場合(構成要素1513)、Pに対し適切な変更を行い、適切な数のレプリカに対し変更を伝播することにより、書き込みが実行され得る(構成要素1516)。書き込みの完了に対応する書き込み論理タイムスタンプは、描かれた実施形態において書き込みログバッファに格納され、そして少なくともいくつかの実施形態において、書き込み完了の開示がRMWシーケンスを発したクライアントに対し送信され得る。いくつかの実施態様において、書き込み論理タイムスタンプは、完了開示の一環として、クライアントに提供され得る。RLTが生成された後にPが変更されたと判定された場合(同様に構成要素1513に該当する動作において)、書き込みは拒否され、そしていくつかの実施形態において「書き込みアボート」応答がクライアントに対し送信され得る。
順序設定済みノードチェーンを使用する分散トランザクション
前述の条件付き書き込み技術は、様々な実施形態において、単一ページ書き込み動作において逐次一貫性を確保するために使用され得る。しかしながら、分散ファイル格納サービスのいくつかの種類の動作(削除、名前変更等)に関しては、メタデータ及び/またはデータの複数ページが原子的に変更される必要があり得る。すなわち、全ての関係ページに対する全ての変更がコミットされるか、全ての変更が拒否される必要がある。少なくともいくつかの実施形態において、当目的のために、分散トランザクションを伴うよりハイレベルな楽観的一貫性施行機関が使用され得る。このような実施形態において分散トランザクションを実行するために、コーディネータノード(例えば関係するメタデータ及び/または格納ノードのうちの1つ)が選択され得る。コーディネータは、変更に参加する格納ノードを特定し、個別のページレベル変更がそれぞれの格納ノードにおいて受諾されるか拒否されるかに関して調査するシーケンスを決定し、それから、格納ノードそれぞれが自身のページレベル変更に関して各自のコミット/アボート判定を行うことが可能な格納ノード間の順序設定済み動作シーケンスを開始し得る。全ての参加格納ノードが、自身の局所的変更はコミット可能であると判定した場合、トランザクション全体がコミットされ得る。一方、参加格納ノードのうちのいずれか1つが、自身の局所的ページレベル変更はコミット不可能であると判定した場合、トランザクション全体がアボートされ得る。コーディネータ及び参加ノードの動作の様々な態様に関する詳細が、下記に提供される。
図16は、少なくともいくつかの実施形態による、ファイル格納サービスにおいて分散トランザクションのコミットに至り得る例示的メッセージフローを示す。例えばアクセスサブシステムノードまたはメタデータノードにおいて、特定のファイルストア動作は複数のページに対する書き込みを要するという判断が行われ得る。対応する複数ページ書き込み要求1610が生成され得る。本明細書において、変更されるページの集合は、トランザクションの「対象ページ」と称され得る。対象ページに対する書き込みの集合を原子的に実行するために、分散トランザクションに対するコーディネータノード1612として、格納サービスの特定のノード(様々な実施形態におけるアクセスノード、メタデータノード、または格納ノード)が選択され得る。コーディネータは、変更対象のページの集合と、ページレベル変更が開始または実行される格納ノードの集合(例えば対象ページを含むマスタレプリカエクステントを格納する格納ノードの集合で、コーディネータが格納ノードの場合はコーディネータも含まれ得る)とを特定し得る。コーディネータノードの選択には、様々な技術のうちのいずれかが使用され得る。例えば、いくつかの実施形態において、変更するページの集合のうちランダムに選択されたページが属する格納ノードがコーディネータとして選択され得る一方、別の実施形態においては、コーディネータ候補ノードにおける作業負荷レベルを考慮して、サービスの格納ノード間にトランザクション調整に対応付けられた作業を分配する試みが行われ得る。
少なくともいくつかの実施形態において、デッドロック回避技術に従って、コーディネータ1612により、変更対象ページがロックされるべきシーケンスが決定され得る。例えば、トランザクションにおいて変更するページ及びエクステントの識別子がデッドロック分析モジュールに提供され、そしてデッドロック分析モジュールは、ロック順序を決定するために、ある選択された並び替え順序(例えばエクステントID、ページID、及び/または他の要素の連結に基づいた辞書式並び替え順序)に基づいて、識別子の並び替えを行い得る。ファイルストアの全ての分散トランザクションにわたって同一の並び替え順序が一貫して使用され、その結果、任意の所定の対のページP1、P2に対するロックが常に同じ順序で要求され得る。例えば、デッドロック分析モジュールが、トランザクションTx1に関してP1に対するロックはP2に対するロックの前に確保されるべきであると示す場合、デッドロック分析モジュールは、その他のトランザクションTx2に関してP2に対するロックはP1に対するロックの前に確保されるべきであるとは決して示さないため、デッドロックが回避される。
少なくともいくつかの実施形態において、分散トランザクションの準備段階の一環として、選ばれたコーディネータノード1612はまた、対象ページに対し読み出し要求を出し、前述の技術に従って、これらの読み出しの対応読み出し論理タイムスタンプ(RLT)を取得し得る。後述されるように、対象ページが属する格納ノードそれぞれにおいて、ページレベルコミット判定を行うために、読み出し論理タイムスタンプが使用され得る。
それから選択されたコーディネータノード1612は、対象ページがそれぞれのページレベルコミット判定に関して分析される順序の指示と、その順序でページレベルコミット判定を行う責任を担う格納ノードを含むノードチェーンと、ページに対して行う実際の変更(書き込むバイト)と、対象ページそれぞれのRLTとを含むトランザクション準備(Tx準備)メッセージ1642Aを構成し得る。ノードチェーン1602が、図16において例示される。ノードチェーンの最後または末端メンバー(例えばノードチェーン1602におけるノード1632C)は、自身の局所的ページレベルコミット判定がトランザクション全体のコミットにつながり得ることから、「コミット決定者」または「決定者」ノードとして指定され得る。
コーディネータは、Tx準備メッセージ1642Aを、対象ページの少なくとも1つ(図16の論理エクステントE1のページP1)を格納する、ノードチェーン1602の格納ノード1632Aといったノードチェーンの第1ノードに送信し得る。ノード1632Aは、ページP1に対する変更がコミット可能か否か判定を行うために、例えばP1のRLTを使用して、局所的ページレベルコミット分析を行い得る。条件付き書き込み及びRMWシーケンスに関して前述されたものと同様の技術を使用して、P1のRLTが取得されて以来P1が変更されなかった場合、P1に対する変更はコミット可能であると判定され得る。RLTが取得された後にP1が変更された場合、変更は拒否される必要があり得る(拒否シナリオは図17において例示され、後述される;図16は全てのページレベルコミット判定が肯定的であるシナリオを例示する)。P1に対し提案変更がコミット可能であると仮定すると、ノード1632Aは、P1をロックし(例えばエクステントE1に使用される複製ステートマシンにより管理されるロックを確保)、そして「インテントレコード」を永続性格納領域に格納する。ページP1がロックされている限り、描かれた実施形態において、その他のトランザクションまたはその他のRMWシーケンスのためにP1に対し読み出しまたは更新を行うことは不可能である。インテントレコードは、ノード1632AがP1に対し提案変更を行う意図があり、そして残りのチェーンメンバーが同様にそれぞれのページレベル変更を行うことに同意可能な場合には、実際に変更を行い得ることを示し得る。ノード1632Aはそれから、ノードチェーンの次のノード1632Bに対し、Tx準備メッセージ1642B(1642Aのコンテンツと同様または同一であり得るコンテンツを含む)を送信し得る。
論理エクステントE5のページP7に関して、ノード1632Bにおいて同様の局所的ページレベルコミット分析が行われ得る。ノード1632Bは、自身の局所的ページレベル変更がコミット可能であると判定した場合(例えばTx準備メッセージ1642Bに含まれていたP7のRLTを使用して)、ノード1632Bは、P7に対するロックを確保し、自身のインテントレコードを格納し、そしてTx準備メッセージ1642C(1642Bと同様または同一)を決定者ノード1632Cへ送信し得る。
決定者ノード1632C(チェーン内の末端または最後のノード)は、エクステントE8のページP9に関する自身のページレベルコミット分析を行い得る。ページP8に対する提案変更がコミット可能である場合(例えばP8のRLTがコーディネータにより取得されて以降、P8に対する書き込みが行われていなかった場合)、決定者は、トランザクション全体をコミットすることを決定し、P8に対する提案変更を実行または開始し得る。決定者ノードは、分散トランザクションをコミットすることを示すTxコミットメッセージ1644Aを生成し、チェーンの他のノードへ当メッセージを送信し得る。描かれた実施形態において、Txコミットは、Tx準備メッセージの伝播とは逆の順序で、順次伝播され得る。別の実施形態において、Txコミットは、非決定者ノード及び/またはコーディネータのうちの一部または全てに対し、並行して送信され得る、あるいは図16に示されるものとは異なる順序で送信され得る。
チェーン1602の非決定者ノードは、Txコミットメッセージを受信すると、自身の局所的ページレベル変更を実行または開始し、局所的対象ページに対するロックを解除し(例えばノード1632Bの場合はP7、ノード1632Aの場合はP1)、ページ用に前に生成したインテントレコードを削除し、そして(必要であれば)Txコミットメッセージを別のノードに送信し得る(例えばノード1632Bはノード1632AへTxコミットメッセージ1644Bを送信し、ノード1632AはコーディネータへTxコミットメッセージ1644Cを返信し得る)。コーディネータノード1612は、Txコミットメッセージを受信すると、いくつかの実施形態において、複数ページ書き込み1610の要求者に対して、書き込み成功応答1650を送信し得る。デッドロックを回避するために決定された所定の順序で局所的ページレベルコミット分析を行い、Tx準備メッセージの受信かつ局所的コミット分析の成功時にのみページをロックし、そしてインテントレコードを永続性格納領域(例えばインテントレコードの責任を担う格納ノードが、トランザクションが完了する前に起こり得る障害の結果置き換えられる場合においても、インテントレコードにアクセス可能な永続性格納領域)に格納することに関する前述の技術は全て、分散格納サービスにおいて複数書き込みの原子性を要求する動作の効率性及び回復性を向上するのに役立ち得る。
少なくともいくつかの実施形態において、所定の分散トランザクションに関して特定されたノードチェーンの格納ノードのうちのいずれか1つは、自身の局所的コミット分析に基づいて、自身の局所的ページに対する提案変更は受諾不可能であることを判定し、そのためトランザクション全体のアボートを開始し得る。図17は、少なくともいくつかの実施形態による、ファイル格納サービスにおいて分散トランザクションのアボートに至り得る例示的メッセージフローを示す。図16の場合、ノード1612は、複数ページ書き込み要求1610に応じて試みられる分散トランザクションのコーディネータとして選択され得る。コーディネータは、例えば、局所的ページレベルコミット判定を行いロックを確保する順序を決定し、ノードチェーン1602を生成し、Tx準備メッセージ1642Aを作成する等、図16の文脈において説明されるものと同様の、トランザクション動作の準備集合を実行し得る。コーディネータ1612により、Tx準備メッセージがチェーンの第1ノード1632Aへ送信され得る。
ノード1632Aは、自身の局所的コミット分析を実行し、エクステントE1のページP1に対する提案変更が受諾可能であると判定する。図16に示されるシナリオのように、ノード1632Aは、P1に対するロックを確保し、インテントレコードを永続性格納領域に格納し、Tx準備メッセージ1642Bをチェーン1602の次のノード1632Bへ送信し得る。図17に例示されるシナリオにおいて、エクステントE5のページP7に対する提案変更は、例えばコーディネータ1612によりP7のRLTが取得された後にP7に対する変更が成功しているため、受諾不可能であるとノード1632Bが判定し得る。従って、ノード1632BがP7に対し提案変更を実行する意図があることを示すインテントレコードを格納する代わりに、トランザクションはアボートされるべきであると示すTxアボートメッセージ1744Aを生成し得る。描かれた実施形態において、Txアボートメッセージ1744Aは、受信したTx準備メッセージ1642Bの送信元のノードに対し送信され得るが、別の実施形態において、Txアボートメッセージ1744Aは、局所的コミット分析が成功した後にインテントレコードを既に格納済みの他のノードチェーンメンバーに対し、並行して送信され得る。Txアボートメッセージ1744Aを受信すると、ノード1632Aは、自身のインテントレコードを削除し、ページP1に対するロックを解除し、コーディネータ1612に対しTxコミットメッセージ1644Cを返信し得る。いくつかの実施形態において、今度はコーディネータ1612が、複数ページ書き込みの要求者に対して書き込み失敗応答1750を送信し得る。少なくともいくつかの実施形態において、使用されているAPIのセマンティックにより、書き込み失敗応答1750と書き込み成功応答1650は、いずれも送信され得ない。その代わりに、要求エンティティは、自身の要求が成功したか否かを他の命令を使用して判断し得る(例えばディレクトリリスト作成命令を使用して、削除または名前変更が成功したか否かを判断し得る)。ノードチェーンの全てのノードが、アボートされたトランザクションに参加し得るとは限らないことに留意されたい。例えば、図17における決定者ノード1632Cは、分散トランザクションに参加するはずだったことを認識さえし得ない。従って、アボートは、チェーンメンバーのうちのいくつかにおける任意のリソースを無駄に消費して終わらず、その他の技術と比べて、分散トランザクションに対応付けられる全体処理量を削減するのに役立ち得る。
前述のように、いくつかの実施形態において、トランザクション用に特定されたノードチェーンの参加格納ノードのうちの1つ自体が、トランザクションのコーディネータとして選択され得る。少なくともいくつかの実施形態において、コーディネータはチェーンの第1ノードである必要はなく、またコーディネータは必ずしも決定者ノードとは限らない。図18は、少なくともいくつかの実施形態による、トランザクションのコーディネータとして指定されたノードを含む分散トランザクション参加ノードチェーン1804の例を示す。示されるように、ノードチェーン1804は、格納ノード1632A、1632B、1632K、1632Cを含み、1632Aはチェーンの第1ノードとして指定され、1632Cはチェーン内の末端かつ決定者ノードとして指定される。トランザクションの変更を行う対象ページには、ノード1632AにおけるエクステントE1のページP1と、ノード1632BにおけるエクステントE5のページP7と、ノード1632KにおけるエクステントE6のページP4と、ノード1632CにおけるエクステントE8のページP9とが含まれる。(図16、17、18の例は全て、各チェーンメンバーにて単一ページのみが変更されるように示されるが、一般に様々な実施形態においては、任意の数のページが各チェーンメンバーにて変更可能である。)ノード1632Kは、トランザクションコーディネータとしても指定されている。
従って、トランザクションコーディネータという役割で、ノード1632Kは、チェーンの第1ノード1632Aに対しTx準備メッセージ1801を送信し得る。図16に例示されるシナリオのように、Tx準備メッセージはノードチェーンに沿って順次伝播され得る。例えば、各中間ノードにおけるそれぞれの局所的ページレベルコミット判定が肯定的であると仮定すると、Tx準備1802がノード1632Aからノード1632Bへ送信され、Tx準備1803がノード1632Bからノード1632Kへ送信され、Tx準備1804がノード1632Kから決定者ノード1632Cへ送信され得る。
決定者ノード1632Cは、Txコミットメッセージの伝播を逆の順序で開始し得る。例えばTxコミットメッセージ1851がノード1632Cからノード1632Kへ送信され、Txコミットメッセージ1852がノード1632Kからノード1632Bへ送信され、Txコミットメッセージ1853がノード1632Bからノード1632Bへ送信され得る。トランザクションを完了するために、描かれた実施形態において、ノード1632Aは、最終Txコミットメッセージ1804をコーディネータノード1632Kへ送信し得る。少なくともいくつかの実施形態において、ノードチェーンの参加ノードからのコーディネータを動的に選択することは、調整作業負荷(例えばTx準備メッセージに必要な情報を収集し分析するトランザクションの準備段階に関連する作業負荷)を格納サブシステムノード間に分配する際、コーディネータを静的に選んだ場合に可能であったであろう分配と比べて、より均等に分配するのに役立ち得る。
少なくともいくつかの実施形態において、図19を参照して後述されるように、ノードチェーンメンバーそれぞれは、トランザクション後もある時間、トランザクションステートレコードをローカルに格納し得る。ステート情報は、例えばトランザクションが完了(コミットまたはアボートのどちらでも)する前に参加ノードのうちの1つに障害が発生した時に必要となり得る復旧動作中に使用され得る。時間と共に、このようなトランザクションステート情報は、さらに多くのメモリ及び/または格納領域を必要とし得る。従って、古いトランザクションのステート情報に充てられたメモリ及び/または格納領域を解放するために、所定のトランザクションがコミットまたはアボートされた後のある時点で、図18に描かれた実施形態においてコーディネータノード1632Kは、Txクリーンアップメッセージ1871、1872、1873をチェーン1804のノードに対し送信し得る。Txクリーンアップメッセージは、どのトランザクションのステートレコードが格納ノードから削除されるべきか、トランザクションの識別子を示し得る。従って、少なくともいくつかの実施形態において、格納ノードは、Txクリーンアップメッセージを受信すると、特定されたトランザクションステートレコードを削除し得る。様々な実施形態において、Txクリーンアップメッセージは、コーディネータから格納ノードチェーンメンバーに対し並行して送信され得る(図18において提案)、あるいは順次伝播され得る。いくつかの実施形態において、コーディネータは、トランザクションがコミットまたはアボートされてから調整可能または設定可能な時間が経過した後に、所定のトランザクションに関するTxクリーンアップメッセージを送信することを決定し、そして当該時間は、様々な格納ノードにおいて古いトランザクションレコードに使用される格納/メモリ領域の測定等、様々な要素に基づいて調整され得る。コーディネータノードは偶然、図18におけるノードチェーン1804のメンバーであるが、コーディネータがノードチェーンのメンバーであろうがなかろうが、コーディネータノードによりTxクリーンアップメッセージが送信され得る。いくつかの実施形態において、単一のTxクリーンアップメッセージは、トランザクションレコードがクリーンアップされるべきいくつかの異なるトランザクションの指示を含み得る。少なくとも一実施形態において、図18に示されるようにコーディネータがTxクリーンアップメッセージを送信する代わりに、チェーン内のその他の選択されたメンバーがTxクリーンアップメッセージを送信する責任を担い得る。このような一実施形態において、例えばチェーンの第1メンバー(例えば図18におけるノード1632A)により、Txクリーンアップメッセージは送信され得る。
任意の分散コンピューティング環境、特に、数千の汎用コンピューティングデバイス及び/または格納デバイスが使用されている大きなプロバイダネットワークにおいて、コンポーネントのある部分集合におけるハードウェア及び/またはソフトウェア障害の可能性は、実施されているサービスの設計時に対応される必要がある。図19は、少なくともいくつかの実施形態による、ノードチェーンのノードのうちの1つにおける障害発生時に、分散トランザクションの完了を簡易化するために実行され得る例示的動作を示す。3つの格納ノード1932A、1932B、1932Cは、同一の論理エクステントE1のそれぞれのレプリカ1902A、1902B、1902Cを格納するように示される。最初にレプリカ1902Aがマスタレプリカとして指定され、一方1902B、1902Cは非マスタレプリカとして指定される。
任意の所定の分散トランザクションのために生成された格納ノードチェーンは一般に、トランザクションに関わるエクステントのマスタレプリカが格納される格納ノードを含み得る。このようなノードは、これらのエクステントのマスタレプリカが当該ノードに格納されることに関して、「マスタノード」または「リーダノード」とも称され得る。所定のノードチェーンメンバーにおいて物理ページに対して行われる変更は、マスタノードから他のレプリカの間に伝播され得る。従って、少なくともいくつかの実施形態において、前述のメッセージ(例えばTx準備、Txコミット、Txアボート)は一般に、トランザクションに関わるエクステントのマスタノードへ送信され得る。
描かれた実施形態において、マスタノード1932Aは、インテントレコード1915と、ページロック1910と、トランザクションステートレコード1905とを、E1のレプリカグループのメンバーが格納される他の格納ノードもアクセス可能な永続性共有レポジトリ1980に格納し得る。少なくともいくつかの実施形態において、分散トランザクションメッセージフローに参加する各ノードチェーンメンバー(図16のノード1632A、1632B、1632Cと、図17のノード1632A、1632B等)は、Tx準備、Txコミット、またはTxアボートメッセージがノードチェーンメンバーから送信された時に、分散トランザクションのステートに関する各ノードチェーンメンバーの局所的見解を示すトランザクションレコード1905を格納し得る。例えば、局所的ページ変更に関するコミット分析が変更は受諾可能であることを示し、かつ局所的ページを変更するインテントレコードが格納された場合、トランザクションステートレコードは、トランザクション(コーディネータにより選択され、Tx準備メッセージに含まれる一意的識別子により特定される)が、ノードチェーンメンバーの観点からすると準備完了ステートにあることを示す。決定者ノードは、トランザクション全体をコミットすると決定すると、ステートをコミット済みに設定したトランザクションレコードを保存し得る。描かれた実施形態において、非決定者ノードがTxコミットメッセージを受信すると、トランザクションのステート(前は準備完了であったステート)は、コミット済みに変更され得る。チェーンのいずれかのノードがトランザクションをアボートすると決定した場合、ステートがアボート済みに設定されたトランザクションステートレコードが、レポジトリ1980に格納され得る。任意のノードチェーンメンバーがTxアボートメッセージを受信すると、ステートをアボート済みに設定するようにトランザクションステートレコードは変更され得る。Txクリーンアップメッセージに関する論述において前述されるように、少なくともいくつかの実施形態において、所定の格納ノードの観点からトランザクションは完了したことに伴うメッセージ発信後、トランザクションステートレコード1905はある時間当該格納ノードにおいて保持され得る。これは、異なる実施形態において、例えばメッセージ損失による障害状態からの復旧を手伝うため、デバッグのため、監査のため等、様々な目的のために行われ得る。いくつかの実施形態において、所定のトランザクションに関してTxクリーンアップメッセージが受信されると、トランザクションステートレコードは、削除または記録保管され得る。
永続性ステートレポジトリ1980が使用され得ることで、トランザクションが完了する前(例えば、所定のトランザクションに関するTx準備、Txコミット、Txアボート、またはマスタが送信する責任のあるメッセージ全てが、その意図する受信者に無事に受信される前)にマスタノードに障害が起こったとしても、フェイルオーバーノードがトランザクション関連動作を引き継ぐことが可能である。例えば、「1」と表示された矢印により示されるように、マスタノード1932A(エクステントE1に関する)は、当該マスタノードが時間T1にレポジトリ1980内のTx準備メッセージを受信した所定のトランザクションTx1に関して、トランザクションステートレコード1905と、ページロック1910の開示と、インテントレコード1915とを書き込み得る。対応するTxコミットまたはTxアボートメッセージを受信する前に、「X」という印と「2」と表示された文により示されるように、ノード1932に障害が起こり得る。複製ステート管理プロトコルに従って、例えばレプリカ1902Bを新たなマスタとして指定することにより、ノード1932BがエクステントE1に関する新たなマスタノードとして選択され得る(表示「3」により示される)。いくつかの実施形態において、新たなマスタを選ぶのに、コンセンサスベースポリシーが使用され得る。ノード1932Aに対し(ノード1932Aの障害の前に)TxコミットまたはTxアボートを送信したであろうノードチェーンメンバーは、エクステントE1に関するマスタの役割がノード1932Bへ委譲されたことを代わりに検出し、そのためTxコミットまたはTxアボートを代わりに1932Bへ送信し得る。インテントレコード、ロック、及びトランザクションステートレコードは全て永続性レポジトリ1980に格納されるため、ノード1932Bは、レポジトリ1980からTx1に関する要求されるトランザクション情報を読み出し、ノード1932Aが実行していたであろうトランザクション関連タスクを簡単に実行することが可能であり得る。少なくともいくつかの実施形態において、永続性レポジトリ1980は、レプリカ間に変更を伝播する、論理タイムスタンプを読み出し及び書き込みに対応付ける等の目的のために使用される複製ステート管理システムのコンポーネントとして実装され得る。
図20は、少なくともいくつかの実施形態による、ファイルシステム格納サービスにおいて分散トランザクションを調整するために実行され得る動作の態様を例示するフロー図である。構成要素2001に示されるように、変更を伴うファイルストア動作要求が、例えばメタデータノードにおいてアクセスノードから、または別のメタデータノードから受信され得る。要求の分析は、要求を遂行するために、例えば異なるエクステント及び/または異なる格納ノードにおける、複数ページ(メタデータ、データ、またはその両方を含む)が必要か否かを明らかにし得る。構成要素2004にて検出されるように、単一ページのみを変更する場合、前述のものと同様の読み出し‐変更‐書き込みシーケンスが開始され得る(構成要素2007)。
複数ページに対し変更または書き込みを行う必要がある場合(同様に構成要素2004にて検出)、コーディネータノードを選択し特定することで(構成要素2010)、分散トランザクションが開始され得る。異なる実施形態において、コーディネータを選択するために、様々な技術が使用され得る。少なくとも一実施形態において、トランザクションに関わる参加ノードのうちの1つ、例えば対象ページのうちの1つのページのマスタレプリカが格納される格納ノード、またはトランザクションの影響を受けるメタデータを生成し管理する責任を担うメタデータノードのうちの1つが、選択され得る。いくつかの実施形態において、格納サブシステム、メタデータサブシステム、またはアクセスサブシステムのノードの集合が、事前にコーディネータ候補として指定され、当該候補から特定のノードが選択され得る。
コーディネータは、トランザクションを完了するために必要な様々な要素の情報を収集し得る(構成要素2013)。このような情報は、例えば、変更する全てのページのリストと、対応する書き込みペイロード(書き込むバイトのコンテンツ)のリストとを含み、描かれた実施形態において生成され得る。コーディネータはまた、例えばデッドロック回避機構を使用して、トランザクションのためにページレベルコミット分析が実行されるべき順序(ゆえにロックが確保されるべき順序)も決定し得る。いくつかの実施形態において、例えば、デッドロック回避機構を使用することは、全ての分散トランザクションに適用される無撞着並び替え方法論を使用して対象ページの識別子を並び替えることを含み、これにより、任意の2ページ上でロックが確保される順序は、1つのトランザクションから別のトランザクションにおいて変化しない。描かれた実施形態において、コーディネータは、例えば対象となるページを有する全てのエクステントの(現在の)マスタ格納ノードを特定し、コミット分析が実行されるべき順序に特定したマスタ格納ノードを配置することにより、トランザクションの格納ノードチェーンを構成し得る。少なくとも一実施形態において、コーディネータはまた、一意的トランザクション識別子(例えばランダムに生成されたストリングを組み込む汎用一意識別子すなわちUUID)を生成する責任も担い得る。前述の条件付き書き込み技術に関して論述されたもの等の読み出し論理タイムスタンプ(RLT)または動作順序番号がI/O動作において利用可能ないくつかの実施形態において、コーディネータはまた、対象ページ全てを読み出し、読み出しに対応付けられたRLTを特定し得る(構成要素2016)。コーディネータはそれから、ノードチェーンと、書き込みペイロードと、RLTとを示すTx準備メッセージを構成し、チェーンの第1ノードに対しTx準備メッセージを送信し得る(構成要素2019)。
少なくともいくつかの実施形態において、コーディネータはそれから、選択されたタイムアウト時間の後に終了するように設定されたタイマーを開始し、自身のTx準備メッセージに対する応答を待ち得る。タイムアウト時間内に応答が受信されなかった場合(構成要素2023にて検出)、いくつかの実施形態において、構成要素2001のファイルストア動作を要求したクライアントに対し、動作の結果が不明であることを示す応答が提供され得る(構成要素2035)。少なくとも一実施形態において、例えばチェーンの第1ノードがまだアクセス可能であればその第1ノードに対し、またはその第1ノードの代替ノードが検出または設定可能であればその代替ノードに対し、別のTx準備メッセージを送信することで、トランザクションステート回復動作が開始され得る。
タイムアウト時間内にTxコミットメッセージがコーディネータにおいて受信された場合(構成要素2026にて特定)、これはトランザクションの個々のページ変更が全て無事に実行されたことを示し得る。従って、いくつかの実施形態において、コーディネータは、動作を要求したクライアントに対し、要求動作は成功したという開示を送信し得る(構成要素2029)。少なくとも一実施形態において、Txクリーンアップメッセージが、チェーンノードに対し、例えばTxコミットの受信者に対し非同期的に、送信され得る。そのため、ノードチェーンメンバーにおいてコミット済みトランザクションのトランザクションステートを保持する任意のリソースが解放され得る。前述のように、Txクリーンアップメッセージは、コーディネータにより、またはチェーンの第1メンバー等のその他の選択されたチェーンメンバーにより、送信され得る。
Txアボートメッセージがコーディネータにおいて受信された場合(同様に構成要素2026にて検出)、コーディネータは、いくつかの実施形態において、要求された動作は失敗したという開示をクライアントに対し任意で送信し得る(構成要素2032)。いくつかの実施形態において、Txクリーンアップメッセージは、コーディネータまたはチェーンのその他のメンバーにより、アボートされたトランザクションに参加していたチェーンメンバーに対しても送信され得る。いくつかの実施態様において、チェーンメンバーのうちのいずれかによりトランザクションはアボートされ得るため、チェーンメンバーの部分集合のみがアボートが起こる前にトランザクションステートレコードを格納しており、ゆえにチェーンメンバーの部分集合のみに対しTxクリーンアップメッセージが送信され得る。別の実施態様において、Txクリーンアップメッセージは単純にチェーンのノード全てに対し送信され、そしてTxクリーンアップメッセージ内で特定されるトランザクションのトランザクションステートを何も格納していないこれらノードは、Txクリーンアップメッセージを無視し得る。
図21は、少なくともいくつかの実施形態による、格納サービスのノードにおいてトランザクション準備(Tx準備)メッセージを受信したことに応じて実行され得る動作の態様を例示するフロー図である。コーディネータにより構成されたノードチェーンのメンバーCM、例えばトランザクションの一環として変更するページを有するエクステントのうちの1つのエクステントのマスタレプリカを格納するノードは、その他のノードから(例えば一般的に、コーディネータから、またはチェーンのある非決定者メンバーから)Tx準備メッセージを受信し得る(構成要素2101)。Tx準備メッセージは、トランザクションの提案ページ変更のリストにおいて、CMにマスタレプリカが格納される親エクステントを有するページPに対する1つまたは複数の提案ページレベル変更を示し得る。CMは、例えばTx準備メッセージ内でページPに関して示される読み出し論理タイムスタンプが取得されて以来ページPが変更されたか否かを、書き込みログバッファ(図14に示されるバッファと同様)において調査することにより、CMの観点から変更が受諾可能/コミット可能か否かを判定し得る。いくつかの事例において、CMに格納されている同一ページに対する、または異なるページに対する、複数のページレベル変更がTx準備メッセージにおいて示され、そして全てのこのような変更は受諾可能性に関して調査され得る。
構成要素2107において判定されるように、局所的ページレベル変更がコミット可能である場合、CMが決定者(ノードチェーンの最後のメンバー)であるか否かによって、異なる動作が行われ得る。CMが決定者である場合(構成要素2110にて検出)、局所ページ(複数可)に対する変更が開始され、そしてトランザクションがコミット済みステートであることを示すトランザクションレコードが、描かれた実施形態において永続性格納領域に格納され得る(構成要素2113)。決定者ノードはそれから、ノードチェーンの他のメンバーに対し、Txコミットメッセージの伝播を開始し得る(構成要素2116)。いくつかの実施形態において、Txコミットメッセージは、例えば同じトランザクションに関してTx準備メッセージが送信された順序とは逆の順序で、順次伝播され得る。別の実施形態において、Txコミットメッセージは、並行して送信され得る。
局所的ページレベル変更がコミット可能であり、かつCMが決定者ノードではない場合(同様に構成要素2107と2110にて特定)、描かれた実施形態において、CMは、(a)インテントレコード(残りのノードチェーンメンバーも自身の局所的変更がコミット可能であると判定した場合、CMは自身の局所的変更を実行する意図があることを示す)を格納し、(b)CMの対象局所的ページをロックし(例えば分散トランザクション全体がコミット/アボートされるまでこれらのページに対するいずれの書き込みも防止するため)、(c)トランザクションが準備完了ステートであることを示すトランザクションステートレコードを格納し得る(構成要素2119)。CMはそれからTx準備メッセージを、チェーン内の次のノードへ転送し得る(構成要素2122)。
ローカルページレベル変更がコミット不可能である場合(同様に構成要素2107にて検出)、例えばTx準備メッセージ内に示されるページPのRLTが取得された後にページPが書き込まれた場合、逐次一貫性セマンティックに対応するために、トランザクション全体はアボートされる必要があり得る。従って、CM(非決定者ノードまたは決定者ノードであり得る)は、トランザクションがアボートされたという開示を格納し得る(構成要素2125)。いくつかの実施態様において、トランザクションはアボート済みステートであることを示すトランザクションステートレコードが格納され得る。他の実施態様において、ダミーまたは「無演算」書き込みレコードが、ローカル書き込みログバッファ(図14のバッファ1450と同様)に格納され得る。このようなダミー書き込みは、アボート済みステートを示すステートレコードと同じ効果を有し得る。すなわち、ある理由で(例えば誤メッセージまたは遅延メッセージを受信した結果として)CMにおいてトランザクションの再試行が試みられた場合、再試行は失敗することとなる。CMは、Tx準備メッセージを既に送信したチェーン内の他のノードに対し(もしそのようなノードが存在すれば)、及び/またはコーディネータに対し、Txアボートメッセージの伝播を開始し得る(構成要素2128)。
図22は、少なくともいくつかの実施形態による、格納サービスのノードにおいてトランザクションコミット(Txコミット)メッセージを受信したことに応じて実行され得る動作の態様を例示するフロー図である。構成要素2201において示されるように、トランザクション用のTx準備メッセージにおいてトランザクションコーディネータにより示されたノードチェーンメンバーCMは、Txコミットメッセージを受信し得る。一般にTxコミットメッセージは(少なくとも通常の動作条件の下)、CMが自身の局所的ページレベルコミット分析を実行して、トランザクションが準備完了ステートであることを示すトランザクションレコードを格納した後のある時点に、受信され得る。Txコミットメッセージを受信したことに応じて、CMは局所的対象ページに対し実際の変更を開始し(構成要素2104)、トランザクションが現在コミット済みステートであることを示すようにトランザクションステートレコードを変更し得る。いくつかの実施形態において、エクステントEのデータ耐久性要件により、局所的ページ書き込みが完了したとみなされ得る前に、複数のエクステントレプリカが変更される必要があり得る。いくつかのこのようなシナリオにおいて、CMは、ページ変更の開始後、必要なだけのレプリカの更新が完了するまで、トランザクションレコードを変更することを待ち得る。
CMはそれから対象ページ(複数可)に対し維持していたロック(複数可)を解除し得る(構成要素2207)。少なくともいくつかの実施形態において、CMがトランザクションのTx準備メッセージに応じて格納していたインテントレコードが、この時点で削除され得る(構成要素2210)。前述のように、いくつかの実施形態において、Txコミットメッセージは、Tx準備メッセージとは逆の順序でチェーンメンバー間に順次伝播され、一方他の実施形態においては、並行伝播が使用され得る、あるいは順次伝播と並行伝播のある組み合わせが使用され得る。順次伝播が使用されている場合、またはチェーンのうちのいくつかのノードがTxコミットメッセージをまだ受信していないことをCMが判断可能な場合(例えばCMが受信したTxコミットメッセージ内の開示に基づいて)、CMはチェーン内の選択されたノードに対し、またはコーディネータに対し、Txコミットメッセージを転送し得る(構成要素2213)。いくつかの実施形態において、重複Txコミットメッセージは無視され得る。例えば、所定のノードまたはコーディネータがトランザクションTx1のTxコミットメッセージを受信し、Tx1はコミット済みのものとして既に記録されている場合、この新たなTxコミットメッセージは無視され得る。いくつかのこのような実施形態において、トランザクションを完了するのにかかる合計時間を短縮するために、Txコミットメッセージには、例えばTxコミットメッセージを受信した各ノードがチェーンの他のN個のノードに対しTxコミットメッセージを転送し得る非順次伝播機構が使用され得る。
図23は、少なくともいくつかの実施形態による、格納サービスのノードにおいてトランザクションアボート(Txアボート)メッセージを受信したことに応じて実行され得る動作の態様を例示するフロー図である。構成要素2301に示されるように、Txアボートメッセージが、チェーンメンバーCMにおいて受信され得る。Txコミットメッセージと同様に、一般にTxアボートメッセージは(少なくとも通常の動作条件の下)、CMが自身の局所的ページレベルコミット分析を実行して、トランザクションが準備完了ステートであることを示すトランザクションレコードを格納した後のある時点に、受信され得る。
Txアボートメッセージを受信したことに応じて、CMは対象ページ(複数可)に対し維持していたロック(複数可)を解除し得る(構成要素2304)。少なくともいくつかの実施形態において、CMがトランザクションのTx準備メッセージに応じて格納していたインテントレコードが、この時点で削除され得る(構成要素2307)。Txコミットメッセージの場合のように、異なる実施態様において、Txアボートメッセージには、順次、並行、またはハイブリッド(すなわち順次と並行のある組み合わせ)伝播のいずれかが採用され得る。いくつかの実施形態において、Txアボートメッセージは、例えばTx準備メッセージとは逆の順序でチェーンメンバー間に順次伝播され得る。順次伝播が使用されている場合、または前にTx準備メッセージを送信したチェーンのうちのいくつかのノードがTxアボートメッセージをまだ受信していないことをCMが判断可能な場合(例えばCMが受信したTxアボートメッセージ内の開示に基づいて)、CMはチェーン内の選択されたノードに対し、またはコーディネータに対し、Txアボートメッセージを転送し得る(構成要素2310)。いくつかの実施形態において、重複Txコミットメッセージの時のように、重複Txアボートメッセージは無視され得る。例えば、所定のノードまたはコーディネータがトランザクションTx1のTxアボートメッセージを受信し、Tx1はアボート済みのものとして既に記録されている場合、この新たなTxアボートメッセージは無視され得る。いくつかのこのような実施形態において、トランザクションをアボートするのにかかる合計時間を短縮するために、Txアボートメッセージには、例えばTxアボートメッセージを受信した各ノードがチェーンの他のN個のノードに対しTxアボートメッセージを転送し得る非順次伝播機構が使用され得る。
エクステント予約超過モデルを使用するオンデマンドページ割り当て
数多くの格納システムにおいて、パフォーマンス目標は、時に格納領域効率性目標と潜在的に矛盾し得る。例えば、一般に、管理されているデータ量に対し比較的に小さいメタデータ量(論理ブロック対物理ページマッピングを含む構造等)を維持することは、様々な種類のファイルストア動作の迅速化に役立ち得る。メタデータが大きくなりすぎた場合、アクセスノードのメタデータキャッシュにおけるキャッシュヒット率は落ち、その結果、同じ数のクライアント要求に対応するために、アクセスサブシステムとメタデータサブシステム間においてより多くのインタラクションが必要となり得る。少なくともいくつかのメタデータは論理ブロックごとに保持され得るため、パフォーマンスの観点からすると、大きな論理ブロック(例えば4メガバイトまたは16メガバイトの論理ブロック)を有することは、小さい論理ブロックを有するよりも良いということが示唆される。しかしながら、論理ブロックに対する第1書き込みが要求された時に論理ブロック全体の物理ページが割り当てられる場合、格納領域使用効率は準最適なものとなり得る。例えば、論理ブロックサイズが4MBである(従って、論理ブロック全体に十分な格納領域が1度に割り当てられる場合、最小4MBの物理格納領域が任意の所定ファイルに割り当てられる)シナリオを検討すると、所定のディレクトリまたはファイルシステム内のファイルに格納されるデータ平均量は、およそ32KBである。このようなシナリオにおいては、大量の物理格納領域が無駄になる。しかしながら、論理ブロックサイズが平均ファイルサイズ近くに設定された場合、結果的に、大きなファイルに対し非常に大量のメタデータが必要となり得るため、大きなファイルに対してだけでなく、ファイル格納サービス全体に対する動作が遅くなる可能性がある。
異なる実施形態において、格納領域効率性とパフォーマンス間のトレードオフに対処するために、多数の技術が使用され得る。一技術において、エクステントに予約超過モデルが使用され、所定の論理ブロック内の物理ページは、1度にまとめてではなくオンデマンドでのみ割り当てられ得る(すなわち論理ブロックサイズがXキロバイトに設定され、かつ論理ブロックに対する第1書き込みのペイロードが(X−Y)キロバイトのみである場合、X−Yキロバイトを格納するのに必要なページのみが、第1書き込みに応じて割り当てられ得る。)予約超過モデルの論述の後に説明される別の技術においては、所定のファイルストアオブジェクト内に異なるサイズの論理ブロックが採用され、そのためオブジェクトのストライプのうち少なくともいくつかのストライプのサイズは、他のストライプのサイズとは異なり得る。前述のように様々な実施形態(エクステントの予約超過及び/または可変論理ブロックサイズの使用が行われる実施形態も含む)におけるデータ耐久性のためにエクステントが複製され得るが、エクステント複製技術は、本明細書において論述される論理ブロック対ページマッピングとエクステント予約超過とに無関係であるとみなされ得ることに留意されたい。従って、エクステントレプリカは、予約超過エクステントに関して、または可変サイズストライプに関して、本明細書において詳細に論述されないものとする。説明を簡潔にするために、エクステント予約超過管理技術の論述の大部分に関して、及び可変サイズストライプまたは可変サイズ論理ブロックに使用される技術の論述に関して、論理エクステントは、単一物理エクステントを含むように仮定され得る。
図24は、少なくともいくつかの実施形態による、分散格納サービスにおける予約超過の格納エクステントの例を示す。描かれた実施形態において、所定のファイルストアオブジェクト(ファイル2400A、2400B、2400C等)の論理ブロックは全て同じサイズであり、所定の論理ブロックに割り当てられた全ての物理ページは単一エクステントの一部である。描かれた実施形態において、所定のエクステント内の物理ページも一般に、当該エクステントの他の物理ページと同じサイズであり得る。従って、一例示的実施態様において、エクステントは16ギガバイト分の32KB物理ページを含み、一方論理ブロックは4メガバイトを含み得る。少なくともいくつかの実施形態において、エクステント、論理ブロック、及び/または物理ページのサイズは、それぞれの構成パラメータを使用して設定され得る。
示されるように、同一ファイルの異なる論理ブロックは、少なくともいくつかの事例において、異なるエクステントにマッピングされ、その結果、論理ブロックはストライプの均等物とみなされ得る。ファイル2400AはLB(論理ブロック)2402A、2402Bを含む。LB2402Aは、エクステントE2434Aの複数の物理ページ(PP)2410Aにオンデマンドでマッピングされる。同様に、エクステントE2434Bにおける複数の物理ページ2410Bは、オンデマンドでLB2402Bに割り当てられる。エクステントE2434Aにおいて、複数のページ2410Aは、オンデマンドでファイル2400BのLB2402L、並びにファイル2400CのLB2402Pに割り当てられる。エクステントE2434Bにおいて、複数のページ2410Bは、オンデマンドでファイル2400BのLB2420K、及びファイル2400CのLB2402Qに割り当てられる。オンデマンド割り当て技術は、描かれた実施形態において、以下のように実施され得る。特定の論理ブロックに対する書き込み要求が受信される度に、ファイル内の開始オフセットと、書き込みペイロードのサイズ(書き込むまたは変更するバイト数)を使用して、任意の新たな物理ページを割り当てるか否かを決定し、割り当てる場合には、どれだけの新たな物理ページを割り当てる必要があるかを決定し得る。(いくつかの書き込み要求は、前に割り当てられたページを対象とし得るため、任意の新たなページを割り当てられる必要があり得ない)。例えば論理ブロックの一部が書き込まれる可能性のある物理ページの集合全体を一度に割り当てる代わりに、書き込みペイロードを収容するのに必要な数の新たな物理ページのみが割り当てられ得る。以下の例を検討する。LB2402Aのサイズは4メガバイトであり、PP2410Aのサイズは32KBである。LB2402Aに対する28KBの書き込みペイロードを有する第1書き込みが受信される。この前に、当例示的シナリオにおいて、LB2402Aに対し物理格納領域は何も割り当てられていない。格納サービスは、1つのPP2410Aのみが当該第1書き込みに必要であると判断する(単一32KBページ内に28KBは収容可能であるため)。その結果、エクステントE2434A内の1つのPP2410Aのみが割り当てられる。とはいえ、描かれた実施形態において所定の論理ブロックに対する全てのページは同一のエクステント内から割り当てられる必要があるため、4MBのLB2402A全体が最終的にはエクステントE2434A内に格納される必要がある。
一般に、少なくともいくつかの実施形態において、論理ブロックの何割が結局書き込まれるのか予測することは簡単ではなく、例えばいくつかのスパースファイルは、幅広く異なる論理オフセットに小さなデータ領域を含み得る。描かれた実施形態において、格納領域使用効率性を向上するために、エクステントE2434A、E2434Bそれぞれに予約超過が実施され得る。エクステントが、エクステントの現行サイズ内に完全に物理的に収容可能な論理ブロックよりも多い論理ブロックに対する書き込み要求を受諾するように構成される場合、エクステントは予約超過であるとみなされ得る。例えば、全ての論理ブロック内の完全なオフセット範囲が、何らかの方法で同時に書き込まれる場合、エクステントは拡張される必要があり得る(または別のエクステントが使用される必要があり得る)。従って、予約超過パラメータ2455Aに示されるように、N個の論理ブロックがエクステントE2434Aにマッピングされ、各論理ブロックは最大M個のそれぞれYキロバイトの物理ページにマッピングされることが可能である。エクステントE2434Aの現行サイズはXキロバイトであり、Xは(N**Y)より小さい。描かれた実施形態において、エクステントの実サイズ(X)に対する可能性のある格納超過量((N**Y)−X)の割合に等しい予約超過因数OF1がエクステントE2434Aに適用される。同様の予約超過パラメータ2455BがエクステントE2434Bに適用される。E2434Bは、Zキロバイトまでのみ現在格納可能であるが、Q個のそれぞれRキロバイトの物理ページに各自マッピング可能なP個の論理ブロックに対する書き込み要求を受諾するように構成される。Zは(P**R)より小さく、E2434Bの予約超過因数OF2は、ゆえに((P**R)−Z)/Zである。いくつかの実施形態において、様々のエクステントが、異なる予約超過因数で構成され得る。一実施形態において、全てのエクステントに対し、均一予約超過因数が使用され得る。後述のように、いくつかの実施形態において、予約超過因数及び/または予約超過因数に対応付けられた空き格納領域閾値は、少なくともいくつかのエクステントに関して、例えばファイルシステム使用または動作の収集メトリクスに基づいて、継時的に変更可能である。各エクステントレベルでの予約超過管理に関して本明細書において説明されるものと同様の技術が、同様にまたは代わりに、様々な実施形態における他のレベルでの予約超過に適用され得る。例えば、格納サブシステムノードはそのエクステントの予約超過に基づいて予約超過が実施され得る、個々の格納デバイスに対し予約超過が実施され得る、等が挙げられる。
図25は、少なくともいくつかの実施形態による、オンデマンドの物理ページレベル割り当て及びエクステント予約超過を実施する分散マルチテナント格納サービスのサブシステム間のインタラクションを例示する。描かれた実施形態において、示されるように、メタデータエクステント(E2534A等)とデータエクステント(E2534B等)の両方に、予約超過が実行され得る。矢印2501により示されるように、アクセスノード2512からの特定の論理ブロック(LB)に対する第1書き込み要求が、メタデータノード2522において受信され得る。書き込み要求は、サイズ「WS」の書き込みペイロードを含み、例えばファイル2400に対するクライアントの書き込み要求に応じてアクセスノード2512において生成され得た。
書き込み要求2501が受信された時点では、論理ブロック自体のメタデータは作成され得なかった。例えば、書き込みは単純に、ファイル2400がオープンになった後の当ファイルに対する第1書き込みであり得る。描かれた実施形態において、メタデータノード2522は、まずLBメタデータを生成し、書き込み得る。要求2554は、例えばLBのメタデータを格納するために格納ノード2532Aへ送信され得る。格納ノードは、ブロック2558により示されるように、予約超過メタデータエクステントE2534Aからページを割り当て、メタデータノード2522により生成されたメタデータを格納し得る。使用する特定のメタデータエクステントは、メタデータノード2522、格納ノード2532Aのいずれかにより、または異なる実施形態における格納サービスの別の配置コンポーネントにより、選択され得る。当該選択は、変更されるファイルの名前、様々なエクステントにおける利用可能な空き格納領域の量等、様々な要素に基づいて行われ得る。
描かれた実施形態において、メタデータノード2522も、WSバイトの書き込みペイロードを格納するために、どれだけの新たな物理データページを割り当てるか決定し得る。WSバイトを収容するために適切な数の物理ページの要求2562が、少なくともいくつかの実施形態において、LBメタデータに使用される格納ノードとは異なる格納ノード2532Bへ送信され得る。描かれた実施形態において、格納ノード2532Bは、予約超過データエクステント2534Bにおける要求された数の物理ページ(少なくともいくつかの事例において、論理ブロックのアドレス範囲全体が一度に書き込まれた場合に必要となるであろうページ数よりも少なくあり得る)を割り当て得る。描かれた実施形態において、物理ページの識別は、エクステント2534Aにおいて格納されるLBメタデータ内に格納され得る。例えば、格納ノード2534Bは、エクステント2534B内のデータページのアドレスをメタデータノード2522へ送信し、メタデータノード2522は、LBメタデータ内に当該アドレスを書き込むように格納ノード2532Aに対し要求を送り得る。いくつかの実施形態において、メタデータページが割り当てられる前に、データページが割り当てられ得る。これにより、例えばメタデータページの割り当ては、データページアドレスの書き込みと組み合わせ可能となり、追加メッセージを必要としない。一実施形態において、書き込みペイロードはデータページの割り当て要求2562と共に、メタデータノード2522により格納ノード2532Bへ送信され得る。この場合、WSバイトの書き込みは、データページの割り当てと組み合わされ、追加メッセージを必要としない。少なくともいくつかの実施形態において、データページ(複数可)が第1書き込み要求2501に割り当てられた後、データを格納する予定の好適な格納ノード(2532B)の識別がアクセスノード2512に提供され、そしてアクセスノード2512は当該格納ノードに対し書き込みペイロードを送り得る。
少なくともいくつかの実施形態において、先に述べたように、予約超過モデルの使用により、所定のエクステントが格納するように指定されるコンテンツを有する論理ブロック全てに対して、十分な格納領域を所定のエクステントが提供しきれない状況に陥り得る。従って、いくつかの実施形態において、予約超過エクステントは時々拡張される必要があり得る、あるいはエクステントコンテンツはその元のエクステントからより大きなエクステントへ移動またはコピーされる必要があり得る。いくつかの実施形態において、エクステントレベルのデータコピーまたはエクステント拡張に対応した場合に生じ得る同期遅延を回避するために、空き格納領域閾値が予約超過エクステントに割り当てられ得る。このような実施形態において、空き格納領域閾値が破られると、非同期エクステント拡張動作、またはエクステントコンテンツの非同期転送が実行され得る。異なるエクステントは、自身に与えられた格納作業負荷の特性に応じて、異なる割合で拡大し得る。少なくともいくつかのエクステントに関して、最大エクステントサイズが定義され得る(例えば使用されている特定の格納デバイスの容量に基づいて)。その結果、特定のエクステントがこのような最大エクステントサイズに達すると、当該エクステントはもはや予約超過とはみなされ得ず、そして格納サービスはこのような最大サイズのエクステントに対処するために、さらに拡大可能なエクステントに使用される論理とは異なる論理を採用し得る。いくつかの実施形態において、選択されたエクステントは、拡大する他のエクステントに場所を空けるために、別の格納ノードまたは別の格納デバイスへ積極的に移動され得る。このような積極的な移動は、いくつかの実施態様において、進行中のクライアントが要求した動作の乱れを最小限にするために、バックグラウンドタスクとして実行され得る。異なる実施形態において、他のエクステントに場所を空けるためにどのエクステントを積極的に移動するか選択するのに、多数の異なるルール、ポリシー、またはヒューリスティックが使用され得る。例えば一実施形態において、積極的移動には、大部分の容量が既に使用されているエクステントに優先して、大部分の容量が使用されていないエクステントが選ばれ得る。別の実施形態においては、逆の手法が使用され得る。例えば、指定された最大サイズに既に到達したエクステント(または指定された最大サイズにもう少しで到達するエクステント)は、まだ大幅に拡大可能なエクステントに優先して、移動され得る。同様に、エクステントが移動される先の対象格納デバイスまたは格納ノードも、様々な実施形態において、設定可能ポリシーに基づいて選択され得る。一実施形態において、エクステントは、絶対に必要な時のみ移動され得る(例えば積極的移動は実施され得ない)。
図26aは、少なくともいくつかの実施形態による、空き格納領域閾値が指定されたエクステントを例示する。一方図26bは、少なくともいくつかの実施形態による、空き格納領域閾値の侵害に起因するエクステントの拡張を例示する。図26aにおいて示されるように、予約超過エクステントE2634Aに対する空き格納領域閾値集合が設定され得ることにより、拡張を引き起す前に、最大限度2650であるM個の物理ページがエクステント内で割り当てられ得る。エクステント2634Aの割り当て済みページの数KがMより小さい(すなわち未割り当てページLの数が空き閾値限度を超えている)限り、図25において例示される書き込み要求に応じて、新たなページがオンデマンドで割り当てられ得る。M番目のページが割り当てられた場合/時、図26bの矢印2655により示されるように、元のエクステント2634Aのコンテンツを、より大きなまたは拡張されたエクステント2634Bへ非同期でコピーすることが開始され得る。示されるように、拡張されたエクステント2634Bの最大割り当て限度(Nページ)は、元のエクステント2634Aの割り当て限度であるMページよりも大きくあり得る。いくつかの実施形態において、少なくともいくつかのエクステントでは、ページをコピーすることなく拡張を行うことが可能であり得る。例えば、所定の予約超過エクステントが、所望する拡張を収容するのに十分な格納領域を有する格納デバイス上に配置される場合、エクステントのサイズは、格納デバイス内で増大可能である。別の実施形態において、元のエクステントのコンテンツは、別の格納デバイスへ、潜在的に別の格納ノードにおいて、コピーされる必要があり得る。従って、一実施態様において、拡張されたエクステント2634Bは、元のエクステント2634Aとは異なる物理格納デバイスを使用し得る。少なくともいくつかの実施態様において、例えば10GBのN1エクステントが作成され得る、20GBのN2エクステントが作成され得る等、いくつかの異なるサイズのエクステントが格納サービスにて作成され得る。このような実施形態において、エクステントの拡張は、例えば10GBのエクステントからのページを、既存の20GBのエクステントへコピーすることを伴い得る。本明細書において使用される用語「エクステント拡張」は、例えばエクステントの現場拡張を伴う動作、または1つの格納デバイスから別の格納デバイスへエクステントコンテンツの転送を伴う動作といった、これらの種類の動作のうちのいずれかを一般的に指す意図があり、これらの動作は、予約超過エクステントにおいて空き格納領域閾値が侵害された時に追加データまたはメタデータコンテンツを格納する能力につながる。従って、いくつかの実施形態において、エクステントの拡張は実質的には、エクステントに使用されている格納デバイスを別の格納デバイスに置き換えることにより、元のデバイスと同じ格納ノードにおいて、または別の格納ノードにおいて、行われ得る。いくつかの実施形態において、拡張前のエクステントを指すためにエクステント識別子E1が使用され、かつ拡張後に別の格納デバイスが使用される場合、拡張後に別のエクステント識別子E2が使用され得る。別の実施形態においては、拡張後に同じ識別子が使用され得る。
図27は、少なくともいくつかの実施形態による、エクステント予約超過に対応する格納サービスにおいてオンデマンドの物理ページ割り当てを実施するために実行され得る動作の態様を例示するフロー図である。構成要素2701において示されるように、分散マルチテナントファイル格納サービスの複数の格納サブシステムノードにおいて、複数の物理エクステントが構成され得る。いくつかの実施形態において、1つまたは複数の異なるサイズを有する複数のエクステントは、例えばプロバイダネットワークのリソースの集合において格納サービスが開始された時に、事前構成され得る。別の実施形態においては、エクステントの集合は、新たなファイルストア(例えばファイルシステム)が初期化された時に、構成され得る。いくつかの実施形態において、各エクステントは、選択された複数の物理ページのために十分な格納領域を有し、各ページは、データまたはメタデータの論理ブロックのコンテンツを格納するために使用可能な複数のバイトを有する。例えば、一実施形態において、エクステント集合のそれぞれのエクステントは特定のSSDまたは回転ディスクベースの格納デバイス上に8ギガバイトの格納領域を有し、エクステントに格納するコンテンツを有するオブジェクトにおいて使用されるデフォルトの論理ブロックサイズは4MBであり、そして物理ページサイズは32KBに設定され得る。このパラメータ集合では、各論理ブロックは128個までの物理ページを有することが可能であり、そして各エクステントはおよそ2000個までの充満論理ブロック(少なくとも4MBのデータが実際に書き込まれ、論理ブロック内に未書き込みオフセット範囲が存在しないブロック)を格納することが可能である。少なくともいくつかのファイルシステムプロトコル書き込みはファイルまたはメタデータ構造内のランダムなオフセットを対象とし得るため、一般に、論理ブロック内のオフセットの範囲全てがデータ(またはメタデータ)を含み得るとは限らない場合があり得る。描かれた実施形態において、所定の論理ブロックのコンテンツは、所定のエクステント内に含まれ得る。例えば、所定の論理ブロックがマッピングされる全ての物理ページは、同じエクステントの一部である必要があり得る。
論理ブロック内に未書き込みギャップの可能性があるため、所定のエクステントに対して、ブロックがデータ/メタデータで充満にされた場合に収容可能な論理ブロック数よりも多い論理ブロックが割り当て可能であることに従って、エクステントの少なくともある部分集合に対して、予約超過パラメータの集合が決定され得る(構成要素2704)。所定のエクステントに対するパラメータは、例えば、予約超過因数(例えばエクステントにマッピングされた論理ブロックに対しどれだけの追加格納領域が潜在的に必要となり得るかを示す測定)、エクステント拡張等の様々な動作が引き起こされる1つまたは複数の閾値(前述の空き格納領域閾値等)、閾値が満たされた時に現行のエクステントのコンテンツがコピー/移動されるべき所望の格納デバイスまたはエクステント等を示し得る。
ファイルまたはメタデータ構造に対する第1書き込み等、ファイルストアオブジェクトの論理ブロックLB1に対する特定の書き込み要求に応じて、論理ブロックのコンテンツを格納するために、利用可能なエクステントのうち特定のエクステントE1が選択され得る(構成要素2707)。例えば、E1は、LB1のM個までのページを含む合計P1個までのページ(マルチテナント環境におけるいくつかの異なるファイルストアオブジェクトの一部であり得る)を格納することが可能であり得る。少なくともいくつかのシナリオにおいて、E1は選択された時点で予約超過であり得る。例えば、E1にマッピングされた論理ブロック(少なくとも一部はデータまたはメタデータで充満した状態であり得ない)の合計サイズが、E1の現行サイズを超え得る。異なる実施形態において、E1は、格納領域の空き領域の割合、ファイルストアオブジェクトを格納するのに所望する格納デバイスの種類(SSDまたは回転ディスクベース)等、様々な基準に基づいて、選択され得る。第1書き込みに対しE1内の1つまたは複数のページが割り当てられ、そして第1書き込み要求のペイロードがそこに書き込まれ得る(構成要素2710)。割り当てられたページの合計サイズはペイロードを収容するのに十分であり得ると同時に、割り当てられたページの合計サイズは、少なくともいくつかの事例において、論理ブロックLB1のサイズよりも小さくあり得る(例えばペイロードサイズがLB1のサイズよりも小さい場合)。少なくともいくつかの実施形態において、通常の動作条件下では、第1書き込みを実行することがE1の空き格納領域制約を侵害しない場合にのみ、E1は第1書き込み用に選択され得る。
E1に対するサイズWSの書き込みペイロードを伴う後続の書き込み要求が受信され得る(構成要素2713)。後続書き込み要求は、LB1またはその他のE1にマッピングされた論理ブロックを対象とし得る。書き込みペイロードWSを収容するのに必要なだけの物理ページを割り当てても、E1に設定された空き格納領域閾値を侵害しない場合(構成要素2716にて検出)、必要な数の物理ページが割り当てられ、そして要求される書き込みが実行され得る(構成要素2719)。E1の空き格納領域閾値が侵害される場合(同様に構成要素2716にて検出)、描かれた実施形態において、1つの同期動作及び1つの非同期動作が開始され得る。書き込み要求に対して同期的に、例えば書き込み要求に応答する際いかなる長い遅延も避けるために、E1内で1つまたは複数の追加ページが割り当てられる。非同期的に、図26bに関して前述されたようなエクステント拡張動作が開始され得る。エクステント拡張は、例えば、元の格納デバイスにおけるE1関連メタデータを変更することによるE1の現場拡張を伴い得る、あるいは、E1のコンテンツのうち少なくともいくつかを、より大きなエクステントが構成され得るその他の格納デバイス(及び/または他の格納ノード)へ転送することを伴い得る。少なくともいくつかの実施形態において、E1は、ファイルストアに対応付けられたデータ耐久性ポリシーに従って構成されるレプリカグループのうちの1つのエクステントレプリカ(マスタレプリカ等)であり、当該ファイルストアのLB1はブロックであり、かつE1において実行される当該ファイルストアの書き込みは、前述のような複製技術(例えば消失訂正符号、完全複製等)に従う1つまたは複数の追加レプリカへ伝播され得ることに留意されたい。エクステントに予約超過が実施され、かつ所定のブロック内のページがオンデマンドで割り当てられる少なくともいくつかの実施形態において、所定のエクステントまたは論理ブロック内のページのサイズは異なり、及び/または所定ファイルまたはメタデータ構造内の論理ブロックのサイズは異なり得る。
動的オンデマンドのページレベル格納割り当てには、同じ論理ブロックの部分を切り離す副次的影響があり得る。例えば、所定の論理ブロックに割り当てられたページは、少なくともいくつかの事例において、使用されている格納デバイス(複数可)上で隣接し得ない。いくつかの実施形態において、ファイルストア動作の様々な特性を経時的に監視して、例えば予約超過の程度、並びに物理格納デバイス上の所定論理ブロックのページ配置方法を含むエクステント予約超過の実施方法を最適化することが可能であり得る。図28は、少なくともいくつかの実施形態による、エクステント予約超過パラメータを動的に変更するために実行され得る動作の態様を例示するフロー図である。構成要素2801に示されるように、エクステントE1、E2等のある集合に対する予約超過パラメータの初期集合に従って、時間帯T1に、データ及び/またはメタデータに対し物理ページが割り当てられ得る。
T1の間に、予約超過エクステントを使用して実行されているファイルストア動作において、多数の異なるメトリクスが収集され得る(構成要素2804)。例えばランダムアクセス対順次アクセスの読み出し及び/または書き込みの割合を特定するために、ファイルアクセスパターンが分析され得る。ファイルサイズに関して(例えば平均または中間ファイルサイズに関して、及びファイルサイズが経時的に変化する傾向に関して)、ファイル間のギャップ(例えば論理ブロックが投入されるエクステント)に関して、及び/または様々な種類の動作の応答時間及び処理量に関して、統計が収集され得る。いくつかの実施形態において、かつ特定の種類の動作に関して、ファイル名からファイルアクセスの蓋然的パターンを推測することは実行可能であり得る。例えば、電子メールを格納するのに使用されるファイルは、ファイル名の拡張子に基づいて識別可能であり、特定の方法でアクセスされることが見込まれ得る、データベースログまたはウェブサーバログに使用されるファイルは、名前により識別可能であり、特徴的なアクセスパターンを有し得る、等が挙げられる。格納領域使用に関するこのような情報及びメトリクスは、例えば機械学習技術に従う格納サービスの最適化コンポーネントにおいて分析され、予約超過パラメータのいずれかを変更することは得策であり得るか否か、またはいくつかの論理ブロックの物理ページを統合すべきか否かが判断される。予約超過閾値の変更により格納領域の使用レベルは改善され得ると判断されると(構成要素2807)、閾値は適宜変更され(構成要素2810)、そして変更されたパラメータを適用した時の新たなメトリクスの集合が収集され得る。例えば、一実施形態において、ファイルシステムFS1の予約超過パラメータ設定は、最初は控えめに設定され得る。例えば予約超過因数はたった10%に設定され得る。後ほど、FS1内のオブジェクトに関する格納領域使用メトリクス及びアドレス範囲ギャップが分析された後に、許容予約超過レベルは、例えば20%まで引き上げられ得る。論理ブロックのある集合の物理ページを再配置することで、ファイルストアパフォーマンス(例えば順次読み出し/書き込みに関する)が改善され得ると判断される場合、選択された物理ページのコンテンツは再配置され得る(構成要素2813)(例えば、所定ブロックのコンテンツを保持するために隣接する領域を割り当て、当該ブロックのコンテンツをその元の非隣接位置から隣接位置へとコピーすることにより)。少なくともいくつかの実施形態において、このような再配置は一般に、受信I/O要求に対し非同期的に実行され得るため、読み出し/書き込み要求を発するクライアントは、最適化動作に起因する遅延を体感しない。様々な実施形態において、例えばいくつかのエクステントを、現在使用されているものよりも速い格納デバイス(SSD等)または遅い格納デバイスに移動させるといった他の種類の最適化も、同様の分析に基づいて開始され得る。
可変ストライプサイズ
いくつかの実施形態において、前述のメタデータサイズと格納領域効率性の間のトレードオフのために、別の手法が取られ得る。いくつかの実施形態において、当技術を採用することで、エクステントは予約超過を実施する必要がなく、そして例えば第1書き込みが所定の論理ブロックを対象とする時に、所定の論理ブロックに必要となる可能性のある格納領域全てが予め取得され得る。しかしながら、所定の格納オブジェクト内の論理ブロック(前述のように、エクステント、格納デバイス、または格納ノードにわたってファイルデータ及び/またはメタデータをストライピングする単位を表し得る)は、全てが同じサイズであり得るとは限らない。いくつかのこのような実施形態において、論理ブロックサイズ、ゆえに1度に割り当てられる格納領域量は、ファイル内の論理オフセットに応じて増大し得る。第1ブロックに割り当てられる比較的小さい量の格納領域から始まり、後続のブロックに対しますます大きな格納領域が割り当てられ得る。従って、小さい格納領域と大きい格納領域の両方により、オブジェクトサイズに比例して増大する量のメタデータを作成することなく、小さいファイルと大きいファイルの両方を実施することが可能になり得る。
図29は、少なくともいくつかの実施形態による、可変ストライプサイズを使用して格納されるコンテンツを有するファイルストアオブジェクトの例を示す。図4を参照して論述されたように、ファイルストアオブジェクトの異なる論理ブロックは一般に(必ずしもではないが)、それぞれの格納ノードの異なる格納デバイスにおける異なるエクステントにマッピングされ、そのため論理ブロックはストライプの均等物とみなされ得ることを想起されたい。様々な実施形態において、可変ストライプサイズを使用して様々なメタデータ構造も実施され得るが、ファイル2900は、格納オブジェクトの例として選択される。ファイル2900は、4つのストライプすなわち論理ブロックLB2902A、2902B、2902C、2902Dを含むことが示される。論理ブロックのある部分集合は同じサイズであり得るが、論理ブロック2902のうちの少なくともいくつかは、他の論理ブロックのうちの少なくともいくつかとはサイズが異なり得る。
図29において、固定サイズページを有するエクステントと可変サイズのページを有するエクステントの2種類のエクステントが示される。エクステント2934Aは、物理ページ2910を有し、それぞれのページのサイズはS1KBである。エクステント2934Bのページ2910BのサイズはそれぞれS2KBであり、一方エクステント2934CのページのサイズはS3KBである。描かれた実施形態において、S1、S2、S3はお互いに異なり、例えばS1はS2より小さく、S2はS3より小さくあり得る。先に述べたように、少なくとも固定ページサイズを有するエクステントに関して、物理ページは、いくつかの実施形態における対応最小I/O単位を表し得る。従って、描かれた実施形態において、エクステント2934B、2934Cよりも小さい読み出し及び書き込みをエクステント2934Aにおいて対応することが可能であり得る。エクステント2934Dは可変サイズページに対応する。すなわち、任意の量の物理格納領域(ある特定された最小量及び最大量を有する)がエクステント2934D内において1度に割り当てられ得る。これに対して、エクステント2934A、2934B、2934C内においては、格納領域がそれぞれの複数のページサイズに割り当てられ得る。少なくともいくつかの実施形態において、ページサイズの離散集合、または単一ページサイズのみが対応され得る。
少なくともいくつかの実施形態において、LB2902に対する第1書き込みに応じて、ストライプ全体の物理格納領域(第1書き込みの書き込みペイロードに必要な物理格納領域よりも多くあり得る)が、選択されたエクステントから割り当てられ得る。従って、例えば、エクステント2934Aの1つまたは複数のページ2910AがLB2902Aに使用され、エクステント2934Bの1つまたは複数のページ2910BがLB2902Bに使用され得る。同様に、LB2902Cに対し1つまたは複数のページ2910Cがエクステント2934Cから割り当てられ、エクステント2934Dから1つまたは複数のページがLB2902Dに割り当てられ得る。いくつかの実施形態において、任意の所定の論理ブロックすなわちストライプは、物理格納領域の1つの連続領域にマッピングされ、一方別の実施形態において、所定の論理ブロックに割り当てられた物理格納領域は、少なくともいくつかの事例では格納デバイスのアドレス空間内において非連続であり得る。比較的小さいストライプサイズが使用される場合、例えば小さなファイルでもファイルの最初のいくつかのストライプに関して、複数のエクステントにわたってストライピングされ得る。このように、単一の大きいストライプサイズが使用されていたら達成されなかったであろうストライピングのパフォーマンス利益が獲得される。
一般に、描かれた実施形態において、特定のオフセットと書き込みペイロードサイズを有する書き込み要求が受信されると、当該書き込みは追加格納領域を割り当てる必要があるか否かに関して判定が行われ得る(オフセットとペイロードサイズに基づいて)。このような判定は、少なくともいくつかの実施形態において、格納サービスのメタデータノードにおいて行われ得る。格納領域を割り当てる必要がない場合、ペイロードに割り当てる隣接物理格納領域の量(通常であって必ずではない)が決定され得る。少なくともいくつかの実施形態において、割り当てられる格納領域の量は、書き込みオフセットに依存し得る。(ファイルの存在の経過を通したストライプサイズ決定パターンの例、及びストライプサイズを決定する時に考慮され得るいくつかの種類の要素の例については、より詳しく後述される)。所望する量の格納領域を割り当てるのに使用可能なエクステントを有する1つまたは複数の格納ノードが、特定され得る。例えば、1キロバイトのストライプに対し格納領域を割り当てる場合、格納サービスは、1KBのページを有し、かつストライプの書き込みを収容するのに十分な空き格納領域を有するエクステントを特定することを試み得る。選択されたエクステントにおける最小ページサイズは、ストライプすなわち論理ブロックのサイズと等しくある必要はないことに留意されたい。例えば、ストライプサイズは3KBであるが、4KBのページに対応するエクステントが使用可能、あるいは2KBのページまたは1KBのページに対応する別のエクステントが使用可能である。所望のストライプサイズに対する物理格納領域が取得された後に、書き込みペイロード内に示された変更が開始され得る。エクステントが複製されるいくつかの実施形態において、例えば、マスタレプリカが格納される格納ノードから変更が取り仕切られ、当該マスタノードから、または当該マスタノードにより、非マスタレプリカに対し変更が伝播され得る。
いくつかの実施形態において、所定ファイルまたはメタデータ構造内のストライプサイズは、オフセットに応じて予測可能な様式で変更し得る。図30は、少なくともいくつかの実施形態による、ファイルストアオブジェクトに使用され得るストライプサイズ決定シーケンスの例を示す。ストライプサイズシーケンス3010Aにおいて、ファイルストアオブジェクトの最初の9個の論理ブロックのサイズが、それぞれ例えば1KB、1KB、2KB、2KB、4KB、4KB、8KB、16KB、32KBに設定され得る。このようなパターンは、例えば、小さいと見込まれるファイルまたはメタデータ構造、または比較的ゆっくりと増大することが見込まれるファイルまたはメタデータ構造に使用され得る。例えばある高い確率でたくさんの順次書き込みが見込まれる別のファイルに対しては、最初の4個のブロックのサイズがそれぞれ1MB、4MB、16MB、64MBに設定される別のストライプサイズシーケンス3010Bが使用され得る。従って、ストライプサイズの離散集合が実施される実施態様においてでさえ、1つのファイルF1に使用されるストライプサイズは、別のファイルF2に使用されるストライプサイズのうちのいずれかとは異なり得る。いくつかの実施形態において、使用するストライプサイズシーケンス3010のうちの少なくともいくつかは、格納サブシステムの構成パラメータとして特定され得る。いくつかの事例において、ファイルが大きくなると、小さいストライプをより大きなストライプに統合すると便利であり得る(メタデータパフォーマンス及びデータアクセスパフォーマンスの両方にとって)。
図31は、少なくともいくつかの実施形態による、ファイルストアオブジェクトに対しストライプサイズ決定3170及び/または統合決定3172を行うためにメタデータサブシステムにおいて考慮され得る要素例を示す。描かれた実施形態において、メタデータサブシステムノード122は、ファイル及びメタデータ構造を含む様々なファイルストアオブジェクトのストライプ/論理ブロックサイズを決定する責任と、物理ページ及び/または論理ブロックを結合または統合するべきかどうか、並びにするべき時を決定する責任とを担い得る。格納領域を割り当てるファイルストアオブジェクトの次の部分に使用するストライプサイズを決定する時、メタデータノード112は、オブジェクトの現行サイズ3101と、書き込み要求ペイロードサイズ3103とを考慮し得る。一実施態様において、例えば、ファイルストアオブジェクトに割り当てられる第1ストライプのサイズは、オブジェクトに対する第1書き込みの書き込みペイロードに基づき得る。例えば、第1書き込みのペイロードが3.5メガバイトである場合、4メガバイトのストライプサイズが選択され、一方第1書き込みが2メガバイト以下である場合には、2メガバイトのストライプサイズが選択され得る。いくつかの実施形態において、顧客の要求でファイルまたはディレクトリが作成されると、例えばオブジェクトは主に、順次書き込み及び読み出し、ランダム書き込み及び読み出し、またはある順次とランダムの混合アクセスのために使用される予定であることを示すヒント3105が格納サービスに提供され、そしてこのようなヒントはストライプ/論理ブロックサイズを選択するのに使用され得る。異なるサイズの書き込み及び/または読み出しで達成された平均応答時間等、ファイルシステムパフォーマンスのメトリクス3110も、いくつかの実施形態における論理ブロックサイズの選択に、及び/または前に作成されたストライプのコンテンツをより大きなストライプに結合する統合動作のスケジューリングに、影響し得る。
いくつかのシナリオにおいて、前述のように、ファイルまたはディレクトリの名前(またはファイル拡張子等の名前の一部)により、ファイルまたはディレクトリのコンテンツの見込まれる拡大またはアクセス様式に関するある案内が提供され得る。例えば、電子メールサーバ、ウェブサーバ、データベース管理システム、アプリケーションサーバ等のいくつかのアプリケーションは、その機能の様々な部分に、周知のファイル拡張子及び/またはディレクトリ階層を使用するため、メタデータノード112の最適化コンポーネントは、このようなファイル/ディレクトリ名3115に基づいて、より知的にストライプサイズを選択することが可能になり得る。少なくとも一実施形態において、メタデータノード112は、アクセスパターン(例えばランダム対順次、読み出しパーセント対書き込みパーセント、読み出しサイズ分散、書き込みサイズ分散)を特定し、ストライプサイズを適宜選び得る。オブジェクト存続時間(例えば所定のファイルストアにおいてファイル作成から削除までの間の平均経過時間)の測定3125は、いくつかの実施形態において、ストライプサイズの決定を行うのに役立ち得る。例えば、所定のディレクトリ内のほとんどのファイルは作成後X時間内に削除されると見込まれる場合、それらのストライプサイズに関する決定は、さほど長期的に影響し得ない。いくつかの実施形態において、エクステント領域使用メトリクス3130及び/または格納ノードリソース使用メトリクス3135(使用されている格納ノードのCPU、メモリ、またはネットワーク使用レベル等)もまた、ストライプサイズの決定に関与し得る。一実施形態において、1つまたは複数のトリガー基準に基づいて、例えばファイルまたはメタデータ構造が閾値サイズを超えた場合/時に、またはファイルに対する頻繁順次アクセスが検出された場合/時に、所定のファイルまたはメタデータ構造の小さいストライプは、より大きなストライプに結合され得る。このような結合動作は、使用されるエクステントの特性により(例えば異なるエクステントにおいて対応される特定のページサイズにより)、1つの格納デバイスから別の格納デバイスへ、または1つのエクステントから別のエクステントへ、データ/メタデータを移動またはコピーすることを伴い得る。少なくともいくつかの実施形態において、継時的に格納サービスにて行われるストライプサイズ決定及び/または統合決定を改善するために、機械学習技術が採用され得る。このような機械学習手法の一環として、全体的なファイルストアパフォーマンス及び/またはコストに対する、図31に例示される様々な要素の相対的影響が分析され得る。
図32は、少なくともいくつかの実施形態による、可変ストライプサイズを使用してストライピングを実施するために実行され得る動作の態様を例示するフロー図である。例えば分散マルチテナント格納サービスのメタデータノード112において、ファイルストアオブジェクト内の書き込みオフセットと書き込みペイロードとを示す書き込み要求が、受信または生成され得る(構成要素3201)。いくつかの事例において、ファイル書き込み等の顧客が発したファイルシステムAPI呼び出しに応じて、書き込み要求はアクセスノード122において生成され得る。一方他の事例においては、メタデータノード自体が、ある新たなメタデータを格納すること、または既存のメタデータを変更することを決定し得る。対象オブジェクトの書き込みオフセット、書き込みペイロード、及び既存メタデータ(もしあれば)の分析に基づいて、書き込みを実行するために追加格納領域を割り当てる決定がなされ得る(構成要素3204)。(先に述べたように、全て予め書き込まれたコンテンツの変更から成るいくつかの書き込みは、追加格納領域を必要とし得ない。)
例えばファイルストアオブジェクトに使用されているオフセットベースのストライプサイズ決定シーケンス(図30に示されるシーケンスと同様のもの)に基づいて、及び/またはオブジェクトのサイズ、検出されたアクセスパターン等の図31に示される要素のある組み合わせに基づいて、ファイルストアオブジェクトの次の新たなストライプすなわち論理ブロックのサイズが決定され得る(構成要素3207)。そして選択されたサイズのストライプの少なくとも1つのレプリカを格納するために使用する特定のエクステント、格納ノード、及び/または格納デバイスが特定され得る(構成要素3210)。図29に関連して論述されたように、少なくともいくつかの実施形態において、所定のエクステントは特定の物理ページサイズを使用するように構成され、その結果、全てのエクステントが所定の論理ブロックサイズに対し格納領域を割り当てるのに適し得るとは限らない。従って、エクステントはそのページのサイズに基づいて選択され得る。いくつかのシナリオにおいて、対応エクステントの物理ページサイズの離散集合に対応する論理ブロックサイズの離散集合のみが、許可され得る。可変ページサイズに対応するように構成されるエクステント(図29のエクステント2911等)が、いくつかの実施形態において利用可能であり、このようなエクステントは、様々なサイズの論理ブロック/ストライプに格納領域を割り当てるために選択され得る。いくつかの実施形態において、新たな論理ブロックすなわちストライプに対し格納領域が割り当てられると、エクステントのレプリカグループのために、複数の格納ノード(例えばいくつかの可用性コンテナまたはデータセンタに分散されている)が特定され得る。
所望量の物理格納領域の割り当て要求は、少なくとも1つの選択された格納ノードへ送信され得る(構成要素3213)。格納ノードは、要求された物理格納領域、例えばストライプがコンテンツで一杯である場合、ストライプのコンテンツを格納するのに必要なだけのページを割り当て得る(構成要素3216)。そして書き込み要求内に示される変更が、開始または実行され得る(構成要素3219)。ファイルストアオブジェクトに対応付けられたデータ耐久性ポリシーによって、書き込み完了と見なすことができる前に、書き込みペイロードがいくつかの異なるレプリカへ伝播される必要があり得る。少なくともいくつかの実施形態において、オンデマンドのページ割り当て及び/または予約超過エクステントは、前述のような可変ストライプサイズ決定と組み合わせて使用可能であることに留意されたい。
オフセットベースの輻輳制御技術
データ集合の小部分に対する同時性の高いアクセスを行う顧客作業負荷は、分散ファイル格納サービスにおいてホットスポットを生じる可能性がある。例えば、ほぼ同時に複数のスレッドの実行を利用するファイルの複数順次読み出しを顧客が要求する場合、全てのスレッドは、最初にファイルの先頭近くの単一ストライプすなわち論理ブロックにアクセスすることになり得る。さらに、論理ブロックの相対的サイズと読み出しペイロード(顧客からの各読み出し要求において要求されているデータの量)によって、複数の読み出し要求は各スレッドから単一ストライプを対象とし得る。このようなシナリオにおいて、多数のクライアントがほぼ同時に同一論理ブロックから複数読み出しを要求する場合、個々のスレッドに対し乏しい全体処理量及び/または劣った応答時間とならないように、論理ブロックのアドレス範囲内に輻輳制御技術が実施され得る。いくつかの実施形態において、このような輻輳制御技術は、オフセットベースの優先度とI/O要求を対応付け得る。これは例えば、読み出し要求に与えられるスケジューリング優先度は、論理ブロック内の読み出しオフセットが大きい程、高くなり得る。
オフセット依存の輻輳制御技術の論述を動機付けるには、非優先度読み出し要求スケジューリングに起因し得る潜在的に問題のあるシナリオの例示が役立ち得る。図33は、少なくともいくつかの実施形態による、格納サービスオブジェクトの論理ブロックを対象とする全ての読み出し要求に対し相互に等しい優先権が与えられるスケジューリング環境における、論理ブロックに対する複数同時読み出し要求の進捗の例示的タイムラインを示す。潜在的問題をより明らかに例示するために、例の様々なパラメータに極値が選択されている。選択されたパラメータには、常例的シナリオを代表する意図はない。
図33において、経過時間は左から右へと増加する。およそ時間T0に、100クライアントスレッドそれぞれが、エクステントE3334の2つの物理ページPP1とPP2に格納されるコンテンツ(例えばデータまたはメタデータ)を有する論理ブロック3302の順次読み出しを開始する。論理ブロック3302は、例えば、他の論理ブロック(図示せず)も含むファイルの第1論理ブロックを表し得る。例えば論理ブロック全体を読み出すのに、LB3302のコンテンツが1度に1ページ読まれることを想定すると、所定のクライアントはまずPP1を読み出し、それからPP2を読み出す必要がある。エクステントE3334は、エクステント処理能力3302に示されるように、毎秒I/O25ページまで処理可能である。確実に所定の秒中に25ページを超える読み出しが開始されることを許可しないように、当処理能力限度は、図示された例示的シナリオにおいて強調されたものとして仮定され得る。I/O優先度付けポリシー3301により示されるように、全ての読み出し要求は、均等な優先度を有するように処理される(優先度付けを使用しないのと同じ効果を有する)。これらのパラメータを所与として、タイムラインに沿った以下の時間、T0、T0+1秒、T0+2秒、T0+3秒、T0+4秒におけるクライアント要求のステートを検討する。
およそT0に、100個の要求がページPP1の読み出しを開始することを待っている。エクステント処理能力制約により、25個の要求のみが、T0からT0+1の間にPP1の読み出しを開始する(及び終了する)ことを許可される。従って、T0+1には、75クライアントがまだPP1を読み出しておらず、一方25クライアントはPP1の読み出しを完了している。しかしながら、全ての要求は均等な優先度で処理されるため、PP1の読み出しを完了した25クライアントは、残りの75クライアントがPP1を読み出し終わるまで、ページPP2へ進むことは不可能である場合が当然あり得る。従って、T0+1にてより濃い角丸長方形で示される25クライアントは、他の75クライアントがPP1の読み出しを完了するのを待ち得る。時間T0+2に、さらに25クライアントがPP1の読み出しを完了済みであり得るが、こちらも残りの50クライアントがPP1を読み出し終わるまで待つ必要があり得る。時間T0+3に、25クライアントがまだPP1を読み出しておらず、PP0を読み出した75クライアントは、これらを待つように強制され得る。LB3302のページを対象とする全ての読み出し要求に対し均等優先度が割り当てられる例示的シナリオにおいて、100クライアント全てが第1ページを読み出し終えたT0+4にて初めて、クライアントのうちのいずれかがページPP2へ進むことが許可される。
少なくともいくつかの実施形態において、より進捗しているクライアントに対しより高い優先度(または同等により低いコスト)を割り当てることにより、順次読み出しで達成される全体的パフォーマンスを改善することが可能であり得る。図34は、少なくともいくつかの実施形態による、オフセットベースの輻輳制御ポリシーが使用されるスケジューリング環境における、格納サービスオブジェクトの論理ブロックに対する複数同時読み出し要求の進捗の例示的タイムラインを示す。論理ブロック3302は再度、毎秒I/O25ページの処理能力を有するエクステントE3334における2つのページPP1とPP2とを有す。描かれた実施形態において、LB3302は、輻輳制御を実施するオフセットベースのI/O優先度付けポリシー3401を有する。ポリシーに従って、LB3302内のより大きいオフセットに対する読み出し要求は、より小さいオフセットに対する読み出し要求よりも、高い優先度が与えられる。
およそT0に、100クライアントが自身の順次読み出し動作を開始する。T0+1に、25クライアントはページPP1の読み出しを完了し、これら25クライアントは今度は、残りの75クライアントよりも大きいオフセットでの読み出しを要求する。オフセットベースの優先度付けポリシーに従って、PP1を読み出し終えた25クライアントは、時間T0+1に残りの75クライアントよりも高い優先度を与えられる。従って、これら25クライアントは今度は、ページPP2の読み出しを開始し、一方他の75クライアントは待機する。時間T0+2に、25クライアントはLB3302全ての読み出しを終え、順次読み出されているファイルまたはメタデータ構造の次の論理ブロック(もしあれば)へ進むことができる。次の論理ブロックは(高い確率で)別の格納デバイスに格納され得るため、次の論理ブロックへ進むことは、T0+2から100クライアントの作業負荷が、均等優先度が使用されている場合の同一エクステントに尚も向けられる代わりに、2つの格納デバイスに分散され始め得ることを意味する。T0+3に、さらに25クライアントがPP1の読み出しを終え、まだPP1を読み出していない残りの50クライアントよりも高い優先度を与えられる。T0+4に、さらに25クライアントが両ページの読み出しを終え、次の論理ブロックへ進むことができる。その一方、図34のT0+4に50クライアントはまだページPP1を読み出していない(これは、これら50クライアントの観点からすると、図33に示される均等優先度が全てのクライアントに適用されている場合に達成され得たT0+4に100クライアント全てがページPP1の読み出しを終えるという結果よりも、悪い結果である)。従って、図34に例示されるスキームにおいて、いくつかのクライアント要求は、他に対して幾分「不公平」に取り扱われ得る。不公平に関する別の例示として、クライアントC1、C2から時間Tk、(Tk+デルタ)にI/O要求R1、R2をそれぞれ受信するシナリオを検討する。R1は論理ブロック内のオフセットO1を対象とし、R2は論理ブロック内のオフセットO2を対象とし、O2はO1より大きい。R1の後にR2が受信されたとしても、R2は、そのオフセットが大きいことに基づいてより高い優先度が割り当てられ、ゆえに図34のスキームの下、R1よりも早くにスケジュールされ得る、及び/または完了され得る。いくつかの事例において、例えばR2が順次読み出しパターンの一部である場合、順次読み出しの集合全体は、オフセットベースの優先度付けの結果、R1がスケジュールされる前に完了し得る。しかしながら、この「不公平」にも関わらず、図34のスキームは一般に、オフセットに関係なく全ての要求に均等優先度を適用する場合と比べて、様々なクライアント集合の順次読み出しが異なる格納デバイスにより早く分散される傾向にあるように、より早くI/O作業負荷並列処理へと導く傾向がある。アクセスされているファイルストアオブジェクトが異なる格納デバイスに複数のストライプを有するシナリオにおいて(これはほとんどのファイルストアオブジェクトの場合に見込まれる)、このようにオフセットベースの優先度付けを使用して格納デバイス間により均等に作業負荷を分散することは、順次動作の全体平均完了時間と全体処理量を改善するのに役立ち得る。数百または数千のクライアントを同時に対応するマルチテナント格納サービスのコンポーネントの観点からすると、特定のページ読み出し要求がランダム読み出しであるか、または順次読み出しシーケンスの一部であるかを記録することは必ずしも簡単(または効率的)とは限らないため、いくつかの実施形態において、オフセットベースの優先度付けは、読み出しがより大きな順次走査の一部であるか否かに関係なく、概してページレベル読み出しに使用され得る。少なくともいくつかの実施形態において、論理ブロック内のオフセットベースの優先度付けは、データ及び/またはメタデータに対する、順次読み出し、順次書き込み、ランダム読み出し、ランダム書き込みの動作の任意の組み合わせに使用され得る。
図34に例示されるものと同様の原理に基づいた多数の異なるオフセットベースの輻輳制御技術が、異なる実施形態において採用され得る。図35aは、少なくともいくつかの実施形態による、格納サービスにおいてI/O要求をスケジューリングするために使用され得るトークンベースの輻輳制御機構の例を示す。図35bは、少なくともいくつかの実施形態による、採用され得るオフセットベースのトークンコストポリシーの例を示す。一般的に、格納オブジェクト、データベーステーブル、データベースパーティション等の様々な種類のエンティティの作業負荷管理にトークンベース機構が使用され得る。分散ファイル格納サービスに関連して、このようなバケットが、ファイルの論理ブロックのため、メタデータ構造の論理ブロックのため、ファイル全体のため、及び/またはメタデータ構造全体のために様々な実施形態において保持され得る。簡潔な説明のために、トークン3501の単一バケット3508を使用する機構が図35aに例示される。しかしながら、いくつかの実施形態において、読み出し動作用に1つのバケット、書き込み動作用に別のバケットというように、複数のバケットの組み合わせが使用可能である。当該機構によれば、ファイルの論理ブロック等の特定の作業対象に対応付けられる輻輳制御目的のために構成されたバケット3508(例えば、少なくともいくつかの実施形態において、ソフトウェア輻輳制御モジュール内にデータ構造として実装され得る論理コンテナ)には、矢印3504Aにより示されるように、バケット初期化中にトークン3501の初期集合が追加され得る。様々な実施形態において、初期保有数は、例えば、同時作業負荷レベルの予測、作業対象に対応付けられる引き当て動作限度、またはこのような要素のある組み合わせに基づいて、決定され得る。いくつかの実施形態において、一部の種類のバケットの初期保有数は、ゼロに設定され得る。いくつかの実施態様において、バケットの初期保有数は、当該バケットに設定された最大保有数に設定され得る。
描かれた実施形態において、新たなI/O要求3522(読み出し要求または書き込み要求等)が受信されると、例えば格納ノード132の輻輳制御サブコンポーネントにおいて、輻輳コントローラが、ある数N個のトークン(Nは1以上であり、実行内容または構成パラメータに依存する)がバケット3508に存在するか否かを特定するように試み得る。その数のトークンがバケットにおいて利用可能な場合、I/O要求3522は実行対象として直ちに受諾され、そしてバケットから当該トークンが消費または削除され得る(矢印3506)。そうでなく、描かれた実施形態において、N個のトークンが存在しない場合、要求される格納動作の実行は、十分なトークンが利用可能になるまで、先送りされ得る。所定のI/O要求に使い切られるトークン数は、I/O要求を受諾するための「コスト」と称され得る。
3504Bと表示された矢印により示されるように、バケット3508は、例えばバケットに対応付けられる補充率等の構成パラメータに基づいて、経時的に補充または再追加され得る。いくつかの実施態様において、トークン補充動作は消費動作と同時に起こり得る、または時間的に近接して行われ得る。例えば単一のソフトウェアルーチン内で、要求を許可することでN個のトークンが消費され、そして補充率及び前回バケットが補充されてから経過した時間に基づいてM個のトークンが追加され得る。いくつかの実施態様において、例えば一般的に短い時間間隔でより高い作業要求率を処理可能にするために、所定のバケットの補充率または補充トークン数が変更され得る。例えば構成パラメータを使用して、いくつかの実施形態においてバケットが保持可能なトークンの最大数、及び/またはトークンの最小数に対し、制限が設定され得る。様々な組み合わせの構成パラメータ設定を使用することで、異なる実施形態において、トークンバケットを使用する非常に高度な受付制御スキームが実施され得る。特に、後述されるように、異なるオフセットを対象とするI/O要求に対し異なるトークンコストを要求することにより、図34の例と同様のオフセットベースの優先度付けが実施され得る。
一単純例示的シナリオにおいて、論理ブロックLB1にて均等優先度の25個の毎秒I/O要求(IOPS)という一定負荷に対応するために、バケット3508は、初期保有数25トークン、最大許容保有数25トークン、及び最小許容保有数ゼロトークンに設定され得る。I/O毎のコストは1トークンに設定され、補充率は毎秒25トークンに設定され、そして40ミリ秒毎に1度、(最大保有数限度を超えないという前提で)補充目的で1トークンが追加され得る。I/O要求3522が到着すると、要求ごとに1トークンが消費され得る。各秒均一に分散した25IOPSの定常作業負荷が適用される場合、補充率及び作業負荷到着率は釣り合い得る。いくつかの実施形態において、上記のバケットパラメータを前提とした場合、このような定常作業負荷は無期限に対応可能である。しかしながら、25以上のI/O要求が所定の秒中に受信される場合、一部の要求は待機する必要があり、図33に例示されるようなシナリオとなり得る。
オフセットに関係なくI/O要求毎のコストを1トークンに設定する代わりに、一実施形態においては、ファイル内のより大きいオフセットを対象とするI/O要求に求められるトークンよりも多くのトークンが、より小さいオフセットを対象とするI/O要求に求められ得る。このようなトークンコストポリシー3576の例が図35bに示される。ポリシー3575によれば、論理ブロック内の0から64KBの間のオフセットを対象とするI/Oごとに10トークンが要求され、64KBから256KBの間のオフセットを対象とするI/Oに5トークンが要求され、そして256KBより大きいオフセットを対象とするI/Oごとに1トークンが要求される。より小さいオフセットに対しより多くのトークンが要求されるため、小さいオフセットを対象とするI/Oは、所定のトークンバケット保有数及び補充率に関してブロックされる、または遅れが生じる可能性が高く、一方でより大きいオフセットを対象とするI/Oは一般に、より早くスケジュールされ得る。異なる実施形態においてオフセットからコストを計算するために、様々な異なる数学関数またはマッピングが選択され得る(例えばヒューリスティック、格納システムの機械学習コンポーネント、またはアドミニストレータにより選ばれた構成設定に基づく)。いくつかの実施形態において直線型オフセットベーストークンコストポリシー3561が使用され、一方他の実施形態において3562等の非直線型コストポリシーが使用され得る。様々な論理ブロック、ファイル、またはメタデータ構造に使用されているコストポリシー、補充率、及び他の輻輳制御パラメータは、例えば格納サービスから取得されるパフォーマンスメトリクスの分析に応じて、経時的に変更され得る。いくつかの実施形態において、所定のファイルストアオブジェクト内の異なる論理ブロックに対し異なるパラメータが使用され、及び/または異なるファイルストアオブジェクトに対し異なるパラメータが選択され得る。少なくともいくつかの実施形態において、同様のオフセットベースの輻輳制御技術が、論理ブロックレベルの代わりに、または論理ブロックレベルに加えて、ファイルストアオブジェクトレベルに適用され得る。例えば、YがXより小さい場合、ファイル内のオフセットYを対象とするI/Oに割り当てられる優先度より高い優先度が、オフセットXを対象とするI/Oに割り当てられ得る。いくつかの実施態様においてトークンベース技術を使用する代わりに、論理ブロック内または格納オブジェクト内を対象とするI/O要求に異なる優先度を割り当てるために、いくつかの実施形態において他の可変コスト割り当て技術が使用され得る。例えば、一実施形態において、各I/O要求に数的コストが単純に割り当てられ、そして未処理のI/O要求は割り当てられたコストの逆の順序に処理され得る。
少なくとも一実施形態において、論理ブロックまたはファイルストアオブジェクト内の異なるオフセット範囲に対するI/O要求に対し、それぞれのキューが構成され得る。このような各キューは、そのキューの中のI/O要求のうちのいずれか1つが処理されるまでの対応遅延間隔を有し、小さいオフセットI/O要求に対し長い遅延が割り当てられ得る。図36は、少なくともいくつかの実施形態による、格納サービスにおける輻輳制御のためのオフセットベース遅延の使用例を示す。描かれた実施形態において、4つのキュー3602A、3602B、3602C、3602Dが示される。それぞれが、論理ブロックの特定のオフセット範囲内のI/O要求(要求R3631等、「R」から始まる表示により示される)に指定される。キュー3602Aは、(例えばバイトで)0からP−1の間のオフセットに対するI/O要求に使用される。キュー3602Bは、オフセットPから2P−1の間のオフセットに対するI/O要求に使用される。キュー3602Cは、2Pから4P−1の間のオフセットに対するI/O要求に使用される。キュー3602Dは、4Pより大きいオフセットに対するI/O要求に使用される。各キュー3602は、そのキュー内の行列する任意の2つのI/O要求の実施間に必ず経過する最小時間を示す、対応最小遅延を有する。キュー3602A、3602B、3602C、3602Dの最小遅延が、それぞれ4d、2d、d、0と示される。dは1秒に設定され、時間Tにおける様々なキューの保有要求は示される通りであり、そして少なくとも数秒の間は新規の要求は到着しないという例示的シナリオを検討する。キュー3602Dの要求はゼロ秒の最小遅延であるため、要求R3634が最初にスケジュールされ、R3638がこれに続き得る。それからキュー3602C内の要求が、各要求の完了から次の要求の開始までの間に1秒の遅延を入れてスケジュールされ得る。それからキュー3602Bの要求が、2秒の間隔を入れてスケジュールされ得る。これに、1対ずつの要求の間に4秒の遅延が入るキュー3602Aの要求が続く。描かれた実施形態において、最小遅延は、I/O要求の行列遅延を増大させる。例えば、特定の要求R1は、R1の前に到着した同じオフセット範囲内の他の要求が存在するという単純な理由から、そのキューにおいてK秒待つ必要があり、そしてR1がキューの先頭に達した時にも、R1はそのキューに対応付けられた最小遅延時間を待つ必要があり得る。描かれた実施形態において、一般に、スケジュールされる要求間に遅延が設定されることで、これらの遅延中に到着する大きいオフセットの(ゆえに優先度の高い)要求が、より早く処理されることが可能になり得る。異なる実施形態において、輻輳制御のために、多種多様な簡潔なオフセットベースのキュー作成技術が使用され得る。例えば、一実施形態において、所定のキュー3602に対応付けられる遅延は、処理を待っている優先度の高い要求の数に依存し得る。一実施態様において、所定のI/O要求に使用される遅延は、単純にそのオフセットに定数を掛けることで計算され得る。
いくつかの実施形態において、オフセットベースの優先度付けを実施する機構として、エラーメッセージが使用され得る。特定のI/O要求R1が小さいオフセットのある他の要求(複数可)を対象とする場合、R1をキューの中に配置する、またはR1に使用するトークンをさらに要求する代わりに、エラーメッセージがR1を送ったクライアントに返され得る。そこでクライアントはI/Oを再試行し得る(クライアントがI/Oは必要であると尚も考えることを想定する)。再試行により生じる遅延は、前述のオフセットベースのキューにおける要求の挿入と、類似していると考えられ得る。
少なくともいくつかの実施形態において、論理ブロックが格納される格納デバイスは、優先度付けポリシーが施行される前に、閾値作業負荷レベルに到達する必要があり得る。例えば、図35において、エクステントE3334は毎秒I/O25ページの規定またはベースラインの処理能力を有し、その結果、描かれた実施形態において、優先度付けポリシーは、作業負荷が処理能力を超えた(または少なくとも処理能力に近づいた)時にのみ適用され得る。少なくともいくつかの実施形態において、優先度付けを引き起こす閾値自体は、変更可能なパラメータであり得る。例えば、様々な実施形態において、異なるエクステントに対し、異なる格納ノードに対し、異なる物理格納デバイスに対し、または同じエクステント内の異なる論理ブロックに対し、別個の閾値が適用され得る。このような閾値は、様々な要素に基づいて動的に変更され得る。一実施態様において、エクステントの全体作業負荷レベル(例えばある時間を通して取得された測定の統計分析に基づいて計算される)、エクステントが配置される格納デバイスまたは格納ノード、または閾値が適用される特定の論理ブロックでさえにも、少なくとも一部基づいて、閾値は変更され得る。閾値を調整するのに使用可能な他の要素には、例えば、論理ブロックに対するI/O要求を送るクライアント(複数可)の識別もしくは論理ブロックを含む格納サービスオブジェクトが作成されたクライアントの識別(例えば一部のクライアントは他のクライアントよりも重要であるとみなされ、従ってより高い閾値が割り当てられ得る)、1日の中の時間(例えば午後11から午後6時までの間等、通常利用率の低い時間帯に閾値は高くなり得る)、またはファイルシステム、ディレクトリ、ファイル、ボリューム、もしくはエクステントを使用して実行される他の格納オブジェクトの名前が含まれ得る。
いくつかの実施形態において、ランダム性要素が輻輳制御技術に追加され得る。例えば、各オフセット範囲に対する固定の遅延を実施する代わりに、ランダム成分(ある選択された乱数生成器を使用して取得される)を含む遅延が使用され得る。トークンベースの輻輳制御スキームにおいて、所定のオフセット範囲を対象とするI/O要求の要件に、トークンの乱数が追加され得る。いくつかの事例において、このようなランダム化は、作業負荷分散を平準化するのに役立ち、例えば格納デバイスが十分に活用されていない状況になってしまい得る望ましくないエッジケースの確率を低減するのに役立ち得る。
少なくともいくつかの実施形態において、異なる輻輳制御ポリシーが、異なるカテゴリの格納動作に使用され得る。図37は、少なくともいくつかの実施形態による、アクセスされている格納オブジェクトの種類、及び要求されるアクセスの様々な特徴によって決まり得る輻輳制御ポリシーの例を示す。テーブル3780に示されるように、輻輳制御パラメータ設定3710は、コンテンツの種類3702(例えばメタデータかデータか)、要求は読み出しか書き込みか(I/Oの種類の列3704)、及び/または要求は順次シーケンスの一部かランダムシーケンスの一部か(アクセスパターンの列3706)に基づいて変わり得る。I/Oペイロードサイズ(列3708)(例えば何バイトのデータ/メタデータが読み出される、または書き込まれるか)、及び/または対象オブジェクトの現行サイズ(列3710)に基づいて、異なる輻輳制御設定が同様にまたは代わりに使用され得る。
個別読み出しペイロードサイズが4KB未満であり、かつメタデータ構造がS1MBより小さいメタデータ構造の順次読み出しに関して、描かれた実施形態において、直線型オフセットベースの優先度付けが輻輳制御に使用され得る。任意のサイズのランダムメタデータ書き込み動作は、均等の優先度を有するものとして処理される。128MBより大きいサイズのファイルを対象とする、ペイロードサイズが64KBより大きい順次データ読み出しは、オフセットの関数として指数関数形崩壊型のオフセットベース優先度付けを使用する。説明を簡潔にするために、図36から、輻輳制御ポリシーの様々な詳細(各優先度レベルに対応付けられたコスト、異なる優先度に対するオフセットの境界、または要求間の最小遅延等)が省略されている。別の実施形態において、図36に示される要素以外の要素が輻輳制御パラメータを割り当てるために使用され、そして少なくともいくつかの実施形態において、図36に示される要素全てが考慮される必要があるとは限らないことに留意されたい。例えば、いくつかの実施形態において、輻輳制御技術は、同時順次読み出しにのみ使用され得る。
図38は、少なくともいくつかの実施形態による、格納サービスにおいてI/O動作をスケジューリングするためにオフセットベース輻輳制御を実施するように実行され得る動作の態様を例示するフロー図である。構成要素3801に示されるように、マルチテナントファイルストアサービスにより管理されている格納オブジェクト(ファイルまたはメタデータ構造等)の論理ブロックLB1の少なくとも一部を対象とするI/O要求(読み出しまたは書き込み)を受信し得る。異なる実施形態において、オフセットベースの輻輳制御決定は、前述の様々なサブシステムのうちのいずれかにおいて、またはサブシステムの組み合わせにより、行われ得る。いくつかの実施形態において、ファイル読み出し/書き込みに関する輻輳制御決定はアクセスサブシステムノードにおいて行われ、一方でメタデータに関する当該決定はメタデータサブシステムにおいて行われ得る。別の実施形態において、データとメタデータの両方に関する輻輳制御決定は、格納サブシステムノードにおいて行われ得る。I/O要求を遂行するために1つまたは複数の格納動作を実行する対象となる、論理ブロックLB1内のオフセットが特定され得る(構成要素3804)。
オフセットの少なくとも一部に基づいて、1つまたは複数の輻輳制御パラメータの値(例えばトークンバケットから消費するトークン数等のIO要求に割り当てられるコスト値、または格納動作の実行前の遅延)が決定され得る(構成要素3807)。少なくともいくつかの実施形態において、選択されたパラメータにより、論理ブロックLB1内のより大きいオフセットの要求は、より小さいオフセットの要求よりも奨励され得る、すなわち高い優先度が与えられ得る。そして選択された輻輳制御パラメータに従って、I/O要求に対応する格納動作がスケジュールされ得る(構成要素3810)。少なくともいくつかの実施形態において、ある種類のI/O要求に関して、応答が要求者に提供され得る(構成要素3813)。本明細書において説明されるものと同様のオフセットベースの輻輳制御技術は、異なる実施形態内の様々な格納サービス環境において使用され、これには、ファイルシステムインターフェイス/プロトコルを実施するサービス、格納オブジェクトがユニバーサルレコード識別子(URI)に対応付けられるウェブサービスインターフェイスを実行するサービス、またはブロックレベルデバイスインターフェイスを実行するサービスが含まれることに留意されたい。
オブジェクト名無撞着変更技術
分散ファイル格納サービスにおいて、オブジェクト名変更動作、例えば顧客要求に応じてファイルまたはディレクトリの名前を変更するために実行される動作は、少なくともいくつかの事例において、複数のメタデータノード(または、メタデータサブシステムがメタデータ構造を格納サブシステムに格納する場合は、複数の格納ノード)において格納されるメタデータ要素の更新を伴い得る。このような複数ノード名前変更を実行するために、前述の分散トランザクション技術が使用され得るが、少なくともいくつかの実施形態において、別の名前変更特有機構が後述のように使用され得る。図39は、少なくともいくつかの実施形態による、名前変更動作を実行するために、ファイル格納サービスの複数のメタデータサブシステムノードにおいて実行される必要があり得るメタデータ変更の例を示す。例としてファイル名「A.txt」を「B.txt」に変える必要のあるメタデータ変更が示されるが、同様の変更がディレクトリ名変更、リンク名変更等にも行われ得る。描かれた実施形態において、格納サービスの3つのメタデータサブシステムノード3922A、3922K、3922Pが示される。例えば1つまたは複数の格納ノードにおけるオブジェクトに使用されている物理ページの識別、オブジェクトの所有者のユーザ識別子及び/またはグループ識別子、オブジェクトの現行サイズ、最終変更時間、アクセス許可もしくはACL(アクセス制御リスト)、オブジェクトを示すハードリンクの数を示すリンク数等を含む、最初に「A.txt」と命名された特定のファイルストアオブジェクトの様々な属性3912が、メタデータノード3922AにおけるDFS‐Iノード3910と示されるDFSノードエントリ構造に格納され得る。DFS‐Iノード構造3910は、多数の従来のファイルシステムに実装されるIノード構造の概念において類似し、そしてファイル格納サービスの分散特性に起因するDFS‐Iノードの追加または変更機能のある集合を有する。
描かれた実施形態において、ファイルストアオブジェクトの名前「A.txt」(名前変更動作のワークフローの実行前)は、別のメタデータノード3922KにおけるDFSディレクトリエントリ3930と呼ばれる別のメタデータ構造に格納され得る。DFSディレクトリエントリ3930は、オブジェクト名のためのフィールド3934と、オブジェクトの属性を格納するDFS‐Iノード3910を示すポインタとを含み得る。少なくともいくつかの実施形態において、DFSディレクトリエントリ3930は、オブジェクトの親ディレクトリのDFSディレクトリエントリを示すDFS親ディレクトリポインタ3952も含み得る。従って、例えば、「A.txt」がディレクトリ「dir1」内に存在する場合、DFS親ディレクトリポインタは、「dir1」のDFSディレクトリエントリを示し得る。DFSディレクトリエントリのメタデータ構造は、この後の論述において簡潔にディレクトリエントリと称され、同時にDFS‐Iノード構造は、簡潔にノードエントリと称され得る。
所定オブジェクトのディレクトリエントリを管理するために選ばれる特定のメタデータノード3922Aは、異なる実施形態において、例えばオブジェクトが作成された時にオブジェクトの名前をハッシュ化することによる、またはメタデータノードの現在利用可能な作業処理能力もしくは利用可能な格納領域に基づいてメタデータノードを選択することによる等、異なる技術を使用して選択され得る。その結果、少なくともいくつかの事例において、「A.txtをB.txtに名前を変更する」の第2のオペランド(「B.txt」)のために作成するディレクトリエントリを管理するために、別のメタデータノード3922Pが選択され得る。
「A.txt」から「B.txt」への名前変更を実行するために必要な変更が、図39において「名前変更前ステート3945」と「名前変更後ステート3947」という表示により示される。名前変更ワークフローを実行するために、「B.txt」に設定されたオブジェクト名フィールド3938と、DFS‐Iノード3910を示すポインタフィールドとを有する新たなディレクトリエントリ3931が作成される必要があり、そしてオブジェクト名フィールド「A.txt」を有する元のディレクトリエントリ3930は削除される必要がある。少なくともいくつかの実施形態において、ノードエントリ3910自体は、名前変更中に変更され得ない。一貫性のために、図39に示されるメタデータ変更の組み合わせは、全ての変更(関与する両方のメタデータノードにおける)が成功、そうでなければ全て失敗というやり方で実行される必要があり得る。いくつかの実施形態において、前述のように、メタデータ構造は、サービスの格納サブシステムノードの物理格納デバイスにおいて実施されるエクステントを使用して、実際に格納され得る。全て失敗という後半のシナリオにおいて、元のディレクトリエントリ(「A.txt」のディレクトリエントリ)のメタデータノードと格納ノードと、新たなディレクトリエントリ(「B.txt」のディレクトリエントリ)のメタデータノードと格納ノードという、4つの種類のエンティティが名前変更ワークフローに関与し、そのうちのいずれか1つが他とは関係なく失敗し得る、または受信もしくは発信ネットワークパケットを単独で失い得る。従って、参加ノードのうちのいずれにおいても可能性のある失敗及び/または通信遅延を捕らえるように設計された名前変更ワークフローは、後述のように少なくとも2つの原子動作のシーケンスを使用して実行され得る。シーケンスの各原子動作は、メタデータノードのうちの1つに限定され、そのため、複数ノードの原子動作よりも実行するのが容易であり得る。関与する各メタデータノード(及び/または格納ノード)は、マルチテナント環境における格納サービスの多数のクライアントに属している可能性のある多数のファイルストアオブジェクトのメタデータを管理するように構成され、結果として、各メタデータノードまたは格納ノードは、多数の名前変更要求及び他のファイルストア動作要求を同時に処理する必要があり得ることに留意されたい。
非一貫性及び/またはメタデータ破損を防ぐために、いくつかの実施形態において、ディレクトリエントリ等のメタデータ構造は、名前変更ワークフローの間ロックされ得る(例えば排他ロックを使用して)。デッドロックを防ぐために(例えば2つの名前変更要求「A.txtをB.txtに名前を変更する」と「B.txtをA.txtに名前を変更する」が時間的に非常に近接して受信された場合に起こる可能性があり得るため)、少なくともいくつかの実施形態において、ロック順序プロトコルが採用され得る。図40は、少なくともいくつかの実施形態による、同時名前変更動作に対するこのようなデッドロック回避機構の使用を例示する。描かれた実施形態において、デッドロック回避分析モジュール4004(例えばメタデータサブシステムのサブコンポーネント)は、名前変更要求のオペランド4001(例えば「XをYに名前を変更する」要求のオペランド「X」及び「Y」)を入力として受け取り、特定のロック取得命令を生成する。
描かれた実施形態において、二者択一的ロック取得シーケンス4010、4012が「XをYに名前を変更する」要求に関して示され得る。当該2つのシーケンスのうちの1つのみがデッドロック回避分析モジュール4004により出力として生成され得る。取得シーケンス4010によれば、Xのディレクトリエントリに対するロックが、名前変更ワークフローの第1原子動作の一環として確保される。取得シーケンス4012によれば、Yのディレクトリエントリが、名前変更ワークフローの第1原子動作において取得される(必要であればディレクトリエントリの作成後に)。描かれた実施形態において、ロックシーケンスに到達するために、デッドロック回避モジュールにより名前比較器4008が使用され得る。2つのオペランドは、例えば辞書順で比較され、そして少なくともいくつかの実施形態において、辞書順が1番目のオペランドが、第1原子動作においてロックされるものとして選択され得る。(別の実施形態において、辞書順が2番目のオペランドが最初にロックされ得る。順序付け論理が異なる名前変更動作にわたって一貫して適用される限り、オペランドのうちどの特定のものが最初にロックされるかは問題になり得ない。)従って、このような実施形態において、変更要求が「XをYに名前を変更する」であるか「YをXに名前を変更する」であるかに関係なく、同じディレクトリエントリが最初にロックされ得る。2つの要求「XをYに名前を変更する」と「YをXに名前を変更する」がほぼ同時に受信されたとしても、このようにして、第1要求のためにXがロックされ、第2要求のためにYがロックされることは不可能であることから、デッドロックは回避され得る。いくつかの実施形態において、名前変更オペランド間のロック順序を決定するために、辞書的比較ではない技術が使用され得る。複数のオブジェクト(例えば複数ファイルまたはディレクトリ)は所定のファイルストア内で同一の名前を有し得るが、DFS‐Iノードに割り当てられた識別子は通常ファイルストア内で一意的であると見込まれ得るため、少なくともいくつかの実施形態において、比較器の入力として使用される「名前」は、オブジェクトに対応付けられた選択DFS‐Iノード(例えばオブジェクトの親DFS‐Iノード)の識別子をオブジェクトの名前と連結あるいは結合することにより、取得され得る。ファイル名(またはディレクトリ名)の再利用という潜在的問題を克服するために、別の実施形態において別の一義化技術が使用され得る。例えば、一実施形態において、ロックシーケンスを決定するための「名前」として、ファイルストアのルートからオブジェクトまでのパス全体が使用され得る、あるいはパスのディレクトリのうちのいくつかに対応付けられたDFS‐Iノードの識別子がオブジェクト名と結合され得る。
少なくともいくつかの実施形態において、デッドロック回避分析の出力に基づいて、2つの異なる名前変更ワークフローのうちの1つが、所定の名前変更要求に実施され得る。2つのワークフローは、どのディレクトリエントリが最初にロックされるかという点で異なり得る。それぞれの名前変更ワークフローは、原子的に実行される動作の第1集合(ワークフローの「第1原子動作」と集合的に称され得る)、原子的に実行される動作の第2集合(「第2原子動作」と集合的に称され得る)、そして実施依存であり得る原子性を有する動作の第3集合という、少なくとも3つのフェーズを有すると考えられ得る。追加(一般に非同期的)フェーズも、後述のいくつかの事例において含まれ得る。図41は、少なくともいくつかの実施形態による、名前変更動作のために格納サービスにおいて特定され得る、2つの可能なロック順序のうちの第1ロック順序に基づいて、第1名前変更ワークフローを実施するために実行され得る動作の態様を例示するフロー図である。構成要素4101に示されるように、ファイルまたはディレクトリ等の特定のファイルストアオブジェクトの現行の名前「A」を「B」に変更する要求が、例えば分散格納サービスのメタデータサブシステムにおいて受信され得る。例えば、アクセスサブシステムノードは、顧客からの名前変更命令を受信し、選択されたメタデータノードへ対応する内部名前変更要求を送信し得る。メタデータとデータの両方にサービスの格納サブシステムが使用される実施形態において、メタデータノードは、例えば格納ノードと同じハードウェアサーバに一緒に配置されるプロセスまたはスレッドを有し得る。「A」のディレクトリエントリは、所有者識別子、読み出し/書き込み許可等のオブジェクトの様々な属性の値を有するノードエントリDI1を、現時点で示し得る。「B」のディレクトリエントリはまだ存在しないかもしれない。
例えばデッドロック回避分析に基づいて、名前変更ワークフローの一環として「A」のディレクトリエントリに対するロックを最初に確保するか、または「B」のディレクトリエントリ(まずは作成される必要があり得る)に対するロックを最初に確保するかが決定され得る(構成要素4104)。Bのディレクトリエントリを最初にロックする場合(構成要素4107)、図41において「4201へ進む」という表示で示されるように、図42において例示されるワークフローステップが使用される。「A」のエントリを最初にロックする場合(同様に構成要素4107にて特定)、格納サービスの特定のメタデータノードMN1において、名前変更ワークフローの第1原子動作が試行され得る(構成要素4110)。描かれた実施形態において、第1原子動作には、(a)「A」のディレクトリエントリに対するロックL1を確保することと、(b)試行されているワークフローの名前変更ワークフロー一意的識別子WFID1を生成することと、(c)オブジェクトの現在の名前AをBに変更することを示すインテントレコードIR1を格納することの以上のステップが含まれ得る。少なくともいくつかの実施態様において、インテントレコードは、ワークフロー識別子WFID1を含む、または示し得る。一実施態様において、3つのステップを1つの原子動作に合併するのに、格納サービスのステート管理サブコンポーネント(例えば図12に例示される複製ステートマシンと同様である)が使用され得る。第1原子動作の3つのステップが相対的に実行される順番は、異なる実施態様において異なり得る。いくつかの実施形態において、ロックL1、インテントレコードIR1、及び/またはワークフロー識別子WFID1の表現はそれぞれ、例えば前述の格納サブシステムのエクステントレプリカを使用して、永続性格納デバイス上に複製され得る。少なくとも一実施形態において、ロック、インテントレコード、及び/またはワークフロー識別子を格納するために選択される永続性格納場所は、MN1に障害が起こった時の代替メタデータノードからアクセス可能であり得る。描かれた実施形態において、ロックL1が保持される限り、「A」のディレクトリエントリに対し、他の変更は一切適用され得ない。第1原子動作が試行された時に、例えばある他の同時または略同時変更動作のために、既にロックが保持されている場合、第1原子動作は、ロックが利用可能になるまで延期され得る。
構成要素4113において決定されるように、最初の原子動作が成功した場合、名前変更ワークフローの第2原子動作が試行され得る。図41、42において例示されるそれぞれのワークフローの原子動作に関して、少なくともいくつかの実施形態において、最初の試行で原子動作を完了できなかった時、原子動作は1回または複数回再試行され得る(例えばある設定可能最大試行数に基づいて)ことに留意されたい。「B」のディレクトリエントリを管理及び/または格納するように指定されたメタデータノード(MN2)において、第2原子動作が実行され得る。いくつかの実施形態において、MN1において第1原子動作が完了した後に、第2原子動作を実行する要求がMN1からMN2へ送信され得る。少なくともいくつかの実施態様において、要求は、ワークフロー識別子WFID1を含み得る。構成要素4116に示されるように、第2原子動作には、(a)「B」のディレクトリエントリが、ある他の変更動作のために現在ロックされていないことを確認することと、(b)名前を変更しているオブジェクトのノードエントリDI1を示すようにBのディレクトリエントリを設定することと、(c)識別子WFID1を有するワークフローに関して、「B」のディレクトエントリのポインタ変更ステップが成功したことを示すレコードを格納することの以上のステップが含まれ得る。少なくともいくつかの事例において、第2原子動作を試行した時に「B」のディレクトリエントリは存在しないかもしれない。この場合、「B」のディレクトリがロックされていないかの確認ステップは、非明示的に「B」の新たなディレクトリエントリを作成することで実行され得る。少なくともいくつかの実施形態において、例えば「B」ディレクトリエントリの任意の同時変更を防ぐために、Bのディレクトリエントリに対するロックは、ポインタが変更される前に確保され得る。いくつかのこのような実施形態において、DI1を示すポインタが設定された後に、ロックは解除され得る。第1原子動作の一環として実行される書き込みの事例のように、第2原子動作の書き込み(例えばポインタの設定及び成功開示)は、MN2における障害発生時にそれらを後に読み出すことが可能な複製エクステント等の永続性格納場所において行われ得る。書き込みの組み合わせの原子性を施行するために、格納サービスのステート管理サブコンポーネントが使用され得る。
第2原子動作が成功した場合(構成要素4119にて特定)、第3動作集合が試行され得る(構成要素4122)。第1原子動作のように、この第3動作集合もMN1において実行され得る。少なくともいくつかの実施形態において、MN1で受信される第2原子動作が成功したという開示(例えばMN1からMN2へ送信した第2原子動作の要求に対する応答)をきっかけに、第3動作集合が開始され得る。第3動作集合において、「A」のディレクトリエントリに確保されていたロックL1は削除され、インテントレコードIR1は削除され、そして「A」のディレクトリエントリ自体も削除され得る。先に述べたように、いくつかの実施態様において、この第3動作集合も原子単位として実行され得る。このような場合、第3動作集合は、ワークフローの「第3原子動作」と称され得る。別の実施態様においては、第3動作集合に原子性は施行され得ない。第1原子動作(例えばインテントレコード、ワークフロー識別子、及びロック開示)中に生成されたメタデータが永続性格納場所に格納される実施形態において、様々な種類の障害により1回または複数回再試行が要求されたとしても、第3集合が原子的に実行されるか否かに関係なく、第3動作は最終的に成功するものと予想され得る。第3動作集合も成功した場合(構成要素4125にて検出)、名前変更ワークフローは全体として成功したとみなされ得る(構成要素4128)。少なくともいくつかの実施形態において、名前変更が成功したことを示す名前変更要求への応答が送信され得る。いくつかの実施形態において、要求者に対し何も応答は送信され得ない。
描かれた実施形態において、2つの原子動作のうちのいずれかが成功しなかった場合、全体としてのワークフローはアボートされ(構成要素4131)、そしてワークフローの前の部分で生成されたレコードのうちのいずれかが削除され得る(インテントレコードIR1、ロックL1の確保の表現、及び/またはMN2に格納されている成功レコード等)。第3動作集合のうちいずれかの動作が失敗した場合(構成要素4125にて検出)、描かれた実施形態において、構成要素4122へ戻る矢印により示されるように、第3動作集合は単純に再試行され得る。先に述べたように、少なくともいくつかの実施形態において、失敗を公表する前に、それぞれの原子動作に対し複数の試行が行われ得る。いくつかの実施形態において、識別子WFID1を有するワークフローの第3動作集合が完了した後のある時点で、例えば第3動作集合の完了とは非同期的に、MN2に格納されている成功レコードが削除され得る(構成要素4134)。
図41の構成要素4107の否定出力に示されるように、「B」のディレクトリ変更を最初にロックする場合には、別の名前変更ワークフローが試行され得る。図42は、少なくともいくつかの実施形態による、名前変更動作のために格納サービスにおいて特定され得る、2つの可能なロック順序のうちのこのような第2ロック順序に基づいて、第2名前変更ワークフローを実施するために実行され得る動作の態様を例示するフロー図である。第2ワークフローも、描かれた実施形態において、「A」から「B」へ名前を変更するために使用される2つの連続した原子動作を含み、そして実装により、原子的に実行され得る、あるいはされ得ない動作の第3集合がこれらに続く。メタデータノードMN2(オブジェクト名「B」のディレクトリエントリを格納する責任を担うノード)において実行される第1原子動作(図42の構成要素4201)には、ある他の動作のために「B」のディレクトリエントリがロックされていないことを確認することと、必要であれば「B」のディレクトリエントリを作成することと、「B」のディレクトリエントリをロックすることと、名前変更ワークフローの一意的ワークフロー識別子WFID2を生成し格納することと、オブジェクトの現在の名前「A」を「B」に変更することを示すインテントレコードIR2を格納することとが含まれ得る。いくつかの実施態様において、インテントレコードIR2は、ワークフロー識別子WFID2を含む、または示し得る。
第1原子動作が成功した場合(構成要素4204にて検出)、ワークフローWFID2の第2原子動作が試行され得る(構成要素4207)。この第2原子動作は、「A」のディレクトリエントリが管理されるメタデータノードMN1において実行され、いくつかの実施形態においては、第1原子動作が成功したことを示すMN2からの要求をきっかけに開始され得る。第2原子動作には、Aのディレクトリエントリがロックされていないことを確認することと、「A」のディレクトリエントリを削除することと、ワークフロー「WFID2」の一環として「A」のディレクトリエントリがうまく削除されたことを示す永続性レコードを格納することとが含まれ得る。第2原子動作が成功した場合(構成要素4210にて特定)、第3動作集合がMN2において試行され得る(構成要素4213)。いくつかの実施形態において、例えば前にMN2からMN1へ送信した第2原子動作の要求に対しMN2で受信する応答等、第2原子動作が成功したという開示をきっかけに、第3動作集合を実行する試行が開始され得る。第3動作集合には、「B」のディレクトリエントリがDI1(名前を変更しているオブジェクトのノードエントリ)を示すように設定することと、ロックL2を解除/削除することと、インテントレコードIR2を削除することとが含まれ得る。
第3動作集合が成功した場合(構成要素4216にて検出)、ワークフローは全体として成功したとみなされ(構成要素4219)、いくつかの実施形態においては、名前変更動作の要求者に対し成功インジケータが返され得る。図41に例示されるワークフローのように、図42の第3動作集合は、失敗のシナリオにおいては構成要素4216から構成要素4213へ戻る矢印により示されるように1回または複数回再試行が要求され得るが、最終的には成功するものと予想され得る。少なくともいくつかの実施形態において、第3動作集合の完了とは非同期的に、MN1に格納されている成功レコード(「A」のディレクトリエントリは削除されたことを示す)自体が削除され得る(構成要素4225)。2つの原子動作のうちのいずれかが成功しなかった場合、全体としての名前変更ワークフローはアボートされ(構成要素4222)、そしてアボートされたワークフローの前の動作中に格納されたレコードは一掃され得る。図41において例示される動作のように、第2ワークフローの原子動作に、格納サービスのステート管理機構及び/または複製エクステントが使用され得る。
使用されているファイルシステムプロトコルにより見込まれる所望レベルの一貫性を達成するために、デッドロック回避ロック順序シーケンスと、図41及び図42に例示される動作とを使用して、ファイルストアオブジェクトの名前変更動作は実行され得る。一意的ワークフロー識別子に対応付けられたインテントレコードを永続性格納場所に格納する技術は、異なる実施形態において、様々な種類の障害からの復旧に役立ち得る。図43は、少なくともいくつかの実施形態による、名前変更ワークフローに参加する1対のメタデータサブシステムノードのうちの1つのメタデータサブシステムノードにおける障害に応じて実行され得る復旧動作の態様を例示するフロー図であり、一方図44は、少なくともいくつかの実施形態による、名前変更ワークフローに参加する1対のメタデータサブシステムノードのうちのもう1つのメタデータサブシステムノードにおける障害に応じて実行され得る復旧動作の態様を例示するフロー図である。説明を簡潔にするために、図41において例示されるワークフローシーケンス中に単一のメタデータノードに障害が起こった場合に実行され得る動作を、図43と図44のそれぞれが例示するが、少なくともいくつかの実施形態において、ワークフローに関与する両方のメタデータノードに障害が起こった場合でも、同様の復旧方策が採用され得る。
図43の構成要素4301において示されるように、図41のワークフローシーケンスの第1原子動作(構成要素4110に例示されるステップを有する)が完了した後、かつ図41のワークフローシーケンスの第3動作集合(構成要素4122)が始まる前のある時点で、ノードMN1の障害が検出され得る。例えば、「A」のディレクトリエントリが管理されるメタデータノードMN1を実行するプロセスまたはスレッドが早く終了してしまう、あるいはネットワーク関連障害のせいで、またはハングアップに至るソフトウェアバグのせいで、MN1がヘルスチェックに無反応になってしまう、ということがあり得る。このような状況の下、描かれた実施形態において、代替メタデータノードMN‐Rが、MN1の責務を引き継ぐように設定または指定され得る(構成要素4304)。いくつかの実施形態において、先に述べたように、MN1は、複数のメタデータノードを含む冗長グループのメンバーとして設定されており、そしてフェイルオーバー用に事前設定された冗長グループの別のメンバーが代替として素早く指定され得る。別の実施形態において、代替メタデータノードMN‐Rは、事前設定された冗長グループに属し得ない。
図41のワークフローの第1原子動作において、MN‐1は永続性格納場所に、インテントレコードIR1とワークフロー識別子WFID1を、ロックL1の表現と共に格納した。代替メタデータノードMN‐Rは、MN‐1の障害の前に書き込まれたインテントレコードIR1とワークフロー識別子WFID1を読み出し得る(構成要素4307)。描かれた実施形態において、MN‐Rはそれから、ワークフローWFID1のステータスを特定するために、「B」のディレクトリエントリを担当するメタデータノードMN2に対しクエリを送信し得る(構成要素4310)。例えばワークフローの第2原子動作の一環として、Bのディレクトリエントリポインタは既にDI1(名前を変更しているオブジェクトのノードエントリ)を示すように設定されているか否かを調べるために、MN‐RはMN2にクエリを送信し得る。
先に述べたように、分散格納サービスがマルチテナントである実施形態において、各メタデータノードは、いくつかの異なるファイルのメタデータ、及び/またはいくつかの異なるクライアントのメタデータを管理する責任を担い得る。その結果、MN2は、多数の名前変更ワークフローの第2原子動作に対応するそれぞれの成功レコードを格納済みであり得る。識別子WFID1を有するワークフローのステータスに関するクエリを受信すると、MN2は、WFID1の成功原子動作のレコードを検索し得る。MN2がWFID1の第2原子動作の成功レコード見つけた場合(構成要素4313にて特定)、MN2はMN‐Rに、第2原子動作は完了していたこと(すなわち「B」のディレクトリエントリはノードエントリDI1を示すように設定されていたこと)を知らせ得る。従って、描かれた実施形態において、MN‐Rはそれから、WFID1により識別される名前変更ワークフローを完了するために、第3動作集合を試行し得る(構成要素4316)。
少なくともいくつかのシナリオにおいては、ワークフローWFID1の第2原子動作が成功しない場合もあり得る。例えば、第2原子動作を開始するためのMN2に対するMN1の要求がうまく送信される前に、MN1に障害が起こった、あるいは当該要求が失われた、あるいはMN2は要求された第2原子動作をうまく実行できなかった、ということがあり得る。いくつかの実施形態において、第2原子動作は成功しなかったことがMN‐Rに知らされた場合(同様に構成要素4313にて特定)、MN‐Rは、ワークフローを中止するか再開するか、いずれかの選択肢を有し得る。描かれた実施形態において、キャンセル基準を満たす場合(構成要素4319にて検出)、名前変更ワークフローはアボートされ、そしてMN1に格納されている、WFID1に対応付けられたメタデータレコードは削除され得る(例えばインテントレコードIR1とロックL1の表現は、永続性格納場所から削除され得る)(構成要素4322)。一実施形態においては、元の名前変更要求をクライアントから受信してから経過した時間が、ある設定閾値を超える場合に、キャンセル基準は満たされ得る。名前変更ワークフローの経過時間依存終了は、例えば名前変更を要求したクライアントは、長い経過時間を考慮すると、元の要求は成功しなかったことを理解し、そのためこの時点で名前変更が成功することを期待していないであろうという仮定の下で実行され得る。いくつかの実施形態において、識別子WFID1を有するワークフローがアボート/キャンセルされたことを示すキャンセルレコードがある設定可能な時間、例えばMN‐R、MN2、MN‐RとMN2の両方のいずれかにおいて、格納され得る。このような一実施形態において、ワークフローを中止することを決定した後、MN‐Rはまず、キャンセルレコードを格納するようにMN2に要求を送信し、そしてMN‐Rは、MN2がキャンセルレコードを永続性格納場所にうまく格納したことを知らされた後に、インテントレコードとロックの両方を削除し得る。
しかしながら、キャンセル基準が満たされない場合(同様に構成要素4319にて検出)、描かれた実施形態において、MN‐Rは、第2原子動作を実行するようにMN2に要求を送信することでワークフローを再開し得る(構成要素4325)。様々な実施形態において、MN1の障害に応じるための他の方策が実行され得る。例えば、いくつかの実施形態において名前変更ワークフローは、最初に名前変更要求を受信してから経過した時間に関係なく常に再開され、そして少なくとも一実施形態において名前変更ワークフローは、第1原子動作の完了後にMN1に障害が発生すると常に中止され得る。
図44は、少なくともいくつかの実施形態による、図41に例示されるワークフローシーケンス中にメタデータノードMN2に障害が起こった場合に実行され得る動作を例示する。構成要素4401において示されるように、例えばワークフローの第2原子動作(構成要素4116)を実施するように要求をMN2へ送信した後に、MN2の障害が検出され得る。MN1をMN‐Rで置き換えることに関して前述された方法と同様の方法で、描かれた実施形態においてMN‐Rに対し代替メタデータノードMN‐R2が指定または設定され得る(構成要素4404)。MN‐R2は、MN2が障害の前に永続性格納場所に書き込んだ成功レコードを読み出すことが可能であり得る。
識別子WFID1を有するワークフローの第2原子動作がうまく完了したか否かに関してMN1が特定できるように、MN1からのクエリをMN‐R2において受信し得る(構成要素4407)。第2原子動作がMN2の障害の前に完了していた場合(構成要素4410にて検出)、MN‐R2はWFID1の成功レコードを見つけることが可能であり、MN1に適宜応答し得る。MN1はそれから、第3動作集合を試行することで、ワークフローを再開し得る(構成要素4413)。
WFID1の第2原子動作が完了していない場合、図43において実施されたものと同様の手続きが、図44において描かれる実施形態において実行され得る。名前変更動作のキャンセル基準が満たされる場合(構成要素4416にて検出)、例えば名前変更が要求されてから経過した時間がある閾値時間Tを超える場合、名前変更動作はアボートされ、そしてWFID1に関連するデータ構造が一掃され得る(構成要素4419)。そうではなくキャンセル基準が満たされない場合、第2原子動作を実行するように要求をMN1がMN‐R2へ送信することにより、ワークフローは再開され得る(構成要素4422)。
図43と図44は、図41のワークフロー中にいずれかのメタデータノードに起きた障害に応じる復旧技術を例示したが、少なくともいくつかの実施形態において、図42に例示されるワークフロー中にいずれかのメタデータノードに障害が起きた場合にも、類似技術が実行され得る。障害の起きたメタデータノード用に設定された代替ノードが、永続性格納場所からワークフローレコード(例えばインテントレコード、ロック、及び/または成功レコード)を読み出し可能である限り、障害の後にワークフローを再開することは可能であり得る。例えば、図42のワークフローにおいて、第1原子動作の後にMN2に障害が起こり、代替MNR‐2が指定された場合、MNR2は、インテントレコードIR2とワークフロー識別子WFID2とを読み出し、MN1に関するステータスクエリを送信する等を行い得る。図43、44において示されるものと同様の方法で、障害を検出して代替ノードを設定するのにかかる時間と、障害の前の名前変更ワークフローの進捗程度とによって、いくつかの事例において図42の名前変更ワークフローは、メタデータノードの障害の後に中止され得る。データに使用されているものと同じ基礎格納サブシステムを使用してメタデータが格納される実施形態において、図43と図44において例示されるものと同様の復旧技術が、格納ノードの障害に応じるためにも使用され得る。いくつかの実施形態において、メタデータノードと格納ノードの機能は、同じホストまたはハードウェアサーバにおいて実行され、その結果、そのホストまたはサーバの障害は、両種のノードに影響を及ぼし得る。
拡張縮小可能な名前空間管理
分散格納サービスの目的には、非常に多くの数のファイル、ディレクトリ、リンク、及び/または他のオブジェクトを、様々な実施形態において拡張縮小可能なやり方で処理することが含まれ得る。例えば、一部の大きな顧客に対して、所定のファイルシステムは百万以上のディレクトリを有し、そして所定のディレクトリは百万以上のファイルを有し得る。いくつかの実施形態において、そのようなレベルまで名前空間内のオブジェクトの数が増加しても、ディレクトリのリスト作成、検索、挿入、削除等の様々な名前空間動作に関して、大量処理に対応するために、及び/または同時処理度が高い時に確実に応答時間が比較的に一律であり続けるようにするために、ハッシュ有向非巡回グラフ(HDAG)と呼ばれるデータ構造が、名前空間のエントリを管理するのに使用され得る。本明細書において使用される用語の名前空間は、所定ファイルシステムまたは他のデータストア論理コンテナ内に作成されるオブジェクト(ファイル、ディレクトリ、ハード及びソフトリンク等)の名前の集合と、オブジェクト間の関係(例えば親子関係)とを指すのに使用される。いくつかの実施形態において、例えばサービスのメタデータサブシステムにより、ファイルシステムのディレクトリごとにそれぞれのHDAGが生成され得る。後述されるHDAGベースの名前空間管理技術は、複数の格納エクステントにわたる設定可能な粒度でのメタデータ構造のストライピング、及び単一原子動作において複数の格納デバイスにて変更を実行する能力等、前述された分散格納サービスの機能のうちのいくつかを使用し得る。例えば、一実施態様において、特定のHDAGの各ノードに、それぞれの論理ブロック(それぞれのエクステントの1つまたは複数のページにマッピングされ得る)が使用され得るため、複数の格納サーバ間で、名前空間エントリが分割される可能性がある。
図45は、少なくともいくつかの実施形態による、ファイルストア名前空間管理に使用され得るハッシュ有向非巡回グラフ(HDAG)の例を示す。ディレクトリのHDAGは、描かれた実施形態において、少なくとも2種類のノード、エントリリスト(EL)ノード(図39に示されるDFSディレクトリエントリ構造と同様のディレクトリエントリと、対応するオブジェクトの他の属性値を含むそれぞれのDFS‐Iノードを示すポインタとのリストを、それぞれが有する)と、ノード識別子アレイ(NIアレイ)ノード(子ノードの集合を示すポインタのアレイをそれぞれが有する)とを含み得る。ノードの種類は、ヘッダーフィールド4504Aまたは4520A等のヘッダーフィールドに示され得る。ディレクトリD1が作成されると、単一ELノード(HDAGのルートノードと称されるノード4500A等)を含む初期ステート4590AのHDAGが、ディレクトリのために作成され得る。いくつかの実施態様において、ディレクトリのDFS‐Iノード自体が、HDAGのルートノードとして使用され得る。ルートノード4500Aは、ディレクトリ属性4502Aのある集合と、ルートノードの種類(最初はEL)を示すヘッダーフィールド4520Rと、D1内に作成された最初のいくつかのファイルまたはサブディレクトリのルートエントリリスト4506とを保持するのに十分な領域を有し得る。所定のELノードは、ある設定可能な数(例えば所定のファイルストアの全てのELエントリに選択され得る値)までの名前空間エントリを格納可能であり、そして所定のNIアレイノードは、ある設定可能な数(例えば所定のファイルストアの全てのNIアレイエントリに選択される別の値)までのノード識別子を格納可能である。少なくともいくつかの実施形態において、HDAGノードの最大許容サイズは、1つのHDAGノードのコンテンツが単一原子動作において格納領域に書き込み可能なサイズに決定され得る。例えば一実施態様において、HDAGノードの占有領域が決して4キロバイトを超えないようにHDAGパラメータが選択される場合、4キロバイトのページに対応するエクステントがHDAGに使用され、及び/または4キロバイトの論理ブロックサイズが使用され得る。他のHDAG間マッピング、論理ブロックサイズ、及びページサイズが、別の実施態様において使用され得る。
D1内にさらにファイルまたはサブディレクトリが追加されると(矢印4525により示されるように)、ルートエントリリスト4506は最後には一杯となり、ルートノード4500Aは、そのエントリリストのメンバーを子ノードに分散するために、ハッシュ関数を使用して、ある数の子ノードに分割され得る。ルートノードの種類はELからNIアレイに変更され、そして子ノードを示すポインタ(例えば子ノードが格納される論理または物理格納アドレス)が、ルートノードのNIアレイ内のそれぞれの要素に書き込まれ得る。所望するサイズのハッシュ値を生成するために、それぞれのエントリ名(例えばファイル名、サブディレクトリ名)に選択された強力なハッシュ関数が適用され、そして所定のエントリを新たな子ノードにマッピングするのに、所定のエントリのハッシュ値のビットシーケンス表現の一部が使用され得る。様々な実施形態において、一杯になった非ルートノードに対し、新規に作成された子ノード間における同様のハッシュベースのエントリ分散を使用して、いくつかの種類の分割動作(詳しくは後述)が実行され得る。検索要求に応じて、例えば対象エントリを有するノードが見つかるまで、ハッシュ値のビットシーケンス表現の連続するサブシーケンスを、HDAGのそれぞれのレベルをナビゲートするためのインデックスとして使用する等、同じハッシュ関数が特定のオブジェクト名のエントリを検索するのにも使用され得る。ディレクトリリストを取得するために、ルートノードのNIアレイ(ルートノードは分割したと仮定する)から始まる全てのポインタは、HDAG全体がトラバースされ、かつ全てのそのエントリが取得されるまで、再帰的に追跡され得る。様々な種類のHDAG動作に関するさらなる詳細は、後に提供される。
エントリリストノードの種類は、ある条件の下、1つまたは複数の種類のHDAGの動作の結果で変わり得る。例えば、ルートノード4500Aは、そのエントリが子ノード間に分散された後にNIアレイとなった(さらに詳しく後述されるように、いくつかの事例において、NIアレイノードは削除後、エントリリストノードに変わり得る)。NIアレイ4510Aは、ステート4590BのHDAG内の子ノード4550A、4550B、4550Cのポインタ(例えば格納アドレス)を含む。ルートエントリリスト4506に元から存在したエントリは、子ノードのそれぞれのエントリリスト(例えばノード4550Aのエントリリスト4522A、ノード4550Cのエントリリスト4522B、そしてノード4550Bに最初に作成された別のエントリリスト)に最初に分散され得る。従って、それぞれの子ノード4550A、4550B、4550CはELノードとして開始し得た。しかしながら、ステート4590Bに達する時までには、ノード4550B自体が分割し、NIアレイ4510Bに格納されている自身の子ノード4550K、4550Lを示すポインタを有するNIアレイノードになっている。ステート4590Bにおいて、ノード4550LもステートをELからNIアレイへ変更し、ノード4550LのNIアレイ4510Cは、ノード4550Lの子ノードを示すポインタを含む。ノード4550Kは、D1内に作成されたファイル/ディレクトリのうちのいくつかを表すエントリリスト4522Kを有するELノードのままである。描かれた実施形態において、それぞれのノードのヘッダー(例えばヘッダー4520R、4520A、4520B等)は、ノード分割(またはある種類のエントリ削除の後のノード結合)の結果、ノードの種類が変わった時と場合に、変更され得る。いくつかの実施態様において、少なくともいくつかの時点において、ルートノード4500A及び/または他のHDAGノードは、使用されていないあるバイト数を有し得る。ステート4590Bにおいて、HDAGは、少なくとも3つの「レベル」、ルートレベルと、HDAGレベル1(ルートノードのNIアレイポインタを使用して単一検索でアクセス可能なノード4550A、4550B、4550Cを含む)と、HDAGレベル2(レベル1のノードのNIアレイポインタを使用して単一検索でアクセス可能なノード4550K、4550Lを含む)とを含むとみなされ得る。用語「HDAGレベル」は、HDAGのルートノードから開始してある特定のノードにたどり着くまでに遭遇するノードの数を示すものとして、本明細書において使用され得る。子ノードを有さないHDAGノードは、リーフノードと称され得る。少なくともいくつかの実施形態において、HDAGの2つのリーフノードL1、L2に関して、HDAGルートからリーフノードに向かうそれぞれのトラバーサル中に、L2に達するまでに遭遇するノードの数とは異なる数のノードに、L1に達するまでに遭遇し得る場合もあり得る。図45に例示される実施形態において、ノード間のエントリの分散、及びその後のエントリの検索に使用するハッシュ値は、HDAG自体に格納する必要はあり得ないことに留意されたい。
前述のように、名前空間管理技術の目的のうちの1つは、名前による高速検索を可能にすることであり得る。図46は、少なくともいくつかの実施形態による、ファイル名に取得されたハッシュ値の連続サブシーケンスを使用して、HDAGをナビゲートする技術を例示する。(同様の技術が、ディレクトリ、リンク、または他のファイルストアオブジェクトに使用され得る。)例えばパラメータとして名前を有する検索要求に応じて、ファイルの名前4602は、選択されたハッシュ関数4604に対する入力として使用される。いくつかの実施形態において、K(例えば255)UTF‐8文字までのストリングが、ファイル名またはディレクトリ名として使用され得る。ファイルストアオブジェクト名の他の長さの制約またはエンコーディングが、他の実施形態において使用され得る。一実施形態において、それぞれのファイルストアに異なるハッシュ関数が使用され得る。例えば、ハッシュ関数は構成パラメータとして特定され得る、あるいはファイルストアの名前空間のサイズの予測、ファイルストアが作成されているクライアントにより提供されるヒント等に基づいて、ハッシュ関数は格納サービスにより選択され得る。少なくとも一実施形態において、所定の数の名前空間エントリのHDAGの平均レベル数、またはHDAGの分散度合い(例えば一部のエントリには、他よりもはるかに少ないレベルを通過して到達するか否か)等、使用されているハッシュ関数の有効性に関する様々なメトリクスは経時的に記録され、そして測定された有効性が十分でない場合には、別のハッシュ関数が選択され得る(少なくとも先々の使用のため)。
描かれた実施形態において、(少なくとも)N*Mビットのシーケンスとして表現可能なハッシュ値4610が生成され得る。NとMは設定可能なパラメータである。それぞれMビットの、ハッシュ値4610のN個のサブシーケンス(例えばS1、S2、・・・SN)が、HDAGの対応レベルへのインデックスとして使用され得る。例えば、サブシーケンスS1は、レベル1をナビゲートするのに使用するNIアレイポインタ(ルートノードの)を選択するために使用され得る、サブシーケンスS2は、レベル1のノードから開始してレベル2をナビゲートするのに使用するNIアレイポインタを選択するために使用され得る、等が挙げられる。所定のサブシーケンスにおける全てのビットが、所定のレベル検索またはレベルナビゲーションに使用される必要があるわけではない。例えばいくつかの事例においては、q個の高位ビット(q<M)のみが使用され得る。いくつかの実施形態において、ハッシュ値の一部伸びと4666は、どのレベルにも未使用であり得る。
例えばファイルオープン命令またはディレクトリ作成命令に応じて、新たなエントリがファイルストアに追加される時、新たなエントリの名前のハッシュ値が取得され、そして名前がマッピングされたELノード候補が見つかるまで、前述のサブシーケンスベースのナビゲーション技術を使用して、HDAGはトラバースされ得る。(いくつかのシナリオにおいて、名前空間にエントリのための領域がなくなる場合もあり得る。このような特別な事例は後述される)。候補ノードのエントリリストに空き領域がもうない場合、または新たなエントリが追加されるとその空き領域が閾値レベルを下回ってしまう場合、候補ノードは分割され得る。分割されたノードのエントリのうち少なくともいくつかは、例えば後述されるエントリのハッシュ値の選択されたサブシーケンスを使用して、HDAGに追加される1つまたは複数の新たなノードに分散され得る。いくつかの実施形態において、少なくとも2つの異なる種類のHDAGノード分割動作が実行され得る。
図47は、少なくともいくつかの実施形態による、名前空間にエントリを挿入する試みから生じ得る2種類のHDAGノード分割のうちの第1種のHDAGノード分割の例を示す。この第1種の分割において、詳しく後述されるように、HDAGノードの種類は、エントリリスト(EL)からNIアレイに変更され得る。いくつかの実施形態において、名前空間エントリ挿入は、ファイル等の名前空間オブジェクトを作成するよう求めるクライアント要求に応じて取られるいくつかのステップのうちの1つであり得る。例えば他のステップには、ファイルに対応付けられたDFS‐Iノードオブジェクトに領域を割り当てること、ファイルの初期属性を設定すること、及び/または名前空間エントリからDFS‐Iノードまで、かつ当該Iノードからファイルコンテンツを格納するために使用される1つまたは複数の物理ページまでのポインタを設定することが含まれ得る。これらのステップの順序は、異なる実施形態において異なり得る。
「Lima」という名前(例えばファイル名)のエントリ4701を名前空間に挿入する要求が、図47に示される実施形態において受信され、「Lima」という名前のオブジェクトの挿入を試みているディレクトリ用に作成されたHDAG内をナビゲートした結果、ELノード候補4750Aが検出される。HDAGノードの識別子(HDAGノードの格納アドレスにも該当し、そのため格納サブシステムに対する読み出しまたは書き込み動作のパラメータとして使用され得る)の最初の一部が、図47において16進数文字列として示される。例えば、ノード4750はID「0x432d12...」を有する。図47に例示される第1種のノード分割は、描かれた実施形態において、(a)候補ノード4750Aはルートノードである、または(b)ノード4750Aの親ノード(図47に図示せず)内の1つのNIアレイポインタエントリのみがノード4750Aを示す、といういずれかの条件下で試行され得る。描かれた実施形態において、これらの条件のいずれかが満たされる場合、2つの新規のHDAGノード4750B、4750Cに領域が割り当てられ得る(例えばそれぞれのメタデータエクステントにおいて)。(説明を簡潔にするために2つの子ノードが図47において例示されるが、他の実施形態においては、3つ以上の子ノードが分割中に作成され得ることに留意されたい。)ノード4750Aに前から存在したそれぞれのエントリ(例えば「Alpha」、「Bravo」、「Charlie」等)、及び新規エントリ「Lima」は、「1」と表示された矢印により示されるように、それぞれのハッシュ値に基づいて、新規ノード4850Bまたは4750Cのうちの1つにマッピングされ得る。一実施態様において、例えば、候補ノードがHDAGのK番目のレベルに存在する場合、エントリのハッシュ値の(K+1)番目のサブシーケンスがハッシュ値の最上位ビットに基づいて並び替えられ、そして最上位ビットが「1」のハッシュ値を有するエントリはノード4750Bにマッピングされ、最上位ビットが「0」のハッシュ値を有するエントリはノード4750Cにマッピングされ得る。分割中に3つ以上の子ノードが作成される実施形態においては、エントリをマッピングするのにさらに多くのビットが使用され得る。例えば4つの子ノードが作成される場合、ハッシュサブシーケンス値の2上位ビットが使用され得る等する。描かれた実施形態において、例えばオブジェクト名及びハッシュ関数によっては、必ずしも分割されるノード(描かれた実施例における4750A)のエントリが子ノード間に均等に分散されるとは限らず、そして少なくともいくつかの実施形態においては、そのような均等性を達成しようとすることでHDAGを「均衡化」する試行は全く行われ得ない。その代わりに、このような実施形態において、ノード間で適度に均衡の取れたエントリの分散を達成することは、ハッシュ関数の強度と質に依存し得る。描かれた実施例において、子ノード間でのエントリの分散後、子ノード4750Bは後続の挿入に使用可能な空き領域4710Aを有し、同時に子ノード4750Cは後続の挿入に使用可能な空き領域4710Bを有する。
分割前はELノードだったノード4750Aは、図47において「2」と表示された矢印により示されるように、NIアレイノードに変換され得る。そのNIアレイエントリの半分は、ノード4750Bを示すように設定され(例えば4750BのIDである0x786aa2...を格納することにより)、そしてもう半分は、ノード4750Cを示すように設定され得る(例えば4750CのIDである0xc32176...を格納することにより)。エントリを分割するのに最上位ビットが使用された実施態様において、下半分のNIアレイエントリ(例えば0から(NIアレイサイズ/2)−1までのインデックスを有するエントリ)はノード4750Cを指すように設定され(ハッシュ値が「0」で始まるエントリ)、そして上半分のNIアレイエントリ(例えば(NIアレイサイズ/2)から(NIアレイサイズ−1)までのインデックスを有するエントリ)は別の子ノード4750Cを示すように設定され得る。 分割の結果、n個の子ノードが作成される実施形態において、1/nのNIアレイエントリは、それぞれの子ノードを示すように設定され得る。3つのノード4750A、4750B、4750Cに対する変更は、格納サブシステムにおける永続性格納場所に保存され得る。いくつかの実施形態において、例えば前述の分散トランザクション技術を使用して、3つの全てのノードに対する変更が1つの原子動作において実行され得る。別の実施形態において、3つの永続的なノードのうちの少なくとも1つに対する変更を、他のノードから切り離して行うために、前述の条件付き書き込みが使用され得る。
第1種の分割動作を実行するための前に略述された条件が満たされない場合(例えば候補ノードの親ノードが、候補ノードを示す複数のNIアレイポインタを有する場合)、第2種の分割動作が実行され得る。図48は、少なくともいくつかの実施形態による、名前空間にエントリを挿入する試みから生じ得る2種類のHDAGノード分割のうちの第2種のHDAGノード分割の例を示す。描かれた実施例において、新規エントリ「Queen」4801の候補ノードとして、ノード4750Cが特定されるが、ノード4750Cのエントリリストには空き領域が残っていない。「Queen」の挿入が試行される時点で、親ノード4750Aは、ノード4750Cを示す多数のポインタ(例えばID値0xc32176...を有するNIアレイエントリ)を含む。同じ値「0x786aa2...」を有する複数の要素、及び値「0x32176...」を有する複数の要素により示されるように、描かれた実施形態において、NIアレイ要素はそれぞれ、ノードのコンテンツが格納されているブロックを示し、ノード内の個別のELエントリは示さない。別の実施形態においては、ブロックレベルポインタの代わりに、またはブロックレベルポインタに加えて、エントリレベルポインタが使用され得る。図48に描かれたシナリオにおいては、図47に例示されるような2つのノードの代わりに、1つの新規ノードのみ(ID0x223123を有するノード4850A)が作成される。図47において4750Aのエントリに使用したものと同様の方法で、ノード4750Cのエントリのハッシュ値が計算され得る。ハッシュ値は、最上位ビットに基づいて並び替えられ得る。1と表示された矢印により示されるように、分割時に4750Cに存在するエントリのうち、最上位ビットに「1」を有するエントリは新規ノード4850Aにマッピングされ、一方残りのエントリ(最上位ビットに「0」を有するもの)はノード4750C内に保持され得る。
描かれた実施形態において、矢印2により示されるように、新規に追加されたノード4850Aにポインタを追加するように親ノードのNIアレイエントリが変更され得る。4750Cを前に示していた4750AのNIアレイエントリのうち、半分(例えばアレイインデックス範囲の上半分)は、新規ノード4850Aを示すように設定され、一方でもう半分は4750Cを引き続き示し得る。従って、分割後、ノード4750AのNIアレイエントリのうち、半分は4750BのID(分割の影響を受けなかった)を含み、4分の1は4750Cを示し、そして4分の1は4850Aを示し得る。前述の第1種のノード分割の事例のように、いくつかの実施形態において、ELが一杯である候補ノード4750Cのエントリは、3つ以上のノード(候補ノード自体を含む)に再分散され得る。例えばエントリハッシュ値の2ビットを使用して、全部で4ノードが分散に使用され得る。ある状況の下では、所定ノードの分割は、HDAGのルートに向かって上向きに伝播される必要があり得る。例えば、ノードN1は挿入のために分割される必要があり、その結果、N1の親も分割される必要があり得る等する。このような場合、候補者ノードに到達するためにHDAGをトラバースする手順は、HDAGのルートから開始して繰り返される必要があり得る。
図47、48に例示される分割動作では、分割が試行される時に、HDAGに新しいレベル(例えば新規子ポインタ)が追加され得ると想定する。しかしながら、少なくともいくつかの実施形態において、例えばハッシュ値サイズ、及びHDAGの各レベルをナビゲートするのに使用されるビット数に基づいて、ハッシュ関数により許容される最大レベル数にある時点で達し、そしてそれ以上のレベルは追加され得ない。このようなシナリオにおいて、図47と48に例示されるハッシュベース分割を実行する代わりに、ハッシュベース分割では対応不可能な新規のエントリの連鎖または連結リストが作成され得る(例えば第3種のHDAGノードを使用して)。例えば、図48において、ノードへ「Tom」を挿入することが試行された時に、ノード4850は一杯になり、かつレベル数の上限に達した場合、「連鎖」という種類の新規ノードが、「Tom」のエントリを格納するために作成され、そして連鎖ノードを示すポインタが候補ノード内の選択された場所に挿入され得る。連鎖ノード自体は、必要があれば他の連鎖ノードを示すように変更可能である。連鎖ノード内に含まれている任意の所定のエントリの場所を特定するために、他の種類のノードにおいて使用されるハッシュベース検索の代わりに、連鎖の順次走査が使用され得る。このようにして、HDAGが「不均衡」になっても多数のエントリが対応可能になるが、連鎖エントリは検索のために順次トラバースされる必要があり得るため、当然ハッシュベーストラバーサルの速さに関する利点のうちのいくつかは失われ得る。様々な実施形態において、適度に長いハッシュ値及び強力なハッシュ関数の選択により、連鎖ノードを使用しなければならない確率は、許容可能な閾値未満に低減され得る。
名前空間エントリEを削除する時(例えばクライアントの要求で対応ファイルまたはディレクトリを削除した時)、前に略述された、オブジェクト名のハッシュ値のそれぞれのサブシーケンスがHDAGの連続レベルにおけるインデックスとして使用されるハッシュベーストラバーサル技術を使用して、エントリを削除する対象のELノードが検出され得る。エントリを削除する対象のELノードは、削除対象ノードと称され得る。削除対象が複数のエントリを含む場合、Eのエントリは単純に削除され得るか、空きと示され、追加動作を必要とし得ない。しかしながら、削除対象に他の名前空間エントリがない場合(すなわちEのエントリを取り除くことで空のエントリリストができる場合)、その時は削除対象ノード自体が削除される必要があり得る。図49は、少なくともいくつかの実施形態による、2種類のHDAGノード削除動作のうちの第1種のHDAGノード削除動作の例を示す。描かれた実施例において、HDAGにより表現される名前空間から「Juliet」を削除する要求が受信される。「Juliet」のハッシュ値が計算され、そしてHDAGのルートからノード4950へ向かってナビゲートするのに、ハッシュ値の連続サブシーケンスが使用される。ノード4950は、1つだけ残ったエントリ(削除する「Juliet」というエントリ)を有するELノードである。Julietというエントリが削除され得る(印「X」及び添付表示「1」により示されるように)。Julietというエントリを取り除くことにより、ノード4950において空のエントリリストが生じるため、ノード4950自体が削除される必要があり得る。ノード4950を、その親ノード4948において削除することの結果は、ノード4948のNIアレイリストのステートにより異なり得る。
描かれた実施形態において、削除対象ノードの親ノードは一般に、削除対象ノードを示す1個または複数のNIアレイ要素(「削除対象ポインタ」と称され得る)と、削除対象ノード以外のノードを示す0個または複数のNIアレイ要素を有し得る。削除対象ノード以外のノードを示し、かつNIアレイ内で削除対象ポインタに隣接する(例えばアレイ内で削除対象ポインタのすぐ隣のより低いインデックスにおける)これらのNIアレイ要素は、削除対象ポインタの「隣接者」と称され得る。描かれた実施形態において、削除対象ノードの最後のエントリが削除された時に、4948のNIアレイリスト内に少なくとも1つの隣接者が存在する場合、隣接者ポインタ値が削除対象ポインタに単純にコピーされ得る。図49において描かれるシナリオにおいて、例えば、親ノード4948内に、削除対象ノード4950を示す2つの削除対象ポインタ4901、4902が存在する(4950のID0xc44321...が4901と4902に格納されている事実により示されるように)。また親ノード4948のNIアレイは、ノードID0x32176...を格納する隣接者要素4903を含む。従って、2と表示された矢印により示されるように、Julietというエントリの削除により削除対象ノード4950において空のエントリリストが生じ、かつ親ノード4948が自身のNIアレイに少なくとも1つの隣接者を含む時、削除対象ノード4950を以前示していたNIアレイエントリに、隣接者のコンテンツがコピーされる。さらに、描かれた実施形態において、例えば格納サブシステムに対し削除対象ノード4950の格納領域を解放する要求を送信することにより、削除対象ノード4950は解放され得る。削除対象ポインタアレイ要素のコンテンツの、隣接者ポインタのコンテンツによる置き換えが、矢印4904により示される。異なる実施形態において、削除対象ポインタの隣接者を指定するのに異なる技術が使用され得ることに留意されたい。例えば、いくつかの実施形態においては、NIアレイ内で削除対象ポインタの隣のより高いインデックスを有するNIアレイエントリが、隣接者として選択され得る。
いくつかの実施形態において、削除対象ノードの親ノードのNIアレイエントリに隣接者が存在しない場合、親ノードは別の方法で再編成され得る。図50は、少なくともいくつかの実施形態による、2種類のHDAGノード削除動作のうちの第2種のHDAGノード削除動作の例を示す。示されるように、削除対象ノード4950は、自身のエントリリストに単一エントリを含む。印「X」及び添付表示「1」により示されるように、たった1つの残りのエントリ(「Juliet」)が削除される。描かれた例示的シナリオにおいて、親ノード4948のNIアレイは、隣接者要素(すなわち削除対象ノードを示さないNIアレイ要素)を何も含まない。利用可能な隣接者ポインタ値が存在しないため、図49において例示される手法は実行不可能であり得る。従って、「2」と表示された矢印により例示されるように、親ノード4948の種類はNIアレイの代わりにEL(エントリリスト)に変更され、そして空のエントリリストはノード4948用に初期化され得るという別の手法が取られ得る。新規に初期化されたELノードは、例えば前述の種々の分割動作の結果、HDAGに新規ノードが追加される時に、再利用され得る。図49に関して前述されたものと同様の方法で、削除対象ノード4950は解放され得る。様々な実施形態において、HDAGの所定のレベルにおいて行われた変更は、いくつかの事例において他のレベルにおける変更を要し得る。例えば一実施形態において、ノード4848の種類が前述のように変更される時、4848の親ノードのNIアレイエントリは変更される必要があり、そして変更の結果はHDAGのルートへ向かって上向きに伝播し得る。先に述べたように、様々な実施形態において、前述の条件付き書き込み技術及び/または分散トランザクション技術は、所定の挿入または削除に起因する所望の数のHDAG変更を、原子動作に合併するのに使用され得る。
図51は、少なくともいくつかの実施形態による、第1種のHDAGノード分割を生じる名前空間へのエントリの挿入に応じて実行され得る動作の態様を例示するフロー図である。このような分割動作の簡潔な実施例が図47に提供される。構成要素5101に示されるように、分散マルチテナント格納サービスの名前空間にエントリEを追加する要求が受信される。例えば、サービスに実装されるファイルシステムのクライアントが出す、「Fname」というファイルを作成する、または「Fname」というファイルを開くという命令に応じて、要求は生成され得る。一実施形態において、要求は、特定のメタデータサブシステムノードにおける命令解釈コンポーネントにて生成され、別のメタデータサブシステムノード(または同一のメタデータサブシステムノード)における名前空間管理コンポーネントにて受信され得る。対象ファイルシステムの名前空間管理のために、ハッシュ関数が選択済みであり得る(例えばハッシュ関数の強度、ファイルストアの予想サイズ及び/またはパフォーマンス要件、並びに/あるいは別の要素に基づいて)。「Fname」に対応するハッシュ値Hvalueを生成するために、ハッシュ関数が使用され得る。当該Hvalueは、それぞれMビットのN個のサブシーケンスとして表現可能である(構成要素5104)。一実施態様において、例えば、Hvalueは、それぞれ8ビットの8個のサブシーケンスを有し、そのため少なくとも64ビットを使用する。
少なくとも2つの種類のノード(前述のノード識別子アレイ(NIアレイ)ノード及びエントリリスト(EL)ノード)を含むHDAGは、名前空間用に、例えば新規のファイルFnameを追加しているディレクトリ用に、設定され得た。描かれた実施形態において、エントリリストノードは、最大ELエントリまで収容可能であり得る。当該最大ELは、対応するオブジェクト名の最大長、エントリリストに格納されているDFS‐Iノードのアドレスまたは識別子の長さ、HDAGノードに使用されているバイト数等の要素に依存し得る。同様に、描かれた実施形態において、NIアレイは、ノードIDのサイズ及びHDAGノードのサイズに依存する最大NIDまで収容可能であり得る。少なくとも一実施形態において、挿入結果としてエントリ数がEL閾値を超える場合にはノード分割を開始するように、エントリの保有数閾値であるEL閾値が指定され得る。いくつかの実施態様において、EL閾値のデフォルト値は最大ELに設定され、例えばELが一杯になった時にのみ分割が実行され得る。同様に、少なくとも一実施形態において、NIアレイノード用に閾値が定義され、例えばノードにおけるNIアレイ内の要素数がNID閾値を超える時に、NIアレイノードは分割され得る。いくつかの実施形態において、NID閾値は、デフォルトで最大ELに設定され得る。いくつかの実施態様において、EL閾値、またはNI閾値、あるいはEL閾値とNI閾値の両方が、設定可能なパラメータとして実施され得る。
Eが追加されるべき候補ノードCNを特定するために、各レベルにおいて検査する特定のノード(複数可)を同定するHvalueの連続Mビットサブシーケンスを使用して、HDAGのルート(ゼロ次レベル)から、1つまたは複数のHDAGレベルがナビゲートまたはトラバースされ得る(構成要素5107)。少なくともいくつかの実施形態において、HDAGのそれぞれのノードは異なる論理ブロックに対応し、そして各HDAGノードには、他のHDAGノードに使用されているものと異なる格納サブシステムノードにおける異なるエクステントが使用されている確率が高くあり得る。候補ノードが見つからない場合(いくつかの事例においてメタデータサブシステムにHDAGの領域がなくなった場合に起こり得る、構成要素5110にて検出)、エラー(例えば「ディレクトリの最大許容ファイル数を超えました」)が返され得る(構成要素5113)。候補ノードCNが見つかり(同様に構成要素5110にて検出)、かつそのエントリリストが新規エントリEを収容するのに十分な領域を有する(例えばEの追加が原因で、ELの長さがEL閾値を超えることはない)場合(構成要素5116にて検出)、新規エントリEは、リスト内の現在未使用のエントリのうちの1つに書き込まれ得る(構成要素5119)。CNに対する変更は、描かれた実施形態において、永続性格納領域に、例えば1つまたは複数のメタデータエクステントレプリカにて、保存され得る。少なくともいくつかの実施形態において、DFS‐Iノード構造は、名前Fnameを有するオブジェクトに割り当てられ、そしてDFS‐Iノード構造を示すポインタはE内に含まれ得る。「Fname」の後続検索要求に応じて、構成要素5104と5107に例示されるものと同様のハッシュベースナビゲーションが使用され得る(すなわち、「Fname」のエントリが見つかるまで、「Fname」に取得されたハッシュ値のそれぞれのサブシーケンスが、HDAGのそれぞれのレベルのナビゲーションに使用され得る)。
CNがEに対し十分な領域を有さない場合(例えばEL閾値に既に達した、またはEの挿入により達し得る場合)(同様に構成要素5116にて検出)、CNの親NIアレイリスト内のCNを示すポインタ数が特定され得る。親ノードがCNのポインタを1つのみ有する(または図らずもHDAGのルートノードである)場合(構成要素5122にて検出)、第1種の分割動作(図47に例示されるものと同様)が開始され得る。新規エントリEに対し既にハッシュ値Hvalueが取得されたのに加え、CNリスト内のそれぞれのエントリにおけるオブジェクト名に対し、それぞれのハッシュ値が取得され得る(構成要素5125)。描かれた実施形態において、エントリリストのメンバー及びEを、Pグループに分散するのにハッシュ値が使用され(構成要素5128)、例えばハッシュ値のlog2P最上位ビットが並び替え/分散基準として使用され得る。一例示的実施態様において、Pは2に設定され、そのため単一最上位ビットが使用され得る。それぞれのPグループは、HDAGに追加するそれぞれの新規ノードのエントリリストとして格納され得る(構成要素5131)。P個の新規ノードそれぞれを示す(例えばP個の新規ノードそれぞれの格納アドレスまたは識別子を含む)アレイ要素のうちの約P分の1のアレイ要素を有する新規NIアレイが作成され得る。CNのヘッダーは、CNはELノードではなくNIアレイノードであることを示すように変更され、そして新規NIアレイがCNに書き込まれ得る(構成要素5134)。HDAGのP個の新規ノードのコンテンツ及び変更されたCNは、永続性格納領域に、例えば1つまたは複数の格納サブシステムノードにて、保存され得る。いくつかの実施形態において、HDAGに対する変更のある部分集合または全てを単一の原子動作に合併するために、前述の分散トランザクション技術が使用され得る。別の実施形態において、前述の種類の条件付き書き込みは、HDAGノードのうちの少なくともいくつかに使用され得る。
CNの親ノードからCNを示しているNIアレイ要素の数が複数である場合(同様に構成要素5122にて検出)、CNに対し第2種の分割動作が行われ得る(図51の構成要素「5201へ進む」により示されるように)。図52は、少なくともいくつかの実施形態による、このような第2種のHDAGノード分割を生じる名前空間へのエントリの挿入に応じて実行され得る動作の態様を例示するフロー図である。このような種類の分割は、本明細書において第2種分割と指定され、そして図51において例示される種類の分割は、第1種分割と称され得る。第2種分割において、CNエントリリストのメンバーのうちのいくつかはQ個のHDAGの新規ELノードへ移動され(Qは1以上)、同時にいくつかはCN内に残り、そして親ノードのNIアレイポインタは適宜変更され得る。描かれた実施形態において、Q個のHDAGの新規ノードNN1、NN2、・・・NNQ間及びCN自体における再分散のために、CNエントリリストのサブリストが選択され得る。一実施態様において、Qは1に設定され、エントリリストの約半分(または正確に半分)が再分散の対象となり、一方別の実施態様においては、エントリリストの4分の3が再分散の対象となり得る。サブリストのメンバーごとに、それぞれのハッシュ値が決定され得る(構成要素5204)。サブリストのメンバーをQ+1グループに配置するのにハッシュ値が使用され(構成要素5207)、例えばハッシュ値の最上位ビットのうちのある数が分散基準として使用され得る。
Q個のグループが、それぞれのHDAGの新規ELノードに配置され、一方残りのグループはCN内に保持され得る。CNを示していたCNの親ノード内のNIアレイエントリのうちのいくつかは、新規ノードNN1、・・・、NNQを示すように設定され得る(構成要素5210)。描かれた実施形態において、分割の結果、変更または作成されたHDAGノード(例えばQ個の新規ノード、CN、及びCNの親ノード)は、単一原子動作において、永続性格納領域に書き込まれ得る(構成要素5213)。いくつかの実施形態において、前述の分散トランザクション技術が使用され得る。別の実施形態において、単一原子動作は使用され得ない。例えば、条件付き書き込み技術が、HDAGノードのうちの少なくともいくつかに使用され得る。
いくつかの実施形態において、エントリリストのメンバーが第2種分割で再分散される技術は、図52において例示されるものと異なり得ることに留意されたい。例えば、いくつかの実施形態において、サブリストのメンバーは、Q個の新規ノード間に全て分散され得るように選択され得る。いくつかの実施形態において、サブリストのサイズは、ランダムに選ばれ得る。例えば、所定のHDAGまたは所定のファイルストアにおいて実行される全ての第2種分割が、同じ数の新規ノードを生じ得るとは限らない。いくつかの実施形態において、ランダム性の要素が第1種分割にも導入され得る。例えば、使用されるEL閾値は範囲内でランダムに変更され得る、または新規ノードPの数は範囲からランダムに選択され得る。
図53は、少なくともいくつかの実施形態による、名前空間からエントリの削除に応じて実行され得る動作の態様を例示するフロー図である。構成要素5301に示されるように、分散格納サービスの名前空間から、名前Fnameを有するファイルストアオブジェクトのエントリEを削除する要求が受信され得る。このような要求は、例えばファイルまたはディレクトリを削除するクライアント要求の結果、生成され得る。選択されたハッシュ関数を使用して、それぞれMビットのN個のサブシーケンスに分割可能なビットシーケンスを有するハッシュ値Hvalueが取得され得る(構成要素5304)。
Eを含む削除対象ノードN1を特定するために、名前空間のために生成されたHDAGは、そのルートノードからナビゲートまたはトラバースされ得る(構成要素5307)。HDAGの各レベルにおいて、読み出しまたは検査対象のノードを特定するのに、N個のサブシーケンスのうち連続サブシーケンスが使用され得る。N1のエントリリストが少なくとももう1つのエントリを含む場合(構成要素5310にて検出)、エントリリスト内のEのスロットは単純に未使用または空と示され(構成要素5313)、そして削除動作は完了し得る。いくつかの実施態様において、例えば空でないエントリを早く見つけるために、解放されたエントリはリストの一端へ移動され得る。従って、例えば、長さNのエントリリストが2つの空でないエントリを含む場合、このような一実施態様において、これらの2つの空でないエントリは、リスト内のオフセット0及びオフセット1において検出され、一方でオフセット2、3、・・・、N−1のエントリは空であり得る。いくつかの実施形態において、N1に対する変更は、Eの削除要求と同期的に永続化され、一方で別の実施形態において、N1は、Eの削除要求と非同期的に1つまたは複数のエクステントにおける永続性格納領域に書き込まれ得る。
EがN1のエントリリスト内の最後のエントリである場合(同様に構成要素5310にて検出)、N1の親ノードPNのNIアレイが検査され得る。PNのNIアレイは、N1を示す(例えばN1のアドレスまたは識別子を格納する)1つまたは複数の要素NP1、NP2、・・・、を含み得る。PNのNIアレイが、N1以外のあるノードを示す少なくとも1つの「隣接者」要素NXも含む場合(構成要素5316にて特定)、NXのコンテンツはNP1、NP2、・・・へコピーされ、そのためPNはN1を示すポインタを含まなくなる(構成要素5319)。少なくともいくつかの実施形態において、アレイ要素NP1、NP2、・・・が、同様にまたは代わりに無効と示され得る。
PNのNIアレイがN1以外のノードを示す隣接者要素を含まない場合(同様に構成要素5316にて検出)、描かれた実施形態において、PNは別の方法で変更され得る。構成要素5322に示されるように、PNの種類が、例えばそのヘッダーを変更することで、NIアレイからELへ変更され得る。さらに、PN用に新規のエントリリストが初期化され得る。例えばNIアレイに使用されていたバイトのうちの少なくともいくつかは上書きされ得る。描かれた実施形態において、親ノードPN内に隣接者要素が見つかったか否かに関係なく、削除対象ノードは空または未使用と示され得る(構成要素5325)。例えばPN及びN1といった削除の影響を受けるそれぞれのノードのコンテンツは、格納サブシステムの1つまたは複数のエクステントにおける永続性格納領域に保存され得る。いくつかの実施形態において、少なくとも構成要素5322、5325に示される変更を単一原子動作の一環とするために、前述の種類の分散トランザクションが使用され得る。別の実施形態において、構成要素5319に示される変更も、構成要素5322、5325の変更と共に、単一原子動作または分散トランザクションに合併され得る。少なくとも一実施形態において、それぞれの変更に、条件付き書き込みが使用され得る。
様々な実施形態において、ハッシュベースの名前空間管理技術の様々な態様を特定するために、設定可能パラメータ(例えばファイルシステムレベルで、またはファイル格納サービス全体として定義される)が使用され得る。このような設定可能パラメータは、(a)使用する特定のハッシュ関数(複数可)またはハッシュ関数族、(b)ハッシュ関数により出力されるビットシーケンスの要求される長さ、(c)DAGのそれぞれのレベルをトラバースするために使用する出力されたハッシュ値の様々なサブシーケンスの長さ、(d)各種分割の論理出力数(例えば各種分割において、分割ノードのエントリを割り当てるリストの数)、(e)分割後に各新規ノードの識別子を格納するNIアレイ要素の数(または分数)、(f)各種分割の保有レベル閾値、(g)DAGの最大許容レベル数またはDAGの合計サイズ、以上の任意の組み合わせのため特定され得る。いくつかの実施形態において、パラメータにより追加制約(例えばエクステント配置制約)も特定され得る。例えば、最初のNレベルの全てのHDAGノードは同一のエクステントに格納されるという制約が特定され得る、あるいはどの2つのHDAGノードも同一のエクステントに格納されるべきではないという制約が特定され得る。いくつかの実施形態において、これらのパラメータのうちの1つまたは複数は、収集されたパフォーマンス結果に基づいて、変更され得る。例えば、特定のファイルシステムに対する所定のパラメータの集合では、名前空間関連パフォーマンスが不十分である場合、同一のファイルシステム(オンザフライで、または再構成ダウンタイム期間中に、新規HDAGを作成することを伴い得る)のために、または後に作成されるファイルシステムのために、格納サービスはパラメータを調整し得る。
クライアントセッションメタデータ管理
少なくともいくつかの実施形態において、分散格納サービスは、NFS等の1つまたは複数のステートフルまたはセッション指向のファイルシステムプロトコルに対応し得る。いくつかのこのようなプロトコルにおいて、サービスのクライアントコンポーネント(例えばクライアント側実行プラットフォームにおいて稼働しているデーモン)は通常、サーバコンポーネント(例えばサーバ側実行プラットフォームにおいて稼働している別のデーモン)との1つまたは複数の通信を介してセッションを作成し得る。当該セッションは関連有効時間を有し、その間サービスはある種類のクライアント要求に対する応答を早めることが可能となり、そして当該セッションはいくつかの条件の下、延長または更新することが可能である。セッション中、クライアントは、例えばファイル等のオブジェクトに対するロックを確保し、そしてロックは、セッションが終わるか、クライアントがロックを解放するまで、有効なままであり得る。セッション中、クライアントからのオブジェクトに対する後続アクセスは、追加ロックを要し得ない。いくつかのファイルシステムプロトコルによれば、このようなサーバからクライアントに対するファイル(または別の種類のファイルストアオブジェクト)のステート制御の時間制限付き授与は、「リース」と称され得る。単一リースは、複数のファイルストアオブジェクトに対するロックを伴い、そしてクライアントにより明示的または非明示的に更新され得る。少なくともいくつかの実施形態において、セッション指向プロトコルは、セッションステート情報(例えばクライアントのリースに対応付けられたロックされたファイルまたはディレクトリのリスト、リースの有効時間等)が「ファイルサーバ」により保持されることを要求し得る。分散ファイル格納サービスにおいて、プロトコルが命令するファイルサーバの責務は、例えばアクセスサブシステム、メタデータサブシステム、及び/または格納サブシステム等、前述の様々なサブシステム間に分散され得る。プロトコルが命令するセッション関連機能のうち、異なる実施形態の異なるサブシステムにおいて実行されるべき特定部分を決定する際、測定可能応答時間と処理量目標、メタデータ耐久性要件等の様々な要素が考慮され得る。
図54は、少なくともいくつかの実施形態による、分散格納サービスにおけるセッション指向のファイルシステムプロトコルのために保持され得るメタデータの二局面を例示する。所定のクライアントセッション中に開かれている及び/またはロックされている全てのオブジェクトに関する情報は、ある種の動作のために(例えばセッションの全てのロックを解放するよう要求し得るリース期限切れのために)、格納サービスにより効率的にアクセスされる必要があり得る。メタデータ情報のこの第1局面は、クライアントセッションCS1に関するリース関連動作のためにアクセスされ得るメタデータ集合5401のコンテンツ等、示される概念的メタデータテーブル5401における行により表される。メタデータ集合5401は、例えば、ロックステートインジケータ(LSI)(NFS「ステートID」等)を含み、複数のファイル、ディレクトリ、リンク等に対するロックステートインジケータの使用方法は、さらに詳しく後述される。示される実施例において、クライアントセッションCS1に関しては、書き込みロックステートインジケータWロックがディレクトリD1に示され、そしてRロック(読み出しロックインジケータ)がファイルF1、FPに示される。少なくともいくつかの実施態様において、ロックはファイルレベルで実行され、ディレクトリレベルでは実行され得ないことに留意されたい。
第2局面は、ファイルF1に関するメタデータ集合5420等、任意の所定オブジェクトに対するファイルシステムプロトコルに従って保持される必要のあるセッション関連情報の集合である。このメタデータの第2集合(同様にクライアントセッションCS1のRロック等のロックステートインジケータを含み得る)は、例えばオブジェクトをロックする新規の要求が受信された時、またはオブジェクトのステートまたは属性を見る要求が受信された時、効率的にアクセスされる必要があり得る。数百万のオブジェクト(そのうちの多数は複数のエクステントにわたって少なくとも潜在的に分散される)を格納し、多数の異なる種類の対応されているロックモード及び/またはリースモードの数万の同時クライアントセッションを有し得るファイルストアにおいて、図54において例示される種類のセッション関連情報全てを単一集中場所に格納することは、実践的または効率的ではあり得ない。図54は従って、様々な実施形態において、効率的にアクセスされる必要があり得る少なくとも2つの種類のセッション関連メタデータの概念的観点を提供し、いずれの特定の実行手法を意味する意図はない。
特定のファイルシステムプロトコルが要求するセッション指向メタデータ5401に加えて、他の内部メタデータ(前述のHDAGを含む名前管理メタデータ、前述の論理ブロック対物理ページマッピング等)も保持され得ることに留意されたい。少なくともいくつかの実施形態において、異なる種類のメタデータがメタデータサブシステムの独立サブコンポーネントにより管理され得る。例えばストライピングまたは論理ブロック対物理ページマッピングの管理が、図54において例示される種類のクライアントセッション情報の管理とは無関係に実行され得る。さらに分散格納サービスは、少なくとも一実施形態において、複数のステートフルまたはセッション指向のファイルシステムプロトコルに対応し、それぞれのステートフルまたはセッション指向のファイルシステムプロトコルは、それぞれのセッションメタデータオブジェクトの種類及びセマンティックを定義し得る。例えば、NFSはそのメタデータオブジェクトの集合及び関係を特定し得る、SMBは別の集合を特定し得る、等が挙げられる。このようなシナリオにおいて、それぞれの異なるプロトコルに対応付けられたファイルシステムのために、セッション指向メタデータ5401の個別集合が保持され得る。
少なくともいくつかの実施形態において、クライアント(プロバイダネットワークの演算インスタンスにおける1つまたは複数のプロセスを使用して実行されるNFSクライアント等)は、分散格納サービスに対しファイルシステムプロトコルに従ってフォーマットされたメッセージを送信することで、クライアントセッションの確立を要求し得る。図55は、少なくともいくつかの実施形態による、分散格納サービスのサブコンポーネント間におけるクライアントセッションのメタデータ関連インタラクションの例を示す。ファイルシステムクライアント5501は、例えばクライアントが使用しているファイルシステムのエンドポイントとしてIPアドレスが公開または公表されているアクセスサブシステムノードといった、アクセスサブシステムノード5512に対し、セッション要求5550を送信し得る。使用されているファイルシステムプロトコルがNFSであるいくつかの実施態様において、例えば、セッション要求は、「クライアントID設定」要求を有し、かつクライアントの識別(クライアントにより生成)と「ベリファイア」と呼ばれる一意的で繰り返しのないオブジェクト(同様にクライアントにより生成)とを含み得る。いくつかのこのような実施態様において、セッションが最初に開始されてからクライアントはリブートされたか否かを特定するために、ベリファイアがサービスにより使用され得る。従って、別のベリファイアを有する第2のクライアントID設定要求の送信により、サービスはクライアントの前のセッション/リースを終了することが可能になり得る。セッション要求に応じて、使用されているファイルシステムプロトコルは、セッション識別子5563(例えばNFS「クライアントID」オブジェクト)がサービスにより最終的に要求者に提供されることを要求し得る(エラー状態に遭遇しない限り)。
少なくともいくつかの実施形態において、分散格納サービスのメタデータサブシステムは、クライアントセッションステート情報を管理する責任を担い得る。例えば、メタデータサブシステムは、クライアントセッションステート情報が論理ブロックにマッピングされる方法を、これら論理ブロックのエクステントに対するマッピングと同様に、制御し得る。前述のように、エクステント自体は、いくつかの実施形態においては格納サブシステムノードに格納され、そして別の実施形態においては、メタデータサブシステムノードに格納され得る。いくつかの実施形態において、アクセスサブシステムノードは、セッション関連メタデータを一時的にキャッシュし得る一方、メタデータサブシステムは、分散格納サービス内のクライアントセッション情報の権限を有する発信元として指定され得る。
描かれた実施形態において、クライアントセッション要求を受信した際、アクセスサブシステムノード5512は、セッション識別子がメタデータサブシステムにより生成されることを求めるセッション初期化要求5553を、選択されたメタデータノード5522へ送信し得る。少なくともいくつかの実施形態において、クライアントにより提供されるパラメータ(例えばクライアントの識別子及び/またはベリファイア)は、アクセスノードによりメタデータノードへ伝達され得る。メタデータノード5522は、新規の論理ブロックLB1を生成し、クライアントのセッションメタデータの少なくとも一部を格納する。描かれた実施形態において、LB1は例えば、メタデータによりクライアントセッションのために生成されるセッション識別子5563と、セッションのリースタイムアウト設定5544と、「責任アクセスノード」(RAN)フィールド5546とを含み得る。RANフィールドは、特定のアクセスノード5512を特定し、後続のセッション中のクライアント要求は、当該アクセスノード5512を介して、バックエンドサブシステム(例えばメタデータサブシステムまたは格納サブシステム)において受信されると見込まれる。描かれた実施形態において、矢印5557により示されるように、メタデータノード5522は、セッションメタデータの論理ブロックのコンテンツを、選択されたエクステント5580の1つまたは複数のページに格納する。いくつかの実施態様において、メタデータノード5522は、格納サブシステムに対し論理ブロックコンテンツを格納する要求を送り、一方他の実施形態において、メタデータノード5522は、メタデータサブシステム自身が管理するエクステントに当該コンテンツを書き込み得る。
少なくともいくつかの実施形態によれば、クライアントのために選択または生成されるセッション識別子(例えばNFSクライアントID)は、論理ブロックの格納アドレスに少なくとも一部基づき得る。例えばセッション識別子は、読み出し動作において、クライアントセッションメタデータを早く検索するためのパラメータとして後で使用され得る。例えば、一実施態様において、各論理ブロックに128ビットの論理格納アドレスが割り当てられ、そしてLB1に使用される128ビットの論理アドレスは、セッション識別子5563としてクライアントに提供され得る、またはセッション識別子5563内に含まれ得る、もしくは符号化され得る。別の実施形態において、セッション識別子は、セッションメタデータ要素を格納するために使用されている物理ブロック(複数可)のうちの少なくとも1つの物理格納アドレスに少なくとも一部基づき得る。メタデータノード5522は、セッション初期化要求5553に対する応答5560を送信し得る。描かれた実施形態において、応答5560は、アクセスノード5512のキャッシュ5578にキャッシュされ、かつ要求クライアント5502に提供され得るセッション識別子5563を含み得る。いくつかの実施形態において、ファイルシステムのセッション確立プロトコルは、1つまたは複数の追加インタラクションを要求し得る。例えば、セッション識別子を含む確認要求メッセージがクライアント5502により格納サービスへ送信され、それからクライアントはセッション識別子の有効性を確認する応答を受信し得る。少なくともいくつかの実施形態において、ファイルオープン、クローズ、ロック要求等のクライアントからの後続要求は、セッション識別子5563を含むように要求され得る。このような後者の要求を受信した際、アクセスノード5512は、キャッシュ5578を使用してクライアントのセッション識別子を有効化し得る。セッション識別子がキャッシュにない場合、アクセスノードはメタデータサブシステムに対しセッションに関するクエリを送り、セッションがまだ開いている場合は(またはクエリに応じてメタデータサブシステムにより新たなセッションがインスタンス化される場合は)、要求された動作のみを続行し得る。
前に示されたように、いくつかの実施形態において、NFS等のファイルシステムプロトコルは、ファイルシステムオブジェクトに対する同時アクセスを効率的に管理するリース技術を実行し得る。いくつかのこのような実施形態において、クライアントセッションに対応付けられるリースは、クライアントに対するファイルシステムの1つまたは複数のファイル、ディレクトリ、リンク、または他のクライアントアクセス可能オブジェクトのステート制御の時間制限付き授与を表し得る。少なくとも一実施形態において、格納サービスによる特定のファイルシステムオブジェクトのロックステートを表すのに、本明細書においてロックステートインジケータと称される別のメタデータオブジェクトが使用され得る。例えば、NFSプロトコルの少なくともいくつかの実施態様において、ロックステートインジケータは「ステートID」と称され得る。ファイルF1等のオブジェクトのロックステートインジケータは、少なくともいくつかの実施形態において、所定のクライアントセッションCSに照らして定義され得る。従って、例えば、クライアントCl1がクライアントセッションCS1の一環でファイルF1をロックすると、CS1に特有のF1のロックステートインジケータLSI1が作成され得る。そしてその後、別のクライアントCl2がクライアントセッションCS2の一環でファイルF1をロックすると、別のロックステートインジケータLSI1が格納サービスにより生成され得る。少なくともいくつかの実施形態において、LSIは、該当クライアントセッションのセッション識別子を示すポインタを組み込み得る、または含み得る。例えば、一実施態様において、NFS対応ステートIDは、該当クライアントIDを示すポインタ(または該当クライアントIDの実際の値)を含み得る。各オープンクライアントセッションは、いくつかの実施形態において、対応リースタイムアウト時間を有し、当該対応リースタイムアウト時間の終わりには、セッションの全てのLSIに対応付けられたロックが解放され得る。いくつかの実施形態において、特定のファイルストアオブジェクトはクライアントによるアクセスのため現在開いた状態であることを示すのに、オープンステートインジケータ(LSIと同様)が使用され得る。いくつかの実施態様において、ファイルストアオブジェクトのオープンステート及びロックステートの開示は、単一メタデータ構造(例えばオープン/ロックステートインジケータ)を使用して表され得る。
リースを実行する少なくともいくつかのファイルシステムプロトコルのセマンティックによれば、1つまたは複数のリース更新機構が対応され得る。例えば、動作種類の集合が定義され、これによりオープンセッション中のクライアントによるその動作種類集合の動作の要求は、自動的にリースを、ある特定されたリース更新期間に更新することになり得る。このような実施形態において、クライアントがファイルF1を読む要求を出した場合、例えば、リースが時間T1に失効するように設定されたセッションCS1中に、リースはさらに後の時間T2に延長され得る。いくつかの実施形態において、明示的にリースを更新するAPIが、同様にまたは代わりに対応され得る。自動的(または明示的)リース更新に至る種類の要求が、特定の期間に全く受信されなかった場合、リースは失効し得る。いくつかの実施形態において、リース失効の際、対応ロック(LSIにより示される)は格納サービスにより解放され、セッション中に開かれ、かつリース失効時点以前に閉じられていなかったファイルシステムオブジェクトが閉じられ、そして少なくともいくつかの実施形態において、メタデータサブシステムの永続性レポジトリから、及び/またはアクセスサブシステムのキャッシュから、セッションメタデータが削除され得る。
図56は、少なくともいくつかの実施形態による、分散格納サービスにおけるクライアントセッションのリース更新の代替的手法を例示する。描かれた実施形態において、自動更新動作リスト5678は、クライアントにより使用されているファイルシステムプロトコルにより特定され得る。自動更新動作リスト5678は、現在開かれているセッション中に要求されると、セッションに対応付けられたリース(複数可)の自動更新に至る動作種類を示し得る。例えば、いくつかのNFS実施態様において、自動更新動作リストは、(数ある中でも)読み出し、書き込み、オープン、ロック、ロック解除、及び属性設定動作を含み得る。いくつかの実施態様において、リースの明示的更新に関する更新動作も、動作リスト5678に含まれ得る。
描かれた実施形態において、アクセスサブシステムノード5512は、ファイルストア動作要求5650を受信し得る。動作要求が自動更新動作リストに示される種類の動作である(またはクライアントのリースを更新する明示的要求である)場合、描かれた実施形態において、アクセスノード5612は2つの選択肢を有し得る。アクセスノードは、即時すなわち非バッチリース更新要求5653をメタデータノード5522に送り得るか、またはある設定可能な時間が経つまでリース更新を延期し、バッチリース更新要求5654をメタデータノード5522に送り得る。バッチリース更新要求は、例えば自動更新動作要求または明示的更新要求が時間窓内に受信された複数のクライアントセッションのセッション識別子を含み得る。少なくともいくつかの実施形態において、リース更新要求のバッチ化は、メタデータノード5522及び/またはアクセスノード5512における更新関連オーバーヘッド(例えば通信オーバーヘッド、処理オーバーヘッド、またはその両方)を軽減するのに役立ち得る。
いくつかの実施形態において、クライアントの動作要求5650に応じて所定のリース更新はすぐに送信されるべきか否か、またはクライアントのリース更新に延期バッチ手法は使用されるべきか否かを決定するために、設定可能即時更新閾値5688がアクセスノードにより使用され得る。例えば、即時更新閾値がX秒に設定され、かつクライアントのリースはアクセスノードが動作要求5650を受信した時間からX秒内に失効するように設定されている場合、非バッチすなわち即時リース更新要求5653が、描かれた実施形態において生成され得る。そうでなく、リースが失効するように設定された時間までX秒を超える時間が残っている場合、クライアントの更新要求の表現はバッチ更新バッファ5679に格納され、そしてある数の更新がバッチリース更新要求5654としてメタデータノード5522へ後で送信され得る。描かれた実施形態において、アクセスノードは、セッションメタデータキャッシュ5578内に、アクセスノードが責任を持つ様々なクライアントセッションのリース有効時間をキャッシュしており、キャッシュコンテンツを使用して、即時更新要求を送信するか、バッチ更新要求を送信するかに関して決定し得る。リース更新とは無関係に、アクセスノードは、クライアントのために要求された動作を開始し(例えばキャッシュされたクライアントセッションメタデータ、及び/またはキャッシュされた論理ブロック対物理ページマッピングを使用して)、適切なファイルストア動作応答5663をクライアント5502に提供し得る。
所望するパフォーマンスレベルで様々な種類のファイルストア動作を実行するために、ファイルストアオブジェクトのロックステート情報の格納に関するいくつかの手法のうちのいずれかが採用され得る。図57a及び57bは、少なくともいくつかの実施形態による、分散格納サービスにおけるセッション指向のファイルシステムプロトコルのためのロックステート管理の代替的手法を例示する。図57aに例示される一手法において、特定ファイルシステムのロックステートインジケータ5705は、複数のエクステント間に分散され得る。当手法のいくつかの実施態様において、様々なファイルストアオブジェクトのロック及び/またはオープンステート情報を含むLSIは、例えば対応名前空間DFSディレクトリエントリ(名前空間エントリ)、DFS‐Iノード、及び/またはファイルシステムのオブジェクトの論理ブロック対物理ページマッピングといった、エントリのために保持される他の種類のメタデータと一緒に格納され得る。従って、例えば、ルートディレクトリのLSI5705Aはルートディレクトリの他のメタデータ5704Aと一緒に特定のエクステントの1つまたは複数の論理ブロックに格納され得る、ディレクトリD1のLSI5705BはディレクトリD1の他のメタデータ5704Bと一緒に別のエクステントに格納され得る、等が挙げられる。同様に、それぞれのオープン/ロックステート情報エントリ5705C、5705D、5705E、5705Fはそれぞれ、ディレクトリD2、ディレクトリD3、ファイルF1、ファイルF2のそれぞれの論理ブロックに格納され得る。図57bに例示される第2のアプローチにおいて、所定のファイルシステムの全てのオブジェクトに関するオープン/ロックステート情報は、例えば単一メタデータエクステント5754内に、統合された形で格納され得る。例えばセッション無効化動作のため、所定のクライアントセッションに関する全てのLSIエントリを検索する時、図57aに例示される分散手法が使用される場合は複数のエクステントがアクセスされ、一方図57bに例示される統合手法が使用される場合は1つまたは少数のエクステントのみが要求され得る。しかしながら、ある状況下では、統合手法は、例えば保有ファイルストアオブジェクトが変わりLSIが削除され得るため、及び/または所定のファイルシステムのロック/オープンステート情報に最終的に必要となる格納量は、ファイルシステムが作成され、かつそのLSIのエクステントが取得された時に予測することが容易ではあり得ないため、分散手法よりも劣ったリソース使用という結果をもたらし得る。
図58は、少なくともいくつかの実施形態による、分散格納サービスにおいて実行され得るクライアントセッションメタデータ管理動作の態様を例示するフロー図である。構成要素5801に示されるように、クライアントからクライアントセッションを開始または作成する要求が、NFSまたはSMB等のステートフルまたはセッション指向のファイルシステムプロトコルに対応する分散格納サービスのアクセスサブシステムノードにおいて受信され得る。いくつかの実施態様において、NFSクライアントID設定APIと同様の明示的セッション初期化を要求するAPIが、クライアントにより使用され得る。別の実施態様において、セッションを確立する要求は非明示的であり、例えばクライアントにより呼び出されたオープン()APIに対してセッションが既に存在しない場合に、セッションが初期化され得る。いくつかの実施態様において、セッション要求は、特定クライアントの識別(例えば1つまたは複数のクライアントプロセスが実行されているホストのIPアドレス及び/またはホスト名に由来する値)、並びに一意的使い捨てベリファイア値を含み得る。クライアントプロセスが終了し、再開される必要がある場合、またはクライアントプロセスが実行されるホストまたは演算インスタンスがリブートされる場合、少なくともいくつかの実施形態において、新たなセッションが初期化される必要があり、そして対応セッション初期化要求において、別のベリファイアが格納サービスに提供され得る。
描かれた実施形態において、分散格納サービスのメタデータサブシステムは、1つまたは複数のエクステントにおける永続性格納領域にクライアントセッション情報を格納する責任を担い、一方アクセスサブシステムは、例えばアクセスノードの揮発性メモリ及び/またはローカル永続性格納領域にセッションステート情報をキャッシュするように構成され得る。セッション要求を受信することに応じて、アクセスノードはセッション識別子の要求を、例えば内部バージョンのクライアントのセッション要求として、選択されたメタデータノードへ送信し得る(構成要素5804)。いくつかの実施形態において、メタデータノードは、クライアントの識別情報に基づいて選択され得る。例えば、一実施形態において、クライアントCl1、Cl2のために確立するそれぞれのクライアントセッション用に、2つの異なるメタデータノードMN1、MN2が選択され得る。選択されたメタデータノードは、例えばセッションのリース設定、クライアントの識別、クライアントセッションの責任アクセスノードの識別等を含む格納するクライアントセッションメタデータの様々な要素に、論理ブロック(前述のマッピング技術のうちの1つを使用して、メタデータエクステントにおける複数の物理ページにマッピングされる)を割り当て得る(構成要素5807)。少なくともいくつかの実施形態において、セッションメタデータが格納されるアドレスに少なくとも一部基づいて、セッション識別子(例えばNFSクライアントID)が新たなセッションのために決定され得る。例えば、論理ブロックアドレスまたは物理ページアドレスは、セッション識別子内に組み込まれ得る、またはセッション識別子として使用され得る。描かれた実施形態において、セッション識別子及び初期リース設定が、メタデータノードからアクセスノードへ提供され得る(構成要素5810)。いくつかの実施形態において、セッション識別子のみがアクセスノードへ提供され、そしてアクセスノードは、セッション識別子の少なくとも一部を読み出し要求におけるパラメータとして使用して、格納サブシステムからセッションメタデータの他の要素を取得することが可能であり得る。
セッション識別子及びリース情報は、アクセスノードによりセッションメタデータキャッシュにキャッシュされ、そしてセッション識別子がクライアントへ返され得る(構成要素5813)。クライアントは、セッション識別子をパラメータとして、後続ファイルストア動作要求に、例えばファイルシステムのファイルまたはディレクトリに対するオープン()、読み出し()、書き込み()、属性取得()、またはクローズ()コールに、含め得る。アクセスノードがこのような動作要求を受信すると、例えばクライアントのセッションがまだ開いているかを確かめるために、自身のローカルキャッシュ内においてセッション情報を検索し得る。
描かれた実施形態において、使用されているファイルシステムプロトコルの同時処理管理技術に従って、例えばファイルに対する書き込み動作といったいくつかの種類の動作には、ロックが要求され得る。ファイルストアオブジェクトF1に対する書き込みまたは読み出し等、所定のファイルシステム動作要求(セッション識別子を含む)を受信すると、アクセスノードは、このようなロックが必要か否かを特定し得る(構成要素5816)。ロックが必要であり、かつアクセスノードに既にキャッシュされていない場合、対応内部バージョンの動作要求が、アクセスノードからメタデータノードへ送信され得る(構成要素5819)。メタデータノードは、競合するロックステートインジケータが既に存在するか(例えばF1は別のクライアントのために既にロックされているため)否かを特定し得る。このような競合ロックが見つかった場合(構成要素5820にて特定)、例えば対象オブジェクトは既にロックされていることを示すエラーメッセージを送信することで、クライアントのファイルシステム動作要求は拒否され得る(構成要素5821)。競合が見つからなかった場合、メタデータノードは、例えば対応ロックステートインジケータを含むF1のステート情報を格納するのに使用する論理ブロックのための永続性格納場所を特定し得る(構成要素5822)。例えば、いくつかの実施形態において、F1に関して保存するロックステートインジケータ及び/または他のステートメタデータに領域を割り当てるために、図57aまたは57bにおいて例示される技術のうちの1つが使用され得る。ステート情報は永続性格納場所に格納され(構成要素5825)、そしてロックステートインジケータを含むステートメタデータの少なくとも一部がアクセスノードへ提供され得る。
要求された動作(例えばF1に対する読み出しまたは書き込み)は、例えばアクセスノードまたはメタデータノードによる格納サブシステムに対する内部I/O要求の結果完了し、そして対応応答がクライアントへ送信され得る。アクセスノードは、ロックステートインジケータを自身のセッションメタデータキャッシュに追加し、セッション中のクライアントからの後続要求に応答するために、例えば後続要求のうちの少なくともいくつかに関してメタデータサブシステムとのインタラクションを要求することなく、キャッシュされたロックステートインジケータ、キャッシュされたリース設定、及び/またはキャッシュされたセッション識別子を使用し得る(構成要素5828)。描かれた実施形態において、セッションが終了した時と場合、そのメタデータは、アクセスノードのキャッシュと、メタデータノードの要求で割り当てられた永続性格納場所との両方から削除され得る(構成要素5831)。いくつかのファイルシステムプロトコルに従って、セッション関連メタデータの少なくとも一部は、例えばファイル格納サービスを利用するアプリケーションが実行されるホストにてインスタンス化されたデーモン等、サービスのクライアント側コンポーネントにも提供及び/またはキャッシュされ得ることに留意されたい。
図59は、少なくともいくつかの実施形態による、分散格納サービスにおいて実行され得るクライアントセッションリースの更新動作の態様を例示するフロー図である。前述のように、リースは、格納サービスからクライアントに対する、ファイル、ディレクトリ、または他のクライアントアクセス可能格納オブジェクトの集合のステート制御の時間制限付き授与を表し得る。構成要素5901に示されるように、クライアントセッションCS1中に、クライアントCl1から、自動リース更新に至る動作のカテゴリに属するファイルストア動作要求OR1が、格納サービスのアクセスノードにて受信され得る。例えば、NFS等のセッション指向ファイルシステムの特定のファイルに対する読み出し、書き込み、オープン、またはクローズ要求が受信され得る。様々な実施形態において、異なるファイルシステムプロトコルが、それぞれのリース更新動作の集合を定義し得る。少なくともいくつかの実施形態において、図59において例示される残りの動作も、明示的リース更新命令に応じて実行され得る。要求は、アクセスノードのセッションメタデータキャッシュにおけるメタデータレコードのインデックス値として利用可能であり得るクライアントのセッション識別子(例えばNFSクライアントID)を含み得る。
アクセスノードは、例えばセッションメタデータキャッシュ内において、クライアントセッションのリース情報(例えばリースが失効するように設定された時間)を検索し得る(構成要素5904)。リースがある閾値時間間隔T内に失効する予定である場合(構成要素5907にて特定)、アクセスノードはメタデータノードに対し、CS1の即時リース更新要求を送信し得る(構成要素5913)。しかしながら、リースが閾値時間間隔Tの後に失効する予定である場合、CS1のリース更新要求は、メタデータノードへバッチで送信される保留リース更新要求のバッファ集合へ追加され得る。格納動作が実行されることを動作要求OR1が要求する場合(例えばアクセスノードに既にキャッシュされたデータまたはメタデータでは当該要求が満たされ得ない場合)、即時更新要求が送信されたか否かに関係なく、格納動作がアクセスノードにより要求され得る(構成要素5916)。CS1のリース更新要求がバッファされるシナリオにおいて、バッファされたリース更新要求のうちの1つまたは複数は、動作要求OR1とは非同期的に、メタデータノードへ送信され得る(構成要素5919)。
リース更新要求のバッファ技術が実行される少なくともいくつかの実施形態において、メタデータノードの要求で格納された永続性バージョンのセッションメタデータに設定される有効性タイムアウトとは異なる有効性タイムアウトが、アクセスノードにキャッシュされたバージョンのセッションメタデータ(例えばセッション識別子及びセッションのLSIを含む)に対し、構成または設定され得る。例えば、一実施態様において、ファイルシステムプロトコル設定に従ってリースタイムアウトが90秒に設定された場合、メタデータサブシステムにおける永続性セッションメタデータレコードには120秒の有効性タイムアウトが使用され、一方アクセスノードのキャッシュにおける対応レコードには30秒の有効性タイムアウト(例えばメタデータサブシステムの有効性タイムアウトとプロトコルのリースタイムアウトとの差に少なくとも一部基づく)が設定され得る。このような異なるタイムアウトの組み合わせを使用することで、クライアントが自身のリースの有益性を早く失うことなく、アクセスノードにおける少なくともいくつかの種類の潜在的障害または遅延が調整され得る。例えば、前に紹介された例示的タイムアウト設定では、いずれの事例においてもアクセスノードはメタデータサブシステムから30秒ごとに1度そのキャッシュしたリース情報をリフレッシュするように要求され、一方クライアントの実際のリースは90秒間有効であるため、数秒のバッチ遅延(例えば代替ノードへのアクセスノードのファイルオーバーにより生じる30秒未満の遅延)が、プロトコルリースセマンティックの任意の侵害を生じるとは通常予想されない。リース更新動作はかなり頻繁に起こることが見込まれ得るため、このような実施態様において、アクセスノードのより短い有効性タイムアウトがアクセスノードとメタデータサブシステム間の追加トラフィックを生じる確率は、極めて低く保持され得る。一般に読み出し‐変更‐書き込みシーケンスにおける条件付き書き込み、分散トランザクション、及び/または複製ステートマシンの使用等の前述の技術のうちの少なくともいくつかも、クライアントセッション関連メタデータを管理するのに同様に使用され得ることに留意されたい。例えば、一実施態様において、クライアントセッションリースが失効し、サービスの様々なノード間に分散された複数のセッション関連ロックステートインジケータが削除される必要がある場合、分散トランザクションが使用され得る。
試行回数を利用する接続分散
数千のノードを含むと見込まれ、かつ数万または数十万の同時クライアント要求を処理すると予想されるいくつかの分散格納システムにおいて、目的とするパフォーマンス及びリソース使用目標を達成するためには、クライアント作業負荷の負荷分散は不可欠であり得る。少なくともいくつかのプロバイダネットワーク環境において、負荷分散ノードの集合は、様々なサービスとサービスの利用を所望するクライアント間の仲介として確立され得る。いくつかの実施形態において、このような中間負荷分散層が、クライアントデバイスと分散格納サービスのアクセスサブシステムの間に確立され得る。クライアントのために確立された分散格納サービスへのネットワーク接続(NFSマウント接続等)は、通常かなり長く続き、結果として、ユーザセッションが通常短い環境(例えばいくつかの種類のウェブサーバ環境)の場合よりも、作業負荷分散の問題がより複雑になり得る。例えば特定のクライアントのための接続を確立するために前に行われ不成功に終わった試行の数を考慮する後述の接続分散技術を含む多数の異なる技術が、分散格納サービスのアクセスノードの作業負荷レベルを管理するのに使用され得る。いくつかの実施形態において、同様に後述されるように、特定の作業負荷条件の下、接続はアクセスノードにより自発的に終了され得る。
図60は、少なくともいくつかの実施形態による、分散格納サービスのために負荷分散層が構成されたシステムを例示する。描かれた実施形態において、負荷分散層6090は、プロバイダネットワーク6002のリソースを使用して実装されたノード6070A、6070B、6070C等の複数の負荷分散ノード(LBN)6070を含む。分散格納サブシステムのアクセスサブシステム6010は、アクセスノード(AN)6012A、6012B、6012Cを含むANピアグループ6060Aと、AN6012K、6012L、6012Mを含むANピアグループ6060B等、複数のアクセスノード(AN)ピアグループ6060を有する。さらに詳しく後述されるように、少なくともいくつかの実施形態において、ANピアグループのメンバーは、接続再分散動作のために、お互い協働し合い得る。異なる実施形態において、ANピアグループ6060のメンバーは、格納サービスの複数のアクセスサブシステムノードの中から、様々な基準の任意の組み合わせに基づいて選択され得る。例えば、アクセスサブシステムの可用性要件(例えば単一限局性電源異常または他のインフラストラクチャ機能停止が、ANグループの全てのメンバーにおいて障害を生じないという要件)、レイテンシ要件(例えばグループの異なるメンバーが同一レベルのレイテンシに対応可能であるという要件)、パフォーマンス能力要件(ANピアグループの集合的に処理可能な合計処理量が、ある所望最小処理量を超えるという要件)に基づいて、当該選択が行われ得る。いくつかの実施態様において、ANピアグループは、単一ラックに搭載されたハードウェアサーバ上に全て実装された複数のアクセスノードを含み得る。別の実施態様において、ANピアグループの境界は、ラックの教会と一致し得ない。その代わりに、共有ネットワークアドレスのプレフィックス、障害許容力、または処理されているファイルストアの種類/数等の他の要素が、ピアグループを定義するのに使用され得る。
少なくともいくつかの実施形態において、プロトコルのTCP/IP(伝送制御プロトコル/インターネットプロトコル)族は、クライアント180と格納サービスとの間の通信に使用され得る。クライアント180は、格納サービスにアクセスするためのエンドポイントとして公開されているネットワークアドレス(例えば仮想IPアドレス)を有するLBN6070に対し、接続確立要求を送信し得る。異なる実施形態において、様々な種類の物理または仮想ネットワーク6022が、クライアントにより使用され得る。一実施態様において、前述のように、一部または全てのクライアント(隔離仮想ネットワークの一部として構成された演算インスタンス等)は、プロバイダネットワーク内のホストにおいてインスタンス化され、従って内部ネットワークを使用して負荷分散ノードに接続し得る。少なくとも一実施形態において、負荷分散ノード及び格納サービスのクライアントは両方とも、同じホスト上で実行され得る(例えば個別の仮想マシンとして)。その場合、ホスト外ネットワーク接続は要求され得ない。別の実施形態において、インターネットの一部等、プロバイダネットワーク6002の外部のネットワークの一部が使用され得る。いくつかの実施形態において、複数のLBNは、格納サービスに対応付けられる単一IPアドレスに対するトラフィックに応じるように構成され得る。一実施態様において、特定のLBN6070はまずクライアントの接続確立要求を仮に受諾し、それからLBN6070は、プロバイダネットワーク6002のネットワーク機構6024(例えばL3ネットワーク)を介してアクセスノード6012へ対応内部接続を確立するように試み得る。少なくともいくつかの実施形態において、後述のように、所定のアクセスノード6012は、特定の作業負荷条件の下、LBNが出した内部接続要求を拒否し、そしてLBNは結果的に内部接続の確立に協力的な別のアクセスノード6012を探すように試み得る。いくつかの実施形態において、アクセスノードがLBNの要求の受諾または拒否に使用する特定の基準は、LBNが既に行い不成功に終わった試行の数に依存し得る。例えば、不成功の試行の数が大きくなるにつれ基準は緩和され得るため、接続確立の確率は、試行回数と共に増大し得る。
描かれた実施形態において、各AN6012は、ローカル負荷分散モジュール(LLBM)6017(例えばLLBM6017A、6017B、6017C、6017K、6017L、6017M)と、アクセスマネジャー(AM)6015(例えばAM6015A、6015B、6015C、6015K、6015L、6015M)の2つのサブコンポーネントを有する。接続要求が受諾された後、いくつかの実施形態において、LLBMは、ネットワーク機構6024を通じて、クライアントのためにLBNが送信するカプセル化されたTCPパケットを受信する責任を担い得る。様々な実施態様において、LBNは別のプロトコル(例えばユーザデータグラムプロトコル(UDP)またはプロバイダネットワークで内部使用されるあるプロプライエタリプロトコル)を使用して、またはTCP自体を使用して、クライアントのTCPパケットをカプセル化し得る。例えば、クライアントのTCPパケット(そのヘッダーを含む)は、LBNとLLBM間の転送処理用のLBNのTCPパケット内に含まれ得る。LLBMは、ローカルAMに対応付けられたTCP処理スタックへパケットを渡す前に、パケットを解凍またはカプセル除去し得る。いくつかの実施態様において、LLBMは、TCPシーケンス番号等の1つまたは複数のクライアントパケットヘッダーのコンテンツを、TCP処理スタックへ転送する前に変更し得る。少なくともいくつかの実施形態において、LBNとLLBMの組み合わせによるクライアントパケットの編集(例えばカプセル化/解凍、ヘッダー変更等)により、まるでパケットが、LBN及びLLBMを介してではなく、クライアント180に対し直接確立されたTCP接続上で受信されたかのように、TCP処理スタックには現れ得る。AM6015は、例えばメタデータのキャッシュ化、メタデータサブシステム120及び/または格納サブシステム130とのインタラクションの管理等を含む格納サービスフロントエンド論理を実行し得る。さらに、いくつかの実施形態において、AM6015は、追加接続の受諾に関する決定に使用可能なCPUメトリクス、ネットワークメトリクス、メモリメトリクス等、ANの様々なリソースのローカル作業負荷メトリクスの集合を収集し得る。一実施形態において、ピアグループ6060の異なるピアのAMは、さらに詳しく後述されるように、それぞれの作業負荷レベルに関して相互に問い合わせ得る。
少なくともいくつかの実施形態によれば、クライアント180に代わってLBN6070から、試行回数パラメータを含む接続要求が、アクセスノード6012において受信され得る。試行回数パラメータは、負荷分散コンポーネントが特定のクライアント180のために接続を確立しようとした回数を示し得る。一実施形態において、クライアントは、ファイルシステムをマウントする要求(例えばそれに加えてNFSマウント命令)を送り、そしてLBNは、マウント命令を受信したことに応じて、その接続要求を生成し得る。その結果確立された接続は「マウント接続」と称され、同一クライアントからのいくつかの後続要求に使用され得る。別の実施形態において、他の格納サービス命令または要求(すなわちマウント要求以外の要求)が同様にまたは代わりに、接続確立要求を引き起こし得る。接続要求を受信すると、ANは、接続要求に関する受諾決定に使用する1つまたは複数の作業負荷閾値レベル(例えば複数のリソースに対するそれぞれの閾値レベルTh1、Th2、・・・)を特定し得る。いくつかの実施形態において、閾値レベルのうちの少なくとも1つは、試行回数パラメータに基づき得る。例えば、第1試行に関してCPU作業負荷閾値はTcであり、一方第2試行に関してCPU作業負荷レベルは(Tc+デルタ)に設定され、第2試行で接続が受諾される可能性を高くしている。1つの例示的シナリオにおいて、CPU作業負荷の閾値レベルTcが特定され、かつネットワーク作業負荷の閾値レベルTnが特定される場合、ANのCPU作業負荷メトリクがTc未満であり、かつネットワーク作業負荷メトリクがTn未満であれば、接続は受諾され得る。別のシナリオにおいて、CPU作業負荷メトリクまたはネットワーク作業負荷メトリクのどちらかが対応閾値未満であれば、接続は受諾され得る。後述のいくつかの実施形態において、閾値との比較に使用される作業負荷メトリクスは、例えば接続受諾決定に対する短期の作業負荷変動の影響を低減するために、ある時間間隔を通して計算され得る。
アクセスサブシステムノードのローカル作業負荷メトリクまたはメトリクスが対応作業負荷閾値レベル未満であるという判定に応じて、接続は受諾されたという開示が、要求LBN6070に提供され得る。接続要求と受諾開示の両方が、LBNとLLBM間の通信に使用されている特定のプロトコル(例えばUDP、TCP、またはある他のプロトコル)に従ってフォーマットされ得る。LBN6070は、いくつかの実施形態において、ANにより接続が受諾されたことをクライアントに対し確認し得る。LBNに選択されたAN6012が、接続を受諾できない場合(例えばローカル作業負荷メトリクスが特定された閾値を超える場合)、接続拒否メッセージがLBNへ送信され得る。そしてLBNは、その要求(増加した試行回数パラメータを有する)を別のANへ送信し、当プロセスは、接続確立が成功するまで、または試行回数がある最大許容試行回数を超えるまで、図61に例示され後述されるように繰り返され得る。
接続が無事に確立された後に、LBN6070は格納サービス要求のクライアント生成パケット指示を受信すると、LBNは、アクセスサブシステムノードのLLBMへパケットを送信し得る(例えばカプセル化されたフォーマットで)。LLBMは、LBNから受信したメッセージのコンテンツを操作し(例えば元のクライアント生成パケットを解凍し)、処理のために元のパケットをAM6015へ渡し得る。格納要求に応じて実行される必要のある動作の性質により、AMは、いくつかの事例において、メタデータサブシステム120、または格納サブシステム130、または両バックエンドサブシステムと連絡する必要があり得る。格納サービス要求の指示は、適切なサブシステム(複数可)へ送信され得る。クライアントのサービス要求が応答を要する場合、応答は、反対の方向へ、例えばバックエンドサブシステム(複数可)からANへ、ANからLBNを介してクライアントへ、流れ得る。受信パケットがLBNによりカプセル化され、LLBMにより解凍される少なくともいくつかの実施形態において、LLBMは同様に発信パケットをカプセル化し、そしてLBNは当該パケットを、クライアント180へ渡す前に解凍し得る。
図61は、少なくともいくつかの実施形態による、負荷分散ノードと、分散格納サービスの複数のアクセスサブシステムノードとの間の例示的インタラクションを示す。描かれた実施形態において、クライアントが格納サービスに対し接続要求及び他の格納サービス要求を送ることができるように、仮想IPアドレス6105(例えば、プロバイダネットワークの仮想コンピューティングサービスの異なる演算インスタンスにおいて、異なるネットワークインターフェイスに動的に対応付け可能であり、かつ単一ネットワークインターフェイスに結び付けられていないIPアドレス)が公開され得る。1つまたは複数のLBN6070は、常時仮想IPアドレスに対するトラフィックを受諾する責任を担い得る。少なくともいくつかの実施形態において、LBN(及び/またはAN)は、演算インスタンスを使用して実行され得る。例えば、所定のLBNは、汎用ハードウェアサーバにおいて開始されたプロバイダネットワークの仮想コンピューティングサービスの演算インスタンスにて実行されるプロセスを含み得る。クライアントは、接続確立要求6108を、仮想IPアドレス6108へ送り得る。
描かれた実施形態において、LBN6070は、クライアントの要求を受信し、特定のAN6012Bを、対応内部接続要求を送信するべき第1ANとして選択し得る。ANを選択するのに、多数の異なる技術が使用され得る。例えば、いくつかの実施形態においてランダム選択が使用され得る、他の実施形態においてラウンドロビン選択が使用され得る、等が挙げられる。いくつかの実施形態において、各LBNは、ANの集合(可用性、レイテンシ、処理能力、または前述の他の基準に基づいて定義される1つまたは複数のANピアグループ等)と提携し、そしてLBNは、その提携ANにおいて指定された順序で、その接続試行を繰り返し得る。いくつかの実施形態において、複数のLBN及び複数のANは両方とも同じラックに配置され、LBNはまず自身のラック内からANを選択し得る。描かれた実施形態において、LBNは選択したAN6012BにおけるLLBM6017Bに対し、例えば1に設定された試行回数パラメータを有する第1接続試行6132Aを送り得る。(いくつかの実施態様においては、試行回数パラメータは、第1試行ではゼロに設定され得る。)異なる実施形態において、要求の受諾または拒否に関する決定は、対象ANにおけるAM6015により、または対象ANにおけるLLBMにより、または対象ANにおけるLLBMとAMの組み合わせにより、行われ得る。
連絡した第1ANがLBNに対し拒否61234Aを送信する場合(例えば対応閾値を超える1つまたは複数のローカル作業負荷メトリクス6115Bに少なくとも一部基づいて)、LBNは第2AN(描かれた実施例におけるAN6012A)を選択し得る。LBN6070は、第2ANにおけるLLBM6017Aに対し、増加した試行回数パラメータを有する第2接続要求試行6132Bを送り得る。拒否6134Bが再び受信された場合(例えばAN6012Aのローカル作業負荷メトリクス6115Aに基づいて)、LBN6070は第3AN6012Cを選択し、そのLLBM6017Cへ第3試行6132Cを送り得る。描かれた例示的シナリオにおいて、第3AN6012Cは、そのローカル作業負荷メトリクス6115Cの分析に基づいて受諾6136を送り返し、そしてAM6015Cとクライアント180との間に適宜接続が確立される。描かれた実施形態において、接続確立が成功した後、格納サービスとクライアント180との間のネットワークパケットは、経路6157に沿って流れる。例えば、クライアントはLBN6070へパケットを送信し、LBNはLLBM6017Cへパケットを(カプセル化された、または変更された表現を潜在的に使用して)送信し、LLBMのパケットマニピュレータ6155は受信したパケットを解凍または変更し、操作結果をAM6015Cへ送り得る。そしてAM6015Cは、メタデータサブシステム及び/または格納サブシステムとのインタラクションを伴い得る要求された格納動作を開始し得る。
図62は、少なくともいくつかの実施形態による、行われた接続試行の回数により変わり得る接続受諾基準の例を示す。描かれた実施形態において、所定のリソース(CPUまたはネットワーク帯域等)に関するANのネイティブすなわち基準処理能力6202は、接続受諾判定に使用する調整後処理能力(AC)6206となるように、障害オーバーヘッド要素6204により変更され得る。例えば、1つのシナリオにおいて、ANのネイティブCPU処理能力が毎秒X動作である場合、その処理能力の5分の1(0.2X)は、様々な種類の障害時に起こり得る一時的な作業負荷増加を補償するために取って置かれ得る。従って、このようなシナリオにおいて、調整後のCPU処理能力は、毎秒0.8X動作((X−0.2X)動作)に設定される。
ANにおいて所定のリソースに関して収集されたローカル作業負荷メトリクスは、短期的変動だけでなく、長期的動向も示し得る。格納サービス動作のために確立された接続(NFSのために設定されたマウント接続等)は通常長く続くため、直近のメトリクスのみを基にして接続を受諾/拒否することは望ましくあり得ない。従って、直近のメトリク6212と、ある履歴メトリクスの集合6214(例えばそのリソースに関して、ここ最近15分または1時間にわたり収集されたメトリクス)との組み合わせから、調整後の負荷メトリクス(AL)6216が取得され得る。いくつかの実施形態において、例えば経時的にメトリクスの重要度の低減を表現またはモデル化するために、調整後負荷を計算する時、減衰関数6215(例えば指数関数的減衰または線形減衰)が履歴メトリクスに適応され得る。
ANにおいて特定の試行回数パラメータを有する接続要求を受諾するために、所定のリソースに関する調整後負荷6216は、試行回数に依存する閾値(そのリソースに関する調整後処理能力で表現される)と比較され得る。従って、接続受諾基準テーブル6255に示されるように、試行回数パラメータが1の接続要求は、検討中のリソースに対するALが0.5*AC以下である場合に受諾され得る。接続要求が1度失敗し、従って試行回数が2に設定された場合、ALが0.55*AC以下である接続は受諾され得る。試行回数値が3の場合、受諾基準はさらに緩和されるため、ALが0.6*AC以下である場合に接続は受諾される。試行値が4の場合、ALは0.75*AC以下である必要があり、そして試行値が5の場合、ALは0.85*AC以下である必要があり得る。従って、描かれた実施形態において、より多い回数接続が拒否されると、最終的に受諾するANはより高い負荷に対応することが可能になり得る。他の実施形態において、試行値Kを有する接続要求を受諾するために、受諾ノードの作業負荷レベルは、より少ない試行値(K−L)を有する接続要求を受諾するのに要する作業負荷レベルよりも低くある必要があり得る、反対の手法が使用され得る。例えば高い負荷条件の下では新規接続試行が阻止されるシナリオにおいては、試行値が増加する程に接続受諾の相対的緩和が低減するこのような手法が使用され得る。少なくともいくつかの実施形態において、閾値条件、並びにAC及びALの演算に使用されるパラメータ及び関数(例えば減衰関数)は、全て構成可能な設定であり得る。異なる実施形態において受諾基準を定義する別個の試行回数値の数は異なり、少なくとも一実施形態において試行回数値自体は構成可能なパラメータであり得る。いくつかの実施形態において、パラメータ、関数、及び/または閾値は、例えば達成された結果の分析に基づいて、時間と共に動的に変更され得る。少なくともいくつかの実施形態において、受諾基準のうちのいくつかは、試行回数値の範囲と同じであり得る。例えば試行値が1及び2である場合、これと同じ閾値が使用され得る。
いくつかの実施形態において、前述のように、接続受諾判定を行う時に、複数のリソースに対応付けられたローカル作業負荷レベルが考慮され得る。図63は、少なくともいくつかの実施形態による、複数のリソースに対応付けられた作業負荷レベル、並びに接続確立試行回数に依存し得る接続受諾基準の例を示す。調整後負荷レベルと対応する調整後処理能力の5つの例が、配列6312において示される。AL[CPU]はアクセスノードの調整後CPU作業負荷を表し、同時にAC[CPU]は調整後CPU処理能力を表す。AL[Net]は調整後ネットワーク負荷を表し、そしてAC[Net]は調整後ネットワーク処理能力を表す。AL[Mem]は調整後メモリ負荷を表し、そしてAC[Mem]は調整後メモリ処理能力を表す。AL[Dsk]はアクセスノードの調整後ローカル格納デバイス処理能力負荷を表し、そしてAC[Dsk]は調整後格納デバイス処理能力を表す。少なくともいくつかの実施形態において、アクセスノードにおけるオペレーティングシステム構造により表されるオープンソケット等の論理リソースに関しても、調整後負荷及び処理能力が特定され得る。そのようなオペレーティングシステム構造に関する調整後作業負荷(AL[OSS])及び調整後処理能力(AC[OSS])は、少なくともいくつかの実施形態において、接続受諾判定において考慮され得る。リソースごとに、調整後負荷及び調整後能力は同じ単位で表現され得る。例えばネットワーク負荷がパケット/秒で表される場合、ネットワーク処理能力もパケット/秒で表され得る。
AC配列要素で表される閾値は、マルチリソース接続受諾基準テーブル6355に示されるように、様々な試行回数値ごとに決定され得る。描かれた実施形態において、異なる試行回数レベルに関して、異なるリソースの組み合わせが考慮され得る。例えば、試行回数が2の場合、CPU、ネットワーク、及びメモリの閾値が対応する調整後負荷と比較され得るのに対し、試行回数がKの場合、CPU負荷と閾値のみが比較され得る。テーブル6355における「&&」記号はブール演算子「AND」を示すため、例えば試行回数4において接続を受諾するには、CPUとネットワークの両基準が満たされる必要があり得る。様々な実施形態において、異なるリソースに関して、負荷対閾値比較の異なるブール演算子の組み合わせが使用され得る。例えば、OR、またはAND、またはORかつANDが使用され得る。
図64は、少なくともいくつかの実施形態による、分散格納サービスにおいて試行回数に基づき接続分散を実施するために実行され得る動作の態様を例示するフロー図である。構成要素6401に示されるように、クライアントがサービスに対して格納関連要求を送れるように、負荷分散ノードのネットワークアドレス(例えば図3において例示される種類の隔離仮想ネットワーク内からアクセス可能であり得る仮想IPアドレス)の集合が、クライアントに公開され得る。クライアントからの接続要求が、特定のLBNであるLBN1において受信され得る(構成要素6404)。今度はLBN1が、選択されたアクセスノードANに対し、接続を確立しようと試みた回数を示す試行回数パラメータを含む対応接続要求を送り得る(構成要素6407)。接続確立試行を送る次のANを選択するのに様々な手法が使用され得る。例えばラウンドロビン手法を使用して、またはLBN1からANにおいてどれほど最近接続が確立されたか等のいくつかの他の要素に基づいて、ANがランダムに選択され得る。
ANは、1つまたは複数のリソースに関する調整後ローカル作業負荷メトリクス(WM)と、接続を受諾/拒否するために作業負荷メトリクスと比較する閾値(WT)とを特定し得る(構成要素6410)。閾値のうちの少なくともいくつかは、試行回数値によって異なり得る。いくつかの実施形態において、閾値は調整後リソース処理能力で表現され、一方調整後リソース処理能力は、ネイティブすなわち基準リソース処理能力及び障害調整要素から導き出され得る。いくつかの実施形態において、図63に示されるように、リソース特定受諾条件の様々なブール演算子の組み合わせが使用され得る。構成要素6413にて特定されるように、受諾基準が満たされた場合、例えば試行回数値に対し検討中のリソースのWMが当該リソースのWT以下である場合、LBN1は接続が受諾されたと知らされ得る(構成要素6428)。接続が受諾された後、クライアントから格納要求を表すパケットがLBN1において受信され、そして当該パケットは、接続が確立されたANにおけるLLBM(ローカル負荷分散モジュール)へ送信され得る(構成要素6431)。いくつかの実施態様において、クライアントのパケットは、LBN1によりカプセル化され、LLBMにより解凍または抽出され得る(構成要素6434)。LLBMは、クライアントの要求に応えるのにどの格納サービス動作が必要か決定するためにパケットコンテンツが分析されるANにおけるネットワーク処理スタックへ、パケットを転送し得る。これらの動作に対する要求は、必要に応じてサービスの他のサブシステム(例えばメタデータサブシステム及び/または格納サブシステム)へ送信され得る(構成要素6437)。
LBN1により選択されたANにおいて接続を受諾する基準が満たされない場合(同様に構成要素6413において検出)、接続試行は拒否され得る(構成要素6417)。LBN1が接続を確立するために、最大許容数の試行(「最大試行回数」)を既に行った場合(構成要素6419にて検出)、いくつかの実施形態において、接続確立が失敗したことを示すエラーメッセージがクライアントへ返され得る(構成要素6422)。多くの実施形態において、接続確立の失敗の可能性を非常に低く保つように、試行回数ベースの受諾基準は選択され得る。接続確立失敗の数は記録され、そして失敗の数または割合が目標レベルを超えないように保つために、必要に応じて追加ANが構成され得る。
クライアントに関してLBN1がまだ最大許容数の接続試行を送っていない場合(同様に構成要素6419にて検出)、LBN1は、接続要求を送るべき別のANを選択し得る(構成要素6425)。増加した試行回数パラメータを有する新たな接続試行が選択されたANへ送信され、そして構成要素6407以降に対応する動作が繰り返され得る。いくつかの実施形態において、LBN1が最初のANを選択するのに使用した技術のうち同じ種類のものが、後続の試行のためのANを選択するのに使用され得る。別の実施形態において、LBN1は、試行回数に基づいてANを選択する自身の基準を変更し得る。例えば、最初のANはランダムに選択され、一方次のANは、様々なANとの接続確立の前の試行においてどれだけLBN1が成功したかに基づいて、選択され得る。このような一実施形態において、LBNは、様々なANとの自身の接続確立成功率の統計を保持し、当該統計を使用して、過去により頻繁に接続を受諾できていたANを選択し得る。
ピアグループ作業負荷情報を使用する接続再分散
NFSマウント接続等のファイル格納システムに対し確立される接続は、多くの場合長い時間持続し得る。ある前の時間間隔における1つまたは複数のリソースのリソース作業負荷レベル等、接続要求が受信された時の接続受諾判定に関連する情報は、接続の持続時間中のある後の時点でのアクセスノードにおける実情を必ずしも示し得るとは限らない。一実施例において、アクセスノードは、自身の調整後CPU負荷がXであった時に接続を受諾し得たが、調整後CPU負荷がある期間1.5Xに留まる後の時間においても尚も使用され得る。従って、いくつかの実施形態において、アクセスノードは、ある状況下では自身の作業負荷を再分散するように試み得る。
図65は、少なくともいくつかの実施形態による、アクセスノードピアグループのメンバーの作業負荷インジケータに基づいて、クライアント接続の再分散を試み得る分散格納サービスのアクセスサブシステムの例を示す。AN6512A、6512B、6512Cの3つのノードを含むアクセスノードピアグループが示される。ピアグループにおけるメンバー構成は、前述のように、異なる実施形態における様々な要素に基づいて決定され得る。様々な要素には、例えば可用性、レイテンシ、処理能力、コロケーション、または共有ネットワークアドレスプレフィックスが含まれる。描かれた実施形態において、各ピアグループメンバーは、CPU、ネットワーク、メモリ、及びANの他のリソースに関して前述された観測負荷等のローカル作業負荷メトリクス6155(例えば6115A、6115B、または6115C)と、ピアグループの他のANにおける作業負荷レベルのインジケータ6502との、少なくとも2つの種類の作業負荷メトリクスを収集し得る。描かれた例示的構成において、AN6512Aは、AN6512B、6512Cからのピア作業負荷インジケータ6502Aを収集し、AN6512Bは、AN6512A、6512Cからのピア作業負荷インジケータ6502Bを収集し、そしてAN6512Cは、AN6512A、6512Bからのピア作業負荷インジケータを収集し得る。作業負荷インジケータが収集される方法、及び/または作業負荷インジケータの性質またはコンテンツは、異なる実施形態において異なり得る。いくつかの実施形態において、例えば、所定のANは単純に、ある選択された時点に、自身のそれぞれのピアに対し接続確立クエリを送信し、ピアが接続を受諾する用意があるか否かを示す応答を受信し得る。前述のように接続受諾判定が試行回数パラメータに影響され得るいくつかの実施形態において、接続確立クエリは試行回数パラメータも含み得る(例えば「1」の試行回数パラメータ値が使用され得る)。クエリを送るANは、ある時間間隔において、それぞれのピアがどれだけの数の接続を受諾する用意があったかを記録し得る。各ANが接続受諾判定を行う際、自身のローカル作業負荷メトリクスを考慮することが見込まれる実施形態において、接続受諾率は、正確かつ取得が簡単な作業負荷インジケータとして役に立ち得る。別の実施形態において、ANは単純に、定期的またはあるスケジュールに従って、それぞれのローカル作業負荷メトリクスの要約または概要を交換し、そしてこのような概要が作業負荷インジケータとして使用され得る。いくつかの実施形態において、作業負荷インジケータはクエリに応じてのみ送信され、一方で他の実施形態において、作業負荷インジケータは、クエリが受信されたか否かに関係なく、ピアグループメンバーに対しプッシュし得る。描かれた実施形態において、クエリ/応答6570に対応付けられた全トラフィック及び処理オーバーヘッドが閾値未満に保たれるように、作業負荷情報の共有に使用される特定の技術が選択(または変更)され得る。
ピアグループの各ANは、AN6512Aにおける接続C11、C12、・・・、C1n、AN6512Bにおける接続C21、C22、・・・、C2p、AN6512Cにおける接続C31、C32、・・・、C3n等の確立された接続すなわちオープン接続のある集合を有する。アクセスノードはそれぞれ、自身のオープン接続に関するそれぞれの接続統計6504を保持し得る。例えば、統計6504AはAN6512Aにおいて保持され、統計6504BはAN6512Bにおいて保持され、そして統計6504CはAN6512Cにおいて保持され得る。特定の接続Cjkに関して保持される接続統計6504は、例えば接続経過期間の測定(例えばCjkが確立された時間)、接続上のトラフィックの量と時間の分散、接続上要求された格納動作(例えばファイルオープン、読み出し、書き込み等)の数、パケットのサイズ、中断されるパケットの数等を含み得る。作業負荷の再分散ために接続を閉じるまたは切断するとANが決定する時と場合に、接続統計6504は分析され、そして統計に基づき得る閉止対象選択基準に従って、1つまたは複数の接続が閉じられ得る。使用されているネットワークプロトコルに応じて、ANは、接続切断を開始するための適切なメッセージをクライアントへ送信し得る。いくつかの実施形態において、接続を手際よく閉じるためにメッセージの交換が必要となり得る。
いくつかの実施形態において、(a)アクセスノードにおける少なくとも1つのローカル作業負荷メトリク6115が再分散閾値を超える、(b)収集された作業負荷インジケータから導き出されたピア処理能力可用性基準が満たされる、以上の条件が両方ともそろった場合に、接続を閉じる決定がアクセスノード6512において行われ得る。例えば、1つのシナリオにおいて、AN6512のピアの少なくとも70%が最新の利用可能な作業負荷インジケータに基づいて新たな接続を受諾する用意があり、かつAN6512の自身の作業負荷レベルが十分高いレベルに達した場合、AN6512は選択された接続を閉止または中断するように決定し得る。ローカル作業負荷ベースの基準が使用され得るため、ANのローカルリソースが大量に利用されている時のみ、接続再分散は試行される(例えばあまりにも大量に利用されている場合は、どの新規接続も受諾され得ない)。ピア処理能力可用性基準が考慮され得るため、例えば、閉じられた接続の他端のクライアントは、接続を確立してその格納サービス要求ストリームを続けるのに妥当な機会を有し得る。
ある接続(または複数の接続)を閉じる決定がなされた場合、少なくともいくつかの実施形態において、前述のように接続統計6504の分析に基づいて、閉じる対象となる特定の接続(複数可)が選択され得る。例えば、同じクライアントの接続が異なるANにおいて繰り返し閉じられる変動シナリオを避けるために、ある閾値時間よりも長く存在している接続が、閉止対象として積極的に選ばれ得る。いくつかの実施形態において、より大量のリソース使用をもたらしたトラフィックを有する接続(例えばリソース集中格納動作に使用されている接続)は、ANにおいてより適度なリソース使用をもたらしている接続と比べて、優先閉止対象とみなされ得る。そしてANは、使用されている特定のネットワークプロトコル(例えばTCP)に従って、選択された接続(複数可)の閉止を開始し得る。少なくともいくつかの実施形態において、接続閉止に応じて、クライアントは別の接続を確立しようと試み得る。そして負荷分散ノード(現在閉じられた接続の確立に参加したものと同じLBN、または別のLBNであり得る)は、選択されたAN(例えば接続を閉じたANのピアグループに所属する)に対し、クライアントのための接続確立要求を出し得る。クライアントの接続を受諾する用意のあるANが見つかるまで(または負荷分散ノードの接続試行回数が最大試行回数に達するまで)、前述のものと同様の接続確立プロトコルが使用され得る。接続再分散決定をするために使用されるピア処理能力可用性基準が、ANの接続を受諾する用意を示す良きインジケータである場合、クライアントは閉じられた接続を置き換える新たな接続を確立することがすぐに可能となり得る。セッション指向ファイルシステムが対応される少なくともいくつかの実施形態において、図68を参照して後述されるように、クライアントは、接続再分散の前に使用されていた同一セッションを継続することでさえも可能であり得る。一実施形態において、特定のANが特定のクライアントC1との接続を閉じた後、再接続閾値時間間隔内に同一のクライアントC1のための後続接続要求をANが受信した場合、例えば同一クライアントの接続が繰り返し閉じられるシナリオを避けるために、接続要求は拒否され得る。
一実施形態において、負荷分散ノードは、例えばクライアントの接続の閉止がANにより開始されたことをクライアントに知らせる、または気付かれることなく、クライアントに対する置き換え接続を透過的に確立することが可能であり得る。負荷分散ノードは、再分散関連接続切断が開始されたことを検出することが可能であり得る(例えばANから受信したパケットヘッダー及び/またはパケット本体のコンテンツを調べることにより)。再分散関連接続切断を発見した際、負荷分散ノードは、別のANを選択し、クライアントに知らせるまたは通知することなく、当該の別のANに対する別の接続の確立を開始し得る。負荷分散ノードがその要求を受諾するANを見つけられたとしても、少なくともいくつかの実施形態において、クライアントの観点からすると何も変わっていないように見え得る(すなわちクライアントは再分散の影響を全く気付き得ない)。このような透過性を達成するために、いくつかの実施態様において、負荷分散装置及びアクセスサブシステムは、接続切断を開始したANと置き換えAN間の接続ステート情報転送を共同で管理する必要があり得る。
図66は、少なくともいくつかの実施形態による、アクセスサブシステムノードにおいて使用され得る接続受諾及び再分散基準の例を示す。描かれた実施形態において、試行回数ベースの接続受諾閾値は、前述と同様の方法で使用され得る。しかしながら、少なくともいくつかの実施形態において、使用される接続再分散技術は、接続受諾基準と無関係であり得ることに留意されたい。例えば、前述の試行回数ベースの接続受諾技術が使用されなくても、接続再分散は実施形態において使用され得る。
図66に描かれた実施形態において、前述の実施例のうちのいくつかのように、異なる試行回数レベルに使用される閾値により、試行回数値が大きくなるにつれ、接続は受諾されやすくなり得る。従って、例えば、試行回数3の接続要求を拒否するには、ANの調整後CPU負荷(AL[CPU])は調整後CPU処理能力(AC[CPU])の0.6倍を超える必要があり、かつANの調整後ネットワーク負荷(AL[net])は調整後ネットワーク処理能力(AC[net])の0.6倍を超える必要があり得る。しかしながら、試行回数値4の接続要求を拒否するには、CPUとネットワークの調整後負荷はそれぞれより高い(それぞれAC[CPU]の0.8倍と、AC[net]の0.8倍)必要があり得る。
いくつかの要素の組み合わせは、図66において例示される例示的再分散基準に寄与する。1番目に、CPU、またはネットワーク、またはその両方の調整後ローカル負荷レベルが、対応する調整後処理能力の0.85倍を超えなければならない。2番目に、調整後メモリ負荷が、調整後メモリ処理能力の0.85倍を超えなければならない。3番目に、再分散のためアクセスノードにおいて前の接続が閉じられてから、少なくとも600秒が経過しなければならない。そして4番目に、ピアアクセスノードが新規接続を受諾する用意がある推定確率(ピアグループメンバーから収集された作業負荷インジケータから取得され得る)が70%を超える必要があり得る。従って、描かれた実施形態において、ANにより接続が終了されるまでには、かなり厳しいテストの集合を通過する必要があり得る。
図67は、少なくともいくつかの実施形態による、接続再分散を実施するために、分散格納サービスのアクセスサブシステムにおいて実行され得る動作の態様を例示するフロー図である。構成要素6701において示されるように、多数のネットワーク接続C1、C2、・・・、Cnが、マルチテナント分散格納サブシステムのアクセスノードAN1と、サービスの1つまたは複数のクライアントのための1つまたは複数の負荷分散ノード(LBN)との間に確立され得る。前述のように、いくつかの実施形態において、ネットワークアドレスの集合(例えばプロバイダネットワークの隔離仮想ネットワーク内からアクセス可能なプライベート仮想IPアドレス、またはインターネットからアクセス可能なパブリックアクセス可能IPアドレス)が、負荷分散ノードに設定され、サービスへアクセスを所望するクライアントへ公開され得る。いくつかの実施形態において、接続C1‐Cnを確立するのに試行回数ベースの接続受諾基準が使用されており、一方他の実施形態において、接続は試行回数を考慮せずに確立され得た。いくつかの実施形態において、AN1は、前述のようにLBNにより送信されるパケットを傍受し操作するローカル負荷分散モジュール(LLBM)を備え、一方で他の実施形態において、AN1はこのようなLLBMを含み得ない。
ある時間枠Tの間に、AN1は、ANのCPU(複数可)、ANのネットワークモジュール等のリソースに関するローカル作業負荷情報と、多数のピアANから取得されるピアグループ作業負荷インジケータとの、2種類の作業負荷情報を収集し得る(構成要素6704)。いくつかの実施形態において、AN1は、選択したピアの集合(例えば前述の種類の基準に基づいて選択されたピアグループのメンバー)に対し、作業負荷関連クエリを送り、そしてそれに応じて作業負荷インジケータが受信され得る。他の実施形態において、ピアグループのANはお互いに、様々な時点にそれぞれの作業負荷インジケータを能動的にプッシュし合い得る。いくつかの実施態様において、AN1は、ピアAN(例えばAN−k)に対し時々クエリを送り、AN−kが接続を受諾する用意があるかを特定し、そしてAN−kの応答は、AN−kの作業負荷のインジケータとみなされ得る。少なくとも一実施態様において、AN1は、AN−kに対し接続確立要求を送り得る(例えば接続確立に関するクエリを送る代わりに)。いくつかの実施形態において、ANは、ピアANに対し定期的に自身の現在のローカル作業負荷推定の要約または概要を、オンデマンドでまたは能動的に提供し得る。一実施形態において、作業負荷インジケータは、例えば管理メッセージまたはハートビートメッセージといった、AN間で交換される他の種類のメッセージ上に載せられ得る。
描かれた実施形態において、終了または閉止する接続が選ばれるのに先立って、いくつかの基準が満たされる必要があり得る。AN1は、自身のローカル作業負荷メトリクスが、第1再分散閾値を超えるか否かを特定し得る(構成要素6707)。接続受諾のための調整後負荷(AL)計算に関して前述されたように、いくつかの実施形態において、ローカル作業負荷メトリクスは、経時的な素のメトリクスの変化を考慮した調整値を使用して表され得る。接続受諾基準を定義するのに使用される調整後処理能力(AC)に関しても前述されたように、いくつかの実施形態において、第1再分散閾値は、ネイティブリソース処理能力の一部を可能性のある障害を処理するためのオーバーヘッドとして取って置く、様々なリソースの調整後処理能力単位で表現され得る。別の実施形態において、接続受諾決定に考慮される作業負荷メトリクス及び/またはリソースの集合とは異なる作業負荷メトリクス及び/またはリソースの集合が、再分散決定において考慮され得る。
再分散のローカル作業負荷ベース基準が満たされた場合、AN1は、ピア処理能力可用性基準が満たされたか否かを特定し得る(構成要素6710)。描かれた実施形態において、ピア処理能力可用性基準は、他のANから取得された作業負荷インジケータに基づいて決定され得る。少なくともいくつかの実施形態において、ピア可用性基準を満たすことは、AN1が特定のクライアントに対する接続を終了した場合、そのクライアントが別のANと接続を確立できる確率がかなり高いことを示し得る。例えば、1つのシナリオにおいて、AN1の自身の調整後負荷(選択されたリソースのある集合に関する)が対応する調整後処理能力の90%を超え、同時にAN1がピア作業負荷インジケータを使用して、自身のピアグループのメンバーの少なくとも75%が、対応する調整後処理能力の40%未満の調整後負荷を有することを特定でき、従って新規接続を受諾する見込みがある場合に、ピア処理能力可用性基準は満たされ得る。少なくともいくつかの実施形態において、所定のピアAN−kに関するAN1において利用可能な直近の作業負荷インジケータは、ある前の時点のAN−kのステートを表し、しかも異なる作業負荷インジケータは、異なる時点を表し得ることに留意されたい。そのため、このような実施形態において、ピア処理能力可用性決定は、精確なデータではなく、近似データに基づいて行われ得る。
再分散のローカル作業負荷基準とピア処理能力可用性基準が満たされた場合、描かれた実施形態において、AN1は、最近のTmin時間単位内に再分散目的で自身の接続のうちのいずれかが閉じられていたか否かも特定し得る(構成要素6713)。例えば、図66に例示されるシナリオにおいて、Tminは600秒に設定された。前の再分散関連接続終了から最小閾値設定Tminを超える時間が経過した場合(またはこれがAN1における第1再分散試行である場合)、閉止目的選択ポリシーに基づいて、特定の接続Cjが終了対象として選ばれ得る(構成要素6716)。対象選択ポリシーは、接続経過時間(いくつかの実施形態において変動的動作を避けるために、より最近確立された接続は選択される可能性が低くあり得る)、接続上のトラフィック量、接続に対応付けられた様々なANリソース(例えばCPU、メモリ等)の使用量等、様々な要素を考慮し得る。いくつかの実施形態において、AN1は、閉止対象を選択するのに接続統計6504を利用し得る。
描かれた実施形態において、選択された対象接続の終了または閉止は、例えば使用されているネットワークプロトコルの適切な接続終了シンタックスに従って、AN1から開始され得る(構成要素6719)。Cjが確立されていた対象のクライアントは、接続が中断/閉止されたことを特定すると、選択されたLBNに対し、別の接続確立要求を送り得る(構成要素6722)。LBNは従って、クライアントのために、例えばAN2といったある他のANと接続を確立し得る(構成要素6725)。使用されている接続受諾基準とAN1の作業負荷の変化により、この新規接続は、場合によってはAN1自体に受諾され得ることに留意されたい。
図67に描かれた実施形態において、ローカル作業負荷ベースの再分散閾値が満たされない場合(構成要素6707にて検出)、AN1は、構成要素6704に示されるように、後続の時間枠の間にローカルとピアの作業負荷情報を収集することで、自身の通常動作を続け得る。再分散の2つの条件のうちの1つが満たされない場合、例えばピア処理能力可用性基準が満たされない(構成要素6710)、または再分散を行うには最後に接続が終了されてから十分な時間が経過していない場合、AN1は、自身の過剰作業負荷に対応するために描かれた実施形態においていくつかの追加動作を行ない得る。例えば、構成要素6728に示されるように、AN1は、例えば選択されたパケットの処理を遅らせることで、またはパケットを中断することで、任意で自身のオープン接続のうちの1つまたは複数を抑圧し始め得る。当然、使用しているネットワークプロトコルの性質により、このような動作は、いくつかの事例においてクライアントからの再送信を引き起こし、終了する接続を選択できる十分な時間が少なくとも経過するまでは大して早急な助けにはなり得ない。別の実施形態において、構成要素6707のローカル作業負荷ベースの再分散閾値が満たされた場合、AN1は、たとえ他の2つの条件(構成要素6710と6713に該当)のうちの少なくとも1つが満たされなかったとしても、選択された接続を閉じ得る。いくつかの実施形態において、図67における接続を閉じるか否かを決定するのに考慮される3つの条件は、示されたものとは別の順序で確認され得ることに留意されたい。例えば、いくつかの実施形態において、前の接続終了から経過した時間が最初に確認され得る、またはピア処理能力可用性が最初に確認され得る場合もあり得る。
いくつかの実施形態において、分散格納サービスにおいて対応されるファイルシステムプロトコルのうちの少なくとも1つは、前述のようなセッション指向であり得る。例えばセッション識別子が、クライアントのために生成され、リソースのリース及び/またはロックに対応付けられ得る。再分散のためのクライアント接続の終了は、このような実施形態において、積極的防止ステップが行われない限り、所望しないセッション終了を招き得る。図68は、少なくともいくつかの実施形態による、接続再分散イベントを越えてクライアントセッションを保持するために、分散格納サービスにおいて実行され得る動作の態様を例示するフロー図である。例えば明示的セッション確立要求に応じて、またはクライアントCl1が特定の種類の格納要求を出した時に、クライアントセッションCS1がクライアントCl1のために確立されると、特定のANからセッション確立要求を受信するサービスのメタデータサブシステムノードにより、または当該メタデータサブシステムノードにおいて、対応するセッションメタデータが格納され得る。構成要素6801において示されるように、セッションメタデータは、CS1に使用されている特定のアクセスノード(例えばメタデータノードに対しセッション確立要求を送り、かつCl1からの後続格納要求に使用される予定であるAN)を特定するフィールドを含み得る。図55にも例示されるように、このようなフィールドは、「責任アクセスノード」(RAN)フィールドと称され得る。クライアントCl1は、AN1を介して送られた自身の後続格納関連要求におけるセッションメタデータの一部として生成されたセッション識別子(例えばNFS「クライアントID」パラメータ)を特定し得る。
構成要素6804において示されるように、AN1はその後、例えば前述の種類の再分散基準を使用して、再分散のためにCl1の接続を終了/閉止することを決定し得る。従って、セッションメタデータのRANフィールドは、「ヌル」に(またはどのANも責任を担わないことを示すある他の値に)設定され得る(構成要素6807)。いくつかの実施形態において、メタデータへの変更は、AN1の要求で、メタデータノードにより実行され得る。接続は、AN1の主導で終了され得る。
最終的には、Cl1は、接続が閉じられたことを検知した後、格納サービスへの接続を再確立しようと試みるために、例えば負荷分散ノードに対し、別の要求を送り得る(構成要素6810)。接続を受諾するために、別のアクセスノード(AN2)が、LBNがCl1の代わりに送った接続確立要求に応答し得る(構成要素6813)。クライアントCl1は、接続の終了前に使用していたのと同一のセッション識別子を有する格納サービス要求(例えばオープン()、読み出し()、または書き込み())を送り得る(構成要素6816)。AN2は、このような格納サービス要求を受信し、クライアント指定セッション識別子に対応するメタデータのステータスを特定するために、メタデータサブシステムに対しクエリを送信し得る(構成要素6819)。メタデータサブシステムが指定セッション識別子のセッションメタデータを見つけられた場合、かつそのメタデータのRANフィールドが「ヌル」に設定されている場合(構成要素6822にて検出)、これは、AN2が既存のメタデータを有するCL1のセッションを続けることと、Cl1のセッションの責任を担うこととを受諾可能であることをAN2に示し得る。従って、CS1のメタデータのRANフィールドは、AN2の識別子に設定され(構成要素6825)、そしてCS1は再開され得る。そうではなく、ある理由でCS1のメタデータレコードが見つからない場合、またはCS1のメタデータ内のRANフィールドが「ヌル」に設定されていなかった場合、描かれた実施形態において、クライアントのために新規セッションが作成され得る(構成要素6828)。少なくともいくつかの実施形態において、新規セッションを確立することは、1つまたは複数のロック/リースの獲得を伴い、このような実施形態においては、AN2を責任アクセスノードとして現行のセッションが開始され得た場合よりも多いリソースを要し得る。
様々な実施形態において、図8a、8b、9、10、15、20、21、22、23、27、28、32、38、41、42、43、44、51、52、53、58、59、64、67、68のフロー図において例示されるものとは異なる動作が、前述の分散ファイル格納サービス技術を実施するのに使用され得ることに留意されたい。示される動作のうちのいくつかは、いくつかの実施形態において実行され得ない、または別の順序で実行され得る、または順次ではなく同時に実行され得る。少なくともいくつかの実施形態において、前述の技術は、ファイルストア以外の種類の格納サービスにおける作業負荷変動を管理するのにも使用され得る。例えば、ボリュームレベルブロック格納インターフェイスを公開する格納デバイス、またはファイルシステムインターフェイスではなくウェブサービスインターフェイスを使用して任意の格納オブジェクトへアクセス可能にする非構造化格納デバイスのために、またはリレーショナルもしくは非リレーショナルデータベースのテーブルもしくはパーティションにアクセスするために、同様の技術が使用され得る。
1つまたは複数の業界標準ファイルシステムインターフェイスに対応する拡張縮小性、可用性、及び耐久性の高いファイル格納システムを実施する前述の技術は、多数のシナリオにおいて、及び様々な顧客のために、役立ち得る。プロバイダネットワークの多数の顧客が、利用可能な莫大な量のコンピューティングパワーを活用するために、自身のアプリケーションのうちのいくつかを既にクラウドへ移行している。しかしながら、単一ファイル内に非常に大量のデータ(例えばペタバイト)を格納し、そしてパフォーマンスに影響を与えることなく多数のクライアントが同時に当該ファイルにアクセスする能力に関して、このようなアプリケーションにはいくつかの制約が残り得る。ファイルシステムディレクトリ階層に関しても、例えば、所定のディレクトリが格納可能なオブジェクトの数、及びディレクトリ階層が含み得るレベルの数等、拡大縮小制約が残り得る。アクセスサブシステム、メタデータサブシステム、及び格納サブシステム等、様々なファイル格納サービスサブシステムにシームレスにノードを追加する能力は、このような拡張縮小制限を緩和するのに役立ち得る。データからメタデータの論理分離は、メタデータの要件(より厳しい要求を有し得る)をデータに対し課すことなく、メタデータとデータの両方に関して、パフォーマンス、可用性、及び耐久性の所望する別個のレベルを達成するのに役立ち得る。例えば、メタデータは優先的にSSDに格納され、一方データはより安価な回転ディスクベースデバイスに収容され得る。プロバイダネットワーク環境における他の格納システムは、よく知られているファイルシステムインターフェイスと、多数のアプリケーションが依存するように設計されている種類の一貫性セマンティックとに、対応し得ない。
単一ページ書き込みの条件付き書き込み機構と、複数ページ書き込みの分散トランザクションスキームとを含む説明された楽観的同時性制御機構は、従来のロックベーススキームが多く使用される時に一般的に発生するボトルネックの種類のうちのいくつかを避けるのに役立ち得る。エクステント予約超過及び可変ストライプサイズ決定は、領域利用効率性とメタデータサイズの間のトレードオフを管理するのに使用され得る。オフセットベースの輻輳制御技術は、例えばアプリケーション起動時に所定の構成ファイルが多数の同時クライアントスレッドにより読み出される必要があり得るアプリケーション等、特定の種類のアプリケーションの全体I/Oパフォーマンスを改善するのに役立ち得る。オブジェクト名前変更技術は、大きな分散ファイルストアにおいて必然的に起こり得るメタデータノード障害発生時に、ファイルシステム一貫性を確保するのに役立ち得る。前述の名前空間管理技術は、数百万のオブジェクトを有するファイルシステムを実行し(単一ディレクトリ内であっても)、同時にオブジェクト数が増大しても比較的一律の応答時間を維持するのに使用され得る。クライアントセッション管理キャッシュ及びリース更新技術は、セッション関連オーバーヘッドを低く維持するのに役立ち得る。負荷分散及び再分散手法は、過重負荷起因障害の可能性を低減するのに役立ち得る。
本開示の実施形態は以下の条項を以って説明され得る。
1.1つまたは複数のコンピューティングデバイスを備えるシステムであって、前記コンピューティングデバイスは、
分散マルチテナントファイル格納サービスのアクセスサブシステムにおいて、特定のクライアント代わりにファイルストア動作のためにクライアントセッションを確立する要求を受信し、
前記アクセスシステムから前記ファイル格納サービスのメタデータサブシステムに、前記クライアントセッションと対応付けられるセッション識別子の要求を送信し、
前記メタデータサブシステムから前記アクセスサブシステムに、前記クライアントセッションのメタデータの1つまたは複数の構成要素が格納される永続性セッション格納場所に少なくとも基づいてセッション識別子を提供し、前記1つまたは複数の構成要素が前記クライアントセッションに対応付けられたリースの表示を含み、
前記アクセスサブシステムにおいて、前記特定のクライアントへの前記セッション識別子の送信の前に、前記セッション識別子及び前記リースの表示をキャッシュし、
前記メタデータサブシステムにおいて、特定のファイルストアオブジェクトに対応付けられたロックステートインジケータを格納する永続性ロック格納場所を特定し、前記ロックステートインジケータが前記クライアントからの異なる要求に応じて生成され、前記異なる要求が前記セッション識別子を含み、前記ロックステートインジケータが前記セッション識別子を含み、
前記アクセスサブシステムにおいて、前記ロックステートインジケータをキャッシュし、
前記アクセスサブシステムにおいて、前記クライアントから前記特定のファイルストアオブジェクトに対するサービス要求に応えるために、前記キャッシュされたセッション識別子、前記リースの前記キャッシュされた表示、及び前記キャッシュされたロックステートインジケータを活用し、
前記リースに対応付けられたタイムアウトが経過したという判定に応じて、(a)前記永続性ロック格納場所から前記ロックステートインジケータ、及び(b)前記永続性セッション格納場所から前記セッション識別子を削除する、
ように構成される、前記システム。
2.前記1つまたは複数のコンピューティングデバイスが、
前記アクセスサブシステムにおいて、前記クライアントセッション中に前記特定のクライアントから受信された異なるサービス要求がリース更新動作のカテゴリに属すると決定し、
前記リースの更新を開始する、
ようにさらに構成される、条項1に記載のシステム。
3.前記リースの前記更新を開始するために、前記1つまたは複数のコンピューティングデバイスが、
前記異なるサービス要求に応じて、前記アクセスサブシステムにおいて、前記リースが、閾値期間よりも長い期間の後に失効する予定であると決定し、
前記メタデータサブシステムへの単一バッチリース更新要求の中に、それぞれのクライアントセッションに対応付けられたそれぞれのリースを更新する複数の要求を結合する、
ようにさらに構成される、条項2に記載のシステム。
4.前記アクセスサブシステムが、前記クライアントセッションを確立する前記要求が受信される特定のアクセスノードを含む複数のアクセスノードを備え、前記1つまたは複数のコンピューティングデバイスが、
前記永続性セッション格納場所に格納された前記1つまたは複数の構成要素のうちの特定の構成要素の中に、前記特定のアクセスノードの識別子を格納する、
ようにさらに構成される、条項1に記載のシステム。
5.前記セッションステート識別子及び前記ロックステートインジケータが、(a)NFS(ネットワークファイルシステム)のバージョンまたは(b)SMB(サーバメッセージブロック)のバージョンのうちの1つに従ってフォーマットされる、条項1に記載のシステム。
6.1つまたは複数のコンピューティングデバイスにより、
分散ファイル格納サービスのアクセスサブシステムから前記ファイル格納サービスのメタデータサブシステムに、特定のクライアントのクライアントセッションに対応付けられるセッション識別子の要求を送信することと、
前記アクセスサブシステムにおいて前記メタデータサブシステムから、前記クライアントセッションのメタデータの1つまたは複数の構成要素が格納される永続性セッション格納場所に少なくとも部分的に基づいてセッション識別子を受信することと、
前記特定のクライアントへの前記セッション識別子の送信の前に前記アクセスサブシステムにおいて前記セッション識別子をキャッシュすることと、
前記アクセスサブシステムにおいて、特定のファイルストアオブジェクトでロックが確保される前記クライアントから特定の要求を受信することであって、前記特定の要求が前記セッション識別子を含む、受信することと、
前記メタデータサブシステムにおいて、前記特定のファイルストアオブジェクトに対応付けられた競合するロックステートインジケータが異なるクライアントの代わりに作成されたと決定することと、
前記特定の要求を拒否することと、
を実行することを含む方法。
7.前記1つまたは複数のコンピューティングデバイスにより、
前記アクセスサブシステムにおいて、異なるファイル格納オブジェクトで別のロックが確保される、前記クライアントからの第2の要求を受信し、前記他の要求が前記セッション識別子を備えることと、
前記メタデータサブシステムにおいて、前記異なるファイルストアオブジェクトに対応付けられたロックステートインジケータを格納する永続性ロック格納場所を特定することであって、前記ロックステートインジケータが前記セッション識別子を備える、特定することと、
前記アクセスサブシステムにおいて、前記ロックステートインジケータをキャッシュすることと、
前記アクセスサブシステムにおいて、前記クライアントからの別の要求に応えるために、前記キャッシュされたセッション識別子及び前記ロックステートインジケータの前記キャッシュされた表示を活用することと、
を実行することをさらに含む、条項6に記載の方法。
8.メタデータの前記1つまたは複数の構成要素が、前記クライアントセッションに対応付けられたリースの表示を備え、前記1つまたは複数のコンピューティングデバイスにより、
前記アクセスサブシステムにおいて、前記リースの前記表示をキャッシュすること、
を実行することをさらに含む、条項7に記載の方法。
9.前記1つまたは複数のコンピューティングデバイスにより、
前記アクセスサブシステムにおいて、前記他の要求が、前記ファイルストアオブジェクトに対応付けられたリース更新動作のカテゴリに属すると決定することと、
前記リースの更新を開始することと、
を実行することをさらに含む、条項7に記載の方法。
10.前記リースの前記更新を前記開始することが、
前記他の要求に応じて、前記アクセスサブシステムにおいて、前記リースが、閾値期間よりも長い期間の後に失効する予定であると決定することと、
前記メタデータサブシステムへの単一バッチリース更新要求の中に、それぞれのクライアントセッションに対応付けられたそれぞれのリースを更新する複数の要求を結合することと、
を含む、条項9に記載の方法。
11.前記リースの前記更新を前記開始することが、
前記他の要求に応じて実行される動作の一部として前記アクセスサブシステムにおいて、前記リースが閾値期間よりも短い期間の後に失効する予定であると決定することと、
前記メタデータサブシステムに非バッチリース更新要求を送信することと、
を含む、条項9に記載の方法。
12.前記1つまたは複数のコンピューティングデバイスにより、
前記アクセスサブシステムキャッシュにおいて前記セッション識別子の第1の有効性失効タイムアウト設定値を設定することと、
前記メタデータサブシステムにおいて前記セッション識別子の第2の有効性失効タイムアウトを設定することであって、前記第1の有効性失効タイムアウトが前記第2の有効性失効タイムアウトよりも小さい、設定することと、
を実行することをさらに含む、条項7に記載の方法。
13.前記クライアントセッションのために使用されるファイルシステムプロトコルに従って、特定のリースタイムアウトが前記クライアントセッションに対応付けられ、前記第2の有効性失効タイムアウトが前記特定のリースタイムアウトよりも大きく、前記第1の有効性失効タイムアウトが、前記第2の有効性失効タイムアウトと前記特定のリースタイムアウトの差に少なくとも部分的に基づく、条項12に記載の方法。
14.前記アクセスサブシステムが、特定のアクセスノードを含む複数のアクセスノードを備え、前記1つまたは複数のコンピューティングデバイスにより、
前記メタデータサブシステムにセッション識別子の前記要求を前記送信する前に前記特定のアクセスノードにおいて、前記特定のクライアントから前記クライアントセッションを確立する要求を受信することと、
前記永続性セッション格納場所に格納されたメタデータの1つまたは複数の構成要素のうちの特定の構成要素の中に、前記特定のアクセスノードの識別子を格納することと、
を実行することをさらに含む、条項7に記載の方法。
15.前記1つまたは複数のコンピューティングデバイスにより、
作業負荷分散解析に基づいて前記特定のアクセスノードにおいて、前記クライアントセッションを確立する前記要求のために使用されるネットワーク接続が閉じられると決定することと、
メタデータの前記特定要素から、前記特定のアクセスノードの前記識別子を削除することと、
を実行することをさらに含む、条項14に記載の方法。
16.前記異なるファイルストアオブジェクトが第1のファイルストアに属し、前記1つまたは複数のコンピューティングデバイスにより、
前記第1のファイルストアのために、前記ファイルストアの複数のオブジェクトのためのロックステートインジケータが格納される永続性格納オブジェクトを指定することであって、前記メタデータサブシステムにおいて前記永続性ロック格納場所を前記特定することが、前記ロックステートインジケータを格納する前記永続性格納オブジェクトの特定の部分を識別することを含む、指定することと、
を実行することをさらに含む、条項7に記載の方法。
17.前記セッションステート識別子及び前記ロックステートインジケータが、(a)NFS(ネットワークファイルシステム)のバージョンまたは(b)SMB(サーバメッセージブロック)のバージョンのうちの1つに従ってフォーマットされる、条項6に記載の方法。
18.プログラム命令を格納する非一時的コンピュータアクセス可能格納媒体であって、前記プログラム命令は、1つまたは複数のプロセッサ上で実行されると、
分散ファイル格納サービスのアクセスサブシステムから前記ファイル格納サービスのメタデータサブシステムへ、特定のクライアントのクライアントセッションに対応付けられるセッション識別子の要求を送信し、
前記アクセスサブシステムにおいて、前記クライアントセッションのメタデータの1つまたは複数の構成要素が格納される永続性セッション格納場所に少なくとも部分的に基づいて、前記メタデータサブシステムからセッション識別子を受信し、
前記特定のクライアントへの前記セッション識別子の送信の前に前記アクセスサブシステムにおいて前記セッション識別子をキャッシュし、
前記アクセスサブシステムにおいて、前記メタデータサブシステムからファイルストアオブジェクトのロックステートインジケータを受信し、前記ロックステートインジケータが、前記クライアントセッション中に前記クライアントからの特定の要求に応じて前記メタデータサブシステムで生成され、
前記アクセスサブシステムにおいて、前記ロックステートインジケータをキャッシュし、
前記アクセスサブシステムにおいて、前記キャッシュされたセッション識別子及び前記ロックステートインジケータの前記キャッシュされた表示に少なくとも部分的に基づいて前記特定のファイルストアオブジェクトに対する前記クライアントからの別の要求に対する応答を決定する、
前記非一時的コンピュータアクセス可能格納媒体。
19.メタデータの前記1つまたは複数の構成要素が前記クライアントセッションに対応付けられたリースの表示を備え、前記命令が、前記1つまたは複数のプロセッサで実行されると、
前記アクセスサブシステムにおいて、前記リースの前記表示をキャッシュする、
条項18に記載の非一時的コンピュータアクセス可能格納媒体。
20.前記命令が、前記1つまたは複数のプロセッサで実行されると、
前記アクセスサブシステムにおいて、前記他の要求が、前記ファイルストアオブジェクトに対応付けられたリース更新動作のカテゴリに属すると決定し、
前記アクセスサブシステムから前記リースの更新を開始する、
条項19に記載の非一時的コンピュータアクセス可能格納媒体。
21.前記リースの前記更新を開始するために、前記命令が、前記1つまたは複数のプロセッサで実行されると、
前記アクセスサブシステムにおいて前記他の要求に応じて、前記リースが、閾値期間よりも長い期間の後に失効する予定であると決定し、
前記メタデータサブシステムへの単一バッチリース更新要求の中に、それぞれのクライアントセッションに対応付けられたそれぞれのリースを更新する複数の要求を結合する、
条項20に記載の非一時的コンピュータアクセス可能格納媒体。
22.前記セッションステート識別子及び前記ロックステートインジケータが、(a)NFS(ネットワークファイルシステム)のバージョンまたは(b)SMB(サーバメッセージブロック)のバージョンのうちの1つに従ってフォーマットされる、条項19に記載の非一時的コンピュータアクセス可能格納媒体。
例示的コンピュータシステム
少なくともいくつかの実施形態において、分散ファイル格納サービスのアクセス、メタデータ、及び格納サブシステムのコンポーネント及び/または負荷分散ノードを実行する技術を含む、本明細書において説明される技術のうちの1つまたは複数の一部または全てを実施するサーバは、1つまたは複数のコンピュータアクセス可能媒体を含む、またはそのような媒体にアクセスするように構成される汎用コンピュータシステムを含み得る。図69は、このような汎用コンピューティングデバイス9000を例示する。例示される実施形態において、コンピューティングデバイス9000は、入出力(I/O)インターフェイス9030を介してシステムメモリ9020(不揮発性及び揮発性メモリモジュールの両方を備え得る)に接続された1つまたは複数のプロセッサ9010を含む。コンピューティングデバイス9000はさらに、I/Oインターフェイス9030に接続されたネットワークインターフェイス9040を含む。
様々な実施形態において、コンピューティングデバイス9000は、1つのプロセッサ9010を含むユニプロセッサシステム、またはいくつか(例えば2つ、4つ、8つもしくは別の好適な個数)のプロセッサ9010を含むマルチプロセッサシステムであり得る。プロセッサ9010は、命令を実行可能な任意の好適なプロセッサであり得る。例えば、様々な実施形態において、プロセッサ9010は、様々な命令集合アーキテクチャ(ISA)、例えばx86、PowerPC、SPARC、MIPS‐ISA、またはその他の好適なISA等、そのうちのいずれかを実施する汎用または組込みプロセッサであり得る。マルチプロセッサシステムにおいて、それぞれのプロセッサ9010は一般に、必ずではないが、同一のISAを実施し得る。いくつかの実施態様において、従来のプロセッサの代わりに、または従来のプロセッサに加えて、グラフィック処理ユニット(GPU)が使用され得る。
システムメモリ9020は、命令と、プロセッサ9010(複数可)によりアクセス可能なデータとを格納するように構成され得る。少なくともいくつかの実施形態において、システムメモリ9020は、揮発性及び不揮発性部分両方を備え得る。別の実施形態においては、揮発性メモリのみが使用され得る。様々な実施形態において、システムメモリ9020の揮発性部分は、静的ランダムアクセスメモリ(SRAM)、同期式動的RAM、またはその他の種類のメモリ等、任意の好適なメモリ技術を使用して実行され得る。システムメモリの不揮発性部分(例えば1つまたは複数のNVDIMMを備え得る)に関して、いくつかの実施形態において、NANDフラッシュデバイスを含むフラッシュベースメモリデバイスが使用され得る。少なくともいくつかの実施形態において、システムメモリの不揮発性部分は、超コンデンサまたは他の蓄電装置(例えば電池)等の電源を含み得る。様々な実施形態において、メモリスタベースの抵抗ランダムアクセスメモリ(ReRAM)、3次元NAND技術、強誘電性RAM、磁気抵抗RAM(MRAM)、または様々な種類の相変化メモリ(PCM)のうちのいずれかが、少なくともシステムメモリの不揮発性部分に使用され得る。例示される実施形態において、前述の方法、技術、及びデータ等、1つまたは複数の所望する機能を実行するプログラム命令及びデータは、システムメモリ9020内にコード9025及びデータ9026として格納されることが示される。
一実施形態において、I/Oインターフェイス9030は、プロセッサ9010と、システムメモリ9020と、データオブジェクトパーティションの物理レプリカを格納するのに使用される様々な種類の永続性及び/または揮発性格納デバイス等のネットワークインターフェイス9040または他の周辺インターフェイスを含む任意の周辺デバイスとの間のI/Oトラフィックをデバイス内で調整するように構成され得る。いくつかの実施形態において、I/Oインターフェイス9030は、1つのコンポーネント(例えばシステムメモリ9020)からのデータ信号を、別のコンポーネント(例えばプロセッサ9010)が使用するのに好適な形式に変換するために必要な任意のプロトコル変換、タイミング変換、または他のデータ変換を行い得る。いくつかの実施形態において、I/Oインターフェイス9030は、例えば周辺構成要素相互接続(PCI)バス規格または汎用シリアルバス(USB)規格の変形等、様々な種類の周辺バスを介して取り付けられるデバイスのサポートを含み得る。いくつかの実施形態において、I/Oインターフェイス9030の機能は、例えばノースブリッジとサウスブリッジといった2つ以上の別々のコンポーネントに分割され得る。また、いくつかの実施形態において、システムメモリ9020に対するインターフェイス等、I/Oインターフェイス9030の機能性のうちの一部または全ては、プロセッサ9010に直接取込まれ得る。
ネットワークインターフェイス9040は、コンピューティングデバイス9000と、例えば図1から図68までにおいて例示される他のコンピュータシステムまたはデバイス等、ネットワーク9050(複数可)に接続された他のデバイス9060との間でデータ交換が可能なように構成され得る。様々な実施形態において、ネットワークインターフェイス9040は、例えばイーサネット(登録商標)ネットワークの類等、任意の好適な有線または無線汎用データネットワークを介して、通信に対応し得る。さらに、ネットワークインターフェイス9040は、アナログ音声ネットワークもしくはデジタルファイバ通信ネットワーク等の電気通信/電話ネットワークを介した、またはファイバチャネルSAN等の格納エリアネットワークを介した、またはその他の好適な種類のネットワーク及び/またはプロトコルを介した、通信に対応し得る。
いくつかの実施形態において、システムメモリ9020は、対応方法及び装置の実施形態を実行するために、図1から図68に関して前述されたプログラム命令及びデータを格納するように構成されたコンピュータアクセス可能媒体の一実施形態であり得る。しかしながら、別の実施形態において、プログラム命令及び/またはデータは、異なる種類のコンピュータアクセス可能媒体上で受信、送信、格納され得る。一般に、コンピュータアクセス可能媒体には、例えばI/Oインターフェイス9030を介してコンピューティングデバイス9000に接続されるディスクまたはDVD/CDといった磁気媒体または光学式媒体等の非一時的記憶媒体またはメモリ媒体が含まれ得る。非一時的コンピュータアクセス可能記憶媒体には、コンピューティングデバイス9000のいくつかの実施形態にシステムメモリ9020または別の種類のメモリとして含まれ得るRAM(例えばSDRAM、DDR‐SDRAM、RDRAM、SRAM等)、ROM等の任意の揮発性または不揮発性媒体も含まれ得る。さらに、コンピュータアクセス可能媒体には、送信媒体すなわち信号が含まれ、このような信号にはネットワーク及び/または無線リンク等の通信媒体を介して伝達される電気、電磁、またはデジタル信号等があり、当該信号伝達はネットワークインターフェイス9040を介して実行され得る。様々な実施形態において説明される機能性を実行するために、図69に例示されるような多重コンピューティングデバイスの一部または全てが使用され得る。例えば、様々な異なるデバイス及びサーバ上で稼働するソフトウェアコンポーネントは、協働して機能性を提供し得る。いくつかの実施形態において、説明される機能性の一部は、汎用コンピュータシステムを使用して実行されるのに加えて、またはそれに代わって、格納デバイス、ネットワークデバイス、または特殊目的コンピュータシステムを使用して実行され得る。本明細書で使用される「コンピューティングデバイス」という用語は、少なくとも全てのこれらの種類のデバイスを指し、かつこれらの種類のデバイスに限定されない。
結論
様々な実施形態はさらに、コンピュータアクセス可能媒体に関する前述の説明に従って実行される命令及び/またはデータの受信、送信、または格納処理を含み得る。一般に、コンピュータアクセス可能媒体には、磁気媒体または光学式媒体等の記憶媒体もしくはメモリ媒体が含まれ得る。これには例えば、ディスクもしくはDVD/CD‐ROM、RAM(例えばSDRAM、DDR、RDRAM、SRAM等)、ROM等の揮発性または不揮発性媒体、並びに送信媒体、すなわちネットワーク及び/または無線リンク等の通信媒体を介して伝達される電気、電磁、またはデジタル信号等の信号がある。
本明細書において図示及び説明される様々な方法は、方法の例示的実施形態を表す。方法は、ソフトウェア、ハードウェア、またはこれらの組合せで実行され得る。方法の順序は変更され、そして様々な要素が追加、並替、結合、省略、修正等され得る。
本開示の恩恵を受ける当業者には明らかであるように、様々な修正及び変更を行うことが可能である。全てのこのような修正及び変更を包含することが意図され、従って前述の説明も制限的な意味ではなく例示的な意味としてみなされるものとする。

Claims (15)

  1. 1つまたは複数のコンピューティングデバイスを備えるシステムであって、前記コンピューティングデバイスは、
    分散マルチテナントファイル格納サービスのアクセスサブシステムにおいて、特定のクライアントの代わりにファイルストア動作のためのクライアントセッションを確立する要求を受信し、
    前記アクセスシステムから前記ファイル格納サービスのメタデータサブシステムに、前記クライアントセッションと対応付けられるセッション識別子の要求を送信し、
    前記メタデータサブシステムから前記アクセスサブシステムに、前記クライアントセッションのメタデータの1つまたは複数の構成要素が格納される永続性セッション格納場所の少なくとも一部に基づいてセッション識別子を提供し、前記1つまたは複数の構成要素が前記クライアントセッションに対応付けられたリースの表示を含み、
    前記アクセスサブシステムにおいて、前記特定のクライアントへの前記セッション識別子の送信の前に、前記セッション識別子及び前記リースの表示をキャッシュし、
    前記メタデータサブシステムにおいて、特定のファイルストアオブジェクトに対応付けられたロックステートインジケータを格納する永続性ロック格納場所を決定し、前記ロックステートインジケータが前記クライアントからの異なる要求に応じて生成され、前記異なる要求が前記セッション識別子を含み、前記ロックステートインジケータが前記セッション識別子を含み、
    前記アクセスサブシステムにおいて、前記ロックステートインジケータをキャッシュし、
    前記アクセスサブシステムにおいて、前記クライアントから前記特定のファイルストアオブジェクトに対するサービス要求に応えるために、前記キャッシュされたセッション識別子、前記リースの前記キャッシュされた表示、及び前記キャッシュされたロックステートインジケータを活用し、
    前記リースに対応付けられたタイムアウトが経過したという判定に応じて、(a)前記永続性ロック格納場所から前記ロックステートインジケータ、及び(b)前記永続性セッション格納場所から前記セッション識別子を削除する、
    ように構成される、システム。
  2. 前記1つまたは複数のコンピューティングデバイスが、
    前記アクセスサブシステムにおいて、前記クライアントセッション中に前記特定のクライアントから受信された異なるサービス要求がリース更新動作のカテゴリに属すると決定し、
    前記リース更新動作を開始する、
    ようにさらに構成される、請求項1に記載のシステム。
  3. 前記リース更新動作を開始するために、前記1つまたは複数のコンピューティングデバイスが、
    前記異なるサービス要求に応じて、前記アクセスサブシステムにおいて、前記リースが、閾値期間よりも長い期間の後に失効する予定であると決定し、
    前記メタデータサブシステムへの単一バッチリース更新要求の中に、それぞれのクライアントセッションに対応付けられたそれぞれのリースを更新する複数の要求を結合する、
    ようにさらに構成される、請求項2に記載のシステム。
  4. 前記アクセスサブシステムが、前記クライアントセッションを確立する前記要求が受信される特定のアクセスノードを含む複数のアクセスノードを備え、前記1つまたは複数のコンピューティングデバイスが、
    前記永続性セッション格納場所に格納された前記1つまたは複数の構成要素のうちの特定の構成要素の中に、前記特定のアクセスノードの識別子を格納する、
    ようにさらに構成される、請求項1に記載のシステム。
  5. 1つまたは複数のコンピューティングデバイスにより、
    分散ファイル格納サービスのアクセスサブシステムから前記ファイル格納サービスのメタデータサブシステムに、特定のクライアントのクライアントセッションに対応付けられるセッション識別子の要求を送信することと、
    前記アクセスサブシステムにおいて前記メタデータサブシステムから、前記クライアントセッションのメタデータの1つまたは複数の構成要素が格納される永続性セッション格納場所の少なくとも一部に基づいてセッション識別子を受信することと、
    前記特定のクライアントへの前記セッション識別子の送信の前に前記アクセスサブシステムにおいて前記セッション識別子をキャッシュすることと、
    前記アクセスサブシステムにおいて、特定のファイルストアオブジェクトでロックが確保される前記特定のクライアントから前記セッション識別子を含む特定の要求を受信することと、
    前記メタデータサブシステムにおいて、前記特定のファイルストアオブジェクトに対応付けられた競合するロックステートインジケータが異なるクライアントの代わりに作成されたと決定することと、
    前記特定の要求を拒否することと、
    を実行することを含む方法。
  6. 前記1つまたは複数のコンピューティングデバイスにより、
    前記アクセスサブシステムにおいて、異なるファイルストアオブジェクトで別のロックが確保される、前記特定のクライアントからの前記セッション識別子を備える第2の要求を受信することと、
    前記メタデータサブシステムにおいて、前記異なるファイルストアオブジェクトに対応付けられた前記セッション識別子を備えるロックステートインジケータを格納する永続性ロック格納場所を特定することと、
    前記アクセスサブシステムにおいて、前記ロックステートインジケータをキャッシュすることと、
    前記アクセスサブシステムにおいて、前記特定のクライアントからの別の要求に応えるために、前記キャッシュされたセッション識別子及び前記ロックステートインジケータの前記キャッシュされた表示を活用することと、
    を実行することをさらに含む、請求項5に記載の方法。
  7. 前記1つまたは複数のコンピューティングデバイスにより、
    前記アクセスサブシステムにおいて、前記別の要求が、前記ファイルストアオブジェクトに対応付けられたリース更新動作のカテゴリに属すると決定することと、
    前記リース更新動作を開始することと、
    を実行することをさらに含む、請求項6に記載の方法。
  8. 前記リース更新動作を開始することが、
    前記別の要求に応じて、前記アクセスサブシステムにおいて、前記リースが、閾値期間よりも長い期間の後に失効する予定であると決定することと、
    前記メタデータサブシステムへの単一バッチリース更新要求の中に、それぞれのクライアントセッションに対応付けられたそれぞれのリースを更新する複数の要求を結合することと、
    を含む、請求項7に記載の方法。
  9. 前記リース更新動作を開始することが、
    前記アクセスサブシステムにおいて前記別の要求に応じて実行される動作の一部として、前記リースが閾値期間よりも短い期間の後に失効する予定であると決定することと、
    前記メタデータサブシステムに非バッチリース更新要求を送信することと、
    を含む、請求項7に記載の方法。
  10. 前記1つまたは複数のコンピューティングデバイスにより、
    前記アクセスサブシステムキャッシュにおいて前記セッション識別子の第1の有効性失効タイムアウト設定値を設定することと、
    前記メタデータサブシステムにおいて前記セッション識別子の第2の有効性失効タイムアウトを設定することであって、前記第1の有効性失効タイムアウトが前記第2の有効性失効タイムアウトよりも小さくなるように設定することと、
    を実行することをさらに含む、請求項5に記載の方法。
  11. 前記アクセスサブシステムが、特定のアクセスノードを含む複数のアクセスノードを備え、前記1つまたは複数のコンピューティングデバイスにより、
    前記メタデータサブシステムに前記セッション識別子の要求を送信する前に前記特定のアクセスノードにおいて、前記特定のクライアントから前記クライアントセッションを確立する要求を受信することと、
    前記永続性セッション格納場所に格納されたメタデータの1つまたは複数の構成要素のうちの特定の構成要素の中に、前記特定のアクセスノードの識別子を格納することと、
    を実行することをさらに含む、請求項5に記載の方法。
  12. プログラム命令を格納する非一時的コンピュータアクセス可能格納媒体であって、前記プログラム命令は、1つまたは複数のプロセッサ上で実行されると、
    分散ファイル格納サービスのアクセスサブシステムから前記ファイル格納サービスのメタデータサブシステムへ、特定のクライアントのクライアントセッションに対応付けられるセッション識別子の要求を送信し、
    前記アクセスサブシステムにおいて、前記クライアントセッションのメタデータの1つまたは複数の構成要素が格納される永続性セッション格納場所の少なくとも一部に基づいて、前記メタデータサブシステムからセッション識別子を受信し、
    前記特定のクライアントへの前記セッション識別子の送信の前に前記アクセスサブシステムにおいて前記セッション識別子をキャッシュし、
    前記アクセスサブシステムにおいて、前記メタデータサブシステムから前記クライアントセッション中に前記特定のクライアントからの特定の要求に応じて前記メタデータサブシステムで生成されたファイルストアオブジェクトのロックステートインジケータを受信し、
    前記アクセスサブシステムにおいて、前記ロックステートインジケータをキャッシュし、
    前記アクセスサブシステムにおいて、前記キャッシュされたセッション識別子及び前記ロックステートインジケータの前記キャッシュされた表示の少なくとも一部に基づいて前記ファイルストアオブジェクトに対する前記特定のクライアントからの別の要求に対する応答を決定する、
    非一時的コンピュータアクセス可能格納媒体。
  13. メタデータの前記1つまたは複数の構成要素が前記クライアントセッションに対応付けられたリースの表示を備え、前記プログラム命令が、前記1つまたは複数のプロセッサで実行されると、
    前記アクセスサブシステムにおいて、前記リースの前記表示をキャッシュする、
    請求項12に記載の非一時的コンピュータアクセス可能格納媒体。
  14. 前記プログラム命令が、前記1つまたは複数のプロセッサで実行されると、
    前記アクセスサブシステムにおいて、前記別の要求が、前記ファイルストアオブジェクトに対応付けられたリース更新動作のカテゴリに属すると決定し、
    前記アクセスサブシステムから前記リース更新動作を開始する、
    請求項12に記載の非一時的コンピュータアクセス可能格納媒体。
  15. 前記リース更新動作を開始するために、前記プログラム命令が、前記1つまたは複数のプロセッサで実行されると、
    前記アクセスサブシステムにおいて前記別の要求に応じて、前記リースが、閾値期間よりも長い期間の後に失効する予定であると決定し、
    前記メタデータサブシステムへの単一バッチリース更新要求の中に、それぞれのクライアントセッションに対応付けられたそれぞれのリースを更新する複数の要求を結合する、
    請求項14に記載の非一時的コンピュータアクセス可能格納媒体。
JP2016560580A 2014-03-31 2015-03-31 分散格納システムにおけるセッション管理 Active JP6371859B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/231,057 US10264071B2 (en) 2014-03-31 2014-03-31 Session management in distributed storage systems
US14/231,057 2014-03-31
PCT/US2015/023669 WO2015153659A1 (en) 2014-03-31 2015-03-31 Session management in distributed storage systems

Publications (2)

Publication Number Publication Date
JP2017510004A true JP2017510004A (ja) 2017-04-06
JP6371859B2 JP6371859B2 (ja) 2018-08-08

Family

ID=54191872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016560580A Active JP6371859B2 (ja) 2014-03-31 2015-03-31 分散格納システムにおけるセッション管理

Country Status (10)

Country Link
US (1) US10264071B2 (ja)
EP (1) EP3126999B1 (ja)
JP (1) JP6371859B2 (ja)
KR (1) KR101764559B1 (ja)
CN (1) CN106462544B (ja)
AU (1) AU2015240904B2 (ja)
BR (1) BR112016022636B1 (ja)
CA (1) CA2944461C (ja)
SG (1) SG11201608165PA (ja)
WO (1) WO2015153659A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022542980A (ja) * 2019-07-31 2022-10-07 イーライ リリー アンド カンパニー インスリン類似体およびその使用方法

Families Citing this family (305)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180067820A1 (en) * 2005-09-30 2018-03-08 International Business Machines Corporation Method and system for using pre-existing connections in a dispersed storage network
US11614893B2 (en) 2010-09-15 2023-03-28 Pure Storage, Inc. Optimizing storage device access based on latency
US8589640B2 (en) 2011-10-14 2013-11-19 Pure Storage, Inc. Method for maintaining multiple fingerprint tables in a deduplicating storage system
US9571331B1 (en) * 2012-11-21 2017-02-14 Amazon Technologies, Inc. Techniques for accessing local networks via a virtualized gateway
US10268526B1 (en) * 2012-12-28 2019-04-23 EMC IP Holding Company LLC Using response time objectives in a storage system
US9225638B2 (en) 2013-05-09 2015-12-29 Vmware, Inc. Method and system for service switching using service tags
US9686180B2 (en) 2013-11-05 2017-06-20 Cisco Technology, Inc. Managing routing information for tunnel endpoints in overlay networks
US11960371B2 (en) 2014-06-04 2024-04-16 Pure Storage, Inc. Message persistence in a zoned system
US9003144B1 (en) 2014-06-04 2015-04-07 Pure Storage, Inc. Mechanism for persisting messages in a storage system
US11068363B1 (en) 2014-06-04 2021-07-20 Pure Storage, Inc. Proactively rebuilding data in a storage cluster
US9218244B1 (en) 2014-06-04 2015-12-22 Pure Storage, Inc. Rebuilding data across storage nodes
US10574754B1 (en) 2014-06-04 2020-02-25 Pure Storage, Inc. Multi-chassis array with multi-level load balancing
US9836234B2 (en) 2014-06-04 2017-12-05 Pure Storage, Inc. Storage cluster
US11399063B2 (en) 2014-06-04 2022-07-26 Pure Storage, Inc. Network authentication for a storage system
US11652884B2 (en) 2014-06-04 2023-05-16 Pure Storage, Inc. Customized hash algorithms
US9367243B1 (en) 2014-06-04 2016-06-14 Pure Storage, Inc. Scalable non-uniform storage sizes
US9213485B1 (en) * 2014-06-04 2015-12-15 Pure Storage, Inc. Storage system architecture
US8850108B1 (en) 2014-06-04 2014-09-30 Pure Storage, Inc. Storage cluster
US9612952B2 (en) 2014-06-04 2017-04-04 Pure Storage, Inc. Automatically reconfiguring a storage memory topology
US10963810B2 (en) * 2014-06-30 2021-03-30 Amazon Technologies, Inc. Efficient duplicate detection for machine learning data sets
US11604598B2 (en) 2014-07-02 2023-03-14 Pure Storage, Inc. Storage cluster with zoned drives
US11886308B2 (en) 2014-07-02 2024-01-30 Pure Storage, Inc. Dual class of service for unified file and object messaging
US9021297B1 (en) 2014-07-02 2015-04-28 Pure Storage, Inc. Redundant, fault-tolerant, distributed remote procedure call cache in a storage system
US10114757B2 (en) 2014-07-02 2018-10-30 Pure Storage, Inc. Nonrepeating identifiers in an address space of a non-volatile solid-state storage
US8868825B1 (en) 2014-07-02 2014-10-21 Pure Storage, Inc. Nonrepeating identifiers in an address space of a non-volatile solid-state storage
US9836245B2 (en) 2014-07-02 2017-12-05 Pure Storage, Inc. Non-volatile RAM and flash memory in a non-volatile solid-state storage
US9747229B1 (en) 2014-07-03 2017-08-29 Pure Storage, Inc. Self-describing data format for DMA in a non-volatile solid-state storage
US8874836B1 (en) 2014-07-03 2014-10-28 Pure Storage, Inc. Scheduling policy for queues in a non-volatile solid-state storage
US9811677B2 (en) 2014-07-03 2017-11-07 Pure Storage, Inc. Secure data replication in a storage grid
US10853311B1 (en) 2014-07-03 2020-12-01 Pure Storage, Inc. Administration through files in a storage system
US9887937B2 (en) * 2014-07-15 2018-02-06 Cohesity, Inc. Distributed fair allocation of shared resources to constituents of a cluster
US20160019300A1 (en) * 2014-07-18 2016-01-21 Microsoft Corporation Identifying Files for Data Write Operations
US20160028833A1 (en) * 2014-07-25 2016-01-28 Violeta Georgieva Tenant aware session manager
US9766972B2 (en) 2014-08-07 2017-09-19 Pure Storage, Inc. Masking defective bits in a storage array
US9483346B2 (en) 2014-08-07 2016-11-01 Pure Storage, Inc. Data rebuild on feedback from a queue in a non-volatile solid-state storage
US10983859B2 (en) 2014-08-07 2021-04-20 Pure Storage, Inc. Adjustable error correction based on memory health in a storage unit
US9082512B1 (en) 2014-08-07 2015-07-14 Pure Storage, Inc. Die-level monitoring in a storage cluster
US9558069B2 (en) 2014-08-07 2017-01-31 Pure Storage, Inc. Failure mapping in a storage array
US9495255B2 (en) * 2014-08-07 2016-11-15 Pure Storage, Inc. Error recovery in a storage cluster
US20160048342A1 (en) * 2014-08-12 2016-02-18 Facebook, Inc. Reducing read/write overhead in a storage array
US10079711B1 (en) 2014-08-20 2018-09-18 Pure Storage, Inc. Virtual file server with preserved MAC address
US20160088093A1 (en) * 2014-09-24 2016-03-24 V5 Systems, Inc. Dynamic data management
US20160094665A1 (en) * 2014-09-29 2016-03-31 Jan Kellmereit Session Handling in a Stateless Communication Environment
US10516568B2 (en) 2014-09-30 2019-12-24 Nicira, Inc. Controller driven reconfiguration of a multi-layered application or service model
US9774537B2 (en) 2014-09-30 2017-09-26 Nicira, Inc. Dynamically adjusting load balancing
US9755898B2 (en) 2014-09-30 2017-09-05 Nicira, Inc. Elastically managing a service node group
KR101628071B1 (ko) * 2014-10-21 2016-06-09 (주)해든브릿지 대규모 그룹통신 방법 및 시스템
CN104317556B (zh) * 2014-10-22 2018-03-16 华为技术有限公司 一种流式应用升级方法、主控节点及流计算系统
US9697227B2 (en) 2014-10-27 2017-07-04 Cohesity, Inc. Concurrent access and transactions in a distributed file system
US10116493B2 (en) 2014-11-21 2018-10-30 Cisco Technology, Inc. Recovering from virtual port channel peer failure
US9672494B2 (en) * 2014-11-25 2017-06-06 Sap Se Light-weight lifecycle management of enqueue locks
US9767118B2 (en) * 2014-12-01 2017-09-19 Dell Products, Lp Optimized UEFI file system with network file system compound statements
US10423507B1 (en) 2014-12-05 2019-09-24 EMC IP Holding Company LLC Repairing a site cache in a distributed file system
US10445296B1 (en) 2014-12-05 2019-10-15 EMC IP Holding Company LLC Reading from a site cache in a distributed file system
US10021212B1 (en) 2014-12-05 2018-07-10 EMC IP Holding Company LLC Distributed file systems on content delivery networks
US10430385B1 (en) 2014-12-05 2019-10-01 EMC IP Holding Company LLC Limited deduplication scope for distributed file systems
US10951705B1 (en) 2014-12-05 2021-03-16 EMC IP Holding Company LLC Write leases for distributed file systems
US10936494B1 (en) 2014-12-05 2021-03-02 EMC IP Holding Company LLC Site cache manager for a distributed file system
US10452619B1 (en) 2014-12-05 2019-10-22 EMC IP Holding Company LLC Decreasing a site cache capacity in a distributed file system
US9485310B1 (en) * 2014-12-23 2016-11-01 EMC IP Holding Company LLC Multi-core storage processor assigning other cores to process requests of core-affined streams
US10095425B1 (en) * 2014-12-30 2018-10-09 EMC IP Holding Company LLC Techniques for storing data
US9729448B2 (en) * 2015-01-22 2017-08-08 International Business Machines Corporation Congestion detection using a differentiated packet pair
JP2018505501A (ja) * 2015-01-25 2018-02-22 イグアジオ システムズ エルティーディー. アプリケーション中心のオブジェクトストレージ
US11188665B2 (en) 2015-02-27 2021-11-30 Pure Storage, Inc. Using internal sensors to detect adverse interference and take defensive actions
US10423502B2 (en) * 2015-02-27 2019-09-24 Pure Storage, Inc. Stand-by distributed storage units
US9916275B2 (en) * 2015-03-09 2018-03-13 International Business Machines Corporation Preventing input/output (I/O) traffic overloading of an interconnect channel in a distributed data storage system
US9948615B1 (en) 2015-03-16 2018-04-17 Pure Storage, Inc. Increased storage unit encryption based on loss of trust
US11294893B2 (en) 2015-03-20 2022-04-05 Pure Storage, Inc. Aggregation of queries
US9940234B2 (en) 2015-03-26 2018-04-10 Pure Storage, Inc. Aggressive data deduplication using lazy garbage collection
US10082985B2 (en) 2015-03-27 2018-09-25 Pure Storage, Inc. Data striping across storage nodes that are assigned to multiple logical arrays
US10594743B2 (en) 2015-04-03 2020-03-17 Nicira, Inc. Method, apparatus, and system for implementing a content switch
US10178169B2 (en) 2015-04-09 2019-01-08 Pure Storage, Inc. Point to point based backend communication layer for storage processing
US9672125B2 (en) 2015-04-10 2017-06-06 Pure Storage, Inc. Ability to partition an array into two or more logical arrays with independently running software
US10140149B1 (en) 2015-05-19 2018-11-27 Pure Storage, Inc. Transactional commits with hardware assists in remote memory
US9817576B2 (en) 2015-05-27 2017-11-14 Pure Storage, Inc. Parallel update to NVRAM
US10326840B2 (en) * 2015-06-05 2019-06-18 International Business Machines Corporation Secure sharing of storage area networks in a cloud
US10148493B1 (en) * 2015-06-08 2018-12-04 Infoblox Inc. API gateway for network policy and configuration management with public cloud
TWI561983B (en) * 2015-06-10 2016-12-11 Phison Electronics Corp Method of accessing buffer memory, memory controller and memory storage device
US10095431B2 (en) * 2015-06-18 2018-10-09 John Edward Benkert Device controller and method of enforcing time-based sector level security
US10846275B2 (en) 2015-06-26 2020-11-24 Pure Storage, Inc. Key management in a storage device
US10983732B2 (en) 2015-07-13 2021-04-20 Pure Storage, Inc. Method and system for accessing a file
US11232079B2 (en) 2015-07-16 2022-01-25 Pure Storage, Inc. Efficient distribution of large directories
US11609958B1 (en) * 2015-07-17 2023-03-21 EMC IP Holding Company LLC System and method for managing log records of elements of a distributed computing environment
US10108355B2 (en) 2015-09-01 2018-10-23 Pure Storage, Inc. Erase block state detection
US11341136B2 (en) 2015-09-04 2022-05-24 Pure Storage, Inc. Dynamically resizable structures for approximate membership queries
US9768953B2 (en) 2015-09-30 2017-09-19 Pure Storage, Inc. Resharing of a split secret
US10853266B2 (en) 2015-09-30 2020-12-01 Pure Storage, Inc. Hardware assisted data lookup methods
US10762069B2 (en) 2015-09-30 2020-09-01 Pure Storage, Inc. Mechanism for a system where data and metadata are located closely together
US9843453B2 (en) 2015-10-23 2017-12-12 Pure Storage, Inc. Authorizing I/O commands with I/O tokens
CN106649401A (zh) * 2015-11-03 2017-05-10 阿里巴巴集团控股有限公司 分布式文件系统中的数据写入方法和装置
US10007457B2 (en) 2015-12-22 2018-06-26 Pure Storage, Inc. Distributed transactions with token-associated execution
US10162834B2 (en) * 2016-01-29 2018-12-25 Vmware, Inc. Fine-grained metadata management in a distributed file system
CN107046552B (zh) * 2016-02-05 2020-10-23 华为技术有限公司 基于心跳的数据同步装置、方法及分布式存储系统
US10142163B2 (en) 2016-03-07 2018-11-27 Cisco Technology, Inc BFD over VxLAN on vPC uplinks
US10341181B2 (en) * 2016-03-07 2019-07-02 International Business Machines Corporation Method and apparatus to allow dynamic changes of a replica network configuration in distributed systems
US10496607B2 (en) * 2016-04-01 2019-12-03 Tuxera Inc. Systems and methods for enabling modifications of multiple data objects within a file system volume
US10261690B1 (en) 2016-05-03 2019-04-16 Pure Storage, Inc. Systems and methods for operating a storage system
US11231858B2 (en) 2016-05-19 2022-01-25 Pure Storage, Inc. Dynamically configuring a storage system to facilitate independent scaling of resources
US10333828B2 (en) * 2016-05-31 2019-06-25 Cisco Technology, Inc. Bidirectional multicasting over virtual port channel
US10691567B2 (en) 2016-06-03 2020-06-23 Pure Storage, Inc. Dynamically forming a failure domain in a storage system that includes a plurality of blades
US11176081B2 (en) * 2016-06-23 2021-11-16 Halliburton Energy Services, Inc. Parallel, distributed processing in a heterogeneous, distributed environment
US10481821B2 (en) * 2016-06-28 2019-11-19 Vmware, Inc. Replication protocol with consensus for a decentralized control plane in a computer system
US10503697B1 (en) * 2016-06-30 2019-12-10 EMC IP Holding Company LLC Small file storage system
US11030176B2 (en) * 2016-07-01 2021-06-08 Ebay Inc. Distributed storage of metadata for large binary data
US11226748B2 (en) * 2016-07-05 2022-01-18 Red Hat Israel, Ltd Differentiating open and abandoned transactions in a shared storage environment
US11861188B2 (en) 2016-07-19 2024-01-02 Pure Storage, Inc. System having modular accelerators
US11706895B2 (en) 2016-07-19 2023-07-18 Pure Storage, Inc. Independent scaling of compute resources and storage resources in a storage system
US11509501B2 (en) 2016-07-20 2022-11-22 Cisco Technology, Inc. Automatic port verification and policy application for rogue devices
US11449232B1 (en) 2016-07-22 2022-09-20 Pure Storage, Inc. Optimal scheduling of flash operations
US10768819B2 (en) 2016-07-22 2020-09-08 Pure Storage, Inc. Hardware support for non-disruptive upgrades
US9672905B1 (en) 2016-07-22 2017-06-06 Pure Storage, Inc. Optimize data protection layouts based on distributed flash wear leveling
US11080155B2 (en) 2016-07-24 2021-08-03 Pure Storage, Inc. Identifying error types among flash memory
US10216420B1 (en) 2016-07-24 2019-02-26 Pure Storage, Inc. Calibration of flash channels in SSD
US11604690B2 (en) 2016-07-24 2023-03-14 Pure Storage, Inc. Online failure span determination
US11797212B2 (en) 2016-07-26 2023-10-24 Pure Storage, Inc. Data migration for zoned drives
US10366004B2 (en) 2016-07-26 2019-07-30 Pure Storage, Inc. Storage system with elective garbage collection to reduce flash contention
US11886334B2 (en) 2016-07-26 2024-01-30 Pure Storage, Inc. Optimizing spool and memory space management
US10203903B2 (en) 2016-07-26 2019-02-12 Pure Storage, Inc. Geometry based, space aware shelf/writegroup evacuation
US11734169B2 (en) 2016-07-26 2023-08-22 Pure Storage, Inc. Optimizing spool and memory space management
US10853253B2 (en) * 2016-08-30 2020-12-01 Oracle International Corporation Method and systems for master establishment using service-based statistics
US10193750B2 (en) 2016-09-07 2019-01-29 Cisco Technology, Inc. Managing virtual port channel switch peers from software-defined network controller
US11422719B2 (en) 2016-09-15 2022-08-23 Pure Storage, Inc. Distributed file deletion and truncation
US9747039B1 (en) 2016-10-04 2017-08-29 Pure Storage, Inc. Reservations over multiple paths on NVMe over fabrics
US10756816B1 (en) 2016-10-04 2020-08-25 Pure Storage, Inc. Optimized fibre channel and non-volatile memory express access
US10171509B2 (en) * 2016-11-10 2019-01-01 International Business Machines Corporation Filtering and redacting blockchain transactions
US10452482B2 (en) * 2016-12-14 2019-10-22 Oracle International Corporation Systems and methods for continuously available network file system (NFS) state data
US11550481B2 (en) 2016-12-19 2023-01-10 Pure Storage, Inc. Efficiently writing data in a zoned drive storage system
US11307998B2 (en) 2017-01-09 2022-04-19 Pure Storage, Inc. Storage efficiency of encrypted host system data
US11955187B2 (en) 2017-01-13 2024-04-09 Pure Storage, Inc. Refresh of differing capacity NAND
US9747158B1 (en) 2017-01-13 2017-08-29 Pure Storage, Inc. Intelligent refresh of 3D NAND
US10979223B2 (en) 2017-01-31 2021-04-13 Pure Storage, Inc. Separate encryption for a solid-state drive
US10248495B2 (en) 2017-02-17 2019-04-02 International Business Machines Corporation Eventual consistency intent cleanup in a dispersed storage network
CN108512753B (zh) * 2017-02-28 2020-09-29 华为技术有限公司 一种集群文件系统中消息传输的方法及装置
US20210117403A1 (en) * 2017-03-13 2021-04-22 Ori Modai Stateless data processing
US10360009B2 (en) * 2017-03-17 2019-07-23 Verizon Patent And Licensing Inc. Persistent data storage for a microservices application
US10628057B2 (en) * 2017-03-28 2020-04-21 Hewlett Packard Enterprise Development Lp Capability based locking and access of shared persistent memory
US10565115B2 (en) * 2017-03-30 2020-02-18 Western Digital Technologies, Inc. Calculating the optimal number of LBNS to prefetch per CPU
US10528488B1 (en) 2017-03-30 2020-01-07 Pure Storage, Inc. Efficient name coding
US11016667B1 (en) 2017-04-05 2021-05-25 Pure Storage, Inc. Efficient mapping for LUNs in storage memory with holes in address space
US11243949B2 (en) 2017-04-21 2022-02-08 Microsoft Technology Licensing, Llc Query execution across multiple graphs
US10944671B2 (en) 2017-04-27 2021-03-09 Pure Storage, Inc. Efficient data forwarding in a networked device
US10402241B1 (en) * 2017-04-27 2019-09-03 EMC IP Holding Company LLC Forwarding metadata proxy server for asynchronous metadata operations
US10516645B1 (en) 2017-04-27 2019-12-24 Pure Storage, Inc. Address resolution broadcasting in a networked device
US10141050B1 (en) 2017-04-27 2018-11-27 Pure Storage, Inc. Page writes for triple level cell flash memory
CN108984334B (zh) * 2017-06-02 2021-11-05 伊姆西Ip控股有限责任公司 用于管理会话的方法和设备
US11467913B1 (en) 2017-06-07 2022-10-11 Pure Storage, Inc. Snapshots with crash consistency in a storage system
US20190073395A1 (en) * 2017-06-07 2019-03-07 Scality, S.A. Metad search process for large scale storage system
US11947814B2 (en) 2017-06-11 2024-04-02 Pure Storage, Inc. Optimizing resiliency group formation stability
US11138103B1 (en) 2017-06-11 2021-10-05 Pure Storage, Inc. Resiliency groups
US11782625B2 (en) 2017-06-11 2023-10-10 Pure Storage, Inc. Heterogeneity supportive resiliency groups
US10547509B2 (en) 2017-06-19 2020-01-28 Cisco Technology, Inc. Validation of a virtual port channel (VPC) endpoint in the network fabric
CN107329695B (zh) * 2017-06-22 2020-03-20 上海七牛信息技术有限公司 一种分布式存储内存管理方法、系统及计算机存储介质
US10601917B2 (en) * 2017-06-27 2020-03-24 Red Hat, Inc. Containerized high-performance network storage
US10425473B1 (en) 2017-07-03 2019-09-24 Pure Storage, Inc. Stateful connection reset in a storage cluster with a stateless load balancer
CN109257396B (zh) * 2017-07-12 2021-07-09 阿里巴巴集团控股有限公司 一种分布式锁调度方法及装置
KR102430791B1 (ko) * 2017-07-19 2022-08-10 에스케이하이닉스 주식회사 컨트롤러 및 컨트롤러의 동작방법
US10706038B2 (en) * 2017-07-27 2020-07-07 Cisco Technology, Inc. System and method for state object data store
US10402266B1 (en) 2017-07-31 2019-09-03 Pure Storage, Inc. Redundant array of independent disks in a direct-mapped flash storage system
US10671482B2 (en) * 2017-09-12 2020-06-02 Cohesity, Inc. Providing consistency in a distributed data store
US10877827B2 (en) 2017-09-15 2020-12-29 Pure Storage, Inc. Read voltage optimization
US10210926B1 (en) 2017-09-15 2019-02-19 Pure Storage, Inc. Tracking of optimum read voltage thresholds in nand flash devices
EP3692458B1 (en) * 2017-10-03 2022-04-13 Varonis Systems, Inc. Systems and methods for preventing excess user authentication token utilization conditions in an enterprise computer environment
CN107577954A (zh) * 2017-10-20 2018-01-12 国信嘉宁数据技术有限公司 一种电子数据保全中心系统及电子数据保全存储方法
US10797966B2 (en) 2017-10-29 2020-10-06 Nicira, Inc. Service operation chaining
US10496330B1 (en) 2017-10-31 2019-12-03 Pure Storage, Inc. Using flash storage devices with different sized erase blocks
CN107613026A (zh) * 2017-10-31 2018-01-19 四川仕虹腾飞信息技术有限公司 基于云存储系统的分布式文件管理系统
US10884919B2 (en) * 2017-10-31 2021-01-05 Pure Storage, Inc. Memory management in a storage system
US11024390B1 (en) 2017-10-31 2021-06-01 Pure Storage, Inc. Overlapping RAID groups
US10545687B1 (en) 2017-10-31 2020-01-28 Pure Storage, Inc. Data rebuild when changing erase block sizes during drive replacement
US10515701B1 (en) 2017-10-31 2019-12-24 Pure Storage, Inc. Overlapping raid groups
US11012420B2 (en) 2017-11-15 2021-05-18 Nicira, Inc. Third-party service chaining using packet encapsulation in a flow-based forwarding element
US10860475B1 (en) 2017-11-17 2020-12-08 Pure Storage, Inc. Hybrid flash translation layer
US10990566B1 (en) 2017-11-20 2021-04-27 Pure Storage, Inc. Persistent file locks in a storage system
US10585745B2 (en) * 2017-11-28 2020-03-10 International Business Machines Corporation Prevention of application container failure between replicated containers
US10719265B1 (en) 2017-12-08 2020-07-21 Pure Storage, Inc. Centralized, quorum-aware handling of device reservation requests in a storage system
US10929053B2 (en) 2017-12-08 2021-02-23 Pure Storage, Inc. Safe destructive actions on drives
US10929031B2 (en) 2017-12-21 2021-02-23 Pure Storage, Inc. Maximizing data reduction in a partially encrypted volume
US20190205056A1 (en) * 2017-12-28 2019-07-04 RackTop Systems, Inc. Transparent data movement between a private cloud and storage ecosystem and another storage system
US10866963B2 (en) 2017-12-28 2020-12-15 Dropbox, Inc. File system authentication
US11082492B2 (en) * 2018-01-10 2021-08-03 EMC IP Holding Company LLC System and method for dynamic backup sessions
US10797910B2 (en) 2018-01-26 2020-10-06 Nicira, Inc. Specifying and utilizing paths through a network
US10659252B2 (en) 2018-01-26 2020-05-19 Nicira, Inc Specifying and utilizing paths through a network
US10976948B1 (en) 2018-01-31 2021-04-13 Pure Storage, Inc. Cluster expansion mechanism
US10733053B1 (en) 2018-01-31 2020-08-04 Pure Storage, Inc. Disaster recovery for high-bandwidth distributed archives
US10467527B1 (en) 2018-01-31 2019-11-05 Pure Storage, Inc. Method and apparatus for artificial intelligence acceleration
US11036596B1 (en) 2018-02-18 2021-06-15 Pure Storage, Inc. System for delaying acknowledgements on open NAND locations until durability has been confirmed
US11494109B1 (en) 2018-02-22 2022-11-08 Pure Storage, Inc. Erase block trimming for heterogenous flash memory storage devices
US10805192B2 (en) 2018-03-27 2020-10-13 Nicira, Inc. Detecting failure of layer 2 service using broadcast messages
US10728174B2 (en) 2018-03-27 2020-07-28 Nicira, Inc. Incorporating layer 2 service between two interfaces of gateway device
US10853146B1 (en) 2018-04-27 2020-12-01 Pure Storage, Inc. Efficient data forwarding in a networked device
US11385792B2 (en) 2018-04-27 2022-07-12 Pure Storage, Inc. High availability controller pair transitioning
US10931450B1 (en) 2018-04-27 2021-02-23 Pure Storage, Inc. Distributed, lock-free 2-phase commit of secret shares using multiple stateless controllers
CN110413202B (zh) * 2018-04-28 2024-03-08 伊姆西Ip控股有限责任公司 数据复制方法、设备和计算机程序产品
CN108628666B (zh) * 2018-05-08 2023-11-14 腾讯科技(上海)有限公司 事务的处理方法、装置、存储介质及电子装置
US10817505B2 (en) * 2018-05-08 2020-10-27 Sap Se Maintaining consistency within a federated cloud environment
CN110515536B (zh) * 2018-05-22 2020-10-27 杭州海康威视数字技术股份有限公司 数据存储系统
US11436023B2 (en) 2018-05-31 2022-09-06 Pure Storage, Inc. Mechanism for updating host file system and flash translation layer based on underlying NAND technology
US11169998B2 (en) 2018-06-04 2021-11-09 Zuora, Inc. Multi-tenant system for providing arbitrary query support
US10956243B2 (en) 2018-06-04 2021-03-23 Zuora, Inc. Systems and methods for providing uniform access in a multi-tenant system
US11301617B2 (en) * 2018-06-04 2022-04-12 Zuora, Inc. Systems and methods for providing error recovery in data transmissions
CN108804693A (zh) * 2018-06-15 2018-11-13 郑州云海信息技术有限公司 一种分布式存储方法和装置
US11074668B2 (en) * 2018-06-19 2021-07-27 Weka.IO Ltd. GPU based server in a distributed file system
US10664461B2 (en) * 2018-06-29 2020-05-26 Cohesity, Inc. Large content file optimization
US11074135B2 (en) * 2018-06-29 2021-07-27 Cohesity, Inc. Large content file optimization
US11075984B1 (en) * 2018-07-16 2021-07-27 Amazon Technologies, Inc. Workload management at streaming data service supporting persistent connections for reads
CN110730063B (zh) * 2018-07-16 2022-11-11 中国电信股份有限公司 安全验证方法、系统、物联网平台、终端和可读存储介质
US10698772B2 (en) * 2018-07-17 2020-06-30 EMC IP Holding Company LLC Storage system with multiple write journals supporting synchronous replication failure recovery
US11438279B2 (en) 2018-07-23 2022-09-06 Pure Storage, Inc. Non-disruptive conversion of a clustered service from single-chassis to multi-chassis
US11314700B1 (en) * 2018-08-06 2022-04-26 Amazon Technologies, Inc. Non-native transactional support for distributed computing environments
US11233874B2 (en) * 2018-08-06 2022-01-25 Vmware, Inc. Ordinary write in distributed system maintaining data storage integrity
US10761748B2 (en) 2018-08-06 2020-09-01 Datera, Incorporated Future write in distributed system maintaining data storage integrity
US10944673B2 (en) 2018-09-02 2021-03-09 Vmware, Inc. Redirection of data messages at logical network gateway
US11595250B2 (en) 2018-09-02 2023-02-28 Vmware, Inc. Service insertion at logical network gateway
US11500570B2 (en) 2018-09-06 2022-11-15 Pure Storage, Inc. Efficient relocation of data utilizing different programming modes
US11354058B2 (en) 2018-09-06 2022-06-07 Pure Storage, Inc. Local relocation of data stored at a storage device of a storage system
US11868309B2 (en) 2018-09-06 2024-01-09 Pure Storage, Inc. Queue management for data relocation
US11520514B2 (en) 2018-09-06 2022-12-06 Pure Storage, Inc. Optimized relocation of data based on data characteristics
CN110909305B (zh) * 2018-09-17 2024-04-09 吕纪竹 一种实时判断数据流变化同向性及其程度的方法
US10956046B2 (en) 2018-10-06 2021-03-23 International Business Machines Corporation Dynamic I/O load balancing for zHyperLink
US10454498B1 (en) 2018-10-18 2019-10-22 Pure Storage, Inc. Fully pipelined hardware engine design for fast and efficient inline lossless data compression
CN109254958B (zh) * 2018-10-18 2021-07-16 上海云轴信息科技有限公司 分布式数据读写方法、设备及系统
US10976947B2 (en) 2018-10-26 2021-04-13 Pure Storage, Inc. Dynamically selecting segment heights in a heterogeneous RAID group
CN109558451B (zh) * 2018-11-14 2022-06-10 咪咕文化科技有限公司 一种数据管理方法及系统、存储介质
CN109379130B (zh) * 2018-11-21 2021-09-10 中国航空工业集团公司洛阳电光设备研究所 一种基于光纤通道节点卡的网络重构方法
US11106378B2 (en) 2018-11-21 2021-08-31 At&T Intellectual Property I, L.P. Record information management based on self describing attributes
CN109583222A (zh) * 2018-12-07 2019-04-05 浪潮(北京)电子信息产业有限公司 分布式文件系统元数据服务器回收客户端权限方法及装置
US11526499B2 (en) 2019-02-18 2022-12-13 International Business Machines Corporation Adaptively updating databases of publish and subscribe systems using optimistic updates
US11381665B2 (en) * 2019-02-18 2022-07-05 International Business Machines Corporation Tracking client sessions in publish and subscribe systems using a shared repository
US11086654B2 (en) 2019-02-22 2021-08-10 Vmware, Inc. Providing services by using multiple service planes
US11676063B2 (en) * 2019-03-28 2023-06-13 International Business Machines Corporation Exposing payload data from non-integrated machine learning systems
US11334254B2 (en) 2019-03-29 2022-05-17 Pure Storage, Inc. Reliability based flash page sizing
US11775189B2 (en) 2019-04-03 2023-10-03 Pure Storage, Inc. Segment level heterogeneity
US11099986B2 (en) 2019-04-12 2021-08-24 Pure Storage, Inc. Efficient transfer of memory contents
CN111857556A (zh) * 2019-04-30 2020-10-30 伊姆西Ip控股有限责任公司 管理存储对象的元数据的方法、装置和计算机程序产品
US10972296B2 (en) * 2019-05-03 2021-04-06 Microsoft Technology Licensing, Llc Messaging to enforce operation serialization for consistency of a distributed data structure
US11615066B2 (en) 2019-06-03 2023-03-28 Zuora, Inc. Systems and methods for providing custom objects for a multi-tenant platform with microservices architecture
US11409586B2 (en) 2019-06-03 2022-08-09 Zuora, Inc. Systems and methods for extending the data model of a monolithic database through a microservice for a multi-tenant platform
CN113841206A (zh) * 2019-06-05 2021-12-24 万事达卡国际公司 分布式计算系统中的事件管理
US11714572B2 (en) 2019-06-19 2023-08-01 Pure Storage, Inc. Optimized data resiliency in a modular storage system
US11281394B2 (en) 2019-06-24 2022-03-22 Pure Storage, Inc. Replication across partitioning schemes in a distributed storage system
CN114008979B (zh) * 2019-06-24 2023-05-26 亚马逊科技公司 具有隔离虚拟网络集成的无服务器分组处理服务
US11343308B2 (en) * 2019-06-25 2022-05-24 Western Digital Technologies, Inc. Reduction of adjacent rack traffic in multi-rack distributed object storage systems
CN112181899A (zh) * 2019-07-05 2021-01-05 中兴通讯股份有限公司 一种元数据的处理方法、装置及计算机可读存储介质
US20210012025A1 (en) * 2019-07-10 2021-01-14 At&T Intellectual Property I, L.P. System and method for session-aware datastore for the edge
US11893126B2 (en) 2019-10-14 2024-02-06 Pure Storage, Inc. Data deletion for a multi-tenant environment
CN111083422B (zh) * 2019-10-18 2021-11-19 视联动力信息技术股份有限公司 视联网调度会议异常分析方法、装置、设备、系统及介质
US11140218B2 (en) 2019-10-30 2021-10-05 Vmware, Inc. Distributed service chain across multiple clouds
US11283717B2 (en) 2019-10-30 2022-03-22 Vmware, Inc. Distributed fault tolerant service chain
US11349930B2 (en) * 2019-11-19 2022-05-31 EMC IP Holding Company LLC Identifying and deleting idle remote sessions in a distributed file system
US11416144B2 (en) 2019-12-12 2022-08-16 Pure Storage, Inc. Dynamic use of segment or zone power loss protection in a flash device
US11847331B2 (en) 2019-12-12 2023-12-19 Pure Storage, Inc. Budgeting open blocks of a storage unit based on power loss prevention
US11704192B2 (en) 2019-12-12 2023-07-18 Pure Storage, Inc. Budgeting open blocks based on power loss protection
US11308028B2 (en) 2019-12-23 2022-04-19 EMC IP Holding Company LLC Predicting and deleting idle remote sessions in a distributed file system
US11075792B2 (en) * 2019-12-26 2021-07-27 Juniper Networks, Inc. Scalable and robust network management for cloud-based NAT environments
CN113055220B (zh) * 2019-12-26 2022-06-14 瞻博网络公司 基于云的nat环境的可缩放且鲁棒的网络管理
CN111046001B (zh) * 2019-12-28 2023-03-14 浪潮电子信息产业股份有限公司 一种批量创建文件的方法、装置、设备及存储介质
CN111241355B (zh) * 2020-01-08 2023-06-16 浪潮通信信息系统有限公司 消息转发方法及服务端
US11223494B2 (en) 2020-01-13 2022-01-11 Vmware, Inc. Service insertion for multicast traffic at boundary
US11153406B2 (en) 2020-01-20 2021-10-19 Vmware, Inc. Method of network performance visualization of service function chains
US11659061B2 (en) 2020-01-20 2023-05-23 Vmware, Inc. Method of adjusting service function chains to improve network performance
US11893064B2 (en) * 2020-02-05 2024-02-06 EMC IP Holding Company LLC Reliably maintaining strict consistency in cluster wide state of opened files in a distributed file system cluster exposing a global namespace
US11496403B2 (en) * 2020-02-24 2022-11-08 Cloudflare, Inc. Modifying the congestion control algorithm applied to a connection based on request characteristics
US11188432B2 (en) 2020-02-28 2021-11-30 Pure Storage, Inc. Data resiliency by partially deallocating data blocks of a storage device
CN111352716B (zh) * 2020-03-10 2024-03-01 深圳市腾讯计算机系统有限公司 一种基于大数据的任务请求方法、装置、系统及存储介质
US11321194B2 (en) * 2020-04-03 2022-05-03 International Business Machines Corporation Recovery from a clustered file system queue failure event using a modified extended attribute of a file
US11438257B2 (en) 2020-04-06 2022-09-06 Vmware, Inc. Generating forward and reverse direction connection-tracking records for service paths at a network edge
US11334246B2 (en) * 2020-04-06 2022-05-17 Dell Products L.P. Nanoservices—a programming design pattern for managing the state of fine-grained object instances
US11507297B2 (en) 2020-04-15 2022-11-22 Pure Storage, Inc. Efficient management of optimal read levels for flash storage systems
US11256587B2 (en) 2020-04-17 2022-02-22 Pure Storage, Inc. Intelligent access to a storage device
JP2021170289A (ja) * 2020-04-17 2021-10-28 富士通株式会社 情報処理システム、情報処理装置およびプログラム
US11416338B2 (en) 2020-04-24 2022-08-16 Pure Storage, Inc. Resiliency scheme to enhance storage performance
US11474986B2 (en) 2020-04-24 2022-10-18 Pure Storage, Inc. Utilizing machine learning to streamline telemetry processing of storage media
CN111737204B (zh) * 2020-06-12 2024-03-19 北京百度网讯科技有限公司 文件目录遍历方法、装置、设备和介质
US11768763B2 (en) 2020-07-08 2023-09-26 Pure Storage, Inc. Flash secure erase
CN111752717B (zh) * 2020-07-08 2021-08-31 广州爱浦路网络技术有限公司 Smf智能扩展方法和装置、smf会话建立的通信方法
CN112039982B (zh) * 2020-08-28 2022-03-01 华侨大学 一种高效能分布式云存储方法及系统
US11513974B2 (en) 2020-09-08 2022-11-29 Pure Storage, Inc. Using nonce to control erasure of data blocks of a multi-controller storage system
US11681448B2 (en) 2020-09-08 2023-06-20 Pure Storage, Inc. Multiple device IDs in a multi-fabric module storage system
CN112286889B (zh) * 2020-09-22 2022-07-26 北京航空航天大学 一种面向广域网的分布式文件系统元数据副本同步方法
US11734043B2 (en) 2020-12-15 2023-08-22 Vmware, Inc. Providing stateful services in a scalable manner for machines executing on host computers
US11611625B2 (en) 2020-12-15 2023-03-21 Vmware, Inc. Providing stateful services in a scalable manner for machines executing on host computers
US11487455B2 (en) 2020-12-17 2022-11-01 Pure Storage, Inc. Dynamic block allocation to optimize storage system performance
US11356524B1 (en) * 2020-12-18 2022-06-07 International Business Machines Corporation Coordinating requests actioned at a scalable application
CN112689011B (zh) * 2020-12-24 2023-05-26 北京浪潮数据技术有限公司 一种基于nfs协议的业务传输方法、装置、设备及介质
US11847324B2 (en) 2020-12-31 2023-12-19 Pure Storage, Inc. Optimizing resiliency groups for data regions of a storage system
US11614880B2 (en) 2020-12-31 2023-03-28 Pure Storage, Inc. Storage system with selectable write paths
US11397545B1 (en) * 2021-01-20 2022-07-26 Pure Storage, Inc. Emulating persistent reservations in a cloud-based storage system
US20220237151A1 (en) * 2021-01-22 2022-07-28 Scality, S.A. Fast and efficient storage system implemented with multiple cloud services
US11809709B2 (en) * 2021-03-02 2023-11-07 Red Hat, Inc. Metadata size reduction for data objects in cloud storage systems
US11630593B2 (en) 2021-03-12 2023-04-18 Pure Storage, Inc. Inline flash memory qualification in a storage system
US11704165B2 (en) 2021-03-16 2023-07-18 International Business Machines Corporation Persistently available container services through resurrection of user jobs in new compute container instances designated as lead instances
CN112887432B (zh) * 2021-03-31 2023-07-18 中国工商银行股份有限公司 分布式系统重建运维方法、运维节点及系统
US11507597B2 (en) 2021-03-31 2022-11-22 Pure Storage, Inc. Data replication to meet a recovery point objective
US11336698B1 (en) 2021-04-22 2022-05-17 Netskope, Inc. Synthetic request injection for cloud policy enforcement
US11647052B2 (en) * 2021-04-22 2023-05-09 Netskope, Inc. Synthetic request injection to retrieve expired metadata for cloud policy enforcement
US11190550B1 (en) 2021-04-22 2021-11-30 Netskope, Inc. Synthetic request injection to improve object security posture for cloud security enforcement
US11178188B1 (en) 2021-04-22 2021-11-16 Netskope, Inc. Synthetic request injection to generate metadata for cloud policy enforcement
US11271972B1 (en) 2021-04-23 2022-03-08 Netskope, Inc. Data flow logic for synthetic request injection for cloud security enforcement
US11271973B1 (en) 2021-04-23 2022-03-08 Netskope, Inc. Synthetic request injection to retrieve object metadata for cloud policy enforcement
CN113190342B (zh) * 2021-06-01 2023-04-21 湖南工学院 用于云-边协同网络的多应用细粒度卸载的方法与系统架构
US11832410B2 (en) 2021-09-14 2023-11-28 Pure Storage, Inc. Mechanical energy absorbing bracket apparatus
CN113672629B (zh) * 2021-10-25 2021-12-28 北京金睛云华科技有限公司 一种分布式网络流量检索方法和装置
US11943260B2 (en) 2022-02-02 2024-03-26 Netskope, Inc. Synthetic request injection to retrieve metadata for cloud policy enforcement
CN116069788B (zh) * 2023-03-24 2023-06-20 杭州趣链科技有限公司 数据处理方法、数据库系统、计算机设备和存储介质
CN116991333B (zh) * 2023-09-25 2024-01-26 苏州元脑智能科技有限公司 分布式数据存储方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020152214A1 (en) * 2001-04-17 2002-10-17 Muntz Daniel A. Lease enforcement in a distributed file system
JP2003203029A (ja) * 2001-11-02 2003-07-18 Nec Corp スイッチ方法、装置およびプログラム
JP2004110667A (ja) * 2002-09-20 2004-04-08 Hitachi Ltd キャッシュサーバ制御システム
JP2004246873A (ja) * 2003-01-23 2004-09-02 Ricoh Co Ltd 情報処理装置および情報処理方法
JP2006525571A (ja) * 2003-04-29 2006-11-09 インターナショナル・ビジネス・マシーンズ・コーポレーション コンピューティング環境のオブジェクトへのアクセスの管理
JP2007219741A (ja) * 2006-02-15 2007-08-30 Ricoh Co Ltd 情報処理装置、情報処理方法、記録媒体およびプログラム
JP2012137977A (ja) * 2010-12-27 2012-07-19 Fujitsu Ltd スナップショット採取プログラム、サーバおよびスナップショット採取方法

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5701480A (en) 1991-10-17 1997-12-23 Digital Equipment Corporation Distributed multi-version commitment ordering protocols for guaranteeing serializability during transaction processing
US5454108A (en) 1994-01-26 1995-09-26 International Business Machines Corporation Distributed lock manager using a passive, state-full control-server
US5860137A (en) * 1995-07-21 1999-01-12 Emc Corporation Dynamic load balancing
SE521041C2 (sv) 1997-05-28 2003-09-23 Ericsson Telefon Ab L M Metod för optimering av transaktionsprotokoll inom en distribuerad databas
EP0990214A2 (en) 1998-01-26 2000-04-05 Telenor AS Database management system and method for conditional conflict serializaility of transactions and for combining meta-data of varying degrees of reliability
US7165152B2 (en) 1998-06-30 2007-01-16 Emc Corporation Method and apparatus for managing access to storage devices in a storage system with access control
US7305451B2 (en) 1998-08-24 2007-12-04 Microsoft Corporation System for providing users an integrated directory service containing content nodes located in different groups of application servers in computer network
US6738971B2 (en) 1999-03-10 2004-05-18 Oracle International Corporation Using a resource manager to coordinate the comitting of a distributed transaction
US6654772B1 (en) 1999-04-28 2003-11-25 Emc Corporation Multi-volume extent based file system
US6389420B1 (en) 1999-09-30 2002-05-14 Emc Corporation File manager providing distributed locking and metadata management for shared data access by clients relinquishing locks after time period expiration
US8429248B1 (en) 1999-12-17 2013-04-23 Intel Corporation Distributed file system including multicast retrieval
US6704730B2 (en) 2000-02-18 2004-03-09 Avamar Technologies, Inc. Hash file system and method for use in a commonality factoring system
US7076553B2 (en) 2000-10-26 2006-07-11 Intel Corporation Method and apparatus for real-time parallel delivery of segments of a large payload file
US20020138559A1 (en) 2001-01-29 2002-09-26 Ulrich Thomas R. Dynamically distributed file system
US7043637B2 (en) 2001-03-21 2006-05-09 Microsoft Corporation On-disk file format for a serverless distributed file system
US7062490B2 (en) 2001-03-26 2006-06-13 Microsoft Corporation Serverless distributed file system
EP1563389A4 (en) 2001-08-01 2008-06-25 Actona Technologies Ltd VIRTUAL DATA DISTRIBUTION NETWORK
US7685126B2 (en) 2001-08-03 2010-03-23 Isilon Systems, Inc. System and methods for providing a distributed file system utilizing metadata to track information about data stored throughout the system
US7240114B2 (en) 2001-09-25 2007-07-03 Hewlett-Packard Development Company, L.P. Namespace management in a distributed file system
AU2003236543A1 (en) 2002-06-13 2003-12-31 Mark Logic Corporation A subtree-structured xml database
WO2004046971A1 (en) 2002-11-14 2004-06-03 Isilon Systems, Inc. Systems and methods for restriping files in a distributed file system
US7428751B2 (en) 2002-12-05 2008-09-23 Microsoft Corporation Secure recovery in a serverless distributed file system
US7065618B1 (en) 2003-02-14 2006-06-20 Google Inc. Leasing scheme for data-modifying operations
JP2004280283A (ja) 2003-03-13 2004-10-07 Hitachi Ltd 分散ファイルシステム、分散ファイルシステムサーバ及び分散ファイルシステムへのアクセス方法
US7124131B2 (en) 2003-04-29 2006-10-17 International Business Machines Corporation Discipline for lock reassertion in a distributed file system
US7865485B2 (en) 2003-09-23 2011-01-04 Emc Corporation Multi-threaded write interface and methods for increasing the single file read and write throughput of a file server
US7386663B2 (en) 2004-05-13 2008-06-10 Cousins Robert E Transaction-based storage system and method that uses variable sized objects to store data
US20050289143A1 (en) 2004-06-23 2005-12-29 Exanet Ltd. Method for managing lock resources in a distributed storage system
US20060074980A1 (en) 2004-09-29 2006-04-06 Sarkar Pte. Ltd. System for semantically disambiguating text information
US8055711B2 (en) 2004-10-29 2011-11-08 Emc Corporation Non-blocking commit protocol systems and methods
US8229985B2 (en) 2005-02-07 2012-07-24 Cisco Technology, Inc. Arrangement for a distributed file system having data objects mapped independent of any data object attribute
JP4177339B2 (ja) 2005-02-16 2008-11-05 株式会社東芝 分散システム、コンピュータおよび分散システムの状態遷移制御方法
US20070067332A1 (en) 2005-03-14 2007-03-22 Gridiron Software, Inc. Distributed, secure digital file storage and retrieval
US7574443B2 (en) * 2005-07-25 2009-08-11 Parascale, Inc. Scalable clustered storage system
US7716180B2 (en) 2005-12-29 2010-05-11 Amazon Technologies, Inc. Distributed storage system with web services client interface
US7743023B2 (en) 2006-02-01 2010-06-22 Microsoft Corporation Scalable file replication and web-based access
US7747584B1 (en) 2006-08-22 2010-06-29 Netapp, Inc. System and method for enabling de-duplication in a storage system architecture
US8356162B2 (en) 2008-03-18 2013-01-15 International Business Machines Corporation Execution unit with data dependent conditional write instructions
TWI476610B (zh) 2008-04-29 2015-03-11 Maxiscale Inc 同級間冗餘檔案伺服器系統及方法
US8214404B2 (en) 2008-07-11 2012-07-03 Avere Systems, Inc. Media aware distributed data layout
CN101334797B (zh) 2008-08-04 2010-06-02 中兴通讯股份有限公司 一种分布式文件系统及其数据块一致性管理的方法
US8620861B1 (en) 2008-09-30 2013-12-31 Google Inc. Preserving file metadata during atomic save operations
US8375001B2 (en) 2008-10-03 2013-02-12 Telefonaktiebolaget Lm Ericsson (Publ) Master monitoring mechanism for a geographical distributed database
US8326807B2 (en) 2009-01-23 2012-12-04 Hewlett-Packard Development Company, L.P. Methods of measuring consistability of a distributed storage system
CN101520805B (zh) 2009-03-25 2011-05-11 中兴通讯股份有限公司 一种分布式文件系统及其文件处理方法
US8447734B2 (en) 2009-11-30 2013-05-21 Hewlett-Packard Development Company, L.P. HDAG backup system with variable retention
US8335819B2 (en) 2009-12-31 2012-12-18 Nokia Corporation Method and apparatus for providing client-side caching
US8402216B1 (en) 2010-03-17 2013-03-19 Symantec Corporation Systems and methods for off-host backups
US8937942B1 (en) * 2010-04-29 2015-01-20 Juniper Networks, Inc. Storing session information in network devices
JP2011242826A (ja) 2010-05-14 2011-12-01 Fujitsu Ltd ファイル管理システム及びファイル管理プログラム
JP5069337B2 (ja) 2010-05-26 2012-11-07 日本電信電話株式会社 分散データ管理システム、データサーバ、トランザクションサーバ、分散データ管理方法、プログラム
US8433685B2 (en) 2010-08-18 2013-04-30 Hewlett-Packard Development Company, L.P. Method and system for parity-page distribution among nodes of a multi-node data-storage system
US8589553B2 (en) * 2010-09-17 2013-11-19 Microsoft Corporation Directory leasing
US9244769B2 (en) 2010-09-28 2016-01-26 Pure Storage, Inc. Offset protection data in a RAID array
US9213709B2 (en) 2012-08-08 2015-12-15 Amazon Technologies, Inc. Archival data identification
US10210169B2 (en) 2011-03-31 2019-02-19 EMC IP Holding Company LLC System and method for verifying consistent points in file systems
US8539008B2 (en) 2011-04-29 2013-09-17 Netapp, Inc. Extent-based storage architecture
US8856582B2 (en) 2011-06-30 2014-10-07 Microsoft Corporation Transparent failover
US20130110781A1 (en) 2011-10-31 2013-05-02 Wojciech Golab Server replication and transaction commitment
US9805054B2 (en) 2011-11-14 2017-10-31 Panzura, Inc. Managing a global namespace for a distributed filesystem
US20130218934A1 (en) 2012-02-17 2013-08-22 Hitachi, Ltd. Method for directory entries split and merge in distributed file system
US9225780B2 (en) 2012-02-24 2015-12-29 Xyratex Technology Limited Data integrity in a networked storage system
US9317511B2 (en) 2012-06-19 2016-04-19 Infinidat Ltd. System and method for managing filesystem objects
US9563480B2 (en) 2012-08-21 2017-02-07 Rackspace Us, Inc. Multi-level cloud computing system
US9171009B1 (en) 2013-06-21 2015-10-27 Emc Corporation Cluster file system comprising storage server units each having a scale-out network attached storage cluster
US9483482B2 (en) 2014-02-17 2016-11-01 Netapp, Inc. Partitioning file system namespace

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020152214A1 (en) * 2001-04-17 2002-10-17 Muntz Daniel A. Lease enforcement in a distributed file system
JP2003203029A (ja) * 2001-11-02 2003-07-18 Nec Corp スイッチ方法、装置およびプログラム
JP2004110667A (ja) * 2002-09-20 2004-04-08 Hitachi Ltd キャッシュサーバ制御システム
JP2004246873A (ja) * 2003-01-23 2004-09-02 Ricoh Co Ltd 情報処理装置および情報処理方法
JP2006525571A (ja) * 2003-04-29 2006-11-09 インターナショナル・ビジネス・マシーンズ・コーポレーション コンピューティング環境のオブジェクトへのアクセスの管理
JP2007219741A (ja) * 2006-02-15 2007-08-30 Ricoh Co Ltd 情報処理装置、情報処理方法、記録媒体およびプログラム
JP2012137977A (ja) * 2010-12-27 2012-07-19 Fujitsu Ltd スナップショット採取プログラム、サーバおよびスナップショット採取方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022542980A (ja) * 2019-07-31 2022-10-07 イーライ リリー アンド カンパニー インスリン類似体およびその使用方法
JP7270105B2 (ja) 2019-07-31 2023-05-09 イーライ リリー アンド カンパニー インスリン類似体およびその使用方法

Also Published As

Publication number Publication date
CA2944461C (en) 2021-01-26
US20150280959A1 (en) 2015-10-01
KR20160140875A (ko) 2016-12-07
CN106462544B (zh) 2020-04-21
EP3126999A1 (en) 2017-02-08
US10264071B2 (en) 2019-04-16
KR101764559B1 (ko) 2017-08-02
CA2944461A1 (en) 2015-10-08
EP3126999A4 (en) 2017-11-08
WO2015153659A1 (en) 2015-10-08
AU2015240904B2 (en) 2017-09-14
CN106462544A (zh) 2017-02-22
BR112016022636B1 (pt) 2023-05-02
SG11201608165PA (en) 2016-10-28
BR112016022636A2 (pt) 2017-08-15
AU2015240904A1 (en) 2016-10-27
JP6371859B2 (ja) 2018-08-08
EP3126999B1 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6371859B2 (ja) 分散格納システムにおけるセッション管理
JP6259532B2 (ja) 分散格納システムにおける名前空間管理
JP6322722B2 (ja) 可変ストライプサイズを使用するファイル格納
JP6371858B2 (ja) 複数エクステント動作のための原子書き込み
JP6416279B2 (ja) 拡張縮小可能なファイル格納サービス
US9602424B1 (en) Connection balancing using attempt counts at distributed storage systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250