JP2017211983A - テナントアウェアストレージシェアリングプラットフォームのための処理装置及びその方法 - Google Patents

テナントアウェアストレージシェアリングプラットフォームのための処理装置及びその方法 Download PDF

Info

Publication number
JP2017211983A
JP2017211983A JP2017076598A JP2017076598A JP2017211983A JP 2017211983 A JP2017211983 A JP 2017211983A JP 2017076598 A JP2017076598 A JP 2017076598A JP 2017076598 A JP2017076598 A JP 2017076598A JP 2017211983 A JP2017211983 A JP 2017211983A
Authority
JP
Japan
Prior art keywords
storage devices
storage device
application
subset
taste
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017076598A
Other languages
English (en)
Other versions
JP2017211983A5 (ja
JP6734807B2 (ja
Inventor
インソク ステファン チェ,
Stephen Choi Inseok
インソク ステファン チェ,
亮 ソク 奇
Yang Seok Ki
亮 ソク 奇
秉 英 安
Byoung-Young Ahn
秉 英 安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2017211983A publication Critical patent/JP2017211983A/ja
Publication of JP2017211983A5 publication Critical patent/JP2017211983A5/ja
Application granted granted Critical
Publication of JP6734807B2 publication Critical patent/JP6734807B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0688Non-volatile semiconductor memory arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データセンターでアプリケーションの要求事項に応答して必要なデータを格納する格納装置を管理するための処理装置及びその方法を提供する。
【解決手段】本発明のアプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(tenant−aware storage−sharing engine:TASTE)は、データセンターで利用可可能な格納装置の集合に関する情報のためのストレージと、アプリケーションから格納装置の要求事項を受信する受信ロジックと、格納装置の要求事項を満たす利用可能な格納装置の集合の部分集合を選択する選択ロジックと、を備える。
【選択図】図1

Description

本発明は、ソリッドステートドライブ(solid state drives:SSDs)に関し、より詳細には、データセンターでアプリケーションの要求事項に応答してSSDsを管理する処理装置及びその方法に関する。
格納装置、特にソリッドステートドライブ(solid state drives:SSDs)は、時間の経過によって持続的に変わる特性を示す。SSDsはSSD(solid state drive)内部の基本ソフトウェア(underlying software、例、ファームウェア)及び/又はハードウェアで予測できないレイテンシ及び/又は帯域幅を有する。また、ウェアレベリングによる延長されたアクセスレイテンシ(読出し/書込み/消去)は、レイテンシ及び/又は帯域幅に影響を及ぼす。SSDリソースの仮想抽象化(virtual abstraction)はSSDの性能特性の予測を難しくする。即ち、仮想抽象化は、幾つかに言及すると、ポリモルフィック(polymorphic)SSDs、オープンチャンネル(open−channel)SSDs、lightNVM(オープンチャンネルSSDsを支援するサブシステム)のような多様なアプローチである。最後に、それぞれ異なるセル密度は、幾つかに言及すると、例えばSLC(single level cell)、MLC(multi−level cell)、TLC(three level cell)、及びQLC(quadruple level cell)は相当に異なる特性を引き起こす。
データセンターはアプリケーション及び格納装置をマッピングするメカニズム(方法)を必要とする。格納装置は、時間によって変化する多くの特性を有し、従ってモニターリングする必要がある。反面、アプリケーションは、更に、二重化(redundancy)、並列化(parallelism)、持続性(persistency)、保安(security)、FTL(flash translation layer)パラメーター(クラスターサイズ、ページサイズ等)の程度(degrees)のようなそれぞれ異なる要求を有する。しかし、一般的な格納管理は、SSDsのようなより新しい格納装置の性能特性又はアプリケーションの要求事項(例えば、HDFS(hadoop distributed file system)又はキーバリューストレージ(key−value storage))を認識しないボリューム管理(volume management)又はRAID(redundant array of independent disks)向きのアプローチを使用する。アプリケーションの要求に応答してアプリケーションのためのデータを格納するように格納装置を選択する方法が必要である。
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、データセンターでアプリケーションの要求事項に応答して必要なデータを格納する格納装置を管理するための処理装置及びその方法を提供することにある。
上記目的を達成するためになされた本発明の一態様によるアプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(tenant−awarestorage−sharingengine:TASTE)は、利用可能な格納装置の集合に関する情報のためのストレージと、アプリケーションから格納装置の要求事項を受信する受信ロジックと、前記格納装置の要求事項を満たす前記利用可能な格納装置の集合の部分集合(subset)を選択する選択ロジックと、を備える。
上記目的を達成するためになされた本発明の一態様によるアプリケーションに応じて格納装置を管理するためのテナントアウェアストレジ−シェアリングエンジン(tenant−aware storage−sharing engine:TASTE)の処理方法は、前記TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階と、利用可能な格納装置の集合を識別する段階と、前記アプリケーションから前記格納装置の要求事項の集合を満たす前記利用可能な格納装置の集合の部分集合を選択する段階と、を有する。
本発明の一実施形態によるコンピュータ読み取り可能な記録媒体は、非一時的なインストラクションを格納し、前記非一時的なインストラクションがマシンによって実行されることによって、アプリケーションに応じて格納装置を管理するためのTASTE(tenant−aware storage−sharing engine)でアプリケーションから格納装置の要求事項の集合を受信する段階と、利用可能な格納装置の集合を識別する段階と、前記アプリケーションから前記格納装置の要求事項の集合を満たす前記利用可能な格納装置の集合の部分集合を選択する段階と、が実行される。
本発明のデータセンター内のテナントアウェアストレージシェアリングエンジン及びその処理方法によれば、アプリケーションから格納装置の要求事項を受信し、受信した格納装置の要求事項を満たす利用可能な格納装置の集合の部分集合(subset)を選択することによって、より効率的に格納装置を管理することができる。
クライアントマシンと通信する多様なホストマシンを有するデータセンターを示す図である。 本発明の一実施形態による図1のホストマシンの詳細図である。 図1のホストマシンの追加的な詳細図である。 アプリケーションの要求事項を受信して格納装置アレイを調節する図2のTASTE(tenant−aware storage sharing engine)を示す図である。 図2のTASTEの詳細図である。 図5の選択ロジックの詳細図である。 図4の格納装置アレイの一例を示す図である。 図7の格納装置アレイ内で確立される仮想格納装置を示す図である。 図7の格納装置アレイで多様な仮想アプリケーションの要求事項を満たすように割当られた多様なクラスター及び格納装置のページサイズを示す図である。 図7の格納装置アレイ内の格納装置間の複製を示す図である。 図7の格納装置アレイ内の格納装置間のデータ移行を示す図である。 本発明の一実施形態による図4のアプリケーションの格納要求事項を受信して格納装置アレイを調節する図2のTASTEのための一例によるフローチャートである。 本発明の一実施形態による受信されたアプリケーションの要求事項に応答して図4の格納装置アレイを具現する図2のTASTEのための一例によるフローチャートである。 本発明の一実施形態による受信されたアプリケーションの要求事項に応答して図4の格納装置アレイを具現する図2のTASTEのための一例によるフローチャートである。 本発明の一実施形態による受信されたアプリケーションの要求事項に応答して図4の格納装置アレイを具現する図2のTASTEのための一例によるフローチャートである。
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。以下の詳細な説明で、多様な特定の実施形態を本発明の技術的思想の充分な理解を助けるために提供する。しかし、この分野で通常的な技術を有する者はこのような特定の実施形態無しでも本発明の技術的思想を具現することができる。他の例として、広く公知された方法、手続、構成要素、回路、及びネットワークは実施形態の側面を不必要に曖昧にしないために詳細に説明しない。
ここで、第1、第2等のような用語を多様な要素を説明するために使用するが、このような要素はこのような用語によって限定されない。このような用語を1つの要素と他の1つの要素とを区別するためにのみ使用する。例えば、本発明の技術的思想の範囲から逸脱せずに、第1モジュールを第2モジュールと称する。同様に、第2モジュールを第1モジュールとも称する。
本発明の技術的思想の説明で使用する用語は、特定の実施形態を説明するための目的にのみ使用され、本発明の技術的思想を限定しない。また、本発明の技術的思想の説明及び請求項で使用するように、文脈で明確に明示しなければ、単数表現は複数表現も含む。“及び/又は“の用語は1つ以上の関連する項目の任意且つ可能な全ての組合せを含むものとして参照する。“含む”及び/又は“含んでいる”の用語は、詳細な説明で使用する際に言及する特性、整数、段階、動作、要素、及び/又は構成要素の存在を明示し、1つ以上の他の特性、整数、段階、動作、要素、構成要素、及び/又はそれらのグループの存在若しくは追加を排除しない。図面の構成要素及び特性は実際の比率に必須的に比例しない。
大規模のデータセンターストレージインフラストラクチャーシステムは、格納装置の対(pair)の間(又はホストと格納装置との間)で又は格納装置の任意のセット/クラスター(set/cluster)の中で、レイテンシ(latency)又は帯域幅(bandwidth)を予測する能力に利益が得られる。格納装置の中で最大レイテンシ又は最小帯域幅はアプリケーションを支援するために1つ以上の仮想格納装置を選択又は確立するために重要になる。その上、大規模データセンターが並列化、複製、分離、その他のことを含む格納の多様なそれぞれ異なる側面を管理及び決定するように試図するため、より多くの性能情報に対する要求が増加している。このようなアプローチが拡張されないため、予測変数(predictor)はオンデマンド(on−demand、注文形)又はパーペア(per−pair、ペア毎)測定に基づくべきである。
残念ながら、仕様(specifications)又はプロファイリング(profiling)に基づく現存するストレージモデリング(storage modeling)はこのような要求を満足しない。これは格納装置自体が同一の製造及び一様な物理世代にも拘らず、SSD(solid state drive)基盤ストレージがしばしばFTL(flash translation layer)のような劣化/磨耗度(aging/wearing−out)及び隠された特性によって異質的なレイテンシ/帯域幅及び時間−可変特性を示すためである。
ストレージ距離(storage distance)、即ちデータセンター内の一対の格納装置間の距離に関連する性能特性を予測することを妨害するその他の要素は、ペアワイズ(pair−wise)予測があまりにも多い測定を必要とすることである(オールトゥオールコネクション(all−to−allconnections)を考慮する)。
2016年7月28日に提出された米国出願15/222、938及び2016年8月1日に提出された米国出願15/225、811は、参考文献として参照され、このような問題を解決する部分解決策を提供する。しかし、考慮するための他のアプローチが存在する。
フラッシュ基盤格納システムは非対称性能特性を有する。即ち、読出しに5〜25μs、書込みに100〜200μs、フラッシュブロックの消去に数msが消費される。その上、一般的にフラッシュセルが耐えられるプログラム/消去サイクルの数は制限される。結論的に、ウェアレベリング(wear leveling)が活用される(及び性能特性として考慮される)。更に、ガベージコレクション(garbage collection)は、全ての入出力(I/O)動作を妨害する相当に多くのサイクルを消費する。
その上、内装されたFTL(flash translation layer)又はFTL−パーフィジカルディバイス(per physical device)のような伝統的なアプローチは、アプリケーションの多様な要求及び特性を考慮すると、浪費的である。2つの代表的な例は、HDFS(hadoop distributed file system)及びキーバリューストア(key−value(KV)store)である。通常HDFSは大きいブロックサイズ(多い場合で64MB(megabytes))を利用し、反面にKV−ストアは小さいブロックサイズ(例、フェイスブックのワークロードのための100B(bytes))を利用する。この場合、KV−ストアのFTLオーバーヘッド(データ構造メモリフットプリント(data structure memory foot print)及びPBAマッピング)はHDFSのFTLオーバーヘッドより640,000倍更に大きい。言い換えると、メモリフットプリント観点から、同一のマッピング方法を仮定すると、KV−ストア格納装置のFTLは640,000個のHDFS格納装置のFTLを処理する。効率性を最適化させ、隠されたFTLレイテンシを除去するそれぞれ異なる能力を有するFTLsにマッピングされる格納装置のクラスターを生成することが有用である。
ストレージ距離グラフ/ツリー(storage distance graph/tree)はトポロジーグラフ/ツリー(topology graph/tree)をパーストレージ性能(per−storage performances)に結合させる。このようなアプローチは、ストレージ性能の変化/可変を比較すると、トポロジーが概ね変わらないという事実の利点を利用する。特に、FTLの予測できないレイテンシはSLOs(service level objectives)で回避する必要がある。
新しいTASTE(tenant−aware storage−sharing engine、テナントアウェアストレージシェアリングエンジン)は複数の入力を扱う。TASTEに対する1つの入力は、内装された情報(例えば、レイテンシ、帯域幅、位相、格納装置間の距離等)を有するストレージリソース情報(storage resource information)からのものである。TASTEに対する第2番目の入力は、アプリケーションの要求事項と共にテナント(tenants、又はアプリケーション)の仕様(specification)である。TASTEはアプリケーションの要求事項を満たすためにクラスター(ストレージの集合)を提供する。その上、TASTEはFTLページサイズ及び持続性(persistency)と共にFTLマッピングを有するサブクラスター(sub−clusters)を提供する。更に、TASTEは、所定のアプリケーションの部分的な要求事項、例えば二重化、並列化、及び保安も具現する。最後に、TASTEはダイナミックプールコントロール(dynamic pool control)のために提供される。例えば、データ移行は、ロードバランシング(load balancing)、容量プロビジョニング(capacity provisioning)のために支援される。
≪FTLクラスターマッピング≫
TASTEはストレージリソースプール(storage resource pools)を認識する。例えば、TASTEは、格納装置間の近接度(ローカル又はリモート、及び距離)のみならず、低性能格納装置から高性能格納装置を区別する。例えば、2つのテナント(アプリケーション)がHDFS及びKV−ストアの各々に対する格納を要求すると仮定する。
上述したように、HDFSのFTLはより大きいページ細分化(granularity)によって相対的に小さいフットプリントマッピング(small−footprint mapping)である。従って、複数の格納装置(仮想又は物理)はLBA(logical block address)インターフェイスを有する自体のFTLに従う他の仮想格納装置を形成するためにクラスター化される。
HDFSと異なり、KV−ストアサービスはより高性能のストレージを要求するだけでなく、FTLのフットプリントもHDFSのFTLフットプリントよりはるかに大きい。従って、TASTEは、KV−ストア使用のためのFTLクラスターを形成するためにより小さいがより高性能の格納装置を割当てる。
≪FTLページサイズ≫
比較例として、HDFSはそのクラスターに亘って64MBページを有する。しかし、KV−ストアはKVペア配置(pair placements)によってそれぞれ異なるページサイズを有する。例えば、100B、32KB(kilobytes)、2MBである。
≪複製因子(replication factor)≫
また、TASTEはリソース管理の観点である程度の複製を提供する。例えば、クラスター内の各格納装置は他の格納装置によってミラーリングされる。FTLはデータ複製を制御する。
アプリケーションはインターノード(inter−node)及びインターラック(inter−rack)複製要求事項の両方を有する(即ち、データは、同一ノード若しくは同一ラックのノードフェイル(failure)又は電力フェイルによるデータ損失を防止するために、それぞれ異なる格納装置及びそれぞれ異なるノードの格納装置にコピーされる必要がある)。また、このような状況(context)はリソースマネージャに通知されなければならない。TASTEは、ノード内の複製を提供するようにTASTEを活性化させながら、このような要求事項を交換するためにAPI(application program interface)を提供する。結論的に、例えば、HDFSは、1つの複製因子を解放し、目標複製因子が3つである場合にのみインターラック複製に集中する必要がある。代替的に又は追加的に、TASTEは、イントララック(intra−rack)複製のみならず、インターラック(inter−rack)複製を管理する。
≪並列化(parallelism)≫
一部のテナント(tenants)はレイテンシ及び帯域幅に共に敏感であるが、個別的な利用可能な物理的な格納装置はそれらの要求事項を満たす充分な性能を提供しない。この場合、TASTEはアプリケーションの要求事項を必要とする新たな仮想格納装置を生成する。新たな仮想格納装置は、キュー遅延(queue delays)を減らす大きなボリュームI/O内のレイテンシを減少させながら、より広い総帯域幅(higher aggregate bandwidth)を示す。
≪ダイナミックリソースプール制御(dynamic resource pool control)≫
上述したように、ストレージプール(storage pools)は、時間、容量プロビジョニング、ロードバランシング等に対する性能特性変化により更新される必要がある。移行はダイナミックプール制御を取り扱う1つの方法である。TASTEは、物理的、仮想的、FTL−クラスターの部分、FTL−クラスターの全体等のようなデータの格納に使用される格納装置の種類に関係なくデータを移行する。TASTEがその基礎となる(underlying)ストレージタイプ及びFTL実装を認識するため、このような移行が可能になる。
図1は、クライアントマシンと通信する多様なホストマシンを有するデータセンターを示す図である。図1を参照すると、データセンター105はホストマシン(110、115、120、125、及び130)を含む。以下の図2及び図3で、ホストマシン(110、115、120、125、及び130)について更に詳細に示す。データセンター105は、ホストマシン(110、115、120、125、及び130)が互いに通信し、クライアントマシン140と通信するように許容するネットワーク135を含む。ネットワーク135はLAN(local area network)又はWAN(wide area network)を有する多様な種類のネットワークである。ネットワーク135はイーサーネット(登録商標)のような有線技術、IEEE802.11a/b/g/n/ac若しくは同等又は代替可能な技術のような無線技術、或いは無線及び有線の組合せを利用する。また、図1では、ホストマシン(110、115、120、125、及び130)が1つの地理的領域(single geographic area)内に位置するが、他の実施形態として、ホストマシン(110、115、120、125、及び130)はインターネット(例えば、VPN(virtual private network)のようなオーバーレイネットワーク(overlay network))のようなグローバルネットワーク(global network)を利用して地理的に分散されて互いに接続される。
ホストマシン110はアプリケーション145を支援する。アプリケーション145は、SSH(secure shell)、ウェブインターフェイス、又はAPI(application program interface)を通じてクライアントマシン140によって使用されるアプリケーションである。
一方、図1には、全てタワーコンピュータであり同一のホストマシン(110、115、120、125、及び130)を示したが、本実施形態は、全てそれぞれ異なるホストマシン(110、115、120、125、及び130)のための任意の所望するフォーマットを支援する。例えば、一部のホストマシン(110、115、120、125、及び130)は多様なモデル及び製造のタワーコンピュータであり、他のホストマシン(110、115、120、125、及び130)は多様なモデル及び製造のラックマウントサーバー(rack−mounted server)である。それぞれ異なるホストマシン(110、115、115、120、125、及び130)は、プロセッサの能力、利用可能なメモリ、及び利用可能なストレージ(これらの全ては多様なフォーマットである)の面でそれぞれ異なる能力を有する。例えば、一部のホストマシン(110、115、120、125及び130)はメンバー(member)のためにDRAM(dynamic random access memory)を使用する。反面、他のホストマシンはPRAM(persistent random access memory)、SRAM(static random access memory)、FeRAM(ferroelectronic random access memory)、又はMRAM(magnetoresistive random access memory)のようなNVRAM(non−volatile random access memory)を使用する。同様に、一部のホストマシン(110、115、120、125、及び130)は格納のための一般的なハードディスクドライブ(hard disk drives)を使用する。反面、他のホストマシンはフラッシュメモリ(多様なNVRAM)又はMRAMを使用する。また、ここに列挙するか否かに拘らず、他の可能性も本発明の概念の範囲内にある。
上述したように、ホストマシン(110、115、120、125、及び130)は全て本質的に同一であり相互交替可能である。従って、本明細書の残る部分でホストマシン110に対する任意の参照は、制限無しにホストマシン(110、115、120、125、及び130)の任意又は全てを含む。
一方、図1には、モニター、キーボード、及びマウスを有する一般的なミニタワーコンピュータシステムとしてクライアントマシン140を示したが、クライアントマシン140は、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、及び他の所望の技術形態を有する任意の所望の形態を取る。また、図1には、1つのクライアントマシン140を示したが、本実施形態は同時に任意の数のクライアントマシン140を支援する。
図2は、本発明の一実施形態による図1のホストマシン110の詳細図である。図2を参照すると、ホストマシン110は、プロセッサ205(CPU(central processing unit)とも称する)、メモリ210、ネットワークコネクター215、及び格納装置220を含む。プロセッサ205は、多様なプロセッサ、例えばプロセッサ205は、インテルジーオン(Intel Xeon(登録商標))、セレロン(Celeron(登録商標))、アイテニアム(Itanuim(登録商標))、又はアトムプロセッサ(Atom(登録商標) processor)、AMDオプテロンプロセッサ(Opteron(登録商標) processor)、アームプロセッサ(ARM(登録商標) processor)等である。上述したように、メモリ210は、フラッシュメモリ、SRAM、PRAM等のような多様なメモリであるが、一般的にはDRAMである。ネットワークコネクター215は図1のネットワーク135にホストマシン110を接続する多様なコネクターである。ネットワークコネクター215は、例えばイーサーネット(登録商標)インターフェイス又は無線インターフェイスである。格納装置220はデータセンターによって使用される多様な種類の格納装置である。SSDs(solid state drives)が格納装置220の中の1つとして可能であるが、格納装置220はハードディスクドライブ(HDDs)又は他のロングターム(long−term)格納装置のような他の格納形態(storage forms)を含む。
また、ホストマシン110は、テナントアウェアストレージシェアリングエンジン225(tenant−aware storage−sharing engine:TASTE)を含む。TASTE225は、テナント(tenants、即ちテナント145及び230のようなアプリケーション)の要求事項に対する情報を使用して格納装置アレイ(storage device array)の動作を管理する。図2には、ホストマシン110によってホストされた(hosted)テナント145及び230を示したが、本実施形態はホストマシン110と異なるマシンによってホストされたテナントを支援する。即ち、TASTE225は、ローカルアプリケーション(local applications)のみならず、遠隔アプリケーション(remote applications)のための格納装置アレイを管理する。
図3は、図1のホストマシン110の追加的な詳細図である。図3を参照すると、一般的に、マシン又はホストマシン110は1つ以上のプロセッサ205を含む。1つ以上のプロセッサ205はメモリ制御器305及びクロック310を含む。メモリ制御器305及びクロック310はマシン又はホストマシン110の構成要素の動作を調整するために利用される。また、プロセッサ205はメモリ210に接続される。メモリ210は、RAM(random access memory)、ROM(read−only memory)、又は他の状態維持媒体(state preserving media)等のようなものを含む。また、プロセッサ205は、格納装置220に接続され、ネットワークコネクター215に接続される。ネットワークコネクター215は、例えばイーサーネット(登録商標)コネクター又は無線コネクターである。また、プロセッサ205は使用者インターフェイス325及び入力/出力インターフェイスポートに付着されるようにバス320に接続される。入力/出力インターフェイスポートは他の構成要素の中の入力/出力エンジン330を利用して管理される。
図4は、アプリケーションの要求事項を受信して格納装置アレイを調節する図2のTASTE(tenant−aware storage sharing engine)225を示す図である。図4を参照すると、TASTE225はストレージリソース情報405及びテナント要求事項415を受信する。ストレージリソース情報405は格納装置アレイ410内の格納装置に関する情報である。このような情報を利用して、TASTE225は図2のテナント145及び230が有する様々な要求事項を解決するように格納装置アレイ410を構成する。このような要求事項は(このような要求事項が図2のTASTE225によってどのようにして満たされるか否かを示す後述の図面で提供する実施形態と共に)次のようなものを含む。
帯域幅420:図2のテナント145及び230によって要求される最小帯域幅。図2のテナント145及び230から最小帯域幅の要求事項が与えられると、TASTE225は要求された最小帯域幅420を提供する格納装置アレイ410から格納装置を選択する。
レイテンシ425:図2のテナント145及び230によって許容される最大レイテンシ。図2のテナント145及び230から最大レイテンシの要求事項が与えられると、TASTE225は要求された最大レイテンシ425を提供する格納装置アレイ410から格納装置を選択する。
クラスターサイズ430:図2のテナント145及び230を支援するために幾つの個別格納装置が割当られるべきかを示す。要求されたクラスターサイズが与えられると、TASTE225は要求されたクラスターサイズ430を提供する充分な格納装置を選択する。
ページサイズ435:図2のテナント145及び230を支援するために割当られた各格納装置のためのページサイズがどのぐらい大きくあるべきかを示す。要求されたページサイズ(或いは、テナント145又は230がクラスター内のそれぞれ異なる格納装置のためにそれぞれ異なるページサイズを要求するために要求されたページサイズ)が与えられると、TASTE225は要求されたページサイズ435を使用するクラスターで多様な格納装置を構成する。
二重化440(複製因子(replication factor)とも称する):図2のテナント145及び230のための格納装置アレイ410内に各データのコピーがどのぐらい多く格納されるべきかを示す。要求された二重化が与えられると、TASTE225は要求された二重化440を提供する充分な格納装置を選択する。
二重化440及びクラスターサイズ430は(関連する場合)互いに異なる概念である。図2のテナント145及び230が3つのクラスターサイズ430を指定する場合、それらは3つの格納装置がクラスター内に含まれることを単に要求する。図2のテナント1145及び230が3つの二重化440を指定する場合、それらは各データが3つの異なる格納装置に格納されることを要求する。従って、図2のテナント145及び230のためのクラスターサイズは少なくとも3つ必要である(各データの3つのコピーを格納する少なくとも3つの異なる格納装置が存在するべきであるため)が、クラスターの大きさは更に大きくなる可能性がある。クラスターサイズ430と二重化440との間の差異を理解する他の方法は、RAID(redundant array of independent disks)レベル0とレベル1との間の差異に対する比較である。RAID0は、任意の個別ディスクのフェイルに対する二重化は無いが、より大きな全体格納容量(各ディスクの容量の合計と同一である)を提供する。反面、RAID1は、n個のディスクのアレイでn−1個のディスクまでのフェイル可能性に対して保護するが、個別格納ディスクの最小容量と同一の容量を提供する。
並列化445:図2のテナント145及び230のためのサービス目標値(desired degree)を提供する格納装置を結合する。図2のテナント145及び230が格納装置アレイ410内の個別格納装置によって提供されることよりもより広い帯域幅及び/又はより小さなレイテンシを要求する可能性がある。このような状況で、要求された並列化が与えられると、TASTE225は要求された並列化445を提供する格納装置を選択する。そうすると、このような選択された格納装置は所望の帯域幅及び/又はレイテンシを提供する仮想格納装置に結合される。
並列化445は帯域幅420及びレイテンシ425と一部重なるが、それらは互いに差異がある。例えば、格納装置アレイ410内のいずれの個別格納装置も要求された帯域幅420及び/又はレイテンシ425を提供しないが、図2のテナント145及び230が帯域幅420及び/又はレイテンシ425の要求を指定する場合、TASTE225は並列化を呼出す試図をせずに、要求事項を満たさないフェイルを返す。そうすると、図2のテナント145及び230は、それらがより少ない要求事項で満たされるか否か、又はそれらが並列化445のような要求事項を確立することを望むか否かを決定する。(勿論、格納装置アレイ410内のいずれの個別格納装置も帯域幅420及び/又はレイテンシ425の要求事項を満たさない場合、必要であれば、TASTE225は自動的に並列化445の追加的な要求事項を適用する。)
持続性450:図2のテナント145及び230のためのデータが消去される前に格納装置にどれくらい長い間維持されるべきか、又はそのようなデータが電力フェイルに対して生存するか(又は、両方)を示す。図2のテナント145及び230は、それらのデータが劣化(aging)によって消去されずに、所定の最小時間の間にそれらの格納装置に維持されることを望む(即ち、それらのデータは所定の最小時間の間格納された理由のみで消去されるべきではない)。TASTE225は特定の時間の間データを維持するために図2のテナント145及び230を支援する格納装置アレイ410内の格納装置を構成する。例えば、散発的にアクセスされるデータのためのキーバリューストアを利用するアプリケーションはあまりにも速やかにデータが無効化されないように保証することを望む。TASTE225は特定の時間の間データが無効化されない格納装置を選択し、後にそのデータは無効化/ガーベッジコレクション下に置かれる。
選択的に、図2のテナント145及び230は、データが電力フェイルに対して維持されることを保証することを望む。不揮発性ストレージ(電源が切れてもデータが維持されること)を利用することは解決策の中の1つである。しかし、持続性は、電力フェイルに拘らずにデータが格納装置に書き込まれたことが確実に確認されることを保証する能力も要求する。例えば、記憶装置は、DRAM内のバッファにデータを格納し、書き込まれるデータの所定の量がある場合にのみデータを記憶装置に書き込む。バッファーリングされたデータがロングタームストレージに書き込まれる前に電力フェイルが発生した場合、バッファのデータは損失する。このような問題を解決するために、持続性を要求するアプリケーションはアプリケーションを持続性−保証(persistency−guaranteed)FTL及び物理装置(physical device)にマッピングする。ここで、物理装置は急な電力損失でもデータ損失を防止する内装された高容量キャパシターを有するSSDである。
保安455(分離(isolation)とも称する):1つの特定のテナントのためのデータは1つ以上の他のテナントよりも格納装置アレイ410内の異なる格納装置に格納されなければならない。例えば、図2のテナント145は、そのデータが図2のテナント230のためのデータとして格納装置に格納すべきではないと指定する。TASTE225は、1つ以上の他のテナントから図2のテナント145のデータを分離する格納装置アレイ140内の格納装置を選択する。
移行460:テナントのためのデータは格納装置アレイ410内の1つの格納装置から他の格納装置に移行されなければならない。図2のテナント145及び230は格納装置アレイ410内の1つの格納装置から他の格納装置にデータを移行させることを要求する。或いは、TASTE225は、容量プロビジョニング(capacity provisioning)又はロードバランシング(load balancing)のような他の理由として、図2のテナント145及び230のためのデータを移行するように決定する。いずれにしても、TASTE225は格納装置アレイ410内の1つの格納装置から他の格納装置にデータを移行するように管理する。
また、図4に示したこと以上の他の要求事項415が存在する。例えば、図2のテナント145及び230はストレージの特定の容量(例えば、2GB(gigabytes))がそれらの各々に割当られることを指定する。本実施形態は、図4に明示的に示すか又は示さない任意の要求事項415を支援する。
図5は、図2のTASTE225の詳細図である。図5で、TASTE225は、受信ロジック505、ストレージ510、選択ロジック515、仮想格納装置ロジック520、及び変換階層ロジック525を含む。受信ロジック505は、図2のテナント145及び230のような多様なリソースから図4のストレージリソース情報405及び/又は図4のテナント要求事項415のような情報を受信する。ストレージ510は図4の格納装置アレイ410内の格納装置に関する情報を格納する。格納装置に関する情報は、どの格納装置がどのノード内に存在するか、どの種類の格納装置が利用可能であるか、それらのサイズ、帯域幅、及びレイテンシ等を含む。どの格納装置が“利用可能である(available)”と看做されるかは、場合によって変わる。例えば、図2のテナント145が図2のテナント230からの分離を要求されたと仮定する。その後、図2のテナント230が格納装置のクラスターを要求する場合、図2のテナント145に割当られた任意の格納装置は図2のテナント230のためのクラスターを選択する目的のために利用可能であると看做すべきではない。
選択ロジック515はテナントのための図4の要求事項415を満たす図4の格納装置アレイ410から格納装置を選択する。仮想格納装置ロジック520は図4の格納装置アレイ410内の1つ以上の物理格納装置から仮想格納装置を“構成(construct)”する。例えば、図4のテナント要求事項415が図4の並列化445を指定すると、仮想格納装置ロジック520はそのような要求事項を満たす物理格納装置が無い場合に要求された帯域幅及び/又はレイテンシを提供する仮想格納装置を“構成(construct)”する。
変換階層ロジック525はテナント要求事項を満たすように使用される物理及び/又は仮想格納装置に用いられる変換階層を確立する。変換階層ロジック525が何をするかはテナント要求事項が何であるかによって変わる。本実施形態で、テナント要求事項がクラスターサイズを含む場合、変換階層ロジック525はクラスターサイズ内で格納装置に亘って論理アドレスを物理アドレスにマッピングする変換階層を確立する。代替的に、仮想格納装置がテナントによる使用のために生成される場合、変換階層ロジック525は、テナントにシングル格納装置として見えるように変換階層を確立するが、仮想格納装置から仮想格納装置を確立する多様な物理格納装置にアドレスをマッピングする。他の実施形態で、テナント要求事項が1つ以上のページサイズを含む場合、変換階層ロジック525は指定されたページサイズの中のいずれか1つに従って多様な格納装置をページに分割する変換階層を確立する。他の実施形態で、テナント要求事項が複製因子を含む場合、変換階層ロジック525は、物理格納装置に亘って複製を支援するために、シングル論理アドレスを多様な物理格納装置上の複数の物理アドレスにマッピングする変換階層を確立する。上述したように、物理格納装置はシングルノード内又は複数のノードに亘って存在する。他の実施形態で、テナント要求事項が持続性要求事項を含む場合、変換階層ロジック525は、物理格納装置上に格納された個別データがどれくらい長い間変わらないかを追跡する変換階層を確立し、そして閾値時間(threshold amount of time)が経過した後にのみ無効化のためのデータをマーク(mark)する。また、本実施形態は複数のこのようなテナント要求事項を支援する変換階層を確立する変換階層ロジック525を含む。
図6は、図5の選択ロジック515の詳細図である。図6を参照すると、選択ロジック515は、クラスター選択ロジック605、構成ロジック610、複製ロジック615、持続性ロジック620、分離ロジック625、及び移動ロジック630を含む。クラスター選択ロジック605は図4のクラスターサイズ430を満たす格納装置アレイ410から格納装置のクラスターを選択する。構成ロジック610は図4のページサイズ435を使用する格納装置アレイ410内の1つ以上の格納装置を構成する。複製ロジック615はデータセンター105のノード内の異なる格納装置に亘ってデータの複製を管理する。持続性ロジック620はデータがアクセスされなくても特定の最小区間の間データが持続されるように図4の格納装置アレイ410内の格納装置を構成する。或いは、持続性ロジック620は予期しない電力フェイルに対してデータが保持されるように保証する格納装置を選択ロジック515が選択するようにする。分離ロジック625は1つ以上の識別されたテナントと格納装置を共有しないように図4の格納装置アレイ410内の格納装置(又は格納装置のクラスター)を選択する。そして、移行ロジック630は、図2のテナント145及び/又は230の要求又は図4のTASTE225自体によって、図4の格納装置アレイ410内の1つの格納装置から他の格納装置へのデータの移行を管理する。
図5〜図6で、多様な構成要素をロジックとして説明した。このようなロジックは、目標結果を達成する適切に設計された回路、又は適切に変形された汎用回路、例えばPROM(programmable read−only memory)、EPPROM(erasable programmable read−only memory)、EEPROM(electrically erasable programmable read−only memory)、又は任意の等価の設計である。また、このようなロジックは適合するプロセッサ上で実行されるソフトウェアを利用して具現される。
上述した論議は図2のTASTE225がどのようにして動作するかに対する一部の説明を提供する。しかし、一部の例は図2のTASTE225が何をするかを明確にする助けになる。開始するには、格納装置アレイ410の例が有用である。
図7は、図4の格納装置アレイ410の一例を示す図である。図7を参照すると、格納装置アレイ410は全体で25個の格納装置を含む。このような格納装置は2つの格納装置のクラスに大略的に区分される。格納装置705は高性能格納装置であり、反面、格納装置710は低性能格納装置である。格納装置(705及び710)は、ノード(715、720、725、730、及び735)に亘って区分される。ここで、各ノードは図1のデータセンター105内のシングルマシン(single machine)を示すか又はシングルラック(single rack)を示す。
図7には格納装置アレイ410の一例を示したが、本実施形態は格納装置アレイ410のための任意の所望の構成を支援する。例えば、単に5個ではなく、任意の数のノードが存在する。また、各ノードは、単に5個ではなく、格納装置の任意の数を含む。各ノードは格納装置アレイ410内に他のノードと異なる数の格納装置を含む。また、各ノードはゼロ(zero)を含むそれぞれ異なる類型の異なる数の格納装置を含む。例えば、1つのノードは高性能格納装置705のみを含み、他のノードは低性能格納装置710のみを含む。格納装置の2つ以上のクラス(図7で、高性能格納装置705及び低性能格納装置710)が存在し、格納装置は1つ以上の基準に従って区分される。そして、図7の格納装置をリンクするように見える任意の他のスレッド(thread)は他の実施形態でも可変される。
図8は、図7の格納装置アレイ410内で確立される仮想格納装置を示す図である。図8を参照すると、図2のテナント145は帯域幅420及び/又はレイテンシ425並びに並列化445を識別する図4の特定の要求事項415を有する。図4のこのような要求事項415は、図2のテナント145が特別な最小帯域幅及び/又は最大レイテンシを望むことを示し、このような要求事項を提供する利用可能なシングル格納装置が無い場合、図2のTASTE225がこのような要求事項を満たす仮想格納装置を構成することを示す。また、格納装置アレイ410内のいずれのシングル格納装置もこのような要求事項を満たさないと仮定する。従って、図2のTASTE225はノード715で2つの格納装置から仮想格納装置805を構成する。図8で、TASTE225は低性能格納装置710が図2のテナント145のために充分であることを知るために図2のテナント145に関する情報を利用するが、図2のテナント145が高性能格納装置705から支援を必要とする場合、図2のTASTE225は高性能格納装置705から仮想格納装置805を構成する。
仮想格納装置805が新しいフラッシュ格納装置(例えばSSD)を示すため、仮想格納装置805は自体のフラッシュ変換階層(FTL)810を含む。FTL810は、図2のテナント145によって使用される論理ブロックアドレスと仮想格納装置805を構成する格納装置によって使用される物理ブロックアドレスとの間のマッピングを管理する。
図9は、図7の格納装置アレイ410で多様なアプリケーションの要求事項を満たすように割当られた多様なクラスター及び格納装置のページサイズを示す図である。図9を参照すると、図2のテナント145は4つの仮想格納装置のクラスターサイズ430を指定する。各仮想格納装置は2つの並列化445を含む。図2のテナント145は、例えばHDFSである。同様に、図2のテナント230は、KV−ストアであり、3つの仮想格納装置のクラスターサイズ430を指定する。各仮想格納装置は2つの並列化445を含む。このような結果を達成するために、図2のTASTE225は各テナントに適合する仮想格納装置を構成する。HDFSが高性能格納装置を要求しないため、TASTE225は低性能格納装置710を利用するHDFSのためのクラスターを構成する。従って、図2のTASTE225はクラスター920に集合させる仮想格納装置(805、905、910、及び915)を構成する(簡易化のために図9にはこのような仮想格納装置のためのFTLを図示しない)。同様に、KV−ストアは高性能格納装置で構成することが有利であるため、図2のTASTE225は高性能格納装置705から仮想格納装置(925、930、及び935)を構成する。そうすると、仮想格納装置(925、930、及び935)はクラスター940に集合される。
また、図9には図4のページサイズ435の使用を示す。図9で、図2のテナント145は仮想格納装置(805、905、910、及び915)のために64MB(ページサイズ945)の図4のページサイズ435を指定する。反面、KV−ストアは仮想格納装置(925、930、及び935)のために100B、32KB、及び2MB(ページサイズ950、955、及び960)の図4のページサイズ435をそれぞれ指定する。それぞれ異なるテナントは図4のそれぞれ異なるページサイズ435を指定し、シングルテナントは全ての格納装置(仮想又は物理)のために図4の同一のページサイズ435を必ずしも使用すべきではないことに留意しなければならない。
図10は、図7の格納装置アレイ410内の格納装置間の複製を示す図である。図10を参照すると、図9と同様に、図2のテナント145は4つの格納装置の図4のクラスターサイズ430を指定する。しかし、図4の並列化445を指定する代わりに、図2のテナント145は2つの二重化440を指定する。即ち、各データはノード内の2つの格納装置上に格納されなければならない。それにより、図2のテナント225は仮想格納装置(805、905、910、及び915)を構成する。しかし、2つの格納装置の両方が結合されたくらい大きく見える仮想格納装置を構成する個別格納装置を結合する代わりに、図2のTASTE225は1つの格納装置から各仮想格納装置内の他の格納装置にデータをコピーするように格納装置を管理する。このようなコピー動作を動作1005として図示する。
図10は1つのノード内の格納装置間でコピーすることを示すことに留意しなければならない。また、図2のTASTE225は、ノードを除去する電力損失に対する保護のために、異なるノード内の(即ち、異なるラック内の)格納装置間のデータのコピーを管理する。このような方式で、データ二重化は、格納装置のフェイルに対して保護するだけでなく、電力フェイルと共に発生する1つのノード内の全ての格納装置が同時に利用不可能になることに対して保護する。
図11は、図7の格納装置アレイ410内の格納装置間のデータ移行を示す図である。図11を参照すると、図2のテナント145又は図2のTASTE225自体が、データが1つの格納装置から他の格納装置に移行されなければならないことを決定する。例えば、図2のテナント145は前の格納装置が支援すること以上のストレージの増加を要求する。そうすると、図2のTASTE225は、動作1105に示したように、新たな格納装置にデータを移行する。或いは、ウェアレベリングの理由(又は他の理由)によって、図2のTASTE225は、動作1105に示すように、前の格納装置から新たな格納装置にデータを移行する必要を判別する。
図12は、本発明の一実施形態による図4のアプリケーションの格納要求事項415を受信して格納装置アレイ410を調節する図2のTASTE225のための一例によるフローチャートである。図12を参照すると、1205段階で、図2のTASTE225はテナント(アプリケーション)のための図4の要求事項415を受信する。1210段階で、図2のTASTE225は図1のデータセンター105で利用可能なリソースを識別する。即ち、利用可能なリソースは図4の格納装置アレイ410内の格納装置及びそれらの全ての特性である。このような情報は図5のストレージ510からアクセスされる。1215段階で、図5の選択ロジック515はテナントのための図4の要求事項415を満たす図4の格納装置アレイ410内の格納装置の部分集合(subset)を選択する。1220段階で、図5の仮想格納装置ロジック520は、必要であれば、少なくとも1つの物理格納装置から仮想格納装置を構成する。1225段階で、図5の仮想格納装置ロジック520はアプリケーションの要求事項を満たす変換階層を確立する。図5を参照して上述したように、図5の変換階層ロジック525はアプリケーションの要求事項の1つ以上の異なる目的を満たす変換階層を確立する。1225段階はこのような目的を達成する変換階層を具現する。
図13A〜図13Cは、本発明の一実施形態による受信されたアプリケーションの要求事項に応答して図4の格納装置アレイ410を具現する図2のTASTE225のための一例によるフローチャートである。図13Aを参照すると、1303段階で、図5の受信ロジック505は図2のテナント145及び230から図4のクラスターサイズ430を受信する。1306段階で、図6のクラスター選択ロジック605は図4のクラスターサイズ430を満たす図4の格納装置アレイ410の部分集合を選択する。
代替的に、1309段階で、図5の受信ロジック505は図2のテナント145及び230から図4の持続性要求事項450を受信する。1312段階で、図6の持続性ロジック620は図4の持続性要求事項450を満たす図4の格納装置アレイ410内の格納装置を構成する。
代替的に、1315段階で、図5の受信ロジック505は図2のテナント145及び230から図4の分離要求事項455を受信する。1318段階で、図6の分離ロジック625は図4の分離要求事項455を満たす図4の格納装置アレイ410の部分集合を選択する。
代替的に、1321段階で(図13B)、図5の受信ロジック505は図2のテナント145及び230から図4の複製因子440を受信する。1324段階で、図6のクラスター選択ロジック605は図4の複製因子440を満たす図4の格納装置アレイ410の部分集合を選択する。1327段階で、図2のTASTE225はノード内の格納装置間のデータの複製を管理する。1330段階で、図2のTASTE225は図1のデータセンター105でノード間のデータの複製を管理する。
代替的に、1333段階で、図5の受信ロジック505は図2のテナント145及び230から図4のページサイズ435を受信する。1336段階で、図6のクラスター選択ロジック605は図4の格納装置アレイ410の部分集合を選択する。1339段階で、図6の構成ロジック610は図4のページサイズ435を使用する図4の格納装置アレイ410内の格納装置を構成する。
代替的に、1342段階で(図13C)、図5の受信ロジック505は図2のテナント145及び230から図4のレイテンシ425を受信する。1345段階で、図6のクラスター選択ロジック605は図4のレイテンシ425を満たす図4の格納装置アレイ410の部分集合を選択する。
代替的に、1348段階で、図5の受信ロジック505は図2のテナント145及び230から図4の帯域幅420を受信する。1351段階で、図6のクラスター選択ロジック605は図4の帯域幅420を満たす図4の格納装置アレイ410の部分集合を選択する。
代替的に、1354段階で、図5の受信ロジック505は図2のテナント(145及び230(又は図2のTASTE225自体)から図4の移行460を受信する。1357段階で、図2のTASTE225は移行されるデータが存在する格納装置を識別する。1360段階で、図2のTASTE225はデータが移行されるべき第2格納装置を選択する。その後に1363段階で、図6の移動ロジック630は第1格納装置から第2格納装置にデータを移行する。
図12及び図13Cで、一部の実施形態を示した。しかし、当業者は段階(block)の順序を変更するか、段階を省略するか、又は図面に示さないリンク(links)を含むことによって、他の実施形態も可能であることを認識すべきである。フローチャートのこのような全ての変形は、明示的に記述したか、又は記述しなくても本発明の概念の実施形態であるものと看做される。
以下の説明は本発明の技術的思想の一部の側面が具現される適切なマシン又はマシンの簡単且つ一般的な説明を提供する。マシン又は複数のマシンは、少なくとも一部が他のマシンから受信される指示、仮想現実(VR)環境との相互作用、生体フィードバック、又は他の入力信号のみならず、キーボード、マウス等のような通常的な入力装置からの入力によって制御される。本明細書で使用するように、“マシン”の用語は、単一マシン、仮想マシン、又はマシン、仮想マシン若しくは共に動作する装置と通信するように結合されたシステムを広く含むものとして意図する。例示的なマシンは、例えば自動車、汽車、タクシー等のような個人用又は公共輸送のような輸送装置のみならず、個人用コンピュータ、ワークステーション、サーバー、ポータブルコンピュータ、ハンドヘルド装置、電話、タブレット等のようなコンピューティング装置を含む。
マシン又は複数のマシンは、プログラム可能な若しくはプログラム不可能な論理装置又はアレイ、ASIC(Application Specific Integrated Circuit)、埋め込み型コンピュータ、スマトカード等のような埋め込み型コントローラを含む。マシン又は複数のマシンは、ネットワークインターフェイス、モデム、又は他の通信結合を通じて、1つ以上の遠隔マシンに対する1つ以上の連結を活用する。マシンは、イントラネット、インターネット、LAN(local area networks)、WAN(wide area networks)等のような物理的及び/又は論理的ネットワーク手段で互いに接続される。この分野で熟練された者は、ネットワーク通信が多様な有線及び/又は無線による近距離又は遠距離キャリヤー及び無線周波数(RF)、衛星、マイクロ波、IEEE802.11、ブルートゥース(登録商標)、光学、赤外線、ケーブル、レーザー等を含むプロトコルを活用することを理解すべきである。
本発明の技術的思想の実施形態は、マシンによってアクセスされる時にマシンが作業を遂行するか、又は抽象的なデータタイプ又は低レベルハードウェアコンテキストを定義することを発生させる関数、手続、データ構造、応用プログラム等を含む関連するデータを参照して又は協力して説明される。関連するデータは、例えばRAM、ROM等のような揮発性及び/又は不揮発性メモリ、他のストレージ装置、及びハードドライブ、フロッピー(登録商標)ディスク、光学ストレージ、テープ、フラッシュメモリ、メモリスティック、デジタルビデオディスク、生体ストレージ等を含む関連するストレージ媒体に格納される。関連するデータは、物理的及び/又は論理的ネットワークを含む伝送環境を経てパケット、直列データ、並列データ、伝送信号等の形態で伝達され、圧縮された又は暗号化されたフォーマットで利用される。関連するデータは、分散環境で使用され、マシンアクセスに対して地域的及び/又は遠隔に格納される。
本発明の技術的思想の実施形態は、1つ以上のプロセッサによって実行可能であり、上述したように本発明の技術的思想の要素を遂行する命令を含むコンピュータ読み取り可能な記録媒体を含む。
図示した実施形態を参照して説明した本発明の技術的思想の原則を有することで、図示した実施形態がこのような原則から遠くならず、配列及び詳細で修正され、必要な任意の方法で組合されることが理解される。上述の説明が具体的な実施形態に集中したが、他の構成もまた考慮される。具体的に、“本発明の技術的思想の実施形態による”のような説明又はここに使用した類似なことに拘らず、このような文句は一般的に実施形態の可能性を参照し、本発明の技術的思想を具体的な実施形態の構成で限定することを意図しない。本明細書で使用したように、このような用語は他の実施形態で組合せ可能な同一又は異なる実施形態を参照する。
本発明の実施形態は制限無しで次のステートメントに拡張される。
ステートメント1.本発明の実施形態はアプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(tenant−aware storage−sharing engine:TASTE)を含み、TASTEは、利用可能な格納装置の集合に関する情報のためのストレージと、アプリケーションから格納装置の要求事項を受信する受信ロジックと、格納装置の要求事項を満たす利用可能な格納装置の集合の部分集合を選択する選択ロジックと、を備える。
ステートメント2.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのためのクラスターサイズを含み、選択ロジックは、利用可能な格納装置の集合の部分集合を選択するクラスター選択ロジックを含み、利用可能な格納装置の集合の部分集合内の格納装置の数は、アプリケーションのためのクラスターサイズと同一である。
ステートメント3.本発明の実施形態はステートメント2に従うTASTEを含み、TASTEは、利用可能な格納装置の集合の部分集合上で論理ブロックアドレスを物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント4.本発明の実施形態はステートメント3に従うTASTEを含み、TASTEは、利用可能な格納装置の集合の部分集合内の複数の格納装置から仮想格納装置のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント5.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのためのページサイズを含み、選択ロジックは、ページサイズを使用するために利用可能な格納装置の集合の部分集合を構成する構成ロジックを含む。
ステートメント6.本発明の実施形態はステートメント5に従うTASTEを含み、TASTEは、ページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント7.本発明の実施形態はステートメント5に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための複数のページサイズを含み、選択ロジックは、複数のページサイズを使用する利用可能な格納装置の集合の部分集合を構成する構成ロジックを含む。
ステートメント8.本発明の実施形態はステートメント7に従うTASTEを含み、TASTEは、第1ページサイズに従って第1論理ブロックアドレスを利用可能な格納装置の集合の第1部分集合上の第1物理ブロックアドレスにマッピングし、第2ページサイズに従って第2論理ブロックアドレスを利用可能な格納装置の集合の第2部分集合上の第2物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント9.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための複製因子を含み、選択ロジックは、利用可能な格納装置の集合の部分集合の数に亘ってデータを複製する複製ロジックを含み、部分集合の数は、複製因子と同一である。
ステートメント10.本発明の実施形態はステートメント9に従うTASTEを含み、TASTEは、利用可能な格納装置の集合の部分集合内の第1格納装置を利用可能な格納装置の集合の部分集合内の第2格納装置のコピー(replica)として管理するために、利用可能な格納装置の集合の部分集合のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント11.本発明の実施形態はステートメント9に従うTASTEを含み、複製ロジックは、1つのノード内の格納装置に亘ってデータを複製するように動作する。
ステートメント12.本発明の実施形態はステートメント11に従うTASTEを含み、アプリケーションは、ノードに亘ってデータを複製するように動作する。
ステートメント13.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための持続性要求事項を含み、選択ロジックは、アプリケーションからのデータが利用可能な格納装置の集合の部分集合内の閾値時間の間持続することを保証する持続性ロジックを含む。
ステートメント14.本発明の実施形態はステートメント13に従うTASTEを含み、TASTEは、利用可能な格納装置の集合の部分集合上のデータが少なくとも閾値時間の間無効化されないようにするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント15.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための持続性要求事項を含み、選択ロジックは、利用可能な格納装置の集合の部分集合が電力フェイルに対してデータを保護することを保証する持続性ロジックを含む。
ステートメント16.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための分離要求事項を含み、選択ロジックは、利用可能な格納装置の集合の部分集合が利用可能な格納装置の集合の第2アプリケーションで用いられる第2部分集合にオーバーラップされないことを保証する分離ロジックを含む。
ステートメント17.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための移行コマンドを含み、選択ロジックは、利用可能な格納装置の集合の部分集合内の第1格納装置から利用可能な格納装置の集合の部分集合内の第2格納装置にデータを移行させる移行ロジックを含む。
ステートメント18.本発明の実施形態はステートメント13に従うTASTEを含み、TASTEは、利用可能な格納装置の集合の部分集合内の複数の格納装置から仮想格納装置を生成する仮想格納装置ロジックを更に含む。
ステートメント19.本発明の実施形態はステートメント18に従うTASTEを含み、TASTEは、仮想格納装置のための変換階層を確立する変換階層ロジックを更に含む。
ステートメント20.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのための帯域幅要求事項を含み、選択ロジックは、組合せにより、帯域幅要求事項よりも狭くない全体帯域幅を提供する利用可能な格納装置の集合の部分集合を選択するように動作する。
ステートメント21.本発明の実施形態はステートメント1に従うTASTEを含み、格納装置の要求事項は、アプリケーションのためのレイテンシ要求事項を含み、選択ロジックは、組合せにより、レイテンシ要求事項よりも長くない平均レイテンシを提供する利用可能な格納装置の集合の部分集合を選択するように動作する。
ステートメント22.本発明の実施形態はアプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(tenant−aware storage−sharing engine:TASTE)の処理方法を含み、方法は、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階と、利用可能な格納装置の集合を識別する段階と、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階と、を有する。
ステートメント23.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのためのクラスターサイズを受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、利用可能な格納装置の集合から格納装置を選択する段階を含み、利用可能な格納装置の集合の部分集合内の格納装置の数は、アプリケーションのためのクラスターサイズと同一である。
ステートメント24.本発明の実施形態はステートメント23に従う方法を含み、方法は、利用可能な格納装置の集合の部分集合上で論理ブロックアドレスを物理アドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階を更に含む。
ステートメント25.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのためのページサイズを受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、利用可能な格納装置の集合から格納装置を選択する段階と、アプリケーションのためのページサイズを使用するために選択された格納装置を構成する段階と、を含む。
ステートメント26.本発明の実施形態はステートメント25に従う方法を含み、方法は、ページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階を更に含む。
ステートメント27.本発明の実施形態はステートメント25に従う方法を含み、アプリケーションのためのページサイズを受信する段階は、アプリケーションのための複数のページサイズを受信する段階を含み、アプリケーションのためのページサイズを使用する選択された格納装置を構成する段階は、アプリケーションのための複数のページサイズを使用する選択された格納装置を構成する段階を含む。
ステートメント28.本発明の実施形態はステートメント27に従う方法を含み、方法は、複数のページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階を更に含む。
ステートメント29.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための複製因子を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、各データが格納装置の数毎に格納されるように利用可能な格納装置の集合から格納装置を選択する段階を含み、格納装置の数は、少なくともアプリケーションのための複製因子ほど大きい。
ステートメント30.本発明の実施形態はステートメント29に従う方法を含み、方法は、利用可能な格納装置の集合の部分集合内の第1格納装置を利用可能な格納装置の集合の部分集合内の第2格納装置のコピー(replica)として管理するために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階を更に含む。
ステートメント31.本発明の実施形態はステートメント29に従う方法を含み、方法は、1つのノード内の利用可能な格納装置の集合の部分集合内の格納装置間で複製を管理する段階を更に含む。
ステートメント32.本発明の実施形態はステートメント31に従う方法を含み、方法は、アプリケーションによってノードに亘ってデータを複製する段階を更に含む。
ステートメント33.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための持続性要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、データがアプリケーションのための持続性要求事項に従って閾値時間の間格納装置に格納されるように利用可能な格納装置の集合から格納装置を構成する段階を含む。
ステートメント34.本発明の実施形態はステートメント33に従う方法を含み、方法は、利用可能な格納装置の集合の部分集合上のデータが少なくとも閾値時間の間無効化されないようにするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階を更に含む。
ステートメント35.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための持続性要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、電力フェイルに対してデータが保護されるように利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント36.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションが第2アプリケーションから分離されることを指定する分離要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、利用可能な格納装置の集合の部分集合内のいずれの格納装置も第2アプリケーションのためのデータを格納しないように、利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント37.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための移行コマンドを受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、データが移行される格納装置を識別する段階と、利用可能な格納装置の集合から第2格納装置を選択する段階と、識別された格納装置から第2格納装置にデータを移行する段階と、を含む。
ステートメント38.本発明の実施形態はステートメント22に従う方法を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、少なくとも1つの格納装置から仮想格納装置を生成する段階を含む。
ステートメント39.本発明の実施形態はステートメント38に従う方法を含み、方法は、仮想格納装置のための変換階層を確立する段階を更に含む。
ステートメント40.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための帯域幅要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、組合せにより、アプリケーションのための帯域幅要求事項よりも狭くない全体帯域幅を提供する利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント41.本発明の実施形態はステートメント22に従う方法を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのためのレイテンシ要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、組合せにより、アプリケーションのためのレイテンシ要求事項よりも長くない平均レイテンシを提供する利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント42.本発明の実施形態はコンピュータ読み取り可能な記録媒体を含み、記録媒体は、マシンによって実行される非一時的なインストラクションを格納し、インストラクションが実行されることによって、アプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(tenant−aware storage−sharing engine:TASTE)でアプリケーションから格納装置の要求事項の集合を受信する段階と、利用可能な格納装置の集合を識別する段階と、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階と、が実行される。
ステートメント43.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのためのクラスターサイズを受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、利用可能な格納装置の集合から格納装置を選択する段階を含み、利用可能な格納装置の集合の部分集合内の格納装置の数は、アプリケーションのためのクラスターサイズと同一である。
ステートメント44.本発明の実施形態はステートメント43に従う記録媒体を含み、記録媒体のインストラクションにより、利用可能な格納装置の集合の部分集合上で論理ブロックアドレスを物理アドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階が更に実行される。
ステートメント45.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのためのページサイズを受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、利用可能な格納装置の集合から格納装置を選択する段階と、アプリケーションのためのページサイズを使用するために選択された格納装置を構成する段階と、を含む。
ステートメント46.本発明の実施形態はステートメント45に従う記録媒体を含み、記録媒体のインストラクションにより、ページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階が更に実行される。
ステートメント47.本発明の実施形態はステートメント45に従う記録媒体を含み、アプリケーションのためのページサイズを受信する段階は、アプリケーションのための複数のページサイズを受信する段階を含み、アプリケーションのためのページサイズを使用する選択された格納装置を構成する段階は、アプリケーションのための複数のページサイズを使用する選択された格納装置を構成する段階を含む。
ステートメント48.本発明の実施形態はステートメント47に従う記録媒体を含み、記録媒体のインストラクションにより、複数のページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階が更に実行される。
ステートメント49.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための複製因子を受信する段階を含み、アプリケーションから格納装置の要求事項の集合をたす利用可能な格納装置の集合の部分集合を選択する段階は、各データが格納装置の数毎に格納されるように利用可能な格納装置の集合から格納装置を選択する段階を含み、格納装置の数は、少なくともアプリケーションのための複製因子ほど大きい。
ステートメント50.本発明の実施形態はステートメント49に従う記録媒体を含み、記録媒体のインストラクションにより、利用可能な格納装置の集合の部分集合内の第1格納装置を利用可能な格納装置の集合の部分集合内の第2格納装置のコピー(replica)として管理するために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階が更に実行される。
ステートメント51.本発明の実施形態はステートメント49に従う記録媒体を含み、記録媒体のインストラクションにより、1つのノード内の利用可能な格納装置の集合の部分集合内の格納装置間で複製を管理する段階が更に実行される。
ステートメント52.本発明の実施形態はステートメント51に従う記録媒体を含み、記録媒体のインストラクションにより、アプリケーションによってノードに亘ってデータを複製する段階が更に実行される。
ステートメント53.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための持続性要求事項を受信する段階を含み、アプリケーションからの格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、データがアプリケーションのための持続性要求事項に従って閾値時間の間格納装置に格納されるように利用可能な格納装置の集合から格納装置を構成する段階を含む。
ステートメント54.本発明の実施形態はステートメント53に従う記録媒体を含み、記録媒体のインストラクションにより、利用可能な格納装置の集合の部分集合上のデータが少なくとも閾値時間の間無効化されないようにするために、利用可能な格納装置の集合の部分集合のための変換階層を確立する段階が更に実行される。
ステートメント55.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための持続性要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、電力フェイルに対してデータが保護されるように利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント56.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションが第2アプリケーションから分離されることを指定する分離要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、利用可能な格納装置の集合の部分集合内のいずれの格納装置も第2アプリケーションのためのデータを格納しないように、利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント57.本発明の実施形態はステートメント52に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための移行コマンドを受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、データが移行される格納装置を識別する段階と、利用可能な格納装置の集合から第2格納装置を選択する段階と、識別された格納装置から第2格納装置にデータを移行する段階と、を含む。
ステートメント58.本発明の実施形態はステートメント42に従う記録媒体を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、少なくとも1つの格納装置から仮想格納装置を生成する段階を含む。
ステートメント59.本発明の実施形態はステートメント58に従う記録媒体を含み、記録媒体のインストラクションにより、仮想格納装置のための変換階層を確立する段階が更に実行される。
ステートメント60.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのための帯域幅要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、組合せにより、アプリケーションのための帯域幅要求事項よりも狭くない全体帯域幅を提供する利用可能な格納装置の集合から格納装置を選択する段階を含む。
ステートメント61.本発明の実施形態はステートメント42に従う記録媒体を含み、TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、アプリケーションのためのレイテンシ要求事項を受信する段階を含み、アプリケーションから格納装置の要求事項の集合を満たす利用可能な格納装置の集合の部分集合を選択する段階は、組合せにより、アプリケーションのためのレイテンシ要求事項よりも長くない平均レイテンシを提供する利用可能な格納装置の集合から格納装置を選択する段階を含む。
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
105 データセンター
110、115、120、125、130 ホストマシン
135 ネットワーク
140 クライアントマシン
145、230 テナント(アプリケーション)
205 プロセッサ
210 メモリ
215 ネットワークコネクター
220、705、710 格納装置
225 TASTE(テナントアウェアストレージシェアリングエンジン)
305 メモリ制御器
310 クロック
320 バス
325 使用者インターフェイス
330 I/Oエンジン
405 ストレージリソース情報
410 格納装置アレイ
415 テナント要求事項
505 受信ロジック
510 ストレージ
515 選択ロジック
520 仮想格納装置ロジック
525 変換階層ロジック
605 クラスター選択ロジック
610 構成ロジック
615 複製ロジック
620 持続性ロジック
625 分離ロジック
630 移行ロジック
715、720、725、730、735 ノード1〜5
805、905、910、915、925、930、935 仮想格納装置
810 フラッシュ変換階層(FTL)
920、940 クラスター
945、950、955、960 ページサイズ

Claims (20)

  1. アプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(TASTE)であって、
    利用可能な格納装置の集合に関する情報のためのストレージと、
    アプリケーションから格納装置の要求事項を受信する受信ロジックと、
    前記格納装置の要求事項を満たす前記利用可能な格納装置の集合の部分集合を選択する選択ロジックと、を備えることを特徴とするTASTE。
  2. 前記格納装置の要求事項は、前記アプリケーションのためのクラスターサイズを含み、
    前記選択ロジックは、前記利用可能な格納装置の集合の前記部分集合を選択するクラスター選択ロジックを含み、
    前記利用可能な格納装置の集合の前記部分集合内の格納装置の数は、前記アプリケーションのためのクラスターサイズと同一であることを特徴とする請求項1に記載のTASTE。
  3. 前記利用可能な格納装置の集合の前記部分集合上で論理ブロックアドレスを物理ブロックアドレスにマッピングするために、前記利用可能な格納装置の集合の前記部分集合のための変換階層を確立する変換階層ロジックを更に含むことを特徴とする請求項2に記載のTASTE。
  4. 前記格納装置の要求事項は、前記アプリケーションのためのページサイズを含み、
    前記選択ロジックは、前記ページサイズを使用するために、前記利用可能な格納装置の集合の前記部分集合を構成する構成ロジックを含むことを特徴とする請求項1に記載のTASTE。
  5. 前記ページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、前記利用可能な格納装置の集合の前記部分集合のための変換階層を確立する変換階層ロジックを更に含むことを特徴とする請求項4に記載のTASTE。
  6. 前記格納装置の要求事項は、前記アプリケーションのための複製因子を含み、
    前記選択ロジックは、前記利用可用な格納装置の集合の前記部分集合の数に亘ってデータを複製する複製ロジックを含み、
    前記部分集合の数は、前記複製因子と同一であることを特徴とする請求項1に記載のTASTE。
  7. 前記利用可能な格納装置の集合の前記部分集合内の第1格納装置を前記利用可能な格納装置の集合の前記部分集合内の第2格納装置のコピーとして管理するために、前記利用可可能な格納装置の集合の前記部分集合のための変換階層を確立する変換階層ロジックを更に含むことを特徴とする請求項6に記載のTASTE。
  8. 前記格納装置の要求事項は、前記アプリケーションのための持続性要求事項を含み、
    前記選択ロジックは、前記アプリケーションからのデータが前記利用可能な格納装置の集合の前記部分集合内の閾値時間の間持続することを保証する持続性ロジックを含むことを特徴とする請求項1に記載のTASTE。
  9. 前記利用可能な格納装置の集合の前記部分集合上のデータが少なくとも前記閾値時間の間無効化されないようにするために、前記利用可能な格納装置の集合の前記部分集合のための変換階層を確立する変換階層ロジックを更に含むことを特徴とする請求項8に記載のTASTE。
  10. 前記格納装置の要求事項は、前記アプリケーションのための持続性要求事項を含み、
    前記選択ロジックは、前記利用可能な格納装置の集合の前記部分集合が電力フェイルに対してデータを保護することを保証する持続性ロジックを含むことを特徴とする請求項1に記載のTASTE。
  11. 前記格納装置の要求事項は、前記アプリケーションのための分離要求事項を含み、
    前記選択ロジックは、前記利用可能な格納装置の集合の前記部分集合が前記利用可能な格納装置の集合の第2アプリケーションで用いられる第2部分集合にオーバーラップされないことを保証する分離ロジックを含むことを特徴とする請求項1に記載のTASTE。
  12. 前記格納装置の要求事項は、前記アプリケーションのための移行コマンドを含み、
    前記選択ロジックは、前記利用可能な格納装置の集合の前記部分集合内の第1格納装置から前記利用可能な格納装置の集合の前記部分集合内の第2格納装置にデータを移行させる移行ロジックを含むことを特徴とする請求項1に記載のTASTE。
  13. 前記利用可能な格納装置の集合の前記部分集合内の複数の格納装置から仮想格納装置を生成する仮想格納装置ロジックを更に含むことを特徴とする請求項1に記載のTASTE。
  14. 前記仮想格納装置のための変換階層を確立する変換階層ロジックを更に含むことを特徴とする請求項13に記載のTASTE。
  15. アプリケーションに応じて格納装置を管理するためのテナントアウェアストレージシェアリングエンジン(TASTE)の処理方法であって、
    前記TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階と、
    利用可能な格納装置の集合を識別する段階と、
    前記アプリケーションから前記格納装置の要求事項の集合を満たす前記利用可能な格納装置の集合の部分集合を選択する段階と、を有することを特徴とする方法。
  16. 前記TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、前記アプリケーションのためのクラスターサイズを受信する段階を含み、
    前記アプリケーションから前記格納装置の要求事項の集合を満たす前記利用可能な格納装置の集合の部分集合を選択する段階は、前記利用可能な格納装置の集合から格納装置を選択する段階を含み、
    前記利用可能な格納装置の集合の前記部分集合内の格納装置の数は、前記アプリケーションのための前記クラスターサイズと同一であることを特徴とする請求項15に記載の方法。
  17. 前記利用可能な格納装置の集合の前記部分集合上で論理ブロックアドレスを物理ブロックアドレスにマッピングするために、前記利用可能な格納装置の集合の前記部分集合のための変換階層を確立する段階を更に含むことを特徴とする請求項16に記載の方法。
  18. 前記TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、前記アプリケーションのためのページサイズを受信する段階を含み、
    前記アプリケーションから前記格納装置の要求事項の集合を満たす前記利用可能な格納装置の集合の部分集合を選択する段階は、
    前記利用可能な格納装置の集合から格納装置を選択する段階と、
    前記アプリケーションのための前記ページサイズを使用するために前記選択された格納装置を構成する段階と、を含むことを特徴とする請求項15に記載の方法。
  19. 前記ページサイズに従って論理ブロックアドレスを物理ブロックアドレスにマッピングするために、前記利用可能な格納装置の集合の前記部分集合のための変換階層を確立する段階を更に含むことを特徴とする請求項18に記載の方法。
  20. 前記TASTEでアプリケーションから格納装置の要求事項の集合を受信する段階は、前記アプリケーションのための複製因子を受信する段階を含み、
    前記アプリケーションから前記格納装置の要求事項の集合を満たす前記利用可能な格納装置の集合の部分集合を選択する段階は、各データが格納装置の数毎に格納されるように前記利用可能な格納装置の集合から格納装置を選択する段階を含み、
    前記格納装置の数は、少なくとも前記アプリケーションのための前記複製因子ほど大きいことを特徴とする請求項15に記載の方法。
JP2017076598A 2016-05-24 2017-04-07 テナントアウェアストレージシェアリングプラットフォームのための処理装置及びその方法 Active JP6734807B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662341063P 2016-05-24 2016-05-24
US62/341,063 2016-05-24
US15/227,955 2016-08-03
US15/227,955 US10437486B2 (en) 2016-05-24 2016-08-03 Method and apparatus for tenant-aware storage sharing platform

Publications (3)

Publication Number Publication Date
JP2017211983A true JP2017211983A (ja) 2017-11-30
JP2017211983A5 JP2017211983A5 (ja) 2020-05-21
JP6734807B2 JP6734807B2 (ja) 2020-08-05

Family

ID=60417918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017076598A Active JP6734807B2 (ja) 2016-05-24 2017-04-07 テナントアウェアストレージシェアリングプラットフォームのための処理装置及びその方法

Country Status (5)

Country Link
US (1) US10437486B2 (ja)
JP (1) JP6734807B2 (ja)
KR (1) KR102457611B1 (ja)
CN (1) CN107422983B (ja)
TW (1) TWI699654B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021506038A (ja) * 2017-12-05 2021-02-18 ソニー・インタラクティブエンタテインメント エルエルシー 超高速かつ低遅延なネットワークストレージ

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10642497B2 (en) 2016-08-31 2020-05-05 International Business Machines Corporation System, method and computer program product for instantiating blocks of a solid-state disk to include different flash characteristics
US11301144B2 (en) 2016-12-28 2022-04-12 Amazon Technologies, Inc. Data storage system
US10771550B2 (en) 2016-12-28 2020-09-08 Amazon Technologies, Inc. Data storage system with redundant internal networks
US10484015B2 (en) 2016-12-28 2019-11-19 Amazon Technologies, Inc. Data storage system with enforced fencing
US10514847B2 (en) * 2016-12-28 2019-12-24 Amazon Technologies, Inc. Data storage system with multiple durability levels
US10542089B2 (en) * 2017-03-10 2020-01-21 Toshiba Memory Corporation Large scale implementation of a plurality of open channel solid state drives
US10073640B1 (en) * 2017-03-10 2018-09-11 Toshiba Memory Corporation Large scale implementation of a plurality of open channel solid state drives
US20180300253A1 (en) * 2017-04-13 2018-10-18 Advanced Micro Devices, Inc. Translate further mechanism
US10761743B1 (en) 2017-07-17 2020-09-01 EMC IP Holding Company LLC Establishing data reliability groups within a geographically distributed data storage environment
US10880040B1 (en) 2017-10-23 2020-12-29 EMC IP Holding Company LLC Scale-out distributed erasure coding
US10423361B2 (en) * 2017-12-21 2019-09-24 Microsoft Technology Licensing, Llc Virtualized OCSSDs spanning physical OCSSD channels
US10382554B1 (en) 2018-01-04 2019-08-13 Emc Corporation Handling deletes with distributed erasure coding
US11029879B2 (en) * 2018-01-29 2021-06-08 Samsung Electronics Co., Ltd Page size synchronization and page size aware scheduling method for non-volatile memory dual in-line memory module (NVDIMM) over memory channel
US10579297B2 (en) 2018-04-27 2020-03-03 EMC IP Holding Company LLC Scaling-in for geographically diverse storage
US11023130B2 (en) 2018-06-15 2021-06-01 EMC IP Holding Company LLC Deleting data in a geographically diverse storage construct
US10936196B2 (en) 2018-06-15 2021-03-02 EMC IP Holding Company LLC Data convolution for geographically diverse storage
CN109445684B (zh) * 2018-09-20 2021-11-26 华为技术有限公司 一种分布式存储系统中硬盘的资源分配方法及设备
US11436203B2 (en) 2018-11-02 2022-09-06 EMC IP Holding Company LLC Scaling out geographically diverse storage
US10901635B2 (en) 2018-12-04 2021-01-26 EMC IP Holding Company LLC Mapped redundant array of independent nodes for data storage with high performance using logical columns of the nodes with different widths and different positioning patterns
US10931777B2 (en) 2018-12-20 2021-02-23 EMC IP Holding Company LLC Network efficient geographically diverse data storage system employing degraded chunks
US11119683B2 (en) 2018-12-20 2021-09-14 EMC IP Holding Company LLC Logical compaction of a degraded chunk in a geographically diverse data storage system
US10892782B2 (en) 2018-12-21 2021-01-12 EMC IP Holding Company LLC Flexible system and method for combining erasure-coded protection sets
US11023331B2 (en) 2019-01-04 2021-06-01 EMC IP Holding Company LLC Fast recovery of data in a geographically distributed storage environment
US10942827B2 (en) 2019-01-22 2021-03-09 EMC IP Holding Company LLC Replication of data in a geographically distributed storage environment
US10846003B2 (en) 2019-01-29 2020-11-24 EMC IP Holding Company LLC Doubly mapped redundant array of independent nodes for data storage
US10942825B2 (en) 2019-01-29 2021-03-09 EMC IP Holding Company LLC Mitigating real node failure in a mapped redundant array of independent nodes
US10866766B2 (en) 2019-01-29 2020-12-15 EMC IP Holding Company LLC Affinity sensitive data convolution for data storage systems
US10936239B2 (en) 2019-01-29 2021-03-02 EMC IP Holding Company LLC Cluster contraction of a mapped redundant array of independent nodes
US11029865B2 (en) 2019-04-03 2021-06-08 EMC IP Holding Company LLC Affinity sensitive storage of data corresponding to a mapped redundant array of independent nodes
US10944826B2 (en) 2019-04-03 2021-03-09 EMC IP Holding Company LLC Selective instantiation of a storage service for a mapped redundant array of independent nodes
US11121727B2 (en) 2019-04-30 2021-09-14 EMC IP Holding Company LLC Adaptive data storing for data storage systems employing erasure coding
US11113146B2 (en) 2019-04-30 2021-09-07 EMC IP Holding Company LLC Chunk segment recovery via hierarchical erasure coding in a geographically diverse data storage system
US11119686B2 (en) 2019-04-30 2021-09-14 EMC IP Holding Company LLC Preservation of data during scaling of a geographically diverse data storage system
US11748004B2 (en) 2019-05-03 2023-09-05 EMC IP Holding Company LLC Data replication using active and passive data storage modes
US11169723B2 (en) 2019-06-28 2021-11-09 Amazon Technologies, Inc. Data storage system with metadata check-pointing
US11209996B2 (en) 2019-07-15 2021-12-28 EMC IP Holding Company LLC Mapped cluster stretching for increasing workload in a data storage system
US11449399B2 (en) 2019-07-30 2022-09-20 EMC IP Holding Company LLC Mitigating real node failure of a doubly mapped redundant array of independent nodes
US11023145B2 (en) 2019-07-30 2021-06-01 EMC IP Holding Company LLC Hybrid mapped clusters for data storage
US11228322B2 (en) 2019-09-13 2022-01-18 EMC IP Holding Company LLC Rebalancing in a geographically diverse storage system employing erasure coding
US11449248B2 (en) 2019-09-26 2022-09-20 EMC IP Holding Company LLC Mapped redundant array of independent data storage regions
US11119690B2 (en) 2019-10-31 2021-09-14 EMC IP Holding Company LLC Consolidation of protection sets in a geographically diverse data storage environment
US11435910B2 (en) 2019-10-31 2022-09-06 EMC IP Holding Company LLC Heterogeneous mapped redundant array of independent nodes for data storage
US11288139B2 (en) 2019-10-31 2022-03-29 EMC IP Holding Company LLC Two-step recovery employing erasure coding in a geographically diverse data storage system
US11435957B2 (en) 2019-11-27 2022-09-06 EMC IP Holding Company LLC Selective instantiation of a storage service for a doubly mapped redundant array of independent nodes
US11144220B2 (en) 2019-12-24 2021-10-12 EMC IP Holding Company LLC Affinity sensitive storage of data corresponding to a doubly mapped redundant array of independent nodes
US11231860B2 (en) 2020-01-17 2022-01-25 EMC IP Holding Company LLC Doubly mapped redundant array of independent nodes for data storage with high performance
US11507308B2 (en) 2020-03-30 2022-11-22 EMC IP Holding Company LLC Disk access event control for mapped nodes supported by a real cluster storage system
US11288229B2 (en) 2020-05-29 2022-03-29 EMC IP Holding Company LLC Verifiable intra-cluster migration for a chunk storage system
US11693983B2 (en) 2020-10-28 2023-07-04 EMC IP Holding Company LLC Data protection via commutative erasure coding in a geographically diverse data storage system
US11416180B2 (en) * 2020-11-05 2022-08-16 International Business Machines Corporation Temporary data storage in data node of distributed file system
US11593035B2 (en) * 2021-01-06 2023-02-28 Red Hat, Inc. Managing client devices associated with storage nodes in a scale-out storage system
US11620068B2 (en) * 2021-01-06 2023-04-04 EMC IP Holding Company LLC Data transfer optimizations
US11847141B2 (en) 2021-01-19 2023-12-19 EMC IP Holding Company LLC Mapped redundant array of independent nodes employing mapped reliability groups for data storage
US11625174B2 (en) 2021-01-20 2023-04-11 EMC IP Holding Company LLC Parity allocation for a virtual redundant array of independent disks
US11354191B1 (en) 2021-05-28 2022-06-07 EMC IP Holding Company LLC Erasure coding in a large geographically diverse data storage system
US11449234B1 (en) 2021-05-28 2022-09-20 EMC IP Holding Company LLC Efficient data access operations via a mapping layer instance for a doubly mapped redundant array of independent nodes
US20230289084A1 (en) * 2022-03-11 2023-09-14 Samsung Electronics Co., Ltd. Systems and methods for checking data alignment between applications, file systems, and computational storage devices

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493656B1 (en) 1999-02-26 2002-12-10 Compaq Computer Corporation, Inc. Drive error logging
US8296467B2 (en) * 2000-01-06 2012-10-23 Super Talent Electronics Inc. Single-chip flash device with boot code transfer capability
US6836821B2 (en) 2002-04-23 2004-12-28 Lsi Logic Corporation System and method for providing graph structuring for layered virtual volumes
US7028147B2 (en) * 2002-12-13 2006-04-11 Sun Microsystems, Inc. System and method for efficiently and reliably performing write cache mirroring
US7120651B2 (en) * 2003-08-01 2006-10-10 Oracle International Corporation Maintaining a shared cache that has partitions allocated among multiple nodes and a data-to-partition mapping
US7418568B2 (en) * 2005-01-05 2008-08-26 Sap Ag Memory management technique
JP4473175B2 (ja) 2005-05-13 2010-06-02 富士通株式会社 記憶制御方法、プログラム及び装置
KR20090026941A (ko) 2007-09-11 2009-03-16 삼성전자주식회사 복수개의 비휘발성 데이터 저장매체를 구비한 저장장치의가상 파일 시스템에서 어드레스 맵핑을 수행하는 방법 및그 장치
US7856499B2 (en) 2008-03-20 2010-12-21 Sap Ag Autonomic provisioning of hosted applications with level of isolation terms
CN102754084B (zh) * 2010-05-18 2015-10-07 株式会社日立制作所 存储装置和数据管理方法
US8667171B2 (en) 2010-05-28 2014-03-04 Microsoft Corporation Virtual data center allocation with bandwidth guarantees
US8880558B2 (en) 2010-07-01 2014-11-04 International Business Machines Corporation Cloud services creation based on graph mapping
US20120188249A1 (en) 2011-01-26 2012-07-26 Raytheon Company Distributed graph system and method
KR101800444B1 (ko) 2011-03-28 2017-12-20 삼성전자주식회사 불휘발성 메모리의 제어 방법 및 그것을 포함하는 메모리 시스템
US9317336B2 (en) 2011-07-27 2016-04-19 Alcatel Lucent Method and apparatus for assignment of virtual resources within a cloud environment
US9026717B2 (en) * 2011-09-30 2015-05-05 SanDisk Technologies, Inc. Apparatus, system, and method for a persistent object store
CN103036930B (zh) * 2011-09-30 2015-06-03 国际商业机器公司 用于管理存储设备的方法和设备
US9239786B2 (en) * 2012-01-18 2016-01-19 Samsung Electronics Co., Ltd. Reconfigurable storage device
US9720668B2 (en) 2012-02-29 2017-08-01 Red Hat, Inc. Creating and maintaining multi-tenant applications in a platform-as-a-service (PaaS) environment of a cloud computing system
US10095705B2 (en) 2012-09-24 2018-10-09 Microsoft Technology Licensing, Llc Integrated data retention policy for solid state and asymmetric access
WO2014059613A1 (zh) * 2012-10-17 2014-04-24 华为技术有限公司 降低内存系统功耗的方法和内存控制器
US20140181595A1 (en) 2012-12-20 2014-06-26 Virtium Technology, Inc. Estimating lifespan of solid-state drive using real usage model
US9065734B2 (en) 2013-03-08 2015-06-23 Telefonaktiebolaget L M Ericsson (Publ) Network bandwidth allocation in multi-tenancy cloud computing networks
US20140351505A1 (en) * 2013-05-21 2014-11-27 International Business Machines Corporation Providing data attributes to a storage manager to use to select a storage tier to use for a data set management operation
US9152684B2 (en) * 2013-11-12 2015-10-06 Netapp, Inc. Snapshots and clones of volumes in a storage system
US9619381B2 (en) 2013-12-24 2017-04-11 International Business Machines Corporation Collaborative health management in a storage system
US10222988B2 (en) * 2014-04-22 2019-03-05 Hitachi, Ltd. Efficient management storage system via defining of several size units in advance
US9864749B2 (en) 2014-06-27 2018-01-09 Netapp, Inc. Methods for provisioning workloads in a storage system using machine learning and devices thereof
US9798489B2 (en) 2014-07-02 2017-10-24 Hedvig, Inc. Cloning a virtual disk in a storage platform
US9524103B2 (en) * 2014-09-10 2016-12-20 Netapp, Inc. Technique for quantifying logical space trapped in an extent store
WO2016048185A1 (en) 2014-09-26 2016-03-31 Emc Corporation Policy based provisioning of storage system resources
US9836229B2 (en) * 2014-11-18 2017-12-05 Netapp, Inc. N-way merge technique for updating volume metadata in a storage I/O stack
US9710317B2 (en) 2015-03-30 2017-07-18 Netapp, Inc. Methods to identify, handle and recover from suspect SSDS in a clustered flash array
US9954799B2 (en) 2015-05-14 2018-04-24 International Business Machines Corporation Adaptive service chain management
US10310740B2 (en) * 2015-06-23 2019-06-04 Pure Storage, Inc. Aligning memory access operations to a geometry of a storage device
US10235473B2 (en) 2015-10-28 2019-03-19 Vmware, Inc. Methods and systems to allocate logical disk costs to virtual machines in a virtual data center

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021506038A (ja) * 2017-12-05 2021-02-18 ソニー・インタラクティブエンタテインメント エルエルシー 超高速かつ低遅延なネットワークストレージ
JP2022153623A (ja) * 2017-12-05 2022-10-12 ソニー・インタラクティブエンタテインメント エルエルシー 超高速かつ低遅延なネットワークストレージ
JP7216739B2 (ja) 2017-12-05 2023-02-01 ソニー・インタラクティブエンタテインメント エルエルシー 超高速かつ低遅延なネットワークストレージ

Also Published As

Publication number Publication date
US20170344285A1 (en) 2017-11-30
KR20170132651A (ko) 2017-12-04
TWI699654B (zh) 2020-07-21
CN107422983B (zh) 2022-04-05
CN107422983A (zh) 2017-12-01
US10437486B2 (en) 2019-10-08
KR102457611B1 (ko) 2022-10-21
JP6734807B2 (ja) 2020-08-05
TW201741889A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
JP6734807B2 (ja) テナントアウェアストレージシェアリングプラットフォームのための処理装置及びその方法
US11954002B1 (en) Automatically provisioning mediation services for a storage system
US20220283935A1 (en) Storage system buffering
US20200387479A1 (en) Using data characteristics to optimize grouping of similar data for garbage collection
EP2713262B1 (en) Hierarchy memory management
US8788628B1 (en) Pre-fetching data for a distributed filesystem
JP2019101703A (ja) 記憶システム及び制御ソフトウェア配置方法
US10572175B2 (en) Method and apparatus of shared storage between multiple cloud environments
US11262916B2 (en) Distributed storage system, data processing method, and storage node
US20230195349A1 (en) Servicing input/output ('i/o') operations during data migration
US11409454B1 (en) Container ownership protocol for independent node flushing
US20230138462A1 (en) Migrating Similar Data To A Single Data Reduction Pool
US11477280B1 (en) Integrating cloud storage services
KR20170105133A (ko) 분산 저장 시스템에서의 캐시 및 비-캐시 사용
US10671494B1 (en) Consistent selection of replicated datasets during storage system recovery
US20230088163A1 (en) Similarity data for reduced data usage
KR20120063946A (ko) 대용량 통합 메모리를 위한 메모리 장치 및 이의 메타데이터 관리 방법
KR20230088215A (ko) 분산 스토리지 시스템
US11461273B1 (en) Modifying storage distribution in a storage system that includes one or more storage devices
US20230376217A1 (en) Storage device, memory device, and computing system including the same
US11762764B1 (en) Writing data in a storage system that includes a first type of storage device and a second type of storage device
US20230359379A1 (en) Computing system generating map data, and method of operating the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200407

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200407

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6734807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250