JP2014175009A - 仮想マシンをサポートするフラッシュ・ベースのキャッシング・ソリューションでの動的キャッシュ共有のためのシステム、方法、およびコンピュータ可読媒体 - Google Patents
仮想マシンをサポートするフラッシュ・ベースのキャッシング・ソリューションでの動的キャッシュ共有のためのシステム、方法、およびコンピュータ可読媒体 Download PDFInfo
- Publication number
- JP2014175009A JP2014175009A JP2014045818A JP2014045818A JP2014175009A JP 2014175009 A JP2014175009 A JP 2014175009A JP 2014045818 A JP2014045818 A JP 2014045818A JP 2014045818 A JP2014045818 A JP 2014045818A JP 2014175009 A JP2014175009 A JP 2014175009A
- Authority
- JP
- Japan
- Prior art keywords
- cache
- virtual machine
- flash
- manager
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/084—Multiuser, multiprocessor or multiprocessing cache systems with a shared cache
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45583—Memory management, e.g. access or allocation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/22—Employing cache memory using specific memory technology
- G06F2212/222—Non-volatile memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
【課題】ゲスト仮想マシン内のO/Sカーネル、ドライバ、アプリケーション・レベルで実装されたキャッシュ・コントローラが、仮想マシンの変化する需要に対する応答性の改善のために仮想マシンにキャッシュ・ストアを動的に割り振る。
【解決手段】単一のキャッシュ・デバイスまたはキャッシュ・デバイスのグループが、複数の論理デバイスとして準備され、リソース・アロケータに公開される。コア・キャッシング・アルゴリズムがゲスト仮想マシン内で実行される。新しい仮想マシンが仮想マシン・マネージャの管理下で追加され、既存の仮想マシンは、それぞれの既存のマシンで使用するために割り振られたキャッシュ・ストアの一部を解放するように促される。解放されたキャッシュが新しいマシンに割り振られる。同様に、仮想マシンがシャットダウンし、または新しいホスト・システムに移行される場合、仮想マシンに割り振られたキャッシュ容量が、仮想マシンモニタによって管理されている残りの仮想マシンの間で再分配される。
【選択図】図1
【解決手段】単一のキャッシュ・デバイスまたはキャッシュ・デバイスのグループが、複数の論理デバイスとして準備され、リソース・アロケータに公開される。コア・キャッシング・アルゴリズムがゲスト仮想マシン内で実行される。新しい仮想マシンが仮想マシン・マネージャの管理下で追加され、既存の仮想マシンは、それぞれの既存のマシンで使用するために割り振られたキャッシュ・ストアの一部を解放するように促される。解放されたキャッシュが新しいマシンに割り振られる。同様に、仮想マシンがシャットダウンし、または新しいホスト・システムに移行される場合、仮想マシンに割り振られたキャッシュ容量が、仮想マシンモニタによって管理されている残りの仮想マシンの間で再分配される。
【選択図】図1
Description
本発明は、一般にデータ記憶システムに関し、より詳細には、フラッシュ・メモリ・ベースのデータ・キャッシュを利用するデータ記憶システムに関する。
マルチコア・プロセッサおよび入出力(I/O)相互接続によって提供される技術進歩と共に、アプリケーションを実行する今日のサーバの能力は急激なペースで成長している。しかし、サーバをサポートする、ハードディスク・ドライブなどの従来のデータ記憶デバイスのI/O速度は、I/O相互接続およびマルチコア・プロセッサと同じ速度では向上していない。したがって、従来のデータ記憶デバイスに対するI/O操作は、アプリケーション性能を制限しているボトルネックとなっている。言い換えれば、サーバ上で実行中のアプリケーションは、利用可能なコンピューティング速度およびデータ転送能力を完全には使用することができない。
いくつかの従来型コンピューティング・システムは、より低速なデータ記憶デバイス(例えば、磁気ディスク記憶媒体、光ディスク記憶媒体、またはネットワークを介してアクセス可能な1つまたは複数のデータ記憶デバイス)に対するブロックまたはファイル・レベル・ストレージ代替として不揮発性メモリ・デバイスを利用して、コンピューティング・システムおよび/またはコンピューティング・システムによって実行されるアプリケーションの性能を改善する。この点で、より低速な記憶デバイスから、またはそれに対してよりも、いくつかの不揮発性メモリ・デバイス(以下では簡単のために「キャッシュ・デバイス」と呼ぶ)に対して著しく高速に入出力(I/O)操作を実施することができるので、キャッシュ・デバイスの使用により、I/O操作の速度を著しく改善するための機会が得られる。
ずっと優れたI/Oデータ転送速度性能を提供することによってI/Oボトルネックに対処しようと試みて、ボード固体ストレージに基づくエンタープライズ・クラス固体ディスク(SSD)およびperipheral component interconnect express(PCIe)が配置された。しかし、SSDは比較的コストが高く、性能の改善により、すべての長期記憶についてSSDを配置する投資が常に正当化されるわけではない。したがって、SSDは、頻繁に使用されるデータを格納するためのキャッシュとしてSSDを使用することによってサーバの性能を高めるために配置される。
仮想化ソリューションの最近の進展は、データ・センタが複数のエミュレートされるマシンにわたってハードウェア・リソースを統合および共有することを可能にする。すなわち、単一のサーバは、クライアント・ユーザにとって専用サーバ・プラットフォームに見えるものの中で共有リソースを提供することができる。こうしたネットワーク対応仮想化ソリューションの人気により、I/O性能に対してさらにひずみが導入された。一日の特定の時間にいくつかのアプリケーションが使用中となり、より多くのI/O要求を受信することを予測することは容易である。しかし、多くのクライアントが特定のハードウェア・プラットフォームにアクセスすると、複数のクライアントI/O要求が特定の瞬間にサーバに到達したとき、アプリケーション性能ヒットを予測することが不可能となることがある。仮想化環境内のサーバ側キャッシングは、頻繁にアクセスされる「ホット」データを長期記憶デバイスからサーバに結合されたSSDに移動することにより、アプリケーション性能を著しく促進することができる。
仮想化環境内でサーバ側キャッシングを実装する際の課題は、単一のSSD/PCIeベースのキャッシュ・デバイスで利用可能なキャッシュ・ストアを複数のクライアント・マシンにわたってどのように共有するかである。ある記憶システムから別の記憶システムに仮想マシンのファイル・システムを移動することによって新しいハードウェア・プラットフォームに仮想マシンを移行することを可能にする仮想化機能(例えば、vMotion)、およびx86プロセッサ命令セットに対する64ビット拡張をサポートするマシン上のプラットフォーム仮想化を可能にするサーバ仮想化は、物理マシン内に、または物理マシン外に移行中の様々な仮想サーバ・マシンに対処するためにサーバ側キャッシングが動的である必要があることを伴う。
仮想マシンの変化する需要に対する応答性の改善のためにキャッシュ・ストアを動的に管理するシステムおよび方法の実施形態が、単一のキャッシュ・デバイスまたはキャッシュ・デバイスのグループを複数の論理デバイスとして準備し、それを仮想マシンモニタに公開する。コア・キャッシング・アルゴリズムがゲスト仮想マシンで実行される。新しい仮想マシンが仮想マシンモニタの管理下で追加されるとき、既存の仮想マシンは、それぞれの既存のマシンで使用するために割り振られたキャッシュ・ストアの一部を解放するように促される。解放されたキャッシュが新しいマシンに割り振られる。同様に、仮想マシンがシャットダウンし、または新しいホスト・システムに移行される場合、仮想マシンに割り振られたキャッシュ容量が、仮想マシンモニタによって管理されている残りの仮想マシンの間で再分配される。
例示的実施形態では、1つまたは複数のフラッシュ・ベースのデバイスのグループ、および1組の仮想マシンを管理するホスト・コンピュータ・システムによってサポートされるキャッシュ・ストアを動的に管理するのに適したキャッシュ・リソース管理システムが開示される。システムは、キャッシュ・リソース・マネージャ、仮想マシン・マネージャ、プラグイン、およびプラグインを含む。キャッシュ・リソース・マネージャは、ホスト・コンピュータ・システム上で実行中のアプリケーションである。キャッシュ・リソース・マネージャは、ホスト・コンピューティング・システムによってサポートされる仮想マシン数に従って、利用可能なキャッシュ記憶容量(例えば、範囲)の識別された部分の倍数を分配する1つまたは複数のポリシーで構成される。仮想マシン・マネージャは、ホスト・コンピュータ・システム上で実行中のO/Sのカーネル内に統合される。仮想マシン・マネージャは、キャッシュ・リソース・アロケータおよびフラッシュ・ベースのキャッシュ・デバイス・ドライバと共に構成される。キャッシュ・リソース・アロケータは、フラッシュ・ベースのキャッシュ・デバイスのグループを要求し、各仮想マシンに論理ドライブを割り振り、フラッシュ・ベースのデバイスのグループによって提供される利用可能なキャッシュ記憶容量の一部を識別する。プラグインは仮想インフラストラクチャ・クライアントと通信し、仮想マシン、仮想マシン・マネージャ、およびゲスト仮想マシンの観点からのコンテキストを少なくとも1つのフラッシュ・ベースのキャッシュ・デバイスに提供する。各仮想マシンにとって利用可能なドライバは、仮想マシンが専用記憶デバイスと通信しているかのように、フラッシュ・ベースのキャッシュ・デバイスのグループとの通信を可能にする。
別の例示的実施形態では、1つまたは複数のフラッシュ・ベースのデバイスのグループ、および1組の仮想マシンを管理するホスト・コンピュータ・システムによってサポートされるキャッシュ・ストアを管理する方法が開示される。方法は、仮想マシン・マネージャにキャッシュ・リソース・マネージャ・アプリケーションを提供するステップであって、キャッシュ・リソース・マネージャが、ホスト・コンピューティング・システムによってサポートされる仮想マシン数に従って、利用可能なキャッシュ記憶容量の識別された部分の倍数を分配する1つまたは複数のポリシーを使用するステップと、仮想マシン・マネージャにキャッシュ・リソース・アロケータおよびフラッシュ・ベースのキャッシュ・デバイス・ドライバを提供するステップであって、キャッシュ・リソース・アロケータが、フラッシュ・ベースのキャッシュ・デバイスのグループを要求し、各仮想マシンに論理ドライブを割り振り、フラッシュ・ベースのデバイスのグループによって提供される利用可能なキャッシュ記憶容量の一部を識別するステップと、仮想インフラストラクチャ・クライアントにプラグインを提供するステップであって、プラグインが、仮想マシン、仮想マシン・マネージャ、およびゲスト・コンテキストを少なくとも1つのフラッシュ・ベースのキャッシュ・デバイスに提供するステップと、各仮想マシンにドライバを公開して、仮想マシンが専用記憶デバイスと通信しているかのように、仮想マシンがフラッシュ・ベースのキャッシュ・デバイスのグループと通信することを可能にするステップとを含む。
別の例示的実施形態では、ホスト・コンピュータの処理システム上で実行されるとき、以下のタスクを調整するように処理システムに指示する実行可能命令を非一時的形式で格納したコンピュータ可読媒体。キャッシュ・リソース・アロケータ・モジュールが、ホスト・コンピュータに結合されたキャッシュ・デバイスを要求するように指示される。キャッシュ・リソース・マネージャが開始され、キャッシュ・リソース・アロケータと通信して、利用可能なキャッシュ・デバイスを求め、ホスト・コンピュータをスキャンして、ホスト・コンピュータによってサポートされる仮想マシン数を求める。仮想マシン数および利用可能なキャッシュ・デバイスを識別すると、キャッシュ・リソース・マネージャは、利用可能なキャッシュ容量を等しいサイズの範囲に分割し、キャッシュ割振りポリシーに従って論理ドライブおよび範囲マップを作成するようにキャッシュ・リソース・アロケータに指示する。処理システムは、各論理ドライブをそれぞれの仮想マシンにマッピングし、範囲マップを各論理ドライブに関連付けるようにキャッシュ・リソース・マネージャにさらに指示する。その後で、処理システムは、キャッシュ・グループにキャッシュ・デバイスを追加するように仮想マシンに指示する。
ゲスト仮想マシン内のO/Sカーネル、ドライバ、およびアプリケーション・レベルで実装された動的キャッシュ共有システムは、仮想マシン・マネージャの制御から仮想マシンが追加または削除されるとき、ホスト・コンピュータ上の仮想マシンの変化するストレージ需要に対する応答性の改善のために仮想マシンにキャッシュ・ストアを動的に割り振る。単一のキャッシュ・デバイスまたはキャッシュ・デバイスのグループが、複数の論理デバイスとして準備され、リソース・アロケータに公開される。コア・キャッシング・アルゴリズムがゲスト仮想マシン内で実行される。コア・キャッシング・アルゴリズムは、定義済みのインターフェースと共にO/Sアグノスティック・ポータブル・ライブラリとして動作する。O/Sスタック内のフィルタ・ドライバはI/O要求を傍受し、キャッシュ管理ライブラリを通じてI/O要求をルーティングし、キャッシング機能を実装する。キャッシュ管理ライブラリは、O/S特有のアクションおよびI/Oルーティングのためにフィルタ・ドライバと通信する。新しい仮想マシンが仮想マシン・マネージャの管理下で追加され、既存の仮想マシンは、それぞれの既存のマシンで使用するために割り振られたキャッシュ・ストアの一部を解放するように促される。解放されたキャッシュが新しいマシンに割り振られる。同様に、仮想マシンがシャットダウンし、または新しいホスト・システムに移行される場合、仮想マシンに割り振られたキャッシュ容量が、仮想マシンモニタによって管理されている残りの仮想マシンの間で再分配される。
図1に示されるように、本発明によるホスト・コンピュータ環境100の例示的実施形態では、FBキャッシュ・カード132やFBキャッシュ・カード134などのフラッシュ・ベースのキャッシュ・デバイスのキャッシュ・グループ130が、それぞれのperipheral component interconnect express(PCIe)バスを介してホスト・システム110に結合される。FBキャッシュ・カード132とFBキャッシュ・カード134は、管理される別々に識別されるキャッシュ・デバイスであり、それぞれのキャッシュ・ストアがキャッシュ・グループ130として共有される。
さらに、ホスト・システム110が、周辺相互接続カード140を介して1組のローカル記憶デバイス145に結合され、周辺相互接続カード150を介して、対応する1組のリモート・データ記憶デバイス155に結合される。ローカル記憶デバイス145およびリモート・データ記憶デバイス155は、複合データ・ストアとして仮想環境100に公開されるそれぞれの組の物理ディスク・ドライブと共に実装される。周辺相互接続カード140と周辺相互接続カード150の一方または両方は、物理ディスク・ドライブを単一の論理ユニットとして組み合わせる、独立したディスクの冗長アレイ管理技法を使用して、それぞれの組の物理ディスク・ドライブによって提供されるストレージを管理することができる。対応するデータ・ストアによってサポートされるアプリケーションによって必要とされる信頼性および性能に応じて、一般に「RAIDレベル」と呼ばれるいくつかの方式のうちの1つで、データが物理ドライブにわたって分散される。
図1に示されるように、ホスト・システム110は、バスを介して互いに結合されたプロセッサ112およびメモリ120を有するサーバ・コンピュータなどのコンピュータである。動作の際に、プロセッサ112は、アプリケーション層128、ファイル・システム126、および動的キャッシュ共有システム300内の命令を実行し、ホスト・システム110上の仮想マシンのホストを可能にする。プロセッサ112は、キャッシュ・デバイス・ドライバ121を介してキャッシュ・グループ130と通信する。プロセッサ112は、serial−attached small computer system interface/advanced host computer interface(SAS/AHCI)ドライバ122および周辺相互接続カード140を介してローカル・ボリューム145と通信する。プロセッサ112はさらに、ストレージ・エリア・ネットワーク/ネットワーク・インターフェース・コネクタ(SAN/NIC)ドライバ123および周辺相互接続カード150を介してリモート・ボリューム155と通信する。
本発明によるホスト・コンピュータ環境100は非常にスケーラブルであり、単一のプロセッサ112または単一のメモリ120に限定されない。代替実施形態(図示せず)では、ホスト・システム110は、プロセッサ112と同様の、またはプロセッサ112とは異なる複数のプロセッサを含むことができる。さらに、ホスト・システム110は、メモリ120と同様の、またはメモリ120と異なる追加のメモリ要素を含むことができる。同様に、複数の例のキャッシュ・デバイス・ドライバ121、SAS/AHCIドライバ122、およびSAN/NICドライバ123を生成することにより、追加の記憶デバイスをホスト・システム110に統合することができる。
動作の際に、動的キャッシュ共有システム300は、1つまたは複数のフラッシュ・ベースのデバイスのグループ(例えば、キャッシュ・グループ130)と、1組の仮想マシンを管理するホスト・システム110とによってサポートされるキャッシュ・ストア200を動的に管理する。動的キャッシュ共有システム300は、アプリケーション層128およびファイル・システム126の下の共有デバイス・ドライバ層で実装される。動的キャッシュ共有システム300は、フラッシュ・ベースのキャッシュ・デバイス(例えば、FBキャッシュ・カード132およびFBキャッシュ・カード134)および従来型データ記憶システム(例えば、internet small computer system interface(iSCSI)、fibre channel over Ethernet(FCoE)、fibre channel(FC)、SAS、serial advanced technology attachment (SATA)などの様々なインターフェースと共に実装されたデータ記憶システム)と統合される汎用キャッシング層である。動的キャッシュ共有システム300はブロック層で働き、ファイル・システム126およびアプリケーション層128内のアプリケーションに対して透過的である。動的キャッシュ共有システム300は、キャッシュ・グループ130に統合されるFBキャッシュ・カード132およびFBキャッシュ・カード134内に常駐するストレージを識別および消費する。さらに、動的キャッシュ共有システム300は、ローカル・ボリューム145やリモート・ボリューム155などの従来型データ記憶システムにわたるキャッシング機能を提供する。コア・キャッシング機能が、物理ディスクおよびキャッシュ・リソース管理アプリケーションに対する明確なインターフェースを使用して、O/Sアグノスティック・ポータブルライブラリとして実装される。
キャッシュ・メタデータ管理(ハッシュ・テーブル、LRU、フリー・リスト、キャッシュ割振りユニット管理データ構造など)は、非常に大型のキャッシュ・ストアの設計にとって重要である。固体ディスク(SSD)キャッシュは、テラバイトにスケール変更することができ、ホスト・システム110上のあらゆるI/Oは、ハッシュ・テーブルおよびキャッシュ割振りユニット・データ構造をルックアップしてキャッシュ・ヒット/ミスを判断することに関係するので、性能に対してキャッシュ・メタデータ管理を最適化すべきこと、および迅速なルックアップのためにダブル・データ・レート(DDR)ランダム・アクセス・メモリ(RAM)内に保持されるようにメタデータ・フットプリントを十分に小さくすべきことが絶対必要である。
図2は、図1のキャッシュ・グループ130内のキャッシュ・ストア200を示すブロック図である。キャッシュ・ストア200は、少なくとも2つの別々の記憶域に区分または分割される。第1の部分またはパーティションはキャッシュ・メタデータ210を含む。第2の部分またはデータ記憶部分220は、1組のキャッシュ・ウィンドウ222を含む。図2にさらに示されるように、キャッシュ・メタデータ210は、各キャッシュ・ウィンドウ222について対応するエントリ215を含む。キャッシュ・ストア300の著しい量の記憶容量が、図ではキャッシュ・ウィンドウとして識別される領域に割り振られる。各キャッシュ・ウィンドウはさらに、所望のサイズのラインのキャッシュ・ブロック225に細分される。
キャッシュ・ストア200に関する割振りユニットおよびキャッシュ・ブロック・サイズは、メタデータ・メモリ要件を低減するように著しく大きい。例示的実施形態では、キャッシュ・データ記憶部分200全体が、それぞれ1MBのキャッシュ・ウィンドウと呼ばれる複数のチャンクの割振りユニットに分割される。キャッシュ・ウィンドウ・サイズはチューナブル・パラメータであり、ホスト・システム構成およびI/O作業負荷に基づいて調節することができる。キャッシュ・ウィンドウ222は、キャッシュ管理のための割振り/割振り解除ユニットである。各キャッシュ・ウィンドウ222は、それぞれ64KBの複数のキャッシュ・ブロック225からなる。キャッシュ・ブロック・サイズはチューナブル・パラメータであり、ホスト・システム構成およびI/O作業負荷に基づいて調節することができる。キャッシュ・ストア200全体を使用して、複数のブロック・デバイスをキャッシュすることができ、各キャッシュ・ウィンドウ222は、単一のブロック・デバイス上の空間の連続する領域を表す。
ハッシュ・テーブル、フリー・キャッシュ・リスト、最長時間未使用(LRU)リスト、およびキャッシュ置換アルゴリズムはキャッシュ・ウィンドウ・レベルで動作する。これにより、各キャッシュ・ウィンドウ222が著しく大きな割振りユニットであるので、キャッシュ・メタデータ210を表すのに必要なメモリ量が著しく低減される。キャッシュ・メタデータ210は、迅速なルックアップのための読取りキャッシングのためにメモリ内に保持される。キャッシュ置換は、要求時、しきい値、経過時間、および恐らくは追加の要素に基づき、複数の優先順位ベースのLRUキューを使用する。優先順位ベースのLRUキューは、アクティブなキャッシュ・ラインの数、およびキャッシュ・ウィンドウ222がアクセスされる回数を使用して、キャッシュ・ウィンドウ222の優先順位を求める。満杯であり、最もアクセスされるキャッシュ・ウィンドウ222に最高の優先順位が与えられ、最高の優先順位LRUキューの末端に配置される。キャッシュ・ストア200全体が満杯になると、最低の優先順位を有するキャッシュ・ウィンドウ222がまず置換され、それによって最も頻繁に要求されるデータが保持される。インテリジェント・ヒート・マップ生成アルゴリズムが、繰り返しアクセスされる領域をキャッシュする。頻繁にはアクセスされないローカル・ボリューム145またはリモート・ボリューム155内のデータ領域は、キャッシュ・ストア200内に配置されない。
図3は、図1の動的キャッシュ共有システム300のアーキテクチャの略図である。動的キャッシュ共有システム300は、ホスト・システム・ハードウェア310と直接的に通信する仮想マシン・マネージャ320と、ホスト・システム110上で実行中の仮想環境のリアル・タイム監視を可能にする様々な機能をサポートするためにアプリケーション層128内で動作するキャッシュ・リソース・マネージャ330とを含む。仮想マシン・マネージャ320は、一般にカーネルと呼ばれるO/S構成要素である。仮想マシン・マネージャ320は、仮想サーバから監視情報を受信し、ホスト・システム・ハードウェア310と、ローカル・ボリューム145およびリモート・ボリューム155によって提供されるデータ・ストアとによってサポートされる数十または数百の仮想マシンに、キャッシュ・グループ130内の1つまたは複数のフラッシュ・ベースのキャッシュ・デバイスを公開する機構を中央管理する。
仮想マシン・マネージャ320は、仮想マシン・マネージャ320に対するアプリケーション層128インターフェースをそれぞれ有する複数のO/Sをサポートすることができる。図示する実施形態では、O/S A(例えば、Linux、UNIX)が、ユーザ・レベルの管理API354と、SCSI HBAエミュレータを介して仮想マシン・マネージャ320と通信するカーネル・レベルのフィルタ・ドライバおよびライブラリ352とを含むインターフェース350によってサポートされる。同様に、O/S B(例えば、Windows Server 2008)が、管理API364と、フィルタ・ドライバおよびライブラリ362とを含むインターフェース360によってサポートされる。
仮想マシン・マネージャ320は、キャッシュ・リソース・アロケータ322、キャッシュ・デバイス・ドライバ324、およびCICOMプロバイダ326と共に構成され、キャッシュ・ストア200を管理および制御し、キャッシュ・リソース・マネージャ330と通信する。これらおよびその他の構成要素は、ホスト・システム110上のゲスト仮想マシン内で実行され、I/Oフィルタリング、ホット・データ分類、およびキャッシング機能を提供する。仮想マシン・マネージャ320は、SCSI HBAエミュレータを使用して、仮想マシンに対するキャッシュ・デバイスをエミュレートする。デバイスは、2つの方式で仮想マシンに公開される。第1の方式では、データ記憶デバイスが、ロー・ディスク・アクセス・モジュール328によってロー・デバイスとして公開される。ロー・ディスク・アクセス・モジュール328デバイスは、SCSIブロック・デバイスを仮想マシンに直接的に公開する。その他の方式では、データ・ストアが、仮想マシン・ファイル・システム(VMFS)を介して、仮想マシン・マネージャ320に統合されたVMFSモジュールを介して仮想マシンに公開される。VMFSモジュールは、仮想デバイス論理ブロック・アドレスを物理ディスクまたはキャッシュ・ストア200に関連付けるマップを格納および管理することができる。VMFSはまた、シン・プロビジョンド論理ストアを作成して、データ・スナップショット、バックアップ、および仮想ディスクとの間の他の操作をサポートする。VMFSプロビジョンド・ディスクがその上に常駐する物理デバイスは、データ・ストアと呼ばれる。これらの仮想ディスクを、管理プラグイン340を備える仮想インフラストラクチャ・クライアント(VIC)を使用して、仮想マシンに対するダウン時間なしに、動的キャッシュ共有システム300内の異なるデータ・ストア(物理ディスク)に動的に移動することができる。
キャッシュ・リソース・アロケータ322は、動的キャッシュ共有システム300内のすべてのキャッシュ・デバイスを識別および要求する任を担い、動的キャッシュ共有システム300の管理構成要素と通信するように構成されるシステム上の各仮想マシンについて論理ドライブを割り振る。キャッシュ・リソース・アロケータ322によって作成される論理ドライブは、ロー・デバイスとしてゲスト仮想マシンにマッピングされる。キャッシュ・リソース・アロケータ322は、キャッシュ容量全体を、等しいサイズの複数の範囲またはブロックに分割する。範囲サイズは、キャッシュ・ウィンドウ・サイズと等しくなるように調整される。キャッシュ記憶容量は、範囲境界で異なる仮想マシンに割り振られる。
キャッシュ・リソース・アロケータ322は、各仮想マシンについて論理ドライブを作成および破壊するための明確な1組のAPIを提供する。キャッシュ・リソース・アロケータによって作成される各論理ドライブは、動的キャッシュ共有システム300によってサポートされる最大キャッシュ容量の容量であるが、キャッシュ・デバイス全体の少数の範囲だけが各仮想マシンにマッピングされる。マッピング情報は、キャッシュ・リソース・マネージャ330によって提供される。マッピング情報は、リソース・マネージャ330で定義されるポリシーと、経時的な仮想マシンの追加および除去とに基づいて、動的キャッシュ共有システム300の寿命中に動的に変化することができる。
キャッシュ・リソース・アロケータ322は、各論理ドライブに対応するI/Oが現在のアクティブな範囲マップに対して検証されることを確認することにより、キャッシュ・リソース・マネージャによって定義される範囲マップを実施する。キャッシュ・リソース・アロケータ322は、範囲マップに基づいて、キャッシュ・デバイス・ドライバ324または他のドライバ(図示せず)を介して物理デバイスにI/O要求をリダイレクトする。
キャッシュ・リソース・マネージャ330は、ホスト・システム110上でゲスト仮想マシンとして動作する比較的小型で効率的なソフトウェア・モジュールである。キャッシュ・リソース・マネージャ324は、仮想マシン・マネージャ320の制御下で、すべての仮想マシンにわたってキャッシュ・デバイス利用および分散を監視および管理する。初期化中に、キャッシュ・リソース・マネージャ324はすべての仮想マシンに接続し、キャッシュ容量を割り振り、キャッシュ利用を監視する。キャッシュ・リソース・マネージャ324はさらに、仮想サーバに登録し、仮想マシン・マネージャ320の仮想化サービスAPIを介して、仮想マシン追加、除去、移行などのイベントを待機し、現在実行中の仮想マシンにわたってキャッシュ記憶容量の再分配を調整する。
さらに、キャッシュ・リソース・マネージャ324は、制御された方式で仮想マシンにわたってキャッシュを分配する任を担うポリシー・エンジンを実行する。ポリシー・エンジンは、すべての仮想マシンにわたってキャッシュ容量を等しく共用するポリシーを含むことができ、いくつかの仮想マシンに対する最小キャッシュ容量を保証して、残りのキャッシュ容量を他の仮想マシンにわたって再分配し、すべての仮想マシンにわたって、各仮想マシンによって実施されるI/O活動に基づいて、ヒート・マップを維持し、現在の作業負荷に応じてキャッシュを再分配する。
新しい仮想マシンが物理マシンに追加または移行されるとき、キャッシュ・リソース・マネージャ324はこのイベントを検出し、以下のステップを実施することにより、利用可能な仮想マシンにわたってキャッシュを再分配しようと試みる。まず、キャッシュ・リソース・マネージャ324は、ゲスト仮想マシン内の管理API354、356を介して、割り振られたキャッシュ容量を有する現在実行中のゲスト仮想マシンに、ある量のキャッシュを解放するように要求する。キャッシュ割振りの範囲サイズはキャッシュ・ウィンドウ・サイズに等しいので、ゲスト仮想マシンは、そのLRUキューの先頭から最もホットでないデータを解放することができ、それによってキャッシュ割振りの削減による性能影響を低減する。ホスト・システム110上のすべての仮想マシンが、それに割り振られたある量のキャッシュを解放するので、解放されたキャッシュ範囲が、追加または移行された新しい仮想マシンに割り振られる。
プラグイン340が、仮想インフラストラクチャ・クライアント(VIC)と通信して、仮想環境で動的キャッシュ共有システム・ソリューションを管理するための管理機能を提供するように構成される。プラグイン340は、データセンタ・クラスタ、ホスト、およびゲストによる管理アクションにコンテキストを提供する。システム管理者は、プラグイン340を使用して、動的キャッシュ共有システム・ソリューションを監視および管理することができる。プラグイン340は、管理API354、364、およびキャッシュ・リソース・マネージャ330を使用して仮想マシンと対話し、上述の管理機能を提供する。
仮想マシンは、仮想マシンで実行中のO/Sに応じて、フィルタ・ドライバおよびライブラリ352、362を使用する。フィルタ・ドライバおよびライブラリ352、362は、キャッシュ・デバイスを範囲マップと共に構成することを可能にし、キャッシュ・デバイスがそれに割り振られた範囲のみを使用することを保証する。さらに、フィルタ・ドライバおよびライブラリ352、362は、新しい仮想マシンが追加され、仮想マシンがオフラインとなり、またはホスト・システム110の外部に移行された結果として、キャッシュ再分配中の仮想マシンからの範囲の追加および除去を可能にする。さらに、フィルタ・ドライバおよびライブラリ352、362は、仮想マシンに公開されるロー・デバイスがキャッシュ・デバイスとして構成されることを保証する。
図4は、等キャッシュ分配管理ポリシーを用いた1組の仮想マシンにわたる単一のキャッシュ・デバイスの割振りの略図である。図4に示す実施形態は、3つの仮想マシンがどのようにフラッシュ・ベースのキャッシュ・ストア200のキャッシュ・ウィンドウ222を等しく共有するかを図示および説明する小規模構成である。
図示する実施形態では、フラッシュ・ベースのキャッシュ・ストア200が30個のキャッシュ・ウィンドウ(ブロック0〜29によって表す)を含み、キャッシュ・ウィンドウ0〜9が仮想マシン1に関連付けられ、仮想マシン1に対して論理ディスク1として識別され、キャッシュ・ウィンドウ10〜19が仮想マシン2に関連付けられ、仮想マシン2に対して論理ディスク2として識別され、キャッシュ・ウィンドウ20〜29が仮想マシン3に関連付けられ、仮想マシン3に対して論理ディスク3として識別される。キャッシュ・リソース・アロケータ322と共に働くロー・ディスク・アクセス・モジュール328が、論理ドライブと、キャッシュ・ストア200内の指定の連続するブロックのセットとの間の上述の関連付けまたはリンクを完了する。
図5は、図3の動的キャッシュ共有システムを準備する方法500を示す流れ図である。方法500はブロック502から始まり、キャッシュ・リソース・アロケータが、ホスト・システムに結合されたフラッシュ・ベースのキャッシュ・デバイスを識別および要求する。ブロック504で、仮想マシン・マネージャが、ホスト・システムによってサポートすべき仮想マシン数を求める。ブロック506で、ホスト・コンピュータで実行中の動的キャッシュ共有システムが、利用可能なキャッシュ容量を等しい範囲またはブロックに分割するようにキャッシュ・リソース・アロケータに命令する。ブロック508で、キャッシュ・リソース・アロケータがさらに、ホスト・システムによってサポートすべき各仮想マシンについて論理ドライブを作成するように命令される。ブロック510で、キャッシュ・リソース・マネージャは、キャッシュ割振りポリシーに従って範囲マップを作成するように命令される。ブロック512で、リソース・マネージャは、それぞれのロー・デバイスとしての論理ドライブを各仮想マシンにマッピングし、範囲マップを有するキャッシュ・グループにキャッシュ・デバイスを追加するように仮想マシンにさらに命令する。その後で、ブロック514で示されるように、使用頻度アルゴリズムに基づいてホスト・システムに対するI/O操作をキャッシュする。
図6は、新しい仮想マシンを導入した後の範囲マップの略図である。図6に示す実施形態は、割振りポリシーがフラッシュ・ベースのキャッシュ・ストア200からキャッシュ・ウィンドウ222を等しく共有するとき、どのように第4の仮想マシンの追加を実施するかを図示および説明する小規模構成である。
図示する実施形態では、フラッシュ・ベースのキャッシュ・ストア200が30個のキャッシュ・ウィンドウ(ブロック0〜29によって表す)を含み、キャッシュ・ウィンドウ3〜9が仮想マシン1に関連付けられ、仮想マシン1に対して論理ディスク1として識別され、キャッシュ・ウィンドウ13〜19が仮想マシン2に関連付けられ、仮想マシン2に対して論理ディスク2として識別され、キャッシュ・ウィンドウ23〜29が仮想マシン3に関連付けられ、仮想マシン3に対して論理ディスク3として識別される。符号が付けられたブロック0〜2、10〜12、および20〜22によって表される、解放されたキャッシュ・ウィンドウが、仮想マシン4に論理ディスク4として再割振りされる。再割振りの後、30個の全キャッシュ・ウィンドウのうちの7個が仮想マシン1〜3に割り振られ、残りの9個のキャッシュ・ウィンドウが仮想マシン4に割り振られる。キャッシュ・リソース・アロケータ322と共に働くロー・ディスク・アクセス・モジュール328が、論理ドライブと、キャッシュ・ストア200内の指定のブロックのセットとの間の上述の関連付けまたはリンクを完了する。
図7は、図3の動的キャッシュ共有システム300を使用してI/O操作を処理する方法700を示す流れ図である。示されるように、方法700はブロック702から始まり、動的キャッシュ共有システム・ドライバが、キャッシュ・デバイス(複数可)にマッピングされた範囲に従って、キャッシュ・デバイスに対するヒットまたはキャッシュ・フィルI/O操作を発行する。ブロック704で、リソース・アロケータが、特定の仮想マシンにマッピングされる、公開される論理ドライブ識別子に関連するI/O操作を受信する。ブロック706で、リソース・アロケータは、I/O操作が範囲マップ内で指定の仮想マシンに属すると識別される範囲内にあることを検証する。ブロック708で、キャッシュ・リソース・マネージャは、適切なSCSIドライバを介して物理デバイスにI/Oをリダイレクトする。
図8Aおよび8Bは、キャッシュ・ストアを動的に管理する方法800を示す流れ図を含む。方法800はブロック802から始まり、動的キャッシュ共有システムが、ホスト・システム上でサポートすべき仮想マシン数の変化について仮想化サービスAPIを監視する。判定ブロック804で示されるように、仮想マシンがホスト・マシンによってサポートされている仮想マシンのセットに追加されているか、それともそれから除去されているかどうか判定を行う。判定ブロック804から出る、「はい」と符号を付けたフロー制御矢印によって示されるように、仮想マシンが追加されているとき、処理はブロック806に進み、キャッシュ・リソース・アロケータが、割振りポリシーに基づいて、新しい仮想マシンに割り振るべきキャッシュの量を求める。そうでない場合、結合子Bで示されるように、処理はブロック812に進む。ブロック808で、キャッシュ・リソース・マネージャは、それぞれの既存の仮想マシンと通信し、新しい仮想マシンに再割振りするために適切な量のキャッシュ・メモリ容量を解放する。さらに、範囲マップを更新し、キャッシュ・リソース・アロケータに通信する。ブロック810で、キャッシュ・リソース・アロケータは、新しい論理ドライブを作成するように命令され、最近解放された範囲またはキャッシュ・ウィンドウと新しい論理ドライブを関連付ける。さらに、キャッシュ・リソース・アロケータは、新しく生成した論理ドライブを仮想マシンに公開するように命令される。その後で、処理はブロック802の機能に進む。
仮想マシンがホスト・システムから切り離されて移行されているとき、処理はブロック812に進み、キャッシュ・リソース・アロケータは、ホスト・システムから離れる仮想マシンから解放された後に、残りの仮想マシンへの再割振りのために利用可能となるキャッシュ容量を求める。ブロック814で、リソース・マネージャは、割振りポリシーに従って、残りの仮想マシンに対して利用可能にすべき解放された記憶容量を求める。割振りポリシーがそのように命令するとき、各仮想マシンに再割振りされる記憶容量は必ずしも等しくないことがあることに留意されたい。ブロック816で、キャッシュ・リソース・アロケータは、古い仮想マシンに関連する論理ドライブを除去し、改訂後の範囲マップを更新し、残りの仮想マシンを、利用可能なキャッシュ容量のそれぞれの部分と共に再構成するように命令される。
図5、7、8A、および8Bの流れ図は、記載の方法の基礎となる論理の例示を意図するものに過ぎない。様々な実施形態では、記載の方法を実施するための様々な方式のいずれかで動的キャッシュ処理システムまたはキャッシュ・コントローラを含むデータ処理システムをプログラムまたは構成できることを当業者は理解されよう。上述のステップまたは動作は、並列に、または互いに非同期に行うことを含む、任意の適切な順序またはシーケンスで行うことができる。いくつかの実施形態では、図5、7、8A、および8Bに関する上述のステップまたは動作を他と組み合わせることができ、または省略することができる。図が見やすいように、図5、7、8A、および8Bでは流れ図の形で示したが、基礎となる論理をモジュール化することができ、あるいは任意の適切な方式で構成することができる。上述の方法を実施するために、特定用途向け集積回路(ASIC)または類似のデバイスまたはデバイスの組合せの形態などで、適切なソフトウェアまたは適切な論理を当業者は直ちにプログラムまたは構成することができよう。さらに、ソフトウェア命令または類似の論理と、プロセッサ112による実行のために、そのようなソフトウェア命令または類似の論理が格納され、または組み込まれるローカル・メモリ120または他のメモリ要素との組合せは、「コンピュータ可読媒体」または「コンピュータ・プログラム製品」を含むことを理解されたい。その語は特許用語で使用されるからである。
本発明の原理および概念を説明するために1つまたは複数の例示的実施形態を参照しながら本発明を説明したことに留意されたい。本発明はこうした実施形態に限定されない。当業者は理解するであろうが、本明細書で与えた説明に照らして、本明細書に記載の実施形態に対して多くの変形形態を作成することができ、そのような変形形態は、特許請求の範囲で定義される本発明の範囲内にある。
Claims (20)
- 1つまたは複数のフラッシュ・ベースのデバイスのグループ、および1組の仮想マシンを管理するホスト・コンピュータ・システムによってサポートされるキャッシュ・ストアを管理する方法であって、
仮想マシン・マネージャにキャッシュ・リソース・マネージャ・アプリケーションを提供することであって、前記キャッシュ・リソース・マネージャが、前記ホスト・コンピューティング・システムによってサポートされる仮想マシン数に従って、利用可能なキャッシュ記憶容量の識別された部分の倍数を分配する1つまたは複数のポリシーで構成されることと、
仮想マシン・マネージャにキャッシュ・リソース・アロケータおよびフラッシュ・ベースのキャッシュ・デバイス・ドライバを提供することであって、前記キャッシュ・リソース・アロケータが、フラッシュ・ベースのキャッシュ・デバイスのグループを要求し、各仮想マシンに論理ドライブを割り振り、フラッシュ・ベースのデバイスの前記グループによって提供される前記利用可能なキャッシュ記憶容量の一部を識別するように構成されることと、
仮想インフラストラクチャ・クライアントにプラグインを提供することであって、前記プラグインが、仮想マシン、仮想マシン・マネージャ、およびゲスト・コンテキストを少なくとも1つのフラッシュ・ベースのキャッシュ・デバイスに提供するように構成されることと、
各仮想マシンにドライバを公開して、前記仮想マシンが専用記憶デバイスと通信しているかのように、前記仮想マシンがフラッシュ・ベースのキャッシュ・デバイスの前記グループと通信することを可能にすることと
を含む方法。 - 各仮想マシンに前記ドライバを公開することが、前記オペレーティング・システムが前記仮想マシン上で実行されること、および範囲マップが前記キャッシュ・リソース・マネージャによって定義されることに応答するものである請求項1に記載の方法。
- 各仮想マシンが、前記範囲マップに応答する範囲に対するI/O操作を指示するだけである請求項2に記載の方法。
- 前記キャッシュ・リソース・マネージャが、前記ホスト・コンピューティング・システム上で動作する前記仮想マシン数の変化に応答して、前記範囲マップを動的に修正する請求項2に記載の方法。
- 前記プラグインが、マン・マシン・インターフェースに情報を提供するようにさらに構成される請求項1に記載の方法。
- 前記プラグインが、前記キャッシュ・リソース・マネージャに代わって前記仮想マシンと通信するようにさらに構成される請求項1に記載の方法。
- 各ドライバが、フラッシュ・ベースのキャッシュ・デバイスにマッピングされた範囲を有する前記グループからの前記フラッシュ・ベースのキャッシュ・デバイスに対するヒットまたはキャッシュ・フィルI/Oを発行し、前記I/Oが、特定の仮想マシンにマッピングされた前記論理ドライブに関連する前記キャッシュ・リソース・アロケータによって受信され、前記キャッシュ・リソース・アロケータが前記I/Oのレンジを検証し、前記I/Oを前記物理デバイスにリダイレクトする請求項1に記載の方法。
- 1つまたは複数のフラッシュ・ベースのデバイスのグループ、および1組の仮想マシンを管理するホスト・コンピュータ・システムによってサポートされるキャッシュ・ストアを動的に管理するのに適したキャッシュ・リソース管理システムであって、
前記ホスト・コンピュータ・システム上で実行中であり、前記ホスト・コンピューティング・システムによってサポートされる仮想マシン数に従って、前記利用可能なキャッシュ記憶容量の識別された部分の倍数を分配する1つまたは複数のポリシーで構成されたキャッシュ・リソース・マネージャ・アプリケーションと、
前記ホスト・コンピュータ・システム上で実行中であり、キャッシュ・リソース・アロケータおよびフラッシュ・ベースのキャッシュ・デバイス・ドライバと共に構成された仮想マシン・マネージャであって、前記キャッシュ・リソース・アロケータが、フラッシュ・ベースのキャッシュ・デバイスのグループを要求し、各仮想マシンに論理ドライブを割り振り、フラッシュ・ベースのデバイスの前記グループによって提供される前記利用可能なキャッシュ記憶容量の一部を識別するように構成される仮想マシン・マネージャと、
仮想インフラストラクチャ・クライアントと通信するように構成されたプラグインであって、仮想マシン、仮想マシン・マネージャ、ゲスト・コンテキストを少なくとも1つフラッシュ・ベースのキャッシュ・デバイスに提供するように構成されるプラグインと、
前記仮想マシンが専用記憶デバイスと通信しているかのように、フラッシュ・ベースのキャッシュ・デバイスの前記グループとの通信を可能にする、各仮想マシンにとって利用可能な少なくとも1つのドライバと
を備えるキャッシュ・リソース管理システム。 - 前記少なくとも1つドライバが、前記仮想マシン上で実行中の前記オペレーティング・システムに従って構成され、前記キャッシュ・リソース・マネージャによって定義される範囲マップに応答する請求項8に記載のシステム。
- 各仮想マシンが、前記範囲マップに応答する範囲に対するI/O操作を指示するだけである請求項9に記載のシステム。
- 前記キャッシュ・リソース・マネージャが、前記ホスト・コンピューティング・システム上で動作する前記仮想マシン数の変化に応答して、前記範囲マップを動的に修正する請求項9に記載のシステム。
- 前記プラグインが、マン・マシン・インターフェースに情報を提供するようにさらに構成される請求項8に記載のシステム。
- 前記プラグインが、前記キャッシュ・リソース・マネージャに代わって前記仮想マシンと通信するようにさらに構成される請求項8に記載のシステム。
- 各ドライバが、フラッシュ・ベースのキャッシュ・デバイスにマッピングされた範囲を有する前記グループからの前記フラッシュ・ベースのキャッシュ・デバイスに対するヒットまたはキャッシュ・フィルI/Oを発行し、前記I/Oが、特定の仮想マシンにマッピングされた前記論理ドライブに関連する前記キャッシュ・リソース・アロケータによって受信され、前記キャッシュ・リソース・アロケータが前記I/Oのレンジを検証し、前記I/Oを前記物理デバイスにリダイレクトする請求項8に記載のシステム。
- コンピュータ実行可能な非一時的な形式で命令を格納したコンピュータ可読媒体であって、前記命令が、ホスト・コンピュータの処理システムで実行されるとき、前記処理システムに、
前記ホスト・コンピュータに結合されたキャッシュ・デバイスを要求するようにキャッシュ・リソース・アロケータに指示し、
キャッシュ・リソース・マネージャ・アプリケーションに、
前記キャッシュ・リソース・アロケータと通信して、利用可能なキャッシュ・デバイスを求め、
ホスト・コンピュータをスキャンして、前記ホスト・コンピュータによってサポートされる仮想マシン数を求めるように指示し、前記仮想マシン数および前記利用可能なキャッシュ・デバイスが識別されると、前記キャッシュ・リソース・マネージャが、前記キャッシュ・リソース・アロケータに、
利用可能なキャッシュ容量を等しいサイズの範囲に分割し、キャッシュ割振りポリシーに従って論理ドライブおよび範囲マップを作成するように指示し、
前記キャッシュ・リソース・マネージャに、
各論理ドライブをそれぞれの仮想マシンにマッピングし、
範囲マップを各論理ドライブに関連付けるようにさらに指示し、
前記仮想マシンに、キャッシュ・グループにキャッシュ・デバイスを追加するように指示するコンピュータ可読媒体。 - 前記プロセッサが、キャッシュされたデバイスのうちの1つを介してI/O操作を処理するように前記仮想マシンに命令するようにさらに指示される請求項15に記載のコンピュータ可読媒体。
- 前記プロセッサが、前記ホスト・コンピュータによってアクティブにサポートされる前記仮想マシン数を監視するように仮想マシン・マネージャに命令するようにさらに指示される請求項15に記載のコンピュータ可読媒体。
- 前記仮想マシン・マネージャが、追加の仮想マシンをサポートする要求を検出したとき、前記キャッシュ・リソース・アロケータが、ポリシーを使用して、前記新しい仮想マシンに割振られるキャッシュの量を求め、前記リソース・マネージャが、前記ホスト・コンピュータ上で現在実行中の前記仮想マシンから要求されるキャッシュの量を求め、前記キャッシュの量を解放するように前記ホスト・コンピュータ上で現在実行中の前記仮想マシンに指示し、前記新しい仮想マシンに前記キャッシュを割振り、前記範囲マップを更新し、新しい論理ドライブを作成するように前記リソース・アロケータに命令し、前記キャッシュ・デバイスで前記新しい仮想マシンを構成する請求項17に記載のコンピュータ可読媒体。
- 前記仮想マシン・マネージャが、仮想マシンに対するサポートを使用不能にする要求を検出したとき、前記キャッシュ・リソース・アロケータが、前記ホスト・コンピュータ上で実行中の残りの仮想マシンの間で再分配するのに利用可能なキャッシュ・ストレージの量に関して前記キャッシュ・リソース・マネージャに通知し、前記リソース・マネージャが、ポリシーに従って、利用可能なキャッシュを前記残りの仮想マシンのそれぞれに割り振り、前記範囲マップを更新し、前記論理ドライブを除去するように前記リソース・アロケータに命令し、前記利用可能なキャッシュ・ストレージのそれぞれの部分で前記残りの仮想マシンを再構成する請求項17に記載のコンピュータ可読媒体。
- 前記ポリシーが、等しいキャッシュ分配、最小保証キャッシュ容量、およびそれぞれの仮想マシンの現在の作業負荷のうちの1つまたは複数に基づく請求項18に記載のコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN270KO2013 | 2013-03-11 | ||
IN270/KOL/2013 | 2013-03-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014175009A true JP2014175009A (ja) | 2014-09-22 |
Family
ID=50241209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014045818A Pending JP2014175009A (ja) | 2013-03-11 | 2014-03-10 | 仮想マシンをサポートするフラッシュ・ベースのキャッシング・ソリューションでの動的キャッシュ共有のためのシステム、方法、およびコンピュータ可読媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140258595A1 (ja) |
EP (1) | EP2778919A3 (ja) |
JP (1) | JP2014175009A (ja) |
KR (1) | KR20140111589A (ja) |
CN (1) | CN104049906A (ja) |
TW (1) | TW201439898A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008676A1 (ja) * | 2016-07-08 | 2018-01-11 | 日本電気株式会社 | 情報処理システム、キャッシュ容量配分方法、記憶制御装置、記憶制御方法、及び記録媒体 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9747228B2 (en) * | 2014-07-03 | 2017-08-29 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Caching systems and methods for execution within an NVDRAM environment |
US10191855B2 (en) | 2014-07-03 | 2019-01-29 | Avago Technologies International Sales Pte. Limited | Caching systems and methods for page reclamation with simulated NVDRAM in host bus adapters |
US10176097B2 (en) | 2014-12-16 | 2019-01-08 | Samsung Electronics Co., Ltd. | Adaptable data caching mechanism for in-memory cluster computing |
US10108339B2 (en) * | 2014-12-17 | 2018-10-23 | Intel Corporation | Reduction of intermingling of input and output operations in solid state drives |
CN107430556B (zh) * | 2015-03-27 | 2021-07-20 | 英特尔公司 | 动态高速缓存分配 |
US9619391B2 (en) | 2015-05-28 | 2017-04-11 | International Business Machines Corporation | In-memory caching with on-demand migration |
CN105245523B (zh) * | 2015-10-15 | 2019-02-12 | 成都电科致远网络科技有限公司 | 应用于桌面虚拟化场景的存储服务平台及其实现方法 |
CN107203328A (zh) * | 2016-03-17 | 2017-09-26 | 伊姆西公司 | 存储管理方法和存储设备 |
US10019180B1 (en) * | 2016-03-31 | 2018-07-10 | Amazon Technologies, Inc. | Snapshot data operation request processing |
US10289493B1 (en) | 2016-03-31 | 2019-05-14 | Amazon Technologies, Inc. | Data snapshot analysis systems and techniques |
US10481983B1 (en) | 2016-03-31 | 2019-11-19 | Amazon Technologies, Inc. | Snapshot clustering techniques for multipart volumes |
US10534749B1 (en) | 2016-03-31 | 2020-01-14 | Amazon Technologies, Inc. | Block device emulation for data snapshots |
US10235211B2 (en) * | 2016-04-22 | 2019-03-19 | Cavium, Llc | Method and apparatus for dynamic virtual system on chip |
US11070628B1 (en) | 2016-05-26 | 2021-07-20 | Nutanix, Inc. | Efficient scaling of computing resources by accessing distributed storage targets |
US10372498B2 (en) * | 2016-09-26 | 2019-08-06 | Intel Corporation | Dynamic virtual CPU core allocation |
TWI582597B (zh) * | 2016-12-07 | 2017-05-11 | 英業達股份有限公司 | 硬體資源共用系統及連線橋接平台的操作方法 |
CN106815068A (zh) * | 2016-12-09 | 2017-06-09 | 中电科华云信息技术有限公司 | 基于Openstack实现Hyperv虚拟机热迁移的方法 |
KR20180097220A (ko) * | 2017-02-23 | 2018-08-31 | 에스케이하이닉스 주식회사 | 데이터 저장 장치의 동작 방법 |
CN108733307B (zh) * | 2017-04-17 | 2021-06-08 | 伊姆西Ip控股有限责任公司 | 存储管理方法、设备以及计算机可读介质 |
KR101951309B1 (ko) * | 2017-04-19 | 2019-04-29 | 서울시립대학교 산학협력단 | 데이터 처리 장치 및 데이터 처리 방법 |
US11074001B2 (en) * | 2018-04-09 | 2021-07-27 | Red Hat, Inc. | Managing virtual-machine image cloning |
WO2020000344A1 (en) | 2018-06-29 | 2020-01-02 | Intel Corporation | Techniques to support a holistic view of cache class of service for a processor cache |
CN110737394B (zh) * | 2018-07-20 | 2023-09-01 | 伊姆西Ip控股有限责任公司 | 管理缓存的方法、装置和计算机程序产品 |
US10922142B2 (en) | 2018-10-31 | 2021-02-16 | Nutanix, Inc. | Multi-stage IOPS allocation |
US11321344B2 (en) * | 2019-09-20 | 2022-05-03 | Sap Se | Virtual database tables with updatable logical table pointers |
CN110933245B (zh) * | 2019-11-21 | 2021-11-19 | 深信服科技股份有限公司 | 一种虚拟机及数据传输方法、系统、设备、计算机介质 |
CN114510443B (zh) * | 2021-12-29 | 2024-02-13 | 中科创达软件科技(深圳)有限公司 | 一种数据传输方法和系统 |
US11989436B2 (en) | 2022-07-18 | 2024-05-21 | Hewlett Packard Enterprise Development Lp | Variable extent size |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7155558B1 (en) * | 2004-07-21 | 2006-12-26 | Vmware, Inc. | Providing access to a raw data storage unit in a computer system |
US7406407B2 (en) * | 2006-06-01 | 2008-07-29 | Microsoft Corporation | Virtual machine for operating N-core application on M-core processor |
US8819676B2 (en) * | 2007-10-30 | 2014-08-26 | Vmware, Inc. | Transparent memory-mapped emulation of I/O calls |
US20100185816A1 (en) * | 2009-01-21 | 2010-07-22 | Sauber William F | Multiple Cache Line Size |
US9582222B2 (en) * | 2009-04-30 | 2017-02-28 | Western Digital Technologies, Inc. | Pre-cache similarity-based delta compression for use in a data storage system |
US8312471B2 (en) * | 2010-04-26 | 2012-11-13 | Vmware, Inc. | File system independent content aware cache |
US8443376B2 (en) * | 2010-06-01 | 2013-05-14 | Microsoft Corporation | Hypervisor scheduler |
US20120137062A1 (en) * | 2010-11-30 | 2012-05-31 | International Business Machines Corporation | Leveraging coalesced memory |
US8996807B2 (en) * | 2011-02-15 | 2015-03-31 | Intelligent Intellectual Property Holdings 2 Llc | Systems and methods for a multi-level cache |
US9069587B2 (en) * | 2011-10-31 | 2015-06-30 | Stec, Inc. | System and method to cache hypervisor data |
WO2013100896A1 (en) * | 2011-12-27 | 2013-07-04 | Intel Corporation | Methods and apparatus to manage workload memory allocation |
-
2013
- 2013-08-15 US US13/968,389 patent/US20140258595A1/en not_active Abandoned
-
2014
- 2014-01-15 TW TW103101493A patent/TW201439898A/zh unknown
- 2014-01-29 KR KR1020140011235A patent/KR20140111589A/ko not_active Application Discontinuation
- 2014-02-17 CN CN201410051986.5A patent/CN104049906A/zh active Pending
- 2014-03-10 JP JP2014045818A patent/JP2014175009A/ja active Pending
- 2014-03-11 EP EP14158960.6A patent/EP2778919A3/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008676A1 (ja) * | 2016-07-08 | 2018-01-11 | 日本電気株式会社 | 情報処理システム、キャッシュ容量配分方法、記憶制御装置、記憶制御方法、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP2778919A3 (en) | 2015-03-04 |
US20140258595A1 (en) | 2014-09-11 |
CN104049906A (zh) | 2014-09-17 |
TW201439898A (zh) | 2014-10-16 |
KR20140111589A (ko) | 2014-09-19 |
EP2778919A2 (en) | 2014-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014175009A (ja) | 仮想マシンをサポートするフラッシュ・ベースのキャッシング・ソリューションでの動的キャッシュ共有のためのシステム、方法、およびコンピュータ可読媒体 | |
US10082972B2 (en) | Method and system for pooling, partitioning, and sharing network storage resources | |
US9652405B1 (en) | Persistence of page access heuristics in a memory centric architecture | |
US11163699B2 (en) | Managing least recently used cache using reduced memory footprint sequence container | |
US9753853B2 (en) | Methods and systems for cache management in storage systems | |
US10642800B2 (en) | Multi-tenant distributed computing and database | |
US9183035B2 (en) | Virtual machine migration with swap pages | |
US10248346B2 (en) | Modular architecture for extreme-scale distributed processing applications | |
US11847098B2 (en) | Metadata control in a load-balanced distributed storage system | |
US10534720B2 (en) | Application aware memory resource management | |
US11016817B2 (en) | Multi root I/O virtualization system | |
WO2016157274A1 (ja) | ストレージ管理計算機 | |
US20150237140A1 (en) | Data storage systems and methods | |
US12001338B2 (en) | Method and system for implementing metadata compression in a virtualization environment | |
US11513849B2 (en) | Weighted resource cost matrix scheduler | |
Ma et al. | Providing hybrid block storage for virtual machines using object-based storage | |
Li et al. | Disaggregated Architecture for at Scale Computing. | |
US20240152462A1 (en) | Centralized, scalable cache for containerized applications in a virtualized environment | |
US20220318044A1 (en) | Load balancing virtual computing instances associated with virtual graphics processing units | |
WO2017163322A1 (ja) | 管理計算機、および計算機システムの管理方法 | |
Tran et al. | Virtualizing Microsoft SQL Server 2008 R2 Using VMware vSphere 5 on Hitachi Compute Rack 220 and Hitachi Unified Storage 150 Reference Architecture Guide |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20140812 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140829 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150522 |